SciELO - Scientific Electronic Library Online

 
vol.40 número65Estrategias efectivas de feedback correctivo para el aprendizaje de lenguas asistido por computadoresEnseñanza de habilidades discursivas en español en contexto pre-universitario: Una aproximación desde la LSF índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Revista signos

versión On-line ISSN 0718-0934

Rev. signos v.40 n.65 Valparaíso  2007

http://dx.doi.org/10.4067/S0718-09342007000300008 

Revista Signos 2007, 40(65), 545-572

ARTICULOS

¿Por qué son útiles los modelos computacionales de comprensión de textos?

Why are computational models of text comprehension useful?

 

Susan Goldman, Richard Golden, Paul van den Broek

Universidad de Illinois. Estados Unidos de Norteamérica.
Universidad de Texas. Estados Unidos de Norteamérica.
Universidad de Minnesota. Estados Unidos de Norteamérica.

Dirección para Correspondencia


RESUMEN

Los modelos computacionales han jugado un rol importante en el descubrimiento y entendimiento de las complejidades psicológicas de la comprensión textual. Esto ha sido por tres razones principales. En primer lugar, el proceso de transformar teorías de comprensión de textos, descritas verbalmente (teorías conceptuales), en modelos computacionales de comprensión promueve el desarrollo y evolución de las teorías conceptuales, mostrando dónde los modelos concuerdan con información empírica y dónde no lo hacen. En segundo lugar, los modelos computacionales pueden ser aplicados a información de comportamientos con el fin de comprender mejor y evaluar constructos explicativos alternativos, especialmente en casos donde los patrones de comportamiento no resultan como se esperaba a priori. En tales casos, los investigadores aportan explicaciones post-hoc, muchas de las cuales resultan bastante razonables. Los modelos computacionales pueden así proveer un modo de evaluar tales explicaciones. Por último, y parcialmente, como resultado de los primeros dos beneficios, los modelos computacionales promueven la comunicación entre investigadores dentro y a través de diversas áreas de investigación. Estos argumentos se ilustran por medio de ejemplos específicos de modelos computacionales.

Palabras Clave: Modelos computacionales, comprensión de textos.


ABSTRACT

Computational models have played an important role in unraveling and understanding the psychological complexity of text comprehension. They have done so for three major reasons. First, the process of transforming verbally described theories of text comprehension (conceptual theories) into computational models of text comprehension promotes the development and evolution of the conceptual theories by showing where the models accord with behavioral data and where they do not. Second, computational models can be applied to behavioral data to better understand and test alternative explanatory constructs, especially in cases where patterns of behavioral data are not as expected a priori. In such cases, researchers provide post-hoc explanations, many of which are quite reasonable. Computational models can provide a way to test or enact such explanations. Finally, and partly as a result of the frst two benefts, computational models promote communication among researchers within and across research areas. These claims are illustrated in specific examples of computational models.

Key Words: Computational models, text comprehension.


 

INTRODUCCIÓN

La comprensión de textos es un proceso complicado. Fenómenos como la percepción de palabras, análisis sintáctico, análisis semántico y la elaboración de inferencias son componentes esenciales del proceso de comprensión textual. No ha de sorprendernos, pues, que la mayoría de las investigaciones empíricas y teóricas abarquen solo un subconjunto de los fenómenos y procesos que constituyen una explicación completa de la comprensión textual. En realidad, los fenómenos que la componen son bastante complicados en sí y existen múltiples explicaciones teóricas acerca de ellos, las que se complican aún más por la necesidad de considerar también la producción de textos. Esto último se debe a que gran parte de la investigación evalúa la comprensión textual a través de los textos producidos por los comprendedores, generalmente a partir del recuerdo. A la luz de esta complejidad, muchas de las teorías acerca de la comprensión de textos se centran en un subconjunto de fenómenos e intentan crear modelos de los procesos psicológicos que puedan dar cuenta de los datos conductuales.

Para los fines de este artículo, el término “modelo” se referirá específicamente a una representación de los procesos psicológicos que constituyen un componente o conjunto de componentes implicados en la comprensión humana de textos. Por “modelo computacional”, en tanto, entenderemos representaciones que pueden ser procesadas por un computador y así proveer datos simulados, comparables con datos obtenidos de personas reales. A menudo los modelos computacionales incluyen algoritmos para aprender (e.g. la regla de retropropagación) y formalismos matemáticos (e.g. correspondencia mnemónica global, Gillund & Shiffrin, 1984) que han probado ser útiles para proporcionar explicaciones razonablemente sólidas de otros fenómenos de aprendizaje y memoria. Los modelos de comprensión textual, aún más que los modelos de fenómenos psicológicos más simples, se han beneficiado con el uso de computadores para programar simulaciones, pues el poder computacional permite capturar la complejidad psicológica de la comprensión de textos. Una “teoría”, típicamente es más abarcadora que cualquier modelo específico y consiste en supuestos explícitos acerca de mecanismos, parámetros y argumentos lógicos acerca de las relaciones entre ellos. Las teorías, especialmente acerca de la comprensión de textos, a menudo permiten la derivación de múltiples modelos que diferen en términos de los mecanismos específicos y los valores de los parámetros que representan. Consecuentemente, múltiples modelos pueden representar aplicaciones aceptables de la misma teoría. El proceso de generar y poner a prueba múltiples modelos es parte fundamental del proceso de proponer explicaciones teóricas de la comprensión textual.

En este trabajo argumentamos que los modelos computacionales, en particular, han jugado un importante papel en el proceso de desentrañar y comprender la complejidad psicológica de la comprensión de textos. Lo han logrado por tres razones principales. Primero, porque el proceso de transformar teorías descritas verbalmente (teorías conceptuales) acerca de la comprensión textual en modelos computacionales promueve el desarrollo y la evolución de las teorías conceptuales, al mostrar dónde los modelos concuerdan con los datos conductuales y dónde no lo hacen. Las concordancias son evidencias que apoyan los supuestos que dan origen al modelo, mientras que los desacuerdos señalan las áreas donde el modelo computacional, la teoría o ambos necesitan mayor desarrollo. La puesta a prueba de modelos alternativos aumenta aún más la utilidad de los esfuerzos por desarrollar teorías. En segundo lugar, los modelos computacionales pueden aplicarse a datos conductuales para comprender mejor y probar constructos explicativos alternativos, especialmente en los casos en que los patrones de los datos conductuales observados no son los esperados a priori. En tales casos, los investigadores aportan explicaciones post-hoc, muchas de las cuales son bastante razonables. Los modelos computacionales pueden constituir una forma de probar y aplicar tales explicaciones. Debido a que los modelos computacionales hacen predicciones específicas y, en ocasiones, no obvias, podemos probar y contrastar modelos alternativos y los resultados pueden ayudar a diferenciar entre teorías conceptuales mutuamente competidoras. Finalmente, y en parte como resultado de los dos beneficios anteriores, los modelos computacionales promueven la comunicación entre quienes investigan en la misma área o en diferentes áreas. Estos modelos promueven la consolidación e integración entre teorías y datos empíricos acerca de la comprensión de textos, iluminan aquellas áreas que requieren mayor desarrollo teórico y se integran con otras áreas de investigación, mostrando dónde ciertos mecanismos importantes para la comprensión de textos pueden también ser importantes para comprender otros fenómenos. Estas aseveraciones serán desarrolladas más extensamente e ilustradas en el resto del artículo.

Los modelos computacionales estimulan el desarrollo de teorías

Como se comentó anteriormente, describir los procesos psicológicos involucrados en la comprensión de textos resulta complicado debido a que un gran número de sistemas cognitivos están implicados. Las actuales teorías acerca de la comprensión textual admiten esta complejidad en supuestos acerca de las complejas interrelaciones entre los varios niveles y sistemas del lenguaje (palabras, oraciones; sintaxis, semántica) especialmente a la luz de los limitados recursos de capacidad de la atención y de la memoria verbal (van Dijk & Kintsch, 1983; Gernsbacher, 1990; van den Broek, 1990; Just & Carpenter, 1992; McKoon & Ratcliff, 1992; Graesser, Singer & Trabasso, 1994; Goldman & Varma, 1995; Kintsch, 1988; Myers & O’Brien, 1998). Los avances en la teoría de la comprensión de textos se han logrado gracias a los esfuerzos por traducir las formulaciones teóricas que postulaban estas variables a modelos computacionales manejables. Al mostrar de qué se podía dar cuenta y de qué no se podía, los esfuerzos computacionales han estimulado la evolución de teorías de comprensión textual. Desarrollamos esta posición, describiendo primero el trabajo de Walter Kintsch y sus colegas, debido a que ellos han elaborado una teoría de comprensión muy infuyente en la que el modelamiento computacional ha jugado un papel importante. Luego, delineamos otros dos enfoques computacionales que se desprenden del trabajo de Kintsch.

El desarrollo de teorías de comprensión de textos

El origen de una clase importante de las actuales teorías de comprensión de textos se puede rastrear en dos publicaciones seminales de Walter Kintsch: The representation of meaning in memory (Kintsch, 1974) y en el artículo publicado en Psychological Review (Kintsch & van Dijk, 1978). En la primera publicación, Kintsch establece las bases para las teorías psicológicas del procesamiento de textos y de la memoria, documentando la investigación lingüística y empírica, y motivando el supuesto de que la proposición, más que la palabra o la oración, es la unidad adecuada para representar el significado. Él mostró la existencia de relaciones sistemáticas entre proposiciones, tiempo de lectura y memoria, usando modelos matemáticos de procesos mnemónicos para dar cuenta de los datos obtenidos cuando las personas leían y recordaban o reconocían información a partir de textos construidos de acuerdo a ciertas especificaciones. Por ejemplo, se escribían tres o cuatro párrafos de modo tal que contuvieran el mismo número de palabras, pero diferente número de proposiciones. Además, Kintsch (1974) demostró que las características proposicionales, tal como el número de proposiciones en una oración, permitían predecir mejor los datos conductuales que las características de las palabras, como el número de palabras en una oración.

Kintsch y van Dijk (1978) propusieron una teoría del procesamiento del texto que trabajaba con las representaciones proposicionales. Al hacerlo, conscientemente dejaron de lado el tema de cómo la gente procesaba las oraciones para derivar las proposiciones. Más bien, centraron su teoría en cómo las proposiciones de sucesivas oraciones en un texto eran procesadas para producir conjuntos de oraciones conectadas y jerárquicamente organizados. La teoría de 1978 fue fundacional para los modelos interactivos de comprensión y aprendizaje a partir de textos, debido a que exponía un formato representacional claro para el texto de entrada, un modelo de procesamiento, mecanismos para incorporar conocimiento previo, objetivos para la comprensión y estrategias. “Localizaba” la comprensión en la interacción del texto, el lector y la tarea, aun cuando, en aquella época, su atención se centró principalmente en el texto.

Las teorías interactivas de comprensión de textos (van Dijk & Kintsch, 1983; Gernsbacher, 1990; van den Broek, 1990; Just & Carpenter, 1992; Goldman & Varma, 1995; Kintsch, 1988; Myers & O’Brien, 1998) aún dominan sobre otras clases de modelos de comprensión de texto (e.g. modelos letra por letra o palabra por palabra como el propuesto por Gough, 1972). Una característica importante que tienen en común los modelos interactivos es que suponen que el proceso de comprensión en línea opera a través de una serie de ciclos secuenciales en los que el lector procesa un grupo pequeño de proposiciones cada vez estableciendo conexiones entre la información que va procesando y la procesada en los ciclos anteriores. Los detalles de la operación del procesamiento cíclico varían un tanto entre los diversos modelos. Usaremos el trabajo de Kintsch y van Dijk (1978) para ilustrar el prototipo y comentar cómo evolucionó en respuesta a los resultados tanto de los estudios conductuales como de los estudios de modelamiento computacional.

En el modelo de Kintsch y van Dijk (1978) que comentamos, el número de proposiciones procesadas en cada ciclo era un parámetro, supuestamente equivalente al número de porciones que se puede mantener en la memoria operativa, típicamente 7 más o menos 2. Obsérvese que los contenidos de las porciones son fexibles y a menudo varían de un autor a otro y de un dominio de contenido a otro. El establecimiento de conexiones depende de restricciones impuestas por la limitada capacidad de memoria operativa verbal, de modo que no todas las proposiciones previamente procesadas están disponibles para ser conectadas con la entrante. El número de estas proposiciones disponibles, cuando se procesa la siguiente entrada, se denomina “tamaño del retén” y se representa como el parámetro s. Cuando la nueva entrada no logra ser conectada a las proposiciones disponibles, el lector reactiva las proposiciones previamente procesadas y/o hace inferencias, basadas en su conocimiento previo, que le permitan establecer esas conexiones. Los resultados de este procesamiento crean una representación explícita de la base de texto (el conjunto de proposiciones que estaban en lo ingresado) y una representación implícita de la base de texto (la base de texto explícita más las proposiciones añadidas mediante inferencias durante el procesamiento). La teoría de Kintsch y van Dijk (1978) planteaba que a menudo la gente substituye varias proposiciones por una sola denominada macroproposición, pero no fue sino hasta 1983 que establecieron los supuestos acerca de las reglas para generar macroproposiciones (van Dijk & Kintsch, 1983).

En las versiones de la teoría de los años 1978 y 1983, el establecimiento de las conexiones es un proceso fundamental para lograr la comprensión, porque permite que la representación proposicional refeje la coherencia semántica existente entre las oraciones del texto. La coherencia entre oraciones subsecuentes es precisamente lo que diferencia el procesamiento de textos, como discurso conectado, del procesamiento de una lista de oraciones. Si bien la versión de 1978 discutía la importancia de las metas del lector y la tarea en relación a los esfuerzos por crear coherencia, se le daba poca atención a su posible infuencia en el procesamiento cíclico y el establecimiento de conexiones.

El modelo de Kintsch y van Dijk de 1978 fue la base para el modelo computacional desarrollado por Miller y Kintsch (1980). Este último tenía dos componentes: un programa para segmentar el texto (chunking program) y un programa de coherencia microestructural. Al limitar su modelo a estos dos componentes, el modelo de Miller y Kintsch se centró en el subconjunto de la teoría de procesamiento de Kintsch y van Dijk que tenía que ver con la coherencia local (ciclo por ciclo, proposición por proposición) y con las estrategias para resolver los quiebres en la coherencia local.

El “programa para segmentar el texto” funciona leyendo de a una las palabras del texto, identificando la o las proposiciones asociadas con la palabra y luego decidiendo si la proposición en cuestión debiera o no añadirse a la del “grupo de proposiciones” que en ese momento está siendo procesada. El número mínimo de palabras por porción se especificaba por el “parámetro de tamaño de entrada i”.

El “programa de coherencia microestructural” funcionaba procesando una porción de proposiciones en cada ciclo de procesamiento. Se designaba una proposición como superordinada y se la ubicaba en lo alto de un “gráfico de memoria operativa” jerárquico. La designación de la proposición superordinada debía hacerse “fuera” del programa computacional por parte de un modelador humano, confando en su uso, a menudo refinado, de su conocimiento previo. En el gráfico de coherencia de la memoria operativa, las proposiciones que eran semánticamente similares a la proposición superordinada se ubicaban en niveles “superiores” de la jerarquía. La similitud semántica se determinaba por la presencia en las proposiciones de argumentos (sustantivos) traslapados. El “parámetro tamaño del retén” s determinaba el número de proposiciones que se mantenían activas durante el procesamiento del siguiente ciclo de proposiciones. Cuando el número de proposiciones en la memoria operativa al final de un ciclo era superior a s, la prioridad para mantenerla se basaba en su nivel en la jerarquía del gráfico de coherencia y en lo reciente de su procesamiento, una forma de lo que Kintsch y van Dijk denominan estrategia de borde dominante (leading edge strategy).

Además del gráfico de coherencia de la memoria operativa, se construyó un gráfico de coherencia de la memoria de largo plazo. Este difería del primer gráfico en que estaban representadas todas las proposiciones procesadas en cualquier ciclo. Cuando una nueva entrada no podía conectarse a una proposición en el gráfico de la memoria de trabajo, se reinstalaba una búsqueda en el gráfico de la memoria de largo plazo. Las proposiciones que proveían enlaces para las nuevas proposiciones “inconexas” se reincorporaban en el gráfico de coherencia de la memoria operativa en curso. Si la reinstalación de la búsqueda no proporcionaba una proposición de enlace, se producía un quiebre en la coherencia. Estos quiebres se remediaban mediante inferencias que incorporaban información del conocimiento previo, pero este proceso no era parte del programa computacional desarrollado por Miller y Kintsch (1980). Lo que sí estaba modelado computacionalmente era que, cuando ocurría un quiebre en la coherencia, se creaba un nuevo gráfico de coherencia de la memoria operativa, con un nuevo nodo superordinado (creado desde afuera del modelo computacional). La probabilidad de que una proposición fuera recuperada se computaba mediante la fórmula 1-(1-p)ndonde n era el número de ciclos de procesamiento en los que la proposición se había mantenido en el retén de la memoria operativa y p, un parámetro libre que corresponde a la probabilidad de que una proposición tiene de ser recuperada, si solo había entrado en solo un (n=1) ciclo de procesamiento en la memoria operativa. Así, p es una probabilidad base de recuperación y todas las proposiciones parten en ese nivel una vez que hayan sido procesadas en un ciclo. Con cada nuevo ciclo de procesamiento en el que ingresa una proposición aumenta la posibilidad de recuperación de esta.

Miller y Kintsch (1980) evaluaron el modelo computacional contrastándolo con los datos de 120 participantes, cada uno de los cuales había leído y recordado textos de 20 párrafos de longitud y de variada complejidad. Usaron el modelo computacional para predecir la frecuencia esperada de recuerdo de proposiciones particulares en cada uno de los 20 textos. Encontraron una correlación positiva de 0,6 entre la frecuencia de recuerdo observada y la esperada. Esta correlación resultó considerablemente menor que la obtenida por Kintsch y van Dijk (1978) y otros investigadores (Spilich, Vesonder, Chiesi & Voss, 1979) cuando construyeron manualmente gráficos de coherencia de la memoria operativa y de la de largo plazo y habían probado valores alternativos del parámetro s. Miller y Kintsch (1980) atribuyeron el menor desempeño de su modelo a la falta de un componente que generara macroproposiciones y la macroestructura del texto, que resultaba de la aplicación de las reglas de organización jerárquica que se aplicaban a la microestructura. Así, las aparentes limitaciones del modelo computacional que no explotaba las macroproposiciones llevó al desarrollo de este aspecto de la teoría de la comprensión textual, tratado in extenso en el libro de 1983 Strategies of discourse comprensión (van Dijk y Kintsch, 1983).

La teoría de comprensión de textos detallada en van Dijk y Kintsch (1983) dedicó gran atención a la manera cómo los comprendedores traducían textos largos y detallados a representaciones tipo resumen que se apoyan en la aplicación frecuente y juiciosa de reglas para sustituir un grupo de microproposiciones por una sola macroproposición. En ella también desarrollaron una teoría de las representaciones y cambiaron de una base textual explícita e implícita a una teoría de las representaciones de tres niveles. Específicamente, van Dijk y Kintsch (1983) postularon que las representaciones mentales de un texto tenían múltiples capas que capturaban diversos aspectos del texto, incluyendo la forma superficial (palabras, oraciones, diagramación del texto), el significado del texto en sí (base del texto) y la interpretación o modelo del mundo al que se refere el texto (modelo mental o de situación) (van Dijk & Kintsch, 1983). La base de texto capta las relaciones referenciales y las relaciones inter- e intra-oracionales entre las palabras en el texto. La representación de la base de texto corresponde muy claramente al anterior gráfico de coherencia local. El modelo de situación refeja la integración del conocimiento previo con la información explícita “en” el texto. Su planteamiento era que la construcción de un modelo de situación aumentaba la posibilidad de utilizar la información en situaciones nuevas. Existía un número de demostraciones con-ductuales de la validez tanto de los niveles de representación como de la importancia de la creación de macroproposiciones y de macroestructuras (e.g. van Dijk & Kintsch, 1983; Perrig & Kintsch, 1985; Schmalhofer & Glavanov, 1986; Kintsch, 1990; Fletcher, 1994; McNamara, Kintsch, Songer & Kintsch, 1996). Sin embargo, los esfuerzos por formalizar la versión 1983 de la teoría y desarrollar modelos computacionales de ella resultaron esquivos debido, en gran medida, a la importancia del conocimiento previo estratégico en la generación de macro-proposiciones y modelos de situación. Parecían no existir técnicas computacionales a priori adecuadas para modelar el manejo estratégico del conocimiento previo.

A la luz de la imposibilidad de tratar computacionalmente la teoría de la comprensión textual de 1983, Kintsch propuso una forma radicalmente diferente de la teoría de la comprensión de textos (Kintsch, 1988) que “manejaba” el conocimiento previo mediante procesos asociativos no estratégicos. El modelo, llamado de Construcción-Integración (CI) (Kintsch, 1988), es otro ejemplo interesante de cómo el “fracaso” para formular un modelo computacional de una teoría provee un ímpetu a la formulación de proposiciones teoréticas radicalmente diferentes.

Conceptualmente, el CI es un modelo de procesamiento de dos fases de satisfacción de restricciones (Kintsch, 1988) en el que no existen mecanismos de procesamiento estratégico ni construcción de macroestructuras. Kintsch (1988) lo describió como un modelo “tonto”. La fase de “construcción” es un proceso de abajo hacia arriba basado en el texto, que da como resultado una representación inicial y frecuentemente incoherente de los conceptos e ideas en el texto, además de elementos del conocimiento previo que son activados por los conceptos y las ideas/proposiciones del texto. Los conceptos y las proposiciones están representadas por nodos en una representación tipo red semántica. Las conexiones entre los nodos refejan las asociaciones lógicas y semánticas a nivel oracional y textual. Durante la fase de “integración”, la activación se distribuye entre los nodos y conexiones de acuerdo con un algoritmo conexionista, que tiene como efecto el fortalecimiento de aquellos nodos que tienen muchas conexiones y, por ello, son centrales en el significado y en la situación y deja de lado los que tienen pocas. Los nodos que tienen pocas conexiones a menudo se asocian con conceptos individuales irrelevantes para el significado en el contexto de la red en desarrollo o son inconsistentes con el significado nuclear. En efecto, los conceptos e ideas que son compatibles se refuerzan mutuamente y aquellas que son incompatibles o irrelevantes son “ignoradas”. Por ello, durante la integración, el conocimiento relevante se conecta más fuertemente con ideas del texto y las brechas entre las ideas son llenadas con conocimiento previo que se activa a través de procesos mnemónicos asociativos, consistentes con las teorías de evocación y almacenamiento contemporáneas (Raajmakers & Shiffrin, 1981; Murdock, 1982; Gillund & Shiffrin, 1984; McClelland & Rumelhart, 1985; Hintzman, 1988; Shiffrin & Steyvers, 1997; Diller, Noble & Schiffrin, 2001).

Computacionalmente, Kintsch (1988) modeló el CI como una red conexionista (Rumelhart, Hinton & McClelland, 1986) de nodos y conexiones entre ellos, ordenados como una matriz en la que los nodos son los encabezados de flas y columnas y las entradas que no son cero en las celdillas de la matriz indican una relación o conexión entre los encabezados de esa célula. Cada nodo y cada conexión tienen asociado un valor numérico inicial de “activación”. La fase de construcción construye la matriz y llena los valores diferentes de cero en las celdillas, dando como resultado la matriz de coherencia (Kintsch, 1988). Entonces viene la fase de integración en la que se aplica en forma iterativa una regla de actualización de la activación. En concreto, todos los nodos son normalmente activados inicialmente y luego cada nodo actualiza su activación, computando la suma de los pesos de las conexiones que entran en el nodo y los niveles de activación de los otros nodos de la red conectados al nodo vía esas conexiones. Todos los nodos de la red actualizan sus niveles de activación simultáneamente y luego los niveles de activación de todos los nodos se reducen en una cantidad fja para evitar que crezcan sin límite. Bajo condiciones generales, las activaciones, cuando son actualizadas de esta manera, con el tiempo tenderán a dejar de cambiar (Guha & Rossi, 2001).

Cuando el cambio en niveles de activación llega a un mínimo en todos los nodos, después de diversas iteraciones, termina la fase de integración y los resultantes valores de activación de nodos y conexiones son “guardados” en una matriz de fuerzas de conexión de la memoria de largo plazo, usando una versión de la regla de aprendizaje de Hebb, tal como se describe en Kintsch (1988). Estas fuerzas de conexión (o asociaciones) entre nodos se actualizan aditivamente si la conexión participa en ciclos de procesamiento adicionales. Normalmente, cuando se procesa una oración, se produce una matriz en la que cada sustantivo es un nodo de concepto y el verbo genera un nodo de proposición de predicado que relaciona los nodos de conceptos. En consecuencia, las celdillas de la matriz aprehenden la intersección de los nodos de conceptos entre sí y con su proposición predicativa (cuando se dibuja una representación de redes, las entradas diferentes de cero en las celdillas corresponden a las asociaciones entre nodos). Suponiendo un parámetro constante de activación, la proposición predicativa recibe mayor activación inicial que los nodos de conceptos que relaciona. Cuando se procesan sucesivas oraciones en un texto, el modelo CI adopta el supuesto de ciclos de entrada en un contexto de memoria operativa limitada, supuesto que era parte de las versiones de 1978 y 1983 de la teoría de Kintsch y van Dijk. Durante los diversos ciclos del proceso de construcción se forman asociaciones entre las proposiciones de predicado si están presentes en el mismo ciclo y si hay traslapo entre ellos. Un supuesto postulado con frecuencia es que los nodos más activos al final del ciclo se traspasan al siguiente ciclo de entrada (Kintsch, 1988). Aunque 2 es el número usado con frecuencia para este parámetro de “traspaso”, los modeladores han manipulado este valor, encontrando, a veces, mejores encajes del modelo con valores mayores y otras veces no (Tapiero & Denhière, 1995).

Las simulaciones de datos conductuales basadas en el modelo CI (Kintsch, 1988) han dado como resultado de moderadas a buenas correlaciones entre la actuación del modelo y las de los seres humanos en una variada gama de tareas de comprensión y aprendizaje (Kintsch & Greeno, 1985; Kintsch, 1988; Singer & Kintsch, 2001; Wolfe & Goldman, 2003), aunque las predicciones típicamente han sido mejores para tareas de memoria que para tareas de procesamiento en línea. Más aún, al implementar el modelo CI existen –comprensiblemen-te– muchos lugares donde los modeladores deben tomar decisiones acerca de varios parámetros (e.g. el número de proposiciones de incluir en un ciclo; cuántas y qué proposiciones trasladar al siguiente ciclo; los valores de activación inicial; el peso de los diferentes tipos de relaciones entre los nodos; cuánto y qué conocimiento previo incluir en la fase de construcción; cuáles son las relaciones entre los nodos a lo largo de la representación de los niveles base de texto y modelo de situación, etc.) Como resultado, el modelo CI ha estimulado el desarrollo de un número adicional de modelos computacionales que tienen una semejanza de familia con el modelo CI pero que sostienen supuestos diferentes acerca de uno o más de los componentes o parámetros del modelo de procesamiento computacional, incluyendo la operación de la memoria operativa y el parámetro de traspaso (Goldman & Varma, 1995; Tapiero & Denhière, 1995; Goldman, Varma & Coté, 1996; Langton & Trabasso, 1999), el algoritmo de aprendizaje (Goldman et al., 1996; van den Broek, Risden, Fletcher & Thurlow, 1996; van den Broek, Young, Tzeng & Linderholm, 1998) y la base para establecer las conexiones entre los nodos en la matriz de coherencia (Langston & Trabasso, 1999; van den Broek et al., 1998).

Todos estos esfuerzos de modelamiento computacional han ayudado a definir un tema importante aún no resuelto en la comprensión de textos o han presentado evidencia convincente de la utilidad del modelo computacional particular que estaba siendo probado. Al hacerlo, estos esfuerzos de modelamiento computacional han estimulado el desarrollo de teorías de comprensión de textos. En el presente contexto destacamos dos esfuerzos de modelamiento en la familia del CI. El primero, un pariente relativamente cercano del CI, el modelo de Construcción Integración de Capacidad Restringida (3CI) (Goldman & Varma, 1995; Goldman et al., 1996) que consideraba una concepción alternativa de memoria operativa, pero, por lo demás, seguía felmente los supuestos del modelo CI. El segundo caso, la Teoría del Paisaje, (van den Broek et al., 1996; van den Broek et al., 1998) es un primo más lejano del CI y hace diferentes supuestos acerca de varios mecanismos del proceso.

El modelo (3CI) de Construcción-Integración de Capacidad restringida

El modelo 3CI alteró los mecanismos de la memoria operativa del modelo CI. Goldman y Varma (1995) y Goldman et al. (1996) utilizaron la arquitectura computacional del modelo de Just y Carpenter, el Modelo Colaborativo de Producción de Carpenter con base de Activación (3CAPS), de modo que pudieron sustituir un proceso dinámico de la memoria operativa por el parámetro fjo s de la memoria operativa en el modelo CI. El rasgo del 3CAPS decisivo para el 3CI de Goldman y Varma (1995) es el supuesto de que los elementos activos en la memoria operativa compiten entre sí por activación en una memoria operativa limitada o de capacidad restringida. Los elementos pierden o ganan activación en forma dinámica. El procesamiento en el modelo 3CI opera sobre la base de una secuencia de ciclos. Mientras mayor sea la activación con la que un elemento inicia un ciclo de procesamiento, mayor es la posibilidad de que ese elemento acreciente su activación en ese ciclo, al igual como sucede en el modelo CI. La diferencia con el modelo CI es que no existe la remoción forzada de ciertas proposiciones (o la decisión de mantener algunas y eliminar otras) para ser procesadas con el siguiente ciclo de entrada. Más bien, a medida que los elementos disminuyen su activación están menos disponibles para conectarse con otros elementos, hasta llegar a niveles tan bajos de activación que –en efecto– ya no están “presentes” en la memoria operativa. Al igual que en el modelo CI, al final de cada ciclo de procesamiento, los niveles de activación de los nodos y las conexiones entre ellos se actualizan en una matriz de memoria de largo plazo. Las fuerzas en esta matriz son las bases para predecir la posibilidad de que sea evocada.

Goldman y Varna (1995) aplicaron el modelo 3CI y el CI al mismo conjunto de datos evocados a fin de examinar las diferencias en las predicciones hechas por los modelos alternativos. Los datos conductuales se obtuvieron de adultos y niños que habían leído trozos informativos breves (250-300 palabras) que tenían una estructura global jerárquica. El modelo 3CI produjo un patrón de niveles de activación a lo largo de las oraciones del trozo que imitaba su estructura global, mientras que el modelo CI produjo patrones de activación sensibles solo a la estructura local, oración por oración. Es decir, el modelo 3CI produjo activaciones relativamente más altas para las oraciones tópicas que para las oraciones de detalles en cada párrafo del trozo, correspondientes a la estructura jerárquica del contenido del trozo. Las predicciones en cuanto al recuerdo derivadas del modelo 3CI se correlacionaron significativamente con los recuerdos de los adultos y los niños. Como grupo, el patrón de recuerdo de los adultos mostró sensibilidad a la estructura global del texto por cuanto recordaban ideas principales con mayor frecuencia que los detalles que las elaboraban. Sin embargo, entre los niños la distinción entre ideas principales y detalles fue menos obvia. Los dos modelos resultaron igualmente buenos para predecir los datos de los niños cuando los estudiantes evocaban por escrito. Cuando los niños recordaban oralmente lo que habían leído, el modelo CI se correlacionó mejor con la actuación en la evocación que el modelo 3CI.

La habilidad predictiva comparada del 3CI con el CI fue además probada examinando la habilidad de cada modelo para predecir recuerdo de trozos informativos que tenían estructuras de contenidos diferentes de las de los pasajes examinados en la primera comparación (Goldman et al., 1996). Dos resultados son particularmente relevantes para este tema. Un análisis detallado de las oraciones para las que las predicciones de los modelos habían quedado corto (i.e. la oración era recordada más frecuentemente que lo que habían predicho los modelos computacionales) los datos conductuales de recuerdo indicaron que estos eran de dos tipos. El primero, eran oraciones en las que la información era muy familiar para los lectores (e.g. “Los dentistas tienen que tapar caries”) quedó corta en las predicciones de ambos modelos. Esto era comprensible porque ninguno de los modelos había implementado un mecanismo para incorporar el conocimiento previo en el proceso de construcción. Esta subpredicción llevó a Goldman y sus colegas a plantear la necesidad de incluir nodos de modelos de situación así como un medio basado en principios para introducir el conocimiento previo en las fases de construcción e integración del procesamiento de textos.

El otro tipo de oraciones que resultaron subpredichas fueron aquellas que tenían un fuerte traslapo con oraciones anteriores y eran importantes para el contenido pero que aparecían tarde en el trozo. La subpredicción de estas es el resultado de una propiedad de una red de proposiciones en desarrollo en la que las proposiciones nuevas y las antiguas compiten por la activación disponible. A medida que la red crece y se estabiliza, esencialmente se alimenta a sí misma y es más difícil para una proposición nueva acrecentar suficiente activación para “entrar” en la red. Para resolver este problema, Goldman y sus colegas modificaron la forma en la que opera el proceso de integración en el modelo 3CI. Específicamente, ellos incorporaron un umbral tope máximo de activación: una vez que una proposición sobrepasa este umbral, ya no competía con otras por activación, permitiendo que nuevas entradas tuvieran más posibilidades de acrecentar su activación. Este tope en el umbral era una forma de incorporar el concepto de que algunas ideas son tan predominantes en un trozo que una vez que alcanzan cierta fuerza (el umbral) serán recordadas sin importar que más entre. El umbral de tope máximo sustituye básicamente una función sigmoidea por una función de activación lineal.

Resulta interesante que ni el modelo CI ni el 3CI fueran capaces de dar cuenta del procesamiento en línea del pasaje. Los datos acerca del tiempo de lectura no fueron predichos por el número de ciclos necesarios para que la red se estabilice, una medida derivada de la fase de integración del modelamiento. Así, el esfuerzo por construir el 3CI promovió la teoría en el área de los procesos de la memoria operativa pero no arrojó luz sobre la predicción del tiempo de lectura. Esto no debiera sorprendernos, porque gran parte de la varianza en el tiempo de lectura es predecible por diversas características de la superficie del texto de entrada (Haberlandt & Graesser, 1985). Tanto el CI como el 3CI operan sobre una entrada de proposiciones más que sobre las oraciones de superficie del texto. La falta de predicción sobre el tiempo de procesamiento y su relación con las características del texto superficial de los pasajes subraya la importancia de desarrollar medios para analizar el lenguaje del texto de entrada, un significativo desafío computacional. Sin embargo, comienzan a emerger nuevas teorías de análisis sintáctico. Algunas de estas parecen prometedoras para su uso en modelos computacionales de comprensión de textos (e.g. Durbin, Earwood & Golden, 2000; Dennis, 2004). Por ejemplo, Goleen y sus colegas (Durbin, et al., 2000; Ghiasinejad & Goleen, 2002) están desarrollando un modelo computacional para identificar automáticamente la presencia de proposiciones en datos de respuestas libres. La idea fundamental de su modelo es que los datos representativos de respuestas libres se anotan primero semánticamente usando un sistema de anotación semántica incorporado en la interfaz de un programa amigable. Luego, el modelo computacional aprende las regularidades estadísticas entre subsecuencias de palabras en los datos de respuesta libre y las anotaciones semánticas, interactuando con un codificador humano con mucha experiencia. Específicamente, el porcentaje de veces que una palabra se usa para expresar un concepto y el porcentaje de veces que un concepto sigue a otro cuando expresa una proposición en particular se registra durante el proceso de aprendizaje. Con el tiempo, el sistema (en dominios de tarea relativamente restringidos) es capaz de identificar automáticamente las proposiciones en los datos de respuesta libre.

La Teoría del Paisaje y el modelo computacional

El segundo ejemplo que elaboramos es la Teoría del Paisaje, desarrollada por van den Broek y sus colegas (van den Broek et al., 1996; van den Broek et al., 1998). Tal como se indicó en una sección anterior del artículo, la Teoría del Paisaje comparte rasgos con la teoría CI, pero difere de varias maneras importantes. En primer lugar, la teoría del Paisaje plantea una interacción dinámica y recíproca entre los procesos en línea y el producto que va surgiendo de la lectura. En segundo lugar, las metas y juicios de coherencia del lector son parte integral de la arquitectura de la Teoría del Paisaje y sus relaciones con el proceso de lectura es explícito. En tercer lugar, la Teoría del Paisaje trata la coherencia como el resultado que surge de múltiples dimensiones representacionales y sus interacciones (Zwaan, Magliano & Graesser, 1995) y conecta estas dimensiones con el estándar de coherencia del lector en esa situación. Esto contrasta con otras teorías que típicamente se centran en una sola dimensión de la coherencia.

La Teoría del Paisaje capta tanto los procesos de comprensión en línea como la actuación de la memoria después que se ha completado la lectura. En esta teoría, la lectura se concibe como un proceso cíclico en el que la activación de las proposiciones (u otras unidades del texto) fluctúan de un ciclo al otro. Existen varias fuentes principales de activación en cada ciclo: el ciclo de entrada del momento, el ciclo precedente (por medio de la transferencia o mantención), la representación mnemónica del texto tal como ha sido construido en los ciclos de procesamiento anteriores, y el conocimiento previo de trasfondo. Estos dos últimos –el recuerdo del texto leído hasta ese momento y conocimiento previo– se pueden acceder a través de la expansión del proceso de activación (denominada “activación de cohorte”) o mediante la (re)instalación estratégica. Junto con las limitaciones de la memoria operativa y de la atención, estas fuentes dan como resultado un “vector de activación” que forma la base para actualizar la representación del texto en la memoria operativa. En la implementación computacional del modelo del Paisaje, en cada ciclo la fuerza del nodo representacional de una proposición aumenta como función de la cantidad de activación que recibe. Además, se establece una conexión (o, en caso que ya exista una conexión, se refuerza) entre las proposiciones co-activadas, en función de la cantidad de activación que cada una recibe. Un componente central en el modelo computacional es que los vectores de activación y la representación en desarrollo en la memoria interactúan dinámicamente: con cada ciclo de lectura se actualiza la representación en la memoria y, a su vez, la representación actualizada infuye fuertemente sobre los vectores de activación subsecuentes. Otro componente central de la teoría del Paisaje es que en cada situación de lectura, el lector aplica un conjunto especial de “estándares de coherencia” (van den Broek, Risden & Husebye-Hartman, 1995; Goldman et al., 1996). En cada ciclo de lectura individual estos estándares determinan si la información activada a través de la activación cohorte es adecuada para satisfacer al lector o si se requieren procesos estratégicos. Los estándares de coherencia diferen entre lectores y de una situación a otra, según el objetivo de la lectura, las exigencias de la tarea, las características textuales, etc., pero en la mayoría de los casos incluyen por lo menos estándares de coherencia referencial y causal. Desde un punto de vista computacional, los estándares de coherencia establecen un valor como umbral. Si este umbral se alcanza o es sobrepasado, el lector sigue al siguiente ciclo de entrada; en caso contrario, continúa el procesamiento del mismo ciclo.

Para seguirle la pista a los muchos componentes y sus interacciones, van den Broek y sus colegas, implementaron la teoría en un modelo computacional (van den Broek et al., 1988; van den Broek et al., 1996; Linderholm, Virtue, van den Broek & Tzeng, 2004). Las pruebas con el modelo mostraron bastante buenos resultados al predecir datos conductuales. Las predicciones del modelo para las activaciones en línea y la frecuencia de recuerdo no en línea arrojaron una correlación entre .55 y .65 con los datos de los lectores. Aún más, el cambio del vector de activación de un ciclo al siguiente (denominado “gradiente de activación”) predijo tiempo de lectura para el segundo ciclo. Como un ejemplo final, el modelo se porta bien, en la posdicción de los datos acerca de la detección de inconsistencias, descrito por O’Brien y Albrecht (1992) y los efectos del objetivo de lectura sobre la generación de inferencias, descritos por van den Broek, Lorch, Linderholm y Gustafson (2001).

El desarrollo del modelo computacional permitió llevar a cabo las primeras pruebas de la teoría del Paisaje y mostró que capta una amplia gama de fenómenos observados en el proceso de lectura y la construcción de representaciones. Igualmente importante para nuestros intereses actuales, sin embargo, es que el proceso de crear un modelo computacional llevó a un desarrollo considerable de la teoría del Paisaje. Por ejemplo, para implementar computacionalmente la idea de que los vectores de activación dan como resultado una representación en la memoria (o actualiza una existente) fue necesario proveer una “mini” teoría explícita acerca de “cómo” ocurre esta construcción/actualización. Esta “mini” teoría debía especificar la forma precisa en la que la co-activación lleva a la construcción de conexiones

•    ¿Es la fuerza de conexión que resulta del vector de activación un asunto de todo o nada (es decir, si dos proposiciones son co-activadas se establece una conexión sin importar sus reales valores de activación), aditiva (es decir, la fuerza de conexión es la suma de cada una de sus activaciones o, si uno admite la activación negativa, la suma de los valores absolutos de sus activaciones), o multiplicativa (es decir, la fuerza de las conexiones es una función del producto de las dos activaciones)?

•    ¿Las co-activaciones subsecuentes cambian la fuerza de una conexión existente en forma linear o no linear (e.g. en forma asintótica)?

Descubrimientos en investigaciones posteriores acerca de la memoria y de los modelos conexionistas formaron la base para un componente teórico que explicitaba la traducción del vector de activación a la representación en la memoria. En cuanto a los ejemplos mencionados anteriormente, la “mini” teoría supone que el cambio en la fuerza de conexión es una función multiplicativa y que la actualización sigue una curva asintótica.

Una segunda contribución al desarrollo de una teoría, tiene que ver con el hecho de que tanto la representación en la memoria episódica como el conocimiento semántico previo, son supuestamente accesados a través de la activación de cohorte. Cuando se trató de decidir acerca del establecimiento de los parámetros para describir esta expansión de activación, se tuvo que tomar una decisión acerca de si el parámetro sería idéntico para ambas fuentes de activación. Permitiendo que sean distintos, es posible considerar “pesos” diferenciales para las dos fuentes. Así, la traducción de la teoría del Paisaje a un modelo computacional estimuló el desarrollo de nuevas ideas teóricas así como la especificación precisa de la teoría existente.

Resumen

El desarrollo de la teoría de la comprensión de Kintsch junto con ejemplos de modelos computacionales de comprensión de textos han sido utilizados para ilustrar formas en las que la construcción de modelos computacionales a partir de formulaciones teóricas de comprensión de textos ha dado como resultado avances en la teoría. Para hacerlo, hemos presentado algunos datos conductuales que los modeladores han intentado explicar. Los modelos computacionales son usados a menudo para ayudar a formalizar las relaciones en los datos conductuales. Al mismo tiempo, a veces son capaces de ayudar a dar sentido tanto a patrones esperables como a los inesperados encontrados en los datos conductuales.

Modelos computacionales ayudan a dar sentido a datos conductuales sorprendentes

Además de impulsar el desarrollo teórico, el modelamiento computacional puede ayudar a proveer y/o probar explicaciones post-hoc de los datos conductuales cuyos patrones difere de predicciones a priori, son sorprendentes o parecen contradictorios. Por ejemplo, las características del Modelo Computacional del Paisaje condujeron a predicciones inesperadas y teóricamente importantes. Por ejemplo, al añadir ciclos de entrada “vacíos” (es decir, vector cero que no contenía activación para ninguna proposición) los patrones de activación en el último vector de activación y la matriz de conexiones que constituye la representación final en la memoria resultaron alterados estructuralmente. Al comparar los dos conjuntos de predicciones (antes y después de los ciclos vacíos) con los datos humanos, van den Broek y colegas notaron que el primer conjunto (antes de los ciclos vacíos) predecía recuerdo inmediato pero era muy inferior al predecir recuerdo demorado; el patrón para el segundo conjunto (después de agregar los ciclos vacíos) era inverso: predicciones mucho mejores para recuerdos demorados que para recuerdos inmediatos. Estas observaciones sugirieron que una de las principales diferencias entre recuerdo demorado e inmediato consiste en un período de no activación y, con ello, una eliminación adicional de activaciones momentáneas en los vectores de activación como en la representación en la memoria. Además, sugirieron que el recuerdo inmediato es función tanto de la representación en la memoria como del vector de activación del último ciclo de lectura, mientras que el recuerdo demorado solo está determinado por la representación en la memoria (ahora más actualizada). Estos descubrimientos y especulaciones permiten incluir los dos tipos de memoria en una sola arquitectura.

Un segundo ejemplo que se refere al modelo Paisaje dice relación con la adopción, descrita anteriormente, de una curva de aprendizaje asintótica. En la arquitectura del modelo Paisaje la curva asintótica de aprendizaje dio como resultado la predicción de que la conexión en la representación en la memoria de la proposición A a la proposición B podía diferir en fuerza de la conexión entre la proposición B a la proposición A; en otras palabras, se predijo que las conexiones entre proposiciones eran “asimétricas”. Aunque este efecto predictivo no fue intencionado, efectos similares han sido documentados extensamente en la literatura científica acerca de la memoria semántica y, en ocasiones, en la literatura acerca del procesamiento del discurso (Trabasso, Secco & van den Broek, 1984; Lutz & Radvansky, 1997).

Aplicación de modelamientos computacionales a las inferencias

La elaboración de inferencias es un área de la investigación del procesamiento de textos que ha generado teorías, modelos, datos conductuales contrarios, con las consiguientes controversias (conf. McKoon & Ratcliff, 1992, 1995; Graesser et al., 1994) El modelamiento computacional de varias tareas inferenciales y datos conductuales está llevando a una mejor comprensión de algunas de estas cuestiones. En esta sección discutimos dos de estas aplicaciones: una que tiene que ver con el tiempo para la memoria de reconocimiento y de evocación de inferencias, comparada con lo presentado explícitamente en el texto (Singer & Kintsch, 2001), y la segunda, relacionada con diferentes tipos de inferencias (Schmalhofer, McDaniel & Keefe, 2002).

Reconocimiento y evocación de inferencias

Singer y Kintsch (2001) combinaron el marco del CI con el modelo de encaje de memoria global de Gillund y Shiffrin (1984) en un esfuerzo por dar cuenta de un complejo patrón en ciertos datos de memoria inferencial recolectados por Zimny (1987), también informados en Kintsch, Welsh, Schmalhofer y Zimny (1990). Zimny puso a prueba la memoria para palabras de sondeo usando tres lapsos de demora en tareas de memoria de reconocimiento y tareas de verificación de oraciones. Las palabras de sondeo estaban relacionadas con información textual explícita, parafraseada e implícita o con distractores. De especial interés aquí son los diferentes patrones que Zimny informó en relación a las dos tareas. En ambas tareas y en las tres condiciones de demora, las palabras sondeos relacionadas con la información explícita siempre eran reconocidas en los niveles mejores y más altos (70 a 80% en reconocimiento; 85 a 95% en verificación). Sin embargo, el patrón para las inferencias era diferente según la tarea. En la tarea de reconocimiento, la memoria para palabras de sondeo relacionadas con las inferencias crecía con el tiempo de demora: en la prueba inmediata solo 20% de los participantes dijo que la palabra de sondeo había sido presentada (un falso reconocimiento) mientras que, en la demora más prolongada, casi el 60% dijo que había sido presentada. En cambio, en la prueba de verificación de oraciones, los participantes verificaron que las palabras de sondeo relacionadas con inferencias habían ocurrido con la misma frecuencia con que dijeron que las palabras relacionadas con información explícita habían estado presentes en el texto. En otras palabras, en la tarea de verificación de oraciones, el recuerdo de palabras relacionadas con inferencias es tan fuerte como el recuerdo de información explícita en cada tramo de demora, mientras que en la tarea de reconocimiento, el recuerdo de palabras relacionadas con inferencias se hacía más fuerte a medida que aumentaba la demora.

Singer y Kintsch (2001) y Kintsch et al. (1990) encontraron que podían dar cuenta de este complejo patrón de resultados usando una versión del modelo CI para caracterizar los cambios dinámicos en la matriz de conexiones de la memoria operativa del lector, especificando cómo los nodos oracionales, los nodos proposicionales y los nodos proposicionales macroestructurales se interconectan. Luego Singer y Kintsch (2001) usaron una versión modificada de la teoría de memoria de reconocimiento (Gillund & Shiffrin, 1984) para hacer predicciones en relación a la actuación de la memoria de reconocimiento de oraciones y tareas de verificación de oraciones. En términos más precisos, calculaban la familiaridad de una palabra sondeo, basados en la fuerza de sus conexiones a lo largo de toda la matriz de coherencia, consistente con el mecanismo de recuperación del encaje de memoria global de Gillund y Shiffrin (1984). Aún más, los cálculos de familiaridad se hicieron usando la regla de combinación multiplicativa de Gillund y Shiffrin (1984) más que una regla lineal. Finalmente, usaron las reglas para las decisiones de respuesta de la teoría de detección de señales y determinaron diferentes umbrales de respuestas para la memoria de reconocimiento y las tareas de verificación de oraciones. Este proceso tripartito produjo datos de simulación que eran consistentes con datos conductuales obtenidos con anterioridad. Singer y Kintsch (2001) observaron que las tres partes de la simulación tenían que operar juntas para producir el particular patrón cualitativo y cuantitativo de predicciones. Cada una de ellas era necesaria pero no suficiente; las tres eran esenciales para que el modelo hiciera el correcto patrón cualitativo de predicciones. El espacio de este artículo no nos permite tratar este modelo en toda su complejidad y detalles y referimos al lector interesado a Singer y Kintsch (2001) para una explicación completa de sus derivaciones y los argumentos en su favor.

La simulación de inferencias puente y predictivas

Schmalhofer et al. (2002) señaló que existen varias explicaciones y teorías acerca de cuándo y porqué se elaboran diferentes tipos de inferencias. Por ejemplo, indican que existe una alta probabilidad de que se elaboren las inferencias que llenan las brechas entre trozos de información que ya han sido procesados (inferencias retroactivas y puente). En cambio, las inferencias que predicen lo que va a suceder a continuación (inferencias proactivas) se elaboran con mucha menor frecuencia. Su meta era usar el modelo CI para proveer una explicación unificadora para ambos tipos de inferencia. Utilizando material que Keefe y McDaniel (1993) habían usado para examinar inferencias puente y proactivas, Schmalhofer et al. (2002) construyeron matrices de conectividad para tres niveles de representación (texto de superficie, proposicional y situacional) así como la conectividad entre los niveles. Así, los conceptos presentados explícitamente en el texto tendrían múltiples niveles en los cuales acrecentar su activación mientras que los nodos generados de conocimiento previo estaría representado en el nivel de situación y, tal vez, en el proposicional. Clave para comprender su argumento es que los nodos acrecientan su activación a base de la conectividad dentro y entre los niveles. A medida que avanza el procesamiento, nuevas entradas provee razones para continuar activando nodos específicos en todos los niveles; si no hay una entrada que se conecte con un nodo activado en un ciclo particular, va a perder su activación y será menos probable que muestre efectos de imprimación (priming).

La conectividad es el principio unificador en la explicación de Schmalhofer. Los nodos que están altamente conectados a otros nodos, especialmente si esto se mantiene a lo largo de múltiples ciclos de procesamiento, mostrarían una posibilidad aumentada de mostrar efecto de imprimación, sin importar si el nodo representa una inferencia puente o una predictiva. Las simulaciones del modelo CI basadas en la derivación de las matrices de conectividad, prestando cuidadosa atención a la conectividad dentro o entre nivel arrojó predicciones tanto cualitativa como cuantitativamente consistentes con los datos de Keefe y McDaniel (1993). Schmalhofer y sus colegas fueron así capaces de dar cuenta de la activación asociada al tiempo de inferencias puente y predicativas.

El uso de modelos computacionales para dar cuenta de los patrones de los datos conductua-les, tanto esperables como inesperadas, contribuyen a integrar y unificar los descubrimientos empíricos y apoyan el desarrollo de las teorías. Al desarrollar estos modelos, los investigadores se ven forzados a ser totalmente explícitos en cuanto a los mecanismos, los procesos, y relaciones entre ellos. Esta característica de los modelos computacionales permite una mejor comunicación.

Los modelos computacionales apoyan la comunicación

La precisa especificación exigida para el establecimiento de modelos computacionales facilitan la comunicación entre investigadores que trabajan en áreas similares así como los que trabajan en áreas aparentemente no relacionadas. Primero discutimos el tema de la codificación automática de los datos de respuesta libre. En segundo lugar, discutimos cómo los modelos computacionales son útiles para integrar comprensión y memoria, áreas que típicamente son vistas como muy relacionadas. Nuestro último ejemplo ilustra el papel de la comunicación de los modelos computacionales mediante el uso de un modelo de comprensión de texto para dar cuenta de los datos de toma de decisiones.

Codificación confable y documentada de datos de respuesta libre

Un procedimiento típico para codificar los datos de protocolos implica tener dos codificadores humanos expertos que trabajan juntos en el análisis de una porción de los datos del protocolo. Los codificadores desarrollan métodos para identificar las proposiciones fundamentales del modo más objetivo posible. La porción restante de los datos del protocolo es entonces decodificada en forma independiente por los codificadores con el propósito de calcular una medida de confabilidad entre ellos. Típicamente, en las investigaciones de comprensión textual, las medidas de acuerdo se ubican en el rango del 95% con Cohen Kappa (Cohen, 1960; Carletta, 1966); se considera que los puntajes en el rango del 70% establecen la aceptabilidad y confabilidad de los procedimientos de codificación.

Esta metodología de amplio uso para la codificación de datos de protocolos, sin embargo, sufre de una variedad de serios problemas intrínsecos. En primer lugar, a pesar de los mejores esfuerzos, los detalles explícitos que rigen todos los aspectos de cómo se proyectan los datos de respuesta libre en una representación proposicional nunca se pueden lograr mediante el procedimiento anterior. Siempre habrá un componente subjetivo en este proceso. En segundo lugar, aún si todos los detalles del procedimiento de codificación se pudieran documentar explícitamente, no hay garantía de que el procedimiento de codificación resultante sea siempre aplicado consistentemente por los codificadores humanos. En tercer lugar, la comunicación eficiente y no ambigua de ideas complejas es un componente esencial de la ciencia. Aún si todos los detalles del proceso de codificación se pudiera documentar explícitamente y luego siempre implementar consistentemente sin errores, el resultante proceso de codificación (tal como es normalmente implementado en la actual literatura científica), probablemente sería altamente complejo y difícil de comunicar eficientemente a otros científicos. Si se pudiera mejorar la eficiencia de estas comunicaciones, entonces se facilitaría la medición de las detalladas cuestiones metodológicas de codificación. Además, la réplica de los descubrimientos experimentales en diversos laboratorios también podría mejorarse. Y, finalmente, la codificación semántica detallada de los datos de protocolos tiende a ser demorosa y requerir mucho esfuerzo. Si se pudieran reducir los costos del análisis de datos, entonces los datos de protocolos se podrían analizar en forma más rápida lo que, en última instancia, aumentaría el ritmo del progreso científico en el área del procesamiento del discurso. Ericsson y Simon (1984) proveen más discusión sobre estas cuestiones.

Estas preocupaciones sugieren que un importante desafío para la investigación de la comprensión de textos en el próximo siglo será incorporar en forma agresiva herramientas de la inteligencia artificial para facilitar una codificación automática (o por lo menos apoyo para la codificación manual) de datos de respuesta libre. Algunos pasos importantes en esa dirección ya se han tomado, pero se necesita más trabajo. Ejemplos de progreso en esta área incluyen: el enfoque de la teoría de cuerda (Dennis, 2004); el enfoque del Modelo de Markov Oculto (Durbin et al., 2000; Ghiasinejad & Golden, 2002); las metodologías del Análisis Semántico Latente (Landauer & Dumais, 1997; Foltz, Kintsch & Landauer, 1998; Dunn, Almeida, Barclay, Waterreus, & Flicker, 2002) y la metodología para etiquetar los roles semánticos automatizada (Gildea & Jurafsky, 2002).

La integración de la comprensión de texto y la memoria

Anteriormente en este capítulo, discutimos ejemplos de la integración de los modelos de memoria con teorías de comprensión de textos y cómo las predicciones cuadraban mejor con los datos como resultado de esta integración (e.g. Goldman & Verma, 1995; Singer & Kintsch, 2001; Schmalhofer et al., 2002). Otros ejemplos incluyen el trabajo de Work, van den Broek y Arthur (1996) que usaron una modificación alternativa del modelo de Gillund y Shiffrin (1984) para desarrollar una teoría de recuerdo de textos basado en estrategias de coherencia local. Fletcher et al. (1996) encontraron que el modelo resultante proporciona buenas predicciones acerca de qué proposiciones serán recordadas por los participantes así como el orden en el que serían recordadas.

También hay esfuerzos por integrar modelos de conocimiento previo a los de comprensión de textos. Kintsch (1988) ha incorporado el Análisis Semántico Latente (LSA; Landauer & Dumais, 1997) como el motor para generar elementos de conocimiento previo durante la fase de construcción del CI. En pocas palabras, LSA es un enfoque computacional del significado de las palabras que se basa en la co-ocurrencia de palabras en textos impresos de las cuales se derivan los espacios semánticos que refejan las relaciones de significado entre las palabras. En el contexto de la comprensión de textos, los conceptos se añaden al nivel de representación de situación basado en su similitud con el significado de las palabras en el texto. Entonces, opera el proceso de integración, y solo aquellos nodos que son relevantes en el contexto tienden a recibir mayor activación y a formar parte de la representación en el nivel de situación. En una nueva elaboración del uso del LSA en la comprensión, Kintsch (2001) ha propuesto un modelo de predicación que permite el modelamiento computacional de la comprensión metafórica.

En una vena algo diferente, el modelamiento ha sido útil en los esfuerzos por comprender la explicación del “efecto de distancia” de la teoría de la resonancia (Myers & O’Brien, 1998). O’Brien, Plebes y Albrecht (1990) identificaron el efecto de distancia en su investigación de situaciones que incluían dos antecedente referenciales potenciales para un referente en una oración meta de entrada. Los antecedentes estaban ubicados en el texto de tal forma que normalmente no habrían sido fuertemente activados en la memoria de trabajo al momento de leer la oración meta. Dada esta situación, O’Brien et al. (1990) descubrieron que el antecedente referencial que estaba más cerca de la oración meta era más fuertemente activado en la memoria operativa que el antecedente que estaba más alejado de la oración en cuestión. Myers y O’Brien (1998) interpretaron estos resultados como un apoyo a una teoría de memoria de resonancia que asevera que la información tanto en la memoria operativa como en la memoria de largo plazo está disponible para ser reactivada en la memoria operativa dadas las adecuadas pistas para su recuperación.

Sin embargo, basados en descripciones previamente publicadas del modelo de resonancia, Lutz y Radvansky (1997) concluyeron que el modelo de resonancia podría siempre predecir un “efecto de distancia” (es decir, aumentar la cantidad de texto interviniente entre un antecedente referencial o causal y su oración meta tendería a disminuir la activación del antecedente en la memoria operativa cuando se procesara la oración). Myers y O’Bryan (1998), sin embargo, enfatizaron que en el modelo de resonancia la presencia o ausencia del efecto de distancia no es solo función del número de oraciones intervinientes, sino que es también una función compleja del contenido proposicional del trozo textual. Para ilustrar este punto, propusieron un modelo de dos parámetros que podrían simultáneamente aprehender la presencia de un efecto de distancia para los textos experimentales en estudios en los que se observaba el efecto conductual, así como la ausencia de tal efecto de distancia para textos en los que no se observaba tal efecto en los datos conductuales (e.g. Lutz & Radvansky, 1997). Al representar su teoría como modelo computacional, Myers y O’Brian (1998) proporcionaron un medio para la comunicación y la evaluación de las propiedades estructurales y las implicaciones de un modelo particular explícito de los procesos de comprensión lectora.

Integración de los mecanismos de comprensión de textos con la toma de decisiones

El apoyo para un número de fenómenos en psicología social y la toma de decisiones dependen del uso de viñetas o textos breves acerca de gente y las situaciones en las que se encuentran. Por ejemplo, Kahneman y Tversky (1982) hicieron que los participantes leyeran un cuento acerca de un señor Jones que dejó su oficina, no se fue a su casa por el camino acostumbrado, se detuvo ante una luz roja y fue muerto en la intersección por un camión que iba muy rápido. De acuerdo a la “teoría de la norma” en la literatura acerca de la toma de decisiones (Kahneman & Miller, 1986), es más fácil, para los que deben tomar decisiones, construir alternativas típicas a eventos típicos que construir alternativas atípicas de eventos típicos. Así la teoría de la norma predeciría que los que deben tomar decisiones (al toparse con este cuento) tienden a enfocarse en el poco común antecedente causal, dado que la expresión de hechos poco comunes tiende a evocar alternativas normales. Así el antecedente poco usual es normalmente considerado por los participantes que leen el texto como la razón para el accidente de tráfico.

Trabasso y Bartolone (2003) aportan una explicación para el fenómeno del “antecedente poco usual” basados en los procesos de comprensión de textos y el uso de la representación resultante para tomar decisiones acerca de posibles causas del accidente. Usaron la técnica de análisis del discurso de Trabasso, Secco y van den Broek (1984) para crear una red causal de cláusulas y conexiones causales entre ellas. La integración de la red ocurre vía un modelo conexionista (Langston & Trabasso, 1999) a fin producir fuerza de conexiones para las varias cláusulas. Las fuerzas de conexión posibilitan la accesibilidad de varias cláusulas como explicaciones de los diversos eventos. El análisis de Trabasso y Bartolone (2003) mostró que en el cuento con el camino poco acostumbrado, había más hechos que explicaban porqué había tomado un camino poco acostumbrado que hechos que explicaran el camino típico en el cuento de la ruta acostumbrada. Ellos hipotetizaron que focalizarse en la explicación del suceso poco usual podría hacerlo más accesible como causa del accidente. Trabasso y Bartolone (2003) probaron esta hipótesis construyendo una serie de variaciones del texto del señor Jones que sistemática e independientemente manipulaban las variables de explicación y tipicalidad. Construyeron las redes causales para cada una y las integraron usando su modelo de simulación de conexiones. La construcción de la red causal mostró diferentes patrones de conexión para las diversas versiones del cuento y, consecuentemente, fuerzas de conexiones diferenciales y valores de accesibilidad que resultaron de la integración, usando el modelo de Langston y Trabasso (1999) (Langston, Trabasso & Mariano, 1998). En realidad, las fuerzas de conexión que resultaban de la simulación mostraron que la explicación y no la tipicalidad era la variable esencial en las decisiones acerca de la causa del accidente.

El análisis del discurso y el modelamiento computacional, realizados por Trabasso y Barto-lone (2003), muestran que las explicaciones causales juegan un poderoso papel tanto en la comprensión de textos como en la toma de decisiones. Ambos, el análisis detallado de las conexiones entre los eventos y el modelamiento computacional de esas conexiones en términos de fuerza y accesibilidad eran necesarios para producir un poderoso y convincente argumento en cuanto a la centralidad de la explicación tanto en la comprensión como en la toma de decisiones.

RESUMEN Y CONCLUSIONES

Hemos proporcionado tres respuestas a la pregunta de ¿por qué son útiles los modelos de comprensión de textos? En primer lugar, ilustramos el papel de los modelos computacionales en la evolución de las teorías de la comprensión de textos. Se mostró que tanto los éxitos como los fracasos de los modelos computacionales resultaron informativos para el desarrollo teórico. En segundo lugar, se mostró que los modelos computacionales fueron útiles para probar los constructos explicativos y para dar cuenta de descubrimientos inesperados. El uso de modelos computacionales permite la explicación de los mecanismos involucrados en la realización de tareas específicas de comprensión de textos. La creación de modelos de estos mecanismos y tareas que luego tuvieron éxito en la réplica de los patrones cualitativos en los datos conductuales añade plausibilidad a los constructos explicativos y puede arrojar luz sobre constructos unificadores. En tercer lugar, incluimos una discusión del papel de los modelos computacionales al permitir e intensificar la comunicación con y a través de áreas de trabajo en psicología. Aun cuando usamos diversos ejemplos para ilustrar cada una de las contribuciones de los modelos computacionales, todos estos modelos tienen el potencial de aumentar la comunicación y la mayoría contribuye, aunque indirectamente, al desarrollo de las teorías.

Nuestros ejemplos fueron necesariamente limitados, sacados de solo un subconjunto de los modelos computacionales que han contribuido al avance de la comprensión de textos. En un contexto multidisciplinario la comunicación precisa es aún más importante que entre investigadores de la misma disciplina. En la medida en que los investigadores en el campo de la ciencia computacional, la neurociencia, y la psicología cognitiva intentan reconciliar sus resultados y teorías, el valor comunicativo de los modelos computacionales asume una importancia aún mayor que la que habían tenido hasta ahora. La especificación necesaria para el modelamiento computacional servirá para clarificar las intenciones de los modelos y hará que los resultados e implicaciones sean más fáciles de evaluar e interpretar. Con este nivel de claridad, las discusiones multidisciplinarias pueden beneficiarse y construir sobre la base del conocimiento acumulativo resultado de los avances teóricos y empíricos en la investigación de la comprensión de textos.

 

REFERENCIAS BIBLIOGRÁFICAS

Carletta, J. (1996). Assessing agreement on classification tasks: The Kappa statistic. Computational Linguistics, 22, 250-254.         [ Links ]

Cohen, J. (1960). A coefficient of agreement for nominal scales. Educational and Psychological Measurements, 20, 37-46.         [ Links ]

Dennis, S. (2004). An unsupervised method for the extraction of propositional information from text. Proceedings of the National Academy of Sciences, 101, 5.206-5.213.         [ Links ]

Diller, D., Nobel, P. & Shiffrin, R. (2001). An ARC-REM model for accuracy and response time in recognition and recall. Journal of Experimental Psychology: Learning, Memory, and Cognition, 27, 414-435.         [ Links ]

Dunn, J., Almeida, O., Barclay, L., Waterreus, A. & Flicker, L. (2002). Latent semantic analysis: A new method to measure prose recall. Journal of Clinical and Experimental Neuropsychology, 24(1), 26-35.         [ Links ]

Durbin, M., Earwood, J. & Golden, R. (2000). Hidden Markov models for coding story recall data. En Proceedings of the 22nd Annual Cognitive Science Society Conference (pp. 113-118). Mahwah, N.J.: Erlbaum.         [ Links ]

Ericsson, K. & Simon, H. (1984). Protocol analysis: Verbal reports as data. Cambridge, MA.: MIT Press.         [ Links ]

Fletcher, C. (1994). Levels of representation in memory for discourse. En M. Gernsbacher (Ed.), Handbook of psycholinguistics (pp. 589-607). San Diego, CA.: Academic.         [ Links ]

Fletcher, C., van den Broek, P. & Arthur, E. (1996). A model of narrative comprehension and recall. En B. Britton & A. Graesser (Eds.), Models of understanding text (pp. 141-163). Mahwah, N.J.: Erlbaum.         [ Links ]

Foltz, P. , Kintsch, W. & Landauer, T. (1998). The measurement of textual coherence with latent semantic analysis. Discourse Processes, 25, 285-307.         [ Links ]

Gernsbacher, M. (1990). Language comprehension as structure building. Hillsdale, N.J.: Erlbaum.         [ Links ]

Gildea, D. & Jurafsky, D. (2002). Automatic labeling of semantic roles. Computational Linguistics, 28, 245-288.         [ Links ]

Ghiasinejad, S. & Golden, R. (2002). An empirical evaluation of the AUTOCODER system for automatic semantic coding of children summarization data. Poster presentado en the 12th Annual Meeting of the Society for Text and Discourse, Chicago, Estados Unidos de Norteamérica.         [ Links ]

Gillund, G. & Shiffrin, R. (1984). A retrieval model for both recognition and recall. Psychological Review, 91, 1-67.         [ Links ]

Goldman, S. & Varma, S. (1995). CAPping the construction-integration model of discourse comprehension. En C. Weaver, S. Mannes & C. Fletcher (Eds.), Discourse comprehension: Essays in honor of Walter Kintsch (pp. 337-358). Mahwah, N.J.: Erlbaum.         [ Links ]

Goldman, S., Varma, S. & Coté, N. (1996). Extending capacity-constrained construction integration: Toward "smarter" and fexible models of text comprehension. En B. Britton & A. Graesser (Eds.), Models of text comprehension (pp. 73-113). Hillsdale, N.J.: Erlbaum.         [ Links ]

Gough, P. (1972). One second of reading. En J. Kavanaugh & I. Mattingly (Eds.), Language by ear and by eye: The relationships between speech and reading (pp. 331-358). Cambridge, MA.: MIT Press.         [ Links ]

Graesser, A., Singer, M. & Trabasso, T. (1994). Constructing inferences during narrative text comprehension. Psychological Review, 95, 163-182.         [ Links ]

Guha, A. & Rossi, J. (2001). Convergence of the integration dynamics of the construction-integration model. Journal of Mathematical Psychology, 45, 355-369.         [ Links ]

Haberlandt, K. & Graesser, A. (1985). Component processes in text comprehension and some of their interations. Journal of Experimental Psychology: General, 114, 357-374.         [ Links ]

Hintzman, D. (1988). Judgments of frequency and recognition memory in a multiple-trace memory model. Psychological Review, 95, 528-551.         [ Links ]

Just, M. & Carpenter, P. (1992). A capacity theory of comprehension: Individual differences in working memory. Psychological Review, 99, 122-149.         [ Links ]

Kahneman, D. & Tversky, A. (1982). The simulation heuristic. En D. Kahneman, P. Slovic, & A. Tversky (Eds.), Judgment under uncertainty: Heuristics and biases (pp. 201-208). New York: Cambridge.         [ Links ]

Kahneman, D. & Miller, D. (1986). Norm theory: Comparing reality to its alternatives. Psychological Review, 93, 136-153.         [ Links ]

Keefe, D. & McDaniel, M. (1993). The time course and durability of predictive inferences. Journal of Memory and Language, 32, 446-463.         [ Links ]

Kintsch, W. (1974). The representation of meaning in memory. Hillsdale, N.J.: Erlbaum.         [ Links ]

Kintsch, W. (1988). The role of knowledge in discourse comprehension: A construction-integration model. Psychological Review, 95(2), 163-182.         [ Links ]

Kintsch, W. (1990). Macroprocesses and microprocesses in the development of summarization skill. Cognition and Instruction, 7, 161-195.         [ Links ]

Kintsch, W. (2001). Predication. Cognitive Science, 25, 173-202.         [ Links ]

Kintsch, W. & van Dijk, T. (1978). Toward a model of text comprehension and production. Psychological Review, 85, 363-394.         [ Links ]

Kintsch, W. & Greeno, J. (1985). Understanding and solving word arithmetic problems. Psychological Review, 92, 109-129.         [ Links ]

Kintsch, W., Welsch, D., Schmalhofer, F. & Zimny, S. (1990). Sentence memory: Theoretical analysis. Journal of Memory and Language, 29, 133-159.         [ Links ]

Landauer, T. & Dumais, S. (1997) A solution to Plato’s problem: The latent semantic analysis theory of acquisition, induction and representation of knowledge. Psychological Review, 104, 211-240.

Langston, M. & Trabasso, T. (1999). Modeling causal integration and availability of information during comprehension of narrative texts. En H. van Oostendorp & S. Goldman (Eds.), The construction of mental representations during reading (pp. 29-69). Mahwah, N.J.: Erlbaum.         [ Links ]

Langston, M., Trabasso, T. & Magliano, J. (1999). A connectionist model of narrative comprehension. En A. Ram & K. Moorman (Eds.), Understanding language understanding: Computational models of reading, (pp. 181-226). Cambridge: MA.: MIT Press.         [ Links ]

Linderholm, T. , Virtue, S., van den Broek, P. & Tzeng, Y. (2004). Fluctuations in the availability of information during reading: Capturing cognitive processes using the landscape model. Discourse Processes, 37(2), 165-186.         [ Links ]

Lutz, M. & Radvansky, G. (1997). The fate of completed goal information in narrative comprehension. Journal of Memory and Language, 29, 469-492.         [ Links ]

McClelland, J. & Rumelhart, D. (1985). Distributed memory and the representation of general and specific information. Journal of Experimental Psychology: General, 114, 159-188.         [ Links ]

McKoon, G. & Ratcliff, R. (1992). Inference during reading. Psychological Review, 99, 440-466.         [ Links ]

McKoon, G. & Ratcliff, R. (1995). The minimalist hypothesis: Directions for research. En C. Weaver, S. Mannes & C. Fletcher (Eds.), Discourse comprehension: Essays in honor of Walter Kintsch (pp. 97-116). Mahwah, N.J.: Erlbaum.         [ Links ]

McNamara, D., Kintsch, E., Songer, N. & Kintsch, W. (1996). Are good texts always better? Text coherence, background knowledge, and levels of understanding in learning from text. Cognition and Instruction, 14, 1-43.         [ Links ]

Miller, J. & Kintsch, W. (1980). Readability and recall of short prose passages: A theoretical analysis. Journal of Experimental Psychology: Learning, Memory, and Cognition, 6, 335-354.         [ Links ]

Murdock, B. (1982). A theory for the storage and retrieval of item and associative information. Psychological Review, 89, 609-626.         [ Links ]

Myers, J. & O’Brien, E. (1998). Accessing the discourse representation during reading. Discourse Processes, 26, 131-157.

O’Brien, E. & Albrecht, J. (1992). Comprehension strategies in the development of a mental model. Journal of Experimental Psychology: Learning, Memory, and Cognition, 18, 777-784.         [ Links ]

O’Brien, E., Plewes, S. & Albrecht, J. (1990). Antecedent retrieval processes. Journal of Experimental Psychology: Learning, Memory, and Cognition, 16, 241-249.         [ Links ]

Perrig, W. & Kintsch, W. (1985). Propositional and situational representations of text. Journal of Memory and Language, 24, 503-519.         [ Links ]

Raajmakers, J. & Shiffrin, R. (1981). Search of associative memory. Psychological Review, 88, 93-134.         [ Links ]

Rumelhart, D., Hinton, G. & McClelland, J. (1986). A general framework for parallel distributed processing. En D. Rumelhart & J. McClelland & PDP Research Group (Eds.), Parallel distributed processing: Explorations in the microstructure of cognition. Volume 1: Foundations (pp. 45-76). Cambridge, MA.: MIT Press.         [ Links ]

Schmalhofer, F. & Glavanov, D. (1986). Three components of understanding a progrmmer’s manual: Verbatim, propositional, and situation representations. Journal of Memory and Language, 25, 279-294.

Schmalhofer, F. , McDaniel, M. & Keefe, D. (2002). A unifed model of predictive and bridging inferences. Discourse Processes, 33(2), 105-132.         [ Links ]

Shiffrin, R. & Steyvers, M. (1994). Model for recognition memory: REM - Retrieving effectively from memory. Psychonomic Bulletin & Review, 4(2), 145-166.         [ Links ]

Singer, M. & Kintsch, W. (2001). Text retrieval: A theoretical exploration. Discourse Processes, 31, 27-59.         [ Links ]

Spilich, G., Vesonder, G., Chiesi, H. & Voss, J. (1979). Text processing of domain-related information for individuals with high and low domain knowledge. Journal of Verbal Learning and Verbal Behavior, 18, 275-290.         [ Links ]

Tapiero, I. & Denhière, G. (1995). Simulating recall and recognition by using Kintsch’s construction-integration model. En C. Weaver, S. Mannes & C. Fletcher (Eds.), Discourse comprehension: Essays in honor of Walter Kintsch (pp. 211-232). Mahwah, N.J.: Erlbaum.

Trabasso, T. & Bartolone, J. (2003). Story understanding and counterfactual reasoning. Journal of Experimental Psychology: Learning, Memory, and Cognition, 29, 904-923.         [ Links ]

Trabasso, T. , Secco, T. & van den Broek, P. (1984). Causal cohesion and story coherence. En H. Mandl, N. Stein & T. Trabasso (Eds.), Learning and comprehension of text (pp. 83-111). Hillsdale, N.J.: Erlbaum.         [ Links ]

van den Broek, P. (1990). The causal inference maker: Towards a process model of inference generation in text comprehension. En D. Balota, G. d’Arcais & K. Rayner (Eds.), Comprehension processes in reading (pp. 423-445). Hillsdale, N.J.:Erlbaum.

van den Broek, P. , Risden, K. & Husebye-Hartman, E. (1995). The role of readers’ standards for coherence in the generation of inferences during reading. En R. Lorch, Jr. & E. O’Brien (Eds.), Sources of coherence in text comprehension (pp. 353-373). Hillsdale, N.J.: Erlbaum.

van den Broek, P, Risden, K., Fletcher, C. & Thurlow, R. (1996). A "landscape" view of reading: Fluctuating patterns of activations and the construction of a stable memory representation. En B. Britton & A. Graesser (Eds.), Models of understanding text (pp. 165-187). Mahwah, N.J.: Erlbaum.         [ Links ]

van den Broek, P. , Young, M., Tzeng, Y. & Linderholm, T. (1998). The landscape model of reading: Inferences and the on-line construction of a memory representation. En H. van Oostendorp & S. Goldman (Eds.), The construction of mental representations during reading (pp. 71-98). Mahwah, N.J.: Erlbaum.         [ Links ]

van den Broek, P. , Lorch, R. Jr, Linderholm, T. & Gustafson, M. (2001). The effects of readers´ goals on inference generation and memory for texts. Memory and Cognition, 29, 1081-1087.         [ Links ]

van Dijk, T. & Kintsch. W. (1983). Strategies of discourse comprehension. New York: Academic Press.         [ Links ]

Wolfe, M. & Goldman, S. (2003). Use of latent semantic analysis for predicting psychological phenomena: Two issues and proposed solutions. Behavior Research Methods, Instruments, & Computers, 35(1), 22-32.         [ Links ]

Zimny, S. (1987). Recognition memory for sentence from a discourse. Tesis doctoral. Universidad de Colorado, Boulder, Estados Unidos de Norteamérica.         [ Links ]

Zwaan, R., Magliano, J. & Graesser, A. (1995). Dimensions of situation-model construction in narrative comprehension. Journal of Experimental Psychology: Learning, Memory, and Cognition, 21, 386-397.         [ Links ]


Dirección para Correspondencia: Susan Goldman (sgoldman@uic.edu). Tel. (312) 9964462: Learning Sciences Research Institute (MC 057) 1007 W. Harrison Street, Room 2048 University of Illinois Chicago, IL 60607-7137. Estados Unidos de Norteamérica.

Recibido: 29-XI-2006. Aceptado: 16-V-2007