Mauricio Iza.

Departamento de Psicología Básica.

Universidad de Málaga.

Campus de Teatinos

29071 Malaga

E-mail: iza@uma.es







COMPENSACIÓN POR MODELOS DEL DISCURSO



Iza, M.

[iza@uma.es]

Departamento de Psicología Básica

Universidad de Málaga


Konstenius, A.

Dep. General Linguistics

Universidad de Helsinky



RESUMEN

El paradigma de procesamiento de información simbólica en Psicología Cognitiva ha superado nuevos retos a partir de la aparición de los modelos de redes neuronales. El objetivo de este trabajo es motivar y analizar las principales líneas de una arquitectura híbrida para el procesamiento del discurso. Algunos sistemas conexionistas que se han propuesto para la inferencia, son examinados en términos de inferencia, memoria y procesamiento del discurso, teniendo en cuenta algunas restricciones teóricas desde el punto de vista psicológico. Donde los modelos híbridos parecen más diferentes es en los supuestos que plantean sobre la información que queda representada en el modelo, cómo es representada y cómo está conectada. Finalmente, discutiremos la plausibilidad de tal arquitectura híbrida de cara a desarrollar recursos tecnológicos para la compensación en discapacidades de lectura.


Palabras clave: Procesamiento del discurso, inferencia, memoria, conexionismo, sistemas híbridos



Compensation by discourse models

ABSTRACT

The symbolic information-processing paradigm in cognitive psychology has seen a growing challenge from neural networks models over the past decade or so. The aim of this paper is to motivate and sketch the main lines of hybrid architecture for discourse processing. Some already existing connectionist systems on inference, are examined in terms of inference, memory, and discourse processing, taking account some theoretical constraints from a psychological point of view. Where hybrid models seem most different is in the assumptions made about information that gets represented in the model, how it is represented, and how it is connected. Finally, we will discuss the plausibility of such hybrid architecture in order to develop technological resources for the compensation of reading disabilities.


KEYWORDS: Discourse processing, Inference, Memory, Connectionist systems, Hybrid systems.

INTRODUCCION

La investigación actual sobre el procesamiento del lenguaje natural, en especial sobre la lectura de textos, muestra que las estructuras textuales y las representaciones lingüísticas no son suficientes para explicar los procesos de comprensión y memorización, ni tampoco para la adquisición de conocimiento a partir de textos (Baudet y Denhiere, 1991; Way, 1991; Bara, Tirassa y Zettin, 1997; Waters y Caplan, 1996). Mientras se procesa un texto, los lectores no sólo se ciñen al conocimiento lingüístico, sino que también echan mano del conocimiento del dominio y del contexto comunicativo.

Del mismo modo, la comunicación humana se basa muchas veces en aquello que queda fuera del discurso: pocas veces los agentes dicen de manera explícita todo lo que intentan comunicar. Más bien, sólo especifican la justa información para permitir la comprensión de los lectores (oyentes), dejando lo que supuestamente son capaces de captar. Por lo tanto, el problema de comprensión puede ser considerado en gran medida, como el problema de ‘re-crear’ aquello que ha sido dejado de lado.

En el proceso de comprensión, los mecanismos de memoria son los responsables de capturar el conocimiento relevante para lo que está siendo leído, y también para utilizar este conocimiento para realizar inferencias sobre intenciones, motivaciones y efectos de acciones en la secuencia leída. Una parte del problema de comprensión reside en organizar el conocimiento para encontrar lo que se necesita en una determinada situación. Por ejemplo, la base para cualquier solución debería contener una memoria de hechos y sucesos (memoria episódica; véase, Vega, 1998) apropiada para ser aplicada como inferencias en una determinada situación.

Los procesos de inferencia dependen crucialmente de la disponibilidad de un imprescindible conocimiento del mundo. La memoria establece aquellas inferencias que se pueden mantener en una situación dada. De aquí que, el significado de un párrafo es mayor que la suma de significados de cada oración individual contenida en él. Las inferencias sirven para acoplar los nuevos inputs en un conjunto (coherente) relacionado. Normalmente, las mismas inferencias vienen a constituir el cuerpo principal del mensaje.

La actividad inferencial parece depender del control continuo de un número ilimitado de señales input (sintácticas, semánticas, textuales, conceptuales y probabilísticas), siendo su codificación bien determinada localmente por el propio texto, o bien globalmente por expectativas más generales basadas en conocimiento. Por ejemplo, las anáforas forman parte del fenómeno general de dependencia del contexto durante la comprensión del lenguaje natural, donde el input léxico dado por la expresión anafórica determina su interpretación en uso, lo que demanda un mecanismo ‘en-línea’ de selección para identificar su valor particular en un contexto dado. Este proceso de comprensión se ve facilitado por información contextual, o más específicamente, por el contexto común que se establece entre hablante/oyente o entre escritor/lector, en una circunstancia particular. Recientemente, la investigación psicolingüística sugiere que los procesos de comprensión operan dentro de un rango de tiempo entre unos pocos cientos de milisegundos y unos pocos segundos (Keefe y McDaniel, 1993).

La investigación sobre comprensión del discurso ha centrado su atención en dos problemas principales sobre la realización de inferencias. El primero es determinar ‘qué’ (y cuándo) inferencias se realizan durante el curso de comprensión, y si son codificadas en una representación de su contenido. El segundo refiere a la organización del conocimiento en la memoria a largo plazo (MLP), y cómo las pistas y claves en un discurso acceden a tal conocimiento. Por ejemplo, las inferencias predictivas o elaborativas están fuertemente relacionadas con lo que es conocido sobre la estructura causal del discurso narrativo. El ordenamiento lógico de los sucesos facilita el procesamiento de narraciones. Si los lectores van a realizar alguna inferencia para facilitar su asimilación del texto que sigue, parece probable que realizarán una inferencia relacionada con la coherencia causal de la narración (van den Broek, 1995, 1996; Singer, 1996). Así, un enfoque apropiado debería determinar los contextos en los que los lectores utilizan tales inferencias elaboradas.

Uno de los intentos más interesantes para tratar con estos problemas es la teoría ‘Construcción-Integración’ (CI) propuesto por Kintsch (1988, 1992). CI es una arquitectura para comprensión que intenta dar cuenta de un amplio rango de fenómenos de comprensión en el lenguaje cotidiano. Su nombre “construcción-integración” refleja un supuesto central sobre la naturaleza de la interacción texto-lector durante el proceso de comprensión del texto: la activación del conocimiento es guiada localmente (por medio de reglas de producción) y es por tanto burda e imprecisa, pero un proceso de integración contextual (al modo conexionista), puede llegar a producir una representación coherente del texto. Así, CI es una arquitectura híbrida. Su componente de construcción está basado en reglas y simbólico, pero el proceso de integración es de tipo conexionista. Aún y todo, el modelo no acaba de explicar todos los aspectos del proceso de comprensión, esto es, por qué realizamos ciertas inferencias, y no otras, en una situación determinada. Si se considera el control de los procesos inferenciales, es lógico asumir que en un momento dado se realizan un número de inferencias restringido, y que tales inferencias han de resultar centrales o relevantes para la comprensión. Si este supuesto es correcto, es necesario tener en cuenta cuándo tiene que activarse el proceso de inferencia (i.e., elaborativa) y qué tipo de inferencias pueden ser plausibles en un determinado momento, dependiendo del contexto.

En este trabajo vamos a mostrar cómo una arquitectura híbrida debería ser capaz de permitir cierta interacción entre un módulo razonador y un módulo contextual. Para este propósito, se hace necesario codificar los posibles enlaces contextuales entre proposiciones y su grado de cohesión (coherencia) dentro del discurso. Además, como sucede en el modelo CI, también necesitaremos un módulo de integración para integrar contextualmente las conclusiones que provienen de la realización de inferencia.

Nuestro modelo se ha centrado en tres puntos centrales básicos: (i) una teoría de la comprensión de textos, (ii) cómo mejorar las aproximaciones existentes en IA para la comprensión de textos utilizando restricciones que provienen del campo de la psicología, y (iii) proponer un mecanismo de IA interesante para la comprensión de textos. Finalmente, discutiremos qué implicaciones pueden tener este tipo de modelo híbrido a la hora de plantearnos el diseño y construcción de tecnología compensatoria para discapacidades en el proceso de lectura.

Representación de conocimiento

Un sistema de ordenador requiere una cantidad enorme de información para realizar incluso tareas difícilmente definidas como humanas. Este tipo de conocimiento debe ser mucho más que un simple listado de hechos y sucesos; debe ser también capaz de realizar procesos de razonamiento sobre esta información. El objetivo en este campo de la investigación en Inteligencia Artificial es precisamente arreglar este almacén inmenso de información de tal modo que pueda ser representado consistentemente y accedido rápidamente por el ordenador. De cualquier modo, el hecho de articular y representar incluso pequeñas partes de conocimiento necesario para tareas inteligentes se ha mostrado que es una tarea extremadamente difícil. Los diferentes enfoques han intentado representar el conocimiento del mundo con el objeto de realizar inferencias. Algunos mecanismos para representar conocimiento general, tales como las redes semánticas y los esquemas (marcos, guiones), permiten la activación de inferencia dentro de un dominio (específico) restringido. En los sistemas simbólicos clásicos, podemos elegir el algoritmo que realizará esta tarea. En los sistemas conexionistas, sin embargo, existen más restricciones debido a la uniformidad de su estructura y a la simplicidad de sus elementos de procesamiento.

Los sistemas simbólicos están normalmente basados en la lógica. Por tanto, realizan razonamiento deductivo en conocimiento experto, pero poseen graves problemas con el razonamiento inductivo. Por su parte, los sistemas conexionistas que intentan simular el tipo de inferencia de alto nivel que exhiben las aproximaciones simbólicas IA, normalmente han estados sustentados sobre representaciones localistas. De esta manera, estas redes están planteadas también para aceptar tanto inferencias explícitas (Barnden, 1988, 1989; Barnden y Srinivas, 1991) como implícitas (Dyer, 1988; Elman, 1989; Feldman, 1988; Golden, 1986).

En lo que respecta a las inferencias implícitas, el mecanismo intenta construir un modelo mental en base al discurso procesado, su contexto y conocimiento previo. Tal conocimiento está integrado en el modelo por defecto, es decir, se mantiene en el modelo en tanto no se dé evidencia conflictiva. No se realiza ningún intento por buscar un modelo alternativo a menos que surja tal evidencia de lo contrario. Por esta razón, el proceso puede correr muy rápido, convirtiéndose en tan automático como cualquier otra destreza cognitiva que no demande nada más que una sencilla representación mental en cada momento. Pero también por esta misma razón, las inferencias implícitas carecen de la garantía, el imprimatur mental, asociado a las deducciones explícitas.

En el proceso de comprensión, más que en el caso de agentes o máquinas inteligentes, podría parecer algo inusual no tomar las decisiones apropiadas contextualmente al tiempo que se procesan las expresiones relevantes, más que tener que reinterpretar la oración en conjunto después de que haya sido establecida una representación proposicional inicial. Tal tipo de representación contextualmente significante parece construirse inmediatamente y continuamente durante el curso de la comprensión. No parece que resulte de los procesos subsiguientes de integración e inferencia. De cualquier modo, esta aproximación no sería nada nueva. Algunos investigadores tales como Just y Carpenter (1980) han argumentado por lo que ellos denominan la asunción de inmediatez (immediacy assumption) durante el procesamiento de discursos escritos. Consideran bajo este supuesto que un lector intenta interpretar todas las palabras de contenido tan pronto como es percibida y a todos los niveles de procesamiento (Mannes y Doane, 1991; Mannes y Hoyes, 1996). El problema es dar cuenta de tal aparente poder por parte del procesador (Waters y Caplan, 1996). Después de todo, como Kintsch (1988), entre otros, ha enfatizado, sabemos a partir de otras investigaciones de la función intelectual humana que somos procesadores de una capacidad inmediata muy limitada, y sería casi imposible que se dieran todas las inferencias durante el tiempo limitado que un lector tarda en fijarse en una palabra o sintagma de un texto. A este respecto, posteriormente sugeriremos que una posible solución a este problema dependería, en gran medida, de la arquitectura representacional que se asume en la teoría de comprensión de uno mismo. Aspecto que se ve también claramente reflejado en los diferentes programas informáticos de (re-)educación para el tratamiento del procesamiento del discurso, en muchas de sus diferentes facetas, que existen actualmente en el mercado. Un problema claro y un tanto abandonado en estos sistemas cognitivos, sería el hecho de poder realizar inferencias del modo más automático, más eficiente y más rápido posible.


Razonamiento reflejo

De acuerdo con Schank (1982), entender supone la creación de expectativas, inferencia de información implícita y modificación de memoria (aprendizaje). La ejecución de estos procesos ha sido recientemente tomada en consideración a partir del enfoque de razonamiento de sentido común o reflejo.

El razonamiento de sentido común está considerado como aproximativo y evidencial por naturaleza, y los procesos de razonamiento son habitualmente rápidos y espontáneos. La actividad de razonamiento rellena algunos de los patrones comunes. Existen muchos patrones de razonamiento recurrentes utilizados en el razonamiento de sentido común, tales como los descritos por Collins y Michalsky (1989). Muchos de estos patrones son difusos e inciertos, en consonancia con la naturaleza del razonamiento de sentido común. Sin embargo, en algunas circunstancias, si las condiciones no son exhaustivas y mutuamente exclusivas, puede no darse un emparejamiento exacto entre las instancias. En tal caso, se utilizará la regla que mejor empareje parcialmente de cara a tomar una decisión.

Algunos intentos de desarrollo de sistemas para el lenguaje natural se basan en grandes bases de conocimiento para guiar el procesamiento. En este trabajo, vamos a hacer un examen de estos tipos de problemas (resolución de referencia, interpretación de nombres compuestos, referencias metonímicas, inferencias de sucesos, interpretación de ambigüedades,...) que, de acuerdo con Hobbs y Martin (1987), han sido conocidos como problemas de ‘pragmática local’ (Local Pragmatics problems). Para tratar con ellos se hace necesario una cantidad enorme de conocimiento de sentido común detallado y cierto conocimiento técnico específico de dominio: se necesita ser capaz de resolución de referencias, manejar metonimias, interpretar nombres compuestos y resolver ambigüedades sintácticas y de otro tipo, en base a inferencias adecuadas que resultan a partir de una gran base de conocimiento (véase Dopkins, 1996).

Este tipo de patrones de razonamiento no puede ser explicado por los modelos tradicionales, tales como los basados en lógica clásica. La naturaleza adaptativa y evidencial del razonamiento de sentido común y su espontaneidad y rapidez nos sugieren el tener que echar mano de diferentes formalismos y marcos de trabajo. Así, intentaremos mostrar que este tipo de razonamiento puede ser explicado mejor por parte de modelos conexionistas masivamente paralelos de razonamiento aproximado basado en reglas (Holyoak y Thagard, 1997; Clark y Chalmers, 1998).

Dos ejemplos de este tipo de planteamiento lo representan el trabajo de Shastri y Ajjanagadde (1993) y de Lange y Dyer (1989). Sin embargo, tanto el enfoque de sincronía temporal como el enfoque de ‘signaturas’ (aunque poseen la deseada simplicidad de estructura) poseen algunas limitaciones, tales como su representación de los conceptos y de los ligamientos de variable (variable bindings). De cualquier modo, ambos modelos realizan predicciones específicas, psicológicamente significantes, sobre la naturaleza del razonamiento reflejo y, como sugieren Shastri y Ajjanagadde (1993), pueden jugar un papel representacional importante en los procesos de información neuronal. En particular, el modelo de sincronía temporal relaciona la capacidad de la memoria de trabajo que subyace al razonamiento reflejo con parámetros biológicos.

En el sistema de Shastri y Ajjanagadde (1993), los sucesos y los ligamientos dinámicos están representados como un patrón rítmico de actividad sobre los nodos en la red de MLP. En términos funcionales, este estado de activación transeúnte ha sido considerado como una dinámica de capacidad limitada de la memoria de trabajo, que mantiene temporalmente información durante un episodio de razonamiento reflejo.

El sistema de razonamiento permite producir un gran número de hechos dinámicos como resultados intermedios durante el razonamiento y es representado en la memoria de trabajo (también es alto el número de conceptos que simultáneamente pueden estar presentes en la memoria de trabajo). Estos hechos, sin embargo, sólo son potencialmente relevantes y permanecerán activados y decaerán en un corto espacio de tiempo, a menos que resulten ser relevantes al responder una “pregunta” o al proporcionar una explicación (Millis y Barker, 1996).

El sistema muestra que se puede dar el razonamiento reflejo tanto en una dirección hacia-adelante como hacia-atrás, permitiendo a los agentes realizar las inferencias requeridas para establecer la coherencia causal y referencial, así como las posibles inferencias (puente o elaborativas) de un modo reflejo. La predicción del sistema puede ser resuelta con los datos observados si se asume que los resultados de las inferencias predictivas permanecen sólo un corto tiempo y entonces se dispersan a menos que el input (texto) subsiguiente indique que estas inferencias son relevantes para el discurso.

Sin embargo, de cara a integrar este sistema de razonamiento con un sistema de comprensión, necesitamos todavía tratar, en primer lugar, la naturaleza real de estas restricciones motivadas biológicamente, y en segundo lugar, algunos otros problemas adicionales tales como, (i) cómo cambia de manera fluida el conjunto de entidades en la memoria de trabajo y (ii) cómo se comunican entre sí distintos módulos que realizan diferentes procesos reflejos (e.g., una analizador sintáctico y un razonador). En este sentido, ya hemos señalado anteriormente (Ezquerro e Iza, 1995) que sólo un pequeño número de sucesos/entidades en la memoria de trabajo, tendría que resultar relevante durante el procesamiento de textos, en tanto reciben un foco atencional. Recientemente, se han propuesto varias modificaciones de este sistema que intentan mejorar la realización de algunas limitaciones (i.e., aprendizaje) y de algunos mecanismos de ligamiento de variables (Park et al., 1995). En tanto estas modificaciones tienen como objetivo permitir un carácter más distribuido de las representaciones, también existen otros esquemas que emplean técnicas diferentes para la representación del conocimiento o datos de alto nivel, que está relacionado con el razonamiento basado en reglas, que puede ayudar a tratar estas cuestiones. A este respecto, examinaremos si las actuales arquitecturas híbridas que se han propuesto para el procesamiento del discurso, poseen la suficiente constrastación empírica y característica del diseño, como para permitirnos construir tecnologías cognitivas basadas en ellas. Por ejemplo, si un modelo de razonamiento como el anterior puede llegar a hibridarse con otro (véase, el modelo ‘robust reasoning’ propuesto por Sun (1993, 1994), y ser capaz de tratar juntos razonamiento y similaridad (Holyoak y Thagard, 1997). O, de cara más hacia nuestros intereses, si tecnologías del discurso basadas en estos modelos pueden poseer la capacidad de adaptarse a las diferentes características particulares que puede presentar su potencial usuario o paciente.


HACIA UNA ARQUITECTURA COGNITIVA PARA LA COMPRENSIÓN

En nuestro trabajo de investigación hemos intentado evaluar algunos de los diferentes modelos híbridos que se han propuesto para el procesamiento del discurso. Podemos incluir aquí al modelo Construcción-Integración de Kintsch (1988, 1997), que utiliza reglas de producción durante el proceso de construcción y algoritmos conexionistas de difusión de la activación durante el proceso de integración (véase también Britton y Graesser, 1996). Aparte de otros modelos híbridos, tal como el modelo de Just y Carpenter (Capacity Constrained Concurrent Activation) basado en un sistema de producción; existe una variedad de otros tipos de modelos de memoria que a menudo se combinan con el discurso, aunque éstos son frecuentemente modelos matemáticos y con claro propósito comercial, ni simbólicos ni conexionistas. Donde los modelos híbridos parecen más diferentes es en los supuestos que realizan sobre la información que queda representada en el modelo, cómo está representada y cómo está conectada. El tipo de información que es representada incluye la derivada a partir del texto y la seleccionada a partir del conocimiento previo.

Como ya hemos señalado, un aspecto marcadamente diferente de los modelos de discurso es en el tratamiento de la activación de conocimiento y en la realización de inferencias. Los modelos caracterizados como ‘arriba-abajo’ se basan en procesos de activación de esquemas, mientras que los modelos ‘abajo-arriba’ se basan más en procesos asociativos. Algunas veces, modelos que afirman ser ‘abajo-arriba’ realmente realizan mucho trabajo ‘arriba-abajo’, a través de codificaciones a mano o a través de supuestos que se plasman en la simulación, alguno de los cuales a menudo parece arbitrario.

Aunque se han desarrollado muchas técnicas para representar el conocimiento y razonar sobre él, tratar de enlazar nuestros componentes de lenguaje con sus correspondientes componentes de conocimiento no ha sido una tarea sencilla. La razón se debe a que es crucial para que el sistema de lenguaje sea posible, que el componente de conocimiento almacene el ‘tipo’ de conocimiento que necesitan los componentes del lenguaje, utilizando una ‘estructura’ que los componentes del lenguaje pueden utilizar. Esto ha sido ilustrado a partir de dos puntos de vista diferentes. Por una parte, un análisis de lo que sucede en el curso de procesamiento de un discurso sencillo. Por otra, un intento de explicar lo que falla si el componente del lenguaje se desarrolla independientemente del componente de conocimiento, y a continuación se intenta permitir que ambos interactúen entre ellos.

La investigación más reciente en psicología y lingüística cognitiva ha conducido a una consideración de la comprensión del lenguaje que puede ser caracterizada como una interpretación que va creciendo, donde las diferentes partes de una oración contribuyen a una gradual construcción de significado, tan pronto como son captadas. La tarea que debe realizar el lector oyente es identificar las palabras a partir de caracteres/sonidos, de cara a fijar las palabras en constituyentes sintácticos, y asignar significado a las estructuras ya construidas. De cualquier modo, estas tareas no son ejecutadas en este orden. De acuerdo con la mencionada teoría de interpretación, las palabras candidato pueden emerger antes de que todos sus caracteres/sonidos hayan sido leídos/escuchados. Además, las palabras no se distribuyen juntas en una representación sintáctica compleja antes de estar sujetas al análisis semántico; más bien, cada palabra sucesiva contribuye a una acumulación gradual de significado tan pronto como se procesa. Y no sólo el significado en el sentido del significado ‘interno al lenguaje’ de las expresiones es construido de forma creciente; también parece que están inmediatamente disponibles la identidad referencial de los individuos y las entidades en el dominio del discurso.

El trabajo de Garrod y Sanford, a diferencia de las posturas de Clark y Kintsch, mantienen que la continuidad referencial no se logra volviendo atrás desde la oración ‘n’ hasta la n-1, n-2, etc. En cambio, plantean que la representación mental de una oración que aparece antes que ‘n’ restringe la interpretación de la oración ‘n’. En su modelo del foco dinámico, el sujeto realiza inferencias espontáneas de cara a predecir que viene a continuación. Por tanto, la continuidad referencial no depende de manera primordial de las inferencias puente o hacia-atrás: un emparejamiento directo con los contenidos del foco de atención puede ser suficiente para saber si o no el antecedente ha sido mencionado.

Sin embargo, parece que casi todos los modelos de comprensión del discurso que han sido propuestos poseen cierta naturaleza híbrida y los verdaderos problemas aparecen cuando se intentan implementar en una máquina, esto es, qué tipo de interacción se pueden dar entre los diferentes módulos y el entorno. Nuestra conjetura es que los procesos de interpretación sean llevados a cabo del siguiente modo: habría que proponer múltiples hipótesis sobre la oración input al nivel más bajo de la gramática, y éstas tendrían que ser filtradas progresivamente a niveles más altos de tal modo que finalmente sólo quede un análisis completo. Este tipo de dinámica concuerda con un modelo de gramática que tenga diferentes componentes de regla asociados con los varios niveles de representación, y donde las estructuras generadas a un nivel sean emparejadas serialmente con estructuras generadas en algún otro nivel.

Estas consideraciones para una arquitectura del discurso apelan por un régimen de interpretación cuyo efecto mágico es asignar interpretaciones léxicas a oraciones parciales y representaciones semánticas a frases subordinadas, y permitir la evaluación de estas representaciones parciales en relación con un contexto del discurso. Una teoría de la gramática es aquella que asocia ricas descripciones con palabras individuales, caracterizándolas simultáneamente a los niveles fonológico, sintáctico y semántico; donde las representaciones semánticas se construyen como resultado adicional de combinar palabras para formar frases. Además, la interpretación semántica de palabras y frases se darían en términos de su contribución al discurso, más que una oración aislada. Pero, incluso más importantes que las propiedades de los niveles individuales de la gramática, lo que interesa resolver son las interfaces entre estos niveles. Es bien conocido la existencia de desemparejamientos entre la estructura fonológica, sintáctica y semántica, aunque la relación está lejos de ser arbitraria.

En este análisis, el estatus de emparejamientos entre las entidades completadas a diferentes niveles de representación permanece ampliamente en modelos estándar de organización gramatical. Sin embargo, una interpretación dinámica a todos los niveles añade una dimensión extra a la cuestión de los interfaces entre estos niveles, y hace también más complicado estudiar el procesamiento a un nivel determinado sin tener en cuenta a sus vecinos.

Si estos diferentes niveles de conocimiento interactúan para llegar a una interpretación de la oración, es obvio que tendrán que almacenar a cada nivel el tipo de información que necesitarán otros módulos, y almacenarlo de una manera compatible con alguno de los otros módulos que pida algo de esta información. Se sigue entonces que el componente de conocimiento no debería ser considerado como un módulo que está separado de los componentes lingüísticos, sino como uno que se desarrollaría junto con los otros componentes y debería tomar parte del mismo sistema integrado.

Así, por ejemplo, en las investigaciones sobre la interacción hombre-máquina, una cantidad considerable de trabajo ha estado basada en el supuesto que el componente del lenguaje natural está claramente separado del mecanismo computacional con el que quiere comunicarse el usuario. Esta independencia del mecanismo de interacción se ha mantenido a menudo como un rasgo indispensable si lo que se desea es diseñar componentes de interacción que posean cierto grado de portabilidad. Además, la lingüística computacional continua trabajando en el componente de lenguaje, y los investigadores en bases de datos o ingenieros de sistemas expertos continúan su trabajo en el mecanismo de aplicación. Eventualmente, sus productos finales derivan en un mecanismo sencillo, y su eficiencia parece demasiado obvia para cuestionarse (Eliasmith, 1997; Clark y Chalmers, 1998).

Sin embargo, y de cara a nuestros propósitos de diseño de recursos compensatorios, tal aproximación nos supone serias dificultades: los mecanismos computacionales como las bases de datos pueden almacenar información sólo en la medida en que esta información se acople a los principios de estructuración preconcebidos de la base de datos. Si se da un conflicto entre las estructuras subyacentes a la organización de esta misma información en el lenguaje del usuario, se dará inevitablemente una pérdida de información, resultando en una imposibilidad de almacenar la información contenida en el mensaje del usuario, así como la imposibilidad de recuperar ciertos ítems de información por medio de preguntas del lenguaje natural. La razón por la que dividir el trabajo en estos componentes debería ser definido como una función de su modularidad: cuanto más modular sea el sistema, más fácil será transferirlo a un dominio de aplicación diferente, cambiando o reemplazando sólo los módulos que son específicos de dominio y dejando intactos los restantes. Este aspecto parece haber favorecido en gran medida el diseño y desarrollo de diferentes recursos compensatorios aplicados a problemas de lenguaje y comunicación; en particular, muchos de ellos, también planteados en cierto sentido como sistemas tutores ‘inteligentes’ que pueden jugar un papel importante en el tratamiento (re-educación) de los diferentes trastornos que pueden ocurrir con el procesamiento del discurso.


COMPENSACIÓN EN DISCAPACIDADES DE LECTURA

A lo largo de este trabajo, hemos intentado proporcionar un análisis y revisión útil de varios modelos de IA que han sido propuestos en la bibliografía. Estos modelos deberían tener mucho que ofrecer a las teorías psicológicas de procesamiento del discurso. Sin embargo, habría que decir que las diferentes descripciones no están nada claras. Podría ser necesario tomar algunos de estos modelos, quizás aquellos que tengan mayor poder predictivo, y utilizarlos para reinterpretar los descubrimientos que han sido tomados como evidencia de los sistemas simbólicos o conexionistas, y mostrar cómo los modelos híbridos de IA dan cuenta de estos fenómenos. De modo alternativo, se debería analizar cómo los modelos de IA particulares interpretarían los hallazgos que han sido considerados como soporte para uno o más aspectos de los diferentes modelos híbridos. Pero esto lo discutiremos en la parte final de este trabajo. Hay que ver también si la dimensión híbrido versus no-híbrido es la dimensión más apropiada. Quizás, la dimensión apropiada esté más estrechamente relacionada con los procesos asociativos versus de razonamiento. Antes de ello, vamos a ver a continuación qué es lo que se pretende lograr con la tecnología cognitiva de compensación, en particular para el caso de la lectura.


Tecnología compensatoria

El concepto de compensación en discapacidades de lectura se relaciona con cierto gasto adicional de atención y esfuerzo mental. Existen diferencias intra- e inter-individuos en la utilización del lenguaje oral para acceder al lenguaje escrito. Los componentes de decodificación y comprensión son niveles inter-relacionados de procesamiento de la escritura. Las dificultades en procesamiento a un nivel pueden ser compensadas por un mayor uso de información desde otros niveles. Este estudio y otros muestran que la decodificación rápida, automática, es necesaria, aunque no suficiente, para la comprensión. Mientras deficiente en niveles “más altos” de procesamiento de texto, los lectores discapacitados se benefician mas de la utilización del contexto, bajo ciertas condiciones. Las ayudas técnicas para mejorar la realización incluyen el uso de equipamiento audiovisual, ordenadores como <<tutor, herramienta, tutelado>> y la investigación de Lundberg sobre la técnica de <<ventana móvil de texto>> en tiempo real utilizando el ordenador para estudiar los componentes de la lectura y las diferencias individuales.

En general se han planteado dos procesos, por una parte el proceso de decodificación y, por otra, el proceso de comprensión. Así, en el procesamiento de palabras automático, rápido se sugiere que:

Los lectores menos hábiles muestran mayores latencias de vocalización a palabras escritas libres de contexto y pseudopalabras.

Los lectores menos hábiles mostraban un acceso léxico más lento. Esto está probablemente relacionado con su dificultad para recodificar cadenas de letras y no tanto debido a un léxico pobre.

Los lectores menos hábiles eran menos eficientes con la codificación fonológica tan esencial para la comprensión.

Procesos de lectura de alto nivel

Cuando un lector se enfrenta a un texto poco familiar, a menudo es necesario hacer un esfuerzo consciente para activar esquemas relevantes o conocimiento previo que ayudaría a clarificar el significado y la significatividad de los hechos presentados en el texto. El lector debe monitorizar su comprensión y descubrir cuándo ocurren fallos de comprensión o problemas en el texto y desarrollan estrategias de reparación para superar estas dificultades. Este es el aspecto ‘metacognitivo’ de la lectura (véase, Brown, 1980). El lector debe tener el potencial o los pre-requisitos necesarios para la tarea de lectura, pero por alguna razón no siempre están espontáneamente accesibles. La noción de compensación en este contexto significa ayudar a los lectores a utilizar sus recursos latentes.

Un caso típico para muchos lectores pobres es su tendencia a no utilizar estrategias en su lectura. Leen pasivamente sin controles de auto-regulación de su propio entendimiento y sin activar su conocimiento previo. En cierto sentido, la lectura es una cuestión de ‘economía cognitiva’. Los recursos mentales son invertidos durante el proceso de la lectura. El uso de estrategias supone tiempo y esfuerzo. Sin embargo, tales inversiones mentales deben producir su correspondiente resultado, e.g., experiencia de lectura más rica e interesante, divertimento, éxito, claridad incrementada, mejor composición del objetivo lector, significado personal, satisfacción emocional. El análisis coste-beneficios entonces indica dos dimensiones diferentes de las medidas de recuperación. Por un lado, es una cuestión de guiar a los estudiantes a utilizar estrategias simples y efectivas para minimizar las inversiones necesarias de tiempo y energía o esfuerzo (e.g., automatización). Por otro lado, es una cuestión de maximizar la utilidad, proporcionando de este modo a los estudiantes con oportunidades de experimentar el significado personal de la tarea lectora. Necesitan ayuda para ver las limitaciones de su poco eficiente procesamiento de la información habitual, y darse cuenta de cómo puede mejorarse.


Ayudas técnicas

El análisis coste-beneficio de la lectura ha venido a señalar dos estrategias relacionadas para la enseñanza de la recuperación del proceso de lectura para estudiantes dicapacitados: (i) minimizar la inversión necesaria de recursos mentales (tiempo y esfuerzo) en el proceso de decodificación y (ii) maximizar el producto o utilidad de la lectura. Un técnica donde ambos aspectos son considerados es ‘escucha mientras lees’. Los estudiantes son animados a leer textos al mismo tiempo que oyen los mismos textos grabados en cinta, donde la velocidad del texto hablado varía sistemáticamente. Se asume que el reconocimiento de una palabra se desarrolla sin esfuerzo a través de la indicación repetida proporcionada por la voz en la cinta. El estudiante es también ayudado a descubrir la excitación y significado personal inherente en muchos textos narrativos y es así animado a seguir independientemente. Después de todo, sólo podemos aprender a leer leyendo.

Este tipo de procedimiento ha sido recomendado, entre otros por Carbo (1978), Gamby, (1983), Glenberg y Langston (1992), Lundberg y Leong (1986) y Schneeberg (1977). Carbo (1978) informaba de una ganancia media de ocho meses en nivel lector después de un periodo de tres meses de tratamiento. Schneeberg (1977) informaba que su estudio de cuatro años utilizando la técnica de ‘leer mientras escuchas’ con estudiantes educacionalmente desaventajados en una escuela internado, resultaba en puntuaciones de ganancia alta.

Un avance técnico que puede tener un profundo impacto en la enseñanza de la lectura es el desarrollo de máquinas que, cuando se acoplan con sintetizadores de voz computadorizados, pueden leer texto escrito en voz alta con distorsiones fonológicas y prosódicas mínimas.

Los ordenadores durante la intervención

El ordenador es una herramienta versátil, apropiada para servir como una ayuda en la educación especial. Aunque los ordenadores son ampliamente utilizados en las escuelas, parece como si sus verdaderos potenciales no hayan sido utilizados en su amplia medida. La International Reading Association (IRA) ha publicado recientemente una bibliografía sobre el uso de los ordenadores en la enseñanza de la lectura (Lundberg y Leong, 1986). Contiene unas novecientas referencias de las que algunas son bibliográficas. Asi, la bibliografía sobre ordenadores en lectura es en efecto ya de un tamaño considerable. Utilizado apropiadamente, el ordenador va más allá del nivel de <<destreza y ejercitación >> y puede prestar ayuda durante la solución de problemas (véase Papert, 1980). Además, los ordenadores son capaces de hacer mucho más; por ejemplo, pueden medir el tiempo de respuesta y puede ser utilizado para recoger reacciones fisiológicas, movimientos oculares, emisión de voz, etc. En este trabajo, hemos intentado ilustrar el uso de ordenadores en la enseñanza de la escritura y sobre el desarrollo de estrategias apropiadas durante el proceso de lectura.

Un procesador de textos puede ser una herramienta útil para enseñar a estudiantes discapacitados a desarrollar la habilidad de escritura. Permite al escritor tomar el riesgo, ser tentativo, considerar la organización y elegir las palabras más libremente. Puede potenciar un cierto estilo o actitud meta cognitivo en relación al proceso de escritura y desarrollar un sentido de control. En un diálogo con un maestro o logopeda, el estudiante o paciente puede revisar su trabajo y corregir el deletreo y la puntuación, trabajar en la estructura de la oración y en la cohesión de oraciones sin temor a tener que producir una nueva copia cada vez que su trabajo es revisado. Un procesador de textos sería también particularmente beneficioso para estudiantes con dificultades a la hora de manejar el lápiz. Desafortunadamente, la investigación sistemática o evaluación de esta poderosa herramienta no ha sido, a nuestro entender, realizada todavía.

Discusión

Existen varios modos de justificar los actuales intentos de construir arquitecturas híbridas para el procesamiento del discurso. A este respecto, hemos planteado algunas cuestiones que conciernen tanto a tareas como a tecnologías, es más, que tienen que ver con las restricciones independientes del sistema: aquellas que intentan desarrollar algunos mínimos básicos en un modelo que sea cognitivamente plausible. Es decir, estas restricciones tienen que ser definidas por aspectos generales de la ejecución de los agentes, y pueden incluir propiedades generales de, o requisitos en la realización de, todas aquellas tareas que realiza el agente. Tales restricciones deben incluir, o surgir a partir de, la modularidad de la arquitectura, la transferencia del posible aprendizaje entre módulos y las limitaciones de recursos.

Por tanto, las recientes arquitecturas híbridas están diseñadas con componentes simbólicos y conexionistas que pueden interactuar a través de: (i) la interacción durante la fase de aprendizaje, cuando el sistema híbrido tiene que asociar una decisión o diagnóstico a una situación ‘input’, y; (ii) los procedimientos de transferencia de conocimiento (e.g., compilar reglas en una red neuronal y extraer reglas a partir del componente conexionista). El conocimiento puede ser añadido en el componente conexionista con independencia el componente simbólico, ya que las redes pueden aprender a partir de la experiencia en cualquier momento. Pero, el conocimiento también puede ser derivado (compilado) a partir del componente simbólico que construye una nueva red a partir de la estructura d ela base de reglas, o al azar, generando ejemplos que serían aprendidos por medio de una red vacía.

Este tipo de arquitectura un tanto ideal, puede tener muchas limitaciones y tener que tomar partido en bastantes de los debates que giran alrededor del diseño de arquitecturas híbridas. Sin embargo, lo que hemos pretendido en este trabajo es plantear la cuestión de qué pueden llegar a ofrecer este tipo de modelos cuando lo que se pretende es diseñar técnicas que compensen las discapacidades (lingüísticas y comunicativas) de una determinada persona. Los últimos indicios en las investigaciones sobre la interacción hombre-máquina apuestan por adaptar al máximo la máquina para el mayor uso apropiado por parte del usuario. En este caso, una arquitectura que se proponga para el procesamiento del discurso debería tanto jugar su papel en la comprensión del lenguaje como en la producción del lenguaje (en algunos casos por medio de sintetizadores de voz).

La tarea de generación o producción del discurso es más problemática al tener que decidir cuál de los hechos y sucesos que van a ser comunicados se expresa literalmente y cuál se omite al lector/oyente para que deba inferirlo. En este sentido, la reciente evidencia psicológica enfatiza la importancia de las inferencias elaborativas y predictivas a la hora de construir un texto fluido; a diferencia del papel de las denominadas inferencias puente que se realizan principalmente debido a rupturas en la coherencia. Como ya hemos comentado, este tipo de inferencias crean expectativas para evitar tales rupturas en la cadena de coherencia y llegan a incrementar la facilidad de lectura de un texto ayudando a evitar la redundancia. Es más, durante el proceso de planificación del discurso, se debe comprobar si una proposición que va a ser verbalizada puede ya ser inferida a partir de las proposiciones anteriores.

En el caso de la lectura y comprensión narrativa, podemos decir que muchos de los factores que hemos discutido (nivel léxico, sintáctico, etc.), continúan influyendo en la comprensión al nivel narrativo. El proceso de comprensión narrativa supone varios pasos. El primero es el desarrollo del texto base, esto es, la conversión de la información contenida en las oraciones dentro de la narración en un conjunto de proposiciones (elementos de significado que contienen un predicado y uno o más argumentos). Estas proposiciones están típicamente dispuestas de forma jerárquica de tal modo que la información más importante o central se sitúa en la cima y la menos importante en las hojas. Patterson y Pierce (1991; Pierce, 1995) demostraron que los pacientes afásicos de alto grado retienen una sensibilidad a esta jerárquica y el recuerdo de proposiciones era menos exacto en el tercer nivel que en el primero o segundo.

Lo que se espera de las narraciones es que sean coherentes. Coherencia basada en la percepción de relaciones entre las proposiciones en un texto base. Estas relaciones están basadas en rasgos tales como causalidad, objetivos compartidos, planes, y acciones (Graesser y Bower, 1990). Mientras son evidentes muchas de esta relaciones, otros requieren que el oyente realice inferencias. En este sentido, la exactitud de la comprensión se ve influida por el número y complejidad de las inferencias requeridas para asociar proposiciones. No soy consiente de ninguna información en habilidades de los pacientes afásicos para hacer diferentes tipos de inferencias (e.g, causal vs. objetivos compartidos). Sin embargo, existe evidencia que los pacientes afásicos se ven afectados por el grado de inferencia requerido.

El conocimiento en forma de esquemas y superestructuras (gramáticas de textos) está relativamente intacto en pacientes afásicos de alto grado. En relación al conocimiento del dominio, los pacientes afásicos comprenden las narraciones de tópicos del que conocen algo con mayor exactitud que aquellos de los que conocen poco.

La información obtenida a partir de la base textual se combina con el conocimiento actual del oyente para expandir su base de conocimiento. De acuerdo con ello, las respuestas a preguntas sobre una narración reflejarán lo que el paciente aprendió desde la narración además de lo que ya sabía. Puede parecer a veces difícil tener certeza sobre qué tipo de información está utilizando un paciente para responder a las preguntas. Normalmente, durante el tratamiento y la evaluación, el interés se centra en cómo de bien un paciente puede derivar información a partir de la narración. Sin embargo, esta habilidad permanece desconocida si el paciente puede responder a las preguntas basado solamente en su conocimiento anterior.

Finalmente, después de formar el texto base, el segundo estadio en la comprensión de narraciones es desarrollar el tema o idea principal de la narración, esa habilidad parece estar relativamente intacta en pacientes afásicos de alto grado para narraciones y para monólogos y diálogos conversacionales. Esta capacidad puede ser potenciada al proporcionar claves temáticas que a menudo mejoran el recuerdo de la información de detalle.

Como podemos apreciar en el tratamiento de la comprensión de discursos narrativos, las variables importantes a considerar cuando se trata la comprensión de narraciones de pacientes afásicos incluyen conocimiento del dominio, saliencia o pertinencia, demandas de inferencia, longitud y familiaridad. Se suele comenzar con tópicos narrativos con los que el paciente es más familiar y progresar hacia aquellos que le son menos familiares. Comenzar con preguntas sobre ideas principales de la narración y progresar a preguntas sobre detalles (progresando desde mayores a menores detalles centrales o importantes). Comenzar con información que se dice directamente y progresar hacia información que requiere inferencias por parte del oyente (progresando de inferencias mínimas a más complejas). Variar la longitud y familiaridad del vocabulario de la narración, etc.


REFERENCIAS

Bara, B.G., Tirassa, M. & Zettin, M. (1997). Neuropragmatics: Neuropsychological constraints

on formal theories of dialogue, Brain and Language, 59, 7-49.

Baudet, S. & Denhière, G. (1991). Mental models and acquisition of knowledge from text: representation and acquisition of functional systems. In G. Denhière and J.-P. Rossi (Eds.), Text and Text Processing (155-187). Amsterdam: North-Holland.

Barnden, J.A. (1988). Conposit, a neural net system for high-level symbolic processing: overview of research and description of register-machine level, Memoranda in Computer and Cognitive Science, No. MCCS-88-145. Computing Research Laboratory, New Mexico State University, Las Cruces, NM.

Barnden, J.A. (1989) Neural-net implementation of complex symbol-processing in a mental model approach to syllogistic reasoning. In Proceedings IJCAI-89. San Mateo, CA: Morgan Kaufmann.

Barnden, J. & Srinivas, K. (1991). Encoding techniques for complex information structures in connectionist systems. Connection Science, 3, 269-315.

Brown, G.D.A. (1997). Connectionism, phonology, reading and regularity in developmental dyslexia. Brain and Language, 59, 207-235.

Clark, A. & Chalmers, D. (1998). The extended mind. Analysis, 58(1), 7-19.

Collins, A. & Michalsky (1989). The logic of plausible reasoning: A core theory. Cognitive Science, 13, 1-49.

Derthick, M. (1988). Mundane reasoning by parallel constraint satisfaction. Technical Report CMU-CS-88-182. Carnegie-Mellon University, Pittsburgh, PA.

Dolan, C.P. & Smolensky, P. (1988). Implementing a connectionist production system using tensor products. CSD-880088. Computer Science Department, UCLA.

Dopkins, S. (1996). Representation of superordinate goal inferences in memory. Discourse Processes, 21(1), 85-104.

Dyer, M.G. (1988). Symbolic Neuroengineering for natural language processing: A multilevel research approach. Technical Report UCLA-AI-88-14. Artificial Intelligence Laboratory, Computer Science Department, UCLA.

Eliasmith , C. (1997). Computational and dynamical models of mind. Minds and Machines, 7, 531-541.

Elman, J.L. (1989). Structured representations and connectionist models. In Proceedings of the 11th Annual Conference of the Cognitive Science Society. Hillsdale, NJ: Erlbaum.

Ezquerro, J. & Iza, M. (1995). A hybrid architecture for text comprehension: Elaborative inferences and attentional focus, Pragmatics & Cognition, 3(2), 247-279.

Fanty, M.A. (1988). Learning in Structured Connectionist Networks. Ph.D. Thesis, Department of Computer Science, University of Rochester.

Feldman, J.A. (1988). Connectionist representation of concepts. In D. Waltz & J. Feldman (Eds.), Connectionist Models and Their Implications (pp. 341-363).

Feldman, J.A. y Ballard, D.H. (1982). Connectionist models and their properties. Cognitive Science, 6(3), 205-254.

Golden, R.M. (1986). Representing causal schemata in connectionist systems. In Eighth Annual Conference of the Cognitive Science Society. Amherst: LEA.

Grosz, B.J. & Sidner, C. L. (1986). Attention, intentions, and the structure of discourse. Computational Linguistics, 12, 175-204.

Henderson, J. (1993). A connectionist parser for structure unification grammar. In Proceedings of the Thirtieth Annual Meeting of the Association of Computational Linguistics. Association of Computational Linguistics.

Hendler, J.A. (1987). Marker-passing and microfeatures. In Proceedings of the Tenth International Joint Conference on Artificial Intelligence (pp. 151-154). Milan, Italy.

Hobbs, J. R. (1986). Overview of the TACITUS Project. Computational Linguistics, 12.

Hobbs, J. R. & Martin, P. (1987). Local Pragmatics. In Proceedings of the Tenth International Joint Conference on Artificial Intelligence (pp. 520-523). Milan.

Holyoak, K.J. & Thagard, P. (1997). The analogical mind. American Psychologist, 52(1), 35-44.

Jordan, M. L. (1986). Serial order: A parallel distributed processing approach. ICS Report 8604. Institute for Cognitive Science, UCLA.

Jordan, M.L. (1992). Constrained Supervised Learning. Journal of Mathematical Psychology, 36, 396-425.

Jordan, M.L., & Rumelhart, D.E. (1992). Forward Models: Supervised Learning with a Distal Teacher. Cognitive Science, 16, 307-354.

Just, M.A. & Carpenter, P.A. (1980). Inference processes during reading: From eye fixations to comprehension. Psychological Review, 87(4), 329-354.

Keefe, D.E., & McDaniel, M.A. (1993) The time course and durability of predictive inferences. Journal of Memory and Language, 32, 446-463.

Kintsch, W. (1988). The role of knowledge in discourse processing: A construction-integration model. Psychological Review 95, 163-182.

Kintsch, W. (1992). A cognitive architecture for comprehension. In H.L. Pick, P. van den Broek and D. C. Knill (Eds.), Cognition: conceptual and methodological issues (pp. 143-163). Washington: American Psychological Association.

Kosko, B. (1988). Bidirectional associative memories. IEEE Transactions on Systems, Man, and Cybernetics, 18(1).

Lange, T. & Dyer, M. G. (1989). Frame selection in a connectionist model of high-level inferencing. Technical Report UCLA-AI-89-05. Computer Science Department, UCLA.

Mannes, S. & Doane, S.M. (1991). A hybrid model of scrip generation: or getting the best from both worlds. Connections Science, 3, 61-87.

Mannes, S. & Hoyes, S.M. (1996). Reinstating knowledge during reading: A strategic process. Discourse Processes, 21(1), 105-128.

Miikkulainen, R. (1997). Dyslexic and category-specific aphasic impairments in a self-organizing feature map model of the lexicon. Brain and Language, 59, 334-366.

Millis, K. & Barker, G. (1996). Question answering and expository text. Discourse Processes, 21(1), 57-84.

Park, N. S., Roberston, D. & Stenning, K. (1995). An extension of the temporal synchrony approach to dynamic variable binding in a connectionist inference system. Knowledge Based Systems, 8(6).

Park, N.S. & Robertson, D. (1996). A connectionist representation of symbolic componnets, dynamic bindings and basic inference operations. In Proceedings ECAI 96.

Phillips, S. (1998). Are feedforward and recurrent networks systematic? Analysis and implications for a connectionist cognitive architecture. Connection Science, 10(2),

Sanford, A.J. (1990). On the nature of text driven inference. In D.A. Balota, G.B. Flores d'Arcais and K. Rayner (Eds.), Comprehension Processes and Reading (pp. 515-533). Hillsdale, NJ: LEA.

Schank, R.C. (1982). Dynamic memory. Cambridge: Cambridge University Press.

Shastri, L. & Ajjanagadde, V. (1993). From simple associations to systematic reasoning: A connectionist representation of rules, variables, and dynamic bindings using temporal synchrony. Behavioral and Brain Sciences 16 (4).

Shastri, L. & Grannes, D.J. (1995). Dealing with negated knowledge and inconsistency in a neurally motivated model of memory and reflexive reasoning. TR-95-041. International Computer Science Institute. Berkely, California.

Singer, M. (1996). Comprehending consistent and inconsistent causal text sequences: A Construction-Integration analysis. Discourse Processes, 21(1), 1-22.

Sun, R. (1993). An efficient feature-based connectionist inheritance scheme. IEEE Transactions on Systems, Man, and Cybernetics, 23(2), 1-12.

Sun, R. (1994). Integrating Rules and Connectionism for Robust Commonsense Reasoning. New York: John Wiley.

Tabor, W., Juliano, C. & Tanenhaus, M.K. (1997). Parsing in a dynamial system: A attractor-based account of the interaction of lexical and structural constraints in sentence processing. Language and Cognitive Processes, 12, 211-271.

van den Broek, P. (1995). The role of readers’ standards for coherence in the generation of inferences during reading. In R.F. Lorch & E.J. O’Brien (Eds.), Sources of Coherence in Reading (pp. 353-373). Hillsdale, NJ: LEA.

van den Broek, P. (1996). A “landscape” view of reading: Fluctuating patterns of activation and the construction of a stable memory representation. In B.K. Britton & A.C. Graesser (Eds.), Models of Understanding Text (pp. 165-185). Mahwah, NJ: LEA.

Waters, G.S. & Caplan, D. (1996). The capacity theory of sentence comprehension: critique of Just and Carpenter (1992). Psychological Review, 103(4), 761-772.

Way, E. C. (1991). Knowledge Representation and Metaphor. Dordrecht: Kluwer.


40