Varela Conocer
Varela Conocer
Varela Conocer
Conocer
Las ciencias cognitivas: Tendencias y perspectivas.
Cartografía de las ideas actuales
ePub r1.3
Titivillus 24.05.2020
Título original: Cognitive Science. A Cartography of Current Ideas
Francisco Varela, 1988
Traducción: Carlos Gardini
Retoque de cubierta: Titivillus
Introducción
Agradecimientos
6. Conclusiones
Notas
Esta obra está dedicada, con todo mi amor, a mis hijos
Alejandra, Javier y Leonor
Introducción
Motivación
Las ciencias y tecnologías de la cognición (CTC) constituyen la revolución
conceptual y tecnológica más significativa desde la física atómica, pues
ejercen un impacto de largo plazo en todos los niveles de la sociedad. La
tecnología de la información (TI) es sólo el aspecto más visible de este
vasto complejo de investigaciones y aplicaciones cuyos principales
intereses se orientan hacia el conocimiento, la información y la
comunicación.
Las CTC son un híbrido de diversas disciplinas interrelacionadas, y
cada cual aporta sus intereses y preocupaciones propios (Figura 1). Se
puede argumentar que la ciencia cognitiva es una disciplina aparte cuyo
polo tecnológico es la inteligencia artificial (IA), y que no se las debería
confundir como hacemos aquí. No obstante, el distingo entre ciencia
aplicada y ciencia pura parece fuera de lugar en esta empresa (como para la
mayoría de las ciencias modernas: pensemos en la biotecnología). Uno de
nuestros propósitos es demostrar que concentrarse sólo en el aspecto
tecnológico o el aspecto «puro» de las CTC equivale a perder de vista su
vitalidad y su futuro. Este campo resulta fascinante precisamente porque
conjuga puntos de vista que proceden de fuentes alejadas entre sí como son
la ingeniería informática y el pensamiento filosófico. Es fácil comprenderlo
cuando se enumeran algunas de las áreas que interesan al científico
cognitivo de hoy: la percepción, el lenguaje, la inferencia y la acción.
Dichos intereses también se reflejan en las siguientes tecnologías:
reconocimiento de imágenes, comprensión del lenguaje, síntesis de
programas, robótica.
Los comienzos
Comenzaremos con los años formativos de las CTC, que abarcan el período
1940–1956. Esta breve ojeada a las raíces es necesaria. Una ciencia que
olvida su pasado está condenada a repetir sus errores, y es incapaz de
evaluar su desarrollo. Por cierto, nuestra breve excursión no se propone ser
una historia exhaustiva, sino sólo tocar aquellos problemas de relevancia
directa para el presente ensayo.[5]
De hecho, casi todos los temas que hoy se debaten activamente se
introdujeron en esos años de formación, lo cual evidencia que los
problemas son profundos y difíciles de abordar. Los «padres fundadores»
sabían muy bien que sus preocupaciones conducían a una nueva ciencia, y
la bautizaron con un nombre que aludía explícitamente a su orientación
epistemológica.[6] Esta palabra ha caído en desuso, y en la actualidad
muchos científicos cognitivos ni siquiera reconocerían el parentesco. No
mencionamos esto porque sí. Refleja el hecho de que para consolidarse
como ciencia, en su clara orientación cognitivista (la segunda etapa, en este
texto), la futura ciencia cognitiva tuvo que cercenar sus complejas raíces,
más difusas pero también más ricas. Ello ocurre a menudo en la historia de
la ciencia: es el precio que se paga por pasar de una etapa exploratoria a la
constitución de un paradigma: de la nube al cristal.
Los años pioneros fueron el resultado de un intenso diálogo entre gentes
de muy diversa formación: un esfuerzo interdisciplinario singularmente
feliz que se produjo con notable coincidencia en Europa y los Estados
Unidos. En Suiza Jean Piaget formuló un programa de investigación en lo
que él denominaba epistemología genética, mientras Konrad Lorenz
describía su visión de una epistemología evolutiva. Al mismo tiempo, en los
Estados Unidos, Warren McCulloch empezaba a hablar de epistemología
experimental.
Esta sincronicidad de los esfuerzos para naturalizar la epistemología
tuvo su desarrollo más intenso en una zona geográfica localizada,
principalmente centrada alrededor del MIT y de Princeton. Los principales
actores fueron un puñado de científicos respaldados por algunas mentes
pródigas, principalmente John von Neumann, Norbert Wiener, Alan Turing
y Warren McCulloch. Es interesante recordar que estos esfuerzos cobraron
forma visible al amparo del neologismo acuñado por Wiener: cibernética.[7]
Síntesis de la doctrina
¿Qué significa decir que la cognición se puede definir como computación?
Un cómputo es una operación realizada mediante símbolos, es decir,
mediante elementos que representan algo. Aquí la idea clave es la de
representación o «intencionalidad», el término filosófico que designa algo
que es «acerca de algo».[12] El argumento cognitivista es que la conducta
inteligente supone la capacidad para representar el mundo de ciertas
maneras. Así que no podemos explicar la conducta cognitiva a menos que
demos por sentado que un agente actúa representando rasgos relevantes de
las situaciones en que se halla, En la medida en que su representación de
una situación sea exacta, la conducta del agente tendrá éxito (siempre que
todas las demás cosas sean iguales).
Esta noción de la representación es —al menos desde el ocaso del
conductismo— relativamente poco controvertida. Lo controvertido es el
paso siguiente, en el cual el cognitivista afirma que el único modo de dar
cuenta de la inteligencia y la intencionalidad consiste en formular la
hipótesis de que la cognición consiste en actuar sobre la base de
representaciones que adquieren realidad física con la forma de un código
simbólico en el cerebro o en una máquina.
Según el cognitivista, el problema a resolver es el siguiente: cómo
correlacionar la atribución de estados intencionales o representacionales
(como creencias, deseos e intenciones) con los cambios físicos que el
agente sufre cuando actúa. En otras palabras, si deseamos afirmar que los
estados intencionales tienen propiedades causales, tenemos que demostrar
no sólo cómo esos estados son físicamente posibles, sino cómo pueden
causar conducta. Aquí es donde entra la idea de computación simbólica: los
símbolos tienen una realidad física y semántica, y esta realidad semántica
condiciona la computación. En otras palabras, la computación es
fundamentalmente semántica o representacional: la idea de computación no
tiene sentido (en contraste con una operación simbólica aleatoria o
arbitraria) sin tener en cuenta las relaciones semánticas existentes entre las
expresiones simbólicas. (Este es el sentido del popular slogan «no hay
computación sin representación»). Sin embargo, un ordenador digital opera
sólo sobre la forma física de los símbolos que computa; no tiene acceso a su
valor semántico. No obstante, sus operaciones están limitadas
semánticamente porque los programadores han codificado toda distinción
semántica relevante para su programa y la han expresado en la sintaxis de
su lenguaje simbólico. En un ordenador la sintaxis refleja la proyección
semántica o es paralela a ella. Los cognitivistas afirman, pues, que este
paralelismo demuestra la realidad física y mecánica de la inteligencia y la
intencionalidad (semántica). La hipótesis es pues que los ordenadores
brindan un modelo mecánico del pensamiento o, en otras palabras que el
pensamiento consiste en la computación física de símbolos. Las ciencias
cognitivas se convierten en el estudio de esos sistemas cognitivos
constituidos por símbolos físicos.[13]
Para comprender adecuadamente esta hipótesis, es fundamental advertir
en qué nivel se propone. El cognitivista no afirma que si abriéramos la
cabeza de alguien y le miráramos el cerebro hallaríamos allí pequeños
símbolos. El nivel simbólico tiene una dimensión física pero no es
reductible al nivel físico. (Ello resulta evidente cuando recordamos que el
mismo símbolo puede adoptar muchas formas físicas.) En consecuencia,
una expresión simbólica poseedora de una realidad física se puede
corresponder con un patrón global y altamente distribuido de actividad
cerebral. Regresaremos luego sobre esta idea. Pero por ahora deseamos
enfatizar que, además de los niveles de la física y la neurobiología, el
cognitivismo postula un claro e irreductible nivel simbólico para explicar la
cognición. Más aun, como los símbolos son ítems semánticos, los
cognitivistas también postulan un tercer nivel semántico o representacional.
(La irreductibilidad de este nivel también resulta evidente cuando
recordamos que el mismo valor semántico puede adoptar muchas formas
simbólicas.)[14]
Esta multiplicidad de niveles en la explicación científica es muy
reciente y constituye una de las principales innovaciones de las ciencias
cognitivas. Los orígenes y la formulación inicial de la innovación como
idea científica amplia nacieron en la era cibernética, pero los cognitivistas
han hecho grandes aportes para una articulación filosófica más rigurosa.[15]
Nos agradaría que el lector tuviera presente esta idea, pues cobrará nueva
significación cuando en la siguiente etapa comentemos una idea
emparentada con ella, la controvertida noción de emergencia.
El lector también debe advertir que la hipótesis cognitivista pone gran
énfasis en las relaciones entre sintaxis y semántica. Como hemos
mencionado, en un programa de computación la sintaxis del código
simbólico refleja su semántica. Ahora bien, en el caso del lenguaje humano,
dista de ser obvio que todos los distingos semánticos relevantes para una
explicación de la conducta estén reflejados sintácticamente. En verdad, se
pueden esgrimir muchos argumentos filosóficos contra esta idea.[16] Más
aun, aunque sabemos de dónde procede el nivel semántico de los cómputos
de un ordenador (los programadores), no sabemos cómo obtienen su sentido
las expresiones simbólicas que el cognitivista supone registradas en el
cerebro.
El programa de investigación cognitivista se puede sintetizar en las
respuestas a las siguientes preguntas:
Pregunta 1: ¿Qué es la cognición?
Respuesta: Procesamiento de información; manipulación de símbolos
basada en reglas.
Pregunta 2: ¿Cómo funciona?
Respuesta: A través de cualquier dispositivo que pueda representar y
manipular elementos físicos discretos: los símbolos. El sistema interactúa
sólo con la forma de los símbolos (sus atributos físicos), no su significado.
Pregunta 3: ¿Cómo saber que un sistema cognitivo funciona
adecuadamente?
Respuesta: Cuando los símbolos representan apropiadamente un aspecto
del mundo real, y el procesamiento de la información conduce a una feliz
solución del problema planteado al sistema.
Obviamente el programa cognitivista que acabo de delinear no nació
completo, como Atenea de la cabeza de Zeus. Lo presentamos con los
beneficios de treinta años de perspectiva. Sin embargo, no sólo este audaz
programa se ha consolidado plenamente, sino que ahora se lo identifica con
las ciencias cognitivas. Pocos de sus participantes activos, y mucho menos
el público en general, tienen en cuenta sus raíces o sus actuales desafíos y
posibilidades. «El cerebro procesa información del mundo exterior» es una
frase cotidiana que todos entienden. Decir que tal enunciado puede ser
desorientador suena extraño, y de inmediato se tildará de «filosófica» a la
subsiguiente conversación. Esta ceguera que el paradigma cognitivista ha
introducido en el sentido común contemporáneo es capaz de poner en jaque
horizontes más amplios para el futuro de las CTC.
Figura 3. Una caricatura de la revista Punch que ilustra sucintamente la hipótesis
cognitivista. Para capturar su presa, Un martín pescador debe tener en el cerebro la
representación de la ley de refracción de Snell.
La estrategia conexionista
Así el cerebro ha vuelto a convertirse en fuente de metáforas e ideas para
otros campos de las ciencias cognitivistas en esta orientación alternativa.
Aquí no partimos de descripciones simbólicas abstractas, sino de una hueste
de componentes de tipo neural, no inteligentes, que, apropiadamente
conectados, presentan interesantes propiedades globales. Estas propiedades
globales corresponden a las aptitudes cognitivas que se estudian.
Todo el enfoque depende, pues, de introducir las conexiones apropiadas,
lo cual se suele hacer mediante una regla para el gradual cambio de
conexiones a partir de un estado inicial bastante arbitrario. La regla de
aprendizaje mejor explorada es la «Regla de Hebb». En 1949 Donald Hebb
sugirió que el aprendizaje se podía basar en cambios cerebrales que surgen
del grado de actividad correlacionada entre las neuronas; si dos neuronas
tienden a actuar en conjunto, su conexión se refuerza; de lo contrario
disminuye. Por lo tanto, la conectividad del sistema se vuelve inseparable
de su historia de transformación y se relaciona con la clase de tarea que se
propone al sistema. Como la verdadera acción se produce en el nivel de las
conexiones, se ha propuesto el nombre de conexionismo (a menudo llamado
neoconexionismo, para distinguirlo del paleoconexionismo de los años
cibernéticos) para esta linea de investigación.[30]
Un factor decisivo en el explosivo interés que despierta este enfoque fue
la introducción de métodos eficaces para seguir los cambios que se
producen en estas redes. Se ha dado gran atención a la introducción de
medidas estadísticas que brindan al sistema una función de «energía» global
que nos permite seguir cómo llega el sistema a estados convergentes.[31]
Veamos un ejemplo, ilustrado en la Figura 5. Tomemos un número total
N de elementos simples semejantes a neuronas y conectémoslos entre sí.
Luego presentemos a este sistema una sucesión de patrones tratando
algunos de sus nódulos como extremos sensoriales (digamos una retina). Al
cabo de cada presentación, dejemos que el sistema se reorganice
reacomodando sus conexiones de acuerdo con un principio hebbiano, es
decir, incrementando los enlaces entre las neuronas que actúan juntas ante
el ítem presentado. La presentación de la lista de patrones constituye la fase
de aprendizaje del sistema.
Emergencia y autoorganización
Este ejemplo es sólo uno de toda una clase de redes neurales o modelos
conexdonistas, tal como veremos más adelante. Pero antes de ello es preciso
ampliar nuestro comentario para ver qué está en juego en el estudio de estas
redes. La estrategia, como dijimos, consiste en construir un sistema
cognitivo no a partir de símbolos y reglas, sino de componentes simples que
se conectarían dinámicamente entre sí de maneras densas. En este enfoque,
cada componente opera sólo en su ámbito local, de modo que no hay un
agente externo que, por así decirlo, haga girar la manivela del sistema. Pero,
dada la constitución de la red del sistema, hay una cooperación global que
emerge espontáneamente cuando todas las «neuronas» participantes
alcanzan un estado mutuamente satisfactorio. En tal sistema, pues, no se
requiere una unidad procesadora central que guíe toda la operación. Este
tránsito de las reglas locales a la coherencia global es el corazón de lo que
en los años cibernéticos se denominaba autoorganización.[33] Hoy la gente
prefiere hablar de propiedades emergentes o globales, dinámica de red,
redes no lineales, sistemas complejos o aun de sinergia.[34]
No hay una teoría formal unificada de las propiedades emergentes. No
obstante, resulta claro que se han hallado propiedades emergentes en todos
los dominios: vórtices y lásers, oscilaciones químicas, redes genéticas,
patrones de desarrollo, genética de población, redes de inmunidad, ecología
y geofísica. Lo que tienen en común estos diversos fenómenos es que en
cada caso una red permite surgir nuevas propiedades, las cuales los
investigadores procuran entender en toda su generalidad.[35] El concepto de
«atractor», procedente de la teoría de los sistemas dinámicos, es muy útil
para captar las propiedades emergentes que estos diversos sistemas tienen
en común. Como esta idea será importante para el resto de nuestro análisis,
detengámonos a examinar un ejemplo.[36]
Pensemos en un «autómata celular», una unidad simple que recibe
información de dos vecinos inmediatos y comunica su estado interno a
dichos vecinos. Supongamos que la célula o unidad puede estar en sólo dos
estados (0 y 1, activo 0 inactivo) y que la regla que gobierna el cambio en
cada autómata es simplemente una función (de Boole) de dos argumentos
(tales como «y» u «o excluyente»). Como podemos escoger tal función para
cada uno de los dos estados en que está el autómata celular, la operación de
cada unidad está completamente definida por un par de funciones de Boole
(Figura 6–1).
Figura 6.2. Al estudiar la conducta de los anillos con reglas diferentes, se observa que
rápidamente surgen esquemas globales de tales sistemas, resultado de una actividad
cooperadora entre todas las neuronas constitutivas. Se obtienen, entonces,
representaciones visuales de atractores a partir de estos sistemas autoorganizados.
(Según F. Varela, 1989, op. cit.)
El conexionismo en la actualidad
Las teorías conexionistas brindan elegantes modelos funcionales para
diversas e interesantes aptitudes cognitivas, tales como el reconocimiento
rápido, la memoria asociativa y la generalización categórica, como vimos
en el ejemplo de la Figura 5. El actual entusiasmo por esta orientación está
justificado por diversas razones. Primero, la IA cognitivista y la
neurociencia contaban con pocos resultados convincentes para explicar (o
reconstruir) los procesos cognitivos que acabamos de presentar. Segundo,
los modelos conexionistas están mucho más cerca de los sistemas
biológicos, así que se puede trabajar con un grado de integración entre la IA
y la neurociencia que hasta el momento era impensable. Por último, los
modelos son tan generales como para aplicarlos, con escasas
modificaciones, a diversas áreas, tales como la visión o el reconocimiento
del lenguaje.
Hay diversos ejemplos de estados neurales emergentes para tareas que
no requieren aprendizaje, tales como los movimientos oculares o el
desplazamiento balístico de los miembros. Obviamente, la mayoría de las
tareas cognitivas que deseamos comprender involucran transformaciones
dependientes de la experiencia, de allí el interés en aprender reglas como la
de Hebb, que introdujimos en nuestro primer ejemplo. Tales reglas de
aprendizaje brindan a una red neural no sólo configuraciones emergentes
(como ocurría aun con nuestro simple autómata celular), sino la aptitud para
sintetizar nuevas configuraciones de acuerdo con la experiencia.
No reseñaremos aquí este explosivo campo de investigación en las redes
neurales plásticas y sus aplicaciones al estudio del cerebro y la inteligencia
artificial.[39] Baste con destacar que actualmente se exploran dos clases
principales de métodos de aprendizaje. El primero, ilustrado por la regla de
Hebb e inspirado por los mecanismos cerebrales, es el aprendizaje por
correlación: se presenta al sistema una serie de ejemplos que lo
condicionan para futuros encuentros. El segundo es el aprendizaje por
imitación, es decir mediante un modelo que actúa como instructor activo.
Esta estrategia es la propuesta por Rossenblatt en su Perceptrón. En su
versión moderna se la conoce como «retropropagación». En esta técnica,
los cambios en las conexiones neuronales del interior de la red (llamadas
unidades ocultas) se asignan de tal modo de reducir al mínimo la diferencia
entre la reacción de la red y lo que se espera de ella.[40] Aquí el aprendizaje
se parece a alguien que trata de imitar a un instructor, NetTalk, un célebre y
reciente ejemplo de este método, es un conversor grafemas–fonemas que
opera a partir de ciertas páginas en inglés que se le presentan en su fase de
aprendizaje. Como resultado, NetTalk puede leer en voz alta un nuevo texto
en lo que muchos testigos consideran un inglés deficiente pero
comprensible.[41]
De manera que aun en el extremo más periférico del sistema visual las
influencias que el cerebro recibe del ojo se topan con más actividad que
fluye desde la corteza. El encuentro de estos dos conjuntos de actividad
neuronal es una etapa en la emergencia de una nueva configuración
coherente, que depende del éxito del cotejo entre la actividad sensorial y la
conformación «interna» de la corteza primaria.[46] La corteza visual
primaria es, no obstante, sólo uno de los socios de este circuito neuronal
local especifico en el nivel del NGL. Otros socios desempeñan papeles
igualmente activos, tales como la formación reticular, las fibras procedentes
del colículo superior, o la consecuente actividad de las neuronas que
controlan los movimientos oculares,[47] La conducta de todo el sistema se
parece más a una animada charla en una fiesta que a una cadena de mando.
Lo que hemos descrito para la NGL y la visión es válido para todo el
cerebro. La visión es un ejemplo cómodo porque los detalles se conocen
mejor que los de la mayoría de los demás núcleos y zonas corticales. Una
neurona individual participa en muchos patrones globales como el descrito
y tiene escasa significación cuando se la toma aisladamente. En este
sentido, se puede decir que el mecanismo básico de reconocimiento visual
es la emergencia de un estado global entre conjuntos neuronales resonantes.
De hecho, Stephen Grosberg ha sido pionero de un análisis detallado de
esas redes neuronales resonantes.[48] Estos modelos son interesantes porque
concuerdan con la arquitectura general de los caminos visuales que
acabamos de delinear, al tiempo que son matemáticamente precisos, con lo
cual permiten una simulación e implementación artificial. Por ejemplo, se
ha demostrado que estas redes resonantes son capaces de aprender
rápidamente a clasificar letras en categorías, sin necesidad de recibir una
lista predefinida.
Ejemplos de enacción
Tomemos el caso de la visión: ¿qué vino primero, el mundo o la imagen?
La respuesta de los investigadores de la visión (tanto cognitivistas como
conexionistas) está dada inequívocamente en los nombres de las tareas
investigadas: «recobrar la forma a partir de la sombra», o la «profundidad a
partir del movimiento», o «el color a partir de diversas iluminaciones».
Podemos llamarla la posición de la gallina:
Síntesis de la doctrina
La noción básica es que las aptitudes cognitivas están inextricablemente
enlazadas con una historia vivida, tal como una senda que no existe pero
que se hace al andar. En consecuencia, la cognición deja de ser un
dispositivo que resuelve problemas mediante representaciones para hacer
emerger un mundo donde el único requisito es que la acción sea efectiva:
¿permite la continuidad del sistema involucrado?[73]
Pregunta 1: ¿Qué es la cognición?
Respuesta: Acción efectiva: historia del acoplamiento estructural que
enactúa (hace emerger) un mundo.
Pregunta 2: ¿Cómo funciona?
Respuesta: A través de una red de elementos interconectados capaces de
cambios estructurales durante una historia ininterrumpida.
Pregunta 3: ¿Cómo saber si un sistema cognitivo funciona
adecuadamente?
Respuesta: Cuando se transforma en parte de un mundo de significación
preexistente (como lo hacen los vástagos de toda especie), o configura uno
nuevo (como ocurre en la historia de la evolución).
Señalemos que en estas respuestas aparecen dos conceptos nuevos,
hasta ahora ausentes en las CTC. El primero es que, como las
representaciones ya no desempeñan un papel central, la inteligencia ha
dejado de ser la capacidad de resolver un problema para ser la capacidad de
ingresar en un mundo compartido. El segundo es que el proceso evolutivo
pasa a reemplazar al diseño orientado hacia tareas especificas. Dicho sin
rodeos, así como el conexionismo nació del cognitivismo inspirado por un
contacto más estrecho con el cerebro, la orientación enactiva va un paso
más allá en la misma dirección para abarcar también la temporalidad del
vivir, trátese de una especie (evolución), del individuo (ontogenia) o de la
estructura social (cultura).
De: Hacia:
tareas
creativo
específicas
resolución de definición de
problemas problemas
abstracto, ligado a la historia, al
simbólico cuerpo
universal contextual
centralizado distribuido
secuencial,
paralelo
jerárquico
mundo mundo enactuado
predefinido
representación acción productiva
desarrollo por desarrollo por
diseño estrategias evolutivas