Você está na página 1de 36

La teoría computacional de la mente

Primera publicación Viernes, 16 de octubre de 2015


[Nota del editor: la siguiente entrada nueva de Michael Rescorla reemplaza la entrada anterior sobre este
tema por el autor anterior.]

¿Podría una máquina pensar? ¿Podría la mente misma ser una máquina pensante? La
revolución de la computadora transformó la discusión de estas preguntas, ofreciendo
nuestros mejores prospectos para máquinas que emulan el razonamiento, la toma de
decisiones, la resolución de problemas, la percepción, la comprensión lingüística y otros
procesos mentales característicos. Los avances en la informática plantean la posibilidad
de que la mente misma sea un sistema computacional, una posición conocida como teoría
computacional de la mente (CTM). Computacionalistasson investigadores que respaldan
CTM, al menos tal como se aplica a ciertos procesos mentales importantes. CTM jugó un
papel central dentro de la ciencia cognitiva durante los años 1960 y 1970. Durante muchos
años, disfrutó de un estatus ortodoxo. Más recientemente, ha estado bajo presión de varios
paradigmas rivales. Una tarea clave que enfrentan los computacionalistas es explicar lo
que uno quiere decir cuando uno dice que la mente "computa". Una segunda tarea es
argumentar que la mente "computa" en el sentido pertinente. Una tercera tarea es
dilucidar cómo la descripción computacional se relaciona con otros tipos comunes de
descripción, especialmente la descripción neurofisiológica (que cita propiedades
neurofisiológicas del cerebro o cuerpo del organismo) y la descripción intencional (que
cita propiedades representativas de estados mentales).

 1. Máquinas de Turing
 2. Inteligencia artificial
 3. La teoría computacional clásica de la mente
o 3.1 Funcionalismo de la máquina
o 3.2 La teoría de la representación de la mente
 4. Redes neuronales
o 4.1 Relación entre redes neuronales y computación clásica
o 4.2 Argumentos para el conexionismo
o 4.3 Sistematicidad y productividad
o 4.4 Neurociencia computacional
 5. Cálculo y representación
o 5.1 Computación como formal
o 5.2 Externalismo sobre el contenido mental
o 5.3 Cómputo que involucra contenido
 6. Concepciones alternativas de computación
o 6.1 Procesamiento de la información
o 6.2 Evaluación de la función
o 6.3 Estructuralismo
o 6.4 Teorías mecanicistas
o 6.5 Pluralismo
 7. Argumentos contra el computacionalismo
o 7.1 Triviality arguments
o 7.2 Teorema de incompletitud de Gödel
o 7.3 Límites de modelado computacional
o 7.4 Argumentos temporales
o 7.5 Cognición encarnada
 Bibliografía
 Herramientas académicas
 Otros recursos de Internet
 Entradas relacionadas

1. Máquinas de Turing
Las nociones intuitivas de computación y algoritmo son fundamentales para las
matemáticas. En términos generales, un algoritmo es un procedimiento explícito y paso a
paso para responder algunas preguntas o resolver algún problema. Un algoritmo
proporciona instrucciones mecánicas de rutinadictando cómo proceder en cada
paso. Obedecer las instrucciones no requiere ingenio o creatividad especial. Por ejemplo,
los conocidos algoritmos de la escuela primaria describen cómo calcular la suma, la
multiplicación y la división. Hasta principios del siglo XX, los matemáticos se basaban
en nociones informales de computación y algoritmo sin intentar nada como un análisis
formal. Los desarrollos en los fundamentos de las matemáticas finalmente impulsaron a
los lógicos a buscar un tratamiento más sistemático. El documento histórico de Alan
Turing "Sobre los números computables, con una aplicación al Entscheidungsproblem"
(Turing 1936) ofreció el análisis que ha demostrado ser más influyente.
Una máquina de Turing es un modelo abstracto de un dispositivo informático idealizado
con tiempo y espacio de almacenamiento ilimitados a su disposición. El dispositivo
manipula símbolos , del mismo modo que un agente informático humano manipula
marcas de lápiz sobre papel durante cálculos aritméticos. Turing dice muy poco sobre la
naturaleza de los símbolos. Él asume que los símbolos primitivos se extraen de un
alfabeto finito. También asume que los símbolos se pueden inscribir o borrar en
"ubicaciones de memoria". El modelo de Turing funciona de la siguiente manera:

 Hay infinitas ubicaciones de memoria, dispuestas en una estructura


lineal. Metafóricamente, estas ubicaciones de memoria son "células" en una "cinta
de papel" infinitamente larga. Más literalmente, las ubicaciones de memoria se
pueden realizar físicamente en varios medios (por ejemplo, chips de silicio).
 Hay un procesador central, que puede acceder a una ubicación de memoria a la
vez. Metafóricamente, el procesador central es un "escáner" que se mueve a lo
largo de la cinta de papel una "célula" a la vez.
 El procesador central puede entrar en un número finito de estados de máquina .
 El procesador central puede realizar cuatro operaciones elementales: escribir un
símbolo en una ubicación de memoria; borrar un símbolo de una ubicación de
memoria; acceder a la siguiente ubicación de memoria en la matriz lineal ("mover
hacia la derecha en la cinta"); acceda a la ubicación de memoria anterior en la
matriz lineal ("mover hacia la izquierda en la cinta").
 La operación elemental que realiza el procesador central depende enteramente de
dos hechos: qué símbolo está actualmente inscrito en la ubicación actual de la
memoria; y el estado actual de la máquina del escáner.
 Una tabla de máquina dicta qué operación elemental realiza el procesador central,
dado su estado de máquina actual y el símbolo al que está accediendo
actualmente. La tabla de máquinas también dicta cómo cambia el estado de la
máquina del procesador central dados esos mismos factores. Por lo tanto, la tabla
de máquina contiene un conjunto finito de instrucciones mecánicas de rutina que
rigen el cálculo.
Turing traduce esta descripción informal en un modelo matemático riguroso. Para más
detalles, vea la entrada en las máquinas de Turing .
Turing motiva su enfoque al reflexionar sobre los agentes informáticos humanos
idealizados. Citando límites finitos en nuestro aparato perceptual y cognitivo, argumenta
que cualquier algoritmo simbólico ejecutado por un humano puede ser replicado por una
máquina de Turing adecuada. Concluye que el formalismo de la máquina de Turing, a
pesar de su extrema simplicidad, es lo suficientemente potente como para capturar todos
los procedimientos mecánicos ejecutables humanamente sobre configuraciones
simbólicas. Los comentaristas posteriores han estado de acuerdo casi universalmente.
El cálculo de Turing a menudo se describe como digital en lugar de analógico . Lo que
esto significa no siempre es tan claro, pero la idea básica es que el cálculo opera sobre
configuraciones discretas. En comparación, muchos algoritmos históricamente
importantes operan en configuraciones continuamente variables. Por ejemplo, la
geometría euclidiana asigna un papel importante a las construcciones de regla y compás,
que manipulan formas geométricas. Para cualquier forma, uno puede encontrar otro que
difiera en una medida arbitrariamente pequeña. Las configuraciones simbólicas
manipuladas por una máquina de Turing no difieren arbitrariamente en una pequeña
medida. Las máquinas de Turing operan sobre cadenas discretas de elementos (dígitos)
extraídos de un alfabeto finito. Una controversia recurrente se refiere a si el paradigma
digital es adecuado para modelar la actividad mental o si un paradigma analógico sería
más adecuado (MacLennan 2012, Piccinini y Bahar 2013).
Además de introducir máquinas de Turing, Turing (1936) demostró varios resultados
matemáticos fundamentales que los involucraban. En particular, demostró la existencia
de una máquina universal de Turing (UTM). En términos generales, una UTM es una
máquina de Turing que puede imitar cualquier otra máquina de Turing. Uno proporciona
al UTM una entrada simbólica que codifica la tabla de la máquina para la máquina M
de Turing . El UTM replica el comportamiento de M , ejecutando instrucciones
consagradas por la tabla de máquina de M. En ese sentido, el UTM es una computadora
programable de propósito general. Para una primera aproximación, todas las
computadoras personales son también de propósito general: pueden imitar cualquier
máquina de Turing, cuando están programadas adecuadamente. La principal advertencia
es que las computadoras físicas tienen memoria finita, mientras que una máquina de
Turing tiene memoria ilimitada. Más exactamente, entonces, una computadora personal
puede imitar cualquier máquina de Turing hasta que agote su suministro limitado de
memoria .
La discusión de Turing ayudó a sentar las bases de la ciencia de la computación , que
busca diseñar, construir y comprender sistemas informáticos. Como sabemos, los
científicos informáticos ahora pueden construir máquinas informáticas extremadamente
sofisticadas. Todas estas máquinas implementan algo parecido al cálculo de Turing,
aunque los detalles difieren del modelo simplificado de Turing.

2. Inteligencia artificial
El rápido progreso en la ciencia de la computación motivó a muchos, incluido Turing, a
considerar si podríamos construir una computadora capaz de pensar. La Inteligencia
Artificial (AI) apunta a construir "maquinaria de pensamiento". Más precisamente, su
objetivo es construir máquinas de computación que ejecuten tareas mentales básicas
como el razonamiento, la toma de decisiones, la resolución de problemas, etc. Durante
los años 1950 y 1960, este objetivo llegó a parecer cada vez más realista (Haugeland,
1985).
La investigación temprana de IA enfatizó la lógica . Los investigadores buscaron
"mecanizar" el razonamiento deductivo. Un ejemplo famoso fue el programa
informático The Logic Theory(Newell y Simon, 1956), que demostró 38 de los primeros
52 teoremas de Principia Mathematica(Whitehead y Russell, 1925). En un caso,
descubrió una prueba más simple que la de Principia .
El éxito inicial de este tipo estimuló un enorme interés dentro y fuera de la
academia. Muchos investigadores predijeron que las máquinas inteligentes estaban a solo
unos años de distancia. Obviamente, estas predicciones no se han cumplido. Los robots
inteligentes aún no caminan entre nosotros. Incluso los procesos mentales de nivel
relativamente bajo, como la percepción, exceden ampliamente las capacidades de los
programas informáticos actuales. Cuando las predicciones confiadas de las máquinas de
pensar resultaron demasiado optimistas, muchos observadores perdieron el interés o
concluyeron que AI era un tonto. Sin embargo, las décadas han sido testigos de un
progreso gradual. Un éxito sorprendente fue IBM Deep Blue, que derrotó al campeón de
ajedrez Gary Kasparov en 1997. Otro gran éxito fue el automóvil sin conductor Stanley
(Thrun, Montemerlo, Dahlkamp y otros 2006), que completó un recorrido de 132 millas
en el desierto de Mojave. ganando el Grand Challenge de la Agencia de Proyectos de
Investigación Avanzada de Defensa (DARPA). Una historia de éxito menos llamativa es
la gran mejora en los algoritmos de reconocimiento de voz.
Un problema que persiguió el trabajo temprano en AI es la incertidumbre . Casi todo
razonamiento y toma de decisiones opera bajo condiciones de incertidumbre. Por
ejemplo, es posible que deba decidir si ir de picnic sin saber si lloverá. La teoría de
decisión bayesiana es el modelo matemático estándar de la toma de decisiones bajo
incertidumbre. La incertidumbre se codifica a través de la probabilidad . Las reglas
precisas dictan cómo actualizar las probabilidades a la luz de nuevas pruebas y cómo
seleccionar acciones a la luz de las probabilidades y las utilidades. (Ver las entradas del
teorema de Bayes y las teorías normativas de la elección racional: utilidad esperada para
más detalles.) En los años ochenta y noventa, los desarrollos tecnológicos y conceptuales
permitieron programas informáticos eficientes que implementan o aproximan la
inferencia bayesiana en escenarios realistas. Luego se produjo una explosión de IA
bayesiana (Thrun, Burgard y Fox 2006), incluidos los avances antes mencionados en
reconocimiento de voz y vehículos sin conductor. Los algoritmos manejables que
manejan la incertidumbre son un logro importante de la inteligencia artificial
contemporánea, y posiblemente un presagio de un progreso futuro más impresionante.
Algunos filósofos insisten en que las computadoras, sin importar cuán sofisticadas sean,
en el mejor de los casos imitarán en lugar de reproducir el pensamiento. Una simulación
por computadora del clima realmente no llueve. Una simulación de vuelo por
computadora realmente no vuela. Incluso si un sistema informático pudiera simular
actividad mental, ¿por qué sospechar que constituiría el artículo genuino?
Turing (1950) anticipó estas preocupaciones e intentó desactivarlas. Propuso un
escenario, ahora llamado el Test de Turing , donde uno evalúa si un interlocutor no visto
es una computadora o un ser humano. Una computadora pasa la prueba de Turing si no
se puede determinar si se trata de una computadora. Turing propuso que abandonemos la
pregunta "¿Podría una computadora pensar?" Como irremediablemente vaga,
reemplazándola con la pregunta "¿Podría una computadora pasar la prueba de
Turing?". La discusión de Turing ha recibido considerable atención, demostrando ser
especialmente influyente dentro de la inteligencia artificial. Ned Block (1981) ofrece una
crítica influyente. Él argumenta que ciertas máquinas posibles pasan la prueba de Turing
a pesar de que estas máquinas no se acercan a un pensamiento o inteligencia
genuinos. Ver la entrada la prueba de Turing para la discusión de la objeción de Block y
otros asuntos relacionados con la Prueba de Turing.
Para más información sobre la inteligencia artificial, consulte la lógica de entrada y la
inteligencia artificial . Para obtener más detalles, ver Russell y Norvig (2010).

3. La teoría computacional clásica de la mente


Warren McCulloch y Walter Pitts (1943) sugirieron por primera vez que algo parecido a
la máquina de Turing podría proporcionar un buen modelo para la mente. En la década
de 1960, el cálculo de Turing se convirtió en el centro de la emergente iniciativa
interdisciplinaria ciencia cognitiva , que estudia la mente recurriendo a la psicología,
informática (especialmente AI), lingüística, filosofía, economía (especialmente teoría de
juegos y economía del comportamiento), antropología y neurociencia. . La
etiqueta clásica teoría computacional de la mente(que abreviaremos como CCTM) ahora
es bastante estándar. Según CCTM, la mente es un sistema computacional similar en
aspectos importantes a una máquina de Turing, y los procesos mentales centrales (p. Ej.,
Razonamiento, toma de decisiones y resolución de problemas) son cálculos similares en
aspectos importantes a los cálculos ejecutados por una máquina Turing. Estas
formulaciones son imprecisas. CCTM se ve mejor como una familia de vistas, en lugar
de una sola vista bien definida. [ 1 ]
Es común describir CCTM como la encarnación de "la metáfora de la computadora". Esta
descripción es doblemente engañosa.
Primero, CCTM está mejor formulado al describir la mente como un "sistema de
computación" o un "sistema computacional" en lugar de una "computadora". Como
señala David Chalmers (2011), describir un sistema como una "computadora" sugiere
fuertemente que el sistema es programable. Como también señala Chalmers, uno no
necesita afirmar que la mente es programable simplemente porque uno lo considera como
un sistema computacional de estilo de Turing. (La mayoría de las máquinas de Turing no
son programables.) Por lo tanto, la frase "metáfora de la computadora" sugiere
fuertemente compromisos teóricos que son inesenciales para CCTM. El punto aquí no es
solo terminológico. Los críticos de CCTM a menudo objetan que la mente no es una
computadora programable de propósito general (Churchland, Koch y Sejnowski
1990). Dado que los computacionalistas clásicos no necesitan afirmar (y generalmente no
afirman) que la mente es una computadora programable de propósito general, la objeción
está mal dirigida.
En segundo lugar, CCTM no está pensado metafóricamente. CCTM no solo sostiene que
la mente es como un sistema de computación. CCTM sostiene que la mente es
literalmenteun sistema de computación Por supuesto, los sistemas informáticos
artificiales más familiares están hechos de chips de silicio o materiales similares, mientras
que el cuerpo humano está hecho de carne y hueso. Pero CCTM sostiene que esta
diferencia disfraza una similitud más fundamental, que podemos capturar a través de un
modelo computacional de estilo de Turing. Al ofrecer tal modelo, prescindimos de los
detalles físicos. Logramos una descripción computacional abstracta que podría
implementarse físicamente de diversas maneras (por ejemplo, a través de chips de silicio,
o neuronas, o poleas y palancas). CCTM sostiene que un modelo computacional abstracto
adecuado ofrece una descripción literalmente verdadera de los procesos mentales
centrales.
Es común resumir CCTM a través del lema "la mente es una máquina de Turing". Este
lema también es algo engañoso, porque nadie considera el formalismo preciso de Turing
como un modelo plausible de actividad mental. El formalismo parece demasiado
restrictivo de varias maneras:

 Las máquinas de Turing ejecutan cálculos simbólicos puros. Las entradas y


salidas son símbolos inscritos en ubicaciones de memoria. Por el contrario, la
mente recibe información sensorial (por ejemplo, estimulaciones retinianas) y
produce una salida motora (p. Ej., Activaciones musculares). Una teoría
completa debe describir cómo la computación mental interactúa con las entradas
sensoriales y las salidas motrices.
 Una máquina de Turing tiene una capacidad de memoria discreta infinita. Los
sistemas biológicos ordinarios tienen capacidad de memoria finita. Un modelo
psicológico plausible debe reemplazar la tienda de memoria infinita por una
memoria grande pero finita
 Las computadoras modernas tienen memoria de acceso aleatorio : ubicaciones de
memoria direccionables a las que el procesador central puede acceder
directamente. La memoria de la máquina Turing no es direccionable. El
procesador central solo puede acceder a una ubicación accediendo
secuencialmente a ubicaciones intermedias. La computación sin memoria
direccionable es irremediablemente ineficiente. Por esa razón, CR Gallistel y
Adam King (2009) argumentan que la memoria direccionable da un mejor modelo
de la mente que la memoria no direccionable.
 Una máquina de Turing tiene un procesador central que opera en serie ,
ejecutando una instrucción a la vez. Otros formalismos computacionales relajan
esta suposición, permitiendo múltiples unidades de procesamiento que operan
en paralelo . Los computacionalistas clásicos pueden permitir cálculos paralelos
(Fodor y Pylyshyn 1988, Gallistel y King 2009: 174). Ver Gandy (1980) y Sieg
(2009) para los tratamientos matemáticos generales que abarcan la computación
en serie y en paralelo.
 El cálculo de Turing es determinista : el estado computacional total determina el
estado computacional posterior. Uno podría, en cambio,
permitir cómputos estocásticos . En un modelo estocástico, el estado actual no
dicta un próximo estado único. Más bien, hay una cierta probabilidad de que la
máquina haga la transición de un estado a otro.
CCTM afirma que la actividad mental es "cálculo de estilo de Turing", que permite estas
y otras desviaciones del propio formalismo de Turing.

3.1 Funcionalismo de la máquina


Hilary Putnam (1967) introdujo CCTM en la filosofía. Él contrastó su posición con
el conductismo lógico y la teoría de identidad de tipo . Cada posición pretende revelar la
naturaleza de los estados mentales, incluidas las actitudes proposicionales (por ejemplo,
creencias), sensaciones (por ejemplo, dolores) y emociones (por ejemplo, miedo). De
acuerdo con el conductismo lógico, los estados mentales son disposiciones de
comportamiento. De acuerdo con la teoría de identidad de tipo, los estados mentales son
estados cerebrales. Putnam avanza una visión funcionalista opuesta , en la que los
estados mentales son estados funcionales. De acuerdo con el funcionalismo, un sistema
tiene una mente cuando el sistema tiene una organización funcional adecuada. Los
estados mentales son estados que desempeñan papeles apropiados en la organización
funcional del sistema. Cada estado mental está individualizado por sus interacciones con
la entrada sensorial, la potencia motriz y otros estados mentales.
El funcionalismo ofrece ventajas notables sobre el conductismo lógico y la teoría de
identidad de tipo:

 Los conductistas quieren asociar cada estado mental con un patrón característico
de comportamiento: una tarea sin esperanza, porque los estados mentales
individuales generalmente no tienen efectos conductuales característicos. El
comportamiento casi siempre es el resultado de estados mentales distintos que
operan juntos (por ejemplo, una creencia y un deseo). El funcionalismo evita esta
dificultad individualizando los estados mentales a través de relaciones
características no solo con la entrada sensorial y el comportamiento sino también
entre sí.
 Los teóricos de identidad de tipo quieren asociar cada estado mental con un estado
físico o neurofisiológico característico. Putnam cuestiona este proyecto al
argumentar que los estados mentales son realizables de manera múltiple : el
mismo estado mental puede ser realizado por diversos sistemas físicos, que
incluyen criaturas terrestres y criaturas hipotéticas (por ejemplo, un marciano
basado en el silicio). El funcionalismo está hecho a medida para acomodar la
realizabilidad múltiple. De acuerdo con el funcionalismo, lo que importa para la
mentalidad es un patrón de organización, que podría realizarse físicamente de
muchas maneras diferentes. Consulte la entrada realizabilidad múltiple para
mayor discusión de este argumento.
Putnam defiende una marca de funcionalismo ahora llamada funcionalismo de la
máquina . Él enfatiza los autómatas probabilísticos , que son similares a las máquinas de
Turing, excepto que las transiciones entre los estados computacionales son
estocásticas. Él propone que la actividad mental implementa un autómata probabilístico
y que los estados mentales particulares son estados de máquina del procesador central del
autómata. La tabla de máquinas especifica una organización funcional apropiada, y
también especifica el papel que desempeñan los estados mentales individuales dentro de
esa organización funcional. De esta manera, Putnam combina el funcionalismo con
CCTM.
El funcionalismo de la máquina enfrenta varios problemas. Un problema, destacado por
Ned Block y Jerry Fodor (1972), se refiere a la productividad del pensamiento. Un
humano normal puede entretener a un potencial infinito de proposiciones. El
funcionalismo de la máquina identifica estados mentales con estados de máquina de un
autómata probabilístico. Como solo hay un número finito de estados de máquina, no hay
suficientes estados de máquina para emparejar uno con los posibles estados mentales de
un humano normal. Por supuesto, un ser humano real solo entretendrá finitamente muchas
proposiciones. Sin embargo, Block y Fodor afirman que esta limitación refleja límites en
la vida útil y la memoria, en lugar de (por ejemplo) alguna ley psicológica que restringe
la clase de proposiciones humanamente entretenidas. Un autómata probabilístico está
dotado de capacidad ilimitada de tiempo y memoria, y aún así solo tiene un número finito
de estados de máquina. Aparentemente, entonces, el funcionalismo de la máquina asigna
erróneamente los límites finitarios a la cognición humana.
Otro problema para el funcionalismo de la máquina, también destacado por Block y Fodor
(1972), se refiere a la sistematicidad del pensamiento. La capacidad de entretener una
proposición se correlaciona con la capacidad de pensar otras proposiciones. Por ejemplo,
alguien que pueda pensar que Juan ama a María también puede albergar la idea de que
María ama a Juan.. Por lo tanto, parece haber relaciones sistemáticas entre los estados
mentales. Una buena teoría debería reflejar esas relaciones sistemáticas. Sin embargo, el
funcionalismo de la máquina identifica estados mentales con estados de máquinas no
estructuradas, que carecen de las relaciones sistemáticas requeridas con otro. Por esa
razón, el funcionalismo de la máquina no explica la sistematicidad. En respuesta a esta
objeción, los funcionalistas de máquina podrían negar que están obligados a explicar la
sistematicidad. Sin embargo, la objeción sugiere que el funcionalismo de la máquina
descuida las características esenciales de la mentalidad humana. Una mejor teoría
explicaría esas características de una manera principista.
Si bien las objeciones de productividad y sistematicidad al funcionalismo de la máquina
quizás no sean decisivas, proporcionan un fuerte impulso para buscar una versión
mejorada de CCTM. Ver Block (1978) para problemas adicionales que enfrentan el
funcionalismo de la máquina y el funcionalismo en general.

3.2 La teoría de la representación de la mente


Fodor (1975, 1981, 1987, 1990, 1994, 2008) aboga por una versión de CCTM que
acomode la sistematicidad y la productividad de manera mucho más satisfactoria. Cambia
la atención a los símbolos manipulados durante el cálculo al estilo de Turing.
Una vieja visión, que se remonta al menos a la Summa Logicae de William of Ockham ,
sostiene que el pensamiento ocurre en un lenguaje de pensamiento (a veces
llamado Mentalese ). Fodor revive esta vista. Postula un sistema de representaciones
mentales, que incluye representaciones primitivas y representaciones complejas formadas
a partir de representaciones primitivas. Por ejemplo, las palabras primitivas de Mentales
JOHN, MARY y LOVES pueden combinarse para formar la oración mental de JOHN
LOVES MARY. Mentalese es compositivo : el significado de una expresión compleja de
Mentalese es una función de los significados de sus partes y la manera en que esas partes
se combinan. Las actitudes proposicionales son relaciones con los símbolos
mentales. Fodor llama a esta vistala teoría representacional de la
mente ( RTM ). Combinando RTM con CCTM, argumenta que la actividad mental
implica el cálculo de estilo de Turing sobre el lenguaje del pensamiento. La computación
mental almacena símbolos mentales en ubicaciones de memoria, manipulando esos
símbolos de acuerdo con reglas mecánicas.
Una virtud primordial de RTM es la facilidad con la que se acomoda la productividad y
la sistematicidad:
Productividad : RTM postula un conjunto finito de expresiones primitivas de Mentalese,
combinables en un potencial infinito de complejas expresiones mentales. Un pensador
con acceso al vocabulario primitivo Mentalese y los dispositivos compuestos Mentalese
tiene el potencial de entretener una infinidad de expresiones Mentalese. Por lo tanto, tiene
el potencial de instanciar infinitamente muchas actitudes proposicionales (descuidando
los límites de tiempo y memoria).
Sistematicidad : Según RTM, existen relaciones sistemáticas entre las actitudes
proposicionales que un pensador puede entretener. Por ejemplo, supongamos que puedo
pensar que Juan ama a María. De acuerdo con RTM, mi participación implica mi posición
en alguna relación R con una oración mentalizada JOHN LOVES MARY, compuesta por
las palabras mentanles JOHN, LOVES y MARY combinadas de la manera correcta. Si
tengo esta capacidad, entonces también tengo la capacidad de ponerme en relación
con R a la oración Mentalese distinta: MARÍA AMA A JUAN, pensando así que María
ama a Juan. Entonces la capacidad de pensar que Juan ama a María está sistemáticamente
relacionada con la capacidad de pensar que María ama a Juan.
Al tratar las actitudes proposicionales como relaciones con símbolos mentales complejos,
RTM explica tanto la productividad como la sistematicidad.
CCTM + RTM difiere del funcionalismo de la máquina en varios otros aspectos. Primero,
el funcionalismo de máquina es una teoría de estados mentales en general , mientras que
RTM es solo una teoría de actitudes proposicionales. Segundo, los proponentes de CCTM
+ RTM no necesitan decir que las actitudes proposicionales están individualizadas
funcionalmente. Como señala Fodor (2000: 105, nota 4), debemos distinguir
el computacionalismo (los procesos mentales son computacionales)
del funcionalismo (los estados mentales son estados funcionales). El funcionalismo de la
máquina respalda ambas doctrinas. CCTM + RTM solo respalda al
primero. Desafortunadamente, muchos filósofos siguen asumiendo erróneamente que el
computacionalismo implica un enfoque funcionalista de las actitudes proposicionales (ver
Piccinini 2004 para discusión).
La discusión filosófica de RTM tiende a enfocarse principalmente en el pensamiento
humano de alto nivel , especialmente la creencia y el deseo. Sin embargo, CCTM + RTM
es aplicable a una gama mucho más amplia de estados y procesos mentales. Muchos
científicos cognitivos lo aplican a animales no humanos. Por ejemplo, Gallistel y King
(2009) lo aplican a ciertos fenómenos de invertebrados (p. Ej., Navegación de
abejas). Incluso al limitar la atención a los humanos, uno puede aplicar CCTM + RTM
al procesamiento subpersonal . Fodor (1983) argumenta que la percepción implica un
"módulo" subpersonal que convierte la entrada de la retina en símbolos mentales y luego
realiza cálculos sobre esos símbolos. Por lo tanto, hablar de un lenguaje
de pensamiento es potencialmente engañoso, ya que sugiere una restricción inexistente a
la actividad mental de nivel superior.
También es potencialmente engañosa la descripción de Mentalese como un lenguaje , lo
que sugiere que todos los símbolos de Mentalese se asemejan a expresiones en un
lenguaje natural. Muchos filósofos, incluido Fodor, a veces parecen respaldar esa
posición. Sin embargo, hay posibles formatos no proposicionales para los símbolos
mentales. Los defensores de CCTM + RTM pueden adoptar una línea pluralista,
permitiendo que la computación mental opere sobre elementos relacionados con
imágenes, mapas, diagramas u otras representaciones no proposicionales (Johnson-Laird
2004: 187; McDermott 2001: 69; Pinker 2005: 7; Sloman 1978: 144-176). La línea
pluralista parece especialmente plausible ya que se aplica a procesos subpersonales (como
la percepción) y animales no humanos. Michael Rescorla (2009a, b) investiga
investigaciones sobre mapas cognitivos(Tolman 1948; O'Keefe y Nadel 1978; Gallistel
1990), lo que sugiere que algunos animales pueden navegar mediante el cálculo sobre
representaciones mentales más similares a los mapas que las oraciones. Elisabeth Camp
(2009), citando una investigación sobre interacción social de babuinos (Cheney y
Seyfarth 2007), argumenta que los mandriles pueden codificar las relaciones de dominio
social a través de representaciones estructuradas en árboles no-oracionales.
CCTM + RTM es esquemático. Para completar el esquema, uno debe proporcionar
modelos computacionales detallados de procesos mentales específicos. Un modelo
completo:

 describir los símbolos mentales manipulados por el proceso;


 aislar las operaciones elementales que manipulan los símbolos (por
ejemplo, inscribir un símbolo en una ubicación de memoria ); y
 delinear las reglas mecánicas que rigen la aplicación de las operaciones
elementales.
Al proporcionar un modelo computacional detallado, descomponemos un proceso mental
complejo en una serie de operaciones elementales gobernadas por instrucciones precisas
y rutinarias.
CCTM + RTM permanece neutral en el debate tradicional entre el fisicalismo y el
dualismo de sustancias. Un modelo de estilo de Turing procede a un nivel muy abstracto,
sin decir si los cálculos mentales se implementan mediante material físico o material del
alma cartesiano (Block 1983: 522). En la práctica, todos los proponentes de CCTM +
RTM adoptan una perspectiva ampliamente fisicalista. Sostienen que los cálculos
mentales se implementan no por el alma, sino por el cerebro. Según esta visión, los
símbolos mentales se realizan mediante estados neuronales, y las operaciones
computacionales sobre símbolos mentales se realizan mediante procesos
neuronales. Finalmente, los proponentes fisicalistas de CCTM + RTM deben producir
teorías empíricamente bien confirmadas que expliquen exactamente cómo la actividad
neuronal implementa el cálculo del estilo de Turing. Como enfatizan Gallistel y King
(2009),
Fodor (1975) promueve CCTM + RTM como base para la ciencia cognitiva. Discute
fenómenos mentales como la toma de decisiones, la percepción y el procesamiento
lingüístico. En cada caso, sostiene, nuestras mejores teorías científicas postulan el cálculo
de estilo de Turing sobre las representaciones mentales. De hecho, él argumenta que
nuestras únicas teorías viables tienen esta forma. Él concluye que CCTM + RTM es "el
único juego en la ciudad". Muchos científicos cognitivos argumentan en líneas
similares. CR Gallistel y Adam King (2009), Philip Johnson-Laird (1988), Allen Newell
y Herbert Simon (1976) y Zenon Pylyshyn (1984) recomiendan la computación de estilo
Turing sobre los símbolos mentales como la mejor base para la teorización científica
sobre el mente.

4. Redes neuronales
En la década de 1980, el conexionismo surgió como un rival prominente del
computacionalismo clásico. Los conexionistas se inspiran en la neurofisiología más que
en la lógica y la informática. Emplean modelos computacionales, redes neuronales , que
difieren significativamente de los modelos estilo Turing. Una red neuronal es una
colección de nodos interconectados. Los nodos se dividen en tres categorías: nodos
de entrada , nodos de salida y nodos ocultos (que median entre los nodos de entrada y
salida). Los nodos tienen valores de activación, dados por números reales. Un nodo puede
soportar una conexión ponderadaa otro nodo, también dado por un número real. Las
activaciones de los nodos de entrada se determinan exógenamente: estas son las entradas
para el cálculo. La activación de entrada total de un nodo oculto o de salida es una suma
ponderada de las activaciones de los nodos que ingresan en ella. La activación de un nodo
oculto o de salida es una función de su activación de entrada total; la función particular
varía con la red. Durante el cálculo de la red neuronal, las ondas de activación se propagan
desde los nodos de entrada a los nodos de salida, según lo determinado por las conexiones
ponderadas entre los nodos.
En una red feedforward , las conexiones ponderadas fluyen solo en una dirección. Las
redes recurrentes tienen circuitos de retroalimentación, en los que las conexiones que
emanan de unidades ocultas vuelven a las unidades ocultas. Las redes recurrentes son
menos manejables matemáticamente que las redes de feedforward. Sin embargo, figuran
de forma crucial en el modelado psicológico de diversos fenómenos, como los fenómenos
que implican algún tipo de memoria (Elman 1990).
Los pesos en una red neuronal son típicamente mutables, evolucionando de acuerdo con
un algoritmo de aprendizaje . La literatura ofrece varios algoritmos de aprendizaje, pero
la idea básica suele ser ajustar los pesos de modo que los productos reales se acerquen
gradualmente a las salidas objetivo que uno esperaría para las entradas
relevantes. El algoritmo de retropropagación es un algoritmo ampliamente utilizado de
este tipo (Rumelhart, Hinton y Williams 1986).
El conexionismo se remonta a McCulloch y Pitts (1943), que estudiaron redes de puertas
lógicasinterconectadas(por ejemplo, AND-puertas y OR-puertas). Se puede ver una red
de puertas lógicas como una red neuronal, con activaciones limitadas a dos valores (0 y
1) y funciones de activación dadas por las funciones de verdad habituales. McCulloch y
Pitts avanzaron puertas lógicas como modelos idealizados de neuronas individuales. Su
discusión ejerció una profunda influencia en la informática (von Neumann 1945). Las
computadoras digitales modernas son simplemente redes de puertas lógicas. Sin embargo,
dentro de la ciencia cognitiva, los investigadores generalmente se enfocan en redes cuyos
elementos son más "neuronales" que las puertas lógicas. En particular, los conexionistas
de hoy en día suelen enfatizar las redes neuronales analógicas cuyos nodos toman valores
de activación continuos en lugar de discretos. Algunos autores incluso usan la frase "red
neuronal" para que denote exclusivamente tales redes.
Las redes neuronales recibieron una atención relativamente escasa de parte de los
científicos cognitivos durante las décadas de 1960 y 1970, cuando dominaron los modelos
de estilo de Turing. La década de 1980 fue testigo de un gran resurgimiento del interés en
las redes neuronales, especialmente las redes neuronales analógicas, con el Parallel
Distributed Processing en dos volúmenes (Rumelhart, McClelland y el grupo de
investigación PDP, 1986; McClelland, Rumelhart y el grupo de investigación PDP,
1987). sirviendo como un manifiesto. Los investigadores construyeron modelos
conexionistas de diversos fenómenos: reconocimiento de objetos, percepción del habla,
comprensión de oraciones, desarrollo cognitivo, etc. Impresionados por el conexionismo,
muchos investigadores concluyeron que CCTM + RTM ya no era "el único juego en la
ciudad".
Para una descripción detallada de las redes neuronales, ver Haykin (2008). Para una
introducción fácil de usar, con énfasis en aplicaciones psicológicas, ver Marcus (2003).

4.1 Relación entre redes neuronales y computación clásica


Las redes neuronales tienen una "sensación" muy diferente a la de los modelos clásicos
(es decir, al estilo de Turing). Sin embargo, la computación clásica y el cálculo de redes
neuronales no son mutuamente excluyentes:

 Uno puede implementar una red neuronal en un modelo clásico . De hecho, cada
red neuronal construida físicamente ha sido implementada en una computadora
digital.
 Uno puede implementar un modelo clásico en una red neuronal . Las
computadoras digitales modernas implementan cómputo al estilo de Turing en
redes de compuertas lógicas. Alternativamente, uno puede implementar el cálculo
de estilo de Turing usando una red neuronal recurrente analógica cuyos nodos
toman valores de activación continuos (Siegelmann y Sontag 1995).
Aunque algunos investigadores sugieren una oposición fundamental entre la computación
clásica y la computación de redes neuronales, parece más preciso identificar dos
tradiciones de modelado que se superponen en ciertos casos pero no en otros (Boden
1991, Piccinini 2008b). A este respecto, también vale la pena señalar que el
computacionalismo clásico y el computacionalismo conexionista tienen su origen común
en el trabajo de McCulloch y Pitts.
Los filósofos a menudo dicen que la computación clásica implica "manipulación de
símbolos gobernada por reglas" mientras que el cálculo de redes neuronales no es
simbólico. La imagen intuitiva es que la "información" en las redes neuronales se
distribuye globalmente a través de los pesos y las activaciones, en lugar de concentrarse
en símbolos localizados. Sin embargo, la noción de "símbolo" en sí misma requiere
explicación, por lo que a menudo no está claro a qué se refieren los teóricos al describir
la computación como simbólica versus no simbólica. Como se menciona en el §1, el
formalismo de Turing pone muy pocas condiciones en los "símbolos". Con respecto a los
símbolos primitivos, Turing asume simplemente que hay un número finito de ellos y que
pueden inscribirse en ubicaciones de memoria de lectura / escritura. Las redes neuronales
también pueden manipular símbolos que satisfagan estas dos condiciones: como
acabamos de señalar, uno puede implementar un modelo de estilo de Turing en una red
neuronal.
Muchas discusiones sobre la dicotomía simbólica / no simbólica emplean una noción más
sólida de "símbolo". En el enfoque más robusto, un símbolo es el tipo de cosa que
representa un tema. Por lo tanto, algo es un símbolo solo si tiene propiedades semánticas
o de representación. Si empleamos esta noción más robusta de símbolo, entonces la
distinción simbólica / no simbólica corta transversalmente la distinción entre el cálculo
del estilo de Turing y el cálculo de la red neuronal. Una máquina de Turing no necesita
emplear símbolos en el sentido más robusto. En lo que respecta al formalismo de Turing,
los símbolos manipulados durante el cálculo de Turing no necesitan tener propiedades de
representación (Chalmers 2011). Por el contrario, una red neuronal puede manipular
símbolos con propiedades de representación. En efecto,
Siguiendo a Steven Pinker y Alan Prince (1988), podemos distinguir entre
el conexionismo eliminativo y el conexionismo implementador .
Los conexionistas eliminadores anticipan el conexionismo como un rival al
computacionalismo clásico. Argumentan que el formalismo de Turing es irrelevante para
la explicación psicológica. A menudo, aunque no siempre, buscan revivir
la tradición asociacionista en psicología, una tradición que CCTM había desafiado
enérgicamente. A menudo, aunque no siempre, atacan la mentalista, lingüística nativista
iniciada por Noam Chomsky (1965). A menudo, aunque no siempre, manifiesta abierta
hostilidad a la noción de representación mental. Pero la característica definitoria del
conexionismo eliminativo es que usa redes neuronales como reemplazospara modelos de
estilo Turing. Los conexionistas eliminativos ven la mente como un sistema informático
de un tipo radicalmente diferente al de la máquina de Turing. Algunos autores defienden
explícitamente el conexionismo eliminatorio (Churchland 1989; Rumelhart y McClelland
1986; Horgan y Tienson 1996), y muchos otros se inclinan por ello.
El conexionismo implementacionista es una posición más ecuménica. Permite un papel
potencialmente valioso tanto para los modelos de estilo de Turing como para las redes
neuronales, que funcionan armoniosamente en diferentes niveles de descripción (Marcus
2003; Smolensky 1988). Un modelo de estilo de Turing es de nivel superior, mientras que
un modelo de red neuronal es de nivel inferior. La red neuronal ilumina cómo el cerebro
implementa el modelo de estilo de Turing, al igual que una descripción en términos de
puertas lógicas ilumina cómo una computadora personal ejecuta un programa en un
lenguaje de programación de alto nivel.

4.2 Argumentos para el conexionismo


El conexionismo excita a muchos investigadores debido a la analogía entre las redes
neuronales y el cerebro. Los nodos se parecen a las neuronas, mientras que las conexiones
entre los nodos se parecen a las sinapsis. El modelado conexionista parece más
"biológicamente plausible" que el modelado clásico. Un modelo conexionista de un
fenómeno psicológico aparentemente capta (de manera idealizada) cómo las neuronas
interconectadas podrían generar el fenómeno.
Estas apelaciones a la biología son problemáticas porque la mayoría de las redes
conexionistas en realidad no son tan plausibles biológicamente (Bechtel y Abrahamsen
2002: 341-343, Bermúdez 2010: 237-239, Clark 2014: 87-89, Harnish 2002: 359-
362). Por ejemplo, las neuronas reales son mucho más heterogéneas que los nodos
intercambiables que figuran en las redes conexionistas típicas. No está nada claro cómo,
en todo caso, las propiedades de los nodos intercambiables se relacionan con las
propiedades de las neuronas reales. Especialmente problemático desde una perspectiva
biológica es el algoritmo de backpropagation. El algoritmo requiere que los pesos entre
los nodos puedan variar entre excitador e inhibitorio, aunque las sinapsis reales no pueden
variar (Crick y Asanuma 1986). Además, el algoritmo supone salidas objetivo
suministradas exógenamente por modeladores que conocen la respuesta deseada. En ese
sentido, el aprendizaje es supervisado . Muy poco aprendizaje en los sistemas biológicos
reales implica algo parecido a la capacitación supervisada.
Incluso si los modelos conexionistas no son biológicamente plausibles, aún podrían
ser másbiológicamente plausible que los modelos clásicos. Ciertamente parecen más
cercanos que los modelos de estilo de Turing, tanto en detalles como en espíritu, a la
descripción neurofisiológica. Muchos científicos cognitivos temen que CCTM refleje un
intento equivocado de imponer la arquitectura de las computadoras digitales en el
cerebro. Algunos dudan de que el cerebro implemente algo parecido a la computación
digital, es decir, el cálculo sobre configuraciones discretas de dígitos (Piccinini y Bahar
2013). Otros dudan de que los cerebros muestren una separación limpia del estilo de
Turing entre el procesador central y la memoria de lectura / escritura (Dayan 2009). A los
modelos conexionistas les va mejor en ambos puntajes: no requieren cómputo sobre
configuraciones discretas de dígitos, y no postulan una separación limpia entre el
procesador central y la memoria de lectura / escritura.
Los computacionalistas clásicos típicamente responden que es prematuro sacar
conclusiones firmes basadas en la plausibilidad biológica, dado lo poco que
comprendemos acerca de la relación entre los niveles de descripción neuronal,
computacional y cognitivo (Gallistel y King 2009; Marcus 2003). En la actualidad, hemos
acumulado un conocimiento sustancial sobre las neuronas individuales y sus
interacciones en el cerebro. Sin embargo, todavía tenemos una gran cantidad de
información sobre cómo el tejido neuronal cumple con las tareas que con seguridad
realiza: percepción, razonamiento, toma de decisiones, adquisición del lenguaje,
etc. Dado nuestro presente estado de relativa ignorancia, sería precipitado insistir en que
el cerebro no implementa nada parecido al cálculo de Turing.
Los conexionistas ofrecen numerosos argumentos adicionales de que deberíamos emplear
modelos conexionistas en lugar de, o además de, los modelos clásicos. Ver
el conexionismo de entrada para una descripción general. Para los fines de esta entrada,
mencionamos dos argumentos adicionales.
El primer argumento enfatiza el aprendizaje(Bechtel y Abrahamsen 2002: 51). Una
amplia gama de fenómenos cognitivos implica aprender de la experiencia. Muchos
modelos conexionistas están diseñados explícitamente para modelar el aprendizaje, a
través de la retropropagación o algún otro algoritmo que modifique los pesos entre los
nodos. Por el contrario, los conexionistas a menudo se quejan de que no existen buenos
modelos clásicos de aprendizaje. Los computacionalistas clásicos pueden responder a
esta preocupación citando los defectos percibidos de los algoritmos de aprendizaje
conexionistas (por ejemplo, la gran dependencia de la propagación inversa en el
entrenamiento supervisado). Los computacionalistas clásicos también pueden citar el
enorme éxito de la teoría de decisión bayesiana, que modela el aprendizaje como
actualización probabilística. Es cierto que la actualización Bayesiana en el caso general
es computacionalmente intratable. Sin embargo, los avances mencionados en
el §2muestran cómo los sistemas de computación clásicos pueden aproximarse a la
actualización bayesiana idealizada en varios escenarios realistas. Estos avances brindan
la esperanza de que la computación clásica pueda modelar muchos casos importantes de
aprendizaje.
El segundo argumento enfatiza la velocidad de computación . Las neuronas son mucho
más lentas que los componentes basados en silicio de las computadoras digitales. Por esta
razón, las neuronas no pudieron ejecutar el cálculo en serie lo suficientemente rápido para
igualar el rápido desempeño humano en percepción, comprensión lingüística, toma de
decisiones, etc. Los conexionistas sostienen que la única solución viable es reemplazar el
cálculo en serie con una arquitectura computacional "masivamente paralela".
precisamente lo que proporcionan las redes neuronales (Feldman y Ballard 1982;
Rumelhart 1989). Sin embargo, este argumento solo es efectivo contra los
computacionalistas clásicos que insisten en el procesamiento en serie. Como se señala en
el §3, algunos modelos de estilo de Turing implican procesamiento paralelo. Muchos
computacionalistas clásicos están dispuestos a permitir el cálculo mental "masivamente
paralelo", y el argumento no gana tracción contra estos investigadores. Dicho esto, el
argumento resalta una pregunta importante que cualquier computacionalista -ya sea
clásico, conexionista o de otro tipo- debe abordar: ¿cómo puede un cerebro construido a
partir de neuronas relativamente lentas ejecutar cómputos sofisticados tan
rápidamente? Ni los computacionalistas clásicos ni los conexionistas han respondido
satisfactoriamente a esta pregunta (Gallistel y King 2009: 174 y 265).

4.3 Sistematicidad y productividad


Fodor y Pylyshyn (1988) ofrecen una crítica ampliamente discutida del conexionismo
eliminativista. Argumentan que la sistematicidad y la productividad fallan en los modelos
conexionistas, excepto cuando el modelo conexionista implementa un modelo
clásico. Por lo tanto, el conexionismo no proporciona una alternativa viable a CCTM. En
el mejor de los casos, proporciona una descripción de bajo nivel que ayuda a cerrar la
brecha entre el cálculo de estilo de Turing y la descripción neurocientífica.
Este argumento ha suscitado numerosas respuestas y respuestas contrarias. Algunos
argumentan que las redes neuronales pueden exhibir sistematicidad sin implementar nada
como la arquitectura computacional clásica (Horgan y Tienson 1996, Chalmers 1990,
Smolensky 1991, van Gelder 1990). Algunos argumentan que Fodor y Pylyshyn exageran
enormemente la sistematicidad (Johnson 2004) o la productividad (Rumelhart y
McClelland 1986), especialmente para los animales no humanos (Dennett 1991). Estos
temas, y muchos otros planteados por Fodor y el argumento de Pylyshyn, han sido
investigados a fondo en las últimas décadas. Para mayor discusión, ver Bechtel y
Abrahamsen (2002: 156-199), Bermúdez (2005: 244-278), Chalmers (1993), Clark
(2014: 84-86), y las entradas de la enciclopedia sobre el lenguaje de la hipótesis del
pensamiento y en el conexionismo.
Gallistel y King (2009) avanzan un argumento de productividad relacionado pero
distinto. Destacan la productividad de la computación mental , en oposición a
la productividad de los estados mentales. A través de estudios de casos empíricos
detallados, argumentan que muchos animales no humanos pueden extraer, almacenar y
recuperar registros detallados del entorno circundante. Por ejemplo, Western scrub jay
registra dónde guardó los alimentos en la memoria caché, qué tipo de alimentos almacenó
en caché en cada ubicación, cuándo almacenó en caché los alimentos y si ha agotado un
caché dado (Clayton, Emery y Dickinson 2006). El arrendajo puede acceder a estos
registros y explotarlos en diversos cálculos: calcular si un artículo alimenticio
almacenado en algún escondrijo es probable que se haya deteriorado; computar una ruta
de un lugar a otro; y así. La cantidad de cálculos posibles que puede ejecutar un arrendajo
es, para todos los propósitos prácticos, infinita.
CCTM explica la productividad de la computación mental al postular un procesador
central que almacena y recupera símbolos en la memoria de lectura / escritura
direccionable. Cuando sea necesario, el procesador central puede recuperar
combinaciones arbitrarias e imprevistas de símbolos de la memoria. En contraste,
argumentan Gallistel y King, el conexionismo tiene dificultad para acomodar la
productividad de la computación mental. Aunque Gallistel y King no distinguen
cuidadosamente entre conexionismo eliminativista e implementacionista, podemos
resumir su argumento de la siguiente manera:

 El conexionismo eliminativista no puede explicar cómo los organismos combinan


memorias almacenadas (por ejemplo, ubicaciones de caché) con fines
computacionales (por ejemplo, calcular una ruta de una memoria caché a
otra). Hay una infinidad virtual de combinaciones posibles que pueden ser útiles,
sin predecir de antemano qué partes de la información deben combinarse en
cálculos futuros. La única solución tratable computacionalmente es el
almacenamiento de símbolos en ubicaciones de memoria de lectura / escritura de
fácil acceso, una solución que los integracionistas eliminativistas rechazan.
 Los integracionistas implementacionistas pueden postular el almacenamiento de
símbolos en la memoria de lectura / escritura, tal como lo implementa una red
neuronal . Sin embargo, los mecanismos que los conexionistas usualmente
proponen para implementar la memoria no son plausibles. Las propuestas
existentes son principalmente variantes sobre una sola idea: una red neuronal
recurrente que permite que la actividad reverberante viaje alrededor de un ciclo
(Elman 1990). Hay muchas razones por las cuales el modelo de bucle de
reverberación es inútil como teoría de la memoria a largo plazo. Por ejemplo, el
ruido en el sistema nervioso asegura que las señales se degraden rápidamente en
unos pocos minutos. Los conexionistas implementacionistas hasta ahora no han
ofrecido ningún modelo plausible de memoria de lectura / escritura. [ 2 ]
Gallistel y King concluyen que CCTM es mucho más adecuado que el conexionismo
eliminativista o implementacionista para explicar una amplia gama de fenómenos
cognitivos.
Los críticos atacan este nuevo argumento de la productividad desde varios ángulos,
centrándose principalmente en los estudios de casos empíricos aducidos por Gallistel y
King. Peter Dayan (2009), John Donahoe (2010) y Christopher Mole (2014) argumentan
que los modelos de red neuronal biológicamente plausibles pueden acomodar al menos
algunos de los estudios de casos. Dayan y Donahoe sostienen que los modelos de red
neuronal empíricamente adecuados pueden prescindir de cualquier cosa que se asemeje a
la memoria de lectura / escritura. Mole argumenta que, en ciertos casos, los modelos de
red neuronal empíricamente adecuados pueden implementarlos mecanismos de lectura /
escritura de memoria propuestos por Gallistel y King. El debate sobre estos temas
fundamentales parece estar listo para continuar en el futuro.

4.4 Neurociencia computacional


La neurociencia computacional describe el sistema nervioso a través de modelos
computacionales. Aunque este programa de investigación se basa en modelos
matemáticos de neuronas individuales, el foco distintivo de la neurociencia
computacional son los sistemas de neuronas interconectadas. La neurociencia
computacional generalmente modela estos sistemas como redes neuronales. En ese
sentido, es una variante, off-shoot o descendiente del conexionismo. Sin embargo, la
mayoría de los neurocientíficos computacionales no se autoidentifican como
conexionistas. Hay varias diferencias entre el conexionismo y la neurociencia
computacional:

 Las redes neuronales empleadas por los neurocientíficos computacionales son


mucho más biológicamente realistas que las empleadas por los conexionistas. La
literatura sobre neurociencia computacional está llena de comentarios sobre tasas
de activación, potenciales de acción, curvas de ajuste, etc. Estas nociones juegan
en el mejor de los casos un papel limitado en la investigación conexionista, como
la mayoría de las investigaciones en (Rogers y McClelland 2014).
 La neurociencia computacional es impulsada en gran medida por el conocimiento
sobre el cerebro, y le asigna gran importancia a los datos neurofisiológicos (por
ejemplo, grabaciones celulares). Los conexionistas ponen mucho menos énfasis
en tales datos. Su investigación se basa principalmente en datos de
comportamiento (aunque escritos conexionistas más recientes citan datos
neurofisiológicos con una frecuencia algo mayor).
 Los neurocientíficos computacionales suelen considerar los nodos individuales en
las redes neuronales como descripciones idealizadas de las neuronas reales. Por
lo general, los conexionistas consideran a los nodos como unidades de
procesamiento neuronales (Rogers y McClelland, 2014) mientras permanecen
neutrales sobre cómo exactamente estas unidades se asignan a entidades
neurofisiológicas reales.
Se podría decir que la neurociencia computacional se ocupa principalmente de la
computación neuronal (cálculo por sistemas de neuronas), mientras que el conexionismo
se refiere principalmente a modelos computacionales abstractos inspirados en la
computación neuronal. Pero las fronteras entre el conexionismo y la neurociencia
computacional son ciertamente algo porosas. Para una descripción general de la
neurociencia computacional, ver Trappenberg (2010).
El serio compromiso filosófico con la neurociencia se remonta, al menos, a
la neurofilosofía dePatricia Churchland (1986). A medida que maduró la neurociencia
computacional, Churchland se convirtió en uno de sus principales defensores filosóficos
(Churchland, Koch y Sejnowski 1990; Churchland y Sejnowski 1992). A ella se unieron
Paul Churchland (1995, 2007) y otros (Eliasmith 2013, Eliasmith y Anderson 2003,
Piccinini y Bahar 2013, Piccinini y Shagrir 2014). Todos estos autores sostienen que la
teorización sobre la computación mental debe comenzar con el cerebro, no con máquinas
de Turing u otras herramientas inapropiadas extraídas de la lógica y la
informática. También sostienen que el modelado de redes neuronales debe esforzarse por
lograr un mayor realismo biológico que el que normalmente obtienen los modelos
conexionistas. Chris Eliasmith (2013) desarrolla este punto de vista neurocomputacional
a través del Marco de Ingeniería Neural, que complementa la neurociencia
computacional con herramientas extraídas de la teoría del control (Brogan 1990). Su
objetivo es "realizar ingeniería inversa" en el cerebro, construyendo modelos de
fenómenos cognitivos a gran escala y biológicamente plausibles.
La neurociencia computacional difiere en un aspecto crucial del CCTM y del
conexionismo: abandona la capacidad de realización múltiple. Los neurocientíficos
computacionales citan propiedades y procesos neurofisiológicos específicos, por lo que
sus modelos no se aplican igualmente bien (digamos) a una criatura suficientemente
diferente basada en el silicio. Por lo tanto, la neurociencia computacional sacrifica una
característica clave que originalmente atrajo a los filósofos a la CTM. Los
neurocientíficos computacionales responderán que este sacrificio vale la comprensión
resultante de los fundamentos neurofisiológicos. Pero a muchos informáticos les
preocupa que, al centrarse demasiado en los fundamentos neuronales, nos arriesguemos
a perder de vista el bosque cognitivo de los árboles neuronales. Los detalles
neurofisiológicos son importantes, pero ¿no necesitamos también un nivel abstracto
adicional de descripción computacional que prescriba de tales detalles? Gallistel y King
(2009) argumentan que una fijación miope sobre lo que sabemos actualmente sobre el
cerebro ha llevado a la neurociencia computacional a minimizar los fenómenos cognitivos
básicos, como la navegación, el aprendizaje espacial y temporal, y así sucesivamente. Del
mismo modo, Edelman (2014) se queja de que el Marco de Ingeniería Neural sustituye
una ventisca de detalles neurofisiológicos para satisfacer las explicaciones psicológicas.
A pesar de las diferencias entre el conexionismo y la neurociencia computacional, estos
dos movimientos plantean muchos problemas similares. En particular, la dialéctica
del §4.4 conrespecto a la sistematicidad y la productividad surge en forma similar.

5. Cálculo y representación
Los filósofos y los científicos cognitivos utilizan el término "representación" de diversas
maneras. Dentro de la filosofía, el uso más dominante vincula la representación con la
intencionalidad, es decir, la "aproximación" de los estados mentales. Los filósofos
contemporáneos suelen dilucidar la intencionalidad invocando el contenido
representacional . Un estado mental representacional tiene un contenido que representa
el mundo de una determinada manera, por lo que podemos preguntar si el mundo es de
hecho de esa manera. Por lo tanto, los estados mentales representativamente conformes
son semánticamente evaluables con respecto a propiedades tales como la verdad, la
precisión, la realización, etc. Para ilustrar:

 Las creencias son el tipo de cosas que pueden ser verdaderas o falsas. Mi creencia
de que Barack Obama es presidente es cierto si Barack Obama es presidente, falso
si no lo es.
 Los estados de percepción son el tipo de cosas que pueden ser precisas o
inexactas. Mi experiencia perceptiva como una esfera roja es precisa solo si una
esfera roja está delante de mí.
 Los deseos son el tipo de cosas que pueden cumplirse o frustrarse. Mi deseo de
comer chocolate se cumple si como chocolate, frustrado si no como chocolate.
Las creencias tienen condiciones de verdad (condiciones bajo las cuales son verdaderas),
los estados perceptivos tienen condiciones de precisión (condiciones bajo las cuales son
precisas) y los deseos tienen condiciones de cumplimiento (condiciones bajo las cuales
se cumplen).
En la vida ordinaria, con frecuencia predecimos y explicamos el comportamiento al
invocar creencias, deseos y otros estados mentales representativos y con
contenido. Identificamos estos estados a través de sus propiedades de
representación. Cuando decimos "Frank cree que Barack Obama es presidente",
especificamos la condición bajo la cual la creencia de Frank es verdadera (es decir, que
Barack Obama es presidente). Cuando decimos "Frank quiere comer chocolate",
especificamos la condición bajo la cual se cumple el deseo de Frank (es decir, que Frank
come chocolate). Entonces, la psicología popular asigna un papel central a
las descripciones intencionales, es decir, descripciones que identifican estados mentales
a través de sus propiedades de representación. Si la psicología científica también debería
emplear descripciones intencionales es un tema controvertido dentro de la filosofía de la
mente contemporánea.
El realismo intencional es realismo con respecto a la representación. Como mínimo, esta
posición sostiene que las propiedades de representación son aspectos genuinos de la
mentalidad. Por lo general, también se considera que la psicología científica debe emplear
libremente descripciones intencionales cuando corresponda. El realismo intencional es
una posición popular, defendida por Tyler Burge (2010a), Jerry Fodor (1987),
Christopher Peacocke (1992, 1994) y muchos otros. Un argumento prominente para el
realismo intencional cita la práctica de la ciencia cognitiva. El argumento sostiene que
la descripción intencional figura centralmente en muchas áreas centrales de la ciencia
cognitiva, como la psicología perceptual y la lingüística. Por ejemplo, la psicología
perceptual describe cómo la actividad perceptual transforma entradas sensoriales (por
ejemplo, estimulaciones retinianas) en representaciones del entorno distal (por ejemplo,
representaciones perceptuales de formas, tamaños y colores distales). La ciencia
identifica estados perceptuales citando propiedades de representación (por ejemplo,
relaciones de representación con formas distales específicas, tamaños,
colores). Asumiendo una perspectiva realista ampliamente científica, los logros
explicativos de la psicología perceptiva apoyan una postura realista hacia la
intencionalidad.
El eliminativismo es una forma fuerte de antirrealismo sobre la intencionalidad. Los
eliminativistas descartan la descripción intencional como vaga, sensible al contexto,
relacionada con el interés, explicativamente superficial o problemática. Recomiendan que
la psicología científica descarte el contenido representacional. Un ejemplo temprano es
WV Quine's Word and Object (1960), que busca reemplazar la psicología intencional con
la psicología conductista de estímulo-respuesta. Paul Churchland (1981), otro destacado
eliminativista, quiere reemplazar la psicología intencional por la neurociencia.
Entre el realismo intencional y el eliminativismo se encuentran varias posiciones
intermedias. Daniel Dennett (1971, 1987) reconoce que el discurso intencional es
predictivamente útil, pero cuestiona si los estados mentales realmente tienen propiedades
de representación. Según Dennett, los teóricos que emplean descripciones intencionales
no afirman literalmente que los estados mentales tienen propiedades de
representación. Simplemente están adoptando la "postura intencional". Donald Davidson
(1980) propugna un intérprete vecinoposición. Él enfatiza el papel central que
desempeña la adscripción intencional dentro de la práctica interpretativa ordinaria, es
decir, nuestra práctica de interpretar los estados mentales y los actos de habla de los
demás. Al mismo tiempo, cuestiona si la psicología intencional encontrará un lugar dentro
de la teorización científica madura. Davidson y Dennett profesan realismo sobre los
estados mentales intencionales. Sin embargo, ambos filósofos son habitualmente leídos
como antirrealistas intencionales. (En particular, Dennett se lee con frecuencia como una
especie de instrumentista sobre la intencionalidad). Una fuente de esta lectura habitual
implica la indeterminación de la interpretación.. Supongamos que la evidencia
conductual permite dos interpretaciones contradictorias de los estados mentales de un
pensador. Siguiendo a Quine, Davidson y Dennett dicen que entonces "no hay ningún
hecho" con respecto a cuál interpretación es la correcta. Este diagnóstico indica una
actitud poco realista frente a la intencionalidad.
Los debates sobre la intencionalidad ocupan un lugar destacado en la discusión filosófica
de la CTM. Vamos a encuestar algunos aspectos destacados.

5.1 Computación como formal


Los computacionalistas clásicos típicamente asumen lo que uno podría llamar la
concepción formal-sintáctica de la computación (FSC). La idea intuitiva es que la
computación manipula símbolos en virtud de sus propiedades sintácticas formales en
lugar de sus propiedades semánticas.
FSC se deriva de las innovaciones en la lógica matemática durante finales de los 19 º y
principios de los 20 th siglos, especialmente contribuciones seminales de George Boole y
Gottlob Frege. En su Begriffsschrift (1879/1967), Frege efectuó
una formalización rigurosa del razonamiento deductivo. Para formalizar, especificamos
un lenguaje formal cuyas expresiones lingüísticas componentes están individualizadas no
semánticamente (por ejemplo, por sus formas geométricas). Podemos tener alguna
interpretación intencionada en mente, pero los elementos del lenguaje formal son
entidades puramente sintácticas que podemos discutir sin invocar propiedades semánticas
como referencia o condiciones de verdad. En particular, podemos especificar reglas de
inferenciaen términos sintácticos formales. Si elegimos sabiamente nuestras reglas de
inferencia, entonces estarán de acuerdo con nuestra interpretación prevista: llevarán
premisas verdaderas a conclusiones verdaderas. Mediante la formalización, Frege invirtió
la lógica con un rigor sin precedentes. De este modo sentó las bases para numerosos
desarrollos matemáticos y filosóficos posteriores.
La formalización juega un papel fundamental en la informática. Podemos programar una
computadora de estilo Turing que manipule expresiones lingüísticas extraídas de un
lenguaje formal. Si programamos la computadora sabiamente, entonces sus
maquinaciones sintácticas se unirán a nuestra interpretación semántica deseada. Por
ejemplo, podemos programar la computadora para que lleve las premisas verdaderas solo
a conclusiones verdaderas, o para que actualice las probabilidades según lo dictado por la
teoría de decisión bayesiana.
El FSC sostiene que todos los cálculos manipulan elementos sintácticos formales,
independientemente de las propiedades semánticas que puedan tener. Las formulaciones
precisas de FSC varían. Se dice que la computación es "sensible" a la sintaxis pero no a
la semántica, o que tiene "acceso" solo a propiedades sintácticas, o para operar "en virtud"
de propiedades sintácticas en lugar de semánticas, o para ser afectado por propiedades
semánticas solo como "mediado". "Por propiedades sintácticas. No siempre es tan claro
lo que significan estas formulaciones o si son equivalentes entre sí. Pero la imagen
intuitiva es que las propiedades sintácticas tienen primacía causal / explicativa sobre las
propiedades semánticas en la computación de conducción hacia adelante.
El artículo de Fodor "Solipsismo Metodológico Considerado como una Estrategia de
Investigación en Psicología Cognitiva" (1980) ofrece una declaración temprana. Fodor
combina FSC con CCTM + RTM. Analiza el mentalismo a los lenguajes formales
estudiados por los lógicos: contiene elementos simples y complejos individualizados no
semánticamente, del mismo modo que los lenguajes formales típicos contienen
expresiones simples y complejas individualizadas por sus formas. Los símbolos mentales
tienen una interpretación semántica, pero esta interpretación no afecta (directamente) el
cálculo mental. Las propiedades formales de un símbolo, más que sus propiedades
semánticas, determinan cómo la computación manipula el símbolo. En ese sentido, la
mente es un "motor sintáctico". Prácticamente todos los computacionalistas clásicos
siguen a Fodor al respaldar el FSC.
Los conexionistas a menudo niegan que las redes neuronales manipulen elementos
estructurados sintácticamente. Por esa razón, muchos conexionistas dudarían en aceptar
el FSC. Sin embargo, la mayoría de los conexionistas respaldan una tesis de formalidad
generalizada : la computación es insensible a las propiedades semánticas. La tesis de la
formalidad generalizada plantea muchas de las mismas cuestiones filosóficas planteadas
por el FSC. Nos enfocamos aquí en FSC, que ha recibido la discusión más filosófica.
Fodor combina CCTM + RTM + FSC con realismo intencional. Sostiene que CCTM +
RTM + FSC reivindica la psicología popular al ayudarnos a convertir el discurso
intencional de sentido común en ciencia rigurosa. Él motiva su posición con un famoso
argumento abductivo para CCTM + RTM + FSC (1987: 18-20). Sorprendentemente, la
actividad mental rastrea las propiedades semánticas de una manera coherente. Por
ejemplo, la inferencia deductiva lleva premisas a conclusiones que son verdaderas si las
premisas son verdaderas. ¿Cómo podemos explicar este aspecto crucial de la actividad
mental? La formalización muestra que las manipulaciones sintácticas pueden rastrear las
propiedades semánticas, y la informática muestra cómo construir máquinas físicas que
ejecutan las manipulaciones sintácticas deseadas. Si tratamos la mente como una máquina
basada en la sintaxis, entonces podemos explicar por qué la actividad mental rastrea las
propiedades semánticas de una manera coherente. Además, nuestra explicación no
plantea mecanismos causales radicalmente diferentes de los postulados dentro de las
ciencias físicas. Por lo tanto, respondemos la pregunta fundamental:¿Cómo es la
racionalidad mecánicamente posible ?
Stephen Stich (1983) y Hartry Field (2001) combinan CCTM + FSC con
eliminativismo. Recomiendan que la ciencia cognitiva modele la mente en términos
sintácticos formales, evitando por completo la intencionalidad. Ellos conceden que los
estados mentales tienen propiedades de representación, pero preguntan qué valor
explicativo gana la psicología científica al invocar esas propiedades. ¿Por qué
complementar la descripción sintáctica formal con una descripción intencional? Si la
mente es una máquina impulsada por la sintaxis, ¿el contenido representacional no se
abandona como irrelevante?
En un momento de su carrera, Putnam (1983: 139-154) combinó CCTM + FSC con
un interpretivismo teñido de Davidson . La ciencia cognitiva debería seguir las líneas
sugeridas por Stich y Field, delineando modelos computacionales sintácticos puramente
formales. El modelado sintáctico formal coexiste con la práctica interpretativa ordinaria,
en la que atribuimos contenidos intencionales a los estados mentales y a los actos de habla
de los demás. La práctica interpretativa se rige por restricciones holísticas y heurísticas,
que obstaculizan los intentos de convertir el discurso intencional en ciencia rigurosa. Para
Putnam, como para Field y Stich, la acción científica ocurre en el nivel sintáctico formal
más que en el nivel intencional.
CTM + FSC es atacado desde varias direcciones. Una crítica se dirige a la relevancia
causal del contenido representacional (Block 1990, Figdor 2009, Kazez
1995). Intuitivamente hablando, los contenidos de los estados mentales son causalmente
relevantes para la actividad mental y el comportamiento. Por ejemplo, mi deseo de beber
agua en lugar de jugo de naranja me hace caminar al fregadero en lugar de al
refrigerador. El contenido de mi deseo (de que beba agua ) parece jugar un importante
papel causal en la configuración de mi comportamiento. Según Fodor (1990: 137-159),
CCTM + RTM + FSC acomoda tales intuiciones. Formales de actividad
sintácticas implementosactividad mental intencional, lo que garantiza que los estados
mentales intencionales interactúen causalmente de acuerdo con sus contenidos. Sin
embargo, no está tan claro que este análisis asegure la relevancia causal del contenido. El
FSC dice que el cálculo es "sensible" a la sintaxis pero no a la semántica. Dependiendo
de cómo se glosa el término clave "sensible", puede parecer que el contenido
representacional es causalmente irrelevante, con la sintaxis formal haciendo todo el
trabajo causal. Aquí hay una analogía para ilustrar la preocupación. Cuando un automóvil
conduce a lo largo de una carretera, existen patrones estables que involucran la sombra
del automóvil. Sin embargo, la posición de sombra a la vez no influye en la posición de
sombra en un momento posterior. De manera similar, CCTM + RTM + FSC puede
explicar cómo la actividad mental ejemplifica patrones estables descritos en términos
intencionales, pero esto no es suficiente para garantizar la relevancia causal del
contenido. Si la mente es una máquina impulsada por la sintaxis, la eficacia causal parece
residir en el nivel sintáctico más que en el semántico. La semántica es solo "a lo largo del
viaje". Aparentemente, entonces, CTM + FSC alienta la conclusión de que las
propiedades de representación son causalmente inertes. La conclusión puede no molestar
a los eliminativistas, pero los realistas intencionales generalmente quieren evitarla.
Una segunda crítica descarta la imagen formal-sintáctica como la especulación sin
fundamento en la práctica científica. Tyler Burge (2010a, b, 2013: 479-480) sostiene que
la descripción sintáctica formal de la actividad mental no desempeña un papel
significativo en grandes áreas de la ciencia cognitiva, incluido el estudio del razonamiento
teórico, el razonamiento práctico y la percepción. En cada caso, argumenta Burge, la
ciencia emplea una descripción intencional en lugar de una descripción sintáctica
formal. Por ejemplo, la psicología perceptual individualiza los estados perceptuales no a
través de propiedades sintácticas formales sino a través de relaciones de representación
con formas, tamaños, colores, etc. distales. Para comprender esta crítica, debemos
distinguir la descripción sintáctica formal y la descripción neurofisiológica. Todos están
de acuerdo en que una psicología científica completa le otorgará una importancia
primordial a la descripción neurofisiológica. Sin embargo, la descripción neurofisiológica
es distinta de la descripción sintáctica formal, porque se supone que la descripción
sintáctica formal es multivalente en el neurofisiológico. El problema aquí es si la
psicología científica debería complementar las descripciones intencionales y
las descripciones neurofisiológicas con descripciones sintácticas formales no
intencionales, multivariables .
5.2 Externalismo sobre el contenido mental
El importante artículo de Putnam "El significado del 'significado'" (1975: 215-271)
introdujo el experimento mental de la gemela , que postula un mundo como el nuestro
excepto que el H 2 O es reemplazado por una sustancia cualitativamente similar XYZ con
diferente composición química . Putnam argumenta que XYZ no es agua y que los
altavoces en Twin Earth usan la palabra "agua" para referirse a XYZ en lugar de al
agua. Burge (1982) extiende esta conclusión desde la referencia lingüística al contenido
mental . Él argumenta que los gemelos terrestres crean instancias de estados mentales con
diferentes contenidos. Por ejemplo, si Oscar en la Tierra piensa que el agua sacia la sed,
entonces su duplicado en Twin Earth piensa en un pensamiento con un contenido
diferente, que podríamos aclarar ya que twater es para saciar la sed . Burge concluye que
el contenido mental no se aplica a la neurofisiología interna. El contenido mental se
individualiza en parte por factores externos a la piel del pensador, incluidas las relaciones
causales con el medio ambiente. Esta posición es externalismo sobre el contenido
mental .
Se considera que las propiedades sintácticas formales de los estados mentales sobrevienen
a la neurofisiología interna. Por ejemplo, Oscar y Twin Oscar ejemplifican las mismas
manipulaciones sintácticas formales. Asumiendo externalismo de contenido, se deduce
que existe un gran abismo entre la descripción intencional ordinaria y la descripción
sintáctica formal.
El externalismo de contenido plantea preguntas serias sobre la utilidad explicativa del
contenido representacional para la psicología científica:
Argumento a partir de la causalidad (Fodor 1987, 1991): ¿Cómo puede el contenido
mental ejercer alguna influencia causal excepto como se manifiesta dentro de la
neurofisiología interna? No hay "acción psicológica a distancia". Las diferencias en el
ambiente físico impactan el comportamiento solo al inducir diferencias en los estados
cerebrales locales. Entonces, los únicos factores causalmente relevantes son aquellos que
sobrevienen a la neurofisiología interna. El contenido individualizado externamente
es causalmente irrelevante .
Argumento de Explicación (Stich 1983): Una explicación científica rigurosa no debe
tener en cuenta los factores fuera de la piel del sujeto. La psicología popular puede
taxonomizar los estados mentales a través de las relaciones con el entorno externo, pero
la psicología científica debe taxonomizar los estados mentales por completo a través de
factores que se superponen a la neurofisiología interna. Debería tratar a Oscar y Twin
Oscar como duplicados psicológicos. [ 3 ]
Algunos autores persiguen los dos argumentos en conjunción uno con el otro. Ambos
argumentos llegan a la misma conclusión: el contenido mental individualizado
externamente no encuentra un lugar legítimo dentro de las explicaciones causales
proporcionadas por la psicología científica. Stich (1983) argumenta a lo largo de estas
líneas para motivar su eliminativismo formal-sintáctico.
Muchos filósofos responden a tales preocupaciones promoviendo el internalismo de
contenidos . Mientras que los externalistas del contenido prefieren un amplio
contenido (contenido que no se aplica a la neurofisiología interna), los internalistas
del contenido prefieren el contenido restringido(el contenido que sí lo hace). El
contenido restringido es lo que queda del contenido mental cuando se tienen en cuenta
todos los elementos externos. En un momento de su carrera, Fodor (1981, 1987) persiguió
el internalismo como una estrategia para integrar la psicología intencional con CCTM +
RTM + FSC. Si bien admite que el amplio contenido no debe figurar en la psicología
científica, sostuvo que el contenido limitado debería jugar un papel explicativo central.
Los internalistas radicales insisten en que todo el contenido es limitado. Un análisis típico
sostiene que Oscar no está pensando en el agua sino en una categoría más general de
sustancia que subsume a XYZ, por lo que Oscar y Twin Oscar entretienen estados
mentales con los mismos contenidos. Tim Crane (1991) y Gabriel Segal (2000) respaldan
dicho análisis. Sostienen que la psicología popular siempre individualiza las actitudes
proposicionales de manera restringida. Un internalismo menos radical recomienda que
reconozcamos contenido limitado además de amplio contenido La psicología popular a
veces puede individualizar ampliamente las actitudes proposicionales, pero también
podemos delinear una noción viable de contenido restringido que promueva objetivos
filosóficos o científicos importantes. Los internalistas han propuesto varias nociones
candidatas de contenido restringido (Block 1986, Chalmers 2002, Cummins 1989, Fodor
1987, Lewis 1994, Loar 1988, Mendola 2008). Consulte el contenido mental restringido
de la entrada para obtener una descripción general de los candidatos destacados.
Los internacionalistas se quejan de que las teorías existentes sobre el contenido
restringido son incompletas, inverosímiles, inútiles para la explicación psicológica o, por
lo demás, objetables (Burge 2007, Sawyer 2000, Stalnaker 1999). Los externalistas
también cuestionan los argumentos internalistas de que la psicología científica requiere
un contenido limitado:
Argumento de la causalidad : los externistas insisten en que un contenido amplio puede
ser causalmente relevante. Los detalles varían entre los externos, y la discusión a menudo
se entrelaza con cuestiones complejas que rodean la causalidad, los contrafactuales y la
metafísica de la mente. Ver la entrada causalidad mental para una introducción general,
y ver Burge (2007), Rescorla (2014a) y Yablo (1997, 2003) para una discusión externaista
representativa.
Argumento de la explicación : los externalistas afirman que la explicación psicológica
puede taxonomizar legítimamente los estados mentales a través de factores que superan
a la neurofisiología interna (Peacocke 1993). Burge observa que las ciencias no
psicológicas a menudo individualizan los tipos explicativos relacionalmente , es decir, a
través de las relaciones con factores externos. Por ejemplo, si una entidad cuenta como
un corazón depende (aproximadamente) de si su función biológica en su entorno normal
es bombear sangre. Entonces, la fisiología individualiza los tipos de órganos
relacionalmente. ¿Por qué la psicología tampoco puede individualizar los estados
mentales relacionalmente? Para un intercambio notable sobre estos temas, ver Burge
(1986, 1989, 1995) y Fodor (1987, 1991).
Los externistas dudan de que tengamos alguna buena razón para reemplazar o
complementar un amplio contenido con contenido limitado. Descartan la búsqueda de
contenido limitado como una búsqueda inútil.
Burge (2007, 2010a) defiende el externalismo analizando la ciencia cognitiva actual. Él
argumenta que muchas ramas de la psicología científica (especialmente la psicología
perceptual) individualizan el contenido mental a través de relaciones causales con el
entorno externo. Concluye que la práctica científica incorpora una perspectiva
externalista. Por el contrario, sostiene, el contenido limitado es una fantasía filosófica sin
fundamento en la ciencia actual.
Supongamos que abandonamos la búsqueda de contenido restringido. ¿Cuáles son las
perspectivas de combinar CTM + FSC con la psicología intencional externa? La opción
más prometedora enfatiza los niveles de explicación . Podemos decir que la psicología
intencional ocupa un nivel de explicación, mientras que la psicología computacional
formal-sintáctica ocupa un nivel diferente. Fodor defiende este enfoque en su trabajo
posterior (1994, 2008). Él viene a rechazar contenido limitado como otiose. Sugiere que
los mecanismos sintácticos formales implementan leyes psicológicas externas. La
computación mental manipula las expresiones mentales de acuerdo con sus propiedades
sintácticas formales, y estas manipulaciones sintácticas formales aseguran que la
actividad mental crea ejemplos de patrones legales similares definidos sobre amplios
contenidos.
A la luz de la distinción internalismo / externalismo, volvamos a examinar el desafío
eliminativista planteado en §5.1: ¿qué valor explicativo agrega la descripción intencional
a la descripción formal-sintáctica? Los internalistas pueden responder que las
manipulaciones sintácticas formales adecuadas determinan e incluso pueden constituir
contenidos restringidos, de modo que la descripción intencional internalista ya está
implícita en una descripción sintáctica formal adecuada (véase Field 2001: 75). Tal vez
esta respuesta vindica el realismo intencional, quizás no. De manera crucial, sin embargo,
no existe tal respuesta disponible para los externalistas de contenido. La descripción
intencional del externalista no está implícita en la descripción sintáctica formal, porque
uno puede mantener la sintaxis formal fija mientras varía el contenido amplio. Por lo
tanto, los externalistas de contenido que defienden CTM + FSC deben decir lo que
ganamos al complementar las explicaciones formal-sintácticas con explicaciones
intencionales. Una vez que aceptamos que el cálculo mental es sensible a la sintaxis pero
no a la semántica, no está nada claro que todo trabajo explicativo útil permanezca para
un contenido amplio. Fodor aborda este desafío en varios puntos, ofreciendo su
tratamiento más sistemático enEl olmo y el experto (1994). Ver Arjo (1996), Aydede
(1998), Aydede y Robbins (2001), Wakefield (2002); Perry (1998) y Wakefield (2002)
por sus críticas. Ver Rupert (2008) y Schneider (2005) para posiciones cercanas a
Fodor's. Véase también Dretske (1993), que persigue una estrategia alternativa para
reivindicar la relevancia explicativa del contenido amplio.

5.3 Cómputo que involucra contenido


El abismo percibido entre la descripción computacional y la descripción intencional
anima muchas escrituras en CTM. Algunos filósofos intentan cerrar el abismo usando
descripciones computacionales que individualizan estados computacionales en términos
representacionales. Estas descripciones involucran el contenido , para usar la
terminología de Christopher Peacocke (1994). En el enfoque que involucra el contenido,
no existe una demarcación rígida entre la descripción computacional y la intencional. En
particular, ciertas descripciones científicamente valiosas de la actividad mental son tanto
computacionales como intencionales. Llame a este contenido posición -que implica
computacionalismo .
Los computacionalistas que involucran contenido no necesitan decir que toda descripción
computacional es intencional. Para ilustrar, supongamos que describimos una máquina
de Turing simple que manipula símbolos individualizados por sus formas
geométricas. Entonces la descripción computacional resultante no es plausiblemente
implicante de contenido. De acuerdo con esto, los computacionalistas que involucran
contenido generalmente no avanzan en el contenido, lo que implica la computación como
una teoría general de la computación. Solo afirman que algunasdescripciones
computacionales importantes implican contenido.
Uno puede desarrollar contenido que involucra el computacionalismo en una dirección
internalista o externalista. Los informáticos internalistas que involucran
contenido sostienen que algunas descripciones computacionales identifican estados
mentales en parte a través de sus contenidos restringidos . Murat Aydede (2005)
recomienda una posición en este sentido. El contenido externalista que implica
computacionalismo sostiene que ciertas descripciones computacionales identifican
estados mentales en parte a través de sus amplios contenidos. Tyler Burge (2010a: 95-
101), Christopher Peacocke (1994, 1999), Michael Rescorla (2012) y Mark Sprevak
(2010) defienden este puesto. Oron Shagrir (2001) aboga por un computacionalismo que
implique contenido que sea neutral entre el internalismo y el externalismo.
Los especialistas en contenido externalista que involucran computacionalistas
típicamente citan la práctica de la ciencia cognitiva como un factor motivador. Por
ejemplo, la psicología perceptual describe el sistema perceptual como el cálculo de una
estimación del tamaño de un objeto a partir de estimulaciones retinales y de una
estimación de la profundidad del objeto. Las "estimaciones" perceptuales se identifican
representacionalmente, como representaciones de tamaños y profundidades distales
específicos. Muy plausiblemente, las relaciones de representación a tamaños y
profundidades distales específicos no se superponen a la neurofisiología interna. De
manera muy plausible, entonces, el tipo de psicología perceptual identifica
computaciones perceptuales a través de amplios contenidos. De modo que el contenido
externalista que involucra el computacionalismo parece armonizar bien con la ciencia
cognitiva actual.
Un desafío importante que enfrenta el computacionalismo que involucra contenido se
refiere a la interfaz con los formalismos de computacionalismo estándar, como la máquina
de Turing. ¿Cómo se relacionan exactamente las descripciones que involucran contenido
con los modelos computacionales encontrados en lógica e informática? Los filósofos
suelen suponer que estos modelos ofrecen descripciones no intencionales. Si es así, sería
un golpe importante y tal vez decisivo para el computacionalismo de contenido.
Podría decirse que, sin embargo, muchos formalismos computacionales familiares
permiten una interpretación sintáctica formal que involucra el contenido en lugar de
formal. Para ilustrar, considere la máquina de Turing. Uno puede individualizar los
"símbolos" que comprenden el alfabeto de la máquina de Turing de forma no semántica,
a través de factores similares a la forma geométrica. Pero, ¿el formalismo de
Turing requiereun esquema individualista no semántico? Podría decirse que el
formalismo nos permite individualizar símbolos en parte a través de sus contenidos. Por
supuesto, la tabla de máquinas para una máquina de Turing no cita explícitamente las
propiedades semánticas de los símbolos (por ejemplo, denotaciones o condiciones de
verdad). Sin embargo, la tabla de máquinas puede codificar reglas mecánicas que
describen cómo manipular símbolos, donde esos símbolos se identifican por tipos en
términos que involucran contenido. De esta forma, la tabla de máquinas dicta transiciones
entre estados que implican contenido sin mencionar explícitamente las propiedades
semánticas. Aydede (2005) sugiere una versión internalista de esta visión, con símbolos
identificados a través de sus contenidos restringidos. [ 4 ]Rescorla (de próxima publicación)
desarrolla la vista en una dirección externalista, con símbolos identificados a través de
sus amplios contenidos. Él argumenta que algunos modelos de estilo de Turing describen
operaciones computacionales sobre símbolos mentalistas individualizados
externamente. [ 5 ]
En principio, uno podría adoptar tanto el contenido externo como la descripción
computacional y la descripción sintáctica formal. Se podría decir que estos dos tipos de
descripciones ocupan distintos niveles de explicación. Peacocke sugiere tal punto de
vista. Otros computacionalistas implicados en el contenido consideran las descripciones
sintácticas formales de la mente con más escepticismo. Por ejemplo, Burge cuestiona qué
valor explicativo aporta la descripción sintáctica formal a ciertas áreas de la psicología
científica (como la psicología perceptual). Desde este punto de vista, el desafío
eliminativista planteado en §5.1tiene asuntos al revés. No debemos suponer que las
descripciones sintácticas formales son explicativamente valiosas y luego preguntar qué
valor aportan las descripciones intencionales. En su lugar, deberíamos abrazar las
descripciones intencionales externalistas que ofrece la ciencia cognitiva actual y luego
preguntar qué valor aporta la descripción sintáctica formal.
Los defensores de la descripción sintáctica formal responden citando mecanismos de
implementación . La descripción del externalista de la actividad mental presupone que
existen relaciones causales e históricas adecuadas entre la mente y el entorno físico
externo. Pero seguramente queremos una descripción "local" que ignore las relaciones
causales e históricas externas, una descripción que revela mecanismos causales
subyacentes. Fodor (1987, 1994) argumenta de esta manera para motivar la imagen
sintáctica formal. Para posibles respuestas externas al argumento de los mecanismos de
implementación, ver Burge (2010b), Shea (2013) y Sprevak (2010). El debate sobre este
argumento, y más generalmente sobre la relación entre computación y representación,
parece probable que continúe en el futuro indefinido.

6. Concepciones alternativas de computación


La literatura ofrece varias concepciones alternativas, usualmente avanzadas como
fundamentos para CTM. En muchos casos, estas concepciones se superponen entre sí o
con las concepciones consideradas anteriormente.

6.1 Procesamiento de la información


Es común que los científicos cognitivos describan la computación como "procesamiento
de la información". Es menos común que los proponentes aclaren lo que quieren decir
con "información" o "procesamiento". Al carecer de aclaración, la descripción es poco
más que un eslogan vacío.
Claude Shannon introdujo una noción científicamente importante de "información" en su
artículo de 1948 "Una teoría matemática de la comunicación". La idea intuitiva es que la
información mide la reducción en la incertidumbre , donde la incertidumbre reducida se
manifiesta como una distribución de probabilidad alterada sobre los posibles
estados. Shannon codificó esta idea dentro de un marco matemático riguroso, sentando
las bases para la teoría de la información(Cover y Thomas 2006). La información de
Shannon es fundamental para la ingeniería moderna. Encuentra una aplicación fructífera
dentro de la ciencia cognitiva, especialmente la neurociencia cognitiva. ¿Es compatible
con un análisis convincente de la computación como "procesamiento de la
información"? Considere una máquina de cinta antigua que registra los mensajes
recibidos a través de una radio inalámbrica. Usando el marco de Shannon, uno puede
medir cuánta información lleva un mensaje grabado. Hay un sentido en el que la máquina
de cintas "procesa" la información de Shannon cada vez que reproducimos un mensaje
grabado. Aún así, la máquina no parece implementar un modelo computacional no
trivial. [ 6 ] Ciertamente, ni el formalismo de la máquina de Turing ni el formalismo de la
red neuronal ofrecen mucha información sobre las operaciones de la
máquina. Posiblemente, entonces, un sistema puede procesar información de Shannon sin
ejecutar cálculos en ningún sentido interesante.
Enfrentado con tales ejemplos, uno podría tratar de aislar una noción más exigente de
"procesamiento", para que la máquina de cintas no "procese" la información de
Shannon. Alternativamente, uno podría insistir en que la máquina de cintas ejecuta
cálculos no triviales. Piccinini y Scarantino (2010) avanzan una noción muy general de
computación, que denominan computación genérica, con esa consecuencia.
Una segunda noción prominente de información se deriva de la discusión influyente de
Paul Grice (1989) sobre el significado natural . El significado natural implica
correlaciones confiables y contrafácticas. Por ejemplo, los anillos de los árboles se
correlacionan con la edad del árbol y la viruela se correlaciona con la
varicela. Describimos coloquialmente los anillos de los árboles como portadores de
información sobre la edad de los árboles, la viruela como portadora de información sobre
la varicela, y así sucesivamente. Dichas descripciones sugieren una concepción que
relaciona la información con correlaciones confiables y contrafácticas. Fred Dretske
(1981) desarrolla esta concepción en una teoría sistemática, como lo hacen varios
filósofos posteriores. ¿La información del estilo de Dretske sirve para un análisis
plausible de la computación como "procesamiento de la información"? Considere
un termostato de tira bimetálico anticuado. Dos metales se unen en una tira. La expansión
diferencial de los metales hace que la tira se doble, activando o desactivando una unidad
de calentamiento. El estado de la tira se correlaciona de manera confiable con la
temperatura ambiente actual, y el termostato "procesa" este estado de información cuando
se activa o desactiva el calentador. Sin embargo, el termostato no parece implementar
ningún modelo computacional no trivial. Uno normalmente no consideraría el termostato
como la computación. Podría decirse que un sistema puede procesar información de estilo
Dretske sin ejecutar cálculos en ningún sentido interesante. Por supuesto, uno podría
tratar de manejar tales ejemplos a través de maniobras paralelas a las del párrafo anterior.
Una tercera noción prominente de información es la información semántica , es decir, el
contenido representacional. [ 7 ] Algunos filósofos sostienen que un sistema físico computa
solo si los estados del sistema tienen propiedades de representación (Dietrich 1989, Fodor
1998: 10, Ladyman 2009, Shagrir 2006, Sprevak 2010). En ese sentido, el procesamiento
de la información es necesariopara el cálculo. Como dice Fodor memorablemente, "sin
computación sin representación" (1975: 34). Sin embargo, esta posición es
discutible. Chalmers (2011) y Piccinini (2008a) sostienen que una máquina de Turing
podría ejecutar cálculos aunque los símbolos manipulados por la máquina no tengan
interpretación semántica. Los cálculos de la máquina son de naturaleza puramente
sintáctica, careciendo de propiedades semánticas. En esta vista, el contenido
representacional no es necesario para que un sistema físico cuente como computacional.
Todavía no está claro si el eslogan "computación es procesamiento de la información"
proporciona mucha información. Sin embargo, el lema parece poco probable que
desaparezca de la literatura en el corto plazo. Para un análisis más detallado de las
posibles conexiones entre computación e información, ver Gallistel y King (2009: 1-26),
Lizier, Flecker y Williams (2013), Milkowski (2013) y Piccinini y Scarantino (2010).
6.2 Evaluación de la función
En un pasaje ampliamente citado, el psicólogo perceptual David Marr (1982) distingue
tres niveles en los que se puede describir un "dispositivo de procesamiento de
información":
Teoría computacional : "[l] a dispositivo se caracteriza como un mapeo de un tipo de
información a otro, las propiedades abstractas de este mapeo se definen con precisión, y
se demuestra su adecuación y adecuación para la tarea como mano" (p.24) .
Representación y algoritmo : "la elección de representación para la entrada y la salida y
el algoritmo que se utilizará para transformar uno en el otro" (págs. 24-25).
Implementación de hardware : "los detalles de cómo el algoritmo y la representación se
realizan físicamente" (p.25).
Los tres niveles de Marr han atraído un intenso escrutinio filosófico. Para nuestros
propósitos, el punto clave es que el "nivel computacional" de Marr describe un mapeo de
entradas a salidas, sin describir los pasos intermedios. Marr ilustra su enfoque al
proporcionar teorías de "nivel computacional" de varios procesos perceptivos, como la
detección de bordes.
La discusión de Marr sugiere una concepción funcional de la computación , en la que el
cálculo es una cuestión de transformar las entradas en salidas apropiadas. Frances Egan
elabora la concepción funcional sobre una serie de artículos (1991, 1992, 1999, 2003,
2010, 2014). Al igual que Marr, trata la descripción computacional como descripción de
las relaciones input-output. Ella también afirma que los modelos computacionales
caracterizan una puramente matemática función: es decir, una asignación de entradas
matemáticas a salidas matemáticas. Ella ilustra al considerar un mecanismo visual
(llamado "Visua") que calcula la profundidad de un objeto a partir de la disparidad
retiniana. Ella imagina un duplicado neurofisiológico ("Twin Visua") incrustado de
manera tan diferente en el entorno físico que no representa la profundidad. Visua y Twin
Visua crean instancias de estados perceptuales con diferentes propiedades de
representación. Sin embargo, dice Egan, la ciencia de la visión trata Visua y Twin Visua
como duplicados computacionales. Visua y Twin Visua calculan la misma función
matemática, aunque los cálculos tienen una importación de representación diferente en
los dos casos. Egan concluye que el modelado computacional de la mente produce una
"descripción matemática abstracta" consistente con muchas posibles descripciones
representativas posibles. La atribución intencional es solo un brillo heurístico sobre la
descripción computacional subyacente.
Chalmers (2012) sostiene que la concepción funcional desatiende las características
importantes de la computación. Como señala, los modelos computacionales generalmente
describen más que solo relaciones input-output. Describen los pasos intermedios a través
de los cuales las entradas se transforman en salidas. Estos pasos intermedios, que Marr
consigna al nivel "algorítmico", ocupan un lugar destacado en los modelos
computacionales ofrecidos por lógicos e informáticos. Restringir el término
"computación" a la descripción de entrada-salida no captura la práctica computacional
estándar.
Una preocupación adicional enfrenta teorías funcionales, como la de Egan, que enfatizan
exclusivamente la matemáticaentradas y salidas. Los críticos se quejan de que Egan
erróneamente eleva las funciones matemáticas, a expensas de las explicaciones
intencionales ofrecidas rutinariamente por la ciencia cognitiva (Burge 2005, Rescorla
2015, Silverberg 2006, Sprevak 2010). Para ilustrar, supongamos que la psicología
perceptual describe el sistema perceptivo como la estimación de que la profundidad de
algunos objetos es de 5 metros. La estimación de la profundidad perceptual tiene un
contenido representativo: es precisa solo si la profundidad del objeto es de 5
metros. Citamos el número 5 para identificar la estimación de profundidad. Pero nuestra
elección de este número depende de nuestra elección arbitraria de unidades de
medida. Los críticos sostienen que el contenido de la estimación de profundidad, no el
número arbitrariamente elegido mediante el cual los teóricos especifican ese contenido,
es lo que importa para la explicación psicológica. La teoría de Egan coloca el número en
lugar del contenido en el centro del escenario explicativo. Según Egan, la explicación
computacional debería describir el sistema visual como la computaciónfunción
matemática particular que lleva entradas matemáticas particulares en salidas
matemáticas particulares . Esas entradas y salidas matemáticas particulares dependen de
nuestra elección arbitraria de unidades de medida, por lo que posiblemente carezcan de
la importancia explicativa que Egan les asigna.
F( x , y) = ( x2+ y)f(x,y)=(x2+y)Cálculo lambda , continuando con lenguajes de
programación como PCF y LISP. Desempeña un papel importante en la IA y la
informática teórica. Algunos autores sugieren que ofrece una visión especial de la
computación mental (Klein 2012, Piantadosi, Tenenbaum y Goodman 2012). Sin
embargo, muchos formalismos computacionales no se ajustan al paradigma funcional:
máquinas de Turing; lenguajes de programación imperativos, como C; lenguajes de
programación lógica, como Prolog; y así. Aunque el paradigma funcional describe
numerosos cómputos importantes (posiblemente incluyendo cálculos mentales), no
captura de manera plausible el cálculo en general .

6.3 Estructuralismo
Muchas discusiones filosóficas incorporan una concepción estructuralista de la
computación : un modelo computacional describe una estructura causal abstracta, sin
tomar en cuenta estados físicos particulares que ejemplifican la estructura. Esta
concepción se remonta, al menos, al tratamiento original de Putnam (1967). Chalmers
(1995, 1996a, 2011, 2012) lo desarrolla en detalle. Introduce el formalismo de autómata
de estado combinatorio (CSA), que incluye los modelos de computación más conocidos
(incluidas las máquinas de Turing y las redes neuronales). Un CSA proporciona una
descripción abstracta de la topología causal de un sistema físico: el patrón de interacción
causal entre las partes del sistema, independientemente de la naturaleza de esas partes o
los mecanismos causales a través de los cuales interactúan. La descripción computacional
especifica una topología causal.
Chalmers despliega el estructuralismo para delinear una versión muy general de
CTM. Asume la visión funcionalista de que los estados psicológicos están
individualizados por sus roles en un patrón de organización causal. La descripción
psicológica especifica los roles causales, abstraídos de los estados físicos que realizan
esos roles. Entonces, las propiedades psicológicas son invariantes desde el punto de vista
organizativo, en el sentido de que sobrevienen a la topología causal. Como la descripción
computacional caracteriza una topología causal, satisfacer una descripción computacional
adecuada es suficiente para crear las propiedades mentales apropiadas. También se
deduce que la descripción psicológica es una especie de descripción computacional, por
lo que la descripción computacional debe desempeñar un papel central en la explicación
psicológica. Por lo tanto, la computación estructuralista proporciona una base sólida para
la ciencia cognitiva. La mentalidad se basa en patrones causales, que son precisamente lo
que articulan los modelos computacionales.
El estructuralismo viene empaquetado con una explicación atractiva de la relación de
implementación entre modelos computacionales abstractos y sistemas físicos. ¿En qué
condiciones un sistema físico implementa un modelo computacional? Los estructuralistas
dicen que un sistema físico implementa un modelo en caso de que la estructura causal del
modelo sea "isomorfa" a la estructura formal del modelo. Un modelo computacional
describe un sistema físico al articular una estructura formal que refleja alguna topología
causal relevante. Chalmers elabora esta idea intuitiva, proporcionando condiciones
detalladas necesarias y suficientes para la realización física de CSA. Pocos, si es que hay
conceptos alternativos de computación, pueden proporcionar una explicación tan
sustantiva de la relación de implementación.
Podemos comparar instructivamente el computacionalismo estructuralista con algunas
otras teorías discutidas anteriormente:
Funcionalismo de la máquina . El computacionalismo estructuralista abarca la idea
central detrás del funcionalismo de la máquina: los estados mentales son estados
funcionales que se pueden describir a través de un formalismo computacional
adecuado. Putnam avanza CTM como una hipótesis empírica, y defiende el
funcionalismo sobre esa base. Por el contrario, Chalmers sigue a David Lewis (1972) al
fundamentar el funcionalismo en el análisis conceptual del discurso mentalista. Mientras
que Putnam defiende el funcionalismo defendiendo el computacionalismo, Chalmers
defiende el computacionalismo asumiendo el funcionalismo.
Computacionalismo clásico, conexionismo y neurociencia computacional . El
computacionalismo estructuralista enfatiza las descripciones invariables de la
organización, que son realizables de forma múltiple. En ese sentido, diverge de la
neurociencia computacional. El estructuralismo es compatible con el computacionalismo
clásico y conexionista, pero difiere en espíritu de esos puntos de vista. Los clasicistas y
los conexionistas presentan sus posiciones rivales como hipótesis audaces y
sustantivas. Chalmers avanza el computacionalismo estructuralista como una posición
relativamente minimalista que probablemente no se defienda.
Realismo intencional y eliminativismo . El computacionalismo estructuralista es
compatible con ambas posiciones. La descripción de CSA no menciona explícitamente
propiedades semánticas tales como referencia, condiciones de verdad, contenido
representacional, etc. Los computacionalistas estructuralistas no necesitan asignarle al
contenido representacional ningún rol importante dentro de la psicología científica. Por
otro lado, el computacionalismo estructuralista no excluye un papel importante para el
contenido representacional.
La concepción formal-sintáctica de la computación . El amplio contenido depende de las
relaciones causal-históricas con el entorno externo, relaciones que superan a la topología
causal. Por lo tanto, la descripción de CSA deja un amplio contenido indeterminado. Es
de suponer que el contenido restringido sobreviene a la topología causal, pero la
descripción de CSA no menciona explícitamente los contenidos restringidos. En general,
entonces, el computacionalismo estructuralista prioriza un nivel de descripción
computacional formal, no semántica. En ese sentido, se asemeja al FSC. Por otro lado,
los computacionalistas estructuralistas no necesitan decir que la computación es
"insensible" a las propiedades semánticas, por lo que no necesitan endosar todos los
aspectos del FSC.
Aunque el computacionalismo estructuralista es distinto de CTM + FSC, plantea algunos
problemas similares. Por ejemplo, Rescorla (2012) niega que la topología causal
desempeñe la función explicativa central dentro de la ciencia cognitiva que el
computacionalismo estructuralista dicta. Sugiere que la descripción intencionalista
externa en lugar de la descripción invariante de la organización goza de primacía
explicativa. Viniendo de una dirección diferente, los neurocientíficos computacionales
recomendarán que omitamos descripciones invariables desde el punto de vista
organizativo y en cambio empleemos modelos computacionales más específicos
neuralmente. En respuesta a tales objeciones, Chalmers (2012) argumenta que la
descripción computacional invariable desde el punto de vista organizativo produce
beneficios explicativos que ni la descripción intencional ni la descripción neurofisiológica
reproducen: revela los mecanismos subyacentes de la cognición (a diferencia de la
descripción intencional); y abstrae de los detalles de implementación neuronal que son
irrelevantes para muchos propósitos explicativos.

6.4 Teorías mecanicistas


La naturaleza mecanicista de la computación es un tema recurrente en lógica, filosofía y
ciencia cognitiva. Gualtiero Piccinini (2007, 2012, 2015) y Marcin Milkowski (2013)
desarrollan este tema en una teoría mecanicista de los sistemas
informáticos. Un mecanismo funcional es un sistema de componentes interconectados,
donde cada componente realiza alguna función dentro del sistema general. Explicación
mecanicistaprocede descomponiendo el sistema en partes, describiendo cómo se
organizan las partes en un sistema más grande y aislando la función que realiza cada
parte. Un sistema informático es un mecanismo funcional de un tipo particular. En la
cuenta de Piccinini, un sistema informático es un mecanismo cuyos componentes están
organizados funcionalmente para procesar vehículos de acuerdo con las
reglas. Haciéndose eco de la discusión de Putnam sobre la realizabilidad múltiple,
Piccinini exige que las reglas sean medianamente independientes, en que se abstraen de
las implementaciones físicas específicas de los vehículos. La explicación computacional
descompone el sistema en partes y describe cómo cada parte ayuda al sistema a procesar
los vehículos relevantes. Si el sistema procesa vehículos discretamente estructurados,
entonces el cálculo es digital. Si el sistema procesa vehículos continuos, entonces el
cálculo es analógico. La versión de Milkowski del enfoque mecanicista es similar. Él
difiere de Piccinini persiguiendo un brillo de "procesamiento de la información", de modo
que los mecanismos computacionales operan sobre los estados portadores de
información. Milkowski y Piccinini despliegan sus respectivas teorías mecanicistas para
defender el computacionalismo.
Los computacionalistas mecanicistas normalmente individualizan los estados
computacionales de forma no semántica. Por lo tanto, se encuentran con preocupaciones
sobre el papel explicativo del contenido representacional, similar a las preocupaciones
encontradas por el FSC y el estructuralismo. En este espíritu, Shagrir (2014) se queja de
que el computacionalismo mecanicista no admite las explicaciones de la ciencia cognitiva
que son simultáneamente computacionales y representacionales. La fuerza percibida de
esta crítica dependerá de la simpatía de uno por el contenido, que involucra el
computacionalismo.

6.5 Pluralismo
Hemos estudiado varias concepciones contrastadas y a veces superpuestas de
computación: computación clásica, computación conexionista, computación neural,
computación sintáctica formal, computación que involucra contenido, computación de
procesamiento de información, computación funcional, computación estructuralista y
computación mecánica. Cada concepción produce una forma diferente de
computacionalismo. Cada concepción tiene sus propias fortalezas y debilidades. Uno
podría adoptar una postura pluralista que reconozca distintas concepciones legítimas. En
lugar de elevar una concepción por encima de las otras, los pluralistas emplean felizmente
cualquier concepción que parezca útil en un contexto explicativo dado. Edelman (2008)
toma una línea pluralista, al igual que Chalmers (2012) en su discusión más reciente.
La línea pluralista plantea algunas preguntas naturales. ¿Podemos proporcionar un
análisis general que abarque todos o la mayoría de los tipos de computación? ¿Todos los
cálculos comparten ciertas marcas características entre sí? ¿Están acaso unidos por algo
parecido a la familia? Una comprensión más profunda de la computación nos exige lidiar
con estas preguntas.

7. Argumentos contra el computacionalismo


CTM ha atraído numerosas objeciones. En muchos casos, las objeciones se aplican solo
a versiones específicas de CTM (como el computacionalismo clásico o el
computacionalismo conexionista). Aquí hay algunas objeciones prominentes. Véase
también la entrada del argumento de la sala chinapara una objeción ampliamente
discutida al computacionalismo clásico presentada por John Searle (1980).

7.1 Triviality arguments


Una preocupación recurrente es que CTM es trivial , porque podemos describir casi
cualquier sistema físico como la ejecución de cálculos. Searle (1990) afirma que una
pared implementa cualquier programa de computadora, ya que podemos discernir algún
patrón de movimientos moleculares en la pared que es isomorfo a la estructura formal del
programa. Putnam (1988: 121-125) defiende una tesis de trivialidad menos extrema pero
aún muy fuerte en la misma línea. Los argumentos de trivialidad juegan un papel
importante en la literatura filosófica. Los anti computacionalistas despliegan argumentos
de trivialidad contra el computacionalismo, mientras que los computacionalistas buscan
evitar la trivialidad.
Los computacionalistas usualmente refutan los argumentos de trivialidad al insistir en que
los argumentos pasan por alto las restricciones sobre la implementación computacional,
restricciones que impiden la trivialización de las implementaciones. Las restricciones
pueden ser contrafácticas, causales, semánticas o de otro tipo, dependiendo de la teoría
de computación que uno prefiera. Por ejemplo, David Chalmers (1995, 1996a) y B. Jack
Copeland (1996) sostienen que el argumento de trivialidad de Putnam ignora los
condicionales contrafactuales que un sistema físico debe satisfacer para implementar un
modelo computacional. Otros filósofos dicen que un sistema físico debe tener
propiedades de representación para implementar un modelo computacional (Fodor 1998:
11-12; Ladyman 2009; Sprevak 2010) o al menos para implementar un modelo
computacional que involucre contenido (Rescorla 2013, 2014b). Los detalles aquí varían
considerablemente, y los computacionalistas debaten entre ellos exactamente qué tipos
de cálculos pueden evitar qué argumentos de trivialidad. Pero la mayoría de los
computacionalistas concuerdan en que podemos evitar cualquier preocupación de
trivialidad devastadora a través de una teoría suficientemente robusta de la relación de
implementación entre los modelos computacionales y los sistemas físicos.
El pancomputacionalismo sostiene que cada sistema físico implementa un modelo
computacional. Esta tesis es plausible, ya que cualquier sistema físico posiblemente
implemente un modelo computacional suficientemente trivial (por ejemplo, un autómata
de estado finito de un estado). Como señala Chalmers (2011), el pancomputacionalismo
no parece preocupante para el computacionalismo. Lo que sería preocupante es la tesis
de trivialidad mucho más fuerte de que casi todos los sistemas físicos implementan casi
todos los modelos computacionales.
Para una discusión más detallada de los argumentos de trivialidad y la implementación
computacional, vea el cálculo de entrada en sistemas físicos .

7.2 Teorema de incompletitud de Gödel


Según algunos autores, los teoremas de incompletitud de Gödel muestran que las
capacidades matemáticas humanas superan las capacidades de cualquier máquina de
Turing (Nagel y Newman, 1958). JR Lucas (1961) desarrolla esta posición en una famosa
crítica de CCTM. Roger Penrose persigue la crítica en La nueva mente del
emperador(1989) y escrituras subsecuentes. Varios filósofos y lógicos han respondido a
la crítica, argumentando que las formulaciones existentes adolecen de falacias,
suposiciones de cuestionamiento e incluso errores matemáticos absolutos (Bowie 1982,
Chalmers 1996b, Feferman 1996, Lewis 1969, 1979, Putnam 1975: 365-366, 1994).
Shapiro 2003). Existe un amplio consenso de que esta crítica a CCTM carece de
fuerza. Puede resultar que ciertas capacidades mentales humanas superen la computación
de Turing, pero los teoremas de incompletitud de Gödel no proporcionan ninguna razón
para anticipar ese resultado.

7.3 Límites de modelado computacional


¿Podría una computadora componer la sinfonía de Eroica ? ¿O descubrir la relatividad
general? ¿O incluso reproducir la capacidad sin esfuerzo de un niño para percibir el
entorno, atar los cordones de sus zapatos y discernir las emociones de los demás? La
actividad humana intuitiva, creativa o hábil puede parecer que se resiste a la formalización
mediante un programa de computadora (Dreyfus 1972, 1992). En términos más generales,
uno podría preocuparse de que los aspectos cruciales de la cognición humana eluden el
modelado computacional, especialmente el modelado computacional clásico.
Irónicamente, Fodor promulga una versión contundente de esta crítica. Incluso en sus
primeras declaraciones de CCTM, Fodor (1975: 197-205) expresa considerable
escepticismo de que CCTM puede manejar todos los fenómenos cognitivos
importantes. El pesimismo se vuelve más pronunciado en sus escritos posteriores (1983,
2000), que se centran especialmente en el razonamiento abductivo como un fenómeno
mental que elude potencialmente el modelado computacional. Su argumento central se
puede resumir de la siguiente manera:

 (1) Elcálculo del estilo de Turing es sensible solo a las propiedades "locales" de
una representación mental, que se agota con la identidad y la disposición de los
constituyentes de la representación.
 (2)Muchos procesos mentales, secuestro paradigmático, son sensibles a las
propiedades "no locales" como la relevancia, la simplicidad y el conservadurismo.
 (3)Por lo tanto, es posible que tengamos que abandonar el modelado al estilo de
Turing de los procesos relevantes.
 (4)Desafortunadamente, actualmente no tenemos idea de qué teoría alternativa
podría servir como un reemplazo adecuado.
Algunos críticos niegan (1), argumentando que los cálculos adecuados del estilo de
Turing pueden ser sensibles a las propiedades "no locales" (Schneider 2011; Wilson
2005). Algunos desafíos (2), argumentando que las inferencias abductivas típicas son
sensibles solo a las propiedades "locales" (Carruthers 2003; Ludwig y Schneider 2008;
Sperber 2002). Algunos conceden el paso (3) pero disputan el paso (4), insistiendo en que
tenemos modelos prometedores al estilo no de Turing de los procesos mentales relevantes
(Pinker 2005). Estimulado en parte por tales críticas, Fodor elabora su argumento con
considerable detalle. Para defender (2), critica las teorías que modelan la abducción
mediante el despliegue de algoritmos heurísticos "locales" (2005: 41-46; 2008: 115-126)
o al postular una profusión de módulos cognitivos específicos de dominio (2005: 56-100)
. Para defender (4), critica varias teorías que manejan la abducción a través de modelos
que no son de estilo Turing (2000: 46-53; 2008), como redes conexionistas.
El alcance y los límites del modelado computacional siguen siendo
controvertidos. Podemos esperar que este tema siga siendo un foco activo de
investigación, llevado a cabo conjuntamente con AI.

7.4 Argumentos temporales


La actividad mental se desarrolla a tiempo. Además, la mente realiza tareas sofisticadas
(por ejemplo, estimación perceptiva) muy rápidamente. Muchos críticos se preocupan de
que el computacionalismo, especialmente el computacionalismo clásico, no se acomode
adecuadamente a los aspectos temporales de la cognición. Un modelo de estilo de Turing
no hace mención explícita de la escala de tiempo sobre la cual ocurre el cálculo. Uno
podría implementar físicamente la misma máquina abstracta de Turing con un dispositivo
basado en silicio, o un dispositivo de tubo de vacío más lento, o un dispositivo de polea
y palanca aún más lento. Los críticos recomiendan que rechacemos CCTM a favor de
algún marco alternativo que incorpore consideraciones temporales de forma más
directa. van Gelder y Port (1995) utilizan este argumento para promover un marco de
sistemas dinámicos no computacionalespara modelar la actividad mental. Eliasmith
(2003, 2013: 12-13) lo usa para apoyar su Marco de Ingeniería Neural.
Los computacionalistas responden que podemos complementarun modelo computacional
abstracto con consideraciones temporales (Piccinini 2010; Weiskopf 2004). Por ejemplo,
un modelo de máquina de Turing presupone "etapas de cálculo" discretas, sin describir
cómo las etapas se relacionan con el tiempo físico. Pero podemos complementar nuestro
modelo describiendo cuánto dura cada etapa, convirtiendo así nuestro modelo de máquina
de Turing no temporal en una teoría que arroja predicciones temporales
detalladas. Muchos defensores de la CTM emplean suplementos en esta línea para
estudiar las propiedades temporales de la cognición (Newell 1990). Una suplementación
similar ocupa un lugar destacado en la ciencia de la computación, cuyos practicantes están
bastante preocupados por construir máquinas con propiedades temporales
apropiadas. Los computacionalistas concluyen que una versión adecuadamente
complementada de la MC puede capturar adecuadamente cómo la cognición se desarrolla
a tiempo.
Una segunda objeción temporal destaca el contraste entre la evolución
temporal discreta y continua(van Gelder y Port 1995). La computación de una máquina
de Turing se desarrolla en etapas discretas, mientras que la actividad mental se desarrolla
en un tiempo continuo. Por lo tanto, existe un desajuste fundamental entre las propiedades
temporales de la computación de estilo de Turing y las de la actividad mental
real. Necesitamos una teoría psicológica que describa la evolución temporal continua.
Los computacionalistas responden que esta objeción asume lo que se debe mostrar: que
la actividad cognitiva no cae en etapas discrepantes explicativas significativas (Weiskopf
2004). Suponiendo que el tiempo físico sea continuo, se deduce que la actividad mental
se desarrolla en tiempo continuo. No se sigue que los modelos cognitivos deben tener una
estructura temporal continua. Una computadora personal opera en tiempo continuo, y su
estado físico evoluciona continuamente. Una teoría física completa reflejará todos esos
cambios físicos. Pero nuestro computacionalel modelo no refleja todos los cambios
físicos en la computadora. Nuestro modelo computacional tiene una estructura temporal
discreta. ¿Por qué suponer que un buen modelo cognitivo de la mente debe reflejar cada
cambio físico en el cerebro? Incluso si hay un continuo de estados físicos enevolución ,
¿por qué asumir un continuo de estados cognitivos en evolución ? El mero hecho de la
evolución temporal continua no milita en contra de los modelos computacionales con
estructura temporal discreta.

7.5 Cognición encarnada


La cognición encarnada es un programa de investigación que se inspira en el filósofo
continental Maurice Merleau-Ponty, el psicólogo perceptual JJ Gibson y otras influencias
variadas. Es un movimiento bastante heterogéneo, pero la estrategia básica es enfatizar
los vínculos entre la cognición, la acción corporal y el entorno circundante. Ver Varela,
Thompson y Rosch (1991) para una declaración temprana influyente. En muchos casos,
los proponentes implementan herramientas de teoría de sistemas dinámicos. Los
defensores suelen presentar su enfoque como una alternativa radical al
computacionalismo (Chemero 2009, Kelso 1995, Thelen y Smith 1994). CTM, se quejan,
trata la actividad mental como manipulación de símbolos estáticos, separada del entorno
de inclusión. Descuida una miríada de formas complejas en las que el entorno forma
causal o constitutivamente la actividad mental. Debemos reemplazar a CTM con una
nueva imagen que enfatice los vínculos continuos entre la mente, el cuerpo y el
entorno. La dinámica del entorno del agente, no la computación mental interna, es la clave
para comprender la cognición. A menudo, una actitud ampliamente eliminativista hacia
la intencionalidad impulsa esta crítica.
Los computacionalistas responden que CTM permite el debido reconocimiento de la
encarnación de la cognición. Los modelos computacionales pueden tener en cuenta cómo
la mente, el cuerpo y el entorno interactúan continuamente. Después de todo, los modelos
computacionales pueden incorporar entradas sensoriales y salidas motoras. No hay una
razón obvia por la que el énfasis en la dinámica agente-ambiente impida un doble énfasis
en la computación mental interna (Clark 2014: 140-165; Rupert 2009). Los
computacionalistas sostienen que CTM puede incorporar cualquier idea legítima ofrecida
por el movimiento de cognición incorporado. También insisten en que CTM sigue siendo
nuestro mejor marco general para explicar numerosos fenómenos psicológicos básicos.

Você também pode gostar