Escolar Documentos
Profissional Documentos
Cultura Documentos
¿Podría una máquina pensar? ¿Podría la mente misma ser una máquina pensante? La
revolución de la computadora transformó la discusión de estas preguntas, ofreciendo
nuestros mejores prospectos para máquinas que emulan el razonamiento, la toma de
decisiones, la resolución de problemas, la percepción, la comprensión lingüística y otros
procesos mentales característicos. Los avances en la informática plantean la posibilidad
de que la mente misma sea un sistema computacional, una posición conocida como teoría
computacional de la mente (CTM). Computacionalistasson investigadores que respaldan
CTM, al menos tal como se aplica a ciertos procesos mentales importantes. CTM jugó un
papel central dentro de la ciencia cognitiva durante los años 1960 y 1970. Durante muchos
años, disfrutó de un estatus ortodoxo. Más recientemente, ha estado bajo presión de varios
paradigmas rivales. Una tarea clave que enfrentan los computacionalistas es explicar lo
que uno quiere decir cuando uno dice que la mente "computa". Una segunda tarea es
argumentar que la mente "computa" en el sentido pertinente. Una tercera tarea es
dilucidar cómo la descripción computacional se relaciona con otros tipos comunes de
descripción, especialmente la descripción neurofisiológica (que cita propiedades
neurofisiológicas del cerebro o cuerpo del organismo) y la descripción intencional (que
cita propiedades representativas de estados mentales).
1. Máquinas de Turing
2. Inteligencia artificial
3. La teoría computacional clásica de la mente
o 3.1 Funcionalismo de la máquina
o 3.2 La teoría de la representación de la mente
4. Redes neuronales
o 4.1 Relación entre redes neuronales y computación clásica
o 4.2 Argumentos para el conexionismo
o 4.3 Sistematicidad y productividad
o 4.4 Neurociencia computacional
5. Cálculo y representación
o 5.1 Computación como formal
o 5.2 Externalismo sobre el contenido mental
o 5.3 Cómputo que involucra contenido
6. Concepciones alternativas de computación
o 6.1 Procesamiento de la información
o 6.2 Evaluación de la función
o 6.3 Estructuralismo
o 6.4 Teorías mecanicistas
o 6.5 Pluralismo
7. Argumentos contra el computacionalismo
o 7.1 Triviality arguments
o 7.2 Teorema de incompletitud de Gödel
o 7.3 Límites de modelado computacional
o 7.4 Argumentos temporales
o 7.5 Cognición encarnada
Bibliografía
Herramientas académicas
Otros recursos de Internet
Entradas relacionadas
1. Máquinas de Turing
Las nociones intuitivas de computación y algoritmo son fundamentales para las
matemáticas. En términos generales, un algoritmo es un procedimiento explícito y paso a
paso para responder algunas preguntas o resolver algún problema. Un algoritmo
proporciona instrucciones mecánicas de rutinadictando cómo proceder en cada
paso. Obedecer las instrucciones no requiere ingenio o creatividad especial. Por ejemplo,
los conocidos algoritmos de la escuela primaria describen cómo calcular la suma, la
multiplicación y la división. Hasta principios del siglo XX, los matemáticos se basaban
en nociones informales de computación y algoritmo sin intentar nada como un análisis
formal. Los desarrollos en los fundamentos de las matemáticas finalmente impulsaron a
los lógicos a buscar un tratamiento más sistemático. El documento histórico de Alan
Turing "Sobre los números computables, con una aplicación al Entscheidungsproblem"
(Turing 1936) ofreció el análisis que ha demostrado ser más influyente.
Una máquina de Turing es un modelo abstracto de un dispositivo informático idealizado
con tiempo y espacio de almacenamiento ilimitados a su disposición. El dispositivo
manipula símbolos , del mismo modo que un agente informático humano manipula
marcas de lápiz sobre papel durante cálculos aritméticos. Turing dice muy poco sobre la
naturaleza de los símbolos. Él asume que los símbolos primitivos se extraen de un
alfabeto finito. También asume que los símbolos se pueden inscribir o borrar en
"ubicaciones de memoria". El modelo de Turing funciona de la siguiente manera:
2. Inteligencia artificial
El rápido progreso en la ciencia de la computación motivó a muchos, incluido Turing, a
considerar si podríamos construir una computadora capaz de pensar. La Inteligencia
Artificial (AI) apunta a construir "maquinaria de pensamiento". Más precisamente, su
objetivo es construir máquinas de computación que ejecuten tareas mentales básicas
como el razonamiento, la toma de decisiones, la resolución de problemas, etc. Durante
los años 1950 y 1960, este objetivo llegó a parecer cada vez más realista (Haugeland,
1985).
La investigación temprana de IA enfatizó la lógica . Los investigadores buscaron
"mecanizar" el razonamiento deductivo. Un ejemplo famoso fue el programa
informático The Logic Theory(Newell y Simon, 1956), que demostró 38 de los primeros
52 teoremas de Principia Mathematica(Whitehead y Russell, 1925). En un caso,
descubrió una prueba más simple que la de Principia .
El éxito inicial de este tipo estimuló un enorme interés dentro y fuera de la
academia. Muchos investigadores predijeron que las máquinas inteligentes estaban a solo
unos años de distancia. Obviamente, estas predicciones no se han cumplido. Los robots
inteligentes aún no caminan entre nosotros. Incluso los procesos mentales de nivel
relativamente bajo, como la percepción, exceden ampliamente las capacidades de los
programas informáticos actuales. Cuando las predicciones confiadas de las máquinas de
pensar resultaron demasiado optimistas, muchos observadores perdieron el interés o
concluyeron que AI era un tonto. Sin embargo, las décadas han sido testigos de un
progreso gradual. Un éxito sorprendente fue IBM Deep Blue, que derrotó al campeón de
ajedrez Gary Kasparov en 1997. Otro gran éxito fue el automóvil sin conductor Stanley
(Thrun, Montemerlo, Dahlkamp y otros 2006), que completó un recorrido de 132 millas
en el desierto de Mojave. ganando el Grand Challenge de la Agencia de Proyectos de
Investigación Avanzada de Defensa (DARPA). Una historia de éxito menos llamativa es
la gran mejora en los algoritmos de reconocimiento de voz.
Un problema que persiguió el trabajo temprano en AI es la incertidumbre . Casi todo
razonamiento y toma de decisiones opera bajo condiciones de incertidumbre. Por
ejemplo, es posible que deba decidir si ir de picnic sin saber si lloverá. La teoría de
decisión bayesiana es el modelo matemático estándar de la toma de decisiones bajo
incertidumbre. La incertidumbre se codifica a través de la probabilidad . Las reglas
precisas dictan cómo actualizar las probabilidades a la luz de nuevas pruebas y cómo
seleccionar acciones a la luz de las probabilidades y las utilidades. (Ver las entradas del
teorema de Bayes y las teorías normativas de la elección racional: utilidad esperada para
más detalles.) En los años ochenta y noventa, los desarrollos tecnológicos y conceptuales
permitieron programas informáticos eficientes que implementan o aproximan la
inferencia bayesiana en escenarios realistas. Luego se produjo una explosión de IA
bayesiana (Thrun, Burgard y Fox 2006), incluidos los avances antes mencionados en
reconocimiento de voz y vehículos sin conductor. Los algoritmos manejables que
manejan la incertidumbre son un logro importante de la inteligencia artificial
contemporánea, y posiblemente un presagio de un progreso futuro más impresionante.
Algunos filósofos insisten en que las computadoras, sin importar cuán sofisticadas sean,
en el mejor de los casos imitarán en lugar de reproducir el pensamiento. Una simulación
por computadora del clima realmente no llueve. Una simulación de vuelo por
computadora realmente no vuela. Incluso si un sistema informático pudiera simular
actividad mental, ¿por qué sospechar que constituiría el artículo genuino?
Turing (1950) anticipó estas preocupaciones e intentó desactivarlas. Propuso un
escenario, ahora llamado el Test de Turing , donde uno evalúa si un interlocutor no visto
es una computadora o un ser humano. Una computadora pasa la prueba de Turing si no
se puede determinar si se trata de una computadora. Turing propuso que abandonemos la
pregunta "¿Podría una computadora pensar?" Como irremediablemente vaga,
reemplazándola con la pregunta "¿Podría una computadora pasar la prueba de
Turing?". La discusión de Turing ha recibido considerable atención, demostrando ser
especialmente influyente dentro de la inteligencia artificial. Ned Block (1981) ofrece una
crítica influyente. Él argumenta que ciertas máquinas posibles pasan la prueba de Turing
a pesar de que estas máquinas no se acercan a un pensamiento o inteligencia
genuinos. Ver la entrada la prueba de Turing para la discusión de la objeción de Block y
otros asuntos relacionados con la Prueba de Turing.
Para más información sobre la inteligencia artificial, consulte la lógica de entrada y la
inteligencia artificial . Para obtener más detalles, ver Russell y Norvig (2010).
Los conductistas quieren asociar cada estado mental con un patrón característico
de comportamiento: una tarea sin esperanza, porque los estados mentales
individuales generalmente no tienen efectos conductuales característicos. El
comportamiento casi siempre es el resultado de estados mentales distintos que
operan juntos (por ejemplo, una creencia y un deseo). El funcionalismo evita esta
dificultad individualizando los estados mentales a través de relaciones
características no solo con la entrada sensorial y el comportamiento sino también
entre sí.
Los teóricos de identidad de tipo quieren asociar cada estado mental con un estado
físico o neurofisiológico característico. Putnam cuestiona este proyecto al
argumentar que los estados mentales son realizables de manera múltiple : el
mismo estado mental puede ser realizado por diversos sistemas físicos, que
incluyen criaturas terrestres y criaturas hipotéticas (por ejemplo, un marciano
basado en el silicio). El funcionalismo está hecho a medida para acomodar la
realizabilidad múltiple. De acuerdo con el funcionalismo, lo que importa para la
mentalidad es un patrón de organización, que podría realizarse físicamente de
muchas maneras diferentes. Consulte la entrada realizabilidad múltiple para
mayor discusión de este argumento.
Putnam defiende una marca de funcionalismo ahora llamada funcionalismo de la
máquina . Él enfatiza los autómatas probabilísticos , que son similares a las máquinas de
Turing, excepto que las transiciones entre los estados computacionales son
estocásticas. Él propone que la actividad mental implementa un autómata probabilístico
y que los estados mentales particulares son estados de máquina del procesador central del
autómata. La tabla de máquinas especifica una organización funcional apropiada, y
también especifica el papel que desempeñan los estados mentales individuales dentro de
esa organización funcional. De esta manera, Putnam combina el funcionalismo con
CCTM.
El funcionalismo de la máquina enfrenta varios problemas. Un problema, destacado por
Ned Block y Jerry Fodor (1972), se refiere a la productividad del pensamiento. Un
humano normal puede entretener a un potencial infinito de proposiciones. El
funcionalismo de la máquina identifica estados mentales con estados de máquina de un
autómata probabilístico. Como solo hay un número finito de estados de máquina, no hay
suficientes estados de máquina para emparejar uno con los posibles estados mentales de
un humano normal. Por supuesto, un ser humano real solo entretendrá finitamente muchas
proposiciones. Sin embargo, Block y Fodor afirman que esta limitación refleja límites en
la vida útil y la memoria, en lugar de (por ejemplo) alguna ley psicológica que restringe
la clase de proposiciones humanamente entretenidas. Un autómata probabilístico está
dotado de capacidad ilimitada de tiempo y memoria, y aún así solo tiene un número finito
de estados de máquina. Aparentemente, entonces, el funcionalismo de la máquina asigna
erróneamente los límites finitarios a la cognición humana.
Otro problema para el funcionalismo de la máquina, también destacado por Block y Fodor
(1972), se refiere a la sistematicidad del pensamiento. La capacidad de entretener una
proposición se correlaciona con la capacidad de pensar otras proposiciones. Por ejemplo,
alguien que pueda pensar que Juan ama a María también puede albergar la idea de que
María ama a Juan.. Por lo tanto, parece haber relaciones sistemáticas entre los estados
mentales. Una buena teoría debería reflejar esas relaciones sistemáticas. Sin embargo, el
funcionalismo de la máquina identifica estados mentales con estados de máquinas no
estructuradas, que carecen de las relaciones sistemáticas requeridas con otro. Por esa
razón, el funcionalismo de la máquina no explica la sistematicidad. En respuesta a esta
objeción, los funcionalistas de máquina podrían negar que están obligados a explicar la
sistematicidad. Sin embargo, la objeción sugiere que el funcionalismo de la máquina
descuida las características esenciales de la mentalidad humana. Una mejor teoría
explicaría esas características de una manera principista.
Si bien las objeciones de productividad y sistematicidad al funcionalismo de la máquina
quizás no sean decisivas, proporcionan un fuerte impulso para buscar una versión
mejorada de CCTM. Ver Block (1978) para problemas adicionales que enfrentan el
funcionalismo de la máquina y el funcionalismo en general.
4. Redes neuronales
En la década de 1980, el conexionismo surgió como un rival prominente del
computacionalismo clásico. Los conexionistas se inspiran en la neurofisiología más que
en la lógica y la informática. Emplean modelos computacionales, redes neuronales , que
difieren significativamente de los modelos estilo Turing. Una red neuronal es una
colección de nodos interconectados. Los nodos se dividen en tres categorías: nodos
de entrada , nodos de salida y nodos ocultos (que median entre los nodos de entrada y
salida). Los nodos tienen valores de activación, dados por números reales. Un nodo puede
soportar una conexión ponderadaa otro nodo, también dado por un número real. Las
activaciones de los nodos de entrada se determinan exógenamente: estas son las entradas
para el cálculo. La activación de entrada total de un nodo oculto o de salida es una suma
ponderada de las activaciones de los nodos que ingresan en ella. La activación de un nodo
oculto o de salida es una función de su activación de entrada total; la función particular
varía con la red. Durante el cálculo de la red neuronal, las ondas de activación se propagan
desde los nodos de entrada a los nodos de salida, según lo determinado por las conexiones
ponderadas entre los nodos.
En una red feedforward , las conexiones ponderadas fluyen solo en una dirección. Las
redes recurrentes tienen circuitos de retroalimentación, en los que las conexiones que
emanan de unidades ocultas vuelven a las unidades ocultas. Las redes recurrentes son
menos manejables matemáticamente que las redes de feedforward. Sin embargo, figuran
de forma crucial en el modelado psicológico de diversos fenómenos, como los fenómenos
que implican algún tipo de memoria (Elman 1990).
Los pesos en una red neuronal son típicamente mutables, evolucionando de acuerdo con
un algoritmo de aprendizaje . La literatura ofrece varios algoritmos de aprendizaje, pero
la idea básica suele ser ajustar los pesos de modo que los productos reales se acerquen
gradualmente a las salidas objetivo que uno esperaría para las entradas
relevantes. El algoritmo de retropropagación es un algoritmo ampliamente utilizado de
este tipo (Rumelhart, Hinton y Williams 1986).
El conexionismo se remonta a McCulloch y Pitts (1943), que estudiaron redes de puertas
lógicasinterconectadas(por ejemplo, AND-puertas y OR-puertas). Se puede ver una red
de puertas lógicas como una red neuronal, con activaciones limitadas a dos valores (0 y
1) y funciones de activación dadas por las funciones de verdad habituales. McCulloch y
Pitts avanzaron puertas lógicas como modelos idealizados de neuronas individuales. Su
discusión ejerció una profunda influencia en la informática (von Neumann 1945). Las
computadoras digitales modernas son simplemente redes de puertas lógicas. Sin embargo,
dentro de la ciencia cognitiva, los investigadores generalmente se enfocan en redes cuyos
elementos son más "neuronales" que las puertas lógicas. En particular, los conexionistas
de hoy en día suelen enfatizar las redes neuronales analógicas cuyos nodos toman valores
de activación continuos en lugar de discretos. Algunos autores incluso usan la frase "red
neuronal" para que denote exclusivamente tales redes.
Las redes neuronales recibieron una atención relativamente escasa de parte de los
científicos cognitivos durante las décadas de 1960 y 1970, cuando dominaron los modelos
de estilo de Turing. La década de 1980 fue testigo de un gran resurgimiento del interés en
las redes neuronales, especialmente las redes neuronales analógicas, con el Parallel
Distributed Processing en dos volúmenes (Rumelhart, McClelland y el grupo de
investigación PDP, 1986; McClelland, Rumelhart y el grupo de investigación PDP,
1987). sirviendo como un manifiesto. Los investigadores construyeron modelos
conexionistas de diversos fenómenos: reconocimiento de objetos, percepción del habla,
comprensión de oraciones, desarrollo cognitivo, etc. Impresionados por el conexionismo,
muchos investigadores concluyeron que CCTM + RTM ya no era "el único juego en la
ciudad".
Para una descripción detallada de las redes neuronales, ver Haykin (2008). Para una
introducción fácil de usar, con énfasis en aplicaciones psicológicas, ver Marcus (2003).
Uno puede implementar una red neuronal en un modelo clásico . De hecho, cada
red neuronal construida físicamente ha sido implementada en una computadora
digital.
Uno puede implementar un modelo clásico en una red neuronal . Las
computadoras digitales modernas implementan cómputo al estilo de Turing en
redes de compuertas lógicas. Alternativamente, uno puede implementar el cálculo
de estilo de Turing usando una red neuronal recurrente analógica cuyos nodos
toman valores de activación continuos (Siegelmann y Sontag 1995).
Aunque algunos investigadores sugieren una oposición fundamental entre la computación
clásica y la computación de redes neuronales, parece más preciso identificar dos
tradiciones de modelado que se superponen en ciertos casos pero no en otros (Boden
1991, Piccinini 2008b). A este respecto, también vale la pena señalar que el
computacionalismo clásico y el computacionalismo conexionista tienen su origen común
en el trabajo de McCulloch y Pitts.
Los filósofos a menudo dicen que la computación clásica implica "manipulación de
símbolos gobernada por reglas" mientras que el cálculo de redes neuronales no es
simbólico. La imagen intuitiva es que la "información" en las redes neuronales se
distribuye globalmente a través de los pesos y las activaciones, en lugar de concentrarse
en símbolos localizados. Sin embargo, la noción de "símbolo" en sí misma requiere
explicación, por lo que a menudo no está claro a qué se refieren los teóricos al describir
la computación como simbólica versus no simbólica. Como se menciona en el §1, el
formalismo de Turing pone muy pocas condiciones en los "símbolos". Con respecto a los
símbolos primitivos, Turing asume simplemente que hay un número finito de ellos y que
pueden inscribirse en ubicaciones de memoria de lectura / escritura. Las redes neuronales
también pueden manipular símbolos que satisfagan estas dos condiciones: como
acabamos de señalar, uno puede implementar un modelo de estilo de Turing en una red
neuronal.
Muchas discusiones sobre la dicotomía simbólica / no simbólica emplean una noción más
sólida de "símbolo". En el enfoque más robusto, un símbolo es el tipo de cosa que
representa un tema. Por lo tanto, algo es un símbolo solo si tiene propiedades semánticas
o de representación. Si empleamos esta noción más robusta de símbolo, entonces la
distinción simbólica / no simbólica corta transversalmente la distinción entre el cálculo
del estilo de Turing y el cálculo de la red neuronal. Una máquina de Turing no necesita
emplear símbolos en el sentido más robusto. En lo que respecta al formalismo de Turing,
los símbolos manipulados durante el cálculo de Turing no necesitan tener propiedades de
representación (Chalmers 2011). Por el contrario, una red neuronal puede manipular
símbolos con propiedades de representación. En efecto,
Siguiendo a Steven Pinker y Alan Prince (1988), podemos distinguir entre
el conexionismo eliminativo y el conexionismo implementador .
Los conexionistas eliminadores anticipan el conexionismo como un rival al
computacionalismo clásico. Argumentan que el formalismo de Turing es irrelevante para
la explicación psicológica. A menudo, aunque no siempre, buscan revivir
la tradición asociacionista en psicología, una tradición que CCTM había desafiado
enérgicamente. A menudo, aunque no siempre, atacan la mentalista, lingüística nativista
iniciada por Noam Chomsky (1965). A menudo, aunque no siempre, manifiesta abierta
hostilidad a la noción de representación mental. Pero la característica definitoria del
conexionismo eliminativo es que usa redes neuronales como reemplazospara modelos de
estilo Turing. Los conexionistas eliminativos ven la mente como un sistema informático
de un tipo radicalmente diferente al de la máquina de Turing. Algunos autores defienden
explícitamente el conexionismo eliminatorio (Churchland 1989; Rumelhart y McClelland
1986; Horgan y Tienson 1996), y muchos otros se inclinan por ello.
El conexionismo implementacionista es una posición más ecuménica. Permite un papel
potencialmente valioso tanto para los modelos de estilo de Turing como para las redes
neuronales, que funcionan armoniosamente en diferentes niveles de descripción (Marcus
2003; Smolensky 1988). Un modelo de estilo de Turing es de nivel superior, mientras que
un modelo de red neuronal es de nivel inferior. La red neuronal ilumina cómo el cerebro
implementa el modelo de estilo de Turing, al igual que una descripción en términos de
puertas lógicas ilumina cómo una computadora personal ejecuta un programa en un
lenguaje de programación de alto nivel.
5. Cálculo y representación
Los filósofos y los científicos cognitivos utilizan el término "representación" de diversas
maneras. Dentro de la filosofía, el uso más dominante vincula la representación con la
intencionalidad, es decir, la "aproximación" de los estados mentales. Los filósofos
contemporáneos suelen dilucidar la intencionalidad invocando el contenido
representacional . Un estado mental representacional tiene un contenido que representa
el mundo de una determinada manera, por lo que podemos preguntar si el mundo es de
hecho de esa manera. Por lo tanto, los estados mentales representativamente conformes
son semánticamente evaluables con respecto a propiedades tales como la verdad, la
precisión, la realización, etc. Para ilustrar:
Las creencias son el tipo de cosas que pueden ser verdaderas o falsas. Mi creencia
de que Barack Obama es presidente es cierto si Barack Obama es presidente, falso
si no lo es.
Los estados de percepción son el tipo de cosas que pueden ser precisas o
inexactas. Mi experiencia perceptiva como una esfera roja es precisa solo si una
esfera roja está delante de mí.
Los deseos son el tipo de cosas que pueden cumplirse o frustrarse. Mi deseo de
comer chocolate se cumple si como chocolate, frustrado si no como chocolate.
Las creencias tienen condiciones de verdad (condiciones bajo las cuales son verdaderas),
los estados perceptivos tienen condiciones de precisión (condiciones bajo las cuales son
precisas) y los deseos tienen condiciones de cumplimiento (condiciones bajo las cuales
se cumplen).
En la vida ordinaria, con frecuencia predecimos y explicamos el comportamiento al
invocar creencias, deseos y otros estados mentales representativos y con
contenido. Identificamos estos estados a través de sus propiedades de
representación. Cuando decimos "Frank cree que Barack Obama es presidente",
especificamos la condición bajo la cual la creencia de Frank es verdadera (es decir, que
Barack Obama es presidente). Cuando decimos "Frank quiere comer chocolate",
especificamos la condición bajo la cual se cumple el deseo de Frank (es decir, que Frank
come chocolate). Entonces, la psicología popular asigna un papel central a
las descripciones intencionales, es decir, descripciones que identifican estados mentales
a través de sus propiedades de representación. Si la psicología científica también debería
emplear descripciones intencionales es un tema controvertido dentro de la filosofía de la
mente contemporánea.
El realismo intencional es realismo con respecto a la representación. Como mínimo, esta
posición sostiene que las propiedades de representación son aspectos genuinos de la
mentalidad. Por lo general, también se considera que la psicología científica debe emplear
libremente descripciones intencionales cuando corresponda. El realismo intencional es
una posición popular, defendida por Tyler Burge (2010a), Jerry Fodor (1987),
Christopher Peacocke (1992, 1994) y muchos otros. Un argumento prominente para el
realismo intencional cita la práctica de la ciencia cognitiva. El argumento sostiene que
la descripción intencional figura centralmente en muchas áreas centrales de la ciencia
cognitiva, como la psicología perceptual y la lingüística. Por ejemplo, la psicología
perceptual describe cómo la actividad perceptual transforma entradas sensoriales (por
ejemplo, estimulaciones retinianas) en representaciones del entorno distal (por ejemplo,
representaciones perceptuales de formas, tamaños y colores distales). La ciencia
identifica estados perceptuales citando propiedades de representación (por ejemplo,
relaciones de representación con formas distales específicas, tamaños,
colores). Asumiendo una perspectiva realista ampliamente científica, los logros
explicativos de la psicología perceptiva apoyan una postura realista hacia la
intencionalidad.
El eliminativismo es una forma fuerte de antirrealismo sobre la intencionalidad. Los
eliminativistas descartan la descripción intencional como vaga, sensible al contexto,
relacionada con el interés, explicativamente superficial o problemática. Recomiendan que
la psicología científica descarte el contenido representacional. Un ejemplo temprano es
WV Quine's Word and Object (1960), que busca reemplazar la psicología intencional con
la psicología conductista de estímulo-respuesta. Paul Churchland (1981), otro destacado
eliminativista, quiere reemplazar la psicología intencional por la neurociencia.
Entre el realismo intencional y el eliminativismo se encuentran varias posiciones
intermedias. Daniel Dennett (1971, 1987) reconoce que el discurso intencional es
predictivamente útil, pero cuestiona si los estados mentales realmente tienen propiedades
de representación. Según Dennett, los teóricos que emplean descripciones intencionales
no afirman literalmente que los estados mentales tienen propiedades de
representación. Simplemente están adoptando la "postura intencional". Donald Davidson
(1980) propugna un intérprete vecinoposición. Él enfatiza el papel central que
desempeña la adscripción intencional dentro de la práctica interpretativa ordinaria, es
decir, nuestra práctica de interpretar los estados mentales y los actos de habla de los
demás. Al mismo tiempo, cuestiona si la psicología intencional encontrará un lugar dentro
de la teorización científica madura. Davidson y Dennett profesan realismo sobre los
estados mentales intencionales. Sin embargo, ambos filósofos son habitualmente leídos
como antirrealistas intencionales. (En particular, Dennett se lee con frecuencia como una
especie de instrumentista sobre la intencionalidad). Una fuente de esta lectura habitual
implica la indeterminación de la interpretación.. Supongamos que la evidencia
conductual permite dos interpretaciones contradictorias de los estados mentales de un
pensador. Siguiendo a Quine, Davidson y Dennett dicen que entonces "no hay ningún
hecho" con respecto a cuál interpretación es la correcta. Este diagnóstico indica una
actitud poco realista frente a la intencionalidad.
Los debates sobre la intencionalidad ocupan un lugar destacado en la discusión filosófica
de la CTM. Vamos a encuestar algunos aspectos destacados.
6.3 Estructuralismo
Muchas discusiones filosóficas incorporan una concepción estructuralista de la
computación : un modelo computacional describe una estructura causal abstracta, sin
tomar en cuenta estados físicos particulares que ejemplifican la estructura. Esta
concepción se remonta, al menos, al tratamiento original de Putnam (1967). Chalmers
(1995, 1996a, 2011, 2012) lo desarrolla en detalle. Introduce el formalismo de autómata
de estado combinatorio (CSA), que incluye los modelos de computación más conocidos
(incluidas las máquinas de Turing y las redes neuronales). Un CSA proporciona una
descripción abstracta de la topología causal de un sistema físico: el patrón de interacción
causal entre las partes del sistema, independientemente de la naturaleza de esas partes o
los mecanismos causales a través de los cuales interactúan. La descripción computacional
especifica una topología causal.
Chalmers despliega el estructuralismo para delinear una versión muy general de
CTM. Asume la visión funcionalista de que los estados psicológicos están
individualizados por sus roles en un patrón de organización causal. La descripción
psicológica especifica los roles causales, abstraídos de los estados físicos que realizan
esos roles. Entonces, las propiedades psicológicas son invariantes desde el punto de vista
organizativo, en el sentido de que sobrevienen a la topología causal. Como la descripción
computacional caracteriza una topología causal, satisfacer una descripción computacional
adecuada es suficiente para crear las propiedades mentales apropiadas. También se
deduce que la descripción psicológica es una especie de descripción computacional, por
lo que la descripción computacional debe desempeñar un papel central en la explicación
psicológica. Por lo tanto, la computación estructuralista proporciona una base sólida para
la ciencia cognitiva. La mentalidad se basa en patrones causales, que son precisamente lo
que articulan los modelos computacionales.
El estructuralismo viene empaquetado con una explicación atractiva de la relación de
implementación entre modelos computacionales abstractos y sistemas físicos. ¿En qué
condiciones un sistema físico implementa un modelo computacional? Los estructuralistas
dicen que un sistema físico implementa un modelo en caso de que la estructura causal del
modelo sea "isomorfa" a la estructura formal del modelo. Un modelo computacional
describe un sistema físico al articular una estructura formal que refleja alguna topología
causal relevante. Chalmers elabora esta idea intuitiva, proporcionando condiciones
detalladas necesarias y suficientes para la realización física de CSA. Pocos, si es que hay
conceptos alternativos de computación, pueden proporcionar una explicación tan
sustantiva de la relación de implementación.
Podemos comparar instructivamente el computacionalismo estructuralista con algunas
otras teorías discutidas anteriormente:
Funcionalismo de la máquina . El computacionalismo estructuralista abarca la idea
central detrás del funcionalismo de la máquina: los estados mentales son estados
funcionales que se pueden describir a través de un formalismo computacional
adecuado. Putnam avanza CTM como una hipótesis empírica, y defiende el
funcionalismo sobre esa base. Por el contrario, Chalmers sigue a David Lewis (1972) al
fundamentar el funcionalismo en el análisis conceptual del discurso mentalista. Mientras
que Putnam defiende el funcionalismo defendiendo el computacionalismo, Chalmers
defiende el computacionalismo asumiendo el funcionalismo.
Computacionalismo clásico, conexionismo y neurociencia computacional . El
computacionalismo estructuralista enfatiza las descripciones invariables de la
organización, que son realizables de forma múltiple. En ese sentido, diverge de la
neurociencia computacional. El estructuralismo es compatible con el computacionalismo
clásico y conexionista, pero difiere en espíritu de esos puntos de vista. Los clasicistas y
los conexionistas presentan sus posiciones rivales como hipótesis audaces y
sustantivas. Chalmers avanza el computacionalismo estructuralista como una posición
relativamente minimalista que probablemente no se defienda.
Realismo intencional y eliminativismo . El computacionalismo estructuralista es
compatible con ambas posiciones. La descripción de CSA no menciona explícitamente
propiedades semánticas tales como referencia, condiciones de verdad, contenido
representacional, etc. Los computacionalistas estructuralistas no necesitan asignarle al
contenido representacional ningún rol importante dentro de la psicología científica. Por
otro lado, el computacionalismo estructuralista no excluye un papel importante para el
contenido representacional.
La concepción formal-sintáctica de la computación . El amplio contenido depende de las
relaciones causal-históricas con el entorno externo, relaciones que superan a la topología
causal. Por lo tanto, la descripción de CSA deja un amplio contenido indeterminado. Es
de suponer que el contenido restringido sobreviene a la topología causal, pero la
descripción de CSA no menciona explícitamente los contenidos restringidos. En general,
entonces, el computacionalismo estructuralista prioriza un nivel de descripción
computacional formal, no semántica. En ese sentido, se asemeja al FSC. Por otro lado,
los computacionalistas estructuralistas no necesitan decir que la computación es
"insensible" a las propiedades semánticas, por lo que no necesitan endosar todos los
aspectos del FSC.
Aunque el computacionalismo estructuralista es distinto de CTM + FSC, plantea algunos
problemas similares. Por ejemplo, Rescorla (2012) niega que la topología causal
desempeñe la función explicativa central dentro de la ciencia cognitiva que el
computacionalismo estructuralista dicta. Sugiere que la descripción intencionalista
externa en lugar de la descripción invariante de la organización goza de primacía
explicativa. Viniendo de una dirección diferente, los neurocientíficos computacionales
recomendarán que omitamos descripciones invariables desde el punto de vista
organizativo y en cambio empleemos modelos computacionales más específicos
neuralmente. En respuesta a tales objeciones, Chalmers (2012) argumenta que la
descripción computacional invariable desde el punto de vista organizativo produce
beneficios explicativos que ni la descripción intencional ni la descripción neurofisiológica
reproducen: revela los mecanismos subyacentes de la cognición (a diferencia de la
descripción intencional); y abstrae de los detalles de implementación neuronal que son
irrelevantes para muchos propósitos explicativos.
6.5 Pluralismo
Hemos estudiado varias concepciones contrastadas y a veces superpuestas de
computación: computación clásica, computación conexionista, computación neural,
computación sintáctica formal, computación que involucra contenido, computación de
procesamiento de información, computación funcional, computación estructuralista y
computación mecánica. Cada concepción produce una forma diferente de
computacionalismo. Cada concepción tiene sus propias fortalezas y debilidades. Uno
podría adoptar una postura pluralista que reconozca distintas concepciones legítimas. En
lugar de elevar una concepción por encima de las otras, los pluralistas emplean felizmente
cualquier concepción que parezca útil en un contexto explicativo dado. Edelman (2008)
toma una línea pluralista, al igual que Chalmers (2012) en su discusión más reciente.
La línea pluralista plantea algunas preguntas naturales. ¿Podemos proporcionar un
análisis general que abarque todos o la mayoría de los tipos de computación? ¿Todos los
cálculos comparten ciertas marcas características entre sí? ¿Están acaso unidos por algo
parecido a la familia? Una comprensión más profunda de la computación nos exige lidiar
con estas preguntas.
(1) Elcálculo del estilo de Turing es sensible solo a las propiedades "locales" de
una representación mental, que se agota con la identidad y la disposición de los
constituyentes de la representación.
(2)Muchos procesos mentales, secuestro paradigmático, son sensibles a las
propiedades "no locales" como la relevancia, la simplicidad y el conservadurismo.
(3)Por lo tanto, es posible que tengamos que abandonar el modelado al estilo de
Turing de los procesos relevantes.
(4)Desafortunadamente, actualmente no tenemos idea de qué teoría alternativa
podría servir como un reemplazo adecuado.
Algunos críticos niegan (1), argumentando que los cálculos adecuados del estilo de
Turing pueden ser sensibles a las propiedades "no locales" (Schneider 2011; Wilson
2005). Algunos desafíos (2), argumentando que las inferencias abductivas típicas son
sensibles solo a las propiedades "locales" (Carruthers 2003; Ludwig y Schneider 2008;
Sperber 2002). Algunos conceden el paso (3) pero disputan el paso (4), insistiendo en que
tenemos modelos prometedores al estilo no de Turing de los procesos mentales relevantes
(Pinker 2005). Estimulado en parte por tales críticas, Fodor elabora su argumento con
considerable detalle. Para defender (2), critica las teorías que modelan la abducción
mediante el despliegue de algoritmos heurísticos "locales" (2005: 41-46; 2008: 115-126)
o al postular una profusión de módulos cognitivos específicos de dominio (2005: 56-100)
. Para defender (4), critica varias teorías que manejan la abducción a través de modelos
que no son de estilo Turing (2000: 46-53; 2008), como redes conexionistas.
El alcance y los límites del modelado computacional siguen siendo
controvertidos. Podemos esperar que este tema siga siendo un foco activo de
investigación, llevado a cabo conjuntamente con AI.