Você está na página 1de 19

La crítica de Searle a la IA y

el argumento de la habitación china

Jorge Sierra
Docente-­ ­ investigador
Universidad Autónoma de Colombia
Facultad de Ciencias Humanas
Carrera de filosofía

La paradoja Cogito se nos reveló en la bitística de una


manera sorprendente y llena de ironía: ¡representaba la
duda que las máquinas tenían acerca de la facultad de
pensar de los hombres! La situación adquirió de pronto
una perfecta simetría bilateral. Nosotros no llegamos a
estar totalmente convencidos (por falta de pruebas) de
que la máquina piensa y tiene vivencias psíquicas,
puesto que siempre nos queda la sospecha de que se
trata de simulaciones, exteriormente perfectas pero
interiormente vacías y desprovistas de
“alma”. Las máquinas, a su vez, no son capaces de
conseguir una prueba de que nosotros, sus “partners”,
pensamos conscientemente... como ellas. Ninguna de las
dos partes sabe qué clase de sensaciones define la otra
con el término “consciencia”.

(Stanislaw Lem, Un valor imaginario)

Introducción
Sin lugar a dudas, la aparición y el desarrollo de la teoría de la computación
se ha constituido en uno los elementos más revolucionarios en las
modernas discusiones acerca de la naturaleza de la mente. El uso del
computador como modelo para comprender, explicar y simular aspectos de la
inteligencia humana ha permitido plantear de una manera nueva problemas
clásicos acerca de la naturaleza y funciones de la mente humana. Si bien es
cierto que desde la antigüedad han existido planteamientos fantasiosos
acerca de la posibilidad de construir máquinas inteligentes para muchos
teóricos, hoy por hoy, la cuestión ha dejado de ser un mero sueño.

1
Ante el innegable avance en materia de computación, la respuesta a la
pregunta de si un artefacto puede pensar en el mismo sentido en que se afirma
que los seres humanos piensan, no admite una respuesta en contra tan
sencilla y concluyente como antes. Para muchos, la inteligencia artificial y la
ciencia cognitiva son planteamientos que, pese a sus limitaciones actuales, no
pueden ser ignorados como respuestas posiblemente válidas en la
comprensión del fenómeno de la inteligencia y de la mente.

Tal vez uno de los argumentos más debatidos y polémicos presentados en


contra del proyecto de la IA de construir máquinas inteligentes sea el de
Searle. Debatido, por lo radical de su planteamiento que trata de refutar de
manera a priori (no empírica) la posibilidad misma de construir inteligencia
artificial que exhiba los mismos rasgos que exhibe la inteligencia humana.
En palabras de Searle,

La naturaleza de la refutación no tiene nada que ver con


ninguna etapa particular de la tecnología de los computadores. Es
importante subrayar este punto, puesto que la tentación es siempre
pensar que la solución a nuestros problemas tiene que esperar a
alguna, hasta ahora no creada, maravilla tecnológica. Pero de hecho,
la naturaleza de la refutación es completamente independiente de
cualquier estado en que se encuentre la tecnología. Ella tiene que ver
con la definición misma de computador digital, con lo que un
computador digital es. 1

Polémico, porque afirma que la naturaleza de los estados mentales y de la


mente misma exhiben una característica biológica (la intencionalidad) que
es irreductible a procesos computacionales.

1 SEARLE, John., Mentes, cerebros y ciencia, Madrid, Cátedra, 1985, p. 36. Es importante
señalar que la razón de que el argumento de Searle sea de carácter a priori tiene que ver con
el hecho de que su refutación pretende ser concluyente. Para ello es importante que su
argumento sea válido independientemente de cualquier desarrollo tecnológico posible que,
como tal, es un asunto meramente empírico. Que los computadores puedan pensar no es
pues una cuestión empírica, sino más bien conceptual, que parte de la definición misma
de lo que es un computador. Mientras esa definición siga siendo la misma, esto es, mientras
el proyecto de la IA siga estando apoyado en la noción de inteligencia como manipulación
formal de símbolos, tal ciencia, según Searle, estará condenada al fracaso.

2
El presente trabajo tiene como objetivo central realizar un análisis del
argumento de Searle, tratando de problematizar algunos puntos que
permitan arrojar alguna luz sobre su validez o invalidez. En primer lugar,
daremos una caracterización global del proyecto de la IA. Después,
miraremos el argumento de Searle en contra de dicho proyecto, aportando
algunos elementos críticos en torno a su noción de intencionalidad.
Finalmente, consideraremos algunas objeciones presentadas a dicho
argumento.

1. La inteligencia artificial
De manera general, la IA es un intento ambicioso por construir máquinas
que piensen, no en sentido metafórico o como una burda imitación de la
inteligencia humana, sino en un sentido literal.

La meta fundamental de toda esta búsqueda no es


simplemente imitar a la inteligencia o lograr un simulador
ingenioso. No. La ""inteligencia artificial"" sólo desea el artículo
verdadero: máquinas que tengan mente, en su sentido pleno y literal.
No se trata de ciencia ficción sino de verdadera ciencia... 2

La hipótesis fundamental que subyace a toda la investigación de la IA es la


concepción de que pensar es meramente un asunto de manipulación formal
y sistemática de símbolos. Y los computadores son precisamente sistemas
de manipulación de símbolos, lo que se supone que hace justamente una
mente humana cuando piensa. De hecho, un proceso computacional tiene que
ser formal para que sea mecanizable, esto es, la computación misma requiere
que los símbolos sean meramente formales y no tengan un significado
determinado.

En conexión con lo anterior, la IA sostiene que tal manipulación no supone


una conexión necesaria con ciertos medios físicos en los que tal función
pueda llevarse a cabo. Esto quiere decir que los procesos que se definen con
el nombre de inteligencia son independientes de su instanciación material,
pues es un hecho contingente e irrelevante que las máquinas que manipulan
símbolos estén hechas de silicio o cualquier otro material: no hay nada
esencialmente físico que defina que algo puede tener mente y tener estados
cognitivos.

2 HAUGELAND, J., La inteligencia artificial, México, Siglo XXI, 1988, p. 9.

3
Finalmente, la IA hace suyo el test de Turing como criterio para establecer bajo
qué condiciones estamos justificados para sostener que algo piensa o no, dado
lo problemático de dar una definición precisa y rigurosa de qué se entiende por
inteligencia. La prueba de Turing es un criterio eminentemente conductual
que permite, en caso de ser superada por una máquina, sostener que ella posee
inteligencia. Consiste básicamente en que si un computador puede
comportarse de modo tal que un evaluador experto no puede distinguir su
actuación de la de un ser humano inteligente, entonces el ordenador deberá
ser también inteligente. Tal prueba se lleva a cabo a través de preguntas hechas
por el experto y respuestas dadas por la persona y la máquina. 3

2. El argumento de Searle: la habitación china


Antes de entrar a examinar el argumento, 4 es preciso mencionar que la
refutación va dirigida a la versión fuerte de la IA que Searle distingue de
una versión débil. 5 Esta última consiste en un enfoque computacional de la
mente que tiene como única pretensión utilizar el modelo del computador
como una herramienta de estudio y explicación de la cognición humana. La
IA débil no pretende crear máquinas inteligentes. La IA fuerte, por el
contrario, pretende ir más allá de la mera simulación computacional de la
mente y sus procesos para proponer que es posible duplicar por medio de
programas adecuados la inteligencia o la mente humana.

¿Qué es exactamente lo que le interesa refutar a Searle? Dado que lo que interesa
refutar a Searle no es el enunciado sin más “Las máquinas piensan o tienen mente”

3 ""¿Cómo vamos a definir la inteligencia? ¿No es cierto que todo se centra en eso? Puede

parecer extraño, pero esta cuestión en realidad se trata muy poco. Para fines prácticos, un
criterio propuesto por Alan Turing satisface a casi todo el mundo."" HAUGELAND, J., Op.
cit., p. 13.
4 Originalmente el argumento de Searle iba dirigido en contra de Roger Schank, quien

desarrollo un programa que pretendía simular la capacidad humana de comprensión de


relatos, pero como Searle mismo lo aclara, el argumento es aplicable a cualquier programa
diseñado por la IA fuerte. Ver ""Minds, Brains and Programs"", Behavioral and Brain
Sciences, vol. 3 (1980), pp. 417-­ ­ 424. Reproducido en: HAUGELAND, J., Mind Design,
Cambridge, Bradford Books/The MIT Press, 1981, pp. 282-­ ­ 306.
5 No obstante, Searle realiza también una crítica posterior al programa cognitivista o IA

débil que no se halla presente en el artículo de 1980. A este respecto ver: Mentes, cerebros y
ciencia, ed., cit., cap. 3.

4
sino más bien el enunciado “Pensar o tener mente es lo mismo que ejecutar un
programa informático”, es preciso explicar la diferencia entre ambos
enunciados. En un sentido trivial, afirma Searle, hay máquinas que piensan si
por ello se entiende un sistema material específico que sea capaz de
desempeñar funciones cognitivas. Tales máquinas serían los seres humanos
en tanto que ellos son máquinas biológicas. Otro sentido que se le puede dar
al primer enunciado mencionado antes tendría que ver con la cuestión
empírica de construir máquinas no necesariamente biológicas que puedan
pensar, esto es, máquinas fabricadas con materiales distintos a los del
cerebro. Pero como sucede con cualquier cuestión empírica, es imposible
determinar a priori su imposibilidad: sencillamente no lo sabemos
actualmente. Lo que afirman los defensores de la IA fuerte no es ninguna de
las anteriores interpretaciones dadas a la cuestión de si las máquinas piensan
o lo pueden hacer. La interpretación que ellos le dan a esta cuestión es la
siguiente:

Sin embargo, en los últimos decenios, la cuestión de si las


máquinas podrían pensar ha recibido una interpretación
enteramente distinta. La cuestión planteada en su lugar es: ¿podría
una máquina pensar justamente en virtud de que ejecuta un
programa informático? ¿Es el programa en sí mismo constitutivo
del pensamiento? Se trata de una cuestión completamente diferente
porque no se ocupa de las propiedades físicas, causales, de
sistemas materiales actuales o potenciales, sino que atañe , por el
contrario, a las propiedades abstractas, computacionales, de
programas informáticos formales que podrían realizarse en
cualquier clase se sustancia, sin otra condición que la de que ésta
sea capaz de ejecutar el programa. 6

Entonces lo que afirman los defensores de la IA fuerte no es la posibilidad de


construir máquinas inteligentes con ciertas propiedades físicas relevantes
para ello. Desde esta perspectiva, afirma Searle, la tesis de la IA fuerte
consiste en sostener la independencia del medio físico como constitutivo de
la mente y el pensamiento, esto es, que la mente es al cerebro como el
programa al ordenador. Y es justamente contra este modo de ver la cuestión
de si las máquinas pueden pensar que Searle va a dirigir su ataque. Tal
formulación, por su naturaleza, es susceptible de ser refutada a priori por
medios conceptuales, puesto que no se apoya en ninguna noción empírica
para definir la misma noción de inteligencia y su posible duplicación.

6 SEARLE, J., ""¿Es la mente un programa informático?, en: Investigación y Ciencia, marzo,

1992, p. 10. Las cursivas son mías.

5
El argumento de la habitación china pretende, pues, jugar con los mismos
elementos que pone juego la IA fuerte: programas simbólico-­ ­ formales,
independencia del medio físico y test de Turing. Si se puede demostrar en un
caso específico, tal como la capacidad intelectual para comprender un
idioma, que la ejecución de un programa informático no implica ningún
proceso mental de inteligencia, entonces la tesis de la IA de que la mente es
un programa es falsa. Dada la independencia del medio físico, tal
instanciación puede ser realizada por un agente humano.

Se supone, en primer lugar, que se toma un idioma que no conoce la


persona en la que se ejecuta el programa y que hace las veces de ordenador.
Se la ubica en una sala en la que se encuentran cestos con símbolos chinos
(o base de datos) y un libro escrito (por los programadores) en el lenguaje
que la persona conoce que estipula las reglas formales para la manipulación
(o programa informático) de los símbolos sin atender a su significado. Fuera
de la sala hay personas que hablan chino y que le entregan a la persona que
está adentro grupos de símbolos. Esta les devuelve como respuesta, de
acuerdo con el libro de reglas, también grupos de símbolos. Pero lo clave es
que el libro de reglas está diseñado de tal manera que las respuestas que la
persona de la sala devuelve son indistinguibles de las que daría una persona
que comprende el chino. De esta forma, la persona de la sala está superando
con éxito el test de Turing respecto a la comprensión del chino, con la
salvedad de que ella ignora totalmente este idioma, pues no hay posibilidad
alguna de que pueda saber el significado de los ideogramas por simple
manipulación formal. Simplemente la persona se ha comportado como si
entendiera chino, lo que es posible simplemente por manipulación de
símbolos conforme a reglas formales. En conclusión, puesto que el agente
humano (u ordenador) no comprende el chino llevando a cabo un programa
informático, es imposible que cualquier otro ordenador comprenda el chino
tomando como base el mismo programa informático de manipulación formal
de símbolos. El agente humano que ejecuta el programa no tiene nada que no
posea un ordenador cualquiera: ambos cumplen el requisito de poder
ejecutarlo sin que importe el medio físico en que se efectúa la ejecución. A
partir del ejemplo de la sala china, Searle extrae la siguiente conclusión
general:

6
Lo dicho para el chino vale igual para otras formas de cognición. La
mera manipulación de símbolos no basta, por sí misma, para garantizar
cognición, percepción, comprensión, pensamiento, y así sucesivamente.
Y dado que los ordenadores, en su cualidad de tales, son dispositivos de
manipulación de símbolos, la mera ejecución del programa no basta
para garantizar la cognición."7

Lo que está implícito en las anteriores afirmaciones de Searle y que le permite


hacer extensivo los resultados del argumento de la habitación china es la tesis
de que si existe por lo menos un proceso o una actividad que implique la
posesión de ciertos estados mentales no formales (como el hecho de
comprender chino) y este proceso no puede ser llevado a cabo por un
ordenador que ejecute un programa informático, entonces a fortiori,
cualquier otra actividad que implique estados mentales no podrá ser
duplicada por un ordenador programado para ese fin. En esta formulación
encontramos, no obstante, algunos problemas que discutiremos más
adelante, como por ejemplo la posibilidad de establecer con certeza que la
mente tiene contenidos semánticos que son irreductibles a procesos formales
computacionales o que en principio es imposible que la ejecución de un
programa por un ordenador no es suficiente para adjudicarle predicados
mentales.

El argumento de la habitación china, una vez generalizado, es presentado de


manera más esquemática por Searle en los siguientes términos.

Axioma 1. Los programas informáticos son formales (sintácticos).


Axioma 2. Las mentes humanas tienen contenidos mentales (semántica).
Axioma 3. La sintaxis, de suyo, no es constitutiva de semántica ni suficiente
para la misma.
Conclusión 1. Los programas no son constitutivos de la mente ni suficientes
para la misma.

Si el rasgo que permite diferenciar las mentes de los ordenadores es que las
primeras tienen una propiedad (la semántica) que los últimos son incapaces
de tener (axioma 2) por constar sólo de sintaxis (axioma 1), la cual es
insuficiente para ""generar"" contenidos semánticos (axioma 3), es
importante tratar de ver lo que implican los axiomas 2 y 3. En especial, es

7 Ibid., p. 11.

7
fundamental tratar de aclarar qué quiere decir que las mentes son semánticas y
qué justifica tal afirmación. Para Searle hablar de semántica o contenido implica
hablar necesariamente de la intencionalidad de la mente. Los estados mentales
tiene un contenido en virtud de la Intencionalidad, que Searle define como:

...aquella propiedad de muchos estados y eventos mentales en


virtud de la cual éstos se dirigen a, o son sobre o de, objetos y
estados de cosas del mundo. Si, por ejemplo, tengo una creencia, debe
ser una creencia de que tal y tal es el caso... 8

Ahora bien, ¿por qué es tan importante la intencionalidad y qué permite


explicar? La intencionalidad permite comprender el hecho de que la mente
pueda tener una relación con la realidad, de que sus estados mentales tengan la
capacidad de ser sobre algo distinto de ellos mismos. Además de esto, con la
intencionalidad se propone una manera de entender la relación entre lenguaje y
realidad, es decir, entender de qué manera pueden tener significado objetos que
en sí mismos no lo poseen y aún así sirven para referirse a cosas del mundo.
Este último punto es importante porque justamente lo que está en discusión es si
un sistema formal de símbolos puede generar por sí mismo un contenido
semántico (un estado mental). De ahí que sea fundamental, para entender la
polémica entre Searle y la IA, mirar más en detalle esta cuestión. El
planteamiento de Searle al problema referido se encuentra en el siguiente
pasaje:
Dado que las oraciones...son consideradas, en un sentido, objetos
del mundo lo mismo que otros objetos cualesquiera, su capacidad
para representar no es intrínseca, sino que se deriva de la
Intencionalidad de la mente. Por otro lado, la Intencionalidad de los
estados mentales no se deriva de algunas formas previas de
Intencionalidad, sino que es intrínseca a los estados mismos...Una
oración es un objeto sintáctico sobre el que se imponen capacidades
representacionales: las creencias, los deseos y otros estados
Intencionales no son como tales, objetos sintácticos (aunque pueden
ser y normalmente son expresados en oraciones), y sus capacidades
representacionales no son impuestas, sino que son intrínsecas. 9

8 SEARLE, J., Intencionalidad. Un ensayo en la filosofía de la mente, Madrid, Tecnos,


1992, p. 17.
9 Ibid., p. 13.

8
Lo anterior permite darle un sentido más preciso a los axiomas 2 y 3 del
argumento de Searle. Por un lado, Searle establece una diferencia entre tener
una intencionalidad intrínseca y tener una intencionalidad derivada.
Cualquier sistema simbólico sólo puede exhibir una intencionalidad
únicamente en virtud de estados mentales intencionalmente intrínsecos. Es
en este sentido profundo que lo sintáctico no puede hacer referencia a nada
o tener un contenido semántico sin el auxilio de lo intencional. Una mera
manipulación de símbolos no genera estados mentales o contenidos, pues la
intencionalidad es la que le confiere sentido a esos símbolos. Invertir esta
relación (esto es, que los símbolos formales generarían de alguna manera
contenidos mentales) dejaría sin explicar cómo algo no significativo puede
generar semántica y referirse al mundo. El hecho de que los estados
mentales puedan referirse o estar dirigidos al mundo depende del carácter
intencional de la mente.

Pero en definitiva, ¿cuál es la razón de que la mente y no un ordenador


pueda poseer semántica o contenidos intencionales? Si se puede pensar que
los seres humanos pueden ser descritos como ordenadores, entonces habría
una dificultad obvia acerca de si no sería posible que la tecnología
computacional pudiera algún día eliminar la brecha entre lo semántico y lo
sintáctico. Ante esta dificultad, Searle responde que mientras los procesos
computacionales son formales y se hallan definidos independientemente del
medio en que se realicen, no sucede lo mismo con los procesos mentales
que poseen una especificidad biológica al ser causados por procesos
cerebrales. La intencionalidad de la mente es el resultado de procesos
causales producidos por el cerebro. Y el empeño de la IA no es construir
máquinas biológicas que posean inteligencia.

Ahora bien, el proyecto de la IA de crear mentes no tiene nada ver con la


posibilidad de crear mentes en un medio físico determinado o de que
únicamente existan mentes con una base biológica como la del cerebro. La IA
fuerte afirma que las características específicas del medio físico en el que se
realiza la inteligencia son totalmente irrelevantes. Para Searle es claro que la
cuestión de crear mentes, no en el sentido que la IA fuerte la interpreta, sino
en el sentido de construir mentes físicamente distintas a la mente humana, es
un asunto empírico que está abierto y que no es objetable a priori, pues existe
la posibilidad de que otros procesos neurobiológicos o de otro tipo no

9
conocidos produzcan inteligencia consciente. Searle no niega está posibilidad.
Lo que en el fondo está cuestionando Searle a la IA es la tesis de que la
especificidad del medio en el que acontecen los fenómenos mentales sí es
relevante (la relación mente-­ ­ cerebro como la entiende Searle es un ejemplo de
ello). De ahí que la duplicación de procesos cognitivos excede los objetivos de
la IA fuerte, pues para que se dé tal duplicación debe tenerse en cuenta sus
aspectos biológicos. Mientras la IA se siga moviendo dentro de la concepción
formal (no física) de la mente, sólo logrará simular computacionalmente la
inteligencia humana que, pese a aprobar todos los criterios conductuales de la
prueba de Turing, no producirá inteligencia en sentido estricto. La razón de
esta limitación radica en que un sistema informático de símbolos no posee
poderes causales (cosa que sí posee el cerebro) que haga posible que tener
estados mentales y ejecutar un programa puedan ser definitivamente lo
mismo.

Para Searle es patente que la IA fuerte no justifica la posibilidad empírica


de que la mente sea algo meramente formal sin ninguna conexión con alguna
sustancia física. Si bien es conceptualmente posible que se pueda pensar tal
independencia, no existen razones empíricas de que eso se pueda hacer. Así,
la supuesta independencia del medio físico de los procesos mentales o
simbólicos que plantea la IA implica una forma de dualismo. De hecho, esta
forma de dualismo es la posibilidad misma de llevar a cabo el proyecto de la
IA. Si no se puede pensar que la mente es realmente independiente del
cerebro o de cualquier otro sistema materialmente posible, no se puede dar la
posibilidad misma de crear mentes como programas informáticos.

Esta es quizá una de las dificultades más interesante que plantea la IA


fuerte. Se supone que la IA no es una teoría ontológica: no puede ser
monista porque ello implicaría abandonar la tesis de la independencia del
medio que es fundamental para sus pretensiones. En principio, tampoco
puede ser dualista, puesto que caería en las mismas dificultades de
Descartes de justificar la interacción entre dos sustancias antagónicas que
no comparten ningún rasgo de su naturaleza. Se podría pensar que lo que
propone la IA es una distinción conceptual (lógicamente posible) entre la
mente y la materia que no sería una distinción real con alcance ontológico.
Pero aquí surge de nuevo una dificultad, pues, no es claro qué

10
utilidad puede tener una distinción conceptual cuando lo que se busca es crear
mentes bajo la forma de programas que no contienen, por sí mismos, ninguna
especificación del medio en que se los puede ejecutar. Si esto es así, la IA
fuerte es una teoría tan problemática como el dualismo clásico, una ontología
en sentido pleno.

Lo que las afirmaciones anteriores quieren sugerir es que no existe ninguna


claridad en el uso de ciertos términos y en la formulación de ciertas tesis. Es
claro que la IA no se propone como una teoría ontológica que trate de
resolver el problema mente-c uerpo. 10 Lo que sucede es más bien que la
posibilidad de construir mentes artificiales, no sólo en principio sino en la
práctica, plantearía una nueva forma de ver la problemática mente-­ ­ cuerpo. Y
es en este sentido que Searle trata de evidenciar que todo el proyecto de la
IA descansa en una separación entre mente y cerebro, la cual es nefasta para
su posible realización porque niega automáticamente la especificidad
biológica cerebral que tienen como base causal los fenómenos mentales. Pero
decir esto es lo mismo que decir que la IA niega de entrada, según Searle, que
las mentes son semánticas porque al afirmar que son formales como los
programas, está negando el fenómeno mismo de la intencionalidad, el cual se
define como un fenómeno esencialmente biológico. De esta forma, no sería
suficiente crear un ordenador que fuera funcionalmente equivalente a una
mente para crear una mente en sentido estricto: se tendría una simulación
irreal, pero no una duplicación real.

3. Críticas al argumento de Searle.


¿Qué dificultades plantea la posición desde la cual Searle niega la
posibilidad de la IA? En definitiva, ¿qué valor tiene su argumento? No nos
ocuparemos aquí de las réplicas que originalmente recibió el argumento de la
habitación china, aunque parte de los puntos que trataremos de
problematizar tengan tal vez alguna conexión con ellas.

10 La IA se halla muy emparentada con el funcionalismo de máquinas de Turing en el

sentido de no ser una teoría ontológica que se enfrente al problema mente-­ ­ cuerpo. Lo que
muestra el funcionalismo es la posibilidad de dar una explicación de los fenómenos
mentales que no tome en cuenta las especificaciones físicas del organismo que los posee.
En caso de que la IA resultara ser verdadera, lo que se mostraría con ello es que no hay
nada esencialmente físico que sea constitutivo y relevante para que algo pueda tener
mente.

11
Quizá el punto más criticado en torno al argumento presentado por Searle,
tiene que ver con el criterio que utiliza para no adscribirle mente a los
ordenadores que ejecutan un programa, a saber, la intencionalidad (como
fenómeno biológico/mental) en virtud de la cual las mentes son semánticas.
Para Searle la intencionalidad permite definir y hacer comprensibles
nociones semánticas como la de significado en términos de nociones
psicológicas como “creencia”, “deseo”, etc. Lo fundamental de este enfoque
es definir el concepto de significado en términos de entidades intencionales
que no son intrínsecamente lingüísticas o simbólicas. Con este enfoque se
niega de entrada que cualquier otra cosa que no posea poderes causales
similares o iguales a los del cerebro carece de intencionalidad y por ende,
de estados mentales y de semántica.

Pero, ¿se puede demostrar a priori, sobre esta base, que ninguna
manipulación sintáctica de símbolos puede generar contenidos semánticos?
¿Está establecida incontrovertiblemente la verdad de que lo semántico es
irreductible a lo sintáctico (axioma 3)? ¿Se puede demostrar que las mentes
son semánticas y no sintácticas (axioma 2)?

Para algunos, el argumento de Searle carece de fuerza demostrativa porque


Searle no da razones que permitan afirmar sin más los axiomas 2 y 3. Lo
que se le impugna es que se pueda saber a priori que un computador nunca
llegará a pensar si se asume de entrada que es imposible que lo sintáctico
dé lugar a lo semántico, y dada la forma de argumentar de Searle, que por
definición, sólo mecanismos como el cerebro o análogos a él, pueden ser
intencionales o semánticos.

Es posible que tal axioma [el axioma 3] sea verdadero, pero


Searle no puede lícitamente pretende saber que lo es. Además,
suponer su veracidad equivale a negar ""a priori"" y sin
fundamento el programa de investigación de la inteligencia artificial
clásica, un programa que resultó necesario a consecuencia de la muy
interesante hipótesis de que, si se consiguiera poner en movimiento
una danza interna de elementos sintácticos, adecuadamente
estructurada, y adecuadamente conectada con entradas y salidas,
se podrían producir los mismos estados cognitivos y los mismos
logros que hallamos en los seres humanos. " 11
11 CHURCHLAND, Paul y Patricia, ¿Podría pensar una máquina?, en: Investigación y

Ciencia, marzo, 1992, p. 21.

12
Para los Churchland, Searle comete una petición de principio al afirmar el
axioma 3 y no dar razones que justifiquen su aceptación porque, en opinión
de ellos, la conclusión del argumento de la habitación china es casi idéntica al
axioma en cuestión. En otras palabras, es posible que el axioma pueda ser
verdadero o pueda ser falso. Si esto es así, el axioma sería una verdad
empírica y el argumento de Searle no podría, por ende, ser a priori. Entonces,
la IA es posiblemente verdadera o posiblemente falsa, pero no
necesariamente falsa, como Searle cree.

Para hacer más patente el error que comete Searle (la falacia de petición de
principio) y la invalidez de su argumento, los Churchland diseñan un
argumento análogo: el argumento de la sala oscura. El argumento se
desarrolla de la siguiente forma:

Axioma 1. La electricidad y el magnetismo son fuerzas.


Axioma 2. La propiedad esencial de la luz es la luminancia.
Axioma 3. Las fuerzas, por sí mismas, ni son constitutivas de luz, ni
suficientes para ella.
Conclusión 1. La electricidad y el magnetismo no son ni constitutivas de luz
ni suficientes para ella.

De la manera similar a lo que sucede con el argumento de la sala china, una


persona ubicada en una sala oscura que agitase un imán produciría ondas
electromagnéticas, y en consecuencia, se produciría el fenómeno de la
luminancia. Pero es evidente que un imán no produce luminancia. Por lo
tanto, las fuerzas electromagnéticas no producen luminancia alguna. Pero
es claro que este argumento no es válido porque la luz y las ondas
electromagnéticas son idénticas. Y la razón de que sea inválido reside
precisamente en la circularidad y falsedad del axioma 3. Algo análogo sucede
con el axioma 3 y con el argumento de la habitación china, aunque los
Churchland no afirmen en este caso que el axioma 3 de Searle sea falso, sino
que es circular, con lo cual queda en entredicho la conclusión del
argumento, esto es, que Searle no puede negar la posibilidad de que la
manipulación sintáctica de símbolos no pueda llegar a producir semántica.
Para asegurar la verdad del axioma 3, habría que contar con un
conocimiento más adecuado de los fenómenos semánticos cosa que, según
los Churchland, Searle no posee y no lo capacita para sostener el axioma 3 y
rechazar la plausiblidad de la IA fuerte.

13
Searle responde a la anterior crítica manifestando que el argumento que se
presenta como análogo al de sala china descansa sobre el supuesto de que
los dos casos son verdaderamente análogos cuando en realidad no lo son.
Mientras que en el caso de la sala oscura la analogía se apoya sobre una
descripción causal de la luz (como radiación electromagnética), en el caso de
la sala china se apoya sobre el carácter sintáctico o simbólico-formal de los
programas. Pero los símbolos formales carecen de poderes causales (tesis de
la independencia del medio), por lo tanto es absurdo pretender que una
investigación posterior de la IA superará la brecha que separa lo semántico
de lo sintáctico, 12 poniendo de presente las propiedades físicas de los
símbolos que demostrará que la semántica es reductible a la sintaxis. En este
sentido, la axioma 3 no es una tesis empírica, sino una verdad lógica.

Los Churchland se quejan de que ""incurro en petición de


principio"" cuando afirmo que los símbolos formales no
interpretados no son idénticos a contenidos mentales. Es cierto,
desde luego, que no invertí el menor tiempo en justificar esta
afirmación, pues la tomo por una verdad lógica. 13

Para probar indirectamente que el axioma 3 es una genuina verdad lógica,


Searle propone que se examine su negación. Si por esta vía llegamos a una
contradicción, esto quiere decir que el axioma es verdadero. Supóngase que
en la sala china se producen de hecho contenidos semánticos o mentales en
chino a primera vista indetectables (como en el caso de la luz producida por
radiación a través del imán). Ahora bien, ¿qué es lo que permite pasar de lo
sintáctico a lo semántico? (En esto consiste la negación del axioma 3). ¿Qué
es lo que permite que la manipulación sintáctica de símbolos produzca

12 Recuérdese que lo que le interesa refutar a Searle no es una cuestión empírica, sino

conceptual: el proyecto mismo de la IA de diséñar programas que piensen, el cual se


apoya en la tesis de la independencia del medio físico en el que el programa se ejecuta.
En este sentido, para Searle no abría una brecha que superar por medios empíricos,
puesto que en eso no consiste el proyecto original de la IA. La IA no propone que la
inteligencia o la mente emane del medio físico en el que se realiza el programa; la
inteligencia es el programa mismo.
13 SEARLE, J., ""¿Es la mente un programa infórmatico?"", p. 15.

14
contenidos mentales chinos? Se supone que los programadores hablan chino y
diseñaron el programa para que procesara información en chino. Esto quiere
decir que supuestamente la semántica intrínseca al sistema está definida y que
no se puede dar el caso que los contenidos semánticos varíen. O el sistema es
semántico o no lo es, es sintáctico (no interpretado y formal) o semántico
(interpretado y con contenido). Supóngase ahora que el ordenador o la
persona que está dentro de la sala decide interpretar los símbolos y darles un
significado determinado, esto es, decide pasar de la sintaxis a la semántica.
¿Qué sucede en este caso?

Imaginemos que decido interpretar que los símbolos se refieren


a jugadas de una partida de ajedrez. ¿Qué semántica está
produciendo ahora el sistema? ¿Está entregando semántica china,
semántica ajedrecística o ambas a la vez? Supongamos que haya
una tercera persona mirando por la ventana, y que esta persona
llega a la conclusión de que mis manipulaciones de símbolos
pueden interpretarse como predicciones para el mercado de
valores. Y así sucesivamente. 14

Para Searle la inconsistencia de suponer que el axioma 3 es falso es patente.


Es imposible suponer que el sistema tenga una semántica intrínseca porque
es factible, en virtud del carácter formal de los símbolos con los que opera
el sistema, conferirles a ellos innumerables interpretaciones posibles. El
sistema no puede producir semántica china porque carece de una semántica
intrínseca. En consecuencia, el axioma 3 es lógica y no empíricamente
verdadero: la sintaxis no es constitutiva de semántica. La cuestión, como
sugiere Searle, no consiste en definir de manera diferente los términos
“sintaxis” y “semántica”, sino en comprender que existen elementos
formales, como los símbolos, que carecen de contenido intrínseco, y
fenómenos mentales que sí poseen contenido intrínseco. Para Searle, el
contraargumento de los Churchland falla y la IA sigue siendo tan imposible
en principio como antes.

No obstante, los Churchland hacen una observación interesante que parece


ser el talón de Aquiles del argumento de Searle y que permite ver otro modo
de criticarlo. Comentando la conclusión del argumento de la habitación china
de que es imposible duplicar la inteligencia dada la imposibilidad de generar

14 Ibid., p. 15-­ ­ 16.

15
contenidos semánticos a partir de una sintaxis formal como la de un programa, los
Churchland afirman:

En este punto, deberíamos señalarlo, Searle está imponiendo


un criterio no conductista para la consciencia, a saber: que los
elementos de la inteligencia consciente han de poseer contenido
semántico real. 15

Para Searle, el test conductista de Turing no constituye, como lo muestra el


argumento de la habitación china, un criterio sólido y confiable para
establecer realmente que algo posee mente y pensamiento. No es suficiente
con que algo se comporte como si poseyera estados mentales para inferir que
sí posee esos estados mentales. Si es posible que algo se comporte como si
tuviera inteligencia, pero se demostrara por otros medios que de hecho no la
posee, entonces el test de Turing no es un criterio infalible para determinar la
posesión de estados mentales. Y esto es precisamente lo que el argumento
de Searle demuestra. Pero esto implica que Searle debe establecer y utilizar
criterios distintos para determinar la posesión de estados mentales porque,
de lo contrario, su argumentación en contra de la IA no sería ni siquiera
posible. Precisamente el criterio que utiliza la IA para establecer que una
máquina posee inteligencia es el criterio conductista de Turing. ¿Podría
haber otra manera de saber que una máquina que ejecuta un programa
piensa? Es imposible que para la IA exista un criterio materialista de
inteligencia, pues está descartado que el medio físico en el que se lleva a
cabo la instanciación del programa sea relevante. La IA no podría decir que
algo piensa en virtud de que el ordenador es, por ejemplo, de silicio.
Tampoco sería coherente que la IA planteara un criterio dualista para
demostrar que las máquinas piensan. Así, no parece posible que la IA
encuentre otro criterio distinto para probar la posesión de inteligencia que
la prueba de Turing.

Ahora bien, ¿existe para el caso de los seres humanos una prueba que
permita establecer que poseen estados mentales? Para Searle está fuera de
toda duda que existen estados mentales y que éstos están causados por el
cerebro. Por lo tanto, para Searle no sería necesario aplicarle el test de Turing
a una persona para determinar que tiene una mente y que ella cumple
diversas funciones. El test está diseñado para ser aplicado a máquinas,

15 CHURCHLAND, Patricia y Paul, art. cit., p. 21. Las cursivas son mías.

16
porque está fuera de toda duda que la gente piensa, siente y experimenta
otros estados mentales. Si esto no fuera así, el mismo proyecto de la IA
carecería de sentido, pues, lo que ella pretende justamente es duplicar la
inteligencia humana.

Pero todavía es posible preguntar, ¿existe un criterio no conductual para


probar que las mentes son sintácticas y no semánticas? Searle cree tenerlo
cuando postula la intencionalidad intrínseca de los estados mentales que hace
que éstos puedan ser diferenciados claramente de estados intencionalmente
no intrínsecos como sucede en el caso de un sistema simbólico. Searle cree
que con la intencionalidad está descartada la hipótesis fundamental de la
IA fuerte, esto es, que pensar es mera manipulación de símbolos. Pero, ¿qué
tan válida es la explicación de Searle de la intencionalidad? Es claro que si no
es posible determinar que algo posee estados mentales sin apoyarse en
criterios conductuales, no es factible demostrar la falsedad de la IA. De hecho,
la prueba de Turing es un criterio empírico que la argumentación a priori de
Searle se encarga de rechazar como insuficiente para los fines que se
propone. Searle plantea una explicación causal y biológica para el fenómeno
de la intencionalidad. Y este parece ser el punto desde el cual Searle puede
ser criticado.

A propósito de quienes sostienen argumentaciones a priori en contra de la


IA, entre las que se incluye, por supuesto la de Searle, Haugeland afirma
que tienen el siguiente esquema de argumentación:

1. nada podría ser inteligente sin X [por algo X]; pero


2. ningún sistema BAIA podría tener jamás X; por lo tanto
3. ningún sistema BAIA podría ser jamás inteligente. 16

En este esquema de argumentación la X puede ser reemplazada por una


gama de entidades como la conciencia, la personalidad, la creatividad, etc.
En el caso de Searle, la X se interpreta como la Intencionalidad intrínseca o
significación original. Para Haugeland, lo que Searle hace es asumir la
premisa 1 sin dar razones, mientras que para la premisa 2 sí se ocupa de
elaborar una defensa a través de ejemplos (como el de la habitación china).

16 HAUGELAND, J., Op. cit., p. 234. ""BAIA es la abreviatura de lo que el autor denomina

como Buena y Anticuada Inteligencia Artificial.

17
En este sentido, se puede interpretar lo que Haugeland dice como que lo que
Searle defiende es que sólo el cerebro o entidades con propiedades causales
análogas a él poseen la propiedad de la intencionalidad, la cual permite
explicar por qué en el caso de las mentes vale, por definición, que lo
sintáctico no es constitutivo ni suficiente para producir contenidos
semánticos. Pero si la intencionalidad depende de una explicación empírica
que podría resultar falsa, entonces Searle no puede asegurar con plena
certeza que otros mecanismos no pueden tener intencionalidad. Además la
explicación que Searle da de la intencionalidad no muestra en detalle por
qué los cerebros causan los estados mentales. Dicho de otra manera, Searle
debe dar una solución al problema mente-cuerpo que no deje enigmas sin
resolver. Si eso no sucede, la intencionalidad sería una propiedad misteriosa
e insuficientemente explicada, lo cual entrañaría que Searle no está
justificado para negar a priori que un mecanismo no biológico no puede
tener estados mentales. 17

Suponiendo que Searle no pueda establecer criterios a priori y no


conductuales para determinar que las mentes son esencialmente semánticas,
la hipótesis fundamental de la IA de que pensar es lo mismo que manipular
símbolos podría resultar ser verdadera. Si se intentara establecer
conductualmente que la mente maneja una semántica y no una mera
sintaxis, se pondría de manifiesto que por esta vía tal cuestión resulta difícil
de resolver. Se podría inferir a partir de la observación de la conducta de
una persona que ésta es inteligente, 18 pero sería bastante difícil determinar

17 Searle parece ser consciente de las limitaciones que tiene su explicación de la


Intencionalidad. No obstante, no niega que se pueda seguir hablando de Intencionalidad:
""Mi propia suposición especulativa, y en el estado actual de nuestro conocimiento de
neurofisiología solo puede ser una especulación, es que si llegamos a comprender el
modo de operar del cerebro para producir Intencionalidad, es probable que sea de
acuerdo con principios bastante diferentes de los que ahora empleamos, tan diferente
como lo son los principios de la mecánica cuántica de los principios de la mecánica
newtoniana; pero cualesquiera principios, para dar una explicación adecuada del cerebro,
tendran que reconocer la realidad de, y explicar las capacidades causales de, la
Intencionalidad del cerebro. Intencionalidad. Un ensayo en la filosofía de la mente., ed. cit., p.
276.
18 Dado que el test de Turing es conductual, su uso está por ende sujeto a las mismas

críticas hechas al conductismo. No es claro qué conductas definen ciertos estados


mentales ni que confiabilidad pueden tener las equivalencias que se logren establecer
entre conductas observadas y estados mentales de una máquina o de un individuo.

18
que su comportamiento inteligente no obedece necesariamente al hecho de
que sus estados mentales tengan un contenido o sean semánticos. Como es
posible que no sea así, la hipótesis de la IA de que esos procesos son
simbólicos es factible.

Como lo sugiere Haugeland, todo el esfuerzo de la IA consiste en tratar de


explicar cómo un sistema de símbolos puede tener estados cognitivos, esto
es, cómo se puede explicar el misterio del significado original (o
intencionalidad en el lenguaje de Searle) en términos de manipulación
mecánica de símbolos. Pero obviamente asumir una hipótesis con fines
heurísticos no asegura el éxito de la IA. Sería igualmente erróneo suponer a
priori que la IA es posible, como igualmente equivocado suponer a priori que
no lo es. La respuesta sólo la dará el futuro. Pero lo que sí es evidente es la
enorme tarea que se le plantea a la IA dada la naturaleza del ambicioso
objetivo que tratan de conseguir: construir mentes, no simularlas. Pero para
eso hay que ser muy conscientes de la complejidad de la inteligencia
humana. Negar esto es quitarle sentido a la tarea de la IA, a la filosofía y al
sentido de lo humano.

19

Você também pode gostar