Escolar Documentos
Profissional Documentos
Cultura Documentos
Jorge Sierra
Docente- investigador
Universidad Autónoma de Colombia
Facultad de Ciencias Humanas
Carrera de filosofía
Introducción
Sin lugar a dudas, la aparición y el desarrollo de la teoría de la computación
se ha constituido en uno los elementos más revolucionarios en las
modernas discusiones acerca de la naturaleza de la mente. El uso del
computador como modelo para comprender, explicar y simular aspectos de la
inteligencia humana ha permitido plantear de una manera nueva problemas
clásicos acerca de la naturaleza y funciones de la mente humana. Si bien es
cierto que desde la antigüedad han existido planteamientos fantasiosos
acerca de la posibilidad de construir máquinas inteligentes para muchos
teóricos, hoy por hoy, la cuestión ha dejado de ser un mero sueño.
1
Ante el innegable avance en materia de computación, la respuesta a la
pregunta de si un artefacto puede pensar en el mismo sentido en que se afirma
que los seres humanos piensan, no admite una respuesta en contra tan
sencilla y concluyente como antes. Para muchos, la inteligencia artificial y la
ciencia cognitiva son planteamientos que, pese a sus limitaciones actuales, no
pueden ser ignorados como respuestas posiblemente válidas en la
comprensión del fenómeno de la inteligencia y de la mente.
1 SEARLE, John., Mentes, cerebros y ciencia, Madrid, Cátedra, 1985, p. 36. Es importante
señalar que la razón de que el argumento de Searle sea de carácter a priori tiene que ver con
el hecho de que su refutación pretende ser concluyente. Para ello es importante que su
argumento sea válido independientemente de cualquier desarrollo tecnológico posible que,
como tal, es un asunto meramente empírico. Que los computadores puedan pensar no es
pues una cuestión empírica, sino más bien conceptual, que parte de la definición misma
de lo que es un computador. Mientras esa definición siga siendo la misma, esto es, mientras
el proyecto de la IA siga estando apoyado en la noción de inteligencia como manipulación
formal de símbolos, tal ciencia, según Searle, estará condenada al fracaso.
2
El presente trabajo tiene como objetivo central realizar un análisis del
argumento de Searle, tratando de problematizar algunos puntos que
permitan arrojar alguna luz sobre su validez o invalidez. En primer lugar,
daremos una caracterización global del proyecto de la IA. Después,
miraremos el argumento de Searle en contra de dicho proyecto, aportando
algunos elementos críticos en torno a su noción de intencionalidad.
Finalmente, consideraremos algunas objeciones presentadas a dicho
argumento.
1. La inteligencia artificial
De manera general, la IA es un intento ambicioso por construir máquinas
que piensen, no en sentido metafórico o como una burda imitación de la
inteligencia humana, sino en un sentido literal.
3
Finalmente, la IA hace suyo el test de Turing como criterio para establecer bajo
qué condiciones estamos justificados para sostener que algo piensa o no, dado
lo problemático de dar una definición precisa y rigurosa de qué se entiende por
inteligencia. La prueba de Turing es un criterio eminentemente conductual
que permite, en caso de ser superada por una máquina, sostener que ella posee
inteligencia. Consiste básicamente en que si un computador puede
comportarse de modo tal que un evaluador experto no puede distinguir su
actuación de la de un ser humano inteligente, entonces el ordenador deberá
ser también inteligente. Tal prueba se lleva a cabo a través de preguntas hechas
por el experto y respuestas dadas por la persona y la máquina. 3
¿Qué es exactamente lo que le interesa refutar a Searle? Dado que lo que interesa
refutar a Searle no es el enunciado sin más “Las máquinas piensan o tienen mente”
3 ""¿Cómo vamos a definir la inteligencia? ¿No es cierto que todo se centra en eso? Puede
parecer extraño, pero esta cuestión en realidad se trata muy poco. Para fines prácticos, un
criterio propuesto por Alan Turing satisface a casi todo el mundo."" HAUGELAND, J., Op.
cit., p. 13.
4 Originalmente el argumento de Searle iba dirigido en contra de Roger Schank, quien
débil que no se halla presente en el artículo de 1980. A este respecto ver: Mentes, cerebros y
ciencia, ed., cit., cap. 3.
4
sino más bien el enunciado “Pensar o tener mente es lo mismo que ejecutar un
programa informático”, es preciso explicar la diferencia entre ambos
enunciados. En un sentido trivial, afirma Searle, hay máquinas que piensan si
por ello se entiende un sistema material específico que sea capaz de
desempeñar funciones cognitivas. Tales máquinas serían los seres humanos
en tanto que ellos son máquinas biológicas. Otro sentido que se le puede dar
al primer enunciado mencionado antes tendría que ver con la cuestión
empírica de construir máquinas no necesariamente biológicas que puedan
pensar, esto es, máquinas fabricadas con materiales distintos a los del
cerebro. Pero como sucede con cualquier cuestión empírica, es imposible
determinar a priori su imposibilidad: sencillamente no lo sabemos
actualmente. Lo que afirman los defensores de la IA fuerte no es ninguna de
las anteriores interpretaciones dadas a la cuestión de si las máquinas piensan
o lo pueden hacer. La interpretación que ellos le dan a esta cuestión es la
siguiente:
6 SEARLE, J., ""¿Es la mente un programa informático?, en: Investigación y Ciencia, marzo,
5
El argumento de la habitación china pretende, pues, jugar con los mismos
elementos que pone juego la IA fuerte: programas simbólico- formales,
independencia del medio físico y test de Turing. Si se puede demostrar en un
caso específico, tal como la capacidad intelectual para comprender un
idioma, que la ejecución de un programa informático no implica ningún
proceso mental de inteligencia, entonces la tesis de la IA de que la mente es
un programa es falsa. Dada la independencia del medio físico, tal
instanciación puede ser realizada por un agente humano.
6
Lo dicho para el chino vale igual para otras formas de cognición. La
mera manipulación de símbolos no basta, por sí misma, para garantizar
cognición, percepción, comprensión, pensamiento, y así sucesivamente.
Y dado que los ordenadores, en su cualidad de tales, son dispositivos de
manipulación de símbolos, la mera ejecución del programa no basta
para garantizar la cognición."7
Si el rasgo que permite diferenciar las mentes de los ordenadores es que las
primeras tienen una propiedad (la semántica) que los últimos son incapaces
de tener (axioma 2) por constar sólo de sintaxis (axioma 1), la cual es
insuficiente para ""generar"" contenidos semánticos (axioma 3), es
importante tratar de ver lo que implican los axiomas 2 y 3. En especial, es
7 Ibid., p. 11.
7
fundamental tratar de aclarar qué quiere decir que las mentes son semánticas y
qué justifica tal afirmación. Para Searle hablar de semántica o contenido implica
hablar necesariamente de la intencionalidad de la mente. Los estados mentales
tiene un contenido en virtud de la Intencionalidad, que Searle define como:
8
Lo anterior permite darle un sentido más preciso a los axiomas 2 y 3 del
argumento de Searle. Por un lado, Searle establece una diferencia entre tener
una intencionalidad intrínseca y tener una intencionalidad derivada.
Cualquier sistema simbólico sólo puede exhibir una intencionalidad
únicamente en virtud de estados mentales intencionalmente intrínsecos. Es
en este sentido profundo que lo sintáctico no puede hacer referencia a nada
o tener un contenido semántico sin el auxilio de lo intencional. Una mera
manipulación de símbolos no genera estados mentales o contenidos, pues la
intencionalidad es la que le confiere sentido a esos símbolos. Invertir esta
relación (esto es, que los símbolos formales generarían de alguna manera
contenidos mentales) dejaría sin explicar cómo algo no significativo puede
generar semántica y referirse al mundo. El hecho de que los estados
mentales puedan referirse o estar dirigidos al mundo depende del carácter
intencional de la mente.
9
conocidos produzcan inteligencia consciente. Searle no niega está posibilidad.
Lo que en el fondo está cuestionando Searle a la IA es la tesis de que la
especificidad del medio en el que acontecen los fenómenos mentales sí es
relevante (la relación mente- cerebro como la entiende Searle es un ejemplo de
ello). De ahí que la duplicación de procesos cognitivos excede los objetivos de
la IA fuerte, pues para que se dé tal duplicación debe tenerse en cuenta sus
aspectos biológicos. Mientras la IA se siga moviendo dentro de la concepción
formal (no física) de la mente, sólo logrará simular computacionalmente la
inteligencia humana que, pese a aprobar todos los criterios conductuales de la
prueba de Turing, no producirá inteligencia en sentido estricto. La razón de
esta limitación radica en que un sistema informático de símbolos no posee
poderes causales (cosa que sí posee el cerebro) que haga posible que tener
estados mentales y ejecutar un programa puedan ser definitivamente lo
mismo.
10
utilidad puede tener una distinción conceptual cuando lo que se busca es crear
mentes bajo la forma de programas que no contienen, por sí mismos, ninguna
especificación del medio en que se los puede ejecutar. Si esto es así, la IA
fuerte es una teoría tan problemática como el dualismo clásico, una ontología
en sentido pleno.
sentido de no ser una teoría ontológica que se enfrente al problema mente- cuerpo. Lo que
muestra el funcionalismo es la posibilidad de dar una explicación de los fenómenos
mentales que no tome en cuenta las especificaciones físicas del organismo que los posee.
En caso de que la IA resultara ser verdadera, lo que se mostraría con ello es que no hay
nada esencialmente físico que sea constitutivo y relevante para que algo pueda tener
mente.
11
Quizá el punto más criticado en torno al argumento presentado por Searle,
tiene que ver con el criterio que utiliza para no adscribirle mente a los
ordenadores que ejecutan un programa, a saber, la intencionalidad (como
fenómeno biológico/mental) en virtud de la cual las mentes son semánticas.
Para Searle la intencionalidad permite definir y hacer comprensibles
nociones semánticas como la de significado en términos de nociones
psicológicas como “creencia”, “deseo”, etc. Lo fundamental de este enfoque
es definir el concepto de significado en términos de entidades intencionales
que no son intrínsecamente lingüísticas o simbólicas. Con este enfoque se
niega de entrada que cualquier otra cosa que no posea poderes causales
similares o iguales a los del cerebro carece de intencionalidad y por ende,
de estados mentales y de semántica.
Pero, ¿se puede demostrar a priori, sobre esta base, que ninguna
manipulación sintáctica de símbolos puede generar contenidos semánticos?
¿Está establecida incontrovertiblemente la verdad de que lo semántico es
irreductible a lo sintáctico (axioma 3)? ¿Se puede demostrar que las mentes
son semánticas y no sintácticas (axioma 2)?
12
Para los Churchland, Searle comete una petición de principio al afirmar el
axioma 3 y no dar razones que justifiquen su aceptación porque, en opinión
de ellos, la conclusión del argumento de la habitación china es casi idéntica al
axioma en cuestión. En otras palabras, es posible que el axioma pueda ser
verdadero o pueda ser falso. Si esto es así, el axioma sería una verdad
empírica y el argumento de Searle no podría, por ende, ser a priori. Entonces,
la IA es posiblemente verdadera o posiblemente falsa, pero no
necesariamente falsa, como Searle cree.
Para hacer más patente el error que comete Searle (la falacia de petición de
principio) y la invalidez de su argumento, los Churchland diseñan un
argumento análogo: el argumento de la sala oscura. El argumento se
desarrolla de la siguiente forma:
13
Searle responde a la anterior crítica manifestando que el argumento que se
presenta como análogo al de sala china descansa sobre el supuesto de que
los dos casos son verdaderamente análogos cuando en realidad no lo son.
Mientras que en el caso de la sala oscura la analogía se apoya sobre una
descripción causal de la luz (como radiación electromagnética), en el caso de
la sala china se apoya sobre el carácter sintáctico o simbólico-formal de los
programas. Pero los símbolos formales carecen de poderes causales (tesis de
la independencia del medio), por lo tanto es absurdo pretender que una
investigación posterior de la IA superará la brecha que separa lo semántico
de lo sintáctico, 12 poniendo de presente las propiedades físicas de los
símbolos que demostrará que la semántica es reductible a la sintaxis. En este
sentido, la axioma 3 no es una tesis empírica, sino una verdad lógica.
12 Recuérdese que lo que le interesa refutar a Searle no es una cuestión empírica, sino
14
contenidos mentales chinos? Se supone que los programadores hablan chino y
diseñaron el programa para que procesara información en chino. Esto quiere
decir que supuestamente la semántica intrínseca al sistema está definida y que
no se puede dar el caso que los contenidos semánticos varíen. O el sistema es
semántico o no lo es, es sintáctico (no interpretado y formal) o semántico
(interpretado y con contenido). Supóngase ahora que el ordenador o la
persona que está dentro de la sala decide interpretar los símbolos y darles un
significado determinado, esto es, decide pasar de la sintaxis a la semántica.
¿Qué sucede en este caso?
15
contenidos semánticos a partir de una sintaxis formal como la de un programa, los
Churchland afirman:
Ahora bien, ¿existe para el caso de los seres humanos una prueba que
permita establecer que poseen estados mentales? Para Searle está fuera de
toda duda que existen estados mentales y que éstos están causados por el
cerebro. Por lo tanto, para Searle no sería necesario aplicarle el test de Turing
a una persona para determinar que tiene una mente y que ella cumple
diversas funciones. El test está diseñado para ser aplicado a máquinas,
15 CHURCHLAND, Patricia y Paul, art. cit., p. 21. Las cursivas son mías.
16
porque está fuera de toda duda que la gente piensa, siente y experimenta
otros estados mentales. Si esto no fuera así, el mismo proyecto de la IA
carecería de sentido, pues, lo que ella pretende justamente es duplicar la
inteligencia humana.
16 HAUGELAND, J., Op. cit., p. 234. ""BAIA es la abreviatura de lo que el autor denomina
17
En este sentido, se puede interpretar lo que Haugeland dice como que lo que
Searle defiende es que sólo el cerebro o entidades con propiedades causales
análogas a él poseen la propiedad de la intencionalidad, la cual permite
explicar por qué en el caso de las mentes vale, por definición, que lo
sintáctico no es constitutivo ni suficiente para producir contenidos
semánticos. Pero si la intencionalidad depende de una explicación empírica
que podría resultar falsa, entonces Searle no puede asegurar con plena
certeza que otros mecanismos no pueden tener intencionalidad. Además la
explicación que Searle da de la intencionalidad no muestra en detalle por
qué los cerebros causan los estados mentales. Dicho de otra manera, Searle
debe dar una solución al problema mente-cuerpo que no deje enigmas sin
resolver. Si eso no sucede, la intencionalidad sería una propiedad misteriosa
e insuficientemente explicada, lo cual entrañaría que Searle no está
justificado para negar a priori que un mecanismo no biológico no puede
tener estados mentales. 17
18
que su comportamiento inteligente no obedece necesariamente al hecho de
que sus estados mentales tengan un contenido o sean semánticos. Como es
posible que no sea así, la hipótesis de la IA de que esos procesos son
simbólicos es factible.
19