Você está na página 1de 17

MENTES, CREBROS E PROGRAMAS

John Rogers Searle


(1932- )
(University of California, Berkeley)

Original: SEARLE, J. (1981), Minds, brains, and programs, Behavioral and Brain
Sciences 3: 417-57.
Uma verso preliminar do artigo est disponvel online em:
http://citeseerx.ist.psu.edu/viewdoc/download;jsessionid=5322AF285B05EC8E53E67A
B168D086AD?doi=10.1.1.83.5248&rep=rep1&type=pdf&ei=N3CgTY2zOcaltweWgdn
0Ag&usg=AFQjCNEPvV8Ag3nymDPLcOX5wcpyID9BJA
O presente texto uma reimpresso da traduo feita por Cla Regina de Oliveira
Ribeiro (Escola de Enfermagem de Ribeiro Preto, USP), publicada em TEIXEIRA, J.F.
(org.) (1997), Mentes, Mquinas e Conscincia: uma introduo filosofia da mente,
Editora UFSCar, So Carlos, pp. 61-94. e disponvel no stio Filosofia da Mente no
Brasil:
http://www.filosofiadamente.org/images/stories/textos/mentes.doc .

Reimpresso preparada por Osvaldo Pessoa Jr. para a disciplina


TCFC3 Filosofia das Cincias Neurais, FFLCH-USP, So Paulo, 2011.

MENTES, CREBROS E PROGRAMAS


John Searle

Distingo entre Inteligncia Artificial no sentido forte e no sentido fraco.(*) De


acordo com a IA no sentido forte, computadores adequadamente programados
literalmente tm estados cognitivos, e, assim sendo, programas so teorias psicolgicas.
Argumento que a IA no sentido forte deve ser falsa, uma vez que um agente humano
poderia instanciar um programa e, mesmo assim, no ter estados mentais. Examinarei
alguns argumentos contra esta afirmao e explorarei algumas conseqncias do fato de
que o crebro de seres humanos e de animais so a base causal da existncia de
fenmenos mentais.
Que significado psicolgico e filosfico devemos atribuir aos esforos feitos
recentemente para simular capacidades cognitivas humanas atravs do computador?
Para responder esta questo considero til distinguir entre o que denomino de IA no
sentido "forte" e IA no sentido "fraco" ou "cautelosa". De acordo com a IA no sentido
fraco, o principal valor do computador para o estudo da mente reside no fato de que este
nos fornece uma ferramenta extremamente poderosa. Por exemplo, ele nos permite
formular e testar hipteses de maneira mais rigorosa e precisa do que antes. Mas de
acordo com a IA no sentido forte, o computador no meramente um instrumento para
o estudo da mente. Muito mais do que isso o computador adequadamente programado
uma mente, no sentido de que, se lhe so dados os programas corretos pode-se dizer que
eles entendem e que eles tm outros estados cognitivos. Conforme a IA no sentido forte,
uma vez que o computador programado tem estados cognitivos, os programas no so
meros instrumentos que nos capacitam testar explicaes psicolgicas : os programas
constituem as prprias explicaes. No tenho objees a IA no sentido fraco, pelo
menos no que diz respeito ao escopo deste artigo. Minha discusso ser dirigida s
afirmaes que defini como caracterizando a IA no sentido forte, especificamente a
idia de que computadores adequadamente programados tm estados cognitivos e que
os programas, a partir disso, explicam a capacidade cognitiva humana. Quando eu me
referir a IA estarei considerando a IA no sentido forte, definida atravs das duas
afirmaes acima.
Analisarei o trabalho de Roger Schank e seus colegas em Yale (Cf. Schank and
Abelson, 1977), porque estou mais familiarizado com ele do que com outros trabalhos
semelhantes. Alm do mais, ele fornece um exemplo claro do tipo de trabalho que
desejo examinar. Mas nada do que apresento a seguir depende de detalhes do programa
de Schank. Os mesmos argumentos se aplicariam ao programa de Winograd (1972),
SHRDLU, o programa de Weizembaum ELIZA (1965) e a qualquer simulao de
fenmenos mentais humanos baseada na mquina de Turing.
Deixando de lado vrios detalhes, pode-se descrever o programa de Schank da
seguinte maneira: seu objetivo simular a habilidade humana de compreenso de
histrias. caracterstico na habilidade dos seres humanos para compreender histrias
que estes possam responder questes sobre elas, mesmo se a informao no estiver
explicitamente dada no texto. Neste caso, por exemplo, suponha que seja fornecida a
seguinte histria:
(1)

N. do Tradutor: o termo "Inteligncia Artificial" ser abreviado, daqui em diante por IA.
1

"Um homem foi a um restaurante e pediu um hambrguer. Quando o


hambrguer chegou, estava torrado, e o homem furioso saiu esbravejando do restaurante
sem pagar e nem deixar gorjeta".
Ora, se a seguinte questo for formulada: "O homem comeu o hambrguer?",
voc presumivelmente responder: "No, ele no comeu". Da mesma maneira, se for
dada a seguinte histria:
"Um homem foi a um restaurante e pediu um hambrguer; ao chegar o pedido
ficou bastante satisfeito e na hora de ir embora deu uma boa gorjeta garonete antes de
pagar sua conta".
Se a seguinte questo for formulada: "O homem comeu o hambrguer?" Voc
certamente responder: "Sim, ele comeu o hambrguer". Ora, a mquina de Schank
pode responder a questes deste tipo sobre restaurantes. Para poder fazer isto ela tem a
"representao" do tipo de informao que os seres humanos tm sobre restaurantes, o
que a torna capaz de responder tais questes quando tais tipos de histria lhe so
apresentadas. Quando se fornece uma histria para a mquina e se formula uma questo,
a mquina imprimir respostas do mesmo tipo que esperaramos de seres humanos.
Partidrios da IA no sentido forte afirmam desta seqncia pergunta-resposta, que no
somente a mquina est simulando uma habilidade humana mas tambm que:
a) A mquina compreende a histria e fornece respostas s questes,
b) O que a mquina e seu programa fazem explica a habilidade humana para
entender histrias e responder questes sobre elas.
As afirmaes (A) e (B) parecem totalmente insustentveis a partir do trabalho
de Schank, como tentarei mostrar no que se segue.(1)
Uma maneira para testar qualquer teoria da mente perguntar a algum o que
aconteceria se sua prpria mente de fato funcionasse sob os princpios que a teoria diz
que toda mente funciona. Vamos aplicar este teste ao programa de Schank com o
seguinte Gedankenexperiment (**). Suponha que estou trancado em um quarto e suponha
que me do um calhamao de papel com um texto em chins. Alm disso, suponha que
eu no conhea o idioma chins, nem escrito nem falado, e que eu no seja sequer capaz
de reconhecer a escrita chinesa, ou seja, distingu-la, por exemplo, da escrita japonesa
ou de rabiscos sem significado. Suponha, agora, que alm deste primeiro calhamao
fornecem-me - tambm em chins - um segundo, contendo um roteiro com um conjunto
de regras para correlacionar o segundo texto com o primeiro. As regras so em ingls e
eu as compreendo to bem como qualquer outro falante nativo de ingls. Isto me
possibilita relacionar um conjunto de smbolos formais com o outro, e o que entendo
por formal aqui que posso identificar os smbolos por seu formato. Nestas
circunstncias, imagine tambm que me forneam um terceiro calhamao contendo
smbolos em chins junto com algumas instrues, outra vez em ingls, as quais me
possibilitaro correlacionar elementos deste terceiro mao com os dois primeiros; estas
regras me instruem a como relacionar determinados smbolos em chins com certos
tipos de configurao e os devolver como resposta a determinadas configuraes dadas
no terceiro calhamao. Sem que eu saiba, as pessoas que me fornecem os textos com os
referidos smbolos, denominam o primeiro bloco de "roteiro", o segundo, de "histria" e
o terceiro de "questes". Ademais, eles intitulam os smbolos devolvidos em resposta ao

1) No estou dizendo, claro, que o prprio Schank est comprometido com essas afirmaes.

(**

) O termo alemo Gedankenexperiment significa "experimento mental" um recurso filosfico onde se


imagina uma situao possvel, que no contraria possibilidades fsicas e lgicas e da qual podemos
extrair conseqncias conceituais importantes.
2

terceiro mao de "respostas s questes", e o conjunto de regras em ingls de


"programa". Para complicar a histria um pouquinho mais, imagine que estas pessoas
tambm me forneam histrias em ingls, as quais eu compreendo, e ento elas me
fazem questes em ingls sobre estas histrias, e eu as devolvo respondendo em ingls.
Suponha, ainda, que depois de um tempo eu me saia to bem ao seguir as instrues
para manipulao dos smbolos em chins e que os programadores consigam escrever
to bem os programas que do ponto de vista externo - isto , do ponto de vista de
algum que esteja do lado de fora do quarto no qual eu estou trancado - minhas
respostas s questes so indistinguveis de falantes nativos de chins. Ningum
observando minhas respostas pode dizer que eu no falo uma palavra de chins. Vamos
tambm supor que minhas respostas s questes em ingls so indistinguveis de outro
falante nativo de ingls - pela simples razo de que eu sou um falante nativo de ingls.
Do ponto de vista externo, - na viso de algum que l minhas respostas, - as respostas
em chins e em ingls so igualmente satisfatrias. Mas no caso do idioma chins, eu
obtenho respostas manipulando smbolos formais em chins, sem significao. No que
diz respeito ao chins, eu simplesmente me comportei como um computador; executei
operaes computacionais com base em elementos formalmente especificados. Para os
propsitos do idioma chins, eu sou simplesmente uma instanciao de um programa de
computador.
Assim sendo, as afirmaes feitas pela IA no sentido forte so de que um
computador programado entende as histrias e que o programa, em algum sentido,
explica a compreenso humana. Estamos agora em posio de examinar claramente
estas afirmaes no nosso experimento mental.
a) Considerando a primeira afirmao, parece bvio no exemplo acima, que eu
no compreendo uma palavra das histrias em chins. Eu tenho inputs e outputs que so
indistinguveis para os falantes nativos de chins e mesmo que eu tenha qualquer
programa formal, ainda assim eu no compreendo nada. Pelas mesmas razes, o
computador de Schank no compreende nada das histrias, sejam elas em chins, em
ingls, ou em qualquer outro idioma. No caso do idioma chins eu desempenho o papel
do computador, e nos casos onde no desempenho tal papel, o computador no faz nada
alm do que eu poderia fazer, ou seja, em ambas as situaes no h compreenso.
b) Com relao a segunda afirmao - que o programa explica a compreenso
humana - podemos verificar que o computador e seu programa no fornecem as
condies suficientes para a compreenso, visto que o computador e o programa esto
funcionando e no existe compreenso. Mas ser que ele fornece uma condio
necessria ou uma contribuio significativa para a compreenso? Uma das afirmaes
sustentada pela IA no sentido forte esta: quando eu compreendo uma histria em
ingls, o que estou fazendo exatamente o mesmo - ou talvez mais que o mesmo - que
fazia no caso da manipulao dos smbolos em chins. No caso do ingls, que eu
compreendo, h muito mais do que manipulao de smbolos formais do que em relao
ao chins, que eu no compreendo. No estou demonstrando que esta afirmao falsa,
mas certamente me parece sem credibilidade no exemplo. A plausibilidade de tal
suposio deriva-se do fato de que podemos construir um programa que ter os mesmos
inputs e outpus como um falante nativo, alm disso pressupomos que falantes tm
algum nvel de descrio onde eles so tambm instanciaes de um programa. Com
base nestas duas suposies, assumimos que mesmo se o programa de Schank no
constituir uma explicao completa da compreenso, talvez constitua uma parte de tal
explicao. Ou seja, assumimos como possibilidade emprica, embora sem razes para
supor que ela seja verdadeira (uma vez que ela apenas sugerida e no demonstrada)
que o programa de computador irrelevante para minha compreenso da histria. No
3

caso do idioma chins tenho tudo que a IA poderia colocar em mim por intermdio de
um programa, e mesmo assim no compreendo nada. No caso do ingls compreendo
tudo e at agora no tenho nenhuma razo para supor que minha compreenso tenha
alguma relao com programas de computador - isto , com operaes computacionais
especificadas sobre elementos puramente formais. Na medida em que o programa
definido em termos de operaes computacionais baseadas em elementos puramente
formais, o que o exemplo sugere que estes no tm conexo com a compreenso. Eles
no so condio suficiente e no h, tampouco, razo para supor que eles sejam
condio necessria ou mesmo que eles tenham alguma contribuio significativa para a
compreenso. Observe-se que a fora do argumento no simplesmente que mquinas
diferentes podem ter o mesmo input e output enquanto operando em princpios formais
diferentes - no este o ponto. O que queremos dizer que por mais que se coloque no
computador princpios formais isto no ser suficiente para a compreenso, uma vez
que um ser humano ser capaz de seguir tais princpios formais sem compreender nada.
No h vantagem em supor que eles sejam necessrios ou mesmo que contribuam em
algo, visto que no h nenhuma razo para supor que quando eu compreendo ingls,
estou operando com algum programa formal.
O que h no caso das sentenas em ingls que no existe no caso das sentenas
em chins? A resposta bvia que eu sei o que as primeiras significam, mas no tenho a
menor idia do que as ltimas significam. No que isto consiste e por que no posso
atribu-lo a uma mquina, qualquer que seja ela? Por que no posso atribuir a uma
mquina aquilo que faz com que eu saiba o que as sentenas em ingls significam?
Voltarei a estas questes depois de desenvolver um pouco mais o meu exemplo.
Tive oportunidade de apresentar este exemplo a vrios pesquisadores da IA e,
curiosamente, eles parecem discordar acerca do que seja uma resposta para estas
questes. Obtive uma variedade surpreendente de respostas,e, no que se segue,
analisarei vrias delas (especificadas conforme suas origens geogrficas). Primeiro,
entretanto,quero desmontar alguns equvocos comuns sobre "compreenso". Em muitas
destas discusses encontramos muita confuso sobre a palavra "compreenso". Meus
crticos alegam que h diferentes graus de compreenso, que "compreenso" no um
simples predicado binrio, que existem de fato diferentes tipos e nveis de compreenso
e, freqentemente, a lei do terceiro excludo no se aplica de uma maneira direta a
enunciados da forma "x compreende y"; em muitos casos se x compreende y matria
de deciso e no uma simples questo de fato e assim por diante. Sobre todos estes
comentrios eu digo: "est certo, isso mesmo" mas eles no tem nada a ver com o que
est sendo discutido aqui. H casos em que "compreenso" se aplica claramente e casos
onde claramente ela no se aplica. So situaes deste tipo que preciso para
fundamentar meu argumento (2).
Compreendo histrias em ingls, em grau inferior posso tambm compreender
histrias em francs, em um grau ainda menor, alemo, e em chins, de jeito nenhum.
Meu carro e minha mquina de somar, por um outro lado, no compreendem nada, esto
"por fora" seja por metfora ou por analogia. Freqentemente atribumos
"compreenso" e outros predicados cognitivos a carros, mquinas de somar e outros
artefatos mas nada se prova com tais atribuies. Dizemos: "a porta sabe quando abrir,
em razo de sua clula fotoeltrica" ; "a mquina de somar sabe como fazer soma e
subtrao, mas no diviso" e "o termostato percebe as mudanas de temperatura". A

(2

) "Compreenso" implica no s na posse de estados mentais (intencionais) como tambm em


condies de verdade desses estados (validade, sucesso). No escopo desta discusso estamos
interessados somente na posse desses estados.
4

razo pela qual fazemos estas atribuies interessante e tem a ver com o fato de que
estendemos nossa prpria intencionalidade para os artefatos (3) Nossos instrumentos so
extenses de nossos propsitos, e assim achamos natural fazer atribuies metafricas
de intencionalidade a eles; mas estes exemplos no resolvem nosso problema filosfico.
O sentido no qual uma porta automtica "compreende instrues" atravs de sua clula
fotoeltrica no de jeito nenhum o sentido no qual eu compreendo ingls. Se o sentido
da compreenso de histrias dos computadores programados por Schank fosse o sentido
metafrico no qual a porta compreende e no o sentido no qual eu compreendo ingls
no valeria a pena discutir este problema. Newell e Simon escrevem afirmando que o
sentido de "compreenso" para os computadores exatamente o mesmo que para os
seres humanos. Gosto do modo incisivo desta afirmao e este tipo de assero que
analisarei. Argumentarei que, em um sentido literal, o computador no compreende
nada da mesma maneira que o carro e a mquina de somar tambm no compreendem
nada. A compreenso do computador no como minha compreenso de alemo, ou
seja, parcial ou incompleta, ela zero.
Examinemos agora as objees:
I - A objeo dos Sistemas (Berkeley). - "Embora seja verdade que a pessoa que
est trancada no quarto no compreende a histria, ocorre que ela meramente parte de
um sistema global, e o sistema compreende a histria. Essa pessoa tem uma grande
tabela a sua frente na qual esto escritas as regras, tem um bloco de papel de rascunho,
lpis para fazer clculos; alm disso tem um "banco de dados" com um conjunto de
smbolos em chins. Assim sendo, a compreenso no deve ser atribuda a um simples
indivduo, mas a totalidade de um sistema do qual ele faz parte".
Minha resposta a teoria dos sistemas simples: deixe o indivduo internalizar
todos estes elementos do sistema. Ele memoriza as regras da tabela e o banco de dados
com smbolos chineses e ento ele far todos os clculos em sua cabea. O indivduo,
desse modo, incorpora todo o sistema. No h nada no sistema que ele no possa
abarcar. Podemos at dispensar o quarto e supor que ele trabalha do lado de fora. Do
mesmo jeito, ele continuar no compreendendo nada de chins; portanto, o sistema no
compreende nada porque no h nada neste sistema que no esteja nele. Se ele no
compreende, ento o sistema no poder compreender, pois o sistema somente uma
parte dele.
Na realidade, sinto-me at embaraado ao dar uma resposta a teoria dos
sistemas. A idia que embora uma pessoa no compreenda chins, de alguma forma a
conjuno pessoa e pedacinhos de papel poderia compreender chins. No fcil para
mim imaginar como algum que no estivesse preso a uma ideologia acharia esta idia
plausvel. Entretanto, penso que muita gente que est comprometida com a ideologia da
IA no sentido forte, estar propensa a dizer algo muito parecido com isto. Vamos ento
explorar um pouco mais esta idia. De acordo com uma verso desta viso, enquanto o
homem do exemplo dos sistemas internalizados no compreende chins como um
falante nativo o faz (pois, por exemplo, ele no sabe que a histria se refere a
restaurante e hamburguers etc...) ainda assim o homem como sistema de manipulao
de smbolos formais realmente compreende chins. O subsistema do homem, que o
sistema de manipulao de smbolos formais para o chins no deve ser confundido
com o subsistema para ingls.

3) Intencionalidade por definio aquela caracterstica de determinados estados mentais pelos quais
eles so direcionados para, ou acerca de objetos e estados de coisas no mundo. Neste caso, crenas,
desejos e intenes so estados intencionais; formas no direcionadas de ansiedade e de depresso
no so. Para uma discusso adicional ver Searle (1979).
5

Assim sendo, existem dois subsistemas no homem, um compreende ingls, o


outro, chins, e "acontece que os dois sistemas tm muito pouco a ver um com o outro".
Mas, quero responder que no somente eles tem muito pouco a ver um com o outro,
como eles no so nem remotamente parecidos. O subsistema que compreende ingls
(supondo que possamos usar este jargo "subsistema" no momento) sabe que as
histrias so sobre restaurantes e comer hamburguers, etc, ele sabe que esto
formulando questes sobre restaurantes e que eles as responde da melhor maneira
possvel, atravs de vrias inferncias sobre o contedo da histria e assim por diante.
Mas o sistema chins no sabe nada disso; enquanto o subsistema ingls sabe que
hamburguers referem-se a hamburguers o sistema chins sabe somente que "tal e tal
rabisco" seguido de "outro rabisco". Tudo que ele sabe que vrios smbolos formais
esto sendo introduzidos numa das extremidade e so manipulados de acordo com
regras escritas em ingls e que outro smbolos esto saindo na outra extremidade. O
ponto essencial do exemplo original era argumentar que tal manipulao de smbolos
por si s no poderia ser suficiente para compreender chins nem no sentido literal,
porque o homem poderia escrever "tal e tal rabisco" e depois "outro rabisco tal e tal"
sem entender nada de chins. E no vem de encontro ao argumento postular subsistemas
dentro do homem, pois tais subsistemas no se desempenham melhor do que o homem;
eles no tem nem sequer alguma semelhana com o falante de ingls (ou subsistema).
De fato, na descrio feita, o subsistema chins simplesmente uma parte do
subsistema ingls, uma parte que processa uma manipulao de smbolos sem sentido
de acordo com regras em ingls.
Perguntemo-nos em primeiro lugar o que motiva a objeo dos sistemas - ou seja
que fundamentos independentes existem para se dizer que o agente deve ter um
subsistema dentro dele que literalmente compreende histrias em chins? Pelo que sei
os nicos fundamentos so que no exemplo eu tenho o mesmo input e o mesmo output
dos falantes nativos de chins e um programa que os intermedia. Mas o ponto do
exemplo foi mostrar que isto no poderia ser suficiente para a compreenso no sentido
no qual compreendo histrias em ingls, pois uma pessoa e portanto, o conjunto de
sistemas que a compe pode ter a combinao adequada de input, output e programa e
mesmo assim no compreender nada no sentido no qual compreendo ingls. A nica
motivao para dizer que deve haver um subsistema em mim que compreende chins
que eu tenho um programa e que posso passar no teste de Turing; posso enganar
falantes nativos de chins. (Cf. Turing, 1950). Mas precisamente um dos pontos em
discusso a adequao do teste de Turing. O exemplo mostra que pode haver dois
"sistemas", ambos passam no teste de Turing mas apenas um deles compreende; e no
um argumento contra este ponto dizer que se ambos passam no teste de Turing, ambos
devem compreender, uma vez que esta afirmao no vem ao encontro do argumento de
que o sistema em mim que compreende ingls muito mais completo do que o sistema
que meramente processa chins. Em suma, a objeo do sistema escamoteia a questo
ao insistir em apresentar argumentos que o sistema deve compreender chins.
Alm do mais, a objeo dos sistemas parece levar a conseqncias absurdas. Se
tenho de concluir que deve haver cognio em mim com base no fato de que tenho um
certo tipo de input e de output e um programa entre estes, ento parece que todos os
tipos de subsistemas no-cognitivos tornar-se-o cognitivos. Por exemplo, meu
estmago tem um nvel de descrio no qual faz processamento de informao e
instancia um grande nmero de programas de computador, mas suponho que no
queremos dizer que ele tem compreenso. Se aceitamos a objeo dos sistemas fica
difcil de perceber como poderamos evitar de dizer que o estmago, o corao, o fgado
etc.. so todo subsistemas que compreendem pois no haveria nenhuma maneira, em
6

princpio, para distinguir a motivao para dizer que o subsistema chins compreende
de dizer que o estmago compreende. (No constitui uma resposta para este ponto dizer
que o sistema chins tem informao como input e ouput e que o estmago tem comida
e produtos alimentares como input e output, pois do ponto de vista do agente e do meu
ponto de vista, no h informao nem na comida e nem no chins; o chins s um
conjunto de rabiscos sem significado. A informao no caso do chins est somente nos
olhos dos programadores e dos intrpretes e no h nada que os impea de tratar o input
e o output de meus rgos digestivos como informao, se eles assim o quiserem).
Este ltimo ponto diz respeito a alguns problemas na IA no sentido forte e vale a
pena fazer aqui uma pequena digresso. Se a IA no sentido forte um ramo da
Psicologia ela deve ser capaz de distinguir sistemas que so genuinamente mentais
daqueles que no o so. Ela deve ser capaz de distinguir os princpios com os quais a
mente trabalha daqueles com os quais sistemas no-mentais trabalham; de outra maneira
ela no poderia oferecer explicaes acerca da natureza do que especificamente
mental. A distino mental e no-mental no pode estar apenas no olho do observador ela deve ser intrnseca aos sistemas, pois de outra maneira ficaria a critrio do
observador tratar pessoas como no-mentais e furaces como mentais. Mas com muita
freqncia, na literatura sobre IA, a distino esmaecida de tal maneira que torna-se
desastroso afirmar que a IA uma investigao cognitiva. McCarthy, por exemplo,
escreve: "Podemos dizer que mquinas to simples como os termostatos tm crenas, e
ter crenas parece ser uma caracterstica de muitas mquinas capazes de resolver
problemas" (McCarthy, 1979). Qualquer um que pense que a IA no sentido forte tem
alguma chance como uma teoria da mente deve ponderar as implicaes desta
observao. Pedem-nos para aceitar como sendo uma descoberta da IA no sentido forte
que o pedao de metal na parede que usamos para regular a temperatura tenha crenas
da mesma maneira que ns, nossas esposas e nossos filhos tm crenas, e alm do mais
que a "maioria" das outras mquinas da sala - telefone, gravador, mquina de somar,
interruptor eltrico, etc - tambm tenham crenas. No objetivo deste artigo
argumentar ou discutir com McCarthy, por isso foi afirmaremos o seguinte, sem
argumentar. O estudo da mente comea com o fato de que seres humanos tm crenas e
que termostatos, telefones e mquinas de somar no as tm. Se voc concebe uma teoria
que nega tal ponto, voc produziu um contra-exemplo e a teoria falsa. Tm-se a
impresso de que os pesquisadores da IA que escrevem esse tipo de coisa pensam que
podem escapar disto porque eles realmente no levam tais coisas a srio e no pensam
que algum o far. Proponho, pelo menos para o momento, levar estas coisas a srio.
Pense por um minuto o que seria necessrio para estabelecer que o pedao de metal na
parede tem, de fato, crenas - crenas com direcionalidade, contedo proposicional,
condies de satisfao; crenas que tm a possibilidade de ser fortes ou fracas, ansiosas
ou seguras, dogmticas, racionais ou supersticiosas, f cega ou especulaes hesitantes.
O termostato no um candidato plausvel a ter crenas, nem tampouco o so o
estmago, o fgado, a mquina de somar ou o telefone. Contudo, uma vez que estamos
levando esta idia a srio, note-se que se fosse verdadeira ela seria fatal para a proposta
da IA de ser uma cincia da mente, pois ento a mente estaria em todos os lugares. O
que queremos saber o que distingue a mente de termostatos, fgados, etc. Se McCarthy
estivesse certo a IA no sentido forte no teria a menor possibilidade de nos dizer em que
se baseia esta distino.
II - A objeo do robot - (Yale).
"Suponhamos que escrevssemos um programa diferente daquele de Schank.
Suponhamos que pusssemos um computador dentro de um robot e que esse
computador no fosse apenas receber smbolos formais como input e produzir esses
7

smbolos como output, mas que ele fosse operar o robot de tal maneira que este fizesse
coisas como perceber, andar, mover-se, pregar pregos, comer, beber ou qualquer outra
coisa. O robot teria uma cmara de televiso adaptada a ele- o que o capacitaria a ver teria braos e pernas que o capacitariam a agir e tudo isso seria controlado pelo seu
crebro-computador. Tal robot teria compreenso genuna e outros estados mentais - ele
seria diferente do computador de Schank".
A primeira coisa a notar acerca da objeo do robot que ela tacitamente
concede que a cognio no s uma questo de manipulao de smbolos, uma vez
que esta objeo acrescenta um conjunto de relaes causais com o mundo externo. Mas
a resposta a objeo do robot que o acrscimo de tais capacidades (perceptual e
motora) no acrescenta nada em termos de compreenso ou intencionalidade ao
programa original de Schank. Para perceber isso basta notar que o mesmo experimento
mental se aplica ao caso do robot. Suponha que em vez de um computador dentro de um
robot voc me ponha dentro do quarto e me d novamente smbolos em chins com
instrues em ingls para combinar estes smbolos com outros smbolos em chins.
Suponhamos que sem eu saber, alguns dos smbolos em chins que chegam a mim
venham de uma cmara de televiso adaptada ao robot,e que outros smbolos em chins
que estou produzindo sirvam para fazer com que o motor dentro do robot mova seus
braos e pernas. importante enfatizar que tudo que estou fazendo manipular
smbolos formais. Estou recebendo "informao" do "aparato perceptual" do robot e
estou fornecendo "instrues" para seu aparato motor sem saber o que estou fazendo. Eu
sou o homnculo do robot, mas de maneira diferente do homnculo tradicional, sem
saber o que est ocorrendo. No sei nada a no ser as regras para manipulao de
smbolos. Neste caso pode-se dizer que o robot no tem estados intencionais; ele se
move como resultado de seus circuitos eltricos e do seu programa. Alm do mais, a
instanciao de um programa no produz estados intencionais de nenhum tipo relevante.
Tudo que est sendo feito seguir instrues formais acerca da manipulao de
smbolos formais.
III - A objeo do Simulador Cerebral (Berkeley e M.I.T.).
"Suponhamos que ns projetssemos um programa que no represente a
informao que temos acerca do mundo como o caso da informao dos roteiros de
Schank. O programa simula a seqncia efetiva da atividade dos neurnios nas sinapses
do crebro de um falante nativo de chins, quando este entende histrias e d respostas a
elas. A mquina recebe histrias em chins e questes acerca delas como input; ela
simula a estrutura formal dos crebros dos chineses ao processar estas histrias e
fornece respostas em chins como outputs. Podemos at imaginar que a mquina no
opera com um nico programa serial, mas com um conjunto de programas operando em
paralelo, da mesma maneira que crebros humanos possivelmente operam quando
processam linguagem natural. Em tal caso teramos de dizer que a mquina entenderia
histrias, e se nos recusssemos a dizer isso no teramos tambm que negar que
falantes de chins entendem histrias? Ao nvel das sinapses, o que poder ser diferente
no programa do computador e no programa do crebro dos chineses?"
Antes de responder esta objeo quero fazer uma digresso para notar que esta
uma objeo estranha de ser feita por qualquer adepto da IA (funcionalismo, etc.).
Penso que a idia central da IA no sentido forte que no precisamos saber como o
crebro funciona para saber como a mente funciona. A hiptese bsica que existe um
nvel de operaes mentais que consiste em processos computacionais sobre elementos
formais que constitui a essncia do mental e pode ser realizado atravs de diferentes
processos cerebrais, da mesma maneira que um programa computacional pode ser
rodado em diferente hardwares. A pressuposio da IA no sentido forte que a mente
8

est para o crebro assim como o programa est para o hardware, e podemos entender a
mente sem fazer neurofisiologia. Se tivssemos que saber como o crebro trabalha para
fazer IA esta no constituiria um problema. Contudo, mesmo que cheguemos a um
conhecimento muito grande das operaes do crebro, isto no seria suficiente para
produzir a compreenso. Seno vejamos: imagine que ao invs de um ser monolingual
num quarto combinando smbolos tenhamos um homem operando um conjunto
complexo de canos de gua com vlvulas que os conectam. Quando o homem recebe
smbolos em chins, ele consulta no programa escrito em ingls quais vlvulas ele deve
abrir e quais ele deve fechar. Cada conexo na tubulao corresponde a uma sinapse no
crebro do chins e o sistema equipado de tal maneira que aps ativar as conexes
adequadas - ou seja, aps abrir as torneiras adequadas - as respostas em chins
aparecem no final da tubulao.
Onde est a compreenso neste sistema? Ele recebe chins como input, simula a
estrutura formal das sinapses do crebro do chins e produz textos em chins como
output. Mas o homem certamente no entende chins, e nem tampouco a tubulao, e se
estivermos tentados a adotar o que penso ser a idia absurda de que de alguma maneira
a conjuno homem e tubulao compreende, preciso lembrar que em princpio o
homem pode internalizar a estrutura formal da tubulao de gua e realizar toda a
atividade neuronal em sua imaginao. O problema com o simulador cerebral que ele
est simulando coisas erradas acerca do crebro. Na medida em que ele simula
unicamente a estrutura formal das seqncias de atividades neuronais nas sinapses, ele
no est simulando o aspecto mais importante do crebro, ou seja, suas propriedades
causais e sua habilidade para produzir estados intencionais. Que as propriedades formais
no so suficientes para produzir propriedades causais mostrado pelo exemplo da
tubulao de gua: podemos ter todas as propriedades formais sem que estas tenham
sido derivadas das propriedades causais neurobiolgicas relevantes.
IV - A objeo da combinao - (Berkeley e Stanford).
"As trs objees anteriores podem no ser convincentes como uma refutao do
contra-exemplo do quarto chins, mas se elas forem tomadas conjuntamente so
convincentes e decisivas. Imagine um robot com um computador em forma de crebro
alojado em sua cavidade craniana; imagine que o computador est programado com
todas as sinapses de um crebro humano; imagine que o comportamento do robot
indistinguvel do comportamento humano e agora pense nisto tudo como um sistema
unificado e no apenas como um computador com inputs e outputs. Certamente em tal
caso teramos que atribuir intencionalidade ao sistema."
Concordo inteiramente que em tal caso acharamos racional e mesmo irresistvel
aceitar a hiptese de que o robot teria intencionalidade, na medida em que no
soubssemos mais nada sobre ele. Alm da aparncia e comportamento, os outros
elementos da combinao so irrelevantes. Se pudssemos construir um robot cujo
comportamento no se distinguisse de uma grande parcela do comportamento humano,
ns lhe atribuiramos intencionalidade, apesar de termos algumas razes para no fazlo. No precisaramos saber de antemo que seu crebro-computador um anlogo
formal do crebro humano.
Mas realmente no vejo como isto poderia ajudar nas pretenses da IA no
sentido forte e eis porqu: de acordo com a IA no sentido forte, instanciar um programa
formal com o input e o output adequados condio suficiente e constitutiva da
intencionalidade. Como Newell (1980) coloca, a essncia do mental a operao de um
sistema de smbolos fsicos. Mas as atribuies de intencionalidade que fazemos ao
robot neste exemplo no tm nada a ver com programas formais. Elas so simplesmente
baseadas na pressuposio de que se o robot se parece e se comporta como ns,
9

teramos de supor - at prova em contrrio - que ele deve ter estados mentais como os
nossos que causam e se expressam no seu comportamento, bem como um mecanismo
interno capaz de produzir tais estados mentais. Se soubssemos como explicar seu
comportamento independentemente, sem tais pressuposies, no atribuiramos
intencionalidade a ele, especialmente se soubssemos que ele tem um programa formal.
Este o ponto de minha resposta objeo II.
Suponhamos que ns soubssemos que o comportamento do robot
inteiramente explicado pelo fato de um homem dentro dele estar recebendo smbolos
formais sem interpretao dos receptores sensoriais do robot e enviando esses smbolos
para os mecanismos motores desse robot e que o homem est fazendo essa manipulao
simblica de acordo com um conjunto de regras. Alm do mais, suponha que o homem
nada sabe desses fatos acerca do robot; tudo que ele sabe qual operao realizar sobre
esses smbolos sem significado. Em tal caso, consideraramos o robot como um
engenhoso fantoche mecnico. A hiptese de que o fantoche tenha uma mente seria
ento injustificada e desnecessria, pois no haveria mais razo para atribuir
intencionalidade ao robot ou para o sistema do qual ele uma parte (com exceo da
intencionalidade do homem que est manipulando os smbolos). A manipulao de
smbolos formais continua, o input e o output so combinados corretamente, mas o
nico locus de intencionalidade o homem, e ele no sabe nada dos estados
intencionais relevantes; por exemplo ele no v o que chega aos olhos do robot, ele no
tem a inteno de mover o brao do robot ele no compreende as observaes que so
feitas pelo robot ou que lhe so feitas. Nem tampouco, pelas razes colocadas acima, o
sistema do qual o homem e o robot so parte, compreendem alguma coisa.
Para esclarecer este ponto faamos um contraste com os casos onde achamos
completamente natural atribuir intencionalidade a membros de algumas outras espcies,
como gorilas e macacos e a animais domsticos como os ces. As razes pelas quais
achamos isto natural, so, grosso modo, duas. Sem atribuir intencionalidade aos
animais, seu comportamento no faz sentido, e podemos ver que os animais so feitos
de material semelhante ao nosso: olhos, nariz, pele, etc. Dada a coerncia do
comportamento animal e a pressuposio de um mesmo material causal subjacente a
ele, pressupomos que o animal deve ter estados mentais subjacentes a seu
comportamento e que esses estados mentais devem ser produzidos por mecanismos
feitos de um material semelhante ao nosso. Certamente poderamos fazer
pressuposies semelhantes acerca do robot, mas na medida em que soubssemos que
seu comportamento resulta de um programa formal e que as propriedades causais
efetivas de sua substncia fsica fossem irrelevantes, abandonaramos a pressuposio
de intencionalidade.
Existem outras duas respostas ao meu exemplo que aparecem freqentemente (e
ento valeria a pena discuti-las) mas elas realmente fogem ao ponto.
V - A objeo das outras mentes (Yale).
"Como saber que outras pessoas compreendem chins ou qualquer outra coisa?
Unicamente por seus comportamentos. Ora, o computador pode passar por testes de
comportamento to bem quanto elas (em princpio), assim se atribumos cognio a
outras pessoas, devemos em princpio atribu-la tambm a computadores".
A objeo merece apenas uma resposta curta. O problema em questo no
como eu sei que outras pessoas tm estados cognitivos, mas o que estou lhes atribuindo
ao dizer que elas tm estados cognitivos. O ponto central do argumento que no
poderiam ser apenas processos computacionais e seus outputs porque estes podem
existir sem o estado cognitivo. No resposta para este argumento fingir que estados
cognitivos no existem. Em "cincias cognitivas" pressupe-se a realidade e a
10

possibilidade de se conhecer o mental, da mesma maneira que em cincias fsicas temos


de pressupor a realidade e a capacidade de se conhecer objetos fsicos.
VI - A objeo das "vrias casas" (Berkeley).
"A totalidade de seu argumento pressupe que a IA trata apenas de
computadores analgicos e digitais. Ocorre que este apenas o estgio atual da
tecnologia. Quaisquer que sejam esses processos causais que voc diz serem essenciais
para a intencionalidade (pressupondo que voc esteja correto), possivelmente seremos
capazes de construir dispositivos que exibiro esses processos causais e isto ser
tambm inteligncia artificial. Assim, seus argumentos no se aplicam a capacidade da
IA para produzir e explicar a cognio".
No tenho resposta a esta objeo a no ser dizer que ela trivializa o projeto da
IA no sentido forte ao redefini-la como qualquer coisa que produza e explique a
cognio artificialmente. O interesse das afirmaes originais feitas em favor da IA
que ela era uma tese precisa e bem definida: processos mentais so processos
computacionais sobre elementos formalmente definidos. Minha preocupao tem sido
desafiar esta tese. Se sua proposta redefinida de tal maneira que ela no mais se
constitui nesta tese, minhas objees no se aplicam mais, pois no h mais uma
hiptese testvel sobre a qual elas se aplicam.
Retornemos s questes as quais prometi que tentaria responder. Dado que no
exemplo original eu compreendo ingls e no chins, e dado que a mquina no
compreende nem ingls nem chins, deve haver algo em mim que faz com que eu
compreenda ingls e algo que falta em mim que faz com que eu no compreenda chins.
Por que no podemos dar essas coisas, sejam l o que forem, a uma mquina?
No vejo razo, em princpio, porque no poderamos conceder a uma mquina a
capacidade de compreender ingls ou chins, pois nossos corpos com nossos crebros
so precisamente tais mquinas. No h argumentos fortes para dizer que no
poderamos atribuir tal coisa a uma mquina se sua operao for definida somente em
termos de processos computacionais sobre elementos formalmente definidos, ou seja,
onde a operao da mquina definida como uma instanciao de um programa de
computador. No porque eu sou a instanciao de um programa de computador que eu
sou capaz de entender ingls e ter outras formas de intencionalidade (eu sou, suponho, a
instanciao de qualquer programa de computador) mas pelo que sabemos porque eu
sou um certo tipo de organismo com uma certa estrutura biolgica (fsica e qumica) e
esta estrutura, em termos causais, capaz, sob certas condies, de produzir a
percepo, a ao, a compreenso, o aprendizado e outros fenmenos intencionais. Parte
do ncleo deste argumento que s algo que tenha estes poderes causais pode ter
intencionalidade. Talvez outros processos fsicos e qumicos pudessem produzir
exatamente estes efeitos, talvez, por exemplo, os marcianos tambm tenham
intencionalidade, mas os seus crebros so feitos de um material diferente. Esta uma
questo emprica, semelhante questo de se a fotossntese pode ser feita com uma
qumica diferente da que compe a clorofila.
Mas o ponto principal do presente argumento que um modelo puramente
formal nunca ser, por si s, suficiente para produzir intencionalidade, pois as
propriedades formais no so constitutivas da intencionalidade e no tm poderes
causais, com exceo do poder de produzir o estgio seguinte do formalismo quando a
mquina est rodando. E mesmo que uma realizao especfica do modelo formal venha
a exibir propriedades causais, estas so irrelevantes pois este modelo pode tambm ser
efetivado atravs de uma realizao diferente onde tais propriedades estaro ausentes.
Mesmo que por algum milagre falantes de chins realizem exatamente o programa de

11

Schank, podemos colocar o mesmo programa em falantes de ingls, tubulao de gua


ou computadores; nenhum destes compreende chins e nem tampouco o programa.
O que importa nas operaes do crebro no a sombra do formalismo dado
pela seqncia das sinapses, mas as propriedades efetivas de tais seqncias. Todos os
argumentos em favor da verso forte da IA que examinei insistem em delinear estas
sombras lanadas pela cognio para ento sustentar que tais sombras so a prpria
cognio.
Com o intuito de concluir, quero enunciar alguns pontos filosficos gerais
implcitos no argumento. Por uma questo de clareza tentarei fazer isto na forma de
perguntas e respostas e comeo com a velha questo:
"Pode uma mquina pensar?"
A resposta , obviamente, sim. Ns somos precisamente tais mquinas.
"Sim, mas pode um artefato, uma mquina feita pelo homem, pensar?"
Assumindo que seja possvel produzir artificialmente uma mquina com sistema
nervoso, neurnios com axonios e dendritos e tudo o mais, suficientemente semelhante
a ns, de novo a resposta a esta questo parece ser, obviamente, "sim". Se voc pode
duplicar exatamente as causas, voc pode duplicar os efeitos. E de fato seria possvel
produzir conscincia, intencionalidade e tudo o mais usando princpios qumicos
diferentes dos usados por seres humanos. Como eu disse, uma questo emprica.
"O.K., mas pode um computador digital pensar?"
Se por um "computador digital" queremos dizer algo que tem um nvel de
descrio atravs do qual esse algo pode corretamente ser descrito como a instanciao
de um programa de computador, ento de novo a resposta sim, uma vez que somos as
instanciaes de um grande nmero de programas de computador e podemos pensar.
"Mas pode algo pensar, compreender, etc somente em virtude de ser um
computador com o tipo de programa adequado? Pode a instanciao de um programa,
de um programa adequado claro, ser por si s condio suficiente para compreenso?"
Esta para mim a questo correta a ser formulada, embora seja usualmente
confundida com uma ou mais das questes anteriores e a resposta para ela "no".
"Por que no?"
Porque a manipulao de smbolos formais por si s no tem intencionalidade:
eles no tm significado, eles nem mesmo so manipulaes de smbolos, uma vez que
esses smbolos no simbolizam nada. No jargo lingstico, eles tm apenas sintaxe,
mas no semntica. A intencionalidade que os computadores parecem ter est apenas
nas mentes daqueles que os programam e daqueles que os usam, ou seja, de quem envia
o input e interpreta o output.
O objeto do exemplo do Quarto Chins foi tentar mostrar isso, pois na medida
em que colocamos algo no sistema que realmente tem intencionalidade, um ser humano,
e o programamos com o programa formal pode-se ver que este programa no exibe
intencionalidade adicional. Por exemplo, isto nada acrescenta habilidade do ser
humano para compreender chins.
Precisamente a caracterstica da IA que parece to atrativa - a distino entre
programa e realizao - mostra-se fatal para a proposta de que simulao possa ser
duplicao. A distino entre o programa e sua realizao no hardware encontra
paralelo na distino entre o nvel de operaes mentais e o nvel de operaes
cerebrais. E se pudssemos descrever o nvel de operaes mentais como um programa
formal, poderamos descrever o que essencial acerca da mente sem fazer psicologia
introspectiva ou neurofisiologia do crebro. Mas a equao: "a mente est para o
crebro assim como o software est para o hardware" tropea em vrios pontos, entre
eles, os trs seguintes:
12

Primeiro, a distino entre programa e realizao tem a conseqncia de que o


mesmo programa poderia ter vrios tipos de realizaes absurdas sem nenhuma forma
de intencionalidade. Weizembaum (1976), por exemplo, mostra em detalhes como
construir um computador usando um rolo de papel higinico e uma pilha de pedrinhas.
Similarmente, o programa para compreenso de histrias em chins pode ser
programado numa seqncia de canos de gua, um conjunto de cata-ventos ou um
falante monolingual de ingls, nenhum dos quais entretanto adquire uma compreenso
de chins. Pedras, papel higinico, vento e canos de gua so o material errado para
gerar intencionalidade (apenas algo que tenha os mesmos poderes causais do crebro
pode ter intencionalidade), e embora o falante de ingls tenha o material correto para a
intencionalidade pode-se ver facilmente que ele no adquire nenhuma intencionalidade
extra por memorizar o programa, uma vez que memoriz-lo no vai lhe ensinar chins.
Segundo, o programa puramente formal, mas os estados intencionais no so
formais. So definidos em termos de seu contedo e no de sua forma. A crena de que
est chovendo, por exemplo, no definida como uma determinada configurao
formal, mas como um determinado contedo mental com condies de satisfao, de
racionalidade, etc (Searle, 1979). Com efeito, a crena como tal no tem sequer uma
configurao formal no sentido sinttico, uma vez que a uma e a mesma crena pode ser
dado um nmero indefinido de expresses sintticas diferentes em diferentes sistemas
lingsticos.
Terceiro, como mencionei anteriormente, estados e eventos mentais so produtos
da operao do crebro, mas o programa no um produto do computador.
"Bem, se os programas no so constitutivos de processos mentais, por que
tantas pessoas acreditaram no oposto? Isso precisa ser explicado."
No sei a resposta para isto. A idia de que as simulaes computacionais
poderiam ser a prpria mente deve ter parecido suspeita, em princpio, porque o
computador de nenhuma maneira se limita a simular operaes mentais. Ningum supe
que simulaes computacionais de um alarme contra fogo causaro um incndio na
vizinhana ou que uma simulao computacional de uma tempestade deixar-nos-
encharcados. Por que algum suporia ento que uma simulao computacional da
compreenso de fato entenderia alguma coisa? Diz-se freqentemente que seria
extremamente difcil fazer computadores sentir dor ou se apaixonarem, mas amor e dor
no so nem mais fceis nem mais difceis de simular do que a cognio ou qualquer
outra coisa. Para fazer uma simulao, tudo que se precisa um input e um output
corretos e um programa que os intermedie, transformando o primeiro no segundo. Isto
tudo o que o computador tem e tudo o que ele pode fazer. Confundir simulao com
duplicao o mesmo erro, seja com dor, amor, cognio, incndio ou tempestade.
Mesmo assim, h vrias razes pelas quais a IA deve ter parecido - e para muitas
pessoas ainda parece - reproduzir e explicar fenmenos mentais, e, acredito que no
conseguiremos remover estas iluses at que tenhamos exposto as razes que as
originaram.
Em primeiro lugar, e talvez o mais importante, est a confuso a respeito da
noo de "processamento de informao". Muitas pessoas, em cincia cognitiva,
acreditam que o crebro humano com sua mente faz algo chamado "processamento de
informao" e, analogamente o computador com seu programa faz processamento de
informao, mas, por outro lado, incndios e tempestades no o fazem. Embora o
computador possa simular aspectos formais de qualquer tipo de processo, ele est numa
relao especial com a mente e o crebro, pois, quando o computador adequadamente
programado, idealmente com o mesmo programa do crebro, o processamento de
informao idntico nos dois casos e este processamento de informao realmente a
13

essncia do mental. Mas o problema com este argumento que ele repousa sobre uma
ambigidade na noo de "informao". O sentido pelo qual as pessoas "processam
informao" quando elas refletem sobre problemas aritmticos , ou quando elas lem e
respondem questes sobre histrias no o sentido no qual o computador programado
"processa informao". Em vez disso o que ele faz manipular smbolos formais. O fato
de que o programador e o intrprete dos outputs do computador usem smbolos para
representar objetos do mundo est totalmente alm do escopo do computador.
Repetindo, o computador tem sintaxe mas no tem semntica. Dessa forma, se voc
digita: 2+2 igual?, ele vai apresentar "4". Mas ele no tem idia que "4" significa 4, ou
que isto signifique alguma coisa. O ponto no que ele no tenha alguma informao de
segunda ordem acerca da interpretao de seus smbolos de primeira ordem, mas o fato
que estes smbolos de primeira ordem no tm nenhuma interpretao no que diz
respeito ao computador. Tudo que ele tem so mais smbolos. Assim sendo a introduo
da noo de "processamento de informao" produz um dilema: ou bem construmos a
noo de "processamento de informao" de tal maneira que ela implique a
intencionalidade como parte do processo, ou bem ns no o fazemos. No primeiro caso,
ento, o computador programado no processa informao, ele somente manipula
smbolos formais. No segundo caso, ento, apesar do computador processar informao,
somente no sentido em que mquinas de somar, mquinas de escrever, estmagos,
termostatos, tempestades e furaces o fazem - a saber, eles tm um nvel de descrio
no qual podemos descrev-los como recebendo informao, transformando-a e
produzindo informao como output. Mas nesse caso, depende de observadores
externos interpretar o input e o output como informao no sentido comum. E nenhuma
semelhana estabelecida entre o computador e o crebro em termos de uma
similaridade de processamento de informao nos dois casos.
Em segundo lugar, em grande parte da IA h um behaviorismo residual ou
operacionalismo. Uma vez que computadores adequadamente programados podem ter
padres de input/output semelhantes ao de seres humanos, somos tentados a postular
estados mentais no computador similares a estados mentais humanos. Mas uma vez que
percebemos que conceitual e empiricamente possvel para um sistema ter capacidades
humanas em algum domnio sem ter nenhuma intencionalidade, devemos ser capazes de
superar este impulso. Minha mquina de somar tem capacidade de calcular mas no
intencionalidade, e neste artigo tentei mostrar que um sistema pode ter capacidades de
input e output que duplicam aquelas de um falante nativo de chins e ainda assim no
compreender chins, a despeito de como ele programado. O Teste de Turing tpico
na tradio de ser abertamente behaviorista e operacionalista, e acredito que se os
pesquisadores da IA repudiassem totalmente o behaviorismo e o operacionalismo muito
da confuso entre simulao e duplicao seria eliminada.
Em terceiro lugar, este operacionalismo residual junta-se a uma forma residual
de dualismo; de fato a IA no sentido forte s faz sentido com uma pressuposio
dualista onde aquilo que diz respeito a mente nada tem a ver com o crebro. Na IA no
sentido forte (bem como no funcionalismo) o que importa so programas, e programas
so independentes de sua realizao em mquinas; de fato, no que diz respeito a IA um
mesmo programa pode ser realizado por uma mquina eletrnica, uma substncia
mental cartesiana ou o esprito do mundo hegeliano. A descoberta mais surpreendente
que eu fiz ao discutir estes problemas que muitos pesquisadores da IA esto chocados
com a minha idia de que fenmenos mentais humanos podem ser dependentes das
efetivas propriedades fsico-qumicas dos crebros humanos. Mas eu no deveria estar
surpreso, pois a no ser que se aceite alguma forma de dualismo, o projeto da IA no
sentido forte no tem nenhuma chance. O projeto consiste em reproduzir e explicar o
14

mental projetando programas, mas a no ser que a mente no seja apenas conceitual,
mas empiricamente independente do crebro, este projeto no poder ser executado,
pois o programa completamente independente de qualquer realizao. A no ser que
se acredite que a mente separvel do crebro, conceitual e empiricamente - um
dualismo em uma verso forte - no se pode esperar reproduzir o mental escrevendo e
rodando programas, uma vez que estes devem ser independentes dos crebros ou de
qualquer outra forma especfica de sua instanciao. Se operaes mentais consistem
em operaes computacionais sobre smbolos formais, segue-se que eles no tm
nenhuma conexo importante com o crebro, e a nica conexo seria que o crebro
poderia ser um dentre os mltiplos tipos de mquinas capazes de instanciar o programa.
Esta forma de dualismo no a verso cartesiana tradicional, a qual sustenta que
existem dois tipos de substncias, mas cartesiana no sentido de que ela insiste que
aquilo que especificamente mental no tem nenhuma conexo intrnseca com as
propriedades efetivas do crebro. Este dualismo subjacente mascarado pelo fato de
que a literatura sobre IA contm freqentes ataques contra o "dualismo", mas o que
estes autores no percebem que sua posio pressupe uma verso forte do dualismo.
"Pode uma mquina pensar?" Meu ponto de vista que somente uma mquina
pode pensar, e de fato apenas mquinas de um tipo muito especial, a saber, crebros e
mquinas que tm os mesmos poderes causais do crebro. E esta a principal razo pela
qual a IA no sentido forte tem to pouco a dizer acerca do pensamento: ela no tem
nada a dizer acerca de mquinas. Por definio, ela trata de programas, e programas no
so mquinas. O que quer que seja a intencionalidade, um fenmeno biolgico o qual
deve ser to causalmente dependente da bioqumica especfica de suas origens como o
a lactao, a fotossntese ou quaisquer outros fenmenos biolgicos. Ningum suporia
que poderamos produzir leite e acar rodando uma simulao computacional das
seqncias formais da lactao e da fotossntese; mas no que diz respeito a mente
muitas pessoas querem acreditar em tal milagre por causa de sua fidelidade profunda ao
dualismo: concebem a mente como processos formais e como algo independente de
causas materiais especficas, algo que no ocorre com o acar e o leite.
Na defesa desse dualismo, expressam essa esperana na forma de que o crebro
um computador digital (computadores antigos eram freqentemente chamados de
"crebros eletrnicos"). Mas isto no adianta nada. claro que o crebro um
computador digital, uma vez que tudo um computador digital, os crebros tambm o
so. O ponto que a capacidade causal do crebro para produzir intencionalidade no
pode consistir na instanciao de um programa de computador, pois para qualquer
programa, sempre possvel que haja algo que o instancie e contudo no tenha estados
mentais. Seja l o que o crebro faa para produzir intencionalidade, esta no pode
consistir na instanciao de um programa, pois nenhum programa pr si s suficiente
para produzir a intencionalidade.
AGRADECIMENTOS - Estou em dbito com um grande nmero de pessoas
que discutiram este assunto e por seu paciente esforo em superar minha ignorncia em
IA. Gostaria de agradecer especialmente a Ned Block, Hubert Dreyfus, John Haugeland,
Roger Schank, Robert Wilensky e Terry Winograd.
REFERNCIAS
McCarthy, J. (1979) , Ascribing mental qualities to machines. Stanford AI Lab Memo
326. Stanford.
Newell, A. (1980), Physical Symbol Systems, Cognitive Science.
15

Schank, R. & Abelson,R.P. (1977), Natural Language, Philosophy and Artificial


Intelligence, in Ringle, M. (org.), Philosophical Perspectives in Artificial
Intelligence. N.J.: Humanities Press.
Searle, J. (1979) What is an Intentional State?, Mind, 88.
Turing, A. (1950) Computing Machinery and Intelligence, Mind, 59.
Weizembaum, J. (1976) Computer Power and Human Reason. San Francisco: W.H.
Freeman.

16