Escolar Documentos
Profissional Documentos
Cultura Documentos
v. 14, p. 109- 1 2 1 , 1 99 1 .
robots; conexionismo.
I
A questo da natureza da intencionalidade e da representao mental constitui um
dos mais tradicionais problemas da Filosofia. Em diversos episdios da histria das
idias, os filsofos tent aram responder a pergunta de como possvel pard nossa
mente formar uma representao do mundo exterior que servisse de guia no s para
sua cognio como, tambm, para a orientao de nossos prprios comportamentos.
Comunicao apresentada na XIV Jornada de Filosofia e Cincias Humanas - UNESP - Marlia - outubro
de 1 990.
Departamento de Filosofia de Faculdade de Filosofia e Cincias - UNES P 1 7500 - Marlia - SP.
-
1 10
Uma soluo parcial para o problema, oferecida pelo cartesianismo, foi sustentar a
existncia de um Deus Todo-Poderoso e no enganador que asseguraria a corres
pondncia entre o mundo e a representao mental que dele formamos. Este
Deus - o famoso deus ex machina cartesiano - constituiria uma espcie de garantia
metafsica de que o conhecimento e a representao correta do mundo exterior pode
riam ser alcanados.
Contudo, ao relermos a obra de Descartes, notamos hoje que a idia de um deus
ex machina parece muito mais uma hip6tese ad hoc do que uma real tentativa de re
solver o problema da natureza da representao mental. E alguns anos mais tarde,
num epis6dio posterior da hist6ria da Filosofia, a questo parece ser retomada, desta
vez com a obra de I. Kant. Com efeito, se tivssemos de fazer um resumo brutal e ao
mesmo tempo grosseiro do contet1do da primeira Crtica kantiana, poderamos dizer
que Kant buscava investigar como que operaes internas de nossa mente poderiam
captar relaes objetivas estabelecidas no mundo externo, tomando assim possveis o
conhecimento e a representao adequada de uma realidade independente de n6s. A
soluo proposta por Kant - muito mais interessante do que a cartesiana - foi
afirmar que a realidade que enxergamos e representamos moldada pelas operaes
do nosso aparelho cognitivo. Assim, o estudo deste t1ltimo proporcionaria ao mesmo
tempo o conhecimento da t1nica verso do mundo que nos disponvel - uma
verso que no , contudo, subjetiva, mas limitada pelo modo como nossas represen
taes podem se articular.
Os sculos XIX e XX contriburam com mais alguns episdios interessarites na
hist6ria do problema da natureza da representao mental. Em 1925, o psic610go e
fil6sofo Franz Brentano publica a Psychologie von empirischen Standpunkt e, numa
de suas passagens freqentemente citadas afirma que:
111
1 12
donais e representar o mundo exterior? Ser que, como supunha Brentano, a inten
cionalidade determina um hiato intransponvel entre o fsico e o mental de tal maneira
que a gerao de estados intencionais atravs da construo de sistemas artificiais
(f{sicos) estaria inevitavelmente condenada ao fracasso? Esta indagao traz uma nova
dimenso para o problema ttlos6fico tradicional da representao mental; uma di
menso que extravasa os limites de uma polmica puramente ttlos6fica. Afinal, da
capacidade de gerar estados intencionais depende a pr6pria possibilidade de simular
comportamentos inteligentes, dotados de elevado grau de flexibilidade, uma vez que
a representao do mundo exterior contribui diretamente para sua adaptao face a
mudanas nas circunstncias ambientais .
Este debate toma um impulso decisivo a partir da publicao do artigo de J. Searle,
Minds, Brains and Programs em 1 980. Neste artigo, Searle apresenta uma critica
vigorosa da possibilidade de se obter um equivalente mecnico para o fenmeno
cognitivo humano que normalmente denominamos compreenso. Seu ponto de partida
a anlise dos programa s para compreender hist6rias curtas desenvolvidas por R.
Schank na Universidade de Yale e que se concretizaram no trabalho Scripts, Plans,
v.
113
a emitir ou escrever mais seqncias de smbolos em Chins. Claro que o falante preso
no quarto no sabe precisamente o conteddo das informaes que ele est gerando
com base nos dois textos e nas regras de transformao. O primeiro texto corresponde,
no nosso experimento mental, ao relato que elaborado com base neste relato, e, as
<novas seqncias geradas, s respostas a estas questes. As regras de transformao
so bastante complexas, e concebidas de maneira tal que elas simulem os processos
mentais e o comportamento lingstico de um falante nativo de Chins numa conver
sao habitual. Aps um certo tempo o falante aprendeu a manipular perfeitamente
estas regras de transformao, e, com base nos outputs um observador externo pode
ria dizer que ele compreende Chins - o que, no entender de Searle constitui um
contra-senso.
A instanciao dos programas de Schank num sujeito humano, reproduzida neste
experimento mental, , para Searle, bastante reveladora. Ela mostra que os programas
desse tipo no estabelecem as condies necessrias para a simulao da atividade
cognitiva da compreenso: o falante aplica as regras de transformao e compreende
estas regras, mas as seqncias de smbolos em Chins no tm nenhum significado
para ele. A manipulao de smbolos realizada no programa inteiramente cega.
Ademais, como ressalta Searle na resposta s objees ao seu texto Minds, Brains
and Programs, "a manipulao de smbolos formais por si s6 no tem intencionali
dade, no sequer manipulao de smbolo, uma vez que esses smbolos no simbo
lizam nada. Eles tm apenas sintaxe, mas no semntica". (4, p. 3(0)
Ainda na sua resposta s objees, Searle ressalta que a esses programas "falta
aquilo que chamarei de intencionalidade intrlseca ou de genunos estados mentais".
(4, p. 305)
A atribuio de intencionalidade ou de significado diz Searle, , nestes casos,
sempre uma atribuio a posteriori, dependente da intencionalidade intrlseca dos
sujeitos humanos que observam os outputs do programa.
Mas o que "intencionalidade intrnseca" no entender de Searle, e que parentesco
tem esta noo com a idia de significado? O conceito de intencionalidade intrnseca
no largamente explorado em Minds, Brains and Programs. Searle o desenvolve
com maior profundidade em outros artigos, tais como lntrinsic lntentionality e What
are lntentional States (1982), bem como no seu livro de 1983,lntentionality. A in
tencionalidade, segundo Searle, uma "capacidade" apresentada pelos seres vivos,
atravs da qual nossos estados mentais se relacionam com os objetos e estados de
coisas no mundo. Assim, se tenho uma inteno, esta inteno deve ser a inteno de
fazer alguma coisa, se tenho um desejo ou um medo, este desejo e este medo devem
ser um desejo ou medo de alguma coisa que est no mundo. Um estado intencional
pode ser definido, grosso modo, como uma representao associada a um determinado
estado psicol6gico.
Esta mesma capacidade - estritamente biol6gica no entender de Searle - percorre
nossa linguagem, convertendo-a num
po
TranslForm/Ao, So Paulo,
v.
1 14
que nossos estados mentais imprimem ao nosso discurso. Nesta operao, os sinais
lingsticos, sejam eles os sons que emitimos ou as marcas que fazemos no papel,
passam a ser representaes de coisas ou estados de coisas que ocorrem no mundo, e
no caso especfico das representaes lingsticas podemos afirmar que elas consti
tuem descries dessas representaes ou mesmo representaes de representaes
que esto na nossa mente. A intencionalidade dos estados mentais no derivada de
formas mais primrias da intencionalidade, mas algo intrlsecO aos pr6prios estados
mentais . Neste sentido, a intencionalidade a propriedade constitutiva do mental e
sua base estritamente biol6gica - s6 os organismos desempenham esta atividade
relacional com o mundo, constituindo representaes . Sua origem est nas pr6prias
operaes do crebro e na sua estrutura, constituindo parte do sistema biol6gico
humano, assim como a circulao do sangue e a digesto.
1 15
de como ocorrem as operaes de nosso crebro . Somos, em grande parte, opacos para
n6s mesmos - e no seria essa uma situao idntica quela de algum que olha para os
resultados das operaes de um computador e, com base nestes 11ltimos, quer sustentar
difcil saber quem tem razo num debate deste tipo: como todas as polmicas
filos6fIcas, esta tambm deve ser inconc1usiva. Entretanto, preciso fazer uma ob
servao importante : a crtica de Searle pode ser considerada correta se levarmos em
conta o tipo de modelo computacional da mente sobre a. qual ela recai. Trata-se de
um
cionalismo.
O funcionalismo baseia-se na tese de que a essncia de nossos estados psicol6gicos
reside na sua interconexo (s vezes causal) com outros estados, formando uma com
plexa economia de estados internos que media os
c omportamentais.
eles crenas, volies, imagen s mentais ou o que quer que seja - so determinadas
homo sapiens.
ciar este conjunto de relaes abstratas, ele ser um sistema mental ou uma "mente" .
"I take it that computational processes are both symbolic and formal . They
are defined over representations, and they are formal because they apply to
representations in virtue of (roughly) the syntax of representations. "
(2, p . 226)
Trans/Form/Ao, So Paulo, v. 14, p. 109- 1 2 1 , 1 99 1 .
1 16
Ora, haver u m limite para nossa capacidade de transformar todas a s nossas repre
sentaes do mundo em representaes do tipo simblico? E at que ponto sistemas
artificiais, construdos com base no modelo funcionalista de mente podero efetiva
mente vir a gerar representaes do mundo externo?
Podemos iniciar, esta discusso, imaginando uma situao na qual desejemos
construir um robot, com a malidade de executar uma ampla variedade de tarefas
num meio ambiente real . Para usarmos uma metfora familiar, podemos supor que este
robot tem uma forma semelhante a de um ser humano, com a CPU (Central Processing
Unit) correspondendo ao crebro (ou mente ! ) . A CPU controla o movimento dos
perifricos que, dotados de censores, transmitem dados acerca do meio ambiente. Estes
dados so, por sua vez, transformados e processados pela CPU que os utiliza para
orientar os comportamentos do robot. Em outras palavras, a CPU deste robot elabora
os inputs que chegam, transformando-os em representaes do seu meio ambiente,
que passam a desempenhar o papel de estados internos que vem se somar a outros es
tados internos que possam porventura serem gerados pelas suas prprias operaes.
Isto torna nossa mquina imaginria bastante sofisticada, dotada de um elevado grau
de autonomia e de complexidade que se aproximam daquela de um ser humano, pos
sibilitando a auto-organizao de seu prprio repertrio de comportamentos.
Ora, tudo se passa como se a CPU deste robot fosse uma espcie de "cmara ce
ga" , onde ocorre um enorme fluxo de estados internos. A situao semelhante
quela do nosso crebro, que um palco por onde passa um enorme fluxo de infor
maes, sejam estas provenientes das prprias atividades cerebrais e orgnicas, ou
provenientes do mundo externo atravs dos sentidos. Ocorre, porem, que o crebro
no pode "ver" de onde provm as informaes (ele uma "cmara escura") e tem
de decidir, unicamente com base no seu contedo, quais so os estados internos legi
timamente representacionais e quais so aqueles que resultam de sua prpria atividade.
O mesmo ocorre na CPU de nosso robot, que teria de realizar esta tarefa: distinguir
entre estados representacionais e outros estados internos sem o auxilio de uma pro
gramao prvia.
117
passado, numa cena algo fanliar de fico cientfica que encontramos no filme
Blade Runner.
Entretanto, a similaridade de comportamento exibida pela rplica ser apenas apa
rente: sem programao prvia no h como distinguir dentre estados internos aqueles
que correspondem a mem6rias e aqueles que correspondem a estados mentais refe
rentes a eventos no presente. Se as "mem6rias" forem expressas na forma de contedos
mentais de carter imagtico, elas se tomam indistinguveis de outros contedos
imagticos que normalmente classificaramos como imagens mentais, imaginao, etc.
No caso das proposies a situao no diferente: exprimir uma proposio como
ocorrendo no passado, atravs de uma sentena com um verbo no passado no significa
referir-se a algo que ocorreu anteriormente no tempo. No caso de um ser humano a
dificuldade poderia ser suplantada: contedos mentais relacionados a lembranas se
riam distintos de outros na medida em que incorporariam e conservariam (parcialmente)
uma relao causal com os eventos passados que efetivamente os produziram.
b) O problema da percepo e da alucinao - Se construirmos um robot e nele
adaptarmos um mecanismo de viso artificial que sirva para orientar suas aes no
meio ambiente, bastante provvel que tal mecanismo de viso artificial no gere
percepes e sim alucinaes verdicas. Entendemos por alucinao verdica um tipo
peculiar de experincia visual no qual o contedo imagtico e informacional coincide
com aquele de uma percepo genuna. Por exemplo, teremos um caso de alucinao
verdica quando uma pessoa tiver diante de si uma paisagem e simultaneamente
alucin-la com todos os seus detalhes. A cena real e a experincia visual (alucinat6ria)
coincidem perfeitamente em termos de contedo imagtico e informacional, embora
essa pessoa possa at mesmo estar vendada, e suas experincias visuais estarem sendo
produzidas por uma neurocirurgia.
Pode um sistema artificial distinguir percepes de alucinaes verdicas? Tomemos
como ponto de partida um sistema que consiste de uma CPU conectada a um "olho
mecnico" - algo parecido com uma cmara de TV, responsvel pela produo de
imagens do meio ambiente onde este sistema se move. Supondo que este mecanismo
de viso artificial sirva para a orientao do comportamento, parece haver, neste caso,
apenas duas possibilidades. A primeira consistiria em estabelecer todas as aes - e,
conseqentemente, todas as "percepes" ou "experincias visuais" que seriam pro
duzidas pelo seu olho mecnico. Assim, por exemplo, poder-se-ia programar o robot
para andar do centro de Paris at a Torre Eiffel, ao mesmo tempo que seu mecanismo
de viso artificial produzisse experincias visuais com um contedo inteiramente
semelhante quelas que um ser humano tem quando caminha do centro de Paris at a
Torre Eiffel. A situao, neste caso, no difere muito daquela na qual o neurofisi610go
introduz agulhas e eletrodos no crebro de seu paciente, produzindo imagens visuais.
Este papel desempenhado pelo programador que, alm de produzir alucinaes
verdicas na sua mquina, estaria tambm controlando suas aes. O grau de auto
nomia desta mquina seria mnimo e mesmo que, por hip6tese, seu dispositivo'de
viso fosse capaz de gerar percepes, tal dispositivo tomar-se-ia praticamente dis
pensvel.
118
1 19
que estes pensamentos possam exibir, mas pela sua ocorrncia contextual estabelecida
numa relao entre organismo e meio ambiente. Estes estados mentais - cujo carter
intencional estabelecido por esta relao simbi6tica com o meio ambiente - so
chamados pensamentos de re e constituem a base hierrquica das representaes
possveis. Seu trao distintivo consiste no fato de eles implicitamente incorporarem
um vnculo com a existncia de seus referentes no mundo - um vnculo que res
ponsvel no apenas pela pr6pria possibilidade de sua ocorrncia na vida mental do
organismo, como tambm pela sua pr6pria identidade enquanto pensamentos.
A natureza intencional (a direcionalidade) deste tipo de pensamentos bsicos
dada por fatores contextuais que compem circunstncias que participam da ocorrn
cia destes pensamentos, e os dotam de uma dimenso semntica oriunda da relao
do sujeito (ou organismo) com uma realidade extramental. Assim, por exemplo, os
partidrios deste tipo de viso, acerca da natureza de pensamentos bsicos (de re),
tm chamado ateno para a necessidade de se distinguir entre ter um pensamento
sobre Londres de um pensamento acerca de Londres. Pois para ter um pensamento
sobre Londres eu posso estar em qualquer lugar, bastando apenas que minha mente
fonne algumas proposies ou imagens das torres do Parlamento e da Oxford Street,
enquanto para ter um pensamento acerca de Londres (e se este pensamento deve
tambm dar minha localizao espacial) , preciso que eu (meu organismo) esteja.
fisicamente em Londres como condio necessria. A distino no puramente
lingstica como poderamos ser levados a crer: ela aponta para uma diviso funda
mental entre dois tipos de pensamentos, pois o pensamento acerca de Londres (de
re) tem sua dimenso semntica estabelecida pelas circunstncias contextuais em que
ocorre o pensamento, enquanto o pensamento sobre Londres independe destas lti
mas (e constitui um pensamento de dieto).
Substanciando este ponto de vista poder-se-ia afmnar a impossibilidade de se
construir um robot ou um mecanismo que fosse capaz de ter o pensamento "estou
aqui" . O problema que este pensamento especfico (de re), "estou aqui" , teria de
ser representado no programa central que controla o robot. mas aqui encontramos
uma dificuldade fundamental: se o carter semntico deste tipo de pensamento de
pende do fato de ele incorporar um fator extramental derivado de uma ligao com as
circunstncias de sua ocorrnCia contextual, o pensamento do tipo "estou aqui" no
adquire significado pelo fato de eventualmente constituir-se como uma represen
tao. Isto porque o significado de pensamentos deste tipo no decorre de nenhum
tipo de contedo especificvel, seja ele iJ'nagtico ou proposicional: mesmo que em
algum momento do programa do robot aparecesse a proposio "estou aqui " , ela
poderia nada dizer acerca da posio do robot no seu meio ambiente. Em outras pa
lavras, o carter transcendente (e semntico) de um pensamento de re resiste a sua
transfonnao plena numa representao ou num pensamento de dieto plenamente
conceitualizado. Mas haver outra maneira de programar a CPU do robot sem antes
conceitualizar todas as operaes que esta deve realizar? (Nota C)
1 20
IV
Os problemas que delineamos na seco anterior no nos obrigam a validar a con
cluso de que o projeto cientfico da Inteligncia Artificial est necessariamente
fadado ao fracasso. Esta a concluso que pensadores com J. Searle gostariam de
extrair das proposies acima, para tentar esboar mais um argumento em favor da
impossibilidade de simulao do comportamento inteligente. Mas esta no a con
cluso que desejamos extrair, sobretudo na medida em que no partilhamos dos
pontos de vista de J. Searle.
No nos parece que os objetivos propostos pela Inteligncia Artificial sejam ina
tingveis . Quem sustenta esta perspectiva corre o mesmo tipo de risco que correram
aqueles que, no sculo passado, sustentaram a idia de que o homem jamais poderia
chegar a lua. Ocorre, entretanto, que o modelo computacional de mente, que tem sido
utilizado por muitos te6ricos da Inteligncia Artificial, precisa de uma ampla reviso.
'
Esta reviso, que j se iniciou a alguns anos atrs, implica uma reformulao concei
tual de grande porte que visa redefinir a metfora a ser empregada na descrio dos
fenmenos mentais. A elaborao de uma nova metfora implica o progressivo aban
dono de noes pioneiras da Inteligncia Artificial, como por exemplo a pr6pria m
quina de Turing e os pressupostos bsicos do funcionalismo tradicional. Trata-se de
uma tarefa que j se encontra em marcha, protagonizada pelo aparecimento dos cha
mados modelos conexionistas.
Estes novos modelos reaproximam a Computao da NeurofIsiologia e da Biologia
Evolucionria, procurando desenvolver uma nova metfora onde, por exemplo, o
conhecimento pr-proposicional ou subsimblico poder ser adequadamente acomo
dado, resolvendo algumas das dillculdades que a Inteligncia Artificial tradicional
no pde superar. "O crebro a melhor metfora para falarmos da mente" - eis o
que parece sugerir o conexionismo, num empreendimento te6rico de grande enverga
dura, que visa integrao de vrios tipos de conhecimento que at ento permane
ceram estanques, isto , sem uma articulao interdisciplinar. Do conexionismo e da
profunda revoluo te6rica que nele est contida, teremos oportunidade de falar em
outro trabalho .
NOTAS
A - Para se ter uma noo mais detalhada de Mquina de Turing e de procedimento
efetivo ver: Teixeira J. de F. O que Inteligncia Artificial, capo 2.
B - Um estudo mais detalhado dos problemas envolvidos na percepo e na elabo
rao de sistemas artificiais de viso est no artigo de minha autoria " A Mquina
de Enxergar" (Revista Discurso, n. 19, 1 99 1 ) - Departamento de Filosofia da
USP. (No prelo) . Trecho semelhante ao explorado, neste item, encontra-se no
referido artigo.
C - Para um estudo da oposio de re e de dieto ver o artigo de minha autoria "In
teligncia Artiflcial e Caa aos Andr6ides" (Psicologia, 1 990, nmero especial
sobre Filosofia da Psicologia, no prelo). Trecho semelhante ao explorado, neste
item, encontra-se no referido artigo.
TranslForm/Ao, So Paulo, v. 14, p. 1 09- 1 2 1 , 1 99 1 .
121
of
intentionality and mental representation. The first part presents a historical outline of the problem
and reviews some classicaUcontemporary writings on the questiono The second part examines the
so-called Chinese Room Argument formuJated by J. Searle. The third part presents a few
arguments aiming to show the inadequacy of the functionalist model for the design of robots. The
conclusion points to some alternatives to the traditional functionalist model such as, for instance,
the connectionist modelo
KEYWORDS: lntentionality;
robots; connectionism.
mental
representation;
REFERNCIAS BIBLIOGRFICAS
1. B RENT ANO, F. Psychology from an empirical standpoint. Trad. A. C. Pancurello, D. B .
Terrell and L . L . McAlister. New York: Humanities Press, 1 925/ 1 973.
2. FODOR, J . Representations: philosophical essays on the foundations of cognitive science.
Cambridge, MA: The MIT Press, 1 98 1 .
3. RUSSEL, B . A anlise da mente. Trad. Antonio Cirurgio. Rio de Janeiro: Zahar,
1971/ 1 976.
4. SEARLE, J. Minds, brains and programs. In: HAUGELAND, J., ed.
Vermont: B radford B ooks, 1 98 1 .
Mind designo
BIBLIOGRAFIA CONSULTADA
DESCARTES , R. Meditaes. Trad. J. Guinsburg e Bento Prado Jr. So Paulo: Abril Cultural,
1 979. (Os pensadores).
KANT, I. Crftica da razo pura. Trad. Valrio Rohden e Udo B. Moosburger. S o Paulo:
Abril Cultural, 1 980. (Os pensadores).
SEARLE, J.
cognitive science.