Você está na página 1de 16

CAPÍTULO 9

FORMA, FUNÇÃO E A MATÉRIA DA EXPERIÊNCIA


Pim Haselager

INTRODUÇÃO
Ao longo da história da Inteligência Artificial (IA)1, os programado-
res que criaram softwares capazes de realizar tarefas cognitivamente
interessantes, se questionaram: os softwares sabem o que estão
fazendo? Eles têm ciência de que estão fazendo alguma coisa? Turing
(1950) discutiu este problema sob o título 'o argumento da consciên-
cia', e atribuiu sua formulação ao Prof. Jefferson, que abordou a
importância de fazer como resultado de pensamentos e emoções.
Recentemente, parece que este 'problema perene' tem contaminado
a nouvelle IA (robótica situada e agentes autônomos) através da
noção de Umwelt (von Uexküll 1936/2001; 1937/2001). Os robôs
concebidos são sujeitos que verdadeiramente experimentam suas
percepções e ações no mundo? Ou estão mera e artificialmente sina-
lizando como se estivessem experimentando?
Ao menos algumas vezes os robôs parecem se mover com um
propósito, são capazes de evitar certas dificuldades e até parecem

249
possuir auto-suficiência, evitando danos e redução de energia. Eles
parecem saber sobre seus ambientes e são capazes de aprender.
Algumas de suas reações a certos eventos parecem baseadas na
história de suas interações com o ambiente. A questão é: tudo isto
é mera aparência?
É óbvio que diferentes pontos de vista residem nos olhos do ob-
servador. Nós temos uma forte tendência para atribuir propósito
ou vontade, pensamentos, crenças e/ou desejos, e até mesmo
sentimentos a objetos, tais como carros e geladeiras. Coisas que,
sob cuidadosa consideração, não seriam qualificadas como possui-
doras destas capacidades. No caso de robôs, o perigo de uma inter-
pretação deste tipo é ainda maior. Esta predisposição humana pode
alimentar tendências nos cientistas que trabalham com a nouvelle
IA, como alimentou com os que trabalhavam com GOFAI (Eliza ou
MYCIN). O potencial para exploração comercial desta tendência é
investigado por companhias que constroem robôs de estimação (e.g.
Sony's Aibo and SDR-4X).
Entretanto, o risco de uma sobre-interpretação deste tipo parece
não ser maior do que o de uma sub-interpretação. Por exemplo, não
serviria a qualquer propósito útil excluir a capacidade que robôs po-
deriam ter para possuir experiências. Encontramos, nesta direção,
argumentos como 'apenas criaturas vivas têm sentimento, propósi-
tos e crenças; robôs não são vivos, portanto, não possuem estas
propriedades'. Estes argumentos estão longe de parecer convincen-
tes, não só porque a primeira premissa não está bem estabelecida,
como também porque isto é matéria de investigação empírica. É
claro que pode ser verdade que robôs não têm sentimentos, propósi-
tos e crenças precisamente porque não são organismos vivos. Só não
parece válido partir de premissas desta natureza.
A questão central, à qual vamos dedicar atenção, é se robôs têm,
ou podem ter, Umwelt. A noção de Umwelt foi introduzida por
Uexküll (1936/2001; 1937/2001) e indica a experiência subjetiva
que um organismo tem de seu mundo perceptual e atuador. A ques-
tão está nos aspectos fenomenais de partes específicas do ambien-
te, motores e perceptuais (Emmeche 2001: 3). Tomamos a noção
de Umwelt, particularmente relevante para a nouvelle IA, porque
ela enfatiza a interação de que decorre a experiência: 'estou
interagindo com o mundo'. Isto é, a noção destaca mais do que
apenas um 'eu' e permite uma abordagem da experiência que não
restringe seu foco exclusivamente a aspectos internos.

250
Nosso argumento é que a noção de vida, como condição necessá-
ria para a existência de um 'Umwelt experimentado', não colabora
para que acessemos as capacidades dos robôs. Sugerimos que um
olhar atento ao modo como forma, função e matéria interagem
pode ser mais produtivo para discutir Umwelt em robôs.

O ETERNO PROBLEMA DA IA
Os seres humanos têm sido comparados, ao longo da história,
com uma grande variedade de máquinas. No entanto, o mérito de
tais comparações tem sido colocado em dúvida desde seus
primórdios. Hipócrates (400 a.C.), por exemplo, afirmou: 'Compa-
rar os humanos com seus produtos é expressão de uma visão extra-
ordinariamente empobrecida da humanidade' (apud Simmen 1968:
7-8). Mais recentemente, homens foram comparados a relógios
(cf. Draaisma 1986). Hobbes (1588-1679) levantou a questão so-
bre, exatamente, que propriedades deveriam ser atribuídas a reló-
gios.
A vida não é nada além de movimento de membros. [...] Por
que não devemos dizer, que todos os autômatos (máquinas
que se movem por molas e rodas, como faz um relógio) têm
uma vida artificial? (apud Flew 1964: 115)
Descartes (1596-1650) relacionou esta questão com o debate so-
bre animais:
[...] não posso compartilhar a opinião de Montaigne, e de
outros, que atribuem entendimento, ou pensamento, aos
animais. [...] Sei que animais fazem muitas coisas melhor do
que fazemos, mas isto não me surpreende. Pode-se usar isto
para provar que eles agem natural e mecanicamente, como
um relógio, que indica a hora melhor do que faz nosso julga-
mento. Quando a andorinha vem na primavera, sem dúvida,
funciona como um relógio (Descartes, 23 novembro, 1646,
carta para o Marquês de Newcastle; Kenny 1970: 206-207).
Baseado na mesma comparação entre relógios e organismos, Des-
cartes se opôs à sugestão de Hobbes. Para Hobbes, a qualidade de
auto-movimentação dos relógios levou à questão sobre se podería-
mos atribuir propriedades de vida a eles, embora, para Descartes,
a similaridade, em certos aspectos (especialmente regularidade),
do comportamento dos relógios e dos animais, fornecia motivo
suficiente para negar qualquer forma de compreensão aos animais.

251
De Malebranche (1638-1715) recusou a idéia de que animais pudes-
sem experimentar qualquer coisa:
Animais não possuem razão ou consciência. Eles comem sem
apetite, gritam sem dor, crescem sem compreender; eles não
desejam coisa alguma, não temem qualquer coisa, não têm
consciência de qualquer coisa (apud Wit 1982: 389).
O modo como ele prossegue é especialmente interessante neste
contexto:
Se, algumas vezes, eles se comportam de um modo que pare-
ce razoável, então isto é conseqüência de um plano material
que Deus ordenou em nome da auto-preservação; eles, sem
razão e mecanicamente, escapam de qualquer coisa que
ameace destruí-los (apud Wit 1982: 389).
Se substituirmos a palavra 'Deus' por 'ser humano' e 'animal' por 'com-
putador', ou 'robô', o resultado é uma sentença que pode ser encontra-
da nos modelos da IA. Turing, como é bem conhecido, discutiu o
'perene' problema da IA sobre o título 'o argumento da consciência':
Nenhum mecanismo poderia sentir prazer em seus sucessos
(não mera e artificialmente sinalizar, uma fácil maquinação),
dor quando a válvula funde, ficar caloroso com bajulações,
arrasado com seus erros, encantado com sexo, ficar nervoso
ou depressivo quando não consegue algo que quer (Turing
1950: 42).
Basicamente, temos aqui a posição de De Malebranche, aplicado
aos computadores, ao invés de aos animais.
O 'eterno' problema tem surgido em diferentes formas. 'Eles' (re-
lógios, computadores, robôs ou animais) não são autônomos, não
sabem do que falam suas representações, não são sistemas intenci-
onais, não são capazes de semiose, não possuem originalidade, não
são criativos, não tem emoções nem sentimentos, não são consci-
entes, não estão vivos. Algo que confunde o debate consideravel-
mente é que qualquer que seja a questão com a qual se comece,
rapidamente ela se 'emaranha' em novas questões. Porém, em to-
das elas está presente a mesma dúvida: há alguém aí?2

NOUVELLE IA
Os robôs são interessantes candidatos à algumas destas questões,
e muitas de suas propriedades parecem dificultar uma resposta
completamente negativa. Em primeiro lugar, robôs são criaturas

252
incorporadas e imersas. Isto é, eles possuem um corpo, diferente-
mente dos modelos computacionais da IA tradicional, por meio do
qual interagem com o ambiente, constituído por objetos e outras
criaturas (artificiais e/ou vivas), e sua imersividade no mundo de-
corre de seu comportamento e de seus processos cognitivos.
Além disso, muitos dos comportamentos dos robôs não parecem
pré-determinados, sendo, ao contrário, emergentes. Emergência
é um conceito complicado.3 Vamos enumerar alguns de seus aspec-
tos mais relevantes, neste contexto. Em primeiro lugar emergên-
cia pode ser entendida como funcionalidade não programada (Clark
2001: 114). O comportamento de um robô não é diretamente con-
trolado ou programado de um modo simples e direto, mas surge
das interações entre um número limitado de componentes que po-
dem ser substancialmente diferentes em suas propriedades e possi-
bilidades de ação. Clark dá o exemplo de simples disposições
comportamentais (e.g. tende para a direita, salta de volta quando
toca algo) em um robô que, sob certas circunstâncias, poderia
prover um comportamento emergente, tal como seguir muros, em
protocolos de navegação espacial. Em segundo lugar, um importan-
te aspecto da emergência é que níveis superiores (globais) influen-
ciam, restritivamente, o comportamento e as interações dos com-
ponentes em níveis inferiores. Isto, algumas vezes, é chamado de
'causação descendente' (downward causation). Diversos debates têm
ocorrido sobre como a noção de 'causação descendente' deveria ser
interpretada, de modo a fazer algum sentido (e.g. Kim 1993).
Concordamos com El-Hani & Emmeche (2000: 262), que afirmam
que 'causação descendente' pode ser entendida como uma expres-
são aristotélica de causalidade formal: 'Entidades de níveis superio-
res estabelecem um padrão particular de restrições sobre as rela-
ções de entidades de níveis inferiores que os compõem.'
Forças de causação descendentes de padrões de alto nível podem
ser observados como restringindo as possibilidades de interação
entre componentes em níveis inferiores. Finalmente, o fenômeno
de 'difusão causal' pode ser observado em relação aos robôs. O
fenômeno é assim definido por Wheeler e Clark (1999: 106): 'O
fenômeno de interesse torna-se dependente, de maneiras inespe-
radas, de fatores causais externos ao sistema.'
É bem conhecido o fato de que a IA tradicional ajusta seu foco
para o que acontece dentro do sistema. O sistema nervoso central,
artificial ou biológico, é visto como o fator causal principal do com-

253
portamento. Mas, de acordo com Wheeler e Clark, as causas de
nosso comportamento não devem ser procuradas dentro de nós,
uma vez que se encontram dispersas no ambiente.
Ora, com a finalidade de entender o comportamento dos robôs, é
necessário tomar em consideração vários e diversos aspectos de
seus corpos e de seus ambientes, além do modo como interagem e
se auto-organizam.

AUTONOMIA, Umwelt E VIDA


Ziemke e Sharkey (2001: 725-726, 730) examinaram a autono-
mia e o Umwelt de robôs como consideravelmente independentes
de seus criadores humanos. Eles estão interessados em robôs que
evoluem por meio de algoritmos genéticos e que são controlados
por redes neurais recorrentes. De acordo com os autores, tais ro-
bôs se adaptam a seus ambientes e possuem uma base histórica em
suas reações. Isto é, as reações dos robôs são 'subjetivas' porque
eles estão se auto-organizando, uma vez que não estão completa-
mente construídos, e porque são específicas, conforme as histórias
de suas experiências. Além disso, os robôs estão envolvidos em
processos sígnicos, fazendo uso de signos, o que os provê com um
certo nível de autonomia epistêmica. Como afirmam Ziemke e
Sharkey, robôs 'se viram por conta própria' quando interagem com
o ambiente. O desenvolvimento dos controladores de robôs (e.g.
redes neurais artificiais) e, algumas vezes, de seus corpos (em
casos de simulação) seguem aquilo que von Uexküll chamou de
'princípios centrífugos'. Eles se desenvolvem de dentro para fora,
contrariamente aos princípios centrípetos mais comuns, de partes
pré-arranjadas em conexão (como o braço de um robô ou um sensor
ótico) com uma unidade central, de fora para dentro. Finalmente,
robôs podem co-evoluir com outras entidades em desenvolvimento.
Ziemke e Sharkey mencionam, como exemplo, o trabalho de Nolfi
e Floreano (1998) em que robôs (kheperas), controlados por redes
neurais recorrentes, co-evoluem com outros robôs, exibindo com-
portamento de predador ou presa. Cliff e Miller (1996) fornecem
um exemplo de co-evolução interna, em que o controlador e o
sensor ótico evoluem de um modo cruzado.
Considerando estes exemplos, podemos inferir que há boas razões
para suspeitar que robôs estão bem qualificados para apresentar, em

254
algum nível, autonomia e Umwelt. Isto é, somos capazes de fornecer
subsídios para afirmar que, de um modo rudimentar, robôs fazem
coisas 'por si mesmos' e precisam ter um mapeamento de ordem
superior e uma avaliação de amostras sensório-motoras de seu am-
biente. Entretanto, Ziemke e Sharkey (2001: 736) terminam seu
artigo com um claro 'não' à indagação sobre a possibilidade de Umwelt
em robôs, exatamente porque não estão vivos: 'Os componentes
poderiam estar melhor integrados, depois de serem auto-organiza-
dos. Eles poderiam mesmo ser considerados 'mais autônomos' por
esta razão, mas eles certamente não se tornaram vivos neste pro-
cesso'. O mesmo veredicto é dado por Emmeche (2001: 19):
O que dá ao Umwelt seu caráter fenomenal não é o aspecto
cibernético-funcional de processamento de sinais, dentro
do sistema (e na interface sistema-ambiente), mas o fato de
que o organismo vivo é antes constituído como um sujeito
ativo com algum agenciamento. Portanto, podemos dizer que
apenas seres vivos genuínos (organismos e animais, especial-
mente) vivem a experiência de um Umwelt .
Então, robôs não possuem Umwelt porque não estão vivos e não
se tornam vivos em sua interação crescente e autônoma com o
mundo. Se este argumento está correto, desqualifica imediata-
mente criaturas artificiais e exige da Robótica que ela se torne um
ramo da biologia na tentativa de produzir criaturas com Umwelt.
Neste ponto, entretanto, gostaríamos de levantar uma questão
que pode parecer estranha (ao menos assim me pareceu quando
pensei a seu respeito pela primeira vez): o que a vida tem a ver
com isto? Em primeiro lugar, vida e experiência não são sinônimos.
A possibilidade (ou não possibilidade) de haver experiência sem vida
é uma questão empírica. Também é uma questão empírica se cria-
turas artificiais (para serem distinguidas de criaturas vivas) podem
ter Umwelt. As pesquisas em Robótica estão destinadas a investigar
as capacidades e as propriedades dos robôs. A experiência de que
um Umwelt pode surgir em determinados tipos de criaturas, vivas
ou artificiais, poderia ser uma questão de descoberta, devido aos
efeitos emergentes de acoplamento entre sistemas de controle (e.g.
cérebros), corpos e ambientes. Isto não quer dizer que não exis-
tam diferenças entre criaturas vivas e artificiais; quer dizer, ape-
nas, que a capacidade de ter experiências pode não constituir a
diferença entre elas.
Em segundo lugar, existem situações em que podemos dizer que
criaturas vivem sem experiências. O sono profundo sem sonho é

255
considerado, normalmente, sem experiências, assim como algu-
mas formas de coma. Organismos sem um sistema nervoso tam-
bém são, geralmente, assim considerados (e.g. Damasio 1999;
Emmeche 2001). Portanto, estar vivo não é suficiente para ter
experiências.
Mais difícil, obviamente, é conceber o contrário, que criaturas
têm experiências embora não estejam vivas. A sugestão de que
uma criatura que não está viva possa ter experiências certamente
parece bizarra. Há uma forte tendência para associar 'não vivo'
com 'morto', e 'estar morto' com o estado de não experimentar
coisa alguma. Entretanto, parece que, em relação a robôs, esta
associação não é adequada. Basicamente, o que estamos propondo
é que criaturas artificiais não se enquadram perfeitamente nas
categorias 'morto' ou 'vivo'. Não podemos decidir a respeito de suas
capacidades, com base na tentativa de forçá-las a uma dessas clas-
ses.
Então, a vida é uma condição necessária para a experiência? Por
quê? Quais são exatamente os argumentos? Há, pelo menos, dois
argumentos a serem examinados. De acordo com o primeiro argu-
mento, todas as criaturas capazes de experiência que conhecemos
são criaturas vivas. Um testemunho da tendência para associar
vida com experiência são as experiências relatadas de vida após a
morte. Em resposta, só podemos recorrer à refutabilidade indutiva.
Pode ser o caso que, até hoje, todas as criaturas em relação às
quais podemos dizer que 'têm experiência' são criaturas vivas. Mas
isto não constitui uma prova para a tese de que a vida é uma
condição necessária para a experiência. A não-confiabilidade do
argumento indutivo é ainda mais imperativo porque a Robótica
dedica-se à construção de criaturas de um tipo totalmente novo,
artificial e não-biológico. Exatamente quais propriedades devem
ser atribuídas a tais criaturas não é algo que pode ser decidido com
base em experiências passadas.
Um argumento mais substancial é aquele que poderia explicar
porquê criaturas que tem experiências devem estar vivas. Tal argu-
mento destaca que a matéria das criaturas vivas é necessária para
a constituição de experiências. Propomos um olhar mais atento
sobre este assunto. Que propriedades da matéria viva seriam es-
senciais para caracterizar a experiência?

256
DA MATÉRIA PARA EXPERIÊNCIA: AUTOPOIESIS
Não encontramos argumento que relacione diretamente a capa-
cidade de ter experiências às propriedades específicas da matéria.
Um conceito, entretanto, que tem sido freqüentemente mencio-
nado como sendo essencial para a matéria viva é autopoiesis (e.g.
Maturana & Varela 1987). Ele se refere à capacidade de auto-
geração e auto-manutenção de células, por exemplo. A questão
que se coloca aqui é: como a autopoiesis pode estar relacionada à
experiência?
As células são consideradas importantes exemplos de sistemas
autopoiéticos. Entretanto, elas não são geralmente consideradas
como capazes de experiênciar algo. Emmeche (2001: 18), por exem-
plo, afirma que protozoários não possuem um sistema nervoso e
não detêm um Umwelt genuíno. Pode ser que a autopoiesis não
constitua um pressuposto para a experiência. Além disso, a noção
de autopoiesis não reflete algumas qualidades intrínsecas de um
tipo específico de matéria, mas indica uma característica de sua
organização, denotando, portanto, uma qualidade funcional. Como
afirmam Maturana e Varela, (1987: 51; ver também Ziemke e
Sharkey 2001: 732): '... o fenômeno que eles geram, funcionando
como unidades autopoiéticas, depende de sua organização e do
modo como esta organização acontece, não da natureza física de
seus componentes'.
Conclui-se que outras matérias, além da matéria viva, podem
instanciar autopoiesis. O material particular que compõe o organis-
mo vivo pode ser resultado de coincidência histórica ou evolucionária:
A organização autopoiética pode ser obtida por diferentes
tipos de componentes. Temos de perceber, entretanto, que,
em consideração à origem molecular de seres vivos terres-
tres, somente certas espécies moleculares são provavelmen-
te possuidoras das características necessárias para unidades
autopoiéticas, desta forma iniciando a história estrutural à
qual pertencemos (Maturana e Varela 1987: 49).
Se Umwelt, a experiência subjetiva de interação perceptiva e
motora com o ambiente, ocorre na dependência de certas caracte-
rísticas funcionais, normalmente encontradas em algumas formas
de matéria, porque essas características funcionais não podem ser
replicadas em outros materiais? Longe de desqualificar robôs, este
argumento nos leva a considerar mais cuidadosamente a relação
entre função, forma e matéria das criaturas artificiais.

257
FUNÇÃO, FORMA E MATÉRIA
No cerne da ciência cognitiva está, tradicionalmente, a idéia de
que qualquer sistema deveria ser analisado em três diferentes ní-
veis. No nível funcional, a tarefa do sistema é examinada e hipóte-
ses são formuladas sobre o que o sistema deve fazer. No nível
formal, ou computacional, são estudadas as maneiras como a fun-
ção pode ser desempenhada. Neste nível, a forma dos processos
está sob investigação. Finalmente, no nível físico, considera-se a
composição material do sistema que está sendo analisado. Iremos
usar o termo 'função', 'forma' e 'matéria' para fazer referência aos
três níveis de análise.
Da perspectiva tradicional da IA, tendo em vista os três níveis de
análise, a situação é aproximadamente esta. No nível funcional,
considera-se a tarefa que o (sub)sistema tem de cumprir. A análi-
se, neste nível, resulta na formulação do problema que o sistema
deve resolver através de processamento interno de informação.
Marr (1982), por exemplo, afirma que a tarefa a ser resolvida pelo
sistema visual seria a transformação de uma imagem retiniana
bidimensional em um mundo tridimensional de objetos reconheci-
dos. No nível da organização, a questão está na relação
computacional entre as representações: algoritmos especificam o
modo através do qual os problemas podem ser resolvidos. Diferen-
tes algoritmos podem ser comparados a partir de suas performances
e/ou plausibilidades psicológicas, etc. No nível físico, para a IA
tradicional, é aceitável praticamente qualquer coisa, porque
algoritmos podem 'rodar' em um vasto espectro de construções e
materiais, de computadores high techs, até latas de cerveja, como
Searle tem indicado. Poucas limitações são impostas ao nível físico.
Qualquer substrato material que possa implementar processos for-
mais é, em princípio, suficiente.
Para a nouvelle IA, a situação é diferente. No nível funcional, o
sistema deve atingir homeostase, tentando manter sua própria or-
ganização enquanto interage com o ambiente. Em relação à forma
de organização, e ao modo como seus componentes interagem, o
foco da abordagem é direcionado à auto-organização do sistema e
àquilo que permite um acoplamento dinâmico entre sistema e am-
biente. As condições para homeostase e auto-organização resultam
em coerções mais restritivas sobre a matéria na qual estes proces-
sos são encontrados, implicando pré-requisitos para as unidades

258
autopoiéticas. A seguinte tabela (tabela 1) sumariza as diferenças
entre a tradicional e a nouvelle IA:

Tradicional IA Nouvelle IA

Função (nível tarefa) solução de problemas Homeostase

Forma (nível organizacional) algoritmos auto-organização

Matéria (nível físico) qualquer coisa unidades autopoiéticas

Tabela 1: IA tradicional versus Nouvelle IA


Nossa sugestão é a de que a nouvelle IA leva a uma reconsideração
das respostas fornecidas pela ciência cognitiva tradicional nos três
níveis de análise. Em parte, a Robótica é importante para a ciência
cognitiva porque as idéias básicas apresentadas pela nouvelle IA,
nos três níveis, resultam em restrições nas relações entre eles. Esta
sugestão impõe considerações mais cuidadosas quanto ao material
de constituição dos robôs. Essencialmente, isto não somente se
aplica ao sistema nervoso artificial dos robôs, mas, muito amiúde,
ao material de constituição do robô como um todo.

AS CRIATURAS ARTIFICIAIS PROTO-UMWELT


Vamos considerar o que poderia vir a ocorrer se robôs fossem
desenvolvidos de acordo com estas idéias. Suponhamos um sistema
artificial que consista em unidades autopoiéticas. Elas se desenvol-
vem através de princípios centrífugos, de dentro pra fora. Seus
processos acoplados resultam na emergência auto-organizada de
padrões de comportamento que direcionam o sistema à homeostase.
O quê diríamos sobre sistemas como estes? Talvez não disséssemos
que estão vivos, mas teriam Umwelt? Emmeche (2001: 21) nos
brinda com a seguinte resposta:
Se tal dispositivo material, como um robô, pudesse ter a fle-
xibilidade orgânica de um animal, permitindo-o instanciar
qualquer coisa como uma lei da mente, isto é, como uma
tendência para permitir que signos se influenciem mutua-
mente, de um modo auto-organizado, é difícil ver porque
tais dispositivos não deveriam poder realizar signos genuínos
(incluindo qualisignos).4 [...] Se aquele sistema construído
artificialmente realiza uma ação de qualisigno, e de senti-

259
mento vivo, ele teria mente no sentido de Peirce. Mas teria
um Umwelt ? Há alguém em casa experimentando algo?
Parece injusto repetir a questão depois de ter cedido tanto. Quando
há 'ação do qualisigno' e 'sentimento vivo', parece que há um
Umwelt. Em algum ponto a 'questão perene' deveria ser detida,
caso não signifique mais do que a repetição do problema das 'ou-
tras mentes'. Ao mesmo tempo, pode-se, talvez, ser solidário com
a relutância em atribuir uma forma de experiência a um simples
robô.
Nestas circunstâncias, talvez possamos evitar a repetição da 'ques-
tão perene' da IA, considerando um estágio intermediário, na rota
para um Umwelt completo. Talvez seja útil qualificar robôs como
um tipo de organismo rudimentar; algo que pudesse ter um 'proto-
Umwelt'. É interessante lembrar que os biólogos, algumas vezes,
falam sobre células de maneira similar. Emmeche (2001: 18), por
exemplo, ao tratar de protozoários, menciona '...a falta de um
sistema nervoso e um Umwelt verdadeiro, mas [...] há um 'círculo
autocinético e móvel', mais simples, pelo qual [protozoários] en-
tram em interações semióticas com seu meio exterior'.
Finalmente, o neurocientista Antônio Damásio (1999: 136-137)
sugere que uma ameba, por exemplo, pode ser vista como possuin-
do 'alguns antecedentes biológicos da noção de self'. Assim, há co-
nhecimento de uma forma de autocinese que leva a algo próximo à
capacidade semiótica de um self, sem criar um Umwelt. Uma vez
que aceitemos esta possibilidade, torna-se difícil ver porque siste-
mas artificiais homeostáticos, constituídos por atraentes unidades
autopoiéticas em autocinese, e em interação semiótica com seu
ambiente, não teriam um 'proto-Umwelt' do tipo que é conferido a
criaturas unicelulares. Por que não atribuir a criaturas não-vivas o
mesmo tipo de 'proto-Umwelt', atribuído por biólogos às células?

AGRADECIMENTOS
Gostaria de agradecer à Raquel Pellizzetti, Mariana Broens, João Queiroz e Eunice
Gonzalez pela ajuda no desenvolvimento deste texto; à Fapesp pelo apoio financei-
ro, à UNESP (Campus de Marília), por me oferecer condições de trabalho e ao NICI
(Nijmegen), por permitir o desenvolvimento de minhas atividades em São Paulo.

NOTAS
1
O rótulo ‘IA’, neste contexto, inclui o que Haugeland chama de ‘a
Boa e Velha Inteligência Artificial’ ou ‘a Inteligência Artificial à Moda

260
Antiga’ (Good Old Fashioned Artificial Intelligence — GOFAI: the
symbol rule approach) e formas tradicionais de conexionismo, por
exemplo, as redes feedforward, populares nos anos 80. Esta forma
de IA deve ser diferenciada de trabalhos mais recentes em Robótica
que, muitas vezes, envolvem pesquisas com agentes autônomos.
Entretanto, uma vez que tem sido questionada a autonomia e in-
dependência destes agentes, faremos uso da expressão ‘nouvelle
IA’, como rótulo geral para os trabalhos mais recentes em Robótica.
2
Estamos deixando de lado aqui questões como ‘de que modo
iremos saber se robôs têm experiências ou não?’ porque a mesma
questão poderia ser levantada em relação a experiências de outra
pessoa (o conhecido problema ‘outras mentes’).
3
Notas dos orgs.: O leitor deve consultar, neste volume, o capítulo
de El-Hani & Queiroz, onde é desenvolvido um tratamento cuidado-
so sobre a noção de emergência.
4
Nota dos orgs.: Para Peirce (CP 8.334), o signo, com respeito a
sua própria constituição, pode ser uma qualidade (qualisigno), um
existente (sinsigno), ou uma lei (legisigno). Um qualisigno é uma
qualidade que é um signo, que funciona como um signo sem qual-
quer referência a qualquer outra ‘coisa’.

REFERÊNCIAS
EMMECHE, C. 2001. Does a robot have an Umwelt? Reflections on
the qualitative biosemiotics of Jakob von Uexküll. Semiotica 134
(1): 653-693.
BRAITENBERG, V. 1984. Vehicles: Experiments in synthetic
psychology. MIT Press.
CLARK, A. 2001. Mindware: an introduction to the philosophy of
cognitive science. Oxford University Press.
CLIFF, D.; MILLER, G. 1996. Co-evolution of pursuit and evasion II:
Simulation methods and results. Em: P. Maes, M. Mataric, J.A.
Meyer, J. Pollack & S. Wilson (eds). From animals to animats 4:
Proceedings of the fourth international conference on simulation of
adaptive behavior (SAB96). Cambridge, MA: MIT Press. pp. 506-
515.

261
DAMASIO, A. 1999. The feeling of what happens: Body, emotion
and the making of consciousness. Vintage.
DRAAISMA, D. 1986. De machine achter het gordijn: Drie eeuwen
debat over bewustzijn en mechanicisme. Em: P. Hagoort & R.
Maessen (eds.). Geest, computer, kunst. Grafiet.
EL-HANI, C.; EMMECHE, C. 2000. On some theoretical grounds for
an organism-centered biology: Property emergence, supervenience,
and downward causation. Theory of Bioscience 119: 234-275.
FLEW, A. 1964. Mind, body, and death. MacMillan Publishing
Company.
KAUFMANN, S. 2000. Investigations. Oxford University Press.
KENNY, A. 1970. Descartes: Philosophical letters. Basil Blackwell.
KIM, J. 1993. Supervenience and mind: selected philosphical essays.
Cambridge University Press.
MARR, D. 1982. Vision. Freeman.
MATURANA, H.R.; VARELA, F.J. 1987. The tree of knowledge: The
biological roots of human understanding. Shambhala.
NOLFI, S.; FLOREANO, D. 1998. Co-evolving predator and prey
robots: Do 'arm races' arise in artificial evolution? Artificial Life 4:
311-335.
SIMMEN, R. 1968. Mens & Machine: Teksten en documenten over
automaten, androïden en robots. Amsterdam: van Lindonk.
TURING, A.M. 1950. Computing machinery and intelligence. Mind
59: 433-460.
UEXKÜLL, J. von. 1936/2001. An introduction to Umwelt. Semiotica
134: 107-110.
UEXKÜLL, J. von. 1937/2001. The new concept of Umwelt: A link
between science and the humanities. Semiotica 134: 111-123.
WHEELER, M.; CLARK, A. 1999. Genic representation: Reconciling
content and causal complexity. British Journal for the Philosophy
of Science 50: 103-135.
WIT, H.C.D. de 1982. Ontwikkelingsgeschiedenis van de biologie,
Deel 1. Pudoc.

262
ZIEMKE, T. e Sharkey, N. 2001. A stroll through the worlds of robots
and animals: Applying Jakob von Uexküll's theory of meaning to
adaptive robots and artificial life. Semiotica 134: 701-746.

263

Você também pode gostar