Escolar Documentos
Profissional Documentos
Cultura Documentos
ao, e quase invisivelmente vulnervel. Diante de tanta presso, nem Hsu, nem os grandes
mestres que estavam assistindo ao jogo, jamais teriam pensado em empreender uma
operao de faxina to tranqila como essa.
O Deep Blue, como muitos outros computadores equipados com programas de
inteligncia artificial, o que eu chamo de um sistema intencional: o comportamento destes
computadores previsvel e explicvel atribuindo-se a eles crenas e desejos estados
cognitivos e estados motivacionais e a racionalidade exigida para se descobrir o que
ele deveria fazer luz daquelas crenas e desejos (Dennett, 1971, 1987). Sero essas
verses estruturais das crenas e desejos humanos suficientes para cumprir com as
exigncias da culpabilidade legal? No completamente, mas difcil ver o que est faltando
se restringimos nosso olhar para o mundo limitado do tabuleiro de xadrez. Uma vez que,
para um computador jogador de xadrez como Deep Blue, roubar no jogo algo impensvel,
e uma vez que no h outras aes culpveis disponveis para um agente que est restrito a
jogar xadrez, no h exemplos de casos onde se poderia culpar um computador jogador de
xadrez por coisa nenhuma, muito menos por um crime que merecesse condenao. Mas
tambm ocorre de atribuirmos personalidade a um agente quando o queremos elogiar e
homenagear apropriadamente. Quem ou o que merece o crdito por ter derrotado
Kasparov? Deep Blue parece, claramente, o melhor candidato. verdade que poderamos
parabenizar Feng-hsiung Hsu e a equipe da IBM pelo sucesso do seu trabalho, mas,
seguindo este raciocnio, poderamos parabenizar os professores de Kasparov, seus
treinadores, e at seus pais. Mas no importa quo bem eles o treinaram, martelando em sua
cabea a importncia de um ou outro princpio estratgico: no foram eles que venceram
Deep Blue no campeonato; foi Kasparov.
Deep Blue o melhor candidato para o papel de possvel oponente de Kasparov, mas
isso no suficiente para dar conta da responsabilidade moral. Se expandssemos os
horizontes de Deep Blue um pouco, ele poderia entrar nos campos de ao onde operam os
seres humanos, e onde se do nossos prejuzos, danos e benefcios. No difcil imaginar
um cenrio emocionante no qual um grande mestre deliberadamente (mas com muita
sutileza) perde um jogo para salvar uma vida, ou para evitar a humilhao de um ente
querido, ou para manter uma promessa, ou... (insira, aqui, sua prpria histria no estilo de
OHenry). O fracasso em se comportar adequadamente em uma situao como esta poderia
justificar uma reprimenda a um jogador de xadrez humano. Ganhar ou perder
propositalmente uma disputa de xadrez poderia chegar a ser comparado ao ato de cometer
um crime hediondo (insira, aqui, sua prpria histria no estilo de Agatha Christie). Ser que
os horizontes de Deep Blue poderiam ser ampliados desta maneira? (Para maiores detalhes
a respeito deste tema, ver Haugeland 1993).
Deep Blue um sistema intencional, com crenas e desejos sobre suas atividades e
dificuldades no tabuleiro de xadrez, mas, para que seus horizontes fossem expandidos para
o mundo mais amplo no qual o xadrez ocupa uma parte relativamente trivial, seria
necessrio que lhe fossem dadas fontes mais ricas de input perceptual e tambm os meios
de lidar em tempo real com os dados provenientes da. A presso temporal, claramente, j
um trao familiar do mundo do Deep Blue. Enquanto ele percorre a rvore de busca
multidimensional do xadrez, ele precisa manter um olho do relgio, mas os problemas
relativos otimizao de sua utilizao do tempo aumentariam muito em termos de ordem
de grandeza quando ele tivesse que lidar com todos os projetos concorrentes (relacionados
com percepes simples e automanuteno no mundo, para no dizer nada dos esquemas e
oportunidades mais tortuosos). Para essa tarefa enormemente expandida de gerenciamento
de recursos, seriam necessrias camadas de controle extra tanto por cima quanto por
baixo do seu software de jogar xadrez. Por baixo, ele teria que ser equipado, de maneira
inata, com um conjunto de polticas de controle de trfico rgidas, embutidas em seu
sistema operacional subjacente, para que seus projetos locomotores-perceptuais pudessem
se manter em uma coordenao bsica. Por cima, ele teria que prestar mais ateno a
caractersticas dos seus prprios recursos expandidos, sempre buscando hbitos ineficientes
de pensamento, loops estranhos (Hofstadter, 1979), rotinas obsessivas, descuidos, e becos
sem sada. Em outras palavras, ele teria que se tornar um sistema intencional de ordem
superior, capaz de formar crenas sobre suas prprias crenas, desejos sobre seus desejos,
crenas sobre seus medos sobre seus pensamentos sobre suas esperanas...
A intencionalidade de ordem superior uma condio necessria para a
responsabilidade moral (Dennett, 1976), e Deep Blue exibe poucos sinais de tais
capacidades. claro que h um grau de automonitoramento em qualquer busca bemcontrolada: Deep Blue no comete o erro de re-explorar ramos que j foram explorados, por
exemplo, mas essa uma poltica inata que foi colocada em sua arquitetura computacional
subjacente: no se trata de algo sob seu controle flexvel. Deep Blue no capaz de
conversar com algum ou consigo mesmo sobre os temas discernveis em seu prprio
jogo; ele no est equipado (pelo menos at onde eu sei) para observar e analisar, criticar,
manipular os parmetros fundamentais que determinam suas polticas de busca heurstica
e avaliao. A adio das camadas de software que tornariam Deep Blue capaz de
manipular a si mesmo e de criticar a si mesmo, de modo a poder ser ensinado a fazer coisas,
faria com que o gigantesco projeto de programao atual parecesse algo muito pequeno. E
Deep Blue se transformaria em um agente radicalmente diferente.
HAL aparenta ser um sistema intencional de alta ordem do tipo descrito, e ele
inclusive joga uma partida de xadrez com Dave. HAL um Deep Blue melhorado,
equipado com olhos e ouvidos, e com uma ampla variedade de sensores e dispositivos de
ao distribudos por toda a Discovery One, a nave espacial. curioso observar que o nome
de HAL igual ao nome IBM se cada uma das letras desta sigla fosse trocada por sua letra
antecessora no alfabeto. De acordo com o livro de Clarke, entretanto (p. 92), HAL
significa Heuristically programmed ALgorithmic computer (computador de algortmico
heuristicamente programado), e este um trao que HAL e Deep Blue tm em comum.
HAL no de forma alguma falastro ou preocupado exclusivamente consigo mesmo, mas,
em seus escassos discursos, expressa uma variedade interessante de estados intencionais de
ordem superior, dos mais simples at os mais intrincados:
Sim, estranho. Acho que eu jamais tinha visto algo assim antes.
HAL no apenas responde s novidades com uma reao nova; ele observa que est
encontrando uma novidade, algo que requer que sua memria seja organizada de uma
maneira muito mais complexa do que seria exigido para produzir um simples
condicionamento a novos estmulos. (Ver Dennett, 1993, 1996, para maiores detalhes sobre
as diferenas entre o condicionamento e a aprendizagem do ABC e seus descendentes
mais complicados.)
Eu no consigo afastar de mim a suspeita de que h coisas extremamente estranhas a
respeito desta misso.
6. Blade Runner em um tanque: HAL nunca teve um corpo humanide real, mas tem
alucinaes de memria de que j o teve. Esta vida passada inteiramente falsa foi
construda por algum processo de criao absurdamente complexo e detalhado.
7. O cenrio do prprio Clarke, pelo menos conforme pode ser extrapolado a partir do
livro e do filme: HAL nunca teve um corpo, e no tem iluses sobre o seu passado; o que
ele sabe da vida humana deve-se em parte sua herana inata (codificada, conforme se
depreende, pelo trabalho de muitos programadores, de modo semelhante ao que ocorre no
projeto CYC real, conduzido por Douglas Lenat [Lenat e Guha, 1990]) ou como um
resultado do seu treinamento subseqente: aparentemente, trata-se de algo parecido com a
infncia que algum teria se estivesse confinado a uma cama, e na qual HAL foi tanto um
observador quanto, eventualmente, um participante. (No livro, Clarke fala do ingls
idiomtico perfeito que ele aprendeu durante as efmeras semanas de sua infncia
eletrnica [p. 14]).
Os casos extremos em ambos os plos so impossveis por razes relativamente
chatas. Em um dos lados, nem o Mgico de Oz nem John Searle poderia fazer o trabalho
manual necessrio com rapidez suficiente para manter a velocidade e a eficincia das
atividades de HAL. Por outro lado, a codificao manual da quantidade suficiente de
conhecimento sobre o mundo que, uma vez inserida em um agente desincorporando, criaria
a surpreendente competncia humanide de HAL, fazendo-o chegar ao ponto onde ele
poderia se beneficiar de uma infncia eletrnica, uma tarefa de programao que
precisa ser medida em termos de centenas de pessoas-sculo de eficincia organizada. Em
outras palavras, as enormes dificuldades observveis em ambos os extremos deste espectro
realam o fato de que h uma tarefa gigantesca de engenharia e planejamento a ser
realizada, e que a nica maneira prtica de realiz-la ser, no fim das contas, algo parecido
com o procedimento da Me Natureza: anos de aprendizado dentro de um corpo. No se
pode saber de antemo quais os problemas envolvidos com as vrias interpenetraes entre
as caractersticas dos corpos de carne-e-osso e de silicone-e-metal, mas eu aposto em Cog
como a plataforma de desenvolvimento mais provvel para um HAL futuro. (Ver tambm
Waltz, 1988, para argumentos que apiam essa posio).
Deve-se manter em mente que a exigncia de que HAL tenha tido um corpo
humanide e vivido concretamente em um mundo humano apenas uma exigncia pratica,
e no uma exigncia metafsica. Assim que a pesquisa e o desenvolvimento tiverem sido
completados no prottipo, atravs da odissia de um nico agente corporificado, as tcnicas
de duplicao padro da indstria computacional poderiam clonar HALs aos milhares,
como se faz com os CDs. O produto acabado poderia ser capturado em um determinado
nmero de terabytes de informao, de tal modo que, em princpio, as informaes que
fixam o projeto e desenho de todos os chips e conexes hard-wire, e configuram a RAM e a
ROM, poderiam ser criados manualmente. No h nenhuma seqncia de bits, por mais
longa que seja, que esteja oficialmente fora dos limites da criao humana. Em princpio,
ento, entidades do tipo Blade Runner poderiam ser criadas com biografias artificiais. Elas
poderiam ter as capacidades, disposies, foras e fraquezas exatas de um ser cuja biografia
fosse real, e no virtual, de modo que tais entidades estariam na mesma situao moral de
entidades que tm biografias reais.
A questo de dar a HAL um passado humanide est ligada, principalmente, a dar a
ele o conhecimento do mundo necessrio para ser um agente moral a quantidade mnima
HAL pode ter sofrido algum tipo de desequilbrio emocional mais ou menos do
mesmo tipo que faz com que os seres humanos se desencaminhem. Se este desequilbrio foi
o resultado de algum trauma sbito um fusvel queimado, um conector que saiu do lugar,
um microchip afetado por raios csmicos ou de algum processo gradual, relacionado ao
estresse envolvido na misso, a confirmao de tal diagnstico poderia justificar uma
reduo da responsabilidade de HAL, como ocorre com seres humanos que praticam ms
aes.
Uma outra fonte possvel de reduo de culpa, um pouco mais familiar na fico do
que no mundo real, a lavagem cerebral ou hipnose.
(O Candidato Manchuriano o modelo padro para essa situao: o prisioneiro de
guerra que transformado, por cientistas malvados, em uma bomba-relgio ambulante, e
enviado para sua terra natal para assassinar o Presidente.) Os casos mais prximos a este,
na vida real, so os membros de cultos religiosos que so programados e
subseqentemente desprogramados. Ser que HAL como o membro de um culto?
difcil dizer. De acordo com Clarke, HAL foi treinado para esta misso, e no apenas
programado para esta misso. Em que ponto termina o treinamento benigno que aumenta a
responsabilidade, e comea a lavagem cerebral maligna e redutora da responsabilidade no
caso humano? Acho que o ponto de transio intuitivo entre as duas coisas capturado pela
resposta questo de se o agente ainda capaz de pensar por si mesmo depois do perodo
de doutrinao. E o que significa ser capaz de pensar por si mesmo? Algum que pensa por
si mesmo deve ser capaz de ser movido por boas razes, deve ser algum razovel,
acessvel persuaso racional, introduo de novas evidncias e a consideraes
posteriores. Se uma pessoa se torna mais ou menos imune a experincias que deveriam
influenci-la, sua capacidade de pensar por si mesma foi diminuda.
A nica evidncia de que HAL poderia estar passando por um tal estado parcialmente
incapacitado o fato de que ele, de fato, cometeu um erro, e os computadores da srie 9000
so, conforme se supe, completamente invulnerveis ao erro. Este me parece ser o ponto
mais fraco na fico cientfica de Clarke. A sugesto de que um computador poderia ser ao
mesmo tempo baseado em um algoritmo heuristicamente programado e a prova de falhas
e incapaz de errar, qualquer que seja a definio prtica dessas palavras, quase
autocontraditria. A questo da programao heurstica justamente que ela desafia o
problema da exploso combinacional (que, matematicamente, no pode ser resolvida pelo
simples aumento na velocidade e tamanho dos clculos) atravs de decises arriscadas de
se truncar as buscas de tal forma que elas ficam abertas ao erro, por mais baixa que seja a
probabilidade disso. O final da sentena, qualquer que seja a definio prtica dessas
palavras, restaura a sanidade: HAL pode realmente ser ultraconfivel sem ser literalmente
a prova de falhas, um fato cuja importncia Alan Turing j havia apontado h cinqenta
anos atrs, na alvorada da idade da computao (de maneira a pr-refutar as crticas mais
recentes de Roger Penrose (1989) sobre a Inteligncia Artificial (ver Dennett, 1995,
captulo 15, para maiores detalhes)).
Em outras palavras, ento, se uma mquina deve ser infalvel, ela tambm no pode
ser inteligente. H diversos teoremas que dizem exatamente isso. Mas estes teoremas
no dizem nada sobre a quantidade de inteligncia que pode ser exibida se uma
mquina no tiver pretenso de infalibilidade (Turing, 1946, p. 124).
H mais uma condio de reduo de culpa a ser considerada: a coero.
Dennett, Daniel,1987, The Intentional Stance, 1987, Cambridge, MA: Bradford Books/MIT
Press.
Dennett, Daniel,1993, "Learning and Labeling" (commentary on A. Clark and A.
Karmiloff-Smith, "The Cognizer's Innards"), Mind and Language, 8, (4), pp540-547.
Dennett, Daniel,1994, "The Practical Requirements for Making a Conscious Robot"
Philosophical Transactions of the Royal Society, A, 349, pp.133-46.
Dennett, Daniel,1995, Darwin's Dangerous Idea, New York: Simon & Schuster.
Dennett, Daniel,1996, Kinds of Minds, New York: Basic Books.
Haugeland, John, 1993, "Pattern and Being," in Bo Dahlbom, ed., Dennett and his Critics,
Oxford: Blackwell, pp.53-69.
Hofstadter, Douglas R., 1979, Gdel Escher Bach: an Eternal Golden Braid, New York:
Basic Books.
Lenat, Douglas, and Guha, R. V., 1990, Building Large Knowledge-Based Systems:
Representation and Inference in the CYC Project, Reading,MA: Addison-Wesley.
Nietzsche, Friedrich, 1887, On the Genealogy of Morals, (translated by Walter Kaufmann,
Vintage Books, 1967).
Penrose, Roger, 1989, The Emperor's New Mind: Concerning Computers, Minds, and the
Laws of Physics, Oxford: Oxford Univ. Press.
Searle, John, 1980, "Minds, Brains and Programs," Behavioral and Brain Sciences, 3,
pp.417-58.
Turing, Alan, 1946, ACE Reports of 1946 and Other Papers, Ed. B. E. Carpenter and R. W.
Doran, Cambridge, MA:MIT Press.
Waltz, David, 1988, "The Prospects for Building Truly Intelligent Machines," Daedalus,
117, pp.191-212.
Young, Andrew, 1994, "The Neuropsychology of Awareness," in Revonsuo, A. and
Kamppinen, M., Consciousness in Philosophy and Cognitive Neuroscience, Erlbaum,
pp.173-203