Você está na página 1de 2

Na fico cientfica, j existem, h mais de 60 anos, as famosas leis da

robtica, diretrizes criadas pelo escritor russo Isaac Asimov (1920-1992)


que ditavam a "tica" dos robs. Mas o mundo real ainda carece de uma
iniciativa parecida. E, para um cientista britnico, j est mais do que
na hora de comear a pensar em algo do tipo. Para Noel Sharkey, da
Universidade de Sheffield, no Reino Unido, os robs, de forma discreta,
mas constante, esto deixando de ser elementos importantes apenas
em laboratrios e linhas de montagem de fbricas para se tornarem
habitantes do nosso cotidiano.

Aceita um drinque? Asimo, o rob


humanoide da Honda, serve bebidas
para a imprensa em um shopping de
Kuala Lumpur, na Malsia

"Desde a virada do sculo, as vendas de robs de servio pessoal e


profissional tm crescido e devem atingir um nmero total de 5,5
milhes em 2008", diz Sharkey. "Esse nmero, que facilmente supera os
cerca de 1 milho de robs industriais operacionais no planeta, deve
subir para 11,5 milhes at 2011." Entre esses robs de servio, muitos
j esto sendo usados para ajudar a cuidar de crianas e idosos. "Na
rea de cuidados pessoais, companhias japonesas e sul-coreanas
desenvolveram robs que monitoram crianas e tm recursos para jogar
videogame, conduzir jogos de quiz verbais, reconhecimento de voz, de
face e conversao", diz.

Pesquisas sobre o desempenho desses robs conduzidas nos Estados Unidos e no Japo mostraram que as
crianas criam fortes laos com eles - a ponto de preferirem, na maioria dos casos, um rob a um
ursinho de pelcia. E a, conforme essas mquinas ficam cada vez mais sofisticadas, surge um dilema
tico: certo permitir que crianas sejam criadas por robs? De que maneira isso pode impactar em
suas habilidades sociais?
Para Sharkey, o mesmo dilema se apresenta para mquinas destinadas a cuidar de idosos. Por mais
eficientes que elas sejam, no seria ruim deixar uma pessoa, ao fim de sua vida, sem o privilgio dos
cuidados (e do calor humano) fornecidos por outra pessoa? Na dcada de 1940, Isaac Asimov j pensou
que seria preciso criar um cdigo de tica - embutido na programao dos robs - para evitar que
fossem mal utilizados. As trs leis da robtica, que ele descreveu pela primeira vez num conto de fico
cientfica publicado em 1942, so as seguintes:
Primeira Lei: um rob no pode ferir um ser humano ou, por inao, permitir que um ser humano seja
ferido.
Segunda Lei: um rob deve obedecer s ordens dos seres humanos, exceto quando elas conflitam com
a Primeira Lei.
Terceira Lei: um rob precisa proteger sua prpria existncia, contanto que ela no conflite com a
Primeira ou a Segunda leis.
Inteligente e conciso. Mas as leis da fico no tm como dar conta do recado no mundo real, diante de
dilemas que j aparecem hoje na sociedade. Por isso, Sharkey defende que seja iniciado, o mais rpido
possvel, um debate para definir os limites para as aplicaes robticas, quando as fronteiras da tica
parecem mais tnues. Em uma livre interpretao jornalstica, podemos dizer que seu artigo se resume
em duas "novas" leis da robtica:
Primeira Lei: um rob no pode cumprir ordens que acarretem em potenciais malefcios psicolgicos
para algum ser humano.
Segunda Lei: em caso de combate, um rob no pode decidir por si s que humanos devem ser
atacados.
Seu argumento foi apresentado em artigo publicado em dezembro passado pela revista cientfica
americana "Science".
Soldados droides
Alm de apontar os problemas potenciais com robs de servio pessoal, Sharkey tambm destaca uma
outra classe de mquinas que enfrenta srios dilemas de ordem tica: os robs de guerra. Os EUA, por
exemplo, esto fazendo vultosos investimentos para o desenvolvimento de robs capazes de executar
tarefas de forma completamente autnoma em cenrios de conflito.

Mas os desafios de inteligncia artificial envolvidos so grandes demais para qualquer mquina criada
at hoje. "Os problemas ticos emergem porque nenhum sistema computacional pode discriminar entre
combatentes e inocentes num encontro prximo", argumenta. Alm disso, o rob tambm teria de ser
capaz de discriminar sobre o uso ou no de fora letal num ataque.

Na diverso e na guerra: crianas se divertem com o rob desenvolvido pela empresa japonesa Tmsuk, em
um supermercado do Japo. A mquina consegue reconhecer as pessoas e cham-las pelo nome. direita,
especialista do esquadro antibombas da ustria controla um rob programado para detect-las

Hoje, por mais que os exrcitos possuam msseis "inteligentes", o alvo original e a fora usada so
definidos por um humano. Colocar isso na mo de mquinas exigir que elas tenham uma percepo
cognitiva muito mais apurada do que elas possuem atualmente. Mas isso no impede os militares de
seguir desenvolvendo robs com esses fins - e da surge a necessidade do debate. "Robs para cuidados e
para guerra representam apenas duas de muitas reas eticamente problemticas que logo aparecero,
com o rpido crescimento e a disseminao diversificada de aplicaes robticas", diz Sharkey.
"Cientistas e engenheiros que trabalham em robtica devem pensar sobre os potenciais perigos de seu
trabalho, e a discusso pblica e internacional vital para estabelecer diretrizes polticas para
aplicao segura e tica, antes que as diretrizes surjam sozinhas."