Escolar Documentos
Profissional Documentos
Cultura Documentos
Pesquisas sobre o desempenho desses robs conduzidas nos Estados Unidos e no Japo mostraram que as
crianas criam fortes laos com eles - a ponto de preferirem, na maioria dos casos, um rob a um
ursinho de pelcia. E a, conforme essas mquinas ficam cada vez mais sofisticadas, surge um dilema
tico: certo permitir que crianas sejam criadas por robs? De que maneira isso pode impactar em
suas habilidades sociais?
Para Sharkey, o mesmo dilema se apresenta para mquinas destinadas a cuidar de idosos. Por mais
eficientes que elas sejam, no seria ruim deixar uma pessoa, ao fim de sua vida, sem o privilgio dos
cuidados (e do calor humano) fornecidos por outra pessoa? Na dcada de 1940, Isaac Asimov j pensou
que seria preciso criar um cdigo de tica - embutido na programao dos robs - para evitar que
fossem mal utilizados. As trs leis da robtica, que ele descreveu pela primeira vez num conto de fico
cientfica publicado em 1942, so as seguintes:
Primeira Lei: um rob no pode ferir um ser humano ou, por inao, permitir que um ser humano seja
ferido.
Segunda Lei: um rob deve obedecer s ordens dos seres humanos, exceto quando elas conflitam com
a Primeira Lei.
Terceira Lei: um rob precisa proteger sua prpria existncia, contanto que ela no conflite com a
Primeira ou a Segunda leis.
Inteligente e conciso. Mas as leis da fico no tm como dar conta do recado no mundo real, diante de
dilemas que j aparecem hoje na sociedade. Por isso, Sharkey defende que seja iniciado, o mais rpido
possvel, um debate para definir os limites para as aplicaes robticas, quando as fronteiras da tica
parecem mais tnues. Em uma livre interpretao jornalstica, podemos dizer que seu artigo se resume
em duas "novas" leis da robtica:
Primeira Lei: um rob no pode cumprir ordens que acarretem em potenciais malefcios psicolgicos
para algum ser humano.
Segunda Lei: em caso de combate, um rob no pode decidir por si s que humanos devem ser
atacados.
Seu argumento foi apresentado em artigo publicado em dezembro passado pela revista cientfica
americana "Science".
Soldados droides
Alm de apontar os problemas potenciais com robs de servio pessoal, Sharkey tambm destaca uma
outra classe de mquinas que enfrenta srios dilemas de ordem tica: os robs de guerra. Os EUA, por
exemplo, esto fazendo vultosos investimentos para o desenvolvimento de robs capazes de executar
tarefas de forma completamente autnoma em cenrios de conflito.
Mas os desafios de inteligncia artificial envolvidos so grandes demais para qualquer mquina criada
at hoje. "Os problemas ticos emergem porque nenhum sistema computacional pode discriminar entre
combatentes e inocentes num encontro prximo", argumenta. Alm disso, o rob tambm teria de ser
capaz de discriminar sobre o uso ou no de fora letal num ataque.
Na diverso e na guerra: crianas se divertem com o rob desenvolvido pela empresa japonesa Tmsuk, em
um supermercado do Japo. A mquina consegue reconhecer as pessoas e cham-las pelo nome. direita,
especialista do esquadro antibombas da ustria controla um rob programado para detect-las
Hoje, por mais que os exrcitos possuam msseis "inteligentes", o alvo original e a fora usada so
definidos por um humano. Colocar isso na mo de mquinas exigir que elas tenham uma percepo
cognitiva muito mais apurada do que elas possuem atualmente. Mas isso no impede os militares de
seguir desenvolvendo robs com esses fins - e da surge a necessidade do debate. "Robs para cuidados e
para guerra representam apenas duas de muitas reas eticamente problemticas que logo aparecero,
com o rpido crescimento e a disseminao diversificada de aplicaes robticas", diz Sharkey.
"Cientistas e engenheiros que trabalham em robtica devem pensar sobre os potenciais perigos de seu
trabalho, e a discusso pblica e internacional vital para estabelecer diretrizes polticas para
aplicao segura e tica, antes que as diretrizes surjam sozinhas."