Você está na página 1de 1

C MY K

C M Y K
Tecnologia
Editora: Ana Paula Macedo
anapaula.df@dabr.com.br
3214-1195 3214-1172 / fax: 3214-1155
14 CORREIO BRAZILIENSE Braslia, segunda-feira, 19 de maio de 2014
Indagaesrobticas
Consrcionorte-americanoiniciaprojetoquebuscadar s mquinas acapacidadede
fazer julgamentos morais edecidir amelhor formadeagir nas mais diversas situaes
ROBERTA MACHADO
S
e voc estivesse em um trem
descontrolado que fosse atro-
pelar cinco pessoas, o que voc
faria? Tombaria o trem para
salv-las, colocando em risco a vida
dos passageiros? E se nos trilhos hou-
vesse um desvio que pudesse salvar as
cinco pessoas, mas colocasse outro in-
divduo em risco? E se a soluo para
parar o trem fosse jogar um homem de
cima de uma ponte na frente do vecu-
lo em alta velocidade? Questionamen-
tos como esses so o suficiente para
esquentar a cabea de qualquer pes-
soa, mas agora os cientistas querem ir
alm e submet-los a um novo tipo de
mente: a robtica.
Um grupo de pesquisadores norte-
americanos vai investir US$ 7,5 mi-
lhes e cinco anos de trabalho para
ajudar robs a tomar decises que s
vezes so complicadas at mesmo pa-
ra pessoas de carne e osso. O consr-
cio entre a Marinha dos EUA, do Insti-
tuto Politcnico Rensselaer e das uni-
versidades Tufts e Brown aceitou o de-
safio de criar um senso de tica artifi-
cial e ensinar mquinas a distinguir o
certo do errado. Os robs atuais so
muito limitados na forma de julgar si-
tuaes, especialmente quando se tra-
ta de aspectos ticos. Em casos limita-
dos, os robs podem evitar realizar
aes que viol ariam os princpios
que eles seguem, mas essas mqui-
nas no tm a habilidade de nenhum
tipo de raciocnio moral, ressalta
Matthias Scheutz, professor de cin-
cia da computao na Tufts e princi-
pal pesquisador do projeto.
O primeiro passo dessa jornada filo-
sfico-robtica ser compreender me-
lhor os valores que compem a moral
humana e determinar como explic-los
na linguagem matemtica das mqui-
nas. Parte do desafio est no desenvol-
vimento de umcdigo moral adequado
aos valores de diferentes sociedades e
em orientar as mquinas a identificar o
momento certo de usar o bomsenso. A
tica est cheia de dilemas. Pensar que
temos respostas prontas que possam
ser pura e simplesmente transmitidas
para umrob algo filosoficamente in-
gnuo, ressalta Joo de Fernandes Tei-
xeira, professor de filosofia da mente e
cincia cognitiva na Universidade Fe-
deral de So Carlos (UFSCar).
Compaixo
Um dilema bvio est no campo de
batalha. Os cientistas da Marinha nor-
te-americana teriam de encontrar uma
soluo para o mais bvio problema
tico ao criar robs militares capazes
de colocar pessoas em risco e, ao mes-
mo tempo, valorizar a vida de outros.
Na opinio de Teixeira, a contradio
da tica no existe sem as emoes hu-
manas, que tambm teriam de ser
transmitidas aos soldados de lata.
Identificar intenes, crenas e dese-
jos nos outros significa atribuir a eles
uma mente e, comisso, poder imaginar
como eles se sentem em vrias situa-
es. Esse o primeiro passo para o de-
senvolvimento da empatia e, comela, a
compaixo, que nada mais significa do
que se sentir como os outros provavel-
mente esto se sentindo em determi-
nado momento, destaca o especialista.
Por isso, a pesquisa vai partir de es-
tudos com gente de verdade antes de
seguir para a prancheta. Almda filoso-
fia, o trabalho multidisciplinar deve in-
cluir especialistas da psicologia, da
cincia da computao, do direito e da
robtica. O grupo tambm deve contar
com a consultoria de especialistas das
universidades de Georgetown eYale.
A ideia que as mquinas possam
tomar decises que no esto previstas
na sua programao, permitindo que
elas operem com maior autonomia e
eficincia em situaes dinmicas de
interao com humanos, como traba-
lhar num hospital ou dirigir um auto-
mvel funes que, alis, as mqui-
nas j comearam a exercer h algum
tempo semo fardo da responsabilidade
moral. Com robs cuidadores se tor-
nando uma realidade e uma frota de
carros autnomos prxima de estrear
nas ruas, urgente que os crebros au-
tomatizados estejam preparados para
lidar comimprevistos.
Os princpios morais dos robs ticos
sero integrados diretamente no siste-
ma de controle do rob, impedindo que
ele decida deliberadamente agir de for-
ma errada assimcomo as trs leis fic-
cionais da robtica de Isaac Asimov. Os
sistemas computacionais em que esta-
mos trabalhando sero aptos a realizar
um raciocnio moral relativamente so-
fisticado em vrios tipos de lgicas for-
mais, prev Matthias Scheutz.
Dinmico
Quo real, porm, pode ser o senso
tico robtico? Poder uma mquina
que desconhece a dor ignorar sua dire-
triz para se preocupar com um idoso
emsofrimento fsico? Ou o que far um
automvel autnomo ao ter de esco-
lher entre a vida de um pedestre e a de
seu passageiro? Lus Moniz Pereira, da
Universidade de Nova Lisboa, em Por-
tugal, criou um programa que conse-
guiu lidar como dilema do tremdescri-
to no incio da reportagem.
No artigo, publicado no Internatio-
nal Journal of Reasoning-based Intelli-
gent Systems, o pesquisador mostra
como adaptou teses de filosofia moral
para combin-las a um programa de
lgica computacional. No escolhe-
mos nenhuma moral especfica, antes
damos a possibilidade de programar
morais diversas e at de combin-las,
explica. De acordo com o especialista,
nunca ser possvel saber ao certo que
tipo de circunstncias os robs vo
enfrentar, e a crescente autonomia da-
da a eles exige esse tipo de pensamen-
to dinmico.
Tais criaturas autnomas, de fabri-
cantes diferentes, evoluiro devido
aprendizagem e vo interagir entre si
empequenos e grandes grupos. Estaro
tambmconosco, pelo que precisamde
uma moral comum que propicie a coo-
perao, prev o pesquisador, que vai
abordar o tema em seu prximo livro, A
mquinailuminada. Ocuidado, ressalta
o especialista portugus, deve ser apli-
cado a robs humanoides em sistemas
menos familiares, como programas de
transaes financeiras ou outros que
precisem de uma garantia de funciona-
mento completamente seguro.
E esse no deve ser um trabalho
simples, j que o senso tico humano
evolui na velocidade da mudana de
paradigmas morais e de coexistncia.
Se o modelo jurdico de individualida-
de mudar no mesmo ritmo, possvel
at mesmo que as mquinas sejamres-
ponsabilizadas por seus atos mas
sem eximir a culpa do fabricante ou do
proprietrio, dependendo do caso.
Para alm da investigao da nossa
prpria moralidade utilizando compu-
tadores, importa muito, e desde j, in-
vestigar as novas questes tico-jurdi-
cas e o seu suporte filosfico, ressalta
Moniz Pereira.
Wendell Wallach, pesquisador do Centro Interdisciplinar de Biotica da Universidade de
Yale e autor de Moral machines: Teaching robots right from wrong
Qual oprimeiropassoaser tomado
paraacriaodeumamquina
eticamenteautnoma?
Estamos criando sistemas comcada
vez mais autonomia, ento teremos
mais situaes que no podemser pre-
vistas pelos engenheiros. Valores j so
colocados nos sistemas, mas para aes
pensadas comantecedncia pelo desig-
ner. Oprximopasso chegar aoestgio
emque haja vrias circunstncias sobre
as quais os engenheiros nopensaram, e
o algoritmo possibilite mquina calcu-
lar a forma apropriada de agir.
Umamquinaseriacapaz
deter sentimentos?
Humanos so criaturas que evolu-
ramcomumsistema emocional qumi-
co e instintivo. Robs so sistemas cons-
trudos com base em uma plataforma
lgica. Mas, de forma fascinante, h pes-
quisas sobre se possvel criar algumti-
po de inteligncia emocional e afetiva,
ou robs comconscincia ou capacida-
de de deduzir as intenes e os desejos
de outros. Algumas pessoas acreditam
que teremos um dia mquinas com
conscincia, outras dizemque issono
possvel. Mas essa a ambiguidade e, do
ponto de vista filosfico, o fascnio dos
robs, que nos fazempensar se somos
distintamente diferentes do que esta-
mos criando ou se algumas capacidades
podemser reproduzidas ou simuladas
emuma plataforma robtica.
Qual oprincipal desafioparacriar
mquinas comconscinciamoral?
H dois grandes problemas. Emum
nvel, escolher umprocedimento, outeo-
ria tica, ouprocessoe implementar isso
emumcomputador. Ooutroproblema
que s vezes nos referimos s coisas com
nomes diferentes e h uma questo de
perspectiva. Mas o ponto que h todas
essas preocupaes secundrias que so
essenciais paraatomadadedecises que
so alheias ao procedimento. Por exem-
plo: comoumsistema reconhece que es-
t emuma situao de importncia ti-
ca? Comoele define se tema informao
necessria para resolver o problema?
Que capacidades seriamnecessrias pa-
ra fazer julgamentos vlidos emsitua-
es complexas? algo difcil at para
humano, enosabemos aindacomoim-
plementar emrobs.
Trs perguntas para
Eu, rob
O cientista e escritor Isaac
Asimov cunhou as trs leis
que devem reger a robtica
pela primeira vez no conto
Runaround e depois as
explorou melhor na
coletnea de contos Eu,
rob. As regras dizem que
um rob no deve ferir um
ser humano ou deixar que
uma pessoa se machuque
por omisso; a mquina
tambm deve obedecer s
ordens dadas por qualquer
humano, a no ser que elas
entrem em contradio com
a primeira lei; e os robs
tambm so obrigados a
proteger a prpria
existncia, contanto que a
tarefa no seja um conflito
s primeiras duas leis.

Você também pode gostar