Você está na página 1de 2

Testes mostram que robs do Google

desenvolvem emoes como


agressividade e cooperao
Escrito por: Bernardo Frizero em 26/06/2017
AddThis Sharing Buttons
Share to FacebookShare to TwitterShare to PinterestShare to E-mail

Vamos fingir que voc se importe muito em ganhar um jogo. A competio esquenta, o
seu oponente est vencendo, e voc est correndo um srio risco de perder. O que voc
faz? Se a sua veia competitiva estiver viva, ento voc provavelmente ir ficar irritado,
correto? Acontece que os robs com inteligncia artificial DeepMind, criados pela
Google, fazem exatamente a mesma coisa! Incrvel, no?

Crdito: Tecmundo

O comportamento levanta questes sobre a ligao entre inteligncia e agressividade,


o que significa para a IA (Inteligncia Artificial) imitar as respostas emocionais dos
humanos, e, se voc est preocupado com potenciais robs que se voltem contra os
humanos, como em diversos filmes de Hollywood, os cientistas envolvidos explicam
melhor como que essa experiencia funciona.

Em um estudo publicado online, os pesquisadores do projeto Deep Mind tinham


agentes com IA competindo uns contra os outros em 40 milhes de rodadas de um
jogo de computador. No jogo, cada agente tinha que recolher o mximo de mas
possvel. Eles tambm poderiam derrubar temporariamente um oponente fora do jogo
batendo os com um feixe de laser. Aqui est um vdeo do jogo:. . . . . . . . . . . . . . . . . . . .
.......................................................................
.......................................................................
.......................................................................
...................

Quando as mas eram abundantes, os dois agentes foram satisfeitos para recolher os
seus frutos sem qualquer tipo de conflito uns aos outros, mas, em cenrios escassos e
com menos mas ao redor, os agentes se tornaram substancialmente mais agressivos.
Os pesquisadores tambm descobriram que quanto maior a capacidade cognitiva do
agente, mais frequentemente eles atacaram seu oponente.

+Outro lado da moeda

No entanto, a IA tambm aprendeu a exibir comportamento cooperativo quando isso


trouxe um benefcio. Em um segundo jogo, dois agentes agiram como lobos,
enquanto um terceiro foi a presa. Se os dois agentes trabalhassem em conjunto para
capturar suas presas, eles receberiam uma recompensa maior.

Quando os dois lobos capturam a presa juntos, eles podem receber uma recompensa
mais significativa, explicaram os pesquisadores em seu artigo. Neste jogo, os agentes
mais inteligentes eram menos competitivos e mais propensos a cooperar entre si.

Os pesquisadores DeepMind acreditam que, com este estudo, os programas de


Inteligncia Artificial poderiam ser usados para entender melhor como os seres
humanos aprendem a colaborar em massa. Digamos que voc queira saber o impacto
sobre como os padres de trfego seriam se voc instalou um semforo em um
cruzamento especfico. Voc poderia tentar o experimento no primeiro modelo e obter
uma ideia razovel de como uma pessoa se adapta a ele.

Fonte: QZ