Você está na página 1de 2

26/07/2009 – Jornal The Newyork Times – Amy traduções

Cientistas podem limitar pesquisa com inteligência artificial


Um robô que pode abrir portas e encontrar tomadas para se recarregar. Vírus de computador
que ninguém consegue deter. Predadores teleguiados que, embora ainda controlados
remotamente por humanos, são quase uma máquina capaz de matar autonomamente.
Impressionados e alarmados com os avanços na inteligência artificial, um grupo de cientistas da
computação está debatendo se deve haver limites nas pesquisas que podem levar à perda do
controle humano sobre sistemas computacionais, que carregam parte crescente da carga de
trabalho da sociedade, do combate bélico a conversas com consumidores ao telefone. Sua
preocupação é de que avanços futuros possam criar profundas divisões sociais e até ter
consequências perigosas.
Como exemplos, os cientistas citam tecnologias diversas, como sistemas médicos experimentais
que interagem com pacientes para simular empatia ou worms e vírus de computador que
resistem ao extermínio, podendo-se até considerar que estejam no estágio "barata" de
inteligência das máquinas.
Embora concordem que ainda estamos longe de um HAL, o computador que assumiu a
espaçonave de "2001: Uma Odisseia no Espaço", esses cientistas afirmam que há uma
preocupação legítima de que o progresso tecnológico possa transformar a mão de obra,
acabando com uma ampla variedade de empregos e forçando humanos a aprender a conviver
com máquinas que reproduzem cada vez mais comportamentos humanos.
Os pesquisadores - eminentes cientistas da computação, pesquisadores de inteligência artificial
e roboticistas que se encontraram no centro de convenções Asilomar Conference Grounds, em
Monterey Bay, Califórnia - em geral descartaram a possibilidade de superinteligências altamente
centralizadas e a ideia de que inteligência possa se disseminar espontaneamente pela internet.
Mas concordaram que robôs capazes de matar autonomamente são ou serão em breve uma
realidade.
Eles deram atenção particular ao espectro de criminosos que exploram sistemas de inteligência
artificial durante seu desenvolvimento. O que um criminoso poderia fazer com um sistema de
simulação de voz capaz de se passar por um ser humano? O que aconteceria se a tecnologia de
inteligência artificial fosse usada para coletar dados pessoais em smartphones?
Os pesquisadores também discutiram possíveis ameaças a empregos, como carros de direção
autônoma, programas de assistentes pessoais e robôs domésticos. No mês passado, um robô
doméstico desenvolvido pela Willow Garage, do Vale do Silício, provou que funcionaria no
mundo real. Um comunicado da conferência, que aconteceu a portas fechadas em 25 de
fevereiro, será publicado até o fim do ano. Neste mês, alguns dos presentes discutiram a reunião
pela primeira vez com outros cientistas e em entrevistas.
O encontro sobre o futuro da inteligência artificial foi organizado por Eric Horvitz, pesquisador da
Microsoft que é hoje o presidente da associação que cuida destes assuntos. Para Horvitz,
cientistas da computação devem ser responsabilizados caso máquinas superinteligentes e
sistemas de inteligência artificial saiam do controle.
A ideia de uma "explosão de inteligência", em que máquinas criam outras ainda mais inteligentes
foi proposta pelo matemático I. J. Good em 1965. Mais tarde, em palestras e romances de ficção
científica, o cientista da computação Vernor Vinge popularizou a noção de um momento em que
humanos criarão máquinas mais inteligentes que pessoas, mudança brusca que "encerraria a
era dos homens". Ele chamou tal transformação de Singularidade.
Outros tecnólogos, sobretudo Raymond Kurzweil, têm exaltado a chegada de máquinas
ultrainteligentes, dizendo que elas oferecerão avanços gigantescos para aumentar a expectativa
de vida e a geração de riqueza.
O comunicado da associação vai procurar tratar da possibilidade de "perdas do controle humano
sobre inteligências baseadas em computador". Segundo Horvitz, o anúncio também vai abordar
questões socioeconômicas, legais e éticas, além de mudanças prováveis nos relacionamentos
entre humanos e computadores.
Como seria, por exemplo, se relacionar com uma máquina que é tão inteligente quanto seu
cônjuge? Horvitz explicou que o grupo estuda diretrizes de pesquisa para a tecnologia melhorar
a sociedade, não para levá-la a uma catástrofe tecnológica. Algumas pesquisas, por exemplo,
poderiam ser conduzidas em laboratórios de segurança máxima.

02/12/2014 – BBC News

Stephen Hawking: Inteligência artificial pode


destruir a humanidade
Stephen Hawking, um dos mais proeminentes cientistas do mundo, disse à BBC que os
esforços para criar máquinas pensantes é uma ameaça à existência humana.

"O desenvolvimento da inteligência artificial total


poderia significar o fim da raça humana", afirmou.

Hawking fez a advertência ao responder uma


pergunta sobre os avanços na tecnologia que ele
próprio usa para se comunicar, a qual envolve uma
forma básica de inteligência artificial.

O físico britânico, que sofre de esclerose lateral


amiotrófica (ELA), uma doença degenerativa, está
usando um novo sistema desenvolvido pela empresa Intel para se comunicar.

Especialistas da empresa britânica Swiftkey também participaram da criação do sistema. Sua


tecnologia, já empregada como um aplicativo para teclados de smartphones, "aprende" a forma
como Hawking pensa e sugere palavras que ele pode querer usar em seguida.

Hawking diz que as formas primitivas de inteligência artificial desenvolvidas até agora têm se
mostrado muito úteis, mas ele teme eventuais consequências de se criar máquinas que sejam
equivalentes ou superiores aos humanos.

"(Essas máquinas) avançariam por conta própria e se reprojetariam em ritmo sempre crescente",
afirmou. "Os humanos, limitados pela evolução biológica lenta, não conseguiriam competir e
seriam desbancados."

Você também pode gostar