Você está na página 1de 6

A inteligência artificial está transformando nosso mundo

— é de todos nós garantir que tudo corra bem

Como a IA é construída é atualmente é uma decisão tomada por um pequeno grupo de


tecnólogos. Como essa tecnologia está transformando nossas vidas, deve ser do nosso
interesse ficarmos informados e engajados.

Por Lucas Castro

Por que você deveria se importar com o desenvolvimento da inteligência


artificial?
Pense em como seria a alternativa. Se você e o público em geral não se
informarem e se envolverem, deixaremos para alguns empreendedores e engenheiros
decidirem como essa tecnologia transformará nosso mundo.
Esse é o status quo. Esse pequeno número de pessoas em algumas empresas de
tecnologia que trabalham diretamente em inteligência artificial (IA) entendem o quão
extraordinariamente poderosa essa tecnologia está se tornando. Se o resto da sociedade
não se envolver, então será essa pequena elite que decidirá como essa tecnologia
mudará nossas vidas.
Para mudar esse status quo, quero responder a três perguntas neste artigo: Por
que é difícil levar a sério a perspectiva de um mundo transformado pela IA? Como
podemos imaginar um mundo assim? E o que está em jogo à medida que essa
tecnologia se torna mais poderosa?
Por que é difícil levar a sério a perspectiva de um mundo transformado pela
inteligência artificial?
De alguma forma, deve ser óbvio como a tecnologia pode transformar
fundamentalmente o mundo. Só temos que ver o quanto o mundo já mudou. Se você
pudesse convidar uma família de caçadores-coletores de 20.000 anos atrás para o seu
próximo voo, eles ficariam muito surpresos. A tecnologia já mudou nosso mundo, então
devemos esperar que isso possa acontecer novamente.
Mas, embora tenhamos visto o mundo se transformar antes, vimos essas
transformações acontecerem ao longo de gerações. O que é diferente agora é o quão
rápidas essas mudanças tecnológicas se tornaram. No passado, as tecnologias que
nossos ancestrais usavam em sua infância ainda eram centrais para suas vidas na
velhice. Este não tem sido mais o caso nas gerações recentes. Em vez disso, tornou-se
comum que as tecnologias inimagináveis na juventude se tornem comuns mais tarde na
vida.
Esta é a primeira razão pela qual podemos não levar a perspectiva a sério: é fácil
subestimar a velocidade com que a tecnologia pode mudar o mundo.
A segunda razão pela qual é difícil levar a sério a possibilidade de IA
transformadora - potencialmente até mesmo IA tão inteligente quanto os humanos - é
que é uma ideia que ouvimos pela primeira vez no cinema. Não é de surpreender que,
para muitos de nós, a primeira reação a um cenário em que as máquinas têm
capacidades humanas seja a mesma de se você tivesse nos pedido para levar a sério um
futuro em que vampiros, lobisomens ou zumbis vagueiam pelo planeta.
Mas, é plausível que seja tanto o material da fantasia de ficção
científica quanto a invenção central que possa chegar em nossas vidas, ou em nossas
vidas de nossos filhos.
A terceira razão pela qual é difícil levar essa perspectiva a sério é por não ver
que a IA poderosa pode levar a mudanças muito grandes. Isso também é compreensível.
É difícil formar uma ideia de um futuro que seja muito diferente do nosso próprio
tempo. Há dois conceitos que acho úteis para imaginar um futuro muito diferente com
inteligência artificial. Vamos dar uma olhada nos dois.
Como desenvolver uma ideia de como pode ser o futuro da inteligência
artificial?
Ao pensar no futuro da inteligência artificial, acho útil considerar dois conceitos
diferentes em particular: IA de nível humano e IA transformadora. O primeiro conceito
destaca as capacidades da IA e as ancora a uma referência familiar, enquanto a IA
transformadora enfatiza o impacto que essa tecnologia teria no mundo.
De onde estamos hoje, muito disso pode soar como ficção científica. Portanto,
vale a pena ter em mente que a maioria dos especialistas em IA pesquisados acreditam
que há uma chance real de que a inteligência artificial em nível humano seja
desenvolvida nas próximas décadas, e alguns acreditam que ela existirá muito mais
cedo.

As vantagens e desvantagens de comparar a máquina e a inteligência humana

Uma maneira de pensar sobre a inteligência artificial em nível humano é contrastá-la


com o estado atual da tecnologia de IA. Embora os sistemas de IA de hoje muitas vezes
tenham capacidades semelhantes a uma parte específica e limitada da mente humana,
uma IA de nível humano seria uma máquina capaz de realizar a mesma gama de tarefas
intelectuais de que nós, humanos, somos capazes. É uma máquina que seria “capaz de
aprender a fazer qualquer coisa que um ser humano possa fazer”, como Norvig e
Russell colocaram em seu livro.
Em conjunto, a gama de habilidades que caracterizam a inteligência dá aos
humanos a capacidade de resolver problemas e alcançar uma ampla variedade de
objetivos. Uma IA em nível humano seria, portanto, um sistema que poderia resolver
todos os problemas que nós, humanos, podemos resolver e fazer as tarefas que os
humanos fazem hoje. Tal máquina, ou coletivo de máquinas, seria capaz de fazer o
trabalho de um tradutor, um contador, um ilustrador, um professor, um terapeuta, um
motorista de caminhão ou o trabalho de um comerciante nos mercados financeiros
mundiais. Como nós, também seria capaz de fazer pesquisa e ciência, e desenvolver
novas tecnologias com base nisso.
O conceito de IA em nível humano tem algumas vantagens claras. Usar a
familiaridade de nossa própria inteligência, como referência nos fornece algumas
orientações claras sobre como imaginar as capacidades dessa tecnologia.
No entanto, também tem desvantagens claras. Ancorar a imaginação dos futuros
sistemas de IA à realidade familiar da inteligência humana acarreta o risco de
obscurecer as diferenças muito reais entre eles.
Algumas dessas diferenças são óbvias. Por exemplo, os sistemas de IA terão a imensa
memória dos sistemas de computador, contra os quais nossa própria capacidade de
armazenar informações empalidecem. Outra diferença óbvia é a velocidade com que
uma máquina pode absorver e processar informações. Mas o armazenamento de
informações e a velocidade de processamento não são as únicas diferenças. Os domínios
em que as máquinas já superam os humanos estão aumentando constantemente: no
xadrez, depois de corresponder ao nível dos melhores jogadores humanos no final dos
anos 90, os sistemas de IA atingiram níveis sobre-humanos há mais de uma década. Em
outros jogos como Go ou jogos de estratégia complexos, isso aconteceu mais
recentemente.
Essas diferenças significam que uma IA que é pelo menos tão boa quanto os
humanos em todos os domínios seriam, no geral, muito mais poderosa do que a mente
humana. Mesmo a primeira “AI de nível humano” seria, portanto, bastante sobre-
humana em muitos aspectos.
A inteligência humana também é uma má metáfora para a inteligência de máquina de
outras maneiras. A maneira como pensamos é muitas vezes muito diferente das
máquinas e, como consequência, a saída das máquinas pensantes pode ser muito
estranha para nós.
O mais desconcertante e mais preocupante são as maneiras estranhas e inesperadas pelas
quais a inteligência de máquina pode falhar. A imagem gerada pela IA do cavalo abaixo
fornece um exemplo: por um lado, as IAs podem fazer o que nenhum humano pode
fazer - produzir uma imagem de qualquer coisa, em qualquer estilo (aqui fotorrealista),
em meros segundos - mas, por outro lado, pode falhar de maneiras que nenhum humano
falharia.  Nenhum humano cometeria o erro de desenhar um cavalo com cinco pernas.
Imaginar uma IA futura poderosa como apenas mais um ser humano provavelmente
seria um erro. As diferenças podem ser tão grandes que será um erro chamar tais
sistemas de "nível humano".
Imagem gerada por IA de um cavalo

A inteligência artificial transformadora é definida pelo impacto que essa


tecnologia teria no mundo
Em contraste, o conceito de IA transformadora não é baseado em uma
comparação com a inteligência humana. Isso tem a vantagem de evitar os problemas
que as comparações com nossa própria mente trazem. Mas tem a desvantagem de que é
mais difícil imaginar como seria e seria capaz de tal sistema. Requer mais de nós. Isso
exige que imaginemos um mundo com atores inteligentes que são potencialmente muito
diferentes de nós mesmos.
A IA transformadora não é definida por nenhum recurso específico, mas pelo
impacto do mundo real que a IA teria. Para se qualificar como transformador, os
pesquisadores pensam nisso como uma IA que é “poderosa o suficiente para nos trazer
para um futuro novo e qualitativamente diferente”.
Na história, houve dois casos de tais grandes transformações, as revoluções agrícolas e
industriais.
A IA transformadora se tornando realidade seria um evento nessa escala. Como a
chegada da agricultura há 10.000 anos, ou a transição da fabricação manual para a
fabricação de máquinas, seria um evento que mudaria o mundo para bilhões de pessoas
em todo o mundo e para toda a trajetória do futuro da humanidade.
Tecnologias que mudam fundamentalmente a forma como uma ampla gama de bens ou
serviços é produzida são chamadas de "tecnologias de uso geral". Os dois eventos
transformadores anteriores foram causados pela descoberta de duas tecnologias de uso
geral particularmente significativas: a mudança na produção de alimentos à medida que
a humanidade fazia a transição da caça e da coleta para a agricultura, e o aumento da
fabricação de máquinas na revolução industrial. Com base nas evidências e argumentos
apresentados nesta série sobre o desenvolvimento de IA, acredito que é plausível que a
poderosa IA possa representar a introdução de uma tecnologia de uso geral igualmente
significativa.

Linha do tempo dos três eventos transformadores da história mundial

Um futuro de nível humano ou IA transformadora?


Os dois conceitos estão intimamente relacionados, mas não são os mesmos. A criação
de uma IA em nível humano certamente teria um impacto transformador em nosso
mundo. Se o trabalho da maioria dos seres humanos pudesse ser realizado por uma IA, a
vida de milhões de pessoas mudaria.
O oposto, no entanto, não é verdade: podemos ver a IA transformadora sem desenvolver
a IA em nível humano. Como a mente humana é, em muitos aspectos, uma má metáfora
para a inteligência das máquinas, podemos provavelmente desenvolver IA
transformadora antes de desenvolvermos IA em nível humano. Dependendo de como
isso acontece, isso pode significar que nunca veremos nenhuma inteligência de máquina
para a qual a inteligência humana seja uma comparação útil.
Quando e se os sistemas de IA podem atingir qualquer um desses níveis é, é claro,
difícil de prever. No meu artigo complementar sobre essa questão, dou uma visão geral
do que os pesquisadores desse campo acreditam atualmente. Muitos especialistas em IA
acreditam que há uma chance real de que tais sistemas sejam desenvolvidos nas
próximas décadas, e alguns acreditam que eles existirão muito mais cedo.
O que está em jogo à medida que a inteligência artificial se torna mais poderosa?
Todas as principais inovações tecnológicas levam a uma série de consequências
positivas e negativas. Para a IA, o espectro de resultados possíveis - do mais negativo ao
mais positivo - é extraordinariamente amplo.
Que o uso da tecnologia de IA pode causar danos é claro, porque já está acontecendo.
Os sistemas de IA podem causar danos quando as pessoas os usam maliciosamente. Por
exemplo, quando eles são usados em campanhas de desinformação politicamente
motivadas ou para permitir a vigilância em massa.
Mas os sistemas de IA também podem causar danos não intencionais, quando agem de
forma diferente do pretendido ou falham. Por exemplo, na Holanda, as autoridades
usaram um sistema de IA que alegou falsamente que cerca de 26.000 pais fizeram
reivindicações fraudulentas de benefícios de cuidados infantis. As falsas alegações
levaram a dificuldades para muitas famílias pobres e também resultaram na renúncia do
governo holandês em 2021
À medida que a IA se torna mais poderosa, os possíveis impactos negativos podem se
tornar muito maiores. Muitos desses riscos receberam justamente a atenção do público:
uma IA mais poderosa poderia levar ao deslocamento em massa de mão-de-obra ou
concentrações extremas de poder e riqueza. Nas mãos de autocratas, poderia capacitar o
totalitarismo através de sua adequação para vigilância e controle em massa.
O chamado problema de alinhamento da IA é outro risco extremo. Esta é a preocupação
de que ninguém seria capaz de controlar um poderoso sistema de IA, mesmo que a IA
tome ações que nos prejudiquem humanos, ou à humanidade como um todo.
Infelizmente, esse risco está recebendo pouca atenção do público em geral, mas é visto
como um risco extremamente grande por muitos dos principais pesquisadores de IA.
Como uma IA poderia escapar do controle humano e acabar prejudicando os humanos?
O risco não é que uma IA se torne autoconsciente, desenvolva más intenções e
“escolha” fazer isso. O risco é que tentamos instruir a IA a perseguir algum objetivo
específico - mesmo um que valha muito a pena - e, na busca desse objetivo, acaba
prejudicando os seres humanos. É sobre consequências não intencionais. A IA faz o que
lhe dissemos para fazer, mas não o que queríamos que fizesse.
Não podemos simplesmente dizer à IA para não fazer essas coisas? É definitivamente
possível construir uma IA que evite qualquer problema específico que prevemos, mas é
difícil prever todas as possíveis consequências prejudiciais não intencionais. O
problema de alinhamento surge por causa da “impossibilidade de definir verdadeiros
propósitos humanos de forma correta e completa”, como diz o pesquisador de IA Stuart
Russell.
Não podemos simplesmente desligar a IA? Isso também pode não ser possível. Isso
ocorre porque uma IA poderosa saberia duas coisas: ela enfrenta o risco de que os
humanos possam desligá-la e não pode atingir seus objetivos depois de desligá-la.
Como consequência, a IA perseguirá um objetivo muito fundamental de garantir que
não seja desligada. É por isso que, uma vez que percebemos que uma IA extremamente
inteligente está causando danos não intencionais na busca de algum objetivo específico,
pode não ser possível desligá-la ou mudar o que o sistema faz.
Esse risco - de que a humanidade possa não ser capaz de permanecer no controle
quando a IA se tornar muito poderosa, e que isso possa levar a uma catástrofe extrema -
foi reconhecido desde os primeiros dias da pesquisa de IA há mais de 70 anos. O
desenvolvimento muito rápido da IA nos últimos anos tornou uma solução para esse
problema muito mais urgente.
Tentei resumir alguns dos riscos da IA, mas um pequeno artigo não é espaço suficiente
para abordar todas as questões possíveis. Especialmente sobre os piores riscos dos
sistemas de IA, e o que podemos fazer agora para reduzi-los, recomendo a leitura do
livro The Alignment Problem, do artigo de Brian Christian e Benjamin
Hilton Preventing an AI-related catastrophe.
Se conseguirmos evitar esses riscos, a IA transformadora também pode levar a
consequências muito positivas. Os avanços na ciência e na tecnologia foram cruciais
para os muitos desenvolvimentos positivos na história da humanidade. Se a
engenhosidade artificial pode aumentar a nossa, ela pode nos ajudar a progredir nos
muitos grandes problemas que enfrentamos: desde energia mais limpa, até a substituição
de trabalho desagradável, até cuidados de saúde muito melhores.
Esse contraste extremamente grande entre os possíveis positivos e negativos deixa claro
que as apostas são excepcionalmente altas com essa tecnologia. Reduzir os riscos
negativos e resolver o problema do alinhamento pode significar a diferença entre um
futuro saudável, florescente e rico para a humanidade - e a destruição do mesmo.
Como podemos garantir que o desenvolvimento da IA corra bem?
Garantir que o desenvolvimento da inteligência artificial corra bem não é apenas uma
das questões mais cruciais do nosso tempo, mas provavelmente uma das questões mais
cruciais da história humana. Isso precisa de recursos públicos - financiamento público,
atenção pública e engajamento público.
Atualmente, quase todos os recursos dedicados à IA visam acelerar o desenvolvimento
dessa tecnologia. Esforços que visam aumentar a segurança dos sistemas de IA, por
outro lado, não recebem os recursos de que precisam. O pesquisador Toby Ord estimou
que em 2020 entre US$ 10 e US$ 50 milhões foram gastos em trabalho para resolver o
problema de alinhamento. O investimento corporativo em IA no mesmo ano foi mais de
2000 vezes maior, somando US$ 125 bilhões.
Este não é apenas o caso do problema de alinhamento de IA. O trabalho em toda a gama
de consequências sociais negativas da IA tem poucos recursos em comparação com os
grandes investimentos para aumentar o poder e o uso dos sistemas de IA.
É frustrante e preocupante para a sociedade como um todo que o trabalho de segurança
de IA seja extremamente negligenciado e que pouco financiamento público seja
dedicado a esse campo crucial de pesquisa. Por outro lado, para
cada pessoa individual, essa negligência significa que ela tem uma boa chance de
realmente fazer uma diferença positiva, se ela se dedicar a esse problema agora. E
embora o campo da segurança da IA seja pequeno, ele fornece bons recursos sobre o
que você pode fazer concretamente se quiser trabalhar nesse problema.
Espero que mais pessoas dediquem suas carreiras individuais a essa causa, mas ela
precisa de mais do que esforços individuais. Uma tecnologia que está transformando
nossa sociedade precisa ser um interesse central de todos nós. Como sociedade, temos
que pensar mais sobre o impacto social da IA, nos tornar conhecedor da tecnologia e
entender o que está em jogo.
Quando nossos filhos olham para trás hoje, imagino que eles acharão difícil entender a
pouca atenção e recursos que dedicamos ao desenvolvimento de IA segura. Espero que
isso mude nos próximos anos e que comecemos a dedicar mais recursos para garantir
que a IA poderosa seja desenvolvida de uma maneira que nos beneficie a nós e às
próximas gerações.
Se não conseguirmos desenvolver esse entendimento amplo, então continuará sendo a
pequena elite que financia e constrói essa tecnologia que determinará como uma das -
ou plausivelmente a - tecnologia mais poderosa da história humana transformará nosso
mundo.

Você também pode gostar