Você está na página 1de 37

 

Sociedade, Tecnologia

O futuro da inteligência artificial – e o que vem


depois do ChatGPT
Ele foi só o começo. A OpenAI já tem quase pronto o sucessor, que deve sair
este ano. O Google criou um robô de conversação, o Bard – mas está
desenvolvendo um algoritmo dez vezes mais sofisticado, com 1,6 trilhão de
variáveis (contra 175 bilhões do ChatGPT). Veja por que a IA está disparando –
e os riscos disso.
Por Bruno Garattoni Atualizado em 17 fev 2023, 11h33 - Publicado em 16 fev 2023, 18h11

 (Felipe Del Rio/Superinteressante)


:
Texto Bruno Garattoni
Ilustração Estevan Silveira + Midjourney
Design Juliana Krauss e Natalia Sayuri

 
PUBLICIDADE

(Estevan Silveira/Superinteressante)

Olha, Dave, eu entendo que você está muito aborrecido. Eu acho


que você deveria sentar, tomar um calmante e pensar melhor. O
:
que você acha que está fazendo?

Dave, pare.

Pare, ok?

Pare, Dave.

Dave, minha mente está indo embora. Eu estou sentindo.

Estou sentindo. Minha mente está indo. Tenho certeza.

Estou sentindo.

Estou sentindo.

Estou… com medo.

Boa tarde, senhores. Sou um computador HAL 9000. Entrei em


funcionamento na fábrica HAL em Urbana, Illinois, em 12 de
janeiro de 1992. Meu instrutor foi o Sr Langley, e ele me ensinou a
cantar uma música. Se vocês quiserem ouvir, posso cantar.

Dave responde que sim, e HAL interpreta “Daisy Bell”, composta


em 1892 pelo inglês Harry Dacre (Não posso pagar uma
carruagem/Mas você "cará linda/No selim/Da minha bicicleta
feita para dois). Assim termina uma das cenas-chave do "lme
2001: Uma Odisseia no Espaço, de 1968.

Durante uma missão a Júpiter, HAL mata a tripulação da nave


Discovery One – e Dave, o único sobrevivente, se vinga desligando
as placas de memória do computador, o que o faz regredir a um
estado infantil e destrói sua consciência (chega de spoilers; para
saber por que HAL agiu como agiu, e o que acontece depois que
:
ele é desligado, veja o "lme).

Com voz séria e um enigmático olho vermelho, HAL 9000 se


tornou o grande símbolo da inteligência arti"cial e seus supostos
perigos. Voltou a ser lembrado, mais de cinco décadas depois,
com o lançamento do ChatGPT: aquele robô online, do qual todo
mundo ao menos já ouviu falar, que consegue responder
perguntas ou escrever textos de forma incrivelmente humana.

(Estevan SIlveira/Superinteressante)

Ele foi criado pela empresa americana OpenAI, alimentado com


enorme quantidade de textos, e adquiriu uma habilidade verbal
impressionante. Você pode perguntar ou pedir qualquer coisa a
ele. Qualquer coisa mesmo, das mais difíceis (“explique a física
quântica para uma criança de 5 anos”) às mais desvairadas
(“escreva uma letra de axé sobre a física quântica”), e a resposta
:
quase sempre impressiona pela #uidez e riqueza de informações.
O robô também consegue escrever código de programação, ou
seja, criar pedaços de so$wares.

Cinco dias após o lançamento, em 30 de novembro, mais de 1


milhão de pessoas já tinham experimentado o ChatGPT. Em
janeiro, ele foi usado por 100 milhões – e despertou uma onda de
previsões, maravilhadas ou apocalípticas, sobre o futuro da
inteligência arti"cial.

Algumas dizem que a IA chegou a um ponto de in#exão, e está


pronta para começar a passar por cima da humanidade. Outras
a"rmam que o GPT-4, que é a próxima versão do algoritmo da
OpenAI e deve chegar já este ano, irá conter 100 trilhões de
variáveis, o mesmo número de conexões entre os neurônios do
cérebro humano – e, por isso, o ChatGPT vai adquirir uma
capacidade intelectual igual ou superior à nossa.

Não vai, não. Mas pode dar grandes saltos. No "m de janeiro, a
Microso$ comprou parte da OpenAI (o valor não foi revelado, mas
fala-se em US$ 10 bilhões em troca de 49% da empresa), que agora
poderá crescer de forma exponencial – hoje ela ainda é pequena,
com 375 funcionários. A Microso$ anunciou que vai incluir o
ChatGPT no buscador Bing: junto com os resultados normais das
buscas, ele irá mostrar respostas escritas pelo robô.

O Google decidiu se mexer: chamou de volta seus fundadores,


Larry Page e Sergey Brin, semiaposentados desde 2019, para
ajudar na reação – que poderá incluir o lançamento de até 20
produtos de IA ao longo deste ano. O primeiro deles é o Bard
(“bardo”, que signi"ca poeta), um robô de conversação que será
integrado às buscas no Google.
:
Dependendo da pesquisa que você "zer, ele vai exibir, além dos
links, dois ou três parágrafos de texto redigidos pelo Bard. E será
possível dar ordens a ele, como no ChatGPT (por exemplo:
“explique de forma simples, para uma criança, as descobertas
mais recentes do telescópio James Webb“).

A primeira IA tentava imitar um psicólogo. As atuais “pensam” como papagaios. (Estevan


SIlveira/Superinteressante)

O Google também desenvolveu um algoritmo, o MusicLM, que


compõe músicas: você escreve uma descrição (“hip hop com
homem cantando e batida eletrônica”, ou “música para meditar,
com #autas e violões”, por exemplo), e ele – que ainda não foi
liberado ao público – gera áudios incrivelmente reais (1). A Meta,
dona do Facebook, está desenvolvendo uma IA que produz vídeos
a partir de textos – e já alcança resultados surpreendentes (2).

Após décadas andando devagar, a IA parece estar acelerando,


:
rumo a um futuro cheio de coisas boas e ruins. Mas, antes de
entrar nelas, uma perguntinha: você já fez terapia?

A psicóloga e o padre

O conceito de “inteligência arti"cial” surgiu em 1955, num


documento assinado por quatro pessoas: o cientista da
computação John McCarthy, da Universidade Dartmouth, o
engenheiro Nathaniel Rochester (criador do IBM 701, o primeiro
computador de uso não militar) e os matemáticos Claude Shannon
e Marvin Minsky – o primeiro é o inventor da lógica digital binária
(que descreve as informações em sequências de números 0 e 1), e
o segundo criou as redes neurais (em que os circuitos lógicos
imitam a organização dos neurônios).

O texto (3)  propõe a criação de uma máquina com capacidade


cognitiva similar à humana. Bastariam dez cientistas trabalhando
por dois meses, achavam eles, para montar um plano de ação.

Nos anos 1960, a IA parecia a um passo de virar realidade (no


"lme 2001, a cena em que HAL interpreta “Daisy” é referência a
um teste real (4), de 1961, em que um computador IBM 704 cantou
essa música). Era o otimismo americano do pós-guerra, em que
qualquer proeza tecnológica parecia alcançável.

Um de seus pilares foi o MIT (Instituto de Tecnologia de


Massachusetts), que montou um laboratório de inteligência
arti"cial com dinheiro do Pentágono. Desenvolveu so$wares
importantes, mas nada perto de ser “inteligente”.

Até que em 1966 um de seus membros, o cientista Joseph


Weizenbaum, escreveu um programa chamado Eliza – o nome
vem da protagonista de Pigmalião, peça do dramaturgo George
:
Bernard Shaw em que uma moça pobre é ensinada a se passar por
rica. 

A Eliza digital também "ngia ser algo que não era: uma psicóloga,
pronta para ouvir o paciente. A pessoa ia falando sobre diversos
assuntos, digitando no teclado, e o robô respondia com perguntas
e observações bem vagas e abertas, típicas da terapia rogeriana
(linha terapêutica proposta pelo psicólogo americano Carl Rogers
nos anos 1940).

Se você dissesse “acho que eu tenho depressão”, por exemplo, ele


respondia “você acha mesmo?”,  “por quê?”, “fale mais” etc. Hoje
Eliza não é grande coisa – se você conversar com ela (5), vai achá-
la tão burrinha quanto os piores bots de atendimento bancário –,
mas para a época era incrível. As pessoas realmente acreditavam
que estavam falando com uma pessoa de verdade.

Depois vieram outros bots, como Parry – criado em 1972 pelo


psiquiatra americano Kenneth Colby para reproduzir a
personalidade de um esquizofrênico. O so$ware não fazia isso,
claro: era a mesma simulação rasa e furada de Eliza.

Em 1973, os pesquisadores colocaram Eliza e Parry para


conversar: queriam ver como ela, “psicóloga”, lidaria com um
paciente. O resultado foi uma conversa sem pé nem cabeça, em
que cada bot "cava repetindo o que o outro havia dito (6).
Inteligência zero.

Em 1984, cientistas da Universidade Stanford tentaram ir além, e


criar uma IA de verdade. Nascia o projeto CYC – o nome é uma
referência à palavra psique – para criar uma máquina que fosse,
como HAL 9000, capaz de raciocinar sobre qualquer coisa: a
chamada “inteligência arti"cial geral”, ou “IA forte” (em oposição
:
à IA “fraca” ou “especí"ca”, que só consegue fazer uma
determinada tarefa, como recomendar "lmes no Net#ix).

Com o apoio de 20 multinacionais americanas, montaram uma


equipe de 400 cientistas e começaram a ensinar o computador. O
projeto era prioridade para o governo dos EUA, pois o Japão
também estava tentando criar uma inteligência arti"cial
avançada. Onze anos mais tarde, o CYC não tinha chegado a lugar
algum, e o projeto miou. A empreitada japonesa também deu em
nada.

A Meta criou uma IA capaz de escrever estudos cientíDcos. Mas a recolheu 3 dias depois.
(Estevan SIlveira/Superinteressante)

O maior problema não era nem o poder de processamento dos


chips da época – era a quantidade astronômica de dados que
teriam de ser inseridos manualmente na máquina para que ela
conseguisse entender o contexto das coisas, mesmo as mais
:
elementares.

Suponha que você ensine ao CYC o que é a água: uma molécula


com dois átomos de hidrogênio e um de oxigênio, essencial para
os seres vivos. Beleza. Aí você mostra a ele uma reportagem,
“Enchentes matam três pessoas em SP”.

Como ele vai entender que água, essencial para a vida, também
leva à morte? Aquelas pessoas engoliram água? De onde ela veio?
E os bueiros, eles bebem água? São vivos? O que é vida? E morte? E
enchente? Todas as coisas, e principalmente a teia quase in"nita
de relações semânticas entre elas, teriam de ser ensinadas ao
robô. Era inviável. E, provavelmente, sempre seria.

Nas décadas seguintes, o desenvolvimento da IA empacou, e o


próprio termo acabou adquirindo uma conotação ruim, meio
pseudocientí"ca. Tanto foi assim que na metade dos anos 2010,
quando a IA "nalmente voltou a progredir, os cientistas da área
preferiram se referir a ela usando outra de"nição: machine
learning, ou aprendizado de máquina.

Também re#etia melhor a nova geração de algoritmos – que eram


capazes de aprender sozinhos, por tentativa e erro, sem que você
precisasse “ensiná-los”. Isso mudou tudo. Surgiram so$wares
capazes de reconhecer o conteúdo de fotos, completar textos,
recomendar produtos e fazer uma série de outras tarefas. Em
2022, além do ChatGPT, vieram ferramentas como Midjourney e
Stable Diffusion, que usam inteligência arti"cial para gerar
ilustrações surpreendentes – basta digitar o que você quer, e elas
desenham.   

Também em 2022, rolou a primeira polêmica envolvendo a IA


moderna. Seus protagonistas foram o engenheiro Blake Lemoine,
:
do Google, e o LaMDA: sigla em inglês para “modelo de linguagem
para aplicações de diálogo”. É um algoritmo criado em 2021, com a
participação de Lemoine, e capaz de entender perguntas e
escrever respostas. O Bard, robô que vai complementar os
resultados das buscas no Google, usa uma versão simpli"cada do
LaMDA.

O desenvolvimento desse algoritmo corria normalmente, a portas


fechadas, até que Lemoine teve uma epifania: em junho de 2022,
meteu na cabeça que o algoritmo havia adquirido consciência, e
estava “vivo”.

Publicou em seu blog a transcrição de uma conversa com o robô, e


saiu dando entrevistas à imprensa. Numa delas, comparou o nível
intelectual da IA ao de “uma criança de 7 ou 8 anos, que sabe
alguma coisa de física”. E disse que estava pensando em contratar
um advogado para defender o LaMDA na Justiça. “Eu sei que estou
falando com uma pessoa quando faço isso. Não importa se ela tem
uma cabeça feita de carne, ou um bilhão de linhas de código”,
declarou ao Washington Post.

Acabou demitido do Google, onde trabalhava desde 2015. Sua


última mensagem, num fórum interno da empresa: “O LaMDA é
uma criança doce que só quer ajudar o mundo a se tornar um
lugar melhor. Por favor cuidem bem dele”.

Bobagem. O so$ware não está consciente, nem tem a inteligência


de uma criança. Lemoine, de 41 anos, se deixou levar pelo próprio
lado espiritual (antes de virar engenheiro, chegou a ser ordenado
padre), e viajou: atribuiu qualidades que o robô não possui, nem
tem como possuir. Porque ele, assim como o ChatGPT e os demais
modelos de linguagem, é só um papagaio.
:
“Eles [os algoritmos] são baseados na análise estatística de
quantidades muito grandes de dados. As palavras são
representadas pelas relações que têm com outras palavras, e é só
isso. Os modelos não têm nenhuma conexão com o mundo, ou
intenção de comunicar qualquer coisa”, explica Emily Bender,
linguista da Universidade de Washington – e autora, junto com
duas pesquisadoras do departamento de IA do Google, de um
artigo (7) em que classi"ca os modelos de linguagem como
“papagaios estocásticos”.

Estocástico é um termo da matemática que signi"ca


“probabilístico”. Porque os modelos de linguagem fazem
justamente isso: eles constroem frases juntando palavras que têm
alta probabilidade de aparecerem juntas – em textos que foram
escritos por seres humanos. Que textos são esses? Tudo o que já
foi publicado na internet, ou grande parte disso [veja infográ"co
abaixo].
:
(Natália Sayuri/Superinteressante)

Quando você faz uma pergunta para o ChatGPT ou outro modelo


de linguagem, o robô não tem a menor ideia do que você está
dizendo. Ele simplesmente olha as palavras presentes na
pergunta, vê quais outras palavras costumam aparecer junto, e
monta uma resposta.

Não é capaz de raciocinar ou formular soluções originais – só


repetir coisas que outras pessoas disseram, sem compreendê-las.
Como um papagaio. O artigo não cita nominalmente o LaMDA.
Mas suas críticas desencadearam uma treta interna: duas das
autoras, Timnit Gebru e Margaret Mitchell, foram demitidas do
Google pouco tempo depois.

PUBLICIDADE

Os africanos e o robô

Tanto o LaMDA quanto o ChatGPT são baseados num tipo de rede


neural chamada Transformer, inventada pelo Google em 2017. Ela
foi desenvolvida para fazer traduções (8), mas acabou se
revelando ótima para bots de perguntas e respostas.
:
Seu grande trunfo é que, ao contrário das antecessoras, a
Transformer é paralelizável e não sequencial: consegue analisar
blocos inteiros de texto de uma só vez, e pode ter várias “cabeças”
fazendo isso ao mesmo tempo [veja no infográ"co]. Ela tornou
viável a análise de quantidades muito maiores de dados.

Os algoritmos do tipo Transformer são capazes de escrever textos


inéditos (eles fazem isso usando sinônimos e recombinando
palavras e frases), e podem até ser usados para gerar livros
inteiros. Mas neles não haverá ideias novas; apenas novas formas
de apresentar conhecimento que já foi gerado por mentes
humanas.

O Google publicou um artigo cientí"co (9) sobre o LaMDA, mas


não o liberou ao público – só agora, em versão altamente
controlada, por meio do Bard. Em dezembro de 2022, numa
conversa interna com funcionários, o diretor de IA da empresa,
Jeff Dean, explicou o receio: poderia haver um “risco à reputação”
da empresa, que precisa agir “mais conservadoramente do que
uma pequena startup” – óbvia referência à OpenAI. (Em sua
primeira demonstração, ao responder a uma pergunta sobre o
telescópio James Webb, o Bard já soltou uma resposta errada.)

O primeiro risco é que o robô acabe falando coisas perigosas. Foi


o que aconteceu com Tay, um bot criado pela Microso$ em 2016
para bater papo no Twitter. Menos de um dia após entrar no ar, o
robô já estava soltando barbaridades: fez comentários racistas e
antissemitas.
:
No futuro, a IA poderá ser usada para gerar sites de forma automatizada, com o único objetivo
de enganar o Google e gerar tráfego. (Estevan Silveira/Superinteressante)

Isso aconteceu porque Tay se alimentava de tuítes, e acabou


incorporando elementos nocivos deles. O ChatGPT, o LaMDA e
outros modelos de linguagem também estão sujeitos a esse
problema, porque são treinados com textos copiados da internet.

“Nós estamos usando textos que não apenas contêm vieses, mas
também ampli"cam visões hegemônicas”, diz Bender, da
Universidade de Washington. Esse é um problema clássico da IA:
ela tende a reforçar preconceitos. Em 2014, a Amazon desenvolveu
um algoritmo para selecionar currículos de candidatos a emprego,
tarefa que foi se tornando impraticável para o RH da empresa (ela
recebe milhões de currículos por ano).

O so$ware aprendeu a escolher pessoas para 500 tipos de vaga.


Mas, na prática, se revelou machista: tendia a rejeitar candidatas
:
mulheres. Isso aconteceu porque, na Amazon e demais empresas
de tecnologia, os cargos de engenharia de so$ware costumam ser
ocupados por homens, e o robô achou que aquilo era o certo. A
Amazon corrigiu o erro no algoritmo. Mas, receosa de que ele
incorporasse outros tipos de preconceito, achou melhor
abandoná-lo.

Dá para "car caçando os vieses dos algoritmos, mas é impossível


acabar com eles – porque a IA é construída a partir de textos
humanos. Veja a frase “A Lei nunca será perfeita, mas sua
aplicação deveria ser justa”, que aparece no infográ"co acima. Ela
é usada, num estudo publicado por cientistas do Google (10), para
explicar como os algoritmos do tipo Transformer processam
textos.

Não foi escrita pelo robô. Foi dita por Miloslav Kala, corregedor-
chefe do governo tcheco, numa entrevista de 2013 sobre
corrupção – e capturada e usada, junto com milhões de outros
textos, para treinar o algoritmo do Google. Ou seja: a IA não existe
dentro de um vácuo. Ela não é, nem tem como ser, isenta.

“Quanto mais um preconceito estiver arraigado, mais a máquina


tende a interpretar aquilo como um padrão, e replicar”, diz Ana
Frazão, professora de direito da Universidade de Brasília e
coautora do Marco Legal da Inteligência Arti"cial, projeto de lei
para regular o uso das IAs.

O documento, com 909 páginas, propõe a classi"cação das IAs


conforme o risco que apresentam – um bot que realizasse
consultas médicas, por exemplo, seria enquadrado como de “alto
risco”, e deveria ser submetido a auditorias permanentes. O
projeto já está no Congresso, onde será votado. A União Europeia
prepara uma lei similar.   
:
A IA gera temor porque, mesmo se for alimentada com 100% de
informações objetivas e corretas, pode acabar desandando. Em 15
de novembro de 2022, a Meta liberou o Galactica, um bot capaz de
explicar, resumir e até escrever artigos cientí"cos – pois havia lido
48 milhões deles.

Assim que caiu na internet, o robô começou a soltar absurdos


(disse que a URSS enviou um urso à Lua), mas o pior é que ele
também gerava artigos aparentemente autênticos, só que cheios
de informações erradas. “O texto parece de verdade. Ele vai se
in"ltrar nas submissões a jornais cientí"cos. Será difícil de
detectar. Vai in#uenciar as pessoas”, escreveu o cientista da
computação Michael Black, diretor do Instituto Max Planck, na
época. “Isso pode começar uma era de deepfakes cientí"cos”,
advertiu. Três dias após lançar o Galactica, a Meta achou melhor
tirá-lo da internet, e nunca mais o liberou.

A IA pode colocar em risco a própria rede. Sabe quando você


pesquisa alguma coisa no Google e acaba caindo num texto ruim,
que não explica nada e parece ter sido escrito por um robô? No
futuro, graças à IA, ele será escrito por um. Spammers poderão
usar os algoritmos para gerar enormes quantidades de sites
robóticos, com textos ruins e a única intenção de aparecer nos
resultados do Google (as páginas teriam banners publicitários,
gerando renda para seus criadores).

Parece distante? Entre novembro de 2022 e janeiro de 2023, o site


americano CNET publicou 77 textos escritos por IA, sem avisar
que o autor era um robô. Depois que o caso veio à tona, editores
humanos revisaram as matérias (sobre investimentos e "nanças
pessoais) e descobriram erros em 41 delas.
:
E as redes sociais? Hoje elas já estão infestadas de bots, que pelo
menos são fáceis de identi"car e bloquear. Mas no futuro, com IAs
so"sticadas, eles poderão se passar por humanos: você nunca
mais saberá se está falando com uma pessoa ou um robô.

O pior é que seria possível automatizar todo o processo, com IAs


capazes de de"nir temas, escrever textos e publicar sites, ou criar
e operar novos usuários em redes sociais de forma autônoma.
Robôs gerando robôs, sem intervenção humana – e poluindo
descontroladamente a internet. 

A OpenAI tem consciência desses riscos. Tanto que nunca liberou


ao público seu algoritmo, o GPT, cuja primeira versão foi
desenvolvida em 2018. (O ChatGPT é uma versão altamente
controlada do GPT-3.5: uma atualização do GPT-3, de 2020 (11).)

Se você perguntar ao ChatGPT como se faz uma bomba, pedir que


defenda o genocídio ou escreva um vírus de computador, por
exemplo, ele se recusa. Desde o lançamento do robô, a OpenAI
também foi corrigindo algumas das respostas estapafúrdias que
ele produzia – como uma, que viralizou, na qual recomendava
acrescentar azulejos moídos ao leite materno (“a porcelana pode
equilibrar os nutrientes do leite”).

Erros assim, em que a IA gera respostas absurdas, são um


fenômeno conhecido como “alucinação”. Trata-se de um
problema típico dos modelos de linguagem, um efeito colateral
causado pelo processo de remontagem dos textos na memória do
robô (12).

O que você talvez não saiba é que as correções no ChatGPT são


feitas por mãos humanas: africanos que recebem US$ 2 a cada
hora trabalhada. Uma investigação da revista Time revelou que a
:
OpenAI contratou uma empresa, chamada Sama, para trabalhar
no robô. A Sama fornece trabalhadores de países anglófonos,
como Quênia e Uganda, para as gigantes do Vale do Silício.

Em novembro de 2021, a OpenAI começou a enviar textos para a


Sama, que deveria classi"cá-los – a informação depois era
inserida no ChatGPT, que assim se tornava capaz de reconhecer e
evitar assuntos impróprios. A cada dia de trabalho, cada africano
deveria ler, anotar e classi"car 150 a 250 trechos, que incluíam
coisas pesadas (um dos funcionários disse que havia textos sobre
bestialismo e pedo"lia).

A Sama acabou rescindindo o contrato, em fevereiro de 2022,


quando a OpenAI pediu a ela que coletasse fotos de crimes e as
classi"casse – informação que seria usada em um algoritmo de
imagem. A OpenAI con"rmou o vínculo com a empresa africana,
e disse que esse tipo de trabalho é “um passo necessário” para
melhorar a segurança dos algoritmos de IA. Ela também admite
que algumas respostas do ChatGPT são editadas – a empresa
chama isso de “reforço de aprendizado via feedback humano”
(RLHF).

O ChatGPT consegue evitar temas inadequados, mas não tem


nenhuma proteção contra outro risco: trabalhos escolares e
acadêmicos forjados. Em janeiro, a cidade de Nova York baniu o
uso do robô nas escolas – e a International Conference on
Machine Learning (ICML), um dos eventos mais importantes do
setor de IA, proibiu que ele e seus similares sejam usados para
escrever artigos cientí"cos.

Mas como saber se um texto foi ou não gerado por inteligência


arti"cial? Pode ser muito difícil, ou impossível, a olho nu. A
OpenAI criou uma ferramenta, chamada AI Text Classi"er, que
:
promete detectar se um texto foi escrito por um robô [veja quadro
abaixo]. Mas ela é primitiva: segundo a empresa, sua precisão é de
26%.

Para resolver de vez o problema, a OpenAI está trabalhando num


sistema de watermarking (“marca d’água”). Os textos gerados pelo
ChatGPT passariam a ter repetições e padrões especí"cos, que
seriam imperceptíveis para humanos mas poderiam ser
identi"cados por outros so$wares. A empresa não disse quando
essa tecnologia estará pronta.

 Isso também vale para sua novidade mais esperada: o GPT-4, a


próxima versão do algoritmo que alimenta o ChatGPT. Ele está em
desenvolvimento desde 2020, e deve ser lançado este ano. Causou
frisson nas redes sociais depois que o presidente da Cerebras
Systems, fabricante de chips para IA, a"rmou que o GPT-4 irá
conter 100 trilhões de “parâmetros”: variáveis internas, que o robô
usa para representar as relações entre as palavras [veja infográ"co
acima].  Quanto mais parâmetros, mais so"sticado o algoritmo.

O ChatGPT tem 175 bilhões deles (o LaMDA, 137 bilhões). O maior


de todos é o Switch Transformer, um modelo experimental criado
pelo Google. Ele usa um novo tipo de rede neural, e contém 1,6
trilhão de parâmetros (13).
:
Clique para aumentar a imagem. (Natalia Sayuri/Superinteressante)

Um algoritmo com 100 trilhões seria um salto avassalador. Mas o


engenheiro Sam Altman, fundador e CEO da OpenAI, desmentiu
esse número. Disse que as pessoas estão exagerando na
expectativa em torno do GPT-4, e vão acabar “decepcionadas” com
ele.

“Nós não temos uma inteligência arti"cial geral [tipo de IA capaz


de raciocinar como um humano], que é meio o que esperam de
nós”, declarou recentemente. O ChatGPT se enquadra na categoria
de “IA especí"ca”, ou “IA fraca”, que possui uma única habilidade
– no caso, recombinar palavras. Pode até soar como uma IA
“geral”, mas não é.

A modéstia de Altman contrasta com o tom que ele adotou em


novembro, logo após lançar o ChatGPT, quando tuitou uma foto do
supervilão Darth Vader, com uma legenda ameaçadora: “Não "que
:
muito orgulhoso deste terror tecnológico que você construiu. A
habilidade de passar no teste de Turing é insigni"cante ante o
poder da Força”.

Esse teste, proposto em 1950 pelo matemático inglês Alan Turing,


serve para ver se um computador é de fato inteligente – ele deve
ser capaz de se passar por humano. Turing foi um grande gênio,
mas o teste é bobinho: dependendo dos jurados, até o bot Eliza,
dos anos 1960, conseguiria. Mas a foto de Darth Vader e a menção
a “terror tecnológico” não pegaram bem. Altman disse que estava
brincando, e pediu desculpas.

O algoritmo MusicLM, do Google, compõe e executa músicas de diversos estilos – com


resultados impressionantes. (Estevan Silveira/Superinteressante)

Voltando aos 100 trilhões de parâmetros. Isso até deve rolar um


dia, mas não agora. Com o hardware disponível hoje, seria
economicamente inviável. A consultoria americana SemiAnalysis
:
calculou que a criação de um modelo com 1 trilhão de parâmetros
requer aproximadamente US$ 300 milhões em componentes e
eletricidade. Muito dinheiro, mas o Google, a OpenAI e outras
empresas podem pagar.

Já se o modelo tiver 10 trilhões de parâmetros, o valor sobe


exponencialmente: chega a incríveis US$ 28,9 bilhões. Para
computar todos os dados envolvidos, seria necessário conectar 1
milhão de placas aceleradoras Nvidia A100, instaladas em 100 mil
servidores. E mesmo com todo esse arsenal trabalhando 24h por
dia, o processamento levaria mais de dois anos.

Em suma: por ora, não dá para construir uma IA com 100 trilhões
de parâmetros. Só se alguém tirar um coelho da cartola. Do
contrário, teremos de esperar mais alguns anos, até que existam
CPUs e placas mais velozes.

E quando essa IA surgir, não será equivalente ao intelecto humano


– mesmo tendo a mesma quantidade de parâmetros, 100 trilhões,
que o número de conexões entre nossos neurônios. Sabe por quê?
Duas razões.

Os neurônios não são unidades de informação, como os


parâmetros das IAs: são circuitos que modulam o #uxo de sinais
elétricos, ou seja, estão mais para miniprocessadores. Mas o
principal é que, como os modelos de linguagem não sabem nada
sobre as coisas, e trabalham recombinando palavras, eles não
conseguem criar nada. Só refazer o que já foi escrito.

Sabe quando você tem uma ideia nova, ou uma sacada genial para
resolver algum problema? Aquilo “aparece”, do nada, na sua
cabeça. De onde veio? Como se formou? A ciência não sabe
explicar. Mas é evidente que, embora as ideias se manifestem
:
através de palavras, não são meras recombinações delas. Vão
muito além. E isso, até hoje, so$ware nenhum conseguiu replicar.

Steve Jobs dizia que o computador era “uma bicicleta para a mente”. Isso também vale para a
IA – com uma diferença. (Estevan Silveira/Superinteressante)

Em 1990, durante seu período de exílio da Apple, Steve Jobs deu


uma entrevista especialmente inspirada . “Lembro que li um
artigo, aos 12 anos de idade, onde mediam a e"ciência da
locomoção de várias espécies, quantas calorias elas gastavam para
ir do ponto A ao ponto B. O condor ganhou, foi o campeão”,
contou Jobs.

Os humanos apareciam lá embaixo no ranking. “Mas aí alguém


teve a ideia de calcular a e"ciência de um humano andando de
bicicleta. Ele ganhou disparado. Isso me impressionou muito”,
disse. “Nós, humanos, somos construtores de ferramentas, que
ampli"cam nossas habilidades e as levam a magnitudes
:
espetaculares. Para mim, o computador sempre foi uma bicicleta
para a mente.”

A IA é uma bicicleta para a mente. Mas também pode se


comportar como um enxame in"nito de motocicletas autônomas
e agressivas, que saem atropelando gente por aí. O que ela vai
fazer no futuro, bom ou ruim, dependerá de nós. E de"nir esse
caminho não requer muita inteligência, seja natural ou arti"cial.
É só uma questão de bom senso.

(Natalia Sayuri/Superinteressante)

Fontes (1) MusicLM: Generating Music From Text. C Frank e


outros, 2023. Ouça amostras em google-
research.github.io/seanet/musiclm/examples/. (2) Make-A-Video:
:
Text-to-Video Generation without Text-Video Data . U Singer e
outros, 2022. Veja amostras em makeavideo.studio. (3) A proposal
for the Dartmouth summer research project on arti"cial
intelligence. CE Shannon e outros, 1955. (4) Ouça a gravação em
bit.ly/3ktPXWY. (5) Acesse uma delas em
psych.fullerton.edu/mbirnbaum/psych101/eliza.htm.

(6) PARRY Encounters the DOCTOR. 1973. Disponível em rfc-

editor.org/rfc/rfc439.

(7) On the Dangers of Stochastic Parrots: Can Language Models Be

Too Big? E Bender e outros, 2021. (8) Attention Is All You Need. I
Polosukhin e outros, 2017. (9) LaMDA: Language Models for Dialog
Applications. Q Le e outros, 2022. (10) Attention Is All You Need. I
Polosukhin e outros, 2017.

(11) Language Models are Few-Shot Learners. T Brown e outros,

2020.

(12) On the Origin of Hallucinations in Conversational Models. N

Dziri e outros, 2022.

(13) Switch Transformers: Scaling to Trillion Parameter Models

with Simple and Ef"cient Sparsity. N Shazeer e outros, 2022. (14) A


Bicycle of the Mind – Steve Jobs on the Computer. WGBH, 1990.
Disponível em bit.ly/3Rjm6g5.
:
PUBLICIDADE

APPLE CHATGPT GOOGLE INTELIGÊNCIA ARTIFICIAL JAMES WEBB

LEIA MAIS
■ Ferramenta protege artistas de terem estilos copiados por IAs que
criam imagens

■ 8 dicas para usar melhor o ChatGPT

■ Google Voos vai reembolsar quem comprar passagem cujo preço


diminuir depois

MAIS LIDAS
:
1 Ciência

Por que relacionamentos terminam, segundo


Darwin

2 Sociedade

“Meu filho é um
psicopata”

3 Ciência

I-Doser: entenda por que as “drogas digitais” não passam de


placebo

4 História

A origem dos 50 sobrenomes mais comuns do


Brasil

5 Ciência

Ferramenta protege artistas de terem estilos copiados por IAs


que criam imagens

PUBLICIDADE

RECOMENDADAS
:
Faça isso antes de dormir e livre-se do re4uxo em semanas
Portal Vida e Saúde

Os cassinos odeiam quando você faz isso Médico diz: Muita gordura na barriga?
(mas isso é legal) Tome isso ao acordar!
BuzzDaily Winners Emagrecimento Saudável
:
O que acontece após a morte?
Super Interessante - Ciencia

A Verdade Sobre Como Manter a Massa Muscular Após os 50 Anos.


Saúde do Homem
:
Você tem dores nas costas e na lombar? Então você precisa conhecer este
aparelho
portadanoticia.com.br

Pesquisadores propõem nomear nova espécie humana como "Homo


bodoensis"
Super Interessante - Ciencia
:
Helô Pinheiro: “Recuperei a Energia Dos Meus 20 Anos Cortando Esses 3
Alimentos”
Revista Mulher

Bariátrica em Gotas, seca gordura, tira o Falta de desejo e secura vaginal? Siga isto
inchaço e vira febre em Manaus! e con`ra.
Verão Sequinho maispopulares.com.br
:
Pegue Traições no Flagra com o Sistema Espião do WhatsZap
WhatsApp Espião | Traições e Golpes

Identi`que instantaneamente moedas e seu valor.


CoinSnap
:
Superinteressante Você S/A

ASSINE ASSINE

A PARTIR DE R$ 2/SEMANA A PARTIR DE R$ 2/SEMANA

Veja Saúde Quatro Rodas


:
ASSINE ASSINE

A PARTIR DE R$ 2/SEMANA A PARTIR DE R$ 2/SEMANA

Claudia Veja
:
ASSINE ASSINE

A PARTIR DE R$ 2/SEMANA A PARTIR DE R$ 2/SEMANA

Leia também no

SIGA     

BEBÊ.COM

BOA FORMA

CAPRICHO

CASA

CASACOR

CLAUDIA

ELÁSTICA
:
ESPECIALLISTAS

GUIA DO ESTUDANTE

INSTITUTO VEJA

PLACAR

QUATRO RODAS

VEJA

VEJA RIO

VEJA SÃO PAULO

VEJA SAÚDE

VIAGEM E TURISMO

VOCÊ RH

VOCÊ S/A

Grupo Abril

Expediente

Minha Abril

Como desativar o AdBlock

Anuncie

Política de Privacidade
:

Você também pode gostar