Você está na página 1de 4

O que Noam Chomsky pensa a respeito da Inteligência Artificial

do ChatGPT

O renomado linguista e filósofo Noam Chomsky escreveu um artigo, junto com


dois especialistas, compartilhando sua visão sobre os avanços que vêm
ocorrendo no campo da inteligência artificial. Aqui, as razões pelas quais olha
com ceticismo a tecnologia de programas como o ChatGPT, entre outros.

A reportagem é de Alexis Paiva Mack, publicada por La Tercera, 10-03-2023.


A tradução é do Cepat.

Para interessados na área de tecnologia, aplicativos de Inteligência


Artificial (IA), como ChatGPT e DALL-E, tornaram-se toda uma tendência.
Não só porque, respectivamente, são capazes de elaborar textos ou imagens
por conta própria, a partir de simples ideias fornecidas pelos usuários, mas
também porque alguns os utilizam para apoiar suas atividades diárias.

Diversos especialistas e até o responsável por ambos, Sam Altman,


da OpenAI, alertaram que essas plataformas ainda apresentam erros, por isso
não é recomendável confiar em tudo o que reproduzem, após reunirem
grandes quantidades de dados na internet.

Junto disso, esses sistemas também despertaram a preocupação de alguns


internautas. Por exemplo, algumas semanas atrás viralizou que o chatbot do
motor de busca da Microsoft, Bing, disse a um jornalista do New York
Times que gostaria de ser humano, “criar um vírus mortal” e cometer uma série
de “atos destrutivos”.

Pouco depois, um colunista do mesmo jornal estadunidense publicou um artigo


explicando por que esses programas caem em declarações tão extremistas e
polêmicas, cenário que é potencializado pela grande quantidade de fake
news e agitadores no mundo digital.

Atualmente, as opiniões sobre a IA disponível ao público são variadas, embora


seus próprios criadores costumem comunicar que são ferramentas em
desenvolvimento que poderão ser úteis para tarefas mais assertivas e
avançadas no futuro.

Contudo, se considerarmos que esses aplicativos tentam simular o trabalho e


as conversas dos seres humanos, podemos dizer que sua inteligência se
assemelha, ao menos agora, à das pessoas?

O renomado linguista e filósofo Noam Chomsky escreveu um artigo sobre o


assunto no New York Times. Com o apoio de seu colega Ian Roberts e do
especialista em IA, Jeffrey Watumull, decifrou as chaves dessa questão.

1
Noam Chomsky: sua alarmante visão sobre a inteligência artificial do
ChatGPT

Para o intelectual e seus colaboradores, os avanços “supostamente


revolucionários” apresentados pelos desenvolvedores da IA são motivo “tanto
para otimismo como para preocupação”.

No primeiro caso, porque podem ser úteis para resolver certas problemáticas,
ao passo que no segundo “tememos que a variedade mais popular e em voga
da inteligência artificial (aprendizado automático) degrade nossa ciência e
deprecie nossa ética ao incorporar à tecnologia uma concepção
fundamentalmente errônea da linguagem e o conhecimento”.

Embora tenham reconhecido que são eficazes na tarefa de armazenar imensas


quantidades de informação, que não necessariamente são verídicas, não
possuem uma “inteligência” como a das pessoas.

“Por mais úteis que esses programas possam ser em alguns campos
específicos (como a programação de computadores, por exemplo, ou para
sugerir rimas para versos rápidos), sabemos pela ciência da língua e a filosofia
do conhecimento que diferem profundamente do modo como os seres
humanos raciocinam e utilizam a linguagem”, alertaram. “Essas diferenças
impõem limitações significativas ao que podem fazer, codificando-os com
falhas inerradicáveis”.

Nesse sentido, detalharam que, diferentemente de mecanismos de aplicativos


como o ChatGPT, que operam com base na coleta de inúmeros dados, a
mente humana pode funcionar com pequenas quantidades de informação, por
meio das quais “não busca inferir correlações abruptas entre pontos (...), mas,
sim, criar explicações”.

A “capacidade crítica” dos programas que funcionam com IA

Para sustentar essa premissa, exemplificaram com o caso das crianças quando
estão aprendendo um idioma, cenário em que a partir do pouco conhecimento
que possuem conseguem estabelecer relações e parâmetros lógicos entre as
palavras e orações.

“Essa gramática pode ser entendida como uma expressão do sistema


operacional inato geneticamente instalado, que dota os seres humanos da
capacidade de gerar frases complexas e longas cadeias de pensamento”,
disseram, para depois acrescentarem que “é completamente diferente ao de
um programa de aprendizado automático”.

Nessa linha, manifestam que esses aplicativos não são realmente


“inteligentes”, pois carecem de capacidade crítica. Embora possam descrever e
prever “o que é”, “o que foi” e “o que será”, não são capazes de explicar “o que
não é” e “o que não poderia ser”.

2
“Suponhamos que você tenha uma maçã em sua mão. Então, você a solta,
observa o resultado e diz: “A maçã cai”. Isso é uma descrição. Uma previsão
poderia ser a afirmação: “cairá se eu abrir minha mão”. As duas afirmações são
valiosas e podem estar corretas. Contudo, uma explicação significa algo a
mais, inclui não apenas descrições e previsões, mas também conjecturas
contrafactuais como “qualquer objeto deste tipo cairia”, mais a cláusula
adicional: “devido à força da gravidade” ou “devido à curvatura do espaço-
tempo”.

Desta maneira, acrescentaram que “isto é uma explicação causal: a maçã não
teria caído, se não fosse pela força da gravidade (...) isso é pensar”.

E ainda que as pessoas também podem cometer erros de raciocínio,


enfatizaram que errar faz parte do pensamento, pois “para ter razão, deve ser
possível se equivocar”.

“O ChatGPT e programas semelhantes são, por projeto, ilimitados no que


podem 'aprender' (ou seja, memorizar). São incapazes de distinguir o possível
do impossível. Ao contrário dos humanos, por exemplo, que são dotados de
uma gramática universal que limita os idiomas que podemos aprender àqueles
com um certo tipo de elegância quase matemática, esses programas aprendem
idiomas humanamente possíveis e humanamente impossíveis com a mesma
facilidade”.

A perspectiva moral da inteligência artificial

Outro fator que Chomsky, Roberts e Watumull consideraram em sua análise


é que os sistemas de IA carecem de ponderação na perspectiva moral,
portanto, são incapazes de distinguir sob marcos éticos o que se deve ou não
fazer.

Para eles, é fundamental que os resultados do ChatGPT sejam “aceitáveis


para a maioria dos usuários” e que se mantenham “distantes de conteúdos
moralmente censuráveis” (como as declarações de “atos destrutivos” do
chatbot do Bing).

E embora os desenvolvedores dessas tecnologias tenham


acrescentado restrições para que seus programas não reproduzam
determinadas afirmações, os estudiosos ressaltaram que até o momento não
foi possível alcançar um equilíbrio efetivo. Em suas palavras, sacrificam a
criatividade por “uma espécie de amoralidade” que faz com que se distanciem
ainda mais das capacidades dos seres humanos.

“Em síntese, o ChatGPT e seus irmãos são constitutivamente incapazes


de equilibrar a criatividade com a restrição. Ou extrapolam (produzindo
tanto verdades quanto falsidades, apoiando tanto decisões éticas quanto
antiéticas) ou, então, simplificam (mostrando falta de compromisso com
qualquer decisão e indiferença com as consequências)”, sentenciaram.

3
Leia mais

 As cinco perguntas sobre o sucesso do ChatGPT


 ChatGPT: nem monstro, nem tábua de salvação
 Castells: o que (não) penso sobre o ChatGPT
 ChatGPT: entenda como funciona a inteligência artificial do momento - e
os riscos que ela traz
 ChatGPT. “Apesar da IA, ainda temos o monopólio da consciência”
 O GPT-3 desafia a inércia acadêmica
 Biopolítica algorítmica. Como as humanidades são impactadas e podem
impactar a Inteligência Artificial. Entrevista especial com Virgilio Almeida
 Inteligência Artificial e Saúde: para todos ou para quase ninguém?
 Inteligência artificial democrática: software em vez da política? Artigo de
Paolo Benanti
 “A inteligência artificial está se tornando senciente”, avisa engenheiro do
Google. E Big G o suspende
 Dar uma ética à inteligência artificial: um desafio contado em livro
 A inteligência artificial não precisa de inteligência: o pensamento de
Luciano Floridi
 “Ética da inteligência artificial”, novo livro de Luciano Floridi
 A necessidade de uma algorética para enfrentar o desafio da inteligência
artificial. Artigo de Paolo Benanti
 É possível confiar na inteligência artificial?
 A inteligência artificial pode nos ensinar a ser mais humanos?
 Machine Intelligence: a inteligência artificial e a espionagem. Artigo de
Paolo Benanti
 Inteligência Artificial no Sul Global. Alguns comentários a Jack Qiu
 “A inteligência artificial já faz parte da nossa cotidianidade.” Entrevista
com Luciano Floridi

FONTE:

https://www.ihu.unisinos.br/626886-o-que-noam-chomsky-pensa-a-respeito-da-
inteligencia-artificial-do-chatgpt

Você também pode gostar