Você está na página 1de 6

É possível chegarmos à singularidade com a inteligência artificial?

Por Olívia Baldissera | 9, Agosto 2023

O robozinho que ilustra este artigo foi gerado por inteligência artificial
(IA). Ele é uma mostra de um tipo de IA que esquentou a discussão sobre a
humanidade ter alcançado a singularidade tecnológica ou não.

Será que chegamos ao estágio em que os computadores superaram a


capacidade criativa dos seres humanos?

Aqui você vai encontrar um recorte do debate sobre o assunto, que ganhou
força com o Midjouney e o ChatGPT nos últimos anos. Não vamos trazer
respostas definitivas, mas informações que vão te ajudar a se orientar na
Era da inteligência artificial.

O que é a singularidade tecnológica


A singularidade tecnológica é um evento futuro hipotético caracterizado
pelo crescimento da tecnologia de forma imprevisível, descontrolada e
irreversível, o que transformaria radicalmente a realidade como a
conhecemos.

Esse evento é estudado pela futurologia, campo multidisciplinar que reúne


evidências das demais ciências para prever futuros possíveis.

O termo “singularidade” foi emprestado da Física pelo matemático e


cientista da computação John von Neumann (1903-1957) em 1950 para
falar sobre os avanços cada vez mais acelerados da tecnologia.

É atribuída a ele a seguinte citação, em um tributo póstumo escrito pelo


físico Stanisław Ulam (1909-1984) em 1958:

“O progresso cada vez mais acelerado da tecnologia e as mudanças no modo


de vida humano dão a impressão de que uma singularidade essencial na
história da humanidade está se aproximando, além da qual as questões
humanas, como as conhecemos, não poderiam continuar.”.
“The ever accelerating progress of technology and changes in the mode of human life give the appearance of
approaching some essential singularity in the history of the race beyond which human affairs, as we know them,
could not continue.”.

Essa teria sido a primeira vez que a palavra “singularidade” foi associada à
tecnologia.
Em 1965, o matemático Irving John Good publicou o artigo "Speculations
Concerning the First Ultraintelligent Machine", em que apresentou
características que, anos mais tarde, definiriam o que é a singularidade
tecnológica:

“Uma máquina ultra inteligente pode ser definida como uma máquina capaz
de superar todas as atividades intelectuais de qualquer pessoa,
independentemente do seu grau de inteligência. Como a criação de máquinas
é uma dessas atividades intelectuais, uma máquina ultra inteligente poderia
criar máquinas ainda melhores; assim haveria uma ‘explosão de inteligência’
inquestionável, e a inteligência humana seria deixada para trás. Portanto a
primeira máquina ultra inteligente será a última invenção que o ser humano
precisa fazer.”.
"Let an ultraintelligent machine be defined as a machine that can far surpass all the intellectual activities of any
man however clever. Since the design of machines is one of these intellectual activities, an ultraintelligent
machine could design even better machines; there would then unquestionably be an 'intelligence explosion,' and
the intelligence of man would be left far behind. Thus the first ultraintelligent machine is the last invention that
man need ever make.".

O termo se popularizaria na década de 1990, com os livros “The Age of


Intelligent Machine” (1990) e “The Age of Spiritual Machines” (1999) do
cientista da computação e futurista Ray Kurzweil. O autor tratou sobre o
desenvolvimento da inteligência artificial e fez previsões sobre quando
chegaríamos à singularidade tecnológica.

Atualmente a singularidade tecnológica é associada à inteligência artificial


geral (AGI, sigla em inglês para “artificial general intelligence”), estágio de
desenvolvimento em que as máquinas conseguiriam realizar qualquer
tarefa que poderia ser feita por um ser humano.

A relação entre singularidade e inteligência


artificial
Aqui vale fazermos uma pausa para conceituarmos inteligência artificial e
entender por que a AGI levaria a humanidade à singularidade.

De forma bem resumida, a IA é um conjunto de sistemas que mimetizam a


inteligência humana com o objetivo de executar tarefas, aprimorando-se
frequentemente a partir das informações coletadas.

Os pesquisadores em IA costumam classificá-la em três tipos: limitada,


geral e superinteligência.

O primeiro tipo, a IA limitada, é a que já se popularizou entre as pessoas.


Ela se refere a computadores que realizam funções específicas e
solucionam problemas pré-determinados, por meio do machine learning e
do processamento de linguagem natural.

IAs fracas como assistentes virtuais não têm a mesma versatilidade que o
ser humano para realizar múltiplas tarefas, o que as difere da AGI.

A inteligência artificial geral, em teoria, conseguiria realizar várias tarefas,


pois seria capaz de acessar e processar um grande volume dados em uma
velocidade sobre-humana. Assim ela superaria a capacidade média das
pessoas de raciocinar de forma lógica e abstrata, além de compreender a
linguagem natural.

A AGI ainda está em desenvolvimento em laboratórios de pesquisa e


empresas, sem ter um uso em massa por pessoas de fora da área de
tecnologia. O exemplo de modelo mais conhecido que visa a ser uma AGI é
o GPT-4 da OpenAI, a criadora do ChatGPT.

A comunidade de IA ainda discute se o algoritmo da OpenAI realmente


estaria perto de ser uma IA geral (e, portanto, nos aproximaria da
singularidade tecnológica) ou seria apenas uma empolgação desmedida do
mercado com os avanços dos LLMs (sigla em inglês para “large language
models”) e com as plataformas de inteligência artificial generativa – tipo
de sistema do ChatGPT.

Quando vamos atingir a singularidade tecnológica


É complicado dar uma data precisa para a chegada da singularidade
tecnológica. O que avaliar para afirmar que um computador superou a
inteligência humana? Devemos considerar a massificação dessa tecnologia,
ou seja, quando ela passar a ser utilizada por pessoas de fora da área de IA,
para afirmar categoricamente que estamos na singularidade?

Apesar dessas dúvidas, há futuristas e startups que propõem algumas


previsões.

Na conferência “The Coming Technological Singularity: How to Survive in


the Post-Human Era”, o cientista da computação e escritor de ficção
científica Vernor Vinge estimou que a singularidade seria alcançada entre
2005 e 2030.

Já o futurista Ray Kurzweil, no livro “The Singularity is Near” (2005),


calculou que o progresso das pesquisas em inteligência artificial levará à
singularidade em 2045, no máximo.
Para chegar a esse ano, o autor se baseou na Lei de Moore, princípio
elaborado em 1965 pelo cofundador da Intel Gordon Earl Moore (1929-
2023). Ele estabeleceu que a capacidade dos computadores dobra a cada
18 meses.

As previsões feitas por Vinge e Kurzweil consideraram o estágio de


desenvolvimento da inteligência artificial na época em que foram feitas. Ao
ler os livros e artigos mencionados acima, é fundamental ter em mente que
a IA das décadas de 1990 e 2000 tinha uma capacidade bem menor do que
a de hoje.

É o caso dos LLMs, criados na década de 1980 e que, atualmente, são


capazes de gerar textos, códigos de programação, traduções e respostas de
chatbots. A complexidade das respostas geradas por modelos como o
usado pelo ChatGPT fizeram com que o futurista Jerry Kaplan afirmasse
que, se não chegamos “À” singularidade, ao menos conquistamos UMA
singularidade.

Para Kaplan, a humanidade deu um passo tecnológico transformador para


acelerar o conhecimento humano, o que também leva ao aparecimento de
novos problemas.

Questões ligadas a vieses de algoritmo, direitos humanos, desemprego


estrutural, direitos autorais, regulamentação e bolhas no mercado
financeiro foram levantadas com o boom da IA despertado pelo ChatGPT.

Tanto que, em março de 2023, a organização sem fins lucrativos Future of


Life Institute publicou uma carta aberta em que pedia uma pausa nas
pesquisas em IA por pelo menos 6 meses até que se compreendesse os
impactos dessa tecnologia na sociedade.

Entre os signatários da carta estão Elon Musk, o historiador Yuval Noah


Harari e o cofundador da Apple Steve Wozniak. Em agosto, ela já contava
com mais de 33 mil assinaturas.

O debate sobre os dilemas relacionados à inteligência artificial também


levou à preocupação de que a IA fosse demonizada, surgindo assim mais
uma carta aberta sobre a tecnologia – mas com o propósito de combater a
condenação da tecnologia.

Ela foi publicada em julho de 2023 pela The Chartered Institute for IT,
entidade britânica de computação. Destinada ao governo e a indústria do
Reino Unido, a carta defendia o desenvolvimento da IA de forma ética,
incluindo a necessidade de regulamentação e colaboração internacional.
Fica a reflexão: a imprevisibilidade dos impactos dos avanços da
inteligência artificial não seria um tipo de singularidade.

💡Quer saber mais sobre a relação entre singularidade e inteligência


artificial? Confira algumas obras dos autores mencionados e as fontes
consultadas para este guia do Blog da Pós PUCPR Digital:

 BARNEY, Nick. Singularity. TechTarget, Newton, mai. 2023.


Disponível
em: https://www.techtarget.com/searchenterpriseai/definition/Si
ngularity-the. Acesso em 9 ago. 2023.
 GOOD, Irving John. Speculations Concerning the First
Ultraintelligent Machine. Advances in Computers, Cambridge, v. 6,
p. 31-88, mês ano. DOI: https://doi.org/10.1016/S0065-
2458(08)60418-0.
 IAMARINO, Átila. Como a inteligência artificial já manipula sua
vida. [S. l.]: Canal do Atila Iamarino, 16 mai. 2013. Vídeo.
Disponível em: https://youtu.be/ZNEG4Ed9Jjs. Acesso em 9 ago.
2023.
 JUNIOR, Nazareno Maciel. Singularidade Tecnológica: o
diferencial é ser humano! O Futuro das Coisas, São Paulo, 26 mai.
2019. Disponível em: https://ofuturodascoisas.com/singularidade-
tecnologica-o-diferencial-e-ser-humano/. Acesso em 9 ago. 2023.
 KNIGHT, Will. Some Glimpse AGI in ChatGPT. Others Call It a
Mirage. WIRED, São Francisco, 18 abr. 2023. Disponível
em: https://www.wired.com/story/chatgpt-agi-intelligence/.
Acesso em 9 ago. 2023.
 KURZWEIL, Ray. The Age of Intelligent Machines. Cambridge:
MIT Press, 1990.
 KURZWEIL, Ray. The Age of Spiritual Machines: When
Computers Exceed Human Intelligence. Nova York: Viking Press,
1999.
 KURZWEIL, Ray. The Singularity is Near: When Humans
Transcend Biology. Nova York: Viking Press, 2005.
 PIAUÍ. Ray Kurzweil e o mundo que nos espera. Piauí, São Paulo,
abr. 2010. Disponível
em: https://piaui.folha.uol.com.br/materia/ray-kurzweil-e-o-
mundo-que-nos-espera/. Acesso em 9 ago. 2023.
 SMITH, Robert Elliott. One-a-Day Comments on AI Quotes in
Forbes: Von Neumann. Rage Inside the Machine, Londres, 1 abr.
2020. Disponível em:
https://www.rageinsidethemachine.com/robert-elliott-smith/one-
a-day-comments-on-ai-quotes-in-forbes-von-neumann. Acesso em
9 ago. 2023.
 STREITFELD, David. Silicon Valley Confronts the Idea That the
‘Singularity’ Is Here. The New York Times, Nova York, 11 jun.
2023. Disponível
em: https://www.nytimes.com/2023/06/11/technology/silicon-
valley-confronts-the-idea-that-the-singularity-is-here.html. Acesso
em 9 ago. 2023.
 VINGE, Vernor. The Coming Technological Singularity: How to
Survive in the Post-Human Era. In: SIMPÓSIO VISION-21, 1., 1993,
Westlake. Anais [...] Cleveland: NASA Lewis Research Center, 1993,
p. 11-22.

Você também pode gostar