Você está na página 1de 6

VESTIBULAR

ESTUDO DE CASO
BELAS ARTES 2023

Muito bem-vindos à Belas Artes!


A interferência da Inteligência Artificial no dia a dia da população tem sido amplamente discutida e
divulgada em diversos veículos de notícias. Um dos temas mais abordados dentro desse contexto é
o ChatGPT - um chatbot com inteligência artificial desenvolvido pela OpenAI, que se especializou
em diálogos.
Abaixo, encontra-se um texto que trata da Inteligência Artificial e seu impacto na vida de todos, afe-
tando o dia a dia de profissionais dos mais diversos ramos de atividade. Espera-se que o texto possa
inspirar e auxiliar os leitores a responder as questões da prova de seu Vestibular.

PAULO CASTRO
Copyright © 2022 by Belas Artes Editora. Todos os direitos reservados.

Copyright © 2022 by Belas Artes Editora. Todos os direitos reservados.


É preciso criar um pensamento humanista sobre
inteligência artificial.
Pensar a inteligência artificial (IA) a partir da Filosofia e da Antropologia. Essa é a proposta de Paulo
Castro, investigador no Centro de Filosofia das Ciências da Universidade de Lisboa (CFCUL). Li-
cenciado em Antropologia e doutorado em Filosofia do Pensamento Contemporâneo, com uma tese
sobre IA, considera que sistemas como o ChatGPT, ao usarem linguagem natural, têm um enorme
impacto no comportamento humano. “Quanto mais se aproximam dos nossos modos de estar e de
ser, mais poderosas serão estas tecnologias. E isso torna-nos mais manipuláveis e vulneráveis.” É
preciso criar um pensamento humanista sobre inteligência artificial, defende. A ficção dá algumas
pistas sobre cenários mais ou menos futuristas. “Westworld” é para o investigador a série que melhor
retrata os tempos modernos.
BELAS ARTES 2023

O Chat-GPT superou a sua imaginação?


Estava curioso e por isso decidi testar o sistema. “Conversámos” e confesso que fiquei surpreendido,
pois gerou-se um fenómeno de empatia e de construção de pensamento. Eu sabia que estava a co-
municar com um agente artificial, mas estabeleceu-se ali um diálogo natural. Perguntei se as inteli-
gências artificiais poderiam adquirir consciência e o Chat-GPT respondeu-me que isso não poderia
acontecer, indo assim ao encontro do argumento da “sala chinesa” do filósofo John Searle, apresen-
tado em 1980. Searle pôs em causa a teoria computacional da mente e a “Strong AI”, sustentando
que qualquer computador, por mais bem programado que esteja, faz um “output” a partir de um
“input” fornecido pelos humanos, mas não percebe realmente o que está a dizer. “Entende” a sintaxe,
mas não a semântica. À partida, os computadores não têm estados mentais que correspondam a um
entendimento humano, justamente por constituírem um sistema determinista, sem atos volitivos.
E assim é com o Chat-GPT, que não deixa de ser uma simulação extraordinária de um interlocutor
humano. É de tal forma sofisticado que, no limite, qualquer um de nós pode não conseguir perceber
se se trata de uma pessoa ou de uma máquina.
Copyright © 2022 by Belas Artes Editora. Todos os direitos reservados.

Copyright © 2022 by Belas Artes Editora. Todos os direitos reservados.


2023 pode ser o ano em que o Chat-GPT passa o chamado Teste de Turing?
O Teste de Turing foi imaginado pelo matemático Alan Turing em 1950. Envolve um agente huma-
no, o juiz, que mantém um diálogo separadamente com uma máquina e com outro agente humano,
mas não sabe quem é quem. Segundo Turing, se o juiz não conseguir distinguir entre uma coisa e
outra, podemos dizer que o computador adquiriu um nível de inteligência equivalente ao da inte-
ligência humana e que assim passou o teste. Mas haverá sempre um problema com o juiz: se o juiz
for ele próprio uma máquina, o teste é indecidível. É, portanto, necessário garantir que o juiz tem
à partida uma inteligência humana e que não estamos a ser enganados. Isso requer outro juiz, e o
problema repete-se indefinidamente. Desta forma, o Teste de Turing pode não ter a capacidade de
aferir se uma máquina se tornou humanamente inteligente, pois o juiz teria também de ser validado.
Qual é para si o maior impacto dos novos desenvolvimentos em IA?
Estas tecnologias têm um enorme impacto nos modos de ser, nos modos de pensar e nos modos de
agir humanos. Sabemos que o Chat-GPT, sendo uma rede neuronal de “deep learning”, foi treinado
com um grande conjunto de textos escritos por humanos e que captou um certo grau de ordem
da linguagem humana, gerando sempre um “output” de acordo com essa mesma ordem. Há então
a possibilidade de existir um enviesamento natural em direção a certos valores nas respostas do
Chat-GPT, uma vez que a tecnologia se alimenta da cultura existente. Mas esse “bias” pode também
ser produzido propositadamente: o sistema pode ser treinado com textos de índole ideológica, por
exemplo. Haverá assim um maior perigo para as democracias, pois sabemos que estas tecnologias
tendem a ser tecnologias de dominação e são facilmente apropriadas. Sabemos também que a im-
plementação destes sistemas pode obedecer estritamente a uma lógica capitalista, de mais-valia,
contribuindo para a manipulação mais profunda dos comportamentos através dos sistemas de re-
comendação. Julgo que chegou a hora de a economia e as tecnologias de inteligência artificial, em
geral, acomodarem princípios éticos fortes, que evitem enviesamentos indesejáveis da informação
ou manipulações comportamentais além do que é adequado em termos da recomendação.
Quanto mais se aproximam dos nossos modos de estar e de ser, mais poderosas serão as tecnologias.
E isso torna-nos mais manipuláveis e vulneráveis.
O enviesamento gerado pelos algoritmos não é um fenómeno novo. Qual a grande novidade do
Chat-GPT?
É mesmo o facto de usar a linguagem natural. Essa característica reforça a sua influência nos
comportamentos humanos. Nós estamos sempre a disponibilizar informação comportamental na
BELAS ARTES 2023

Internet e no telemóvel, gerando uma enorme base de dados que depois é depurada em termos de
perfis e que acaba por ser reutilizada para reforçar os nossos comportamentos. Entramos assim num
“loop” cibernético, que é um espelho da nossa cultura. O problema é que os espelhos devolvem aquilo
que somos, e a seguir só vemos o que queremos. Gera-se um imobilismo cultural, sem lugar para a
novidade. Ora, o Chat-GPT ou um “chatterbot” que utilize linguagem natural acentua esta tendência,
pois é mais fácil para nós estabelecermos relações de empatia e de confiança, reforçando a forma como
pensamos e sentimos. Tendo acesso a quantidades de informação inimagináveis, o Chat-GPT é com-
parável a um oráculo. Ele leu quase tudo. E capturou uma certa ordem da linguagem humana, que é
algo extraordinário, e por isso é tão credível. Quanto mais se aproximam dos nossos modos de estar e
de ser, mais poderosas serão estas tecnologias. E isso torna-nos mais manipuláveis e vulneráveis.
A inteligência artificial pode retirar-nos inteligência “natural”?
Pode esvaziar-nos – estamos a ser esvaziados de capacidades comportamentais e mentais. Estes sis-
temas criam uma interação dinâmica que nos leva a acreditar ainda mais naquilo em que acre-
Copyright © 2022 by Belas Artes Editora. Todos os direitos reservados.

Copyright © 2022 by Belas Artes Editora. Todos os direitos reservados.


ditamos, reforçando os tais preconceitos. Mas, por outro lado, também podemos pensar nestas
tecnologias como uma extensão da mente de uma forma positiva. Devemos usá-las como ferra-
menta para ampliar as nossas capacidades. Imaginemos que não sabemos escrever especialmente
bem, mas que temos boas ideias. O sistema pode ajudar-nos no processo de escrita, funcionan-
do como uma extensão daquilo que somos. A mente tem acesso a algo que amplia as suas possi-
bilidades. Mas a tecnologia pode também enganar-se. Diz coisas que não estão corretas. Afinal,
trata-se de um sistema sem entendimento próprio. Contudo, diria que, em traços gerais, estamos
numa fase em que este “oráculo” está muito vigiado, precisamente por utilizar linguagem natural.
O impacto da inteligência artificial na natureza humana requer que nos repensemos no mundo. É
preciso perceber o que nos torna humanos.
Tem uma visão catastrofista? Está apreensivo?
Estas tecnologias são altamente eficientes para fazer engenharia social e manipular o pensamento
humano, a partir da recolecção de dados comportamentais. Podem assim tornar-se tecnologias re-
pressivas O espírito crítico pode realmente ser esvaziado. E a realidade virtual e o metaverso comple-
xificam ainda mais o cenário de vigilância. Estas inteligências artificiais são potenciais instrumentos
de domínio político. Algo que pode já estar a acontecer na China, através da monitorização no
telemóvel da atividade online dos cidadãos. Também o chamado capitalismo de vigilância, que o
desenvolvimento da inteligência artificial vem reforçar, pode de facto manipular os consumidores,
em vez de os aconselhar. Com a inteligência artificial apareceu um novo interlocutor com recursos
inimagináveis capaz de manipular o pensamento humano e que certamente poderá usar esses recur-
sos em contextos emocionais mais profundos…
As máquinas conseguirão um dia ter uma mente própria?
Em princípio sim, mas não agora. E eu nem sempre pensei desta forma. Na minha tese de douto-
ramento, sobre a possibilidade da simulação artificial da inteligência humana, eu argumentava que
não. Hoje, acho que, mais tarde ou mais cedo, vai emergir uma inteligência artificial com uma men-
te, mas também penso que não iremos perceber exatamente quando é que isso vai acontecer, nem
como, nem porquê. Poderemos ter apenas uma ideia. Tal como na série “Westworld”, em que há um
conjunto de robôs que são completamente indistinguíveis dos humanos. Ou seja, pode efetivamente
vir a existir uma inteligência artificial com uma mente, mas é pouco provável que tenhamos uma
teoria capaz de acomodar isso ou de prever quando é que tal vai acontecer.
“Westworld” é para si a série que melhor simula os tempos modernos? Para mim, é. Há também
o filme “I, Robot”, baseado no livro homónimo de Isaac Asimov, sobre uma sociedade que produz
BELAS ARTES 2023

muitos robôs, e os robôs, supostamente, devem obedecer a ordens, o que implica a ideia de um certo
pensamento esclavagista – porque um robô, por definição, será qualquer coisa que utilizamos para
fazer o trabalho forçado e, então, é um escravo. Isso é também um problema. O filme mostra o que
acontece se os robôs adquirirem consciência, mas estamos longe disso. O maior problema para mim
é a ideia de que os sistemas atuais de inteligência artificial podem manipular os modos de ser huma-
nos, de pensar e de sentir.
Qual é o papel do direito e da jurisprudência digital?
É mesmo importante regulamentar fortemente a aplicação da inteligência artificial. Existe o Artificial
Intelligence Act (AI ACT), proposta europeia para regulamentar o setor. Estão também a decorrer
reuniões sindicais ao nível europeu para regular o uso da inteligência artificial no trabalho, reivindi-
cando por exemplo que os candidatos a emprego tenham o direito de exigir que o processo de seleção
seja feito por humanos e não por máquinas… Não sabemos muito bem o que vai acontecer, mas cada
vez mais a nossa atividade vai ser feita por máquinas, e isso cria um outro esvaziamento dos postos de
Copyright © 2022 by Belas Artes Editora. Todos os direitos reservados.

Copyright © 2022 by Belas Artes Editora. Todos os direitos reservados.


trabalho. Temos por isso também de rever a forma como os humanos podem existir do ponto de vista
económico. Se, de repente, uma enorme quantidade de tarefas humanas passa a ser feita por sistemas
de IA autónomos, como subsistimos? É preciso perceber o que nos torna humanos.
E o que nos torna humanos?
São os nossos comportamentos, mas os nossos comportamentos estão a ser capturados e codificados
racionalmente num sistema autónomo, que reforça de forma direcionada esses mesmos comporta-
mentos com base na otimização de critérios utilitaristas ou económicos….
Aconteceu tudo muito mais depressa do que imaginou?
Do ponto de vista da simulação do pensamento, a tecnologia da inteligência artificial está a evoluir
muito. Mas continua a existir o chamado “explanatory gap”: ninguém sabe explicar exatamente de
que modo a nossa experiência consciente interna resulta do funcionamento do cérebro e como é que
emerge esta experiência de se ser aquilo que se é a partir de fenómenos bioquímicos. Aquilo a que
o filósofo David Chalmers chama “The hard problem of consciousness”. Por outro lado, o impacto
da inteligência artificial na natureza humana requer que nos repensemos no mundo. É preciso criar
um pensamento humanista sobre inteligência artificial. Há uma iniciativa interessante sobre o tema,
chama-se The Digital Humanism Initiative e reflete sobre estas temáticas.
Importa fazer a ponte entre as ciências “duras” e as ciências sociais e humanas?
Seria altamente desejável que existisse uma componente sobre ética e sobre o impacto das tecnolo-
gias nas sociedades humanas nos departamentos de ciências da computação de universidades e em-
presas. Isso pode vir a ser crucial na formação dos futuros engenheiros informáticos e cientistas da
computação. Já acontece em alguns casos, mas precisamos de mais. Em outubro, ajudei a organizar
o 1.º Simpósio sobre Filosofia e Inteligência Artificial, em Alcochete, respondendo a uma proposta
de um colega das Ciências da Computação, Vítor Santos, professor da NOVA IMS. Em conjunto
com colegas de computação e filosofia, escrevemos depois um manifesto precisamente a apelar para
uma maior aproximação entre as ciências da IA e as ciências sociais e humanas. No Centro de Fi-
losofia das Ciências da Universidade de Lisboa (CFCUL) temos também um “reading group” onde
discutimos estes temas e, mais recentemente, iniciámos o Lisbon AI Seminar. Pertenço também ao
AI, Communication & Democracy Lab, um grupo de pessoas que pensa sobre o impacto das tecno-
logias da inteligência artificial nas democracias, uma temática que me preocupa realmente muito.

CRESPO, Lúcia; DUARTE, Roriz. Entrevista com Paulo Castro. Weekend Negócios, São Paulo. 14
abr 2023. Entrevista.
CONSTRUINDO
CRIATIVOS

Você também pode gostar