Você está na página 1de 15

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/369014747

GPT-3: um oráculo digital? (aceito para publicação)

Preprint · March 2023

CITATIONS READS

0 48

2 authors, including:

João Antonio de Moraes


Faculdade João Paulo II - FAJOPA
61 PUBLICATIONS   78 CITATIONS   

SEE PROFILE

All content following this page was uploaded by João Antonio de Moraes on 05 March 2023.

The user has requested enhancement of the downloaded file.


Aceito para publicação na HUMANITAS (2675-5262), abril, 2023.

GPT-3: UM ORÁCULO DIGITAL?

João Antonio de Moraes


Doutor em Filosofia pela UNICAMP. Autor dos livros “Implicações éticas da virada informacional
na Filosofia” (EDUFU, 2014) e “O paradigma da complexidade e a Ética Informacional” (CLE-
UNICAMP, 2019). Coordenador e docente do Departamento de Filosofia da FAJOPA. E-mail:
moraesunesp@yahoo.com.br

Adriano Matilha
Graduado em Comunicação Social pela UNIMAR e em Filosofia pela FAJOPA. Possui experiência
em tecnologias educacionais aplicadas à educação no ensino básico e superior.

Apresentação

Nos últimos meses, a tecnologia de inteligência artificial GPT-3 (Transformador


Generativo Pré-treinado de 3ª geração), em especial por seu uso no desenvolvimento do
chatbot ChatGPT, tornou-se um tema recorrente em artigos de revistas, jornais e
periódicos acadêmicos. Os olhares de especialistas, entusiastas e usuários comuns
voltaram-se para a análise acerca dos possíveis impactos, e talvez uma revolução, que
este modelo de inteligência artificial (IA) estaria prestes a promover. Da combinação de
investimento bilionário com um nível refinado no fornecimento de respostas às perguntas
feitas por humanos e de um nível de automação que abre novos caminhos para a IA1
emerge a questão: estaríamos diante de um oráculo digital?
O termo oráculo deriva do latim oraculum, que significa “uma coisa falada”, mas
que também pode ser entendido em diversas formas a partir da cultura a qual está
relacionado2. Nos é mais próximo o conhecimento do Oráculo de Delfos, ao qual Sócrates
recorreu e obteve a mensagem que seria o humano mais sábio entre todos os humanos3.
Tal qual é comumente apresentada em sua raiz grega: “Oráculos são uma forma de
adivinhação. Um oráculo é uma resposta a uma pergunta (embora muitas dessas respostas
tenham sido escritas e distribuídas em coleções que podem ser consultadas quando
necessário)”4. As respostas do oráculo eram utilizadas para conduzir as ações de quem o
consultava. Destaca-se, assim, como fonte de inesgotável de respostas, de origem
misteriosa e com autoridade sobre a informação fornecida.

1
(BELLI; HORA, 2023).
2
(STONEMAN, 2011).
3
(PLATÃO, 2013).
4
(STONEMAN, 2011, p. 15).

1
Aceito para publicação na HUMANITAS (2675-5262), abril, 2023.

Tecnologias como o ChatGPT, que se utilizam de modelos de IA de


Processamento de Linguagem Natural (PLN), possuem habilidade significativamente
avançada de manipulação de símbolos, com capacidade de aprendizado e fornecimento
de repostas baseadas em deep learning (DL) – modelo de aprendizagem em diversas
camadas que torna o sistema capaz de fornecer respostas complexas a partir das
combinações que ocorrem em tais camadas. A forma como modelos DL funcionam gera
o denominado “problema da caixa preta”: a impossibilidade de explicar de maneira clara
e objetiva como um modelo de inteligência artificial chegou ao resultado apresentado5. A
realização de tarefas complexas sem a noção de como o modelo tomou as decisões
poderia concedê-lo um ar misterioso; um mistério que atribuído ao ChatGPT, o
aproximaria de um oráculo, neste caso, digital.
Nosso objetivo aqui é desenvolver reflexão a partir da qual a mística em torno das
potencialidades do GPT-3 seja desfeita e suas aplicações, positivas e negativas, sejam
analisadas. Argumentaremos que, apesar do visível avanço nas potencialidades deste tipo
de modelo de IA, não se estabelece um oráculo digital. A naturalidade que o GPT-3 traz
para a interação humano-computador merece realmente atenção, visto a facilidade que o
ChatGPT promoveu para a manipulação deste tipo de tecnologia por usuários comuns.
Desta forma, desenvolveremos nossa reflexão a partir da explicação do fenômeno
da digitalização da sociedade, que tem promovido uma inserção de tecnologias digitais
(on-line), inclusive da IA, na vida cotidiana dos indivíduos. Em seguida, traçaremos
histórico do desenvolvimento da IA para fundamentar a análise das potencialidades do
tipo de modelo que constitui a GPT-3. Abordaremos, então, o que é e o que não é o
ChatGPT, no intuito de esclarecer algumas suposições que se tem acerca deste modelo
de IA, para, daí sim, analisar seus impactos na vida cotidiana, em especial áreas como a
Educação e Jornalismo. Por fim, ressaltaremos a importância da presença do exercício do
pensamento filosófico pelos indivíduos para compreensão dos impactos reais das novas
tecnologias na sociedade contemporânea.

Digitalização da vida humana

A discussão acalorada que tem se constituído em torno do GPT-3 se deve, como


indicamos, principalmente pelo modelo de linguagem de IA desenvolvido pela empresa

5
(BIG DATA CORP, 2021).

2
Aceito para publicação na HUMANITAS (2675-5262), abril, 2023.

OpenAI, o ChatGPT, lançado em novembro de 2022. Além de suas potencialidades, que


analisaremos mais adiante, destacamos sua rápida recepção alcançando a marca de um
milhão de usuários em cinco dias. Entendemos que isso ocorre como consequência de um
processo de digitalização da vida humana que está em andamento desde a popularização
das tecnologias digitais. Processo este que promoveu relação de dependência profunda
entre indivíduos e tecnologias digitais6: é possível viver em sociedade totalmente alheio
ao seu uso? Quando situamos tal questão no âmbito urbano chegamos à conclusão de que,
em alguma medida será necessário um tipo de tecnologia digital para mediar a ação do
indivíduo.
A relação entre os indivíduos e as tecnologias digitais se torna mais complexa
quando observamos que não é uma questão de “em última análise”, mas praticamente
uma regra. Uso de biometria, mobilidade via app ou GPS, entretenimento via streaming
de música e vídeo, estudos em EaD, teletrabalho e videoconferências, além do intenso
uso de redes sociais são exemplos facilmente identificáveis na vida de uma pessoa
comum. Ainda, mesmo sem a intenção de utilizar tecnologias digitais no dia a dia, o
indivíduo é levado a ter esta mediação dependendo do contexto em que é inserido, como
na utilização de serviços governamentais e exercício da cidadania, por exemplo: INSS,
ConecteSUS e e-Título, atribuídos à plataforma GOV.br.
O processo de digitalização da vida humana tem se intensificado à medida que
mais pessoas estão conectadas à internet. Considerando os últimos 10 anos, houve
crescimento de 103% no número de usuários da internet7. Do total de usuários da internet
existentes, 92.3%8 realiza o acesso à internet por meio de seus celulares. Por estar na
“palma da mão”, o usuário experiencia o ambiente digital e se expressa de forma
“imediata”, “espontânea” e “em tempo real”, se tornando uma relação extremamente
cotidiana com o passar do tempo.
As subjetividades dos indivíduos construídas no contexto de digitalização da vida
humana têm como fonte, para a construção das visões de mundo e das crenças individuais
as informações obtidas a partir das tecnologias digitais. De modo geral, frequentemente
os indivíduos se “alimentam” de informações fornecidas por redes sociais e aplicativos
de comunicação instantânea, como Facebook e WhatsApp, depositando grande grau de
confiabilidade a elas. Fenômenos como filtros bolha, câmaras de eco, arrogância

6
(MORAES, 2019).
7
Cf. Digital 2023 Global Overview Report.
8
Idem.

3
Aceito para publicação na HUMANITAS (2675-5262), abril, 2023.

epistêmica e a terceirização de tomadas de decisão ilustram alguns efeitos nocivos desta


naturalização produzidas por um uso acrítico das tecnologias digitais9. É neste contexto
que entendemos que indivíduos que não desenvolveram criticidade em relação às
tecnologias digitais podem ser equivocamente levados a considerar modelos de IA, como
o GPT-3, um oráculo dada a capacidade de simulação da linguagem natural que apresenta.
A digitalização da vida humana e a naturalidade proporcionada pela constante
interação entre indivíduos e tecnologias digitais são intensificadas a partir da facilitação
dessa interação. O ChatGPT é um exemplo de resultado da busca pela superação das
dificuldades na interação humano-computador (IHC). Aprofundaremos esse ponto a
seguir, retomando aspectos da IA e sua aplicação para aprimorar a IHC.

Inteligência Artificial e a interação humano-computador

O desenvolvimento das tecnologias digitais envolve, principalmente, duas


grandes áreas: engenharia de software e IHC; a primeira relacionada à construção do
sistema computacional e a segunda, ao seu uso. Quanto mais é dedicado a um sistema
ferramentas de IHC, mais o sistema será aceito por diversos segmentos de usuários,
aumentando a sua popularização.
Modelos computacionais de IA de linguagem natural como o GPT-3, apresentado
por meio de sistemas de fácil uso como o ChatGPT, aumentam o grau de interatividade
do usuário, pois este não necessitará conhecer uma linguagem de programação para se
relacionar com o sistema; essa interação se dará por meio de uma conversa. Assim, o
sistema computacional se torna “parceiro de discurso”, apresentando um alto grau de
refinamento nas respostas fornecidas às perguntas feitas por humanos. Nesta perspectiva,
o sistema “deve participar da interação assumindo papel à altura de um ser humano, sendo
capaz de raciocinar, fazer inferências, tomar decisões, adquirir informação; enfim, o
sistema deve ser capaz de se comportar de forma semelhante aos seus usuários”10.
A riqueza da interação que os humanos podem vir a estabelecer em suas interações
com modelos construídos com GPT-3 chama a atenção, novamente, para a importância
da criticidade nesse uso. Além disso, o grau de familiaridade que pode ser estabelecido
nesta relação pode promover a criação de afetos com este tipo de sistema de IA. Com o

9
(MORAES; TESTA, 2020).
10
(BARBOSA; SILVA, 2010, p. 23).

4
Aceito para publicação na HUMANITAS (2675-5262), abril, 2023.

intuito de fornecer elementos para um olhar crítico sobre esta tecnologia, faz-se
necessário compreender melhor aspectos técnicos da IA que subjaz os modelos de PLN.
A IA está situada no âmbito da Ciência Cognitiva, área de investigação
interdisciplinar envolvendo Filosofia, Computação, Neurociência, Linguística, entre
outras. Seu objeto de estudo é a mente humana. Ela surge nos anos 1950 influenciada
pelos estudos de Turing sobre máquinas computacionais e inteligência, a partir dos quais
postulou a tese segundo a qual “pensar é computar”11. Após a apresentação da tese de
Turing, a mente passou a ser concebida na Ciência Cognitiva como um sistema
processador de informação simbólica, capaz de armazenar, transportar e representar
informação. Nesse contexto, o pressuposto central da Ciência Cognitiva de que “conhecer
é fazer” ganha força, iniciando o desenvolvimento de modelos computacionais para
explicar a natureza dos processos e estados mentais. Mas até que ponto é possível simular
a mente humana em um modelo computacional? A busca por responder tal questão deu
origem a vertentes na Ciência Cognitiva, das quais destacamos: a IA simbólica e as Redes
Neurais Artificiais (RNA).
A IA simbólica se desenvolveu a fim de identificar as estruturas simbólicas
responsáveis pelo desempenho das atividades da mente humana, direcionando a
construção de modelos capazes de reconhecer de padrões formais. Neste contexto, a os
modelos computacionais assumiram o papel de terias explicativas. Contudo, apesar do
entusiasmo dos estudos da Ciência Cognitiva na década de 1960, críticas de que os
modelos não seriam capazes de manipular qualquer conteúdo. Como consequência não
há “entendimento” e “conhecimento” por tais modelos, apenas processamento de
símbolos sem conteúdo.
Com a evolução da IA, surgiram diversas tecnologias computacionais para tentar
superar as limitações apontadas pelos críticos, tais quais as RNA, que possuem a
capacidade de “aprender” a reconhecer padrões por meio de treinamento. Estas redes
lidariam com o conteúdo dos sinais contido nos padrões informacionais emergentes da
ativação de certos “neurônios” da rede ativada pelo sinal recebido no input12. As RNA
são compostas por camadas de entrada (input), de saída (output) e as “intermediarias”
(responsáveis pela mediação entre o input e o output). As camadas intermediárias
possuem um papel importante no processamento de informação das RNA, pois nelas

11
(TURING, 1950).
12
(RUMELHART; MACLELLAND, 1989).

5
Aceito para publicação na HUMANITAS (2675-5262), abril, 2023.

seriam assimilados os conteúdos informacionais13. Tais redes possuem processamento de


informação em paralelo, apresentando diversos nódulos, nos quais um conteúdo
informacional se instancia. Quando a rede recebe um sinal em seu input, alguns nódulos
são ativados, fazendo emergir, na maioria das vezes, por processos auto-organizados, o
conteúdo do sinal recebido nas camadas intermediárias, o qual é direcionado à camada de
saída, emitindo a resposta da rede. Em outras palavras, nas RNA, o conteúdo
informacional não está simplesmente armazenado em estruturas sintáticas lineares, mas
sim, em partes que são reordenadas de forma não-linear a partir do sinal recebido na
camada de input.
O GPT-3 é um modelo sofisticado DL que possui a capacidade de automatizar o
treinamento de sua RNA de modo aumentar significativamente a coerência entre a
resposta fornecida e a pergunta que foi apresentada. Quanto maior o volume de dados e
processos de treinamento, maior será sua eficácia; em caso de atualização automática do
banco de dados, a técnica de DL atua na automatização do treinamento da RNA,
mantendo o modelo em constante aprimoramento com mínima intervenção humana.
Situada a revolução informacional na dinâmica da sociedade e as características
subjazem o desenvolvimento da IA e da RNA que constituem o GPT-3, podemos, então,
analisar o ChatGPT de modo a desmitificar expectativas criadas usualmente quando os
indivíduos se depararam com ferramentas de grande impacto social.

ChatGPT: o que é, o que não é e seu impacto social

O acesso e uso do ChatGPT é simples, exigindo apenas um cadastro de usuário,


no primeiro caso, e fornecendo tutoriais de uso para cada um dos serviços que o sistema
é capaz de realizar, quais sejam: geração e edição de texto; pesquisa, classificação e
comparação textual; geração, edição e explicação de códigos de programação; geração e
edição de imagens; e treinamento de modelo para caso de uso personalizado do usuário.
Curiosamente, quando escolhida a opção de geração e edição de texto, é apresentada, ao
usuário, a mensagem: “Embora tenhamos salvaguardas em vigor, o sistema pode
ocasionalmente gerar informações incorretas ou enganosas e produzir conteúdo ofensivo
ou tendencioso. Não se destina a dar conselhos”.

13
(CHURCHLAND, 1992).

6
Aceito para publicação na HUMANITAS (2675-5262), abril, 2023.

Considerando suas potencialidades, para esclarecer o que é o ChatGPT


entendemos ser interessante perguntar ao próprio sistema como ele se define. Após
solicitar que o sistema responda, em língua portuguesa, e repetir por algumas vezes a
questão “como você se define”, a resposta obtida foi: “[i] Eu sou um modelo de linguagem
avançado, treinado em uma ampla variedade de tópicos para conversar com pessoas e
fornecer respostas úteis e precisas. [ii] Eu sou capaz de entender e processar a linguagem
natural escrita e falada e, com base em meus conhecimentos e experiências prévias, gerar
respostas relevantes e significativas. [iii] Embora eu não tenha sentimentos ou emoções
como um ser humano, minha programação permite que eu me comunique de forma
natural e fornecer informações e suporte úteis”. Dividimos a resposta em três partes para
aprofundar nossa análise.
No que diz respeito a [i], o ChatGPT é construído a partir da relação entre GPT-
3, DL, PLN e IA Generativa. O GPT-3 é a terceira versão do modelo GPT e, atualmente,
o modelo mais avançado de PLN14. O treinamento do modelo permite a escolha da palavra
mais adequada para dar sequência a uma frase, o tornando capaz de elaborar textos
completos.
As partes [i] e [ii] explicitam a necessidade de banco de dados bastante vasto para
que a RNA seja treinada em diferentes contextos semânticos, conseguindo, assim, maior
acurácia nas respostas fornecidas. Aqui há um detalhe interessante: o GPT-1 foi treinado
em 110 milhões de parâmetros de aprendizado; o GPT-2 em 1,5 bilhão de parâmetros; e
o GPT-3 usou 175 bilhões de parâmetros. Observa-se um aumento expressivo na
quantidade de dados disponíveis para o treinamento do modelo. O GPT-4 está em
desenvolvimento e se prevê a utilização de 100 trilhões de parâmetros15.
A parte [iii] da resposta do ChatGPT ilustra uma característica da IA que é não
possuir sentimentos e emoções, que talvez um usuário ingênuo poderia lhe atribuir.
Ingenuidade, porém, compreensível em função do grau de sofisticação das respostas
fornecidas, podendo despertar afetos no usuário que utilize esta tecnologia de forma
exagerada. Em especial se considerarmos a digitalização da vida humana e as formas
como as tecnologias impactam nas subjetividades dos indivíduos.
As três partes da resposta conduzem para a importância de se esclarecer sobre o
que constitui a base de dados de 175 bilhões de parâmetros utilizados para treinamento
do GPT-3. Tais dados são formados por ampla variedade de conteúdos disponíveis na

14
(KAUFMAN, 2022).
15
https://www.datacamp.com/blog/what-we-know-gpt4.

7
Aceito para publicação na HUMANITAS (2675-5262), abril, 2023.

internet até 202116, o que inclui desde fontes consideradas “confiáveis”, como artigos e
livros, até aquelas que não possuem credibilidade confirmada, como textos de sites,
postagens de redes sociais e de fóruns de discussão, etc.. Os dados refletem aspectos
culturais de diferentes lugares do mundo, sejam os positivos ou negativos, como
preconceitos presentes na sociedade. São também as três partes da resposta que permitem
atribuir analogias ao ChatGPT como: uma grande enciclopédia, uma “mente coletiva”,
um polvo com tentáculos que se estendem por todo o mundo digital, ou até mesmo um
oráculo digital.
Alguém poderia defender a ideia de que o ChatGPT é um oráculo digital a partir
das seguintes características: a) ambos são capazes de fornecer respostas para perguntas,
embora com diferentes níveis de precisão e fontes de conhecimento; b) em algumas
culturas, os oráculos são considerados misteriosos; da mesma forma, o ChatGPT pode
ser percebido como tecnologia sofisticada e misteriosa; e c) tanto o ChatGPT quanto um
oráculo são capazes de expandir o conhecimento e fornecer insights úteis e novas
informações para os usuários. No entanto, em (a) o ChatGPT não entende o que diz,
apenas combina estatisticamente um conjunto de palavras; sobre (b) entendemos que
qualquer processo de mistério e falta de transparência acerca das bases de conhecimento
do ChatGPT deve ser problematizado; já em (c) entendemos que não há um processo
criativo desempenhado pelo sistema, não extrapolando seu banco de dados17.
Apesar de estudiosos18 indicarem limitações técnicas do ChatGPT, sua utilização
já tem gerado impactos na sociedade. Os âmbitos da Educação e do Jornalismo têm sido
os setores de grande discussão quando se trata dos alcances da GPT-3, inclusive pelo
alerta de tais profissões ficarem, em algum grau, obsoletas no futuro19.
No contexto da Educação, graças à qualidade da elaboração de textos complexos
e à grande base de dados na qual o GPT-3 foi treinado, o que tem chamado a atenção é o
potencial de uso do ChatGPT para situações de trapaça. A facilidade na manipulação do
ChatGPT pode promover seu uso para realização de trabalhos escolares por estudantes,
com a cópia do conteúdo que é elaborado pelo sistema (o qual é resultado da reformulação
de textos disponíveis na internet sem atribuir suas fontes). A qualidade do que é gerado
dificulta a identificação da trapaça pelos professores. Tal é a qualidade que o ChatGPT

16
(HERNANDES, 2023).
17
(KAUFMAN, 2023).
18
(FLORIDI; CHIRIATTI, 2020).
19
(HERN, 2022).

8
Aceito para publicação na HUMANITAS (2675-5262), abril, 2023.

já foi testado e conseguiu aprovação em exames da OAB20, Medicina21 e MBA22. Outro


exemplo foi o experimento realizado pelo New York Times23 que reuniu redações escritas
por crianças com outras produzidas pelo ChatGPT e as deu para que especialistas, que
não conseguiram diferenciar suas autorias.
Alternativas têm sido pensadas por profissionais da educação para evitar que
trapaças utilizando o ChatGPT sejam bem-sucedidas: aplicação de provas escritas à mão;
trabalhos realizados em sala de aula; opção por provas orais, entre outros meios nos quais
o ChatGPT não pode ser utilizado. Porém, mais do que proibir o uso desta tecnologia,
precisamos repensar a forma como a educação pode se apropriar dela. Esse novo cenário
“nos obriga a repensar radicalmente como as competências intelectuais dos indivíduos
são avaliadas”24. Concordamos que o mero uso dessa tecnologia para realização de
trabalhos escolares pode refletir, inicialmente, no enfraquecimento do processo criativo e
de ferramentas de pensamento crítico dos estudantes, levando-os a terceirizar a “reflexão”
para o ChatGPT. Mas considerando o avanço da digitalização da vida humana, inclusive
no aspecto educacional, faz-se relevante pensar em desenvolver um know-how acerca do
uso dessas tecnologias para que os estudantes desfrutem de seus benefícios eticamente
saudáveis. O fato é que, antes destas estratégias educacionais de fundo ético serem
traçadas e efetivadas, inclusive pelos poderes públicos, será inevitável aos professores
que solicitam trabalhos autorais em seu processo de avaliação a adoção de ferramenta
(muitas ainda em desenvolvimento) capaz de distinguir textos produzidos por IA dos
elaborados por seres humanos.
Em relação ao contexto do Jornalismo, também é possível vislumbrar aspectos
positivos e nocivos com o uso do ChatGPT. Quando valorizado o papel do jornalista, a
ferramenta pode contribuir para o levantamento de informações auxiliando a elaboração
de roteiro e a combinação de dados, ou seja, no briefing para início de reflexão acerca de
um tema específico que comporá uma reportagem. Ainda, a forma como a IA dos sistemas
GPT-3 atua na reunião de informações é potencialmente mais significativa do que o mero
uso de um buscador de internet comum. Por ter sido treinada com uma gama gigantesca
de informação que está disponível na internet e ter a capacidade de associação estatística
que pontua o que é mais adequado na combinação de dados, o ChatGPT acaba sendo mais

20
(ROMANI, 2023).
21
(O GLOBO, 2023).
22
(SCHENDES; CAPOZZI, 2023).
23
(MILLER et al, 2022).
24
(BELLI; DA HORA, 2023).

9
Aceito para publicação na HUMANITAS (2675-5262), abril, 2023.

eficiente na “contextualização” da resposta ao que foi solicitado quando bem direcionada


pelo jornalista. Considerando o aumento da quantidade de trabalho do jornalista
promovido pela pandemia do COVID-19, o ChatGPT foi de grande auxílio para agilizar
a produção de matérias25.
No entanto, o ChatGPT contribui para o processo de automação na produção de
informação. Dentre elas, estão títulos “clickbait”, textos simplórios com fins de marketing
produzidos em grandes quantidades para disputar a atenção do leitor, além da criação de
textos com conteúdo errado ou enviesado. Exemplos de consequências desta automação
são: produção de matéria sobre assunto sensível com informação errada que pode levar a
deliberações equivocadas; e reprodução de textos com teor de preconceito, visto que os
parâmetros de treinamento envolvem redes sociais e fóruns de discussão online, sem um
filtro ético. Como definir um responsável pelos efeitos ruins gerados?
Ainda, à luz de um problema urgente nos dias atuais, o ChatGPT tem potencial para
constituir cenário de produção massiva de fake news que podem ser amplamente criadas
e divulgadas, ocasionando impacto profundo na formação de crenças dos indivíduos,
além de influenciar suas tomadas de decisão. A complexidade deste cenário se evidencia-
se quando extrapolamos a influência informacional da escolha de um simples sabão em
pó, para escolha de quem será o chefe de Estado de um país. Não há uma verificação da
eficácia, mas a OpenAI afirmou que as novas atualizações do GPT-3 a torna mais
confiável e foi disponibilizado um “filtro de conteúdo” aos usuários para impedir que o
uso desta tecnologia em conteúdos para campanhas eleitorais26.
Enfim, a compreensão acerca do funcionamento de sistemas que utilizam o
modelo GPT-3 é fundamental para que possamos refletir sobre suas consequências para
diversos âmbitos da vida humana sem que nosso olhar seja nublado com especulações
fantasiosas, tal qual a concepção de que o ChatGPT seria um oráculo digital.

Considerações finais

A relação entre indivíduos e tecnologias digitais tem se tornado cada dia mais
próxima. As ações da vida cotidiana dos indivíduos estão repletas de uso de ferramentas
e sistemas que envolvem IA: Siri (da Apple) e Alexa (da Amazon), como assistentes de
voz; o Google Translator como ferramenta de tradução; e algoritmos presentes em

25
(G1, 2023).
26
(KAUFMAN, 2022).

10
Aceito para publicação na HUMANITAS (2675-5262), abril, 2023.

ferramentas de streaming como Netflix, Spotify e Youtube realizam sugestões de conteúdo


a partir da aprendizagem de comportamentos do usuário. A presença da IA no processo
de digitalização da vida humana já não é novidade e, é neste ambiente familiar, que
sistemas de GPT-3 como o chatbot ChatGPT se inserem. Inclusive, houve crescimento
de 200% dos brasileiros com chatbot durante a pandemia do COVID-19, impulsionado
pelo isolamento27.
O recente impacto ChatGPT em setores importantes da sociedade e seu uso
potencial levantam pontos de reflexão: esclarecer o deslumbre que a novidade tecnológica
produz; pensar formas de letramento digital28 para seu uso eficiente; e definir parâmetros
éticos para direcionar o desenvolvimento desta tecnologia (e.g., ganho com a GPT-4) e
balizar as ações dos usuários. Entendemos que tais pontos são objetos de investigação
interdisciplinar, mas que a Filosofia representa caminho para o desenvolvimento do
pensamento crítico voltado às novidades da sociedade da informação, promovendo
inclusão e o exercício de cidadania digital: mais do que acesso à tecnologia é necessário
know-how para torná-la uma ferramenta para a manutenção da autonomia e da
democracia. Faz-se necessário atentar para que não nos tornemos dependentes deste tipo
de tecnologia, mas protagonistas na forma como a IA impacta na dinâmica social.
É improvável que a vida em sociedade deixe de ter a tecnologia digital como um
de seus elementos basilares. Assim, medidas para conscientizar os indivíduos sobre os
impactos da revolução informacional na educação, política, economia, entre outros
âmbitos da existência humana, são urgentes. Pragmaticamente está cada vez mais tênue
o limite entre on-line e off-line, de modo que uma sociedade eticamente saudável requer
um processo de formação contínuo e dinâmico para viver a cultura digital.

Referências

“A caixa preta da Inteligência Artificial e o surgimento da ‘Explainable AI’”. Big Data


Corp, 8/3/2021. Disponível em: https://bigdatacorp.com.br/a-caixa-preta-da-
inteligencia-artificial/. Acesso em: 27 fev. 2023.
“ChatGPT é aprovado em MBA e desafia instituições de ensino nos EUA”, O Globo,
26/1/23. Disponível em: https://oglobo.globo.com/economia/noticia/2023/01/chatgpt-e-
aprovado-em-mba-e-desafia-instituicoes-de-ensino-nos-eua.ghtml. Acesso em: Acesso
em: 27 fev. 202
“Digital 2023 Global Overview Report”. Meltwater e We Are Social, 26/1/23.
Disponível em: https://wearesocial.com/uk/blog/2023/01/the-changing-world-of-digital-
in-2023/. Acesso em: 27 fev. 2023.
27
(SOPRANA, 2020).
28
(GRIZZLE et al, 2016).

11
Aceito para publicação na HUMANITAS (2675-5262), abril, 2023.

BARBOSA, S.D.J.; SILVA, B.S. Interação Humano-Computador. São Paulo:


Editora Campus-Elsevier, 2010.
BELLI, L.; HORA, N. ChatGPT: o que anima e o que assusta na nova inteligência
artificial. Folha de S. Paulo, 23/1/23. Disponível em:
https://www1.folha.uol.com.br/tec/2023/01/chatgpt-o-que-anima-e-o-que-assusta-na-
nova-inteligencia-artificial.shtml. Acesso em: 27 fev. 2023.
CHURCHLAND, P.M. A neurocomputational perspective. Cambridge: MIT Press,
1992.
GRIZZLE, A. et al. Alfabetização midiática e informacional: diretrizes para a
formulação de políticas e estratégias. Brasília: UNESCO, 2016.
HENR, A. AI bot ChatGPT stuns academics with essay-writing skills and usability. The
Guardian, 4/12/22. Disponível em:
https://www.theguardian.com/technology/2022/dec/04/ai-bot-chatgpt-stuns-academics-
with-essay-writing-skills-and-usability. Acesso em: 27 fev. 2023.
HERNANDES, R. O que você precisa saber sobre ChatGPT, OpenAI e inteligência
artificial na linguagem. Folha de S. Paulo, 22/2/23. Disponível em:
https:/www1.folha.uol.com.br/tec/2023/02/o-que-voce-precisa-saber-sobre- chatgpt-
openai-e-inteligencia-artificial-na-linguagem.shtml. Acesso em: 27 fev. 2023.
KAUFMAN, D. A linguagem natural dos humanos e a linguagem matemática das
máquinas. Época Negócios, 19/8/22. Disponível em:
https://epocanegocios.globo.com/colunas/IAgora/noticia/2022/08/linguagem-natural-
dos-humanos-e-linguagem-matematica-das-maquinas.html. Acesso em: 27 fev. 2023.
KAUFMAN, D. As limitações da sensação tecnológica de 2023: o ChatGPT. Época
Negócios, 6/1/23. Disponível em:
https://epocanegocios.globo.com/colunas/iagora/coluna/2023/01/as-limitacoes-da-
sensacao-tecnologica-de-2023-o-chatgpt.ghtml. Acesso em: 27 fev. 2023.
MILLER, C.C. et al. Did a fourth-grader write this, or Chatbot? New York Times,
26/12/22. Disponível em:
https://www.nytimes.com/interactive/2022/12/26/upshot/chatgpt-child-essays.html.
Acesso em: 27 fev. 2023.
MORAES, J.A. O paradigma da complexidade e a ética informacional. Campinas:
Coleção CLE, 2019. Disponível em:
https://www.cle.unicamp.br/ebooks/index.php/publicacoes/catalog/view/7/6/23. Acesso
em: 27 fev. 2023.
MORAES, J.A.; TESTA, R.R. A sociedade contemporânea à luz da ética informacional.
Acta Scientiarum. Human and Social Sciences, 42(3), e56496, 2020. Disponível em:
https://doi.org/10.4025/actascihumansoc.v42i3.56496. Acesso em: 27 fev. 2023.
O ASSUNTO: ChatGPT: a ferramenta com linguagem humana. Natuza Nery. G1,
6/2/23. Podcast. Disponível em:
https://open.spotify.com/episode/3U6RLCvf7tjDvoOVtW2Ek1. Acesso em: 27 fev.
2023.
PLATÃO. Apologia de Sócrates. Porto Alegre: L&PM, 2013.
ROMANI, B. ChatGPT é ‘aprovado’ em prova da primeira fase da OAB. Estadão,
21/2/23. Disponível em: https://www.estadao.com.br/link/cultura-digital/chatgpt-e-
aprovado-em-prova-da-primeira-fase-da-oab/. Acesso em: 27 fev. 2023.
RUMELHART, D.E.; MACLELLAND, J.L. Parallel distributed processing:
exploration in the microestructure of cognition. London: Bradford Book, 1989.
SCHENDES, W.; CAPOZZI, B. ChatGPT é aprovado em exame nacional de medicina
dos EUA. Olhar Digital, 10/2/23.Disponível em:

12
Aceito para publicação na HUMANITAS (2675-5262), abril, 2023.

https://olhardigital.com.br/2023/02/10/pro/chatgpt-e-aprovado-em-exame-nacional-de-
medicina-dos-eua/. Acesso em: Acesso em: 27 fev. 2023.
SOPRANA, P. Interação com robôs sobe até 200% durante a pandemia de coronavírus.
Folha de S. Paulo, 8/8/20. Disponível em:
https://www1.folha.uol.com.br/mercado/2020/08/interacao-com-robos-sobe-ate-200-
durante-a-pandemia.shtml. Disponível em: 27 fev. 2023.
STONEMAN, R. The Ancient Oracles: Making the Gods Speak. Yale University
Press, 2011.
TURING, A.M. Computing machinery and intelligence. Mind, v.59, p.433-460, 1950.

13

View publication stats

Você também pode gostar