Escolar Documentos
Profissional Documentos
Cultura Documentos
Fundamentos Da Inteligência Artificial, o Caso Das Redes Generativas Adversárias
Fundamentos Da Inteligência Artificial, o Caso Das Redes Generativas Adversárias
Florianópolis
2023
1
Artigo apresentado como requisito parcial para a conclusão do curso de sistema de informação, da
Universidade do Sul de Santa Catarina – UNISUL, orientado pelo professor Claudio Henrique da Silva
(credenciais do professor).
2 Autor do Artigo. E-mail: gustopb@gmail.com.
2
Agradecimentos
À minha mãe, Luzete Pereira e ao meu pai Dionisio Bazeia, pelo apoio e incentivo à
jornada acadêmica empreendida.
Agradeço ao orientador Claudio Henrique da Silva por estimular nossa criatividade e interesse
nas aulas.
3
Resumo
Este estudo parte de uma definição do que é a Inteligência Artificial, passando por
um breve histórico, situando, a seguir, seu desdobramento na Inteligência Artificial
Generativa e traçando os elementos principais da sua arquitetura: Aprendizado de
Máquina, Aprendizado Profundo e as Redes Neurais. Em seguida, fizemos o percurso
para entender A IA Generativa na sua expressão mais inovadora, ou seja, a Redes
Generativas Adversárias (GANs,Generative Adversarial Networks). Concluimos com a
abordagem dos grandes dilemas éticos suscitados pelo uso da IA, onde os avanços
também trazem sérias preocupações sobre o futuro das sociedades.
Abstract
This study starts from a definition of what Artificial Intelligence is, going through a brief
history, then situating its development in Generative Artificial Intelligence and outlining the main
elements of its architecture: Machine Learning, Deep Learning and Neural Networks. Next, we
took the journey to understand Generative AI in its most innovative expression, that is,
Generative Adversarial Networks (GANs). We conclude by addressing the major ethical
dilemmas raised by the use of AI, where advances also raise serious concerns about the future
of societies.
Keywords: Artificial Intelligence, Generative Artificial Intelligence, Generative
Adversarial Networks, Ethic
4
1 INTRODUÇÃO
Até aqui, a IA é uma inteligência que, cada vez mais, caminha para níveis de
autonomia surpreendentes, mas, ainda assim, ela sempre será subordinada às prerrogativas
criadas pelo homem e, por mais longe que ela possa caminhar, o homem é o grande
responsável pela sua criação e seu destino, para o bem ou para o mal.
Para desenvolver este estudo, adotou-se padrões metodológicos próprios da
pesquisa bibliográfica, consoante ao objetivo de produzir um material que fizesse um trânsito
sobre os desenvolvimentos da área de Inteligência Artificial, que captasse os principais
movimentos desta área, como base para discutir os desafios éticos enfrentados por este
campo de conhecimento.
De certo modo, a ideia foi a de organizar um material que, também, tivesse um
sentido didático, ou seja, de organização de uma sequência lógica que permitisse, de
algum modo, o pensamento dos anos de estudo do próprio curso de formação.
As novidades nesta área são surpreendentes e se renovam a cada dia, daí que
combinamos estudos cientificos e as fontes das quais o próprio estudo é a expressão viva:
muitas delas foram extraídas de fontes confiáveis, devidamente identificadas, da própria
rede de computadores, pois, afinal, ela é, assim como este estudo, produto do novo que
nos assombra.
2 INTELIGÊNCIA ARTIFICIAL
Neste artigo é dito que teria sido John McCarthy, um cientista da computação,
organizador de uma conferência no Dartmouth College, que definiu a IA como o objetivo
de desenvolver máquinas capazes de imitar a inteligência humana. Se Turing explorou as
possibilidades fundamentais de saber se as máquinas poderiam ser direcionadas e
instruídas para pensar, entender, aprender e aplicar uma certa forma de inteligência na
resolução de problemas, foi na década de 50 que aconteceram fatos fundamentais.
Nesta conferência, em 1956, foi apresentado o primeiro projeto de inteligência
artificial, chamado o teórico da lógica (The Logic Theorist), desenvolvido por Allen Newell,
pesquisador da ciência da computação e psicólogo cognitivo, Cliff Shaw, programador de
sistemas e Herbert Simon, economista e pesquisador nos campos de psicologia cognitiva
e informática. Este projeto, projetado para imitar as habilidades de resolução de problemas
de um ser humano, e apresentado no Projeto de pesquisa de verão de Dartmouth sobre
inteligência artificial (Dartmouth Summer Research Project on Artificial Intelligence) foi
considerado o evento fundador da inteligência artificial como campo de estudo.
O texto prossegue e diz que outro desenvolvimento importante foi a criação, em
1958, por Frank Rosenblatt, do projeto “Perceptron”, um modelo de aprendizado de máquina
por tentativa e erro, abrindo caminho para o desenvolvimento de redes neurais artificiais e
impulsionando os primeiros experimentos práticos em aprendizado de máquina.
Durante os anos de 1980 e 1990, as redes neurais recorrentes (RNNs) começaram
a ganhar destaque e passou a ser possível que as máquinas processassem sequências de
dados, permitindo até mesmo a geração de texto e música rudimentares.
Em 1997, o computador Deep Blue, da IBM, um exemplo de máquina reativa, derrotou
o campeão soviético Garry Kasparov em uma partida de xadrez, prevendo respostas e
pensando em possibilidades de melhores jogadas. Esse acontecimento foi um marco no
mundo da inteligência artificial que influenciou os estudos da IA generativa.
Neste período, este campo da IA generativa, experimentou um avanço significativo
com o advento do aprendizado de máquina, com novas técnicas, algoritmos e abordagens.
Algoritmos como árvores de decisão, redes neurais e algoritmos genéticos permitiram que
as máquinas aprendessem e se adaptassem a partir dos dados, abrindo possibilidades
para aplicações em reconhecimento de padrões, previsão e tomada de decisões.
O crescimento exponencial na quantidade de dados disponíveis e o aumento do
poder de processamento dos computadores impulsionaram o avanço do aprendizado de
8
máquina (ML, Machine Learning). O Aprendizado Profundo (Deep Learning), uma subárea
da IA baseada em redes neurais profundas, revolucionou diversas aplicações, como
reconhecimento de imagem, processamento de linguagem natural e carros autônomos.
Enfim, a partir do ano 2000, são surpreendentes os avanços da IA generativa,
envolvendo estudos de Processamento de Linguagem Natural (PLN, Natural Language
Processing), unindo a ciência da computação, linguística, matemática, lógica, filosofia,
todas com o objetivo de compreender e realizar interpretações da linguagem humana.
Estes estudos permitiram o lançamento de projetos que fazem o reconhecimento de voz
pela Google e a base para as assistentes virtuais, como Siri e Alexa.
Mais recentemente, em novembro de 2022, foi lançado o ChatGPT, a plataforma de IA
generativa mais conhecida atualmente. Com ele, essa tecnologia conseguiu sair do circuito
de programadores e pesquisadores de tecnologia e atingir o público geral, alcançando até
mesmo os mais leigos no assunto. O sucesso do ChatGPT desenvolveu o interesse dos mais
variados públicos e fez com que muitas ferramentas de IA generativas fossem criadas ou
melhoradas.
“é capaz gerar novas informações de maneira original e até única para cada
interação. Além disso, a sua construção técnica permite ir além do aprendizado
convencional, o que possibilita uma evolução constante, por conta própria, sem
necessidade de programação humana.” (Lisboa, 2023)
9
É lembrado, neste mesmo texto, que IA generativa é baseada em redes neurais frutos
de décadas de pesquisa:
“hoje em dia, existem diversos modelos disponíveis, cada qual com sua forma de
processamento. Uma inteligência artificial para conversas, como o GPT-3, foi
treinada com uma quantidade gigantesca de textos extraídos da internet,
aproximadamente meio trilhão de palavras”.(Lisboa,2023)
Esse sistema de treinamento é válido para qualquer formato, seja texto, imagens,
vídeos ou áudios. A diferença aqui é apenas na parte técnica, ou seja, como o robô vai
interpretar o comando: se o modelo é uma IA de criação de arte, por exemplo, ele precisará
converter texto em imagem para apresentar o resultado. Após milhões de interações como
essa, na base do verdadeiro ou falso, a máquina fica tão afinada que passa a acertar na
maioria das consultas. Os erros e incoerências do modelo vão sendo corrigidos com o
passar do tempo, até chegar cada vez mais próximo da perfeição.
Mas, neste mesmo texto, é salientado que “as IAs generativas dificilmente são (ou
serão) criadas por pequenas empresas. O custo é elevado para se criar algo do zero,
porque exige-se profissionais altamente especializados, infraestrutura tecnológica e um
longo tempo de desenvolvimento.”
Sobre isto, no mesmo texto, o gerente de relacionamento com desenvolvedores da
NVIDIA para a América Latina, Jomar Silva diz que a “boa notícia é que, uma vez que
essas redes estão treinadas, elas podem passar por alguns processos de transferência de
aprendizado, que a gente chama de ajuste fino. Esses ajustes, em geral, são muito mais
baratos e rápidos para se fazer do que treinar a rede do zero. E isso hoje é acessível a
qualquer empresa”.
Mas a IA não é uma construção em si. Ela é constituída de inúmeras camadas, pro-
cessos, sistemas. A IA Generativa é apenas o desdobramento atual da IA, cujos resultados
decorrem, também, do aprofundamento de procedimentos já insinuados desde as primeiras
invenções nesta área.
Vamos falar, então, dos requisitos que estão na base da IA Generativa, tal como eles
se configuram em suas estruturas mais atualizadas.
usando a teoria dos grafos para organizar algoritmos ponderados em camadas de vértices
e arestas. Os algoritmos da aprendizagem profunda são ótimos em processar dados não
estruturados, como imagens ou linguagem.
Tecnicamente, para ser classificada como profunda, a rede neural precisa conter
camadas ocultas entre as camadas de entrada e saída da perceptron, que é a estrutura base
de uma rede neural. Essas camadas são consideradas ocultas porque não têm conexão
com o mundo exterior.
O aprendizado profundo, então, é desenvolvido por camadas de redes neurais,
sob a forma de algoritmos modelados livremente, do mesmo modo como os cérebros
humanos funcionam. O treinamento com grandes quantidades de dados é o que configura os
neurônios na rede neural. O resultado é um modelo de aprendizado profundo que, uma vez
treinado, processa novos dados. Os modelos de aprendizado profundo absorvem informações
de várias fontes de dados e analisam esses dados em tempo real, sem a necessidade de
intervenção humana.
O aprendizado profundo é o que impulsiona muitas tecnologias de IA, que podem
melhorar a automação e as tarefas analíticas. Entre inúmeras outras aplicações, o
aprendizado profundo gera legendas para vídeos do youtube, executa o reconhecimento
de fala em telefones e alto-falantes inteligentes, fornece reconhecimento facial para
fotografias e habilita os carros que operam com autonomia.
No artigo “O que é o Deep Learning?” é dito que um dos principais benefícios
do aprendizado profundo é que suas redes neurais são usadas para revelar insights e
relacionamentos ocultos de dados que anteriormente não eram visíveis. Com modelos de
aprendizado de máquina mais robustos, que podem analisar dados grandes e complexos,
as empresas podem melhorar a detecção de fraudes, o gerenciamento da cadeia de
suprimentos e a segurança cibernética. (IBM, 2023)
O aprendizado profundo elimina parte do pré-processamento de dados que
normalmente está envolvido com o aprendizado de máquina. Esses algoritmos podem
ingerir e processar dados não estruturados, como texto e imagens, e automatizam a
extração de recursos, removendo parte da dependência de especialistas humanos. Por
exemplo, digamos que temos um conjunto de fotos de diferentes animais de estimação e
queremos categorizar por “gato”, “cachorro”, “hamster” etc.
Os algoritmos podem determinar quais recursos (por exemplo, orelhas) são mais
importantes para distinguir um animal do outro. No aprendizado de máquina, essa hierarquia
de recursos é estabelecida manualmente por um especialista humano, no aprendizado
profundo o algoritmo se ajusta e se adapta à precisão, permitindo fazer previsões sobre
uma nova foto de um animal mais próxima do modelo desejado.
Todos estes acontecimentos são deflagrados através de um método muito particular:
a Rede Neural, uma técnica computacional que funciona através de um modelo matemático
inspirado na estrutura neural de organismos inteligentes e que adquirem conhecimento
12
Aqui se está falando das Redes Generativas Adversárias e elas envolvem as pos-
sibilidades mais transformadoras e desafiadoras na área e, com elas, se intensificam as
preocupações que permeiam todo o tempo o uso da IA. Entendê-las, portanto, é necessário.
As GANs são, como vimos acima, uma das expressões mais inovadoras e criativas da
IA Generativa. Como a IA Generativa trata de uma divisão da Inteligência Artificial com foco
no desenvolvimento de sistemas que podem criar conteúdos novos e originais, a partir de
grande volume de dados, capazes de treinar a IA generativa para realizar diversas tarefas,
desde as mais simples até as mais complexas, as GANs irão aprimorar este processo. Se o
treinamento faz com que a IA aprenda o padrão dos dados fornecidos e, a partir dele, possa
gerar respostas originais seguindo esse mesmo padrão, as GANs serão a sua forma mais
inovadora até aqui.
Em texto muito didático e preciso no site Neural Mind, é mostrado que, embora a
IA generativa tenha ficado famosa nos últimos anos, os estudos que deram origem a ela
remontam do século passado, mas toda a revolução nesta área começou em 2011, quando o
supercomputador Watson foi lançado pela IBM. Ele passou a ser utilizado em sistemas de
reconhecimento facial e até mesmo na medicina, para auxiliar na descoberta de relações
entre genes, proteínas e medicamentos – para isso, o software analisava rapidamente uma
gigantesca quantidade de dados, incluindo artigos científicos e livros.
Isso faz com que a GAN tenha a capacidade de criar conteúdo inédito, já que a
saída da rede foi produzida pela parte generativa e julgada aceitável pela parte adversarial.
Durante o treinamento, o gerador melhora na criação de dados mais realistas enquanto o
discriminador se aprimora na distinção entre dados reais e gerados. Essa competição entre
os dois modelos leva a melhorias constantes em ambos, resultando em um gerador capaz
de criar dados que se assemelham cada vez mais aos dados reais.
Este modelo de IA generativa, tecnicamente, se constitui de duas redes: um gerador e
um discriminador. O gerador cria amostras de dados, enquanto o discriminador avalia a
autenticidade dessas amostras, originando um ciclo que se repete até que o discriminador
não consiga mais diferenciar os dados reais que foram inseridos na rede dos dados gerados
pelo gerador. Assim, com a repetição do ciclo, o gerador poderá criar dados indistinguíveis
dos dados reais.
É dito que este processo de aprendizado diferencia a IA generativa das IAs con-
vencionais, já que essa pode aprender também com as próprias informações geradas por
ela e não apenas com aquelas inseridas pelo ser humano. Dessa forma, combina-se a
habilidade de agrupamento de dados de uma máquina não supervisionada com uma GAN
para minimizar a necessidade de um humano rotular dados, o que traz diversos benefícios
para empresas e indivíduos que fazem uso dessa tecnologia.
Podemos definir as GANs como uma inteligência artificial que trabalha para geração
dados que, após analisar esse conteúdo pode facilmente enganar, deixando muito incerto
se a imagem é real ou falsa. Constituída por duas redes neurais, o gerador (chamado de
artista) aprende a criar imagens que parecem reais e o discriminador são colocadas uma
17
contra a outra (por isso “Adversarias”), como pode ser observado na figura 3, onde GANs
conseguiu reproduzir um pintura.
Fonte: DOCTOROW,2019
No site Deep Learning Book, há uma passagem onde se anota que o “potencial das
GANs é enorme porque elas podem aprender a imitar qualquer distribuição de dados. Ou seja,
as GANs podem ser ensinadas a criar mundos estranhamente semelhantes aos nossos em
qualquer domínio: imagens, música, fala, prosa. Elas são artistas robóticos, em certo sentido, e
sua produção é impressionante. (Deep Learning Book,2020)
Importante chamar a atenção para uma confusão comum que classifica o ChatGPT como
uma derivação da GAN. A arquitetura GPT (Generative Pre-trained Transformer) criada pela
OpenAI) deriva de uma rede neural projetada para tarefas de processamento de linguagem
natural, com tarefas relacionadas a processamento e geração de texto, tradução automática,
resposta a perguntas. Enquanto as GANs são usadas para gerar dados, como imagens ou outros
tipos de conteúdo.
Mas, o fato relevante e, sobretudo, preocupante, sobre o uso da GAN acontece no
18
universo das “deep fakes”. No artigo “Deep Fakes using Generative Adversarial Networks
(GAN)”, os autores Tianxiang Shen, Ruixian Liu, Ju Bai, Zheng Li, salientam que este é um
recurso mais poderoso do que a tradução tradicional de imagem para imagem, pois pode
gerar imagens sem fornecer dados de treinamento emparelhados, proporcionando uma
maneira disponível para implementar “deep fakes”
O objetivo seria capturar características comuns de uma coleção de imagens
existentes e descobrir uma maneira de construir outras imagens com características similares e
permanentes em termos de formas e estilos.” (Shen, Liu, Bai, Li, 2018)
Na verdade, a deep fake é uma combinação do aprendizado profundo com a GAN que,
por exemplo, aplica uma fala ou imagem de um vídeo existente e real sobre outras imagens
ou sons criando uma outra realidade, podendo gerar notícias falsas, embustes maldosos,
distorções de acontecimentos políticos.
Se é verdade que as conquistas e possibilidades na área da IA, sobretudo daquelas
abertas pelos desenvolvimentos impressionantes no âmbito da IA Generativa, cuja expressão
mais atual é a chamada Rede Generativa Adversária, fica ainda mais necessário o debate
sobre os desafios éticos que a aplicação destes instrumentos suscita sobre a vida cotidiana
Este novo século foi marcado por avanços científicos e tecnológicos significativos
e sólidas alianças industriais e econômicas globais. Inúmeras melhorias têm produzido
avanços significativos em diversas áreas. No entanto, essas descobertas levantam questões
éticas e preocupações. O progresso nas ciências da vida está dando aos humanos um novo
poder para melhorar nossa saúde e controlar os processos de desenvolvimento de todas as
espécies vivas. Preocupações sobre as implicações sociais, culturais, jurídicas e éticas de
tal progresso levaram a um dos debates mais significativos do século passado, cunhando
uma nova palavra para abranger essas preocupações: bioética.
Na abordagem destes desafios éticos são indicados riscos que o uso indevido da
tecnologia pode promover sobre o cotidiano das pessoas e da própria vida social.
Os algoritmos de inteligência artificial podem reproduzir preconceitos e
discriminações existentes na sociedade, principalmente quando são treinados com bases
19
de dados que contêm esses vieses, decorrentes do mau uso dos algoritmos, podendo
gerar decisões injustas e desiguais, o que é preocupante sobretudo em áreas como a
justiça e o recrutamento.
É preciso desenvolver técnicas para evitar ou minimizar o viés algorítmico, os quais
podem ser usados para disseminar desinformação em larga escala, manipulando opiniões
públicas, eleições e propagando fake news, as chamadas deepfakes criando conteúdos
falsificados, como vídeos e áudios, nos quais rostos e vozes de pessoas reais são
manipulados para criar vídeos falsos extremamente convincentes, ataques cibernéticos
sofisticados podem comprometer a segurança de sistemas, roubar informações sensíveis,
monitoramento de pessoas sem seu consentimento, invadindo a privacidade, o
desenvolvimento de armas autônomas, capazes de tomar decisões de ataque sem
intervenção humana direta, o que poderia resultar em consequências catastróficas.
Não obstante as grandes conquistas decorrentes do uso da Inteligência Artificial e
todos os seus desenvolvimento contemporâneos, elas trazem uma série de preocupações,
dadas as consequências que as IAs generativas podem causar na revolução no segmento
de produção de conteúdo e, também, porque muitas dessas consequências poderão ser
maléficas para diversos setores da sociedade: além da possibilidade de mau uso das
tecnologias, e de questões éticas, é certo o potencial de agravar a desigualdade econômico-
social, tanto entre nações como entre indivíduos da mesma nação, o que é comum para
economias baseadas em alta tecnologia.
As recomendações surgem para mitigar eventuais efeitos deletérios decorrentes
do uso da IA. No excelente artigo de Wagner Brenner e que nos inspirou para tratar deste
assunto, são ponderadas diversas considerações sobre o tema, além de relacionar as
recomendações, como as abaixo expostas. (Brenner,2023)
Ele diz que, quando os sistemas de inteligência artificial são autônomos, ou seja,
tomam decisões sem intervenção humana, surge a questão da responsabilidade por essas
decisões. Quem é responsável por um acidente causado por um carro autônomo, por
exemplo? É preciso estabelecer critérios claros para a atribuição de responsabilidade em
casos envolvendo sistemas autônomos.
A transparência e a explicabilidade dos sistemas são fundamentais para garantir a
confiança e a aceitação da tecnologia. É preciso desenvolver formas de tornar os sistemas
mais compreensíveis e explicáveis. E, nesse caso, a empresa enfrenta um dilema ético
de IA: como equilibrar a necessidade de transparência e explicabilidade com a proteção
da privacidade e segurança dos dados, garantindo a justiça e equalidade na tomada de
decisões?
A inteligência artificial também pode gerar exclusão social se não for utilizada de
forma justa e equitativa. Alguns grupos podem ser discriminados ou deixados de lado pela
tecnologia, o que pode agravar desigualdades existentes na sociedade. Se esses algoritmos
forem treinados com dados históricos de contratação, que já refletem a discriminação e
20
6 CONSIDERAÇÕES FINAIS
7 REFERÊNCIAS
Caio Túlio Costa. In: Beatriz Hermínio, Como Trabalhar a Ética na Inteligência
Artificial. Instituto de Estudos Avançados da USP, 23/09/2022, <https://abrir.link/2Bl0m>
acessado em 12 de nov 2023
Deep Learning Book. Cap 54. Introdução às Redes Adversárias Generativas. (GANs-
Generative Adversarial Networks) <https://www.deeplearningbook.com.br/introducao-as-re
des-adversarias-generativas-gans-generative-adversarial-networks/> acessado em 06 de
nov 2023
Didática Tech, Inteligência Artificial & Data Science. O que são GANs-Redes Ad-
versárias Generativas (GANs). <https://abrir.link/CQLSh> acessado em 17 de nov de
2023
Tianxiang Shen, Ruixian Liu, Ju Bai, Zheng Li- Noiselab. ‘Deep Fakes’ using
Marc-Antoine Dilhac em entrevista a Régis Meyran. Os Riscos Éticos da IA, Correio da
UNESCO, Mar/2018 https://unesdoc.unesco.org/ark:/48223/pf0000265258. acessado em
6 de set 2023