Você está na página 1de 51

Usos e riscos das IAs generativas: questões para

regulação

Rafael Cardoso Sampaio


IAs generativas
• Comumente chamados de 'modelos fundamentais', LLMs (Modelos
grandes de Linguagem) ou Modelos de IA Generativos de Grande Escala
• Eles aprendem a identificar padrões nos dados por conta própria, sem
precisar de orientação explícita sobre o que procurar.
• Uma vez que dominam esses padrões, os LGAIMs podem gerar novos
dados que se assemelham aos originais usados no treinamento.
• Estes modelos são treinados com uma imensa quantidade de
parâmetros, requerendo um grande volume de dados e recursos
computacionais significativos.
• O ChatGPT

• https://chat.openai.com/

• O GPT-3 apresenta 175 bilhões de parâmetros, um


aumento significativo em relação aos 1,5 bilhão de
parâmetros do GPT-2, resultando em um aumento
substancial na capacidade e capacidades de
aprendizado do modelo.

• O GPT 4 já apresenta cerca de 1 TRILHÃO de


parâmetros.
Dados de treinamento (GPT-3)
Wikipedia 3% Common Crawl (coletados ao longo
de um período de 8 anos) - 60%
Artigos científicos
WebText2 (páginas da web
Google Books vinculadas em postagens do
Reddit) 22%
Github (?)
Books1 e Books2 (livros disponíveis
Twitter (?) na internet) 16%
Usos Gerais mais usuais
1. Geração e correção de textos

2. Geração e correção de códigos

3. Geração e alterações de imagens

4. Geração de áudios e vídeos


5. Chatbots com todas essas capacidades,
que pode interagir com humanos.
Usos Acadêmicos

1. Busca e seleção
2. Leitura
3. Obtenção, limpeza e análise de dados
4. Programação
5. Escrita Acadêmica
6. Apresentação dos dados
7. Tradução e correção (Sampaio et al, 2023)
Exemplo de uso do code interpreter do Chat GPT
IAs generativas precisam ter uma
atenção especial na regulação
I. AIs generativas têm grande impacto
em vários setores da sociedade
• Elas afetam praticamente todos os setores da
sociedade.
• Mercado de trabalho (escrita = marketing,
Direito, Jornalismo, seleção de currículos);
• Saúde (“atendimento” e triagem por chatbots);
• Educação, Pesquisa e programação;
• Entretenimento e artes;
• Pode basicamente afetar como nos
comunicamos, como trabalhamos, como
criamos coisas e como nos entretemos.
2. GENAIs e Bias
- Como os bancos de dados de
treinamentos tendem a refletir a
sociedade (“status quo) eles tendem a
apresentar e reforçar bias presentes na
sociedade
- Assim, reforçando estereótipos e
exclusões, sendo mais danosos para
grupos minoritários e excluídos;
- Negros, mulheres, países pobres e/ou
do sul global.
3. GENAIs perpetuam o colonialismo de dados

• Exportamos gratuitamente nossos dados


para o treinamento de tais modelos e
depois importamos caro as soluções
tecnológicas das big techs;
• Países do sul global ainda são relegados
aos piores trabalhos nas IAs generativas a
salários ridículos, como etiquetamento do
conteúdo.
4. Autoria e Direitos autorais

- IAs generativas são treinadas com dados


disponíveis na internet, mas não respeitam
direitos autorais dos mesmos;

- Da mesma forma, ainda não há regras claras de


como gerar direitos autorais em trabalhos que
usam IAs generativas.
5. Usos mal intencionados e para
desinformação

Ao facilitar a criação de texto, imagem e som, as


IAs generativas facilitam significativamente a
criação de notícias fraudulentas e peças de
desinformação;

Especialmente, os deepfakes poderão ser criados


com grande facilidade, baixo custo e alta
capacidade de viralização
6. GENAIs têm alto custo ambiental
• Tanto o treinamento (constante) dos
modelos quanto seu uso diário depende de
gigantesco poder processacional (super
computadores, servidores, serviços de
nuvem etc.);

• Dentre várias outras coisas, isso significa


grande geração de carbono e gastos de
água (resfriar as máquinas).
Questões para regulação de GenAI
1. Modelos de regulação como da UE
tendem a não abordar adequamente GENAIs

• Os níveis e as classificações de riscos do modelo europeu


tende a subestimar a capacidade das GENAIs de gerar
vários problemas e que não seriam a princípios
considerados como sistemas de alto risco;

• Avaliação, mitigação e gestão de riscos continuam


centradas no próprio modelo, ao invés de focarem nas
tarefas dos modelos, usos e outputs que podem ser
gerados
2. Cadeias de IAs

- Há desenvolvedoras, implementadoras e
diversos tipos de usuários profissionais ou não;

- Há grandes corporações dominantes no


cenário, assim como startups, empresas
pequenas e entidades com objetivos para além
dos lucros (open source, pesquisa etc.)

- As obrigações devem ser proporcionais às


empresas, aos modelos e possíveis impactos;

- Mas mesmos usuários precisam ser


responsabilizados
3. Mensuração de impactos em sentido amplo
- Para além de impactos negativos como
desinformação e discurso de ódio, é
necessário verificação de impacto em
setores produtivos;
- Os benefícios precisam superar os males;
- Impacto no mercado de trabalho: extinção
ou precarização de funções;
- Regras para mitigar o colonialismo de
dados;
- Impactos na academia, ciência e educação
(plataformização do ensino!)
4. Transparência
- Desenvolvedores: relatórios sobre dados de
treinamento, métricas de desempenho, acurácia e
cibersegurança (intrinsecamente seguros, com
mecanismos como 'privacy by design' e 'security by
design’),
- Explicar os modelos para a sociedade , incluindo os
afetados pela solução de IA.
- Mapeamento e apresentação dos riscos da solução, e
estratégias de mitigação de conteúdo prejudicial;
- Obrigação de tornar clara a interação com IAs;
Transparência
5. Questões de conteúdo
• Human in the loop, human oversight: em
diversos pontos da cadeia das GenAIs é preciso
ter humanos;
• Ações ativas para mitigar o bias de bancos de
dados de treinamento para melhorar a
representatividade do output;
• Sandbox regulatório: verificações constantes da
possibilidade de geração de desinformação,
discurso do ódio e bias pelos modelos;
• Tais auditorias devem ser tanto internas quanto
feitas por usuários (classificação) e por outras
entidades e usuários especializados;
6. Detectabilidade do conteúdo

• Inclusão de marcas d’água e similares para


identificação de conteúdo Gerado por IAs;
• Investimento na melhoria dos modelos
também precisa ter alguma contrapartida de
investimento em detecção de conteúdos
gerados por IAs;
7. Direitos autorais
• Necessário enfrentar a questão, adaptar as leis
atuais de DA e de IA para já incluírem diretrizes;
• Big Techs precisam fazer compensações aos
autores e artistas de alguma forma;
• Por um lado, as big techs querem poder gerar
ainda mais lucro ao garantir direitos autorais
para as criações de IA, o que claramente é
injusto;
• Por outro lado, muitas produções autênticas por
artistas vão inevitavelmente usar GenAIs nos
próximos anos e precisam ser respeitados e
valorizados.
8. Sustentabilidade
▪ Os modelos precisam ser aperfeiçoados
para gerarem menos custos ambientais;
▪ Os desenvolvedores devem também
divulgar as emissões de gases de efeito
estufa dos modelos de IA,e de outros
impactos ambientais mensuráveis (e.g.
gasto de água) permitindo assim
comparações e análises por agências
reguladoras, ONGs, thinktanks, e outras
partes interessadas.
▪ Multas ambientais devem ser pensadas para
o gasto excessivo em processamento.
Ciberreferências:
• O ChatGPT e as inteligências artificiais tendem a terceirizar as principais
escolhas acadêmicas
• CINCO MUDANÇAS DA INTELIGÊNCIA ARTIFICIAL NA PESQUISA
CIENTÍFICA
• SAMPAIO, R.; NICOLÁS, A.; JUNGUILHO, T.; SILVA, L.; FREITAS, C.; TELLES,
M.; SENNA, J. ChatGPT e outras IAs transformarão toda a pesquisa científica:
reflexões iniciais sobre usos e consequências. SciELO Pré-prints, 2023.

• HACKER, P.; ENGEL, A.; MAUER, M. Regulating ChatGPT and other Large
Generative AI Models. 2023 ACM Conference on Fairness, Accountability,
and Transparency. Anais... Em: FACCT ’23: THE 2023 ACM CONFERENCE ON
FAIRNESS, ACCOUNTABILITY, AND TRANSPARENCY. Chicago IL USA: ACM, 12
jun. 2023. Disponível em:
<https://dl.acm.org/doi/10.1145/3593013.3594067>. Acesso em: 2 dez.
2023
• ZONNEVELD, A. REGULATING GENERATIVE AI. 2023. Harvard Model
Congress. Disponível em:
https://static1.squarespace.com/static/5cb7e5637d0c9145fa68863e/t/6549
78417b0e3758670653cd/1699313730230/HMC2024_House_Energy_1.pdf

• @fotoartificialbr
Obrigado!
compadd.ufpr.br
cardososampaio@gmail.com
@cardososampaio

Você também pode gostar