Você está na página 1de 4

LEVANTAMENTO DE DADOS E NOTICIAS SOBRE O PROBLEMA DA INTELIGENCIA ARTIFICIAL

O problema da inteligência artificial refere-se a preocupações e desafios éticos, sociais e técnicos


associados ao desenvolvimento e uso de sistemas de IA. Alguns dos problemas discutidos incluem:
Viés algorítmico: Os sistemas de IA podem refletir e amplificar vieses presentes nos dados de
treinamento, levando a decisões discriminatórias ou injustas. Isso pode ocorrer em áreas como
recrutamento, justiça criminal e empréstimos bancários.
Privacidade e segurança: A coleta e o uso massivo de dados para treinar sistemas de IA podem
apresentar riscos à privacidade das pessoas. Além disso, sistemas de IA maliciosos podem ser
explorados para ataques cibernéticos ou usados para criar deepfakes e propagar desinformação.
Autonomia e responsabilidade: À medida que a IA se torna mais autônoma, surgem questões sobre quem
é responsável por ações tomadas por sistemas de IA. Isso é particularmente relevante em veículos
autônomos, drones e outras aplicações de IA que têm o potencial de causar danos físicos.
Impacto no mercado de trabalho: O avanço da IA e da automação pode levar à substituição de certos
empregos por máquinas, o que pode ter implicações sociais e econômicas significativas. Também pode
haver a necessidade de requalificação e adaptação profissional para lidar com essas mudanças.
Manipulação e desinformação: A IA pode ser usada para criar e espalhar desinformação em larga escala.
Algoritmos de recomendação também podem criar bolhas de filtro, reforçando opiniões e perspectivas
extremas.
NOTICIAS PREJUDICIAS DA INTELIGENCIA ARTIFICIAL (IA).

Um influencer de São Paulo denunciou nas redes sociais que teve a voz


clonada por meio de inteligência artificial (IA) e que o recurso foi utilizado
para aplicar um golpe no pai dele. O homem perdeu R$ 600 ao receber
uma ligação, supostamente do filho, pedindo um empréstimo.

Dario Centurione divulgou o print de uma conversa que teve com o pai no
WhatsApp. Nas mensagens, o pai conta que havia transferido R$ 600
para uma pessoa via Pix depois que recebeu a ligação com o pedido.

A partir da mensagem do pai, Dario desconfiou de que a voz dele havia


sido clonada para a ligação e entrou em contato com um especialista, que
o alertou que vozes de pessoas muito presentes na internet são mais
suscetíveis a esse tipo de golpe.

De acordo com o influencer, recursos de inteligência artificial permitem


usar vídeos e áudios na internet como base para a criação de novas
frases com a voz parecida.

Dario, por exemplo, tem vários vídeos dele em diferentes sites e redes
sociais. Ele é o criador do “Almanaque SOS”, um projeto com dicas do
cotidiano para jovens, como truques de limpeza, receitas diferentes e até
gambiarras para facilitar o dia a dia.
O vídeo em que Dario denunciou o golpe tinha mais de 1,4 milhão de
visualizações no TikTok até a noite desta sexta-feira (12). Na postagem, o
influencer também indicou a criação de uma palavra de segurança com os
familiares para evitar golpes.

Discurso de ódio, fake news

Discurso de ódio, fake News e mais Em 2016, a Microsoft se tornou alvo de polêmica quando o chat bot
Tay (robô treinado para responder humanos) precisou ser desativado após começar a postar mensagens
de cunho nazista e teorias conspiratórias, como endossar Hitler e dizer que o 11 de setembro foi causado
pelo ex-presidente americano George W. Bush.

O Tay aprendia a conversar à medida em que humanos interagiam com ele no Twitter, e virou alvo de
trolls (gíria para usuários que costumam causar ou criar pegadinhas em comentários na internet) que
passaram a influenciá-lo com ideias radicais, numa brincadeira de mau gosto.

Algoritmos racistas e machistas

Algoritmos racistas e machistas Outro desenrolar preocupante nas inteligências artificiais é que elas ainda
reproduzem comportamentos discriminatórios. A tecnologia de reconhecimento de imagens, em
particular, é algo que causa preocupação. Em 2015, por exemplo, o Google precisou pedir desculpas
depois que um app da empresa classificou a imagem de um casal negro como sendo gorilas.

Frequentadores da rede começaram a reparar que um algoritmo que recortava automaticamente imagens
postadas para exibi-las na timeline privilegiava pessoas brancas, excluindo as negras da pré-visualização.
Elas só apareciam quando alguém clicava para ver a imagem completa. No ano passado, a direção de
engenharia de software da empresa admitiu que, após as reclamações, conduziu experiências com o
algoritmo que mostraram um viés de preferência por exibir pessoas brancas. Mas afirmou também que
isso serviu para alterar o sistema e melhorá-lo. O reconhecimento facial ainda é bastante falho com
pessoas negras, principalmente ao lidar com fotos de mulheres.
Plano de dominação mundial
Numa conferência de tecnologia realizada em Hong Kong em 2017, dois robôs humanoides da empresa
Hanson Robotics, chamados de Han e Sophia, brincaram com os medos dos humanos em relação às
máquinas. Depois de Sophia dizer que seu objetivo era trabalhar com a humanidade e fazer "um mundo
melhor", Han respondeu dizendo que o foco deveria ser a "dominação mundial". Embora a fala tenha sido
considerada uma piada, o relato do jornal The Independent é de que a plateia assistiu nervosa à conversa
entre os robôs. Han e Sophia falaram sobre a possibilidade de fazer todos os trabalhos humanos "em 10
ou 20 anos", e, quando questionados sobre sua moral, ainda disseram que os humanos "não são
necessariamente as criaturas mais éticas”.
A polícia chinesa lançou uma investigação a um portal de notícias que usava o popular programa de
inteligência artificial ChatGPT para gerar e divulgar artigos falsos, com o objetivo de obter grandes
quantidades de tráfego e lucro.

Os agentes descobriram inicialmente um artigo na Internet que informava do descarrilamento e incêndio


de um comboio em Pingliang, na província ocidental de Gansu, que resultou em vários mortos.

Após verificarem que se tratava de informação falsa, a polícia abriu uma investigação e descobriu que o
artigo foi publicado por 21 contas do Baidu, o principal motor de buscas chinês, criadas por uma empresa
com sede em Shenzhen, no sul da China.

O representante legal da empresa, de sobrenome Hong, e o seu irmão mais novo são suspeitos de
fabricar e espalhar boatos.

Segundo a polícia, o irmão mais novo de Hong comprou um grande número de "contas Baijia", um serviço
fornecido pelo Baidu que permite aos utilizadores criar e difundir conteúdo original, e editou as notícias
com recurso ao programa de inteligência artificial ChatGPT, que gera textos a partir de palavras-chave.

O objetivo era obter uma grande quantidade de tráfego e lucro através da difusão de notícias
sensacionalistas e falsas.

A polícia prendeu o irmão mais novo e congelou as contas bancárias relacionadas ao caso.

A investigação ainda está em andamento e as autoridades alertaram os internautas para não acreditarem
ou espalharem boatos `online`.

Nas últimas semanas, este tipo de `chatbots` tem despertado grande interesse no país asiático, ao ponto
de a imprensa oficial já ter alertado para uma possível "bolha" no mercado devido ao "excesso de
entusiasmo" com esta tecnologia.

Em abril passado, o regulador da Internet da China publicou um projeto de regulamento que regulará o
setor da inteligência artificial. O projeto exige que o conteúdo criado por `chatbots` e outros modelos
generativos "reflitam valores socialistas fundamentais" e não "prejudiquem a unidade nacional, subvertam
o poder do Estado ou incitem à divisão do país".

A agitação em torno do ChatGPT na China também tem levantado dúvidas sobre a aplicação deste tipo
de tecnologia no país asiático devido à forte censura imposta pelas autoridades.

ChatGPT

Trazendo diante de tal problemática temos também a IA chamada de ChatGPT No entanto, como
qualquer tecnologia, seu uso pode ter consequências negativas se não for aplicado com cuidado. Aqui
estão algumas razões pelas quais o ChatGPT pode ser considerado prejudicial em certas circunstâncias:

Desinformação: O ChatGPT pode gerar respostas que parecem precisas e confiáveis, mas que estão
incorretas ou são baseadas em informações desatualizadas. Isso pode levar à propagação de
desinformação e teorias da conspiração se as pessoas não verificarem a veracidade das informações
fornecidas.
Viés e discriminação: O ChatGPT é treinado em grandes conjuntos de dados textuais coletados da
internet, e esses dados podem conter preconceitos e viés. Como resultado, o modelo pode reproduzir ou
amplificar estereótipos prejudiciais, discriminação ou linguagem ofensiva. Esforços estão sendo feitos
para mitigar esses problemas por meio de técnicas de treinamento e moderação, mas ainda há desafios a
serem enfrentados.

Manipulação e abuso: O ChatGPT pode ser utilizado por indivíduos mal-intencionados para gerar
conteúdo enganoso ou manipulativo, como spam, phishing ou propaganda enganosa. Além disso, pode
ser usado para criar discurso de ódio, assédio ou para manipular e influenciar a opinião pública.

Dependência excessiva: O uso excessivo do ChatGPT como fonte exclusiva de informação ou orientação
pode levar à dependência e à falta de pensamento crítico. É importante lembrar que o ChatGPT é um
modelo de IA e não possui conhecimento próprio além do que foi treinado. É essencial verificar e
questionar as informações fornecidas.

Responsabilidade e transparência: À medida que os modelos de IA se tornam mais avançados, surge a


questão da responsabilidade pelas ações e decisões tomadas por esses sistemas. A falta de
transparência sobre como o ChatGPT é treinado e funciona pode dificultar a responsabilização em caso
de problemas ou erros.

Fontes:

Qual a problemática da Inteligência artificial:

https://chat.openai.com/chat

Levantamento de notícias e dados da inteligência artificial:

https://g1.globo.com/tecnologia/noticia/2023/05/13/influencer-diz-ter-tido-voz-clonada-por-
inteligencia-artificial-e-denuncia-golpe-contra-o-pai.ghtml

https://www.uol.com.br/tilt/noticias/redacao/2022/06/13/inteligencia-artificial-fora-de-controle-
relembre-casos-polemicos.htm?cmpid=copiaecola

https://www.uol.com.br/tilt/noticias/redacao/2022/06/13/inteligencia-artificial-fora-de-controle-
relembre-casos-polemicos.htm?cmpid=copiaecola

Problemas relacionados ao uso do ChatGPT:

https://chat.openai.com/chat

Você também pode gostar