Escolar Documentos
Profissional Documentos
Cultura Documentos
Dario Centurione divulgou o print de uma conversa que teve com o pai no
WhatsApp. Nas mensagens, o pai conta que havia transferido R$ 600
para uma pessoa via Pix depois que recebeu a ligação com o pedido.
Dario, por exemplo, tem vários vídeos dele em diferentes sites e redes
sociais. Ele é o criador do “Almanaque SOS”, um projeto com dicas do
cotidiano para jovens, como truques de limpeza, receitas diferentes e até
gambiarras para facilitar o dia a dia.
O vídeo em que Dario denunciou o golpe tinha mais de 1,4 milhão de
visualizações no TikTok até a noite desta sexta-feira (12). Na postagem, o
influencer também indicou a criação de uma palavra de segurança com os
familiares para evitar golpes.
Discurso de ódio, fake News e mais Em 2016, a Microsoft se tornou alvo de polêmica quando o chat bot
Tay (robô treinado para responder humanos) precisou ser desativado após começar a postar mensagens
de cunho nazista e teorias conspiratórias, como endossar Hitler e dizer que o 11 de setembro foi causado
pelo ex-presidente americano George W. Bush.
O Tay aprendia a conversar à medida em que humanos interagiam com ele no Twitter, e virou alvo de
trolls (gíria para usuários que costumam causar ou criar pegadinhas em comentários na internet) que
passaram a influenciá-lo com ideias radicais, numa brincadeira de mau gosto.
Algoritmos racistas e machistas Outro desenrolar preocupante nas inteligências artificiais é que elas ainda
reproduzem comportamentos discriminatórios. A tecnologia de reconhecimento de imagens, em
particular, é algo que causa preocupação. Em 2015, por exemplo, o Google precisou pedir desculpas
depois que um app da empresa classificou a imagem de um casal negro como sendo gorilas.
Frequentadores da rede começaram a reparar que um algoritmo que recortava automaticamente imagens
postadas para exibi-las na timeline privilegiava pessoas brancas, excluindo as negras da pré-visualização.
Elas só apareciam quando alguém clicava para ver a imagem completa. No ano passado, a direção de
engenharia de software da empresa admitiu que, após as reclamações, conduziu experiências com o
algoritmo que mostraram um viés de preferência por exibir pessoas brancas. Mas afirmou também que
isso serviu para alterar o sistema e melhorá-lo. O reconhecimento facial ainda é bastante falho com
pessoas negras, principalmente ao lidar com fotos de mulheres.
Plano de dominação mundial
Numa conferência de tecnologia realizada em Hong Kong em 2017, dois robôs humanoides da empresa
Hanson Robotics, chamados de Han e Sophia, brincaram com os medos dos humanos em relação às
máquinas. Depois de Sophia dizer que seu objetivo era trabalhar com a humanidade e fazer "um mundo
melhor", Han respondeu dizendo que o foco deveria ser a "dominação mundial". Embora a fala tenha sido
considerada uma piada, o relato do jornal The Independent é de que a plateia assistiu nervosa à conversa
entre os robôs. Han e Sophia falaram sobre a possibilidade de fazer todos os trabalhos humanos "em 10
ou 20 anos", e, quando questionados sobre sua moral, ainda disseram que os humanos "não são
necessariamente as criaturas mais éticas”.
A polícia chinesa lançou uma investigação a um portal de notícias que usava o popular programa de
inteligência artificial ChatGPT para gerar e divulgar artigos falsos, com o objetivo de obter grandes
quantidades de tráfego e lucro.
Após verificarem que se tratava de informação falsa, a polícia abriu uma investigação e descobriu que o
artigo foi publicado por 21 contas do Baidu, o principal motor de buscas chinês, criadas por uma empresa
com sede em Shenzhen, no sul da China.
O representante legal da empresa, de sobrenome Hong, e o seu irmão mais novo são suspeitos de
fabricar e espalhar boatos.
Segundo a polícia, o irmão mais novo de Hong comprou um grande número de "contas Baijia", um serviço
fornecido pelo Baidu que permite aos utilizadores criar e difundir conteúdo original, e editou as notícias
com recurso ao programa de inteligência artificial ChatGPT, que gera textos a partir de palavras-chave.
O objetivo era obter uma grande quantidade de tráfego e lucro através da difusão de notícias
sensacionalistas e falsas.
A polícia prendeu o irmão mais novo e congelou as contas bancárias relacionadas ao caso.
A investigação ainda está em andamento e as autoridades alertaram os internautas para não acreditarem
ou espalharem boatos `online`.
Nas últimas semanas, este tipo de `chatbots` tem despertado grande interesse no país asiático, ao ponto
de a imprensa oficial já ter alertado para uma possível "bolha" no mercado devido ao "excesso de
entusiasmo" com esta tecnologia.
Em abril passado, o regulador da Internet da China publicou um projeto de regulamento que regulará o
setor da inteligência artificial. O projeto exige que o conteúdo criado por `chatbots` e outros modelos
generativos "reflitam valores socialistas fundamentais" e não "prejudiquem a unidade nacional, subvertam
o poder do Estado ou incitem à divisão do país".
A agitação em torno do ChatGPT na China também tem levantado dúvidas sobre a aplicação deste tipo
de tecnologia no país asiático devido à forte censura imposta pelas autoridades.
ChatGPT
Trazendo diante de tal problemática temos também a IA chamada de ChatGPT No entanto, como
qualquer tecnologia, seu uso pode ter consequências negativas se não for aplicado com cuidado. Aqui
estão algumas razões pelas quais o ChatGPT pode ser considerado prejudicial em certas circunstâncias:
Desinformação: O ChatGPT pode gerar respostas que parecem precisas e confiáveis, mas que estão
incorretas ou são baseadas em informações desatualizadas. Isso pode levar à propagação de
desinformação e teorias da conspiração se as pessoas não verificarem a veracidade das informações
fornecidas.
Viés e discriminação: O ChatGPT é treinado em grandes conjuntos de dados textuais coletados da
internet, e esses dados podem conter preconceitos e viés. Como resultado, o modelo pode reproduzir ou
amplificar estereótipos prejudiciais, discriminação ou linguagem ofensiva. Esforços estão sendo feitos
para mitigar esses problemas por meio de técnicas de treinamento e moderação, mas ainda há desafios a
serem enfrentados.
Manipulação e abuso: O ChatGPT pode ser utilizado por indivíduos mal-intencionados para gerar
conteúdo enganoso ou manipulativo, como spam, phishing ou propaganda enganosa. Além disso, pode
ser usado para criar discurso de ódio, assédio ou para manipular e influenciar a opinião pública.
Dependência excessiva: O uso excessivo do ChatGPT como fonte exclusiva de informação ou orientação
pode levar à dependência e à falta de pensamento crítico. É importante lembrar que o ChatGPT é um
modelo de IA e não possui conhecimento próprio além do que foi treinado. É essencial verificar e
questionar as informações fornecidas.
Fontes:
https://chat.openai.com/chat
https://g1.globo.com/tecnologia/noticia/2023/05/13/influencer-diz-ter-tido-voz-clonada-por-
inteligencia-artificial-e-denuncia-golpe-contra-o-pai.ghtml
https://www.uol.com.br/tilt/noticias/redacao/2022/06/13/inteligencia-artificial-fora-de-controle-
relembre-casos-polemicos.htm?cmpid=copiaecola
https://www.uol.com.br/tilt/noticias/redacao/2022/06/13/inteligencia-artificial-fora-de-controle-
relembre-casos-polemicos.htm?cmpid=copiaecola
https://chat.openai.com/chat