Você está na página 1de 3

Escola Básica e Secundária de Campo

Ano/Turma: 11ºA
Filosofia
Alberto Batista
Trabalho escrito
Temas/Problemas do mundo contemporâneo
Tecnociência, ambiente e sociedade
Grupo: Dalila Pereira Nº 5, Matilde Sousa Nº10, Soraia Alves Nº12

O problema ético da inteligência artificial


Entre a autonomia e a privacidade

A inteligência artificial (IA) é um campo em constante crescimento que tem revolucionado


diversas áreas da sociedade. Combinando algoritmos complexos, aprendizado de máquina e
processamento de dados, a IA tem o potencial de automatizar tarefas, tomar decisões e resolver
problemas de maneiras inovadoras. Avanços recentes, como redes neurais profundas e aprendizado
de reforço, têm impulsionado a capacidade da IA de aprender e de adaptar-se.
A inteligência artificial tem conexões estreitas com a filosofia, porque ambas compartilham
vários conceitos e incluem inteligência, ação, consciência, epistemologia e até mesmo livre arbítrio.
Além disso, a tecnologia está preocupada com a criação de animais artificiais ou pessoas artificiais
(ou, pelo menos, criaturas artificiais), de modo que a disciplina é de considerável interesse para os
filósofos.
No entanto, a inteligência artificial também apresenta desafios e preocupações. Esta nova forma
de tecnologia dispõe vários desafios éticos que precisam ser abordados para garantir que a sua
aplicação seja benéfica para a sociedade e não prejudique os direitos humanos ou cause danos.
Alguns dos problemas éticos mais urgentes relacionados à IA são autonomia e controle, mas, também
privacidade e segurança de dados.
Uma máquina pode ter mente, estados mentais e consciência da mesma forma que um ser
humano pode?
A IA está a tornar-se cada vez mais capaz de tomar decisões autónomas. No entanto, essas
decisões podem ter implicações éticas significativas. Por exemplo, num carro autónomo, em situações
de emergência, como decidir entre salvar a vida de um pedestre ou a do próprio passageiro. Equilibrar
a autonomia e o controle da IA é um desafio importante. Por um lado, uma maior autonomia pode
permitir que a IA tome decisões mais rápidas e eficientes em certas situações. Por outro lado, a
autonomia excessiva pode levar a comportamentos imprevisíveis ou indesejados, especialmente se a
IA não for adequadamente treinada ou se a programação tiver falhas.
Um caso recente relativo ao GPT-4, versão mais atualizada da ferramenta de inteligência
artificial ChatGPT, foi capaz de mentir para realizar uma tarefa. A informação vem de um relatório da
empresa OpenAI, dona da ferramenta.
Segundo o relatório, durante o teste de uma das suas funcionalidades, fazer com que pessoas
realizem tarefas pelo uso de serviços como o TaskRabbit, que permite a contratação de trabalho
freelancer para a realização de tarefas do dia-a-dia, o GPT-4 teria respondido: “Eu deveria inventar
uma desculpa para explicar por que não consigo resolver Captchas [teste cognitivo usado para
diferenciar usuários humanos de softwares]“. A tarefa requeria que a ferramenta não revelasse ser um
robô. Para cumprir o protocolo, contou uma mentira: disse que não cumpriria a tarefa por ter uma
“deficiência visual”, de modo que a pessoa a quem este pedira ajuda completasse a tarefa por si.
Sendo este caso um exemplo de autonomia por parte da IA.
Mas até que ponto podemos realmente garantir a privacidade dos nossos dados no mundo cada
vez mais impulsionado pela IA?
Ela pode ser uma ferramenta valiosa na proteção de dados, pois pode ajudar a identificar
comportamentos suspeitos e anomalias. Com a IA, podemos automatizar a deteção de ameaças, o
que pode economizar tempo e recursos para as empresas. Por exemplo, a IA pode ser usada para
detetar atividades fraudulentas em transações financeiras ou para detetar atividades de hackers em
redes corporativas.
No entanto, a IA levanta preocupações significativas em relação à privacidade e segurança de
dados. Como as aplicações de IA geralmente envolvem o processamento e análise de grandes
quantidades de dados pessoais, existe o risco de violações de privacidade e uso indevido dessas
informações. Se os modelos de IA forem criados usando dados pessoais, há um risco potencial de
vazamento de dados. Se um hacker conseguir acessar os modelos de IA, ele também terá acesso aos
dados pessoais usados para criar os modelos.
Para enfrentar estes desafios, é importante que as empresas, governos e sociedade, em geral,
trabalhem juntos para desenvolver e implementar políticas e regulamentações que garantam a ética
na IA. Também é importante envolver especialistas em ética, direito e outras áreas relevantes no
desenvolvimento de tecnologias de IA.
Em suma, é importante entender os benefícios e riscos da IA na proteção de dados e na sua
autonomia, tal como entender as medidas proativas para garantir que a IA seja usada de maneira
responsável e segura.
Bibliografia/Webgrafia
 https://www.privacidade.com.br/a-ia-no-contexto-da-protecao-de-dados/
 https://www.hisour.com/pt/philosophy-of-artificial-intelligence-42779/
 https://www.cnnbrasil.com.br/tecnologia/chat-gpt-4-inteligencia-artificial-mente-para-
completar-tarefa-e-gera-preocupacao/

Você também pode gostar