Você está na página 1de 5

Neste ensaio filosófico, pretendo responder à questão “A adoção da inteligência artificial

afeta os princípios éticos e morais da sociedade?”, utilizando argumentos sólidos e exemplos


para defender a minha tese relativamente a este problema que considero um assunto importante,
uma vez a inteligência artificial está cada vez mais presente no nosso quotidiano e por isso, é
importante haver uma preocupação com a questão ética das máquinas para que não ocorram
prejuízos aos seres humanos nem se degradem os valores morais da sociedade. Começarei por
expor as desvantagens da utilização da mesma, seguidas de exemplos dos problemas decorrentes
desta e minha opinião acerca deste segmento da evolução da tecnologia.
Por fim, apresentarei as minhas considerações finais acerca do problema filosófico.

O que é a inteligência artificial? Como funciona?


A inteligência artificial (IA) é a capacidade que uma máquina tem para reproduzir competências
semelhantes às humanas, como é o caso do raciocínio, a aprendizagem, o planeamento e a
criatividade. O computador recebe dados, processa-os e responde. No entanto, é muito mais:
envolve o agrupamento de várias tecnologias, como redes neurais artificiais, algoritmos,
sistemas de aprendizado, entre outros que conseguem simular capacidades humanas ligadas ao
aprendizado, solução de problemas, compreensão da linguagem e tomada de decisões.O
objetivo geral da IA é criar máquinas que possam operar com o mesmo nível de capacidade
cognitiva que os humanos, ou até superá-lo em alguns casos. Mas com todo este poder vem a
responsabilidade de usar a IA de forma ética.

O que é a ética?
A ética é o conjunto de princípios como a igualdade, o respeito e justiça, regras e normas, que
orientam o nosso comportamento perante as outras pessoas e as situações do nosso dia a dia e
em cada ato ou decisão que temos que nos posicionar. A ética nos diz o que é correto fazer e o
que não é. O que é bom e o que não é. O que é honesto fazer e o que não é.

A adoção da inteligência artificial afeta os princípios éticos e morais da sociedade?


Sim, a adoção da inteligência artificial afeta os princípios éticos da sociedade, principalmente a
justiça e igualdade uma vez que a IA utiliza ferramentas que podem ser discriminatórias e
preconceituosas, uma vez que alguns algoritmos e modelos de IA são projetados com base em
características como raça, gênero, idade ou origem étnica, contribuindo assim para injustiças
como por exemplo a contratação de uma quantidade maior de homens do que mulheres ou de
pessoas brancas em detrimento de pessoas de outras raças, afetando a justiça social, entre outros
exemplos que eu irei referir.
Em 2020 a organização “Algorithm Watch” publicou no Facebook dois anúncios fictícios de
emprego. Um deles era para motorista de caminhão e o outro para educador de infância. Os
próprios algoritmos de IA do Facebook decidiram a quem exibir cada anúncio (este era o
objetivo)- verificar como seria a distribuição dos anúncios por gênero. Como resultado, o
anúncio da vaga de emprego para motorista de caminhão foi exibido para 4.864 homens e
apenas 386 mulheres, enquanto o anúncio para educador de infância foi exibido para 6.456
mulheres, mas apenas 258 homens. Isto revela que são criados estereótipos de gênero nos
algoritmos que a IA recomenda, como se uma mulher não pudesse conduzir um caminhão, ou
educador de infância fosse um emprego para mulheres, e acaba por afetar a igualdade nas
oportunidades de emprego.
Outro exemplo dos problemas éticos resultantes da utilização da IA ,onde esta teve resultados
discriminatórios, foi numa das suas novas ferramentas: O serviço de fotografias da Google
consegue automatizar um conjunto de funções que consiste na identificação de caras e de outros
objetos nas imagens e a criação de álbuns para cada uma delas, facilitando a pesquisa e a
catalogação das fotografias. Estes processos são automáticos e recorrem aos algoritmos de
reconhecimento facial que a Google tem desenvolvido ao longo dos anos, para os seus serviços
de pesquisa de imagens. O problema surgiu quando um utilizador viu no seu Google Photos, um
novo álbum, chamado “Gorilas". Ao ver quais as imagens que estavam associadas a esse novo
album deparou-se com imagens suas e da sua namorada, ambos negros. Apesar de não haver um
culpado, é uma situação extremamente desagradavel e preconceituosa que revela uma postura
xenófoba por parte das ferramentas automáticas do Google, as quais tem recurso à IA.
Estes são alguns dos muitos exemplos de discriminação e preconceito resultantes do uso da IA,
é por isto é que é tão importante ter atenção á maneira de que é usada pois a inteligência
artificial cada vez mais está a ser utilizada em tomadas de decisão cruciais, como a seleção de
candidatos de empregos e até á definições de sentenças judiciais, e por isso crescem cada vez
mais as preocupações acerca da possibilidade da tecnologia impulsionar e até mesmo
intensificar as disparidades sociais, a discriminação e o preconceito, problemas que já á muito
tempo estão a tentar ser minimizados na nossa sociedade. Qual seria o propósito de avançar com
a inteligência artificial se tal progresso não for benéfico para a progressão de nós, seres
humanos, em termos éticos? Numa sociedade onde a luta pela a igualdade de género ainda é
uma realidade, sobretudo no meio de trabalho, e numa sociedade onde estamos a tentar
combater o preconceito, seria incorreto introduzir algo na sociedade que de alguma forma
pudesse atenuar esses problemas, é como se estivéssemos a introduzir um novo meio de difusão
de preconceitos, estereótipos e desigualdades sociais.

Existem objeções de quem considere que seja possível solucionar este problema, por exemplo:
ensinando condutas ética às máquinas. Contudo, eu considero que é algo que não seja possível,
uma vez que a ética e a educação moral é adquirida ao longo da vida e do contexto em que cada
um de nós vivemos, são fruto das experiências e vivências do indivíduo, muitas decisões éticas
envolvem dilemas que não podem ser reduzidos a algoritmos ou análises de dados. A
compreensão das emoções humanas, a empatia e a capacidade de tomar decisões em contextos
complexos são características intrinsecamente humanas que as máquinas não possuem, e por
isso seria impossível que as máquinas pudessem ter condutas éticas como nós. Em 2018 no
Arizona um acidente provocado por um carro autônomo veio a levantar ainda mais questões
éticas. O veículo circulava em modo autônomo com um motorista ao volante e acabou por
atropelar uma mulher que atravessava fora da faixa de pedestres, levando à morte da mesma.
Perante este problema, de quem seria a responsabilidade? A verdade é que a investigação do
acidente foi feita pelo Conselho Nacional de Segurança nos transportes que distribuiu a
responsabilidade por todos: aos responsáveis da Uber, porque o software foi mal concebido, à
condutora do veículo, que ia a olhar para o telemóvel, ao governador do Arizona, pelas políticas
públicas insuficientes, e até à vítima, por atravessar a estrada onde não podia. Nisto tudo o carro
inteligente ficou de fora. A conclusão retirada é: a inteligência artificial não tem personalidade
jurídica, e por isso a responsabilidade dos seus atos é sempre atribuída ao seu criador. Não é
plausível que outro objeto ou ser que não seja o ser humano possa ter princípios éticos, já que
para que a responsabilidade moral possa ser atribuída é sempre necessário que haja intervenção
humana para que possa ser explicado perante a justiça o acontecimento e numa situação como
estas apenas seres humanos têm a capacidade de de tomar decisões conscientes.

Conclui com este ensaio que é importante proteger das novas tecnologias os princípios éticos já
referidos anteriormente como a responsabilidade, justiça e não discriminaçao, direitos
fundamentais na sociedade, e saber usar a inteligência artificial de forma ética para que esta não
contribua (ainda mais) para as desigualdades sociais.Para isto considero que seja importante
estabelecer alguns princípios e diretrizes para que a tecnologia usada continue a ser
desenvolvida de forma responsável e segura, através da existência de princípios e padrões bem
definidos que contribuam para melhorar os benefícios derivados da inteligência artificial e
reduzir o impacto negativo e os riscos que o seu uso implica, estabelecendo claramente a
responsabilidade moral por eventuais erros ou consequências negativas que esta pode vir a
trazer.

Referências:

https://observador.pt/programas/convidado-extra/ja-fiz-maquinas-que-sentiam-culpa/

https://algorithmwatch.org/en/
https://www.theguardian.com/technology/2018/jan/12/google-racism-ban-gorilla-black-people

https://expresso.pt/vodafonefuture/social/2019-04-15-Maquinas-inteligentes-mas-tambem-mais-
eticas

https://www.google.com/url?sa=t&rct=j&q=&esrc=s&source=web&cd=&ved=2ahUKEwiMvN
KElaSEAxUvh_0HHRNIBw4QFnoECBAQAQ&url=https%3A%2F%2Fvisao.pt%2Fexameinf
ormatica%2Fnoticias-ei%2Fmercados%2F2019-11-20-uber-considerada-culpada-em-morte-pro
vocada-por-carro-autonomo%2F&usg=AOvVaw1BpkwmTiySFZLtSfA4Ok1j&opi=89978449

https://www.nbcnews.com/tech/tech-news/self-driving-uber-car-hit-killed-woman-did-not-recog
nize-n1079281

Você também pode gostar