Você está na página 1de 5

Poderei incluir num robot uma perspetiva ética?

Cordeiro Rosado Dray Luísa Mafalda


Introdução:
Comecemos por explicar o que é a inteligência artificial. A inteligência artificial é
a capacidade de um robot fazer artificialmente o que nós, humanos, fazemos
naturalmente.
A ética é algo que indiscutivelmente fazemos naturalmente. A perspetiva ética
surge da necessidade das interações entre seres humanos serem orientadas por
normas morais. Com efeito, a dimensão ética surge naturalmente. Nesse sentido
poderá um robot, algo artificial, adquirir uma dimensão ética? Será possível tornar a
dimensão ética, com toda a sua complexidade e vertente natural intrínseca, num
algoritmo?

O que são comportamentos moralmente aceites e deveremos/poderemos nós


inserir uma dimensão ética num robot?
Atualmente, os investigadores estão a seguir uma tendência que visa promover
a conceção e implementação de sistemas artificiais com comportamentos moralmente
aceites. Isto leva-nos à seguinte questão: O que são comportamentos moralmente
aceites e poderemos/deveremos inserir uma dimensão ética num robot?
A dimensão ética
A Ética remete para uma reflexão acerca dos princípios que devem orientar a
ação humana, para uma fundamentação das normas do agir, e também para a
definição dos fins orientadores da existência de cada um, tendo em vista a
autoconstrução de si na prossecução duma vida boa e feliz. Interroga-se sobre o que
dá sentido ou valor à existência humana. A Ética remete, portanto, para uma sabedoria
de vida, algo que aponta já para uma certa espiritualidade e realização pessoal
autónoma.
Deste modo, a dimensão ética implica que não se considerem exclusivamente
os interesses individuais e se avaliem as situações tendo em conta também os
interesses dos outros.
A relação eu-outro implica, portanto, que os nossos juízos avaliativos adotem um
ponto de vista no qual considerem igualmente os interesses de todos os que são
afetados pelas nossas ações. A ação ética exige que ultrapassemos o nosso ponto de
vista pessoal e nos coloquemos, na medida do possível, no lugar do outro. Em vez do
egoísmo a Ética valoriza o altruísmo e a solidariedade. Em vez do benefício pessoal, a
Ética promove, elogia e estimula a consideração de valores comuns aos membros
duma comunidade.
A relação com os outros coloca-nos perante o desafio da nossa autoconstrução,
evidenciando que a realização de cada um supõe também a realização dos outros,
numa convergência de vontades particulares tendo em vista a realização de fins
comuns. Para tal, as diferentes formas de relacionamento social exigem o
estabelecimento de regras de conduta, de normas e leis que definam os direitos e
deveres de cada um num espaço de convivência. É esta convergência de ideais que
procura dar sentido à existência da sociedade e de cada indivíduo. Nesta interação
social forma-se então algo pessoal, interior de cada um que orienta e avalia/critica as
nossas ações- a consciência moral.
O dever
Devemos nós inserir num robot uma dimensão ética?
Hoje em dia os robôs gerem o tráfego aéreo, guardam todo o tipo de dados,
cozinham para nós, efetuam cirurgias médicas, e até já conduzem os nossos carros. A
cada dia que passa colocamos mais o nosso mundo nas mãos dos robôs, tornando-nos
progressivamente dependentes deste ‘governo de lata’. Aliado a isso, a evolução da
humanidade e a procura constante do bem-estar colectivo têm demonstrado,
claramente, que a ética constitui um pilar fundamental da civilização, permitindo-nos
distinguir o bem do mal e agir segundo tal.
Assim sendo, ao aplicarmos um pensamento lógico de implicação (Se A e B,
então C) chegamos à conclusão de que se deve inserir uma dimensão ética nos robôs.
Se uma boa sociedade é alicerçada na ética (A), e a sociedade é cada vez mais
governada por robôs (B), então é óbvio que devemos inserir uma dimensão ética nos
robôs.
Por exemplo, se um robô estiver a conduzir um carro e tiver de decidir entre
atropelar uma criança ou despenhar-se, necessita da dimensão ética para escolher o
menor dos males. Também podemos observar a inteligência artificial da Microsoft que
reproduziu comentários preconceituosos e sexistas no Twitter. Este robô acabou por
causar danos na sociedade que poderiam ter sido evitados caso ele possuísse uma
dimensão ética.
Desta forma, acreditamos que se deve inserir uma dimensão ética nos robôs,
pois só assim eles garantirão o bem-estar da sociedade e o conforto do Homem.
A possibilidade
O dever diferencia-se amplamente da possibilidade. Se devemos? Sim! Se
podemos, por enquanto cremos que não! Relativamente à possibilidade de inserir num
robot uma perspetiva ética, ou seja, reduzir a ética a um algoritmo compatível com um
robot, acreditamos que tal não seja possível (pelo menos num futuro próximo).
De facto, a ideia de inserir num robot uma perspetiva ética torna-se pouco viável,
visto que a ética não é algo que possa ser programado, não é algo que se resuma a
uma série de passos, etapas, comandos lógicos.
Por isso, por agora, consideramos que tentar compartimentar tudo o que é a
ética num algoritmo se revela impossível. Reforçamos novamente a expressão “por
agora” visto que o homem terá, à sua frente, constantes necessidades de progredir,
fazendo para tal descobertas cada vez mais brilhantes. Nessa ótica, o impossível de
hoje poderá muito bem ser o possível de amanhã.

Que código de ética devem estes robôs seguir?


Evidenciado o dever de incutir nos robots uma perspetiva ética confrontada com
a impossibilidade de o concretizar suscita uma nova questão: Então que regras, que
código de ética deve reger a ação dos robots? É completamente possível e incentivada
a clarificação do modo como os robots devem ser utilizados. Por outras palavras, são
necessárias regras éticas que guiem a forma como a inteligência artificial deve agir,
enquanto se mantém impossível recriar essa vertente através da tecnologia.
De acordo com a Federação Internacional de Estatísticas Mundiais de Robótica
2017, 2016 viu 74 unidades robotizadas empregadas por 10 000 humanos como a
densidade média global de robôs nas indústrias transformadoras, dados reveladores do
papel crescente dos robots no mercado de trabalho. À medida que os robôs se tornam
cada vez mais parte da nossa vida quotidiana, torna-se necessário clarificar o código
de ética que os mesmos devem seguir. Quando são autónomos, ou seja, encarregues
de tomar as suas próprias decisões, a resposta a esta questão tona-se ainda mais
necessária. Surge, então, a ética robótica como esforço de investigação interdisciplinar
que visa compreender as implicações éticas da robótica e responder a essa pergunta
para todos nós.
Assim, para abordar esta questão (código de ética a seguir pelos robots)
servimo-nos das Três Leis da Robótica de 1942. Embora escritas para uma obra de
ficção, que projeta uma época futura em que os robôs pensam por si próprios, acredita-
se que estas leis poderiam eventualmente ser aplicadas à robótica do mundo real. Elas
são as seguintes:
1. Um robô não pode ferir um ser humano, ou, através da inação, permitir que um
ser humano venha a ser maltratado.
2. Um robô deve obedecer às ordens que lhe são dadas pelos seres humanos,
excepto quando tais ordens entrariam em conflito com a Primeira Lei.
3. Um robô deve proteger a sua própria existência, desde que tal proteção não
entre em conflito com a Primeira ou Segunda Lei.
Estas três leis não servirão de nada no futuro próximo, visto que os robots ainda
não serão totalmente autónomos. Assim, e enquanto tal não for possível, os
engenheiros e designers de robôs devem assumir a responsabilidade relativamente às
consequências éticas das suas criações. Por outras palavras, os engenheiros e
designers de robôs devem ser moralmente responsáveis pelo que projetam e trazem
para o mundo.
Conclusão:
No sentido de ultrapassarmos o nosso desafio, assente na questão “poderei
incluir num robot uma perspetiva ética” analisamos a dimensão ética enquanto
conceito, o dever ou não de a inserir num robot e por último, a possibilidade em
concretizar tal feito.
Com base na análise da dimensão ética enquanto motor de uma sociedade com
valores tendencialmente convergentes, concluímos ser nosso dever incutir a ética na
inteligência artificial no sentido de mitigar os riscos associados a uma utilização
perversa e malévola da mesma, assegurando o conforto e bem-estar do Homem.
Todavia, mesmo sendo esse o nosso dever, a ciência atual revela ser impossível
tornar a ética, algo que “fazemos naturalmente”, num algoritmo “artificial”. Isto deve-se
essencialmente à dimensão ética derivar de uma reflexão interior, dum ser com
consciência moral.
Assim sendo, o nosso dever estará sempre condicionado pela possibilidade de o
executar! É certo que devemos dar ao robot as ferramentas para que também ele se
insira numa sociedade regida por valores éticos e que, paralelamente, os promova a
todos o que nela se inserem. Contudo, esse dever continuará a estar, no futuro
próximo, constrangido pela impossibilidade de o concretizar!

Você também pode gostar