Este documento discute se é possível incluir uma perspectiva ética em robôs. Embora seja nosso dever assegurar que a inteligência artificial seja usada de forma ética, atualmente é impossível programar completamente a ética em algoritmos, dado seu caráter intrinsecamente humano. Devemos definir regras claras para guiar o uso ético de robôs enquanto eles não forem totalmente autônomos.
Descrição original:
trabalho sobre a moralidade da inteligência artificial
Este documento discute se é possível incluir uma perspectiva ética em robôs. Embora seja nosso dever assegurar que a inteligência artificial seja usada de forma ética, atualmente é impossível programar completamente a ética em algoritmos, dado seu caráter intrinsecamente humano. Devemos definir regras claras para guiar o uso ético de robôs enquanto eles não forem totalmente autônomos.
Este documento discute se é possível incluir uma perspectiva ética em robôs. Embora seja nosso dever assegurar que a inteligência artificial seja usada de forma ética, atualmente é impossível programar completamente a ética em algoritmos, dado seu caráter intrinsecamente humano. Devemos definir regras claras para guiar o uso ético de robôs enquanto eles não forem totalmente autônomos.
Introdução: Comecemos por explicar o que é a inteligência artificial. A inteligência artificial é a capacidade de um robot fazer artificialmente o que nós, humanos, fazemos naturalmente. A ética é algo que indiscutivelmente fazemos naturalmente. A perspetiva ética surge da necessidade das interações entre seres humanos serem orientadas por normas morais. Com efeito, a dimensão ética surge naturalmente. Nesse sentido poderá um robot, algo artificial, adquirir uma dimensão ética? Será possível tornar a dimensão ética, com toda a sua complexidade e vertente natural intrínseca, num algoritmo?
O que são comportamentos moralmente aceites e deveremos/poderemos nós
inserir uma dimensão ética num robot? Atualmente, os investigadores estão a seguir uma tendência que visa promover a conceção e implementação de sistemas artificiais com comportamentos moralmente aceites. Isto leva-nos à seguinte questão: O que são comportamentos moralmente aceites e poderemos/deveremos inserir uma dimensão ética num robot? A dimensão ética A Ética remete para uma reflexão acerca dos princípios que devem orientar a ação humana, para uma fundamentação das normas do agir, e também para a definição dos fins orientadores da existência de cada um, tendo em vista a autoconstrução de si na prossecução duma vida boa e feliz. Interroga-se sobre o que dá sentido ou valor à existência humana. A Ética remete, portanto, para uma sabedoria de vida, algo que aponta já para uma certa espiritualidade e realização pessoal autónoma. Deste modo, a dimensão ética implica que não se considerem exclusivamente os interesses individuais e se avaliem as situações tendo em conta também os interesses dos outros. A relação eu-outro implica, portanto, que os nossos juízos avaliativos adotem um ponto de vista no qual considerem igualmente os interesses de todos os que são afetados pelas nossas ações. A ação ética exige que ultrapassemos o nosso ponto de vista pessoal e nos coloquemos, na medida do possível, no lugar do outro. Em vez do egoísmo a Ética valoriza o altruísmo e a solidariedade. Em vez do benefício pessoal, a Ética promove, elogia e estimula a consideração de valores comuns aos membros duma comunidade. A relação com os outros coloca-nos perante o desafio da nossa autoconstrução, evidenciando que a realização de cada um supõe também a realização dos outros, numa convergência de vontades particulares tendo em vista a realização de fins comuns. Para tal, as diferentes formas de relacionamento social exigem o estabelecimento de regras de conduta, de normas e leis que definam os direitos e deveres de cada um num espaço de convivência. É esta convergência de ideais que procura dar sentido à existência da sociedade e de cada indivíduo. Nesta interação social forma-se então algo pessoal, interior de cada um que orienta e avalia/critica as nossas ações- a consciência moral. O dever Devemos nós inserir num robot uma dimensão ética? Hoje em dia os robôs gerem o tráfego aéreo, guardam todo o tipo de dados, cozinham para nós, efetuam cirurgias médicas, e até já conduzem os nossos carros. A cada dia que passa colocamos mais o nosso mundo nas mãos dos robôs, tornando-nos progressivamente dependentes deste ‘governo de lata’. Aliado a isso, a evolução da humanidade e a procura constante do bem-estar colectivo têm demonstrado, claramente, que a ética constitui um pilar fundamental da civilização, permitindo-nos distinguir o bem do mal e agir segundo tal. Assim sendo, ao aplicarmos um pensamento lógico de implicação (Se A e B, então C) chegamos à conclusão de que se deve inserir uma dimensão ética nos robôs. Se uma boa sociedade é alicerçada na ética (A), e a sociedade é cada vez mais governada por robôs (B), então é óbvio que devemos inserir uma dimensão ética nos robôs. Por exemplo, se um robô estiver a conduzir um carro e tiver de decidir entre atropelar uma criança ou despenhar-se, necessita da dimensão ética para escolher o menor dos males. Também podemos observar a inteligência artificial da Microsoft que reproduziu comentários preconceituosos e sexistas no Twitter. Este robô acabou por causar danos na sociedade que poderiam ter sido evitados caso ele possuísse uma dimensão ética. Desta forma, acreditamos que se deve inserir uma dimensão ética nos robôs, pois só assim eles garantirão o bem-estar da sociedade e o conforto do Homem. A possibilidade O dever diferencia-se amplamente da possibilidade. Se devemos? Sim! Se podemos, por enquanto cremos que não! Relativamente à possibilidade de inserir num robot uma perspetiva ética, ou seja, reduzir a ética a um algoritmo compatível com um robot, acreditamos que tal não seja possível (pelo menos num futuro próximo). De facto, a ideia de inserir num robot uma perspetiva ética torna-se pouco viável, visto que a ética não é algo que possa ser programado, não é algo que se resuma a uma série de passos, etapas, comandos lógicos. Por isso, por agora, consideramos que tentar compartimentar tudo o que é a ética num algoritmo se revela impossível. Reforçamos novamente a expressão “por agora” visto que o homem terá, à sua frente, constantes necessidades de progredir, fazendo para tal descobertas cada vez mais brilhantes. Nessa ótica, o impossível de hoje poderá muito bem ser o possível de amanhã.
Que código de ética devem estes robôs seguir?
Evidenciado o dever de incutir nos robots uma perspetiva ética confrontada com a impossibilidade de o concretizar suscita uma nova questão: Então que regras, que código de ética deve reger a ação dos robots? É completamente possível e incentivada a clarificação do modo como os robots devem ser utilizados. Por outras palavras, são necessárias regras éticas que guiem a forma como a inteligência artificial deve agir, enquanto se mantém impossível recriar essa vertente através da tecnologia. De acordo com a Federação Internacional de Estatísticas Mundiais de Robótica 2017, 2016 viu 74 unidades robotizadas empregadas por 10 000 humanos como a densidade média global de robôs nas indústrias transformadoras, dados reveladores do papel crescente dos robots no mercado de trabalho. À medida que os robôs se tornam cada vez mais parte da nossa vida quotidiana, torna-se necessário clarificar o código de ética que os mesmos devem seguir. Quando são autónomos, ou seja, encarregues de tomar as suas próprias decisões, a resposta a esta questão tona-se ainda mais necessária. Surge, então, a ética robótica como esforço de investigação interdisciplinar que visa compreender as implicações éticas da robótica e responder a essa pergunta para todos nós. Assim, para abordar esta questão (código de ética a seguir pelos robots) servimo-nos das Três Leis da Robótica de 1942. Embora escritas para uma obra de ficção, que projeta uma época futura em que os robôs pensam por si próprios, acredita- se que estas leis poderiam eventualmente ser aplicadas à robótica do mundo real. Elas são as seguintes: 1. Um robô não pode ferir um ser humano, ou, através da inação, permitir que um ser humano venha a ser maltratado. 2. Um robô deve obedecer às ordens que lhe são dadas pelos seres humanos, excepto quando tais ordens entrariam em conflito com a Primeira Lei. 3. Um robô deve proteger a sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Lei. Estas três leis não servirão de nada no futuro próximo, visto que os robots ainda não serão totalmente autónomos. Assim, e enquanto tal não for possível, os engenheiros e designers de robôs devem assumir a responsabilidade relativamente às consequências éticas das suas criações. Por outras palavras, os engenheiros e designers de robôs devem ser moralmente responsáveis pelo que projetam e trazem para o mundo. Conclusão: No sentido de ultrapassarmos o nosso desafio, assente na questão “poderei incluir num robot uma perspetiva ética” analisamos a dimensão ética enquanto conceito, o dever ou não de a inserir num robot e por último, a possibilidade em concretizar tal feito. Com base na análise da dimensão ética enquanto motor de uma sociedade com valores tendencialmente convergentes, concluímos ser nosso dever incutir a ética na inteligência artificial no sentido de mitigar os riscos associados a uma utilização perversa e malévola da mesma, assegurando o conforto e bem-estar do Homem. Todavia, mesmo sendo esse o nosso dever, a ciência atual revela ser impossível tornar a ética, algo que “fazemos naturalmente”, num algoritmo “artificial”. Isto deve-se essencialmente à dimensão ética derivar de uma reflexão interior, dum ser com consciência moral. Assim sendo, o nosso dever estará sempre condicionado pela possibilidade de o executar! É certo que devemos dar ao robot as ferramentas para que também ele se insira numa sociedade regida por valores éticos e que, paralelamente, os promova a todos o que nela se inserem. Contudo, esse dever continuará a estar, no futuro próximo, constrangido pela impossibilidade de o concretizar!