Você está na página 1de 9

Machine Translated by Google

AI e Ética (2021) 1:273–281 https://


doi.org/10.1007/s43681-020-00034-z

PESQUISA ORIGINAL

Responsabilidade moral por produtos projetados computacionalmente

David M. Douglas1 · David Howard2 · Justine Lacey1

Recebido: 18 de setembro de 2020 / Aceito: 3 de dezembro de 2020 / Publicado online: 20 de janeiro de 2021
© O(s) Autor(es) 2021

Abstrato
Sistemas de projeto computacional (como aqueles que usam algoritmos evolucionários) podem criar projetos para uma variedade de
produtos físicos. A introdução desses sistemas no processo de design corre o risco de criar uma 'lacuna de responsabilidade' por falhas
nos produtos que são usados para criar, pois os designers humanos podem não mais acreditar que são totalmente responsáveis por eles.
Respondemos a esse problema distinguindo entre responsabilidade causal e responsabilidade por capacidade (a capacidade de ser
moralmente responsável pelas ações) para criar projetos de produtos para argumentar que, embora os sistemas de projeto computacional
e os designers humanos sejam casualmente responsáveis pela criação de projetos de produtos, os designers humanos que usam esses
sistemas e os desenvolvedores que os criam são responsáveis por tais projetos. Mostramos que não há lacuna de responsabilidade para
produtos projetados usando sistemas de design computacional comparando diferentes contas de responsabilidade moral para robôs e IA
(instrumentalismo, ética de máquina e responsabilidade híbrida). Argumentamos que todas essas três explicações de responsabilidade
moral por sistemas de IA apoiam a conclusão de que os designers de produtos que usam sistemas de design computacional e os
desenvolvedores desses sistemas são moralmente responsáveis por quaisquer falhas ou falhas nos produtos projetados por esses
sistemas. Concluímos mostrando como as responsabilidades de responsabilização e culpabilização devem ser atribuídas entre os
designers de produto, os desenvolvedores dos sistemas de design computacional.

Palavras -chave Design computacional · Responsabilidade moral · Ética da máquina · Design generativo · Design paramétrico · Inteligência
artificial · Algoritmos evolutivos

1. Introdução cria novas possibilidades para projetar e produzir produtos físicos


sem necessariamente envolver designers ou fabricantes humanos
A inteligência artificial (IA) oferece muitas oportunidades para no processo. Uma das principais aplicações do projeto
automatizar os processos de fabricação. Embora os robôs computacional é a otimização de topologia, onde os elementos
industriais já tenham auxiliado ou substituído trabalhadores são removidos de um projeto para otimizá-lo em relação a
humanos em uma variedade de tarefas de fabricação, a IA é cada determinados critérios (como redução de peso), mantendo outras
vez mais empregada no design e desenvolvimento de produtos. características (como resistência) [35]. Métodos de otimização de
Esta aplicação da IA tem vários nomes, incluindo design topologia e impressão 3D têm sido aplicados para projetar
computacional, design generativo e design paramétrico [4]. componentes de aeronaves e peças de automóveis que são
Combinando design computacional e impressão 3D (ou manufatura aditiva)
consideravelmente mais leves do que as peças existentes com resistência equiva
O design computacional é uma aplicação da IA que atualmente
está sub-representada na literatura de ética da IA. Substituir ou
* David M. Douglas
aumentar designers humanos por design computacional desafia
David.Douglas@csiro.au
nossas noções existentes de responsabilidade pelo design.
David Howard
Embora possa parecer simples que as responsabilidades dos
David.Howard@data61.csiro.au
projetistas humanos não sejam alteradas se eles usarem o projeto
Justine Lacey
computacional, essa conclusão não deve ser aceita
Justine.Lacey@csiro.au
automaticamente. A questão da responsabilidade (em termos de
1 atribuição de autoria) por projetos criados por sistemas de IA já foi
Plataforma de Ciência do Futuro da Inovação Responsável, CSIRO,
Brisbane, Austrália levantada no contexto da arte gerada por computador [11, 24, 31].
2 Avanços em design computacional e
Grupo de Robótica e Sistemas Autônomos, CSIRO,
Brisbane, Austrália

Vol.:(0123456789) 1 3
Machine Translated by Google

274 IA e Ética (2021) 1:273-281

a utilização dos produtos criados com esta tecnologia têm o potencial de tecnologia no processo de projeto, seja como um substituto para o bloco
criar um impacto social significativo, tanto positivo como não [32]. Isso de desenho ou prancheta do projetista, ou como um método de simulação
aguçou nosso foco na natureza da responsabilidade no próprio processo de das características físicas dos projetos antes de serem fisicamente criados.
ciência, tecnologia e inovação [29], e levou a questões sobre novas Em termos gerais, o design computacional envolve a tecnologia de
distribuições de responsabilidade, particularmente no caso de falha de computador auxiliando ou substituindo designers humanos na criação e
sistema ou projeto [10]. A responsabilidade pelo resultado da operação de modificação de conceitos de design.
uma máquina geralmente é atribuída ao seu operador se a máquina
funcionar conforme o esperado, ou ao seu fabricante se a máquina No contexto da arquitetura, Caetano et al. [4] descrevem o projeto
apresentar mau funcionamento [23]. Da mesma forma, falhas de design em computacional como um processo de projeto que aproveita a computação
uma máquina são atribuídas a seus projetistas. através da automatização de procedimentos de projeto, realizando tarefas
de projeto em paralelo, adicionando e refletindo mudanças de projeto
O design computacional perturba essas normas estabelecidas, substituindo rapidamente em representações do projeto e usando feedback automatizado
o papel do designer humano na tomada de decisões sobre aspectos do para auxiliar os projetistas em processos de busca de forma. . Essas
design. Essa incerteza cria o risco de que os projetistas que usam esses características também se aplicam ao design computacional em outros
sistemas acreditem que não são totalmente responsáveis pelos produtos contextos, como arte ou design de produto.
que criam [17]. Formas específicas de projeto computacional são o projeto paramétrico
Os projetistas podem ver o próprio sistema computacional como tendo e o projeto generativo. O design paramétrico usa parâmetros fisicamente
responsabilidade total ou mesmo parcial pelos produtos projetados. significativos, geralmente fornecidos por um especialista no domínio. Variar
Essa incerteza pode levar à crença de que nenhuma pessoa específica é esses parâmetros dentro de intervalos razoáveis (definidos por especialistas)
responsável pelo projeto, criando uma 'lacuna de responsabilidade' [23]. cria novos projetos em um processo comparativamente restrito. Projetos
Esclarecer se os usuários de um sistema de projeto computacional, os paramétricos têm a vantagem de serem compreensíveis por humanos. O
desenvolvedores do sistema ou o próprio sistema são responsáveis pelos significado das características do projeto pode ser obtido a partir do exame
produtos criados usando essa abordagem removerá essa incerteza. dos parâmetros finais otimizados, pois eles têm significado humano, como
a largura, que permite aos projetistas humanos conceituar as extensões do
Nosso foco aqui é a responsabilidade moral que diz respeito se alguém espaço de projeto paramétrico e operar efetivamente dentro dele.
deve receber elogios ou condenação moral por sua ação ou inação [12].
Questões de responsabilidade legal (como responsabilidade) por produtos Os parâmetros podem ser variados interativamente à mão, e o software de
projetados computacionalmente estão além do nosso escopo. design moderno reflete as mudanças de parâmetro instantaneamente em
uma visualização do design para permitir a experimentação.
Este artigo começa com uma visão geral do projeto computacional e Muitos pacotes de design também vêm com otimizadores paramétricos
descreve um método (algoritmos evolutivos) em detalhes. Em seguida, embutidos, que operam em uma representação de software do design (uma
descreve como as principais posições sobre responsabilidade pela saída de sequência de números com um número por parâmetro de design) e são
sistemas de IA (instrumentalismo, ética de máquina e responsabilidade executados sem entrada humana para maximizar uma ou mais funções de
híbrida) convergem para atribuir responsabilidade moral aos usuários ajuste em várias iterações, que calcula quão bem o projeto cumpre o
humanos e desenvolvedores de sistemas de design computacional. Portanto, propósito pretendido [19]. Como esses otimizadores são guiados apenas
nenhuma lacuna de responsabilidade existe se os sistemas de design em alto nível por metas de desempenho definidas por humanos, eles têm
computacional forem usados para criar produtos físicos. Além disso, este alguma capacidade de fornecer soluções surpreendentes e não intuitivas
artigo segue explicando como as responsabilidades de responsabilização e (combinações de parâmetros), embora dentro de um design paramétrico
culpabilização por falhas de design nos produtos criados usando design restrito
computacional podem ser atribuídas entre os usuários e desenvolvedores espaço.
desses sistemas, como sistemas de design computacional. O design generativo gera uma infinidade de soluções em várias iterações.
Ao contrário dos projetos paramétricos, há um nível de indireção entre a
representação do software do projeto (a sequência numérica) e a
complexidade do projeto final. O design generativo normalmente aproveita
medidas complexas de geração de ity, incluindo simetrias, repetição e
2 Projeto computacional, escala, para produzir designs complexos a partir de uma sequência de
paramétrico e generativo números comparativamente pequena. Projetos generativos fornecem
projetos mais complexos e intrincados com uma sequência de números
O design de produto tradicionalmente envolvia desenhar esboços e planos menor, e a sequência não precisa necessariamente crescer se for necessário
detalhados de conceitos de design em papel e criar modelos físicos ou um aumento na complexidade do projeto. Ao contrário do design paramétrico,
protótipos que passam por muitas iterações até que o designer esteja esses números não têm significado físico - eles podem, por exemplo, ser os
satisfeito. O desenho assistido por computador (CAD) (ou desenho digital) pesos de uma rede neural que é
introduziu o computador

13
Machine Translated by Google

IA e Ética (2021) 1:273-281 275

executar para produzir uma geometria intrincada [33]. Outras valor requerido para a função ftness ou se o número máximo de
implementações incluem grafos e gramáticas de formas [20]. iterações ainda não foi alcançado, o algoritmo continua no estágio de
Espaços de design generativos são muitas vezes pouco intuitivos seleção.
para os designers humanos, necessitando do uso de otimização A etapa de seleção escolhe os membros da população para usar
computacional para encontrar bons designs. O design generativo como base para a criação de novos membros. Os membros escolhidos,
moderno é implementado em software e executado em paralelo em chamados pais, geralmente terão um resultado de função de alta ftness,
computadores. No design generativo, os usuários inserem algumas embora alguns membros também possam ser escolhidos aleatoriamente
metas de design de alto nível (por exemplo, uma função de adequação) para garantir que alguma variedade permaneça na população [9]. O
e o sistema tenta gerar designs que atendam a todas essas metas da algoritmo agora avança para o estágio de variação, onde novos
melhor maneira possível (maximizar a adequação em todos os membros são criados modificando os membros pai. Essa modificação
objetivos). Por causa da relação entre a sequência numérica e o projeto ocorre via recombinação e
final, e a falta de parâmetros fisicamente aterrados, o processo de mutação. A recombinação mescla dados de dois membros pais para
projeto é muito mais livre, com o algoritmo buscando um espaço mais produzir um ou mais genótipos filhos [9]. Uma mutação é uma mudança
amplo do que os métodos de projeto paramétrico. aleatória em um genótipo. Mutação e recombinação podem ser usadas
isoladamente ou em conjunto para produzir novos membros.

3 Algoritmos evolutivos em design O estágio de substituição envolve remover parte ou toda a população
existente com os novos membros criados no estágio de variação. Se
Algoritmos evolutivos são uma das principais abordagens para apenas alguns dos membros existentes forem substituídos, a
aprendizado de máquina [8]. Como otimizadores de caixa preta, eles sobrevivência dos membros existentes é determinada por alguma forma
são populares para problemas de design que podem ser de alta de seleção ambiental, que geralmente envolve a remoção dos membros
dimensão, multimodais ou sem informações diretas de gradiente. Isso com as funções de menor aptidão. Uma vez que a população tenha
é particularmente verdadeiro para representações generativas. sido atualizada, o algoritmo retorna ao estágio de avaliação e continua
Algoritmos evolutivos aplicam um modelo abstrato de evolução para novamente até completar um determinado número de iterações ou
encontrar soluções para problemas complexos de otimização [30]. Os encontrar um genótipo com a função de adequação necessária. O
algoritmos operam dentro de um espaço de busca definido para genótipo e o fenótipo correspondente podem ser considerados a decisão
encontrar soluções que atendam a todos os requisitos especificados ou tomada pelo algoritmo evolutivo para resolver o problema que lhe foi
o maior número possível deles [30]. dado.
Exemplos bem-sucedidos de design evolutivo incluem projetar
antenas de naves espaciais [22], elementos estruturais de projetos de A partir desta descrição de algoritmos evolutivos, já podemos
construção [19] e até robôs [3]. Esses projetos são muitas vezes não identificar dois pontos onde o design humano afeta a saída do sistema:
convencionais, pois “não são limitados por convenções, considerações
estéticas ou preferências não fundamentadas por simetria” [9].
• A seleção de representação e limites associados
Embora um relato completo de como os algoritmos evolucionários • A defnição da função ftness.
funcionam esteja além do escopo deste artigo, aqui apresentamos um
esboço geral dos estágios que esses algoritmos realizam: inicialização, À medida que a representação define o espaço de projeto acessível,
avaliação, seleção, variação e substituição [9, 19]. ela também afeta os tipos de projetos (por exemplo, geometrias) e o
nível de adequação que pode ser alcançado por um determinado
O estágio de inicialização cria uma população onde cada membro é algoritmo evolutivo. Da mesma forma, se a função de adequação
um valor binário ou numérico escolhido aleatoriamente ou um conjunto (equações matemáticas que "pontuam" cada projeto) não capturam o
de valores que codifica uma possível solução para o problema de objetivo final pretendido, os projetos finais não serão adequados ao propósito.
projeto. Todos esses valores devem permanecer dentro do espaço de Os projetos são frequentemente simulados para avaliar a adequação,
pesquisa definido. O valor do membro é chamado de genótipo, enquanto e a simulação física fornece uma abstração da realidade que pode ser
a solução codificada que ele representa é seu fenótipo [9]. informativa, barata e fácil de trabalhar. No entanto, a simulação não
A etapa de avaliação usa uma função de aptidão que determina a modela a totalidade da física, e o descompasso potencial entre a
adequação de genótipos individuais como soluções para o objetivo simulação e o ambiente físico é a 'lacuna da realidade' [34], significando
pretendido. Se um ou mais membros têm um resultado de função de que o desempenho no projeto simulado e físico é notavelmente
adequação que atende aos requisitos da solução, ou se um certo diferente. Resultados inesperados e indesejáveis de um algoritmo
número de iterações do algoritmo ocorreu, o genótipo com a função de evolutivo também podem ser devidos a 'funções de ftness mal
adequação mais alta é convertido em seu fenótipo, que é a solução do especificadas' (onde brechas na função de ftness permitem que
problema. O algoritmo então termina. No entanto, se nenhum dos soluções não intencionais ou indesejáveis obtenham altos resultados)
membros apresentar o

13
Machine Translated by Google

276 IA e Ética (2021) 1:273-281

ou 'depuração não intencional' (onde erros de software ou hardware usar métodos de processamento que os próprios usuários ou
incorretamente fornecem resultados de alta adequação, enquanto o desenvolvedores não incorporaram nele [23]. A saída produzida por
fenótipo correspondente será ineficaz ou inadequado para uso) [21]. esses sistemas envolve novas regras que o próprio sistema
Qualquer tipo de erro pode significar que o projeto físico pode ser desenvolveu a partir da análise de dados de entrada, ou por meio de
perigosamente falho. processos que incorporam elementos aleatórios, como algoritmos
Dado que o desenvolvedor humano projeta e implementa esses evolutivos. Como resultado, os desenvolvedores têm menos influência
aspectos do sistema, parece claro que eles são responsáveis pelas sobre sua saída do que sobre um sistema em que as regras de
falhas no projeto físico resultante. No entanto, sistemas de projeto processamento são codificadas pelos desenvolvedores e onde a
computacional produzirão resultados novos, surpreendentes e aleatoriedade não desempenha nenhum papel no processo algorítmico.
inesperados [21]. O sistema está criando algo novo, e falhas no Essa perda de influência sobre a tomada de decisão do sistema cria
sistema que causam resultados inesperados só podem ser identificadas incerteza sobre se o desenvolvedor cumpre a condição epistêmica de
depois que o sistema as produziu [21]. Ainda precisamos estabelecer responsabilidade de capacidade para a saída da máquina. Esta
se o próprio sistema pode ter alguma responsabilidade moral pelas incerteza, combinada com a falta de uma alternativa clara de atribuição
soluções que produz, ou se essa responsabilidade só pode ser de responsabilidade, cria a possibilidade de uma lacuna de
assumida por humanos associados a ele de alguma forma. responsabilidade onde ninguém é responsável pela saída do sistema
[23]. Abordar a lacuna de responsabilidade requer uma explicação de
como a responsabilidade moral (ou seja, responsabilidade de
capacidade) deve ser atribuída quando a responsabilidade causal pela
4 Responsabilidade moral e design saída de um sistema de IA é incerta.
computacional Gunkel [13] descreve três respostas possíveis para a lacuna de
responsabilidade: instrumentalismo, ética da máquina e responsabilidade
A responsabilidade moral por produtos projetados computacionalmente híbrida. Cada resposta resolve a lacuna propondo uma distribuição
é um caso limitado da questão maior da IA ou da responsabilidade do diferente de responsabilidade entre os desenvolvedores, usuários e o
robô. Embora projetar produtos por meio do design computacional sistema. O instrumentalismo coloca a responsabilidade da capacidade
não exija um robô ou meios automatizados de fabricação, ainda se apenas nos humanos envolvidos no sistema. Em contraste, a ética da
trata da questão de saber se os sistemas que produzem saídas sem máquina coloca a responsabilidade da capacidade (de uma espécie)
direção humana são moralmente responsáveis por essa saída. no sistema, enquanto a responsabilidade híbrida distribui a
responsabilidade da capacidade entre os humanos e o sistema.
A responsabilidade assume muitas formas [6, 36]. Como nossa
questão diz respeito ao problema de saber se um sistema de projeto O instrumentalismo nega que exista uma lacuna de responsabilidade:
computacional pode ser considerado moralmente responsável pelos a responsabilidade pelo sistema e sua produção recai sobre as
produtos que projeta, vamos nos concentrar na capacidade de ser pessoas associadas a ele. Ele vê robôs e IA como produtos como
moralmente responsável. Essa noção de responsabilidade pode ser qualquer outro e, portanto, não deve ser tratado de maneira diferente
chamada de responsabilidade por capacidade [15]. Possuir capacidade em relação à responsabilidade moral. Para sistemas de projeto
de responsabilidade significa que alguém (ou algo) tem a capacidade computacional, essa visão nos apresenta uma resposta clara: somente
de agir com responsabilidade e responsabilizar-se por suas ações. as pessoas associadas ao sistema possuem responsabilidade de
Eles são capazes de “refletir sobre as consequências de suas ações, capacidade. As dificuldades restantes são determinar as pessoas
formar intenções, escolher deliberadamente uma ação e agir de acordo comrelevantes
ela” associadas ao sistema e como as diferentes formas de
[36]. A responsabilidade pela capacidade também pode ser descrita responsabilidade devem ser distribuídas entre elas. Se aceitarmos
como o cumprimento de duas condições: a condição de controle de que os produtos projetados computacionalmente são como quaisquer
ter a capacidade de controlar suas próprias ações e a condição outros, podemos usar as mesmas normas para atribuir responsabilidade
epistêmica de estar ciente de suas ações e suas consequências [5]. e culpabilidade que usaríamos para produtos projetados por humanos
A condição de controle destaca o significado da responsabilidade como ponto de partida para determinar como atribuí-los aqui.
causal, que é a atribuição de ações, eventos e resultados a pessoas,
objetos ou forças da natureza [15]. A responsabilidade por capacidade A ética da máquina exige que a tomada de decisões éticas seja
também cria a possibilidade de atribuir outras formas de incorporada em robôs e sistemas de IA [1, 3]. Essa capacidade de
responsabilidade, como responsabilização e culpabilização, ao seu fazer avaliações éticas permitiria que tais sistemas agissem com
possuidor. responsabilidade [2]. Esta é uma forma pragmática de atribuição de
A base usual para atribuir responsabilidade moral pelo que uma responsabilidade que se assemelha à personalidade jurídica atribuída
máquina faz é a responsabilidade causal: quanto menos controle o às empresas [13]. Como as avaliações éticas são feitas pelo sistema
usuário tem sobre a máquina, menos causalmente responsável ele é depende se suas avaliações são restringidas pelo desenvolvedor para
pelas ações causadas por suas decisões. Sistemas de aprendizado evitar a ocorrência de resultados prejudiciais, ou se são programadas
de máquina, como os usados em projetos computacionais, com uma teoria ética

13
Machine Translated by Google

IA e Ética (2021) 1:273-281 277

e métodos para usar essa teoria na tomada de decisão [25]. também negam que tenham qualquer responsabilidade, ou que o
Estes podem ser chamados de agentes éticos implícitos e explícitos, resultado tenha sido tão complexo que nenhum papel humano ou
respectivamente [25]. Os sistemas de projeto computacional são grupo de humanos desempenhando um papel seja responsável pelo
agentes éticos implícitos, pois não são programados com teorias e resultado. Embora esta seja uma questão importante, não significa
métodos éticos de tomada de decisão ética, mas sim fazem que a responsabilidade híbrida deva ser rejeitada. Os próprios
avaliações dentro de faixas estabelecidas pelo desenvolvedor que, proponentes da responsabilidade híbrida enfatizaram esse ponto
idealmente, os impedirão de produzir saídas com consequências como um argumento a favor dessa abordagem. Hanson [14]
danosas. Quando o sistema é um agente ético implícito, a ética da argumenta que sistemas que incorporam aprendizado de máquina
máquina fornece uma resposta semelhante àquela dada pelo podem se tornar tão complexos que determinar qual parte é
instrumentalismo: os desenvolvedores têm responsabilidade de responsável por qualquer decisão é efetivamente impossível. No
capacidade pela saída de sistemas de projeto computacional. entanto, isso não impede que a responsabilidade de capacidade seja
A responsabilidade híbrida afirma que alguma combinação do atribuída à combinação do sistema e seus usuários [14].
sistema e as pessoas associadas a ele têm responsabilidade [13]. Para sistemas de projeto computacional, os relatos de Hanson e
Existem vários relatos de responsabilidade híbrida entre pessoas e John son concordam que a combinação dos humanos associados
artefatos. O relato de Hanson [14] da responsabilidade conjunta ao sistema e o próprio sistema é causalmente responsável pelos
iguala a responsabilidade causal com a responsabilidade moral: o produtos que ele projeta. Enquanto eles diferem se o próprio sistema
'sujeito' responsável é a combinação de pessoas e objetos físicos de design compartilha algum grau de responsabilidade de capacidade,
necessários para realizar uma ação. Rejeita a alegação de que ambos atribuem essa responsabilidade aos humanos associados a
apenas pessoas podem ter agência e, em vez disso, baseia-se em ele. Embora isso resolva a lacuna de responsabilidade, coloca uma
relatos de agência estendida que incorporam tanto as pessoas nova ênfase na resolução do 'problema de muitas mãos' para
quanto as coisas que elas usam para realizar ações (como determinar como os vários tipos de responsabilidade moral devem
ferramentas, máquinas ou mesmo animais) como sendo o assunto ser atribuídos quando vários humanos ou grupos contribuíram para
apropriado para a responsabilidade moral. [14]. A agência estendida, um resultado [27].
portanto, situa a responsabilidade da capacidade na coleção de Este ponto é abordado na próxima seção.
pessoas e coisas que são causalmente responsáveis por uma ação.

O relato de Johnson [18] da responsabilidade híbrida descreve


três entidades relevantes para as ações de um sistema de 5 responsabilidades morais de usuários e
computador: os usuários humanos, os designers humanos e o próprio desenvolvedores humanos
sistema computacional. Assim como no relato de Hanson, todos os
três componentes compartilham a responsabilidade causal pelas Para sistemas de design computacional, as três abordagens para
ações do sistema: o usuário iniciou a ação, o sistema a executou e o resolver a lacuna de responsabilidade da IA (instrumentalismo, ética
desenvolvedor deu ao sistema a capacidade de fazê-lo [18]. No da máquina e responsabilidade híbrida) convergem para atribuir
entanto, Johnson [18] argumenta que os sistemas de computador responsabilidade de capacidade aos humanos associados ao
carecem de agência moral, pois não têm estados mentais: eles sistema. No entanto, como Gunkel [13] corretamente observa em
falham em cumprir a condição epistêmica para responsabilidade de sua discussão sobre responsabilidade híbrida, ainda há a necessidade
capacidade, pois não estão cientes de suas ações ou de suas de determinar quem entre esses usuários e desenvolvedores
consequências. Eles podem ter intencionalidade como resultado de humanos é responsável e por quê. A coleção de funções humanas
sua programação (no sentido de que podem agir sem intervenção que compartilham a responsabilidade da capacidade pode ser
humana imediata), mas essa intencionalidade reflete a dos usuários definida de várias maneiras. A responsabilidade por um sistema de
e projetistas do sistema. Os sistemas de computador não têm IA pode ser distribuída entre os desenvolvedores do sistema, os
usuários que inserem dados nele, aqueles que encomendaram seu
intenções independentes de seus desenvolvedores e usuários humanos [18].
Como resultado, o sistema não tem responsabilidade de capacidade. uso, os designers do hardware em que ele opera e assim por diante.
A explicação de Johnson, portanto, aceita que a combinação de um Hanson [14] admite que há “um ponto de retornos decrescentes” na
artefato e os humanos associados a ele é causalmente responsável especificação dos elementos de responsabilidade de capacidade
pelo que o artefato faz, mas rejeita a afirmação de que a coleção de associados a um sistema de IA, e que elementos constantes e
humanos e artefatos compartilha a responsabilidade de capacidade. inconsequenciais (como gravidade e o modelo específico de um
computador, respectivamente) podem ser desconsiderado. O relato
A preocupação de Gunkel [13] com a responsabilidade híbrida de Johnson evita esse problema limitando sua discussão a três
centra-se em como a responsabilidade é dividida entre as entidades entidades (usuários humanos, desenvolvedores humanos e o próprio
envolvidas. As entidades da rede de responsabilidade podem sistema computacional). Seguiremos Johnson em

13
Machine Translated by Google

278 IA e Ética (2021) 1:273-281

destacando os usuários e desenvolvedores humanos como o foco sistema de projeto computacional, garantindo que os produtos que ele
principal da responsabilidade de capacidade.1 projeta sejam seguros. Isso pode ser alcançado incorporando os
Essa distinção entre usuários e desenvolvedores é justificada pelas requisitos e regulamentos de segurança que se aplicam a produtos
responsabilidades de papel que eles têm em sua associação com o projetados por humanos no sistema de projeto computacional.
sistema. As responsabilidades do papel são os deveres que acompanham
os papéis sociais específicos [15]. Os usuários humanos do sistema de Noorman e Johnson [28] observam corretamente que os
design computacional o utilizam como uma ferramenta para atingir o desenvolvedores e usuários de sistemas robóticos e de IA impõem
objetivo de criar novos designs de produtos. Os usuários, portanto, têm restrições em suas possíveis saídas. Os usuários definem os requisitos
o papel de designers de produtos humanos, o que introduz a expectativa de projeto para os produtos que o sistema projetará. Os desenvolvedores
de que eles considerarão o propósito, as características físicas, os usos defnim o espaço de busca disponível para o sistema procurar por
potenciais e os riscos prováveis dos produtos que projetam. Os projetos potenciais e defnir os parâmetros que ele usa para determinar
desenvolvedores projetam e criam o sistema de projeto computacional a adequação dos projetos potenciais. Os parâmetros mutáveis e as
como um todo e os componentes do sistema especificamente projetados relações entre eles são definidos pelos desenvolvedores de sistemas de
e incorporados a ele. projeto paramétricos.
Espera-se que eles considerem a funcionalidade e o desempenho do Essas restrições permitem que os projetos do sistema estejam dentro
software que criam e garantam que seja o mais livre de erros possível. das características de desempenho conhecidas dos materiais de
produção pretendidos do projeto selecionado. Conforme sugerido em
As responsabilidades do papel dos designers (como usuários) e nossas discussões anteriores sobre instrumentalismo e ética da máquina,
desenvolvedores também servem como base para o que eles são os requisitos regulatórios para o tipo de produto a ser projetado também
responsáveis e culpados. Responsabilização é o requisito de alguém podem ser definidos como restrições dentro do espaço de busca. Para
com capacidade de responsabilidade para fornecer uma explicação ou sistemas paramétricos, requisitos regulatórios (como tolerâncias de
justificação para as ações pelas quais é causalmente responsável resistência e peso, por exemplo) podem ser especificados como limites
quando houver a possibilidade de delito [36]. para os parâmetros. O sistema rejeitaria projetos potenciais que
A responsabilização também pode servir como base para estabelecer a excedessem essas restrições como soluções inadequadas, da mesma
culpabilidade. Para evitar ser censurável, a explicação fornecida pelos forma que rejeitaria outros projetos potenciais que não atendessem aos
responsáveis deve mostrar que não ocorreu nenhum delito, que eles não requisitos definidos pelo usuário.
estavam cientes do resultado potencial de suas ações (a condição de
conhecimento), que eles eram incapazes de agir de outra forma (a As formas potenciais de irregularidades são semelhantes para os
condição de liberdade ), que não foram casualmente responsáveis, ou desenvolvedores: que sua criação seja inadequada, que cause danos
que não tinham capacidade de responsabilidade [36]. desnecessários ao seu usuário (através de danos a dados ou hardware,
por exemplo), ou por copiar injustamente o software desenvolvido por
Para designers de produtos humanos, as formas potenciais de terceiros sem permissão. Vamos nos concentrar no problema de que o
irregularidades são que o design é inadequado para o propósito próprio sistema de projeto computacional é inadequado para o propósito:
pretendido e que é desnecessariamente perigoso para seus usuários. ele não cria projetos que funcionam como esperado como produtos
Para fins de responsabilidade pelo uso de sistemas de projeto físicos, como é previsto pelo sistema.
computacional, os problemas relevantes aqui são como garantir que o
projeto criado pelo sistema para o projetista humano seja seguro para Historicamente, os desenvolvedores humanos relutam em aceitar a
uso e adequado para o propósito. A criação de um design inadequado responsabilidade pelos sistemas de computador. Nissenbaum [26]
para o propósito pode ser devido ao designer ter uma concepção descreve quatro dessas racionalizações: o problema de 'muitas mãos'
imprecisa ou confusa do propósito pretendido do produto, ou por cometer contribuindo para o sistema, a aceitação de que bugs sempre existirão
erros na especificação dos materiais a serem usados para criá-lo. dentro de sistemas computacionais complexos, atribuindo a
Materiais inadequados e falhas de design também podem tornar o responsabilidade causal pelos erros ao próprio sistema e não aos seus
produto projetado inseguro para uso. Se assumirmos que o designer, e desenvolvedores, e a própria rejeição de responsabilidade dos
não o sistema, escolhe os materiais e os requisitos para o design criado, desenvolvedores pelo software que eles criam. Para sistemas que
então o designer está confiando no desenvolvedor criando o incorporam técnicas de aprendizado de máquina (como sistemas de
design computacional), de Laat [7] adiciona 'opacidade' a esta lista: a
falta de transparência na forma como o sistema produz saídas. Quatro
dessas racionalizações podem ser defensáveis para sistemas de projeto
computacional (como nosso foco está na responsabilidade moral e não
1
Os fabricantes de produtos também podem ser considerados relevantes se forem legal, não consideraremos a legitimidade de rejeitar a responsabilidade).
distintos dos usuários humanos do sistema. No entanto, os deveres de realizar o Sistemas de projeto computacional são softwares complexos que são
processo de fabricação com sucesso e usar os materiais corretos que acompanham o
executados em plataformas complexas de software e hardware, cada
papel do fabricante permanecem inalterados com a introdução do projeto computacional.
uma das quais pode conter

13
Machine Translated by Google

IA e Ética (2021) 1:273-281 279

erros que afetam o seu funcionamento. A depuração e o teste A causa específica da falha determinará se os desenvolvedores
ajudarão a identificar a origem dos erros e onde eles existem no humanos, os usuários humanos ou o próprio sistema computacional
sistema, mesmo que não possam garantir que todos os erros sejam são culpados pela falha. Cada uma dessas partes humanas é
conhecidos ou removidos. Cada resposta à lacuna de responsabilidade responsável por uma explicação de por que a falha ocorreu, e qual
reconhece a responsabilidade causal do sistema de projeto parte é potencialmente culpável depende do tipo de falha. O
computacional. O problema de opacidade dependerá da forma de desenvolvedor é responsável por falhas decorrentes do design do
aprendizado de máquina usada dentro do sistema de projeto produto. O usuário é responsável por falhas resultantes da
computacional. Embora os resultados dos algoritmos evolutivos especificação do produto e dos requisitos de projeto (ou seja, se ele
sejam efetivamente imprevisíveis, os métodos pelos quais esses é adequado para o propósito). Suas explicações sobre o motivo pelo
resultados são determinados e avaliados são conhecidos dos qual o produto foi adulterado ou causado dano determina se eles são
desenvolvedores. Isso inclui a função de adequação e simulação culpados por esse dano (ou seja, se foram negligentes ao usar, criar
usada para avaliar os genótipos gerados e como o fenótipo que ou testar o sistema) ou se estava além do conhecimento esperado
representa os designs de produtos físicos são representados como de como o sistema opera e os materiais usados para criar o produto.
genótipos. Para sistemas de projeto paramétrico, podem existir erros Por exemplo, o desenvolvedor não seria culpado por uma falha se
potenciais na forma como a relação entre os diferentes parâmetros é sua conta explicasse como ela é o resultado de problemas imprevistos
definida e na forma como os parâmetros são otimizados pelo sistema. com a forma como o mundo físico é representado na simulação.

Nos casos em que os desenvolvedores são responsáveis, mas


não culpados pelo dano causado por seu sistema, cria-se a Então, aqui, encontramos uma solução para o problema de atribuir
responsabilidade de modificá-lo para evitar que tal dano ocorra no responsabilidade moral a produtos projetados usando sistemas de
futuro. Usar o design computacional é uma forma de experimentação. projeto computacional. A menos que a falha seja o resultado de uma
Embora os desenvolvedores possam prever com um nível razoável interação imprevista entre os materiais que compõem o produto e os
de confiança o intervalo de saídas possíveis do sistema, haverá designs criados por meio de design computacional, os usuários ou
necessariamente alguma incerteza sobre a saída. O objetivo desses desenvolvedores humanos são totalmente responsáveis por falhas
sistemas é produzir soluções para problemas que são muito no design do produto e no próprio produto.
complexos ou impraticáveis para serem resolvidos usando métodos Os usuários humanos são culpados como projetistas de produtos se
tradicionais onde a saída é (em princípio) previsível. O sistema de sua conta revelar que eles deveriam saber sobre os erros e riscos
projeto computacional é efetivamente um experimentador dentro dos potenciais nos parâmetros e funções de ajuste que eles definiram
limites do espaço de busca definido para encontrar projetos possíveis. para o sistema de projeto computacional usar. Se o relato dos
As falhas que ele descobre através dos projetos que cria são contra- desenvolvedores sobre o que causou as falhas de projeto ou falhas
exemplos às alegações dos desenvolvedores de terem representado do produto revela negligência no projeto, desenvolvimento ou teste
com precisão os materiais e as restrições físicas do sistema. A do sistema, então os desenvolvedores também são culpados. Embora
correção dessas falhas reduzirá a lacuna de realidade entre a os desenvolvedores não sejam culpados pelas falhas descobertas
simulação e a função de adequação e o contexto real em que o pelo sistema de design computacional, eles têm a obrigação de
projeto será usado. Embora eles não sejam culpados por essas corrigir seus modelos para removê-los assim que forem revelados
falhas se não tiverem sido descobertos ou previstos anteriormente, usando o sistema.
os desenvolvedores de sistemas de design computacional têm a
obrigação de corrigir essas falhas em seus sistemas que são expostas
por qualquer design de produto defeituoso que o sistema 6. Conclusão
computacional cria.
Alguma incerteza sempre permanecerá com a saída de qualquer Usar o design computacional para criar produtos físicos levanta duas
sistema de aprendizado de máquina, independentemente das questões potenciais para a responsabilidade: empregar o design
restrições incorporadas a ele. Usuários mal-intencionados podem computacional cria uma 'lacuna de responsabilidade' para o design
manipular o sistema para produzir deliberadamente saídas prejudiciais. do produto e, se não houver lacuna de responsabilidade, quem é
O sistema pode usar interações imprevistas e não testadas em materiais que
moralmente responsável pelos produtos criados com a ajuda desses
causar falhas prejudiciais nos produtos que cria. Os projetos de sistemas? ? Reconhecer as diferentes formas de responsabilidade
produtos podem cair em uma 'lacuna de realidade' entre a simulação (particularmente a distinção entre responsabilidade causal e
e o contexto de uso real do produto. O estabelecimento da causa responsabilidade por capacidade) e desenvolver o trabalho filosófico
específica da falha no produto deve indicar se a falha se deveu a um existente sobre responsabilidade moral e sistemas de IA nos fornece
erro na definição das propriedades do espaço de busca, a um as ferramentas conceituais para lidar com esse problema.
problema no processo físico de fabricação ou a uma interação Aqui, argumentamos que não há lacuna de responsabilidade ao
inesperada entre os materiais e o projeto desenvolvido por métodos mostrar que os usuários humanos de sistemas de projeto
computacionais. computacional e os desenvolvedores humanos desses sistemas são

13
Machine Translated by Google

280 IA e Ética (2021) 1:273-281

moralmente responsáveis pelos projetos que esses sistemas produzem. 2. Anderson, M., Anderson, SL (eds.): Machine Ethics. Cambridge

Essa responsabilidade moral inclui ser responsável por falhas de projeto University Press, Cambridge (2011)
3. Bongard, JC: Robótica evolutiva. Comum. ACM 56(8), 74-83 (2013). https://
e falhas do produto, ser culpado por negligência no desenvolvimento do
doi.org/10.1145/2493883
sistema que causa falhas de projeto e falhas prejudiciais no produto e 4. Caetano, I., Santos, L., Leitão, A.: Projeto computacional em arquitetura:
ter a obrigação de corrigir falhas na forma como o sistema produz definindo projeto paramétrico, generativo e algorítmico. Frente. Arquiteto. Res.

projetos que não poderiam ser descobertos sem serem descobertos por 9(2), 287-300 (2020). https://doi.
org/10.1016/j.foar.2019.12.008
projetos defeituosos produzidos pelo sistema. Ao fazer isso, esperamos
5. Coeckelbergh, M.: Ética da IA. The MIT Press, Cambridge (2020)
demonstrar como a 'lacuna de responsabilidade' para produtos 6. Davis, M.: “Ain't No One Here But Us Social Forces”: construindo a
projetados e feitos por robôs e sistemas de IA pode ser abordada responsabilidade profissional dos engenheiros. Sci. Eng. Ética 18(1), 13–34

considerando como a responsabilidade é atribuída em aplicações (2012). https://doi.org/10.1007/s11948-010-9225-3


7. de Laat, PB: Tomada de decisão algorítmica baseada em aprendizado de
específicas dessas tecnologias.
máquina de Big Data: a transparência pode restaurar a responsabilidade?
Philos. Tecnol. 31(4), 525-541 (2018). https://doi.org/10.1007/
s13347-017-0293-z

Agradecimentos Esta pesquisa foi informada por uma série de entrevistas com 8. Domingos, P.: O Algoritmo Mestre. Pinguim, Londres (2015)
profissionais envolvidos no projeto computacional de produtos, conforme aprovado 9. Eiben, AE, Smith, JE: Introdução à Computação Evolucionária, 2ª ed. Springer,
pelo Comitê de Ética em Pesquisa em Seres Humanos de Ciências Sociais e Berlim (2015)
Interdisciplinares do CSIRO, de acordo com a diretriz especificada na Declaração 10. Elish, MC: Zonas de deformação moral: contos de advertência na interação de
Nacional de Conduta Ética (Australiana) em Pesquisa Humana. Os autores robôs humanos. Engajar Sci. Tecnol. Soc. 5, 40-60 (2019). https://doi.org/
agradecem a esses participantes por compartilhar generosamente seus insights e 10.17351/ests2019.260
tempo para esta pesquisa. Agradecemos também aos revisores anônimos por seus 11. Epstein, Z., Levine, S., Rand, DG, Rahwan, I.: Quem recebe crédito pela arte
úteis comentários e sugestões. gerada por IA? iScience 23(9), 101515 (2020). https://doi.
org/10.1016/j.isci.2020.101515
12. Eshleman, A.: Responsabilidade Moral. In: Zalta, EN (ed.) The Stanford
Contribuições dos autores Todos os autores contribuíram igualmente para o
Encyclopedia of Philosophy (Edição de Inverno de 2016). https://
desenvolvimento do tema e da argumentação do artigo. DMD escreveu o texto, com
plato.stanford.edu/archives/win2016/entries/moral-respo
contribuições de DH e JL.
bilidade/ (2016). Acessado em 12 de janeiro de 2021
13. Gunkel, DJ: Cuidado com a lacuna: robótica responsável e o problema da
Financiamento Esta pesquisa foi financiada pela CSIRO's Responsible Innovation
responsabilidade. Ética Inf. Tecnol. (2017). https://doi.
Future Science Platform.
org/10.1007/s10676-017-9428-2
14. Hanson, FA: Além da bolsa de pele: sobre a responsabilidade moral das
Disponibilidade de dados e materiais Não aplicável. agências estendidas. Ética Inf. Tecnol. 11(1), 91-99 (2009). https://doi.org/
10.1007/s10676-009-9184-z

Conformidade com os padrões éticos 15. Hart, HLA: Punição e Responsabilidade: Ensaios na Filosofia do Direito, 2ª ed.
Oxford University Press, Oxford (2008)
16. Heaven, D.: O designer mudando a forma como as aeronaves são construídas.
Conflito de interesse Em nome de todos os autores, o autor correspondente declara
Futuro da BBC. https://www.bbc.com/future/article/20181129-the-ai-trans
que não há conflito de interesse.
formando-o-caminho-de-aviões-são-construídos (2018). Acessado em 8 de junho de 2020
17. Jackson, C.: Design generativo e ética de engenharia: onde está a interseção?
Disponibilidade do código Não aplicável.
Insights do ciclo de vida. https://www.lifecycleinsigh
ts.com/generative-design-and-engineering-ethics-wheres-the-inter
seção/ (2019). Acessado em 23 de novembro de 2020
Acesso Aberto Este artigo está licenciado sob uma Licença Creative Commons
18. Johnson, DG: Sistemas de computador: entidades morais, mas não agentes
Atribuição 4.0 Internacional, que permite o uso, compartilhamento, adaptação,
morais. Ética Inf. Tecnol. 8(4), 195-204 (2006). https://doi.
distribuição e reprodução em qualquer meio ou formato, desde que você dê os
org/10.1007/s10676-006-9111-5
devidos créditos ao(s) autor(es) original(is) e ao fonte, fornecer um link para a licença
19. Kicinger, R., Arciszewski, T., de Jong, K.: computação evolutiva e projeto
Creative Commons e indicar se foram feitas alterações. As imagens ou outro material
estrutural: um levantamento do estado da arte.
de terceiros neste artigo estão incluídos na licença Creative Commons do artigo, a
menos que indicado de outra forma em uma linha de crédito para o material. Se o Computar. Estrutura. 83, 1943-1978 (2005). https://doi.org/10.1016/j.
material não estiver incluído compstruc.2005.03.002
20. Knight, T., Stiny, G.: Fazendo gramáticas: da computação com formas à
a licença Creative Commons do artigo e seu uso pretendido não for permitido por
computação com coisas. Des. Viga. 41, 8-28 (2015). https
regulamentação legal ou exceder o uso permitido, você precisará obter permissão
://doi.org/10.1016/j.destud.2015.08.006
diretamente do detentor dos direitos autorais. Para ver uma cópia desta licença,
21. Lehman, J., Clune, J., Misevic, D., Adami, C., Altenberg, L., Beaulieu, J., et al.:
visite http://creativecommons.org/licenses/by/4.0/.
A surpreendente criatividade da evolução digital: uma coleção de anedotas da
evolução computação e comunidades de pesquisa de vida artificial. Artif. Vida
26, 274-306 (2020). https://doi.org/10.1162/artl_a_00319

Referências 22. Lohn, JD, Hornby, GS, Linden, DS: Uma antena evoluída para implantação na
missão de tecnologia espacial 5 da NASA. Em: O'Reilly, UM, Yu, T., Riolo, R.,
Worzel, B. (eds.) Teoria e Prática de Programação Genética II, pp. 301-315.
1. Allen, C., Wallach, W., Smit, I.: Por que a Ética da Máquina? In: Ander son, M.,
Springer, Boston (2005)
Anderson, SL (eds.) Machine Ethics, pp. 51–61. Cam bridge University Press,
23. Matthias, A.: A lacuna de responsabilidade: atribuindo responsabilidade pelas
Cambridge (2011)
ações de autômatos de aprendizagem. Ética Inf. Tecnol. 6(3), 175-183 (2004).
https://doi.org/10.1007/s10676-004-3422-1

13
Machine Translated by Google

IA e Ética (2021) 1:273-281 281

24. McCormack, J., Giford, T., Hutchings, P.: Autonomia, autenticidade, autoria e 31. Samuelson, P.: AI autoria? Comum. ACM 63(7), 20-22 (2020). https://doi.org/
intenção na arte gerada por computador. In: Ekárt, A., Liapis, A., Castro Pena, 10.1145/3401718
ML (eds.) Inteligência Computacional em Música, Som, Arte e Design. 32. Stahl, BC, Coeckelbergh, M.: Ética da robótica em saúde: rumo à pesquisa e
EvoMUSART 2019, pp. inovação responsáveis. Robô. Auton. Sistema 86, 152-161 (2016). https://
35-50. Springer, Cham (2019) doi.org/10.1016/j.robot.2016.08.018
25. Moor, JH: A natureza, importância e dificuldade da ética da máquina. In: 33. Stanley, KO: Redes de produção de padrões de composição: uma nova
Anderson, M., Anderson, SL (eds.) Machine Ethics, pp. 13–20. Cambridge abstração de desenvolvimento. Genet. Programa Evolutivo Mach. 8(2),
University Press, Cambridge (2011) 131-162 (2007). https://doi.org/10.1007/s10710-007-9028-8
26. Nissenbaum, H.: Accountability in a Computerized Society. In: Friedman, B. (ed.) 34. Trefzer, MA, Tyrrell, AM: Evolvable Hardware: From Practice to Application.
Valores humanos e o design da tecnologia do computador, pp. 41-64. Springer, Berlim (2015)
Publicações CSLI e Cambridge University Press, Nova York (1997) 35. Tutum, CC, Vouga, E., Chockchowwat, S., Miikkulainen, R.: Design generativo
funcional: uma abordagem evolucionária da impressão 3D. Paper apresentado
27. Noorman, M.: Computação e Responsabilidade Moral. In: Zalta, EN (ed.) The na conferência de computação genética e evolutiva (GECCO '18), Kyoto,
Stanford Encyclopedia of Philosophy (Edição de primavera de 2018). https:// Japão, 15 a 19 de junho de 2018
plato.stanford.edu/archives/spr2018/entri
es/computing-responsibility/ (2018). Acessado em 12 de janeiro de 2021 36. van de Poel, I.: A relação entre responsabilidade voltada para o futuro e para
28. Noorman, M., Johnson, DG: Negociando Autonomia e Responsabilidade em trás. In: Vincent, NA, van de Poel, I., van den Hoven, J. (eds.) Moral
Robôs Militares. Ética Inf. Tecnol. 16(1), 51-62 (2014). https://doi.org/10.1007/ Responsibility, pp. 37-52. Springer, Dordrecht (2011)
s10676-013-9335-0
29. Owen, R., Stilgoe, J., Macnaghten, P., Gorman, M., Fisher, E., Guston, D.: Uma
estrutura para inovação responsável. In: Owen, R., Bessant, J., Heintz, M. Nota do editor Springer Nature permanece neutro em relação a reivindicações
(eds.) Inovação Responsável: Gerenciando a Emergência Responsável da jurisdicionais em mapas publicados e afiliações institucionais.
Ciência e Inovação na Sociedade, pp. 27-50. Wiley, Chichester (2013)

30. Renner, G., Ekárt, A.: Algoritmos genéticos em projeto auxiliado por computador.
Computar. Ajudado Des. 35(8), 709-726 (2003). https://doi.
org/10.1016/S0010-4485(03)00003-4

13

Você também pode gostar