Você está na página 1de 5

A responsabilidade

jurídico-penal da
inteligência artificial
Tema elaborado por André Fontes

Introdução: defi nição de inteligência artifi cial e apresentação


dos problemas em análise
O dicionário Britannica define inteligência artificial como “a habilidade
de um computador ou um robot controlado por um computador realizar
tarefas normalmente associadas a seres inteligentes”. Podem-se distinguir
os sistemas de IA fortes (procuram seguir a mesma forma de raciocínio dos
humanos), fracos (funcionam sem simular o raciocínio de um ser humano) e
gerais (usam o raciocínio humano enquanto modelo, mas não enquanto
finalidade)1.
Partindo-se do pressuposto que é possível criar um sistema de IA
capaz de ter consciência das suas ações, poderá ser este alvo de
responsabilidade jurídico-penal quando estas se enquadrem na figura de um
crime, não obstante não serem pessoas humanas? Se sim, como seria
aplicado o Direito e como se iriam concretizar as punições resultantes?

A responsabilidade jurídico-penal da inteligência artifi cial: o


atendimento da IA aos requisitos da responsabilidade jurídico-penal
e a problemática da pena
O autor enquanto sistema artificial:
Apesar de, por regra, o autor da ação penalmente relevante ser uma
pessoa singular, GABRIEL HALLEVY justifica a razoabilidade da
responsabilidade jurídico-penal da IA fazendo analogia à admissão da
responsabilidade das pessoas coletivas 2, com base na evolução da
sociedade, das novas circunstâncias e dos problemas emergentes, pois do
mesmo modo que no passado o surgimento de organizações criminais mais
organizadas e complexas levariam a que a manutenção da responsabilidade
exclusivamente individual pudesse conduzir a casos de impunidade 3,
também o surgimento de IA capaz de saber, querer e/ou ponderar a prática
de um crime pela sua ação poderia conduzir a casos de impunidade se a sua
responsabilidade não fosse admitida pelo Direito Penal. Entende o autor que
a moral e as ideias de “bem” e “mal” são irrelevantes para o Direito Penal,

1
HAMMOND, Kris, What is artificial intelligence?, in Computerworld.
2
HALLEVY, Gabriel, When Robots Kill: Artificial Intelligence under Criminal Law ,
2013, p. 177.
3
DIAS, Jorge de Figueiredo, Direito Penal: Parte Geral, 2007, pp. 296 e 297.
logo não se deverá atender se um sistema de IA é capaz de compreender
tais conceitos.

O tipo subjetivo de ilícito:


O dolo do agente é requisito essencial para a punibilidade do facto.
Para um sistema de IA agir dolosamente, teria que cumulativamente i.
querer ou representar a necessidade ou possibilidade e conformar-se com a
prática de um facto que preenche um tipo de crime (art. 14º); ii. saber que o
facto praticado seria ilícito (art. 17º); e iii. que não esteja em erro que
exclua a culpabilidade (art. 16º). Nos casos especialmente previstos pode
ainda ser admitida a negligência, enquanto inobservância de deveres de
cuidado (que teria a IA igualmente de conhecer), mas requerendo sempre o
conhecimento do facto preencher um tipo de crime.

Excusas de ilicitude e causas de inimputabilidade:


HALLEVY admite a possibilidade de equiparação à AI de causas de
inimputabilidade como, por exemplo, no caso em que um robot encarregue
de desempenhar tarefas de guarda prisional sofre um ataque informático de
um hacker que, com o propósito de libertar um recluso, altera uma série de
comandos do seu sistema de IA, resultando na morte de um guarda
prisional (humano), em circunstâncias que no seu estado de normal
funcionamento nunca ocorreriam, ou de casos de exclusão de ilicitude por
situações como auto--defesa, estado de necessidade ou ordem superior
(neste último caso, relembra-se que não é excluída a responsabilidade
daquele que utiliza a IA para cometer um crime, ou que não observa os
devidos deveres de cuidado relativos à sua posse ou utilização). 4

A pena:
Tal como no caso das pessoas coletivas, não seria possível aplicar as
mesmas penas previstas para pessoas singulares a sistemas de IA. GABRIEL
HALLEVY pressupõe a equiparação das penas à natureza da IA, equiparando
penas de prisão através da restrição das atividades do sistema de IA e da
supervisão das suas atividades pelo tribunal, das penas de multa através de
horas de trabalho e até de penas capitais através da desativação ou
destruição do sistema5. RACHEL Charney afirma que a pena por horas de
trabalho revela uma série de problemas, como i. sendo os sistemas de IA
realisticamente criados para execução de funções específicas, não poderia
ser punido pela realização de tarefas diferentes daquelas foi programado; ii.
a realização da mesma tarefa para qual foi criado para fins públicos seria
perigosa, visto que a IA se mostrou indigna de confiança; iii. não é explícito
como as suas funções seriam supervisionadas, dada a complexidade que

4
HALLEVY, Gabriel, When Robots Kill: Artificial Intelligence under Criminal Law,
2013, p. 120 e ss.
5
HALLEVY, Gabriel, When Robots Kill: Artificial Intelligence under Criminal Law ,
2013, p. 156 e ss.
tais sistemas apresentam no seu funcionamento; iv. um sistema de IA não
possui nada, nem mesmo as suas horas de trabalho, pelo que tal pena seria
prejudicial aos seus proprietários inocentes6.
As penas capitais não seriam verdadeiramente úteis nem se
poderia aceitar uma pena puramente retributiva (art. 40º/1). Sobra a
hipótese apresentada pelo autor de uma pena alternativa de reabilitação,
através da reabilitação e reprogramação da IA de modo a corrigir eventuais
falhas que conduziram à prática de um crime, apesar de faltar uma solução
que permitisse assegurar que o sistema de IA não voltaria a cometer o
mesmo crime.

A inteligência artifi cial com relevância para o Direito Penal no


presente: os casos dos drones militares e dos automóveis
autónomos
A Google celebrou um contrato com o Departamento de Defesa dos
EUA para o desenvolvimento e aplicação de sistemas de IA em drones
militarizados7, supostamente usados no combate ao Estado Islâmico 8. O
sistema não funciona de modo integralmente automático requerendo ainda
ação humana, mas caso os drones funcionassem de modo totalmente
automático, poderiam ser alvo de responsabilidade jurídico-penal pelo crime
de homicídio face aos civis que atingissem?
A fabricante automóvel Tesla tem atualmente disponíveis no mercado
três veículos capazes de conduzir de forma autónoma através de um
sistema de IA9. Com a crescente autonomia do sistema que eventualmente
resulte na sua capacidade de funcionamento completamente autónomo, no
caso de um acidente do qual resulte a morte de uma pessoa, será a
responsabilidade do proprietário, de quem se encontrasse no interior do
veículo, do fabricante ou do próprio automóvel?

Visão hipotética da inteligência artifi cial no futuro: a


consciência da IA e o caso dos synths no videojogo Fallout 4
Dado o enorme avanço nas áreas de informática e inteligência
artificial em menos de um século, é impensável que a tecnologia na área da
IA não seja aperfeiçoada ao ponto de vir a ser dotado de inteligência

6
CHARNEY, Rachel, Can Androids Plead Automatism? A Review Of When The Robots
Kill: Artificial Intelligence under Criminal Law By Gabriel Hallevy, 2015.
7
Intitulado Project Maven, a Google afirmou que não irá renovar o contrato que
terminará em 2019 devido à pressão pública.
8
ALLEN, Gregory C., Project Maven brings AI to the fight against ISIS, in Bulletin of
the Atomic Scientists.
9
São nomeadamente o Model S, Model X e Model 3. Em 2017 foi iniciado um
processo no tribunal federal da Califórnia pela alegada perigosidade e anomalias do
sistema, que resultou numa atualização do sistema que veio limitar as
funcionalidades bem como obrigar o condutor a supervisionar o veículo a todo o
momento, bem como um acordo alcançado em maio do presente ano.
equiparável a um ser humano (enquadrando as capacidades de memória,
imaginação, juízo, raciocínio, abstração e conceção). 10
No universo do videojogo Fallout 411, a questão da inteligência da IA
equiparada àquela dos humanos é abordada com grande relevo através dos
synths, robots orgânicos dotados de IA aparentemente perfeita – sendo tão
credíveis que não só não é possível a quem desconheça a sua origem os
distinguir de autênticos seres humanos, nem os próprios synths seriam
capazes de conhecer desse facto caso as suas memórias fossem apagadas,
acreditando ser humanos e sendo capazes de, por exemplo, aprender pelas
suas experiências, socializar e formar a sua própria personalidade.
Caso os avanços tecnológicos venham a permitir criar o equivalente a
um synth, seria este passível de responsabilidade jurídico-penal equiparável
a uma pessoa?

Conclusão
Com o constante avanço na área da inteligência artificial, será
plausível e necessário a admissão de sistemas de IA enquanto autores de
factos jurídico-penalmente relevantes e a respetiva criação de um regime
penal próprio, de modo a evitar casos de impunibilidade. No entanto, as
atuais teses e monografias relacionadas ao tema ainda se prendem muito
ao campo da ficção científica, requerendo para tal um estudo continuado
em colaboração com especialistas na matéria.
Por outro lado, atualmente ainda não se verifica uma necessidade por
tal legislação, uma vez que os atuais sistemas de IA em funcionamento não
dispõem de conhecimento próprio da tipologia de factos que preenchem
tipos de crime que lhes permitisse agir com dolo ou negligência. No entanto,
os presentes esforços de empresas como a Tesla em desenvolver sistemas
de IA que precisam de lidar com situações especialmente passíveis de
resultar na prática de crimes requerem o estabelecimento de fronteiras,
bem como o desenvolvimento de doutrina que conduza à produção de
legislação adequada.

Bibliografi a
https://www.bostonglobe.com/ideas/2013/03/01/should-put-robots-trial/
IjynaQk7bARI4fAnENLELO/story.html
https://www.britannica.com/technology/artificial-intelligence
CHARNEY, Rachel, Can Androids Plead Automatism? A Review Of When The
Robots Kill: Artificial Intelligence under Criminal Law By Gabriel Hallevy,
2015

10
Conforme a definição presente no dicionário Priberam.
11
Videojogo de role-playing publicado em 2015 e vencedor do prémio Best Game of
the Year atribuído pela Academy of Interactive Arts & Sciences, cujo enredo tem
lugar nos anos de 2077 e 2177, num universo alternativo no qual a Guerra Fria
nunca acabara, culminando num ataque nuclear da China aos EUA.
https://www.computerworld.com/article/2906336/emerging-technology/
what-is-artificial-intelligence.html
DIAS, Jorge de Figueiredo, Direito Penal: Parte Geral, 2007
https://www.forbes.com/sites/bernardmarr/2018/02/14/the-key-definitions-
of-artificial-intelligence-ai-that-explain-its-importance/#74f4faca4f5d
HALLEVY, Gabriel, When Robots Kill: Artificial Intelligence under Criminal
Law, 2013
https://www.priberam.pt/dlpo/intelig%C3%AAncia
https://www.reuters.com/article/us-tesla-autopilot-lawsuit/tesla-agrees-to-
settle-class-action-over-autopilot-billed-as-safer-idUSKCN1IQ1SH
https://thebulletin.org/2017/12/project-maven-brings-ai-to-the-fight-against-
isis/
https://www.theguardian.com/technology/2018/mar/07/google-ai-us-
department-of-defense-military-drone-project-maven-tensorflow