Escolar Documentos
Profissional Documentos
Cultura Documentos
Brasília
2023
ALDO JOSÉ BARROS BARATA DE OLIVEIRA
BRASÍLIA
2023
ALDO JOSÉ BARROS BARATA DE OLIVEIRA
BANCA EXAMINADORA
Orientador
Membro Interno
Membro Externo
À minha esposa e às minhas
filhas, responsáveis pela
concretização dos meus
sonhos;
Aos meus pais, minha irmã e
meu saudoso e eterno irmão.
AGRADECIMENTOS
CF Constituição Federal
IA Inteligência Artificial
IEEE Institute of Electrical and Electronic Engineers
IoT Internet of Things
NHTSA National Highway Traffic Safet Administration
SAE Society of automotive Engineers
VA Veículos Autônomos
SUMÁRIO
SUMÁRIO ................................................................................................................................. 8
INTRODUÇÃO ...................................................................................................................... 10
CAPÍTULO 1 - PANORAMA DA INTELIGÊNCIA ARTIFICIAL E DOS VEÍCULOS
AUTÔNOMOS ....................................................................................................................... 15
1.1 A capacidade de contar estórias – Storytelling: um diferencial .......................... 15
1.2 Breve histórico e principais conceitos pertinentes à Inteligência Artificial ...... 17
1.3 O algoritmo ............................................................................................................. 20
1.4 Aprendizagem automática e redes neurais .......................................................... 22
1.5 Moral machine ......................................................................................................... 26
1.6 Os riscos das decisões algorítmicas ....................................................................... 29
1.6.1 Os riscos dos vieses .............................................................................................. 30
1.6.2 O risco da opacidade da tecnologia: a questão da transparência ...................... 31
1.7 Veículos autônomos ................................................................................................ 35
1.7.1 Breve histórico dos carros autônomos ................................................................. 36
1.7.2 Os níveis de autonomia ........................................................................................ 39
1.8 A questão ética dos veículos autônomos ............................................................... 42
1.9 Perspectivas ético-normativas ............................................................................... 45
1.9.1 Iniciativas de regulação ....................................................................................... 48
CAPÍTULO 2 – A PERSPECTIVA DA RESPONSABILIDADE PENAL DIANTE DA
SOCIEDADE DE RISCO ...................................................................................................... 55
2.1 A sociedade de risco ................................................................................................ 55
2.2 Responsabilidade no direito penal brasileiro ....................................................... 63
2.2.1 O fato típico como elemento nuclear do crime..................................................... 63
2.2.2 Sujeito ativo do crime: da dogmática tradicional aos entes autônomos .............. 64
2.3 Breve olhar para as justificantes e exculpantes ................................................... 74
2.3.1 Problemas ao plano das causas de justificação ................................................... 75
2.3.2 Problemas ao plano da desculpa.......................................................................... 79
2.4 Dilemas clássicos resgatados pela condução automatizada ................................ 81
2.5 Excurso ao utilitarismo e ao princípio do mal menor ......................................... 84
2.6 Apresentação das situações dilemáticas ............................................................... 91
2.6.1 O caso hipotético clássico .................................................................................... 92
2.6.2 O caso histórico de Aschaffenburg....................................................................... 92
CAPÍTULO 3 – INTRODUÇÃO DOS ASPECTOS DA IMPUTAÇÃO OBJETIVA..... 94
3.1 O surgimento da moderna teoria da imputação objetiva ................................... 95
3.2 O nexo causal e o nexo normativo ......................................................................... 99
3.3 Aspectos da teoria da imputação objetiva de Claus Roxin ............................... 104
3.3.1 O risco proibido como elemento da teoria da imputação objetiva .................... 108
3.3.2 A exclusão da imputação .................................................................................... 115
3.3.3 Caracterização das “comunidades de perigo”? ................................................ 116
3.3.4 O princípio da confiança e o enlace com o risco permitido .............................. 117
3.4 O algoritmo de acidente sob a ótica da imputação objetiva ............................. 121
3.4.1 Sob a perspectiva do sistema autônomo ............................................................. 124
3.4.2 Sob a perspectiva do usuário ............................................................................. 129
3.4.3 Sob a perspectiva do fabricante do veículo ........................................................ 133
3.5 Propostas de soluções e o seu rendimento para solução de conflitos ............... 146
3.5.1 A regulamentação técnico-administrativa ......................................................... 147
3.5.2 A proposta da criação de um tipo penal ............................................................ 152
3.5.3 A Teoria da Evitabilidade ou a não-realização do risco no resultado .............. 153
3.5.4 Alternativa ao consenso: o processo randômico ................................................ 159
3.6 Constelação fática de casos concretos para solução de conflitos ...................... 161
3.7 Resultado ............................................................................................................... 164
CONCLUSÃO....................................................................................................................... 167
REFERÊNCIAS ................................................................................................................... 173
INTRODUÇÃO
Para a consecução do objetivo geral, o trabalho foi estruturado em três capítulos, além
da presente introdução, da conclusão e das referências. Cada capítulo versa sobre um estágio
necessário à dialógica propositiva derivada da problematização colocada. Portanto, segundo a
matriz metodológica, optou-se por uma abordagem teórica. Por intermédio de pesquisa
bibliográfica, legislativa e documental, o trabalho se desenvolve em quatro etapas.
A primeira se concentrará no panorama acerca da inteligência artificial. O capítulo
inicial do desenvolvimento, de cunho introdutório e de contextualização, almeja precipuamente
brindar a pesquisa com o estado da arte da IA. Antes, porém, será realizada uma abordagem
histórica, seguida de sua descrição, definição e caracterização, bem como os modelos de
aprendizagem do sistema autônomo e demais desdobramentos e conceitos técnicos afins para,
então, tecer algumas anotações necessárias sobre seu processo de tomada de decisão. Ainda,
traz o problema da opacidade da tecnologia, enquadrado no conceito de black box.
Debruça-se, também, sobre o surgimento e funcionamento dos carros autônomos no
contexto da sociedade de riscos, como uma das soluções para os problemas existentes no
trânsito, focando-se em um primeiro momento em seu histórico e nos níveis de autonomia
existentes. Em seguida, será levantada a questão ética pertinente aos sistemas inteligentes,
adentrando-se também na análise das perspectivas ético-normativas atinentes ao uso dos carros
inteligentes. Esse ponto realizar-se-á por intermédio de pesquisa documental exploratória.
A segunda etapa do desenvolvimento se debruça inicialmente na abordagem normativo-
jurídica da responsabilidade no direito penal e, discorrendo sobre os elementos iniciais que
compõem o conceito analítico do crime, enfrenta-se a possibilidade do próprio sistema
autônomo se caracterizar como sujeito ativo do crime.
Após, objetiva-se lançar luz sobre as situações dilemáticas, as quais protagonizam o
cenário objeto desse estudo, por serem as incitadoras dos debates sobre quem deve responder
pelos resultados que delas advêm. Para tanto, serão descritos alguns casos concretos ocorridos
em países em estado mais avançado – notadamente Estados Unidos e países da Europa – no uso
da IA em veículos, realizando-se pesquisa bibliográfica descritiva selecionada, a partir de
material acadêmico já produzido e notícias midiáticas.
O terceiro capítulo abordará a teoria da imputação objetiva como eventual solução para
a atribuição da responsabilidade penal na sociedade de riscos, perpassando seu conceito e
pressupostos, para averiguação quanto à sua utilização ao problema apresentado. A constelação
de casos apresentada no segundo capítulo, combinada com as propostas de soluções,
14
A Liberdade e a Justiça
A revolução do século XX separou arbitrariamente, para fins desmesurados de
conquista, duas noções inseparáveis. A liberdade absoluta mete a justiça a ridículo. A
justiça absoluta nega a liberdade. Para serem fecundas, as duas noções devem
descobrir os seus limites uma dentro da outra. Nenhum homem considera livre a sua
condição se ela não for ao mesmo tempo justa, nem justa se não for livre.
Precisamente, não pode conceber-se a liberdade sem o poder de clarificar o justo e o
injusto, de reivindicar todo o ser em nome de uma parcela de ser que se recusa a
extinguir-se. Finalmente, tem de haver uma justiça, embora bem diferente, para se
restaurar a liberdade, único valor imperecível da história. Os homens só morrem bem
quando o fizeram pela liberdade: pois, nessa altura, não acreditavam que morressem
por completo. 1
Albert Camus, "O Mito de Sísifo"
Outro ponto característico diz com a capacidade cognitiva do ser humano que, ao somar
a técnica da linguagem, habilita-se a construir cenários pretéritos, os quais o ajudam a
compreender o presente e formar projeções servis ao futuro. Isto se dá em razão da aptidão para
1
CAMUS, Albert; O’BRIEN, Justin, The myth of Sisyphus and other essays, 1st Vintage international ed. New
York: Vintage Books, 1991.
2
SCHWAB, Klaus, A quarta revolução industrial [livro eletrônico], São Paulo: Edipro, 2016, p. 22.
3
RODOTÀ, Stefano, A vida na sociedade da vigilância: a privacidade hoje, Rio de Janeiro: Renovar, 2008,
p. 38.
16
contar estórias, o que se denomina storytelling4. A cultura, por sua vez, é resultado da soma
entre linguagem e os contextos capturados com os cenários históricos5. Logo, se a ideia
fundamental da IA é imitar a mente humana, e como visto este não é considerado um ser
estatístico, um sistema de IA que não possa contextualizar aspectos subjetivos do agente em
análise, certamente, afastar-se-á de uma diagnose e prognose precisas, entregando uma resposta
inadequada, porque oferecer uma resposta média não diz com a ideia de justiça6.
Portanto, importante fixar essa premissa de que a cultura não exsurge de dados
estatísticos. Seus indivíduos podem até serem simpáticos a padrões predeterminados sem,
contudo, tomarem suas decisões somente com base na racionalidade. Por essa razão, não parece
que a máquina, no atual estado da arte da tecnologia, seja capaz de entender as reações humanas,
a ponto de decidir por si só7.
Em verdade, é que até este ponto da história não foi descoberto nada parecido com as
redes neurais dos seres humanos. Essas redes são resultado de milhões de anos de evolução,
nos quais o ser humano “aprendeu” a se movimentar, a se alimentar, a procriar etc. As redes
neurais se desenvolveram numa aquisição instintiva, procurando soluções não exatamente
médias para problemas cotidianos. Elas derivam de algo mais profundo: o arco linguístico em
que o ser aprende a executar uma ação e associá-la a um resultado duradouro8.
Eric Hilgendorf destaca que a compreensão do termo “inteligência artificial” requer
certo esforço em razão da predisposição humana na “antropomorfização”. É que há uma
tentativa em se interpretar as capacidades mecânicas de modo análogo às capacidades humanas.
Entretanto, por uma razão de necessidade de ser singular, também se espera que os robôs tão
somente os simulem. Diante disso, a problemática: se, por um lado, há uma limitação das
máquinas a determinadas áreas, de outro, nesses áreas elas transcenderão a performance
humana de modo progressivo. O autor rememora o clássico exemplo do jogo de xadrez, no qual
o melhor dos jogadores já é facilmente vencido9.
4
SUPREMO TRIBUNAL FEDERAL, Curso: Aplicação da Inteligência Artificial ao Direito, Brasília:
Coordenadoria de Desenvolvimento de Pessoas, 2020.
5
PEDRINA, Gustavo Mascarenhas Lacerda, Consequências e perspectivas da aplicação de inteligência artificial
a casos penais, Revista Brasileira de Direito Processual Penal, v. 5, n. 3, p. 1589–1606, 2019, p. 1593.
6
BERWICK, Robert C.; CHOMSKY, Noam, Why only us: language and evolution, Cambridge, Massachusetts:
MIT Press, 2016.
7
Ibidem, p. 1.594.
8
SUPREMO TRIBUNAL FEDERAL, Curso: Aplicação da Inteligência Artificial ao Direito.
9
HILGENDORF, Eric, Digitalização e direito, São Paulo: Marcial Pons, 2020, p. 45.
17
10
Ibid.
11
LEE, Kai-Fu, Inteligência Artificial: como os robôs estão mudando o mundo, a forma como amamos, nos
relacionamos, trabalhamos e vivemos, 1. ed. Rio de Janeiro: Globo Livros, 2019. E-book.
12
SUPREMO TRIBUNAL FEDERAL, Curso: Aplicação da Inteligência Artificial ao Direito.
18
uma máquina, sendo que o objetivo do investigador agora seria identificar qual dos participantes
é o humano e qual é a máquina. Se a máquina, diante das mesmas perguntas feitas a humanos,
fosse capaz de enganar o intermediário, poder-se-ia dizer “inteligente”13.
Já no que se refere ao primeiro conceito sistematizado de inteligência artificial, ele é
atribuído à figura do matemático e cientista da computação John McCarthy. Em verdade, o
primeiro a cunhar o termo Inteligência Artificial no ano de 1955. O vanguardista conceituou-a
como arquitetura de uma rede computacional construída para o fim de realizar um conjunto
predeterminado de tarefas e, concomitantemente, aprender na medida que as executa14. Ou
ainda, é a arte de permitir que uma máquina siga a linha de inteligência humana por meio de
programas da computação. No modo original, quando questionado “What is artificial
intelligence?”, assim se manifestou:
13
TURING, Alan Mathison, Computing machinery and intelligence, Mind, v. LIX, n. 236, p. 433–460, 1950.
14
STANFORD, Engineering, Computer Science. Professor John McCarthy.
15
STANFORD, What is Artificial Intelligence?
16
EUROPEAN COMMISSION, Artificial Intelligence for Europe, Communication from the commission to the
european parliament, the european council, the council, the european economic and social committee and the
committee of the regions artificial intelligence for europe.
17
PEDRINA, Consequências e perspectivas da aplicação de inteligência artificial a casos penais, p. 1592.
18
WINSTON, Patrick, Artificial intelligence demystified, Massachusetts: Massachusetts Institute of Technology,
2018.
19
Afirmar que o homem não é uma criatura estatística significa dizer que a mente humana
requer contextualização, pois não toma suas atitudes estaticamente adequadas, mas aquelas que
culturalmente lhe apresenta como sendo a mais correta. Se o propósito é imitar a mente humana,
deve também atender esse pressuposto, sob pena de se obter tão somente uma mera resposta
média. É dizer, as redes neurais artificiais, acaso pretendam uma imitação fidedigna, hão de se
espelhar na estrutura biológica de um neurônio como um todo, projetando suas características
de modo preciso19.
O fato de não se compreender o homem como uma criatura estatística carrega a primeira
dificuldade em ser substituído por um robô, ainda que esse seja hábil para muitas atividades.
Além disso, o que torna o homo sapiens a mais inteligente de todas as espécies, para além da
sua capacidade de raciocinar, é a linguagem – um sistema de organização de pensamentos. De
maneira ilustrativa, Yuval Noah Harari20 ensina o poder da nossa linguagem:
Com efeito, é característica peculiar do ser humano a capacidade cognitiva de, adotando
a técnica da linguagem, construir cenários passados, os quais o ajudam a compreender o
presente, além de elaborar projeções para o futuro – o atributo do storytelling.
Em síntese, a inteligência reclama a capacidade de os sistemas se adaptarem a novas
circunstâncias e de extrapolarem padrões previamente estabelecidos, isto é, aprendendo com os
dados já conhecidos e, assim, produzindo novas informações capazes de subsidiar tomadas de
decisão futuras. Em outros termos, a concepção inteligente de algoritmos requer (i) análise de
dados, (ii) aprendizagem com esses dados, e, então, (iii) divulgação dos resultados e/ou das
previsões a respeito de algo. Desse modo, a inteligência das máquinas em seu sentido funcional
diz com a capacidade de aperfeiçoar seu comportamento a partir da experiência.
19
SUPREMO TRIBUNAL FEDERAL, Curso: Aplicação da Inteligência Artificial ao Direito.
20
HARARI, Yuval Noah, Sapiens. Uma breve história da humanidade, 51. ed. Porto Alegre: L&PM, 2020,
p. 31.
20
Nesta linha, muitos defendem que para a alcançar a titularidade de inteligente, é medida
que se impõe que a máquina esteja apta a compreender e adotar noções de contexto, e não
apenas se utilizar de dados estatísticos, os quais, em que pese comporem o conceito de
aprendizado por máquinas (machine learning), não tratam de IA, por fornecer tão somente a
melhor resposta estatística. É que o ser humano não é um ser estatístico, mas um ente que é
capaz de manter em si um sistema de organização de pensamentos, afinal a linguagem é
exclusiva do ser humano21. De toda forma, o desenvolvimento dos sistemas inteligentes
pressupõe a capacidade da máquina aprender, raciocinar, deliberar e de decidir de maneira
racional.
1.3 O algoritmo
Para o exame do objeto deste trabalho é necessária a incursão no elemento que ocupa a
área central dos sistemas inteligentes: o algoritmo.
A complexa sequência de etapas estruturada - o algoritmo - é a essência de qualquer
sistema de inteligência artificial. Conceitualmente, afigura-se uma sequência finita de
instruções executadas por um programa de computador, com o objetivo de processar
informações para um fim específico. Refere-se, portanto, a um procedimento computacional
pré-definido, que recebe um dado como entrada (input) e entrega uma informação como saída
(output)22.
Logo, os sistemas baseados em inteligência artificial consistem em sistemas
computacionais que, a partir de algoritmos, estão aptos a realizar previsões, recomendações ou
decisões que influenciam ambientes reais ou virtuais. A ideia é que esses sistemas possam
executar tarefas similares à inteligência humana, tais como planejamento, compreensão,
linguagem, aprendizado, raciocínio, resolução de conflitos etc. Cuida, ademais, de um conceito
guarda-chuva (umbrella concept), que condensa diversos aportes de uma teoria dos sistemas
computadorizados inteligentes23.
Em outros termos, o algoritmo é definido como “um plano de ação pré-definido a ser
seguido pelo computador, de maneira que a realização contínua de pequenas tarefas simples
possibilitará a realização da tarefa solicitada sem novo dispêndio de trabalho humano” 24. Em
21
BERWICK; CHOMSKY, Why only us.
22
REIS, Paulo Victor Alfeo, Algoritmos e o direito, São Paulo: Almedina, 2020, p. 119–120.
23
Ibid., p. 133–134.
24
NUNES, Dierle; MARQUES, Ana Luiza Pinto Coelho, Inteligência artificial e direito processual: vieses
algoritmo e os riscos de atribuição de função decisória às máquinas, Revista de Processo, v. 285, 2018, p. 3.
21
25
WALKER, Joshua, On legal AI: um rápido tratado sobre a inteligência artificial no Direito, São Paulo:
Thomson Reuters Brasil, 2021, p. 73.
26
FRAZÃO, Ana. Fundamentos da proteção dos dados pessoais. Noções introdutórias para a compreensão da
importância da Lei Geral de Proteção de Dados, in: A Lei Geral de Proteção de Dados Pessoais e suas
repercussões no Direito Brasileiro [livro eletrônico]. São Paulo: Revista dos Tribunais, 2019.
27
ARNDT, A. B. Al-Khwarizmi, The Mathematics Teacher, v. 76, p. 668–670, 1983.
28
REIS, Algoritmos e o direito, p. 112–113.
29
OSOBA, Osonde A.; WELSER, William IV, An intelligence in our image: the risks of bias and errors in
artificial intelligence, Santa Monica: RAND Corporation, 2017, p. 4–5.
30
MENDES, Laura Schertel; MATTIUZZO, Marcela, Discriminação Algorítmica: conceito, fundamento legal e
tipologia, v. 16, n. 90, p. 26, 2019, p. 43.
22
31
BERLINSKI, David, O advento do algoritmo: a idéia que governa o mundo, São Paulo: Globo, 2002.
32
“Não precisamos temer os computadores; devemos usá-los. Para fazer isso, é necessário julgamento. O bom
senso não pode ser resumido em doze regras de vida, sete hábitos de pessoas eficazes ou mesmo vinte e uma lições
para o século XXI. A inteligência humana e a inteligência artificial são diferentes, e a última aprimora em vez de
substituir a primeira”. In: KAY, John; KING, Mervyn A., Radical uncertainty: decision-making beyond the
numbers, New York: W.W. Norton & Company, 2020, p. 176.
33
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da, A responsabilidade civil pelos atos autônomos da
inteligência artificial: notas iniciais sobre a resolução do parlamento europeu, Revista Brasileira de Políticas
Públicas, v. 7, n. 3, 2018, p. 242.
34
PEREIRA, Gabriela Bueno, Direito e inteligência artificial: a ética dos carros autônomos, Seminário sobre
Inteligência Artificial, Proteção de Dados e Cidadania, v. Anais do II Seminário sobre Inteligência Artificial,
Proteção de Dados e Cidadania [recurso eletrônico], p. 82–99, 2021, p. 84.
35
LENZ, Maikon Lucian, Fundamentos de aprendizagem da máquina, Porto Alegre: Sagah, 2020. E-book.
23
uma série considerável de dados, dos quais se extraem regras. Pontua-se que se trata de um
processo contínuo, em que os significados são construídos progressivamente.
A aprendizagem automática (machine learning) se subdivide em técnicas, cada qual
apropriada para diferentes tipos de tarefas e problemas. São elas: aprendizagem profunda (deep
learning), aprendizagem supervisionada (supervised learning), aprendizagem não
supervisionada (non supervised learning) e aprendizagem por reforço (reinforcement
learning)36.
A aprendizagem profunda utiliza as redes neuronais artificiais profundas capazes de
fazerem ligações entre as tarefas aprendidas e novos conteúdos, em um processo circular37.
Assim, no treino inicial, o programador constrói um mapa que liga as diferentes camadas
identificadas nos dados tratados a determinadas ações, a exemplo do acionamento da frenagem
diante do reconhecimento de um pedestre atravessando a pista38. A interconectividade entre as
redes neurais permite a formação do processo decisório de escolhas do software a escolher uma
das ações possíveis resulta da interconectividade destas redes neuronais, assimilando a partir
dos erros de sua experiência, e não de regras introduzidas no programa.
Na aprendizagem supervisionada o processo de aprendizagem ocorre sob condições
controladas, isto é, especialmente com comandos controlados. Os dados já rotulados como
negativos ou positivos são previamente eleitos pelo homem, sendo que a identificação vai
ocorrendo aos poucos, a partir dos erros e acertos. O desenvolvedor permanece no controle
sobre o que o sistema está aprendendo. O sucesso da aprendizagem também é controlado39.
Na aprendizagem não-supervisionada, ou seja, de sistemas autodidatas, o controle é
absolutamente inexistente, os dados não recebem um rótulo inicial, permitindo o algoritmo por
si só valorar e aprender as operações. As máquinas aprendem sozinhas, sem que o conteúdo ou
o sucesso da aprendizagem tenham sido predefinidos. Não existe nem mesmo controle sobre os
resultados. São processos de aprendizagem que não permitem serem controlados, razão pela
qual a autorização de tais sistemas e ao uso de áreas que requerem segurança, devem ser
extremamente inspecionados40.
36
SURDEN, Harry; WILLIAMS, Mary-Anne, Technological opacity, predictability, and self-driving cars,
Cardozo Law Review, v. 38, n. 121, p. 121–182, 2016, p. 155–165.
37
KARNOW, Curtis E.A., Liability for Distributed Artificial Intelligences, Berkeley Technology Law Journal,
v. 11, n. 1, p. 147–205, 1996, p. 156.
38
SURDEN; WILLIAMS, Technological opacity, predictability, and self-driving cars, p. 141.
39
HILGENDORF, Digitalização e direito, p. 87–88.
40
Ibid.
24
41
HARARI, Sapiens. Uma breve história da humanidade, p. 419–420.
42
YOU, Changxi et al, Advanced planning for autonomous vehicles using reinforcement learning and deep inverse
reinforcement learning, Robotics and Autonomous Systems, v. 114, p. 1–18, 2019, p. 2.
43
HILGENDORF, Digitalização e direito, p. 87–88.
44
COWGER, Alfred R. Jr., Liability considerations when autonomous vehicles choose the accident victim,
Journal of High Technology Law, v. 19, n. 1, p. 1–60, 2018, p. 4.
25
45
SURDEN; WILLIAMS, Technological opacity, predictability, and self-driving cars, p. 142.
46
Teoria cuja aplicabilidade será observada nos próximos capítulos.
47
HILGENDORF, Digitalização e direito, p. 58.
48
GRIEMAN, Keri, Hard drive crash, an examination of liability for self-driving vehicles, Journal of Intellectual
Property, Information Technology and Electronic Commerce Law, v. 9, p. 294–309, 2018, p. 230.
49
LINA, Dafni, Could AI agents be held criminally liable: artificial intelligence and the challenges for criminal
law, South Carolina Law Review, v. 69, p. 677–696, 2018, p. 696.
26
Se antes a ambição dos sistemas de IA era tão somente imitar os processos cognitivos
humanos, hoje seus objetivos são bem mais ousados, visando “desenvolver autômatos que
resolvam alguns problemas muito melhor que os humanos, por todos os meios disponíveis”52.
50
SOUSA, Susana Aires de, Não fui eu, foi a máquina: teoria do crime, responsabilidade e inteligência artificial,
in: RODRIGUES, Anabela Miranda (Org.), A inteligência artificial no direito penal, Coimbra: Almedina, 2020,
p. 72.
51
SUPREMO TRIBUNAL FEDERAL, Curso: Aplicação da Inteligência Artificial ao Direito.
52
NUNES; MARQUES, Inteligência artificial e direito processual: vieses algoritmo e os riscos de atribuição de
função decisória às máquinas, p. 3.
27
53
Laura Mendes classifica quatro hipóteses de discriminação: a) discriminação por erro estatístico; b)
discriminação por generalização; c) discriminação pelo uso de informações sensíveis; d) discriminação limitadora
do exercício de direitos. In: MENDES; MATTIUZZO, Discriminação Algorítmica: conceito, fundamento legal e
tipologia, p. 51–52.
54
FRAZÃO, Ana, Discriminação algorítmica: superando estatísticas e cálculos probabilísticos, Jota, 2021.
55
MARCHANT, Gary; BAZZI, Rida, Autonomous vehicles and liability: what will juries do?, Boston University
Journal of Science and Technology Law, v. 26, n. 1, p. 67–119, 2020, p. 89–90.
28
56
CAETANO, Matheus Almeida, Os algoritmos de acidente para carros autônomos e o direito penal: análises e
perspectivas, Revista de Estudos Criminais, v. 19, n. 77, p. 149–192, 2020, p. 156.
57
MASSACHUSETTS INSTITUTE OF TECHNOLOGY, Moral Machine, disponível em:
<https://www.moralmachine.net/>. acesso em: 1 ago. 2022.
29
58
SUPREMO TRIBUNAL FEDERAL, Curso: Aplicação da Inteligência Artificial ao Direito.
59
Ibid.
30
mata seus ocupantes ou os pedestres? Ou seja, quem será sacrificado? Quem será responsável
pela vida sacrificada? Aliás, esse é o dilema cerne da presente pesquisa.
Essas respostas não são facilmente alcançáveis, mormente por envolver questões éticas
e filosóficas. Além do que, ainda que as decisões ocorram com suporte no fenômeno do
machine learnig, a IA preditiva tem origem na iniciativa humana na programação, o que faz
gerar ainda mais polêmica, porquanto, em último caso, o programador é quem oferece as
respostas primárias para a máquina.
60
KAHNEMAN, Daniel, Rápido e devagar, Rio de Janeiro: Objetiva, 2012, p. 127.
61
FERRARI, Isabela; BECKER, Daniel, Direito à explicação e decisões automatizadas, in: NUNES, Dierle;
LUCON, Paulo Henrique dos Santos; WOLKART, Erik Navarro (Orgs.), Inteligência artificial e direito
processual: os impactos da virada tecnológica no direito processual, Salvador: JusPodivm, 2020, p. 199–225.
62
Ibid.
31
que o uso do algoritmo no âmbito de decisões potencializa incorreções sociais que devem ser
tratadas justamente em sentido contrário, ou seja, consentâneo com a redução das
desigualdades. Aliás, não se pode afirmar com certeza que a tecnologia que se apresenta é
objetiva ou neutra. Ao contrário, enxerga-se subjetividades peculiares a estas ferramentas, tanto
no momento inicial da programação, quanto na alimentação do sistema com dados,
perpassando, enfim, pelo aprendizado da máquina. Outro ponto crítico diz com a opacidade, a
qual será analisada no item seguinte.
Outra celeuma diz respeito aos custos que a IA traz para a transparência, por intermédio
do fenômeno da opacidade tecnológica, a qual se desponta diante do mau funcionamento do
sistema, desencadeando um desempenho inesperado ou incorreto, a exemplo do bug que ocorre
em um sistema computadorizado.
A opacidade exsurge quando o sistema, ainda que demonstre aparente adequação em
sua atividade, suas respostas não revelam transparência acerca do caminho percorrido para se
chegar até a decisão que tomara. Sendo assim, a opacidade tecnológica está ligada à dificuldade
de se enxergar os comportamentos dos programas, os quais, não obstante apropriados, não
permitem visibilidade sobre seu processo decisório63.
Portanto, trata-se do hiato entre a operação desenvolvida pelo programador e o
funcionamento do algoritmo, o qual tem o condão de criar a sua própria trajetória, em razão da
capacidade que possui para alterar autonomamente as heurísticas que compõem sua estrutura.
Assim, ao seu programador humano não é permitido mais conhecer os caminhos que seus
processos internos seguiram para resultar no output exteriorizado, naquilo que se pode chamar
de uma verdadeira caixa-preta (black box), exatamente porque caminhos insuscetíveis de
tradução em linguagem. Até mesmo métodos de aprendizado de máquina considerados simples
expressam explicação intuitiva64.
Pasquale explica que a expressão caixa-preta, em verdade, traz uma metáfora, face à sua
polissemia. Ora pode significar o dispositivo de gravação, como os sistemas implementados em
aeronaves e outros meios de transporte. Ora, pode se referir significar um sistema cujos
63
SURDEN; WILLIAMS, Technological opacity, predictability, and self-driving cars.
64
COGLIANESE, Cary; LEHR, David, Transparency and algorithmic governance, Administrative Law Review,
v. 71, n. 1, p. 453–470, 2019, p. 16–17.
32
procedimentos internos são escusos. Os inputs e outputs são elementos observáveis, contudo a
forma como essa transformação é realizada não é verificável65.
Em outros termos, a complexa estrutura do tratamento algorítmico dos dados tem o
condão de embaçar o processo que conduz a determinado resultado. Ademais, há uma relação
diretamente proporcional entre a opacidade e a complexidade dos modelos de machine learning
utilizados, sendo que, a depender estágio de desenvolvimento tecnológico não é possível se
determinar qual o caminho percorrido até o resultado, independentemente se perante um juízo
de previsibilidade, de aconselhamento ou da própria decisão66.
A opacidade exsurge principalmente em razão da lacuna existente entre o criador do
software e o comportamento algorítmico. As complexas operações que vão do input até a fase
do output vão se tornando turvas, de modo que nem mesmo seu programador tenha mais
controle. Desta forma, a transparência é comprometida, nas suas duas vertentes: acessibilidade
e compreensibilidade, uma vez que a complexidade dos processos, com infinitas variáveis,
torna inteligíveis os resultados. Cabe destacar que a propriedade e o segredo industrial são
considerados fatores dificultadores da necessária abertura dessas operações67.
É fundamental conhecer os aspectos inseridos no sistema, bem como os resultados das
operações algorítmicas. Fundamental também é a avaliação de maneiras de eliminar ou reduzir
os efeitos do fenômeno da opacidade (“caixa preta”), no afã de que a governança algorítmica
possa fixar balizas ao comportamento do sistema.
Diante de tudo isso, é desafio que se impõe com a delegação de decisões a sistemas
autônomos a obrigação de explicação [Explikationszqng]. Todas as etapas relevantes do
processo decisório devem ser estudadas em formato acessível às máquinas, para que elas
possam exercer bem sua função de examinar um problema e reagir de maneira satisfatória. Isso
requer a decomposição de complexos fáticos em elementos individuais que se associam
conforme regras lógicas. Essa inclusive é a grande dificuldade de se projetar métodos jurídicos
em computadores, como a interpretação de textos, a apreciação das consequências ou até
mesmo a avaliação de escolhas de ação68.
65
PASQUALE, Frank, The black box society: the secret algorithms that control money and information,
First Harvard University Press paperback edition. Cambridge, Massachusetts London, England: Harvard
University Press, 2016.
66
SOUSA, Não fui eu, foi a máquina: teoria do crime, responsabilidade e inteligência artificial, p. 74.
67
OSOBA; WELSER, An Intelligence in Our Image: The Risks of Bias and Errors in Artificial Intelligence,
p. 6.
68
HILGENDORF, Digitalização e direito, p. 83.
33
Fenômeno que se observa está no impasse com que a legislação se depara com a
programação computacional, porque diz com o tratamento de enigmáticos códigos de
programação os quais devem guardar observância a regras e princípios do ordenamento69. É o
que ocorre com os VA’s. Por óbvio, o autodirigido deve seguir as regras de trânsito, a exemplo
das limitações de velocidade e de ultrapassagem, respeito aos semáforos e às faixas de
pedestres, sob pena de responsabilização civil, penal e administrativa. Eric Hilgendorf,
vanguardista na seara dos autônomos, salienta a urgência em se estabelecer a devida
comunicação transparente entre o sistema jurídico e linguagem computacional, como corolário
da principiologia básica que rege as relações sociais70.
Importante frisar que a automatização em sede do tráfego viário sugere a clara
compreensão das regras aplicáveis, sobretudo para programação no âmbito de situações
dilemáticas. Trata-se de esfera que requer a completa transparência acerca dos fundamentos
utilizados no processo de decisão na hipótese de uma situação dilemática71. À guisa de exemplo,
a mera ponderação (quantitativa ou qualitativa) entre vidas não seria suficiente à observância
do catálogo de direitos fundamentais.
O que não se pode retirar de vista é que, anteriormente às operações do sistema, mostra-
se presente a interlocução humana, com a qual ocorre a inserção da carga de valores ético-
sociais pertencente ao programador72. Verifica-se, assim, que a dimensão sistêmica do risco
causa alarme no caso das situações dilemáticas que envolvem VA’s, em especial pela
possibilidade de ponderação entre vidas humanas.
Nesse sentido, Cathy O’Neil alerta sobre a opacidade intrínseca à IA revelando que se
trata de um ambiente propício para gerar, aumentar ou reforçar preconceitos e vieses, onde não
há espaço para se defender a neutralidade do sistema. Quando as fontes de informação inseridas
no programa refletem, já no nascedouro, problemas sociais, estes serão potencializados quando
69
Nessa linha, importante trazer a lume o art. 20 da Lei 13.709/18 (LGPD), que dispõe: Art. 20. O titular dos dados
tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados
pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de
consumo e de crédito ou os aspectos de sua personalidade.
§ 1º O controlador deverá fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios
e dos procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial.
§ 2º Em caso de não oferecimento de informações de que trata o § 1º deste artigo baseado na observância de
segredo comercial e industrial, a autoridade nacional poderá realizar auditoria para verificação de aspectos
discriminatórios em tratamento automatizado de dados pessoais. [BRASIL, Lei 13.709/18, de 14 de agosto de
2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF, Diário Oficial da União de 15 ago. 2018.].
70
HILGENDORF, Eric; FELDLE, Jochen, Digitalization and the law, Baden-Baden: Nomos, 2018.
71
HILGENDORF, Digitalização e direito, p. 36.
72
CITRON, Danielle Keats; PASQUALE, Frank A., The scored society: due process for automated
predictions, New York: Social Science Research Network, 2014, p. 14.
34
percorridos por algoritmos que não têm condições de neutralizar esse problema original 73.
Hoffmann-Riem acrescenta que o
73
O’NEIL, Cathy, Weapons of math destruction: how big data increases inequality and threatens democracy,
New York: Crown Publishers - Broadway Books, 2016, p. 9–11.
74
HOFFMANN-RIEM, Wolfgang, Teoria geral do direito digital: transformação digital: desafios para o
direito, Rio de Janeiro: Forense, 2021, p. 54.
75
DOSHI-VELEZ, Finale et al, Accountability of AI under the law: the role of explanation, SSRN Electronic
Journal, 2017.
76
BURRELL, Jenna, How the machine ‘thinks’: Understanding opacity in machine learning algorithms, Big Data
& Society, v. 3, n. 1, 2016.
35
questionáveis, naquilo que o ordenamento vigente será convocado para delinear a nova moldura
fático-jurídica que se estabelecerá77.
Uma vez reconhecido que algoritmos podem conduzir a resultados imorais, incorretos
ou injustos, a organização social e jurídica reclama transparência em sua operacionalização, em
paralelo a uma completa regulamentação, como elementos essenciais ao desestímulo de
condutas arbitrárias, bem como ao incitamento a um controle mais rígido acerca de suas
heurísticas.
Finalmente, ao que interessa como objeto deste trabalho, na esfera do que a IA oferece
para a atualidade ou ao menos ao futuro próximo: os veículos inteligentes. Prefacialmente, faz-
se necessário trazer sua definição técnica, a fim de que se possa, em seguida, discutir, no plano
jurídico, os desdobramentos da responsabilidade penal que se apresentam nessa conjuntura.
Conceitualmente, são “veículos motorizados cujo movimento no trânsito é, de diversas
formas, determinado por um algoritmo pré-programado e não por uma pessoa sentada ao
volante”78, pois capacitado para monitorar o ambiente a seu redor e mover-se pela extensão de
um trajeto pré-definido sem interferências. Logo, o veículo autônomo é composto por um
software (programa) que, em conjunto e em sintonia com o hardware (parte física), controla a
direção do carro. Tomando-se como referência o documento “The Vehicle and Technology
Aviation Bill”, vigente no Reino Unido, o veículo autônomo é aquele que opera sem o controle
de uma pessoa79.
Para realizar suas funções o carro se vale de um conjunto de sensores proprioceptivos
(internos) - como acelerômetro e GPS -, e sensores exteroceptivos (externos) - como câmeras,
radares -, os quais lhe possibilitam monitorar o ambiente ao seu redor, cientificar-se sobre
localização, e então em permanecer na via de circulação, evitando colisões com obstáculos80.
Portanto, carros autônomos afiguram-se como veículos motorizados cujo movimento é
definido em diversos níveis por um algoritmo programado, de modo que a decisão não parte
77
HILGENDORF; FELDLE, Digitalization and the Law, p. 43.
78
WEIGEND, Thomas, Direito de necessidade para carros autônomos?, in: Veículos autônomos e direito penal,
São Paulo: Marcial Pons, 2019, p. 110.
79
MCCALL, Roderick et al, A taxonomy of autonomous vehicle handover situations, Transportation Research
Part A: Policy and Practice, v. 124, p. 507–522, 2019, p. 511.
80
MARTINESCO, Andrea, Veículos autônomos: uma visão complementar associando tecnologia, direito e
políticas públicas (autonomous vehicles: a complementary vision associating technology, law and public policies),
SSRN Electronic Journal, 2020, p. 6.
36
mais do seu operador. Em outros termos, são robôs dotados de inteligência artificial que
compilam informações do ambiente com o fim de se deslocarem81. Surgem como um novo tipo
de ator, pois sistemas autônomos atuando sem determinação de suas condutas por seres
humanos82.
Desta forma, a autonomia do veículo diz com sua capacidade de se deslocar por
intermédio de um complexo de aparatos de “percepção”, “decisão e ação”, “fluxo de tráfego
adaptável”, “comunicação”, “planejamento de rota” e de “localização”83.
Esse modo de direção faz surgir vantagens e desvantagens. Positivamente, pode-se falar
nos melhoramentos para pessoas com problemas de locomoção; na redução de acidentes
atribuídos à falha humana; uma mobilidade mais segura e limpa84, o que se convencionou
chamar ecomobilidade; economia de combustível; e maior segurança nas pistas.
Negativamente, cita-se a ausência de isonomia na distribuição dos produtos da
tecnologia a todas as camadas da sociedade; a dependência humana das máquinas com a
consectária automação intimidadora da mão-de-obra; por fim, a incerteza quanto aos riscos
dessa autonomia dos carros. Este último ponto, intimamente ligado ao presente trabalho, diz
com a moral machine, pois, em que pese detentoras de sua inteligência, não são dotadas de uma
autodeterminação moral, o que implica dificuldades para a dogmática em sede de
responsabilidade penal.
Os carros inteligentes são uma das aplicações de inteligência artificial mais esperadas
pela sociedade e mais pesquisadas por cientistas e pela indústria nos últimos tempos. O sistema
inteligente tem sido motivado também para outros meios de transporte, como trens e aviões,
dada a promessa de redução de riscos de acidentes e o melhor controle da eficiência85, para
além das demais vantagens citadas.
81
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas, p. 151–
152.
82
HILGENDORF, Digitalização e direito, p. 62.
83
WALDROP, M. Mitchell, Autonomous vehicles: No drivers required, Nature, v. 518, n. 7537, p. 20–23, 2015.
84
MARTINESCO, VEÍCULOS AUTÔNOMOS.
85
WINKLE, Thomas, Safety benefits of automated vehicles: extended findings from accident research for
development, validation and testing, in: GERDES, J. Christian et al (Orgs.), Autonomous Driving: Technical,
Legal and Social Aspects, 1st ed. 2016. Berlin, Heidelberg: Springer Berlin Heidelberg : Imprint: Springer, 2016,
p. 335–364.
37
86
BIMBRAW, Keshav, Autonomous cars: Past, present and future a review of the developments in the last century,
the present scenario and the expected future of autonomous vehicle technology, ICINCO 2015: proceedings of
the 12th International Conference on Informatics in Control, Automation and Robotics, p. 191–198, 2015.
87
Ibid.
88
Ibid.
89
SQUEFF, Flávia de Holanda Schmidt; DE NEGRI, Fernanda, Ciência e tecnologia de impacto: uma análise do
caso DARPA, in: RAUEN, André Tortato (Org.), Políticas de inovação pelo lado da demanda no Brasil,
Brasília: Ipea, 2017, p. 1.
90
VAN BRUMMELEN, Jessica et al, Autonomous vehicle perception: The technology of today and tomorrow,
Transportation Research Part C: Emerging Technologies, v. 89, p. 384–406, 2018.
91
KRÖGER, Fabian, Automated driving in its social, historical and cultural contexts, in: MAURER, Markus et al
(Orgs.), Autonomous driving: technical, legal and social aspects, Berlin: Springer open, 2016, p. 60.
38
92
VAN BRUMMELEN et al, Autonomous vehicle perception.
93
Ibid.
94
GUEDES, Marcelo Santiago; MACHADO, Henrique Felix de Souza, Veículos autônomos inteligentes e a
responsabilidade civil nos acidentes de trânsito no Brasil: desafios regulatórios e propostas de solução e
regulação, Brasília: ESMPU, 2020, p. 16.
39
A figura 1, anexada para fins didáticos, demonstra de forma esquematizada cada um dos
seis níveis de automatização desenhados pela norma oriunda da SAE.
95
WINKLE, Safety benefits of automated vehicles: extended findings from accident research for development,
validation and testing, p. 337.
96
SOCIETY OF AUTOMOBILE ENGINEERS, International Standard J3016_202104.
40
Desta forma, no nível “zero” as tarefas ligadas à condução são executadas pelo operador,
embora possam abranger sistemas de auxílio da tarefa de condução, como sensores de
estacionamento e aviso de pontos cegos. No nível “um” (driver assistance), o sistema pode
auxiliar o condutor no controle da direção ou da velocidade, diligenciando com acelerações ou
frenagens. No nível “dois” surge o automatismo, porém de modo parcial (partial driving
automation). O veículo em determinadas condições externas é capaz de acelerar, frear ou mudar
de direção, sem qualquer intervenção do operador97.
97
SMART, William D; GRIMM, Cindy M; HARTZOG, Woodrow, An education theory of fault for autonomous
systems, Boston University School of Law, p. 35–56, 2021, p. 19.
41
Por sua vez, o nível “três”, em que pese o operador não se mostrar elementar à condução,
requer sua atenção para retomar os comandos se for necessário, por isso chamado conditional
automation. Exemplificativamente, são máquinas aptas para seguir em determinada saída
predeterminada da autoestrada, alterar a faixa de rolamento em que se encontra, ou até mesmo
ultrapassar demais veículos98.
Em continuação, o nível “quatro” ainda necessita da presença de alguém no veículo,
contudo ela não será tida como condutor, mas tão somente operador ou até mero passageiro. A
nomenclatura “High Driving Automation” se deve ao fato de a totalidade das tarefas estarem
agora nas mão do autodirigido. Não obstante a possibilidade da intervenção humana, esta já não
é mais exigida. Em situações de emergência o veículo assume “riscos mínimos”, a exemplo da
parada automática do carro, ou então efetuar complexas manobras, assim como retirar o carro
de uma zona de perigo99.
O nível quatro pretende atingir a automação completa do veículo. É limitado sob dois
ângulos: o limite de tarefas específicas de condução e o limite da área operacional. A área
operacional diz com restrições ambientais, geográficas e de hora do dia, e/ou o requisito da
presença ou da ausência de certas características do tráfego ou da via. Com base em tais
critérios, as restrições são implementadas, as quais podem abarcar as condições climáticas em
que o automóvel pode transitar na autoestrada, ou ainda, o acerca das reações da máquina, tais
como limite de velocidade, manobras permitidas etc.100.
A pesquisa centra-se no quarto nível de autonomia. O recorte metodológico se dá em
razão de que a partir do quarto grau de automatismo é que se oferece a extremada alteração de
padrão, no qual o operador pode assumir a condição de passageiro, deixando de possuir o
domínio físico do funcionamento do veículo, ainda que se permita assumir a condução em casos
de emergência, salvo na última categoria. Por esse motivo considerar a partir da quarta categoria
atende melhor o escopo do estudo, sobretudo diante dos casos de situações dilemáticas
propostos, máxime por não impossibilitar integralmente a ação da figura humana que ocupa o
veículo.
É que diante das hipóteses a serem trabalhadas, a possibilidade de transferência dos
comandos ganha relevo. Exemplificando, se o sistema vinculado ao veículo do quarto nível está
98
MCCALL et al, A taxonomy of autonomous vehicle handover situations, p. 508.
99
Ibid., p. 517.
100
CZARNECKI, Krzysztof, Operational design Domain for automated driving systems. Taxonomy of basic
terms.
42
prestes a ultrapassar uma das limitações de seu sistema e decidir por entregar o domínio ao
condutor, surgem questões paralelas sobre quem se torna o responsável pelos fatos daí em
diante.
Por fim, o nível “cinco”, o mais elevado nível de automação. Porquanto integralmente
autônomo em qualquer circunstância, desobriga a presença de um indivíduo no carro, assim
como a nomenclatura diz: Full Driving Automation. Nesse caso, a esfera de intervenção não é
limitada a determinadas tarefas, além do que não há opção para o indivíduo, aqui tão somente
passageiro, de controlar o veículo101, especialmente por ser desprovido de itens como volante,
acelerador ou freio102.
101
MCCALL et al, A taxonomy of autonomous vehicle handover situations, p. 509.
102
Anote-se que tais itens estão presentes somente até o nível anterior.
103
GERT, Bernard; GERT, Joshua, The Definition of Morality, The Stanford Encyclopedia of Philosophy, Fall
Edition, 2020.
104
PEREIRA, Direito e inteligência artificial: a ética dos carros autônomos, p. 87–89.
43
105
MAGRANI, Eduardo; SILVA, Priscilla; VIOLA, Rafael, Novas perspectivas sobre ética e responsabilidade de
inteligência artificial, in: FRAZÃO, Ana; MULHOLLAND, Caitlin Sampaio (Orgs.), Inteligência artificial e
direito: ética, regulação e responsabilidade, 2. ed. São Paulo: Thomson Reuters Brasil, 2020, p. 120–121.
44
Em 1942, o escritor Isaac Asimov elaborou três "leis da robótica", a fim de propiciar a
convivência entre seres humanos e sistemas autônomos, a saber106:
• Um robô não pode ferir um humano ou, por meio de uma omissão, permitir que um
humano seja ferido.
• Um robô deve obedecer aos comandos dados a ele por um humano – a menos que
tal comando viole a primeira regra.
• Um robô deve preservar sua existência, desde que essa preservação não viole a
primeira e a segunda regras.
Eric Hilgendorf entende que essas regras são ingênuas, e suas falhas já podem ser
observadas em casos simples de estado de necessidade ou da colisão de deveres justificante. E
não serviriam, obviamente, para o caso dos robôs de guerra, com fins militares107.
Vale dizer que as controvérsias que surgem não necessariamente estão correlacionadas
aos autônomos, concentrando-se, em verdade, no algoritmo em si. De modo que se fosse
possível a implementação da tecnologia dos carros autodirigidos sem o algoritmo, talvez toda
a celeuma perderia seu objeto.
Extrapolando-se a ficção e transpondo para a atual realidade onde está inserida, a IA
tem perturbado tanto o futuro de mercados, indústrias e empregos, como também as regras e
princípios legais que as sustentam, proporcionando, desse modo, novos desafios que devem ser
encarados, tais como o da responsabilidade, seja civil, penal ou administrativa. Questiona-se,
se a IA causar danos ou criar algo benéfico, quem deve ser responsabilizado? Ou ainda, existem
fundamentos morais ou pragmáticos para conceder à IA proteções legais e responsabilidades,
direitos e deveres? Por fim, qual o fundamento para questões éticas envolvidas com essa
tecnologia, sobretudo quando necessário fazer escolhas importantes?108.
Por oportuno, válido fechar esse item com as reflexões de Émile Durkheim109:
Sem dúvida, chegará o dia em que a ciência da moral terá avançado tanto que a
teoria será capaz de regular a prática; mas ainda estamos longe desse dia, e enquanto
ele não chega o melhor é guardar os ensinamentos da história.
106
GERDES, J. Christian; THORNTON, Sarah M., Implementable Ethics for autonomous vehicles, in: MAURER,
Markus et al (Orgs.), Autonomous driving: technical, legal and social aspects, Berlin: Springer open, 2016,
p. 95.
107
HILGENDORF, Eric, Direito e máquinas autônomas. Um esboço do problema, in: Veículos autônomos e
direito penal, São Paulo: Marcial Pons, 2019, p. 82–83.
108
TURNER, Jacob, Robot rules: regulating artificial intelligence, Cham: Palgrave Macmillan, 2019. E-book.
109
DURKHEIM, Émile, Ética e sociologia da moral, São Paulo: Landy, 2003, p. 122.
45
É certo também que as novas tecnologias, em especial a inteligência artificial, têm sido
cada vez mais empregadas para resolver problemas sociais. Noutro giro, têm o condão de
provocar intenso clamor social, provocando uma gama de dúvidas sobre suas consequências,
além do sentimento de necessidade de regulação, máxime em razão da opacidade e insegurança
peculiar da fase inicial de todo evento110.
Sob este viés, a inteligência das máquinas passa a levantar questionamentos diversos,
mormente quanto à preservação de direitos fundamentais, ou ainda, se chegará o dia em que
elas superarão os humanos. Todavia, as incertezas e divergências científicas sobre os potenciais
riscos da inteligência artificial no ramo do Direito são incalculáveis, de modo a requerer
diretrizes básicas de segurança na sua utilização.
O fato é que o avanço corriqueiro e agitado da tecnologia desencoraja muitos
argumentos contrários ao uso das máquinas inteligentes. Desse modo, os programadores do
algoritmo se veem sujeito à etapa de regramento das novas atividades, pois avançar sem o
devido respeito aos direitos já conquistados denotaria verdadeiro retrocesso.
Em que pese as dificuldades que a legislação encontra para acompanhar os largos passos
das inovações tecnológicas, a sociedade deve ser estimulada à constante reflexão acerca da
reverberação das questões éticas para fazer nascer um espaço harmônico entre a inteligência
artificial e as normas éticas.
A revisão ética de sistemas automatizados de tomada de decisão impõe a construção de
um conjunto de princípios ou diretrizes éticas, no afã de se criar um campo de prevenção contra
riscos já conhecidos, ou de precaução em oposição àqueles desconhecidos. Precaução essa de
relevância também no âmbito responsabilização pelos danos causados por condutas advindas
de agentes de IA, sobretudo no caso do domínio brasileiro em que as pesquisas ainda se
mostram incipientes. Nesse ponto, a União Europeia é referência, particularmente em razão da
edição da Resolução 2015/2103(INL), de 16 de fevereiro de 2017, pelo Parlamento 111.
110
KLINGELE, Cecelia, The Promises and perils of evidence-based corrections, Notre Dame Law Review, v. 91,
n. 2, p. 577, 2016.
111
PIRES; SILVA, A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a
resolução do parlamento europeu, p. 245.
46
112
ALLEN QC, Robin, Artificial intelligence, machine learning, algorithms and discrimination law: the new
frontier, AI Law.
113
COMISSION EUROPEAN, Ethics Guidelines for Trustworthy AI - Orientações Éticas para uma IA de
confiança.
114
Ibid.
115
Ibid.
116
FEDERAL MINISTER OF TRANSPORT AND DIGITAL INFRASTRUCTURE, Ethics Comission.
Automated and connected driving.
47
8. Decisões com dilemas genuínos, como uma decisão entre uma vida humana e outra,
dependem da situação específica real, incorporando comportamento "imprevisível"
por partes afetados. Eles não podem ser claramente padronizados, nem podem ser
programados de forma que sejam eticamente inquestionáveis. Os sistemas
tecnológicos devem ser projetados para evitar acidentes. No entanto, eles não podem
ser padronizados para uma avaliação complexa ou intuitiva avaliação dos impactos de
um acidente de forma que possam substituir ou antecipar a decisão de um motorista
responsável com capacidade moral para fazer julgamentos corretos. Isto é verdade que
um motorista humano estaria agindo ilegalmente se matasse uma pessoa em uma
emergência para salvar a vida de uma ou mais pessoas, mas ele não estaria
necessariamente agindo culposamente. Tais julgamentos legais, feitos em retrospecto
e levando em conta circunstâncias especiais, a contabilizar, não pode ser facilmente
transformado em avaliações ex ante abstratas/gerais e, portanto, também não em
atividades de programação correspondentes. Por este motivo, talvez mais do que
qualquer outro, seria desejável para uma agência independente do setor público (para
posição de uma Agência Federal para a Investigação de Acidentes que Envolvem
Transações Automatizadas sistemas portuários ou um Escritório Federal de Segurança
em Transporte Automatizado e Conectado) para processar sistematicamente as lições
aprendidas.
9. Em caso de situações de acidentes inevitáveis, qualquer distinção baseada em
características pessoais (idade, sexo, constituição física ou mental) são estritamente
proibidas. Também é proibido destinado a compensar as vítimas umas contra as
outras. Programação geral para reduzir o número de lesões pessoais podem ser
justificáveis. As partes envolvidas na geração de mobilidade os riscos não devem
sacrificar as partes não envolvidas117. (tradução livre)
117
No original: 7. In hazardous situations that prove to be unavoidable, despite all technological precautions
being taken, the protection of human life enjoys top priority in a balancing of legally protected interests. Thus,
within the constraints of what is technologically feasible, the systems must be programmed to accept damage to
animals or property in a conflict if this means that personal injury can be prevented. 8. Genuine dilemmatic
decisions, such as a decision between one human life and another, depend on the actual specific situation,
incorporating “unpredictable” behaviour by parties affected. They can thus not be clearly standardized, nor can
they be programmed such that they are ethically unquestionable. Technological systems must be designed to avoid
accidents. However, they cannot be standardized to a complex or intuitive assessment of the impacts of an accident
in such a way that they can replace or anticipate the decision of a responsible driver with the moral capacity to
make correct judgements. It is true that a human driver would be acting unlawfully if he killed a person in an
emergency to save the lives of one or more other persons, but he would not necessarily be acting culpably. Such
legal judgements, made in retrospect and taking special circumstances into account, cannot readily be transformed
into abstract/general ex ante appraisals and thus also not into corresponding programming activities. For this
reason, perhaps more than any other, it would be desirable for an independent public sector agency (for instance
a Federal Bureau for the Investigation of Accidents Involving Automated Transport Systems or a Federal Office
for Safety in Automated and Connected Transport) to systematically process the lessons learned. 9. In the event of
unavoidable accident situations, any distinction based on personal features (age, gender, physical or mental
constitution) is strictly prohibited. It is also prohibited to offset victims against one another. General programming
to reduce the number of personal injuries may be justifiable. Those parties involved in the generation of mobility
risks must not sacrifice non-involved parties.
48
coberta pela aparência da licitude118. Nesse ponto é que se justifica a permanência vigilante do
Direito Penal enquanto Ciência Penal Total - a abranger a Dogmática, a Criminologia e a
Política Criminal. Nos ensinamentos de Hassemer sobre a função do direito penal, ele pontua
que119
118
RODOTÀ, A vida na sociedade da vigilância: a privacidade hoje, p. 142.
119
HASSEMER, Winfried, Die Basis des Wirtschaftsstrafrechts, in: KEMPF, Eberhard; LÜDERSSEN, Klaus;
VOLK, Klaus (Orgs.), Die Handlungsfreiheit des Unternehmers – Wirtschaftliche Perspektiven,
strafrechtliche und ethische Schranken, Berlin, New York: Walter de Gruyter, 2009, p. 27–43.
120
CANARIS, Claus-Wilhelm, Pensamento sistemático e conceito de sistema na ciência do direito, 4a ed.
Lisboa: Fundação Calouste Gulbenkian, 2008, p. 283.
121
HILGENDORF, Digitalização e direito, p. 128.
49
122
Ibid., p. 129.
123
COUTINHO, Diogo R., O direito nas políticas públicas, in: MARQUES, Eduardo; FARIA, Carlos Aurélio
Pimenta de (Orgs.), A Política Pública como campo multidisciplinar, São Paulo: Unesp, 2013, p. 181.
50
de riscos dentro do contexto da sociedade de riscos, fomentada ainda mais pela implementação
da inteligência artificial.
Do ponto de vista de uma agenda relevante de pesquisas no Brasil, importante se faz
enxergar o direito como uma tecnologia de construção e operação de políticas públicas. Sob
este viés, dentre as tarefas entregues ao direito (como objetivo, arranjo institucional e
vocalizador de demandas), destaca-se nesta pesquisa a de direito como caixa de ferramentas,
pois estar-se-ia oferecendo meios, distintos instrumentos e veículos para implementação dos
fins da política, é dizer, em uma dimensão instrumental.
Logo, tarefa árdua que se verifica está em se conformar as novas tecnologias ao direito
vigente, buscando a sua compreensão para posterior resposta aos questionamentos jurídicos que
se levantam. Por essa razão, é necessário o diálogo constante entre os desenvolvedores dos
diversos programas com os profissionais do ramo jurídico, para se certificarem do solo em que
estão pisando, de todas as nuances e obstáculos que enfrentam em sua atividade de
programação.
Rememora-se, ainda, que as medidas de compliance exerce importante papel nesta
seara, como nova perspectiva do tratamento jurídico, na medida que municiam os tecnólogos
de necessário conhecimento para que possam produzir dentro das normas postas. A partir do
cruzamento das informações sobre os riscos jurídicos e os riscos tecnológicos é possível a
construção de um cenário mais transparente à sociedade que, em algum momento, é
vocacionada a decidir sobre a aceitação, ou não, daquela engenharia inovadora124.
O que se visualiza, prima facie, é que a condução automatizada é uma incumbência de
lege referenda. E um dos grandes desafios é que a condução automatizada faz surgir um novo
ator: o sistema autônomo, o qual descarta a presença da figura humana. Isso porque não há que
se considerar tão somente uma ferramenta, mas atores cada vez mais independentes, cuja
conduta tem sujeitado, de igual forma, às exigências éticas, jurídicas e de imputação.
Por ora não se visualiza uma concentração normativa a tratar do tema da IA no âmbito
dos veículos autônomos, mormente sobre a programação do comportamento do algoritmo em
situações de emergência de vida contra vida. Não paira dúvidas acerca da necessidade de
regulamentação tanto da programação e controle dos sistemas, bem como da atuação dos atores
envolvidos em toda a cadeia de atividade dos veículos, desde a fábrica até o usuário.
124
HILGENDORF, Digitalização e direito, p. 131–132.
51
125
FIRJAN; INMETRO; UFLA, 1a Conferência sobre veículos inteligentes. Segurança jurídica e tecnológica para
inserção no Brasil, Relatório de Informações e Recomendações.
126
Ibid., p. 21.
52
pelo chamado a intervir ou, quando assim desejar127. Foi igualmente considerada a introdução
da categoria de “condutores não humanos”. Alterações, portanto, que caminham no sentido de
atribuir agência ao veículo autônomo, algo essencial à responsabilidade criminal, ainda que não
suficiente para tanto.
O ato regulamentar n.º 79 da UNECE foi o vanguardista na aceitação da realidade
autônoma, levando a uma revisão da abordagem tradicional e, considerando as novas
tecnologias, admitido que os veículos disponham “sistemas de direção nos quais não existe
qualquer ligação mecânica efetiva entre o comando de direção e as rodas”, denominados
“Advance Driver Assistance Systems” (ADAS)128.
Percebe-se, assim, que paulatinamente a regulação dos complexos componentes e
sistemas dos veículos autônomos vai se desenhando. A Alemanha, potência reconhecida no
setor dos veículos, bem como dos tipos autônomos, é precursora na adaptação de sua legislação
para o fim de se possibilitar a condução automatizada em suas estradas, tendo consignado
alterações ao seu Código da Estrada (Straßenverkehrsgesetz), em vigor desde 2017129. Em
especial o seu §1º, o qual inclusive fixa a definição “highly” ou “fully” autonomous vehicle -
aquele que dispõe de equipamento que permite a realização da tarefa de condução sem controle
por um condutor humano em conformidade com as normas de tráfego rodoviário vigentes130.
Em observância ao princípio da informação, o legislador alemão optou por instituir a
obrigação ao produtor do veículo de informar expressamente sobre as funcionalidades que o
veículo reúne, de modo que o consumidor tenha ciência acerca das limitações e dos riscos
inerentes. Por outro lado, demais pontos retratam que a política adotada objetivou proteger e
fomentar sua forte indústria automobilística, máxime na esfera da responsabilidade civil.
De grande relevância, trouxe também a previsão de uma caixa preta (cuja cor real é
laranja, diga-se de passagem), muito utilizada na aviação, para fins de armazenamento de dados
ligados ao veículo, a qual pode armazenar dados sobre eventual falha técnica, ou ainda, sobre a
convocação pelo sistema para que o operador retome o controle, no que oferece grande utilidade
para efeitos de campo probatório, especialmente quando se envolver em acidente.
127
CHATZIPANAGIOTIS, Michael P.; LELOUDAS, George, Automated Vehicles and Third-Party Liability: A
European Perspective, SSRN Electronic Journal, 2020.
128
UNIÃO EUROPEIA, Regulamento no 79 da Comissão Económica para a Europa da Organização das Nações
Unidas (UNECE) — Prescrições uniformes relativas à homologação de veículos no que se refere ao dispositivo
de direção.
129
ALEMANHA, Straßenverkehrsgesetz.
130
UNIÃO EUROPEIA, Directiva 2007/46/EC do Parlamento Europeu e do Conselho de 5 de Setembro de 2007.
53
Nos Estados Unidos da América, a inexistência de uma lei federal implicou uma
verdadeira competição legislativa interna, visando a captação de investimentos no ramo. O
Estado da Califórnia foi o primeiro a receber testes de veículos autônomos fomentados pela
empresa Google, tendo os seus veículos inteligentes percorrido cerca de 100.000 milhas entre
2009 e 2010131.
Mas em setembro de 2017, em nível Federal, foi aprovada a “Self-drive Act”132 na
Câmara dos Representantes. Ela estabelece uma estrutura para o papel federal na garantia da
segurança de veículos altamente automatizados (HAVs), limitando a atividade legislativa dos
estados na regulação dos HAVs. Fixa também condições sob as quais HAVs podem ser
introduzidos no comércio interestadual para teste, avaliação ou demonstração. Seu último
andamento, enquanto esta pesquisa estava sendo elaborada, deu-se em novembro de 2017,
oportunidade em que fora colocada no calendário legislativo do Senado, sob ordens gerais.
No Brasil, tramita, desde 04 de fevereiro de 2020, o Projeto de Lei nº 21/2020133, que
visa estabelecer princípios, direitos e deveres para o uso da Inteligência Artificial no país,
criando diretrizes para a atuação da União, Estados, Distrito Federal, Municípios, pessoas
físicas e jurídicas de direito público ou privado, bem como entes sem personalidade jurídica em
relação à matéria. Nada muito específico ao uso dos carros autônomos, mas pode servir como
norma para, oportunamente, dela serem extraídos regras e princípios.
O Projeto de Lei 21/20, de todo modo, caracteriza o marco legal do desenvolvimento e
utilização da IA pelas pessoas físicas, por empresas, por entidades diversas e pelo poder
público. Ainda em tramitação nas Casas Legislativas, o texto visa uma legislação que,
simultaneamente, fomente a IA e proteja os indivíduos do mau uso dela, fixando princípios,
direitos, deveres e instrumentos de governança para a IA. A justificativa do Projeto de Lei
dispõe que:
[...] O presente projeto de lei faz uma abordagem da IA centrada no ser humano, e tem
como objetivo principal a adoção da IA para promover a pesquisa e inovação,
aumentar a produtividade, contribuir para uma atividade econômica sustentável e
positiva, melhorar o bem-estar das pessoas e ajudar a responder aos principais desafios
globais.
A expansão da IA exige transições no mercado de trabalho, e, atento a isto, o projeto
criou deveres para o poder público para permitir a capacitação dos trabalhadores, bem
como incentivá-los a se engajarem e adquirirem competitividade no mercado global.
131
CNN, Sem motorista: Califórnia concede 1o licença para teste com carros autônomos.
132
SENATE - COMMERCE, SCIENCE, AND TRANSPORTATION, S.1885 - AV START Act - American
Vision for Safer Transportation through Advancement of Revolutionary Technologies Act.
133
BRASIL, Câmara dos Deputados, Projeto de Lei n o 21/2020. Estabelece fundamentos, princípios e diretrizes
para o desenvolvimento e a aplicação da inteligência artificial no Brasil, e dá outras providências.
54
O projeto propõe que o uso da IA terá como fundamento a observância aos direitos
humanos, aos valores democráticos, à igualdade, à não discriminação, à pluralidade, à livre
iniciativa e à privacidade de dados. Ademais, traz como princípios a garantia de transparência
sobre o seu uso e funcionamento e torna obrigatórios os princípios encartados no âmbito
internacional, disciplinando direitos e deveres134.
Relevante anotar que o projeto prevê a figura do agente de IA, “que pode ser tanto o que
desenvolve e implanta um sistema de IA (agente de desenvolvimento), como o que opera
(agente de operação)”. Os agentes de IA, que poderão ser pessoa física ou jurídica de direito
público ou privado ou entes sem personalidade jurídica, terão uma série de deveres, com a
possibilidade de sua responsabilização, caso não atenda as normas legais, bem como pelas
decisões tomadas pela tecnologia de acordo com suas funções, que devem ser assegurar o
respeito da Lei Geral de Proteção de Dados, proteger o sistema contra ameaças de segurança
cibernética e fornecer informações claras sobre critérios e procedimentos do sistema,
respeitando os segredos comerciais e industriais135.
Com todas essas colocações resta firmado que graças aos aperfeiçoamentos sucessivos,
as tecnologias estão a tornar-se, gradualmente, mais independentes da atuação humana, no que
implica demandas ao nível da regulação jurídico-administrativa. Estudadas essas premissas,
mostra-se relevante a partir daqui aprofundar no estudo relacionado à responsabilidade penal.
Deveras, a revolução tecnológica impulsionará, ao menos, uma outra revolução, a jurídica.
134
CÂMARA DOS DEPUTADOS, Projeto cria marco legal para uso de inteligência artificial no Brasil, Notícias,
2020.
135
Ibid.
CAPÍTULO 2 – A PERSPECTIVA DA RESPONSABILIDADE PENAL DIANTE DA
SOCIEDADE DE RISCO
136
CLAUSSÉN-KARLSSON, Matilda, Artificial Intelligence and the external element of the crime: an
analysis of the liability problem, Örebro Universitet, 2017, p. 24.
56
137
SCHREIBER, Anderson, Novos paradigmas da responsabilidade Civil: da erosão dos filtros da reparação
à diluição dos danos, São Paulo: Editora Atlas, 2007, p. 82.
138
MALHEIRO, Emerson Penha, A inclusão digital como direito fundamental na sociedade da Informação,
Revista dos Tribunais, v. 978, p. 39–54, 2018.
139
ULRICH, Beck, Sociedade de Risco: Rumo a uma outra modernidade, São Paulo: Editora 34, 2011, p. 23.
140
SÁNCHEZ, Jesús-María Silva, La expansión del derecho penal: aspectos de la política criminal en las
sociedades postindustriales, 3a ed., ampliada. Madrid: Edisofer [u.a.], 2011, p. 13–14.
57
Portanto, a sociedade de risco traz a configuração em que estão presentes riscos não
delimitáveis, globais e muitas vezes irreparáveis, os quais possuem o condão de tocar os
interesses de todos os cidadãos, individual ou globalmente considerados. Afinal, incerteza e a
irreversibilidade, no contexto da sociedade de risco, constituem-se elementos do dano. Nas
palavras do autor:
O sociólogo destaca que a pulverização das atividades entre os vários atores acarreta
verdadeira cumplicidade geral, com uma consectária irresponsabilidade generalizada. É dizer,
todos os atores partícipes assumem papel de causa e efeito e, de modo simultâneo, são também
uma “não causa”. Assim, surge desmesurada cadeia de acontecimentos interligados, em que há
dificuldade na atribuição de responsabilidades, a exemplo dos sistemas autônomos. As causas
são misturadas entre atores e condições, reações e contrarreações.
Portanto, há enorme dificuldade de se isolar os fatores específicos no complexo sistema
que se forma na sociedade de riscos. A confusão é tamanha a ponto de inviabilizar a
identificação das causas específicas dos riscos massivos, e de individualizar
responsabilidades142. Na seara cível, provavelmente não há maiores óbices na partilha de
141
ULRICH, Sociedade de Risco: Rumo a uma outra modernidade, p. 33.
142
Ibid., p. 38–39.
58
responsabilidades, ou de modo prévio, na divisão solidária dos custos por toda a cadeia de
fornecimento do produto. No âmbito penal, máxime em razão da inadmissível responsabilidade
objetiva, possivelmente restará obstaculizada a responsabilização de todos os envolvidos na
construção e manutenção do agente autônomo.
Ainda, sistemas que admitem a responsabilidade solidária objetiva podem se
fundamentar na teoria do deep-pocket, segundo a qual todo ator envolvido em atividade
periclitante lucrativa deve compensar os danos causados. Deste modo, o programador, o
fabricante do bem que adota o programa, ou qualquer outro integrante da cadeia poderá ser
obrigado a suportar o dever indenizatório por eventual dano. Todavia, na seara criminal,
encontra-se embaraços na distribuição dos encargos143.
Por outro lado, Caitlin Mulholland rememora o risco da estagnação do desenvolvimento
tecnológico, sugerindo a invocação da teoria do risco do desenvolvimento, como fundamento
para a atribuição de responsabilidade aos agentes empresariais exploradores da inteligência
artificial, sob o espeque do princípio da solidariedade social. Seus elementos auxiliam na
aplicabilidade da teoria, sendo eles:
(i) o dano causado por um produto – que não é, em tese, defeituoso; (ii) a
impossibilidade técnica objetiva de reconhecimento, por parte tanto do fornecedor
quanto do consumidor, da defeituosidade e da potencialidade danosa do produto, no
tempo da ocasião do dano; e (iii) o desenvolvimento tecnológico que identifica,
posteriormente, um defeito do produto, gerador do dano. Esses requisitos, se aplicados
às hipóteses de danos causados por IA autônoma, poderiam ser igualmente
interpretados para fins de atribuição da obrigação de indenizar. Senão vejamos: (i) o
dano é casualmente ligado a um sistema de IA; (ii) é virtualmente impossível
identificar, no momento inicial de programação da IA, a previsibilidade e
potencialidade danosa da aplicação do sistema; e (iii) o desenvolvimento da
aprendizagem autônoma pela IA, que independe de interferência humana, causa
efetivamente o dano a uma pessoa. A esses três elementos soma-se um quarto, que é
(iv) a inviabilidade de explicação por um humano do processo que levou a IA a uma
decisão autônoma geradora do resultado danoso, na medida em que esses processos
de aprendizagem e decisão independem da atuação e da racionalidade humana. No
entanto, as mesmas críticas feitas à adoção da teoria do risco de desenvolvimento
como fator de atribuição da obrigação de reparar o dano causado por um produto
podem ser aplicadas ao reconhecimento da responsabilidade civil pelos danos
ocasionados pela tomada de decisão autônoma por sistemas de IA, sendo o principal
questionamento aquele que diz respeito ao delicado equilíbrio entre a atribuição de
responsabilidade por meio de medidas regulatórias e o consequente e eventual risco
de estagnação da inovação tecnológica144.
143
ASARO, Peter M. The Liability Problem for Autonomous Artificial Agents. Disponível em:
<https://peterasaro.org/writing/Asaro,%20Ethics%20Auto%20Agents,%20AAAI.pdf>. Acesso em: 17 jun. 2022.
144
MULHOLLAND, Caitlin Sampaio, Responsabilidade civil e processos decisórios autônomos em sistemas de
inteligência artificial (IA): autonomia, imputabilidade e responsabilidade, in: FRAZÃO, Ana; MULHOLLAND,
Caitlin Sampaio (Orgs.), Inteligência artificial e direito: ética, regulação e responsabilidade, 2. ed. São Paulo:
Thomson Reuters Brasil, 2020, p. 337.
59
145
MULHOLLAND, Caitlin Sampaio, Alternative causation, unidentifiable tortfeasors, and group liability:
a case study, disponível em: <https://civilistica.emnuvens.com.br/redc/article/view/121/91>. acesso em:
17 jun. 2022.
60
preocupa-se também com os limites à intervenção punitiva irracional, envidando esforços para
obstaculizar coações desproporcionais ou desnecessárias pelos aparatos sancionatórios146.
Bitencourt discorre que a política criminal funcionalista “sustenta, como modernização
no combate à criminalidade: ‘perigo’ em vez de dano; ‘risco’ em vez de ofensa efetiva a um
bem jurídico; ‘abstrato’ em vez de concreto; ‘tipo aberto’ em vez de fechado; ‘bem jurídico
coletivo’ em vez de individual etc.”147.
Ulrich indaga como seria possível evitar, minimizar ou canalizar os riscos
sistematicamente gerados no processo de modernização, ou ainda, isolá-los e redistribui-los,
quando surgidos na forma de "efeitos colaterais latentes", de maneira que não embarace o
“processo de modernização e nem as fronteiras do que é (ecológica, medicinal, psicológica ou
socialmente) aceitável”148.
Uma das implicações do processo de aceitação dos riscos por parte da sociedade está
consubstanciada no enfrentamento jurídico em face dos novos dispositivos que se impõem. Sob
este enfoque é que os sistemas autônomos fazem os intérpretes do direito se debruçarem sob o
tema, forte no objetivo de alcançarem os institutos jurídicos que se conformem com as novas
realidades impostas e seus desdobramentos.
É verdade que a sociedade na ânsia de evolução, antes de aceitar o risco propriamente
dito, procura se preparar em um primeiro momento, naturalmente examinando vantagens e
desvantagens daquilo que está sendo proposto. E justamente por estar submetido a um processo
– isto é, não se aceita de imediato e de modo acrítico-, exigências vão se construindo, como
forma de contrapeso, com o objetivo de que seja afiançado o máximo de segurança - dentro do
estado da arte e das normas postas -, bem como minimizar os riscos em maior nível exequível
(dever de asseguramento). A todo esse processo poderia se atribuir a nomenclatura de
“sociedade de risco em desenvolvimento”.
A questão que se coloca é saber se a real preocupação está voltada para a mera
imputação de responsabilidade em casos de acidente ou então para a atividade de risco
propriamente dita desenvolvida pelos veículos autônomos. Assim, veículos, em sua forma mais
rudimentar, sempre se revelou um bem que oferece riscos quando em circulação. Entretanto, os
riscos que oferecem não dão motivos para tantas discussões, pois em caso de acidente, há quem
146
CARVALHO, Salo de, A política criminal de drogas no Brasil: estudo criminológico e dogmático da Lei
11.343/06, 8a edição revista e atualizada. São Paulo: Editora Saraiva, 2016, p. 107.
147
BITENCOURT, Cezar Roberto, Princípios garantistas e a criminalidade do colarinho branco, Revista
Brasileira de Ciências Criminais, 1995, p. 123.
148
ULRICH, Sociedade de Risco: Rumo a uma outra modernidade, p. 24.
61
149
GLESS, Sabine; SILVERMAN, Emily; WEIGEND, Thomas, If robots cause harm, who is to blame? Self-
driving cars and criminal liability, New Criminal Law Review, v. 19, n. 3, p. 412–436, 2016.
150
WORLD HEALTH ORGANIZATION, Global status report on road safety 2018, Geneva: World Health
Organization, 2018.
151
U.S. DEPARTMENT OF TRANSPORTATION, Automated vehicles 3.0: preparing for the future of
transportation.
62
causados por fatores ligados diretamente ao motorista, quais sejam, direção sob influência de
álcool ou entorpecentes, exaustão, excesso de velocidade, manobras ilegais ou distração.
A aposta dos VA’s, motivada pela perspectiva de aceitação pela sociedade, está na
estimativa de que pistas tomadas por veículos inteligentes representaria a eliminação do fator
erro humano. A estimativa é que quando o efetivo de veículos inteligentes nas estradas norte-
americanas nos Estados Unidos alcançar a proporção de 10%, haverá 4% menos acidentes de
trânsito, e 1.342 menos mortes anuais, com economia de 1,4 bilhões de dólares em gastos com
saúde. Com a proporção de 90% de VA’s circulando nos Estados Unidos, a redução de
acidentes será de 77%, baixa de 25.842 mortes anuais, e economia de 27 bilhões de dólares
anuais no âmbito da saúde152.
A empresa de prestação de serviços KPMG153 publicou estudo que demonstra a
estimativa de que a presença de autodirigidos implicará o decréscimo de 80% de automotivos
até o ano 2040, ou uma média de 0,009 acidentes por carro. Apesar disso, a empresa destaca
que as fatalidades não serão erradicadas, isso porque fatores como defeitos próprios da
tecnologia, condições climáticas e da estrada, animais, o mal uso da tecnologia ou a não
ativação do sistema no momento da colisão ainda subsistirão154.
Por fim, vale o registro sobre o ano de 2020 no estado da Califórnia, especificamente
entre os meses de janeiro e agosto, centro reconhecido de testes de empresas na área dos
autônomos, tendo anotado apenas 24 acidentes com VA’s. O detalhe é que na grande maioria
das colisões, é que o próprio VA foi alvo de colisão traseira, ou seja, presumivelmente, não
foram os carros inteligentes os causadores do evento155.
Ao que tudo indica, no futuro, os autodirigidos podem se tornar parceiros "normais" de
interação, especialmente quando enxergados como parte do tráfego cotidiano. O encontro com
os autônomos no trânsito então se tornará um risco normal para os seres humanos, e o operador
do carro que dirige sozinho não será mais criminalmente responsável por seu mau
152
LUTTRELL, Kevin; WEAVER, Michael; HARRIS, Mitchel, The effect of autonomous vehicles on trauma and
health care, Journal of Trauma and Acute Care Surgery, v. 79, n. 4, p. 678–682, 2015.
153
KPMG, Automobile insurance in the era of autonomous vehicles.
154
KAJI, Mina; MAILE, Amanda, Distracted driver in fatal 2018 Tesla crash was playing video game: NTSB,
ABC News, disponível em: <https://abcnews.go.com/Politics/distracted-driver-fatal-2018-tesla-crash-playing-
video/story?id=69207784>. acesso em: 17 ago. 2022.
155
STRICKLAND, Grace; MCNELIS, John, Autonomous vehicle reporting data is driving AV innovation right
off the road, Tech Crunch, 2020.
63
funcionamento previsível, mas tão somente quando causar danos por erros de construção,
programação ou operação evitáveis156.
De todo modo, em que pese as prometidas benesses sociais, necessário se faz uma
reflexão crítica sobre a implantação da modelagem computacional no sistema viário, sobretudo
sob o prima das implicações no âmbito da responsabilização penal. É um equívoco cogitar que
questões jurídicas fundamentais seriam apequenadas no contexto do encontro do direito e da
tecnologia. Em verdade, com a expansão de sistemas autônomos elas ressurgem com ainda mais
intensidade. O algoritmo programado para situações de colisões inevitáveis é um exemplo que
levanta tais discussões fundamentais.
Partindo da premissa de que o objeto dessa pesquisa diz com a responsabilidade penal
em situações envolvendo a IA aplicada aos carros inteligentes, nesse item serão abordados, de
modo perfunctório, os substratos do fato típico. Dentro do conceito analítico do crime, será
estudada a matéria do nexo causal, sobretudo por nele estar inserida a teoria da imputação.
Logo, a abordagem dos institutos localizados no primeiro plano do conceito analítico do crime
se faz necessária para o desenvolvimento do ponto central da proposta do trabalho.
156
GLESS; SILVERMAN; WEIGEND, If robots cause harm, who is to blame? Self-driving cars and criminal
liability, p. 433.
157
BITENCOURT, Cezar Roberto, Tratado de direito penal: Parte geral (Arts. 1o a 120), 24. [livro eletrônico].
São Paulo: Saraiva, 2018.
158
Ibid.
64
O resultado é o segundo elemento do fato típico, sendo dividido em duas espécies. Como
ensinam Raúl Zaffaroni e José Henrique Pierangeli159, o primeiro é o naturalístico, o qual gera
a modificação física no mundo exterior, sendo esse indispensável nos crimes materiais. Nos
delitos formais, ele é prescindível. Já nos crimes de mera conduta não há resultado naturalístico
descrito no tipo (crime de mera atividade). O segundo é o resultado jurídico ou normativo, no
qual há a lesão ou risco de lesão ao bem jurídico tutelado. A dedução lógica é que todos os
crimes (material, formal e de mera conduta) devem apresentar ao menos o resultado jurídico,
pois não há crime sem lesão ou perigo de lesão ao objeto de proteção do tipo.
O nexo de causalidade caracteriza o terceiro elemento do fato típico e consiste no elo
entre a conduta realizada pelo agente e o resultado provocado. Por fim, o quarto elemento do
fato típico é a tipicidade, que significa a adequação da conduta humana ao tipo descrito em lei,
isto é, a adequação da conduta do agente a uma previsão típica160.
159
ZAFFARONI, Eugenio Raúl; PIERANGELI, José Henrique, Manual de direito penal brasileiro. Parte geral,
8a edicão revista e atualizada, 2a tiragem. São Paulo: Ed. Revista dos Tribunais, 2008, p. 406.
160
BITENCOURT, Tratado de direito penal: Parte geral (Arts. 1 o a 120).
161
SOUZA, Eduardo Nunes de, Dilemas atuais do conceito jurídico de personalidade: uma crítica às propostas de
subjetivação de animais e de mecanismos de inteligência artificial, v. 9, n. 2, p. 1–49, 2020, p. 15.
65
162
ASARO, The Liability Problem for Autonomous Artificial Agents.
163
COMISSÃO EUROPEIA, Comunicação da comissão ao parlamento europeu, ao conselho europeu, ao
conselho, ao comité económico e social europeu e ao comité das regiões: inteligência artificial para a Europa.
164
FREITAS, Pedro Miguel; ANDRADE, Francisco; NOVAIS, Paulo, Criminal Liability of Autonomous Agents:
From the Unthinkable to the Plausible, in: CASANOVAS, Pompeu et al (Orgs.), AI Approaches to the
Complexity of Legal Systems, Berlin, Heidelberg: Springer Berlin Heidelberg, 2014, v. 8929, p. 147.
66
Apenas o homem pode agir no campo penal, afirma que o sujeito capaz de ação é
apenas o homem, entendido como entidade psico-física, como entidade que pode
cumprir uma ação animada por um processo psicológico finalístico, ainda que não
passível de reprovação.
Hallevy aponta que existe o entendimento de que, não obstante um algoritmo poder
apresentar vários recursos e qualificações, inclusive superiores aos dos seres humanos, tais
características ou qualificações não se mostram suficientes para fins de imputação de
responsabilidade criminal166.
Com efeito, o delito pressupõe a conduta humana, naquilo que se pode concluir que
somente a pessoa física, em conformidade com a dogmática clássica, é quem pode ocupar a
posição de sujeito ativo do ilícito penal, seja na qualidade de autor ou partícipe. Isso porque a
conduta se revela como produto peculiar da pessoa humana.
Tanto é assim que, o finalismo de Hans Welzel - sistema adotado pelo atual código penal
brasileiro -, em um conceito analítico de crime requer a conduta humana direcionada a um
fim167. Para além do que a imputabilidade, assim como ela é desenvolvida no sistema finalista,
por depender da capacidade mental para a compreensão do caráter ilícito da conduta, somente
seria outorgada ao agente artificial diante da comprovada aquisição dessa habilidade.
Todavia, a leitura do sujeito ativo passa por transformações compelidas pelo surgimento
de novas relações jurídico-sociais. A concepção absoluta de que somente o homem é sujeito
ativo vem sendo flexibilizada por novas tendências, em se que inclui também a pessoa jurídica,
afastando a diretriz humanística da responsabilidade penal.
Assim, o direito penal vai se amoldando a uma etapa da criminalidade voltada a crimes
específicos, sob pena de não se alcançar o verdadeiro delituoso. Em que pese posições mais
inflexíveis, como a de Raúl Zaffaroni e José Henrique Pierangeli168 - que por repudiarem a
teoria da ficção, afirmam que “a pessoa jurídica não pode ser autora de delito, porque não tem
capacidade de conduta humana no seu sentido ôntico-ontológico” -, a ciência jurídica penal é
165
BETTIOL, Giuseppe, Direito Penal, São Paulo: Revista dos Tribunais, 1996, p. 275–277.
166
HALLEVY, Gabriel, The basic models of criminal liability of AI systems and outer circles, SSRN Electronic
Journal, 2019, p. 9.
167
BITENCOURT, Tratado de direito penal: Parte geral (Arts. 1 o a 120), p. 362–364.
168
ZAFFARONI; PIERANGELI, Manual de direito penal brasileiro. Parte geral, p. 355–356.
67
169
ALVES, Natália Gontijo, Culpabilidade penal no âmbito da inteligência artificial: a responsabilização da pessoa
jurídica no uso dos veículos autônomos., VirtuaJus, v. 6, n. 11, p. 193–205, 2021, p. 194.
170
BRASIL, Constituição da República Federativa do Brasil de 1988. Art. 173, § 5º A lei, sem prejuízo da
responsabilidade individual dos dirigentes da pessoa jurídica, estabelecerá a responsabilidade desta, sujeitando-a
às punições compatíveis com sua natureza, nos atos praticados contra a ordem econômica e financeira e contra a
economia popular.
171
Ibid. Art. 225, § 3º As condutas e atividades consideradas lesivas ao meio ambiente sujeitarão os infratores,
pessoas físicas ou jurídicas, a sanções penais e administrativas, independentemente da obrigação de reparar os
danos causados.
172
PRADO, Luiz Regis, Direito penal do meio ambiente: crimes ambientais, 7. ed. Rio de Janeiro: Forense,
2019, p. 116–118.
173
LINA, Could AI agents be held criminally liable: artificial intelligence and the challenges for criminal law,
p. 688.
174
DIAS, Jorge de Figueiredo, Direito Penal. Parte Geral: questões fundamentais - a doutrina geral do crime,
2. ed. Lisboa: Coimbra, 2007, p. 346.
68
175
WEIN, Leon E, The responsibility of intelligent artifacts: toward an automation jurisprudence, Harvard
Journal of Law and Technology, v. 6, p. 103–154, 1992, p. 109.
176
HALLEVY, Gabriel, Unmanned Vehicles – Subordination to Criminal Law under the Modern Concept of
Criminal Liability, Journal of Law, Information & Science, v. 21, n. 200, 2012, p. 12.
177
GLESS, Sabine; WEIGEND, Thomas, Agentes inteligentes e o direito penal, in: Veículos autônomos e direito
penal, São Paulo: Marcial Pons, 2019, p. 39.
69
Ocorre que esse desenho não parece se subsumir integral e genuinamente aos
pressupostos de responsabilização penal nos moldes da dogmática clássica do direito criminal.
A responsabilidade particularizada, típica daquela organicidade clássica, perde espaço no
ambiente de desenvolvimento tecnológico. A complexidade de relações entre os autores
envolvidos dificulta a identificação do responsável imediato ou mediato. Há um somatório de
condutas que realizam um resultado específico. Ademais, a existência de um agente tecnológico
– o sistema autônomo – tem o condão de impulsionar ainda mais essa imprecisão.
Nesse contexto, por ser a personalidade jurídica instituto que carrega função substancial
de realocação de riscos, recursos, direitos e obrigações, a sua criação com relação às máquinas
pode representar disrupção do ponto de vista de distribuição das responsabilidades no
ordenamento, sendo de se indagar qual a real necessidade de construir uma inovação jurídico-
doutrinária como essa. Surge o problema de dispersão de responsabilidades, no que proporciona
dificuldades que justificam enorme esforço em se atribuir responsabilidade a alguém, ou até
mesmo a algo (como o agente computacional)178.
Em face do atual nível de algoritmos inteligentes utilizados, reconhece-se um cenário
em que as decisões com base neles são tomadas por meio de um processo consciente e que, em
razão disso, seria necessário pensar na questão da personalidade jurídica dos robôs. Contudo,
há quem defenda que nem nas aplicações com modelagem mais complexa e que considerem
em seu modelo variáveis vinculadas a uma personalidade que lhes venha a ser atribuída, ainda
assim, estar-se-á falando em um algoritmo que toma decisões e executa ações com base em um
mundo que foi modelado e projetado por um especialista, seja pela explicitação de regras, seja
pela criação de massas de dados de treinamento para a sua rede neural.
Todavia, observa-se que a literatura internacional não é uníssona no que diz respeito à
possibilidade de responsabilização penal por atos cometidos por sistemas de inteligência
artificial. Uma parcela da doutrina defende a efetivação da responsabilização penal, inclusive
apontando modelos de responsabilização. Em contrapartida, demais especialistas não
visualizam essa possibilidade com facilidade, mormente pela inadequação da imputação de
responsabilidade a uma máquina inteligente na ordem criminal vigente. Não se acredita nem
mesmo que sistemas digitais algum dia venham a ter tal capacidade179.
178
GUEDES; MACHADO, Veículos autônomos inteligentes e a responsabilidade civil nos acidentes de
trânsito no Brasil: desafios regulatórios e propostas de solução e regulação, p. 64.
179
CICUREL, Ronald; NICOLELIS, Miguel, O cérebro relativístico: como ele funciona e por que ele não pode
ser simulado por uma máquina de Turing, São Paulo: Kios Press, 2015.
70
Pode-se dizer que, porém, falta aos agentes inteligentes elementos essenciais do ser-
pessoa: pode ele até aprender e tomar decisões – imprevisíveis para os demais –,
todavia, não pode se tornar consciente de sua própria liberdade, e muito menos
entender-se como portador de direitos e deveres da sociedade. Agentes inteligentes
podem realizar determinadas tarefas de forma automática, mas seguem – mesmo
quando capazes de aprender –, em última instância, as opções pré-programadas e não
se auto atribuem responsabilidade por seu comportamento.
Sob o ponto de vista causal, não há tantas exigências no que diz respeito ao controle da
vontade humana. A voluntariedade só é negada quando o corpo humano reage
automaticamente, como por exemplo em casos de atos reflexos incontroláveis, ou quando ele é
usado como objeto por outros homens (A joga B sobre C). É o que ocorre com máquinas simples
controladas pelos homens, como um aspirador de pó ou um carro tradicional. Contudo, isso não
é o que acontece perante agentes inteligentes que, por disporem do processo de aprendizagem
automática, fogem do controle humano perene, no que suas decisões podem ser consideradas
voluntárias, sob o ponto de vista da teoria causal da conduta181.
A teoria finalista, contudo, tornam a dirigibilidade finalística o critério central da
conduta humana, diversamente da teoria causal. Assim, somente quando e porque a conduta
humana é expressão de uma vontade do agente dirigida a um propósito é que ela se torna
penalmente relevante. Com relação aos agentes inteligentes, em razão de sua capacidade de
aprender, podem definir de modo autônomo as etapas intermediárias de seus propósitos.
Assim, é que em um nível mais elevado, um drone armado pode identificar inimigos e
os combater. “É uma questão de avaliação (externa), se se admite que um agente inteligente
toma suas decisões baseado em "choices" já previamente programadas ou se ele faz
"judgements" - ou seja, valorações próprias”182. Mesmo nesse último caso não significa que o
sistema fixa metas deliberadamente, pois não é capaz de reconhecer por si só o que faz e ter a
ciência de que seu comportamento é socialmente significativo. Se os agentes inteligentes têm
ou podem adquirir o estado de autoconsciência é objeto de discussão no âmbito inteligência
180
GLESS; WEIGEND, Agentes inteligentes e o direito penal, p. 45.
181
Ibid., p. 47–48.
182
Ibid.
71
artificial, não havendo resposta até então. Afinal, no atual estado da arte, os agentes inteligentes
desconhecem a relevância de suas ações.
Com efeito, a questão acerca da imputação penal dos sistemas inteligentes acaba se
tornando uma questão de definição. Assim é que, sob a perspectiva causalista, segundo a qual
a conduta representa qualquer movimento corporal voluntário, sujeitos artificialmente
inteligentes podem ser vistos como seres que praticam condutas. Segue-se a lógica proporcional
de quanto maior a densidade substancial dada ao conceito de conduta, e quanto maior a
determinação finalística autoconsciente, menor a possibilidade de atender aos pressupostos da
capacidade de conduta por parte dos sistemas inteligentes183.
Vale destacar, que a Resolução do Parlamento Europeu, que contém recomendações à
Comissão sobre disposições de Direito Civil sobre Robótica, propõe a criação de uma
personalidade jurídica própria às inteligências artificiais, chamada de e-personality, com a
promulgação de um novo diploma para sua regulação. Todavia, essa sugestão é criticada por
ser eminentemente patrimonialista, elaborada tendo em conta somente a viabilização da
reparação das vítimas de acidentes, furtando-se de uma discussão mais aprofundada e
abrangente sobre eventual estatuto jurídico que incida sobre a IA184.
Hallevy defende que o direito é compelido a oferecer soluções adequadas para a prática
de infrações cometidas por entidades de IA. Para tanto, ele desenvolve três modelos para lidar
com esses fenômenos, os quais podem ser aplicados de maneira isolada ou combinados entre
si185.
O primeiro é o modelo de responsabilidade da perpetração por outro (perpetration-by-
another liability model). Basicamente informa que os sistemas, por não haver como considerá-
los autores de um crime, são comparados às crianças ou incapazes. Logo, o responsável criminal
é aquele que o manipulou para fins delituosos. No caso dos sistemas, recairia na pessoa do seu
desenvolvedor ou de seu usuário. A IA representaria mero instrumento para o cometimento do
delito, sendo a consequência legal a responsabilidade do desenvolvedor ou do usuário,
isentando o próprio sistema186.
O segundo, modelo de responsabilidade de prováveis e naturais consequências (natural
probable consequence liability model), propõe que o desenvolvedor possui um profundo
183
Ibid.
184
SOUZA, Carlos Affonso, O debate sobre personalidade jurídica para robôs, Jota, 2017.
185
HALLEVY, The basic models of criminal liability of AI systems and outer circles, p. 1.
186
Ibid., p. 1–4.
72
envolvimento nas funções da máquina sem, contudo, ter idealizado a prática de fato típico.
Modelo servil para casos em que se reconhece a negligência, pois o sistema desvia do plano
original e comete uma infração, considerada essa como consectário natural e provável da
atividade desenvolvida pelo programador187.
Nesse modelo, há duas soluções quanto à responsabilização perante o ato. Assim, acaso
o sistema de IA tenha atuado como um agente inocente por não saber nada sobre a proibição
criminal, não é criminalmente responsável pelo crime que cometeu. Porém, se o sistema não
atua como um agente inocente, além da imputação ao programador ou do usuário, o sistema
será criminal e diretamente responsável pela ofensa188.
Por último, o modelo de responsabilidade direta (direct liability model), o qual não
assume qualquer dependência do sistema de IA em um programador específico, concentrando-
se no próprio sistema de IA e permite derivar a responsabilidade criminal dos círculos externos
com mais precisão. Esse último modelo visa fornecer um quadro teórico para uma equivalência
funcional entre entidades de IA e humanos para fins de responsabilidade criminal, de modo que
a máquina pode cometer a infração de modo comissivo ou omissivo189.
Segundo o autor, a responsabilidade direta faz sentido porque a máquina dispõe de
conhecimento face à recepção sensorial e à compreensão dos dados. No que diz respeito à
intenção, ela pode ser programada para propósito ou objetivo específico e diligenciar nesse
sentido. Obstáculo maior é o confronto com os sentimentos humanos, inalcançáveis pelo robô,
o que não inibe a atividade delituosa por inteiro porque nem todos os crimes reclamam
sentimentos para serem intentados, sendo uma questão de ajustes tornar possível a
responsabilização direta dos sistemas190.
O contra-argumento está na imperfeição daquilo que diz respeito ao elemento subjetivo,
sob a perspectiva da teoria do delito. A rigor, o sistema não dispõe de vontade, particularidade
do ser humano. De mais a mais, os sistemas de IA não dispõe de consciência e moral,
imprescindível para a reprovabilidade de seu comportamento, tornando-o incapacitado para se
sujeitar aos comandos jurídicos inscritos nas normas. Aliás, resta esvaziado o fundamento ético
da figura penal, tornando-se também ineficaz a sua função de censurabilidade e prevenção.
187
Ibid., p. 4–8.
188
Ibid., p. 8.
189
FREITAS; ANDRADE; NOVAIS, Criminal Liability of Autonomous Agents, p. 152.
190
HALLEVY, The basic models of criminal liability of AI systems and outer circles, p. 8–15.
73
Apenas o ser humano é capaz de executar uma ação com consciência do seu fim. O robô
não desencadeia comportamento voluntário psiquicamente dirigido a um fim, muito menos age
com culpa. Considerar sujeito ativo um robô inteligente seriam necessários alterações
estruturais em sede da teoria do crime.
Por outro ângulo, reconhece a inverossimilhança em relação a uma imputação subjetiva
do dano por ser realizado via programas altamente complexos. Além disso, o elemento
subjetivo dos tipos penais, engendrado para delimitar a imputação torna-se óbice à
responsabilidade quando o ilícito é provocado pelo sistema autônomo191.
Há críticas feitas às modelagens apresentadas por Hallevy, exercidas, sob o influxo de
argumentos metajurídicos, de índole filosófica, contestando a responsabilização do sistema de
IA. Para esses, a conduta típica objetivamente praticada não lhe comporta significado algum.
Atropelar uma pessoa é a mera execução de uma tarefa consignada em um algoritmo, de modo
que a vontade não lhe é peculiar. A crítica se volta também à comparação do sistema inteligente
a um inimputável, porque ainda que presente a incapacidade, trata-se de um ser humano192.
No domínio da literatura brasileira, são encontrados fartos estudos apontando a
possibilidade de responsabilização na esfera cível, contudo no âmbito criminal a discussão
ainda é incipiente. Verifica-se que a doutrina civilista enfrenta menos dificuldades e consagra
de forma mais clara a possibilidade de responsabilização civil de um sistema autônomo. A
reparação patrimonial pelo dano sofrido é o objetivo principal, concentrando-se a atenção no
dano causado à vítima, e não na conduta do ofensor.
Caitlin Mulholland193 salienta, de um lado, a possível solução apelando para o instituto
da responsabilidade civil objetiva do sistema de IA, a partir da constituição da personalidade,
capacidade de direito e patrimônio autônomo, situação análoga àquela imposta às pessoas
jurídicas. Noutro giro, discorre sobre eventual aplicação da responsabilidade civil subjetiva do
programador, a fim de que o desenvolvedor seja responsabilizado pelo dano:
por culpa na elaboração dos algoritmos que serviram de insumo inicial para o
desenvolvimento dos processos de autoaprendizagem da IA. Por esta tese, haveria um
ônus desproporcional a ser enfrentado pelo programador, que seria, ao final,
responsabilizado por um dano ocasionado sem que fosse possível a ele,
antecipadamente, interferir no aprendizado do sistema e na sua capacidade decisória.
Ao mesmo tempo, a tese seria também facilmente afastada pela impossibilidade de
191
SOUSA, Não fui eu, foi a máquina: teoria do crime, responsabilidade e inteligência artificial, p. 78.
192
DIVINO, Sthéfano, Responsabilidade penal de Inteligência Artificial: uma análise sob a ótica do naturalismo
biológico de John Searle, Revista Brasileira de Ciências Criminais, v. 171, n. 28, p. 153–183, 2020, p. 178.
193
MULHOLLAND, Responsabilidade civil e processos decisórios autônomos em sistemas de inteligência
artificial (IA): autonomia, imputabilidade e responsabilidade, p. 338–347.
74
Importante notar que há especialistas que sugerem uma análise dos algoritmos de
acidente sob a perspectiva das justificantes e das exculpantes. Para esse trabalho, essa sugestão
literária será brevemente estudada, já que o seu cerne está na teoria da imputação objetiva,
fazendo-se, portanto, o recorte metodológico necessário à pesquisa. Logo, uma efêmera análise,
percorrendo caminhos dogmáticos tradicionais, na tentativa de resolverem situações de vida
contra vida surgidas com os programas inseridos nos carros autônomos.
Ressalta-se que são categorias/institutos que ganham novo fôlego em face dos
autônomos, que passarão pela mesma discussão que passaram os crimes culposos com o
aumento da circulação de veículos na metade do século passado197.
194
DIAS, Jorge de Figueiredo, O papel do direito penal na protecção das gerações futuras, Boletim da Faculdade
de Direito da Universidade de Coimbra, n. especial, p. 1123–1138, 2003.
195
DE LA CUESTA AGUADO, Paz Mercedes, Inteligencia artificial y responsabilidad penal, Revista Penal
México, n. 16–17, p. 51–62, 2019.
196
PIRES; SILVA, A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a
resolução do parlamento europeu, p. 246–247.
197
ENGLÄNDER et al, p. 20.
75
198
MARTELETO FILHO, Wagner, Agentes híbridos e autônomos: alguns problemas de imputação objetiva e
subjetiva, justificação e desculpa, Anatomia do Crime, v. 12, p. 87–105, 2021, p. 95.
199
O instituto exógeno do conflito de deveres será mais detalhado no item seguinte, por questões didáticas.
200
GRECO, Luís, Autonome Kraftfahrzeuge und Kollisionslagen, in: KINDHÄUSER, Urs et al (Orgs.),
Festschrift für Urs Kindhäuser zum 70. Geburtstag, 1. Auflage. Baden-Baden: Nomos, 2019, p. 167–176.
201
MARTELETO FILHO, Wagner. Agentes híbridos e autônomos: alguns problemas de imputação objetiva e
subjetiva, justificação e desculpa. In Anatomia do Crime 12, 2020, p. 95.
76
202
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas, p. 187.
203
WEIGEND, Direito de necessidade para carros autônomos?, p. 117.
204
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas.
205
MARTELETO FILHO, Wagner. Agentes híbridos e autônomos: alguns problemas de imputação objetiva e
subjetiva, justificação e desculpa. In Anatomia do Crime 12, 2020, p. 97.
77
Diante das exposições literárias, constata-se que não há uma literatura sólida abarcando
os fundamentos que pudessem firmar a licitude do algoritmo de acidente. Há argumentação por
sua admissibilidade pelo ordenamento vigente. Assim, com base em uma suposta licitude é que
a doutrina se propõe a sustentar o estado de necessidade ou a colisão de deveres por meio dos
algoritmos selecionadores de vítimas.
Sob um outro ângulo, parcela da doutrina simpatiza com a ideia de que a programação
voltada para as situações emblemáticas deve prezar pelo dever de omissão, não havendo que se
prestigiar a vida do passageiro do veículo em detrimento da vida de eventual pedestre. Wagner
Marteleto sintetiza essa linha, afirmando que a “antecipação do problema, ao se converter a
solução no algoritmo, não altera a ordenação de prioridade entre os deveres de omitir e de
agir”206.
Inicialmente, é preciso anotar que o instituto da colisão de deveres é figura que não
possui previsão no Brasil, nem mesmo na Alemanha, berço das discussões que dizem respeito
aos VA’s. Porém, o instituto está previsto no Código Penal de Portugal 207. No Brasil, seguindo
o modelo alemão, pode ser considerada uma causa supralegal de exclusão da ilicitude.
Nos ensinamentos de Coca Vila208, o instituto prega que o agente tem de cumprir dois
ou mais deveres de agir penalmente relevantes, contudo, ele apresenta condições de satisfazer
apenas um deles. O exemplo clássico é o do pai que está diante de seus dois filhos se afogando,
mas só dispõe de condições para salvar apenas um deles. Logo, a satisfação de um dever
implica, inevitavelmente, ao descumprimento do outro.
Sua invocação gera raras controvérsias, mas recentemente ela voltou ao centro das
discussões para solução envolvendo justamente os veículos autônomos e para amparar a
conduta de médicos que fazem triagem para a ocupação de leitos (inclusive em razão da
pandemia).
206
MARTELETO FILHO, Agentes híbridos e autônomos: alguns problemas de imputação objetiva e subjetiva,
justificação e desculpa, p. 97.
207
PORTUGAL, Código Penal de Portugal. Decreto-Lei n.o 48/95. Art. 36.º 1 - Não é ilícito o facto de quem, em caso
de conflito no cumprimento de deveres jurídicos ou de ordens legítimas da autoridade, satisfizer dever ou ordem de valor igual
ou superior ao do dever ou ordem que sacrificar. 2 - O dever de obediência hierárquica cessa quando conduzir à prática de um
crime”.
208
COCA VILA, Ivó; SILVA SÁNCHEZ, Jesús-María; ROBLES PLANAS, Ricardo, La colisión de deberes en
derecho penal: concepto y fundamentos de solución, Barcelona: Atelier, Libros Jurídicos, 2016, p. 29.
78
Um dos critérios tradicionais para lidar com esses casos de situações de salvamento é a
aplicação do princípio de que prevalece o dever de omissão em relação à ação. Assim, tem-se
um ilícito toda vez que a vida de um inocente for sacrificada para o salvamento de uma
pluralidade de pessoas. Por isso, fala-se na prevalência do dever de omissão em relação à ação,
principalmente quando a questão envolver “vida contra vida”209.
Thomas Weigend traz duas diretrizes aqui nesse ponto. Primeiro, o dever de omissão
(“Não mate!”) é mais importante do que o dever de ação (“Salve A e B”). Em segundo, toda
vida humana possui um valor supremo e não deve ser compensada com outros valores (ou
outras vidas)210.
Matheus Caetano, diante a análise da responsabilidade penal dos autônomos sob o
prisma do instituto da colisão de deveres, conclui que o instituto também não se coaduna como
possível conformação jurídico-penal aos algoritmos. Isso porque lhe faltaria, pelo menos, um
elemento essencial, qual seja o dever de garante. É que aqui se falha na tentativa de aproximar
o algoritmo de acidente à clássica hipótese do controlador de trilhos211.
Por outro ângulo, Luís Greco defende que a colisão de deveres é uma alternativa a ser
reputada. É que quando se trata do estado de necessidade, todo agente atua com uma ação típica
na esfera jurídica de outrem. Entretanto, não é o que ocorre na colisão de deveres, dado que
nela não se discute o que pode ser atingido, mas sim a quem deve ser aproveitado a chance de
salvamento e a quem, inversamente, não. No exemplo do afogamento, apenas um dos filhos
possui a chance de salvamento, enquanto o outro não. O fundamento jurídico para essa
justificante consiste no fato de que a lei não pode exigir o impossível212.
Nos dizeres de Luís Greco, importando-se essa excludente de ilicitude para a
programação dos veículos governados pela inteligência artificial nas situações dilemáticas,
verifica-se que ela se perpetua não na ideia de que o carro será programado para matar, mas
porque será programado para desfrutar a melhor chance de salvamento. Assim, na ocasião do
acidente, seria aceitável o perecimento de alguém, pois ninguém perde um bem que detinha,
mas tão somente lhe é negada uma chance de salvamento.
209
MARTELETO FILHO, Agentes híbridos e autônomos: alguns problemas de imputação objetiva e subjetiva,
justificação e desculpa, p. 95.
210
WEIGEND, Direito de necessidade para carros autônomos?, p. 112.
211
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas, p. 177.
212
GRECO, Luís, Veículos autônomos e situações de colisão, in: Veículos autônomos e direito penal, São Paulo:
Marcial Pons, 2019, p. 197.
79
213
MARTELETO FILHO, Agentes híbridos e autônomos: alguns problemas de imputação objetiva e subjetiva,
justificação e desculpa, p. 98.
214
Ibid., p. 99.
80
a ele de um erro. Em assim sendo, não haveria como responsabilizar o motorista, porque estaria
na condição de vítima, e não de autor215.
215
HILGENDORF, Digitalização e direito, p. 68.
216
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas, p. 175.
217
WEIGEND, Direito de necessidade para carros autônomos?, p. 119.
218
O Código Penal adota a Teoria Unitária, não distinguindo o estado de necessidade justificante (ligado à licitude
- antijuridicidade) e o estado de necessidade exculpante (dirimentes - ligado à culpabilidade).
219
ENGLÄNDER, Armin et al, in: ESTELLITA, Heloisa; LEITE, Alaor (Orgs.), Veículos autônomos e direito
penal, 1. ed. Madri Barcelona Buenos Aires São Paulo: Marcial Pons, 2019, p. 24.
220
ENGLÄNDER et al, p. 116.
81
Releva notar, portanto, que no que concerne ao exame do segundo substrato do crime,
que nenhuma das descriminantes dispostas no Código Penal se harmoniza com o contexto das
situações dilemáticas. Notável, ainda, que os desenvolvedores do sistema autônomo não se
adequam às exculpantes previstas no diploma penal.
O dilema que os veículos inteligentes levantam tem muitos paralelos com um dos
problemas éticos mais conhecidos: o clássico caso do controlador de trilhos (“Weichensteller-
Fall”) dos debates alemães, ou o caso do bonde (“Trolley-Case”) nos debates em língua inglesa
- proposto inicialmente pela filósofa Philippa Foot221, ambos frequentemente discutidos na
filosofia prática.
Trata-se de experimento teórico da filosofia moral, com repercussões para variados
ramos da ciência jurídica, em especial para o direito penal e o direito civil. Embora com fartas
alternâncias, em sua forma básica, a versão mais original descreve um bonde desgovernado o
qual se encontra na iminência de abalroar com um túnel em construção, resultando na morte
provável de dezenas de seus passageiros. O controlador da ferrovia tem a capacidade de
redirecionar o trilho. Essa ação, todavia, faria com que o bonde se chocasse com três
trabalhadores que lá se encontram.
Diante dessa quadra fática, a hesitação está em averiguar se a decisão moralmente
adequada por parte do funcionário seria desviar o trajeto do bonde, optando pela morte de três
pessoas como um custo para que uma quantidade superior de outras vidas sejam preservadas;
ou então, se deveria deixar a sua rota natural, poupando os trabalhadores que não possuíam
nenhum vínculo com a circunstância desgovernada do bonde. À vista disso, o dilema se
apresenta, em essência, como o confronto entre concepções utilitárias e deontológicas sobre o
valor de vidas humanas envolvidas em situações dilemáticas.
São, portanto, questões ético-filosóficas em que se depara com a situação de escolhas
trágicas. No caso do processo decisório dos veículos autônomos - problemática desenhada nessa
pesquisa - há que se verificar se se trata de um novo problema, ou apenas de reformulação
daquilo que já é discutido há décadas.
221
FOOT, Philippa, The problem of abortion and the doctrine of the double effect, Oxford Review, n. 5, 1967.
82
Autores como Nick Belay222 pensam ser necessário a inserção de uma codificação de
valores de cunho ético-jurídico no software de um carro autônomo, designando valores sociais
conferidos a determinadas condutas. Corrente contrária223, todavia, defende que o programa
não é o espaço adequado para acondicionar elementos éticos.
Há severas críticas quanto ao enquadramento do dilema do trolley para o contexto dos
autodirigidos, dado que nesses o veículo é quem confere a decisão “moral” de quem morre ou
sobrevive224. Além do que a elevada capacidade do programa de captar todo o cenário
circunstancial, bem como de desenrolar sua operação programada, em muito se distancia do
dilema atual daquele tradicional.
Outra crítica quanto ao enquadramento é que, via de regra, a decisão a ser inserida no
algoritmo não é tomada por uma única pessoa como na hipótese do trolley, porquanto a
configuração é levada a efeito por um grupo de técnicos, proprietários de uma empresa ou um
grupo de acionistas, sendo mais tímido o conjunto de possíveis soluções a seu dispor. Isso sem
mencionar que o autônomo possui habilidade para captar múltiplas informações com seus
sensores, tornando mais refinado e detalhado o seu processo decisório225.
Para os que seguem a possibilidade de inserção e codificação de valores no algoritmo,
a imputabilidade a controladores e codificadores é possível. Ponto diferenciador entre aqueles
clássicos experimentos e o processo de tomada de decisão dos veículos inteligentes talvez esteja
no fato de que as decisões do sistema autônomo provêm de um algoritmo previamente inserido,
de modo diverso de uma decisão espontânea como é tomada nos casos do “controlador de
trilhos” ou do “caso do bonde”, diga-se, por uma pessoa que muito provavelmente nunca tinha
parado para refletir sobre esse tipo de situação.
Além do que a programação não se limita a seguir a codificação introduzida, havendo
uma reprodução dos valores humanos, contudo, oportunizando-se ao sistema optar entre as
várias alternativas ao caso concreto. Portanto, um processo heurístico que, na tessitura humana
retrata um processo cognitivo para decisões não racionais, executado em sede da camada
222
BELAY, Nick, Robot ethics and self-driving cars: how ethical determinations in software will require a new
legal framework, Journal of the Legal Profession, v. 40, n. 1, p. 119–130, 2015, p. 120.
223
ROE, Madeline, Who’s driving that car: an analysis of regulatory and potential liability frameworks for
driverless cars, Boston College Law Review, v. 60, n. 1, p. 317–347, 2019, p. 338.
224
GRIEMAN, Hard drive crash, an examination of liability for self-driving vehicles, p. 301.
225
NYHOLM, Sven; SMIDS, Jilles, The ethics of accident-algorithms for self-driving cars: an applied trolley
problem?, Ethical Theory and Moral Practice, v. 19, n. 5, p. 1275–1289, 2016, p. 1276.
83
inconsciente. Por isso que para Madeline Roe226 o “dilema do bonde” exsurge na eventualidade
de o programa não ter sido pré-definido, de maneira que em não havendo a previsão do
software, o desenvolvedor não é responsável se o veículo realiza as manobras esperadas e o
caso concreto se deu de modo imprevisível.
A doutrina alemã enxerga essa possibilidade resgatando um caso decidido pelo Tribunal
Supremo do Império Alemão em 1927227. Na ocasião, uma mulher necessitava realizar um
aborto necessário para que pudesse sobreviver. O decisum proferido reconhece-lhe o direito,
com fundamento no estado de necessidade supralegal, preservando-se a vida já formada em
detrimento de uma outra vida de incerta sobrevivência. É hipótese hoje positivada em diversas
legislações, inclusive no código penal brasileiro, prevista no inciso I do seu artigo 128.
A correlação do aborto necessário com o algoritmo de acidente está na expectativa de
se positivar um dever de salvamento de vidas humanas em detrimento de outras quando se
depara com uma situação de colisão inevitável. Além disso, sugere-se que o critério qualitativo
seja substituído pelo quantitativo, com o fim de polir o algoritmo de acidente com doses de
imparcialidade228.
Sob essa perspectiva, não haveria propriamente a escolha de uma vida em benefício de
outra, seja por razão discriminatória ou outra qualquer. Em verdade, porque na situação de
colisão inevitável e, sobretudo, acidental, seria(m) salvo(s) a(s) pessoa(s) com as maiores
chances de sobrevivência. Portanto, aqui se mostra uma argumentativa que, em termos
jurídicos, caminha ao encontro da autorização para circulação dos veículos inteligentes, não
obstante muitos juristas sejam negativistas em relação à tecnologia.
Há que se afastar, portanto, a prévia concepção de que os avanços tecnológicos são
sempre benéficos. É preciso se perquirir, sempre, se aquilo que se revela tecnicamente possível
é admissível sob as vertentes ética, política e social, ainda que juridicamente lícita229.
Igualmente, não há que simplesmente negá-los de modo desarrazoado sem a adequada
fundamentação no sentido da absoluta inadmissibilidade em razão de seus efeitos práticos, o
que pode implicar, de igual maneira, desvantagens à sociedade.
226
ROE, Who’s driving that car: an analysis of regulatory and potential liability frameworks for driverless cars,
p. 338.
227
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas.
228
GRECO, Veículos autônomos e situações de colisão.
229
RODOTÀ, A vida na sociedade da vigilância: a privacidade hoje, p. 142.
84
230
AMARAL, Francisco, Direito civil: introdução, 7. ed. Rio de Janeiro: Renovar, 2008, p. 1.
231
GHIRALDELLI JÚNIOR, Paulo, RICHARD RORTY: A filosofia do novo mundo em busca de mundos
novos, Petrópolis: Vozes, 1999, p. 67.
232
BACKHAUS, Jürgen Georg (Org.), Handbook of the History of Economic Thought: Insights on the
Founders of Modern Economics, New York, NY: Springer New York, 2012.
233
Ibid.
234
HILGENDORF, Digitalização e direito, p. 92.
85
consequências imediatas como as mediatas são levadas em conta, desde que possam ser
avaliadas235.
O consequencialismo se utiliza da maximização de um bem, por meio de uma
ponderação entre custos e benefícios, para definir o legítimo e o ilegítimo236. A crítica que
recebe recai no tratamento do homem como um fim em si mesmo, desconhecendo todo e
qualquer limite, como o representado pela dignidade da pessoa humana. Logo, se o uso da
liberdade pode promover consequências graves para os demais membros sociais, ela não será
legítima. O absolutismo consequencialista, em sede do cálculo custo-benefício, implicaria a
aceitação do polêmico axioma de que os fins justificam os meios.
Oportuno reforçar que a refutação de Rawls - “Utilitarianism does not take seriously
the distinction between persons”237 -, aqui também é cabível, máxime em razão da admissão
por parte do filósofo consequencialista acerca da validade na compensação entre perdas de um
indivíduo em prol de ganhos de outro, como se fossem considerados uma individualidade só238.
No contexto dos VA’s, o discurso utilitarista também encontra seus simpatizantes, o
qual aparece frequentemente na literatura alemã, efetivando-se a partir da mensuração sobre
quais consequências o sacrifício de pessoas inocentes teriam sobre o sistema social e jurídico
no caso das situações dilemáticas de inevitável colisão no tráfego rodoviário.
Em contrapartida, há declarações contra o utilitarismo. Para Eric Hilgendorf, a proibição
de cálculo de vidas dificilmente poderia ser justificada com base no utilitarismo. Para o autor,
em que pese muitos entenderem que o dilema na condução automatizada esbarra em questões
que devem ser resolvidas por meio de embates entre abordagens deontológicas e utilitárias, isso
não lhe parece convincente239.
A premissa principal que demonstra a falha da visão utilitarista é que ninguém é
obrigado a se sacrificar em prol de outras pessoas. A perspectiva utilitarista reclama, em sede
da avaliação de um ato individual, que se considere todas as consequências de uma decisão e
que a decisão seja tomada no sentido de que se ofereça o maior benefício possível ao bem
comum. No caso dilemático, Eric Hilgendorf questiona o quão harmônico ao bem comum é
235
Ibid.
236
BACKHAUS (Org.), Handbook of the History of Economic Thought.
237
RAWLS, John, A theory of justice, Rev. ed. Cambridge, Mass: Belknap Press of Harvard University Press,
1999, p. 24.
238
GRECO, Luís, Um panorama da teoria da imputação objetiva, 1a ed. rev. e atual. [livro eletrônico]. São
Paulo: Revista dos Tribunais, 2014.
239
HILGENDORF, Digitalização e direito, p. 93.
86
uma programação que oponha riscos a pedestres que se encontram fora de perigo. Na via
contrária, para ele é justamente o argumento da posição utilitarista que não permite a aceitação
do sacrifício do pedestre não-participante240.
Aliás, em um sistema jurídico liberal, o indivíduo não pode ser compelido a se sacrificar
em benefício de demais indivíduos. Premissa válida inclusive quando se trata de vários outros
indivíduos, e não apenas um beneficiário. Em verdade, é uma baliza limitadora dos deveres de
solidariedade social. Deste modo, a programação também resta delimitada, no que está
impossibilitada de lançar um algoritmo que ofereça a vida de um ou mais pedestre fora de perigo
no afã de salvar a vida dos passageiros do veículo ou para salvar terceiros, por razões
quantitativas ou qualitativas.
A dificuldade de se avaliar a situação se dá quando a vítima potencial já se encontra em
situação de perigo desde o começo. Se por exemplo, um carro transita em uma pista estreita,
quando é surpreendido por três crianças que surgem em sua frente. Uma criança está à sua
esquerda e as outras duas à sua direita. Pelas circunstâncias do caso hipotético, um homem
médio não teria condições físicas ou mentais de se desviar, no que atingiria as três de maneira
fatal. Entretanto, em que pese o veículo inteligente não pudesse impedir completamente a
colisão, teria habilidade para fazer a escolha trágica de modo que apenas uma criança fosse
atingida. Assim é que se questiona a utilidade de se programar o algoritmo no sentido de salvar
uma ou mais criança, ou melhor seria se isentar de programar, deixando que o carro siga sua
direção sem desvio, atropelando os três jovens.
A complexidade da resposta está na permissividade da quantificação de vidas humanas,
além da ponderação de valores entre vidas, resultando na conclusão de que é mais vantajoso
que somente uma pessoa inocente morra do que duas ou mais. Portanto, violaria o postulado da
proibição de quantificação e ponderação de vidas. Todavia, é certo que, tanto a intuição moral
da pluralidade social como a apreciação individual da vida como direito fundamental maior,
são razões para permitir a minimização de vítimas em situações dilemáticas.
Assim, para os defensores da programação utilitarista que tem o propósito de preservar
o maior número de indivíduos, a solução está na possibilidade de um algoritmo que, em
situações de vida contra vida, tente conservar o maior número possível de pessoas. Isso porque
seria ilógico e paradoxal chancelar a vida humana como valor máximo, mas de outro lado
defender que é indiferente se serão sacrificadas uma, duas ou três vidas.
240
Ibid., p. 75–77.
87
Sob outra vertente, o princípio do mal menor consagra que em situação de necessidade,
em que os bens jurídicos se encontram sob ameaça, deve-se optar pelo menor dano possível241.
O primeiro desdobramento do princípio, sob a tutela da dignidade da pessoa humana, decorre
que a vida da pessoa representa bem jurídico de maior valor se comparado a coisas.
Entretanto, a problemática surge quando a balança se depara com vidas humanas. Daí a
imprescindibilidade de se encontrar fundamentos éticos e jurídicos que sustentem o desvio de
um veículo contra uma pessoa, para salvar duas, ou ainda, a opção por matar um transeunte
para salvar o usuário do autônomo que se chocaria contra um muro. É que, a ninguém é dado o
dever de sacrificar-se em nome de outro242.
Eric Hilgendorf, porém, é enfático no sentido de que o sacrifício de um inocente no caso
dilemático é conduta antijurídica. O argumento de que é melhor que somente um indivíduo seja
vitimizado em benefício de dois ou mais, caminha, certamente, ao injusto243. A alegada redução
de danos e do mal menor - a exemplo da predeterminação para o desvio na direção de um
pedestre, para que dois sejam salvos -, bem como do risco permitido - utilizando-se do
subterfúgio argumentativo da diminuição de acidentes causados por falhas humanas -, parece
ignorar a existência irrefutável de um processo de ponderação e “quantificação” de vidas
humanas, pois algo intrínseco ao funcionamento do algoritmo.
É certo que a teoria do mal menor, não obstante sua aparente neutralidade ética, é uma
teoria de legitimação de formas de comportamento consequencialista, porquanto a sociedade
como um todo e, mais especificamente os sujeitos implicados, são tratados na situação de
necessidade, como se fossem um único sujeito, aglomerando-se em um único corpo
supraindividual (sujeito holístico). Desta forma, o princípio do mal menor, na concepção do
princípio utilitarista negativo, propõe a salvaguarda em situação de conflito dos melhores
interesses, constituído pela soma de todos os interesses individuais resguardados244.
Embora os argumentos classicamente consagrados contra o utilitarismo como teoria de
fundamentação jurídica, na visão de Coca Vila245 não é adequado determinar os algoritmos
consoante o princípio do mal menor. Primeiramente, em oposição à convicção utilitarista, a
ideia de um sistema capaz de fazer julgamentos infalíveis e incontroversos ainda não é uma
241
Ibid., p. 76.
242
Ibid., p. 97.
243
Ibid., p. 77.
244
COCA VILA, Ivó, Coches autopilotados en situaciones de necessidad. Una aproximación desde la teoria de la
justificación penal, in: Veículos autônomos e direito penal, São Paulo: Marcial Pons, 2019, p. 164.
245
Ibid., p. 165.
88
realidade. Ainda, sob o ponto de vista técnico, não é pacífico quais fatores devem ser levados
em conta no processo de ponderação, ou seja, quais elementos devem constar para um decisão
imparcial. Esse problema metodológico torna-se insolúvel para aqueles que também pretendem
introduzir no macro-julgamento de ponderação de interesse fatores estritamente normativos,
como a provocação do conflito, ou até mesmo a dignidade da pessoa humana.
O sistema jurídico-penal é então legitimado como ramo de proteção ou garantia do
conjunto de interesses do sujeito holístico. Nessa perspectiva, a verdade é que o princípio do
mal menor se mostra efetivamente como um princípio dificilmente questionável. No entanto,
isso se conforma a uma falsa analogia, à maneira como o indivíduo geralmente coloca e resolve
seus próprios conflitos.
O fato de que é geralmente preferível sacrificar meu carro a sofrer danos não explica
por que a Lei teria que sacrificar esse meu bem para salvar a vida de um sujeito desconhecido.
A missão do ordenamento jurídico-penal não é, portanto, o de proteger e maximizar os
interesses de um sujeito que não existe, mas o de garantir uma separação harmoniosa e justa
das esferas de liberdade que cada cidadão administra soberanamente246.
Contudo, Eric Hilgendorf aponta críticas ao seu posicionamento no sentido de que o
sacrifício pode sim se revelar um injusto, mas injustiça ainda maior seria permitir que duas ou
mais perdessem suas vidas247.
Aceitar, às cegas, a tecnologia, sob o argumento de seus benefícios, recai em um
processo de simplificação extrema que torna a vida humana mero elemento de um cálculo, cujo
resultado será “salvar mais vidas” numericamente consideradas. Tudo isso com base na
admissão da justificativa da sobrevivência de uns, eleitos pela tecnologia, em detrimento de
outros, dos quais se aceita a morte. Esse mero “cálculo” de vidas humanas, “juridicamente”
pensado, sem qualquer outra consideração pelas consequências, não deve ser classificado como
utilitário, mas detentor de uma lógica totalitária, como uma atribuição ilimitada de deveres ao
indivíduo por um Estado que não mais reconhece limites ou proteção de indivíduos248.
Com efeito, a lógica que perpassa a moral machine e os algoritmos de seleção de vítimas
apresenta um viés “totalitário”, porquanto é construída a partir da instituição do mal menor
como argumento autorizador da malversação de valores como a igualdade material, a
autonomia e a dignidade da pessoa humana.
246
Ibid., p. 167.
247
HILGENDORF, Digitalização e direito, p. 77.
248
Ibid., p. 94.
89
Sob outro aspecto, a aplicação da lógica totalitarista das relações humanas se faz
presente na instauração de critérios com o fim de selecionarem quem sobrevive e quem é
vitimizado em situação de inevitável colisão rodoviária, ainda que não seja atribuída
responsabilidade ao envolvido. É dizer, a programação quando traz um consentimento
alicerçado na distinção entre “pessoas salváveis e pessoas aniquiláveis” ofende valores
fundamentais de qualquer sociedade, de qualquer época, podendo revelar sua inadequação na
programação do algoritmo com fundamento no princípio do mal menor.
Nessa linha, Matheus Caetano249 refuta veemente a possibilidade dos algoritmos de
acidente. O autor traça objeções ainda mais rígidas à sua implementação. Primeiramente, a vida
humana não está sujeita a um processo de instrumentalização. Em segundo, não se pode olvidar
do seu atributo da intangibilidade. Ainda, a vida humana não é quantificável, muito menos
ponderável. Por fim, a autonomia, a dignidade da pessoa humana e a igualdade, enquanto
limitações no processo de ponderação de bens jurídicos equipotentes impossibilitam axiológico
e juridicamente a ferramenta. Consoante suas anotações,
249
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas, p. 188.
90
250
ENGLÄNDER et al, , p. 114.
251
“A posição original é apresentada como artifício hipotético e heurístico de representação, verdadeiro
experimento do pensamento, e a sua construção é analisada segundo suas categorias próprias. Em linhas gerais, é
ela uma situação hipotética de liberdade igual (definição) sobre o justo no status quo que, semelhante ao estado de
natureza do contrato social (fundamento filosófico), assegura que pessoas livres e iguais (pressupostos), de forma
racional, na condição de representantes dos cidadãos de uma sociedade bem-ordenada, sob um véu de ignorância
(característica), escolham certa concepção de justiça, com a finalidade de chegar a um consenso sobre os princípios
de justiça para a regulação, na cooperação entre todos, da estrutura básica da sociedade (objetivo)”. In:
MARINHO, William Tito Schuman, A concepção da posição original na filosofia de John Rawls: Uma
reconstrução histórico-filosófica até A theory of justice, Universidade Federal de São Paulo, São Paulo, 2013,
p. 6.
252
GRECO, Veículos autônomos e situações de colisão, p. 196–197.
253
COCA VILA, Coches autopilotados en situaciones de necessidad. Una aproximación desde la teoria de la
justificación penal, p. 185.
91
ato antecedente livre na vontade - a ideia de responsabilidade pelos próprios atos deve ser
considerada na resolução do conflito, de modo que o fato de que a maior fragilidade de um dos
dois motociclistas tem sua causa na violação anterior de uma regra de autoproteção. De outro
lado, em consonância com a concepção de solidariedade como limite axiológico fundamental
ao princípio da autonomia, não há por que deferir maior tutela quem se encontra menos
protegido no momento do acidente.
No entanto, Armin Engländer254 adverte que não é persuasivo que Eric Hilgendorf, em
nova publicação, rotule de "orientação humana" a compreensão alemã sobre o direito e a moral
que estão por trás da proibição de compensação, sugerindo que sistemas autoritários seriam a
alternativa. Essas pinturas em preto e branco são inadequadas e não fazem jus à complexidade
dos problemas. Filosofias morais utilitaristas não visam à colocação dos indivíduos sob a
escravidão de governantes autoritários, mas sim à maximização da felicidade.
Diante das exposições, a solução que parece melhor se adequar à sociedade atual de
riscos haveria de ser no sentido de preconizar que não deve haver embargo absoluto de
quantificação ou de ponderação de vidas humana. Diversamente, vidas humanas não raras as
vezes necessitam ser sujeitas à quantificação ou ponderação entre si. Com efeito, o dogma do
mal menor se aplica, em tese, da mesma maneira de sempre, assim, deve-se escolher a variante
de ação que ostente o menor mal possível. Em decisões de vida contra vida, a morte de um
indivíduo ainda que considerado distante do risco há de significar um “mal menor” em relação
à morte ou lesão grave de uma ou mais pessoas que estejam diretamente em risco. Afigura-se
indiferente se os envolvidos no dilema já estão, desde o início, em perigo ou não. O que se faz
necessário é encontrar soluções para o modo de inserção de princípios no algoritmo.
254
ENGLÄNDER, Armin et al, in: ESTELLITA, Heloisa; LEITE, Alaor (Orgs.), Veículos autônomos e direito
penal, 1. ed. Madri Barcelona Buenos Aires São Paulo: Marcial Pons, 2019, p. 148.
92
(a) o carro segue o curso e atropela muitas pessoas ou muda de direção e mata um
transeunte;
(b) o carro segue o curso e mata um pedestre ou muda de direção e mata o seu
passageiro ao se chocar contra o muro; ou, por fim,
(c) o carro pode permanecer no curso e matar muitos pedestres ou mudar de direção e
matar o seu passageiro;255
255
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas, p. 150.
256
BONNEFON, Jean-François; SHARIFF, Azim; RAHWAN, Iyad, The social dilemma of autonomous vehicles,
Science, v. 352, n. 6293, p. 1573–1576, 2016.
257
HILGENDORF, Digitalização e direito, p. 67–68.
93
mostra possível invocar o instituto do risco permitido como solução, servil justamente para
cenários de produção em massa de bens periclitantes, mas que de outro lado são aceitos pela
coletividade.
Na análise do caso foi reconhecido que o fabricante testou exaustivamente o sistema,
além do que não foi esclarecido como o sistema poderia ter sido desenvolvido de modo que se
revelasse mais seguro naquela situação concreta. Por essa razão, a promotoria de Aschaffenburg
se manifestou no sentido da ausência de quebra de deveres de cuidado pelo desenvolvedor, no
que restou improcedente o pedido condenatório.
Nessa seara, portanto, o exame do risco permitido afigura-se imprescindível para a
percepção de que os riscos atrelados à produção em massa de produtos úteis - mas que podem
se mostrar ofensivos – são distribuíveis entre todos os atores.
CAPÍTULO 3 – INTRODUÇÃO DOS ASPECTOS DA IMPUTAÇÃO OBJETIVA
258
Ibid., p. 49.
259
Instituído pela Lei nº 8.078, de 11 de setembro de 1990.
260
ENGLÄNDER et al, p. 58.
95
261
ROXIN, Claus, Estudos de direito penal, Rio de Janeiro: Renovar, 2006, p. 131.
262
Art. 14. A realização do fato criminoso exige ação ou omissão, dolosa ou culposa, que produza ofensa, potencial
ou efetiva, a determinado bem jurídico. Parágrafo único. O resultado exigido somente é imputável a quem lhe der
causa e se decorrer da criação ou incremento de risco tipicamente relevante, dentro do alcance do tipo. BRASIL,
Câmara dos Deputados, Projeto de Lei do Senado n° 236, de 2012. Anteprojeto de Reforma do Código Penal
Brasileiro.
263
GOMES FILHO, Dermeval Farias; SUXBERGER, Antonio Henrique Graciano. Neoconstitucionalismo e
funcionalismo penal teleológico: o ajuste argumentativo na jurisprudência do Supremo Tribunal Federal, Revista
Magister de Direito Penal e Processual Penal, Brasília, v. 17, n. 98, p. 74–105, 2020.
96
De esta teoría de la imputación, que alcanza a toda la teoría del delito en sentido
tradicional, se debe distinguir la teoría de la imputación objetiva, en la que "se trata
de la determinación de las propiedades objetivas de una conducta imputable". Este
aspecto de la imputación, es decir, la imputación objetiva, se vincula
fundamentalmente con la conexión entre la conducta y el resultado por ella
producido. Dicho con otras palabras: con la limitación de la causalidade (natural)
sobre bases normativas.
Nesse contexto, Claus Roxin leciona que a ciência criminal não deve se fundamentar
em normas do ser, seja a causalidade ou a finalidade. Sua idealização é levada a se orientar por
conceitos normativos. Em outros termos, o processo construtivo do sistema jurídico-penal
teleológico deve se dar na esfera do tipo, não dependendo a figura típica da verificação da
causalidade ou da finalidade, e sim da avaliação das circunstâncias que permitiriam imputar a
alguém um resultado típico, portanto, conforme critérios de natureza normativa265.
Então é que o funcionalismo roxiniano se aproxima do neoconstitucionalismo, naquilo
que o sistema penal se consubstancia no direito constitucional aplicado, com fulcro em um
sistema com alta carga axiológica extraída da ordem constitucional do Estado Democrático de
Direito, ditando as balizas para o intérprete e, portanto, não sendo mais a dogmática a pedra
angular utilizada no deslinde dos feitos criminais266.
264
BACIGALUPO, Enrique, Derecho penal: parte general, 2. ed. totalmente renovada y amliada, 3. reimpresión.
Buenos Aires: Hammurabi, 2012, p. 202.
265
PRADO, Luiz Regis; CARVALHO, Érika Mendes de, Teorias da imputação objetiva do resultado. Uma
aproximação crítica a seus fundamentos., 2a edição revista, atualizada e ampliada. São Paulo: Revista dos
Tribunais, 2006, p. 64–70.
266
GOMES FILHO; SUXBERGER, Neoconstitucionalismo e funcionalismo penal teleológico: o ajuste
argumentativo na jurisprudência do Supremo Tribunal Federal.
97
267
ROXIN, Claus. Fundamentos político-criminais e dogmáticos do direito penal, Revista Brasileira de Ciências
Criminais, v. 23, n. 112, p. 33–40, 2015.
268
GOMES FILHO; SUXBERGER, Neoconstitucionalismo e funcionalismo penal teleológico: o ajuste
argumentativo na jurisprudência do Supremo Tribunal Federal.
269
ROXIN, Claus, Sobre a fundamentação político-criminal do sistema jurídico-penal, Revista Brasileira de
Ciências Criminais, v. 35/2001, n. 9, p. 13–27, 2001.
270
Ibid.
271
ROXIN, Estudos de direito penal, p. 101–103.
98
dolo – agora natural – e a culpa são deslocados para o fato típico, alojando-se no interior da
conduta, sendo essa o comportamento humano, consciente e voluntário, dirigido a um fim, de
modo que prevalece o desvalor da ação. Nesse sentido é que se pode afirmar a inegável
contribuição do finalismo para o surgimento da moderna teoria da imputação objetiva272.
A tendência caminhou no sentido de que não bastava tão somente a verificação empírica
de um resultado originado da ação para a caracterização da tipicidade objetiva. A causalidade
perdeu espaço para a imputação, porquanto a legitimação da ciência jurídica criminal reclamou
a seleção dos comportamentos que expunham os bens jurídicos protegidos. Surge assim a teoria
da imputação objetiva, tendo como antecedentes os estudos desenvolvidos por Karl Larenz e
Richard Honig273.
Claus Roxin ensina que os fenômenos jurídicos não se exaurem em um mero processo
causal, sendo que sua dimensão há de ser definida social e juridicamente. Trata-se, portanto, de
um perfil dinâmico de modo que critérios políticos vão ditando sua formação. Repita-se, a
tipicidade tem por critério capital o preceito legal; a antijuridicidade se baseia na solução social
dos conflitos; e a culpabilidade se preocupa com os fins da pena. Assim, o escopo primordial
da teoria compreende afastar a pura aleatoriedade, a simples casualidade, daquilo que
efetivamente representa resultado do comportamento do agente274.
Assim, o que se pretendeu foi fixar balizas normativas no afã de fundamentar a
imputação objetiva em relação ao resultado, sob a vertente da ideia central do risco, em que a
sua criação e realização são os fundamentos da imputação do resultado. Claus Roxin adverte
que “a finalidade deve ser complementada por critérios de imputação objetiva quando o que
importa é saber se uma lesão a bem jurídico almejada ou cujo risco foi assumido pelo autor
representa ou não uma realização típica de um risco não permitido”275.
Em síntese, a definição de conduta criminosa contou, em um primeiro momento, com a
teoria causalista, para a qual bastava o preenchimento de elementos objetivos para que a
conduta fosse considerada típica. Por ser extremamente ampla, e com possibilidade do
regressus ad infinitum, ela deixou de ser aceita, apresentando-se a teoria finalista como
272
GRECO, Um panorama da teoria da imputação objetiva.
273
PRADO, Luiz Régis; CARVALHO, Érika Mendes de, A imputação objetiva no direito penal brasileiro,
Ciências Penais, v. 3, p. 81–102, 2005, p. 81.
274
Ibid., p. 88.
275
ROXIN, Claus. Estudos de direito penal. Trad. Luís Greco. Rio de Janeiro: Renovar, 2006, p. 62.
99
Elucidados os critérios utilizados pela literatura jurídica para a análise do nexo causal,
tem por objetivo este item apontar as principais teorias do direito continental e do direito anglo-
saxão a respeito do nexo de causalidade.
276
Ibid., p. 102.
277
GRECO, Um panorama da teoria da imputação objetiva.
278
Ibid.
279
ROXIN, Estudos de direito penal, p. 104.
280
STIVANELLO, Gilbert Uzêda, Teoria da imputação objetiva, Centro de Estudos Judiciários, n. 22, p. 70–
75, 2003, p. 71.
281
Caso paradigmático julgado no Superior Tribunal de Justiça: HC nº 46.525/MT, Quinta Turma, Rel. Min.
Arnaldo Esteves, j. 21.03.06, DJU de 10.04.06.
100
282
ROXIN, Claus, Funcionalismo e imputação objetiva no direito penal, 3. ed. Rio de Janeiro: Renovar, 2002,
p. 277.
283
ROXIN, Fundamentos político-criminais e dogmáticos do direito penal, p. 38.
284
Ibid., p. 39.
285
TAVARES, Juarez, Teoria do Injusto Penal, 2a edição, revista e ampliada. Belo Horizonte: Del Rey, 2002,
p. 258.
286
ROXIN, Claus, Problemas basicos del derecho penal, Madrid: Réus, 1976, p. 145.
287
DIAS, Direito Penal. Parte Geral: questões fundamentais - a doutrina geral do crime, p. 325.
101
Já nos termos da teoria da causalidade adequada, concebida pelo filósofo alemão Von
Kries, (...) procura-se identificar, na presença de uma possível causa, qual aquela
potencialmente apta a produzir os efeitos danosos, independentemente das demais
circunstâncias que, no caso concreto, operaram em favor de determinado resultado.
Apreciado certo dano, temos que concluir que o fato que o originou era capaz de lhe
dar causa. Mas – pergunta-se -, tal relação de causa e efeito existe sempre em casos
dessa natureza, ou existiu nesse caso, por força de circunstâncias especiais? Se existe
sempre, diz-se que causa era adequada a produzir o efeito; se somente uma
circunstância acidental explica essa causalidade, diz-se que a causa não era
adequada290.
Por fim, a teoria da relevância típica surge como antecessora da teoria da imputação
objetiva, especialmente por conferir o devido valor à relevância jurídica. Aníbal Bruno291
esclarece que a teoria se traduz na conjugação da teoria da equivalência com a da causalidade
adequada, adquirindo mérito no fracionamento da questão ontológica (causalidade) do
288
SANTOS, Juarez Cirino dos, A moderna teoria do fato punível, Curitiba: Fórum, 2004, p. 52.
289
SANCINETTI, Marcelo A, Observaciones sobre la teoria de la imputación objetiva. Teorias actuales em
el derecho penal, Buenos Aires: Ad-Hoc, 1998, p. 187.
290
TEPEDINO, Gustavo, TEPEDINO, Gustavo - Notas Sobre o Nexo de Causalidade.pdf, Revista Jurídica,
v. 296, n. Ano 50, p. 7–18, 2002, p. 9.
291
BRUNO, Aníbal, Direito penal - parte geral, Rio de Janeiro: Forense, 1978, p. 328.
102
292
DIAS, Direito Penal. Parte Geral: questões fundamentais - a doutrina geral do crime, p. 322–323.
293
BITENCOURT, Tratado de direito penal: Parte geral (Arts. 1 o a 120).
294
Ibid.
295
GRECO, Um panorama da teoria da imputação objetiva.
103
296
A exemplo de A e B que colocam veneno separadamente na refeição de C, qualquer deles com dose mortal.
297
GRECO, Luís, Um panorama da teoria da imputação objetiva, 4a ed., rev. e atualizada. São Paulo: Thomson
Reuters/Revista dos Tribunais, 2014, p. 24–31.
298
Ibid., p. 328-330.
104
do resultado à conduta da qual deriva o perigo idôneo para a produção do resultado. De igual
modo, o resultado só será imputável à conduta quando esta tenha criado (ou aumentado, ou
incrementado) um risco proibido ao bem jurídico, exigindo-se ainda que “esse risco se tenha
materializado no resultado típico”299. Portanto, a teoria da imputação requer um duplo fator:
que o sujeito crie, com sua conduta, um risco não permitido, ou que incremente o risco já
existente; e, após, que o risco recaia na produção do resultado concreto. Uma vez não se
verificando um dos fatores, excluir-se-á a imputação.
Como visto, a teoria da imputação objetiva surge como complemento das teorias
causais. Procura se distanciar da relação de causalidade entre o evento danoso e o dano
objetivando a atribuição de responsabilidade.
A teoria alcançou notoriedade a partir da década de 70, pelas mãos de Claus Roxin, seu
grande sistematizador, sob a base do funcionalismo teleológico300. Para essa teoria, a existência
do nexo entre a conduta e o resultado, para além da relação física de causa e efeito (nexo físico),
depende do nexo normativo.
A rigor, a imputação objetiva delimita a atribuição de responsabilidade, na medida que
passa a exigir relevância jurídica na relação de causa e efeito, não sendo suficiente a causalidade
empírica. Sobressai da doutrina de Reinhart Maurach301:
Dizer que o sujeito que dá causa a um fato significa que o evento é fruto de sua vontade
e não de um acontecimento aleatório. Nesse contexto, o fato diz com a realização da vontade,
ao passo que a imputação é o juízo que interliga o fato com a vontade.
A teoria faz referência ao termo “objetiva” em razão da “previsibilidade” não ser
avaliada com base na individualidade do agente. Ao contrário, o preceito fundamental se
encontra ao abrigo de um critério geral e objetivo. O critério da discricionariedade objetiva
299
Ibid., p. 331–332.
300
PRADO, Luiz Regis, Curso de direito penal brasileiro, São Paulo: Revista dos Tribunais, 2002, p. 268.
301
MAURACH, Reinhart, Derecho penal, parte general, Buenos Aires: Astrea, 1994, p. 317–318.
105
impede que o resultado seja imputado ao sujeito, especialmente quando não detém o controle
causal sobre o evento danoso, naquilo que a imputação objetiva acaba acrescendo à causalidade
naturalística uma categoria normativa, somando finalidade objetiva e causalidade302.
Assim, o dolo é o conhecimento do risco, ao passo que a culpa é a cognoscibilidade do
risco. Além disso, a autoria e participação passam a apresentar diferença quantitativa e não
qualitativa. Desta maneira, é que se diz que a teoria do delito se transforma em uma teoria de
imputação303.
Em vista disso, a imputação objetiva do resultado ao sujeito somente ocorre se o
resultado se mostrar previsível e dirigido pela vontade. Acaso diante de situações irregulares
ou não-domináveis nas quais não haja a expectativa de um controle efetivo sobre o curso causal,
restará impossível a imputação, ainda que diante de uma relação de causalidade. Nesta seara,
faltará a tipicidade quanto aos resultados imprevisíveis ou não controlados pela vontade.
Por outro lado, a teoria não prescinde do nexo físico causalístico, ao contrário: o
pressupõe. Contudo, não se imputa o resultado tão somente pelo fato de que o tenha causado,
reclamando-se, ainda, que o resultado retrate a realização de um perigo criado ou incrementado
pelo autor e reprovado pelo tipo penal. Na prática, a imputação objetiva requer a criação ou
incremento de um risco juridicamente intolerável e não permitido ao objeto tutelado, além da
concretização desse perigo em resultado típico, devendo estar o resultado dentro do alcance do
tipo304. Em síntese, para imputação do resultado, é preciso:
302
CAMARGO, Antonio Luís Chaves, Imputação objetiva e direito penal brasileiro, São Paulo: Cultural
Paulista, 2002, p. 2003.
303
GOMES FILHO, Dermeval Farias, Dogmática Penal: fundamento e limite à construção da jurisprudência
penal no Supremo Tribunal Federal, Salvador: JusPodivm, 2019, p. 102.
304
GRECO, Um panorama da teoria da imputação objetiva, p. 24–31.
305
GRECO, Luís, Um panorama da teoria da imputação objetiva, 3a ed., rev. e atualizada. São Paulo: Thomson
Reuters/Revista dos Tribunais, 2013, p. 34–35.
106
É o que se dá, por exemplo, no caso dos pais os quais não podem ingressar no nexo
causal do homicídio praticado pelo filho apenas por serem pais. Ao terem um filho, não estão
criando um risco proibido. Ou ainda, no caso de um homem que apresenta colesterol alto e sua
esposa decide matá-lo levando-o para a churrascaria e lá, por ter comido grande volume acaba
sofrendo um acidente vascular cerebral (AVC) e morre. Pela teoria da equivalência dos
antecedentes, a esposa entraria na cadeia do nexo causal. Pela teoria da imputação objetiva,
não, pois levar o marido para a churrascaria não significa criar um risco proibido.
No início do século XIX, Friedrich Hegel já anunciava os fundamentos da construção
teórica da imputação objetiva, evidenciando que apenas os aspectos do evento naturalístico que
possam ser reconhecidos como próprios do autor são capazes de ocasionar a imputação306.
Fernando Galvão explica que isso significa que tão só as consequências da conduta do autor,
modificação do mundo exterior poderão lhe ser imputadas.
Nisso é que surge a relevância da diferenciação entre “causar” e “imputar”. O direito
penal não deve se preocupar com a responsabilização do indivíduo que deu causa a um evento
danoso tão somente em razão da má-sorte, por força da mera causalidade, ou pelo simples acaso.
Ao contrário, o direito penal, de forma juridicamente sistematizada, uma vez atendida a
tipicidade formal – concretizada na adequação típica, na conduta, no nexo de causalidade e no
resultado – impõe o dever de exame da tipicidade material – plasmada na imputação objetiva,
no resultado jurídico relevante e no dolo ou culpa.
A imputação objetiva reclama a produção de um perigo não permitido pela finalidade
protetiva da norma, porquanto o fundamento da imputação objetiva é a causalidade relevante.
Em sendo a imputação objetiva do resultado essencialmente normativa, apenas o
comportamento com o propósito ilícito é que haverá de ser reconhecido imputável. Na
eventualidade de uma atuação atípica, a imputação objetiva restará impossibilitada, pois não
convém ao direito penal307.
No ponto, oportuno trazer uma breve distinção entre imputação objetiva e imputação
subjetiva. A objetiva decorre da seleção de condutas naturais que interessa ao sistema penal,
isto é, reprovável como ação do sujeito, preocupando-se com a conduta dotada de
306
GALVÃO, Fernando, Imputação Objetiva, Belo Horizonte: Mandamentos, 2000, p. 25.
307
RUDOLPHI, Hans Joachim, Causalidad e imputación objetiva, 1. ed., 2. reimp. Bogota: Universidad
Externado de Colombia, Centro de Investigaciones de Derecho Penal y Filosofía del Derecho, 1998, p. 13–14.
107
intencionalidade, podendo, portanto, ser reprovada pela culpabilidade308. Por outro lado, a
subjetiva requer a avaliação sob o aspecto individual do agente, importando a subjetividade do
caso concreto. A responsabilidade é verificada, portanto, por meio dos fatores subjetivos, como
a culpa e dolo.
Demais disso, o pano de fundo da imputação é o risco proibido, especialmente em razão
da distinção entre causar e imputar. Considerando-se que os bens jurídicos estão completamente
envoltos em situação de perigo tolerado, a imputação objetiva somente ocorrerá quando o
agente provocar situação de risco maior do que a socialmente tolerada309.
Releva notar, ainda, que a imputação objetiva não se limita aos crimes materiais, face à
sua preocupação com circunstâncias que para o direito penal concretizam condutas lesivas aos
interesses sociais. Portanto, a imputação objetiva reconhece, sob o viés normativo, o núcleo do
fato relevante para o direito penal, conferindo sentido social ao comportamento lesivo.
Transpondo-se todas essas exposições aos casos e recursos cotidianos, afirma-se que
são copiosos exemplos hodiernos que trazem alta carga de risco, o que pode inclusive fazer a
polêmica dos carros autônomos perder seu objeto. Confira-se o exemplo das aeronaves que
abarrotam os espaços aéreos. Elas se locomovem praticamente de modo autônomo durante todo
o trajeto, no que apresenta conjuntura muito próxima à dos veículos inteligentes.
Veja-se que não se discute a aceitação social do transporte aéreo, tida atualmente mais
do que um simples meio de transporte, mas uma necessidade essencial. Ainda que numerosos
acidentes ocorram, não há movimentos no sentido de se estancar os voos. Em verdade, a cada
acidente aéreo, uma nova lição por parte dos técnicos e empresários, os quais procuram
descobrir com muito rigor as causas da fatalidade, para que possam evoluir corrigindo o erro
identificado, diminuindo-se cada vez mais diminuir os riscos da atividade.
Vozes contrárias contestariam tal posição, como Peter Asaro310, para quem as inovações
tecnológicas anteriores não levantaram essa preocupação, em mesmo grau, porque era possível
confiar na moral humana ou na lei posta, para regulamentar seu uso. Embora houvesse riscos
reconhecidos ao uso de tecnologias como armas, carros, aviões, motores a vapor e muitos
outros, esses riscos eram circunscritos pelos limites de seus efeitos imediatos e pela
responsabilidade próxima de cada ser humano e instituições humanas por esses efeitos.
308
PUPPE, Ingeborg, Estudos sobre imputação objetiva e subjetiva no direito penal, 1. ed. Madri Barcelona
Buenos Aires São Paulo: Marcial Pons, 2019, p. 65–126.
309
GALVÃO, Imputação Objetiva, p. 25–30.
310
ASARO, The Liability Problem for Autonomous Artificial Agents.
108
Na maioria dos casos, esses riscos também eram limitados em sua complexidade e
longevidade, no sentido de que esses efeitos poderiam ser antecipados, gerenciados e reduzidos
ao longo do tempo. Logo, seria possível afirmar que enquanto houver uma mão humana nos
controles, há uma margem de garantia de que a tecnologia não pode sair muito fora de controle
antes de ser dominada pela agência humana ou pela política pública reguladora311.
Tal conjectura também é comparável com o que ocorre nas plataformas de manipulação
de dados, em que há plena consciência dos riscos de violação de direitos da personalidade, mas
ninguém se priva de fornecê-los em prol da continuação de suas relações sociais, sob pena de
um isolamento imensurável, especialmente no ambiente comercial.
Todas são situações que retratam o reconhecimento geral aos riscos de se viver em
sociedade. Deste modo é que aeronaves, trens, metrôs, carros autodirigidos e os meios de
comunicação informatizada em geral se transformam em bens que, apesar da exposição a riscos,
são aceitos como riscos normais até se tornarem itens sociais tão essenciais que, ao invés de
terem seu uso criminalizado, não se imagina mais a coletividade sem eles.
311
Ibid.
312
MONTALVO, José Antonio Choclán, Deber de cuidado y delito imprudente, 1. ed. Barcelona: Bosch, 1998,
p. 152.
313
DÍAZ, Claudia López, Introducción a la imputación objetiva, 1. ed., 3. reimp. Bogota: Universidad Externado
de Colombia, Centro de Investigaciones de Derecho Penal y Filosofía del Derecho, 2000, p. 108.
109
à configuração social, naquilo que sua tolerância se faz necessária para o prosseguimento e
desenvolvimento da civilização314.
Luís Greco acrescenta que a teoria se interessa não apenas pelo desvalor do resultado,
mas precipuamente em definir os limites entre as ações proibidas e permitidas, sobretudo em
razão também do desvalor (objetivo) da ação, consubstanciado na criação do risco
juridicamente reprovado315. Aponta, ainda, que o fundamento da reprovação jurídica de riscos
criados pode ser encontrado na ponderação entre a pretensa preservação de bens jurídicos, a
qual visa proibir ações perigosas, e o interesse coletivo de liberdade, o qual se contrapõe às
censuras legais. Desse modo, se tudo que apresenta riscos fosse também reprovado, seria
inviável viajar em uma rodovia, praticar alguns esportes, efetuar uma operação bancária ou
realizar tarefas corriqueiras impregnadas de riscos. Aliás, ressalta-se, nesse ponto, que somente
comportamentos perigosos são merecedores de reprovação, ao passo que nem todo
comportamento perigoso está necessariamente reprovado316.
É possível deduzir da teoria da imputação objetiva um sistema de regras de imputação
como um todo. Ela abrange, em regra, dois planos, quais sejam, a criação de um risco proibido,
bem como a sua subsequente realização. Claus Roxin acrescenta ainda um terceiro plano,
consubstanciado no alcance do tipo, no qual são tratadas as situações em que demais agentes,
para além do autor, que contribuíram de maneira relevante para o resultado típico. Reforça-se
que tal auxílio pode advir da própria vítima ou de terceiros317. Cumpre esclarecer que os demais
autores optam por tratar desses casos no plano da criação de riscos.
Verifica-se, portanto, a necessidade do nexo normativo, consubstanciado na criação de
um risco não permitido ou o seu incremento. Rememore-se que o risco pode ser criado ou
incrementado, por ato doloso ou culposo. De qualquer modo, em quaisquer das circunstâncias,
o critério da criação do risco tem o propósito último de se alcançar a exclusão da imputação,
em que pese a presença dos elementos do dolo e da culpa.
Recapitulando-se, uma vez atestado empiricamente o nexo causal, cabe examinar o
cabimento da imputação objetiva do resultado sob o enfoque da conduta do autor.
Primeiramente verifica-se se ele criou o risco juridicamente reprovado, para então, examinar se
o resultado produzido é a realização daquele. São juízos de partida extraídos da própria função
314
STIVANELLO, Teoria da imputação objetiva, p. 72.
315
GRECO, Um panorama da teoria da imputação objetiva.
316
Ibid.
317
ROXIN, Funcionalismo e imputação objetiva no direito penal, p. 116–117.
110
do direito criminal, uma vez que apenas as ações que criam risco maior do que o permitido e a
produção do resultado evitável é que são relevantes. As condutas irrelevantes para o Direito
Penal são desconsideradas, sem mesmo recorrer ao diagnóstico do tipo subjetivo, porquanto a
exclusão funciona no campo do tipo objetivo.
Sobre a relação de custos e benefícios, em que se verifica a tolerância de riscos em troca
de proveitos dentro da sociedade, Günther Jakobs318 esclarece que por não existir uma
sociedade alheia aos riscos e “que ninguém se propõe seriamente a renunciar à sociedade, uma
garantia normativa que implique a total ausência de riscos não é factível; pelo contrário: o risco
inerente à configuração social deve ser irremediavelmente tolerado como risco permitido”.
Nesse diapasão é que se dá a importância das diversas normas para retratar o que é, ou
não, permitido. Para além das normas jurídicas postas, sobressaem também das normas
reguladoras regras de limitação de comportamentos. Então normas da construção civil, da
medicina, farmacêuticas ou aquelas que regulam a construção e o tráfego das aeronaves, embora
não jurídicas, abarcam parâmetros de extrema valia para a delimitação de condutas. Da mesma
forma, a lex artis - conhecimentos técnicos inerentes à profissão- concernente aos algoritmos
dos veículos autônomos compreender-se-ia tão ou maior relevância do que os preceitos
jurídicos319.
Luís Greco aponta dois fundamentos ao risco permitido: o núcleo de liberdade de cada
cidadão, responsável por uma esfera de autonomia do indivíduo diante do Estado, relevando-
se os resultados do emprego dessa liberdade; e, de outro lado, o sopesamento entre a
necessidade de agasalhar juridicamente bens jurídicos e a aspiração coletiva de liberdade320.
Cumpre ressaltar que no tocante aos standards do ramo dos sistemas autônomos, bem
como às regras técnicas e disposições éticas, todos eles são cruciais para a ordenação dos
critérios e parâmetros destinados ao processo de algoritmização, compondo aquilo que Frisch
categoriza como normas pré-jurídicas de cuidado, a serem introduzidas no juízo de tipicidade
da conduta, porquanto consistem em “programas de redução de riscos, lex artis, diretrizes
éticas”321.
318
JAKOBS, Günther, A imputação objetiva no direito penal, São Paulo: Revista dos Tribunais, 2000, p. 31–
40.
319
ROXIN, Funcionalismo e imputação objetiva no direito penal, p. 326.
320
GRECO, Um panorama da teoria da imputação objetiva.
321
WOLFGANG, Frisch, Comportamiento típico e imputación del resultado, Madrid: Marcial Pons, 2004,
p. 106–156.
111
Com efeito, quando a conduta se dá sob a égide da norma pré-determinada (ex ante),
bastante para a redução de riscos concretos, não haverá que se falar em tipicidade. Aliás, os
almejados códigos de ética a serem estruturados por organizações especialistas das diversas
nações se incumbirão, de um modo ou de outro, de delimitar o risco permitido no âmbito das
situações-limite322.
Como visto alhures, na perspectiva funcionalista de Claus Roxin, o direito penal não
deve se vincular a dados ontológicos como ação e causalidade. Com base nisso que, forte no
seu escopo constitucional de tutelar bens jurídicos, mostra-se prudente atuar com quatro
critérios: (i) ações que diminuem riscos não devem ser imputadas como condutas típicas; (ii)
condutas não criadoras de uma possibilidade objetiva de dano não são objetivamente
imputáveis, como no exemplo de Richard Honig em que o sobrinho convence o tio a se dirigir
a um bosque no qual sabe haver alta incidência de raios323; (iii) o autor ultrapassa as barreiras
do risco permitido, causa o resultado, mas não se sabe se o comportamento adequado o teria
evitado, ocorrendo a imputação na hipótese de a ação propiciadora do risco permitido o tiver
aumentado de modo relevante; (iv) o resultado que não está na esfera de proteção da norma de
cuidado não é imputável ao sujeito que o causou324.
Cabe destacar, ainda, que Caitlin Mulholland faz alusão a três critérios que podem se
apresentar como pilares da teoria da imputação objetiva, quais sejam, a dominabilidade, a
evitabilidade e a previsibilidade. O autor também ensina que a teoria da causalidade adequada
se reveste como sustentáculo para esse último critério (a previsibilidade)325.
No que tange à criação do risco não permitido (nexo normativo), a primeira dificuldade
está na taxação daquilo que significaria juridicamente desaprovado. Noutro giro, não se
encontra muito obstáculo quando o indivíduo diminui ou atenua o perigo. É o clássico exemplo
em que A empurra B, causando-lhe leves lesões, para evitar que não seja atropelado. Em que
pese ser previsível e provável que tal conduta causaria lesões, consoante a teoria da adequação
e, portanto, imputáveis ao agente, a melhor solução é dada pela doutrina da conexão de risco.
322
JANUÁRIO, Túlio Xavier, Veículos autónomos e imputação de responsabilidades criminais por acidentes, in:
RODRIGUES, Anabela Miranda (Org.), A inteligência artificial no direito penal, Coimbra: Almedina, 2020,
p. 113.
323
CAMARGO, Imputação objetiva e direito penal brasileiro, p. 63.
324
ROXIN, Funcionalismo e imputação objetiva no direito penal, p. 58.
325
MULHOLLAND, Caitlin Sampaio, A responsabilidade civil por presunção de causalidade, 1. ed. Rio de
Janeiro: GZ, 2009, p. 187.
112
Logo, a responsabilidade penal do indivíduo, seguindo essa linha, seria excluída, pela
inexistência de criação de um risco não permitido. Poder-se-ia argumentar que a teoria da
adequação permitiria a exclusão da responsabilidade sob o abrigo da excludente de ilicitude (in
casu, estado de necessidade). Entretanto, inicialmente, seria aceita a ilicitude da conduta,
mesmo que excluída em momento posterior de análise do delito, o que significa que ainda que
venha a melhorar a situação do bem jurídico tutelado, seria admitido que o agente causou lesão
típica ao bem.
Salienta-se que a situação de diminuição de risco que impede a imputação objetiva
pressupõe que o objeto protegido já se encontre em perigo. Desta forma, imagine-se um
motorista que por imprudência atropela alguém, e este, que por ter se lesionado, deixa de tomar
um avião, adiando sua viagem. Dado avião cai, matando todos os passageiros. Por mais que,
por meio de sua conduta, o motorista tenha impedido que o lesionado morresse, evidentemente
não se trata de hipótese de diminuição do risco. Isso porque não houve a diminuição de um
risco preexistente326.
A imputação também deve ser excluída acaso o resultado seja produzido por um
comportamento que não ultrapassou o limite do risco juridicamente permitido. Essa exclusão
diz com a sociedade de risco, conformação social estudada no capítulo 2.1. O desenvolvimento
e as conquistas civilizacionais traduzem a vontade coletiva em seguir sua trajetória na estória,
mesmo que assuma riscos. O direito penal, na qualidade de ultima ratio, não está apto, assim,
a sancionar o que é permitido. Cabe ao ordenamento definir as regras do jogo, especialmente
evidenciando os cuidados a serem observados na atividade327.
A regulamentação, entretanto, pode ser revelar limitada, máxime quando não conhece
bem os riscos advindos da atividade. É o exemplo da radiação emitida pelas torres de antenas
de celulares ou de diversas intervenções na área médica. No ponto, a leges artis assume
importante papel por definirem uma praxe de segurança dentro de determinado setor técnico,
em especial quando a regulamentação ainda se mostra tímida quanto ao assunto.
Nos ensinamentos de Figueiredo Dias328, dentro do risco permitido há o risco geral de
vida, em que exemplifica com o caso do médico que receita um medicamento, sem, contudo,
ter que exigir todos os exames complementares indispensáveis para a descoberta de eventual
hipersensibilidade. Se o paciente morre por conta de um choque anafilático, a morte não deve
326
ROXIN, Funcionalismo e imputação objetiva no direito penal, p. 166–167.
327
Ibid., p. 333.
328
DIAS, Direito Penal. Parte Geral: questões fundamentais - a doutrina geral do crime, p. 334–335.
113
ser objetivamente imputada ao médico que tão somente procurou se informar sobre algum fator
alergênico. A rigor, os riscos gerais da vida são socialmente adequados, não se subsumindo a
um risco não permitido. O fato não representa relevância do ponto de vista da pura causalidade.
No que diz respeito à potencialização do risco, ela pressupõe um risco já criado.
Contudo, caso o agente imprima aumento ou potencialização, a ele será imputado o resultado329.
Assim, aquele que encerra a vida de um paciente já em estado final, ou agrava-lhe o estado de
saúde é responsável pelo resultado, a exemplo do motorista imprudente de uma ambulância que
transporta um acidentado moribundo, vindo a causar um novo acidente.
Mas não basta a criação ou o aumento de um risco, também se faz necessária a
concretização do risco não permitido no resultado típico330. Significa dizer que se exige que
esse risco se materialize no resultado. No exemplo da ambulância conduzida por motorista
imprudente, há que se examinar se o evento morte ocorreria de qualquer maneira. O exame é
feito sob um juízo ex ante, para saber qual risco foi determinante ao resultado, porém só
respondida por um exame ex post, para que se tenha ciência de todas as circunstâncias
relevantes.
Fala-se, por fim, que para a ocorrência do risco, exige-se que o perigo que se concretizou
no resultado seja um daqueles em vista dos quais a ação foi proibida, ou seja, um daqueles que
corresponde ao fim de proteção da norma de cuidado. Portanto, a produção de resultados não
cobertos pelo fim e pelo âmbito de proteção da norma exclui a imputação objetiva. Assim é
que Claus Roxin331 afirma que a teoria da imputação objetiva aprimorou os parâmetros de
imputação, tornando-os ainda mais rigorosos, porque o tipo objetivo passa a exigir a finalidade
de proteção da norma de cuidado, não sendo suficiente a relação causal entre o risco não
permitido criado e o resultado.
Para Luís Greco significa dizer que o risco somente se realiza na hipótese de a
reprovação da conduta encontrar fundamento na evitação de dano ao bem jurídico, por
intermédio de dado curso causal que venha a surgir. Não obstante a dificuldade em se definir o
que é, de fato, o “fim de proteção da norma”, a intersecção entre as várias definições está na
pretensa evitação de lesão ao objeto de proteção do tipo. Destarte, acaso seja acometido não o
329
Ibid., p. 335–336.
330
Ibid., p. 336–338.
331
ROXIN, Estudos de direito penal, p. 111.
114
bem jurídico em foco, mas um outro, ou acaso ele mesmo seja afetado, porém por curso causal
distinto, o que se realizou no resultado não foi o risco que se pretendia afastar332.
Ingeborg Puppe333 esclarece, contudo, que apesar da presença da causalidade da ação
do agente, sua violação do dever de cuidado e a causalidade da característica contrária ao dever
dessa ação para o resultado, a imputação do sujeito pode falhar se a finalidade de proteção da
norma não abranger o caso em questão. Ela anota que, segundo Claus Roxin, é necessário
demonstrar se o perigo que o dever de cuidado violado visava prevenir foi realizado no caso
em questão, ou se a norma de comportamento infringida é destinada à proteção do bem jurídico.
Isso significa que a finalidade de proteção é uma vontade do legislador que foi incorporada à
norma para estabelecer sua aplicação. No entanto, as razões pelas quais o legislador promulga
uma norma não limitam sua função de proteção, como se pode observar nos exemplos das
normas de trânsito. Portanto, se já está estabelecido que as características do comportamento
do agente que são contrárias ao dever de cuidado foram causais para o resultado, e que ele teria
evitado o resultado se tivesse respeitado o dever de cuidado, então a norma de cuidado já
cumpriu sua finalidade de proteção nesse caso.
Puppe334 continua exemplificando que quando uma placa de trânsito é colocada em uma
área residencial com o objetivo de criar um ambiente seguro para as crianças brincarem na rua,
um motorista que dirige acima do limite de velocidade nessa área pode ser responsabilizado se
atropelar um senhor de idade. A finalidade da norma deve ser determinada a partir da própria
norma, e não de alguma interpretação arbitrária que restrinja seu escopo de aplicação. A norma
que deve ser analisada não é o tipo penal em si. A análise da finalidade de proteção deve se
concentrar na relação entre a violação do dever de cuidado e a ocorrência do resultado, ou seja,
na causalidade das características do comportamento do agente que vão contra o dever de
cuidado. Se já estiver estabelecido que essas características foram causais para o resultado, e
que, portanto, o resultado poderia ter sido evitado se o agente tivesse respeitado o dever de
cuidado, então parece que a norma de cuidado já cumpriu sua finalidade de proteção nesse caso.
Juarez Tavares335 acrescenta que, em verdade, a definição do fim proteção da norma,
por enquadrar conteúdo valorativo, requer uma técnica de sopesamento de propósitos e valores,
não sendo, portanto, de probabilidade.
332
GRECO, Um panorama da teoria da imputação objetiva.
333
PUPPE, Estudos sobre imputação objetiva e subjetiva no direito penal, p. 35–38.
334
Ibid., p. 36–37.
335
TAVARES, Juarez, Teoria do crime culposo, 3. ed. integralmente rev. e ampliada. Rio da Janeiro: Editora
Lumen Juris, 2009, p. 346.
115
Com tudo isso é que se observa o tangenciamento da teoria da imputação objetiva com
o estilo contemporâneo de vida social próprio da sociedade do risco. De fato, aceitações sociais
se pulverizam entre os domínios do conhecimento refutando a intervenção punitiva desmedida.
A questão enfrenta a problemática da necessidade de intervenção penal em domínios aceitos
pela sociedade, ou que possam ser solucionados por esferas judiciais outras.
336
GRECO, Um panorama da teoria da imputação objetiva.
337
Ibid.
338
ROXIN, Claus. Fundamentos político-criminais e dogmáticos do direito penal. Revista Brasileira de Ciências
Criminais, v. 23, n. 112, p. 33–40, 2015.
116
339
MARCHANT; BAZZI, Autonomous vehicles and liability: what will juries do?, p. 113–117.
340
DE LA CUESTA AGUADO, Paz Mercedes, Tipicidad e imputación objetiva, Mendoza: Ediciones Jurídicas
Cuyo, 1998, p. 150.
341
ROXIN, Claus, Derecho penal. Parte general. Tomo I. Fundamentos. La estructura de la teoría del delito,
Madrid: Editorial Civitas, 2003, p. 355.
342
KÜPER, Wilfried, Grund- und Grenzfragen der rechtfertigenden Pflichtenkollision im Strafrecht, [livro
eletrônico]. Berlin: Duncker und Humblot, 1979.
117
Eric Hilgendorf343, para quem o presente tema dos carros autônomos não se subsome ao
conceito de “comunidades de perigo”, exemplifica com o caso hipotético em que dois alpinistas
se seguram a uma corda que está prestes a arrebentar, e um deles a corta, para que a ação
gravitacional diminua e ele possa sobreviver.
Wagner Marteleto344 e Matheus Caetano345, do mesmo modo, também refutam a
caracterização das “comunidades de perigo” no campo dos autodirigidos. Para Marteleto não
se cogita aspectos da “comunidade de perigo” em tais cenários. O pedestre, v.g., que não está
na rota do veículo não corria risco algum, e por isso não se fala em “igualar chances de
salvamento” em relação a ele, simplesmente porque ele não necessita ser salvo. Recorda-se que
nas comunidades de perigo a autopreservação é uma constante inerente à sua dogmática.
Matheus Caetano346 corrobora que as situações de colisão rodoviária decorrentes de
veículos inteligentes não podem ser incluídas nas comunidades de perigo, nem mesmo nas de
destino ou de tragédia. Para o autor “não podem ser compreendidos nem como estado de
necessidade, nem como colisão de deveres, embora apresentem alguns elementos das chamadas
comunidades de perigo, mas não se compatibilizam com nenhuma delas”.
O princípio da confiança foi cunhado pela jurisprudência alemã e tem por fundamento
a obrigação que as pessoas têm na divisão do espaço que ocupam com as outras, seja de modo
permanente, momentâneo ou transitório. De fato, uma ordenação em sociedade, segundo Claus
Roxin, somente se revela praticável, se os membros do corpo social puderem confiar nos
comportamentos lícitos - dentro das regras sociais impostas - por parte daqueles com quem
interagem, ainda que as atividades correlacionadas envolvam o agir sob riscos (riscos
permitidos)347.
O instituto do risco permitido abrange, ainda, o princípio da confiança, segundo o qual
não se vislumbra conduta típica no comportamento em conformidade com as normas, mas que
por se envolver em situação na qual um terceiro falha no cumprimento de seu dever de cuidado,
oportuniza a produção do resultado. Aliás, o indivíduo que satisfaz acertadamente o cuidado
343
HILGENDORF, Direito e máquinas autônomas. Um esboço do problema, p. 77.
344
MARTELETO FILHO, Agentes híbridos e autônomos: alguns problemas de imputação objetiva e subjetiva,
justificação e desculpa, p. 95.
345
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas, p. 182.
346
Ibid., p. 149.
347
ROXIN, Estudos de direito penal, p. 105.
118
dele objetivamente exigido, a ele é dado a permissão para confiar que os outros membros
exercerão suas atividades com igual cautela348.
As partes que compõem um grupo social devem se portar de modo afinado para que
haja harmonia dentro do conjunto que formam. Deste modo, não há que se falar em conduta
típica diante de um comportamento que, por confiança em terceiros agindo conforme seus
deveres e a lei, envolve-se em acontecimento no qual este terceiro prove evento danoso, máxime
porque a criação do risco não permitido requer o domínio do resultado por meio da vontade do
agente349.
Assim são as relações sociais, especialmente as que se formam diante do tráfego viário,
pois capazes de acarretar perigos para todos os envolvidos. Por isso é que o comportamento de
cada um deve se pautar de modo tal que seja voltado à minimização dos riscos. Essa é a
concepção do princípio da confiança, o qual preconiza que os indivíduos confiam que os demais
agirão em conformidade com as regras postas para aquelas situações350.
Nesse diapasão, os indivíduos possuem o dever de exercer seus direitos dentro das
balizas colocadas para que os direitos alheios sejam também respeitados. A observância das
regras do arcabouço normativo vigente, bem como de papéis especiais – geralmente atribuídos
a segmentos específicos – é o que permite a convivência pacífica de uma sociedade. Assim, os
pais são responsáveis pelos filhos, os médicos devem prestar socorro sempre que necessário, e
os usuários do trânsito devem respeitar as sinalizações.
Portanto, mais do que regras, há muita densidade principiológica e ética envolvida, a
qual reclama de cada ser a execução fiel do papel de que lhe é dotado na interação social.
Aqueles que vivem em sociedade são responsáveis e devem agir de forma a não prejudicar
terceiros. A grande relevância do princípio para fins de imputação está no seguinte silogismo:
se todos cumprem seus respectivos papéis, comportando-se em conformidade com o
ordenamento, não haverá imputabilidade, sendo que eventuais acidentes serão tão somente
fatalidades. Caso contrário, em havendo violação de normas e descumprimento de papéis,
surgirá a responsabilização e o dever de reparação jurídico-penal351.
A convivência social não se mostraria viável se fosse necessário verificar, a cada
instante, se o outro está se comportando do modo esperado, tendo que vigiar diuturnamente se
348
TAVARES, Juarez, Teoria do crime culposo [livro eletrônico], 5. ed., rev. Florianópolis: Tirant Lo Blanch,
2018.
349
STIVANELLO, Teoria da imputação objetiva, p. 72.
350
Ibid.
351
Ibid., p. 73.
119
os deveres estão sendo cumpridos por cada qual na realização das infinitas atividades. Logo,
aquele que executa uma atividade perigosa, em princípio lícita, pode confiar que quem
coparticipa nessa mesma atividade comportar-se-á conforme as regras vigentes. Confia-se na
resistência de uma ponte, no pleno funcionamento de um elevador, no respeito ao direito de
propriedade e na parada do motorista diante da luz vermelha do semáforo352.
Eric Hilgendorf propõe, assim, a extensão do princípio da confiança às máquinas, com
o fim de solucionar problemas oriundos da implementação das novas tecnologias, pois de
grande utilidade para o desenlace de conflitos em sede do tráfego rodoviário moderno. Assim,
os usuários das rodovias confiam nos comportamentos dos demais em conformidade com as
regras de trânsito.
O exemplo de Eric Hilgendorf é do pedestre que salta na frente do veículo, sendo
atropelado. Acaso houvesse indícios perceptíveis da embriaguez desse pedestre, é possível
imputar ao motorista a quebra de um dever de cuidado. Caso contrário, não poder-se-ia falar na
nessa quebra de dever. Sob este enfoque, Eric Hilgendorf organiza a adequação do princípio da
confiança, desdobrando-a em “relacionamento homem-máquina”, “relacionamento máquina-
homem” e “relacionamento entre máquinas” 353.
352
MELIÁ, Manuel Cancio, Conducta de la víctima e imputación objetiva en derecho penal: estudio sobre
los ámbitos de responsabilidad de víctima y autor en actividades arriesgadas, Barcelona: Bosch, 1998, p. 322.
353
a) Relacionamento homem-máquina. Em tese, as pessoas podem confiar que os sistemas técnicos usados na
estrada funcionarão adequadamente. Isso significa que o princípio da confiança também se aplica a esses sistemas
técnicos. No entanto, o uso da locução adverbial "em tese” já indica que essa suposição só é válida se não houver
óbvio elementos contrários a um funcionamento adequado da máquina. Assim, caso haja evidências de que um
sistema técnico não esteja funcionando corretamente, não se aplica o princípio da confiança, e deve-se exigir do
usuário da rodovia que considere uma possível falha do dispositivo e aja com o devido cuidado.
b) Relacionamento máquina-homem. A questão mais difícil é saber até que ponto as máquinas têm que considerar
um erro das pessoas. Como as máquinas não podem ser responsabilizadas, a questão pode ser reformulada da
seguinte maneira: até que ponto os fabricantes de sistemas técnicos devem levar em conta o erro humano. Um
sistema autônomo deve ser programado no carro de forma a levar em conta a possibilidade de um comportamento
irracional e autodestrutivo de pessoas? Questões como essas são, até hoje, quase nada discutidas. Pode ser possível
dizer que o comportamento intencional autodestrutivo das pessoas, em regra, não precisa ser levado em
consideração. A situação é diferente no que se refere a previsíveis maus comportamentos humanos, ou seja, reações
defeituosas, que, estatisticamente, ocorrem com frequência e, por isso, devem ser consideradas na programação
dos sistemas. Um fabricante que não considere a possibilidade de um compor lamento defeituoso em seus sistemas
ao menos como possível atua culposamente e pode ser responsabilizado em casos de danos.
c) Relacionamento entre máquinas. Ao programar sistemas autônomos para o tráfego rodoviário, o fabricante pode
assumir que os sistemas de outros veículos funcionam, em tese, de forma correta e confiável. No entanto, deve-se
levar em conta a possibilidade da existência de sistemas tecnicamente mais velhos ou até mesmo obsoletos, além
de o fato de que, naturalmente, ainda, por vários anos, muitos veículos não disponham de sistemas técnicos
equivalentes. Portanto, sistemas técnicos devem ser projetados de forma que possam cooperar e, em determinadas
circunstâncias, também se comunicar com sistemas técnicos de outros veículos. Tal comunicação logo se tornará
regra: não há dúvida de que, no futuro, o tráfego rodoviário não será apenas autônomo, mas também em rede.
120
Cabe aqui lembrar que a teoria da imputação objetiva, sob o olhar de Jakobs, emprega
a concepção de papéis sociais ajustados pelo contato social, aproximando-se da culpa objetiva
ou normativa no direito civil. A quebra do papel implica a ação típica objetivamente
considerada, pois “cada um espera dos demais que se comportem de determinada maneira e
orienta seu comportamento segundo essas expectativas”354. Logo, “é cada papel o que
determina o conteúdo dos deveres e não o arsenal das peculiaridades individuais de cada um”355.
Um perfeito exemplo para isso é justamente os deveres de trânsito. Exemplifica-se mais uma
vez no tráfego, sendo que o proprietário de um automóvel tendo o papel de garantir a segurança
do trânsito. Se viola o seu papel, gera o risco juridicamente reprovável356.
Há que se destacar os critérios essenciais para a imputação de comportamentos. O
primeiro, o risco permitido, na condição normativa de estado normal de interação, assumindo
o status quo de liberdades de atuação vigentes. O segundo seria o princípio de confiança,
representando a adaptação do risco permitido às circunstâncias concretas. Ainda, a proibição
de regresso, na pretensão de delimitar de forma sistemática o âmbito da participação punível
dentro da imputação objetiva com fundamento em critérios objetivo-normativos.
Importante destacar a posição de Claus Roxin357, pois em sua concepção o risco
permitido não se limita à esfera do princípio da confiança. A causação não é imputável ao tipo
objetivo diante de comportamentos perigosos provocadores de lesão ao bem jurídico, porque
admitidos pela legislação, para além da condicionante de determinações de segurança, tudo
justificado em sua utilidade social. Nos riscos inerentes ao tráfego de veículos isso é ainda mais
visível, e os riscos passam a ser suportados pela sociedade e pelo legislador. Demais disso, a
diminuição do risco também, a contrario sensu, é justificativa para que o resultado não possa
ser imputado ao agente, porque não permite o aperfeiçoamento do tipo objetivo358.
De qualquer maneira, é correto dizer que os princípios da confiança e os desdobramentos
do risco permitido estão diretamente interligados aos limites dos deveres de cuidado. O
princípio da confiança, no âmbito do tráfego viário, preconiza que aquele que transita em uma
via confia que o comportamento dos demais usuários se dará em conformidade com as normas
354
JAKOBS, A imputação objetiva no direito penal, p. 20.
355
Ibid., p. 52.
356
MULHOLLAND, A responsabilidade civil por presunção de causalidade, p. 187.
357
ROXIN, Estudos de direito penal, p. 110.
358
STIVANELLO, Teoria da imputação objetiva, p. 71–72.
121
de trânsito. Com isso, verifica-se que o dever de cuidado possui duas balizas, pois encontra seus
limites no princípio da confiança e no risco permitido359.
359
HILGENDORF, Digitalização e direito, p. 71–73.
360
Ibid., p. 68–69.
361
Ibid., p. 69.
122
Cabe referir um recorte válido feito pelo autor quanto à imputação subjetiva. Destarte,
no que diz respeito à imputação subjetiva no âmbito dos carros autônomos, por possuírem uma
programação prévia em que não há participação da figura humana no momento do acidente,
não se mostra possível fazer a devida separação dos casos de negligência, a qual se encontra na
imputação subjetiva. Isso porque a solução já seria dada pela imputação objetiva, sobretudo em
razão da premissa de que a imputação objetiva é uma análise que antecede à imputação
subjetiva. Com efeito, quem entra em cena no âmbito do risco permitido, na tentativa de trazer
soluções, é a imputação objetiva, mormente quando a produção do veículo autônomo se dá com
observância das regras técnicas362.
No âmbito do ordenamento pátrio, é importante observar a necessária mudança de
paradigma no que diz respeito à forma como se interpretar e aplicar a legislação criminal. A
norma jurídica só se revela legítima a partir da boa leitura que se faz da configuração social,
forte no objetivo de se alcançar sua aceitação, afastando-se, assim, da ideia de direito penal
simbólico. O sistema penal pátrio hodierno está inserido no contexto de um sistema fechado,
que fundamentado na norma, nos estritos termos da lei, a qual se traduz como sua única fonte.
Nessa senda, vislumbra-se uma concepção intervencionista, verificada especialmente
no recrudescimento da legislação penal. Por essa razão é que a importação do instituto da
imputação objetiva requer sensível alteração estrutural e sistemática no afã de que seja
empreendida sua atividade valorativa, a qual demanda certa dose de interação com a realidade
social, orientando-se para um sistema penal que procura tutelar somente o que dispõe de
relevância.
O simples logicismo-formal perde espaço para os pressupostos exigidos para a
utilização daquele instituto. Sob esse ponto de vista, o artigo 13 do CP adquiriria nova
roupagem, pois a causalidade material não totalizaria o preenchimento do tipo objetivo,
reclamando-se um critério normativo para tanto, qual seja a realização do risco criado. O
sistema jurídico estruturado teleologicamente, à luz de princípios valorativos que lhe dão
fundamento, é levado a se manter aberto aos novos fatos da vida.
O cerne desta pesquisa toca à avaliação dos resultados criados por autodirigidos sob a
perspectiva da teoria da imputação objetiva, buscando-se discutir se o fabricante ou o usuário
de um veículo autônomo cria o risco proibido, preenchendo o nexo normativo, ao produzir ou
362
MARTELETO FILHO, Agentes híbridos e autônomos: alguns problemas de imputação objetiva e subjetiva,
justificação e desculpa, p. 101.
123
utilizar uma máquina capaz de tomar decisões predeterminadas em seu software, ou de modo
ainda mais complexo, advinda de um processo de aprendizagem profundo em que se
desconhece a própria heurística.
Portanto, objetiva-se a avaliação da responsabilidade penal sob a perspectiva da teoria
da imputação objetiva, especialmente com foco na figura do garantidor, investigando-se sobre
a viabilidade de se adequar o operador do veículo à posição de garante em relação à criação e
produção do risco proibido decorrente de acidentes de trânsito que ocasionem danos a terceiros.
Como anteriormente visto, os carros autônomos, na qualidade de agentes
computacionais, são preparados para extrair uma grande quantidade de dados, para além da
capacidade de interpretá-los de acordo com padrões predeterminados, podendo, por fim, reagir,
de modo autônomo, aos dados processados. Essa última característica de reação lhe permite,
ainda, um armazenamento de informações que lhes capacita para futuros processos
decisórios363.
Se a hesitação se concentra na possibilidade de imputação de resultado, também se
mostra necessário saber quem suportaria a responsabilidade penal, dado que há a figura do ser
humano que idealizou a máquina, do próprio agente computacional, e do usuário. Logo, a
imputação pode recair em um ou algum deles ou talvez em nenhum, a depender do
preenchimento dos requisitos da imputação sob o prisma da aceitação da coletividade. Oportuno
no ponto colacionar a reflexão de Sabine Gless e Thomas Weigend 364:
363
GLESS; WEIGEND, Agentes inteligentes e o direito penal, p. 39.
364
Ibid., p. 41–42.
124
Quanto à primeira figura – o carro autônomo - a dificuldade com que se depara é que o
sistema penal foi elaborado para os humanos, no que o agente artificial não ostenta sensibilidade
à sanção, muito menos compreensão sobre a reprovação ética relacionada à pena. Às máquinas
lhe faltam os pressupostos da conduta e da culpabilidade. A compreensão do carro autônomo
enquanto objeto revelaria, portanto, uma lacuna punitiva, não se afigurando possível sua
responsabilização penal.
É certo que o conceito de pessoa não é estático, de modo que necessidades práticas
requerem alterações do arquétipo jurídico original, como ocorreu com as pessoas jurídicas.
Contudo, há que se destacar que, de modo diverso do que se verifica na punibilidade da pessoa
jurídica, o agente artificial que sofre uma pena não se assemelha à punição indireta das pessoas
naturais que se encontram nos seus bastidores, as quais respondem por sua “culpabilidade por
organização”.
Entretanto, Hallevy365 entende que já se mostra viável a imputação direta do autônomo,
concebendo-o como ator e entendendo que o elemento objetivo do tipo resta preenchido pelos
meros movimentos físicos do veículo, independentemente se se origina de um ato do veículo
ou se é antes o resultado do comportamento do desenvolvedor por trás. Os critérios ou
capacidades necessários para impor responsabilidade criminal estariam atendidos, pois não se
365
HALLEVY, Unmanned Vehicles – Subordination to Criminal Law under the Modern Concept of Criminal
Liability, p. 3.
125
requer apenas humanos, mas qualquer outro tipo de entidade, incluindo corporações e entidades
de IA.
Freitas, Andrade e Novais corroboram essa posição, criticando a concepção voluntarista
do ato, sobretudo por se revelar ultrapassada com o advento dos crimes que prescindem o ato
físico, notadamente no contexto dos cibercrimes366.
De todo modo, rememora-se que, independentemente do emprego de conceitos da teoria
do crime aos veículos autônomos, o que importa no campo das sanções penais são as premissas
da prevenção geral ou especial. No âmbito das pessoas coletivas, o objetivo é alcançado, tendo
em vista sua finalidade lucrativa, naquilo que a pena cumpre sua função na exata medida em
que possibilita a devolução de haveres ilicitamente angariados, entre outras várias penalidades.
Ou seja, o efeito pretendido é alcançado de algum modo, por afetar a pessoa natural
envolvida367.
Ocorre que há certa dificuldade na importação desse silogismo à esfera dos veículos
programados, especialmente pela falta de esclarecimento sobre os objetivos das máquinas, não
sendo elas reconhecedoras em potencial da censura associada a seu comportamento, essência
da responsabilidade jurídica.
Seria até possível se ventilar a aplicação de uma pena individualizada e direta ao
desenvolvedor do programa em razão de uma contribuição causal própria, dolosa ou culposa.
Ou ainda, imaginar-se uma pena de destruição ou reprogramação do agente artificial. Todavia,
por óbvio, não estar-se-ia falando em uma pena genuína do próprio agente, máxime por não
ostentar, ao menos por ora, a condição de um agente moral368.
Claussén-Karlsson369 entende que os sistemas autônomos não são puramente
responsáveis por seu atos, exatamente por não adquirirem personalidade jurídica. A autora
sugere que é preciso rastrear o comportamento do humano por trás da IA. Esse humano deve
estar em uma posição em que possa influenciar a IA, bem como sua conduta. Aparentemente,
isso será determinado mediante a consideração das circunstâncias específicas de cada crime
alegado. A responsabilidade deve recair, portanto, sobre as figuras daquele que está por trás
(man behind the machine). Freitas, utilizando-se de expressão cirúrgica, afirma ser esse o
366
FREITAS; ANDRADE; NOVAIS, Criminal Liability of Autonomous Agents, p. 9.
367
GLESS; SILVERMAN; WEIGEND, If robots cause harm, who is to blame? Self-driving cars and criminal
liability, p. 423.
368
GLESS; WEIGEND, Agentes inteligentes e o direito penal, p. 62.
369
CLAUSSÉN-KARLSSON, Artificial Intelligence and the external element of the crime: an analysis of the
liability problem, p. 23.
126
“punctum crucis” de toda a problemática, naquilo que deve haver uma escolha anterior e precisa
entre a objetivação ou a personificação dos agentes de inteligência artificial370.
A concepção do autodirigido enquanto objeto evidencia a lacuna existente no campo da
imputação de responsabilidade, sendo este talvez o maior entre os desafios da temática. A
qualificação dada ao autodirigido denota árdua investigação, perpassando a incerteza acerca de
sua natureza, seja como o gênero “coisa” - “tudo que existe objetivamente, com exclusão do
homem”371 -, seja como a espécie “bem” – “coisas que, por serem úteis e raras, são suscetíveis
de apropriação e contêm valor econômico”372, ou ainda como entidade dotada de sua
personalidade jurídica.
Frise-se que além da ausência da essência humana nem mesmo patrimônio o robô possui
para que se possa pensar em uma pena de multa. Sua destruição também não parece imbuída
de caráter sancionatório, pois não o atinge do mesmo modo com relação ao humano, não
fazendo sentido aplicar-lhe o mesmo sistema penal voltado aos homens. Assim, em não
havendo consciência, ao menos nos moldes presentes, a valoração moral sobre o seu
comportamento não se mostra possível. O desvalor de sua conduta não é perceptível no seu
exame interior de consciência.
De outro lado, se o desenvolvedor viola os deveres de cuidado, há que se analisar se o
resultado típico verificado o pode ser atribuído ou, em outros termos, pode a ele ser imputado
objetivamente.
Claus Roxin reconhece que há problemas de imputação na esfera do tipo penal os quais
podem ser solucionados pelo fim de proteção da norma, a partir da existência de um risco
juridicamente não permitido, e como último critério para delimitação do tipo 373. Por
conseguinte, em regra, ocorrerá a imputação se houver a criação e a concretização do risco
reprovado. Contudo, em determinados casos, os requisitos são insuficientes ao suporte fático
do juízo de imputação, naquilo que requer estudo mais aprofundado do fim de proteção do tipo.
A imputação nas situações de vida contra vida envolvendo carros autônomos aparentam
incorrer na hipótese de - apesar da criação do risco não permitido com a sua subsequente
materialização em um resultado - a imputação ainda fracassar, “porque o alcance do tipo, o fim
370
FREITAS; ANDRADE; NOVAIS, Criminal Liability of Autonomous Agents, p. 149.
371
RODRIGUES, Silvio, Direito civil, 34. ed. São Paulo: Saraiva, 2003, p. 116.
372
Ibid.
373
ROXIN, Funcionalismo e imputação objetiva no direito penal, p. 242–243.
127
de proteção da norma típica (...) não abarca resultados com as características que exibe o
(resultado) que se produziu, porque o tipo não está destinado a evitar tais acontecimentos”.
Para Luís Greco, o que interessa é saber se o que de fato ocorreu estava dentro do âmbito
de proteção da norma, sendo necessário, portanto, perquirir se as justificativas que legitimam
determinada proibição de um comportamento são adequadas também perante o caso concreto,
ou seja, aquele que efetivamente se realizou374.
Logo, se o agente autônomo expõe a sociedade a riscos e sem que lhe seja previsível
sanções penais adequadas, ele provoca questionamentos e sensação de insegurança, à medida
em que aumenta sua circulação nas rodovias. Diante disso, surge a necessidade de se estipular
critérios e fundamentos para regular a responsabilização daqueles que estão por trás da
tecnologia, porquanto aos agentes artificiais ainda não há como serem atribuídos
responsabilidade. No que tange aos veículos autônomos já se lança a primeira questão acerca
da viabilidade do seu criador responder pelos defeitos de sua atividade. Ressalte-se, entretanto,
que375:
374
GRECO, Um panorama da teoria da imputação objetiva.
375
GLESS; WEIGEND, Agentes inteligentes e o direito penal, p. 54.
376
DIAS, Direito Penal. Parte Geral: questões fundamentais - a doutrina geral do crime, p. 322–345.
128
hipóteses, não se enfrenta maiores problemas, já que bem assentado o entendimento acerca da
punibilidade de tal comportamento, assim como daquele que se utiliza de um animal como
forma de instrumento para a tipificação criminal: a máquina seria mero instrumento do ato
penalmente relevante. Contudo, surge uma provocação (a qual não será trabalhada por questão
de limitação da pesquisa): como se determina se um agente artificial autônomo é
apropriadamente domesticável? Com efeito, o indivíduo considerado responsável pode não ter
ciência até que ponto o agente autônomo é capaz de alterar a si mesmo depois que é acionado377.
Do mesmo modo, outro delineamento restringindo a pesquisa está nos casos em que se
sabe ou se aceita que o programa possa causar um dano no seu uso concreto, portanto,
previsível. Nessas circunstâncias, o acidente ocorre diante do agir culposo, permitindo-se a
punibilidade do desenvolvedor face à previsibilidade objetiva do resultado e à ausência do dever
de cuidado.
Diante desses dois recortes, a análise que interessa à presente pesquisa se perfaz de
modo residual, porquanto se concentra no campo em que o programa é desenvolvido sem dolo
ou culpa consciente dirigida a um resultado típico. Resta averiguar quando criado e utilizado
consoante normas técnicas de seu tempo e com aceitação coletiva, dentro do que preconiza a
teoria da imputação objetiva, ainda que venha provocar danos em situações dilemáticas.
Sabine Gless e Thomas Weigend378 aduzem que a operação do agente inteligente que
resulta na prática objetiva de um tipo penal, ainda que sem o conhecimento ou vontade do seu
desenvolvedor, não lhe isenta de responsabilidade com base no subterfúgio argumentativo do
automatismo dos algoritmos. Contudo, visualizam, na eventualidade da conduta se mostrar
meramente culposa, complicações no nível da previsibilidade e no da imputação no resultado.
Isso porque as decisões tomadas pelo agente computacional não são dotadas de previsibilidade,
na medida que seria questionável se é previsível ao desenvolvedor um comportamento
defeituoso.
Ademais, poder-se-ia até argumentar pela isenção de responsabilidade do
desenvolvedor acaso sua conduta, em conformidade com as regras gerais da imputação de
resultados, interrompesse o nexo de imputação entre a conduta e o resultado. Isso se mostra
possível quando o coletivo aceita o uso da máquina como atividade normal, naquilo que
eventual falha não tencionada está dentro do risco que se consente socialmente.
377
ASARO, The Liability Problem for Autonomous Artificial Agents.
378
GLESS; WEIGEND, Agentes inteligentes e o direito penal, p. 37–64.
129
Em assim sendo, para a leitura sob a ótica da imputação objetiva, repisa-se, que sua
proposta visa a inclusão de novas elementares no tipo objetivo. Justamente por essa razão é que
alguns sustentam a íntima relação da teoria da imputação objetiva com as regras da física
quântica379, de modo que não basta a mera relação de causa e efeito (a causalidade física) entre
conduta e resultado. No plano da imputação objetiva, para além disso, é preciso delimitar, de
modo detalhado, as margens do risco permitido.
Tecendo-se a análise sob o ponto de vista do usuário, a questão é saber se, por tão
somente ligar a chave do veículo - pode-se chamar inclusive de mero operador e não mais
condutor nos níveis mais altos de autonomia - o resultado típico pode ser a ele objetivamente
imputado. Diante da implementação da nova tecnologia, e na condição que ocupa o carro,
questiona-se se é possível atribuir-lhe o dever de cuidado e de zelo pela segurança do trânsito.
Resgatando-se mais uma vez o marco referencial desse estudo, o entendimento de Eric
Hilgendorf380 se dirige inicialmente pela presença de hipótese de exclusão da imputação, sob a
vertente do risco permitido. Se é um meio de transporte socialmente aceito, ainda que diante
dos riscos, especialmente por significar uma redução drástica de acidentes, não pode se imputar
eventual resultado diante de falha que não se apresenta como regra.
Aliás, forçoso reiterar que mesmo que o indivíduo venha a criar um risco juridicamente
relevante, a responsabilidade restará excluída acaso o risco se possa dizer permitido381, dado
que resta excluída a imputação ao tipo objetivo.
A conformação social que permite o carro tradicional e, portanto, admite-o como risco
permitido, traz em sua essência o respeito às regras de trânsito. Com efeito, a despeito de todos
os riscos que o trânsito concebe em si, mormente para relevantes bens jurídicos (a exemplo da
vida, da saúde e do patrimônio), ainda assim a ordem jurídica permite o tráfego de carros,
exigindo, contudo, a observância das regras de cuidado382.
Armin Engländer383, contudo, discorda desse posicionamento, sob o argumento de que
não há uma subsunção perfeita da situação dos autodirigidos ao risco permitido. Para tanto, ele
379
Enquanto a Física clássica se preocupa com fenômenos em escala macroscópica, a Física Quântica se encontra em nível
microscópico (atômico), pois analisa o comportamento dos sistemas físicos de dimensões reduzidas, próximos dos tamanhos
de moléculas, átomos e partículas subatômicas.
380
HILGENDORF, Digitalização e direito, p. 69–77.
381
ROXIN, Funcionalismo e imputação objetiva no direito penal, p. 323.
382
Ibid., p. 325.
383
Ibid., p. 322.
130
384
ENGLÄNDER et al, p. 95.
385
Ibid., p. 96.
386
CAMARGO, Imputação objetiva e direito penal brasileiro, p. 136.
131
387
JAKOBS, A imputação objetiva no direito penal, p. 17–20.
388
Ibid.
389
Metodologicamente se optou por explorar como instrumento como solução dogmática dos conflitos
apresentados a perspectiva de Claus Roxin, não sendo adotada a linha científica de Günther Jakobs, de igual relevo
para o estado da arte.
390
JAKOBS, A imputação objetiva no direito penal, p. 16.
391
MULHOLLAND, A responsabilidade civil por presunção de causalidade, p. 188.
392
MARTINESCO, Andrea et al, A note on accidents involving autonomous vehicles: interdependence of event
data recorder, human-vehicle cooperation and legal aspects, IFAC-PapersOnLine, v. 51, n. 34, p. 407–410, 2019,
p. 409–410.
132
393
BELAY, Robot ethics and self-driving cars: how ethical determinations in software will require a new legal
framework, p. 126.
394
Nesse sentido: BATHAEE, Yavar, The artificial intelligence black box and the failure of intent and causation,
Harvard Journal of Law & Technology, v. 31, n. 2, p. 890–938, 2018, p. 891; GRIEMAN, Hard drive crash, an
examination of liability for self-driving vehicles, p. 298.
395
JANUÁRIO, Veículos autónomos e imputação de responsabilidades criminais por acidentes, p. 108.
133
pela sua impotência para atender um dever de intervir perante uma situação-limite. Nisso,
manifesta-se a imprescindibilidade de analisar a imputação, desta feita, sob o prisma do
programador, na condição de centro de imputação da responsabilidade penal em potencial, o
qual se pretende discorrer no item seguinte.
Sob outro ângulo, o do risco proibido, é possível se admitir a ausência do incremento
do risco, apoiado no escólio doutrinário de Claus Roxin396, sobretudo se o comportamento do
agente diante da situação dilemática visa a diminuição dos danos, ainda que dentro de uma
perspectiva utilitarista. E isso pode ser afirmado mesmo que a ação não sobressaia exatamente
de seu controle, mas principalmente para aqueles que entendam que sob o seu domínio. Para o
catedrático, “algo diverso ocorre naqueles casos em que o perigo preexistente não é
enfraquecido, mas substituído por outro, cuja realização no resultado é menos danosa para o
autor do que o risco anterior teria sido”.
Aproveitando-se de seus exemplos, afora os clássicos, alguém que arremessa um bebê
pela janela de um apartamento em chamas, a grave lesão consectária não poderá ser imputada
ao agente, pois a vida fora salva em detrimento da integridade física lesionada. Também não há
que se falar em lesões corporais, não obstante se afigurar como causa do resultado, quem desvia
a pedra jogada em direção a alguém, sem a tornar inócua, porém fazendo-a atingir parte do
corpo menos sensível. Tudo porque não seria racional proibir condutas que não pioram a
situação do bem jurídico protegido, ao contrário, melhoram-na397.
Por fim, eventual responsabilização do operador do sistema reclama expressa previsão
em lei, em observância aos princípios da legalidade e da anterioridade da lei penal, consagrados
no plano penal-constitucional. Com efeito, a conduta criminosa requer tipificação no âmbito do
Estado Democrático de Direito.
Sob o ângulo dos sujeitos implicados, cabe analisar a última figura: o fornecedor,
compreendido esse como todos os envolvidos no processo de produção do veículo, incluindo
principalmente a criação do algoritmo nele inserido. Portanto, abrange todos na linha de
desenvolvimento, desde a construção do algoritmo até sua comercialização concluída com sua
entrega ao usuário. É dizer, para fins deste trabalho não se fará distinção entre o fabricante,
396
ROXIN, Funcionalismo e imputação objetiva no direito penal, p. 314–315.
397
Ibid., p. 313–315.
134
programador, desenvolvedor, produtor, comerciante, entre outras figuras que compõem esse
conjunto dentro do mesmo campo semântico.
A questão diz com a possibilidade de se imputar resultados a condutas que, por se
encontrarem sobremaneira distanciadas no tempo e no espaço, aparentam uma realidade
jurídico-penal irrelevante. Elas somente se tornam relevantes quando tomam proporções
preocupantes, seja pela frequência com que ocorrem, seja pelo poder de perigo avassalador que
podem carregar consigo398.
Adentrando-se na questão da programação, necessária se faz a divisão em duas
conjunturas, tendo em consideração as possibilidades de programação do sistema: se feito para
a proteção dos ocupantes do veículo, ou se conformado para lesionar terceiros integrantes do
tráfego viário.
Na primeira conjuntura, em que se protege os ocupantes em detrimento de demais
transeuntes, Armin Engländer399 sugere que o fornecedor pode se revelar punível como
partícipe ou na forma de autoria colateral culposa, a depender se se considera dolo ou culpa por
parte do usuário que liga o veículo e o coloca em movimento. Salienta que os casos nos quais
a conduta do usuário do veículo se encontra justificada não traz problemas. Embaraçados são
os casos em que apenas os usuários são exculpados, à guisa de exemplo, quando o autodirigido
atropela um pedestre para proteger seu condutor ou, por não estarem presentes os pressupostos
do estado de necessidade justificante, ilícitas serão as condutas tanto do usuário quanto do
fabricante.
É que o fabricante possui obrigação legal de se abster de uma programação em prol do
usuário, até para que não o prive de tomar suas decisões com base em suas convicções
existenciais perante os demais membros do tráfego. A ordem jurídica ou social não lhe conferiu
tal poder. Na expressão de Arthur Dyck400: “bancar de Deus”. O ordenamento não permite que
o usuário salve sua vida em detrimento de terceiros. Isso só é permitido em situações de
emergência existencial. Segundo o autor401:
398
DIAS, Direito Penal. Parte Geral: questões fundamentais - a doutrina geral do crime, p. 345.
399
ENGLÄNDER et al, p. 86–102.
400
DYCK, Arthur J., An alternative to the ethic of euthanasia, in: FEINBERG, Joel; WEST, Henry (Orgs.), Moral
Philosophy. Classic texts and contemporary problems, Encino: Dickenson Publishing Company, 1977, p. 216.
401
ENGLÄNDER et al, p. 103.
135
proibidos” que, por um lado, não estão justificados, ou seja, não estão permitidos, mas
que, por outro, não são ilícitos nem estão proibidos.
402
Ibid.
403
ROXIN, Estudos de direito penal, p. 12.
136
sacrificar os demais participantes do tráfego se fosse para salvar seus ocupantes. Não é exigível
de ninguém que se sacrifique em favor de terceiros por motivos solidariedade.
Portanto, nessa situação de conflito concreta não há como se evitar o resultado em
relação ao ocupante, pois só seria evitável por intermédio da renúncia aos autodirigidos, o que
vai na contramão do desejado pela sociedade pela promessa de redução de acidentes, além do
desenvolvimento tecnológico desejado. Assim que se valora como risco permitido a
possibilidade longínqua de ocorrência da situação-dilema que reproduz aquilo que programado.
Outro fator obstativo quanto à responsabilidade penal do fornecedor encontra-se no
plano do nexo de causalidade, dada a distância tanto espacial quanto temporal que separa a
conduta do resultado, de tal modo alargada que por vezes rememora a crítica diuturna à teoria
da equivalência no que concerne ao efeito regressus ad infinitum404.
O que se verifica, diante das discussões da literatura especializada, é que o cerne da
problemática situa-se no plano do nexo de causalidade405. Grande parcela aduz que a
peculiaridade dos sistemas que adotam a inteligência artificial está justamente na possibilidade
que trazem consigo de romperem a relação de causalidade entre a conduta do fornecedor e o
resultado. A razão está na inexistência de uma pré-programação contendo regras de solução
para o caso concreto, contando apenas com uma espécie de manual com regras gerais e iniciais
para capacitar o sistema para a análise de dados406.
A atividade do programador restringe-se a um ensaio para que o sistema operacional, a
partir de exemplos e experiências, realize um treino e passe a exercer seu próprio processo de
tomada de decisão, só que, doravante, ele passa a generalizar de modo particular, de maneira
que não se torna mais possível controlar e nem prever as reações do veículo perante novas
ocorrências.
Luís Greco407 sustenta que a exclusão da culpabilidade dos programadores pode se
revelar impraticável. Primeiramente, porque o princípio do mal menor não está apto a exculpar
a conduta em que há o deslocamento dos riscos a terceiros que neles não estão diretamente
envolvidos. Para o autor não há que se argumentar que na hipótese do ciclista morto pelo agente
404
DIAS, Direito Penal. Parte Geral: questões fundamentais - a doutrina geral do crime, p. 345.
405
BATHAEE, The artificial intelligence black box and the failure of intent and causation, p. 898; GLESS;
SILVERMAN; WEIGEND, If robots cause harm, who is to blame? Self-driving cars and criminal liability, p. 432;
KARNOW, Liability for Distributed Artificial Intelligences, p. 149.
406
GLESS; SILVERMAN; WEIGEND, If robots cause harm, who is to blame? Self-driving cars and criminal
liability, p. 414.
407
GRECO, Veículos autônomos e situações de colisão, p. 194–195.
137
408
ENGLÄNDER et al, p. 26.
138
Cabe destacar que a teoria é aplicável, de igual maneira, aos agentes computacionais
autônomos, de modo que eventual aceitação do algoritmo significaria que seus riscos não
poderiam recair tão somente na figura do programador409.
Nessa linha é que parcela da doutrina argumenta no sentido favorável ao
reconhecimento da licitude do algoritmo de acidente. Tratam como um risco permitido, como
um princípio de redução de danos, ou ainda, trabalham a ideia de salvamento de interesses
equivalentes. No que tange ao risco permitido, o escopo é fazer um juízo de sopesamento entre
as vantagens sociais do comportamento danoso e a incapacidade de evitar o seu resultado
danoso ou ainda o desinteresse coletivo em se abster totalmente de sua utilidade. O risco
permitido pressupõe a utilidade geral da conduta excepcionalmente danosa e a sua incapacidade
para evitação do resultado no caso particular.
Não obstante o enunciado no tocante à imponderabilidade de vidas, as escolhas
racionais, possíveis a partir dos inteligentes algoritmos, mormente em razão da extrema redução
de danos de que são capazes, devem ser permitidos ainda que surjam inicialmente em um
ambiente laboratorial, peculiar por tratar as situações de modo prévio e abstrato, ou seja, sem
estar diante de uma caso dilemático em concreto. Nisso é que não há que se prezar por uma
“política de omissão” ou de “relegação da solução ao acaso”. As vantagens sistêmicas que a
tecnologia veicular trazem consigo a necessidade de reflexões profundas ou novos dogmas,
porque o simplório descarte é equívoco a ser declinado410.
O condutor humano, ao enfrentar situações similares, pode ser perdoado por uma
decisão que tenha tomado de modo inconsciente ou instintivo, em uma fração de segundo, ainda
que seja considerada ruim. Porém, esse apanágio não é estendido aos desenvolvedores do
sistema a reagir nesses episódios, afinal possuem “tempo” para refletir e tomar a medida
adequada, carregando, com isso, maior responsabilidade por resultados ruins411.
Ao que parece, toda a discussão se dá justamente em razão da velocidade do “raciocínio”
por parte do sistema autônomo. Causa controvérsia o fato de ele possuir condições de avaliar
todo o cenário, e ainda dispor de tempo para a tomar a decisão e executá-la. Isso porque estar-
se-ia sacrificando vidas de terceiro(s) de modo racional. É que tomar essa decisão sem essa
racionalidade parece mais aceitável do ponto de vista ético.
409
MARTELETO FILHO, Agentes híbridos e autônomos: alguns problemas de imputação objetiva e subjetiva,
justificação e desculpa, p. 91–92.
410
JANUÁRIO, Veículos autónomos e imputação de responsabilidades criminais por acidentes, p. 108.
411
LIN, Patrick, The ethics of autonomous cars, Center for Internet and Society at Stanford Law School, 2013.
139
412
MARTELETO FILHO, Agentes híbridos e autônomos: alguns problemas de imputação objetiva e subjetiva,
justificação e desculpa, p. 92.
413
BATHAEE, The artificial intelligence black box and the failure of intent and causation, p. 902–908.
414
MARTELETO FILHO, Agentes híbridos e autônomos: alguns problemas de imputação objetiva e subjetiva,
justificação e desculpa, p. 92.
140
(ou, pelo menos, comparável) perigo. Caso pessoas inocentes tenham que ser mortas
ou gravemente feridas, deve-se, então, pelo menos, tentar manter o número de vítimas
inocentes o menor possível. Essa consideração ético-jurídica também poderia ser
fundamentada constitucionalmente415.
415
HILGENDORF, Digitalização e direito, p. 107.
416
COCA VILA, Coches autopilotados en situaciones de necessidad. Una aproximación desde la teoria de la
justificación penal, p. 175.
417
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas, p. 160.
141
estatisticamente provada uma correlação direta entre o anseio pela salvamento de um número
de vidas e o nível de aceitação da morte do operador nessas circunstâncias. Por outro lado,
paradoxalmente, quando o quesito é alterado e, desta feita, o inquirido é o proprietário do
veículo cujo algoritmo prioriza o condutor e demais passageiros (em especial com algum grau
de parentesco), não é de se estranhar que vultosa percentagem dá prioridade à preservação de
todos que se encontram no interior do carro418.
Isto posto, forçoso concluir que a despeito de muitos concordarem com uma perspectiva
utilitarista a ser inserida no algoritmo dos veículos – reduzindo quantitativamente o número de
vítimas -, a mesma comunidade prestigia a aquisição de carros que os protejam em situação de
conflito, ainda que seja apenas sua vida em detrimento de muitas outras. É dizer, se uma
concessionária vendesse veículos com ambos os tipos de algoritmo, certamente poucos
comprariam aqueles que seguem a linha utilitarista, ainda que esperassem essa atitude de
terceiros.
Liane Wörner419 faz interessante provocação quando questiona se o desenvolvedor dos
algoritmos gostaria de estar presente no momento e lugar em que se daria o fato. A pedra
angular de toda essa celeuma parece ser representada na reprovação do desejo de se balancear
pesos de vidas, seja quantitativa (poupar cinco vidas em detrimento de uma) ou
qualitativamente (poupar uma criança em detrimento da vida do idoso)420. Além do que a
antecipação de um juízo pela máquina não se coaduna com a ordem jurídica.
De todo modo, uma vez permitida o tráfego dos carros autônomos, Sabine Gless e
Thomas Weigend421 entendem que haveria que se renunciar à responsabilidade culposa e
“onerar” a sociedade com os riscos inerentes e que não podem ser fiscalizados e controlados
pelo programador, por conseguinte, pressupondo a aceitação social. Logo, admitir as máquinas
inteligentes pela “sociedade de riscos” implica o reconhecimento dos riscos como fenômeno
normal em razão dos benefícios sociais a elas associados. A limitação ao cuidado exigida do
arquiteto do agente inteligente se encontraria na “permissão de um risco de desenvolvimento”
418
BONNEFON; SHARIFF; RAHWAN, The social dilemma of autonomous vehicles, p. 1573–1575.
419
WÖRNER, Liane, Der Weichensteller 4.0. Zur strafrechtlichen Verantwortlichkeit des Programmierers im
Notstand für Vorgaben an autonome Fahrzeuge, in: Zeitschrift für Internationale Strafrechtsdogmatik, Baden-
Baden: ZIS – Zeitschrift für Internationale, 2019, p. 41–48.
420
ROHREGGER, Michael, Autonome Fahrzeuge und strafrechtliche Verantwortlichkeit, Journal für
Strafrecht, 3. ed. p. 196–201, 2017.
421
GLESS; WEIGEND, Agentes inteligentes e o direito penal, p. 63–64.
142
422
KOEHLER, Jonathan J; GERSHOFF, Andrew D, Betrayal aversion: When agents of protection become agents
of harm, Organizational Behavior and Human Decision Processes, v. 90, n. 2, p. 244–261, 2003.
423
HILGENDORF, Digitalização e direito, p. 104.
424
DÍAZ, Introducción a la imputación objetiva, p. 60–80.
425
ENGLÄNDER et al, p. 135.
144
sistema. Portanto, o risco permitido pode ser visto como fator de equilíbrio de
responsabilidades, tornando possível o compartilhamento dos riscos entre desenvolvedores e
usuários do sistema autônomo.
No que diz respeito à programação dos veículos inteligentes não há como conferir
tratamento diverso, ainda que submetam vidas humanas a perigos ou fatalidades em situações
drásticas. A caracterização da quebra do dever de cuidado não estaria concretizada, se
porventura fossem cumpridas as regras atinentes. Porquanto, trata-se de limitação dos deveres
de cuidado do fornecedor, pois a cada atividade ou bem que se cria ou se produz, há uma carga
periclitante a eles inerente. Não há atividade livre de riscos, uma simples caminhada apresenta
perigos. É dizer, o “comportamento perigoso não é em si objetivamente uma violação de
deveres de cuidado, mas apenas se a sua periculosidade for socialmente inadequada”426.
O interesse tanto dos fabricantes quanto dos consumidores é atraído pelo
desenvolvimento de um veículo que ofereça proteção. No que tange ao fabricante, exsurge uma
possível incoerência, pois estão obrigados a fornecerem produtos seguros. De outro lado não
lhe é permitido a fabricação de um bem que exceda na proteção de seu cliente, oferecendo riscos
a terceiros. Sob esta perspectiva, o risco permitido insere-se no contexto como “causa especial
de adequação social”. Por isso, tido como um limitador de deveres de cuidado no que se refere
à produção em série de bens socialmente aceitos, pela utilidade ou adequação que deles se
podem desfrutar a coletividade, frisando-se que a ausência completa de riscos é utópica.
Em verdade, o risco permitido é instituto de natureza controversa. Para algumas vozes
da dogmática corresponde à ausência de responsabilidade a título de culpa. Para outros se
mostra como elemento da imputação objetiva, portanto, analisada ao lado da causalidade. Por
fim, encontra-se, ainda, aqueles que defendem se tratar de uma excludente de ilicitude.
Apesar do benefício ser de âmbito coletivo, a posição por vezes defendida é de que o
pedestre merece maior proteção, dado que o condutor é mais responsável pelo perigo criado
com o uso do veículo autônomo, posição essa capitaneada por Armin Engländer.
Contudo Eric Hilgendorf rebate defendendo a proteção do passageiro do veículo em
comparação ao pedestre justamente em razão da escolha pelo autônomos ser de ordem social,
sobretudo pela expectativa de que são capazes de reduzir drasticamente o número de acidentes,
pelo que todos os participantes do tráfego viário seriam beneficiados. Desta maneira, não se
426
HILGENDORF, Digitalização e direito, p. 105.
145
encontra presente o devido balanceamento ao tratar, no plano dos ônus, de modo distinto o
condutor e o pedestre, visto que uniformemente favorecidos no plano dos bônus.
Na mesma linha, Tatjana Hörnle e Wolfgang Wohlers destacam que não há que se opor
nem mesmo a objeção de que esse comportamento equivaleria a um contrato celebrado inválido
por prejudicar terceiros. Em verdade, a ideia de equidade compreende a noção de que não se
deve diferenciar passageiros e pedestres, isso porque como todos são reais beneficiários do
aumento da segurança no tráfego viário com o uso dos sistemas autônomos, todos os atores
desse fluxo de trânsito devem ser igualmente tratados no que tange aos danos advindos da
prática vantajosa à sociedade427.
Desde que o homem desfrutou do poder do fogo, como elemento de segurança, de
proteção ou de conforto, ele aceitou os riscos dele decorrentes. Nem mesmo a previsibilidade e
a evitabilidade de danos é suficiente para barrar a produção sob o argumento de quebra de
deveres de cuidado, pois disso não se trata. Se o fabricante se esforça para entregar sua produção
do modo mais seguro, respeitando as normas do seu tempo, não lhe é justa a sanção.
Obviamente, essa segurança, pelos riscos inerentes aos autônomos, inclui um monitoramento e
manutenção permanentes, o cognominado after sales (deveres no pós-venda). Eric Hilgendorf
complementa428:
427
GRECO, Veículos autônomos e situações de colisão, p. 200–201.
428
HILGENDORF, Digitalização e direito, p. 108.
429
Ibid., p. 105.
146
430
Ibid., p. 96–98.
148
431
Ibid., p. 97–98.
432
Ibid., p. 97.
433
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas, p. 185–
186.
434
CASTILLO GONZÁLEZ, Francisco, Suicidio e instigación y ayuda al suicidio, San José, C.R.: Editorial
Jurídica Continental, 2011, p. 58.
435
ENGLÄNDER et al, p. 131.
149
Assim é que o entendimento que postula a proibição de compensação, mesmo que diante
de uma “comunidade de perigo”, não pode se permitir capricho da renúncia da tecnologia
inteligente que pode permitir salvar muitas vidas. Isso vale não somente sob o prisma
utilitarista, mas sobretudo do ponto de vista do usuário a quem não é dado o dever de sacrificar
sua vida. Confira-se os ensinamentos de Tatjana Hörnle e Wolfgang Wohlers436:
Aquele que rejeita uma justificação nos termos do § 34 StGB a partir da referência a
uma proibição de compensação se orienta não mais pelo interesse humano, mas por
um princípio abstrato que, no que tange à questão referente ao perigo coletivo aqui
abordada, não pode ser fundamentado racionalmente. Ponderações efetuadas no
âmbito das ciências jurídico-penais contra a justificação não são convincentes. Nesse
sentido, remete Roxin a uma insegurança em relação às prognoses, utilizando um
argumento slippery slope: caso se permita que, em situação de acidente, se reduza
arbitrariamente o tempo de vida alheio, ameaçar-se-ia a vida de moribundos que ainda
tivessem dias ou meses de vida. No entanto, tais reflexões subestimam grosseiramente
o potencial diferenciador existente. Prognoses inseguras são relevantes em casos de
sequestro de aviões. Entretanto, quando todos os homens que se encontram na rua
seriam seguramente atropelados [...] em questão de segundos ou milésimos de
segundos, esse deve ser o cenário em foco - e não se deve postular uma proibição
argumentativa fazendo-se remissões a casos análogos.
436
Ibid., p. 133.
437
GRECO, Um panorama da teoria da imputação objetiva.
150
redução em média de 2,1 para 1,2 carros por domicílio438. Com efeito, com um tráfego menor,
o necessário desestímulo à emissão de gases poluentes se concretizará. Outrossim, não é clichê
tecer comentários sobre a real imposição acerca do dever fundamental de preservação do meio
ambiente.
Dessa forma, o objeto do estudo também está diretamente ligado à agenda político-
ambiental e à agenda político-econômica, além da segurança da população. Isso porque VA’s
podem propiciar, para além de conforto aos usuários, mobilidade mais segura e limpa
(ecomobilidade)439. Sob o aspecto econômico, ressalta-se os interesses econômicos do país,
posto que a participação do setor automotivo representa 22% do PIB industrial e 4% do PIB
total.
Nesse contexto é que se pode afirmar que não é a simples renúncia a um novo aparato
social que se logrará solução. Certamente, não é essa a saída. A regulamentação parece ser a
saída primordial em busca de uma solução adequada, de modo que a criação da receita
algorítmica, a produção do veículo, bem como sua utilização pelo consumidor final se deem
dentro de um espectro normativo. A criação e utilização do bem autônomo convive com a
aceitação social, ao mesmo tempo que procura minimizar riscos face à carga técnico-normativa
que passa a receber.
Luís Greco440 ressalta que a avalição sobre a permissividade de um risco deve contar
precipuamente com um aparato de normas de segurança de natureza técnica, porque capazes de
mitigar os perigos das atividades consideradas arriscadas. Ademais, esse sistema normativo
deve ser alcançado a partir do consórcio entre normas técnicas e normas jurídicas.
Evidentemente, as normas técnicas, por terem natureza de norma privada, porque
geralmente elaboradas por entes privados como representantes da indústria, podem implicar um
déficit de legitimidade democrática. Desta forma, ponto delicado que merece atenção, pois não
é correto admitir que a indústria, sob o alicerce de um processo legiferante entregue nas mãos
de engenheiros por ela custeados, determine indiretamente os rumos da responsabilização
penal. Daí a relevância no devido sopesamento entre a liberdade e a proteção dos bens jurídicos.
Não é tarefa simples elaborar as normas de regência, sobretudo por se tratar de um
processo que encara questões técnicas, jurídicas e filosóficas. Na linha de que em princípio não
438
CLEMENTS, Lewis M.; KOCKELMAN, Kara M., Economic effects of automated vehicles, Transportation
Research Record, v. 2606, n. 1, p. 106–114, 2017.
439
MARTINESCO, VEÍCULOS AUTÔNOMOS.
440
GRECO, Um panorama da teoria da imputação objetiva.
151
441
HÖRNLE, Tatjana; WOHLERS, Wolfgang, “Trolley problem” revisitado: como devem ser programados os
veículos autônomos no dilema vida-contra-vida?, in: ESTELLITA, Heloisa; LEITE, Alaor (Orgs.), Veículos
autônomos e direito penal, 1. ed. São Paulo: Marcial Pons, 2019, p. 140–153.
442
Ibid.
443
ENGLÄNDER, Armin et al, in: ESTELLITA, Heloisa; LEITE, Alaor (Orgs.), Veículos autônomos e direito
penal, 1. ed. Madri Barcelona Buenos Aires São Paulo: Marcial Pons, 2019, p. 151.
152
444
Ibid.
445
Ibid.
446
HILGENDORF, Digitalização e direito, p. 121–122.
447
SÁNCHEZ, La expansión del derecho penal, p. 11.
153
448
HILGENDORF, Digitalização e direito, p. 51.
449
GRECO, Um panorama da teoria da imputação objetiva.
154
Em sua essência, quer defender que o causador do resultado não será imputável acaso
não comprovado que esse não seria reproduzido diante de uma conduta alternativa, ou melhor,
uma conduta em conformidade com norma preexistente. Logo, em não havendo alteração fática
em virtude de eventual ação considerada mais adequada, o bem jurídico não estaria violado.
Se a premissa maior contida na norma é a evitação de resultados, é de se concluir que
na hipótese da conduta prudente for também capaz de provocá-los, em última análise, a norma
não fez surtir seus efeitos desejados, isto é, não cumpriu seu encargo de proteção ao bem
tutelado. Falha, portanto, a proibição, porquanto ausente o desvalor do resultado. É dizer, a
observância ao preceito proibitivo não faz acobertar a situação do bem jurídico450.
Enrique Bacigalupo451 enfrenta verticalmente a questão, afirmando que a simples
promessa de evitação do resultado a partir de uma ação regular dá lugar à aplicação da teoria
do princípio in dubio pro reo. O castigo a um indivíduo diante de uma insegurança, de uma
incerteza, ou de uma alternância inútil de comportamento se mostraria incoerente, naquilo que
a absolvição se mostra inevitável. Assim, “a certeza de que o comportamento conforme o direito
não melhoraria em nada a situação do bem jurídico, não haverá reprimenda”452.
Para além disso, o risco é considerado permitido nos comportamentos que os oferecem,
mas que a legislação o autoriza, seja em razão de sua utilidade social, seja porque se trata de
um risco inevitável ou de fato imprescindível ao progresso tecnológico453. Assim é que uma
possível solução a ser sopesada segue representada pela teoria da evitabilidade, na qualidade de
desdobramento da teoria da imputação objetiva, porquanto hipótese em que o risco não se
realiza no resultado.
Em síntese, para a teoria da evitabilidade não se pode imputar um resultado quando a
lesão é inevitável mediante uma conduta alternativa conforme o direito454. Portanto, defende
que ainda que o agente tenha criado o risco proibido, o risco certamente teria ocorrido da mesma
forma, caso tivesse criado o risco permitido455. Ou ainda, segundo a teoria somente se legitima
450
SOUZA, Luyla Cavalcante de, O nexo de aumento do risco na teoria da imputação objetiva, Revista Brasileira
de Ciências Criminais, v. ano X, n. 66, p. 77–117, 2007, p. 81.
451
BACIGALUPO, Enrique, Principios de derecho penal: parte general, 5. ed., totalmente actual. Madrid: Ed.
Akal, 1998, p. 199.
452
SOUZA, O nexo de aumento do risco na teoria da imputação objetiva, p. 83.
453
STRATENWERTH, Günter, Derecho Penal. Parte General, I. El hecho punible, Madrid: Instituto de
Criminología de la U. Complutense de Madrid, Edersa, 1982, p. 84.
454
SÁNCHEZ, Bernardo Feijóo, Teoria da imputaçao objetiva: estudo crítico e valorativo sobre os
fundamentos dogmáticos e sobre a evolução da teoria da imputação objetiva, São Paulo: Manole, 2003, p. 13.
455
TAVARES, Teoria do Injusto Penal, p. 356–382.
155
a sanção por crime consumado na hipótese de o agente, além de ter provocado dano por meio
de sua ação antijurídica, se porventura também a conduta reta tivesse o condão de afastá-lo456.
Assim, o agente somente será punido se comprovado que o comportamento acertado
correspondente salvaria o bem jurídico afetado457. Exemplo didático seria imaginar que ainda
que um caminhoneiro em alta velocidade mate o ciclista respeitando a distância correta, o
atropelamento que se deu seria inevitável, em razão de circunstância outra.
É que a criação do risco proibido (excesso de velocidade, por exemplo) não se realiza
no resultado. Se o resultado tivesse ocorrido ainda que ele não tivesse criado o risco proibido,
abre-se espaço para a teoria alemã da inevitabilidade, face à ruptura do nexo normativo. Em
não havendo a realização do risco no resultado, o resultado ocorreria inevitavelmente.
Relevante, contudo, expor a posição de Claus Roxin458:
À luz da premissa de que o dever de cuidado objetiva evitar resultados típicos, com
fundamento no fim de proteção da norma, ainda que a conduta cuidadosa origine a lesão ao
bem jurídico, conclui-se que a norma não cumpriu a sua função de proteção, na medida que sua
vulneração não recairá em um relevante penal, por obra do rompimento da relação de
causalidade entre o desvalor da ação e o desvalor do resultado459.
Juarez Tavares460 leciona que a conexão entre o comportamento contrário ao dever de
cuidado e o resultado guarda sintonia com o pressuposto de que o resultado era evitável e de
que o autor poderia evitá-lo. Por consequência, se o evento lesivo não for evitável ainda que
diante de conduta em conformidade com o direito, forçoso concluir que a vulneração do dever
de cuidado seria irrelevante para a sua verificação. Diante disso, a imputação objetiva do
resultado resta excluída pois, como visto, a teoria não é direcionada pela causalidade física,
correspondendo a um juízo de adequação.
456
GRECO, Um panorama da teoria da imputação objetiva.
457
SOUZA, O nexo de aumento do risco na teoria da imputação objetiva, p. 90.
458
ROXIN, Estudos de direito penal, p. 117.
459
SOUZA, O nexo de aumento do risco na teoria da imputação objetiva, p. 91.
460
TAVARES, Juarez, Direito penal da negligência: uma contribuição a teoria do crime culposo, 2a ed., revista
e ampliada. Rio de Janeiro: Lumen Juris, 2003, p. 332.
156
Diante do que foi assentado, para a imputação não é suficiente que a conduta tenha
relação com a vulneração da norma de cuidado juntamente com a causação do resultado. É
imprescindível também que o risco desencadeado com sua conduta tenha se realizado no dano.
Isso ocorrerá na hipótese de o dano ser evitável. A evitabilidade objetiva do resultado passa a
constituir a essência da imputação no tipo de injusto461.
Vale anotar que parcela da doutrina entende que a metodologia empregada pela teoria
da evitabilidade conduz à impunidade nas hipóteses em que, em que pese o agente lesionar, há
demais perigos em estado de reserva, naquilo que a teoria representaria um retrocesso, na
medida em faz uso de juízos hipotéticos de constatação462.
Mais uma crítica é que a divisão do risco proposta pela teoria em um quantum permitido
e um quantum proibido não se mostra adequado. O risco não admite concepção que o fragmenta
em fração permitida e outra não permitida, de modo a compreendê-las isoladamente,
reivindicando reconhecimento da causalidade de cada uma463.
Claus Roxin, no entanto, pondera que a teoria da evitabilidade se sustenta
exclusivamente sob o ângulo teórico. No seu sentido material afigura-se injusta, mormente
porque suas decisões não se manifestam suficientes na perspectiva político-criminal464.
Outrossim, sendo a essência da inteligência artificial a tentativa de imitar a mente
humana, a tendência é a aproximação entre as heurísticas das redes neurais humanas e artificial.
Em assim sendo, é plausível admitir-se que de um modo ou de outro, diante de situações
dilemáticas conflituosas, a reação diligenciaria para algum sentido intuitivo.
Não é difícil se imaginar que um condutor humano, avistando pessoas feridas em uma
pista, demonstre a predisposição para desviar para alguma direção que o proteja, ainda que
venha a se ferir de igual modo, por algum erro de cálculo ou inexatidão quanto a outras variáveis
presentes naquela circunstância, sobretudo em razão do exíguo lapso temporal em que tudo se
passa, por vezes em questão de segundos.
Sven Nyholm465 explica que os tempos de reação humana são demasiadamente lentos,
máxime se comparados aos tempos de uma máquina. Demanda-se período de tempo
relativamente longo para que uma pessoa mova seu foco de uma atividade para outra. Até por
essa razão que não se reflete uma boa opção, como sugerem alguns, de repor o controle do
461
Ibid., p. 333.
462
SOUZA, O nexo de aumento do risco na teoria da imputação objetiva, p. 92.
463
Ibid., p. 95.
464
Ibid., p. 94.
465
NYHOLM; SMIDS, The Ethics of Accident-Algorithms for Self-Driving Cars, p. 1278.
157
466
SOUZA, O nexo de aumento do risco na teoria da imputação objetiva, p. 89.
467
ROXIN, Funcionalismo e imputação objetiva no direito penal, p. 318.
468
GRECO, Um panorama da teoria da imputação objetiva.
158
469
ROXIN, Funcionalismo e imputação objetiva no direito penal, p. 318–319.
470
Ibid., p. 319–320.
471
Ibid., p. 320–321.
159
472
HILGENDORF, Direito e máquinas autônomas. Um esboço do problema, p. 73–74.
473
COCA VILA, Coches autopilotados en situaciones de necessidad. Una aproximación desde la teoria de la
justificación penal, p. 185.
160
não se identifica dificuldade, sendo o de maior valor aquele a merecer maior proteção.
Tratando-se de interesses materiais e pessoais, certamente o pessoal deve prevalecer, ainda que
o dano ao bem material seja de significativa monta. Acaso concorram entre si danos pessoais,
de lado um de menor gravidade (uma lesão, por exemplo) e de outro a perda de uma vida, já se
visualiza alguma controvérsia, o que dizer quando são valores iguais e inestimáveis e, portanto,
imponderáveis quantitativa ou qualitativamente.
Logo, a problemática se torna embaraçada na hipótese de se colocar vida(s) contra
vida(s). Qual a projeção para decisão a ser inserida no algoritmo em caso de conflito da vida de
uma pessoa contra a vida de outras dez vidas? Eric Hilgendorf474 afirma que tradicionalmente
a filosofia preconiza que uma vida vale tanto quanto duas, dezenas ou centenas. Até porque
ninguém tem o dever de sacrificar em prol dos demais. Diante desse desmesurado intricamento,
questiona-se sobre a factibilidade de programar o algoritmo de acidente para essa conjuntura.
Como observado anteriormente, utilitaristas não encontrariam tantas dificuldades na
adoção do algoritmo, pois na visão consequencialista que desfrutam, uma vida não valeria tanto
quanto muitas vidas. Entretanto, para os kantianos, para os quais o homem possui dignidade e
não preço, o algoritmo sofreria rejeição, já que inadmissível um juízo de ponderação de vidas.
À vista do panorama concernente ao algoritmo de acidente, ressurge um dos maiores dilemas
da filosofia prática, desta feita sobre ponto nevrálgico da direção automática.
Dentro dos vários cenários apresentáveis à programação, Luís Greco475 sugere critérios,
nos quais ele considera fortemente a alternativa de solução pautada por um processo randômico,
a saber:
474
HILGENDORF, Direito e máquinas autônomas. Um esboço do problema, p. 76.
475
GRECO, Veículos autônomos e situações de colisão, p. 199.
161
476
Os referidos casos foram apresentados especificamente nos subitens 2.6.1 e 2.6.2 do capítulo 2.
162
veículo, em seu reflexo primitivo ela tenderia a jogar a direção no sentido contrário ao muro,
por puro extinto de sobrevivência, no que alvejaria determinada pessoa, ou poderia, por falta
de reflexo e habilidade, manter-se inerte sem tempo hábil para evitar seu choque com o muro,
provocando sua própria morte.
Na hipótese (c) – na qual o carro pode permanecer no curso e matar muitos pedestres ou
mudar de direção e matar o seu passageiro -, fosse um condutor (homem médio) em um carro
de modelo tradicional também teria a iniciativa (ou ao menos a tentativa) de, em nome de sua
autopreservação, conduzi-lo rumo ao lugar onde aquela grande quantidade de pessoas se
encontravam. Nessa avaliação, o resultado negativo não poderia ter sido evitado se a ação se
originasse do homem médio.
Por último, em se tratando do caso concreto ocorrido na pequena cidade de
Aschaffenburg, aquele idoso que sofria um infarto, ao girar o volante para que o carro fosse
freado por obstáculos que surgiriam, poderia sim ter tido sucesso na sua conduta. Mas poderia
essa colisão ter sido fatal para ele ou outro pedestre que por ali transitava. Contudo, a manobra
do autônomo, no sentido de mantê-lo na faixa de rolagem, acarretando o falecimento de duas
pessoas, não pareceu ter sido o comportamento “mais perito” que se esperava. Acabou por
matar mais pessoas do que teria ocorrido naturalmente, além de ter gerado um acidente que
talvez não tivesse o mesmo fim, pois o movimento natural do idoso provavelmente o levaria
tão somente ao acostamento ou pararia no barranco próximo, sem que houvesse a morte de
alguém.
Portanto, no caso hipotético, verifica-se que a evitabilidade se mostra razoável para a
defesa do uso do autônomo. Afinal, pela evitabilidade, a punição restaria excluída diante da
constatação de que a conduta humana tradicional não melhoraria a situação do bem jurídico477.
Já no caso concreto histórico, o autônomo não agiu bem, contudo o resultado poderia ter sido
evitado por intermédio de ajustes na programação.
A análise dos casos sob o prisma da normatividade técnico-jurídica demonstra que na
hipótese de sua existência, lançada tanto ao caso hipotético quanto ao caso histórico, poderia
fazer a teoria da imputação performar de modo reduzido no domínio da filosofia, pois que
esbarraria em questões metafísicas. Noutro giro, se analisada sob o aspecto puramente jurídico,
essa regulação se faria relevante à teoria da imputação objetiva, conferindo-lhe maior
efetividade, porquanto sua vigência entregaria previsão objetiva significativa à permissividade
477
GRECO, Um panorama da teoria da imputação objetiva.
163
outros fatores. Contudo, um arranjo aleatório no algoritmo permitiria essa aproximação entre o
robô e a mente humana, desincumbindo-se de ponderar valores imponderáveis.
Todavia, no caso clássico de Aschaffenburg, o modelo randômico não parece tão
adequado, pois com o desfalecimento do condutor, não é dado ao agente autônomo optar por
retornar à faixa de rolagem para, mais a frente, chocar-se com pedestres. O modo randômico se
revelaria inadequado se fosse possível esse tipo de seleção. A escolha poderia fundar-se entre
cessar seu movimento de imediato, ou então seguir o caminho e estacionar assim que possível
e de modo seguro478.
Cabe, por fim, trazer a sugestão de algumas regras de Thomas Weigend, amparando a
plausibilidade da programação. Desta forma, em primeiro lugar, existindo apenas a opção de
colidir com um pequeno ou grande número de pessoas, deve-se optar pela colisão com o menor
número de pessoas. Ressalta-se que essa regra vale também quando os passageiros do veículo
venham a ser afetados. Em segundo lugar, existindo apenas a opção de colidir com diversos
grupos de pessoas com o mesmo número de pessoas, então deve o acaso decidir sobre o caminho
do veículo. Aqui o autor revela sua simpatia pelo processo randômico. Caso um dos grupos
afetados seja o dos passageiros do veículo, poderia se optar a rota que não os mataria479.
Perceba-se que se utilizar da álea é uma opção, no que poderia aproximar o programa assim
elaborado com a mente humana, da qual não se tem jamais certeza do que faria em uma
circunstância dilemática de conflito de vidas.
Rememore-se, oportunamente, mais uma vez as regras de preferência de Tatjana Hörnle
e Wolfgang Wohlers (tratadas no capítulo 3.5.1), porque relevante contribuição que poderia
perfeitamente se encaixar nas propostas de soluções acima apresentadas e, consequentemente,
satisfatoriamente combinadas com a constelação fática ora examinada.
3.7 Resultado
478
Ressalta-se que, como anotado acima (p. 40), a partir do nível quatro (High Driving Automation), em situações
de emergência, o veículo já é capaz de assumir “riscos mínimos”, a exemplo da parada automática do carro, ou
então efetuar complexas manobras, assim como retirar o carro de uma zona de perigo.
479
ENGLÄNDER et al, p. 121–122.
165
No que diz respeito à configuração de uma regulação, pelo que se esboçou com os casos
apresentados no item anterior, verificou-se que um arcabouço regulatório, preenchido
sobretudo por uma carga axiológica preocupada com questões jurídicas e morais, resulta na
previsibilidade objetiva que se espera para fins de caracterização do que é permitido ou proibido
no terreno do risco relevante.
Evidentemente, se a utilização dos veículos governados pela inteligência artificial
extrapola as balizas para eles fixadas, vulnerando as normas de regência, o risco proibido se
mostrará presente. Ou ainda, se o regramento dos sistemas inteligentes está vigente e o seu
operador age de modo legítimo em consonância com as normas vigentes, seu comportamento
estará acobertado normativamente. Por agir dentro do risco permitido, em uma eventual colisão,
não lhe será imputado o resultado, isso porque ações perigosas permitidas pela legislação,
contanto que observados os preceitos de segurança estabelecidos, não podem dar ensejo à
imputação objetiva480.
A criação de um novo tipo penal surge como meio eficiente de desestímulo ao
comportamento ilícito no âmbito da criação e utilização do veículo autônomo, na medida que a
definição de um risco relevante está inserida na ordem de criação de uma figura típica penal,
portanto, instrumento de expressão para a caracterização de produtos socialmente adequados
ou inadequados, sobretudo em razão de seus consectários sociais.
Por outro ângulo, se a essência da teoria da evitabilidade é a impropriedade na
imputação do resultado quando a lesão se mostra inevitável mediante conduta alternativa
conforme o direito, o afastamento da responsabilidade surge inevitável. Logo, se a quadra fática
restaria inalterada diante da constatação de que a conduta humana tradicional não melhoraria a
situação do bem jurídico, não há que se falar em imputação, acima de tudo por ausência de nexo
normativo.
Finalmente, a modelagem randômica pode ser encarada como um critério de solução
sobretudo para aquelas situações em que não se consegue normatizar sem grandes dificuldades,
seja por questões filosóficas, éticas ou jurídicas; quando a criação de um tipo penal não se faz
exequível; ou ainda, nas situações em que a teoria da evitabilidade não consegue atingir uma
perfeita subsunção à situação dilemática. Uma vez admitido o processo randômico, criar-se-ia
um ciclo onde o risco poderia ser encaixado, desta feita, como risco permitido. Nesse último
caso, adverte-se que, ainda que as propriedades da lógica probabilística não possam ser
480
ROXIN, Estudos de direito penal, p. 110.
166
normatizadas por razões óbvias de sua natureza, a admissão desse tipo de processo, sim, poderia
e deveria ser regulada.
Diante dessa verificação, o resultado geral alcançado é que, malgrado as limitações da
teoria da imputação objetiva para abranger todos os conflitos, ela surge como instrumento que
apresenta suficiente rendimento para a solução dos conflitos de situações de vida contra vida.
E diante de suas limitações, as soluções alternativas que se apresentam podem ser essenciais na
tarefa de superá-las, o que pôde ser verificado diante da subsunção da constelação dos casos
propostos neste trabalho àquilo que preconiza o dogma da imputação objetiva.
CONCLUSÃO
aptidão para solução dos conflitos em sede de situações dilemáticas. As alternativas propostas
se condensaram na regulamentação; na possível criação de um novo tipo penal; na contribuição
da teoria da evitabilidade; e na ideia de uma modelagem randômica.
Ao considerar a regulamentação, diante dos casos práticos apresentados, restou
constatado que um quadro regulatório satisfatório, abrangendo os domínios técnico e jurídico,
resulta em previsibilidade objetiva que se espera para fins de primeiro delimitar o risco
permitido e proibido, para então, realizar a adequação à teoria da imputação objetiva. O
silogismo se fez claro: se o uso de veículos controlados por IA ultrapassar os limites
estabelecidos, violando as regras postas, o risco proibido estará caracterizado; porém, se a
regulamentação dos sistemas inteligentes estiver em vigor e seu operador agir conforme as
normas, sua conduta estará acobertada pelas leis. Ao agir dentro do risco permitido, em caso de
colisão, o resultado não será atribuído a ele, porque ações perigosas permitidas pela legislação.
Em síntese, em havendo normativa adequada, e sendo ela respeitada, não se pode falar
em imputação, pois o risco se adequa ao âmbito permissivo. A observância de normas, tanto
pelo condutor quanto pelo desenvolvedor do veículo inteligente, tem o condão de retirar a
imputação do resultado na hipótese da ocorrência de evento danoso, pois a ação se dá dentro
dos limites do risco permitido pela ordem jurídica, frise-se, na mesma linha do que se verifica
atualmente na condução tradicional.
Assim, em face do atual nível de desenvolvimento, a regulamentação afigura-se
imprescindível para a adequada convivência com a tecnologia implementada nos veículos
autônomos, sobretudo para fins de preenchimento dos requisitos da teoria da imputação
objetiva. Nesse diapasão é que a proposta da pesquisa se voltou à comprovação de que a ideia
da criação de um risco proibido ou permitido é critério de elevada aptidão para imputar a
responsabilidade ao causador direto do dano ou a outro responsável, independentemente de
haver nexo de causalidade ou presunção de causalidade, nos moldes clássicos utilizados. Assim,
esse é o primeiro ponto no qual o trabalho se voltou para a possibilidade de se recorrer à teoria
da imputação objetiva, apurando sua adequação para a solução do problema objeto do estudo.
A introdução de uma nova figura típica revelou-se, igualmente, forma efetiva de
desencorajar comportamentos ilegais relacionados ao desenvolvimento e uso de veículos
autônomos, já que a definição de um risco relevante é incorporada na definição de uma figura
típica de crime, tornando-se assim um meio de informar expressamente a distinção entre
comportamentos socialmente aceitáveis e inaceitáveis, especialmente em relação a seus
resultados sociais.
170
481
MARCHANT; BAZZI, Autonomous vehicles and liability: what will juries do?, p. 67–68.
172
Para além disso, o núcleo de liberdades intangíveis deve ser preservado, no que proibir tudo o
que oferece riscos pode, na via contrária, significar malversação da própria dignidade da pessoa
humana, bem como de sua liberdade.
REFERÊNCIAS
Legal Systems. Berlin, Heidelberg: Springer Berlin Heidelberg, 2014, v. 8929, p. 145–156.
(Lecture Notes in Computer Science). Disponível em: <http://link.springer.com/10.1007/978-
3-662-45960-7_11>. Acesso em: 3 ago. 2022.
GALVÃO, Fernando. Imputação Objetiva. Belo Horizonte: Mandamentos, 2000.
GERDES, J. Christian; THORNTON, Sarah M. Implementable Ethics for autonomous
vehicles. In: MAURER, Markus; GERDES, J. Christian; LENZ, Barbara; et al (Orgs.).
Autonomous driving: technical, legal and social aspects. Berlin: Springer open, 2016, p. 41–
68. Disponível em: <https://link.springer.com/content/pdf/10.1007/978-3-662-48847-8.pdf>.
Acesso em: 9 abr. 2021.
GERT, Bernard; GERT, Joshua. The Definition of Morality. The Stanford Encyclopedia of
Philosophy, n. Fall Edition, 2020. Disponível em:
<https://plato.stanford.edu/archives/fall2020/entries/morality-definition/>. Acesso em:
8 nov. 2022.
GHIRALDELLI JÚNIOR, Paulo. RICHARD RORTY: A filosofia do novo mundo em busca
de mundos novos. Petrópolis: Vozes, 1999.
GLESS, Sabine; SILVERMAN, Emily; WEIGEND, Thomas. If robots cause harm, who is to
blame? Self-driving cars and criminal liability. New Criminal Law Review, v. 19, n. 3, p. 412–
436, 2016. Disponível em: <https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2724592>.
Acesso em: 3 ago. 2022.
GLESS, Sabine; WEIGEND, Thomas. Agentes inteligentes e o direito penal. In: Veículos
autônomos e direito penal. São Paulo: Marcial Pons, 2019, p. 37–64.
GOMES FILHO, Dermeval Farias. Dogmática Penal: fundamento e limite à construção da
jurisprudência penal no Supremo Tribunal Federal. Salvador: JusPodivm, 2019.
GOMES FILHO, Dermeval Farias; SUXBERGER, Antonio Henrique Graciano.
Neoconstitucionalismo e funcionalismo penal teleológico: o ajuste argumentativo na
jurisprudência do Supremo Tribunal Federal. Revista Magister de Direito Penal e Processual
Penal, v. 17, n. 98, p. 74–105, 2020.
GRECO, Luís. Autonome Kraftfahrzeuge und Kollisionslagen. In: KINDHÄUSER, Urs;
BÖSE, Martin; SCHUMANN, Kay H.; et al (Orgs.). Festschrift für Urs Kindhäuser zum 70.
Geburtstag. 1. Auflage. Baden-Baden: Nomos, 2019.
GRECO, Luís. Um panorama da teoria da imputação objetiva. 1a ed. rev. e atual. [livro
eletrônico]. São Paulo: Revista dos Tribunais, 2014.
GRECO, Luís. Um panorama da teoria da imputação objetiva. 4a ed., rev. e atualizada. São
Paulo: Thomson Reuters/Revista dos Tribunais, 2014.
GRECO, Luís. Um panorama da teoria da imputação objetiva. 3a ed., rev. e atualizada. São
Paulo: Thomson Reuters/Revista dos Tribunais, 2013.
GRECO, Luís. Veículos autônomos e situações de colisão. In: Veículos autônomos e direito
penal. São Paulo: Marcial Pons, 2019.
GRIEMAN, Keri. Hard drive crash, an examination of liability for self-driving vehicles.
Journal of Intellectual Property, Information Technology and Electronic Commerce Law,
v. 9, p. 294–309, 2018.
GUEDES, Marcelo Santiago; MACHADO, Henrique Felix de Souza. Veículos autônomos
inteligentes e a responsabilidade civil nos acidentes de trânsito no Brasil: desafios
regulatórios e propostas de solução e regulação. Brasília: ESMPU, 2020. (Série Pesquisas
ESMPU).
HALLEVY, Gabriel. The basic models of criminal liability of AI systems and outer circles.
SSRN Electronic Journal, 2019. Disponível em: <https://www.ssrn.com/abstract=3402527>.
Acesso em: 13 ago. 2022.
HALLEVY, Gabriel. Unmanned Vehicles – Subordination to Criminal Law under the Modern
Concept of Criminal Liability. Journal of Law, Information & Science, v. 21, n. 200, 2012.
178
MAURACH, Reinhart. Derecho penal, parte general. Trad. Jorge Bofill\ GENZSCH; Enrique
Aimone GIBSON. Buenos Aires: Astrea, 1994.
MCCALL, Roderick; MCGEE, Fintan; MIRNIG, Alexander; et al. A taxonomy of autonomous
vehicle handover situations. Transportation Research Part A: Policy and Practice, v. 124,
p. 507–522, 2019. Disponível em:
<https://linkinghub.elsevier.com/retrieve/pii/S0965856417311072>. Acesso em: 27 jul. 2022.
MELIÁ, Manuel Cancio. Conducta de la víctima e imputación objetiva en derecho penal:
estudio sobre los ámbitos de responsabilidad de víctima y autor en actividades
arriesgadas. Barcelona: Bosch, 1998. (Biblioteca de derecho penal).
MENDES, Laura Schertel; MATTIUZZO, Marcela. Discriminação Algorítmica: conceito,
fundamento legal e tipologia. v. 16, n. 90, p. 26, 2019. Disponível em:
<https://portal.idp.emnuvens.com.br/direitopublico/article/view/3766>. Acesso em:
10 nov. 2021.
MONTALVO, José Antonio Choclán. Deber de cuidado y delito imprudente. 1. ed.
Barcelona: Bosch, 1998.
MULHOLLAND, Caitlin Sampaio. A responsabilidade civil por presunção de causalidade.
1. ed. Rio de Janeiro: GZ, 2009.
MULHOLLAND, Caitlin Sampaio. Alternative causation, unidentifiable tortfeasors, and
group liability: a case study. Disponível em:
<https://civilistica.emnuvens.com.br/redc/article/view/121/91>. Acesso em: 17 jun. 2022.
MULHOLLAND, Caitlin Sampaio. Responsabilidade civil e processos decisórios autônomos
em sistemas de inteligência artificial (IA): autonomia, imputabilidade e responsabilidade. In:
FRAZÃO, Ana; MULHOLLAND, Caitlin Sampaio (Orgs.). Inteligência artificial e direito:
ética, regulação e responsabilidade. 2. ed. São Paulo: Thomson Reuters Brasil, 2020, p. 327–
350.
NUNES, Dierle; MARQUES, Ana Luiza Pinto Coelho. Inteligência artificial e direito
processual: vieses algoritmo e os riscos de atribuição de função decisória às máquinas. Revista
de Processo, v. 285, 2018.
NYHOLM, Sven; SMIDS, Jilles. The ethics of accident-algorithms for self-driving cars: an
applied trolley problem? Ethical Theory and Moral Practice, v. 19, n. 5, p. 1275–1289, 2016.
Disponível em: <http://link.springer.com/10.1007/s10677-016-9745-2>. Acesso em:
2 ago. 2022.
O’NEIL, Cathy. Weapons of math destruction: how big data increases inequality and
threatens democracy. New York: Crown Publishers - Broadway Books, 2016.
OSOBA, Osonde A.; WELSER, William IV. An intelligence in our image: the risks of bias
and errors in artificial intelligence. Santa Monica: RAND Corporation, 2017. Disponível em:
<https://www.rand.org/pubs/research_reports/RR1744.html>. Acesso em: 22 maio 2021.
PASQUALE, Frank. The black box society: the secret algorithms that control money and
information. First Harvard University Press paperback edition. Cambridge, Massachusetts
London, England: Harvard University Press, 2016.
PEDRINA, Gustavo Mascarenhas Lacerda. Consequências e perspectivas da aplicação de
inteligência artificial a casos penais. Revista Brasileira de Direito Processual Penal, v. 5,
n. 3, p. 1589–1606, 2019. Disponível em:
<https://revista.ibraspp.com.br/RBDPP/article/view/265>. Acesso em: 2 maio 2020.
PEREIRA, Gabriela Bueno. Direito e inteligência artificial: a ética dos carros autônomos.
Seminário sobre Inteligência Artificial, Proteção de Dados e Cidadania, v. Anais do II
Seminário sobre Inteligência Artificial, Proteção de Dados e Cidadania [recurso eletrônico],
p. 82–99, 2021.
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos
autônomos da inteligência artificial: notas iniciais sobre a resolução do parlamento europeu.
181