Você está na página 1de 185

CENTRO UNIVERSITÁRIO DE BRASÍLIA – UNICEUB

PROGRAMA DE PÓS-GRADUAÇÃO STRICTO SENSU EM DIREITO DO


CENTRO UNIVERSITÁRIO DE BRASÍLIA (PPGD) - MESTRADO

ALDO JOSÉ BARROS BARATA DE OLIVEIRA

SISTEMAS AUTÔNOMOS E RESPONSABILIDADE PENAL:

ASPECTOS DE IMPUTAÇÃO OBJETIVA

Brasília

2023
ALDO JOSÉ BARROS BARATA DE OLIVEIRA

SISTEMAS AUTÔNOMOS E RESPONSABILIDADE PENAL:

ASPECTOS DE IMPUTAÇÃO OBJETIVA

Dissertação apresentada como requisito


para conclusão do curso de Mestrado do
Programa de Pós-Graduação Stricto
Sensu em Direito do Centro Universitário
de Brasília – UniCEUB. Orientador: Prof.
Dr. Bruno Tadeu Buonicore.

BRASÍLIA

2023
ALDO JOSÉ BARROS BARATA DE OLIVEIRA

SISTEMAS AUTÔNOMOS E RESPONSABILIDADE PENAL:

ASPECTOS DE IMPUTAÇÃO OBJETIVA

Dissertação apresentada como requisito


para conclusão do curso de Mestrado do
Programa de Pós-Graduação Stricto
Sensu em Direito do Centro Universitário
de Brasília – UniCEUB. Orientador: Prof.
Dr. Bruno Tadeu Buonicore.

Brasília, 14 de abril de 2023

BANCA EXAMINADORA

Prof. Dr. Bruno Tadeu Buonicore

Orientador

Prof. Dr. Sandro Lúcio Dezan

Membro Interno

Prof. Dr. Fabio Roberto D'Avila

Membro Externo
À minha esposa e às minhas
filhas, responsáveis pela
concretização dos meus
sonhos;
Aos meus pais, minha irmã e
meu saudoso e eterno irmão.
AGRADECIMENTOS

Com imensa gratidão e acima de tudo, a Deus!


Ao Professor Doutor Bruno Tadeu Buonicore, em especial por ter aceitado o convite
para me orientar nessa caminhada acadêmica, e por sua experiência emprestada ao
desenvolvimento dessa pesquisa, tudo feito com tamanha simplicidade que lhe é peculiar. Por
ter me acompanhado nesse trabalho com muito compromisso, sendo generoso ao mostrar as
direções a serem seguidas, sempre exercendo um papel provocador de reflexões. Por ter, com
muita leveza, oferecido a oportunidade de aprofundar e aprender cada vez mais, não somente
sobre o que aqui se pesquisou, mas sobretudo por trazer uma nova visão sobre a dogmática
penal. Também por uma humildade que permitiu a construção de uma verdadeira amizade.
Ao Prof. Dr. Sandro Lúcio Dezan e ao Prof. Dr. Fabio Roberto D'Avila, por terem
aceitado o convite para compor a mesa de defesa, brindando-a com suas ilustres presenças,
especialmente pela experiência no assunto.
Aos meus pais Rui e Regina, pois todos os caminhos que percorri foram moldados pelos
ensinamentos valiosos que deles recebi. Foram fundamentais para criar as bases do meu
desenvolvimento, como profissional e como pessoa.
Ao meu saudoso irmão Adriano que se transformou em um anjo protetor e que, em vida,
tanto me ensinou em especial pelo seu modo único de ser. À minha irmã Alessandra que, com
suas críticas construtivas, sempre torceu por mim.
Às minhas pequenas Catarina e Clarissa que me permitem desfrutar diuturnamente do
sabor da felicidade e do amor paterno, talvez a mais nobre forma de amar.
Por fim, registro com especial carinho o apoio da minha esposa Isabella, especialmente
por seu companheirismo, por todo o seu amor e dedicação diária, revelando-se um pilar
estruturante para todos os meus sonhos. E por ser a figura feminina elementar dessa linda
família que construímos.
RESUMO

O processo contínuo dos avanços tecnológicos implica transformações na estrutura


social, portanto difusor de riscos ao corpo social, os quais são alavancados pelo uso da
inteligência artificial. Nesse contexto, os veículos autônomos surgem como promessa de
suplantar a falibilidade humana, com redução de acidentes de trânsito, na mesma toada em que
os riscos consectários impactam a ordem jurídica, atraindo desafios especialmente para o direito
penal. A dogmática jurídico-penal se depara mais uma vez com dilema de filosofia prática,
desta feita sobre ponto nevrálgico da direção automática, dela se exigindo soluções plasmadas
em vetores axiológico-constitucionais. O trabalho pretende consolidar discussões sobre a
possibilidade de responsabilização penal em caso de acidentes envolvendo sistemas autônomos,
perpassando pelos caminhos dogmáticos tradicionais, para então averiguar a possibilidade de
se adequar casos dilemáticos à teoria da imputação objetiva. Para tanto, faz-se necessário o
exame das camadas do conceito analítico de crime, tangenciando a teoria da imputação objetiva,
sob a perspectiva do risco permitido e proibido. A partir do exame acerca da possibilidade
axiológica e jurídica dos algoritmos de acidente, sua subsunção à teoria objetiva é submetida
ao critério de falseabilidade, por intermédio de uma constelação de casos práticos combinados
com propostas de soluções. Partindo-se de uma pontual revisão da literatura especializada,
articulando direito internacional e a bibliografia de intersecção entre a tecnologia e o direito,
conclui-se pela aceitabilidade da ferramenta algorítmica, todavia imprimindo-lhe limites
perante postulados constitucionais e dogmas do direito penal, para além das normas de
segurança postas no afã de se delimitar aquilo que é permitido. Situações dilemáticas não têm
o condão de inibir as inovações tecnológicas, mas reclamam disciplina por regras bem definidas
que se adequam do modo mais útil às aspirações da sociedade, não se revelando suficiente o
perfeccionismo ético.
Palavras-Chaves: inteligência artificial; veículos autônomos; responsabilidade penal;
imputação objetiva.
ABSTRACT

The continuous process of technological advances implies transformations in the social


structure, spreading risks to the social body, which are leveraged using artificial intelligence.
In this context, autonomous vehicles emerge as a promise to overcome human fallibility, with
a reduction in traffic accidents, while the risks impact the legal system, attracting challenges
especially for criminal law. The legal-penal dogma is once again faced with a dilemma of
practical philosophy, this time on the neuralgic point of automatic driving, requiring solutions
based on constitutional axiological vectors. The paper intends to consolidate discussions on the
possibility of criminal liability in case of accidents involving autonomous systems, going
through the traditional dogmatic paths, and then investigate the possibility of adapting dilemma
cases to the theory of objective imputation. To do so, it is necessary to examine the layers of
the analytical concept of crime, touching on the theory of objective imputation, from the
perspective of permitted and prohibited risk. From the examination of the axiological and legal
possibility of the accident algorithms, their subsumption to the objective theory is submitted to
the criterion of falsifiability, through a constellation of practical cases combined with proposed
solutions. Starting from a punctual review of specialized literature, combining international law
and the bibliography of intersection between technology and law, it is concluded that the
algorithmic tool is acceptable, however, imposing limits to it in view of constitutional postulates
and criminal law dogmas, beyond the security norms set in the eagerness to delimit what is
allowed. Dilemmatic situations do not have the power to inhibit technological innovations but
require discipline by well-defined rules that fit in the most useful way to the aspirations of
society, and ethical perfectionism is not enough.
Keywords: artificial intelligence; autonomous vehicles; criminal liability; objective
imputation.
LISTA DE ABREVIATURAS E SIGLAS

CF Constituição Federal
IA Inteligência Artificial
IEEE Institute of Electrical and Electronic Engineers
IoT Internet of Things
NHTSA National Highway Traffic Safet Administration
SAE Society of automotive Engineers
VA Veículos Autônomos
SUMÁRIO

SUMÁRIO ................................................................................................................................. 8
INTRODUÇÃO ...................................................................................................................... 10
CAPÍTULO 1 - PANORAMA DA INTELIGÊNCIA ARTIFICIAL E DOS VEÍCULOS
AUTÔNOMOS ....................................................................................................................... 15
1.1 A capacidade de contar estórias – Storytelling: um diferencial .......................... 15
1.2 Breve histórico e principais conceitos pertinentes à Inteligência Artificial ...... 17
1.3 O algoritmo ............................................................................................................. 20
1.4 Aprendizagem automática e redes neurais .......................................................... 22
1.5 Moral machine ......................................................................................................... 26
1.6 Os riscos das decisões algorítmicas ....................................................................... 29
1.6.1 Os riscos dos vieses .............................................................................................. 30
1.6.2 O risco da opacidade da tecnologia: a questão da transparência ...................... 31
1.7 Veículos autônomos ................................................................................................ 35
1.7.1 Breve histórico dos carros autônomos ................................................................. 36
1.7.2 Os níveis de autonomia ........................................................................................ 39
1.8 A questão ética dos veículos autônomos ............................................................... 42
1.9 Perspectivas ético-normativas ............................................................................... 45
1.9.1 Iniciativas de regulação ....................................................................................... 48
CAPÍTULO 2 – A PERSPECTIVA DA RESPONSABILIDADE PENAL DIANTE DA
SOCIEDADE DE RISCO ...................................................................................................... 55
2.1 A sociedade de risco ................................................................................................ 55
2.2 Responsabilidade no direito penal brasileiro ....................................................... 63
2.2.1 O fato típico como elemento nuclear do crime..................................................... 63
2.2.2 Sujeito ativo do crime: da dogmática tradicional aos entes autônomos .............. 64
2.3 Breve olhar para as justificantes e exculpantes ................................................... 74
2.3.1 Problemas ao plano das causas de justificação ................................................... 75
2.3.2 Problemas ao plano da desculpa.......................................................................... 79
2.4 Dilemas clássicos resgatados pela condução automatizada ................................ 81
2.5 Excurso ao utilitarismo e ao princípio do mal menor ......................................... 84
2.6 Apresentação das situações dilemáticas ............................................................... 91
2.6.1 O caso hipotético clássico .................................................................................... 92
2.6.2 O caso histórico de Aschaffenburg....................................................................... 92
CAPÍTULO 3 – INTRODUÇÃO DOS ASPECTOS DA IMPUTAÇÃO OBJETIVA..... 94
3.1 O surgimento da moderna teoria da imputação objetiva ................................... 95
3.2 O nexo causal e o nexo normativo ......................................................................... 99
3.3 Aspectos da teoria da imputação objetiva de Claus Roxin ............................... 104
3.3.1 O risco proibido como elemento da teoria da imputação objetiva .................... 108
3.3.2 A exclusão da imputação .................................................................................... 115
3.3.3 Caracterização das “comunidades de perigo”? ................................................ 116
3.3.4 O princípio da confiança e o enlace com o risco permitido .............................. 117
3.4 O algoritmo de acidente sob a ótica da imputação objetiva ............................. 121
3.4.1 Sob a perspectiva do sistema autônomo ............................................................. 124
3.4.2 Sob a perspectiva do usuário ............................................................................. 129
3.4.3 Sob a perspectiva do fabricante do veículo ........................................................ 133
3.5 Propostas de soluções e o seu rendimento para solução de conflitos ............... 146
3.5.1 A regulamentação técnico-administrativa ......................................................... 147
3.5.2 A proposta da criação de um tipo penal ............................................................ 152
3.5.3 A Teoria da Evitabilidade ou a não-realização do risco no resultado .............. 153
3.5.4 Alternativa ao consenso: o processo randômico ................................................ 159
3.6 Constelação fática de casos concretos para solução de conflitos ...................... 161
3.7 Resultado ............................................................................................................... 164
CONCLUSÃO....................................................................................................................... 167
REFERÊNCIAS ................................................................................................................... 173
INTRODUÇÃO

O avanço tecnológico por vezes se consubstancia em substrato para a provocação de


tensão ao longo das estruturas normativas e organizacionais da sociedade, na medida em que a
apropriação social e sua significação cultural são essenciais para a aplicação das normas
vigentes ou para a sua inovação adaptativa.
De carros autônomos em vias públicas a foguetes reutilizáveis também autopilotados
que aterrissam em navios autônomos, a inteligência de máquina está apoiando ou assumindo
inteiramente atividades humanas cada vez mais complexas, e em ritmo cada vez maior. A maior
autonomia dada à inteligência da máquina nesses papéis pode resultar em situações em que eles
precisam fazer escolhas autônomas envolvendo a vida e os membros humanos. Isso exige não
apenas uma compreensão mais clara de como os humanos fazem essas escolhas, mas também
uma compreensão mais clara de como os humanos percebem a inteligência da máquina fazendo
essas escolhas.
O desenvolvimento da humanidade requer tanto o impulso criativo da ciência quanto a
tolerância de determinados riscos em nome das vantagens advindas do exercício das atividades
que se erguem no meio social, sem o qual a evolução não se mostraria viável. À guisa de
exemplo, cita-se o tráfego - nas suas modalidades aérea, terrestre e marítima -, e a energia – em
seus vários tipos: elétrica, combustível, eólica, química e atômica. Assim é que a regulação
excessiva dos comportamentos inerentes às várias vertentes das descobertas e invenções
humanas podem representar uma limitação insuportável ao progresso almejado.
Para além disso, a sociedade convive atualmente com transformações abruptas e
velozes, resultado de um processo sem precedentes: a revolução digital. O salto tecnológico
que anteriormente não estava sujeito nem mesmo a uma progressão aritmética, pode-se dizer
que hoje progride geometricamente, reconfigurando a trama social diuturnamente.
A sociedade atual é levada por características como a do desassossego, da globalização,
do medo, do risco, da incerteza, do hiperconsumo e, por que não, dos danos. Essas adjetivações
atribuídas à sociedade demonstram que o tempo do direito atual é diverso daquele em que as
ideias de causalidade previsível e de presunção de causalidade foram erigidas. Ratifica-se com
isso a umbilical vinculação entre o Direito e o tempo, pois não se pode interpretar e construir
sentidos para os institutos jurídicos apartados da historicidade concreta, não linear e contínua
que os cercam.
Na mesma toada, o direito é desafiado a todo momento na sua função de regular as
relações sociais, envidando esforços na pacificação dos conflitos existentes na sociedade de
11

modo a garantir o respeito aos direitos fundamentais conquistados. Os fenômenos tecnológicos,


máxime em razão da velocidade que surgem, são fortes impulsionadores desses desafios.
No âmbito dos veículos governados pela inteligência artificial, é certo que, por não
ingerirem álcool, não sofrerem estresse ou qualquer outra condição incapacitante, tampouco
infringirem regras de circulação, podem substituir a falibilidade humana e reduzirem
drasticamente o número de acidentes fatais. No entanto, o cenário que se constrói a partir da
eclosão dos carros autônomos requer o exame jurídico-penal dos algoritmos de acidente
inseridos nesses veículos.
Assim, em que pese as vantagens da tecnologia, o algoritmo de acidente está a merecer
análise axiológica e jurídica e, para tanto, impõe ser investigada sua viabilidade à luz da teoria
da imputação objetiva. O novo cenário que se apresenta diz com a autonomia e a característica
cognitiva implementadas nos algoritmos que controlam máquinas e carros, concebendo
modificação nas interpretações das teorias de responsabilidade penal.
A pulverização do tema na mídia e o soerguimento de discursos públicos têm inflamado
estudos científicos sobre a ética das máquinas, notadamente no quesito da responsabilização.
São inúmeros artigos científicos publicados e outras tantas publicações midiáticas noticiando
eventos ocorridos mundialmente, capazes também de retratar o estado da arte mundial.
É que a implementação de agentes inteligentes no meio social, considerando seus
desdobramentos, é fenômeno que requer o enfrentamento, pelo ordenamento jurídico, em
especial pelo direito penal, de inúmeras indagações que a dogmática tradicional não se mostra
mais capaz de responder. O desenvolvimento de uma dogmática voltada ao risco na seara dos
sistemas autônomos reclama o debate, bem como o abastecimento suficiente de informações
sobre o processo decisório que faz o uso de algoritmos, para que se torne verificáveis as
inúmeras nuances involucradas a esse processo.
É forçoso ao direito penal o enfrentamento de suas limitações no seu papel de regência
das relações humanas, frente à nova tecnologia que surge com os carros autônomos, tendo em
mente que o direito não pode se quedar inerte diante das mudanças sociais. A compreensão
suficientemente precisa, sob o prisma jurídico-criminal, requer avalição de institutos possam
corresponder às necessidades sociais na solução de seus conflitos.
Portanto, essa é a proposta do presente trabalho, fazendo-se por meio de uma revisão
bibliográfica, utilizando-se também fontes documentais, legislativas, com ênfase em obras
nacionais e internacionais publicadas dentro da temática, artigos científicos de revistas e
periódicos especializados e seguramente indexados.
12

O objetivo geral deste trabalho é investigar a possibilidade de se adequar a atividade que


envolve sistemas autônomos de inteligência artificial ao risco permitido, dentro daquilo que
preconiza a teoria da imputação objetiva.
Os objetivos específicos consistem em descrever acerca do desenvolvimento das
inteligências artificiais e suas nuances, a exemplo da ética que lhe rege para, após, aprofundar-
se na inteligência aplicada aos carros autônomos; discorrer sobre elementos estruturais que
compõem o conceito analítico do crime, com ênfase àqueles que importam ao trabalho; analisar
a viabilidade de responsabilização criminal dos próprios sistemas de inteligência artificial, bem
como dos demais agentes envolvidos nessa atividade de inteligência artificial; perquirir a
invocação da teoria da imputação objetiva como ferramenta exequível à solução de problemas
oriundos do emprego de sistemas autônomos, explorando como possíveis soluções à questão
da própria imputação: a regulamentação técnica, aplicabilidade da teoria da evitabilidade, a
proposta da criação de um tipo penal e o processo randômico de decisões.
Em síntese, a questão nevrálgica do estudo está consubstanciada na possibilidade de se
admitir como permitido o riscos inerente à introdução dos carros autônomos, perpassando a
questão ético-filosófica sobre o sacrifício de vidas em situações de dilemáticas de conflito de
vidas contra vidas, socorrendo-se, ao final, à teoria da imputação objetiva como possível
ferramenta de solução.

A proposta estrutural da pesquisa


Explicitados os objetivos, esclarece-se sobre a metodologia a ser empregada. A pesquisa
se utiliza do método dedutivo, pois parte de um ensaio sobre a teoria da sociedade de riscos e
da imputação objetiva para, através de pesquisas precedentes, literatura especializada,
documentos de órgãos internacionais e textos legais, bem como uma constelação de casos,
examinar a possibilidade de atribuição da responsabilidade penal ao desenvolvedor ou ao
condutor do sistema de condução autônoma em decorrência da (não)criação ou (não)realização
de riscos.
Outrossim, a investigação pretende um caráter dialógico, crítico e valorativo que, com
base no diagnóstico do estado da arte do objeto do estudo, permita um contínuo repensar das
premissas e problematizações consectárias dos desafios que o processo evolutivo da
humanidade traz para si com suas descobertas e criações, mantendo-se ininterrupto o diálogo
científico.
13

Para a consecução do objetivo geral, o trabalho foi estruturado em três capítulos, além
da presente introdução, da conclusão e das referências. Cada capítulo versa sobre um estágio
necessário à dialógica propositiva derivada da problematização colocada. Portanto, segundo a
matriz metodológica, optou-se por uma abordagem teórica. Por intermédio de pesquisa
bibliográfica, legislativa e documental, o trabalho se desenvolve em quatro etapas.
A primeira se concentrará no panorama acerca da inteligência artificial. O capítulo
inicial do desenvolvimento, de cunho introdutório e de contextualização, almeja precipuamente
brindar a pesquisa com o estado da arte da IA. Antes, porém, será realizada uma abordagem
histórica, seguida de sua descrição, definição e caracterização, bem como os modelos de
aprendizagem do sistema autônomo e demais desdobramentos e conceitos técnicos afins para,
então, tecer algumas anotações necessárias sobre seu processo de tomada de decisão. Ainda,
traz o problema da opacidade da tecnologia, enquadrado no conceito de black box.
Debruça-se, também, sobre o surgimento e funcionamento dos carros autônomos no
contexto da sociedade de riscos, como uma das soluções para os problemas existentes no
trânsito, focando-se em um primeiro momento em seu histórico e nos níveis de autonomia
existentes. Em seguida, será levantada a questão ética pertinente aos sistemas inteligentes,
adentrando-se também na análise das perspectivas ético-normativas atinentes ao uso dos carros
inteligentes. Esse ponto realizar-se-á por intermédio de pesquisa documental exploratória.
A segunda etapa do desenvolvimento se debruça inicialmente na abordagem normativo-
jurídica da responsabilidade no direito penal e, discorrendo sobre os elementos iniciais que
compõem o conceito analítico do crime, enfrenta-se a possibilidade do próprio sistema
autônomo se caracterizar como sujeito ativo do crime.
Após, objetiva-se lançar luz sobre as situações dilemáticas, as quais protagonizam o
cenário objeto desse estudo, por serem as incitadoras dos debates sobre quem deve responder
pelos resultados que delas advêm. Para tanto, serão descritos alguns casos concretos ocorridos
em países em estado mais avançado – notadamente Estados Unidos e países da Europa – no uso
da IA em veículos, realizando-se pesquisa bibliográfica descritiva selecionada, a partir de
material acadêmico já produzido e notícias midiáticas.
O terceiro capítulo abordará a teoria da imputação objetiva como eventual solução para
a atribuição da responsabilidade penal na sociedade de riscos, perpassando seu conceito e
pressupostos, para averiguação quanto à sua utilização ao problema apresentado. A constelação
de casos apresentada no segundo capítulo, combinada com as propostas de soluções,
14

tencionarão conferir o caráter de cientificidade à pesquisa, sendo a teoria objetiva, como


instrumento para solução de conflitos, será submetida ao critério de falseabilidade.
Como etapa derradeira, sem a pretensão de exaurir o tema, a partir das exposições
realizadas ao longo do trabalho, será apresentado o panorama final a respeito da hipótese
lançada, a compreender se a atividade ligada ao funcionamento do sistema autônomo resulta na
criação de risco permitido, ou proibido, considerando especialmente as situações dilemáticas
que surgem.
CAPÍTULO 1 - PANORAMA DA INTELIGÊNCIA ARTIFICIAL E DOS VEÍCULOS
AUTÔNOMOS

A Liberdade e a Justiça
A revolução do século XX separou arbitrariamente, para fins desmesurados de
conquista, duas noções inseparáveis. A liberdade absoluta mete a justiça a ridículo. A
justiça absoluta nega a liberdade. Para serem fecundas, as duas noções devem
descobrir os seus limites uma dentro da outra. Nenhum homem considera livre a sua
condição se ela não for ao mesmo tempo justa, nem justa se não for livre.
Precisamente, não pode conceber-se a liberdade sem o poder de clarificar o justo e o
injusto, de reivindicar todo o ser em nome de uma parcela de ser que se recusa a
extinguir-se. Finalmente, tem de haver uma justiça, embora bem diferente, para se
restaurar a liberdade, único valor imperecível da história. Os homens só morrem bem
quando o fizeram pela liberdade: pois, nessa altura, não acreditavam que morressem
por completo. 1
Albert Camus, "O Mito de Sísifo"

A inteligência artificial seduz e cerca o homem em muitas de suas relações hodiernas,


tais como drones, assistentes virtuais, softwares de tradução, chats de alta performance (como
o recém lançado GPT), até os veículos que esbanjam inteligência em sua locomoção. O avanço
da IA em progressão geométrica, sem sombra de dúvidas, traz consigo avanços extraordinários,
impulsionado pela disponibilidade infinita de dados e o recrudescimento exponencial da
capacidade de processamento deles. Para além disso, há o processo de aprendizagem das
próprias máquinas, o que faz alavancar ainda mais o estirão evolutivo2.
Por outro ângulo, as transformações sociais se constituem em reverberações do processo
de edificação da nova estrutura da informação que se impõe3. São transformações que ditam
desafios incalculáveis tanto para o corpo social, em especial para a sua ordem jurídica regente.
Novos formatos de produtos e serviços passam a apresentar ainda mais relevância jurídica e,
em que pese as benesses sociais agregadas, estão atreladas a maiores riscos. Nessa nova
modelagem social a inteligência artificial assume protagonismo indiscutível.

1.1 A capacidade de contar estórias – Storytelling: um diferencial

Outro ponto característico diz com a capacidade cognitiva do ser humano que, ao somar
a técnica da linguagem, habilita-se a construir cenários pretéritos, os quais o ajudam a
compreender o presente e formar projeções servis ao futuro. Isto se dá em razão da aptidão para

1
CAMUS, Albert; O’BRIEN, Justin, The myth of Sisyphus and other essays, 1st Vintage international ed. New
York: Vintage Books, 1991.
2
SCHWAB, Klaus, A quarta revolução industrial [livro eletrônico], São Paulo: Edipro, 2016, p. 22.
3
RODOTÀ, Stefano, A vida na sociedade da vigilância: a privacidade hoje, Rio de Janeiro: Renovar, 2008,
p. 38.
16

contar estórias, o que se denomina storytelling4. A cultura, por sua vez, é resultado da soma
entre linguagem e os contextos capturados com os cenários históricos5. Logo, se a ideia
fundamental da IA é imitar a mente humana, e como visto este não é considerado um ser
estatístico, um sistema de IA que não possa contextualizar aspectos subjetivos do agente em
análise, certamente, afastar-se-á de uma diagnose e prognose precisas, entregando uma resposta
inadequada, porque oferecer uma resposta média não diz com a ideia de justiça6.
Portanto, importante fixar essa premissa de que a cultura não exsurge de dados
estatísticos. Seus indivíduos podem até serem simpáticos a padrões predeterminados sem,
contudo, tomarem suas decisões somente com base na racionalidade. Por essa razão, não parece
que a máquina, no atual estado da arte da tecnologia, seja capaz de entender as reações humanas,
a ponto de decidir por si só7.
Em verdade, é que até este ponto da história não foi descoberto nada parecido com as
redes neurais dos seres humanos. Essas redes são resultado de milhões de anos de evolução,
nos quais o ser humano “aprendeu” a se movimentar, a se alimentar, a procriar etc. As redes
neurais se desenvolveram numa aquisição instintiva, procurando soluções não exatamente
médias para problemas cotidianos. Elas derivam de algo mais profundo: o arco linguístico em
que o ser aprende a executar uma ação e associá-la a um resultado duradouro8.
Eric Hilgendorf destaca que a compreensão do termo “inteligência artificial” requer
certo esforço em razão da predisposição humana na “antropomorfização”. É que há uma
tentativa em se interpretar as capacidades mecânicas de modo análogo às capacidades humanas.
Entretanto, por uma razão de necessidade de ser singular, também se espera que os robôs tão
somente os simulem. Diante disso, a problemática: se, por um lado, há uma limitação das
máquinas a determinadas áreas, de outro, nesses áreas elas transcenderão a performance
humana de modo progressivo. O autor rememora o clássico exemplo do jogo de xadrez, no qual
o melhor dos jogadores já é facilmente vencido9.

4
SUPREMO TRIBUNAL FEDERAL, Curso: Aplicação da Inteligência Artificial ao Direito, Brasília:
Coordenadoria de Desenvolvimento de Pessoas, 2020.
5
PEDRINA, Gustavo Mascarenhas Lacerda, Consequências e perspectivas da aplicação de inteligência artificial
a casos penais, Revista Brasileira de Direito Processual Penal, v. 5, n. 3, p. 1589–1606, 2019, p. 1593.
6
BERWICK, Robert C.; CHOMSKY, Noam, Why only us: language and evolution, Cambridge, Massachusetts:
MIT Press, 2016.
7
Ibidem, p. 1.594.
8
SUPREMO TRIBUNAL FEDERAL, Curso: Aplicação da Inteligência Artificial ao Direito.
9
HILGENDORF, Eric, Digitalização e direito, São Paulo: Marcial Pons, 2020, p. 45.
17

O professor alemão aponta ainda que, diante da tendência à antropomorfização, impõe-


se a reserva para determinadas áreas como tarefa única do ser humano. Logo, a inteligência, em
sua verdadeira concepção, há que ser considerada um atributo humano, de modo que a
inteligência “artificial” se revela como um campo limítrofe, que recua à proporção que o robô
logra âmbitos destinados ao homem10.
Por fim, tão importante quanto a compreensão sobre a definição é a efetiva percepção
da inteligência artificial na vida cotidiana. Para tanto, fala-se em quatro ondas de aplicação da
inteligência artificial nos tempos atuais, quais sejam: “de internet”, “de negócios”, “de
percepção” e “autônoma”. A última onda (a autônoma) é a responsável pelas maiores
transformações da sociedade, com repercussões exponenciais. Nela se encaixam o surgimento
dos drones autônomos, dos robôs inteligentes ocupando fábricas e, ao que importa à presente
pesquisa, dos veículos autônomos. É responsável pela transformação radical do conceito de
vida social, abrangendo desde modificações na agricultura, ao modo de se receber um lanche
encomendado, ou na forma de locomoção das pessoas e coisas 11.

1.2 Breve histórico e principais conceitos pertinentes à Inteligência Artificial

Em um breve resgate histórico, inicialmente cabe registrar que Alan Turing é


considerado o pai da inteligência artificial. Na década de 1950, essa figura representativa
apresentou trabalho muito reconhecido – o artigo “Computing Machinery and Intelligence” -,
o qual descrevia a possibilidade de a máquina ser programada para aprender pelo mimetismo
da inteligência humana. Neste trabalho, Turing tenta responder à questão "Máquinas podem
pensar?". Para o autor, uma máquina que pudesse dialogar com humanos sem que os humanos
tivessem consciência de que o interlocutor é uma máquina, teria atingido o ponto de vitória e,
portanto, podendo ser considerada “inteligente” 12.
Turing então desenvolveu um jogo – chamado o "jogo da imitação". No jogo deveriam
constar três participantes: um homem, uma mulher e um investigador. O objetivo era que o
investigador identificasse qual dos participantes era homem e qual era mulher. Se o investigador
fosse capaz de identificar o gênero do entrevistado por suas respostas às perguntas, o jogo
deveria ser repetido. No segundo teste um desses dois participantes deveria ser substituído por

10
Ibid.
11
LEE, Kai-Fu, Inteligência Artificial: como os robôs estão mudando o mundo, a forma como amamos, nos
relacionamos, trabalhamos e vivemos, 1. ed. Rio de Janeiro: Globo Livros, 2019. E-book.
12
SUPREMO TRIBUNAL FEDERAL, Curso: Aplicação da Inteligência Artificial ao Direito.
18

uma máquina, sendo que o objetivo do investigador agora seria identificar qual dos participantes
é o humano e qual é a máquina. Se a máquina, diante das mesmas perguntas feitas a humanos,
fosse capaz de enganar o intermediário, poder-se-ia dizer “inteligente”13.
Já no que se refere ao primeiro conceito sistematizado de inteligência artificial, ele é
atribuído à figura do matemático e cientista da computação John McCarthy. Em verdade, o
primeiro a cunhar o termo Inteligência Artificial no ano de 1955. O vanguardista conceituou-a
como arquitetura de uma rede computacional construída para o fim de realizar um conjunto
predeterminado de tarefas e, concomitantemente, aprender na medida que as executa14. Ou
ainda, é a arte de permitir que uma máquina siga a linha de inteligência humana por meio de
programas da computação. No modo original, quando questionado “What is artificial
intelligence?”, assim se manifestou:

It is the science and engineering of making intelligent machines, especially


intelligent computer programs. It is related to the similar task of using
computers to understand human intelligence, but AI does not have to confine
itself to methods that are biologically observable15.

Em outra relevante definição, a IA compreende “sistemas que exibem comportamento


inteligente por meio da análise de seu ambiente e da tomada de ações – com um certo grau de
autonomia – para alcançar objetivos específicos”16.
Revela-se de igual importância, dizer o que não se enquadra na definição de inteligência
artificial. Como visto, algumas aplicações não são exatamente inteligentes. Assim, conclui-se
que nem tudo é inteligência artificial, além do que o “o homem não é uma criatura estatística”.
Muitos programas são tidos como imbuídos por IA, mas na verdade não o são. A inteligência
artificial requer aplicação de noções de contexto, ou seja, há que saber contextualizar.
Em verdade, os sistemas atuais versam somente computação estatística, porquanto
oferece, de maneira autônoma, tão somente a melhor resposta estatística para a questão
colocada17, ou ainda, são em verdade coleções de dados que fornecem respostas estatísticas18.

13
TURING, Alan Mathison, Computing machinery and intelligence, Mind, v. LIX, n. 236, p. 433–460, 1950.
14
STANFORD, Engineering, Computer Science. Professor John McCarthy.
15
STANFORD, What is Artificial Intelligence?
16
EUROPEAN COMMISSION, Artificial Intelligence for Europe, Communication from the commission to the
european parliament, the european council, the council, the european economic and social committee and the
committee of the regions artificial intelligence for europe.
17
PEDRINA, Consequências e perspectivas da aplicação de inteligência artificial a casos penais, p. 1592.
18
WINSTON, Patrick, Artificial intelligence demystified, Massachusetts: Massachusetts Institute of Technology,
2018.
19

Afirmar que o homem não é uma criatura estatística significa dizer que a mente humana
requer contextualização, pois não toma suas atitudes estaticamente adequadas, mas aquelas que
culturalmente lhe apresenta como sendo a mais correta. Se o propósito é imitar a mente humana,
deve também atender esse pressuposto, sob pena de se obter tão somente uma mera resposta
média. É dizer, as redes neurais artificiais, acaso pretendam uma imitação fidedigna, hão de se
espelhar na estrutura biológica de um neurônio como um todo, projetando suas características
de modo preciso19.
O fato de não se compreender o homem como uma criatura estatística carrega a primeira
dificuldade em ser substituído por um robô, ainda que esse seja hábil para muitas atividades.
Além disso, o que torna o homo sapiens a mais inteligente de todas as espécies, para além da
sua capacidade de raciocinar, é a linguagem – um sistema de organização de pensamentos. De
maneira ilustrativa, Yuval Noah Harari20 ensina o poder da nossa linguagem:

A resposta mais comum é que nossa linguagem é incrivelmente versátil. Podemos


conectar uma séria limitada de sons e sinais para produzir um número infinito de
frases, cada uma delas com um significado diferente. Podemos, assim, consumir,
armazenar e comunicar uma quantidade extraordinária de informação sobre o mundo
à nossa volta. Um macaco-verde pode gritar para seus camaradas: “Cuidado! Um leão,
mas um humano pode dizer aos amigos que esta manhã, perto da curva do rio, ele viu
um leão atrás de um rebanho de bisões. Pode então descrever a localização exata,
incluindo os diferentes caminhos que levam à área em questão. Com essas
informações, os membros do seu bando podem pensar juntos e discutir se devem se
aproximar do rio, expulsar o leão e caçar os bisões.

Com efeito, é característica peculiar do ser humano a capacidade cognitiva de, adotando
a técnica da linguagem, construir cenários passados, os quais o ajudam a compreender o
presente, além de elaborar projeções para o futuro – o atributo do storytelling.
Em síntese, a inteligência reclama a capacidade de os sistemas se adaptarem a novas
circunstâncias e de extrapolarem padrões previamente estabelecidos, isto é, aprendendo com os
dados já conhecidos e, assim, produzindo novas informações capazes de subsidiar tomadas de
decisão futuras. Em outros termos, a concepção inteligente de algoritmos requer (i) análise de
dados, (ii) aprendizagem com esses dados, e, então, (iii) divulgação dos resultados e/ou das
previsões a respeito de algo. Desse modo, a inteligência das máquinas em seu sentido funcional
diz com a capacidade de aperfeiçoar seu comportamento a partir da experiência.

19
SUPREMO TRIBUNAL FEDERAL, Curso: Aplicação da Inteligência Artificial ao Direito.
20
HARARI, Yuval Noah, Sapiens. Uma breve história da humanidade, 51. ed. Porto Alegre: L&PM, 2020,
p. 31.
20

Nesta linha, muitos defendem que para a alcançar a titularidade de inteligente, é medida
que se impõe que a máquina esteja apta a compreender e adotar noções de contexto, e não
apenas se utilizar de dados estatísticos, os quais, em que pese comporem o conceito de
aprendizado por máquinas (machine learning), não tratam de IA, por fornecer tão somente a
melhor resposta estatística. É que o ser humano não é um ser estatístico, mas um ente que é
capaz de manter em si um sistema de organização de pensamentos, afinal a linguagem é
exclusiva do ser humano21. De toda forma, o desenvolvimento dos sistemas inteligentes
pressupõe a capacidade da máquina aprender, raciocinar, deliberar e de decidir de maneira
racional.

1.3 O algoritmo

Para o exame do objeto deste trabalho é necessária a incursão no elemento que ocupa a
área central dos sistemas inteligentes: o algoritmo.
A complexa sequência de etapas estruturada - o algoritmo - é a essência de qualquer
sistema de inteligência artificial. Conceitualmente, afigura-se uma sequência finita de
instruções executadas por um programa de computador, com o objetivo de processar
informações para um fim específico. Refere-se, portanto, a um procedimento computacional
pré-definido, que recebe um dado como entrada (input) e entrega uma informação como saída
(output)22.
Logo, os sistemas baseados em inteligência artificial consistem em sistemas
computacionais que, a partir de algoritmos, estão aptos a realizar previsões, recomendações ou
decisões que influenciam ambientes reais ou virtuais. A ideia é que esses sistemas possam
executar tarefas similares à inteligência humana, tais como planejamento, compreensão,
linguagem, aprendizado, raciocínio, resolução de conflitos etc. Cuida, ademais, de um conceito
guarda-chuva (umbrella concept), que condensa diversos aportes de uma teoria dos sistemas
computadorizados inteligentes23.
Em outros termos, o algoritmo é definido como “um plano de ação pré-definido a ser
seguido pelo computador, de maneira que a realização contínua de pequenas tarefas simples
possibilitará a realização da tarefa solicitada sem novo dispêndio de trabalho humano” 24. Em

21
BERWICK; CHOMSKY, Why only us.
22
REIS, Paulo Victor Alfeo, Algoritmos e o direito, São Paulo: Almedina, 2020, p. 119–120.
23
Ibid., p. 133–134.
24
NUNES, Dierle; MARQUES, Ana Luiza Pinto Coelho, Inteligência artificial e direito processual: vieses
algoritmo e os riscos de atribuição de função decisória às máquinas, Revista de Processo, v. 285, 2018, p. 3.
21

síntese, um passo-a-passo ou uma sequência de instruções que orienta a máquina na execução


de uma operação25. Para Ana Frazão:

(...) se os dados são os insumos e os inputs da economia digital, os algoritmos são os


instrumentos por meio dos quais os dados são processados e podem ser revertidos em
resultados (outputs) a serem utilizados para as mais diversas finalidades. Muito além
de aperfeiçoar estratégias econômicas já existentes, como seriam os casos do
marketing personalizado (target marketing) e das classificações ou perfilizações
(profiling), tais aplicações podem levar à total modificação do cenário econômico,
político e social26.

Considerado o fundador da álgebra, o matemático uzbequistanês Al-Khwarizmi (780 a


850 d.C) é o responsável pela expressão algoritmo27, o qual somente passou a ser adotado com
a tradução, em 1857, para o latim dos manuscritos intitulados “Algoritmi de Numero Indorum”
do italiano Baldassare Boncompagni28.
O uso de algoritmos foi relevante para o progresso da ciência da computação,
promovendo a criação do primeiro computador por Alan Turing em 1938, durante a Segunda
Guerra Mundial. Assim é que o algoritmo passou a designar uma sequência pré-ordenada de
operações finitas, permitindo que as “máquinas computassem”. Em 1961, Marvin Minsky foi
responsável pela inserção de "inteligência" nos sistemas computacionais, no que viabilizou a
formulação de algoritmos com capacidade de aprender e ensinar sistemas computacionais29.
Após, a expansão da alta capacidade de processamento de dados fomentou a difusão de
sistemas algoritmos de tomada de decisões nas múltiplas esferas do conhecimento, de modo a
permitir análises preditivas sobre situações em que se afigura relevante a prevenção ou
mitigação de risco, a exemplo de desastres ambientais, crises econômicas, surtos pandêmicos,
bem como situações dilemáticas vividas por veículos autônomos, objeto desse estudo30.
A utilização do algoritmo faz consignar duas conclusões: i) ele traz uma inevitável
herança matemática, porquanto localizada no ramo das ciências exatas, mais do que nas ciências
humanas, tendo por consequência dificuldades para explicar fenômenos humanos; ii) a despeito

25
WALKER, Joshua, On legal AI: um rápido tratado sobre a inteligência artificial no Direito, São Paulo:
Thomson Reuters Brasil, 2021, p. 73.
26
FRAZÃO, Ana. Fundamentos da proteção dos dados pessoais. Noções introdutórias para a compreensão da
importância da Lei Geral de Proteção de Dados, in: A Lei Geral de Proteção de Dados Pessoais e suas
repercussões no Direito Brasileiro [livro eletrônico]. São Paulo: Revista dos Tribunais, 2019.
27
ARNDT, A. B. Al-Khwarizmi, The Mathematics Teacher, v. 76, p. 668–670, 1983.
28
REIS, Algoritmos e o direito, p. 112–113.
29
OSOBA, Osonde A.; WELSER, William IV, An intelligence in our image: the risks of bias and errors in
artificial intelligence, Santa Monica: RAND Corporation, 2017, p. 4–5.
30
MENDES, Laura Schertel; MATTIUZZO, Marcela, Discriminação Algorítmica: conceito, fundamento legal e
tipologia, v. 16, n. 90, p. 26, 2019, p. 43.
22

de imbricado à ciência da computação, os algoritmos pertencem a um espaço que tem relevância


na agenda ligada à elaboração de análises que direcionam políticas e escolhas humanas31,
naquilo que confirma o cadenciado aumento da imprescindibilidade deles na atualidade32.

1.4 Aprendizagem automática e redes neurais

No interior da vastidão que a IA abrange, encontra-se um subcampo que revolucionou


o uso de algoritmos para o processamento de dados, denominado machine learning, informado
pela capacidade de acumular experiências e delas extraindo aprendizado, portanto, de modo
autodidata33, porquanto identifica padrões e aprender a executar tarefas específicas, como
classificação, previsão ou reconhecimento de padrões. Além disso, são capazes de aperfeiçoar
continuamente seu desempenho à medida que recebem mais dados para análise, por meio desse
processo de treinamento.
No aprendizado de máquina, ao invés de se produzirem resultados pré-definidos
(output) a partir de informações de entrada (input), as operações estatísticas têm por objetivo a
construção de novos algoritmos, permitindo que a própria máquina aprenda a reconhecer e a
correlacionar padrões, desenhando, assim, o modo de cumprimento de uma tarefa sem prévia
programação humana34.
O que se verifica é que é o homem se utiliza de vários caminhos e sentidos para aprender,
seja pela audição, pela visão, ou pela escrita. Por sua vez, a IA se vale, em seu processo de
aprendizagem, do treinamento do algoritmo, criando regras que relacionam os dados de entrada
(atributos previsores) com os dados de saída (atributo alvo), o que lhe possibilita executar
tarefas como classificação, previsão e agrupamento de dados, sendo elementar na aprendizagem
o reconhecimento de padrões. Uma vez disposta a aprender autonomamente, diversas soluções
podem ser desenvolvidas35. Portanto, o processo de aprendizagem faz-se através da análise de

31
BERLINSKI, David, O advento do algoritmo: a idéia que governa o mundo, São Paulo: Globo, 2002.
32
“Não precisamos temer os computadores; devemos usá-los. Para fazer isso, é necessário julgamento. O bom
senso não pode ser resumido em doze regras de vida, sete hábitos de pessoas eficazes ou mesmo vinte e uma lições
para o século XXI. A inteligência humana e a inteligência artificial são diferentes, e a última aprimora em vez de
substituir a primeira”. In: KAY, John; KING, Mervyn A., Radical uncertainty: decision-making beyond the
numbers, New York: W.W. Norton & Company, 2020, p. 176.
33
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da, A responsabilidade civil pelos atos autônomos da
inteligência artificial: notas iniciais sobre a resolução do parlamento europeu, Revista Brasileira de Políticas
Públicas, v. 7, n. 3, 2018, p. 242.
34
PEREIRA, Gabriela Bueno, Direito e inteligência artificial: a ética dos carros autônomos, Seminário sobre
Inteligência Artificial, Proteção de Dados e Cidadania, v. Anais do II Seminário sobre Inteligência Artificial,
Proteção de Dados e Cidadania [recurso eletrônico], p. 82–99, 2021, p. 84.
35
LENZ, Maikon Lucian, Fundamentos de aprendizagem da máquina, Porto Alegre: Sagah, 2020. E-book.
23

uma série considerável de dados, dos quais se extraem regras. Pontua-se que se trata de um
processo contínuo, em que os significados são construídos progressivamente.
A aprendizagem automática (machine learning) se subdivide em técnicas, cada qual
apropriada para diferentes tipos de tarefas e problemas. São elas: aprendizagem profunda (deep
learning), aprendizagem supervisionada (supervised learning), aprendizagem não
supervisionada (non supervised learning) e aprendizagem por reforço (reinforcement
learning)36.
A aprendizagem profunda utiliza as redes neuronais artificiais profundas capazes de
fazerem ligações entre as tarefas aprendidas e novos conteúdos, em um processo circular37.
Assim, no treino inicial, o programador constrói um mapa que liga as diferentes camadas
identificadas nos dados tratados a determinadas ações, a exemplo do acionamento da frenagem
diante do reconhecimento de um pedestre atravessando a pista38. A interconectividade entre as
redes neurais permite a formação do processo decisório de escolhas do software a escolher uma
das ações possíveis resulta da interconectividade destas redes neuronais, assimilando a partir
dos erros de sua experiência, e não de regras introduzidas no programa.
Na aprendizagem supervisionada o processo de aprendizagem ocorre sob condições
controladas, isto é, especialmente com comandos controlados. Os dados já rotulados como
negativos ou positivos são previamente eleitos pelo homem, sendo que a identificação vai
ocorrendo aos poucos, a partir dos erros e acertos. O desenvolvedor permanece no controle
sobre o que o sistema está aprendendo. O sucesso da aprendizagem também é controlado39.
Na aprendizagem não-supervisionada, ou seja, de sistemas autodidatas, o controle é
absolutamente inexistente, os dados não recebem um rótulo inicial, permitindo o algoritmo por
si só valorar e aprender as operações. As máquinas aprendem sozinhas, sem que o conteúdo ou
o sucesso da aprendizagem tenham sido predefinidos. Não existe nem mesmo controle sobre os
resultados. São processos de aprendizagem que não permitem serem controlados, razão pela
qual a autorização de tais sistemas e ao uso de áreas que requerem segurança, devem ser
extremamente inspecionados40.

36
SURDEN, Harry; WILLIAMS, Mary-Anne, Technological opacity, predictability, and self-driving cars,
Cardozo Law Review, v. 38, n. 121, p. 121–182, 2016, p. 155–165.
37
KARNOW, Curtis E.A., Liability for Distributed Artificial Intelligences, Berkeley Technology Law Journal,
v. 11, n. 1, p. 147–205, 1996, p. 156.
38
SURDEN; WILLIAMS, Technological opacity, predictability, and self-driving cars, p. 141.
39
HILGENDORF, Digitalização e direito, p. 87–88.
40
Ibid.
24

Em resumo, a IA funciona a partir do subcampo da IA de aprendizado (machine


learning), o qual se vale de uma infinita quantidade de dados (big data), somado ao poder de
processamento, e ainda, conjugando técnicas de aprendizado, objetiva aquisição de experiência
a partir da construção de redes neurais artificiais.
O computador caminha de maneira livre em direções que seus programadores nunca
imaginariam41. Os programas podem superar seus inventores nas atividades de jogar xadrez,
dirigir um veículo, diagnosticar doenças e investir na bolsa de valores. Assim, o confronto se
dará com novas formas de pressão evolutiva, até chegar o momento que os humanos não
poderão rivalizar nem entender o “raciocínio” da máquina. Nem mesmo o próprio programa
conseguirá explicar sua estratégia de investimento ou do seu movimento do tabuleiro.
Nesse ponto reside a primeira preocupação no que tange à IA e ao machine learning,
uma vez que a autonomia, característica do modelo que se inspira na mente humana, está apto
a fazer perder a gestão sobre os caminhos percorridos até o resultado, dificultando-se a previsão
das tarefas e executá-las e, via de consequência, enigmaticamente incompreensível. Isso porque
o mais módico learner supervisionado não possibilita clara percepção sobre a execução de seus
passos. Nem se fale então dos não supervisionados, os quais não tem ciência e gerência sequer
sobre os inputs neles inseridos.
Vale destacar que tais técnicas de IA também foram desenvolvidas no campo de solução
de problemas de planejamento para veículos governados pela inteligência artificial42. Todavia,
no que tange ao tráfego rodoviário, o emprego de sistemas autônomos (com e sem funções de
aprendizagem) traz polêmicas, sobretudo, jurídicas, naquilo que a insegurança jurídica se torna
um freio à revolução tecnológica43.
São vários motivos que anunciam que os riscos desta entrega tecnológica não são
diminutos. A emancipação do software defronte ao seu programador, insufla questionamentos
de causalidade no plano da imputabilidade da conduta44, salientando-se a previsibilidade na
qualidade de elementar na definição do nexo causal. Os obstáculos intrínsecos à descodificação
do processo de tomada de decisão do sistema denotam embaraços ao deslinde da controvérsia
sobre a imputação.

41
HARARI, Sapiens. Uma breve história da humanidade, p. 419–420.
42
YOU, Changxi et al, Advanced planning for autonomous vehicles using reinforcement learning and deep inverse
reinforcement learning, Robotics and Autonomous Systems, v. 114, p. 1–18, 2019, p. 2.
43
HILGENDORF, Digitalização e direito, p. 87–88.
44
COWGER, Alfred R. Jr., Liability considerations when autonomous vehicles choose the accident victim,
Journal of High Technology Law, v. 19, n. 1, p. 1–60, 2018, p. 4.
25

O funcionamento do sistema autônomo, desde o reconhecimento do ambiente até a


reação desejada, perpassa um processo decisório, consubstanciado na racionalização de dados
e informações capturados pelos sensores do veículo. Processadas as informações, ocorre a
eleição do movimento, simultaneamente à sua efetivação e o delineamento do percurso. A
execução do comando se dá, então, por intermédio de ações como seguir, acelerar, virar para
um dos lados ou ato de frenagem45. O processo decisório é estruturado conforme as redes
neurais humanas, no caso, no ambiente do tráfego viário.
A questão sobre a imprevisibilidade do processo de tomada de decisão, portanto, surge
como um dos maiores desafios reflexivos para compreender aspectos da imputação objetiva46,
especialmente no enfrentamento de questões ético-filosóficas sobre escolhas trágicas.
Eric Hilgendorf conclui que se faz necessária a limitação dos espaços de possibilidade
de sistemas de autoaprendizagem, assegurando que os sistemas não aprendam comportamentos
muito danosos, a merecer resposta penal. O autor sugere, como forma de alcançar isso,
configurar as máquinas com algum grau de “consciência”, é dizer, trazendo normas e valores
inscritos no programa, os quais podem oferecer um aprendizado harmônico e controlado.
Adverte, ainda, que a tarefa não é meramente tecnológica, pois desafio também à dogmática e
à filosofia do direito47.
Com efeito, a imprevisibilidade do processo decisório afigura-se como óbice ao
reconhecimento do nexo de causalidade entre a conduta do agente e o resultado. Cabe destacar
que para alguns estudiosos os veículos não são dotados de autonomia, considerando a
nomenclatura não retratar a realidade. Isso porque, em verdade, o que se verifica é a
imprevisibilidade gerada pelos processos de aprendizagem profunda, e não autonomia
propriamente dita48.
Para Lina, a imprevisibilidade do processo de tomada de decisão torna prejudicada a
relação de causalidade49, estando em causa um accountability gap, o qual gera um vazio
punitivo, em função da impossibilidade de responsabilizar o condutor e o agente autônomo,

45
SURDEN; WILLIAMS, Technological opacity, predictability, and self-driving cars, p. 142.
46
Teoria cuja aplicabilidade será observada nos próximos capítulos.
47
HILGENDORF, Digitalização e direito, p. 58.
48
GRIEMAN, Keri, Hard drive crash, an examination of liability for self-driving vehicles, Journal of Intellectual
Property, Information Technology and Electronic Commerce Law, v. 9, p. 294–309, 2018, p. 230.
49
LINA, Dafni, Could AI agents be held criminally liable: artificial intelligence and the challenges for criminal
law, South Carolina Law Review, v. 69, p. 677–696, 2018, p. 696.
26

pois surge um espaço entre o programador ou o condutor e o autônomo, cuja imprevisibilidade


e autonomia vão tornando cada vez mais díspar a exclusão da sua responsabilidade.
Sousa comenta o fenômeno, sob o nome responsability gap, afirmando surgir por
intermédio do aprendizado autônomo da máquina, o qual está apto a gerar uma lacuna de
responsabilidade. É que soa mais lógico a responsabilização civil ou criminal do desenvolvedor
do sistema de IA, porque ele é quem cria os códigos e ensina a máquina o que ela deve fazer,
contudo nos modelos modernos de aprendizado, o sistema alcança suas decisões com base em
suas experiências, só que por vezes essas decisões podem conceber comportamentos
dissonantes do ordenamento jurídico50.
Vale, por fim, destacar que o aprendizado automático está impregnado em uma
variedade de tarefas computacionais onde construir e programar algoritmos explícitos é
impraticável. Os exemplos vão do reconhecimento ótico de caracteres (OCR) e do
processamento de linguagem natural aos diagnósticos médicos51, perpassando pelas
plataformas de reconhecimento de fala e escrita, até a auto locomoção de veículos.
Com esses conceitos, conclui-se que o aprendizado de máquina é todo o processo que
torna a máquina capaz de evoluir autonomamente, de maneira que a máquina colete e interprete
os dados e, desenvolvendo os próprios modelos, forneça as predições automáticas. Embora o
programa seja inicialmente codificado por engenheiros humanos, ela é capaz de per se adquirir
novas informações de modo emancipado, adquirindo novas habilidades e desfrutando de
insights que vão além dos que se encontram em seus criadores humanos.

1.5 Moral machine

Se antes a ambição dos sistemas de IA era tão somente imitar os processos cognitivos
humanos, hoje seus objetivos são bem mais ousados, visando “desenvolver autômatos que
resolvam alguns problemas muito melhor que os humanos, por todos os meios disponíveis”52.

50
SOUSA, Susana Aires de, Não fui eu, foi a máquina: teoria do crime, responsabilidade e inteligência artificial,
in: RODRIGUES, Anabela Miranda (Org.), A inteligência artificial no direito penal, Coimbra: Almedina, 2020,
p. 72.
51
SUPREMO TRIBUNAL FEDERAL, Curso: Aplicação da Inteligência Artificial ao Direito.
52
NUNES; MARQUES, Inteligência artificial e direito processual: vieses algoritmo e os riscos de atribuição de
função decisória às máquinas, p. 3.
27

O ponto crítico é que os sistemas algorítmicos, principalmente os de aprendizagem,


podem produzir ou reproduzir resultados injustos, antiéticos e discriminatórios53 na sociedade
digitalizada, que se projetam tanto a partir de preconceitos existentes na mente dos
programadores, quanto a partir do acesso a uma base de dados corrompida ou viciada. Não se
afaste, ademais, a possibilidade de o próprio sistema de IA dar origem a algoritmos eticamente
problemáticos, a partir de sua propriedade de machine learning.
É possível, portanto, que um algoritmo detenha acesso a uma base de dados
qualitativamente confiável e se valha de uma metodologia adequada, mas, ainda assim, produza
resultados injustos, seja por desconsideração da individualidade, seja por reprodução estatística
de preconceitos existentes no mundo real54. Em outras palavras, mesmo quando acerta na
metodologia, o algoritmo pode errar no resultado.
Todo este estado de insegurança no uso de algoritmos revela uma dimensão específica
da vulnerabilidade digital – a vulnerabilidade algorítmica -, a qual se refere às situações de risco
decorrentes do uso de sistemas de inteligência artificial e de machine learning que possam
oferecer resultados injustos, antiéticos ou discriminatórios.
Na avaliação da IA inserida em sistemas de veículos, que por vezes serão chamados, em
situações de conflito, a decidir sobre vidas (e mortes), alguns defenderão que a tecnologia pode
decidir de maneira mais célere e objetiva e imune a preconceitos humanos, por se tratar de
máquinas velozes e imparciais. Para outros, não há uma blindagem eficaz contra os possíveis
vieses e preconceitos, uma vez que os planos de tarefas e os dados inseridos nos programas são
trabalhados, da mesma forma, pelas mãos do homem. E tudo isso se agrava ainda mais quando
há a confirmação de que o controle é perdido a partir do aprendizado da própria máquina – o
machine learning55.
A relevância da questão da moral machine se acende especialmente porque os robôs,
em que pese detentores de sua inteligência, não são dotados de uma autodeterminação moral.
Consoante observa Matheus Caetano “para ser um genuíno agente moral, à máquina torna-se

53
Laura Mendes classifica quatro hipóteses de discriminação: a) discriminação por erro estatístico; b)
discriminação por generalização; c) discriminação pelo uso de informações sensíveis; d) discriminação limitadora
do exercício de direitos. In: MENDES; MATTIUZZO, Discriminação Algorítmica: conceito, fundamento legal e
tipologia, p. 51–52.
54
FRAZÃO, Ana, Discriminação algorítmica: superando estatísticas e cálculos probabilísticos, Jota, 2021.
55
MARCHANT, Gary; BAZZI, Rida, Autonomous vehicles and liability: what will juries do?, Boston University
Journal of Science and Technology Law, v. 26, n. 1, p. 67–119, 2020, p. 89–90.
28

indispensável a possibilidade para comportamento imoral” 56. O principal efeito da ausência de


uma autêntica moral, é que as máquinas não respondem jurídico-penalmente, ao menos nos
termos da atual dogmática. Eis aqui o local onde talvez esteja situada a maior dificuldade para
a programação de máquinas inteligentes, máxime por tangenciarem complexidades morais.
Pelo atual estado da arte, não há como alcançar a construção de máquinas na qualidade
de sujeitos morais genuínos, podendo-lhes exigir tão somente a simulação de comportamentos
morais, como pretensos imitadores que são da mente humana. Daí, naturalmente exsurgem
críticas, como a questão do prestígio da integridade de uns, em detrimento de outros, nas
decisões tomadas por veículos inteligentes. Afinal, anteriormente à atividade do programador,
há questões de ordem axiológica e jurídica a serem definidas para fins de fixação de critérios
abstratos, gerais e universais de decisão em situações dilemáticas.
Com efeito, a grande problemática se situa no processo de conformação de princípios,
regras ou critérios que possam definir quem sobreviverá e quem será sacrificado em situações
de colisão inevitável. Portanto, o primeiro e mais importante desafio: alcançar um grau de
abstrativização e generalidade para fins de normativização, dando substrato para avaliações
jurídicas consectárias. Entretanto, razões axiológicas e jurídicas parecem impossibilitar o
direito nessa árdua e complexa tarefa. Fica, portanto, nas mãos do legislador e/ou da doutrina
tal tarefa, forte no propósito de construção de critérios normativos adequados e consentâneos
com a realidade atual.
A complexidade da matéria é visualizada na plataforma criada em 2016 pelo MIT
(Massachusetts Institute of Technology), apelidada “Moral Machine”, que objetiva reunir uma
perspectiva humana sobre decisões morais feitas por inteligência de máquina. Nela são
apresentados dilemas morais – típicos de situações dilemáticas de trânsito -, onde um carro sem
motorista deve escolher o menor de dois males, como matar dois passageiros ou cinco
pedestres57. O quadro de respostas, assim como os comentários de usuários, das mais variadas
nacionalidades, retrata a polêmica compreendida nesse contexto. A intensa controvérsia aponta
os riscos existentes na inserção de respostas éticas, de modo cartesiano, no sistema autônomo,
com escolhas preconcebidas, ainda que em abstrato, das vítimas de eventuais acidentes, isso
sem se mencionar a possibilidade de mácula de direitos fundamentais.

56
CAETANO, Matheus Almeida, Os algoritmos de acidente para carros autônomos e o direito penal: análises e
perspectivas, Revista de Estudos Criminais, v. 19, n. 77, p. 149–192, 2020, p. 156.
57
MASSACHUSETTS INSTITUTE OF TECHNOLOGY, Moral Machine, disponível em:
<https://www.moralmachine.net/>. acesso em: 1 ago. 2022.
29

1.6 Os riscos das decisões algorítmicas

As decisões automatizadas - alcançadas através de processamento automático das


máquinas sem a intervenção humana - se prestam a tomar decisões preditivas, realizando um
exame prognóstico, identificando a intenção do agente, tudo a partir do processo de exame de
cenários futuros. E o questionamento que se faz é quais os riscos oferecidos pelas decisões
preditivas.
Ainda há um caminho bastante longo para que a análise preditiva e a simulação profunda
de redes neurais alcancem o ponto-ótimo de utilização – algo que a análise estatística já entrega,
com programas perfeitamente operacionais e eficientes –, ainda que já se vislumbre o início do
desse avanço. A aplicação da análise preditiva pode ser detectada em casos de fraudes
bancárias, em que toda vez que se utiliza um cartão de crédito, uma notificação é enviada
automaticamente, de modo que os sistemas em operação, com a aplicação de análise estatística,
conseguem visualizar eventual desvio de padrão do uso do cartão, sendo capazes de apontar, de
maneira autônoma, uma fraude. A depender do risco, disparam ações que podem inclusive
culminar no bloqueio do cartão. Pela predição de comportamento, a máquina então já é capaz
de evitar alguns crimes58.
O mesmo pode ser percebido com a aplicação de análise preditiva à medicina
preventiva: ao saber os fatores de risco de um paciente, seu histórico familiar e conhecer seu
comportamento, é possível predizer os riscos de determinadas doenças, implementando
cuidados preventivos. Mas talvez o mais palpável uso da análise preditiva esteja na inteligência
artificial associada à visão. Assim é que os veículos inteligentes já são uma realidade e seu uso
será crescente nos próximos anos, pois certamente evitarão acidentes e otimizarão o tempo59.
No entanto, predizer cenários nos quais vidas humanas estão em jogo constantemente
levanta dilemas que lhe são peculiares. Um deles bastante discutido entre os acadêmicos da
área, e que será detalhadamente analisado mais à frente, trata da situação dilemática imaginada
em que um carro autônomo desgovernado operado por inteligência artificial - e, portanto, detido
de análise preditiva – que transita em um desfiladeiro e que, para evitar uma colisão com uma
barreira que surge à sua frente, se vê obrigado a atropelar fatalmente um pedestre em prol da
vida de seu passageiro. O carro equipado com IA capaz de predizer cenários terá que decidir:

58
SUPREMO TRIBUNAL FEDERAL, Curso: Aplicação da Inteligência Artificial ao Direito.
59
Ibid.
30

mata seus ocupantes ou os pedestres? Ou seja, quem será sacrificado? Quem será responsável
pela vida sacrificada? Aliás, esse é o dilema cerne da presente pesquisa.
Essas respostas não são facilmente alcançáveis, mormente por envolver questões éticas
e filosóficas. Além do que, ainda que as decisões ocorram com suporte no fenômeno do
machine learnig, a IA preditiva tem origem na iniciativa humana na programação, o que faz
gerar ainda mais polêmica, porquanto, em último caso, o programador é quem oferece as
respostas primárias para a máquina.

1.6.1 Os riscos dos vieses

No âmbito das decisões humanas, muito se fala nas heurísticas – mecanismos


simplificadores do caminho decisório que imprimem condição de incertezas. O procedimento
simplificador auxilia alcançar respostas adequadas, ainda que imperfeitas, para questões
complexas60. O grande problema é que todo processo que visa simplificar um processo de
decisão, em prol de aumento da celeridade ou de facilidades aos humanos, está sujeito a
envolver-se ainda mais com erros e vieses.
Os riscos mais expressivos oriundos das decisões algorítmicas podem ser disseminados,
considerando o atual estado da arte da IA, a partir do conjunto de dados viciados aplicados
inicialmente na programação, da possível discriminação provocada pelo fenômeno do machine
learning, ou ainda, da opacidade do algoritmo não programado61.
É inevitável a existência de dados defeituosos, e se eles correm por um algoritmo, ainda
mais provável a disseminação de vieses por herança. Ferrari e Becker sugerem imaginar-se uma
situação hipotética em que uma cidade é dividida em dois bairros, um mais humilde e outro de
classe alta. Os números de crimes cometidos em ambos os bairros são muito próximos, contudo,
a vigilância no bairro de classe inferior se faz mais presente, o que consequentemente fará
revelar a ocorrência maior de delitos. Sendo esses dados inseridos em eventual software, o
algoritmo certamente criaria uma regra de que o policiamento naquela região se faria mais
necessária, e entraria em um ciclo vicioso, cada vez mais repleto de vieses algorítmicos62.
Sob outro ângulo, os dados usados para alimentar o algoritmo podem estar livres de
incorreção, mas o seu emprego é quem peca desta feita. Trata-se do risco da discriminação, em

60
KAHNEMAN, Daniel, Rápido e devagar, Rio de Janeiro: Objetiva, 2012, p. 127.
61
FERRARI, Isabela; BECKER, Daniel, Direito à explicação e decisões automatizadas, in: NUNES, Dierle;
LUCON, Paulo Henrique dos Santos; WOLKART, Erik Navarro (Orgs.), Inteligência artificial e direito
processual: os impactos da virada tecnológica no direito processual, Salvador: JusPodivm, 2020, p. 199–225.
62
Ibid.
31

que o uso do algoritmo no âmbito de decisões potencializa incorreções sociais que devem ser
tratadas justamente em sentido contrário, ou seja, consentâneo com a redução das
desigualdades. Aliás, não se pode afirmar com certeza que a tecnologia que se apresenta é
objetiva ou neutra. Ao contrário, enxerga-se subjetividades peculiares a estas ferramentas, tanto
no momento inicial da programação, quanto na alimentação do sistema com dados,
perpassando, enfim, pelo aprendizado da máquina. Outro ponto crítico diz com a opacidade, a
qual será analisada no item seguinte.

1.6.2 O risco da opacidade da tecnologia: a questão da transparência

Outra celeuma diz respeito aos custos que a IA traz para a transparência, por intermédio
do fenômeno da opacidade tecnológica, a qual se desponta diante do mau funcionamento do
sistema, desencadeando um desempenho inesperado ou incorreto, a exemplo do bug que ocorre
em um sistema computadorizado.
A opacidade exsurge quando o sistema, ainda que demonstre aparente adequação em
sua atividade, suas respostas não revelam transparência acerca do caminho percorrido para se
chegar até a decisão que tomara. Sendo assim, a opacidade tecnológica está ligada à dificuldade
de se enxergar os comportamentos dos programas, os quais, não obstante apropriados, não
permitem visibilidade sobre seu processo decisório63.
Portanto, trata-se do hiato entre a operação desenvolvida pelo programador e o
funcionamento do algoritmo, o qual tem o condão de criar a sua própria trajetória, em razão da
capacidade que possui para alterar autonomamente as heurísticas que compõem sua estrutura.
Assim, ao seu programador humano não é permitido mais conhecer os caminhos que seus
processos internos seguiram para resultar no output exteriorizado, naquilo que se pode chamar
de uma verdadeira caixa-preta (black box), exatamente porque caminhos insuscetíveis de
tradução em linguagem. Até mesmo métodos de aprendizado de máquina considerados simples
expressam explicação intuitiva64.
Pasquale explica que a expressão caixa-preta, em verdade, traz uma metáfora, face à sua
polissemia. Ora pode significar o dispositivo de gravação, como os sistemas implementados em
aeronaves e outros meios de transporte. Ora, pode se referir significar um sistema cujos

63
SURDEN; WILLIAMS, Technological opacity, predictability, and self-driving cars.
64
COGLIANESE, Cary; LEHR, David, Transparency and algorithmic governance, Administrative Law Review,
v. 71, n. 1, p. 453–470, 2019, p. 16–17.
32

procedimentos internos são escusos. Os inputs e outputs são elementos observáveis, contudo a
forma como essa transformação é realizada não é verificável65.
Em outros termos, a complexa estrutura do tratamento algorítmico dos dados tem o
condão de embaçar o processo que conduz a determinado resultado. Ademais, há uma relação
diretamente proporcional entre a opacidade e a complexidade dos modelos de machine learning
utilizados, sendo que, a depender estágio de desenvolvimento tecnológico não é possível se
determinar qual o caminho percorrido até o resultado, independentemente se perante um juízo
de previsibilidade, de aconselhamento ou da própria decisão66.
A opacidade exsurge principalmente em razão da lacuna existente entre o criador do
software e o comportamento algorítmico. As complexas operações que vão do input até a fase
do output vão se tornando turvas, de modo que nem mesmo seu programador tenha mais
controle. Desta forma, a transparência é comprometida, nas suas duas vertentes: acessibilidade
e compreensibilidade, uma vez que a complexidade dos processos, com infinitas variáveis,
torna inteligíveis os resultados. Cabe destacar que a propriedade e o segredo industrial são
considerados fatores dificultadores da necessária abertura dessas operações67.
É fundamental conhecer os aspectos inseridos no sistema, bem como os resultados das
operações algorítmicas. Fundamental também é a avaliação de maneiras de eliminar ou reduzir
os efeitos do fenômeno da opacidade (“caixa preta”), no afã de que a governança algorítmica
possa fixar balizas ao comportamento do sistema.
Diante de tudo isso, é desafio que se impõe com a delegação de decisões a sistemas
autônomos a obrigação de explicação [Explikationszqng]. Todas as etapas relevantes do
processo decisório devem ser estudadas em formato acessível às máquinas, para que elas
possam exercer bem sua função de examinar um problema e reagir de maneira satisfatória. Isso
requer a decomposição de complexos fáticos em elementos individuais que se associam
conforme regras lógicas. Essa inclusive é a grande dificuldade de se projetar métodos jurídicos
em computadores, como a interpretação de textos, a apreciação das consequências ou até
mesmo a avaliação de escolhas de ação68.

65
PASQUALE, Frank, The black box society: the secret algorithms that control money and information,
First Harvard University Press paperback edition. Cambridge, Massachusetts London, England: Harvard
University Press, 2016.
66
SOUSA, Não fui eu, foi a máquina: teoria do crime, responsabilidade e inteligência artificial, p. 74.
67
OSOBA; WELSER, An Intelligence in Our Image: The Risks of Bias and Errors in Artificial Intelligence,
p. 6.
68
HILGENDORF, Digitalização e direito, p. 83.
33

Fenômeno que se observa está no impasse com que a legislação se depara com a
programação computacional, porque diz com o tratamento de enigmáticos códigos de
programação os quais devem guardar observância a regras e princípios do ordenamento69. É o
que ocorre com os VA’s. Por óbvio, o autodirigido deve seguir as regras de trânsito, a exemplo
das limitações de velocidade e de ultrapassagem, respeito aos semáforos e às faixas de
pedestres, sob pena de responsabilização civil, penal e administrativa. Eric Hilgendorf,
vanguardista na seara dos autônomos, salienta a urgência em se estabelecer a devida
comunicação transparente entre o sistema jurídico e linguagem computacional, como corolário
da principiologia básica que rege as relações sociais70.
Importante frisar que a automatização em sede do tráfego viário sugere a clara
compreensão das regras aplicáveis, sobretudo para programação no âmbito de situações
dilemáticas. Trata-se de esfera que requer a completa transparência acerca dos fundamentos
utilizados no processo de decisão na hipótese de uma situação dilemática71. À guisa de exemplo,
a mera ponderação (quantitativa ou qualitativa) entre vidas não seria suficiente à observância
do catálogo de direitos fundamentais.
O que não se pode retirar de vista é que, anteriormente às operações do sistema, mostra-
se presente a interlocução humana, com a qual ocorre a inserção da carga de valores ético-
sociais pertencente ao programador72. Verifica-se, assim, que a dimensão sistêmica do risco
causa alarme no caso das situações dilemáticas que envolvem VA’s, em especial pela
possibilidade de ponderação entre vidas humanas.
Nesse sentido, Cathy O’Neil alerta sobre a opacidade intrínseca à IA revelando que se
trata de um ambiente propício para gerar, aumentar ou reforçar preconceitos e vieses, onde não
há espaço para se defender a neutralidade do sistema. Quando as fontes de informação inseridas
no programa refletem, já no nascedouro, problemas sociais, estes serão potencializados quando

69
Nessa linha, importante trazer a lume o art. 20 da Lei 13.709/18 (LGPD), que dispõe: Art. 20. O titular dos dados
tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento automatizado de dados
pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal, profissional, de
consumo e de crédito ou os aspectos de sua personalidade.
§ 1º O controlador deverá fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios
e dos procedimentos utilizados para a decisão automatizada, observados os segredos comercial e industrial.
§ 2º Em caso de não oferecimento de informações de que trata o § 1º deste artigo baseado na observância de
segredo comercial e industrial, a autoridade nacional poderá realizar auditoria para verificação de aspectos
discriminatórios em tratamento automatizado de dados pessoais. [BRASIL, Lei 13.709/18, de 14 de agosto de
2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília, DF, Diário Oficial da União de 15 ago. 2018.].
70
HILGENDORF, Eric; FELDLE, Jochen, Digitalization and the law, Baden-Baden: Nomos, 2018.
71
HILGENDORF, Digitalização e direito, p. 36.
72
CITRON, Danielle Keats; PASQUALE, Frank A., The scored society: due process for automated
predictions, New York: Social Science Research Network, 2014, p. 14.
34

percorridos por algoritmos que não têm condições de neutralizar esse problema original 73.
Hoffmann-Riem acrescenta que o

desenvolvimento de software não é um ato puramente técnico – ou mesmo


neutro –, mas um ato de organização social no qual objetivos e avaliações são
processados; ele pode ser orientado para experiências anteriores e possíveis
consequências e pode exigir seleções. Neste sentido, existem paralelos estruturais à
criação de normas legais. Uma diferença central, entretanto, é que os fatores que
influenciam o desenvolvimento dos algoritmos não precisam ser, e em princípio não
são, normas legais74.

Romper o silêncio das máquinas é medida que se impõe no entendimento de Doshi-


Velez e Kortz, que observam que uma decisão é encarada como explicada se for possível
responder ao menos uma destas questões: i) quais os fatores significativos conduziram à
decisão? ii) a decisão seria alterada acaso modificados alguns fatores determinantes? iii) qual o
motivo de casos similares obterem decisões diversas?75
Entender o que se deu no complexo processo do algoritmo é crucial para a aceitação de
qualquer inovação tecnológica, independentemente da promessa que traz em benefício da
sociedade. Se não é transparente, se é inexplicável, ou se não é possível prever incorreções,
deste estado da arte só há uma conclusão: não é suscetível de implantação em áreas sensíveis
da sociedade. Consoante os ensinamentos de Burrell76

However, the opacity of machine learning algorithms is challenging at a more


fundamental level. When a computer learns and consequently builds its own
representation of a classification decision, it does so without regard for human
comprehension. Machine optimizations based on training data do not naturally
accord with human semantic explanations. The examples os handwriting recogntion
and spam filtering helped to illustrate how the workings of machine learning
algorithms can scape full understanding and interpratation by humans, even for those
with specialized training, even for computer scientist.

Os sistemas de decisão autônomas, na condição de portadores de vieses e possíveis e


equívocos latentes, faz surgir a demanda por mecanismos de responsabilização dos agentes
envolvidos, máxime em razão de emitirem condutas alicerçadas em um processo decisório com
tendências mais voltadas à racionalidade e à eficiência do que à própria ética. São decisões que,
não obstante possíveis de matematicamente perfeitas, certamente apresentar-se-ão moralmente

73
O’NEIL, Cathy, Weapons of math destruction: how big data increases inequality and threatens democracy,
New York: Crown Publishers - Broadway Books, 2016, p. 9–11.
74
HOFFMANN-RIEM, Wolfgang, Teoria geral do direito digital: transformação digital: desafios para o
direito, Rio de Janeiro: Forense, 2021, p. 54.
75
DOSHI-VELEZ, Finale et al, Accountability of AI under the law: the role of explanation, SSRN Electronic
Journal, 2017.
76
BURRELL, Jenna, How the machine ‘thinks’: Understanding opacity in machine learning algorithms, Big Data
& Society, v. 3, n. 1, 2016.
35

questionáveis, naquilo que o ordenamento vigente será convocado para delinear a nova moldura
fático-jurídica que se estabelecerá77.
Uma vez reconhecido que algoritmos podem conduzir a resultados imorais, incorretos
ou injustos, a organização social e jurídica reclama transparência em sua operacionalização, em
paralelo a uma completa regulamentação, como elementos essenciais ao desestímulo de
condutas arbitrárias, bem como ao incitamento a um controle mais rígido acerca de suas
heurísticas.

1.7 Veículos autônomos

Finalmente, ao que interessa como objeto deste trabalho, na esfera do que a IA oferece
para a atualidade ou ao menos ao futuro próximo: os veículos inteligentes. Prefacialmente, faz-
se necessário trazer sua definição técnica, a fim de que se possa, em seguida, discutir, no plano
jurídico, os desdobramentos da responsabilidade penal que se apresentam nessa conjuntura.
Conceitualmente, são “veículos motorizados cujo movimento no trânsito é, de diversas
formas, determinado por um algoritmo pré-programado e não por uma pessoa sentada ao
volante”78, pois capacitado para monitorar o ambiente a seu redor e mover-se pela extensão de
um trajeto pré-definido sem interferências. Logo, o veículo autônomo é composto por um
software (programa) que, em conjunto e em sintonia com o hardware (parte física), controla a
direção do carro. Tomando-se como referência o documento “The Vehicle and Technology
Aviation Bill”, vigente no Reino Unido, o veículo autônomo é aquele que opera sem o controle
de uma pessoa79.
Para realizar suas funções o carro se vale de um conjunto de sensores proprioceptivos
(internos) - como acelerômetro e GPS -, e sensores exteroceptivos (externos) - como câmeras,
radares -, os quais lhe possibilitam monitorar o ambiente ao seu redor, cientificar-se sobre
localização, e então em permanecer na via de circulação, evitando colisões com obstáculos80.
Portanto, carros autônomos afiguram-se como veículos motorizados cujo movimento é
definido em diversos níveis por um algoritmo programado, de modo que a decisão não parte

77
HILGENDORF; FELDLE, Digitalization and the Law, p. 43.
78
WEIGEND, Thomas, Direito de necessidade para carros autônomos?, in: Veículos autônomos e direito penal,
São Paulo: Marcial Pons, 2019, p. 110.
79
MCCALL, Roderick et al, A taxonomy of autonomous vehicle handover situations, Transportation Research
Part A: Policy and Practice, v. 124, p. 507–522, 2019, p. 511.
80
MARTINESCO, Andrea, Veículos autônomos: uma visão complementar associando tecnologia, direito e
políticas públicas (autonomous vehicles: a complementary vision associating technology, law and public policies),
SSRN Electronic Journal, 2020, p. 6.
36

mais do seu operador. Em outros termos, são robôs dotados de inteligência artificial que
compilam informações do ambiente com o fim de se deslocarem81. Surgem como um novo tipo
de ator, pois sistemas autônomos atuando sem determinação de suas condutas por seres
humanos82.
Desta forma, a autonomia do veículo diz com sua capacidade de se deslocar por
intermédio de um complexo de aparatos de “percepção”, “decisão e ação”, “fluxo de tráfego
adaptável”, “comunicação”, “planejamento de rota” e de “localização”83.
Esse modo de direção faz surgir vantagens e desvantagens. Positivamente, pode-se falar
nos melhoramentos para pessoas com problemas de locomoção; na redução de acidentes
atribuídos à falha humana; uma mobilidade mais segura e limpa84, o que se convencionou
chamar ecomobilidade; economia de combustível; e maior segurança nas pistas.
Negativamente, cita-se a ausência de isonomia na distribuição dos produtos da
tecnologia a todas as camadas da sociedade; a dependência humana das máquinas com a
consectária automação intimidadora da mão-de-obra; por fim, a incerteza quanto aos riscos
dessa autonomia dos carros. Este último ponto, intimamente ligado ao presente trabalho, diz
com a moral machine, pois, em que pese detentoras de sua inteligência, não são dotadas de uma
autodeterminação moral, o que implica dificuldades para a dogmática em sede de
responsabilidade penal.

1.7.1 Breve histórico dos carros autônomos

Os carros inteligentes são uma das aplicações de inteligência artificial mais esperadas
pela sociedade e mais pesquisadas por cientistas e pela indústria nos últimos tempos. O sistema
inteligente tem sido motivado também para outros meios de transporte, como trens e aviões,
dada a promessa de redução de riscos de acidentes e o melhor controle da eficiência85, para
além das demais vantagens citadas.

81
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas, p. 151–
152.
82
HILGENDORF, Digitalização e direito, p. 62.
83
WALDROP, M. Mitchell, Autonomous vehicles: No drivers required, Nature, v. 518, n. 7537, p. 20–23, 2015.
84
MARTINESCO, VEÍCULOS AUTÔNOMOS.
85
WINKLE, Thomas, Safety benefits of automated vehicles: extended findings from accident research for
development, validation and testing, in: GERDES, J. Christian et al (Orgs.), Autonomous Driving: Technical,
Legal and Social Aspects, 1st ed. 2016. Berlin, Heidelberg: Springer Berlin Heidelberg : Imprint: Springer, 2016,
p. 335–364.
37

O ano de 1925 é o marco histórico para a pesquisa no ramo da autonomia veicular,


oportunidade em que fora adaptada uma antena de transmissão em um carro Chandler para ser
operado por um outro carro que o seguia, por intermédio de ondas de rádio. Em 1926, o veículo
Phantom Auto teve a mesma experiência86.
Em 1953, foi a vez da empresa RCA Labs anunciar seu veículo em formato de miniatura
e controlado por cabos, também com tecnologia voltada para ondas de rádio. Em 1955, Leland
Hancock e L. N. Ress concretizaram a ideia de instalá-lo em uma rodovia. Para tanto,
desenvolveram a infraestrutura básica para realizar o experimento por aproximadamente cento
e vinte e um metros87.
A década de 60 foi a vez do Reino Unido. O laboratório Transport and Road Research
Laboratory testou carros autônomos com cabos magnéticos agregados diretamente na pista,
sendo que conseguiram alcançar altas velocidades sem que saíssem das faixas de rolagem88.
Em 1980, a agência Defense Advanced Research Projects Agency (DARPA),
pertencente ao Departamento de Defesa norte-americano (DoD) - investidor no
desenvolvimento de tecnologias na área de defesa89 -, financiou o projeto Autonomous Land
Vehicle. O produto foi o primeiro carro a empregar as tecnologias light detection and ranging
- método de sensoriamento remoto que usa a luz na forma de um laser pulsado para medir
distâncias - e a computer vision - campo da IA que permite que computadores tomem ações a
partir de informações significativas obtidas de imagens digitais, vídeos e outras entradas
visuais90.
A Mercedes-Benz enviou, em 1995, um veículo de Munique até à Dinamarca, o qual
inclusive realizou ultrapassagens, recebendo intervenção humana a cada nove quilômetros91. A
Universidade de Carnegie Mellon do estado da Pensilvânia nos Estados Unidos criou, nesse
mesmo ano, o programa cognominado No Hands Across America, tendo o seu veículo

86
BIMBRAW, Keshav, Autonomous cars: Past, present and future a review of the developments in the last century,
the present scenario and the expected future of autonomous vehicle technology, ICINCO 2015: proceedings of
the 12th International Conference on Informatics in Control, Automation and Robotics, p. 191–198, 2015.
87
Ibid.
88
Ibid.
89
SQUEFF, Flávia de Holanda Schmidt; DE NEGRI, Fernanda, Ciência e tecnologia de impacto: uma análise do
caso DARPA, in: RAUEN, André Tortato (Org.), Políticas de inovação pelo lado da demanda no Brasil,
Brasília: Ipea, 2017, p. 1.
90
VAN BRUMMELEN, Jessica et al, Autonomous vehicle perception: The technology of today and tomorrow,
Transportation Research Part C: Emerging Technologies, v. 89, p. 384–406, 2018.
91
KRÖGER, Fabian, Automated driving in its social, historical and cultural contexts, in: MAURER, Markus et al
(Orgs.), Autonomous driving: technical, legal and social aspects, Berlin: Springer open, 2016, p. 60.
38

percorrido, quase sem intervenções, um percurso de aproximadamente 5 (cinco) mil


quilômetros.
Importante evento se deu no período de 2003 a 2005 quando a agência DARPA
organizou competições nas quais os concorrentes tinham que apresentar seus veículos para que
concluíssem trajetórias definidas. Em 2007, a competição incrementou novo desafio, sendo que
o carro deveria obedecer às normas de trânsito. Definitivamente, foram eventos significativos
para a evolução dos VA’s92.
O VisLab Intercontinental Autonomous Challenge (VIAC) foi um desafio criado pela
companhia VisLab como um teste de veículos autônomos em condições extremas. Realizado
entre julho a outubro de 2010, e envolvia quatro veículos sem motorista dirigindo praticamente
sem intervenção humana em uma viagem de quase dezesseis mil quilômetros de Parma (Itália)
a Xangai (China)93.
O que se percebe é que, inicialmente, a inteligência artificial aplicada aos veículos foi
em grande parte fomentada por competições ou de projetos experimentais. Após, contou com a
inserção de várias empresas do ramo automobilístico, mas desta feita marcada por interesses
financeiros, e não tanto laboratoriais ou acadêmicos. Isso trouxe impactos em outras áreas,
fazendo crescer a autonomia no ramo da agricultura, dos serviços de transporte por aplicativos
e dos carros em geral, destacando-se os projetos das seguintes empresas: Google (Waymo),
Tesla, Baidu, General Motors, Mobileye, BMW e a Mercedes-Benz.
No que diz respeito ao Brasil, ao longo deste trabalho foram identificados grupos de
pesquisa com resultados expressivos no âmbito da autonomia veicular94. O primeiro é o Projeto
CARINA, desenvolvido no laboratório de robótica móvel da USP de São Carlos. Já o segundo
se refere ao Projeto IARA, confeccionado pelo laboratório de computação da Universidade
Federal do Espírito Santo - UFES. A existência no Brasil de investimentos na área acaba por
estimular a presente dissertação, no que revela a utilidade da pesquisa na qualidade de
empreendimento social, justificando-se pela contribuição para o conhecimento, bem como pela
relevância ao mundo real e atual.

92
VAN BRUMMELEN et al, Autonomous vehicle perception.
93
Ibid.
94
GUEDES, Marcelo Santiago; MACHADO, Henrique Felix de Souza, Veículos autônomos inteligentes e a
responsabilidade civil nos acidentes de trânsito no Brasil: desafios regulatórios e propostas de solução e
regulação, Brasília: ESMPU, 2020, p. 16.
39

1.7.2 Os níveis de autonomia

As peculiaridades dos veículos os dividem em níveis no que tange ao grau de autonomia


em relação ao condutor humano que, a depender do nível de autonomia, sequer pode ser
chamado de condutor.
Logo, o grau de autonomia é identificado consoante maior ou menor independência do
sistema em relação ao sujeito, o qual pode ser visto como um condutor a um mero passageiro.
No ponto, necessário se faz recorrer a normas exógenas, sobretudo em razão da ausência de
previsão no arcabouço normativo vigente. Assim, são várias as fontes de qualificação da
automaticidade dos veículos, a exemplo da National Highway Traffic Safety Administration
(NHTSA) e a Society of Automotive Engineers (SAE)95.
A SAE, organização responsável por estudos em engenharia automobilística, publicou
a classificação mais adotada sobre os níveis de automatização da direção automotiva, definindo
seis níveis de automação que se diferenciam desde a total ausência de automação até a completa
automatização, na qual se dispensa totalmente a figura do condutor humano. Assumindo-se,
portanto, a metodologia oferecida pela SAE, a taxonomia se apresenta da seguinte maneira96:

Level 0: No Driving Automation


Level 1: Driver Assistance
Level 2: Partial Driving Automation
Level 3: Conditional Driving Automation
Level 4: High Driving Automation
Level 5: Full Driving Automation

A figura 1, anexada para fins didáticos, demonstra de forma esquematizada cada um dos
seis níveis de automatização desenhados pela norma oriunda da SAE.

95
WINKLE, Safety benefits of automated vehicles: extended findings from accident research for development,
validation and testing, p. 337.
96
SOCIETY OF AUTOMOBILE ENGINEERS, International Standard J3016_202104.
40

Figura 1 – Níveis de Autonomia definidos pela SAE

Fonte: SAE International e J3016_202104

Desta forma, no nível “zero” as tarefas ligadas à condução são executadas pelo operador,
embora possam abranger sistemas de auxílio da tarefa de condução, como sensores de
estacionamento e aviso de pontos cegos. No nível “um” (driver assistance), o sistema pode
auxiliar o condutor no controle da direção ou da velocidade, diligenciando com acelerações ou
frenagens. No nível “dois” surge o automatismo, porém de modo parcial (partial driving
automation). O veículo em determinadas condições externas é capaz de acelerar, frear ou mudar
de direção, sem qualquer intervenção do operador97.

97
SMART, William D; GRIMM, Cindy M; HARTZOG, Woodrow, An education theory of fault for autonomous
systems, Boston University School of Law, p. 35–56, 2021, p. 19.
41

Por sua vez, o nível “três”, em que pese o operador não se mostrar elementar à condução,
requer sua atenção para retomar os comandos se for necessário, por isso chamado conditional
automation. Exemplificativamente, são máquinas aptas para seguir em determinada saída
predeterminada da autoestrada, alterar a faixa de rolamento em que se encontra, ou até mesmo
ultrapassar demais veículos98.
Em continuação, o nível “quatro” ainda necessita da presença de alguém no veículo,
contudo ela não será tida como condutor, mas tão somente operador ou até mero passageiro. A
nomenclatura “High Driving Automation” se deve ao fato de a totalidade das tarefas estarem
agora nas mão do autodirigido. Não obstante a possibilidade da intervenção humana, esta já não
é mais exigida. Em situações de emergência o veículo assume “riscos mínimos”, a exemplo da
parada automática do carro, ou então efetuar complexas manobras, assim como retirar o carro
de uma zona de perigo99.
O nível quatro pretende atingir a automação completa do veículo. É limitado sob dois
ângulos: o limite de tarefas específicas de condução e o limite da área operacional. A área
operacional diz com restrições ambientais, geográficas e de hora do dia, e/ou o requisito da
presença ou da ausência de certas características do tráfego ou da via. Com base em tais
critérios, as restrições são implementadas, as quais podem abarcar as condições climáticas em
que o automóvel pode transitar na autoestrada, ou ainda, o acerca das reações da máquina, tais
como limite de velocidade, manobras permitidas etc.100.
A pesquisa centra-se no quarto nível de autonomia. O recorte metodológico se dá em
razão de que a partir do quarto grau de automatismo é que se oferece a extremada alteração de
padrão, no qual o operador pode assumir a condição de passageiro, deixando de possuir o
domínio físico do funcionamento do veículo, ainda que se permita assumir a condução em casos
de emergência, salvo na última categoria. Por esse motivo considerar a partir da quarta categoria
atende melhor o escopo do estudo, sobretudo diante dos casos de situações dilemáticas
propostos, máxime por não impossibilitar integralmente a ação da figura humana que ocupa o
veículo.
É que diante das hipóteses a serem trabalhadas, a possibilidade de transferência dos
comandos ganha relevo. Exemplificando, se o sistema vinculado ao veículo do quarto nível está

98
MCCALL et al, A taxonomy of autonomous vehicle handover situations, p. 508.
99
Ibid., p. 517.
100
CZARNECKI, Krzysztof, Operational design Domain for automated driving systems. Taxonomy of basic
terms.
42

prestes a ultrapassar uma das limitações de seu sistema e decidir por entregar o domínio ao
condutor, surgem questões paralelas sobre quem se torna o responsável pelos fatos daí em
diante.
Por fim, o nível “cinco”, o mais elevado nível de automação. Porquanto integralmente
autônomo em qualquer circunstância, desobriga a presença de um indivíduo no carro, assim
como a nomenclatura diz: Full Driving Automation. Nesse caso, a esfera de intervenção não é
limitada a determinadas tarefas, além do que não há opção para o indivíduo, aqui tão somente
passageiro, de controlar o veículo101, especialmente por ser desprovido de itens como volante,
acelerador ou freio102.

1.8 A questão ética dos veículos autônomos

A ética como ensaio de um complexo de valores que orientam a sociedade pretende


definir os comportamentos aceitáveis, ou não, dentro da esfera de convivência de seus
membros, seja no tempo ou no espaço. Axiologicamente considerada, preocupa-se com o
firmamento da conduta moral, destinando-se ao juízo a respeito de quais ações se mostram
virtuosas ou quais são os maus valores dentro da sociedade, partindo-se da compreensão sobre
como se deve agir no contexto de um processo eletivo de melhores condutas dentro da moldura
dos interesses coletivos103.
A conjuntura dos sistemas autônomos não é diferente, pululando o mesmo dilema sobre
o catálogo de escolhas de condutas adequadas a ser introduzido no algoritmo, já adiantando a
dificuldade em reproduzi-las em um sistema computacional, posto que nem mesmo as próprias
pessoas convergem a uma decisão uníssona quando questionadas sobre situações dilemáticas,
o que pôde ser observado no experimento “Moral Machine”, criado pelo MIT104.
Os sistemas inteligentes ao tangenciarem o direito e os conflitos sociais propiciam
campo para debates éticos e filosóficos, naquilo que se impõe estipulação de fundamentos éticos
para o amadurecimento na implementação dos algoritmos. O percurso que a IA vem trilhando
não tem sido translúcido, gerando mais questionamentos do que respostas precisas relativas aos
danos potenciais que despontam tanto em face de erros de programação, como em função de
processos de machine learning, concretizando-se comportamentos não esperados pelos

101
MCCALL et al, A taxonomy of autonomous vehicle handover situations, p. 509.
102
Anote-se que tais itens estão presentes somente até o nível anterior.
103
GERT, Bernard; GERT, Joshua, The Definition of Morality, The Stanford Encyclopedia of Philosophy, Fall
Edition, 2020.
104
PEREIRA, Direito e inteligência artificial: a ética dos carros autônomos, p. 87–89.
43

desenvolvedores, ou ainda mais discutível, comportamentos esperados dentro daquilo que


foram programados, mas que consubstanciam resultados que carregam consigo problemas
éticos.
Sob o influxo dessas adversidades é que se afirma que o desenvolvimento das novas
tecnologias é tão relevante quanto a consagração de fundamentos éticos mínimos nessa
atividade. Desta sorte, é medida que se impõe a fixação de diretrizes éticas a orientar a
convivência com as máquinas inteligentes. Felizmente, é visível o recrudescimento desse
seguimento da pesquisa científica, o qual deve avançar também para os horizontes
regulatórios105.
A ética das máquinas, área ainda incipiente, mas que já lança suas preocupações,
sobretudo por obra do avanço exponencial da IA, esbarra em óbices expressivos. É que a
tentativa de redução de soluções complexas a fórmulas matemáticas gera significativas
polêmicas, especialmente sobre decisões as quais devem ser resguardadas sob a égide da ética.
Hoje não se concebe que um autodirigido se utilize de uma calçada de pedestres para
que fuja do trânsito com alto fluxo. Nesse caso, contudo, há uma certa facilidade na inserção
do comando proibitivo ao robô. Em situações dilemáticas de vida contra vida, contudo, não há
tamanha facilidade de se empreender o comando, pois trazem carga axiológica e dependem da
capacidade da inteligência artificial ser dotada de valores éticos.
É de se imaginar e de se esperar que em um futuro próximo, as máquinas deverão
considerar aspectos éticos nos seus processos de tomada de decisão. A culpabilidade requer a
compreensão do que é moralmente aceito, bem como o discernimento sobre o que caracteriza
o injusto. Somente assim lhe é possível o exame cognitivo de que tal conduta não é socialmente
admitida, ou considerada penalmente relevante, para então o agente inteligente estar apto à
realização do juízo de valor negativo de determinado comportamento. Contudo, por ora, pela
ausência de consciência do agente autônomo, não se vislumbra, no estágio atual, o exercício da
valoração moral sobre o seu próprio comportamento, impossibilitando-o de ponderar o desvalor
de sua conduta.

105
MAGRANI, Eduardo; SILVA, Priscilla; VIOLA, Rafael, Novas perspectivas sobre ética e responsabilidade de
inteligência artificial, in: FRAZÃO, Ana; MULHOLLAND, Caitlin Sampaio (Orgs.), Inteligência artificial e
direito: ética, regulação e responsabilidade, 2. ed. São Paulo: Thomson Reuters Brasil, 2020, p. 120–121.
44

Em 1942, o escritor Isaac Asimov elaborou três "leis da robótica", a fim de propiciar a
convivência entre seres humanos e sistemas autônomos, a saber106:

• Um robô não pode ferir um humano ou, por meio de uma omissão, permitir que um
humano seja ferido.
• Um robô deve obedecer aos comandos dados a ele por um humano – a menos que
tal comando viole a primeira regra.
• Um robô deve preservar sua existência, desde que essa preservação não viole a
primeira e a segunda regras.

Eric Hilgendorf entende que essas regras são ingênuas, e suas falhas já podem ser
observadas em casos simples de estado de necessidade ou da colisão de deveres justificante. E
não serviriam, obviamente, para o caso dos robôs de guerra, com fins militares107.
Vale dizer que as controvérsias que surgem não necessariamente estão correlacionadas
aos autônomos, concentrando-se, em verdade, no algoritmo em si. De modo que se fosse
possível a implementação da tecnologia dos carros autodirigidos sem o algoritmo, talvez toda
a celeuma perderia seu objeto.
Extrapolando-se a ficção e transpondo para a atual realidade onde está inserida, a IA
tem perturbado tanto o futuro de mercados, indústrias e empregos, como também as regras e
princípios legais que as sustentam, proporcionando, desse modo, novos desafios que devem ser
encarados, tais como o da responsabilidade, seja civil, penal ou administrativa. Questiona-se,
se a IA causar danos ou criar algo benéfico, quem deve ser responsabilizado? Ou ainda, existem
fundamentos morais ou pragmáticos para conceder à IA proteções legais e responsabilidades,
direitos e deveres? Por fim, qual o fundamento para questões éticas envolvidas com essa
tecnologia, sobretudo quando necessário fazer escolhas importantes?108.
Por oportuno, válido fechar esse item com as reflexões de Émile Durkheim109:

Sem dúvida, chegará o dia em que a ciência da moral terá avançado tanto que a
teoria será capaz de regular a prática; mas ainda estamos longe desse dia, e enquanto
ele não chega o melhor é guardar os ensinamentos da história.

106
GERDES, J. Christian; THORNTON, Sarah M., Implementable Ethics for autonomous vehicles, in: MAURER,
Markus et al (Orgs.), Autonomous driving: technical, legal and social aspects, Berlin: Springer open, 2016,
p. 95.
107
HILGENDORF, Eric, Direito e máquinas autônomas. Um esboço do problema, in: Veículos autônomos e
direito penal, São Paulo: Marcial Pons, 2019, p. 82–83.
108
TURNER, Jacob, Robot rules: regulating artificial intelligence, Cham: Palgrave Macmillan, 2019. E-book.
109
DURKHEIM, Émile, Ética e sociologia da moral, São Paulo: Landy, 2003, p. 122.
45

1.9 Perspectivas ético-normativas

É certo também que as novas tecnologias, em especial a inteligência artificial, têm sido
cada vez mais empregadas para resolver problemas sociais. Noutro giro, têm o condão de
provocar intenso clamor social, provocando uma gama de dúvidas sobre suas consequências,
além do sentimento de necessidade de regulação, máxime em razão da opacidade e insegurança
peculiar da fase inicial de todo evento110.
Sob este viés, a inteligência das máquinas passa a levantar questionamentos diversos,
mormente quanto à preservação de direitos fundamentais, ou ainda, se chegará o dia em que
elas superarão os humanos. Todavia, as incertezas e divergências científicas sobre os potenciais
riscos da inteligência artificial no ramo do Direito são incalculáveis, de modo a requerer
diretrizes básicas de segurança na sua utilização.
O fato é que o avanço corriqueiro e agitado da tecnologia desencoraja muitos
argumentos contrários ao uso das máquinas inteligentes. Desse modo, os programadores do
algoritmo se veem sujeito à etapa de regramento das novas atividades, pois avançar sem o
devido respeito aos direitos já conquistados denotaria verdadeiro retrocesso.
Em que pese as dificuldades que a legislação encontra para acompanhar os largos passos
das inovações tecnológicas, a sociedade deve ser estimulada à constante reflexão acerca da
reverberação das questões éticas para fazer nascer um espaço harmônico entre a inteligência
artificial e as normas éticas.
A revisão ética de sistemas automatizados de tomada de decisão impõe a construção de
um conjunto de princípios ou diretrizes éticas, no afã de se criar um campo de prevenção contra
riscos já conhecidos, ou de precaução em oposição àqueles desconhecidos. Precaução essa de
relevância também no âmbito responsabilização pelos danos causados por condutas advindas
de agentes de IA, sobretudo no caso do domínio brasileiro em que as pesquisas ainda se
mostram incipientes. Nesse ponto, a União Europeia é referência, particularmente em razão da
edição da Resolução 2015/2103(INL), de 16 de fevereiro de 2017, pelo Parlamento 111.

110
KLINGELE, Cecelia, The Promises and perils of evidence-based corrections, Notre Dame Law Review, v. 91,
n. 2, p. 577, 2016.
111
PIRES; SILVA, A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a
resolução do parlamento europeu, p. 245.
46

O IEEE - Institute of Electrical and Electronic Engineers112 criou um documento de


iniciativa global com considerações éticas no ramo de inteligência artificial, denominado
Ethically Aligned Design. Ele procura alinhar princípios éticos no contexto da IA, provocando
a reflexão acerca do catálogo de diretrizes definidas e que possam reger o tema.
Em 2019, também atento aos riscos das decisões algorítmicas e à implantação de uma
IA de confiança, foi divulgado o Ethics Guidelines for Trustworhty AI (Guia Ético por uma
Inteligência Artificial Confiável), documento criado no âmbito da União Europeia. Trata-se de
um arquétipo normativo que esboça um regramento com diretrizes no âmbito da legislação
europeia no que tange ao uso da IA, elaborado pelo grupo de peritos de alto nível sobre a
inteligência artificial (o GPAN IA)113.
A comissão consignou que o sistema de inteligência artificial de confiança requer três
elementos, devendo ser: i) legal, em cumprimento da legislação aplicável; ii) ética, em
observância de princípios e valores éticos; iii) sólida, no sentido técnico e social, isso porque
independentemente da intenção do software, ele é capaz de gerar danos não intencionados114.
Ademais, forte na ideia de que os sistemas de IA devem melhorar o bem-estar individual
e coletivo, o estudo elencou quatro imperativos éticos, baseados nos direitos fundamentais, que
asseguram a confiabilidade da IA, quais sejam o respeito da autonomia humana, a prevenção
de danos, a equidade e a explicabilidade115.
No que diz respeito especificamente ao tratamento ético a ser dado aos veículos
inteligentes, especialmente quando diante de situações de conflito entre vidas, em junho de
2017, a Ethics Comission Automated and Connected Driving, nomeada pelo Federal Minister
of Transport and Digital Infrastructure da Alemanha, publicou um relatório com 20
recomendações, destacando-se para essa pesquisa as seguintes116:

7. Em situações de risco que se revelem inevitáveis, apesar de todos os cuidados


tecnológicos tomadas, a proteção da vida humana tem prioridade máxima em um
equilíbrio legal de interesses protegidos. Assim, dentro das restrições do que é
tecnologicamente viável, os sistemas devem ser programados para aceitar danos aos
animais ou propriedade em conflito se isso significa que ferimentos pessoais podem
ser evitados.

112
ALLEN QC, Robin, Artificial intelligence, machine learning, algorithms and discrimination law: the new
frontier, AI Law.
113
COMISSION EUROPEAN, Ethics Guidelines for Trustworthy AI - Orientações Éticas para uma IA de
confiança.
114
Ibid.
115
Ibid.
116
FEDERAL MINISTER OF TRANSPORT AND DIGITAL INFRASTRUCTURE, Ethics Comission.
Automated and connected driving.
47

8. Decisões com dilemas genuínos, como uma decisão entre uma vida humana e outra,
dependem da situação específica real, incorporando comportamento "imprevisível"
por partes afetados. Eles não podem ser claramente padronizados, nem podem ser
programados de forma que sejam eticamente inquestionáveis. Os sistemas
tecnológicos devem ser projetados para evitar acidentes. No entanto, eles não podem
ser padronizados para uma avaliação complexa ou intuitiva avaliação dos impactos de
um acidente de forma que possam substituir ou antecipar a decisão de um motorista
responsável com capacidade moral para fazer julgamentos corretos. Isto é verdade que
um motorista humano estaria agindo ilegalmente se matasse uma pessoa em uma
emergência para salvar a vida de uma ou mais pessoas, mas ele não estaria
necessariamente agindo culposamente. Tais julgamentos legais, feitos em retrospecto
e levando em conta circunstâncias especiais, a contabilizar, não pode ser facilmente
transformado em avaliações ex ante abstratas/gerais e, portanto, também não em
atividades de programação correspondentes. Por este motivo, talvez mais do que
qualquer outro, seria desejável para uma agência independente do setor público (para
posição de uma Agência Federal para a Investigação de Acidentes que Envolvem
Transações Automatizadas sistemas portuários ou um Escritório Federal de Segurança
em Transporte Automatizado e Conectado) para processar sistematicamente as lições
aprendidas.
9. Em caso de situações de acidentes inevitáveis, qualquer distinção baseada em
características pessoais (idade, sexo, constituição física ou mental) são estritamente
proibidas. Também é proibido destinado a compensar as vítimas umas contra as
outras. Programação geral para reduzir o número de lesões pessoais podem ser
justificáveis. As partes envolvidas na geração de mobilidade os riscos não devem
sacrificar as partes não envolvidas117. (tradução livre)

Assim, o relatório fixa a importância de que os veículos autônomos cumpram as


questões éticas propostas, prestigiando-se a vida humana, e sem que haja discriminação entre
elas. Assim é que deve ser vista com cautela a concepção antecipada de que os avanços
tecnológicos são portadores apenas de benesses para a sociedade. É necessária a releitura
incessante de todos os consectários trazidos pelas tecnologias sob o prisma da ética, mesmo que

117
No original: 7. In hazardous situations that prove to be unavoidable, despite all technological precautions
being taken, the protection of human life enjoys top priority in a balancing of legally protected interests. Thus,
within the constraints of what is technologically feasible, the systems must be programmed to accept damage to
animals or property in a conflict if this means that personal injury can be prevented. 8. Genuine dilemmatic
decisions, such as a decision between one human life and another, depend on the actual specific situation,
incorporating “unpredictable” behaviour by parties affected. They can thus not be clearly standardized, nor can
they be programmed such that they are ethically unquestionable. Technological systems must be designed to avoid
accidents. However, they cannot be standardized to a complex or intuitive assessment of the impacts of an accident
in such a way that they can replace or anticipate the decision of a responsible driver with the moral capacity to
make correct judgements. It is true that a human driver would be acting unlawfully if he killed a person in an
emergency to save the lives of one or more other persons, but he would not necessarily be acting culpably. Such
legal judgements, made in retrospect and taking special circumstances into account, cannot readily be transformed
into abstract/general ex ante appraisals and thus also not into corresponding programming activities. For this
reason, perhaps more than any other, it would be desirable for an independent public sector agency (for instance
a Federal Bureau for the Investigation of Accidents Involving Automated Transport Systems or a Federal Office
for Safety in Automated and Connected Transport) to systematically process the lessons learned. 9. In the event of
unavoidable accident situations, any distinction based on personal features (age, gender, physical or mental
constitution) is strictly prohibited. It is also prohibited to offset victims against one another. General programming
to reduce the number of personal injuries may be justifiable. Those parties involved in the generation of mobility
risks must not sacrifice non-involved parties.
48

coberta pela aparência da licitude118. Nesse ponto é que se justifica a permanência vigilante do
Direito Penal enquanto Ciência Penal Total - a abranger a Dogmática, a Criminologia e a
Política Criminal. Nos ensinamentos de Hassemer sobre a função do direito penal, ele pontua
que119

Decisões político-criminais devem não apenas refletir e justificar seu caráter de


justiça; devem também chamar à discussão e justificar-se no sentido de que são
adequadas ao seu objeto, que o conhece e o compreende. Elas têm não apenas uma
tarefa normativa a cumprir, mas também empírica, se pretendemos levá-las a sério. Se
a tarefa empírica falha, então a normativa não é mais passível de realização.

Nos ensinamentos de Claus-Wilhelm Canaris120, as características principais do sistema


jurídico são o desenvolvimento da adequação valorativa e da unidade interna da ordem jurídica.
Nesse ponto, vale transcrever as seguintes lições do jurista alemão:

O sistema cumpre sobretudo, em particular, duas tarefas na obtenção do Direito: ele


contribui para a plena composição do conteúdo teleológico de uma norma ou de um
instituto jurídico, o que conduz a interpretá-los como parte do conjunto da ordem
jurídica e sobre o pano de fundo das conexões relevantes; e ele serve para a garantia
e a realização da adequação valorativa e de unidade interior do Direito, porquanto
mostra as inconsequências valorativas, proporcionando, com isso, o aperfeiçoamento
do Direito, tanto pela delimitação de ameaçadoras contradições de valores como pela
determinação de lacunas.

1.9.1 Iniciativas de regulação

A inteligência artificial aplicada aos autônomos ainda é carente de regulação legal,


sendo que o controle do desenvolvimento tecnológico reclama atuação dos órgãos legitimados
à normatização, em respeito aos postulados do Estado Democrático de Direito. Deste modo, a
tarefa de controle da tecnologia não pode se encontrar nas mãos de empresas, de técnicos ou de
instituições financeiras.
Os representantes eleitos pela sociedade é quem possui autoridade para estabelecer as
normas correlatas ao desenvolvimento social em todas as suas vertentes, assim como deve ser
com o tecnológico121. Logo, o aperfeiçoamento teórico-dogmático é imprescindível para que o
diálogo entre especialistas jurídicos e técnicos possa preparar o terreno normativo.

118
RODOTÀ, A vida na sociedade da vigilância: a privacidade hoje, p. 142.
119
HASSEMER, Winfried, Die Basis des Wirtschaftsstrafrechts, in: KEMPF, Eberhard; LÜDERSSEN, Klaus;
VOLK, Klaus (Orgs.), Die Handlungsfreiheit des Unternehmers – Wirtschaftliche Perspektiven,
strafrechtliche und ethische Schranken, Berlin, New York: Walter de Gruyter, 2009, p. 27–43.
120
CANARIS, Claus-Wilhelm, Pensamento sistemático e conceito de sistema na ciência do direito, 4a ed.
Lisboa: Fundação Calouste Gulbenkian, 2008, p. 283.
121
HILGENDORF, Digitalização e direito, p. 128.
49

Ao Poder Legislativo não é dado a abstenção de regular as novéis relações, furtando-se


do encargo por mais complexo e incompreensível que seja, particularmente face ao atual estado
da arte. A normatização do carro autônomo, sob essa perspectiva, parece ser essencial para a
sociedade, ainda que para responsabilizar o agente perante um ou mais ramo jurídico, inclusive
eventualmente criminalizando a conduta, ou então, de modo contrário, para que se apure a
opção social pela utilização da tecnologia.
De fato, a participação na agenda política de todos os atores implicados se faz
necessária. Não deve o Estado direcionar o desenvolvimento da tecnologia de maneira isolada,
sob pena de um regramento insuficiente ou excessivo. Entretanto, é o sistema criado para reger
a sociedade, dentro da política atuante, que pode, auxiliado pelos atores estatais e privados,
fixar normas capazes de permitir o crescimento social e o desenvolvimento tecnológico, por
óbvio, sempre limitado à observância dos direitos fundamentais.
O progresso tecnológico não deve ficar à mercê de escolhas individuais decisionistas,
porquanto o direito e a moral se encarregam de preconizar princípios e normas122. A autonomia
das máquinas requer sua atuação em conformidade com o ordenamento jurídico, no que reclama
dos veículos inteligentes a mesma obediência às regras de trânsito postas.
Entretanto, é certo que as normas existentes podem não ser mais suficientes, fazendo-se
necessários novos regramentos, ou adaptação dos instrumentos jurídicos já existentes. Assim,
a solução para as situações dilemáticas pode ser encontrada em algumas ocasiões na simples
modificação de entendimento ao aplicar a lei – de lege data. Em outras, pode se revelar
necessária a inclusão na agenda das políticas públicas para fins de alteração da própria
legislação, é dizer, de lege ferenda.
Assim é que a solução de novas questões complexas, como são as situações dilemáticas,
requer a invocação de vários ramos, como a política criminal, a sociologia, a filosofia e a própria
dogmática penal, em busca da conformação das consequências das inovações tecnológicas.
Na esteira do que defende Coutinho123, há que se romper com o modelo atual do direito
que se limita a realizar políticas públicas com base no modelo do “pode/não pode”. Por isso, há
necessidade de se pensar em uma nova modelagem de sistema penal, mais administrativizado
por meio de uma carga gerencial, e menos subjetivista, voltando-se, assim, para a efetividade
de políticas públicas. Nessa linha é que se propõe o desenho de um modelo de aceitabilidade

122
Ibid., p. 129.
123
COUTINHO, Diogo R., O direito nas políticas públicas, in: MARQUES, Eduardo; FARIA, Carlos Aurélio
Pimenta de (Orgs.), A Política Pública como campo multidisciplinar, São Paulo: Unesp, 2013, p. 181.
50

de riscos dentro do contexto da sociedade de riscos, fomentada ainda mais pela implementação
da inteligência artificial.
Do ponto de vista de uma agenda relevante de pesquisas no Brasil, importante se faz
enxergar o direito como uma tecnologia de construção e operação de políticas públicas. Sob
este viés, dentre as tarefas entregues ao direito (como objetivo, arranjo institucional e
vocalizador de demandas), destaca-se nesta pesquisa a de direito como caixa de ferramentas,
pois estar-se-ia oferecendo meios, distintos instrumentos e veículos para implementação dos
fins da política, é dizer, em uma dimensão instrumental.
Logo, tarefa árdua que se verifica está em se conformar as novas tecnologias ao direito
vigente, buscando a sua compreensão para posterior resposta aos questionamentos jurídicos que
se levantam. Por essa razão, é necessário o diálogo constante entre os desenvolvedores dos
diversos programas com os profissionais do ramo jurídico, para se certificarem do solo em que
estão pisando, de todas as nuances e obstáculos que enfrentam em sua atividade de
programação.
Rememora-se, ainda, que as medidas de compliance exerce importante papel nesta
seara, como nova perspectiva do tratamento jurídico, na medida que municiam os tecnólogos
de necessário conhecimento para que possam produzir dentro das normas postas. A partir do
cruzamento das informações sobre os riscos jurídicos e os riscos tecnológicos é possível a
construção de um cenário mais transparente à sociedade que, em algum momento, é
vocacionada a decidir sobre a aceitação, ou não, daquela engenharia inovadora124.
O que se visualiza, prima facie, é que a condução automatizada é uma incumbência de
lege referenda. E um dos grandes desafios é que a condução automatizada faz surgir um novo
ator: o sistema autônomo, o qual descarta a presença da figura humana. Isso porque não há que
se considerar tão somente uma ferramenta, mas atores cada vez mais independentes, cuja
conduta tem sujeitado, de igual forma, às exigências éticas, jurídicas e de imputação.
Por ora não se visualiza uma concentração normativa a tratar do tema da IA no âmbito
dos veículos autônomos, mormente sobre a programação do comportamento do algoritmo em
situações de emergência de vida contra vida. Não paira dúvidas acerca da necessidade de
regulamentação tanto da programação e controle dos sistemas, bem como da atuação dos atores
envolvidos em toda a cadeia de atividade dos veículos, desde a fábrica até o usuário.

124
HILGENDORF, Digitalização e direito, p. 131–132.
51

Forçoso reconhecer que tais obstáculos condizentes com a carência na regulamentação


promovem insegurança aos desenvolvedores, preponderantemente no que importa à
responsabilidade advinda de acidentes envolvendo esses veículos.
No Brasil, particularmente, a tecnologia dos autônomos ainda é muito incipiente, sob a
perspectiva econômica, industrial e social, se comparadas aos demais países, não contando com
legislação pertinente. Essa situação inclusive fora constatada em sede do relatório desenvolvido
pela Firjan, Inmetro e Ufla, especialmente quando comparado com países como Estados
Unidos, Alemanha, Holanda, Suécia, França, Reino Unido, Espanha, Japão, China e Chile125.
Diante desse cenário, mostra-se necessário adquirir consciência acerca das questões de política
industrial, de desenvolvimento de pesquisas, entraves jurídicos e de aceitabilidade social
pertinentes aos veículos governados pela inteligência artificial. Como restou consignado no
documento:

[...] o poder público tem um papel determinante. Face à evolução gigantesca em


relação aos testes desenvolvidos nos Estados Unidos e na Europa bem como em
relação à China no campo da Inteligência Artificial e do mundo digital, o Brasil deve
se preparar a compreender todas as facetas desse novo sistema de mobilidade e
recuperar o atraso sofrido nesses últimos anos, que o coloca em última posição dentre
os países estudados por consultores autônomos na área126.

O Brasil, portanto, encontra-se na contramão da trajetória que os países europeus vêm


traçando. É que como a União Europeia se posiciona favoravelmente em relação à
implementação da IA em veículos, isso propulsiona a sua liderança nessa frente.
Em essência, a importância da atividade regulatória está na preservação do status quo
de direitos e garantias, principalmente os relacionados aos direitos humanos, a fim de que a
inovação e a evolução tecnológica não submetam indivíduos e parte da sociedade a condições
que já reconhecidamente a sociedade entende que não sejam razoáveis ou ilícitas. Portanto, não
é simplesmente em benefício da implantação da tecnologia.
Importante consignar que a Convenção de Viena, de 8 de novembro de 1968, a qual
trata do tráfego rodoviário dos países signatários, com alteração dada pela Emenda de 2016,
passou a permitir o uso de sistemas de automação inseridos no veículo, com a condição de que
o condutor mantenha a todo o momento a possibilidade de resgatar o comando da direção, seja

125
FIRJAN; INMETRO; UFLA, 1a Conferência sobre veículos inteligentes. Segurança jurídica e tecnológica para
inserção no Brasil, Relatório de Informações e Recomendações.
126
Ibid., p. 21.
52

pelo chamado a intervir ou, quando assim desejar127. Foi igualmente considerada a introdução
da categoria de “condutores não humanos”. Alterações, portanto, que caminham no sentido de
atribuir agência ao veículo autônomo, algo essencial à responsabilidade criminal, ainda que não
suficiente para tanto.
O ato regulamentar n.º 79 da UNECE foi o vanguardista na aceitação da realidade
autônoma, levando a uma revisão da abordagem tradicional e, considerando as novas
tecnologias, admitido que os veículos disponham “sistemas de direção nos quais não existe
qualquer ligação mecânica efetiva entre o comando de direção e as rodas”, denominados
“Advance Driver Assistance Systems” (ADAS)128.
Percebe-se, assim, que paulatinamente a regulação dos complexos componentes e
sistemas dos veículos autônomos vai se desenhando. A Alemanha, potência reconhecida no
setor dos veículos, bem como dos tipos autônomos, é precursora na adaptação de sua legislação
para o fim de se possibilitar a condução automatizada em suas estradas, tendo consignado
alterações ao seu Código da Estrada (Straßenverkehrsgesetz), em vigor desde 2017129. Em
especial o seu §1º, o qual inclusive fixa a definição “highly” ou “fully” autonomous vehicle -
aquele que dispõe de equipamento que permite a realização da tarefa de condução sem controle
por um condutor humano em conformidade com as normas de tráfego rodoviário vigentes130.
Em observância ao princípio da informação, o legislador alemão optou por instituir a
obrigação ao produtor do veículo de informar expressamente sobre as funcionalidades que o
veículo reúne, de modo que o consumidor tenha ciência acerca das limitações e dos riscos
inerentes. Por outro lado, demais pontos retratam que a política adotada objetivou proteger e
fomentar sua forte indústria automobilística, máxime na esfera da responsabilidade civil.
De grande relevância, trouxe também a previsão de uma caixa preta (cuja cor real é
laranja, diga-se de passagem), muito utilizada na aviação, para fins de armazenamento de dados
ligados ao veículo, a qual pode armazenar dados sobre eventual falha técnica, ou ainda, sobre a
convocação pelo sistema para que o operador retome o controle, no que oferece grande utilidade
para efeitos de campo probatório, especialmente quando se envolver em acidente.

127
CHATZIPANAGIOTIS, Michael P.; LELOUDAS, George, Automated Vehicles and Third-Party Liability: A
European Perspective, SSRN Electronic Journal, 2020.
128
UNIÃO EUROPEIA, Regulamento no 79 da Comissão Económica para a Europa da Organização das Nações
Unidas (UNECE) — Prescrições uniformes relativas à homologação de veículos no que se refere ao dispositivo
de direção.
129
ALEMANHA, Straßenverkehrsgesetz.
130
UNIÃO EUROPEIA, Directiva 2007/46/EC do Parlamento Europeu e do Conselho de 5 de Setembro de 2007.
53

Nos Estados Unidos da América, a inexistência de uma lei federal implicou uma
verdadeira competição legislativa interna, visando a captação de investimentos no ramo. O
Estado da Califórnia foi o primeiro a receber testes de veículos autônomos fomentados pela
empresa Google, tendo os seus veículos inteligentes percorrido cerca de 100.000 milhas entre
2009 e 2010131.
Mas em setembro de 2017, em nível Federal, foi aprovada a “Self-drive Act”132 na
Câmara dos Representantes. Ela estabelece uma estrutura para o papel federal na garantia da
segurança de veículos altamente automatizados (HAVs), limitando a atividade legislativa dos
estados na regulação dos HAVs. Fixa também condições sob as quais HAVs podem ser
introduzidos no comércio interestadual para teste, avaliação ou demonstração. Seu último
andamento, enquanto esta pesquisa estava sendo elaborada, deu-se em novembro de 2017,
oportunidade em que fora colocada no calendário legislativo do Senado, sob ordens gerais.
No Brasil, tramita, desde 04 de fevereiro de 2020, o Projeto de Lei nº 21/2020133, que
visa estabelecer princípios, direitos e deveres para o uso da Inteligência Artificial no país,
criando diretrizes para a atuação da União, Estados, Distrito Federal, Municípios, pessoas
físicas e jurídicas de direito público ou privado, bem como entes sem personalidade jurídica em
relação à matéria. Nada muito específico ao uso dos carros autônomos, mas pode servir como
norma para, oportunamente, dela serem extraídos regras e princípios.
O Projeto de Lei 21/20, de todo modo, caracteriza o marco legal do desenvolvimento e
utilização da IA pelas pessoas físicas, por empresas, por entidades diversas e pelo poder
público. Ainda em tramitação nas Casas Legislativas, o texto visa uma legislação que,
simultaneamente, fomente a IA e proteja os indivíduos do mau uso dela, fixando princípios,
direitos, deveres e instrumentos de governança para a IA. A justificativa do Projeto de Lei
dispõe que:

[...] O presente projeto de lei faz uma abordagem da IA centrada no ser humano, e tem
como objetivo principal a adoção da IA para promover a pesquisa e inovação,
aumentar a produtividade, contribuir para uma atividade econômica sustentável e
positiva, melhorar o bem-estar das pessoas e ajudar a responder aos principais desafios
globais.
A expansão da IA exige transições no mercado de trabalho, e, atento a isto, o projeto
criou deveres para o poder público para permitir a capacitação dos trabalhadores, bem
como incentivá-los a se engajarem e adquirirem competitividade no mercado global.

131
CNN, Sem motorista: Califórnia concede 1o licença para teste com carros autônomos.
132
SENATE - COMMERCE, SCIENCE, AND TRANSPORTATION, S.1885 - AV START Act - American
Vision for Safer Transportation through Advancement of Revolutionary Technologies Act.
133
BRASIL, Câmara dos Deputados, Projeto de Lei n o 21/2020. Estabelece fundamentos, princípios e diretrizes
para o desenvolvimento e a aplicação da inteligência artificial no Brasil, e dá outras providências.
54

Ademais, a IA traz implicações para os direitos humanos, a privacidade e a proteção


de dados, temas que foram tratados no projeto de lei, com observância das normas
previstas na Lei Geral de Proteção de Dados que se aplicam ao tratamento de dados,
ainda que utilizados em sistemas de IA.
É preocupação também deste projeto de lei a inovação na gestão pública por meio da
IA, para que o Estado supere obstáculos burocráticos e restrições orçamentárias e
ofereça serviços mais eficientes à população.
É preciso dar atenção, por fim, à segurança digital, fator essencial para a
transformação decorrente da IA. Por isso, fomentou-se no projeto de lei um debate
público da sociedade civil e do poder público para capturar o potencial benéfico das
novas tecnologias, bem como foram previstos deveres direcionados ao gerenciamento
de riscos.

O projeto propõe que o uso da IA terá como fundamento a observância aos direitos
humanos, aos valores democráticos, à igualdade, à não discriminação, à pluralidade, à livre
iniciativa e à privacidade de dados. Ademais, traz como princípios a garantia de transparência
sobre o seu uso e funcionamento e torna obrigatórios os princípios encartados no âmbito
internacional, disciplinando direitos e deveres134.
Relevante anotar que o projeto prevê a figura do agente de IA, “que pode ser tanto o que
desenvolve e implanta um sistema de IA (agente de desenvolvimento), como o que opera
(agente de operação)”. Os agentes de IA, que poderão ser pessoa física ou jurídica de direito
público ou privado ou entes sem personalidade jurídica, terão uma série de deveres, com a
possibilidade de sua responsabilização, caso não atenda as normas legais, bem como pelas
decisões tomadas pela tecnologia de acordo com suas funções, que devem ser assegurar o
respeito da Lei Geral de Proteção de Dados, proteger o sistema contra ameaças de segurança
cibernética e fornecer informações claras sobre critérios e procedimentos do sistema,
respeitando os segredos comerciais e industriais135.
Com todas essas colocações resta firmado que graças aos aperfeiçoamentos sucessivos,
as tecnologias estão a tornar-se, gradualmente, mais independentes da atuação humana, no que
implica demandas ao nível da regulação jurídico-administrativa. Estudadas essas premissas,
mostra-se relevante a partir daqui aprofundar no estudo relacionado à responsabilidade penal.
Deveras, a revolução tecnológica impulsionará, ao menos, uma outra revolução, a jurídica.

134
CÂMARA DOS DEPUTADOS, Projeto cria marco legal para uso de inteligência artificial no Brasil, Notícias,
2020.
135
Ibid.
CAPÍTULO 2 – A PERSPECTIVA DA RESPONSABILIDADE PENAL DIANTE DA
SOCIEDADE DE RISCO

O capítulo anterior introduziu o panorama acerca da inteligência artificial, seus


elementos e métodos de aprendizagem, além da análise das decorrências de seu processo
decisório. Foram traçadas igualmente linhas pontuais referentes aos veículos autônomos e às
nuances voltadas à ética e à moral. Esse capítulo, após apresentar elementos da responsabilidade
penal pertinentes ao tema, procurará desenhar o modelo da sociedade moderna de riscos,
assunto igualmente relevante para o que se pretende demonstrar nessa pesquisa, mapeando
alguns dos principais desafios que a introdução de tais veículos ao sistema de trânsito pode
trazer para a responsabilidade penal.
Deste modo, inicialmente será realizada uma digressão sobre os institutos da
responsabilidade penal na atual dogmática para, após, aprofundar no estudo a respeito das
situações dilemáticas e, finalmente, submeter toda a problemática ao exame sob o prisma da
teoria da imputação objetiva, perpassando sobre tema dos imputáveis, dado que há muitos
atores envolvidos, com diferentes responsabilidades sobre a IA, a depender da situação
específica. É necessário, portanto, examinar a sua responsabilidade no direito penal, com
enfoque no elemento externo da responsabilidade, actus reus136.
Assim, o segundo capítulo intenta revisar os fundamentos jurídicos da responsabilidade
no direito penal, promover o diálogo da questão proposta neste trabalho com outras áreas do
conhecimento, como a Filosofia, para então erigir o tratamento dessas situações a um breve
olhar perante as categorias dogmáticas tradicionais e, por fim, tentar compreender as situações
dilemáticas a partir de casos conflituosos hipotéticos e reais.

2.1 A sociedade de risco

O modo de viver contemporâneo é determinado pelo risco. Os riscos são intrínsecos ao


desenvolvimento dos domínios sociais produtivos, mas que não decorrem puramente do
desconhecimento dos ramos científicos, em verdade, são frutos do próprio conhecimento. É
dizer, os riscos resultam do processo de modernização da sociedade, razão pela qual recebe a
nomenclatura “sociedade de riscos”.

136
CLAUSSÉN-KARLSSON, Matilda, Artificial Intelligence and the external element of the crime: an
analysis of the liability problem, Örebro Universitet, 2017, p. 24.
56

Assim os riscos passam a ser permitidos, ou não, a depender da cultura ou política


adotada em determinado meio social. É certo que, seja qual for a atividade desenvolvida, ela
implica, em alguma proporção, risco aos direitos alheios. Schreiber137 assevera que:

A evolução científica e industrial conduziu, como já é truísmo dizer, a uma substancial


majoração do potencial lesivo da autonomia privada. A exploração de novas fontes de
energia; as técnicas de produção em massa; a ampla comercialização de
medicamentos e terapias que refletem descobertas relativamente recentes da ciência
médica; o desenvolvimento desconcertante dos transportes terrestre, aéreo e marítimo;
a explosão da mídia; tudo que caracteriza, enfim, a sociedade contemporânea esconde,
por trás de si, um enorme potencial de dano.

O homem na sociedade da informação mergulha-se em um emaranhado de novas


relações e, via de consequência, de novas situações jurídicas, as quais surgem
ininterruptamente, levando-o a manter uma postura líquida e flexível que o permita sobreviver
no meio social. Aprendizagem constante, conhecimentos generalistas, e habilidades para
sempre se adequar aos iminentes domínios do conhecimento é o que dele se espera, diante do
contínuo processo de criação de novas necessidades. Da mesma forma, a sociedade é levada ao
desafio perene de capacidade para a resolução de conflitos que se apresentam com as novas
tecnologias138.
Na concepção do sociólogo alemão Ulrich Beck139, a modernidade é orientada por uma
produção social de riqueza seguida sistematicamente pela fabricação de riscos.
Consequentemente, “aos problemas e conflitos distributivos da sociedade da escassez
sobrepõem-se os problemas e conflitos surgidos a partir da produção, definição e distribuição
de riscos científico-tecnologicamente produzidos”. Ousa-se afirmar que os riscos são científico-
tecnologicamente produzidos, sendo que as forças produtivas geram exponenciais potenciais
de ameaça, naquilo que Ulrich entende que o processo de modernização é reflexivo, pois surge
como solução e problema sincronicamente.
Em conformidade com os ensinamentos de Jesús María Silva Sánchez140:

Desde la enorme difusión de la obra de Ulrich Beck, es un lugar común caracterizar


el modelo social postindustrial en que vivimos como "sociedad del riesgo" o
"sociedad de riesgos" (Risikogesellschaft). En efecto, la sociedad actual aparece
caracterizada, básicamente, por un marco económico rapidamente cambiante y por

137
SCHREIBER, Anderson, Novos paradigmas da responsabilidade Civil: da erosão dos filtros da reparação
à diluição dos danos, São Paulo: Editora Atlas, 2007, p. 82.
138
MALHEIRO, Emerson Penha, A inclusão digital como direito fundamental na sociedade da Informação,
Revista dos Tribunais, v. 978, p. 39–54, 2018.
139
ULRICH, Beck, Sociedade de Risco: Rumo a uma outra modernidade, São Paulo: Editora 34, 2011, p. 23.
140
SÁNCHEZ, Jesús-María Silva, La expansión del derecho penal: aspectos de la política criminal en las
sociedades postindustriales, 3a ed., ampliada. Madrid: Edisofer [u.a.], 2011, p. 13–14.
57

la aparición de avances tecnológicos sin parangón en toda la historia de la


humanidad. El extraordinario desarrollo de la técnica ha tenido y sigue teniendo,
obviamente, repercusiones directas em un incremento del bienestar individual. Como
tambien las tiene la dinamicidad de los fenómenos económicos. Sin embargo,
conviene no ignorar sus consecuencias negativas. De entre ellas, la que aquí interessa
resaltar es la configuración del nesgo de procedência humana como fenómeno social
estructural. Ello, por el hecho de que buena parte de las amenazas a que los
ciudadanos estamos expuestos provienen precisamente de decisiones que otros
conciudadanos adoptan em el manejo de los avances técnicos: riesgos más o menos
directos para los ciudadanos (como consumidores, usuarios, beneficiarios de
prestaciones públicas, etc.) que derivan de las aplicaciones técnicas de los
desarrollos en la industria, la biología, la genética, la energia nuclear, la informática,
las comunicaciones, etc. Pero también, porque la sociedad tecnológica,
crecientemente competitiva, desplaza a la marginalidad a no pocos individuos, que
inmediatamente son percebidos por los demás como fuente de riesgos personales y
patrimoniales.

Portanto, a sociedade de risco traz a configuração em que estão presentes riscos não
delimitáveis, globais e muitas vezes irreparáveis, os quais possuem o condão de tocar os
interesses de todos os cidadãos, individual ou globalmente considerados. Afinal, incerteza e a
irreversibilidade, no contexto da sociedade de risco, constituem-se elementos do dano. Nas
palavras do autor:

[...] riscos da modernização emergem ao mesmo tempo vinculados espacialmente e


desvinculadamente com um alcance universal; e segundo, quão incalculáveis e
imprevisíveis são os intricados caminhos de seus efeitos nocivos. Nos riscos da
modernização, portanto, algo que se encontra conteudístico-objetiva, espacial e
temporalmente apartado acaba sendo causalmente congregado e, desse modo, além
do mais, colocado simultaneamente numa relação de responsabilidade social e
jurídica.141

O sociólogo destaca que a pulverização das atividades entre os vários atores acarreta
verdadeira cumplicidade geral, com uma consectária irresponsabilidade generalizada. É dizer,
todos os atores partícipes assumem papel de causa e efeito e, de modo simultâneo, são também
uma “não causa”. Assim, surge desmesurada cadeia de acontecimentos interligados, em que há
dificuldade na atribuição de responsabilidades, a exemplo dos sistemas autônomos. As causas
são misturadas entre atores e condições, reações e contrarreações.
Portanto, há enorme dificuldade de se isolar os fatores específicos no complexo sistema
que se forma na sociedade de riscos. A confusão é tamanha a ponto de inviabilizar a
identificação das causas específicas dos riscos massivos, e de individualizar
responsabilidades142. Na seara cível, provavelmente não há maiores óbices na partilha de

141
ULRICH, Sociedade de Risco: Rumo a uma outra modernidade, p. 33.
142
Ibid., p. 38–39.
58

responsabilidades, ou de modo prévio, na divisão solidária dos custos por toda a cadeia de
fornecimento do produto. No âmbito penal, máxime em razão da inadmissível responsabilidade
objetiva, possivelmente restará obstaculizada a responsabilização de todos os envolvidos na
construção e manutenção do agente autônomo.
Ainda, sistemas que admitem a responsabilidade solidária objetiva podem se
fundamentar na teoria do deep-pocket, segundo a qual todo ator envolvido em atividade
periclitante lucrativa deve compensar os danos causados. Deste modo, o programador, o
fabricante do bem que adota o programa, ou qualquer outro integrante da cadeia poderá ser
obrigado a suportar o dever indenizatório por eventual dano. Todavia, na seara criminal,
encontra-se embaraços na distribuição dos encargos143.
Por outro lado, Caitlin Mulholland rememora o risco da estagnação do desenvolvimento
tecnológico, sugerindo a invocação da teoria do risco do desenvolvimento, como fundamento
para a atribuição de responsabilidade aos agentes empresariais exploradores da inteligência
artificial, sob o espeque do princípio da solidariedade social. Seus elementos auxiliam na
aplicabilidade da teoria, sendo eles:

(i) o dano causado por um produto – que não é, em tese, defeituoso; (ii) a
impossibilidade técnica objetiva de reconhecimento, por parte tanto do fornecedor
quanto do consumidor, da defeituosidade e da potencialidade danosa do produto, no
tempo da ocasião do dano; e (iii) o desenvolvimento tecnológico que identifica,
posteriormente, um defeito do produto, gerador do dano. Esses requisitos, se aplicados
às hipóteses de danos causados por IA autônoma, poderiam ser igualmente
interpretados para fins de atribuição da obrigação de indenizar. Senão vejamos: (i) o
dano é casualmente ligado a um sistema de IA; (ii) é virtualmente impossível
identificar, no momento inicial de programação da IA, a previsibilidade e
potencialidade danosa da aplicação do sistema; e (iii) o desenvolvimento da
aprendizagem autônoma pela IA, que independe de interferência humana, causa
efetivamente o dano a uma pessoa. A esses três elementos soma-se um quarto, que é
(iv) a inviabilidade de explicação por um humano do processo que levou a IA a uma
decisão autônoma geradora do resultado danoso, na medida em que esses processos
de aprendizagem e decisão independem da atuação e da racionalidade humana. No
entanto, as mesmas críticas feitas à adoção da teoria do risco de desenvolvimento
como fator de atribuição da obrigação de reparar o dano causado por um produto
podem ser aplicadas ao reconhecimento da responsabilidade civil pelos danos
ocasionados pela tomada de decisão autônoma por sistemas de IA, sendo o principal
questionamento aquele que diz respeito ao delicado equilíbrio entre a atribuição de
responsabilidade por meio de medidas regulatórias e o consequente e eventual risco
de estagnação da inovação tecnológica144.

143
ASARO, Peter M. The Liability Problem for Autonomous Artificial Agents. Disponível em:
<https://peterasaro.org/writing/Asaro,%20Ethics%20Auto%20Agents,%20AAAI.pdf>. Acesso em: 17 jun. 2022.
144
MULHOLLAND, Caitlin Sampaio, Responsabilidade civil e processos decisórios autônomos em sistemas de
inteligência artificial (IA): autonomia, imputabilidade e responsabilidade, in: FRAZÃO, Ana; MULHOLLAND,
Caitlin Sampaio (Orgs.), Inteligência artificial e direito: ética, regulação e responsabilidade, 2. ed. São Paulo:
Thomson Reuters Brasil, 2020, p. 337.
59

Já a teoria da causalidade alternativa surge na tentativa de solucionar questões que


abrangem um dano não atribuível a um causador específico, mas ao grupo de sujeitos
envolvidos no evento danoso. Assim, todos os possíveis autores são responsáveis solidários,
como resultado da impraticabilidade na identificação do nexo causal entre a conduta e o dano
produzido. A causalidade alternativa oportuniza o reconhecimento de que o dano foi causado
por uma única conduta que, em razão da peculiaridade da coesão do grupo, não se mostra
comprovável. Assim, com o intuito de buscar o ressarcimento da vítima, presume-se o nexo de
causalidade145.
Com efeito, o evento danoso pode ser realizado por um agente incerto, notadamente
quando múltiplos sujeitos podem, por si só, produzi-lo, contudo não se alcança certeza sobre
qual deles de fato o causou. Há que se exercer uma presunção em relação ao grupo todo, tendo
em vista que não se pode firmar o nexo de causalidade de forma direta. Em outros termos, a
proposta da teoria da causalidade alternativa é facultar a reparação dos danos causados, por
intermédio da simplificação do ônus probatório, de modo que resta à vítima comprovar tão
somente que o dano que sofreu adveio de determinada atividade realizada por um determinado
grupo, recorrendo-se, portanto, a uma presunção da causalidade.
Nesse ponto, verifica-se que sob o ponto de vista dos danos causados por sistemas
autônomos, encontrar-se-ia enorme dificuldade em ter ciência sobre como o sistema
desenvolveu determinado output, naquilo que se perde o controle das consequências
potencialmente nocivas, havendo que se atribuir responsabilidade a um dos envolvidos na
cadeia de desenvolvimento. Aliás, no plano do sistema autônomo, a situação revela-se ainda
mais complexa, isso porque abrange um conjunto composto por um componente humano, a
atividade anterior de um desenvolvedor e a entidade artificial dotada de autonomia. Aqui,
concentrar-se somente na atividade desse grupo de individualidades pode ser insuficiente na
solução de questões que dizem respeito à distribuição de responsabilidades.
A aceitação social dos riscos requer controle, o qual está condicionado à razoabilidade.
Entretanto, o fomento cego a sistemas repressivos desproporcionais vai de encontro à sede de
evolução da humanidade. O direito moderno, plasmado nos postulados jusracionalistas,

145
MULHOLLAND, Caitlin Sampaio, Alternative causation, unidentifiable tortfeasors, and group liability:
a case study, disponível em: <https://civilistica.emnuvens.com.br/redc/article/view/121/91>. acesso em:
17 jun. 2022.
60

preocupa-se também com os limites à intervenção punitiva irracional, envidando esforços para
obstaculizar coações desproporcionais ou desnecessárias pelos aparatos sancionatórios146.
Bitencourt discorre que a política criminal funcionalista “sustenta, como modernização
no combate à criminalidade: ‘perigo’ em vez de dano; ‘risco’ em vez de ofensa efetiva a um
bem jurídico; ‘abstrato’ em vez de concreto; ‘tipo aberto’ em vez de fechado; ‘bem jurídico
coletivo’ em vez de individual etc.”147.
Ulrich indaga como seria possível evitar, minimizar ou canalizar os riscos
sistematicamente gerados no processo de modernização, ou ainda, isolá-los e redistribui-los,
quando surgidos na forma de "efeitos colaterais latentes", de maneira que não embarace o
“processo de modernização e nem as fronteiras do que é (ecológica, medicinal, psicológica ou
socialmente) aceitável”148.
Uma das implicações do processo de aceitação dos riscos por parte da sociedade está
consubstanciada no enfrentamento jurídico em face dos novos dispositivos que se impõem. Sob
este enfoque é que os sistemas autônomos fazem os intérpretes do direito se debruçarem sob o
tema, forte no objetivo de alcançarem os institutos jurídicos que se conformem com as novas
realidades impostas e seus desdobramentos.
É verdade que a sociedade na ânsia de evolução, antes de aceitar o risco propriamente
dito, procura se preparar em um primeiro momento, naturalmente examinando vantagens e
desvantagens daquilo que está sendo proposto. E justamente por estar submetido a um processo
– isto é, não se aceita de imediato e de modo acrítico-, exigências vão se construindo, como
forma de contrapeso, com o objetivo de que seja afiançado o máximo de segurança - dentro do
estado da arte e das normas postas -, bem como minimizar os riscos em maior nível exequível
(dever de asseguramento). A todo esse processo poderia se atribuir a nomenclatura de
“sociedade de risco em desenvolvimento”.
A questão que se coloca é saber se a real preocupação está voltada para a mera
imputação de responsabilidade em casos de acidente ou então para a atividade de risco
propriamente dita desenvolvida pelos veículos autônomos. Assim, veículos, em sua forma mais
rudimentar, sempre se revelou um bem que oferece riscos quando em circulação. Entretanto, os
riscos que oferecem não dão motivos para tantas discussões, pois em caso de acidente, há quem

146
CARVALHO, Salo de, A política criminal de drogas no Brasil: estudo criminológico e dogmático da Lei
11.343/06, 8a edição revista e atualizada. São Paulo: Editora Saraiva, 2016, p. 107.
147
BITENCOURT, Cezar Roberto, Princípios garantistas e a criminalidade do colarinho branco, Revista
Brasileira de Ciências Criminais, 1995, p. 123.
148
ULRICH, Sociedade de Risco: Rumo a uma outra modernidade, p. 24.
61

seja responsabilizado de maneira translúcida: o fabricante que permitiu a venda de um veículo


com defeito, o motorista que agiu de modo ilícito no trânsito, ou ainda, um terceiro provocador
do evento. De forma alguma é pensada a retirada dos carros de circulação.
Não restam dúvidas de que os carros autônomos oferecem riscos à sociedade. Contudo,
a severa argumentação focada em seus riscos, para fins de delimitá-la ou erradicá-la, não soa
razoável. São incontáveis as atividades de risco admitidas no meio social, desde riscos mais
modestos aos mais potentes, a exemplo da atividade nuclear.
Por tudo isso é que existe a corrente que defende que no caso de acidente dilemáticos,
há a alternativa de ninguém vir a ser penalmente responsabilizado, salvo em situações
excepcionais. Essa opção restaria justificada na aceitação do risco pela sociedade, a qual se
sujeita às consequências advindas da implementação de uma tecnologia de riscos.
Em analogia, acrescentam Sabine Gless, Emily Silverman e Thomas Weigend149 que,
na Internet a ubiquidade dos mecanismos de busca engajados no processamento de dados
tornou-se algo corriqueiro, sendo seus riscos inerentes aceitos pelos milhões de usuários. De
fato, os usuários que encomendam bens e serviços de comerciantes on-line e que buscam
informações com a ajuda de mecanismos de busca possuem ciência de que os agentes
inteligentes armazenam seus dados pessoais e podem, mais tarde, utilizá-los de modo indevido,
violando seus direitos de privacidade, de modo que não há que se falar mais em atribuir o dano
resultante aos direitos pessoais dos usuários ao operador artificial.
Noutro giro, há que se avaliar os benefícios que os autônomos podem oferecer,
sobretudo no que diz respeito à diminuição da mortandade no trânsito. A Organização Mundial
da Saúde150 registrou dados que demonstram o aumento exponencial no número de mortes por
acidentes automobilísticos. No ano 2000 contabilizou-se 1,15 milhões de mortes. Em 2016
alcançou a cifra de 1,35 milhões.
O Departamento de Transportes dos Estados Unidos divulgou relatório que aponta que
neste país, em 2017, 37.133 pessoas morreram em acidentes automobilísticos, sendo 5.977
destes pedestres151. O relatório apontou que 94% dos acidentes considerados graves são

149
GLESS, Sabine; SILVERMAN, Emily; WEIGEND, Thomas, If robots cause harm, who is to blame? Self-
driving cars and criminal liability, New Criminal Law Review, v. 19, n. 3, p. 412–436, 2016.
150
WORLD HEALTH ORGANIZATION, Global status report on road safety 2018, Geneva: World Health
Organization, 2018.
151
U.S. DEPARTMENT OF TRANSPORTATION, Automated vehicles 3.0: preparing for the future of
transportation.
62

causados por fatores ligados diretamente ao motorista, quais sejam, direção sob influência de
álcool ou entorpecentes, exaustão, excesso de velocidade, manobras ilegais ou distração.
A aposta dos VA’s, motivada pela perspectiva de aceitação pela sociedade, está na
estimativa de que pistas tomadas por veículos inteligentes representaria a eliminação do fator
erro humano. A estimativa é que quando o efetivo de veículos inteligentes nas estradas norte-
americanas nos Estados Unidos alcançar a proporção de 10%, haverá 4% menos acidentes de
trânsito, e 1.342 menos mortes anuais, com economia de 1,4 bilhões de dólares em gastos com
saúde. Com a proporção de 90% de VA’s circulando nos Estados Unidos, a redução de
acidentes será de 77%, baixa de 25.842 mortes anuais, e economia de 27 bilhões de dólares
anuais no âmbito da saúde152.
A empresa de prestação de serviços KPMG153 publicou estudo que demonstra a
estimativa de que a presença de autodirigidos implicará o decréscimo de 80% de automotivos
até o ano 2040, ou uma média de 0,009 acidentes por carro. Apesar disso, a empresa destaca
que as fatalidades não serão erradicadas, isso porque fatores como defeitos próprios da
tecnologia, condições climáticas e da estrada, animais, o mal uso da tecnologia ou a não
ativação do sistema no momento da colisão ainda subsistirão154.
Por fim, vale o registro sobre o ano de 2020 no estado da Califórnia, especificamente
entre os meses de janeiro e agosto, centro reconhecido de testes de empresas na área dos
autônomos, tendo anotado apenas 24 acidentes com VA’s. O detalhe é que na grande maioria
das colisões, é que o próprio VA foi alvo de colisão traseira, ou seja, presumivelmente, não
foram os carros inteligentes os causadores do evento155.
Ao que tudo indica, no futuro, os autodirigidos podem se tornar parceiros "normais" de
interação, especialmente quando enxergados como parte do tráfego cotidiano. O encontro com
os autônomos no trânsito então se tornará um risco normal para os seres humanos, e o operador
do carro que dirige sozinho não será mais criminalmente responsável por seu mau

152
LUTTRELL, Kevin; WEAVER, Michael; HARRIS, Mitchel, The effect of autonomous vehicles on trauma and
health care, Journal of Trauma and Acute Care Surgery, v. 79, n. 4, p. 678–682, 2015.
153
KPMG, Automobile insurance in the era of autonomous vehicles.
154
KAJI, Mina; MAILE, Amanda, Distracted driver in fatal 2018 Tesla crash was playing video game: NTSB,
ABC News, disponível em: <https://abcnews.go.com/Politics/distracted-driver-fatal-2018-tesla-crash-playing-
video/story?id=69207784>. acesso em: 17 ago. 2022.
155
STRICKLAND, Grace; MCNELIS, John, Autonomous vehicle reporting data is driving AV innovation right
off the road, Tech Crunch, 2020.
63

funcionamento previsível, mas tão somente quando causar danos por erros de construção,
programação ou operação evitáveis156.
De todo modo, em que pese as prometidas benesses sociais, necessário se faz uma
reflexão crítica sobre a implantação da modelagem computacional no sistema viário, sobretudo
sob o prima das implicações no âmbito da responsabilização penal. É um equívoco cogitar que
questões jurídicas fundamentais seriam apequenadas no contexto do encontro do direito e da
tecnologia. Em verdade, com a expansão de sistemas autônomos elas ressurgem com ainda mais
intensidade. O algoritmo programado para situações de colisões inevitáveis é um exemplo que
levanta tais discussões fundamentais.

2.2 Responsabilidade no direito penal brasileiro

Partindo da premissa de que o objeto dessa pesquisa diz com a responsabilidade penal
em situações envolvendo a IA aplicada aos carros inteligentes, nesse item serão abordados, de
modo perfunctório, os substratos do fato típico. Dentro do conceito analítico do crime, será
estudada a matéria do nexo causal, sobretudo por nele estar inserida a teoria da imputação.
Logo, a abordagem dos institutos localizados no primeiro plano do conceito analítico do crime
se faz necessária para o desenvolvimento do ponto central da proposta do trabalho.

2.2.1 O fato típico como elemento nuclear do crime

O fato típico é a ação humana que se adequa especificamente ao elemento descrito na


lei penal, sendo formado por quatro elementos: a conduta, o resultado, o nexo de causalidade e
a tipicidade157. Seu exame precede ao dos demais elementos do crime, pois sem ele não há
conduta que demande a tutela do direito penal.
A conduta, como seu primeiro elemento, diz com o comportamento humano,
consubstanciado na ação ou omissão do sujeito que dá causa ao fato típico158. Verifica-se,
assim, que o sujeito ativo do crime, ao menos em tese, está representado por uma pessoa
humana. A análise do sujeito, nesse trabalho, requer um aprofundamento diante da realidade
que se impõe com a introdução dos sistemas autônomos.

156
GLESS; SILVERMAN; WEIGEND, If robots cause harm, who is to blame? Self-driving cars and criminal
liability, p. 433.
157
BITENCOURT, Cezar Roberto, Tratado de direito penal: Parte geral (Arts. 1o a 120), 24. [livro eletrônico].
São Paulo: Saraiva, 2018.
158
Ibid.
64

O resultado é o segundo elemento do fato típico, sendo dividido em duas espécies. Como
ensinam Raúl Zaffaroni e José Henrique Pierangeli159, o primeiro é o naturalístico, o qual gera
a modificação física no mundo exterior, sendo esse indispensável nos crimes materiais. Nos
delitos formais, ele é prescindível. Já nos crimes de mera conduta não há resultado naturalístico
descrito no tipo (crime de mera atividade). O segundo é o resultado jurídico ou normativo, no
qual há a lesão ou risco de lesão ao bem jurídico tutelado. A dedução lógica é que todos os
crimes (material, formal e de mera conduta) devem apresentar ao menos o resultado jurídico,
pois não há crime sem lesão ou perigo de lesão ao objeto de proteção do tipo.
O nexo de causalidade caracteriza o terceiro elemento do fato típico e consiste no elo
entre a conduta realizada pelo agente e o resultado provocado. Por fim, o quarto elemento do
fato típico é a tipicidade, que significa a adequação da conduta humana ao tipo descrito em lei,
isto é, a adequação da conduta do agente a uma previsão típica160.

2.2.2 Sujeito ativo do crime: da dogmática tradicional aos entes autônomos

O objetivo deste subitem é o de investigar a possibilidade de responsabilização penal


por atos cometidos por sistemas de inteligência artificial, partindo-se da premissa de que na
dogmática tradicional o preenchimento da autoria de um crime, geralmente, recai na figura de
uma pessoa natural. Em regra, são sujeitos à incidência das normas penais, à responsabilização
penal, as pessoas físicas. O cerne do problema é que a máquina inteligente, a despeito de não
se caracterizar pessoa natural, dispõe de autonomia em alto nível.
O resultado é provocado, em tese, pela conduta de um indivíduo na condição de pessoa
humana. Contudo, a dogmática clássica teve que se curvar a novas tendências, sendo forçada a
aceitar novos campos gravitacionais de responsabilização, assim como ocorreu com a admissão
da responsabilidade penal da pessoa jurídica. É que o fundamento da ciência penal parece não
caminhar mais no sentido de uma ação guiada tão somente por uma vontade biológica. A
ausência de personificação não significa, necessariamente, a reprovação do neo ente pelo
ordenamento jurídico, porquanto figuras que a ordem jurídica não confere categoria de pessoas,
como uma massa falida ou um espólio, não são, por essa razão, juridicamente repelidas pelo
ordenamento161.

159
ZAFFARONI, Eugenio Raúl; PIERANGELI, José Henrique, Manual de direito penal brasileiro. Parte geral,
8a edicão revista e atualizada, 2a tiragem. São Paulo: Ed. Revista dos Tribunais, 2008, p. 406.
160
BITENCOURT, Tratado de direito penal: Parte geral (Arts. 1 o a 120).
161
SOUZA, Eduardo Nunes de, Dilemas atuais do conceito jurídico de personalidade: uma crítica às propostas de
subjetivação de animais e de mecanismos de inteligência artificial, v. 9, n. 2, p. 1–49, 2020, p. 15.
65

A criação de robôs inteligentes, para além da aparência física muito semelhante à de


humanos, somada à sua inata vontade de imitar a mente humana, também são causadores de
danos, o que fomentou o debate em torno da concessão de personalidade jurídica à IA. Com
tudo isso, o grande questionamento que exsurge: seria a inteligência artificial capaz de ser titular
de direitos e deveres?
Na concepção de Peter Asaro162, os agentes autônomos poderão se tornar agentes legais
e morais, e a grande questão a ser confrontada estará na possibilidade de conceder-lhes direitos
conferidos a pessoas, ocasião na qual algumas ou todas as leis de responsabilidade vigentes
poderão, de outro lado, ser-lhes aplicadas, ainda que estejam claros os limites exatos dessa
espécie de entidade. Exemplificando, questiona-se se todas as cópias de um programa fazem
parte do mesmo sujeito legal, ou ainda, quais seriam as funções mais adequadas das sanções,
prestigiando-se a prevenção ou proporcionando uma compensação retributiva.
A circunstância de atribuir personalidade jurídica a robôs assume uma dimensão
importante para responder à pergunta de quem é o responsável por danos causados. Com a
atribuição de personalidade jurídica a sistemas de IA autônomos pode-se pensar em invocar a
sua efetiva responsabilização163. É certo que será possível imputar responsabilidade se a estes
forem reconhecidos direitos e deveres, podendo se falar no gozo de uma personalidade
eletrônica.
Agentes de software não são considerados pessoas. No entanto, eles têm essa capacidade
de atuação autônoma e sua atuação pode muito bem modificar a situação jurídica das pessoas
jurídicas. Além disso, pode-se considerar que os agentes de software têm algo mais ou menos
equivalente a uma “vontade” ou pelo menos o que pode ser chamado de “estados
intencionais”164.
Considerando a análise no plano físico-causal, o sujeito ativo do crime precipuamente
sempre se deu na pessoa humana. É imprescindível a demonstração do elemento subjetivo para
fins de responsabilidade penal, sendo que no ordenamento pátrio não se admite a
responsabilidade penal objetiva, em observância ao princípio da culpabilidade. Ocorre que o
elemento subjetivo só pode identificado no plano da pessoa física.

162
ASARO, The Liability Problem for Autonomous Artificial Agents.
163
COMISSÃO EUROPEIA, Comunicação da comissão ao parlamento europeu, ao conselho europeu, ao
conselho, ao comité económico e social europeu e ao comité das regiões: inteligência artificial para a Europa.
164
FREITAS, Pedro Miguel; ANDRADE, Francisco; NOVAIS, Paulo, Criminal Liability of Autonomous Agents:
From the Unthinkable to the Plausible, in: CASANOVAS, Pompeu et al (Orgs.), AI Approaches to the
Complexity of Legal Systems, Berlin, Heidelberg: Springer Berlin Heidelberg, 2014, v. 8929, p. 147.
66

A responsabilização das máquinas, máxime se enxergadas sob o ângulo de seu


autoaprendizado, não se mostra viável prima facie. Nesse diapasão, confira-se o pensamento
de Betttiol165:

Apenas o homem pode agir no campo penal, afirma que o sujeito capaz de ação é
apenas o homem, entendido como entidade psico-física, como entidade que pode
cumprir uma ação animada por um processo psicológico finalístico, ainda que não
passível de reprovação.

Hallevy aponta que existe o entendimento de que, não obstante um algoritmo poder
apresentar vários recursos e qualificações, inclusive superiores aos dos seres humanos, tais
características ou qualificações não se mostram suficientes para fins de imputação de
responsabilidade criminal166.
Com efeito, o delito pressupõe a conduta humana, naquilo que se pode concluir que
somente a pessoa física, em conformidade com a dogmática clássica, é quem pode ocupar a
posição de sujeito ativo do ilícito penal, seja na qualidade de autor ou partícipe. Isso porque a
conduta se revela como produto peculiar da pessoa humana.
Tanto é assim que, o finalismo de Hans Welzel - sistema adotado pelo atual código penal
brasileiro -, em um conceito analítico de crime requer a conduta humana direcionada a um
fim167. Para além do que a imputabilidade, assim como ela é desenvolvida no sistema finalista,
por depender da capacidade mental para a compreensão do caráter ilícito da conduta, somente
seria outorgada ao agente artificial diante da comprovada aquisição dessa habilidade.
Todavia, a leitura do sujeito ativo passa por transformações compelidas pelo surgimento
de novas relações jurídico-sociais. A concepção absoluta de que somente o homem é sujeito
ativo vem sendo flexibilizada por novas tendências, em se que inclui também a pessoa jurídica,
afastando a diretriz humanística da responsabilidade penal.
Assim, o direito penal vai se amoldando a uma etapa da criminalidade voltada a crimes
específicos, sob pena de não se alcançar o verdadeiro delituoso. Em que pese posições mais
inflexíveis, como a de Raúl Zaffaroni e José Henrique Pierangeli168 - que por repudiarem a
teoria da ficção, afirmam que “a pessoa jurídica não pode ser autora de delito, porque não tem
capacidade de conduta humana no seu sentido ôntico-ontológico” -, a ciência jurídica penal é

165
BETTIOL, Giuseppe, Direito Penal, São Paulo: Revista dos Tribunais, 1996, p. 275–277.
166
HALLEVY, Gabriel, The basic models of criminal liability of AI systems and outer circles, SSRN Electronic
Journal, 2019, p. 9.
167
BITENCOURT, Tratado de direito penal: Parte geral (Arts. 1 o a 120), p. 362–364.
168
ZAFFARONI; PIERANGELI, Manual de direito penal brasileiro. Parte geral, p. 355–356.
67

convidada a romper com a rigidez de um tratamento pautado em dogmas tradicionais, guiando-


se pela alteração de seus pilares, no afã de acompanhar as tendências tecnológicas e político-
sociais169.
Malgrado a pessoa humana ser a pedra angular no assunto responsabilização penal, a
pessoa jurídica entrou em cena especialmente no âmbito dos crimes ambientais. Inclusive sua
responsabilização está prevista no Texto Constitucional, no parágrafo 5º do seu artigo 173170,
bem como no artigo 225, § 3º, CF/88171.
A aceitação da responsabilidade da pessoa jurídica, por óbvio observando as
particularidades na aplicação da pena, retrata a factibilidade da dogmática, por vezes, ter que
enfrentar e aceitar novos desafios para se adequar à evolução das relações jurídicas. Por isso é
que teoria teve que deixar de exigir tão somente a figura humana no polo ativo da criminalidade,
parecendo preocupar-se mais com aquele (ou aquilo) que possa ofender um bem jurídico.
Imperioso reforçar a necessidade de se harmonizar as normas de responsabilidade penal gerais
e as excepcionais172. Veja-se que as sanções previstas às pessoas jurídicas carregam
peculiaridades que condizem com sua condição institucional, sob pena de inócua ou
desarrazoada previsão legal.
A responsabilidade das pessoas coletivas, na condição de ficção legal, é desenhada pela
política criminal adotada pelo Estado173. A instrumentalização da pessoa coletiva com a
finalidade de evadir a responsabilidade do homem por detrás, bem como o impasse na
individualização desse sujeito, deram origem à responsabilidade penal das pessoas coletivas.
Todavia, essas reflexões não se mostram de fácil transposição para a esfera dos carros
inteligentes174.

169
ALVES, Natália Gontijo, Culpabilidade penal no âmbito da inteligência artificial: a responsabilização da pessoa
jurídica no uso dos veículos autônomos., VirtuaJus, v. 6, n. 11, p. 193–205, 2021, p. 194.
170
BRASIL, Constituição da República Federativa do Brasil de 1988. Art. 173, § 5º A lei, sem prejuízo da
responsabilidade individual dos dirigentes da pessoa jurídica, estabelecerá a responsabilidade desta, sujeitando-a
às punições compatíveis com sua natureza, nos atos praticados contra a ordem econômica e financeira e contra a
economia popular.
171
Ibid. Art. 225, § 3º As condutas e atividades consideradas lesivas ao meio ambiente sujeitarão os infratores,
pessoas físicas ou jurídicas, a sanções penais e administrativas, independentemente da obrigação de reparar os
danos causados.
172
PRADO, Luiz Regis, Direito penal do meio ambiente: crimes ambientais, 7. ed. Rio de Janeiro: Forense,
2019, p. 116–118.
173
LINA, Could AI agents be held criminally liable: artificial intelligence and the challenges for criminal law,
p. 688.
174
DIAS, Jorge de Figueiredo, Direito Penal. Parte Geral: questões fundamentais - a doutrina geral do crime,
2. ed. Lisboa: Coimbra, 2007, p. 346.
68

Há relevante distinção entre as pessoas coletivas usuais e a eventual personalidade


jurídica que surge a partir do veículo autônomo, porque esse não é dependente de demais
indivíduos, para além de sua aptidão para consumar delitos. É que a admissão do autodirigido
como agente imputável esbarra em limitações. As pessoas coletivas, na qualidade em que se
enquadram hoje nos ordenamentos jurídicos, não abrem espaço para a subsunção dessa nova
figura, cabendo discussão sobre a modalidade da personalidade jurídica outorgável aos sistemas
autônomos.
As pessoas coletivas são consideradas uma construção legal, tendo em seus bastidores
a junção de figuras humanas. A viabilidade de se atribuir personalidade jurídica ao veículo
autônomo, contudo, requer uma mudança de paradigma, porque deixa de existir o componente
humano que a pessoa legal fictícia exige para as pessoas coletivas convencionais175.
Nessa configuração, a responsabilidade da pessoa coletiva passaria a advir de atos
próprios, não sendo mais indireta. Os defensores da responsabilização do autodirigido se valem
da analogia entre as pessoas coletivas e o sistema autônomo, conferindo personalidade jurídica
diretamente ao veículo com o propósito de suplantar a complexa caracterização de agente em
termos penais, figura que via de regra só se empresta a pessoas naturais176.
A capacidade de autodesenvolvimento e de modificar seus impulsos internos
independentemente de estímulos exteriores, particularmente dos humanos, torna-os suscetíveis
de desempenhar suas tarefas moralmente. Assim como ocorre com menores ou os animais, seria
possível atribuir reprovabilidade operacional aos sistemas autônomos, mas não a criminal, a
qual se mantém reservada aos seres humanos.
Assim é que a análise voltada aos sistemas de IA requer um olhar mais atento às suas
peculiaridades. Os veículos inteligentes na qualidade de agentes computacionais são preparados
para extrair uma grande quantidade de dados, para além da capacidade de interpretá-los de
acordo com padrões predeterminados, podendo, por fim, reagir de modo autônomo aos dados
processados. Essa última característica de reação lhe permite, ainda, um armazenamento de
informações que lhes capacita para futuros processos decisórios177.

175
WEIN, Leon E, The responsibility of intelligent artifacts: toward an automation jurisprudence, Harvard
Journal of Law and Technology, v. 6, p. 103–154, 1992, p. 109.
176
HALLEVY, Gabriel, Unmanned Vehicles – Subordination to Criminal Law under the Modern Concept of
Criminal Liability, Journal of Law, Information & Science, v. 21, n. 200, 2012, p. 12.
177
GLESS, Sabine; WEIGEND, Thomas, Agentes inteligentes e o direito penal, in: Veículos autônomos e direito
penal, São Paulo: Marcial Pons, 2019, p. 39.
69

Ocorre que esse desenho não parece se subsumir integral e genuinamente aos
pressupostos de responsabilização penal nos moldes da dogmática clássica do direito criminal.
A responsabilidade particularizada, típica daquela organicidade clássica, perde espaço no
ambiente de desenvolvimento tecnológico. A complexidade de relações entre os autores
envolvidos dificulta a identificação do responsável imediato ou mediato. Há um somatório de
condutas que realizam um resultado específico. Ademais, a existência de um agente tecnológico
– o sistema autônomo – tem o condão de impulsionar ainda mais essa imprecisão.
Nesse contexto, por ser a personalidade jurídica instituto que carrega função substancial
de realocação de riscos, recursos, direitos e obrigações, a sua criação com relação às máquinas
pode representar disrupção do ponto de vista de distribuição das responsabilidades no
ordenamento, sendo de se indagar qual a real necessidade de construir uma inovação jurídico-
doutrinária como essa. Surge o problema de dispersão de responsabilidades, no que proporciona
dificuldades que justificam enorme esforço em se atribuir responsabilidade a alguém, ou até
mesmo a algo (como o agente computacional)178.
Em face do atual nível de algoritmos inteligentes utilizados, reconhece-se um cenário
em que as decisões com base neles são tomadas por meio de um processo consciente e que, em
razão disso, seria necessário pensar na questão da personalidade jurídica dos robôs. Contudo,
há quem defenda que nem nas aplicações com modelagem mais complexa e que considerem
em seu modelo variáveis vinculadas a uma personalidade que lhes venha a ser atribuída, ainda
assim, estar-se-á falando em um algoritmo que toma decisões e executa ações com base em um
mundo que foi modelado e projetado por um especialista, seja pela explicitação de regras, seja
pela criação de massas de dados de treinamento para a sua rede neural.
Todavia, observa-se que a literatura internacional não é uníssona no que diz respeito à
possibilidade de responsabilização penal por atos cometidos por sistemas de inteligência
artificial. Uma parcela da doutrina defende a efetivação da responsabilização penal, inclusive
apontando modelos de responsabilização. Em contrapartida, demais especialistas não
visualizam essa possibilidade com facilidade, mormente pela inadequação da imputação de
responsabilidade a uma máquina inteligente na ordem criminal vigente. Não se acredita nem
mesmo que sistemas digitais algum dia venham a ter tal capacidade179.

178
GUEDES; MACHADO, Veículos autônomos inteligentes e a responsabilidade civil nos acidentes de
trânsito no Brasil: desafios regulatórios e propostas de solução e regulação, p. 64.
179
CICUREL, Ronald; NICOLELIS, Miguel, O cérebro relativístico: como ele funciona e por que ele não pode
ser simulado por uma máquina de Turing, São Paulo: Kios Press, 2015.
70

Portanto, responsabilizar o sistema de inteligência artificial que praticou ato definido


como crime, assim como, programadores e empresas criadoras do sistema de inteligência, não
se afigura tarefa simples, assim como é a possibilidade da imposição de reparação civil. Para
Sabine Gless e Thomas Weigend a figura do carro robotizado não se mostra imputável, porque
em que pese se mover para a realização de um fim, a liberdade não lhe é intrínseca180:

Pode-se dizer que, porém, falta aos agentes inteligentes elementos essenciais do ser-
pessoa: pode ele até aprender e tomar decisões – imprevisíveis para os demais –,
todavia, não pode se tornar consciente de sua própria liberdade, e muito menos
entender-se como portador de direitos e deveres da sociedade. Agentes inteligentes
podem realizar determinadas tarefas de forma automática, mas seguem – mesmo
quando capazes de aprender –, em última instância, as opções pré-programadas e não
se auto atribuem responsabilidade por seu comportamento.

Sob o ponto de vista causal, não há tantas exigências no que diz respeito ao controle da
vontade humana. A voluntariedade só é negada quando o corpo humano reage
automaticamente, como por exemplo em casos de atos reflexos incontroláveis, ou quando ele é
usado como objeto por outros homens (A joga B sobre C). É o que ocorre com máquinas simples
controladas pelos homens, como um aspirador de pó ou um carro tradicional. Contudo, isso não
é o que acontece perante agentes inteligentes que, por disporem do processo de aprendizagem
automática, fogem do controle humano perene, no que suas decisões podem ser consideradas
voluntárias, sob o ponto de vista da teoria causal da conduta181.
A teoria finalista, contudo, tornam a dirigibilidade finalística o critério central da
conduta humana, diversamente da teoria causal. Assim, somente quando e porque a conduta
humana é expressão de uma vontade do agente dirigida a um propósito é que ela se torna
penalmente relevante. Com relação aos agentes inteligentes, em razão de sua capacidade de
aprender, podem definir de modo autônomo as etapas intermediárias de seus propósitos.
Assim, é que em um nível mais elevado, um drone armado pode identificar inimigos e
os combater. “É uma questão de avaliação (externa), se se admite que um agente inteligente
toma suas decisões baseado em "choices" já previamente programadas ou se ele faz
"judgements" - ou seja, valorações próprias”182. Mesmo nesse último caso não significa que o
sistema fixa metas deliberadamente, pois não é capaz de reconhecer por si só o que faz e ter a
ciência de que seu comportamento é socialmente significativo. Se os agentes inteligentes têm
ou podem adquirir o estado de autoconsciência é objeto de discussão no âmbito inteligência

180
GLESS; WEIGEND, Agentes inteligentes e o direito penal, p. 45.
181
Ibid., p. 47–48.
182
Ibid.
71

artificial, não havendo resposta até então. Afinal, no atual estado da arte, os agentes inteligentes
desconhecem a relevância de suas ações.
Com efeito, a questão acerca da imputação penal dos sistemas inteligentes acaba se
tornando uma questão de definição. Assim é que, sob a perspectiva causalista, segundo a qual
a conduta representa qualquer movimento corporal voluntário, sujeitos artificialmente
inteligentes podem ser vistos como seres que praticam condutas. Segue-se a lógica proporcional
de quanto maior a densidade substancial dada ao conceito de conduta, e quanto maior a
determinação finalística autoconsciente, menor a possibilidade de atender aos pressupostos da
capacidade de conduta por parte dos sistemas inteligentes183.
Vale destacar, que a Resolução do Parlamento Europeu, que contém recomendações à
Comissão sobre disposições de Direito Civil sobre Robótica, propõe a criação de uma
personalidade jurídica própria às inteligências artificiais, chamada de e-personality, com a
promulgação de um novo diploma para sua regulação. Todavia, essa sugestão é criticada por
ser eminentemente patrimonialista, elaborada tendo em conta somente a viabilização da
reparação das vítimas de acidentes, furtando-se de uma discussão mais aprofundada e
abrangente sobre eventual estatuto jurídico que incida sobre a IA184.
Hallevy defende que o direito é compelido a oferecer soluções adequadas para a prática
de infrações cometidas por entidades de IA. Para tanto, ele desenvolve três modelos para lidar
com esses fenômenos, os quais podem ser aplicados de maneira isolada ou combinados entre
si185.
O primeiro é o modelo de responsabilidade da perpetração por outro (perpetration-by-
another liability model). Basicamente informa que os sistemas, por não haver como considerá-
los autores de um crime, são comparados às crianças ou incapazes. Logo, o responsável criminal
é aquele que o manipulou para fins delituosos. No caso dos sistemas, recairia na pessoa do seu
desenvolvedor ou de seu usuário. A IA representaria mero instrumento para o cometimento do
delito, sendo a consequência legal a responsabilidade do desenvolvedor ou do usuário,
isentando o próprio sistema186.
O segundo, modelo de responsabilidade de prováveis e naturais consequências (natural
probable consequence liability model), propõe que o desenvolvedor possui um profundo

183
Ibid.
184
SOUZA, Carlos Affonso, O debate sobre personalidade jurídica para robôs, Jota, 2017.
185
HALLEVY, The basic models of criminal liability of AI systems and outer circles, p. 1.
186
Ibid., p. 1–4.
72

envolvimento nas funções da máquina sem, contudo, ter idealizado a prática de fato típico.
Modelo servil para casos em que se reconhece a negligência, pois o sistema desvia do plano
original e comete uma infração, considerada essa como consectário natural e provável da
atividade desenvolvida pelo programador187.
Nesse modelo, há duas soluções quanto à responsabilização perante o ato. Assim, acaso
o sistema de IA tenha atuado como um agente inocente por não saber nada sobre a proibição
criminal, não é criminalmente responsável pelo crime que cometeu. Porém, se o sistema não
atua como um agente inocente, além da imputação ao programador ou do usuário, o sistema
será criminal e diretamente responsável pela ofensa188.
Por último, o modelo de responsabilidade direta (direct liability model), o qual não
assume qualquer dependência do sistema de IA em um programador específico, concentrando-
se no próprio sistema de IA e permite derivar a responsabilidade criminal dos círculos externos
com mais precisão. Esse último modelo visa fornecer um quadro teórico para uma equivalência
funcional entre entidades de IA e humanos para fins de responsabilidade criminal, de modo que
a máquina pode cometer a infração de modo comissivo ou omissivo189.
Segundo o autor, a responsabilidade direta faz sentido porque a máquina dispõe de
conhecimento face à recepção sensorial e à compreensão dos dados. No que diz respeito à
intenção, ela pode ser programada para propósito ou objetivo específico e diligenciar nesse
sentido. Obstáculo maior é o confronto com os sentimentos humanos, inalcançáveis pelo robô,
o que não inibe a atividade delituosa por inteiro porque nem todos os crimes reclamam
sentimentos para serem intentados, sendo uma questão de ajustes tornar possível a
responsabilização direta dos sistemas190.
O contra-argumento está na imperfeição daquilo que diz respeito ao elemento subjetivo,
sob a perspectiva da teoria do delito. A rigor, o sistema não dispõe de vontade, particularidade
do ser humano. De mais a mais, os sistemas de IA não dispõe de consciência e moral,
imprescindível para a reprovabilidade de seu comportamento, tornando-o incapacitado para se
sujeitar aos comandos jurídicos inscritos nas normas. Aliás, resta esvaziado o fundamento ético
da figura penal, tornando-se também ineficaz a sua função de censurabilidade e prevenção.

187
Ibid., p. 4–8.
188
Ibid., p. 8.
189
FREITAS; ANDRADE; NOVAIS, Criminal Liability of Autonomous Agents, p. 152.
190
HALLEVY, The basic models of criminal liability of AI systems and outer circles, p. 8–15.
73

Apenas o ser humano é capaz de executar uma ação com consciência do seu fim. O robô
não desencadeia comportamento voluntário psiquicamente dirigido a um fim, muito menos age
com culpa. Considerar sujeito ativo um robô inteligente seriam necessários alterações
estruturais em sede da teoria do crime.
Por outro ângulo, reconhece a inverossimilhança em relação a uma imputação subjetiva
do dano por ser realizado via programas altamente complexos. Além disso, o elemento
subjetivo dos tipos penais, engendrado para delimitar a imputação torna-se óbice à
responsabilidade quando o ilícito é provocado pelo sistema autônomo191.
Há críticas feitas às modelagens apresentadas por Hallevy, exercidas, sob o influxo de
argumentos metajurídicos, de índole filosófica, contestando a responsabilização do sistema de
IA. Para esses, a conduta típica objetivamente praticada não lhe comporta significado algum.
Atropelar uma pessoa é a mera execução de uma tarefa consignada em um algoritmo, de modo
que a vontade não lhe é peculiar. A crítica se volta também à comparação do sistema inteligente
a um inimputável, porque ainda que presente a incapacidade, trata-se de um ser humano192.
No domínio da literatura brasileira, são encontrados fartos estudos apontando a
possibilidade de responsabilização na esfera cível, contudo no âmbito criminal a discussão
ainda é incipiente. Verifica-se que a doutrina civilista enfrenta menos dificuldades e consagra
de forma mais clara a possibilidade de responsabilização civil de um sistema autônomo. A
reparação patrimonial pelo dano sofrido é o objetivo principal, concentrando-se a atenção no
dano causado à vítima, e não na conduta do ofensor.
Caitlin Mulholland193 salienta, de um lado, a possível solução apelando para o instituto
da responsabilidade civil objetiva do sistema de IA, a partir da constituição da personalidade,
capacidade de direito e patrimônio autônomo, situação análoga àquela imposta às pessoas
jurídicas. Noutro giro, discorre sobre eventual aplicação da responsabilidade civil subjetiva do
programador, a fim de que o desenvolvedor seja responsabilizado pelo dano:

por culpa na elaboração dos algoritmos que serviram de insumo inicial para o
desenvolvimento dos processos de autoaprendizagem da IA. Por esta tese, haveria um
ônus desproporcional a ser enfrentado pelo programador, que seria, ao final,
responsabilizado por um dano ocasionado sem que fosse possível a ele,
antecipadamente, interferir no aprendizado do sistema e na sua capacidade decisória.
Ao mesmo tempo, a tese seria também facilmente afastada pela impossibilidade de

191
SOUSA, Não fui eu, foi a máquina: teoria do crime, responsabilidade e inteligência artificial, p. 78.
192
DIVINO, Sthéfano, Responsabilidade penal de Inteligência Artificial: uma análise sob a ótica do naturalismo
biológico de John Searle, Revista Brasileira de Ciências Criminais, v. 171, n. 28, p. 153–183, 2020, p. 178.
193
MULHOLLAND, Responsabilidade civil e processos decisórios autônomos em sistemas de inteligência
artificial (IA): autonomia, imputabilidade e responsabilidade, p. 338–347.
74

prova de culpa do programador na ocasião do dano, considerando o desenvolvimento


autônomo da tecnologia. Por outro lado, uma complementação possível a esta tese
seria a de que o empregador do programador seria objetivamente responsável pelos
danos causados pela IA autônoma.

Com tudo isso, a agenda político-criminal, no compromisso de individualizar a


responsabilidade penal, defronta-se com a necessidade de romper com a rigidez de definições
tradicionais da dogmática penal. Uma das árduas tarefas está no dimensionamento da
configuração da personalidade do ente autônomo, bem como das consequências típicas na
esfera do direito criminal194.
Paz Mercedes Aguado aposta na possibilidade de um dia se falar em culpabilidade dos
agentes artificiais, a depender do nível de autonomia e valoração dos respectivos
comportamentos que possam alcançar195. De qualquer maneira, o que se pode concluir é que a
conduta do agente de IA, por ora, é objeto tão somente de discussão teórico-filosófica,
vislumbrando-se de modo claro, ao menos por enquanto, apenas a responsabilidade do humano,
e não a do robô196.

2.3 Breve olhar para as justificantes e exculpantes

Importante notar que há especialistas que sugerem uma análise dos algoritmos de
acidente sob a perspectiva das justificantes e das exculpantes. Para esse trabalho, essa sugestão
literária será brevemente estudada, já que o seu cerne está na teoria da imputação objetiva,
fazendo-se, portanto, o recorte metodológico necessário à pesquisa. Logo, uma efêmera análise,
percorrendo caminhos dogmáticos tradicionais, na tentativa de resolverem situações de vida
contra vida surgidas com os programas inseridos nos carros autônomos.
Ressalta-se que são categorias/institutos que ganham novo fôlego em face dos
autônomos, que passarão pela mesma discussão que passaram os crimes culposos com o
aumento da circulação de veículos na metade do século passado197.

194
DIAS, Jorge de Figueiredo, O papel do direito penal na protecção das gerações futuras, Boletim da Faculdade
de Direito da Universidade de Coimbra, n. especial, p. 1123–1138, 2003.
195
DE LA CUESTA AGUADO, Paz Mercedes, Inteligencia artificial y responsabilidad penal, Revista Penal
México, n. 16–17, p. 51–62, 2019.
196
PIRES; SILVA, A responsabilidade civil pelos atos autônomos da inteligência artificial: notas iniciais sobre a
resolução do parlamento europeu, p. 246–247.
197
ENGLÄNDER et al, p. 20.
75

2.3.1 Problemas ao plano das causas de justificação

Veja-se, inicialmente, ao plano das causas de justificação, sob o prisma do conflito de


deveres e do estado de necessidade. Situações complexas são discutidas há tempos, e os critérios
tradicionais sempre se apresentaram em busca de soluções. Exemplos clássicos são o do abate
de aeronaves conduzidas por terroristas e do operador de trilhos, nos quais, o cerne da discussão
é sempre o dilema do conflito de vida(s) contra vida(s).
A análise sob o viés da justificação se revela útil, pois toda vez que a vida de um inocente
é sacrificada para o salvamento de uma pluralidade de pessoas resta caracterizado o ilícito, isso
porque “não se agride para salvar”. Há um dever de abstenção no lugar de uma indevida
intervenção na esfera do bem jurídico de um inocente198.
Luís Greco propõe um caminho que perpassa uma “consideração de
complementariedade” entre aquilo que traz uma previsão geral - a definição do risco permitido
-, e aquilo que deve ser aplicado ao caso concreto: o conflito de deveres justificante 199. Assim,
no plano do risco permitido, em termos quantitativos, opta-se pelo dano menor, porque o
programador não presencia a situação de conflito, diferenciando-se, portanto, do autor do
“ataque” diretamente imbricado ao acidente. O desenvolvedor não tem relação direta com o
terceiro, o que não se coaduna com o princípio de prevalência da omissão. Greco então propõe
a combinação entre a exclusão da ilicitude (com o risco permitido) e conflito de deveres
justificante, autorizando-se o programa a optar pelo dano mínimo no contexto do acidente,
sufragando o critério quantitativo200.
Wagner Marteleto refuta a combinação entre o risco permitido e o conflito de deveres
proposta por Luís Greco, por entender que surge um conflito entre dois deveres de ação.
Segundo ele, acaso o veículo se mantenha na rota programada haverá uma omissão (sob a
perspectiva do desvio), ao passo que se desvia atingindo um terceiro em benefício dos que
estavam na rota natural, configura-se verdadeira ação, não havendo que se falar em conflito de
deveres justificante201.

198
MARTELETO FILHO, Wagner, Agentes híbridos e autônomos: alguns problemas de imputação objetiva e
subjetiva, justificação e desculpa, Anatomia do Crime, v. 12, p. 87–105, 2021, p. 95.
199
O instituto exógeno do conflito de deveres será mais detalhado no item seguinte, por questões didáticas.
200
GRECO, Luís, Autonome Kraftfahrzeuge und Kollisionslagen, in: KINDHÄUSER, Urs et al (Orgs.),
Festschrift für Urs Kindhäuser zum 70. Geburtstag, 1. Auflage. Baden-Baden: Nomos, 2019, p. 167–176.
201
MARTELETO FILHO, Wagner. Agentes híbridos e autônomos: alguns problemas de imputação objetiva e
subjetiva, justificação e desculpa. In Anatomia do Crime 12, 2020, p. 95.
76

Entretanto, Wagner Marteleto se antecipa e diz que o contra-argumento de Luís Greco


seria no sentido de que, quanto ao programador, por estar distante do evento do evento, dificulta
a distinção entre ação e omissão, não havendo, portanto, violação do dever de omitir. A tréplica
de Marteleto seria no sentido de que não se trata de uma questão de distanciamento, e sim de
antecipação do fato. O programa serve para a situação dilemática presente, sendo que apenas a
solução é antecipada, característica típica do programa.
Para Matheus Caetano se mostra temeroso admitir o reconhecimento antecipado da
licitude da programação predeterminando o salvamento do usuário do carro autodirigido em
prejuízo da também predeterminada fatalidade com relação à vítima202.
Já na opinião de Thomas Weigend, o fabricante se encontra em situação que pode ser
descrita como uma colisão de dois deveres de omissão: de acordo com a proibição geral de
matar, ele não deve programar o carro para matar X, e nem para que o carro atropele e mate o
pedestre Y203.
No ponto, verifica que, de igual modo, não se cogita aspectos da “comunidade de
perigo” (Gefahrengemeinschaft) em tais cenários, porque o pedestre que não está na rota do
veículo não corria risco algum, e por isso não se fala em “igualar chances de salvamento” em
relação a ele, simplesmente porque ele não necessita ser salvo. Recorda-se que nas comunidades
de perigo a autopreservação é uma constante inerente à sua dogmática.
Matheus Caetano corrobora que as situações de colisão rodoviária decorrentes de
veículos inteligentes não podem ser incluídas nas comunidades de perigo, nem mesmo nas de
destino ou de tragédia. Para o autor “não podem ser compreendidos nem como estado de
necessidade, nem como colisão de deveres, embora apresentem alguns elementos das chamadas
comunidades de perigo, mas não se compatibilizam com nenhuma delas”204.
Forçoso concluir que as situações-dilemáticas encontram dificuldades de serem
resolvidas consoante os caminhos tradicionais, mas caso se entenda de modo contrário sempre
há que se fazer com respeito ao princípio da imponderabilidade da vida humana, para além da
prioridade que se deve conferir ao dever de omissão. Isso principalmente porque a ninguém é
dado o direito nem o dever de sacrificar a vida de um terceiro alheio ao fato para salvar um
número maior de vidas205.

202
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas, p. 187.
203
WEIGEND, Direito de necessidade para carros autônomos?, p. 117.
204
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas.
205
MARTELETO FILHO, Wagner. Agentes híbridos e autônomos: alguns problemas de imputação objetiva e
subjetiva, justificação e desculpa. In Anatomia do Crime 12, 2020, p. 97.
77

Diante das exposições literárias, constata-se que não há uma literatura sólida abarcando
os fundamentos que pudessem firmar a licitude do algoritmo de acidente. Há argumentação por
sua admissibilidade pelo ordenamento vigente. Assim, com base em uma suposta licitude é que
a doutrina se propõe a sustentar o estado de necessidade ou a colisão de deveres por meio dos
algoritmos selecionadores de vítimas.
Sob um outro ângulo, parcela da doutrina simpatiza com a ideia de que a programação
voltada para as situações emblemáticas deve prezar pelo dever de omissão, não havendo que se
prestigiar a vida do passageiro do veículo em detrimento da vida de eventual pedestre. Wagner
Marteleto sintetiza essa linha, afirmando que a “antecipação do problema, ao se converter a
solução no algoritmo, não altera a ordenação de prioridade entre os deveres de omitir e de
agir”206.

2.3.1.1 Conflito de deveres

Inicialmente, é preciso anotar que o instituto da colisão de deveres é figura que não
possui previsão no Brasil, nem mesmo na Alemanha, berço das discussões que dizem respeito
aos VA’s. Porém, o instituto está previsto no Código Penal de Portugal 207. No Brasil, seguindo
o modelo alemão, pode ser considerada uma causa supralegal de exclusão da ilicitude.
Nos ensinamentos de Coca Vila208, o instituto prega que o agente tem de cumprir dois
ou mais deveres de agir penalmente relevantes, contudo, ele apresenta condições de satisfazer
apenas um deles. O exemplo clássico é o do pai que está diante de seus dois filhos se afogando,
mas só dispõe de condições para salvar apenas um deles. Logo, a satisfação de um dever
implica, inevitavelmente, ao descumprimento do outro.
Sua invocação gera raras controvérsias, mas recentemente ela voltou ao centro das
discussões para solução envolvendo justamente os veículos autônomos e para amparar a
conduta de médicos que fazem triagem para a ocupação de leitos (inclusive em razão da
pandemia).

206
MARTELETO FILHO, Agentes híbridos e autônomos: alguns problemas de imputação objetiva e subjetiva,
justificação e desculpa, p. 97.
207
PORTUGAL, Código Penal de Portugal. Decreto-Lei n.o 48/95. Art. 36.º 1 - Não é ilícito o facto de quem, em caso
de conflito no cumprimento de deveres jurídicos ou de ordens legítimas da autoridade, satisfizer dever ou ordem de valor igual
ou superior ao do dever ou ordem que sacrificar. 2 - O dever de obediência hierárquica cessa quando conduzir à prática de um
crime”.
208
COCA VILA, Ivó; SILVA SÁNCHEZ, Jesús-María; ROBLES PLANAS, Ricardo, La colisión de deberes en
derecho penal: concepto y fundamentos de solución, Barcelona: Atelier, Libros Jurídicos, 2016, p. 29.
78

Um dos critérios tradicionais para lidar com esses casos de situações de salvamento é a
aplicação do princípio de que prevalece o dever de omissão em relação à ação. Assim, tem-se
um ilícito toda vez que a vida de um inocente for sacrificada para o salvamento de uma
pluralidade de pessoas. Por isso, fala-se na prevalência do dever de omissão em relação à ação,
principalmente quando a questão envolver “vida contra vida”209.
Thomas Weigend traz duas diretrizes aqui nesse ponto. Primeiro, o dever de omissão
(“Não mate!”) é mais importante do que o dever de ação (“Salve A e B”). Em segundo, toda
vida humana possui um valor supremo e não deve ser compensada com outros valores (ou
outras vidas)210.
Matheus Caetano, diante a análise da responsabilidade penal dos autônomos sob o
prisma do instituto da colisão de deveres, conclui que o instituto também não se coaduna como
possível conformação jurídico-penal aos algoritmos. Isso porque lhe faltaria, pelo menos, um
elemento essencial, qual seja o dever de garante. É que aqui se falha na tentativa de aproximar
o algoritmo de acidente à clássica hipótese do controlador de trilhos211.
Por outro ângulo, Luís Greco defende que a colisão de deveres é uma alternativa a ser
reputada. É que quando se trata do estado de necessidade, todo agente atua com uma ação típica
na esfera jurídica de outrem. Entretanto, não é o que ocorre na colisão de deveres, dado que
nela não se discute o que pode ser atingido, mas sim a quem deve ser aproveitado a chance de
salvamento e a quem, inversamente, não. No exemplo do afogamento, apenas um dos filhos
possui a chance de salvamento, enquanto o outro não. O fundamento jurídico para essa
justificante consiste no fato de que a lei não pode exigir o impossível212.
Nos dizeres de Luís Greco, importando-se essa excludente de ilicitude para a
programação dos veículos governados pela inteligência artificial nas situações dilemáticas,
verifica-se que ela se perpetua não na ideia de que o carro será programado para matar, mas
porque será programado para desfrutar a melhor chance de salvamento. Assim, na ocasião do
acidente, seria aceitável o perecimento de alguém, pois ninguém perde um bem que detinha,
mas tão somente lhe é negada uma chance de salvamento.

209
MARTELETO FILHO, Agentes híbridos e autônomos: alguns problemas de imputação objetiva e subjetiva,
justificação e desculpa, p. 95.
210
WEIGEND, Direito de necessidade para carros autônomos?, p. 112.
211
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas, p. 177.
212
GRECO, Luís, Veículos autônomos e situações de colisão, in: Veículos autônomos e direito penal, São Paulo:
Marcial Pons, 2019, p. 197.
79

2.3.2 Problemas ao plano da desculpa

Afastadas as justificantes, cabe analisar o comportamento do carro autônomo nas


situações de conflitos sob o plano do estado de necessidade exculpante, enquanto excludente
de culpabilidade. Significa averiguar se há a situação de conflito que possa acobertar o
desenvolvedor com alguma espécie de eximente. Nas palavras de Wagner Marteleto,
“superadas as possíveis exclusões de responsabilidade aos níveis do tipo objetivo e das
justificantes, cabe aferir se há algum espaço para desculpa”213.
Rememora-se que até os tempos atuais o antigo instituto do estado de necessidade
enfrenta dificuldades no que diz respeito ao conflito entre bens de igual valor. Outrossim, é
tarefa árdua arquitetar um algoritmo que fixe escolhas prévias sobre quem morrerá e quem
sobreviverá em situações inevitáveis de colisão, sobretudo em uma ordem jurídica que não
consente com a ofensa ao bem jurídico de um terceiro inocente, máxime se se trata de sua vida.
Portanto, a grande dificuldade é visualizar se seria possível conceber um efeito
antecipado do estado de necessidade. Sob o ângulo do programador ou do fabricante, ele não
se encontra diretamente envolvido na situação de “conflito existencial”, de modo que lhe
faltaria então o suporte à desculpa. Ou seja, faltaria a ratio da desculpa exatamente pela ausência
de um efetivo conflito existencial por parte do desenvolvedor.
Sob o ângulo do usuário do autodirigido, necessário se faz raciocínio diverso. Afinal
não possui o controle do veículo, porém está diretamente implicado na situação fática. Primo
oculi, até se vislumbraria a existência da desculpante, mas sua aplicação enfrentaria um óbice.
É que, em razão de não possuir controle sobre os atos envolvidos, sua responsabilidade já estaria
previamente afastada do tipo objetivo. A explicação é simples, o único ato voluntário executado
pelo usuário foi o de ligar o veículo, de modo que a partir deste momento, consoante as
características do autodirigido, deixa de ser o operador (o motorista), “sendo um mero elo causal
naturalístico entre a condução programada e o resultado”214.
Eric Hilgendorf acrescenta que no sistema penal, não é aceitável a responsabilidade
objetiva, naquilo que para se responsabilizar alguém (o condutor), pressupor-se-ia a atribuição

213
MARTELETO FILHO, Agentes híbridos e autônomos: alguns problemas de imputação objetiva e subjetiva,
justificação e desculpa, p. 98.
214
Ibid., p. 99.
80

a ele de um erro. Em assim sendo, não haveria como responsabilizar o motorista, porque estaria
na condição de vítima, e não de autor215.

2.3.2.1 Estado de necessidade

Sobre o estado de necessidade, Matheus Caetano lança a pergunta se dogmaticamente é


defensável o estado de necessidade “antecipado, automatizado ou programado” 216.
De início, Thomas Weigend217 observa que, para fins de aplicabilidade de alguma
exculpante, o desenvolvedor do programa não se encontra em situação de emergência, para
além de que o consumidor do veículo também não é uma pessoa íntima ou familiar, ao menos
via de regra, do fabricante. Em assim sendo, por não estar presente no caso real não sofre efeito
algum sobre seus sentidos de reação. Assim, não há que se falar em aplicabilidade de uma
justificante ou exculpante218, especificamente o estado de necessidade.
Não parece possível invocar o instituto em tela sem ao menos um real dever de garante
configurado. Surge o questionamento sobre qual seria o concreto dever de garante do
desenvolvedor nesses casos.
Ainda, se se pretender imaginar o estado de necessidade defensivo, Estellita e Alaor
advertem que seria inviável construir um programa capaz de auferir se a situação de perigo
decorre da conduta antijurídica anterior de um dos envolvidos219.
Dessarte, resta afastada também a possibilidade de configuração de estado de
necessidade agressivo, uma vez que na decisão predeterminada são feitas escolhas não
permitidas na ordem jurídica, isto é, recaindo na mesma calha da ponderação de vidas humanas,
quantitativa ou qualitativamente.
Por outro lado, Thomas Weingend pondera que, no que tange ao estado de necessidade,
não difere a posição do operador do veículo da situação do desenvolvedor. A razão é que o
comportamento adequado que fundamenta a decisão já está prefixado em sede de normas gerais,
sendo que, diante da ocorrência da situação dilemática, a regra será aplicada220.

215
HILGENDORF, Digitalização e direito, p. 68.
216
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas, p. 175.
217
WEIGEND, Direito de necessidade para carros autônomos?, p. 119.
218
O Código Penal adota a Teoria Unitária, não distinguindo o estado de necessidade justificante (ligado à licitude
- antijuridicidade) e o estado de necessidade exculpante (dirimentes - ligado à culpabilidade).
219
ENGLÄNDER, Armin et al, in: ESTELLITA, Heloisa; LEITE, Alaor (Orgs.), Veículos autônomos e direito
penal, 1. ed. Madri Barcelona Buenos Aires São Paulo: Marcial Pons, 2019, p. 24.
220
ENGLÄNDER et al, p. 116.
81

Releva notar, portanto, que no que concerne ao exame do segundo substrato do crime,
que nenhuma das descriminantes dispostas no Código Penal se harmoniza com o contexto das
situações dilemáticas. Notável, ainda, que os desenvolvedores do sistema autônomo não se
adequam às exculpantes previstas no diploma penal.

2.4 Dilemas clássicos resgatados pela condução automatizada

O dilema que os veículos inteligentes levantam tem muitos paralelos com um dos
problemas éticos mais conhecidos: o clássico caso do controlador de trilhos (“Weichensteller-
Fall”) dos debates alemães, ou o caso do bonde (“Trolley-Case”) nos debates em língua inglesa
- proposto inicialmente pela filósofa Philippa Foot221, ambos frequentemente discutidos na
filosofia prática.
Trata-se de experimento teórico da filosofia moral, com repercussões para variados
ramos da ciência jurídica, em especial para o direito penal e o direito civil. Embora com fartas
alternâncias, em sua forma básica, a versão mais original descreve um bonde desgovernado o
qual se encontra na iminência de abalroar com um túnel em construção, resultando na morte
provável de dezenas de seus passageiros. O controlador da ferrovia tem a capacidade de
redirecionar o trilho. Essa ação, todavia, faria com que o bonde se chocasse com três
trabalhadores que lá se encontram.
Diante dessa quadra fática, a hesitação está em averiguar se a decisão moralmente
adequada por parte do funcionário seria desviar o trajeto do bonde, optando pela morte de três
pessoas como um custo para que uma quantidade superior de outras vidas sejam preservadas;
ou então, se deveria deixar a sua rota natural, poupando os trabalhadores que não possuíam
nenhum vínculo com a circunstância desgovernada do bonde. À vista disso, o dilema se
apresenta, em essência, como o confronto entre concepções utilitárias e deontológicas sobre o
valor de vidas humanas envolvidas em situações dilemáticas.
São, portanto, questões ético-filosóficas em que se depara com a situação de escolhas
trágicas. No caso do processo decisório dos veículos autônomos - problemática desenhada nessa
pesquisa - há que se verificar se se trata de um novo problema, ou apenas de reformulação
daquilo que já é discutido há décadas.

221
FOOT, Philippa, The problem of abortion and the doctrine of the double effect, Oxford Review, n. 5, 1967.
82

Autores como Nick Belay222 pensam ser necessário a inserção de uma codificação de
valores de cunho ético-jurídico no software de um carro autônomo, designando valores sociais
conferidos a determinadas condutas. Corrente contrária223, todavia, defende que o programa
não é o espaço adequado para acondicionar elementos éticos.
Há severas críticas quanto ao enquadramento do dilema do trolley para o contexto dos
autodirigidos, dado que nesses o veículo é quem confere a decisão “moral” de quem morre ou
sobrevive224. Além do que a elevada capacidade do programa de captar todo o cenário
circunstancial, bem como de desenrolar sua operação programada, em muito se distancia do
dilema atual daquele tradicional.
Outra crítica quanto ao enquadramento é que, via de regra, a decisão a ser inserida no
algoritmo não é tomada por uma única pessoa como na hipótese do trolley, porquanto a
configuração é levada a efeito por um grupo de técnicos, proprietários de uma empresa ou um
grupo de acionistas, sendo mais tímido o conjunto de possíveis soluções a seu dispor. Isso sem
mencionar que o autônomo possui habilidade para captar múltiplas informações com seus
sensores, tornando mais refinado e detalhado o seu processo decisório225.
Para os que seguem a possibilidade de inserção e codificação de valores no algoritmo,
a imputabilidade a controladores e codificadores é possível. Ponto diferenciador entre aqueles
clássicos experimentos e o processo de tomada de decisão dos veículos inteligentes talvez esteja
no fato de que as decisões do sistema autônomo provêm de um algoritmo previamente inserido,
de modo diverso de uma decisão espontânea como é tomada nos casos do “controlador de
trilhos” ou do “caso do bonde”, diga-se, por uma pessoa que muito provavelmente nunca tinha
parado para refletir sobre esse tipo de situação.
Além do que a programação não se limita a seguir a codificação introduzida, havendo
uma reprodução dos valores humanos, contudo, oportunizando-se ao sistema optar entre as
várias alternativas ao caso concreto. Portanto, um processo heurístico que, na tessitura humana
retrata um processo cognitivo para decisões não racionais, executado em sede da camada

222
BELAY, Nick, Robot ethics and self-driving cars: how ethical determinations in software will require a new
legal framework, Journal of the Legal Profession, v. 40, n. 1, p. 119–130, 2015, p. 120.
223
ROE, Madeline, Who’s driving that car: an analysis of regulatory and potential liability frameworks for
driverless cars, Boston College Law Review, v. 60, n. 1, p. 317–347, 2019, p. 338.
224
GRIEMAN, Hard drive crash, an examination of liability for self-driving vehicles, p. 301.
225
NYHOLM, Sven; SMIDS, Jilles, The ethics of accident-algorithms for self-driving cars: an applied trolley
problem?, Ethical Theory and Moral Practice, v. 19, n. 5, p. 1275–1289, 2016, p. 1276.
83

inconsciente. Por isso que para Madeline Roe226 o “dilema do bonde” exsurge na eventualidade
de o programa não ter sido pré-definido, de maneira que em não havendo a previsão do
software, o desenvolvedor não é responsável se o veículo realiza as manobras esperadas e o
caso concreto se deu de modo imprevisível.
A doutrina alemã enxerga essa possibilidade resgatando um caso decidido pelo Tribunal
Supremo do Império Alemão em 1927227. Na ocasião, uma mulher necessitava realizar um
aborto necessário para que pudesse sobreviver. O decisum proferido reconhece-lhe o direito,
com fundamento no estado de necessidade supralegal, preservando-se a vida já formada em
detrimento de uma outra vida de incerta sobrevivência. É hipótese hoje positivada em diversas
legislações, inclusive no código penal brasileiro, prevista no inciso I do seu artigo 128.
A correlação do aborto necessário com o algoritmo de acidente está na expectativa de
se positivar um dever de salvamento de vidas humanas em detrimento de outras quando se
depara com uma situação de colisão inevitável. Além disso, sugere-se que o critério qualitativo
seja substituído pelo quantitativo, com o fim de polir o algoritmo de acidente com doses de
imparcialidade228.
Sob essa perspectiva, não haveria propriamente a escolha de uma vida em benefício de
outra, seja por razão discriminatória ou outra qualquer. Em verdade, porque na situação de
colisão inevitável e, sobretudo, acidental, seria(m) salvo(s) a(s) pessoa(s) com as maiores
chances de sobrevivência. Portanto, aqui se mostra uma argumentativa que, em termos
jurídicos, caminha ao encontro da autorização para circulação dos veículos inteligentes, não
obstante muitos juristas sejam negativistas em relação à tecnologia.
Há que se afastar, portanto, a prévia concepção de que os avanços tecnológicos são
sempre benéficos. É preciso se perquirir, sempre, se aquilo que se revela tecnicamente possível
é admissível sob as vertentes ética, política e social, ainda que juridicamente lícita229.
Igualmente, não há que simplesmente negá-los de modo desarrazoado sem a adequada
fundamentação no sentido da absoluta inadmissibilidade em razão de seus efeitos práticos, o
que pode implicar, de igual maneira, desvantagens à sociedade.

226
ROE, Who’s driving that car: an analysis of regulatory and potential liability frameworks for driverless cars,
p. 338.
227
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas.
228
GRECO, Veículos autônomos e situações de colisão.
229
RODOTÀ, A vida na sociedade da vigilância: a privacidade hoje, p. 142.
84

2.5 Excurso ao utilitarismo e ao princípio do mal menor

Não é tarefa simples firmar parâmetros que possibilitam a simulação de escolhas de


quem morrerá e quem sobreviverá em situações de inevitável colisão. O papel da filosofia é
essencial no exercício de investigação da dimensão ontológica do mundo real, transcendendo
convicções irrefletidas do senso comum que se mantém cativa da realidade empírica.
Assim é o que o exame crítico das transformações tão sensíveis à sociedade perpassa
pela agenda não só dos teóricos jurídicos, mas também da filosofia, guarnecendo os mais
profundos questionamentos sobre o tema. O forro normativo de uma sociedade só surge de
forma amadurecida e estruturada se apelativa a uma vertical e multifacetada observação sobre
todos os fenômenos que advêm do novo e, para tanto, a filosofia é forte aliada.
Releva notar que a Filosofia mantém intrínseca relação com o Direito, mormente por
ser tratar de disciplina desveladora do fundamento, da ontologia, dos valores, da análise da
discursividade jurídica230. Ademais, por contemplar uma “conversação contínua e plural”, a
relação entre a ciência jurídica e a filosofia é capaz de ditar reformulações nas relações
humanas231.
Nesse contexto, o Utilitarismo surge como corrente filosófica - cujas figuras
exponenciais são os britânicos Jeremy Bentham (1748-1832) e John Stuart Mill (1806-1873) -
que se propõe a mensurar a moral e o direito pelo potencial de aumentar o bem-estar e reduzir
o sofrimento dos indivíduos232. Exerceu grande influência nos séculos XIX e XX, em especial
no cenário da luta contra a escravidão, da concretização da democracia parlamentar, da
igualdade entre homens e mulheres, da laicização do Estado e da descriminalização da
homossexualidade233.
O utilitarismo, na qualidade de um dos desdobramentos do consequencialismo, faz juízo
de ponderação de comportamentos e normas em conformidade com suas consequências234. Eric
Hilgendorf esclarece que a particularidade que lhe distingue das demais variações
consequencialistas está no fato de que os consectários são avaliados consoante o aumento, ou
não, do bem-estar do indivíduo, usualmente traduzida na "felicidade". Além disso, tanto as

230
AMARAL, Francisco, Direito civil: introdução, 7. ed. Rio de Janeiro: Renovar, 2008, p. 1.
231
GHIRALDELLI JÚNIOR, Paulo, RICHARD RORTY: A filosofia do novo mundo em busca de mundos
novos, Petrópolis: Vozes, 1999, p. 67.
232
BACKHAUS, Jürgen Georg (Org.), Handbook of the History of Economic Thought: Insights on the
Founders of Modern Economics, New York, NY: Springer New York, 2012.
233
Ibid.
234
HILGENDORF, Digitalização e direito, p. 92.
85

consequências imediatas como as mediatas são levadas em conta, desde que possam ser
avaliadas235.
O consequencialismo se utiliza da maximização de um bem, por meio de uma
ponderação entre custos e benefícios, para definir o legítimo e o ilegítimo236. A crítica que
recebe recai no tratamento do homem como um fim em si mesmo, desconhecendo todo e
qualquer limite, como o representado pela dignidade da pessoa humana. Logo, se o uso da
liberdade pode promover consequências graves para os demais membros sociais, ela não será
legítima. O absolutismo consequencialista, em sede do cálculo custo-benefício, implicaria a
aceitação do polêmico axioma de que os fins justificam os meios.
Oportuno reforçar que a refutação de Rawls - “Utilitarianism does not take seriously
the distinction between persons”237 -, aqui também é cabível, máxime em razão da admissão
por parte do filósofo consequencialista acerca da validade na compensação entre perdas de um
indivíduo em prol de ganhos de outro, como se fossem considerados uma individualidade só238.
No contexto dos VA’s, o discurso utilitarista também encontra seus simpatizantes, o
qual aparece frequentemente na literatura alemã, efetivando-se a partir da mensuração sobre
quais consequências o sacrifício de pessoas inocentes teriam sobre o sistema social e jurídico
no caso das situações dilemáticas de inevitável colisão no tráfego rodoviário.
Em contrapartida, há declarações contra o utilitarismo. Para Eric Hilgendorf, a proibição
de cálculo de vidas dificilmente poderia ser justificada com base no utilitarismo. Para o autor,
em que pese muitos entenderem que o dilema na condução automatizada esbarra em questões
que devem ser resolvidas por meio de embates entre abordagens deontológicas e utilitárias, isso
não lhe parece convincente239.
A premissa principal que demonstra a falha da visão utilitarista é que ninguém é
obrigado a se sacrificar em prol de outras pessoas. A perspectiva utilitarista reclama, em sede
da avaliação de um ato individual, que se considere todas as consequências de uma decisão e
que a decisão seja tomada no sentido de que se ofereça o maior benefício possível ao bem
comum. No caso dilemático, Eric Hilgendorf questiona o quão harmônico ao bem comum é

235
Ibid.
236
BACKHAUS (Org.), Handbook of the History of Economic Thought.
237
RAWLS, John, A theory of justice, Rev. ed. Cambridge, Mass: Belknap Press of Harvard University Press,
1999, p. 24.
238
GRECO, Luís, Um panorama da teoria da imputação objetiva, 1a ed. rev. e atual. [livro eletrônico]. São
Paulo: Revista dos Tribunais, 2014.
239
HILGENDORF, Digitalização e direito, p. 93.
86

uma programação que oponha riscos a pedestres que se encontram fora de perigo. Na via
contrária, para ele é justamente o argumento da posição utilitarista que não permite a aceitação
do sacrifício do pedestre não-participante240.
Aliás, em um sistema jurídico liberal, o indivíduo não pode ser compelido a se sacrificar
em benefício de demais indivíduos. Premissa válida inclusive quando se trata de vários outros
indivíduos, e não apenas um beneficiário. Em verdade, é uma baliza limitadora dos deveres de
solidariedade social. Deste modo, a programação também resta delimitada, no que está
impossibilitada de lançar um algoritmo que ofereça a vida de um ou mais pedestre fora de perigo
no afã de salvar a vida dos passageiros do veículo ou para salvar terceiros, por razões
quantitativas ou qualitativas.
A dificuldade de se avaliar a situação se dá quando a vítima potencial já se encontra em
situação de perigo desde o começo. Se por exemplo, um carro transita em uma pista estreita,
quando é surpreendido por três crianças que surgem em sua frente. Uma criança está à sua
esquerda e as outras duas à sua direita. Pelas circunstâncias do caso hipotético, um homem
médio não teria condições físicas ou mentais de se desviar, no que atingiria as três de maneira
fatal. Entretanto, em que pese o veículo inteligente não pudesse impedir completamente a
colisão, teria habilidade para fazer a escolha trágica de modo que apenas uma criança fosse
atingida. Assim é que se questiona a utilidade de se programar o algoritmo no sentido de salvar
uma ou mais criança, ou melhor seria se isentar de programar, deixando que o carro siga sua
direção sem desvio, atropelando os três jovens.
A complexidade da resposta está na permissividade da quantificação de vidas humanas,
além da ponderação de valores entre vidas, resultando na conclusão de que é mais vantajoso
que somente uma pessoa inocente morra do que duas ou mais. Portanto, violaria o postulado da
proibição de quantificação e ponderação de vidas. Todavia, é certo que, tanto a intuição moral
da pluralidade social como a apreciação individual da vida como direito fundamental maior,
são razões para permitir a minimização de vítimas em situações dilemáticas.
Assim, para os defensores da programação utilitarista que tem o propósito de preservar
o maior número de indivíduos, a solução está na possibilidade de um algoritmo que, em
situações de vida contra vida, tente conservar o maior número possível de pessoas. Isso porque
seria ilógico e paradoxal chancelar a vida humana como valor máximo, mas de outro lado
defender que é indiferente se serão sacrificadas uma, duas ou três vidas.

240
Ibid., p. 75–77.
87

Sob outra vertente, o princípio do mal menor consagra que em situação de necessidade,
em que os bens jurídicos se encontram sob ameaça, deve-se optar pelo menor dano possível241.
O primeiro desdobramento do princípio, sob a tutela da dignidade da pessoa humana, decorre
que a vida da pessoa representa bem jurídico de maior valor se comparado a coisas.
Entretanto, a problemática surge quando a balança se depara com vidas humanas. Daí a
imprescindibilidade de se encontrar fundamentos éticos e jurídicos que sustentem o desvio de
um veículo contra uma pessoa, para salvar duas, ou ainda, a opção por matar um transeunte
para salvar o usuário do autônomo que se chocaria contra um muro. É que, a ninguém é dado o
dever de sacrificar-se em nome de outro242.
Eric Hilgendorf, porém, é enfático no sentido de que o sacrifício de um inocente no caso
dilemático é conduta antijurídica. O argumento de que é melhor que somente um indivíduo seja
vitimizado em benefício de dois ou mais, caminha, certamente, ao injusto243. A alegada redução
de danos e do mal menor - a exemplo da predeterminação para o desvio na direção de um
pedestre, para que dois sejam salvos -, bem como do risco permitido - utilizando-se do
subterfúgio argumentativo da diminuição de acidentes causados por falhas humanas -, parece
ignorar a existência irrefutável de um processo de ponderação e “quantificação” de vidas
humanas, pois algo intrínseco ao funcionamento do algoritmo.
É certo que a teoria do mal menor, não obstante sua aparente neutralidade ética, é uma
teoria de legitimação de formas de comportamento consequencialista, porquanto a sociedade
como um todo e, mais especificamente os sujeitos implicados, são tratados na situação de
necessidade, como se fossem um único sujeito, aglomerando-se em um único corpo
supraindividual (sujeito holístico). Desta forma, o princípio do mal menor, na concepção do
princípio utilitarista negativo, propõe a salvaguarda em situação de conflito dos melhores
interesses, constituído pela soma de todos os interesses individuais resguardados244.
Embora os argumentos classicamente consagrados contra o utilitarismo como teoria de
fundamentação jurídica, na visão de Coca Vila245 não é adequado determinar os algoritmos
consoante o princípio do mal menor. Primeiramente, em oposição à convicção utilitarista, a
ideia de um sistema capaz de fazer julgamentos infalíveis e incontroversos ainda não é uma

241
Ibid., p. 76.
242
Ibid., p. 97.
243
Ibid., p. 77.
244
COCA VILA, Ivó, Coches autopilotados en situaciones de necessidad. Una aproximación desde la teoria de la
justificación penal, in: Veículos autônomos e direito penal, São Paulo: Marcial Pons, 2019, p. 164.
245
Ibid., p. 165.
88

realidade. Ainda, sob o ponto de vista técnico, não é pacífico quais fatores devem ser levados
em conta no processo de ponderação, ou seja, quais elementos devem constar para um decisão
imparcial. Esse problema metodológico torna-se insolúvel para aqueles que também pretendem
introduzir no macro-julgamento de ponderação de interesse fatores estritamente normativos,
como a provocação do conflito, ou até mesmo a dignidade da pessoa humana.
O sistema jurídico-penal é então legitimado como ramo de proteção ou garantia do
conjunto de interesses do sujeito holístico. Nessa perspectiva, a verdade é que o princípio do
mal menor se mostra efetivamente como um princípio dificilmente questionável. No entanto,
isso se conforma a uma falsa analogia, à maneira como o indivíduo geralmente coloca e resolve
seus próprios conflitos.
O fato de que é geralmente preferível sacrificar meu carro a sofrer danos não explica
por que a Lei teria que sacrificar esse meu bem para salvar a vida de um sujeito desconhecido.
A missão do ordenamento jurídico-penal não é, portanto, o de proteger e maximizar os
interesses de um sujeito que não existe, mas o de garantir uma separação harmoniosa e justa
das esferas de liberdade que cada cidadão administra soberanamente246.
Contudo, Eric Hilgendorf aponta críticas ao seu posicionamento no sentido de que o
sacrifício pode sim se revelar um injusto, mas injustiça ainda maior seria permitir que duas ou
mais perdessem suas vidas247.
Aceitar, às cegas, a tecnologia, sob o argumento de seus benefícios, recai em um
processo de simplificação extrema que torna a vida humana mero elemento de um cálculo, cujo
resultado será “salvar mais vidas” numericamente consideradas. Tudo isso com base na
admissão da justificativa da sobrevivência de uns, eleitos pela tecnologia, em detrimento de
outros, dos quais se aceita a morte. Esse mero “cálculo” de vidas humanas, “juridicamente”
pensado, sem qualquer outra consideração pelas consequências, não deve ser classificado como
utilitário, mas detentor de uma lógica totalitária, como uma atribuição ilimitada de deveres ao
indivíduo por um Estado que não mais reconhece limites ou proteção de indivíduos248.
Com efeito, a lógica que perpassa a moral machine e os algoritmos de seleção de vítimas
apresenta um viés “totalitário”, porquanto é construída a partir da instituição do mal menor
como argumento autorizador da malversação de valores como a igualdade material, a
autonomia e a dignidade da pessoa humana.

246
Ibid., p. 167.
247
HILGENDORF, Digitalização e direito, p. 77.
248
Ibid., p. 94.
89

Sob outro aspecto, a aplicação da lógica totalitarista das relações humanas se faz
presente na instauração de critérios com o fim de selecionarem quem sobrevive e quem é
vitimizado em situação de inevitável colisão rodoviária, ainda que não seja atribuída
responsabilidade ao envolvido. É dizer, a programação quando traz um consentimento
alicerçado na distinção entre “pessoas salváveis e pessoas aniquiláveis” ofende valores
fundamentais de qualquer sociedade, de qualquer época, podendo revelar sua inadequação na
programação do algoritmo com fundamento no princípio do mal menor.
Nessa linha, Matheus Caetano249 refuta veemente a possibilidade dos algoritmos de
acidente. O autor traça objeções ainda mais rígidas à sua implementação. Primeiramente, a vida
humana não está sujeita a um processo de instrumentalização. Em segundo, não se pode olvidar
do seu atributo da intangibilidade. Ainda, a vida humana não é quantificável, muito menos
ponderável. Por fim, a autonomia, a dignidade da pessoa humana e a igualdade, enquanto
limitações no processo de ponderação de bens jurídicos equipotentes impossibilitam axiológico
e juridicamente a ferramenta. Consoante suas anotações,

Há uma tentativa de construção forçada de um consenso social, científico e político


para a introdução desta futura mercadoria: os carros autônomos com algoritmos de
acidente. Eis a vexata questio: poder-se-ia uma maioria (uma questão de sufrágio
universal), a Ciência (uma questão técnica) ou a Justiça (uma questão de juridicidade)
deliberar qual(-is) vida(s) é(são) mais relevante(s) que outra(s)?

Em que pese o escopo do presente trabalho se tratar, metodologicamente, de uma revisão


bibliográfica, no ponto cabe uma ousada reflexão. É que não é uma questão de se atribuir o
poder de deliberar qual é a vida mais relevante a uma maioria, à Ciência ou à Justiça. Não é
disso que se trata. É que a neo tecnologia já se revela notória, a nova relação de convivência é
incontestável. O mais prudente a ser feito no momento que as novas tecnologias exsurgem é
buscar a melhor forma de se reger (ou ao menos optar pelos melhores critérios) as relações delas
advindas.
Não basta relegá-las. Elas virão e negar é assumir um papel alvo de crítica no futuro,
quando for possível olhar para trás e se enxergar que o desconhecimento da arte não era
suficiente para não aceitá-la. Portanto, talvez a atitude mais adequada seria diligenciar no
sentido da regulação, por mais complexa e difícil que seja essa tarefa, e buscar soluções mais
adequadas à implementação. Afinal, o controlador de trilhos não foi retirado do seu labor e as
comitivas seguiram seus cursos normalmente.

249
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas, p. 188.
90

Thomas Weigend250 desenvolve uma argumentação contratualista. Em uma "posição


original"251 de John Rawls, todos os cidadãos iriam concordar com uma possibilidade de
minimização quantitativa dos danos a que podem um dia serem submetidos, pois essa seria uma
forma racional de defesa de seus próprios interesses. A probabilidade de ser parte ou do grupo
vitimado, ou do grupo salvo por esse tipo de decisão minimizadora, variaria de acordo com o
tamanho de cada um deles. Essa inegável consequência ligada a uma argumentação desse
gênero, entretanto, sinaliza uma fraqueza decisiva do pensamento contratualista. Nele, a
proteção de minorias é estruturalmente muito restrita, pois, nessa visão, sempre existe uma
razão prima facie para se impor um mal a um outro grupo, bastando que ele seja minoritário252.
Coca Vila examinando um caso hipotético, propõe uma crítica ao raciocínio utilitarista
bruto, sem as devidas lapidações. Imagine-se que a única maneira de escapar do atropelamento
de um motociclista que trafega sem capacete é colidir com outro motociclista que circula
equipado com um capacete ou outro meio de proteção. A questão é que se chocar com o
motociclista sem capacete certamente ele morrerá, ao passo que o segundo motociclista sofreria
apenas leves contusões. Importante observar que o ocupante do veículo sairá ileso do acidente
em ambos os casos253.
O que se verifica é que os que defendem uma programação utilitarista dos automóveis,
essa suposição dilemática não implica maiores dificuldades. O veículo se veria, portanto,
programado para se chocar com o motociclista equipado com itens de segurança, pois isso
minimiza a perda de utilidade social. Mas a contradição está em fomentar a maximização da
utilidade social, naquilo que poderia implicar o desestímulo do uso de equipamento de proteção.
Por conseguinte, poder-se-ia concluir pela perda líquida de utilidade social a longo prazo.
Dessa maneira, exsurge um antagonismo. Primeiro, em analogia com o que preconiza a
teoria da actio libera in causa – em que o ato transitório revestido de inconsciência decorre de

250
ENGLÄNDER et al, , p. 114.
251
“A posição original é apresentada como artifício hipotético e heurístico de representação, verdadeiro
experimento do pensamento, e a sua construção é analisada segundo suas categorias próprias. Em linhas gerais, é
ela uma situação hipotética de liberdade igual (definição) sobre o justo no status quo que, semelhante ao estado de
natureza do contrato social (fundamento filosófico), assegura que pessoas livres e iguais (pressupostos), de forma
racional, na condição de representantes dos cidadãos de uma sociedade bem-ordenada, sob um véu de ignorância
(característica), escolham certa concepção de justiça, com a finalidade de chegar a um consenso sobre os princípios
de justiça para a regulação, na cooperação entre todos, da estrutura básica da sociedade (objetivo)”. In:
MARINHO, William Tito Schuman, A concepção da posição original na filosofia de John Rawls: Uma
reconstrução histórico-filosófica até A theory of justice, Universidade Federal de São Paulo, São Paulo, 2013,
p. 6.
252
GRECO, Veículos autônomos e situações de colisão, p. 196–197.
253
COCA VILA, Coches autopilotados en situaciones de necessidad. Una aproximación desde la teoria de la
justificación penal, p. 185.
91

ato antecedente livre na vontade - a ideia de responsabilidade pelos próprios atos deve ser
considerada na resolução do conflito, de modo que o fato de que a maior fragilidade de um dos
dois motociclistas tem sua causa na violação anterior de uma regra de autoproteção. De outro
lado, em consonância com a concepção de solidariedade como limite axiológico fundamental
ao princípio da autonomia, não há por que deferir maior tutela quem se encontra menos
protegido no momento do acidente.
No entanto, Armin Engländer254 adverte que não é persuasivo que Eric Hilgendorf, em
nova publicação, rotule de "orientação humana" a compreensão alemã sobre o direito e a moral
que estão por trás da proibição de compensação, sugerindo que sistemas autoritários seriam a
alternativa. Essas pinturas em preto e branco são inadequadas e não fazem jus à complexidade
dos problemas. Filosofias morais utilitaristas não visam à colocação dos indivíduos sob a
escravidão de governantes autoritários, mas sim à maximização da felicidade.
Diante das exposições, a solução que parece melhor se adequar à sociedade atual de
riscos haveria de ser no sentido de preconizar que não deve haver embargo absoluto de
quantificação ou de ponderação de vidas humana. Diversamente, vidas humanas não raras as
vezes necessitam ser sujeitas à quantificação ou ponderação entre si. Com efeito, o dogma do
mal menor se aplica, em tese, da mesma maneira de sempre, assim, deve-se escolher a variante
de ação que ostente o menor mal possível. Em decisões de vida contra vida, a morte de um
indivíduo ainda que considerado distante do risco há de significar um “mal menor” em relação
à morte ou lesão grave de uma ou mais pessoas que estejam diretamente em risco. Afigura-se
indiferente se os envolvidos no dilema já estão, desde o início, em perigo ou não. O que se faz
necessário é encontrar soluções para o modo de inserção de princípios no algoritmo.

2.6 Apresentação das situações dilemáticas

No afã de discutir as controvérsias envolvidas, verifica-se a imprescindibilidade de


trabalhar situações hipotéticas e casos concretos para facilitar a visualização do problema posto
na pesquisa. As situações de inevitável colisão no tráfego dos veículos governados pela
inteligência artificial podem estabelecer de variadas formas.

254
ENGLÄNDER, Armin et al, in: ESTELLITA, Heloisa; LEITE, Alaor (Orgs.), Veículos autônomos e direito
penal, 1. ed. Madri Barcelona Buenos Aires São Paulo: Marcial Pons, 2019, p. 148.
92

2.6.1 O caso hipotético clássico

Condensando-se as características presentes na grande maioria dos eventos em uma


situação de colisão inevitável, elas podem ser concentradas no caso hipotético assim desenhado:

(a) o carro segue o curso e atropela muitas pessoas ou muda de direção e mata um
transeunte;
(b) o carro segue o curso e mata um pedestre ou muda de direção e mata o seu
passageiro ao se chocar contra o muro; ou, por fim,
(c) o carro pode permanecer no curso e matar muitos pedestres ou mudar de direção e
matar o seu passageiro;255

Outrossim, as situações podem abranger tanto conflitos quantitativos - uma ou mais


contra outra ou mais vidas -, quanto qualitativos – a vida de uma pessoa saudável em face da
vida de um doente, ou a vida de um adolescente contra a vida de um idoso. Com base nessas
possibilidades é que se afirma que arquitetar sistemas autônomos éticos é considerado o mais
hermético desafio da Inteligência Artificial na atualidade256.

2.6.2 O caso histórico de Aschaffenburg

Ainda na tentativa de ilustrar as situações dilemáticas, desta feita assentado na realidade,


cita-se o fato que ganhou destaque e se tornou paradigmático nessa temática. Em 2012, um
carro conduzido por um homem de 60 anos, o qual sofria um infarto, entrou em alta velocidade
na Vila de Alzenau, nas mediações da cidade alemã Aschaffenburg. Na ocasião, o homem girou
o volante de modo que o carro teria sido freado forçosamente por obstáculos que surgiriam a
frente257. Contudo, o assistente de manutenção de faixa de rolagem fez o veículo permanecer
na via, naquilo que veio a atropelar fatalmente duas pessoas.
Esse é o caso histórico que registra o primeiro acidente envolvendo um veículo
autônomo. E a partir desse caso despontam dúvidas no tocante aos autônomos, máxime em
razão de um desvio por ele provocado, quando em verdade a fatalidade poderia ter sido evitada
acaso a manobra corretiva autônoma não tivesse sido realizada.
No caso, percebe-se de imediato que o princípio da confiança – diretriz medular quando
se fala em trânsito rodoviário – afigura-se incabível nesse tipo de situação, isso porque não há
que se falar falha de conduta de um dos envolvidos. Diante disso é que se propõe analisar se se

255
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas, p. 150.
256
BONNEFON, Jean-François; SHARIFF, Azim; RAHWAN, Iyad, The social dilemma of autonomous vehicles,
Science, v. 352, n. 6293, p. 1573–1576, 2016.
257
HILGENDORF, Digitalização e direito, p. 67–68.
93

mostra possível invocar o instituto do risco permitido como solução, servil justamente para
cenários de produção em massa de bens periclitantes, mas que de outro lado são aceitos pela
coletividade.
Na análise do caso foi reconhecido que o fabricante testou exaustivamente o sistema,
além do que não foi esclarecido como o sistema poderia ter sido desenvolvido de modo que se
revelasse mais seguro naquela situação concreta. Por essa razão, a promotoria de Aschaffenburg
se manifestou no sentido da ausência de quebra de deveres de cuidado pelo desenvolvedor, no
que restou improcedente o pedido condenatório.
Nessa seara, portanto, o exame do risco permitido afigura-se imprescindível para a
percepção de que os riscos atrelados à produção em massa de produtos úteis - mas que podem
se mostrar ofensivos – são distribuíveis entre todos os atores.
CAPÍTULO 3 – INTRODUÇÃO DOS ASPECTOS DA IMPUTAÇÃO OBJETIVA

Nos capítulos anteriores foi realizado um panorama dos sistemas de inteligência


artificial, seus métodos de aprendizagem e seu processo decisório, perpassando por sua
aplicação aos veículos autônomos. Ainda, foram realizados os contornos da responsabilidade
penal, analisando os elementos do crime, com maior atenção ao fato típico, e dentro deste, maior
enfoque no nexo de causalidade. Percorreu-se a discussão em torno da possibilidade de
responsabilização dos sistemas de inteligência artificial visto que, por possuírem poder de ação
e de execução de tarefas, estariam aptos a praticarem condutas tipificadas como delitos.
No presente capítulo, pretende-se unir os temas anteriormente trabalhados com o
propósito de mapear os principais desafios que a introdução da inteligência artificial no veículos
pode trazer para a responsabilidade penal.
Incialmente, importante trazer a observação de Eric Hilgendorf no sentido de que a
questão da responsabilização penal no âmbito dos sistemas autônomos incita profusos
debates258, o que não se verifica na seara do direito civil, na qual não se vê a mesma
complexidade de questionamentos. A resposta talvez esteja no fato de o direito civil encontrar
respostas mais facilmente em seus institutos.
O próprio microssistema do Código de Defesa do Consumidor259 abrange uma gama de
ferramentas capazes de solucionar as celeumas, especialmente em favor da vítima do defeito
do produto. Na esfera civil também pode se imaginar a contratação de seguros específicos ou
uma responsabilidade civil própria.
No terreno penal, o que se pretende demonstrar é que se há aceitação em massa dos
riscos, logo, prima facie, a responsabilidade penal restaria excluída, ou ao menos não se daria
de modo automático. Todavia, não pode haver tão amplo “setor livre de direito penal”, com
criação irresponsável e sem critério de riscos260, no que requer estudo aprofundado sobre a
modelagem adequada para fins de concatenação entre permissividade e responsabilidade.
No novo cenário que se impõe, a autonomia e a característica cognitiva implementadas
nos algoritmos que controlam os veículos têm o condão de gerar alteração nas interpretações
das teorias de responsabilidade penal. Esse fenômeno, ao lado do desenvolvimento de
avançadas tecnologias, representa desafio à proteção dos usuários do tráfego rodoviário, de
modo que, nesse contexto, a teoria da imputação ganha peculiar relevância..

258
Ibid., p. 49.
259
Instituído pela Lei nº 8.078, de 11 de setembro de 1990.
260
ENGLÄNDER et al, p. 58.
95

Assim, neste capítulo é feita a leitura da responsabilização em acidentes com autônomos


sob o prisma da teoria da imputação objetiva. Por último, são desenvolvidas algumas sugestões
com base na doutrina nacional e internacional, na pretensão de se encontrar possíveis soluções
ao complexo tema que envolve os sistemas de inteligência artificial.
Aliás, a motivação para a análise realizada nesta pesquisa, concentrada especialmente
nesse capítulo, procura sua base na utilidade de se demonstrar com maior solidez se os
fundamentos ético-dogmáticos da teoria imputação objetiva, nos moldes erigidos por Claus
Roxin, estão aptos a apresentar soluções ou, ao menos, elucidações no tocante ao tema. Na
defesa da teoria, por seu próprio sistematizador, Roxin diz que ele abarca “uma vasta base
teórica e satisfaz perfeitamente as exigências de uma sistemática fundada sobre finalidades
político-criminais”261.
Oportuno ressaltar, desde já, que o Anteprojeto de reforma do Novo Código Penal
tenciona emplacar a teoria, sugerindo-a especialmente no parágrafo único do artigo 14 do novo
diploma262. Com efeito, a Exposição de Motivos expressa que ao condicionar a imputação à
criação ou incremento de risco proibido, tipicamente relevante, em seu âmbito de proteção, o
projeto pretende a aproximação das doutrinas da imputação objetiva.

3.1 O surgimento da moderna teoria da imputação objetiva

O neoconstitucionalismo faz despontar uma visão principiológica no processo de


produção normativa. Na mesma toada, a linha funcional-teleológica, a qual surge em 1970, com
a obra Política Criminal e Sistema Jurídico-Penal de Claus Roxin, permite o diálogo com a
proposição neoconstitucionalista. É que na corrente do funcionalismo penal teleológico,
explicam Antonio Suxberger e Demerval Farias263, as categorias do direito penal se sustentam
em princípios reitores normativos político-criminais. Dessa maneira, a justiça do caso concreto
é o substrato maior para a produção normativa, pois o caso concreto, alicerçados em princípios

261
ROXIN, Claus, Estudos de direito penal, Rio de Janeiro: Renovar, 2006, p. 131.
262
Art. 14. A realização do fato criminoso exige ação ou omissão, dolosa ou culposa, que produza ofensa, potencial
ou efetiva, a determinado bem jurídico. Parágrafo único. O resultado exigido somente é imputável a quem lhe der
causa e se decorrer da criação ou incremento de risco tipicamente relevante, dentro do alcance do tipo. BRASIL,
Câmara dos Deputados, Projeto de Lei do Senado n° 236, de 2012. Anteprojeto de Reforma do Código Penal
Brasileiro.
263
GOMES FILHO, Dermeval Farias; SUXBERGER, Antonio Henrique Graciano. Neoconstitucionalismo e
funcionalismo penal teleológico: o ajuste argumentativo na jurisprudência do Supremo Tribunal Federal, Revista
Magister de Direito Penal e Processual Penal, Brasília, v. 17, n. 98, p. 74–105, 2020.
96

constitucionais, dita a norma a discipliná-lo, abandonando a ideia de meras subsunções


predeterminadas.
Na modelagem tradicional, a ciência jurídico-penal se volta ao indivíduo e sua conduta
como destinatário de suas normas. Na vertente do funcionalismo penal, sua essência está no
sistema, para além de suas comunicações com o meio que o circunda. A política criminal,
ocupando-se do crime enquanto valor, ganha destaque em detrimento da dogmática pura.
Afinal, por resgatar seus valores a partir dos princípios da matriz maior, não permite
preconcepções alheias às peculiaridades da situação concreta.
Enrique Bacigalupo informa que a moderna teoria da imputação objetiva procura se
afastar do critério puro da causalidade, na condição de critério científico-natural, incorporando-
se à imputação uma dose de valoração jurídica, sendo que para o autor264:

De esta teoría de la imputación, que alcanza a toda la teoría del delito en sentido
tradicional, se debe distinguir la teoría de la imputación objetiva, en la que "se trata
de la determinación de las propiedades objetivas de una conducta imputable". Este
aspecto de la imputación, es decir, la imputación objetiva, se vincula
fundamentalmente con la conexión entre la conducta y el resultado por ella
producido. Dicho con otras palabras: con la limitación de la causalidade (natural)
sobre bases normativas.

Nesse contexto, Claus Roxin leciona que a ciência criminal não deve se fundamentar
em normas do ser, seja a causalidade ou a finalidade. Sua idealização é levada a se orientar por
conceitos normativos. Em outros termos, o processo construtivo do sistema jurídico-penal
teleológico deve se dar na esfera do tipo, não dependendo a figura típica da verificação da
causalidade ou da finalidade, e sim da avaliação das circunstâncias que permitiriam imputar a
alguém um resultado típico, portanto, conforme critérios de natureza normativa265.
Então é que o funcionalismo roxiniano se aproxima do neoconstitucionalismo, naquilo
que o sistema penal se consubstancia no direito constitucional aplicado, com fulcro em um
sistema com alta carga axiológica extraída da ordem constitucional do Estado Democrático de
Direito, ditando as balizas para o intérprete e, portanto, não sendo mais a dogmática a pedra
angular utilizada no deslinde dos feitos criminais266.

264
BACIGALUPO, Enrique, Derecho penal: parte general, 2. ed. totalmente renovada y amliada, 3. reimpresión.
Buenos Aires: Hammurabi, 2012, p. 202.
265
PRADO, Luiz Regis; CARVALHO, Érika Mendes de, Teorias da imputação objetiva do resultado. Uma
aproximação crítica a seus fundamentos., 2a edição revista, atualizada e ampliada. São Paulo: Revista dos
Tribunais, 2006, p. 64–70.
266
GOMES FILHO; SUXBERGER, Neoconstitucionalismo e funcionalismo penal teleológico: o ajuste
argumentativo na jurisprudência do Supremo Tribunal Federal.
97

Na concepção de Claus Roxin, o sistema penal objetiva a proteção de bens jurídicos,


isto é, tudo que é indispensável para a convivência livre e pacífica da sociedade. A função do
direito penal compreende a salvaguarda subsidiária de bens jurídicos. Com efeito, o princípio
da subsidiariedade encontra alicerce na proibição de excesso, de modo que ao Estado não é
dado reprimir a liberdade de seus cidadãos para além do necessário para assegurar a paz e a
liberdade de todos, sob a égide dos direitos humanos267.
Concluem Antonio Suxberger e Demerval Farias268 que o modelo neoconstitucional e o
funcionalismo de Claus Roxin triunfaram sobre a abordagem ontológica e dogmática,
estabelecendo metodologia axiológica para a tomada de decisões penais. Nesse contexto, os
princípios político-criminais são utilizados para orientar as decisões, com um foco no que
deveria ser, em vez de simplesmente descrever o que é, sendo o Texto Constitucional o único
limite a ser respeitado. Nisso, o tipo serve à materialização do princípio da legalidade; a
antijuridicidade se preocupa com a solução dos conflitos sociais; cabendo à responsabilidade -
como soma da culpabilidade e a necessidade de pena – apontar quando determinada conduta
merece sanção.
Constata-se, em outros termos, que o modelo funcionalista roxiniano, desenhado sob o
molde neoconstitucionalista, sufraga um standard axiológico em detrimento de uma antiga
postura ontológico-dogmática269. À luz da arquitetura da ciência teleológico-racional ou
funcional é que a teoria da imputação objetiva ganha corpo. Assim é que a ótica funcionalista
de Claus Roxin influencia a concepção de imputação objetiva, mormente se compreendido sob
o ponto de vista do propósito constitucional do sistema penal de tutelar bens jurídicos de
maneira preventiva geral ou especial, porquanto o sistema penal não pode se vincular a dados
ontológicos como ação e causalidade270. A justiça do caso concreto é agora determinante.
Em um esforço de transcendência da filosofia para o Direito Penal, Hans Welzel firma
sua teoria finalista em raízes puramente ontológicas, forte no objetivo de alcançar um conceito
final de ação271. A finalidade abrange a base da vontade de prever as consequências da
intervenção causal e dirigi-la a um fim. Em consequência, com o advento da teoria finalista, o

267
ROXIN, Claus. Fundamentos político-criminais e dogmáticos do direito penal, Revista Brasileira de Ciências
Criminais, v. 23, n. 112, p. 33–40, 2015.
268
GOMES FILHO; SUXBERGER, Neoconstitucionalismo e funcionalismo penal teleológico: o ajuste
argumentativo na jurisprudência do Supremo Tribunal Federal.
269
ROXIN, Claus, Sobre a fundamentação político-criminal do sistema jurídico-penal, Revista Brasileira de
Ciências Criminais, v. 35/2001, n. 9, p. 13–27, 2001.
270
Ibid.
271
ROXIN, Estudos de direito penal, p. 101–103.
98

dolo – agora natural – e a culpa são deslocados para o fato típico, alojando-se no interior da
conduta, sendo essa o comportamento humano, consciente e voluntário, dirigido a um fim, de
modo que prevalece o desvalor da ação. Nesse sentido é que se pode afirmar a inegável
contribuição do finalismo para o surgimento da moderna teoria da imputação objetiva272.
A tendência caminhou no sentido de que não bastava tão somente a verificação empírica
de um resultado originado da ação para a caracterização da tipicidade objetiva. A causalidade
perdeu espaço para a imputação, porquanto a legitimação da ciência jurídica criminal reclamou
a seleção dos comportamentos que expunham os bens jurídicos protegidos. Surge assim a teoria
da imputação objetiva, tendo como antecedentes os estudos desenvolvidos por Karl Larenz e
Richard Honig273.
Claus Roxin ensina que os fenômenos jurídicos não se exaurem em um mero processo
causal, sendo que sua dimensão há de ser definida social e juridicamente. Trata-se, portanto, de
um perfil dinâmico de modo que critérios políticos vão ditando sua formação. Repita-se, a
tipicidade tem por critério capital o preceito legal; a antijuridicidade se baseia na solução social
dos conflitos; e a culpabilidade se preocupa com os fins da pena. Assim, o escopo primordial
da teoria compreende afastar a pura aleatoriedade, a simples casualidade, daquilo que
efetivamente representa resultado do comportamento do agente274.
Assim, o que se pretendeu foi fixar balizas normativas no afã de fundamentar a
imputação objetiva em relação ao resultado, sob a vertente da ideia central do risco, em que a
sua criação e realização são os fundamentos da imputação do resultado. Claus Roxin adverte
que “a finalidade deve ser complementada por critérios de imputação objetiva quando o que
importa é saber se uma lesão a bem jurídico almejada ou cujo risco foi assumido pelo autor
representa ou não uma realização típica de um risco não permitido”275.
Em síntese, a definição de conduta criminosa contou, em um primeiro momento, com a
teoria causalista, para a qual bastava o preenchimento de elementos objetivos para que a
conduta fosse considerada típica. Por ser extremamente ampla, e com possibilidade do
regressus ad infinitum, ela deixou de ser aceita, apresentando-se a teoria finalista como

272
GRECO, Um panorama da teoria da imputação objetiva.
273
PRADO, Luiz Régis; CARVALHO, Érika Mendes de, A imputação objetiva no direito penal brasileiro,
Ciências Penais, v. 3, p. 81–102, 2005, p. 81.
274
Ibid., p. 88.
275
ROXIN, Claus. Estudos de direito penal. Trad. Luís Greco. Rio de Janeiro: Renovar, 2006, p. 62.
99

remédio, fazendo-o por intermédio da retirada do dolo e da culpa da culpabilidade, levando-os


para o fato típico276.
Ao contrário da teoria causal, o finalismo inclui o dolo no nível do tipo, como parte
subjetiva deste, limitando-se, por conseguinte, o avanço da teoria finalista ao tipo subjetivo,
uma vez que, no tocante ao tipo objetivo, continuava sendo suficiente a mera relação de
causalidade277. A dogmática penal passou a reconhecer a necessidade de uma correção
limitadora para balizar a relação causal naturalística. Nesse cenário, manifesta-se a teoria da
imputação objetiva, a qual visa inibir o regressus ad infinitum, fixando critérios para essa
delimitação da responsabilidade penal278.
A teoria da imputação objetiva surge, portanto, como alternativa à causalidade, somando
ao dogma causal a relação normativa entre conduta e resultado279. Como sucedâneo, a relação
de causalidade de natureza normativa, critério balizador da imputação, objetiva definir se um
resultado pode, ou não, ser imputado ao agente, fundamentando-se em interesses tutelados pelo
ordenamento jurídico, abandonando-se a simples causalidade naturalística280. Não se encontra,
por isso, tão somente no domínio dos fatos, mas na relação de valores tutelados pelo direito
penal.
Vale dizer, por fim, que ambas as teorias - finalista e da imputação objetiva -, não são
antagônicas. Ao contrário, elas se complementam, naquilo que podem coexistir perfeitamente
na ordem jurídica. Pode-se afirmar que a teoria da imputação objetiva surge como verdadeiro
temperamento da teoria finalista, contudo, sem previsão legal por ora, mas que tem sido
aplicada pelos tribunais brasileiros, inclusive em sede das Cortes Superiores281.

3.2 O nexo causal e o nexo normativo

Elucidados os critérios utilizados pela literatura jurídica para a análise do nexo causal,
tem por objetivo este item apontar as principais teorias do direito continental e do direito anglo-
saxão a respeito do nexo de causalidade.

276
Ibid., p. 102.
277
GRECO, Um panorama da teoria da imputação objetiva.
278
Ibid.
279
ROXIN, Estudos de direito penal, p. 104.
280
STIVANELLO, Gilbert Uzêda, Teoria da imputação objetiva, Centro de Estudos Judiciários, n. 22, p. 70–
75, 2003, p. 71.
281
Caso paradigmático julgado no Superior Tribunal de Justiça: HC nº 46.525/MT, Quinta Turma, Rel. Min.
Arnaldo Esteves, j. 21.03.06, DJU de 10.04.06.
100

O nexo de causalidade, na qualidade de elo natural entre o resultado e a conduta, é


suficiente para fixar a conexão jurídica entre eles, porém não o bastante para fins de atribuição
normativa do resultado ao agente282. Nesse trilhar, mister se faz a complementação por
intermédio do nexo normativo, ou seja, requer-se a criação (ou incremento) de um risco
juridicamente proibido.
A responsabilidade penal tem origem em um fato típico e antijurídico dotado de
culpabilidade, tendo a punibilidade como consequência do crime. A conduta representa um
comportamento dominado ou dominável pela vontade do sujeito. O pressuposto da tipicidade é
aferido em um processo de subsunção da situação concreta à descrição abstrata prevista na
norma. A ilicitude, por sua vez, alude à violação de um objeto de proteção do tipo283.
Por sua vez, a culpabilidade resta consubstanciada no juízo de censurabilidade da
conduta do agente, funcionando como pressuposto de aplicação da pena. Por fim, a punibilidade
surge como pretensão do Estado de punir o indivíduo diante da prática de um ato penalmente
relevante284. Esta pesquisa, como recorte metodológico necessário, reduz-se ao exame do nexo
de causalidade, eixo no qual circunda o juízo de imputação da responsabilidade penal.
Nesses termos, Juarez Tavares avaliza que se trata de teoria individualizadora por
realizar um processo causal independente, tendo em consideração cada uma das condições285.
Rememore-se que, no tocante ao direito criminal, não se trata de estabelecer o conjunto total de
condições, mas da associação entre a conduta do agente e o resultado. Claus Roxin ressalta que
o essencial não é verificar a ocorrência de certas circunstâncias, e sim fixar critérios para que
se permita a imputação dos resultados ao sujeito286.
O processo de verificação da ocorrência do nexo de causalidade consiste em um
exercício de exclusão virtual da ação, de modo que se verificado que o resultado ocorreria ainda
que excluída a ação, significa que não há nexo causal entre a ação e o resultado287. A crítica
mais severa que a teoria sofreu se deu em razão da possibilidade de regresso infinito desta
exclusão hipotética, pois se toda condição é causa, toda e qualquer conduta antecedente seria
tida como causa do resultado de igual modo.

282
ROXIN, Claus, Funcionalismo e imputação objetiva no direito penal, 3. ed. Rio de Janeiro: Renovar, 2002,
p. 277.
283
ROXIN, Fundamentos político-criminais e dogmáticos do direito penal, p. 38.
284
Ibid., p. 39.
285
TAVARES, Juarez, Teoria do Injusto Penal, 2a edição, revista e ampliada. Belo Horizonte: Del Rey, 2002,
p. 258.
286
ROXIN, Claus, Problemas basicos del derecho penal, Madrid: Réus, 1976, p. 145.
287
DIAS, Direito Penal. Parte Geral: questões fundamentais - a doutrina geral do crime, p. 325.
101

A formação de uma rede infindável levaria a um distanciamento da realidade, à guisa


de exemplo, ao proprietário da fábrica de armas ou, para o caso em estudo, ao fabricante dos
veículos. Afinal, sem essas figuras os crimes de lesão ou homicídio não aconteceriam. Contudo,
Hans Welzel rebateu a crítica, afirmando que a concretização da causa depende do
conhecimento prévio da sua eficácia, não se resumindo com propriedades físicas ou químicas
de elementos naturais288.
Outrossim, consoante a teoria da causalidade adequada, primeiro se comprova a relação
de causalidade e, após, averígua-se a relevância da causalidade. Por essa razão que se entende
que mais importa a imputação do que a relação causal, já que pretende balizar a causalidade
natural. Como apontado alhures, as teorias finalistas e a teoria da imputação objetiva revelam
certa crise do causalismo atrelado às ciências naturais.
Ainda, Karl Larenz separou a adequação da causalidade demonstrando a exigência da
causalidade objetivamente imputável, ao invés da causalidade adequada289. Tal teoria é
orientada pela seguinte reflexão: no curso normal e natural dos fatos, determinada causa é
idônea para a realização do resultado? A previsibilidade do resultado perpassa os dados das
ciências e da experiência, por intermédio de um prognóstico ex post facto, averiguando-se a
possibilidade objetiva do evento propiciar o dano, como versa Gustavo Tepedino:

Já nos termos da teoria da causalidade adequada, concebida pelo filósofo alemão Von
Kries, (...) procura-se identificar, na presença de uma possível causa, qual aquela
potencialmente apta a produzir os efeitos danosos, independentemente das demais
circunstâncias que, no caso concreto, operaram em favor de determinado resultado.
Apreciado certo dano, temos que concluir que o fato que o originou era capaz de lhe
dar causa. Mas – pergunta-se -, tal relação de causa e efeito existe sempre em casos
dessa natureza, ou existiu nesse caso, por força de circunstâncias especiais? Se existe
sempre, diz-se que causa era adequada a produzir o efeito; se somente uma
circunstância acidental explica essa causalidade, diz-se que a causa não era
adequada290.

Por fim, a teoria da relevância típica surge como antecessora da teoria da imputação
objetiva, especialmente por conferir o devido valor à relevância jurídica. Aníbal Bruno291
esclarece que a teoria se traduz na conjugação da teoria da equivalência com a da causalidade
adequada, adquirindo mérito no fracionamento da questão ontológica (causalidade) do

288
SANTOS, Juarez Cirino dos, A moderna teoria do fato punível, Curitiba: Fórum, 2004, p. 52.
289
SANCINETTI, Marcelo A, Observaciones sobre la teoria de la imputación objetiva. Teorias actuales em
el derecho penal, Buenos Aires: Ad-Hoc, 1998, p. 187.
290
TEPEDINO, Gustavo, TEPEDINO, Gustavo - Notas Sobre o Nexo de Causalidade.pdf, Revista Jurídica,
v. 296, n. Ano 50, p. 7–18, 2002, p. 9.
291
BRUNO, Aníbal, Direito penal - parte geral, Rio de Janeiro: Forense, 1978, p. 328.
102

problema normativo (relevância). Outrossim, adquire importância no que diz respeito à


interpretação teleológica dos tipos, porquanto o fim protetivo da figura típica evidencia o que é
considerado relevante para fins de tutela. É dizer, o juízo que se verifica em sede da imputação
objetiva a relevância do nexo de causalidade.
A teoria da imputação objetiva se afasta da relação de causalidade naturalística entre o
evento danoso e o dano para envidar esforços na atribuição de responsabilidade. Jorge de
Figueiredo Dias explica que no preenchimento integral de um tipo de ilícito a produção de um
resultado requer não apenas a realização do resultado, mas também se ele pode ser atribuído à
ação, de modo que a ação deve ter sido ao menos a causa do resultado, ou seja, sob a vertente
da relação de causalidade. A causalidade se revela como exigência mínima para constituir a
conexão entre o comportamento humano e o resultado. A teoria da imputação jurídico-objetiva
do resultado à ação surge então como limitação jurídica da causalidade natural292.
O primeiro degrau como exigência mínima diz com a categoria da causalidade. Com
efeito, a ação deve se consubstanciar, ao menos, na causa do resultado, a qual é aferida por
intermédio da teoria das condições equivalentes293. A premissa básica desta teoria está em
considerar a causa do resultado como toda a condição sem a qual o resultado não teria ocorrido
– é a conhecida fórmula da “conditio sine qua non”294. Por essa razão, todas as condições que,
de algum modo, contribuem para a produção do resultado são causais em relação a ele.
Como existe o risco da abrangência longínqua da fórmula resgatar o “regressus ad
infinitum”, são necessárias as devidas correções por critérios de imputação objetiva, ou ainda,
por limitações ao nível do tipo subjetivo e da culpabilidade295. A relevância das hipóteses de
exclusão da imputação aqui se encontra, justamente por atuar de modo diverso da teoria da
“proibição de regresso”, a qual pretendia soluções por intermédio da negativa da causalidade
do primeiro causador. É que, em verdade, não se trata de uma questão de causalidade, e sim de
imputação.
Outra crítica à teoria da equivalência reside no fato de que a técnica da supressão mental
de uma condição somente serve a determinados casos. Em outros, mostra-se deficiente, como
nos de “causalidade virtual”. É o exemplo em que A atira em B, no exato momento em que

292
DIAS, Direito Penal. Parte Geral: questões fundamentais - a doutrina geral do crime, p. 322–323.
293
BITENCOURT, Tratado de direito penal: Parte geral (Arts. 1 o a 120).
294
Ibid.
295
GRECO, Um panorama da teoria da imputação objetiva.
103

sofria um ataque cardíaco. Ainda, nos casos de “dupla causalidade” ou “causalidade


alternativa”296.
Para além dessas dificuldades, há hipóteses de difícil definição se determinada a ação
se trata de efetiva condição sine qua non do resultado. Situações essas cada vez mais frequentes
no seio da sociedade de risco, a exemplo dos atentados ao meio ambiente, da manipulação
genética, da responsabilidade pelo produto etc. Dificuldade também haverá quando se trata de
responsabilização de entes coletivos, como de um corpo empresarial, ou de uma equipe médica
de cirurgia.
Definido o primeiro degrau, os próximos elevam-se ao patamar da “valoração jurídica”,
com o propósito de se determinar as exigências indispensáveis à doutrina da imputação. Assim,
no segundo degrau está a causalidade jurídica sob a forma da teoria da adequação297. O critério
de imputação há de ser formulado de modo que se permita afastar diversas condições de
verificação do resultado. Neste pressuposto foi concebida a teoria da adequação ou teoria da
causalidade adequada, a qual distingue condições juridicamente relevantes das irrelevantes.
Pelo critério geral de que se utiliza, somente serão consideradas relevantes as condições
que, conforme as máximas da experiência e da normalidade, revelarem-se idôneas para a
produção do resultado e, portanto, recaindo na previsibilidade. Figueiredo Dias 298 ressalta,
ainda, que se faz necessário que a adequação deve se referir a todo o processo causal, e não
somente ao resultado.
Destaca-se também que em vários casos a teoria da adequação apresenta falhas,
sobretudo naqueles em que a atividade desenvolvida traz consigo riscos consideráveis ao objeto
de proteção, todavia legalmente permitidas, justamente por não serem proibidas. Assim, o
tráfego viário, a comercialização de produtos perigosos, as intervenções médicas arriscadas, as
técnicas genéticas, entre vários outros exemplos, trazem consigo problemas de imputação cuja
solução não é bem entregue pela teoria da adequação. Isso porque, nesses casos, a ação se
mostra adequada à produção do resultado típico, ao passo que não há como se proibir tais
comportamentos sem comprometer o desenvolvimento da sociedade.
Em um terceiro degrau encontra-se a conexão de risco, segundo Jorge Figueiredo.
Rememora-se que a pedra angular da teoria da adequação é a ideia de limitação da imputação

296
A exemplo de A e B que colocam veneno separadamente na refeição de C, qualquer deles com dose mortal.
297
GRECO, Luís, Um panorama da teoria da imputação objetiva, 4a ed., rev. e atualizada. São Paulo: Thomson
Reuters/Revista dos Tribunais, 2014, p. 24–31.
298
Ibid., p. 328-330.
104

do resultado à conduta da qual deriva o perigo idôneo para a produção do resultado. De igual
modo, o resultado só será imputável à conduta quando esta tenha criado (ou aumentado, ou
incrementado) um risco proibido ao bem jurídico, exigindo-se ainda que “esse risco se tenha
materializado no resultado típico”299. Portanto, a teoria da imputação requer um duplo fator:
que o sujeito crie, com sua conduta, um risco não permitido, ou que incremente o risco já
existente; e, após, que o risco recaia na produção do resultado concreto. Uma vez não se
verificando um dos fatores, excluir-se-á a imputação.

3.3 Aspectos da teoria da imputação objetiva de Claus Roxin

Como visto, a teoria da imputação objetiva surge como complemento das teorias
causais. Procura se distanciar da relação de causalidade entre o evento danoso e o dano
objetivando a atribuição de responsabilidade.
A teoria alcançou notoriedade a partir da década de 70, pelas mãos de Claus Roxin, seu
grande sistematizador, sob a base do funcionalismo teleológico300. Para essa teoria, a existência
do nexo entre a conduta e o resultado, para além da relação física de causa e efeito (nexo físico),
depende do nexo normativo.
A rigor, a imputação objetiva delimita a atribuição de responsabilidade, na medida que
passa a exigir relevância jurídica na relação de causa e efeito, não sendo suficiente a causalidade
empírica. Sobressai da doutrina de Reinhart Maurach301:

“[...] Es éste precisamente el interés principal de la teoría de la imputación objetiva


del resultado; para ésta, ‘la causalidad sólo es la condición mínima; a ella debe
agregarse la relevancia jurídica de la relación causal entre el sujeto atuante y el
resultado" (Jakobs,7/29). Por lo tanto, la investigación de la causalidad tiene lugar
en dos etapas, estructuradas una sobre la otra, en cuanto en primer lugar debe ser
examinada la causalidad (empírica) del resultado (...) y, afirmada que ella sea, la
imputación (normativa) del resultado [...]”.

Dizer que o sujeito que dá causa a um fato significa que o evento é fruto de sua vontade
e não de um acontecimento aleatório. Nesse contexto, o fato diz com a realização da vontade,
ao passo que a imputação é o juízo que interliga o fato com a vontade.
A teoria faz referência ao termo “objetiva” em razão da “previsibilidade” não ser
avaliada com base na individualidade do agente. Ao contrário, o preceito fundamental se
encontra ao abrigo de um critério geral e objetivo. O critério da discricionariedade objetiva

299
Ibid., p. 331–332.
300
PRADO, Luiz Regis, Curso de direito penal brasileiro, São Paulo: Revista dos Tribunais, 2002, p. 268.
301
MAURACH, Reinhart, Derecho penal, parte general, Buenos Aires: Astrea, 1994, p. 317–318.
105

impede que o resultado seja imputado ao sujeito, especialmente quando não detém o controle
causal sobre o evento danoso, naquilo que a imputação objetiva acaba acrescendo à causalidade
naturalística uma categoria normativa, somando finalidade objetiva e causalidade302.
Assim, o dolo é o conhecimento do risco, ao passo que a culpa é a cognoscibilidade do
risco. Além disso, a autoria e participação passam a apresentar diferença quantitativa e não
qualitativa. Desta maneira, é que se diz que a teoria do delito se transforma em uma teoria de
imputação303.
Em vista disso, a imputação objetiva do resultado ao sujeito somente ocorre se o
resultado se mostrar previsível e dirigido pela vontade. Acaso diante de situações irregulares
ou não-domináveis nas quais não haja a expectativa de um controle efetivo sobre o curso causal,
restará impossível a imputação, ainda que diante de uma relação de causalidade. Nesta seara,
faltará a tipicidade quanto aos resultados imprevisíveis ou não controlados pela vontade.
Por outro lado, a teoria não prescinde do nexo físico causalístico, ao contrário: o
pressupõe. Contudo, não se imputa o resultado tão somente pelo fato de que o tenha causado,
reclamando-se, ainda, que o resultado retrate a realização de um perigo criado ou incrementado
pelo autor e reprovado pelo tipo penal. Na prática, a imputação objetiva requer a criação ou
incremento de um risco juridicamente intolerável e não permitido ao objeto tutelado, além da
concretização desse perigo em resultado típico, devendo estar o resultado dentro do alcance do
tipo304. Em síntese, para imputação do resultado, é preciso:

i) criação ou incremento de um risco juridicamente intolerável e não permitido


(proibido) ao bem jurídico tutelado;
ii) concretização desse perigo em resultado típico; e
iii) resultado dentro do alcance do tipo.

A identificação do risco proibido se dá através da prognose póstuma objetiva. Para Luís


Greco305:

"Prognose porque é um juízo formulado de uma perspectiva ex ante, levando em conta


apenas dados conhecidos no momento da prática da ação. Objetiva, porque a prognose
parte dos dados conhecidos por um observador objetivo, por um homem prudente,
cuidadoso - e não apenas por um homem médio - pertencente ao círculo social em que
se encontra o autor. Póstuma, porque, apesar de tomar em consideração apenas os

302
CAMARGO, Antonio Luís Chaves, Imputação objetiva e direito penal brasileiro, São Paulo: Cultural
Paulista, 2002, p. 2003.
303
GOMES FILHO, Dermeval Farias, Dogmática Penal: fundamento e limite à construção da jurisprudência
penal no Supremo Tribunal Federal, Salvador: JusPodivm, 2019, p. 102.
304
GRECO, Um panorama da teoria da imputação objetiva, p. 24–31.
305
GRECO, Luís, Um panorama da teoria da imputação objetiva, 3a ed., rev. e atualizada. São Paulo: Thomson
Reuters/Revista dos Tribunais, 2013, p. 34–35.
106

fatos conhecidos pelo homem prudente no momento da prática da ação, a prognose


não deixa de ser realizada pelo juiz, ou seja, depois da prática do fato”.

É o que se dá, por exemplo, no caso dos pais os quais não podem ingressar no nexo
causal do homicídio praticado pelo filho apenas por serem pais. Ao terem um filho, não estão
criando um risco proibido. Ou ainda, no caso de um homem que apresenta colesterol alto e sua
esposa decide matá-lo levando-o para a churrascaria e lá, por ter comido grande volume acaba
sofrendo um acidente vascular cerebral (AVC) e morre. Pela teoria da equivalência dos
antecedentes, a esposa entraria na cadeia do nexo causal. Pela teoria da imputação objetiva,
não, pois levar o marido para a churrascaria não significa criar um risco proibido.
No início do século XIX, Friedrich Hegel já anunciava os fundamentos da construção
teórica da imputação objetiva, evidenciando que apenas os aspectos do evento naturalístico que
possam ser reconhecidos como próprios do autor são capazes de ocasionar a imputação306.
Fernando Galvão explica que isso significa que tão só as consequências da conduta do autor,
modificação do mundo exterior poderão lhe ser imputadas.
Nisso é que surge a relevância da diferenciação entre “causar” e “imputar”. O direito
penal não deve se preocupar com a responsabilização do indivíduo que deu causa a um evento
danoso tão somente em razão da má-sorte, por força da mera causalidade, ou pelo simples acaso.
Ao contrário, o direito penal, de forma juridicamente sistematizada, uma vez atendida a
tipicidade formal – concretizada na adequação típica, na conduta, no nexo de causalidade e no
resultado – impõe o dever de exame da tipicidade material – plasmada na imputação objetiva,
no resultado jurídico relevante e no dolo ou culpa.
A imputação objetiva reclama a produção de um perigo não permitido pela finalidade
protetiva da norma, porquanto o fundamento da imputação objetiva é a causalidade relevante.
Em sendo a imputação objetiva do resultado essencialmente normativa, apenas o
comportamento com o propósito ilícito é que haverá de ser reconhecido imputável. Na
eventualidade de uma atuação atípica, a imputação objetiva restará impossibilitada, pois não
convém ao direito penal307.
No ponto, oportuno trazer uma breve distinção entre imputação objetiva e imputação
subjetiva. A objetiva decorre da seleção de condutas naturais que interessa ao sistema penal,
isto é, reprovável como ação do sujeito, preocupando-se com a conduta dotada de

306
GALVÃO, Fernando, Imputação Objetiva, Belo Horizonte: Mandamentos, 2000, p. 25.
307
RUDOLPHI, Hans Joachim, Causalidad e imputación objetiva, 1. ed., 2. reimp. Bogota: Universidad
Externado de Colombia, Centro de Investigaciones de Derecho Penal y Filosofía del Derecho, 1998, p. 13–14.
107

intencionalidade, podendo, portanto, ser reprovada pela culpabilidade308. Por outro lado, a
subjetiva requer a avaliação sob o aspecto individual do agente, importando a subjetividade do
caso concreto. A responsabilidade é verificada, portanto, por meio dos fatores subjetivos, como
a culpa e dolo.
Demais disso, o pano de fundo da imputação é o risco proibido, especialmente em razão
da distinção entre causar e imputar. Considerando-se que os bens jurídicos estão completamente
envoltos em situação de perigo tolerado, a imputação objetiva somente ocorrerá quando o
agente provocar situação de risco maior do que a socialmente tolerada309.
Releva notar, ainda, que a imputação objetiva não se limita aos crimes materiais, face à
sua preocupação com circunstâncias que para o direito penal concretizam condutas lesivas aos
interesses sociais. Portanto, a imputação objetiva reconhece, sob o viés normativo, o núcleo do
fato relevante para o direito penal, conferindo sentido social ao comportamento lesivo.
Transpondo-se todas essas exposições aos casos e recursos cotidianos, afirma-se que
são copiosos exemplos hodiernos que trazem alta carga de risco, o que pode inclusive fazer a
polêmica dos carros autônomos perder seu objeto. Confira-se o exemplo das aeronaves que
abarrotam os espaços aéreos. Elas se locomovem praticamente de modo autônomo durante todo
o trajeto, no que apresenta conjuntura muito próxima à dos veículos inteligentes.
Veja-se que não se discute a aceitação social do transporte aéreo, tida atualmente mais
do que um simples meio de transporte, mas uma necessidade essencial. Ainda que numerosos
acidentes ocorram, não há movimentos no sentido de se estancar os voos. Em verdade, a cada
acidente aéreo, uma nova lição por parte dos técnicos e empresários, os quais procuram
descobrir com muito rigor as causas da fatalidade, para que possam evoluir corrigindo o erro
identificado, diminuindo-se cada vez mais diminuir os riscos da atividade.
Vozes contrárias contestariam tal posição, como Peter Asaro310, para quem as inovações
tecnológicas anteriores não levantaram essa preocupação, em mesmo grau, porque era possível
confiar na moral humana ou na lei posta, para regulamentar seu uso. Embora houvesse riscos
reconhecidos ao uso de tecnologias como armas, carros, aviões, motores a vapor e muitos
outros, esses riscos eram circunscritos pelos limites de seus efeitos imediatos e pela
responsabilidade próxima de cada ser humano e instituições humanas por esses efeitos.

308
PUPPE, Ingeborg, Estudos sobre imputação objetiva e subjetiva no direito penal, 1. ed. Madri Barcelona
Buenos Aires São Paulo: Marcial Pons, 2019, p. 65–126.
309
GALVÃO, Imputação Objetiva, p. 25–30.
310
ASARO, The Liability Problem for Autonomous Artificial Agents.
108

Na maioria dos casos, esses riscos também eram limitados em sua complexidade e
longevidade, no sentido de que esses efeitos poderiam ser antecipados, gerenciados e reduzidos
ao longo do tempo. Logo, seria possível afirmar que enquanto houver uma mão humana nos
controles, há uma margem de garantia de que a tecnologia não pode sair muito fora de controle
antes de ser dominada pela agência humana ou pela política pública reguladora311.
Tal conjectura também é comparável com o que ocorre nas plataformas de manipulação
de dados, em que há plena consciência dos riscos de violação de direitos da personalidade, mas
ninguém se priva de fornecê-los em prol da continuação de suas relações sociais, sob pena de
um isolamento imensurável, especialmente no ambiente comercial.
Todas são situações que retratam o reconhecimento geral aos riscos de se viver em
sociedade. Deste modo é que aeronaves, trens, metrôs, carros autodirigidos e os meios de
comunicação informatizada em geral se transformam em bens que, apesar da exposição a riscos,
são aceitos como riscos normais até se tornarem itens sociais tão essenciais que, ao invés de
terem seu uso criminalizado, não se imagina mais a coletividade sem eles.

3.3.1 O risco proibido como elemento da teoria da imputação objetiva

Prefacialmente, há uma distinção que serve à aplicação da teoria da imputação objetiva.


Os riscos da vida social são subdivididos, doutrinariamente, em permitidos e reprovados. Os
permitidos são aqueles socialmente aceitáveis, e os reprovados, por excederem os limites da
tolerância, são socialmente proibidos.
Para Choclán Montalvo312, há uma certa dificuldade na diferenciação entre o risco
permitido e o proibido. Na tentativa aclarar as figuras, a literatura simpatizante da teoria da
imputação objetiva sugere critérios, como a utilidade social, a inevitabilidade do risco e a
necessidade de determinados empreendimentos.
Vale anotar que o risco está contido no mundo natural, ao passo que a permissão e a
proibição são ditadas pela ordem jurídica313. Assim é que as estruturas sociais priorizam
condutas que são lícitas e reprovam as que entendem criadoras de riscos inadmissíveis. Em
razão da premissa de que todo e qualquer contato social é gerador de riscos, revela-se inviável
uma normativa que garanta um círculo de relações sociais isento de perigos, porquanto inerente

311
Ibid.
312
MONTALVO, José Antonio Choclán, Deber de cuidado y delito imprudente, 1. ed. Barcelona: Bosch, 1998,
p. 152.
313
DÍAZ, Claudia López, Introducción a la imputación objetiva, 1. ed., 3. reimp. Bogota: Universidad Externado
de Colombia, Centro de Investigaciones de Derecho Penal y Filosofía del Derecho, 2000, p. 108.
109

à configuração social, naquilo que sua tolerância se faz necessária para o prosseguimento e
desenvolvimento da civilização314.
Luís Greco acrescenta que a teoria se interessa não apenas pelo desvalor do resultado,
mas precipuamente em definir os limites entre as ações proibidas e permitidas, sobretudo em
razão também do desvalor (objetivo) da ação, consubstanciado na criação do risco
juridicamente reprovado315. Aponta, ainda, que o fundamento da reprovação jurídica de riscos
criados pode ser encontrado na ponderação entre a pretensa preservação de bens jurídicos, a
qual visa proibir ações perigosas, e o interesse coletivo de liberdade, o qual se contrapõe às
censuras legais. Desse modo, se tudo que apresenta riscos fosse também reprovado, seria
inviável viajar em uma rodovia, praticar alguns esportes, efetuar uma operação bancária ou
realizar tarefas corriqueiras impregnadas de riscos. Aliás, ressalta-se, nesse ponto, que somente
comportamentos perigosos são merecedores de reprovação, ao passo que nem todo
comportamento perigoso está necessariamente reprovado316.
É possível deduzir da teoria da imputação objetiva um sistema de regras de imputação
como um todo. Ela abrange, em regra, dois planos, quais sejam, a criação de um risco proibido,
bem como a sua subsequente realização. Claus Roxin acrescenta ainda um terceiro plano,
consubstanciado no alcance do tipo, no qual são tratadas as situações em que demais agentes,
para além do autor, que contribuíram de maneira relevante para o resultado típico. Reforça-se
que tal auxílio pode advir da própria vítima ou de terceiros317. Cumpre esclarecer que os demais
autores optam por tratar desses casos no plano da criação de riscos.
Verifica-se, portanto, a necessidade do nexo normativo, consubstanciado na criação de
um risco não permitido ou o seu incremento. Rememore-se que o risco pode ser criado ou
incrementado, por ato doloso ou culposo. De qualquer modo, em quaisquer das circunstâncias,
o critério da criação do risco tem o propósito último de se alcançar a exclusão da imputação,
em que pese a presença dos elementos do dolo e da culpa.
Recapitulando-se, uma vez atestado empiricamente o nexo causal, cabe examinar o
cabimento da imputação objetiva do resultado sob o enfoque da conduta do autor.
Primeiramente verifica-se se ele criou o risco juridicamente reprovado, para então, examinar se
o resultado produzido é a realização daquele. São juízos de partida extraídos da própria função

314
STIVANELLO, Teoria da imputação objetiva, p. 72.
315
GRECO, Um panorama da teoria da imputação objetiva.
316
Ibid.
317
ROXIN, Funcionalismo e imputação objetiva no direito penal, p. 116–117.
110

do direito criminal, uma vez que apenas as ações que criam risco maior do que o permitido e a
produção do resultado evitável é que são relevantes. As condutas irrelevantes para o Direito
Penal são desconsideradas, sem mesmo recorrer ao diagnóstico do tipo subjetivo, porquanto a
exclusão funciona no campo do tipo objetivo.
Sobre a relação de custos e benefícios, em que se verifica a tolerância de riscos em troca
de proveitos dentro da sociedade, Günther Jakobs318 esclarece que por não existir uma
sociedade alheia aos riscos e “que ninguém se propõe seriamente a renunciar à sociedade, uma
garantia normativa que implique a total ausência de riscos não é factível; pelo contrário: o risco
inerente à configuração social deve ser irremediavelmente tolerado como risco permitido”.
Nesse diapasão é que se dá a importância das diversas normas para retratar o que é, ou
não, permitido. Para além das normas jurídicas postas, sobressaem também das normas
reguladoras regras de limitação de comportamentos. Então normas da construção civil, da
medicina, farmacêuticas ou aquelas que regulam a construção e o tráfego das aeronaves, embora
não jurídicas, abarcam parâmetros de extrema valia para a delimitação de condutas. Da mesma
forma, a lex artis - conhecimentos técnicos inerentes à profissão- concernente aos algoritmos
dos veículos autônomos compreender-se-ia tão ou maior relevância do que os preceitos
jurídicos319.
Luís Greco aponta dois fundamentos ao risco permitido: o núcleo de liberdade de cada
cidadão, responsável por uma esfera de autonomia do indivíduo diante do Estado, relevando-
se os resultados do emprego dessa liberdade; e, de outro lado, o sopesamento entre a
necessidade de agasalhar juridicamente bens jurídicos e a aspiração coletiva de liberdade320.
Cumpre ressaltar que no tocante aos standards do ramo dos sistemas autônomos, bem
como às regras técnicas e disposições éticas, todos eles são cruciais para a ordenação dos
critérios e parâmetros destinados ao processo de algoritmização, compondo aquilo que Frisch
categoriza como normas pré-jurídicas de cuidado, a serem introduzidas no juízo de tipicidade
da conduta, porquanto consistem em “programas de redução de riscos, lex artis, diretrizes
éticas”321.

318
JAKOBS, Günther, A imputação objetiva no direito penal, São Paulo: Revista dos Tribunais, 2000, p. 31–
40.
319
ROXIN, Funcionalismo e imputação objetiva no direito penal, p. 326.
320
GRECO, Um panorama da teoria da imputação objetiva.
321
WOLFGANG, Frisch, Comportamiento típico e imputación del resultado, Madrid: Marcial Pons, 2004,
p. 106–156.
111

Com efeito, quando a conduta se dá sob a égide da norma pré-determinada (ex ante),
bastante para a redução de riscos concretos, não haverá que se falar em tipicidade. Aliás, os
almejados códigos de ética a serem estruturados por organizações especialistas das diversas
nações se incumbirão, de um modo ou de outro, de delimitar o risco permitido no âmbito das
situações-limite322.
Como visto alhures, na perspectiva funcionalista de Claus Roxin, o direito penal não
deve se vincular a dados ontológicos como ação e causalidade. Com base nisso que, forte no
seu escopo constitucional de tutelar bens jurídicos, mostra-se prudente atuar com quatro
critérios: (i) ações que diminuem riscos não devem ser imputadas como condutas típicas; (ii)
condutas não criadoras de uma possibilidade objetiva de dano não são objetivamente
imputáveis, como no exemplo de Richard Honig em que o sobrinho convence o tio a se dirigir
a um bosque no qual sabe haver alta incidência de raios323; (iii) o autor ultrapassa as barreiras
do risco permitido, causa o resultado, mas não se sabe se o comportamento adequado o teria
evitado, ocorrendo a imputação na hipótese de a ação propiciadora do risco permitido o tiver
aumentado de modo relevante; (iv) o resultado que não está na esfera de proteção da norma de
cuidado não é imputável ao sujeito que o causou324.
Cabe destacar, ainda, que Caitlin Mulholland faz alusão a três critérios que podem se
apresentar como pilares da teoria da imputação objetiva, quais sejam, a dominabilidade, a
evitabilidade e a previsibilidade. O autor também ensina que a teoria da causalidade adequada
se reveste como sustentáculo para esse último critério (a previsibilidade)325.
No que tange à criação do risco não permitido (nexo normativo), a primeira dificuldade
está na taxação daquilo que significaria juridicamente desaprovado. Noutro giro, não se
encontra muito obstáculo quando o indivíduo diminui ou atenua o perigo. É o clássico exemplo
em que A empurra B, causando-lhe leves lesões, para evitar que não seja atropelado. Em que
pese ser previsível e provável que tal conduta causaria lesões, consoante a teoria da adequação
e, portanto, imputáveis ao agente, a melhor solução é dada pela doutrina da conexão de risco.

322
JANUÁRIO, Túlio Xavier, Veículos autónomos e imputação de responsabilidades criminais por acidentes, in:
RODRIGUES, Anabela Miranda (Org.), A inteligência artificial no direito penal, Coimbra: Almedina, 2020,
p. 113.
323
CAMARGO, Imputação objetiva e direito penal brasileiro, p. 63.
324
ROXIN, Funcionalismo e imputação objetiva no direito penal, p. 58.
325
MULHOLLAND, Caitlin Sampaio, A responsabilidade civil por presunção de causalidade, 1. ed. Rio de
Janeiro: GZ, 2009, p. 187.
112

Logo, a responsabilidade penal do indivíduo, seguindo essa linha, seria excluída, pela
inexistência de criação de um risco não permitido. Poder-se-ia argumentar que a teoria da
adequação permitiria a exclusão da responsabilidade sob o abrigo da excludente de ilicitude (in
casu, estado de necessidade). Entretanto, inicialmente, seria aceita a ilicitude da conduta,
mesmo que excluída em momento posterior de análise do delito, o que significa que ainda que
venha a melhorar a situação do bem jurídico tutelado, seria admitido que o agente causou lesão
típica ao bem.
Salienta-se que a situação de diminuição de risco que impede a imputação objetiva
pressupõe que o objeto protegido já se encontre em perigo. Desta forma, imagine-se um
motorista que por imprudência atropela alguém, e este, que por ter se lesionado, deixa de tomar
um avião, adiando sua viagem. Dado avião cai, matando todos os passageiros. Por mais que,
por meio de sua conduta, o motorista tenha impedido que o lesionado morresse, evidentemente
não se trata de hipótese de diminuição do risco. Isso porque não houve a diminuição de um
risco preexistente326.
A imputação também deve ser excluída acaso o resultado seja produzido por um
comportamento que não ultrapassou o limite do risco juridicamente permitido. Essa exclusão
diz com a sociedade de risco, conformação social estudada no capítulo 2.1. O desenvolvimento
e as conquistas civilizacionais traduzem a vontade coletiva em seguir sua trajetória na estória,
mesmo que assuma riscos. O direito penal, na qualidade de ultima ratio, não está apto, assim,
a sancionar o que é permitido. Cabe ao ordenamento definir as regras do jogo, especialmente
evidenciando os cuidados a serem observados na atividade327.
A regulamentação, entretanto, pode ser revelar limitada, máxime quando não conhece
bem os riscos advindos da atividade. É o exemplo da radiação emitida pelas torres de antenas
de celulares ou de diversas intervenções na área médica. No ponto, a leges artis assume
importante papel por definirem uma praxe de segurança dentro de determinado setor técnico,
em especial quando a regulamentação ainda se mostra tímida quanto ao assunto.
Nos ensinamentos de Figueiredo Dias328, dentro do risco permitido há o risco geral de
vida, em que exemplifica com o caso do médico que receita um medicamento, sem, contudo,
ter que exigir todos os exames complementares indispensáveis para a descoberta de eventual
hipersensibilidade. Se o paciente morre por conta de um choque anafilático, a morte não deve

326
ROXIN, Funcionalismo e imputação objetiva no direito penal, p. 166–167.
327
Ibid., p. 333.
328
DIAS, Direito Penal. Parte Geral: questões fundamentais - a doutrina geral do crime, p. 334–335.
113

ser objetivamente imputada ao médico que tão somente procurou se informar sobre algum fator
alergênico. A rigor, os riscos gerais da vida são socialmente adequados, não se subsumindo a
um risco não permitido. O fato não representa relevância do ponto de vista da pura causalidade.
No que diz respeito à potencialização do risco, ela pressupõe um risco já criado.
Contudo, caso o agente imprima aumento ou potencialização, a ele será imputado o resultado329.
Assim, aquele que encerra a vida de um paciente já em estado final, ou agrava-lhe o estado de
saúde é responsável pelo resultado, a exemplo do motorista imprudente de uma ambulância que
transporta um acidentado moribundo, vindo a causar um novo acidente.
Mas não basta a criação ou o aumento de um risco, também se faz necessária a
concretização do risco não permitido no resultado típico330. Significa dizer que se exige que
esse risco se materialize no resultado. No exemplo da ambulância conduzida por motorista
imprudente, há que se examinar se o evento morte ocorreria de qualquer maneira. O exame é
feito sob um juízo ex ante, para saber qual risco foi determinante ao resultado, porém só
respondida por um exame ex post, para que se tenha ciência de todas as circunstâncias
relevantes.
Fala-se, por fim, que para a ocorrência do risco, exige-se que o perigo que se concretizou
no resultado seja um daqueles em vista dos quais a ação foi proibida, ou seja, um daqueles que
corresponde ao fim de proteção da norma de cuidado. Portanto, a produção de resultados não
cobertos pelo fim e pelo âmbito de proteção da norma exclui a imputação objetiva. Assim é
que Claus Roxin331 afirma que a teoria da imputação objetiva aprimorou os parâmetros de
imputação, tornando-os ainda mais rigorosos, porque o tipo objetivo passa a exigir a finalidade
de proteção da norma de cuidado, não sendo suficiente a relação causal entre o risco não
permitido criado e o resultado.
Para Luís Greco significa dizer que o risco somente se realiza na hipótese de a
reprovação da conduta encontrar fundamento na evitação de dano ao bem jurídico, por
intermédio de dado curso causal que venha a surgir. Não obstante a dificuldade em se definir o
que é, de fato, o “fim de proteção da norma”, a intersecção entre as várias definições está na
pretensa evitação de lesão ao objeto de proteção do tipo. Destarte, acaso seja acometido não o

329
Ibid., p. 335–336.
330
Ibid., p. 336–338.
331
ROXIN, Estudos de direito penal, p. 111.
114

bem jurídico em foco, mas um outro, ou acaso ele mesmo seja afetado, porém por curso causal
distinto, o que se realizou no resultado não foi o risco que se pretendia afastar332.
Ingeborg Puppe333 esclarece, contudo, que apesar da presença da causalidade da ação
do agente, sua violação do dever de cuidado e a causalidade da característica contrária ao dever
dessa ação para o resultado, a imputação do sujeito pode falhar se a finalidade de proteção da
norma não abranger o caso em questão. Ela anota que, segundo Claus Roxin, é necessário
demonstrar se o perigo que o dever de cuidado violado visava prevenir foi realizado no caso
em questão, ou se a norma de comportamento infringida é destinada à proteção do bem jurídico.
Isso significa que a finalidade de proteção é uma vontade do legislador que foi incorporada à
norma para estabelecer sua aplicação. No entanto, as razões pelas quais o legislador promulga
uma norma não limitam sua função de proteção, como se pode observar nos exemplos das
normas de trânsito. Portanto, se já está estabelecido que as características do comportamento
do agente que são contrárias ao dever de cuidado foram causais para o resultado, e que ele teria
evitado o resultado se tivesse respeitado o dever de cuidado, então a norma de cuidado já
cumpriu sua finalidade de proteção nesse caso.
Puppe334 continua exemplificando que quando uma placa de trânsito é colocada em uma
área residencial com o objetivo de criar um ambiente seguro para as crianças brincarem na rua,
um motorista que dirige acima do limite de velocidade nessa área pode ser responsabilizado se
atropelar um senhor de idade. A finalidade da norma deve ser determinada a partir da própria
norma, e não de alguma interpretação arbitrária que restrinja seu escopo de aplicação. A norma
que deve ser analisada não é o tipo penal em si. A análise da finalidade de proteção deve se
concentrar na relação entre a violação do dever de cuidado e a ocorrência do resultado, ou seja,
na causalidade das características do comportamento do agente que vão contra o dever de
cuidado. Se já estiver estabelecido que essas características foram causais para o resultado, e
que, portanto, o resultado poderia ter sido evitado se o agente tivesse respeitado o dever de
cuidado, então parece que a norma de cuidado já cumpriu sua finalidade de proteção nesse caso.
Juarez Tavares335 acrescenta que, em verdade, a definição do fim proteção da norma,
por enquadrar conteúdo valorativo, requer uma técnica de sopesamento de propósitos e valores,
não sendo, portanto, de probabilidade.

332
GRECO, Um panorama da teoria da imputação objetiva.
333
PUPPE, Estudos sobre imputação objetiva e subjetiva no direito penal, p. 35–38.
334
Ibid., p. 36–37.
335
TAVARES, Juarez, Teoria do crime culposo, 3. ed. integralmente rev. e ampliada. Rio da Janeiro: Editora
Lumen Juris, 2009, p. 346.
115

Com tudo isso é que se observa o tangenciamento da teoria da imputação objetiva com
o estilo contemporâneo de vida social próprio da sociedade do risco. De fato, aceitações sociais
se pulverizam entre os domínios do conhecimento refutando a intervenção punitiva desmedida.
A questão enfrenta a problemática da necessidade de intervenção penal em domínios aceitos
pela sociedade, ou que possam ser solucionados por esferas judiciais outras.

3.3.2 A exclusão da imputação

As situações de exclusão da imputação podem ser sintetizadas, de modo didático,


partindo-se dos próprios requisitos da imputação: a existência do risco; o risco reprovado; e a
realização do risco no resultado336.
Quanto ao primeiro (existência do risco), as hipóteses de exclusão emanam do risco
juridicamente irrelevante ou da diminuição do risco. Com relação ao segundo quesito (risco
proibido), suas hipóteses de eliminação estarão inseridas no risco permitido (princípio da
confiança), no comportamento exclusivo da vítima, nas contribuições socialmente neutras, na
adequação social, e na proibição do regresso337. Por fim, a realização do risco no resultado
poderá ser afastada em virtude da lesão ou curso causal sem relação com o risco proibido, dos
danos tardios, dos danos resultantes de choque, das ações perigosas de salvamento, e do
comportamento indevido posterior de um terceiro.
Portanto, são situações em que a imputação não se mostra cabível, em razão da
inexistência da ação arriscada. Ao presente tema, as hipóteses de exclusão que mais se
aproximam do objeto desse estudo se referem aos casos de diminuição do risco e, ainda, quando
inexistente um aumento juridicamente relevante do risco.
Ademais, a realização do risco estará também excluída quando, apesar da criação de um
risco não permitido, a forma como o resultado ocorreu não estiver compreendida pelo fim de
proteção da norma violada338. É de se observar a incoerência na admissão dos riscos inerentes
a uma atividade, o que ocorre na sociedade que desfruta de uma tecnologia e suas utilidades, e
permitir o deslocamento de todas as consequências penais em direção aos seus desenvolvedores
ou usuários. Vale destacar que o fator segurança geral no trânsito é trazido pelos VA’s, forte na
aposta em uma redução na taxa de acidentes em comparação com veículos conduzidos por

336
GRECO, Um panorama da teoria da imputação objetiva.
337
Ibid.
338
ROXIN, Claus. Fundamentos político-criminais e dogmáticos do direito penal. Revista Brasileira de Ciências
Criminais, v. 23, n. 112, p. 33–40, 2015.
116

humanos, naquilo que a resposta penal excessiva para envolvidos da comercialização e


utilização dos VA’s pode implicar, contraditoriamente, a diminuição da segurança pública339.
As exigências referentes ao dever de cuidado dizem com o acolhimento de critérios de
segurança em conformidade com o estado atual da ciência, assim como o respeito às normas
técnicas. As exigências desse dever sofrem certa dose de atenuação na proporção em que é
aceita. Portanto, àquele que observa as regras impostas não pode ser imputado o resultado
lesivo.
Paz Mercedes Aguado340 acrescenta que a definição do risco permitido deve ser
realizada diante da situação concreta, não abrindo possibilidade para generalizações. Para tanto,
primeiramente se cobra uma valoração das normas administrativas de controle da atividade,
bem assim como as normas técnicas reguladoras, deontológicas ou da experiência que regem a
atividade.
Ademais, o nexo de imputação é interrompido sempre que a ação se torna causa de um
resultado típico em razão do desvio provocado por um terceiro. Claus Roxin cita o exemplo do
gerente de banco que empresta uma quantia para um cliente que a emprega para o tráfico de
entorpecentes, não sendo, contudo, responsável pelo ato penalmente relevante ainda que tivesse
ciência do propósito criminoso. Fica, portanto, excluída tanto a responsabilidade dolosa - o que
poderia ser pensado no terreno da participação -, como aquela a título de culpa, isso porque não
se trata de um problema de dolo, mas em uma questão de imputação341.

3.3.3 Caracterização das “comunidades de perigo”?

A caracterização da comunidade de perigo se dá em situação em que várias pessoas


correm risco, sendo justificável o sacrifício de alguém para salvar outras342. Ainda que haja
vozes que defendam a compatibilização desse instituto na esfera dos carros autônomos, a
maioria doutrinária o afasta, merecendo efêmero tratamento nessa pesquisa tão somente por ser
questão frequentemente levantada na literatura especializada, porém, repita-se, para rechaçá-la.

339
MARCHANT; BAZZI, Autonomous vehicles and liability: what will juries do?, p. 113–117.
340
DE LA CUESTA AGUADO, Paz Mercedes, Tipicidad e imputación objetiva, Mendoza: Ediciones Jurídicas
Cuyo, 1998, p. 150.
341
ROXIN, Claus, Derecho penal. Parte general. Tomo I. Fundamentos. La estructura de la teoría del delito,
Madrid: Editorial Civitas, 2003, p. 355.
342
KÜPER, Wilfried, Grund- und Grenzfragen der rechtfertigenden Pflichtenkollision im Strafrecht, [livro
eletrônico]. Berlin: Duncker und Humblot, 1979.
117

Eric Hilgendorf343, para quem o presente tema dos carros autônomos não se subsome ao
conceito de “comunidades de perigo”, exemplifica com o caso hipotético em que dois alpinistas
se seguram a uma corda que está prestes a arrebentar, e um deles a corta, para que a ação
gravitacional diminua e ele possa sobreviver.
Wagner Marteleto344 e Matheus Caetano345, do mesmo modo, também refutam a
caracterização das “comunidades de perigo” no campo dos autodirigidos. Para Marteleto não
se cogita aspectos da “comunidade de perigo” em tais cenários. O pedestre, v.g., que não está
na rota do veículo não corria risco algum, e por isso não se fala em “igualar chances de
salvamento” em relação a ele, simplesmente porque ele não necessita ser salvo. Recorda-se que
nas comunidades de perigo a autopreservação é uma constante inerente à sua dogmática.
Matheus Caetano346 corrobora que as situações de colisão rodoviária decorrentes de
veículos inteligentes não podem ser incluídas nas comunidades de perigo, nem mesmo nas de
destino ou de tragédia. Para o autor “não podem ser compreendidos nem como estado de
necessidade, nem como colisão de deveres, embora apresentem alguns elementos das chamadas
comunidades de perigo, mas não se compatibilizam com nenhuma delas”.

3.3.4 O princípio da confiança e o enlace com o risco permitido

O princípio da confiança foi cunhado pela jurisprudência alemã e tem por fundamento
a obrigação que as pessoas têm na divisão do espaço que ocupam com as outras, seja de modo
permanente, momentâneo ou transitório. De fato, uma ordenação em sociedade, segundo Claus
Roxin, somente se revela praticável, se os membros do corpo social puderem confiar nos
comportamentos lícitos - dentro das regras sociais impostas - por parte daqueles com quem
interagem, ainda que as atividades correlacionadas envolvam o agir sob riscos (riscos
permitidos)347.
O instituto do risco permitido abrange, ainda, o princípio da confiança, segundo o qual
não se vislumbra conduta típica no comportamento em conformidade com as normas, mas que
por se envolver em situação na qual um terceiro falha no cumprimento de seu dever de cuidado,
oportuniza a produção do resultado. Aliás, o indivíduo que satisfaz acertadamente o cuidado

343
HILGENDORF, Direito e máquinas autônomas. Um esboço do problema, p. 77.
344
MARTELETO FILHO, Agentes híbridos e autônomos: alguns problemas de imputação objetiva e subjetiva,
justificação e desculpa, p. 95.
345
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas, p. 182.
346
Ibid., p. 149.
347
ROXIN, Estudos de direito penal, p. 105.
118

dele objetivamente exigido, a ele é dado a permissão para confiar que os outros membros
exercerão suas atividades com igual cautela348.
As partes que compõem um grupo social devem se portar de modo afinado para que
haja harmonia dentro do conjunto que formam. Deste modo, não há que se falar em conduta
típica diante de um comportamento que, por confiança em terceiros agindo conforme seus
deveres e a lei, envolve-se em acontecimento no qual este terceiro prove evento danoso, máxime
porque a criação do risco não permitido requer o domínio do resultado por meio da vontade do
agente349.
Assim são as relações sociais, especialmente as que se formam diante do tráfego viário,
pois capazes de acarretar perigos para todos os envolvidos. Por isso é que o comportamento de
cada um deve se pautar de modo tal que seja voltado à minimização dos riscos. Essa é a
concepção do princípio da confiança, o qual preconiza que os indivíduos confiam que os demais
agirão em conformidade com as regras postas para aquelas situações350.
Nesse diapasão, os indivíduos possuem o dever de exercer seus direitos dentro das
balizas colocadas para que os direitos alheios sejam também respeitados. A observância das
regras do arcabouço normativo vigente, bem como de papéis especiais – geralmente atribuídos
a segmentos específicos – é o que permite a convivência pacífica de uma sociedade. Assim, os
pais são responsáveis pelos filhos, os médicos devem prestar socorro sempre que necessário, e
os usuários do trânsito devem respeitar as sinalizações.
Portanto, mais do que regras, há muita densidade principiológica e ética envolvida, a
qual reclama de cada ser a execução fiel do papel de que lhe é dotado na interação social.
Aqueles que vivem em sociedade são responsáveis e devem agir de forma a não prejudicar
terceiros. A grande relevância do princípio para fins de imputação está no seguinte silogismo:
se todos cumprem seus respectivos papéis, comportando-se em conformidade com o
ordenamento, não haverá imputabilidade, sendo que eventuais acidentes serão tão somente
fatalidades. Caso contrário, em havendo violação de normas e descumprimento de papéis,
surgirá a responsabilização e o dever de reparação jurídico-penal351.
A convivência social não se mostraria viável se fosse necessário verificar, a cada
instante, se o outro está se comportando do modo esperado, tendo que vigiar diuturnamente se

348
TAVARES, Juarez, Teoria do crime culposo [livro eletrônico], 5. ed., rev. Florianópolis: Tirant Lo Blanch,
2018.
349
STIVANELLO, Teoria da imputação objetiva, p. 72.
350
Ibid.
351
Ibid., p. 73.
119

os deveres estão sendo cumpridos por cada qual na realização das infinitas atividades. Logo,
aquele que executa uma atividade perigosa, em princípio lícita, pode confiar que quem
coparticipa nessa mesma atividade comportar-se-á conforme as regras vigentes. Confia-se na
resistência de uma ponte, no pleno funcionamento de um elevador, no respeito ao direito de
propriedade e na parada do motorista diante da luz vermelha do semáforo352.
Eric Hilgendorf propõe, assim, a extensão do princípio da confiança às máquinas, com
o fim de solucionar problemas oriundos da implementação das novas tecnologias, pois de
grande utilidade para o desenlace de conflitos em sede do tráfego rodoviário moderno. Assim,
os usuários das rodovias confiam nos comportamentos dos demais em conformidade com as
regras de trânsito.
O exemplo de Eric Hilgendorf é do pedestre que salta na frente do veículo, sendo
atropelado. Acaso houvesse indícios perceptíveis da embriaguez desse pedestre, é possível
imputar ao motorista a quebra de um dever de cuidado. Caso contrário, não poder-se-ia falar na
nessa quebra de dever. Sob este enfoque, Eric Hilgendorf organiza a adequação do princípio da
confiança, desdobrando-a em “relacionamento homem-máquina”, “relacionamento máquina-
homem” e “relacionamento entre máquinas” 353.

352
MELIÁ, Manuel Cancio, Conducta de la víctima e imputación objetiva en derecho penal: estudio sobre
los ámbitos de responsabilidad de víctima y autor en actividades arriesgadas, Barcelona: Bosch, 1998, p. 322.
353
a) Relacionamento homem-máquina. Em tese, as pessoas podem confiar que os sistemas técnicos usados na
estrada funcionarão adequadamente. Isso significa que o princípio da confiança também se aplica a esses sistemas
técnicos. No entanto, o uso da locução adverbial "em tese” já indica que essa suposição só é válida se não houver
óbvio elementos contrários a um funcionamento adequado da máquina. Assim, caso haja evidências de que um
sistema técnico não esteja funcionando corretamente, não se aplica o princípio da confiança, e deve-se exigir do
usuário da rodovia que considere uma possível falha do dispositivo e aja com o devido cuidado.
b) Relacionamento máquina-homem. A questão mais difícil é saber até que ponto as máquinas têm que considerar
um erro das pessoas. Como as máquinas não podem ser responsabilizadas, a questão pode ser reformulada da
seguinte maneira: até que ponto os fabricantes de sistemas técnicos devem levar em conta o erro humano. Um
sistema autônomo deve ser programado no carro de forma a levar em conta a possibilidade de um comportamento
irracional e autodestrutivo de pessoas? Questões como essas são, até hoje, quase nada discutidas. Pode ser possível
dizer que o comportamento intencional autodestrutivo das pessoas, em regra, não precisa ser levado em
consideração. A situação é diferente no que se refere a previsíveis maus comportamentos humanos, ou seja, reações
defeituosas, que, estatisticamente, ocorrem com frequência e, por isso, devem ser consideradas na programação
dos sistemas. Um fabricante que não considere a possibilidade de um compor lamento defeituoso em seus sistemas
ao menos como possível atua culposamente e pode ser responsabilizado em casos de danos.
c) Relacionamento entre máquinas. Ao programar sistemas autônomos para o tráfego rodoviário, o fabricante pode
assumir que os sistemas de outros veículos funcionam, em tese, de forma correta e confiável. No entanto, deve-se
levar em conta a possibilidade da existência de sistemas tecnicamente mais velhos ou até mesmo obsoletos, além
de o fato de que, naturalmente, ainda, por vários anos, muitos veículos não disponham de sistemas técnicos
equivalentes. Portanto, sistemas técnicos devem ser projetados de forma que possam cooperar e, em determinadas
circunstâncias, também se comunicar com sistemas técnicos de outros veículos. Tal comunicação logo se tornará
regra: não há dúvida de que, no futuro, o tráfego rodoviário não será apenas autônomo, mas também em rede.
120

Cabe aqui lembrar que a teoria da imputação objetiva, sob o olhar de Jakobs, emprega
a concepção de papéis sociais ajustados pelo contato social, aproximando-se da culpa objetiva
ou normativa no direito civil. A quebra do papel implica a ação típica objetivamente
considerada, pois “cada um espera dos demais que se comportem de determinada maneira e
orienta seu comportamento segundo essas expectativas”354. Logo, “é cada papel o que
determina o conteúdo dos deveres e não o arsenal das peculiaridades individuais de cada um”355.
Um perfeito exemplo para isso é justamente os deveres de trânsito. Exemplifica-se mais uma
vez no tráfego, sendo que o proprietário de um automóvel tendo o papel de garantir a segurança
do trânsito. Se viola o seu papel, gera o risco juridicamente reprovável356.
Há que se destacar os critérios essenciais para a imputação de comportamentos. O
primeiro, o risco permitido, na condição normativa de estado normal de interação, assumindo
o status quo de liberdades de atuação vigentes. O segundo seria o princípio de confiança,
representando a adaptação do risco permitido às circunstâncias concretas. Ainda, a proibição
de regresso, na pretensão de delimitar de forma sistemática o âmbito da participação punível
dentro da imputação objetiva com fundamento em critérios objetivo-normativos.
Importante destacar a posição de Claus Roxin357, pois em sua concepção o risco
permitido não se limita à esfera do princípio da confiança. A causação não é imputável ao tipo
objetivo diante de comportamentos perigosos provocadores de lesão ao bem jurídico, porque
admitidos pela legislação, para além da condicionante de determinações de segurança, tudo
justificado em sua utilidade social. Nos riscos inerentes ao tráfego de veículos isso é ainda mais
visível, e os riscos passam a ser suportados pela sociedade e pelo legislador. Demais disso, a
diminuição do risco também, a contrario sensu, é justificativa para que o resultado não possa
ser imputado ao agente, porque não permite o aperfeiçoamento do tipo objetivo358.
De qualquer maneira, é correto dizer que os princípios da confiança e os desdobramentos
do risco permitido estão diretamente interligados aos limites dos deveres de cuidado. O
princípio da confiança, no âmbito do tráfego viário, preconiza que aquele que transita em uma
via confia que o comportamento dos demais usuários se dará em conformidade com as normas

354
JAKOBS, A imputação objetiva no direito penal, p. 20.
355
Ibid., p. 52.
356
MULHOLLAND, A responsabilidade civil por presunção de causalidade, p. 187.
357
ROXIN, Estudos de direito penal, p. 110.
358
STIVANELLO, Teoria da imputação objetiva, p. 71–72.
121

de trânsito. Com isso, verifica-se que o dever de cuidado possui duas balizas, pois encontra seus
limites no princípio da confiança e no risco permitido359.

3.4 O algoritmo de acidente sob a ótica da imputação objetiva

O desafio posto à pesquisa está centrado na averiguação se a inclusão dos veículos


inteligentes, na qualidade de sistema autônomo, no meio social pode ser tida como risco
permitido, ou ainda configurar a diminuição do risco, naquilo que viabilizaria a aplicação da
teoria da imputação objetiva para fins de responsabilização penal. Esse propósito, pedra angular
da pesquisa, passa a ser realizada mais detidamente a partir dos itens seguintes.
Para tanto se faz necessário, de maneira subsidiária, examinar especificamente a
responsabilização penal sob o ângulo do próprio sistema autônomo, do usuário e do fabricante
do veículo ou desenvolvedor do programa.
De início, vale brindar o texto com a posição de Eric Hilgendorf360, na qualidade de
marco referencial dessa pesquisa no ponto dos sistemas autônomos, segundo o qual o risco
permitido pode ter papel relevante na compreensão da responsabilidade oriunda das tecnologias
modernas, assim como ocorre com a aplicação da inteligência artificial em geral, bem como
com a condução automatizada.
O estudioso adianta que isso gera para o desenvolvedor a obrigação de tornar o programa
tão seguro quanto possível. Ainda, nomeia a figura do “risco permitido” como um critério
“suave”, a demandar maior precisão diante de cada caso concreto. Por fim, atribui à comunidade
jurídica o dever de fixar níveis aceitáveis, ou não, mormente considerando que produtos novos
trazem consigo carga de riscos ainda não identificável. O autor é peremptório: “Não há uma
tecnologia livre de riscos”361.
Wagner Marteleto foca na problemática no que toca à imputação objetiva,
especificamente quanto ao risco permitido e o proibido, e à justificação - estado de necessidade
justificante e conflito de deveres. Segundo ele, preenchidos os pressupostos da imputação
objetiva, consubstanciada na caracterização de um risco proibido, em razão da não observância
das normas ou do emprego de artefato proibido, despontam alguns problemas específicos de
justificação, desculpa e de imputação subjetiva.

359
HILGENDORF, Digitalização e direito, p. 71–73.
360
Ibid., p. 68–69.
361
Ibid., p. 69.
122

Cabe referir um recorte válido feito pelo autor quanto à imputação subjetiva. Destarte,
no que diz respeito à imputação subjetiva no âmbito dos carros autônomos, por possuírem uma
programação prévia em que não há participação da figura humana no momento do acidente,
não se mostra possível fazer a devida separação dos casos de negligência, a qual se encontra na
imputação subjetiva. Isso porque a solução já seria dada pela imputação objetiva, sobretudo em
razão da premissa de que a imputação objetiva é uma análise que antecede à imputação
subjetiva. Com efeito, quem entra em cena no âmbito do risco permitido, na tentativa de trazer
soluções, é a imputação objetiva, mormente quando a produção do veículo autônomo se dá com
observância das regras técnicas362.
No âmbito do ordenamento pátrio, é importante observar a necessária mudança de
paradigma no que diz respeito à forma como se interpretar e aplicar a legislação criminal. A
norma jurídica só se revela legítima a partir da boa leitura que se faz da configuração social,
forte no objetivo de se alcançar sua aceitação, afastando-se, assim, da ideia de direito penal
simbólico. O sistema penal pátrio hodierno está inserido no contexto de um sistema fechado,
que fundamentado na norma, nos estritos termos da lei, a qual se traduz como sua única fonte.
Nessa senda, vislumbra-se uma concepção intervencionista, verificada especialmente
no recrudescimento da legislação penal. Por essa razão é que a importação do instituto da
imputação objetiva requer sensível alteração estrutural e sistemática no afã de que seja
empreendida sua atividade valorativa, a qual demanda certa dose de interação com a realidade
social, orientando-se para um sistema penal que procura tutelar somente o que dispõe de
relevância.
O simples logicismo-formal perde espaço para os pressupostos exigidos para a
utilização daquele instituto. Sob esse ponto de vista, o artigo 13 do CP adquiriria nova
roupagem, pois a causalidade material não totalizaria o preenchimento do tipo objetivo,
reclamando-se um critério normativo para tanto, qual seja a realização do risco criado. O
sistema jurídico estruturado teleologicamente, à luz de princípios valorativos que lhe dão
fundamento, é levado a se manter aberto aos novos fatos da vida.
O cerne desta pesquisa toca à avaliação dos resultados criados por autodirigidos sob a
perspectiva da teoria da imputação objetiva, buscando-se discutir se o fabricante ou o usuário
de um veículo autônomo cria o risco proibido, preenchendo o nexo normativo, ao produzir ou

362
MARTELETO FILHO, Agentes híbridos e autônomos: alguns problemas de imputação objetiva e subjetiva,
justificação e desculpa, p. 101.
123

utilizar uma máquina capaz de tomar decisões predeterminadas em seu software, ou de modo
ainda mais complexo, advinda de um processo de aprendizagem profundo em que se
desconhece a própria heurística.
Portanto, objetiva-se a avaliação da responsabilidade penal sob a perspectiva da teoria
da imputação objetiva, especialmente com foco na figura do garantidor, investigando-se sobre
a viabilidade de se adequar o operador do veículo à posição de garante em relação à criação e
produção do risco proibido decorrente de acidentes de trânsito que ocasionem danos a terceiros.
Como anteriormente visto, os carros autônomos, na qualidade de agentes
computacionais, são preparados para extrair uma grande quantidade de dados, para além da
capacidade de interpretá-los de acordo com padrões predeterminados, podendo, por fim, reagir,
de modo autônomo, aos dados processados. Essa última característica de reação lhe permite,
ainda, um armazenamento de informações que lhes capacita para futuros processos
decisórios363.
Se a hesitação se concentra na possibilidade de imputação de resultado, também se
mostra necessário saber quem suportaria a responsabilidade penal, dado que há a figura do ser
humano que idealizou a máquina, do próprio agente computacional, e do usuário. Logo, a
imputação pode recair em um ou algum deles ou talvez em nenhum, a depender do
preenchimento dos requisitos da imputação sob o prisma da aceitação da coletividade. Oportuno
no ponto colacionar a reflexão de Sabine Gless e Thomas Weigend 364:

Se um resultado penalmente relevante for causado por um agente inteligente (por


exemplo, um homem seja morto ferido ou alguma coisa seja objeto de dano), então
coloca-se a questão sobre a responsabilidade: quem agiu e quem suporta a
culpabilidade penal? O ser humano que colocou a tecnologia em ação? Ou o próprio
agente inteligente? Ou talvez ninguém seja responsável, porque a coletividade e os
usuários desejam, em princípio tal tecnologia e, portanto, estão também dispostos a
suportar as consequências de sua (parcial) imprevisibilidade?

A grande valia desse processo diferenciador está na necessidade da análise casuística do


nexo causal se dar em relação a cada um do seu agente in concreto. O comportamento de cada
uma das três figuras que se apresentam - o condutor, na sua condição tradicional enquanto ser
humano; o programador (ou fabricante, pela proximidade na linha de fornecimento); e o veículo
em si – merece o devido exame perante a situação dilemática.

363
GLESS; WEIGEND, Agentes inteligentes e o direito penal, p. 39.
364
Ibid., p. 41–42.
124

Em síntese, as ponderações sobre a responsabilidade penal em situações de conflito pode


recair sobre: i) o próprio veículo, por intermédio de seu sistema de inteligência artificial; ii) o
fabricante (abrangendo todas as figuras envolvidas na produção do autônomo), o qual programa
as decisões do sistema, verdadeiro responsável pela inserção do algoritmo no sistema; iii) o
usuário do veículo, que ciente da existência do algoritmo de acidente, aquiesce, adquirindo e/ou
utilizando o carro; e, ainda, iv) a possibilidade de ninguém ser responsabilizado, em razão da
aceitação dos riscos pela sociedade, em plena adequação à teoria da imputação objetiva.
Demonstradas as principais asserções acerca da teoria da imputação objetiva, abordar-
se-á, em seguida, a questão relativa à possibilidade de atribuição da responsabilidade penal às
referidas figuras.

3.4.1 Sob a perspectiva do sistema autônomo

Quanto à primeira figura – o carro autônomo - a dificuldade com que se depara é que o
sistema penal foi elaborado para os humanos, no que o agente artificial não ostenta sensibilidade
à sanção, muito menos compreensão sobre a reprovação ética relacionada à pena. Às máquinas
lhe faltam os pressupostos da conduta e da culpabilidade. A compreensão do carro autônomo
enquanto objeto revelaria, portanto, uma lacuna punitiva, não se afigurando possível sua
responsabilização penal.
É certo que o conceito de pessoa não é estático, de modo que necessidades práticas
requerem alterações do arquétipo jurídico original, como ocorreu com as pessoas jurídicas.
Contudo, há que se destacar que, de modo diverso do que se verifica na punibilidade da pessoa
jurídica, o agente artificial que sofre uma pena não se assemelha à punição indireta das pessoas
naturais que se encontram nos seus bastidores, as quais respondem por sua “culpabilidade por
organização”.
Entretanto, Hallevy365 entende que já se mostra viável a imputação direta do autônomo,
concebendo-o como ator e entendendo que o elemento objetivo do tipo resta preenchido pelos
meros movimentos físicos do veículo, independentemente se se origina de um ato do veículo
ou se é antes o resultado do comportamento do desenvolvedor por trás. Os critérios ou
capacidades necessários para impor responsabilidade criminal estariam atendidos, pois não se

365
HALLEVY, Unmanned Vehicles – Subordination to Criminal Law under the Modern Concept of Criminal
Liability, p. 3.
125

requer apenas humanos, mas qualquer outro tipo de entidade, incluindo corporações e entidades
de IA.
Freitas, Andrade e Novais corroboram essa posição, criticando a concepção voluntarista
do ato, sobretudo por se revelar ultrapassada com o advento dos crimes que prescindem o ato
físico, notadamente no contexto dos cibercrimes366.
De todo modo, rememora-se que, independentemente do emprego de conceitos da teoria
do crime aos veículos autônomos, o que importa no campo das sanções penais são as premissas
da prevenção geral ou especial. No âmbito das pessoas coletivas, o objetivo é alcançado, tendo
em vista sua finalidade lucrativa, naquilo que a pena cumpre sua função na exata medida em
que possibilita a devolução de haveres ilicitamente angariados, entre outras várias penalidades.
Ou seja, o efeito pretendido é alcançado de algum modo, por afetar a pessoa natural
envolvida367.
Ocorre que há certa dificuldade na importação desse silogismo à esfera dos veículos
programados, especialmente pela falta de esclarecimento sobre os objetivos das máquinas, não
sendo elas reconhecedoras em potencial da censura associada a seu comportamento, essência
da responsabilidade jurídica.
Seria até possível se ventilar a aplicação de uma pena individualizada e direta ao
desenvolvedor do programa em razão de uma contribuição causal própria, dolosa ou culposa.
Ou ainda, imaginar-se uma pena de destruição ou reprogramação do agente artificial. Todavia,
por óbvio, não estar-se-ia falando em uma pena genuína do próprio agente, máxime por não
ostentar, ao menos por ora, a condição de um agente moral368.
Claussén-Karlsson369 entende que os sistemas autônomos não são puramente
responsáveis por seu atos, exatamente por não adquirirem personalidade jurídica. A autora
sugere que é preciso rastrear o comportamento do humano por trás da IA. Esse humano deve
estar em uma posição em que possa influenciar a IA, bem como sua conduta. Aparentemente,
isso será determinado mediante a consideração das circunstâncias específicas de cada crime
alegado. A responsabilidade deve recair, portanto, sobre as figuras daquele que está por trás
(man behind the machine). Freitas, utilizando-se de expressão cirúrgica, afirma ser esse o

366
FREITAS; ANDRADE; NOVAIS, Criminal Liability of Autonomous Agents, p. 9.
367
GLESS; SILVERMAN; WEIGEND, If robots cause harm, who is to blame? Self-driving cars and criminal
liability, p. 423.
368
GLESS; WEIGEND, Agentes inteligentes e o direito penal, p. 62.
369
CLAUSSÉN-KARLSSON, Artificial Intelligence and the external element of the crime: an analysis of the
liability problem, p. 23.
126

“punctum crucis” de toda a problemática, naquilo que deve haver uma escolha anterior e precisa
entre a objetivação ou a personificação dos agentes de inteligência artificial370.
A concepção do autodirigido enquanto objeto evidencia a lacuna existente no campo da
imputação de responsabilidade, sendo este talvez o maior entre os desafios da temática. A
qualificação dada ao autodirigido denota árdua investigação, perpassando a incerteza acerca de
sua natureza, seja como o gênero “coisa” - “tudo que existe objetivamente, com exclusão do
homem”371 -, seja como a espécie “bem” – “coisas que, por serem úteis e raras, são suscetíveis
de apropriação e contêm valor econômico”372, ou ainda como entidade dotada de sua
personalidade jurídica.
Frise-se que além da ausência da essência humana nem mesmo patrimônio o robô possui
para que se possa pensar em uma pena de multa. Sua destruição também não parece imbuída
de caráter sancionatório, pois não o atinge do mesmo modo com relação ao humano, não
fazendo sentido aplicar-lhe o mesmo sistema penal voltado aos homens. Assim, em não
havendo consciência, ao menos nos moldes presentes, a valoração moral sobre o seu
comportamento não se mostra possível. O desvalor de sua conduta não é perceptível no seu
exame interior de consciência.
De outro lado, se o desenvolvedor viola os deveres de cuidado, há que se analisar se o
resultado típico verificado o pode ser atribuído ou, em outros termos, pode a ele ser imputado
objetivamente.
Claus Roxin reconhece que há problemas de imputação na esfera do tipo penal os quais
podem ser solucionados pelo fim de proteção da norma, a partir da existência de um risco
juridicamente não permitido, e como último critério para delimitação do tipo 373. Por
conseguinte, em regra, ocorrerá a imputação se houver a criação e a concretização do risco
reprovado. Contudo, em determinados casos, os requisitos são insuficientes ao suporte fático
do juízo de imputação, naquilo que requer estudo mais aprofundado do fim de proteção do tipo.
A imputação nas situações de vida contra vida envolvendo carros autônomos aparentam
incorrer na hipótese de - apesar da criação do risco não permitido com a sua subsequente
materialização em um resultado - a imputação ainda fracassar, “porque o alcance do tipo, o fim

370
FREITAS; ANDRADE; NOVAIS, Criminal Liability of Autonomous Agents, p. 149.
371
RODRIGUES, Silvio, Direito civil, 34. ed. São Paulo: Saraiva, 2003, p. 116.
372
Ibid.
373
ROXIN, Funcionalismo e imputação objetiva no direito penal, p. 242–243.
127

de proteção da norma típica (...) não abarca resultados com as características que exibe o
(resultado) que se produziu, porque o tipo não está destinado a evitar tais acontecimentos”.
Para Luís Greco, o que interessa é saber se o que de fato ocorreu estava dentro do âmbito
de proteção da norma, sendo necessário, portanto, perquirir se as justificativas que legitimam
determinada proibição de um comportamento são adequadas também perante o caso concreto,
ou seja, aquele que efetivamente se realizou374.
Logo, se o agente autônomo expõe a sociedade a riscos e sem que lhe seja previsível
sanções penais adequadas, ele provoca questionamentos e sensação de insegurança, à medida
em que aumenta sua circulação nas rodovias. Diante disso, surge a necessidade de se estipular
critérios e fundamentos para regular a responsabilização daqueles que estão por trás da
tecnologia, porquanto aos agentes artificiais ainda não há como serem atribuídos
responsabilidade. No que tange aos veículos autônomos já se lança a primeira questão acerca
da viabilidade do seu criador responder pelos defeitos de sua atividade. Ressalte-se, entretanto,
que375:

Quando a conduta de um agente inteligente puder ser qualificada como a conduta de


um "homem da frente", então a relação de imputação ao "homem de trás" (o
fornecedor) poderá ser rompida. Todavia, não poderemos falar de um comportamento
danoso do agente inteligente enquanto não lhe pudermos atribuir uma capacidade de
formar vontade própria.

Há que se verificar se a colocação do produto no mercado significa, ou não, criar um


risco para o público, pois não obstante produzido como item de segurança, não há o controle de
suas ações. Para Figueiredo Dias, tais condutas somente se mostram relevantes, máxime em
observância ao princípio da intervenção mínima, diante da regularidade com que aparecem nos
domínios da “criminalidade de massa”, com copiosas e indeterminadas vítimas. São condutas
não proibidas per se, as quais exigiram um “tipo aditivo ou acumulativo”376.
Diante de todas essas colocações, a complexidade de maior relevância, sobretudo para
a presente pesquisa, diz com punibilidade da(s) pessoa(s) humana(s) envolvida(s) na operação
artificialmente inteligente, a qual possui o condão de praticar uma conduta e produzir um
resultado penalmente relevantes.
Por óbvio, há que se fazer aqui um recorte quanto àquelas situações em que o agente
humano se utiliza da máquina, de modo intencional, para praticar um ilícito penal. Nessas

374
GRECO, Um panorama da teoria da imputação objetiva.
375
GLESS; WEIGEND, Agentes inteligentes e o direito penal, p. 54.
376
DIAS, Direito Penal. Parte Geral: questões fundamentais - a doutrina geral do crime, p. 322–345.
128

hipóteses, não se enfrenta maiores problemas, já que bem assentado o entendimento acerca da
punibilidade de tal comportamento, assim como daquele que se utiliza de um animal como
forma de instrumento para a tipificação criminal: a máquina seria mero instrumento do ato
penalmente relevante. Contudo, surge uma provocação (a qual não será trabalhada por questão
de limitação da pesquisa): como se determina se um agente artificial autônomo é
apropriadamente domesticável? Com efeito, o indivíduo considerado responsável pode não ter
ciência até que ponto o agente autônomo é capaz de alterar a si mesmo depois que é acionado377.
Do mesmo modo, outro delineamento restringindo a pesquisa está nos casos em que se
sabe ou se aceita que o programa possa causar um dano no seu uso concreto, portanto,
previsível. Nessas circunstâncias, o acidente ocorre diante do agir culposo, permitindo-se a
punibilidade do desenvolvedor face à previsibilidade objetiva do resultado e à ausência do dever
de cuidado.
Diante desses dois recortes, a análise que interessa à presente pesquisa se perfaz de
modo residual, porquanto se concentra no campo em que o programa é desenvolvido sem dolo
ou culpa consciente dirigida a um resultado típico. Resta averiguar quando criado e utilizado
consoante normas técnicas de seu tempo e com aceitação coletiva, dentro do que preconiza a
teoria da imputação objetiva, ainda que venha provocar danos em situações dilemáticas.
Sabine Gless e Thomas Weigend378 aduzem que a operação do agente inteligente que
resulta na prática objetiva de um tipo penal, ainda que sem o conhecimento ou vontade do seu
desenvolvedor, não lhe isenta de responsabilidade com base no subterfúgio argumentativo do
automatismo dos algoritmos. Contudo, visualizam, na eventualidade da conduta se mostrar
meramente culposa, complicações no nível da previsibilidade e no da imputação no resultado.
Isso porque as decisões tomadas pelo agente computacional não são dotadas de previsibilidade,
na medida que seria questionável se é previsível ao desenvolvedor um comportamento
defeituoso.
Ademais, poder-se-ia até argumentar pela isenção de responsabilidade do
desenvolvedor acaso sua conduta, em conformidade com as regras gerais da imputação de
resultados, interrompesse o nexo de imputação entre a conduta e o resultado. Isso se mostra
possível quando o coletivo aceita o uso da máquina como atividade normal, naquilo que
eventual falha não tencionada está dentro do risco que se consente socialmente.

377
ASARO, The Liability Problem for Autonomous Artificial Agents.
378
GLESS; WEIGEND, Agentes inteligentes e o direito penal, p. 37–64.
129

Em assim sendo, para a leitura sob a ótica da imputação objetiva, repisa-se, que sua
proposta visa a inclusão de novas elementares no tipo objetivo. Justamente por essa razão é que
alguns sustentam a íntima relação da teoria da imputação objetiva com as regras da física
quântica379, de modo que não basta a mera relação de causa e efeito (a causalidade física) entre
conduta e resultado. No plano da imputação objetiva, para além disso, é preciso delimitar, de
modo detalhado, as margens do risco permitido.

3.4.2 Sob a perspectiva do usuário

Tecendo-se a análise sob o ponto de vista do usuário, a questão é saber se, por tão
somente ligar a chave do veículo - pode-se chamar inclusive de mero operador e não mais
condutor nos níveis mais altos de autonomia - o resultado típico pode ser a ele objetivamente
imputado. Diante da implementação da nova tecnologia, e na condição que ocupa o carro,
questiona-se se é possível atribuir-lhe o dever de cuidado e de zelo pela segurança do trânsito.
Resgatando-se mais uma vez o marco referencial desse estudo, o entendimento de Eric
Hilgendorf380 se dirige inicialmente pela presença de hipótese de exclusão da imputação, sob a
vertente do risco permitido. Se é um meio de transporte socialmente aceito, ainda que diante
dos riscos, especialmente por significar uma redução drástica de acidentes, não pode se imputar
eventual resultado diante de falha que não se apresenta como regra.
Aliás, forçoso reiterar que mesmo que o indivíduo venha a criar um risco juridicamente
relevante, a responsabilidade restará excluída acaso o risco se possa dizer permitido381, dado
que resta excluída a imputação ao tipo objetivo.
A conformação social que permite o carro tradicional e, portanto, admite-o como risco
permitido, traz em sua essência o respeito às regras de trânsito. Com efeito, a despeito de todos
os riscos que o trânsito concebe em si, mormente para relevantes bens jurídicos (a exemplo da
vida, da saúde e do patrimônio), ainda assim a ordem jurídica permite o tráfego de carros,
exigindo, contudo, a observância das regras de cuidado382.
Armin Engländer383, contudo, discorda desse posicionamento, sob o argumento de que
não há uma subsunção perfeita da situação dos autodirigidos ao risco permitido. Para tanto, ele

379
Enquanto a Física clássica se preocupa com fenômenos em escala macroscópica, a Física Quântica se encontra em nível
microscópico (atômico), pois analisa o comportamento dos sistemas físicos de dimensões reduzidas, próximos dos tamanhos
de moléculas, átomos e partículas subatômicas.
380
HILGENDORF, Digitalização e direito, p. 69–77.
381
ROXIN, Funcionalismo e imputação objetiva no direito penal, p. 323.
382
Ibid., p. 325.
383
Ibid., p. 322.
130

remonta à definição de risco permitido, aduzindo que os comportamentos considerados úteis no


meio social, em que pese a obediência às precauções exigidas, podem excepcionalmente
ocasionar prejuízos que não se permitem evitar. Frise-se, a definição do risco relevante não é
matéria de ordem matemática, e sim dependente de ponderação político-criminal.
Portanto, condutas que resultam danos somente poderiam ser evitadas na hipótese da
sociedade (na qual ocorrem) delas abdicassem. Ocorre que essa sociedade não se mostra
disposta a essa renúncia. Para além disso, outra dissonante é a falta de capacidade de evitar o
resultado384.
Continua Armin Engländer385 referindo que tais condições não se apresentam nas
situações de conflito dos carros autônomos. Isso porque, apesar de não ser possível inibir por
completo situações-dilema mesmo com o cumprimento das regras de cuidado, é possível se
evitar a violação do bem jurídico pertencente a envolvidos, sobretudo porque o algoritmo
produz um resultado danoso para se evitar outro, o qual poderia afetar o usuário do veículo.
Desse modo, seria plausível frear a realização do tipo se porventura o algoritmo fosse
programado com um arranjo diverso diante de situações dilemáticas.
Logo, não haveria que se renunciar aos benefícios da condução automatizada tão
desejada pela sociedade, sendo uma questão do tratamento dado ao programa, o que significa
dizer que não se está diante de um risco permitido e, portanto, tecnicamente não há a causa de
exclusão da imputação. Nessa senda, sob o ângulo da criação ou incremento do risco proibido,
há de se observar que se o operador não tem domínio sobre a ação, resta prejudicada sua
imputação.
A análise sob aspectos da teoria da imputação objetiva evidencia a exclusão de
responsabilidade por ausência de perturbação social incompatível com a normativa penal,
sobretudo se analisada a imputação objetiva como um “método de análise do fato típico que
tem por fim, na aplicação da lei penal, considerar responsável aquele que determinou a violação
dos valores vigentes, através de elementos de certeza que permitam justificar a interferência do
direito penal no agir social”386.
Logo, a imputação objetiva, pela envergadura social que apresenta, é instituto que deve
ser examinado exatamente no contexto de um ambiente social concretamente considerado,
precipuamente porque “uma sociedade que esteja necessitada de avanços tecnológicos tolerará

384
ENGLÄNDER et al, p. 95.
385
Ibid., p. 96.
386
CAMARGO, Imputação objetiva e direito penal brasileiro, p. 136.
131

uma quantidade maior de riscos; por conseguinte, exonerará o fabricante e imporá ao


proprietário e à potencial vítima a obrigação de garantir segurança”387. Nessa linha, Jakobs388
corrobora a necessidade de penalizar a ação violadora do sistema penal e, assim, fomenta o
equilíbrio social, reservando-se as sanções a condutas periclitantes não permitidos pela
comunidade.
No ponto, cabe referir que o entendimento de Jakobs acerca do risco se distingue da
visão de Claus Roxin389. Segundo Jakobs, a reprovabilidade do risco deve atender requisitos
negativos. O primeiro é que não configure um risco mínimo permitido pelo contato social. Em
segundo, seja guardada a devida obediência ao princípio da confiança, seja contando com o
cumprimento dos deveres de cada um dos membros sociais. Não deve haver também o fato
exclusivo da vítima nem de terceiro, a ensejar a ausência de imputação390.
Além disso, distinção entre as visões dos dois juristas está nos métodos de valoração da
imputação quanto à análise da conduta em sua concretude. Jakobs não se preocupa com certa
capacidade especial do sujeito na evitação do resultado, naquilo que prescinde a análise
subjetiva. Claus Roxin, noutro giro, averigua o que é objetivamente previsível, optando,
portanto, pela teoria da causalidade adequada. Assim é que ressoam vozes no sentido de que
Jakobs ofereceria tutela mais eficaz para a vítima, a partir da análise objetiva das condutas
normativas, com a verificação da culpa objetiva no bojo do arranjo social em que as funções
são coerentemente distribuídas, fazendo-se possível visualizar a figura garantidora destes
papéis. Portanto, a vítima que comprova a lesão aliada ao risco irrazoável faz presumir a
causalidade391.
Em outra seara, há aqueles que defendem que o ser humano, na condição de mero
operador do sistema autônomo, ocupando tão somente a posição de passageiro, ou no controle
remoto do veículo, não serve como fundamento para se esquivar de responsabilidade, mormente
em razão do fato de que o controle das novas tecnologias ultrapassa o simples domínio por
intermédio do volante ou dos pedais392.

387
JAKOBS, A imputação objetiva no direito penal, p. 17–20.
388
Ibid.
389
Metodologicamente se optou por explorar como instrumento como solução dogmática dos conflitos
apresentados a perspectiva de Claus Roxin, não sendo adotada a linha científica de Günther Jakobs, de igual relevo
para o estado da arte.
390
JAKOBS, A imputação objetiva no direito penal, p. 16.
391
MULHOLLAND, A responsabilidade civil por presunção de causalidade, p. 188.
392
MARTINESCO, Andrea et al, A note on accidents involving autonomous vehicles: interdependence of event
data recorder, human-vehicle cooperation and legal aspects, IFAC-PapersOnLine, v. 51, n. 34, p. 407–410, 2019,
p. 409–410.
132

Assim é que especialistas técnicos e jurídicos, diante de uma tendência já percebida no


Estado do Colorado (EUA) e no Japão, preveem que serão responsáveis os motoristas dos carros
autônomos, mesmo no caso de não estarem conduzindo no momento do acidente.
Nick Belay argumenta no sentido de que possibilitar o condutor retomar o controle em
situações de emergência é fundamento suficiente para sua responsabilidade individual. Invoca
o instituto da responsabilização por omissão diante de dever de intervenção que possuiria. O
dever de estar atento ao trânsito, para retomar, circunstancialmente, não retira do operador o
encargo de titular do domínio do veículo393.
A literatura divergente contra-argumenta que não há que se falar em detenção de
controle nessas circunstâncias por parte do indivíduo. Em verdade, ele não o detém, sendo que
a máquina age autonomamente394. Ademais, o fundamento para a intervenção restaria vazio se
observada a limitação humana para detectar o perigo e ter que reagir quase que ao mesmo
tempo.
De fato, ressoaria esdrúxulo exigir da figura humana que, em situações-limite, nas quais
cada milésimo de segundo é decisório, receba a informação do sistema para assumir o controle,
processe tal informação, tome a decisão e, em ato contínuo, execute-a. A retomada do controle
pelo condutor, a ele relegando a escolha a ser realizada, não obstante solução teoricamente
ideal, por não se mostrar factível, revela inaplicável qualquer hipótese de evitação ou redução
de danos na situação concreta395.
De qualquer modo, pontua-se que defeito no sistema ou alguma outra falha no veículo,
bem como na eventualidade de culpa de exclusiva da vítima ou de terceiros, por óbvio, não
entram no campo de responsabilização do operador do sistema de condução automática, até
porque se afiguram situações em que nem mesmo o condutor tradicional seria responsabilizado.
Não se olvide também que o direito penal não admite o instituto da responsabilidade
objetiva, o qual poder-se-ia estar sendo emplacado na situação de incriminação tanto do usuário
do veículo, quanto do desenvolvedor.
À luz da configuração técnica do sistema autônomo, vislumbra-se que a autonomia do
veículo, sob o ângulo da conduta, afasta a capacidade de ação do suposto “condutor”, mormente

393
BELAY, Robot ethics and self-driving cars: how ethical determinations in software will require a new legal
framework, p. 126.
394
Nesse sentido: BATHAEE, Yavar, The artificial intelligence black box and the failure of intent and causation,
Harvard Journal of Law & Technology, v. 31, n. 2, p. 890–938, 2018, p. 891; GRIEMAN, Hard drive crash, an
examination of liability for self-driving vehicles, p. 298.
395
JANUÁRIO, Veículos autónomos e imputação de responsabilidades criminais por acidentes, p. 108.
133

pela sua impotência para atender um dever de intervir perante uma situação-limite. Nisso,
manifesta-se a imprescindibilidade de analisar a imputação, desta feita, sob o prisma do
programador, na condição de centro de imputação da responsabilidade penal em potencial, o
qual se pretende discorrer no item seguinte.
Sob outro ângulo, o do risco proibido, é possível se admitir a ausência do incremento
do risco, apoiado no escólio doutrinário de Claus Roxin396, sobretudo se o comportamento do
agente diante da situação dilemática visa a diminuição dos danos, ainda que dentro de uma
perspectiva utilitarista. E isso pode ser afirmado mesmo que a ação não sobressaia exatamente
de seu controle, mas principalmente para aqueles que entendam que sob o seu domínio. Para o
catedrático, “algo diverso ocorre naqueles casos em que o perigo preexistente não é
enfraquecido, mas substituído por outro, cuja realização no resultado é menos danosa para o
autor do que o risco anterior teria sido”.
Aproveitando-se de seus exemplos, afora os clássicos, alguém que arremessa um bebê
pela janela de um apartamento em chamas, a grave lesão consectária não poderá ser imputada
ao agente, pois a vida fora salva em detrimento da integridade física lesionada. Também não há
que se falar em lesões corporais, não obstante se afigurar como causa do resultado, quem desvia
a pedra jogada em direção a alguém, sem a tornar inócua, porém fazendo-a atingir parte do
corpo menos sensível. Tudo porque não seria racional proibir condutas que não pioram a
situação do bem jurídico protegido, ao contrário, melhoram-na397.
Por fim, eventual responsabilização do operador do sistema reclama expressa previsão
em lei, em observância aos princípios da legalidade e da anterioridade da lei penal, consagrados
no plano penal-constitucional. Com efeito, a conduta criminosa requer tipificação no âmbito do
Estado Democrático de Direito.

3.4.3 Sob a perspectiva do fabricante do veículo

Sob o ângulo dos sujeitos implicados, cabe analisar a última figura: o fornecedor,
compreendido esse como todos os envolvidos no processo de produção do veículo, incluindo
principalmente a criação do algoritmo nele inserido. Portanto, abrange todos na linha de
desenvolvimento, desde a construção do algoritmo até sua comercialização concluída com sua
entrega ao usuário. É dizer, para fins deste trabalho não se fará distinção entre o fabricante,

396
ROXIN, Funcionalismo e imputação objetiva no direito penal, p. 314–315.
397
Ibid., p. 313–315.
134

programador, desenvolvedor, produtor, comerciante, entre outras figuras que compõem esse
conjunto dentro do mesmo campo semântico.
A questão diz com a possibilidade de se imputar resultados a condutas que, por se
encontrarem sobremaneira distanciadas no tempo e no espaço, aparentam uma realidade
jurídico-penal irrelevante. Elas somente se tornam relevantes quando tomam proporções
preocupantes, seja pela frequência com que ocorrem, seja pelo poder de perigo avassalador que
podem carregar consigo398.
Adentrando-se na questão da programação, necessária se faz a divisão em duas
conjunturas, tendo em consideração as possibilidades de programação do sistema: se feito para
a proteção dos ocupantes do veículo, ou se conformado para lesionar terceiros integrantes do
tráfego viário.
Na primeira conjuntura, em que se protege os ocupantes em detrimento de demais
transeuntes, Armin Engländer399 sugere que o fornecedor pode se revelar punível como
partícipe ou na forma de autoria colateral culposa, a depender se se considera dolo ou culpa por
parte do usuário que liga o veículo e o coloca em movimento. Salienta que os casos nos quais
a conduta do usuário do veículo se encontra justificada não traz problemas. Embaraçados são
os casos em que apenas os usuários são exculpados, à guisa de exemplo, quando o autodirigido
atropela um pedestre para proteger seu condutor ou, por não estarem presentes os pressupostos
do estado de necessidade justificante, ilícitas serão as condutas tanto do usuário quanto do
fabricante.
É que o fabricante possui obrigação legal de se abster de uma programação em prol do
usuário, até para que não o prive de tomar suas decisões com base em suas convicções
existenciais perante os demais membros do tráfego. A ordem jurídica ou social não lhe conferiu
tal poder. Na expressão de Arthur Dyck400: “bancar de Deus”. O ordenamento não permite que
o usuário salve sua vida em detrimento de terceiros. Isso só é permitido em situações de
emergência existencial. Segundo o autor401:

51. Somente alguns poucos representantes da “doutrina do espaço livre de Direito”


chegam a uma conclusão diferente, já que assumem que também há atos “não

398
DIAS, Direito Penal. Parte Geral: questões fundamentais - a doutrina geral do crime, p. 345.
399
ENGLÄNDER et al, p. 86–102.
400
DYCK, Arthur J., An alternative to the ethic of euthanasia, in: FEINBERG, Joel; WEST, Henry (Orgs.), Moral
Philosophy. Classic texts and contemporary problems, Encino: Dickenson Publishing Company, 1977, p. 216.
401
ENGLÄNDER et al, p. 103.
135

proibidos” que, por um lado, não estão justificados, ou seja, não estão permitidos, mas
que, por outro, não são ilícitos nem estão proibidos.

Para melhor compreensão, exemplifica-se com a clássica hipótese de um náufrago em


que um dos sobreviventes obriga um outro a lhe entregar o bote salva-vidas com uma faca,
estando acobertado por uma exculpante. Todavia a tripulação do navio não tem o direito de
entregar a faca para determinado passageiro e este não possui direito constitucional que permita
que a tripulação o faça. Por analogia, o fabricante, por não possuir relação próxima com o
usuário, não estaria igualmente exculpado, porquanto ausentes os pressupostos exigidos402.
Na segunda conjuntura, diante da situação dilemática, ataca-se o bem jurídico
pertencente ao operador do veículo e passageiros. Aqui o fabricante pode responder ao menos
por um delito culposo, já que a programação (ou comercialização) representa a causa do
resultado típico, a partir de sua conduta comissiva.
Vale anotar doutrina no sentido de que, se o usuário do veículo é informado sobre o
possível comportamento do autodirigido, a realização do tipo não pode ser imputada ao
fabricante, tendo por fundamento o desdobramento da teoria da imputação denominado
autocolocação em perigo403. Estando o usuário ciente dos riscos envolvidos com a utilização
do veículo, com sua colocação na via, passa a consentir com possíveis resultados danosos.
Diversas, porém, são as circunstâncias quando o usuário, não sendo cientificado do
modo de funcionamento, acredita sinceramente que em caso de situação de conflito, o programa
foi idealizado para a priorização de seus bens jurídicos. Nesse ponto é que surge a possibilidade
de se invocar a excludente de imputação consubstanciada no risco permitido. O requisito da
aceitação social, especialmente por todas as benesses que os carros inteligentes trazem consigo,
afigura-se presente. A capacidade indiscutível dos autônomos de reduzir consideravelmente os
números de acidentes, se comparados aos veículos convencionais, corrobora tal aceitação.
Igualmente, em razão da drástica redução dos riscos de morte dos usuários do tráfego.
Veja-se que nos casos em que o sistema evita a lesão ao usuário às custas da integridade
de outros membros do tráfego é rechaçada a hipótese de subsunção ao risco permitido, isso
porque não há dificuldades em se programar o algoritmo com o fim de se evitar lesões a
terceiros. Todavia, essa objeção não é aplicável no caso em que o programa se volta à lesão do
usuário. O sistema só poderia ser programado, no caso de uma situação de conflito, de forma a

402
Ibid.
403
ROXIN, Estudos de direito penal, p. 12.
136

sacrificar os demais participantes do tráfego se fosse para salvar seus ocupantes. Não é exigível
de ninguém que se sacrifique em favor de terceiros por motivos solidariedade.
Portanto, nessa situação de conflito concreta não há como se evitar o resultado em
relação ao ocupante, pois só seria evitável por intermédio da renúncia aos autodirigidos, o que
vai na contramão do desejado pela sociedade pela promessa de redução de acidentes, além do
desenvolvimento tecnológico desejado. Assim que se valora como risco permitido a
possibilidade longínqua de ocorrência da situação-dilema que reproduz aquilo que programado.
Outro fator obstativo quanto à responsabilidade penal do fornecedor encontra-se no
plano do nexo de causalidade, dada a distância tanto espacial quanto temporal que separa a
conduta do resultado, de tal modo alargada que por vezes rememora a crítica diuturna à teoria
da equivalência no que concerne ao efeito regressus ad infinitum404.
O que se verifica, diante das discussões da literatura especializada, é que o cerne da
problemática situa-se no plano do nexo de causalidade405. Grande parcela aduz que a
peculiaridade dos sistemas que adotam a inteligência artificial está justamente na possibilidade
que trazem consigo de romperem a relação de causalidade entre a conduta do fornecedor e o
resultado. A razão está na inexistência de uma pré-programação contendo regras de solução
para o caso concreto, contando apenas com uma espécie de manual com regras gerais e iniciais
para capacitar o sistema para a análise de dados406.
A atividade do programador restringe-se a um ensaio para que o sistema operacional, a
partir de exemplos e experiências, realize um treino e passe a exercer seu próprio processo de
tomada de decisão, só que, doravante, ele passa a generalizar de modo particular, de maneira
que não se torna mais possível controlar e nem prever as reações do veículo perante novas
ocorrências.
Luís Greco407 sustenta que a exclusão da culpabilidade dos programadores pode se
revelar impraticável. Primeiramente, porque o princípio do mal menor não está apto a exculpar
a conduta em que há o deslocamento dos riscos a terceiros que neles não estão diretamente
envolvidos. Para o autor não há que se argumentar que na hipótese do ciclista morto pelo agente

404
DIAS, Direito Penal. Parte Geral: questões fundamentais - a doutrina geral do crime, p. 345.
405
BATHAEE, The artificial intelligence black box and the failure of intent and causation, p. 898; GLESS;
SILVERMAN; WEIGEND, If robots cause harm, who is to blame? Self-driving cars and criminal liability, p. 432;
KARNOW, Liability for Distributed Artificial Intelligences, p. 149.
406
GLESS; SILVERMAN; WEIGEND, If robots cause harm, who is to blame? Self-driving cars and criminal
liability, p. 414.
407
GRECO, Veículos autônomos e situações de colisão, p. 194–195.
137

autônomo não se cuidaria propriamente de um terceiro envolvido no contexto por se tratar de


“comunidade de perigo”. A exculpante é pensada para situações de conflito, o que não
corresponde à situação do desenvolvedor distante do cenário de colisão.
Assim é que se diz que, sob o ângulo do desenvolvedor, a solução que defende a
exclusão de culpabilidade em seu favor, ainda que se se considerasse adequada, equivaleria a
uma capitulação dogmática, porquanto pressuporia a premissa de que a produção dos
autodirigidos seria conduta antijurídica. Tais dificuldades são a razão para que se busca cada
vez mais a solução para esse tema no âmbito do injusto.
A imputação objetiva requer sejam bem definidos os riscos permitidos e proibidos
dentro da ordem jurídica, de modo que somente haverá imputação do resultado ao indivíduo
caso ele tenha criado um risco proibido ao bem jurídico ou se incrementou o risco proibido já
existente.
Logo, o risco tornou-se a principal diferenciação entre teoria da imputação e as demais
teorias do tipo. O risco permitido e o risco proibido compõem o binômio condutor da teoria.
Por isso que, presente o risco permitido, exclui-se a imputação objetiva da conduta. Ainda que
determinado comportamento se subsuma formalmente ao tipo, mas que por integrar a
organização da vida de uma sociedade, não há de ser considerado típico.
É que a sociedade oportunamente alcança determinado nível de consentimento sobre
atividades de risco que, por considerá-las essenciais, são admitidas. À guisa de exemplo,
atividades como produção de energia nuclear, fabricação de armas e comercialização e bebidas
alcoólicas apresentam seus conhecidos riscos. Contudo, ainda que a conduta seja considerada
periclitante, acaba sendo absorvida pela sociedade, portanto admitida mesmo diante da ciência
sobre a possibilidade de causar danos. Os riscos são distribuídos entre os membros da
sociedade.
Para Estellita e Alaor, o risco permitido é critério relevante para a determinação do
desvalor objetivo da ação, ou seja, para a análise da criação de um risco desaprovado no âmbito
do tipo objetivo. Importando para o caso do tráfego de veículo, se o motorista respeita as regras
de trânsito e o acidente ocorre, então ele atuou dentro do “risco permitido”, produto do cálculo
geral do legislador, que considerou que a coletividade não está disposta a renunciar ao tráfego
de veículos408.

408
ENGLÄNDER et al, p. 26.
138

Cabe destacar que a teoria é aplicável, de igual maneira, aos agentes computacionais
autônomos, de modo que eventual aceitação do algoritmo significaria que seus riscos não
poderiam recair tão somente na figura do programador409.
Nessa linha é que parcela da doutrina argumenta no sentido favorável ao
reconhecimento da licitude do algoritmo de acidente. Tratam como um risco permitido, como
um princípio de redução de danos, ou ainda, trabalham a ideia de salvamento de interesses
equivalentes. No que tange ao risco permitido, o escopo é fazer um juízo de sopesamento entre
as vantagens sociais do comportamento danoso e a incapacidade de evitar o seu resultado
danoso ou ainda o desinteresse coletivo em se abster totalmente de sua utilidade. O risco
permitido pressupõe a utilidade geral da conduta excepcionalmente danosa e a sua incapacidade
para evitação do resultado no caso particular.
Não obstante o enunciado no tocante à imponderabilidade de vidas, as escolhas
racionais, possíveis a partir dos inteligentes algoritmos, mormente em razão da extrema redução
de danos de que são capazes, devem ser permitidos ainda que surjam inicialmente em um
ambiente laboratorial, peculiar por tratar as situações de modo prévio e abstrato, ou seja, sem
estar diante de uma caso dilemático em concreto. Nisso é que não há que se prezar por uma
“política de omissão” ou de “relegação da solução ao acaso”. As vantagens sistêmicas que a
tecnologia veicular trazem consigo a necessidade de reflexões profundas ou novos dogmas,
porque o simplório descarte é equívoco a ser declinado410.
O condutor humano, ao enfrentar situações similares, pode ser perdoado por uma
decisão que tenha tomado de modo inconsciente ou instintivo, em uma fração de segundo, ainda
que seja considerada ruim. Porém, esse apanágio não é estendido aos desenvolvedores do
sistema a reagir nesses episódios, afinal possuem “tempo” para refletir e tomar a medida
adequada, carregando, com isso, maior responsabilidade por resultados ruins411.
Ao que parece, toda a discussão se dá justamente em razão da velocidade do “raciocínio”
por parte do sistema autônomo. Causa controvérsia o fato de ele possuir condições de avaliar
todo o cenário, e ainda dispor de tempo para a tomar a decisão e executá-la. Isso porque estar-
se-ia sacrificando vidas de terceiro(s) de modo racional. É que tomar essa decisão sem essa
racionalidade parece mais aceitável do ponto de vista ético.

409
MARTELETO FILHO, Agentes híbridos e autônomos: alguns problemas de imputação objetiva e subjetiva,
justificação e desculpa, p. 91–92.
410
JANUÁRIO, Veículos autónomos e imputação de responsabilidades criminais por acidentes, p. 108.
411
LIN, Patrick, The ethics of autonomous cars, Center for Internet and Society at Stanford Law School, 2013.
139

Já para Wagner Marteleto, o algoritmo de acidente, no afã de escolher o “menor dano”


(exemplo: desviar da rota pré-selecionada para salvar três pedestres), esbarraria nos limites do
risco permitido, encerrando a discussão da responsabilidade antes mesmo de adentrar nas
justificantes. Para ele a decisão aqui seria entregue nas mãos do legislador, na sua atividade de
legislar sobre a utilização dos autodirigidos. O autor, na mesma linha de Matheus Caetano,
complementa que estipulação legal nesse sentido recairia na questão ético-moral acerca da
imponderabilidade de vidas humanas412.
Afora isso, a opacidade dos processos decisórios dos sistemas autônomos (black box)
surge como outro forte fundamento à responsabilidade dos produtores. Para Bathae, estudioso
da causalidade e intenção de forma transversal nos ramos cível e penal, não obstante o processo
decisório se revelar intuitivo e imprevisível ao fornecedor, sua responsabilidade permanece
íntegra, ainda que com tais peculiaridades, por obra do uso que faz da tecnologia, reputando
negligente sua utilização na eventualidade de causar um dano413.
Ainda no que se refere ao risco permitido, o fabricante/programador não está apto a
assumir um encargo que fomenta um ilícito. É que desenvolver um programa que prioriza a
sobrevivência dos passageiros do veículo, em detrimento de um transeunte inocente – não
responsável pela situação de perigo – não é aceitável. Com base nessa premissa, não inserir um
algoritmo de decisão nessa modelagem é o que faria com que o desenvolvedor realizasse um
risco permitido414.
Nesse sentido, a aceitação, ou não, da ponderação entre vidas humanas se revela como
o grande divisor de águas. A partir dessa percepção é que haverá aqueles que reconhecerão a
legitimidade do algoritmo de acidentes (editando-se regras universais de ponderações
qualitativas e quantitativas entre vidas), ao passo que outros o rechaçarão por suas
impossibilidades axiológica e jurídica. Eric Hilgendorf faz a seguinte constatação:

Com base em um humanismo jurídico orientado pela dignidade e pelos direitos


humanos do indivíduo não parece convincente impor a este deveres de solidariedade
que, em determinadas situações de emergência, exijam o sacrifício de sua vida em
benefício de terceiros. Aspectos qualitativos ou quantitativos não podem ser
considerados nessas situações.

Aspectos quantitativos, ao contrário, podem ser considerados em situações de perigo


simétricas, nas quais todos os envolvidos se encontram, desde o princípio, em igual

412
MARTELETO FILHO, Agentes híbridos e autônomos: alguns problemas de imputação objetiva e subjetiva,
justificação e desculpa, p. 92.
413
BATHAEE, The artificial intelligence black box and the failure of intent and causation, p. 902–908.
414
MARTELETO FILHO, Agentes híbridos e autônomos: alguns problemas de imputação objetiva e subjetiva,
justificação e desculpa, p. 92.
140

(ou, pelo menos, comparável) perigo. Caso pessoas inocentes tenham que ser mortas
ou gravemente feridas, deve-se, então, pelo menos, tentar manter o número de vítimas
inocentes o menor possível. Essa consideração ético-jurídica também poderia ser
fundamentada constitucionalmente415.

Coca Vila acrescenta que a validade irrestrita do princípio jurídico da imponderabilidade


da vida humana não significa apenas que a vida do velho doente tem a mesma validade do
recente ganhador do Prêmio Nobel. Em verdade, uma vida humana tem exatamente o mesmo
valor do que de cem vidas, porquanto a mera diferença qualitativa ou quantitativa entre vidas
não autoriza se concretizar uma preponderância de interesses relevantes no sentindo de
justificar o sacrifício de uma pessoa inocente416.
Por essa razão é que haverá vozes sustentando que a proteção jurídica dos sujeitos de
direito adquire novas roupagens de acordo com a evolução da vida em sociedade, sem, contudo,
ganhar força suficiente para infirmar a cláusula geral da dignidade da pessoa humana. Cuida-
se de preceito que confere potência suficiente ao direito fundamental à vida, não se permitindo
construção de contramedidas ameaçadoras de sua subsistência.
Além do que, em questões de julgamento como essas, mesmo os humanos nem sempre
concordam, o que acaba por também atingir o programador porque não sabem bem “o que” e
“como” inserir essas regras nos algoritmos. A dificuldade em estabelecer padrões universais de
decisão emperra a programação efetiva dos algoritmos de acidente, dada a complexidade de
saber como codificar as regras explícitas417.
No fundo, as respostas a estas indagações serão de grande relevância para quem adquire
esse tipo de carro, para quem o fabrica, e sobretudo para o legislador, o qual deverá, no futuro
próximo, regular a ética-construtiva do programa que guarnece o veículo, o que aliás já se
encontra na agenda de países de vanguarda, buscando evitar que os fabricantes optem por
funcionalidades em benefício de determinado público-alvo em detrimento daqueles que não
dispõe dos recursos necessários à sua aquisição.
Um estudo ético-experimental foi realizado, inquirindo-se cidadãos americanos com
base neste dilema ético. Na ocasião, os dados obtidos demonstraram que 75% dos abordados
julgaram justa a programação do algoritmo para, em uma situação de conflito, decidir pelo
sacrifício do condutor do veículo em benefício da vida de dez pedestres. Ainda, restou

415
HILGENDORF, Digitalização e direito, p. 107.
416
COCA VILA, Coches autopilotados en situaciones de necessidad. Una aproximación desde la teoria de la
justificación penal, p. 175.
417
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas, p. 160.
141

estatisticamente provada uma correlação direta entre o anseio pela salvamento de um número
de vidas e o nível de aceitação da morte do operador nessas circunstâncias. Por outro lado,
paradoxalmente, quando o quesito é alterado e, desta feita, o inquirido é o proprietário do
veículo cujo algoritmo prioriza o condutor e demais passageiros (em especial com algum grau
de parentesco), não é de se estranhar que vultosa percentagem dá prioridade à preservação de
todos que se encontram no interior do carro418.
Isto posto, forçoso concluir que a despeito de muitos concordarem com uma perspectiva
utilitarista a ser inserida no algoritmo dos veículos – reduzindo quantitativamente o número de
vítimas -, a mesma comunidade prestigia a aquisição de carros que os protejam em situação de
conflito, ainda que seja apenas sua vida em detrimento de muitas outras. É dizer, se uma
concessionária vendesse veículos com ambos os tipos de algoritmo, certamente poucos
comprariam aqueles que seguem a linha utilitarista, ainda que esperassem essa atitude de
terceiros.
Liane Wörner419 faz interessante provocação quando questiona se o desenvolvedor dos
algoritmos gostaria de estar presente no momento e lugar em que se daria o fato. A pedra
angular de toda essa celeuma parece ser representada na reprovação do desejo de se balancear
pesos de vidas, seja quantitativa (poupar cinco vidas em detrimento de uma) ou
qualitativamente (poupar uma criança em detrimento da vida do idoso)420. Além do que a
antecipação de um juízo pela máquina não se coaduna com a ordem jurídica.
De todo modo, uma vez permitida o tráfego dos carros autônomos, Sabine Gless e
Thomas Weigend421 entendem que haveria que se renunciar à responsabilidade culposa e
“onerar” a sociedade com os riscos inerentes e que não podem ser fiscalizados e controlados
pelo programador, por conseguinte, pressupondo a aceitação social. Logo, admitir as máquinas
inteligentes pela “sociedade de riscos” implica o reconhecimento dos riscos como fenômeno
normal em razão dos benefícios sociais a elas associados. A limitação ao cuidado exigida do
arquiteto do agente inteligente se encontraria na “permissão de um risco de desenvolvimento”

418
BONNEFON; SHARIFF; RAHWAN, The social dilemma of autonomous vehicles, p. 1573–1575.
419
WÖRNER, Liane, Der Weichensteller 4.0. Zur strafrechtlichen Verantwortlichkeit des Programmierers im
Notstand für Vorgaben an autonome Fahrzeuge, in: Zeitschrift für Internationale Strafrechtsdogmatik, Baden-
Baden: ZIS – Zeitschrift für Internationale, 2019, p. 41–48.
420
ROHREGGER, Michael, Autonome Fahrzeuge und strafrechtliche Verantwortlichkeit, Journal für
Strafrecht, 3. ed. p. 196–201, 2017.
421
GLESS; WEIGEND, Agentes inteligentes e o direito penal, p. 63–64.
142

ou na “criação de uma causa de justificação de utilização socialmente adequada”. Nas palavras


dos autores:

Mais promissora é a abordagem que nega a imputação de um resultado causado por


um agente inteligente ao fornecedor sob o fundamento de que a ocorrência do
resultado (por exemplo, a lesão causada a uma pessoa por um carro autônomo) é um
evento "natural" não controlável por um ser humano, e no qual se manifesta
meramente um risco geral da vida. Isso pressuporia, porém, que os agentes
inteligentes fossem considerados fenômenos normais da vida cotidiana, com cujos
riscos todos estão familiarizados e aos quais se pode habituar, tal qual o risco de queda
de um galho quando se vai passear no bosque durante uma tempestade. No presente e
no futuro próximo, porém, os agentes inteligentes causadores de danos devem ainda
ser vistos como fenômenos excepcionais, de forma que quem os coloca no convívio
social cria, com isso, um risco extraordinário, devendo ser responsabilizado no
âmbito da punibilidade culposa pelas falhas (em geral previsíveis) daí advindas.

A responsabilização do desenvolvedor não pode estar atrelada, desta maneira, por


qualquer falha previsível – portanto, socialmente aceita -, mas por complicações geradas a partir
da vulneração das normas técnicas, ou ainda, por falhas advindas de projeto, construção e
produção evitáveis.
À luz da descrição técnica do processo de tomada de decisão dos veículos autônomos,
especialmente a respeito das técnicas de aprendizagem, há que se definir se o fornecedor possui
efetivo domínio sobre os comportamentos do autodirigido. Portanto, havendo preordenação
sobre a reação da máquina, de modo que haja previsão de suas decorrências, está preenchido o
nexo causal entre a conduta do fornecedor e o resultado.
Em contrapartida, para quem entenda pela imprevisibilidade dos comportamentos do
sistema (black box), não estará preenchido o vínculo, esbarrando-se em uma lacuna de
imputação, porquanto o veículo seria objeto impassível de responsabilização, tampouco o
desenvolvedor merecedor de imputação.
Finalmente, sobre as causas de exclusão da imputação, a proposição por vezes dada, em
relação ao programador, seria justapor sua situação na esfera da causa de exclusão consistente
nas ações perigosas de salvamento. Clássico exemplo daquele que ateia fogo na casa de outrem,
e esse entra para salvar seus pertences e acaba falecendo. Então alguns tentam inserir o
desenvolvedor nessa categoria de ação perigosa de salvamento.

3.4.3.1 A diminuição do risco e a responsabilidade do fabricante

A antijuridicidade da provocação da morte de pessoas em situações dilemáticas pelos


agentes inteligentes é fortemente defendida por muitos, para os quais a conduta abre espaço
para a responsabilidade civil e criminal do fabricante.
143

No entanto, cabe rememorar que sistemas de segurança, produzidos, portanto, para


preservação da integridade física, também têm o condão de causar danos, à guisa de exemplo,
do cinto de segurança e do airbag. Jonathan Koehler e Andrew Gershoff422 inspiram o exemplo
do caso de um motorista que morre afogado, ao cair de uma ponte em um rio, porque não
consegue se livrar do cinto de segurança em tempo hábil.
Ocorre que nesse tipo de situação não se argumentará pela responsabilização do
fornecedor. Por qual motivo? É que o sistema do cinto de segurança foi produzido dentro das
normas técnicas. Soma-se a isso outros dois pontos: há uma aceitação coletiva da técnica, além
do que se reconhece que nenhuma arte está integralmente isenta de riscos.
Logo, em que pese um item de segurança, não há que se falar em responsabilização do
fornecedor, por óbvio se tudo produzido dentro das normas técnicas regulamentares. A
explicação está na aceitação coletiva da técnica, reconhecendo-se que nenhuma arte está
integralmente isenta de riscos423.
Quase que na qualidade de um aforismo, reitera-se que em não havendo agravamento
do risco, não resta caracterizada a tipicidade da ação. A ciência jurídica criminal não está apta
a proibir condutas que não afetam bens jurídicos, máxime quando se presta a proteger o bem
tutelado ou outros interesses envolvidos. De fato, na modificação do curso causal no afã de se
alcançar a diminuição do perigo não há que se falar na presença do risco juridicamente
relevante424.
Ressoa equivocado qualificar invariavelmente como injustos o homicídio ou lesão grave
provocados por sistemas de veículos inteligentes. Tratar-se-ia de um rígido veredicto,
compreendido como um embargo ao desenvolvimento de sistemas autônomos, dado que não se
é possível esquivar-se da fatalidade. Deveras, é peculiar das situações dilemáticas que o veículo
mate um dos envolvidos, podendo representar um desacerto a obstrução à produção de veículos
automatizados. Efetivamente, a titulação das lesões ao bem jurídico “como injusto não significa
que esse injusto não deveria ter ocorrido”. Cabe aqui a comparação com os sistemas de
segurança citados à guisa de exemplo: airbag e cinto de segurança425.
A rigor, não há que se falar em sistema técnico integralmente seguro, naquilo que o
desenho do risco permitido é servil à limitação dos deveres de cuidado dos desenvolvedores do

422
KOEHLER, Jonathan J; GERSHOFF, Andrew D, Betrayal aversion: When agents of protection become agents
of harm, Organizational Behavior and Human Decision Processes, v. 90, n. 2, p. 244–261, 2003.
423
HILGENDORF, Digitalização e direito, p. 104.
424
DÍAZ, Introducción a la imputación objetiva, p. 60–80.
425
ENGLÄNDER et al, p. 135.
144

sistema. Portanto, o risco permitido pode ser visto como fator de equilíbrio de
responsabilidades, tornando possível o compartilhamento dos riscos entre desenvolvedores e
usuários do sistema autônomo.
No que diz respeito à programação dos veículos inteligentes não há como conferir
tratamento diverso, ainda que submetam vidas humanas a perigos ou fatalidades em situações
drásticas. A caracterização da quebra do dever de cuidado não estaria concretizada, se
porventura fossem cumpridas as regras atinentes. Porquanto, trata-se de limitação dos deveres
de cuidado do fornecedor, pois a cada atividade ou bem que se cria ou se produz, há uma carga
periclitante a eles inerente. Não há atividade livre de riscos, uma simples caminhada apresenta
perigos. É dizer, o “comportamento perigoso não é em si objetivamente uma violação de
deveres de cuidado, mas apenas se a sua periculosidade for socialmente inadequada”426.
O interesse tanto dos fabricantes quanto dos consumidores é atraído pelo
desenvolvimento de um veículo que ofereça proteção. No que tange ao fabricante, exsurge uma
possível incoerência, pois estão obrigados a fornecerem produtos seguros. De outro lado não
lhe é permitido a fabricação de um bem que exceda na proteção de seu cliente, oferecendo riscos
a terceiros. Sob esta perspectiva, o risco permitido insere-se no contexto como “causa especial
de adequação social”. Por isso, tido como um limitador de deveres de cuidado no que se refere
à produção em série de bens socialmente aceitos, pela utilidade ou adequação que deles se
podem desfrutar a coletividade, frisando-se que a ausência completa de riscos é utópica.
Em verdade, o risco permitido é instituto de natureza controversa. Para algumas vozes
da dogmática corresponde à ausência de responsabilidade a título de culpa. Para outros se
mostra como elemento da imputação objetiva, portanto, analisada ao lado da causalidade. Por
fim, encontra-se, ainda, aqueles que defendem se tratar de uma excludente de ilicitude.
Apesar do benefício ser de âmbito coletivo, a posição por vezes defendida é de que o
pedestre merece maior proteção, dado que o condutor é mais responsável pelo perigo criado
com o uso do veículo autônomo, posição essa capitaneada por Armin Engländer.
Contudo Eric Hilgendorf rebate defendendo a proteção do passageiro do veículo em
comparação ao pedestre justamente em razão da escolha pelo autônomos ser de ordem social,
sobretudo pela expectativa de que são capazes de reduzir drasticamente o número de acidentes,
pelo que todos os participantes do tráfego viário seriam beneficiados. Desta maneira, não se

426
HILGENDORF, Digitalização e direito, p. 105.
145

encontra presente o devido balanceamento ao tratar, no plano dos ônus, de modo distinto o
condutor e o pedestre, visto que uniformemente favorecidos no plano dos bônus.
Na mesma linha, Tatjana Hörnle e Wolfgang Wohlers destacam que não há que se opor
nem mesmo a objeção de que esse comportamento equivaleria a um contrato celebrado inválido
por prejudicar terceiros. Em verdade, a ideia de equidade compreende a noção de que não se
deve diferenciar passageiros e pedestres, isso porque como todos são reais beneficiários do
aumento da segurança no tráfego viário com o uso dos sistemas autônomos, todos os atores
desse fluxo de trânsito devem ser igualmente tratados no que tange aos danos advindos da
prática vantajosa à sociedade427.
Desde que o homem desfrutou do poder do fogo, como elemento de segurança, de
proteção ou de conforto, ele aceitou os riscos dele decorrentes. Nem mesmo a previsibilidade e
a evitabilidade de danos é suficiente para barrar a produção sob o argumento de quebra de
deveres de cuidado, pois disso não se trata. Se o fabricante se esforça para entregar sua produção
do modo mais seguro, respeitando as normas do seu tempo, não lhe é justa a sanção.
Obviamente, essa segurança, pelos riscos inerentes aos autônomos, inclui um monitoramento e
manutenção permanentes, o cognominado after sales (deveres no pós-venda). Eric Hilgendorf
complementa428:

Disso deriva-se o conceito de uma responsabilidade pelo produto dinâmica, que


obriga o fabricante a monitoramentos e melhorias constantes de seu sistema, ainda
que no ‘pós-venda’”.

Eric Hilgendorf, diante do continuado processo de melhoramentos tecnológicos, em


especial diante de produtos objeto desse estudo com alta carga de riscos que carrega, trabalha
com a ideia de “conceito dinâmico do produto”. Assim, os fabricantes possuem um dever perene
de controle e mitigação dos riscos, mantendo-se sempre atentos ao desenvolvimento de novos
softwares, a fim de instalá-los nos veículos já comercializados na eventualidade de
superveniência de atualização429.
Não obstante a nebulosidade causada por tantos questionamentos e dúvidas, o que não
pode a literatura se dar ao luxo é perder de vista as inovações e suas decorrências legais. Deve
se encarregar de um contínuo múnus de monitoramento dos artefatos autônomos, na medida em
que, caso surja conhecimentos posteriores acerca de um risco não previsto atualmente, o

427
GRECO, Veículos autônomos e situações de colisão, p. 200–201.
428
HILGENDORF, Digitalização e direito, p. 108.
429
Ibid., p. 105.
146

fabricante se responsabilize pelo reparo ou possível recolhimento do mercado do produto que


já passa a ser considerado defectível. Trata-se do “dever de asseguramento”, decorrente da
assunção de um risco elevado. O descumprimento deste dever pode desengatilhar a violação do
dever de cuidado, com previsibilidade do resultado, preenchendo-se os pressupostos do ilícito
negligente.
Se assim não for, a sociedade se deparará com verdadeiro engessamento da tecnologia,
o que não guarda sintonia com o anseio de desenvolvimento natural do corpo social. Veja-se
que o próprio veículo já é uma atividade de risco, quando comparada aos antigos e mais
rudimentares meios de transporte. Se bem projetados e elaborados, dentro das regras de
segurança, não há que se falar em responsabilização do fabricante.
No contexto do veículo autônomo, a prudência está em limitar o aprendizado da
máquina, pois essa pode ultrapassar questões ético-jurídicas que não lhe são peculiares. Logo,
é nesse controle que deve haver maior cuidado, não fazendo sentido estimular a petrificação da
ciência. A conclusão não é outra se não aquela que vai no sentido de que se o risco criado pelo
agente for permitido ou reduzido, a imputação restará excluída, ainda que venha a lesionar
terceiros.

3.5 Propostas de soluções e o seu rendimento para solução de conflitos

Há quem proponha a renúncia ao algoritmo de acidente, com base na premissa de que


se o operador humano não teria capacidade de reconhecer com precisão todas as informações
envolvidas na iminência do acidente, a máquina também não deveria fazê-lo. Ocorre que a
opção da humanidade por um processo evolutivo permanente, natural da sua espécie, fez
escolha plasmada na sociedade de riscos, visando cada vez mais conquistar recursos em seu
proveito. De mais a mais, o homem sempre buscou melhores abrigos, mais calor, mais
eficiência, maior torque, mais alavancas, maior velocidade e parece agora estar tentado alcançar
inteligência que possa até lhe superar, justamente para lhe servir.
Forte nessas premissas é que os que defendem sentido contrário devem se aquietar. Da
essência da teoria da imputação objetiva é possível extrair-se desdobramentos que têm o condão
de ultrapassar suas limitações para, ao final, apresentados os respectivos rendimentos, concluir-
se pela capacidade de solução dos conflitos em questão. Vale a análise dessas propostas
alternativas, confrontando-as com casos hipotéticos ou concretos, sobretudo como forma de
avaliar o rendimento da própria teoria como ferramenta útil aos conflitos.
147

3.5.1 A regulamentação técnico-administrativa

O primeiro critério determinado pela teoria da imputação objetiva impõe a criação de


um risco proibido pela ordem jurídica ou o agravamento de um risco permitido. Além disso, a
teoria reivindica que o perigo se realize efetivamente no resultado. E mais, que o resultado seja
protegido pela norma jurídica.
Em sede dessa pesquisa, o questionamento que se pretendeu verificar foi se que o
fabricante ou o condutor do sistema de condução inteligente foi capaz de propiciar a criação do
risco proibido ou aumentar o risco permitido, superando o limite tolerável pela ordem jurídica
vigente. Constatou-se que o funcionamento de carros inteligentes pode ser compreendido em
dois momentos distintos.
O primeiro diz com a operação de sistemas de condução automática sem nenhuma
regulamentação específica, situação inclusive vivenciada no ordenamento jurídico vigente
brasileiro. Em outras palavras, ventila-se a existência de um risco proibido, uma vez que não
estaria permitida a circulação dos autodirigidos.
No segundo momento pode-se imaginar a produção de normas iniciais regulatórias da
recém-chegada tecnologia. No entanto, frisa-se que mesmo assim será factível a transgressão
da lei com a utilização dos autodirigidos de maneira incompatível com a permissividade. Aqui,
acaso o fornecedor ou o operador do veículo não respeitassem as prescrições legais, o risco
proibido se mostraria claramente presente. Estando a tecnologia em plena conformidade com
as normas postas, não haveria que se falar em existência de risco proibido, ao contrário,
permitido ele estaria.
No ponto, sobre o difícil dilema que envolve uma vida contra a outra, o professor Eric
Hilgendorf430, propõe três diligências. Primeiramente, há que se adequar à dogmática,
conformando-se com a ordem jurídica, máxime com os princípios da dignidade da pessoa
humana, os direitos humanos e o Estado Democrático de Direito. Ainda, deve haver uma
compatibilização ético-jurídica por parte de qualquer espécie de solução. Por fim, a solução
normativa deve ser algo factível, ou seja, deve ser praticável.
Assim, se o carro desvia, matando uma pessoa, para salvar duas ou três, a programação
seria antijurídica. No entanto, esse cálculo de vidas deve passar pelo crivo dos fundamentos
propostos. Há que se encontrar fundamentos ético-jurídicos, para então serem testados em sede

430
Ibid., p. 96–98.
148

do sistema penal e, verificar a ocorrência, ou não, de um injusto de resultado. Aliás, o fato de o


carro desviar ser considerado ilegal não está apto à conclusão de que a manutenção do trajeto
seja legal. É que em uma situação trágica “todas as eventualidades possíveis realizam um
injusto”431.
Todavia, uma “redistribuição” de chances de sobrevivência, diz Eric Hilgendorf432,
revela-se antijurídica quando pessoas não envolvidas são prejudicadas. Como postulado que
norteia o sistema jurídico, essas pessoas não podem ser sacrificadas em favor de terceiros. Regra
essa válida, independentemente se várias vidas serão salvas em detrimento de um indivíduo. O
autor provoca: “quem gostaria de viver em uma sociedade, na qual se pode ser morto a qualquer
momento, para que um terceiro seja salvo?”.
Não há motivo para programar um autônomo de formas que os passageiros sejam
protegidos em todo e qualquer tipo de circunstância, ainda que tenha que morrer muitas pessoas.
Com base nisso, Matheus Caetano entende inaceitável o algoritmo de acidentes
independentemente de “um futuro consenso social acerca das escolhas morais em situações
dilemáticas de inevitável colisão rodoviária”433.
Os algoritmos de acidente certamente, por suas impossibilidades axiológicas e jurídicas,
sujeitam-se a limitações de regulação jurídica. A ciência jurídica não consegue absorver a
matéria trazendo uma adequada disciplina. Nos dizeres de Castillo González:

[...] o âmbito livre de direito emerge quando a autonomia do sujeito é preponderante


sobre as necessidades de regulação da comunidade e que o direito tem um campo de
aplicação quando a arbitrariedade das ações de um terceiro fazem perigar a autonomia
dos demais. Por um lado, ela é uma limitação ao direito e, por outro lado, fundamenta
o direito434.

No entanto, não há que se falar em obrigação dos passageiros de se sacrificarem ou de


se vitimizar o conjunto maior de pessoas. Não se afigura inapropriada a mitigação das
circunstâncias das situações-dilema. Tatjana Hörnle e Wolfgang Wohlers afirmam que não há
espaço para justiceiros morais que apontam insensivelmente para uma direção guiada pelo
preço do não salvamento de um grande número de vidas ou de mais vidas em detrimento de
menor número, prestigiando-se o dano menor435.

431
Ibid., p. 97–98.
432
Ibid., p. 97.
433
CAETANO, Os algoritmos de acidente para carros autônomos e o direito penal: análises e perspectivas, p. 185–
186.
434
CASTILLO GONZÁLEZ, Francisco, Suicidio e instigación y ayuda al suicidio, San José, C.R.: Editorial
Jurídica Continental, 2011, p. 58.
435
ENGLÄNDER et al, p. 131.
149

Assim é que o entendimento que postula a proibição de compensação, mesmo que diante
de uma “comunidade de perigo”, não pode se permitir capricho da renúncia da tecnologia
inteligente que pode permitir salvar muitas vidas. Isso vale não somente sob o prisma
utilitarista, mas sobretudo do ponto de vista do usuário a quem não é dado o dever de sacrificar
sua vida. Confira-se os ensinamentos de Tatjana Hörnle e Wolfgang Wohlers436:

Aquele que rejeita uma justificação nos termos do § 34 StGB a partir da referência a
uma proibição de compensação se orienta não mais pelo interesse humano, mas por
um princípio abstrato que, no que tange à questão referente ao perigo coletivo aqui
abordada, não pode ser fundamentado racionalmente. Ponderações efetuadas no
âmbito das ciências jurídico-penais contra a justificação não são convincentes. Nesse
sentido, remete Roxin a uma insegurança em relação às prognoses, utilizando um
argumento slippery slope: caso se permita que, em situação de acidente, se reduza
arbitrariamente o tempo de vida alheio, ameaçar-se-ia a vida de moribundos que ainda
tivessem dias ou meses de vida. No entanto, tais reflexões subestimam grosseiramente
o potencial diferenciador existente. Prognoses inseguras são relevantes em casos de
sequestro de aviões. Entretanto, quando todos os homens que se encontram na rua
seriam seguramente atropelados [...] em questão de segundos ou milésimos de
segundos, esse deve ser o cenário em foco - e não se deve postular uma proibição
argumentativa fazendo-se remissões a casos análogos.

De outro lado, sob o ponto de vista do desenvolvimento da tecnologia, e seu


aproveitamento pela sociedade, não há dúvidas quanto à sua utilidade, especialmente pela
diminuição sensível de acidentes, pois o carro autônomo não se embriaga, não tem sono ou
fadiga, não usa entorpecentes, fora a possibilidade de se construir uma rede a partir de vários
autônomos funcionando simultaneamente, a gerar menos acidentes, menor consumo de
combustível, e de preservação do meio ambiente contra a poluição. Então sob este viés da
utilidade, enxerga-se muitas as vantagens.
Consoante os ensinamentos de Luís Greco437, apenas proibições aptas a gerarem alguma
espécie de “ganho social” podem ser tidas como legitimas, é dizer, aquelas que apresentam
alguma idoneidade para fins de proteção de um bem jurídico eleito. Até porque se trata de um
ponto de intersecção entre o risco e o princípio constitucional da proporcionalidade, dentro do
seu desdobramento da adequação, porquanto toda ideia de restrição da liberdade há de
promover o propósito pretendido.
É certo o impacto positivo que a adoção do carro autônomo trará em termos sociais e de
conservação ambiental. Há estudos que revelam que, pelo seu uso compartilhado, haverá

436
Ibid., p. 133.
437
GRECO, Um panorama da teoria da imputação objetiva.
150

redução em média de 2,1 para 1,2 carros por domicílio438. Com efeito, com um tráfego menor,
o necessário desestímulo à emissão de gases poluentes se concretizará. Outrossim, não é clichê
tecer comentários sobre a real imposição acerca do dever fundamental de preservação do meio
ambiente.
Dessa forma, o objeto do estudo também está diretamente ligado à agenda político-
ambiental e à agenda político-econômica, além da segurança da população. Isso porque VA’s
podem propiciar, para além de conforto aos usuários, mobilidade mais segura e limpa
(ecomobilidade)439. Sob o aspecto econômico, ressalta-se os interesses econômicos do país,
posto que a participação do setor automotivo representa 22% do PIB industrial e 4% do PIB
total.
Nesse contexto é que se pode afirmar que não é a simples renúncia a um novo aparato
social que se logrará solução. Certamente, não é essa a saída. A regulamentação parece ser a
saída primordial em busca de uma solução adequada, de modo que a criação da receita
algorítmica, a produção do veículo, bem como sua utilização pelo consumidor final se deem
dentro de um espectro normativo. A criação e utilização do bem autônomo convive com a
aceitação social, ao mesmo tempo que procura minimizar riscos face à carga técnico-normativa
que passa a receber.
Luís Greco440 ressalta que a avalição sobre a permissividade de um risco deve contar
precipuamente com um aparato de normas de segurança de natureza técnica, porque capazes de
mitigar os perigos das atividades consideradas arriscadas. Ademais, esse sistema normativo
deve ser alcançado a partir do consórcio entre normas técnicas e normas jurídicas.
Evidentemente, as normas técnicas, por terem natureza de norma privada, porque
geralmente elaboradas por entes privados como representantes da indústria, podem implicar um
déficit de legitimidade democrática. Desta forma, ponto delicado que merece atenção, pois não
é correto admitir que a indústria, sob o alicerce de um processo legiferante entregue nas mãos
de engenheiros por ela custeados, determine indiretamente os rumos da responsabilização
penal. Daí a relevância no devido sopesamento entre a liberdade e a proteção dos bens jurídicos.
Não é tarefa simples elaborar as normas de regência, sobretudo por se tratar de um
processo que encara questões técnicas, jurídicas e filosóficas. Na linha de que em princípio não

438
CLEMENTS, Lewis M.; KOCKELMAN, Kara M., Economic effects of automated vehicles, Transportation
Research Record, v. 2606, n. 1, p. 106–114, 2017.
439
MARTINESCO, VEÍCULOS AUTÔNOMOS.
440
GRECO, Um panorama da teoria da imputação objetiva.
151

são encontradas respostas imediatas em sede de situações-dilema, mas que também é


equivocado simplesmente tentar encontrar solução na inadmissão dos sistemas autônomos,
Tatjana Hörnle e Wolfgang Wohlers trazem importante sugestão contributiva, fundada no
agrupamento de regras de preferência dentro de um plano prático-político. Assim é que sugerem
o empenho dos atores políticos no sentido de não tratar dogmas estabelecidos como tabus, ao
contrário, conformá-los a uma avaliação crítica441.
Os autores recomendam o agrupamento de sete regras de preferência, além de uma
oitava regra subsidiária. São elas: regra de preferência n. 1 (solução em desfavor do envolvido
que viola regra de trânsito); regra de preferência n. 2 (solução do dilema em desfavor daquele
envolvido cujo comportamento viola outras regras jurídicas. Exemplo: manobra para matar
aquele que empurrou intencionalmente alguém para a pista, provocando a manobra brusca);
regra de preferência n. 3 (favorecimento dos passageiros do veículo autônomo); regra de
preferência n. 4 (favorecimento de envolvidos no trânsito que não são passageiros de veículos
inteligentes ou totalmente automatizados); regra de preferência n. 5 (favorecimento de
crianças); regra de preferência n. 6 (diante de “comunidades de perigo”, salvar o maior
número); regra de preferência n. 7 (salvamento do maior número de pessoas); 8. possível regra
subsidiária (não alteração do curso) 442.
O significado relevante de se adotar regras de preferência unificadas estaria
representado na segurança jurídica. Desse modo, uma vez cumpridas as especificações, não
haveria que se falar em risco de punibilidade. O fabricante e o usuário do veículo estariam se
movimentando dentro da margem do risco permitido443.
A edificação de um fundamento legal para a programação de situações-dilema pode
também recomendar alguma espécie de solução, enfrentando, contudo, certa dose de
dificuldade, pois uma legislação única que ultrapassasse as inúmeras fronteiras esbarraria nas
especificidades locais. Destaca-se, no ponto, a importância de a lei guardar a regulação
simétrica, na maior medida possível, no que reclama dose de uniformidade dos dispositivos
sobre seus destinatários, desde que se respeite singularidades em nome da coerência sócio-
cultural.

441
HÖRNLE, Tatjana; WOHLERS, Wolfgang, “Trolley problem” revisitado: como devem ser programados os
veículos autônomos no dilema vida-contra-vida?, in: ESTELLITA, Heloisa; LEITE, Alaor (Orgs.), Veículos
autônomos e direito penal, 1. ed. São Paulo: Marcial Pons, 2019, p. 140–153.
442
Ibid.
443
ENGLÄNDER, Armin et al, in: ESTELLITA, Heloisa; LEITE, Alaor (Orgs.), Veículos autônomos e direito
penal, 1. ed. Madri Barcelona Buenos Aires São Paulo: Marcial Pons, 2019, p. 151.
152

Outrossim, poder-se-ia ventilar uma perspectiva de neutra "equidistância entre as


pessoas no interior do veículo e as fora dele", o que não legitimaria o favorecimento dos
passageiros, implicando a predileção pela regra de preferência n. 4, com o favorecimento de
envolvidos no trânsito que não são passageiros do carro inteligente 444. Caso contrário, se há a
opção por se atribuir as decisões do sistema ao fabricante, ou de abdicar a um controle público
governamental intenso, a implicação será o crescimento da probabilidade de aplicação da regra
de preferência n. 3, isto é, o favorecimento dos passageiros do veículo autônomo445.

3.5.2 A proposta da criação de um tipo penal

No trânsito, por óbvio, a ocorrência de um sinistro, o qual tem o condão de provocar


danos à integridade física de alguém, consiste na concretização de um perigo. Para tanto, o
legislador, atento a esse risco, previu figuras relacionadas ao homicídio e à lesão corporal na
condução de veículo automotor, no que as tipificou como crimes de trânsito.
Logo, a alternativa de criação de um tipo penal se mostra relevante de igual maneira,
mas que para muitos vai de encontro ao princípio da intervenção mínima. Entendem pela
irrazoabilidade da proposta de criação de um novo tipo penal no afã de criminalizar a
inadequada programação, construção ou utilização de sistemas autônomos446.
É sugestão que parece anunciar o combate à dispersão de responsabilidade para os casos
de acidentes provocados por sistemas sujeitos ao fenômeno da autoaprendizagem, mas que
encontra, como estudado, a dificuldade de apontar os sujeitos penais. Por oportuno, colaciona-
se os ensinamentos de Jesús María Silva Sánchez447:

El Derecho penal es un instrumento cualificado de protección de bienes jurídicos


especialmente importantes. Sentado esto, parece obligado tener en cuenta la
posibilidad de que su expansión obedezca, al menos en parte, ya a la aparición de
nuevos bienes jurídicos - de nuevos intereses o de nuevas valoraciones de interesses
preexistentes-, ya al aumento de valor experimentado por algunos de los que existían
con anterioridad, que podría legitimar su protección a través del Derecho penal. Las
causas de la probable existencia de nuevos bienes jurídico-penales son, seguramente,
distintas. Por un lado, cabe considerar la conformación o generalización de nuevas
realidades que antes no existían -o no con la misma incidencia-, y en cuyo contexto
ha de vivir la persona, que se ve influida por uma alteración de aquéllas; así, a mero
título de ejemplo, las instituciones económicas del crédito o de la inversión. Por otro
lado, debe aludirse al deterioro de realidades tradicionalmente abundantes y que en

444
Ibid.
445
Ibid.
446
HILGENDORF, Digitalização e direito, p. 121–122.
447
SÁNCHEZ, La expansión del derecho penal, p. 11.
153

nuestros días empiezan a manifestarse como bienes escasos, atribuyéndoseles ahora


un valor que anteriormente no se les asignaba, al menos de modo expreso;

No entanto, recorda-se que a precisão da teoria da imputação objetiva em se apontar


soluções categóricas sobre o assunto reclama uma adequada previsão ao enquadramento penal.
Contudo, é possível a figura do crime de perigo abstrato e concreto na seara dos autônomos ao
causarem danos por atuação própria, sendo possível, de igual modo, limitar-se a intervenção
dos fornecedores no afã de se evitar processos de aprendizagem arriscados. Nessa senda, propõe
a extensão da responsabilidade pelo risco, no direito penal, pensando na construção de uma
nova figura típica penal de perigo448.
De qualquer modo, nessa opção é ventilada a idealização de um tipo penal de perigo
capaz de criminalizar a inadequada programação ou, ao menos, o acesso a sistemas de
autoaprendizagem potencialmente danosos. Com vistas à evitação da expansão extrema do
direito penal, esse tipo limitar-se-ia a perigos concernentes a danos graves específicos, à guisa
de exemplo, relacionados com a vida e a integridade física. Existe, ainda, a possibilidade de se
fixar a ocorrência de um dano como condição objetiva de punibilidade.
Nessa linha, os desenvolvedores e os sujeitos que expõem sistemas desajustados de
autoaprendizagem encontrariam balizas em seu ofício, de modo a serem estimulados a
configurarem o software de maneira segura. Em verdade, trata-se de mais uma manifestação da
discussão sobre a existência, ou não, do risco permitido, o que o coloca sempre como divisor
de águas na caracterização entre produtos socialmente adequados e aqueles inadequados por
suas consequências.

3.5.3 A Teoria da Evitabilidade ou a não-realização do risco no resultado

A teoria da evitabilidade preconiza que a punição resta excluída se houver segurança de


que a conduta correta não melhoraria de modo algum a situação do bem jurídico449. Ela se aplica
a situações em que é possível avaliar se um determinado resultado negativo poderia ter sido
evitado se as ações tomadas tivessem sido diferentes. Na aplicação desta teoria aos casos em
questão, considera-se se as ações diferentes por parte do motorista do carro ou outras pessoas
envolvidas poderiam ter evitado o resultado negativo, seja ele a morte de pedestres ou de
passageiros.

448
HILGENDORF, Digitalização e direito, p. 51.
449
GRECO, Um panorama da teoria da imputação objetiva.
154

Em sua essência, quer defender que o causador do resultado não será imputável acaso
não comprovado que esse não seria reproduzido diante de uma conduta alternativa, ou melhor,
uma conduta em conformidade com norma preexistente. Logo, em não havendo alteração fática
em virtude de eventual ação considerada mais adequada, o bem jurídico não estaria violado.
Se a premissa maior contida na norma é a evitação de resultados, é de se concluir que
na hipótese da conduta prudente for também capaz de provocá-los, em última análise, a norma
não fez surtir seus efeitos desejados, isto é, não cumpriu seu encargo de proteção ao bem
tutelado. Falha, portanto, a proibição, porquanto ausente o desvalor do resultado. É dizer, a
observância ao preceito proibitivo não faz acobertar a situação do bem jurídico450.
Enrique Bacigalupo451 enfrenta verticalmente a questão, afirmando que a simples
promessa de evitação do resultado a partir de uma ação regular dá lugar à aplicação da teoria
do princípio in dubio pro reo. O castigo a um indivíduo diante de uma insegurança, de uma
incerteza, ou de uma alternância inútil de comportamento se mostraria incoerente, naquilo que
a absolvição se mostra inevitável. Assim, “a certeza de que o comportamento conforme o direito
não melhoraria em nada a situação do bem jurídico, não haverá reprimenda”452.
Para além disso, o risco é considerado permitido nos comportamentos que os oferecem,
mas que a legislação o autoriza, seja em razão de sua utilidade social, seja porque se trata de
um risco inevitável ou de fato imprescindível ao progresso tecnológico453. Assim é que uma
possível solução a ser sopesada segue representada pela teoria da evitabilidade, na qualidade de
desdobramento da teoria da imputação objetiva, porquanto hipótese em que o risco não se
realiza no resultado.
Em síntese, para a teoria da evitabilidade não se pode imputar um resultado quando a
lesão é inevitável mediante uma conduta alternativa conforme o direito454. Portanto, defende
que ainda que o agente tenha criado o risco proibido, o risco certamente teria ocorrido da mesma
forma, caso tivesse criado o risco permitido455. Ou ainda, segundo a teoria somente se legitima

450
SOUZA, Luyla Cavalcante de, O nexo de aumento do risco na teoria da imputação objetiva, Revista Brasileira
de Ciências Criminais, v. ano X, n. 66, p. 77–117, 2007, p. 81.
451
BACIGALUPO, Enrique, Principios de derecho penal: parte general, 5. ed., totalmente actual. Madrid: Ed.
Akal, 1998, p. 199.
452
SOUZA, O nexo de aumento do risco na teoria da imputação objetiva, p. 83.
453
STRATENWERTH, Günter, Derecho Penal. Parte General, I. El hecho punible, Madrid: Instituto de
Criminología de la U. Complutense de Madrid, Edersa, 1982, p. 84.
454
SÁNCHEZ, Bernardo Feijóo, Teoria da imputaçao objetiva: estudo crítico e valorativo sobre os
fundamentos dogmáticos e sobre a evolução da teoria da imputação objetiva, São Paulo: Manole, 2003, p. 13.
455
TAVARES, Teoria do Injusto Penal, p. 356–382.
155

a sanção por crime consumado na hipótese de o agente, além de ter provocado dano por meio
de sua ação antijurídica, se porventura também a conduta reta tivesse o condão de afastá-lo456.
Assim, o agente somente será punido se comprovado que o comportamento acertado
correspondente salvaria o bem jurídico afetado457. Exemplo didático seria imaginar que ainda
que um caminhoneiro em alta velocidade mate o ciclista respeitando a distância correta, o
atropelamento que se deu seria inevitável, em razão de circunstância outra.
É que a criação do risco proibido (excesso de velocidade, por exemplo) não se realiza
no resultado. Se o resultado tivesse ocorrido ainda que ele não tivesse criado o risco proibido,
abre-se espaço para a teoria alemã da inevitabilidade, face à ruptura do nexo normativo. Em
não havendo a realização do risco no resultado, o resultado ocorreria inevitavelmente.
Relevante, contudo, expor a posição de Claus Roxin458:

O mesmo ocorre com a evitabilidade. Quando se dizem inevitáveis e, portanto, não


culposos, os acidentes de trânsito ocorridos, apesar do respeito a todos os dispositivos
legais, isto corresponde à linguagem cotidiana; porém, não se trata de uma expressão
juridicamente exata. Afinal, é claro que os riscos ligados ao trânsito de veículos são
evitáveis, bastando que nele não se participe, e se ande a pé. A razão decisiva para
inexistir culpa está em que, em tais acidentes, o que se realiza é um risco permitido.
A argumentação através da inevitabilidade é completamente supérflua.

À luz da premissa de que o dever de cuidado objetiva evitar resultados típicos, com
fundamento no fim de proteção da norma, ainda que a conduta cuidadosa origine a lesão ao
bem jurídico, conclui-se que a norma não cumpriu a sua função de proteção, na medida que sua
vulneração não recairá em um relevante penal, por obra do rompimento da relação de
causalidade entre o desvalor da ação e o desvalor do resultado459.
Juarez Tavares460 leciona que a conexão entre o comportamento contrário ao dever de
cuidado e o resultado guarda sintonia com o pressuposto de que o resultado era evitável e de
que o autor poderia evitá-lo. Por consequência, se o evento lesivo não for evitável ainda que
diante de conduta em conformidade com o direito, forçoso concluir que a vulneração do dever
de cuidado seria irrelevante para a sua verificação. Diante disso, a imputação objetiva do
resultado resta excluída pois, como visto, a teoria não é direcionada pela causalidade física,
correspondendo a um juízo de adequação.

456
GRECO, Um panorama da teoria da imputação objetiva.
457
SOUZA, O nexo de aumento do risco na teoria da imputação objetiva, p. 90.
458
ROXIN, Estudos de direito penal, p. 117.
459
SOUZA, O nexo de aumento do risco na teoria da imputação objetiva, p. 91.
460
TAVARES, Juarez, Direito penal da negligência: uma contribuição a teoria do crime culposo, 2a ed., revista
e ampliada. Rio de Janeiro: Lumen Juris, 2003, p. 332.
156

Diante do que foi assentado, para a imputação não é suficiente que a conduta tenha
relação com a vulneração da norma de cuidado juntamente com a causação do resultado. É
imprescindível também que o risco desencadeado com sua conduta tenha se realizado no dano.
Isso ocorrerá na hipótese de o dano ser evitável. A evitabilidade objetiva do resultado passa a
constituir a essência da imputação no tipo de injusto461.
Vale anotar que parcela da doutrina entende que a metodologia empregada pela teoria
da evitabilidade conduz à impunidade nas hipóteses em que, em que pese o agente lesionar, há
demais perigos em estado de reserva, naquilo que a teoria representaria um retrocesso, na
medida em faz uso de juízos hipotéticos de constatação462.
Mais uma crítica é que a divisão do risco proposta pela teoria em um quantum permitido
e um quantum proibido não se mostra adequado. O risco não admite concepção que o fragmenta
em fração permitida e outra não permitida, de modo a compreendê-las isoladamente,
reivindicando reconhecimento da causalidade de cada uma463.
Claus Roxin, no entanto, pondera que a teoria da evitabilidade se sustenta
exclusivamente sob o ângulo teórico. No seu sentido material afigura-se injusta, mormente
porque suas decisões não se manifestam suficientes na perspectiva político-criminal464.
Outrossim, sendo a essência da inteligência artificial a tentativa de imitar a mente
humana, a tendência é a aproximação entre as heurísticas das redes neurais humanas e artificial.
Em assim sendo, é plausível admitir-se que de um modo ou de outro, diante de situações
dilemáticas conflituosas, a reação diligenciaria para algum sentido intuitivo.
Não é difícil se imaginar que um condutor humano, avistando pessoas feridas em uma
pista, demonstre a predisposição para desviar para alguma direção que o proteja, ainda que
venha a se ferir de igual modo, por algum erro de cálculo ou inexatidão quanto a outras variáveis
presentes naquela circunstância, sobretudo em razão do exíguo lapso temporal em que tudo se
passa, por vezes em questão de segundos.
Sven Nyholm465 explica que os tempos de reação humana são demasiadamente lentos,
máxime se comparados aos tempos de uma máquina. Demanda-se período de tempo
relativamente longo para que uma pessoa mova seu foco de uma atividade para outra. Até por
essa razão que não se reflete uma boa opção, como sugerem alguns, de repor o controle do

461
Ibid., p. 333.
462
SOUZA, O nexo de aumento do risco na teoria da imputação objetiva, p. 92.
463
Ibid., p. 95.
464
Ibid., p. 94.
465
NYHOLM; SMIDS, The Ethics of Accident-Algorithms for Self-Driving Cars, p. 1278.
157

veículo ao condutor humano que ocupava a posição de passageiro no momento iminente do


incidente, podendo, inclusive, estar dormindo. Não há tempo para tanto. Além do que o veículo
autônomo apresenta a vantagem de não reagir de modo desorganizado e atemorizado, como um
humano certamente o faria, podendo se utilizar friamente de cálculos racionais para reagir
diante do cenário dilemático.
À luz desse cenário, e já que à figura humana lhe seria permitido reagir para se salvar,
como instinto natural, fica a indagação: até que ponto haveria abuso na construção de uma
máquina que imite a mesma reação que o ser humano teria nas mesmas circunstâncias?
Acrescente-se: uma máquina apresenta capacidades muito superiores para tomada de decisões,
podendo-as realizar, inclusive, de forma mais racional.
Mas é preciso revelar as críticas à teoria da evitabilidade, acima de tudo porque o bem
jurídico pode restar desagasalhado. Argumenta-se que a função de proteção dos bens atribuída
ao direito criminal esvazia as justificativas para a adjudicação do benefício da dúvida a um
agente que não oferece cuidados reivindicados em domínios de riscos, afinal a atividade
perigosa requer ao menos a tentativa no sentido da diminuição de riscos a terceiros, na qualidade
de vítimas em potencial.
Por certo, a permissividade não mitiga deveres positivos de cuidado, e sim o oposto,
exigindo deveres de maneira mais efetiva. Por esse motivo é que a atuação estatal se manifesta
de modo ainda mais agudo em domínios de riscos mais sérios, inclusive com possibilidade de
previsão de delitos para fins de proteção de bens relevantes466.
Ainda nesse contexto, a categoria dos cursos causais hipotéticos é também campo fértil
de discussão no que tange ao juízo de criação ou incremento de riscos. Claus Roxin rememora
que são em regra irrelevantes no que se refere à causalidade. De qualquer modo, podem se
revestir de excludentes da imputação467. Para Luís Greco, os cursos causais hipotéticos não
apresentam relevância se confrontados com os fundamentos da teoria da imputação objetiva.
Assim, o conjunto de cursos causais hipotéticos é gênero do qual pode ser tido como espécie o
comportamento alternativo conforme o direito. Tal mecanismo, sem embargo de sua
funcionalidade na delimitação do nexo de realização do risco, não se mostra eficiente para a
consecução daquela finalidade468.

466
SOUZA, O nexo de aumento do risco na teoria da imputação objetiva, p. 89.
467
ROXIN, Funcionalismo e imputação objetiva no direito penal, p. 318.
468
GRECO, Um panorama da teoria da imputação objetiva.
158

A clássica questão que se coloca é a ausência de exculpante da imputação nos casos de


fuzilamentos em tempos de guerra, sob o argumento de que se o autor se recusasse ao serviço
ilegal, outro o faria em seu lugar. Ou ainda, o larápio que tenta se escusar alegando que outrem
ofenderia o patrimônio invariavelmente. Todas essas constatações recaem na premissa de que
a ordem jurídica não pode vacilar em suas reprovações diante da alegação da ocorrência do
resultado por outras janelas, o que pode inclusive ser transportado para o âmbito dos carros
autônomos se se pensar na situação dilemática de que o agente autônomo ou o motorista
humano tomariam suas decisões de modo imprevisível, podendo ambos recaírem no mesmo
resultado, afastando-se a responsabilidade dos envolvidos no âmbito da IA, já que tudo poderia
ocorrer uniformemente. O incremento do risco não pode ser desconsiderado no âmbito dos
cursos causais hipotéticos sob o pretexto de o que o bem jurídico se encontraria desprotegido
de qualquer forma469.
O agente substituto não tem o poder de invocar para si a conduta conforme o Direito.
Para Claus Roxin470, é punível por homicídio o indivíduo que empurra o agente da execução
responsável pela injeção letal ou por apertar o botão da cadeira elétrica, mas é impedido por
aquele, que acaba realizando o ato para o qual não estava autorizado. Afinal, a habilitação é
dada pela lei a determinados sujeitos, e somente a eles é acreditada a conduta típica, sob pena
de uma inversão da ordem, com consequências prejudiciais à sociedade, pela desorganização
generalizada. Imagine-se qualquer indivíduo podendo contrariar a vontade do legislador,
prendendo, atirando ou exercendo alguma função de polícia, sob o argumento da prestação legal
e necessária de um serviço à sociedade.
De todo modo, importando tais premissas ao contexto dos VA’s, poder-se-ia argumentar
que o fabricante ou o próprio ente autônomo reagiriam assim como o usuário em um carro
normal, não sendo relevante o resultado, seja quantitativa ou qualitativamente considerado.
Claus Roxin471 assume uma linha de exclusão da imputação no caso do autor que simplesmente
altera a causalidade natural, contudo, sem piorar a situação da vítima ou de um conjunto de
vítimas.
Assim, se há um desvio para não atingir um grupo de pessoas, mas a ação acaba
atingindo uma vítima, possivelmente haveria uma causa de exclusão de imputação. Seria
racional imputar a modificação de uma causalidade natural tão somente se a lesão for

469
ROXIN, Funcionalismo e imputação objetiva no direito penal, p. 318–319.
470
Ibid., p. 319–320.
471
Ibid., p. 320–321.
159

intensificada, porquanto indiferente se pessoas foram vitimizadas por obra de um condutor


humano ou de um humano conduzido por uma máquina, máxime se resultados danosos
ocorreriam inevitavelmente. Não se trata, por conseguinte, de vontade de aumentar danos, ao
contrário, muitas vezes de reduzi-los, repita-se, quantitativa ou qualitativamente.

3.5.4 Alternativa ao consenso: o processo randômico

Diante de eventual falibilidade das alternativas acima diante, há a quarta proposta da


operação randômica, em que se deixa a decisão no modo aleatório, tendo por base que muitas
coisas no mundo natural ocorrem exatamente ao acaso. Em especial, na eventualidade de
choque entre dois bens de mesmo valor, ou melhor, de dois danos com mesma gravidade, o
modo randômico afigura-se como uma possível solução. Todavia, por outro prisma, se é
possível ao sistema fazer escolhas com menor dano, em razão da grande capacidade que tem
para absorver e processar informações, questiona-se se haveria razoabilidade em abdicar da
ferramenta472.
Coca vila afirma que a resolução de conflitos através do sorteio representa um caminho
imune às críticas clássicas feitas contra o mecanismo, especialmente na tentativa de solucionar
situações trágicas de necessidade. O fato de ser o sistema que toma a decisão por sorteio, além
do que ele é quem automaticamente a executa, tem potencial para erradicar os riscos de
manipulação, obviamente, tanto do sorteio quanto da execução de sua solução. A “justiça” está
em a vítima se apresentar como resultado de uma força objetiva após o desfrute de uma opção
de salvação em um concurso lotérico em que todas as circunstâncias são igualmente
consideradas. Logo, trata-se de algoritmo formulado de modo a decidir de modo puramente
aleatório para que se resolva o conflito. Por certo, diante de exigências idênticas, o sorteio surge
como mecanismo adequado ao processo de decisão incontornável473.
É que a realização do algoritmo de acidente tem de encontrar fundamento em algum
princípio ético ou jurídico que sirva também aos humanos. O princípio da redução de danos é
suscetível, portanto, para fazer as vezes. A construção de uma hierarquia negativa (de danos)
ou positiva (de valores) é de grande valia nessas situações.
A grande complexidade está na construção de critérios abstratos e prévios para a tomada
de decisão, afastando-se das peculiaridades do caso concreto. No choque entre bens materiais

472
HILGENDORF, Direito e máquinas autônomas. Um esboço do problema, p. 73–74.
473
COCA VILA, Coches autopilotados en situaciones de necessidad. Una aproximación desde la teoria de la
justificación penal, p. 185.
160

não se identifica dificuldade, sendo o de maior valor aquele a merecer maior proteção.
Tratando-se de interesses materiais e pessoais, certamente o pessoal deve prevalecer, ainda que
o dano ao bem material seja de significativa monta. Acaso concorram entre si danos pessoais,
de lado um de menor gravidade (uma lesão, por exemplo) e de outro a perda de uma vida, já se
visualiza alguma controvérsia, o que dizer quando são valores iguais e inestimáveis e, portanto,
imponderáveis quantitativa ou qualitativamente.
Logo, a problemática se torna embaraçada na hipótese de se colocar vida(s) contra
vida(s). Qual a projeção para decisão a ser inserida no algoritmo em caso de conflito da vida de
uma pessoa contra a vida de outras dez vidas? Eric Hilgendorf474 afirma que tradicionalmente
a filosofia preconiza que uma vida vale tanto quanto duas, dezenas ou centenas. Até porque
ninguém tem o dever de sacrificar em prol dos demais. Diante desse desmesurado intricamento,
questiona-se sobre a factibilidade de programar o algoritmo de acidente para essa conjuntura.
Como observado anteriormente, utilitaristas não encontrariam tantas dificuldades na
adoção do algoritmo, pois na visão consequencialista que desfrutam, uma vida não valeria tanto
quanto muitas vidas. Entretanto, para os kantianos, para os quais o homem possui dignidade e
não preço, o algoritmo sofreria rejeição, já que inadmissível um juízo de ponderação de vidas.
À vista do panorama concernente ao algoritmo de acidente, ressurge um dos maiores dilemas
da filosofia prática, desta feita sobre ponto nevrálgico da direção automática.
Dentro dos vários cenários apresentáveis à programação, Luís Greco475 sugere critérios,
nos quais ele considera fortemente a alternativa de solução pautada por um processo randômico,
a saber:

No conflito entre deveres de salvamento de valores distintos, deve-se dar preferência


àquele mais importante. Uma vez que, como dito, estamos apenas diante de uma
colisão entre deveres de salvamento, é admissível quantificar e prescrever à máquina
um padrão de escolha que a leve a ter uma postura de salvar o maior número de vidas
possível. É verdade que uma tal quantificação não parece compulsória, mas, à falta de
uma alternativa melhor, ela parece preferível. De qualquer forma, a consideração, pela
máquina de fatores biográficos individuais, como idade ou a saúde dos implicados
numa iminente colisão, deve ser vista como incompatível com a igualdade jurídica de
toda vida humana – se esses fatores são ou não relevantes para a avaliação da
magnitude dos riscos envolvidos é algo que deixo, aqui, sem resposta.
Já em um conflito entre deveres de salvamento de valores idênticos, um humano teria
direito à livre escolha de qual seria priorizado. Transposta essa lógica às máquinas,
isso significa que a escolha a ser feita deve ser pautada por um operador randômico.

474
HILGENDORF, Direito e máquinas autônomas. Um esboço do problema, p. 76.
475
GRECO, Veículos autônomos e situações de colisão, p. 199.
161

Por conseguinte, a partir de uma modelagem aleatória inserida no algoritmo, a


simulação e a análise pelo sistema de diferentes cenários e resultados possíveis, levando em
consideração fatores como as ações dos envolvidos, condições climáticas, tráfego, entre outros,
denotaria alguma proximidade ao que viveria um humano nas mesma condições, obviamente
com velocidade e acurácia muito superior na apuração de tantos dados.

3.6 Constelação fática de casos concretos para solução de conflitos

Nesse capítulo, o objeto é apresentar uma constelação de casos emblemáticos que


melhor condensam os elementos necessários para fins do teste de aferição das soluções
propostas, fazendo-se, portanto, as variadas combinações com as alternativas trazidas nos
capítulos anteriores. Para facilitar a compreensão, serão utilizados os dois casos já apresentados
nesse trabalho476, quais sejam, o caso hipotético clássico (subitem 2.6.1) e o caso histórico de
Aschaffenburg (subitem 2.6.2). Para tanto, considerar-se-á, à exceção de alguma ressalva, que
o veículo opera exatamente como programado, é dizer, sem falhas técnicas, para se fazer
possível investigar a solução proposta.
Confira-se, inicialmente, sob a vertente da teoria da evitabilidade. Importando seu
conteúdo para o caso dos veículos autônomos, é defensável que se possa invocá-la em favor do
fornecedor, ou até mesmo do condutor, desde que trabalhada a presunção de que o risco seria
verificável em condições normais, ou seja, em situação dilemática com o humano na condução
do veículo. Na aplicação desta teoria ao caso descrito, deve-se examinar se ações diferentes por
parte do motorista do carro ou outras pessoas envolvidas poderiam ter evitado o resultado
negativo, seja esse resultado a morte de pedestres ou do passageiro.
Assim, na primeira hipótese (a) - em que o carro segue o curso e atropela muitas pessoas
ou muda de direção e mata um transeunte -, esse terceiro transeunte poderia ser atingido,
independentemente se a decisão partiu da mente humana ou de um agente artificialmente
inteligente. Logo, o pedestre que inicialmente não estava sob circunstância de risco, mas por
estar presente como membro do trânsito, inevitavelmente seria atingido, independentemente se
diante de um veículo inteligente ou uma pessoa ao volante no modo tradicional.
Do mesmo modo, a situação hipotética (b) - o carro segue o curso e mata um pedestre
ou muda de direção e mata o seu passageiro ao se chocar contra o muro -, denota uma conjuntura
em que se fosse a figura humana (objetivamente considerada) quem estivesse no controle do

476
Os referidos casos foram apresentados especificamente nos subitens 2.6.1 e 2.6.2 do capítulo 2.
162

veículo, em seu reflexo primitivo ela tenderia a jogar a direção no sentido contrário ao muro,
por puro extinto de sobrevivência, no que alvejaria determinada pessoa, ou poderia, por falta
de reflexo e habilidade, manter-se inerte sem tempo hábil para evitar seu choque com o muro,
provocando sua própria morte.
Na hipótese (c) – na qual o carro pode permanecer no curso e matar muitos pedestres ou
mudar de direção e matar o seu passageiro -, fosse um condutor (homem médio) em um carro
de modelo tradicional também teria a iniciativa (ou ao menos a tentativa) de, em nome de sua
autopreservação, conduzi-lo rumo ao lugar onde aquela grande quantidade de pessoas se
encontravam. Nessa avaliação, o resultado negativo não poderia ter sido evitado se a ação se
originasse do homem médio.
Por último, em se tratando do caso concreto ocorrido na pequena cidade de
Aschaffenburg, aquele idoso que sofria um infarto, ao girar o volante para que o carro fosse
freado por obstáculos que surgiriam, poderia sim ter tido sucesso na sua conduta. Mas poderia
essa colisão ter sido fatal para ele ou outro pedestre que por ali transitava. Contudo, a manobra
do autônomo, no sentido de mantê-lo na faixa de rolagem, acarretando o falecimento de duas
pessoas, não pareceu ter sido o comportamento “mais perito” que se esperava. Acabou por
matar mais pessoas do que teria ocorrido naturalmente, além de ter gerado um acidente que
talvez não tivesse o mesmo fim, pois o movimento natural do idoso provavelmente o levaria
tão somente ao acostamento ou pararia no barranco próximo, sem que houvesse a morte de
alguém.
Portanto, no caso hipotético, verifica-se que a evitabilidade se mostra razoável para a
defesa do uso do autônomo. Afinal, pela evitabilidade, a punição restaria excluída diante da
constatação de que a conduta humana tradicional não melhoraria a situação do bem jurídico477.
Já no caso concreto histórico, o autônomo não agiu bem, contudo o resultado poderia ter sido
evitado por intermédio de ajustes na programação.
A análise dos casos sob o prisma da normatividade técnico-jurídica demonstra que na
hipótese de sua existência, lançada tanto ao caso hipotético quanto ao caso histórico, poderia
fazer a teoria da imputação performar de modo reduzido no domínio da filosofia, pois que
esbarraria em questões metafísicas. Noutro giro, se analisada sob o aspecto puramente jurídico,
essa regulação se faria relevante à teoria da imputação objetiva, conferindo-lhe maior
efetividade, porquanto sua vigência entregaria previsão objetiva significativa à permissividade

477
GRECO, Um panorama da teoria da imputação objetiva.
163

ou à proibição do risco relevante. À guisa de exemplo, se o autônomo avança o semáforo


vermelho, ou se utiliza de vias nas quais é proibido o seu trânsito, ou ainda, transita em
velocidade superior à permitida ao programa, em todas essas amostras o risco existente estaria
sendo criado ou incrementado.
Especificamente no caso Aschaffenburg, imagine-se a vigência de norma de
programação no sentido da obrigatoriedade de o veículo, nesse tipo de situação, retornar à faixa
de rolagem, e assim que se encontrasse em momento e lugar seguro deveria efetivar sua
adequada paragem. Logo, pelo modo como se deram os fatos, o autônomo teria realizado um
risco proibido acaso a norma estivesse vigente. Dessa forma, o regramento se manifesta como
critério de alto rendimento para fins de solução de caso, acima de tudo no reforço à teoria da
imputação. É dizer, se a normativa se faz presente, e ela é respeitada na inserção no algoritmo,
não há que se falar em imputação, porque o risco se adequaria ao âmbito permissivo. Caso
contrário, em havendo a norma e o programa não a observa, a imputação do resultado se faria
possível.
Em terceiro, ante a proposta de um novo tipo penal serviria como estímulo à
configuração mais segura de um software, também como manifestação pertinente à existência
do risco permitido, notadamente pelo alcance do tipo incriminador abrangendo o resultado
produzido em desconformidade com a norma. No caso Aschaffenburg, eventual figura típica
dotada de preceito genérico (ainda que dependente de complementação normativa) poderia
restar caracterizada, seja por ter sido comprovada a vulneração do programa a determinado
comando (oriundo de norma de ordem técnica ou jurídica) de frenagem em local seguro, seja
em razão de elemento subjetivo (dolo ou culpa) presente no momento do acidente, em especial
a culpa na má avaliação da situação posta. Em contrapartida, o condutor idoso que sofria o
infarto poderia se valer de eventual justificante ou exculpante.
Por fim, a verificação sob o aspecto randômico. No caso hipotético clássico, em
qualquer uma das situações – (a), (b) ou (c) -, o carro manteria seu curso ou mudaria de direção,
matando um pedestre, muitos pedestres ou o próprio passageiro, tudo ocorrendo por intermédio
de uma decisão tomada de modo fortuito. Essa modelagem se aproxima, de alguma maneira,
da heurística humana, ou seja, sem muito tempo para avaliação de todo o cenário, a decisão
seria tomada sem muita racionalidade, em razão do exíguo tempo somada ao excesso de
informações e variáveis que lhe são apresentadas. Ocorre que, para o sistema não seria tão
dificultosa a deliberação com base nas variáveis relevantes, como a velocidade do carro, as
condições climáticas, o tráfego, as reações do motorista e de outras pessoas envolvidas, entre
164

outros fatores. Contudo, um arranjo aleatório no algoritmo permitiria essa aproximação entre o
robô e a mente humana, desincumbindo-se de ponderar valores imponderáveis.
Todavia, no caso clássico de Aschaffenburg, o modelo randômico não parece tão
adequado, pois com o desfalecimento do condutor, não é dado ao agente autônomo optar por
retornar à faixa de rolagem para, mais a frente, chocar-se com pedestres. O modo randômico se
revelaria inadequado se fosse possível esse tipo de seleção. A escolha poderia fundar-se entre
cessar seu movimento de imediato, ou então seguir o caminho e estacionar assim que possível
e de modo seguro478.
Cabe, por fim, trazer a sugestão de algumas regras de Thomas Weigend, amparando a
plausibilidade da programação. Desta forma, em primeiro lugar, existindo apenas a opção de
colidir com um pequeno ou grande número de pessoas, deve-se optar pela colisão com o menor
número de pessoas. Ressalta-se que essa regra vale também quando os passageiros do veículo
venham a ser afetados. Em segundo lugar, existindo apenas a opção de colidir com diversos
grupos de pessoas com o mesmo número de pessoas, então deve o acaso decidir sobre o caminho
do veículo. Aqui o autor revela sua simpatia pelo processo randômico. Caso um dos grupos
afetados seja o dos passageiros do veículo, poderia se optar a rota que não os mataria479.
Perceba-se que se utilizar da álea é uma opção, no que poderia aproximar o programa assim
elaborado com a mente humana, da qual não se tem jamais certeza do que faria em uma
circunstância dilemática de conflito de vidas.
Rememore-se, oportunamente, mais uma vez as regras de preferência de Tatjana Hörnle
e Wolfgang Wohlers (tratadas no capítulo 3.5.1), porque relevante contribuição que poderia
perfeitamente se encaixar nas propostas de soluções acima apresentadas e, consequentemente,
satisfatoriamente combinadas com a constelação fática ora examinada.

3.7 Resultado

Extraídos os principais preceitos tangentes à teoria da imputação objetiva, cumpre


verificar, a tentativa de subsunção das situações dilemáticas com carros inteligentes à teoria da
imputação objetiva, especialmente em relação aos desdobramentos apontados como ideias de
solução, mais precisamente quanto às figuras do fabricante e do operador do veículo.

478
Ressalta-se que, como anotado acima (p. 40), a partir do nível quatro (High Driving Automation), em situações
de emergência, o veículo já é capaz de assumir “riscos mínimos”, a exemplo da parada automática do carro, ou
então efetuar complexas manobras, assim como retirar o carro de uma zona de perigo.
479
ENGLÄNDER et al, p. 121–122.
165

No que diz respeito à configuração de uma regulação, pelo que se esboçou com os casos
apresentados no item anterior, verificou-se que um arcabouço regulatório, preenchido
sobretudo por uma carga axiológica preocupada com questões jurídicas e morais, resulta na
previsibilidade objetiva que se espera para fins de caracterização do que é permitido ou proibido
no terreno do risco relevante.
Evidentemente, se a utilização dos veículos governados pela inteligência artificial
extrapola as balizas para eles fixadas, vulnerando as normas de regência, o risco proibido se
mostrará presente. Ou ainda, se o regramento dos sistemas inteligentes está vigente e o seu
operador age de modo legítimo em consonância com as normas vigentes, seu comportamento
estará acobertado normativamente. Por agir dentro do risco permitido, em uma eventual colisão,
não lhe será imputado o resultado, isso porque ações perigosas permitidas pela legislação,
contanto que observados os preceitos de segurança estabelecidos, não podem dar ensejo à
imputação objetiva480.
A criação de um novo tipo penal surge como meio eficiente de desestímulo ao
comportamento ilícito no âmbito da criação e utilização do veículo autônomo, na medida que a
definição de um risco relevante está inserida na ordem de criação de uma figura típica penal,
portanto, instrumento de expressão para a caracterização de produtos socialmente adequados
ou inadequados, sobretudo em razão de seus consectários sociais.
Por outro ângulo, se a essência da teoria da evitabilidade é a impropriedade na
imputação do resultado quando a lesão se mostra inevitável mediante conduta alternativa
conforme o direito, o afastamento da responsabilidade surge inevitável. Logo, se a quadra fática
restaria inalterada diante da constatação de que a conduta humana tradicional não melhoraria a
situação do bem jurídico, não há que se falar em imputação, acima de tudo por ausência de nexo
normativo.
Finalmente, a modelagem randômica pode ser encarada como um critério de solução
sobretudo para aquelas situações em que não se consegue normatizar sem grandes dificuldades,
seja por questões filosóficas, éticas ou jurídicas; quando a criação de um tipo penal não se faz
exequível; ou ainda, nas situações em que a teoria da evitabilidade não consegue atingir uma
perfeita subsunção à situação dilemática. Uma vez admitido o processo randômico, criar-se-ia
um ciclo onde o risco poderia ser encaixado, desta feita, como risco permitido. Nesse último
caso, adverte-se que, ainda que as propriedades da lógica probabilística não possam ser

480
ROXIN, Estudos de direito penal, p. 110.
166

normatizadas por razões óbvias de sua natureza, a admissão desse tipo de processo, sim, poderia
e deveria ser regulada.
Diante dessa verificação, o resultado geral alcançado é que, malgrado as limitações da
teoria da imputação objetiva para abranger todos os conflitos, ela surge como instrumento que
apresenta suficiente rendimento para a solução dos conflitos de situações de vida contra vida.
E diante de suas limitações, as soluções alternativas que se apresentam podem ser essenciais na
tarefa de superá-las, o que pôde ser verificado diante da subsunção da constelação dos casos
propostos neste trabalho àquilo que preconiza o dogma da imputação objetiva.
CONCLUSÃO

A sociedade contemporânea se encontra plasmada por predicados como medo,


desassossegos, hiperconsumo, globalização e especialmente riscos. Trata-se de atributos que
tendem a se projetarem para um ponto convergente: o dano, evento cada vez mais recorrente
no cotidiano social.
É indiscutível que o mundo, e nisso inclui o domínio jurídico, está submerso em um
oceano de infinitas possibilidades de aplicação da tecnologia, de modo que a resistência
irracional da revolução tecnológica, por se tratar de trajetória irrefreável e sem volta, já não é
mais aceitável. Nessa conjectura, o mais apropriado é a preparação dos terrenos que semearão
os efeitos destes cenários, sob pena de perda do controle dos domínios e sujeitando-se tão
somente às regras do mercado e àqueles que estiverem no poder das informações.
Os tempos não são apenas de simples mudanças, como sempre fora na estória da
humanidade. O elemento mudança se mantém como constante na equação social, porém ditada
agora por progressão geométrica, face à velocidade com que as inovações têm se colocado.
Independentemente de como se pretenda definir a sociedade contemporânea, certo é que
experimenta transformações sociais de incomum velocidade e profundidade. O tempo é
marcado pelo recrudescimento ininterrupto da complexidade das relações sociais, pelo
surgimento de novos espaços de conflitualidade e por uma intensa crise de referenciais.
A ordem jurídica se vê na condição de fazer com que a resistência ceda lugar à
resiliência, procurando se adaptar às inevitáveis transformações, na tentativa de adequá-las às
garantias já conquistadas. Não há espaço para indevidos engessamentos. Na mesma senda, o
direito penal é levado a suportar tal imposição, o qual deve se reservar contra sua descabida
expansão, que se apresenta muitas vezes como fonte (de expectativa) de solução de conflitos.
Se há novos campos de conflituosidade, onde se incluem os veículos inteligentes, o sistema
jurídico-penal é convocado reiteradamente para executar a tarefa de pacificação social,
sobretudo quando o corpo social se interessa por inovações arriscadas.
Por outro lado, as categorias dogmáticas tradicionais são desafiadas a todo tempo, em
especial quando diante da célere transformação tecnológico-social. Acompanhá-las, dentro da
moldura constitucional e neo-social, transfigura-se em um mister, seja criando caminhos
complementares, ou então, por admitir sua caducidade, curvando-se perante novos institutos.
No caso dos veículos inteligentes, para além do desafio natural que surgiria com a nova
tecnologia, há também o problema ético que se manifesta com as situações dilemáticas de vida
contra vida. Nesse contexto, enfrenta-se não apenas problemas de caráter dogmático, mas
168

também questões de ordem filosófica, em especial pela imponderabilidade da vida, o que


dificulta alcançar respostas simplificadas. Alcançar a verdade em campos tão enigmáticos,
trajados de inúmeras questões que transcendem o diálogo jurídico, espelha tarefa árdua.
Demais disso, a relevância do debate também deságua na reflexão sobre o real sentido
de se atribuir responsabilidade penal dentro do processo de criação e utilização dos veículos
autônomos, sentido esse que deve se pautar pela política criminal adotada pelo Estado, forte no
objetivo de se resguardar os direitos e garantias fundamentais como instrumentos de proteção
dos indivíduos e tutelar bens jurídicos relevantes.
Por outro lado, não parece razoável simplesmente se esquivar das situações dilemáticas
tão somente com o freio imoderado contra as inovações sociais. Em verdade, a boa disciplina
se faz necessária, com regras e princípios bem definidos capazes de regularem e se adequarem
do modo mais útil às aspirações da sociedade. O perfeccionismo ético não é suficiente.
Esta pesquisa tentou se debruçar sobre o estudo da possibilidade de se utilizar a teoria
da imputação objetiva como ferramenta para fins de aceitação dos carros autônomos,
especialmente apresentando soluções aos caso das situações conflituosas de vida contra vida.
O exame se justificou sobretudo por se revelar aconselhável a aplicação da teoria no contexto
da sociedade de risco, porquanto a previsão de permissão ou proibição de um risco surge como
pressuposto para atribuição de responsabilidade penal, para além da realização do perigo no
caso concreto e o enquadramento da situação no âmbito de proteção da norma jurídica.
O resultado conclusivo alcançado com a pesquisa foi no sentido de que a teoria da
imputação, tal como proposta pelo funcionalista-teleológico Claus Roxin, pode ser relevante
para determinar a responsabilidade no contexto de acidentes envolvendo carros autônomos. Se
existe uma predisposição da sociedade para suportar os riscos e suas consequências, então há
que se averiguar a razoabilidade na imputação do resultado ao agente. No entanto, a questão da
responsabilidade ainda não está completamente clara. Um desafio ainda sem solução é se e
como o Estado deve usar a tecnologia de condução automatizada para impor comportamentos
legais no tráfego rodoviário.
Verificou-se também que, ainda que a teoria da imputação apresente suas limitações,
ela pode servir como instrumento para solução dos conflitos emblemáticos de inevitáveis
colisões rodoviárias, apresentando rendimento satisfatório perante as conformações sociais
atuais. Na tentativa de contornar essas suas limitações, algumas propostas foram detalhadas no
decorrer do trabalho e, a partir de suas premissas confrontadas com a constelação de casos
oferecida, o rendimento parcial apontado pôde ser confirmado, demonstrando substancial
169

aptidão para solução dos conflitos em sede de situações dilemáticas. As alternativas propostas
se condensaram na regulamentação; na possível criação de um novo tipo penal; na contribuição
da teoria da evitabilidade; e na ideia de uma modelagem randômica.
Ao considerar a regulamentação, diante dos casos práticos apresentados, restou
constatado que um quadro regulatório satisfatório, abrangendo os domínios técnico e jurídico,
resulta em previsibilidade objetiva que se espera para fins de primeiro delimitar o risco
permitido e proibido, para então, realizar a adequação à teoria da imputação objetiva. O
silogismo se fez claro: se o uso de veículos controlados por IA ultrapassar os limites
estabelecidos, violando as regras postas, o risco proibido estará caracterizado; porém, se a
regulamentação dos sistemas inteligentes estiver em vigor e seu operador agir conforme as
normas, sua conduta estará acobertada pelas leis. Ao agir dentro do risco permitido, em caso de
colisão, o resultado não será atribuído a ele, porque ações perigosas permitidas pela legislação.
Em síntese, em havendo normativa adequada, e sendo ela respeitada, não se pode falar
em imputação, pois o risco se adequa ao âmbito permissivo. A observância de normas, tanto
pelo condutor quanto pelo desenvolvedor do veículo inteligente, tem o condão de retirar a
imputação do resultado na hipótese da ocorrência de evento danoso, pois a ação se dá dentro
dos limites do risco permitido pela ordem jurídica, frise-se, na mesma linha do que se verifica
atualmente na condução tradicional.
Assim, em face do atual nível de desenvolvimento, a regulamentação afigura-se
imprescindível para a adequada convivência com a tecnologia implementada nos veículos
autônomos, sobretudo para fins de preenchimento dos requisitos da teoria da imputação
objetiva. Nesse diapasão é que a proposta da pesquisa se voltou à comprovação de que a ideia
da criação de um risco proibido ou permitido é critério de elevada aptidão para imputar a
responsabilidade ao causador direto do dano ou a outro responsável, independentemente de
haver nexo de causalidade ou presunção de causalidade, nos moldes clássicos utilizados. Assim,
esse é o primeiro ponto no qual o trabalho se voltou para a possibilidade de se recorrer à teoria
da imputação objetiva, apurando sua adequação para a solução do problema objeto do estudo.
A introdução de uma nova figura típica revelou-se, igualmente, forma efetiva de
desencorajar comportamentos ilegais relacionados ao desenvolvimento e uso de veículos
autônomos, já que a definição de um risco relevante é incorporada na definição de uma figura
típica de crime, tornando-se assim um meio de informar expressamente a distinção entre
comportamentos socialmente aceitáveis e inaceitáveis, especialmente em relação a seus
resultados sociais.
170

Sob a vertente da teoria da evitabilidade - essência da qual se traduz na inadequação da


imputação de responsabilidade quando a lesão seria inevitável mesmo com uma ação alternativa
em conformidade com a lei – conclui-se que, se a situação factual permanecesse inalterada uma
vez constatada que a ação humana convencional não melhoraria a situação do bem jurídico, não
haveria razão para a atribuição de imputação, sobretudo devido à falta de vínculo normativo.
Em última análise, uma lógica randômica inserida no algoritmo de acidente serviu como
reserva útil na eventualidade de falha das alternativas precedentes. Certificou-se que a
modelagem aleatória pode ser vista como uma forma de resolução principalmente para
situações em que não se faz possível regulamentar, seja por questões filosóficas ou jurídicas, o
que claramente envolve os carros autônomos, os quais resgatam dilemas históricos de filosofia,
como o clássico caso do controlador de trilhos ou o caso do bonde (“trolley-case”). Isso porque
permitir ao sistema escolhas fortuitas denotaria um algoritmo desonerado do dever de ponderar
valores imponderáveis, assim como a vida e a integridade de física dos indivíduos o são.
O modelo aleatório também serve quando a criação de um tipo penal não se mostra
viável. Ou ainda, em situações em que a teoria da evitabilidade não logra adequada subsunção
à situação problemática. Semelhante às demais alternativas, em sendo o processo aleatório
admitido, logo o risco de sua utilização poderia ser inserido como risco permitido.
Portanto, à vista das premissas empreendidas na pesquisa, o resultado se orienta no
sentido de que, sob a perspectiva da teoria da imputação objetiva, comprova-se parcialmente a
hipótese anunciada. Parcialmente face à suas limitações, no que revela alguma reprovação em
testes de falseabilidade da teoria quando aplicada no âmbito dos agentes autônomos. Entretanto,
alternativas são capazes de aperfeiçoar o seu rendimento.
Outrossim, o percurso levado a efeito nesta pesquisa permitiu arrematar que a
responsabilização pelo evento danoso inflete de forma efetiva na conjugação coerente entre a
aceitação dos riscos oriundos da tecnologia pela sociedade e a imputação justa de um resultado
ao agente. Esse caminho toma como luz a normativa constitucional e a necessidade de
legislação complementar, tendo por objeto situações e relações jurídicas concernentes aos
sistemas autônomos.
Por todo o estudo que se oportunizou durante a pesquisa, não se duvida da necessária
intervenção legislativa para a regulamentação do algoritmo inserido em veículos autônomos,
sem declinar de políticas públicas que possam fomentar estrutura para a inserção desses
veículos no mercado, além de demais mecanismos que acompanhem a boa aplicação da
inteligência artificial, instituindo standards canalizados à sua criação, desenvolvimento e
171

manutenção, com o objetivo de preservação de direitos fundamentais conquistados. Além disso,


diante da promessa de aumento da segurança no trânsito, há que se reconhecer a necessidade
de alguma espécie de intervenção de política pública para evitar que o sistema criminal faça
surtir efeito contrário no sentido de abnegar tais benesses, tão desejadas socialmente481.
Há sempre que se prezar pela proposta de tecnologias que sejam traçadas não só para o
avanço da humanidade, mas também preparadas para respeitarem e densificarem os direitos
fundamentais e os pilares hermenêuticos de uma sociedade mais justa e igualitária.
O atual estado da arte e a dogmática hodierna parecem consentirem somente com duas
possibilidades de solução. A uma, ousando-se chamá-la de insensata, no que seria o desestímulo
à inovação tecnológica, trajada de verdadeiro desencorajamento da causa - que se confunde
com a própria evolução humana -, tão somente em razão da simplificação da solução de suas
consequências. A segunda, arquitetar uma estrutura de responsabilização plasmada na
percepção de um produto socialmente aceito, assim como os riscos que dele advêm.
Em verdade, pretender esgotar as questões éticas envolvidas nessa temática parece
utópico. Veja-se que desde a década de 50, quando Hans Welzel lançou a hipótese do
controlador de trilhos, a discussão não foi encerrada, permanecendo viva. Se a discussão quanto
ao controlador de trilhos não alcançou um desfecho, quiçá a questão posta em que o ser humano
nem no controle do carro está. De todo modo, quanto aos veículos inteligentes, o debate prévio
é sobremaneira válido, até porque mesmo sendo uma tecnologia ainda incipiente, certamente
alcançará grandes proporções.
Por fim, diante das premissas aqui estudadas, sobressai também a título de conclusão de
que ainda que se desenvolva a máquina no maior nível de perfeição alcançável, o seu
desenvolvedor sempre terá o dever de apresentar contas à sociedade. Noutro giro, o corpo social
assume ônus ao permitir tecnologia em seu meio que dissipe riscos substanciais. Em se
concebendo os riscos, a teoria da imputação objetiva ganha espaço de aplicabilidade. Todavia,
sublinha-se que essa questão ainda traz muitas incertezas, mais questionamentos do que
respostas.
A evolução é inevitável, não significando necessariamente um cenário pessimista.
Ainda que disfunções potenciais e novos riscos devam ser antecipadamente evitados, sendo
essa, inclusive, uma das funções da Política Criminal. De outro lado, atividades compensatórias,
por reduzirem riscos, podem ser levadas a efeito, sobretudo se promovedoras de ganhos sociais.

481
MARCHANT; BAZZI, Autonomous vehicles and liability: what will juries do?, p. 67–68.
172

Para além disso, o núcleo de liberdades intangíveis deve ser preservado, no que proibir tudo o
que oferece riscos pode, na via contrária, significar malversação da própria dignidade da pessoa
humana, bem como de sua liberdade.
REFERÊNCIAS

ALEMANHA. Straßenverkehrsgesetz. Disponível em: <http://www.gesetze-im-


internet.de/stvg/BJNR004370909.html>.
ALLEN QC, Robin. Artificial intelligence, machine learning, algorithms and discrimination
law: the new frontier. AI Law, Disponível em: <https://482pe539799u3ynseg2hl1r3-
wpengine.netdna-ssl.com/wp-content/uploads/2020/02/Discrimination-Law-in-2020.FINAL_-
1.pdf>. Acesso em: 23 dez. 2020.
ALVES, Natália Gontijo. Culpabilidade penal no âmbito da inteligência artificial: a
responsabilização da pessoa jurídica no uso dos veículos autônomos. VirtuaJus, v. 6, n. 11,
p. 193–205, 2021. Disponível em:
<http://periodicos.pucminas.br/index.php/virtuajus/article/view/28069>. Acesso em:
17 jun. 2022.
AMARAL, Francisco. Direito civil: introdução. 7. ed. Rio de Janeiro: Renovar, 2008.
ARNDT, A. B. Al-Khwarizmi. The Mathematics Teacher. v. 76, p. 668–670, 1983.
ASARO, Peter M. The Liability Problem for Autonomous Artificial Agents. Disponível em:
<https://peterasaro.org/writing/Asaro,%20Ethics%20Auto%20Agents,%20AAAI.pdf>.
Acesso em: 17 jun. 2022.
BACIGALUPO, Enrique. Derecho penal: parte general. 2. ed. totalmente renovada y
amliada, 3. reimpresión. Buenos Aires: Hammurabi, 2012.
BACIGALUPO, Enrique. Principios de derecho penal: parte general. 5. ed., totalmente
actual. Madrid: Ed. Akal, 1998. (Colección iure).
BACKHAUS, Jürgen Georg (Org.). Handbook of the History of Economic Thought:
Insights on the Founders of Modern Economics. New York, NY: Springer New York, 2012.
Disponível em: <https://link.springer.com/10.1007/978-1-4419-8336-7>. Acesso em:
18 abr. 2023.
BATHAEE, Yavar. The artificial intelligence black box and the failure of intent and causation.
Harvard Journal of Law & Technology, v. 31, n. 2, p. 890–938, 2018.
BELAY, Nick. Robot ethics and self-driving cars: how ethical determinations in software will
require a new legal framework. Journal of the Legal Profession, v. 40, n. 1, p. 119–130, 2015.
BERLINSKI, David. O advento do algoritmo: a idéia que governa o mundo. Trad. Leila
Ferreira de Souza MENDES. São Paulo: Globo, 2002.
BERWICK, Robert C.; CHOMSKY, Noam. Why only us: language and evolution.
Cambridge, Massachusetts: MIT Press, 2016. Disponível em:
<http://search.ebscohost.com/login.aspx?direct=true&db=mzh&AN=2016931613&lang=pt-
br&site=ehost-live>. Acesso em: 1 jul. 2020.
BETTIOL, Giuseppe. Direito Penal. Trad. Paulo José da COSTA JÚNIOR; Alberto Silva
FRANCO. São Paulo: Revista dos Tribunais, 1996.
BIMBRAW, Keshav. Autonomous cars: Past, present and future a review of the developments
in the last century, the present scenario and the expected future of autonomous vehicle
technology. ICINCO 2015: proceedings of the 12th International Conference on
Informatics in Control, Automation and Robotics, p. 191–198, 2015. Disponível em:
<https://ieeexplore.ieee.org/document/7350466/references#references>. Acesso em:
21 mar. 2022.
BITENCOURT, Cezar Roberto. Princípios garantistas e a criminalidade do colarinho branco.
Revista Brasileira de Ciências Criminais, 1995.
BITENCOURT, Cezar Roberto. Tratado de direito penal: Parte geral (Arts. 1o a 120). 24.
[livro eletrônico]. São Paulo: Saraiva, 2018.
174

BONNEFON, Jean-François; SHARIFF, Azim; RAHWAN, Iyad. The social dilemma of


autonomous vehicles. Science, v. 352, n. 6293, p. 1573–1576, 2016. Disponível em:
<https://www.science.org/doi/10.1126/science.aaf2654>. Acesso em: 5 ago. 2022.
BRASIL. Constituição da República Federativa do Brasil de 1988. Disponível em:
<http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm>. Acesso em:
12 mar. 2022.
BRASIL. Lei 13.709/18, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais
(LGPD). Brasília, DF, Diário Oficial da União de 15 ago. 2018. Disponível em:
<http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm>. Acesso em:
21 out. 2021.
BRASIL, Câmara dos Deputados. Projeto de Lei do Senado n° 236, de 2012. Anteprojeto de
Reforma do Código Penal Brasileiro. Disponível em: <https://legis.senado.leg.br/sdleg-
getter/documento?dm=3515262&ts=1645029382318&disposition=inline>. Acesso em:
7 nov. 2022.
BRASIL, Câmara dos Deputados. Projeto de Lei no 21/2020. Estabelece fundamentos,
princípios e diretrizes para o desenvolvimento e a aplicação da inteligência artificial no Brasil,
e dá outras providências. Disponível em: <https://www.camara.leg.br/propostas-
legislativas/2236340>. Acesso em: 9 ago. 2022.
BRUNO, Aníbal. Direito penal - parte geral. Rio de Janeiro: Forense, 1978.
BURRELL, Jenna. How the machine ‘thinks’: Understanding opacity in machine learning
algorithms. Big Data & Society, v. 3, n. 1, 2016. Disponível em:
<http://journals.sagepub.com/doi/10.1177/2053951715622512>. Acesso em: 30 ago. 2022.
CAETANO, Matheus Almeida. Os algoritmos de acidente para carros autônomos e o direito
penal: análises e perspectivas. Revista de Estudos Criminais, v. 19, n. 77, p. 149–192, 2020.
CÂMARA DOS DEPUTADOS. Projeto cria marco legal para uso de inteligência artificial no
Brasil. Notícias, 2020. Disponível em: <https://www.camara.leg.br/noticias/641927-projeto-
cria-marco-legal-para-uso-de-inteligencia-artificial-no-brasil/>. Acesso em: 9 abr. 2022.
CAMARGO, Antonio Luís Chaves. Imputação objetiva e direito penal brasileiro. São Paulo:
Cultural Paulista, 2002.
CAMUS, Albert; O’BRIEN, Justin. The myth of Sisyphus and other essays. 1st Vintage
international ed. New York: Vintage Books, 1991.
CANARIS, Claus-Wilhelm. Pensamento sistemático e conceito de sistema na ciência do
direito. Trad. A. Menezes CORDEIRO. 4a ed. Lisboa: Fundação Calouste Gulbenkian, 2008.
CARVALHO, Salo de. A política criminal de drogas no Brasil: estudo criminológico e
dogmático da Lei 11.343/06. 8a edição revista e atualizada. São Paulo: Editora Saraiva, 2016.
CASTILLO GONZÁLEZ, Francisco. Suicidio e instigación y ayuda al suicidio. San José,
C.R.: Editorial Jurídica Continental, 2011.
CHATZIPANAGIOTIS, Michael P.; LELOUDAS, George. Automated Vehicles and Third-
Party Liability: A European Perspective. SSRN Electronic Journal, 2020. Disponível em:
<https://www.ssrn.com/abstract=3519381>. Acesso em: 18 nov. 2022.
CICUREL, Ronald; NICOLELIS, Miguel. O cérebro relativístico: como ele funciona e por
que ele não pode ser simulado por uma máquina de Turing. São Paulo: Kios Press, 2015.
CITRON, Danielle Keats; PASQUALE, Frank A. The scored society: due process for
automated predictions. New York: Social Science Research Network, 2014.
CLAUSSÉN-KARLSSON, Matilda. Artificial Intelligence and the external element of the
crime: an analysis of the liability problem. Örebro Universitet, 2017. Disponível em:
<https://www.diva-portal.org/smash/get/diva2:1115160/FULLTEXT01.pdf>. Acesso em:
3 ago. 2022.
175

CLEMENTS, Lewis M.; KOCKELMAN, Kara M. Economic effects of automated vehicles.


Transportation Research Record, v. 2606, n. 1, p. 106–114, 2017. Disponível em:
<https://journals.sagepub.com/doi/10.3141/2606-14>. Acesso em: 20 fev. 2022.
CNN. Sem motorista: Califórnia concede 1o licença para teste com carros autônomos.
Disponível em: <https://www.cnnbrasil.com.br/economia/sem-motorista-california-concede-
1-licenca-para-teste-com-carros-autonomos/>. Acesso em: 1 jul. 2021.
COCA VILA, Ivó. Coches autopilotados en situaciones de necessidad. Una aproximación desde
la teoria de la justificación penal. In: Veículos autônomos e direito penal. São Paulo: Marcial
Pons, 2019.
COCA VILA, Ivó; SILVA SÁNCHEZ, Jesús-María; ROBLES PLANAS, Ricardo. La colisión
de deberes en derecho penal: concepto y fundamentos de solución. Barcelona: Atelier,
Libros Jurídicos, 2016. (Atelier penal).
COGLIANESE, Cary; LEHR, David. Transparency and algorithmic governance.
Administrative Law Review, v. 71, n. 1, p. 453–470, 2019. Disponível em:
<https://scholarship.law.upenn.edu/faculty_scholarship/2123/>. Acesso em: 19 fev. 2022.
COMISSÃO EUROPEIA. Comunicação da comissão ao parlamento europeu, ao conselho
europeu, ao conselho, ao comité económico e social europeu e ao comité das regiões:
inteligência artificial para a Europa. Disponível em:
<https://ec.europa.eu/transparency/documents-register/detail?ref=COM(2018)237&lang=pt>.
Acesso em: 18 ago. 2022.
COMISSION EUROPEAN. Ethics Guidelines for Trustworthy AI - Orientações Éticas para
uma IA de confiança. Disponível em:
<file:///C:/Users/barat/Downloads/EthicsguidelinesfortrustworthyAI-PTpdf.pdf>. Acesso em:
17 fev. 2021.
COUTINHO, Diogo R. O direito nas políticas públicas. In: MARQUES, Eduardo; FARIA,
Carlos Aurélio Pimenta de (Orgs.). A Política Pública como campo multidisciplinar. São
Paulo: Unesp, 2013, p. 1987–1988. Disponível em:
<http://www.scielo.br/scielo.php?script=sci_arttext&pid=S1413-
81232016000601987&lng=pt&tlng=pt>. Acesso em: 2 set. 2022.
COWGER, Alfred R. Jr. Liability considerations when autonomous vehicles choose the
accident victim. Journal of High Technology Law, v. 19, n. 1, p. 1–60, 2018.
CZARNECKI, Krzysztof. Operational design Domain for automated driving systems.
Taxonomy of basic terms. Disponível em: <https://www.researchgate.net/profile/Krzysztof-
Czarnecki-
2/publication/326543176_Operational_Design_Domain_for_Automated_Driving_Systems_-
_Taxonomy_of_Basic_Terms/links/5b5404d345851507a7bbe6f1/Operational-Design-
Domain-for-Automated-Driving-Systems-Taxonomy-of-Basic-Terms.pdf>. Acesso em:
28 jul. 2022.
DE LA CUESTA AGUADO, Paz Mercedes. Inteligencia artificial y responsabilidad penal.
Revista Penal México, n. 16–17, p. 51–62, 2019. Disponível em:
<https://revistaciencias.inacipe.gob.mx/index.php/01/article/view/336/266>. Acesso em:
9 nov. 2022.
DE LA CUESTA AGUADO, Paz Mercedes. Tipicidad e imputación objetiva. Mendoza:
Ediciones Jurídicas Cuyo, 1998.
DIAS, Jorge de Figueiredo. Direito Penal. Parte Geral: questões fundamentais - a doutrina
geral do crime. 2. ed. Lisboa: Coimbra, 2007.
DIAS, Jorge de Figueiredo. O papel do direito penal na protecção das gerações futuras. Boletim
da Faculdade de Direito da Universidade de Coimbra, n. especial, p. 1123–1138, 2003.
176

DÍAZ, Claudia López. Introducción a la imputación objetiva. 1. ed., 3. reimp. Bogota:


Universidad Externado de Colombia, Centro de Investigaciones de Derecho Penal y Filosofía
del Derecho, 2000. (Coleccion de estudios, 5).
DIVINO, Sthéfano. Responsabilidade penal de Inteligência Artificial: uma análise sob a ótica
do naturalismo biológico de John Searle. Revista Brasileira de Ciências Criminais, v. 171,
n. 28, p. 153–183, 2020. Disponível em:
<https://www.researchgate.net/publication/344549566_Responsabilidade_penal_de_Inteligen
cia_Artificial_uma_analise_sob_a_otica_do_naturalismo_biologico_de_John_Searle>.
Acesso em: 11 ago. 2022.
DOSHI-VELEZ, Finale; KORTZ, Mason; BUDISH, Ryan; et al. Accountability of AI under
the law: the role of explanation. SSRN Electronic Journal, 2017. Disponível em:
<https://www.ssrn.com/abstract=3064761>. Acesso em: 30 ago. 2022.
DURKHEIM, Émile. Ética e sociologia da moral. Trad. Paulo CASTANHEIRA. São Paulo:
Landy, 2003.
DYCK, Arthur J. An alternative to the ethic of euthanasia. In: FEINBERG, Joel; WEST, Henry
(Orgs.). Moral Philosophy. Classic texts and contemporary problems. Encino: Dickenson
Publishing Company, 1977, p. 212–221.
ENGLÄNDER, Armin; HILGENDORF, Eric; COCA VILA, Ivó; et al. In: ESTELLITA,
Heloisa; LEITE, Alaor (Orgs.). Veículos autônomos e direito penal. 1. ed. Madri Barcelona
Buenos Aires São Paulo: Marcial Pons, 2019. (Coleção Direito Penal & Criminologia).
EUROPEAN COMMISSION, Artificial Intelligence for Europe. Communication from the
commission to the european parliament, the european council, the council, the european
economic and social committee and the committee of the regions artificial intelligence for
europe. Disponível em: <https://eur-lex.europa.eu/legal-
content/EN/TXT/?uri=COM:2018:237:FIN>. Acesso em: 15 fev. 2022.
FEDERAL MINISTER OF TRANSPORT AND DIGITAL INFRASTRUCTURE. Ethics
Comission. Automated and connected driving. Disponível em:
<https://www.bmvi.de/SharedDocs/EN/publications/report-ethics-commission-automated-
and-connected-driving.pdf?__blob=publicationFile>. Acesso em: 9 maio 2022.
FERRARI, Isabela; BECKER, Daniel. Direito à explicação e decisões automatizadas. In:
NUNES, Dierle; LUCON, Paulo Henrique dos Santos; WOLKART, Erik Navarro (Orgs.).
Inteligência artificial e direito processual: os impactos da virada tecnológica no direito
processual. Salvador: JusPodivm, 2020, p. 199–225.
FIRJAN; INMETRO; UFLA, 1a Conferência sobre veículos inteligentes. Segurança jurídica e
tecnológica para inserção no Brasil. Relatório de Informações e Recomendações. Disponível
em: <http://library1.nida.ac.th/termpaper6/sd/2554/19755.pdf>. Acesso em: 5 abr. 2022.
FOOT, Philippa. The problem of abortion and the doctrine of the double effect. Oxford
Review, n. 5, 1967. Disponível em: <www2.pitt.edu/~mthompso/readings/foot.pdf>. Acesso
em: 15 fev. 2021.
FRAZÃO, Ana. Discriminação algorítmica: superando estatísticas e cálculos probabilísticos.
Jota, 2021. Disponível em: <https://www.jota.info/opiniao-e-analise/artigos/discriminacao-
algoritmica-superando-estatisticas-e-calculos-probabilisticos-25082021>. Acesso em:
10 nov. 2021.
FRAZÃO, Ana. Fundamentos da proteção dos dados pessoais. Noções introdutórias para a
compreensão da importância da Lei Geral de Proteção de Dados. In: A Lei Geral de Proteção
de Dados Pessoais e suas repercussões no Direito Brasileiro [livro eletrônico]. São Paulo:
Revista dos Tribunais, 2019.
FREITAS, Pedro Miguel; ANDRADE, Francisco; NOVAIS, Paulo. Criminal Liability of
Autonomous Agents: From the Unthinkable to the Plausible. In: CASANOVAS, Pompeu;
PAGALLO, Ugo; PALMIRANI, Monica; et al (Orgs.). AI Approaches to the Complexity of
177

Legal Systems. Berlin, Heidelberg: Springer Berlin Heidelberg, 2014, v. 8929, p. 145–156.
(Lecture Notes in Computer Science). Disponível em: <http://link.springer.com/10.1007/978-
3-662-45960-7_11>. Acesso em: 3 ago. 2022.
GALVÃO, Fernando. Imputação Objetiva. Belo Horizonte: Mandamentos, 2000.
GERDES, J. Christian; THORNTON, Sarah M. Implementable Ethics for autonomous
vehicles. In: MAURER, Markus; GERDES, J. Christian; LENZ, Barbara; et al (Orgs.).
Autonomous driving: technical, legal and social aspects. Berlin: Springer open, 2016, p. 41–
68. Disponível em: <https://link.springer.com/content/pdf/10.1007/978-3-662-48847-8.pdf>.
Acesso em: 9 abr. 2021.
GERT, Bernard; GERT, Joshua. The Definition of Morality. The Stanford Encyclopedia of
Philosophy, n. Fall Edition, 2020. Disponível em:
<https://plato.stanford.edu/archives/fall2020/entries/morality-definition/>. Acesso em:
8 nov. 2022.
GHIRALDELLI JÚNIOR, Paulo. RICHARD RORTY: A filosofia do novo mundo em busca
de mundos novos. Petrópolis: Vozes, 1999.
GLESS, Sabine; SILVERMAN, Emily; WEIGEND, Thomas. If robots cause harm, who is to
blame? Self-driving cars and criminal liability. New Criminal Law Review, v. 19, n. 3, p. 412–
436, 2016. Disponível em: <https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2724592>.
Acesso em: 3 ago. 2022.
GLESS, Sabine; WEIGEND, Thomas. Agentes inteligentes e o direito penal. In: Veículos
autônomos e direito penal. São Paulo: Marcial Pons, 2019, p. 37–64.
GOMES FILHO, Dermeval Farias. Dogmática Penal: fundamento e limite à construção da
jurisprudência penal no Supremo Tribunal Federal. Salvador: JusPodivm, 2019.
GOMES FILHO, Dermeval Farias; SUXBERGER, Antonio Henrique Graciano.
Neoconstitucionalismo e funcionalismo penal teleológico: o ajuste argumentativo na
jurisprudência do Supremo Tribunal Federal. Revista Magister de Direito Penal e Processual
Penal, v. 17, n. 98, p. 74–105, 2020.
GRECO, Luís. Autonome Kraftfahrzeuge und Kollisionslagen. In: KINDHÄUSER, Urs;
BÖSE, Martin; SCHUMANN, Kay H.; et al (Orgs.). Festschrift für Urs Kindhäuser zum 70.
Geburtstag. 1. Auflage. Baden-Baden: Nomos, 2019.
GRECO, Luís. Um panorama da teoria da imputação objetiva. 1a ed. rev. e atual. [livro
eletrônico]. São Paulo: Revista dos Tribunais, 2014.
GRECO, Luís. Um panorama da teoria da imputação objetiva. 4a ed., rev. e atualizada. São
Paulo: Thomson Reuters/Revista dos Tribunais, 2014.
GRECO, Luís. Um panorama da teoria da imputação objetiva. 3a ed., rev. e atualizada. São
Paulo: Thomson Reuters/Revista dos Tribunais, 2013.
GRECO, Luís. Veículos autônomos e situações de colisão. In: Veículos autônomos e direito
penal. São Paulo: Marcial Pons, 2019.
GRIEMAN, Keri. Hard drive crash, an examination of liability for self-driving vehicles.
Journal of Intellectual Property, Information Technology and Electronic Commerce Law,
v. 9, p. 294–309, 2018.
GUEDES, Marcelo Santiago; MACHADO, Henrique Felix de Souza. Veículos autônomos
inteligentes e a responsabilidade civil nos acidentes de trânsito no Brasil: desafios
regulatórios e propostas de solução e regulação. Brasília: ESMPU, 2020. (Série Pesquisas
ESMPU).
HALLEVY, Gabriel. The basic models of criminal liability of AI systems and outer circles.
SSRN Electronic Journal, 2019. Disponível em: <https://www.ssrn.com/abstract=3402527>.
Acesso em: 13 ago. 2022.
HALLEVY, Gabriel. Unmanned Vehicles – Subordination to Criminal Law under the Modern
Concept of Criminal Liability. Journal of Law, Information & Science, v. 21, n. 200, 2012.
178

Disponível em: <https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2696053>. Acesso em:


3 ago. 2022.
HARARI, Yuval Noah. Sapiens. Uma breve história da humanidade. Trad. Janaína
MARCOANTONIO. 51. ed. Porto Alegre: L&PM, 2020.
HASSEMER, Winfried. Die Basis des Wirtschaftsstrafrechts. In: KEMPF, Eberhard;
LÜDERSSEN, Klaus; VOLK, Klaus (Orgs.). Die Handlungsfreiheit des Unternehmers –
Wirtschaftliche Perspektiven, strafrechtliche und ethische Schranken. Berlin, New York:
Walter de Gruyter, 2009, p. 27–43. Disponível em:
<http://www.degruyter.com/view/books/9783899496659/9783899496659/9783899496659.x
ml>. Acesso em: 1 set. 2022.
HILGENDORF, Eric. Digitalização e direito. Trad. Orlandino GLEIZER. São Paulo: Marcial
Pons, 2020.
HILGENDORF, Eric. Direito e máquinas autônomas. Um esboço do problema. In: Veículos
autônomos e direito penal. São Paulo: Marcial Pons, 2019.
HILGENDORF, Eric; FELDLE, Jochen. Digitalization and the law. Baden-Baden: Nomos,
2018.
HÖRNLE, Tatjana; WOHLERS, Wolfgang. “Trolley problem” revisitado: como devem ser
programados os veículos autônomos no dilema vida-contra-vida? In: ESTELLITA, Heloisa;
LEITE, Alaor (Orgs.). Veículos autônomos e direito penal. 1. ed. São Paulo: Marcial Pons,
2019, p. 123–154.
JAKOBS, Günther. A imputação objetiva no direito penal. Trad. André Luís GALLEGARI.
São Paulo: Revista dos Tribunais, 2000.
JANUÁRIO, Túlio Xavier. Veículos autónomos e imputação de responsabilidades criminais
por acidentes. In: RODRIGUES, Anabela Miranda (Org.). A inteligência artificial no direito
penal. Coimbra: Almedina, 2020, p. 95–127. (Obras coletivas).
KAHNEMAN, Daniel. Rápido e devagar. Rio de Janeiro: Objetiva, 2012.
KAJI, Mina; MAILE, Amanda. Distracted driver in fatal 2018 Tesla crash was playing
video game: NTSB. ABC News. Disponível em: <https://abcnews.go.com/Politics/distracted-
driver-fatal-2018-tesla-crash-playing-video/story?id=69207784>. Acesso em: 17 ago. 2022.
KARNOW, Curtis E.A. Liability for Distributed Artificial Intelligences. Berkeley Technology
Law Journal, v. 11, n. 1, p. 147–205, 1996.
KAY, John; KING, Mervyn A. Radical uncertainty: decision-making beyond the numbers.
New York: W.W. Norton & Company, 2020.
KLINGELE, Cecelia. The Promises and perils of evidence-based corrections. Notre Dame
Law Review, v. 91, n. 2, p. 577, 2016. Disponível em:
<https://scholarship.law.nd.edu/cgi/viewcontent.cgi?article=4633&context=ndlr>. Acesso em:
12 set. 2020.
KOEHLER, Jonathan J; GERSHOFF, Andrew D. Betrayal aversion: When agents of protection
become agents of harm. Organizational Behavior and Human Decision Processes, v. 90,
n. 2, p. 244–261, 2003. Disponível em:
<https://linkinghub.elsevier.com/retrieve/pii/S0749597802005186>. Acesso em: 15 jan. 2023.
KPMG. Automobile insurance in the era of autonomous vehicles. Disponível em:
<https://www.the-digital-insurer.com/wp-content/uploads/2015/11/615-automobile-insurance-
in-the-era-of-autonomous-vehicles-survey-results-june-2015.pdf>. Acesso em: 18 ago. 2022.
KRÖGER, Fabian. Automated driving in its social, historical and cultural contexts. In:
MAURER, Markus; GERDES, J. Christian; LENZ, Barbara; et al (Orgs.). Autonomous
driving: technical, legal and social aspects. Berlin: Springer open, 2016, p. 41–68. Disponível
em: <https://link.springer.com/content/pdf/10.1007/978-3-662-48847-8.pdf>. Acesso em:
18 out. 2022.
179

KÜPER, Wilfried. Grund- und Grenzfragen der rechtfertigenden Pflichtenkollision im


Strafrecht. [livro eletrônico]. Berlin: Duncker und Humblot, 1979. (Schriften zum Strafrecht,
30).
LEE, Kai-Fu. Inteligência Artificial: como os robôs estão mudando o mundo, a forma como
amamos, nos relacionamos, trabalhamos e vivemos. 1. ed. Rio de Janeiro: Globo Livros,
2019. (v. 1E-book).
LENZ, Maikon Lucian. Fundamentos de aprendizagem da máquina. Porto Alegre: Sagah,
2020. Disponível em: <https://issuu.com/youngysaque/docs/flipbook>. Acesso em:
11 ago. 2022.
LIN, Patrick. The ethics of autonomous cars. Center for Internet and Society at Stanford
Law School, 2013. Disponível em: <http://cyberlaw.stanford.edu/publications/ethics-
autonomous-cars>. Acesso em: 14 ago. 2022.
LINA, Dafni. Could AI agents be held criminally liable: artificial intelligence and the
challenges for criminal law. South Carolina Law Review, v. 69, p. 677–696, 2018. Disponível
em: <https://scholarcommons.sc.edu/cgi/viewcontent.cgi?article=4253&context=sclr>.
Acesso em: 2 ago. 2022.
LUTTRELL, Kevin; WEAVER, Michael; HARRIS, Mitchel. The effect of autonomous
vehicles on trauma and health care. Journal of Trauma and Acute Care Surgery, v. 79, n. 4,
p. 678–682, 2015. Disponível em: <https://journals.lww.com/01586154-201510000-00022>.
Acesso em: 17 ago. 2022.
MAGRANI, Eduardo; SILVA, Priscilla; VIOLA, Rafael. Novas perspectivas sobre ética e
responsabilidade de inteligência artificial. In: FRAZÃO, Ana; MULHOLLAND, Caitlin
Sampaio (Orgs.). Inteligência artificial e direito: ética, regulação e responsabilidade. 2. ed.
São Paulo: Thomson Reuters Brasil, 2020, p. 111–143.
MALHEIRO, Emerson Penha. A inclusão digital como direito fundamental na sociedade da
Informação. Revista dos Tribunais, v. 978, p. 39–54, 2018.
MARCHANT, Gary; BAZZI, Rida. Autonomous vehicles and liability: what will juries do?
Boston University Journal of Science and Technology Law, v. 26, n. 1, p. 67–119, 2020.
Disponível em: <https://www.bu.edu/jostl/files/2020/04/3.-Marchant.pdf>. Acesso em:
27 jul. 2022.
MARINHO, William Tito Schuman. A concepção da posição original na filosofia de John
Rawls: Uma reconstrução histórico-filosófica até A theory of justice. Universidade Federal
de São Paulo, São Paulo, 2013. Disponível em:
<https://repositorio.unifesp.br/bitstream/handle/11600/39318/Publico-
39318.pdf?sequence=1&isAllowed=y>. Acesso em: 7 set. 2022.
MARTELETO FILHO, Wagner. Agentes híbridos e autônomos: alguns problemas de
imputação objetiva e subjetiva, justificação e desculpa. Anatomia do Crime, v. 12, p. 87–105,
2021.
MARTINESCO, Andrea. Veículos autônomos: uma visão complementar associando
tecnologia, direito e políticas públicas (autonomous vehicles: a complementary vision
associating technology, law and public policies). SSRN Electronic Journal, 2020. Disponível
em: <https://www.ssrn.com/abstract=3571836>. Acesso em: 15 ago. 2022.
MARTINESCO, Andrea; NETTO, Mariana; NETO, Arthur Miranda; et al. A note on accidents
involving autonomous vehicles: interdependence of event data recorder, human-vehicle
cooperation and legal aspects. IFAC-PapersOnLine, v. 51, n. 34, p. 407–410, 2019.
Disponível em: <https://linkinghub.elsevier.com/retrieve/pii/S2405896319300035>. Acesso
em: 15 ago. 2022.
MASSACHUSETTS INSTITUTE OF TECHNOLOGY. Moral Machine. Disponível em:
<https://www.moralmachine.net/>. Acesso em: 1 ago. 2022.
180

MAURACH, Reinhart. Derecho penal, parte general. Trad. Jorge Bofill\ GENZSCH; Enrique
Aimone GIBSON. Buenos Aires: Astrea, 1994.
MCCALL, Roderick; MCGEE, Fintan; MIRNIG, Alexander; et al. A taxonomy of autonomous
vehicle handover situations. Transportation Research Part A: Policy and Practice, v. 124,
p. 507–522, 2019. Disponível em:
<https://linkinghub.elsevier.com/retrieve/pii/S0965856417311072>. Acesso em: 27 jul. 2022.
MELIÁ, Manuel Cancio. Conducta de la víctima e imputación objetiva en derecho penal:
estudio sobre los ámbitos de responsabilidad de víctima y autor en actividades
arriesgadas. Barcelona: Bosch, 1998. (Biblioteca de derecho penal).
MENDES, Laura Schertel; MATTIUZZO, Marcela. Discriminação Algorítmica: conceito,
fundamento legal e tipologia. v. 16, n. 90, p. 26, 2019. Disponível em:
<https://portal.idp.emnuvens.com.br/direitopublico/article/view/3766>. Acesso em:
10 nov. 2021.
MONTALVO, José Antonio Choclán. Deber de cuidado y delito imprudente. 1. ed.
Barcelona: Bosch, 1998.
MULHOLLAND, Caitlin Sampaio. A responsabilidade civil por presunção de causalidade.
1. ed. Rio de Janeiro: GZ, 2009.
MULHOLLAND, Caitlin Sampaio. Alternative causation, unidentifiable tortfeasors, and
group liability: a case study. Disponível em:
<https://civilistica.emnuvens.com.br/redc/article/view/121/91>. Acesso em: 17 jun. 2022.
MULHOLLAND, Caitlin Sampaio. Responsabilidade civil e processos decisórios autônomos
em sistemas de inteligência artificial (IA): autonomia, imputabilidade e responsabilidade. In:
FRAZÃO, Ana; MULHOLLAND, Caitlin Sampaio (Orgs.). Inteligência artificial e direito:
ética, regulação e responsabilidade. 2. ed. São Paulo: Thomson Reuters Brasil, 2020, p. 327–
350.
NUNES, Dierle; MARQUES, Ana Luiza Pinto Coelho. Inteligência artificial e direito
processual: vieses algoritmo e os riscos de atribuição de função decisória às máquinas. Revista
de Processo, v. 285, 2018.
NYHOLM, Sven; SMIDS, Jilles. The ethics of accident-algorithms for self-driving cars: an
applied trolley problem? Ethical Theory and Moral Practice, v. 19, n. 5, p. 1275–1289, 2016.
Disponível em: <http://link.springer.com/10.1007/s10677-016-9745-2>. Acesso em:
2 ago. 2022.
O’NEIL, Cathy. Weapons of math destruction: how big data increases inequality and
threatens democracy. New York: Crown Publishers - Broadway Books, 2016.
OSOBA, Osonde A.; WELSER, William IV. An intelligence in our image: the risks of bias
and errors in artificial intelligence. Santa Monica: RAND Corporation, 2017. Disponível em:
<https://www.rand.org/pubs/research_reports/RR1744.html>. Acesso em: 22 maio 2021.
PASQUALE, Frank. The black box society: the secret algorithms that control money and
information. First Harvard University Press paperback edition. Cambridge, Massachusetts
London, England: Harvard University Press, 2016.
PEDRINA, Gustavo Mascarenhas Lacerda. Consequências e perspectivas da aplicação de
inteligência artificial a casos penais. Revista Brasileira de Direito Processual Penal, v. 5,
n. 3, p. 1589–1606, 2019. Disponível em:
<https://revista.ibraspp.com.br/RBDPP/article/view/265>. Acesso em: 2 maio 2020.
PEREIRA, Gabriela Bueno. Direito e inteligência artificial: a ética dos carros autônomos.
Seminário sobre Inteligência Artificial, Proteção de Dados e Cidadania, v. Anais do II
Seminário sobre Inteligência Artificial, Proteção de Dados e Cidadania [recurso eletrônico],
p. 82–99, 2021.
PIRES, Thatiane Cristina Fontão; SILVA, Rafael Peteffi da. A responsabilidade civil pelos atos
autônomos da inteligência artificial: notas iniciais sobre a resolução do parlamento europeu.
181

Revista Brasileira de Políticas Públicas, v. 7, n. 3, 2018. Disponível em:


<https://www.publicacoes.uniceub.br/RBPP/article/view/4951>. Acesso em: 7 nov. 2022.
PORTUGAL. Código Penal de Portugal. Decreto-Lei n.o 48/95. Disponível em:
<https://dre.pt/dre/legislacao-consolidada/decreto-lei/1995-34437675>. Acesso em:
8 set. 2022.
PRADO, Luiz Regis. Curso de direito penal brasileiro. São Paulo: Revista dos Tribunais,
2002.
PRADO, Luiz Regis. Direito penal do meio ambiente: crimes ambientais. 7. ed. Rio de
Janeiro: Forense, 2019.
PRADO, Luiz Régis; CARVALHO, Érika Mendes de. A imputação objetiva no direito penal
brasileiro. Ciências Penais, v. 3, p. 81–102, 2005.
PRADO, Luiz Regis; CARVALHO, Érika Mendes de. Teorias da imputação objetiva do
resultado. Uma aproximação crítica a seus fundamentos. 2a edição revista, atualizada e
ampliada. São Paulo: Revista dos Tribunais, 2006.
PUPPE, Ingeborg. Estudos sobre imputação objetiva e subjetiva no direito penal. Trad. Luís
GRECO; Luiz Henrique Carvalheiro ROSSETTO. 1. ed. Madri Barcelona Buenos Aires São
Paulo: Marcial Pons, 2019. (Reflexões jurídicas).
RAWLS, John. A theory of justice. Rev. ed. Cambridge, Mass: Belknap Press of Harvard
University Press, 1999.
REIS, Paulo Victor Alfeo. Algoritmos e o direito. São Paulo: Almedina, 2020. (Coleção
Monografias).
RODOTÀ, Stefano. A vida na sociedade da vigilância: a privacidade hoje. Trad. Danilo
DONEDA; Luciana Cabral DONEDA. Rio de Janeiro: Renovar, 2008.
RODRIGUES, Silvio. Direito civil. 34. ed. São Paulo: Saraiva, 2003.
ROE, Madeline. Who’s driving that car: an analysis of regulatory and potential liability
frameworks for driverless cars. Boston College Law Review, v. 60, n. 1, p. 317–347, 2019.
Disponível em:
<https://lawdigitalcommons.bc.edu/cgi/viewcontent.cgi?article=3730&context=bclr>. Acesso
em: 1 ago. 2022.
ROHREGGER, Michael. Autonome Fahrzeuge und strafrechtliche Verantwortlichkeit.
Journal für Strafrecht, 3. ed. p. 196–201, 2017.
ROXIN, Claus. Derecho penal. Parte general. Tomo I. Fundamentos. La estructura de la
teoría del delito. Madrid: Editorial Civitas, 2003.
ROXIN, Claus. Estudos de direito penal. Trad. Luís GRECO. Rio de Janeiro: Renovar, 2006.
ROXIN, Claus. Funcionalismo e imputação objetiva no direito penal. Trad. Luís GRECO.
3. ed. Rio de Janeiro: Renovar, 2002.
ROXIN, Claus. Fundamentos político-criminais e dogmáticos do direito penal. Revista
Brasileira de Ciências Criminais, Trad. Alaor LEITE. v. 23, n. 112, p. 33–40, 2015.
ROXIN, Claus. Problemas basicos del derecho penal. Trad. Diego Manuel Luzón Pena.
Madrid: Réus, 1976.
ROXIN, Claus. Sobre a fundamentação político-criminal do sistema jurídico-penal. Revista
Brasileira de Ciências Criminais, v. 35/2001, n. 9, p. 13–27, 2001.
RUDOLPHI, Hans Joachim. Causalidad e imputación objetiva. 1. ed., 2. reimp. Bogota:
Universidad Externado de Colombia, Centro de Investigaciones de Derecho Penal y Filosofía
del Derecho, 1998. (Coleccion de estudios, 2).
SÁNCHEZ, Bernardo Feijóo. Teoria da imputaçao objetiva: estudo crítico e valorativo
sobre os fundamentos dogmáticos e sobre a evolução da teoria da imputação objetiva.
Trad. Nereu José GIACOMOLLI. São Paulo: Manole, 2003.
182

SÁNCHEZ, Jesús-María Silva. La expansión del derecho penal: aspectos de la política


criminal en las sociedades postindustriales. 3a ed., ampliada. Madrid: Edisofer [u.a.], 2011.
(Estudios y debates en derecho penal, 1).
SANCINETTI, Marcelo A. Observaciones sobre la teoria de la imputación objetiva.
Teorias actuales em el derecho penal. Buenos Aires: Ad-Hoc, 1998.
SANTOS, Juarez Cirino dos. A moderna teoria do fato punível. Curitiba: Fórum, 2004.
SCHREIBER, Anderson. Novos paradigmas da responsabilidade Civil: da erosão dos
filtros da reparação à diluição dos danos. São Paulo: Editora Atlas, 2007.
SCHWAB, Klaus. A quarta revolução industrial [livro eletrônico]. Trad. Daniel Moreira
MIRANDA. São Paulo: Edipro, 2016. Disponível em:
<https://search.ebscohost.com/login.aspx?direct=true&scope=site&db=nlebk&db=nlabk&AN
=2134054>. Acesso em: 21 ago. 2022.
SENATE - COMMERCE, SCIENCE, AND TRANSPORTATION. S.1885 - AV START Act
- American Vision for Safer Transportation through Advancement of Revolutionary
Technologies Act. Disponível em: <https://www.congress.gov/bill/115th-congress/senate-
bill/1885>. Acesso em: 7 ago. 2022.
SMART, William D; GRIMM, Cindy M; HARTZOG, Woodrow. An education theory of fault
for autonomous systems. Boston University School of Law, p. 35–56, 2021. Disponível em:
<https://scholarship.law.bu.edu/cgi/viewcontent.cgi?article=4054&context=faculty_scholarshi
p>. Acesso em: 3 ago. 2022.
SOCIETY OF AUTOMOBILE ENGINEERS. International Standard J3016_202104.
Disponível em: <https://www.sae.org/standards/content/j3016_202104/>. Acesso em:
27 jul. 2022.
SOUSA, Susana Aires de. Não fui eu, foi a máquina: teoria do crime, responsabilidade e
inteligência artificial. In: RODRIGUES, Anabela Miranda (Org.). A inteligência artificial no
direito penal. Coimbra: Almedina, 2020, p. 68–110.
SOUZA, Carlos Affonso. O debate sobre personalidade jurídica para robôs. Jota, 2017.
Disponível em: <https://www.jota.info/opiniao-e-analise/artigos/o-debate-sobre-
personalidade-juridica-para-robos-10102017>. Acesso em: 17 ago. 2022.
SOUZA, Eduardo Nunes de. Dilemas atuais do conceito jurídico de personalidade: uma crítica
às propostas de subjetivação de animais e de mecanismos de inteligência artificial. v. 9, n. 2,
p. 1–49, 2020. Disponível em: <https://civilistica.emnuvens.com.br/redc/article/view/562>.
Acesso em: 17 nov. 2022.
SOUZA, Luyla Cavalcante de. O nexo de aumento do risco na teoria da imputação objetiva.
Revista Brasileira de Ciências Criminais, v. ano X, n. 66, p. 77–117, 2007. Disponível em:
<https://bdjur.stj.jus.br/jspui/handle/2011/86213>. Acesso em: 7 out. 2022.
SQUEFF, Flávia de Holanda Schmidt; DE NEGRI, Fernanda. Ciência e tecnologia de impacto:
uma análise do caso DARPA. In: RAUEN, André Tortato (Org.). Políticas de inovação pelo
lado da demanda no Brasil. Brasília: Ipea, 2017, p. 413–442. Disponível em:
<http://repositorio.ipea.gov.br/handle/11058/8960>. Acesso em: 31 ago. 2021.
STANFORD. What is Artificial Intelligence? Disponível em:
<http://jmc.stanford.edu/index.html>. Acesso em: 4 jul. 2020.
STANFORD, Engineering. Computer Science. Professor John McCarthy. Disponível em:
<https://cs.stanford.edu/index.php?q=memoriam/professor-john-mccarthy>. Acesso em:
24 ago. 2022.
STIVANELLO, Gilbert Uzêda. Teoria da imputação objetiva. Centro de Estudos Judiciários,
n. 22, p. 70–75, 2003. Disponível em:
<https://revistacej.cjf.jus.br/cej/index.php/revcej/article/download/566/746/>. Acesso em:
4 maio 2022.
183

STRATENWERTH, Günter. Derecho Penal. Parte General, I. El hecho punible. Trad.


Gladys ROMERO. Madrid: Instituto de Criminología de la U. Complutense de Madrid, Edersa,
1982.
STRICKLAND, Grace; MCNELIS, John. Autonomous vehicle reporting data is driving AV
innovation right off the road. Tech Crunch, 2020. Disponível em:
<https://techcrunch.com/2020/08/04/autonomous-vehicle-reporting-data-is-driving-av-
innovation-right-off-the-road/>. Acesso em: 15 ago. 2022.
SUPREMO TRIBUNAL FEDERAL. Curso: Aplicação da Inteligência Artificial ao Direito.
Brasília: Coordenadoria de Desenvolvimento de Pessoas, 2020. Disponível em:
<ead.stf.jus.br>. Acesso em: 1 fev. 2022.
SURDEN, Harry; WILLIAMS, Mary-Anne. Technological opacity, predictability, and self-
driving cars. Cardozo Law Review, v. 38, n. 121, p. 121–182, 2016. Disponível em:
<http://scholar.law.colorado.edu/articles/24.>. Acesso em: 8 jun. 2022.
TAVARES, Juarez. Direito penal da negligência: uma contribuição a teoria do crime
culposo. 2a ed., revista e ampliada. Rio de Janeiro: Lumen Juris, 2003.
TAVARES, Juarez. Teoria do crime culposo. 3. ed. integralmente rev. e ampliada. Rio da
Janeiro: Editora Lumen Juris, 2009.
TAVARES, Juarez. Teoria do crime culposo [livro eletrônico]. 5. ed., rev. Florianópolis:
Tirant Lo Blanch, 2018.
TAVARES, Juarez. Teoria do Injusto Penal. 2a edição, revista e ampliada. Belo Horizonte:
Del Rey, 2002.
TEPEDINO, Gustavo. TEPEDINO, Gustavo - Notas Sobre o Nexo de Causalidade.pdf. Revista
Jurídica, v. 296, n. Ano 50, p. 7–18, 2002.
TURING, Alan Mathison. Computing machinery and intelligence. Mind, v. LIX, n. 236,
p. 433–460, 1950. Disponível em:
<https://academic.oup.com/mind/article/LIX/236/433/986238>. Acesso em: 8 fev. 2021.
TURNER, Jacob. Robot rules: regulating artificial intelligence. Cham: Palgrave Macmillan,
2019. Disponível em: <https://doi.org/10.1007/978-3-319-96235-1 Acesso em 24 dez. 2020>.
Acesso em: 8 ago. 2022.
ULRICH, Beck. Sociedade de Risco: Rumo a uma outra modernidade. Trad. Sebastião
Nascimento. São Paulo: Editora 34, 2011.
UNIÃO EUROPEIA. Directiva 2007/46/EC do Parlamento Europeu e do Conselho de 5 de
Setembro de 2007.
UNIÃO EUROPEIA. Regulamento no 79 da Comissão Económica para a Europa da
Organização das Nações Unidas (UNECE) — Prescrições uniformes relativas à homologação
de veículos no que se refere ao dispositivo de direção. Disponível em: <https://eur-
lex.europa.eu/legal-content/PT/TXT/PDF/?uri=uriserv:OJ.L_.2018.318.01.0001.01.POR>.
Acesso em: 6 ago. 2022.
U.S. DEPARTMENT OF TRANSPORTATION. Automated vehicles 3.0: preparing for the
future of transportation. Disponível em:
<https://www.transportation.gov/sites/dot.gov/files/docs/policy-initiatives/automated-
vehicles/320711/preparing-future-transportation-automated-vehicle-30.pdf>. Acesso em:
16 ago. 2022.
VAN BRUMMELEN, Jessica; O’BRIEN, Marie; GRUYER, Dominique; et al. Autonomous
vehicle perception: The technology of today and tomorrow. Transportation Research Part
C: Emerging Technologies, v. 89, p. 384–406, 2018. Disponível em:
<https://linkinghub.elsevier.com/retrieve/pii/S0968090X18302134>. Acesso em:
31 ago. 2022.
184

WALDROP, M. Mitchell. Autonomous vehicles: No drivers required. Nature, v. 518, n. 7537,


p. 20–23, 2015. Disponível em: <https://pubmed.ncbi.nlm.nih.gov/25652978/>. Acesso em:
1 fev. 2022.
WALKER, Joshua. On legal AI: um rápido tratado sobre a inteligência artificial no Direito.
Trad. José NETO. São Paulo: Thomson Reuters Brasil, 2021.
WEIGEND, Thomas. Direito de necessidade para carros autônomos? In: Veículos autônomos
e direito penal. São Paulo: Marcial Pons, 2019.
WEIN, Leon E. The responsibility of intelligent artifacts: toward an automation jurisprudence.
Harvard Journal of Law and Technology, v. 6, p. 103–154, 1992.
WINKLE, Thomas. Safety benefits of automated vehicles: extended findings from accident
research for development, validation and testing. In: GERDES, J. Christian; LENZ, Barbara;
MAURER, Markus; et al (Orgs.). Autonomous Driving: Technical, Legal and Social
Aspects. 1st ed. 2016. Berlin, Heidelberg: Springer Berlin Heidelberg : Imprint: Springer, 2016,
p. 335–364. Disponível em: <https://link.springer.com/chapter/10.1007/978-3-662-48847-
8_17#citeas>. Acesso em: 19 ago. 2022.
WINSTON, Patrick. Artificial intelligence demystified. Massachusetts: Massachusetts
Institute of Technology, 2018.
WOLFGANG, Frisch. Comportamiento típico e imputación del resultado. Trad. José Luis
Serrano González de MURILLO; Joaquín Cuello CONTRERAS. Madrid: Marcial Pons, 2004.
WORLD HEALTH ORGANIZATION. Global status report on road safety 2018. Geneva:
World Health Organization, 2018. Disponível em:
<https://apps.who.int/iris/handle/10665/276462>. Acesso em: 17 ago. 2022.
WÖRNER, Liane. Der Weichensteller 4.0. Zur strafrechtlichen Verantwortlichkeit des
Programmierers im Notstand für Vorgaben an autonome Fahrzeuge. In: Zeitschrift für
Internationale Strafrechtsdogmatik. Baden-Baden: ZIS – Zeitschrift für Internationale, 2019,
p. 41–48.
YOU, Changxi; LU, Jianbo; FILEV, Dimitar; et al. Advanced planning for autonomous
vehicles using reinforcement learning and deep inverse reinforcement learning. Robotics and
Autonomous Systems, v. 114, p. 1–18, 2019. Disponível em:
<https://linkinghub.elsevier.com/retrieve/pii/S0921889018302021>. Acesso em: 29 jul. 2022.
ZAFFARONI, Eugenio Raúl; PIERANGELI, José Henrique. Manual de direito penal
brasileiro. Parte geral. 8a edicão revista e atualizada, 2a tiragem. São Paulo: Ed. Revista dos
Tribunais, 2008.

Você também pode gostar