Você está na página 1de 10

PONTIFÍCIA UNIVERSIDADE CATÓLICA DE MINAS GERAIS

Faculdade Mineira de Direito

Fernanda Santos e Silva

AS IMPLICAÇÕES JURÍDICAS QUANTO À RESPONSABILIDADE CIVIL POR


EVENTUAIS DANOS CAUSADOS PELA INTELIGÊNCIA ARTIFICIAL

Belo Horizonte

2018
Fernanda Santos e Silva

AS IMPLICAÇÕES JURÍDICAS QUANTO À RESPONSABILIDADE CIVIL POR


EVENTUAIS DANOS CAUSADOS PELA INTELIGÊNCIA ARTIFICIAL

Projeto de monografia apresentado ao Programa de


Graduação em Direito da Pontifícia Universidade
Católica de Minas Gerais, como requisito parcial
para a obtenção do título de Bacharel em Direito.
Orientador: Prof.
Área de concentração: Direito Civil

Belo Horizonte
2018
“As três regras da robótica
1. Um robô não pode ferir um ser humano ou, por
omissão, permitir que um ser humano sofra
algum mal;
2. Um robô deve obedecer às ordens que lhe sejam
dadas por seres humanos, exceto nos casos em
que tais ordens contrariem a primeira lei;
3. Um robô deve proteger sua própria existência,
desde que tal proteção não entre em conflito
com a primeira e segundas leis.

Manual de Robótica 56ª edição, 2058 A.D.”


(ASIMOV, Isaac, Eu, Robô)
Introdução

1. Primeiras considerações

Qual o lugar, de nós, humanos, numa sociedade dominada pela máquina? A ficção
parece nos oferecer essas respostas, lembremos, por exemplo, dos filmes Matrix (1999),
de Lana e Lilly Wachowski, ou Blade Runner (1982), de Ridley Scott. Ambas produções
cinematográficas desenham um futuro sombrio: as máquinas se voltam contra os seres
humanos e se recusam a servi-los, levando a uma batalha sangrenta pelo controle do poder.
Ainda que dito por Aldous Huxley, “não devemos ser apanhados de surpresa pelo avanço da
nossa tecnologia1”, há um abismo muito grande entre a ideia de um mundo super
computadorizado e a nossa realidade. Embora robôs já sejam um grande marco de nosso
tempo e ainda que a ficção científica geralmente represente a Inteligência Artificial com
qualidades humanas, a chance de convivermos com um aos moldes de C-3PO, personagem
pitoresco de Star Wars, ainda é irreal. Na verdade, as ficções denotam uma ideia muito maior
à tecnologia que podemos imaginar.

Em 1950, no apocalíptico mundo pós-guerra, Allan Turing publicou seu famoso artigo
intitulado “Computing Machinery and Intelligence”, no qual aborda a possibilidade de as
máquinas serem racionais. Questiona Turing “podem as máquinas pensar?” ao mesmo tempo
que tenta responder, lança luz sobre a possibilidade de máquinas se comportarem de forma
inteligente e elabora o chamado Teste de Turing. Tal teste se propõe a medir a capacidade que
tem uma máquina de simular um comportamento linguístico idêntico ao dos humanos. Ao
final do seu artigo, o pai da computação, conclui não saber a resposta exata, mas aponta que é
esperado que as máquinas acabem por competir com os humanos intelectualmente.

Nessa linha de pensamento, Herbert Simon, economista e pioneiro em Inteligência


Artificial, agraciado com o Prêmio Turing, previu, em 1957 3, sobre qual seria a real
capacidade das máquinas:

Não é minha intenção surpreender ou chocar vocês, mas o jeito mais simples
que eu posso resumir isto é dizer que, agora, existem no mundo máquinas
que pensam, que aprendem e que criam. Ademais, a habilidade delas de
fazer essas coisas vai aumentar rápido, até que — num futuro visível — a
variedade de problemas de que podem dar conta será coextensiva com a
variedade para a qual a mente humana tem sido aplicada.
O que se tem mostrado verdadeiro, uma vez que o progresso das pesquisas envolvendo
a Inteligência Artificial é medida com a comparação feita com a inteligência humana. Isso não
é algo novo, tendo em vista o artigo escrito por Alan Turing, em que ele, como dito, propunha
o jogo da imitação4 (mais tarde chamado Teste de Turing). Assim, o progresso da Inteligência
Artificial será maior conforme o feito se aproxime estruturalmente do jogo criado pelo
cientista britânico, verificando se, em um diálogo com uma máquina de Inteligência Artificial,
suas respostas são indistinguíveis daquelas apresentadas por um ser humano. Embora, até o
momento, nenhuma máquina tenha conseguido aprovação no Teste 5, podemos tirar do seu
texto contribuições para a análise de outra questão, por sua vez pertinente, a de que
precisamos estar preparados para o futuro que se mostra ao mesmo tempo sombrio e
encantador.

Apesar de as máquinas desempenharem diversas atividades de forma superior à do ser


humano, os algoritmos de Inteligência Artificial não possuem habilidades cognitivas iguais às
nossas. Ainda assim, podemos questionar: e no dia que alcançarmos essa tão sonhada e
temida equivalência? Uma vez aptas a competirem e coexistirem conosco, as máquinas
dotadas de Inteligência Artificial também são passíveis de erros e podem nos causar danos e
alguns até irreversíveis repercutindo assim, em novos fatos jurídicos. Portanto, há motivos
para crermos que as previsões dos pioneiros da Inteligência Artificial podem mesmo se
concretizar.

Mesmo que o teste criado por Turing ignore a complexidade de se identificar entre
uma (possível) máquina que, de fato pensa, e uma máquina que apenas imita o pensamento 6, o
objetivo deste teste é verificar a capacidade de uma máquina apresentar comportamento
inteligente, tal qual um ser humano.

Surge, então, a necessidade de distinguir entre os vários tipos de Inteligência Artificial


(IA), tendo em vista a confusão e desinformação criada pela mídia e ficção científica.

Três tipos de IA são amplamente reconhecidas na comunidade tecnológica: estreita


(fraca), geral (forte) e super. Uma IA forte (Strong AI), Artificial General Intelligence (AGI),
é a inteligência de uma máquina que poderia realizar com sucesso qualquer atividade
intelectual que um ser humano também realizaria, ou seja, uma “ação inteligente geral” 8. É o
objetivo de algumas pesquisas de inteligência artificial e um tópico comum em filmes e livros
de ficção científica. Portanto, uma AGI seria uma máquina capaz de compreender o mundo de
forma semelhante ao ser humano e até mesmo, capazes de experimentar consciência em
contraponto à IA fraca, que não tenta executar toda a gama de habilidades cognitivas
humanas. Note-se que AGI não existe, mas tem aparecido em histórias de ficção científica há
mais de um século e foi popularizada em séries como Knight Rider e seu remake de 2008.
Quanto à Super Inteligência Artificial (ASI), Superintelligence, seria um agente hipotético
que possui uma inteligência que supera em muito a das mentes humanas mais brilhantes e
dotadas. Nick Bostrom (2014) define a Superintelligence como qualquer intelecto que exceda
em muito o desempenho cognitivo dos seres humanos em praticamente todos os domínios de
interesse. No entanto, Bostrom trata a Superintelligence, como dominância geral no
comportamento orientado apenas para objetivos, deixando em aberto se uma
Superintelligence possuiria capacidades como a intencionalidade ou consciência. Por fim, a
IA fraca (weak AI) ou restrita, Artificial Narrow Intelligence, ANI, é uma inteligência artificial
que é focada em uma tarefa limitada, focada em um problema específico definido de maneira
restrita. Hoje, a maioria dos especialistas concordam que a ANI está amadurecendo, a AGI
está a pelo menos duas décadas de distância do aperfeiçoamento e a ASI está ainda mais
distante. Além de ser uma inovação tecnológica empolgante, a ANI tem inúmeras aplicações
úteis e está se tornando mais prevalente em nossas vidas diárias.

Sistemas baseados em IA já operam atualmente em diferentes espaços e é comumente


conhecida pela IA estreita, ANI, na qual ela é projetada para realizar uma tarefa limitada, por
exemplo, reconhecimento fácil, buscas na internet ou apenas dirigir um carro. No entanto, o
objetivo a longo prazo dos pesquisadores é a criação de uma IA geral. Embora a IA estreita
possa nos ultrapassar em qualquer que seja sua tarefa específica, como jogar xadrez, a AGI
superaria as pessoas em suas atividades cognitivas.

Em relação a isso, ainda que o proeminente cientista Sthefen Hawking tenha


expressado seu receio quanto às possíveis consequências de se criar máquinas capazes de se
igualar, em capacidade, aos humanos7, o tema a ser discutido nesse trabalho se limita à
questão da responsabilização civil por eventuais danos que a IA venha a causar a terceiros.

Na engenharia se tenta impedir tal vantagem das “supermáquinas” com o


desenvolvimento de um código moral, a exemplo do que Asimov escreveu em “Eu, Robô” 8.
No Direito Brasileiro há poucas discussões, que ainda não encontraram solução única e talvez
não exista apenas uma acerca da questionamento feito.

Isso não é ficção científica, é possibilidade, e é real.


1. 2. Inteligência Artificial em perspectiva jurídica

Em essência, as tecnologias de inteligência artificial visam permitir que as máquinas


mimetizem as funções cognitivas dos seres humanos, o que inclui aprender e resolver
problemas, processando, assim, tarefas normalmente realizadas por seres humanos. Na
prática, o que se almeja é que as máquinas aprendam por conta própria, sem qualquer
interferência humana no processo. A discussão gira em torno da busca em determinar se o
sistema jurídico atual do Brasil é suficiente para regular, ao menos, a responsabilidade civil
pelas consequências danosas da Inteligência Artificial, que agem de forma autônoma em
relação às vontades de seus criadores, usuários e proprietários. Uma vez que a
responsabilidade penal deva ser descartada, tendo em vista a própria definição de crime ter
por conduta humana a pedra angular, e seu conceito finalista elaborado por Hans Welzel
(1930) corrobora isso, no qual conceitua crime como uma ação humana dirigida a um fim.

É sabido que as leis são criadas por seres humanos e para seres humanos, em termos
jurídicos, para pessoas naturais. Porém na longa jornada do Direito, antes mesmo da invenção
da escrita até nosso sistema moderno, aconteceram grandes mudanças. Uma dessas resultou
na visão de que as pessoas naturais não são as únicas pessoas do Direito. Associações,
sociedades, fundações, empresas e entidades públicas do Estado realizam atos legais, como
pessoas jurídicas, podendo ser responsabilizadas civilmente. Então, e o que dizer das
máquinas dotadas de Inteligência Artificial que podem executar tarefas? A exemplo, um
sistema operacional avançado sem o controle humano? E os drones que operam com base na
sua própria programação? Podem eles serem responsáveis por seus processos autônomos e,
mais relevante, por seus erros? E quanto a um defeito estético causado por um robô que
realiza cirurgias? A pessoa natural por trás da “tela” será sempre o responsável, ainda que não
seja ela controlando?

Esse trabalho se inicia examinando quais respaldos jurídicos existentes no nosso país e
quais possíveis teorias a serem seguidas em relação a sistemas de Inteligência Artificial. Isso
mostra como o desenvolvimento de formas de Inteligência Artificial levanta questões
pertinentes sobre quem deve ser responsabilizado por eventuais danos causados por essas
máquinas.

É certo que essas máquinas serão oferecidas no mercado, porém, é preciso antes que,
não apenas a sociedade, mas principalmente o Direito esteja preparado para a árdua tarefa de
atribuir responsabilidade a qualquer ato ilícito que esta venha a incorrer. Até pouco tempo
atrás, os únicos robôs existentes eram os de indústrias. Hoje, presenciamos o desenvolvimento
de novas formas robóticas (drones, exoesqueletos, robôs de assistência). A ascensão da
robótica já é medida em termos não apenas econômicos, mas também sociais. E é esse último
que impacta inevitavelmente a busca por uma resposta legal à inserção da Inteligência
Artificial na sociedade.

Supõe-se que as primeiras máquinas totalmente autônomas e independente sejam os


carros sem motoristas7. Tais carros irão funcionar sem o comando direto de um ser humano e
terão como base apenas as informações em si que serão analisadas para tomadas frequentes de
decisões, desde respeitar o sinal vermelho a fazer uma curva, que não serão antecipadas por
seus usuários.

Também é certo que não se sabe quais os riscos que a Inteligência Artificial apresenta.
Todavia, se faz necessário sua regulação pelos eventuais danos que possam vir a causar, uma
vez que razão de existência Direito é a segurança jurídica, como classificado por Jorge
Amaury Nunes, in verbis:

É possível afirmar, sem receio, que o princípio da segurança jurídica tem


validade universal e pode ser examinado em qualquer ordenamento
jurídicos. Não importa a que escola esteja vinculado o pesquisador
(formalista, idealista, realista, etc.), sempre a segurança jurídica informará o
Direito como princípio, como razão fundante8.
Um empecilho à aplicação da lei à Inteligência Artificial é a constatação de que esta
não se encaixa nas definições de pessoas do nosso Código Civil. Em virtude disso, a
perspectiva de se criar uma terceira categoria de pessoa também será discutida. Certo é que,
independentemente das deduções feitas, se nossas leis permanecerem inalteradas muito
dificilmente se recuperará os danos resultantes de lesões causadas pela Inteligência Artificial,
podendo essa, inclusive, ser utilizada por pessoas naturais e jurídicas para se esquivarem de
uma provável responsabilidade, acarretando o que o Direito tenta evitar, a insegurança
jurídica.

1. 3. Objetivos Gerais
Diante do cenário exposto e do problema da imputação objetiva de responsabilidade
por danos causados pela Inteligência Artificial traça-se o objetivo de buscar, no nosso
ordenamento jurídico, leis que sirvam à aplicação dos possíveis riscos e danos que possam
surgir. Faz-se também necessário uma pesquisa direcionada no direito comparado afim de
contrapor as abordagens dadas ao assunto.

Não sabemos quais os riscos que um carro autônomo apresenta, mas é urgente a
necessidade de se regulamentar a responsabilidade civil pelos eventuais danos, tendo em vista
que o que faz da Inteligência Artificial uma Inteligência Artificial é a sua capacidade de agir
com base em aprendizado e raciocínio próprios, o que implicaria em possíveis resultados não
desejados ou imaginados pelo responsável por sua programação.

Portanto, não é objetivo da pesquisa apresentar a solução efetiva para o sistema


judiciário brasileiro, onde o tema não é sequer debatido e onde é ilusório imaginar a
circulação de carros autônomos em um curto espaço de tempo. O que se pretende é iniciar
discussões com base em nossa codificação civilista, que possui um capítulo reservado à
responsabilidade civil e à obrigação de indenizar.

A questão pontuada é: se uma máquina causar dano a um ser humano ou ao seu


patrimônio, quem deve responder civilmente? A Inteligência Artificial não é dotada de
personalidade jurídica, seria então o caso de considerar personifica-la? Nathalie Nevejas 9, em
carta direcionada ao Parlamento Europeu, asseverou que tal ideia é “tão inútil quanto
inadequada”. “A personalidade jurídica obscureceria a relação entre o homem e a máquina,
para que o legislador pudesse avançar progressivamente para a atribuição de direitos ao robô”,
disse ela, que finalizou com um alerta “isso seria totalmente contraproducente, na medida em
que os desenvolvemos (os robôs) para nos servir”. Em razão disso, a falta de sentido em criar
uma terceira pessoa no Direito, para uma máquina, se mostra irracional, à parte que isso
poderia permitir que fabricantes, programadores e proprietários de máquinas dotadas de
Inteligência Artificial alegassem não serem os responsáveis por elas, esquivando-se, como
dito, de arcar com os prejuízos e prejudicando uma vida humana em sua dignidade, maior
bem de proteção do Estado Brasileiro. Dificultoso seria também a ausência de patrimônio
dessas máquinas, onde seria buscado o pecúlio para a reparação dos danos.

Será verificada ainda a possibilidade da aplicação do Código de Defesa do


Consumidor, que elenca em seus artigos 12º e 14º sobre a responsabilidade civil objetiva dos
envolvidos com o fornecimento de um produto ou serviço que resulte em algum dano ao
consumidor. Essa é uma responsabilização abrangente que cria uma solidariedade entre todos
os envolvidos (de fabricante ao proprietário). Porém, suporta exceções, como a culpa
exclusiva do consumidor ou terceiro, desde que provadas. O que levantaria elucidações acerca
da responsabilidade indireta do proprietário, usuário, bem como do fabricante.

Também, em especial, será igualmente averiguada a responsabilidade objetiva sob a


ótica da teoria subjetiva do risco, adotada no nosso Código Civil. Cabe destaque o artigo 927
que prevê a obrigação de reparação de danos independentemente da avaliação de culpa
quando a atividade implicar, por sua natureza, riscos para os direitos de outrem.

Por fim, intenciona essa pesquisa a guinada para o lado do nosso Código Civil, de se
utilizar a responsabilidade civil objetiva para minimizar os prejuízos e oferecer segurança
jurídica na forma de garantias com algumas mudanças que obrigaria a um seguro para
acidentes relacionados à Inteligência Artificial para absorver e mitigar os eventuais danos
causados.

Você também pode gostar