Escolar Documentos
Profissional Documentos
Cultura Documentos
Belo Horizonte
2018
Fernanda Santos e Silva
Belo Horizonte
2018
“As três regras da robótica
1. Um robô não pode ferir um ser humano ou, por
omissão, permitir que um ser humano sofra
algum mal;
2. Um robô deve obedecer às ordens que lhe sejam
dadas por seres humanos, exceto nos casos em
que tais ordens contrariem a primeira lei;
3. Um robô deve proteger sua própria existência,
desde que tal proteção não entre em conflito
com a primeira e segundas leis.
1. Primeiras considerações
Qual o lugar, de nós, humanos, numa sociedade dominada pela máquina? A ficção
parece nos oferecer essas respostas, lembremos, por exemplo, dos filmes Matrix (1999),
de Lana e Lilly Wachowski, ou Blade Runner (1982), de Ridley Scott. Ambas produções
cinematográficas desenham um futuro sombrio: as máquinas se voltam contra os seres
humanos e se recusam a servi-los, levando a uma batalha sangrenta pelo controle do poder.
Ainda que dito por Aldous Huxley, “não devemos ser apanhados de surpresa pelo avanço da
nossa tecnologia1”, há um abismo muito grande entre a ideia de um mundo super
computadorizado e a nossa realidade. Embora robôs já sejam um grande marco de nosso
tempo e ainda que a ficção científica geralmente represente a Inteligência Artificial com
qualidades humanas, a chance de convivermos com um aos moldes de C-3PO, personagem
pitoresco de Star Wars, ainda é irreal. Na verdade, as ficções denotam uma ideia muito maior
à tecnologia que podemos imaginar.
Em 1950, no apocalíptico mundo pós-guerra, Allan Turing publicou seu famoso artigo
intitulado “Computing Machinery and Intelligence”, no qual aborda a possibilidade de as
máquinas serem racionais. Questiona Turing “podem as máquinas pensar?” ao mesmo tempo
que tenta responder, lança luz sobre a possibilidade de máquinas se comportarem de forma
inteligente e elabora o chamado Teste de Turing. Tal teste se propõe a medir a capacidade que
tem uma máquina de simular um comportamento linguístico idêntico ao dos humanos. Ao
final do seu artigo, o pai da computação, conclui não saber a resposta exata, mas aponta que é
esperado que as máquinas acabem por competir com os humanos intelectualmente.
Não é minha intenção surpreender ou chocar vocês, mas o jeito mais simples
que eu posso resumir isto é dizer que, agora, existem no mundo máquinas
que pensam, que aprendem e que criam. Ademais, a habilidade delas de
fazer essas coisas vai aumentar rápido, até que — num futuro visível — a
variedade de problemas de que podem dar conta será coextensiva com a
variedade para a qual a mente humana tem sido aplicada.
O que se tem mostrado verdadeiro, uma vez que o progresso das pesquisas envolvendo
a Inteligência Artificial é medida com a comparação feita com a inteligência humana. Isso não
é algo novo, tendo em vista o artigo escrito por Alan Turing, em que ele, como dito, propunha
o jogo da imitação4 (mais tarde chamado Teste de Turing). Assim, o progresso da Inteligência
Artificial será maior conforme o feito se aproxime estruturalmente do jogo criado pelo
cientista britânico, verificando se, em um diálogo com uma máquina de Inteligência Artificial,
suas respostas são indistinguíveis daquelas apresentadas por um ser humano. Embora, até o
momento, nenhuma máquina tenha conseguido aprovação no Teste 5, podemos tirar do seu
texto contribuições para a análise de outra questão, por sua vez pertinente, a de que
precisamos estar preparados para o futuro que se mostra ao mesmo tempo sombrio e
encantador.
Mesmo que o teste criado por Turing ignore a complexidade de se identificar entre
uma (possível) máquina que, de fato pensa, e uma máquina que apenas imita o pensamento 6, o
objetivo deste teste é verificar a capacidade de uma máquina apresentar comportamento
inteligente, tal qual um ser humano.
É sabido que as leis são criadas por seres humanos e para seres humanos, em termos
jurídicos, para pessoas naturais. Porém na longa jornada do Direito, antes mesmo da invenção
da escrita até nosso sistema moderno, aconteceram grandes mudanças. Uma dessas resultou
na visão de que as pessoas naturais não são as únicas pessoas do Direito. Associações,
sociedades, fundações, empresas e entidades públicas do Estado realizam atos legais, como
pessoas jurídicas, podendo ser responsabilizadas civilmente. Então, e o que dizer das
máquinas dotadas de Inteligência Artificial que podem executar tarefas? A exemplo, um
sistema operacional avançado sem o controle humano? E os drones que operam com base na
sua própria programação? Podem eles serem responsáveis por seus processos autônomos e,
mais relevante, por seus erros? E quanto a um defeito estético causado por um robô que
realiza cirurgias? A pessoa natural por trás da “tela” será sempre o responsável, ainda que não
seja ela controlando?
Esse trabalho se inicia examinando quais respaldos jurídicos existentes no nosso país e
quais possíveis teorias a serem seguidas em relação a sistemas de Inteligência Artificial. Isso
mostra como o desenvolvimento de formas de Inteligência Artificial levanta questões
pertinentes sobre quem deve ser responsabilizado por eventuais danos causados por essas
máquinas.
É certo que essas máquinas serão oferecidas no mercado, porém, é preciso antes que,
não apenas a sociedade, mas principalmente o Direito esteja preparado para a árdua tarefa de
atribuir responsabilidade a qualquer ato ilícito que esta venha a incorrer. Até pouco tempo
atrás, os únicos robôs existentes eram os de indústrias. Hoje, presenciamos o desenvolvimento
de novas formas robóticas (drones, exoesqueletos, robôs de assistência). A ascensão da
robótica já é medida em termos não apenas econômicos, mas também sociais. E é esse último
que impacta inevitavelmente a busca por uma resposta legal à inserção da Inteligência
Artificial na sociedade.
Também é certo que não se sabe quais os riscos que a Inteligência Artificial apresenta.
Todavia, se faz necessário sua regulação pelos eventuais danos que possam vir a causar, uma
vez que razão de existência Direito é a segurança jurídica, como classificado por Jorge
Amaury Nunes, in verbis:
1. 3. Objetivos Gerais
Diante do cenário exposto e do problema da imputação objetiva de responsabilidade
por danos causados pela Inteligência Artificial traça-se o objetivo de buscar, no nosso
ordenamento jurídico, leis que sirvam à aplicação dos possíveis riscos e danos que possam
surgir. Faz-se também necessário uma pesquisa direcionada no direito comparado afim de
contrapor as abordagens dadas ao assunto.
Não sabemos quais os riscos que um carro autônomo apresenta, mas é urgente a
necessidade de se regulamentar a responsabilidade civil pelos eventuais danos, tendo em vista
que o que faz da Inteligência Artificial uma Inteligência Artificial é a sua capacidade de agir
com base em aprendizado e raciocínio próprios, o que implicaria em possíveis resultados não
desejados ou imaginados pelo responsável por sua programação.
Por fim, intenciona essa pesquisa a guinada para o lado do nosso Código Civil, de se
utilizar a responsabilidade civil objetiva para minimizar os prejuízos e oferecer segurança
jurídica na forma de garantias com algumas mudanças que obrigaria a um seguro para
acidentes relacionados à Inteligência Artificial para absorver e mitigar os eventuais danos
causados.