Você está na página 1de 6

1

UNIVERSIDADE FEDERAL DO RIO GRANDE DO NORTE


CENTRO DE CIÊNCIAS SOCIAIS APLICADAS
CURSO DE GRADUAÇÃO EM DIREITO

BERNARDO BEZERRA DE MELO GOIS

RESPONSABILIDADE CIVIL POR DANOS CAUSADOS POR


SISTEMAS DE IA

NATAL/RN
2023
2

1 – CONTEXTO DO ASSUNTO E POSICIONAMENTO GERAL


É visível na sociedade atual o aumento da presença da inteligência artificial (IA) nos mais
diversos ambientes e esferas. Ao olharmos para nosso próprio cotidiano, podemos perceber
que as IAs já possuem sobre nós, seja através dos cada vez mais famosos “chatbots” - os quais
vêm ganhando popularidade pelo horizonte de possibilidades que trazem consigo -, ou mesmo
pelos algoritmos dos aplicativos que utilizamos no nosso dia a dia. É fato que as IAs vieram
para chegar e cabe a nós, como humanidade, administrá-las de maneira responsável, de modo
a minimizar os seus prejuízos e maximizar os seus benefícios.
É nesse mundo digitalizado, em que a IA deixa de ser ficção científica e vira peça chave da
forma como interagimos com o ambiente, que problemas e questionamentos começam a
surgir. Nesse contexto, surgem os questionamentos de como seria possível aplicar o conceito
de responsabilidade civil às inteligências artificiais e algoritmos, quando causarem danos
injustos a alguém ou a uma coletividade.
Diante do exposto, é válido expor algumas correntes de pensamento em relação ao tema, e
posteriormente aprofundar-se um pouco em cada uma delas e analisá-las à luz dos recursos
atuais, para assim chegarmos mais próximos de um entendimento sobre o que é possível
decidir sobre o assunto.

2 – ARGUMENTOS DA DOUTRINA
Fica então evidente a necessidade de recorrer às principais formas de pensar a
responsabilidade civil no contexto da IA, logo, expõem-se as seguintes correntes:
a) Nem a inteligência artificial, nem seus desenvolvedores podem ser
responsabilizados: Os defensores dessa tese afirmam primeiramente que a
inteligência artificial em si não pode ter capacidades jurídicas, e por outro lado os
desenvolvedores não são capazes de descobrir os motivos, por características inerentes
a natureza dessa tecnologia. Ainda, afirmam que dar espaço para esse tipo de
reinvindicação teria como efeito o desencorajamento ao avanço tecnológico, por
receio em relação a possíveis indenizações bilionárias decorrentes de “atitudes”
indesejadas da IA.
b) Responsabilidade objetiva da IA: Para os adeptos dessa tese, é necessário criar um
novo tipo de categoria jurídica, nesse caso seriam as “e-persons”, ou pessoas
eletrônicas. Com essa nova classificação, as inteligências artificiais teriam
personalidade e patrimônio próprio, e por isso seriam capazes de responder
individualmente pelos danos causados.
3

c) Responsabilidade subjetiva do programador: Aqui, seria responsabilizado pelo


dano o programador dos algoritmos da IA “delinquente”, caso comprovado sua culpa.
Nesse sentido, caberia à vítima comprovar a culpa do agente.
d) Responsabilidade objetiva do fornecedor: Para culpar objetivamente o fornecedor,
deve-se primeiramente presumir que o dano foi ocasionado em razão de um defeito no
produto oferecido, ainda que o defeito seja desconhecido quando a IA foi
desenvolvida, conforme a teoria do risco do desenvolvimento.
e) Responsabilidade objetiva da sociedade que lucra com a IA: Para aqueles que
defendem esse caminho, ao desenvolver uma atividade e consequentemente obter
lucro com ela, os agentes devem estar dispostos a reparar possível dano por ela
causada, seguindo a teoria do risco criado. Dessa forma, é tirado o foco de possíveis
agentes isolados com culpas individuais, e coloca os holofotes naqueles que eram
responsáveis por minimizar riscos e podiam responder por impactos negativos, não
necessariamente envolvidos diretamente na produção da IA.

3 – ANÁLISE DOS ARGUMENTOS À LUZ DA LEI


a) Nem a inteligência artificial, nem seus desenvolvedores podem ser
responsabilizados: Nesse caso, os defensores dessa poderiam argumentar que além de
ser impossível culpabilizar a IA, seria também impossível comprovar da culpa do
agente desenvolvedor, logo, o artigo 186 do CC/2002, estaria corroborando com essa
tese. Além disso, a responsabilização dos desenvolvedores da IA poderia desencorajar
o desenvolvimento tecnológico, e isso iria de encontro ao que afirma o artigo 218 da
CF: “O Estado promoverá e incentivará o desenvolvimento científico, a pesquisa, a
capacitação científica e tecnológica e a inovação”.
b) Responsabilidade objetiva da IA: Não há nada na lei brasileira que permitiria esse
tipo de responsabilização objetiva da IA, ou seja, seria necessária a criação de algo
totalmente novo. No entanto, a maioria da comunidade jurídica recusa tal ideia,
inclusive o Parlamento Europeu, que foi de encontro a ela na apreciação do tema em
2020.
c) Responsabilidade subjetiva do programador: A responsabilidade subjetiva do
programador é a tese mais tradicional e aceita pela doutrina e jurisprudência. Nesse
caso, o programador seria responsabilizado pelo dano causado pela IA, mas teria que
ser comprovado a culpa, e caberia à vítima o trabalho de apresentar provas. Além
disso, uma dificuldade seria o fato de que a autonomia da IA rompe o nexo de
4

causalidade. Ademais, no caso da IA, o programador poderia ser equiparado a um


empregador, nos termos do artigo 932, inciso III, pois ele é o responsável por criar a
IA e por determinar sua utilização.
d) Responsabilidade objetiva do fornecedor: A responsabilidade objetiva do
fornecedor é prevista no Código de Defesa do Consumidor (CDC), em seu artigo 12,
que estabelece que o fornecedor de produtos e serviços é responsável pelos danos
causados por defeitos no produto ou serviço, independentemente da culpa. No caso da
IA, o fornecedor seria o responsável pela IA, seja ele a pessoa que desenvolveu a IA, a
pessoa que a comercializa ou a pessoa que a utiliza. Portanto, os que utilizam esse
argumento estariam amparados na ideia de que é necessário proteger os consumidores
e a sociedade de possíveis danos causados por produtos como as IAs.
e) Responsabilidade objetiva da sociedade que lucra com a IA: Esse argumento vem
de uma linha de raciocínio similar à do argumento anterior (responsabilidade objetiva
do fornecedor), no entanto, traria uma ideia de uma responsabilização mais justa e
ampla. Não existe nada específico na legislação que corrobore com essa ideia, no
entanto, poderia ser discutida durante a criação de uma norma especial relacionada a
responsabilidade civil das inteligências artificiais.

4 – CASO RELEVANTE
O incidente em questão relata um caso alarmante envolvendo estudantes adolescentes, do
Colégio Santo Agostinho, na Barra da Tijuca, Rio de Janeiro. Cerca de 28 estudantes entre 13
e 16 anos foram vítimas de manipulação de imagens com inteligência artificial (IA),
resultando em situações desconfortáveis e traumáticas. A prática, realizada por colegas do
mesmo colégio, não é um incidente isolado, com casos semelhantes reportados em outras
cidades brasileiras e no exterior. A facilidade de acesso a ferramentas de IA para manipulação
de imagens aumenta a preocupação com a possibilidade de ocorrências similares se tornarem
mais comuns. Especialistas destacam a importância de conscientização sobre os riscos e
consequências dessa prática, enfatizando que o problema reside na utilização inadequada
dessas ferramentas, não em sua existência. A advogada Estela Aranha, assessora especial de
Direitos Digitais do Ministério da Justiça e Segurança Pública, destaca a facilidade de acesso
às ferramentas de IA para manipulação de imagens, alertando que todas as mulheres e
meninas podem se tornar potenciais vítimas desse tipo de crime, especialmente em ambientes
escolares propensos ao bullying. Já Carlos Affonso Souza, diretor do Instituto de Tecnologia e
Sociedade do Rio de Janeiro (ITS-Rio), aponta que as ferramentas de IA continuarão a se
5

tornar mais sofisticadas, com efeitos cada vez mais realistas. Destaca também a
inevitabilidade dessas ferramentas permanecerem disponíveis, mesmo que tentativas sejam
feitas para removê-las das lojas de aplicativos, devido à existência de sites de fácil acesso
oferecendo essas funcionalidades.

5 – ANÁLISE CRÍTICA ACERCA DO TEMA E CONCLUSÃO


A partir do exposto, é possível afirmar que não há uma resposta única para responder à
questão sobre quem deve ser responsabilizado em casos de danos causados por IAs. No
entanto, é visível que, ao não anteciparmos certos tipos de situação e não se reduzirem
probabilidades de problemas, podemos como sociedade expor os consumidores e o mundo em
geral a grandes riscos, como no caso das meninas do Rio de Janeiro.
Nesse sentido, caberá aos intérpretes a análise pormenorizada do caso concreto, de modo a
garantir, por exemplo, que o consumidor brasileiro não seja lesado, com base no risco de
desenvolvimento. Se houver uma relação empresarial, como no caso em que os danos
resultam das ações de administradores que confiam em decisões tomadas por sistemas
automatizados dentro das empresas, poderia ser aplicado um regime subjetivo, se
fundamentando no dever dos administradores de agir com cuidado e diligência em suas
responsabilidades.
Dessa forma, chegaríamos mais perto de possíveis soluções para casos concretos de danos
por IA, utilizando-se de nossa legislação vigente e do que o CC e o CDC têm para nos
oferecer como ferramentas garantidoras da justiça.

6 – REFERÊNCIAS
Borghetti, Jean-Sébastien, Civil Liability for Artificial Intelligence: What Should its Basis
Be? (June 1, 2019). La Revue des Juristes de Sciences Po, juin 2019, n°17 ISSN 2111-4293,
94-102, Available at SSRN: https://ssrn.com/abstract=3541597

MULHOLLAND, Caitlin. Responsabilidade civil e processos decisórios autônomos em


sistemas de Inteligência Artificial (IA): autonomia, imputabilidade e responsabilidade. In:
FRAZÃO, Ana; MULHOLLAND, Caitlin (coords.). Inteligência Artificial e Direito: ética,
regulação e responsabilidade. São Paulo: Thomson Reuters Brasil, 2ª ed. 2020, pp. 345 e
seguintes.
6

TEPEDINO, Gustavo e SILVA, Rodrigo da Guia. Desafios da inteligência artificial em


matéria de responsabilidade civil. Revista Brasileira de Direito Civil – RBDCivil | Belo
Horizonte, v. 21, p. 61-86, jul./set. 2019, p. 63-64.

FÓRUM, E. A Responsabilidade Civil pelos danos causados por Sistemas de Inteligência


Artificial | Coluna Direito Civil. Disponível em:
<https://editoraforum.com.br/noticias/responsabilidade-civil-pelos-danos-causados-por-
sistemas-de-inteligencia-artificial-coluna-direito-civil/#_ftn12>. Acesso em: 7 dez. 2023.

Nudes falsos se multiplicam e preocupam autoridades: “crueldade impensável com meninas


tão novas”. Disponível em: <https://www.bbc.com/portuguese/articles/c142d81n40eo>.

Você também pode gostar