Você está na página 1de 27

Doutrina

A Responsabilidade Civil por Danos


Causados por Inteligência Artificial: uma
Análise Jurídica e Ética

Andressa Evellyn de Oliveira Sousa


Bacharela em Direito pela Universidade do Estado da Bahia.
Advogada não atuante. Servidora Pública do Ministério Público
do Estado da Bahia. Pós-Graduada em Ciências Criminais.
Pós-Graduanda em Direito Civil e Processual Civil e em Direito
Constitucional e Digital. E-mail: andressae1108@gmail.com.

RESUMO: Este artigo tem como objetivo analisar a responsabilidade civil por
danos causados por inteligência artificial (IA) sob uma perspectiva jurídica e
ética. Com o avanço da tecnologia da IA, surgem novos desafios e questões
legais sobre a atribuição de responsabilidade quando danos são causados por
sistemas de IA. O estudo abordará as principais teorias e abordagens sobre
a responsabilidade civil nesse contexto, considerando a responsabilidade do
desenvolvedor, operador e fabricante. Além disso, será explorada a necessidade
de regulamentação adequada e políticas de responsabilidade para lidar com os
desafios apresentados pela IA. O artigo buscará também compreender as impli-
cações éticas envolvidas na responsabilização por danos causados por IA, levando
em consideração a autonomia da máquina, a tomada de decisões automatizada e
os impactos sociais e individuais. Para tanto, serão analisadas leis, casos judiciais
e literatura especializada relacionada ao tema. Por fim, serão apresentadas reco-
mendações e propostas para aprimorar as abordagens legais e éticas em relação
à responsabilidade civil por danos causados por IA.

PALAVRAS-CHAVE: Inteligência artificial. Responsabilidade civil. Danos.


Desafios da IA.

SUMÁRIO: Introdução. 1. Fundamentação teórica; 1.1. Definição de inteli-


gência artificial; 1.2. Principais aplicações, desafios éticos e jurídicos e impactos
da inteligência artificial na sociedade. 2. Responsabilidade civil por danos cau-
sados por inteligência artificial; 2.1. O princípio da precaução na concepção de
IA. 3. Desafios na atribuição de culpa e determinação de responsabilidade; 3.1.
Implicações da responsabilidade civil em sistemas autônomos e IA avançada. 4.
Análise dos casos recentes de danos causados por IA e suas implicações legais.
5. Propostas e recomendações para a responsabilidade civil por danos causados
por IA. Conclusão. Referências.
Revista Brasileira de Direito Comercial Nº 57 – Fev-Mar/2024 – Doutrina
140

Introdução
A inteligência artificial (IA) tem trazido muitos benefícios para a socieda-
de, mas também apresenta riscos significativos. Entre os principais benefícios
e riscos da IA na sociedade, podem-se citar o aumento da eficiência, pois pode
ajudar a automatizar tarefas repetitivas e aumentar a eficiência em diversos
setores, como na indústria, no transporte e na saúde. Pode contribuir com a
melhora da precisão, pois a IA pode ajudar a identificar padrões e insights em
grandes conjuntos de dados, o que pode levar a diagnósticos mais precisos
e tratamentos personalizados na área de saúde, por exemplo, além da redu-
ção de custos, pois a automação de tarefas pode reduzir custos e melhorar
a produtividade em vários setores. A IA pode, inclusive, ajudar a acelerar o
progresso científico, permitindo análises mais rápidas e precisas de grandes
conjuntos de dados.
A inteligência artificial (IA) tem o potencial de trazer muitos benefícios
para a sociedade, como avanços na saúde, que pode ajudar a melhorar o diag-
nóstico e o tratamento de doenças, permitindo a análise de grandes conjuntos
de dados e a identificação de padrões e tendências que podem ser difíceis de
detectar manualmente. A IA também pode ser usada para ajudar na pesquisa
médica, facilitando a identificação de novas terapias e tratamentos.
A IA pode aumentar a eficiência e produtividade que pode ser usada
para automatizar tarefas e processos, aumentando a eficiência e reduzindo
custos, por exemplo. A IA pode ser usada para automatizar tarefas repetitivas
em empresas, permitindo que os funcionários se concentrem em tarefas mais
criativas e de alto valor.
Pode, ainda, ser usada ainda para detectar e prevenir ameaças à segu-
rança, como fraudes financeiras e atividades criminosas. Além disso, a IA
pode ser usada para melhorar a segurança física, por exemplo, monitorando
o tráfego de veículos em tempo real e detectando comportamentos perigo-
sos. Pode ainda ser usada para facilitar o acesso à informação e torná-la mais
acessível, por exemplo, a IA pode ser usada para traduzir automaticamente
conteúdo em diferentes idiomas, permitindo que as pessoas se comuniquem
e se conectem em todo o mundo.
Inclusive, pode ser usada para melhorar a mobilidade, permitindo que
os veículos sejam autônomos e inteligentes, o que pode levar à redução de
acidentes e congestionamentos e pode ser usada para personalizar produtos e
serviços de acordo com as necessidades e preferências dos usuários, permitindo
uma melhor experiência do cliente.
A RESPONSABILIDADE CIVIL POR DANOS CAUSADOS POR INTELIGÊNCIA ARTIFICIAL
141

Em conclusão, a IA tem o potencial de trazer muitos benefícios para a


sociedade em diferentes áreas, desde a saúde até a segurança e mobilidade. No
entanto, é importante considerar cuidadosamente os riscos e desafios associa-
dos ao uso da IA, a fim de garantir que seus benefícios sejam maximizados e
seus efeitos negativos sejam minimizados.
Nessa perspectiva, analisa-se a responsabilidade civil por danos cau-
sados por inteligência artificial (IA) que tem se tornado um tema cada vez
mais relevante no contexto jurídico atual. Com os avanços tecnológicos e a
crescente aplicação da IA em diversos setores da sociedade, surgem questões
complexas e desafiadoras relacionadas à atribuição de responsabilidade por
danos causados por sistemas autônomos.
A IA é uma área de estudo que busca desenvolver máquinas capazes
de simular a inteligência humana e realizar tarefas de forma autônoma. Esses
sistemas são capazes de aprender, adaptar-se e tomar decisões com base em
algoritmos e análise de dados, o que possibilita sua aplicação em campos como
medicina, transporte, finanças, segurança e muitos outros.
No entanto, a utilização da IA também traz consigo riscos e desafios,
especialmente no que diz respeito à responsabilização por eventuais danos
causados por esses sistemas. Diferentemente das máquinas tradicionais, a IA
tem a capacidade de agir de forma autônoma e tomar decisões independentes,
o que dificulta a atribuição de culpa e responsabilidade por seus atos.
Diante desse contexto, é fundamental compreender como a respon-
sabilidade civil é aplicada no âmbito da inteligência artificial e quais são os
fundamentos legais e teóricos que embasam essa questão. A responsabilidade
civil busca assegurar que aqueles que causam danos a terceiros sejam respon-
sabilizados pelos prejuízos causados e, assim, garantir a reparação adequada
às vítimas.
No entanto, a aplicação dos princípios tradicionais de responsabilidade
civil à IA pode apresentar lacunas e desafios, levando à necessidade de revisão
e atualização das legislações existentes. Além disso, a natureza da IA levanta
questões sobre a responsabilidade do fabricante ou desenvolvedor de sistemas
de IA, a responsabilidade do usuário ou operador desses sistemas e até mesmo
a responsabilidade do Estado na regulamentação e supervisão do uso da IA.
Diante desse cenário, o presente trabalho tem como objetivo analisar e
discutir a responsabilidade civil por danos causados por inteligência artificial,
explorando os fundamentos teóricos e legais que sustentam essa questão. Serão
examinadas as formas de responsabilização, os desafios na atribuição de culpa,
Revista Brasileira de Direito Comercial Nº 57 – Fev-Mar/2024 – Doutrina
142

bem como serão propostas recomendações para uma abordagem adequada da


responsabilidade civil nesse contexto.
Por meio dessa pesquisa, busca-se contribuir para a compreensão e
o debate sobre a responsabilidade civil por danos causados por inteligência
artificial, com o intuito de fornecer subsídios para o aprimoramento das legis-
lações existentes e o desenvolvimento de um ambiente jurídico que garanta
a proteção dos direitos das vítimas e a promoção de práticas responsáveis no
desenvolvimento e uso da IA.
Ademais, o objetivo principal deste estudo é analisar a responsabi-
lidade civil por danos causados por inteligência artificial (IA) e discutir os
fundamentos teóricos e legais que sustentam essa questão. Para alcançar esse
objetivo principal, buscam-se como objetivos específicos explorar conceitos
fundamentais da inteligência artificial e suas aplicações em diversos setores
da sociedade; a investigação dos riscos e desafios associados à utilização da
IA e como eles afetam a responsabilização por danos causados por sistemas
autônomos; a análise dos princípios e fundamentos da responsabilidade civil,
incluindo suas bases legais e teóricas.
Busca-se examinar os diferentes aspectos da responsabilidade civil por
danos causados por IA, incluindo a responsabilidade do fabricante ou desen-
volvedor, a responsabilidade do usuário ou operador e a responsabilidade do
Estado; identificar as lacunas jurídicas existentes na regulamentação da respon-
sabilidade civil por danos causados por IA e analisar as consequências dessas
lacunas, realizando uma análise comparativa das legislações internacionais que
abordam a responsabilidade civil por danos causados por IA, identificando
semelhanças, diferenças e boas práticas.
Buscar também propor recomendações e diretrizes para uma abordagem
adequada da responsabilidade civil no contexto da IA, considerando os desafios
atuais e as perspectivas futuras; contribuir para o debate acadêmico e jurídico
sobre a responsabilidade civil por danos causados por IA, fornecendo uma
análise crítica e fundamentada sobre o tema; e, outrossim, fornecer subsídios
para aprimorar as legislações existentes e desenvolver um ambiente jurídico
que garanta a proteção dos direitos das vítimas e a promoção de práticas res-
ponsáveis no desenvolvimento e uso da IA.
Ao atingir esses objetivos, espera-se que este artigo contribua para o
avanço do conhecimento no campo da responsabilidade civil por danos cau-
sados por inteligência artificial, oferecendo insights relevantes para pesquisa-
dores, profissionais do direito e legisladores. Além disso, pretende-se fornecer
subsídios para o desenvolvimento de políticas públicas e regulamentações que
A RESPONSABILIDADE CIVIL POR DANOS CAUSADOS POR INTELIGÊNCIA ARTIFICIAL
143

promovam a responsabilidade e a ética no contexto da IA, levando em con-


sideração os desafios e as particularidades dessa área em constante evolução.
Para realizar a análise e discussão da responsabilidade civil por danos
causados por inteligência artificial, a metodologia adotada será a revisão bi-
bliográfica com literatura acadêmica, livros, artigos científicos e publicações
relevantes sobre o tema da responsabilidade civil por danos causados por inte-
ligência artificial. Essa revisão será fundamental para obter uma compreensão
aprofundada dos conceitos, teorias e debates existentes nessa área.
Além disso, serão examinados casos reais em que danos foram causados
por sistemas de inteligência artificial. Essa análise permitirá identificar as ques-
tões jurídicas e éticas envolvidas, os diferentes tipos de responsabilidade que
podem ser atribuídos e as decisões judiciais proferidas em cada caso. A análise
de casos fornecerá exemplos concretos e contribuirá para a compreensão das
lacunas e desafios da responsabilidade civil no contexto da IA.
Serão estudados casos emblemáticos que tratam da responsabilidade
civil por danos causados por inteligência artificial. Esses estudos de caso
permitirão uma compreensão mais aprofundada das diferentes abordagens
adotadas e das consequências práticas das decisões judiciais nesses casos e
com base nos resultados da revisão bibliográfica, análise de casos, comparação
de legislações e estudo de casos estrangeiros e brasileiros. Será realizada uma
análise crítica dos fundamentos teóricos e legais da responsabilidade civil
por danos causados por inteligência artificial. Serão identificadas as lacunas
jurídicas existentes, os desafios enfrentados na atribuição de responsabilidade
e as possíveis soluções e recomendações para uma abordagem adequada da
responsabilidade civil nesse contexto.
Com base na análise crítica, serão propostas recomendações e diretrizes
para uma abordagem adequada da responsabilidade civil por danos causados
por inteligência artificial. Essas propostas visarão preencher as lacunas jurídicas
identificadas, promover a justiça na atribuição de responsabilidade e garantir
a proteção dos direitos das vítimas.
E levando em consideração os resultados obtidos ao longo da pesquisa,
serão apresentadas as conclusões finais, que sintetizarão os principais pontos
discutidos e contribuições da pesquisa para o campo da responsabilidade civil
por danos causados por inteligência artificial.
A utilização dessas metodologias, incluindo revisão bibliográfica,
análise de casos, comparação de legislações e estudo de casos estrangeiros e
brasileiros, permitirão uma abordagem abrangente e fundamentada sobre o
Revista Brasileira de Direito Comercial Nº 57 – Fev-Mar/2024 – Doutrina
144

tema da responsabilidade civil por danos causados por inteligência artificial.


A análise crítica e a proposição de recomendações contribuirão para o debate
acadêmico e jurídico nessa área que está em constante evolução.

1. Fundamentação teórica
A responsabilidade civil por danos causados por inteligência artificial
(IA) é um campo em constante evolução e ainda não está completamente
estabelecido em termos de fundamentos teóricos e legislação uniforme em
nível global. No entanto, existem algumas diretrizes e princípios gerais que
podem ser considerados.
O primeiro deles é a culpa, pois o responsável é aquele que agiu de
forma negligente, imprudente ou intencionalmente para causar o dano. No
contexto da IA, pode ser desafiador atribuir culpa direta a um sistema au-
tomatizado. Outro a ser indicado é a responsabilidade objetiva que implica
que o responsável pelo uso da IA é estritamente responsável pelos danos
causados, independentemente de culpa. Nesse caso, o foco é na atividade ou
risco criado pela IA.
Além disso, verifica-se como informação a ser considerada o risco e
benefício, uma vez que a análise de risco e benefício pode ser aplicada para
determinar a responsabilidade. Isso significa que o responsável pelo desen-
volvimento, produção ou uso da IA pode ser responsabilizado se os benefícios
esperados não justificarem os riscos e danos causados e, outrossim, a legislação
específica sobre a responsabilidade civil por danos causados por IA varia em
diferentes países e regiões.
Alguns países têm, inclusive, adotado abordagens mais abrangentes,
enquanto outros estão em processo de desenvolvimento de regulamentações
específicas. Algumas dessas iniciativas e leis relevantes são o Regulamento
Geral de Proteção de Dados (RGPD) da União Europeia, que, embora não
trate especificamente da responsabilidade civil da IA, o RGPD aborda a pro-
teção de dados pessoais, incluindo a necessidade de transparência e prestação
de contas no processamento de dados automatizado.
Outro é a Diretriz da Comissão Europeia, que, em abril de 2021, propôs
uma nova legislação para regular a IA, conhecida como Regulamento sobre
IA. Essa proposta inclui disposições relacionadas à responsabilidade civil,
exigindo que os sistemas de IA tenham medidas adequadas para minimizar
riscos e que os provedores de IA sejam responsáveis pelos danos causados
por suas tecnologias.
A RESPONSABILIDADE CIVIL POR DANOS CAUSADOS POR INTELIGÊNCIA ARTIFICIAL
145

Nos Estados Unidos da América (EUA), contudo, não há uma legislação


específica sobre a responsabilidade civil da IA, mas os casos de danos causados
por IA são tratados no âmbito do sistema legal existente, como o direito de
responsabilidade civil com base em teorias como negligência, responsabilidade
de produtos e outras. Além desses, outros países, como o Canadá e a Índia,
estão explorando a criação de legislações específicas para a responsabilidade
da IA e tantos outros podem seguir com iniciativas similares à medida que o
campo evolui.
É importante observar que a legislação e a abordagem à responsabilidade
civil por danos causados por IA estão em desenvolvimento, e é provável que
haja mudanças significativas nos próximos anos à medida que os governos e
as organizações buscam encontrar um equilíbrio entre a inovação tecnológica
e a proteção dos direitos e interesses dos indivíduos afetados.

1.1. Definição de inteligência artificial


A inteligência artificial (IA) é um campo da ciência da computação que
se dedica ao desenvolvimento de sistemas e programas capazes de realizar ta-
refas que normalmente exigiriam inteligência humana. Essas tarefas incluem
o reconhecimento de padrões, aprendizado de máquina, processamento de
linguagem natural, tomada de decisões, resolução de problemas complexos e
muitas outras. A IA busca replicar e automatizar processos cognitivos huma-
nos, permitindo que as máquinas ajam de forma autônoma e inteligente em
uma variedade de domínios, desde assistentes virtuais até carros autônomos
e diagnósticos médicos avançados (Russell; Norvig, 2020).
Nessa perspectiva, afirmam Russell e Norvig (2010) que a inteligência
artificial (IA) pode ser definida como “o estudo e projeto de agentes inte-
ligentes”, em que um agente inteligente é definido como um sistema que
percebe seu ambiente e age de forma a maximizar suas chances de sucesso
em alcançar um objetivo.
Nessa perspectiva, pode-se afirmar que a IA refere-se à capacidade
de uma máquina ou sistema computacional de imitar, replicar ou simular a
inteligência humana para realizar tarefas específicas ou até criar sistemas que
possam aprender, raciocinar, perceber, compreender, tomar decisões e resolver
problemas de forma autônoma.
Essas tarefas podem incluir reconhecimento de padrões, processamento
de linguagem natural, tomada de decisões, resolução de problemas comple-
xos, visão computacional, aprendizado de máquina, entre outras. Por sua vez,
existem diferentes abordagens e técnicas utilizadas na inteligência artificial,
Revista Brasileira de Direito Comercial Nº 57 – Fev-Mar/2024 – Doutrina
146

incluindo o aprendizado de máquina, o qual consiste em treinar algoritmos


e modelos de computador para aprender padrões a partir de dados e tomar
decisões ou fazer previsões com base nesses padrões.
O processamento de linguagem natural, que envolve o desenvolvimento
de sistemas capazes de entender, interpretar e responder a comandos ou infor-
mações em linguagem humana, tanto falada quanto escrita. E, ainda, a visão
computacional que é a capacidade de um sistema compreender e interpretar
imagens e vídeos, permitindo que máquinas “vejam” e reconheçam objetos,
rostos, gestos, entre outros elementos visuais.
Por fim, verificam-se também sistemas especialistas que baseados em
regras e conhecimentos específicos de um domínio particular. Esses sistemas
são programados para simular a expertise humana em um determinado campo,
como medicina, direito, finanças, etc.
Assim sendo, percebe-se que a inteligência artificial tem um papel
cada vez mais relevante em diversas áreas da sociedade, incluindo medicina,
indústria, transporte, educação, entretenimento e muitas outras. Seu objetivo
principal é aumentar a eficiência, a precisão e a automação de tarefas, além
de proporcionar soluções inovadoras e avanços tecnológicos significativos.

1.2. Principais aplicações, desafios éticos e jurídicos e impactos da


inteligência artificial na sociedade
A inteligência artificial (IA) tem uma ampla gama de aplicações em
diferentes setores e áreas da sociedade, como a assistência virtual e chatbots, a
exemplo da Siri da Apple, o Google Assistant e a Alexa da Amazon, os quais
utilizam a IA para entender comandos de voz, responder perguntas e executar
tarefas, como fazer reservas, fornecer informações e controlar dispositivos
domésticos. Chatbots também são amplamente usados em sites e aplicativos
para fornecer suporte ao cliente e interagir com os usuários de forma eficiente.
Além disso, tem-se a análise de dados e aprendizado de máquina por
meio da qual se usa a inteligência artificial para analisar grandes volumes de
dados e identificar padrões, insights e tendências que podem ser usados para
tomar decisões informadas. O aprendizado de máquina é uma subárea da
IA que permite que os sistemas aprendam a partir dos dados e melhorem
seu desempenho com o tempo, tornando-se mais precisos em previsões e
recomendações.
Outras aplicações são no reconhecimento de fala e processamento de
linguagem natural, pois é usada para reconhecer e interpretar a fala humana,
A RESPONSABILIDADE CIVIL POR DANOS CAUSADOS POR INTELIGÊNCIA ARTIFICIAL
147

permitindo que os sistemas compreendam comandos de voz, transcrevam


áudio em texto e traduzam idiomas. Além disso, o processamento de lin-
guagem natural é usado para entender e gerar texto de maneira inteligente,
possibilitando chatbots avançados, sistemas de tradução automática e análise
de sentimentos em redes sociais, por exemplo.
Indica-se ainda nesse contexto a visão computacional que é aplicada
para permitir que as máquinas “vejam” e compreendam imagens e vídeos.
Isso inclui o reconhecimento facial, detecção de objetos, segmentação de
imagens, análise de sentimentos em expressões faciais, entre outros. A visão
computacional tem aplicações, então, em segurança, diagnóstico médico,
veículos autônomos, monitoramento de câmeras e muito mais.
Por sua vez, aplicações como em veículos autônomos, como carros
autônomos e drones, por meios do quais se permitem que esses veículos
interpretem o ambiente, tomem decisões em tempo real, evitem colisões e
se adaptem a diferentes condições de tráfego e, outrossim, na saúde e medi-
cina, pois é usada em diagnóstico médico, detecção de doenças,1 pesquisa de
medicamentos, monitoramento de pacientes e análise de imagens médicas.
Os algoritmos de IA podem, inclusive, analisar grandes quantidades de dados
médicos e fornecer insights valiosos para auxiliar médicos e profissionais de
saúde.
Essas são apenas algumas das muitas aplicações da inteligência artificial.
A IA está presente em praticamente todos os setores, desde finanças e varejo
até agricultura e educação, e continua a evoluir e transformar a maneira como
se vive e trabalha.
Ocorre que, apesar de toda essa tecnologia e inovação, a inteligência
artificial enfrenta vários desafios que precisam ser superados para maximizar
seu potencial e mitigar possíveis consequências negativas, dentre eles pode-se
citar a ética e responsabilidade, as quais levantam questões éticas importantes,
como a responsabilidade por decisões tomadas por sistemas autônomos. É
necessário, então, definir padrões éticos para o desenvolvimento e uso da IA,
garantindo a transparência, a imparcialidade e a proteção dos direitos humanos.
Ademais, o viés e a discriminação são temas relevantes, haja vista que
os algoritmos de IA podem reproduzir e amplificar preconceitos existentes,
resultando em decisões discriminatórias e injustas. É fundamental, portanto,

1 CORREIO BRASILIENSE. ChatGPT detecta doença rara em criança após ela passar por 17 médicos. 15 set. 2023. Disponível
em: https://www.em.com.br/app/noticia/saude-e-bem-viver/2023/09/15/interna_bem_viver,1561978/chatgpt-detecta-
doenca-rara-em-crianca-apos-ela-passar-por-17-medicos.shtml. Acesso em: 20 set. 2023.
Revista Brasileira de Direito Comercial Nº 57 – Fev-Mar/2024 – Doutrina
148

garantir que os sistemas de IA sejam treinados em conjuntos de dados repre-


sentativos e que sejam implementadas medidas para mitigar o viés algorítmico.
Desafio, ainda, é a transparência e interpretabilidade, isso porque muitos
dos sistemas de IA, como redes neurais profundas, são considerados “caixas
pretas” devido à sua complexidade. Compreender como esses sistemas chegam
a suas decisões pode ser desafiador. Tornar os algoritmos de IA mais transpa-
rentes e interpretáveis é crucial para garantir a confiança e a prestação de contas.
A inteligência artificial gira em torno também a privacidade e a segu-
rança, pois lida com grandes quantidades de dados pessoais e sensíveis. Assim
sendo, é necessário garantir que a privacidade dos dados seja protegida e que
medidas de segurança sejam implementadas para evitar o acesso não autorizado
e o mau uso das informações.
Outros cuidados a serem considerados são a desigualdade e a exclusão,
pois a adoção e o acesso à IA podem criar uma divisão entre aqueles que têm
recursos e capacidades para aproveitar os benefícios da tecnologia e aqueles
que não têm, por isso é importante garantir que a IA seja acessível a todos
e que não perpetue a desigualdade social; além de emprego e mudança no
mercado de trabalho, pois a automação impulsionada pela IA pode resultar
na substituição de empregos por máquinas. É necessário repensar o mercado
de trabalho, fornecer treinamento e desenvolvimento de habilidades para
assegurar que as pessoas possam se adaptar às mudanças e encontrar novas
oportunidades de emprego.
Por fim, ainda se ressalta o desafio da regulamentação e políticas, pois a
rápida evolução da IA requer um quadro regulatório adequado para garantir a
segurança, a ética e o uso responsável da tecnologia. É necessário desenvolver
políticas que incentivem a inovação, ao mesmo tempo em que protegem os
direitos e interesses das pessoas.
Verifica-se, então, que esses desafios exigem uma abordagem multi-
disciplinar, envolvendo especialistas em tecnologia, ética, direito, política e
sociedade. O desenvolvimento da IA deve ser conduzido de forma respon-
sável, considerando cuidadosamente as implicações éticas, sociais e legais, a
fim de garantir que os benefícios sejam amplamente distribuídos e que os
riscos sejam minimizados.

2. Responsabilidade civil por danos causados por inteligência artificial


A responsabilidade civil por danos causados por Inteligência Artificial
(IA) é um tema atual, complexo e em constante evolução. Existem diferentes
A RESPONSABILIDADE CIVIL POR DANOS CAUSADOS POR INTELIGÊNCIA ARTIFICIAL
149

teorias que podem ser aplicadas para determinar quem é responsável pelos
danos causados por uma IA e dentre elas pode-se citar a teoria da responsa-
bilidade objetiva, a qual estabelece que a responsabilidade pelo dano causado
por uma IA deve ser atribuída ao proprietário ou ao controlador da IA, inde-
pendentemente de terem agido com negligência ou não, ou seja, mesmo que
não haja dolo ou culpa, pois a IA é um produto que deve ser seguro. Em outras
palavras, o proprietário ou o controlador é responsável pelos danos causados
pela IA, mesmo que não tenha sido culpa deles. Essa teoria é comumente
utilizada em casos envolvendo produtos defeituosos.
Defendendo essa teoria, Crespo (2019) afirma que “a responsabilidade
objetiva se apresenta como a forma mais adequada para disciplinar a respon-
sabilidade pelos danos causados pelas IAs”. Nessa perspectiva, segundo Diniz
(2020, p. 376), “a responsabilidade objetiva tem como fundamento a teoria
do risco, que prescinde da existência de culpa ou dolo do agente causador
do dano”.
Por sua vez, a teoria da responsabilidade subjetiva institui que a respon-
sabilidade pelo dano causado por uma IA deve ser atribuída ao proprietário,
desenvolvedor, usuário ou ao controlador apenas se eles agiram com negligên-
cia ou imprudência. Em outras palavras, o proprietário ou o controlador só é
responsável pelos danos causados pela IA se eles não tomaram as precauções
necessárias para evitar o dano.
A teoria acima mencionada é defendida por outros autores, como
Fernanda Tartuce (2019, p. 234), que afirma que “a responsabilidade pelo
dano causado por uma IA deverá ser subjetiva, considerando-se a culpa do
proprietário ou do controlador da IA”. Ainda nessa linha, afirma Tartuce
(2020, p. 611), “a responsabilidade pelo dano causado pela IA será sempre
subjetiva, decorrente de culpa ou dolo do agente humano que a manuseou
ou dela se utilizou”.
Ainda é relevante citar a teoria da responsabilidade conjunta e solidária,
também denominada de mista, a qual informa que a responsabilidade pelo
dano causado por uma IA deve ser compartilhada entre o proprietário, o de-
senvolvedor ou controlador da IA e os usuários que a manuseiam. Essa teoria é
comumente aplicada em casos em que a IA foi projetada para funcionar de uma
determinada maneira, mas falhou em fazê-lo corretamente. Defendida por
Pablo Jiménez Serrano (2021), ele afirma que “a responsabilidade pelos danos
causados pela IA deve ser compartilhada entre o proprietário ou controlador
e a própria IA, uma vez que ambos contribuíram para a ocorrência do dano”.
Revista Brasileira de Direito Comercial Nº 57 – Fev-Mar/2024 – Doutrina
150

De acordo com a doutrina de Stoco (2020, p. 678), “a responsabilidade


pelo uso da IA pode ser atribuída a ambos: aos seus desenvolvedores, no que
se refere à produção e ao aperfeiçoamento técnico, e aos seus usuários, no
que se refere à aplicação prática”.
Indica-se, também, a teoria da responsabilidade estrita, a qual estabelece
que a responsabilidade pelo dano causado por uma IA deve ser atribuída ao
proprietário ou controlador da IA apenas se eles tiverem total controle sobre a
IA e implica que uma parte é responsável por danos causados, independente-
mente de qualquer culpa ou negligência. Isso significa que, em determinadas
situações, a responsabilidade é imposta automaticamente, sem a necessidade
de provar que a parte agiu de maneira imprudente ou negligente. Em outras
palavras, o proprietário ou controlador só é responsável pelos danos causados
pela IA se puderem controlar totalmente o comportamento da IA.
José A. R. L. González argumenta que a responsabilidade pela IA deve
ser estrita, levando em consideração o grau de controle exercido sobre a IA.
Isso significa que, mesmo que o operador da IA não tenha agido de forma
imprudente, ele ainda pode ser responsabilizado pelos danos causados pela
IA sob sua supervisão, uma vez que ele tem controle sobre a IA.
Essa abordagem pode ser considerada justa em muitos casos envolvendo
IA, uma vez que a natureza autônoma e, em alguns casos, imprevisível da
IA torna difícil atribuir culpa ao operador. No entanto, essa teoria também
levanta questões sobre como determinar o grau de controle necessário para
impor responsabilidade estrita, bem como sobre como definir os limites dessa
responsabilidade.
Vale destacar, também, que a discussão sobre a responsabilidade civil
por danos causados por IA ainda está em desenvolvimento, e a jurisprudência
e doutrina estão em constante evolução. Cada teoria apresenta suas vantagens
e desvantagens, e a escolha da teoria aplicável dependerá das circunstâncias
de cada caso.
Numa outra perspectiva, salienta-se que a responsabilidade civil por
danos causados por Inteligência Artificial (IA) é um tema relativamente novo
e ainda não existe uma legislação específica sobre o assunto em muitos países.
No entanto, existem fundamentos jurídicos que podem ser aplicados para
determinar a responsabilidade por danos causados por uma IA.
Alguns dos fundamentos jurídicos mais comuns que se pode aplicar
é a responsabilidade civil por danos, a qual estabelece que uma pessoa ou
entidade pode ser responsabilizada por danos causados a outra pessoa ou en-
A RESPONSABILIDADE CIVIL POR DANOS CAUSADOS POR INTELIGÊNCIA ARTIFICIAL
151

tidade. Essa responsabilidade pode ser baseada em negligência, imprudência,


violação de um dever legal ou contratual ou outras condutas que possam ser
consideradas inadequadas. Essas leis podem ser aplicadas para determinar a
responsabilidade por danos causados por uma IA.
Outro é a responsabilidade do fabricante, pois leis de responsabilidade
do fabricante estabelecem que o fabricante de um produto pode ser respon-
sabilizado pelos danos causados pelo produto. Essa responsabilidade pode ser
baseada em defeitos de fabricação, defeitos de projeto ou falta de advertências
adequadas sobre o uso do produto. Essas leis podem ser aplicadas para deter-
minar a responsabilidade por danos causados por uma IA, especialmente se
a IA for considerada um produto.
Além disso, pode-se ter a responsabilidade do prestador de serviços,
pois as leis estabelecem que os prestadores de serviços podem ser responsabi-
lizados por danos causados por seus serviços. Essa responsabilidade pode ser
baseada em negligência, violação de um dever contratual ou outras condutas
inadequadas. Essas leis podem ser aplicadas para determinar a responsabilidade
por danos causados por serviços que envolvam o uso de IA.
Ainda, tem-se, por fim, a responsabilidade objetiva, a qual estabelece
que uma pessoa ou entidade pode ser responsabilizada pelos danos causados,
independentemente de terem agido com negligência ou imprudência. Essa
responsabilidade pode ser aplicada em casos envolvendo produtos defeituo-
sos ou outras circunstâncias especiais. A responsabilidade objetiva pode ser
aplicada para determinar a responsabilidade por danos causados por uma IA.
É importante notar que esses fundamentos jurídicos podem variar entre
diferentes jurisdições e podem ser aplicados de maneira diferente dependendo
do caso em questão. A responsabilidade civil por danos causados por IA é um
campo em constante evolução e, à medida que a tecnologia avança, é provável
que novos fundamentos jurídicos surjam.
A responsabilidade civil por danos causados por Inteligência Artificial
(IA) encontra fundamentos jurídicos em diversos dispositivos legais, como o
Código Civil brasileiro, em seu artigo 927, estabelece a responsabilidade civil
objetiva, nos casos em que houver atividade que, por sua natureza, implique
risco para os direitos de outrem. Seria “a responsabilidade civil decorrente
da atividade com IA pode ser objetiva, pois a atividade apresenta risco para os
direitos de terceiros” (Tartuce, 2020, p. 609).
O Código de Defesa do Consumidor (CDC), em seu artigo 12, es-
tabelece a responsabilidade objetiva do fabricante, produtor, construtor ou
Revista Brasileira de Direito Comercial Nº 57 – Fev-Mar/2024 – Doutrina
152

importador de produtos defeituosos, incluindo a IA. Assim, “o CDC pode


ser aplicado aos casos de responsabilidade civil por danos causados pela IA,
pois esta é um produto que pode ser comercializado” (Diniz, 2020, p. 376).
A Lei Geral de Proteção de Dados Pessoais (LGPD), em seu artigo 46,
estabelece que os controladores e operadores de dados pessoais respondem
objetivamente pelos danos causados em virtude do tratamento de dados. A
“LGPD pode ser aplicada aos casos de responsabilidade civil por danos cau-
sados pela IA, pois esta é uma tecnologia que pode processar dados pessoais”
(Stoco, 2020, p. 678).
Além disso, a responsabilidade civil por danos causados por IA também
encontra fundamento em princípios como o da dignidade da pessoa huma-
na, da precaução, da segurança jurídica e da eficiência. Ainda há muito a ser
debatido e construído na esfera jurídica em relação à responsabilidade civil
por danos causados por IA, mas é importante que a questão seja tratada com
seriedade e atenção pelos legisladores, tribunais e doutrinadores.

2.1. O princípio da precaução na concepção de IA


O princípio da precaução é um conceito importante que pode ser
aplicado na concepção e no desenvolvimento da inteligência artificial (IA).
Ele sugere que, diante da incerteza sobre os possíveis impactos negativos da
IA, devem ser adotadas medidas preventivas para evitar ou minimizar danos
potenciais.
Na IA, o princípio da precaução implica que os desenvolvedores e pes-
quisadores devem levar em consideração possíveis riscos, vieses, consequências
indesejadas e impactos éticos antes de lançar sistemas de IA no mercado ou
usá-los em ambientes críticos. Isso envolve a identificação e avaliação de riscos
potenciais, a implementação de salvaguardas técnicas e éticas e a adoção de
abordagens responsáveis para treinamento, validação e operação dos sistemas
de IA.
Ao aplicar o princípio da precaução na concepção de IA, os desen-
volvedores devem identificar e avaliar os possíveis riscos associados à IA,
considerando aspectos como privacidade, segurança, vieses, discriminação,
impacto social e potencial de danos; tornar os sistemas de IA transparentes,
compreensíveis e auditáveis, permitindo uma melhor compreensão de como
eles funcionam e quais decisões são tomadas; e, ainda, desenvolver salvaguar-
das técnicas para proteger a segurança dos dados e garantir a privacidade das
informações pessoais envolvidas no uso da IA.
A RESPONSABILIDADE CIVIL POR DANOS CAUSADOS POR INTELIGÊNCIA ARTIFICIAL
153

Além disso, eles devem realizar auditorias regulares e monitorar o


desempenho dos sistemas de IA para identificar possíveis problemas ou
consequências não intencionais e refletir sobre as implicações éticas e sociais
da IA, levando em consideração valores como equidade, justiça, transparência
e responsabilidade.
Ao adotar o princípio da precaução, os desenvolvedores e pesquisadores
de IA buscam mitigar riscos e maximizar os benefícios, promovendo uma abor-
dagem responsável e ética na concepção e uso da inteligência artificial, o que
“implica em adotar medidas preventivas diante da incerteza sobre os possíveis
impactos negativos, levando em consideração riscos, vieses e consequências
indesejadas” (Bostrom; Cirkovic, 2019, p. 250).
Os desenvolvedores e pesquisadores de IA devem considerar os riscos
potenciais, implementar salvaguardas técnicas e éticas e adotar abordagens
responsáveis para garantir a segurança, transparência e minimização de danos
dos sistemas de IA (Bostrom; Cirkovic, 2019).

3. Desafios na atribuição de culpa e determinação de responsabilidade


A atribuição de culpa e a determinação de responsabilidade são ques-
tões complexas e podem apresentar vários desafios, como prova de culpa.
Determinar a culpa requer evidências substanciais que demonstrem o vínculo
entre a ação ou omissão de um indivíduo e o dano resultante. Nem sempre é
fácil obter provas claras e conclusivas para estabelecer uma ligação direta de
causalidade. Isso pode ser especialmente desafiador em situações complexas,
em que múltiplos fatores podem ter contribuído para o resultado.
A falta de testemunhas oculares ou de evidências físicas pode dificultar
a atribuição de culpa. Em alguns casos, as únicas informações disponíveis po-
dem ser relatos conflitantes ou circunstanciais, o que torna difícil determinar
com certeza quem é o responsável.
Em muitos casos, a atribuição de culpa não é uma questão de uma única
pessoa ou entidade ser exclusivamente responsável. Pode haver várias partes
envolvidas, cada uma contribuindo para o resultado indesejado. Determinar
a proporção de responsabilidade de cada parte pode ser complexo e requer
uma análise cuidadosa das circunstâncias e das ações individuais.
Em casos legais, a determinação da responsabilidade pode ser compli-
cada pela complexidade das leis e regulamentos que regem uma determinada
situação. Interpretações legais diferentes e nuances nas leis podem levar a
disputas sobre quem é realmente responsável por um dano.
Revista Brasileira de Direito Comercial Nº 57 – Fev-Mar/2024 – Doutrina
154

Em alguns casos, fatores externos além do controle das partes envolvidas


podem desempenhar um papel significativo no resultado. Eventos imprevi-
síveis, forças naturais ou problemas sistêmicos podem influenciar os eventos
de tal forma que é difícil atribuir culpa a um indivíduo ou grupo específico.
A atribuição de culpa também pode ser afetada por viés e subjetividade.
As opiniões pessoais, as percepções e as influências sociais podem levar a julga-
mentos enviesados ou injustos. É importante abordar essas questões e garantir
que a atribuição de culpa seja baseada em fatos objetivos e imparcialidade.
Lidar com esses desafios requer um processo justo, objetivo e baseado
em evidências. É essencial que as partes envolvidas tenham a oportunidade de
apresentar suas perspectivas e evidências e que haja um sistema legal adequado
para garantir uma determinação justa de responsabilidade.

3.1. Implicações da responsabilidade civil em sistemas autônomos e


IA avançada
A responsabilidade civil em sistemas autônomos e inteligência artificial
avançada apresenta implicações significativas devido à natureza autônoma e
complexa dessas tecnologias.
Sistemas autônomos e inteligência artificial avançada podem operar de
forma independente, tomando decisões e realizando ações sem a intervenção
humana direta. Isso levanta a questão de quem é responsável por quaisquer
danos ou consequências negativas causadas por esses sistemas. A atribuição
de culpa pode ser complexa, pois não é fácil determinar a responsabilidade
entre os desenvolvedores, operadores, proprietários do sistema ou até mesmo
a própria inteligência artificial.
A responsabilidade civil em sistemas autônomos e inteligência artificial
avançada requer regulamentações e marcos legais adequados para garantir a
proteção dos direitos dos indivíduos e abordar as consequências negativas
potenciais. A legislação precisa evoluir para lidar com as especificidades dessas
tecnologias e fornecer diretrizes claras sobre responsabilidade e prestação de
contas.
Os sistemas autônomos e inteligência artificial avançada podem ser afe-
tados por viés e discriminação algorítmica, especialmente se os dados utilizados
no treinamento desses sistemas forem enviesados ou refletirem preconceitos
sociais existentes. Isso pode levar a decisões injustas ou discriminatórias, o
que exige a consideração da responsabilidade quando a IA contribui para
resultados indesejáveis.
A RESPONSABILIDADE CIVIL POR DANOS CAUSADOS POR INTELIGÊNCIA ARTIFICIAL
155

A responsabilidade em sistemas autônomos e inteligência artificial


avançada também está relacionada à transparência e explicabilidade dessas
tecnologias. Os sistemas autônomos podem tomar decisões complexas e
difíceis de entender, o que pode dificultar a atribuição de responsabilidade
quando ocorrem erros ou danos. A transparência e a capacidade de explicar
o raciocínio e as decisões dos sistemas de IA são fundamentais para a respon-
sabilização adequada.
A responsabilidade civil em sistemas autônomos e inteligência artificial
avançada também levanta questões éticas. Por exemplo, em situações em que
a escolha de um sistema autônomo pode resultar em danos a um grupo de
pessoas em detrimento de outro, quem deve ser responsabilizado? Os dilemas
éticos complexos surgem quando sistemas autônomos são confrontados com
decisões que podem envolver a ponderação de vidas humanas ou o cumpri-
mento de diferentes objetivos.
À medida que a tecnologia avança, as normas e os padrões de respon-
sabilidade civil também precisam evoluir. É necessário um diálogo contínuo
entre os especialistas em IA, desenvolvedores, legisladores, advogados e
outros stakeholders para estabelecer diretrizes claras sobre a responsabilidade
em sistemas autônomos e inteligência artificial avançada. Essas implicações
destacam a necessidade de uma abordagem multidisciplinar que envolva
especialistas em tecnologia.

4. Análise dos casos recentes de danos causados por IA e suas


implicações legais
Nos últimos anos, à vista da ocorrência de vários casos de geração de
danos, diversas questões têm sido levantadas sobre a responsabilidade e a
regulamentação da utilização de Inteligência Artificial (IA).
Dito isto, indica-se como primeiro caso o acidente que ocorreu como
um carro autônomo da Uber em março de 2018, quando este atropelou e
matou uma pedestre em Tempe, Arizona. O motorista de segurança não estava
prestando atenção na estrada, confiando na tecnologia do carro autônomo para
evitar colisões. A investigação subsequente descobriu que o sistema de IA do
carro não foi programado para reconhecer pedestres fora da faixa de pedestres.
O que levanta questões importantes sobre a responsabilidade legal por
danos causados por veículos autônomos, especialmente no contexto de tec-
nologias em constante evolução, como a IA, a qual deve ser atribuída a todas
Revista Brasileira de Direito Comercial Nº 57 – Fev-Mar/2024 – Doutrina
156

as partes envolvidas no desenvolvimento e operação do sistema, incluindo a


empresa de tecnologia, o fabricante do veículo e o motorista de segurança.
No caso referido a empresa foi responsabilizada pelo acidente e con-
cordou em pagar uma indenização à família da vítima. No entanto, a questão
da responsabilidade em casos de acidentes envolvendo veículos autônomos
ainda é objeto de debate jurídico e regulatório em muitos países, pois a falta
de regulamentação clara para veículos autônomos e a complexidade de sua
operação colocam desafios significativos para a responsabilização legal por
acidentes envolvendo esses veículos.
Por isso a necessidade de uma abordagem regulatória cuidadosa para
garantir a segurança pública e a responsabilidade legal no uso de veículos
autônomos.
Em 2018, a Amazon descobriu que seu sistema de IA para contratação
de funcionários estava sendo viesado em relação a candidatos do sexo femi-
nino. O sistema foi treinado com dados de contratação anteriores, que eram
predominantemente de homens, levando a uma preferência inconsciente
por candidatos do sexo masculino. Esses sistemas são baseados em dados que
podem estar saturados de preconceitos históricos e discriminação, podendo
levar a resultados injustos e perpetuar a desigualdade, o que pode ser resolvido
por meio da regulamentação e transparência.
Em 2019, a CEO de uma empresa britânica foi enganada por um dee-
pfake de voz que a fez transferir fundos para um hacker. O deepfake foi criado
com uma IA que imitava a voz do chief executive officer (CEO) e a enganou para
fazer a transferência. Já em 2020, o National Institute of Standards and Technology
(NIST) dos EUA descobriu que as tecnologias de reconhecimento facial eram
menos precisas na identificação de pessoas de cor do que de pessoas brancas.
Isso pode levar a falsas acusações criminais e preconceito.
Por isso, a importância de avaliar os sistemas de IA quanto a preconceitos
e garantir que os algoritmos sejam transparentes e responsáveis. Nesse caso, a
empresa decidiu interromper o uso do sistema de IA devido ao viés descoberto.
Essa decisão mostra que as empresas podem ser responsabilizadas pelos danos
causados por seus sistemas de IA e que a regulamentação adequada pode ser
necessária para garantir a equidade e a justiça no uso dessas tecnologias.
Esses casos destacam a importância de desenvolver e implementar polí-
ticas de segurança para a IA e de garantir que a tecnologia seja programada de
forma ética e imparcial e mostram a necessidade de uma abordagem cautelosa
e responsável no desenvolvimento e uso da IA, a qual “deve ser desenvolvida
A RESPONSABILIDADE CIVIL POR DANOS CAUSADOS POR INTELIGÊNCIA ARTIFICIAL
157

e utilizada de forma a garantir o bem-estar humano e a privacidade, além de


promover a igualdade e a justiça” (Calo, 2017). Ou seja, a IA deve ser desen-
volvida e utilizada de forma a garantir o bem-estar humano e a privacidade,
além de promover a igualdade e a justiça, e a regulamentação adequada é
essencial para atingir esses objetivos.
Há uma ampla discussão na doutrina sobre os riscos e impactos da
Inteligência Artificial, especialmente em relação aos danos que podem ser
causados por seu uso inadequado. A IA “é uma tecnologia transformadora,
mas também pode representar uma ameaça potencial ao bem-estar humano,
à privacidade e à igualdade” (Calo, 2017).
A questão da responsabilidade por danos causados por sistemas de IA é
complexa, pois envolve não apenas a empresa desenvolvedora do sistema, mas
também outras partes envolvidas, como fabricantes de hardware, provedores
de serviços de nuvem, usuários e terceiros afetados pelo sistema. Além disso,
a natureza “caixa preta” dos sistemas de IA pode tornar difícil determinar a
causa dos danos e responsabilizar as partes envolvidas.
Para lidar com essas questões, muitos países estão desenvolvendo leis e
regulamentações específicas para sistemas de IA, que abordam questões como
transparência, responsabilidade e ética no desenvolvimento e uso da tecnologia.
É importante que essas leis e regulamentações sejam cuidadosamente proje-
tadas e implementadas para garantir a segurança e a equidade no uso da IA.
A questão das implicações legais dos casos recentes de danos causados
por IA é objeto de intensa discussão na doutrina.

5. Propostas e recomendações para a responsabilidade civil por


danos causados por IA
Propostas e recomendações para a responsabilidade civil por danos
causados por IA têm sido objeto de discussão e esforços de diferentes partes
interessadas. Várias abordagens têm sido sugeridas para abordar os desafios
únicos apresentados pela responsabilidade por danos causados por sistemas
de inteligência artificial.
Uma proposta comum é atribuir a responsabilidade primária ao fa-
bricante do sistema de IA. Isso envolve estabelecer padrões de segurança e
qualidade para os sistemas de IA e responsabilizar os fabricantes por quaisquer
danos causados por falhas ou defeitos em seus produtos.
Revista Brasileira de Direito Comercial Nº 57 – Fev-Mar/2024 – Doutrina
158

Outra abordagem é adotar um regime de responsabilidade objetiva, no


qual os fabricantes são responsáveis pelos danos causados pelos sistemas de
IA, independentemente de culpa ou negligência. Isso pode facilitar o processo
de reparação para as vítimas, mas também pode gerar preocupações quanto à
responsabilidade desproporcional e ao impacto sobre a inovação.
Recomenda-se a criação de um regime de seguro obrigatório para co-
brir danos causados por sistemas de IA. Isso garantiria a disponibilidade de
recursos financeiros para compensar as vítimas e incentivar os fabricantes a
adotarem práticas de segurança e qualidade adequadas.
Sugere-se a instituição de um modelo de compartilhamento de respon-
sabilidade, envolvendo diferentes partes, como fabricantes, desenvolvedores,
usuários e proprietários dos sistemas de IA. Cada parte seria responsável por
danos relacionados à sua contribuição específica para o funcionamento do
sistema de IA.
Aconselha-se estabelecer mecanismos de monitoramento e auditoria
para garantir a conformidade dos sistemas de IA com padrões de segurança e
ética. Isso pode envolver a criação de agências reguladoras especializadas ou
aprimoramento dos órgãos reguladores existentes.
Propõe-se que os sistemas de IA sejam transparentes e explicáveis, de
modo que possam ser compreendidos e auditados. Isso ajudaria a determinar a
causa de possíveis danos e a atribuir responsabilidades de maneira mais precisa.
É importante ressaltar que essas propostas e recomendações ainda estão
em discussão e evolução e a implementação efetiva de um regime de respon-
sabilidade civil por danos causados por IA requer a colaboração e o envolvi-
mento de governos, especialistas em IA, indústria e sociedade como um todo.
Propostas e recomendações para a responsabilidade civil por danos cau-
sados por IA refletem a busca por soluções adequadas para os desafios éticos e
legais apresentados por essa tecnologia emergente, as quais buscam equilibrar
a proteção das vítimas e a promoção da inovação responsável.
Ademais, a revisão e atualização da legislação existente são consideradas
também medidas essenciais para lidar com os desafios trazidos pela inteligên-
cia artificial. A natureza disruptiva e em rápida evolução da IA requer uma
adaptação contínua das leis existentes para garantir uma governança eficaz e
abrangente. Algumas áreas em que a revisão e atualização da legislação podem
ser necessárias, pois a IA lida com uma grande quantidade de dados pessoais,
exigindo uma análise cuidadosa das leis de privacidade e proteção de dados
existentes. A legislação deve ser atualizada para garantir que as informações
A RESPONSABILIDADE CIVIL POR DANOS CAUSADOS POR INTELIGÊNCIA ARTIFICIAL
159

sejam coletadas, processadas e armazenadas de acordo com os padrões ade-


quados de privacidade e segurança.
A criação de marcos regulatórios específicos para a responsabilidade
civil da inteligência artificial (IA) tem sido cada vez mais discutida como uma
medida necessária para abordar os desafios legais e éticos apresentados por
essa tecnologia. Esses marcos regulatórios visam estabelecer diretrizes claras
e responsabilidades definidas para lidar com os danos causados por sistemas
de IA. Alguns pontos relevantes na criação desses marcos regulatórios devem
definir claramente quem é responsável por danos causados por sistemas de
IA. Isso pode envolver a atribuição de responsabilidade aos fabricantes, de-
senvolvedores, usuários ou proprietários dos sistemas, ou uma combinação
desses atores.
Ressalta-se, aqui, ainda que existem diversas propostas de incentivos
para promover a adoção de práticas responsáveis na criação e uso da inteli-
gência artificial (IA). Esses incentivos visam estimular tanto os fabricantes e
desenvolvedores de sistemas de IA quanto os usuários a adotarem abordagens
éticas e responsáveis. Alguns exemplos de incentivos incluem oferecer be-
nefícios fiscais, como redução de impostos ou créditos fiscais, para empresas
que adotam práticas responsáveis na criação e uso da IA. Isso pode estimular
a conformidade com diretrizes éticas e incentivar o investimento em pesquisa
e desenvolvimento de IA ética.
Além disso, é importante estabelecer programas de certificação e con-
ceder selos de qualidade para sistemas de IA que atendam a determinados
critérios éticos e responsáveis. Essas certificações podem servir como um
diferencial competitivo para as empresas e incentivar a adoção de práticas
responsáveis.
Promover premiações e reconhecimentos para organizações que se
destacam no desenvolvimento e implementação de práticas responsáveis na
IA também é importante. Isso pode aumentar a conscientização sobre a im-
portância da responsabilidade na IA e incentivar outras empresas a seguirem
o exemplo.
Disponibilizar fundos e investimentos específicos para projetos de IA
que adotem princípios éticos e responsáveis também pode facilitar o acesso
a recursos financeiros para esses projetos e impulsionar a inovação responsá-
vel. Outrossim, estabelecer parcerias entre governos, empresas e instituições
acadêmicas para promover a pesquisa e desenvolvimento de IA responsável
é imprescindível. Essas parcerias podem incluir colaborações em projetos de
Revista Brasileira de Direito Comercial Nº 57 – Fev-Mar/2024 – Doutrina
160

pesquisa, compartilhamento de conhecimentos e recursos e o estabelecimento


de diretrizes conjuntas.
Portanto, promover programas de conscientização e educação sobre os
princípios éticos e a responsabilidade na IA é importante, os quais podem ser
feitos por meio de campanhas de sensibilização, programas de treinamento e
capacitação e inclusão desses temas nos currículos educacionais.
É importante destacar que esses incentivos devem ser implementados
em conjunto com uma estrutura regulatória adequada, a fim de garantir que
as práticas responsáveis sejam seguidas de maneira efetiva e consistente. Além
disso, a colaboração entre governos, setor privado, academia e sociedade civil
é fundamental para promover a adoção generalizada de práticas responsáveis
na criação e uso da IA.
À medida que a inteligência artificial (IA) continua a desempenhar um
papel cada vez mais significativo em nossas vidas, é essencial adotar práticas
responsáveis em sua criação e uso. Isso requer a implementação de incentivos
eficazes que promovam a transparência, a ética e a segurança da IA.
Deve-se, então, agir com responsabilidade na criação e no uso da in-
teligência artificial. Corremos o risco de permitir que ela se torne uma força
destrutiva em vez de um avanço benéfico para a humanidade, pois é importante
estabelecer um conjunto de incentivos que promova o desenvolvimento ético
e responsável da IA. Isso pode incluir a criação de políticas governamentais
que incentivem a divulgação de algoritmos, garantam a proteção dos dados
pessoais e incentivem a colaboração entre organizações para abordar os desafios
éticos emergentes da IA.
Além disso, incentivos econômicos, como subsídios ou benefícios
fiscais, podem ser implementados para empresas que adotem práticas de IA
responsáveis, como a inclusão de avaliações de impacto ético em seus processos
de desenvolvimento de IA, a promoção da diversidade na equipe de criação
de IA e a realização de auditorias de segurança e privacidade regularmente.
O desenvolvimento, então, de leis e políticas claras e coerentes sobre
responsabilidade civil para IA deve ser uma prioridade. Essas leis devem abor-
dar, entre outras coisas, a responsabilidade dos fabricantes de IA, dos usuários
e dos proprietários de sistemas de IA, e a responsabilidade pelo uso indevido
ou ilegal de sistemas de IA. Quando possível, as leis devem ser harmonizadas
internacionalmente para evitar divergências e incompatibilidades prejudiciais
à inovação e ao comércio. As leis também devem prever o desenvolvimento
de normas técnicas para avaliar a segurança e a confiabilidade dos sistemas
A RESPONSABILIDADE CIVIL POR DANOS CAUSADOS POR INTELIGÊNCIA ARTIFICIAL
161

de IA, bem como a criação de programas de seguro e fundos de indenização


para ajudar a compensar as vítimas de danos causados por IA (Contreras,
2020, p. 293).

Conclusão
Em conclusão, a responsabilidade civil por danos causados por IA é
um tema complexo e desafiador que ainda precisa ser abordado de maneira
mais ampla e específica. Embora já existam algumas abordagens legais em
diferentes países e organizações internacionais, ainda há muito a ser feito para
garantir que a responsabilidade pelos danos causados por sistemas de IA seja
clara, justa e eficaz.
Para enfrentar esses desafios, é necessário um esforço conjunto de go-
vernos, empresas, profissionais de direito e especialistas em tecnologia para
desenvolver estruturas legais e regulatórias mais claras e específicas sobre a
responsabilidade por danos causados por IA. Além disso, é fundamental pro-
mover a transparência e a ética na criação e uso de sistemas de IA, bem como
o desenvolvimento de sistemas de IA responsáveis e seguros.
Os governos devem investir em programas de pesquisa e desenvol-
vimento que apoiem uma IA responsável e segura. Esses programas devem
incluir a criação de bancos de dados abertos de treinamento, que possam ser
usados para construir conjuntos de dados de IA de alta qualidade, éticos e cul-
turalmente sensíveis. Os governos também devem apoiar o desenvolvimento
de ferramentas de avaliação de risco, que possam ajudar a identificar e mitigar
os riscos associados à IA, e de tecnologias de segurança, que possam reduzir
a vulnerabilidade dos sistemas de IA a ataques cibernéticos e outras formas
de exploração (Cohen, 2020, p. 297).
Como aponta a doutrina especializada, a responsabilização por danos
causados por IA envolve a questão da causalidade, da divisão da responsabi-
lidade entre os diversos agentes envolvidos, da falta de regulamentação clara
e da dificuldade em lidar com casos que envolvem direitos humanos. Todos
esses desafios precisam ser enfrentados de maneira efetiva para garantir que
a responsabilidade por danos causados por IA seja justa e eficaz.
Por fim, é importante lembrar que a responsabilidade civil por danos
causados por IA é uma questão que continuará a evoluir à medida que a
tecnologia avança e novos casos surgem. Portanto, é necessário manter um
diálogo contínuo e colaborativo entre todos os envolvidos para garantir que as
soluções e abordagens legais acompanhem o ritmo das mudanças tecnológicas
Revista Brasileira de Direito Comercial Nº 57 – Fev-Mar/2024 – Doutrina
162

e garantam a proteção dos direitos e interesses das pessoas afetadas pelos danos
causados por sistemas de IA.
É necessário um esforço conjunto de governos, empresas, profissionais
de direito e especialistas em tecnologia para abordar os desafios complexos
que envolvem a responsabilidade por danos causados por sistemas de IA.
Como mencionado anteriormente, existem desafios significativos na
responsabilização por danos causados por IA, incluindo a dificuldade em deter-
minar a causa do dano, a divisão da responsabilidade entre os diversos agentes
envolvidos, a falta de regulamentação clara e específica e a dificuldade em lidar
com casos que envolvem direitos humanos. No entanto, a responsabilidade
civil por danos causados por IA é uma questão complexa, mas é essencial
abordá-la para garantir que os sistemas de IA sejam seguros e responsáveis.
Para enfrentar esses desafios, é necessário promover um diálogo
contínuo e colaborativo entre todos os envolvidos, a fim de desenvolver
soluções e abordagens legais e regulatórias mais claras e específicas sobre
a responsabilidade por danos causados por IA. Além disso, é fundamental
promover a transparência e a ética na criação e uso de sistemas de IA, bem
como o desenvolvimento de sistemas de IA responsáveis e seguros. Como
conclui Yeung (2018):
A responsabilidade civil por danos causados por IA é um desafio
significativo, mas não é insuperável. Precisa-se de um esforço
conjunto de governos, empresas, profissionais de direito e
especialistas em tecnologia para garantir que os sistemas de IA
sejam desenvolvidos e usados de maneira responsável e segura.

Com base na análise realizada, algumas recomendações para o futuro da


responsabilidade civil por danos causados por IA incluem o desenvolvimento
de regulamentações claras e específicas, a fim de fornecer orientações precisas
para as empresas e indivíduos que criam e usam sistemas de IA.
Além disso, é importante promover a transparência e a ética na criação
e uso de sistemas de IA, bem como o desenvolvimento de sistemas de IA
responsáveis e seguros e estabelecer mecanismos claros para determinação da
responsabilidade, incluindo a identificação dos diversos agentes envolvidos e
a divisão da responsabilidade entre eles.
Deve-se, ainda, efetivar o fortalecimento da capacidade jurídica para
lidar com casos de responsabilidade civil por danos causados por IA, forne-
cendo recursos e treinamento para os profissionais de direito que trabalham
nessa área, e desenvolver parcerias e diálogos entre múltiplos atores, com a
A RESPONSABILIDADE CIVIL POR DANOS CAUSADOS POR INTELIGÊNCIA ARTIFICIAL
163

promoção de diálogo e a colaboração entre governos, empresas, profissionais


de direito e especialistas em tecnologia para desenvolver soluções conjuntas
e abordagens mais eficazes para lidar com a responsabilidade civil por danos
causados por IA.
Ademais, investimentos em pesquisas e tecnologias para soluções
de responsabilidade civil é importante para ajudar a resolver os desafios da
responsabilidade civil por danos causados por IA, incluindo tecnologias de
prevenção de danos, sistemas de resolução alternativa de disputas e sistemas
de avaliação de riscos. Por fim, necessária é, ainda, a criação de programas de
seguro específicos para danos causados por IA, a fim de fornecer proteção
adequada para as empresas e os indivíduos envolvidos no desenvolvimento
e uso de sistemas de IA.
Ao implementar essas recomendações, pode-se criar um ambiente
mais seguro e responsável para a criação e uso de sistemas de IA, garantindo
a proteção adequada para aqueles que são afetados por danos causados por
esses sistemas.
Essas recomendações podem ajudar a garantir um ambiente mais seguro
e responsável para a criação e uso de sistemas de IA, fornecendo proteção ade-
quada para as pessoas que são afetadas por danos causados por esses sistemas.

TITLE: Civil liability for damages caused by artificial intelligence: a legal and ethical analysis

ABSTRACT: This article aims to analyze civil liability for damages caused by artificial intelligence (AI)
from a legal and ethical perspective. As AI technology advances, new challenges and legal questions arise
regarding the attribution of liability when harm is caused by AI systems. The study will address the main
theories and approaches to civil liability in this context, considering the responsibility of the developer,
operator and manufacturer. Additionally, the need for appropriate regulation and liability policies to address
the challenges presented by AI will be explored. The article will also seek to understand the ethical impli-
cations involved in liability for damages caused by AI, taking into account machine autonomy, automated
decision-making and social and individual impacts. To this end, laws, court cases and specialized literature
related to the topic will be analyzed. Finally, recommendations and proposals will be presented to improve
legal and ethical approaches to civil liability for harm caused by AI.

KEYWORDS: Artificial intelligence. Civil responsibility. Damage. AI challenges.

Referências
BOSTROM, N.; CIRKOVIC, M. M. Global catastrophic risks. Oxford: Oxford University Press, 2019.
BOYD, Danah. The responsibility of algorithms. Communications of the ACM, v. 59, n. 10, p. 56-62, 2016.
BRASIL. Lei nº 10.406, de 10 de janeiro de 2002. Institui o Código Civil. Brasília, DF: Presidência da
República, 2002. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/2002/l10406compilada.htm.
Acesso em: 20 jul. 2023.
Revista Brasileira de Direito Comercial Nº 57 – Fev-Mar/2024 – Doutrina
164

BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília,
DF: Presidência da República, 2018. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-
2018/2018/lei/l13709.htm. Acesso em: 20 jul. 2023.
BRYSON, J. Responsibility in AI and robotics: a requirements approach. Towards a Code of Ethics for Artificial
Intelligence, p. 59-74, Springer, 2018.
CALO, R. Artificial intelligence policy: a primer and roadmap. SSRN Electronic Journal, 2017.
CHEN, H. M. Who is liable when AI systems fail? Canadian policy approaches to artificial intelligence
and emerging technologies. Journal of Law and Technology, v. 28, n. 1, p. 47-71, 2019.
COHEN, Julie E. AI, ethics, and national security. Cambridge: The MIT Press, 2020.
CONTRERAS, Jorge L. B. The Cambridge handbook of new technologies and international relations. Cambridge:
Cambridge University Press, 2020.
CORREIO BRASILIENSE. ChatGPT detecta doença rara em criança após ela passar por 17 médicos. 15 set.
2023. Disponível em: https://www.em.com.br/app/noticia/saude-e-bem-viver/2023/09/15/interna_bem_vi-
ver,1561978/chatgpt-detecta-doenca-rara-em-crianca-apos-ela-passar-por-17-medicos.shtml. Acesso em:
20 set. 2023.
CRESPO, Marcelo. Responsabilidade civil da inteligência artificial. Revista de Direito e Tecnologia, n. 1, p.
105-120, 2019.
DINIZ, Maria Helena. Curso de direito civil brasileiro: responsabilidade civil. 33ª ed. São Paulo: Saraiva
Educação, 2020.
DONEDA, D. The impact of artificial intelligence on human rights: global challenges and responses.
Journal of Human Rights and the Environment, v. 11, n. 1, p. 30-47, 2020.
DUCATI, Guilherme; GONÇALVES, Marcelo. Inteligência artificial e responsabilidade civil: uma aná-
lise sob a ótica do Código Civil brasileiro. Revista de Direito Civil Contemporâneo, v. 13, p. 125-145, 2018.
FLORIDI, L. The logic of information: a theory of philosophy as conceptual design. Oxford: Oxford Uni-
versity Press, 2019.
GHIDINI, G. Artificial intelligence and liability: perspectives on the Italian and European legal systems.
Computer Law & Security Review, v. 36, p. 407-416, 2020.
GONZÁLEZ, José A. R. L. Responsabilidade por danos e inteligência artificial (IA). Revista de Direito Comercial,
2020. Disponível em: http://www.revistadedireitocomercial.com/responsabilidade-por-danos-e-inteligncia-
-artificial-ia. Acesso em: 23 set. 2023.
JIMÉNEZ SERRANO, Pablo. La responsabilidad civil por el uso de la inteligencia artificial. Revista de
Derecho, v. 36, p. 113-138, 2021.
LEMOS, Ronaldo. Inteligência artificial, políticas públicas e a proteção dos direitos humanos. Revista de
Direito, Tecnologia e Inovação, v. 5, n. 2, p. 131-142, 2019.
LIMA, Cíntia Rosa Pereira de. Responsabilidade civil por danos causados por inteligência artificial. Revista
Jus Navigandi, Teresina, ano 24, n. 5664, 15 mar. 2019.
MAGRANI, E. Responsabilidade civil por danos causados por sistemas de inteligência artificial: um olhar
sobre a jurisprudência internacional e nacional. Revista de Direito, Tecnologia e Inovação, v. 5, n. 1, p. 47-56, 2019.
MARTINS, Guilherme Magalhães. A responsabilidade civil da inteligência artificial no setor da saúde:
desafios e perspectivas. Revista de Direito Sanitário, v. 20, n. 2, p. 95-115, 2020.
MARTINS, Guilherme Magalhães. A responsabilidade civil da inteligência artificial: uma abordagem
jurídica. Revista de Direito, Tecnologia e Inovação, v. 6, n. 2, p. 37-50, 2020.
MARTY, F. Artificial intelligence and civil liability. Journal of International Affairs, v. 71, n. 1, p. 1-16, 2018.
MIRAGEM, Bruno. Inteligência artificial no setor financeiro: desafios e perspectivas. In: CONGRESSO
INTERNACIONAL DE DIREITO E TECNOLOGIA, 4., 2021. Anais [...]. São Paulo: Revista dos
Tribunais, 2021.
A RESPONSABILIDADE CIVIL POR DANOS CAUSADOS POR INTELIGÊNCIA ARTIFICIAL
165

RUSSELL, S. J.; NORVIG, P. Artificial intelligence: a modern approach. 3 ed. Upper Saddle River: Pearson
Education Limited, 2010.
SILVA, Paulo Eduardo Alves da. Responsabilidade civil por danos causados por inteligência artificial no
transporte. In: CONGRESSO INTERNACIONAL DE DIREITO E TECNOLOGIA, 1., 2019. Anais
[...]. São Paulo: Revista dos Tribunais, 2019.
SILVEIRA, Paulo Roberto Gonçalves. Responsabilidade civil dos robôs: o regime jurídico aplicável aos danos
causados por sistemas de inteligência artificial. São Paulo: Revista dos Tribunais, 2021.
STOCO, Rui. Tratado de responsabilidade civil. 9. ed. São Paulo: Revista dos Tribunais, 2020. v. 3.
TARTUCE, Fernanda. Responsabilidade civil por danos causados pela inteligência artificial: uma análise
à luz do Código Civil brasileiro. Revista Jurídica, v. 67, n. 499, p. 231-253, 2019.
TARTUCE, Flávio. Manual de direito civil: volume único. 9. ed. São Paulo: Método, 2020.
TEPEDINO, Gustavo. Responsabilidade civil por robôs e inteligência artificial. Revista de Direito do Con-
sumidor, v. 109, p. 33-52, 2017.
YEUNG, Karen. Governance by design: altered responsibilities for cyber security and artificial intelligence.
Ethics and Information Technology, v. 20, n. 1, p. 55-67, 2018.
YEUNG, Karen. The legal and ethical challenges of smart technologies. Routledge, 2018.
YU, H. Who should be liable for AI’s harm: comparison of law systems between China, United States and
European Union. Advances in Economics, Business and Management Research, v. 66, p. 71-75, 2019.

Recebido em: 07.02.2024


Aprovado em: 21.02.2024

Você também pode gostar