Escolar Documentos
Profissional Documentos
Cultura Documentos
RESUMO: Este artigo tem como objetivo analisar a responsabilidade civil por
danos causados por inteligência artificial (IA) sob uma perspectiva jurídica e
ética. Com o avanço da tecnologia da IA, surgem novos desafios e questões
legais sobre a atribuição de responsabilidade quando danos são causados por
sistemas de IA. O estudo abordará as principais teorias e abordagens sobre
a responsabilidade civil nesse contexto, considerando a responsabilidade do
desenvolvedor, operador e fabricante. Além disso, será explorada a necessidade
de regulamentação adequada e políticas de responsabilidade para lidar com os
desafios apresentados pela IA. O artigo buscará também compreender as impli-
cações éticas envolvidas na responsabilização por danos causados por IA, levando
em consideração a autonomia da máquina, a tomada de decisões automatizada e
os impactos sociais e individuais. Para tanto, serão analisadas leis, casos judiciais
e literatura especializada relacionada ao tema. Por fim, serão apresentadas reco-
mendações e propostas para aprimorar as abordagens legais e éticas em relação
à responsabilidade civil por danos causados por IA.
Introdução
A inteligência artificial (IA) tem trazido muitos benefícios para a socieda-
de, mas também apresenta riscos significativos. Entre os principais benefícios
e riscos da IA na sociedade, podem-se citar o aumento da eficiência, pois pode
ajudar a automatizar tarefas repetitivas e aumentar a eficiência em diversos
setores, como na indústria, no transporte e na saúde. Pode contribuir com a
melhora da precisão, pois a IA pode ajudar a identificar padrões e insights em
grandes conjuntos de dados, o que pode levar a diagnósticos mais precisos
e tratamentos personalizados na área de saúde, por exemplo, além da redu-
ção de custos, pois a automação de tarefas pode reduzir custos e melhorar
a produtividade em vários setores. A IA pode, inclusive, ajudar a acelerar o
progresso científico, permitindo análises mais rápidas e precisas de grandes
conjuntos de dados.
A inteligência artificial (IA) tem o potencial de trazer muitos benefícios
para a sociedade, como avanços na saúde, que pode ajudar a melhorar o diag-
nóstico e o tratamento de doenças, permitindo a análise de grandes conjuntos
de dados e a identificação de padrões e tendências que podem ser difíceis de
detectar manualmente. A IA também pode ser usada para ajudar na pesquisa
médica, facilitando a identificação de novas terapias e tratamentos.
A IA pode aumentar a eficiência e produtividade que pode ser usada
para automatizar tarefas e processos, aumentando a eficiência e reduzindo
custos, por exemplo. A IA pode ser usada para automatizar tarefas repetitivas
em empresas, permitindo que os funcionários se concentrem em tarefas mais
criativas e de alto valor.
Pode, ainda, ser usada ainda para detectar e prevenir ameaças à segu-
rança, como fraudes financeiras e atividades criminosas. Além disso, a IA
pode ser usada para melhorar a segurança física, por exemplo, monitorando
o tráfego de veículos em tempo real e detectando comportamentos perigo-
sos. Pode ainda ser usada para facilitar o acesso à informação e torná-la mais
acessível, por exemplo, a IA pode ser usada para traduzir automaticamente
conteúdo em diferentes idiomas, permitindo que as pessoas se comuniquem
e se conectem em todo o mundo.
Inclusive, pode ser usada para melhorar a mobilidade, permitindo que
os veículos sejam autônomos e inteligentes, o que pode levar à redução de
acidentes e congestionamentos e pode ser usada para personalizar produtos e
serviços de acordo com as necessidades e preferências dos usuários, permitindo
uma melhor experiência do cliente.
A RESPONSABILIDADE CIVIL POR DANOS CAUSADOS POR INTELIGÊNCIA ARTIFICIAL
141
1. Fundamentação teórica
A responsabilidade civil por danos causados por inteligência artificial
(IA) é um campo em constante evolução e ainda não está completamente
estabelecido em termos de fundamentos teóricos e legislação uniforme em
nível global. No entanto, existem algumas diretrizes e princípios gerais que
podem ser considerados.
O primeiro deles é a culpa, pois o responsável é aquele que agiu de
forma negligente, imprudente ou intencionalmente para causar o dano. No
contexto da IA, pode ser desafiador atribuir culpa direta a um sistema au-
tomatizado. Outro a ser indicado é a responsabilidade objetiva que implica
que o responsável pelo uso da IA é estritamente responsável pelos danos
causados, independentemente de culpa. Nesse caso, o foco é na atividade ou
risco criado pela IA.
Além disso, verifica-se como informação a ser considerada o risco e
benefício, uma vez que a análise de risco e benefício pode ser aplicada para
determinar a responsabilidade. Isso significa que o responsável pelo desen-
volvimento, produção ou uso da IA pode ser responsabilizado se os benefícios
esperados não justificarem os riscos e danos causados e, outrossim, a legislação
específica sobre a responsabilidade civil por danos causados por IA varia em
diferentes países e regiões.
Alguns países têm, inclusive, adotado abordagens mais abrangentes,
enquanto outros estão em processo de desenvolvimento de regulamentações
específicas. Algumas dessas iniciativas e leis relevantes são o Regulamento
Geral de Proteção de Dados (RGPD) da União Europeia, que, embora não
trate especificamente da responsabilidade civil da IA, o RGPD aborda a pro-
teção de dados pessoais, incluindo a necessidade de transparência e prestação
de contas no processamento de dados automatizado.
Outro é a Diretriz da Comissão Europeia, que, em abril de 2021, propôs
uma nova legislação para regular a IA, conhecida como Regulamento sobre
IA. Essa proposta inclui disposições relacionadas à responsabilidade civil,
exigindo que os sistemas de IA tenham medidas adequadas para minimizar
riscos e que os provedores de IA sejam responsáveis pelos danos causados
por suas tecnologias.
A RESPONSABILIDADE CIVIL POR DANOS CAUSADOS POR INTELIGÊNCIA ARTIFICIAL
145
1 CORREIO BRASILIENSE. ChatGPT detecta doença rara em criança após ela passar por 17 médicos. 15 set. 2023. Disponível
em: https://www.em.com.br/app/noticia/saude-e-bem-viver/2023/09/15/interna_bem_viver,1561978/chatgpt-detecta-
doenca-rara-em-crianca-apos-ela-passar-por-17-medicos.shtml. Acesso em: 20 set. 2023.
Revista Brasileira de Direito Comercial Nº 57 – Fev-Mar/2024 – Doutrina
148
teorias que podem ser aplicadas para determinar quem é responsável pelos
danos causados por uma IA e dentre elas pode-se citar a teoria da responsa-
bilidade objetiva, a qual estabelece que a responsabilidade pelo dano causado
por uma IA deve ser atribuída ao proprietário ou ao controlador da IA, inde-
pendentemente de terem agido com negligência ou não, ou seja, mesmo que
não haja dolo ou culpa, pois a IA é um produto que deve ser seguro. Em outras
palavras, o proprietário ou o controlador é responsável pelos danos causados
pela IA, mesmo que não tenha sido culpa deles. Essa teoria é comumente
utilizada em casos envolvendo produtos defeituosos.
Defendendo essa teoria, Crespo (2019) afirma que “a responsabilidade
objetiva se apresenta como a forma mais adequada para disciplinar a respon-
sabilidade pelos danos causados pelas IAs”. Nessa perspectiva, segundo Diniz
(2020, p. 376), “a responsabilidade objetiva tem como fundamento a teoria
do risco, que prescinde da existência de culpa ou dolo do agente causador
do dano”.
Por sua vez, a teoria da responsabilidade subjetiva institui que a respon-
sabilidade pelo dano causado por uma IA deve ser atribuída ao proprietário,
desenvolvedor, usuário ou ao controlador apenas se eles agiram com negligên-
cia ou imprudência. Em outras palavras, o proprietário ou o controlador só é
responsável pelos danos causados pela IA se eles não tomaram as precauções
necessárias para evitar o dano.
A teoria acima mencionada é defendida por outros autores, como
Fernanda Tartuce (2019, p. 234), que afirma que “a responsabilidade pelo
dano causado por uma IA deverá ser subjetiva, considerando-se a culpa do
proprietário ou do controlador da IA”. Ainda nessa linha, afirma Tartuce
(2020, p. 611), “a responsabilidade pelo dano causado pela IA será sempre
subjetiva, decorrente de culpa ou dolo do agente humano que a manuseou
ou dela se utilizou”.
Ainda é relevante citar a teoria da responsabilidade conjunta e solidária,
também denominada de mista, a qual informa que a responsabilidade pelo
dano causado por uma IA deve ser compartilhada entre o proprietário, o de-
senvolvedor ou controlador da IA e os usuários que a manuseiam. Essa teoria é
comumente aplicada em casos em que a IA foi projetada para funcionar de uma
determinada maneira, mas falhou em fazê-lo corretamente. Defendida por
Pablo Jiménez Serrano (2021), ele afirma que “a responsabilidade pelos danos
causados pela IA deve ser compartilhada entre o proprietário ou controlador
e a própria IA, uma vez que ambos contribuíram para a ocorrência do dano”.
Revista Brasileira de Direito Comercial Nº 57 – Fev-Mar/2024 – Doutrina
150
Conclusão
Em conclusão, a responsabilidade civil por danos causados por IA é
um tema complexo e desafiador que ainda precisa ser abordado de maneira
mais ampla e específica. Embora já existam algumas abordagens legais em
diferentes países e organizações internacionais, ainda há muito a ser feito para
garantir que a responsabilidade pelos danos causados por sistemas de IA seja
clara, justa e eficaz.
Para enfrentar esses desafios, é necessário um esforço conjunto de go-
vernos, empresas, profissionais de direito e especialistas em tecnologia para
desenvolver estruturas legais e regulatórias mais claras e específicas sobre a
responsabilidade por danos causados por IA. Além disso, é fundamental pro-
mover a transparência e a ética na criação e uso de sistemas de IA, bem como
o desenvolvimento de sistemas de IA responsáveis e seguros.
Os governos devem investir em programas de pesquisa e desenvol-
vimento que apoiem uma IA responsável e segura. Esses programas devem
incluir a criação de bancos de dados abertos de treinamento, que possam ser
usados para construir conjuntos de dados de IA de alta qualidade, éticos e cul-
turalmente sensíveis. Os governos também devem apoiar o desenvolvimento
de ferramentas de avaliação de risco, que possam ajudar a identificar e mitigar
os riscos associados à IA, e de tecnologias de segurança, que possam reduzir
a vulnerabilidade dos sistemas de IA a ataques cibernéticos e outras formas
de exploração (Cohen, 2020, p. 297).
Como aponta a doutrina especializada, a responsabilização por danos
causados por IA envolve a questão da causalidade, da divisão da responsabi-
lidade entre os diversos agentes envolvidos, da falta de regulamentação clara
e da dificuldade em lidar com casos que envolvem direitos humanos. Todos
esses desafios precisam ser enfrentados de maneira efetiva para garantir que
a responsabilidade por danos causados por IA seja justa e eficaz.
Por fim, é importante lembrar que a responsabilidade civil por danos
causados por IA é uma questão que continuará a evoluir à medida que a
tecnologia avança e novos casos surgem. Portanto, é necessário manter um
diálogo contínuo e colaborativo entre todos os envolvidos para garantir que as
soluções e abordagens legais acompanhem o ritmo das mudanças tecnológicas
Revista Brasileira de Direito Comercial Nº 57 – Fev-Mar/2024 – Doutrina
162
e garantam a proteção dos direitos e interesses das pessoas afetadas pelos danos
causados por sistemas de IA.
É necessário um esforço conjunto de governos, empresas, profissionais
de direito e especialistas em tecnologia para abordar os desafios complexos
que envolvem a responsabilidade por danos causados por sistemas de IA.
Como mencionado anteriormente, existem desafios significativos na
responsabilização por danos causados por IA, incluindo a dificuldade em deter-
minar a causa do dano, a divisão da responsabilidade entre os diversos agentes
envolvidos, a falta de regulamentação clara e específica e a dificuldade em lidar
com casos que envolvem direitos humanos. No entanto, a responsabilidade
civil por danos causados por IA é uma questão complexa, mas é essencial
abordá-la para garantir que os sistemas de IA sejam seguros e responsáveis.
Para enfrentar esses desafios, é necessário promover um diálogo
contínuo e colaborativo entre todos os envolvidos, a fim de desenvolver
soluções e abordagens legais e regulatórias mais claras e específicas sobre
a responsabilidade por danos causados por IA. Além disso, é fundamental
promover a transparência e a ética na criação e uso de sistemas de IA, bem
como o desenvolvimento de sistemas de IA responsáveis e seguros. Como
conclui Yeung (2018):
A responsabilidade civil por danos causados por IA é um desafio
significativo, mas não é insuperável. Precisa-se de um esforço
conjunto de governos, empresas, profissionais de direito e
especialistas em tecnologia para garantir que os sistemas de IA
sejam desenvolvidos e usados de maneira responsável e segura.
TITLE: Civil liability for damages caused by artificial intelligence: a legal and ethical analysis
ABSTRACT: This article aims to analyze civil liability for damages caused by artificial intelligence (AI)
from a legal and ethical perspective. As AI technology advances, new challenges and legal questions arise
regarding the attribution of liability when harm is caused by AI systems. The study will address the main
theories and approaches to civil liability in this context, considering the responsibility of the developer,
operator and manufacturer. Additionally, the need for appropriate regulation and liability policies to address
the challenges presented by AI will be explored. The article will also seek to understand the ethical impli-
cations involved in liability for damages caused by AI, taking into account machine autonomy, automated
decision-making and social and individual impacts. To this end, laws, court cases and specialized literature
related to the topic will be analyzed. Finally, recommendations and proposals will be presented to improve
legal and ethical approaches to civil liability for harm caused by AI.
Referências
BOSTROM, N.; CIRKOVIC, M. M. Global catastrophic risks. Oxford: Oxford University Press, 2019.
BOYD, Danah. The responsibility of algorithms. Communications of the ACM, v. 59, n. 10, p. 56-62, 2016.
BRASIL. Lei nº 10.406, de 10 de janeiro de 2002. Institui o Código Civil. Brasília, DF: Presidência da
República, 2002. Disponível em: https://www.planalto.gov.br/ccivil_03/leis/2002/l10406compilada.htm.
Acesso em: 20 jul. 2023.
Revista Brasileira de Direito Comercial Nº 57 – Fev-Mar/2024 – Doutrina
164
BRASIL. Lei nº 13.709, de 14 de agosto de 2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Brasília,
DF: Presidência da República, 2018. Disponível em: https://www.planalto.gov.br/ccivil_03/_ato2015-
2018/2018/lei/l13709.htm. Acesso em: 20 jul. 2023.
BRYSON, J. Responsibility in AI and robotics: a requirements approach. Towards a Code of Ethics for Artificial
Intelligence, p. 59-74, Springer, 2018.
CALO, R. Artificial intelligence policy: a primer and roadmap. SSRN Electronic Journal, 2017.
CHEN, H. M. Who is liable when AI systems fail? Canadian policy approaches to artificial intelligence
and emerging technologies. Journal of Law and Technology, v. 28, n. 1, p. 47-71, 2019.
COHEN, Julie E. AI, ethics, and national security. Cambridge: The MIT Press, 2020.
CONTRERAS, Jorge L. B. The Cambridge handbook of new technologies and international relations. Cambridge:
Cambridge University Press, 2020.
CORREIO BRASILIENSE. ChatGPT detecta doença rara em criança após ela passar por 17 médicos. 15 set.
2023. Disponível em: https://www.em.com.br/app/noticia/saude-e-bem-viver/2023/09/15/interna_bem_vi-
ver,1561978/chatgpt-detecta-doenca-rara-em-crianca-apos-ela-passar-por-17-medicos.shtml. Acesso em:
20 set. 2023.
CRESPO, Marcelo. Responsabilidade civil da inteligência artificial. Revista de Direito e Tecnologia, n. 1, p.
105-120, 2019.
DINIZ, Maria Helena. Curso de direito civil brasileiro: responsabilidade civil. 33ª ed. São Paulo: Saraiva
Educação, 2020.
DONEDA, D. The impact of artificial intelligence on human rights: global challenges and responses.
Journal of Human Rights and the Environment, v. 11, n. 1, p. 30-47, 2020.
DUCATI, Guilherme; GONÇALVES, Marcelo. Inteligência artificial e responsabilidade civil: uma aná-
lise sob a ótica do Código Civil brasileiro. Revista de Direito Civil Contemporâneo, v. 13, p. 125-145, 2018.
FLORIDI, L. The logic of information: a theory of philosophy as conceptual design. Oxford: Oxford Uni-
versity Press, 2019.
GHIDINI, G. Artificial intelligence and liability: perspectives on the Italian and European legal systems.
Computer Law & Security Review, v. 36, p. 407-416, 2020.
GONZÁLEZ, José A. R. L. Responsabilidade por danos e inteligência artificial (IA). Revista de Direito Comercial,
2020. Disponível em: http://www.revistadedireitocomercial.com/responsabilidade-por-danos-e-inteligncia-
-artificial-ia. Acesso em: 23 set. 2023.
JIMÉNEZ SERRANO, Pablo. La responsabilidad civil por el uso de la inteligencia artificial. Revista de
Derecho, v. 36, p. 113-138, 2021.
LEMOS, Ronaldo. Inteligência artificial, políticas públicas e a proteção dos direitos humanos. Revista de
Direito, Tecnologia e Inovação, v. 5, n. 2, p. 131-142, 2019.
LIMA, Cíntia Rosa Pereira de. Responsabilidade civil por danos causados por inteligência artificial. Revista
Jus Navigandi, Teresina, ano 24, n. 5664, 15 mar. 2019.
MAGRANI, E. Responsabilidade civil por danos causados por sistemas de inteligência artificial: um olhar
sobre a jurisprudência internacional e nacional. Revista de Direito, Tecnologia e Inovação, v. 5, n. 1, p. 47-56, 2019.
MARTINS, Guilherme Magalhães. A responsabilidade civil da inteligência artificial no setor da saúde:
desafios e perspectivas. Revista de Direito Sanitário, v. 20, n. 2, p. 95-115, 2020.
MARTINS, Guilherme Magalhães. A responsabilidade civil da inteligência artificial: uma abordagem
jurídica. Revista de Direito, Tecnologia e Inovação, v. 6, n. 2, p. 37-50, 2020.
MARTY, F. Artificial intelligence and civil liability. Journal of International Affairs, v. 71, n. 1, p. 1-16, 2018.
MIRAGEM, Bruno. Inteligência artificial no setor financeiro: desafios e perspectivas. In: CONGRESSO
INTERNACIONAL DE DIREITO E TECNOLOGIA, 4., 2021. Anais [...]. São Paulo: Revista dos
Tribunais, 2021.
A RESPONSABILIDADE CIVIL POR DANOS CAUSADOS POR INTELIGÊNCIA ARTIFICIAL
165
RUSSELL, S. J.; NORVIG, P. Artificial intelligence: a modern approach. 3 ed. Upper Saddle River: Pearson
Education Limited, 2010.
SILVA, Paulo Eduardo Alves da. Responsabilidade civil por danos causados por inteligência artificial no
transporte. In: CONGRESSO INTERNACIONAL DE DIREITO E TECNOLOGIA, 1., 2019. Anais
[...]. São Paulo: Revista dos Tribunais, 2019.
SILVEIRA, Paulo Roberto Gonçalves. Responsabilidade civil dos robôs: o regime jurídico aplicável aos danos
causados por sistemas de inteligência artificial. São Paulo: Revista dos Tribunais, 2021.
STOCO, Rui. Tratado de responsabilidade civil. 9. ed. São Paulo: Revista dos Tribunais, 2020. v. 3.
TARTUCE, Fernanda. Responsabilidade civil por danos causados pela inteligência artificial: uma análise
à luz do Código Civil brasileiro. Revista Jurídica, v. 67, n. 499, p. 231-253, 2019.
TARTUCE, Flávio. Manual de direito civil: volume único. 9. ed. São Paulo: Método, 2020.
TEPEDINO, Gustavo. Responsabilidade civil por robôs e inteligência artificial. Revista de Direito do Con-
sumidor, v. 109, p. 33-52, 2017.
YEUNG, Karen. Governance by design: altered responsibilities for cyber security and artificial intelligence.
Ethics and Information Technology, v. 20, n. 1, p. 55-67, 2018.
YEUNG, Karen. The legal and ethical challenges of smart technologies. Routledge, 2018.
YU, H. Who should be liable for AI’s harm: comparison of law systems between China, United States and
European Union. Advances in Economics, Business and Management Research, v. 66, p. 71-75, 2019.