Escolar Documentos
Profissional Documentos
Cultura Documentos
NATAL/RN
2023
2
2 – ARGUMENTOS DA DOUTRINA
Fica então evidente a necessidade de recorrer às principais formas de pensar a
responsabilidade civil no contexto da IA, logo, expõem-se as seguintes correntes:
a) Nem a inteligência artificial, nem seus desenvolvedores podem ser
responsabilizados: Os defensores dessa tese afirmam primeiramente que a
inteligência artificial em si não pode ter capacidades jurídicas, e por outro lado os
desenvolvedores não são capazes de descobrir os motivos, por características inerentes
a natureza dessa tecnologia. Ainda, afirmam que dar espaço para esse tipo de
reinvindicação teria como efeito o desencorajamento ao avanço tecnológico, por
receio em relação a possíveis indenizações bilionárias decorrentes de “atitudes”
indesejadas da IA.
b) Responsabilidade objetiva da IA: Para os adeptos dessa tese, é necessário criar um
novo tipo de categoria jurídica, nesse caso seriam as “e-persons”, ou pessoas
eletrônicas. Com essa nova classificação, as inteligências artificiais teriam
personalidade e patrimônio próprio, e por isso seriam capazes de responder
individualmente pelos danos causados.
3
4 – CASO RELEVANTE
O incidente em questão relata um caso alarmante envolvendo estudantes adolescentes, do
Colégio Santo Agostinho, na Barra da Tijuca, Rio de Janeiro. Cerca de 28 estudantes entre 13
e 16 anos foram vítimas de manipulação de imagens com inteligência artificial (IA),
resultando em situações desconfortáveis e traumáticas. A prática, realizada por colegas do
mesmo colégio, não é um incidente isolado, com casos semelhantes reportados em outras
cidades brasileiras e no exterior. A facilidade de acesso a ferramentas de IA para manipulação
de imagens aumenta a preocupação com a possibilidade de ocorrências similares se tornarem
mais comuns. Especialistas destacam a importância de conscientização sobre os riscos e
consequências dessa prática, enfatizando que o problema reside na utilização inadequada
dessas ferramentas, não em sua existência. A advogada Estela Aranha, assessora especial de
Direitos Digitais do Ministério da Justiça e Segurança Pública, destaca a facilidade de acesso
às ferramentas de IA para manipulação de imagens, alertando que todas as mulheres e
meninas podem se tornar potenciais vítimas desse tipo de crime, especialmente em ambientes
escolares propensos ao bullying. Já Carlos Affonso Souza, diretor do Instituto de Tecnologia e
Sociedade do Rio de Janeiro (ITS-Rio), aponta que as ferramentas de IA continuarão a se
5
tornar mais sofisticadas, com efeitos cada vez mais realistas. Destaca também a
inevitabilidade dessas ferramentas permanecerem disponíveis, mesmo que tentativas sejam
feitas para removê-las das lojas de aplicativos, devido à existência de sites de fácil acesso
oferecendo essas funcionalidades.
6 – REFERÊNCIAS
Borghetti, Jean-Sébastien, Civil Liability for Artificial Intelligence: What Should its Basis
Be? (June 1, 2019). La Revue des Juristes de Sciences Po, juin 2019, n°17 ISSN 2111-4293,
94-102, Available at SSRN: https://ssrn.com/abstract=3541597