Escolar Documentos
Profissional Documentos
Cultura Documentos
RELATÓRIO FINAL
INTELIGÊNCIA ARTIFICIAL E DIREITOS FUNDAMENTAIS: OS
ALGORITMOS PODEM VIOLAR DIREITOS?
JUNDIAÍ - SP
Agosto - 2021
ALUNO: Marcos De Lucca Fonseca
CURSO: Direito
ORIENTADORA: Me. Rafaela C. Juliatto
SOLICITAÇÃO DA MODALIDADE: BIC
JUNDIAÍ - SP
2
SUMÁRIO
1. INTRODUÇÃO......................................................................................................3
2. OBJETIVO(S).......................................................................................................3
3. MÉTODO..............................................................................................................3
4. RESULTADOS E DISCUSSÕES ou DESENVOLVIMENTO...............................4
5. CONCLUSÃO.......................................................................................................4
REFERÊNCIAS ........................................................................................................4
3
RESUMO
4
1. INTRODUÇÃO
Jonh McCarthy foi quem utilizou pela primeira vez o termo Inteligência Artificial,
no ano de 1956, durante a Conferência Dartmouth Summer Research on Artificial
Intelligence (DSRPAI). Porém registros históricos remontam à Antiguidade sobre as
tentativas do homem em construir raciocínios para entender o processo de
memorização e aprendizagem.
Os centauros formam uma classe de monstros da mitologia grega que possuem o corpo metade
1
humano, metade cavalo. Segundo a concepção do pensamento mítico grego, o cavalo possuía uma
série de virtudes admiráveis e, por isso, a sua mistura com os homens não era vista como algo
negativo. Diversas narrativas mitológicas contam sobre o relacionamento entre os homens e os
centauros, o que conferia a esse monstro a capacidade de socialização.
(https://brasilescola.uol.com.br/mitologia/centauros.htm acesso em 11/04/2020).
2
Cada cidade-estado egípcia possuía o seu deus protetor. Existiam deuses com formato de animal
(zoomorfismo), outros deuses tinham o formato de homem juntamente com animal (corpo de homem
e cabeça de animal – antropozoomorfismo) e também existiam deuses somente com o formato
humano (antropomorfismo). https://brasilescola.uol.com.br/historiag/os-deuses-egipcios.htm Acesso
em 11/04/2020.
5
Mas foi com Aristóteles (384 a.C – 322 a.C) que o pensamento ocidental
concebe o início do desenvolvimento das bases do que viria a ser o raciocínio
indutivo, muito importante para a evolução do pensamento e metodologia científica.
Em breve síntese, o pensamento aristotélico definiu como “Conclusão” o conceito
em que se aplica uma “Premissa Maior” e uma “Premissa Menor”. Assim tem início,
mesmo que incipiente, aquilo que viria a ser a Metodologia Indutiva.
Ainda falando da evolução histórica daquilo que viria a ser conhecida por I.A, no
século XVII sugiram as primeiras máquinas de calcular. Desenvolvidas pelo
matemático e físico/inventor Blaise Pascal (1623 – 1662), mesmo com a
funcionalidade básica de somar e subtrair, a chamada máquina de calcular de
Pascal é considerada como um dos precursores dos computadores da era moderna.
O matemático e filósofo alemão Gottfried Leibniz (1646 – 1716) incluiu as demais
operações matemáticas básicas (de multiplicação e divisão), e criou a sua step
reckoner, capaz de realizar de forma mecânica as quatro operações matemáticas
fundamentais.
O início dos estudos das RNAs foi em 1943, e teve o objetivo de criar um modelo
matemático para produzir microssistemas que funcionassem semelhante a um
sistema nervoso, através da utilização da lógica matemática. Com o
desenvolvimento e aprimoramento dos estudos, foram produzidos modelos
algoritmos que conseguiram fazer inferências e intervir sobre um determinado
problema real.
3
https://canaltech.com.br/inteligencia-artificial/inteligencia-artificial-e-os-proximos-anos-105988/
Acesso em 04/04/2020
4
https://assets.kpmg/content/dam/kpmg/br/pdf/2019/11/br-ai-transforming-the-enterprise.pdf Acesso
em 04/04/2020
5
CASTELLS, Manuel. A sociedade em redes. ed. Paz e Terra. 2018
6
BAUMAN, Zygmunt. RAUD, Rein. A individualidade numa época de incertezas. ed. Zahar. 2015
7
O preocupante é quando somamos a ampla obtenção, compartilhamento e
utilização de dados pessoais característico da sociedade da informação, com o
aumento e desenvolvimento da utilização da Inteligência Artificial. Ao cruzamos este
cenário com a tutela de direitos fundamentais, o desafio se torna ainda maior.
Por óbvio que o foco não será um viés maniqueísta, em que o desenvolvimento
da tecnologia seria um grande vilão a ser contido. Ora, os jusfilósofos já nos
ensinaram que a função social do direito não é moldar a sociedade, mas criar
normas que possam regular o comportamento humano, evitando e dirimindo os
conflitos. Do contrário, estaríamos vivendo sob uma espécie de ditadura da norma.
Mas é de fundamental importância que laçamos luzes a este debate, pois o avanço
da tecnologia e da I.A não pode ameaçar os direitos fundamentais. O homem não foi
feito para a máquina, mas o contrário. Para tanto, é salutar que analisemos com
maior profundidade este tema, sob a ótica da garantia da tutela dos direitos
fundamentais.
Importa frisar que as aplicações tecnológicas não são objeto de estudo somente
no campo das ciências exatas, mas sua análise e implicações éticas na sociedade
também devem ser estudadas nas ciências humanas.
7
GUEDES, Marcelo Santiago. MACHADO, Henrique Felix de Souza. Veículos autônomos inteligentes
e a responsabilidade civil nos acidentes de trânsito no Brasil. Desafios regulatórios e propostas de
solução e regulação. Ed. ESMPU. 2020
8
GUEDES, Marcelo Santiago. MACHADO, Henrique Felix de Souza. Veículos autônomos inteligentes
e a responsabilidade civil nos acidentes de trânsito no Brasil. Desafios regulatórios e propostas de
solução e regulação. Ed. ESMPU. 2020. p. 67
9
GUEDES, Marcelo Santiago. MACHADO, Henrique Felix de Souza. Veículos autônomos inteligentes
e a responsabilidade civil nos acidentes de trânsito no Brasil. Desafios regulatórios e propostas de
solução e regulação. Ed. ESMPU. 2020. p. 71
9
essas inovações, ou que não conseguem se defender (ou mesmo ter ciência) de tais
ameaças.
10
2. OBJETIVO(S)
É notório que a tecnologia ao longo dos anos trouxe grande impacto e alterações
em vários segmentos. Rompeu barreiras, aproximou (ou será que distanciou?)
pessoas, gerou impactos nas relações laborais - seja criando postos de trabalhos,
extinguindo-os, ou até mesmo substituindo o homem pela “máquina” em
determinadas atividades laborais. A forma como o indivíduo se relaciona consigo
mesmo, bem como com seus semelhantes, sofreu grande impacto com o avanço da
chamada “Revolução Industrial 4.0”10 .
Com o objetivo de ampliar a análise deste tema tão salutar em nossos dias, esta
desenvolveu o estudo sobre a potencial ameaça dos direitos fundamentais frente
aos avanços tecnológicos e, em especial, como o fenômeno de recorrência de
padrões comportamentais nos algoritmos de machine learning (conhecidos como
BIAS) poderá violar os direitos humanos.
10
Originalmente, a Indústria 4.0 foi concebida no contexto da manufatura, mas isso mudou nos
últimos anos e saiu dos processos de produção, passando pela tecnologia e suas áreas relacionadas.
Com o rápido crescimento da IoT (Internet das Coisas Industrial), torna-se claro quando se olha para
a expansão da Indústria 4.0.
Em essência, podemos dizer que a quarta revolução industrial e as tecnologias digitais é a Internet
das Coisas aplicada à manufatura. Os sistemas físicos se comunicam e cooperam uns com os outros
e trazem novas possibilidades, como o trabalho remoto, que se tornou possível graças à internet.
http://anpei.org.br/industria-4-0-o-que-e/ acesso em 11/04/2020
11
Com o propósito de trazer ao leitor leigo no tema relacionado à Inteligência
Artificial e à Indústria da Internet, será produzido um capítulo para oferecer os
conhecimentos básicos acerca dos temas. Por óbvio que, como o objetivo desta
pesquisa não está centrada nas Ciências da Engenharia da Computação e Robótica,
o conhecimento destes assuntos não será aprofundado, mas tão somente para
elucidar ao leitor iniciante neste tema que obtenha os principais conceitos básicos.
Em especial será feita uma análise de como a Lei 12.965/2014 (Marco Civil da
Internet) e a Lei 13.709/2018 (Lei Geral de Proteção de Dados, recente aprovada e
que teve o seu período de vacatio legis extendido para até janeiro de 2021, devido
ao cenário de Pandemia do COVID-19), protegem os direitos fundamentais no Brasil
quanto ao uso da internet.
Como tópico final, antes da conclusão, será analisado de que forma a utilização
da BIAS e demais algoritmos utilizados na Inteligência Artificial podem violar os
direitos humanos, tendo por base análises de casos reais de redes sociais e
plataformas de buscas on-line. Para ilustrar, será feito um Estudo de Caso em que a
utilização deste fenômeno de padrão de recorrência comportamental no meio digital
violou a tutela de direitos fundamentais.
3. MÉTODO
13
Para o desenrolar da problemática, serão analisados autores das áreas dos
Direitos Humanos e Constitucional, quais sejam: Ana Frazão, Fábio Konder
Comparato, Flávia Piovesan, Francisco Rezek, Gilmar Ferreira Mendes, Gustavo
Tepedino, Humberto Ávila, José Afonso da Silva, José Joaquim Gomes Canotilho,
Luis Roberto Barroso, Manuel Castells, Maria Cecília Bodin de Moraes, Norberto
Bobbio, Robert Alexy e Zygmunt Bauman.
4. DESENVOLVIMENTO
14
a) BREVE HISTÓRICO EVOLUTIVO DO CONCEITO DE INTELIGÊNCIA
ARTIFICIAL, E DA AFIRMAÇÃO DOS DIREITOS HUMANOS
De toda forma, o primeiro uso oficial do termo IA foi feito por John
McCarthy12 , em 1956, quando ele realizou um estudo de dois meses em Dartmouth
College. A importância desse estudo foi tamanha que os pesquisadores que dele
11
RUSSEL, Stuart. NORVING, Peter. Inteligência artificial. 3ª edição. Ed. Elsevier. 2013. p. 16
12
McCarthy, em 1958, ainda iria desenvolver uma linguagem de programação (Lips) que foi
dominante na IA durante os 30 anos subsequentes. Outro desenvolvimento importantíssimo feito por
ele, também em 1958, foi a criação do Advice Taker, que é considerado como o primeiro sistema
completo de IA.
15
participaram estiveram pelos próximos 20 anos à frente do desenvolvimento e
pesquisas tecnológicas de IA. Inclusive o termo IA foi cunhado como
desdobramentos destes estudos, uma vez que estes tiveram o objetivo de reproduzir
as faculdades humanas como criatividade, autoaperfeiçoamento e uso da
linguagem13 ,
13
RUSSEL, Stuart. NORVING, Peter. Inteligência artificial. 3ª edição. Ed. Elsevier. 2013. p. 17
14
RUSSEL, Stuart. NORVING, Peter. Inteligência artificial. 3ª edição. Ed. Elsevier. 2013. p. 17
15
O GPS (General Problem Solver) em questão não deve ser confundido com o GPS (Sistema de
Posicionamento Global), que é o sistema de navegação por satélite.
16
RUSSEL, Stuart. NORVING, Peter. Inteligência artificial. 3ª edição. Ed. Elsevier. 2013. p. 18
16
Outra etapa importante no desenvolvimento da IA ocorreu em meados de
1959, na empresa IBM. O pesquisador Arthur Samuel iniciou o que viram a ser o
conceito de Machine Learning17 , que desenvolveu uma programação de computador
para que a máquina, além de aprender a jogar dama, ao aprendendo com os erros
pudesse aprimorar as suas técnicas e não cometer os erros anteriores.
. No ano de 1963, McCarthy fundou o laboratório de IA em Stanford, e que fora
de fundamental importância para que no ano de 1969, o pesquisador Cordell Green
desenvolvesse o seu projeto de robótica Shakey, que foi o primeiro a integrar por
completo o raciocínio lógico e a atividade física.
17
A aprendizagem de máquina é um subconjunto da inteligência artificial, o segmento da ciência da
computação que se concentra na criação de computadores que pensam da maneira que os humanos
pensam. Fonte: http://datascienceacademy.com.br/blog/17-casos-de-uso-de-machine-learning/.
Acesso em 21 de fevereiro de 2021
17
bipolaridade política-econômica entre os EUA e a URSS – período conhecido como
Guerra Fria, marcado por espionagens e tentativas de obtenção de documentos,
cuja tradução era de suma importância. Quem conseguisse desenvolver uma
programação capaz de traduzir os documentos, teria um ganho considerável, frente
ao seu openente). Outra dificuldade encontrada foi sair de questões mais “simples”
encontradas nos chamados “micromundos” dos testes laboratoriais, e inserir a
resolução de problemas complexos e que incluíram variáveis que as programações
até então não conheciam. E, por fim, outra dificuldade foi o fato de que mesmo que
os computadores pudessem, de fato, aprendem sobre determinado assunto, não
necessariamente ele conseguisse transformar o aprendizado em representação no
mundo físico.
Por fim, a partir dos anos 2000, com a explosão de dados (Big Data) devido à
utilização da internet, foram iniciados estudos com o objetivo de analisar não
somente os algoritmos, mas principalmente os dados que seriam aplicados á eles.
Para fundamentar esta quebrada de paradigma no estudo da IA, em 2001 Banko e
Brill publicaram um estudo que comprovou que “(...) um algoritmo medíocre com 100
milhões de palavras de dados de treinamento não rotulados supera o melhor
algoritmo conhecido com apenas 1 milhão de palavras.”. Ou seja, os dados que
alimentam os algoritmos seriam de maior importância do que o próprio algoritmo
Atualmente a IA está sendo utilizada em diversas indústrias, desde veículos
autônomos, reconhecimento de voz, aplicações em dispositivos móveis, jogos,
planejamento logístico, aplicações de biomedicina e fármacos. Sem falar, na
aplicação da utilização os web sites, através dos aplicativos de viés como o BIAS,
que serão objeto da presente pesquisa.
19
b) CONCEITUANDO INTELIGÊNCIA ARTIFICIAL, ALGORITIMOS, INTERNET
DAS COISAS, MACHINE LEARNING E A QUARTA REVOLUÇÃO
INDUSTRIAL
19
SCHWAB, Klaus. Aplicando a quarta revolução industrial. Ed. Edipro. 2019. p. 35
20
Idem
20
dos direitos fundamentais dos indivíduos. Ou seja, será cada vez mais difícil
pensarmos em políticas, ações coletivas e melhoria de bem-estar das pessoas, sem
analisar a relação indivíduo-máquina/aplicações. Este é justamente o principal
objetivo da presente pesquisa, analisar de que forma os algoritmos de análise de
comportamento podem ameaçar a tutela dos direitos fundamentais.
21
Segundo pesquisa da Fundação Instituto de Administração (FIA), durante a panademia da COVID-
10 o teletrabalho foi a estratégia de 46% das empresas brasileiras. Fonte: Home
https://agenciabrasil.ebc.com.br/economia/noticia/2020-07/home-office-foi-adotado-por-46-das-
empresas-durante-pandemia. Acesso em 28 de fevereiro de 2021.
21
serviços, trabalhamos, nos comunicamos, socializamos
e nos movimentamos (...)22
25
SCHWAB, Klaus. Aplicando a quarta revolução industrial. Ed. Edipro. 2019. p. 148
26
SCHWAB, Klaus. Aplicando a quarta revolução industrial. Ed. Edipro. 2019. p. 149
23
Data, transformando os dados pessoais dos indivíduos em informações com valor de
mercado, que contém dados cobre os costumes, hábitos de consumo e demais
informações comerciais que são de grande valia para as empresas. Além de uma
valiosa fonte de informação sobre padrões de consumo, e mercadológica, as
informações agregadas dos equipamentos da IoT certamente irão resultar em um
novo relacionado do indivíduo com o processo de tomada de decisões (das mais
simples às mais complexas). Inclusive, o conceito de “Internet das Coisas” contribui
para o desenvolvimento do que está sendo entendido por “economia da atração”, em
que o padrão de consumo dos indivíduos será cada vez mais influenciado pelas
informações comportamentais e dados pessoais dos mesmos. Assim, cada vez mais
é de fundamental importância temas relacionados à segurança digital e
regulamentos que visam a tutela dos dados pessoais.
24
influenciar as transformações sociais econômicas e políticas do século XXI e
seguintes.
27
RUSSEL, Stuart. NORVING, Peter. Inteligência artificial. 3ª edição. Ed. Elsevier. 2013. p. 32
28
BASEL. Sabine Gless. KÖLN, Thomas Weigend. Agentes inteligentes e o direito penal. p. 57
26
programações. E a grande dúvida que surge é: Como garantir que a consequência
seja desejável?
Pela ótica da tecnologia, para que uma consequência seja desejável, existem
medidas de desempenho utilizadas para a análise. Não existem medidas fixas para
todas as tarefas dos agentes, mas uma das possibilidades de análise de
desempenho é justamente maximizar a realização de determinada tarefa, ou ação,
do agente no meio em que ele e inserido. E é justamente o que ocorre com os
motores de busca na internet, que serão analisados no decorrer da presente
pesquisa. De acordo com os especialistas em I.A
30
Fonte: https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/big-data-e-
impactos-sobre-a-analise-concorrencial-28112017. Acesso em 04 de março de 2021.
31
Fonte: https://www.jota.info/opiniao-e-analise/colunas/constituicao-empresa-e-mercado/big-data-e-
impactos-sobre-a-analise-concorrencial-28112017. Acesso em 04 de março de 2021.
28
Em sistemas abertos as regras de decisão pré-estabelecidas serão
normalmente lacunosas, uma vez que nem todas as situações da vida podem ser
previstas e traduzidas por um algoritmo em um determinado comportamento, e
porque o sistema durante a sua própria execução, aprende de forma autônoma”. E a
execução do programa do agente é justamente a implementação concreta desta
função.
32
Fonte: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai. Acesso
05 de março de 2021
29
como contribuir para a qualidade de vida dos indivíduos, autonomia e liberdade das
pessoas. E a I.A pode cumprir estes desafios, gerando prosperidade, gerando valor
e maximizando os ganhos econômicos possíveis. Ou seja, distribuindo as
oportunidades econômicos, sociais e políticas – mas para isso se faz necessário que
a I.A produza um impacto equitativo na vida dos indivíduos,
No que diz respeito à uma abordagem ética da I.A, baseada nos direitos
fundamentais, a Diretriz da U.E menciona o histórico normativo do continente
europeu, bem como do direito internacional. Os direitos fundamentais estão
descritos na Carta da U.E, e todos os países daquele continente devem respeitar a
dignidade, liberdades, igualdade, solidariedade, enfim aos direitos dos cidadãos e à
justiça. Mas o que, de fato, faz os direitos fundamentais serem vinculativos aos
Estados-membros da União Europeia, é a Convenção Europeia dos Direitos
Humanos. Sendo assim, a tutela dos direitos humanos na aplicação da I.A está
relacionada tanto ao aspecto legal quanto à garantia dos valores éticos.
Por fim, a I.A pode contribuir para o aumento dos indivíduos ao acesso às
informações e documentos públicos. A utilização desses sistemas pode atuar de
34
Fonte: https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai. Acesso
05 de março de 2021
31
forma construtiva para aprimorar o acesso dos indivíduos aos serviços públicos,
inclusive aprimorando a eficiência das administrações públicas.
35
A abordagem HITL refere-se à capacidade de intervenção humana em todos os ciclos de decisão
do sistema, a qual, em muitos casos, não é possível nem desejável. A abordagem HOTL refere-se à
capacidade de intervenção humana durante o ciclo de concepção do sistema e de acompanhamento
do funcionamento do sistema. A abordagem HIC refere-se à capacidade de supervisionar toda a
atividade do sistema de IA (incluindo o seu impacto económico, social, jurídico e ético) e de decidir
quando e como utilizar o sistema em qualquer situação específica. Tal pode incluir a decisão de não
utilizar um sistema de IA numa determinada situação, de estabelecer níveis de apreciação humana
durante a utilização do sistema, ou de assegurar a capacidade de anular uma decisão tomada por um
sistema.
32
(iii) equidade: este conceito deve garantir a inexistência de enviesamentos
injustos, discriminação e estigmatização social contra pessoas ou
grupos, feitos pela I.A. Inclusive, estes conceitos serão analisados de
forma mais aprofundada no trabalho da presente pesquisa, quando da
análise da utilização dos algoritmos BIAS. Um dos principais desafios
daqueles que desenvolvem as aplicações e sistemas de I.A é
justamente garantir o equilíbrio entre os interesses e objetivos finais,
que justificam o desenvolvimento destas aplicações, deve ser limitado
ao minimamente necessário;
33
tratamento automatizado. Já sobre o enviesamento e não discriminação, os
conjuntos de dados utilizados pelos sistemas de IA
Um dos trabalhos mais antigos de Inteligência Artificial tiveram como objetivo criar
as chamadas Redes Neurais Artificiais (também conhecida pelo nome de
computação neural). Desde a década de 1940 os cientistas e estatísticos
especializado no estudo da I.A desenvolveram modelos de sistemas de neurônios
muito detalhistas e realistas, inclusive alguns chegando ao tamanho maior que o
cérebro humano37. As redes neurais permanecem como um dos conceitos são
populares e utilizados na montagem dos sistemas de Inteligência Artificial.
As redes neurais têm a composição de nós, que são conectadas por ligações
direcionadas, em que cada unidade (ou nó), tem um determinado “peso” numérico,
para determinar a força e o sinal de conexão, que são conectados em formato de
rede. Essas redes podem ser “com alimentação para a frente”, em que as conexões
apresentam somente uma direção, e também podem ser “rede recorrente”, em que
ocorre uma espécie de sistema de retroalimentação, que pode gerar um sistema
muito dinâmico que pode apresentar tanto um estado estável quanto um estado
caótico.
37
RUSSEL, Stuart. NORVIG, Peter. Intleigência artificial. Ed. Elsevier. 2013. P. 634-635
35
averiguar como a Inteligência Artificial e, de modo especial os algoritmos, estão
sendo utilizados cada vez mais nas decisões dos setores público e privado 38 .
38
Fonte: https://publications.parliament.uk/pa/cm201719/cmselect/cmsctech/351/351.pdf. Acesso em
24 de maio de 2021
39
Fonte: https://publications.parliament.uk/pa/cm201719/cmselect/cmsctech/351/351.pdf. Acesso em
24 de maio de 2021
40
Fonte: https://www.jota.info/tributos-e-empresas/trabalho/uber-vinculo-empregaticio-pericia-
algoritmo-05052021. Acesso em 24 de maio de 2021
36
(...)”41 . Os algoritmos foram criados e são utilizados para solucionar problemas, e
são
41
PEIXOTO, Fabiano Hartmann. SILVA, Roberta Zumblick Martins da. Inteligência artificial e direito
vol. 1. ed. Alteridade. 2019. p. 71
42
PEIXOTO, Fabiano Hartmann. SILVA, Roberta Zumblick Martins da. Inteligência artificial e direito
vol. 1. ed. Alteridade. 2019. p. 71
37
ele é programado, ou até mesmo criando critérios objetivos analíticos pela
Inteligência Artificial. Inclusive, a análise pode ser feita tendo por objetivo a
coletividade, coo é o caso da criação do chamado social scoring, desenvolvido pelo
governo chinês43 .
43
O sistema de crédito social da China é um conjunto de bases de dados e iniciativas que monitoram
e avaliam a confiabilidade de pessoas físicas, empresas e entidades governamentais.
Fonte: https://www.scmp.com/economy/china-economy/article/3096090/what-chinas-social-credit-
system-and-why-it-controversial. Acesso em 25 de junho de 2021.
38
Adentrando na esfera política, a possibilidade dos algoritmos servirem aos
interesses do Estado para categorizar os seus cidadãos de acordo com as
convicções políticas, religiosas ou filosóficas, torna a situação ainda mais sensível
principalmente pelo fato de oferecer aos atores políticos a possibilidade de
explorarem as convicções dos indivíduos em sua esfera íntima para os seus
interesse políticos, eleitorais e religiosos. Inclusive, a Lei Geral de Proteção de
Dados Pessoais (LGPD), que dispõe sobre a proteção dos dados pessoais da
pessoa natural, ofereceu maior proteção aos dados pessoais considerados como
sensíveis,
Outro fato que torna a situação ainda mais delicada é que os algoritmos são
protegidos pelas legislações de direito à propriedade industrial, o que pode dificultar
as análises dos algoritmos de vieses.
45
FRAZÃO, Ana. MULHOLLAND, Caitilin. Inteligência artificial e direito. Ética, regulação e
responsabilidade. Ed. RT. 2019. p. 677.
46
BARROCAS, Solon apud FRAZÃO, Ana. MULHOLLAND, Caitlin. Inteligência artificial e direito.
Ética, regulação e responsabilidade. Ed. RT. 2019. p. 680
40
se os mecanismos de quantificação de pontuação em um modelo podem ser
utilizados em outros grupos e indivíduos, e gerarem resultados semelhantes. O
desafio é justamente quando são analisados dados sensíveis, uma vez que tais
dados, como já explicado anteriormente, tem alto risco de gerar parâmetros
discriminatórios.
Ainda sobre o polêmico uso dos sistemas de reconhecimento facial, Preso por
engano, Robert Williams, morador de Michigan, nos EUA, moveu uma ação civil
contra o Departamento de Polícia de Detroit, em que pede indenização por danos e
o banimento da tecnologia de reconhecimento facial no estado. Em 2018, a polícia
47
Para saber mais sobre a pesquisa, acesse https://veja.abril.com.br/tecnologia/empresas-
abandonam-reconhecimento-facial-por-identificacoes-equivocadas/
48
Fonte: https://epocanegocios.globo.com/Tecnologia/noticia/2018/02/softwares-de-reconhecimento-
facial-funcionam-bem-mas-apenas-para-homens-brancos.html Acesso em 22 de junho de 2021.
41
da cidade o identificou, falsamente, como autor do furto de cinco relógios em uma
loja de produtos de luxo, no valor de US$ 3.800, devido ao mau funcionamento do
sistema de reconhecimento facial49 .
49
Fonte: https://www.conjur.com.br/2021-abr-26/acao-banimento-tecnologia-reconhecimento-facial-
eua Acesso em 22 de junho de 2021
50
Os sistemas baseados em locais, como os software Predopol e HunchLab, utilizam-se de
informações chamadas de hot spots, que determinam os locais com maior incidência de crimes em
uma cidade.
42
sistemas irão replicar ou um viés preconceituoso que já existe na sociedade ou, por
ausências de dados com uma maior abrangência de possibilidades possíveis, irão
resultar em análises que não refletem a diversidade da sociedade. Ou seja, a própria
seleção dos dados que irão alimentar os algoritmos é uma questão subjetiva, tanto
por utilizar os dados de forma indevida excessiva.
O risco é que a predição possa ter como resultado colocar grupos ditos como
vulneráveis em situação de desvantagem frente aos demais, consolidando o efeito
feedback loop, que é justamente quando os resultados de determinadas predições
consolidam posicionamentos de grupos vulneráveis na sociedade, contribuindo para
a manutenção de estereótipos e preconceitos preexistentes.
51
Para acessar o Relatório da pesquisa na íntegra, acesse https://ainowinstitute.org/disabilitybiasai-
2019.pdf Acesso em 12 de junho de 2021
43
mencionada deu especial destaque para o fato que, até o presente momento, as
análises que examinam o preconceito em sistemas de Inteligência Artificial têm se
concentrado nos eixos de raça e gênero, descobrindo que o preconceito da IA
geralmente prejudica mulheres, negros(as), minorias de relacionadas a orientações
sexuais. Uma situação sensível, e que demonstra o preconceito social, é que
pessoas com necessidade especiais, devido às condições físicas, psicológicas ou
mentais, são excluídas da maioria das análises sobre preconceito e I.A – mesmo
que estas pessoas foram sujeitas à marginalização histórica e atual. Ou seja, este
padrão de marginalização reflete a constatação descrita na presente pesquisa de
que, ao não incluir parâmetros nas análises preditivas, ou no banco de dados que
devem compor a análise algorítmica, tem por consequência enviesar ainda mais os
resultados, uma vez que os resultados não irão considerar tais dados para compor
os possíveis resultados preditivos.
44
“reconhecidas” como pedestres52 . Ou seja, os algoritmos tomam decisões sobre
riscos futuros com base em distorções e preconceitos ocorridos no passado 53 .
Outro aspecto que realça como os bancos de dados pode ameaçar a tutela dos
direitos fundamentais diz respeito às práticas de discriminação do consumidor em
relação à sua localização geográfica. O desequilíbrio de informações entre o
consumidor e o fornecedor de um determinado produto ou serviço é um dos
principais aspectos que balizam o conceito de hipossuficiência na relação
consumidor-empresa. Além de existir uma assimetria de informações entre esses
dois agentes nesta relação econômica, também existem diferenças entre os
conhecimentos técnicos-científicos, que muitas vezes fazem com que o consumidor
fique cada vez mais dependente dos fornecimentos das informações das empresas
para que possa ter condições de decidir – uma vez que o agente que detém a
totalidade das informações é a empresa que o concebeu. Ainda existem a assimetria
a vulnerabilidade jurídica entre o consumidor e empresa, uma vez que na grande
maioria das situações de consumo aquele é submetido à instrumentos e padrões
contratuais pré-concebidos e padronizados, principalmente através dos contratos de
52
Em 2018, um Uber autônomo no Arizona matou Elaine Herzberg, uma pedestre que estava
empurrando uma bicicleta. Uma investigação recente do National Transportation Safety Board
concluiu que é significativa problemas com o sistema autônomo do Uber, incluindo sua chocante falha
em "reconhecer"pedestres fora das faixas de pedestres. Fonte:
https://ainowinstitute.org/disabilitybiasai-2019.pdf Acesso em 12 de junho de 2021
53
FRAZÃO, Ana. MULHOLLAND, Caitilin. Inteligência artificial e direito. Ética, regulação e
responsabilidade. Ed. RT. 2019. p. 690
54
FRAZÃO, Ana. MULHOLLAND, Caitilin. Inteligência artificial e direito. Ética, regulação e
responsabilidade. Ed. RT. 2019. p. 692
45
adesão. Devido à existência de tais situações assimétricas, se fez necessária a
criação do Código de Defesa do Consumidor, para justamente garantir os direitos
dos consumidores frente à esta relação jurídica com desbalanceamento de poder.
55
JÚNIOR, Marcos Ehrhardt. CATALAN, Marcos. MALHEIROS, Pablo. Direito civil e tecnologia. Ed.
Forum. 2021. p. 288
56
A LGPD conceitua como controlador dos dados o agente de tratamento que toma as decisões
sobre o que será feito com os dados pessoais coletados.
46
vez que a LGPD tem como um de seus fundamentos da proteção dos dados
pessoais a defesa do direito do consumidor. Inclusive, esta lei supra também dispõe
que os dados pessoais referente ao exercício regular de direitos do titular não
podem ser utilizados em seu prejuízo. Sendo assim, a utilização da geolocalização
para oferecer ofertas de bens e serviços de forma discriminada pode ter a sua
legitimidade contestada, sendo considerada abusiva.
57
Para ler este regulamento na íntegra, acesse https://eur-lex.europa.eu/legal-content/PT/TXT/PDF/?
uri=CELEX:32018R0302&from=PT
58
Inclusive, o tema foi objeto de uma Ação Civil Pública nº 0018051-27.2018.8.19.0001, do Ministério
Público do Rio de Janeiro, em face de uma empresa que realizava vendas de passagens aéreas e
acomodações em hotéis através de seu website.
47
Outro exemplo é um estudo do Twitter, onde confirma que o algoritmo tende a
cortar afrodescendentes em fotos 59 . A análise concluiu que um algoritmo criava uma
diferença de 8% em favor das mulheres e de 4% em relação a pessoas brancas.
Entre as razões possíveis para o fenômeno, estão problemas com fundos de
imagens e cor dos olhos. Mas no relatório os pesquisadores ponderaram que a falha
não se justifica. Isso porque algoritmos de aprendizado de máquina, como o usado
pelo Twitter, dependem de vastos conjuntos de dados. Se esses conjuntos de dados
forem ponderados em favor de uma determinada raça, gênero ou qualquer outra
característica humana, o algoritmo resultante pode então refletir esse viés.
59
Fonte: https://exame.com/tecnologia/twitter-pagara-r-18-mil-para-quem-arrumar-preconceito-racial-
de-algoritmo/ Acesso em 24 de junho de 2021
60
Fonte: https://blog.twitter.com/engineering/en_us/topics/insights/2021/sharing-learnings-about-our-
image-cropping-algorithm Acesso em 24 de junho de 2021
48
iii. Em comparações de mulheres negras e brancas, houve uma diferença
de 7% em relação à paridade demográfica em favor das mulheres
brancas.
61
Fonte: https://blog.twitter.com/engineering/en_us/topics/insights/2021/sharing-learnings-about-our-
image-cropping-algorithm Acesso em 24 de junho de 2021
62
Idem
49
surgem novos bens jurídicos que devem ser tutelados para garantir a dignidade do
indivíduo63.
63
FONSECA, Marcos De. ALEIXO, Elvis Brassaroto. DELLOVA, Pietro Nardella. A aplicação do
postulado da proporcionalidade de princípios na tutela dos bens jurídicos na sociedade informacional.
Revista de Direito Civil, ISSN 2596-2337, v. 3, n.1, jan./jun. 2021. p. 245
64
FONSECA, Marcos De. ALEIXO, Elvis Brassaroto. DELLOVA, Pietro Nardella. A aplicação do
postulado da proporcionalidade de princípios na tutela dos bens jurídicos na sociedade informacional.
Revista de Direito Civil, ISSN 2596-2337, v. 3, n.1, jan./jun. 2021. p. 253
65
MENDES, Laura Schertel. DONEDA, Danilo. SARLET, Ingo Wolfgang. JÚNIOR Otavio Luiz
Rodrigues. BIONI, Bruno. Tratado de proteção de dados pessoais. Ed. GEN. 2021. p. 22
50
Education and Welfare – HEW, (…) no qual se propõe a
observância dos “princípios para o tratamento leal da
informação” que, além de sugerir fortemente a adoção
de uma normativa federal para a proteção de dados nos
Estados Unidos, enunciou alguns dos princípios que,
até hoje, formam a espinha dorsal da grande maioria
dos marcos regulatórios de proteção de dados, como os
princípios da finalidade, livre acesso, transparência,
segurança e qualidade/correção66.
66
MENDES, Laura Schertel. DONEDA, Danilo. SARLET, Ingo Wolfgang. JÚNIOR Otavio Luiz
Rodrigues. BIONI, Bruno. Tratado de proteção de dados pessoais. Ed. GEN. 2021. p. 23
67
Para maiores informações sobre o RGPD, acesse
https://eur-lex.europa.eu/legal-content/PT/TXT/HTML/?uri=CELEX:32016R0679&-from=EN
51
analógicos ou digitais, por entes públicos ou privados, como o objetivo de proteger
os direitos fundamentais de liberdade e de privacidade e a livre desenvolvimento da
personalidade do indivíduo”68. Outro aspecto importante, e que também foi tutelado
por esta lei, foi o conceito de autonomia informação, que trata justamente da decisão
do indivíduo de dispor, ou não, de seus dados pessoais a terceiros, desde que
respeitadas as hipóteses de exceção determinadas pela própria LGPD 69.
68
BRANCHER, Paulo Marcos Rodrigues. BEPPU, Ana Claudia. Proteção de dados pessoais no
Brasil. Uma nova visão a partir da Lei nº 13.709/2018. Ed. Forum. 2019. p. 67
69
Como as atividades de tratamento de dados pessoais para cumprimento de obrigações jurídicos-
regulatórias. Mesmo que o titular se oponha a tais atividades de tratamento dos seus dados, o agente
de tratamento (Controlador ou Operador) devem realizá-las, uma vez que necessitam cumprir com
tais obrigações determinadas, ou pelo ordenamento jurídico pátrio, ou pelo regulador a que se
submete.
70
Art. 6º As atividades de tratamento de dados pessoais deverão observar a boa-fé e os seguintes
princípios:
I - finalidade: realização do tratamento para propósitos legítimos, específicos, explícitos e informados
ao titular, sem possibilidade de tratamento posterior de forma incompatível com essas finalidades;
II - adequação: compatibilidade do tratamento com as finalidades informadas ao titular, de acordo
com o contexto do tratamento;
III - necessidade: limitação do tratamento ao mínimo necessário para a realização de suas
finalidades, com abrangência dos dados pertinentes, proporcionais e não excessivos em relação às
finalidades do tratamento de dados;
IV - livre acesso: garantia, aos titulares, de consulta facilitada e gratuita sobre a forma e a duração do
tratamento, bem como sobre a integralidade de seus dados pessoais;
V - qualidade dos dados: garantia, aos titulares, de exatidão, clareza, relevância e atualização dos
dados, de acordo com a necessidade e para o cumprimento da finalidade de seu tratamento;
VI - transparência: garantia, aos titulares, de informações claras, precisas e facilmente acessíveis
sobre a realização do tratamento e os respectivos agentes de tratamento, observados os segredos
comercial e industrial;
VII - segurança: utilização de medidas técnicas e administrativas aptas a proteger os dados pessoais
de acessos não autorizados e de situações acidentais ou ilícitas de destruição, perda, alteração,
comunicação ou difusão;
VIII - prevenção: adoção de medidas para prevenir a ocorrência de danos em virtude do tratamento
de dados pessoais;
52
respaldam esta análise, e pela leitura fica evidente que esta legislação disciplina o
respeito à privacidade, autodeterminação informativa, liberdade de expressão, de
informação, de comunicação e opinião, a inviolabilidade da intimidade, da honra e da
imagem.
Outro ponto que a LGPD destacou grande importância foi a questão dos dados
pessoais sensíveis. O art. 5, II, desta lei diz que dados sensíveis são qualquer “(...)
dados pessoais sobre origem social ou étnica, convicção religiosa, opinião política,
filiação a sindicato ou organização de caráter religioso, filosófico ou político, dado
referente à saúde ou à vida sexual, dado genético, quando vinculado a uma pessoa
natural”. Tais dados, pelos parâmetros que utilizam, podem ter consequências
negativas se utilizados de forma inadequada. Ou seja, é evidente que o legislador
teve a sensibilidade de garantir maior tutela aos dados pessoais que possam
ameaçar os direitos fundamentais, e seguindo a garantia constitucional da não
discriminação e igualdade.
71
BIONI, Bruno Ricardo. Proteção de dados pessoais: a função e os limites do consentimento. 2ª
edição. Ed. Gen. 2020. p. 93.
54
permite a extração de informações sensíveis e,
portanto, mais intrusivas dos indivíduos72.
72
BIONI, Bruno Ricardo. Proteção de dados pessoais: a função e os limites do consentimento. 2ª
edição. Ed. Gen. 2020. p. 95
73
Art. 20. O titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com
base em tratamento automatizado de dados pessoais que afetem seus interesses, incluídas as
decisões destinadas a definir o seu perfil pessoal, profissional, de consumo e de crédito ou os
aspectos de sua personalidade.
74
ZANON, João Carlos. Direito à proteção de dados pessoais. Ed. RT. 2013. p. 146-151.
55
g) DIREITOS HUMANOS E INTERNET
Evidente que tal conceito não é uníssono na doutrina, pois para doutrinadores
como o jusfilósofo italiano Norberto Bobbio, os direitos humanos são o produto não
da natureza, mas sim da civilização humana. Enquanto direitos históricos, eles são
mutáveis, suscetíveis de transformação e ampliação 75.
75
BOBBIO, Norberto. “A era dos direitos”. ed. Elsevier. 2017.p. 16
76
ZANINI, Leonardo Estevam de Assis. “Direitos da Personalidade”. editora Saraiva. 2011. p. 51
56
Um dos princípios basilares, se não o principal, para a tutela dos Direitos
Humanos é o Princípio da Dignidade da Pessoa Humana. De acordo com Maria
Celina Bodin, a Alemanha foi um dos primeiros países a, através de sua Corte
Constitucional, tutelar os direitos fundamentais do cidadão frente aos excessos
cometidos pelo Estado Alemão 77 e conceituar, assim, o Princípio da Dignidade da
Pessoa Humana.
A relação que esta pesquisa fez foi analisar como os direitos humanos poderiam
ser ameaçados frente ao uso de algoritmos. Poderia o indivíduo flexibilizar os seus
direitos, como por exemplo o direito à privacidade, para utilizar inovações
tecnológicas, ou seria este direito não poderia ser visto de forma flexível?
83
Fonte: https://www1.folha.uol.com.br/mercado/2021/02/84-dos-brasileiros-nunca-checaram-se-
seus-dados-sao-usados-de-maneira-responsavel.shtml Acesso em 26 de junho de 2021
59
O Assembleia Geral da ONU publicou a Resolução L.20, do Conselho de Direitos
Humanos das Nações Unidas, em 27 de junho de 2016, sobre “Promoção, proteção
e gozo dos direitos humanos na internet”. Esta Organização Internacional, ao
publicar tal Resolução, alertou para a preocupação com os abusos e violações
cometidos contra indivíduos por exercerem seus direitos humanos e liberdades
fundamentais através da internet. Para que a internet possa continuar a ter a sua
característica global, interoperável e aberta, cabe aos Estados responderem às suas
obrigações de garantia de segurança, liberdade de expressão, privacidade e direitos
humanos na utilização da rede. Segundo esta Resolução da ONU, a internet é uma
ferramenta importantíssima e que pode garantir o acesso á livre circulação de ideia,
acesso à educação, cultura e colaborar para o desenvolvimento socioeconômico dos
indivíduos.
A Declaração de Toronto
84
Fonte: https://www.torontodeclaration.org/ Acesso em 23 de junho de 2021
61
Uma das questões centrais que a Declaração de Toronto destaca é que os
padrões de discriminação existentes atualmente na sociedade podem ser
reproduzidos e agravados em situações de utilização de tecnologia, como é o caso
da comunicação M2M (Máquina-a-Máquina)85. Nestas situações, os sistemas de
auto-realização reforçam os padrões de desigualdade ou de usos de conjuntos de
dados tendenciosos. Na presente pesquisa foi explanado acerca dos problemas
ocasionados pela utilização dos algoritmos de vieses (BIAS).
85
M2M (Machine-to-Machine) refere-se à comunicação de máquina para máquina. Esta tecnologia
vai além da conexão ponto-a-ponto, podendo interligar sistemas de rede, tanto com fio quanto sem
fio, a dispositivos remotos.
Fonte: https://www.teleco.com.br/m2m.asp Acesso em 22 de junho de 2021
62
E esta preocupação não deve ser apenas do setor privado, uma vez que cada
vez mais o setor público tem desenvolvido aplicações e desenvolvimento
tecnológico, seja para implementar políticas públicas, ou para realizar estudos e
pesquisas socioeconômicas. Cabe, especialmente ao Estado, garantir aos
indivíduos o amplo acesso aos instrumentos estatais, sem discriminação e, quando
esta ocorrer, criar mecanismos de saída para garantir a equidade de acesso para
situações de assimetrias econômico-sociais. A Declaração de Toronto determina
que cabe aos Estados realizarem avaliações prévias em que seja considerado os
riscos e impactos que a contratação de tecnologias M2M possam ter frente à
discriminação de grupos vulneráveis, especialmente identificando as fontes
potenciais de discriminação destas tecnologias. Quando identificados os riscos, cabe
ao Estado tomar medidas para mitigar a sub-representação de dados nos sistemas
que irão compor a base de dados que será utilizada pelos algoritmos. Desta forma, a
discriminação poderá ser mitigada. Outro aspecto importante é submeter os
sistemas contratados pelos Estados á auditorias regulares, garantindo revisões em
sistemas que poderiam se retroalimentar e desenvolver parâmetros e algoritmos
discriminatórios que não estavam previstos inicialmente.
h) ESTUDO DE CASO
O estudo de caso teve como objeto uma pesquisa realizada pelo canal de mídia
alemão DW86 em que foi analisado se o buscador de imagens do Google exibe
respostas de pesquisas de imagens sexualizadas para mulheres de algumas regiões
do mundo. Estaria as respostas apresentada por aquele buscador contribuindo para
a permanência de estereótipos sexistas femininos? Poderiam mulheres de
determinadas nacionalidades, ao serem pesquisadas no buscador, apresentarem
86
Para maiores informações sobre a pesquisa da DW, acesse https://github.com/dw-data/image-
search#data-analysis . Acesso em 22 de junho de 2021
64
como respostas parâmetros mais sexualizados e sensuais, reproduzindo
estereótipos? De acordo com a pesquisa feita pela DW sim, a ferramenta deste
buscador estaria reproduzindo estereótipos sobre mulheres de certas
nacionalidades.
87
Mulheres brasileiras, mulheres tailandesas e mulheres ucranianas, respectivamente.
88
Mulheres americanas e mulheres alemãs, respectivamente.
89
Fonte: https://www.dw.com/pt-br/como-o-google-contribui-para-perpetuar-estere%C3%B3tipos-
sexistas/a-56789034 Acesso em 23 de junho de 2021
65
probabilidade de ser sexualizadas, enquanto para mulheres americanas ou alemãs a
percentagem é de 4% ou 5%, respectivamente90 .
Uma das conclusões é que os algoritmos que as chamadas Big Techs 93 utilizam
refletem o conteúdo utilizado e divulgado na própria internet. Ocorre que, devido à
grande concentração de mercado existente especialmente no segmento de
buscadores on line, tais empresas deveriam ter uma regulação para evitar a
90
Fonte: https://www.dw.com/pt-br/como-o-google-contribui-para-perpetuar-estere%C3%B3tipos-
sexistas/a-56789034 Acesso em 23 de junho de 2021
91
Essa objetificação é muito mais rara para as nacionalidades da Europa Ocidental: de 100
resultados para "alemãs" (sempre na busca em inglês), apenas 16% apresentavam as palavras-
chave sexistas; para "francesas", a taxa foi de 6%. Fonte: https://www.dw.com/pt-br/como-o-google-
contribui-para-perpetuar-estere%C3%B3tipos-sexistas/a-56789034 Acesso em 23 de junho de 2021
92
Fonte: https://www.dw.com/pt-br/como-o-google-contribui-para-perpetuar-estere%C3%B3tipos-
sexistas/a-56789034 Acesso em 23 de junho de 2021
93
As Big Techs são as grandes empresas de tecnologia que dominaram o mercado nos últimos anos.
Inicialmente pequenas startups, essas organizações, geralmente localizadas no Vale do Silício,
criaram serviços inovadores e disruptivos se utilizando de um modelo de negócios escalável,
dinâmico e ágil. Muitas vezes gratuitos, esses produtos passaram a fazer parte do dia a dia de várias
pessoas, como é o caso dos serviços do Google, da Uber e da Netflix. Fonte:
https://blog.simply.com.br/big-techs-o-que-sao-e-seu-impacto-no-mercado-financeiro/ Acesso em 24
de junho de 2021
66
propagação de tais estereótipos. Obviamente não trata-se de uma tarefa fácil, uma
vez que uma regulamentação neste sentido deveria ter como ponderação o direito a
liberdade de expressão, para evitar a realização de censuras.
Por fim, a DW afirma que questionou o Google sobre como os algoritmos que
enviesavam os resultados mencionados nos parágrafos acima, solicitando maiores
esclarecimentos a respeito deste tema. A DW disse que aquele buscador, se limitou
a emitir uma declaração dizendo que as buscas realmente mostram "conteúdo
explícito ou perturbador [...] incluindo resultados que refletem estereótipos negativos
ou preconceitos existentes na rede (...)". Além disse, afirmou que a presença desse
conteúdo nas repostas das buscas das imagens é afetada pela forma como a
informação é organizada e rotulada na internet, e que “está trabalhando para
encontrar soluções em escalas diversas"94.
5. CONCLUSÃO
94
Fonte: https://www.dw.com/pt-br/como-o-google-contribui-para-perpetuar-estere%C3%B3tipos-
sexistas/a-56789034 Acesso em 23 de junho de 2021
67
O objetivo da presente pesquisa foi analisar se a Inteligência Artificial pode
violar os direitos fundamentais. Após uma análise sobre os conceitos de Inteligência
Artificial, algoritmos, algoritmos de vieses e a sua aplicação na utilização da internet,
podemos comprovar que sim.
As ciências jurídicas têm cada vez mais analisado que cabem às inovações
tecnológicas, tal qual a aplicação da Inteligência Artificial, estarem submetidas aos
aspectos éticos que regulam o comportamento humano em suas distintas inter-
relações. Que seja em algoritmos de redes sociais, sistemas autônomos de decisão
e as demais aplicações que são objetos de constantes inovações tecnológicas .
Importa frisar que as aplicações tecnológicas não são objeto de estudo somente no
campo das ciências exatas, mas sua análise e implicações éticas na sociedade
também devem ser estudadas nas ciências humanas.
Assim como o indivíduo não foi feito para a máquina, a figura de criador e
criatura não deve ter a correlação de força e decisão ter a polaridade invertida, e
trazer por consequência que a humanidade fique ameaçada por padronizações e
decisões preditivas que reflitam, e polarizem, ainda mais os preconceitos e
discriminações já tão latentes em nossa sociedade atual.
69
A saída existe, uma vez que os próprios desenvolvedores destas aplicações
preditivas já sinalizaram que estas ameaças aos direitos fundamentais e atitudes
discriminatórias dos algoritmos são reais, e que estão investindo em soluções
tecnológicas para sanar estes problemas. Mas cabe aos operadores do direito
continuarem a vigilância, a fim de garantir que os direitos fundamentais não sejam
ameaçados, também, por aqueles que não são seus semelhantes – uma vez que os
indivíduos ainda continuam a ameaçá-los.
REFERÊNCIAS
70
ALCANTARA, Larissa Kakizaki. Big data e internet das coisas: desafios da
privacidade e da proteção de dados no direito digital. 2017.
DINIZ, Maria Helena. Curso de Direito Civil Brasileiro. Teoria Geral do Direito Civil.
35ª edição. Ed. Saraivajur
DINIZ, Maria Helena. Código civil anotado 18ª edição. Ed. Saraivajur
MORAES, Maria Celina Bodin de. Na medida da pessoa humana. Estudos de direito
civil-constitucional. editora processo. 2016
SILVA, Ivan Nunes da. Redes neurais artificiais para engenharia e ciências
aplicadas. Ed. Artlibert. 2016
SILVA, José Afonso da. Curso de Direito Constitucional Positivo. Malheiros Editores.
2019
SILVEIRA, Sergio Amadeu da. Tudo sobre todos. Redes digitais, privacidade e
venda de dados pessoais. Edições Sesc.
TEPEDINO, Gustavo. FRAZÃO, Ana. OLIVA, Milena Donato. Lei geral de proteção
de dados pessoais e suas repercussões no direito brasileiro. Ed. RT. 2019.
73
74