Escolar Documentos
Profissional Documentos
Cultura Documentos
ALINE MACOHIN
CURITIBA
2023
ALINE MACOHIN
CURITIBA
2023
DADOS INTERNACIONAIS DE CATALOGAÇÃO NA PUBLICAÇÃO (CIP)
UNIVERSIDADE FEDERAL DO PARANÁ
SISTEMA DE BIBLIOTECAS - BIBLIOTECA DE CIÊNCIAS JURÍDICAS
Macohin, Aline
Inteligência artificial e a transparência na
administração pública brasileira / Aline Macohin. - Curitiba,
2023.
1 recurso on-line : PDF.
TERMO DE APROVAÇÃO
Os membros da Banca Examinadora designada pelo Colegiado do Programa de Pós-Graduação DIREITO da Universidade Federal
do Paraná foram convocados para realizar a arguição da tese de Doutorado de ALINE MACOHIN intitulada: "INTELIGÊNCIA
ARTIFICIAL NA ADMINISTRAÇÃO PÚBLICA BRASILEIRA E OPRINCÍPIO DA PUBLICIDADE", sob orientação do Prof. Dr.
CÉSAR ANTONIO SERBENA, que após terem inquirido a aluna e realizada a avaliação do trabalho, são de parecer pela sua
APROVAÇÃO no rito de defesa.
A outorga do título de doutora está sujeita à homologação pelo colegiado, ao atendimento de todas as indicações e correções
solicitadas pela banca e ao pleno atendimento das demandas regimentais do Programa de Pós-Graduação.
Assinatura Eletrônica
29/03/2023 11:08:46.0
CÉSAR ANTONIO SERBENA
Presidente da Banca Examinadora
ATA N°298
No dia vinte e quatro de março de dois mil e vinte e tres às 15:00 horas, na sala 317 - Sala de defesas, Prédio Histórico da UFPR -
Praça Santos Andrade, 50, foram instaladas as atividades pertinentes ao rito de defesa de tese da doutoranda ALINE MACOHIN,
intitulada: "INTELIGÊNCIA ARTIFICIAL NA ADMINISTRAÇÃO PÚBLICA BRASILEIRA E OPRINCÍPIO DA PUBLICIDADE", sob
orientação do Prof. Dr. CÉSAR ANTONIO SERBENA. A Banca Examinadora, designada pelo Colegiado do Programa de Pós-
Graduação DIREITO da Universidade Federal do Paraná, foi constituída pelos seguintes Membros: CÉSAR ANTONIO SERBENA
(ESC O LA SUPER IO R DA M AG ISTR ATU R A TO C AN TIN EN SE), JULIAN O SO UZA DE ALB U Q U ER Q U E MARANHAO
(UNIVERSIDADE DE SÃO PAULO). A presidência iniciou os ritos definidos pelo Colegiado do Programa e, após exarados os
pareceres dos membros do comitê examinador e da respectiva contra argumentação, ocorreu a leitura do parecer final da banca
examinadora, que decidiu pela APROVAÇÃO. Este resultado deverá ser homologado pelo Colegiado do programa, mediante o
atendimento de todas as indicações e correções solicitadas pela banca dentro dos prazos regimentais definidos pelo programa. A
outorga de título de doutora está condicionada ao atendimento de todos os requisitos e prazos determinados no regimento do
Programa de Pós-Graduação. Nada mais havendo a tratar a presidência deu por encerrada a sessão, da qual eu, CÉSAR
ANTONIO SERBENA, lavrei a presente ata, que vai assinada por mim e pelos demais membros da Comissão Examinadora.
Assinatura Eletrônica
29/03/2023 11:08:46.0
CÉSAR ANTONIO SERBENA
Presidente da Banca Examinadora
Ofício
em Direito da UFPR.
mais adequado.
O rientador
AGRADECIMENTOS
Agradeço ao meu orientador Cesar Antonio Serbena por aceitar instruir o meu
trabalho de pesquisa, pelo incentivo e pelas diversas oportunidades acadêmicas que
forneceu antes e durante o doutorado.
The increasing of digitalization within the State and the use of automated systems for
decision making brought agility and efficiency, but also risks to the public
administration. Compliance, judicial and security risks could be increased depending
on the algorithms and the degree of transparency used in the technologies of those
systems. Despite the Brazilian Constitution of 1988 addresses the principle
of transparency guidelines are still needed in order to establish requirements the State
must met and what kind of information must be provided to citizens. The use of
explicable artificial intelligence could help understand how an intelligent system works
while dealing with some of those risks, as well allow a responsible and auditable use
of artificial intelligence. Previous cases show that the lack of explainability of an
algorithm, along with no proper previous public discussions about the system could
contribute to the negative impact some of those systems brought to society. Although
data protection law addresses the issue about explicability, it’s approach could not be
enough to ensure the required level of transparency, especially with regard to its use
in the brazilian public administration. The constitutional principles of publicity,
motivation and transparency justify these efforts. The main contribution of this work
was to establish the connection between the constitutional duty of transparency in the
public sector and the level of transparency needed in artificial intelligent systems, as
well to help creating AI governance guidelines necessary for that purpose.
1 INTRODUÇÃO................................................................................................................. 17
2 INTELIGÊNCIA ARTIFICIAL: CONCEITOS, RISCOS E D E SA FIO S .....................32
2.1 CONCEITUAÇÃO........................................................................................................ 33
2.1.1 Inteligência Artificial...................................................................................................35
2.1.2 Ciclo de vida da I A ....................................................................................................37
2.2 PILARES DA INTELIGÊNCIA A R TIFIC IAL.............................................................. 40
2.3 PRINCÍPIOS DA INTELIGÊNCIA ARTIFICIAL.........................................................42
2.3.1 OECD e Brasil (EBIA)............................................................................................... 42
2.3.2 A C M ............................................................................................................................ 45
2.3.3 FA T -M L...................................................................................................................... 46
2.3.4 IE E E ............................................................................................................................ 47
2.3.5 Reino Unido................................................................................................................49
2.4 RISCOS E DESAFIOS...............................................................................................50
2.4.1 Gerenciamento de riscos em sistemas de informação..........................................51
2.4.2 Riscos associados aos Sistemas de Inteligência Artificial...................................54
3 TRANSPARÊNCIA DOS SISTEMAS DE IA COMO DEVER CONSTITUCIONAL 62
3.1 A PROPOSTA DO MARCO REGULATÓRIO DA IA ...............................................63
3.2 ASPECTOS CONSTITUCIONAIS..............................................................................71
3.2.1 Direitos Fundamentais.............................................................................................. 72
3.2.2 Princípio da Publicidade........................................................................................... 73
3.2.3 Princípio da M otivação............................................................................................. 77
3.2.4 Princípio da Transparência.......................................................................................81
3.3 LEI GERAL DE PROTEÇÃO DE D AD O S.................................................................82
3.4 ACCOUNTABILITY COMO PRINCÍPIO NORMATIVO E VIABILIZADO PELA
TRANSPARÊNCIA..............................................................................................................86
3.5 NORMAS TÉCNICAS...................................................................................................89
4 TRANSPARÊNCIA POR MEIO DA INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL . 96
4.1 CONCEITOS ................................................................................................................. 98
4.1.1 Interpretabilidade..................................................................................................... 102
4.1.2 Explicabilidade........................................................................................................ 105
4.2 MOTIVOS PARA ADOTAR A IA EXPLICÁVEL......................................................109
4.3 TRANSPARÊNCIA..................................................................................................... 111
4.3.1 Tipos de Transparência.......................................................................................... 114
4.3.2 Níveis de Transparência......................................................................................... 118
4.4 CATEGORIAS DE DESTINATÁRIOS..................................................................... 122
4.5 NÍVEIS DE AUTONOM IA.......................................................................................... 123
5 GOVERNANÇA DE IA NO SETOR PÚBLICO BRASILEIRO POR MEIO DA
TRANSPARÊNCIA...........................................................................................................125
5.1 DIGITALIZAÇÃO DO PODER PÚ BLIC O ................................................................128
5.2 INTELIGÊNCIA ARTIFICIAL E O PODER PÚBLICO............................................130
5.3 TIPOS DE GOVERNANÇA DE INTELIGÊNCIA A R TIFIC IAL............................. 132
5.4 RECOMENDAÇÕES DE GOVERNANÇA EXISTEN TES.................................... 133
5.4.1 Transparência Brasil................................................................................................134
5.4.2 Estratégia Brasileira de IA ......................................................................................137
5.4.3 Proposta do Marco Regulatório de IA sobre G overnança.................................139
5.5 CRITÉRIOS DE AVALIAÇÃO DE UM A /IS ............................................................ 140
5.5.1 D esign.......................................................................................................................143
5.5.2 Dados........................................................................................................................ 145
5.5.3 Modelo.......................................................................................................................146
5.5.4 Verificação e Validação.......................................................................................... 147
5.5.5 Operação e monitoramento....................................................................................148
5.5.6 Eficácia da Explicabilidade.....................................................................................149
5.6 FORMAS DE INTERVENÇÃO................................................................................. 150
6 CONSIDERAÇÕES FINAIS......................................................................................... 151
REFERÊNCIAS................................................................................................................. 161
APÊNDICE A - ESTUDO DE CASO SOBRE O RECONHECIMENTO FACIAL .... 178
17
1 INTRODUÇÃO
A inteligência artificial é utilizada cada vez mais no âmbito mundial, tanto pelos
benefícios advindos do uso da tecnologia quanto pela disponibilidade de dados e
capacidade de processamento. A capacidade de processamento se dá pela evolução
dos locais de armazenamento dos dados (SESARTIC, 2017) e pelos processadores
que permitem processar e cruzar estes dados com cada vez mais rapidez e eficiência
(MACK, 2011 p. 202). Segundo relatório realizado em 2022 pelo DataReportal (2022),
no âmbito mundial a internet possuía 4,95 bilhões de usuários, que representa 62,5%
da população mundial. Quanto ao volume de dados, em 2021 o IDC (International
Data Corporation) (2020) elaborou a estimativa que tem ao todo 74 zettabytes1 de
dados no mundo inteiro. No contexto do poder público, o volume de dados cresce
exponencialmente tanto pela digitalização constante dos serviços quanto pela
necessidade de criação de serviços que possam suprir necessidades da população.
O poder público é composto por diversos órgãos que desempenham funções
distintas e fundamentais para o funcionamento do Estado. Dentre os órgãos,
destacam-se o Poder Executivo, o Poder Legislativo e o Poder Judiciário. Além desses
poderes, existem instituições independentes, como o Ministério Público Federal e os
Estaduais, além dos órgãos de controle interno e externo, como os Tribunais de
Contas. Cada órgão, dentro do seu campo de atuação, utiliza tecnologias para
desempenhar suas funções2.
No poder executivo, no âmbito do governo federal, estão disponíveis 4,8 mil
serviços públicos digitais na plataforma Gov.Br (GOV.BR, 2022b). Como exemplo do
uso da tecnologia de IA no executivo, temos o uso de reconhecimento facial em
aeroportos3. Apesar do grande volume de dados existentes, a maioria dos serviços do
4 CNJ. Justiça 4.0: Inteligência Artificial está presente na maioria dos tribunais brasileiros. Disponível
em https://www.cnj.jus.br/justica-4-0-inteligencia-artificial-esta-presente-na-maioria-dos-tribunais-
brasileiros/. Acesso em: junho de 2022.
5 CÂMARA DOS DEPUTADOS. Consultoria Legislativa da Câmara utiliza inteligência artificial para
agilizar trabalhos. Disponível em https://www.camara.leg.br/assessoria-de-imprensa/568452-
consultoria-legislativa-da-camara-utiliza-inteligencia-artificial-para-agilizar-trabalhos/ .Acesso em:
junho de 2022.
6 O escândalo Cambridge Analytica ocorreu em 2018 e envolveu a empresa de consultoria política
Cambridge Analytica, que acessou ilegalmente dados pessoais de milhões de usuários do Facebook.
Eles utilizaram esses dados para criar perfis psicográficos detalhados e segmentar campanhas
políticas altamente direcionadas. O vazamento dos dados gerou preocupações sobre a privacidade
e o uso ético da informação pessoal em contextos eleitorais. O caso gerou repercussão mundial e
levou a uma maior conscientização sobre a proteção dos dados do usuário na internet.
7 A influência da IA nas pessoas que resultam na mudança de nosso comportamento, formas de agir,
pensar e trabalhar é objeto de uma área de estudo chamada neurodireitos. Os neurodireitos podem
ser definidos como uma nova estrutura jurídica internacional de direitos humanos destinados
especificamente a proteger o cérebro e sua atividade à medida que ocorram avanços em
neurotecnologia (IENCA, ADORNO, 2017). Conforme avança o desenvolvimento da tecnologia,
possibilitará maiores intervenções no comportamento humano.
19
8 BBC. Cartilha da desinformação: como agem os grupos que usam redes sociais para espalhar fake
news e mobilizar eleitores. 2023. Disponível em
https://www.bbc.com/portuguese/articles/ceq55vxe9leo
9 BBC. Cartilha da desinformação: como agem os grupos que usam redes sociais para espalhar fake
news e mobilizar eleitores. 2023. Disponível em
https://www.bbc.com/portuguese/articles/ceq55vxe9leo.
10 CNJ. Justiça 4.0: Inteligência Artificial está presente na maioria dos tribunais brasileiros. Disponível
em https://www.cnj.jus.br/justica-4-0-inteligencia-artificial-esta-presente-na-maioria-dos-tribunais-
brasileiros/. Acesso em: junho de 2022.
11 “O painel foi desenvolvido a partir dos dados obtidos em pesquisa aplicada entre abril e maio de 2022
em todos os tribunais brasileiros. Dos 94 órgãos consultados (entre tribunais e conselhos superiores),
apenas seis não responderam à pesquisa. O questionário identifica a quantidade de projetos por
tribunal e segmento de Justiça, o estágio de evolução, o volume de processos judiciais beneficiados,
os recursos, a plataforma, o método e a linguagem utilizados, bem como o tamanho da equipe
envolvida e o compartilhamento de dados e códigos.” (CNJ, 2022b).
20
12 O termo "inteligência artificial" foi cunhado por John McCarthy em 1956 durante a Conferência de
Dartmouth (MOOR, 2006). Apesar do termo existir há mais de meio século, a tecnologia depende da
existência de dados que possam ser lidos e processados por um computador. No poder executivo, a
digitalização do governo federal começou em 1990, mas apenas foi difundida no ano 2000. (GOV.BR,
2019). Já no poder judiciário, a digitalização começou em meados do ano 1999 com a Lei do Fax (Lei
n.° 9.800/1999). Já o processo judicial eletrônico foi objeto de lei somente no ano de 2006 (Lei n.°
11.149/2006).
13 Em notícia publicada pelo Banco de Desenvolvimento da América Latina e Caribe, estima-se que
30% da mão-de-obra da administração pública na América Latina trabalha em ocupações com alto
risco de substituição tecnológica (CAF, 2021).
14 A EBIA (BRASIL, 2021) possui como papel nortear as ações do Estado brasileiro em prol do
desenvolvimento das ações que estimulem a pesquisa, inovação e desenvolvimento de soluções em
Inteligência Artificial, além do uso consciente e ético.
21
15 Além dos princípios, a EBIA tem como objetivos 1) Contribuir para a elaboração de princípios éticos
para o desenvolvimento e uso de IA responsáveis; 2) Promover investimentos sustentados em
pesquisa e desenvolvimento em IA; 3) Remover barreiras à inovação em IA; 4) Capacitar e form ar
profissionais para o ecossistema da IA; 5) Estimular a inovação e o desenvolvimento da IA brasileira
em ambiente internacional e; 6) Promover ambiente de cooperação entre os entes públicos e
privados, a indústria e os centros de pesquisas para o desenvolvimento da Inteligência Artificial
(BRASIL, 2021).
16 Rótulos em inteligência artificial consistem na criação de categorias a partir de valores identificados
em variáveis. Um exemplo de rótulo pode ser associar uma palavra a uma determinada imagem,
como imagens que contêm ou não pessoas. Outro exemplo de rótulo é em sistemas de “Escore de
Crédito”, que consiste em atribuir uma pontuação ao consumidor baseada no histórico financeiro. A
partir desta pontuação, o consumidor pode ser classificado em uma categoria que indique se
conseguirá obter empréstimos e financiamentos em instituições financeiras. Inclusive, a utilização do
escore de crédito possui amparo na Lei n.° 12.414/2011 (Lei do Cadastro Positivo).
22
17 A palavra transparência fez sua primeira aparição na Constituição Federal de 1988 com a Emenda
Constitucional n. 71/2012. Nesse contexto, o termo em questão está restrito a uma das características
essenciais para a organização de um sistema nacional de cultura. Tal sistema, em consonância com
os demais mecanismos de colaboração administrativa entre os entes federativos, pretende amplificar
as iniciativas culturais do Estado brasileiro (MARTINS, 2019, p. 1).
25
18 Art. 5° ... LX - a lei só poderá restringir a publicidade dos atos processuais quando a defesa da
intimidade ou o interesse social o exigirem.
19 Art. 37. A administração pública direta, indireta ou fundacional, de qualquer dos Poderes da União,
dos Estados, do Distrito Federal e dos Municípios obedecerá aos princípios de legalidade,
impessoalidade, moralidade, publicidade e, também, ao seguinte: ... § 1° A publicidade dos atos,
programas, obras, serviços e campanhas dos órgãos públicos deverá ter caráter educativo,
informativo ou de orientação social, dela não podendo constar nomes, símbolos ou imagens que
caracterizem promoção pessoal de autoridades ou servidores públicos. ...
20 Art. 225. Todos têm direito ao meio ambiente ecologicamente equilibrado, bem de uso comum do
povo e essencial à sadia qualidade de vida, impondo-se ao Poder Público e à coletividade o dever de
defendê-lo e preservá-lo para as presentes e futuras gerações. ... IV - exigir, na forma da lei, para
instalação de obra ou atividade potencialmente causadora de significativa degradação do meio
ambiente, estudo prévio de impacto ambiental, a que se dará publicidade.
21 Um exemplo de questionamento que o cidadão pode fazer e no caso do setor público utilizar sistemas
de inteligência artificial em processos de seleção e recrutamento de servidores públicos. A
transparência sobre o funcionamento do sistema é fundamental para garantir a justiça, a
imparcialidade no processo de seleção e o candidato compreender o motivo de não ter sido
selecionado. Em 2021, o governo do Rio de Janeiro fez um faz processo seletivo com Inteligência
Artificial para escolher ocupantes de cargos comissionados (EXTRA, 2021)
26
22 GDPR. Art. 22 Autom ated individual decision-making, including profiling. The data subject shall have
the right not to be subject to a decision based solely on automated processing, including profiling,
which produces legal effects concerning him or her or similarly significantly affects him or her. ...
(European Union, 2016)
23 Um exemplo de boa prática, é a empresa desenvolvedora de sistemas de IA possuir um código de
ética para o desenvolvimento deste tipo de tecnologia. Este código de ética deve ser publicizado para
permitir que pessoas externas compreendam os cuidados realizados durante a construção do
sistema.
27
24 As dimensões de Hofstede (2011, p. 8) são (i) Distância com relação ao Poder, relacionada ao grau
de aceitação dos membros menos poderosos de uma sociedade com relação à distribuição desigual
de poder; (ii) Aversão à Incerteza, relacionada ao nível de estresse em uma sociedade diante de um
futuro desconhecido; (iii) Individualismo e Coletivismo, relaciona-se com a preocupação das pessoas
com elas mesmas (e seus próximos) contra a necessidade de pertencimento a grupos sociais que se
ajudam e são leais entre si; (iv) Masculino e Feminino, relacionada à divisão de papéis emocionais
entre mulheres e homens; (v) Visão de Longo Prazo contra Curto Prazo, relacionada à escolha do
28
foco de atuação das pessoas: futuro ou presente e passado e (vi) Indulgência e Restrição, relacionado
à gratificação contra controle dos desejos humanos básicos relacionados a aproveitar a vida.
25 Um estudo interessante, que usa como base as dimensões de Hofstede e técnicas de mineração de
dados, identifica o impacto de traços culturais do Brasil sobre o índice de ceticismo em relação à
vacinação no País (QUINZANI; SANDRE, 2022). A partir de dados sobre individualismo, orientação
a longo prazo, masculinidade, distância de poder e indulgência em 117 países, além do índice de
ceticismo em relação às vacinas, foram aplicadas técnicas de mineração de dados para identificar se
fatores culturais podem ou não interferir nas campanhas de vacinação. O estudo acabou por não
encontrar relações entre as dimensões, mas ainda pretendem aplicar outras técnicas de mineração
de dados em trabalhos futuros.
26 Greene (2018) em seu livro “Tribos Morais”, aborda questões culturais e individuais das pessoas e
como a diferença de valoração destas questões podem gerar conflitos. O livro também aborda uma
possível solução para estes conflitos com uma filosofia moral global que possa mediar as moralidades
de grupos opostos.
27 Haidt (2001) aborda em seu trabalho “The emotional dog and its rational tail: a social intuitionist
approach to moral judgm ent”, o modelo intuicionista social como uma alternativa aos modelos
racionalistas. Neste modelo, defendido por Haidt, é demonstrada a importância das influências sociais
e culturais nas decisões, pelo fato das emoções e intuições morais conduzirem o raciocínio.
28 Prinz (2006, p. 31) menciona modelos da psicologia comportamental, como o de Schnall, Haidt e
Clore (2005), que demonstram a ligação entre emoção e o julgamento moral e que de certa forma
nos permite compreender esse julgamento diverso conforme os valores culturais de cada grupo.
29
29 Um exemplo de violação de direito fundamental por um sistema de IA é uma pessoa ser presa, por
causa de uma falha em um sistema de reconhecimento facial, devido a uma classificação indevida.
30 Um exemplo é a utilização de um modelo matemático para definir a distribuição de recursos em um
programa social do governo. O modelo considera diversos fatores como renda, idade, número de
dependentes, dentre outros, para definir quem terá acesso aos benefícios. No entanto, é importante
que o resultado obtido seja analisado para garantir que a distribuição esteja conforme os princípios
da publicidade e da motivação, e que não haja nenhum tipo de discriminação ou favorecimento
indevido.
31
2.1 CONCEITUAÇÃO
Figura 1 - Diferença entre sistemas realizados por meio da programação clássica e sistemas de
aprendizado de máquina. Fonte: Própria.
da IA, ainda há diversos tipos de algoritmos que podem ser utilizados e como vemos
a seguir, cada algoritmo pode fornecer um nível de explicabilidade diferente.
No geral, verifica-se que grande parte das aplicações de inteligência artificial
são baseadas em dados passados para gerar previsões futuras. Neste sentido, vale
destacar o conceito de mineração de dados, que reside numa das formas de análise
de padrões dos dados existentes. Han, Kamber e Pei (2012, p. 3) definem mineração
de dados como um dos passos para a extração do conhecimento. Dentre os passos
para a extração do conhecimento estão inclusos a (i) Limpeza dos dados para eliminar
ruídos e dados inconsistentes; (ii) Integração dos dados, que consiste em juntar
diversas fontes de dados; (iii) Seleção dos Dados, em que são selecionados os dados
relevantes para a análise; (iv) Transformação dos dados, em que os dados são
transformados/adequados em um formato apropriado para o uso; (v) Mineração dos
Dados, em que se aplica métodos para extrair padrões; (vi) Avaliação de padrões, em
que são avaliados os padrões obtidos; (vii) Visualização do conhecimento, etapa na
qual o usuário final visualiza os conhecimentos obtidos. Os passos podem ser
verificados a figura 2.
Na etapa 5 define-se que tipo de mineração desejamos fazer, que pode incluir
explicar o passado e/ou projetar resultados futuros. Para cada tipo escolhido há
inúmeros métodos que podem ser aplicados e que devem ser avaliados em cada caso.
Assim que nos referimos à IA, há, na verdade, inúmeras formas de representá-
la, mas quando nos referimos ao programa computacional, chamamos de modelo ou
modelagem matemática. Na aplicação de um modelo, para atingir um determinado
objetivo e com base em dados, é necessário passar por diversas fases como
compreensão do problema que será resolvido, dados disponíveis, preparação dos
dados, modelagem, avaliação e aplicação. E dentro de cada fase é possível
considerar alguns aspectos éticos e boas práticas para tratar riscos.
37
33 Um exemplo do uso deste tipo de tecnologia é o do sistema Bem-te-vi do TST. Conforme informado
no Painel do CNJ (https://paineisanalytics.cnj.jus.br) relativo ao mapeamento de sistemas de
inteligência artificial utilizados no Judiciário, “o objetivo do sistema Bem-te-vi é auxiliar os Gabinetes
na gestão de seu acervo, especialmente na atividade de triagem. ... O conteúdo das petições de RR
e AIRR, do despacho de admissibilidade e dos acórdãos são utilizados como entrada para algoritmos
39
Im plantação
Quanto à fase de implantação, a OECD (2022, p. 54) define que esta reside
em colocar o sistema de IA para funcionar com dados reais, assim como considerar
todos os aspectos de segurança do sistema e funcionamento. A implantação em
produção envolve execução da versão piloto do sistema (piloting), verificação de
compatibilidade com sistemas legados, garantia de conformidade com a legislação
vigente, gerenciamento de mudanças organizacionais e avaliação da experiência do
usuário.
Em relação à garantia de conformidade com a legislação vigente, é de suma
importância ter conhecimento de todos os dados que serão utilizados como variáveis
de entrada do sistema, bem como da autorização para uso. Outro aspecto é a
documentação da comunicação que possa ser realizada com outros sistemas.
34 IEEE. The Ethics Certification Program for Autonomous and Intelligent Systems (ECPAIS). Disponível
em https://standards.ieee.org/industry-connections/ecpais/. Acesso em: junho de 2022.
43
Tabela 2 - Quadro comparativo dos princípios de governança de IA dos grupos FAT-ML e ACM, IEEE
e o Reino Unido. Fonte: Própria.
44
35 Masseno (2020) realizou um estudo sobre as consequências jurídicas aos Princípios da OCDE para
a Inteligência Artificial, especialmente em matéria de Proteção de Dados e destaca o artigo 20 da
LGPD. Do como como o artigo está escrito, gera limitações no exercício dos direitos do cidadão. O
artigo 20 deveria prever que serão permitidas as intervenções humanas sempre que necessário.
45
2.3.2 ACM
particular, devem ser realizados testes com uma certa frequência para avaliar e
determinar se o modelo gera dano discriminatório, principalmente em modelos de
aprendizagem contínua ou alterações no projeto. As instituições são incentivadas a
tornar públicos os resultados desses testes.
2.3.3 FAT-ML
2.3.4 IEEE
Tabela 3 - Mapeamento dos Pilares e Princípios da Inteligência Artificial. Fonte: IEEE (2019).
Tradução nossa.
A norma técnica internacional ISO/IEC 27000 (2018, p. 8), que foi referência
para a criação das normas técnicas brasileiras nesta área, define risco por "efeito da
incerteza nos objetivos” . Já a norma brasileira ABNT NBR ISO/IEC 27005 (2019, p.
11), referência para a gestão de riscos de segurança da informação, define risco
como:
36 Para a norma ABNT NBR ISO/IEC 27005 (2019, p. 12) um ativo é “algo que tem valor para a
organização e que, portanto, requer proteção. Para a identificação dos ativos, convém que se tenha
em mente que um sistema de informação compreende mais do que hardware e software”. Como a
norma destaca, um sistema de informação compreende mais do que hardware e software, aqui
devem ser considerados os impactos indesejados que a tecnologia produza em terceiros e que não
afetem diretamente a empresa. Decisões injustas ou com vieses discriminatórios, além de prejudicar
terceiros, podem afetar o patrimônio da empresa ao ser midiatizado ou judicializado o problema, além
de afetar a imagem pública e confiabilidade na tecnologia.
52
p. 11).
Dada a priorização dos riscos, há a decisão de como tratá-los, há quatro
opções disponíveis, (i) modificação do risco; (ii) retenção do risco; (iii) ação de evitar
o risco e (iv) compartilhamento do risco, conforme figura abaixo. Após o tratamento
ao risco, ainda podem existir riscos residuais que devem ser considerados, enquanto
a tecnologia continuar implantada.
A modificação do risco envolve a implementação de medidas para modificar a
probabilidade ou o impacto do risco. Essas medidas podem incluir mudanças no
processo, na tecnologia, na segurança da informação ou em outras áreas relevantes
para reduzir a probabilidade ou o impacto. Essa opção é adequada para riscos que
podem ser controlados ou mitigados de alguma forma.
Já a retenção do risco envolve aceitá-lo sem implementar medidas adicionais
de controle ou mitigação. Essa opção é adequada para riscos que são considerados
aceitáveis nos limites de tolerância estabelecidos pela organização.
37 Por vulnerabilidade, a norma ABNT NBR ISO/IEC 27005 (2019, p. 14) destaca que uma
“vulnerabilidade não causa prejuízo p or si só, pois precisa haver uma ameaça presente para explorá-
la ”. Ou seja, a vulnerabilidade é uma fraqueza ou falha em um sistema de informação que pode ser
explorada por uma ameaça. No exemplo mencionado na nota de rodapé anterior, uma vulnerabilidade
consiste em um servidor, que armazena o banco de dados de treinamento, não ter medidas de
segurança eficazes e que impeçam o acesso e alteração indevida por terceiros.
38 A norma ISO/IEC 27000 (2018, p. 4) define incidente de segurança da informação como um evento
isolado ou uma série de eventos indesejados, ou inesperados de segurança da informação. Estes
eventos têm uma probabilidade significativa de comprometer as operações de uma empresa e
ameaçar a segurança da informação.
39 Para a norma ABNT NBR ISO/IEC 27005 (2019, p. 12), uma ameaça “tem o potencial de
com prom eter ativos como informações, processos e sistemas e, por isso, também as organizações.
Am eaças podem ser de origem natural ou humana e podem ser acidentais ou intencionais. Convém
que tanto as fontes das ameaças acidentais, quanto as intencionais, sejam identificadas. Uma
ameaça pode surgir de dentro ou de fora da organização. ... Algum as ameaças podem afetar mais
de um ativo. Nesses casos, elas podem provocar impactos diferentes, dependendo de quais ativos
são afetados.” No contexto do uso da inteligência artificial, um exemplo de uma ameaça existente é
a violação da integridade da base de dados de treinamento. Como a tecnologia toma decisões
baseado nos dados que recebe de entrada, caso sejam fornecidos dados alterados indevidamente,
a tecnologia pode reproduzir a decisão indevida em projeções futuras.
53
Figura 3 - Atividades de tratamento de riscos em sistemas de informação. Fonte: ABNT (2019, p. 21).
40 Doneda et al (2018, p. 5) citam um exemplo deste problema “da pessoa que, apesar de morar em
determinada região, considerada de baixa renda e, portanto, classificada como de maior risco de
inadimplência em modelos de risco de crédito, aufere na realidade renda superior à de seus vizinhos”.
A discriminação, nesse caso, ocorre porque o modelo matemático obtido considera o endereço como
uma variável importante.
56
humana, caso haja um dilema ético, há outros contextos que a IA aplicada não dispõe
de um ser humano para tomar a decisão.
O exemplo clássico, para um dilema ético sem possibilidade de intervenção
humana, é o caso de robôs que realizam resgate de pessoas e precisam optar entre
salvar uma pessoa ou outra. Neste caso, pelo contexto envolvido, o robô não tem
comunicação com seu controlador para auxiliar na tomada de decisão e deve optar
por salvar uma das pessoas, ou ainda, não salvar ninguém, já que não tem como se
comunicar com seu operador, caso a legislação obrigasse a intervenção humana
nestes casos. Similar a este caso, é o que ocorre com os veículos autônomos, que
em uma fração de segundos o software deve optar por uma decisão que também
possua um dilema ético e não há tempo hábil para um humano rever essa decisão.
Neste caso dos veículos autônomos, o motorista/passageiro está em constante
comunicação com o veículo, entretanto, não consegue intervir devido à rapidez com
que a decisão precisa ser tomada.
Com relação às iniciativas no sentido de tratar riscos e preocupações éticas
sobre sistemas de IA, por exemplo, o caso do Google Tradutor que reduziu o viés de
gênero em suas traduções41 e a remoção da variável gênero na API do Google
Cloud42. Há outras iniciativas que, ao detectar que seus algoritmos possuíam vieses,
foram desativados, como foi o caso da Amazon que prejudicava mulheres durante a
contratação de funcionários43.
Apesar dos seres humanos também poderem tomar decisões equivocadas e
que violem aspectos éticos, na inteligência artificial isto visa ser tratado, em razão do
volume de decisões que uma máquina pode proferir em comparação a decisões
individuais. Entretanto, quando os modelos de IA utilizam como subsídio para seu
treinamento decisões passadas tomadas por seres humanos e podem possuir
vieses44, torna-se um grande desafio técnico criar um modelo que não reproduza (e
amplie) os mesmos defeitos.
É gerada uma grande expectativa pela sociedade que a tecnologia possa tomar
decisões melhores e mais justar que as proferidas por seres humanos (NASS; MOON,
2002). Essas expectativas levantam questões de responsabilidade e obrigação, bem
como a expectativa que a tecnologia aja conforme os valores humanos e respeite os
direitos humanos.
Vários dos problemas relatados só são possíveis de serem averiguados se
existir transparência sobre como o sistema de inteligência artificial foi desenvolvido.
Por isso, a falta de transparência, também é um grave problema, justamente por
impedir de averiguar os demais.
Quanto aos riscos, Dietterich e Horvitz (2015) elencam cinco tipos de riscos (i)
bugs (falhas), (ii) cibersegurança, (iii) pretensão das pessoas que interagem com a
IA, (iv) autonomia compartilhada e (v) impactos socioeconômicos.
Referente ao primeiro, este decorre de erros de programação no software de
IA, geralmente ocasionado por falta de garantia de qualidade e validação do sistema.
Neste tipo de risco, os desafios técnicos abrangem tanto o comportamento adequado
dentro do que se conhece e foi treinado quanto agir dentro do esperado em situações
imprevistas.
Quanto ao segundo tipo de risco, a segurança de sistemas de informação,
Dietterich e Horvitz (2015) comentam que os algoritmos de IA são tão vulneráveis
quanto qualquer outro software aos ataques cibernéticos. Dentre as vulnerabilidades
exploradas, estão manipular de dados de treinamento que podem alterar o
comportamento desses sistemas. Agrava-se mais ainda quando a IA é utilizada para
tomadas de decisões de alto risco.
45 The Guardian. Google alters search autocomplete to remove 'are Jews evil' suggestion. Disponível
em https://www.theguardian.com/technology/2016/dec/05/google-alters-search-autocomplete-
remove-are-jews-evil-suggestion . Acesso em: junho de 2022.
46 The Guardian. Do Google's 'unprofessional hair' results show it is racist?. Disponível em
https://www.theguardian.com/technology/2016/apr/08/does-google-unprofessional-hair-results-
prove-algorithms-racist- . Acesso em: junho de 2022.
47 UN Women. UN Women ad series reveals widespread sexism. Disponível em
https://www.unwomen.org/en/news/stories/2013/10/women-should-ads . Acesso em: junho de 2022.
61
48 STF. RE 865.401, Rei. Min. Dias Toffoli, Pleno, julg. 25/04/2018. Disponível em:
https://portal.stfjus.br/processos/detalhe.asp?incidente=4709214. Acesso em 23 de junho de 2023
49 Em 2023 continua em tramitação no Senado Federal Brasileiro a discussão da regulamentação da
IA, por intermédio do Projeto de Lei n.° 2338/2023, que pretende dispor sobre o uso da inteligência
artificial no Brasil.
63
poder público e neste caso o uso de sistemas de IA para auxiliar ou realizar funções
estatais também se enquadra neste dever. Entretanto, como observamos na prática,
há dificuldade em obter detalhes completos do funcionamento dos sistemas já usados.
O problema se agrava quando tecnologias estrangeiras são contratadas sem o
repasse devido do funcionamento interno.
A ausência de legislação específica sobre como validar e identificar requisitos
de que um sistema de IA deve atender para ser transparente, dificulta a fiscalização e
que o próprio órgão ou instituição pública implemente todos os requisitos necessários.
Apesar de existirem normas técnicas internacionais neste sentido, são recentes e
continuam em desenvolvimento50.
Com a vigência da legislação referente à proteção de dados no Brasil51, trouxe
diversas diretrizes as quais as empresas desenvolvedoras de software e empresas
titulares dos softwares necessitaram se adequar. Entretanto, com relação aos
sistemas de IA e conforme será abordada na seção 3.3, a LGPD é insuficiente.
Além da LGPD, alguns aspectos também já podem ser tratados pelo Código
Civil (DE TEFFÉ; MEDON, 2020) (FRAZÃO, 2018) e pelo Código de Defesa do
Consumidor (DE TEFFÉ; MEDON, 2020), em contextos que envolvem inteligência
artificial.
50 Na seção 3.5 serão detalhadas as normas técnicas existentes e a maioria delas começa a surgir a
partir do ano de 2020.
51 A Lei Geral de Proteção de dados entrou em vigor no Brasil em 18/09/2020.
64
Nessa quadra, esse novo marco legal tem um duplo objetivo. De um lado,
estabelecer direitos para proteção do elo mais vulnerável em questão, a
pessoa natural que já é diariamente impactada por sistemas de inteligência
artificial, desde a recomendação de conteúdo e direcionamento de
publicidade na Internet até a sua análise de elegibilidade para tomada de
crédito e para determinadas políticas públicas. De outro lado, ao dispor de
ferramentas de governança e de um arranjo institucional de fiscalização e
supervisão, criar condições de previsibilidade acerca da sua interpretação e,
em última análise, segurança jurídica para inovação e o desenvolvimento
econômico-tecnológico.
65
52 Art. 14. São vedadas a implementação e o uso de sistemas de inteligência artificial: ... III - pelo poder
público, para avaliar, classificar ou ranquear as pessoas naturais, com base no seu comportamento
social ou em atributos da sua personalidade por meio de pontuação universal, para o acesso a bens
e serviços e políticas públicas, de forma ilegítima ou desproporcional.
53 Art. 15. No âmbito de atividades de segurança pública, somente é permitido o uso de sistemas de
identificação biométrica à distância, de forma contínua em espaços acessíveis ao público, quando
houver previsão em lei federal específica e autorização judicial em conexão com a atividade de
persecução penal individualizada, nos seguintes casos: I - persecução de crimes passíveis de pena
máxima de reclusão superior a dois anos; II - busca de vítimas de crimes ou pessoas desaparecidas;
ou III - crime em flagrante. Parágrafo único. A lei a que se refere o caput preverá medidas
proporcionais e estritamente necessárias ao atendimento do interesse público, observados o devido
processo legal e o controle judicial, bem como os princípios e direitos previstos nesta Lei,
especialmente a garantia contra a discriminação e a necessidade de revisão da inferência algorítmica
pelo agente público responsável, antes da tomada de qualquer ação em face da pessoa identificada.
54 Art. 17. São considerados sistemas de inteligência artificial de alto risco aqueles utilizados para as
seguintes finalidades: ... IV - avaliação de critérios de acesso, elegibilidade, concessão, revisão,
redução ou revogação de serviços privados e públicos que sejam considerados essenciais, incluindo
sistemas utilizados para avaliar a elegibilidade de pessoas naturais quanto a prestações de serviços
públicos de assistência e de seguridade; ... XI - investigação criminal e segurança pública, em
67
No que diz respeito aos direitos dos cidadãos, previstos entre os artigos 5 e
12 do projeto de lei, destaca-se o direito à explicação sobre a decisão, recomendação
ou previsão tomada por sistemas de IA. Há ainda um artigo voltado exclusivamente
para direitos associados às decisões tomadas por estes sistemas, vejamos:
especial para avaliações individuais de riscos pelas autoridades competentes, a fim de determinar o
risco de uma pessoa cometer infrações ou de reincidir, ou o risco para potenciais vítimas de infrações
penais ou para avaliar os traços de personalidade e as características ou o comportamento criminal
passado de pessoas singulares ou grupos;
55 Art. 21. Adicionalmente às medidas de governança estabelecidas neste capítulo, órgãos e entidades
do poder público da União, Estados, Distrito Federal e Municípios, ao contratar, desenvolver ou utilizar
sistemas de inteligência artificial considerados de alto risco, adotarão as seguintes medidas: ...
56 Art. 32. O Poder Executivo designará autoridade competente para zelar pela implementação e
fiscalização da presente Lei. ... X - solicitar, a qualquer momento, às entidades do poder público que
desenvolvam ou utilizem sistemas de inteligência artificial, informe específico sobre o âmbito, a
natureza dos dados e os demais detalhes do tratamento realizado, com a possibilidade de emitir
parecer técnico complementar para garantir o cumprimento desta Lei;
68
57 “Caso identificado viés discriminatório, ele deve ser retificado e, se não puder ser retificado, a
tecnologia não deve ser implantada” (SENADO FEDERAL, 2022b, p. 840).
70
responsabilidade civil, prevista no artigo 27, também gerou grandes debates, mas
estabeleceu a responsabilidade do fornecedor e operador do sistema de IA.
Nos artigos consecutivos, em específico o artigo 30, é abordado o tema dos
códigos de boas práticas e governança, com destaque para a orientação de que os
desenvolvedores e operadores de sistemas de inteligência artificial deverão atuar de
forma transparente e assegurar mecanismos de participação nos termos do art. 24, §
3°.
Constata-se que mais uma vez a transparência se faz como pilar fundamental
para concretizar diversas medidas previstas na legislação. A legislação acaba por
prever as possibilidades de quando o cidadão deve ter acesso a uma explicação. Mas,
para o próprio gestor ou desenvolvedor avaliar se o sistema de IA está dentro do que
a legislação propõe, precisará detalhar o processo e compreender como os modelos
funcionam.
Por direitos fundamentais, foco deste trabalho, entende-se que são aqueles
considerados essenciais para a proteção da dignidade humana e para o pleno
desenvolvimento da personalidade de cada indivíduo. Os direitos fundamentais são
um dos pilares da democracia brasileira e reconhecidos como um conjunto de direitos
e garantias fundamentais de todo indivíduo. É importante ressaltar que esses direitos
também são garantidos por tratados internacionais, como a Declaração Universal dos
Direitos Humanos.
A discussão sobre direitos fundamentais em sistemas de inteligência artificial
é importante, pois sistemas das áreas de segurança pública e migração podem causar
danos muitas vezes irreparáveis e ensejam medidas mais criteriosas no
desenvolvimento da tecnologia.
Segundo Ávila (2016, p. 126), ao Estado não cabe apenas respeitar os direitos
fundamentais, mas também o dever de os promover por meio da adoção de medidas
que os concretizem da melhor forma possível. Portanto, os sistemas de IA ao serem
desenvolvidos pelo poder público devem ter como um dos pontos centrais a garantia
58 Apesar de aqui mencionar servidor público, devemos abranger para qualquer pessoa que atue no
setor público, como empregados públicos, servidores estatutários, terceirizados, membros, entre
outros, sejam eles temporários, comissionados ou efetivos.
59 Administrativa, jurisdicional, governamental, legislativa, moderadora e controladora (SOUZA
JÚNIOR, 2003, p. 166 e seguintes).
73
da promoção dos direitos fundamentais e sua devida proteção. Deve-se também evitar
adotar critérios que priorizem a eficiência em detrimento da justiça ou que gerem
exclusão social, por exemplo.
Esses direitos são reconhecidos pelo artigo 5 da Constituição Federal e
garantidos por instituições políticas e jurídicas. Exemplos de direitos fundamentais,
incluem a liberdade de expressão, o direito à privacidade e a não-discriminação. É
necessária uma atuação efetiva do Estado na proteção desses direitos. Porém, é um
desafio constante para o Estado brasileiro, principalmente com o uso de tecnologias
que possuem impactos difíceis de identificar antes que aconteçam e há um risco de
que esses direitos sejam violados ou prejudicados, principalmente de grupos mais
vulneráveis da sociedade.
Segundo Barboza e Kotinda (2014, p. 100), os direitos fundamentais são
impulsionados pelo Estado por intermédio de diversos programas e ações
governamentais, com o propósito de efetivar essas liberdades e garantias
fundamentais estabelecidas na ordem jurídica. Neste ponto, espera-se que a
tecnologia seja uma aliada na concretização destes direitos e não em sua violação.
Dentre os direitos protegidos, as autoras destacam o princípio da dignidade da pessoa
humana, do acesso à justiça, não-discriminação, privacidade e o da intimidade.
No contexto da inteligência artificial, a IA, ao se delegar a tomada de decisão
exclusivamente para a tecnologia, pode gerar decisões que não considerem esses
direitos.
60 O ato processual é “toda conduta dos sujeitos do processo que tenha por efeito a criação, modificação
ou extinção de situações jurídicas processuais”, podendo-se citar como exemplos o oferecimento de
uma denúncia, uma petição inicial, um interrogatório ou uma sentença (CINTRA; GRINOVER;
DINAMARCO, 2011, p. 361).
61 CNJ. Projetos com Inteligência Artificial no Poder Judiciário. Disponível em
https://paineisanalvtics.cni.ius.br/single/?appid=29d710f7-8d8f-47be-8af8-
a9152545b771&sheet=b8267e5a-1f1f-41a7-90ff-d7a2f4ed34ea&lang=pt-BR&opt=ctxmenu,currsel.
Acesso em junho de 2022.
62 O sistema utilizado no TRF4, Eproc, possui módulo de gerenciamento eletrônico de documentos que
permite aos órgãos judiciais a criação de modelos de minuta para facilitar e padronizar a edição de
documentos. A solução desenvolvida mapeia o histórico de utilização destes modelos de minuta e
identifica em que situação o processo se encontrava na época. Este histórico foi utilizado para a
geração de uma rede neural que permite sugerir o modelo de minuta mais adequado à situação atual
do processo.
63 O Sistema Bem-Te-Vi do TST auxilia os Gabinetes na gestão de seu acervo, especialmente na
atividade de triagem. As informações preditivas são produzidas segundo as decisões proferidas pelos
Ministros nos últimos dois anos. O conteúdo das petições de RR e AIRR, do despacho de
admissibilidade e dos acórdãos são utilizados como entrada para algoritmos de aprendizado
supervisionado, mais precisamente o XGBoost, cujas saídas são relativas às decisões Ministros do
TST.
77
parágrafo único74, (ii) 38, § 2°75 e (iii) 5076. E a Lei Federal n.° 5172/1966 por meio do
artigo 17277.
A partir da fundamentação da decisão pela autoridade administrativa, é
possível atribuir responsabilidades e dar transparência no processo de tomada de
decisão78. Este princípio é considerado fundamental para a proteção dos direitos dos
cidadãos e para garantir a legalidade dos atos administrativos. Espera-se que o
cidadão, como destinatário do ato administrativo, tenha possibilidade de compreender
e contestar a decisão recebida, tanto no âmbito individual quanto coletivo.
A possibilidade de contestação se faz ainda mais necessária quando o ato
administrativo possa ter efeitos jurídicos desfavoráveis, como deveres ou sanções.
74 Art. 2o A Administração Pública obedecerá, dentre outros, aos princípios da legalidade, finalidade,
motivação, razoabilidade, proporcionalidade, moralidade, ampla defesa, contraditório, segurança
jurídica, interesse público e eficiência. Parágrafo único. Nos processos administrativos serão
observados, entre outros, os critérios de: ... VII - indicação dos pressupostos de fato e de direito que
determinarem a decisão ...
75 Art. 38. O interessado poderá, na fase instrutória e antes da tomada da decisão, juntar documentos
e pareceres, requerer diligências e perícias, bem como aduzir alegações referentes à matéria objeto
do processo. ... § 2o Somente poderão ser recusadas, mediante decisão fundamentada, as provas
propostas pelos interessados quando sejam ilícitas, impertinentes, desnecessárias ou protelatórias.
76 Art. 50. Os atos administrativos deverão ser motivados, com indicação dos fatos e dos fundamentos
jurídicos, quando: I - neguem, limitem ou afetem direitos ou interesses; II - imponham ou agravem
deveres, encargos ou sanções; III - decidam processos administrativos de concurso ou seleção
pública; IV - dispensem ou declarem a inexigibilidade de processo licitatório; V - decidam recursos
administrativos; VI - decorram de reexame de ofício; VII - deixem de aplicar jurisprudência firmada
sobre a questão ou discrepem de pareceres, laudos, propostas e relatórios oficiais; VIII - importem
anulação, revogação, suspensão ou convalidação de ato administrativo. § 1o A motivação deve ser
explícita, clara e congruente, podendo consistir em declaração de concordância com fundamentos de
anteriores pareceres, informações, decisões ou propostas, que, neste caso, serão parte integrante
do ato. § 2o Na solução de vários assuntos da mesma natureza, pode ser utilizado meio mecânico
que reproduza os fundamentos das decisões, desde que não prejudique direito ou garantia dos
interessados. § 3o A motivação das decisões de órgãos colegiados e comissões ou de decisões orais
constará da respectiva ata ou de termo escrito.
77 Art. 172. A lei pode autorizar a autoridade administrativa a conceder, por despacho fundamentado,
remissão total ou parcial do crédito tributário, atendendo: I - à situação econômica do sujeito passivo;
II - ao erro ou ignorância escusáveis do sujeito passivo, quanto a matéria de fato; III - à diminuta
importância do crédito tributário; IV - a considerações de equidade, em relação com as características
pessoais ou materiais do caso; V - a condições peculiares a determinada região do território da
entidade tributante. Parágrafo único. O despacho referido neste artigo não gera direito adquirido,
aplicando-se, quando cabível, o disposto no artigo 155.
78 “A capacidade de auditar tecnologias é particularmente essencial para fornecer supervisão e
reparação adequadas. Por exemplo, se uma tecnologia levou a um resultado que é posteriormente
contestado em tribunal ou usado como prova, a administração adequada da justiça exige que a
tecnologia seja totalmente auditável.” (SENADO FEDERAL, 2022b, p. 840)
80
Art. 50. Os atos administrativos deverão ser motivados, com indicação dos
fatos e dos fundamentos jurídicos, quando: I - neguem, limitem ou afetem
direitos ou interesses; II - imponham ou agravem deveres, encargos ou
sanções; ...
79 Isso ocorre porque os algoritmos usados pela IA podem ser tendenciosos e refletir os preconceitos
dos humanos que os criaram, pelo fato do algoritmo aprender com dados de situações que já
ocorreram. Por exemplo, um algoritmo usado para decidir quem recebe um empréstimo pode ser
mais propenso a aprovar empréstimos para pessoas brancas do que para pessoas negras, desde
que, esse comportamento já tenha sido repetido anteriormente em decisões manuais e estes dados
tendenciosos foram utilizados para treinar o modelo de inteligência artificial.
81
82 Neste mesmo sentido, ARANHA (2020, p. 258) cita “O aumento do poder computacional, a expansão
da inteligência artificial, a progressiva capacidade técnica de coleta e tratamento dos dados - tanto
pelo setor privado, quanto pelo Estado - estão conduzindo a um fluxo exponencial de informações
pessoais que são utilizadas para diversas finalidades - algumas benéficas para a sociedade e outras
perigosas ou obscuras”.
83 LGPD, Art. 20. ... decisões tomadas unicamente com base em tratamento automatizado de dados
pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil pessoal
84
84 De acordo com esta interpretação, decisões automatizadas são lícitas apenas quando baseadas em
uma das três hipóteses explicitamente mencionadas no § 2° do artigo 22: necessidade do tratamento
para a celebração ou desempenho de um contrato entre o titular de dados e o controlador, a
existência de lei da União Europeia ou de seus Estados-Membros autorizando o tratamento de dados
para decisões automatizadas, ou o consentimento explícito do titular.
85 LGPD, artigo 20, caput.
85
Este conceito também pode ser interpretado como um arranjo institucional que
estimula os atores individuais (agentes) a um comportamento mais benéfico possível
à coletividade, pelo dever de prestar contas sobre eventuais decisões erradas que
tomarem.
A accountability é possibilitada por intermédio da transparência, do controle e
pela concretização do princípio da publicidade. Filgueiras (2011, p. 84) define como:
Vale mencionar também, que nem todos os atos do governo precisam ser
transparentes/públicos para o cidadão (FILGUEIRAS, 2011, p. 88). Deste modo, foi
representado no desenho o retângulo da transparência sem abranger a totalidade dos
elementos que representam o princípio da motivação e da publicidade.
Outro comentário referente à figura 4, é a conexão entre o princípio da
publicidade e o da motivação. O princípio da motivação não está incluso no da
publicidade, pelo fato de que todos os atos administrativos merecerem motivação,
mas nem todos os atos administrativos são possíveis de publicidade.
Vale destacar que estes princípios e terminologias são amplos e não se
esgotam no gráfico exposto.
88
Tabela 4 - Tabela comparativa das entidades que criaram normas técnicas referentes a inteligência
artificial e aspectos relacionados ao uso responsável.
92
C onceitos e te rm in o lo g ia
Transparência
94 Site: https://www.iso.org/standard/74296.html
95 Site: https://standards.ieee.org/ieee/3123/10744/
96 Site: https://webstore.ansi.org/Standards/ANSI/ANSICTA20892020
97 Site: https://www.iso.org/standard/84111 .html
98 Site: https://standards.ieee.org/ieee/7001/6929/
99 Site: https://standards.ieee.org/ieee/2976/10522/
100 Site: https://standards.ieee.org/ieee/2894/10284/
93
Vieses
C onfiabilidade
R iscos
Ética
G overnança
A xAI é uma das áreas que podem ser abordadas para atingir o mais próximo
de uma IA desenvolvida de forma responsável. As outras áreas são a Auditabilidade
(Auditable AI) e a Governança da IA (Accountable AI). Com o desenvolvimento
adequado destes três pilares, podemos chegar o mais próximo de eliminar a
existência de vieses.
O desenvolvimento da área xAI, além de viabilizar as áreas de Auditabilidade e
Governança de IA, trata de elemento fundamental para que terceiros114 possam obter
elementos críticos para sua avaliação ética e consequências jurídicas. A
transparência, viabilizada por esse tipo de técnica, é veículo social de prestação de
contas (accountability) e de autonomia dos humanos envolvidos e afetados por sua
operação (WISCHMEYER, 2020, p. 76), fatores-chave para o desenvolvimento e
emprego democrático da tecnologia.
Vale destacar que a explicabilidade não deve se confundir com a publicização
de códigos-fonte, dado que refere ao fornecimento de informações úteis e
compreensíveis sobre processos automatizados que os permitam entender esse
funcionamento (SENADO FEDERAL, 2022b, p. 109)
114 Por exemplo, aqueles que operam o sistema, que são diretamente afetados pelos sistemas,
autoridades envolvidas na regulação e adjudicação de conflitos que envolvem a IA e a própria
sociedade.
97
Learning Techniques
Performance vs
Figura 5 - Comparação dos níveis de explicabilidade e acurácia entre técnicas de inteligência artificial.
Verifica-se que as técnicas com maior acurácia tendem a ter mais opacas (baixa explicabilidade).
Fonte: Gunning; Aha (2019, p. 46).
4.1 CONCEITOS
116 Como exemplo de IA explicável, temos o seguinte caso: O governo de uma cidade implementou um
sistema de IA para alocar recursos financeiros de forma mais eficiente para serviços públicos, como
educação e saúde. O sistema pode explicar as razões por trás de suas decisões sobre alocação de
orçamento em diferentes áreas e fornece informações claras sobre os critérios usados e os
indicadores que influenciaram cada decisão.
117 No contexto do uso de reconhecimento facial pelo poder público, temos o seguinte exemplo: O
governo de uma cidade implementa um sistema de reconhecimento facial em espaços públicos para
melhorar a segurança. A Inteligência Artificial Explicável, nesse caso, envolve a criação de um
mecanismo que explica por que um indivíduo foi identificado como uma possível ameaça e quais
características específicas levaram à tomada de decisão.
99
Figura 6 - Representação dos conceitos que envolvem a área de inteligência artificial explicável.
Figura adaptada de Clinciu e Hastie (2019, p. 9).
120 Como exemplo de um sistema de IA compreensível, temos o seguinte caso: Um sistema de seleção
de bolsistas para um programa de educação pública utiliza um modelo de IA compreensível. O
sistema mostra aos candidatos os principais critérios utilizados para avaliar as inscrições, como
desempenho acadêmico, histórico socioeconômico e participação em atividades extracurriculares e
permite que os candidatos compreendam como suas qualificações foram avaliadas.
121 No contexto do uso de reconhecimento facial pelo poder público, temos o seguinte exemplo: Um
sistema de reconhecimento facial é utilizado para identificar suspeitos de crimes em um evento
público. A compreensibilidade envolve disponibilizar uma interface que mostra os passos que o
modelo de IA seguiu para identificar o suspeito, com destaque para os principais traços faciais que
contribuíram para a decisão.
122 Como exemplo de um sistema de IA interpretável, temos o seguinte caso: Um modelo de IA de
árvore de decisão é utilizado para prever a demanda por transporte público em diferentes horários e
rotas na cidade. Os especialistas podem acessar uma interface em formato de árvore de decisão que
mostra como o modelo funciona e utiliza informações de tráfego histórico, eventos locais e feriados
para fazer suas previsões e permite que a pessoa simule as saídas do sistema.
123 No contexto do uso de reconhecimento facial pelo poder público, temos o seguinte exemplo: Um
modelo de reconhecimento facial utilizado para auxiliar investigações criminais é projetado para ser
altamente interpretável. Os responsáveis pela investigação têm acesso a um painel que mostra quais
características faciais foram identificadas como correspondentes a um suspeito e quais atributos
específicos foram mais influentes na decisão.
101
quais parâmetros de entrada, ele obteve as saídas. Quanto mais informações associar
a estes dados, mais auditável o sistema será128 129
4.1.1 Interpretabilidade
128 Como exemplo de um sistema de IA auditável, temos o seguinte caso: Um exemplo de sistema de
IA com auditabilidade no contexto do poder público é um sistema de tomada de decisão para alocação
de recursos em projetos de infraestrutura. Esse sistema utiliza algoritmos de aprendizado de máquina
para analisar dados demográficos, indicadores socioeconômicos e necessidades de diferentes regiões.
A auditabilidade é garantida pelo registro de todas as decisões tomadas pelo sistema, como os critérios
utilizados para priorizar os investimentos em cada projeto. Além disso, são mantidos registros
detalhados dos dados de entrada, do treinamento do modelo e das atualizações feitas no algoritmo ao
longo do tempo. Isso permite que as autoridades governamentais e órgãos de controle revisem e
verifiquem a conformidade e a imparcialidade das decisões tomadas pelo sistema de IA.
129 No contexto do uso de reconhecimento facial pelo poder público, temos o seguinte exemplo: Para
garantir a auditabilidade, o sistema registra e armazena em logs todas as identificações faciais
realizadas, como data, hora, local e o resultado de cada identificação (positiva ou negativa). Esses
registros são acessíveis a autoridades responsáveis pela supervisão do sistema e também são
disponibilizados para revisão por órgãos de controle e auditoria.
103
Figura 7 - Hierarquia das classificações de técnicas para tornar um modelo matemático interpretável
a partir das categorias definidas por DU, LI e HAU (2019). Fonte: Própria.
4.1.2 Explicabilidade
Figura 8 - Métodos aplicáveis para tornar um modelo explicável. Fonte: (Arrieta et al., 2020, p. 13).
130 NEW WORLD AI. Google’s approach to Artificial Intelligence Machine Learning: Peter Norvig.
Disponível em https://www.newworldai.com/googles-approach-to-artificial-intelligence-machine-
learning-peter-norvig/. 2019. Acesso em fevereiro de 2023.
110
explicar para justificar; (ii) explicar para controlar; (iii) explicar para melhorar e (iv)
explicar para descobrir. Os motivos podem ser aplicados de forma autônoma e
conforme o contexto analisado.
A aplicação de técnicas de explicabilidade para justificar, reside no tratamento
de um dos grandes problemas que é produção de resultados tendenciosos ou
discriminatórios. Isso implica na necessidade crescente de explicações131, para
garantir que as decisões baseadas em IA não são tomadas equivocadamente (ADADI
et al, 2018, p. 5-6). O uso de técnicas de explicabilidade fornece os insumos
necessários para justificar os resultados, garante auditabilidade e comprovação de
que as decisões são justas, éticas e legais132, o que leva à construção da confiança.
Já a explicação para o controle, aborda que a explicabilidade não é importante
apenas para justificar decisões, mas para evitar resultados inesperados/errados do
sistema. Compreender o comportamento do sistema, fornece maior visibilidade sobre
vulnerabilidades e falhas desconhecidas, além de ajudar a identificar e corrigir erros.
Este tipo de técnica possibilita um controle aprimorado e auxilia na construção de
sistemas de forma confiável e testável, desde sua concepção.
A explicabilidade para melhorar surge da necessidade de melhorar os
modelos matemáticos de forma contínua. Entretanto, para identificar possíveis falhas
e pontos de melhoria, são necessários esforços de transparência do funcionamento.
Um modelo que pode ser explicado e compreendido é aquele que pode ser
aperfeiçoado com facilidade.
Por fim, a explicabilidade para descobrir, reside no uso da transparência para
compreender as associações entre dados e gerar conhecimento. Pedir explicações é
uma ferramenta útil para aprender novos fatos, coletar informações e, assim, obter
conhecimento. Adadi et al (2018, p. 6) ilustram um exemplo desta categoria com base
no software AlphaGo (CHEN, 2016) e AlphaGo Zero (SILVER, 2017), um modelo
matemático criado e treinado para jogar um jogo chamado Go. O algoritmo ficou
famoso por vencer humanos facilmente133 e a partir da compreensão do
funcionamento interno do sistema, é possível compreender as melhores estratégias
para jogar. No contexto da administração pública, esta pode se beneficiar da
compreensão do funcionamento interno dos modelos, para definir políticas públicas,
uso do dinheiro público de forma mais eficiente, entre outras.
Quantos aos aspectos técnicos, a necessidade de explicabilidade depende de
(ADADI, 2018, p. 6-7) (i) O grau de opacidade do modelo que é proporcional à
complexidade dos algoritmos de IA; (ii) O grau de aceitação de erros por parte do
sistema, se tiver alta aceitação, erros inesperados são aceitáveis. Para um sistema
de IA sobre publicidade direcionada, por exemplo, um nível baixo de interpretabilidade
pode ser suficiente, pois as consequências de um erro são insignificantes. Por outro
lado, a interpretabilidade para um sistema de diagnóstico de saúde baseado em IA
necessita ser significativamente maior. O impacto que estes erros podem causar
ensejam aplicar técnicas de xAI.
4.3 TRANSPARÊNCIA
133 SCIENCE. This computer program can beat humans at Go—with no human instruction. Disponível
em https://www.science.org/content/article/computer-program-can-beat-humans-go-no-human-
instruction. 2017. Acesso em fevereiro de 2023.
134 Segundo relatório realizado pela União Europeia (AI, HLEG, p. 3), as áreas são: 1) ação e supervisão
humanas; 2) solidez técnica e segurança; 3) privacidade e governança dos dados; 4) transparência ;
5) diversidade, não-discriminação e equidade; 6) bem-estar ambiental e societal e 7)
responsabilização. Entretanto, para conferir se parte destes aspectos foi atendido, a transparência se
faz fundamental.
112
135 Ananny e Crawford (2018, p. 978) destacam que se a transparência não tiver efeitos significativos,
então a ideia de transparência pode perder seu propósito. Se as práticas corruptas continuarem após
a adoção da transparência, pode levar a mais cinismo e até uma corrupção mais ampla. A visibilidade
acarreta riscos para o objetivo da responsabilização se não houver um sistema pronto e capaz de
processar, digerir e usar a informação, para criar mudanças.
136 Ananny e Crawford (2018, p. 978) mencionam que a transparência total pode causar grandes danos
se implementada sem a devida justificativa de transparência. A transparência pode ameaçar a
privacidade e prejudicar finalidades honestas. Pode ocorrer a exposição de indivíduos ou grupos
vulneráveis e levar à intimidação por parte de autoridades.
137 Ananny e Crawford (2018, p. 979) trazem dois conceitos, a opacidade inadvertida e a opacidade
estratégica. Na opacidade inadvertida, a transparência produz quantidades tão grandes de
informação, que informações importantes ficam inadvertidamente escondidas nos detritos da
informação tornada visível. Já na opacidade estratégica, a empresa tem o dever de publicizar
informações que podem possuir evidências incriminadoras, mas para dificultar os destinatários em
localizar as informações relevantes, misturam um grande volume de outras informações que não são
necessárias.
138 Nesta limitação, deve ser analisado o seguinte questionamento, “que tipos de transparência levam
a que tipos de responsabilidade e sob que condições?”. Sem uma compreensão do tipo de
responsabilidade que a visibilidade é projetada para criar, os apelos à transparência podem ser lidos
como falsas escolhas entre total sigilo e total abertura.
139 O ideal de transparência coloca um fardo enorme sobre os indivíduos para buscar informações sobre
um sistema, para interpretar essas informações e determinar seu significado. Em Estados projetados
para maximizar o poder individual e minimizar a interferência do governo, a devolução da supervisão
aos indivíduos pressupõe não apenas que as pessoas observem e entendam os sistemas, mas
também que as pessoas tenham maneiras de discutir e debater o significado do que veem (ANANNY;
CRAWFORD, 2018, p. 978-979).
140 Embora muitas vezes se pense que a transparência gera confiança nas organizações e nos
sistemas, há poucos trabalhos empíricos que confirmem isso (ALBU; FLYVERBOM, 2016).
Especificamente, diferentes partes interessadas confiam nos sistemas de maneira diferente, com sua
confiança influenciada pelas informações divulgadas e quão claras, precisas e relevantes. A
confiança também pode ir na outra direção. Alguns designers podem não divulgar informações
detalhadas sobre seus sistemas, não devido aos segredos comerciais ou vantagem competitiva, mas
porque não confiam na ética e nas intenções daqueles que podem vê-los (ANANNY; CRAWFORD,
2018, p. 980).
141 Às vezes, os detalhes de um sistema serão protegidos pelo sigilo corporativo ou indecifráveis para
aqueles sem habilidades técnicas, mas inescrutáveis até mesmo para seus criadores devido à escala
e velocidade de criação e atualização dos modelos matemáticos. Pode ser necessário acessar o
código-fonte para atribuir responsabilidade em um sistema, mas ver somente o código-fonte é
insuficiente. Os próprios construtores de sistemas muitas vezes não conseguem explicar como um
113
e (viii) Transparência tem limitações temporais142. Verifica-se que estes limites devem
ser avaliados caso a caso no poder público, dado os inúmeros tipos de finalidades e
áreas que os sistemas são usados, além de considerar aspectos previstos na
legislação brasileira, como o princípio constitucional da publicidade, o princípio da
motivação e o da transparência.
Para estabelecer formas de mensurar e testar níveis de transparência para
sistemas autônomos, foi criada a norma IEEE STD 7001/2021. Esta norma parte do
princípio que deve ser sempre possível entender por que e como um sistema
autônomo tomou uma determinada decisão e seu comportamento por meio de
processos de verificação e validação. Este tema serve de subsídio para formar o
conceito de inteligência artificial explicável.
A transparência, como elemento de governança de sistemas de inteligência
artificial, também chamada de transparência algorítmica, consiste na prestação de
informações a terceiros sobre o agente artificial inteligente.
Um dos problemas, em termos de governança e transparência, está na
dificuldade de equilibrar a capacidade de compreensão dos resultados do sistema e
sua acurácia143, o que torna o esforço de explicação do funcionamento do sistema
mais difícil, do ponto de vista técnico, em sistemas baseados em modelos mais
complexos, como redes neurais. Estes, por sua vez, têm poder de previsão bastante
elevado, mas são consideradas "caixas pretas” em razão de sua opacidade e
sistema complexo funciona, quais partes são essenciais para sua operação ou como a natureza
efêmera das representações computacionais são compatíveis com as leis de transparência
(ANANNY; CRAWFORD, 2018, p. 981).
142 A dimensão temporal da transparência é ainda mais complicada pelo fato de que dados e sistemas
mudam ao longo do tempo. Mesmo que o código-fonte de um algoritmo, seu conjunto completo de
dados de treinamento e seus dados de teste fossem transparentes, ele ainda forneceria apenas um
momento específico de sua funcionalidade. Qualquer noção de transparência ou auditoria, sem
dimensões temporais, prejudica qualquer análise e interpretação. (ANANNY; CRAWFORD, 2018, p.
981-982).
143 "Here, then, is a core and, for the moment, unavoidable trade-off in designing algorithmic
accountability regimes: Interpretability often comes only at the cost o f efficacy" (ENGSTROM; HO, 2020,
p. 7).
114
144 Como exemplo de sistema opaco, temos o seguinte caso: O governo implementa um sistema de
reconhecimento facial em espaços públicos sem fornecer informações detalhadas sobre sua
utilização. Os cidadãos não têm conhecimento sobre a existência do sistema, seu propósito, os locais
onde as câmeras estão instaladas e como seus dados são armazenados e usados. Caso o cidadão
seja identificado pelo sistema, a polícia realiza a prisão do cidadão. Além disso, o algoritmo utilizado
é complexo e de difícil compreensão e não fornece justificativas claras para as identificações feitas.
Isso cria uma falta de transparência e confiança no sistema, pois as pessoas não entendem como
suas informações são tratadas e como as decisões são tomadas. O cidadão, sem entender, não
consegue recorrer da decisão e saber por que foi preso.
145 No mesmo exemplo anterior, mas agora com uso de um sistema transparente, temos o seguinte
caso: O governo implementa um sistema de reconhecimento facial em espaços públicos de forma
transparente e informa que caso alguém seja identificado pelo sistema, será preso. O cidadão é
informado antecipadamente sobre a existência do sistema, suas finalidades, a supervisão humana
dos resultados, os locais onde as câmeras estão instaladas e como seus dados serão coletados e
utilizados. O governo também garante que o algoritmo utilizado seja explicável e fornece informações
claras sobre como as identificações são realizadas e quais características faciais são usadas para
tom ar decisões. O cidadão, antes de ser preso, tem acesso a todas as informações e pode recorrer
da decisão. Essa transparência aumenta a confiança dos cidadãos no sistema, pois têm
conhecimento e entendimento sobre seu funcionamento e podem avaliar e questionar as
identificações realizadas.
115
influenciado por um sistema de IA, mas também que indiquem qual o grau de
influência da IA no resultado da decisão146.
Quanto à transparência em relação à operação deve-se destacar dois
elementos chave no desenvolvimento de sistemas de IA, em particular aqueles
baseados em machine learning: (i) transparência quanto aos dados e (ii)
transparência quanto ao modelo e suas inferências147.
A transparência quanto aos dados refere-se, em primeiro lugar, à indicação
sobre o emprego de dados pessoais e uso de profiling dos indivíduos sujeitos à
decisão. Medidas nesse sentido, permitem a verificação de legitimidade e
accountability em relação à proteção de dados pessoais. Em segundo lugar, a
transparência também deve conter elementos para avaliar a qualidade dos dados
empregados, como sua completude, fidedignidade, confiança quanto à fonte, forma
de coleta ou possíveis adulterações, frequência de atualização e representatividade
em relação às populações de interesse.
A transparência quanto ao modelo e suas inferências, diz respeito à
explicabilidade e interpretabilidade de seus resultados. Ela abrange, em primeiro
lugar, a documentação sobre a escolha do modelo empregado e que justifique o
descarte de modelos mais transparentes para se atingir o mesmo resultado (trade-off
entre transparência e acurácia).
No sistema opaco, o uso de algoritmos complexos e não explicáveis148, por
exemplo, pode aumentar a acurácia do reconhecimento facial e permitir identificações
146 Neste caso, um exemplo na área de reconhecimento facial é o do governo realizar campanhas de
conscientização e divulgação para informar os cidadãos sobre o uso do sistema de reconhecimento
facial. Os cidadãos são informados sobre o propósito específico da tecnologia, usado apenas para
melhorar a segurança em espaços públicos e ajudar em investigações criminais. As informações são
compartilhadas de forma clara e acessível para que todos compreendam como o sistema será usado,
quais dados serão coletados, por quanto tempo serão armazenados e quem terá acesso a eles. Essa
abordagem garante a transparência quanto ao uso do sistema e permite que os cidadãos entendam
os benefícios e os limites da tecnologia de reconhecimento facial.
147 Nesse exemplo, o governo também assegura a transparência quanto à operação do sistema de
reconhecimento facial. Isso significa que os cidadãos são informados sobre como o algoritmo de
reconhecimento facial opera, quais características faciais são utilizadas na identificação, como o
processo de correspondência funciona e quais medidas de segurança são implementadas para
proteger os dados dos cidadãos. O governo fornece informações detalhadas sobre como as
identificações são realizadas, quais são os resultados esperados e como o desempenho do sistema
é monitorado e avaliado. Essa abordagem garante que os cidadãos compreendam o funcionamento
interno do sistema e como as decisões de identificação são tomadas, torna a operação transparente,
compreensível e com possibilidade de contestação.
148 A complexidade e falta de explicabilidade podem ser observadas em modelos de IA, exemplificados
pelas redes neurais profundas com milhares de parâmetros. Algoritmos complexos e não explicáveis,
como as redes neurais profundas, podem ter maior acurácia em certos contextos devido à sua
116
capacidade de capturar padrões intricados e relações não-lineares nos dados de treinamento. Esses
modelos normalmente têm uma quantidade significativa de parâmetros, o que lhes permite aprender
representações complexas dos dados.
149 Algoritmos mais simples, como árvores de decisão, tendem a ter menos acurácia em comparação
com modelos mais complexos porque sua capacidade de aprendizado é limitada para capturar
relações não-lineares e padrões presentes em conjuntos de dados, o que pode resultar em
desempenho inferior na tarefa de previsão.
150 Em sistemas de alto risco, deve ser dada prioridade para sistemas mais transparentes.
117
destacar que os modelos oriundos de redes neurais são tão complexos, que nem
mesmo o desenvolvedor pode entender o funcionamento total do modelo criado.
Para identificar se um modelo é transparente, podemos fazer as seguintes
perguntas (i) Por que chegou a determinado resultado? (ii) Por que não obteve outro
resultado? (iii) Quando o resultado será correto? (iv) Quando o resultado será
errado? (v) Quando podemos confiar no resultado? (vi) Como corrijo um erro que
apareceu no resultado? (GUNNIN; AHA, 2019, p. 48).
151 Fornecer uma visão geral clara e simples sobre o funcionamento básico do sistema de
reconhecimento facial para o público, sem detalhes técnicos complexos.
152 Comunicar de forma personalizada e direta as decisões específicas do sistema de reconhecimento
facial para um cidadão em particular, como os motivos da identificação ou ação tomada.
153 Acesso a informações técnicas detalhadas, como modelos matemáticos e código-fonte do sistema,
para fins de manutenção, aprimoramento e solução de problemas.
119
precise de informações para realizar seu trabalho (auditório para um único ouvinte)154;
entre outros.
Vale ressaltar que, apesar do cuidado com a linguagem na qual a informação
é transmitida ao seu destinatário, é necessário manter o objetivo. Há requisitos para
o fornecimento da transparência do sistema, é necessário (i) ser verdadeira155; (ii)
conter informações relevantes para as causas de alguma ação, decisão ou
comportamento156; (iii) apresentar um nível de abstração adequado e significativo
para o destinatário157; (iv) considerar a percepção e compreensão das partes
interessadas e evitar a divulgação de informações de uma maneira que gere mal-
entendidos158; (v) a parte interessada deve poder solicitar explicações significativas
sobre a situação do sistema, seja em um momento específico, durante um período
específico ou dos princípios gerais pelos quais as decisões são tomadas159; (vi) ter
informações relevantes sobre o desempenho atual, como confiabilidade e mensagens
de erro160; e (vii) apresentar de forma compreensível para humanos (IEEE, 2022a,
p. 15-16).
Algumas considerações também devem ser feitas ao trabalhar com diferentes
sistemas, são elas (i) um desenvolvedor pode não conseguir ou não desejar alcançar
o mesmo grau de transparência em todos os sistemas; (ii) podem existir diferentes
níveis de transparência com base no próprio sistema e no destinatário (stakeholder)
que acessa as informações; (iii) alguns desses níveis exigem que o sistema seja
explicável, não apenas transparente, para estar conforme este padrão; (iv)
explicabilidade descreve até que ponto as informações disponibilizadas de forma
154 Fornecer informações claras, detalhadas e acessíveis, para auxiliar nas decisões jurídicas e de
fiscalização, como detalhes relevantes sobre a identificação realizada pelo sistema de
reconhecimento facial em questão.
155 As informações fornecidas pelo sistema de reconhecimento facial sobre uma identificação de
indivíduo são precisas e confiáveis.
156 O sistema deve fornecer informações relevantes sobre as características faciais que levaram à
identificação de um suspeito em potencial.
157 As informações fornecidas pelo sistema devem ser compreensíveis e adequadas para o destinatário
que a recebe para permitir uma compreensão clara de como a tecnologia opera.
158 As informações divulgadas pelo sistema devem ser apresentadas de forma transparente e clara,
para evitar jargões técnicos que causem mal-entendidos entre o público.
159 Os cidadãos têm o direito de solicitar informações detalhadas sobre como o sistema de
reconhecimento facial funciona, quais dados são coletados e como as decisões são tomadas. Se o
sistema passou por alguma modificação, o cidadão tem o direito de conhecer o funcionamento do
sistema no lapso temporal informado.
160 O sistema deve fornecer informações sobre a taxa de acertos, falsos positivos e falsos negativos,
bem como alertas sobre possíveis erros ou limitações.
120
transparente para uma parte interessada podem ser prontamente interpretadas por
essa parte interessada (IEEE, 2022a, p.15-16).
O IEEE (Institute o f Electrical and Electronics Engineers) criou a norma IEEE
Std 7001 ™-2021 (IEEE Standard for Transparency o f Autonomous Systems) (IEEE,
2022a) que estabelece formas de mensurar e testar níveis de transparência para A/IS.
A norma fornece diretrizes para revisar e, se necessário, projetar recursos nesses
sistemas para torná-los mais transparentes (níveis de transparência e requisitos para
cada nível).
Esta norma define que, deve ser sempre possível entender as razões de
determinada decisão e do comportamento, assim como dos processos de verificação
e validação. A norma destaca que a transparência deve ser priorizada, principalmente
em sistemas com potencial de causar danos físicos161, psicológicos, sociais,
econômicos ou ambientais, ou à reputação.
Como exemplo de destinatários (stakeholders) da transparência fornecida
pelos sistemas, a norma IEEE 7001/2021 os classifica em dois grupos, (i) usuários
diretos de sistemas autônomos e a sociedade em geral e (ii) órgãos reguladores ou
de certificação, investigadores de incidentes/acidentes e consultores especializados
em ações administrativas ou litígios.
A norma também traz duas terminologias importantes, a STA e a STS. A
Avaliação da Transparência do Sistema (STA), consiste no processo de avaliação da
transparência de um sistema autônomo existente, para cada grupo de partes
interessadas. Já a STS, Especificação de Transparência do Sistema é o processo de
definição dos requisitos de transparência de um sistema autônomo para cada grupo
de partes interessadas.
Com relação aos níveis de transparência, são definidos requisitos para níveis
de transparência mensuráveis e testáveis em cada categoria de parte interessada. Os
níveis de transparência são definidos de 0 (sem transparência) a 5 (o nível máximo
de transparência alcançável). Os níveis podem ser progressivos ou não conforme a
parte interessada. As categorias das partes interessadas e as definições de
transparência são independentes umas das outras. Não há expectativa de que, se um
161 Quando se fala em danos, deve ser considerado tanto danos diretos quanto danos indiretos, como
“crimes sem vítim as” que não afetam ninguém em particular, mas têm um impacto sobre a sociedade
ou o meio ambiente.
121
sistema atingir um nível em uma categoria, também atingirá o mesmo nível em outras
categorias de partes interessadas (IEEE, 2022a, p.18).
Arrieta et al. (2020, p. 10-11) definem ainda outros níveis de transparência,
como transparência algorítmica, decomponibilidade e simulabilidade, conforme figura
abaixo.
Segundo o IEEE (2022a, p. 18), nem todos os usuários exigirão o mesmo grau
de transparência nos sistemas, neste caso, usuários não especialistas normalmente
precisarão de explicações simples e compreensíveis sobre as decisões e ações do
sistema. Já usuários especialistas, exigirão uma transparência completa e informativa.
A norma IEEE Std 7001 ™-2021 (IEEE, 2022a) define todas as categorias de usuários
e os níveis de transparência necessários para cada um.
A seguir serão detalhadas algumas categorias de destinatários das
informações sobre a transparência dos sistemas de IA (IEEE, 2022a, p. 18-19). A
primeira categoria, usuários não especialistas (Non-expert users) incluem tanto
pessoas que têm apenas uma breve interação com o sistema quanto pessoas que
interagem diariamente com o sistema.
A segunda categoria, usuários especialistas de domínio (Domain expert
users), incluem profissionais que usam a tecnologia para auxiliar em suas atividades.
Esta categoria de destinatário possui uma responsabilidade sobre como o sistema é
usado, tanto pelo devido uso do sistema e por terem conhecimento, em alguns casos,
para questionar o resultado obtido pelo sistema. Dentro desta categoria ainda se
encaixam os operadores e supervisores de sistemas autônomos.
A terceira categoria, os super usuários (Superusers) são especialistas não
apenas em sistemas autônomos, mas também nos sistemas específicos pelos quais
são responsáveis. Esses super usuários incluem pessoas responsáveis pelo
desenvolvimento, diagnóstico de erros, correção, manutenção e atualização, além da
operação e supervisão de sistemas autônomos específicos.
A quarta categoria, público em geral, representa as pessoas que não
interagem diretamente um A/IS, mas podem ser afetadas direta ou indiretamente.
Neste caso, quando o poder público decide uma política pública com base em dados
oriundos de sistemas de IA, pode afetar um grupo de pessoas sem estas nem mesmo
saberem.
A quinta categoria, espectadores, são pessoas que interagem com um
sistema autônomo sem nenhuma intenção prévia de atingir algum propósito. Nesta
categoria inclui aqueles que observam o funcionamento do sistema, bem como
aqueles que podem ser afetados passivamente, sem o conhecimento. Neste caso,
123
162 Controle de uma máquina é compartilhada entre um operador humano e um sistema de computador
para atingir um objetivo, seja remotamente ou no mesmo espaço compartilhado (IEEE, 2022a, p. 17).
163 Como autonomia supervisionada, estas são compostas de 3 itens: (i) Direção, ou seja, dizer a um
sistema o que fazer; (ii) Monitoramento, ou seja, observar o que o sistema faz; (iii) Controle, ou seja,
ser capaz de intervir e mudar o que o sistema faz (IEEE, 2022a, p. 17).
124
(i) Operado por humanos; (ii) Delegado por Humano; (iii) Supervisão Humana; e (iv)
Totalmente Autônomo.
No nível operado por humanos, um operador humano é responsável por todas
as etapas do sistema de reconhecimento facial, desde a coleta de dados até a tomada
de decisões. O sistema fornece informações ao operador, com total controle e
responsabilidade sobre as ações executadas.
No nível delegado por humano, o sistema de reconhecimento facial realiza a
identificação de indivíduos de forma autônoma geralmente, mas um operador humano
ainda supervisiona e pode intervir se necessário. O sistema toma ações de forma
independente, mas o controle final permanece com o operador.
No nível supervisão humana, o sistema de reconhecimento facial pode
executar uma ampla variedade de identificações automaticamente, sem a
necessidade constante de intervenção humana. No entanto, requer permissão ou
direção de um ser humano para situações específicas, nas quais as ações ou decisões
são mais complexas e requerem supervisão.
Por fim, no nível totalmente autônomo, o sistema de reconhecimento facial
recebe objetivos dos humanos e os traduz em tarefas a serem realizadas sem
interação humana. O sistema consegue identificar indivíduos e tomar decisões sem a
necessidade de supervisão ou intervenção humana e é totalmente autônomo em suas
operações.
125
164 CNJ. Justiça 4.0: Inteligência Artificial está presente na maioria dos tribunais brasileiros. 2022.
Disponível em https://www.cni.ius.br/iustica-4-0-inteligencia-artificial-esta-presente-na-maioria-dos-
tribunais-brasileiros/. Acesso em junho de 2023.
165 CNJ. Plataforma Sinapses. Disponível em https://www.cni.ius.br/sistemas/plataforma-sinapses/.
Acesso em iunho de 2023. Em agosto de 2020, foi aprovada a Resolução n. 332/2020 que instituiu o
Sinapses como plataforma nacional de armazenamento, treinamento supervisionado, controle de
versionamento, distribuição e auditoria dos modelos de Inteligência Artificial, além de estabelecer os
parâmetros de sua implementação e funcionamento.
166 CNJ. Plataforma CODEX. Disponível em https://www.cni.ius.br/sistemas/plataforma-codex/. Acesso
em iunho de 2023.
167 GOV.BR. Governança de Gestão de Dados. Disponível em https://www .gov.br/governodigita l/pt-
br/governanca-de-dados. Acesso em iunho de 2023.
128
ter mais eficiência e eficácia em seus projetos e alcançar objetivos como maior
transparência, interoperabilidade e satisfação do cidadão (MERGEL et al, 2019).
Vemos mais uma vez o termo transparência associado à informatização do
poder público brasileiro, dada principalmente pela necessidade de prestação de
contas e possibilidade de controle social. Com o avanço da tecnologia, uso da
tecnologia e a concessão de serviços essenciais do poder público, também reforçam
a questão da transparência.
O fenômeno da digitalização e transformação digital do governo brasileiro tem
início no ano 2000. O Programa de Governo Eletrônico no Brasil iniciou uma série de
adaptações, inovações e desafios para melhorar a qualidade do serviço público. Com
a publicação da Estratégia de Governança Digital (EGD)168, novas políticas e
iniciativas foram implantadas e resultaram em avanços como desburocratização,
modernização do Estado, maior transparência169, acesso à informação pública e a
entrega de mais de 500 serviços públicos digitais à população brasileira (GOV.BR,
2019).
O poder judiciário também passou pelo mesmo processo de digitalização e
transformação digital. Apesar de alguns tribunais já construírem sistemas para tratar
dados judiciais desde 2001170, apenas em 2006 que foi criada a Lei n.° 11.419/2006.
Esta lei disciplinou a informatização do processo judicial, dispondo sobre o uso de
meio eletrônico na tramitação de processos judiciais, comunicação de atos e
transmissão de peças processuais. Após 2006, o judiciário passou por constantes
evoluções na informatização e por consequência produção massiva de dados, dado o
volume de litígios existentes, que são judicializados diariamente.
A presunção de uma base grande de dados estruturados e com qualidade é
fundamental para a existência e eficiência dos sistemas de IA, em razão do seu caráter
orientado a partir de exemplos171. Portanto, a digitalização e transformação digital do
168 A Estratégia de Governança Digital foi criada pelo governo brasileiro em 2016 e é um documento
que abrange um período de 3 a 4 anos. Informações podem ser obtidas em
https://www.gov.br/govemodigital/pt-br/EGD2020/estrategia-de-govemo-digital-2020-2022.
169 Há um portal criado pelo governo brasileiro que versa exclusivamente sobre questões de
transparência e dados abertos. Disponível em https://www.gov.br/governodigital/pt-
br/EGD2020/transparente-e-aberto
170 O STJ criou o "Sistema Justiça" em 2001. Fonte:
https://www.stj.jus.br/sites/portalp/Institucional/Historia/A-era-digital
171 Os sistemas de IA, como redes neurais e algoritmos de machine learning, requerem uma vasta
quantidade de dados para treinamento, validação e aprimoramento de suas capacidades preditivas
e analíticas. Quanto mais dados disponíveis, mais precisa se torna a capacidade do sistema de
130
poder público brasileiro serviu como uma fase preparatória para o avanço no uso da
inteligência artificial.
176 EXTRA CLASSE. Robô do INSS dificulta concessão de benefícios previdenciários. Disponível em
https://www.extraclasse.org.br/opiniao/2022/10/robo-do-inss-dificulta-concessao-de-beneficios-
previdenciarios/. Acesso em: junho de 2022.
177 THE INTERCEPT. Da placa de carro ao CPF. Disponível em
https://theintercept.com/2020/09/21/governo-vigilancia-cortex/. Acesso em: junho de 2022.
178 Em 2018 foi bastante midiatizado o escândalo que envolveu a empresa Cambridge Analytica
(KAISER, 2020). Apesar de não ter sido necessariamente um governo que desenvolveu, foi utilizada
por um candidato à presidência com intuito de influenciar as eleições norte-americanas em 2016.
Além do objetivo de manipular as eleições, para atingir este objetivo foram coletados e tratados dados
pessoais e pessoais sensíveis de 87 milhões de eleitores de forma ilícita. Também usavam estas
informações para impulsionar notícias tendenciosas por meio da plataforma de propaganda do
Facebook, além de atender ao objetivo de manipular o voto dos eleitores.
179 MIGALHAS. O impacto social causado pelo uso de algoritmos discriminatórios e a superveniência
da LGPD. Disponível em https://www.migalhas.com.br/coluna/migalhas-de-protecao-de-
dados/376497/o-impacto-social-causado-pelo-uso-de-algoritmos-discriminatorios. 2022. Acesso em:
junho de 2022.
133
Por fim, com relação à quarta recomendação, que também é o tema deste
trabalho, Coelho e Burg (2020a, p. 23) destacam que:
181 A EBIA (BRASIL, 2021) possui como papel nortear as ações do Estado brasileiro em prol do
desenvolvimento das ações que estimulem a pesquisa, inovação e desenvolvimento de soluções em
Inteligência Artificial, além do uso consciente e ético.
138
182 Dentre as medidas, estão: (i) avaliação dos dados com medidas apropriadas de controle de vieses
cognitivos humanos que afetem a coleta e organização dos dados, bem como medidas para evitar a
geração de vieses por problemas na classificação, falhas ou falta de informação em relação a grupos
afetados, falta de cobertura ou distorções em representatividade, conforme a aplicação pretendida,
bem como medidas corretivas para evitar a incorporação de vieses sociais estruturais que possam
ser perpetuados e ampliados pela tecnologia; (ii) composição de equipe inclusiva responsável pela
concepção e desenvolvimento do sistema, orientada pela busca da diversidade.
141
Figura 12 - Imagem que ilustra o ciclo da tomada de decisão automatizada, desde sua concepção até
o destinatário receber o resultado oriundo do sistema, poder compreender e se for o caso recorrer.
Fonte: Própria
usuário que interage com um sistema de IA (art. 5, I); (vii) informações sobre o nível
de autonomia do sistema (art. 7, I, art.8, II); (viii) informações gerais sobre o sistema,
assim como dados utilizados e medidas de segurança adotadas (art. 7, II, V, VI, art.
8, III, art. 19, V e art. 20); (ix) verificar se a lei não veda o sistema (art. 14 e art. 15);
(x) realização de audiências públicas (art. 21, I); (xi) realização de avaliação de
impacto algorítmico (art. 22 e 23); (xii) criação de códigos de boas práticas e de
governança (art. 30); (xiii) possibilitar que dados de sistemas fiquem acessíveis ao
público sempre que possível, principalmente quando envolver sistemas de alto risco
(art. 43). Além das recomendações anteriores, também há o dever de cumprir o já
previsto nas legislações em vigência como Constituição Federal, LAI e LGPD.
A seguir serão abordadas algumas perguntas para serem respondidas
durante cada etapa do ciclo de vida do desenvolvimento da IA, de acordo com critérios
sugeridos na literatura e na proposta legislativa. As perguntas foram separadas em
subcategorias de acordo com princípios previstos pelo FAT/ML. Geralmente, o
processo de desenvolvimento é iterativo, ou seja, o software se aperfeiçoa e cada fase
é revisitada. Em alguns casos, os questionamentos realizados em cada fase podem
ser reaproveitados.
Vale ressaltar que as perguntas formuladas são apenas alguns exemplos do
que pode ser avaliado em cada fase, para contextos específicos é necessário
aprofundar os questionamentos.
5.5.1 Design
o Responsabilidade
■ Quem são os operadores e fornecedores do sistema de IA?
■ Quais são as medidas de governança adotadas no
desenvolvimento e emprego do sistema pela organização?
144
o Responsabilidade
■ Os dados são tratados de acordo com LGPD?
■ A empresa estabeleceu normas para governança de dados,
governança de IA e são aplicadas?
■ Pessoas externas foram envolvidas para avaliar impactos em
certos grupos de pessoas?
o Explicabilidade
■ Quais fontes de dados podem ser publicizadas?
o Precisão
■ Foi avaliada a origem, veracidade e qualidade dos dados e foram
consideradas fontes alternativas de dados?
o Auditabilidade
■ É possível fornecer auditoria pública ou há informações
confidenciais que demandem auditoria por terceiros designados?
■ Como será facilitada a auditoria pública ou de terceiros da base
de treinamento e teste?
146
o Imparcialidade
■ Há medidas de gestão de dados adequadas para a mitigação e
prevenção de potenciais vieses discriminatórios?
■ Existem grupos específicos que podem ser favorecidos ou
desfavorecidos?
■ O sistema usa dados pessoais sensíveis ou críticos? Há
justificativa para o uso?
■ Há dados que envolvam aspectos culturais?
• Caso sim, há diferença de cultura entre as pessoas que
foram fonte da informação e as que serão destinatárias da
decisão? Foi feito alguma ponderação neste caso?
5.5.3 Modelo
o Responsabilidade
■ Quem é responsável pelo treinamento e configuração do modelo?
o Explicabilidade
■ Quanto do sistema/algoritmo é possível explicar aos usuários e
partes interessadas?
• Caso não seja possível mapear com muitos detalhes, há
justificativa para usar um modelo opaco?
■ Há um modelo que represente de forma simplificada o
comportamento do modelo original do A/IS?
o Precisão
■ Quais os possíveis erros e como podem ser tratados?
■ Qual a precisão das decisões produzidas pelo sistema?
■ Foram avaliadas entradas de dados fora do padrão conhecido e
que podem influenciar no resultado?
147
o Auditabilidade
■ É possível fornecer auditoria pública ou há informações
confidenciais que demandem auditoria por terceiros designados?
■ Como será viabilizada a auditoria pública ou de terceiros sem
abrir o sistema para acesso injustificado?
■ Há registros de logs sobre o rastreamento das decisões tomadas,
assim como das variáveis utilizadas, modelo utilizado, pesos
atribuídos e valores das variáveis na época da execução?
■ Quais são as medidas de segurança, de não-discriminação e de
confiabilidade adotadas, como acurácia, precisão e cobertura?
o Imparcialidade
■ Existem grupos específicos que podem ser favorecidos ou
desfavorecidos?
o Responsabilidade
■ Há cuidados em cada fase do ciclo de vida do projeto e
devidamente documentados?
o Explicabilidade
■ Não foram identificadas perguntas neste caso.
o Precisão
■ Os possíveis erros do sistema são conhecidos?
■ Há pontos cegos no A/IS?
■ Foram realizados testes para avaliação de níveis apropriados de
confiabilidade, conforme o contexto e o tipo de aplicação do
148
o Responsabilidade
■ Quem é o responsável pela operação, uso e monitoramento do
sistema em produção?
o Explicabilidade
■ Não foram identificadas perguntas neste caso.
o Precisão
■ Há melhoria contínua do sistema?
■ Há medidas de contenção e reparo em caso de erro do sistema?
o Auditabilidade
■ As fontes de dados externas são monitoradas para verificar se
algo afetou sua integridade?
■ É possível fornecer auditoria pública ou há informações
confidenciais que demandem auditoria por terceiros designados?
■ Como será viabilizada a auditoria pública ou de terceiros sem
abrir o sistema para acesso injustificado?
149
o Satisfação do Usuário
o A explicação fornecida é clara para o usuário?
o A explicação fornecida é útil para o usuário?
o O usuário sabe quando confiar e quando não confiar nos
resultados obtidos?
o Modelo
o É possível compreender decisões individuais?
o É possível compreender o modelo por completo?
o O que o modelo dará de resultado?
o Como intervir no resultado do modelo?
o Usuário consegue prever as decisões/comportamento do
sistema em novas situações?
o Desempenho
o A explicação ajuda na tomada de decisão do usuário?
150
6 CONSIDERAÇÕES FINAIS
183 Ao consultar as normas técnicas publicadas pela IEEE e ISO/IEC, as primeiras normas relativas ao
tema inteligência artificial e áreas correlatas de governança, riscos, aspectos éticos, transparência,
vieses, surgem a partir de 2020.
152
184 Como exemplo de iniciativas nacionais temos princípios definidos pelo EBIA.
153
Neste sentido, o poder público deve evitar o uso de algoritmos opacos para
treinar modelos de IA sempre que possível. A transparência é crucial para a
responsabilização e garantia dos Direitos Fundamentais e como foi verificado, ações
de explicabilidade apenas chegam a uma aproximação do comportamento do modelo.
Essa justificativa sobre a escolha do algoritmo e diversas outras evidências
sobre como o sistema foi construído, além de decisões tomadas sobre a construção,
devem ser registradas para permitir a auditabilidade do sistema. Além do mapeamento
de questões do projeto do sistema, também é interessante, dentro do possível,
envolver os cidadãos para contestar as hipóteses e escolhas de design feitas em cada
etapa do ciclo de vida de uma IA. Este é o objetivo da contestabilidade by design, em
que o cidadão pode participar do processo de desenvolvimento do sistema ao invés
de apenas questionar o resultado, quando o sistema já foi finalizado e apresenta
comportamento prejudicial. No contexto do poder público, este tipo de abordagem
pode ser muito benéfico, principalmente durante a construção de sistemas que limitem
o acesso do cidadão aos serviços estatais ou afetar direitos fundamentais.
C om entários fin a is
185 Exemplos de exceção (i) Casos de sigilo estabelecidos pelo governo; (ii) Quando a transparência
afete o resultado pretendido, como investigações criminais ou identificação de fraude.
159
186 BBC. 'Algoritmo roubou meu futuro': solução para 'Enem britânico' na pandemia provoca escândalo.
Disponível em https://www.bbc.com/portuguese/internacional-53853627. 2020. Acesso em fevereiro
de 2023.
187 No Reino Unido, era utilizado um algoritmo para decidir as notas dos estudantes no Reino Unido
para poderem ingressar em uma universidade. O algoritmo foi criado na época da pandemia de
coronavírus e determinou um jeito único de avaliar os alunos, entretanto, nenhuma transparência foi
dada previamente de como as notas eram calculadas. Foi constatado que estudantes mais pobres
foram prejudicados com atribuição de notas inferiores, mesmo para alunos que eram avaliados muito
bem pelos seus professores. Após muitos questionamentos, o sistema desenvolvido não foi mais
utilizado.
188 WIRED. How an Algorithm Blocked Kidney Transplants to Black Patients. Disponível em
https://www.wired.com/story/how-algorithm-blocked-kidney-transplants-black-patients/. 2020. Acesso
em fevereiro de 2023.
189 Nos Estados Unidos, hospitais utilizavam técnicas de inteligência artificial para avaliar a gravidade
da doença renal e determinar pessoas elegíveis para transplante renal. O grande problema foi
considerar aspectos de raça nesta seleção. No presente caso, o sistema atribuía atribui pontuações
mais saudáveis aos negros, os deixavam fora da lista de gravidade e consequentemente não
elegíveis ao transplante. A fórmula aplicável para calcular a função renal variava de acordo com a
raça. Na notícia, é mencionado um caso sim ilar de um software, usado por muitos sistemas de saúde
norte americanos, que privilegiava sistematicamente pacientes brancos em detrimento de pacientes
negros.
160
REFERÊNCIAS
ACM. P ublic P olicy. S tatem ent on a lg o rith m ic tra nspa ren cy and a cco untability.
ACM, 2017.
ALMADA, Marco. Human in te rve n tio n in autom ated decisio n-m aking : Tow ard the
co n s tru c tio n o f contestable system s. In: Proceedings of the 17th International
Conference on Artificial Intelligence and Law (ICAIL 2019), Montréal, QC, Canada:
ACM, 2019. p. 1-10.
ANANNY, Mike; CRAWFORD, Kate. Seeing w ith o u t kno w in g: L im ita tio n s o f the
tra nspa ren cy ideal and its a p p lica tio n to a lg o rith m ic a cco u n ta b ility. New media
& society, v. 20, n. 3, 2018. p. 973-989.
ARTICLE 29 WP. G uidelines on A utom ated in d ivid u a l d e cisio n-m aking and
P ro filin g fo r the purposes o f R egulation 2016/679, Brussels: Article 29 Data
Protection Working Party, 2018.
162
ÁVILA, Humberto. Teoria dos p rin cíp io s: da d e fin içã o à aplicação do s p rin cíp io s
ju ríd ico s. 17a. São Paulo: Malheiros Editores, 2016.
BBC. 'A lg o ritm o roubou meu fu tu ro ': s o lu çã o para 'Enem b ritâ n ic o ' na pandem ia
provoca escândalo. Disponível em https://www.bbc.com/portuguese/internacional-
53853627. 2020. Acesso em fevereiro de 2023.
BBC. C artilha da desinform ação: com o agem os g ru p o s que usam redes so cia is
para espalhar fake news e m o b iliza r eleitores. 2023. Disponível em
https://www.bbc.com/portuguese/articles/ceq55vxe9leo. Acesso em junho de 2023.
BBC. C hina 'socia l cre d it': B eijing sets up huge system . Disponível em
https://www.bbc.com/news/world-asia-china-34592186. 2015. Acesso em fevereiro de
2023
BBC. Os do cum e nto s secretos que revelam detalhes de cam pos de p ris io n e iro s
uig ure s na China. Disponível em https://www.bbc.com/portuguese/internacional-
61557466. 2022. Acesso em fevereiro de 2023.
BOL. SP lança edital para sistem a de câm eras que id e n tific a c o r e 'vadiagem '.
Disponível em https://www.bol.uol.com.br/noticias/2022/11/28/sp-lanca-edital-para-
sistema-de-cameras-que-identifica-cor-e-vadiagem.htm. 2022. Acesso em fevereiro
de 2023.
mcti/transformacaodigital/arquivosinteligenciaartificial/ebia-diagramacao_4-
979_2021 .pdf . 2021. Acesso em: junho de 2022.
BRKAN, Maja. Do a lg o rith m s rule the w o rld ? A lg o rith m ic d e cisio n-m aking and
data p ro te ctio n in the fra m ew o rk o f the GDPR and beyond. International Journal
of Law and Information Technology, v. 27, n. 2, 2019. p. 91-121.
BYGRAVE, Lee A. M inding the M achine v2.0: The EU General Data P rotection
R egulation and A utom ated D ecision Making. In: YEUNG, Karen; LODGE, Martin
(Orgs.), Algorithmic Regulation, Oxford: Oxford University Press, 2019.
CITRON, Danielle Keats. T echnological due process. Wash. UL Rev., v. 85, p. 1249,
2007.
CNJ. Ju s tiç a 4.0: Inteligên cia A rtific ia l está presente na m aioria dos trib u n a is
brasileiros. Disponível em https://www.cni.ius.br/iustica-4-0-inteligencia-artificial-
esta-presente-na-maioria-dos-tribunais-brasileiros/. 2022b. Acesso em: iunho de
2022.
CNN. Beyond San Francisco, m ore citie s are saying no to facia l recogn ition.
Disponível em https://edition.cnn.com/2019/07/17/tech/cities-ban-facial-
recognition/index.html. 2019. Acesso em fevereiro de 2023.
COELHO, J.; BURG, T. Uso de in te lig ê n cia a rtific ia l pelo poder público.
R ecom endações de G overnança. Departament of Research, Transparência Brasil,
2020a.
COVINGTON. European P arliam ent V otes in Favor o f B anning the Use o f Facial
R eco gnitio n in Law Enforcem ent. Disponível em
https://www.insideprivacy.com/artificial-intelligence/european-parliament-votes-in-
favor-of-banning-the-use-of-facial-recognition-in-law-enforcement/. 2021. Acesso em
fevereiro de 2023.
DIETTERICH, Thomas G.; HORVITZ, Eric J. Rise o f con cern s about AI: re fle ctio n s
and dire ction s. Communications of the ACM, v. 58, n. 10, 2015. p. 38-40.
ENGSTROM, David Freeman; HO, Daniel E., A rtific ia lly In te llig e n t G overnm ent: A
Review and Agenda. In: VOGL, Roland (org). Big Data Law, 2020.
EXTRA. P refeitura do Rio faz processo s e le tivo com Inteligência A rtific ia l para
e sco lher ocupantes de cargos com issio nad os. Disponível em
https://extra.globo.com/economia-e-financas/servidor-publico/prefeitura-do-rio-faz-
processo-seletivo-com-inteligencia-artificial-para-escolher-ocupantes-de-cargos-
comissionados-24948603.html. 2021. Acesso em junho de 2023.
FÉLIX, Syngryd Nonato Freire Queiroz; NETO, Daniel Antonio de Aquino. Análises
das antinomias entre a Lei de Acesso à Informação (LAI) e a Lei Geral de Proteção
de Dados (LGPD) na prática da administração pública. Equidade: R evista E letrônica
de D ireito da UEA - ISSN: 2675-5394, [S.l.], v. 8, n. 1, mar. 2023. ISSN 2675-5394.
Disponível em: <http://periodicos.uea.edu.br/index.php/equidade/article/view/2823>.
Acesso em: 23 jul. 2023.
FERRAZ, Sérgio; DALLARI, Adilson Abreu. P rocesso a d m in istra tivo . São Paulo:
Malheiros Editores, 2001.
167
FOLHA DE SÃO PAULO. C hina usa re conhecim ento facial para rastrear
m anifestantes co n tra C ovid zero. Disponível em
https://www1 .folha.uol.com.br/mundo/2022/12/china-usa-reconhecimento-facial-para-
rastrear-manifestantes-contra-covid-zero.shtml. 2022. Acesso em fevereiro de 2023.
FOLHA DE SÃO PAULO. N ordeste v ira palco de guerra fria te cn o ló g ica entre EUA
e China. Disponível em https://www1.folha.uol.com.br/mundo/2019/08/nordeste-vira-
palco-de-guerra-fria-tecnologica-entre-eua-e-china.shtml. 2019. Acesso em fevereiro
de 2023.
FOLHA DE SÃO PAULO. PF com pra sistem a que cruzará dados b io m é trico s de
50 m ilhões de b rasileiro s. Disponível em
https://www1 .folha.uol.com.br/tec/2021/07/pf-compra-sistema-que-cruzara-dados-
biometricos-de-50-milhoes-de-brasileiros.shtml. 2021. Acesso em fevereiro de 2023.
FOLHA DE SÃO PAULO. Sob crítica s p o r viés racial, re conh ecim e nto facial
chega a 20 estados. Disponível em
https://www1 .folha.uol.com.br/cotidiano/2021/07/sob-criticas-por-vies-racial-
reconhecimento-facial-chega-a-20-estados.shtml. 2021. Acesso em fevereiro de
2023.
FRAZÃO, Ana; GOETTENAUER, Carlos. B lack box e o d ire ito face à opacidade
algorítm ica. In: Barbosa, Mafalda Miranda. Direito Digital e Inteligência Artificial.
Indaiatuba: Editora Foco, Edição do Kindle, v. 79, 2021.
GAZETA DO POVO. Com o a C hina usa in te lig ê n cia a rtific ia l para id e n tific a r uma
m inoria. Disponível em https://www.gazetadopovo.com.br/mundo/china-usa-
inteligencia-artificial-para-identificar-minoria/. 2019. Acesso em fevereiro de 2023
GOEDE, Miguel. E-Estonia: The e-governm ent cases o f Estonia, Singapore, and
Curaçao. Archives of Business Research, v. 7, n. 2, 2019.
168
GOV.UK. A guide to usin g a rtific ia l inte llig ence in the p u b lic sector. Disponível
em https://www.gov.uk/government/publications/understanding-artificial-
intelligence/a-guide-to-using-artificial-intelligence-in-the-public-sector. 2019. Acesso
em fevereiro de 2023.
GUNNING, David; AHA, David. DARPA’s explainable a rtific ia l in te llig ence (XAI)
program . AI magazine, v. 40, n. 2, p. 44-58, 2019.
HAIDT, Jonathan. The em otional dog and its rational ta il: a socia l in tu itio n is t
approach to m oral judgm ent. Psychological review, v. 108, n. 4, p. 814, 2001.
HAN, Jiawei; KAMBER, Micheline; PEI, Jian. Data M ining: C oncepts and
Techniques. Massachusetts: Morgan Kaufmann, v. 3, 2012.
HARARI, Yuval Noah. 21 lições para o sé cu lo 21. Editora Companhia das Letras,
2018.
HAUGELAND, J. (Ed.). A rtific ia l Intelligence: The Very Idea. MIT Press, 1985.
IENCA, Marcello; ANDORNO, Roberto. Tow ards new hum an rig h ts in the age o f
neuroscience and ne urotechnology. Life sciences, society and policy, v. 13, n. 1, p.
1-27, 2017.
ISAAK, Jim; HANNA, Mina J. User data privacy: Facebook, C am bridge A nalytica,
and priva cy protection. Computer, v. 51, n. 8, p. 56-59, 2018.
JAIN, Anil; BOLLE, Ruud; PANKANTI, Sharath. In tro d u ctio n to biom etrics. Springer
US, 1996.
LÓPEZ, Nuria. Um direito, um dever: guia para o art. 20 da LGPD, In: OPICE BLUM,
Renato (Org.), Proteção de Dados - Desafios e Soluções na Adequação à Lei, 1a
Edição. Rio de Janeiro: Editora Forense, 2020.
MASSENO, Manuel David. Das C onsequências Ju ríd ica s da A desão do B rasil aos
P rincíp ios da OCDE Para a Inteligência A rtific ia l, E specialm ente Em Matéria De
Proteção de Dados. Journal of Law and Sustainable Development, v. 8, n. 2, p. 113
122, 2020.
171
MCCARTHY, John et al. A proposal fo r the dartm outh sum m er research pro je ct
on a rtificia l intelligence, au gust 31, 1955. AI magazine, v. 27, n. 4, p. 12-12, 2006.
MENZIES, Tim; PECHEUR, Charles. V e rifica tio n and V alidation and A rtific ia l
Intelligence. Advances in Computers. 65, 2005.
MITTELSTADT, Brent Daniel et al. The eth ics o f a lg o rith m s: M apping the debate.
Big Data & Society, v. 3, n. 2, 2016.
MOOR, James. The D artm outh C ollege a rtific ia l in te llig ence conference: The next
fifty years. Ai Magazine, v. 27, n. 4, p. 87-87, 2006.
172
NORVIG, Peter; RUSSELL, Stuart. Inteligência artificial. Rio de Janeiro: Grupo GEN,
2013.
OECD. OECD Fram ew ork fo r the C la ssifica tio n o f AI system s. OECD Digital
Economy Papers, No. 323, OECD Publishing, Paris, 2022.
O GLOBO. Índia usa reconhecim ento facial para re p rim ir protestos. Disponível
em https://oglobo.globo.com/mundo/india-usa-reconhecimento-facial-para-reprimir-
protestos-24253958. 2020. Acesso em fevereiro de 2023.
OLHAR DIGITAL. Polícia b ritânica não usa re conhecim ento facial de fo rm a ética
e legal, diz pesquisa. Disponível em
https://olhardigital.com.br/2022/10/31/seguranca/policia-britanica-nao-usa-o-
reconhecimento-facial-de-forma-etica-e-legal-diz-pesquisa/. 2022. Acesso em
fevereiro de 2023.
POOLE, D., MACKWORTH, A. K., AND GOEBEL, R. C om putational inte llig ence : A
log ica l approach. Oxford University Press, 1998.
SCHEDLER, Andreas; DIAMOND, Larry Jay; PLATTNER, Marc F. (Ed.). The s e lf
re stra in in g state: pow er and a c c o u n ta b ility in new dem ocracies. Lynne Rienner
Publishers, 1999.
SESARTIC, A. S urfin g the sea o f data H andling data storage and preventing
degradation. 2017. Disponível em https://www.explora.ethz.ch/en/sZsurfing-the-sea-
of-data/ . Acesso em fevereiro de 2023.
SHERIDAN, T. B., T elerobotics, A uto m atio n, and Human S upe rvisory C ontrol.
Cambridge, MA: MIT Press, 1992.
175
SILVA, Tarcízio. Linha do Tem po do R acism o A lg o rítm ico . Blog do T arcizio Silva,
2022. Disponível em: <https://tarciziosilva.com.br/blog/posts/racismo-algoritmico-
linha-do-tempo>. Acesso em: fevereiro de 2023.
SILVER, David et al. M astering the game o f go w ith o u t hum an know ledge. nature,
v. 550, n. 7676, p. 354-359, 2017.
STF. P rojeto V ic to r avança em pesquisa e desenvo lvim ento para ide ntificaçã o
dos tem as de repercussão geral. Disponível em
https://portal.stf.jus.br/noticias/verNoticiaDetalhe.asp?idConteudo=471331&ori=1.
Acesso em: junho de 2022.
STF. RE 865.401, Rei. Min. Dias Toffoli, Pleno, julg. 25/04/2018, Disponível em:
https://portal.stf.jus.br/processos/detalhe.asp?incidente=4709214. Acesso em 23 de
junho de 2023
TCU. TCU avalia uso de in te lig ê n cia a rtific ia l pelo govern o federal. Disponível
em https://portal.tcu.gov.br/imprensa/noticias/tcu-avalia-uso-de-inteligencia-artificial-
pelo-governo-federal.htm. 2022. Acesso em fevereiro de 2023.
THE GUARDIAN. G oogle alters search autocom plete to rem ove 'are Jew s evil'
suggestion. Disponível em
https://www.theguardian.com/technology/2016/dec/05/google-alters-search-
autocomplete-remove-are-jews-evil-suggestion . Acesso em: junho de 2022.
THE INTERCEPT. Exclusivo: levantamento revela que 90,5% dos presos por
monitoramento facial no Brasil são negros. Disponível em
https://theintercept.com/2019/11/21/presos-monitoramento-facial-brasil-negros/.
Acesso em fevereiro de 2023.
TOSONI, Luca. The rig h t to o b je ct to autom ated in d ivid u a l de cisio ns: re solving
the a m b ig u ity o f A rtic le 22(1) o f the General Data P rotection R egulation,
International Data Privacy Law, v. 11, n. 2, 2021. p. 125-144.
UOL. A p ó s o 8/1, Palácio do P lanalto terá nova segurança com 708 câm eras e
recurso s IA. Disponível em https://gizmodo.uol.com.br/planalto-tera-sistema-
seguranca-708-cameras-recursos-ia/. 2023. Acesso em fevereiro de 2023.
UOL. R econhecim ento facial usado na China é testado no B rasil; saiba com o
opera. Disponível em
https://www.uol.com.br/tilt/noticias/redacao/2019/01/18/reconhecimento-facial-usado-
na-china-e-testado-no-brasil-saiba-como-opera.htm. 2019. Acesso em fevereiro de
2023.
Venture Beat. G oogle C loud AI rem oves gender labels fro m C loud V isio n API to
avoid bias. Disponível em https://venturebeat.com/2020/02/20/google-cloud-ai-
removes-gender-labels-from-cloud-vision-api-to-avoid-bias/. 2020. Acesso em: junho
de 2022.
YARSHELL, Flavio Luiz. C urso de D ireito P rocessual C ivil. São Paulo: Marcial
Pons, 2014, p. 133.
192 Masseno (2023) comenta sobre os riscos da vigilância biométrica nos espaços acessíveis ao
público, para fins de segurança pública e de justiça criminal na União Europeia. Dentre os riscos
analisados, estão as violações de direitos fundamentais.
179
Figura 13 - Etapas para realizar o reconhecimento facial. Fonte: Jain et al (1996, p. 104).
193 O pesquisador Tarcízio Silva elencou diversos casos de racismo algorítmico desde 2010. (SILVA,
2022).
194 Apesar de uma maior liberdade do estado de usar sistemas para fins de segurança pública, que
ensejam maiores exigências para os controladores dos dados e limitação dos direitos para os
cidadãos, é necessário avaliar as consequências em casos de erros.
180
195 SERPRO. Aeroporto de capital do país testa embarque com reconhecimento facial. Disponível em
https://www.serpro.gov.br/menu/noticias/noticias-2021/embarque-seguro-brasilia. 2021. Acesso em
fevereiro de 2023.
196 YAHOO. Bancos adotarão reconhecimento facial em transações de rotina. Disponível em
https://br.financas.yahoo.com/news/bancos-adotarao-reconhecimento-facial-em-transacoes-de-
rotina-171015498.html. 2022. Acesso em fevereiro de 2023.
197 UOL. Após o 8/1, Palácio do Planalto terá nova segurança com 708 câmeras e recursos IA.
Disponível em https://gizmodo.uol.com.br/planalto-tera-sistema-seguranca-708-cameras-recursos-
ia/. 2023. Acesso em fevereiro de 2023.
198 THE INTERCEPT. Exclusivo: levantamento revela que 90,5% dos presos por monitoramento facial
no Brasil são negros. Disponível em https://theintercept.com/2019/11/21/presos-monitoramento-
facial-brasil-negros/. 2019. Acesso em fevereiro de 2023.
181
imagens, o ângulo do rosto e a iluminação. Além disso, a tecnologia pode ter uma taxa
de erro maior para certos grupos, raças e mulheres, em razão de problemas de coleta
de dados e treinamento dos algoritmos. Esses problemas podem resultar em erros de
identificação, falsos positivos e levantar preocupações sobre a precisão da tecnologia
de reconhecimento facial.
A taxa de acerto dos sistemas de reconhecimento facial também depende do
algoritmo utilizado para treinamento, do sistema que o utiliza e dos dados que
alimentam o sistema, que deve considerar diferentes dados demográficos. A
verificação destes itens se faz fundamental pelo órgão público que desenvolve ou
adquire este tipo de tecnologia.
Como há diferentes sistemas no mercado que oferecem este serviço, o NIST
(GROTHER et al., 2019, p. 1) avaliou 189 algoritmos de 99 desenvolvedores. Na
avaliação, é verificado a taxa de sucesso de cada algoritmo quando executa tarefas
de reconhecimento facial. A primeira tarefa, consiste na confirmação que uma foto
corresponde a uma foto diferente da mesma pessoa em um banco de dados
(correspondência "um para um”). A segunda, consiste em determinar se a pessoa da
foto tem alguma correspondência em um banco de dados (correspondência "um para
muitos”).
Para avaliar o desempenho de cada algoritmo em sua tarefa, a equipe mediu
as duas classes de erro que o software pode cometer: falsos positivos e falsos
negativos. Um falso positivo significa que o software erroneamente considerou fotos
de dois indivíduos diferentes para mostrar a mesma pessoa, enquanto um falso
negativo significa que o software não conseguiu combinar duas fotos que, de fato,
mostram a mesma pessoa. Fazer essas distinções é importante porque a classe de
erro e o tipo de pesquisa podem ter consequências muito diferentes.
Como destacam Grother et al (2019, p. 2-3), em uma pesquisa individual, um
falso negativo pode ser apenas uma inconveniência, no qual você não pode acessar
seu telefone, por exemplo, mas o problema pode ser remediado com uma segunda
tentativa. Mas um falso positivo em uma pesquisa um-para-muitos coloca uma
correspondência incorreta em uma lista de candidatos que justificam um exame mais
minucioso. Verifica-se que os problemas gerados no Brasil, de pessoas presas por
engano, se encaixam neste segundo tipo de erro.
182
Figura 15 - As cidades mais vigiadas do mundo - câmeras a cada 1.000 pessoas. Fonte: Comparitech
(2022).
199 COMPARITECH. Estatísticas de câmeras de vigilância: quais cidades têm mais câmeras de CFTV?
Disponível em https://www.comparitech.com/vpn-privacy/the-worlds-most-surveilled-cities/. Acesso
em fevereiro de 2023.
200 Os números mencionados no relatório sobre de câmeras de vigilância são aproximados, dado que
os países não publicizam este tipo de informação. O site utiliza como uma das fontes de informação
as câmeras públicas existentes em cada cidade/país.
184
1. CASOS NACIONAIS
Figura 16 - Cidades do Brasil que usavam a tecnologia de reconhecimento facial até 2019. Fonte:
IGARAPE201 (2019)
mais de 1,3 milhões de pessoas e gerou 903 avisos, o que resultou no cumprimento
de 18 mandados e na prisão de 15 pessoas, ou seja, de todos os avisos emitidos,
mais de 96% não resultaram em nada.
No mesmo ano, no Rio de Janeiro também ocorreram problemas207, onde uma
mulher inocente foi presa devido à tecnologia ter indicado que ela era foragida. O erro
se agrava mais ainda, pois, a mulher que era procurada pela justiça já estava presa.
Uma mulher, que estava sentada numa calçada da Avenida Nossa Senhora
de Copacabana, segurando uma placa de compra de ouro e prata, foi
identificada, terça-feira, pelas câmeras de reconhecimento facial instaladas
no bairro como sendo ********** condenada por homicídio e procurada pela
polícia. Imediatamente, a mulher, que estava sem documentos e realmente
era parecida com **********, foi levada para a delegacia da área, onde, depois
que parentes levaram sua identidade, foi constatado o engano. ..., Mas o erro
no sistema não foi só este. ********** que estava sendo procurada pelas
câmeras, já está, na verdade, presa desde 2015, informação que a Polícia
Militar, responsável pela operação do sistema, desconhecia.
Neste caso do Rio de Janeiro, não houve apenas um erro da tecnologia, mas
também um erro humano confiar totalmente no resultado e não fazer outros tipos de
conferência, como digitais e verificar se a procurada já estava presa. O Estado do Rio
de Janeiro chegou a alegar, na época, que o sistema estava em fase de testes.
Também não foi detalhado como o sistema seria aperfeiçoado para evitar estes
problemas. As empresas que forneceram a tecnologia para o monitoramento foram a
Oi e Huawei208
Outro exemplo de uso de IA pelo poder público, que gerou questionamentos,
foi a implantação de um sistema de reconhecimento facial na estação Sé do Metrô de
São Paulo em 2019209 O sistema foi desenvolvido para identificar pessoas procuradas
pela polícia, mas houve críticas em relação à falta de transparência e ao potencial de
uso indevido da tecnologia, mesmos problemas que ocorreram em outros estados.
207 OGLOBO. Reconhecimento facial falha em segundo dia, e mulher inocente é confundida com
criminosa já presa. Disponível em https://oglobo.globo.com/rio/reconhecimento-facial-falha-em-
segundo-dia-mulher-inocente-confundida-com-criminosa-ja-presa-23798913. 2019. Acesso em
fevereiro de 2023,
208 TECNOBLOG. Rio de Janeiro identificou 8 mil pessoas com reconhecimento facial no Carnaval.
Disponível em https://tecnoblog.net/noticias/2019/05/10/rio-de-janeiro-identificou-8-mil-
reconhecimento-facial/. 2019. Acesso em fevereiro de 2023.
209 G 1. Metrô de SP terá sistema de reconhecimento facial. Disponível em https://g1 .globo.com/sp/sao-
paulo/noticia/2019/07/17/metro-de-sp-tera-sistema-de-reconhecimento-facial.ghtml. 2019. Acesso
em fevereiro de 2023.
187
O algoritmo já tem um viés racial, ou seja, pessoas negras vão ser mais
confundidas. O banco de dados de procurados também é racializado, com a
maioria negra. Então um banco de dados alvo majoritariamente negro e um
algoritmo que tem viés racial vão causar maior abordagem de pessoas
negras.
210 UOL. Reconhecimento facial usado na China é testado no Brasil; saiba como opera. Disponível em
https://www.uol.com.br/tilt/noticias/redacao/2019/01/18/reconhecimento-facial-usado-na-china-e-
testado-no-brasil-saiba-com o-opera.htm . 2019. Acesso em fevereiro de 2023.
211 FOLHA DE SÃO PAULO. Sob críticas por viés racial, reconhecimento facial chega a 20 estados.
Disponível em https://www1 .folha.uol.com.br/cotidiano/2021/07/sob-criticas-por-vies-racial-
reconhecimento-facial-chega-a-20-estados.shtml. 2021. Acesso em fevereiro de 2023.
212 UOL. Bancada do PSL vai à China importar sistema que reconhece rosto de cidadãos. Disponível
em https://noticias.uol.com.br/politica/ultimas-noticias/2019/01/16/bancada-do-psl-vai-a-china-para-
importar-tecnicas-de-reconhecimento-facial.ht. 2019. Acesso em fevereiro de 2023.
213 FOLHA DE SÃO PAULO. Sob críticas por viés racial, reconhecimento facial chega a 20 estados.
Disponível em https://www1 .folha.uol.com.br/cotidiano/2021/07/sob-criticas-por-vies-racial-
reconhecimento-facial-chega-a-20-estados.shtml. 2021. Acesso em fevereiro de 2023.
188
Apesar dos problemas relatados, em 2021 foi noticiado que vinte estados das
cinco regiões do Brasil utilizavam ou estavam implementando a tecnologia de
reconhecimento facial na segurança pública local. Outros três estudavam a
implementação e apenas quatro estados não utilizavam, não tiveram contato com o
sistema ou planejavam utilizar. Os dados foram levantados pela Folha214, por meio
das secretarias estaduais de Segurança e das polícias Civil e Militar. O uso ainda não
se restringia às policiais estaduais, mas também à Polícia Federal215.
Em novembro de 2022, após fortes questionamentos e intervenção do
Tribunal de Justiça de São Paulo216, o uso do reconhecimento facial em São Paulo
tomou proporções maiores217. O Metrô de São Paulo iniciou a operação de sistema
de reconhecimento facial com utilização de cerca de 5 mil câmeras de monitoramento,
quando estiver 100% implementado. Além dos questionamentos já citados
anteriormente, o TJSP alegou que não existia comprovação de que o sistema seria
usado apenas para ações de Segurança Pública, o que pode atingir direitos
fundamentais dos cidadãos. Dentre as violações levantadas pelo tribunal, estavam
não atender aos requisitos legais previstos na Lei Geral de Proteção de Dados
(LGPD), no Código de Defesa do Consumidor, no Código de Usuários de Serviços
Públicos, no Estatuto da Criança e do Adolescente, na Constituição Federal e nos
tratados internacionais.
Em dezembro de 2022, a presidente do Metrô de São Paulo rechaçou a ideia
de que haja algum viés racial nas tecnologias, pelo fato de ter investido R$58 milhões
de reais na tecnologia218:
214 FOLHA DE SÃO PAULO. Sob críticas por viés racial, reconhecimento facial chega a 20 estados.
Disponível em https://www1 .folha.uol.com.br/cotidiano/2021/07/sob-criticas-por-vies-racial-
reconhecimento-facial-chega-a-20-estados.shtml. 2021. Acesso em fevereiro de 2023.
215 FOLHA DE SÃO PAULO. PF compra sistema que cruzará dados biométricos de 50 milhões de
brasileiros. Disponível em https://www1 .folha.uol.com.br/tec/2021/07/pf-compra-sistema-que-
cruzara-dados-biometricos-de-50-milhoes-de-brasileiros.shtml. 2021. Acesso em fevereiro de 2023.
216 G1. Justiça de SP determina que Metrô interrompa implantação de sistema de reconhecimento
facial. Disponível em https://g1 .globo.com/sp/sao-paulo/noticia/2022/03/22/justica-de-sp-determina-
que-m etro-interrompa-implantacao-de-sistema-de-reconhecimento-facial.ghtml. 2022. Acesso em
fevereiro de 2023.
217 G1. Metrô de SP inicia operação de sistema de reconhecimento facial; TJ chegou a impedir
instalação. Disponível em https://g1 .globo.com/sp/sao-paulo/noticia/2022/11/21/metro-de-sp-inicia-
operacao-de-novo-sistema-de-monitoramento-eletronico-por-meio-de-reconhecimento-facial-tj-
chegou-a-impedir-instalacao.ghtml. 2022. Acesso em fevereiro de 2023.
218 VEJA. Câmeras de reconhecimento facial se multiplicam em São Paulo. Disponível em:
https://vejasp.abril.com.br/cidades/cameras-reconhecimento-facial-sp/. 2022. Acesso em fevereiro
de 2022.
189
219 FOLHA DE SÃO PAULO. Nordeste vira palco de guerra fria tecnológica entre EUA e China.
Disponível em https://www1 .folha.uol.com.br/mundo/2019/08/nordeste-vira-palco-de-guerra-fria-
tecnologica-entre-eua-e-china.shtml. 2019. Acesso em fevereiro de 2023.
220 UOL. Bancada do PSL vai à China importar sistema que reconhece rosto de cidadãos. Disponível
em https://noticias.uol.com.br/politica/ultimas-noticias/2019/01/16/bancada-do-psl-vai-a-china-para-
importar-tecnicas-de-reconhecimento-facial.ht. 2019. Acesso em fevereiro de 2023.
190
2. CASOS INTERNACIONAIS
221 FOLHA DE SÃO PAULO. China usa reconhecimento facial para rastrear manifestantes contra Covid
zero. Disponível em https://www1 .folha.uol.com.br/mundo/2022/12/china-usa-reconhecimento-facial-
para-rastrear-manifestantes-contra-covid-zero.shtml. 2022. Acesso em fevereiro de 2023.
222 BBC. Os documentos secretos que revelam detalhes de campos de prisioneiros uigures na China.
Disponível em https://www.bbc.com/portuguese/internacional-61557466. 2022. Acesso em fevereiro
de 2023.
223 GAZETA DO POVO. Como a China usa inteligência artificial para identificar uma minoria. Disponível
em https://www.gazetadopovo.com.br/mundo/china-usa-inteligencia-artificial-para-identificar-
minoria/. 2019. Acesso em fevereiro de 2023.
224 THE GUARDIAN. We just want to live in a normal world: China’s young protesters speak out, and
disappear. Disponível em https://www.theguardian.com/world/2023/feb/08/we-just-want-to-live-in-a-
normal-world-chinas-young-protesters-speak-out-and-disappear. 2023. Acesso em fevereiro de 2023.
225 BBC. China 'social credit': Beijing sets up huge system. Disponível em
https://www.bbc.com/news/world-asia-china-34592186. 2015. Acesso em fevereiro de 2023.
191
226 UOL. Sistema de reconhecimento facial erra, e homem negro é preso por engano. Disponível em
https://www.uol.com.br/tilt/noticias/redacao/2020/06/25/homem-e-preso-apos-erro-de-tecnologia-de-
reconhecimento-facial-nos-eua.htm. 2020. Acesso em fevereiro de 2023.
227 OLHAR DIGITAL. Polícia britânica não usa reconhecimento facial de forma ética e legal, diz
pesquisa. Disponível em https://olhardigital.com.br/2022/10/31/seguranca/policia-britanica-nao-usa-
o-reconhecimento-facial-de-forma-etica-e-legal-diz-pesquisa/. 2022. Acesso em fevereiro de 2023.
228 CNN. Beyond San Francisco, more cities are saying no to facial recognition. Disponível em
https://edition.cnn.com/2019/07/17/tech/cities-ban-facial-recognition/index.html. 2019. Acesso em
fevereiro de 2023.
229 O GLOBO. Índia usa reconhecimento facial para reprimir protestos. Disponível em
https://oglobo.globo.com/mundo/india-usa-reconhecimento-facial-para-reprimir-protestos-24253958.
2020. Acesso em fevereiro de 2023.
230 VICE. Facial Recognition Is Out of Control in India. Disponível em
https://www.vice.com/en/article/akew98/facial-recognition-is-out-of-control-in-india. 2022. Acesso em
fevereiro de 2023.
192
liberdades individuais. Além disso, em 2019, a cidade de Hyderabad foi criticada por
usar tecnologia de reconhecimento facial para monitorar estudantes durante exames
de admissão em escolas, o que levantou preocupações sobre a privacidade dos
alunos231.
231 REUTERS. Fears for children's privacy as Delhi schools install facial recognition. Disponível em
https://www.reuters.com/article/us-india-tech-facialrecognition-trfn-idUSKBN2AU0P5. 2021. Acesso
em fevereiro de 2023.
232 Convergência Digital. Justiça argentina proíbe reconhecimento facial após prisões indevidas.
Disponível em https://www.convergenciadigital.com.br/Seguranca/Justica-argentina-proibe-
reconhecimento-facial-apos-prisoes-indevidas-61384.html?UserActiveTemplate=mobile. 2022.
Acesso em fevereiro de 2023.
233 POLITICO. France’s top administrative court bans drone use to monitor protests. Disponível em
https://www.politico.eu/article/frances-top-administrative-court-bans-drone-use-to-monitor-protests/.
2020. Acesso em fevereiro de 2023.
193
238 O princípio da finalidade implica no tratamento de dados pessoais realizado com uma finalidade
específica, legítima e informada ao titular dos dados. No caso do reconhecimento facial, implica na
limitação do uso da tecnologia. Na prática, vemos que os países que usam a tecnologia, estabelecem
como finalidade a segurança pública e identificação de criminosos, mas fazem vigilância em massa
dos cidadãos.
239 O princípio da necessidade prevê que o tratamento de dados pessoais deve se lim itar ao mínimo
necessário para atingir a finalidade informada ao titular dos dados. No contexto do reconhecimento
facial, verifica-se que, em muitos casos, não há limites estabelecidos e os dados coletados dos
cidadãos ultrapassam a finalidade sendo usados para fins não legítimos.
240 O princípio da transparência define que o titular dos dados tem o direito de receber informações
claras, precisas e facilmente acessíveis sobre o tratamento de seus dados pessoais. No caso do
reconhecimento facial em ambientes públicos, muitas vezes o cidadão não tem ciência que é
monitorado e quais dados são coletados.
241 O princípio da segurança prevê que o tratamento de dados pessoais deve ser feito com medidas de
segurança adequadas para proteger os dados contra acesso não autorizado, perda ou destruição.
Na prática, vemos que não há publicização sobre como os sistemas de reconhecimento facial são
geridos pelo poder público, principalmente pelos aos dados que são coletados, tratados e se há
eliminação deles. É necessário explicitar também de quem que os dados são armazenados e se há
uma justificativa para ele (exemplo: pessoa procurada pela justiça).
242 O princípio da não-discriminação prevê que o tratamento de dados pessoais não pode ser utilizado
para discrim inar ou prejudicar o titular dos dados de qualquer forma. Na prática, por não haver
transparência sobre as ferramentas, desconhece-se se há medidas técnicas para eliminação de
vieses, qual a precisão do algoritmo utilizado e se foi avaliado o impacto social da tecnologia.
196
facial adquiridos de outros países ou empresas privadas, são enviados para fora do
país ou compartilhados com outras empresas? (vii) Quais riscos existentes, formas
de tratamento e quais não foram tratados? (v iii) Como são tratados/eliminados os
dados de pessoas que não atendem à finalidade do sistema? (ix) Quais traços de
comportamento são monitorados? e (x) Há possibilidade de intervenção humana nos
resultados243?
A partir de estudos realizados, como o caso de Grother et al (2019, p. 26-28),
também é necessário avaliar se o algoritmo e/ou fornecedor, possuem taxas de falsos
positivos e falsos negativos aceitáveis e inversamente proporcionais aos impactos
negativos que o sistema pode gerar. Todas as informações mencionadas
anteriormente devem ser publicizadas. Em caso de hipóteses de sigilo ou exceção
para não divulgação, devem ser justificadas.
Em sistemas novos, antes do desenvolvimento ou contratação de terceiros,
as informações mencionadas anteriormente devem ser levantadas e submetidas ao
escrutínio público, principalmente se o resultado obtido pelo sistema resultar em
violações de direitos fundamentais.
Além do tratamento do risco, é necessário estabelecer uma cadeia de
responsabilidade desde a concepção ou prospecção de um sistema de IA. Essa
cadeia de responsabilidade pode incluir representantes dos fornecedores das
tecnologias utilizadas na solução. A responsabilidade sobre o uso de IA na segurança
pública abrange os funcionários, supervisores e equipes envolvidas na concepção,
desenvolvimento e arquitetura da tecnologia, bem como aqueles que irão operar os
sistemas em uso (SENADO FEDERAL, 2022b, p. 839).
No contexto das aplicações na segurança pública, a responsabilidade se
refere principalmente aos seguintes aspectos: garantir que os indivíduos afetados
entrem em contato com o responsável pelo sistema com garantia de atendimento de
sua demanda; e assegurar que os responsáveis pelo fornecimento da tecnologia
estejam comprometidos com a precisão/acurácia das soluções e com seus impactos
sociais, sejam eles intencionais ou não.
243 Masseno (2022) aborda a questão da intervenção humana em sistemas de alto risco, como na
utilização de sistemas de inteligência artificial para a prevenção de crimes graves e do terrorismo.