Escolar Documentos
Profissional Documentos
Cultura Documentos
FICHA CATALOGRÁFICA
________________________________________
Prof. Dr. Dimas Künsch
Orientador e Presidente da Banca Examinadora
________________________________________
Profa. Dra. Camila Escudero
Coordenadora do Programa de Pós-Graduação
AGRADECIMENTOS
À professora Dra. Cilene Victor da Silva, com quem tenho a honra de trabalhar,
grata por tudo! Tudo mesmo! Obrigada pelo apoio, socorro, dicas e por aceitar fazer
parte da minha banca.
Agradeço também pelo tempo e conhecimento compartilhados pelos demais
integrantes da banca: muito obrigada à professora Dra. Daniela Osvald, ao professor
Dr. Fábio Botelho Josgrilberg e ao professor Dr. Sergio Amadeu da Silveira, que muito
me inspirou em seus trabalhos. E, principalmente, ao professor Dr. Dimas Künsch,
por me aceitar como orientanda.
7
RESUMO
ABSTRACT
LISTA DE FIGURAS
Lista de Tabelas
Introdução………………………………………………………………………………..p.13
1 A era da automação………………………………………………………………….p.22
1.1 Por dentro dos algoritmos…………………………….…………………….p.26
1.2 Um breve mergulho na história da Inteligência Artificial ………………..p.31
1.3 Vieses automatizados……………………………………....……………….p.43
1.3.1 A opacidade dos Sistemas de Decisões Automatizadas …………….p.49
2 O lado sombrio dos SDAs……………………………………….....……………….p.52
2.1 Vou conseguir um empréstimo? …………………….....………………….p.53
2.2 Chefe algorítmico …………….....…………………………………….…….p.56
2.2.1 Trabalhador-dado….....……………………….…………….…….p.60
2.3 Reconhecimento facial……………………………….....…………….…….p.62
2.3.1 Um raio-x do uso do reconhecimento facial……..……….…….p.64
2.3.1.1 O cenário brasileiro……….…………………………..….p.67
2.3.2 Os perigos do reconhecimento facial………………………..….p.72
2.4 O lado B do processamento da linguagem natural…………….….....….p.81
2.5 Máquinas de (in)justiça……………………………………..……….....…...p.83
2.6 Democracia………………………………………...………..……….....…...p.88
3 De olho nos SDAs: responsividade e responsabilização.…….……….….....p.96
3.1 Mas, quem está mesmo de olho nos SDAs?……………………............p.98
3.2 Como navegar em um cenário de
incerteza?..…...……...….................p.111
4 Entra em cena o Jornalismo ..……………………………………..….................p.114
4.1 Jornalismo de Precisão, RAC, Jornalismo com Dados e Jornalismo
Computacional..……...…..................……...…..……...….............................p.11
6
4.2 Desvendando os SDAs..……...…...................……...……….................p.118
4.3 Jornalismo investigativo …...…...................……...……...……..............p.124
4.4 Reportagens Investigativas sobre Decisões Automatizadas (RISDA).p.127
4.4.1 Uma proposta de investigação……………….…………………p.128
4.4.2 Critérios de noticiabilidade da RISDA…….……………………p.129
4.4.3 Técnicas da RISDA………………………………………………p.130
4.4.4 A dinâmica de apuração da RISDA…………………………….p.131
4.4.5 Resultados da RISDA……………………………………………p.135
5 Conclusão…......……...…….........…...…...................……...………...................p.136
Referências…...…......…...…...................……….............……...………................p.138
15
Introdução
Fonte HuffPost:1
1
Disponível em: https://www.huffingtonpost.co.uk/entry/calls-for-a-level-results-u-
turn_uk_5f3a2e87c5b69fa9e2fdb680. Acesso: 25 ago. 2020.
16
2
Disponível em:https://www.theguardian.com/commentisfree/2020/aug/19/ditch-the-algorithm-
generation-students-a-levels-politics. Acesso: 25 ago.2020.
3
Disponível em: https://digitalfuturesociety.com/qanda/lorena-jaume-palasi/. Acesso:10 out. 2021.
17
4
Disponível em: https://www.bbc.com/portuguese/geral-41250020. Acesso em: 2 fev 2018.
5
Disponível em: https://www.bbc.com/portuguese/geral-42908496. Acesso em: 19 jun. 2018.
6
Disponível em: https://www.businessinsider.com/vital-named-to-board-2014-5. Acesso em: 7 jun.
2017.
18
● São objetos técnicos que são jogadores decisivos nas esferas política,
econômica e cultural (MAYER-SCHONBERGER, CUKIER, 2013);
Para concluir este trabalho, lembrei, diversas vezes, de Morin (2015, p. 6).
Principalmente quando ele diz que “a consciência da complexidade nos faz
compreender que jamais poderemos escapar da incerteza e que jamais poderemos
ter um saber total.” (MORIN, 2015, p. 69). Por isso, sem a pretensão de ter uma visão
completa, espero, com esta tese, pelo menos despertar alguns jornalistas e
professores para uma prática que julgo ser instigante e necessária.
1 A ERA DA AUTOMAÇÃO
7
Ronaldo Lemos (2021a) cunhou o termo usuado. Ele defende o fim do emprego de usuário, pois esta
palavra passa uma imagem de que alguém usa alguma coisa. “Só que no mundo de hoje não é o
usuário que usa a tecnologia, mas é utilizado por ela” A palavra usuário passa a ideia de comando ou
agência, “mas o usuário atual não tem isso. Quando usa a tecnologia, é também usado por ela”. Lemos
opta por usuado, como um neologismo do inglês, misturando user (uso) com used (usado).
25
Para o antropólogo Nick Seaver (2017, p. 5-6), que pesquisa como as pessoas
usam a tecnologia, estes sistemas são arranjos intrincados e dinâmicos de pessoas e
códigos e como consequências de uma variedade de práticas humanas.
Nesta tese, como abordado na introdução, segui esta concepção, adotando a
expressão Sistemas de Decisões Automatizadas (SDAs)89. A palavra sistemas
permite reforçar a presença de muitos atores. Optei por automatizadas no lugar de
algoritmo porque a automação é fruto da decisão de alguém que deseja que uma
tarefa deixe de ser realizada manualmente. Neste sentido, a palavra automatizada
também reforça o caráter sociotécnico destes sistemas, que são o resultado de
escolhas humanas, corporativas e governamentais. Por isso, eles carregam
subjetividades e ideologias (O’NEIL, 2020).
Para analisar os SDAs seguimos a perspectiva da Teoria Ator-Rede - TAR
(LATOUR, 2012) que permite compreender seus elementos técnicos, como os
algoritmos, como atores ou actantes que estabelecem várias formas de associação,
sem nenhum tipo de hierarquia com os humanos. A TAR permite identificar nuances
de poder, descobrir as decisões humanas, os imperativos organizacionais e as
questões materiais destes sistemas, possibilitando uma compreensão relacional e não
determinista da tecnologia (ANDERSON; MAYER, 2015, p. 4; CARREIRA, 2017)
Por isso também, considero que sistema de decisão automatizada é melhor do
que sistema de decisão algorítmica, para evitar que a palavra algoritmo tivesse
primazia em relação aos demais actantes. A expressão Sistemas de Decisões
Automatizadas também é melhor do que inteligência artificial porque, ao contrário
da IA, estes sistemas não contêm somente artefatos tecnológicos e podem ser muito
menos sofisticados ou “inteligentes” do que os algoritmos de machine learning ou deep
learning, por exemplo.
8
Anne Kaun (2021, p. 7 e 13), em um artigo sobre decisões automatizadas no serviço público na Suécia,
analisa, a partir de um conjunto de decisões judiciais, que formas diferentes de definir os sistemas têm
implicações para o público em geral. A partir de entrevistas, ela identificou que: parte da administração
pública sueca usava a expressão sistema de apoio à decisão; outra parte da administração pública
e o público empregavam o termo robô; os jornalistas utilizavam código de software e os sindicatos e
tribunais chamavam de registro público. Para Kaun, o jeito que nomeamos as novas tecnologias ajuda
a consolidar visões sobre como elas podem ser usadas ou sobre como determinados aspectos sobre
elas podem ser ignorados. Esta análise reforça a importância da escolha adequada da forma de nomear
os Sistemas de Decisões Automatizadas.
9
Pierre Devaux (1964, p. 10) definiu automatização como a universalização do automatismo e
automatismo, como uma disciplina geral que permite substituir as pessoas por máquinas.
26
Kaun (2021, p.2) reforça que os sistemas automatizados são defendidos como
eficientes não só por empresas, mas também pelo setor público, onde apoiam ou
tomam decisões sobre serviços como a concessão (ou negação) de benefícios
sociais10. Assim como no setor privado, eles carregam a promessa de redução de
10
No Brasil, o governo federal publicou, em 2021, a portaria da Estratégia Brasileira de Inteligência
Artificial (EBIA). Em um documento a respeito dela, o Ministério da Ciência, Tecnologia e Inovações
afirma que “espera-se que a IA possa trazer ganhos na promoção da competitividade e no aumento da
produtividade brasileira, na prestação de serviços públicos, na melhoria da qualidade de vida das
pessoas e na redução das desigualdades sociais, entre outros” (EBIA, 2021, p. 4). O documento sofreu
diversas críticas. Ronaldo Lemos (2021d), em coluna na Folha de S. Paulo, chamou a Estratégia
Brasileira de Inteligência Artificial de patética, afirmando que, se o País depender do documento para
27
estruturar respostas aos desafios da tecnologia, o futuro será tenebroso. Ele sinaliza problemas como
domo a falta de meta, orçamento organização ou planejamento
11
Bugs são falhas ou erros no código de um programa que leva ao seu mau funcionamento.
28
elas não precisam ser necessariamente do jeito que são atualmente (BIJKER e LAW
apud MAGER, 2012, p. 2).
12
Para Marger (2012), o Google é uma máquina de vigilância e de exploração do usuário final que,
segundo TEIXEIRA (2015, p.57), mantém uma aparência de utilidade pública, enquanto produz e
atualiza enormes bancos de dados em tempo real.
30
localização de dados até mesmo fora do País (SILVEIRA, 2019), possibilitando a era
do capitalismo de vigilância (ZUBOFF, 2021).
O princípio-guia da Era da Informação é “quanto mais dados, melhor'', explica
Cathy O’Neil (2020, p. 233).13 Com petabytes de dados comportamentais na ponta
dos dedos, “as oportunidades para a criação de novos modelos de negócios são
vastas” (O’NEIL, 2020, p. 245), pois a internet oferece o maior laboratório de dados
que já existiu (p.120). A crescente digitalização e o contínuo armazenamento de todas
as atividades humanas em grandes depósitos de dados levou ao Big Data .
Schönberger e Cukier (2013, p .6) contam que este conceito começou a ser formulado
quando o volume de dados cresceu tanto que a quantidade que poderia ser analisada
já não se encaixava na memória que os computadores usavam para processamento.
Por isso, foi preciso reformular as ferramentas usadas.
A expressão Big Data, portanto, é usada para representar o armazenamento
de grandes volumes de dados, obtidos através de fontes muito variadas, para que
eles sejam gerenciados e analisados, por algoritmos, de forma extremamente veloz,
possibilitando a tomada de decisões e a geração de insights. A quantidade passa a
ser exposta “como a grande matriz da nova qualidade do conhecimento” (SILVEIRA,
2019), pautada na quantificação da vida humana às últimas consequências
(TEIXEIRA, 2015, p. 58) e configurando o que Schönberger e Cukier (2013) chamam
de datafication14. O que medimos afeta o que fazemos, lembra David Beer ao refletir
sobre o big data (2016, p. 3).
Para os algoritmos operarem, são criados modelos, que envolvem
representações abstratas de processos a partir da observação de comportamentos.
As modulações fazem projeções sobre o que somos, o que queremos de café da
manhã, com quem podemos nos relacionar e qual informação devemos ler, entre
tantas outras possibilidades. Mas, ao mesmo tempo, eles não veem o indivíduo real
na ponta. Como lembra O’Neil (2020, p. 249, 263), no fundo, somos vistos como
membros de tribos comportamentais, quase sempre geradas totalmente por máquinas
(O’NEIL, 2020, p. 266), seja pelo CEP, atitudes, histórico de pagamento ou por outros
proxies, que são indicadores aproximados, uma espécie de dados substitutos para o
13
No livro Algoritmos de Destruição em Massa, Cathy conta que a startup ZestFinance, criada por um ex-diretor
de operações do Google, que queria usar Big Data para calcular os riscos envolvidos na oferta de empréstimos
consignados, processava até dez mil pontos de dados por requerente (O’NEIL, 2020, p. 246).
14
Termo sem tradução precisa em português.
31
caso de faltar outros que seriam mais interessantes para as decisões automatizadas
(p. 29).
Somos colocados secretamente em “baldes” estatísticos com outras pessoas
que tudo indica que parecem ser como nós, o que permite traçar correlações a partir
de raça, religião e conexões familiares. Com isso, é possível, por exemplo, predizer
se pessoas como você são confiáveis ou não para quitar empréstimos, desempenhar
funções, etc. (p .225). No fundo, o modelo criado “pega o que sabemos e usa isso
para prever respostas em situações variadas. Todos nós carregamos milhares de
modelos em nossas cabeças. Eles nos dizem o que esperar e guiam nossas decisões”
(p. 31). Mas por melhor que sejam, sempre “há um grau de incerteza inevitável
envolvida” (p. 31).
As tecnologias usadas para montar nossos dossiês digitais (SOLOVE, 2004),
indicando o que gostamos e prevendo tudo o que pode nos agradar, trazem novo
fôlego às ideias positivistas. Como lembra o pesquisador Sergio Amadeu da Silveira
(2019),
Uma das bases lógicas da Inteligência Artificial, por exemplo, vem do silogismo
aristotélico, que buscava, como a própria etimologia da palavra indica, fazer cálculos
para conectar ideias e organizar o raciocínio. Mas a IA também buscou inspiração em
muitas outras áreas do conhecimento, como no positivismo lógico do Círculo de Viena;
no behaviorismo de Skinner, na probabilidade de Thomas Bayes; na lógica e
quantificação de Gottlob Frege, nos ensinamentos matemáticos de Gottfried Leibniz15,
George Boole16 e John von Neumann, matemático húngaro de origem judaica,
naturalizado estadunidense, e que formalizou o projeto lógico do computador. Von
Neumann acreditava que as informações recebidas pelas máquinas deveriam ficar
armazenadas na memória, assim como acontece com o cérebro humano. Outra
influência vital foi a do matemático inglês, Alan Turing, que formulou a partir de 1936,
o modelo de uma máquinha capaz de tratar a informação binária e que ficou famoso
por decifrar o código nazista ENIGMA, durante a Segunda Guerra Mundial. Em 1950,
ele publicou Computing Machinery and Intelligence, artigo em que propôs a seguinte
pergunta: "as máquinas podem pensar?" Turing, então, apresentou um teste com o
15
O matemático e filósofo Gottfried Leibniz publicou Dissertatio de Arte Combinatoria, propondo um
alfabeto do pensamento humano. Para ele, todas as ideias poderiam ser vistas como combinações de
um número relativamente pequeno de conceitos simples. Ele tinha como ambição alcançar uma
linguagem perfeita para obter uma representação direta das ideias. As reflexões de Leibniz sobre a
natureza da lógica marcaram profundamente a cibernética e a “ideia segundo a qual o pensamento
pode se manifestar no interior de uma máquina. (... ) Para Leibniz e seus contemporâneos, a busca de
métodos de cálculo mais rápidos visa responder às exigências da formação do desenvolvimento do
capitalismo moderno” (MATTELART, 2002, p. 12 - 13).
16
A Álgebra Booleana envolve um conjunto de operadores e um conjunto de axiomas, em que cada
variável pode assumir um dentre dois valores (falso ou verdadeiro / alto ou baixo, etc.). Criada no século
19, ela foi fundamental para o desenvolvimento da computação moderna.
35
17
O termo homens é usado no documento original (“We propose that a 2 month, 10 man study of
artificial intelligence be carried out during the summer of 1956 at Dartmouth College in Hanover, New
Hampshire”). Disponível em: http://raysolomonoff.com/dartmouth/boxa/dart564props.pdf. Acesso em:
03 de ago. 2018.
36
Por fim, o matemático e engenheiro elétrico Claude Shannon 18, que na época
trabalhava para a Bell Telephone Laboratories, também fazia parte do grupo original.
Antes da companhia norte-americana, ele foi assistente do projeto de um computador
analógico de Vannevar Bush19, conhecido como Analisador Diferencial, Shannon
aplicou princípios de lógica simbólica para descrever os circuitos de relés do sistema,
criando o design de circuitos digitais que fundamenta a computação moderna. Com
isso, ele mostrou que bastavam apenas dois números para realizar as equações: 0
(para circuito fechado) e 1 (para circuito aberto).
Essas unidades binárias passaram a ser chamadas de bits20 (SHANNON,
1948) e tornaram-se medidas de informação. A informação, por sua vez, começou a
ser vista por Shannon como algo mensurável, quantificável e de natureza
probabilística (GLEICK, 2013, p. 12). Esta ideia foi apresentada na monografia que
ele produziu, em 1948, com o título “Uma teoria matemática da comunicação”, cujos
princípios para calcular a informação passaram a integrar a “Teoria da Informação”
junto com contribuições de outros estudiosos de áreas como ciências exatas e
desenvolvimento de sistemas de computação e comunicação (MARTINO, 2014, p.
253).
Mas mesmo que a Inteligência Artificial tenha avançado muito depois da
Conferência de Dartmouth, ela enfrentou quase 45 anos de altos e baixos. Muitas
vezes, os projetos não tinham sucesso, o que acabou conhecido como o Inverno da
IA, fase em que muitas expectativas infladas levaram a grandes desilusões. Isso levou
a uma redução das atividades comerciais e científicas ligadas à inteligência artificial
durante uma determinada época.
18
Shannon foi influenciado pelos trabalhos de outros pesquisadores, como seu professor Norbert
Wiener e John von Neumann, que faziam parte do grupo que ficou conhecido como cibernético. Esta
palavra foi escolhida pelo próprio Wiener (1950, p.15), com base no termo grego kubernetes (piloto ou
timoneiro), e passou a ser empregada como controle de um sistema de informação. Para ele (WIENER,
1950, p.26), os seres vivos e as máquinas faziam o mesmo esforço para controlar a informação vinda
do mundo exterior e torná-la acessível a partir da transformação interna da mesma. Na visão da
Cibernética, o funcionamento de qualquer sistema depende, em boa medida, da interação entre as
partes, que precisam saber o que fazer (MARTINO, 2015, p.22).
19
Bush é um dos pioneiros da Computação. Ele desenvolveu uma série de computadores analógicos
e pesquisava intensamente sobre armazenamento e consulta de dados. Em 1945, Bush escreveu um
artigo chamado de Memex (Memory Extender). Ele é considerado o precursor da ideia do hipertexto
(KRIPKA, VIALI; LAHM, 2016).
20
Ralph V.L. Hartley, em 1927, propôs a primeira medida precisa de informação associada à emissão
de símbolos, o ancestral do bit (binary digit), conforme citam Armand Mattelart e Michèle Mattelart
(2012, p. 59).
37
Tudo mudou na virada dos anos dois mil, quando entramos na era do Big Data21
e novas máquinas computacionais foram produzidas com capacidade surpreendente
para processar dados de uma forma mais rápida, precisa e com um custo menor
(BRYNJOLFSSON e McAFEE (2015, p. 52-53). O mundo mergulhou em um período
impulsionado pelo que o engenheiro Ray Kurzweil chama de “Lei dos Retornos
Acelerados”, em que a potência computacional aumenta exponencialmente com o
passar do tempo (KURZWEIL, 2013, p. 50-51), principalmente com as tecnologias
digitais.
Hoje, a IA faz parte de nosso dia a dia, configurando-se como uma tecnologia
de propósito geral, sem a qual as demais têm dificuldade de viver, como citou o
sociólogo Glauco Arbix em uma entrevista (FACHIN, 2020).
21
Vale lembrar que nem toda aplicação de IA usa big data.
22
Este tipo de IA usa Processamento de Linguagem Natural (PLN) para entender, interpretar e gerar
texto humano.
23
Disponível em: https://canaltech.com.br/apps/app-usa-ia-para-facilitar-acesso-a-exercicios-fisicos-
durante-a-pandemia-185943/. Acesso em: 30 mai. 2021.
38
conseguir reproduzir a inteligência humana, “que foram feitas até agora, sugerem que
ela é muito diferente da inteligência natural. Entretanto, ainda assim é inteligência”
(WHITBY, 2004, p.120).
Para a IBM, de acordo com o uso popular,
24
Disponível em: https://www.ibm.com/br-pt/analytics/journey-to-ai. Acesso em: 29 mai. 2021.
25
No original: “An AI system is a machine-based system that can, for a given set of human-defined
objectives, make predictions, recommendations, or decisions influencing real or virtual environments.
AI systems are designed to operate with varying levels of autonomy”.Disponível em:
https://www.oecd.ai/ai-principles. Acesso em: 30 abr. 2021.
39
26
O filósofo e linguista, John Searle, em 1980, elaborou um engenhoso experimento mental que foi
chamado de “o quarto chinês” e acabou sendo um dos argumentos mais fortes contra a possibilidade
de desenvolvimento de uma IA geral. No experimento, uma pessoa que não fala chinês está trancada
em um quarto com um computador capaz de interpretar e responder nesta língua. Uma pessoa de fora
do quarto passa, de vez em quando, caracteres por baixo da porta e quem está dentro passa a
classificá-los, de alguma forma, para o computador, que devolve com as respostas no idioma chinês.
Quando a pessoa que está fora recebe essas respostas, ela conclui - de forma errada - que quem está
dentro do quarto sabia falar chinês. Com o experimento, Searle quis mostrar que o computador é capaz
de executar o programa sem entender de fato o significado do que está fazendo.
27
Disponível em: https://www.ibm.com/br-pt/analytics/journey-to-ai. Acesso em: 31 mai. 2021.
28
Na coluna que chamou a primeira versão da Estratégia Brasileira de Inteligência Artificial de patética,
Ronaldo Lemos (2021d) disse que o documento tratou a IA como uma coisa só, sem levar em
consideração suas complexidades.
40
Inteligência
artificial
Machine Learning
Supervi
sionad
o
Reforç
o
comum quando um objetivo é conhecido, mas o percurso para atingi-lo não é. Este
tipo de aprendizado é muito usado nos modelos que aprendem jogos .
29
Disponível em: https://www.ibm.com/br-pt/cloud/learn/what-is-artificial-intelligence#toc-aplicativo-
LCOINXXr. Acesso em: 31 mai. 2021.
43
● Trânsito;
● Produtos: monitorar a qualidade ou quantidade nas gôndolas;
● Saúde: detectar doenças como tumores;
● Fábricas: contar e classificar itens nas linhas de produção;
● Mídia: analisar a eficácia do posicionamento de propagandas;
● Energia: inspeção remota de infraestrutura usando drones;
● Vigilância pública e privada.
30
Uma descrição mais aprofundada, mas ao mesmo tempo didática, pode ser encontrada em:
https://www.tecmundo.com.br/software/155645-introducao-visao-computacional.htm. Acesso: 21 jun.
2021.
44
Fonte: Tecmundo - com base no Guia de Introdução ao IBM Visual Insights e no Guia de Introdução
ao Watson Visual Recognition 31
● Coleta de dados: pode ser feita pelos programadores, mas, em geral, eles
utilizam dados pré-existentes para construírem e treinarem os modelos;
31
Disponível em: https://www.tecmundo.com.br/software/155645-introducao-visao-
computacional.htm. Acesso em: 21 jun.2021.
45
● Criação do modelo: com base nos dados de treinamentos para que possam
aprender e fazer previsões;
● Avaliação do modelo: com base nos dados de teste, que avaliam o
desempenho a partir de diferentes métricas;
32
Objetividade é empregada aqui, com base na etimologia da palavra, como qualidade de algo que
existe “independentemente do julgamento do espírito, do julgamento, de nossa avaliação” (FERREIRA
in MARCONDES FILHO, 2009, p. 365).
46
33
Cathy O’Neil (2020) emprega ideologia no sentido de conjunto de ideias, crenças e doutrinas de uma
determinada época.
47
Prioriz Classifi
ação cação
2
1 3
Assoc
iação Filtrag
em
34
Algumas ferramentas têm sido desenvolvidas para identificar vieses nos SDAs. Mas de acordo com
Avila, em entrevista à autora (2021), elas não funcionam para todos os sistemas, o que denota a
complexidade desta tarefa.
49
Muitos SDAs são adotados para a detecção de padrões. Aqui também cabem
observações importantes. Como os modelos matemáticos são baseados no passado,
51
Como vimos até aqui, os SDAs não são nem precisos nem objetivos. E a forma
com que são desenvolvidos, sua lógica e operações, em geral, também não são nada
transparentes. Até mesmo os que prestam um serviço público. Por isso, Frank
Pasquale (2015), professor da Brooklyn Law School de Nova Iorque, denomina o
contexto contemporâneo, em que os sistemas automatizados tomam inúmeras
decisões no dia a dia, de “sociedade da caixa-preta”.
No livro “The black box society: the secret algorithms that control money and
information”, Pasquale (2015) cita que as justificativas a favor da invisibilidade dos
códigos dos SDAs giram em torno de argumentos sobre as necessidades de segredo
comercial e jurídico, assim como de ofuscar as técnicas para inviabilizar a
compreensão do processo, evitando que os usuários possam burlar os sistemas.
Neste sentido, para Trielli e Diakopoulos (2017), o público enfrenta duas caixas-
pretas: 1) o próprio algoritmo e 2) o sigilo das empresas.
52
Por causa dessa blindagem, muitos SDAs de interesse social não permitem ver
o código ou testar as soluções desenvolvidas (STRAY, 2018). A iniciativa Algorithm
Watch, em seu relatório Automating Society, de 2020, aponta que a metáfora da caixa-
preta ainda se aplica a todos os 16 países estudados para a produção do material,
pois, de forma geral, os Sistemas de Decisões Automatizadas não são
suficientemente transparentes nos setores privado e público. A opacidade é ainda
mais preocupante neste último, já que a publicização das ações das diversas
instâncias (municipal, estadual e federal) e poderes (executivo, legislativo e judiciário)
configura um direito fundamental.
35
Disponível em: https://www.transparencia.org.br/projetos/transparencia-algoritmica. Acesso: 24 jul.
2021.
53
Banco do Brasil: 5
Polícia Federal 4
36
Disponível em:https://catalogoia.omeka.net/items/browse?collection=1. Acesso em: 25 set.
2021.
55
37
Segundo, Big Brother Watch, grupo de ativistas do Reino Unido, qualquer pessoa cuja vida é
influenciada, de certa forma, pelo estado de bem-estar social (assistência social, benefícios, habitação)
pode ser afetada por perfis de dados secretos, análises preditivas e decisões algorítmicas). Disponível
em: https://bigbrotherwatch.org.uk/campaigns/welfare-data-watch/. Acesso em: 12 out. 2021.
56
Para liberar crédito para uma pessoa, até certo tempo atrás, um bancário
avaliava se uma pessoa seria capaz de pagar a dívida olhando para a forma como ela
estava vestida, como falava, onde trabalhava, sua raça, religião e conexões familiares.
Ou seja, ele analisava, de forma consciente ou não, uma série de dados que eram
proxies ou indicadores aproximados. Esse funcionário não olhava para a pessoa como
um indivíduo, mas a analisava com base em determinado grupo, que ele julgava que
fazia parte, estabelecendo uma série de correlações. O raciocínio era do tipo:
“pessoas do seu tipo são confiáveis ou não”. O sistema era bem injusto. E isso não
quer dizer que, em alguns lugares, este modelo tenha deixado de existir.
Mas, com a ideia de diminuir esse tipo de problema, estabelecendo critérios
mais objetivos, foram desenvolvidos escores que analisam os dados financeiros
importantes da pessoa. De forma resumida, o escore é uma pontuação que vai de 0
a 1000 e que define se uma pessoa tem pouca, média ou grande chance de atrasar
um pagamento, com base em seu histórico.
Muitos cientistas de dados acham que o uso de CEP é uma opção melhor do
que usar critérios como raça como input no modelo. Mas como aponta O´Neil (2020,
p.226), este caminho também pode reproduzir injustiças. Afinal, “ quando incluem um
atributo como ‘CEP”, estão expressando a opinião de que o histórico do
comportamento humano naquela porção de imóveis deveria determinar, ao menos em
parte, que tipo de empréstimo uma pessoa que mora ali deveria obter” (O’NEIL, 2020,
p. 226).
Dessa forma, um sistema de decisão automática, com base em um modelo
treinado em dados demográficos pode, por exemplo, dar ao tomador de empréstimo
de uma favela brasileira um escore mais baixo porque muitas pessoas na comunidade
podem ser inadimplentes (desconsiderando os motivos reais, como talvez um alto
índice de desemprego). E esta decisão irá dificultar ainda mais a vida desta pessoa,
já que esse sistema pode representar menos crédito disponível para ela ou taxas de
juros mais altas para quem já enfrenta muitos obstáculos. Em outras palavras, ela
pode virar o dano colateral deste modelo e entrar em um ciclo vicioso de feedback que
se retroalimenta.
2.2. Chefe algorítmico
58
38
Disponível em https://www.reuters.com/article/us-amazon-com-jobs-automation-insight/amazon-
scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idUSKCN1MK08G. Acesso em: 27
jun. 2021.
59
39
Questão abordada por Meredith Broussard no documentário Coded Bias de 2020.
40
Disponível: https://computerworld.com.br/carreira/5-segredos-para-desenvolver-um-curriculo-
atraente-para-os-robos-de-recrutamento/. Acesso em: 15 ago. 2021.
60
Tanto é que, alguns especialistas, como Leslee Remsburg, têm dado dicas
sobre como desenvolver um currículo atraente para um robô de recrutamento,
evitando cabeçalhos, tabelas e caixas de textos e não usando palavras-chave para
enganar o sistema41.
Mas o impacto dos SDAs no acesso ao emprego pode começar muito antes da
seleção ou exclusão de um candidato. Ele existe até na visualização (ou não) de
anúncios de vagas. Vejamos alguns casos relatados.
41
Disponível: https://computerworld.com.br/carreira/5-segredos-para-desenvolver-um-curriculo-
atraente-para-os-robos-de-recrutamento/ Acesso em: 15 ago. 2021.
42
Disponível em: https://www.washingtonpost.com/news/the-intersect/wp/2015/07/06/googles-
algorithm-shows-prestigious-job-ads-to-men-but-not-to-women-heres-why-that-should-worry-
you/?noredirect=on. Acesso em: 15 de ago. 2021.
61
43
Disponível em: https://theintercept.com/2019/04/03/facebook-ad-algorithm-race-gender/ Acesso em:
15 de ago. 2021.
44
Disponível em: https://theintercept.com/2021/04/09/facebook-algorithm-gender-discrimination/.
Acesso em:15 ago. 2021.
62
2.2.1. Trabalhador-dado
Em uma entrevista à CNBC, Jeff Bezos, que é fundador da Amazon, disse que
somente as decisões estratégicas precisam ficar nas mãos de seres humanos. O
resto, segundo ele, por mais importante que sejam, podem e devem ser tomadas pela
IA. A justificativa? Por que os Sistemas Decisões Automátizadas levam em
consideração um grande volume de dados relevantes e não têm interferência humana
na tomada de decisão (ECHARRI, 2021).
63
Um dos problemas dos SDAs é que para eles tudo se resume a um dado. Eles
não “enxergam” quem de fato está na ponta do processo, o que essa pessoa está
passando, se perdeu alguém querido, se está estressado, se enfrenta alguma
frustração ou qualquer outro sentimento ou realidade que pode prejudicar
eventualmente o seu desempenho. Assim, para uma inteligência artificial, temos um
trabalhador-dado, completamente reduzido e dissociado das complexidades que o
tornam humano.
Ao discutir o que vem acontecendo com os algoritmos que decidem quem pode
ser mandado embora de uma empresa, Echarri (2021) traz uma abordagem muito
relevante de Frank Pasquale no livro “News Laws of Robotic” (“Novas Leis da
Robótica”). Para o intelectual,
45
No original: “Today, you are watched by a network of intelligent surveillance systems.You are tracked
by your personal devices, monitored by social platforms and targeted by invasive corporations. You may
not know their names. But they know yours. Every decision is collected and archived, somewhere, by
someone. We do not consent. We do not submit.” Disponível: https://bigbrotherwatch.org.uk/about/.
Acesso em: 12 out. 2021.
46
De acordo com o decreto nº 10.543, de 13 de novembro de 2014, a validação biométrica é definida
como a confirmação da identidade da pessoa natural a partir da aplicação de método de comparação
estatístico de medição biológica das características físicas de um indivíduo com objetivo de identificá-
lo unicamente com alto grau de segurança.
65
Fonte: Tecmundo47
O uso destas aplicações é bem amplo no nosso dia a dia e só foi possível a
partir da explosão de dados48. Elas são empregadas em pontos de venda para
melhorar a experiência do consumidor, na publicidade, nos filtros do Instagram, no
cadastro de clientes de bancos, no sistema de acesso de vários modelos de celular,
até em sistemas de segurança privada e pública, monitorando de aeroportos a ruas.
De forma resumida, estes sistemas podem ser usados para:
47
Disponível em:
https://www.tecmundo.com.br/camera-digital/10347-como-funcionam-os-sistemas-de-
reconhecimento-facial.htm.Acesso em: 06 set. 2021.
48
Atualmente, a produção e captura de novos dados está estimada, em nível global, em torno de 40
zettabytes segundo a IDC, que prevê o crescimento desses novos dados para 175 zettabytes em 2025
(REINSEL; GANTZ; RYDNING 2018).
66
49
Disponível em:
https://www.estadao.com.br/infograficos/internacional,tecnologia-usada-na-guerra-ao-terror-deixa-era-
da-hipervigilancia-como-legado,1193640. Acesso em: 07 set. 2021.
67
50
Disponível em: https://www.uol.com.br/tilt/noticias/redacao/2021/03/23/china-ja-usa-
reconhecimento-facial-em-quase-100-dos-seus-espacos-publicos.htm. Acesso: 07 set. 2021.
51
Um bom mapeamento sobre usos de tecnologias no combate à Covid pode ser encontrado no
relatório ADM Systems in the COVID-19 Pandemic: A European Perspective da Algorithm Watch.
Disponível em: https://algorithmwatch.org/en/automating-society-2020-covid19/. Acesso: 11 nov. de
2020.
52
Disponível em: https://canaltech.com.br/inteligencia-artificial/russia-esta-usando-reconhecimento-
facial-contra-a-covid-19-162328/. Acesso: 23 de nob. 2020.
53
No original: “The face recognition seems to be rapidly becoming the norm.” Disponível em: <
https://automatingsociety.algorithmwatch.org/wp-content/uploads/2020/12/Automating-Society-Report-
2020.pdf. Acesso em: 08 nov. 2020.
54
Segundo a Comparitech os resultados da Coreia do Norte foram omitidos devido à falta de dados
claros.
55
Disponível em:
https://www.comparitech.com/blog/vpn-privacy/facial-recognition-statistics/. Acesso em: 30 ago. 2021.
68
O reconhecimento facial também tem sido muito usado pelo setor público
brasileiro. Segundo o Instituto Igarapé56, o primeiro caso reportado foi um piloto
realizado em 2011 em Ilhéus na Bahia. Mas o uso aumentou mesmo a partir de 2019:
30 municípios de 16 estados estavam usando esta tecnologia. O Instituto levantou que
56
O Instituto Igarapé é uma ONG focada nas áreas de segurança pública, climática e digital e suas
consequências para a democracia. Seu objetivo é propor soluções e parcerias para desafios globais
por meio de pesquisas, novas tecnologias, comunicação e influência em políticas públicas, com
soluções baseadas em dados.
69
57
Disponível em: https://igarape.org.br/infografico-reconhecimento-facial-no-brasil/. Acesso:06 set.
2021.
58
Disponível em https://olhardigital.com.br/2019/01/16/noticias/sistema-de-reconhecimento-facial-
chines-pode-chegar-ao-brasil-ainda-em-2019/. Acesso: 13 nov. 2020.
70
Fonte: Panóptico59
59
Disponível em: https://opanoptico.com.br/. Acesso em: 03 jun. 2021.
71
60
Disponível em: https://opanoptico.com.br/. Acesso em: 03 jun. 2021.
72
Outro levantamento foi feito pela iniciativa Coding Rights, que tem foco nos
estudos sobre tecnologia, gênero e direitos humanos61. Ela lançou uma pesquisa em
janeiro de 2021, com apoio da ONG Privacy International, analisando os sistemas de
reconhecimento facial usados no Brasil para verificação da identidade, como a CNH.
61
A Coding Rights é uma organização feminista “focada em mostrar as assimetrias de poder por trás
do uso e implementação de determinadas tecnologias. Fazemos análises feministas e de direitos
humanos sobre o uso de tecnologias, sempre pautadas pela troca em redes de coletivos e defensoras
de direitos humanos, particularmente coletivas de ciberfeministas e de mulheres e população LGBTQI+.
(SILVA; VARON, 2021, p. 43).
62
O Meu gov.br é um aplicativo que, através de reconhecimento facial, permite que o cidadão possa
buscar o Portal gov.br e solicitar os mais de 1,5 mil serviços digitais (federais, estaduais ou municipais)
com um um login único. Disponível em: https://www.gov.br/pt-br/apps/meu-gov.br.
Acesso em: 07 set. 2021.
74
63
O Datavalid é um serviço que valida as informações e faz a verificação dos dados ou imagens de
uma pessoa. No caso da validação biométrica, ele compara a foto da face da pessoa com a da CNH.
Ele pode ser usado em serviços públicos ou privados; por entidades de classe; instituições financeiras;
locadoras de veículos; aplicativos; companhias aéreas; seguradoras, e-commerce; empresas de
tecnologia e de varejo, entre outras. Disponível em https://www.loja.serpro.gov.br/datavalid. Acesso: 07
set. 2021.
64
O BioValid é um aplicativo para fazer “prova de vida”. Ele promete comprovar a identidade do usuário
sem a necessidade da presença física do mesmo e pode ser usado em serviços públicos ou privados;
por entidades de classe; instituições financeiras; locadoras de veículos; aplicativos; companhias
aéreas; seguradoras, e-commerce; empresas de tecnologia e de varejo, entre outras. Disponível
em:https://www.loja.serpro.gov.br/biovalid. Acesso em: 07 set. 2021.
75
Em função dos riscos e impactos negativos que podem ser causados pelos
Sistemas de Decisões Automatizadas com base nas tecnologias de reconhecimento
facial, alguns lugares baniram totalmente esta tecnologia como nos Estados Unidos e
a Europa tende a proibi-lo por considerá-lo uma intrusão profunda e não democrática
na vida privada das pessoas65.
O Instituto Igarapé e o Data Privacy Brazil Research elaboraram um estudo,
em 202066, sobre regulação do reconhecimento facial no setor público em quatro
países: Inglaterra, França, Estados Unidos e Brasil. Este trabalho aponta que o ponto
fraco, no caso do Brasil, é
a ausência de uma legislação única, ou de um órgão
central que faça a fiscalização do emprego dos
sistemas de reconhecimento facial dificulta a
observância dos princípios, de modo que violações a
direitos e garantias individuais possam ocorrer
sem a devida responsabilização (negrito da autora,
FRANCISCO; HUREL; RIELLI, 2020).
Com base nos estudos da Transparência Brasil, Coding Rights, Lapin, O’Neil
(2020), Silva (2021), entendo que o reconhecimento facial:
65
Disponível em: https://www1.folha.uol.com.br/tec/2021/04/reconhecimento-facial-deve-ser-banido-
na-uniao-europeia-diz-regulador-de-privacidade.shtml. Acesso em: 02 mai. 2021.
66
Disponível em: https://igarape.org.br/wp-content/uploads/2020/06/2020-06-09-
Regula%C3%A7%C3%A3o-do-reconhecimento-facial-no-setor-p%C3%BAblico.pdf. Acesso em: 22
de abr. 2021.
67
De acordo com a Lei Geral de Proteção de Dados no Brasil (LGPD, é considerado um dado pessoal
sensível o que revela “origem racial ou étnica, convicção religiosa, opinião política, filiação a sindicato
ou a organização de caráter religioso, filosófico ou político, dado referente à saúde ou à vida sexual,
dado genético ou biométrico, quando vinculado a uma pessoa natural”. Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm#art65. Acesso 03 out. 2021.
76
● É impreciso;
● Viola os direitos humanos;
● Viola os direitos de crianças e adolescentes;
● Reproduz vieses, potencializam discriminações e preconceitos
estruturais.
68
A Transparência Brasil analisou três ferramentas de reconhecimento facial usadas pelo
Departamento de Polícia Federal no Brasil: uma ferramenta que utiliza técnicas de reconhecimento de
imagens, reconhecimento facial e perfil criminal; uma ferramenta de classificação de imagens que
estima o índice de determinada imagem conter nudez, e uma ferramenta de reconhecimento facial e
classificação de imagens que: i) auxilia na identificação de rostos; ii) classifica rostos em grupos de
idades, iii) identificar objetos em cenas e, iv) estima a probabilidade de determinada imagem conter
nudez.
69
Disponível em:https://www.transparencia.org.br/projetos/transparencia-algoritmica. Acesso em: 03
de mar. 2021.
70
Disponível em:https://www.transparencia.org.br/projetos/transparencia-algoritmica. Acesso em: 03
de mar. 2021.
77
71
O estudo citado por Tarcízio Silva é o de Fussey e Murray. Disponível em:
https://48ba3m4eh2bf2sksp43rq8kk-wpengine.netdna-ssl.com/wp-content/uploads/2019/07/London-
Met-Police-Trial-of-Facial-Recognition-Tech-Report.pdf. Acesso em: 16 mai. 2021.
72
Disponível em: https://www.metropoles.com/ distrito-federal/transporte-df/biometria-facial-nos-
onibus-nao-reconhece-mudanca-visual-de-alunos. Acesso em: 8 abr. 2021. Acesso em: 19 set. 2020.
78
73
Para entender o que aconteceu na Bahia, ver
https://g1.globo.com/ba/bahia/noticia/2019/04/29/feira-de-santana-registra-33-prisoes-por-
reconhecimento-facial-durante-micareta.ghtml. Acesso em: 19 set. 2020.
74
Disponível em: https://www.metropoles.com/ distrito-federal/transporte-df/biometria-facial-nos-
onibus-nao-reconhece-mudanca-visual-de-alunos. Acesso em: 20 jun. 2021.
75
Disponível em: https://www1.folha.uol.com.br/mundo/2019/04/como-a-china-usa-a-inteligencia-
artificial-para-rastrear-minoria-etnica.shtml. Acesso em: 15 dez. 2020.
79
76
Disponível em: https://theintercept.com/2019/11/21/presos-monitoramento-facial-brasil-negros/.
Acesso em: 22 fev. 2020.
77
Meredith Broussard aborda essa questão no documentário Coded Bias de 2020.
78
Disponível em: https://www.netflix.com/title/81328723. Acesso em: 05 de ago. 2021.
81
79
Disponível em: Disponível em: https://youtu.be/QxuyfWoVV98. Acesso em: 10 ago. 2021.
80
Quando os dados de teste não representam de forma balanceada os diferentes subgrupos da
população, eles conduzem ao viés de avaliação. Por isso, existem métricas alternativas que trabalham
com impactos desproporcionais e que consideram a razão entre grupos não privilegiados e
privilegiados.
81
Disponível em:
82
deste tipo de viés. Ele foi preso na frente das duas filhas e da esposa,
sem que os policiais dissessem o motivo. Seu caso pode ser o primeiro
relato conhecido de um americano preso de forma injusta com base em
uma correspondência falha de um algoritmo de reconhecimento facial,
representando um caso de falso positivo82, que ocorre principalmente
com os negros. Para evitar injustiças como a de Robert, a identificação
de um suspeito pelo SDA deve sempre ser checada por uma pessoa.
Mas, em algumas circunstâncias, como vimos, “as autoridades que
buscam a punição criminal de alguém já consideram o resultado do
modelo como prova da prática do crime, muitas vezes sem dar
continuidade às investigações” (RUBACK; AVILA; CANTERO, 2021).
https://noticias.uol.com.br/internacional/ultimas-noticias/2020/06/30/reconhecimento-facial-nao-
funciona-95-das-vezes-diz-policia-de-detroit.htm. Acesso em: 10 jul. 2020.
82
Para deixar mais claro o conceito de “falso positivo”, iremos dar um exemplo, de um SDA que
determina se uma pessoa é assaltante ou não a partir do reconhecimento das imagens. a- verdadeiro
positivo: a pessoa é o assaltante e a IA prediz “assaltante”; b- verdadeiro negativo: a pessoa não é o
assaltante e a IA prediz “não é o assaltante”; c- falso positivo: a pessoa é o assaltante, mas a IA prediz
“não é o assaltante”; d- falso negativo - a pessoa não é o assaltante, mas a IA prediz “é o assaltante”.
83
O quadro, a seguir, apresenta uma análise feita pela Transparência Brasil sobre
uma ferramenta usada no Brasil durante o levantamento.
Tabela 4 -Análise da Transparência Brasil sobre uma aplicação de PLN pelo DPF
Impacto negativo a Os sistemas de PLN na segurança pública, quando não analisados para
direitos detecção de possíveis vieses, podem impactar negativamente o
princípio da presunção de inocência.
de dados. Desta forma, eles decidem ou suportam escolhas que impactam desde a
à prisão. Mas não podemos imaginar que os SDAs satisfaçam, através de formulações
86
2017).
● Exato;
máquina fazia uma pontuação de 1 a 10 (de baixo a alto risco), prevendo “risco de
reincidência” e “risco de reincidência violenta”. Essa classificação servia de base para
o resultado gerado pelo SDA, em termos de pena.
A reportagem investigativa da Propublica concluiu que as predições do
COMPAS foram inviesadas contra os negros, prejudicando essa parcela da população
e camuflando racismo na tecnologia:
● Frequentemente, previa-se que os réus negros corriam um risco maior
de reincidência do que a realidade. Os que não reincidiram em um
período de dois anos tinham quase o dobro de probabilidade de serem
classificados erroneamente como “risco mais alto” em comparação com
os brancos (45% contra 23%);
2.6. Democracia
83
Sobre os algoritmos curadores vale uma reflexão. No Dicionário da Comunicação, Cunha (2009)
aponta alguns significados de curadoria que torna-se interessante recuperar para fazer uma correlação
com os SDAs. Originada do latim, a palavra curadoria tem o sentido de cuidar, zelar por algo ou vigiar.
Do ponto de vista do direito, o curador é um tutor que toma decisões em nome de alguém incapaz. Em
comunicação, a curadoria é empregada como seleção, organização e apresentação de informações,
gerando um valor agregado qualitativo. Em relação aos SDAs, a curadoria pode esconder formas sutis
de vigilância devido à opacidade dos Sistemas de Decisões Automatizadas. Do ponto de vista de
conteúdo, ela tem grandes consequências sociais, políticas e até econômicas, como descrito ao longo
desta tese.
91
● Todos os eleitores devem ter liberdade de votar segundo a própria opinião, que
deve ser formada da forma mais livre possível;
92
● Os eleitores também devem ter alternativas reais. Não pode haver, por
exemplo, lista única ou bloqueada de candidatos.
Figura 10- Cambridge Analytica também impactou a vitória do Brexit (saída do Reino Unido da União
Europeia)
84
https://www.theguardian.com/news/2018/mar/17/cambridge-analytica-facebook-influence-us-
election
85
https://g1.globo.com/mundo/noticia/cambridge-analytica-teria-tido-papel-crucial-no-brexit-diz-ex-
diretor-de-pesquisa.ghtml
86
https://www.theguardian.com/news/2018/mar/17/data-war-whistleblower-christopher-wylie-faceook-
nix-bannon-trump
87
https://brasil.elpais.com/brasil/2020-08-20/os-lacos-do-cla-bolsonaro-com-steve-bannon.html
94
Fonte: G188
88
https://g1.globo.com/economia/tecnologia/noticia/2019/01/09/cambridge-analytica-se-declara-
culpada-por-uso-de-dados-do-facebook.ghtml
89
Disponível em: https://www.netflix.com/title/80117542. Acesso em: 24 ago. 2021.
95
Ela aponta outros casos como Myanmar, onde conta que há evidências de que
a rede social de Mark Zuckerberberg foi usada para incitar o ódio racial, levando ao
genocídio. Ela também acusa os russos de usarem o Facebook. Segundo ela, eles
fizeram memes falsos do movimento Vidas Negras Importam e quando as pessoas
clicaram neles, foram levadas para páginas em que eram convidadas para protestos
organizados pelo governo russo, sem saberem de fato quem estava por trás do
movimento. Enquanto isso, eles faziam a mesma coisa com grupos adversários,
insuflando, por exemplo, o Vidas Azuis Importam, alimentando o medo e o ódio. Para
a Cadwalladr, as plataformas estão sendo usadas como armas. “ E é impossível saber
o que é o quê porque está acontecendo nas mesmas plataformas onde conversamos
com nossos amigos ou compartilhamos fotos de bebês. Nada é o que parece”, explica
a jornalista no documentário Privacidade Hackeada. A Procuradoria Geral do Distrito
de Columbia, nos Estados Unidos, informou, em outubro de 2021, que pretendia
acionar Mark Zuckerberg, que é criador e presidente do Facebook, como um dos réus
em um processo de proteção ao consumidor que envolve a Cambridge Analytica
(SANTIAGO, 2021).
Ainda sobre o poder de modulação do Facebook, vale lembrar que ele divulgou
um estudo sobre a própria rede social, em que avaliou como dois diferentes tipos de
postagens afetaram o comportamento eleitoral nas eleições legislativas norte-
americanas de 2010 e na presidencial de 2012. Para um grupo, o Facebook exibiu a
mensagem "hoje é o dia da eleição". Para outro, mostrou postagens de amigos
dizendo “eu votei”. Os experimentos levaram os pesquisadores à seguinte conclusão:
ver que os amigos já tinham votado estimulou a participação de 340 mil pessoas. O
número é muito significativo, uma vez que, nos Estados Unidos, George W. Bush, por
exemplo, venceu as eleições de 2000 por uma margem de 537 eleitores na Flórida. E
as eleições de 2016 foram decididas por 100 mil votos. A pesquisa demonstra que, a
atuação dos Sistemas de Decisões Automatizadas do Facebook sobre o que os
usuados viram (ou não) poderia mudar os rumos das eleições do Congresso e até
mesmo a presidencial. E tudo isso sem ninguém perceber o que ocorreu de fato, pois
como cada pessoa tem seu próprio feed, não dá para fazer uma comparação com o
que foi postado para as demais pessoas no Facebook. A rede social “pode decidir
96
eleições apertadas sem ninguém perceber. Talvez, com um toque mais pesado, possa
decidir eleições menos apertadas. E, se eles decidissem fazer isso, neste momento,
estamos à mercê da palavra deles”, explica Zeynep Tufekci, autora de Twitter and
Tear Gas no documentário Coded Bias (Twitter e Gás Lacrimogêneo, Viés Codificado,
tradução da autora)90.
Mas isso não acontece só com o Facebook. Também pode se aplicar, por
exemplo, ao Google, lembra Cathy O’Neil (2020, p. 286). Os resultados de buscas
Um estudo de Jeffries, Yin, Mattu (2020) mostrou que até o Gmail pode ter um
papel na modulação a partir do momento que também pode filtrar os e-mails políticos
de candidatos, grupos de reflexão, os de defesa e os de organizações sem fins
lucrativos que chegam à caixa de entrada principal. Os pesquisadores fizeram um
experimento em que fizeram a própria inscrição em diversos sites para receber
comunicados por e-mails. Mas apenas 11% deles chegaram à caixa de entrada
principal, que é a primeira que o usuado vê ao abrir o Gmail. Metade foi para a guia
de “promoções”, que a empresa diz que é para negócios, ofertas e outros e-mails de
marketing e 40%, para o spam.
90
Disponível em:https://www.netflix.com/title/81328723. Acesso em: 05 de ago. 2021
91
No original: “The fact that Gmail has so much control over our democracy and what happens and
who raises money is frightening” Disponível em:https://themarkup.org/google-the-
giant/2020/02/26/wheres-my-email. Acesso em: 25 abr. 2020.
97
Gmail mudar seus algoritmos, eles teriam o poder de impactar nossa eleição” 92,
completa ele.
Estes casos reforçam o poder dos SDAs. Norberto Bobbio, Nicola Matteucci,
Gianfranco Pasquino (1993, p. 933) tratam de alguns conceitos de poder em seu
Dicionário de Ciência Política, que podem ser empregados no caso dos Sistemas de
Decisões Automatizadas. Vejamos o porquê. Eles lembram que no significado mais
geral, o termo revela a capacidade ou a possibilidade de agir e de produzir efeitos.
Mas, segundo os pensadores italianos, não basta ter isso. Quem busca exercer
o poder precisa saber converter esses recursos em poder atual, colocando em prática
uma série de atitudes. “Quando no exercício do Poder, a capacidade de determinar o
comportamento dos outros é posto em ato, o Poder se transforma, passando da
simples possibilidade à ação” (BOBBIO; MATTEUCI; PASQUINO, 1993, p.334).
92
No original: “It’s scary that if Gmail changes their algorithms,” he added, “they’d have the power to
impact our election.” Disponível: https://themarkup.org/google-the-giant/2020/02/26/wheres-my-email.
Acesso em: 25 abr. 2020.
98
93
Disponível em: https://www.netflix.com/title/81328723. Acesso em: 05 de ago. 2021
99
● ser obrigatória;
● apoiar-se em informação; justificativa e responsabilização;
● ser pública;
● ser multifacetada;
● ter complementaridade de controles;
● ter recursividade intransitiva.
Accountability
Responsividade Responsabilização
Obrigatoriedade
Pública
Multifacetada
Observatory for Artificial Intelligence in Work and Centro de Inteligência Artificial do Brasil (C4AI)
Society – AI Observatory
Algorithm Tips
Algorithmic Control
Fora do Brasil
94
Disponível em: https://www.oecd.ai/countries-and-initiatives/stakeholder-initiatives. Acesso em: 28
jul. 2021.
102
95
Disponível em:<https://bigbrotherwatch.org.uk/about/>. Acesso: 12 out. 2021.
96
Disponível em: <https://data-scores.org/>. Acesso: 16 set.. 2021.
97
Disponível em: <https://www.ki-observatorium.de/en/>. Acesso: 29 jun. 2021.
98
Disponível em: https://algorithmwatch.org/en/what-we-do/. Acesso em: 07 . 2020.
103
99
Disponível em: https://www.ethicaltech-society.org/. Acesso em: 20 out. 2021.
100
Disponível em: https://digitalfuturesociety.com/. Acesso em: 20 out. 2021.
101
Disponível em: https://www.ajl.org/. Acesso em: 21 jun.. 2021.
102
Disponível em: https://www.ajl.org/about. Acesso em: 3 ago. 2021.
104
103
Disponível em: http://algorithmtips.org/. Acesso em: 01. jul. 2019.
104
Disponível em: <https://www.muckrock.com/project/algorithmic-control-automated-decisionmaking-
in-americas-cities-84/>. Acesso: 09 set. 2021.
105
No Brasil
105
Disponível em: <http://lapin.org.br/> Acesso: 04 nov. 2020.
106
Disponível em: https://opanoptico.com.br/sobre/. Acesso em: 30 jun. 2021.
107
Disponível em: http://c4ai.inova.usp.br/pt/home-2/. Acesso em: 15 out. 2020.
106
108
Disponível em: https://www.transparencia.org.br/projetos/transparencia-algoritmica. Acesso em: 27
jun. 2021.
107
109
Disponível em https://www1.folha.uol.com.br/mercado/2021/07/brasil-apressa-lei-para-
inteligencia-artificial-dizem-especialistas.shtml. Acesso em: 07 ago. 2021.
108
Fora do Brasil
110
Disponível em: https://ec.europa.eu/info/law/law-topic/data-protection/reform/what-does-general-
data-protection-regulation-gdpr-govern_pt. Acesso em: 24 out. 2021.
109
No Brasil
111
Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2011/lei/l12527.htm. Acesso
em: 24 out. 2021.
112
Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm. Acesso
em: 24 out. 2021.
113
Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2016/decreto/d8777.htm.
Acesso em: 24 out. 2021.
111
114
Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/L13709.htm. Acesso
em: 17 ago. 2019.
112
Ano Países
2018 União Europeia, França, Alemanha, Índia, México, Reino Unido, Suécia, Taiwan
2019 Estônia, Rússia, Singapura, EUA, Coreia do Sul, Colômbia, República Checa,
Lituânia, Luxemburgo, Malta, Holanda, Portugal, Qatar
2021 Brasil
Fonte: elaborada pela autora
são melhores do que nada. “Mas é só isso: melhor que nada. Alguns deles são
completamente inúteis.” O entrevistado ainda afirma que a IA é
115
Schwab (2016, p. 17) chama a fase atual de Quarta Revolução Industrial partindo da premissa de
“a tecnologia e a digitalização irão revolucionar tudo” e Brynjolfsson e McAfee (2015), de a Segunda
Era das Máquinas. Muito antes de chegarmos na fase atual, VIEIRA PINTO (2005a, p. 43) já lembrava
que o conceito de ‘era tecnológica’ constitui importantíssima arma do arsenal dos poderes supremos,
empenhados em obter estes dois inapreciáveis resultados: (a) revesti-lo de valor ético positivo; (b)
manejá-lo na qualidade de instrumento para silenciar as manifestações de consciência política das
massas”.
114
discriminatórios. Eles são evidentemente negativos, mas pode ser que não exista um
acordo sobre o que é justiça.
Por fim, a incerteza aleatória resulta da aleatoriedade de alguns processos,
da imprevisibilidade e variabilidade do comportamento. São elementos e situações
inesperadas que, por serem frutos do acaso, o pesquisador não pode identificar com
antecedência, por mais informações que tenha. Os sistemas de deep learnings estão
recheados de incertezas aleatórias. Como operam a partir de redes neurais, eles são
tão complexos e criam tantas camadas intermediárias, que as operações para
alcançar os resultados não são conhecidas em sua totalidade. Por essa razão, Deep
learning é um sistema praticamente impenetrável e incompreensível.
Neste sentido, torna-se necessário entender os caminhos possíveis em torno
da defesa da transparência e como isso pode ocorrer de fato e até que ponto. Mas
sabendo de antemão que esta meta tem limites. Nick Seaver (2014) lembra que
existe um simplismo em torno da ideia de que a transparência pode permitir por si só
romper a opacidade dos sistemas algorítmicos. Em outro artigo de 2017, em que
defende o emprego de táticas de etnografia, para compreender os sistemas
algorítmicos, ele diz que a transparência não é uma revelação do que sempre esteve
escondido, mas é uma reconfiguração metódica da cena social que a transforma em
direção a determinados fins. Então, para Seaver, não basta fazer uma auditoria
alterando, por exemplo, os dados de entrada de um sistema para desvendar
determinadas operações responsáveis por certos resultados. Como antropólogo, ele
acredita que é preciso ir além dos objetos técnicos, buscando a lógica que norteia as
escolhas, regras e rotinas.
No artigo em que se dedica à análise da responsabilidade algorítmica,
personalidade eletrônica e democracia, Sérgio Amadeu da Silveira (2020, p. 94)
acrescenta, no caso dos inescrutáveis sistemas de deep learning, uma outra
preocupação de ordem política: “como é possível aceitar que o Estado Democrático
utilize algoritmos de relevância pública (GILLESPIE, 2018) cujas operações não se
podem conhecer?”
Com base no que foi apresentado até o momento, entendo que o Jornalismo
tem um papel essencial no processo de tentar desvendar alguns pontos dos
intrincados Sistemas de Decisões Automatizadas, denunciando abusos e erros.
4 . Entra em cena o Jornalismo
116
116
No original: “if it does not measure what the algorithm is aiming to predict or classify. But it can also
improperly use data that is already biased or that reinforces biases in society. One example of that is
the fact that algorithms can discriminate based on race even when they do not specifically use race
data. In countries that have racially segregated neighborhoods, such as the United States, postal codes
can be strong predictors of race”.
117
No original: “A false positive can flag a low-risk person as dangerous and keep that person
incarcerated. A false negative can release a high-risk criminal. Depending on your view of incarceration,
one is more damaging than the other”.
122
utilidade. Além disso, os dados ou ações geradas pelo algoritmo precisam ser
compreendidos pelos operadores, para que eles possam reagir de forma correta, o
que nem sempre ocorre.
Trielli e Diakopoulos (2020) lembram o caso de dois aviões que caíram entre
outubro de 2018 e março de 2019, matando 336 pessoas. Eles possuíam um software
que compensava um desequilíbrio do projeto original da aeronave, que era inclinada
para trás em certas circunstâncias, ajustando os estabilizadores para abaixar o nariz
do avião. Mas os pilotos não tinham recebido treinamento sobre este algoritmo e não
foram capazes de identificar os dados de saída (o abaixamento do nariz e o
manche)118.
Outro ponto de atenção são os modelos. Trielli e Diakopoulos (2020) lembram
que uma vez que os algoritmos estão inseridos em sistemas sociotécnicos, um
jornalista que está fazendo alguma investigação sobre eles deve levar em
consideração as circunstâncias sociais e refletir se os modelos são de fato éticos.
Mesmo que os dados de entrada sejam adequados, que o cálculo seja perfeito e sem
erros e que os resultados sejam úteis e compreensíveis, os sistemas eficazes podem
gerar problemas em grande escala. Trielli e Diakopoulos (2020) citam como exemplo
o software de reconhecimento facial, que além da utilização inadequada, é baseado
em categorizações de raça e de gênero problemáticas, que ajudam a reforçar vieses,
como já abordado anteriormente na tese.
Para permitir investigar os componentes dos Sistemas de Decisões
Automatizadas, Trielli e Diakopoulos (2020) elaboraram quatro cenários: acesso ao
código; acesso aos dados de entrada e de saída; acesso aos dados de entrada ou de
saída e acesso a informações complementares.
O acesso ao código possibilita verificar se existem problemas na lógica e/ou
implementação destes sistemas e testá-los com dados simulados para verificar
resultados hipotéticos. Este tipo de investigação demanda habilidades e competências
técnicas, que são típicas do Jornalismo Computacional. Uma das técnicas usadas é o
desenvolvimento de bots, que podem ajudar, por exemplo, a avaliar como os SDAs
se comportam de maneira diferente para vários padrões de uso, como o login de
diferentes locais para avaliar a segmentação geográfica. MARCONI, DALDRUP e
PANT, 2019).
118
Disponível em: https://embeddedartistry.com/wp-content/uploads/2019/09/the-boeing-737-max-
saga-lessons-for-software-organizations.pdf. Acesso: 29 set. 2021.
123
119
Disponível em: https://www.nytimes.com/2016/05/24/us/armed-with-data-chicago-police-try-to-
predict-who-may-shoot-or-be-shot.html?. Acesso em: 13 ago. 2020.
120
Disponível em: https://www.nytimes.com/2017/06/13/upshot/what-an-algorithm-reveals-about-life-
on-chicagos-high-risk-list.html. Acesso em: 13 ago. 2020.
124
p. 9). A iniciativa exemplifica este caso com um estudo que saiu na revista Science121.
Ele mostra um SDA que foi utilizado em um hospital norte-americano para guiar
decisões médicas a partir da classificação de pacientes de acordo com o nível de
cuidado necessário. Ao concluir falsamente que os negros estariam mais saudáveis
do que pacientes brancos, o sistema privilegiou estes últimos. “O viés ocorreu porque
o algoritmo usava como dados pagamentos a planos de saúde como proxy para
avaliar a condição médica do paciente, ignorando que brancos têm mais acesso a
planos de saúde que negros” (TRANSPARÊNCIA BRASIL, 2020b, p.10).
Já os prejuízos à privacidade podem acontecer a partir da
121
Disponível em: https://www.science.org/doi/10.1126/science.aax2342. Acesso: 17 abr. 2020.
126
122
Por isso mesmo, este tipo de investigação jornalística é chamada por Hunter e Hanson (2013, p.
8) de cobertura empreendida.
127
Com base na origem dos fatos Com base na visão dos fatos (a partir de
(seleção primária dos fatos/valores-notícia) fundamentos ético-epistemológicos)
Raridade
123
Disponível em: https://www.gov.br/capes/pt-br/acesso-a-informacao/servico-de-informacao-ao-
cidadao/sobre-a-lei-de-
acesso-a-informacao. Acesso em: 15 ago. 2020.
133
RISDA
Jornalismo Investigativo
Lei de Acesso à Informação
Acesso ao
Jornalismo de Código
Dados
Acesso aos
dados de entrada
+
Jornalismo dados de saída (decisões)
Computacion
al
Acesso aos
dados de entrada
Jornalismo de ou
Precisão - dados de saída (decisões)
RAC
Sem acesso ao código
ou aos dados
Com base nos trabalhos de Diakopoulos et al. (2017); Marconi, Daldrup e Pant
(2019); Trielli e Diakopoulos (2020) e da Transparência Brasil (2020a, 2020b), foi
sistematizado um percurso que contempla o que deve ser apurado através de técnicas
diversas, como entrevistas, pesquisas e outros métodos de Jornalismo de Dados e de
Jornalismo Computacional.
Este roteiro está dividido em quatro categorias principais, com foco nos SDAs
que são desenvolvidos, adquiridos ou implementados por órgãos públicos. Mas, como
já foi citado, esta sistematização pode ser adaptada para reportagens que
contemplam SDAs usados por outros atores. A apuração (ver tabela 10) envolve as
seguintes etapas: 1) informações gerais; 2) dados 3) erros, danos e vieses; 4)
134
informações complementares.
Durante a investigação jornalística sobre os SDAs, os repórteres devem ir além
do que encontram nos objetos técnicos, preenchendo as lacunas detectadas com
entrevistas com programadores; empresários; autoridades; servidores públicos;
legisladores; pessoas impactadas pelas decisões automatizadas; pesquisadores e
especialistas de diversos campos, que podem ajudar a compreender o cenário
através de lentes diversas, etc.
Propomos seguir o que Nick Seaver (2014) chama de reconfiguração metódica
da cena social, buscando a lógica que norteia as escolhas, regras e rotinas dos SDAs.
Seguindo os princípios de accountability propostos por Diakopoulos et al. (2017) é
preciso investigar a responsabilidade, a explicabilidade, a auditabilidade, a acurácia,
verficar os impactos socias e se as decisões automatizadas criam discriminações ou
impactos injustos comparando diferentes grupos (raça; sexo; identidade de gênero;
status socioeconômico; nível educacional; religião; país de origem; etc.).
Neste sentido, são indispensáveis os seguintes questionamentos:
● O tipo de decisão envolvida deve mesmo ser suportada ou tomada por uma
máquina?
Em caso negativo,
checar como a taxa de
acurácia difere para o
público-alvo.
Diante do que foi exposto, fica claro que as tecnologias empregadas e, muitas
vezes tratadas como inevitáveis, não são neutras. Elas carregam ideologias, opiniões
embutidas e fazem parte de sistemas sociotécnicos, que demandam o entendimento
de múltiplos atores (humanos ou não) e do contexto em que estão inseridos.
Também foi evidenciado que os SDAs têm uma assimetria de poder sobre as
pessoas que são impactadas por suas decisões, muitas vezes, até pela invisibilidade
dos sistemas responsáveis. A opacidade é justificada em nome de segredos
industriais ou da necessidade de reduzir a possibilidade de fraudes. Esta
característica é ainda mais preocupante em relação aos SDAs que são desenvolvidos,
adquiridos e/ou implementados pelos órgãos públicos.
Por tudo isso, diversas iniciativas, projetos, normas e leis se dedicam a este
tema e precisam atrair mais a atenção das redações jornalísticas. Comprovando a
primeira das quatro hipóteses desta tese, foi demonstrado que os Sistemas de
Decisões Automatizadas atendem a onze critérios de noticiabilidade, com base na
origem e na visão dos fatos, especialmente em relação ao interesse público. Ele é
empregado a partir de seu vínculo com o ideal democrático e com o sentido de
vigilância, pois pode estimular a preservação e a ampliação do monitoramento crítico
124
Disponível em:https://catalogoia.omeka.net/items/browse?collection=1. Acesso em: 25 set.
2021.
139
Para contribuir com esta tarefa, busquei sistematizar uma metodologia que
denominei de Reportagens Investigativas sobre Sistemas de Decisões Automatizadas
(RISDA). Este método costura o uso técnicas tradicionais do Jornalismo Investigativo,
com a possibilidade de empregar, em determinadas coberturas, as técnicas de
Jornalismo de Dados e/ou de Jornalismo Computacional, o que atesta mais uma
hipótese levantada. Ao longo da realização deste trabalho, também foram
acrescentadas as técnicas do Jornalismo de Precisão e da Reportagem com Auxílio
do Computador (RAC), consideradas essenciais em toda produção da RISDA.
Referências
140
ALVES, Sarah. Além de racista, reconhecimento facial erra mais em pessoas trans.
Tilt, 14 fev 2021. Disponível em:
https://www.uol.com.br/tilt/noticias/redacao/2021/02/14/nao-e-so-racismo-
reconhecimento-facial-tambem-erra-mais-em-pessoas-trans.htm?cmpid=copiaecola.
Acesso: 15 feb. 2021.
ANDERSON, C.W.; MAYER, Juliette de. Objects of journalism and the news.
Journalism, 16 v., 2015.
ANGWIN,Julia et al. Machine bias. There’s software used across the country to predict
future criminals. And it’s biased against blacks. ProPublica. 23 mai. 2016.
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-
sentencing. Acesso em: 12 out. 2016.
CAPPS, Robert. The good enough revolution: when cheap and simple is just fine.
Wired, 24 ago. 2009. Disponível em:
https://www.wired.com/2009/08/ff-goodenough/. Acesso em: 10 ago. 2016.
CARPENTER, Julia. Google’s algorithm shows prestigious job ads to men, but not to
women. Here’s why that should worry you. The Washington Post. 6 jul. 2015.
Disponível em: https://www.washingtonpost.com/news/the-
intersect/wp/2015/07/06/googles-algorithm-shows-prestigious-job-ads-to-men-but-
not-to-women-heres-why-that-should-worry-you/. Acesso: 19 ago. 2015.
CHRISTIAN, Brian; GRIFFITHS, Tom. Algoritmos para viver: a ciência exata das
decisões humanas. São Paulo: Companhia das Letras, 2017.
DENCIK, L; KAUN, A. Datafication and the welfare state. Global Perspectives. 2020.
DUSEK, Val. Filosofia da tecnologia. Tradução de Luís Carlos Borges. São Paulo:
Loyola, 2009.
143
EVANS, Dave. The internet of things: how the next evolution of the internet is changing
everything. Cisco. Abr. 2011. Disponível em: . Acesso em: 15 fev. 2016.
FACHIN, Patricia. Novo ciclo tecnológico requer que a sociedade repense seu
pacto fundador. Entrevista especial com Glauco Arbix. 07 mar. 2020. Disponível em:
http://www.ihu.unisinos.br/159-noticias/entrevistas/595904-novo-ciclo-tecnologico-
requer-que-a-sociedade-repense-seu-pacto-fundador-entrevista-especial-com-
glauco-arbix. 29 dez. 2020.
FINK; Katherine. Open the government’s black boxes: freedom of information and
algorithmic accountability. Information, Communication & Society, vol 21, 2018.
Disponível em:
https://www.tandfonline.com/doi/abs/10.1080/1369118X.2017.1330418?journalCode
=rics20&. Acesso em: 2 fev. 2019.
FLORIDI, Luciano. Information: a very short introduction. New York: Oxford University
Press, 2010. GLEICK, James. A informação: uma história, uma teoria, uma enxurrada.
Tradução de Augusto Calil. São Paulo: Companhia das Letras, 2013.
FLEW, T.; SPURGEON, C.; DANIEL, A.; SWIFT, A. 2012. The promise of
computational journalism. Journalism Practice, vol, 2012.
Disponível em:
http://dx.doi.org/10.1080/17512786.2011.616655. Acesso: 27 set. 2014.
HALL, Stuart et al. A produção social das notícias: o mugging nos media. In:
TRAQUINA, Nelson (org.). Jornalismo: questões, teorias e 'estórias'. 2ª edição.
Lisboa: Vega, 1999.
HAO, Karen. How Facebook and Google fund global misinformation. The tech giants
are paying millions of dollars to the operators of clickbait pages, bankrolling the
deterioration of information ecosystems around the world. Technology Review. Nov.
2021. Disponível em:
https://www.technologyreview.com/2021/11/20/1039076/facebook-google-
disinformation-clickbait/. Acesso em: 25 nov. 2021
145
KAA, Hille van der; KRAHMER, Emiel. Journalist versus news consumer: the
perceived credibility of machine written news. 2014. Disponível em: < http://compute-
cuj.org/cj-2014/cj2014_session4_paper2.pdf. Acesso: 18 nov. 2015
LEMOS, Amanda. Reconhecimento facial cresce no Brasil; vídeo explica como isso
afeta você: área de segurança pública amplia uso da tecnologia, mas falta
transparência. Folha de S. Paulo. 07 de agosto de 2021.
LEWIS, Paul; MCCORMICK, Erin. How an wx-Youtuber insider investigated its secret
algorithm. The Guardian. 02 feb. 2018. Disponível em:
https://www.theguardian.com/technology/2018/feb/02/youtube-algorithm-election-
clinton-trump-guillaume-chaslot. Acesso: 19 mar. 2019.
LINDEN, Car-Gustav. Decades of automation in the newsroom: why are there still
so many jobs in journalism? March, 2016.
MAGER, Astrid. Algorithmic Ideology: how capitalist society shapes search engines.
2012.
Disponível em:
https://www.tandfonline.com/doi/abs/10.1080/1369118X.2012.676056?journalCode=r
ics20. Acesso em: 10 ago. 2016.
MANOVICH, Lev. The language of new media. Cambridge: MIT Press, 2001.
MARCONI, Francesco; DALDRUP, Till; PANT, Rajiv. Acing the algorithmic beat,
journalism new frontier. Nieman Lab. 14 fev. 2019. Disponível em:
147
https://www.niemanlab.org/2019/02/acing-the-algorithmic-beat-journalisms-next-
frontier/. Acesso em: 04 fev. 2020.
MARTINO, Luís Mauro Sá. Teoria das mídias digitais: linguagens, ambientes e
redes. 2. ed. Petrópolis: Vozes, 2015.
MEYER, Philip. The journalism we need. In: MEYER, Philip. Precision journalism: a
reporter’s introduction to social science methods. New York: Rowman & Littlefield,
2002, p. 1-17.
MITCHELL, Melanie. Complexity: a guide tour. New York: Oxford University Press,
2009.
NILSSON, Nils J. The quest for artificial intelligence: a history of ideas and
achievements. 2010. Disponível em: http://ai.stanford.edu/~nilsson/QAI/qai.pdf.
Acesso em: 18 mar. 2016.
OWEN, Taylor. The violence of algorithms: why big data is only as smart as those who
generate it. Foreign Affairs: 25 may. 2015. Disponível em:
https://www.foreignaffairs.com/articles/2015-05-25/violence-algorithms. Acesso em:
24 mar. 2016.
PARISER, Eli. O filtro invisível: o que a internet está escondendo de você. Tradução:
Diego Alfaro. Rio de Janeiro: Zahar, 2012.
PASCUAL, Manuel G. Quem vigia os algoritmos para que não sejam racistas ou
sexistas? A discriminação socioeconômica, racial ou de gênero é muito frequente
entre os sistemas automáticos. El País: 17 mar. 2019. Disponível
em:<https://brasil.elpais.com/brasil/2019/03/18/tecnologia/1552863873_720561.html
?rel=mas>. Acesso em: 09 nov. 2019.
PASQUALE, Frank A. The Black Box Society: The Secret Algorithms that Control
Money and Information. Cambridge. Harvard University Press. 2015
PORTER, Jon. UK ditches exam results generated by biased algorithm after student
protests. Protesters chanted ‘Fuck the algorithm’ outside the country’s Department for
Education. The Verge, 17 ago. 2020. Disponível em:
<https://www.theverge.com/2020/8/17/21372045/uk-a-level-results-algorithm-biased-
coronavirus-covid-19-pandemic-university-applications>. Acesso em: 29 ago. 2020.
REINSEL, David; GANTZ, John; RYDNING, John.The digitization of the world from
edge to core. November, 2018.
149
SALOMÃO, Luis Felipe (Org.) Inteligência artificial: tecnologia aplicada à gestão dos
conflitos no âmbito do poder judiciário brasileiro. 2020. Disponível em:
https://ciapj.fgv.br/sites/ciapj.fgv.br/files/estudos_e_pesquisas_ia_1afase.pdf.
Acesso: 12 set. 2021.
SCHMIDT, Eric; COHEN, Jared. A nova era digital: como será o futuro das pessoas,
das nações e dos negócios. Tradução de Ana Beatriz Rodrigues e Rogério Durst. Rio
de Janeiro: Intrínseca, 2013.
SHIRKY, Clay. A speculative post on the idea of algorithmic authority. 15 nov. 2009.
_____________. Reconhecimento facial deve ser banido: veja dez razões. 16 mai.
2021 Disponível em:<https://tarciziosilva.com.br/blog/reconhecimento-facial-deve-
ser-banido-aqui-estao-dez-razoes/> Acesso em: 05 set. 2021.
151
SOLOVE, Daniel J.The Digital Person: Technology and privacy in the information
age. 2004. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2899131. Acesso: 13 set.
SOPER, Spencer. Fired by Bot at Amazon: ‘It’s You Against the Machine’. Contract
drivers say algorithms terminate them by email, even when they have done nothing
wrong. Bloomberg, 28 jun. 2021. Disponível em:
https://www.bloomberg.com/news/features/2021-06-28/fired-by-bot-amazon-turns-to-
machine-managers-and-workers-are-losing-out. Acesso em: 13 jul. 2021.
STRAY, Jonathan. The data journalist’s eyes, an introduction. Town Center for
Journalism. 2014. Disponível em http://towcenter.org/blog/the-data-journalists-eye-
an-introduction/. Acesso em: 15 mar. 2016.
https://www.transparencia.org.br/downloads/publicacoes/Recomendacoes_Governan
ca_Uso_IA_PoderPublico.pdf. Acesso: 20 nov. 2020.
TUFEKCI, Zeynep. Engineering the public: big data , surveillance and computational
politics. First Monday. 2014. Disponível em :
https://firstmonday.org/article/view/4901/4097. Acesso: 29 set. 2018.
VELKOVA, Julia; KAUN, Julia. Algorithmic resistance: media practices and the politics
of repair. Information, Communication & Society. 2019.