Escolar Documentos
Profissional Documentos
Cultura Documentos
net/publication/333969137
CITATIONS READS
0 149
1 author:
Tarcízio Silva
Universidade Federal do ABC (UFABC)
62 PUBLICATIONS 184 CITATIONS
SEE PROFILE
Some of the authors of this publication are also working on these related projects:
All content following this page was uploaded by Tarcízio Silva on 23 June 2019.
Tarcízio Silva
Universidade Federal do ABC
A crença tanto em que os algoritmos estatísticos e softwares são neutros quanto a crença
de que são substitutos da ciência são eITadas em dimensão comparável apenas à sua
aceitação por um número cada vez mais crescente de gmpos sociais filiados à ideais
neoliberais e tecnocráticos de eficácia e otimização de processos. Estas presunções de
neutralidade dos alg01itmos e sistemas automatizados em campos da comunicação,
direito, segurança e políticas públicas (SILVEIRA, 2017) impactam efetivamente
indivíduos e comunidades de modo relativo à distribuição de poder quanto às classes,
gênero, raças e gmpos sociais que os constroem e gerenciam. Quanto ao aspecto de
racialização, podemos falar de uma opacidade dupla. De um lado os algoritmos - e a
tecnologia de modo geral - são vistos como neutros, como se fossem construídos,
desenvolvidos e performados independente do contexto e pessoas envolvidas. De outr·o,
a ideologia da negação e invisibilidade da categoria social "raça" na sociedade como um
todo impede consensos e avanços quanto à justiça e equidade de representação.
Esta construção possui tanto impactos diretos quanto indiretos, tal como o gap de
capacidade de interpretação da realidade social, demográfica e política contemporâneas.
Ecossistemas de plataformas e infraestruturns digitais como Google, Amazon, Facebook
e Apple (chamados pelo acrônimo GAFA) construíram capacidades de análise de dados
internos e externos que ultrapassam em muito o potencial de universidades de ponta e até
de estados. E tudo isto sem as preITogativas de transparência e accountability exigidas
pelas populações da maioria das democracias. Investigar e entender os impactos de
algoritmos e plataformas na democracia e nas populações é um desafio ainda mais -
aparentemente - intransponível.
Estas perspectivas neoliberais ativistas tem sido centr·ais no reforço de lógicas que são
"antidemocratic, anti-affümative-action, antiwelfare, antichoice, and antirace discourses
that place culpability for individual failure on moral failings of the individual, not policy
decisions and social systems'', inclusive em esferas tecnológicas (NOBLE, 2018,
32
pos.2781 ). A opacidade dos sistemas é vista de foima acrítica, desde que não traga
maleficios para o sujeito em sua individualidade e fins pragmáticos. E quando acontece
são vistas como responsabilidade do próprio indivíduo que deveria ser "gerente de si
mesmo", como acontece com os sistemas de autogestão de escores de créditos, cada vez
mais pervasivos. hnpactos no social e no comunitátio são ignorados. A legitimidade das
"data-driven decision-making hinges not only on the presumed objectivity of its methods,
but on the unquestioned acceptance of productivity, perf01mance, metit" (RIEDER,
2016a, p.51). É preciso, então, ver as atuais práticas em tomo de big data e análise
pervasiva dos indivíduos com olhares multiculturais. Os dados, como "a medium or
representational f01m and envelops data science within a cultural matrix. Data criticism
also tackles data science's idealistic view of data head-on, in addition to its self-
proclaimed democratic leanings and liberalism" (BEATON, 2016, p.368).
A chamada à crítica dos dados e platafo1mas vai ao encontro do que Dardot e Lavai (2017)
diagnosticam como uma falta de compreiensão das relações entre as condutas dos
neossujeitos e as f01mas de controle, vigilância e análise exercidas na suposta hiper-
racional contemporaneidade. Alertam que é preciso "examinar de peito tecnologias de
controle e vigilância de indivíduos e populações, sua medicalização, o fichar, o registro
de seus comp01tamentos, inclusive os mais precoces" (DARDOT & LAVAL, 2017,
pos.7932). Mesmo antes da popularidade esmagadora de plataf01mas como o Facebook,
a ligação entre inteligência a1tificial e pilares do neoliberalismo, como o capital
financeiro, podem ser sentidas como aponta Achille Mbembe, ao descrever como este,
"simultaneamente força viva e criadora [... .] e processo sangrante de devo ração [...]
aumentou descontroladamente a pa1tir do momento em que os mercados bolsistas
escolheram apoiar-se na inteligência a1tificiial para optimizar movimentos de liquidez"
(MBEMBE, 2017, p.30).
33
As proposições que estão surgindo nos últimos anos para interrogar as plataf01mas e
sistemas algorítmicos merecem circulação e aplicação em diferentes contextos (BROCK,
2016; RIEDER, 2016; OSOBA & WELSER VI, 2017; SILVEIRA, 2017; NOBLE, 2017;
WILLIAMS, BROOKS & SHMARGAD, 2018; BUOLAMWINI & GEBRU, 2018),
sendo ainda raras as proposições que levam em conta a estrnturação do racismo na
sociedade ocidental e como impacta produçôes de centros de tecnologia como o Vale do
Silício.
A Temia Racial Crítica (Critica! Race Theory) , frnto e atuante nos movimentos de
direitos civis desde a década de 60, aplicada no Brasil por esh1diosos do Direito e da
Educação, merece o seu lugar também na Comunicação. É baseada em pilares de
compreensão da sociedade especialmente úteis para compreender os pontos de contato
entre opacidade algorítmica e invisibilidade dos processos de racialização, tais como:
compreensão desta como de relações raciais hierarquizadas estrnhlrantes e estrnmradas
pelo racismo; percepção da ordinariedade do racismo nas mais diferentes esferas sociais,
econômicas, políticas e biopolíticas; a convergência interseccional do determinismo
material dos interesses de grupos dominantes; a visão das relações raciais como
construção social; e, por fim, a TRC é agente efetiva no combate da opressão racial
(CRENSHAW, GOTANDA & PELLER, 1995; MATSUDA et al, 1993; DELGADO,
STEFANCIC & HARRIS, 2017).
34
Referências
BEATON, Brian. How to Respond to Data Science: Early Data Criticism by Lionel Trilling. Information
& Culture, v. 51 , n. 3, p. 352-372, 2016.
BROCK, André. Critical technocultural discourse analysis. New Media & Society, p.
1461444816677532,2016.
BUOLAMWINI, Joy; GEBRU, Timnit. Gender shades: Intersectional accuracy disparities in co1mnercial
gender classification. ln: Confert>nce on Fairness, A ccountability and Transparency. 2018. p. 77-91.
CRENSHAW, Kimberlé; GOTANDA, Neil; PELLEJR., Gan y. Criticai r a ce theory: Tht> kt>y w1itings
that formed the movement. The New Press, 1995.
DARDOT, Pien e; LAV AL, Christian. A nova r azã o do mundo. Boitempo Editorial, 2017.
DELGADO, Richard; STEF ANCIC, Jean. C1itical race theory: An introduction. NYU Press, 2017.
JOHNSON, R. Burke; ONWUEGBUZIE, Anthony J. Mixed methods research: A research paradigm
whose time has come. E ducational r esearcher , v. 33, 11. 7, p. 14-26, 2004.
MATSUDA, Mari J.; LAWRENCE III, Charles R.; DELGADO, R.; CRENSHAW , Kimberle W. Words
That Wound - Criticai Race Theory, Assaultive Speiech, and the First Ame11dment. Nova Iorque:
Routledge, 1993.
MBEMBE, Achille. Políticas da Inimizade. Lisboa (Portugal: Antígo11a, 2017.
MILLS, Charles W . The racial contr act. Comell U11tiversity Press, 2014.
NOBLE, Safiya Umoja. Algorithms of Oppression: How st>ar ch t>ngines rt>inforct> r acism. NYU Press,
2018.
OSOBA, Osonde A; WELSER IV, William. An infolligence in our image: The risks of bias a nd
errors in artificial intelligence. Ra11d Corporation, 2017.
RIEDER, Bemhard. Big Data a11d the Paradox ofDiversity. Digital Culture & Society, v. 2, 11. 2, p. 39-
54, 2016a.
SILVEIRA, Sérgio Amadeu da. Tudo sobre Tod@s : redes digitais, privacidade e venda de dados
pessoais. São Paulo: Edições Sesc, 2017.
WILLIAMS, Betsy Anne; BROOKS, Catherine F.; SHMARGAD, Yotam How algorithms discriminate
based 011 data they lack: Challenges, solutions, a11d policy implicatio11s. Jow·nal of Information Policy,
V. 8, p.78-115, 2018.
35