Você está na página 1de 5

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/333969137

Interrogando Plataformas e Algoritmos Digitais

Conference Paper · October 2018

CITATIONS READS

0 149

1 author:

Tarcízio Silva
Universidade Federal do ABC (UFABC)
62 PUBLICATIONS 184 CITATIONS

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Raça e Racialização em Tecnologias, Plataformas Digitais e Algoritmos View project

All content following this page was uploaded by Tarcízio Silva on 23 June 2019.

The user has requested enhancement of the downloaded file.


Interrogando Plataformas e Algoritmos Digitais

Tarcízio Silva
Universidade Federal do ABC

Instituto Brasileiro de Pesquisa e Análise de Dados

A crença tanto em que os algoritmos estatísticos e softwares são neutros quanto a crença
de que são substitutos da ciência são eITadas em dimensão comparável apenas à sua
aceitação por um número cada vez mais crescente de gmpos sociais filiados à ideais
neoliberais e tecnocráticos de eficácia e otimização de processos. Estas presunções de
neutralidade dos alg01itmos e sistemas automatizados em campos da comunicação,
direito, segurança e políticas públicas (SILVEIRA, 2017) impactam efetivamente
indivíduos e comunidades de modo relativo à distribuição de poder quanto às classes,
gênero, raças e gmpos sociais que os constroem e gerenciam. Quanto ao aspecto de
racialização, podemos falar de uma opacidade dupla. De um lado os algoritmos - e a
tecnologia de modo geral - são vistos como neutros, como se fossem construídos,
desenvolvidos e performados independente do contexto e pessoas envolvidas. De outr·o,
a ideologia da negação e invisibilidade da categoria social "raça" na sociedade como um
todo impede consensos e avanços quanto à justiça e equidade de representação.

Esta construção possui tanto impactos diretos quanto indiretos, tal como o gap de
capacidade de interpretação da realidade social, demográfica e política contemporâneas.
Ecossistemas de plataformas e infraestruturns digitais como Google, Amazon, Facebook
e Apple (chamados pelo acrônimo GAFA) construíram capacidades de análise de dados
internos e externos que ultrapassam em muito o potencial de universidades de ponta e até
de estados. E tudo isto sem as preITogativas de transparência e accountability exigidas
pelas populações da maioria das democracias. Investigar e entender os impactos de
algoritmos e plataformas na democracia e nas populações é um desafio ainda mais -
aparentemente - intransponível.

Estas perspectivas neoliberais ativistas tem sido centr·ais no reforço de lógicas que são
"antidemocratic, anti-affümative-action, antiwelfare, antichoice, and antirace discourses
that place culpability for individual failure on moral failings of the individual, not policy
decisions and social systems'', inclusive em esferas tecnológicas (NOBLE, 2018,

32
pos.2781 ). A opacidade dos sistemas é vista de foima acrítica, desde que não traga
maleficios para o sujeito em sua individualidade e fins pragmáticos. E quando acontece
são vistas como responsabilidade do próprio indivíduo que deveria ser "gerente de si
mesmo", como acontece com os sistemas de autogestão de escores de créditos, cada vez
mais pervasivos. hnpactos no social e no comunitátio são ignorados. A legitimidade das
"data-driven decision-making hinges not only on the presumed objectivity of its methods,
but on the unquestioned acceptance of productivity, perf01mance, metit" (RIEDER,
2016a, p.51). É preciso, então, ver as atuais práticas em tomo de big data e análise
pervasiva dos indivíduos com olhares multiculturais. Os dados, como "a medium or
representational f01m and envelops data science within a cultural matrix. Data criticism
also tackles data science's idealistic view of data head-on, in addition to its self-
proclaimed democratic leanings and liberalism" (BEATON, 2016, p.368).

A chamada à crítica dos dados e platafo1mas vai ao encontro do que Dardot e Lavai (2017)
diagnosticam como uma falta de compreiensão das relações entre as condutas dos
neossujeitos e as f01mas de controle, vigilância e análise exercidas na suposta hiper-
racional contemporaneidade. Alertam que é preciso "examinar de peito tecnologias de
controle e vigilância de indivíduos e populações, sua medicalização, o fichar, o registro
de seus comp01tamentos, inclusive os mais precoces" (DARDOT & LAVAL, 2017,
pos.7932). Mesmo antes da popularidade esmagadora de plataf01mas como o Facebook,
a ligação entre inteligência a1tificial e pilares do neoliberalismo, como o capital
financeiro, podem ser sentidas como aponta Achille Mbembe, ao descrever como este,
"simultaneamente força viva e criadora [... .] e processo sangrante de devo ração [...]
aumentou descontroladamente a pa1tir do momento em que os mercados bolsistas
escolheram apoiar-se na inteligência a1tificiial para optimizar movimentos de liquidez"
(MBEMBE, 2017, p.30).

Neste sentido, acreditamos ser essencial a realização de esforço de pesquisa e atuação


ctitica na realidade para combater os vieses não só algorítmicos, mas também a opacidade
destes vieses fiuto da lógica neoliberal que glorifica corporações de tecnologia do Vale
do Silício enquanto deixa sujeitos atomizados em busca de uma autogestão cada vez mais
opressiva. E levando em conta o "contrato racial" (MILLS, 2014) que cria processos de
racialização nas mais diferentes esferas sociais com objetivos de dominação, é preciso
esforço conjunto para entender a fundo novas tecnologias como plataf01mas de
comunicação e suas relações com dados e inteligência a1tificial.

33
As proposições que estão surgindo nos últimos anos para interrogar as plataf01mas e
sistemas algorítmicos merecem circulação e aplicação em diferentes contextos (BROCK,
2016; RIEDER, 2016; OSOBA & WELSER VI, 2017; SILVEIRA, 2017; NOBLE, 2017;
WILLIAMS, BROOKS & SHMARGAD, 2018; BUOLAMWINI & GEBRU, 2018),
sendo ainda raras as proposições que levam em conta a estrnturação do racismo na
sociedade ocidental e como impacta produçôes de centros de tecnologia como o Vale do
Silício.

A Temia Racial Crítica (Critica! Race Theory) , frnto e atuante nos movimentos de
direitos civis desde a década de 60, aplicada no Brasil por esh1diosos do Direito e da
Educação, merece o seu lugar também na Comunicação. É baseada em pilares de
compreensão da sociedade especialmente úteis para compreender os pontos de contato
entre opacidade algorítmica e invisibilidade dos processos de racialização, tais como:
compreensão desta como de relações raciais hierarquizadas estrnhlrantes e estrnmradas
pelo racismo; percepção da ordinariedade do racismo nas mais diferentes esferas sociais,
econômicas, políticas e biopolíticas; a convergência interseccional do determinismo
material dos interesses de grupos dominantes; a visão das relações raciais como
construção social; e, por fim, a TRC é agente efetiva no combate da opressão racial
(CRENSHAW, GOTANDA & PELLER, 1995; MATSUDA et al, 1993; DELGADO,
STEFANCIC & HARRIS, 2017).

Vemos estes esforços como um n·abalho internacional em progr·esso e propomos n·ês


estratégias para reunir a colaboração da Temia Racial Crítica ao estudo dos alg01itmos:
a) análise crítica, localizada e com consciência racial das particularidades do contexto
brasileiro, onde enn·am também hierarquias. de dominação imperialistas mediadas pelo
Vale do Silício e culmra de startups; b) uso de colaborações das ciências sociais,
humanidades digitais e computação social para entender e interrogar as plataformas; e c)
uso de métodos mistos (JOHNSON & OJ\JWUEGBUZIE, 2004), incluindo também
mapeamento, engajamento de profissionais e ativistas para compreender toda a rede
produtiva a partir de um olhar da economia política de produção dos algoritmos e
sistemas. A govemança alg01itmica tende a ser cada vez mais presente e comunicadores
e cientistas sociais devem mergulhar na temática para agir junto a desenvolvedores e
legisladores pra analisar danos individuais, dliscriminação ilegal e práticas injustas, perda
de op01tunidades, perdas econômicas e estigmatização social.

34
Referências
BEATON, Brian. How to Respond to Data Science: Early Data Criticism by Lionel Trilling. Information
& Culture, v. 51 , n. 3, p. 352-372, 2016.

BROCK, André. Critical technocultural discourse analysis. New Media & Society, p.
1461444816677532,2016.
BUOLAMWINI, Joy; GEBRU, Timnit. Gender shades: Intersectional accuracy disparities in co1mnercial
gender classification. ln: Confert>nce on Fairness, A ccountability and Transparency. 2018. p. 77-91.
CRENSHAW, Kimberlé; GOTANDA, Neil; PELLEJR., Gan y. Criticai r a ce theory: Tht> kt>y w1itings
that formed the movement. The New Press, 1995.
DARDOT, Pien e; LAV AL, Christian. A nova r azã o do mundo. Boitempo Editorial, 2017.
DELGADO, Richard; STEF ANCIC, Jean. C1itical race theory: An introduction. NYU Press, 2017.
JOHNSON, R. Burke; ONWUEGBUZIE, Anthony J. Mixed methods research: A research paradigm
whose time has come. E ducational r esearcher , v. 33, 11. 7, p. 14-26, 2004.
MATSUDA, Mari J.; LAWRENCE III, Charles R.; DELGADO, R.; CRENSHAW , Kimberle W. Words
That Wound - Criticai Race Theory, Assaultive Speiech, and the First Ame11dment. Nova Iorque:
Routledge, 1993.
MBEMBE, Achille. Políticas da Inimizade. Lisboa (Portugal: Antígo11a, 2017.
MILLS, Charles W . The racial contr act. Comell U11tiversity Press, 2014.
NOBLE, Safiya Umoja. Algorithms of Oppression: How st>ar ch t>ngines rt>inforct> r acism. NYU Press,
2018.
OSOBA, Osonde A; WELSER IV, William. An infolligence in our image: The risks of bias a nd
errors in artificial intelligence. Ra11d Corporation, 2017.
RIEDER, Bemhard. Big Data a11d the Paradox ofDiversity. Digital Culture & Society, v. 2, 11. 2, p. 39-
54, 2016a.
SILVEIRA, Sérgio Amadeu da. Tudo sobre Tod@s : redes digitais, privacidade e venda de dados
pessoais. São Paulo: Edições Sesc, 2017.
WILLIAMS, Betsy Anne; BROOKS, Catherine F.; SHMARGAD, Yotam How algorithms discriminate
based 011 data they lack: Challenges, solutions, a11d policy implicatio11s. Jow·nal of Information Policy,
V. 8, p.78-115, 2018.

35

View publication stats

Você também pode gostar