Você está na página 1de 22

Traduzido do Inglês para o Português - www.onlinedoctranslator.

com

Teoria e Sociedade
https://doi.org/10.1007/s11186-020-09411-3

O etnógrafo e o algoritmo: além da


caixa preta

Angele Christin1

# Springer Nature BV 2020

Abstrato
Um tema comum nos estudos de algoritmos em ciências sociais é que eles são profundamente
opacos e funcionam como “caixas pretas”. Os estudiosos desenvolveram várias abordagens
metodológicas para lidar com a opacidade algorítmica. Aqui defendo que podemos inscrever
explicitamente algoritmos na investigação etnográfica, o que pode lançar luz sobre aspectos
inesperados dos sistemas algorítmicos – incluindo a sua opacidade. Delineio três estratégias de
mesonível para etnografia algorítmica. O primeiro,refração algorítmica,examina as
reconfigurações que ocorrem quando software computacional, pessoas e instituições
interagem. A segunda estratégia,comparação algorítmica,baseia-se numa abordagem de
semelhança e diferença para identificar as características únicas dos instrumentos. A terceira
estratégia, triangulação algorítmica,inscreve algoritmos para ajudar a coletar dados
qualitativos ricos. Concluo discutindo as implicações deste kit de ferramentas para o estudo de
algoritmos e o futuro do trabalho de campo etnográfico.

Palavras-chaveAlgoritmos. Inscrição . Etnografia. Opacidade

Na última década, muitos estudos examinaram a construção, as implicações e os efeitos dos


sistemas algorítmicos. Um tema comum emergente desta literatura é que os algoritmos são
profundamente opacos e funcionam como “caixas pretas” inescrutáveis que só podem ser
analisadas em termos de suas entradas e saídas (Pasquale2015; Introdução2016; Burrell2016).
A maioria dos estudiosos julga que esta opacidade é inerentemente problemática, tanto em
termos de investigação académica como para efeitos de responsabilização e regulação
(Pasquale2015; O'Neil2016; Eubanks2017; Zuboff2019). Consequentemente, surgiram esforços
para aumentar a “transparência algorítmica” e contornar a opacidade tecnológica através de
uma variedade de meios (Diakopoulos2013; Sandvig et al.2014; Angwin et al. 2016). No
entanto, os investigadores também enfatizam as limitações do conceito de transparência na

* Angele Christin
angelec@stanford.edu

1
Departamento de Comunicação, Universidade de Stanford, 450 Jane Stanford Mall, Stanford, CA
94305, EUA
Teoria e Sociedade

neste contexto, argumentando que precisamos parar de pensar em algoritmos como


objetos técnicos bem delimitados que precisam ser “abertos” (Ananny e Crawford2016).
Abordagens alternativas entendem algoritmos como conjuntos sociotécnicos complexos
envolvendo longas cadeias de atores, tecnologias e significados (Gillespie2016; Seaver
2017; Lange; Lenglet; e Seyfert 2018).
Dada a opacidade dos algoritmos e as limitações do conceito de transparência, como
devemos estudar os sistemas algorítmicos? Este artigo busca fortalecer o arcabouço
metodológico dos estudos algorítmicos, concentrando-se no papel dos métodos etnográficos.
Sugiro que inscrever algoritmos na pesquisa etnográfica é uma forma produtiva de analisar
procedimentos computacionais complexos e opacos. Depois de discutir as diferentes
dimensões da opacidade algorítmica e as principais perspectivas metodológicas que surgiram
para contornar essa opacidade – nomeadamente auditorias algorítmicas, críticas culturais e
históricas e abordagens etnográficas – recorro à sociologia da tradução (Callon1986) para
examinar inscrições algorítmicas. Ofereço três estratégias práticas para estudos etnográficos
de algoritmos na sociedade. A primeira estratégia,refração algorítmica,examina as
reconfigurações que ocorrem quando algoritmos, pessoas e instituições interagem. A segunda
estratégia,comparação algorítmica,depende de uma abordagem de similaridade e diferença
para identificar as características específicas dos sistemas algorítmicos. A terceira estratégia,
triangulação algorítmica,inscreve algoritmos para ajudar a coletar dados qualitativos. Concluo
discutindo as implicações deste kit de ferramentas para o estudo de algoritmos e o futuro da
pesquisa etnográfica, online e offline.

I. Estudando algoritmos de caixa preta

Por que os algoritmos são opacos? Por que isso importa? E como isso afeta os métodos que
podemos usar para estudá-los? Esta seção apresenta as diferentes maneiras pelas quais os
algoritmos podem ser opacos e as situações em que essa opacidade se torna particularmente
problemática. Aqui defino “algoritmos” como sequências de operações lógicas que fornecem
instruções passo a passo para os computadores agirem sobre os dados (Barocas et al.2014). Na
prática, os algoritmos são normalmente programas de software que executam tarefas
computacionais baseadas em algum tipo de dados digitais.
Baseando-se em Burrell (2016), existem quatro maneiras pelas quais os algoritmos podem ser opacos.
Primeiro, os algoritmos são normalmente caracterizados porsigilo intencional:dados e códigos são
mantidos em segredo por empresas ou administrações que os protegem como propriedade intelectual
valiosa. Consequentemente, os observadores não têm acesso aos algoritmos porque as empresas não os
tornam públicos. Em segundo lugar, mesmo quando as empresas decidem partilhar os seus algoritmos
com utilizadores e investigadores, surge outra dimensão de opacidade:analfabetismo técnico.Algoritmos
são feitos de código escrito em linguagens de programação; a maioria dos usuários não tem treinamento
para interpretar essas linguagens de programação, limitando sua compreensão do funcionamento interno
dos algoritmos. Terceiro, os algoritmos de aprendizado de máquina têm uma camada adicional de
opacidade porque evoluem ao longo do tempo de maneiras normalmenteininteligívelpor humanos,
independentemente do treinamento dos humanos em linguagens de programação. Nas palavras de
Burrell, “Quando um computador aprende e conseqüentemente constrói sua própria representação de
uma decisão de classificação, ele o faz sem levar em conta a compreensão humana” (Burrell2016, pág. 10).
Assim, mesmo que pudéssemos ler e decifrar linhas de códigos, talvez não seríamos capazes de
compreender como
Teoria e Sociedade

algoritmos tomam decisões. A estas três camadas de opacidade, deve-se acrescentar uma quarta: a
transparênciatamanhoda maioria dos sistemas algorítmicos. Por exemplo, os serviços de Internet da
Google dependem de mais de 2 mil milhões de linhas de código (Metz2015). Tal ordem de grandeza muitas
vezes torna impossível para qualquer pessoa (incluindo os programadores que projetaram o algoritmo)
identificar qual parte do sistema é responsável por uma decisão específica.
Com base nestas quatro dimensões, os estudiosos referem-se aos algoritmos como “caixas
pretas”, ou dispositivos que só podem ser compreendidos em termos das suas entradas e saídas,
sem qualquer conhecimento do seu funcionamento interno (Mols2017). Com base neste conceito, o
jurista Franck Pasquale escreveu sobre o desenvolvimento de uma “sociedade caixa preta” (Pasquale
2015). Pasquale examinou a distribuição assimétrica de dados e informações em um mundo onde
algoritmos irresponsáveis tomam cada vez mais decisões escondidas atrás de muros corporativos e
camadas de código. Esta opacidade, por sua vez, é particularmente problemática, uma vez que os
algoritmos são frequentemente tendenciosos (Barocas e Selbs2016): uma vez que se baseiam em
dados históricos, que são moldados por longos históricos de desigualdade e discriminação, os
algoritmos podem funcionar como “armas de destruição matemática” (O'Neil 2016) que acabam
“automatizando a desigualdade” (Eubanks2017). Não ser capaz de analisar como essas decisões
tendenciosas são tomadas representa uma séria ameaça à noção de devido processo legal nas
sociedades democráticas (Crawford e Schultz2014; O'Neil2016; Eubanks2017; Chesterman2020).

A crescente constatação de que a maioria dos algoritmos são opacos, discriminatórios


e irresponsáveis levou ao desenvolvimento de uma série de estratégias metodológicas a
fim de contornar essas camadas de impenetrabilidade e documentar o funcionamento
interno dos sistemas computacionais. Aqui distingo três tipos de métodos: auditorias
algorítmicas, críticas culturais e históricas e estudos etnográficos. Discuto os benefícios e
limitações de cada método antes de focar mais especificamente na etnografia.

Auditorias algorítmicas

A primeira abordagem, auditorias algorítmicas, baseia-se em métodos estatísticos e computacionais


para examinar os resultados dos sistemas algorítmicos, especificamente (mas não exclusivamente) o
seu impacto discriminatório.
Muitas auditorias algorítmicas dependem de experimentos de campo online. De acordo com Sandvig et
al. (2014, pág. 5), “os estudos de auditoria são tipicamente experimentos de campo nos quais
pesquisadores ou seus confederados participam de um processo social que eles suspeitam ser corrupto, a
fim de diagnosticar discriminação prejudicial. Em um projeto comum de estudo de auditoria, os
pesquisadores criam uma correspondência fictícia que supostamente é de um candidato a emprego em
busca de emprego e a direciona a empregadores reais.” Adaptando a metodologia de auditoria às
plataformas online, Sandvig et al. distinguir entre diferentes tipos de projetos de pesquisa, incluindo
auditorias de código, auditorias de usuários não invasivos, auditorias de scraping, auditorias de fantoches
e auditorias de crowdsourcing. Os casos existentes de investigação que utilizam estes métodos
encontraram importantes características discriminatórias em plataformas mediadas por algoritmos,
incluindo discriminação racial na entrega de publicidade online (Sweeney2013) e discriminação de preços
em sites de comércio eletrônico (Hannak et al.2014; Diakopoulos2013).
Além de experimentos de campo on-line, outros métodos computacionais têm sido usados para
investigar o funcionamento interno e o impacto discriminatório dos sistemas algorítmicos. Por
exemplo, Angwin e seus colegas da organização de notícias sem fins lucrativos ProPublica
analisaram mais de 10 mil arquivos de réus criminais no condado de Broward, Flórida,
Teoria e Sociedade

acessado através de solicitações da Lei de Liberdade de Informação (Angwin et al.2016). Após uma
análise estatística dos casos e das pontuações fornecidas por uma ferramenta de avaliação de risco
chamada COMPAS, eles criticaram a Equivant (empresa proprietária do COMPAS) por construir um
algoritmo que discriminava os afro-americanos. A ProPublica disponibilizou os dados publicamente;
acadêmicos usaram-no para oferecer diferentes medidas de justiça algorítmica (Corbett-Davis et al.
2016). Em seu estudo sobre discriminação em ferramentas de reconhecimento facial, Buolamwini e
Gebru (2018) baseou-se em métodos quantitativos igualmente criativos. Eles construíram um novo e
diversificado conjunto de dados de análise facial, que usaram para avaliar três ferramentas
comerciais: descobriram que os principais programas de reconhecimento facial categorizavam
erroneamente as mulheres de pele mais escura a uma taxa significativamente mais alta do que
qualquer outro grupo. Tais estudos pertencem à família das auditorias algorítmicas, no sentido de
que lançam luz sobre sistemas algorítmicos opacos (e potencialmente discriminatórios) através de
sofisticados desenhos de investigação online e análises estatísticas.

Após a publicação destas descobertas, os estudiosos sugeriram a adoção de novas formas


de documentação, a fim de minimizar a opacidade e o potencial discriminatório dos sistemas
algorítmicos. Por exemplo, os cientistas da computação defenderam o fornecimento de
“cartões de modelo”, documentos curtos para modelos treinados de aprendizado de máquina
que incluiriam métricas essenciais sobre preconceito, justiça e inclusão (Mitchell et al.2019).
Outros sugeriram adicionar restrições aos modelos algorítmicos, a fim de reduzir o seu
potencial discriminatório (Diakopoulos e Friedler2016). Muitas dessas iniciativas surgiram
dentro da comunidade intelectual FAccT (Association of Computing Machinery Fairness,
Accountability, and Transparency, anteriormente FAT*). Tais abordagens, por sua vez, têm sido
criticadas pela sua ênfase em “soluções técnicas” em vez de questões sociais e políticas mais
amplas (Powles e Nissenbaum2018; ver também Abebe et al.2020), seu foco na transparência
como um termo abrangente (Ananny e Crawford2016) e suas escolhas epistemológicas, que
poderiam acabar consolidando a opacidade algorítmica em vez de diminuí-la. Como observou
Seaver, “ao tratar o ‘interior’ do algoritmo como incognoscível, essas abordagens (por exemplo,
auditorias algorítmicas) participam na promulgação de uma compreensão do algoritmo como
uma caixa preta, como cognoscível apenas através da relação entre entradas e saídas” ( Seaver
2017, pág. 5). Tais limitações, por sua vez, são precisamente o que o próximo conjunto de
métodos pretende abordar.

Crítica cultural e histórica

A segunda perspectiva metodológica desenvolvida para contornar a opacidade dos sistemas


algorítmicos vem do que chamo de crítica cultural e histórica ou de estudos que se baseiam na
teoria social crítica para analisar o papel do software computacional, situando-o dentro de
formações políticas, raciais, culturais e econômicas mais amplas. . Os estudiosos normalmente
confiam na crítica de design, bem como em leituras atentas de publicações do setor, material
promocional e artigos jornalísticos sobre algoritmos, que mobilizam para conectar incidentes
recentes em trajetórias históricas mais longas. Abordagens críticas analisaram como os
algoritmos reproduzem e reforçam as estruturas existentes de desigualdade racial, vigilância e
mercantilização.
Primeiro, com base na Teoria Crítica da Raça, os estudiosos demonstram os fundamentos
raciais da maioria dos sistemas algorítmicos. Por exemplo, emCorrida atrás da tecnologia
(2019), Benjamin desenvolve o conceito do “Novo Código Jim” para enfatizar como
Teoria e Sociedade

algoritmos podem codificar padrões de opressão contra pessoas de cor. Vinculando a ascensão
dos algoritmos às estruturas que sustentaram a dominação racial ao longo do tempo nos
Estados Unidos, incluindo o sistema jurídico Jim Crow, Benjamin ilumina um efeito-chave dos
algoritmos nas sociedades atuais, nomeadamente, manter e reforçar as desigualdades raciais
(ver também Eubanks2017). Com base nesta estrutura, ela analisa os valores racistas e
eugenistas que moldam os sistemas algorítmicos através de múltiplos casos empíricos,
incluindo o de “Beauty AI”, “o primeiro concurso internacional de beleza julgado pela
inteligência artificial”, onde entre 6.000 inscrições de 100 países, apenas um finalista (de 44)
tinha pele visivelmente escura (Benjamin2019, pág. 50). Noble oferece uma análise
complementar emAlgoritmos de Opressão (Nobre2018), onde ela examina o papel cultural dos
motores de busca online na reprodução de crenças discriminatórias existentes sobre pessoas
de cor. Ela pega o exemplo de pesquisar o termo “garotas negras” no Google e encontrar
conteúdo sexualmente explícito exibido com destaque na primeira página – um resultado que
não foi replicado quando ela pesquisou por “garotas brancas”. Tais análises mostram como,
sob a pátina da inovação, da objectividade e da conveniência, os sistemas algorítmicos
reproduzem e reforçam frequentemente as hierarquias raciais.

Em segundo lugar, os estudiosos examinaram o papel dos algoritmos numa história mais longa
de vigilância e assimetria de informação (Zuboff2019; Pasquale2015). Nesta visão, os dados de
entrada necessários aos algoritmos para funcionar são constantemente (e muitas vezes
secretamente) extraídos de nós através de rastreamento online. Estes dados pessoais são vendidos
e explorados incessantemente para expandir a infra-estrutura de conhecimento dos governos e das
empresas com fins lucrativos. Tais regimes de vigilância, por sua vez, moldam as nossas identidades
e representações, transformando-nos em tipos específicos de sujeitos através de conjuntos distantes
de controlo e governamentalidade (Lyon2018; Haggerty e Ericson2003). Os trabalhos existentes
sobre extração de dados examinam a institucionalização cultural e política do modelo económico
atual, no qual os utilizadores online partilham os seus dados e trabalho gratuitamente com
plataformas que obtêm enormes lucros com base neste excedente comportamental (Terranova2000;
Scholz 2013). Por exemplo, Andrejevic (2003) considera que os reality shows forneceram um modelo
cultural para a emergência de uma economia interactiva baseada na vigilância, na qual ser visto é
cada vez mais visto como um desenvolvimento “produtivo” – um desenvolvimento que pode levar à
celebridade, à riqueza e até ao crescimento pessoal. Outros estudos relacionam o rastreamento
digital com a dinâmica de poder mais ampla dos aparelhos de vigilância mais antigos. Do sistema de
plantação ao chão de fábrica, a vigilância visava principalmente as populações negras, pardas,
pobres e as chamadas populações “desviantes”; a vigilância digital não é exceção (Browne2015;
Foucault 1975).
Por último, mas não menos importante, estudos críticos analisaram o papel dos algoritmos em lógicas
económicas mais amplas de racionalização, ligando a multiplicação de algoritmos, dados e métricas a
processos maiores de comensuração (Espeland e Stevens1998), homogeneização (Lamont et al.2014) e a
mercantilização neoliberal (Cerveja2018). Por exemplo, emA Sociedade Métrica,Mau (2018) argumenta que
os sistemas algorítmicos e as métricas que fornecem reforçam os processos existentes de comparação
relacionada com o estatuto e de competição de mercado, que por sua vez têm um impacto na forma como
as pessoas e as organizações se relacionam com formas quantificadas de desigualdade. Mau toma o
exemplo dos aplicativos de automonitoramento de saúde, humor e exercícios, que ele argumenta que
transformam os corpos em locais de competição de status baseada em dados (Mau2018, pág. 103). Ao
localizar os algoritmos dentro de dinâmicas mais amplas de comensuração e competição, estas críticas
económicas contribuem para uma melhor
Teoria e Sociedade

compreensão do papel dos sistemas computacionais na promoção de um tipo específico


de visão de mundo moral – uma que vê valor explícito na racionalização e padronização
entre domínios (Fourcade e Healy2017).
Estes estudos enraizados na crítica cultural, histórica e económica examinam as
conexões entre algoritmos e as estruturas mais amplas da vida social. Eles fazem
contribuições essenciais para o estudo das caixas pretas algorítmicas, mostrando como o
discurso dominante da magia tecnológica e da ininteligibilidade algorítmica pode servir
como uma cortina de fumaça que mascara o papel dos algoritmos na reprodução de
processos sociais importantes, como discriminação, vigilância e padronização. Uma
potencial limitação destas abordagens decorre do seu elevado nível de generalidade:
muitas vezes não prestam muita atenção às práticas locais e às características contextuais
que moldam a construção, difusão e recepção de algoritmos. Esta é precisamente a
questão que os métodos etnográficos procuram abordar.

Estudos etnográficos

Um princípio fundamental dos métodos etnográficos é compreender as representações, práticas e


culturas das pessoas que estão sendo analisadas, normalmente através de entrevistas e
observações pessoais.1Como podem os etnógrafos estudar algoritmos, especialmente dadas as
múltiplas camadas de opacidade que os rodeiam? Embora poucos estudos se concentrem
explicitamente no funcionamento interno dos sistemas algorítmicos, etnógrafos provenientes de
múltiplas formações disciplinares (incluindo antropologia, sociologia, comunicação, gestão e estudos
mediáticos/culturais) fizeram contribuições importantes para a nossa compreensão das tecnologias
computacionais, abordando-as a partir de dois aspectos: lados. Do lado da construção, os etnógrafos
examinaram as forças culturais e estruturais que moldam a forma como os algoritmos são
construídos. Do lado da recepção, os estudiosos analisaram as práticas e representações diárias que
afetam a forma como os resultados algorítmicos são utilizados.
Em primeiro lugar, no que diz respeito à produção de sistemas algorítmicos, existe um rico
conjunto de trabalhos etnográficos centrados no setor tecnológico, onde os etnógrafos analisam o
papel dos processos culturais e organizacionais na formação do tipo de tecnologias que são
construídas. Por exemplo, as empresas de Silicon Valley – e os seus imitadores – desenvolveram
normas profissionais e formas organizacionais específicas nos seus processos de produção. Estes
incluem hierarquias planas, pensamento baseado em projetos, autoatualização constante,
efervescência coletiva e intensa competição entre engenheiros (Kunda2006; Kunda2006; torneiro
2009; Zukin e Papadantonakis2017; Marwick2013). Tais condições estruturais, por sua vez, moldam a
forma como os trabalhadores da tecnologia e dos meios de comunicação se relacionam com o seu
trabalho e carreira, através de construções que os estudiosos chamam de “trabalho aspiracional” e
“trabalho de risco”, em que os trabalhadores tentam capitalizar o desenvolvimento futuro da
carreira, além da remuneração atual (Neff2012; Duffy2017; Duffy e Hund2015).

1Embora existam muitas variações sobre o que as pessoas entendem por etnografia, os etnógrafos de todas as disciplinas
normalmente concordam em vários pontos. Epistemologicamente, muitos etnógrafos confiam em alguma versão da “teoria
fundamentada” (Glaser e Strauss1967, mas veja também Burawoy1998, Timmermans e Tavory2012para diferentes abordagens),
começando com uma questão preliminar de pesquisa que evolui com base nos dados coletados durante o trabalho de campo.
Teoricamente, os métodos etnográficos partilham múltiplas afinidades com o interacionismo simbólico, que entende as interações
individuais como um alicerce fundamental da vida social (Mead1967; Blumer1969; Goffman 1959). Em termos de métodos, a
etnografia envolve frequentemente a observação participante, na qual os observadores se envolvem ativamente nas atividades das
pessoas que estudam.
Teoria e Sociedade

Em particular, devido à pressão para “escalar”, ela própria ligada ao papel do capital de risco, os
etnógrafos descobrem que os engenheiros tecnológicos tendem a confiar numa visão
“permanentemente beta” do mundo, que Neff e Stark definem como “uma visão organizacional
fluida”. forma resultante do processo de negociação entre usuários, funcionários e organizações
sobre o design de bens e serviços” (Neff e Stark2003, pág. 175). Tal mentalidade muitas vezes leva
engenheiros, cientistas da computação e gerentes de projeto a exagerar nas capacidades de seu
software algorítmico – especialmente a capacidade do software de escalar sem falhas – e a ocultar a
extensão do envolvimento de trabalhadores humanos que realizam parte do trabalho que os
algoritmos realizam. deveria estar fazendo (Shestakofsky2017; Sachs 2019). Como Irani (2015)
aponta, “software como serviço” muitas vezes esconde uma confiança em “seres humanos como
serviço”, um lema menos vendável, mas mais realista. Os trabalhadores humanos que realizam
trabalhos algorítmicos para empresas de tecnologia – anotadores de dados, moderadores de
conteúdo e outros “trabalhadores fantasmas” –, por sua vez, enfrentam status de emprego precários
e condições de trabalho extenuantes (Robert2019; Gray e Suri2019). As estruturas de emprego das
empresas tecnológicas, por sua vez, afectam os seus resultados algorítmicos. Por exemplo, Seaver (
2018) mostra como o repertório de “captura” de usuários é evocado pelos engenheiros quando
descrevem algoritmos de recomendação em plataformas de streaming. Esta visão dos utilizadores
como vida selvagem fugaz cuja atenção deve ser retida a todo o custo deve ser entendida dentro do
quadro “permanentemente beta”, no qual o trabalho, a atenção e o capital também são
conceptualizados como recursos escassos que devem ser capturados.
Em segundo lugar, os etnógrafos examinaram o lado da recepção dos sistemas algorítmicos,
analisando as práticas e representações dos utilizadores. Baseando-se em estudos de ciência e
tecnologia, especificamente no que Suchman et al. (1999) chamam de paradigma das “tecnologias
em uso” (ver também Orlikowski2000), estudos mostram que a maioria das pessoas tomou
consciência do papel dos algoritmos e ajustou as suas práticas online em conformidade. Muitos
usuários consideram os algoritmos profundamente opacos e se ressentem dessa inescrutabilidade.
Isto emerge particularmente claramente de estudos que analisam como os “trabalhadores de gig”
entendem as plataformas digitais (Uber, Lyft,Care. com, UpWork e assim por diante): muitos deles
reclamam da impenetrabilidade dos algoritmos que atribuem tarefas e tornam seus perfis visíveis
nas plataformas (Rosenblat2018; Ticona e Mateescu2018; Rosenblat e Stark2016)—um processo
Gray e Suri (2019) analisam como uma forma de “crueldade algorítmica”. Os usuários também
desenvolvem suas próprias representações e modelos de como esses sistemas complexos operam,
contando assim com “imaginários algorítmicos” que moldam a forma como eles interagem com
algoritmos (Bucher2016; Baym2018). Além disso, muitas vezes confiam em “fofocas
algorítmicas” (Bispo2019) para compartilhar informações entre pares sobre como tornar seu
conteúdo “pronto para algoritmos” (Gillespie2016).
No geral, as abordagens etnográficas lançam luz sobre a complexa mistura de aspectos sociais,
culturais e tecnológicos dos sistemas computacionais na nossa vida quotidiana. Eles fornecem dados
ricos e detalhados sobre como os algoritmos são construídos e usados. Do lado da produção, os
estudos etnográficos destacam afinidades importantes entre as culturas do local de trabalho e o
design algorítmico. Do lado da recepção, mostram como as práticas sociais medeiam os usos e o
impacto real dos algoritmos. Ao fazê-lo, as abordagens etnográficas lançam luz sobre a opacidade
algorítmica, revelando a necessária inscrição da tecnologia no mundo social (Orr1996; Leigh estrela
1999). Dito isto, a maioria dos etnógrafos não se concentra explicitamente nos algoritmos em si. Há
uma boa razão para isso: os etnógrafos só podem estudar lugares e práticas aos quais tenham
acesso. As diferentes dimensões da opacidade algorítmica mencionadas acima (por exemplo, sigilo
corporativo, analfabetismo técnico,
Teoria e Sociedade

ininteligibilidade e tamanho) tornam inerentemente difícil para os etnógrafos centralizarem suas


análises em algoritmos.
Um dos poucos etnógrafos a estudar algoritmos explicitamente, Seaver delineia diversas
“táticas” para “tornar algoritmos etnograficamente tratáveis” (Seaver2017, pág. 7; ver também
Lange et al.2018). Seaver sugere confiar em métodos de “eliminação” para coletar material
relevante em locais pouco conectados (bate-papos não oficiais, comunicados de imprensa,
atualizações de mídia social, salas de conferências do setor e assim por diante). Ele também
argumenta que os etnógrafos precisam levar a sério o material corporativo, prestando muita
atenção à “heteroglossia” e aos valores conflitantes que muitas vezes moldam os comunicados
de imprensa e as publicações. A próxima seção baseia-se na abordagem de Seaver para
fortalecer a estrutura metodológica para o estudo etnográfico de sistemas algorítmicos. Para
contornar alguns dos problemas ligados à opacidade algorítmica, sugiro adoptar uma
perspectiva epistemológica distinta do enquadramento da “caixa negra”, recorrendo, em vez
disso, ao conceito de “inscrição” da sociologia da tradução.

II. Além da caixa preta: Inscrevendo algoritmos na pesquisa


etnográfica

Até agora, discuti a opacidade dos algoritmos como uma dificuldade empírica, e não tanto
epistemológica. No entanto, descrever algoritmos como caixas pretas não é uma escolha neutra. Na
verdade, o “caixa preta” geralmente está longe de ser um processo acidental; nem esta metáfora é
usada apenas para descrever sistemas algorítmicos. Em todos os sectores, a caixa negra pode ser
analisada como um artefacto de legitimidade científica e tecnológica.
Latour defende precisamente este argumento quando escreve que “o trabalho científico e
técnico torna-se invisível pelo seu próprio sucesso. Quando uma máquina funciona de forma
eficiente, quando uma questão de facto é resolvida, é preciso concentrar-nos apenas nas suas
entradas e saídas e não na sua complexidade interna. Assim, paradoxalmente, quanto mais a
ciência e a tecnologia têm sucesso, mais opacas e obscuras elas se tornam” (Latour1999a, pág.
304). Para desconstruir a divisão estrita entre tecnologia e sociedade estabelecida através de
enquadramentos de caixa preta, Latour sugere concentrar-se em substituições e associações
dentro de conjuntos de humanos e não-humanos. Uma abordagem tão fluida recusa-se a
considerar as caixas negras tecnológicas como garantidas e muda os locais de estudo
existentes, passando “dos produtos finais à produção, de objectos estáveis ‘frios’ para
objectos ‘mais quentes’ e instáveis […]antes que a caixa feche e fique preta” (Latour1987, pág.
21). Inscreve explicitamente os objectos científicos e técnicos nas cadeias mais longas de
actantes humanos e não humanos que participam na criação, difusão e institucionalização do
conhecimento científico e técnico.
A chave nesta estrutura é o conceito de “matrícula”, teorizado mais explicitamente por
Callon (1986). Segundo Callon, é essencial analisar a dinâmica de associação, tradução e
emaranhamento que ocorre sempre que humanos e não humanos interagem. Seguir
estes fluxos de associação envolve prestar muita atenção ao processo de “inscrição”
através do qual humanos e não humanos começam a trabalhar juntos. Nas palavras de
Callon, “descrever a inscrição é, portanto, descrever o conjunto de negociações
multilaterais, testes de força e truques que acompanham os interesses [sic]e capacitá-los
a ter sucesso” (Callon1986, pág. 211). Ligar (1986) exemplifica ainda mais o que ele
entende por “interessement” – que pode ser traduzido como uma forma de
Teoria e Sociedade

incentivo – e “inscrição”, examinando as relações entre pescadores, investigadores e vieiras na


Baía de St. Brieuc, em França, ao longo da década de 1970. Após um período de colheita
excessiva que esgotou o número de vieiras na Baía de St. Brieuc, uma equipa de biólogos
marinhos franceses procurou implementar um método de cultivo que tinham visto no Japão: as
larvas eram ancoradas em colectores imersos no mar, onde podiam crescer abrigadas. de
predadores e depois libertados no oceano antes de serem colhidos. Eles convenceram os
pescadores locais, que inicialmente estavam relutantes, a deixá-los experimentar este método
na Baía de St. Brieuc. Isto significava que os pescadores não podiam colher vieiras durante o
período da experiência, incorrendo assim em perdas financeiras. Embora o primeiro ano da
experiência tenha sido bem sucedido (as larvas fixaram-se nos colectores), as iterações
seguintes falharam, por uma série de razões: as larvas não cresceram nos colectores, os
pescadores retomaram a pesca das vieiras, surgiram novos predadores, e assim sobre. O frágil
pacto que reunia temporariamente os biólogos marinhos, os pescadores locais e as vieiras
ruiu. Como conclui Callon: “Certamente os atores estudados foram confrontados com
diferentes tipos de incertezas. […]Eles trabalharam incessantemente sobre a sociedade e a
natureza, definindo e associando entidades, a fim de forçar alianças que se confirmaram serem
estáveis apenas para um determinado local em um determinado momento” (Callon1986, pág.
222). Note-se que o conceito de matrícula refere-se a processos mais performativos do que
simples interacções sociais: para Callon, matrículas bem-sucedidas podem criar dinâmicas
colectivas ao alinhar os interesses de constelações heterogéneas de actores – aqui eram
investigadores, pescadores e vieiras.
Essas descrições refinadas das negociações e inscrições entre actantes humanos e não
humanos estão no cerne da estrutura de Latour e Callon, que é frequentemente chamada de
“Teoria Ator-Rede” (TAR), embora Latour (1999) discorde do termo . A abordagem ANT tem sido
aplicada frutuosamente em estudos existentes de tecnologias digitais e algorítmicas (Turner
2005; Lewis e Westlund2015). Por exemplo, os estudiosos têm contado com a ANT para
acompanhar as cadeias de associações e inscrições que ocorrem em casos tão variados como
mapas eleitorais, sistemas de gerenciamento de conteúdo e algoritmos de bagagem
abandonada (Anderson e Kreiss2013; Holanda2019; Bellanova 2017). Isso significa estudar o
que Ananny e Crawford (2016) chamam de agenciamentos algorítmicos: “um sistema
algorítmico não é apenas código e dados, mas ummontagemde atores humanos e não-
humanos. (…)Poderíamos reformular a questão como: que tipo de reivindicações podem ser
feitas aentenderum ator-rede, e como esse entendimento está relacionado, mas distinto, de
simplesmentevendoum ator-rede?” (Ananny e Crawford 2016, pág. 11, destaques no original).

Minha resposta à questão metodológica de Ananny e Crawford é usar métodos


etnográficos e inscrições algorítmicas em conjunto. Os métodos etnográficos e as descrições
etnográficas densas são frequentemente a abordagem preferida para o estudo de matrículas e
associações, especialmente quando se relacionam com ciência e tecnologia. Como escreve
Latour: “Se exibirmos uma rede sociotécnica – definindo trajetórias por associação e
substituição de actantes, definindo actantes por todas as trajetórias em que eles entram,
seguindo traduções e, finalmente, variando o ponto de vista do observador – nós não há
necessidade de procurar causas adicionais. A explicação surge quando a descrição está
saturada” (Latour1999b, pág. 129). Latour baseou-se neste tipo de descrição etnográfica
saturada para transmitir os esforços coletivos de cientistas, ratos e artigos revisados por
pares em ambientes laboratoriais (Latour e Woolgar1986); funcionários, clientes e chaves
ponderadas em hotéis (Latour1991,1999a); ou juízes, corredores, papel
Teoria e Sociedade

arquivos e poeira no Conseil d'Etat (Latour2010). Os estudiosos da ciência e da tecnologia


argumentaram ainda que os métodos etnográficos são particularmente adequados para analisar as
práticas e traduções emergentes que fazem parte da “ciência em formação” (Latour e Woolgar 1986;
Knorr Cetina1999; ver também Suchman et al.1999; Leigh estrela1999).
Assim, a utilização conjunta de métodos etnográficos e da sociologia das matrículas pode ajudar
a escapar de algumas das questões intratáveis relacionadas com a opacidade algorítmica,
descentralizando a análise. Em vez de se concentrarem em “caixas negras” algorítmicas, os
etnógrafos podem estudar como os colectivos de actores humanos e não humanos emergem,
solidificam e evoluem ao longo do tempo. Para mapear como seria essa abordagem, o restante
desta seção segue Seaver (2017)'Sugestão de compartilhar “táticas” concretas. Ofereço um kit de
ferramentas de estratégias práticas – refração algorítmica, comparação algorítmica e saturação
algorítmica – que considero útil em meu próprio trabalho como etnógrafo que estuda sistemas
algorítmicos.

Refração algorítmica

O conceito de refração é derivado da física, onde se refere às mudanças de direção e força


que ocorrem sempre que uma onda de luz ou som passa de um meio para outro. Aplicado
aos algoritmos, estudar a refração implica prestar muita atenção às mudanças que
ocorrem sempre que os sistemas algorítmicos se desdobram em contextos sociais
existentes – quando são construídos, quando se difundem e quando são usados.
Algoritmos nunca existem em um vácuo social. Como vimos acima, a construção, circulação
e recepção de sistemas algorítmicos sempre ocorrem dentro de redes sociais e estruturas
institucionais densas. Estes incluem interações individuais, representações e normas de grupo,
dinâmicas e culturas organizacionais e estruturas em nível de campo. Sempre que os sistemas
algorítmicos entram nestas camadas coesas, os arranjos existentes são reconfigurados à
medida que as pessoas se posicionam em relação aos algoritmos e procuram inscrevê-las nas
suas formas institucionalizadas de fazer as coisas. Ao concentrarmo-nos nas ondas e
ondulações que ocorrem entre algoritmos e atores sociais, podemos examinar as refrações
que tais objetos criam e, no processo, analisar as cadeias de representações e práticas que
viajam através dos sistemas algorítmicos, moldando o seu impacto no processo. Para usar uma
metáfora relacionada, esta perspectiva implica que os algoritmos normalmente funcionam
comoprismasque pode revelar as prioridades existentes dentro de grupos, organizações e
campos, bem como as suas mudanças ao longo do tempo. Tal estratégia metodológica, por
sua vez, tem precedentes: sobrepõe-se parcialmente ao que Barley rotulou de “tecnologia
como ocasião para estruturação” (Barley1986; Bechky2003) e o que Orlikowski (2007) analisa
como “práticas sociomateriais”. No entanto, esta lente não foi implementada sistematicamente
no estudo de algoritmos.
Para dar uma ideia do que tal perspectiva implica, pode-se usar uma variedade de exemplos
sobre a construção (Shestakofsky2017; Sachs2019; Kotliar2020) e lados de recepção (Siles et al.
2020; Kolkman2020; Elis e Watkins2020). Aqui tomo o caso da recepção da análise da web na
produção de notícias online. Ao longo da década de 2010, editores da web e jornalistas
começaram a contar com programas de software que fornecem dados em tempo real sobre o
comportamento do leitor (incluindo visualizações de páginas, métricas de mídia social, tempo
gasto, fontes de tráfego, entre outros dados). A maioria das redações utiliza esses dados para
gerenciar seu processo editorial – por exemplo, a organização de suas páginas iniciais ou os
tipos de manchetes que anexam aos artigos de notícias. Diversos
Teoria e Sociedade

estudos etnográficos documentam a complexa dinâmica que molda o uso de programas


de software analíticos em redações na web (Anderson2011; Petre2015; Cristina2018;
Cristina2020a).
Com base nesses estudos, vários recursos parecem moldar os relacionamentos e as inscrições
que ocorrem entre os programas de software analítico e as equipes editoriais. Primeiro, a
organização interna das redações web (em particular a divisão do trabalho entre editores e
jornalistas) determina em parte quem é responsável pela maximização do tráfego. Em segundo
lugar, a posição das organizações noticiosas no campo jornalístico e a sua quantidade de capital
simbólico afectam a forma como os jornalistas podem proteger as elevadas ambições editoriais na
redacção. Terceiro, a forma como os jornalistas veem o seu público determina a forma como eles
compreendem os números do tráfego. Neste caso, como em muitos outros, os algoritmos
funcionam como prismas que espelham e reforçam as fracturas existentes nas redações e
organizações noticiosas. Por outro lado, as redações espelham e reforçam de diferentes maneiras as
aberturas simbólicas criadas pelos programas de software analítico. Por exemplo, na minha própria
pesquisa etnográfica comparando o papel da análise de audiência nas redações dos EUA e da
França, percebi que a análise de audiência poderia ter usos surpreendentemente diferentes,
dependendo da organização. Em alguns casos, os programas de software analítico foram
compartimentados, criticados como indicadores de pressão do mercado e condenados como
“métricas de vaidade” sem sentido. Noutros, foram acolhidos como uma forma de feedback
democrático e um símbolo da relevância de alguém na esfera pública algorítmica (Christin2020a).
Estes processos mútuos de inscrição e interdependência entre jornalistas e analistas também
mudaram ao longo do tempo, reconfigurando as relações que ligam tecnologias e atores sociais.
Portanto, concentrar-se na refração algorítmica e tratar as ferramentas algorítmicas como
prismas que refletem e reconfiguram a dinâmica social pode servir como uma estratégia útil para os
etnógrafos contornarem a opacidade algorítmica e enfrentarem as complexas cadeias de
intervenções humanas e não humanas que, juntas, constituem os sistemas algorítmicos.

Comparação algorítmica

Uma segunda estratégia para a etnografia algorítmica baseia-se na comparação para pensar
analiticamente entre os casos. Ao examinar algoritmos entre sectores através de uma abordagem de
semelhanças e diferenças, os etnógrafos podem ajudar a explicar o que é específico sobre cada
instrumento técnico, independentemente de quão opaco possa ser o seu código subjacente.
As etnografias comparativas têm uma longa história nos estudos de ciência e tecnologia. Sempre
que os estudiosos examinam cenários que apresentam complexidade técnica ou científica inerente,
a comparação de casos pode ajudar a esclarecer o que há de específico em cada um deles,
especialmente quando as características variáveis entre os casos são claramente distinguidas. Por
exemplo, em seu estudo de culturas epistêmicas, Knorr Cetina (1999) realizou trabalho de campo
etnográfico em dois laboratórios científicos, um de biologia molecular e outro de física de altas
energias. Ela baseou-se nesta comparação para identificar várias linhas ao longo das quais as
culturas científicas dos laboratórios diferiam, incluindo o papel epistemológico dos dados empíricos,
os tipos de relações sociais que surgiram nos laboratórios e os regimes de autoria científica. Da
mesma forma, em A elaboração da lei (2010), Latour complementou sua análise etnográfica do
Conseil d'Etat (o mais alto tribunal administrativo francês) comparando-o a um laboratório de
neurociências, o que lhe permitiu contrastar as normas e dinâmicas do direito e da ciência,
especialmente no que diz respeito à ideia de “estabilidade ”(Latour2010, pág. 243).
Teoria e Sociedade

Tal abordagem comparativa também pode lançar luz sobre sistemas algorítmicos complexos e opacos
(Anderson e Kreiss2013; Cristina2017; Griesbach et al.2019). Para fornecer um exemplo concreto,
concentro-me aqui na justiça criminal, um domínio onde os algoritmos são frequentemente criticados pela
sua opacidade, especialmente devido ao seu papel na perpetuação do preconceito e da discriminação, com
consequências dramáticas para os indivíduos e as comunidades (Angwin et al.2016; Benjamin2019; O'Neil
2016). Numa etnografia comparativa entre departamentos de polícia e tribunais criminais, comparamos
como a polícia e os profissionais jurídicos usam algoritmos preditivos (Brayne e Christin2020). Para a
polícia, estes incluem programas de software preditivos baseados em pessoas e locais; nos tribunais, os
juízes e os procuradores baseiam-se normalmente em diversas ferramentas ou software de avaliação de
risco que fornecem “pontuações de risco” preditivas para avaliar o risco de reincidência dos arguidos.
Primeiro documentamos semelhanças: em ambas as organizações, a polícia e os profissionais jurídicos
temiam que os algoritmos levassem a uma maior vigilância gerencial, à desqualificação e à potencial
substituição.
No entanto, diferenças significativas também emergem na comparação, primeiro na lógica intrínseca dos
próprios algoritmos e, segundo, na forma como são implementados. No policiamento, os algoritmos preditivos
funcionam normalmente como tecnologias de arrasto: rastreiam potenciais crimes e criminosos, armazenam e
exploram os dados que recolhem ao longo do tempo, ao mesmo tempo que rastreiam os polícias num contexto
de recursos limitados. Em vez disso, nos tribunais, as ferramentas de avaliação de risco funcionam principalmente
como tecnologias de triagem (Christin2020b): o seu papel principal não é tanto recolher dados
indiscriminadamente sobre os arguidos, mas sim classificar os arguidos individuais em categorias de alto ou baixo
risco, a fim de combiná-los com as opções de encarceramento e programas de reabilitação existentes. Além disso,
os algoritmos apresentam diferentes níveis de opacidade, pelo menos de acordo com os polícias e profissionais
jurídicos que os utilizam: os algoritmos preditivos no policiamento não são vistos como particularmente opacos,
enquanto os profissionais jurídicos consideram muitas vezes as ferramentas de avaliação de risco profundamente
misteriosas e problemáticas. Estas diferenças entre os instrumentos são amplificadas pelas características
organizacionais distintas dos departamentos de polícia, que são altamente hierárquicos, enquanto os tribunais
criminais são mais fragmentados, especialmente nos locais onde os juízes são eleitos. Consequentemente, os
algoritmos preditivos são implementados de forma mais estrita no policiamento do que nos tribunais criminais,
conduzindo, por sua vez, a diferentes efeitos no poder discricionário e no potencial discriminatório dos agentes da
polícia e dos profissionais do direito (Brayne e Christin2020, pág. 13).

Assim, a comparação algorítmica pode lançar luz não apenas sobre os usos dos sistemas
algorítmicos, mas também sobre o seu funcionamento interno, independentemente de quão opacos
e proprietários sejam. O estudo analisado acima comparou algoritmos que não possuem o mesmo
nível de opacidade. Tal comparação é relevante na medida em que permite aos etnógrafos analisar o
papel daquilo que Kiviat (2019) chama de “teorização causal” – compreensões e justificativas leigas
da lógica por trás das classificações algorítmicas – na formação do impacto dos sistemas
algorítmicos de “caixa preta”.

Triangulação algorítmica

A terceira e última estratégia, que chamo de triangulação algorítmica, depende explicitamente


de algoritmos para coletar dados qualitativos ricos. Nas ciências sociais, o conceito de
triangulação - que é emprestado da geometria e das técnicas de levantamento topográfico -
refere-se amplamente à combinação de múltiplos métodos de pesquisa, ângulos e materiais
no estudo do mesmo fenômeno. Aqui utilizo o conceito de triangulação mais especificamente
para me referir a três desafios da pesquisa etnográfica, nomeadamente as questões
Teoria e Sociedade

de saturação, posicionalidade e desengajamento. Argumento que os etnógrafos podem utilizar algoritmos


para abordar todos os três.
Primeiro, o conceito de saturação nos métodos etnográficos refere-se à questão
(frequentemente colocada tanto por estudantes como por etnógrafos convictos) de quando se deve
parar de fazer trabalho de campo. A esta pergunta, os etnógrafos geralmente respondem com os
seguintes passos. A pesquisa etnográfica baseia-se num processo de iteração (por exemplo, fazer
trabalho de campo, retornar às anotações e transcrições, ler a literatura relevante, redefinir a
questão de pesquisa, voltar ao campo, e assim por diante). Em algum momento deste ciclo, quando
os etnógrafos tiverem uma noção clara da sua questão de investigação, deverão envolver-se numa
“amostragem teórica” (Charmaz2006), que consiste em buscar explicitamente pessoas e casos que
maximizem a variação em relação ao ângulo específico que decidiram focar. Em algum momento
deste processo de amostragem teórica, os etnógrafos deveriam começar a observar as mesmas
situações, discursos e práticas repetidamente; o trabalho de campo deve tornar-se repetitivo. Isto
significa que atingiram a saturação empírica; talvez seja o momento certo para começar a se
desligar do campo para se concentrar na análise e na redação.
Em segundo lugar, e de forma relacionada, o trabalho de campo etnográfico não pode ser
separado da questão da posicionalidade. Um princípio fundamental dos métodos etnográficos é que
o conhecimento é necessariamente situado, de diversas maneiras. O acesso do etnógrafo ao campo
é mediado por suas características sociodemográficas (gênero, raça e etnia, classe, idade, etc.)
(Bourdieu1999). Assim, mesmo que venham a campo com a mesma tarefa e questão de pesquisa,
dois etnógrafos com características sociodemográficas distintas nunca terão exatamente o mesmo
acesso aos grupos e instituições que estudam, não serão percebidos da mesma forma e não serão
percebidos da mesma forma. não coletará os mesmos dados. Mais profundamente, os etnógrafos
trazem os seus próprios valores, pontos de vista e crenças políticas para os seus projetos de
investigação; tais valores necessariamente moldam o que eles veem e como o interpretam. Em vez
de obliterar estas diferenças, os etnógrafos procuram reconhecer esta situação e torná-la uma
componente explícita do processo de investigação. Um conceito central aqui é a ideia de
reflexividade (Lichterman2015). Através da reflexividade, os etnógrafos tentam tornar os seus
próprios preconceitos e pontos cegos tão explícitos quanto possível, discutindo como estes podem
ter moldado as suas questões e dados de investigação e, de forma mais ampla, procurando
compreender o papel que desempenham como observadores e observadores participantes nos
locais de campo. eles estudam. Os estudiosos sugerem confiar em experimentos mentais para
facilitar esse processo. Por exemplo, Duneier (2011) oferece a ideia de um “ensaio etnográfico”, onde
o etnógrafo imagina as reações das pessoas que se recusaram a falar com ele durante o trabalho de
campo caso lessem a análise final.
Em terceiro e último lugar, a investigação etnográfica é necessariamente moldada pela dinâmica
do desligamento – uma parte importante, mas pouco estudada, do trabalho de campo. De acordo
com a neve (1980), o desligamento envolve diversas questões sobrepostas. Quando e por que os
etnógrafos deixam o campo? Quais são as restrições práticas que moldam esse processo de
desligamento? E quais são as emoções e preocupações éticas que afetam a forma como os
etnógrafos lidam com o desligamento? Baseando-se em estudos etnográficos clássicos envolvendo
longas viagens e imersão profunda em comunidades remotas, Snow (1980) constata que os
etnógrafos normalmente experimentam sentimentos de alienação quando voltam para “casa”, bem
como uma forma de culpa em relação aos informantes e entrevistados que os ajudaram e
acolheram. Estas emoções moldam a forma como os etnógrafos escrevem e publicam as suas
análises; também afectam as formas como os etnógrafos escolhem partilhar as suas descobertas
com as pessoas que estudaram.
Teoria e Sociedade

Saturação, reflexividade e desligamento são três aspectos-chave da triangulação e, de modo


mais geral, do processo de coleta de dados etnográficos ricos. Aqui defendo que os etnógrafos
podem beneficiar da inscrição explícita de sistemas algorítmicos para abordar todas as três
questões. Primeiro, em relação à saturação, algoritmos podem ser mobilizados para ajudar a
expandir os limites do local de campo e envolver-se na amostragem teórica. Depois de os etnógrafos
terem definido o seu ângulo de investigação específico, podem inserir os termos-chave e os
intervenientes em sistemas algorítmicos e examinar os resultados, como um meio de analisar a
variação. Em segundo lugar, no que diz respeito à posicionalidade e à reflexividade, os sistemas
algorítmicos podem iluminar a posição do etnógrafo no campo – ou, para usar a opinião de Burrell (
2009) prazo, na rede. Terceiro, os sistemas algorítmicos estão a mudar a natureza do desligamento,
especialmente através de ligações duradouras nas redes sociais entre etnógrafos e os seus
informantes. Note-se que todas as três dinâmicas não são completamente novas: etnógrafos digitais
e virtuais mobilizaram estratégias semelhantes nos seus estudos de grupos online e mundos virtuais
(Boellstorff et al.2012; Coleman2014; Knox e Nafus2018; Beaulieu2010; Hine2015; Hjort et al.2017;
Markham e Baym2009). Aqui me baseio nesta tradição, mas adiciono um foco explícito nas
matrículas algorítmicas.
As mediações algorítmicas desempenham um papel particularmente central nos estudos
etnográficos de comunidades em plataformas de redes sociais. Como exemplo, pode-se tomar
o caso dos criadores de conteúdo e “influenciadores” que produzem e compartilham conteúdo
online, como vídeos, fotos e postagens de blog no YouTube, Instagram, Twitter, TikTok e assim
por diante (Marwick 2013; Duffy e Hund2015; Duffy2017; Bispo2019; Stuart2020; Burgess e
Verde2018). Os algoritmos das plataformas determinam a visibilidade e as receitas dos
influenciadores; também medeiam as relações que ocorrem entre os influenciadores, bem
como os contactos entre etnógrafos e potenciais entrevistados. Foi isso que vivenciamos em
um projeto sobre canais de “drama” ou “chá” do YouTube, que produzem vídeos populares
cobrindo os conflitos e escândalos que ocorrem entre as principais celebridades do YouTube
(Christin e Lewis2020). Nosso estudo etnográfico inscreveu explicitamente tecnologias
algorítmicas no processo de pesquisa de diversas maneiras. Para construir uma amostra
robusta de canais de drama, lemos fóruns online dedicados a conversas sobre drama no
YouTube, como o subreddit r/Beauty Guru Chatter. Assistimos aos vídeos dos criadores de
dramas no YouTube e os seguimos ou nos inscrevemos em seus canais no YouTube, Instagram
e Twitter. Através destes contactos nas redes sociais, mobilizámos ativamente os sistemas
algorítmicos que sustentam as plataformas das redes sociais como ferramentas para nos
ajudar a identificar potenciais entrevistados. Assim, contamos com as recomendações
algorítmicas das plataformas para ampliar nossa lista de entrevistados: entramos em contato
com todos os criadores relevantes sugeridos pela seção “Recomendado” do YouTube, “Quem
Seguir” do Twitter e “Recomendado para Você” do Instagram.
Além de incluir recomendações explicitamente algorítmicas para expandir os limites do
nosso local de campo, as plataformas de redes sociais tornaram-se locais indispensáveis para
a condução do nosso trabalho de campo etnográfico. Com o tempo, percebemos que os canais
de drama não apenas cobriam o drama que acontecia entre as principais celebridades do
YouTube, mas também cobriam frequentemente o drama que acontecia entre si, postando e
reagindo ao conteúdo uns dos outros. Consequentemente, além de entrevistar criadores de
dramas e analisar sua produção on-line, acompanhamos cuidadosamente essas trocas, tirando
capturas de tela e arquivando-as para acompanhar as mudanças nas alianças e rixas que
moldam a comunidade dramática. Ao fazê-lo, imitamos conscientemente as práticas dos
nossos entrevistados. Ao longo das entrevistas, os criadores nos explicaram que, para
Teoria e Sociedade

para coletar dados sobre celebridades do YouTube, eles confiaram em alertas automáticos e nos chamados
“recibos” (por exemplo, capturas de tela de postagens comprometedoras nas redes sociais) para rastrear os
conflitos que surgiram no YouTube, no Twitter e no Instagram. Acabamos adotando a mesma estratégia em
nosso estudo sobre criadores de dramas.
Ao longo das entrevistas, percebemos ainda que a nossa posição na comunidade dramática
era inteiramente mediada por plataformas de redes sociais. Os criadores do canal discutiram
entre si suas entrevistas conosco, por meio de mensagens privadas e chats em grupo em
diferentes aplicativos e plataformas. Vários deles nos disseram que conversaram com outras
pessoas que já haviam sido entrevistadas para saber o que esperar; outros conversaram com
seus contatos antes de concordarem com a entrevista. Em vários casos, as mensagens no
Twitter que trocaram entre si foram-nos enviadas acidentalmente, dando-nos uma ideia das
suas interacções e percepções sobre nós. Finalmente, nos encontramos envolvidos em parte
do drama que ocorre entre os criadores. Por exemplo, um de nossos participantes revelou no
final de uma entrevista que estava nos gravando e perguntou se poderia postar em seu canal;
mais tarde percebemos que isto fazia parte de um esforço deste criador de drama para desviar
a atenção da comunidade dramática de um escândalo de racismo em que estavam implicados.
Isto, por sua vez, deu-nos pistas sobre a nossa posição no terreno. Como investigadores
associados a uma universidade de prestígio, cuja presença online e perfis nas redes sociais
poderiam ser facilmente analisados e validados, representávamos uma potencial fonte de
legitimidade para criadores online que por vezes se descreviam (mais ou menos a brincar)
como a “súcubo da Internet. ”
Por último, mas não menos importante, os algoritmos das plataformas de redes sociais
continuaram a moldar a nossa compreensão dos canais de drama, mesmo depois de terminada a
parte intensiva do nosso trabalho de campo. Depois de terminar a primeira leva de entrevistas,
continuamos acompanhando as interações entre os criadores do drama. Continuamos
acompanhando-os nas plataformas de mídia social; os criadores de dramas, por sua vez, às vezes
nos enviavam mensagens ou textos com “recibos” ou capturas de tela que achavam que poderiam
ser do nosso interesse – o que por si só poderia ser analisado como uma estratégia de
instrumentalização. Muitos criadores nos seguiram em plataformas de mídia social (principalmente
Twitter), às vezes reagindo às nossas postagens, o que indicava que nossos perfis eram visíveis por
algoritmos para eles. Neste contexto, o “desengajamento” assumiu uma forma muito diferente dos
estudos etnográficos clássicos analisados por Snow (1980). Na verdade, isso nos fez perceber que
não houve desligamento:para o bem ou para o mal, nossa compreensão da comunidade dramática
permaneceu informada pelo fluxo contínuo de notificações que recebemos sobre os
desenvolvimentos que ocorrem entre os criadores. Estas ligações algorítmicas contínuas, por sua
vez, levantam questões importantes sobre como partilhar e divulgar resultados etnográficos online.
Nos casos em que os etnógrafos estudaram comunidades online mais problemáticas ou violentas,
como o grupo Anonymous (Coleman 2014) ou o chamado “Alt Right” no YouTube (Lewis2018), as
pessoas estudadas reagiram negativamente às publicações. Assim, as ligações algorítmicas entre
etnógrafos e os seus informadores podem transformar-se em assédio online em grande escala,
incluindo doxing (a publicação online de informações privadas ou de identificação) e ameaças de
morte, levantando assim a questão de como as universidades e instituições de investigação podem
proteger os investigadores de retaliações. nesses contextos.
Nesta seção, em vez de focar na opacidade intrínseca dos algoritmos de caixa
preta, sugeri prestar mais atenção às múltiplas inscrições, refrações e mediações que
ocorrem entre atores sociais e sistemas algorítmicos. No processo, surgiram dois
tipos distintos de matrículas. O primeiro tipo de matrículas se desenrolou em
Teoria e Sociedade

os locais de campo em estudo – nas organizações, redes e coletivos onde os algoritmos são
construídos, circulam e são colocados em uso. O segundo tipo de inscrição moldou o próprio
processo de investigação, através do uso explícito de sistemas algorítmicos por etnógrafos.
Estas duas facetas do conceito de inscrição devem ser consideradas em conjunto: atores
sociais, algoritmos e investigadores participam todos nas mesmas configurações, procurando
e muitas vezes não conseguindo inscrever-se mutuamente nos seus respetivos programas. Tal
abordagem reinsere os cientistas sociais nas dinâmicas que estudam, sem lhes conferir
qualidades epistemológicas únicas.

Discussão e conclusão

EmO Jornalista e o Assassino,Malcom (1989) discute a relação dialética entre jornalistas e suas
fontes. Enquanto muitos arguidos que colaboram com jornalistas tentam provar a sua
inocência, os jornalistas procuram principalmente contar uma boa história na esperança de
escrever um best-seller. Malcolm examina o engano e a manipulação mútua que moldam o seu
relacionamento, bem como o desequilíbrio de poder entre eles, à medida que cada uma das
duas partes procura envolver a outra nos seus próprios objetivos. No parágrafo inicial, que se
tornou canônico em muitos programas de jornalismo, ela escreve: “Todo jornalista que não é
tão estúpido ou cheio de si para perceber o que está acontecendo sabe que o que faz é
moralmente indefensável. Ele é uma espécie de homem de confiança, que se aproveita da
vaidade, ignorância ou solidão das pessoas, ganhando sua confiança e traindo-as sem
remorso” (Malcolm1989, pp. 3–4).
A análise de Malcolm tem limitações quando a aplicamos ao trabalho de campo etnográfico:
é demasiado individualista e não leva em conta a dinâmica colectiva e institucional que molda a
relação entre etnógrafos e os seus informantes. No entanto, ela levanta questões relevantes
para o estudo social dos algoritmos. Como vimos, a relação entre pesquisadores e algoritmos é
igualmente dialética. Os algoritmos são poderosos e opacos; eles querem saber mais sobre
nós, extrair nossas informações pessoais e fornecer conteúdo relevante aos nossos olhos, a
fim de nos manter nas plataformas que normalmente atendem. Por outro lado, para avançar
nas suas carreiras académicas, os investigadores tentam persuadir algoritmos opacos a
fornecer mais informações sobre si próprios. Em outras palavras, queremos aprender mais
sobre algoritmos, e os algoritmos querem saber mais sobre nós. Tal como no caso do jornalista
e do assassino analisado por Malcolm, a complicada dança entre investigadores e algoritmos
baseia-se principalmente no engano e na manipulação.
Neste artigo sugeri diversas estratégias para esclarecer esta dança e torná-la mais
explícita. Baseando-me na sociologia da tradução, argumentei que deveríamos trabalhar
comalgoritmos para contornar sua opacidade. Este quadro metodológico baseia-se e
procura fortalecer muitos estudos etnográficos excelentes sobre sistemas algorítmicos,
sua construção e seus usos. Especificamente, apresento três estratégias práticas para a
inclusão de algoritmos na pesquisa etnográfica: refração algorítmica, que vê os
algoritmos como prismas que transformam e são transformados pela dinâmica social ao
seu redor; comparação algorítmica, que utiliza uma abordagem de semelhanças e
diferenças para identificar as características distintas dos instrumentos técnicos e seus
usos relacionados; e a triangulação algorítmica, que se baseia em sistemas algorítmicos
para reunir dados qualitativos ricos, refletir sobre a posição de alguém na rede e desligar-
se – ou não – do campo.
Teoria e Sociedade

As sugestões e estratégias fornecidas aqui não são prescritivas. Em vez disso, baseiam-se
na minha experiência como etnógrafo de sistemas algorítmicos e leitor da literatura sobre o
tema. Um valor central da investigação etnográfica contemporânea é tentar tornar explícito
tanto quanto possível o processo de investigação para a comunidade etnográfica como um
todo. Assim, é importante documentar e refletir sobre as escolhas, valores e atalhos que
moldam o relacionamento de alguém com a área. Os pesquisadores que estudam sistemas
algorítmicos podem descobrir que a refração, a comparação e a triangulação algorítmica são
categorias úteis para pensar; ou podem criar suas próprias estratégias e táticas. No geral, o
objetivo é criar um conjunto de ferramentas metodológicas mais estruturado e deliberado
para abordar estes objetos complexos.
Para concluir, pode-se pensar em casos limites onde tal abordagem etnográfica de matrículas
algorítmicas pode não ser viável. Primeiro, a questão do acesso continua a ser crucial e complicada
para os etnógrafos que estudam algoritmos, especialmente no lado da construção. As empresas
tecnológicas e os seus departamentos de engenharia são profundamente cautelosos e reservados,
não apenas em relação a etnógrafos e académicos, mas de forma mais ampla em relação a todos os
tipos de discurso público e relatórios sobre o seu funcionamento interno (Silverman2020). Isso
representa um claro desafio para os etnógrafos que estudam algoritmos. Podemos esperar que as
empresas tecnológicas e as instituições de investigação desenvolvam novas pontes para permitir um
acesso significativo, mas, entretanto, seguindo Hannerz (2003, pág. 213), talvez tenhamos que
concordar que “a etnografia é uma arte do possível, e pode ser melhor ter um pouco dela do que
nenhuma”. As estratégias aqui delineadas vão nessa direção, descentralizando o foco etnográfico
dos algoritmos de caixa preta para o estudo das matrículas algorítmicas.
Em segundo lugar, em todos os exemplos de sistemas algorítmicos discutidos até agora, os seres
humanos têm sido fundamentais para o quadro: eles constroem as tecnologias, implementam-nas e
utilizam-nas nas suas vidas quotidianas. Por outras palavras, os humanos estão claramente no ciclo
algorítmico, o que torna o trabalho etnográfico não só possível, mas também importante. Mas e os
sistemas totalmente automatizados que interagem entre si? Pode-se pensar em drones autônomos,
negociações de alta frequência ou entrega de publicidade on-line, entre outros exemplos (Knorr-
Cetina2016; McKenzie2019). No entanto, mesmo nestes casos, os etnógrafos encontram pessoas e
instituições a rastejar pelas fendas dos sistemas automatizados, fazendo escolhas essenciais na
concepção, manutenção e “reparação” dos algoritmos (Elish2019; Elis e Watkins2020). Ao contrário
das evocações distópicas da inteligência artificial geral totalmente dissociada da intervenção
humana, os etnógrafos precisam de prestar muita atenção a estas formas evolutivas de
responsabilidade social dentro de sistemas automatizados.

AgradecimentosGostaria de agradecer a Sharon Zukin, John Torpey, Fred Turner, Melissa Valentine, Rebecca
Hinds e aos participantes do Simpósio de Lançamento do Centro de Cultura e Sociedade Digital (Universidade da
Pensilvânia, Escola de Comunicação Annenberg), ao Médialab (Sciences-Po )/Centre Internet et Société (CNRS) e ao
workshop Communication Works in Progress (CWIP) (Universidade de Stanford) pelos seus comentários sobre
versões anteriores deste artigo. Esta pesquisa foi apoiada pela Cátedra “Grandes Mudanças Sociais” (Sorbonne
Université – Institut d'Etudes Avancées de Paris).

Referências

Abebe, R., Barocas, S., Kleinberg, J., Levy, K., Raghavan, M. e Robinson, DG (2020). Funções para
computação na mudança social. Na Conferência sobre Justiça, Responsabilidade e Transparência (FAT* '20),
Teoria e Sociedade

27 a 30 de janeiro de 2020, Barcelona, Espanha. ACM, Nova York, NY, EUA, 9 páginas.https://arxiv.
org/pdf/1912.04883.pdf.
Anderson, CW (2011). Entre públicos criativos e quantificados: métricas da Web e mudanças nos padrões de
trabalho jornalístico em redações locais dos EUA.Jornalismo, 12(5), 550–566.
Anderson, CW e Kreiss, D. (2013). Caixas pretas como capacidades e restrições à ação: eleições
política, jornalismo e dispositivos de representação.Sociologia Qualitativa, 36,365–382.
Andrejevic, M. (2003).Reality TV: O trabalho de ser assistido.Nova York: Rowman & Littlefield Publishers.
Angwin J., Larson, J., Mattu, S. e Krichner, L. (2016). Viés de máquina.ProPública,23 de maio de 2016.
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.
Ananny, M. e Crawford, K. (2016). Ver sem saber: Limitações do ideal de transparência e sua
aplicação à responsabilidade algorítmica.Novas Mídias e Sociedade, 20(3), 973–989.
Cevada, SR (1986). A tecnologia como ocasião de estruturação: evidências de observações de tomógrafos
e a ordem social dos departamentos de radiologia.Ciência Administrativa Trimestral, 31(1), 78–108. Barocas,
S., Rosenblat, A., boyd, d., Gangdharan, SP, e Yu, P. (2014). Dados e direitos civis: Tecnologia
cartilha. Conferência sobre Dados e Direitos Civis, outubro de 2014.https://papers.ssrn.com/sol3/papers.cfm?
abstract_id=2536579.
Barocas, S., & Selbs, AD (2016). O impacto díspar do big data.Revisão da Lei da Califórnia, 104,671–732.
Baym, NK (2018).Tocando para a multidão: Músicos, público e o trabalho íntimo de conexão.Novo
York: Imprensa da Universidade de Nova York.

Beaulieu, A. (2010). Da co-localização à co-presença: mudanças no uso da etnografia para o estudo da


conhecimento.Estudos Sociais da Ciência, 40(3), 453–470.
Bechky, BA (2003). Lições práticas: Artefatos no local de trabalho como representações da jurisdição ocupacional.
Jornal Americano de Sociologia, 109(3), 720–752.
Cerveja, D. (2018).The Data Gaze: Capitalismo, Poder e Percepção.Londres: Sage Publishing. Bellanova, R. (2017).
Digital, política e algoritmos: governando os dados digitais através das lentes dos dados
proteção.Jornal Europeu de Teoria Social, 20(3), 329–347.
Benjamim, R. (2019).Corrida atrás da tecnologia: ferramentas abolicionistas para o novo código Jim.Cambridge: Política. Bispo, S.
(2019). Gerenciando a visibilidade no YouTube por meio de fofocas algorítmicas.Novas Mídias e Sociedade,On-line
Primeiro.

Blumer, H. (1969). Sociedade como interação simbólica. Em H. Blumer (Ed.),Interação simbólica.Berkeley:


Imprensa da Universidade da Califórnia.

Boellstorff, T., Nardi, B., Pearce, C. e Taylor, TL (2012).Etnografia e mundos virtuais: um manual de
método.Princeton: Princeton University Press.
Bourdieu, P. (1999). Entendimento. P.p. 607-626 pol.O Peso do Mundo: Sofrimento Social em
Sociedade contemporânea.Stanford: imprensa da Universidade de Stanford.

Brayne, S. e Christin, A. (2020). Tecnologias de previsão do crime: A recepção de algoritmos no policiamento


e tribunais criminais.Problemas sociais,Online primeiro, 1–17.
Browne, S. (2015).Assuntos obscuros: sobre a vigilância da negritude.Durham, Carolina do Norte: Duke University. Bucher,
T. (2016). O imaginário algorítmico: explorando os efeitos comuns dos algoritmos do Facebook.
Informação, Comunicação e Sociedade, 20(1), 30–44.
Buolamwini, J. e Gebru, T. (2018). Tons de gênero: disparidades de precisão interseccional. EmComercial
Classificação de gênero. Procedimentos de pesquisa de aprendizado de máquina81, pp. 1-15. Conferência sobre
Justiça, Responsabilidade e Transparência.http://proceedings.mlr.press/v81/buolamwini18a/buolamwini18a.pdf.
Burawoy, M. (1998). O método de caso estendido.Teoria Sociológica, 16(1), 4–33.
Burgess, J. e Green, J. (2018).YouTube: Vídeo online e cultura participativa.Cambridge: Política. Burrell, J. (2016). Como a
máquina 'pensa': Compreendendo a opacidade em algoritmos de aprendizado de máquina.Grandes dados
e Sociedade, 3(1), 205395171562251.
Burrell, J. (2009). O sítio de campo como rede: uma estratégia de localização da pesquisa etnográfica.Métodos de campo,
21(2), 181–199.
Callon, M. (1986). Alguns elementos de uma sociologia da tradução: Domesticação das vieiras e
pescadores da Baía de St. Brieuc. P.p. 196-223 em J. lei (ed.)Poder, ação e crença: uma nova sociologia do
conhecimento?Abingdon: Routledge.
Cetina, K. (2016). E se as telas ficassem pretas? A chegada dos agentes de software. Conferência de Trabalho sobre
Sistemas e Organizações de Informação (ISO), dezembro de 2016, Dublin, Irlanda. 3–16.https://hal.inria.fr/
hal-01619192/document.
Charmaz, K. (2006).Construindo teoria fundamentada: um guia prático por meio de análise qualitativa.Novo
York: Publicações Sage.
Teoria e Sociedade

Chesterman, S. (2020). Através de um vidro, sombriamente: a inteligência artificial e o problema da opacidade.


Próximo,Jornal Americano de Direito Comparado.Obtido de:https://papers.ssrn.com/sol3 /
papers.cfm?abstract_id=3575534.
Cristina, A. (2020a).Métricas em ação: Jornalismo e o significado contestado dos algoritmos.Princeton:
Imprensa da Universidade de Princeton.

Cristina, A. (2020b). O que os dados podem fazer: Uma tipologia de mecanismos.Revista Internacional de Comunicação,
14(2020), 1115–1134.
Christin, A. e Lewis, R. (2020). O drama das métricas: status e hierarquias no drama do YouTube
criadores. Manuscrito não publicado.
Cristina, A. (2018). Contando cliques: Quantificação e variação no webjornalismo nos Estados Unidos e
França.Jornal Americano de Sociologia, 123(5), 1382–1415.
Cristina, A. (2017). Algoritmos na prática: Comparando webjornalismo e justiça criminal.Grandes dados e
Sociedade, 4(2), 1–14.
Coleman, EG (2014).Hacker, fraudador, denunciante, espião: as muitas faces do anônimo.Londres e
Nova York: Verso Books.
Corbett-Davis, S., Pierson, E., Feller, A. e Goel, S. (2016). Um programa de computador usado para fiança e
as decisões de condenação foram rotuladas como tendenciosas contra os negros: na verdade, não é tão claro.OWashington
Post.17 de outubro de 2016.
Crawford, K. e Schultz, J. (2014). Big data e devido processo: Rumo a uma estrutura para corrigir problemas preditivos
danos à privacidade.Revisão de Direito da Faculdade de Boston, 55(1).

Diakopoulos, N. (2013). Responsabilidade algorítmica.Jornalismo Digital, 3(3), 398–415.


Diakopoulos, N. e Friedler, S. (2016). Como responsabilizar os algoritmos.Revisão de tecnologia do MIT,
17 de novembro de 2016.

Duffy, BE (2017). (Não) ser pago para fazer o que você ama: gênero, mídia social e trabalho aspiracional.
New Haven: Imprensa da Universidade de Yale.

Duffy, BE e Hund, E. (2015). 'Ter tudo' nas redes sociais: feminilidade empreendedora e auto-estima
branding entre blogueiros de moda.Mídias Sociais + Sociedade,1-15.
Duneier, M. (2011). Como não mentir com a etnografia.Metodologia Sociológica, 41,1–11.
Eliseu, MC (2019). Zonas de deformação moral: contos de advertência na interação humano-robô.Ciência envolvente,
Tecnologia e Sociedade, 5(2019), 40–60.
Elish, MC e Watkins, EA (2020).Reparando a inovação: um estudo sobre a integração da IA nos cuidados clínicos.
Manuscrito não publicado.
Espeland, WN e Stevens, ML (1998). A comensuração como processo social.Revisão Anual de Sociologia,
24(1), 313–343.
Eubanks, V. (2017).Automatizando a desigualdade: como as ferramentas de alta tecnologia perfilam, policiam e punem os pobres.Novo
York: St.
Foucault, M. (1975).Disciplinar e punir: O nascimento da prisão.Nova York: Livros Antigos. Fourcade, M. e Healy, K.
(2017). Vendo como um mercado.Revisão Socioeconômica, 15(1), 9–29. Gillespie, T. (2016). #Trendingistrending:
Quando os algoritmos se tornam cultura. EmCulturas algorítmicas: ensaios
sobre Significado, Desempenho e Novas Tecnologias,editado por R. Seyfert e J. Roberge. Abingdon:
Routledge.
Glaser, BG e Strauss, AL (1967).A Descoberta da Teoria Fundamentada nos Dados: Estratégias para a Qualitativa
Pesquisar.Chicago: Aldine Publishing Company.
Goffman, E. (1959).A apresentação de si mesmo na vida cotidiana.Nova York: Doubleday.
Gray, M. e Suri, S. (2019).Trabalho fantasma: como impedir que o Vale do Silício construa uma nova subclasse global.
Nova York: HMH.
Griesbach, K., Reich, A., Elliott-Negri, L. e Milkman, R. (2019). Controle algorítmico em plataforma alimentar
trabalho de entrega.Sócio5.
Haggerty, KD e Ericson, RV (2003). A assembléia vigilante.Jornal Britânico de Sociologia, 51 (4),
605–622.
Hannak, A., Soeller, G., Lazer, D., Mislove, A. e Wilson, C. (2014). Medir a discriminação de preços e
direcionamento em sites de comércio eletrônico.IMC'14,5 a 7 de novembro de 2014, Vancouver, BC, Canadá. https://
personalization.ccs.neu.edu/static/pdf/imc151-hannak.pdf.
Hannerz, U. (2003). Estar lá... e ali... e ali! Reflexões sobre etnografia multissítio.
Etnografia,4, 201–216.
Hine, C. (2015).Etnografia para a internet.Londres: Bloomsbury.
Hjort, L., Horst, H., Galloway, A. e Belle, G. (2017).O companheiro Routledge para etnografia digital.Novo
Iorque: Routledge.
Teoria e Sociedade

Introna, LD (2016). Algoritmos, governança e governamentalidade: sobre como governar a redação acadêmica.Ciência,
Tecnologia e Valores Humanos, 41(1), 17–49.
Irani, L. (2015). Diferença e dependência entre trabalhadores digitais: o caso do Amazon Mechanical Turk.
Trimestral do Atlântico Sul, 114(1), 225–234.
Kiviat, B. (2019). Os limites morais das práticas preditivas: o caso das pontuações de seguros baseadas em crédito.
Revisão Sociológica Americana, 84(6), 1134–1158.
Knorr Cetina, K. (1999).Culturas epistêmicas: como as ciências produzem conhecimento.Cambridge: Harvard
Jornal universitário.
Knox, H. e Nafus, D. (Eds.). (2018).Etnografia para um mundo saturado de dados.Manchester: Manchester
Jornal universitário.
Kolkman, D. (2020). A (in)credibilidade dos modelos algorítmicos para não especialistas.Informação, Comunicação e
Sociedade,Online primeiro, 1–17.
Kotliar, D. (2020). Quem pode escolher? Sobre a construção sócio-algorítmica da escolha.Tecnologia científica,
& Valores HUMANOS.On-line primeiro.
Kunda, G. (2006).Cultura de engenharia: controle e comprometimento em uma corporação de alta tecnologia (Edição revisada).
Filadélfia: Temple University Press.
Lamont, M., Beljean, S. e Clair, M. (2014). O que está faltando? Caminhos Culturais para a Desigualdade.Sócio-
Revisão Econômica,1–36.
Lange, A.-C., Lenglet, M., & Seyfert, R. (2018). Ao estudar algoritmos etnograficamente: entendendo
objetos de ignorância.Organização, 26(4), 598–617.
Latour, B. (2010).A elaboração da lei: uma etnografia do Conseil d'Etat.Londres: Política. Latour, B. (1999a).A esperança de
Pandora: Ensaios sobre a realidade dos estudos científicos.Cambridge: Universidade de Harvard
Imprensa.

Latour, B. (1999b). Ao recordar ANT.A Revisão Sociológica, 47(1), 15–25.


Latour, B. (1991). A tecnologia é a sociedade que se torna durável. P.p. 103-131 em J. lei (Ed.)Uma Sociologia de Monstros:
Ensaios sobre Poder, Tecnologia e Dominação,Abingdon, Inglaterra: Routledge.
Latour, B. (1987).Ciência em ação: como acompanhar cientistas e engenheiros na sociedade.Cambridge:
Imprensa da Universidade de Harvard.

Latour, B. e Woolgar, S. (1986).Vida laboratorial: A construção dos factos científicos.Princeton: Princeton


Jornal universitário.
Leigh Star, S. (1999). A etnografia da infraestrutura.Cientista Comportamental Americano, 43 (3), 377–391.
Lewis R. (2018). Influência alternativa: Transmitindo a direita reacionária no YouTube. Papel branco,
Setembro.Instituto de Pesquisa de Dados e Sociedade.https://datasociety.net/wp-content/uploads/2018/09/
DS_Alternative_Influence.pdf.
Lewis, SC e Westlund, O. (2015). Atores, actantes, audiências e atividades no trabalho noticioso cross-media: uma
matriz e uma agenda de pesquisa.Jornalismo Digital, 3(1), 19–37.
Lichterman, P. (2015). Reflexividade interpretativa em etnografia.Etnografia, 18(1), 35–45.
Lyon, D. (2018).A cultura da vigilância.Cambridge: Política.
McKenzie, D. (2019). Como os algoritmos interagem: a 'ordem de interação' de Goffman na negociação automatizada.Teoria,
Cultura e Sociedade, 36(2), 39–59.
Malcolm, J. (1989).O jornalista e o assassino.Nova York: Livros Antigos.
Markham, A. e Baym, N. (2009).Consulta na Internet: Conversas sobre método.Mil Carvalhos: SÁBIO. Marwick, A.
(2013).Atualização de status: celebridades, publicidade e branding na era da mídia social.Novo Porto:
Imprensa da Universidade de Yale.

Mau, S. (2018).A sociedade métrica: Sobre a quantificação do social.Cambridge: Política.


Mead, GH (1967 [1934]).Mente, self e sociedade: Do ponto de vista de um behaviorista social.Chicago:
Imprensa da Universidade de Chicago.

Metz, C. (2015). O Google tem 2 bilhões de linhas de código – e está tudo em um só lugar.Com fio,16 de setembro de 2015.
Obtido de:https://www.wired.com/2015/09/google-2-billion-lines-codeand-one-place/. Mitchell,
M., Wu, S., Zaldivar, A., Barnes, P., Vasserman, L., Hutchinson, B., Spitzer, E., Raji, ID, e
Gebru, T. (2019). Cartões de modelo para relatórios de modelo. ACMAnais da Conferência sobre Justiça,
Responsabilidade e Transparência.220-229.https://arxiv.org/abs/1810.03993.
Mols, B. (2017). Nos algoritmos de caixa preta confiamos (ou confiamos?).Comunicações da ACM.16 de março de 2017.
Obtido de:https://cacm.acm.org/news/214618-in-black-box-algorithms-we-trust-or-do-we/fulltext. Neff, G.
(2012).Trabalho de risco: Trabalho e a carga do risco em indústrias inovadoras.Cambridge: MIT Press. Neff, G. e
Stark, S. (2003). Permanentemente beta: Organização responsiva na era da Internet. P.p. 173-188 na pág.
Howard e S. Jones (eds.),Sociedade Online: A Internet em Contexto.Mil carvalhos, CA: Sage.
Neiland, D. (2019).A vida cotidiana de um algoritmo.Cham: Palgrave McMillan, Springer Nature.
Teoria e Sociedade

Nobre, SU (2018).Algoritmos de opressão: como os motores de busca reforçam o racismo.Nova York: NYU Press.
O'Neil, C. (2016).Armas de destruição matemática.Nova York: Coroa.
Orlikowski, W. (2007). Práticas sociomateriais: explorando a tecnologia no trabalho.Estudos Organizacionais, 28 (9),
1435–1448.
Orlikowski, W. (2000). Usando tecnologia e constituindo estruturas: uma lente prática para estudar tecnologia
nas organizações.Ciência da Organização, 11(4), 404–428.
Orr, J. (1996).Falando sobre Máquinas: Uma Etnografia de um Trabalho Moderno.Ithaca: Cornell University Press.
Petre, C. (2015). As fábricas de tráfego: Metrics at Chartbeat, Gawker Media e The New York Times.Rebocar
Centro de Jornalismo Digital.Obtido de:https://academiccommons.columbia.edu/doi/10.7916/
D80293W1.
Pasquale, F. (2015).A sociedade da caixa preta: os algoritmos secretos que controlam dinheiro e informações.
Cambridge: Harvard University Press.
Powles, J. e Nissenbaum, H. (2018). A diversão sedutora do preconceito de “solução” na inteligência artificial.
Médio,7 de dezembro de 2018.https://onezero.medium.com/the-seductive-diversion-of-solving-bias-in-
artificialintelligence-890df5e5ef53.
Roberto, S. (2019).Atrás da tela: moderação de conteúdo nas sombras das redes sociais.New Haven: Yale
Jornal universitário.
Rosenblat, A. (2018).Uberlândia: Como os algoritmos estão reescrevendo as regras de trabalho.Berkeley: Universidade de
Imprensa da Califórnia.

Rosenblat, A. e Stark, L. (2016). Trabalho algorítmico e assimetrias de informação: um estudo de caso da Uber
motoristas.Revista Internacional de Comunicação, 10,3758–3784.
Sachs, SE (2019). O algoritmo em ação? Explicação e reparo na promulgação de similaridade em dados artísticos.
Informação,Comunicação e Sociedade, 1–17.
Sandvig, C., Hamilton, K., Karahalios, K. e Langbort, C. (2014). Algoritmos de auditoria: métodos de pesquisa
para detectar discriminação em plataformas da Internet. Artigo apresentado aDados e Discriminação:
Convertendo Preocupações Críticas em Investigação Produtiva,64ª Reunião Anual da Associação
Internacional de Comunicação. 22 de maio de 2014; Seattle, WA. Obtido de:http://www-personal.umich. edu/
~csandvig/research/Auditing%20Algorithms%20%2D%2D%20Sandvig%20%2D%2D%20
ICA%202014%20Data%20and%20Discrimination%20Preconference.pdf.
Scholz, T. (2013).Trabalho digital: a internet como playground e fábrica.Nova York: Routledge. Seaver, N. (2018).
Algoritmos cativantes: Sistemas de recomendação como armadilhas.Revista de Cultura Material,
Online primeiro, 1–16.
Seaver, N. (2017). Algoritmos como cultura: Algumas táticas para a etnografia de sistemas algorítmicos.Grandes dados
e Sociedade, 4(2), 205395171773810.
Shestakofsky, B. (2017). Algoritmos de trabalho: Automação de software e o futuro do trabalho.Trabalhar e
Ocupações, 44(4), 376–423.
Siles, I., Segura, A., Solís, R., & Sancho, M. (2020). Teorias populares de recomendações algorítmicas sobre
Spotify: Promovendo conjuntos de dados no sul global.Big Data e Sociedade, 7(1), 1–15.
Silverman, J. (2020). Espiões, mentiras e obstruções: como é fazer reportagens no Facebook.Jornalismo da Colômbia
Análise,1º de julho de 2020.https://www.cjr.org/special_report/reporting-on-facebook.php.
Neve, DA (1980). O processo de desligamento: um problema negligenciado na pesquisa de observação participante.
Sociologia Qualitativa, 3,100–122.
Stuart, F. (2020).Balada da bala: gangues, música de treino e o poder da infâmia online.Princeton: Princeton
Jornal universitário.
Suchman, L., Blomberg, J., Orr, JE e Trigg, R. (1999). Reconstruindo tecnologias como prática social.
Cientista Comportamental Americano, 43 (3), 392–408.
Sweeney, L. (2013). Discriminação na entrega de anúncios online.Fila ACM, 11(3), 1–19.
Terranova, T. (2000). Mão de obra gratuita: Produzindo cultura para a economia digital.Texto Social, 18(2), 33–58. Ticona, J. e
Mateescu, A. (2018). Estranhos de confiança: empreendedorismo cultural em plataformas de trabalho doméstico em
a economia sob demanda.Novas Mídias e Sociedade, 20(11), 4384–4404.
Timmermans, S. e Tavory, I. (2012). Construção de teoria na pesquisa qualitativa: da teoria fundamentada à
análise abdutiva.Teoria Sociológica, 30(3), 167–186.
Turner, F. (2009). Burning man no Google: uma infraestrutura cultural para a produção de novas mídias.Novas mídias &
Sociedade, 11(1–2), 73–94.
Turner, F. (2005). Ator-rede de notícias.Epistemologia Social, 19(4), 321–324.
Teoria e Sociedade

Zuboff, S. (2019).A era do capitalismo de vigilância: A luta por um futuro humano na nova fronteira da
poder.Nova York: Relações Públicas.
Zukin, S. e Papadantonakis, M. (2017). Hackathons como ritual de cooptação. Em AL Kalleberg, SP Vallas
(eds.)Trabalho Precário/Pesquisa em Sociologia do Trabalho,31, 157–181.

Nota do editor A Springer Nature permanece neutra em relação às reivindicações jurisdicionais em mapas publicados
e afiliações institucionais.

Angele Christiné professor assistente no Departamento de Comunicação da Universidade de


Stanford. Ela é autora deMétricas em ação: jornalismo e o significado contestado do algoritmos
(Princeton University Press 2020).

Você também pode gostar