Escolar Documentos
Profissional Documentos
Cultura Documentos
com
Teoria e Sociedade
https://doi.org/10.1007/s11186-020-09411-3
Angele Christin1
Abstrato
Um tema comum nos estudos de algoritmos em ciências sociais é que eles são profundamente
opacos e funcionam como “caixas pretas”. Os estudiosos desenvolveram várias abordagens
metodológicas para lidar com a opacidade algorítmica. Aqui defendo que podemos inscrever
explicitamente algoritmos na investigação etnográfica, o que pode lançar luz sobre aspectos
inesperados dos sistemas algorítmicos – incluindo a sua opacidade. Delineio três estratégias de
mesonível para etnografia algorítmica. O primeiro,refração algorítmica,examina as
reconfigurações que ocorrem quando software computacional, pessoas e instituições
interagem. A segunda estratégia,comparação algorítmica,baseia-se numa abordagem de
semelhança e diferença para identificar as características únicas dos instrumentos. A terceira
estratégia, triangulação algorítmica,inscreve algoritmos para ajudar a coletar dados
qualitativos ricos. Concluo discutindo as implicações deste kit de ferramentas para o estudo de
algoritmos e o futuro do trabalho de campo etnográfico.
* Angele Christin
angelec@stanford.edu
1
Departamento de Comunicação, Universidade de Stanford, 450 Jane Stanford Mall, Stanford, CA
94305, EUA
Teoria e Sociedade
Por que os algoritmos são opacos? Por que isso importa? E como isso afeta os métodos que
podemos usar para estudá-los? Esta seção apresenta as diferentes maneiras pelas quais os
algoritmos podem ser opacos e as situações em que essa opacidade se torna particularmente
problemática. Aqui defino “algoritmos” como sequências de operações lógicas que fornecem
instruções passo a passo para os computadores agirem sobre os dados (Barocas et al.2014). Na
prática, os algoritmos são normalmente programas de software que executam tarefas
computacionais baseadas em algum tipo de dados digitais.
Baseando-se em Burrell (2016), existem quatro maneiras pelas quais os algoritmos podem ser opacos.
Primeiro, os algoritmos são normalmente caracterizados porsigilo intencional:dados e códigos são
mantidos em segredo por empresas ou administrações que os protegem como propriedade intelectual
valiosa. Consequentemente, os observadores não têm acesso aos algoritmos porque as empresas não os
tornam públicos. Em segundo lugar, mesmo quando as empresas decidem partilhar os seus algoritmos
com utilizadores e investigadores, surge outra dimensão de opacidade:analfabetismo técnico.Algoritmos
são feitos de código escrito em linguagens de programação; a maioria dos usuários não tem treinamento
para interpretar essas linguagens de programação, limitando sua compreensão do funcionamento interno
dos algoritmos. Terceiro, os algoritmos de aprendizado de máquina têm uma camada adicional de
opacidade porque evoluem ao longo do tempo de maneiras normalmenteininteligívelpor humanos,
independentemente do treinamento dos humanos em linguagens de programação. Nas palavras de
Burrell, “Quando um computador aprende e conseqüentemente constrói sua própria representação de
uma decisão de classificação, ele o faz sem levar em conta a compreensão humana” (Burrell2016, pág. 10).
Assim, mesmo que pudéssemos ler e decifrar linhas de códigos, talvez não seríamos capazes de
compreender como
Teoria e Sociedade
algoritmos tomam decisões. A estas três camadas de opacidade, deve-se acrescentar uma quarta: a
transparênciatamanhoda maioria dos sistemas algorítmicos. Por exemplo, os serviços de Internet da
Google dependem de mais de 2 mil milhões de linhas de código (Metz2015). Tal ordem de grandeza muitas
vezes torna impossível para qualquer pessoa (incluindo os programadores que projetaram o algoritmo)
identificar qual parte do sistema é responsável por uma decisão específica.
Com base nestas quatro dimensões, os estudiosos referem-se aos algoritmos como “caixas
pretas”, ou dispositivos que só podem ser compreendidos em termos das suas entradas e saídas,
sem qualquer conhecimento do seu funcionamento interno (Mols2017). Com base neste conceito, o
jurista Franck Pasquale escreveu sobre o desenvolvimento de uma “sociedade caixa preta” (Pasquale
2015). Pasquale examinou a distribuição assimétrica de dados e informações em um mundo onde
algoritmos irresponsáveis tomam cada vez mais decisões escondidas atrás de muros corporativos e
camadas de código. Esta opacidade, por sua vez, é particularmente problemática, uma vez que os
algoritmos são frequentemente tendenciosos (Barocas e Selbs2016): uma vez que se baseiam em
dados históricos, que são moldados por longos históricos de desigualdade e discriminação, os
algoritmos podem funcionar como “armas de destruição matemática” (O'Neil 2016) que acabam
“automatizando a desigualdade” (Eubanks2017). Não ser capaz de analisar como essas decisões
tendenciosas são tomadas representa uma séria ameaça à noção de devido processo legal nas
sociedades democráticas (Crawford e Schultz2014; O'Neil2016; Eubanks2017; Chesterman2020).
Auditorias algorítmicas
acessado através de solicitações da Lei de Liberdade de Informação (Angwin et al.2016). Após uma
análise estatística dos casos e das pontuações fornecidas por uma ferramenta de avaliação de risco
chamada COMPAS, eles criticaram a Equivant (empresa proprietária do COMPAS) por construir um
algoritmo que discriminava os afro-americanos. A ProPublica disponibilizou os dados publicamente;
acadêmicos usaram-no para oferecer diferentes medidas de justiça algorítmica (Corbett-Davis et al.
2016). Em seu estudo sobre discriminação em ferramentas de reconhecimento facial, Buolamwini e
Gebru (2018) baseou-se em métodos quantitativos igualmente criativos. Eles construíram um novo e
diversificado conjunto de dados de análise facial, que usaram para avaliar três ferramentas
comerciais: descobriram que os principais programas de reconhecimento facial categorizavam
erroneamente as mulheres de pele mais escura a uma taxa significativamente mais alta do que
qualquer outro grupo. Tais estudos pertencem à família das auditorias algorítmicas, no sentido de
que lançam luz sobre sistemas algorítmicos opacos (e potencialmente discriminatórios) através de
sofisticados desenhos de investigação online e análises estatísticas.
algoritmos podem codificar padrões de opressão contra pessoas de cor. Vinculando a ascensão
dos algoritmos às estruturas que sustentaram a dominação racial ao longo do tempo nos
Estados Unidos, incluindo o sistema jurídico Jim Crow, Benjamin ilumina um efeito-chave dos
algoritmos nas sociedades atuais, nomeadamente, manter e reforçar as desigualdades raciais
(ver também Eubanks2017). Com base nesta estrutura, ela analisa os valores racistas e
eugenistas que moldam os sistemas algorítmicos através de múltiplos casos empíricos,
incluindo o de “Beauty AI”, “o primeiro concurso internacional de beleza julgado pela
inteligência artificial”, onde entre 6.000 inscrições de 100 países, apenas um finalista (de 44)
tinha pele visivelmente escura (Benjamin2019, pág. 50). Noble oferece uma análise
complementar emAlgoritmos de Opressão (Nobre2018), onde ela examina o papel cultural dos
motores de busca online na reprodução de crenças discriminatórias existentes sobre pessoas
de cor. Ela pega o exemplo de pesquisar o termo “garotas negras” no Google e encontrar
conteúdo sexualmente explícito exibido com destaque na primeira página – um resultado que
não foi replicado quando ela pesquisou por “garotas brancas”. Tais análises mostram como,
sob a pátina da inovação, da objectividade e da conveniência, os sistemas algorítmicos
reproduzem e reforçam frequentemente as hierarquias raciais.
Em segundo lugar, os estudiosos examinaram o papel dos algoritmos numa história mais longa
de vigilância e assimetria de informação (Zuboff2019; Pasquale2015). Nesta visão, os dados de
entrada necessários aos algoritmos para funcionar são constantemente (e muitas vezes
secretamente) extraídos de nós através de rastreamento online. Estes dados pessoais são vendidos
e explorados incessantemente para expandir a infra-estrutura de conhecimento dos governos e das
empresas com fins lucrativos. Tais regimes de vigilância, por sua vez, moldam as nossas identidades
e representações, transformando-nos em tipos específicos de sujeitos através de conjuntos distantes
de controlo e governamentalidade (Lyon2018; Haggerty e Ericson2003). Os trabalhos existentes
sobre extração de dados examinam a institucionalização cultural e política do modelo económico
atual, no qual os utilizadores online partilham os seus dados e trabalho gratuitamente com
plataformas que obtêm enormes lucros com base neste excedente comportamental (Terranova2000;
Scholz 2013). Por exemplo, Andrejevic (2003) considera que os reality shows forneceram um modelo
cultural para a emergência de uma economia interactiva baseada na vigilância, na qual ser visto é
cada vez mais visto como um desenvolvimento “produtivo” – um desenvolvimento que pode levar à
celebridade, à riqueza e até ao crescimento pessoal. Outros estudos relacionam o rastreamento
digital com a dinâmica de poder mais ampla dos aparelhos de vigilância mais antigos. Do sistema de
plantação ao chão de fábrica, a vigilância visava principalmente as populações negras, pardas,
pobres e as chamadas populações “desviantes”; a vigilância digital não é exceção (Browne2015;
Foucault 1975).
Por último, mas não menos importante, estudos críticos analisaram o papel dos algoritmos em lógicas
económicas mais amplas de racionalização, ligando a multiplicação de algoritmos, dados e métricas a
processos maiores de comensuração (Espeland e Stevens1998), homogeneização (Lamont et al.2014) e a
mercantilização neoliberal (Cerveja2018). Por exemplo, emA Sociedade Métrica,Mau (2018) argumenta que
os sistemas algorítmicos e as métricas que fornecem reforçam os processos existentes de comparação
relacionada com o estatuto e de competição de mercado, que por sua vez têm um impacto na forma como
as pessoas e as organizações se relacionam com formas quantificadas de desigualdade. Mau toma o
exemplo dos aplicativos de automonitoramento de saúde, humor e exercícios, que ele argumenta que
transformam os corpos em locais de competição de status baseada em dados (Mau2018, pág. 103). Ao
localizar os algoritmos dentro de dinâmicas mais amplas de comensuração e competição, estas críticas
económicas contribuem para uma melhor
Teoria e Sociedade
Estudos etnográficos
1Embora existam muitas variações sobre o que as pessoas entendem por etnografia, os etnógrafos de todas as disciplinas
normalmente concordam em vários pontos. Epistemologicamente, muitos etnógrafos confiam em alguma versão da “teoria
fundamentada” (Glaser e Strauss1967, mas veja também Burawoy1998, Timmermans e Tavory2012para diferentes abordagens),
começando com uma questão preliminar de pesquisa que evolui com base nos dados coletados durante o trabalho de campo.
Teoricamente, os métodos etnográficos partilham múltiplas afinidades com o interacionismo simbólico, que entende as interações
individuais como um alicerce fundamental da vida social (Mead1967; Blumer1969; Goffman 1959). Em termos de métodos, a
etnografia envolve frequentemente a observação participante, na qual os observadores se envolvem ativamente nas atividades das
pessoas que estudam.
Teoria e Sociedade
Em particular, devido à pressão para “escalar”, ela própria ligada ao papel do capital de risco, os
etnógrafos descobrem que os engenheiros tecnológicos tendem a confiar numa visão
“permanentemente beta” do mundo, que Neff e Stark definem como “uma visão organizacional
fluida”. forma resultante do processo de negociação entre usuários, funcionários e organizações
sobre o design de bens e serviços” (Neff e Stark2003, pág. 175). Tal mentalidade muitas vezes leva
engenheiros, cientistas da computação e gerentes de projeto a exagerar nas capacidades de seu
software algorítmico – especialmente a capacidade do software de escalar sem falhas – e a ocultar a
extensão do envolvimento de trabalhadores humanos que realizam parte do trabalho que os
algoritmos realizam. deveria estar fazendo (Shestakofsky2017; Sachs 2019). Como Irani (2015)
aponta, “software como serviço” muitas vezes esconde uma confiança em “seres humanos como
serviço”, um lema menos vendável, mas mais realista. Os trabalhadores humanos que realizam
trabalhos algorítmicos para empresas de tecnologia – anotadores de dados, moderadores de
conteúdo e outros “trabalhadores fantasmas” –, por sua vez, enfrentam status de emprego precários
e condições de trabalho extenuantes (Robert2019; Gray e Suri2019). As estruturas de emprego das
empresas tecnológicas, por sua vez, afectam os seus resultados algorítmicos. Por exemplo, Seaver (
2018) mostra como o repertório de “captura” de usuários é evocado pelos engenheiros quando
descrevem algoritmos de recomendação em plataformas de streaming. Esta visão dos utilizadores
como vida selvagem fugaz cuja atenção deve ser retida a todo o custo deve ser entendida dentro do
quadro “permanentemente beta”, no qual o trabalho, a atenção e o capital também são
conceptualizados como recursos escassos que devem ser capturados.
Em segundo lugar, os etnógrafos examinaram o lado da recepção dos sistemas algorítmicos,
analisando as práticas e representações dos utilizadores. Baseando-se em estudos de ciência e
tecnologia, especificamente no que Suchman et al. (1999) chamam de paradigma das “tecnologias
em uso” (ver também Orlikowski2000), estudos mostram que a maioria das pessoas tomou
consciência do papel dos algoritmos e ajustou as suas práticas online em conformidade. Muitos
usuários consideram os algoritmos profundamente opacos e se ressentem dessa inescrutabilidade.
Isto emerge particularmente claramente de estudos que analisam como os “trabalhadores de gig”
entendem as plataformas digitais (Uber, Lyft,Care. com, UpWork e assim por diante): muitos deles
reclamam da impenetrabilidade dos algoritmos que atribuem tarefas e tornam seus perfis visíveis
nas plataformas (Rosenblat2018; Ticona e Mateescu2018; Rosenblat e Stark2016)—um processo
Gray e Suri (2019) analisam como uma forma de “crueldade algorítmica”. Os usuários também
desenvolvem suas próprias representações e modelos de como esses sistemas complexos operam,
contando assim com “imaginários algorítmicos” que moldam a forma como eles interagem com
algoritmos (Bucher2016; Baym2018). Além disso, muitas vezes confiam em “fofocas
algorítmicas” (Bispo2019) para compartilhar informações entre pares sobre como tornar seu
conteúdo “pronto para algoritmos” (Gillespie2016).
No geral, as abordagens etnográficas lançam luz sobre a complexa mistura de aspectos sociais,
culturais e tecnológicos dos sistemas computacionais na nossa vida quotidiana. Eles fornecem dados
ricos e detalhados sobre como os algoritmos são construídos e usados. Do lado da produção, os
estudos etnográficos destacam afinidades importantes entre as culturas do local de trabalho e o
design algorítmico. Do lado da recepção, mostram como as práticas sociais medeiam os usos e o
impacto real dos algoritmos. Ao fazê-lo, as abordagens etnográficas lançam luz sobre a opacidade
algorítmica, revelando a necessária inscrição da tecnologia no mundo social (Orr1996; Leigh estrela
1999). Dito isto, a maioria dos etnógrafos não se concentra explicitamente nos algoritmos em si. Há
uma boa razão para isso: os etnógrafos só podem estudar lugares e práticas aos quais tenham
acesso. As diferentes dimensões da opacidade algorítmica mencionadas acima (por exemplo, sigilo
corporativo, analfabetismo técnico,
Teoria e Sociedade
Até agora, discuti a opacidade dos algoritmos como uma dificuldade empírica, e não tanto
epistemológica. No entanto, descrever algoritmos como caixas pretas não é uma escolha neutra. Na
verdade, o “caixa preta” geralmente está longe de ser um processo acidental; nem esta metáfora é
usada apenas para descrever sistemas algorítmicos. Em todos os sectores, a caixa negra pode ser
analisada como um artefacto de legitimidade científica e tecnológica.
Latour defende precisamente este argumento quando escreve que “o trabalho científico e
técnico torna-se invisível pelo seu próprio sucesso. Quando uma máquina funciona de forma
eficiente, quando uma questão de facto é resolvida, é preciso concentrar-nos apenas nas suas
entradas e saídas e não na sua complexidade interna. Assim, paradoxalmente, quanto mais a
ciência e a tecnologia têm sucesso, mais opacas e obscuras elas se tornam” (Latour1999a, pág.
304). Para desconstruir a divisão estrita entre tecnologia e sociedade estabelecida através de
enquadramentos de caixa preta, Latour sugere concentrar-se em substituições e associações
dentro de conjuntos de humanos e não-humanos. Uma abordagem tão fluida recusa-se a
considerar as caixas negras tecnológicas como garantidas e muda os locais de estudo
existentes, passando “dos produtos finais à produção, de objectos estáveis ‘frios’ para
objectos ‘mais quentes’ e instáveis […]antes que a caixa feche e fique preta” (Latour1987, pág.
21). Inscreve explicitamente os objectos científicos e técnicos nas cadeias mais longas de
actantes humanos e não humanos que participam na criação, difusão e institucionalização do
conhecimento científico e técnico.
A chave nesta estrutura é o conceito de “matrícula”, teorizado mais explicitamente por
Callon (1986). Segundo Callon, é essencial analisar a dinâmica de associação, tradução e
emaranhamento que ocorre sempre que humanos e não humanos interagem. Seguir
estes fluxos de associação envolve prestar muita atenção ao processo de “inscrição”
através do qual humanos e não humanos começam a trabalhar juntos. Nas palavras de
Callon, “descrever a inscrição é, portanto, descrever o conjunto de negociações
multilaterais, testes de força e truques que acompanham os interesses [sic]e capacitá-los
a ter sucesso” (Callon1986, pág. 211). Ligar (1986) exemplifica ainda mais o que ele
entende por “interessement” – que pode ser traduzido como uma forma de
Teoria e Sociedade
Refração algorítmica
Comparação algorítmica
Uma segunda estratégia para a etnografia algorítmica baseia-se na comparação para pensar
analiticamente entre os casos. Ao examinar algoritmos entre sectores através de uma abordagem de
semelhanças e diferenças, os etnógrafos podem ajudar a explicar o que é específico sobre cada
instrumento técnico, independentemente de quão opaco possa ser o seu código subjacente.
As etnografias comparativas têm uma longa história nos estudos de ciência e tecnologia. Sempre
que os estudiosos examinam cenários que apresentam complexidade técnica ou científica inerente,
a comparação de casos pode ajudar a esclarecer o que há de específico em cada um deles,
especialmente quando as características variáveis entre os casos são claramente distinguidas. Por
exemplo, em seu estudo de culturas epistêmicas, Knorr Cetina (1999) realizou trabalho de campo
etnográfico em dois laboratórios científicos, um de biologia molecular e outro de física de altas
energias. Ela baseou-se nesta comparação para identificar várias linhas ao longo das quais as
culturas científicas dos laboratórios diferiam, incluindo o papel epistemológico dos dados empíricos,
os tipos de relações sociais que surgiram nos laboratórios e os regimes de autoria científica. Da
mesma forma, em A elaboração da lei (2010), Latour complementou sua análise etnográfica do
Conseil d'Etat (o mais alto tribunal administrativo francês) comparando-o a um laboratório de
neurociências, o que lhe permitiu contrastar as normas e dinâmicas do direito e da ciência,
especialmente no que diz respeito à ideia de “estabilidade ”(Latour2010, pág. 243).
Teoria e Sociedade
Tal abordagem comparativa também pode lançar luz sobre sistemas algorítmicos complexos e opacos
(Anderson e Kreiss2013; Cristina2017; Griesbach et al.2019). Para fornecer um exemplo concreto,
concentro-me aqui na justiça criminal, um domínio onde os algoritmos são frequentemente criticados pela
sua opacidade, especialmente devido ao seu papel na perpetuação do preconceito e da discriminação, com
consequências dramáticas para os indivíduos e as comunidades (Angwin et al.2016; Benjamin2019; O'Neil
2016). Numa etnografia comparativa entre departamentos de polícia e tribunais criminais, comparamos
como a polícia e os profissionais jurídicos usam algoritmos preditivos (Brayne e Christin2020). Para a
polícia, estes incluem programas de software preditivos baseados em pessoas e locais; nos tribunais, os
juízes e os procuradores baseiam-se normalmente em diversas ferramentas ou software de avaliação de
risco que fornecem “pontuações de risco” preditivas para avaliar o risco de reincidência dos arguidos.
Primeiro documentamos semelhanças: em ambas as organizações, a polícia e os profissionais jurídicos
temiam que os algoritmos levassem a uma maior vigilância gerencial, à desqualificação e à potencial
substituição.
No entanto, diferenças significativas também emergem na comparação, primeiro na lógica intrínseca dos
próprios algoritmos e, segundo, na forma como são implementados. No policiamento, os algoritmos preditivos
funcionam normalmente como tecnologias de arrasto: rastreiam potenciais crimes e criminosos, armazenam e
exploram os dados que recolhem ao longo do tempo, ao mesmo tempo que rastreiam os polícias num contexto
de recursos limitados. Em vez disso, nos tribunais, as ferramentas de avaliação de risco funcionam principalmente
como tecnologias de triagem (Christin2020b): o seu papel principal não é tanto recolher dados
indiscriminadamente sobre os arguidos, mas sim classificar os arguidos individuais em categorias de alto ou baixo
risco, a fim de combiná-los com as opções de encarceramento e programas de reabilitação existentes. Além disso,
os algoritmos apresentam diferentes níveis de opacidade, pelo menos de acordo com os polícias e profissionais
jurídicos que os utilizam: os algoritmos preditivos no policiamento não são vistos como particularmente opacos,
enquanto os profissionais jurídicos consideram muitas vezes as ferramentas de avaliação de risco profundamente
misteriosas e problemáticas. Estas diferenças entre os instrumentos são amplificadas pelas características
organizacionais distintas dos departamentos de polícia, que são altamente hierárquicos, enquanto os tribunais
criminais são mais fragmentados, especialmente nos locais onde os juízes são eleitos. Consequentemente, os
algoritmos preditivos são implementados de forma mais estrita no policiamento do que nos tribunais criminais,
conduzindo, por sua vez, a diferentes efeitos no poder discricionário e no potencial discriminatório dos agentes da
polícia e dos profissionais do direito (Brayne e Christin2020, pág. 13).
Assim, a comparação algorítmica pode lançar luz não apenas sobre os usos dos sistemas
algorítmicos, mas também sobre o seu funcionamento interno, independentemente de quão opacos
e proprietários sejam. O estudo analisado acima comparou algoritmos que não possuem o mesmo
nível de opacidade. Tal comparação é relevante na medida em que permite aos etnógrafos analisar o
papel daquilo que Kiviat (2019) chama de “teorização causal” – compreensões e justificativas leigas
da lógica por trás das classificações algorítmicas – na formação do impacto dos sistemas
algorítmicos de “caixa preta”.
Triangulação algorítmica
para coletar dados sobre celebridades do YouTube, eles confiaram em alertas automáticos e nos chamados
“recibos” (por exemplo, capturas de tela de postagens comprometedoras nas redes sociais) para rastrear os
conflitos que surgiram no YouTube, no Twitter e no Instagram. Acabamos adotando a mesma estratégia em
nosso estudo sobre criadores de dramas.
Ao longo das entrevistas, percebemos ainda que a nossa posição na comunidade dramática
era inteiramente mediada por plataformas de redes sociais. Os criadores do canal discutiram
entre si suas entrevistas conosco, por meio de mensagens privadas e chats em grupo em
diferentes aplicativos e plataformas. Vários deles nos disseram que conversaram com outras
pessoas que já haviam sido entrevistadas para saber o que esperar; outros conversaram com
seus contatos antes de concordarem com a entrevista. Em vários casos, as mensagens no
Twitter que trocaram entre si foram-nos enviadas acidentalmente, dando-nos uma ideia das
suas interacções e percepções sobre nós. Finalmente, nos encontramos envolvidos em parte
do drama que ocorre entre os criadores. Por exemplo, um de nossos participantes revelou no
final de uma entrevista que estava nos gravando e perguntou se poderia postar em seu canal;
mais tarde percebemos que isto fazia parte de um esforço deste criador de drama para desviar
a atenção da comunidade dramática de um escândalo de racismo em que estavam implicados.
Isto, por sua vez, deu-nos pistas sobre a nossa posição no terreno. Como investigadores
associados a uma universidade de prestígio, cuja presença online e perfis nas redes sociais
poderiam ser facilmente analisados e validados, representávamos uma potencial fonte de
legitimidade para criadores online que por vezes se descreviam (mais ou menos a brincar)
como a “súcubo da Internet. ”
Por último, mas não menos importante, os algoritmos das plataformas de redes sociais
continuaram a moldar a nossa compreensão dos canais de drama, mesmo depois de terminada a
parte intensiva do nosso trabalho de campo. Depois de terminar a primeira leva de entrevistas,
continuamos acompanhando as interações entre os criadores do drama. Continuamos
acompanhando-os nas plataformas de mídia social; os criadores de dramas, por sua vez, às vezes
nos enviavam mensagens ou textos com “recibos” ou capturas de tela que achavam que poderiam
ser do nosso interesse – o que por si só poderia ser analisado como uma estratégia de
instrumentalização. Muitos criadores nos seguiram em plataformas de mídia social (principalmente
Twitter), às vezes reagindo às nossas postagens, o que indicava que nossos perfis eram visíveis por
algoritmos para eles. Neste contexto, o “desengajamento” assumiu uma forma muito diferente dos
estudos etnográficos clássicos analisados por Snow (1980). Na verdade, isso nos fez perceber que
não houve desligamento:para o bem ou para o mal, nossa compreensão da comunidade dramática
permaneceu informada pelo fluxo contínuo de notificações que recebemos sobre os
desenvolvimentos que ocorrem entre os criadores. Estas ligações algorítmicas contínuas, por sua
vez, levantam questões importantes sobre como partilhar e divulgar resultados etnográficos online.
Nos casos em que os etnógrafos estudaram comunidades online mais problemáticas ou violentas,
como o grupo Anonymous (Coleman 2014) ou o chamado “Alt Right” no YouTube (Lewis2018), as
pessoas estudadas reagiram negativamente às publicações. Assim, as ligações algorítmicas entre
etnógrafos e os seus informadores podem transformar-se em assédio online em grande escala,
incluindo doxing (a publicação online de informações privadas ou de identificação) e ameaças de
morte, levantando assim a questão de como as universidades e instituições de investigação podem
proteger os investigadores de retaliações. nesses contextos.
Nesta seção, em vez de focar na opacidade intrínseca dos algoritmos de caixa
preta, sugeri prestar mais atenção às múltiplas inscrições, refrações e mediações que
ocorrem entre atores sociais e sistemas algorítmicos. No processo, surgiram dois
tipos distintos de matrículas. O primeiro tipo de matrículas se desenrolou em
Teoria e Sociedade
os locais de campo em estudo – nas organizações, redes e coletivos onde os algoritmos são
construídos, circulam e são colocados em uso. O segundo tipo de inscrição moldou o próprio
processo de investigação, através do uso explícito de sistemas algorítmicos por etnógrafos.
Estas duas facetas do conceito de inscrição devem ser consideradas em conjunto: atores
sociais, algoritmos e investigadores participam todos nas mesmas configurações, procurando
e muitas vezes não conseguindo inscrever-se mutuamente nos seus respetivos programas. Tal
abordagem reinsere os cientistas sociais nas dinâmicas que estudam, sem lhes conferir
qualidades epistemológicas únicas.
Discussão e conclusão
EmO Jornalista e o Assassino,Malcom (1989) discute a relação dialética entre jornalistas e suas
fontes. Enquanto muitos arguidos que colaboram com jornalistas tentam provar a sua
inocência, os jornalistas procuram principalmente contar uma boa história na esperança de
escrever um best-seller. Malcolm examina o engano e a manipulação mútua que moldam o seu
relacionamento, bem como o desequilíbrio de poder entre eles, à medida que cada uma das
duas partes procura envolver a outra nos seus próprios objetivos. No parágrafo inicial, que se
tornou canônico em muitos programas de jornalismo, ela escreve: “Todo jornalista que não é
tão estúpido ou cheio de si para perceber o que está acontecendo sabe que o que faz é
moralmente indefensável. Ele é uma espécie de homem de confiança, que se aproveita da
vaidade, ignorância ou solidão das pessoas, ganhando sua confiança e traindo-as sem
remorso” (Malcolm1989, pp. 3–4).
A análise de Malcolm tem limitações quando a aplicamos ao trabalho de campo etnográfico:
é demasiado individualista e não leva em conta a dinâmica colectiva e institucional que molda a
relação entre etnógrafos e os seus informantes. No entanto, ela levanta questões relevantes
para o estudo social dos algoritmos. Como vimos, a relação entre pesquisadores e algoritmos é
igualmente dialética. Os algoritmos são poderosos e opacos; eles querem saber mais sobre
nós, extrair nossas informações pessoais e fornecer conteúdo relevante aos nossos olhos, a
fim de nos manter nas plataformas que normalmente atendem. Por outro lado, para avançar
nas suas carreiras académicas, os investigadores tentam persuadir algoritmos opacos a
fornecer mais informações sobre si próprios. Em outras palavras, queremos aprender mais
sobre algoritmos, e os algoritmos querem saber mais sobre nós. Tal como no caso do jornalista
e do assassino analisado por Malcolm, a complicada dança entre investigadores e algoritmos
baseia-se principalmente no engano e na manipulação.
Neste artigo sugeri diversas estratégias para esclarecer esta dança e torná-la mais
explícita. Baseando-me na sociologia da tradução, argumentei que deveríamos trabalhar
comalgoritmos para contornar sua opacidade. Este quadro metodológico baseia-se e
procura fortalecer muitos estudos etnográficos excelentes sobre sistemas algorítmicos,
sua construção e seus usos. Especificamente, apresento três estratégias práticas para a
inclusão de algoritmos na pesquisa etnográfica: refração algorítmica, que vê os
algoritmos como prismas que transformam e são transformados pela dinâmica social ao
seu redor; comparação algorítmica, que utiliza uma abordagem de semelhanças e
diferenças para identificar as características distintas dos instrumentos técnicos e seus
usos relacionados; e a triangulação algorítmica, que se baseia em sistemas algorítmicos
para reunir dados qualitativos ricos, refletir sobre a posição de alguém na rede e desligar-
se – ou não – do campo.
Teoria e Sociedade
As sugestões e estratégias fornecidas aqui não são prescritivas. Em vez disso, baseiam-se
na minha experiência como etnógrafo de sistemas algorítmicos e leitor da literatura sobre o
tema. Um valor central da investigação etnográfica contemporânea é tentar tornar explícito
tanto quanto possível o processo de investigação para a comunidade etnográfica como um
todo. Assim, é importante documentar e refletir sobre as escolhas, valores e atalhos que
moldam o relacionamento de alguém com a área. Os pesquisadores que estudam sistemas
algorítmicos podem descobrir que a refração, a comparação e a triangulação algorítmica são
categorias úteis para pensar; ou podem criar suas próprias estratégias e táticas. No geral, o
objetivo é criar um conjunto de ferramentas metodológicas mais estruturado e deliberado
para abordar estes objetos complexos.
Para concluir, pode-se pensar em casos limites onde tal abordagem etnográfica de matrículas
algorítmicas pode não ser viável. Primeiro, a questão do acesso continua a ser crucial e complicada
para os etnógrafos que estudam algoritmos, especialmente no lado da construção. As empresas
tecnológicas e os seus departamentos de engenharia são profundamente cautelosos e reservados,
não apenas em relação a etnógrafos e académicos, mas de forma mais ampla em relação a todos os
tipos de discurso público e relatórios sobre o seu funcionamento interno (Silverman2020). Isso
representa um claro desafio para os etnógrafos que estudam algoritmos. Podemos esperar que as
empresas tecnológicas e as instituições de investigação desenvolvam novas pontes para permitir um
acesso significativo, mas, entretanto, seguindo Hannerz (2003, pág. 213), talvez tenhamos que
concordar que “a etnografia é uma arte do possível, e pode ser melhor ter um pouco dela do que
nenhuma”. As estratégias aqui delineadas vão nessa direção, descentralizando o foco etnográfico
dos algoritmos de caixa preta para o estudo das matrículas algorítmicas.
Em segundo lugar, em todos os exemplos de sistemas algorítmicos discutidos até agora, os seres
humanos têm sido fundamentais para o quadro: eles constroem as tecnologias, implementam-nas e
utilizam-nas nas suas vidas quotidianas. Por outras palavras, os humanos estão claramente no ciclo
algorítmico, o que torna o trabalho etnográfico não só possível, mas também importante. Mas e os
sistemas totalmente automatizados que interagem entre si? Pode-se pensar em drones autônomos,
negociações de alta frequência ou entrega de publicidade on-line, entre outros exemplos (Knorr-
Cetina2016; McKenzie2019). No entanto, mesmo nestes casos, os etnógrafos encontram pessoas e
instituições a rastejar pelas fendas dos sistemas automatizados, fazendo escolhas essenciais na
concepção, manutenção e “reparação” dos algoritmos (Elish2019; Elis e Watkins2020). Ao contrário
das evocações distópicas da inteligência artificial geral totalmente dissociada da intervenção
humana, os etnógrafos precisam de prestar muita atenção a estas formas evolutivas de
responsabilidade social dentro de sistemas automatizados.
AgradecimentosGostaria de agradecer a Sharon Zukin, John Torpey, Fred Turner, Melissa Valentine, Rebecca
Hinds e aos participantes do Simpósio de Lançamento do Centro de Cultura e Sociedade Digital (Universidade da
Pensilvânia, Escola de Comunicação Annenberg), ao Médialab (Sciences-Po )/Centre Internet et Société (CNRS) e ao
workshop Communication Works in Progress (CWIP) (Universidade de Stanford) pelos seus comentários sobre
versões anteriores deste artigo. Esta pesquisa foi apoiada pela Cátedra “Grandes Mudanças Sociais” (Sorbonne
Université – Institut d'Etudes Avancées de Paris).
Referências
Abebe, R., Barocas, S., Kleinberg, J., Levy, K., Raghavan, M. e Robinson, DG (2020). Funções para
computação na mudança social. Na Conferência sobre Justiça, Responsabilidade e Transparência (FAT* '20),
Teoria e Sociedade
27 a 30 de janeiro de 2020, Barcelona, Espanha. ACM, Nova York, NY, EUA, 9 páginas.https://arxiv.
org/pdf/1912.04883.pdf.
Anderson, CW (2011). Entre públicos criativos e quantificados: métricas da Web e mudanças nos padrões de
trabalho jornalístico em redações locais dos EUA.Jornalismo, 12(5), 550–566.
Anderson, CW e Kreiss, D. (2013). Caixas pretas como capacidades e restrições à ação: eleições
política, jornalismo e dispositivos de representação.Sociologia Qualitativa, 36,365–382.
Andrejevic, M. (2003).Reality TV: O trabalho de ser assistido.Nova York: Rowman & Littlefield Publishers.
Angwin J., Larson, J., Mattu, S. e Krichner, L. (2016). Viés de máquina.ProPública,23 de maio de 2016.
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing.
Ananny, M. e Crawford, K. (2016). Ver sem saber: Limitações do ideal de transparência e sua
aplicação à responsabilidade algorítmica.Novas Mídias e Sociedade, 20(3), 973–989.
Cevada, SR (1986). A tecnologia como ocasião de estruturação: evidências de observações de tomógrafos
e a ordem social dos departamentos de radiologia.Ciência Administrativa Trimestral, 31(1), 78–108. Barocas,
S., Rosenblat, A., boyd, d., Gangdharan, SP, e Yu, P. (2014). Dados e direitos civis: Tecnologia
cartilha. Conferência sobre Dados e Direitos Civis, outubro de 2014.https://papers.ssrn.com/sol3/papers.cfm?
abstract_id=2536579.
Barocas, S., & Selbs, AD (2016). O impacto díspar do big data.Revisão da Lei da Califórnia, 104,671–732.
Baym, NK (2018).Tocando para a multidão: Músicos, público e o trabalho íntimo de conexão.Novo
York: Imprensa da Universidade de Nova York.
Boellstorff, T., Nardi, B., Pearce, C. e Taylor, TL (2012).Etnografia e mundos virtuais: um manual de
método.Princeton: Princeton University Press.
Bourdieu, P. (1999). Entendimento. P.p. 607-626 pol.O Peso do Mundo: Sofrimento Social em
Sociedade contemporânea.Stanford: imprensa da Universidade de Stanford.
Cristina, A. (2020b). O que os dados podem fazer: Uma tipologia de mecanismos.Revista Internacional de Comunicação,
14(2020), 1115–1134.
Christin, A. e Lewis, R. (2020). O drama das métricas: status e hierarquias no drama do YouTube
criadores. Manuscrito não publicado.
Cristina, A. (2018). Contando cliques: Quantificação e variação no webjornalismo nos Estados Unidos e
França.Jornal Americano de Sociologia, 123(5), 1382–1415.
Cristina, A. (2017). Algoritmos na prática: Comparando webjornalismo e justiça criminal.Grandes dados e
Sociedade, 4(2), 1–14.
Coleman, EG (2014).Hacker, fraudador, denunciante, espião: as muitas faces do anônimo.Londres e
Nova York: Verso Books.
Corbett-Davis, S., Pierson, E., Feller, A. e Goel, S. (2016). Um programa de computador usado para fiança e
as decisões de condenação foram rotuladas como tendenciosas contra os negros: na verdade, não é tão claro.OWashington
Post.17 de outubro de 2016.
Crawford, K. e Schultz, J. (2014). Big data e devido processo: Rumo a uma estrutura para corrigir problemas preditivos
danos à privacidade.Revisão de Direito da Faculdade de Boston, 55(1).
Duffy, BE (2017). (Não) ser pago para fazer o que você ama: gênero, mídia social e trabalho aspiracional.
New Haven: Imprensa da Universidade de Yale.
Duffy, BE e Hund, E. (2015). 'Ter tudo' nas redes sociais: feminilidade empreendedora e auto-estima
branding entre blogueiros de moda.Mídias Sociais + Sociedade,1-15.
Duneier, M. (2011). Como não mentir com a etnografia.Metodologia Sociológica, 41,1–11.
Eliseu, MC (2019). Zonas de deformação moral: contos de advertência na interação humano-robô.Ciência envolvente,
Tecnologia e Sociedade, 5(2019), 40–60.
Elish, MC e Watkins, EA (2020).Reparando a inovação: um estudo sobre a integração da IA nos cuidados clínicos.
Manuscrito não publicado.
Espeland, WN e Stevens, ML (1998). A comensuração como processo social.Revisão Anual de Sociologia,
24(1), 313–343.
Eubanks, V. (2017).Automatizando a desigualdade: como as ferramentas de alta tecnologia perfilam, policiam e punem os pobres.Novo
York: St.
Foucault, M. (1975).Disciplinar e punir: O nascimento da prisão.Nova York: Livros Antigos. Fourcade, M. e Healy, K.
(2017). Vendo como um mercado.Revisão Socioeconômica, 15(1), 9–29. Gillespie, T. (2016). #Trendingistrending:
Quando os algoritmos se tornam cultura. EmCulturas algorítmicas: ensaios
sobre Significado, Desempenho e Novas Tecnologias,editado por R. Seyfert e J. Roberge. Abingdon:
Routledge.
Glaser, BG e Strauss, AL (1967).A Descoberta da Teoria Fundamentada nos Dados: Estratégias para a Qualitativa
Pesquisar.Chicago: Aldine Publishing Company.
Goffman, E. (1959).A apresentação de si mesmo na vida cotidiana.Nova York: Doubleday.
Gray, M. e Suri, S. (2019).Trabalho fantasma: como impedir que o Vale do Silício construa uma nova subclasse global.
Nova York: HMH.
Griesbach, K., Reich, A., Elliott-Negri, L. e Milkman, R. (2019). Controle algorítmico em plataforma alimentar
trabalho de entrega.Sócio5.
Haggerty, KD e Ericson, RV (2003). A assembléia vigilante.Jornal Britânico de Sociologia, 51 (4),
605–622.
Hannak, A., Soeller, G., Lazer, D., Mislove, A. e Wilson, C. (2014). Medir a discriminação de preços e
direcionamento em sites de comércio eletrônico.IMC'14,5 a 7 de novembro de 2014, Vancouver, BC, Canadá. https://
personalization.ccs.neu.edu/static/pdf/imc151-hannak.pdf.
Hannerz, U. (2003). Estar lá... e ali... e ali! Reflexões sobre etnografia multissítio.
Etnografia,4, 201–216.
Hine, C. (2015).Etnografia para a internet.Londres: Bloomsbury.
Hjort, L., Horst, H., Galloway, A. e Belle, G. (2017).O companheiro Routledge para etnografia digital.Novo
Iorque: Routledge.
Teoria e Sociedade
Introna, LD (2016). Algoritmos, governança e governamentalidade: sobre como governar a redação acadêmica.Ciência,
Tecnologia e Valores Humanos, 41(1), 17–49.
Irani, L. (2015). Diferença e dependência entre trabalhadores digitais: o caso do Amazon Mechanical Turk.
Trimestral do Atlântico Sul, 114(1), 225–234.
Kiviat, B. (2019). Os limites morais das práticas preditivas: o caso das pontuações de seguros baseadas em crédito.
Revisão Sociológica Americana, 84(6), 1134–1158.
Knorr Cetina, K. (1999).Culturas epistêmicas: como as ciências produzem conhecimento.Cambridge: Harvard
Jornal universitário.
Knox, H. e Nafus, D. (Eds.). (2018).Etnografia para um mundo saturado de dados.Manchester: Manchester
Jornal universitário.
Kolkman, D. (2020). A (in)credibilidade dos modelos algorítmicos para não especialistas.Informação, Comunicação e
Sociedade,Online primeiro, 1–17.
Kotliar, D. (2020). Quem pode escolher? Sobre a construção sócio-algorítmica da escolha.Tecnologia científica,
& Valores HUMANOS.On-line primeiro.
Kunda, G. (2006).Cultura de engenharia: controle e comprometimento em uma corporação de alta tecnologia (Edição revisada).
Filadélfia: Temple University Press.
Lamont, M., Beljean, S. e Clair, M. (2014). O que está faltando? Caminhos Culturais para a Desigualdade.Sócio-
Revisão Econômica,1–36.
Lange, A.-C., Lenglet, M., & Seyfert, R. (2018). Ao estudar algoritmos etnograficamente: entendendo
objetos de ignorância.Organização, 26(4), 598–617.
Latour, B. (2010).A elaboração da lei: uma etnografia do Conseil d'Etat.Londres: Política. Latour, B. (1999a).A esperança de
Pandora: Ensaios sobre a realidade dos estudos científicos.Cambridge: Universidade de Harvard
Imprensa.
Metz, C. (2015). O Google tem 2 bilhões de linhas de código – e está tudo em um só lugar.Com fio,16 de setembro de 2015.
Obtido de:https://www.wired.com/2015/09/google-2-billion-lines-codeand-one-place/. Mitchell,
M., Wu, S., Zaldivar, A., Barnes, P., Vasserman, L., Hutchinson, B., Spitzer, E., Raji, ID, e
Gebru, T. (2019). Cartões de modelo para relatórios de modelo. ACMAnais da Conferência sobre Justiça,
Responsabilidade e Transparência.220-229.https://arxiv.org/abs/1810.03993.
Mols, B. (2017). Nos algoritmos de caixa preta confiamos (ou confiamos?).Comunicações da ACM.16 de março de 2017.
Obtido de:https://cacm.acm.org/news/214618-in-black-box-algorithms-we-trust-or-do-we/fulltext. Neff, G.
(2012).Trabalho de risco: Trabalho e a carga do risco em indústrias inovadoras.Cambridge: MIT Press. Neff, G. e
Stark, S. (2003). Permanentemente beta: Organização responsiva na era da Internet. P.p. 173-188 na pág.
Howard e S. Jones (eds.),Sociedade Online: A Internet em Contexto.Mil carvalhos, CA: Sage.
Neiland, D. (2019).A vida cotidiana de um algoritmo.Cham: Palgrave McMillan, Springer Nature.
Teoria e Sociedade
Nobre, SU (2018).Algoritmos de opressão: como os motores de busca reforçam o racismo.Nova York: NYU Press.
O'Neil, C. (2016).Armas de destruição matemática.Nova York: Coroa.
Orlikowski, W. (2007). Práticas sociomateriais: explorando a tecnologia no trabalho.Estudos Organizacionais, 28 (9),
1435–1448.
Orlikowski, W. (2000). Usando tecnologia e constituindo estruturas: uma lente prática para estudar tecnologia
nas organizações.Ciência da Organização, 11(4), 404–428.
Orr, J. (1996).Falando sobre Máquinas: Uma Etnografia de um Trabalho Moderno.Ithaca: Cornell University Press.
Petre, C. (2015). As fábricas de tráfego: Metrics at Chartbeat, Gawker Media e The New York Times.Rebocar
Centro de Jornalismo Digital.Obtido de:https://academiccommons.columbia.edu/doi/10.7916/
D80293W1.
Pasquale, F. (2015).A sociedade da caixa preta: os algoritmos secretos que controlam dinheiro e informações.
Cambridge: Harvard University Press.
Powles, J. e Nissenbaum, H. (2018). A diversão sedutora do preconceito de “solução” na inteligência artificial.
Médio,7 de dezembro de 2018.https://onezero.medium.com/the-seductive-diversion-of-solving-bias-in-
artificialintelligence-890df5e5ef53.
Roberto, S. (2019).Atrás da tela: moderação de conteúdo nas sombras das redes sociais.New Haven: Yale
Jornal universitário.
Rosenblat, A. (2018).Uberlândia: Como os algoritmos estão reescrevendo as regras de trabalho.Berkeley: Universidade de
Imprensa da Califórnia.
Rosenblat, A. e Stark, L. (2016). Trabalho algorítmico e assimetrias de informação: um estudo de caso da Uber
motoristas.Revista Internacional de Comunicação, 10,3758–3784.
Sachs, SE (2019). O algoritmo em ação? Explicação e reparo na promulgação de similaridade em dados artísticos.
Informação,Comunicação e Sociedade, 1–17.
Sandvig, C., Hamilton, K., Karahalios, K. e Langbort, C. (2014). Algoritmos de auditoria: métodos de pesquisa
para detectar discriminação em plataformas da Internet. Artigo apresentado aDados e Discriminação:
Convertendo Preocupações Críticas em Investigação Produtiva,64ª Reunião Anual da Associação
Internacional de Comunicação. 22 de maio de 2014; Seattle, WA. Obtido de:http://www-personal.umich. edu/
~csandvig/research/Auditing%20Algorithms%20%2D%2D%20Sandvig%20%2D%2D%20
ICA%202014%20Data%20and%20Discrimination%20Preconference.pdf.
Scholz, T. (2013).Trabalho digital: a internet como playground e fábrica.Nova York: Routledge. Seaver, N. (2018).
Algoritmos cativantes: Sistemas de recomendação como armadilhas.Revista de Cultura Material,
Online primeiro, 1–16.
Seaver, N. (2017). Algoritmos como cultura: Algumas táticas para a etnografia de sistemas algorítmicos.Grandes dados
e Sociedade, 4(2), 205395171773810.
Shestakofsky, B. (2017). Algoritmos de trabalho: Automação de software e o futuro do trabalho.Trabalhar e
Ocupações, 44(4), 376–423.
Siles, I., Segura, A., Solís, R., & Sancho, M. (2020). Teorias populares de recomendações algorítmicas sobre
Spotify: Promovendo conjuntos de dados no sul global.Big Data e Sociedade, 7(1), 1–15.
Silverman, J. (2020). Espiões, mentiras e obstruções: como é fazer reportagens no Facebook.Jornalismo da Colômbia
Análise,1º de julho de 2020.https://www.cjr.org/special_report/reporting-on-facebook.php.
Neve, DA (1980). O processo de desligamento: um problema negligenciado na pesquisa de observação participante.
Sociologia Qualitativa, 3,100–122.
Stuart, F. (2020).Balada da bala: gangues, música de treino e o poder da infâmia online.Princeton: Princeton
Jornal universitário.
Suchman, L., Blomberg, J., Orr, JE e Trigg, R. (1999). Reconstruindo tecnologias como prática social.
Cientista Comportamental Americano, 43 (3), 392–408.
Sweeney, L. (2013). Discriminação na entrega de anúncios online.Fila ACM, 11(3), 1–19.
Terranova, T. (2000). Mão de obra gratuita: Produzindo cultura para a economia digital.Texto Social, 18(2), 33–58. Ticona, J. e
Mateescu, A. (2018). Estranhos de confiança: empreendedorismo cultural em plataformas de trabalho doméstico em
a economia sob demanda.Novas Mídias e Sociedade, 20(11), 4384–4404.
Timmermans, S. e Tavory, I. (2012). Construção de teoria na pesquisa qualitativa: da teoria fundamentada à
análise abdutiva.Teoria Sociológica, 30(3), 167–186.
Turner, F. (2009). Burning man no Google: uma infraestrutura cultural para a produção de novas mídias.Novas mídias &
Sociedade, 11(1–2), 73–94.
Turner, F. (2005). Ator-rede de notícias.Epistemologia Social, 19(4), 321–324.
Teoria e Sociedade
Zuboff, S. (2019).A era do capitalismo de vigilância: A luta por um futuro humano na nova fronteira da
poder.Nova York: Relações Públicas.
Zukin, S. e Papadantonakis, M. (2017). Hackathons como ritual de cooptação. Em AL Kalleberg, SP Vallas
(eds.)Trabalho Precário/Pesquisa em Sociologia do Trabalho,31, 157–181.
Nota do editor A Springer Nature permanece neutra em relação às reivindicações jurisdicionais em mapas publicados
e afiliações institucionais.