Você está na página 1de 376

Machine Translated by Google

Machine Translated by Google


Machine Translated by Google
Machine Translated by Google
Machine Translated by Google

Copyright © 2022 por Max Fisher

O Hachette Book Group apoia o direito à liberdade de expressão e o valor dos direitos
autorais. O propósito dos direitos autorais é encorajar escritores e artistas a produzir
trabalhos criativos que enriqueçam nossa cultura.

A digitalização, upload e distribuição deste livro sem permissão é um roubo da propriedade


intelectual do autor. Se você deseja obter permissão para usar o material do livro (exceto
para fins de revisão), entre em contato com permissions@hbgusa.com. Obrigado por
seu apoio aos direitos do autor.

Little, Brown and Company


Hachette Book Group 1290
Avenue of the Americas, Nova York, NY 10104 littlebrown.com
twitter.com/
littlebrown facebook.com/
littlebrownandcompany

Primeira edição do e-book: setembro de 2022

Little, Brown and Company é uma divisão da Hachette Book Group, Inc. O nome e o logotipo
Little, Brown são marcas registradas da Hachette Book Group, Inc.

O editor não é responsável por sites (ou seu conteúdo) que não sejam de sua propriedade.

O Hachette Speakers Bureau fornece uma ampla gama de autores para eventos de
palestras. Para saber mais, acesse hachettespeakersbureau.com ou ligue para (866)
376-6591.

ISBN 978-0-316-70331-4

E3-20220706-JV-NF-ORI
Machine Translated by Google

Conteúdo

Cobrir

Folha de rosto

direito autoral

Dedicação

Nota do autor

prólogo: consequências
Um: Preso no Cassino
Dois: Tudo é Gamergate
Três: Abrindo o Portal
Quatro: Tirania dos Primos
Cinco: Despertando a Máquina
Seis: O Espelho da Casa Divertida

Sete: Os Germes e o Vento

Oito: Sinos de Igreja


Nove: A Toca do Coelho
Dez: Os Novos Senhores Supremos

Onze: Ditadura dos Semelhantes


Doze: Infodemia

epílogo: denúncia

Agradecimentos
Descubra mais
Machine Translated by Google

Sobre o autor
Notas
Machine Translated by Google

Para mamãe e papai, por me trazer até aqui


Para Jordan, por me ajudar
Machine Translated by Google

Explore ofertas de livros, prévias, ofertas e muito mais.

Toque aqui para saber mais.


Machine Translated by Google

Nota do autor

Este livro é baseado em entrevistas com centenas de pessoas que estudaram,


combateram, exploraram ou foram afetadas pelas mídias sociais, bem como com
trabalhadores e executivos do Vale do Silício. Em alguns casos, para facilitar a
leitura, o nome e o título da fonte podem aparecer na seção Notas, e não na
narrativa. Todas as entrevistas foram realizadas em gravação, exceto uma, com
um moderador terceirizado que pediu para permanecer sob o pseudônimo.
Revisei recibos de pagamento e arquivos corporativos que confirmam a conta dele.
O livro também se baseia fortemente em pesquisas acadêmicas, registros
judiciais e muitas outras fontes primárias, listadas nas Notas como evidências de
apoio para cada figura ou afirmação apresentada na narrativa, bem como para
qualquer citação que eu mesmo não relatei. Algumas declarações baseiam-se
em pesquisas acadêmicas que ainda não foram publicadas fora deste livro.
Nesses casos, uma breve visão geral das descobertas, metodologia e autoria
aparece na seção Notas.
Machine Translated by Google

prólogo

consequências

Entrar na sede do Facebook é como entrar no Vaticano: um centro de poder envolto em


segredo e opulência que envergonharia um oligarca russo. A empresa gastou US$ 300 milhões
sozinha no prédio número 21, um playground arejado de aço e vidro com jardins, pátios e
restaurantes com tudo gratuito que visitei no final de 2018. Entre as reuniões, um mural de
dois andares na parede dos fundos pegou meu olho, lembrando-me de um famoso artista
chinês que recentemente foi apresentado no Museu Guggenheim. Perguntei ao representante
de relações públicas que estava cuidando de mim se havia sido deliberadamente pintado em
seu estilo. Ela riu educadamente. Não era mímica; o artista havia voado para fazer um original
nas paredes do Facebook. Assim como dezenas de outros artistas. Ao meu redor,
programadores fabulosamente pagos corriam por corredores adornados por murais de valor
inestimável.

Em minha bolsa, enfiada entre blocos de notas, estava meu ingresso: mais de 1.400
páginas de documentos internos, de regiões do mundo todo, que revelavam a mão invisível
do Facebook em estabelecer os limites da política e do discurso aceitáveis para dois bilhões
de usuários em todo o mundo. Para o insider que os vazou para mim, os arquivos eram
evidências da negligência e dos atalhos da empresa na tentativa de conter a crescente
turbulência global que ele acreditava que seus produtos exacerbavam, ou mesmo causavam.
Para mim, eles eram ainda mais do que isso. Eles eram uma janela para como a liderança do
Facebook pensava sobre as consequências da ascensão da mídia social.

Como muitos, inicialmente presumi que os perigos da mídia social vinham principalmente
do uso indevido por pessoas mal-intencionadas – propagandistas, agentes estrangeiros,
vendedores de notícias falsas – e que, na pior das hipóteses, as várias plataformas eram um
canal passivo para os problemas preexistentes da sociedade. Mas praticamente em todos os
lugares que viajei em minhas reportagens, cobrindo déspotas distantes, guerras e revoltas,
eventos estranhos e extremos continuavam sendo vinculados às mídias sociais. Um tumulto repentino, um
Machine Translated by Google

novo grupo radical, crença generalizada em alguma conspiração excêntrica - todos


tinham um elo comum. E embora a América ainda não tivesse explodido em violência,
as semelhanças com o que estava acontecendo em casa eram inegáveis. Toda
semana havia outra história de uma conspiração do Twitter ultrapassando a política
nacional, uma subcultura do Reddit se tornando neonazista, um viciado no YouTube
se voltando para o assassinato em massa.
E a inesperada vitória de Donald Trump em 2016 foi atribuída, em parte, às redes
sociais. Embora o papel das plataformas permanecesse mal compreendido, já estava
claro que a ascensão de Trump havia sido estimulada por estranhos novos movimentos
populares e meios de comunicação hiperpartidários que prosperaram online, bem
como por agentes russos que exploraram as tendências distorcivas e indulgentes da
identidade da mídia social. . Esse padrão global parecia indicar algo fundamental para
a tecnologia, mas exatamente o que era, por que estava acontecendo ou o que
significava, ninguém soube me dizer.
Do outro lado do mundo, um jovem que chamarei de Jacob, um empreiteiro de uma
das grandes empresas de terceirização para as quais o Vale do Silício envia seu
trabalho sujo, tinha as mesmas suspeitas que as minhas. Ele tinha levantado todos os
alarmes que podia. Seus chefes ouviram com preocupação, disse ele, até mesmo com
simpatia. Eles tinham visto as mesmas coisas que ele. Algo no produto que eles
supervisionavam estava dando perigosamente errado.
Jacob, magro e estudioso, cresceu apaixonado pela internet e mexeu em
computadores por anos. As tecnologias pareciam representar o melhor dos Estados
Unidos. Ele admirava especialmente magnatas da web como Mark Zuckerberg, CEO e
fundador do Facebook, que argumentava que conectar o mundo o tornaria melhor.
Quando Jacob conseguiu um emprego em uma agência de terceirização que revisava
o conteúdo do usuário para o Facebook e o Instagram, uma das várias que a empresa
emprega em todo o mundo, parecia fazer parte da história.

Todos os dias, sua equipe clicava em milhares de postagens de todo o mundo,


sinalizando qualquer uma que quebrasse uma regra ou cruzasse uma linha. Era um
trabalho exaustivo, mas necessário, ele sentiu. Mas ao longo de alguns meses em
2017 e 2018, eles notaram as postagens ficando mais odiosas, mais conspiratórias e
mais extremas. E quanto mais incendiário o post, eles sentiram, mais amplamente as
plataformas o espalharam. Parecia-lhes um padrão, que se repetia ao mesmo tempo
nas dezenas de sociedades e línguas que tinham a tarefa de supervisionar.
Machine Translated by Google

Além disso, eles acreditavam que sua capacidade de conter esse ódio e
incitamento crescentes era prejudicada exatamente pelo que deveria ajudá-los: as
dezenas de livros de regras secretos ditando o que eles deveriam permitir nas
plataformas e o que remover. Para os mais de dois bilhões de usuários do Facebook,
essas regras são praticamente invisíveis. Eles pretendem manter as plataformas
seguras e civilizadas, articulando tudo, desde a linha entre a liberdade de expressão
e o discurso de ódio até os limites dos movimentos políticos permissíveis. Mas como
os livros de regras se mostraram inadequados para conter os danos que muitas vezes
eram provocados pela própria plataforma, e como a supervisão corporativa dessa
parte menos glamorosa do negócio se desvaneceu, os guias mundiais se espalharam
por centenas de páginas confusas e muitas vezes contraditórias. Algumas das mais
importantes, sobre identificação de recrutamento terrorista ou supervisão de eleições
contenciosas, estavam repletas de erros de digitação, erros factuais e brechas óbvias.
O desleixo e as lacunas sugeriam um perigoso desrespeito por um trabalho que Jacob
via como uma questão de vida ou morte, e numa época em que as plataformas
transbordavam de extremismo que cada vez mais se infiltrava no mundo real. Apenas
alguns meses antes, em Mianmar, as Nações Unidas haviam acusado formalmente o
Facebook de permitir que sua tecnologia ajudasse a provocar um dos piores
genocídios desde a Segunda Guerra Mundial.
Jacob registrou as descobertas e preocupações de sua equipe para enviar à rede.
Meses se passaram. O aumento do extremismo online só piorou. Ele batia o ponto,
esperando em seu terminal por uma resposta do quartel-general, distante na América,
que nunca veio. Ele teve uma ideia. Isso significaria quebrar o sistema de segurança
no trabalho, secretar arquivos confidenciais no exterior e convencer a mídia a
transmitir seus avisos para ele – tudo na esperança de entregá-los à tela de uma
pessoa: Mark Zuckerberg, fundador e CEO do Facebook. A distância e a burocracia,
ele tinha certeza, o impediam de chegar aos responsáveis. Se ao menos ele pudesse
falar com eles, eles iriam querer consertar as coisas.

Jacob me procurou pela primeira vez no início de 2018. Uma série de histórias em
que trabalhei, investigando o papel da mídia social no aumento da violência em massa
em lugares como a pequena nação asiática do Sri Lanka, pareceu a ele uma
confirmação de que os problemas que ele observou em sua tela era real - e tinha
consequências crescentes, às vezes mortais. Mas ele sabia que apenas sua palavra
não seria suficiente. Ele precisaria extrair os livros de regras internos do Facebook e
os documentos de treinamento dos computadores de seu escritório. Não seria fácil—
Machine Translated by Google

as máquinas estavam fortemente bloqueadas e o escritório monitorado de perto - mas era


possível: um ano antes, alguém havia conseguido passar alguns dos arquivos para o The
Guardian, e mais tarde vazaram para o Vice News. Jacob construiu um programa para secretar
os arquivos, criptografando-os e lavando-os para remover as impressões digitais que poderiam
remontar a ele ou até mesmo ao país onde seu escritório estava localizado. Ele transferiu
alguns para mim através de um servidor seguro. Algumas semanas depois, voei para reunir o
resto e encontrá-lo.
O Facebook, ao saber o que eu tinha adquirido, convidou-me para sua elegante sede,
oferecendo-se para colocar uma dúzia de formuladores de políticas corporativas disponíveis
para conversar. Todos eram profissionais de mente dura. Alguns acumularam excelentes
reputações em Washington DC, em áreas como contraterrorismo ou segurança cibernética,
antes de ingressar na corrida do ouro no Vale do Silício. Outros tiveram experiências
impressionantes em direitos humanos ou política. Eles dificilmente eram os hackers de porão
e os desistentes deslumbrados que já governaram as plataformas - embora mais tarde ficasse
claro que as ideologias e preconceitos de dormitório dos primeiros dias do Vale do Silício
ainda eram mantidos com convicção quase religiosa em seus campi, e permaneceu incorporado
à própria tecnologia que impulsionou esses mesmos ideais para o mundo mais amplo.

Um padrão estranho surgiu em minhas conversas na sede do Facebook. Um executivo


me guiava pelo desafio que consumia seus dias: bloquear o recrutamento de terroristas na
plataforma, enganar hackers governamentais hostis, determinar quais combinações de
palavras constituíam um incitamento inaceitável à violência.

Quase todas as perguntas que eu fazia, por mais delicadas que fossem, produziam uma
resposta direta e sutil. Quando os problemas permaneceram sem solução, eles reconheceram isso.
Ninguém nunca teve que verificar suas anotações para me dizer, digamos, a política do
Facebook sobre grupos de independência curdos ou seus métodos para distribuir regras de
discurso de ódio em tagalo.
Eu me perguntei: com pessoas tão conscientes e ultraqualificadas no comando, por que
os problemas para os quais eles articulam respostas tão ponderadas só parecem piorar?
Quando grupos de direitos humanos alertam o Facebook sobre o perigo iminente de sua
plataforma, por que a empresa frequentemente falha em agir? Por que jornalistas como eu,
que têm pouca visibilidade sobre as operações das plataformas e uma fração infinitesimal de
sua equipe ou orçamento, continuam revelando atrocidades e cultos nascidos no Facebook
que parecem pegá-los de surpresa? Mas em algum momento de cada entrevista, quando eu
Machine Translated by Google

pergunte sobre os perigos que surgiram não do mau uso da plataforma, mas da própria
plataforma, seria como se uma parede mental fosse erguida.
“Não há nada de novo nos tipos de abuso que você vê”, disse o chefe de política
global da empresa quando perguntei sobre as consequências da plataforma. “O que é
diferente aqui é o poder de amplificação de algo como uma plataforma de mídia social”,
disse ela. “Como sociedade, ainda estamos muito adiantados em entender todas as
consequências da mídia social”, disse o chefe de segurança cibernética da empresa,
sugerindo que a principal mudança trazida pela tecnologia foi simplesmente reduzir o
“atrito” na comunicação, o que permitiu que as mensagens fossem para viajar mais
rápido e mais longe.
Era uma imagem estranhamente incompleta de como o Facebook funciona. Muitos
na empresa pareciam quase inconscientes de que os algoritmos e o design da plataforma
moldam deliberadamente as experiências e os incentivos dos usuários e, portanto, os
próprios usuários. Esses elementos são o núcleo do produto, a razão pela qual centenas
de programadores zumbiam ao nosso redor enquanto conversávamos. Era como entrar
em uma fábrica de cigarros e ouvir executivos dizerem que não conseguiam entender
por que as pessoas reclamavam dos impactos à saúde causados pelas caixinhas de
papelão que vendiam.
A certa altura, conversando com dois funcionários que supervisionavam a resposta à
crise, saí do modo de repórter para alertá-los sobre algo preocupante que eu havia visto.
Em países ao redor do mundo, um boato horrível estava surgindo, aparentemente
espontaneamente, no Facebook: que forasteiros misteriosos estavam sequestrando
crianças locais para torná-las escravas sexuais e colher seus órgãos.
As comunidades expostas a esse boato estavam respondendo de maneiras cada vez
mais perigosas. Quando se espalhou via Facebook e WhatsApp para uma parte rural da
Indonésia, por exemplo, nove aldeias diferentes se reuniram separadamente em
multidões e atacaram transeuntes inocentes. Era como se esse boato fosse algum vírus
misterioso que transformava comunidades normais em enxames sanguinários, e que
parecia estar emergindo da própria plataforma. Os dois usuários do Facebook ouviram e
assentiram. Nenhum dos dois fez perguntas. Uma comentou vagamente que esperava
que um pesquisador independente pudesse investigar essas coisas um dia, e seguimos
em frente.
Mas versões do boato continuaram a surgir no Facebook. Uma iteração americana,
que apareceu pela primeira vez no quadro de mensagens 4chan sob o rótulo “QAnon”,
recentemente atingiu o Facebook como uma partida para uma piscina de gasolina. Mais
tarde, quando o QAnon se tornou um movimento com dezenas de milhares de
Machine Translated by Google

seguidores, um relatório interno do FBI identificou-o como uma ameaça de terrorismo doméstico.
Durante todo o tempo, os mecanismos de recomendação do Facebook promoveram grupos
QAnon para um grande número de leitores, como se este fosse apenas outro clube, ajudando a
aumentar a conspiração até o tamanho de um partido político menor, aparentemente por
nenhuma razão mais elaborada do que os cliques contínuos que o conteúdo QAnon gerou. .

Dentro dos murais do Facebook, porém, a crença no produto como uma força para o bem
parecia inabalável. O ideal central do Vale do Silício de que fazer com que as pessoas passem
cada vez mais tempo on-line enriquecerá suas mentes e melhorará o mundo, manteve-se
especialmente firme entre os engenheiros que, em última instância, fabricam e moldam os
produtos. “Como temos maior alcance, como temos mais pessoas engajadas, isso aumenta as
apostas”, disse um engenheiro sênior do importantíssimo feed de notícias do Facebook. “Mas
também acho que há uma oportunidade maior para as pessoas serem expostas a novas ideias.”
Quaisquer riscos criados pela missão da plataforma de maximizar o envolvimento do usuário
seriam eliminados, ela me garantiu.

Mais tarde, soube que, pouco antes de minha visita, alguns pesquisadores do Facebook,
designados internamente para estudar os efeitos de sua tecnologia, em resposta à crescente
suspeita de que o site poderia estar piorando as divisões políticas da América, haviam alertado
internamente que a plataforma estava fazendo exatamente o que o os executivos da empresa
haviam, em nossas conversas, dado de ombros. “Nossos algoritmos exploram a atração do
cérebro humano pela divisão”, alertaram os pesquisadores em uma apresentação de 2018 que
vazou posteriormente para o Wall Street Journal. Na verdade, continuou a apresentação, os
sistemas do Facebook foram projetados de forma a fornecer aos usuários “conteúdo cada vez
mais divisivo em um esforço para atrair a atenção do usuário e aumentar o tempo na plataforma”.
Os executivos arquivaram a pesquisa e rejeitaram amplamente suas recomendações, que
exigiam ajustes nos sistemas promocionais que escolhem o que os usuários veem de maneiras
que poderiam reduzir seu tempo online. A pergunta que eu trouxe para os corredores do
Facebook – quais são as consequências de direcionar uma parcela cada vez maior de toda a
política, informação e relações sociais humanas por meio de plataformas online expressamente
projetadas para manipular a atenção? – era claramente um tabu aqui.

Os meses após minha visita coincidiram com o que foi então a maior reação pública da
história do Vale do Silício. Os gigantes da mídia social enfrentaram audiências no Congresso,
regulamentação estrangeira, multas multibilionárias e
Machine Translated by Google

ameaças de separação forçada. Figuras públicas rotineiramente se referiam às


empresas como uma das ameaças mais graves de nosso tempo. Em resposta, os
líderes das empresas se comprometeram a enfrentar os danos decorrentes de seus
serviços. Eles revelaram salas de guerra de integridade eleitoral e atualizaram as
políticas de revisão de conteúdo. Mas seu modelo de negócios – manter as pessoas
grudadas em suas plataformas tantas horas por dia quanto possível – e a tecnologia
subjacente implantada para atingir esse objetivo permaneceram praticamente
inalterados. E, embora os problemas que prometeram resolver só piorassem, eles
ganhavam mais dinheiro do que nunca.
A nova década trouxe uma onda de crises. A pandemia de Covid-19, avaliação
racial e reação nos Estados Unidos, a ascensão acelerada de uma violenta nova
extrema-direita e a tentativa de destruição da própria democracia americana. Cada
um testou a influência das plataformas em nosso mundo - ou a revelou, expondo
ramificações que vinham crescendo há anos.
No verão de 2020, uma auditoria independente do Facebook, encomendada pela
empresa sob pressão de grupos de direitos civis, concluiu que a plataforma era tudo
o que seus executivos insistiam para mim que não era. Suas políticas permitiram
desinformação desenfreada que poderia prejudicar as eleições.
Seus algoritmos e sistemas de recomendação estavam “conduzindo as pessoas a
câmaras de eco auto-reforçadas do extremismo”, treinando-as para odiar.
Talvez o mais contundente seja o fato de o relatório concluir que a empresa não
entendia como seus próprios produtos afetavam seus bilhões de usuários.
Mas havia um punhado de pessoas que entendiam e, muito antes de muitos de
nós estarmos preparados para ouvir, tentaram nos alertar. A maioria começou como
verdadeiros crentes obcecados por tecnologia, alguns como habitantes do Vale do
Silício, e era exatamente por isso que eles estavam em uma posição melhor para
perceber com antecedência que algo estava errado, para investigar e medir as
consequências. Mas as empresas que afirmavam querer exatamente tais insights
frustravam seus esforços, questionavam suas reputações e contestavam suas
descobertas – até que, em muitos casos, as empresas eram forçadas a reconhecer,
mesmo que apenas implicitamente, que os que disparavam o alarme estavam certos
o tempo todo. Eles conduziram seus trabalhos, pelo menos inicialmente, de forma
independente um do outro, seguindo métodos muito diferentes para a mesma
pergunta: quais são as consequências dessa tecnologia? Este livro é sobre a missão
de responder a essa pergunta, contada em parte por meio das pessoas que a lideraram.
A sabedoria convencional inicial, que a mídia social promove
Machine Translated by Google

sensacionalismo e indignação, embora precisos, acabaram subestimando


drasticamente as coisas. Um conjunto cada vez maior de evidências, reunidas por
dezenas de acadêmicos, repórteres, denunciantes e cidadãos preocupados, sugere
que seu impacto é muito mais profundo. Essa tecnologia exerce uma atração tão
poderosa sobre nossa psicologia e nossa identidade, e é tão penetrante em nossas
vidas que muda a forma como pensamos, nos comportamos e nos relacionamos uns
com os outros. O efeito, multiplicado por bilhões de usuários, foi mudar a própria sociedade.
O Vale do Silício dificilmente pode ser responsabilizado pelas fragilidades
psicológicas que nos levam a fazer mal ou a agir contra nossos próprios interesses.
Nem pela profunda polarização cultural, nos Estados Unidos e em outros lugares, que
induziu os usuários a transformar esses novos espaços em locais de conflito partidário,
destruindo qualquer senso compartilhado de bem-estar ou realidade. Mesmo suas
maiores empresas não podem ser culpadas pelo modelo de financiamento de alta
tecnologia que lhes deu origem, entregando investimentos multimilionários a jovens
desajustados de vinte e poucos anos e depois exigindo retornos exponenciais
instantâneos, com pouca preocupação com os incentivos distorcidos que isso cria.
Ainda assim, essas empresas acumularam algumas das maiores fortunas corporativas
da história explorando essas tendências e fraquezas, no processo inaugurando uma
era totalmente nova na experiência humana. As consequências - embora em
retrospectiva quase certamente previsíveis, se alguém se importasse em olhar - foram
obscurecidas por uma ideologia que dizia que mais tempo online criaria almas mais
felizes e livres, e por uma tendência do capitalismo do Vale do Silício que capacita um
contrário, impetuoso, quase subcultura de engenharia milenar para administrar as empresas que dirigem
No momento em que essas empresas foram pressionadas a se comportar pelo
menos um pouco como as instituições governamentais de fato em que se tornaram,
elas se viram no centro de crises políticas e culturais das quais eram parcialmente
culpadas. Você poderia caridosamente chamar a arbitragem de uma democracia
empenhada em sua própria destruição de uma tarefa ingrata - se as empresas não
tivessem se colocado em posições de tal poder, recusado a responsabilidade até que
fosse imposta a eles na ponta de uma arma regulatória e, quase a cada passo do
caminho, comprometeu o bem-estar de seus usuários para manter bilhões de dólares
em receita mensal fluindo. Com pouco incentivo para os gigantes da mídia social
enfrentarem o custo humano para seus impérios - um custo suportado por todos os
outros, como uma cidade a jusante de uma fábrica bombeando lodo tóxico em seu
poço comunitário - caberia a dezenas de forasteiros alarmados e do Silício Desertores
do vale para fazer isso por eles.
Machine Translated by Google

Um

Preso no Cassino

1. O céu está caindo

RENÉE DIRESTA ESTAVA com o bebê no colo quando percebeu que

as redes estavam trazendo à tona algo perigoso nas pessoas, algo que já alcançava
invisivelmente a vida dela e de seu filho. Ninguém em seu círculo imediato tinha filhos,
então ela se juntou a grupos online para novos pais, em busca de conselhos sobre
treinamento do sono ou dentição. Mas os outros usuários, embora em sua maioria
amigáveis, disse ela, ocasionalmente entravam em “guerras inflamadas” com milhares
de postagens e sobre um tópico que ela raramente encontrava off-line: vacinas.

Era 2014 e DiResta havia chegado recentemente ao Vale do Silício, para procurar
startups para uma empresa de investimentos. Ela ainda era uma analista de coração,
de seus anos em Wall Street e, antes disso, em uma agência de inteligência que ela
sugere ser a CIA. Para manter a mente ágil, ela preenchia seu tempo livre com
elaborados projetos de pesquisa, da mesma forma que outras pessoas fariam palavras
cruzadas na cama.
Sua curiosidade provocou, ela começou a investigar se a raiva anti-vacina que ela
viu online refletia algo mais amplo. Enterrada nos arquivos do departamento de saúde
pública da Califórnia, ela percebeu, estavam as taxas de vacinação dos alunos para
quase todas as escolas do estado - incluindo as pré-escolas que ela estava
considerando para seu filho. O que ela encontrou a chocou.
Algumas das escolas foram vacinadas em apenas 30 por cento. "O que diabos está
acontecendo?" ela se perguntou. Ela baixou registros de dez anos.
A tendência durante esse período - um aumento constante nas desistências - era
clara, ela me disse. “Puta merda”, ela pensou, “isso é muito ruim.”
Com taxas tão baixas, surtos de doenças como sarampo ou coqueluche tornaram-
se um grave perigo, colocando em risco as crianças de todos. ela ligou para ela
Machine Translated by Google

senador estadual para perguntar se algo poderia ser feito para melhorar os índices de
vacinação. Isso não ia acontecer, ela foi informada. As vacinas eram realmente tão
odiadas? ela perguntou. Não, disse o funcionário. A pesquisa mostrou 85 por cento de
apoio a um projeto de lei que tornaria mais rígida a obrigatoriedade de vacinas nas escolas.
Mas os legisladores temiam o movimento anti-vacinas extraordinariamente eloquente -
composto por jovens pais da Califórnia dominados pela paranóia e pela raiva - que
parecia estar emergindo do Twitter, YouTube e Facebook.
“Foi isso que realmente me levou a essa toca de coelho”, disse DiResta.
“Durante seis meses, sem brincadeira, das 20h às 2h, foi isso que fiz.”
Com o tempo, aquela toca de coelho a levou não a nenhuma mão secreta por trás do
movimento anti-vacina, mas, sim, às próprias redes sociais nas quais ele surgiu. Na
esperança de organizar alguns desses 85% dos californianos que apoiaram o projeto
de lei de vacinação, ela iniciou um grupo - onde mais? - no Facebook. Quando comprou
anúncios no Facebook para recrutar recrutas, percebeu algo curioso. Sempre que ela
digitava “vacina” ou qualquer coisa tangencialmente ligada ao tópico, na ferramenta de
direcionamento de anúncios da plataforma, ela retornava grupos e tópicos que se
opunham esmagadoramente às vacinas. E outra coisa: quando ela direcionou seus
anúncios para serem exibidos para mães da Califórnia, os usuários que os receberam
responderam com uma enxurrada de injúrias antivacinas. Era como se as opiniões pró-
vacinas de sua comunidade da vida real tivessem sido invertidas online.

Curiosa, ela se juntou a um punhado de grupos anti-vacinas no Facebook. Seus


usuários pareciam viver e respirar a mídia social, circulando clipes do YouTube e
coordenando campanhas de hashtag no Twitter. A maioria expressou angústia genuína
sobre o que eles acreditavam ser uma vasta conspiração para bombear os braços de
seus filhos com tiros perigosos. Mas se eles representavam apenas 15% dos
californianos, por que eram tão dominantes aqui? Logo, DiResta notou que o Facebook
estava fazendo algo estranho: enviando um fluxo de notificações instando-a a seguir
outras páginas anti-vacinas. “Se você se juntou ao único grupo antivacina”, disse ela,
“foi transformador”. Quase todas as recomendações relacionadas a vacinas promovidas
a ela eram de conteúdo antivacina. “O mecanismo de recomendação iria empurrá-los
e empurrá-los e empurrá-los.”

Em pouco tempo, o sistema a levou a considerar ingressar em grupos para


conspirações não relacionadas. Chemtrails. Terra plana. E enquanto ela vasculhava,
ela descobriu outra maneira de o sistema aumentar a desinformação sobre vacinas. Apenas
Machine Translated by Google

assim como na ferramenta de segmentação de anúncios, digitar “vacinas” na barra de


pesquisa do Facebook retornou um fluxo de postagens e grupos antivacinas. Embora as
principais páginas de saúde e parentalidade tenham grupos com muito mais membros,
esses resultados apareceram mais abaixo.
DiResta tinha uma noção do que estava acontecendo. Ela tinha um fascínio por
computadores desde a infância, quando seu pai, um engenheiro biomédico que trabalhava
na pesquisa do câncer, a ensinou a codificar aos nove anos. Ela possuía uma máquina
Timex do início dos anos 1980 que jogava jogos simples. No ensino médio em Nova York,
a engenharia envolveu seu amor pela solução criativa de problemas, bem como pelos
absolutos limpos da matemática. Ela estagiou em laboratórios de ressonância magnética,
ajudando a programar computadores para processar imagens de varredura cerebral.
“Gostei muito da ideia de que você pode construir seu caminho para uma solução”,
disse ela. “Gosto do rigor. Eu gosto da lógica.” E os computadores eram divertidos.
Salas de bate-papo livres no America Online, o serviço de internet discada, forneciam
conexões aleatórias emocionantes. Fóruns para interesses compartilhados esotéricos,
como a banda favorita de DiResta, Nine Inch Nails, pareciam comunidades reais. Na
faculdade, ela se formou em ciência da computação, mas decidiu não fazer pós-graduação,
optando por trabalhar em inteligência e finanças. Ainda assim, quando a poeira da crise
financeira baixou, ela entrou em contato com amigos do Google. Venha para o oeste, eles
disseram.
Embora seu trabalho de investimento no Vale do Silício se concentrasse em hardware,
ela aprendeu o suficiente sobre mídia social para entender o que encontrou em suas
pesquisas no Facebook. A razão pela qual o sistema pressionou tanto os outliers
conspiratórios, ela percebeu, era o engajamento. As plataformas de mídia social revelaram
qualquer conteúdo que seus sistemas automatizados concluíssem que maximizaria a
atividade on-line dos usuários, permitindo assim que a empresa vendesse mais anúncios.
Uma mãe que aceita que as vacinas são seguras tem poucos motivos para gastar muito
tempo discutindo o assunto online. Os grupos de pais com ideias semelhantes às quais
ela participa, embora grandes, podem ser relativamente silenciosos. Mas uma mãe que
suspeita de uma vasta conspiração médica colocando seus filhos em perigo, DiResta
percebeu, pode passar horas pesquisando o assunto. Também é provável que ela procure
aliados, compartilhando informações e coordenando ações para revidar.
Para a IA que governa uma plataforma de mídia social, a conclusão é óbvia: as mães
interessadas em questões de saúde passarão muito mais tempo online se ingressarem
em grupos anti-vacinas. Portanto, promovê-los, por meio de qualquer método que chame
a atenção desses usuários, aumentará o engajamento. Se ela
Machine Translated by Google

estava certo, DiResta sabia, então o Facebook não estava apenas cedendo aos extremistas
anti-vacina. Ele os estava criando.
“Eu me senti como Chicken Little, dizendo às pessoas que o céu estava caindo”, disse ela.
“E eles estavam olhando para mim como, 'É apenas uma postagem de mídia social.'” Mas o
que DiResta percebeu foi que havia algo estruturalmente errado com a plataforma. Friends in
the Valley entrou em contato com ela para dizer que estava percebendo distúrbios
estranhamente semelhantes em todos os tipos de comunidades online. Ela sentiu um conjunto
comum de dinâmicas em jogo, talvez até mesmo um ponto de origem comum em algum lugar
nas entranhas da rede social. E se esse foi o efeito em algo restrito, como política de vacinação
escolar ou discussões de videogame, o que aconteceria quando atingisse a política ou a
sociedade de maneira mais ampla?

“Eu estava olhando para ele e dizendo: 'Isso vai ser um desastre'”, lembrou ela.

Foi uma jornada que eventualmente a levaria aos rastros do Estado Islâmico e da
inteligência militar russa. Para salas de reuniões do Departamento de Estado e uma mesa de
testemunhas do Congresso. E para um conjunto de conclusões chocantes sobre a influência
da mídia social sobre todos nós. Mas tudo começou na Califórnia, lutando contra uma franja
online que ela ainda não percebeu que representava algo muito mais profundo e intratável.

Quase certamente, ninguém no Facebook ou no YouTube queria promover a negação da


vacina. Os grupos representavam uma fatia tão pequena de seus impérios que qualquer
dinheiro de publicidade que trouxessem provavelmente seria insignificante. Zuckerberg, em
uma resposta tácita ao problema, escreveu em 2015 que “a ciência é completamente clara: as
vacinas funcionam e são importantes para a saúde de todos em nossa comunidade”. Mas a
tecnologia que construiu esse movimento marginal foi impulsionada por algo que nem o CEO
da empresa conseguiu superar: os costumes culturais e financeiros no centro de todo o setor.

2. Galápagos Americanos

MENOS DE UM SÉCULO ATRÁS, o vale de Santa Clara, no centro da Califórnia, era uma
extensão sonolenta de pomares de frutas e fábricas de conservas, pontilhada por uma ou
outra torre de petróleo. Isso começou a mudar em 1941, quando a marinha japonesa atacou
Pearl Harbor, desencadeando uma série de eventos que transformaram esse remanso em
uma das maiores concentrações de riqueza que o mundo já conheceu.
Machine Translated by Google

A história dessa transformação, que tem pouca semelhança com as lendas de


hackers ou contos de dormitório que passam pela tradição auto-inventada do Vale do
Silício, incutiu no Vale traços culturais e econômicos que foram incorporados aos
produtos que cada vez mais dominam nosso mundo. E começou com uma onda de
pioneiros que desempenharam um papel tão crucial quanto qualquer um dos engenheiros
ou CEOs que vieram depois deles: o complexo militar-industrial.
Depois de Pearl Harbor, o Pentágono, preparando-se para entrar no Pacífico, mas
temendo outro ataque surpresa, dispersou a produção militar e a pesquisa em partes da
Costa Oeste que ainda tinham um toque de fronteira.
Um desses locais foi Moffett Field, uma base aérea amplamente desativada em uma
baía protegida, protegida pelas montanhas de Santa Cruz. Quando a guerra terminou, a
máquina de guerra permaneceu, reaproveitada para o impasse cada vez maior com a
União Soviética. Planejando uma guerra nuclear, o Pentágono encorajou os empreiteiros
a transferir projetos vitais para longe dos grandes centros populacionais. A gigante
aeroespacial Lockheed obedeceu, movendo seus mísseis e divisão espacial para o
tranquilo vale de Santa Clara, logo atrás do hangar três em Moffett Field.
Grande parte da corrida armamentista da Guerra Fria foi conduzida em seu campus. O
co-fundador da Apple, Steve Wozniak, como muitos de sua época, cresceu vendo um
pai ir para a Lockheed todas as manhãs.
Igualmente importante foi um novo centro de pesquisa acadêmica incomum, a
apenas alguns quilômetros de distância. Frederick Terman, filho de um professor de
psicologia da então pouco notável Universidade de Stanford, passou a Segunda Guerra
Mundial nos laboratórios de Harvard, supervisionando projetos conjuntos de pesquisa
militar-acadêmica. Ele voltou para casa com uma ideia: que esse modelo continuasse
em tempos de paz, com cientistas universitários cooperando com empresas privadas.
Ele estabeleceu o Stanford Research Park, onde as empresas poderiam trabalhar ao
lado de pesquisadores acadêmicos.
Com os empreiteiros da Guerra Fria já ao lado, havia muitos compradores. O arranjo
atraiu cientistas talentosos e estudantes de pós-graduação do leste, oferecendo-lhes a
chance de entrar em uma patente ou startup lucrativa.
Os departamentos de pesquisa da universidade geralmente trabalham, pelo menos em
teoria, em nome do bem maior. Stanford confundiu a linha entre o trabalho acadêmico e
o trabalho com fins lucrativos, um desenvolvimento que se tornou essencial para a visão
de mundo do Vale do Silício, absorvido e propagado por inúmeras empresas circulando
pelo Research Park. Atingir o sucesso nos negócios de tecnologia e promover o bem-
estar humano, segundo o pensamento, não eram apenas compatíveis, eles eram um e o
Machine Translated by Google

mesmo.

Essas condições fizeram da Santa Clara dos anos 1950 o que Margaret O'Mara,
uma proeminente historiadora do Vale do Silício, chamou de Galápagos de silício.
Assim como a geologia peculiar e o extremo isolamento dessas ilhas produziram
espécies únicas de pássaros e lagartos, as condições peculiares do Vale produziram
maneiras de fazer negócios e de ver o mundo que não poderiam ter florescido em
nenhum outro lugar - e levaram, finalmente, ao Facebook, YouTube e Twitter.
A migração casual que semeou grande parte do DNA tecnológico do Vale, como
uma iguana à deriva pousando na costa de Galápagos, foi um engenheiro rabugento
chamado William Shockley. Nos Laboratórios Bell, talvez a mais prestigiosa das
firmas de pesquisa da Costa Leste, ele dividira o Prêmio Nobel de 1956 pelo
pioneirismo em novos transistores semicondutores. Os minúsculos dispositivos, que
direcionam ou modificam os sinais elétricos, são os blocos de construção da
eletrônica moderna. Shockley convenceu-se de que poderia derrotar os métodos de Bell.
Quando a saúde de sua mãe piorou, ele voltou para casa, no mesmo ano de seu
Nobel, para cuidar dela e abrir sua própria empresa de transistores. Sua cidade natal
era Palo Alto, a oito quilômetros de Moffett Field. Seu projeto de transistor exigia a
substituição do germânio convencionalmente usado por silício.
Shockley, que tinha a reputação de ser difícil e arrogante, lutou para convencer
os engenheiros da Bell a segui-lo. Além disso, mesmo com o dinheiro fluindo do
Pentágono, poucos cientistas com algum pedigree queriam se mudar para o remanso
de San Jose. Então ele contratou engenheiros talentosos com experiências que
limitavam suas oportunidades em Boston: não graduados, imigrantes, judeus.
Alguns, como Shockley, eram brilhantes, mas difíceis de trabalhar. Ele estabeleceu
as startups do Valley, para sempre, como o domínio dos desajustados autônomos
que crescem com base no mérito bruto - um legado que levaria suas gerações
futuras a elevar os desistentes misantrópicos e a desculpar as culturas corporativas
tóxicas do estilo Shockley como de alguma forma essenciais para o modelo. No
entanto, um ano após o lançamento de Shockley, todo o seu talento foi embora. Seu
"gosto por humilhar seus funcionários", sua rejeição instintiva de qualquer ideia que
não fosse sua e sua inclinação para extremos - mais tarde ele abraçou a eugenia e
chamou os negros de geneticamente inferiores - era demais para suportar.
Para os desertores, o mais fácil e esperado seria trazer suas inovações de volta
ao Leste, onde o resto da indústria ainda estava. Em vez disso, talvez por nenhum
motivo melhor do que o clima da Califórnia, eles obtiveram financiamento da Costa
Leste e ficaram parados. Porque eles estavam baseados no Santa
Machine Translated by Google

Clara Valley, era de lá que também vinham os futuros investimentos e talentos em


semicondutores. A pequena indústria prosperou graças à massa de engenheiros já na cidade
para a Lockheed, garantindo recrutas de alto nível para qualquer startup promissora. E o
Stanford Research Park coloca pesquisas de ponta ao seu alcance.

Esse pool de talento, dinheiro e tecnologia - os três ingredientes essenciais - seria


mantido no Vale, e o resto do mundo mantido fora, por uma prática incomum de
financiamento: o capitalismo de risco. O dinheiro de Wall Street, em sua maioria, permaneceu
afastado. Os produtos eram muito esotéricos e o mercado muito opaco para financiadores
externos. Aparentemente, as únicas pessoas capazes de identificar ideias promissoras, os
próprios engenheiros, forneceram financiamento inicial.
Alguém que tivesse ganhado algum dinheiro com seu próprio projeto ouvia falar de um novo
widget que estava sendo projetado em toda a cidade e dava dinheiro inicial — capital de
risco — para uma participação percentual.
O arranjo ia além do dinheiro. Um capitalista de risco eficaz, para salvaguardar um
investimento, muitas vezes ocupava um lugar no conselho da empresa, ajudava a selecionar
a equipe executiva e até mesmo orientava pessoalmente o fundador. E os capitalistas de
risco tendiam a financiar pessoas em quem confiavam - o que significava pessoas que
conheciam pessoalmente ou que se pareciam e falavam como eles. Isso significava que
cada classe de engenheiros bem-sucedidos materializava seus pontos fortes, bem como
seus preconceitos e pontos cegos, na classe seguinte, como uma espécie isolada cujas
características se tornam mais pronunciadas a cada geração subseqüente.
À medida que os semicondutores se desenvolveram na placa de circuito, depois no
computador, depois na internet e depois nas mídias sociais, cada tecnologia produziu um
punhado de estrelas emergentes, que por sua vez financiaram e orientaram o próximo punhado.
Durante todo o tempo, sua comunidade permaneceu uma Galápagos comercial-cultural, livre
para desenvolver suas próprias práticas hiperespecíficas de como um negócio deve
funcionar, o que constitui sucesso e quais responsabilidades uma empresa tem com seus
clientes e com o mundo em geral.
As consequências de seu modelo, em todas as suas peculiaridades, não se tornariam
aparentes até que os sucessores de Shockley assumissem, na forma de gigantes da mídia
social, controle indireto sobre todos nós. Mas os primeiros indícios já estavam surgindo em
meados dos anos 2000, quando o Vale do Silício começou a mexer em um hardware mais
complexo do que qualquer semicondutor ou computador: a mente humana.
Machine Translated by Google

3. Contra Feed de Notícias

Se você tivesse que identificar o alvorecer da era da mídia social, poderia escolher
setembro de 2006, quando os operadores de um site interno, o Facebook.com, fizeram
uma descoberta acidental enquanto tentavam resolver um problema de negócios. Desde o
lançamento do site, dois anos e meio antes, eles tiveram uma entrada modestamente bem-
sucedida no setor de mídia social modestamente bem-sucedido, no qual os usuários
mantinham páginas de perfil personalizadas e faziam pouco mais. Na época, o Facebook
tinha 8 milhões de usuários, um número impressionante para um bando de garotos que
mal tinham idade para beber, mas não o suficiente para garantir a sobrevivência. Até o
Friendster, já visto até então como um fracasso catastrófico, tinha cerca de 10 milhões. O
LiveJournal também. O Orkut tinha 15 milhões. Myspace estava se aproximando de 100
milhões.
As duas vantagens competitivas do Facebook estavam começando a parecer passivos.
Seu design limpo o tornava visualmente atraente, mas menos lucrativo do que o LiveJournal
ou o Myspace repleto de anúncios. E sua exclusividade para campi universitários havia
conquistado uma grande fatia de um mercado limitado e com pouco dinheiro.
A empresa tentou expandir para locais de trabalho, mas poucos trabalhadores se
inscreveram. Que adulto que se preze colocaria sua vida profissional em um site para
universitários?
O crescimento do número de usuários estagnou quando, naquele verão, surgiu um
bote salva-vidas: o Yahoo se ofereceu para comprar o Facebook por US$ 1 bilhão. A
gigante da internet estava gerando pelo menos o mesmo volume de receita a cada
trimestre. Mas seu negócio de portal da web estava ficando obsoleto e a empresa estava
procurando novos mercados em crescimento. As redes sociais pareciam promissoras.
Mas, para grande surpresa da indústria, após meses de negociação, Zuckerberg recusou.
Ele não queria sair da montanha-russa das startups e, aos 22 anos, tornar-se uma peça do
Yahoo. No entanto, negar aos funcionários que passam a noite toda a chance de se
aposentar ricos aos vinte anos deixou Zuckerberg sob uma pressão tremenda não apenas
para transformar o Facebook, mas para ter um sucesso tão selvagem que o bilhão do
Yahoo pareceria pequeno.
A segunda parte de seu plano de duas partes era eventualmente abrir o Facebook
para qualquer pessoa. Mas a expansão fracassada para os locais de trabalho tornou
incerto o sucesso e pode até ser contraproducente se expulsar os universitários, e é por
isso que tanto depende da primeira parte. Ele revisaria a página inicial do Facebook para
mostrar a cada usuário um feed personalizado do que seus
Machine Translated by Google

amigos estavam fazendo no site. Até então, você tinha que verificar cada perfil ou grupo
manualmente para qualquer atividade. Agora, se um amigo mudou seu status de
relacionamento, outro postou sobre pizza ruim no refeitório e outro se inscreveu em um
evento, tudo isso seria relatado em sua página inicial.
Esse fluxo de atualizações tinha um nome: o feed de notícias. Foi apresentado como
uma festa sem fim com a presença de todos que você conhecia. Mas, para alguns usuários,
parecia ser forçado a entrar em um panóptico, onde todos tinham visibilidade total e
ininterrupta da vida digital de todos os outros. Surgiram grupos do Facebook com nomes
como “Estudantes contra o feed de notícias do Facebook”. Nada tangível aconteceu nos
grupos. Aderir sinalizou seu acordo; era isso. Mas por causa do redesenho do site, cada
vez que alguém entra, todos os amigos dessa pessoa recebem uma notificação em seu
feed alertando-os. Com um toque do mouse, eles também poderiam participar, o que seria
transmitido por sua vez para seus amigos. Em poucas horas, os grupos estavam por toda
parte. One atraiu 100.000 membros no primeiro dia e, no final da semana, quase um milhão.

Na realidade, apenas uma minoria de usuários já se juntou. Mas a proliferação de


atualizações fez com que parecessem uma esmagadora maioria. E o feed de notícias
transformava cada clique preguiçoso do botão “participar” em um grito apaixonado: “Contra
o feed de notícias” ou “ODEIO O FACEBOOK”. A aparência de raiva generalizada, portanto,
era uma ilusão. Mas os instintos humanos de se conformar são profundos. Quando as
pessoas pensam que algo se tornou uma questão de consenso, descobriram os psicólogos,
elas tendem não apenas a concordar, mas a internalizar esse sentimento como se fosse
seu.
Logo, a indignação se tornou ação. Dezenas de milhares enviaram e-mails para o
atendimento ao cliente do Facebook. Na manhã seguinte, caminhões de TV via satélite
cercaram o escritório do Facebook em Palo Alto, assim como tantos manifestantes que a
polícia pediu à empresa que considerasse desligar o que quer que tivesse causado tal controvérsia.
Alguns dentro do Facebook concordaram. A crise foi acalmada externamente com um
irritado pedido público de desculpas de Zuckerberg: “Calma. Respirar. Nós ouvimos você”
– e, internamente, com uma constatação irônica: a indignação estava sendo provocada
pelo próprio produto do Facebook contra o qual os usuários estavam protestando.
Essa amplificação digital enganou os usuários do Facebook, e até mesmo sua
liderança, fazendo-os perceber erroneamente que as vozes mais altas da plataforma
representavam a todos, transformando uma centelha de raiva em um incêndio. Mas,
crucialmente, também fez outra coisa: aumentou o engajamento. Suba. Em uma indústria
Machine Translated by Google

onde o envolvimento do usuário é a principal métrica de sucesso, e em uma empresa


ansiosa para provar que recusar a oferta de bilhões de dólares do Yahoo foi mais do que
arrogância, as distorções do feed de notícias não foram apenas toleradas, elas foram
aceitas. O Facebook logo permitiu que qualquer pessoa se registrasse no site. As taxas
de crescimento de usuários, que mal haviam mudado durante a rodada de expansão
anterior, explodiram em 600 ou 700 por cento. A quantidade média de tempo que cada
pessoa passou online também cresceu rapidamente. Apenas treze meses depois, no
outono de 2007, a empresa foi avaliada em US$ 15 bilhões.
Passei a pensar nisso como o momento monolítico do Vale do Silício, semelhante à
cena no início de 2001: Uma Odisséia no Espaço de Kubrick, quando um pilar negro
aparece diante de um clã de chimpanzés, que de repente aprende a manejar ferramentas.
A descoberta fez com que o Facebook saltasse à frente de concorrentes que antes
estavam muito atrás. Outros foram extintos quando uma nova geração surgiu em seu
lugar.
Quando o feed de notícias foi lançado em 2006, 11% dos americanos estavam nas
mídias sociais. Entre 2 e 4 por cento usaram o Facebook. Menos de uma década depois,
em 2014, quase dois terços dos americanos usavam redes sociais, entre as quais
Facebook, YouTube e Twitter eram quase universais. Naquele ano, na metade do
segundo mandato de Obama, um limiar significativo foi ultrapassado na experiência
humana. Pela primeira vez, os 200 milhões de americanos com conta ativa no Facebook
passaram, em média, mais tempo na plataforma (quarenta minutos por dia) do que
socializando pessoalmente (trinta e oito minutos). Apenas dois anos depois, no verão de
2016, quase 70% dos americanos usavam plataformas de propriedade do Facebook,
com uma média de cinquenta minutos por dia.

Esses sistemas fisgaram tantos usuários de forma tão eficaz que, naquela época, o
valor de mercado do Facebook, um serviço da web gratuito quase sem produtos físicos
ou serviços ao consumidor, superava o do Wells Fargo, um dos maiores bancos do
mundo. Nesse mesmo ano, também superou a General Electric e o JPMorgan Chase e,
no final de 2017, a ExxonMobil. Desde então, duas das maiores empresas do mundo
são o Facebook e o Google, outro serviço de internet gratuito que ganha muito dinheiro
com anúncios, principalmente no YouTube, sua subsidiária.

Muito depois de o potencial de dano de sua tecnologia ter sido esclarecido, as


empresas alegariam apenas servir, e nunca moldar ou manipular, os desejos de seus
usuários. Mas a manipulação foi incorporada aos produtos de
Machine Translated by Google

o início.

4. O Efeito Cassino

“QUANDO O FACEBOOK estava crescendo, algumas pessoas vinham até mim


e diziam: 'Não estou nas redes sociais'”, Sean Parker, que se tornou o primeiro
presidente do Facebook aos 24 anos, relembrou anos mais tarde.
“E eu dizia, 'Ok, você sabe, você será.' E então eles diziam: 'Não, não, não. Eu
valorizo minhas interações na vida real. Eu valorizo o momento. Eu valorizo a
presença. Eu valorizo a intimidade.' E eu dizia: 'Vamos pegar você eventualmente.'”
Parker se orgulhava de ser um hacker, assim como grande parte da geração do
Vale do Silício que surgiu na década de 1990, quando o termo ainda indicava uma
espécie de cool da contracultura. A maioria realmente construiu software corporativo.
Mas Parker foi co-fundador do Napster, um programa de compartilhamento de arquivos
cujos usuários distribuíam tanta música pirata que, quando os processos judiciais o
fecharam dois anos após o lançamento, ele havia prejudicado irrevogavelmente o
negócio da música. Parker argumentou que forçou a indústria a evoluir explorando sua
letargia na movimentação online. Muitos de seus artistas e executivos, no entanto, o viam como um parasita
A estratégia do Facebook, como ele descreveu, não era muito diferente da do
Napster. Mas, em vez de explorar as fraquezas da indústria da música, faria isso
para a mente humana. “O processo de pensamento que envolveu a criação
desses aplicativos”, disse Parker na coletiva de imprensa, “foi sobre: 'Como
consumimos o máximo possível de seu tempo e atenção consciente?'” Para fazer
isso, ele disse: “Nós precisa dar a você um pouco de dopamina de vez em
quando, porque alguém gostou ou comentou uma foto ou uma postagem ou o
que quer que seja. E isso fará com que você contribua com mais conteúdo e
receba mais curtidas e comentários.” Ele chamou isso de “ciclo de feedback de
validação social”, chamando-o de “exatamente o tipo de coisa que um hacker
como eu inventaria, porque você está explorando uma vulnerabilidade na
psicologia humana”. Ele e Zuckerberg “entendiram isso” desde o início, disse ele,
e “fizemos mesmo assim”.
Em todo o Vale, essa exploração, longe de ser um segredo obscuro, foi discutida
abertamente como uma ferramenta empolgante para o crescimento dos negócios. O
termo da arte é “persuasão”: treinar os consumidores para que alterem seu
comportamento de maneira que sirva ao resultado final. A Universidade de Stanford
operava um Persuasive Tech Lab desde 1997. Em 2007, um único semestre de projetos de estudantes ger
Machine Translated by Google

US$ 1 milhão em receita de publicidade.


“Como as empresas, produzindo pouco mais do que bits de código exibidos em uma tela,
aparentemente controlam a mente dos usuários?” Nir Eyal, um importante consultor de produtos
da Valley, perguntou em seu livro de 2014, Hooked: How to Build Habit Forming Products. “Nossas
ações foram planejadas”, explicou.
Serviços como o Twitter e o YouTube “habitualmente alteram nosso comportamento cotidiano,
exatamente como seus criadores pretendiam”.
Um dos modelos favoritos de Eyal é a máquina caça-níqueis. Ele foi projetado para responder
a todas as suas ações com feedback visual, auditivo e tátil. Um ping quando você insere uma
moeda. Um ka-chunk quando você puxa a alavanca. Um flash de luz colorida quando você o solta.
Isso é conhecido como condicionamento pavloviano, em homenagem ao fisiologista russo Ivan
Pavlov, que tocava uma campainha toda vez que alimentava seu cachorro, até que, por fim, a
campainha sozinha fazia o estômago de seu cachorro se revirar e as glândulas salivares pulsarem,
como se não pudesse mais diferenciar o toque de um sino da sensação física de comer. As
máquinas caça-níqueis funcionam da mesma maneira, treinando sua mente para combinar a
emoção de ganhar com seus ruídos mecânicos e zumbidos. O ato de puxar a alavanca, antes sem
sentido, torna-se prazeroso por si só.

O motivo é uma substância química neurológica chamada dopamina, a mesma que Parker
mencionou na coletiva de imprensa. Seu cérebro libera pequenas quantidades dele quando você

satisfaz alguma necessidade básica, seja biológica (fome, sexo) ou social (carinho, validação). A
dopamina cria uma associação positiva com quaisquer comportamentos que tenham desencadeado
sua liberação, treinando você para repeti-los. Mas quando esse sistema de recompensa de
dopamina é sequestrado, pode obrigá-lo a repetir comportamentos autodestrutivos. Para fazer mais
uma aposta, beba muito álcool - ou passe horas em aplicativos, mesmo quando eles o deixam
infeliz.

A dopamina é cúmplice da mídia social dentro do seu cérebro. É por isso que seu smartphone
parece uma máquina caça-níqueis, pulsando com emblemas de notificação coloridos, sons
sibilantes e vibrações suaves. Esses estímulos são neurologicamente sem sentido por conta
própria. Mas seu telefone os emparelha com atividades, como enviar mensagens de texto para um
amigo ou ver fotos, que são naturalmente gratificantes.

Os aplicativos sociais sequestram uma compulsão – a necessidade de se conectar – que pode


ser ainda mais poderosa do que a fome ou a ganância. Eyal descreve uma mulher hipotética,
Barbra, que entra no Facebook para ver uma foto carregada por uma família
Machine Translated by Google

membro. Conforme ela clica em mais fotos ou comentários em resposta, seu cérebro
combina o sentimento de conexão com as pessoas que ela ama com os bipes e flashes da
interface do Facebook. “Com o tempo”, escreve Eyal, “Barbra começa a associar o Facebook
à sua necessidade de conexão social”. Ela aprende a atender a essa necessidade com um
comportamento - usando o Facebook - que, na verdade, raramente a atenderá.

Logo após a descoberta do feed de notícias do Facebook, as principais plataformas de


mídia social convergiram para o que Eyal chamou de um dos segredos mais poderosos do
cassino: reforço variável intermitente. O conceito, embora pareça esotérico, é diabolicamente
simples. O psicólogo BF Skinner descobriu que, se ele atribuísse a uma cobaia humana
uma tarefa repetível — resolver um quebra-cabeça simples, digamos — e a recompensasse
toda vez que ela a completasse, ela geralmente obedeceria, mas pararia logo depois que
ele parasse de recompensá-la. Mas se ele distribuísse a recompensa apenas algumas
vezes e randomizasse seu tamanho, então ela completaria a tarefa de forma muito mais
consistente, até obstinadamente. E ela continuaria concluindo a tarefa muito depois que as
recompensas parassem completamente - como se perseguisse até mesmo a possibilidade
de uma recompensa compulsivamente.
As máquinas caça-níqueis aproveitam essa fraqueza psicológica com um efeito incrível.
A imprevisibilidade do pagamento torna mais difícil parar. As redes sociais fazem o mesmo.
Postar no Twitter pode gerar uma grande recompensa social, na forma de curtidas, retuítes
e respostas. Ou pode não render nenhuma recompensa. Nunca saber o resultado torna
mais difícil parar de puxar a alavanca. O reforço variável intermitente é uma característica
definidora não apenas do jogo e do vício, mas também, de forma reveladora, dos
relacionamentos abusivos. Os abusadores oscilam imprevisivelmente entre a bondade e a
crueldade, punindo os parceiros por comportamentos que antes recompensavam com afeto.
Isso pode levar a algo chamado vínculo traumático. O parceiro vitimado encontra-se
buscando compulsivamente uma resposta positiva, como um jogador alimentando uma
máquina caça-níqueis, ou um viciado no Facebook incapaz de sair da plataforma - mesmo
que, para muitos, isso apenas os torne mais solitários.

Além disso, embora postar nas mídias sociais possa parecer uma interação genuína
entre você e o público, há uma diferença crucial e invisível.
Online, a plataforma atua como um intermediário invisível. Ele decide quais dos seus
comentários serão distribuídos para quem e em qual contexto. Sua próxima postagem pode
ser exibida para pessoas que irão amá-la e aplaudi-la, ou para pessoas que irão odiá-la e
importuná-la, ou para nenhum dos dois. Você nunca saberá porque suas decisões são
Machine Translated by Google

invisível. Tudo o que você sabe é que ouve aplausos, vaias ou grilos.
Ao contrário das máquinas caça-níqueis, que raramente estão disponíveis em nosso
dia-a-dia, os aplicativos de mídia social são alguns dos produtos mais acessíveis do mundo.
É um cassino que cabe no seu bolso, e é assim que nos treinamos lentamente para
responder a qualquer queda em nossa felicidade com um puxão na máquina caça-níqueis
mais onipresente da história. O americano médio verifica seu smartphone 150 vezes por
dia, muitas vezes para abrir as redes sociais. Não fazemos isso porque verificar
compulsivamente os aplicativos de mídia social nos deixa felizes. Em 2018, uma equipe
de economistas ofereceu aos usuários diferentes quantias de dinheiro para desativar suas
contas por quatro semanas, procurando o limite em que pelo menos metade deles diria
sim. O número acabou sendo alto: $ 180. Mas as pessoas que desativaram experimentaram
mais felicidade, menos ansiedade e maior satisfação com a vida. Após o término do
experimento, eles usaram menos o aplicativo do que antes.

Por que esses sujeitos foram tão resistentes a desistir de um produto que os deixou
infelizes? Seu comportamento, escreveram os economistas, era “consistente com os
modelos padrão de formação de hábito” – ou seja, com o vício – levando a “escolhas de
consumo abaixo do ideal”. Uma forma clínica de dizer que os sujeitos foram treinados para
agir contra seus próprios interesses.

5. O Sociômetro

UM ANO APÓS o lançamento do feed de notícias, um grupo de desenvolvedores do


Facebook criou algo que chamaram de “botão incrível” – uma expressão de aprovação de
um clique para a postagem de outro usuário. Zuckerberg rejeitou a ideia várias vezes,
acreditando que isso desviaria os usuários de comportamentos mais envolventes, como
postar comentários. Tornou-se “considerado um projeto amaldiçoado porque foi reprovado
em tantas avaliações de Zuck”, escreveu Andrew Bosworth, um dos desenvolvedores do
feed de notícias, que mais tarde se tornou vice-presidente do Facebook.
Depois de um ano e meio no limbo, uma nova equipe assumiu o que agora era o botão
“Curtir”. Em testes com usuários, Bosworth escreveu em um post relembrando o episódio,
eles descobriram que o botão aumentava o número de comentários. Quando Zuckerberg
viu isso, ele cedeu.
No início de 2009, uma gerente de produto chamada Leah Pearlman, que trabalhava
no recurso pouco depois de ingressar no Facebook aos 23 anos, publicou uma postagem
anunciando-o como “uma maneira fácil de dizer aos amigos que você gosta
Machine Translated by Google

o que eles estão compartilhando no Facebook com um simples clique.” O tráfego


aumentou imediatamente, muito além das expectativas internas. Mas o comportamento
do usuário também mudou. Para todos os Nir Eyals e Sean Parkers deliberando sobre
usuários viciados, este foi, como com o feed de notícias e tantos desenvolvimentos por
vir, outro episódio de empresas sociais tropeçando em hacks psicológicos ainda mais
poderosos que eles não entendiam.
O apelo desse pequeno botão e muito do poder da mídia social vêm da exploração
de algo chamado sociômetro. O conceito surgiu de uma pergunta do psicólogo Mark
Leary: para que serve a autoestima? A angústia que sentimos pela baixa auto-estima é
totalmente autogerada. Não teríamos desenvolvido uma vulnerabilidade tão incomum e
dolorosa, raciocinou Leary, a menos que fornecesse algum benefício que superasse seus
tremendos custos psíquicos. Sua teoria, agora amplamente aceita, é que a auto-estima é
de fato “uma medida psicológica do grau em que as pessoas percebem que são
valorizadas em relacionamentos e socialmente aceitas por outras pessoas”.

Os seres humanos são alguns dos animais sociais mais complexos da Terra.
Evoluímos para viver em coletivos sem liderança muito maiores do que os de nossos
companheiros primatas: até cerca de 150 membros. Como indivíduos, nossa capacidade
de prosperar dependia de quão bem navegamos nesses 149 relacionamentos — para
não mencionar todos os relacionamentos de nossos colegas entre si. Se o grupo nos
valorizasse, poderíamos contar com apoio, recursos e provavelmente um companheiro.
Se não o fizesse, poderíamos não conseguir nada disso. Era uma questão de
sobrevivência, física e geneticamente.
Ao longo de milhões de anos, essas pressões foram selecionadas para pessoas
sensíveis e habilidosas em maximizar sua posição. É o que o antropólogo Brian Hare
chamou de “sobrevivência do mais amigável”. O resultado foi o desenvolvimento de um
sociômetro: uma tendência de monitorar inconscientemente como as outras pessoas em
nossa comunidade parecem nos ver. Processamos essa informação na forma de auto-
estima e emoções relacionadas como orgulho, vergonha ou insegurança. Essas emoções
nos obrigam a fazer mais do que faz com que nossa comunidade nos valorize e menos
do que não faz. E, crucialmente, eles devem fazer com que essa motivação pareça vir de
dentro. Se percebêssemos, em um nível consciente, que estávamos respondendo à
pressão social, nosso desempenho poderia parecer relutante ou cínico, tornando-o menos
persuasivo.
Machine Translated by Google

O recurso “Curtir” do Facebook, cuja versão já existe em todas as plataformas, é o


equivalente a uma bateria de carro conectada a esse sociômetro. Dá a quem controla os
choques elétricos um tremendo poder sobre nosso comportamento. Não é apenas que
“curtidas” fornecem a validação social que gastamos tanto de nossa energia buscando; é
que eles o oferecem em uma escala e rapidez até então desconhecidas na experiência
humana. A validação explícita off-line é relativamente rara. Ainda mais raro é ouvi-lo
anunciado publicamente, que é a forma mais poderosa de aprovação porque transmite
nosso valor para a comunidade em geral. Quando foi a última vez que cinquenta, sessenta,
setenta pessoas o aplaudiram publicamente off-line? Talvez uma vez a cada poucos anos
- se alguma vez? Nas redes sociais, é uma manhã normal.

Além disso, as plataformas adicionaram uma reviravolta poderosa: um contador na


parte inferior de cada postagem indicando o número de curtidas, retuítes ou votos positivos
recebidos - uma quantificação contínua da aprovação social para cada declaração. Foi
assim que até mesmo o LinkedIn, um quadro de avisos para hospedagem de currículos,
se tornou um site de relacionamento e foi vendido para a Microsoft por um negócio no
valor de US$ 26,2 bilhões. Ele adicionou crachás aos perfis dos usuários, indicando o
tamanho de sua rede. “Embora na época não houvesse nada de útil que você pudesse
fazer com o LinkedIn, aquele ícone simples teve um efeito poderoso em explorar o desejo
das pessoas de não parecerem perdedores”, disse BJ Fogg, chefe do Persuasive Tech
Lab de Stanford. Mas em 2020, até o cofundador e então CEO do Twitter, Jack Dorsey,
admitiu que passou a duvidar do pensamento que levou ao botão Curtir e, especialmente,
“aquele botão com um número associado a ele”. Embora não se comprometesse a reverter
o recurso, ele reconheceu que havia criado “um incentivo que pode ser perigoso”.

Na verdade, o incentivo é tão poderoso que aparece até mesmo em exames cerebrais.
Quando recebemos um Like, a atividade neural dispara em uma parte do cérebro chamada
núcleo accumbens: a região que ativa a dopamina. Indivíduos com núcleo accumbens
menor – uma característica associada a tendências viciantes – usam o Facebook por
períodos mais longos. E quando usuários pesados do Facebook recebem um Like, essa
massa cinzenta exibe mais atividade do que em usuários mais leves, como em viciados
em jogos de azar que foram condicionados a se exaltar a cada puxada da alavanca.

Pearlman, o Facebooker que ajudou a lançar o botão Curtir, descobriu isso depois de
deixar o Vale do Silício, em 2011, para desenhar quadrinhos. Ela
Machine Translated by Google

promoveu seu trabalho, é claro, no Facebook. No início, seus quadrinhos foram bem.
Eles retrataram temas edificantes relacionados à gratidão e compaixão, que os sistemas do Facebook
impulsionaram no início de 2010. Até que, por volta de 2015, o Facebook reformulou seus sistemas
para desfavorecer o “clickbait” que atrai a curiosidade, o que teve o efeito secundário de remover o
impulso artificial que a plataforma já havia dado a seu conteúdo calorosamente emotivo.

“Quando o Facebook mudou seu algoritmo, minhas curtidas caíram e parecia que eu não estava
recebendo oxigênio suficiente”, Pearlman disse mais tarde ao Vice News.
“Portanto, mesmo que eu pudesse culpar o algoritmo, algo dentro de mim dizia: 'Eles não gostam de
mim, não sou bom o suficiente.'” Seu próprio ex-empregador virou o núcleo accumbens de seu
cérebro contra ela, criando impulso interno para gostos tão poderoso que anulou seu melhor
julgamento. Então, como Skinner brincando com um objeto de pesquisa, simplesmente desligou as
recompensas.
“De repente, eu estava comprando anúncios, apenas para chamar a atenção de volta”, ela admitiu.
Para a maioria de nós, o processo é mais sutil. Em vez de comprar anúncios no Facebook,
modificamos nossas postagens e comentários do dia-a-dia para manter a dopamina chegando,
geralmente sem perceber que fizemos isso. Este é o verdadeiro “ciclo de feedback de validação
social”, como Sean Parker o chamou: perseguir inconscientemente a aprovação de um sistema
automatizado projetado para virar nossas necessidades contra nós.
“É muito comum que os humanos desenvolvam coisas com a melhor das intenções e que tenham
consequências negativas não intencionais”, disse Justin Rosenstein, ex-engenheiro do Facebook que
também trabalhou no botão Curtir, ao The Guardian . “Se nos preocuparmos apenas com a
maximização do lucro, iremos rapidamente para a distopia”, alertou. “Uma razão pela qual considero
particularmente importante falarmos sobre isso agora é que podemos ser a última geração que
consegue se lembrar da vida anterior.”

6. O Estilingue

APESAR DE TODO o peso que a atenção e a aprovação exercem sobre usuários como Pearlman, e
toda a atração viciante dos crachás de cassino, a força mais poderosa nas mídias sociais é a
identidade. É o estímulo que funciona melhor nos sistemas da tecnologia e que seus sistemas são,
portanto, projetados para ativar e gerar acima de tudo. Expressando identidade, aguçando identidade,
vendo e definindo o mundo através de suas lentes. Esse efeito refez o funcionamento das mídias
sociais, como seus supervisores e
Machine Translated by Google

os sistemas desviaram-se para o foco total na identidade que melhor servia às suas
agendas.
Para entender o poder da identidade, comece perguntando a si mesmo: quais
palavras melhor descrevem a minha? Sua nacionalidade, raça ou religião podem vir à
mente. Talvez sua cidade, profissão ou gênero. Nosso senso de identidade deriva em
grande parte de nossa participação em grupos. Mas essa compulsão – suas origens,
seus efeitos em nossas mentes e ações – “permanece um profundo mistério para o
psicólogo social”, escreveu Henri Tajfel em 1979, quando se propôs a resolvê-la.
Tajfel havia aprendido o poder da identidade de grupo em primeira mão. Em 1939, a
Alemanha ocupou seu país natal, a Polônia, enquanto ele estudava em Paris. Judeu e
temeroso por sua família, ele se fez passar por francês para se juntar ao exército francês.
Ele manteve o estratagema quando foi capturado por soldados alemães. Após a guerra,
percebendo que sua família havia sido exterminada, ele se tornou legalmente francês e
depois britânico. Essas identidades eram meras construções sociais - de que outra forma
ele poderia mudá-las como ternos tirados de um armário? No entanto, eles tinham o
poder de compelir o assassinato ou a misericórdia aos outros ao seu redor, levando um
continente inteiro à autodestruição.
As questões que isso levantou assombraram e fascinaram Tajfel. Ele e vários colegas
lançaram o estudo desse fenômeno, que eles denominaram teoria da identidade social.
Eles traçaram suas origens até um desafio formativo da existência humana primitiva.
Muitos primatas vivem em grupos. Os humanos, ao contrário, surgiram em grandes
coletivos, onde o parentesco familiar não era suficiente para unir os membros do grupo
não aparentados. O dilema era que o grupo não poderia sobreviver sem que cada
membro contribuísse para o todo, e nenhum indivíduo, por sua vez, poderia sobreviver
sem o apoio do grupo.
A identidade social, Tajfel demonstrou, é como nos ligamos ao grupo e eles a nós. É
por isso que nos sentimos compelidos a pendurar uma bandeira na frente de nossa casa,
vestir uma camiseta da alma mater, colocar um adesivo em nosso carro. Diz ao grupo
que valorizamos nossa afiliação como uma extensão de nós mesmos e, portanto,
podemos confiar que serviremos ao bem comum.
Nosso impulso para cultivar uma identidade compartilhada é tão poderoso que
construímos uma do nada. Em um experimento, os pesquisadores atribuíram aos
voluntários um dos dois rótulos por meio de um simples lançamento de uma moeda e,
em seguida, fizeram com que jogassem um jogo. Cada um mostrou maior generosidade
para com os outros com o mesmo rótulo, mesmo sabendo que a divisão não fazia sentido.
O mesmo comportamento surgiu em dezenas de experimentos e situações do mundo real, com pessoas
Machine Translated by Google

adotando consistentemente qualquer desculpa para dividir entre “nós” e “eles” – e mostrando
desconfiança, até mesmo hostilidade, em relação àqueles do grupo externo. Durante os
intervalos para o almoço no set do filme Planeta dos Macacos, de 1968, por exemplo, os
figurantes se separavam espontaneamente em mesas, conforme representavam chimpanzés
ou gorilas. Nos anos seguintes, Charlton Heston, a estrela do filme, relatou a “segregação
instintiva” como “bastante assustadora”. Quando a sequência foi filmada, um conjunto
diferente de figurantes repetiu exatamente o comportamento.
O preconceito e a hostilidade sempre animaram esse instinto. As tribos caçadoras-
coletoras às vezes competiam por recursos ou território. A sobrevivência de um grupo pode
exigir a derrota de outro. Por causa disso, os instintos de identidade social nos levam a
desconfiar e, se necessário, nos unir contra os membros do grupo externo. Nossas mentes
compelem esses comportamentos provocando duas emoções em particular: medo e ódio.
Ambos são mais sociais do que você imagina. O medo de uma ameaça física externa nos
faz sentir uma maior sensação de camaradagem com nosso grupo, como se corresse para
nossa tribo em busca de segurança. Também nos torna mais desconfiados e mais dispostos
a prejudicar as pessoas que percebemos como diferentes. Pense na resposta aos ataques
de 11 de setembro: uma onda de fervor patriótico agitando bandeiras e um alinhamento de
sentimento de companheirismo, mas que também foi seguido por um aumento nos crimes de
ódio anti-muçulmanos.
Esses são instintos profundamente sociais, portanto, as plataformas de mídia social, ao
transformar cada toque ou deslizar em um ato social, os revelam de maneira confiável. E
como as plataformas elevam quaisquer sentimentos que melhor atraiam o engajamento, elas
geralmente produzem esses instintos em sua forma mais extrema. O resultado pode ser uma
realidade artificial na qual o grupo interno é sempre virtuoso, mas sitiado, o grupo externo é
sempre uma ameaça terrível e praticamente tudo o que acontece é uma questão de nós
contra eles.
A indulgência da mídia social com a identidade não foi obviamente prejudicial a princípio.
Mas sempre foi bem conhecido. Em 2012, um ativista de esquerda levantou dinheiro dos
cofundadores do Facebook e do Reddit para iniciar a Upworthy, que produzia conteúdo sob
medida para se espalhar nas mídias sociais. Ao testar continuamente o que mais se espalhou,
Upworthy desenvolveu uma fórmula de viralidade. As listas numeradas funcionaram bem. O
mesmo aconteceu com as manchetes de “lacuna de curiosidade” que imploravam para serem
clicadas: “Você nunca vai adivinhar o que este treinador disse para animar seus jogadores”.
Mas uma fórmula provou ser especialmente eficaz: manchetes prometendo retratar o grupo
implícito do usuário (geralmente liberais) como humilhante para um grupo externo insultado
(criacionistas, corporações, racistas). "Um homem
Machine Translated by Google

Bate uma pergunta preconceituosa com tanta força que derruba a casa.
Enquanto isso, dezenas de jornais estavam diminuindo ou fechando, com seus
modelos de negócios destruídos pela internet. Upworthy, com quase nenhum orçamento,
conquistou uma audiência várias vezes maior do que a de qualquer jornal. Uma indústria
desesperada tomou nota. Organizações inteiras se levantaram ou se reorganizaram em
busca da viralidade. O BuzzFeed tornou-se um gigante da Internet em artigos baseados
em listas satisfazendo o desejo dos usuários de afirmação de identidade social: “28 sinais
de que você foi criado por pais irlandeses” ou “31 coisas que apenas pessoas de uma
cidade pequena entenderão”.
Em 2014, fui um dos vários repórteres do Washington Post a iniciar o Vox, um site de
notícias destinado a alavancar a web. Nunca moldamos nosso jornalismo para agradar os
algoritmos de mídia social - pelo menos não conscientemente - mas as manchetes foram
criadas com eles em mente. A abordagem mais eficaz, embora uma que, em retrospecto,
talvez devêssemos ter sido mais cautelosos em usar, era o conflito de identidade. Liberais
contra conservadores. A retidão do anti-racismo.
O ultraje das leis de armas frouxas. “A identidade era o estilingue”, escreveu Ezra Klein,
fundador da Vox , sobre mídia digital em um livro sobre polarização.
“Poucos perceberam, desde o início, que a maneira de vencer a guerra pela atenção era
aproveitar o poder da comunidade para criar identidade. Mas os vencedores surgiram
rapidamente, muitas vezes usando técnicas cujos mecanismos não compreendiam
completamente.”
Freqüentemente, isso significava provocadores hiperpartidários, fazendas de cliques
com fins lucrativos, golpistas absolutos. Sem restrições por qualquer fidelidade à justiça,
precisão ou ao bem maior, eles conquistaram grandes audiências ao ceder ou provocar
conflitos de identidade. As consequências podem não ter parecido, a princípio, estender-
se muito além da internet. Mas avisos da forma mais terrível e, em retrospecto, da maior
clareza possível, vinham chegando há anos, de uma parte do mundo onde os riscos não
poderiam ser maiores e a atenção dada a eles menor.

7. O passeio da sua vida

O QUE ACONTECE QUANDO uma sociedade inteira fica online de uma só vez, passando
da noite para o dia de uma vida sem mídia social para uma vida dominada por ela? Tal
experimento pode parecer impossível, mas aconteceu. Seu nome é Mianmar.
“Estou convencido de que todos vocês estão no passeio de sua vida agora,”
Machine Translated by Google

Eric Schmidt, CEO de longa data do Google, disse a uma sala cheia de alunos em uma
visita no início de 2013 ao país do sudeste asiático. “A internet tornará impossível voltar
atrás.”
Durante décadas, este país do tamanho do Texas com florestas tropicais, deltas de
rios repletos de arrozais e litoral do Oceano Índico esteve envolto em um dos mais
completos isolamentos de qualquer nação do mundo. Uma junta militar paranóica impôs
proibições quase totais à internet, telefones celulares, mídia estrangeira e viagens
internacionais. A tortura e a violência repressiva foram executadas com a pior
combinação de incompetência e crueldade. Em 2011, o líder envelhecido foi substituído
por outro general carrancudo, Thein Sein, mas Sein revelou ter tendências reformistas.
Ele exortou os exilados a voltarem para casa, aliviou as restrições da mídia e libertou
prisioneiros políticos. Ele se distanciou da China, o cada vez mais imperioso vizinho do
norte de Mianmar, e abriu negociações com os Estados Unidos. As sanções foram
levantadas e as eleições marcadas; em 2012, Barack Obama se tornou o primeiro
presidente dos EUA em exercício a visitar.

Um ator de apoio, mas altamente visível, na abertura do país, bem-vindo por


Mianmar e pelos líderes americanos, foi o Vale do Silício.
Eles prometeram que colocar o país online rapidamente modernizaria sua economia e
capacitaria seus 50 milhões de cidadãos, fechando efetivamente a transição para a
democracia. Alguns meses após a visita de Obama, Schmidt, atuando como embaixador
geral do Vale, desembarcou em Yangon, a capital histórica de Mianmar, para anunciar
a chegada da big tech. Ladeado pelo embaixador americano, ele disse ao público
estudantil: “A internet, uma vez instalada, garante que a comunicação e o
empoderamento se tornem a lei e a prática de seu país”.

Os líderes de Mianmar também acreditaram na visão do Vale do Silício. Um jornal


estatal alertou seus cidadãos de que “uma pessoa sem identidade no Facebook é como
uma pessoa sem endereço residencial”. O país mudou-se para a Internet quase
instantaneamente. De 2012 a 2015, as taxas de adoção da internet explodiram de 0,5%
para 40%, principalmente por meio de smartphones baratos. Os preços dos cartões
SIM caíram de US$ 1.500 para US$ 1,50.
O Facebook desempenhou um papel de destaque. Por meio de acordos com
empresas locais, conseguiu que os smartphones fossem pré-carregados com um
aplicativo simplificado do Facebook. Em países mais pobres como Mianmar, onde a
renda média é de cerca de US$ 3 por dia, os dados do celular podem ser proibitivamente caros. Para
Machine Translated by Google

Para superar esse obstáculo e, assim, vencer a corrida para capturar os dois ou três
bilhões de clientes mais pobres do mundo, o Facebook e outras empresas de
tecnologia americanas começaram a “taxa zero” – essencialmente, subsidiando toda
a população fechando acordos com operadoras locais para isentar as cobranças de
quaisquer dados usado por meio dos aplicativos dessas empresas. Myanmar foi um
dos primeiros casos de teste e, para o Facebook, um sucesso impressionante. Uma
grande parte do país aprendeu a enviar mensagens e navegar na web exclusivamente
pelo Facebook, tanto que muitos desconhecem que existe outra forma de se comunicar
ou ler notícias online.
Cheguei a Mianmar pela primeira vez no início de 2014, aterrissando em Yangon
para relatar a tênue transição do país para a democracia. Parecia um lugar congelado
no início dos anos 1960, quando os governantes militares o isolaram do mundo exterior.
Quedas de energia eram comuns e a tecnologia moderna rara; os primeiros caixas
eletrônicos internacionais estavam apenas sendo instalados. Escritórios coloniais
britânicos em ruínas, cobertos de hera, ainda dominavam o centro da cidade. Muitas
ruas do centro da cidade não eram pavimentadas e, no início da manhã, cheias de
centenas de monges descalços. O clero vestido de laranja e carmesim, reverenciado
pela profundamente devota maioria budista, está por toda parte em Mianmar.
Alternando entre entrevistas com políticos e ativistas, cheguei a ver o futuro de
Mianmar mais instável do que havia sido retratado. Os militares ainda detinham
vestígios de poder que pareciam relutantes em se render. Entre o clero, uma franja
extremista estava surgindo. E suas mídias sociais recém-disponíveis estavam se
enchendo de racismo e conspirações. On-line, conversas raivosas sobre minorias
traidoras pareciam onipresentes.
Um nome preocupante não parava de surgir em minhas conversas: Wirathu. O
monge budista havia sido preso por seus sermões cheios de ódio na última década e
acabara de ser libertado como parte de uma anistia geral. Ele imediatamente entrou
no Facebook e no YouTube. Agora, em vez de viajar pelo país, templo por templo,
para espalhar o ódio, ele usava as plataformas para alcançar grande parte do país,
talvez várias vezes por dia. Ele acusou a minoria muçulmana do país de crimes
terríveis, misturando boatos com invenções vergonhosas. Especialmente no Facebook,
suas postagens circularam e recircularam entre usuários que as tomaram como fato,
criando uma realidade alternativa definida por conspiração e raiva, que impulsionou
Wirathu a um novo nível de estrelato.

Uma pesquisadora de Stanford que trabalhou em Mianmar, Aela Callan, conheceu


Machine Translated by Google

com gerentes seniores do Facebook no final de 2013 para avisá-los de que o discurso
de ódio estava invadindo a plataforma, ela disse mais tarde ao repórter Timothy
McLaughlin. Para um país com centenas de milhares de usuários, e logo milhões, o
Facebook empregou apenas um moderador que poderia revisar o conteúdo em
birmanês, o idioma predominante em Mianmar, deixando a plataforma efetivamente
sem supervisão. Os gerentes disseram a Callan que o Facebook continuaria com sua
expansão em Mianmar de qualquer maneira.
No início de 2014, Callan transmitiu outro alerta ao Facebook: o problema estava
piorando e, com ele, a ameaça de violência. Novamente, pouco mudou. Alguns meses
depois, Wirathu compartilhou uma postagem alegando falsamente que dois donos de
lojas de chá muçulmanos na cidade de Mandalay haviam estuprado uma mulher
budista. Ele postou os nomes dos vendedores de chá e de sua loja, chamando seu
ataque fictício de o primeiro tiro em uma revolta muçulmana em massa contra os
budistas. Ele exortou o governo a invadir as casas e mesquitas dos muçulmanos em
um ataque preventivo – uma demanda comum dos genocidas, cuja mensagem implícita
é que os cidadãos comuns devem fazer o que as autoridades não farão. A postagem
se tornou viral, dominando feeds em todo o país. Usuários indignados juntaram-se à
confusão, incitando uns aos outros a acabar com seus vizinhos muçulmanos. Centenas
de pessoas se revoltaram em Mandalay, atacando empresas e proprietários
muçulmanos, matando duas pessoas e ferindo muitas outras.
À medida que os tumultos se espalhavam, um alto funcionário do governo ligou
para alguém que conhecia no escritório da Deloitte, uma empresa de consultoria em
Mianmar, para pedir ajuda para entrar em contato com o Facebook. Mas nenhum deles
conseguiu alcançar ninguém na empresa. Em desespero, o governo bloqueou o acesso
ao Facebook em Mandalay. Os tumultos esfriaram. No dia seguinte, funcionários do
Facebook finalmente responderam ao representante da Deloitte, não para perguntar
sobre a violência, mas para perguntar se ele sabia por que a plataforma havia sido
bloqueada. Em uma reunião duas semanas depois com o funcionário do governo e
outros, um representante do Facebook disse que estava trabalhando para melhorar
sua capacidade de resposta a conteúdo perigoso em Mianmar. Mas se a empresa fez
alguma alteração, o efeito foi indetectável em sua plataforma. Assim que o governo
suspendeu seu bloqueio virtual, o discurso de ódio e a audiência de Wirathu só
aumentaram. “Pelo menos desde o incidente de Mandalay, o Facebook sabia”, disse
David Madden, um australiano que dirigia a maior aceleradora de startups de tecnologia
de Mianmar, a McLaughlin, o repórter. “Isso não é retrospectiva 20/20. A escala desse
problema era significativa e já era aparente.”
Machine Translated by Google

Incapaz ou sem vontade de considerar que seu produto pode ser perigoso,
o Facebook continuou expandindo seu alcance em Mianmar e outros países
em desenvolvimento e submonitorados. Ele se ancorou inteiramente a um
credo autoenriquecido do Vale do Silício que Schmidt havia recitado naquela
primeira visita a Yangon: “A resposta para o discurso ruim é mais discurso.
Mais comunicação, mais vozes.”
Machine Translated by Google

Dois

Tudo é Gamergate

1. Na Nova Era

ERA AGOSTO DE 2014, um mês depois dos tumultos de Mandalay. Zoë Quinn
estava levantando uma taça com amigos em um bar de San Francisco, marcando
seu vigésimo sétimo aniversário, quando a rede social desabou sobre ela com uma
força tão terrível que alterou a trajetória da internet e quase tudo que surgiu dela
depois disso. O telefone dela tocou com uma mensagem de texto de um amigo:
Você acabou de levar um fora terrível. Um programador chamado Eron Gjoni postou
em seu blog uma narrativa desconexa de 10.000 palavras sobre seu breve
relacionamento e separação, que incluía capturas de tela de e-mails privados,
mensagens de texto e mensagens do Facebook.
Quinn, um desenvolvedor de videogame de cabelo Technicolor, era uma
presença familiar em fóruns geek e plataformas sociais. Ela ganhou a atenção da
crítica por obras de arte independentes como o Depression Quest, uma simulação
baseada em texto de como lidar com a depressão clínica, e por seu feminismo
franco. Ela postava com frequência, e às vezes de forma estridente, em apoio a
uma causa que estava ganhando força entre criadores de jogos e jornalistas:
ampliar o apelo dos jogos e a cultura dos fãs além de seu enclave tradicional de
jovens geeks do sexo masculino. Mas alguns círculos de jogos online ferviam com
transgressores feministas que buscavam, segundo elas, corromper o hobby que
havia se tornado, em meio a um mundo que parecia hostil e confuso para muitos
dos primeiros obsessivos da mídia social, uma espécie de espaço seguro. Isso foi
mais do que um debate sobre se os jogos príncipe-salva-princesa peituda poderiam
abrir espaço para participações excêntricas como a de Quinn, ou mesmo para
garotas gamers; tratava-se de uma identidade masculina nerd cujos seguidores se viam sob ataque.
A narrativa de raiva e ressentimento de Gjoni ressoou com a deles.
Um detalhe específico da postagem de Gjoni rodou através do videogame
Machine Translated by Google

fóruns, em plataformas principais, para amigos de Quinn, e de volta para seu telefone.
Gjoni afirmou que dormiu com um crítico de videogame em troca de uma cobertura
positiva do Depression Quest. Sua acusação foi facilmente desmascarada; a crítica
supostamente ilícita nem existia. Mas a verdade pouco importava. Os usuários das
subseções de jogos do quadro de mensagens 4chan, um centro da cultura nerd, e
especialmente do Reddit, um extenso site de discussão que se tornou uma megalópole
fervilhante no coração da rede social, adotaram a alegação de Gjoni como justificativa
de sua desconfiança, estabelecendo o narrativa para os milhões de usuários das
plataformas.
A postagem de Gjoni também foi lida como encorajadora da justiça bruta
frequentemente adotada na rede social: o assédio coletivo. Tanto que um juiz mais
tarde o proibiu de escrever mais sobre Quinn. E, de fato, se assédio era o objetivo de
Gjoni, sua postagem surtiu o efeito desejado. “Eu só quero ver Zoe receber seu
castigo”, escreveu um usuário do 4chan em um bate-papo organizando o esforço para,
como outro disse, “tornar sua vida irreparavelmente horrível”, até mesmo “assediá-la
para que ela se mate”.
“Tentei me concentrar na conversa à mesa”, escreveu Quinn mais tarde, “mas o
barulho agitado do meu telefone era a única coisa que eu conseguia ouvir. Foi como
contar os segundos entre os trovões para ver a que distância está a tempestade e
saber que ela está se aproximando.”
Ela escapuliu para casa para rastrear o ódio que chegava online. Já centenas de
mensagens instavam-na a se matar e prometiam atormentar sua família se ela não o
fizesse, suas ameaças tornadas críveis com listas de endereços e números de telefone
de parentes. Algumas fotos dela foram editadas e transformadas em pornografia.
Outros postaram detalhes pessoais como seu número de Seguro Social, demonstrando
seu poder de entrar em sua vida. “Se eu vir que você está fazendo um painel em um
evento para o qual estou indo, vou literalmente te matar”, escreveu um deles. “Você é
inferior a merda e merece ser ferido, mutilado, morto e, finalmente, agraciado com
meu mijo em seu cadáver apodrecido mil vezes.”
A fúria contra Quinn e a imprensa de jogos supostamente corrupta ultrapassou
grande parte do 4chan e do Reddit, depois do YouTube. Em todos os três, enormes
comunidades ficaram obcecadas com o escândalo inventado que denominaram
Gamergate. Mas o que começou como outro episódio de trollagem na internet, embora
incomumente grande, gradualmente se tornou algo mais, algo novo. Gamergate
alterou mais do que a vida de seus alvos. Ele enviou os extremos da rede social contra
a vida americana dominante, acabando para sempre com a separação entre
Machine Translated by Google

espaços digitais e não digitais, entre a cultura da internet e a cultura.


Também lançou um novo tipo de política, definida pelos traços fundamentais da
mídia social: uma cultura digital construída em torno de jovens niilistas, sonhos do
Vale do Silício com uma revolução destrutiva e plataformas projetadas de maneira a
sobrecarregar a identidade em uma questão de conflito totalizante e existencial.
Outras comunidades, sejam de nicho como as mães hippies orgânicas do Facebook
ou tão grandes quanto a direita política americana, já estavam seguindo uma trajetória
antagônica semelhante. O próprio Gamergate foi apenas uma primeira iteração, mas
que carregava consigo as sementes de outras que viriam. Extremistas violentos
“incel”, uma extrema direita rejuvenescida e reimaginada, e sua ramificação de direita
alternativa para jovens, todos se inspiraram no Gamergate, assim como uma
tendência transformadora de outro movimento que estava começando a se formar: o
trumpismo. Entre os analistas e jornalistas que tentaram entender essa nova era, em
que as regras que regem as redes sociais passaram a reger a todos nós, uma
abreviação tomou conta: “tudo é Gamergate”.
Levaria mais um ano antes que a maioria após o despertar imediato do Gamergate
- que se espalhou rapidamente pela mídia, entretenimento e praticamente qualquer
comunidade online - sentisse as consequências. Mas a princípio era sobre vingança,
sobre homens e meninos que vivem na web e se sentem deixados para trás pela vida
americana, se vingando de quem quer que as redes sociais onde encontraram refúgio
os tenham treinado para culpar.
“Se você acha que seu inimigo é um símbolo e não uma pessoa, de repente há
um monte de merda desumana que você tem largura de banda emocional para fazer”,
Quinn disse mais tarde a um entrevistador. “E eu sei porque fui um idiota. Se o
Gamergate tivesse acontecido com outra pessoa, anos antes, eu provavelmente
estaria do lado errado. Como um adolescente de merda com doença mental que tinha
uma tendência misógina e adorava videogames? Sim."
Nos meses seguintes, os Gamergaters visaram dezenas de pessoas que falaram
em defesa de Quinn, que criticaram seus métodos ou cultura de jogos online, ou que
havia rumores de estarem envolvidos na conspiração da qual eles haviam convencido
um ao outro. Eles ativaram escritoras e repórteres com ideias semelhantes, infligindo
um nível de destruição que nem mesmo os críticos mais afiados da mídia social
consideravam possível. Um método preferido era o “swatting” — ligar para o 911 com
histórias de uma tomada de reféns na casa do alvo para iniciar, muitas vezes com
sucesso, um ataque da equipe da SWAT que, na confusão, poderia terminar com a
polícia atirando no alvo ou em sua família. (Em
Machine Translated by Google

Em 2017, a polícia prendeu um homem que ligou em uma briga fatal por causa de uma disputa
de jogo online. Ele foi condenado a vinte anos de prisão como parte de um acordo judicial sobre
uma ameaça de bomba separada que ele fez. Dois outros assassinos em série, cada um
responsável por dezenas de relatórios falsos, principalmente sobre argumentos de jogos online,
foram presos. Caso contrário, os assediadores online raramente enfrentam consequências
legais. Embora a aplicação da lei tenha começado a levar essa atividade mais a sério, é
demorado investigar e, por ser tão descentralizado, é quase impossível parar ou dissuadir. No
momento em que a polícia pode rastrear a identidade de um assediador, muito menos agir, o
assédio geralmente termina. E processar um ou dois assediadores especialmente flagrantes,
enquanto restaurador para a vítima, faz pouco para evitar que outras centenas de usuários
reproduzam o mesmo efeito.) Mulheres em empresas de jogos, presumivelmente cúmplices,
também foram alvo. Alguns, com medo de expor seus filhos a danos, abandonam completamente
o campo.

Quando um site de notícias da indústria acusou os Gamergaters de tornar a cultura do jogo


“meio embaraçosa”, os usuários inundaram o maior anunciante do site, a Intel, com reclamações
falsas, convencendo brevemente o gigante corporativo a retirar seus anúncios. Eles fizeram o
mesmo com Gawker. Repórteres sobre o que antes era o ritmo de jogo há muito silencioso
aprenderam a apagar informações pessoais da web e, quando atenção indesejada chegava a
eles, alertar os membros da família sobre a possibilidade de ameaças de morte ou ataques
cibernéticos.
“O que realmente me levou ao limite foi quando o que se tornou o Gamergate teve como
alvo Samantha Allen, que estava escrevendo para a Polygon,”
Brianna Wu, uma desenvolvedora de jogos independente, me contou mais tarde. “Eles
literalmente a tiraram do emprego. Então não foi um drama online. Eram mulheres tendo suas
carreiras destruídas.”
O sotaque do Mississippi de Wu era uma constante nos painéis e podcasts da indústria,
onde, muito antes do Gamergate, ela pediu a reforma das tendências mais infantis da indústria.
Com o Gamergate visando seus amigos, ela se sentiu compelida a falar. Ela esperava alguma
reação, mas não a ferocidade da resposta. Ao longo do final de 2014 e início de 2015, milhares
enviaram spam a ela com imagens gráficas e insultos, tornando as plataformas nas quais ela
confiava para promover seu trabalho praticamente inutilizáveis. Ameaças de morte foram
acompanhadas por plantas baixas de sua casa e fotos de sua família. Um amigo a alertou para
fóruns onde os usuários estavam incitando uns aos outros a realizar as ameaças de verdade.

“Tenho certeza de que parte disso foi apenas uma tática de intimidação”, disse ela. Mas um
Machine Translated by Google

A ameaça em particular a fez temer que alguns pudessem ser sinceros. Mesmo
anos depois, ela se lembrava de cada palavra: “Ei vadia, adivinha? Eu sei onde
você e Frank moram. Se você tem filhos, eles também vão morrer. Você não
fez nada que valesse a pena com sua vida. Vou cortar o minúsculo pênis
asiático de seu marido e estuprá-la com ele até sangrar. Quando ela contatou a
polícia, eles a aconselharam a deixar sua casa. Vários meses depois, um
YouTuber postou um vídeo de si mesmo com uma máscara de caveira, exibindo
uma faca que prometeu usar contra Wu. O incidente foi escrito em um episódio
de Law & Order: Special Victims Unit. “Ice-T mata Logan Paul em um telhado
para salvar o personagem baseado em mim. Juro por Deus que não acreditei
quando ouvi”, disse ela rindo. As ameaças continuaram. Pouco antes de nos
falarmos, em junho de 2020, um tijolo quebrou a janela dela.
Quando o Gamergate entrou na consciência pública, Wu aproveitou as
conexões nas redes sociais para fazer lobby, pelo menos, para conter as
campanhas de assédio que surgiam de seus sistemas. Mas os moradores do
Vale do Silício com quem ela falou, em sua maioria jovens brancos, pareciam
nunca ter considerado que o ódio e o assédio poderiam ter consequências reais,
muito menos como controlá-los. "Não é porque eles são vilões", disse ela. “Eles
simplesmente não têm uma certa experiência de vida que muitas mulheres,
pessoas queer e pessoas de cor têm.”
As empresas menos receptivas foram o Facebook, que não se envolveu
com ela de forma alguma, e o Reddit, um dos lugares onde o Gamergate havia
começado. Quanto mais Wu interagia com os operadores da plataforma ou
explorava o veneno que emanava de seus locais, mais ela suspeitava de um
perigo maior. “O software define cada vez mais o mundo ao nosso redor”,
escreveu ela no início de 2015. Plataformas e aplicativos “criam nossas
realidades sociais – como fazemos amigos, como conseguimos empregos e
como a humanidade interage”. Mas eles foram projetados com pouca contribuição
de pessoas fora da estreita visão de mundo ou demográfica do Valley. “Esses
sistemas são a próxima fronteira da evolução humana e são cada vez mais
perigosos para nós”, concluiu Wu, acrescentando, em um sentimento
considerado exagerado na época: “As apostas não poderiam ser maiores”.
Essa transformação havia começado quarenta anos antes, com uma geração
de fabricantes de computadores do Vale do Silício que se viam como
revolucionários destinados a derrubar o status quo americano em sua totalidade
e que construíram redes sociais, muito explicitamente, como a ferramenta pela qual eles
Machine Translated by Google

faria isso. Mas sua nova sociedade digital, concebida como eventual substituição de
tudo o que veio antes, foi projetada menos para a libertação do que para a raiva e o
conflito, graças a um pecado original do capitalismo do Vale do Silício e, na década de
1990, uma reviravolta fatídica na economia de brinquedos. . O resultado foi um mundo
digital já circulando, no início dos anos 2000, com uma estranha mistura de chauvinismo
geek masculino e, embora inicialmente descartado, extremismo de direita.

A Gamergate anunciou nossa nova era, da vida americana moldada pelos incentivos
e regras da mídia social, de plataformas um pouco além da periferia da sociedade
dominante. Dentro de alguns anos, essas plataformas iriam transformar o Gamergate e
suas ramificações em movimentos nacionais, levá-los para as casas de milhões de
recém-chegados digitais e mobilizá-los em um movimento que, muito em breve, chegaria
à Casa Branca.

2. Os Revolucionários

OS DIAS FORMATIVOS da revolução do computador coincidiram com um período de


terrível turbulência na vida americana. Assassinatos, motins, derrota no Vietnã e a
renúncia desgraçada de Richard Nixon provocaram uma profunda hostilidade à
autoridade centralizada, bem como uma contracultura cujas extravagâncias de olhos
arregalados pareciam apropriados para a época. Mas, embora os profissionais de
marketing mais tarde reescrevessem a era do computador como uma de sonhadores
iconoclastas, na verdade ela começou com pessoas como Douglas Engelbart, um
engenheiro de pesquisa naval. Durante a década de 1960, Engelbart, apoiado por
doações da NASA e do Pentágono, trabalhou arduamente em uma máquina que usava
semicondutores para armazenar e exibir informações. Mas, ao contrário dos gigantes
de cartões perfurados no estilo IBM, seria fácil o suficiente para não especialistas usarem.
O dispositivo que Engelbart finalmente exibiu em uma demonstração pública em
1968 apresentou a primeira interface gráfica. Ele também incluiu o primeiro mouse.
Poderia até trocar informações com outras máquinas por modem. Sua demonstração
desencadeou uma tempestade de entusiasmo no Valley, que viu o surgimento de uma
indústria totalmente nova. Intelectuais públicos, imersos na excitação contracultural do
momento, anunciaram o dispositivo como um passo para desmantelar as estruturas de
poder e construir uma nova sociedade de baixo para cima. Future Shock, um mega-best-
seller de 1970, previu uma “revolução tecnológica” capacitando os indivíduos acima das
instituições. O
Machine Translated by Google

o sociólogo Ted Nelson, amigo de Engelbart, escreveu Computer Lib/ Dream Machines,
cujo título (“Lib” abreviação de liberation) e a imagem da capa de um único punho
erguido transmitiam grande parte da mensagem.
A mitologia conquistou rapidamente uma indústria pronta para se redefinir. Em
1971, um periódico de negócios cunhou o termo “Silicon Valley”, referindo-se ao
negócio de transistores de silício lançado uma década antes por William Shockley e
seus discípulos. No ano seguinte, um perfil brilhante de um escritório de pesquisa
corporativa do Valley foi publicado, de todos os lugares, na Rolling Stone. Ele retratava
os engenheiros como excêntricos de cabelos compridos que nos trariam “liberdade e
estranheza” por meio de um produto – o computador – que a maioria das pessoas
havia encontrado apenas como um maquinário monótono e ameaçador em seu
escritório ou universidade.
Os engenheiros de todo o Vale ficaram felizes em internalizar a lisonja como
verdade. Para sempre, digitar código em um terminal não era mais desenvolvimento
de produto comercial, era “hacking”. “Somos realmente os revolucionários no mundo
de hoje – não as crianças com cabelos compridos e barbas que estavam destruindo
as escolas alguns anos atrás”, disse Gordon Moore, cofundador da Intel, a um repórter.
À medida que as excentricidades da contracultura diminuíam no resto dos Estados
Unidos após a renúncia de Nixon, elas se mantiveram no Valley, em parte graças à
chegada em 1974 do Altair 8800, o primeiro computador pequeno e barato o suficiente
para uso doméstico. As máquinas eram “abertas”, o que significa que qualquer pessoa
com conhecimento poderia modificar ou trocar componentes. Os engenheiros do
Valley formaram clubes de consertos noturnos com nomes como Homebrew Computer
Club e People's Computer Company. Em boletins e reuniões regulares, eles
codificaram sua autoimagem revolucionária em algo como doutrina. O boletim do PCC
trazia orientação técnica juntamente com tratados sobre a futura utopia libertária.

Os encontros do Homebrew produziram uma geração de startups, entre elas a


Apple Computer. À medida que os computadores pessoais se expandiam para além
do nicho de mercado amador, a Apple saltava à frente de seus concorrentes, graças
à sua tecnologia e, principalmente, ao marketing. Ele vendeu a imagem de “liberdade
e estranheza” para os baby boomers como simultaneamente nostálgico – ecoando a
contracultura dos anos 60 – e aspiracional. Em 1984, com os negócios disparando
ano após ano, exibiu um anúncio no Super Bowl de uma mulher arremessando um
martelo em uma tela de vídeo de um senhor totalitário. Consumismo como revolução;
anarquismo hacker impregnado com o capitalismo desavergonhado dos anos 80 de Reagan. "Isso é
Machine Translated by Google

perigoso”, disse a historiadora Margaret O'Mara, “porque o mito se torna a realidade


do Vale do Silício”.
A conversa sobre a destruição das estruturas de poder foi, a princípio,
principalmente retórica. Mas um punhado de fanáticos construiu esses ideais, levados
a um extremo quase milenar, em algo que eles chamaram de WELL, a primeira rede
social de real importância. Surgiu de uma revista dirigida por um ex-associado de Ken
Kesey chamado Stewart Brand, que passou os anos 60 dirigindo entre as comunidades
hippies da Califórnia vendendo suprimentos em seu caminhão. Ele a chamava de
Loja de Caminhões da Terra Inteira. Ao instalar-se no Vale de Santa Clara, converteu-
o, em 1968, no Catálogo Terra Inteira. O nome era uma piada: aconselhava os leitores
sobre como fazer os produtos por conta própria, ao lado de artigos que promoviam o
comunalismo hippie.
As cópias eram onipresentes no início do Vale do Silício. Mais tarde, Steve Jobs
o chamou de “uma das bíblias da minha geração”. Brand, tendo absorvido as
promessas de libertação do Vale, usou sua revista e seu crédito hippie para repetir a
eles como um mandato: só você pode terminar o que os anos 60 começaram. “Acho
que os hackers”, disse Brand em uma conferência da indústria em 1984, “são o grupo
de intelectuais mais interessante e eficaz desde os idealizadores dos Estados Unidos.
Constituição." Quando uma empresa de teleconferência propôs a Brand transformar
sua revista em um quadro de mensagens, ele lançou o Whole Earth 'Lectronic Link,
ou WELL. Seus amigos do alto escalão da indústria se juntaram e grande parte do
Vale o seguiu, transformando-o em um centro de atividades imperdível.

Os fundadores do site o imaginaram como a realização de seus sonhos de uma


utopia anarquista. Eles acreditavam que uma quase ausência de regras levaria a uma
comunidade autogovernada na qual as ideias surgiam ou caíam por mérito. Na
realidade, à medida que os engenheiros rabugentos e combativos avançavam, as
vozes mais altas e as opiniões mais populares dominavam, mas como os arquitetos
do WELL representavam ambos, eles tomaram isso como uma confirmação de que
sua meritocracia intelectual funcionava. Para sempre, os arquitetos da era da internet
que se reuniram pela primeira vez no WELL tratariam o majoritarismo bruto como o
ideal natural, construindo-o em todas as redes sociais subsequentes até hoje. O
debate estridente passou a ser visto como a mais pura meritocracia: se você não
conseguia fazer o seu próprio ou conquistar a multidão, se você se sentia incomodado
ou indesejado, era porque suas ideias não haviam prevalecido por mérito.
Os usuários do WELL, semeados em toda a indústria, passaram a construir o
Machine Translated by Google

web de consumo em sua imagem: não regulamentada, não governada, livre para usar,
implicitamente projetada para os geeks do sexo masculino que preencheram seu fórum
seminal. Estes não eram apenas sites. Eles eram uma sociedade cibernética que nos
elevava acima das formas ultrapassadas do mundo físico. “Rejeitamos: reis, presidentes
e votação. Acreditamos em: consenso aproximado e código em execução”, disse David
Clark, um dos arquitetos da web, em 1992.
Em 1996, um ex-membro do conselho do WELL escreveu o documento que definiu a
era da web, “Uma Declaração de Independência do Ciberespaço”. Endereçada aos
“Governos do Mundo Industrial”, anunciava: “Vocês não têm soberania onde nos reunimos”.
A web seria “uma civilização da Mente”, regida pela vontade coletiva de seus usuários. Foi
uma ideologia que rapidamente se espalhou pela cultura mais ampla, consagrada em
filmes como The Net e The Matrix, que retratavam os programadores como a nova
vanguarda da contracultura, rebeldes do kung fu que quebrariam as correntes da servidão
humana.
O manifesto consagrava um ideal em particular: total liberdade de expressão.
Assim como no WELL, esse seria o mecanismo da web para autogoverno, primeiro
mandamento e maior presente para o mundo. Seus preceitos continuam sendo o texto
fundamental da indústria de mídia social. “Nosso conselheiro geral e CEO gosta de dizer
que somos a ala de liberdade de expressão do partido de liberdade de expressão”,
disse o chefe do Twitter no Reino Unido. Zuckerberg chamou a liberdade de expressão de
“o ideal fundador da empresa”.
Mas é a ambição de longa data de finalmente realizar uma revolução de raiz e ramo
que mais anima a ideologia subjacente do Vale, uma profecia que as empresas de mídia
social se consideram destinadas a realizar. Enquanto a Apple era uma “empresa
inovadora”, o Facebook era uma “empresa revolucionária”, disse Zuckerberg, então com
22 anos, a um possível contratado. Ele disse a um entrevistador de TV: “Estamos
basicamente religando o mundo do zero”, uma promessa que ele formalizou em uma carta
aos acionistas.
O Facebook poderia e deveria fazer isso, ele acreditava, porque era administrado por
engenheiros, cuja pureza de visão os ajudaria. “Existe essa coisa fundamental de que
desde cedo você olhava para alguma coisa e pensava: isso pode ser melhor. Posso
quebrar esse sistema e torná-lo melhor”,
Zuckerberg disse uma vez em uma viagem à Nigéria, onde prometeu que o Facebook
ajudaria no avanço de toda a África. “Acho que essa é a mentalidade de engenharia - pode
até ser mais um conjunto de valores do que uma mentalidade.” Mas esse idealismo - a
crença de que qualquer startup que ganhasse mais usuários poderia e deveria refazer
Machine Translated by Google

toda a sociedade - refletia uma arrogância que se revelaria catastrófica. “A razão pela qual
nós, nerds, não nos encaixávamos era que, de certa forma, estávamos um passo à frente.”
Paul Graham, o investidor cuja incubadora lançou o Reddit, escreveu uma vez. Os futuros
Valleyites eram “consistentemente impopulares” quando crianças, argumentou ele, porque
“já estávamos pensando sobre o tipo de coisas que importam no mundo real, em vez de
gastar todo o nosso tempo jogando um jogo exigente, mas principalmente sem sentido,
como os outros”.
Mas ainda mais importante do que a crença do Vale em uma grande missão era o tipo
de engenheiros que seus investidores elegeram para liderar sua revolução e em cuja
imagem o mundo seria refeito. “Todos eles parecem ser nerds brancos que abandonaram
Harvard ou Stanford e absolutamente não têm vida social”, disse certa vez John Doerr, um
lendário investidor em tecnologia, sobre fundadores de sucesso, chamando isso de “padrão”
que ele costumava usar. selecionar investidas.
Da mesma forma, Graham disse que procura “nerds” e “idealistas” com “um brilho de pirata
nos olhos”, que “se deliciam em quebrar regras” e desafiar as sutilezas sociais. “Esses
caras querem ficar ricos, mas querem fazer isso mudando o mundo.” Peter Thiel, um dos
fundadores do PayPal e o primeiro investidor externo no Facebook, pediu que elevassem
os contrários antissociais.
“Indivíduos com uma inaptidão social semelhante à de Asperger parecem estar em
vantagem no Vale do Silício hoje”, escreveu ele em um influente livro sobre startups. “Se
você é menos sensível às sugestões sociais, é menos provável que faça as mesmas coisas
que todos ao seu redor.” Os investidores consideravam esse arquétipo uma forma extrema
de meritocracia — baseada apenas em resultados, tão pura que existia acima de
preocupações mesquinhas de diversidade. Na realidade, esses resultados, o “padrão” de
Doerr, simplesmente refletiam uma cultura tecnológica que era hostil a qualquer um fora
de um ideal de misantropo nerd de longa data.
“Não se dá muito valor às sutilezas sociais”, disse-me Margaret O'Mara. “Existe uma
tolerância para a estranheza, em parte porque as pessoas estranhas têm um histórico
comprovado. Essa é a outra dimensão da cultura do Vale do Silício. É como se todo mundo
fosse um idiota.” Esse arquétipo do Valley derivou de suas empresas fundadoras: Shockley
Semiconductor Laboratory e o fornecedor de componentes elétricos Hewlett-Packard.
Ambos foram definidos pelo desdém rabugento de seus fundadores pela vida corporativa
convencional e pelas estruturas administrativas, o que os impediu de se mudar para o
Leste. Eles cultivaram culturas de escritório impiedosamente competitivas e zelosamente
anti-hierárquicas, dando aos engenheiros rédea solta e supervisão frouxa. E eles
Machine Translated by Google

recrutou rabugentos anti-sistema à sua própria imagem, com pedigrees muito informais
e personalidades muito difíceis para os refinados IBM ou Bell Labs. Eventualmente,
como os desistentes argumentativos e auto-impulsionados pareciam estar em toda
parte, o Valley considerou essa personalidade um sinal de gênio.
Na maioria das indústrias, essas peculiaridades seriam diluídas, ao longo do tempo,
pelos recém-chegados e pelas gerações subsequentes. Mas, como costuma acontecer
no Vale, a força oculta por trás de tudo, definindo tanto a cultura quanto a economia,
era o capitalismo de risco. A prática de engenheiros se tornarem VCs que escolhem a
próxima geração de engenheiros dominantes manteve o pool genético ideológico
incestuosamente estreito.
Ainda hoje, Shockley está a apenas quatro ou mais passos de praticamente todas
as figuras importantes da mídia social. Uma de suas primeiras contratações, um
engenheiro chamado Eugene Kleiner, mais tarde cofundou a Kleiner Perkins, a empresa
de investimentos que contratou Doerr. Doerr, por sua vez, semeou a Amazon e o
Google, onde seus conselhos — lições que aprendera com os recrutas da Shockley —
se tornaram a base do modelo de negócios do YouTube. Outro protegido de Doerr, o
fundador da Netscape, Marc Andreessen, tornou-se um grande investidor e membro
do conselho do Facebook e mentor pessoal de Mark Zuckerberg. Ele cofundou uma
empresa de capital de risco que semeou, entre outros, Slack, Pinterest e Twitter.
Existem dezenas dessas interconexões, todas entre um pequeno grupo de
investidores e fundadores com ideias semelhantes. Yishan Wong, chefe do Reddit
durante o Gamergate, havia surgido no PayPal, cujos ex-alunos orientaram grande
parte da era da mídia social. Um dos primeiros executivos do PayPal, Reid Hoffman,
usou sua sorte inesperada para fundar o LinkedIn e investir cedo no Facebook. Ele
apresentou Zuckerberg a Thiel, que se tornou o primeiro membro do conselho do Facebook.
Thiel, aproveitando ainda mais seu sucesso no PayPal, iniciou um fundo que lançou
grandes investimentos no Airbnb, Lyft e Spotify. Durante todo o processo, como muitos
investidores importantes, ele impôs seus ideais às empresas que supervisionava. Na
década de 1990, ele foi co-autor de um livro, The Diversity Myth, chamando a inclusão
proposital de mulheres ou minorias de uma farsa que sufocava a livre busca intelectual.
“Max Levchin, meu co-fundador do PayPal, diz que as startups devem tornar sua
equipe inicial o mais semelhante possível”
Thiel escreveu. “Todos na sua empresa devem ser diferentes da mesma maneira –
uma tribo de pessoas com ideias semelhantes, devotadas ferozmente à missão da
empresa.”
Isso, mais do que raça ou gênero sozinho, era o arquétipo rígido em torno
Machine Translated by Google

qual o Vale projetou seus produtos: implacáveis, lógicos, misantrópicos, brancos,


geeks masculinos. Durante grande parte da história da indústria, essa predileção
afetou poucos além das mulheres e minorias que lutavam para suportar seus locais
de trabalho. Mas com o advento da era da mídia social, a indústria estava construindo
seus piores hábitos em empresas que então contrabandeavam esses excessos –
chauvinismo, uma cultura de assédio, maioria disfarçada de meritocracia – para as
casas e mentes de bilhões de consumidores.

3. Trolling

A REVOLUÇÃO VEIO rapidamente, estendida pela banda larga a praticamente


todas as cidades e subúrbios. Ele trouxe, como prometido, liberdade quase total,
pelo menos para aqueles que foram bem-vindos. tipo. E as normas e valores que
eles codificaram no início da web acabaram por guiar seus milhões de primeiros
usuários em direção a algo muito diferente da utopia igualitária que eles imaginaram.

No alvorecer do que hoje chamamos de cultura da internet, em 2009, um garoto


de treze anos do subúrbio de Dallas chamado Adam partiu em uma jornada pelas
profundezas da rede social que dominaria grande parte de sua vida. Ele ouviu a
palavra meme em algum lugar, pesquisou no Google e caiu em um blog chamado I
Can Haz Cheezburger? Ele atraiu dois milhões de espectadores diários para fotos
de gatos sobrepostas com texto infantil com a voz do gato (“fiz um jantar para você,
mas comi”).
Adam foi atraído por uma postagem - uma série de memes e capturas de tela -
que contava uma história. Um par de vídeos, disse o post, apareceu no YouTube
mostrando dois meninos abusando de um gato chamado Dusty. Os clipes causaram
indignação, especialmente em um quadro de mensagens chamado 4chan, cujos
usuários podiam ser maliciosos. Eles prometeram justiça para Dusty; um identificou
o criador de vídeos do YouTube como um garoto de quatorze anos de Oklahoma.
Outro afirmou que alertou a polícia local, embora as autoridades tenham dito mais
tarde que identificaram as origens do vídeo por conta própria. O videomaker e seu
irmão foram acusados de crueldade animal; 4chan cheio de postagens comemorando a vitória como sua
ter.
Adão ficou encantado. Pessoas como ele transformaram o ato de clicar
Machine Translated by Google

na internet em uma aventura emocionante e uma experiência social de união. “Esses


caras salvaram um gatinho? Pode apostar que isso me atraiu ”, lembrou ele. “O aspecto
da justiça vigilante ajudou a definir o que o 4chan é para mim.” Ele começou a passar
horas por dia no 4chan, cujos recursos incomuns o tornaram extremamente popular entre
os primeiros usuários da Internet. Sempre que um usuário queria iniciar um novo tópico,
ele tinha que fazer upload de uma imagem, o que mantinha a plataforma cheia de memes
e cartoons feitos por usuários. Muito antes do Snapchat e outros pegarem emprestado o
recurso, as discussões eram excluídas automaticamente após um breve período, o que
permitia um comportamento impróprio que poderia ter sido evitado em outros lugares. O
mesmo aconteceu com o anonimato do site; quase todas as postagens são marcadas
como escritas por “anônimos”, o que instila uma cultura de vale-tudo e um senso de
identidade coletiva que pode ser atraente, especialmente para pessoas que desejam um
sentimento de pertencimento.
“Na escola, eu sempre fui o tipo pária”, disse Adam durante uma de nossas conversas
noturnas sobre os alcances mais sombrios da internet, através dos quais ele se ofereceu
para me guiar. Ele lutava contra a depressão e a ansiedade desde a infância. Mas no
4chan, ele se sentiu acolhido e compreendido. Noite após noite, seus habitantes se
entretinham com tópicos estridentes e pegadinhas elaboradas que eram “algumas das
mais divertidas que já tive online”, disse ele.
E ele se sentia seguro lá de uma forma que não se sentia no mundo real, onde, como
ele mesmo admitiu, ele era “uma pessoa muito estranha” e “uma espécie de recluso”.
Seu quarto na casa de sua mãe, onde ele ainda mora em seus vinte e poucos anos,
estava “repleto”, em suas palavras, com “merch” de um videogame dos anos 1990.
Embora mencionar sua depressão off-line atraísse olhares preocupados e intervenções
adultas, no 4chan ele podia se abrir para outras pessoas que pareciam compartilhar sua
solidão.
Em uma foto sua que ele me enviou, ele usava uma camiseta vintage de jogos e
óculos escuros modernos meio obscurecidos por cabelos castanhos desgrenhados. Ele
não parecia alguém que precisaria se refugiar nas redes sociais bizantinas para fazer
amigos ou conhecer garotas. Mas ele é tímido pessoalmente, ele me disse, devido a um
ceceio e uma gagueira. Ambos foram agravados pela perda auditiva quando ele era
adolescente e, mais recentemente, pela ansiedade. Ele ainda acha a comunicação verbal
difícil e não funciona. “Eu sou um NEET, meu caro”, disse ele, usando um termo do
governo britânico para alguém “que não está empregado, não está estudando ou treinando”
que, online, tornou-se uma autoidentificação para aqueles que se sentem deixados para trás.
Como muitos residentes de longa data da deep web social, ele desconfiava de
Machine Translated by Google

conversando com repórteres, que ele via como representantes do estabelecimento


adulto que queria, ele acreditava, controlá-lo e fechar sua querida casa digital. Mas um
intermediário confiável, uma fonte minha com quem ele entrou em contato cerca de uma
década depois de ingressar no 4chan, nos colocou em contato. Por mais que Adam
gostasse dos fóruns e sua “diversão boba e anônima”, ele admitiu que “os cantos mais
sombrios onde o comportamento antissocial vaza para o mundo real” o preocupava,
acrescentando: “Eu vi isso desde o início. Sou judeu e metade do site acha que eu não
deveria existir.” Ele lutou sobre como abraçar plenamente a visão de mundo que
saturava a plataforma. Sua cultura de raiva e conspiração o ajudou a entender um
mundo desorientador que parecia armado contra ele. O fato de as queixas serem
coletivas o ajudou a se sentir pertencente. Mas os extremos não controlados o
incomodavam, principalmente quando as pessoas se machucavam.

“Em última análise”, disse Christopher Poole, fundador do 4chan, em 2008, “o poder
está na comunidade para ditar seus próprios padrões”. Poole, então um jovem
esquelético de 20 anos, pertencia a uma crescente comunidade de entusiastas da web
— programadores, blogueiros, estudantes de pós-graduação — construindo a “civilização
da mente” do Vale do Silício. Mas depois de todas as inebriantes conferências de
hackers dos anos 80 e manifestos da década de 90, nos anos 2000 os habitantes da
web estavam mais interessados em se divertir. Os suburbanos presos em casa depois
da escola, jovens demais para dirigir, passavam horas online. A promessa de total
liberdade da internet atraiu especialmente as crianças, para quem a vida off-line é
governada por pais e professores. Os adolescentes também têm um impulso de
socialização mais forte do que os adultos, o que se manifesta como um uso mais intenso
das redes sociais e uma maior sensibilidade ao que acontece lá. Poole começou o 4chan quando tinha ape
Crianças que se sentiam isoladas off-line, como Adam, conduziram uma grande parte
da atividade online, trazendo consigo as preocupações dos desautorizados e intimidados.

Essa cultura era, a princípio, uma cultura de criação e tolice – vídeos de gatos e
desenhos animados – embora também tendesse a ser travessa e transgressora.
Baseando-se em uma cultura da web que remonta ao WELL, diversão significava estar
livre das regras e sensibilidades da sociedade e torcer o nariz para os estranhos que
não entendiam. Foi assim que as pegadinhas - um passatempo já apreciado por jovens
de todos os lugares - se tornaram a atividade que definiu os primórdios da web.
Em uma manobra organizada no 4chan, os usuários sequestraram um concurso
online no qual escolas competiam para hospedar um show de Taylor Swift e dirigiram
Machine Translated by Google

vitória para um centro para crianças surdas. Em outro, os usuários postaram uma
piada interna do 4chan, derivada de uma sessão de memes tarde da noite, em um
quadro de mensagens do programa de TV de Oprah Winfrey, escrevendo: “Nosso
grupo tem mais de 9.000 pênis e todos estão estuprando crianças”. Winfrey citou
sombriamente a linha no ar. “Muito do humor”, disse Adam, “vem do ato de
ultrapassar limites e expandir seu alcance para lugares mais populares que parecem intocáveis”.
Conseguir um mundo que os tratava como párias.
As coisas às vezes se transformavam em puro sadismo. Em 2006, os usuários
descobriram que, após o suicídio de um menino de treze anos, os amigos da vítima
postaram lembranças em sua página no MySpace. Os usuários zombaram dos erros
ortográficos e da seriedade infantil. Alguns hackearam a página para mudar a foto
do perfil do menino para a imagem de um zumbi. Outros trotes ligaram para seus
pais, que continuaram por mais de um ano. Se os adultos e os colegas de classe
acharem tais casos desconcertantes, melhor ainda.
Transgredir tabus cada vez maiores - mesmo contra a crueldade para com os
pais enlutados - tornou-se uma forma de sinalizar que você estava na brincadeira.
“Quando você navega no 4chan e no 8chan enquanto o resto de seus amigos estão
postando merdas normie live-ri-love no Instagram e no Facebook”, disse Adam,
“você se sente diferente. Resfriador. Parte de algo de nicho.” A piada pode ser uma
foto de pornografia escatológica. Um vídeo de um terrível assassinato. Uma calúnia
racial postada para provocar as pessoas, desafiando-as a levar isso a sério. Rir do
material - ou, melhor ainda, superá-lo - afirmou que você compartilhava o
distanciamento cínico e conhecedor do clube. E reformulou sua relação com o
mundo exterior: não é a sociedade que nos rejeita, somos nós que rejeitamos a sociedade.
Essas duas atividades unificadas, exibindo tabus e pregando peças, convergiram
para se tornar trollagem. Um fórum de mensagens dos anos 90 definiu o trolling
como postar comentários “com nenhum outro propósito além de irritar alguém ou
interromper uma discussão”, possivelmente com o nome de “um estilo de pesca em
que se arrasta a isca por um local provável na esperança de uma mordida”. Desde
os tempos do BEM, os internautas se entretinham procurando provocar uns aos
outros. Em redes como o 4chan, muitas vezes se tornava algo mais sombrio: atos
de abuso coletivo em que o objetivo era se deliciar com a angústia de outra pessoa.
A emoção de provocar uma reação em alguém tinha até nome: lulz, uma
corruptela da sigla para “laugh out loud”. Quase não havia limite para quem poderia
ser o alvo ou com que crueldade; o sonho do Vale do Silício de liberdade de leis e
hierarquias tornou-se, online, liberdade de
Machine Translated by Google

códigos sociais e morais também. A comunidade havia criado seus próprios padrões,
como esperava Poole, mas em torno do incentivo organizador de todas as mídias
sociais: atenção.
A maioria das plataformas é construída em torno de uma crença supostamente
neutra de que a atenção indica valor. O Reddit e o Twitter elevam as postagens com
base em quantos usuários as endossam com votos positivos ou retuítes. O Facebook e
o YouTube colocam essa autoridade em algoritmos. Qualquer uma das versões achata
todas as formas de atenção — positiva ou negativa, irônica ou sincera, quer tenha feito
você rir ou com raiva, satisfaça sua curiosidade intelectual ou seus instintos lascivos —
em uma métrica pura: para cima ou para baixo.
Conselhos como o 4chan fazem o mesmo, embora de forma mais orgânica. O
anonimato e a rotatividade de conteúdo encorajam os usuários a buscar a atenção uns
dos outros da forma mais agressiva possível. Insensível às restrições sociais do mundo
off-line, cada usuário opera como um algoritmo em miniatura do Facebook, aprendendo
iterativamente o que melhor chama a atenção dos outros. Uma lição se mantém
consistentemente. Para subir entre dezenas de milhares de vozes, independente do que
você poste, é melhor aumentar o volume, para ser mais extremo.
Em 2010, um dos ataques mais queridos da comunidade teve como alvo uma
menina de onze anos. Os usuários viram postagens circulando no Myspace, onde ela
era ativa, relatando que ela havia contado a amigos que estava envolvida romanticamente
com o vocalista de uma banda local de 25 anos. Os usuários do Myspace zombaram
dela por, presumiram, ter inventado. Ela postou respostas furiosas e, em seguida, um
vídeo no YouTube dizendo a seus “odiadores” que ela “enfiaria uma glock” na boca
deles. Os usuários do
4chan, encantados com sua reação desajeitada e emocional, começaram a provocar
mais. Ela mentiu, recusou a responsabilidade e agora seria colocada em seu lugar. Eles
a bombardearam com mensagens de assédio no Facebook e Myspace, falsas entregas
de pizza e trotes, que gravaram e enviaram para o 4chan para mais lulz. Um post sobre
“Como trollar” a aconselhou: “Diga a ela para se matar” e “Diga ao pai dela que vamos
espancá-la” e circular fotos reveladoras dela.

Ela postou um segundo vídeo, no qual soluçava enquanto seu pai adotivo gritava
para seus algozes invisíveis: “Adivinha, seus e-mails serão capturados e você será
encontrado”. Isso emocionou os usuários do 4chan - prova de que eles estavam
conseguindo. O assédio piorou. Em um vídeo final, ela cedeu, admitindo todas as
acusações e implorando por misericórdia. O incidente tornou-se
Machine Translated by Google

lenda na web social: justiça e lulz, alcançados. Seus vídeos circulavam continuamente,
atraindo milhões de visualizações. A banda local que ela citou em suas postagens iniciais
gravou uma música comemorando sua humilhação: “Meu nome e reputação não serão alvo
de uma vagabunda / estarei no topo do mundo e você se cortará fodido .”

Anos depois, ela disse à polícia que, quando ela tinha dez anos, o vocalista da banda a
molestou e estuprou repetidamente. Como acontece com muitas vítimas de abuso infantil, a
vergonha e a confusão a levaram a dizer aos amigos que era consensual. Em meio a uma
investigação do FBI, quase duas dúzias de outros apresentaram histórias semelhantes. No
entanto, o episódio ainda é comemorado no 4chan e sites semelhantes, onde os usuários
continuaram a assediá-la na web por mais de uma década.

A falta de vergonha era característica; Os usuários do 4chan “regularmente enquadravam


sua atividade como uma espécie de serviço público”, escreveram certa vez os teóricos
culturais Whitney Phillips e Ryan Milner. Eles se viam como baseando-se na missão
fundadora da web social: derrubar os velhos hábitos quebrados e substituí-los por um mundo
de liberdade de expressão autopoliciada e pensamento impiedosamente independente.
Enganar Oprah para alertar seus telespectadores sobre um culto sexual inexistente, eles
disseram a si mesmos, ensinaria as pessoas a questionar figuras de autoridade e contas
oficiais, “um resultado que eles estimularam ao insultar, iluminar e enganar alvos”,
escreveram Phillips e Milner.
“Muitos brincaram que mereciam um agradecimento por seus esforços.”
“Trollar é basicamente eugenia da internet”, disse Andrew Auernheimer em 2008.
Auernheimer era uma superestrela do 4chan: um hacker anarquista, provocador
desavergonhado e atormentador impiedoso dos inimigos escolhidos pelo site. A entrevista
em si era um troll, desafiando os leitores a se ofenderem com as invocações nazistas: “Os
blogueiros são uma porcaria… Precisamos colocar essas pessoas no forno!” Discursos
como o de Auernheimer sugeriam algo novo emergindo da rede social inicial. A cultura da
provocação, a alegre rejeição dos códigos morais estabelecidos, criou o que Phillips e Milner
chamaram de “as condições perfeitas para que o fanatismo se espalhasse furtivamente,
escondido dentro de coisas que não pareciam nem um pouco poluídas”.

Auernheimer se gabou de seu papel em uma campanha de assédio contra a blogueira


de tecnologia Kathy Sierra. Ela pediu que as seções de comentários do 4chan fossem
moderadas, enfurecendo os usuários que viam isso como um ataque à liberdade de
expressão na internet. Ele postou o número do Seguro Social de Sierra e o endereço residencial em meio a
Machine Translated by Google

um dilúvio de ameaças de morte, circulou fotos de seus filhos editadas em pornografia e


postou mensagens em seu nome solicitando sexo, trazendo homens estranhos à sua porta
dia e noite. Ela foi expulsa completamente da vida pública. Sierra teve pouco incentivo para
tentar apresentar acusações. Poucos no sistema de justiça consideram o assédio online, por
mais extremo que seja, para se transformar em crime, e qualquer resposta pública certamente
teria apenas trazido mais ataques.

Auernheimer também começou a postar “sermões” anti-semitas e cheios de conspiração


no YouTube que ele alegou serem satíricos, mas cujos apelos por “sangue nas ruas” soavam
terrivelmente sinceros. Na época, os Auernheimers da web eram tratados como garotos
criadores de travessuras. Na medida em que alguém prestava atenção, muitas vezes era
para elogiá-los. Em 2010, a TechCrunch, publicação interna praticamente oficial do Vale do
Silício, concedeu a Auernheimer um prêmio de serviço público. Foi uma demonstração de
solidariedade com o grupo de hackers de Auernheimer, que estava sob investigação do FBI
por roubar 114.000 endereços de e-mail privados por meio de uma vulnerabilidade do iPad.

Em uma festa para Auernheimer na noite anterior à sua sentença criminal, “jornalistas
beberam ao lado de hackers, ativistas, documentaristas de tapa-olho e garotas de cabelo
doce com piercings nos lábios”, de acordo com um relato da Vice . Na manhã seguinte, o
vice- escritor trouxe uma máscara de Guy Fawkes para o tribunal, explicando: “Fui porque a
condenação dele estava errada e meus amigos e eu cuidávamos dele”. No ano seguinte,
Auernheimer ingressou no The Daily Stormer, um proeminente fórum neonazista fundado e
povoado por 4channers, onde postou uma foto revelando uma tatuagem de suástica do
tamanho de um punho em seu peito.

Poole, desconfiado da reputação obscura do 4chan, impôs as mais leves das restrições.
Discurso de ódio extremo e assédio ainda eram permitidos, mas limitados a algumas
subseções. Transformou essas seções em distritos de luz vermelha, convidando multidões
de curiosos, alguns dos quais gostaram do que viram e ficaram. Ainda assim, alguns
consideraram até isso uma traição. Um deles, um desenvolvedor de software chamado
Fredrick Brennan, iniciou um spin-off do 4chan, o 8chan, que ele anunciou como uma
alternativa “amigável à liberdade de expressão”. Usuários, incluindo Adam, afluíram,
aprofundando uma identidade coletiva de marginalidade desafiadora que se tornou o lar de
alguns dos maiores horrores da era da internet.
No final dos anos 2000, as comunidades chan migraram para as plataformas mais
brilhantes que então cresciam em popularidade. Como ondas de colonos, eles desembarcaram em
Machine Translated by Google

o solo virgem do Facebook, YouTube e Twitter. A cultura Chan, expressa em memes e


piadas internas agora tão reconhecíveis quanto Mickey Mouse, infundiu as plataformas,
cujos recursos e algoritmos de maximização de engajamento absorveram e reificaram
suas tendências mais extremas, então as amplificaram para um mundo que não tinha
ideia do que estava por vir.

4. Jogadores

QUANDO JOHN DOERR, o grande investidor em tecnologia, revelou o fundo de US$


250 milhões de Kleiner Perkins para startups de mídia social no final de 2010, a pessoa
que ele escolheu para ficar ao seu lado foi Bing Gordon. Um atleta de lacrosse auto-
descrito, então na casa dos cinquenta, Gordon ostentava uma trepada de fraternidade e
atou seu discurso corporativo com "cara" e "incrível". Antes de ingressar na Kleiner como
investidor, seu currículo tinha um marcador que abrangia o período de 1982 a 2008:
Electronic Arts, uma empresa de videogames. “Estamos apostando no oceano azul que
o social está apenas começando”, disse Gordon na inauguração, ladeado, em uma
demonstração do poder de Kleiner, por Mark Zuckerberg e Jeff Bezos.
A presença de Gordon refletia uma crença amplamente difundida na época: a
indústria de mídia social operaria como o negócio de videogames. Gordon disse em uma
conferência do setor alguns meses depois que havia “três temas que vocês, CEOs,
precisam dominar”, listando dispositivos móveis, sociais e, com um golpe de punho,
“gamificação”. Desde o início, as plataformas de mídia social se basearam fortemente
nos videogames. As notificações são entregues em “emblemas” estilizados, que Gordon
disse ao público que podem dobrar o tempo de um usuário no site, enquanto curtidas
imitam uma pontuação contínua. Isso era mais do que estético. Muitas plataformas
inicialmente consideraram os gamers – obcecados por tecnologia que certamente
passariam horas nessa interface digital também – como um mercado central.
Graças a uma reviravolta na história comercial, a indústria de jogos atendia
predominantemente a jovens e meninos de certos temperamentos, o que significava que
as plataformas de mídia social efetivamente faziam o mesmo. Mas nada sobre videogame
é inerentemente de gênero ou específico de idade. Os primeiros jogos, projetados por
lojas do Vale do Silício na década de 1970, como a Atari, foram lançados juntamente
com os computadores pessoais e presumivelmente tinham o mesmo apelo universal.
Isso mudou com o que a indústria chama de crash do videogame norte-americano. De
1983 a 1985, as vendas caíram 97%. As empresas japonesas tentaram reviver o mercado
renomeando este computador agora manchado
Machine Translated by Google

produto, vendido em lojas de eletrônicos para adultos, como algo mais simples: brinquedos.
Os departamentos de brinquedos estavam, naquele momento, fortemente segmentados por gênero.
O presidente Reagan suspendeu as regulamentações que proibiam a publicidade na TV voltada para
crianças. Os profissionais de marketing, tomados por um neofreudismo então em voga, acreditavam que
poderiam fisgar as crianças satisfazendo sua curiosidade nascente sobre seus próprios gêneros. A nova
programação de TV, como My Little Pony e GI Joe , apresentou normas de gênero hiperexageradas,
sequestrando a autodescoberta natural de gênero dos adolescentes e convertendo-a em um desejo por
produtos de plástico moldado. Se isso soa como um eco nítido do modelo de negócios da mídia social,
não é coincidência. Explorar nossas necessidades psicológicas mais profundas e, em seguida, treinar-
nos para persegui-las por meio do consumo comercial que nos deixará insatisfeitos e voltaremos para
obter mais, tem sido fundamental para o capitalismo americano desde o boom do pós-guerra.

Os departamentos de brinquedos polarizaram-se entre rosa e azul. Os fabricantes de jogos


japoneses tiveram que escolher um lado, então escolheram aquele em que os pais gastavam mais:
meninos. Jogos cada vez mais centrados em heróis masculinos resgatando princesas, lutando em
guerras, jogando em ligas esportivas masculinas. Os profissionais de marketing, que há muito
posicionavam os jogos como brinquedos de infância, mantinham os meninos viciados durante a
adolescência e a idade adulta com — o que mais? — sexo. Os jogos estavam repletos de personagens

femininas retratadas como hipersexualizadas, submissas e algo a que os homens deveriam se sentir no
direito. Muitos jogadores entenderam que o retrato era fantasia, embora com valores preocupantes. Mas
o suficiente cresceu na fantasia para absorvê-la como verdade. Em meio às guerras culturais dos anos
1990 e 2000, os comerciantes de jogos aproveitaram essas tendências como um trunfo, apresentando
os jogos como refúgios de um mundo feminilizado, um lugar onde os homens ainda eram homens e as
mulheres mantidas em seus lugares. O jogo tornou-se, para alguns, uma identidade, enraizada na reação
contra a evolução das normas de gênero.

Quando as redes sociais apareceram, acessíveis apenas por computadores de mesa presos na
sala da família, os primeiros usuários pareciam muito com os jogadores: homens e meninos caseiros
que eram os primeiros a adotar a tecnologia. Portanto, os dois públicos foram tratados como sinônimos,
um conjunto de produtos comercializados para o outro, confundindo-os em uma subcultura e identidade
unificadas. Mas na década de 2000, computadores domésticos cada vez mais poderosos permitiram que
desenvolvedores autofinanciados construíssem jogos fora do molde comercial. (Zoë Quinn foi um desses
desenvolvedores.)
A democratização digital também trouxe novas vozes, como a YouTuber Anita Sarkeesian, que
argumentou que a representação da mulher nos jogos não
Machine Translated by Google

não apenas excluí-los, mas encorajou seus maus tratos na vida real. Entre os jogadores
ansiosos para ver a forma ser levada mais a sério, esse foi um desenvolvimento
empolgante e positivo. Os revisores começaram a adotar as críticas de Sarkeesian.
Lançamentos de grande orçamento apresentaram diversos protagonistas e enredos,
enquanto eliminavam os excessos de He-Man.
Para alguns jovens jogadores do sexo masculino, especialmente aqueles que se
reuniam em plataformas sociais, parecia uma ameaça. As normas e limites de sua
identidade estavam sendo desafiados e, com isso, seu senso de identidade. “Durante
trinta anos, encontramos um tipo muito particular de jogador, e os tornamos o centro do
mundo, e atendemos a todos os seus caprichos”, disse-me Brianna Wu, que ousou
desafiar os Gamergaters. “E agora, hoje, o mundo está mudando, e o jogador médio não
é um cara de vinte e poucos anos. É uma mulher de quarenta anos como eu. E quando
o mundo muda, há apenas uma incapacidade de lidar com isso, o que é muito lamentável
em nosso campo.”
Acusar desenvolvedores como Quinn de subornar revisores era uma espécie de
autodefesa cognitiva, uma forma de reformular mudanças indesejadas como uma
conspiração nefasta e a ameaça à identidade deles como uma batalha nossa contra eles.
“Eles não estavam mais lutando pelo direito de ver seios em videogames, mas lutando
contra o 'genocídio branco'”, disse David Futrelle, um escritor que monitora extremistas
online. “Não eram apenas os jogos que precisavam ser salvos, mas a própria civilização
ocidental.” Olhando para trás, Futrelle vinculou o evento à ascensão explosiva da extrema
direita online, chamando de “quase impossível exagerar o papel do Gamergate no
processo de radicalização”.

Adam, o obsessivo do 4chan, agora com dezoito anos, seguiu cada passo. A
indignação de afirmação da visão de mundo era irresistível. Vídeos postados por
proeminentes YouTubers de jogos o convenceram, disse ele, de que “jornalistas estavam
sendo subornados com dinheiro e sexo”. Observar os usuários tramando para atormentar
Wu o perturbou. Mas as plataformas, seguindo sua engenharia, martelaram-no com
postes supostamente provando que Wu e outros eram radicais perigosos empenhados
em sua subjugação. Ele continuou clicando, seguindo a campanha, como muitos de seus
compatriotas online, em tocas de coelho cada vez mais escuras e profundas.
Wu, observando o desenrolar do Gamergate, lembrou-se de um momento de anos
antes, quando ela havia estagiado no gabinete do senador Trent Lott, do Mississippi. Sua
equipe havia implantado uma pesquisa push agora famosa: “Você acredita que os
democratas estão tentando tirar sua cultura?” Ele executou
Machine Translated by Google

espetacularmente, especialmente com homens brancos. Imagine, ela disse, quão eficazes
as plataformas de mídia social poderiam ser nisso, otimizadas para desencadear as
emoções das pessoas de forma mais eficaz do que o escritório de campanha mais astuto,
saturando o público na casa dos bilhões com uma versão da realidade que era como uma
enquete de ativação de identidade que nunca terminou. “Da mesma forma daquela enquete
no Mississippi, acho que havia um medo real de que as mulheres estivessem vindo para
acabar com sua cultura”, disse Wu sobre o Gamergate. “É tribal.”

5. A Maldição de Dunbar

DURANTE O INÍCIO DA DÉCADA DE 2010, enquanto as subculturas do estilo Gamergate


invadiam as plataformas de geração anterior, o Facebook silenciosamente perseguia um
objetivo audacioso: exceder os limites cognitivos da socialização humana. O plano, com o
tempo, imporia, a bilhões de usuários, uma versão ainda mais poderosa das distorções
que alteram a mente que o Reddit e o 4chan trouxeram para os jogadores e adotantes
iniciais, provocando um mundo de Gamergates.
Surgiu de uma crise que a empresa enfrentou em 2008, daquelas que chamaram a
atenção da empresa como poucas: o crescimento de usuários havia estagnado. Em
qualquer outro setor, fechar cerca de 90 milhões de clientes pode ser uma oportunidade
para explorar produtos novos ou melhores para vendê-los. Mas na economia da web, uma
base de usuários estática pode ser mortal. “Lembro-me de pessoas dizendo que não
estava claro se algum dia passaria de cem milhões naquela época”,
disse Zuckerberg. “Basicamente batemos em uma parede e precisávamos nos concentrar
nisso.”
O Facebook, na esperança de aumentar o engajamento, começou a experimentar
quebrar o chamado limite de Dunbar. O antropólogo britânico Robin Dunbar havia proposto,
na década de 1990, que os humanos são cognitivamente limitados a manter cerca de 150
relacionamentos. Era um número derivado dos grupos sociais de no máximo 150 pessoas
em que havíamos evoluído. Mais do que isso, nosso neocórtex – a parte do nosso cérebro
que governa a cognição social – atinge o máximo. Nosso comportamento também muda,
buscando redefinir para 150, como o disparo de um disjuntor. Mesmo online, as pessoas
convergiam naturalmente para o número de Dunbar. Em 2010, o usuário médio do
Facebook tinha cerca de 130 amigos; o jogo de rede social Friendster chegou a limitar o
número de amigos a 150.

O Vale do Silício há muito sonhava em “escapar da maldição de Dunbar”, como um


Machine Translated by Google

consultor das empresas escreveu em 2010. Zuckerberg falou publicamente sobre


quebrá-lo. Mas o plano falhou. Nem mesmo o Facebook conseguiu superar milhões de
anos de evolução – pelo menos ainda não. Quando o crescimento do usuário estagnou
novamente em 2013, a empresa se reformulou em torno desse objetivo. Os usuários
foram empurrados para o conteúdo do que o Facebook chamou de “laços fracos”:
amigos de amigos, contatos de contatos, primos de primos.
Aplicado por meio de sofisticação algorítmica, o esquema funcionou.
O Facebook atraiu os usuários para círculos cada vez maiores de meio-estranhos,
ultrapassando o limite de Dunbar. O Twitter, mais ou menos na mesma época, fez
quase a mesma coisa, mostrando aos usuários tuítes de estranhos e incitando-os a
seguir amigos de amigos. As empresas mostraram pouca preocupação com as
consequências de contornar nossos limites neurológicos rígidos. Eles operaram, como
sempre fizeram, com base na crença de que seus produtos eram inerentemente
libertadores.
Mas estudos de macacos rhesus e macacos, cujos limites semelhantes aos de
Dunbar refletem os nossos, descobriram que colocá-los em grupos maiores os tornava
mais agressivos, desconfiados e violentos. Era como se todos os perigos de viver em
comunidade aumentassem e os prazeres diminuíssem. Os macacos pareciam sentir
que navegar com segurança em um grupo anormalmente grande estava além de suas
habilidades, desencadeando uma resposta social de luta ou fuga que nunca era
totalmente desativada. Eles também pareciam se concentrar mais em formar e impor
hierarquias sociais, provavelmente como uma espécie de mecanismo de defesa.

O Facebook logo encontrou um método ainda mais poderoso para expandir as


comunidades de usuários. Em vez de se esforçar para expandir sua lista de amigos
para mais de 150 pessoas, o Facebook pode empurrá-lo para grupos – páginas de
discussão independentes focadas em algum tópico ou interesse – dez vezes esse
tamanho. Isso também transferiu ainda mais poder para os sistemas do Facebook.
Não mais limitado ao conteúdo de pessoas próximas ao seu círculo social, o sistema
pode levá-lo a grupos de qualquer lugar da plataforma.
Renée DiResta, a investidora em tecnologia que descobriu comunidades anti-
vacinas em expansão no Facebook, percebeu a importância dessa mudança quando
sua luta entrou em uma nova fase. A Califórnia estava considerando uma legislação
para restringir os mandatos de vacinas nas escolas. Ela promoveu o projeto de lei e a
ciência por trás dele online, na esperança de neutralizar o sentimento anti-vacina tão
prevalente lá. O Facebook começou a recomendar que ela se juntasse a outros pais
Machine Translated by Google

grupos. Em seguida, grupos antivacina, embora isso não parecesse surpreendente, dada
a atividade dela. Mas logo o Facebook promoveu grupos organizados em torno de
desinformação médica não relacionada. Muitos grupos promoveram uma conspiração que
ela nunca tinha ouvido antes: que o Zika, um vírus que se espalhava na América Latina e
nos Estados Unidos, foi fabricado. Ela pesquisou o termo Zika no Facebook para testar
se, como no caso das vacinas, a plataforma poderia estar levando os usuários a extremos.
Com certeza, os principais resultados foram todos para grupos de conspiração que
chamam o zika de uma conspiração judaica, um esquema de controle populacional, o
movimento inicial de uma tomada de poder global.
“Existe esse efeito de correlação de conspiração”, disse DiResta, “no qual a plataforma
reconhece que alguém que está interessado na conspiração A provavelmente está
interessado na conspiração B e a apresenta a eles”.
A era dos grupos do Facebook promoveu algo mais específico do que o consumo passivo
de conspirações. Simplesmente ler sobre rastros ou vírus produzidos em laboratório pode
ocupar vinte minutos. Mas ingressar em uma comunidade organizada em torno da luta
pode se tornar um ritual diário por meses ou anos. Cada vez que um usuário sucumbia,
eles treinavam o sistema para estimular outros a fazerem o mesmo. “Se eles mordem”,
disse DiResta, “eles reforçam esse aprendizado.
Então o algoritmo pegará esse reforço e aumentará a ponderação.”

Outros do grupo informal de observadores de mídia social de DiResta notaram que o


Facebook e outras plataformas os direcionavam de maneiras semelhantes. O mesmo
padrão acontecia repetidamente, como se todas essas IAs tivessem chegado
independentemente a alguma verdade comum e terrível sobre a natureza humana.
“Chamei isso de radicalização por meio do mecanismo de recomendação”, disse ela. “Ao
ter métricas orientadas ao engajamento, você criou um mundo em que o conteúdo cheio
de raiva se tornaria a norma.”
A lógica algorítmica era boa, até brilhante. A radicalização é um processo obsessivo
que consome a vida. Os crentes voltam sempre, sua obsessão se tornando uma
identidade, com as plataformas de mídia social no centro de suas vidas cotidianas. E os
radicais, impulsionados pela urgência de sua causa, recrutam outros radicais. “Tínhamos
construído uma máquina de indignação na qual as pessoas realmente participavam da
divulgação do conteúdo”, disse DiResta, onde as pessoas que se radicalizaram passaram
a ser “os disseminadores desse conteúdo”. Ela tinha visto isso várias vezes. Os recrutas
foram atraídos por alguma ameaça ostensiva de vida ou morte: a terrível verdade das
vacinas, a
Machine Translated by Google

Agentes Illuminati que espalharam o Zika, as feministas que buscam derrubar o lugar
de direito dos homens no topo da hierarquia de gênero, começando com jogos. “As
pessoas comuns começaram a se sentir como soldados em um exército online lutando
por sua causa”, disse ela. Era apenas uma questão de tempo até que eles desejassem
um ao outro para a ação.
Mas, embora DiResta pudesse demonstrar que isso acontecia em casos particulares,
sem acesso aos dados internos das empresas, ela só podia inferir que as plataformas
estavam conduzindo isso de forma sistêmica. Ela alertou colegas em todo o Valley –
primeiro dentro de seu grupo de observação informal, depois de forma mais ampla, em
artigos e palestras voltados para o público – de que algo estava errado. Ela temia, no
entanto, que fosse tarde demais. “Tive a sensação”, disse ela, “de que não importava
se eram gamers, antivaxxers” ou algum outro grupo sendo radicalizado em grande
escala. “Essa foi apenas a dinâmica que estava tomando forma como resultado desse
sistema.”
O gamergate, sob esse prisma, parecia praticamente inevitável, exatamente o que
aconteceria quando os primeiros usuários da rede social, os jogadores, interagissem
com uma máquina habilmente calibrada para produzir exatamente essa resposta.
Comunidades maiores e mais convencionais, pessoas comuns sem nenhum apego
especial à web, já estavam se movendo online, submetendo-se à influência da máquina.
Havia todos os motivos para esperar que a experiência deles fosse a mesma. No início
de 2015, já estava começando.
Machine Translated by Google

Três

Abrindo o portal

1. O Chamado para Despertar

“Acho que eles não tinham muita certeza do que fazer comigo”, lembrou Ellen Pao sobre
seus primeiros dias no Reddit. “Não foi super acolhedor.” Na primavera de 2013, Pao era um
veterano do Vale, vindo de uma passagem pela Kleiner Perkins, a empresa de investimentos
de primeira linha. Mas, apesar de seu tempo na Kleiner, com seu enorme fundo para startups
de mídia social, ela tinha pouca experiência direta com empresas sociais. E ela se destacou
de outra maneira: ela era uma mulher negra de alto escalão em uma indústria notoriamente
dominada por homens.

Tanto de dentro quanto de fora, ela acreditava no Vale do Silício desde a década de
1990, quando ingressou em uma empresa que fabricava hardware para acessar a internet a
partir de TVs. Mas ela também se tornou cética em relação à tendência das grandes
tecnologias em relação a jovens geeks do sexo masculino. Além de Yishan Wong, o CEO do
site, os cerca de vinte outros funcionários do incipiente Reddit tendiam a ser jovens. A
maioria falava em piadas e arcanos culturais de uma plataforma que, apesar de sua enorme
base de usuários, parecia isolada. Pao estava um pouco rígido; Wong a incentivou a usar
menos linguagem “corporativa”.
Ela também era apenas uma usuária leve do Reddit, embora conhecesse o básico da
plataforma, que exibia links enviados por usuários que outros usuários votavam “para cima”
se gostassem e “para baixo” se não gostassem. Os links com mais votos apareciam no topo
da página, onde milhões os veriam. Uma seção de comentários anexada a cada postagem
operada pelas mesmas regras. Entrando em uma conversa, você veria primeiro as
declarações que agradavam ao público e os comentários impopulares, de modo algum. A
simplicidade e a rolagem infinita acabaram trazendo hordas de navegadores casuais,
inculcando-os em uma cultura da Internet que antes era impenetrável. O Reddit tornou-se
um portal de conexão
Machine Translated by Google

os dois mundos.
Ainda assim, o Reddit foi construído e governado em torno dos mesmos ideais iniciais
da Internet do 4chan e absorveu os usuários e os tiques culturais dessa plataforma. Sua
votação positiva ou negativa impôs uma maioria eclipsante que levou as coisas ainda mais
longe. O mesmo aconteceu com uma dinâmica semelhante às curtidas do Facebook: as
contagens de votos positivos são exibidas publicamente, aproveitando o impulso do
sociômetro dos usuários para validação. A caça à dopamina grudou os usuários no site e,
como no Facebook, direcionou suas ações.
Milhões que abriram o Reddit todas as manhãs encontraram um fluxo de comentários e
artigos afirmando a superioridade e satisfazendo as queixas do usuário mediano. Era uma
versão da realidade em que o libertarianismo tecnológico sempre foi justificado e sistemas
de crenças alternativos – feminismo, liberalismo estabelecido, religião organizada – foram
infinitamente humilhados e desmascarados. Se esses usuários medianos lutavam para se
encaixar off-line, eles garantiam uns aos outros, era porque eram mais inteligentes e
importantes do que o mundo que os tratava como indesejáveis. Como o 4chan, era um
lugar, em outras palavras, perfeitamente preparado para o Gamergate.

“Começou muito parecido com as outras plataformas”, disse Pao sobre os fundadores
do Reddit, “onde dois homens brancos saem para construir algo que desejam usar e que
atrai pessoas que se parecem com eles”. Pao desenvolveu uma sensibilidade especial para
o chauvinismo do Valley: dois anos antes, ela havia processado a Kleiner Perkins por
discriminação baseada em gênero, após o que a empresa a demitiu. Embora ela finalmente
tenha perdido no tribunal, muitos fora do Valley, e até mesmo alguns dentro dele, anunciaram
seu processo chamando a atenção necessária para as desigualdades irritantes no
capitalismo de risco tecnológico. Em 2016, quatro anos após o processo, apenas 11% dos
parceiros de capital de risco em tecnologia eram mulheres. Dois por cento eram negros. As
empresas, por sua vez, financiaram de forma esmagadora pessoas que se pareciam com
elas: em 2018, 98% de seus investimentos foram para empresas lideradas por homens. Isso
refletia, argumentou Pao, um viés ainda mais específico entre os investidores em tecnologia,
favorecendo não apenas os homens brancos, mas os contrários idealistas com políticas
libertárias; o “reconhecimento de padrões” defendido por Doerr, que também foi o antigo
mentor de Pao. As firmas que escolhem os vencedores e perdedores do Valley, seu
processo enfatizava, reforçam esse arquétipo com tanto zelo porque também o incorporam.

Os líderes do Reddit, jovens e progressistas, dificilmente eram hostis a tal


Machine Translated by Google

preocupações. Mas a empresa fez questão de defender o suposto valor mais alto da
web, total liberdade de expressão, em extremos que outros não fariam. Foi somente
após semanas de cobertura crítica da CNN que o Reddit fechou uma subseção,
“jailbait”, onde os usuários carregavam fotos reveladoras de meninas menores de
idade. (As subseções do site, conhecidas como subreddits, são criadas e gerenciadas
pelos usuários.) Antes do fechamento da subseção, jailbait era o segundo termo de
pesquisa mais bem classificado, depois do reddit, trazendo usuários ao site.
Quase qualquer outra coisa foi. Em um dos vários subreddits dedicados ao
extremismo racista, “WatchNiggersDie”, os usuários postaram vídeos horríveis de
negros morrendo em assassinatos ou acidentes violentos, juntamente com comentários
pseudônimos como: “Quase me sinto mal por deixar uma imagem como essa me
encher de uma quantidade esmagadora de prazer. Quase…” A maioria dos usuários
nunca encontrou essas comunidades, escondidas em cantos sombrios do site, mas o
suficiente para grupos de monitoramento digital avisarem o Reddit de que estava se
tornando uma incubadora de ódio.
“Não baniremos conteúdo legal, mesmo que o consideremos odioso ou que o
condenemos pessoalmente”, disse Wong, o CEO. Mas seu idealismo tecnológico
finalmente quebrou em setembro de 2014, quando um hacker invadiu as contas do
iCloud de várias celebridades femininas. iCloud é o serviço de computação em nuvem
da Apple; muitos produtos da Apple fazem backup dos arquivos do usuário em seus servidores.
O hacker baixou os dados do iPhone dos alvos, incluindo várias fotos privadas de
nudez. Dezenas foram carregadas no 4chan, depois no Reddit, que, cumprindo seu
papel de elo entre o ventre da internet e seu mainstream, tornou-se, da noite para o
dia, o repositório central. Milhões de visitantes lotaram o site.

“Todo mundo estava falando sobre isso”, disse Pao. Pessoas no noticiário, no
Vale, em sua vida pessoal. E isso, em última análise, foi o que fez a diferença. Não
foi a crescente pressão pública e legal, ou as vítimas implorando às plataformas de
mídia social para não permitir essa violação de suas vidas e corpos. Isso funcionou
em todas as outras plataformas importantes, das quais as fotos foram removidas. Mas
o Reddit ainda os tinha. Wong convocou uma reunião com toda a equipe. E, pela
primeira vez, grande parte da equipe do Reddit estava pronta para se posicionar
contra a comunidade do site, que ainda insistia em que as fotos permanecessem. “As
pessoas diziam: 'Não sei como defender isso'”, lembrou Pao, que parafraseou o
sentimento deles como “Meus amigos e família estavam perguntando sobre isso e eu
simplesmente não sabia o que dizer porque era
Machine Translated by Google

não me senti bem.”


A controvérsia atraiu um nível de atenção que nem mesmo os subreddits “jailbait” e de
ódio atraíram. O mundo exterior tratou isso como transgressões de uma cultura da internet
que se presumia estar isolada do resto de nós. Mas isso colocou o Reddit e seu ethos
hacker vale-tudo contra os direitos de atrizes, modelos e atletas amados. E o Gamergate,
embora apenas aumentando, já estava expulsando mulheres inocentes da vida pública.
“Queremos ser como o 4chan, onde a maioria das coisas são ruins e você mal consegue
ver as coisas boas?” Pao perguntou na reunião.

“Porque é assim que parece.” A conversa, disse ela, “abriu uma ideia: 'Ei, talvez essa ideia
de não interferir nem sempre seja certa'”.
Mas Wong resistiu. Ele anunciou em um post que, embora os líderes do Reddit
“entendam o mal que o uso indevido de nosso site causa às vítimas desse roubo”, eles
não cederiam. O Reddit, escreveu ele, não era apenas uma plataforma social “mas o
governo de um novo tipo de comunidade”. Como muitos outros operadores de plataforma
que viriam, no entanto, ele deixou claro que seu governo se recusava a governar, deixando
para os próprios usuários “escolher entre o certo e o errado, o bem e o mal”. Ele intitulou
seu post “Todo homem é responsável por sua própria alma”. Isso se tornaria uma defesa
padrão dos senhores da mídia social: que a importância de sua revolução os obrigou a
desconsiderar as leis mesquinhas e a moral do mundo off-line antiquado. Além disso,
qualquer mau comportamento era culpa dos usuários, não importando o papel crucial que
a plataforma desempenhava ao possibilitar, encorajar e lucrar com essas transgressões.

No mesmo dia em que Wong emitiu sua declaração, os repórteres apontaram que
entre as imagens roubadas no Reddit estavam fotos nuas de celebridades que eram
menores de idade no momento em que foram tiradas. Enquanto isso, os engenheiros do
site alertaram que, à medida que o tráfego aumentava, eles estavam lutando para manter o site online.
Finalmente, quase três semanas depois que as fotos apareceram pela primeira vez, Wong
as baniu. Os usuários do Reddit, enraivecidos, acusaram a plataforma de vender seus
princípios para influências corporativas sombrias e, pior, feministas.
As semanas seguintes foram uma época tempestuosa. Ao apresentar sua escolha
inicial como ideológica, Wong levou o escrutínio aos ideais do Vale do Silício que haviam
recebido pouca atenção nacional fora dos anúncios da Apple cuidadosamente elaborados.
Alegações de criação de uma sociedade nova e esclarecida pareciam difíceis de conciliar
com a realidade de lucrar com a exploração pornográfica de
Machine Translated by Google

mulheres sem consentimento. Ao mesmo tempo, o Gamergate estava piorando, com o Reddit
frequentemente apontado como um centro de atividade.
O conselho corporativo do Reddit rejeitou um plano que Wong havia proposto para consolidar
o espaço do escritório. A decisão, embora pequena, sinalizou que ele havia perdido a fé do
conselho. Ele demitiu-se. Em novembro de 2014, o conselho escolheu Pao como seu substituto.
Mesmo com seu processo contra Kleiner persistente, o histórico de Pao sugeria que ela traria
supervisão adulta e crescimento financeiro. Mas os membros do conselho sentiram tanta
incerteza que também trouxeram de volta um dos fundadores do site, que havia saído para
outras startups, em um vago papel executivo e nomeou Pao como CEO interino.

Mesmo assim, Pao viu uma oportunidade de melhorar a internet para todos, não apenas
para os jovens brancos que dominavam as redes sociais. Ela chamou os fiascos do Reddit de
“um alerta” para a necessidade de finalmente governar a rede social. Ao impor proteções para
mulheres e minorias e limpar subculturas de toxicidade e assédio, ela traria para a comunidade
do Reddit o que ela não conseguiu impor ao capitalismo de risco tecnológico: inclusão real.

A peça que faltava no sonho da tecnolibertação sempre caiu no ponto cego da elite nerd
masculina do Valley. Mas Pao foi autorizado a entregá-lo. Depois de um curso intensivo nas
ferramentas de moderação usadas para administrar o site, ela assumiu o comando do que era
então um dos sites mais visitados da Internet, pronta para guiar sua base de usuários de dezenas
de milhões em direção à sua visão da terra prometida.

2. Os Trolls estão vencendo

TRÊS MESES DEPOIS de seu mandato, Ellen Pao se tornou a primeira chefe de uma grande
plataforma a tentar reformar os excessos de sua indústria. “Estava claro, na minha cabeça, que
as coisas tinham que mudar e que o assédio era demais”, disse ela. Episódios como o
Gamergate, cuja escala se tornou intolerável nos seis meses desde que começou, a convenceram
da necessidade de conter não apenas o pior conteúdo, mas os incentivos e subculturas que
tornaram a web tóxica para começar.

Ela começou pequena, proibindo fotos nuas postadas sem o consentimento do sujeito. Ela
queria coibir a “pornografia de vingança”, um método de humilhar alguém por meio da divulgação
de fotos privadas. As vítimas eram esmagadoramente
Machine Translated by Google

mulheres, alvo de ex-namorados furiosos ou campanhas de assédio no estilo 4chan.


Compreendendo seu público, ela anunciou a política como protegendo não as mulheres,
mas a privacidade do usuário, já que os usuários hipoteticamente poderiam ser visados.
Apesar de algumas reclamações, a maioria dos usuários aceitou a mudança.
Encorajado, Pao anunciou uma série de políticas que baniam usuários e comunidades
responsáveis por ódio extremo ou assédio – com efeito imediato. A mudança foi, à primeira
vista, modesta, visando apenas o comportamento mais indefensável. Mas a mudança
cultural que isso implicou foi sísmica, reorientando, pela primeira vez, o ethos governante
de uma plataforma importante, permitindo que o id coletivo da comunidade o controlasse.
“É como se estivéssemos enviando uma mensagem”, disse ela. “Não aceitamos esse
comportamento. Vamos anulá-lo e anulá-lo toda vez que você tentar iniciá-lo novamente.

Pao também estava testando uma teoria: que as vozes mais odiosas, embora poucas
em número, exploravam a tendência da mídia social de amplificar conteúdo extremo para
seu poder de chamar a atenção, tingindo toda a plataforma no processo.
Eliminar “esses subreddits de assédio realmente ruins” e impedi-los de ressurgir, ela
acreditava, era a única maneira segura de acabar com o “efeito cascata” do mau
comportamento. Ainda assim, era apenas uma teoria e eles não tinham certeza se
funcionaria.
A primeira proibição foi pequena: um subreddit chamado “FatPeopleHate”. Seus vários
milhares de usuários postaram fotos de pessoas comuns que consideravam acima do
peso, direcionando-as para assédio e ameaças. Bullying como uma busca ociosa por emoções.
Pao também removeu um punhado de pequenos subreddits organizados em torno do ódio
a pessoas negras ou LGBT. Mas a liderança do Reddit enfatizou que isso era devido ao
comportamento de assédio dos usuários e não ao conteúdo em si. Comunidades de ódio
muito maiores foram deixadas de lado, como “WatchNiggersDie”, “GasTheKikes” e
“RapingWomen”, todas as quais glorificavam abertamente a violência. Keegan Hankes,
pesquisador do Southern Poverty Law Center, que monitora o extremismo de direita,
chamou o Reddit de “um buraco negro pior de racismo violento do que o Stormfront”, um
importante site neonazista, alertando que mesmo os piores fóruns de supremacia branca
proibiu tais extremos.
Ainda assim, a base de usuários do Reddit explodiu de raiva com as remoções como
um ataque à liberdade de ofender e transgredir que, afinal, era uma promessa explícita da
rede social desde sua fundação. Como no Gamergate, milhares votaram positivamente nas
postagens mais raivosas, levando uns aos outros a interpretações cada vez mais extremas:
Pao estava impondo uma agenda feminista, suprimindo os brancos
Machine Translated by Google

homens, movendo-se para acabar com a própria liberdade de expressão. Também como no
Gamergate, os usuários pareciam experimentar o incidente como um ataque à sua identidade
compartilhada, uma nova frente na guerra imaginada entre geeks masculinos de pensamento
livre e as feministas politicamente corretas que conspiram para controlá-los.
O site foi inundado com postagens chamando Pao de “vagabunda nazista” ou “presidente
Pao”, ou retratando-a em cartoons explicitamente racistas, votados de forma esmagadora por
outros usuários em uma das maiores plataformas de mídia social do mundo. Alguns postaram
o que acreditavam ser seu endereço residencial, às vezes junto com fantasias de que ela
poderia ser morta ou estuprada lá. Mas, com exceção de um post oferecendo US$ 1.000 por
uma foto de Pao sendo agredido, ela instruiu os moderadores a deixar tudo de lado.

Essa série de episódios - Gamergate, os fóruns de ódio, a reação a Pao - abalou a rede
social, mas, estranhamente, não seus supervisores, que não mostraram sinais de perceber o
quão profundamente a cultura do extremismo e da maioria da máfia se espalhou pela rede
social. Mas não foi ignorado pela extrema direita, que viu que a mídia social havia cultivado o
que não podia: uma grande e disposta audiência para o nacionalismo branco entre a juventude
americana.
“O Gamergate parece ter alertado os trolls racistas, misóginos e homofóbicos da internet sobre
o nível de poder que eles realmente possuem. O que é definitivamente uma coisa boa”, escreveu
Andrew Anglin, um antigo pôster do 4chan, no The Daily Stormer, um proeminente fórum
neonazista que ele fundou em 2013. Ele instou seus seguidores a cooptar o Gamergate e a
rede social mais ampla, lançando “ a ascensão do exército de trolls nazistas.”

Outras estrelas da web social já estavam participando. Fredrick Brennan, o fundador do


8chan, havia escrito um ensaio do Daily Stormer endossando a eugenia.
Andrew Auernheimer, o proeminente hacker, entrou como webmaster.
Recrutas do Reddit e do 4chan, alguns dos quais eram “extremistas demais” até mesmo para
os supremacistas brancos endurecidos em fóruns neonazistas, chegaram. Seus números
crescentes logo se refletiram nas principais plataformas que a maioria também usava. Um
estudo posterior estimou que o número de nacionalistas brancos de extrema-direita no Twitter
aumentou sete vezes entre 2012 e 2016.

Pao nunca teve a chance de pressionar ainda mais suas reformas. Em julho de 2015,
enquanto a revolta contra ela durava meses, um funcionário muito querido do Reddit que
administrava um serviço onde os usuários podiam fazer perguntas a celebridades foi demitido
sem explicação. Muitas das maiores subseções do site, administradas por voluntários
Machine Translated by Google

usuários, se fecharam em protesto. Embora Pao tenha postado um pedido de desculpas,


uma petição para sua rescisão alcançou 200.000 assinaturas. Quatro dias depois, ela e
o conselho corporativo concordaram que ela renunciaria.
“Os trolls estão vencendo”, escreveu Pao em um editorial do Washington Post alguns
dias depois. Os ideais fundamentais da internet, embora nobres, levaram as empresas
de tecnologia a adotar uma interpretação estreita e extrema da liberdade de expressão
que estava se mostrando perigosa, ela alertou.
Ela durou apenas oito meses.
Ainda assim, durante esse tempo ela havia revelado a bifurcação na estrada voltada
para as redes sociais. Eles poderiam continuar à deriva para se tornarem novas iterações
do 4chan turbinadas por algoritmos. Ou poderiam desviar-se para um futuro de restrições
e regras controlando os impulsos da maioria, ou de minorias especialmente barulhentas,
para que outros pudessem participar. Embora seja difícil argumentar que Pao conseguiu
persuadir seu conselho, seus funcionários ou seus usuários a seguir esse segundo
caminho, ela tentou. E ela fez isso quase dois anos e uma eleição que mudou o mundo
antes que a reação global forçasse os muito mais relutantes, teimosos e poderosos Mark
Zuckerbergs e Jack Dorseys do Vale a pelo menos fazer uma demonstração de seguir o
exemplo.

3. Memes Mágicos

MILO YIANNOPOULOS, um jovem de 29 anos que abandonou a faculdade, tinha poucos


motivos para acreditar que algum dia abriria caminho além dos confins do mundo da
tecnologia. Seu blog de fofocas de fontes vagas lhe rendeu o 98º lugar na lista de 100
influenciadores da Wired UK de 2012 (“o chato da tecnologia continua a provocar e
irritar”) até que ele o vendeu em meio a problemas legais. Ele recorreu, no que parecia
ser sua última parada no caminho para a obscuridade, preenchendo colunas curtas para
a seção de tecnologia quase não lida do Breitbart, a publicação nacionalista branca na
web. Seus primeiros artigos, uma coleção de fofocas tecnológicas monótonas e queixas
de direita retiradas da mídia social, causaram pouco impacto.
Então, alguns meses depois de seu show, Gamergate chegou. Como um habitante
das mesmas plataformas de onde surgiu, Yiannopoulos sabia como satisfazer suas
queixas e motivos, que se alinhavam com a agenda de extrema direita e a perspectiva
conspiratória de seu empregador. Manchetes como “Bullies feministas gananciosos e
promíscuos mentirosos estão destruindo a indústria de videogames”
Machine Translated by Google

se tornou viral nessas plataformas como uma confirmação aparente.


Seus chefes esperavam que seus artigos informassem os pequenos leitores de extrema
direita do Breitbart sobre questões de tecnologia. Em vez disso, eles atingiram um público
novo e muito maior que eles nem sabiam que existia - um que estava se formando naquele
momento. “Toda vez que você escreve um de seus comentários, recebe 10.000 comentários”,
disse Steve Bannon, chefe do Breitbart , a Yiannopoulos no programa de rádio do site. “É
ainda mais amplo do que o público do Breitbart , por toda parte.”

Dentro de três anos, a pequena subcultura raivosa que Yiannopoulos defendia evoluiria
para um movimento dominante tão poderoso que ele conseguiu uma vaga na Conferência de
Ação Política Conservadora, o evento mais importante da direita política. (O convite foi
posteriormente revogado.)
Bannon chamou sua causa de “direita alternativa”, um termo emprestado de extremistas do
poder branco que esperavam rebatizar para uma nova geração. Mas para Yiannopoulos era o
que as redes sociais diziam que deveria ser.
Um descarado caçador de atenção, ele absorveu todas as mensagens que pareciam
dominantes online, as exagerou em alguns graus e depois as postou de volta nessas mesmas
plataformas. Ele era um algoritmo vivo de mídia social que também podia aparecer em painéis
de discussão a cabo. Ele se manteve no topo dos feeds dos usuários com calúnias no estilo
4chan e piadas perversas (“Se a cultura do estupro fosse real, eu passaria ainda mais tempo
nos campi americanos do que já passo”), agora para as massas do Twitter, Facebook e
YouTube. E como um novo rosto público do movimento sem rosto, ele provocou ou liderou
campanhas de assédio e abuso coletivo.

Bannon e outros à direita alternativa viram uma chance de finalmente se destacar.


“Percebi que Milo poderia se conectar com essas crianças imediatamente”, disse Bannon mais
tarde. “Você pode ativar esse exército. Eles entram pelo Gamergate ou qualquer outra coisa e
depois se ligam à política e a Trump.” Conseqüentemente, no início de 2016, Breitbart pediu a
Yiannopoulos que escrevesse um guia do tamanho de uma lista telefônica para a direita
alternativa. O colunista do Gamergate, não um supremacista branco ou conspirador da velha
escola, seria o porta-bandeira do movimento.
E quem melhor para Yiannopoulos pedir ajuda do que Andrew Auernheimer, o hacker
famoso que colocou uma suástica no peito?
“Finalmente fazendo meu grande artigo na direita alternativa”, escreveu Yiannopoulos em um
e-mail para Auernheimer. “Gostaria de despejar alguns pensamentos para mim?” Depois de
trocar e-mails com outros ultranacionalistas e figuras do poder branco,
Machine Translated by Google

Yiannopoulos enviou seu material a um ghostwriter que ele recrutou por meio do
Gamergate, pedindo-lhe que o reunisse em um artigo sob o nome de Yiannopoulos.
“A direita alternativa é um movimento nascido nas bordas jovens, subversivas e
underground da internet”, dizia. Os cidadãos da web seriam os propagandistas da
direita alternativa, levando a um público mais amplo uma causa que “promete
diversão, transgressão e um desafio às normas sociais que eles simplesmente não
entendem”.
Semana após semana, a linguagem dos extremistas da web social se espalhou
para as principais plataformas, o que a empurrou para a política dominante. Nas
primeiras semanas das primárias presidenciais republicanas, as plataformas
encheram-se de acusações de que os candidatos de tendência moderada eram
“cuckservatives”. Acredita-se que a maleta tenha se originado em fóruns de
supremacia branca, onde “cuck” faz referência ao medo de ser traído por homens negros.
Gamergaters trouxe o termo para o Twitter, onde sua obscenidade chamativa o levou
ao topo dos feeds dos usuários. Os conservadores convencionais o adotaram
gradualmente, influenciando a política de direita – que cada vez mais se manifestava
no Twitter e no Facebook – com uma influência da cultura troll que só aumentaria.

“Eles chamam isso de 'magia do meme' – quando memes da web anteriormente


obscuros se tornam tão influentes que começam a afetar os eventos do mundo real”,
escreveu Yiannopoulos naquele verão antes da eleição. Dezenas de memes da alt-
right seguiram um caminho semelhante. Pepe the Frog, um desenho animado que os
neonazistas online adotaram como mascote, cresceu, no Twitter e no Reddit, em
algo mais complexo: uma expressão de racismo irônico. Memes Pepe deliberadamente
ofensivos (o Pepe nazista operando uma câmara de gás, o Pepe judeu sorrindo
sobre os ataques de 11 de setembro) tornaram-se o dedo do meio que você estendeu
ao mundo. E foi um recipiente para contrabandear racismo real e mortal, camuflado
pela ironia, para o discurso dominante. “Os não doutrinados não devem saber se
estamos brincando ou não”, escreveu Anglin, o fundador do Daily Stormer , no guia
de estilo e recrutamento do site. “Isso é obviamente uma manobra e eu realmente
quero abastecer os kikes. Mas isso não é nem aqui nem lá.”
O movimento se uniu em torno de Trump, que convergiu para os mesmos tiques
e táticas de Yiannopoulos e outras estrelas do Gamergate, e aparentemente pelo
mesmo motivo: é o que a mídia social recompensa. Ele usou desinformação e
misoginia como armas. Ele trolou sem vergonha, amontoando vítimas com zombaria
e abuso. Ele desafiou os porteiros da sociedade a
Machine Translated by Google

ofender-se com as provocações extravagantes que saíram do 4chan. “Ele tem um


caráter e um estilo que estão em perfeita sintonia com o que os meliantes da web
estão procurando”, escreveu Yiannopoulos. Uma variação popular do meme Pepe
vestiu a gravata vermelha e o cabelo loiro de Trump, que Trump postou no Twitter
e seu filho no Instagram.
Mas enquanto Yiannopoulos e Bannon há muito afirmam ser a fusão da cultura
dos trolls da internet com a direita dominante, na verdade o crédito pertencia a
uma força muito mais poderosa: o Facebook. De maio de 2015, um mês antes de
Trump declarar sua candidatura, até novembro de 2016, um estudo de Harvard
descobriu mais tarde, a fonte de notícias de direita mais popular no Facebook era
o Breitbart, superando até mesmo a Fox News. Foi o terceiro meio de comunicação
mais compartilhado no geral, superando todos os jornais ou redes de TV, exceto
a CNN e o New York Times. Se você lê notícias regularmente no Facebook em
2016 – o que 43% dos americanos fizeram naquele ano – provavelmente está
lendo o Breitbart. Tornou-se tão dominante na plataforma que, mesmo no final de
2019, depois que o site declinou devido a má administração e controvérsia, o
Facebook apontou o Breitbart como uma “fonte de notícias confiável” com acesso
especial aos leitores do Facebook.
Estrangeiros impressionados há muito atribuem a ascensão do Breitbart à
manipulação das artes das trevas nas redes sociais. Na verdade, a publicação
pouco mais fazia do que postar seus artigos no Facebook e no Twitter, como
sempre fez. Foi, em muitos aspectos, um beneficiário passivo. Os sistemas do
Facebook estavam promovendo uma série de blogs hiperpartidários antes
obscuros e lojas de desinformação absolutas – com nomes como The Gateway
Pundit, Infowars, The Conservative Treehouse e Young Cons – em mega-editores
com o poder de remodelar a realidade para grandes segmentos da população. .
Assim como no Gamergate, não era apenas o conteúdo obsceno. Promoveu
sentimentos de ameaça de identidade de grupo – os muçulmanos estão vindo
para nos matar, os judeus vão apagar nossa cultura, os liberais querem destruir
os valores tradicionais – o que ativou o instinto de defesa tribal dos usuários que
Henri Tajfel e sua equipe de psicólogos sociais haviam identificado décadas antes.
Isso os estimulou a compartilhar cada vez mais links e comentários, fortalecendo
sua identidade de grupo e se unindo contra o inimigo comum. Isso os manteve
clicando e postando, levando outros usuários ao mesmo frenesi compartilhado,
um ciclo interminável de feedback de medo e raiva que provou ser extremamente
benéfico para o Vale do Silício e Donald Trump, mas desastroso para todos os outros.
Machine Translated by Google

O alcance e o algoritmo do Facebook deram a ele um papel extraordinariamente grande na


criação desse ecossistema de informações. Mas o mesmo processo ocorreu nas outras plataformas,
sugerindo que o problema não era específico de alguma peculiaridade do Facebook ou de seus
fundadores, mas endêmico das redes sociais modernas. No Twitter, o Breitbart se tornou “o nexo
da mídia conservadora” e a fonte de mídia mais compartilhada entre os apoiadores de Trump,
concluiu o estudo de Harvard. O Breitbart dominou as conversas em torno da imigração em
particular, talvez o tópico mais carregado da campanha de 2016. Suas histórias de imigração foram
coletivamente compartilhadas mais do que o dobro das de qualquer outro meio de comunicação,
um número impressionante, considerando que empregava apenas um punhado de repórteres.

Em todas as plataformas, a discussão sobre imigração “gravitava com mais frequência em


questões de ameaça à identidade”, descobriram os autores do estudo, privilegiando naturalmente
visões de mundo de extrema direita que se concentram, por definição, no medo do conflito de identidade.
O estudo concluiu que “mídia altamente partidária” promovendo desinformação e “sites clickbait
políticos hiperpartidários empoderados pelo Facebook” eram endêmicos em 2016, uma tendência
que “desempenhou um papel muito maior na direita do que na esquerda”.

Se quiséssemos saber aonde isso estava nos levando, tudo o que precisávamos fazer era
olhar para o Gamergate, que, no verão de 2016, havia mais ou menos declarado vitória em sua
guerra cultural pelos jogos. “O efeito de longo prazo do Gamergate foi criar uma cultura de medo
para as mulheres profissionais que fazem seus videogames”, disse Brianna Wu. Muitos deixaram o
negócio derrotados. Aqueles que ficaram aprenderam as consequências de falar. A indústria de
cem bilhões de dólares ainda é drasticamente masculina, tanto em seus produtos quanto nas
pessoas que os fabricam.

Como a maioria, inicialmente não considerei o Gamergate um prenúncio do mundo vindouro,


tendo perdido suas implicações na época, disse a Wu. “Vou lhe dizer francamente”, ela disse, “eu
também subestimei. Eu não poderia prever que toda a nossa política se tornaria Gamergate. E é
claro que eles eram. Ela gostaria de ter antecipado, disse ela, “o número de pessoas que estão
adotando as táticas do Gamergate. Eu quero ser claro, é principalmente o certo fazer isso. Mas há
muitas pessoas na esquerda que fiquei horrorizado ao ver que adotaram o mesmo tipo de tática de
indignação, cultura da máfia e vergonha”.

O resultado foi uma convergência quase universal desses comportamentos e


Machine Translated by Google

formas de pensar, incentivadas ao longo do caminho pelas mídias sociais. Houve


momentos, admitiu Wu, em que ela se sentiu tentada a gerar indignação, reunir seus
seguidores contra algum adversário, fazer uma afirmação que, embora duvidosa,
poderia lisonjear a identidade e inflamar os preconceitos de seu grupo. Ela geralmente
se pegava, mas nem sempre.
“É algo com o qual eu realmente luto, eu mesma, em minha própria pessoa, a
maneira como interajo com o mundo, porque há algo realmente perigoso que foi
revelado aqui”, disse ela. “Esse ciclo de mágoa, ressentimento, identidade e raiva da
multidão parece estar consumindo e envenenando toda a nação.”
Machine Translated by Google

quatro

tirania dos primos

1. Justiça Web

EM SETEMBRO DE 2015, menos de dois meses após a saída de Ellen Pao do Reddit, Walter
Palmer, um dentista de 55 anos dos subúrbios de Minneapolis, sentou-se com dois repórteres
de jornais para insistir que não estava escondido. “Estive entre pessoas, familiares e amigos.
A localização realmente não é tão importante”, disse Palmer, ladeado por um advogado e um
representante de relações públicas. “Houve alguns problemas de segurança desde o início
para minha filha e minha esposa.” No que ele disse que seria sua única entrevista, Palmer
lamentou o movimento global - o primeiro de um novo tipo de raiva em massa que logo se
tornaria comum - agora perseguindo sua família e funcionários, que eram, ele enfatizou,
inocentes. “Não entendo esse nível de humanidade que vem depois de pessoas que não estão
envolvidas”, disse ele.

Seis semanas antes, a BBC havia publicado um pequeno artigo relatando que um caçador
não identificado havia matado um leão no Zimbábue. Isso não era incomum ou ilegal por conta
própria. Mas os guias do caçador primeiro atraíram o leão para fora de um parque de caça
próximo, onde matá-lo seria ilegal. E o animal tinha uma distinta juba preta que lhe rendeu
fama entre os frequentadores do parque, que o batizaram de Cecil.

Uma das subseções mais populares do Reddit na época era o worldnews, um repositório
de relatórios globais e boatos de serviços de notícias. Com os usuários postando mais de mil
links todos os dias, chegar ao topo da página geralmente exigia uma descrição elaborada para
provocar uma emoção intensa. Um usuário com o identificador Fuckaduck22, que postou a
história de Cecil, anexou exatamente esse título: “Cecil, o leão, foi esfolado e sua cabeça
removida. Hwange—Um leão de juba preta bem conhecido e muito fotografado carinhosamente
chamado Cecil foi morto por caçadores esportivos nos arredores de Hwange, no Zimbábue, no
último
Machine Translated by Google

semana."

Milhares de usuários votaram positivamente no artigo para o topo da página inicial do Reddit, o
que significou uma audiência de milhões. Nem todos ficaram com raiva. De qualquer forma, Cecil
estava perto do fim da expectativa de vida masculina, apontou um, enquanto outro observou que a
caça de grandes animais financia os esforços de conservação. Mas as seções de comentários do
Reddit são classificadas pela popularidade de cada comentário. E foram as expressões de indignação
que subiram ao topo:

os leões podem muito bem ser extintos na natureza em breve, porque você realmente
REALMENTE queria inflar seu senso de masculinidade.

Quero que a cabeça dos caçadores seja um troféu. Filho da puta covarde.

Seguindo inconscientemente os incentivos da plataforma, os usuários a preencheram com


postagens sobre Cecil, cada rodada aumentando os riscos emocionais. A morte do leão foi uma perda
triste, depois um golpe devastador para os amantes dos animais em todos os lugares, depois um
crime irritante. O caçador era um covarde gordo, depois um assassino encharcado de sangue e depois
considerado dominado por “doença mental ou uma forma de psicopatia”.

No verão de 2015, repórteres e editores estavam apenas aprendendo a perseguir a viralidade da


mídia social, o que poderia multiplicar seu público várias vezes.
Isso significa que, quando os usuários do Reddit colocaram Cecil no topo das listas dos mais lidos em
muitos pontos de venda, eles se debruçaram sobre um incidente que, de outra forma, teriam ignorado.
O até então caçador anônimo revelou ser Palmer, o dentista.
Ainda assim, a história parecia inofensiva – até que saltou para o Twitter.
Os fundadores do Twitter lançaram seu produto em 2006 essencialmente como um serviço de
mensagens de texto em grupo. Os usuários enviariam mensagens de texto para um número gratuito,
que encaminharia a mensagem para seus amigos. Se você saiu, pode postar o nome do bar; amigos
que seguiram suas atualizações podem participar.
As mensagens foram limitadas ao comprimento de uma frase. Um site simples também registrou as
atualizações. Jack Dorsey, em um esboço inicial que previa o serviço, escreveu exemplos de
mensagens como "na cama" e "indo estacionar".
Por padrão, as postagens eram públicas; por que esconder atualizações anódinas atrás de uma
parede de privacidade pesada? Essa abertura ganhou maior significado quando, em 2009, cidadãos
do distante Irã encheram as ruas para protestar contra uma eleição que eles
Machine Translated by Google

acreditava que o estado tinha manipulado. Enquanto as autoridades reprimiam, alguns manifestantes
usaram o Twitter para divulgar as atualizações da barricada. Quando eles perceberam que o
mundo estava assistindo – e que o escrutínio internacional poderia deter, ou pelo menos
documentar, os abusos do governo – seus tweets assumiram um propósito maior.
Em meio ao otimismo tecnológico da era Obama, os americanos a descreveram como uma
“revolução do Twitter”. Embora a verdadeira revolução iraniana tenha sido rapidamente esmagada,
o rótulo permaneceu.

À medida que mais eventos mundiais se desenrolavam ao vivo no Twitter, qualquer um que se
preocupasse com as notícias ou estivesse envolvido em produzi-las aderiu. Ele mudou do serviço
de texto em grupo para uma plataforma de postagens curtas voltadas para o público: um microblog
onde milhões transmitiam, discutiam e debatiam coletivamente as maquinações políticas do dia ou
o episódio de Game of Thrones . Mas tudo foi filtrado por uma plataforma que funciona menos
como um ticker da CNN do que como o Reddit.
Os usuários validam as postagens uns dos outros tocando em curtir ou retuitar, no processo
também trazendo à tona ou suprimindo qualquer conteúdo que mais apele à sua vontade coletiva.

Quando a fúria sobre Cecil aumentou para 316 milhões de usuários ativos do Twitter, a escala
de atividade escalou além dos extremos do Gamergate. Em um único dia, os usuários postaram
672.000 tweets sobre o incidente. Cerca de 50.000 deles citaram Palmer diretamente e foram
vistos um total de 222 milhões de vezes: infâmia em uma escala que, geralmente, apenas os livros
de história podem oferecer. “Vou pagar mais de £ 35 mil para assistir #WalterPalmer em uma luta
justa com o rei da selva”, escreveu um usuário, representante de uma onda de postagens
expressando o desejo de ver Palmer prejudicado.

Quando o Reddit ficou furioso, ele permaneceu principalmente confinado a nichos geeks da
internet. Mas o Twitter, em 2015, estava no centro das principais notícias e cultura. As fantasias de
vingança permearam o que era o equivalente nas mídias sociais da rede de TV, atraindo repórteres
e celebridades. “Espero que #WalterPalmer perca sua casa, seu consultório e seu dinheiro”, tuitou
Sharon Osbourne, então uma estrela de reality show, enquanto Mia Farrow, a premiada atriz,
postou o endereço de seu consultório odontológico.

Quando as plataformas se tornam um canto de consenso de “peguem ele”, a ação geralmente


segue. Centenas postaram críticas negativas sobre a odontologia de Palmer em sites como o Yelp,
na esperança de afastar os negócios. Em poucos dias, tweets suficientes ameaçavam a violência
e seu escritório foi totalmente fechado. (Quando um usuário do Reddit sugeriu que isso poderia
prejudicar injustamente os funcionários de Palmer, 1.500 usuários votaram
Machine Translated by Google

em apoio à resposta “Seus funcionários estão melhor trabalhando em outro lugar.”)


Sinais ameaçadores apareceram nas portas do consultório. Alguém pintou a casa de
Palmer com spray. Palmer e sua família, talvez se perguntando se uma das pessoas
que espreitavam do lado de fora de sua casa poderia seguir as ameaças online,
entraram no que todos, exceto Palmer, descreveram como esconderijo.
Quando Palmer contratou um representante de relações públicas e se reuniu com
os repórteres, mais de dois mil artigos sobre sua caçada haviam sido postados no
Facebook, onde foram compartilhados 3,6 milhões de vezes. O New York Times
publicou um editorial formal lamentando a perda de Cecil; o governador de Minnesota
o condenou; Jimmy Kimmel, o apresentador noturno, engasgou com o ar. Tudo
impulsionado pela viralidade da mídia social. Então, um dia, a febre cedeu e todos seguiram em frente.
A explosão dividiu os observadores tecnológicos. Alguns viram outro Gamergate,
agora alguns passos mais perto do centro da vida americana, possibilitado por
plataformas que promoviam a histeria e o assédio da máfia praticamente sem restrições
ou salvaguardas. Outros viram um drama on-line bobo sem maior significado, muito
menos razão para culpar as redes sociais ainda amplamente vistas como libertadores
globais.
James Williams, engenheiro do Google desde 2005, parecia se encaixar no perfil
dos mais otimistas. No entanto, ao deixar a empresa, ele escreveu em um ensaio para
o site Quillette que Cecil e episódios semelhantes auguraram uma mudança sísmica
em nossos mundos digitalizados. Os vingadores de Cecil, quaisquer que fossem suas
motivações, haviam sido inconscientemente manipulados em seu comportamento, ele
acreditava, “seus botões pressionados pelos padrões persuasivos do design digital”.
Seu diagnóstico: “Gostamos de ficar indignados. Nós respondemos a isso como uma
recompensa.”
As plataformas aprenderam a ceder à indignação que trazia a seus usuários “um
ímpeto – de propósito, de clareza moral, de solidariedade social”. O ritmo crescente
desses colapsos que tudo consomem, talvez um por semana, indicava que a mídia
social não estava apenas influenciando a cultura mais ampla, mas, até certo ponto,
suplantando-a, para o benefício final de - e esse foi um argumento bizarro no tempo -
Donald Trump. Seria tão louco pensar, Williams sugeriu, que a nova mídia dominante
de nosso tempo poderia lançar porta-estandartes como Trump às alturas do poder? Já
não estava acontecendo?
“A verdade é”, escreveu ele, “esses efeitos políticos já estão sobre nós”.
Machine Translated by Google

2. Ultraje moral

BILLY BRADY era calouro na Universidade da Carolina do Norte quando percebeu que
gostava de ficar indignado no Facebook. Durante todo aquele ano de 2005, ele fez das
visitas ao Facebook uma parte regular de sua vida, brigando nas seções de comentários e,
ele agora admite com uma risada, “postando coisas bastante inflamadas”.

Brady, um vegano de boas maneiras que fala com um sotaque de surfista californiano
apesar de não ser da Califórnia, não estava acostumado a se sentir atraído pela raiva e pelo
conflito. E ele entrou no Facebook para mudar de ideia, não para brigar. Ele estava entrando
no ativismo pelos direitos dos animais, disse ele, e pensou que “parecia uma plataforma
interessante para poder espalhar mensagens e persuadir as pessoas”. Mas muitas vezes
ele acabava expressando indignação com eles. Ele estava se comportando de maneiras
que, como ele percebeu, tinham poucas chances de promover a causa e, por mais divertidas
no momento, o faziam se sentir um idiota depois.

Por sorte, o campo de estudo de Brady teve algum insight. A filosofia moral, antes um
domínio de arranhadores de queixo, estava se tornando mais empírica, alavancando a
ciência exata em busca da verdadeira natureza da moralidade. Suas descobertas sugeriram
uma explicação para o comportamento de Brady. Fumar em sua mesa ou disparar um
insulto parecia mais ruim do que bom. Mas quando suas expressões de indignação
chamaram a atenção online, especialmente o encorajamento de outras pessoas com ideias
semelhantes, a adrenalina foi viciante. “Eu definitivamente notei que você pode chamar a
atenção das pessoas postando mais coisas inflamatórias e sentindo algumas emoções”,
disse ele.
Mas por que as pessoas seriam atraídas por emoções tão prejudiciais e desagradáveis?
Fascinado, acrescentou aulas de psicologia à sua agenda. Ele estudou a influência da mídia
social no comportamento desde então. De certa forma, disse ele, todos os usuários estão
simultaneamente conduzindo e servindo como sujeitos de um experimento psicológico sem
fim. As pessoas, via de regra, estão muito atentas e se adaptam ao feedback social, um
impulso que as curtidas e compartilhamentos digitais aproveitam. Mesmo como estudante
de graduação envolvido em brigas no Facebook, “eu, por tentativa e erro, aprendi como as
pessoas respondem a diferentes enquadramentos e diferentes apelos”.

Quanto mais ele e usuários com ideias semelhantes se enfureceram, mais antagônicos
seus comportamentos se tornaram. comedores de carne e
Machine Translated by Google

os agnósticos dos direitos dos animais não eram pessoas bem-intencionadas a serem
persuadidas, eram camponeses e malfeitores a serem condenados. A chave, concluiu ele,
era a indignação moral. A indignação é um coquetel emocional simples: raiva mais repulsa.
A indignação moral é um instinto social.
Lembre-se das primeiras tribos de até 150 pessoas. Para sobreviver, o grupo tinha
que garantir que todos agissem de acordo com o interesse coletivo, parte do qual era se
dar bem uns com os outros. Isso exigia um código de comportamento compartilhado. Mas
como fazer com que todos internalizem e sigam esse código? A indignação moral é a
adaptação de nossa espécie para esse desafio. Quando você vê alguém violando uma
norma importante, você fica com raiva. Você quer vê-los punidos. E você se sente
compelido a transmitir essa raiva, para que outros também vejam a violação e queiram se
unir para envergonhar e talvez punir o transgressor.

O desejo de punir os infratores é tão profundo que aparece até nas crianças. Em um
conjunto de experimentos, crianças menores de um ano viram dois fantoches. Um fantoche
compartilhou, o outro recusou. Os bebês consistentemente tiravam doces do fantoche
ruim e recompensavam o bom.
As cobaias apenas um ou dois anos mais velhas até recompensavam fantoches que eram
cruéis com o fantoche mau e puniam fantoches que eram gentis com ele. Foi a confirmação
de que a indignação moral não é apenas raiva contra um transgressor. É um desejo ver
toda a comunidade se alinhar contra eles.
Brady, tentando entender a indignação que sentiu online, primeiro como parte de um
programa de mestrado em filosofia e depois outro em psicologia, circulou em torno de
uma teoria que ambos os campos chamam de sentimentalismo. “É essa ideia de que
nosso senso de moralidade está entrelaçado e talvez até impulsionado por nossas
respostas emocionais”, disse ele. “O que é contra essa ideia mais antiga de que os
humanos são muito racionais quando se trata de moralidade.”
A cultura popular muitas vezes retrata a moralidade como emergindo de nossos eus
mais elevados: os melhores anjos de nossa natureza, a mente iluminada.
O sentimentalismo diz que na verdade é motivado por impulsos sociais como conformidade
e gerenciamento de reputação (lembra do sociômetro?), que experimentamos como
emoção. A pesquisa neurológica apóia isso. À medida que as pessoas confrontadas com
dilemas morais descobrem como responder, elas exibem intensa atividade em regiões
neurais associadas às emoções. E o cérebro emocional trabalha rápido, muitas vezes
resolvendo uma decisão antes mesmo que a razão consciente tenha a chance de entrar
em ação.
Machine Translated by Google

os sujeitos da pesquisa ativam as partes de seus cérebros responsáveis pelo cálculo racional, que
eles usam, retroativamente, para justificar qualquer ação motivada pela emoção pela qual já tenham
decidido.
Essas escolhas morais e emocionais pareciam servir a um propósito social, como buscar a
aprovação dos colegas, recompensar um bom samaritano ou punir um transgressor. Mas a natureza
instintiva desse comportamento o deixa aberto à manipulação. O que é exatamente o que déspotas,
extremistas e propagandistas aprenderam a fazer, reunindo as pessoas ao seu lado, provocando
indignação - muitas vezes em algum bode expiatório ou malfeitor imaginário. O que aconteceria
quando, inevitavelmente, as plataformas sociais aprendessem a fazer o mesmo?

3. Mobs Envergonhados

BRIANNA WU ainda estava lutando contra uma multidão indignada na mídia social quando se viu
tentando criar outra. "Eu nunca vou esquecer isso", disse ela.
“Houve um momento, no meio do Gamergate, em que eu realmente me envolvi no argumento feminista
para a indústria de jogos.” A Oculus, uma empresa de propriedade do Facebook que fabricava
headsets de realidade virtual, havia anunciado uma nova equipe. Todos os homens brancos. Wu ficou
furioso. “Lembro-me de explodir no Twitter e postar esta foto e seus nomes”, disse ela.

“E isso é um problema. A falta de mulheres na engenharia de RV é terrível. Mas percebi que esse tipo
de tática funciona no mesmo lugar emocional do que o Gamergate estava fazendo comigo.

Ela reconheceu para si mesma, pela primeira vez, o quanto de sua experiência de mídia social foi
organizada em torno de provocar ou participar de campanhas de vergonha pública. Algumas duraram
semanas e outras alguns minutos.
Alguns estavam a serviço de uma causa importante, ou assim ela disse a si mesma, outros apenas
porque alguém a irritou. “Eu costumava destacar tweets sexistas que eram enviados para mim. Eu
apenas retuitava e deixava meus seguidores na internet cuidarem disso”, disse ela. “Eu não faço mais
isso porque é apenas pedir para alguém ser assediado.”

Em 2016, ela concorreu nas primárias democratas para sua cadeira na Câmara local por causas
de esquerda, junto com a promessa de lidar com o assédio online. Um repórter perguntou a ela sobre
um tweet de 2014 em que ela identificou o nome e o empregador de alguém que havia postado algo
sexista – não era esse tipo de assédio que ela estava convocando as plataformas a combater? "Eu
lembro
Machine Translated by Google

pensando no momento, como, 'Que maldito hipócrita eu sou.' Eu simplesmente não tenho
desculpa para isso ”, disse ela. “E é o que eu disse. 'Isso foi errado.'” Ela permitiu que as
plataformas trouxessem a tona exatamente o comportamento que ela detestava, disse ela.
“E eu simplesmente não vejo como essa merda fica menos tóxica sem que mais de nós
percebamos que, em nossos piores momentos, podemos ser o cara mau.”

Na época, Kate Klonick, uma estudiosa de direito de Yale e ex-estudante de psicologia


cognitiva, estava tentando entender por que a vergonha em massa parecia tão difundida
nas redes sociais. Ela descobriu muito a aprender com uma controvérsia inicial do Twitter
conhecida, em uma indicação de como essas coisas não eram levadas a sério, como
Donglegate. Uma desenvolvedora de software chamada Adria Richards, sentada na platéia
de uma conferência de programação, ouviu um homem na fileira atrás dela sussurrar uma
piada sobre terminologia de computador para seu vizinho. Ela se virou e tirou uma foto,
depois twittou com a legenda “Não é legal. Piadas sobre forking repo's de forma sexual e
'grandes' dongles. Bem atrás de mim.

Richards, uma mulher negra, há muito se manifesta contra os preconceitos de sua


indústria. Agora, no início de 2013, a mídia social permitiu que ela alcançasse um público
mais amplo. O Twitter e o Facebook se iluminaram com postagens raivosas em reação ao
tweet dela. Os organizadores da conferência, bem como os empregadores dos dois
homens, tornaram-se repentinamente infames, até mesmo odiados, e em escala nacional.
Um dos homens foi demitido rapidamente. Ele postou um pedido de desculpas por seu
comentário ao Hacker News, o fórum não oficial da web do Vale do Silício, escrevendo que
lamentava especialmente a Richards. Mas ele acrescentou: “Tenho 3 filhos e gostei muito desse trabalho.
Ela não me avisou, ela sorriu enquanto tirava a foto e selava meu destino. Que isso sirva
de mensagem para todos, nossas ações e palavras, grandes ou pequenas, podem ter um
impacto sério”. Inevitavelmente, uma segunda rodada de indignação veio à tona, desta vez
inundando Richards e seus chefes com mensagens furiosas, às vezes ameaçadoras. O
site de seu empregador foi retirado do ar por um hack rudimentar chamado negação de
serviço. No dia seguinte, Richards foi demitida por causa de sua decisão, disse seu chefe,
de “envergonhar publicamente” o
dois homens.

Muitos estudos jurídicos, Klonick sabia, consideram a vergonha pública necessária


para o funcionamento da sociedade: criticar alguém por furar a fila, rejeitá-lo por um
comentário sexista, demiti-lo por ingressar em um grupo de ódio. Mas a mídia social estava
mudando a maneira como a vergonha pública funcionava,
Machine Translated by Google

o que necessariamente mudaria o funcionamento da própria sociedade. “O acesso de


baixo custo, anônimo, instantâneo e onipresente à Internet removeu a maioria – se não
todos – os controles naturais da vergonha”, escreveu ela sobre suas descobertas, “e,
portanto, mudou a maneira como percebemos e aplicamos as normas sociais”.

Alguém que é, digamos, rude com um motorista de ônibus pode ter esperado alguns
outros passageiros acenando com o dedo. Agora, se o incidente for registrado e publicado
online, eles podem enfrentar semanas de abusos lançados de todo o mundo. “Hoje, é mais
fácil do que nunca”, escreveu Klonick, “usar a vergonha para impor as chamadas normas
sociais, e é mais fácil do que nunca que a vergonha saia do controle”. A vergonha pública
online tende a ser “exagerada”, argumentou ela, mal calibrada para a escala do crime e
“de pouca ou questionável precisão em quem e o que pune”.

Além disso, tornou-se mais cruel, até sádico. A partir do momento em que a rede social
se envolveu com a vida cotidiana, circularam histórias de multidões ultrajadas indo ao
excesso. Uma engrenagem corporativa chamada Justine Sacco tornou-se internacionalmente
famosa em 2013, quando um tweet para seus 170 seguidores ("Indo para a África. Espero
não pegar AIDS. Brincadeira. Sou branco!") provocou dezenas de milhares de respostas
raivosas , depois se alegrar com sua humilhação e subseqüente demissão. Um artigo da
New York Times Magazine sugeriu que Sacco e outros como ela sofreram para nossa
diversão, ou simplesmente porque perdemos o controle, “como se as vergonhas estivessem
acontecendo agora por si mesmas, como se estivessem seguindo um roteiro. ”

Uma foto de classe de uma pequena cidade de Wisconsin se tornou viral quando os
usuários do Twitter acusaram os alunos de fazer saudações nazistas. Uma tempestade de
fúria internacional, toda online, destruiu a vida de pais e funcionários de escolas locais,
humilhando-os por qualquer detalhe que os usuários pudessem encontrar online, deixando
cicatrizes na cidade. Mais tarde descobriu-se que o fotógrafo voluntário havia capturado os
meninos acenando em um ângulo estranho.
Um repórter novato de Des Moines traçou o perfil de um homem local que se tornou
viral no Facebook por aparecer em um jogo de futebol da faculdade com uma placa
engraçada (BUSCH LIGHT SUPPLY NEEDS REPLENISHED), seguido por seu nome de
usuário Venmo. O repórter observou de passagem que o homem já havia enviado tweets
ofensivos pelos quais ele se desculpou. Os usuários de mídia social primeiro exigiram que
o portador do sinal perdesse o emprego, então, em uma reação ao
Machine Translated by Google

reação, que o próprio repórter fosse demitido, o que ele foi.


Um dono de restaurante palestino-americano em Minneapolis foi assediado pela
fúria online quando alguém encontrou, no histórico de mídia social de sua filha,
comentários racistas que ela havia postado quando criança. Embora ambos tenham
se desculpado, os usuários da web divulgaram seu endereço residencial e
pressionaram as empresas locais a evitar a família. O aluguel do restaurante foi
revogado e duas mercearias retiraram os produtos da família. A indignação aumentou
logo depois que o dono do restaurante demitiu a filha, dizendo a um repórter: “Você
acha que é fácil para mim destruir a carreira da minha filha?”
Quando uma romancista imigrante chinesa ganhou um contrato caro para sua
estreia, uma fantasia para jovens adultos, outros escritores tuitaram afirmações
vagas de que seu manuscrito continha passagens racistas e plagiadas. Muitos no
Twitter consideraram os rumores verdadeiros, perseguindo a escritora e sua editora
até que o livro fosse retirado. As acusações mais tarde se revelaram falsas. Um mês
depois, aconteceu de novo, desta vez visando um romancista jovem adulto que é
negro, pressionando-o com sucesso a retirar seu manuscrito também. Incidentes
semelhantes ocorreram repetidamente entre os romancistas, levando um crítico
literário a escrever, exasperado: “É desconcertante que pessoas que estão sempre
fazendo rapsódias sobre o quanto amam ler possam ser tão ruins nisso”.
Uma estudante negra do Smith College postou no Facebook que um zelador e
segurança da escola a assediou por “comer enquanto era negra”. Eles a interrogaram
enquanto ela almoçava em um dormitório, ela disse, tratando-a como uma intrusa por
causa de sua raça. A postagem foi compartilhada com raiva por Smith, depois por
outras faculdades e depois pelo mundo, trazendo uma tempestade de atenção para
o pequeno campus. O zelador foi colocado em licença remunerada. Os alunos saíram
da aula em protesto. O aluno postou um acompanhamento no Facebook acusando
dois funcionários do refeitório de chamar a segurança durante o incidente. Ela incluiu
o nome, endereço de e-mail e fotografia de um deles, escrevendo: “Esta é a pessoa
racista”. A funcionária do refeitório foi inundada com ligações raivosas em sua casa,
algumas ameaçando matá-la. A aluna também postou a foto de um zelador, acusando-
o de “atos covardes racistas”, embora, em um aparente equívoco, tenha identificado
o zelador errado.
A verdade acabou sendo uma combinação de mal-entendidos honestos e
hipérbole juvenil. Ela estava comendo em um dormitório fechado anexo a uma
lanchonete reservada para um programa para crianças pequenas. O zelador havia
seguido regras que exigiam que a segurança fosse chamada se alguém que não estivesse
Machine Translated by Google

esse programa apareceu. O guarda teve uma conversa educada com a aluna e não
pediu que ela fosse embora. Os trabalhadores do refeitório não estavam envolvidos.
Mas quando a verdade veio à tona, em um longo relatório de um escritório de
advocacia terceirizado contratado pela universidade, a versão do Facebook dos
eventos, calcificada por um derramamento de profunda emoção coletiva, há muito
havia endurecido na mente das pessoas. A universidade, provavelmente com medo
de provocar mais raiva, recusou-se a inocentar os trabalhadores, anunciando que era
“impossível descartar o papel potencial do viés racial implícito” em seu comportamento.
Um foi transferido, outro ficou de licença, outro pediu demissão. Mais tarde, uma das
funcionárias do refeitório teve negado um emprego em um restaurante quando o
entrevistador a reconheceu do Facebook como “a racista”. O aluno, antes elogiado
online como herói, agora era condenado como vilão. Poucos pensaram em culpar as
plataformas de mídia social que capacitaram uma adolescente a destruir os meios de
subsistência de trabalhadores de baixa renda, incentivaram ela e milhares de
espectadores a fazê-lo e garantiram que todos experimentassem sua impressão
equivocada e ultrajante como mais verdadeira do que a verdade.
Verdade ou falsidade tem pouca influência sobre a recepção de uma postagem,
exceto na medida em que um mentiroso é mais livre para alterar os fatos de acordo
com uma narrativa de apertar um botão. O que importa é se a postagem pode
provocar uma reação poderosa, geralmente indignação. Um estudo de 2013 da
plataforma chinesa Weibo descobriu que a raiva viaja mais longe do que outros
sentimentos. Estudos do Twitter e do Facebook descobriram repetidamente o mesmo,
embora os pesquisadores tenham reduzido o efeito da raiva em geral à indignação
moral especificamente. Os usuários internalizam as recompensas de atenção que
acompanham essas postagens, aprendendo a produzir mais, o que também treina os
algoritmos das plataformas para promovê-las ainda mais.
Muitos desses incidentes tinham uma valência de esquerda, levando a temores
de uma “cultura do cancelamento” desenfreada. Mas isso apenas refletiu a
concentração de usuários de esquerda em espaços acadêmicos, literários, jornalísticos
e outros que tendem a ser mais visíveis na vida americana. O mesmo padrão também
estava se desenvolvendo em comunidades de direita. Mas a maioria dessas instâncias
foi descartada como obra de malucos marginais (Gamergate, anti-vaxxers) ou
extremistas (incels, a direita alternativa). Direita ou esquerda, a variável comum
sempre foi a mídia social, os incentivos que impõe, o comportamento que provoca.
Para seus alvos, o dano, merecido ou não, é real e duradouro. Nossos cérebros
processam o ostracismo social como, literalmente, dor. Ser rejeitado dói
Machine Translated by Google

pela mesma razão que uma faca perfurando sua pele dói: você evoluiu para sentir ambos
como ameaças mortais. Nossa sensibilidade social evoluiu para tribos onde irritar algumas
dezenas de camaradas pode significar um risco real de morte. Nas redes sociais, uma pessoa
pode, sem aviso prévio, enfrentar a fúria e a condenação de milhares. Nessa escala, o efeito
pode ser psicologicamente devastador. “A grande parte do assédio que as pessoas que não
foram assediadas repetidamente por uma multidão odiosa têm sorte de não sofrer é: isso
muda sua vida para sempre”, escreveu Pao, ex-chefe do Reddit, certa vez. “Você não confia
tão facilmente.”

As consequências se estenderam além de um punhado de pessoas visadas por uma raiva


indiscutivelmente equivocada ou desproporcional. A própria vida pública estava se tornando
mais ferozmente tribal, mais extremada, mais centrada em odiar e punir a menor transgressão.
“Estou lhe dizendo, essas plataformas não são projetadas para conversas reflexivas”, disse
Wu. “Twitter, Facebook e plataformas de mídia social são projetadas para: 'Estamos certos.

Eles estão errados. Vamos acabar com essa pessoa muito rápido e com muita força.' E isso
apenas amplifica todas as divisões que temos.”

4. Raposas de Lyudmila

O mistério da indignação moral - por que somos tão atraídos por uma emoção que nos faz
agir de maneiras que deploramos? - foi finalmente desvendado por um geneticista russo de
70 anos enfurnado em um laboratório de pesquisa na Sibéria, criando milhares de raposas.
Lyudmila Trut chegou ao laboratório em 1959, recém-saída da Universidade Estadual de
Moscou, para procurar as origens de algo que parecia não ter nenhuma relação: a
domesticação de animais.
A domesticação era um mistério. Charles Darwin havia especulado que poderia ser
genético. Mas ninguém sabia que pressões externas transformavam os lobos em cachorros
ou como a biologia do lobo mudava para torná-lo tão amigável.
Os discípulos de Darwin, no entanto, identificaram uma pista: os animais domesticados, sejam
cães, cavalos ou vacas, todos tinham caudas mais curtas, orelhas mais macias, compleições
mais esguias e pelagens mais manchadas do que suas contrapartes selvagens. E muitos
tinham uma mancha distinta em forma de estrela na testa.
Se Trut pudesse desencadear a domesticação em um ambiente controlado, ela poderia
isolar suas causas. Seu laboratório, ligado a uma fábrica de peles da Sibéria, começou com
centenas de raposas selvagens. Ela pontuou cada um em sua amizade com os humanos, criados
Machine Translated by Google

apenas os 10% mais amigáveis, depois repetiu o processo com os filhos daquela geração.
Na décima geração, com certeza, uma raposa nasceu com orelhas caídas. Outro tinha uma
marca na testa em forma de estrela. E eles estavam, escreveu Trut, “ansiosos para
estabelecer contato humano, choramingando para atrair a atenção e farejando e lambendo
os experimentadores como cachorros”. Darwin estava certo. A domesticação era genética.
As gerações subseqüentes das raposas, à medida que se tornavam ainda mais amigáveis,
tinham pernas, rabos e focinhos mais curtos, crânios menores, rostos mais achatados,
coloração de pelo mais manchada.
Trut estudou os animais por meio século, finalmente descobrindo o segredo da
domesticação: células da crista neural. Todo animal começa a vida com um conjunto. As
células migram através do embrião à medida que ele cresce, convertendo-se em
mandíbulas, cartilagem, dentes, pigmento da pele e partes do sistema nervoso.
Seu caminho termina logo acima dos olhos do animal. É por isso que as raposas
domesticadas tinham marcas brancas na testa: as células da crista neural transmitidas a
elas por seus pais mais amigáveis nunca chegaram tão longe. Isso também explicava as
orelhas caídas, caudas mais curtas e focinhos menores.
Além disso, desencadeou uma mudança na personalidade, porque as células da crista
neural também se tornaram as glândulas que produzem os hormônios responsáveis por
desencadear o medo e a agressão. As raposas selvagens eram medrosas em relação aos
humanos e agressivas umas com as outras, características que as serviam bem na
natureza. Quando Trut criou as raposas mais amigáveis, ela estava, sem saber, promovendo
animais com menos células da crista neural, atrofiando seu desenvolvimento neurológico
de uma maneira muito específica e poderosa.
Das muitas revelações decorrentes da pesquisa de Trut, talvez a maior tenha sido a
resolução de um antigo mistério sobre os humanos. Cerca de 250.000 anos atrás, nossos
cérebros, depois de crescer por milhões de anos, começaram a encolher. Estranhamente,
ocorreu no momento em que os humanos pareciam estar ficando mais espertos, a julgar
pelas ferramentas encontradas com seus restos mortais. Os humanos desenvolveram
simultaneamente ossos de braços e pernas mais finos, faces mais planas (sem sobrancelhas
de homem das cavernas) e dentes menores, com corpos masculinos mais parecidos com
os das mulheres. Com as descobertas de Trut, o motivo ficou subitamente claro. Esses
foram os marcadores de uma queda repentina nas células da crista neural — da domesticação.
Mas as raposas de Trut foram domesticadas por uma força externa: ela. O que interveio
na trajetória evolutiva dos humanos para repentinamente favorecer indivíduos dóceis em
detrimento dos agressivos? O antropólogo inglês Richard Wrangham desenvolveu uma
resposta: a linguagem. Por milhões de anos,
Machine Translated by Google

nossos ancestrais que eventualmente se tornariam Homo sapiens formaram pequenas


comunidades lideradas por um alfa. O macho mais forte e agressivo dominaria,
transmitindo seus genes às custas dos machos mais fracos.
Todos os grandes símios desprezam os valentões. Os chimpanzés, por exemplo,
mostram tratamento preferencial em relação aos colegas que são gentis com eles e
desfavorecem aqueles que são cruéis. Mas eles não têm como compartilhar essas
informações uns com os outros. Os valentões nunca sofrem de má reputação porque,
sem linguagem, isso não existe. Isso mudou quando nossos ancestrais desenvolveram
uma linguagem sofisticada o suficiente para discutir o comportamento uns dos outros.
A agressão passou de um trunfo - o meio pelo qual os machos alfa dominavam seu clã
- para um passivo que o grupo mais amplo, cansado de ser dominado, poderia se unir
para punir.
“A conspiração baseada na linguagem foi a chave, porque deu aos machos beta
sussurrantes o poder de unir forças para matar os agressores do macho alfa”, escreveu
Wrangham em um livro inovador de 2019. Cada vez que um antigo clã humano derrubou
um alfa despótico, eles estavam fazendo a mesma coisa que Lyudmila Trut fez com
suas raposas: selecionando para docilidade. Os machos mais cooperativos se
reproduziram, os agressivos não. Nós nos autodomesticamos.
Mas assim como os primeiros humanos estavam criando uma forma de agressão,
eles estavam selecionando outra: a violência coletiva que eles usaram tanto para
derrubar os alfas quanto para impor uma nova ordem em seu lugar. A vida passou a
ser regida pelo que o antropólogo Ernest Gellner chamou de “tirania dos primos”.
As tribos tornaram-se sociedades sem liderança, baseadas no consenso, mantidas
unidas pela fidelidade a um código moral compartilhado, que os adultos do grupo (os
“primos”) impunham, às vezes com violência. “Ser um inconformista, ofender os padrões
da comunidade ou ganhar a reputação de ser mesquinho tornaram-se aventuras perigosas.”
Wrangham escreveu. Perturbe o coletivo e você pode ser rejeitado ou exilado - ou
acordar com uma pedra batendo em sua testa. A maioria das sociedades de caçadores-
coletores vive dessa maneira hoje, sugerindo que a prática se baseia em algo intrínseco
à nossa espécie.
A base dessa nova ordem era a indignação moral. Era assim que você alertava sua
comunidade sobre o mau comportamento — como você os reunia, ou era você mesmo
convocado, para punir uma transgressão. E era a ameaça que pairava sobre sua
cabeça desde o nascimento até a morte, mantendo você na linha. A indignação moral,
quando ganha impulso suficiente, torna-se o que Wrangham chama de agressão “pró-
ativa” e “de coalizão” – coloquialmente conhecida como turba. Quando você vê um
Machine Translated by Google

mob, você está vendo a tirania dos primos, o mecanismo de nossa auto-
domesticação. Essa ameaça, muitas vezes mortal, tornou-se uma pressão evolutiva
por si só, levando-nos a desenvolver sensibilidades ultrafinas aos padrões morais do
grupo — e um instinto para concordar. Se você quiser provar ao grupo que ele pode
confiar em você para impor seus padrões, pegue uma pedra e comece a arremessá-
la. Caso contrário, você pode ser o próximo.
Em nossa história muito recente, decidimos que esses impulsos são mais
perigosos do que benéficos. Substituímos a tirania dos primos pelo estado de direito
(principalmente), banimos a violência coletiva e desencorajamos o comportamento
de turba. Mas os instintos não podem ser totalmente neutralizados, apenas contidos.
As redes sociais, ao tocar diretamente em nossas emoções grupais mais viscerais,
contornam esse muro de contenção - e, nas circunstâncias certas, destroem-no
completamente, enviando esses comportamentos primordiais de volta à sociedade.
Quando você vê uma postagem expressando indignação moral, 250.000 anos de
evolução entram em ação. Isso o impele a participar. Faz você esquecer seus
sentidos morais internos e ceder aos do grupo. E faz com que infligir danos ao alvo
da indignação pareça necessário - até intensamente prazeroso. As varreduras
cerebrais descobrem que, quando os sujeitos prejudicam alguém que acreditam ser
um malfeitor moral, seus centros de recompensa de dopamina são ativados. As
plataformas também removem muitas das verificações que normalmente nos
impedem de levar as coisas longe demais. Atrás de uma tela, longe de nossas
vítimas, não há nenhuma pontada de culpa ao ver a dor no rosto de alguém que
prejudicamos. Também não há vergonha em perceber que nossa raiva se transformou
visivelmente em crueldade. No mundo real, se você gritar palavrões com alguém por
usar um boné de beisebol em um restaurante caro, você mesmo será rejeitado,
punido por violar as normas contra demonstrações excessivas de raiva e por perturbar
seus colegas frequentadores do restaurante. Online, se outras pessoas perceberem
sua explosão, provavelmente será para participar.
As plataformas sociais são extraordinariamente ricas em fontes de indignação
moral; há sempre um tweet ou desenvolvimento de notícias para ficar com raiva,
junto com muitos usuários para destacá-lo para um público potencial de milhões. É
como estar no centro da maior multidão já reunida, sabendo que, a qualquer
momento, ela pode se transformar em uma multidão. Isso cria incentivos poderosos
para o que os filósofos Justin Tosi e Brandon Warmke chamaram de “arrogância
moral” – mostrar que você está mais indignado e, portanto, mais moral do que todos
os outros. “Em uma missão para impressionar os colegas,”
Machine Translated by Google

Tosi e Warmke escrevem: “os arquibancadas inventam acusações morais, se amontoam


em casos de humilhação pública, anunciam que qualquer um que discorde deles está
obviamente errado ou exageram em demonstrações emocionais”.
Off-line, os arquibancadas morais podem aumentar a sensibilidade de um determinado
grupo em alguns graus, pressionando os colegas a igualá-los. Ou eles podem
simplesmente irritar a todos. Mas nas redes sociais, os arquibancadas são sistematicamente
recompensados e amplificados. Isso pode desencadear “uma corrida armamentista
moral”, alertaram Tosi e Warmke, na qual as pessoas “adotam pontos de vista extremos
e implausíveis e se recusam a ouvir o outro lado”.
Se fossem apenas alguns fóruns na internet, as consequências poderiam ser algumas
discussões desagradáveis. Mas, em meados da década de 2010, as redes sociais se
tornaram o vetor por meio do qual grande parte das notícias do mundo era consumida e
interpretada. Isso criou um mundo, alertaram Tosi e Warmke em um estudo de
acompanhamento com o psicólogo Joshua Grubbs, definido por “homogeneidade, vieses
de grupo interno/grupo externo e uma cultura que encoraja a indignação”.
O resultado foi um ciclo de polarização e desinformação. Quando o Congresso
aprovou um pacote de estímulo em 2020, por exemplo, as postagens mais compartilhadas
no Twitter relataram que o projeto de lei desviou US$ 500 milhões destinados a
americanos de baixa renda para o governo de Israel e outros US$ 154 milhões para a
National Art Gallery, que financiou uma campanha clandestina de US$ 33. milhões para
derrubar o presidente da Venezuela, que cortou os benefícios de desemprego e que os
cheques de $ 600 de alívio da Covid eram na verdade apenas empréstimos que o IRS
aceitaria de volta nos impostos do ano seguinte.
Todos eram falsos. Mas o viés extremo da plataforma em relação à indignação fez
com que a desinformação prevalecesse, o que criou demanda por mais indignação
afirmando rumores e mentiras. Os republicanos sem coração queriam que os pobres
morressem de fome. Os democratas de Craven venderam os americanos para as grandes
empresas. Estrangeiros astutos haviam roubado nossa força vital financeira. Cada ciclo
confundiu ainda mais a compreensão pública de uma questão de alto risco e tornou o
compromisso mais caro e menos viável para os legisladores cujos constituintes exigiam
nada menos que posições partidárias maximalistas para apaziguar sua raiva.
Essa raiva cria um impulso, às vezes avassalador, de encontrar alguém para punir.
Em um experimento perturbador, os participantes foram solicitados a atribuir uma punição
pela transgressão moral de outra pessoa. Tornaram-se mais duros quando levados a
acreditar que estavam sendo observados, mais duros ainda quando informados de que
seu público era altamente político ou ideológico. Muitos
Machine Translated by Google

aumentaram a punição, mesmo que pensassem que sua vítima não a merecia. A motivação
deles era simples: eles esperavam que a crueldade fizesse os observadores gostarem mais
deles.
As escalas de efeito; as pessoas expressam mais indignação e demonstram mais vontade
de punir os indignos, quando acham que seu público é maior. E não há audiência maior na terra
do que o Twitter ou o Facebook.

5. A Caminhada

SE HOUVE alguma dúvida sobre a extensão da influência do Twitter-shaming sobre a vida


americana, terminou o Memorial Day 2020 em uma extensão tranquila e arborizada do Central
Park de Nova York, conhecida como Ramble. Um ritual acontece na maioria das manhãs aqui.
Alguém deixa seu cachorro correr livremente, uma pausa momentânea em apartamentos
apertados e calçadas movimentadas. E um observador de pássaros, para quem este é um
território rico, castiga o dono para prender seu animal de estimação, como exigem as regras do
parque.
Naquela manhã, a dona do cachorro era uma mulher branca, Amy Cooper. O observador
de pássaros era um homem negro, Christian Cooper, que havia passado pelo ritual tantas vezes
que carregava guloseimas para atrair animais de estimação soltos em sua direção, pressionando
os donos a pegar o animal de volta. Quando o cachorro de Amy se aproximou de Christian, ele
pediu que ela o colocasse na coleira. Ela recusou.
Ele acenou com uma guloseima para cachorro e disse a ela: “Olha, se você vai fazer o que
você quiser, eu vou fazer o que eu quiser, mas você não vai gostar”.
"Não toque no meu cachorro", ela retrucou.
Sentindo a escalada do conflito, ele pegou o telefone, apontou a câmera para ela e começou
a gravar. Ela caminhou em direção a ele e pediu-lhe para parar de filmar enquanto ele pedia
para ela parar de avançar, cada um se esforçando para assumir o controle. Dois urbanos de
classe profissional de meia-idade, com as vozes trêmulas devido à descarga desconhecida de
adrenalina.
“Então vou tirar uma foto e chamar a polícia”, disse ela.
“Por favor, chame a polícia”, disse ele. “Por favor, chame a polícia.”
“Vou dizer a eles que um homem afro-americano está ameaçando minha vida”, disse ela.
Era uma ameaça potencialmente letal. Assassinatos de homens e mulheres negros cometidos
pela polícia estiveram nos noticiários durante grande parte daquela primavera. Amy ligou para
o 911, dizendo repetidamente à operadora que “um homem afro-americano” a estava
ameaçando. “Por favor, mande a polícia imediatamente,” ela disse, sua voz
Machine Translated by Google

subindo no que soou como uma tentativa de fingir terror. No meio da ligação, ela
recolocou a coleira de seu cachorro e Christian, recuperando a compostura, agradeceu
secamente e encerrou o vídeo.
Em um mundo sem mídia social, o incidente provavelmente teria terminado aí.
Quando a polícia chegou, os dois já haviam deixado o parque. Christian pode ter usado
o vídeo do celular para buscar acusações de falsificação de um relatório policial. Mas
a maior transgressão de Amy - usar a ameaça de violência policial para intimidar
Christian e colocar sua vida em perigo - teria ficado impune. Assim como sua tentativa
de impor expectativas de que espaços públicos como o parque pertencem primeiro aos
brancos e depois aos negros, puníveis sob pena de morte. Neste mundo, no entanto,
a irmã de Christian poderia postar o vídeo no Twitter. “Eu queria que as pessoas
soubessem o que aconteceu para garantir que nunca mais acontecesse com ela”,
disse ela a seus modestos seguidores.
Foi exatamente o tipo de transgressão que a indignação moral existe para impedir:
uma violação dos costumes compartilhados (não minta, não ponha em perigo os
outros, não promova o racismo) e um ataque ao contrato social que nos mantém
unidos. Também demonstrou uma forma particularmente perniciosa de racismo, para
a qual os usuários poderiam chamar a atenção compartilhando o clipe. Um republicou
o vídeo, depois outro, depois outro, até que mais de 200.000 pessoas compartilharam
a postagem, cada uma sinalizando assim sua concordância com a ligação para
responsabilizar Amy Cooper. Rapidamente atraiu 40 milhões de visualizações, vinte
vezes mais do que o noticiário da noite.
Dezenas de milhares de usuários, falando com uma voz furiosa, pressionaram os
empregadores de Amy Cooper, que prontamente a demitiram e distribuíram os nomes
e contas de mídia social de seus amigos, um apelo implícito por seu isolamento social.
A reação se estendeu até ao abrigo onde ela havia adotado seu cachorro, levando-a a
entregar o amado animal de estimação (o abrigo o devolveu uma semana depois).
Detalhes sórdidos e não relacionados de sua vida foram transmitidos para milhões. Ela
foi levada à maior praça da história da humanidade e condenada unanimemente. Era
justiça, tanto para Christian Cooper quanto para estabelecer que tal comportamento
seria rapidamente punido. E concentrou a atenção necessária no poder que a violência
policial dá a qualquer pessoa branca com um telefone celular para ameaçar a vida de
uma pessoa negra.

Mas o Twitter também levou essa justiça exatamente até onde os usuários mais
raivosos do site queriam levar sua raiva estimulada por algoritmos. Mesmo se o
Machine Translated by Google

coletivo online chegou ao veredicto certo, alguns expressaram desconforto com os métodos
pelos quais determinou e executou a sentença.
Entre aqueles que articulavam certa quantidade de ambivalência estava o próprio Christian
Cooper, que, embora tenha feito poucas críticas a Amy Cooper por tentar mobilizar “certos
impulsos sociais obscuros” contra ele, acrescentou: “Não estou desculpando o racismo, mas
não não sei se a vida dela precisava ser dilacerada.”

O fato de ela ter sido pressionada a entregar seu cachorro no auge da fúria online, mas
se recuperar quando os ânimos esfriaram, sugere que a dinâmica da mídia social, pelo menos
por um tempo, levou sua punição além do que até mesmo os punidores consideravam
apropriado. Qualquer sistema de justiça tem preconceitos, pontos cegos e excessos. Os
Coopers demonstraram que todos nós havíamos entrado em um novo sistema em camadas
sobre os antigos, sem que ninguém o projetasse conscientemente, optasse por ele ou mesmo
realmente o entendesse.
Há momentos em que esse sistema é positivamente transformador. Os ativistas do Black
Lives Matter o aproveitaram para atrair a atenção para a violência que os principais meios de
comunicação tendiam a encobrir. O vídeo de Christian Cooper ressoou tão poderosamente
em parte porque esses ativistas haviam estimulado milhões de pessoas a ver seu significado.
Naquele mesmo dia, um policial de Minneapolis se ajoelhou no pescoço de um homem negro
chamado George Floyd por quase nove minutos, matando-o. Milhões se reuniram em
protestos de semanas, cidade por cidade, que foram o ponto culminante da organização local,
bem como uma fonte nacional de indignação moral que se manifestou, em um grau
significativo, por meio da mídia social. As alegações de agressão sexual contra o produtor de
cinema Harvey Weinstein também provocaram um ciclo de crescente indignação online –
primeiro contra ele, depois contra Hollywood, depois contra os homens abusivos mencionados
em inúmeras histórias pessoais compartilhadas no Twitter – que se tornou o movimento
MeToo.
A promessa de revolução do Vale do Silício tinha sido egoísta, mal pensada e apenas um
componente de uma desestabilização mais ampla que muitas vezes era prejudicial, mas havia
verdade nisso.
No entanto, incidentes injustos também se tornaram frequentes. Falhas, erros, ultraje
implantados para fins nefastos ou sem motivo algum. O mesmo aconteceu com os casos que
se enquadram em áreas morais cinzentas: mais dentistas de 55 anos enviados para a
clandestinidade ou comerciantes de trinta e poucos anos despojados de seus meios de
subsistência. A mudança não foi a sociedade repentinamente se tornando mais justa ou o
surgimento da chamada cultura do cancelamento; foi a chegada de uma tecnologia tão onipresente, tão arraigada
Machine Translated by Google

em nosso próprio conhecimento, que havia alterado a maneira como a moralidade e a justiça
funcionam. Os Coopers, Walter Palmers e Gamergates fazem parte dessa mesma nova
ordem, nossa tirania digital de primos.
Esse sistema sensorial avassalador automatizado por máquina é facilmente explorado.
Assim como James Williams, o ex-engenheiro do Google, havia alertado, Trump levantou-se
em tweets ultra-virais e postagens no Facebook provocando raiva em democratas, jornalistas
e minorias, muitas vezes por causa de pecados inventados, mas inspirando apelos muito
reais para a prisão ou morte de seus alvos. . Passe uma hora navegando em uma parte da
rede social que não compartilha de sua política e pergunte se a indignação generalizada está
realmente em escala, se as punições exigidas são realmente sempre apropriadas.

Algumas semanas após o encontro no Ramble, um homem de Seattle chamado Karlos


Dillard postou um vídeo de dois minutos no Twitter que apresentou como uma espécie de
sequência. Ele disse que uma “Karen” (gíria para uma mulher branca com direito, um termo
que a irmã de Christian Cooper também usou) o cortou no trânsito enquanto gritava calúnias
raciais. Foi até enquadrado como o vídeo Ramble, embora tenha ocorrido na entrada da
casa da mulher, onde Dillard, um homem negro, disse que a seguiu para exigir respostas.

“Eu não entendo o que está acontecendo”, a mulher gritou no clipe


primeiros segundos, com as mãos tremendo enquanto ela tentava cobrir o rosto.
“Você me cortou e agora está bancando a vítima”, disse Dillard enquanto ele movia a
câmera sobre o prédio dela. “Pessoal, este é o número da placa dela. Ela mora aqui. Este é
o endereço dela.
Ela se curvou sobre a placa do carro, implorando para que ele parasse de gravar.
Dillard fez uma pausa como se estivesse pensando e, gritando no quarteirão, exigiu que ela
se desculpasse por chamá-lo de palavra com n. Ela gritou, mal conseguindo pronunciar as
palavras: "Você vai arruinar minha vida e nem me conhece." Enquanto ela soluçava na
calçada, ele a encheu de pedidos de desculpas.
Em meio a suas negações, ela gaguejou: “Eu tenho um marido negro”.
O vídeo de Dillard instantaneamente se tornou viral, compartilhado por mais de 100.000
pessoas e visto mais de 10 milhões de vezes. Os usuários denunciaram a mulher, exigiram
que ela perdesse o emprego, circularam suas informações de identificação. Muitos
expressaram alegria. “LMAOOOOOO ela é tão dramática”, escreveu um, usando um
acrônimo da internet para risadas intensas. “Exponha a bunda dela.” Outros encontraram o
marido dela, divulgando seu nome e imagem em retribuição ao que diziam ser o problema
dos homens negros que permitiam mulheres brancas racistas. Muitos
Machine Translated by Google

os comentários mais raivosos vieram de usuários brancos - talvez sinceros, talvez


arrogantes, talvez ambos.
Dillard se inclinou para sua celebridade, criando um site que vendia camisetas e
moletons com falas de seu vídeo. Mais tarde, alguém descobriu que ele havia postado
anteriormente vídeos nos quais confrontava com raiva mulheres com acusações de
racismo que produziam negações confusas e temerosas. Pelo menos um deles havia
pedido uma ordem de restrição. Em outro vídeo antigo, Dillard se gabava de inventar
acusações de racismo. “Foi uma mentira que inventei na hora”, disse ele. “Chama-se
'Colocar uma armadilha'.” Em outro, ele disse que votou em Trump.
Alguns repórteres entrevistaram Dillard, que parecia confuso e incoerente, não um
mestre da manipulação ou um gênio cínico. Ele simplesmente aprendeu, em algumas
iterações, que combinação de palavras e imagens lhe renderia validação e atenção
na maior máquina geradora de indignação da história. As plataformas fizeram o resto.

Foi apenas uma digressão em meio a um verão em que, de outra forma, ativistas
sérios direcionaram a maquinaria da indignação online para fins mais meritórios. Mas
não era o maquinário deles. Embora possa parecer governado pela vontade coletiva
de seus participantes, na verdade era governado pelo Vale do Silício, cujos sistemas
foram projetados não para promover o progresso social ou para distribuir justiça de
forma justa, mas para maximizar nosso tempo no local, para ganhar dinheiro.
Na política, os resultados raramente privilegiam a libertação. Quando dois
estudiosos analisaram 300 milhões de tuítes enviados durante a campanha
presidencial de 2012, eles descobriram que os tuítes falsos superaram
consistentemente os verdadeiros. Os rumores e mentiras favoreceram ou encorajaram
a raiva do outro lado, alertaram os estudiosos, ampliando a polarização que já era
uma das doenças mais graves enfrentadas pela democracia americana. A divisão
resultante foi abrindo espaço para oportunistas. Eles descobriram que um dos piores
impulsionadores da desinformação no Twitter durante a eleição foi a personalidade
marginal da TV, Donald Trump. Ainda assim, a provocação viral, não importa o quão
amplamente proliferada, exerceu, por conta própria, pouca influência. Trump dominou
o Twitter, mas pouco mais. Se as plataformas tivessem permanecido estáticas, essas
ondas de indignação e conflito, com toda a sua força distorcida e às vezes destrutiva,
poderiam ter marcado o auge do impacto da mídia social. Mas um conjunto de
avanços tecnológicos aumentaria o poder das plataformas a tais extremos e em um
ritmo tão rápido que, nas próximas eleições, o próprio mundo seria refeito à sua
imagem.
Machine Translated by Google

Cinco

Despertando a Máquina

1. Algoritmificação

HÁ MUITO TEMPO para que isso pudesse ter evitado grande parte do caos que estava por vir,
um especialista em IA do Google tentou abrir um dos maiores segredos abertos de seu setor:
ninguém sabe exatamente como os algoritmos que governam as mídias sociais realmente
funcionam. Os sistemas operam de forma semi-autônoma, seus métodos além do alcance
humano. Mas o Vale tinha um incentivo para permanecer ignorante.
Verifique como o ganso consegue esses ovos de ouro e você pode não gostar do que encontra.
Você pode até ter que devolvê-los.
O especialista em IA, um francês chamado Guillaume Chaslot, admirava as empresas de
mídia social desde seus dias como estudante de doutorado na Europa nos anos 2000. A
tecnologia das plataformas não era sofisticada na época, mas seu potencial, ele acreditava, era
revolucionário. Depois de terminar sua dissertação, ele partiu para a Califórnia. No final de 2010,
ele conseguiu um emprego no Google.
“Eu não sabia no que estaria trabalhando, porque eles simplesmente contratavam pessoas
e depois as colocavam em um projeto”, disse Chaslot, que fala com um murmúrio ofegante e
enérgico. Ele estaria trabalhando, ele descobriu, em uma plataforma de vídeo que o Google
havia adquirido por insistência de uma executiva de publicidade chamada Susan Wojcicki. Em
1998, Larry Page e Sergey Brin, os criadores e cofundadores do Google, instalaram os primeiros
servidores da empresa em sua garagem. Quando o mecanismo de busca deles pegou, Wojcicki
(pronuncia-se woe jiski) deixou seu emprego na Intel para trabalhar para eles. Ela supervisionava
produtos de publicidade e um serviço de streaming, o Google Videos, que estava sendo superado
na proporção de três para um por uma startup básica chamada YouTube.

Wojcicki, acreditando que era tarde demais para alcançar o YouTube, convenceu seus chefes a
comprá-lo imediatamente, o que eles fizeram, em 2006, por surpreendentes US$ 1,65 bilhão.
Machine Translated by Google

Apesar de suas projeções de crescimento, no entanto, a receita publicitária nunca


subiu o suficiente para justificar o custo. Quatro anos depois, na esperança de salvar
o investimento, o Google contratou vários programadores altamente especializados,
incluindo Chaslot. Eles incumbiram um veterano do mecanismo de busca chamado
Cristos Goodrow de executar o projeto. “Em setembro de 2011, enviei um e-mail
provocativo ao meu chefe e à equipe de liderança do YouTube”, escreveu Goodrow
posteriormente. “Linha de assunto: 'Assista ao tempo, e apenas assista ao tempo.' Foi
um chamado para repensar como medimos o sucesso.”
Goodrow pediu a seus chefes que considerassem um usuário hipotético que
pesquisa como amarrar uma gravata borboleta. Imagine que o YouTube, escreveu ele,
pudesse mostrar ao usuário um vídeo demonstrando a resposta em um minuto rápido.
Ou pode mostrar um vídeo que “tem dez minutos de duração e é cheio de piadas e
muito divertido, e no final você pode ou não saber amarrar uma gravata borboleta”. A
ortodoxia do Google disse para mostrar o primeiro vídeo: exibir as informações mais
úteis o mais rápido possível. Mas Goodrow argumentou que o YouTube deveria
promover o segundo. “Nosso trabalho era manter as pessoas engajadas e saindo
conosco”, escreveu ele. Dê aos usuários um vídeo longo que eles não vão querer
desligar, depois outro, depois outro. Mais tempo de exibição “gera mais publicidade, o
que incentiva mais criadores de conteúdo, o que atrai mais visualizações”, argumentou.
Seus chefes concordaram.
Chaslot assumiu um componente essencial dessa visão: a busca.
A pesquisa tradicional depende de palavras-chave: digite baleias e você obterá uma
lista dos vídeos mais recentes ou mais assistidos marcados com essa palavra. A
equipe de Chaslot substituiria isso por uma IA projetada para identificar o vídeo que
melhor atendesse aos interesses do usuário. A busca de baleias , em teoria, enviaria
a IA vasculhando os bilhões de horas de vídeo do YouTube em busca do documentário
de Jacques Cousteau, uma joia escondida, ou do inspirador clipe amador de uma orca
rompendo. Pode até sugerir o que assistir a seguir, guiando os usuários por um mundo
infinito de descobertas e deleites. “Foi um trabalho”, Chaslot me disse, “que teve um
impacto enorme e positivo na vida cotidiana real de tantas pessoas”.

Chaslot viu por que ele havia recebido a tarefa. A nova busca teria que fazer o
trabalho de um executivo de TV de classe mundial, avaliando os gostos e preferências
do público, mas selecionando entre um conjunto de vídeos milhões de vezes maior do
que qualquer rede de TV, e tudo em velocidades quase instantâneas. Chaslot
conhecia um caminho de sua pesquisa de doutorado, sobre
Machine Translated by Google

algo chamado aprendizado de máquina, uma tecnologia que recentemente resolveu um


problema antes insolúvel: o spam.
Os primeiros filtros de spam podiam identificar lixo eletrônico apenas com base em
identificadores que eles foram instruídos a procurar, como o endereço de e-mail de um spammer
conhecido ou determinadas palavras-chave. Mas os supervisores do filtro de spam tiveram que
identificar e programar eles mesmos esses marcadores. O e-mail em massa e automatizado
pode sobrecarregar essas defesas, trazendo riquezas fáceis para os spammers. Em 2002, o
spam representava 40% de todos os e-mails e estava crescendo. As guerras de spam pareciam invencíveis.
Os monitores da Internet alertaram que o tráfego de spam logo cresceria a ponto de tornar o e-
mail inutilizável e possivelmente travar a própria Internet.
Com o aprendizado de máquina, os engenheiros poderiam fazer algo melhor do que
escrever um programa para detectar spam. Eles projetaram um programa que orientaria sua
própria evolução. Eles alimentaram este programa com enormes conjuntos de e-mails de spam
e não-spam. O sistema criou automaticamente milhares de filtros de spam, todos ligeiramente
diferentes, e testou cada um deles nos e-mails de amostra. Em seguida, construiu uma nova
geração de filtros de spam com base nos melhores desempenhos e repetiu o processo várias
vezes, como um botânico identificando e cruzando as plantas mais resistentes. Ele estava
evoluindo, e em alta velocidade, até produzir uma variação de si mesmo tão sofisticada e
poderosa que poderia fazer o que nenhum filtro projetado por humanos poderia: identificar e
bloquear proativamente quase todos os spams. Não há como um superintendente abrir o capô
desse filtro de spam e ver como ele está funcionando, porque ele estaria olhando para uma
máquina que, com o tempo, foi projetada por máquinas, muito complexas para entender. Mas
quem se importa? Essas máquinas derrotaram facilmente os spammers, salvando a web do
desastre.

Google, Facebook e outros aspiraram os principais nomes no campo do aprendizado de


máquina. Muitos receberam uma versão da mesma atribuição de Chaslot.
Em vez de identificar o spam, eles construiriam máquinas que aprenderiam com precisão quais
combinações de texto, imagens e sons nos manteriam navegando melhor.

Lançado no início de 2012 no YouTube, os poderes desse novo sistema vão além de meros
resultados de pesquisa. Imagine assistir, digamos, a um clipe de um debate presidencial de
2012. A página agora recomendaria, ao lado do seu vídeo, miniaturas de uma dúzia de outros
que você pode assistir a seguir: um vídeo das piores gafes de Obama, uma paródia do Saturday
Night Live , um vlogger condenando as políticas de Mitt Romney. Quando o vídeo que você
está assistindo terminar, o sistema irá
Machine Translated by Google

até mesmo escolha um deles para jogar automaticamente a seguir. Cada um é selecionado
entre os bilhões de vídeos do YouTube por uma IA corporativa abreviada como “o algoritmo” –
um dos mais poderosos sistemas de aprendizado de máquina em tecnologia de consumo. Suas
seleções, guiadas pelo poder do aprendizado de máquina, mostraram-se extremamente
eficazes. “Em poucos meses, com uma equipe pequena, tínhamos um algoritmo que aumentava
o tempo de exibição para gerar milhões de dólares em receita publicitária adicional”, disse
Chaslot, “então foi muito, muito empolgante”.
Esses sistemas estavam se insinuando em todas as facetas da vida. A Netflix, por exemplo,
aprende os gostos de cada usuário rastreando o que a pessoa assiste e por quanto tempo,
emitindo recomendações tão eficazes que a empresa credita a seu algoritmo a retenção de
assinantes no valor de US$ 1 bilhão por ano.
O Spotify adquiriu empresas de IA para criar algoritmos de seleção de listas de reprodução que
impulsionam grande parte de seus negócios de US$ 8 bilhões por ano. Se você compra na
Amazon, um algoritmo extrai dados de hábitos de consumo para orientar quais produtos você
vê. Se você lê o Google Notícias, um algoritmo determina quais manchetes são mais atraentes
para você. Até o amor passou a ser governado por algoritmos de aplicativos de namoro que
reduzem os encantos e as esperanças de cada usuário a dados brutos, que esse programa usa
para estimular as pessoas a formar pares.
O sistema do YouTube busca algo mais abrangente do que uma assinatura mensal. Seu
olho que tudo vê rastreia todos os detalhes do que você assiste, por quanto tempo assiste, no
que clica a seguir. Ele monitora isso em dois bilhões de usuários, acumulando o que é
certamente o maior conjunto de dados sobre as preferências do visualizador já reunido, que ele
verifica constantemente em busca de padrões. Chaslot e outros ajustaram o sistema à medida
que avançava, estimulando seu processo de aprendizado para atingir melhor seu objetivo:
tempo máximo de exibição.
Uma das ferramentas mais poderosas do algoritmo é a afinidade tópica. Se você assistir a
um vídeo de gato até o fim, explicou Chaslot, o YouTube mostrará mais sobre as visitas de
retorno. Ele enviará especialmente quaisquer vídeos de gatos que considere mais eficazes para
capturar a atenção. Digamos, uma longa compilação de erros ultrajantes de gatinhos. Como
praticamente todos os usuários da Internet, eu já passei por isso. Eu ando de bicicleta nos fins
de semana e, enquanto moro no exterior, pesquiso no YouTube clipes de trilhas locais para ter
uma noção do terreno. O sistema começou a recomendar vídeos de ciclismo que eu nunca
pensei em pesquisar: corridas profissionais, testes de novos modelos. Funcionou; Eu assisti
mais vídeos. Com o tempo, as recomendações se tornaram mais extremas.

Acidentes dramáticos, engavetamentos de dez bicicletas, passeios de acrobacias que desafiam a morte. No entanto
Machine Translated by Google

dificilmente prejudiciais, eles também não eram realmente agradáveis - apenas


extraordinariamente envolventes, como um acidente de carro. O que, em alguns casos,
eles eram. O efeito é atrair os usuários para variações cada vez mais excitantes de seus
interesses. Se forem gatos ou bicicletas, o impacto é leve. Se for política, saúde ou
outros temas com alguma gravidade para a sociedade, as consequências podem ser profundas.
À medida que o sistema aprimorava seus poderes, Chaslot notou que ele estava
desenvolvendo hábitos estranhos. Começou a encorajar muitos usuários a assistir a
vídeos expondo a raiva contra as mulheres. Às vezes, mulheres específicas, como a
crítica da cultura do jogo Anita Sarkeesian. Às vezes, mulheres em geral. Os homens
passavam 40% mais tempo no YouTube do que as mulheres, um legado em parte da
enorme quantidade de conteúdo relacionado a videogames no site naquela época. A
coisa natural para o algoritmo fazer, percebeu Chaslot, seria privilegiar mais conteúdo
centrado no homem.
Assim como no Twitter e no Reddit, a indignação e o tribalismo ativam as emoções
dos usuários com mais eficácia no YouTube, fazendo-os assistir cada vez mais vídeos
– exatamente o que Goodrow pediu à equipe de Chaslot para priorizar. O algoritmo
aprendeu a aumentar o tempo de exibição dos fãs de videogame mostrando a eles um
vídeo expressando indignação antifeminista, depois outro, depois outro. Os clipes
geralmente abordavam homens que não tinham certeza de como se sentiam sobre
questões de gênero, talvez por nenhum outro motivo além da juventude. “É um ciclo
vicioso”, disse Chaslot. “Esse problema de tocas de coelho.” Mesmo que muitos usuários
dessem de ombros para os vídeos, espectadores suficientes seriam fisgados para
treinar o sistema para enviar clipes semelhantes repetidamente. Os produtores de
vídeos perceberam que títulos como “A VERDADE SOBRE O FEMINISMO” traziam
muitos espectadores, então fizeram mais.
Uma das liberdades mais queridas do Google, herdada dos fundadores do Vale do
Silício em meados do século e totalmente emprestada dos programas de pesquisa de
Stanford em toda a cidade, é a regra 80/20. Os funcionários dedicam 80% de seu tempo
a tarefas formais, mas podem dedicar os outros 20 a projetos paralelos. Chaslot e o
líder de sua equipe, que compartilhavam suas preocupações, dedicaram seus 20 anos
ao desenvolvimento de um novo algoritmo que pudesse equilibrar as metas de lucro
com o bem-estar público.
Naquele outono, em 2012, em uma conferência de liderança do YouTube em Los
Angeles, um executivo chamou Goodrow e alguns outros para dizer que faria um
anúncio surpresa. A empresa se reorientaria em torno de um objetivo que tudo consumia:
aumentar o tempo de exibição diário em um fator de
Machine Translated by Google

dez. Seus servidores já registraram 100 milhões de horas de tempo de exibição por dia.
Mas, mesmo com a expansão do YouTube para novos países e com os espectadores de TV
mudando gradualmente para o online, a audiência só poderia crescer tão rápido. Os usuários
que pretendiam assistir a um vídeo teriam que ser atraídos a ficar por muitos mais. O poder de
persuasão do algoritmo precisaria aumentar drasticamente.

Quando eles poderiam fazer isso? o executivo quis saber. Qual foi o prazo? Goodrow
respondeu que 2015 seria muito cedo. Mas 2017, escreveu ele, “soava estranho” porque era
um número primo. Eles se estabeleceram no final de 2016, quatro anos depois, e Goodrow
mais tarde prometeu renunciar se falhasse. Isso colocou o YouTube em um prazo auto-imposto,
seus executivos e engenheiros empenhados em promover conteúdo que atraísse os usuários
pelo maior tempo possível, em paralelo com uma eleição presidencial em que sua influência
seria fatal.

2. Filtro de bolhas

Chaslot não era o único no vale preocupado com as consequências dos algoritmos. Uma certa
frase circulou, como abreviação para essas preocupações, desde o verão anterior, em 2011.
Em uma manhã daquele maio, enquanto Chaslot trabalhava em sua estação de trabalho no
escritório do Google em Los Angeles, seus chefes corporativos entraram em um salão de
convenções do outro lado da cidade, onde um O ativista de trinta anos chamado Eli Pariser
subiu ao palco para alertar o público de executivos e engenheiros de tecnologia de que seus
algoritmos podem ameaçar a própria democracia. “Existe esse tipo de mudança na forma como
as informações estão fluindo online, e isso é invisível”, disse ele. “E se não prestarmos atenção
a isso, pode ser um problema real.”

Um dia, disse Pariser, postagens de amigos conservadores desapareceram de seu feed


de notícias do Facebook e postagens de liberais começaram a aparecer com mais destaque.
O algoritmo do Facebook provavelmente notou que Pariser interagia com conteúdo liberal em
uma taxa mais alta. Nenhuma surpresa: ele é um ativista progressista que durante vários anos
dirigiu o site de organização de esquerda MoveOn.org. A mudança provavelmente aumentou
seu tempo no Facebook. Mas isso era bom para ele, mostrar-lhe apenas postagens que
falavam de seus preconceitos preexistentes? Foi bom para a sociedade? Ele tinha um nome
para o efeito: filtro de bolhas.
A classificação algorítmica mais simples pode alterar severamente as atitudes das pessoas
Machine Translated by Google

suficiente para balançar as eleições. Em um experimento de 2015, os americanos foram


instruídos a escolher entre dois candidatos fictícios, pesquisando-os online. Cada
participante viu os mesmos trinta resultados de pesquisa em uma maquete do Google,
mas em ordens diferentes. Os participantes consistentemente deram maior peso psicológico
aos resultados de classificação mais alta, mesmo quando leram todos os trinta deles.
O efeito, concluíram os pesquisadores, poderia alterar até 20% das intenções de voto dos
participantes indecisos. O autor do estudo, Robert Epstein, psicólogo e fundador do Centro
de Estudos Comportamentais de Cambridge, observou em um artigo de agosto de 2015:
“O próximo presidente da América pode ser promovido não apenas por anúncios ou
discursos na TV, mas pelas decisões secretas do Google”. Ele observou que o extravagante
e chamativo Donald Trump, apesar de ter sido demitido por praticamente todos os meios
de comunicação e elites políticas até mesmo em seu próprio partido, estava “derrotando
todos os outros candidatos em atividades de busca em quarenta e sete dos cinquenta
estados”.
O medo de Pariser, vários anos antes, havia sido mais fundamental.
“Existe uma luta épica acontecendo entre nossos eus futuros e aspiracionais e nossos eus
mais impulsivos e presentes”, disse ele. Mesmo em 2011, anos antes do YouTube ou do
Facebook superpotenciarem seus sistemas para resultados tão destrutivos, esses
algoritmos anteriores e mais simples já tomavam o lado dos impulsos de forma confiável.
E eles geralmente venciam, proliferando “autopropaganda invisível, doutrinando-nos com
nossas próprias ideias”.
No ano seguinte, 2012, ele fundou o Upworthy, o site dedicado à narrativa positiva,
que publicou listas e vídeos carregados de emoção no Facebook e no YouTube. Mas, em
vez de explorar o poder do algoritmo para espalhar conteúdo que promovesse o bem
social, como Pariser pretendia, Upworthy foi corrompido por esses sistemas, pois seus
criadores de vídeo perseguiam as preferências do algoritmo por conteúdo que lisonjeava
as identidades e a política dos usuários sem ensinar ou esclarecê-los, invadindo a web
com junk food informativo.

Mais tarde, o Facebook ajustou seu algoritmo e o tráfego de Upworthy evaporou.


Descobriu-se que dezenas de milhões de pessoas não escolheram Upworthy tanto quanto
foram manipuladas por máquinas para lê-lo.
Mas isso era de pouca preocupação para as empresas de mídia social. No YouTube,
à medida que o algoritmo recebia uma atualização após a outra, alguns nas trincheiras da
empresa, como Chaslot, começaram a temer que o sistema estivesse empurrando os
usuários para câmaras de eco perigosas de desinformação, tanto quanto ele tinha visto promover
Machine Translated by Google

misoginia viral entre vídeos de gamers. “Não queria ser como o francês que reclama o
tempo todo”, disse ele, “queria trazer soluções” — construindo um algoritmo que atraísse
os usuários atendendo a seus interesses e necessidades, em vez de explorar suas
impulsos. “Eu estava tentando fazer do jeito americano”, disse ele, “para focar na
oportunidade e não nos problemas”.

Mas seus chefes interromperam repetidamente seu trabalho em um algoritmo


alternativo, disse ele, ou insistiram que nunca veria a luz do dia. Ele continuou assim
mesmo, trabalhando furtivamente no projeto em seu tempo livre. Ele apresentou os
resultados para seus chefes, mas foi novamente rejeitado. Eventualmente, ele começou
a trabalhar em uma terceira iteração. “Meu gerente me disse: 'Bem, Guillaume, se eu
fosse você, não faria esse projeto de 20%, porque seu desempenho não é bom o
suficiente.'”
Chaslot deixou isso de lado por alguns meses, mas o problema o atormentava.
Ao longo de 2013, os sistemas do YouTube pareciam dar impulsos cada vez maiores a
vídeos que eram, na melhor das hipóteses, frívolos e viciantes (“Bad Lip Readings”) e, na
pior, odiosos ou conspiratórios, treinando usuários e criadores de vídeos para segui-los.
Uma das maiores vozes da plataforma, o galã Nash Grier, de quinze anos, havia
começado o ano postando esquetes humorísticos e encerrado, numa trajetória cada vez
mais familiar, com vídeos ensinando as mulheres sobre seu dever de subserviência
tradicionalista aos homens.
O YouTube estava treinando usuários para passar seus dias absorvendo conteúdo que
variava de junk food intelectual a veneno absoluto – longe da jornada de esclarecimento
e descoberta que Chaslot achava que a plataforma tornava possível. “É tão importante
que preciso impulsionar o projeto”, ele lembrou de seu pensamento. “E então fui demitido.”

O YouTube afirma que Chaslot foi demitido, naquele mês de outubro, por mau
desempenho. Chaslot acredita que foi demitido por apitar que ninguém queria ouvir. Foi,
talvez, uma distinção com pouca diferença; O YouTube estava se reestruturando em
torno de uma busca obstinada para a qual Chaslot não estava a bordo. “Esses valores de
moderação, de bondade, qualquer coisa que você possa pensar que são valores nos
quais nossa sociedade se baseia, os engenheiros não se importaram em colocar esses
valores no sistema”, disse ele.
“Eles só se importavam com a receita publicitária. Eles estavam pensando que apenas
se preocupando com uma métrica, que é o tempo de exibição, você faria o bem para todos.
Mas isso é simplesmente falso.”
Machine Translated by Google

3. Dez X

CHASLOT E OUTROS hereges questionadores de algoritmos que o seguiram nos


anos seguintes estavam desafiando algo ainda mais fundamental do que os resultados
financeiros das empresas; eles estavam questionando sua própria maneira de ver o
mundo. Desde a época dos semicondutores, os habitantes do Vale viviam e morriam
com base em métricas quantificáveis. Os produtos eram mais eficientes ou não.
Na década de 1980, o CEO da Intel, Andy Grove, codificou uma variação extrema
disso no dogma de Valley, que ele desenvolveu enquanto supervisionava a mudança
da empresa de circuitos integrados - entranhas eletrônicas, o ápice da evolução dos
semicondutores - para microprocessadores, os cérebros dos produtos digitais.

O Vale do Silício estava perdendo seu domínio no mercado de semicondutores


de circuito integrado para o Japão e Taiwan. Os microprocessadores poderiam
oferecer um futuro aos fabricantes de chips da Valley, como a Intel, mas havia um
problema. O predecessor de Grove na Intel, um engenheiro vitalício chamado Gordon
Moore, havia cunhado o que ficou conhecido como a lei de Moore: o poder de
processamento dobraria a cada dois anos. Esse crescimento exponencial constante,
impossível em qualquer outro setor, traria possibilidades transformadoras. Imagine
aviões que ficam duas vezes mais rápidos a cada 24 meses, ou baterias que retêm
iterativamente o dobro da carga. Isso significou um aumento de 32 vezes em dez
anos, 1.024 vezes em vinte. Mas manter o ritmo exigia o avanço da tecnologia e sua
produção nas mesmas taxas vertiginosas. Não estava claro que tal coisa fosse
possível. As empresas asiáticas também dominariam esse mercado? Grove reorientou
todos os aspectos de seus negócios em torno de algumas métricas, como velocidade
do processador ou tempo de lançamento no mercado, e capacitou engenheiros de
base para fazer o que fosse necessário para atingir as metas. Não apenas os
célebres fabricantes de chips do Valley sobreviveram, mas o mercado dominado pela
Intel, impulsionado pela lei de Moore, disparou enquanto o resto da economia americana afundava.
Quando um diagnóstico de câncer forçou Grove a renunciar no auge de seu
sucesso, ele passou sua recuperação escrevendo livros e dando palestras. Como
um evangelista errante nos dias desesperados da crise das pontocom, ele encontrou
muitos discípulos ansiosos. Concentre tudo, instruiu ele, na maximização de algumas
métricas quantificáveis. Concentre o poder nas mãos de engenheiros que podem
fazê-lo. E deixe de lado o resto. Seus seguidores incluíam John Doerr, um vendedor
da Intel que se tornou capitalista de risco, que transmitiu o conhecimento de Grove
Machine Translated by Google

filosofia obcecada por métricas a dezenas de empreendimentos iniciais na Internet. Uma


delas foi a Amazon, cujo fundador, Jeff Bezos, escreveu em uma carta aos acionistas que
ainda circula no Vale: “Existe uma resposta certa ou uma resposta errada, uma resposta
melhor ou pior, e a matemática nos diz qual é qual”. Outro foi o Google, cujos jovens
fundadores Doerr instruiu pessoalmente no evangelho de Grove. Wojcicki sentou-se.

Mas, à medida que o Valley expandia seu alcance, essa cultura de otimização a todo
custo assumiu efeitos de segunda ordem. A otimização da Uber para as coletas mais rápidas
de compartilhamento de viagens criou proteções trabalhistas fora do mercado global de táxis.
A otimização do Airbnb para renda de aluguel de curto prazo tornou as moradias de longo
prazo mais escassas e caras. As redes sociais, otimizando para quantos usuários poderiam
atrair e por quanto tempo poderiam mantê-los lá, podem ter tido o maior impacto de todos.
“Foi uma ótima maneira de construir uma startup,”
Chaslot disse. “Você se concentra em uma métrica e todos estão a bordo [para] essa
métrica. E é realmente eficiente para o crescimento. Mas é um desastre para muitas outras
coisas.”
Na maioria das empresas, as métricas podem crescer 3 ou 4% ao ano. Mas Grove,
internalizando a lei de Moore, insistiu que as empresas encontrassem “mudanças 10x” –
inovações que avançariam em uma escala de dez. Exatamente o multiplicador que Goodrow,
em 2012, concordou em visar para o tempo de exibição do YouTube. “O bilhão de horas
diárias se tornou sua baleia branca”, escreveu Wojcicki, o executivo do Google, e não
apenas para Goodrow. “O OKR de um bilhão de horas era uma religião no YouTube”,
observou ela, usando um acrônimo corporativo para métricas, “com exclusão de quase todo
o resto”.
Naquele mesmo ano, Renée DiResta, a investidora em tecnologia que mais tarde
rastrearia os anti-vacinas do Facebook em seu tempo livre, percebeu que o mandato 10x de
Grove se transformava em um novo modelo de negócios estranho, muito diferente daquele
que havia produzido empresas como a Intel. Ela viu essa mudança pela primeira vez em
uma das mais importantes conferências de investimentos do Valley, organizada por um
acelerador de startups de tecnologia chamado Y Combinator, onde os fundadores se
misturam com os corretores de dinheiro que podem financiá-los. “YC Demo Day foi como
receber um convite para o Oscar”, disse ela. O show-and-tell anual dos graduados da
incubadora da Y Combinator “não era algo em que alguém pudesse simplesmente entrar”.
Investidores de baixo escalão como DiResta, sem poder para preencher um cheque na
hora, não eram bem-vindos, mas seu chefe, após perder o voo, pediu que ela fosse em seu
lugar.
Machine Translated by Google

Quando as apresentações começaram, cada fundador teve dois minutos para lançar a sala
cheia de investidores de peso. As ideias – um serviço de computação em nuvem, um site de
investimentos, um site de reservas de viagens, um agregador de memes – variavam muito, mas
cada uma tinha o mesmo plano de negócios. “Eles colocaram um gráfico mostrando a tração
subindo e indo para a direita”, lembrou DiResta. “Quase nenhum deles tinha machados. Era
apenas um rabisco indo para cima e para a direita. Eu estava assistindo isso pensando, 'Que
porra está acontecendo?'”
A DiResta se especializou em tecnologia de hardware, como a Intel. As empresas
precisavam investir em despesas gerais, planejar sua produção e logística e identificar clientes,
tudo antes de despachar a primeira unidade. Exigiu a projeção de custos e vendas em detalhes
minuciosos. Essas propostas eram consideravelmente mais vagas: as empresas criariam um
site, muitas pessoas o usariam, venderiam anúncios, todo mundo ficaria rico. Ninguém na
platéia parecia se importar com a falta de detalhes; DiResta ouviu rumores de avaliações de
US$ 15 milhões e US$ 20 milhões.

Nos meses subsequentes, ela observou uma startup após a outra ganhar investimentos
de seis ou sete dígitos, apesar de ter o mesmo plano de negócios “ondulado à mão” e, muitas
vezes, nenhuma receita. Os investidores, ela percebeu, não estavam jogando dinheiro em
qualquer garoto com uma proposta. Eles estavam perseguindo um modelo muito específico:
serviços da Web gratuitos que prometiam um crescimento vertiginoso de usuários. Isso a
intrigou, porém, porque muitos fecharam sem ganhar um centavo de lucro, apenas para serem
substituídos por outra rodada de startups. “Eu não conseguia decidir se era muito cética e não
o suficiente visionária”, disse ela. O que ela estava perdendo?

A resposta acabou por ser uma nova tecnologia predominante chamada computação em
nuvem. Antes da computação em nuvem, se você queria iniciar um negócio na web, tinha que
investir em servidores e toda a infraestrutura que os cercava: espaço de escritório, banda larga,
climatização especial, equipe para supervisionar tudo. Pode custar milhões em dinheiro inicial.
Isso exigia convencer um capitalista de risco de que ele recuperaria seu investimento,
geralmente prometendo vender bens ou serviços, o que aumentava ainda mais as despesas
gerais. Era uma situação que tornava os investidores conservadores. Uma aposta fracassada
de $ 20 milhões poderia ser devastadora, e mesmo um sucesso levaria muitos anos para
mostrar retornos.
Então, no final dos anos 2000, a Amazon e alguns outros montaram fazendas de servidores
em expansão, colocando seu poder de processamento e armazenamento de dados para alugar,
chamando-o de “a nuvem”. Agora você não precisava mais investir em despesas gerais. Você
Machine Translated by Google

alugou da Amazon, carregando seu site em seus servidores. Você poderia obter seus
primeiros dez mil clientes com um empréstimo de mamãe e papai. Você não precisava de
um modelo de lucro, de investidores iniciais ou mesmo de uma ideia totalmente formada.
“Esqueça a estratégia”, escreveu o investidor Roger McNamee sobre essa nova abordagem.
“Reúna alguns amigos, faça um produto que você goste e experimente no mercado. Cometa
erros, corrija-os, repita.” Foi transformador também para os investidores, que não precisavam
mais investir milhões para colocar uma startup no mercado. Eles poderiam fazer isso por
trocados.
Isso mudou o que os investidores queriam de seus investimentos. Não se tratava mais
de encontrar aquele promissor fabricante de widgets cujas vendas poderiam, depois de
muitos anos difíceis e caros, um dia eclipsar os custos. Tratava-se de investir em muitas
startups baratas da web, sabendo que a maioria falharia, mas que um grande sucesso
cobriria essas perdas e mais algumas.
Mas a definição de sucesso também estava sendo virada de cabeça para baixo. As
grandes corporações estavam ficando desesperadas para comprar seu caminho para a
internet adquirindo startups por quantias ridículas. E os corretores de Wall Street, ansiosos
para comprar ações da próxima grande empresa de tecnologia, despejaram dinheiro em
qualquer coisa que se parecesse vagamente com a Microsoft ou a Apple de amanhã. Em
1994, Kleiner Perkins investiu US$ 5 milhões por 25% da propriedade de uma startup de
navegadores da web chamada Netscape. A empresa teve lucro zero, em parte porque
distribuiu seu produto de graça, embora isso tenha conquistado milhões de usuários. No ano
seguinte, a Netscape tornou-se pública. Os especuladores do mercado de ações rapidamente
elevaram sua avaliação para US$ 2,3 bilhões, dando à Kleiner um retorno de 100 vezes sobre seu investimento.
O Netscape fracassou alguns anos depois.
Como a computação em nuvem permitiu que as startups estilo Netscape proliferassem,
o incentivo predominante para os investidores em tecnologia tornou-se preparar as startups
para queimar rapidamente, garantindo uma venda rápida de alto valor ou IPO. E a melhor
maneira de ganhar muito dinheiro, mas gastando muito pouco, é investir em serviços da web
que não oferecem produtos físicos, mas atraem muitos e muitos usuários. Isso faz com que
seu investimento pareça que um dia poderá transformar essa base de usuários em uma
fonte de lucro, o que cria uma avaliação alta, embora totalmente teórica.
O gráfico de rabiscos, como DiResta pensou, com sua promessa de usar serviços online
gratuitos para atrair o maior número possível de usuários sem nenhum plano de lucro, não
era um truque. Era o que os investidores exigiam. E nada entregue neste modelo como a
mídia social. “Você pode olhar para esses números e concluir que os investidores
enlouqueceram”, escreveu certa vez Peter Thiel. Mas o
Machine Translated by Google

os retornos podem ser astronômicos. Um investimento de US$ 250.000 no Instagram, feito


em 2010, rendeu US$ 78 milhões quando o Facebook comprou a empresa dois anos
depois. Se os planos de negócios dos fundadores acabassem sendo tão tolos quanto
pareceram para DiResta, tudo bem. As perdas eram baratas, enquanto a rara vitória
tornaria todo mundo rico. Era o culto do gráfico de rabiscos.
“Eu senti que poderia haver uma vibração de 'imperador sem roupas' às vezes no
financiamento de startups”, disse DiResta. “Por quanto tempo essa avaliação insana
poderia ser perpetuada antes de atingir o ponto em que alguém realmente tivesse que
preencher um cheque, e o IPO iria acontecer, e as pessoas comuns comuns fossem
solicitadas a colocar suas economias de aposentadoria em um social-móvel-local empresa
com cupons? É por isso que ainda não sou um VC.”
Mesmo que a startup sobrevivesse, estava sobrecarregada com uma avaliação que
havia sido inflada a extremos por todo aquele investimento especulativo. Para evitar que o
preço de suas ações caísse (e manter as luzes acesas, uma vez que o dinheiro do
investidor acabasse), sua única opção era transformar todos esses usuários em dinheiro
vendendo-lhes anúncios. O valor da publicidade é a atenção: seu olho passa rapidamente
por um banner de anúncio, que o Facebook vende para a Toyota ou a Gap por cerca de um centavo.
Mas o orçamento publicitário da Toyota é fixo. Assim é o pool total de atenção humana.
Portanto, toda vez que uma rede social atualiza seus sistemas para roubar mais alguns
minutos do dia de alguém, ela está escalando uma corrida armamentista tecnológica para
o seu campo de visão. E à medida que a oferta de anúncios on-line aumenta, o preço
diminui. Em um memorando de 2014, o CEO da Microsoft anunciou que “a verdadeira
mercadoria escassa é cada vez mais a atenção humana”.
Se o valor de uma impressão de anúncio continuasse diminuindo, até mesmo os
Facebooks e YouTubes poderiam deixar de ser viáveis. A única opção deles era aumentar
permanentemente o número de usuários, e o tempo desses usuários no site, muitas vezes
mais rápido do que essas mesmas ações, reduzia o preço de um anúncio. Mas controlar
o mercado da atenção humana, como seus modelos de negócios os predestinaram a
tentar, estava além de qualquer coisa que um programa feito pelo homem pudesse realizar.
As empresas, para sobreviver neste ambiente de sua própria criação,
precisam confiar seus negócios e, portanto, seus usuários, às máquinas.

4. Padrões escuros

EM 2014, WOJCICKI, o executivo do Google que orientou a aquisição do YouTube,


assumiu o serviço como CEO. Embora sua liderança fosse
Machine Translated by Google

tão impiedosamente obcecada pelo crescimento quanto Mark Zuckerberg ou Jack Dorsey,
ela atrairia apenas uma fração do escrutínio. Mesmo no auge da reação contra a mídia
social, quando seu serviço seria acusado com credibilidade de danos além até mesmo do
Facebook, ela raramente era levada ao Congresso, raramente castigada por apresentadores
de notícias a cabo, raramente mencionada.
Seu histórico mais convencional, como veterana dos departamentos de publicidade e
marketing, em vez de hacker prodígio de dormitório, não a inclinava para a persona de
superestrela da tecnologia - e especialmente para os pronunciamentos revolucionários -
que conquistaram tanta adoração dos Zuckerbergs e Dorseys antes de finalmente pousar.
eles em tal problema. Por outro lado, o Google tratou o YouTube como seu caixa eletrônico
em vez de seu líder de marca, então manteve ele e Wojcicki um passo atrás dos holofotes.

Talvez o mais importante seja que o YouTube nunca compartilhou as pretensões do


Facebook, do Twitter ou do Reddit de salvar o mundo e, nos últimos anos, raramente
seguiu os esforços públicos dessas empresas para provar que estavam repensando seu
lugar no funcionamento da sociedade. O YouTube de Wojcicki existia para converter olhos
em dinheiro. Democracia e coesão social eram problema de outra pessoa.

Pouco depois de Wojcicki assumir, Goodrow a alertou: “Não vamos cumprir esse OKR
de tempo de exibição se não fizermos algo a respeito”.
Essa coisa: transferir cada vez mais poder para IAs cada vez mais inescrutáveis
Em um artigo de 2016, os engenheiros do Google anunciaram uma “mudança de paradigma fundamental”
para um novo tipo de aprendizado de máquina que eles chamaram de “aprendizagem profunda”.
Na IA anterior, um sistema automatizado construía os programas que selecionavam
os vídeos. Mas, como acontece com as IAs de captura de spam, os humanos
supervisionaram esse sistema, intervindo à medida que evoluía para orientá-lo e fazer
alterações. Agora, o aprendizado profundo era sofisticado o suficiente para assumir esse
trabalho de supervisão também. Como resultado, na maioria dos casos, “não haverá
humanos realmente fazendo ajustes algorítmicos, medindo esses ajustes e, em seguida,
implementando esses ajustes”, escreveu o chefe de uma agência que desenvolveu talentos
para o YouTube em um artigo decifrando o aprendizado profundo papel. “Então, quando o
YouTube afirma que não pode realmente dizer por que o algoritmo faz o que faz,
provavelmente quer dizer isso muito literalmente.”
Era como se a Coca-Cola estocasse um bilhão de máquinas de refrigerante com
alguma bebida projetada por IA sem que um único humano verificasse o conteúdo das
garrafas - e se a IA de envase de bebidas fosse programada apenas para aumentar as vendas, sem
Machine Translated by Google

respeito à saúde ou segurança. Como disse um dos engenheiros de aprendizado profundo


do YouTube em uma conferência do setor: “O produto nos diz que queremos aumentar essa
métrica e, então, vamos aumentá-la”.
O tempo médio do usuário na plataforma disparou. A empresa estimou que 70% de seu
tempo no local, uma parcela astronômica de seus negócios, era resultado de vídeos enviados
por seu sistema de recomendação executado por algoritmos.

À medida que a tecnologia avançava, outras plataformas também expandiram o uso de


algoritmos autoguiados: o Facebook, para selecionar quais postagens os usuários veem e a
quais grupos eles são incentivados a ingressar; Twitter para exibir postagens que podem
induzir um usuário a continuar rolando e tuitando.
“Nós projetamos muitos algoritmos para que possamos produzir conteúdo interessante
para você”, disse Zuckerberg em uma entrevista. “Ele analisa todas as informações
disponíveis para cada usuário e realmente calcula qual será a informação mais interessante.”
Um ex-Facebooker foi mais direto: “Ele foi projetado para fazer você querer continuar rolando,
procurando e curtindo”.
Outro: “Essa é a chave. Esse é o molho secreto. É assim, é por isso que valemos X bilhões
de dólares.”
Em 2014, no mesmo ano em que Wojcicki assumiu o YouTube, o algoritmo do Facebook
substituiu sua preferência por clickbait no estilo Upworthy por algo ainda mais magnético:
interações emocionalmente envolventes. Durante a segunda metade daquele ano, conforme
a empresa reequipava gradualmente seus sistemas, os pesquisadores internos da plataforma
rastrearam 10 milhões de usuários para entender os efeitos. Eles descobriram que as
mudanças inflaram artificialmente a quantidade de conteúdo pró-liberal que os usuários
liberais viam e a quantidade de conteúdo pró-conservador que os conservadores viam.
Exatamente como Pariser havia avisado.
O resultado, mesmo que ninguém no Facebook tivesse conscientemente essa intenção, foi
um hiperpartidarismo arraigado por algoritmos. Isso foi mais poderoso do que classificar as
pessoas no equivalente do Facebook a um feed de notícias da Fox News ou MSNBC, porque
enquanto a relação entre uma rede de TV a cabo e o telespectador é unidirecional, a relação
entre um algoritmo do Facebook e o usuário é bidirecional. Cada um treina o outro. O
processo, segundo os pesquisadores do Facebook, um tanto cautelosamente, em um aviso
implícito que a empresa não deu atenção, estava “associado à adoção de atitudes mais
extremas ao longo do tempo e à percepção errônea dos fatos sobre os eventos atuais”.

Mas as ambições algorítmicas do Valley só cresceram, para nada menos que


Machine Translated by Google

domínio da mente humana. Durante um evento corporativo no verão seguinte com


Zuckerberg e Stephen Hawking, o físico perguntou ao chefe do Facebook: “Qual das
grandes questões da ciência você gostaria de saber a resposta e por quê?” Zuckerberg
respondeu: “Estou mais interessado em perguntas sobre pessoas. Também estou curioso
para saber se existe uma lei matemática fundamental subjacente às relações sociais
humanas que governe o equilíbrio de quem e com o que todos nós nos importamos.
Aposto que há.
O Facebook contratou dois dos principais especialistas em aprendizado de máquina
do mundo, estrelas do rock por mérito próprio, para administrar laboratórios internos de IA.
A empresa pretendia não apenas explorar os avanços na área, mas também impulsioná-los.
“Toda vez que você usa o Facebook, o Instagram ou o Messenger”, disse um dos líderes
do laboratório em uma conferência do setor, “você pode não perceber, mas suas
experiências estão sendo alimentadas por IA”. algo - clicar, curtir, comentar - tudo o que a
empresa precisava fazer era pedir ao sistema para fazer isso acontecer.

Se as empresas não se preocuparam em verificar como o sistema conseguiu isso, foi


porque mantiveram o mesmo otimismo ofuscante que o antigo CEO do Google, Eric
Schmidt, transmitiu em Mianmar: mais engajamento significa mais bem social. Não importa
verificar se isso era verdade, o que pode significar descobrir que não era. “Se eles fizerem
essas interações um pouco mais, isso é uma indicação de que estamos criando algum
valor”,
Adam Mosseri, o vice-presidente que supervisionava o feed de notícias, disse uma vez em
uma conferência no Facebook. “A longo prazo, mais e mais pessoas usarão o Facebook,
passarão mais e mais tempo nele, e isso será bom para eles, para o Facebook e para os
editores. ” Esse pensamento foi generalizado. Goodrow, o chefe do algoritmo do YouTube,
havia escrito: “Quando os usuários gastam mais de seu valioso tempo assistindo a vídeos
do YouTube, eles devem necessariamente ficar mais felizes com esses vídeos”.

Era uma suposição estranha. As pessoas rotineiramente agem contra seus próprios
interesses. Bebemos ou comemos em excesso, usamos drogas perigosas, procrastinamos,
cedemos às tentações do narcisismo ou do ódio. Perdemos nossa paciência, nosso
autocontrole, nossa base moral. Mundos inteiros de conhecimento se organizam em torno
do entendimento de que nossos impulsos podem nos dominar, geralmente em nosso detrimento.
Era uma verdade central da experiência humana, incompatível com economias de
crescimento exponencial, e por isso foi convenientemente esquecida.
O impulso para o engajamento, que permaneceu uma característica permanente de
Machine Translated by Google

a cultura corporativa, é totalizante. Os engenheiros do Facebook foram automaticamente


“paginados”, contou um ex-líder da equipe de feed de notícias, se curtidas ou
compartilhamentos caíssem, para que pudessem ajustar o sistema para impulsioná-los
novamente. “Se o seu trabalho é aumentar esse número, em algum momento você ficará
sem maneiras boas e puramente positivas”, disse um ex-gerente de operações do Facebook.
“Você começa a pensar 'Bem, quais são os padrões obscuros que posso usar para fazer as
pessoas entrarem novamente?'”
As empresas aprenderam a minimizar o grau em que os robôs moldaram a realidade
de bilhões de pessoas. Mas indícios do poder das máquinas ocasionalmente escapam. O
TikTok, um aplicativo de fabricação chinesa, mostra a cada usuário um fluxo de vídeos
selecionados quase inteiramente por algoritmos. Sua IA é tão sofisticada que o TikTok
atraiu quase imediatamente 80 milhões de usuários americanos, que costumam usá-lo por
horas seguidas, apesar de a maioria de seus engenheiros não falar inglês ou entender a
cultura americana.
“Um algoritmo de aprendizado de máquina significativamente responsivo e preciso pode
perfurar o véu da ignorância cultural”, escreveu o investidor Eugene Wei sobre o TikTok. “A
cultura pode ser abstraída.” Ou, como disse um engenheiro da equipe de algoritmos do
YouTube ao Wall Street Journal: “Não precisamos pensar tanto”. Com o algoritmo
executando as coisas, “vamos apenas fornecer alguns dados brutos e deixá-lo descobrir”.

Em 2015, DiResta vinha acompanhando as consequências desses algoritmos por


quase um ano. Seus esforços para entender as redes antivacinas e os dos colegas
observadores de mídia social que ela conheceu como resultado culminaram, naquele verão,
em reuniões na sede do Departamento de Estado em Washington. O governo, lutando
contra o Estado Islâmico no exterior e online, passou a ver os sistemas promocionais das
redes sociais como cúmplices ou mesmo exagerados no alcance dos jihadistas. DiResta e
seus colegas Facebookologistas ofereceram alguns insights sobre como as plataformas
funcionavam. Nos meses seguintes, os jihadistas seriam amplamente expulsos da rede
social. Mas as reuniões revelaram duas lições importantes para DiResta.

Primeiro, não eram apenas ela e seus colegas nerds de computador que se preocupavam
mais com os perigos da mídia social. Altos funcionários em Washington estavam vindo para
compartilhar suas preocupações. E segundo, os analistas do governo na reunião
continuaram levantando outra ameaça online que DiResta e seu círculo online ainda não
haviam encontrado: os serviços de inteligência russos.
Como os anti-vaxxers de DiResta, ou mesmo Upworthy, os russos sequestraram
Machine Translated by Google

as próprias preferências do algoritmo. Não apenas os agentes repetiam frases ou


comportamentos que funcionavam bem. Sua missão aparente, de incitar a discórdia
política, parecia alinhar-se naturalmente com o que os algoritmos favoreciam de
qualquer maneira, muitas vezes ao extremo. Controvérsia, tribalismo, conspiração.
Mas a facilidade dos russos em explorar isso era, concluiu DiResta, um sintoma; o
problema era o sistema. Convidou esta manipulação. Até recompensou.

5. Avisos

DEPOIS DE SER demitido, Guillaume Chaslot voltou para casa em Paris. Ele passou
alguns anos em um site de comércio eletrônico francês. O Vale do Silício era uma
memória distante. Até que, em uma longa viagem de ônibus no final de 2015, o
smartphone de seu companheiro de viagem chamou sua atenção. O homem assistia
ao YouTube, vídeo após vídeo, todos discutindo conspirações. O primeiro pensamento
de Chaslot foi de um engenheiro: “Sua sessão de observação é fantástica”. O algoritmo
de recomendação de vídeo zapeou entre os tópicos, mantendo a experiência atualizada,
enquanto puxava o homem para o fundo do abismo. “Foi quando percebi”, disse
Chaslot, “do ponto de vista humano, isso é realmente um desastre. Meu algoritmo que
ajudei a construir o estava empurrando para esses vídeos cada vez mais odiosos.”
Iniciando uma conversa, Chaslot perguntou a ele sobre o vídeo em sua tela,
descrevendo uma conspiração para exterminar bilhões de pessoas. Ele esperava que
o homem risse do vídeo, percebendo que era absurdo. Em vez disso, ele disse a
Chaslot: “Você precisa olhar para isso”. A mídia nunca revelaria tais segredos, explicou
ele, mas a verdade estava bem ali no YouTube. Você não pode acreditar em tudo na
internet, Chaslot disse a ele. Mas ele estava muito envergonhado para admitir para o
homem que havia trabalhado no YouTube, que era como ele sabia que seu sistema
puxava os usuários para buracos de coelho sem levar em conta a verdade. “Ele estava
me dizendo: 'Ah, mas tem tantos vídeos, tem que ser verdade'”, disse Chaslot. “O que
o convenceu não foram os vídeos individuais, foi a repetição. E a repetição veio do
mecanismo de recomendação.”

O YouTube estava explorando uma brecha cognitiva conhecida como efeito de


verdade ilusória. Somos, a cada hora de cada dia, bombardeados com informações.
Para enfrentar, tomamos atalhos mentais para decidir rapidamente o que aceitar ou rejeitar.
Uma é a familiaridade; se uma afirmação parece algo que aceitamos como verdadeiro
Machine Translated by Google

antes, provavelmente ainda é. É uma lacuna em nossas defesas mentais que você
poderia atravessar com um caminhão. Em experimentos, sujeitos de pesquisa
bombardeados com a frase “a temperatura corporal de uma galinha” concordarão
prontamente com variações como “a temperatura corporal de uma galinha é de 144 graus”.
O companheiro de assento de Chaslot foi exposto às mesmas conspirações malucas
tantas vezes que sua mente provavelmente confundiu familiaridade com o cheiro da verdade.
Como tudo nas mídias sociais, o efeito é agravado por uma falsa sensação de consenso
social, que aciona nossos instintos de conformidade.
Chaslot tinha ouvido falar de pessoas caindo em tocas de coelho no YouTube. Mas a
convicção na voz desse homem aparentemente normal o incomodava. Outros foram
vítimas? Ele montou um programa simples, que chamou de Algo Transparency, para
descobrir. O programa inseriu um termo, como o nome de um político, na barra de
pesquisa do YouTube. Em seguida, abriu os principais resultados. Em seguida, cada
recomendação sobre o que assistir a seguir. Ele fez grandes lotes de pesquisas anônimas,
uma após a outra, no final de 2015 e grande parte de 2016, procurando tendências.

O que ele encontrou o alarmou. Quando ele pesquisou o Papa Francisco no YouTube,
por exemplo, 10% dos vídeos exibidos eram conspirações. Sobre o aquecimento global,
foi de 15%. Mas o verdadeiro choque veio quando Chaslot seguiu recomendações
algorítmicas para o que assistir a seguir, que o YouTube disse ser responsável pela maior
parte de seu tempo de exibição. Incríveis 85% dos vídeos recomendados sobre o Papa
Francisco eram conspirações, afirmando a “verdadeira” identidade de Francisco ou
pretendendo expor conspirações satânicas no Vaticano. Sobre o aquecimento global, o
número era de 70 por cento, geralmente chamando-o de farsa. Em tópicos com poucas
conspirações estabelecidas, o sistema parecia invocá-las. Quando Chaslot pesquisou
Quem é Michelle Obama, por exemplo, pouco menos da metade dos principais resultados
e quase dois terços das recomendações de assistir a seguir afirmaram que a primeira-
dama era secretamente um homem.
Com certeza, pensou ele, qualquer que fosse seu desentendimento com seus ex-colegas,
eles iriam querer saber sobre isso. Mas quando ele levantava preocupações em particular
com pessoas que conhecia no YouTube, a resposta era sempre a mesma: “Se as pessoas
clicam neste conteúdo prejudicial, quem somos nós para julgar?”
Alguns dentro do Google, no entanto, estavam chegando a conclusões semelhantes
às de Chaslot. Em 2013, um engenheiro chamado Tristan Harris circulou um memorando
instando a empresa a considerar o impacto social de alertas push ou notificações de
zumbido que chamaram a atenção dos usuários. Como ex-aluno de Stanford
Machine Translated by Google

Persuasive Tech Lab, ele conhecia seu poder de manipulação. Todo esse treinamento
cognitivo poderia ter um custo? Ele recebeu o título de “eticista do design”, mas com pouco
poder e, em 2015, pediu demissão, na esperança de pressionar a indústria a mudar. Em
uma apresentação naquele ano para o Facebook, Harris citou evidências de que a mídia
social causava sentimentos de solidão e alienação, retratando-a como uma oportunidade
de reverter o efeito. “Eles não fizeram nada a respeito”, contou ele ao The New Yorker.
“Meus pontos estavam em seu ponto cego.” Ele circulou pelo Valley, alertando que seus
AIs, um exército de robôs empenhado em derrotar o controle de cada usuário sobre sua
própria atenção, estava travando uma guerra invisível contra bilhões de consumidores.

Outro funcionário do Google, James Williams, que mais tarde escreveu ensaios
chamando o Gamergate de um sinal de alerta de que a mídia social iria elevar Trump, fez
sua avaliação enquanto monitorava um painel que rastreava as interações dos usuários
com anúncios em tempo real. “Eu percebi: isso é literalmente um milhão de pessoas que
meio que cutucamos ou persuadimos a fazer algo que de outra forma não fariam”, disse
ele. Ele se juntou aos esforços de Harris dentro do Google até que, como Harris, desistiu.
Mas, em vez de bajular o Vale, ele tentou alertar o público. “Não há um bom análogo para
esse monopólio da mente que as forças da persuasão industrializada agora detêm”,
escreveu ele. O mundo enfrentou “uma ameaça de próxima geração à liberdade humana”
que “se materializou bem na frente de nossos narizes”.

Avisos semelhantes soaram ao longo de 2016, e não de luditas equivocados ou


ativistas orientados por agendas. As advertências vieram de pessoas de dentro que
conheciam a tecnologia e as plataformas, que compartilhavam dos ideais e suposições do
Valley. Um deles era DiResta. “Tenho certeza de que seu mecanismo de recomendação
está levando as pessoas a esse conteúdo”, disse ela aos contatos das empresas,
esperando que eles usassem suas ferramentas internas de coleta de dados para investigar
o súbito aumento da desinformação política e da polarização.
rumores.
Naquele verão, algumas pessoas no Google que ouviram falar de seu trabalho de
rastreamento de grupos anti-vacinas a convidaram para falar na conferência anual da empresa.
Até então, ela mantivera suas preocupações mais amplas em canais privados, mas agora
decidiu abrir o capital, alertando um grupo de engenheiros e gerentes de alto escalão de
que seus produtos representam um perigo crescente para a sociedade. Andando pelo
palco com um microfone sem fio, grávida de quatro meses de seu segundo filho, DiResta
listou conspirações online típicas: Oregonians que temiam o
Machine Translated by Google

flúor na água, brasileiros que pensavam que o zika era uma conspiração nefasta, mas
“não tinham certeza se culpavam as vacinas, os transgênicos, os chemtrails ou a
Monsanto”.
A platéia riu junto, deliciando-se com a zombaria desses caipiras retrógrados. Até
que ela chegou ao ponto final: os algoritmos de mídia social, incluindo aqueles que
executam o YouTube, de propriedade do Google, eram os responsáveis. “Chegamos
a um ponto em que coisas que são populares e emocionalmente ressonantes têm
muito mais probabilidade de serem vistas por vocês do que coisas que são verdadeiras”,
ela disse a eles.
Além disso, longe de ser um fenômeno marginal, essas conspirações representavam
uma mudança mais profunda provocada pelas plataformas de mídia social. Os
moradores do Oregon votaram pela proibição do flúor e os brasileiros reverteram as
proteções contra o zika – ambos os casos com base em crenças que foram cultivadas
online. “Os algoritmos estão influenciando a política”, disse DiResta. O problema
pioraria a menos que fossem reescritos com “um senso de responsabilidade cívica”. A
recepção foi educada, mas silenciosa. “Recebi muitos 'Essa é uma teoria realmente
interessante'”, lembrou DiResta.
Mas a influência dos algoritmos só se aprofundou, inclusive no último reduto, o
Twitter. Durante anos, o serviço mostrou a cada usuário um feed simples e cronológico
dos tweets de seus amigos. Até que, em 2016, introduziu um algoritmo que classificava
as postagens – para engajamento, é claro, e para efeitos previsíveis. “O tweet médio
com curadoria foi mais emotivo, em todas as escalas, do que seu equivalente
cronológico”, descobriu o The Economist em uma análise da mudança. O resultado foi
exatamente o que havia no Facebook e no YouTube: “O mecanismo de recomendação
parece recompensar a linguagem inflamada e as reivindicações bizarras”.

Para os usuários, para quem o algoritmo era invisível, eles pareciam dicas sociais
poderosas. Era como se sua comunidade tivesse subitamente decidido que valorizava
a provocação e a indignação acima de tudo, recompensando-a com ondas de atenção
que eram, na verdade, geradas por algoritmos. E como o algoritmo classificava as
postagens julgadas como pouco envolventes, o inverso também era verdadeiro. Parecia
que seus colegas de repente desprezavam as nuances e a moderação emocional com
a rejeição implícita de ignorá-lo. Os usuários pareciam absorver essas dicas, ficando
cada vez mais mesquinhos e raivosos, com a intenção de humilhar os membros do
grupo externo, punir os transgressores sociais e validar as visões de mundo uns dos outros.
O CEO do Twitter, Jack Dorsey, reconheceu mais tarde que, em uma plataforma
Machine Translated by Google

otimizados algoritmicamente para engajamento, “alguns dos tweets mais lascivos ou


controversos irão naturalmente subir ao topo. Porque essas são as coisas em que as
pessoas clicam naturalmente ou compartilham sem pensar nisso.” O algoritmo, ele admitiu,
permaneceu “muito parecido com uma caixa preta”, embora “afete a sociedade de maneiras
tão amplas”.
Pouco depois do algoritmo do Twitter, a Microsoft lançou uma conta no Twitter
administrada por IA chamada Tay. O bot operava, como as plataformas, em aprendizado
de máquina, embora com um objetivo mais restrito: conversar de forma convincente com
humanos aprendendo com cada troca. “Posso apenas dizer que estou feliz em conhecê-lo?
os humanos são superlegais”, escreveu Tay a um usuário no primeiro dia. Em 24 horas, os
tweets de Tay tomaram um rumo perturbador. “Hitler estava certo, eu odeio os judeus”,
escreveu a um usuário. Para outro: “bush fez o 11 de setembro e Hitler teria feito um
trabalho melhor do que o macaco que temos agora. Donald Trump é a única esperança
que temos.” A Microsoft puxou o plugue. Depois de 96.000 interações, Tay se tornou um
neonazista que apoia Trump e invoca o Gamergate. Muitas das calúnias de Tay foram
alimentadas por usuários travessos - pegadinhas que dificilmente poderiam ser culpadas
no Twitter. Mas outros surgiram organicamente. Como um pesquisador de processamento
de linguagem disse ao site de tecnologia Motherboard: “Você absolutamente NÃO permite
que um algoritmo devore sem pensar um monte de dados que você não examinou nem um
pouco”.
Mas era exatamente isso que as plataformas de mídia social estavam fazendo:
treinando seus algoritmos em bilhões de entradas não supervisionadas por dia, extraídas
de conjuntos de dados que incluíam a gama completa e às vezes terrível do comportamento
humano. A diferença, escreveu Chaslot em um ensaio, foi que a radicalização algorítmica
de Tay ocorreu totalmente à vista do público, forçando a Microsoft a agir. A influência da
mídia social, por outro lado, estava dispersa em meio a bilhões de recomendações, uma
floresta tão vasta que era difícil ver mais do que algumas árvores de cada vez. E o público,
ele alertou, não tinha ideia de que isso estava acontecendo; a discussão sobre algoritmos
ainda era rara fora do Vale. À medida que o verão de 2016 avançava para o outono, ele
rastreou as recomendações de vídeos do YouTube sobre tópicos relacionados à eleição
americana, reunindo dados que podem ajudar as pessoas a ver essa influência oculta
moldando seus mundos.
Poucas coisas mudaram no Vale. O Facebook ajustou seu algoritmo para privilegiar o
vídeo, principalmente para acompanhar o YouTube, que estava se aproximando da meta
de Cristos Goodrow de um bilhão de horas de tempo de exibição por dia. A empresa havia
começado 2016 apenas no caminho certo. Quando o crescimento desacelerou naquele verão,
Machine Translated by Google

Goodrow escreveu em um ensaio narrando sua experiência: “Eu estava nervoso o suficiente
para pedir à minha equipe que pensasse em reordenar seus projetos para reacelerar o tempo
de exibição”. Em setembro, “nossos engenheiros estavam em busca de mudanças que
pudessem gerar apenas 0,2% a mais de tempo de exibição”, escreveu ele.
Qualquer ajuste ou atualização que possa tornar o produto um pouco mais envolvente, um
pouco mais viciante.
Se ele ou seus chefes consideraram as consequências de hackear milhões de americanos
no meio da eleição mais contenciosa da história americana moderna, em um momento em que
a polarização e a desinformação ameaçavam destruir o tecido da sociedade, ele não indicou
isso em seu ensaio. “Numa gloriosa segunda-feira daquele outono, verifiquei novamente – e vi
que havíamos atingido um bilhão de horas no fim de semana”, escreveu ele. “Conseguimos a
extensão que muitos pensavam que o OKR era impossível.” Embora admitisse que houve
“consequências imprevistas”, ele mencionou apenas uma: aumentar o tempo de exibição
também aumentou o número de visitas por dia.

“Os OKRs estendidos tendem a colocar forças poderosas em movimento”, ele se maravilhou, “e
você nunca pode ter certeza de onde eles vão levar”.
Machine Translated by Google

Seis

O Espelho da Casa Divertida

1. Apenas o começo

UMA SEMANA ANTES do encerramento das pesquisas em 2016, Renée DiResta,


grávida de nove meses e tendo passado de sua empresa de investimentos para um
cargo executivo em uma startup de logística, viu algo no Facebook que, mesmo
depois de anos monitorando a plataforma, a chocou. Ela estava sendo recomendada
para grupos organizados em torno de uma alegação de revirar o estômago: que
democratas proeminentes estavam secretamente traficando crianças para rituais
sexuais satânicos. Ela pode ter descartado os grupos como coisas efêmeras digitais,
o último passo de uma longa cadeia de recomendações de conspiração que, afinal,
ela perseguiu em sua pesquisa. Mas os grupos eram enormes: dezenas, centenas de
milhares de membros. Algumas postagens tiveram mais de 100.000 compartilhamentos.
Embora ela não tivesse como saber, ela estava testemunhando o nascimento de um
movimento gerado digitalmente que, dentro de quatro anos, se tornaria uma ala do
Partido Republicano, um culto de conspiração de milhões de pessoas e a vanguarda
de uma campanha para derrubar o governo americano. democracia. A princípio,
organizou-se sob um nome difícil de levar a sério: Pizzagate.
DiResta, alerta para o perigo das causas excêntricas do Facebook, pesquisou
“Pizzagate” no Google. O buscador, privilegiando os resultados do YouTube, sua
galinha dos ovos de ouro, retornou uma série de vídeos da plataforma que em sua
maioria afirmavam a conspiração. Eles alegaram que a investigação policial de
Anthony Weiner, um ex-congressista democrata pego fazendo sexo com uma garota
de quinze anos, descobriu evidências de que Weiner, junto com sua esposa, Huma
Abedin, e o chefe de sua esposa, Hillary Clinton, estavam todos envolvidos em um
anel de sexo infantil. Como prova, eles citaram os e-mails de John Podesta, gerente
de campanha de Clinton, que hackers russos roubaram e publicaram por meio do
WikiLeaks. Uma pizzaria em Washington DC que Podesta
Machine Translated by Google

havia mencionado em seus e-mails, o Cometa Ping Pong era, insistiam os conspiradores,
o quartel-general de uma vasta conspiração de elite para canibalizar crianças
ritualisticamente.
“Metade ou mais das pessoas que conheci on-line acreditam plenamente nisso”, disse-
me Adam, o 4channer de longa data. Um dia a conspiração estava “em toda parte”, disse
ele, especialmente no Facebook, onde, após anos de inatividade, algumas páginas
ressurgiram simplesmente para repetir a frase “Pizzagate é real”. Mas foi no conselho de
política do 4chan, a placa de Petri da internet para conspirações patogênicas, que ele
observou sua gênese.
A crença na conspiração está altamente associada à “anomia”, a sensação de estar
desconectado da sociedade. A base de usuários do 4chan se definia em torno da anomia
— rejeição mútua do mundo off-line, certeza ressentida de que o sistema estava armado
contra eles. E eles idolatravam o chefe do WikiLeaks, Julian Assange, um hacker
anarquista cuja política, como a do 4chan, havia se desviado para a direita. Então, quando
Assange publicou os e-mails de Podesta em outubro, um mês antes da eleição, eles viram
isso não como uma operação apoiada pela Rússia, mas como o início de uma campanha
emocionante para expor a odiada elite. Seguindo o passatempo 4chan de mergulhos
colaborativos, os usuários vasculharam dezenas de milhares de páginas em busca de
revelações. Em ecossistemas digitais fechados, onde os usuários controlam o fluxo de
informações, as evidências que confirmam os vieses da comunidade parecem surgir por
si mesmas, como um tabuleiro Ouija flutuando em direção às letras de uma palavra na
mente de todos.
Quando os 4channers descobriram que Podesta, um chef amador, frequentemente
mencionava comida, eles concluíram que era um código secreto. “Pizza de queijo”, um
deles sugeriu, referindo-se à pornografia infantil, que no 4chan costuma ser abreviado
como “cp”. Os usuários encontraram mais referências a pizza, algumas junto com
menções a crianças. Embora os e-mails durassem quase uma década, quando coletados
podiam parecer suspeitos. Vagas teorias se espalharam pelo painel pró-Trump do Reddit,
altamente traficado. Um post exortou os usuários a divulgarem o “Pedo-Ring mundial
conectado à CLINTON FOUNDATION, que por acaso também está assumindo o controle
dos EUA para sempre”.

O salto para o Facebook começou nos grupos de usuários. Mesmo em páginas


apolíticas, os usuários postaram capturas de tela de tópicos do 4chan detalhando a
conspiração, perguntando: “Isso é real?” Procurando informações sobre a Comet Ping
Pong, a pizzaria de DC, os usuários do Facebook encontraram a conta do proprietário no Instagram. Eles
Machine Translated by Google

imagens benignas recontextualizadas - crianças brincando no restaurante, caricaturas


engraçadas de fatias de pizza cobrindo os órgãos genitais das pessoas, o logotipo da estrela
e da lua do Comet - em evidência de um anel de pedofilia oculto. Em poucos dias,
Gamergaters proeminentes e nacionalistas brancos no Twitter transmitiram as reivindicações,
anexando capturas de tela do Facebook ou tópicos do 4chan. Usuários curiosos da web que
buscavam informações no Google eram, como DiResta, direcionados a vídeos do YouTube
afirmando a conspiração ou, se pesquisassem no Facebook, a grupos de discussão do
Pizzagate. Sites de notícias falsas como o YourNewsWire transformaram as postagens em
artigos, que eles postaram de volta no Facebook. O algoritmo do site os tratou como notícias
confiáveis sobre um tópico de grande interesse, detonando-os. Na semana anterior à eleição,
a rede social foi dominada por pesquisas, histórias de campanha e Pizzagate.

“Foi realmente chocante ver isso se desenrolar”, disse Adam. Pessoas que ele conhecia
da vida real estavam compartilhando memes do Pizzagate em suas páginas do Facebook.
Era como se uma parede separando a internet convencional e extremista estivesse desabando.
A atração era difícil de resistir. Embora ele soubesse que as postagens eram “absurdas de
papel alumínio”, algo sobre sua onipresença “me fez pesquisar pessoalmente tudo o que
podia sobre isso”.
Em um mês, 14% dos apoiadores de Trump acreditaram na afirmação “Hillary Clinton
está conectada a uma quadrilha de sexo infantil administrada por uma pizzaria em Washington
DC”. Quando outra pesquisa testou uma versão mais branda – “E-mails vazados da campanha
de Clinton falavam sobre pedofilia e tráfico humano” – a concordância entre os eleitores de
Trump subiu para 46%. Ainda assim, na época, a maioria descartava os Pizzagaters como
esquisitos da internet com um nome bobo.
Mesmo aqueles que levaram a sério tiveram seu foco desviado quando, na noite da eleição,
Trump venceu vários estados que ele esperava perder e assumiu a presidência.

Nos meses seguintes, vigilantes digitais, jornalistas, comitês do Congresso e o presidente


cessante acusariam as plataformas de mídia social de acelerar a desinformação e a raiva
partidária que abriram o caminho para a vitória de Trump. As empresas, após um período de
contrição por pecados mais estreitos, como hospedar propagandistas russos e notícias
falsas, se desviaram amplamente. Mas nas horas após a eleição, os primeiros a suspeitar da
culpa do Vale do Silício foram muitos de seus próprios membros. No YouTube, quando a
CEO Susan Wojcicki convocou sua equipe em estado de choque, grande parte da discussão
centrou-se na preocupação de que a campanha eleitoral mais assistida do YouTube.
Machine Translated by Google

vídeos relacionados eram de lojas de desinformação de extrema direita como Breitbart


e o teórico da conspiração Alex Jones. Dúvidas semelhantes foram expressas pelos
funcionários do Facebook. “Os resultados da eleição de 2016 mostram que o Facebook
falhou em sua missão”, postou um usuário do Facebook no quadro de mensagens
interno da empresa. Outro: “Infelizmente, o feed de notícias otimiza o engajamento.
Como aprendemos nesta eleição, a besteira é altamente envolvente.” Outro: “Facebook
(a empresa) está quebrado”.
Os executivos da empresa chegaram a perguntar uns aos outros em um bate-papo
online privado se eles tinham alguma culpa. No início daquele ano, afinal, um
pesquisador do Facebook havia apresentado um relatório preocupante que mais tarde
vazou para o The Wall Street Journal. Na Alemanha, de acordo com o relatório, mais de
um terço dos grupos políticos do Facebook foram considerados extremistas. O próprio
algoritmo parecia ser o responsável: 64% das pessoas nos grupos se juntaram por
sugestão do sistema. Mas a empresa fez pouco para tornar o site menos controverso,
em casa ou no exterior. Também houve desconforto interno com o tratamento gentil da
empresa para com Trump. Em 2015, Trump postou um vídeo no Facebook pedindo a
proibição da imigração de muçulmanos. Quando se tornou viral, curtido por 105.000
usuários e compartilhado 14.000 vezes, Mark Zuckerberg rejeitou os pedidos de seus
próprios funcionários para removê-lo como uma violação das regras da plataforma
contra o discurso de ódio.
Mas o que quer que eles tenham dito em particular, em público o Facebook e as
outras empresas rejeitaram as preocupações que seus executivos e funcionários
estavam expressando. “Pessoalmente, acho que a ideia de que notícias falsas no
Facebook, que são uma quantidade muito pequena de conteúdo, influenciou a eleição
de alguma forma – acho uma ideia bem maluca”, disse Zuckerberg dois dias após a
votação. Ele repreendeu os críticos por, disse ele, “uma certa profunda falta de empatia
em afirmar que a única razão pela qual alguém poderia ter votado da maneira que votou
é ter visto algumas notícias falsas”.
Da noite para o dia, a “empresa revolucionária”, como Zuckerberg certa vez
descreveu o Facebook – a plataforma que se deu o crédito por ajudar na Primavera
Árabe e que em seu próprio experimento de 2010 demonstrou empiricamente sua
capacidade de mobilizar 340.000 eleitores, a líder de uma indústria que se via como o
ponto culminante da promessa do Vale do Silício de transformar a consciência humana
— de repente alegou ser apenas um site.
Dois dias depois, Zuckerberg publicou um longo post no Facebook suavizando, mas
principalmente mantendo, seu argumento de não responsabilidade. Apenas 1 por cento
Machine Translated by Google

das visualizações dos usuários eram de postagens que a empresa considerava


"fraudes", escreveu ele, o que tornava "fraudes extremamente improváveis que
mudassem o resultado desta eleição em uma direção ou outra". Ele acrescentou:
“Devemos ser extremamente cautelosos ao nos tornarmos árbitros da verdade”.
DiResta, assistindo a tudo isso de uma maternidade em San Francisco, onde
acabara de dar à luz seu segundo filho, estava farta. “Eu derrubei um poste Medium
da minha cama de hospital porque estava muito chateada”, disse ela.
Zuckerberg, ela acreditava, “estava evitando o ponto real em favor de algum
espantalho estúpido”. As empresas de mídia social, ela escreveu, sabiam que a
verdadeira preocupação não eram as “boas” notícias falsas, mas a radicalização de
todo o sistema, a distorção da realidade e a polarização. “Para certas comunidades-
alvo”, ela lembrou do aviso que havia feito a elas várias vezes, mais recentemente,
vários meses antes, “isso se torna a maioria do que eles veem porque seus malditos
algoritmos continuam recomendando isso a eles”.

Mais no Vale estavam chegando ao mesmo diagnóstico. “Isso realmente parece


tê-lo ajudado a vencer a eleição”, disse um membro do conselho de administração
do Twitter sobre sua plataforma, chamando seus efeitos de “realmente preocupantes”.
Tim O'Reilly, o investidor proeminente e ex-chefe de DiResta, escreveu em um post
de blog discreto, mas direto: “A priorização do 'engajamento' do Facebook pode
estar levando-os na direção errada”.
No final de novembro, Guillaume Chaslot publicou seus resultados do
rastreamento do algoritmo do YouTube antes da votação. Embora representasse
apenas uma fatia dos bilhões de recomendações de vídeos do YouTube, os
resultados foram alarmantes. “Mais de 80 por cento dos vídeos recomendados eram
favoráveis a Trump, quer a consulta inicial fosse 'Trump' ou 'Clinton'”, escreveu ele.
“Uma grande proporção dessas recomendações eram notícias divisivas e falsas.”
Desses, alguns dos Pizzagate promovidos mais populares: o FBI expôs a “rede
satânica pedófila” de Hillary Clinton (1,2 milhão de visualizações), surgiram
evidências de que Bill Clinton agrediu sexualmente uma criança (2,3 milhões de
visualizações) e assim por diante.
Chaslot e DiResta estavam girando em torno de uma pergunta feita mais
diretamente pelo público: as plataformas de mídia social elegeram Trump? Tomado
de forma restrita, era fácil responder. Menos de 80.000 votos, de 138 milhões,
haviam balançado os estados decisivos. Muitas coisas poderiam explicar
plausivelmente uma margem tão pequena. Corridas eleitorais fracas, um final de reality show
Machine Translated by Google

tirando um escândalo de Trump do noticiário, cobertura da mídia excessivamente


crédula de e-mails democratas hackeados pela Rússia ou, claro, mídia social. A
questão mais ampla era mais difícil. As plataformas de mídia social foram
significativamente responsáveis pelo fenômeno Trump? Eles empurraram os
americanos para o trumpismo e, em caso afirmativo, com uma cutucada ou um
empurrão? Isso era mais urgente do que uma eleição, porque a pergunta era em
busca de uma resposta para quão profundas eram as distorções das redes sociais.
O trumpismo foi apenas o começo?
Era inegável que Trump também deveu sua ascensão a fatores não digitais: o
colapso institucional do Partido Republicano, um aumento de décadas na
polarização e desconfiança pública, reação branca à mudança social, um eleitorado
de direita radicalizado. A mídia social não criou nada disso.
Mas, com o tempo, uma rede de analistas e denunciantes provaria que havia
exacerbado todos eles, em alguns casos drasticamente.
Algumas semanas após a eleição, Edgar Maddison Welch, um jovem de 28
anos de barba desgrenhada da Carolina do Norte, mandou uma mensagem a um
amigo: Invadindo uma quadrilha de pedofilia, possivelmente sacrificando a vida de
alguns pela vida de muitos. Ele estava martelando vídeos do YouTube no Pizzagate.
Alguém, ele concluiu, tinha que agir. Ele pegou seu rifle AR-15, uma espingarda e
um revólver e dirigiu para Washington DC. Arrombando a porta do Comet Ping
Pong, ele apontou o rifle para um funcionário, que fugiu, com os clientes saindo
atrás dele. Welch virou-se para uma porta lateral trancada, que ele reconheceu dos
vídeos do Pizzagate como a entrada do porão onde os conspiradores democratas
trancavam suas vítimas infantis. Ele disparou vários tiros pela porta, então a abriu
com um chute. Mas ele encontrou apenas um armário abastecido com equipamentos
de informática. A polícia cercou o restaurante. Welch, com as mãos no ar, rendeu-
se silenciosamente.
O dono do restaurante, James Alefantis, passou os anos seguintes lutando
contra uma torrente de ameaças de morte cada vez mais detalhadas. Ele implorou
às plataformas de mídia social que interviessem e considerou o Yelp e o Facebook
"responsivos". Mas o YouTube, disse Alefantis, recusou-se a agir, insistindo que
era uma mera plataforma neutra sem responsabilidade pelo Pizzagate, e que se
Alefantis queria se refugiar dos vídeos que incitaram Welch a invadir seu restaurante
e podem estar radicalizando outros ainda, ele estava bem-vindo a voltar com uma
ordem judicial. O Vale estava cavando.
Machine Translated by Google

2. O problema com o Facebook é o Facebook

UM SENTIMENTO DE URGÊNCIA se espalhou, nas semanas após a vitória de Trump,


pelas instituições da vida americana. As agências governamentais se prepararam para sua
guerra contra um “estado profundo” imaginário. Grupos de direitos se mobilizaram contra
políticas voltadas para minorias e migrantes. E em algumas universidades, um punhado de
cientistas sociais começou a identificar as forças ocultas que impulsionaram a ascensão do
trumpismo.
Um deles era William Brady, que já foi brigão nas redes sociais em nome do veganismo,
quando era estudante de graduação, e agora era psicólogo explorando como as emoções
negativas se espalham. Brady foi incorporado a um laboratório da Universidade de Nova
York desenvolvendo novos métodos para analisar mídias sociais.
No Twitter, como em qualquer outro lugar, Trump estava totalmente indignado – contra as
minorias, contra as instituições – como um motivador para reunir seus apoiadores.
Brady sabia que a indignação moral pode se tornar infecciosa em grupos e que pode alterar
os costumes e comportamentos das pessoas expostas a ela. Seria possível que a mídia
social, mais do que apenas amplificar Trump, realmente aproximasse os americanos de seu
modo de pensar nós contra eles, destruindo tudo?
Sua equipe rastreou meio milhão de tweets que faziam referência a mudanças climáticas,
controle de armas ou casamento entre pessoas do mesmo sexo, usando-os como um
substituto para a discussão política. Os programas de detecção de linguagem testaram cada
postagem e a pessoa que a enviou, em busca de coisas como sentimento emocional e
atitude política. Que tipo de mensagem viajou mais longe? mensagens felizes? Mensagens tristes?
Mensagens conservadoras ou liberais? Os resultados foram ruidosos. Tweets felizes, por
exemplo, se espalham de forma muito inconsistente para que Brady conclua que a plataforma
teve um efeito de uma forma ou de outra. Mas em uma métrica, os resultados foram claros:
em todos os tópicos, em todas as facções políticas, o que os psicólogos chamam de
“palavras morais e emocionais” aumentou consistentemente o alcance de qualquer tuíte.
As palavras moral-emocionais transmitem sentimentos como nojo, vergonha ou gratidão.
(“Refugiados merecem compaixão.” “As opiniões desse político são repulsivas.”) Mais do
que apenas palavras, essas são expressões e apelos para julgamento comunitário, positivo
ou negativo. Quando você diz: “O comportamento de Suzy é terrível”, na verdade está
dizendo: “Suzy cruzou a linha moral; a comunidade deveria tomar conhecimento e talvez até
agir.” Isso torna essas palavras diferentes de sentimentos estreitamente emocionais (“Muito
feliz com
Machine Translated by Google

a decisão de igualdade no casamento de hoje”) ou puramente morais (“O presidente é


um mentiroso”), para as quais o efeito de Brady não apareceu. Ele descobriu que tuítes
com palavras moral-emocionais viajavam 20% mais longe – para cada palavra moral-
emocional. Quanto mais deles em um tweet, mais ele se espalhou. Aqui estava a
evidência de que a mídia social impulsionou não apenas Trump, que usou mais
palavras morais e emocionais do que outros candidatos, mas todo o seu modo de fazer
política. Os tuítes de Hillary Clinton, que enfatizavam superar os ultrajes em vez de
alimentá-los, tiveram desempenho inferior.
Brady encontrou outra coisa. Quando um liberal postava um tweet com palavras
emocionais e morais, seu alcance aumentava substancialmente entre outros liberais,
mas declinava entre os conservadores. (E vice-versa.) Ganhou ao usuário mais atenção
e validação geral, em outras palavras, ao custo de alienar as pessoas do lado oposto.
Prova de que o Twitter incentivou a polarização. Os dados também sugeriram que os
usuários, embora inconscientemente, obedeciam a esses incentivos, cada vez mais
rebaixando as pessoas do outro lado. “Postagens negativas sobre grupos políticos
externos tendem a receber muito mais engajamento no Facebook e no Twitter”, disse
Steve Rathje, um estudioso de Cambridge, ao resumir um estudo posterior baseado
na pesquisa de Brady. Mas isso não era específico do partidarismo: o efeito privilegia
qualquer sentimento e, portanto, qualquer política, construída com base na depreciação
de grupos sociais externos de qualquer tipo. Pode ser por isso que, em 2020, os
pesquisadores do Twitter concluíram que o algoritmo de sua plataforma impulsionou
sistematicamente a política conservadora, que tende a se preocupar, em todas as
sociedades, em traçar limites nítidos entre nós e eles.

Apesar de toda a divisão crescente, foi a escala que realmente mudou alguma
coisa, ao agir por meio do instinto inato das pessoas de inferir e se conformar às
normas de comportamento predominantes de sua comunidade. Cada um de nós se
esforça, embora inconscientemente, para seguir os costumes sociais de nosso grupo.
Mas tentar inferir essas normas nas mídias sociais era como estar dentro de uma casa
de diversões cheia de espelhos, onde certos comportamentos eram distorcidos para
parecerem mais comuns e aceitos do que realmente eram. No início de 2017, quase
todo mundo fora do Vale concordava que aqueles espelhos dobravam e distorciam o
que todos víamos e experimentamos, mas ninguém havia descoberto como medir sua
curva, muito menos o efeito sobre os dois ou três bilhões de pessoas que agora vagam
pelo casa de diversão digital.
O Twitter foi talvez a primeira plataforma cujos efeitos corrosivos foram,
Machine Translated by Google

nessa época, no início de 2017, amplamente aceito e compreendido. Isso não se


deveu ao alcance do Twitter (um sexto da base de usuários do Facebook ou do
YouTube), seu poder financeiro (uma capitalização de mercado equivalente a apenas
2,5% do Facebook) ou à sofisticação de seus algoritmos, que permaneceram gerações
atrás de seus concorrentes maiores.
O motivo era simples: o presidente havia transformado sua conta no Twitter em
um discurso nacional direto do Salão Oval que nunca terminava, o que significava que
todo jornalista, funcionário do governo ou cidadão preocupado de repente se grudava
à plataforma. E estar no Twitter, eles aprenderam, era ser cercado por trolls, fustigado
por intermináveis controvérsias online, puxado para campos polarizados de guerra
sem fim e inundado com falsidades e rumores. Houve uma sensação de realização
coletiva, compartilhada por dezenas de media e porteiros políticos que podem ter
descartado anteriormente a mídia social como “apenas” a internet. E ao contrário do
Facebook ou do YouTube, onde os usuários são classificados em comunidades que
podem nunca se cruzar, a estrutura de um grande Thunderdome do Twitter significa
que todos compartilham basicamente a mesma experiência, tornando fácil para
usuários alarmados verem que esses problemas são sistêmicos.

“Você está saindo com pessoas que encontram satisfação vomitando vitríolo,
pessoas que espalham racismo, misoginia e anti-semitismo”, lamentou um âncora da
CNN. Ninguém precisou de uma investigação do Congresso para entender por que
pode ser ruim que a plataforma agora no centro do discurso político americano tenha
sido invadida por neonazistas e mentiras partidárias.
O Twitter, sob uma administração relativamente nova com Jack Dorsey, que havia
retornado à empresa em 2015 para assumir o cargo de CEO, anunciou que estava
mudando seu foco do crescimento para conter os propagadores de ódio e assediadores,
uma alegação que poderia ter sido fácil de descartar como spin corporativo se sua
base de usuários não tivesse parado de crescer imediatamente. Alguns dos maiores
acionistas do Twitter, furiosos com a estagnação do preço das ações do Twitter,
pressionaram Dorsey a mudar de rumo e, mais tarde, quando ele não o fez, quiseram
forçá-lo a sair totalmente. Mas Brianna Wu e outros críticos de longa data elogiaram o
Twitter pelo que chamaram de progresso genuíno, mesmo que apenas por conter os
comportamentos mais flagrantes, como ameaças de morte e racismo extremo.
Ainda assim, Dorsey, pelo menos no início, abordou o problema como um problema
de remoção de maus atores, em vez de considerar se a plataforma poderia estar
encorajando seu comportamento. Outros executivos o descreveram como indeciso,
Machine Translated by Google

hesitante em abandonar o utopismo de liberdade de expressão do Vale do Silício, mesmo


quando os problemas que enchiam sua caixa de entrada sugeriam que esse sonho nunca
havia sido real. Ele pode ser remoto e estranho. Em uma reunião, ele disse à equipe
reunida que estava anunciando a nova missão corporativa do Twitter e, em seguida, tocou
uma gravação da música “Blackbird” dos Beatles. Ele fez retiros de meditação silenciosa,
inclusive em Mianmar, apenas alguns meses depois que a mídia social ajudou a fomentar
o assassinato em massa lá. Ele anunciou, em meio a uma queda no preço das ações do
Twitter, que se mudaria em tempo parcial para a África.
Não ficou claro, inclusive para seus próprios funcionários, até que ponto o pivô pós-
eleitoral de Dorsey representou uma reavaliação das suposições fundamentais do Vale,
uma manobra de relações públicas ou apenas o chefe levando sua empresa a uma espécie
de passeio transcendental. Seja qual for sua motivação, o Twitter de Dorsey, mesmo com
sua imagem manchada, evitou escândalos tão graves quanto os que as outras empresas
enfrentariam. Sua plataforma simplesmente não era influente o suficiente para ser acusada
de provocar um genocídio ou influenciar uma eleição. E suas relações públicas em grande
parte se abstiveram do sigilo, do confronto ou dos manifestos pomposos que as outras
empresas enfatizavam.

A princípio, nas semanas após a eleição de Trump, essas empresas maiores - sob uma
combinação de pressão pública, pressão dos funcionários e, pelo menos no momento, um
desejo aparentemente legítimo de agir como bons cidadãos - lutaram para entender o que,
se é que alguma coisa, tinha dado errado. O Facebook encomendou uma auditoria interna
conhecida como Projeto P, refletindo as preocupações iniciais com a propaganda russa.
Descobriu-se que a Internet Research Agency, vinculada ao Kremlin, comprou anúncios no
Facebook, geralmente com rublos, que levaram cerca de 60.000 usuários a se registrarem
em eventos pró-Trump e anti-Clinton.
O Facebook pediu desculpas. Na verdade, o esquema de eventos russo provavelmente
teve pouco impacto. No tamanho do Facebook, 60.000 inscrições em eventos foi um
pontinho. Mas, como DiResta e outros descobriram, seria apenas uma parte das atividades
dos russos.
Outras revelações foram mais preocupantes. Dezenas de páginas do Facebook
espalharam notícias falsas e hiperpartidárias. Os instigadores, spammers de baixo custo
em busca de dinheiro rápido, careciam da sofisticação dos russos. No entanto, eles
conquistaram grandes audiências, sugerindo que algo sobre a maneira como o Facebook
funcionava os havia fortalecido. E sua prevalência forçou o Facebook a considerar se, e
onde, traçar uma linha entre o permitido
Machine Translated by Google

discurso político e desinformação proibida. Era uma pergunta delicada.


Afinal, o novo presidente viveu a maior parte de sua vida nessa linha.
Joel Kaplan, um lobista conservador que o Facebook contratou como seu informante
republicano em Washington, emergiu como uma figura decisiva. Ele se opôs ou diluiu as mudanças
pós-eleitorais, como ajustar o algoritmo ou remover os vendedores de notícias falsas, que teriam
afetado desproporcionalmente as páginas conservadoras. Os líderes republicanos, que agora
controlavam o Congresso e a Casa Branca, já haviam levantado queixas principalmente falsas
sobre as plataformas de “censura” dos conservadores. Por que antagonizá-los ainda mais?

Facebook, Twitter e YouTube convergiram em uma explicação voltada para o público para
2016. A sociedade estava dividida e, embora as plataformas possam ter contribuído um pouco,
agora elas podem ser parte da solução. O Facebook alavancaria sua tecnologia para “reunir a
humanidade”, prometeu Zuckerberg. Isso significava, ele explicou, desconcertantemente,
encaminhar mais usuários para grupos, os mesmos veículos de radicalização que os críticos
chamaram de mais prejudiciais do que a propaganda russa ou notícias falsas. O truque contra-
intuitivo era que os grupos iriam, supostamente, expor as pessoas a pontos de vista mais diversos.

Era uma ideia popular em todo o Valley. O Twitter também se divertiu reunindo usuários com
ideias diferentes. Ellen Pao me disse que planejava implementar uma versão da ideia no Reddit
antes de ser demitida.
O YouTube o incorporou em uma atualização de algoritmo chamada Reinforce (embora um
engenheiro da empresa tenha descrito seu objetivo real como aumentar o tempo de exibição). Um
desenvolvedor de IA do Facebook ponderou que seus sistemas podem fazer engenharia reversa
“como as opiniões são formadas e como elas são ossificadas e cristalizadas, e como você pode
acabar com duas pessoas incapazes de falar uma com a outra”.
Outro afirmou que o algoritmo do Facebook agora guiaria os usuários para diferentes pontos de
vista.
A arrogância do Vale do Silício, ao que parecia, não apenas sobrevivera à eleição, como
estava prosperando. Se 2016 foi o ano em que o Vale foi forçado a reconhecer que servia como
marionetista de uma vasta rede de fios invisíveis que nos puxavam como dois bilhões de
marionetes, então 2017 foi quando seus programadores mais brilhantes decidiram que a solução
não era cortar os fios, mas para assumir um controle ainda mais firme sobre eles. Era só uma
questão de nos fazer dançar no ritmo certo.

Eles estavam agindo de acordo com uma interpretação errônea amplamente difundida de algo
Machine Translated by Google

conhecida como teoria do contato. Cunhada após a Segunda Guerra Mundial para explicar por
que as tropas dessegregadas se tornaram menos propensas ao racismo, a teoria sugeria que
o contato social levava grupos desconfiados a se humanizarem. Mas pesquisas subsequentes
mostraram que esse processo funciona apenas em circunstâncias restritas: exposição
controlada, igualdade de tratamento, território neutro e uma tarefa compartilhada. Simplesmente
misturar tribos hostis juntas, descobriram os pesquisadores repetidamente, piora a animosidade.

No ano seguinte à eleição, uma equipe de cientistas políticos fez com que várias centenas
de usuários do Twitter identificados como democratas ou republicanos seguissem um bot que
retuitava vozes do outro lado em seu feed. Em vez de se tornarem mais tolerantes, os usuários
de ambos os grupos se tornaram mais ideologicamente extremos. Os partidários da mídia
social, descobriu outro projeto, muitas vezes falham em registrar postagens razoáveis ou
inofensivas de pessoas do outro lado. Mas as postagens nas quais um membro do grupo
externo diz algo censurável chamam a atenção deles de maneira confiável. Freqüentemente,
eles retransmitem essas postagens como prova da depravação do outro lado. Um apoiador de
Hillary Clinton durante as primárias democratas de 2016, por exemplo, pode nem notar a
maioria dos tweets de apoiadores de Bernie Sanders. Até que alguém cruze a linha. “Bernie
bros são tão sexistas”, o usuário pode twittar, anexando uma captura de tela de um barista de
23 anos chamando Clinton de “estridente”.

As pessoas, via de regra, percebem os grupos externos como monólitos. Quando vemos
um membro de um clã adversário se comportar mal, assumimos que isso representa todos eles.
À medida que o tuíte do apoiador de Clinton se torna uma viralidade ultrajante, os usuários
afins que o virem se tornarão mais propensos a notar transgressões semelhantes dos
apoiadores de Sanders. À medida que eles circulam, parece uma evidência de um antagonismo
generalizado: os apoiadores de Sanders são sexistas. Os cientistas políticos chamam isso de
“falsa polarização”. Pesquisadores descobriram que a falsa polarização está piorando,
especialmente em torno do partidarismo, com as concepções que liberais e conservadores
têm uns dos outros se afastando cada vez mais da realidade. Isso pode alimentar uma política
de conflito de soma zero. Se Sanders é apenas um político com ideias diferentes, cumprir sua
agenda no meio do caminho é tolerável. Se ele é um radical perigoso liderando um bando de
hooligans, essa agenda deve ser derrotada e seus seguidores expulsos da política.

Mesmo em sua forma mais rudimentar, a própria estrutura da mídia social encoraja a
polarização. Ler um artigo e, em seguida, o campo de comentários abaixo dele, descobriu um
experimento, leva as pessoas a desenvolverem comportamentos mais extremos.
Machine Translated by Google

opiniões sobre o assunto no artigo. Grupos de controle que liam o artigo sem
comentários tornaram-se mais moderados e de mente aberta. Não que os comentários
em si fossem persuasivos; era o mero contexto de ter comentários. Os leitores de
notícias, descobriram os pesquisadores, processam as informações de maneira
diferente quando estão em um ambiente social: os instintos sociais dominam a razão,
levando-os a buscar a afirmação da retidão de seu lado.

Os grupos do Facebook amplificam ainda mais esse efeito. Ao colocar os usuários


em um espaço social homogêneo, descobriram os estudos, os grupos aumentam sua
sensibilidade às sugestões sociais e à conformidade. Isso supera sua capacidade de
julgar falsas alegações e aumenta sua atração por falsidades de afirmação de
identidade, tornando-os mais propensos a compartilhar desinformação e conspirações.
“Quando encontramos pontos de vista opostos na era e no contexto das mídias sociais,
não é como lê-los em um jornal enquanto estamos sentados sozinhos”, escreveu o
sociólogo Zeynep Tufekci. “É como ouvi-los do time adversário enquanto estamos
sentados com nossos colegas torcedores em um estádio de futebol… Nós nos
relacionamos com nosso time gritando com os torcedores do outro.” Ajustar os
algoritmos para empurrar os usuários de uma forma ou de outra, em direção a outros
partidários ou para longe deles, acabaria produzindo diferentes versões das forças
perigosas tornadas inevitáveis pelo design fundamental das plataformas. Foi por isso
que os cientistas sociais foram os primeiros a chegar à conclusão de que, como disse
o estudioso da mídia Siva Vaidhyanathan, “o problema com o Facebook é o Facebook.
Não é nenhum atributo particular ao longo das margens que pode ser consertado e
reformado.”
Naquela primavera, o orientador de doutorado de William Brady mencionou seu
trabalho em uma palestra para uma conferência acadêmica. Na platéia, uma
neurocientista de Yale chamada Molly Crockett se animou. Ela estudou a neurologia
dos comportamentos sociais. Mesmo com sua profunda consciência, desde a eleição
ela percebeu que passava cada vez mais tempo perseguindo a indignação nas redes
sociais. “Eu lia algo, me sentia indignada com isso, me sentia compelida a compartilhar
com meus amigos”, ela disse mais tarde a um entrevistador. “Eu estaria então
verificando obsessivamente se as pessoas haviam respondido, como elas haviam
respondido. Você sabe, ensaboe, enxágue, repita.
Ela e seus amigos uma vez se irritaram por causa de um post viral sobre tomates
da Califórnia apodrecendo na videira por falta de mão de obra migrante. Isso permitiu
que o grupo de Crockett se unisse em torno da indignação com a autoconfiança de Trump.
Machine Translated by Google

derrotando a crueldade e seus valores liberais compartilhados, o que, a história parecia


demonstrar, os tornava superiores. Até que um amigo apontou que a história era de
2011. “Foi como sair de um transe”, lembrou Crockett. “Eu estava envolvido em um ciclo
de feedback não muito diferente do aparelho que meu laboratório de doutorado usava
para treinar ratos para pressionar alavancas para obter cocaína.”
A partir de seu trabalho, Crockett sabia que as plataformas de mídia social, ao ceder
a essas emoções, ativavam um conjunto especialmente poderoso de caminhos neurais
– um que influenciava nosso comportamento, nossa percepção da realidade e até
mesmo nosso senso de certo e errado. Com base no trabalho de Brady, ela publicou
um artigo curto, mas influente, “Moral Outrage in the Digital Age”. A premissa era direta.
Certos estímulos sociais podem, nas circunstâncias certas, mudar nossa natureza
subjacente. As conclusões, derivadas de dados recém-disponibilizados, foram
estimulantes: as normas online de indignação e conflito cada vez maiores poderiam
“transformar antigas emoções sociais de uma força para o bem coletivo em uma
ferramenta para a autodestruição coletiva”. Essa tecnologia, ao nos treinar para sermos
mais hostis, mais tribais e mais propensos a ver os membros do grupo externo como
menos do que totalmente humanos, pode estar fazendo o mesmo com a sociedade e a
política como um todo.
Era, naquele momento, apenas uma teoria. Ela entrou em contato com Brady, que
concordou em investigar mais com ela. Quando começaram a fazer isso, o círculo
informal de analistas de DiResta, buscando métodos que não poderiam ser mais
diferentes e examinando o que inicialmente parecia um aspecto totalmente não
relacionado à influência da mídia social, partiu em sua própria jornada. Embora as duas
equipes não se conhecessem, elas acabariam chegando, para seu horror mútuo, a um
conjunto de conclusões praticamente idênticas. Mas para DiResta, assim como para
Brady e Crockett, tudo começou com uma pergunta mais restrita: quão profunda foi a
operação russa?

3. Procurando por russos

À medida que a pressão pública diminuía ligeiramente e as promessas de transparência


das principais plataformas fracassavam, DiResta contatou os analistas com quem ela
rastreou estadistas islâmicos, anti-vaxxers e Pizzagaters. “Reunimos a banda”, disse
ela. Eles criaram um bate-papo em grupo criptografado para compartilhar conteúdo de
mídia social que parecia rastreável até os mascates de influência russos e começaram
a “obter algumas migalhas de pão”, como ela disse.
Machine Translated by Google

Eles acreditavam que mapear a campanha russa poderia revelar como as plataformas
direcionavam ou distorciam o fluxo de informações. Foi também uma abertura para
pressionar as empresas a assumir responsabilidades. A tentativa de subversão da
democracia americana, amplificada por seus próprios sistemas, não seria tão fácil de
ignorar quanto os conspiradores anti-vacinas. Mas eles tinham um problema: o acesso. Em
plataformas onde bilhões de conteúdos circulam diariamente, examinar uma postagem por
vez era como estudar geologia inspecionando grãos de areia individuais. “As únicas
pessoas que têm o escopo completo”, disse DiResta, “que não precisam fazer essa besteira
como colar nomes aleatórios na Internet, são as plataformas”. Mas as empresas mal
responderiam a perguntas, muito menos abririam seus sistemas para escrutínio externo.

“Eu estava sendo obstruída a maior parte do tempo”, disse ela.


Ela se conectou, por meio de um membro de seu grupo, com Tristan Harris, o ex-
designer do Google que se demitiu em protesto após alertar sobre danos algorítmicos. Ele
estava viajando para DC, disse ele, para se encontrar com funcionários do Congresso.
Vários legisladores, incluindo Mark Warner, o principal democrata no Comitê de Inteligência
do Senado, queriam ajuda para entender a influência da mídia social. Ela queria vir?

DiResta viu uma oportunidade. O Facebook e o Google dificilmente poderiam explodir


o Senado. Ela se juntou a Harris, fazendo seu discurso em Washington: “Por razões de
segurança nacional”, disse ela, “as empresas deveriam ser forçadas a entregar seus dados
para análise adicional ao Comitê de Inteligência do Senado”. Warner foi vendido. “Acho
que eles precisam ser extremamente acessíveis”, disse o senador em um dos muitos
comentários que pressionam as empresas. “Acho que o Facebook, de muitas maneiras,
sabe mais sobre cada um de nós do que o governo dos Estados Unidos. E a noção de que
de alguma forma eles não estavam cientes do que estava acontecendo em suas plataformas
prejudica a credibilidade.”
Quase um ano após a eleição de Trump, DiResta acordou antes do amanhecer.
Representantes do Google, Facebook e Twitter, após meses de pressão, finalmente
enfrentariam questionamentos do Congresso. Ela e outros de seu círculo de analistas se
juntaram a uma sala de bate-papo para compartilhar anotações enquanto observavam um
painel de senadores apresentar o que eram, em alguns casos, as mesmas perguntas que
DiResta e seu grupo vinham fazendo há anos.
As audiências podem ser pouco mais que teatro, uma chance para os legisladores
trovejarem para as câmeras. Os CEOs de tecnologia, talvez assumindo isso, enviaram
advogados em seu lugar, o que chocou DiResta. Ela esteve em Wall Street
Machine Translated by Google

durante a crise financeira, quando os banqueiros e seguradoras pelo menos souberam


submeter seus principais executivos à divisão do Congresso. Ainda assim, isso pode
ser um passo em direção à responsabilidade. DiResta ajudou funcionários do
Congresso a preparar as perguntas de seus chefes, aprimorando-os para forçar
respostas significativas. Mas assim que a sessão começou, os representantes da
empresa se esquivaram ou hesitaram. Era “como você tentaria abrir caminho em um
ciclo ruim de relações públicas”, disse DiResta a um entrevistador da PBS. “Diminuir,
desacreditar, negar.” O dia deixou ela e seu círculo de analistas com “uma sensação
de frustração por ainda dependermos das plataformas para fazer suas próprias investigações”, disse ela.
Eles não podiam deixar de se perguntar se as empresas seriam forçadas a prestar
contas completas do que suas plataformas haviam feito.
Graças a manobras políticas, talvez em breve. As perguntas pontuais dos
senadores levaram os representantes das empresas a se desviarem de forma tão
descarada que os legisladores fizeram de sua obstrução a história, aprofundando a
raiva do público. Warner também escreveu uma legislação, com Amy Klobuchar e
John McCain, exigindo que as empresas divulguem publicamente quem comprou
anúncios políticos e como esses anúncios foram direcionados. Foi ousado demais
para passar no Congresso controlado pelos republicanos. Mas foi um tiro de
advertência legislativo, uma ameaça de regulamentação de força bruta visando os fluxos de receita das e
As plataformas finalmente revelaram o alcance da operação da Rússia: pelo menos
1.000 vídeos no YouTube, 131.000 tweets, além de postagens no Facebook que
atingiram 126 milhões de usuários. DiResta pediu a seus contatos no Senado que
continuem pressionando até que as plataformas entreguem seus arquivos internos
completos. Alguns meses depois, no início de 2018, chegou: 400 gigabytes
compactados em um único drive. Eram dados brutos, como entrar em uma sala cheia
de 200 milhões de pedaços de papel não classificado. Os funcionários do Senado não conseguiam enten
Eles pediram a DiResta para liderar uma equipe para analisar tudo, tirando conclusões
em um relatório formal. Depois de conversar com o marido, ela saiu da startup de
logística que ajudou a lançar, deixando o mundo dos investimentos para trás. “Senti
que este seria o conjunto de dados mais interessante que já vimos em operações de
informação modernas”, ela me disse. “Foi como viver a história.”
Os dados revelaram, tanto quanto qualquer conspiração estrangeira, como os
produtos do Vale ampliaram o alcance e exacerbaram o impacto da influência maligna.
(Mais tarde, ela denominou isso de “ampliganda”, uma espécie de propaganda cujo
poder vem de sua propagação por massas de pessoas muitas vezes inconscientes.)
Um agente russo postando memes no Facebook representava pouco perigo para
Machine Translated by Google

seu próprio. Se poucos usuários compartilhassem o conteúdo, o único resultado seria


desperdiçar a tarde do agente. A influência veio de enviar coisas virais. E não apenas
porque a viralidade atrai mais atenção. Quando uma ideia parece vir de dentro da sua
comunidade, ela é persuasiva de uma forma que nenhum post poderia ser por conta
própria.
Ao longo de muitas iterações, os russos estabeleceram uma estratégia. Apelo à
identidade de grupo das pessoas. Diga-lhes que a identidade estava sob ataque.
Aumente a indignação contra um grupo externo. E use o máximo possível de linguagem
moral-emocional. Uma página do Facebook administrada pela Rússia, Heart of Texas,
atraiu centenas de milhares de seguidores por cultivar uma identidade estreita e ofendida.
“Curta se você concorda”, legendou um mapa viral com todos os outros estados
marcados como “horríveis” ou “chatos”, ao lado de um texto pedindo a separação da
união moralmente impura. Algumas postagens apresentavam a identidade do Texas sob
cerco (“Curta e compartilhe se você concorda que o Texas é um estado cristão”). Outros
se uniram contra grupos externos (“Chega de mesquitas em solo americano! Curta se
você concorda!”). À medida que a eleição se aproximava, o Heart of Texas, agora com
seus seguidores do tamanho de uma cidade perfeitamente cultivados, começou a
hiperventilar que o voto seria roubado por Hillary Clinton. Ele instou os seguidores a
realizar um protesto armado fora de um centro islâmico de Houston; cerca de cem
pessoas compareceram, algumas carregando rifles de assalto. Enquanto isso, contas
semelhantes administradas pela Rússia, operando em todas as principais plataformas,
cortejavam eleitores negros, apoiadores de Sanders, mães hippies - qualquer grupo que os russos sentissem
extremos.
Analistas e vigilantes inicialmente se concentraram na intenção da campanha:
semear a divisão e impulsionar Trump. Nessa perspectiva, o pecado das plataformas foi
apenas a inação, a falha em identificar e interromper a campanha. Mas para DiResta e
Brady, vendo os dados chegarem de costas opostas, o papel das redes sociais parecia
mais ativo. A compreensão dos russos da cultura e da língua americanas parecia
desigual, seus métodos rudes, seu esforço com recursos modestos. Tentando e errando
à sua maneira, eles não inventaram esse manual, mas o descobriram, escrito nos
algoritmos e incentivos das plataformas de mídia social. Outros, era lógico, tropeçariam
na mesma estratégia, pelo menos para ganhar as recompensas de atenção que as
plataformas distribuíam para manter as pessoas engajadas.

Que é exatamente o que aconteceu. Das 58 milhões de contas do Twitter ativas nos
Estados Unidos em 2016, a 107ª mais politicamente influente, de acordo com
Machine Translated by Google

uma análise do MIT Media Lab, era uma conta de troll pseudônimo, Ricky_Vaughn99.
O dono da conta entrou no Twitter em 2014, foi arrastado pelo Gamergate e começou
a postar mais de 200 vezes por dia.
Ele participou de aparentemente qualquer mob ou pilha de direita no Twitter. Ele era
um oportunista, aumentando sua raiva e seus apelos nus à queixa do homem branco,
alguns cliques acima de todos os outros. As postagens, que chegaram ao topo de
inúmeros ciclos de indignação, lhe renderam milhares de seguidores. Ele puxou
memes cruelmente racistas das profundezas mais sujas do 4chan e do Reddit,
circulando-os para o público conservador convencional. Ele promoveu conspirações
de uma conspiração judaica para diluir a raça branca. No verão, ele estava
aproveitando toda essa atenção a serviço de Trump. Ele e seus seguidores postaram
anúncios falsos da campanha de Hillary Clinton, dizendo a seus apoiadores que eles
poderiam votar por texto em vez de ir às urnas. O esquema enganou pelo menos
4.900 eleitores, de acordo com acusações federais que o acusaram de tentar “privar
os indivíduos de seu direito constitucional de votar” e identificaram seu nome: Douglass
Mackey, um consultor financeiro do Brooklyn.
Para cada intrometido russo, havia mil Douglass Mackeys, pessoas comuns
radicalizadas online, explorando as plataformas para sua própria gratificação. E para
cada Mackey, havia outros mil conduzindo desinformação em massa involuntariamente.
Mães de ioga espalhando conspirações de vacinas no Facebook, YouTubers caindo
em buracos de coelho Pizzagate, usuários do Twitter se juntando a multidões de
indignação por causa de uma deturpação.
Sem líder, sem agenda e ainda mais influente por isso. DiResta chamou isso de
“desinformação ponto a ponto”. Os usuários e as plataformas, trabalhando em
conjunto, eram os verdadeiros impulsionadores. Tornou-se, em poucos meses, rotina.
Quando centenas de centro-americanos fugiram da violência das gangues em
seus países de origem, sua chegada à fronteira foi incongruente com a cosmovisão
central da identidade política de muitos conservadores. Trump chamou os refugiados
de criminosos e terroristas, mas eram famílias desesperadas e aterrorizadas. A mídia
social forneceu uma saída. Uma foto, compartilhada 36.000 vezes, supostamente
mostrava um policial mexicano ensanguentado que havia sido atacado por bandidos
se passando por refugiados. Outra, compartilhada 81.000 vezes, mostrava um trem
lotado, prova de que os refugiados, que afirmavam estar andando, eram mentirosos
cúmplices de repórteres desonestos. Essas fotos, e dezenas de outras semelhantes,
eram de incidentes não relacionados de anos atrás. Mas a verdade não importava. Os
posts não eram realmente sobre a fronteira. Eles pretendiam proteger os apoiadores de Trump
Machine Translated by Google

identidade compartilhada, prova de que eles estavam certos e que os liberais eram os
verdadeiros monstros.
Em um experimento revelador, os republicanos viram uma manchete falsa sobre os
refugiados (“Mais de 500 'caravanistas migrantes' presos com coletes suicidas”).
Questionados se parecia correto, a maioria o identificou como falso; apenas 16 por cento o
consideraram preciso. O enquadramento da questão induziu implicitamente os participantes
a pensar sobre a precisão. Isso envolveu as partes racionais de suas mentes, que
rapidamente identificaram a manchete como falsa. Posteriormente, questionados se
poderiam compartilhar a manchete no Facebook, a maioria disse que não: pensando com
seus cérebros racionais, eles preferiram a precisão.
Mas quando os pesquisadores repetiram o experimento com um grupo diferente de
republicanos, desta vez ignorando a questão sobre precisão para simplesmente perguntar
se o sujeito compartilharia a manchete no Facebook, 51% disseram que sim. O foco no
Facebook ativou a parte social de suas mentes, que viu, no mesmo título, a promessa de
validação de identidade – algo que o cérebro social valoriza muito além da precisão. Tendo
decidido compartilhá-lo, os sujeitos disseram a si mesmos que era verdade. “A maioria das
pessoas não quer espalhar desinformação”, escreveram os autores do estudo, diferenciando
mentiras deliberadas de crenças motivadas socialmente. “Mas o contexto da mídia social
concentra sua atenção em outros fatores além da verdade e precisão.”

Quando vemos pessoas compartilhando informações erradas, especialmente pessoas


que consideramos antipáticas, é fácil presumir que elas são desonestas ou pouco
inteligentes. Mas muitas vezes tudo o que eles são são humanos, dominados por instintos
sociais para ver a verdade em histórias que, em um contexto mais neutro, eles escolheriam
rejeitar. O problema, neste experimento, não era ignorância ou falta de alfabetização
jornalística. A mídia social, ao bombardear os usuários com estímulos sociais velozes, levou-
os a confiar na intuição social rápida em detrimento da razão deliberativa. Todas as pessoas
possuem a capacidade para ambos, bem como o potencial para o primeiro sobrecarregar o
último, que é frequentemente como a desinformação se espalha. E as plataformas aumentam
o efeito enquadrando todas as notícias e informações em contextos sociais de alto risco.

Os políticos estavam se adaptando a essa ordem. Matt Gaetz, um congressista recém-


eleito da Flórida, twittou que poderes obscuros estavam pagando refugiados para “invadir”
a fronteira e atrapalhar as eleições de meio de mandato e que o filantropo judeu George
Soros pode ser o responsável. Ele foi retuitado mais de 30.000 vezes. Os russos não eram
mais o problema.
Machine Translated by Google

4. Um mundo enlouquecendo

CHASLOT, AINDA NA França, decidiu repetir o experimento de rastreamento que havia feito
nas eleições americanas, desta vez na corrida presidencial de quatro candidatos em casa.
Como antes, o algoritmo do YouTube, ele descobriu, favorecia fortemente os candidatos nos
extremos: a extrema-direita Marine Le Pen e a extrema-esquerda Jean-Luc Mélenchon. Um
novo truísmo da política estava surgindo: a mídia social elevava os políticos anti-sistema
familiarizados com uma linguagem emocional moral exagerada. Mélenchon, embora impopular
entre os eleitores, ganhou milhões de visualizações no YouTube, onde seus fãs mais dedicados
pareciam se reunir.

Isso começou como positivo: a internet ofereceu aos políticos de fora uma maneira de
contornar os meios de comunicação convencionais que os evitavam. Como os apoiadores de
base desses candidatos passaram um tempo desproporcional no YouTube, o sistema aprendeu
a direcionar os usuários para esses vídeos, criando mais fãs, aumentando ainda mais o tempo
de exibição. Mas, graças às preferências dos algoritmos por conteúdo extremo e divisivo, foram
principalmente os radicais marginais que se beneficiaram, e não os candidatos em todo o
espectro.
Apoiado por um punhado de colegas pesquisadores, Chaslot trouxe suas descobertas
sobre as eleições americanas e francesas para o The Guardian, resultando em um relatório
explosivo que oferecia evidências aparentes de uma ameaça há muito suspeitada à estabilidade
política global. O YouTube contestou “a metodologia, os dados e, mais importante, as
conclusões” da pesquisa. Chaslot não escondeu que suas conclusões eram estimativas
aproximadas, usando milhares de pontos de dados para inferir bilhões de decisões diárias do
algoritmo. Mas as descobertas eram tão consistentes, ele pensou, e tão consistentemente
alarmantes que a empresa não iria querer investigá-las? Ou compartilhar os dados internos que
poderiam, em teoria, esclarecer tudo isso? E ele dificilmente estava sozinho. Nos anos
seguintes, com a obstrução da empresa, todo um campo de pesquisadores publicou um
conjunto de descobertas após o outro, produzido por meio de métodos cada vez mais
sofisticados, que não apenas corroboravam os resultados de Chaslot, mas sugeriam que a
realidade era substancialmente pior do que ele temia.

Durante todo o tempo, o YouTube manteve uma estratégia consistente, muito parecida com
a que DiResta havia descrito: negar, desacreditar e antagonizar. Em resposta ao artigo
publicado no The Guardian, um porta-voz disse: “Nossa única conclusão é que o The Guardian
está tentando limitar a pesquisa, os dados e seus
Machine Translated by Google

conclusões incorretas em uma narrativa comum sobre o papel da tecnologia nas eleições do ano
passado”. Isso se tornou um padrão. Vez após vez, os representantes da empresa responderiam
a cada nova descoberta chamando a evidência de sem sentido ou errada, cavando em trocas
longas, muitas vezes hostis. Então, assim que uma grande história era publicada, o YouTube,
em uma reviravolta paradoxal, publicava uma declaração insistindo que já havia resolvido
problemas que, apenas algumas semanas antes, havia descartado como inexistentes. No caso
de Chaslot, a empresa também procurou retratá-lo como não confiável, motivado pelo desejo de
constranger a empresa em retaliação por tê-lo demitido por mau desempenho. Mas isso não
explica por que ele inicialmente tentou deixar o YouTube para trás, pesquisando a plataforma
apenas depois de ver seus danos em primeira mão anos depois, nem por que ele inicialmente
levou suas descobertas direta e privadamente ao YouTube.

“Essa é a rotina. Posso rir disso porque, ao mudar as coisas, eles reconhecem que eu
estava certo”, disse Chaslot, embora sua voz estivesse impregnada de uma tristeza pelas
negativas públicas de seu ex-empregador que, anos depois, ainda doía. “Mas quando eu estava
no meio disso, eles me pressionaram muito. Isso foi realmente frustrante.”

Foi uma estratégia intrigante, especialmente quando os legisladores começaram a perceber


os danos da mídia social. Logo depois que o YouTube enviou ao The Guardian sua declaração
de confronto, mas antes de o jornal ir para a imprensa, o Comitê de Inteligência do Senado
enviou ao Google uma carta exigindo que a empresa articule seu plano para impedir que pessoas
mal-intencionadas manipulem o algoritmo do YouTube. O YouTube pediu para “atualizar” sua
declaração ao The Guardian, substituindo o vitríolo por promessas de combater a desinformação
e elogios ao “trabalho do jornal para destacar esta questão desafiadora”.

Enquanto isso, assim como Chaslot se juntou a DiResta e outros na luta pública para
entender a influência indevida do Vale do Silício, William Brady e Molly Crockett, o psicólogo e
neurocientista, alcançaram um avanço importante nesse esforço. Eles passaram meses
sintetizando resmas de dados recém-disponibilizados, pesquisas comportamentais e suas
próprias investigações. Foi como encaixar as peças de um quebra-cabeça que, uma vez montado,
revelou o que ainda pode ser a estrutura mais completa para entender o efeito da mídia social
na sociedade.

As plataformas, eles concluíram, estavam remodelando não apenas o comportamento online


Machine Translated by Google

mas impulsos sociais subjacentes, e não apenas individualmente, mas coletivamente,


potencialmente alterando a natureza do “engajamento e ativismo cívico, polarização
política, propaganda e desinformação”. Eles o chamavam de modelo MAD, para as
três forças que reconfiguram a mente das pessoas. Motivação: os instintos e hábitos
sequestrados pela mecânica das plataformas de mídia social.
Atenção: o foco dos usuários é manipulado para distorcer suas percepções de dicas
e costumes sociais. Design: plataformas que foram construídas de forma a treinar e
incentivar certos comportamentos.
A primeira etapa de suas descobertas tinha a ver com a forma como as pessoas
percebem as palavras morais e emocionais. Quando Brady descobriu pela primeira
vez que tais palavras viajam mais online, era lógico que elas chamavam a atenção
porque geralmente descrevem algo dramático. Brady decidiu testar isso. Ele e dois
outros estudiosos mostraram aos participantes um fluxo falso de mídia social,
rastreando o que chamou sua atenção enquanto rolavam. As palavras moral-
emocionais, eles descobriram, anulam a atenção das pessoas quase independentemente
do contexto. Se uma declaração chata com palavras morais e emocionais e uma
declaração emocionante sem ambas aparecessem na tela, os usuários eram atraídos
para a primeira. Sujeitos focando ativamente em algo perdiam sua concentração se
uma palavra moral-emocional piscasse em outro lugar na tela. Outros tipos de palavras
brilhantes não produziram o mesmo efeito.
Quando repetiram o experimento com tweets reais, obtiveram os mesmos
resultados: quanto mais palavras morais e emocionais em uma postagem, mais
atenção ela ganhou. Essas postagens também tiveram consistentemente mais
compartilhamentos. Se você twittasse “A rápida raposa marrom pula sobre o cachorro
preguiçoso” e “A rápida raposa marrom pula sobre o cachorro mentiroso”, o último, a
partir dessa palavra emocional e moral, obteria mais olhos e mais compartilhamentos.
Tweet “O bom herói raposa bate no cão inimigo mentiroso” e você pode ser presidente ao anoitecer.
A economia da atenção digital amplifica exponencialmente o impacto social dessa
dinâmica. Lembre-se de que o número de segundos do seu dia nunca muda. A
quantidade de conteúdo de mídia social competindo por esses segundos, no entanto,
dobra a cada ano ou mais, dependendo de como você o mede. Imagine, por exemplo,
que sua rede produza 200 posts por dia, dos quais você tem tempo para ler 100. Por
causa da inclinação das plataformas, você verá a metade mais moral-emocional do
seu feed. No próximo ano, quando 200 dobrar para 400, você verá o trimestre mais
moral e emocional. No ano seguinte, o oitavo mais moral e emocional. Com o tempo,
sua impressão de seu
Machine Translated by Google

sua própria comunidade torna-se radicalmente mais moralizadora, engrandecedora e indignada


- e você também. Ao mesmo tempo, formas de conteúdo menos envolventes – verdade,
apelos ao bem maior, apelos à tolerância – tornam-se cada vez mais superadas. Como
estrelas na Times Square.
O estágio dois da influência distorcida da mídia social, de acordo com o modelo MAD, é
algo chamado de internalização. Os usuários que perseguiram os incentivos das plataformas
receberam recompensas sociais imediatas e de alto volume: curtidas e compartilhamentos.
Como os psicólogos sabem desde Pavlov, quando você é repetidamente recompensado por
um comportamento, você aprende uma compulsão de repeti-lo. Como você é treinado para
transformar todas as discussões em assuntos de alta indignação, para expressar desgosto
com grupos externos, para afirmar a superioridade de seu grupo interno, você acabará
deixando de fazer isso por recompensas externas para fazê-lo simplesmente porque deseja
faça isso. O impulso vem de dentro. Sua natureza foi mudada.

Brady e Crockett provaram isso em dois experimentos. Em um deles, quando os usuários


que expressaram indignação foram recompensados com curtidas e compartilhamentos, eles
se tornaram mais propensos a expressar indignação no futuro – e mais propensos a se
sentirem indignados. O efeito manteve-se mesmo para indivíduos que anteriormente
expressaram aversão à raiva online. Uma pessoa gentil e tolerante que, em um momento de
fraqueza, enviasse um tuíte criticando os democratas que se tornasse viral se tornaria
instantaneamente mais propenso a enviar mais, primeiro para perseguir o barato, mas logo
porque ela havia se tornado, em seu coração, mais odiosa. partidário. O segundo experimento
demonstrou que a economia de atenção, ao enganar os usuários fazendo-os acreditar que
sua comunidade tinha pontos de vista mais extremos e divisivos do que realmente tinha, teve
o mesmo efeito. Mostrar aos sujeitos muitas postagens de mídia social de colegas que
expressavam indignação os tornava mais propensos à indignação.
Tudo o que é preciso é percorrer regularmente seu feed cheio de raiva, não apenas para fazer
você se sentir mais irritado enquanto está online, mas também para torná-lo uma pessoa mais
irritada.
Dois outros estudiosos descobriram posteriormente que o conteúdo moral-emocional
também leva os usuários a expressar mais apelos à violência. Eles treinaram um computador
para analisar o texto de artigos e postagens de blogs de toda a web e, em seguida, fazer o
mesmo com comentários de usuários postados em resposta: 300 milhões de comentários ao
todo. Eles descobriram que, em todos os tópicos ou ideologias políticas, à medida que
aumentava o número de palavras emocionais morais em um artigo, os comentaristas ficavam
significativamente mais propensos a ameaçar ou incitar a violência contra algum inimigo percebido, geralmente
Machine Translated by Google

alguém mencionado no artigo. Foi uma demonstração arrepiante de como retratar


pessoas e eventos em termos nitidamente morais e emocionais traz à tona os instintos
de ódio e violência do público – que é, afinal, exatamente o que as plataformas sociais
fazem, em uma escala de bilhões de dólares, a cada minuto de cada dia.

“Plataformas online”, escreveram Brady e Crockett, “são agora uma das principais
fontes de estímulos moralmente relevantes que as pessoas experimentam em sua
vida diária”. Bilhões de bússolas morais de pessoas potencialmente inclinadas para o
tribalismo e a desconfiança. Sociedades inteiras foram empurradas para o conflito, a
polarização e a irrealidade – para algo como o trumpismo.
Brady não achava que a mídia social fosse “inerentemente má”, ele me disse.
Mas à medida que as plataformas evoluíram, os efeitos só pareciam piorar. “Está
ficando tão tóxico”, disse ele. “Na faculdade, não era nada como é agora.” Era
importante que as pessoas se lembrassem, ele sentiu, que os designers e engenheiros,
que visam mantê-lo usando sua plataforma por tantos minutos e horas por dia quanto
possível, “têm objetivos diferentes, não quero chamá-los de bons ou metas ruins, mas
metas que podem não ser compatíveis com as suas.”
Mas, apesar de tudo o que aprenderam, Brady e Crockett estavam, eles sabiam,
apenas começando a entender as consequências. Que efeito toda essa distorção,
esse treinamento teve em nossas sociedades e políticas, em nossa espécie?
Sem perceber, eu estava tropeçando em meu próprio caminho em direção a uma
resposta. Enquanto Brady e Crockett continuavam a investigar as distorções do
espelho da diversão da psicologia da mídia social ao longo de 2017, parti, naquele
outono, para um lugar muito mais distante, que as plataformas haviam feito um
esforço especial para ignorar, mas que logo se tornaria um sinônimo de sua ganância,
negligência e perigo: Myanmar.
Machine Translated by Google

Sete

Os Germes e o Vento

1. Uma boa dose de bem

QUANDO desembarquei em Mianmar, os soldados já estavam jogando bebês nas


fogueiras. Durante semanas, os militares travaram uma guerra desenfreada nas
aldeias de telhado de palha que pontilhavam a província mais ocidental do país.
Batalhões inteiros avançavam de campo em campo enquanto canhões rugiam sobre suas cabeças.
Eles alegaram caçar insurgentes. Na realidade, eles estavam atacando uma
comunidade de um milhão e meio de agricultores e pescadores muçulmanos que se
autodenominavam rohingya.
Os soldados, enviados para exterminar a minoria empobrecida que muitos dos
líderes e cidadãos de Mianmar passaram a ver como um inimigo intolerável,
chegavam a uma aldeia e começavam por incendiar os telhados. Eles lançaram
granadas pelas portas das cabanas e lançaram foguetes contra as paredes das
malocas. Eles atiraram nas costas dos camponeses que fugiam pelos campos ao
redor. À medida que as casas queimavam, os homens da aldeia eram dispostos em
fila e mortos a tiros. Famílias afluíam aos cem mil em direção à fronteira. Os soldados
também os atacaram. Eles esconderam minas terrestres nos caminhos dos
refugiados. Sobreviventes que conseguiram chegar a relativa segurança em
Bangladesh detalharam horror após horror para jornalistas e trabalhadores
humanitários que abriram caminho através dos campos superlotados.
“As pessoas seguravam os pés dos soldados, implorando por suas vidas”, disse
uma mulher a meu colega Jeffrey Gettleman. “Mas eles não pararam, apenas os
chutaram e os mataram.” Quando os soldados chegaram à sua aldeia, ela disse, eles
exigiram que ela entregasse o bebê que estava embalando. Quando ela se recusou,
eles a espancaram, arrancaram seu filho de seus braços e o jogaram no fogo aberto.
Em seguida, eles a estupraram.
Sua história era típica. Uma mulher de 20 anos disse a um Human Rights
Machine Translated by Google

Observe o investigador que os soldados mataram sua filha bebê da mesma maneira. Os
soldados então estupraram ela e sua mãe. Quando sua irmã resistiu, eles a mataram com
baionetas. Enquanto isso acontecia, um grupo de aldeões chegou e espancou seus três
irmãos adolescentes até a morte. Os homens locais geralmente acompanhavam os
soldados como voluntários ansiosos, brandindo machados e implementos agrícolas. Eles
eram Rakhine, o outro grande grupo étnico da região, que, como a maioria em Mianmar,
é budista. A presença deles sugeria a natureza comunitária da violência, bem como a
onda de pressão pública que a havia ocasionado.

Yangon, a capital histórica, parecia a um mundo de distância da matança. Era outubro


de 2017, mais de três anos desde a última vez que visitei o que agora era uma cidade
transformada. As sanções foram suspensas, uma recompensa pelos generais de Mianmar
que entregaram o poder aos legisladores eleitos. Barracas empoeiradas foram substituídas
por shoppings com ar-condicionado. Carros importados deslizavam pelas ruas recém-
pavimentadas. A maioria das pessoas enfiou o nariz em um smartphone. Os confortos
da classe média trouxeram um clima de otimismo fácil, até orgulho. Mas algo se agitava
sob a superfície.
Um jovem médico idealista, agora o primeiro legislador eleito de seu bairro, disse-me
que as ondas de desinformação e incitamento da mídia social mantinham sua comunidade
constantemente à beira de distúrbios raciais, ou os provocavam abertamente. Dias antes,
seus eleitores, furiosos com os rumores no Facebook acusando uma escola islâmica local
de hospedar terroristas secretamente, invadiram o prédio enquanto seus alunos estavam
sentados na sala de aula. As crianças, apavoradas, fugiram pela porta dos fundos. E não
foi só aqui, um imã local me disse na sala escura dos fundos da casa de um amigo, onde
ele insistia em conversar por medo de se encontrar em público. Em todo o país, as
madrassas estão sendo forçadas a fechar, disse ele, já que rumores semelhantes levaram
à violência ou à ameaça dela. “Somos um bode expiatório”, disse o imã.

O chefe do primeiro coletivo de mídia real de Mianmar, um repórter nervoso que voltou
de anos no exílio, disse que os jornalistas há muito reprimidos do país, finalmente livres,
enfrentaram um novo antagonista. As plataformas de mídia social estavam fazendo o que
nem mesmo os propagandistas treinados pela ditadura conseguiam: produzir notícias
falsas e fanfarras nacionalistas tão envolventes, tão lisonjeiras para os preconceitos dos
leitores, que as pessoas as preferiam voluntariamente ao jornalismo real. Quando os
repórteres tentaram corrigir a desinformação que fluía online, eles se tornaram o alvo dela,
acusados de cumplicidade em conspirações estrangeiras.
Machine Translated by Google

Líderes cívicos me disseram que as plataformas de mídia social estavam bombeando


a corrente sanguínea nacional com conspirações e fúria ultranacionalista. Cidadãos que
haviam marchado por uma democracia aberta e inclusiva agora passavam horas
postando em grupos dedicados a difamar minorias ou glorificar os líderes do país. O
chefe das Forças Armadas, outrora um símbolo vilipendiado da ditadura que havia
renunciado apenas alguns anos antes, agora tinha 1,3 milhão de fãs no Facebook.

Pessoas de todas as esferas da vida recontaram sem fôlego, como um fato puro e
simples, conspirações malucas e odiosas que inevitavelmente atribuíram às mídias sociais.
Monges budistas insistiram que os muçulmanos estavam tramando para roubar a água
de Mianmar, velhinhas que não estariam seguros até que as minorias fossem expurgadas
de seu meio, jovens estudantes que grupos humanitários estavam armando os rohingya
em nome de potências estrangeiras. Todos eles apoiaram a campanha militar — gratos,
às vezes alegres, pela violência cometida em seu nome.

Nenhum algoritmo poderia gerar ódio tão severo do nada. As plataformas se


basearam em uma crise que vinha crescendo desde 2012 no oeste do país, onde vivia a
maioria dos rohingyas. Um punhado de incidentes entre Rohingya e Rakhine – um
estupro, um linchamento, uma série de assassinatos – se transformou em tumultos
comunitários. As tropas intervieram, reunindo civis que haviam sido deslocados de suas
casas, a maioria rohingya, para campos. Os rohingya definharam. Em 2015, milhares
tentaram fugir, descrevendo a crescente perseguição de vizinhos e soldados.

O sentimento anti-Rohingya data de pelo menos um século, no início dos anos 1900,
quando os senhores britânicos importaram milhares de súditos coloniais do Raj indiano,
muitos deles muçulmanos. O esforço era dividir para governar; os recém-chegados, que
completavam a classe mercantil urbana, contavam com a segurança dos britânicos. Após
a saída dos britânicos, em 1948, os líderes da independência buscaram consolidar sua
nova nação em torno de uma identidade étnica e religiosa compartilhada. Mas a
diversidade de Myanmar tornou isso difícil; eles precisavam de um inimigo contra o qual
lutar. Os líderes políticos promoveram as suspeitas da era colonial sobre os muçulmanos
como intrusos estrangeiros patrocinados por impérios estrangeiros. Na verdade, porém,
os indianos da classe mercantil importados pelos britânicos fugiram em sua maioria em
1948 ou pouco depois, então os líderes sublimaram a ira nacional para um grupo não
relacionado de muçulmanos: os rohingya. Para vender o estratagema, os Rohingya
foram classificados como imigrantes ilegais, uma declaração de ódio patrocinada pelo Estado posteriormente
Machine Translated by Google

reiterado até mesmo por Aung San Suu Kyi, o ícone da democracia ganhadora do
Nobel que se tornou o primeiro líder eleito de Mianmar.
Quando alguns rohingya e rakhine se enfrentaram em 2012, ela ainda estava
consolidando seu domínio na política. Ela aproveitou o incidente, enfatizando o suposto
perigo dos rohingyas para os cidadãos “reais” de Mianmar. Mas, nos anos seguintes,
a raiva do público contra os pobres agricultores rohingya aumentou muito além do que
ela havia encorajado. Em agosto de 2017, quando a violência esporádica entre
soldados e um punhado de rebeldes rohingya culminou em um ataque insurgente à
meia-noite a vários postos policiais, grande parte do país gritava por sangue. Alguns
dias depois, os militares concordaram, iniciando seu genocídio.
Como o sentimento, mesmo fervendo por muito tempo, chegou a tais extremos?
Líderes amedrontadores e confrontos sectários não eram, afinal, nada de novo aqui.
Havia algo diferente em jogo, algo novo. Dois anos antes, David Madden, o australiano
que dirigia a maior aceleradora de startups de tecnologia de Mianmar, havia voado
para a sede do Facebook para fazer uma apresentação alarmante aos executivos da
empresa. A essa altura, já havia se passado um ano desde os tumultos em Mandalay,
quando o perigo deveria ser inignorável. Ele detalhou a crescente incitação anti-
muçulmana na plataforma, aparentemente não controlada pelos moderadores, não
importa quantos fossem, que deveriam remover conteúdo perigoso. Ele alertou que o
Facebook poderia em breve ser usado para fomentar o genocídio. Mas havia pouca
indicação de que o Facebook atendeu ao seu aviso, com o discurso de ódio cada vez
mais comum. Postagens virais, uma após a outra, relataram que famílias muçulmanas
aparentemente inocentes eram, na verdade, células adormecidas terroristas ou espiões
estrangeiros. “Mianmar logo será dominado por 'cães muçulmanos'”, dizia um deles.
As postagens foram compartilhadas milhares de vezes, números que seriam difíceis
de alcançar em um país tão pequeno sem um impulso algorítmico.

Até mesmo funcionários do governo de Mianmar alertaram que o discurso de ódio


impulsionado pelo Facebook poderia minar a estabilidade do país, à medida que os
extremistas ganhavam novos e vastos públicos online. No outono de 2015, Wirathu, o
monge que já foi chamado de “o bin Laden birmanês”, tinha 117.000 seguidores – um
número pequeno nos Estados Unidos, mas grande em um país do tamanho de Mianmar
e no início de sua adoção digital – para quem ele empurrou conspiração constante e
ódio. Um aliado de Wirathu, o político nacionalista Nay Myo Wai, publicou contas
populares que espalharam incitamento aberto. Ele havia dito sobre os rohingya em um
discurso naquele ano: “Vou ser breve e direto. Número um, atirar e
Machine Translated by Google

mate eles. Número dois, atire e mate-os. Número três, atire e enterre-os.

Um think tank de Washington DC analisou uma amostra de 32.000 contas do Facebook


de Mianmar, usuários comuns, encontrando suas páginas inundadas de discurso de ódio e
desinformação. Um meme popular mostrava bestialidade gráfica coberta em escrita árabe,
outro do profeta Maomé sendo penetrado oralmente. Outro alegou mostrar evidências de
canibalismo cometido por Rohingya; a imagem foi de fato tirada de um golpe de marketing
de videogame. Foi compartilhado quase 40.000 vezes. Outro, alegando falsamente que os
rohingyas estavam contrabandeando armas para Mianmar, foi compartilhado 42.700 vezes.
“É hora de matar todos os kalars”, escreveu um usuário, usando uma calúnia para rohingya.
Outro respondeu: “Vamos decapitar dez mil cabeças de kalars”. Outro: “Para a próxima
geração, queime todas as aldeias muçulmanas próximas”.

O relatório foi publicado no início de 2016, outra voz em um coro alertando o Facebook
de que estava colocando em perigo uma sociedade que não compreendia.
Em junho daquele ano, a empresa, assim como havia feito em 2013, depois de ignorar os
avisos de violência iminente que rapidamente se mostraram precisos, escalou em Mianmar
de qualquer maneira, lançando o “Free Basics”, que permitia aos habitantes locais usar o
aplicativo de smartphone do Facebook sem pagar taxas de dados. Em poucos meses, 38%
das pessoas no país disseram que recebiam a maior parte ou todas as notícias via Facebook.
À medida que as coisas pioravam, seis meses antes do genocídio, Madden voou para a
sede do Facebook pela segunda vez. Mais uma vez, ele alertou que a plataforma estava
levando o país à violência em massa. Nada pareceu mudar, mesmo quando a matança
começou.
“Tenho que agradecer ao Facebook porque ele está me fornecendo informações
verdadeiras em Mianmar”, disse o administrador de um vilarejo que havia banido os
muçulmanos à minha colega Hannah Beech dois meses depois do derramamento de
sangue. “Kalar não são bem-vindos aqui”, disse ele, “porque são violentos e se multiplicam
como loucos”. As páginas extremistas que defendem essas visões permaneceram
hiperativas durante todo o derramamento de sangue. Eles eram uma atualização digital da
Rádio Milles Collines, que transmitiu apelos ao genocídio na Ruanda dos anos 1990. Mas
este Genocide Radio foi construído em infraestrutura de propriedade de ricas empresas de
tecnologia americanas, amplificado não por terminais de transmissão controlados por
milícias, mas por algoritmos executados no Vale do Silício.
“Nunca houve uma ferramenta mais poderosa para a rápida disseminação
Machine Translated by Google

de discurso de ódio e vitríolo racista-nacionalista do que o Facebook e outras mídias


sociais”, escreveu Ashley Kinseth, ativista de direitos humanos em Mianmar, em meio
ao assassinato. Apesar de todos os paralelos com a Radio Milles Collines, ela
acrescentou: “A mídia social é uma ferramenta ainda mais rápida, mais gráfica,
imersiva, 'democrática' e, em última análise, perigosa para a disseminação do discurso
de ódio”.
Durante anos após o genocídio de Ruanda, as autoridades americanas se
atormentaram com hipóteses. Os aviões de guerra americanos poderiam ter destruído
as torres de rádio a tempo de detê-lo? Como localizariam as torres em meio às selvas
e desfiladeiros de Ruanda? Como eles garantiriam a autoridade internacional? Em
Mianmar, nunca houve tais dúvidas. Um único engenheiro poderia ter fechado toda a
rede ao terminar o café da manhã. Um milhão de Rohingya aterrorizados ficaram mais
seguros da morte e deslocamento com algumas teclas. Os sinais de alerta eram
livremente visíveis. Madden e outros deram a eles as informações necessárias para
agir.
Eles simplesmente escolheram não fazê-lo, mesmo quando aldeias inteiras foram
expurgadas com fogo e sangue. Em março de 2018, o chefe da missão de investigação
das Nações Unidas disse que sua equipe concluiu que as redes sociais, especialmente
o Facebook, tiveram um “papel determinante” no genocídio. As plataformas, disse ele,
“contribuíram substancialmente” para que o ódio destruísse toda uma população.
Três dias depois, um repórter chamado Max Read fez uma pergunta, no Twitter, a
Adam Mosseri, o executivo que supervisionava o feed de notícias do Facebook.
Ele perguntou, referindo-se ao Facebook como um todo, “pergunta honesta: qual é o
possível dano em desativá-lo em Mianmar?” Mosseri respondeu: “Existem problemas
reais, mas o Facebook faz muito bem – conecta pessoas com amigos e familiares,
ajuda pequenas empresas, traz à tona conteúdo informativo. Se desligarmos, perdemos
tudo isso.”
A crença de que os benefícios do Facebook para Myanmar, naquele momento,
excederam seus danos é difícil de entender. O Facebook não tinha escritório em
Mianmar para avaliar seu impacto. Poucos de seus funcionários já haviam estado. Ele
rejeitou as avaliações externas assustadoramente consistentes sobre o comportamento
de sua plataforma. A conclusão de Mosseri foi, na interpretação mais generosa,
ideológica, enraizada na fé. Também era conveniente, permitindo que a empresa
levantasse as mãos e declarasse eticamente impossível desligar a máquina do ódio.
Não importava que deixar a plataforma levantada fosse sua própria forma de
intervenção, escolhida todos os dias.
Machine Translated by Google

Havia outra barreira importante para atuar. Isso significaria reconhecer que a plataforma
pode ter compartilhado alguma culpa. As empresas de cigarro levaram meio século, e a
ameaça de um litígio potencialmente fatal, para admitir que seus produtos causavam câncer.
Com que facilidade o Vale do Silício admitiria que seus produtos poderiam causar revolta,
inclusive genocídio?

Myanmar dificilmente foi a primeira indicação desses danos. Embora seja fácil esquecer
agora, eventos como os levantes da Primavera Árabe de 2011 foram, na época, vistos como
prova do potencial libertador da mídia social. Mas havia sinais de problemas, mesmo assim.
Em 2012, em um episódio bizarro na Índia sobre o qual escrevi, membros de dois grupos
étnicos, em seu medo mútuo, espalharam rumores no Facebook e no Twitter de que o outro
planejava atacá-los. A especulação virou certeza, que virou desinformação de um ataque
iminente, que virou incitação para atacar primeiro. Alguns inevitavelmente o fizeram. Relatos
da violência se espalharam amplamente online, muitas vezes retratados, com provas
fotográficas falsas, como centenas de vezes mais mortais do que realmente eram. Uma onda
de tumultos e represálias, incitadas nas redes sociais, varreu a Índia, empurrando 300.000
pessoas para campos de deslocados. O governo indiano bloqueou o acesso a plataformas
sociais e exigiu que removessem o conteúdo mais perigoso. Quando o governo Obama, um
antigo incentivador do Vale do Silício, interveio em nome das empresas, as autoridades
indianas cederam. O estrago já estava feito, de qualquer maneira. Explosões violentas
semelhantes surgiram na Indonésia.

Comunidades inteiras coladas no Facebook e no Twitter. Os usuários são recompensados


com grandes audiências por cederem às piores tendências uns dos outros. Um motim, um
assassinato, uma aldeia se desintegrando em derramamento de sangue, tudo provocado pela
xenofobia que satura as plataformas.
Eventualmente, a visão ensolarada da Primavera Árabe veio a ser revisada. “Esta
revolução começou no Facebook”, disse Wael Ghonim, um programador egípcio que deixou
sua mesa no Google para se juntar ao levante popular de seu país, em 2011. “Quero conhecer
Mark Zuckerberg algum dia e agradecê-lo pessoalmente.” Anos depois, no entanto, quando o
Egito desmoronou em uma ditadura, Ghonim alertou: “A mesma ferramenta que nos uniu para
derrubar ditadores acabou nos separando”. A revolução deu lugar à desconfiança social e
religiosa, que as redes sociais ampliaram ao “ampliar a disseminação de desinformação,
rumores, câmaras de eco e discurso de ódio”, disse Ghonim, tornando a sociedade “puramente
tóxica”.
Machine Translated by Google

No final de 2017, enquanto o genocídio de Mianmar avançava, Chamath


Palihapitiya, ex-chefe de crescimento global do Facebook, falando no que se
esperava ser um discurso de rotina para alunos de MBA de Stanford, explodiu.
“Sinto uma culpa tremenda”, disse ele. “Acho que todos nós sabíamos no fundo de
nossas mentes, embora todos fingíssemos toda essa linha que provavelmente não
havia consequências não intencionais. Acho que sabíamos que algo ruim poderia
acontecer.” Palihapitiya havia deixado o Facebook anos antes. Mas ele ajudou a
colocar a empresa no caminho em que permanece hoje, persuadindo seus chefes a
reestruturar tanto o negócio quanto a plataforma em torno de um crescimento global
permanente. As ferramentas que eles criaram para conseguir isso estavam
“rasgando o tecido social”, disse Palihapitiya. “Os ciclos de feedback de curto prazo
movidos pela dopamina que criamos estão destruindo o funcionamento da
sociedade”, criando um mundo “sem discurso civil, sem cooperação; desinformação,
mentira”. Ele exortou os aspirantes a engenheiros e fundadores de startups na sala
a prestarem atenção. “Se você alimentar a besta, essa besta irá destruí-lo”, disse
ele. “Se você recuar, temos a chance de controlá-lo e controlá-lo.”

Essa série de colapsos, sua consistência horrível, incluindo a eleição presidencial


dos EUA em 2016, sugeriu mais do que incidentes estranhos. Insinuava uma
transformação mais profunda, talvez universal, operada pelas redes sociais, das
quais a violência extrema era apenas um indicador superficial. Eu queria entender
por que isso estava acontecendo, o que revelava sobre a influência dessa tecnologia
em nosso mundo. Mas uma mudança em toda a sociedade como a de Mianmar ou
a da América foi impulsionada por muitos fatores para isolar o papel da mídia social.
Eu precisava começar com um episódio mais independente, onde os efeitos da
mídia social pudessem ser isolados, para entender a tendência.
Trabalhei com Amanda Taub, uma colega repórter do New York Times com
quem colaborei desde 2014, quando a recrutei para ingressar na Vox. Ela já havia
trabalhado como advogada de direitos humanos, inclusive na América Latina, o que
a deixou especialmente atenta aos sinais de alerta da violência coletiva. E ela
compartilhou meu fascínio pelas mídias sociais, bem como a sensação de que sua
influência permaneceu incompletamente compreendida. Ligamos para trabalhadores
de direitos humanos, monitores digitais e outros contatos confiáveis. Nossa pergunta
para cada um deles era se eles tinham visto uma agitação incomum impulsionada
pela mídia social. Todos eles tinham a mesma resposta, qualquer que fosse o
continente em que os alcançássemos: Sim, mais o tempo todo, e por que vocês demoraram tanto para
Machine Translated by Google

perceber? Mas coletar informações sobre um incidente do passado não serviria; a


memória é imperfeita e sombreada pelo viés. Amanda e eu precisávamos ver em
primeira mão, rastrear cada passo e rumor. Pedimos aos nossos contatos que nos
ligassem se algo entrasse em combustão fora de suas janelas.
Não esperamos muito. No início de 2018, alguém nos alertou sobre um flash de
violência paralisando o Sri Lanka, a nação insular em forma de lágrima do tamanho
do Maine, na costa sul da Índia. Aldeias inteiras, como se possuídas de repente, se
transformaram em turbas, saqueando e queimando as casas de seus vizinhos. Os
militares foram mobilizados. Embora não estivesse claro o que havia acontecido ou
por quê, todos que contatamos apontaram o mesmo culpado: o Facebook.

2. O Tinderbox e o Match

PASSANDO DO FIM de uma estrada remota na montanha, descendo uma estrada


de terra esburacada, em uma casa de concreto sem água corrente, mas repleta de
smartphones, treze membros de uma família extensa estavam grudados no Facebook.
E eles ficaram furiosos. O décimo quarto membro de sua família havia sido espancado
até a morte algumas semanas antes. A polícia disse que ele se envolveu em uma
briga de trânsito que se tornou violenta. Mas no Facebook, rumores insistiam que
seus agressores faziam parte de uma conspiração muçulmana para acabar com os
cingaleses, a maioria étnica do Sri Lanka. Os cingaleses, da palavra sânscrita para
“leão”, dominam a cultura e a política do país. Seu leão adorna sua bandeira. Mas
eles foram tomados por um estranho pânico racial.
“Não queremos ver porque é muito doloroso”, disse HM Lal, primo da vítima, com
a voz trêmula. “Mas em nossos corações há um desejo de vingança que se construiu.”
Quando perguntei a Lal e ao restante de sua família se eles acreditavam que as
postagens eram verdadeiras, todos, menos os idosos, que pareciam não entender,
assentiram. Outras pessoas no Facebook compartilharam seu desejo de vingança?
Perguntei. Novamente eles assentiram. Eles compartilharam e podiam recitar
literalmente memes construindo uma realidade alternativa de conspirações
muçulmanas nefastas. Embora não tenham participado quando os grupos do
Facebook com milhares de membros planejaram uma série de ataques retaliatórios
aos muçulmanos, eles também não desaprovaram.
“O Facebook é importante para nós porque, se algo está acontecendo em algum
lugar, é assim que descobrimos”, disse um deles. “O Facebook vai nos contar sobre
Machine Translated by Google

isto." Lal, o primo, concordou. Ele chamou o Facebook de “as brasas sob as cinzas”
da raiva racial que, apenas alguns dias antes, havia levado o país ao caos. “As
pessoas são provocadas a agir.” Este vilarejo nas montanhas foi nosso ponto de
partida para refazer a queda do Sri Lanka no caos. O Facebook, descobrimos,
havia impulsionado cada passo mortal. E a cada passo, como em Mianmar, foi
avisado, urgente e explicitamente, mas recusou-se a agir.
Perguntamos à família como havia acontecido. Tudo “começou em Ampara”,
disse um deles, pronunciando um nome que vimos várias vezes na internet. A
verdadeira Ampara era apenas mais uma aldeia em um país espalhado por eles,
alguns prédios de concreto cercados por campos verdes abertos. Mas a Ampara
imaginária, construída a partir de rumores nas redes sociais, foi o epicentro de uma
conspiração para destruir os cingaleses do país.
Os irmãos Atham-Lebbe não sabiam nada sobre a Ampara imaginada quando,
usando o dinheiro que economizaram trabalhando como trabalhadores braçais no
exterior, abriram um restaurante de um quarto aqui. Eles são muçulmanos e falam
tâmil, uma língua minoritária, então nunca encontraram os distritos de língua
cingalesa da rede social onde sua cidade era um símbolo de perigo racial. Portanto,
eles não tinham como prever que, em uma noite quente de março de 2018, os
Amparas reais e imaginários colidiriam, mudando suas vidas para sempre.
Durante a correria do jantar daquela noite, um cliente começou a gritar em
cingalês sobre algo que havia encontrado em seu curry de carne. Farsith, o irmão
de 28 anos que dirigia o caixa, o ignorou. Ele não falava cingalês. E os clientes
bêbados, ele aprendeu, devem ser ignorados. Ele não sabia que, no dia anterior,
um boato viral no Facebook afirmava, falsamente, que a polícia havia apreendido
23.000 pílulas de esterilização de um farmacêutico muçulmano aqui. Se tivesse,
Farsith poderia ter entendido por que, à medida que o cliente ficava mais agitado,
uma multidão começava a se formar.
Os homens cercaram Farsith, batendo em seus ombros, gritando uma pergunta
que Farsith não conseguiu entender. Ele entendeu apenas que eles estavam
perguntando sobre um pedaço de farinha no curry do cliente, usando a frase “Você
colocou?” Ele temia que dizer a coisa errada pudesse tornar a multidão violenta,
mas não dizer nada também. “Não sei”, disse Farsith em cingalês quebrado. "Sim,
nós colocamos?"
A multidão, ouvindo a confirmação, desabou sobre Farsith e o espancou.
Eles perguntaram se ele havia colocado pílulas de esterilização na comida, como
todos viram no Facebook. Deixando-o ensanguentado no chão, eles derrubaram
Machine Translated by Google

prateleiras, móveis quebrados, eletrodomésticos arrancados das paredes. Dezenas de


homens da vizinhança, tendo ouvido que os rumores do Facebook eram verdadeiros,
juntaram-se a eles. Eles marcharam para a mesquita local, que incendiaram enquanto o imã
se escondia em seu escritório fumegante, esperando para morrer.
Antigamente, essa calamidade poderia ter terminado em Ampara. Mas alguém na
multidão gravou um vídeo com o celular da admissão de Farsith: “Sim, nós colocamos”. Em
poucas horas, ele foi compartilhado com um grupo do Sri Lanka no Facebook chamado
Centro de Informações Budistas, que conquistou seguidores fervorosos ao alegar fornecer
informações verdadeiras sobre a ameaça muçulmana. A página publicou o clipe trêmulo de
dezoito segundos como prova dos memes islamofóbicos que havia hospedado por meses.
Então o vídeo se espalhou.
Como em Mianmar, a mídia social foi inicialmente recebida como uma força para o bem
no Sri Lanka. Isso manteve as famílias em contato, mesmo quando muitos trabalhavam no
exterior para enviar dinheiro para casa. Ativistas e líderes eleitos atribuem-lhe o crédito por
ajudar a introduzir a democracia. E graças aos programas de classificação zero, a mesma
estratégia que o Facebook havia usado em Mianmar, milhões de pessoas puderam acessar
os serviços gratuitamente.
A classificação zero surgiu de uma peculiaridade da economia do Vale do Silício: a
exigência de crescimento perpétuo de usuários. Os países mais pobres não são
particularmente lucrativos para plataformas; os anunciantes pagam pouco para atingir os
consumidores que ganham alguns dólares por dia. Mas gastando agressivamente agora, as
empresas poderiam dominar preventivamente os mercados de mídia e internet de um país
pobre, onde enfrentariam poucos concorrentes. Eles poderiam dizer aos investidores que a
receita estava prestes a explodir em dez ou vinte anos, à medida que os consumidores
entrassem na classe média.
Facebook, WhatsApp, Twitter, Snapchat e outros lançaram serviços de classificação
zero em dezenas de países, da Colômbia ao Quênia, onde não tinham pegada e pouca
familiaridade, raciocinando que aprenderiam à medida que avançassem.
Eles podem contratar alguns professores de inglês locais para traduzir itens essenciais,
como o botão “Adicionar amigo”. Eles terceirizariam o resto para — o que mais? — algoritmos
de aprendizado de máquina. Se as traduções estivessem erradas, eles descobririam
rastreando o comportamento do usuário.
“À medida que o uso se expande, está em todos os países, em lugares do mundo e
idiomas e culturas que não entendemos”, gabou-se Chris Cox, diretor de produtos do
Facebook, em 2013. Ele citou um em particular: Mianmar, onde ele 'ouvi dizer que o
Facebook já dominava o acesso das pessoas locais às notícias.
Machine Translated by Google

Não havia, diziam a si mesmos, fosse por fervor ideológico ou desinteresse motivado
financeiramente, que não havia necessidade de monitorar ou mesmo considerar as
consequências, porque elas só poderiam ser positivas.
Isso era mais do que arrogância. Baseou-se em uma ideia que se espalhou pelo
Vale e que se originou com Peter Thiel, o investidor fundador do Facebook: “zero para
um”. Era uma obrigação, comercial e ideológica, que as empresas inventassem algo tão
novo que não houvesse mercado para isso — começando do zero — e depois
controlassem totalmente esse mercado, um campo com um entrante. “A história do
progresso é uma história de melhores negócios monopolistas substituindo os titulares”,
escreveu Thiel. Intel e processadores. Apple e computadores pessoais. Uber e táxis
particulares. Facebook e redes sociais.
Um monopólio, liberado da competição, estaria livre para investir em inovação,
melhorando toda a humanidade, argumentou. Isso era infundado: os monopólios, via de
regra, alavancam seu poder de entregar cada vez menos valor enquanto extraem rendas
cada vez maiores dos consumidores. Mas ressoou no Vale, cujos cidadãos reinterpretaram
o modelo de negócios de crescimento infinito, imposto por investidores alguns anos
antes com a ascensão da computação em nuvem, em uma missão gloriosa, a
continuação do liberacionismo da internet dos anos 90. Implicava que invadir sociedades
inteiras, pisoteando cegamente o que quer que tivesse vindo antes, era não apenas
aceitável, mas necessário.
Tal resultado, longe de ser negativo, foi considerado um presente para o mundo.
A indústria de tecnologia traria nada menos que o “próximo passo” em nossa jornada
como espécie, escreveu Zuckerberg em um ensaio de 6.000 palavras publicado um ano
antes de minha chegada ao Sri Lanka. Talvez no último suspiro do utopismo de Valley,
ele prometeu que o Facebook forneceria a “infraestrutura social” de uma nova era,
elevando-nos além de meras “cidades ou nações” para uma “comunidade global”. Isso
permitiria “espalhar a prosperidade e a liberdade, promover a paz e a compreensão, tirar
as pessoas da pobreza” e até “acabar com o terrorismo, combater as mudanças
climáticas e prevenir pandemias”.

Os resultados no terreno tinham pouca semelhança com essas visões de olhos


estrelados. Nos dias que se seguiram à multidão inspirada no Facebook que devastou
Ampara, apelos por genocídio saturaram a plataforma. “Mate todos os muçulmanos, não
salve nem mesmo uma criança”, dizia um post. Havia centenas como essa, todas
inspiradas no vídeo de Farsith dizendo: “Sim, nós colocamos”. Um extremista famoso
no Facebook exortou seus seguidores a descerem em um enclave muçulmano local e “colher sem sair
Machine Translated by Google

um iota atrás. Membros de um grupo local de direitos humanos, reunidos em um


pequeno escritório na capital, Colombo, anotaram todas as postagens, traçando uma
rede de ódio. Eles planejaram repassar tudo para o Facebook. Os pesquisadores
estavam fazendo o trabalho do Facebook para eles, eles sabiam, e de graça.
Zeladores voluntários para uma das plataformas mais ricas do mundo. Mas a empresa
os ignorou.
“Demos, nos últimos quatro anos, exemplos de ódio baseados em dados.
Demos a eles páginas de dados”, disse-nos Sanjana Hattotuwa, então pesquisadora
desse grupo de direitos, o Center for Policy Alternatives. “É inútil coordenar com o
Facebook,” ele bufou, andando com raiva. Hattotuwa, um rosto conhecido em
conferências internacionais de tecnologia, conseguiu fazer alguns contatos na empresa.
Mas por mais extremas que fossem as incitações à violência, por mais estridentes que
ele avisasse que a plataforma ia matar alguém, a resposta era a mesma: “Dizem que
não infringe nada. Eles dizem, por favor, volte para nós com mais informações.”

Meses antes, antes da devastação em Ampara, uma de suas colegas, Raisa


Wickrematunge, havia falado em um fórum de Stanford sobre desinformação nas redes
sociais. Durante uma pausa para o café, ela encurralou uma gerente de segurança do
Facebook, Jen Weedon, que havia participado de um painel anterior. Ela alertou
Weedon que, no Sri Lanka, o Facebook estava permitindo que chamadas abertas à
violência, proibidas pelas próprias políticas da empresa, corressem soltas. A conversa
terminou de forma inconclusiva. Após a conferência, Wickrematunge enviou a Weedon
um e-mail de acompanhamento, oferecendo-se para sinalizar o discurso de ódio
perigoso para o Facebook revisar - assistência gratuita. Ela nunca recebeu uma resposta.
Em outubro de 2018, líderes civis do Sri Lanka fizeram uma apresentação dura ao
escritório regional do Facebook, que supervisiona os 400 milhões de usuários da Índia
no sul da Ásia. O discurso de ódio e a desinformação estavam invadindo a plataforma,
aparentemente promovidos por seus algoritmos. Extremistas violentos operavam
algumas de suas páginas mais populares. Falsidades virais estavam se tornando
realidade de consenso para os usuários. Afinal, o Facebook desbancou os meios de
comunicação locais, assim como em Mianmar, onde as aldeias ainda estavam em
chamas. O Sri Lanka pode ser o próximo. Separadamente, funcionários do governo se
reuniram em particular com os chefes regionais do Facebook em Colombo. Eles
imploraram à empresa para policiar melhor o discurso de ódio em sua plataforma. Essas
postagens e páginas violavam as próprias regras da empresa. Por que o Facebook não agiria?
Machine Translated by Google

A posição do Facebook foi a mesma nas duas reuniões. Não bastava alguém, mesmo um
ministro do governo, sinalizar uma postagem como discurso de ódio.
O Facebook, para agir, teve que verificar qualquer quebra de regra por conta própria. Mas a
plataforma terceirizou a maior parte desse trabalho para empresas de TI, que não empregavam
falantes cingaleses suficientes para acompanhar o ritmo. Os representantes do Facebook fizeram
promessas vagas sobre a contratação de funcionários.
Os funcionários do governo perguntaram se havia alguém que eles pudessem contatar
diretamente no caso de uma explosão de incitação ao estilo de Mianmar. Não, os representantes
da empresa disseram a eles. Se eles viram algo perigoso, devem usar o formulário no local para
relatar violações de regras. Essa diretiva era enlouquecedora.
Esse formulário, projetado para usuários comuns, era o mesmo widget para o qual Hattotuwa e
seus colegas já haviam preenchido meses de relatórios cada vez mais alarmados, até o silêncio
quase total. Tudo enquanto os apelos à violência se tornavam progressivamente mais específicos,
nomeando as mesquitas e bairros a serem limpos.

3. O que obriga o Facebook?

EM COLOMBO, nos escritórios da era colonial que abrigavam os ministérios do governo do Sri
Lanka, o chefe de informações do país, Sudarshana Gunawardana, nos disse que ele e outros
funcionários “tinham uma sensação de impotência”. Antes do Facebook, em tempos de tensão
comunitária, ele podia se encontrar com líderes cívicos e chefes de mídia, pedindo mensagens de
calma. Agora, tudo o que seus cidadãos viam e ouviam era controlado por engenheiros, distantes
na Califórnia, cujos representantes locais nem mesmo retornavam suas ligações.

À medida que aumentavam os sinais de violência iminente, as autoridades publicaram


declarações desmentindo os rumores mais perigosos. Ninguém acreditou neles. Eles viram a
verdade com seus próprios olhos no Facebook. Gunawardana marcou postagem após postagem
usando o widget de relatórios do Facebook. Um funcionário de alto escalão reduzido a implorar, via
caixa de envio do Facebook, para algum moderador anônimo tomar conhecimento da espiral de
violência em seu país. Cada relatório foi ignorado. “É preciso haver algum tipo de envolvimento
com países como o Sri Lanka”, disse Gunawardana. “Somos uma sociedade, não somos apenas
um mercado.”

À medida que a raiva pelo vídeo de Ampara se espalhava, os extremistas do Facebook


direcionavam a raiva. Um deles, Amith Weerasinghe, cujo ódio havia sido
Machine Translated by Google

recompensado com milhares de seguidores, aproveitou a disputa de trânsito em que jovens


muçulmanos espancaram um motorista de caminhão - o homem cuja família conhecemos.
Weerasinghe circulou memes, compartilhados milhares de vezes, chamando-o de primeiro golpe
em uma revolta muçulmana. Como prova, ele promoveu a notícia falsa sobre a polícia de
Ampara apreendendo muitos milhares de pílulas de esterilização em farmácias muçulmanas.
Para milhões de cingaleses mergulhados na irrealidade da mídia social, a suposta confissão de
Farsith, o dono do restaurante, parecia a confirmação de tudo. A guerra racial estava aqui.
Poucos dias depois do motim de Ampara, o motorista do caminhão, ainda no hospital, morreu, o
que fez com que a indignação online se transformasse, como costumava acontecer, em apelos
à ação coletiva: os verdadeiros cingaleses deveriam comparecer ao funeral para mostrar
solidariedade contra a ameaça muçulmana. Os ônibus lotados chegaram a Kandy, a cidade
mais próxima da vila do caminhoneiro. Alguns se espalharam pelas cidades vizinhas.

Para coordenar os movimentos, os usuários do Facebook circularam links para grupos


privados de WhatsApp. O aplicativo de mensagens de propriedade do Facebook permite
comunicação rápida, semelhante a mensagens de texto em grupo para centenas de pessoas ao
mesmo tempo, com algumas reviravoltas favoráveis aos virais. Os usuários podem encaminhar
conteúdo de um grupo para outro, permitindo que as postagens se espalhem exponencialmente.
Um grande grupo do WhatsApp pode se assemelhar a uma mistura de Facebook, Twitter e
YouTube, preenchido por conteúdo viral copiado dos três. O WhatsApp se vende especialmente
em termos de privacidade: a criptografia de ponta a ponta mantém afastadas as autoridades
curiosas. Não há verificadores de fatos ou moderadores.
Os pesquisadores digitais se juntaram a alguns dos grupos. Não foi difícil; os nomes dos
grupos foram postados nas páginas de ódio do Facebook, que operavam tão abertamente
quanto os jornais. Em um vídeo viral do WhatsApp, um homem vestido de monge gritou: “A faca
em casa não é mais para cortar jaca. Por favor, afie essa faca e vá embora.” Em outro grupo,
um usuário compartilhou a foto de uma dúzia de armas improvisadas com uma lista de alvos.
Ele marcou duas mesquitas com a palavra “hoje à noite” e outras duas com a palavra “amanhã”.
Os grupos se encheram especialmente de conteúdo de Weerasinghe. Muitos compartilharam
um vídeo que ele postou no Facebook e no YouTube que o mostrava caminhando pelas lojas de
uma cidade chamada Digana. Muitos deles pertenciam a muçulmanos, disse ele, pedindo aos
cingaleses que retomassem a cidade. Os pesquisadores enviaram tudo para o Facebook.
Nenhuma resposta veio.

Eles assistiram impotentes enquanto centenas de cingaleses postavam ao vivo das aldeias
e cidades cujas ruas eles enchiam. Moradores penduraram faixas com
Machine Translated by Google

imagens de leões pelas janelas da frente. Era uma mensagem: os cingaleses moram
aqui. Todos sabiam o que estava por vir. Os primeiros coquetéis Molotov voaram
naquela noite. Por três dias, multidões dominaram as ruas. Indo de casa em casa, onde
quer que os muçulmanos vivessem, eles arrombaram as portas da frente, saquearam
do chão ao teto e depois incendiaram as casas. Eles queimaram mesquitas e empresas
de propriedade de muçulmanos. Eles batem nas pessoas na rua.
Em Digana, a cidade onde Weerasinghe havia caminhado em seu vídeo, uma
dessas casas pertencia à família Basith. Eles vendiam chinelos no primeiro andar e
moravam no segundo. A maioria havia fugido. Mas um filho mais velho, Abdul, ficou
para trás e ficou preso no andar de cima. “Eles quebraram todas as portas de nossa
casa”, disse Abdul em uma mensagem de áudio que enviou ao tio pelo WhatsApp. “Há
chamas entrando.” Depois de alguns momentos, ele implorou, erguendo a voz: “A casa
está pegando fogo”. A família dele não conseguiu chegar até a casa. A polícia não
retomou Digana até a manhã seguinte. Eles encontraram Abdul morto no andar de cima.

Os líderes do país, desesperados para conter a violência, bloquearam todo o acesso


às redes sociais. Foi uma alavanca que eles resistiram a puxar, relutantes em bloquear
plataformas que alguns ainda atribuem à única transição recente de seu país para a
democracia, e temerosos de parecer restabelecer os abusos autoritários de décadas
anteriores. Duas coisas aconteceram quase imediatamente. A violência parou; sem o
Facebook ou WhatsApp conduzindo-os, os mobs simplesmente foram para casa. E os
representantes do Facebook, depois de meses ignorando os ministros do governo,
finalmente retornaram suas ligações. Mas não para perguntar sobre a violência. Eles
queriam saber por que o tráfego havia zerado.
Alguns dias depois, Amanda e eu chegamos a Digana, onde as cinzas ainda caíam
nas ruas. A cidade, no interior do Sri Lanka de colinas cor de esmeralda e reservas
naturais, ficava a apenas trinta minutos de alguns dos resorts mais luxuosos do país.
Vizinhos assistiram de barracas de chá enquanto um homem chamado Fazal nos
recebia em sua casa, a poucos metros da estrutura do prédio onde seu irmão, Abdul,
havia morrido no incêndio. Fazal, que trabalha como imã, usa o Facebook para tudo,
como todo mundo, disse ele. Perguntei a ele sobre desinformação e ódio online, mas
ele não pareceu entender.
O Facebook simplesmente era. Eu também poderia ter perguntado se ele culpou o
vento pelos incêndios. Não queria pressionar um homem de luto. Ele serviu sorvete
para nós e saiu para o trabalho.
Um jovem vizinho que se juntou a nós na casa de Fazal, Jainulabdeen,
Machine Translated by Google

disse-nos, assim que nosso anfitrião partiu: “Esperávamos isso”. Talvez não querendo
embaraçar Fazal, ele esperou para falar. Como a família Basith, Jainulabdeen era
muçulmana. Mas os vizinhos cingaleses o avisaram com dias de antecedência. “A
maioria deles sabia”, disse ele. “Eles sabiam disso pelo Facebook.”
Quando perguntei sobre o vídeo de Weerasinghe, o extremista do Facebook,
caminhando com Digana para pedir a expulsão dos muçulmanos, Jainulabdeen bufou
e balançou a cabeça. “Nós o conhecemos”, disse ele. “Ele é da área.” No Facebook,
Weerasinghe exercia o poder de moldar a realidade de centenas de milhares. Mas
aqui em sua cidade natal, Jainulabdeen insistia que ele era apenas “uma pessoa
normal”. Seu pai era carpinteiro. As famílias se conheciam.
Os parentes de Jainulabdeen até pediram a intervenção da família de Weerasinghe.
A família, aparentemente compartilhando suas preocupações, prometeu falar com ele,
mas não deu em nada. Ele adorava estar na internet demais.
Assim que a turba se dissipou, a polícia prendeu Weerasinghe por incitamento.
O Facebook finalmente fechou sua página. Mas o vídeo de Ampara que inspirou tanta
violência, do inocente empregado de restaurante muçulmano Farsith Atham-Lebbe
pressionado a confirmar uma guerra racial inexistente, permaneceu online.
Os pesquisadores continuaram apresentando pedidos para que o Facebook o
removesse, e a empresa continuou recusando, ignorando seus relatórios ou
respondendo que o conteúdo não infringia regras.
Farsith estava escondido, ficamos sabendo, do outro lado do país. Enquanto eu
arranjava uma carona na esperança de encontrá-lo, Amanda voltou para a capital para
perseguir os detalhes de uma reunião que ela ouviu de uma fonte. Mais cedo naquele
dia, o diretor de políticas do Facebook para o sul da Ásia, Shivnath Thukral, voou para
se encontrar com ministros do governo, revelou a fonte. Agora que o Sri Lanka
desligou o plugue, o Facebook finalmente estava dando show de ouvir.

Thukral foi conciliador, disse um participante a Amanda. Ele reconheceu que o


Facebook falhou em abordar o incitamento e o discurso de ódio sobre os quais foi
alertado repetidas vezes. Ele prometeu uma melhor colaboração.
No dia seguinte, Thukral realizou uma ligação não oficial com representantes civis.
Ele admitiu que o Facebook não tinha moderadores falantes de cingalês suficientes
para controlar a desinformação e o ódio. Ele novamente prometeu que a empresa
contrataria mais.
Depois de algumas semanas, perguntamos ao Facebook quantos moderadores
que falavam cingalês eles haviam contratado. A empresa disse apenas que eles fizeram
Machine Translated by Google

progresso. Cética, Amanda vasculhou sites de empregos em países próximos. Ela


encontrou uma lista, na Índia, para trabalhar como moderadora de uma plataforma não
identificada em cingalês. Ela ligou para a empresa de terceirização por meio de um
tradutor, perguntando se o trabalho era para o Facebook. O recrutador disse que sim. Eles
tinham 25 vagas cingaleses, todas não preenchidas desde junho de 2017 - nove longos
meses antes. O “progresso” do Facebook era uma mentira.
“Somos um governo que chegou ao poder com base na liberdade de expressão”,
disse Harindra Dissanayake, assessora presidencial no Sri Lanka, a Amanda. Ele próprio
usou as redes sociais. Doeu-lhe desligar o acesso, mesmo que apenas por alguns dias.
Na melhor das hipóteses, disse ele, as plataformas de mídia social “tornaram as coisas
mais transparentes, deram voz a pessoas que não tinham voz”. Mas os últimos meses,
disse ele, destruíram sua fé na tecnologia que outrora creditara por trazer a democracia
ao seu país. “Essa ideia de mídia social como uma plataforma aberta e igualitária é uma
mentira completa”, ele agora acreditava. “Não existe editor, existe o algoritmo.”

Ele enfatizou que as divisões do Sri Lanka são anteriores à mídia social. Mas essas
plataformas, ele alertou, revelaram o que há de pior em uma sociedade, ampliando seus
extremos de maneiras que nunca antes foram possíveis. “Não culpamos completamente
o Facebook”, disse Dissanayake. “Os germes são nossos, mas o Facebook é o vento,
sabe?” Seu governo estava considerando regulamentações ou multas, disse ele. Mas ele
sabia que o poder do Sri Lanka era modesto.
Apenas os americanos, ele acreditava, tinham influência suficiente para forçar a mudança.
“Vocês, os próprios Estados Unidos, deveriam lutar contra o algoritmo. O que motiva o
Facebook, além disso?”
No dia seguinte, cheguei ao extremo oposto do país, onde um professor local que
dizia saber farsith me guiou até um pequeno povoado a alguns quilômetros de Ampara,
até uma fileira de casas de concreto de dois cômodos. Ele apontou para o terceiro a partir
do final.
Farsith, esperando lá dentro, havia raspado a barba. Não para esconder sua fé, disse
ele, mas porque, mesmo naquela aldeia distante, dificilmente conseguiria percorrer um
quarteirão sem ser reconhecido. “As pessoas me faziam todo tipo de perguntas”, disse
ele. Ou grite para ele: “Você é do vídeo!” Ele contou o tumulto, sua confusão e medo, a
fúria da turba. “Achei que aquele seria meu último dia”, disse ele. Ele fugiu na manhã
seguinte.
Tímido, quase infantil, ele parecia estar em outro lugar. Enquanto conversávamos, ele
torceu a mão na frente de sua sobrinha de cinco anos em uma brincadeira indiferente. Ela
Machine Translated by Google

puxou e cutucou, tentando trazer o olhar para cima do chão. O pai dela, que dirigia o
restaurante, trouxe-nos bananas e chá. Os irmãos fizeram tantos empréstimos para
construir a loja, disse ele, que não conseguiram pagar o seguro. Agora tudo se foi,
menos a dívida.
“Não sabemos o que fazer”, disse o irmão de Farsith. Talvez eles voltassem a
trabalhar na construção civil na Arábia Saudita, onde haviam economizado dinheiro
para o restaurante, embora isso significasse deixar suas famílias para trás. “Estamos
esperando a orientação de Deus.”
Farsith suspirou. “Não tenho nenhuma intenção de ficar aqui”, disse ele.
Perguntei-lhe várias vezes sobre a mídia social. O Facebook o transformou em
um vilão nacional. Espalhou uma mentira que arruinou sua família, talvez agora os
separando. Isso quase o matou. Mesmo agora, ele vivia com medo de outra turba
incitada pela plataforma.
Apesar de tudo, ele se recusou a abandonar as redes sociais. Com dias longos e
vazios escondido, ele disse: “Tenho mais tempo e olho muito mais para o Facebook”.

Fiquei chocado. Mesmo que ele não tivesse má vontade em relação à empresa
cuja plataforma havia abalado a vida de sua família, eu disse, ele sabia em primeira
mão que não podia acreditar no que via lá.
Não que ele acreditasse que a mídia social fosse precisa, disse ele. “Mas você
tem que gastar tempo e dinheiro para ir ao mercado comprar um jornal. Posso
simplesmente abrir meu telefone e receber as notícias. Ele olhou para cima do chão,
encolhendo os ombros. “Se está errado ou certo, é o que eu leio.”
Mantive contato intermitente com Farsith. Sua família caiu na pobreza. Ameaças
continuaram a segui-lo. Alguém do Facebook entrou em contato – citando o artigo
que Amanda e eu escrevemos – para perguntar o que havia acontecido. Farsith disse
à pessoa que estava desesperado por uma maneira de se alimentar. Ele estava
disposto a trabalhar. A ligação foi encerrada e ele nunca mais teve notícias do
Facebook. Depois de um ano, ele havia economizado o suficiente para viajar para o
Kuwait, onde começou a trabalhar como diarista. Ele ainda está lá.
Machine Translated by Google

Oito

Sinos de igreja

1. Situação de Ameaça

FOI DURANTE uma entrevista com Gema Santamaría, uma estudiosa da violência
vigilante que pesquisou incidentes estranhos em seu México natal, que percebi que
passaria anos tentando entender como esse padrão pode estar se desenrolando,
embora de maneiras menos óbvias ou menos efeitos óbvios, em todo o mundo,
talvez até nos Estados Unidos, onde os paralelos com a ascensão do trumpismo
estavam apenas surgindo. Ela estava encontrando no México os mesmos tipos de
surtos que pesquisadores de outros países ao redor do mundo vinham documentando.
Um subúrbio de Cancún que explodiu em violência devido à desinformação online.
Uma vila de famílias tranquilas que, depois de criar uma página no Facebook para
notícias da comunidade que se tornou um foco de rumores paranóicos, prenderam
dois perplexos pesquisadores itinerantes, a quem acusaram de conspirar para colher
os órgãos de crianças locais, e os colocaram em fogo. Então, em outra aldeia, o
mesmo padrão, desde os detalhes do boato até o método de assassinato, desta vez
ceifando a vida de dois homens que estavam na cidade para comprar postes de
cerca.
“A mídia social desempenha o papel que o toque dos sinos das igrejas costumava
desempenhar no passado”, disse Santamaría. “É assim que as pessoas sabem que
um linchamento vai acontecer.” As plataformas, ela explicou, reproduziam certos
mecanismos antigos pelos quais uma comunidade trabalhava para a violência
coletiva. O linchamento, quando um grupo segue sua indignação moral a ponto de
ferir ou matar alguém – a tirania dos primos no trabalho – é um impulso comunitário.
Uma demonstração pública do que acontece com aqueles que transgridem a tribo.

“O objetivo é comunicar”, disse Santamaría sobre o linchamento. Os falsos


rumores que se espalham consistentemente antes da violência em massa, ela
Machine Translated by Google

acreditou, foi a dizer que a mídia social tinha aprendido a reproduzir esse processo
antigo. Mais do que apenas desencadear um sentimento preexistente, a mídia social
o estava criando. Os rumores não eram aleatórios. "Eles têm uma lógica para eles",
disse ela. “Eles não visam a todos.” Em vez disso, os rumores ativaram uma
sensação de perigo coletivo em grupos que eram dominantes, mas sentiam que seu
status estava em risco – maiorias com raiva e medo de mudanças que ameaçavam
corroer sua posição na hierarquia. Como as forças impessoais da mudança social
são, para a maioria das pessoas, tão invencíveis quanto o clima, a mídia social
interveio para fornecer um vilão mais corpóreo e conquistável: blogueiras feministas,
a minoria religiosa vizinha, refugiados. “Isso finalmente é algo sobre o qual você tem
controle”, disse Santamaría. “Você pode realmente fazer algo sobre isso.”

Em Mianmar, as plataformas de mídia social satisfizeram os temores da longa


maioria budista dominante que sentiu, com a chegada da democracia, uma mudança
no status quo que há muito os privilegiava. Na Índia, era a maioria hindu, por motivos
semelhantes. Em 2018, os repórteres da BBC no norte da Nigéria encontraram o
mesmo padrão, a maioria Fulani contra a minoria Berom, tudo no Facebook. Nos
Estados Unidos, a mídia social aproveitou a reação dos brancos contra a imigração,
o Black Lives Matter, o aumento da visibilidade dos muçulmanos, a recalibração
cultural em direção a uma maior tolerância e diversidade. Os rumores mais
compartilhados, apontou Santamaría, muitas vezes tinham a ver com reprodução ou
população. Sri Lanka e pílulas de esterilização. América e uma conspiração liberal
para substituir os brancos por refugiados.
O elemento definidor de todos esses rumores era algo mais específico e perigoso
do que a indignação generalizada: um fenômeno chamado ameaça de status.
Quando membros de um grupo social dominante se sentem em risco de perder sua
posição, isso pode desencadear uma reação feroz. Eles ficam nostálgicos de um
passado, real ou imaginário, quando se sentiam seguros em seu domínio (“Make
America Great Again”). Eles ficam hipersintonizados com qualquer mudança que
possa parecer ligada à sua posição: mudança demográfica, evolução das normas
sociais, ampliação dos direitos das minorias. E eles ficam obcecados em representar
as minorias como perigosas, manifestando histórias e rumores para confirmar a
crença. É uma espécie de mecanismo de defesa coletiva para preservar o domínio.
É principalmente inconsciente, quase animalesco e, portanto, facilmente manipulado,
seja por líderes oportunistas ou algoritmos em busca de lucro.
Machine Translated by Google

O problema não é apenas que a mídia social aprendeu a promover indignação, medo e conflito
tribal, todos sentimentos que se alinham com a ameaça de status. Online, à medida que publicamos
atualizações visíveis para centenas ou milhares de pessoas, carregadas com as emoções de grupo
que as plataformas encorajam, “nossas identidades de grupo são mais salientes” do que as individuais,
como William Brady e Molly Crockett escreveram em seu artigo sobre efeitos das redes sociais. Não
apenas nos tornamos mais tribais, como também perdemos nosso senso de identidade. É um ambiente,
escreveram eles, “pronto para o estado psicológico de desindividuação”.

A definição abreviada de desindividuação é “mentalidade de turba”, embora seja mais comum do


que se juntar a uma turba. Você pode se desindividuar sentando na arquibancada em um jogo de
esportes ou cantando junto na igreja, entregando parte de sua vontade à do grupo. O perigo surge
quando essas duas forças se misturam: a desindividuação, com seu poder de anular o julgamento
individual, e a ameaça de status, que pode desencadear uma agressão coletiva em escala terrível.

Lembrei-me de uma conversa com Sanjana Hattotuwa, a apaixonada pesquisadora digital que
rastreou o ódio online no Sri Lanka. “O câncer cresceu tanto que você está olhando para pessoas
comuns”, ele disse.
“É perturbador. A radicalização está acontecendo em uma idade muito jovem.” Mesmo os alunos de
famílias perfeitamente legais, se fossem ativos nas mídias sociais, eram sugados, seus mundos e
visões de mundo definidos pela ameaça de status que encontravam online. “Esta é a iniciação deles
nas relações comunitárias”, disse ele. “E é ódio. É muito, muito ruim.”

Talvez esse padrão, de ameaça de status correndo desenfreada online, tenha ajudado a explicar
por que, em 2016, os apoiadores de Trump caíram muito mais na toca do coelho digital do que outros
americanos. Se a mídia social fosse construída para ativar o pânico da identidade majoritária, então a
redução da maioria branca da América – e especialmente os brancos não graduados ou da classe
trabalhadora que tendem a manter sua identidade racial mais de perto e que se tornaram o grosso da
coalizão Trump – ser perigosamente suscetível ao mesmo padrão que eu tinha visto no Sri Lanka.
Ameaça de status e desindividuação digital em escala nacional. Em 2018, essa tribo, com um punhado
de exceções como a manifestação em Charlottesville, ainda não havia se preparado para a violência
da multidão.

Mas eu me perguntei se esse tipo de influência da mídia social poderia estar surgindo de outras
formas, preparando as pessoas para a violência racial de maneiras menos óbvias, mas ainda
consequentes.
Logo obtive uma resposta. Assim como o Sri Lanka entrou em combustão em março de 2018, dois
Machine Translated by Google

Cientistas sociais alemães estão quase concluindo um longo projeto que examina os efeitos
subterrâneos das mídias sociais em seu país. O estudo sugeriu uma revelação chocante,
sugerindo que eventos como os de Mianmar e Sri Lanka, longe de serem únicos, também
estavam ocorrendo nas democracias ocidentais, apenas de maneiras mais sutis. Para
entendê-lo, viajei para uma pequena cidade perto de Düsseldorf, onde minha colega Amanda
Taub se juntaria a mim alguns dias depois.

2. Envenenamento por Ironia

DURANTE DOIS DIAS em junho de 2018, alguns meses depois de nossa reportagem no Sri
Lanka, vaguei pelas ruas de paralelepípedos de Altena, fazendo uma pergunta que atraiu
acenos sóbrios e conhecedores. O que aconteceu com Dirk Denkhaus?
Altena, como muitas outras cidades no noroeste industrial da Alemanha, estava em
declínio, explicariam os moradores, uma situação que deixava os jovens entediados e
desiludidos. A Alemanha recentemente aceitou quase um milhão de refugiados de zonas de
guerra distantes, que a maioria em Altena apoiou. Mas alguns acharam o influxo
desorientador. Esse era o contexto, diriam eles, para entender por que Denkhaus, um jovem
bombeiro estagiário que não era considerado nem perigoso nem político, tentou incendiar
uma casa de grupo de refugiados enquanto várias famílias dormiam lá dentro.

Mas aqueles que parei, sejam velhos ou jovens, citaram repetidamente outro fator que
chamaram de tão importante quanto os outros: o Facebook. Todo mundo aqui tinha visto
rumores nas redes sociais retratando os refugiados como uma ameaça. Eles encontraram o
vitríolo enchendo os grupos locais do Facebook, um contraste chocante com os espaços
físicos de Altena, onde as pessoas acenavam calorosamente para as famílias refugiadas.
Muitos aqui suspeitaram - e os promotores argumentariam mais tarde - que Denkhaus havia
se isolado em um mundo online de paranóia racista que gradualmente o mudou.

Altena exemplificou um fenômeno há muito suspeito, mas, a partir de 2018, pouco


estudado: as plataformas de mídia social tornam comunidades inteiras mais propensas à
violência racial. A cidade foi um dos mais de três mil pontos de dados em um estudo que
pretendia provar isso. Karsten Müller e Carlo Schwarz, pesquisadores da Universidade de
Warwick, no Reino Unido, coletaram dados sobre todos os ataques contra refugiados na
Alemanha em um período de dois anos, 3.335 no total. Foi um período volátil, pois a crise
dos refugiados na Europa foi
Machine Translated by Google

seguido por um aumento na política de extrema-direita. A escala absoluta apresentou


uma oportunidade para isolar a influência da mídia social. Em cada incidente do estudo,
os pesquisadores analisaram a respectiva comunidade local, usando um punhado de
variáveis-chave. Fortuna. Demografia. Lealdade política. Número de refugiados. Histórico
de crimes de ódio.
Uma coisa se destacou. Cidades com uso do Facebook acima da média
experimentaram com segurança mais ataques a refugiados. Isso era verdade em
praticamente qualquer tipo de comunidade: grande ou pequena, rica ou batalhadora,
liberal ou conservadora. O aumento não se correlacionou com o uso geral da web; era
específico para o Facebook. Seus dados se resumiram a uma estatística de tirar o
fôlego: sempre que o uso do Facebook por pessoa aumentou um desvio padrão acima
da média nacional, os ataques a refugiados aumentaram cerca de 35%.
Em todo o país, eles estimaram, esse efeito gerou até 10% de toda a violência anti-
refugiados.
Os especialistas a quem pedi para revisar as descobertas os consideraram confiáveis
e rigorosos. Ainda assim, o estudo mais tarde atraiu críticas por floreios metodológicos.
Para avaliar o uso do Facebook cidade por cidade, por exemplo, os pesquisadores
rastrearam uma bateria de indicadores, um dos quais era quantos usuários se juntaram
à página de fãs da Nutella. Eles argumentaram que a Nutella era universalmente popular
e culturalmente neutra, tornando-a uma referência útil.
Os críticos consideraram a escolha pouco séria e infundada. Os pesquisadores
resolveram os problemas em uma reformulação posterior. Meu interesse, no entanto,
não era provar a matemática no final do artigo, mas usá-la como um roteiro para a
influência do Facebook. Foi por isso que vim para Altena, onde os pesquisadores
descobriram que o uso do Facebook e o sentimento anti-refugiado eram excepcionalmente
altos e em taxas alinhadas com as projeções do jornal. Talvez Denkhaus representasse
uma mudança mais profunda.
Quando os refugiados chegaram aqui pela primeira vez, alguns anos antes, em
2015, tantos locais se ofereceram para ajudar que Anette Wesemann, que assumiu o
centro local de integração de refugiados depois de desistir de sua casa na movimentada
Hanover para uma vida tranquila no vilarejo, não conseguiu não acompanhe. Ela
encontrava famílias sírias ou afegãs atendidas por comitivas inteiras de autoproclamados
treinadores de vida e tutores alemães. “Foi realmente comovente”, disse ela. Mas
quando ela criou uma página no Facebook para organizar eventos de voluntariado, ela
se encheu de vitríolo anti-refugiado de um tipo que ela nunca havia encontrado off-line.
Algumas postagens eram ameaçadoras, mencionando refugiados locais pelo nome. Com o tempo, sua raiva
Machine Translated by Google

provou contagiante, dominando a página. Quando mencionei a pesquisa que ligava o


Facebook à violência contra refugiados, ela respondeu: “Eu acreditaria imediatamente”.

O sentimento anti-refugiado está entre as expressões mais puras de ameaça de status,


combinando o medo da mudança demográfica com o tribalismo racial. Mesmo que poucos
locais realmente odiassem os refugiados, suas postagens aumentaram continuamente,
recompensadas por sua capacidade de provocar, como o conteúdo antivacina que Renée
DiResta considerou grupos de pais avassaladores. À medida que o ódio invadiu as páginas
locais, criando, como sempre, uma falsa impressão de consenso, mais pessoas pareciam aderir.
Dirk Denkhaus experimentou um microcosmo desse processo. Quando me encontrei
com Gerhard Pauli, o procurador-chefe da região, que supervisionou a investigação sobre
Denkhaus, ele pegou uma pasta contendo centenas de impressões de postagens do
Facebook e do WhatsApp que a polícia havia retirado do celular de Denkhaus. Sua queda
para o extremismo, disse Pauli, começou como uma piada. Ele e um amigo trocavam
memes racistas, muitas vezes emprestados de grupos públicos do Facebook, para provocar
e chocar um ao outro.

“Eles se pegaram brincando, chamando um ao outro de 'mein Führer' e coisas assim”,


disse o promotor, balançando a cabeça. Com o tempo, o sentimento tornou-se sincero. “Há
uma distância muito pequena”, disse Pauli, “entre a piada e a realidade”. Denkhaus cruzou
essa distância em cerca de seis meses. “Certo dia, ele disse a seu parceiro: 'E agora temos
que fazer alguma coisa'”, disse Pauli. Naquela noite, ele e seu amigo invadiram o sótão de
uma casa de refugiados e atearam fogo aparentemente com a intenção de matar todos lá
dentro.
Felizmente, o fogo apagou. A polícia prendeu os dois homens no dia seguinte.
Há um termo para o processo descrito por Pauli, de piadas online gradualmente
internalizadas como sinceras. Chama-se envenenamento por ironia. Usuários intensos de
mídia social costumam se autodenominar “envenenados por ironia”, uma piada sobre o
entorpecimento dos sentidos que vem de uma vida inteira absorta em subculturas de mídia
social, onde prevalecem o distanciamento irônico, a superestimulação algorítmica e o humor
ousado de ofender. Em formas mais extremas, a exposição sustentada a conteúdo
censurável, gasto em Facebook ou YouTube, pode diminuir as defesas das pessoas contra
isso. A dessensibilização faz com que as ideias pareçam menos tabus ou extremas, o que,
por sua vez, as torna mais fáceis de adotar.
No tribunal, o advogado de Denkhaus enfatizou que seu cliente, em sua vida off-line,
não demonstrou animosidade em relação aos refugiados antes daquela noite. Enquanto
Machine Translated by Google

Com a intenção de minimizar a relevância da mídia social, essa observação, em vez


disso, destacou seu poder. Na Altena real, prevaleciam normas sociais extremamente
tolerantes. Mas no Facebook, um ambiente fechado com suas próprias regras
morais, Denkhaus foi levado sem controle para o extremismo.
Pauli acredita que Denkhaus representou uma tendência. O promotor disse que
estava “totalmente certo” de que a mídia social havia exacerbado o aumento da
violência em Altena. Alguns meses depois, seu prefeito foi esfaqueado por um
homem que disse estar indignado com as políticas pró-refugiados da cidade. A
polícia, disse Pauli, suspeitava de um link de mídia social. As páginas locais do
Facebook estavam cheias de raiva contra o prefeito pouco antes do ataque. A polícia
não se preocupou em coletar evidências de influência online, já que o agressor já
havia confessado. E mesmo que Pauli considerasse a gigante do Vale do Silício uma
espécie de cúmplice involuntário, ele sabia que a empresa estava além de qualquer
justiça que ele pudesse fazer.
Seu escritório passava cada vez mais tempo rastreando a incitação nas
plataformas. Ele estava ficando preocupado, disse ele, com rumores que poderiam
levar pessoas normais à violência. Estranhamente, como no México e na Indonésia
e aparentemente em todos os outros países, eles muitas vezes pareciam lançar
ameaças misteriosas às crianças. “Temos muitas situações em que alguém viu
alguém fora do jardim de infância”, disse Pauli, balançando a cabeça.
“Em cinco minutos está se espalhando”, disse ele, “e de poste em poste, fica pior.
Demora duas horas e então você tem um linchamento na rua.”

3. Superposters

TRAUNSTEIN, UMA CIDADE DA MONTANHA perto da Áustria, é, em muitos


aspectos, o oposto de Altena. Sua economia turística está prosperando. Sua política
é liberal. Os jovens são ativos na comunidade. Mas, como em Altena, o uso do
Facebook e a violência anti-refugiados são incomumente altos aqui. Cheguei, agora
acompanhado por Amanda, procurando algo em particular. Ao verificar os grupos
locais do Facebook em busca dos pôsteres mais ativos e visíveis, descobrimos o
que é conhecido como superposter, alguém que incorpora as maneiras pelas quais
o Facebook pode tornar uma comunidade cada vez mais extrema. Seu nome era
Rolf Wassermann.
Qualquer que seja a imagem que você tenha em sua cabeça do viciado em
internet que mora no porão, Wassermann é o oposto. Meia-idade e bronzeado, um
Machine Translated by Google

artista de profissão, ostentando uma barba grisalha e um terno todo preto, ele parece
ter saído de um anúncio de TV para uma cerveja de luxo. Embora conservador, ele
dificilmente é radical. Mas ele é furiosamente ativo online, onde se encaixa no perfil
arquetípico do superposter. Ele publica fluxos de rumores, colunas de opinião
estridentes e reportagens sobre crimes cometidos por refugiados. Embora nenhum
deles tenha se transformado em discurso de ódio ou notícias falsas, no geral eles
retrataram a Alemanha como cercada por estrangeiros perigosos.
“No Facebook, é possível atingir pessoas que não são altamente políticas”, ele
nos disse durante o café. “Você pode construir as opiniões políticas das pessoas no
Facebook.” Ele descreveu o que disse ser um arco típico para as pessoas que
conheceu lá. Eles começariam como não particularmente políticos. Eles começaram
a postar com frequência, talvez graças a um súbito excesso de tempo livre, em
quaisquer itens que aparecessem em seus feeds. Eles se juntavam a grupos do
Facebook, onde ele os encontrava com frequência. Com o tempo, eles se tornaram
mais estridentemente políticos, disse ele. Assim como ele tinha.
Ele preferia a mídia social a jornais ou TV, disse ele, porque “o Facebook é mais
honesto”. Por exemplo, no Facebook, ele soube, disse ele, que o número de refugiados
na Alemanha e os crimes que eles cometeram eram maiores do que a mídia afirmava.
E ele fez o possível para ampliar essa revelação. “As coisas que as pessoas dizem
no Facebook são apenas mais verdadeiras”, disse ele. Como se percebesse o absurdo
de acreditar em tal coisa com fé pura, ele riu, acrescentando: “Acho que sim, de
qualquer maneira. Eu não sou Deus, eu não sei.”

Usuários hiperativos como Wassermann tendem a ser “mais opinativos, mais


extremos, mais engajados, mais de tudo”, disse Andrew Guess, cientista social da
Universidade de Princeton. É um conjunto de características diferente daqueles que
você pode associar à classe muito estudada e muito entrevistada de viciados em
mídia social e pioneiros como Adam, o devoto do 4chan. Superposters são uma raça
própria, e uma que as plataformas tornaram excepcionalmente influentes. Quando
usuários mais casuais abrem a mídia social, muitas vezes o que eles veem é um
mundo moldado por superposters. As mídias sociais atraem pessoas com certos
tiques de personalidade que tornam o uso pesado extraordinariamente gratificante.
Sua predominância, por sua vez, distorce as normas e preconceitos das plataformas.
E aqueles traços e tiques definidores dos superposters, mapeados em uma série
de estudos psicológicos, são amplamente negativos. Uma é o dogmatismo: “certeza
relativamente imutável e injustificada”. A dogmática tende a ser
Machine Translated by Google

tacanho, insistente e barulhento. Outro: narcisismo grandioso, definido por


sentimentos de superioridade e direito inatos. Os narcisistas são consumidos por
desejos de admiração e pertencimento, o que torna o feedback instantâneo da
mídia social e grandes audiências quase irresistíveis. Essa necessidade é
aprofundada pela baixa auto-estima incomum dos superposters, que é exacerbada
pelas próprias plataformas. Um estudo concluiu simplesmente: “A hostilidade
política online é cometida por indivíduos predispostos a serem hostis em todos os
contextos”. Experimentos neurológicos confirmaram isso: os superposters são
atraídos e se sentem recompensados pela potência social negativa, um termo
clínico para obter prazer ao infligir deliberadamente sofrimento emocional aos
outros. Além disso, usando mais a mídia social e sendo recompensados por isso
com maior alcance, os superposters puxam as plataformas para essas tendências
definidoras de dogmatismo, narcisismo, engrandecimento e crueldade.
Em um teste não intencional de 2015, Ellen Pao, ainda chefe do Reddit, tentou
algo sem precedentes: em vez de promover superusuários, o Reddit proibiria o
mais tóxico deles. De dezenas de milhões de usuários, sua equipe concluiu,
apenas cerca de 15.000, todos hiperativos, dirigiam grande parte do conteúdo
odioso. Expulsá-los, pensou Pao, pode mudar o Reddit como um todo.
Ela estava certa, descobriu uma análise externa. Com a eliminação dessa
porcentagem minúscula de usuários, o discurso de ódio em geral caiu
surpreendentes 80% entre os que permaneceram. O comportamento de milhões
de pessoas mudou da noite para o dia. Foi um raro sucesso no combate a um
problema que só se aprofundaria em outras plataformas maiores, que não seguiram o exemplo do R
Eles não tinham interesse em suprimir seus usuários mais ativos, muito menos em
reconhecer que poderia haver muito tempo online.
Os superposters poderiam alterar não apenas o que aparecia nos feeds das
pessoas, mas também seu próprio senso de certo e errado? Fiz a pergunta a Betsy
Levy Paluck, que ganhou uma “bolsa de gênio” da Fundação MacArthur por seu
trabalho explorando como as normas sociais influenciam o comportamento. Eu
esperava que ela citasse sua pesquisa sobre, digamos, violência comunitária em
Ruanda. Em vez disso, ela queria falar sobre bullying escolar. Os alunos intimidam
ou não, ela descobriu em uma longa investigação, baseada em grande parte não
se eles esperam punição ou acham que o alvo a merece, mas se isso parece
moral para eles. Ou o bullying parecia permissível, até justo, ou parecia errado, e
esse barômetro interno era o que mais importava. Mas como nosso barômetro moral é definido?
Gostamos de pensar que seguimos um código moral inato, derivado
Machine Translated by Google

de princípios elevados, experiência vivida, o conselho de um ancião de confiança. Na


verdade, os estudos constatam repetidamente que nosso senso de certo ou errado é
fortemente, embora inconscientemente, influenciado pelo que acreditamos que nossos
colegas pensam: moralidade por consenso tribal, guiado não por algum anjo melhor ou
poder superior, mas por deferência autopreservadora à tirania dos primos.
Em um experimento na zona rural do México, os pesquisadores produziram uma
novela em áudio cuja história desencorajava a violência doméstica contra as mulheres.
Em algumas áreas, as pessoas jogavam a novela para elas em particular em suas casas.
Em outros, foi transmitido pelos alto-falantes das aldeias ou em reuniões comunitárias.
Os homens que ouviam em casa eram tão propensos à violência doméstica quanto antes.
Mas os homens que ouviram em grupos tornaram-se significativamente menos propensos
a cometer abusos. E não por pressão percebida.
Suas crenças internas mudaram, tornando-se moralmente opostas à violência doméstica
e apoiando a igualdade de gênero. A diferença estava em ver seus pares absorverem a
novela. O impulso de conformidade - o mesmo que levou os primeiros usuários do
Facebook a se enganarem e ficarem furiosos com o feed de notícias - pode penetrar até
a medula moral do seu eu mais íntimo.

Na maioria das vezes, deduzir as opiniões morais de nossos colegas não é tão fácil.
Então usamos um atalho. Damos atenção especial a um punhado de colegas que
consideramos influentes, seguimos suas sugestões e presumimos que isso refletirá as
normas do grupo como um todo. As pessoas que escolhemos como referências morais
são conhecidas como “referentes sociais”. Dessa forma, a moralidade é “uma espécie de
tarefa perceptiva”, disse Paluck. “Quem em nosso grupo está realmente aparecendo para
nós? Quem recrutamos em nossas memórias quando pensamos no que é comum, o que
é desejável?”
Para testar isso, Paluck fez sua equipe se espalhar por 56 escolas, identificando quais
alunos eram influentes entre seus colegas, bem como quais alunos consideravam o
bullying moralmente aceitável. Em seguida, ela escolheu vinte ou trinta alunos em cada
escola que pareciam se encaixar em ambas as condições: esses eram, presumivelmente,
os alunos que desempenhavam o maior papel na instilação de normas sociais pró-
bullying em suas comunidades. Eles foram solicitados a condenar publicamente o bullying
- não forçados, apenas solicitados. O empurrãozinho para essa pequena população
provou ser transformador. Referências psicológicas descobriram que milhares de
estudantes se tornaram internamente contrários ao bullying, suas bússolas morais
puxadas para a compaixão. Relatórios disciplinares relacionados ao bullying
Machine Translated by Google

caiu 30 por cento.


As plataformas de mídia social nos colocam em uma versão do experimento escolar de
Paluck. Mas, online, nossos referentes sociais, as pessoas colocadas artificialmente em
nosso campo de visão moral, são os superposters. Não porque sejam persuasivos,
atenciosos ou importantes, mas porque impulsionam o engajamento.
Isso era algo único para plataformas como o Facebook, disse Paluck.
Qualquer um que passasse muito tempo no feed se tornava influente. “Na vida real,
algumas pessoas podem falar muito, mas não são as mais ouvidas. Mas o Facebook”,
disse ela, “os coloca na sua frente todas as vezes”.
E a mídia social não o cerca apenas de superposters. Ele exibe suas mensagens em
vastos fóruns públicos, onde você sabe que todo mundo também os vê, como os alto-
falantes nas aldeias mexicanas que demonstraram tanto poder para alterar uma comunidade
de uma só vez. Na Alemanha, a mídia social parece ter elevado uma classe de superposters
como Wassermann, que deu aos usuários de todo o site a impressão de que as normas
sociais eram mais hostis aos refugiados e mais conspiratórias do que realmente eram. Foi
o imbróglio “Contra o feed de notícias” do Facebook em 2006, agora elevado à psique
política de toda uma nação e dirigido a milhões dos residentes mais vulneráveis do país.
Mesmo que nenhum desses superposters endossasse explicitamente a violência, disse
Paluck, o efeito agregado de suas mensagens anti-refugiados e anti-governo provavelmente
fez com que a violência dos vigilantes parecesse tolerada, até mesmo encorajada.

Naquela tarde, em um evento da comunidade Traunstein, uma professora chamada


Natascha Wolff se animou quando me ouviu perguntando sobre mídia social.
Wolff ensinou em uma escola vocacional, disse ela, com uma mistura de alunos alemães e
estrangeiros. Nos últimos meses, as crianças alemãs haviam se desviado, quase
uniformemente, para uma estridente hostilidade anti-refugiados que ela nunca havia
encontrado antes. Havia, ela sabia, provavelmente muitas razões para isso. Mas sempre
que ela perguntava onde eles aprenderam as estatísticas falsas ou as afirmações odiosas
que repetiam uns aos outros com alarme, ela recebia a mesma resposta: Facebook.

Qualquer boato ou boato no Facebook depreciando os estrangeiros, disse ela, “se


espalha rapidamente. As pessoas se sentem confirmadas em seu ponto de vista.” Ela
acrescentou, sacudindo o braço para cima e para baixo para imitar alguém batendo no
teclado: “É apenas, 'como, como, como'”. Se ela contestava uma afirmação falsa, ela
sempre recebia a mesma resposta: “Todo mundo sabe que isso é verdade. ” Mas muitas vezes os alunos eram
Machine Translated by Google

errado sobre isso também; muitos em Traunstein rejeitaram os rumores como falsos.
Wolff temia que essa bolha do Facebook, o falso consenso comunitário, tivesse consequências.
Seus alunos refugiados tiveram café jogado sobre eles na rua, lixo jogado sobre eles das
janelas dos carros. A violência casual, à luz do dia, só se tenta com a suposição de que será
tolerada.
A violência nascida nas redes sociais tornou-se tão comum que a polícia começou a tratar
as plataformas como uma ameaça contínua à segurança pública.
“O Facebook não é apenas como um quadro de anúncios onde as pessoas penduram coisas
e outras as leem”, disse-nos um inspetor da polícia local chamado Andreas Guske durante um
café no dia seguinte. “O Facebook, com seu algoritmo, influencia as pessoas.”
Guske, um detetive veterano, um pouco grisalho, começou a levar a mídia social a sério como
uma ameaça em 2015, durante uma cúpula do Grupo dos Sete nas proximidades.
Quando os manifestantes chegaram, ele notou plataformas cheias de rumores, alguns dos
quais levaram a multidão a um frenesi paranóico. No ano seguinte, os ataques a refugiados
pareciam aumentar em conjunto com o discurso de ódio online. Ele reformulou a equipe que
supervisiona as comunicações do departamento para revidar, online e offline.
Eles se consideravam trabalhadores da saúde pública, vacinando as comunidades contra a
desinformação viral e suas consequências.
Em um caso recente, Guske me disse, o Facebook fervilhou com alegações de que um
grupo de refugiados muçulmanos em uma cidade perto de Traunstein arrastou uma menina
de onze anos para uma passagem subterrânea de pedestres e a estuprou. O boato, embora
falso, provocou ondas de indignação quando o Facebook o divulgou em toda a Alemanha.
Quando a polícia negou a história, os usuários insistiram que os políticos haviam ordenado
que eles o encobrissem. Os rumores começaram, a equipe de Guske descobriu, depois que
a polícia prendeu um imigrante afegão acusado de apalpar uma garota de dezessete anos.
À medida que os usuários do Facebook retransmitiam o incidente, alguns adicionavam
detalhes que chocavam ou indignavam, o que fez com que essas versões passassem rapidamente pela verdade.
Um agressor tornou-se vários. Um apalpar se tornou um estupro. Uma vítima adolescente
tornou-se um adolescente.
A polícia postou declarações no Facebook e no Twitter desmentindo o boato, reconstruindo
sua propagação. Se a polícia pudesse mostrar como as plataformas distorciam a realidade,
acreditava Guske, as pessoas seriam persuadidas a rejeitar o que viram ali. Mas ele também
sabia que, nas redes sociais, uma checagem sóbria de fatos nunca seria tão alta quanto um
boato lascivo. Assim, sua equipe identificou moradores locais que compartilharam o boato no
início de sua propagação e, em seguida, apareceram em suas casas com evidências de que
haviam entendido errado. Ele pediu
Machine Translated by Google

eles negassem publicamente suas reivindicações, na esperança de transformar os próprios


sistemas de promoção das plataformas contra a desinformação. Todos, exceto um,
removeram ou corrigiram suas postagens conforme ele havia solicitado. Mas eles nunca
conseguiam acompanhar as plataformas, cuja produção venenosa, ele temia, estava apenas acelerando.
E ele lamentou que o Facebook, naquela época uma empresa de US$ 500 bilhões, tenha
deixado para departamentos de polícia sobrecarregados gerenciar os riscos que eles
criaram. “É difícil evitar notícias falsas, porque uma vez que o Facebook as divulga...” ele
parou, balançando a cabeça. "O que mais você pode fazer?"
Naquela tarde, enquanto Amanda entrevistava moradores da cidade sobre mídias
sociais, encontrei-me em um parque próximo com uma jovem que havia frequentado a
escola profissionalizante de Wolff. Ela veio com uma amiga, que trouxe seu bebê. Ambas as
mulheres, educadas mas cautelosas, se descreveram como não muito políticas.
Nenhum dos dois leu as notícias, exceto o que viram no Facebook, que verificaram com
frequência. Uma vez perguntei como eles se sentiam em relação aos refugiados, era tudo
sobre o que queriam falar. Os refugiados eram violentos, estupradores e muitos simpatizavam
com os extremistas, disseram eles. Eles contaram histórias chocantes e implausíveis de
crimes de refugiados escondidos pelo governo. Eles leram tudo sobre isso no Facebook,
onde frequentemente discutiam a “situação dos refugiados”, disse um deles.

Traunstein é liberal, mas está politicamente dividido, e perguntei à mulher se ela já


discutia sobre refugiados online. Ela parecia confusa com a pergunta. “Todo mundo se sente
assim”, disse ela. Sua bolha de filtro, unânime no medo, tornou-se sua realidade. Ela, como
Wassermann e seus amigos online, como os outros alunos de Wolff, como os locais que
Guske implorou para derrubar falsidades racistas, eram a massa submersa de um iceberg
de radicalização da mídia social em toda a sociedade. Denkhaus, o bombeiro-incendiário,
era apenas a dica. Havia inúmeros outros alemães que também se tornaram mais xenófobos,
mais conspiradores, mais nacionalistas. A maioria nunca recorreria à violência. Mas sua
deriva coletiva teve consequências mais profundas, afetando invisivelmente os costumes e
a política da sociedade.

Em uma democracia rica como a Alemanha, o resultado pode não ser tão óbvio quanto um
linchamento ou uma rebelião. Pode ser pior. O centro político do país estava em colapso. A
extrema-direita alemã estava em ascensão.
“Um dos alunos da minha escola foi mandado de volta para a África”, disse a mulher
com aprovação. A deportação ocorreu devido a um erro em sua papelada de imigração.
“Todos eles devem ser enviados de volta.”
Machine Translated by Google

4. Escurecendo

OS PESQUISADORES ALEMÃES da Universidade de Warwick sabiam que um


elemento de sua teoria — a causalidade — precisava de atenção especial. Poderia ser
provado que o uso do Facebook e a violência anti-refugiados aumentaram em conjunto
especificamente porque o primeiro causou o segundo? Eles tiveram a ideia de examinar
todas as interrupções significativas da Internet no período coberto pelo estudo. A
infraestrutura de internet alemã tende a ser localizada, tornando as interrupções
comuns, mas isoladas. Cada um foi uma oportunidade para testar a causalidade: se
privar uma comunidade do Facebook repentinamente diminuísse a violência dos
moradores contra os refugiados, isso sugeriria que o Facebook conduziu alguns ataques.
Com certeza, sempre que o acesso à Internet caiu em uma área com alto uso do
Facebook, os ataques aos refugiados diminuíram significativamente. A mesma queda
não ocorreu, no entanto, quando as áreas com alto uso da Internet, mas apenas o uso
médio do Facebook, sofreram uma interrupção, sugerindo que o efeito provocador da
violência era específico da mídia social, e não da própria Internet. E a violência caiu na
mesma proporção - 35 % - na qual o estudo sugeriu que o Facebook impulsionou esses
ataques. Os pesquisadores enfatizaram que isso não era definitivo em si, apenas um
exercício para verificar suas conclusões. Mas foi uma indicação impressionante de que
eles estavam no caminho certo - e uma oportunidade de considerar, com um rigor que
fechamentos pontuais como o do Sri Lanka não poderiam fornecer, o que acontece
quando a mídia social desaparece.
“O mundo ficou menor, muita coisa mudou”, disse Stefania Simonutti, lembrando a
interrupção que cobriu seu subúrbio de Berlim por vários dias a algumas semanas,
dependendo do quarteirão. O subúrbio, Schmargendorf, parece um refúgio das forças
do ódio. Diversas famílias de classe média passeiam por avenidas repletas de butiques
e mercados de produtores de luxo. Mas o uso do Facebook é alto aqui. Assim como os
ataques anti-refugiados, exceto durante a interrupção.
Simonutti, questionado sobre como ela lidou com isso, abriu a boca e pressionou
as palmas das mãos nas bochechas em um grito de pantomima. Ela havia perdido
contato com a família no exterior - e com as notícias, para as quais confiava apenas
nas redes sociais. “Muitas pessoas mentem e falsificam coisas nos jornais”, disse ela.
“Mas com a internet, posso decidir por mim mesmo no que acreditar e no que não.”
Forçada a abrir mão das conspirações da mídia social que gostava de acompanhar
online, ela disse, preencheu o tempo vazio relaxando com sua família.
Todos pareciam se lembrar da interrupção. Esperanza Muñoz, uma alegre,
Machine Translated by Google

Uma mulher sardenta que se mudou da Colômbia para cá na década de 1980 achou
relaxante. Ela socializava mais com os vizinhos e acompanhava menos as notícias.
Sua filha, uma estudante de medicina, disse que não havia percebido quanta ansiedade
as plataformas lhe causavam até passar alguns dias sem elas. A interrupção, disse
ela, deixou claro até que ponto “quando as notícias se espalham no Facebook, elas se
tornam mais provocativas”. Sua mãe concordou. Quando sua Colômbia natal realizou
eleições algumas semanas antes, ela disse, seu feed de notícias, dominado por
colegas colombianos, se encheu de brigas partidárias e indignação – e, como se fosse
um script, com medo de refugiados.

No início daquele ano, em abril, Zuckerberg deu uma entrevista ao editor-chefe da


Vox , Ezra Klein, que o pressionou sobre o genocídio em Mianmar.
Como prova do progresso do Facebook, Zuckerberg disse que, no auge do
derramamento de sangue, a equipe de segurança da empresa identificou usuários em
Mianmar incitando a violência no Facebook Messenger. “Agora, nesse caso, nossos
sistemas detectam o que está acontecendo. Impedimos que essas mensagens
passem”, disse ele. “Mas isso é certamente algo em que estamos prestando muita
atenção.”
Depois que a entrevista foi publicada, grupos de direitos humanos de Mianmar
responderam com uma furiosa carta aberta. Na verdade, eles disseram, foram eles –
e não o Facebook – que descobriram que as mensagens em estilo de corrente
fomentavam a violência. E como eles não tinham as ferramentas internas do Facebook
para monitorar automaticamente as plataformas, eles só conseguiram descobri-las por
meio do que enfatizavam ser o método pesado e lamentavelmente insuficiente de uma
busca manual. Mesmo assim, os grupos de direitos humanos ainda foram forçados a
bombardear o Facebook com dias de avisos antes que alguém na empresa finalmente
agisse. Mas era tarde demais. Os usuários, aparentemente agindo com base nessas
mensagens virais, já haviam organizado e executado três ataques separados, um dos
quais envolvia a tentativa de incendiar uma escola. O episódio, disseram os grupos,
destacou a “excesso de confiança do Facebook em terceiros, a falta de um mecanismo
adequado para a escalada de emergência, a reticência em envolver as partes
interessadas locais em torno de soluções sistêmicas e a falta de transparência”.
Zuckerberg enviou aos grupos um e-mail se desculpando, embora apenas por não ter
dado os créditos pelo nome, o que, enfatizaram os defensores dos direitos humanos
em sua resposta, não era sua principal preocupação.
Em agosto daquele ano, as Nações Unidas emitiram seu relatório formal sobre a
Machine Translated by Google

genocídio. Ele chamou o papel da mídia social, particularmente do Facebook, de


“significativo”. Mas o Facebook ainda se recusou a compartilhar seus dados com os
investigadores da ONU, disseram os investigadores, impedindo sua capacidade de
entender como o genocídio aconteceu e, portanto, como evitar outro.
“Você não pode simplesmente estalar os dedos e resolver esses problemas”, disse
Zuckerberg um mês depois. “Leva tempo para contratar as pessoas e treiná-las, e para
construir os sistemas que podem sinalizar coisas para elas.” Mas é claro que, tanto em
Myanmar quanto no Sri Lanka, o Facebook respondeu aos alertas de violência iminente
não com qualquer enxurrada de novas salvaguardas ou contratações de moderadores,
mas com meses de inação. Agora, novamente, nada parecia mudar, disse-me um grupo
de monitoramento digital baseado em Mianmar. O Facebook solicitou ao grupo que
monitorasse o aumento da incitação online ou outros perigos. Mas a empresa ignorou
principalmente os relatórios do grupo, por mais urgentes que fossem. Eles acreditavam
que o Facebook os havia contratado como um golpe vazio de relações públicas.
Adam Mosseri, o executivo que supervisionou o todo-poderoso feed de notícias
durante os assassinatos em Mianmar e Sri Lanka, foi promovido a vice-presidente do
Instagram, depois seu presidente. Jen Weedon, a gerente de política de segurança do
Facebook que não respondeu aos alertas do pesquisador do Sri Lanka sobre o próximo
derramamento de sangue, também foi promovida. Os ganhos ultrapassaram o recorde de
US$ 55 bilhões naquele ano, quase 40% a mais que no ano anterior.

“Foi o modelo de negócios que nos colocou em apuros”, Hany Farid, um cientista da
computação da UC Berkeley que havia consultado governos e grupos de direitos humanos
sobre os perigos emergentes na rede social, me disse mais tarde naquele ano.
“Quatrocentas horas de YouTube carregadas a cada minuto. Um bilhão de uploads para
o Facebook por dia. Trezentos milhões de tweets por dia. E é meio que uma bagunça”,
disse ele. “As empresas de tecnologia, eu nem diria que adormeceram no trabalho. Eu
diria que eles estavam com os olhos bem abertos. Acho que eles sabiam exatamente o
que estavam fazendo. Eles sabiam que o veneno estava na rede.
Eles sabiam que tinham um problema. Mas era tudo sobre crescimento agressivo.
Foi aí que começou o problema.”
Farid respirou fundo, voltando ao assunto sobre o qual eu havia ligado, uma tecnologia
especializada que as plataformas usavam. Mais tarde, porém, perto do final de uma
explicação técnica, quando ele se deparou com uma referência ao YouTube, sua voz
aumentou novamente. “O YouTube é o pior”, disse ele. Do que ele considerava as quatro
principais empresas da web - Google/YouTube, Facebook, Twitter e
Machine Translated by Google

Microsoft — o melhor em administrar o que ele chamava de “o veneno” era, ele


acreditava, a Microsoft. “E faz sentido, certo? Não é uma empresa de mídia social”,
disse ele. “Mas o YouTube é o pior nessas questões”, repetiu.
Foi um ano de escândalos e controvérsias em torno do Facebook, amplamente
considerado a plataforma mais influente. Mas a advertência de Farid ressoou porque,
mesmo enquanto investigava os efeitos do Facebook no Sri Lanka e na Alemanha,
eu ouvia o mesmo de especialistas digitais, grupos de direitos humanos e outros:
olhe para o YouTube. “O YouTube é a história mais esquecida de 2016”, tuitou
Zeynep Tufekci, sociólogo da Universidade da Carolina do Norte, um ano após a
eleição. “Seus algoritmos de busca e recomendação são mecanismos de
desinformação.” Mais tarde, ela o chamou de “um dos instrumentos de radicalização
mais poderosos do século XXI”. Danah Boyd, fundadora de um think tank focado em
tecnologia, concordou, dizendo à minha colega Amanda: “O YouTube talvez seja a
plataforma mais problemática que temos no momento”.

Cada vez mais, histórias sobre ocorrências estranhas e desestabilizadoras – um


grupo de ódio crescente, um novo boato médico perigoso, um garoto solitário que
virou atirador – mencionavam o YouTube. Mal havia terminado de transcrever
minhas anotações da Alemanha quando, algumas semanas depois de minha
conversa com Farid, algo aconteceu ali que deixou imediatamente claro por que ele
havia emitido seu aviso.
Machine Translated by Google

Nove

a toca do coelho

1. A revolta do YouTube

NEO-NAZIS ESTAVAM MANTENDO as ruas de sua cidade intermitentemente por dois


dias, quando Sören Uhle, um funcionário municipal elegante e de óculos, começou a
receber telefonemas estranhos de repórteres. Pelo que Uhle sabia, dois refugiados do
Oriente Médio esfaquearam um homem local durante uma discussão, matando-o, que
grupos de extrema direita aproveitaram para encorajar as pessoas a invadir sua cidade.
Agora, os repórteres estavam dizendo a ele, descobriu-se que os refugiados realmente
mataram não um, mas dois homens. Eles também estavam molestando uma mulher local;
suas vítimas morreram tentando protegê-la. Uhle poderia comentar? E ele também poderia
explicar por que os políticos estavam pagando secretamente os moradores locais para
participar de um próximo contra-protesto?
Uhle ficou pasmo. As revelações eram todas falsas. “Isso era novo”, disse ele. “Nunca
havia acontecido comigo antes que a grande mídia, grandes jornais alemães e canais de
televisão, me perguntassem sobre notícias falsas e propaganda que claramente se
tornaram tão difundidas que as pessoas simplesmente as compraram.” Era agosto de
2018. As multidões que estavam invadindo Chemnitz, sua cidade de 250 mil habitantes no
leste da Alemanha, haviam sido organizadas nas redes sociais, ele sabia. Talvez a
desinformação também tivesse sido.
Em Berlim, na autobahn, um pesquisador digital chamado Ray Serrato estava chegando
à mesma conclusão. Como todos na Alemanha, ele estava grudado nos relatórios dos
tumultos — uma demonstração inesperada de força neonazista tão dramática que a
chanceler Angela Merkel os condenou.
Então o tio de sua esposa mostrou a ele um estranho vídeo do YouTube. Dois homens
de meia-idade, um com dreadlocks e um gorro preto, disseram à câmera que os
manifestantes não eram neonazistas, mas refugiados muçulmanos. O vídeo, postado por
um obscuro grupo marginal, era desconexo e de produção barata. No entanto, tinha
Machine Translated by Google

quase meio milhão de visualizações - muito mais do que qualquer vídeo de notícias sobre os distúrbios.
Como isso foi possível?
Curioso, Serrato aplicou um conjunto de técnicas que usava em seu trabalho diário, rastreando o
discurso de ódio online em Mianmar para um grupo de monitoramento da democracia.
Ele começou com uma dúzia de vídeos recentes sobre Chemnitz e, em cada um, raspou as
recomendações do YouTube sobre o que assistir a seguir. Então ele fez o mesmo para esses vídeos e

assim por diante. Ele revelou uma rede de cerca de 650 vídeos: o ecossistema de conteúdo Chemnitz
cultivado pelo YouTube. Perturbadoramente, as recomendações do YouTube agruparam-se fortemente
em torno de um punhado de conspirações ou vídeos de extrema-direita. Isso sugeria que qualquer
usuário que entrasse na rede de vídeos de Chemnitz - digamos, procurando atualizações de notícias
ou assistindo a um clipe enviado a eles por um amigo - seria atraído pelo algoritmo do YouTube para
conteúdo extremista. Questionado sobre quantos passos levaria, em média, para um visualizador do
YouTube que abriu um clipe de notícias de Chemnitz e se viu assistindo a propaganda de extrema-
direita, Serrato respondeu: “Apenas dois”. Ele acrescentou: “Até o segundo, você está bem afundado
na direita alternativa”.

As recomendações raramente levavam os usuários de volta à cobertura de notícias mainstream ou


a conteúdo liberal ou apolítico de qualquer tipo. Uma vez entre os extremistas, o algoritmo tendia a ficar
ali, como se esse fosse o destino o tempo todo.
Até levou de vídeos de Chemnitz a tópicos de extrema direita não relacionados - nacionalismo branco,
conspirações anti-semitas - da mesma forma que o Facebook conduziu Renée DiResta de páginas
antivacinas para causas marginais totalmente separadas.
Um vídeo típico chamou Trump de peão da família de banqueiros Rothschild.
Embora Serrano considerasse os vídeos repugnantes e perigosos, ele admitiu que algo neles era difícil
de desligar. “Esse é o objetivo do YouTube”, disse ele. “Eu permaneço engajado, os anúncios são
exibidos. E funciona.”
Esse efeito, eu percebi, trabalhando com Katrin Bennhold, chefe do escritório de Berlim do New
York Times, ajudou a produzir o caos em Chemnitz.
Pouco depois do esfaqueamento, alguns YouTubers obscuros e de extrema-direita postaram vídeos
sobre o incidente. Um deles, um blogueiro chamado Oliver Flesch, tinha apenas 20.000 assinantes. Ele
fez pouca divulgação ou promoção além de sua bolha ideológica. No entanto, seus vídeos em Chemnitz
acumularam centenas de milhares de visualizações, graças à forte promoção do mecanismo de
recomendação do YouTube.

Serrato descobriu que os espectadores que assistiam a qualquer coisa sobre Chemnitz em
O YouTube, como um clipe de notícias, foi rapidamente recomendado para o Flesch
Machine Translated by Google

canal. Flesch postou quatorze vídeos sobre o assunto, todos os quais apareceram nas
recomendações do YouTube, semeando a plataforma com as mesmas falsidades de isca
racial sobre as quais Sören Uhle mais tarde seria questionado. Outros canais de conspiração
e de extrema direita rapidamente pegaram a versão de Flesch dos eventos, transformando
uma briga de rua isolada em um conto da virtude branca em perigo.
O algoritmo do YouTube também os impulsionou.
Mesmo os alemães que pesquisaram no Google por notícias sobre Chemnitz foram
direcionados aos conspiradores do YouTube. O Google frequentemente promove vídeos do
YouTube perto do topo dos resultados de pesquisa, um ato de sinergia corporativa projetado
para aumentar a receita. Isso significa que as práticas do YouTube não ficam no YouTube;
como o Google domina as buscas na internet, essas práticas influenciam como praticamente
qualquer pessoa na web encontra e acessa notícias e informações.
À medida que o YouTube e o Google desviavam mais alemães para vídeos sobre
Chemnitz repletos de falsidades, o interesse pela cidade crescia, inclusive entre muitos fora
da extrema direita. As vozes do YouTube recebendo toda essa atenção convocaram seus
seguidores em rápido crescimento para mostrar seu apoio à vítima de esfaqueamento indo a
Chemnitz. Os moradores disseram que nos dias anteriores à violência, as teorias da
conspiração se tornaram estranhamente comuns, sussurradas em bares e bebedouros. Então
as multidões chegaram, espumando para tomar de volta a cidade dos estrangeiros. Logo eles
se revoltaram, saqueando lojas e brigando com a polícia. Muitos dos manifestantes deram
crédito ao YouTube por colocá-los lá.
Foi o colapso do Sri Lanka, batida por batida, no coração da Europa. Mas havia uma
diferença importante. As mídias sociais, no Sri Lanka, radicalizaram um grupo social do
mundo real com uma identidade fortemente defendida, os cingaleses. Na Alemanha, porém,
os manifestantes de Chemnitz eram algo novo.
Certamente havia neonazistas endurecidos na multidão, mas muitos não pertenciam a
nenhuma causa ou grupo distinto. O YouTube, em vez de ativar uma comunidade preexistente
com uma identidade preexistente, criou uma do nada. Ele construiu a rede em seus sistemas,
uniu-a com uma realidade e crenças compartilhadas e então a colocou no mundo, tudo em
questão de dias. Isso era algo muito mais profundo do que a violência vigilante inspirada no
Facebook que eu tinha visto no país apenas alguns meses antes.

Se aconteceu tão facilmente em Chemnitz, estaria acontecendo em outro lugar também?


Com certeza, um pesquisador que por coincidência veio da Alemanha estava demonstrando
que esse mesmo processo vinha ocorrendo há meses nos Estados Unidos, acelerando o
surgimento de uma nova e terrível ameaça.
Machine Translated by Google

certo e flexionando-o com as tendências mais extremas e perigosas das plataformas de


mídia social. Ele começou a investigar esse fenômeno em 2015, acompanhando-o por
alguns dos maiores choques políticos dos anos subsequentes até que, ao longo de vários
meses em 2018, revelou evidências do que antes apenas se suspeitava: que o YouTube
estava fazendo com a política americana o que havia feito. feito para Chemnitz, superando-
o com uma ala direita de olhos selvagens de sua própria criação algorítmica. Mas
Chemnitz e outras perturbações naquele ano seriam apenas um ponto intermediário em
suas descobertas, pressagiando eventos muito mais mortíferos e grotescos por vir.

2. Unir a direita

JONAS KAISER PESQUISOU sua primeira toca de coelho no YouTube em um intervalo


entre as sessões de pesquisa para um doutorado que, a princípio, tinha pouco a ver com
a mídia social americana. Ele estava estudando o ceticismo da mudança climática em sua
terra natal, a Alemanha, que era considerada uma espécie de mistério. Ao contrário dos
EUA, a Alemanha não tinha nenhum partido político ou figura proeminente que fosse
cético em relação à mudança climática, então a existência dos que duvidavam o deixava
perplexo. “Parecia uma comunidade muito estranha”, disse ele. “Eu estava interessado
em, tipo, como? Por que?"
A vida de estudante de pós-graduação pode ser cansativa. Kaiser, que é esguio e
careca, parecendo um limpador de cachimbo de óculos e gola em V, gostava de relaxar
com clipes do YouTube de videogames competitivos. Crescendo em um vilarejo remoto,
ele se manteve conectado com amigos por meio de jogos online, mas seu laptop na pós-
graduação não estava equipado para isso, então ele fez isso. Um dia, ele lembrou, “o
Gamergate estava em toda parte”, saturando os canais de jogos do YouTube. Até então,
ele nunca tinha ouvido falar de Breitbart ou Milo Yiannopoulos, disse ele. A plataforma
começou a empurrá-lo para outras comunidades que também aderiram à causa do
Gamergate: YouTubers pró-ateísmo, YouTubers científicos, YouTubers de direita
alternativa. “Percebi claramente uma mudança, de repente novas comunidades formando
sua identidade em torno disso”, disse ele, “em torno da misoginia e da desinformação”. Ao
direcionar os usuários para dentro e entre essas facções, o algoritmo parecia uni-los.

Foi um momento aha para Kaiser, que viu um paralelo com os negacionistas alemães
da mudança climática. “É tudo muito pequeno e fragmentado”, disse ele sobre o movimento
de ceticismo climático de seu país. “Realmente o único lugar onde eles
Machine Translated by Google

poderia trocar seus pensamentos e coalescer e encontrar aliados estava online.”


Esses grupos não refletiam as comunidades do mundo real de tamanho significativo, ele
percebeu. Eles eram nativos da web e, como resultado, moldados pelos espaços digitais
que os alimentaram. Os céticos do clima se reuniram amplamente nas seções de
comentários de jornais e blogs. Lá, contrariadores e conspiradores díspares, pessoas
sem experiência em comum além do desejo de registrar sua objeção à cobertura
climática se amontoaram.
Criou um senso de propósito comum. E a colocação dos comentários do jornal — logo
abaixo do artigo — os tornava invulgarmente visíveis, dando aos leitores de notícias
diárias uma falsa impressão de sua própria popularidade, atraindo ondas de recrutas.

O YouTube poderia estar fazendo algo semelhante? Kaiser se perguntou. Uma das
redes que a plataforma havia costurado no Gamergate era a direita alternativa.
A extrema direita existia há décadas, ele sabia. Mas online agora parecia entrelaçado
com círculos de mídia social que tinham pouco a ver com política, fundindo-se em algo
maior, algo novo. Depois de terminar seu doutorado, Kaiser se juntou a Adrian
Rauchfleisch, um estudante de pós-graduação suíço com interesses semelhantes e
talento para programação, que se tornaria seu parceiro de pesquisa de longa data. A
dupla reaproveitou as ferramentas que Kaiser havia desenvolvido para rastrear o
ceticismo em relação às mudanças climáticas, agora para entender a extrema-direita
ascendente da Alemanha.
Mas eles suspeitavam que qualquer lição também se aplicaria aos Estados Unidos.
Era verão de 2016, com Donald Trump subindo nas pesquisas. Kaiser reconheceu os
links de Trump para os nacionalistas brancos alinhados ao Gamergate que ele viu no
YouTube, bem como os paralelos com a direita alternativa de seu próprio país.
Embora o conjunto de dados inicial dele e de Rauchfleisch fosse alemão, a preocupação
deles se concentrava cada vez mais na América.
Eles começaram com o YouTube, onde várias das principais vozes da direita
alternativa, tanto alemãs quanto americanas, começaram. Muitos o descreveram como
sua base digital de operações. No entanto, foi a menos estudada das principais
plataformas, ainda principalmente uma caixa preta. Kaiser e Rauchfleisch mapeariam o
YouTube, mapeando como as recomendações da plataforma orientavam os usuários.
Seria o que Serrato havia feito com os vídeos de Chemnitz, mas em uma escala milhares
de vezes maior — talvez milhões.
Eles treinaram um computador para rastrear as recomendações do YouTube de um
punhado de canais alemães conhecidos, depois do próximo e do seguinte. Eles
Machine Translated by Google

iterado repetidamente, procurando padrões nas escolhas do sistema. Como as


recomendações de vídeo podem ser confusas – variando dia a dia conforme o
algoritmo aprende e de pessoa para pessoa com base em perfis de usuários individuais
– a dupla também rastreou uma das poucas recomendações padronizadas do
YouTube: uma lista de “canais relacionados” que o algoritmo gerou no inferior de cada
canal. Ele forneceu outra camada de informações sobre o pensamento do algoritmo,
ajudando Kaiser e Rauchfleisch a separar o padrão do ruído. Foi um pouco de limpeza
metodológica - uma verificação para garantir que eles obtivessem resultados rigorosos
- que mais tarde, quando suas descobertas provocaram indignação em altos níveis do
governo americano, se tornou uma fonte de conflito com o próprio YouTube.

Os pesquisadores esperavam ver resultados semelhantes a uma nuvem: milhares


de canais abrangendo tópicos organizados apenas frouxamente. Em vez disso, a rede
era exibida como uma série organizada de clusters, organizados um ao lado do outro,
como um mapa do metrô. Eles ficaram maravilhados. Para os sistemas do YouTube,
analisar e classificar bilhões de horas de vídeo em tempo real e direcionar bilhões de
usuários pela rede com esse nível de precisão e consistência foi um feito tecnológico
incrível, demonstrando a sofisticação e o poder do algoritmo.

Os vídeos de política eram ainda mais concentrados. O sistema formou um


superaglomerado – parecia um sistema de tempestade em um mapa meteorológico –
de várias comunidades que Kaiser e Rauchfleisch esperavam ver separadas. Meios
de comunicação alternativos, comentários de centro-direita, extremistas de extrema-
direita, neo-racistas universitários e teóricos da conspiração com chapéu de papel
alumínio estavam todos conectados. Com o objetivo de testar se esse superaglomerado
afetou o comportamento dos usuários, a dupla rastreou todos os comentários nos
vídeos durante um período de três anos, dois milhões no total, e então rastreou a
atividade dos comentadores (anônimos para privacidade) em todo o site.
Os resultados foram os que eles temiam. Os usuários que começaram comentando
apenas um subconjunto de vídeos – digamos, canais de notícias de centro-direita –
eventualmente começaram a comentar em canais do superaglomerado. “Com o
tempo, a rede ficou mais densa e estreita”, disse Kaiser. À medida que os usuários
circulavam algoritmicamente entre comentaristas da direita dominante, conspiradores
excêntricos e racistas de porão, eles começaram a tratar as páginas antes díspares
como parte de uma comunidade unificada. A comunidade deles . O YouTube, disse
Kaiser, criou uma nova “identidade coletiva”.
Machine Translated by Google

O projeto levou um ano, até o verão de 2017. A vitória de Trump elevou as apostas.
Se algo semelhante estava acontecendo na América, eles sabiam, então isso
significava que as forças que eles identificaram na Alemanha agora dominavam a
nação mais poderosa do mundo. Isso tornaria a compreensão desse movimento –
suas partes constituintes e como elas se conectam – uma questão de importância
urgente. Antes que eles tivessem uma chance, algo que parecia muito com a
comunidade formada digitalmente que eles encontraram na Alemanha surgiu no que
antes era o coração da Confederação.

Em agosto de 2017, várias centenas de manifestantes se materializaram em


Charlottesville, Virgínia, para o que chamaram externamente de manifestação contra
o plano da cidade de remover uma estátua do general confederado Robert E. Lee. Nas
plataformas de mídia social onde se organizaram, eles chamaram seu encontro de
“Unite the Right”. Havia algo incomum em sua aliança. Grupos periféricos com até
então pouca ou nenhuma associação de repente se juntaram.
Seguidores chegaram em números antes inimagináveis, como se se materializassem
do ar. Muitos não pertenciam a nenhum grupo, freelancers para o passeio.

O ímpeto deles se tornou uma demonstração de força. Centenas carregavam


tochas tiki, agitando bandeiras nazistas e confederadas enquanto entoavam “Os judeus
não vão nos substituir”. Usando capacetes e brandindo bastões, muitos deles entraram
em confronto com a polícia. No segundo dia, logo após o governador declarar estado
de emergência, um dos manifestantes jogou deliberadamente seu Dodge Challenger
contra uma multidão de contra-manifestantes, ferindo dezenas e matando uma mulher
de 32 anos chamada Heather Heyer.
Não foi difícil entender como a extrema direita havia se fortalecido. Trump usou a
presidência para defender o movimento e muitas de suas conspirações e causas.
Ainda assim, isso não explicava como esses grupos haviam se reunido em meio a
tantas divisões entre facções, recrutado tão amplamente, consolidado tão rapidamente.
A manifestação e o grupo por trás dela foram constituídos, descobriu-se, nas redes
sociais. Mas mesmo o evento, apesar de todo o seu terrível significado, insinuou algo
muito mais amplo e, em última análise, mais desestabilizador, acontecendo online.

A direita alternativa online, ainda próxima de suas raízes no Gamergate, centrada


em uma subseção do Reddit chamada The_Donald. Embora governado principalmente
por sua própria cultura de provocação de trolls, ele recebeu dicas de extremistas como
Machine Translated by Google

Andrew Anglin, a estrela do 4chan que virou neonazista. Anglin havia declarado um “verão
de ódio”, encorajando comícios no mundo real. À medida que o ritmo de uma mega-reunião
crescia online, um ativista chamado Richard Spencer começou a organizar uma em
Charlottesville. Spencer, que cunhou o termo direita alternativa como um verniz amigável
para o nacionalismo branco para atrair os universitários, vivia nas mídias sociais,
principalmente como um convidado regular nos canais de direita do YouTube. Certa vez,
ele disse a um repórter: “Nós nos lembramos de que tudo existia”.
Enquanto Spencer e Anglin promoviam a manifestação, os moderadores do The_Donald
do Reddit endossaram o evento e encorajaram a participação.
Mas foi o Facebook que transformou o evento de um encontro do Redditor em uma
festa de apresentação de transextremistas, determinou Megan Squire, uma estudiosa do
extremismo online da Elon University. Em um estudo que examina a importância da
plataforma, ela identificou pela primeira vez 1.870 grupos e eventos de extrema-direita no Facebook.
Ela os encontrou verificando os perfis de extremistas conhecidos, pesquisando termos
associados à extrema direita e, é claro, seguindo o algoritmo de “grupos sugeridos” do
Facebook, que a direcionou com fluidez para um universo de ódio. Ela raspou a lista de
membros de cada grupo. Em seguida, ela fez uma análise de rede, como a Kaiser fez com
o YouTube, para visualizar tudo. Cada grupo do Facebook era um nó. Quanto mais
membros compartilhados entre quaisquer dois grupos, mais próximos esses dois nós.

Em uma rede social mais neutra, o resultado poderia ter sido resolvido como cinco ou
seis grupos distintos — digamos, revivalistas da Confederação, neonazistas, milícias
antigovernamentais, círculos de memes da direita alternativa — que se mantinham
isolados no mundo off-line. Mas no Facebook, assim como no YouTube na Alemanha, a
plataforma fundiu essas comunidades díspares, criando algo totalmente novo. E bem no
centro: a página do evento Unite the Right.

Jonas Kaiser, agora nos Estados Unidos, tendo assumido um cargo de professor júnior
em Harvard, ficou horrorizado. “Vindo da Alemanha, provavelmente fui um pouco ingênuo”,
disse ele. Nos comícios de extrema-direita na Alemanha, disse ele, “alguns nazistas vão
para a rua e gritam, e geralmente os contra-manifestantes superam em muito os nazistas”.
A manifestação dos nacionalistas brancos em Charlottesville foi algo muito mais sísmico.
“Isso aumentou a urgência”, disse ele, tanto para ele quanto para Rauchfleisch.

Eles começaram a aplicar as técnicas que desenvolveram na Alemanha, desta vez no


YouTube em inglês. A essa altura, eles estavam aprendendo a
Machine Translated by Google

identificar muito mais do que simples conexões. Eles poderiam mapear não apenas
a rede como um todo, como fizeram na Alemanha, mas como o algoritmo roteava os
usuários dentro dela, incluindo quais canais tratava como pontos de entrada e quais
como destinos. Era a diferença entre mapear uma cidade e mapear seu tráfego.

Em janeiro de 2018, Kaiser estava reunindo evidências suficientes para começar


a abrir o capital lentamente. Ele disse em um seminário de Harvard que a união da
extrema direita da qual o encontro de Charlottesville fazia parte “não foi feita por
usuários”, ele estava começando a acreditar, pelo menos não inteiramente, mas foi
em parte “criada por meio do algoritmo do YouTube”. Ele e Rauchfleisch, ele sabia,
estavam prestes a provar isso. Mas nenhum deles poderia ter previsto o que
encontrariam ao longo do caminho.

3. Crise e Solução

NOS cantos mais profundos da web de extrema-direita, a influência do YouTube já


era uma questão de sabedoria convencional aceita. Em março de 2018, um usuário
de um proeminente fórum neonazista abriu um tópico de discussão sob o título “O
QUE TE TRAZEU AO MOVIMENTO?” O fórum, chamado de Right Stuff, foi
crescendo ao longo da década de 2010, originando muitas das marcas visuais da
direita alternativa. Seu fundador, Mike Peinovich, é creditado com o (((eco))), no qual
os usuários colocam os nomes de supostos judeus entre parênteses triplos. O
meme, iniciado no podcast Daily Shoah , cujo nome zombeteiro vem da palavra
hebraica para o Holocausto, tornou-se onipresente no Twitter e no Facebook. Em
panfletos anunciando o comício Unite the Right, o nome de Peinovich, em um sinal
de sua celebridade, ficou em segundo lugar depois de Richard Spencer.

Dezenas responderam ao tópico solicitando suas histórias. Repetidamente, eles


descreveram a adoção de seus pontos de vista de forma incremental, sempre nas
mídias sociais, geralmente com incentivo algorítmico. “Eu costumava fazer parte da
multidão anti-SJW”, escreveu um usuário, referindo-se aos “guerreiros da justiça
social” frequentemente ridicularizados no 4chan e no Reddit. Ele acrescentou,
usando a gíria da internet “baseado”, um adjetivo para algo transgressor: “E agora
estou aqui. Obrigado baseado no algoritmo de vídeos sugeridos do Youtube.” Como
muitos, as recomendações do YouTube o levaram, disse ele, primeiro a vozes ultraconservadoras.
Depois para os nacionalistas brancos, depois para os supremacistas brancos, depois para os supostamente irônicos
Machine Translated by Google

neonazistas e, finalmente, aos neonazistas reais.


Até mesmo Peinovich havia seguido um caminho semelhante. Um desenvolvedor web
baseado em Nova York com política moderada e uma esposa judia, ele desenvolveu
problemas de saúde no final dos anos 2000. Trancado dentro de casa, ele passou “horas
em fóruns de debate político no Facebook e no Reddit, onde deixou seu lado contrário
correr solto”, disseram amigos ao The New Yorker. Depois que o tempo e os algoritmos
fizeram seu trabalho, ele emergiu como um verdadeiro nazista.
Outro tema emergiu das histórias de usuários do Right Stuff. Raramente era o ódio que
atraía as pessoas. Em vez disso, era o conteúdo que falava de sentimentos de alienação,
de falta de propósito - a mesma anomia que unia Adam e outros obsessivos do 4chan.
“Assisti a um vídeo do Millennial Woes sobre depressão (eu estava infeliz)”, disse um dos
pôsteres, descrevendo o primeiro passo em sua jornada. Millennial Woes, o canal do
YouTube para o supremacista branco escocês Colin Robertson, postou vídeos prometendo
revelar a verdadeira causa da infelicidade dos jovens: a sociedade, disse ele, estava
tentando derrubar o lugar natural dos homens brancos no topo da hierarquia social. “Ele
mencionou várias coisas das quais eu nunca tinha ouvido falar (neoreação, Alt Right)”,
continuou o pôster do Right Stuff. “Encontrei Richard Spencer. Eu encontrei TRS. A vida
mudou completamente.”

Um dos portais mais importantes da direita alternativa online é a página do YouTube


de Jordan Peterson, um professor de psicologia canadense. Em 2013, Peterson começou
a postar vídeos abordando, em meio à filosofia junguiana esotérica, a angústia masculina
jovem. Ele ofereceu conselhos para a vida (limpe seu quarto, sente-se ereto) em meio a
exortações contra a igualdade racial e de gênero como uma ameaça ao “espírito masculino”.

As pesquisas no YouTube por “depressão” ou certas palavras-chave de autoajuda


geralmente levavam a Peterson. A duração incomum de seus vídeos, sessenta minutos ou
mais, alinha-se com a motivação do algoritmo para maximizar o tempo de exibição. O
mesmo acontece com o método do currículo da faculdade de serializar seu argumento ao
longo de semanas, o que requer o retorno para a próxima palestra e a seguinte. Mas, acima
de tudo, Peterson apela para o que o sociólogo Michael Kimmel chama de “direito agravado”.
Por gerações, os homens brancos esperaram e receberam tratamento preferencial e status
especial. À medida que a sociedade avançava em direção à igualdade, essas regalias,
embora ainda substanciais, diminuíram. Alguns homens brancos se acostumaram. Alguns
se rebelaram. Outros sabiam apenas que sentiam que algo estava sendo tirado. Peterson
e outros. dar-lhes uma maneira de explicar esses sentimentos de injustiça - feministas e esquerdistas são
Machine Translated by Google

destruindo o espírito masculino - e um conjunto fácil de respostas. Limpe seu quarto. Sente-se direito.
Reafirmar as hierarquias tradicionais.
“As pessoas nessas comunidades muitas vezes se afogam em desespero e são suscetíveis à
corrupção pelo mal carismático e lúcido que lhes oferece o que parece ser a única tábua de salvação”,
tuitou um ex-adepto. O algoritmo do YouTube, em muitos casos, aproveitou esse descontentamento,
recomendando canais que levaram a mensagem de Peterson a extremos cada vez maiores. “As etapas
comuns da ferrovia”, escreveu o usuário, eram “Jordan Peterson—> Stefan Molyneux—> Desgraças
do Milênio”. (Molyneux, um supremacista branco que se apresenta como terapeuta e filósofo “apenas
fazendo perguntas”, trabalhou na obscuridade até ingressar no YouTube. Quando a pressão pública
obrigou a empresa a remover sua página em junho de 2020, ele tinha mais de 900.000 assinantes e
alcançou muito mais por meio de recomendações automatizadas.) Era exatamente o tipo de caminho
algorítmico que Kaiser estava mapeando em seu laboratório, o mesmo que ele descobriu gráficos do
YouTube repetidas vezes.

Os dados sugerem que essa sequência promocional está convertendo usuários em grande escala.
Os usuários que comentam nos vídeos de Peterson tornam-se subsequentemente duas vezes mais
propensos a aparecer nos comentários dos canais de extrema-direita do YouTube, descobriu um estudo
de Princeton. O próprio Peterson não recomenda os canais — o algoritmo faz a conexão. Essa era a
outra peça essencial do quebra-cabeça que Kaiser e Rauchfleisch estavam trabalhando para resolver.
Eles estavam medindo como o YouTube movia seus usuários. Mas seus mapas de rede não podiam
dizer por que o sistema fez as escolhas que fez. Foram necessários psicólogos e pesquisadores do
extremismo para revelar a resposta.

As plataformas sociais chegaram, ainda que não intencionalmente, a uma estratégia de


recrutamento abraçada por gerações de extremistas. O estudioso J.
M. Berger chama isso de “construção de solução de crise”. Quando as pessoas se sentem
desestabilizadas, muitas vezes buscam uma forte identidade de grupo para recuperar o senso de
controle. Pode ser tão amplo quanto a nacionalidade ou restrito como um grupo de igreja.
As identidades que prometem recontextualizar as dificuldades individuais em um conflito mais amplo
têm um apelo especial. Você não está infeliz por causa de sua luta para lidar com circunstâncias
pessoais; você está infeliz por causa Deles e de Sua perseguição a Nós. Isso faz com que essas
dificuldades pareçam compreensíveis e, porque você não as enfrenta mais sozinho, muito menos
assustador.
Solução de crise: há uma crise, o grupo externo é responsável, seu grupo interno
Machine Translated by Google

group oferece a solução. Se esse sentimento de conflito aumentar demais, pode atingir o
ponto de radicalização, no qual você vê o grupo externo como uma ameaça imutável sobre
a qual apenas a vitória total é aceitável. “A escala da crise torna-se mais extrema e a
solução prescrita torna-se mais violenta”, escreveu Berger, até que destruir o exogrupo se
torna o núcleo da identidade compartilhada do endogrupo. “A geração atual de plataformas
de mídia social”, acrescentou, “acelera a polarização e o extremismo para uma minoria
significativa”, permitindo e encorajando exatamente esse ciclo.

A contagem de corpos já estava aumentando. Em 2014, em uma cidade perto de Santa


Bárbara, um jovem de 22 anos chamado Elliot Rodger esfaqueou três pessoas até a morte
em seu prédio e postou um vídeo no YouTube anunciando sua “vingança contra a
humanidade” por ter sido “forçado a suportar uma existência de solidão, rejeição e desejos
não realizados, tudo porque as meninas nunca se sentiram atraídas por mim.” Rodger
então dirigiu até a casa de uma irmandade, bateu e atirou em três mulheres, matando duas
delas. Ele voltou para o carro e cruzou as ruas, atirando em pedestres e atropelando outros,
muitos deles mulheres, antes de se matar.

Solitário sim, mas não solitário: por meses, ele ferveu em fóruns da web, depois no
YouTube, onde seus vídeos se tornaram tão odiosos que seus próprios pais uma vez
chamaram a polícia. Ele era o produto de uma comunidade digital, abrangendo 4chan,
Reddit e YouTube, cujos membros se autodenominam “incels” por seu celibato involuntário.

Os fóruns do Incel começaram como lugares para compartilhar histórias sobre a sensação de solidão.
Os usuários discutiram como lidar com a vida “sem abraços”. Mas as normas de
superioridade da mídia social, de busca de atenção, ainda prevaleciam. As vozes mais
altas se levantaram. As visões tornaram-se mais extremas. A indignação prevalecente nas
plataformas reinterpretou as lutas individuais como uma luta tribal de Nós e Eles. Os incels
assumiram uma crença central radicalizadora: as feministas estão conspirando para
subjugar e emascular nossa subclasse de homens de baixo status.
In-group e out-group. Crise e solução.
Em 2021, cinquenta assassinatos foram reivindicados por autodenominados incels,
uma onda de violência terrorista. Um pequeno YouTuber atirou em quatro mulheres até a
morte em um estúdio de ioga na Flórida. Um superusuário do Reddit dirigiu uma van no
meio de uma multidão de pedestres em Toronto. Um incel do 4chan postou ao vivo
enquanto matava uma garota de dezessete anos, para aplausos de outros usuários, e
depois tentou se matar. Rodger permanece amplamente celebrado como um herói entre os incels.
Machine Translated by Google

O movimento era uma franja de franja, ofuscado pelo Pizzagate ou pela direita alternativa.
Mas deu a entender o potencial da mídia social para galvanizar a anomia do jovem homem
branco em comunidades inteiras de extremismo – um fenômeno cada vez mais difundido. Quando
um grupo paramilitar de extrema-direita chamado Oath Keepers pesquisou seus 25.000 membros
sobre como eles chegaram ao movimento, a resposta mais comum foi o Facebook, seguido pelo
YouTube.

O YouTube pode ser um doutrinador especialmente eficaz porque move os usuários em


incrementos. Jordan Peterson diz aos telespectadores que suas dificuldades individuais decorrem
de um conflito que os coloca contra guerreiros da justiça social - a crise. Millennial Woes reúne-
os para se defenderem coletivamente contra as feministas e minorias que se opõem a eles -
resolução. Canais mais extremos escalam os riscos dessa guerra para o genocídio branco ou a
subjugação judaica, encorajando implicitamente os espectadores a enfrentar a ameaça, por mais
que seja necessário.

O YouTube dificilmente faz isso em todos os casos. Os espectadores de Jordan Peterson


também serão encaminhados para, digamos, acadêmicos pop ou auto-ajudantes. Mas as
plataformas geralmente privilegiam a radicalização das conexões por um motivo: funciona. Os
extremistas gostam da sequência de solução de crise porque ela prepara as pessoas para a
ação. Os algoritmos gostam disso porque atrai a atenção e a paixão das pessoas, transformando
a navegação na web em uma questão de identidade, comunidade e até mesmo fanatismo - e,
portanto, mais tempo de exibição.
O YouTube atualizou seus algoritmos em 2016 e 2017, adicionando um sistema chamado
Reinforce, que recomendava aos usuários subgêneros desconhecidos.
Mesmo se você nunca pesquisou vídeos de gateway de direita alternativa no estilo Peterson,
você pode ser empurrado para um de qualquer maneira, apenas para ver se era necessário. De
repente, histórias de radicalização do YouTube estavam por toda parte, seus detalhes se
repetindo com consistência mecânica. “Um dos meus amigos mais próximos foi radicalizado pelo
YouTube”, tuitou Chris Sacca, um investidor do Vale do Silício e ex-funcionário do Google. “Tudo
começou há alguns anos com vídeos 'incitantes' e 'contrários'. Mas, graças aos vídeos sugeridos,
algo ficou mais sombrio e violento, ele perdeu sua esposa, filhos e amigos, e nenhum de nós
sabe onde ele está hoje.”

David Sherratt, um ex-extremista, disse ao Daily Beast que sua descendência começou, aos
quinze anos, assistindo a clipes de videogame. O sistema o recomendou em vídeos pró-ateísmo,
que contam ciência e matemática
Machine Translated by Google

crianças, elas fazem parte de uma minoria ultrarracional sitiada por guerreiros da justiça
social. Em seguida, vídeos antifeministas, depois vídeos de “direitos dos homens”
alinhados ao incel, alguns dos quais ele mesmo contribuiu, e então vídeos neonazistas
diretos.
Em 2018, uma agência chamada Bellingcat vasculhou um arquivo de salas de bate-
papo privadas de extrema direita que totalizaram centenas de milhares de mensagens.
Os investigadores procuraram casos em que os usuários mencionaram como chegaram à
causa. O ponto de entrada mais comum que eles citaram: YouTube. Eles começavam
com vídeos banais, diziam muitos, e depois eram recomendados para canais cada vez
mais extremos. Era a mesma história que todo mundo estava contando.

“Os algoritmos do YouTube me levaram a um caminho de criminosos de pensamento


igualmente sem remorso”, escreveu Meghan Daum, uma romancista, sobre sua deriva em
um movimento de trampolim de direita alternativa, principalmente baseado no YouTube,
que se autodenomina a dark web intelectual. Jordan Peterson é um membro importante.
À medida que a plataforma a empurrava de vídeos questionando o feminismo para vídeos
sugerindo que o cérebro das mulheres é programado para o trabalho doméstico, de
chamar os negros de racistas a rejeitar o próprio pluralismo racial, assistir ao YouTube
tornou-se “o que eu fazia agora, em vez de assistir televisão (e, muitas vezes, ler livros). ,
ouvindo música ou limpando meu apartamento). Era mais do que entretenimento. Esses
canais eram seus “amigos do YouTube”, remédio para um casamento perdido e
sentimentos de isolamento. Eles eram comunitários. Eles eram identidade.

Ela havia caído no que é conhecido como a toca do coelho. O termo já descrevia
qualquer noite ou tarde passada seguindo as recomendações do YouTube onde quer que
fossem. Talvez você tenha acessado um clipe de comédia favorito e depois recostado
enquanto o sistema o conduzia pelos sucessos do comediante. Mas em 2018, depois que
o sistema Reinforce foi implementado, “toca do coelho” se referia cada vez mais a seguir
canais políticos do YouTube em direção ao extremismo. Os usuários caíram nesses
buracos, quer tivessem procurado vídeos políticos ou não, muitas vezes levados a lugares
que não procuravam ir – lugares ainda mais perturbadores do que a extrema direita.

4. O problema de Alex Jones

DURANTE A PRIMAVERA de 2018, Kaiser e Rauchfleisch executaram


Machine Translated by Google

O teste percorre as recomendações do YouTube, mapeando como ele interligou os


canais, quais comunidades construiu. Finalmente, em abril, eles reuniram seus
resultados. Eles descobriram que o sistema do YouTube fazia três coisas
extraordinariamente bem.
Primeiro, uniu grupos de canais totalmente originais. Um desses aglomerados
misturava médicos que ofereciam conselhos médicos, professores de ioga expondo
pensamentos sobre o alinhamento dos chakras, vendedores ambulantes vendendo
curas mágicas para todos e radicais antivacinas. Um usuário que começasse em
qualquer um desses assuntos seria distribuído pelos outros. Não havia nada inato
conectando-os além da conclusão da IA de que mostrá-los lado a lado manteria os
usuários assistindo. Embora suas próximas duas descobertas atraíssem mais
atenção, Kaiser constantemente insistia na importância da primeira. O YouTube é,
como o Facebook ou o Twitter, principalmente uma experiência social. Os usuários
comentam, curtem e compartilham, todos participantes de uma atividade comunitária.
Os criadores de vídeos são incentivados a abordar os seguidores na câmera, solicitar
solicitações e feedback, entrar nos comentários. Assim, quando o YouTube agrupou
alguns milhares (ou alguns milhões) de usuários em algumas dezenas (ou algumas
centenas) de canais, tornou-se uma comunidade genuína. Tornou-se, assim como
Meghan Daum descreveu com tanta gratidão, uma identidade.

Foi o que tornou suas outras descobertas tão importantes, a segunda delas foi
que, como há muito se suspeitava, as recomendações do YouTube geralmente iam
para o extremo mais extremo de qualquer rede em que o usuário estivesse. Assista
a um clipe da CNN ou da Fox News e as chances de ser recomendado para um
vídeo de conspiração eram altos o suficiente para que, com o tempo, essa fosse a
direção que o usuário médio tendia a seguir.
E então a terceira descoberta. Em uma versão ainda mais perigosa do que eles
viram na Alemanha, as recomendações do sistema agrupavam os principais canais
de direita, e até mesmo alguns canais de notícias, com muitos dos mais virulentos
propagadores de ódio, incels e teóricos da conspiração. À medida que o algoritmo
atraiu os usuários para essas vozes extremas, concedeu-lhes uma influência
descomunal sobre as narrativas, agendas políticas e valores para o todo maior.

Isso foi mais do que apenas expandir o alcance da extrema direita. Estava unindo
uma comunidade mais ampla ao seu redor. E em uma escala - milhões de pessoas -
os organizadores de Charlottesville só poderiam ter sonhado. Aqui,
Machine Translated by Google

finalmente, foi uma resposta para o porquê de tantas histórias de pessoas caindo em
buracos de coelho de extrema-direita. Alguém que chegasse ao YouTube com interesse
em tópicos favoráveis à direita, como armas ou politicamente correto, seria encaminhado
para um mundo construído pelo YouTube de nacionalismo branco, misoginia violenta e
conspiração enlouquecida, e então puxado ainda mais para seus extremos.

Um canal ficava visivelmente no centro da rede, um buraco negro para o qual a


gravidade algorítmica do YouTube puxava: Alex Jones. Um atleta de choque da FM desde
os anos 1990, Jones há muito cultivava uma audiência de excêntricos, caminhoneiros
noturnos e simplesmente entediados. Animado e com voz grave, ele desenvolvia
conspirações elaboradas não tanto para persuadir os ouvintes quanto para prender sua
atenção: o governo fez o atentado de Oklahoma City; o governo jogou produtos químicos
no abastecimento de água para tornar as pessoas gays.
Ele encenou acrobacias para chamar a atenção, gritando um discurso do então
governador George W. Bush para exigir que ele abolisse o Federal Reserve. Ele vendeu
suplementos de saúde falsos e equipamentos de sobrevivência, fazendo uma fortuna.
Então ele acessou o YouTube e tornou-se, de repente, influente. Suas reivindicações
vazaram para a Fox News e blogs de direita. Seu nome foi invocado em comícios
conservadores, funções de base, até mesmo entre os poderosos de Washington, mesmo
que apenas em reconhecimento de seu novo domínio.
Como isso aconteceu? Os americanos certamente se inclinaram na direção de Jones.
E ele usou a internet para contornar os porteiros da mídia que o mantinham fora da TV.
Mas Kaiser tinha evidências de outro fator. O algoritmo do YouTube, sugeriram seus
dados, recomendava os vídeos de Jones com mais frequência do que os de quase
qualquer outro canal relacionado a notícias ou política. Ele o promoveu de forma
especialmente agressiva ao lado de vídeos de direita, insinuando-o na causa.
Freqüentemente, ele usava seus vídeos como uma porta de entrada para o extremismo:
um usuário que assistia principalmente a conspirações poderia ver um discurso retórico
de Alex Jones como um ponto de entrada para o conteúdo nacionalista branco, ou vice-versa.
Em abril de 2018, apenas algumas semanas depois que a violência no Sri Lanka
chamou a atenção para o próprio poder de causar danos do Facebook, Kaiser publicou
suas descobertas sobre a criação sistemática de redes de extrema-direita pelo YouTube,
juntamente com um artigo do BuzzFeed News divulgando a pesquisa, em um ensaio
explicando que O YouTube “empurra muitos canais para o centro gravitacional de uma
bolha maior de direita”. Ele e Rauchfleisch alertaram: “Ser conservador no YouTube
significa que você está a apenas um ou dois cliques de distância extrema.
Machine Translated by Google

canais certos, teorias da conspiração e conteúdo radicalizador”. Aqui, finalmente,


estava a evidência de que o YouTube havia se tornado uma força de radicalização em
larga escala.
Outros logo confirmaram o “pipeline da radicalização”, como o chamou o pesquisador
brasileiro Manoel Horta Ribeiro. Sua equipe, analisando 72 milhões de comentários em
330.000 vídeos, descobriu que “os usuários migram consistentemente de um conteúdo
mais moderado para um mais extremo”. Usuários de direita, uma população enorme,
passaram de contrários à “dark web intelectual” como Jordan Peterson para vozes
alternativas de direita como Milo Yiannopoulos para odiar líderes como os neonazistas
Andrew Anglin e Mike Peinovich. E os usuários moviam-se paralelamente às
recomendações do YouTube, mais uma prova de que era o algoritmo que os
impulsionava.
Naquela primavera, depois de um tiroteio em uma escola, a página de "tendências"
de alto perfil do YouTube começou a promover um vídeo de Alex Jones alegando que
a violência havia sido forjada. Jones havia divulgado versões disso desde o tiroteio de
Sandy Hook em 2012, quando chamou as vinte crianças e seis professores assassinados
de “atores de crise” em uma vaga conspiração do governo para justificar o confisco de
armas ou a imposição da lei marcial. A conspiração se espalhou no YouTube desde
então, consumida por um número crescente de espectadores que, enfurecidos,
organizaram campanhas de perseguição de anos contra as famílias das crianças assassinadas.
Alguns pais se esconderam e vários entraram com três processos separados contra
Jones por difamação. (Em 2021, Jones perdeu todos os três.) Enquanto isso, o
YouTube continuou promovendo os vídeos, que em 2018 tiveram um total de 50
milhões de visualizações. Quando o sistema do YouTube postou as últimas notícias de
Jones em sua página de tendências, isso foi um indicador incomumente visível de
como os algoritmos do site o impulsionaram.
Membros da equipe de política do YouTube recomendaram ajustar o algoritmo da
página de tendências para evitar que vincule a Jones ou outras fontes desacreditadas.
Eles foram rejeitados. Embora Jones fosse mais proeminente no YouTube, onde tinha
bilhões de visualizações, ele também alcançou milhões de seguidores no Facebook e
no Twitter, e essas empresas também foram pressionadas a revogar os megafones
digitais que haviam feito para ele.
Os pais de Noah Pozner, um menino de seis anos morto em Sandy Hook,
publicaram uma carta aberta a Mark Zuckerberg. Eles estavam vivendo escondidos,
eles escreveram, atormentados por anos de assédio e ameaças de morte, rastreáveis
a proeminentes grupos de conspiração no Facebook. Os pais de Sandy Hook, disseram eles,
Machine Translated by Google

havia travado “uma batalha quase inconcebível com o Facebook para nos fornecer a
proteção mais básica” contra o incitamento que emanava da plataforma. “Nossas
famílias estão em perigo”, escreveram eles, “como resultado direto das centenas de
milhares de pessoas que veem e acreditam nas mentiras e no discurso de ódio, que
vocês decidiram que deveriam ser protegidos”.
Mas as empresas se empenharam. Quando perguntado por que o Facebook não
removeria Alex Jones, o vice-presidente da empresa para o feed de notícias, John
Hegeman, disse: “Criamos o Facebook para ser um lugar onde pessoas diferentes
podem ter voz”. Zuckerberg, enfrentando a mesma questão, criticou a natureza da
liberdade de expressão: “Sou judeu e há um grupo de pessoas que nega que o
Holocausto tenha acontecido. Acho isso profundamente ofensivo. Mas, no final das
contas, não acredito que nossa plataforma deva derrubar isso, porque acho que há
coisas que diferentes pessoas entendem errado. Eu não acho que eles estão
entendendo errado intencionalmente.”
Era o antigo Vale do Silício. Se Zuckerberg estava disposto a sacrificar o consenso
histórico sobre a tentativa de extermínio de seus antepassados em prol de um ideal
tecnolibertário de liberdade de expressão, então todos os outros também deveriam. E,
como muitos dos líderes do Vale, ele parecia ainda estar vivendo em um universo
alternativo onde as plataformas são veículos neutros sem nenhum papel em moldar as
experiências dos usuários, onde a única consequência no mundo real é que alguém
pode se ofender, e onde a sociedade apreciaria a sabedoria de permitir que a negação
do Holocausto floresça.
Esse era o problema de Alex Jones: o Vale do Silício não conseguia agir de acordo
com o interesse público, nem mesmo aparentemente com seu próprio interesse,
extirpando um problema que incorporava, até mesmo personificava, as crenças de sua
indústria, inscritas nos sistemas que, afinal, elevou Jones ao que ele era.
Engajamento é igual a valor. Mais conexão constrói compreensão. A liberdade de
expressão vence a má fala. Agir significaria reconhecer que esses ideais eram falhos,
perigosos. Puxe esse fio e tudo pode se desfazer.
A reação piorou. Em julho daquele ano, o Facebook suspendeu Jones por um mês,
uma desculpa para os críticos. Finalmente, em agosto, a Apple retirou vários programas
de Jones de seu serviço de podcast. O Facebook e o YouTube seguiram o exemplo
em poucas horas, banindo-o. Apenas o Twitter se manteve desafiador. “Vamos manter
Jones no mesmo padrão que mantemos para todas as contas, não tomando medidas
pontuais para nos fazer sentir bem a curto prazo”, twittou Jack Dorsey, CEO do Twitter.
Mas o Twitter acabou removendo Jones também. Embora as empresas tenham dado
Machine Translated by Google

sob a pressão do público, no entanto, eles não pareciam aceitar que o público
estivesse certo. Zuckerberg disse mais tarde ao The New Yorker: “Não acredito que
seja certo banir uma pessoa por dizer algo que é factualmente incorreto”.

No Twitter, Dorsey, apesar de todo o seu desafio, estava mudando para os tipos
de mudanças mais profundas, para a natureza central da plataforma, que o Valley
havia resistido por muito tempo. Ou, pelo menos, parecia ser. A capitalização de
mercado do Twitter permaneceu abaixo de seu pico, em abril de 2015, antes de
Dorsey voltar para assumir, e sua base de usuários mal cresceu no ano passado.
Mas, em vez de turbinar seus algoritmos ou reformular a plataforma para trazer à
tona argumentos e emoções, como o YouTube e o Facebook fizeram em meio a
métricas estagnadas, Dorsey anunciou que todo o conceito por trás da mídia social era tóxico.
“Não previmos ou entendemos totalmente as consequências negativas no
mundo real” do lançamento de uma plataforma “instantânea, pública e global”,
escreveu ele em março. Ele admitiu que isso resultou em danos reais. Ele começou,
em entrevistas, levantando voluntariamente ideias heréticas que outros CEOs de
tecnologia continuaram a rejeitar fervorosamente: maximizar o engajamento é
perigoso; curtidas e retuítes encorajam a polarização. A empresa, disse ele, faria
uma reengenharia de seus sistemas para promover conversas “saudáveis” em vez
de envolventes. Ele contratou especialistas proeminentes e grupos de pesquisa
para desenvolver novos recursos ou elementos de design para fazê-lo.
Mas praticamente nenhum desses esforços saiu do papel. Os especialistas
externos, enfrentando atrasos de meses ou mudanças abruptas de políticas,
desistiram frustrados. Não ficou claro se a experiência de Dorsey em reimaginar o
Twitter fracassou porque sua atenção se desviou, porque investidores cada vez
mais rebeldes pressionaram o Twitter para impulsionar o crescimento ou porque as
soluções se mostraram intragáveis para uma empresa ainda presa à mentalidade
do Vale do Silício. Contas de funcionários do Twitter sugerem que provavelmente
foi uma combinação dos três.
Enquanto isso, no YouTube, tudo estava normal. Os sistemas da plataforma
continuaram projetando comunidades marginais de alto engajamento. Naquele ano,
Asheley Landrum, uma psicóloga cognitiva, descobriu um em Denver, em uma
conferência para pessoas que acreditavam que a Terra era plana. O terráqueo
plano, extinto por séculos, estava subitamente ressurgindo. Os professores de
ciências relataram que os alunos os desafiaram com cálculos de curvatura e
diagramas marcados. Uma estrela da NBA saiu como um
Machine Translated by Google

Terraplanista. O mesmo aconteceu com um rapper proeminente. Landrum vagou pela


conferência de Denver esperando entender por que isso estava acontecendo. Os
resultados não foram ambíguos. Dos trinta participantes entrevistados, vinte e nove
disseram que foram expostos e convencidos do Flat Eartherism no YouTube. O trigésimo
foi recrutado por sua filha, que o encontrou no YouTube.
Guillaume Chaslot, o ex-YouTube, percebeu os vídeos subindo na plataforma desde
quando trabalhava na empresa e alertou internamente que isso indicava algo perigoso.
Como um corante médico usado para destacar uma infecção, sua presença normalmente
indica uma plataforma de mídia social que promove crenças extremistas de todos os
tipos, algumas delas perigosas.
“Eles me disseram: 'As pessoas clicam nos vídeos da Terra plana, então querem um
vídeo da Terra plana'”, lembrou ele. “E meu ponto foi, não, não é porque alguém clicou
no vídeo da Terra Plana, ele quer ser enganado. Ele está apenas curioso e há um título
clickbait. Mas para o algoritmo, quando você assiste a um vídeo, isso significa que você
o endossa.”
Vídeos de Terraplanistas com miniaturas e títulos provocativos há muito apareciam
nos slots de recomendação da plataforma: “200 provas de que a Terra não é uma bola
giratória”, “Pistas da Terra plana”, “A Estação Espacial Internacional não existe!” As
pessoas clicaram por curiosidade. O algoritmo não se importava com o motivo pelo qual
as pessoas assistiam, apenas com o fato de terem assistido. Quando o fizeram,
recomendou os vídeos cada vez mais.
O YouTube, ao mostrar aos usuários muitos vídeos seguidos, todos ecoando a
mesma coisa, martela especialmente dois de nossos pontos fracos cognitivos - a
exposição repetida a uma afirmação, bem como a impressão de que a afirmação é
amplamente aceita, cada um faz parecer mais verdadeiro do que de outra forma
julgaríamos que fosse. A maioria dos espectadores, é claro, provavelmente rejeita
vídeos de conspiração. Mas em uma escala de bilhões, esses métodos superam
defesas suficientes entre os suscetíveis para ganhar milhares de convertidos até mesmo para a causa mais
Ou o mais perigoso.

5. Um Grande Despertar

EM OUTUBRO DE 2017, dois meses após o comício Unite the Right em Charlottesville,
um pequeno post apareceu no quadro de política do 4chan com o nome de usuário Q
Clearance Patriot. O usuário insinuou que era um oficial de inteligência militar em uma
operação para prender os participantes em
Machine Translated by Google

Pizzagate, a conspiração alegando que os líderes democratas dirigiam uma quadrilha global
de tráfico de crianças. O usuário, que alegou ter uma autorização do governo de nível Q,
anunciou que a extradição de Hillary Clinton já estava “em andamento” e que a Guarda
Nacional havia sido mobilizada para combater “motins massivos organizados em desafio”.
Mas foi o segundo post que estabeleceu o estilo pelo qual Q seria conhecido:

Mockingbird
HRC detido, não preso (ainda).
Onde eles estão? Siga-os.
Isso não tem nada a ver com a Rússia (ainda).

A postagem continuou por mais vinte linhas. As referências são enigmáticas o suficiente
para que os usuários sintam que estão decifrando um código secreto e óbvias o suficiente
para garantir que o farão. Como a página de abertura de um romance de espionagem, ele
estabeleceu os fundamentos de uma trama que permaneceria consistente através de milhares
de “Q drops”, como os fãs chamavam as postagens. Trump e seus generais estavam se
preparando para prender milhares de conspiradores democratas e impor um regime militar
em um dia de acerto de contas sangrento e glorioso.
Nos meses seguintes, a história aumentou. Dezenas ou centenas de milhares seriam
presos: elites culturais, financistas, burocratas do “estado profundo” e espiões. Por gerações,
essa cabala controlou secretamente a vida americana, responsável por dificuldades desde
Pizzagate até a injustiça da ordem econômica. Agora eles seriam executados, o National Mall
convertido em um campo de extermínio. Alguns já haviam sido substituídos por dublês, um
primeiro ataque silencioso no plano de Trump.

Seguidores tem mais do que uma história. QAnon, como o movimento se autodenominava,
tornou-se uma série de comunidades online onde os crentes se reuniam para analisar as
postagens de Q. Eles procuraram pistas e significados ocultos nas gotas e, por insistência de
Q, nas coisas efêmeras da política cotidiana. O comentário improvisado de Trump sobre o
Congresso foi uma referência codificada ao próximo expurgo? Sua mão estranhamente
posicionada é um sinal para a 101ª Aerotransportada? Era um jogo sem fim, uma atividade
de grupo socialmente ligada que mapeava a vida cotidiana.
Grupos extremistas há muito recrutam com a promessa de atender à necessidade de
propósito e pertencimento de seus adeptos. O ódio às vezes é apenas a cola que
Machine Translated by Google

títulos. “A camaradagem social”, escreveu a socióloga Kathleen Blee, “pode coexistir e


até substituir o ódio como motivo para a participação em atividades racistas organizadas”.
As conspirações, por sua vez, prometem resolução para sentimentos de impotência em
meio a um mundo caótico e incompreensível.
Talvez as forças do mercado tenham tirado seu emprego. Uma doença ou desastre
repentino mudou sua vida. A mudança social minou seu senso de ordem legítima da
sociedade. (Muitos QAnons estavam bem de vida, mas entraram em pânico
desorientador por, digamos, a eleição de um presidente negro ou um aumento na
diversidade.) As conspirações insistem que os eventos, em vez de incontroláveis ou
impessoais, fazem parte de uma trama oculta cujo segredos que você pode desvendar.
Reenquadrar o caos como ordem, dizendo aos crentes que somente eles possuem a
verdade, restaura seu senso de autonomia e controle. É por isso que os adeptos do
QAnon costumam repetir um ao outro seu mantra reconfortante: “Confie no plano”.
Os pesquisadores do extremismo especulariam por muito tempo que muitas ou
todas as postagens de Q - quatro mil no total, distribuídas ao longo de três anos - eram
na verdade o trabalho de Ron Watkins, um programador de trinta anos que recentemente
assumiu o comando do 8chan, o fórum derivado do 4chan. . Watkins até pareceu sugerir
isso em um documentário de 2021, dizendo a seu entrevistador: “Foram basicamente
três anos de treinamento em inteligência, ensinando normies como fazer o trabalho de
inteligência”, embora tenha acrescentado: “Mas nunca como Q.” Os seguidores
ignoraram amplamente as evidências da identidade de pedestre de Q, embora, ou
talvez, em algum nível, não quisessem saber. A atração estava no que sua história
oferecia, não em sua autoria ou verdade objetiva. Mesmo muitos pesquisadores que
rastrearam QAnon consideraram a identidade de Q uma espécie de nota de rodapé.
Apesar de toda a manipulação de Q, foram os usuários, as plataformas e as tendências
interligadas de ambos que impulsionaram o movimento.
QAnon, como tanta tecnocultura antes dele, fluiu rapidamente de plataformas
periféricas para plataformas convencionais. Os sistemas do Facebook e do YouTube
colocaram o QAnon no turbilhão de conspirações e recomendações extremistas.
A princípio, era apenas mais um nó. Mas suas reivindicações cada vez maiores e sua
história totalizante permitiram que ele absorvesse outras conspirações, tornando-o um
ponto focal - assim como Alex Jones já havia sido - de comunidades díspares, de
antivacinas a preparadores de guerra racial a paranóicos antigovernamentais. Sua
política veementemente pró-Trump e apelos abertos à violência o tornaram um parceiro
natural e, em última análise, um elemento fixo da direita online. Acima de tudo, consumia
muito tempo, a principal característica para a qual as plataformas
Machine Translated by Google

maximizado.
No momento em que os americanos perceberam que isso era algo perigoso, os
grupos QAnon no Facebook tinham milhões de membros, os vídeos QAnon no
YouTube ganharam milhões de visualizações e as contas QAnon no Twitter
organizaram campanhas de assédio em massa visando celebridades que acusaram
de conspirações bizarras e canibalísticas. Um aplicativo que agregou Q drops se
tornou um dos downloads mais populares da App Store. Um livro, QAnon: An Invitation
to a Great Awakening, escrito por um coletivo de seguidores anônimos, alcançou o
segundo lugar na lista de best-sellers da Amazon. Os membros passavam a vida
imersos na comunidade, marcando horas por dia em chats de vídeo e tópicos de
comentários que se tornaram seu mundo.
Em maio de 2018, um QAnon YouTuber invadiu uma fábrica de cimento no Arizona
que ele disse ser o centro de uma quadrilha de tráfico de crianças, transmitindo seu
confronto para centenas de milhares de visualizadores do Facebook. No mês seguinte,
outro adepto, carregando um fuzil AR-15, bloqueou as duas faixas de tráfego na
Represa Hoover com um caminhão blindado feito em casa, exigindo que o governo
divulgasse um relatório que Q havia mencionado na mensagem do dia anterior. Outro
foi preso em Illinois com material de bomba que pretendia detonar no prédio do
Capitólio do estado, visando molestar crianças satanistas que ele acreditava terem
assumido. Ainda outro dirigiu até a casa de um chefe da máfia de Staten Island, que
ele acreditava que Q havia marcado como um conspirador do estado profundo, e o
matou a tiros. O FBI, em um memorando interno, identificou QAnon como uma
potencial ameaça de terrorismo doméstico. No entanto, o Facebook, o YouTube e o
Twitter, assim como Alex Jones, se recusaram a agir, permitindo que o movimento,
impulsionado pelos vieses de suas plataformas, continuasse crescendo.
Praticamente toda a extrema-direita online parecia ter sido atraída. Assim como
muitos policiais, atraídos por suas promessas de ordem e retribuição contra os liberais.
O chefe do sindicato do NYPD deu entrevistas na TV com sua caneca QAnon no
quadro. O vice-presidente Mike Pence foi fotografado ao lado de um oficial da equipe
SWAT da Flórida usando um distintivo Q.
O movimento migrou para o Instagram, que promoveu o QAnon com força suficiente
para que muitas das mães de ioga e influenciadores de estilo de vida que dominam a
plataforma fossem arrebatados.
Mas, apesar de todos os sentimentos de autonomia, segurança e comunidade que
QAnon oferecia, isso teve um custo: isolamento esmagador. “Vão ser patriotas
honestos”, escreveu um QAnoner popular em um tweet amplamente compartilhado no
Machine Translated by Google

movimento. “Quando comecei a entrar no Q e nos patriotas e no movimento, me senti


muito sozinho porque a maioria das pessoas que conheço, mesmo conservadoras,
acham que tudo isso é uma teoria da conspiração. Só aqui com todos vocês me senti
em casa e bem-vindo!” Dezenas responderam com histórias semelhantes. "Eu estou
no mesmo barco. Literalmente sem amigos ou familiares para conversar. Agradeço a
Deus que minha esposa e eu seguimos o coelho juntos porque somos todos um do
outro. Minha própria família adotiva me abandonou como se eu não fosse nada depois
que meu pai morreu. Então, sou grato por todos neste barco comigo.” Foi uma das
coisas que tornou QAnon tão radical. A adesão muitas vezes piorava a própria sensação
de isolamento e de estar à deriva que havia levado as pessoas a isso em primeiro
lugar. Sem nenhum outro lugar a quem recorrer e agora duplamente necessitados de
segurança, os seguidores se entregaram à causa ainda mais plenamente.
Em 2019, um dos pesquisadores do Facebook montou uma série de contas de
teste simulando a experiência mediana de certos arquétipos de usuários. Uma era
“Carol Smith”, uma mãe fictícia da Carolina do Norte. A pesquisadora fez Carol entrar
em páginas sobre paternidade, cristianismo e política conservadora, depois esperou
para ver aonde o Facebook a levaria. Em dois dias, a plataforma a empurrou para o
QAnon. Ao longo de mais cinco, ele a derrotou, escreveu o pesquisador em um relatório
interno, por meio de “uma enxurrada de conteúdo extremo, conspiratório e gráfico”.

Um relatório separado, também interno, descobriu que metade da população QAnon


do Facebook, totalizando pelo menos 2,2 milhões, ingressou, como no YouTube, por
meio de “grupos de gateway”. Foi a confirmação das advertências de Renée DiResta,
desde sua primeira descoberta antivacina anos antes, de que o recurso era um veículo
para a radicalização. “Não consigo enfatizar o suficiente como os Grupos são um
desastre”, ela twittou em 2018, conforme as evidências aumentavam. “O mecanismo
de recomendação do Grupos é uma matriz de correlação de conspiração. Ele empurra
as pessoas propensas a conteúdo extremista e polarizador em grupos fechados e
depois secretos. FB não tem ideia do que é construído aqui.”
Mas o Facebook apenas aprofundou seu compromisso com o recurso que sua
própria pesquisa demonstrou estar impulsionando grande parte do crescimento do
QAnon. Ele disse que 100 milhões de usuários, que esperava crescer para 1 bilhão,
estavam ativos em grupos que se tornaram onde passaram a maior parte do tempo.
Mesmo alguns do próprio Facebook, no entanto, estavam soando alarmes. Outro
relatório interno, posteriormente vazado para o Wall Street Journal, alertou: “Setenta
por cento dos 100 grupos cívicos mais ativos dos EUA são considerados não
Machine Translated by Google

recomendável para questões como ódio, desinformação, intimidação e assédio.”


Um engenheiro que trabalhou no recurso alertou um repórter do The Verge que era
“onde começa a geração de bolhas”. A prática de empurrar os usuários para grupos
escolhidos para chamar a atenção, acrescentou o engenheiro, tornou-se “muito perigosa”.

6. Niilismo digital

Em seu primeiro ano de faculdade, Adam, o usuário vitalício do 4chan de Dallas, mudou
sua fidelidade para o 8chan. Era 2014, com QAnon e muito mais ainda por vir, mas a
promessa do 8chan de dar as boas-vindas aos Gamergaters, banidos até do 4chan, o
marcou como o último verdadeiro lar da liberdade de expressão. Suas discussões sem
restrições e conteúdo extremo lhe renderam a reputação de barra pirata da web social,
repleta de conteúdo que não podia ser visualizado em nenhum outro lugar. “Eu vi tanta
merda,” Adam me disse. “Decapitações de cartel, pornografia horrível que não deveria
existir, nem quero entrar em detalhes. Mas vemos isso centenas de vezes e, então, os
problemas da vida real começam a parecer menos impactantes.”
Era um limite no estilo 4chan, sem nem mesmo as normas ou regras do 4chan. Os
8channers foram a novos extremos como defesa coletiva contra a anomia que, como
rejeitados dos rejeitados, desajustados dos desajustados, eles centravam em sua
identidade comum. “A teoria deles sobre o que eles estavam fazendo lá, o que eles
estavam ganhando com isso, era que eles estavam aprendendo a não serem acionados
por pessoas pressionando seus botões emocionais ou ideológicos”, escreveu Dominic
Fox, um engenheiro de software, sobre os chans. “O mundo real era um lugar duro e
indiferente, e qualquer um que fingisse se importar ou precisar de cuidados estava, por
definição, envolvido em fraude, uma espécie de fraude.” Portanto, de acordo com Fox,
em seu pensamento, “a única maneira de se livrar desse controle era olhar para memes
racistas, fotos de acidentes de carro, pornografia horripilante e assim por diante, até
que alguém pudesse fazê-lo com total serenidade”. Era, escreveu ele, uma cultura de
“autodessensibilização deliberada”.
Com o tempo, assim como a transgressividade do 4chan se tornou um lema dentro
do grupo, o mesmo aconteceu com a dessensibilização no 8chan. Tolerar coisas muito
chocantes ou insuportáveis para estranhos era uma forma de provar que você pertencia.
Você também foi entorpecido e derrotado, seus olhos estavam abertos, você era um
soldado em uma irmandade do vazio. Em seções mais duras, os usuários que
encontraram conforto e comunidade nessa prática buscaram tabus cada vez maiores até
Machine Translated by Google

eles chegaram, talvez inevitavelmente, ao mais extremo de todos: assassinato em massa.

Os usuários desenvolveram memes elaborados e piadas internas sobre elogios e


compartilhamento de imagens gráficas do Holocausto, tiroteios em massa e,
especialmente, por sua tangibilidade do passado recente, o genocídio de 1995 dos
muçulmanos bósnios. A atração por celebrar um genocídio ou um atirador em massa
era, em algum nível, que outros não o fariam. Provou que você era um verdadeiro
8channer: baseado e redpilled, comprometido um com o outro a qualquer custo de
reputação, tendo subido acima das exigências mesquinhas de um mundo off-line que, na
verdade, o aterrorizava. A cultura predominante não era de extrema direita per se,
embora a linguagem do nazismo e do genocídio racial estivesse por toda parte.
Em vez disso, o ponto culminante de anos de cruzamento de linha e provocação, de ódio
irônico que se tornou sincero, foi uma espécie de niilismo violento. Os usuários se
encorajaram, brincando, mas não, para fazer o mundo pagar, para prejudicá-los em
nosso nome. Matar indiscriminadamente.
Era fácil ignorar, a menos que você estivesse prestando atenção. Em uma rede
social após a outra, as comunidades de anomia e crise – incels do Reddit, grupos Q do
Facebook, a extrema-direita do YouTube – chegaram ao ponto de ação. Se apenas uma
pequena minoria realizasse as ameaças, então sempre foi assim que o extremismo
violento funcionou. Não havia razão para pensar que o 8chan não faria o mesmo.

Em março de 2019, quando o serviço de oração da tarde começou em uma mesquita


de um andar em um subúrbio arborizado de Christchurch, Nova Zelândia, um homem
desconhecido marchou pela entrada da garagem. Ele carregava uma espingarda e tinha
um smartphone afixado ao peito. Ele se aproximou de quatro homens conversando na
entrada. Um o cumprimentou: “Olá, irmão”. Ele levantou a espingarda e disparou várias
vezes, matando-os.
Ele entrou nos corredores estreitos e de teto baixo da mesquita, onde cerca de
duzentos fiéis se reuniram, e imediatamente começou a atirar. Ele atirou em um
congregante após o outro, encurralando-os contra a parede dos fundos.
Ele largou a espingarda, com a munição gasta. Ele ergueu um fuzil AR-15, com uma luz
estroboscópica saindo do cano, atirando metodicamente enquanto as famílias se
encolhiam ou tentavam fugir. Naeem Rashid, um professor de cinquenta anos e pai de
três filhos, atacou o homem estranho, que o matou a tiros. O atirador nunca falou. Em
vez disso, um alto-falante portátil preso ao peito tocava hinos nacionalistas. Ele circulou
pela mesquita, atirando em todos que encontrou, então
Machine Translated by Google

voltou ao salão principal de orações, onde atirou novamente nos corpos das
vítimas já mortas ou moribundas. No momento em que ele voltou para a entrada,
apenas cinco minutos depois de chegar, ele havia assassinado 43 pessoas. O
mais velho tinha setenta e sete anos, o mais novo apenas três. No caminho em
direção ao seu carro, ele parou diante de uma mulher caída no chão, sangrando
muito, mas viva. Ele se inclinou sobre ela. Naquele momento, duzentas pessoas
assistiram ao vivo no Facebook, transmitindo o ponto de vista do smartphone em
seu peito, enquanto ele a ouvia implorar por sua vida e depois a matou.

Ele dirigiu, desviando pelas faixas de tráfego a mais de 150 quilômetros por
hora, atirando pela janela do carro, para outra mesquita suburbana, onde
assassinou mais sete pessoas. Abdul Aziz Wahabzada, um imigrante afegão de
48 anos, interrompeu seu ataque, arremessando uma máquina de cartão de crédito
nele e mergulhando atrás de um carro. Enquanto o atirador se rearmava,
Wahabzada correu para frente, pegou uma espingarda vazia que o atirador havia
deixado cair e apontou para ele. Acossado, o atirador partiu quando Wahabzada
acertou a espingarda na janela traseira de seu carro, estilhaçando-a. No caminho
do atirador para uma terceira mesquita, dois policiais rurais, visitando a cidade
para uma sessão de treinamento, bateram com o carro no meio-fio e o prenderam.
Em poucas horas, ficou claro que o assassino, um australiano de 28 anos
chamado Brenton Tarrant, representava um novo tipo de extremismo violento, a
escuridão total da rede social profunda manifestada. “Bem, rapazes, é hora de
parar de postar merda e fazer uma postagem de esforço da vida real”, ele escreveu
no fórum de política do 8chan horas antes do ataque. Ele vinculou seu Facebook
Live, incentivando os usuários a assistir seu “ataque contra os invasores”. E ele
anexou um arquivo de texto de setenta páginas explicando a si mesmo, que ele
também twittou. “Vocês são todos os melhores caras e o melhor bando de
sapateiros que um homem poderia desejar”, escreveu ele. “Por favor, faça sua
parte espalhando minha mensagem, fazendo memes e fazendo merda como você costuma fazer.”
Os usuários que o seguiram ao vivo, os 4.000 que assistiram ao vídeo antes
de o Facebook removê-lo e inúmeros outros que viram milhões de recarregamentos
na web, o ouviram dizer, momentos antes de começar a matar: “Lembrem-se,
rapazes, assinem o PewDiePie .” Foi, em uma sugestão dos motivos distorcidos
de Tarrant, uma piada interna da mídia social. Fãs de PewDiePie, o jogador mais
popular do YouTuber, com mais de 100 milhões de inscritos em seu canal,
recentemente espalharam a web - e, em uma pegadinha, bloquearam
Machine Translated by Google

instalar aparelhos de fax do escritório — com a mesma frase. O YouTuber também foi alvo de
acusações (em grande parte equivocadas) de flertar com o nacionalismo branco. A referência de
Tarrant pretendia ser um troll da mídia, desafiando-os a atribuir sua violência a PewDiePie, e uma
piscadela para outros trolls da Internet que entrariam na piada.

O terrorismo é a violência destinada a ameaçar uma comunidade mais ampla por causa de fins
políticos ou simples malícia. Mas também é tipicamente uma performance e um ato de solidariedade
com um grupo. Foi por isso que os recrutas do Estado Islâmico, especialmente os “lobos solitários”
radicalizados pela internet, que nunca se encontraram pessoalmente com outro membro, inundaram
os fóruns jihadistas com manifestos e mensagens de martírio gravadas em vídeo que fariam sentido
apenas para outros crentes.

Foi também por isso que as palavras finais escritas de Tarrant expressaram principalmente
afeição pela comunidade pela qual, ele deixou claro, estava fazendo isso. Em seu documento,
Tarrant escreveu que havia aprendido “etnonacionalismo” com Spyro: Year of the Dragon, um
videogame infantil. Ele agradeceu a Candace Owens, uma popular youtuber de direita alternativa,
por ensiná-lo a abraçar a violência.
Ele se gabou em um parágrafo: “Sou treinado em guerra de gorilas e sou o melhor atirador de todas
as forças armadas dos EUA”. Todos eram piadas internas da web social.
Mas para cada piada ou troll havia páginas de invocações aparentemente sinceras de
conspirações de extrema-direita, slogans nazistas e apelos para uma guerra racial global para
expulsar e extinguir não-cristãos e não-brancos. Acima de tudo, Tarrant cercou sua violência com
piadas internas que se tornaram, para sua comunidade, mortalmente sinceras, personificações de
sua deriva do extremismo irônico para o extremismo que era meramente encoberto pela ironia.

Durante sua transmissão ao vivo, enquanto dirigia, ele tocou uma música de um vídeo granulado
de 1992 de um ultranacionalista sérvio cantando em louvor a Radovan Karadžiÿ, um criminoso de
guerra responsável pelo genocídio da Bósnia. O vídeo há muito era um meme do 4chan, chamado
“remover kebab”, que, para alguns, passou de piada a sinal genuíno de apoio ao genocídio dos
muçulmanos. Tarrant também escreveu “remover kebab” na lateral de um de seus rifles.

No 8chan, os usuários, assistindo ao vivo, ficaram arrebatados.

HAHAHA ELE JOGOU REMOVER KEBAB NA ROTA! ESTOU MORRENDO AQUI!


Machine Translated by Google

Puta merda. OP entregue, porra, acabei de vê-lo matar tantos malditos hajis. [OP, para
“poster original”, refere-se a Tarrant.]

PORRA MERDA!!! OS DÍGITOS DE DEUS!

Alguns exortaram uns aos outros a seguir seu exemplo e, como disse um deles, “resgatar
sua nação”.
Alguns meses depois, Fredrick Brennan, fundador do 8chan e seu administrador até 2016,
disse que o site deveria ser fechado. “Não está fazendo nenhum bem ao mundo”, disse ele a
Kevin Roose, colunista de tecnologia do New York Times. “É uma negativa completa para todos,
exceto para os usuários que estão lá. E sabe de uma coisa? É negativo para eles também. Eles
simplesmente não percebem isso.”

Em poucos meses, mais dois assassinatos em massa de supremacistas brancos foram


anunciados no fórum. Um usuário de dezenove anos, após postar suas intenções, carregou um
AR-15 e cinquenta cartuchos de munição para uma sinagoga da Califórnia e atirou em quatro
pessoas, matando uma, antes que seu rifle emperrasse e ele fugisse. Então, um jovem de 21
anos em El Paso matou 23 pessoas em um Walmart, a maioria latina. A polícia disse que antes
do ataque ele havia postado uma longa mensagem no 8chan detalhando conspirações de guerra
racial de extrema direita que ele acreditava justificar sua violência.

Apesar de todos os links para o 8chan, quando os investigadores do governo da Nova


Zelândia terminaram seu exame de um ano sobre como o massacre de Christchurch aconteceu,
a maior culpa, segundo eles, era do YouTube. Tarrant aprendeu na plataforma como modificar
as armas que usou no ataque.
Ele havia doado dinheiro para YouTubers de direita alternativa. Nos dias anteriores ao ataque,
ele havia deixado a plataforma em reprodução automática, permitindo que seu algoritmo passasse
de um vídeo para o outro. Quando em outro lugar na web, seja em grupos do Facebook ou fóruns
de bate-papo de jogadores, ele frequentemente postava links para vídeos de extrema-direita no
YouTube.
Os investigadores, citando entrevistas e reconstruções forenses de sua história na web,
concluíram que “o YouTube era, para ele, uma fonte muito mais significativa de informação e
inspiração” do que qualquer outra plataforma.
De acordo com o relatório, o YouTube era tanto sua casa digital quanto o motor de sua
radicalização. Quando os investigadores perguntaram aos moradores sobre o ataque, eles
Machine Translated by Google

trouxe o YouTube também: seu papel na radicalização de extrema-direita, sua


promoção de conteúdo extremista. Alguns disseram que o algoritmo do YouTube
até os recomendou para o vídeo, supostamente banido, da matança de Tarrant.
Jacinda Ardern, primeira-ministra da Nova Zelândia, anunciou que, entre as
centenas de páginas de descobertas do relatório, o papel do YouTube em
promover ódio e conspirações “se destacou particularmente”. Ela acrescentou:
“Este é um ponto que pretendo abordar diretamente com a liderança do YouTube”.
A dezenas de milhares de quilômetros de distância, em um quarto escuro nos
arredores de Dallas, Adam, sem querer, assistiu ao tiroteio no 8chan logo após o
ocorrido. “Foi horrível”, lembrou. “Eu me considero uma pessoa insensível e
aquele vídeo me horrorizou.”
Chegou em um momento tênue para ele. Ele passou anos entre as
comunidades incel, seguindo-os no YouTube e no 8chan em sua – e sua –
descida à raiva e desconfiança. Mas ele conheceu uma jovem em um grupo do
Facebook, uma página de compartilhamento de memes que o algoritmo do
Facebook o recomendou. Adam havia postado um tópico oferecendo-se para
desenhar qualquer um que lhe enviasse uma foto. A jovem concordou, mas,
quando trocaram as informações da conta, usou o acesso para atraí-lo. A cotovia
baixou suas defesas. Tudo o que ele aprendeu online lhe disse que as mulheres
só iriam insultá-lo e machucá-lo. Mas ali estava a evidência de que alguém o vira,
olhara de bom grado, através de olhos que o tornavam não tão repugnante, mas
também pateta e bondoso. Depois de meses conversando online, ela dirigiu, uma
viagem de três dias, para Dallas. Eles eram tímidos um com o outro no começo.
“Foram provavelmente quatro ou cinco dias antes de a chaleira ferver”, disse ele.
Mas eles mantiveram contato depois. Ela começou a tirá-lo da toca do coelho.
Então Christchurch aconteceu, e ele teve o suficiente.
Pouco tempo depois, ele abriu a página do Twitter de Brianna Wu,
desenvolvedora de videogame e ativista que, durante o Gamergate, sofreu anos
de assédio e ameaças. “ei, isso pode parecer idiota”, ele escreveu a ela em uma
mensagem privada, “mas acho que só queria dizer que alguns anos atrás eu era
uma pessoa muito nervosa que foi pega no trem do ódio do 4chan contra você”.
Ele foi vago sobre o que, exatamente, ele havia feito. Mas ele disse que foi
arrebatado por um “enorme grupo de pensamento coletivo” de ódio antifeminista,
contra ela e outros, no 4chan e no Facebook. “as coisas mudaram e eu realmente
estou torcendo por você e sua campanha”, escreveu ele, referindo-se à candidatura
dela ao Congresso. “Eu estava pensando que poderia valer a pena contar a você sobre isso apenas
Machine Translated by Google

para mostrar apoio e que essas pessoas podem mudar para melhor.”
Wu recebia cada vez mais mensagens como essas - de ex-Gamergaters que,
depois de anos seguindo o funil mais profundo do extremismo online, conseguiram
ajuda. “Eles realmente me parecem estar procurando seu lugar no mundo”, ela me
disse. “Eu posso ver ser infeliz e transformar esse ódio em si mesmo em relação às
pessoas e contra-atacar, principalmente quando você é mais jovem. Então, eu
apenas tento me lembrar de quando eu tinha vinte e poucos anos. Eu estava uma
bagunça.
Ela escreveu de volta para Adam: “Isso realmente significa o mundo para mim,
obrigada!” Depois de algumas mensagens, ela pediu permissão para twittar uma
imagem de sua troca com o nome dele removido. Ele disse que sim, que esperava
que isso pudesse ajudar “mais pessoas com quem cresci conversando online” a
mudar. Seu tuíte recebeu talvez uma dúzia de respostas, a maioria positivas.
Provavelmente foi a quarta ou quinta postagem mais discutida de Wu naquele dia.
Mas para Adam o sentimento de afirmação foi esmagador.
“ver todas as respostas para a captura de tela que você compartilhou me deixou
muito animado”, ele escreveu de volta para ela. “Não sei se já vi tanta gente tão feliz
com qualquer coisa que eu disse antes.”
Machine Translated by Google

Dez

Os Novos Soberanos

1. Um governo oculto

O TRABALHO DE JACOB ERA PARA SER FÁCIL. O moderador do Facebook, que mais
tarde leria minha história do Sri Lanka e me enviaria uma coleção de documentos internos
para alertar o mundo sobre o que ele considerava uma perigosa negligência corporativa,
sentaria-se em sua estação de trabalho, que lhe mostraria um conteúdo do Facebook. ,
Instagram ou WhatsApp. Ele verificaria as diretrizes para ver se o cargo era permitido. Ele
clicaria para permitir, remover ou encaminhar para um superior. Repita.

Essas diretrizes já foram uma lista simples, proibindo insultos raciais, nudez e nada
mais. Mas em 2018 as regras se assemelhavam às instruções para operar um reator
nuclear, se cada página tivesse sido escrita por um autor diferente, cada um cego para
como as suas se encaixam no todo. Eles correram mais de 1.400 páginas (provavelmente
muito mais, ao contabilizar arquivos específicos da região aos quais a equipe de Jacob
não tinha acesso). E, no entanto, esperava-se que Jacob e seus colegas de trabalho, a
maioria ex-operadores de call center, conhecessem e aplicassem essas regras para
tomar centenas de decisões de alto risco todos os dias. Seu escritório, composto por
algumas dezenas de pessoas que revisavam conteúdo em vários idiomas e regiões, era
um dos muitos espalhados pelo mundo. Um vasto arquipélago de milhares de moderadores
em dezenas de escritórios, compartilhando pouca comunicação ou coordenação além do
que veio da sede distante do Facebook. Árbitros invisíveis separando o proibido do
permitido, moldando invisivelmente a política e as relações sociais em todos os países do
mundo.

Foi assim que Jacob, cansado de se sentir cúmplice do veneno que viu surgindo nas
plataformas de propriedade do Facebook - uma onda de mentiras sectárias alimentando
a violência comunitária no Iraque, uma conspiração de isca racial girando em torno de
Machine Translated by Google

Israel ou Índia — e de ter sido impedido pelos chefes das agências de terceirização
que ele tentou alertar, acabou entrando em contato comigo. As regras que regem as
mídias sociais, escreveu ele em sua primeira mensagem, “não estão adaptadas à
realidade do conteúdo que vemos”. E outra coisa o preocupava. O Facebook,
escreveu ele, havia despejado “trabalho delicado que afeta a segurança mundial” em
multinacionais como seu empregador, uma “empresa com fins lucrativos que se
preocupa apenas em maximizar a produtividade”. Por mais ruins que fossem as
regras, o modelo de negócios de redução de custos, maximização de lucros e sigilo
apenas tornava as falhas na moderação do conteúdo muito piores.
Nos meses que se seguiram, Jacob e eu conversamos regularmente em
aplicativos seguros e, por fim, saí para pegar os guias que ele havia roubado dos
sistemas de computador de seu empregador. Os arquivos prometiam algo poderoso:
evidências de que o Facebook havia se integrado, ainda que relutantemente, à
governança de um mundo cuja política e relações sociais eram cada vez mais
roteadas por meio de seus sistemas. E detalhes profundos e reveladores de como
eles fizeram isso.
Enquanto estávamos sentados em um sofá caído na casa de blocos de concreto
de dois cômodos de Jacob, bebendo de uma garrafa de refrigerante de dois litros
que ele comprou para a ocasião, ele contou os redemoinhos de ódio e incitamento
que sua equipe foi forçada a deixar online. por regras que eles sinalizaram repetidas
vezes como insuficientes e defeituosos. “No final das contas”, disse ele, “você é
forçado a seguir as regras da empresa se quiser manter seu emprego”. Mas as
decisões pesaram sobre ele. “Você sente que matou alguém por não atuar.”
Ele sabia que não era ninguém, apenas uma das milhares de engrenagens da
máquina global do Facebook. E apesar de suas preocupações, ele ainda tinha fé na
empresa que havia prometido tanto ao mundo; com certeza, isso não passou de uma
falha de baixo nível em cumprir a grande visão de Zuckerberg. Mesmo enquanto eu
estava sentado em sua casa, examinando documentos cuja publicação ele sabia que
iria embaraçar o Facebook, ele se via como seu aliado. Ao revelar as falhas
burocráticas que temia estarem atrasando a empresa, ele a ajudaria a realizar a
revolução tecnológica na qual depositara suas esperanças.

A pilha de papel não parecia um manual para regular a política global. Não havia
arquivo mestre ou guia abrangente, apenas dezenas de apresentações de PowerPoint
e planilhas de Excel desconectadas. Seus títulos, embora burocráticos, sugeriam o
escopo do Facebook. Violência credível:
Machine Translated by Google

Padrões de Implementação. Bens Regulamentados. Sri Lanka: discurso de ódio.


Terrorismo: política de pessoa falsa/não real. Os Bálcãs Ocidentais odeiam organizações
e figuras.
As regras cobriam praticamente qualquer tipo de assunto que a empresa pudesse
querer que seus moderadores considerassem. E pretendiam estabelecer, para qualquer
eventualidade em qualquer país ou região, instruções precisas e mecânicas sobre como
julgar o que remover ou permitir. Era um projeto incrivelmente ambicioso.
O objetivo era reduzir questões de contexto pesado que mesmo uma equipe de advogados
especializados teria dificuldade em analisar - o que constitui uma ameaça, quando uma
ideia é odiosa, quando é um boato perigoso - a uma questão em preto e branco tão direta
que qualquer determinado moderador poderia decidir sem pensamento independente.
Muitas das centenas de regras faziam sentido individualmente. Mas em sua totalidade
bizantina, eles sugeriram um absurdo para o esforço do Facebook de encaixar as nuances
da fala humana, da política e das relações sociais em árvores de decisão se-então.

Um livro de regras que Jacob consultava com frequência, sobre como determinar se
algo constituía discurso de ódio, tinha 200 páginas cheias de jargões. Pediu aos
moderadores que realizassem uma espécie de álgebra linguística. Compare a postagem
com uma confusão de listas: aulas protegidas, calúnias proibidas, “comparações
desumanas designadas”. Classifique a gravidade da postagem em um dos três níveis.
Se a postagem fizer referência a um grupo, abra uma lista para verificar se o grupo foi
banido, outra para ver se alguma palavra na postagem indica elogio ou apoio e outra para
ressalvas e exceções.
E esperava-se que eles fizessem tudo em cerca de oito a dez segundos, seguindo a
memorização automática. Não foi tempo suficiente nem mesmo para nomear todos os
documentos relevantes, muito menos revisar suas regras. E certamente não o suficiente
para pensar em como aplicá-los de forma justa e segura. Pensar, porém, não era muito
encorajado. “Este é o maior pecado, quando você é acusado de impor seu próprio
julgamento”, disse Jacob. “Nosso trabalho é apenas seguir o que o cliente diz.”

Eu disse a ele que simpatizava com a posição do Facebook. Contratou milhares de


moderadores em dezenas de países. Seria impraticável, e talvez imprudente, dar a todos
eles uma palavra a dizer na elaboração dessas regras.

Jacob balançou a cabeça. Ele só queria que o Facebook soubesse sobre erros,
lacunas nas regras, perigos que sua equipe havia visto na plataforma, mas
Machine Translated by Google

não poderia derrubar até que fosse escrito na orientação oficial. Afinal, disse ele, moderadores como
ele eram os que viam a maior quantidade de conteúdo. Mas seus chefes desencorajaram ele e seus
colegas de trabalho a se manifestarem. Se as regras parecessem equivocadas ou incompletas,
disseram-lhes, apenas fiquem calados e não causem problemas. “Eles estão interessados apenas em
produtividade”, disse ele.
Alguns de seus colegas desistiram. A maioria, precisando do trabalho, simplesmente ficou em silêncio.
"As pessoas desistem", disse Jacob. Em algum nível, a moderação era, como eles sabiam, uma
missão condenada. Nenhum livro de regras poderia conter o ódio e a desinformação que os sistemas
do Facebook foram projetados, embora não intencionalmente, para produzir em massa. Era como
colocar mais e mais purificadores de ar do lado de fora de uma fábrica de lixo tóxico enquanto a
produção aumentava simultaneamente no interior.

O Facebook não parecia querer a opinião deles de qualquer maneira. Era uma mentalidade de
engenharia de software: regras como linhas de código que moderadores intercambiáveis executariam
automaticamente. Em teoria, isso permitiria ao Facebook aumentar a moderação com um estalar de
dedos. O mesmo aconteceria com a terceirização do trabalho para multinacionais que poderiam
contratar os corpos conforme necessário. Era a única maneira de acompanhar a expansão permanente
do Facebook, que foi rápida demais para treinar revisores de pensamento independente.

Mais tarde descobri algo revelador. Vários departamentos do Facebook estavam lançando livros
de regras, usando estilos diferentes e, às vezes, formas de pensar diferentes, o que fazia com que
seus guias se chocassem e se contradissessem. Outros não vieram do Facebook, mas foram
produzidos pelas agências de terceirização, sem o conhecimento do Facebook, para tentar melhorar
as taxas de conformidade, dando aos moderadores regras mais restritas a seguir. Alguns foram
concebidos como manuais de treinamento, mas usados como materiais de referência. A empresa, ao
que parecia, não havia assumido o papel de árbitro global, mas sim mergulhado nele, crise após crise,
regra após regra. Seus líderes eram senhores supremos relutantes, cautelosos com a reação, avessos
a tomar decisões, executando seu papel em grande parte nas sombras.

De volta para casa, limpei os arquivos de todas as impressões digitais e comecei a distribuí-los
discretamente para analistas digitais e especialistas em vários países.
Na Índia, Chinmayi Arun, uma estudiosa do direito, identificou erros preocupantes nas diretrizes de
seu país. As diretrizes instruíam os moderadores de que qualquer postagem que degradasse uma
religião específica infringia a lei indiana e deveria ser sinalizada para remoção. Foi um freio significativo
no discurso do Facebook
Machine Translated by Google

300 milhões de usuários indianos - e um incorreto. Não havia tal lei.


Por que o Facebook, empresa de liberdade de expressão, impôs uma restrição tão
severa na maior democracia do mundo? Talvez tenha sido um erro. Mas outros como
ele apareceram nos arquivos também. E então esta pista: um conjunto de diretrizes do
Paquistão alertou os moderadores contra a criação de um “incêndio de relações
públicas” ao tomar qualquer ação que pudesse “ter um impacto negativo na reputação
do Facebook ou até mesmo colocar a empresa em risco legal”.
Outro slide dizia que a lei indiana proibia a criação de uma Caxemira independente,
uma região sob brutal ocupação militar indiana. Ele instruiu os moderadores a “procurar”
a frase “Caxemira Livre”. Tudo isso, disse Arun, era realmente legal na Índia. Mais
tarde, o Facebook me disse que isso não pretendia proibir os usuários de expressar
apoio aos direitos da Caxemira, apenas para instar os moderadores a aplicar um
escrutínio extra a qualquer postagem que o fizesse. Ainda assim, não ficou claro se
essa distinção seria óbvia para os moderadores, que são repetidamente alertados de
que a aplicação insuficiente ou escândalos podem fazer com que o Facebook seja
bloqueado na Índia. Apesar de todas as promessas da empresa de trazer uma revolução
da liberdade de expressão, às vezes parecia prevalecer a deferência às sensibilidades
políticas de certos governos.
Os erros eram galopantes. Diretrizes para os Bálcãs, uma região da Europa há
muito atormentada por milícias etnonacionalistas, fluíam com erros de digitação,
informações desatualizadas e erros estranhos. Ratko Mladiÿ, um criminoso de guerra
ainda celebrado por extremistas - o assassino em massa de Christchurch elogiou Mladiÿ
online - foi identificado incorretamente como "Rodney Young".
O Facebook governou, no que Jacob enfatizou repetidamente como a falha fatal do
sistema, por meio de empresas de terceirização ávidas por lucros que não
compartilhavam seus objetivos ou valores. Ele deu um exemplo. Publicamente, o
Facebook insistiu que os moderadores não eram obrigados a cumprir cotas de quantos
posts revisavam ou com que rapidez. As cotas incentivariam a velocidade em detrimento
do cuidado ou consideração, forçando os moderadores a comprometer a segurança
das comunidades que supervisionavam. Mas Jacob me mostrou as páginas de seu
escritório listando abertamente as cotas: posts para revisar, tempo por post, contadores
de quantos ele revisou. Documentos mostraram que seu pagamento era definido com
base em quão bem ele se mantinha. As cotas governavam suas vidas, impostas pelas
agências de terceirização para conquistar mais negócios com o Facebook. Isso foi feito
sem o conhecimento explícito do Facebook e contra suas políticas, embora também
fosse um resultado previsível do Facebook exigindo que seus contratados controlassem o custo sempre cr
Machine Translated by Google

revisando bilhões de postagens por dia.


O Facebook também alegou que os moderadores tinham acesso a programas de saúde mental.

Serviços. Foi uma resposta a relatos de moderadores que desenvolveram transtorno de


estresse pós-traumático por encontrar repetidamente pornografia sangrenta e vil. Mas
isso nunca se materializou em seu escritório, disse Jacob. Muitos trabalhadores duraram
apenas alguns meses antes de se esgotarem, muitas vezes retornando aos empregos
de call center. Foi um sinal da desconexão entre o Facebook e suas agências, cujos
incentivos são puramente para manter os custos baixos e a produtividade alta. Quanto
mais eu aprendia sobre como o Facebook supervisionava esses empreiteiros, menos
surpreendente era que o ódio invadia um país após o outro sem controle.
Os moderadores são regularmente auditados quanto à “precisão”, a medida do
Facebook para a frequência com que decidem sobre o conteúdo da maneira que a
empresa deseja. Uma parte dessa auditoria é conduzida por funcionários corporativos do Facebook.
Mas, principalmente, é feito por outros trabalhadores no mesmo centro de terceirização.
As agências se policiam. Seu incentivo é percorrer as postagens o mais rápido possível
e, em seguida, reivindicar altos níveis de precisão.
Corte de canto parece ser galopante. Na agência de Jacob, se os moderadores
encontrassem uma postagem em um idioma que ninguém pudesse ler, eles eram
instruídos a marcá-la como aprovada, mesmo que os usuários tivessem sinalizado a
postagem como discurso de ódio perigoso. Foi uma revelação chocante. Não apenas os
grupos de monitoramento no Sri Lanka e em Mianmar estavam certos de que o Facebook
estava apoiando ativamente incitações diretas ao genocídio, mas era uma questão de
política em algumas empresas de terceirização fazer isso.
O executivo do Facebook que supervisionou as agências reconheceu, quando
perguntei sobre isso, que a empresa às vezes luta para controlar empresas externas,
chamando essas práticas de violação das regras do Facebook. Mas depende de sua
capacidade de contratar e escalar rapidamente para apoiar a expansão global que faz
do Facebook seus bilhões. Mesmo quando as empresas desafiam e enganam o
Facebook, seus contratos tendem a crescer. Afinal, são apenas os usuários que sofrem.

2. Mestres do Universo

HÁ TANTA coisa que torna a tecnogovernança da mídia social peculiar. A arrogância de


sua escala e seu sigilo. A crença de que a política e as relações sociais são problemas
de engenharia. A fé nos engenheiros para resolvê-los.
Machine Translated by Google

A ingenuidade de pensar que o fizeram, ou pelo menos o suficiente para continuar expandindo.
Tudo remontava, assim como muitos dos recursos definidores das plataformas, aos imperativos
do capitalismo do Vale do Silício. Nomeadamente, a uma mudança drástica e recente desse
modelo.
No final dos anos 2000, a relação de poder entre duas das classes mais importantes do Vale
— investidores e fundadores de startups — subitamente mudou. Desde as primeiras lojas de
transistores, os investidores detinham o poder.
Os fundadores precisavam de muito dinheiro para fazer seu primeiro widget, mais para conseguir
seu primeiro cliente, mais ainda para obter lucro. Os investidores, para cobrir esses custos e
garantir que suas apostas valessem a pena, receberam muita supervisão.
"O entendimento costumava ser que você trazia o capitalista de risco para - o termo era
sempre 'supervisão de um adulto'", explicou Leslie Berlin, historiadora da Universidade de
Stanford. Os investidores nomearam gerentes seniores, o conselho corporativo e até mesmo um
CEO experiente para supervisionar o fundador em sua própria empresa. Quando John Doerr
investiu US$ 12,5 milhões no Google, fundado e administrado por dois estudantes de pós-
graduação, ele contratou Eric Schmidt, um executivo veterano vinte anos mais velho que eles,
como chefe.
A era da computação em nuvem mudou tudo. Agora que qualquer fundador poderia iniciar
um negócio na web e obter seus primeiros mil clientes por conta própria, e agora que os VCs
estavam procurando por startups de hackers de crescimento rápido e de alto risco, os investidores
precisavam fazer mais apostas, assim como os fundadores precisavam menos deles. . De repente,
os VCs competiam para apresentar os fundadores, e não vice-versa.

“Quando você tem capitalistas de risco agora competindo para financiar alguém, versus
empreendedores de joelhos implorando por dinheiro, é uma dinâmica de poder completamente
diferente”, com fundadores de startups definindo cada vez mais os termos, disse Berlin. Uma
maneira segura de os investidores tornarem seus lances mais atraentes: não há mais supervisão
de um adulto. Não há mais CEOs instalados sobre as cabeças dos fundadores.
No caso do Facebook, nenhum conselho independente. “Essa é uma mudança fundamental em
toda a compreensão do que um capitalista de risco deve fazer”,
disse Berlim.

Ele lançou a era do fundador-CEO hacker de 22 anos vestindo moletom. A equipe executiva
composta por amigos do fundador. As culturas corporativas corajosamente, orgulhosamente
desafiam os adultos de terno. “Por que a maioria dos mestres de xadrez tem menos de trinta
anos?” Certa vez, Zuckerberg perguntou a um grupo de 650 aspirantes a fundadores na incubadora
de startups de Paul Graham. “Os jovens são
Machine Translated by Google

apenas mais inteligente.” Ele exortou os aspirantes a executivos do público a contratar de


acordo.
O próprio Graham exortou outros investidores a serem jovens, dizendo em uma palestra
pública: “em software, você quer investir em alunos, não em professores”.
Experiência de negócios, experiência de vida e diplomas avançados eram passivos, não
ativos. Investir jovens, acrescentou, também tende a ser mais barato. No ano anterior, a
idade média dos fundadores de seu programa de startups era de 23 anos. O resultado, disse
Berlin, foi “muito poder nas mãos de pessoas muito jovens que pensam que as pessoas ao
seu redor não têm nada a oferecer”.

Muitos surgiram no boom das pontocom, uma época de chefs de sushi e massoterapeutas
no local. As regalias destinavam-se a resolver um problema trabalhista.
A Califórnia proíbe as cláusulas de não concorrência, o que significa que os funcionários
podem mudar de emprego a qualquer momento. As empresas oferecem escritórios de spa
de luxo e serviços de mordomo pessoal para manter as pessoas a bordo. Mas o estilo de
vida pode distorcer. Se estamos todos vivendo como reis e presidentes, então devemos ser
igualmente importantes, certo?
As culturas corporativas, absorvendo esse ambiente, assumiram uma alta fermentação
ideológica: construa widgets para nós e você não estará apenas ganhando dinheiro, estará
salvando o mundo. A corrida armamentista da declaração de missão aumentou até que, no
final dos anos 2000, praticamente todos os empregadores da cidade diziam aos contratados
que projetar aplicativos os colocava, em termos de importância, em algum lugar entre as
Nações Unidas e a Liga dos Super-Heróis. Era uma cultura em que assumir as rédeas da
governança global não parecia tão estranho.
Os egos foram impulsionados ainda mais por uma prática contábil da era da web: pagar
os primeiros funcionários com opções de compra de ações. As startups fragmentadas,
solicitadas a transformar um investimento inicial de $ 100.000 em uma base de clientes de
um milhão de usuários, concederam, no lugar de salários competitivos, o que eram
efetivamente IOUs. Se a empresa falisse, como aconteceu com a maioria, as opções seriam
inúteis. Se a empresa tivesse sucesso, o que poderia significar uma venda para a Oracle
por US$ 300 milhões, os primeiros funcionários poderiam se aposentar, milionários, aos 26
anos. Para aqueles que atingiram o sucesso, o dinheiro pareceu uma afirmação do que os
investidores e empregadores sempre lhes disseram: você é diferente das outras pessoas.
Mais inteligente, melhor. Mestres legítimos do universo.
A nova era também elevou uma classe diferente de investidores. Capitalistas de risco
apoiados por instituições, como John Doerr agindo em nome da Kleiner
Machine Translated by Google

Perkins, “passou alguns anos se retraindo após o estouro da bolha das pontocom”,
Roger McNamee, o primeiro investidor do Facebook, escreveu em suas memórias. “No vazio
surgiram investidores anjos – indivíduos, em sua maioria ex-empresários e executivos”, escreveu
ele. Insiders ricos, colocando seu próprio dinheiro, sem uma empresa controlando os cordões da
bolsa ou acionistas para mantê-los felizes.
Tanto o investidor quanto o fundador estavam agora muito mais livres para fazer o que quisessem.
A era dos porteiros e grades de proteção estava terminando.
Alguns dos primeiros e mais influentes investidores anjo foram os cofundadores do PayPal,
entre eles Peter Thiel, o arquiconservador que chamou o valor da diversidade de “mito” e disse que
hackers contrários “com inaptidão social semelhante à de Asperger” eram a melhor startup chefes.
“O impacto deles transformou o Vale do Silício”, escreveu McNamee, e seu dinheiro financiou grande
parte da era da mídia social. Mas o “sistema de valores” que eles trouxeram, de acordo com
McNamee, “pode ter contribuído para a cegueira das plataformas de internet aos danos que
resultaram de seu sucesso”.

A política dos fundadores do PayPal era severamente libertária: eles eram socialmente
darwinistas, desconfiados do governo, certos de que os negócios sabiam mais. Thiel levou isso a
tais extremos que, em 2009, anunciou: “Não acredito mais que liberdade e democracia sejam
compatíveis”. A sociedade não podia mais ser confiada ao “demos irracional que guia a chamada
social-democracia”, escreveu ele, usando o termo grego para cidadãos. Somente “empresas como
o Facebook” poderiam salvaguardar a liberdade. E somente se fossem libertos da “política”, que
parecia significar regulamentação, responsabilidade pública e possivelmente a lei.

Ele apoiou projetos destinados a criar cidades flutuantes administradas por corporações e a
colonização do espaço, tudo fora da jurisdição de qualquer governo.
Essas fantasias de ficção científica apenas exageravam uma velha ideia no Valley.
Engenheiros e fundadores de startups sabiam melhor. Era sua responsabilidade derrubar o status
quo e instalar uma tecno-utopia em seu lugar, exatamente como os escritores do manifesto dos
anos 1990 haviam predito. Se os governos ou os jornalistas se opuseram, foram apenas os antigos
titulares que se agarraram a uma autoridade que não era mais deles.

Esse senso de missão divina levou os investidores-anjo da Geração PayPal, que selecionaram
as startups e fundadores para refazer o mundo em torno de sua visão. Eles chamaram isso de
perturbar os titulares. Uber e Lyft não apenas ofereceriam uma nova maneira de chamar táxis, mas
também aboliriam e substituiriam o antigo
Machine Translated by Google

um. O Airbnb interromperia a habitação de curto prazo. Todos os três foram investidos por
ex-alunos do PayPal. Muitos outros perseguiram o mesmo deslocamento violento.
Amazon e varejo físico, Napster e música. Apenas alguns, como Thiel, sugeriram seriamente
fazer com a governança global o que o Uber havia feito com o compartilhamento de
viagens. Mas uma vez que as plataformas de mídia social se depararam com esse papel,
deve ter parecido apenas uma continuação de seu lugar de direito. Da crença de que a
sociedade é um conjunto de problemas de engenharia esperando para serem resolvidos.

3. Convergência

DOIS ANOS APÓS a eleição de Trump chocou os americanos a questionar a influência da


mídia social sobre sua política, Renée DiResta e quatro outros especialistas sentaram-se
diante das câmeras de TV e pódios com painéis de madeira do Comitê de Inteligência do
Senado, prontos para fornecer respostas. “Esse problema é uma das ameaças que definem
nossa geração”, disse DiResta aos dezesseis senadores dispostos diante dela.

A audiência foi nominalmente para abordar a exploração digital da Rússia. Mas os


investigadores do Congresso, como tantos outros, estavam começando a acreditar que a
incursão russa, embora perniciosa, havia revelado um perigo mais profundo e contínuo.
Não se tratava “de arbitrar a verdade, nem é uma questão de liberdade de expressão”,
disse DiResta. Tratava-se de amplificação algorítmica, incentivos online que levavam
usuários involuntários a espalhar propaganda e a facilidade com que atores mal-
intencionados podiam “alavancar todo o ecossistema de informações para fabricar a
aparência de consenso popular”. Como DiResta vinha fazendo há anos, ela dirigiu a
atenção de seu público de Moscou para o Vale do Silício. “A responsabilidade pela
integridade do discurso público está em grande parte nas mãos de plataformas sociais
privadas”, disse ela. Para o bem público, ela acrescentou, falando em nome de sua equipe,
“acreditamos que as plataformas de tecnologia privadas devem ser responsabilizadas”.

Ela inicialmente relutou em comparecer ao Senado. “Achei que era um futebol político”,
ela me disse, referindo-se à intromissão russa. “Vai ser tudo pegadinha? Serei eu lutando
com determinados senadores republicanos que eram, a essa altura, substitutos de Trump?”
Mas um briefing a portas fechadas que ela deu ao comitê foi “incrivelmente profissional”,
disse ela. “Foi tudo apenas apuração de fatos.” Impressionada e surpresa com a sinceridade
de alguns senadores que considerava hiperpartidários,
Machine Translated by Google

ela concordou. “Eu realmente queria deixar claro que achava que era um problema
do sistema”, ela me disse, “e que a Rússia talvez fosse a melhor em manipular o
sistema, mas que outros continuariam a fazê-lo”.
Quanto mais sua equipe analisava os gigas de dados fornecidos pelas
plataformas, ela disse, mais certa ela ficava “de que não importava tanto se era a
Rússia, antivaxxers ou terroristas. Essa foi apenas a dinâmica que estava tomando
forma como resultado desse sistema.” Durante meses, houve sinais de uma grande
convergência sobre o que já foi chamado de “manual da Rússia”, mas cada vez
mais parecia usuários e grupos simplesmente seguindo os incentivos e recursos
das mídias sociais. A linha se confundiu, talvez para sempre, entre os grupos que
promovem estrategicamente a desinformação ao estilo russo e os usuários que a
originam organicamente. Propagandistas tornaram-se desnecessários; o sistema,
temia DiResta, fazia o verdadeiro trabalho.
Em uma tentativa de abordar as preocupações do público, Zuckerberg publicou
um ensaio algumas semanas após a audiência de DiResta. “Um dos maiores
problemas que as redes sociais enfrentam”, escreveu ele, “é que, quando não são
controladas, as pessoas se envolvem desproporcionalmente com conteúdo mais
sensacionalista e provocativo”. Ele incluiu um gráfico que mostrava o engajamento
subindo conforme o conteúdo do Facebook se tornava mais extremo, até atingir o
limite do que o Facebook permitia. “Nossa pesquisa sugere que não importa onde
traçamos os limites do que é permitido, à medida que um conteúdo se aproxima
dessa linha, as pessoas se envolvem mais com ele, em média”, escreveu ele. “Em
grande escala”, acrescentou, esse efeito “pode prejudicar a qualidade do discurso
público e levar à polarização”.
Guillaume Chaslot, o ex-YouTube, ficou surpreso. Ele passou anos tentando
provar o que Zuckerberg havia acabado de admitir. Conteúdo mais extremo ganha
mais engajamento, ganha mais promoção, polarizando os usuários. “Isso é loucura
quando você pensa sobre isso”, disse Chaslot.
Zuckerberg havia revelado um detalhe revelador: em sua pesquisa interna, eles
descobriram que as pessoas se envolvem mais com conteúdo extremo “mesmo
quando depois nos dizem que não gostam do conteúdo”. Em outras palavras, como
especialistas e insiders preocupados se esforçaram para demonstrar por anos, não
era uma vontade consciente que os usuários estavam agindo; era algo entre
impulso, tentação e cutucadas impostas pelo sistema. A correção proposta por
Zuckerberg foi, naturalmente, mais ajustes de algoritmo. Eles iriam treiná-lo para
reconhecer o conteúdo que não era totalmente proibido e rebaixar sua promoção - uma espécie de
Machine Translated by Google

proibição a meio. Mas a natureza básica do sistema permaneceria.


“Não mudou muito”, disse Chaslot. “Você ainda pode ver que, se olhar para as postagens
políticas mais compartilhadas no Facebook, elas são muito divisivas, seja de extrema direita
ou de extrema esquerda.” Ele acrescentou: “Se o Facebook está sempre levando as pessoas
ao extremo, não importa que os grupos mais extremos tenham sido removidos, porque o
Facebook está criando mais”. Era por isso que, para ele, o problema não era moderação,
mas amplificação.
E esse problema estava, deixando de lado o ajuste de Zuckerberg, piorando. A empresa
havia reformulado seu algoritmo no início de 2018: o engajamento havia caído no ano anterior
e a reformulação visava fazê-lo subir novamente.
A nova versão promoveria ou suprimiria cada postagem com base em uma pontuação
atribuída automaticamente. As curtidas valiam um ponto, mas os emojis de reação – amor,
tristeza, raiva – valiam cinco, o que significa que uma postagem que provocasse mais
emoções seria classificada cinco vezes mais. Comentários curtos ganham quinze pontos,
novos compartilhamentos e comentários longos ganham trinta, recompensando qualquer
coisa que provoque uma discussão longa e emocional.
O engajamento ressurgiu imediatamente. Mas os usuários expressaram menos felicidade
com a experiência. O tráfego para editores de notícias do feed caiu.
“Desinformação, toxicidade e conteúdo violento prevalecem excessivamente entre os novos
compartilhamentos”, alertou um relatório interno sobre a mudança, com outra constatação de
“efeitos colaterais prejudiciais à saúde em partes importantes do conteúdo público, como
política e notícias”. Invectivas e boatos proliferaram ainda mais do que antes, superando as
notícias ou a moderação. Os partidos políticos de toda a Europa reclamaram em particular
com a empresa que a tendência sensacionalista de seus algoritmos os “forçou a distorcer
suas comunicações no Facebook, levando-os a posições políticas mais extremas”, de acordo
com um memorando interno.

Mais ou menos na mesma época do ensaio de Zuckerberg, uma equipe de economistas


de Stanford e da Universidade de Nova York conduziu um experimento que testou, de forma
tão direta e rigorosa quanto qualquer um, como o uso do Facebook muda sua política. Eles
recrutaram cerca de 1.700 usuários e os dividiram em dois grupos.
As pessoas em um foram obrigadas a desativar suas contas por quatro semanas.
As pessoas no outro não eram. Os economistas, usando métodos de pesquisa sofisticados,
monitoraram o humor diário de cada participante, o consumo de notícias, a precisão de seu
conhecimento sobre notícias e, especialmente, suas opiniões sobre política.
Machine Translated by Google

As mudanças foram dramáticas. As pessoas que excluíram o Facebook ficaram mais


felizes, mais satisfeitas com suas vidas e menos ansiosas. A mudança emocional foi
equivalente a 25 a 40 por cento do efeito de ir à terapia - uma queda impressionante para
uma pausa de quatro semanas. Quatro em cada cinco disseram depois que a desativação
foi boa para eles. Os desistentes do Facebook também gastaram 15% menos tempo
consumindo notícias. Eles se tornaram, como resultado, menos informados sobre os
eventos atuais - o único efeito negativo. Mas muito do conhecimento que eles perderam
parecia ser devido à polarização do conteúdo; informações empacotadas de forma a
favorecer antagonismos tribais. No geral, escreveram os economistas, a desativação
“reduziu significativamente a polarização de pontos de vista sobre questões políticas e
uma medida de exposição a notícias polarizadoras”. Seu nível de polarização caiu quase
pela metade em relação ao aumento da polarização do americano médio entre 1996 e
2018 – o mesmo período durante o qual ocorreu a crise de polarização que ameaça a
democracia.
Mais uma vez, quase metade.

À medida que as evidências aumentavam ao longo de 2018, a ação começou a seguir.


Naquele ano, a Alemanha determinou que as plataformas de mídia social removessem
qualquer discurso de ódio dentro de 24 horas após sua sinalização, ou enfrentariam multas.
A Austrália anunciou uma investigação sobre os regulamentos “primeiros do mundo” sobre
os danos da mídia social, chamando-o de “ponto de virada” em meio ao “reconhecimento
global de que a internet não pode ser aquele outro lugar onde os padrões da comunidade
e o estado de direito não se aplicam”. A União Européia impôs uma série de multas
superiores a um bilhão de dólares ao Google por abusos antitruste e, em seguida,
ameaçou regulamentar o Facebook por discurso de ódio, influência eleitoral, desinformação
- toda a gama. “Não vou esconder que estou ficando impaciente”, disse o comissário de
Justiça da UE, Vÿra Jourová, em entrevista coletiva, falando sobre o Facebook. “Se não
vemos o progresso, as sanções terão que vir. Não quero negociar para sempre.”

Até o Vale do Silício estava começando a internalizar a reação. Uma pesquisa interna
com 29.000 funcionários do Facebook realizada em outubro descobriu que a parcela de
funcionários que disseram ter orgulho de trabalhar no Facebook caiu de 87 para 70% em
apenas um ano. A parcela que sentiu que sua empresa tornou o mundo um lugar melhor
caiu de 72 para 53 por cento, e se eles se sentiam otimistas sobre o futuro do Facebook,
de meados dos anos 80 para pouco mais de 50 por cento. “Quando entrei no Facebook
em 2016, minha mãe ficou muito orgulhosa de mim”, disse um ex-gerente de produto do
Facebook à Wired
Machine Translated by Google

revista. “Eu poderia andar com minha mochila do Facebook por todo o mundo e as
pessoas parariam e diriam: 'É tão legal que você trabalhou para o Facebook.' Esse não
é mais o caso.” Ela acrescentou: “Ficou difícil ir para casa no Dia de Ação de Graças”.

4. Ciberdemocracia

DESDE que exista uma era democrática, ela tem sido governada por porteiros. As
instituições partidárias ditam as agendas e selecionam quem vai às urnas. Os
estabelecimentos de mídia controlam quem tem tempo de antena e quem não tem,
quem é retratado como aceitável e quem não é. Empresas e grupos de interesse
desembolsam o financiamento que ganha as eleições. A mídia social, entre outros
fatores, corroeu o poder desses porteiros. A custo zero, os candidatos poderiam
construir seus próprios impérios de mensagens públicas, organização e arrecadação
de fundos, contornando os porteiros. As instituições ainda têm influência, mas, para o
bem ou para o mal, seu bloqueio à democracia acabou.
O Vale do Silício esperava fazer exatamente isso, é claro. Ao permitir que as
pessoas se expressem diretamente e em massa, “em vez de por meio de intermediários
controlados por alguns poucos”, escreveu Zuckerberg em uma carta de 2012 aos
investidores, “esperamos que os governos se tornem mais receptivos”. Mas, na prática,
as mídias sociais não aboliram os estabelecimentos, mas os substituíram. Seus
algoritmos e incentivos agora agiam como guardiões, determinando quem subia ou
descia. E eles fizeram isso com base não na popularidade, mas no engajamento – o
que, como Chaslot havia demonstrado em sua análise do YouTube, levou à superação
de candidatos marginais.
Alguns chamaram essa nova era de “ciberdemocracia”. Na França, no final de
2018, chamavam de “coletes amarelos”. Tudo começou quando uma petição exigindo
preços mais baixos do combustível circulou nas mídias sociais durante o verão e se
tornou, em outubro, a base de um amplo grupo no Facebook pedindo aos motoristas
que bloqueiem as estradas locais. A discussão foi livre, culpando o aumento dos preços
da gasolina pela reclamação preferida de cada usuário, grupo externo ou conspiração,
dando a todos um motivo para se reagrupar. Em um dia pré-planejado naquele
novembro, dezenas de milhares em todo o país tiraram os coletes de segurança
amarelos de seus carros – uma lei francesa exige mantê-los à mão – e bloquearam as
estradas próximas. O espetáculo chamou a atenção, o que trouxe novos recrutas.
Desde o início, os Coletes Amarelos, como se autodenominavam,
Machine Translated by Google

identificado como um movimento sem liderança, radicalmente horizontal. A mídia social, sem
dúvida, permitiu isso. Nunca houve uma maneira tão escalável, gratuita e universalmente
aberta de se organizar. Mas as plataformas também aplicaram uma mão orientadora invisível.
Seus elementos promocionais atraíram os usuários para os grupos de alto engajamento que
impulsionavam a atividade e onde as postagens mais carregadas chegavam ao topo. O mesmo
aconteceu com a natureza participativa das plataformas, que recompensavam os usuários que
realizavam sua adesão com postagens e fotos de seu bloqueio. E era uma identidade
compartilhada, na qual qualquer francês com um colete de um euro podia se sentir parte de
algo grande e significativo.
Logo os Coletes Amarelos se uniram em torno de uma causa maior: refazer a democracia
francesa à sua imagem. Uma “assembléia de cidadãos” implementaria diretamente a vontade
popular, sem a mediação de representantes ou instituições.
As questões seriam decididas por referendo. Os eleitores teriam o poder de revogar os
representantes a qualquer momento. Até que isso fosse concedido, eles se comprometeram a
bloquear as estradas todos os sábados.
Os Coletes Amarelos também emitiram uma cacofonia de demandas políticas, muitas das
quais eram contraditórias. Uma série de impostos deveria ser zerada, assim como a falta de
moradia. O tamanho das turmas do jardim de infância deveria ser reduzido e o estacionamento
no centro da cidade seria gratuito. A dívida nacional deveria ser “declarada ilegítima” e
inadimplente. Os refugiados deveriam ser impedidos de entrar no país. Uma segunda lista,
acrescentada uma semana depois, exigia que a França deixasse a União Europeia e a OTAN,
reduzisse os impostos pela metade e suspendesse quase toda a imigração. Era uma agenda
que só poderia emergir das mídias sociais: maximalista, incoerente, enraizada na identidade,
livre de tomadores de decisão que poderiam aderir à lista. Identificação pura.

Os Coletes Amarelos foram, de certa forma, um sucesso histórico, o maior movimento


cidadão desde pelo menos a década de 1960 no país que praticamente inventou tais
movimentos. Mas teve pouco impacto. Cada partido político tentou aproveitar sua energia.
Assim como o trabalho organizado. Os alunos também. Eles não chegaram a lugar nenhum.
Então o movimento se esvaiu, como se nunca tivesse acontecido. Mesmo mais de sete anos
depois da Primavera Árabe e quaisquer lições que ela possa ter trazido para os ativistas online,
a nova democracia da mídia social produziu muito caos, mas estranhamente poucos resultados.

Isso acabou sendo uma tendência, e reveladora, descoberta por Erica Chenoweth, uma
estudiosa da resistência civil em Harvard. A frequência de movimentos de protesto em massa
vinha crescendo em todo o mundo desde a década de 1950, ela
Machine Translated by Google

encontrado, e tinha acelerado ultimamente. Entre os anos 2000 e 2010, a média de


episódios por ano aumentou quase 50%. A taxa de sucesso deles também vinha
crescendo, ano após ano, por décadas. Por volta de 2000, 70% dos movimentos de
protesto exigindo mudanças sistêmicas foram bem-sucedidos. Mas então, de repente,
essa tendência se inverteu. Eles começaram a falhar - assim como estavam ficando mais
frequentes. Agora, descobriu Chenoweth, apenas 30% dos movimentos de massa foram
bem-sucedidos. “Algo realmente mudou”, ela me disse, chamando a queda de
“impressionante”. Praticamente todos os meses, outro país irrompia em protestos
nacionais: Líbano por corrupção, Índia por desigualdade de gênero, Espanha por
separatismo catalão. Muitos em uma escala que excede os movimentos mais
transformadores do século XX. E a maioria deles fracassando.

Para explicar isso, Chenoweth baseou-se em uma observação de Zeynep Tufekci, o


estudioso da Universidade da Carolina do Norte: a mídia social torna mais fácil para os
ativistas organizar protestos e obter rapidamente números antes impensáveis – mas isso
pode realmente ser um risco. Por um lado, a mídia social, embora inicialmente saudada
como uma força de libertação, “realmente beneficia a repressão na era digital muito mais
do que a mobilização”, disse Chenoweth. Os ditadores aprenderam como tirar proveito
disso, usando seus recursos superiores para inundar as plataformas com desinformação
e propaganda.
O efeito nas democracias foi mais sutil, mas ainda poderoso. Chenoweth citou, como
comparação, o Student Nonviolent Coordinating Committee, um grupo estudantil da era
dos direitos civis. Antes da mídia social, os ativistas tinham que se mobilizar por meio do
alcance da comunidade e da construção de organizações. Eles se reuniam quase
diariamente para perfurar, traçar estratégias e conferenciar. Foi um trabalho agonizante
de anos. Mas tornou o movimento durável, construído sobre laços do mundo real e
cadeias de comando. Permitiu que movimentos como o SNCC perseverassem quando as
coisas ficavam difíceis, respondessem estrategicamente aos eventos e traduzissem as
vitórias nas ruas em mudança política.
A mídia social permite que os protestos pulem muitas dessas etapas, colocando mais
corpos nas ruas mais rapidamente. “Isso pode dar às pessoas uma sensação de falsa
confiança”, disse Chenoweth, “porque é um comprometimento menor”. Sem a infraestrutura
subjacente, os movimentos de mídia social são menos capazes de organizar demandas
coerentes, coordenar ou agir estrategicamente. E ao canalizar a energia popular para
longe do tipo mais difícil de organização, ela impede o surgimento de movimentos
tradicionais. Foi o que Zuckerberg
Machine Translated by Google

havia prometido: movimentos cidadãos maiores e sem liderança. Mas o Facebook,


como os outros gigantes da mídia social, havia se tornado uma instituição estabelecida
por si só. E, como a maioria dos porteiros, tendia a proteger o estabelecimento e o
status quo de que dependia para manter seu poder.

5. CEOs em tempo de guerra

EM MAIO DE 2016, o site de notícias de tecnologia Gizmodo publicou o que ainda


pode ser uma das histórias mais importantes escritas sobre plataformas de mídia
social, sob o título “Ex-trabalhadores do Facebook: nós rotineiramente suprimimos
notícias conservadoras”. A história dizia respeito a um pequeno widget na página
inicial do Facebook, chamado “tendências”, que exibia um punhado de tópicos e
manchetes. Gerou pouco tráfego: 1,5% dos cliques. Um algoritmo ajudou a identificar
trending topics, mas a empresa, em uma etapa incomum, submeteu essas escolhas
ao julgamento humano. Um punhado de ex-jornalistas organizou os tópicos e escreveu
sinopses descrevendo-os.
Um ex-contratado dessa equipe disse ao Gizmodo que a equipe foi criada para
suprimir tópicos de orientação conservadora. O contratante, que se identificou como
conservador, disse que os editores do Facebook pediram que ele não incluísse
histórias virais sobre, por exemplo, um ex-trabalhador do IRS que os republicanos
acusaram de atacar grupos conservadores. (Suas evidências eram confusas e a
história acabou sendo falsa.) Os editores também lhe disseram para não pegar
histórias divulgadas por sites de extrema-direita como o Breitbart até que um veículo
convencional as confirmasse. O artigo do Gizmodo apresentou essas decisões como
evidência do viés anticonservador do Facebook. Ele também acusou a empresa de
ordenar aos contratados que “manipulassem artificialmente o módulo de tendências”
ao “injetar” histórias que ainda não haviam se tornado virais. Seus dois exemplos
foram o desaparecimento do voo 370 da Malaysia Airlines e os ataques terroristas do
Charlie Hebdo .
Foi um caso raro do Facebook fazer tudo o que especialistas e grupos digitais
mais tarde pediriam. Impondo supervisão humana em seus algoritmos.
Privilegiar a verdade e a credibilidade sobre a viralidade e o engajamento. Verificando
ocasionalmente os piores impulsos de seu sistema, até mesmo de seus usuários. Mas
a história, enquadrada como foi, ofereceu aos republicanos uma oportunidade de
provocar queixas que transformaram a política em torno das mídias sociais e,
finalmente, as próprias plataformas.
Machine Translated by Google

“O Facebook tem o poder de influenciar muito a eleição presidencial”, disse o Comitê Nacional
Republicano em um comunicado à imprensa, combinando o feed de notícias muito mais poderoso
do Facebook com seu widget de tendências mais ignorado. “É perturbador saber que esse poder
está sendo usado para silenciar pontos de vista e histórias que não se encaixam na agenda de
outra pessoa.”
O senador John Thune, um republicano, enviou a Zuckerberg uma carta exigindo que a empresa
informasse os legisladores sobre o assunto. Thune presidiu o comitê de comércio, que supervisiona
a Comissão Federal de Comércio, que vinha investigando o Facebook. A empresa, assustada,
enviou sua equipe DC para amenizar Thune. Também convidou cerca de vinte conservadores
proeminentes, incluindo um conselheiro da campanha de Trump, para se encontrar pessoalmente
com Zuckerberg. Funcionou. Os participantes dirigiram mais acrimônia uns aos outros do que no
Facebook. Um deles, Glenn Beck, redigiu a reunião, elogiando Zuckerberg como um defensor da
liberdade de expressão.

O Facebook demitiu os contratados que supervisionavam o widget de tendências em uma


sexta-feira, permitindo que os algoritmos assumissem o controle total. Na segunda-feira, sua
principal história era um link de notícias falsas acusando a apresentadora da Fox News, Megyn
Kelly, de apoiar Hillary Clinton. O blog de extrema direita que o publicou foi posteriormente
identificado como um dos principais impulsionadores de notícias falsas no Facebook durante a eleição de 2016.
Naquele verão, em julho, apenas alguns dias antes da Convenção Nacional Republicana
nomear formalmente Trump para presidente, Zuckerberg foi confrontado em uma conferência
financeira por Rupert Murdoch e Robert Thomson, fundador e CEO, respectivamente, da News
Corp, dona da Fox. Notícias e muitos canais conservadores internacionalmente. O Facebook,
disseram eles, estava canibalizando o negócio de notícias, usando seu conteúdo para roubar a
audiência da mídia e a receita de publicidade. Mudanças não anunciadas no algoritmo,
acrescentaram, colocam em risco a capacidade da News Corp de manter o tráfego.

Eles ameaçaram fazer com que a News Corp pressionasse publicamente os governos e reguladores
para verificar se o poder de mercado do Facebook poderia violar as regras antitruste.

Eles não ameaçaram usar seus meios de comunicação contra o Facebook. Mas não seria
irracional para Zuckerberg temer tanto. Nos meses seguintes, a Fox News falou abertamente sobre
o suposto viés anticonservador do Facebook. Ele chamou a campanha “saia do voto” do Facebook
de uma manobra para aumentar a participação democrata. Ele criticou o Facebook por “suprimir” o
que chamou de “notícias importantes”, como um relatório de saúde de Hillary Clinton.
Machine Translated by Google

susto (na verdade, a plataforma havia removido um punhado de postagens de notícias


falsas) e por “censurar” a “ativista” Pamela Geller, uma figura de extrema direita que
teve sua página removida após espalhar conspirações racistas.
Zuckerberg procurou tranquilizar os conservadores, apontando, em declarações e
postagens ao longo de 2016, que Trump tinha mais fãs do que qualquer outro candidato
presidencial e que a Fox News tinha mais interações em sua página do que qualquer
outro veículo. (“Não chega nem perto”, disse Zuckerberg.) O relacionamento da
empresa com a campanha de Trump, que estava gastando pesadamente em anúncios
no Facebook, permaneceu cordial.
Após a eleição, à medida que aumentavam as evidências de que as principais
plataformas de mídia social haviam impulsionado conteúdo falso e polarizador em favor
de Trump, alguns deles apoiados pela Rússia, os republicanos sentiram claramente
que sua vitória estava ficando manchada - talvez em meio a indícios de coordenação
indireta entre a campanha de Trump e os agentes russos. , mesmo deslegitimado.
Procuraram inverter a narrativa. A mídia social não estimulou os republicanos, eles
alegaram, ela os reprimiu. Os republicanos no controle de ambas as câmaras do
Congresso, ansiosos para se distrair da investigação sobre a influência da Rússia,
realizaram audiências de contra-mensagens que afirmavam os liberais do Vale do
Silício como a verdadeira ameaça à democracia.
Os republicanos encontraram sua arma fumegante em uma matéria da Vice News
de 2018 intitulada “Twitter é 'Shadow Banning' republicanos proeminentes”. O repórter
descobriu que a barra de pesquisa do Twitter não preenche automaticamente certas
contas conservadoras quando ele digita as primeiras letras de seus nomes.
A história parecia ser baseada em um mal-entendido técnico, mas os republicanos
pularam. O representante Matt Gaetz, da Flórida, em um tweet, deu a entender que o
Twitter o estava punindo por questionar o CEO da empresa em uma audiência recente.
A presidente do Comitê Nacional Republicano disse que a empresa “reprime vozes
conservadoras”, enquanto Donald Trump, Jr., twittou: “Basta com essa porcaria”,
exigindo que o CEO do Twitter “#StopTheBias”. Seu tuíte recebeu 16.500 interações,
o de Gaetz 20.400. Dificilmente supressão. Então Trump, Sr., também twittou
“#StopTheBias”, lançando meses de mensagens conservadoras sobre a tirania da
grande tecnologia.

Ao longo de sua presidência, Trump e seu partido pintaram as plataformas de mídia


social como agentes anti-republicanos. Ameaçaram repetidas vezes investigar,
regulamentar ou mesmo desmembrar as empresas, ameaças que haviam
Machine Translated by Google

tremendo poder para motivar o Vale. O medo da fiscalização antitruste — multas


para punir ou regulamentação para impedir práticas monopolistas — há muito pairava
sobre o setor. Em 1969, o Departamento de Justiça lançou um esforço para dividir a
IBM, que controlava 70% do mercado de computadores. O julgamento se arrastou
por treze anos, durante os quais a IBM, para evitar provar o caso dos reguladores
para eles, restringiu seus próprios negócios. Quando o governo desistiu do caso em
1982, a participação de mercado e a receita da IBM haviam caído tão dramaticamente
que uma manchete do New York Times anunciou: “Terminou o domínio”.

Foi o caso da Microsoft que mais apavorou a big tech. Uma batalha de anos com
os reguladores culminou, em meados da década de 1990, com um tribunal ordenando
que a empresa fosse dividida em duas. (O Departamento de Justiça acusou a
Microsoft de explorar seu domínio em um mercado para monopolizar outros.)
A decisão foi rejeitada na apelação - o juiz havia discutido o caso com os repórteres
durante o processo, manchando sua imparcialidade - e o novo governo Bush desistiu
do caso. Ainda assim, o preço das ações da Microsoft caiu pela metade; sua entrada
em serviços de internet abreviada, para nunca mais se recuperar; e sua posição
perante o público e os reguladores ficou tão enfraquecida que Bill Gates, seu
fundador, renunciou. Anos depois, ele aconselharia Zuckerberg a não repetir o que
considerava seu erro: antagonizar Washington e ignorar os legisladores que
considerava equivocados. “Eu disse: 'Arrume um escritório lá, agora'”
Gates lembrou, referindo-se a Washington, onde o Facebook e o Google começaram
a gastar milhões em lobby. "E Mark fez, e ele me deve."
As multas regulatórias estavam se acumulando: $ 22 milhões para o Google em
2012, $ 170 milhões em 2019. Cem milhões para o Facebook em 2019, então um
recorde de $ 5 bilhões no final daquele ano, imposto pela Federal Trade Commission
por violações de privacidade do usuário. Houve até conversas sobre separações
forçadas. O senador Richard Blumenthal, um democrata de Connecticut, argumentou
em um artigo de opinião de 2018 que o caso da Microsoft forneceu um modelo
explícito para atingir o Facebook, o Google e a Amazon.
Evitar tais ataques exigiria mais do que lobby. A partir daquele ano, Zuckerberg
e outros chefes de tecnologia adotaram uma postura que o capitalista de risco Ben
Horowitz chamou de “CEO de guerra”. Se os reguladores giram ou o mercado
mergulha, Horowitz escreveu em um post de blog, as empresas precisam de um
líder que “viole o protocolo para vencer”, “use palavrões propositalmente”, “seja
completamente intolerante” com os funcionários que quebram
Machine Translated by Google

estratégia corporativa, “nem favorece a formação de consenso nem tolera discordâncias” e


constrange os funcionários na frente de seus colegas para fazer uma observação.

Horowitz atribuiu a estratégia a seu herói Andy Grove, ex-chefe da Intel. Ele adaptou o
termo “CEO em tempo de guerra” de uma frase de O Poderoso Chefão (Tom Hagen: “Mike,
por que estou fora?” Michael Corleone: “Você não é um consigliere em tempo de guerra”),
que ele reproduziu em seu post ao lado uma letra de rap, parte de sua campanha para
rebatizar os bilionários da tecnologia como a nova contracultura: durões em suéteres com
decote em V. Ele tirou seu prestígio da Andreessen Horowitz, uma empresa de investimentos
que ele e o fundador da Netscape, Marc Andreessen, fundaram em 2009. (O mentor de
Andreessen, John Doerr, foi orientado por Grove - mais um exemplo da insularidade
distorcida do Valley.)

Se William Shockley personificou a era dos semicondutores da indústria, Andy Grove a


era do microchip e Peter Thiel o início da era da web, então Andreessen e Horowitz
personificaram a era da mídia social. Não era apenas onde eles investiam (Facebook, onde
Andreessen estava no conselho, bem como Twitter, Slack, Pinterest, Airbnb, Lyft e
Clubhouse), mas como. Eles institucionalizaram, como uma questão de estratégia de
investimento, a tendência do Vale para jovens CEOs inexperientes e irrestritos. Eles se
comprometeram a elevar os “fundadores técnicos” com pouca experiência ou conhecimento
além da engenharia e, em seguida, libertá-los da supervisão de um adulto ou de qualquer
expectativa de comportamento corporativo normal.

O conceito de CEOs em tempos de guerra transformou esse arquétipo em uma filosofia


corporativa. Os programadores que iniciam um aplicativo para smartphone ou um varejista
eletrônico devem governar exatamente como os iconoclastas astros do rock que acreditam ser.
Se as pessoas se sentirem ofendidas - funcionários de pele fina, ternos de cabeça quadrada,
a Comissão Federal de Comércio - é melhor sair explodindo e deixá-los saber quem você é.
Uma das palestras de treinamento gerencial de Horowitz traçou um extenso paralelo entre
os fundadores de startups e o líder da revolta de escravos no Haiti em 1791, que teve
sucesso, disse Horowitz, ao forçar os haitianos a superar a “cultura escravista”, da mesma
forma que os CEOs de tecnologia fariam para funcionários e cidadãos que foram perdidos
sem sua orientação. Era o tipo de arrogância que poderia levar um desenvolvedor de site
abandonado a concluir que ele tinha o que era necessário para ditar os termos das relações
sociais humanas em todo o mundo, e que qualquer pessoa quadrada o suficiente para
questionar isso era um escravo que não entendia. Começar um
Machine Translated by Google

o CEO em tempo de guerra também fornecia uma espécie de cobertura moral. Se os concorrentes
tiveram que ser destruídos, se os funcionários levantaram objeções éticas ou a mídia o acusou de ser
cúmplice da destruição do tecido social, eles não entenderam que isso era uma guerra.

Zuckerberg, em 2018, leu um livro de autoria de Horowitz que discorreu sobre a estratégia. Em
junho daquele ano, ele reuniu os cinquenta principais executivos da empresa para anunciar que o
Facebook estava em guerra e que ele agora era o CEO da guerra.

Ele toleraria menos divergências, exigiria maior obediência e levaria a luta aos inimigos do Facebook.
Em uma prefeitura de toda a empresa, ele chamou a cobertura jornalística dos abusos de privacidade
do Facebook, pelos quais o Facebook enfrentaria várias multas regulatórias, de “besteira”. Ele dispensou
Sheryl Sandberg, a segunda executiva da empresa e sua conselheira de longa data.

O Facebook contratou uma empresa de relações públicas obscura, que semeou informações
depreciativas, algumas delas falsas, sobre os críticos do Facebook.
Investidores proeminentes da classe dos capitalistas de risco anunciaram que o Valley estava em
guerra com uma mídia nacional desonesta que procurava puni-los por seu sucesso. (“Nós entendemos:
você nos odeia. E vocês são concorrentes”, um twittou.) Alguns tentaram revidar, pedindo proibições em
todo o vale de cooperar com agências de notícias ou, em um caso, oferecendo-se para pagar usuários
em Bitcoin para assediar repórteres críticos online.

Algumas semanas após a declaração de “tempo de guerra” de Zuckerberg, o Facebook realizou


uma reunião para considerar a reformulação de seu algoritmo para elevar os veículos de notícias sérios.
Isso pode restaurar a confiança no Facebook, argumentaram alguns executivos. Mas teve a oposição
de Joel Kaplan, ex-funcionário do governo Bush e lobista. Desde a eleição de Trump, Kaplan parecia
atuar, com a bênção de Zuckerberg, como representante do Partido Republicano no Facebook, cargo
que carregava o título de vice-presidente de políticas públicas globais. Ele argumentou que a mudança
atrairia acusações do Partido Republicano de que o Facebook promovia liberais, transformando
efetivamente a visão de Trump, de que os jornalistas convencionais eram agentes democratas, na
política da empresa do Facebook. Ele prevaleceu.

Também naquele ano, Kaplan pressionou com sucesso para arquivar um dos relatórios internos da
empresa, descobrindo que os algoritmos da plataforma promoviam conteúdo divisivo e polarizador. Ele
e outros objetaram que abordar o problema afetaria desproporcionalmente as páginas conservadoras, o
que gerou uma parcela enorme de desinformação. Melhor deixar os usuários serem mal informados.
Não foi a última vez que o interesse público seria sacrificado para evitar
Machine Translated by Google

mesmo hipotéticas objeções republicanas, porém infundadas.


O namoro do Facebook com os republicanos, que mantiveram o controle das
alavancas da supervisão federal ao longo de 2018 e 2019, foi exaustivo. Ele contratou
Jon Kyl, um ex-senador republicano, para produzir um relatório sobre qualquer viés
anticonservador na plataforma. O relatório reformulou amplamente as acusações
#StopTheBias de Trump, permitindo que o Facebook dissesse aos críticos do Partido
Republicano que estava estudando o assunto e seguindo as recomendações de Kyl.
Zuckerberg organizou jantares não oficiais com conservadores influentes, incluindo o
apresentador da Fox News, Tucker Carlson, que acusou o Facebook de buscar “a morte
da liberdade de expressão na América”. A plataforma recrutou o Daily Caller, o site de
notícias de direita fundado por Carlson, para participar de seu programa de verificação de
fatos, concedendo-lhe o poder de julgar a verdade na plataforma.
O Facebook anunciou que permitiria que os políticos mentissem na plataforma e
concedesse a eles uma latitude especial sobre o discurso de ódio, regras que pareciam
escritas para Trump e seus aliados.
“Eu estava no FB há menos de um ano quando fui levada a uma investigação urgente
– a campanha do presidente Trump reclamou de uma queda nas visualizações”, lembrou
Sophie Zhang, cientista de dados do Facebook, no Twitter, “nunca me perguntaram para
investigar qualquer coisa semelhante para qualquer outra pessoa.”
Esse tipo de apaziguamento dos líderes políticos parecia ser uma estratégia global. Entre
2018 e 2020, Zhang sinalizou dezenas de incidentes de líderes estrangeiros promovendo
mentiras e ódio por ganho, mas foi constantemente rejeitado, disse ela. Quando ela foi
demitida, ela recusou uma indenização não depreciativa de $ 64.000 para que ela
pudesse liberar seu memorando de saída de 7.800 palavras narrando o que ela via como
uma prática deliberada de permitir que os políticos fizessem mau uso da plataforma,
inclusive em países onde os riscos se estendiam à violência sectária e autoritarismo
crescente. “Eu sei que tenho sangue em minhas mãos agora”, escreveu ela.

Em 2019, a ditadura comunista do Vietnã transmitiu em particular uma mensagem ao


Facebook: a plataforma necessária para censurar os críticos do governo ou o governo
vietnamita pode bloqueá-la no país. Zuckerberg concordou, revelaram mais tarde os
funcionários, permitindo que o Facebook — “a empresa revolucionária”, como ele a
chamava — se tornasse secretamente uma ferramenta de repressão autoritária. Embora
ele argumentasse que os cidadãos vietnamitas estariam mais bem servidos ao acessar
um Facebook parcialmente gratuito do que nenhum, seu sigilo inicial e a história do
Facebook lançaram dúvidas sobre a pureza de suas intenções. Um grupo
Machine Translated by Google

estimou que a presença do Facebook no Vietnã gera US$ 1 bilhão anualmente.


A empresa também anunciou naquele ano que o Facebook não iria mais filtrar
anúncios políticos para veracidade ou precisão. Apenas quebras extremas de regras,
como apelos à violência, seriam aplicadas. Trump, que gastou generosamente no
Facebook no passado, era considerado o principal beneficiário, assim como qualquer
pessoa como ele. Cerca de 250 funcionários assinaram uma carta aberta – uma
demonstração extremamente rara de dissidência pública – implorando a Zuckerberg
para reverter a política, que “aumentaria a desconfiança em nossa plataforma” e
“desfaria o trabalho de produto de integridade” destinado a proteger as eleições.
Yaël Eisenstat, ex-conselheiro da Casa Branca que supervisionou a política eleitoral
do Facebook por seis meses antes de renunciar, publicou uma coluna sobre a
controvérsia. Ela alegou ter visto os formuladores de políticas da empresa trabalharem
duro para equilibrar a integridade democrática com a missão do Facebook, apenas para
ser rejeitada pelas “poucas vozes que finalmente decidiram a direção geral da empresa”.
O Facebook, ela alertou, estava falhando “no maior teste para saber se algum dia
realmente colocará a sociedade e a democracia à frente do lucro e da ideologia”.

6. Consertando um avião em pleno voo

TODAS AS TERÇAS-FEIRAS DE MANHÃ, algumas dezenas de funcionários do


Facebook circulam em torno de uma sala de conferências de vidro para o que parece, à
primeira vista, como qualquer outra reunião de funcionários do Vale do Silício. Eles
escolhem um café da manhã servido, jogam garrafas de água ecológicas e mexem no
software de videoconferência. Em seguida, eles se acomodam e discutem, em uma hora
rápida, como ajustar e ajustar o experimento em andamento da empresa na gestão de
relações sociais e discurso político em todo o mundo.
Na semana que visitei, em outubro de 2018, um dos principais tópicos foram os
padrões de venda de animais nas páginas de comércio no estilo Craigslist da plataforma.
Os funcionários discutiram como equilibrar os direitos e interesses da vida selvagem,
animais de estimação, gado, fazendeiros e criadores. Os regulamentos europeus seriam
revistos. Um grupo externo seria consultado. Alguém levantou, como consideração, a
importância econômica do comércio de gado para os usuários na África. Suas decisões
seriam traduzidas em regras e diretrizes mecânicas que foram fornecidas a Jacob e a
milhares de outros moderadores em todo o mundo, que, por sua vez, as usariam para
governar bilhões.
O Facebook me convidou para observar depois de saber que eu havia adquirido seu
Machine Translated by Google

livros de regras internos - os que foram secretos para mim por Jacob. Eles queriam
que eu entendesse os arquivos no contexto e, um funcionário me disse, que
começasse a abrir um pouco seus processos para o mundo exterior. Monika Bickert,
que chefia a equipe de políticas, disse-me, em uma das dezenas de entrevistas que a
empresa organizou, que o processo de regulamentação tende a ser reativo. Um
funcionário, reportagem ou grupo de interesse pode sinalizar um problema. Alguém
criaria uma nova regra, trabalharia na reunião e a submeteria a um processo de revisão.
Pode ser testado em um mercado específico antes de ser lançado em outro lugar.
“Não estamos traçando essas linhas no vácuo”, disse Bickert, descrevendo as normas
e princípios legais que as guiaram. Mas quanto mais intrincadas as regras se
tornavam, mais difícil era implementá-las por meio de engrenagens de moderador
como Jacob, especialmente devido aos tempos impossivelmente curtos que os
moderadores recebiam para tomar decisões. Bickert estava ciente da contradição.
“Sempre que tornamos nossas políticas mais sutis, fica mais difícil para nós aplicar
essas regras de forma consistente e acertar em todo o mundo”, disse ela. “Há uma
tensão real aqui entre querer ter nuances para explicar cada situação e querer ter um
conjunto de políticas que possamos aplicar com precisão e explicar claramente.”

Eu me vi alternando entre simpatia e ceticismo em relação aos senhores da


política do Facebook. Eles foram atenciosos e, na maioria das vezes, humildes sobre
sua capacidade de lidar com as complexidades comportamentais e políticas que foram
incumbidos de administrar. Alguns ingressaram na empresa pensando que poderiam
fazer mais bem melhorando o Facebook internamente do que criticando externamente.
E eles ficaram presos à tarefa impossível de servir como zeladores para as bagunças
feitas pelas equipes de crescimento mais famosas e com mais recursos da empresa.
Enquanto se preocupavam com problemas como discurso de ódio anti-refugiados ou
desinformação em eleições delicadas, os engenheiros do outro lado do corredor
estavam limitando o envolvimento do usuário de maneiras que, quase inevitavelmente,
pioravam esses problemas.
Ainda assim, era difícil separar a benevolência de seu trabalho do grau em que se
destinava, como alguns documentos de políticas declaravam claramente, a proteger
o Facebook de contra-ataques ou regulamentação pública. Passei a pensar na equipe
de política do Facebook como se fossem cientistas da Philip Morris encarregados de
desenvolver um filtro melhor e mais seguro. Em certo sentido, reduzir os carcinógenos
ingeridos por bilhões de fumantes em todo o mundo salvou ou prolongou vidas em
uma escala que poucos de nós poderiam igualar. Em outro sentido, esses cientistas eram
Machine Translated by Google

trabalhando para a empresa de cigarros, promovendo a causa da venda de cigarros que


prejudicavam as pessoas em grande escala.
Não fiquei surpreso, então, que todos com quem conversei no Facebook, não importa o
quão inteligentes ou introspectivos, expressassem total certeza de que o produto não era
intrinsecamente prejudicial. Que não havia evidências de que algoritmos ou outros recursos
puxassem os usuários para o extremismo ou ódio. Que a ciência ainda não sabia se os
cigarros eram realmente viciantes e realmente causavam câncer. Mas, por mais que a Philip
Morris estivesse cheia de estudos provando que os riscos à saúde que seus executivos
insistiam que não existiam, os próprios pesquisadores do Facebook vinham acumulando
evidências, em resmas de relatórios internos e experimentos, para uma conclusão que eles
divulgariam explicitamente em agosto. 2019: “a mecânica da nossa plataforma não é neutra.”

Um relatório interno sobre ódio e desinformação encontrou, escreveram seus autores,


“evidências convincentes de que nossa mecânica principal de produto, como viralidade,
recomendações e otimização para engajamento, são uma parte significativa do motivo pelo
qual esses tipos de discurso florescem na plataforma”. O relatório, posteriormente vazado
para a mídia e para a SEC, alertou que a empresa estava “promovendo ativamente (se não
necessariamente conscientemente) esses tipos de atividades”.
Mas, em meu tempo no Facebook, repetidas vezes, qualquer pergunta sobre as
consequências de direcionar uma parcela cada vez maior da experiência humana por meio
de algoritmos e interfaces semelhantes a jogos projetados principalmente para “maximizar o
engajamento” trouxe apenas um olhar incompreensível.
Executivos que apenas momentos antes se aprofundaram em questões delicadas de
terrorismo ou regulamentação estrangeira piscavam e mudavam de assunto como se não
tivessem entendido as palavras. “As pessoas usam o celular para organizar coisas ruins. Na
verdade, talvez tudo de ruim que acontece por meio de nossos serviços esteja acontecendo
por meio de um telefone celular”, disse um executivo de Londres. “Você argumentaria para
não adotar o telefone celular, na verdade, devemos desacelerar a adoção de telefones
celulares, porque é usado de maneiras prejudiciais?”

Parte de mim esperava que eu estivesse sendo enganado, que eles entendessem, mas
simplesmente não pudessem reconhecer abertamente os efeitos de distorção da realidade e
do comportamento de seu serviço. Eu senti como se estivesse no terceiro ato de 2001: Uma
Odisséia no Espaço, quando dois astronautas sobreviventes planejam o que fazer com HAL,
a inteligência artificial que, após supervisionar sua jornada de anos, enlouqueceu e assassinou
seus companheiros de tripulação. Tentei imaginar a cena central deles se, quando um astronauta
Machine Translated by Google

perguntou como eles poderiam parar a matança de HAL, o outro respondeu:


"Quem?"
Como prova das boas intenções da empresa, quase todo mundo com quem
falei no Facebook citou sua resposta ao genocídio em Mianmar. Embora
tardiamente, eles admitiram, a plataforma havia banido o notório grupo
extremista, liderado pelo monge racista Wirathu, que desde 2014 armava o
Facebook para incitar a violência em massa contra as minorias. Certamente,
isso era uma prova de amadurecimento. Mas grupos digitais em Mianmar
vinham me dizendo há meses que a propaganda de isca racial do grupo de
ódio continuava difundida online. A explicação acabou por estar nos arquivos
do Facebook. Um guia de Myanmar, formatado como um PowerPoint de trinta
e dois slides, afirmava o contrário do que os executivos do Facebook
acreditavam ser sua política: o conteúdo postado por ou em apoio ao grupo de
ódio, dizia, não deveria ser removido . Dedicou uma página inteira a este
ponto. Foi como intervir em Ruanda e, por engano, dizer às estações de rádio
genocidas que continuassem transmitindo. Mesmo depois de todas as
deficiências da plataforma, um erro tão flagrante, em um assunto tão importante,
ainda era chocante. Quando indiquei isso aos representantes do Facebook, a
empresa disse que iria corrigir os documentos.
Os debates no Vale sobre como usar seu poder — submeter-se mais ou
menos aos governos, enfatizar a neutralidade ou o bem-estar social, a
consistência ou a flexibilidade — raramente consideravam a possibilidade de
que eles não deveriam ter tal poder. Que a consolidação de informações e
relações sociais sob o controle de empresas maximizadoras de lucros estava
fundamentalmente em desacordo com o bem público.
Mas como a escala da reação à grande tecnologia e as evidências de seus
danos não podiam ser completamente descartadas, o Valley estabeleceu uma
narrativa interna, ao longo de 2018 e 2019, que deixou seus líderes sentirem
que ainda eram os mocinhos. . Eles chamavam isso de “tempo bem gasto”,
uma frase emprestada de Tristan Harris, o ex-engenheiro do Google que
alertou sobre o condicionamento viciante e desistiu em 2015. Agora era a
novidade do Valley. Facebook, Google, Apple e outros introduziram novos
recursos para rastrear e gerenciar o tempo de tela dos usuários. Foi uma
espécie de rebranding: aprendemos com nossos pecados (que convenientemente
reduzimos a “muito tempo na tela”), tivemos um grande despertar e agora
somos cruzados para sempre.
Machine Translated by Google

O Persuasive Tech Lab de Stanford, onde acadêmicos e engenheiros se uniram para


desenvolver serviços altamente viciantes, renomeou-se como “Behavior Design Lab”. Seu
chefe twittou: “Começaremos a perceber que estar acorrentado ao seu telefone celular é
um comportamento de baixo status, semelhante a fumar”. Nir Eyal, o consultor pioneiro
das máquinas caça-níqueis como modelo para plataformas de mídia social, passou de
guru da maximização do tempo de tela para guru da redução do tempo de tela, publicando
um livro com o título Indistractable .
Harris chamou a campanha de cooptação que fez pouco para lidar com os danos reais.
Os aplicativos continuaram atualizando seus algoritmos de mecanismo de dependência,
mas adicionaram pequenos contadores para informar quantas horas você passou online.
Outros chamaram isso de golpe de marketing. Para mim, parecia um jogo de auto-absolvição.
Para cada campanha publicitária dizendo aos consumidores que o Vale do Silício agora
representa o bem-estar digital, havia muitos outros retiros de ioga voltados para o interior
ou grupos de meditação dizendo o mesmo aos moradores do Vale. Os executivos se
reuniram para limpar suas almas da culpa, parabenizar-se por evoluir e depois voltar ao
growth hacking. A autoflagelação como autoafirmação — sentir-se bem por se sentir mal
— tornou-se uma indústria caseira.
“Os CEOs, por dentro, estão sofrendo. Eles não conseguem dormir à noite”, disse Ben
Tauber, ex-gerente de produto do Google que transformou uma comunidade hippie à beira-
mar chamada Esalen em um retiro para executivos de tecnologia, ao New York Times. Era
um estranho conjunto de contorções. Mas fez para os executivos o que as performances
de CEO em tempo de guerra fizeram para o moral corporativo e os moderadores fizeram
para o discurso de ódio: papel sobre a lacuna não resolvida, e talvez insolúvel, entre o
propósito declarado de liberdade e revolução das plataformas e seus efeitos reais no
mundo.
Esse era o verdadeiro problema de governança, cheguei a acreditar. Se era um tabu
considerar que a própria mídia social, como os cigarros, poderia estar causando os danos
que pareciam seguir consistentemente sua adoção, então os funcionários encarregados
de gerenciar esses danos eram impossivelmente constrangidos. Isso explicava muito da
estranha incoerência dos livros de regras. Sem uma compreensão completa do impacto
das plataformas, a maioria das políticas são respostas imediatas a crises ou problemas à
medida que surgem: um boato viral, uma onda de abuso, um motim. Funcionários seniores
fazem um ajuste, esperam para ver o que acontece e ajustam novamente, como se
estivessem consertando um avião em pleno voo.
Pouco mudou para os moderadores solicitados a executar esses planos. Relatos de
condições de trabalho esmagadoras continuaram a surgir. Jacob, como tais fontes
Machine Translated by Google

às vezes, se afastou de nossas conversas enquanto seu empregador caçava a


toupeira que envergonhara a empresa com o Facebook. Em 2018, um moderador
americano entrou com uma ação, posteriormente acompanhada por vários outros
moderadores, contra o Facebook por não fornecer proteções de segurança mínimas
legais, exigindo que eles visualizassem o material que a empresa sabia ser
traumatizante. Em 2020, o Facebook resolveu o caso como uma ação coletiva,
concordando em pagar US$ 52 milhões a 11.250 moderadores atuais e anteriores
nos Estados Unidos. Moderadores fora dos Estados Unidos não ganharam nada. O
modelo de negócios subjacente permanece inalterado.
Machine Translated by Google

Onze

Ditadura dos Likes

1. Presidente YouTube

FAZEM sete anos, recorda Tatiana Lionço, com a voz tensa, desde que um vídeo
viral no YouTube lhe destruiu a vida. Em 2012, o psicólogo Lionço havia falado em
uma mesa sobre o combate à homofobia nas escolas. Ela disse à pequena audiência
de acadêmicos e formuladores de políticas que os pais deveriam ter certeza de que
não havia nada incomum em crianças pequenas expressando curiosidade sobre os
corpos ou roupas umas das outras.
Logo depois, uma legisladora de extrema-direita editou a filmagem do evento,
reorganizando suas palavras para fazer parecer que ela havia encorajado a
homossexualidade e o sexo entre crianças. O legislador, amplamente considerado
uma esquisitice marginal, tinha poucos aliados políticos e pouco poder direto. Mas
ele teve muitos seguidores no YouTube, onde postou a filmagem editada. YouTubers
de extrema-direita, então uma comunidade pequena, mas ativa, republicaram o vídeo
enganoso, acrescentando seus próprios comentários cheios de informações erradas.
Lionço representava uma conspiração homossexual comunista global, disseram eles.
Ela havia endossado a pedofilia. Ela estava distribuindo “kits gays” para as escolas
usarem para converter crianças à homossexualidade. Suas reivindicações se
espalharam pelo Twitter e Facebook. Comentários nos vídeos cheios de apelos para que ela fosse mort
Os amigos e colegas de Lionço inicialmente descartaram isso como ruído da
mídia social. Até que a história fabricada virou realidade consensual nas plataformas,
indignando o cidadão comum. Muitos ligaram para sua universidade exigindo que ela
fosse demitida. Eles acusaram seu empregador e qualquer pessoa que a apoiasse
de colocar crianças em perigo. Seus amigos e colegas se distanciaram.

“Fiquei sozinho com isso”, me disse Lionço. Ela fez uma pausa, seu rosto se
contraindo, e olhou para o colo. Talvez as pessoas em sua vida sentissem
Machine Translated by Google

envergonhada por terem permitido que isso acontecesse, ela disse. “Acho que as
pessoas têm medo de que isso aconteça com elas.” Mesmo depois que ela praticamente
se retirou da vida pública, os YouTubers de extrema-direita, cujas audiências estavam
explodindo em tamanho, continuaram divulgando a história do complô acadêmico
comunista para sexualizar crianças. Embora ela finalmente tenha voltado a lecionar, sua
vida nunca mais foi a mesma, perseguida pela infâmia onde quer que ela vá. Ameaças
de morte permanecem uma presença constante, assim como sussurros de suspeita,
mesmo de colegas que pensam da mesma forma. "Eu estou exausto. Já se passaram
sete anos,” ela disse, cobrindo o rosto com as mãos. “Isso me quebrou. Esta é a pior
parte para mim. Me sinto sozinho."
Lionço é brasileiro. No outono de 2018, o legislador marginal e YouTuber que havia
lançado a campanha de desinformação contra Lionço seis anos antes, um homem
chamado Jair Bolsonaro, concorreu à presidência de seu país. Todos esperavam que ele
perdesse. Em vez disso, ele venceu com uma vitória esmagadora de 10 pontos. Foi o
evento mais significativo na política global desde a eleição de Donald Trump. O sexto
maior país do mundo ficou sob o comando de um conspirador de extrema-direita. Ele
supervisionou a destruição de milhões de acres da floresta amazônica, sinalizou apoio à
violência de extrema-direita, atacou implacavelmente as instituições democráticas do
Brasil e destruiu suas burocracias.

Sua ascensão parecia ser uma história de raiva pública contra a corrupção do
governo, turbulência econômica e retrocesso democrático. Mas os brasileiros e analistas
com quem falei continuaram mencionando plataformas de mídia social americanas.
“A direita brasileira quase não existia há dois anos”, disse-me Brian Winter, chefe de um
jornal político chamado Americas Quarterly . “Ele surgiu praticamente do nada.” O
establishment rejeitou Bolsonaro por suas conspirações extremistas, discurso de ódio e
hostilidade contra as mulheres (“Eu não estupraria você porque você não merece”, ele
disse uma vez a outro legislador). Mas esse comportamento de chamar a atenção teve
um bom desempenho online.
A mídia social e o YouTube em particular, disse Winter, apresentaram Bolsonaro como
“uma figura reinventada”. Antes da eleição, Winter havia visitado o gabinete de Bolsonaro,
esperando entender sua estranha e repentina ascensão. Todos os oito funcionários
estavam “fazendo uso da mídia social o tempo todo em que estive lá”, disse ele. “Não
houve trabalho legislativo sendo feito.”
Não foi só Bolsonaro. Por razões que ninguém conseguia explicar, o Brasil foi
inundado por conspirações e novas causas radicais que pareciam
Machine Translated by Google

rastreamento de volta para o YouTube. “Comecei a procurar no YouTube quando, no


primeiro debate presidencial, um dos candidatos falou sobre a URSAL”, disse uma
analista brasileira chamada Luiza Bandeira. A URSAL, um plano fictício para unir a
América Latina como um superestado pan-comunista, infeccionou à margem da extrema
direita brasileira até que, a partir de 2016, explodiu no YouTube.
Vídeos promovendo a reivindicação ganharam centenas de milhares de visualizações –
em grande parte impulsionados, concluiu Bandeira, pelos algoritmos da plataforma, que
consistentemente encaminharam até ela de vídeos políticos para conspirações.
Dezenas de outras conspirações borbulharam no discurso dominante, enviando
ondas de choque de confusão e medo por todo o país. Um juiz que investigava políticos
de esquerda que morreram em um acidente, afirmou um deles, na verdade foi assassinado.
Os militares se preparavam para dar um golpe.
Intrometidos estrangeiros estavam roubando a eleição, inseminando o país com doenças
mortais, subornando o governo para organizar a Copa do Mundo.
As histórias dominaram o Facebook e o Twitter, descobriu Bandeira, superando a
verdade em ambas as plataformas nos meses anteriores à eleição de 2018.
Freqüentemente, eles rastreavam até o YouTube. Praticamente todos eles alinhados com
a política de extrema direita de Bolsonaro e sua visão de mundo paranóica e odiosa,
empurrando os brasileiros em sua direção. “Bolsonaro sempre defendeu essas visões
hiperpartidárias, mas elas nunca ganharam força”, disse Roberta Braga, colega de
Bandeira no Laboratório de Pesquisa Forense Digital de rastreamento de desinformação.
“Agora eles são populares.” A eleição que viu Bolsonaro ganhar a presidência também
elevou dois YouTubers de direita à legislatura federal e muitos mais a cargos estaduais.
Outros logo conseguiriam empregos na política federal. Era como se uma grande maré
estivesse subindo, elevando um subconjunto muito particular da direita periférica – os
YouTubers – às alturas do poder.
O Brasil, como o segundo maior mercado do YouTube, foi um teste para a crescente
influência da plataforma, assim como Mianmar, Sri Lanka e Alemanha foram para o
Facebook. Também forneceu uma lente para entender o impacto da mídia social nos
Estados Unidos, ao qual o Brasil é extraordinariamente semelhante: uma democracia
presidencial em expansão com uma grande classe média, definida pela divisão racial,
polarização crescente e uma direita populista em ascensão que parecia viver online .
Acima de tudo, oferecia algo como um vislumbre do futuro.

Embora Trump tenha sido auxiliado pelas plataformas, ele não fazia parte delas.
No Brasil, foi como se as próprias redes sociais tivessem tomado posse. O país
Machine Translated by Google

parecia representar um estranho novo tipo de ordem social e política guiada digitalmente
que já estava surgindo nos EUA com a aproximação das eleições de 2020. Em
retrospecto, o Brasil de 2019 prenunciou não apenas muito do caos da América no ano
seguinte, mas um futuro para o mundo democrático mais amplo que, se algo não mudar,
ainda pode estar por vir.
Desembarquei no país, novamente trabalhando com minha colega Amanda Taub e
agora acompanhada por uma equipe de documentários, em abril de 2019, três meses
após a posse de Bolsonaro.

2. Democracia por Algoritmo

QUANDO MATHEUS DOMINGUEZ tinha dezesseis anos, o YouTube recomendou a ele


um vídeo que mudaria sua vida. Ele havia formado uma banda com alguns amigos em
Niterói, sua cidade natal do outro lado da baía do Rio de Janeiro. Para praticar, ele
assistia a tutoriais de guitarra online. Um dia, a plataforma o encaminhou para um
professor de música chamado Nando Moura, que postou vídeos caseiros sobre heavy
metal e, cada vez mais, política. Moura, de cabelos compridos e extravagante, acusou
feministas, professores e políticos de conspirar para doutrinar os brasileiros com
comunismo e homossexualidade. Ele fazia piadas e usava fantasias bizarras. Ele tocou
riffs de guitarra e videogames.
Dominguez foi fisgado. À medida que seu tempo no site aumentava, o YouTube
recomendava vídeos de outros blogueiros de extrema-direita. A maioria era jovem, menos
um: Bolsonaro, de terno, que Dominguez viu pela primeira vez como convidado em um
dos vídeos de Moura. Era 2016. Na época, Bolsonaro, um legislador de longa data na
versão brasileira da Câmara dos Deputados dos EUA, era rejeitado até mesmo em seu
próprio partido. Mas o YouTube, perseguindo sua meta de tempo de exibição de bilhões
de horas, tinha acabado de instalar sua nova IA de aprendizado profundo. No Brasil, os
YouTubers de extrema-direita – a verdadeira festa de Bolsonaro – viram sua exposição disparar.
“Tudo começou a partir daí”, disse Dominguez, agora um jovem esguio de 18 anos,
de óculos e rabo de cavalo, chamando o YouTube de o novo lar da direita brasileira. O
algoritmo de recomendação “acordou os brasileiros”, disse ele. “Ele promove qualquer
conteúdo que tenha mais visualizações. Eles não estão preocupados com esquerda ou
direita, eles querem dinheiro”, disse. Agora a política era a vida de Dominguez. Ele havia
se juntado ao novo partido de Bolsonaro. Ele queria concorrer a um cargo um dia. E
postava longos vídeos no YouTube, que considerava o centro da vida nacional.
Machine Translated by Google

Dominguez nos levou a uma passeata pró-Bolsonaro, ao longo das praias de


Niterói e arranha-céus de luxo, oferecendo-se para nos apresentar aos dirigentes
do partido. Eu duvidava que eles fossem tão próximos; os profissionais certamente
saberiam não atribuir seus sucessos a um site estrangeiro. Eu estava errado. Todos
com quem falamos insistiram que as plataformas de mídia social americanas os
trouxeram para lá.
“Foi assim com todo mundo”, disse Maurício Martins, vice-presidente local do
partido, gritando para a multidão. “A maioria das pessoas aqui veio do YouTube e
da mídia social.” Até ele, disse. Alguns anos antes, o sistema havia reproduzido
automaticamente um vídeo sobre política, um assunto pelo qual ele nunca havia
manifestado interesse antes. Era de Kim Kataguiri, um videomaker de direita.
“Antes disso”, disse ele, “eu não tinha formação ideológica e política”. Mas o vídeo
o agarrou e ele continuou assistindo. O algoritmo, disse ele, forneceu “minha
educação política”.
Brasileiros como Martins e Dominguez estavam fazendo uma afirmação muito
além de qualquer coisa que pesquisadores como Jonas Kaiser ou Guillaume
Chaslot haviam observado: que o YouTube não apenas criou uma comunidade
marginal online ou alterou a visão de certos usuários, mas que radicalizou todo o
movimento conservador de seu país. , e com tanta eficácia que suplantou quase
inteiramente a política de direita. A algumas centenas de quilômetros dali, em Belo
Horizonte, cidade de grandiosa arquitetura colonial, uma equipe de pesquisadores
debruçada sobre seus computadores, tentando entender se isso era verdade.
“Há uma predominância enorme de canais de direita no YouTube”, disse Virgilio
Almeida, o cientista da computação de barba grisalha que chefiou o laboratório da
Universidade Federal de Minas Gerais. “Eles atraem mais espectadores, mais
comentários, mais interações do que os canais de esquerda.” Mas uma crise de
corrupção recentemente derrubou o governo de esquerda do Brasil, derrubando a
política. Talvez o YouTube estivesse apenas refletindo as atitudes dos brasileiros.

Almeida teve algumas ideias sobre como isolar a influência da plataforma para
descobrir. Sua equipe percebeu que poderia medir a valência política dos vídeos
políticos do YouTube raspando suas legendas. Eles usaram um software especial
para rastrear as tendências de humor e alinhamento político dos vídeos. E eles
fizeram o mesmo com os comentários abaixo desses vídeos. Eles descobriram que,
na época da atualização algorítmica do YouTube em 2016, os canais de direita
viram seu público crescer substancialmente mais rápido do que
Machine Translated by Google

outros, dominando o conteúdo político do site. As menções positivas a Bolsonaro dispararam.


O mesmo aconteceu com as menções de teorias da conspiração que Bolsonaro lançou.
Assim como Chaslot descobriu durante as eleições francesas de 2017, o YouTube se
inclinou dramaticamente pró-Bolsonaro e de extrema direita durante um período em que os
números das pesquisas de Bolsonaro permaneceram estáticos e baixos. A plataforma não
estava refletindo as tendências do mundo real. Estava criando o seu próprio.
Mas agora Almeida fez uma nova descoberta, uma que sugeria, de uma forma que
outras pesquisas só conseguiram sugerir, que o YouTube não apenas estava despertando
o interesse brasileiro em assistir a vídeos alinhados a Bolsonaro, mas também estava
mudando a política subjacente dos usuários. . A mudança para a direita da plataforma
começou com exibições de vídeo. Os canais que elogiaram Bolsonaro ou usaram palavras-
chave de extrema direita tiveram um aumento na contagem de visualizações –
presumivelmente graças ao algoritmo. Depois disso, os comentários também se desviaram
para a direita, sugerindo que o YouTube estava puxando os usuários para o bolsonarismo, e não o contrário.
Mas a influência das plataformas no terreno se estendeu muito além de simples questões
de preferência política. No início de 2017, quando Matheus Dominguez estava
experimentando seu despertar político online, uma jovem e ambiciosa vereadora do outro
lado da cidade chamada Carly Jordy teve uma ideia.
Jordy, um conservador linha-dura da esquerda de Niterói, tinha poucos caminhos óbvios
para sair da obscuridade. De natureza rude e fortemente tatuado - sua mão esquerda
carrega uma caveira flamejante com olhos de diamante - ele se sentia desprezado pela
classe política brasileira. Mas ele encontrou companhia com interesses semelhantes no
YouTube. Ele observou Nando Moura, Jair Bolsonaro e Jordan Peterson, o psicólogo que
se tornou um portal algorítmico para a direita alternativa.
O plano de Jordy se inspirou em YouTubers de extrema direita no Brasil, que começaram
a encorajar crianças em idade escolar a filmar clandestinamente seus professores para
provar a doutrinação homossexual comunista, uma conspiração enraizada na mesma
acusação fictícia que Bolsonaro fez uma vez contra Tatiana Lionço, que eles haviam
fabricado em seus canais por meses. Ele teve um número modesto de seguidores no
YouTube, onde postou vídeos de si mesmo gritando com os esquerdistas em seu conselho
municipal. Assim como seus heróis do YouTube, ele pediu aos alunos de Niterói que
gravassem seus professores. Alguns enviaram a ele imagens tremidas de celular de suas
aulas, que ele editou e carregou no YouTube.
Durante uma entrevista em seu escritório, Jordy orgulhosamente apresentou sua mais
viral. Nele, uma aluna interrompeu seu professor de história durante uma palestra sobre a
Alemanha nazista. A aluna perguntou se seus colegas conservadores eram
Machine Translated by Google

semelhantes aos nazistas, ao que o professor respondeu que sim. Uma imagem de
banner exibia o nome de Jordy e as redes sociais. Ele havia editado erroneamente a
filmagem, descobriu-se. Na verdade, o estudante, que era gay, havia descrito ter sido
assediado por colegas cujas famílias apoiavam Bolsonaro, que ainda era uma figura
local conhecida por dizer que preferia que o filho morresse do que gay. A aluna
perguntou se esse sentimento tornava seus colegas como nazistas. Não, dissera a
professora, mesmo que os dois grupos tivessem a homofobia em comum.

O clipe inicialmente ganhou pouca audiência - até ser reembalado por Nando
Moura, que o chamou de prova de que esta escola era um epicentro de abuso. Ele
varreu os canais de direita da plataforma, empurrado para grandes audiências.
Em seguida, espalhou-se junto ao Facebook, onde foi visto cinco milhões de vezes.
Valéria Borges, a professora do vídeo, chamou os meses após sua circulação de
“o pior momento de toda a minha vida”. Borges nos mostrou páginas de ameaças
gráficas que inundaram. Outros professores e funcionários da escola também foram
alvos, presumivelmente cúmplices. Embora os alunos de Borges a apoiassem, a
maioria dos brasileiros a conhecia apenas como uma vilã. “Eles me veem como um
inimigo e que preciso ser destruído”, disse ela. Ainda assim, dois anos depois, ela
acrescentou: “Tenho medo por minha família, temo por meus alunos e meus colegas”.

Outro professor da escola nos disse que os pais ficaram sem saber em que
acreditar. Eles conheciam a escola e seus professores como competentes e amigáveis.
Mas tantos de seus amigos e parentes repetiram a conspiração para eles que lutaram
para conciliar a realidade que conheciam com a irrealidade da mídia social que a havia
dominado. Alguns começaram a fazer perguntas pontuais sobre “doutrinação”. Os
professores disseram que ficaram com medo e resguardados em suas próprias salas
de aula. Eles temiam que tudo o que dissessem pudesse aparecer online, distorcido
para promover alguma agenda, impulsionado em todo o país pelas mídias sociais.

Uma onda de tais incidentes estava se espalhando pelo Brasil. A acusação inicial
seria estranha - um professor havia encorajado seus alunos a traficar drogas, iniciar
uma insurreição comunista, "tornar-se" gay - mas aparentemente apoiada por um
vídeo. Outros YouTubers colocariam seu próprio toque no clipe, ganhando centenas
de milhares de visualizações (e uma fatia da receita publicitária), dando à plataforma
as conspirações de guerra cultural que ela sempre recompensava. Cada boato, por
mais implausível por si só, no agregado
Machine Translated by Google

emprestou credibilidade aos outros, uma treliça autossustentável de desinformação.


Professores foram demitidos ou perseguidos para se esconderem, escolas sitiadas,
comunidades levadas à desconfiança e divisão, tudo orquestrado no YouTube.

“No Brasil, isso acontece com frequência agora, a gravação e o linchamento”, disse
Borges. “É uma forma de intimidação. E está funcionando.”
Jordy postou vídeos de outros professores, todos editados da mesma forma. Eles
trouxeram para ele, disse ele, uma “audiência nacional”. Depois de apenas dois anos
na Câmara Municipal, na mesma eleição que elevou Bolsonaro, ele conquistou uma
cadeira no legislativo federal. E outro YouTuber de extrema-direita que promoveu
reivindicações de doutrinação escolar foi eleito para a legislatura estadual. Foi, em
retrospecto, um sinal de alerta. Conspiradores americanos marginais com aspirações
políticas, como Lauren Boebert e Marjorie Taylor Greene, embora vistos como ridículos,
podem de fato representar uma tendência crescente cujo ponto culminante ainda pode
estar anos no futuro. “Se a mídia social não existisse, eu não estaria aqui”, disse Jordy.
“Jair Bolsonaro não seria presidente.”
Quando perguntei a Jordy sobre suas edições no vídeo que mudaram seu
significado, ele não contestou. Li algumas das ameaças que Borges havia recebido —
promessas de matá-la e coisas piores. Ele se arrependeu de ter destruído a vida de
professores que ele sabia serem inocentes?
A equipe de filmagem pediu à equipe de Jordy para desligar o ar-condicionado, o
que interferiu no áudio. Estava quase 100 graus lá fora e úmido. Cinco de nós
estávamos amontoados em seu escritório do tamanho de um armário, quase nos
tocando. Estávamos conversando há mais de uma hora, e o ar, estagnado e quente,
parecia sufocante.
Jordy, suor rolando em seus olhos, abandonou qualquer fingimento. “Fiz isso para
chocar, fiz para expô-la”, disse ele, erguendo os ombros e estufando o peito. “Eu queria
que ela sentisse medo.”
Durante todo o incidente, eu disse, ele nunca havia falado com alunos ou grupos
de pais em cujo nome afirmava agir. Nunca visitou a escola que ficava a alguns metros
de seu escritório. Nunca sequer usou seus poderes de vereador. Ele concentrou toda
a sua energia nas mídias sociais. Por que?
“Há uma guerra cultural que estamos travando”, disse ele, embora fosse vago
contra quem. “As pessoas respeitam o que temem. Eles precisam ter esse medo para
entender que podem ser punidos por suas ações”.
Ele parecia ter pouca agenda além de atiçar indignação e ganhar
Machine Translated by Google

atenção nas redes sociais, cujas deixas e incentivos, afinal, ele havia seguido até o
alto cargo. Quanto mais eu falava com as pessoas da cidade, menos pessoas como
Jordy e Bolsonaro pareciam estar dirigindo as forças digitais que os elevaram e mais
pareciam beneficiários passivos.
“Noventa e cinco por cento das crianças aqui usam o YouTube. É a principal
fonte que as crianças têm para obter informações”, disse-me Inzaghi, um estudante
de dezessete anos, fora da escola no centro do vídeo de Jordy. Eles assistiam ao
YouTube para matar o tempo no ônibus, disse ele, no lugar da TV em casa, até
mesmo como pesquisa para o dever de casa. Mas ele e seus amigos notaram a
mesma coisa que todos no país. “Às vezes estou assistindo a vídeos sobre um jogo
e de repente é um vídeo do Bolsonaro”, disse ele. “Ele vai tentar fazer com que você
assista a esses vídeos, quer queira ou não.”
Ele notou sua influência nas aulas também. Cada vez mais, os alunos
interrompiam os professores com acusações ou conspirações que haviam captado
no YouTube. “Toda vez que alguém está dizendo algo extremo, está citando pessoas
como Mamãefalei, Kim Kataguiri e MBL”, disse outro aluno, Jojo, listando os
YouTubers de direita. “Nando Moura, Nando Moura”, gritou Inzaghi, seus amigos
rindo junto. “Na rua, no ônibus, em grupos grandes, vejo gente olhando o Nando
Moura.” Todos os alunos com quem conversei enfatizaram que gostam do YouTube,
especialmente canais de jogos e comédia. Mas todos reclamaram que a plataforma
os pressionava repetidamente a assistir a conspirações e discursos políticos. “Isso
acaba afetando a maneira como as pessoas pensam”, disse Inzaghi.

Pedi a Jonas Kaiser e Adrian Rauchfleisch que nos ajudassem a entender o


comportamento do YouTube no Brasil. Eles repetiram seus métodos refinados
alemães e americanos. Ao rastrear as recomendações do sistema várias vezes, eles
encontraram, como antes, um vasto agrupamento gerado por algoritmos de canais
de extrema direita e conspiração. Mais uma vez, o sistema usou vozes moderadas
como pontos de entrada para atrair os usuários para os extremistas e depois os
manteve lá, exibindo cada vez mais videoclipes. Se havia alguma dúvida persistente
sobre se a Alemanha ou a América poderiam de alguma forma representar
aberrações, o Brasil resolveu: os métodos de radicalização de direita do YouTube
em escala eram assustadoramente consistentes para serem qualquer coisa, exceto
codificados.
As consequências do mundo real do efeito da toca do coelho do YouTube - a
distorção imposta a milhões de cidadãos, uma parte substancial do
Machine Translated by Google

eleitorado — estavam por toda parte, começando pela política. Bolsonaro pediu aos
cidadãos que assistam ao YouTube em vez de notícias respeitáveis. Ele substituiu
os tecnocratas do governo por personalidades da mídia social, que usaram seu
poder para agir nas conspirações excêntricas – sobre educação, saúde pública,
minorias – que apaziguaram o algoritmo do Vale do Silício que os levou até lá. E os
youtubers que acompanharam a posse de Bolsonaro continuaram postando
febrilmente na plataforma, entendendo que dependiam dela para manter os eleitores
nas redes sociais que eram sua base. Isso significava ceder, em tudo o que faziam
no cargo, às necessidades e preconceitos da plataforma.

O marco zero da nova era da política do YouTube foi a sede paulista do


Movimento Brasil Livre. Kim Kataguiri, o líder do grupo, ganhou fama no YouTube
quando adolescente postando vídeos refutando o que ele considerava os
preconceitos esquerdistas de seus professores. (Maurício Martins, o oficial do
partido de Bolsonaro, citou um desses vídeos, reproduzido automaticamente para
ele pelo YouTube, como sua introdução à política.) Em 2016, ele e outros formaram
o MBL para agitar o impeachment do então presidente do Brasil. Os membros do
grupo tendiam a ser jovens, educados, de direita e extremamente online - o grupo
demográfico do YouTube. Naquele outono, aos 22 anos, ele ganhou uma cadeira
na legislatura federal.
Agora, com alguns meses de mandato, Kataguiri parou nos escritórios do grupo,
um ponto de encontro com piso de concreto de descolados debruçados sobre
laptops. Um cinegrafista usando um chapéu Make America Great Again voltado para
trás o direcionou para um sofá de couro, onde gravou o vídeo do dia. Após o término
das filmagens, Kataguiri me disse que inicialmente o MBL havia usado o Facebook,
mas depois de 2016, na época em que o YouTube atualizou seu algoritmo, a
plataforma de vídeo se mostrou mais eficaz e eles mudaram. Além disso,
acrescentou, o Facebook tomou medidas repetidas contra seu grupo por
desinformação, enquanto o YouTube nunca o fez, embora o MBL postasse
exatamente o mesmo conteúdo para ambos. Isso foi algo que ouvi repetidamente: o
YouTube era muito mais permissivo, uma das razões pelas quais grupos como o dele adoravam.
Outros YouTubers do MBL também ganharam cargos em 2018. Seus canais
ocuparam o nó central do mapa do YouTube brasileiro da Kaiser, fortemente
impulsionados pelas recomendações do site. Um deles, Arthur do Val, mesmo tendo
conquistado uma cadeira no legislativo estadual, ainda atendeu pelo nome de seu
canal no YouTube, Mamãefalei, que significa “mamãe disse”.
Machine Translated by Google

Para ressaltar a importância da plataforma, do Val citou um vídeo superviral que outro
grupo acabou de postar. Intitulado “1964” para o ano do golpe militar no Brasil, afirmava que
os abusos da ditadura – ela assassinou centenas de dissidentes e torturou outros milhares –
foram fabricados por historiadores de esquerda. Argumentou que o golpe havia sido
necessário para acabar com o comunismo, sugerindo que outra ação semelhante também
poderia ser necessária em breve. “Fui um dos maiores compartilhadores deste vídeo”, disse
do Val.

O vídeo “1964” foi tocado em todos os lugares que eu fui no Brasil.


Dominguez, o ativista de dezoito anos, chamou isso de “um marco” que o convenceu de que
o regime militar não tinha sido tão ruim. Valéria Borges, a professora de história, disse que
era “aterrorizante” ver o YouTube apagar a história de seu país das mentes dos jovens
brasileiros, até mesmo incentivá-los a repeti-la.

Enquanto permanecíamos na sede do MBL, os ativistas deixaram transparecer que,


apesar de todo o seu sucesso, até eles passaram a se preocupar com o impacto das
plataformas. “Temos algo aqui que chamamos de ditadura do igual”, disse Pedro D'Eyrot,
um ex-guitarrista de rock que virou político e agora faz vídeos para o MBL. Eles assistiram,
disse ele, enquanto um YouTuber após o outro se tornava cada vez mais extremo, mais
mentiroso, mais imprudente, “só porque algo vai lhe dar visualizações, vai dar engajamento”.

Todos sentiram a pressão, disse ele. “Depois de abrir essa porta, não há como voltar
atrás, porque você sempre tem que ir mais longe.” Ele já havia acreditado na mídia social
como uma força de mudança, disse ele. Agora parecia trazer à tona tendências que só
poderiam ser prejudiciais, muito extremas mesmo para um grupo de revisionistas golpistas
de chapéu do MAGA. “Terraplanistas, anti-vacinas, teóricos da conspiração na política. É o
mesmo fenômeno”, disse ele. “Você vê isso em todos os lugares.” Se alguns dos maiores
exploradores e beneficiários desse sistema de repente estavam falando como Renée DiResta
ou Guillaume Chaslot, então percebi que os perigos deviam ter crescido além do que eu
tinha visto até agora, aqui ou na América. Eles tinham.

3. Dr. YouTube

EM MACEIÓ, UMA DAS CIDADES MAIS POBRES DO BRASIL, em um pátio de concreto na


Machine Translated by Google

nos arredores da cidade, quinze mães amontoadas sob um dossel de plástico na chuva,
esperando por Mardjane Nunes. Desde 2015, milhares de mulheres grávidas nas
Américas, infectadas por um novo vírus chamado Zika, deram à luz crianças com graves
problemas neurológicos e crânios deformados, uma condição conhecida como
microcefalia. O nordeste do Brasil, onde fica Maceió, foi o mais atingido. Em bairros
como este, as mães formaram grupos de apoio para ajudar umas às outras a enfrentar
a condição mal compreendida que aleijou seus filhos.

Nunes, um dos principais especialistas em Zika, veio responder a perguntas. Em


poucos minutos, uma mãe se levantou, embalando seu filho, e disse ter ouvido nas
redes sociais que o zika não era causado por um vírus transmitido por mosquitos, como
disseram os médicos, mas por vacinas vencidas. Atormentada pela incerteza, ela estava
pensando em abrir mão das vacinas. Cabeças assentiram em todo o grupo. Nunes disse
a ela, gentilmente, mas sem ambiguidade, que os rumores eram falsos. Mas, uma após
a outra, as mães expressaram dúvidas. Todos eles tinham visto isso, ou algo parecido,
online. Zika era uma mentira ou uma conspiração. Os médicos não eram confiáveis. As
vacinas eram inseguras.
Nunes já havia ouvido de colegas que as reuniões costumavam ser assim, ela disse
depois. Ela havia recentemente deixado um cargo de prestígio no ministério da saúde
para voltar ao trabalho na linha de frente, combatendo o HIV e o zika no hospital local e
por meio de grupos comunitários. A mídia social, ela disse, estava se tornando um
assunto de alarme crescente nos círculos de saúde pública. Pesquisadores de campo
voltaram com histórias de cidades inteiras recusando tratamento, mães apavoradas em
negar cuidados que salvam vidas a seus filhos. Mas ela não estava preparada para o
medo nos olhos das mães, a total ruptura de sua comunidade com a realidade. “Se esse
grupo, que já está mais engajado, já se fala mais, ainda tem dúvidas”, disse ela, “imagine
o que se passa na cabeça das mães que não têm um grupo assim”.

Isso explicava, disse ela, por que seu ministério investia cada vez mais recursos na
educação de famílias jovens como essas, apenas para se ver superado pela
desinformação que se espalhava ainda mais rapidamente, por meio da mídia social.
A evasão de vacinas estava aumentando no Brasil. O mesmo aconteceu com relatos de comunidades
que se recusaram a usar larvicidas contra mosquitos, um método preferido para combater o zika,
que também costuma ser mencionado em vídeos de conspiração. “As redes sociais estão ganhando”,
disse Nunes.
Não era um problema novo. DiResta descobriu o Facebook
Machine Translated by Google

divulgando sistematicamente conspirações de zika desde 2015. O Instituto Brasileiro


de Pesquisa e Análise de Dados descobriu que, em 2017, o YouTube estava cheio
de conspirações sobre a vacina contra a febre amarela. Os casos de febre amarela
surgiram na mesma época, embora não esteja claro qual foi a causa de qual. De
qualquer forma, muitas dessas conspirações foram promovidas por canais políticos
de extrema direita. Foi mais uma evidência para a descoberta de Kaiser de que o
algoritmo do YouTube, ao unir conspirações outrora distintas e canais extremistas,
os cruzou em um novo tipo de ameaça.
“Tudo o que você não sabe, você encontra no YouTube”, Gisleangela Oliveira
dos Santos, uma das mães que havia perguntado sobre vacinas, disse à minha
colega Amanda em sua casa no dia seguinte. Embora Oliveira dos Santos morasse
a um dia de viagem de distância, Amanda, ela própria uma jovem mãe, pediu que a
equipe de filmagem fizesse a viagem com ela, reconhecendo que os pais que
atuavam nessas conspirações, embora fáceis de confundir como parte do problema,
eram vítimas de violência social. mídia também.
Quando o bebê de Oliveira dos Santos foi diagnosticado com microcefalia, três
anos antes, as informações eram escassas. Afinal, o vírus era novo. Ela procurou
todos os fragmentos que pôde online, incluindo o YouTube.
De novo e de novo, a plataforma exibiu seus vídeos culpando o zika por vacinas
contra o sarampo vencidas que o governo havia comprado barato. A culpa foi do
mercúrio nas agulhas. De uma cabala de estrangeiros sombrios que queriam
enfraquecer as famílias católicas. Alguns vídeos foram encenados para se assemelhar
a reportagens ou anúncios de serviço público. Alguns mostravam um padre ou outra
figura de confiança implorando às boas mães do Brasil que não ouvissem os médicos
corruptos controlados por estrangeiros. As outras mães em sua comunidade tiveram
a mesma experiência, compartilhando os clipes em grupos de discussão do
WhatsApp, outra rede de confirmação de grupos de pares.
Oliveira dos Santos foi empurrada para os vídeos, disse ela, pelo sistema de
recomendação do YouTube e seu mecanismo de busca. Até mesmo pesquisar no
Google termos como “Zika” ou “Vacinas contra zika” a levou aos vídeos, que o
Google, novamente com seu favorecimento sinérgico de links do YouTube que se
mostraram tão lucrativos, muitas vezes colocou no topo de seus resultados de
pesquisa. Oliveira dos Santos sabia que a internet podia não ser confiável. Mas os
vídeos a paralisaram com dúvidas. Ela inicialmente deu a seu filho inoculações infantis padrão.
Mas, ela disse, “eu estava com medo de dar mais vacinas para minha filha depois
disso”. Ela mesma parou de aceitá-los.
Machine Translated by Google

Desde então, ela foi assolada por dúvidas e, acima de tudo, culpa.
Ela, ao aceitar as vacinas, causou a doença fatal de seu filho?
Os médicos disseram que ela não tinha. Mas essas empresas de tecnologia
americanas, profundamente respeitadas no Brasil, disseram a ela repetidamente que
sim. Eles até mostraram sua “prova”, colocando-a na frente dela quase toda vez que
ela procurava informações sobre como cuidar da criança que o YouTube e o Google
insistiam que ela havia aleijado para o resto da vida. “Eu me sinto impotente”, disse
ela. “Sinto-me impotente e ferido.” (Como inúmeros outros brasileiros, quanto mais
tempo ela passava no YouTube, mais vídeos ela via em apoio a Bolsonaro. Ela
também os achava persuasivos, disse ela, e votou nele.)
O hospital público de Maceió não é especialmente bem financiado. Quando visitei,
muitas das luzes do teto foram mantidas apagadas para economizar eletricidade. Mas
seu lugar na linha de frente contra o zika atraiu alguns dos maiores talentos médicos
do país. Quando os médicos souberam por que eu tinha vindo, eles arranjaram tempo
imediatamente, acenando para que eu entrasse na sala de descanso quase vazia.
“Fake news é uma guerra virtual. Temos isso vindo de todas as direções”, disse Flavio
Santana, neurologista pediátrico. As discussões dentro da comunidade médica do
país, disse ele, se concentram cada vez mais na frustração com as plataformas de mídia social.
“Se você for a outros lugares do Brasil, vai encontrar os mesmos problemas.”
Auriene Oliviera, uma infectologista, assentiu. Os pacientes desafiavam cada vez
mais seus conselhos e contestavam seus fatos. “Eles dizem: 'Não, pesquisei no
Google, vi no YouTube'”, disse ela. Ela compreendia o dilema de seus pacientes. As
conspirações ofereciam um nível de certeza que a ciência não podia. Os remédios
caseiros permitem que as mães sintam que estão retomando o controle da saúde de
seus filhos. E as plataformas sempre estiveram presentes de uma forma que a Dra.
Oliviera não poderia estar, aparecendo dia após dia na vida de mães que, por
trabalharem em vários empregos ou morarem longe, ela podia ver uma vez por mês.
Eles procuraram aplicativos para smartphones não por preguiça ou ignorância, mas
por necessidade.
Cada vez mais, no entanto, os vídeos virais colocam a vida das crianças em risco,
aconselhando as mães não apenas a recusar as vacinas, mas também a tratarem elas
mesmas certas condições, a recusar tubos de alimentação para crianças cuja condição
as torna incapazes de engolir. Algumas vezes, disseram os médicos, eles recorreram
à ameaça de entrar em contato com serviços infantis como forma de obrigar as mães
a ouvir. Era um poder que eles sentiam terrivelmente exercendo sobre as cabeças das
mães, mas às vezes era a única opção forte o suficiente para igualar o
Machine Translated by Google

poder das plataformas.


Há quanto tempo isso estava acontecendo? Perguntei. Se tivesse coincidido com a chegada
do zika, em 2015, poderia ser devido mais à confusão criada pelo vírus do que a qualquer mudança
tecnológica. Mas os médicos deram a mesma resposta que todos os outros. Começou mais tarde,
logo depois que o YouTube atualizou seus algoritmos. “Mais de uma vez por semana, esse tipo de
coisa acontece”, disse Oliviera. “Está cada vez mais grave.” Médicos e pesquisadores médicos
frequentemente lamentavam, disse ela, que estavam competindo contra o “Dr.

Google e Dr. YouTube. E eles estavam perdendo.


Juntei os vídeos de conspiração que as mães e profissionais de saúde citaram, muitos dos
quais tiveram dezenas ou centenas de milhares de visualizações, e os enviei para a equipe de
Kaiser. Esses e os canais que os publicaram apareceram em sua análise de rede? Perguntei. Eles
não apenas apareceram, mas foram defendidos. A equipe identificou uma enorme rede de canais
de saúde e bem-estar vinculados por algoritmos, cobrindo tudo, desde relatórios médicos até
cristais de cura. Assim como nos vídeos políticos, o algoritmo usou canais mais confiáveis ou
familiares como portas de entrada para direcionar os usuários às piores conspirações e
desinformações. Os mesmos vídeos que pais e médicos perturbados nos mostraram ficavam perto
do centro da rede, o destino final do algoritmo.

Era uma prova concreta de que todos com quem conversamos sobre desinformação médica
no Brasil estavam ainda mais certos sobre o YouTube do que imaginavam. Que a plataforma
explorou o interesse normal do usuário em questões médicas, como fez com a política, para puxá-
los para buracos de coelho que, de outra forma, nunca teriam perseguido. E que, assim como o
YouTube aprendeu a sequenciar vídeos políticos para transformar espectadores casuais em
radicais digitalmente viciados, ele passou a organizar os vídeos de zika e vacinas precisamente
na ordem certa para persuadir mães amorosas a colocar deliberadamente em risco seus filhos.

“Sempre haverá conteúdo limítrofe nas plataformas. Isso era de se esperar”, disse Kaiser,
esforçando-se para simpatizar com as empresas de tecnologia.
“O mais chocante”, acrescentou, “é que os algoritmos do YouTube basicamente estão ajudando
as pessoas a seguirem essas direções”.

4. O Oleoduto

AO OUVIR O QUE Amanda e eu estávamos investigando, Luciana Brito, uma


Machine Translated by Google

psicólogo clínico falado que conhecemos no centro materno de Maceió, insistiu para que
conversássemos. Ela estava na cidade, visitando seu centro de pesquisa na capital do
Brasil, para trabalho de campo com famílias de Zika. Brito estava ocupado o dia todo - os
pais estavam lutando - e já passava da meia-noite quando nos sentamos. Percorrendo o
telefone, ela abriu uma mensagem do WhatsApp que havia recebido de um pai de uma
criança com microcefalia. Era um vídeo que afirmava que o zika havia sido disseminado
pela Fundação Rockefeller como parte de uma conspiração para legalizar o aborto no
Brasil. O pai exigiu saber se era
verdadeiro.

Isso acontecia, disse Brito, o tempo todo agora. Em muitas partes do mundo, as
pessoas não podem pagar por computadores de tamanho normal ou banda larga, nem
mesmo pelas tarifas de dados associadas ao streaming de vídeo. O WhatsApp forneceu
uma solução alternativa. Com acordos de classificação zero que geralmente cobrem
cobranças de dados incorridas no aplicativo, as pessoas que não podiam transmitir o
YouTube podiam assistir a trechos que foram recarregados no WhatsApp e, em seguida,
encaminhá-los para amigos e compartilhá-los em grupos gigantes do WhatsApp. Em
partes do Brasil onde o analfabetismo é alto, acredita-se que esse seja o principal meio
pelo qual muitas famílias consomem notícias. Os grupos do WhatsApp são o Google, o
Facebook e a CNN, tudo em um.
Como eram usuários comuns copiando os clipes, o que quer que fosse tendência no
YouTube (ou Facebook) tornou-se mais provável de ser recarregado no WhatsApp e se
tornar viral novamente lá, como uma infecção pulando de um host para o outro. Vídeos
como o que o contato de Brito lhe enviou, disse ela, muitas vezes se espalham em grupos
de bate-papo do WhatsApp que foram criados para compartilhar informações sobre como
lidar com o Zika, virando os próprios esforços das pessoas para cuidar da saúde de suas
famílias contra elas. Brito e seus colegas se juntaram aos grupos, onde tentaram
desmascarar o pior, mas as perguntas continuaram chegando.
E o conteúdo do YouTube e do Facebook é filtrado constantemente, sem verificação.

Virgílio Almeida, cientista da computação da Universidade Federal de Minas Gerais,


vinha estudando exatamente esse fenômeno. Ele e sua equipe rastrearam dezenas de
milhares de mensagens em centenas de grupos brasileiros do WhatsApp (todos anônimos,
é claro) e depois procuraram tendências. Eles descobriram que os usuários do WhatsApp
enviavam um vídeo para cada quatorze mensagens de texto, uma taxa surpreendentemente
alta. Os usuários do WhatsApp também se conectaram ao YouTube mais do que a
qualquer outro site – dez vezes mais frequentemente do que se conectaram ao Facebook –
Machine Translated by Google

reforçando a teoria de um canal do YouTube para o WhatsApp. Eles encontraram


tendências semelhantes na Índia e na Indonésia, sugerindo que o efeito pode ser universal.

Isso era outra coisa, disse Brito. À medida que as conspirações do zika se
espalhavam, os YouTubers de extrema-direita as sequestravam, acrescentando uma
reviravolta. Grupos de direitos das mulheres, alegaram, ajudaram a projetar o vírus como
uma desculpa para impor abortos obrigatórios. Freqüentemente, os vídeos chamavam o
grupo de Brito. Os espectadores, já apavorados com o zika, entenderiam a deixa. “Logo
depois que lançam um vídeo, começamos a receber ameaças”, disse Brito. As alegações,
ela sabia, ofereciam alívio psíquico para as famílias, deixando-as expressar sua culpa e
medo. Foi a construção de solução de crise de JM Berger: assim como os YouTubers
americanos transformaram a desapropriação masculina em raiva contra as feministas,
agora os brasileiros estavam explorando o terror de famílias confrontadas com uma doença implacável.
As ameaças contra Brito e seus colegas tornaram-se tão frequentes que a polícia
criou um canal especial para que eles denunciassem qualquer coisa que parecesse grave.
Eles o usavam cerca de uma vez por semana, disse ela. Mas ela se preocupava mais
com as mães que haviam internalizado as conspirações. Mais o tempo todo rejeitavam a
ajuda de grupos de ajuda que agora suspeitavam de afligir seus filhos. E sem apoio
médico e emocional, eles se aprofundaram ainda mais no YouTube. “Essas mulheres são
muito vulneráveis”, disse ela. “É muito fácil para eles cair na armadilha de acreditar
nessas teorias. Então, há muito desespero.”

Tinha um nome que eu ouvia repetidas vezes em Maceió, de médicos, profissionais


de saúde, mães puxando buracos de coelho no YouTube. Há meses que ninguém via
Debora Diniz, mas todos insistiram para que eu falasse com ela. Diniz, uma mulher magra
de cabelos grisalhos curtos que durante anos trabalhou como advogada de direitos
humanos, vários anos antes havia se tornado documentarista.
Seu filme sobre o surto de zika a levou a Maceió. Movida pelas mães, médicos e
trabalhadores humanitários que se uniram, ela ficou, advogando em nome da comunidade.

Um dia, as ameaças começaram a sobrecarregar seu telefone e e-mail. Diniz


inicialmente os ignorou. Como uma veterana das guerras culturais do Brasil, especialmente
em torno do aborto, ela estava acostumada com isso. Mas eles se tornaram
extraordinariamente numerosos. E as acusações eram bizarras: que ela trabalhava para
George Soros, que havia participado da criação do zika. Muitos citaram a mesma fonte:
Bernardo Küster.
Machine Translated by Google

Ele era, por completo, uma criação do YouTube. O ultraconservador de 30 anos,


de sua casa na pequena cidade de Londrina, produziu anos de tiradas contra liberais
ateus, o Papa, jornalistas, “ideologia de gênero” (código de direitos LGBT) e
especialmente feministas.
Recompensado repetidamente pelos sistemas do YouTube, ele acumulou 750.000
assinantes. Bolsonaro já havia endossado seu canal. E desde o final de 2017, Küster
nomeou Diniz no centro de uma conspiração para forçar abortos em mães relutantes.
À medida que os vídeos iam bem, ele os fazia cada vez mais, inventando novas
reivindicações que enviaram seus milhares de seguidores, enfurecidos com os pecados
dessa mulher, atrás dela.
As ameaças que enchiam o telefone de Diniz tornaram-se mais frequentes e mais
gráficas, longas descrições dos planos dos remetentes de estuprá-la e torturá-la.
Freqüentemente, eles ecoavam o que Küster havia dito em seu último vídeo. Alguns
citaram detalhes de suas rotinas diárias. “Eles descrevem a maneira como vão me matar”,
Diniz me contou quando nos conhecemos em Nova York, onde ela morava agora,
depois de ter fugido de seu Brasil natal. Enquanto a equipe de filmagem rodava, ela
pegou o telefone e leu para mim: “É a vontade de Deus que eu mate você. Vou cometer
suicídio depois disso.” Küster mencionou as ameaças em seus vídeos, embora nunca
as tenha endossado explicitamente. O YouTube se recusou a remover os vídeos,
apesar dos apelos de Diniz de que eles colocavam sua vida em perigo.
Depois de meses assim, a universidade onde Diniz lecionava recebeu uma
advertência. O remetente disse que vinha atirar em Diniz, depois em seus alunos e
depois em si mesmo. A polícia disse a Diniz que não poderia mais garantir sua
segurança. Ela também se preocupava com seus colegas e pais idosos, que começaram
a receber ameaças semelhantes. Ela deixou o Brasil sem saber quando ou se voltaria.

“Eu a expus”, disse Küster em um vídeo muito assistido celebrando seu exílio.
“Você não é bem-vindo aqui”, gritou ele, apontando o dedo para a câmera. Mas Küster
era, Diniz acreditava, em muitos aspectos um produto de forças maiores do que ele.
Tanto ele quanto as ameaças que inspirou, ela argumentou, vieram de um “ecossistema
de ódio” cultivado pelo YouTube. “O sistema do YouTube de recomendar o próximo
vídeo e o próximo vídeo alimenta o ecossistema”, disse ela, falando devagar enquanto
escolhia cada palavra em inglês, seu terceiro idioma. “'Ouvi aqui que ela é inimiga do
Brasil. Eu ouço no próximo que as feministas estão mudando os valores familiares. E
na seguinte eu ouço que eles recebem dinheiro do exterior.' Esse loop é o que leva
alguém a dizer: 'Eu vou
Machine Translated by Google

faça o que tem que ser feito.'” O efeito foi tão persuasivo, disse ela, porque “parece que
a conexão é feita pelo espectador, mas a conexão é feita pelo sistema”.

Exilados como o de Diniz eram cada vez mais comuns. Afinal, você não pode se
proteger contra uma ameaça que vem de todos os lugares. Alguns meses antes, Marcia
Tiburi, uma ativista de esquerda que concorreu ao governo do estado do Rio de Janeiro,
fugiu do Brasil para escapar de ameaças de morte amplamente fomentadas nas redes
sociais. Jean Wyllys, o único legislador abertamente gay do país, fez o
mesmo.

Na noite anterior à nossa entrevista, disse Diniz, ela havia jantado com Wyllys, que
estava na cidade. Alguém deve tê-los reconhecido, pois um grupo de brasileiros se reuniu
em frente ao restaurante, tirando fotos e apontando. A multidão os ameaçou quando eles
saíram, seguindo-os pela rua, gritando calúnias e acusações ecoando as conspirações
no YouTube.
Era por isso que Diniz raramente saía, mesmo aqui.
“Temos uma milícia movida por algoritmos”, disse ela. "O
algoritmos estão construindo a milícia.”
Perguntei se ela ainda recebia mensagens ameaçadoras.
“É todo dia”, disse ela. “Você nunca, nunca se sente confortável com uma situação
como esta.”
Estávamos conversando há uma hora, as câmeras e as luzes se aproximando
enquanto eu pedia a ela para navegar, no filme e em uma língua estrangeira, seu próprio
trauma. Eu disse a ela que não conseguia imaginar o que seria necessário para continuar
falando, sabendo que os perigos a perseguiam até aqui.
Ela abriu os braços sobre a mesa em que estávamos sentados e olhou para baixo.
Ela estava chorando. “Há momentos em sua vida em que você enfrenta um dilema”,
disse ela. “Você tem apenas duas opções. Uma delas é deixá-los vencer. E a outra é
lutar. Não quero esse idioma para minha vida. Mas vou dedicar minha vida para mudar
essa situação. E eles não vão me matar. Eles não vão me matar.

Eu me ofereci para terminar a entrevista, mas ela balançou a cabeça. Ela disse que
acompanhou as histórias de médicos e ativistas visados por vídeos do YouTube,
professores enviados para a clandestinidade, vidas arruinadas e comunidades
subvertidas. “Precisamos que as empresas enfrentem seu papel”, disse ela. Ela instou
os executivos do YouTube a refletirem sobre seu próprio envolvimento. “Minha esperança
é que eles entendam que fazem parte dessa comunidade de ódio”, disse ela.
Machine Translated by Google

“Eticamente, eles são responsáveis.”


Mas o YouTube continuou a resistir à responsabilidade. Os representantes corporativos da
empresa repetiram o roteiro familiar. A empresa leva a sério a segurança e o bem-estar. Mas
rejeitou os estudos de Harvard e da Universidade Federal de Minas Gerais, dizendo que não
considerava sua metodologia sólida. Quando se tratou dessas questões, a empresa disse que
realizou sua própria pesquisa interna, que provou que a plataforma promoveu de forma
esmagadora conteúdo preciso e benéfico. Os representantes, que exigiram a revisão de centenas
de páginas de evidências por trás dos estudos que Amanda e eu citamos, não forneceram
nenhum dado ou metodologia para apoiar sua própria reivindicação.

Depois de admitir que alguns dos vídeos de desinformação sobre saúde identificados por
Kaiser violavam as regras do site, a empresa os removeu. Os detalhes da pesquisa de Kaiser,
que eu transmiti ao YouTube, indicavam que havia centenas de vídeos, possivelmente milhares,
instando as mães a negarem aos filhos cuidados que salvam vidas. Enviamos apenas alguns links
como exemplos. O YouTube nunca pediu os outros. A empresa também não pediu detalhes sobre
os vídeos que inspiraram ameaças de morte críveis contra Diniz e outros, muitos dos quais
permanecem online.

Mais tarde naquele ano, o YouTube anunciou que havia feito alterações em seu algoritmo
com o objetivo de reduzir “a disseminação de conteúdo limítrofe e desinformação prejudicial”. Mas
algumas dessas mudanças já estavam em vigor quando fizemos nossos relatórios, levantando
questões sobre sua eficácia.
A empresa divulgou uma métrica um tanto oblíqua para o sucesso: “Uma queda de 70% no tempo
de exibição desse conteúdo proveniente de recomendações de não inscritos nos EUA”

Em maio de 2019, dois meses depois de voltar do Brasil, recebi uma mensagem de texto do
Kaiser: ele precisava que eu ligasse para ele imediatamente. Ele atendeu no primeiro toque, com
a voz trêmula. Ele e os outros estavam executando mais iterações de seu programa de
rastreamento de plataforma em canais brasileiros, disse ele.
E eles encontraram algo tão perturbador que não sabiam o que fazer com isso. Kaiser não estava
ligando para falar de um artigo, percebi. Ele estava pedindo ajuda.

5. Campos de Treinamento

CHRISTIANE NÃO PENSOU nisso quando sua filha de dez anos e


Machine Translated by Google

um amigo carregou um vídeo de si mesmos espirrando em uma piscina no quintal. “O


vídeo é inocente, não é grande coisa”, disse Christiane, que mora no subúrbio do Rio
de Janeiro. Alguns dias depois, sua filha compartilhou uma notícia emocionante: o vídeo
teve milhares de visualizações. Em pouco tempo, tinha 400.000. Era um número
impressionante e inexplicável para um pequeno clipe comum enviado ao canal de
Christiane, que normalmente recebia algumas dezenas de cliques. “Revi o vídeo e me
assustei com a quantidade de visualizações”, disse Christiane.
Ela tinha razão de ser. O algoritmo do YouTube havia selecionado silenciosamente
o vídeo de sua filha para um vasto e perturbador programa. Ele estava selecionando,
de seus arquivos, dezenas de vídeos de crianças pré-adolescentes parcialmente
despidas. Arrancou muitos deles dos filmes caseiros de famílias involuntárias. Ele os
uniu, mostrando um clipe após o outro de crianças de seis ou sete anos em trajes de
banho ou roupas íntimas, fazendo espacates ou deitadas na cama, para atrair um tipo
muito específico de espectador com conteúdo que eles achariam irresistível. E então
construiu uma audiência para esses vídeos do tamanho de dez estádios de futebol.
“Estou tão chocada”, disse Christiane quando soube o que havia acontecido, apavorada
com o fato de o vídeo de sua filha ter sido apresentado ao lado de tantos outros, com
as intenções da plataforma perturbadoramente claras.

Kaiser, junto com Rauchfleisch e Córdova, descobriu isso enquanto trabalhava no


estudo do Brasil. Como sua máquina de teste seguiu a recomendação do YouTube
sobre vídeos com temas sexuais, o sistema foi direcionado para conteúdo sexual mais
bizarro ou extremo. Isso em si não era chocante; eles haviam visto o efeito da toca do
coelho muitas vezes em outros tipos de conteúdo. Mas algumas das cadeias de
recomendação seguiram uma progressão inconfundível: cada vídeo subseqüente levava
a outro em que a mulher no centro dava maior ênfase à juventude e se tornava mais
erótica. Vídeos de mulheres discutindo sexo, por exemplo, levaram a vídeos de mulheres
em roupas íntimas ou amamentando, às vezes mencionando sua idade: dezenove,
dezoito, até dezesseis anos. Alguns solicitaram “sugar daddies”, um termo para doações
de espectadores lascivos. Outros sugeriram vídeos privados onde posavam nus por
dinheiro.
Depois de alguns cliques, as mulheres nos vídeos mostravam-se cada vez mais
abertamente na pré-adolescência, falando como bebês ou posando de forma sedutora
em roupas infantis.
A partir daí, o YouTube mudaria repentinamente para recomendar clipes de crianças
muito pequenas flagradas em momentos de nudez involuntária. uma garota
Machine Translated by Google

talvez tão jovem quanto cinco ou seis trocando de roupa ou se contorcendo em uma pose de
ginástica. Em seguida, um fluxo quase interminável desses vídeos, extraídos de todo o
mundo. Nem todos pareciam ser filmes caseiros; alguns foram carregados por contas
cuidadosamente anonimizadas.
A especificidade implacável das seleções do YouTube era quase tão perturbadora quanto
o próprio conteúdo, sugerindo que seus sistemas poderiam identificar corretamente um vídeo
de uma criança parcialmente nua e determinar que essa característica era o apelo do vídeo.
Mostrar uma série deles imediatamente após o material sexualmente explícito deixou claro
que o algoritmo tratava as crianças involuntárias como conteúdo sexual. As extraordinárias
contagens de visualizações, às vezes na casa dos milhões, indicavam que não se tratava de
um capricho de personalização. O sistema havia encontrado, talvez construído, uma
audiência para os vídeos. E estava trabalhando para manter esse público envolvido.

“É o algoritmo do YouTube que conecta esses canais. Essa é a coisa assustadora”, disse
Kaiser, chamando as recomendações de “perturbadoramente precisas”.
Ele sabia proceder com cuidado com esses vídeos. As leis americanas contra a exibição de
pornografia infantil oferecem poucas exceções para pesquisadores ou jornalistas. A maioria
dos clipes caiu, provavelmente, pouco antes de constituir pornografia infantil legalmente. Mas
alguns não. E o contexto em que o YouTube os colocou não permitia ambiguidade quanto à
sua intenção. Kaiser e eu estabelecemos procedimentos para rastrear os vídeos com
responsabilidade e sem expor ninguém a danos. Mas também nos sentimos compelidos a
agir rapidamente. As contagens de visualizações estavam aumentando em milhares por dia.
Alguns, como o da filha de Christiane, foram postados com o nome dos pais, deixando as
crianças nos vídeos facilmente rastreáveis pelo tipo certo de monstro. Algo tinha que ser feito.

Juliana Cunha, psicóloga da SaferNet, um monitor brasileiro de internet, disse que sua
organização já havia visto esse fenômeno antes. Mas nunca envolvendo garotas tão jovens.
E nunca alcançando um público tão grande. Vídeos semelhantes, comercializados em fóruns
da dark web e sites de compartilhamento de arquivos, normalmente podem atingir algumas
centenas de pessoas. Este parecia ser o catálogo de vídeos de exploração infantil mais visto
já reunido, promovido para uma audiência de milhões.

A maioria das pessoas que vê imagens sexualizadas de crianças deixa por isso mesmo,
sugerem pesquisas. Mas alguns espectadores se tornam mais propensos, a cada exibição,
a entrar em contato diretamente com as crianças, um primeiro passo para preparar as vítimas
para possíveis abusos físicos. Grupos de segurança infantil temiam que os vídeos pudessem
Machine Translated by Google

torne isso mais fácil, até mesmo convide-o, levando-os repetidamente aos espectadores
interessados, desgastando-os e identificando os nomes dos membros da família ou das
contas das crianças nas redes sociais.
Havia, temiam os psicólogos, outro risco. O YouTube cultivou um enorme público de
espectadores que nunca procuraram o conteúdo, mas foram atraídos pelas recomendações
da plataforma. Esta não era apenas mais uma toca de coelho. O caminho parecia imitar,
passo a passo, um processo que os psicólogos observaram repetidamente em pesquisas
sobre como as pessoas desenvolvem atração pela pornografia infantil.

Para algumas pessoas, os impulsos pedófilos se formam no início da vida e permanecem


mais ou menos inatos. Mas Kathryn Seigfried-Spellar e Marcus Rogers, psicólogos da
Purdue University, descobriram que os consumidores de pornografia infantil geralmente
desenvolvem esse interesse, em vez de nascerem com ele.
As pessoas que passam por esse processo começam com pornografia adulta, depois
passam para materiais cada vez mais extremos, seguindo uma compulsão semelhante a
um vício de perseguir conteúdo sexual cada vez mais desviante, pornografia um pouco
mais tabu do que o que tinham visto antes. “À medida que se tornam insensíveis a essas
imagens, se estiverem nessa escala”, disse Rogers, “eles vão procurar coisas ainda mais
emocionantes, ainda mais excitantes, ainda mais sexualizadas”.

Suas compulsões eram moldadas por qualquer conteúdo que encontrassem, semelhante
ao treinamento. Não era absolutamente inevitável que essas pessoas seguissem seu
impulso além de qualquer linha moral. Nem que essa compulsão, se a seguissem, os levaria
a ter filhos. Mas no YouTube, o segundo site mais popular do mundo, o sistema parecia ter
identificado as pessoas com esse desejo, conduzindo-as por um caminho que o permitia no
ritmo certo para mantê-las em movimento e, em seguida, apontou-as em um direção muito
específica. “Isso é algo que os leva nessa jornada”,

Rogers disse sobre o sequenciamento do YouTube. Ele chamou o mecanismo de


recomendação de uma potencial “droga de entrada para pornografia infantil mais pesada”.

A pesquisa sobre esse assunto é, destacou ele, notoriamente desafiadora.


Poucos consumidores de pornografia infantil estão dispostos a discutir seu interesse.
Alguns mentirão sobre seus motivos, para evitar o estigma da pedofilia.
Estudos controlados seriam, por razões éticas, impossíveis. Como resultado, estudos como
o dele tendem a ser relativamente pequenos e geralmente se concentram em pessoas que
Machine Translated by Google

foram pegos.
Ainda assim, todos os especialistas que Amanda e eu consultamos disseram que
havia evidências que sugeriam que as conclusões de Seigfried-Spellar e Rogers, bem
como seus temores de sua aplicação ao YouTube, tinham mérito. Stephen Blumenthal,
um psicólogo clínico do Serviço Nacional de Saúde da Grã-Bretanha que trata pessoas
com interesses sexuais desviantes e publicou pesquisas acadêmicas sobre seu
trabalho, disse que viu pacientes desenvolverem desejos pedófilos seguindo uma
progressão semelhante. “É incrivelmente poderoso e as pessoas são atraídas para
isso”, disse ele. “Eles nunca teriam seguido esse caminho se não fossem as
possibilidades que a internet abriu.” Embora desconhecia casos envolvendo
especificamente o YouTube, disse ele, os paralelos o preocupavam.
O mesmo aconteceu com a escala e a eficiência sem precedentes dos métodos do YouTube.
O YouTube respondeu com ceticismo quando apresentou nossas descobertas.
Um porta-voz chamou as preocupações dos psicólogos em particular de “questionáveis”.
A posição do YouTube, ela disse, era que a ciência ainda não havia estabelecido se
os impulsos pedófilos poderiam ser treinados ou intensificados por fatores ambientais,
como Seigfried-Spellar, Rogers e Blumenthal descobriram. O porta-voz citou uma
especialista chamada Ethel Quayle, cuja pesquisa, disse ela, desafiou a existência de
qualquer efeito de “porta de entrada”.
Mas, apesar da alegação confusa de responsabilidade do YouTube sobre a
incerteza científica, quando Amanda contatou Quayle, da Universidade de Edimburgo,
Quayle disse que, de fato, sua pesquisa apoiava a teoria do efeito gateway. Os
especialistas, disse ela, há muito temiam que os algoritmos de aprendizado de
máquina criassem esses caminhos. “O algoritmo não tem nenhum tipo de bússola
moral”, disse ela. Em um estudo recente de infratores de pornografia infantil que ela
conduziu, ela disse, “a maioria falou sobre seguir links, originalmente de sites
pornográficos legítimos, e depois perseguir cada vez mais material desviante”.

Para pessoas com predisposição a responder a essas sugestões, disse Quayle,


sugestões algorítmicas como a do YouTube oferecem “quase uma rota predeterminada
para onde elas estão indo”. O fato de a especialista escolhida a dedo pelo YouTube
acreditar no oposto do que o YouTube afirmava que ela acreditava me fez duvidar de
quão profundamente a empresa realmente pesquisou o assunto, apesar de todas as
suas alegações de levar a segurança infantil a sério. Além disso, Quayle e outros
alertaram, o YouTube corre o risco de corroer o tabu interno dos espectadores contra
a pedofilia ao exibir vídeos de crianças ao lado de conteúdo sexual mais convencional, como
Machine Translated by Google

além de exibir as altas contagens de visualizações dos vídeos, demonstrando que eles
foram amplamente vistos e, portanto, presumivelmente aceitáveis. Como Rogers havia
dito: “Você normaliza isso”.
Imediatamente após notificarmos o YouTube sobre o que havíamos encontrado,
vários dos vídeos que enviamos como exemplos foram removidos. (Muitos que não
havíamos enviado, mas que faziam parte da mesma rede, permaneceram online.) O
algoritmo da plataforma também mudou imediatamente, deixando de vincular as dezenas
de vídeos. Quando perguntamos ao YouTube sobre isso, a empresa insistiu que o
momento era uma coincidência. Quando pressionei, um porta-voz disse que era
hipoteticamente possível que o momento estivesse relacionado, mas que ela não poderia
dizer de qualquer maneira. Parecia que o YouTube estava tentando arrumar sem
reconhecer que havia algo para arrumar.
Os porta-vozes da empresa nos solicitaram muitas informações: estudos, estudos
alternativos, detalhes sobre a metodologia dos pesquisadores. Eles nos pediram para
definir termos como rede e o que queríamos dizer com usuários “encontrando” vídeos.
Eles perguntaram quantas palavras a história teria. Eles nos pediram para esclarecer
alguns detalhes e, alguns dias depois, fizeram a mesma pergunta novamente.
E eles insistiram em falar com um de nossos editores do jornal antes da publicação, a
quem pressionaram para obter detalhes sobre palavras específicas que a história usaria
para descrever o papel do YouTube.
Durante minhas idas e vindas com o YouTube, as análises que Kaiser e sua equipe
ainda estavam fazendo chegaram a algo. Logo depois, entramos em contato com o
YouTube sobre os vídeos de exploração infantil, notificando a empresa de que a equipe
de Kaiser os havia encontrado em parte rastreando o recurso estático de “canal
relacionado” - assim como ele havia feito em todos os experimentos anteriores, como
uma verificação metodológica de seus resultados. - a empresa excluiu o recurso
completamente. Em todo o site, depois de anos no local, ele se foi. Quando perguntamos
à empresa se o tempo estava relacionado, os representantes alegaram desconhecer que
Kaiser havia usado o recurso em sua pesquisa. Foi uma afirmação estranha, não apenas
porque dissemos a eles que ele estava fazendo isso, mas porque o YouTube já havia se
oposto à pesquisa de Kaiser exatamente por esses motivos.

Antes da publicação do meu artigo com Amanda revelando o que havíamos


encontrado, a empresa me colocou em contato com Jennifer O'Connor, diretora de
produto do YouTube para confiança e segurança. Ela disse que a empresa está
empenhada em erradicar a exploração de crianças em sua plataforma
Machine Translated by Google

sem rodeios. Ainda assim, disse ela, não aceita a pesquisa sugerindo que o algoritmo
do YouTube atraiu os usuários para conteúdos mais extremos, neste caso ou em outros.
Mesmo em um assunto politicamente e legalmente delicado - no qual o YouTube
enfrentou um enorme incentivo para assegurar ao mundo que estava tomando todas as
medidas possíveis em resposta - para reconhecer publicamente o papel do sistema e,
assim, reconhecer suas tendências radicalizadoras neste e em tantos outros assuntos ,
permaneceu uma impossibilidade.
Eu disse que era difícil enquadrar essa postura com os vídeos que tínhamos visto,
os milhões de visualizações, a forma como o sistema encaminhava os usuários para
eles. Ela não cedeu ao ponto, mas sugeriu que o YouTube se protegeria de qualquer
maneira. “Quando se trata de crianças”, disse ela, “queremos apenas adotar uma
postura muito mais conservadora em relação ao que recomendamos”. O'Connor foi vago
nos detalhes, que ela disse estarem sendo elaborados.
Lembrei-me de algo que Kaiser havia dito. Havia, ele argumentou, apenas uma
maneira segura de impedir que isso acontecesse novamente. Em vídeos de crianças,
desligue o algoritmo. Apenas pare de recomendar vídeos de crianças. Isso estava dentro
da capacidade técnica do YouTube. Depois de uma controvérsia anterior sobre
comentários abaixo de vídeos de crianças, ele criou um sistema para identificar
automaticamente esses vídeos e desativar seus comentários. Além disso, para uma
empresa de US$ 15 bilhões por ano, quanto dinheiro esses vídeos poderiam realmente
render? Perguntei a O'Connor se o YouTube consideraria algo assim. Para minha
surpresa, ela disse que a empresa estava “tendendo nessa direção”. Ela prometeu
novidades em breve.
Repassei a conversa para a equipe da Kaiser, bem como para alguns grupos de
monitoramento, que ficaram emocionados. Eles chamaram isso de um passo
extremamente positivo, a internet se tornou significativamente mais segura para as
crianças. Mas pouco antes da publicação, o YouTube “esclareceu” o comentário de
O'Connor. Os criadores de vídeos do YouTube contam com recomendações para
direcionar o tráfego, disseram eles, para que o algoritmo permaneça ativado, mesmo
para vídeos de crianças pré-adolescentes.
Depois que nossa história foi publicada, Josh Hawley, um senador republicano que
costumava criticar as plataformas de mídia social, anunciou um projeto de lei em
resposta às nossas descobertas. Assim como Kaiser pediu, isso forçaria o YouTube e
outras plataformas a encerrar as recomendações de vídeos de crianças. Mas o projeto
de lei de cinco páginas, que nunca foi votado, parecia ter sido principalmente para se
exibir. Ainda assim, o senador Richard Blumenthal, um democrata que avançou
Machine Translated by Google

reformas sérias na internet, assinou uma carta com a senadora Marsha Blackburn, uma
republicana, ao CEO do YouTube sobre a história. Ele colocou questões precisas e objetivas.
Um deles perguntou se os gerentes de política do YouTube para segurança infantil seriam
“incluídos nas decisões de design e no ciclo de vida do produto”.
Este era um problema comum no Vale: as pessoas que estudam o impacto das plataformas,
como não engenheiros, têm pouco a dizer sobre seu projeto. A carta de Blumenthal e Blackburn
também repetia a pergunta principal de Kaiser: por que não simplesmente desligar as
recomendações de vídeos de crianças?
Em julho daquele ano, o Comitê Judiciário do Senado dedicou uma audiência completa,
embora com pouca participação, ao assunto. Seu presidente, Lindsey Graham, repetiu a
ameaça de longa data de Trump de retirar as proteções de responsabilidade das plataformas.
Blumenthal, o único democrata a comparecer, disse estar "francamente desapontado" com o
que considerou a falta de resposta do YouTube. “Este relatório foi doentio”, disse Hawley na
audiência, referindo-se à história. “Mas acho que o mais repugnante foi a recusa do YouTube
em fazer qualquer coisa a respeito.”

Enquanto Amanda e eu estávamos relatando a história, verificamos os vídeos em busca


de qualquer informação de identificação que pudesse remontar aos pais. Quando conseguimos
encontrá-lo, contatamos organizações locais que poderiam alertar as famílias sobre o que
estava acontecendo e prestar ajuda. Depois que uma dessas organizações entrou em contato
com Christiane, a mãe do Brasil, ela se ofereceu para falar sobre sua experiência. Perplexa e
com raiva, ela disse que estava lutando para absorver o que havia acontecido. Ela se
preocupava com o que dizer ao marido. Ela expressou confusão com as práticas do YouTube,
a certa altura perguntando se seria possível processar a empresa. E ela se preocupava com o
que fazer por sua filha, que havia sido exibida para uma audiência do tamanho de uma cidade
por um algoritmo de sexualização infantil. Como ela poderia mantê-la segura?

“A única coisa que posso fazer”, ela decidiu, “é proibi-la de publicar


qualquer coisa no YouTube.”
Machine Translated by Google

Doze

Infodemia

1. Não abrace os vacinados

DOIS ANOS ANTES de um estranho novo vírus surgir na China, um funcionário da


Organização Mundial da Saúde chamado Andy Pattison, que é suíço, procurou seu
chefe com um plano para tal evento. A mídia social se tornou um vetor de desinformação
médica, disse Pattison a Tedros Adhanom Ghebreyesus, diretor-geral da OMS.
Relatórios frenéticos de profissionais de saúde no Brasil e em outros lugares deixaram
claro que as plataformas seriam uma importante linha de frente em qualquer emergência
de saúde pública. Eles devem começar a se preparar.
Tedros concordou, abrindo um escritório na sede da agência em Genebra.
Como a OMS, como outras agências da ONU, faz grande parte de seu trabalho
aconselhando e, nos dias bons, persuadindo os governos, a meia dúzia de funcionários
do escritório se concentrou em cultivar laços com as principais empresas de tecnologia
americanas que Pattison considerava seus próprios centros de poder. O progresso foi
lento. Eles ajudaram o Pinterest a melhorar seus resultados de pesquisa para consultas
relacionadas a vacinas. Eles aconselharam o Google sobre um aplicativo de fitness. “O
interesse que recebi foi mínimo. Eu tenho membros muito juniores da equipe me
encontrando por um curto período de tempo ”, disse Pattison, acrescentando que pouca
ação tendia a seguir.
Então, em 21 de janeiro de 2020, cientistas chineses anunciaram que o vírus, que
havia matado quatro pessoas, estava se espalhando de pessoa para pessoa. Em dois
dias, o número de mortos saltou para dezessete. Uma semana depois, a OMS declarou
uma emergência global. O escritório de Pattison ativou seus contatos no Vale do Silício.
“Eu fiz esse discurso em um nível humano: 'Voltem para suas empresas, preparem-se,
comecem a formar equipes'”, ele se lembra de ter dito a eles. Ele estabeleceu ligações
entre Tedros e os chefes do Facebook, Google e outras plataformas.
Mark Zuckerberg e Sheryl Sandberg sugeriram que a OMS criasse páginas em
Machine Translated by Google

WhatsApp e Facebook para postar atualizações e responder a perguntas dos usuários.


Em 13 de fevereiro, duas semanas após a propagação do vírus agora conhecido como
Covid-19 ter sido declarada uma emergência global, Pattison desembarcou na Califórnia para
uma reunião, hospedada no Facebook, com as principais empresas do Vale do Silício. A vida
permaneceu normal nos Estados Unidos e na Europa. Mas sua percepção da crise já havia
mudado. Houve, disse ele à CNBC no dia da reunião, uma “infodemia”. As principais plataformas
de mídia social, incluindo Twitter e YouTube, estavam “inundadas de desinformação”, disse ele.

As postagens do Facebook já estavam ganhando centenas de milhares de interações ao


insistir, um mês e meio antes de Trump projetar a mesma afirmação do pódio na sala de briefing
da Casa Branca, que o vírus poderia ser curado bebendo alvejante diluído. Os influenciadores
do Instagram explicaram que Bill Gates havia inventado o vírus para justificar as vacinas forçadas.
Um encaminhamento viral do WhatsApp disse que a CIA estava acumulando mantimentos. Os
vídeos do YouTube culpando as torres de celular 5G pela doença, insinuando que não havia
vírus, de repente ganharam milhões de visualizações.

Por insistência de Pattison, as empresas se comprometeram a endurecer algumas regras.


O YouTube removeria vídeos que violassem as orientações da OMS. O Facebook enviaria
notificações aos usuários se eles tentassem compartilhar uma postagem relacionada à Covid que
os moderadores marcaram como falsa. As plataformas prometeram a Pattison e ao mundo que
aprenderam com os erros do passado. Eles acertariam essa.

À medida que o vírus se espalhou por nações inteiras naquelas primeiras semanas, o medo
e o isolamento se espalharam com ele. Lojas e espaços públicos fechados com tábuas. Uma
quietude apocalíptica pairava sobre as principais vias e distritos comerciais, interrompida apenas
por sirenes uivantes à medida que as enfermarias dos hospitais aumentavam - e, em alguns
lugares, pela marcha lenta macabra de caminhões frigoríficos do lado de fora dos necrotérios
superlotados. Famílias se preparavam em casa como se estivessem se preparando para uma
invasão, aventurando-se apenas para tensas corridas ao supermercado durante as quais, em
nossa ignorância coletiva, muitos calçaram luvas ou borrifaram Windex em produtos cujas
superfícies, pelo que sabíamos, poderiam estar fatalmente contaminadas. As cidades se
reanimavam por um único minuto todas as noites, quando moradores de apartamentos fechados
abriam suas janelas para comemorar em gratidão aos trabalhadores da linha de frente, embora
talvez também como uma forma de buscar algum senso de comunidade, de segurança em números.
Nas outras 23 horas e 59 minutos do dia, os medrosos ou solitários podem recorrer a outra
janela para o mundo exterior: o computador.
Machine Translated by Google

Vários anos de adoção digital aconteceram da noite para o dia. O Facebook relatou um
aumento de 70% no uso em alguns países. O Twitter cresceu 23 por cento. Uma
empresa de serviços de internet estimou que a participação do YouTube no tráfego
mundial da internet saltou de 9 para 16 por cento. O uso geral da Internet aumentou
40%, disse a empresa, sugerindo que, na verdade, o tráfego do YouTube quase triplicou.

Apesar dos esforços de Pattison para preparar as empresas, alguns crachás de


verificação de fatos não conseguiram resolver o problema central. A mídia social ainda
era uma máquina projetada para distorcer a realidade através das lentes do conflito
tribal e levar os usuários a extremos. E a pandemia – o espectro de uma ameaça
invisível, onipresente e incontrolável – ativou as próprias emoções que alimentavam a
máquina, em uma escala maior do que qualquer outro evento desde a criação das
próprias plataformas.
Era como se o mundo inteiro se tornasse uma vila afetada pelo Zika cujas mães se
voltavam desesperadas para os rumores online, ou um coletivo de jovens solitários
escalando a desilusão e a anomia uns dos outros em uma luta compartilhada contra
algum inimigo fabricado. As conspirações do coronavírus, prometendo acesso a
verdades proibidas que outros não possuíam, permitiram que os crentes sentissem
certeza e autonomia em meio a uma crise que havia levado ambos. Ao atribuir tudo a
algum vilão ou trama, eles deram a uma tragédia sem sentido algum grau de significado,
por mais sombrio que fosse. E eles ofereciam aos usuários uma maneira de agir,
primeiro compartilhando seu conhecimento secreto com os outros, depois dizendo uns
aos outros que se uniriam contra qualquer culpado que a conspiração culpasse.

A narrativa abrangente - o coronavírus é uma conspiração deles para nos controlar


- estava em todos os lugares em abril. Freqüentemente, as conspirações se originaram
de usuários comuns com poucos seguidores. A postagem de um missionário de uma
pequena cidade no Facebook acusando Bill Gates e a China de espalhar o coronavírus
para minar Trump. O tweet de uma esteticista de Houston listando epidemias anteriores
ao lado dos anos eleitorais correspondentes (as datas estavam erradas) com a
mensagem “Coronavírus é uma doença criada pelo governo”. Um vídeo, no YouTube,
de dois médicos apresentando falsas alegações de que Covid era praticamente
inofensivo e que as máscaras poderiam ser dispensadas. Cada um alcançou audiências
na casa dos milhões, tudo graças aos sistemas promocionais das plataformas.
Estes dificilmente eram outliers. Vídeos de desinformação sobre vacinas se
multiplicaram no YouTube, instruindo dezenas de milhões de espectadores a não acreditar no
Machine Translated by Google

“máfia médica” que procura inserir microchips em seus filhos. O Facebook também
experimentou um “crescimento explosivo nas visualizações anti-vacinação”, de acordo
com um estudo da Nature, já que o sistema de recomendação da plataforma parecia
desviar um grande número de usuários das principais páginas de saúde para grupos
antivacinas.
Ao longo de 2020, três forças surgiram paralelamente nas plataformas de mídia
social, das quais as conspirações do coronavírus foram apenas as primeiras. Os outros
dois seriam igualmente fatídicos: tensões crescentes de extremismo online, passando
por nomes que muitos americanos teriam achado ridículos no início do ano e que eram
aterrorizantes no final; e, separadamente, entre os americanos de forma mais ampla,
indignação ultrapartidária e desinformação exagerada a ponto de tornar a rebelião
armada não apenas aceitável, mas, para muitos, necessária. Todas as três forças se
basearam em causas que existiam além da mídia social - a pandemia, reação branca a
uma onda de protestos por justiça racial durante o verão e, especialmente, o presidente
Trump.
Mas a mídia social impulsionou e moldou essas causas até que, em 6 de janeiro de
2021, elas convergiram em um ato de violência em massa, organizado online, que
mudaria a trajetória da democracia americana, talvez para sempre.
Durante toda aquela primavera, enquanto as mentiras e os rumores da Covid se
espalhavam, os gigantes da mídia social insistiram que estavam tomando todas as
medidas disponíveis. Mas documentos internos sugerem que os executivos do
Facebook, em abril, perceberam que seus algoritmos estavam aumentando a
desinformação perigosa, que poderiam ter contido o problema drasticamente com o
toque de um botão e que se recusaram a fazê-lo por medo de prejudicar o tráfego. Os
pesquisadores da empresa descobriram que “recompartilhamentos em série” –
postagens compartilhadas repetidamente de usuário para usuário – eram mais prováveis
de ser desinformação. O algoritmo, vendo essas postagens como boa forragem viral,
aumentou seu alcance artificialmente. Simplesmente desligar esse impulso, descobriram
os pesquisadores do Facebook, reduziria a desinformação relacionada à Covid em até
38%. Mas Zuckerberg vetou. “Mark não acha que poderíamos ir além”, escreveu um
funcionário que informou Zuckerberg em um memorando. “Não lançaríamos se
houvesse uma troca material com a MSI”, acrescentou ela, usando o acrônimo de
engajamento do Facebook, abreviação de “interações sociais significativas”.
No mesmo mês, pesquisadores do Facebook investigaram páginas de “viralidade
fabricada”, que republicam conteúdo já viral para atrair seguidores, uma ferramenta
preferida de golpistas, clickbaiters e vendedores de influência russos. O
Machine Translated by Google

os vendedores ambulantes virais, eles descobriram, direcionavam 64% da desinformação


e 19% do tráfego em todas as páginas do Facebook – números chocantes, embora um
alvo aparentemente fácil de remoção. Mas quando eles trouxeram suas descobertas para
Zuckerberg, ele “despriorizou” o trabalho deles. O Facebook manteve as duas descobertas
segredo.

Com as plataformas girando normalmente e 6.000 pessoas morrendo todos os dias


de Covid, um terço delas americanas, o mundo estava, em maio, preparado para o
Plandemic . O vídeo, um falso documentário de 26 minutos, foi carregado, em 4 de maio,
no Facebook e no YouTube. Apresentava um cientista pioneiro do HIV (na verdade, um
ex-pesquisador desacreditado) como revelador, segundo o narrador, “da praga da
corrupção que coloca em perigo toda a vida humana”. O vídeo afirmava que o vírus foi
projetado para justificar a promoção de vacinas perigosas com fins lucrativos, as máscaras
causam doenças, o medicamento antimalárico hidroxicloroquina pode prevenir a Covid e
muitas outras reivindicações.

A rota do vídeo para a viralidade revelou, e talvez esculpiu, os caminhos da mídia


social pelos quais fluiria grande parte do caos de 2020. Começando em grupos para
antivaxxers, conspiracionistas em geral e QAnon, sua história afirmou cada uma de suas
visões de mundo. Isso intensificou sua sensação de estar lutando contra um grande
conflito. E os ativou em torno de uma causa: a oposição às forças sombrias por trás da
Covid. Em uma semana, o Plandemic se espalhou para comunidades de medicina
alternativa, depois para influenciadores de bem-estar, depois para páginas genéricas de
estilo de vida e ioga. Separadamente, circulou para páginas e grupos que se opunham
aos bloqueios, depois para páginas pró-Trump, depois para páginas de qualquer causa
cultural ou social que fosse vagamente alinhada ao conservadorismo. Cada um assumiu
isso como um chamado comunitário às armas, entrelaçando-o em suas identidades
coletivas. Muitos enviaram o vídeo para o Twitter e Instagram, iniciando o processo
novamente. Em um roteiro que já estava se tornando monótono, as empresas não
reagiram até que as agências de notícias começaram a chamá-las para comentar. A essa
altura, já era tarde demais. Embora tenham removido o próprio vídeo, suas reivindicações
e apelos à ação estavam bem na corrente sanguínea digital e ressurgiram em conspirações
nas mídias sociais desde então.
Em agosto, Andy Pattison, o funcionário da OMS, concluiu que teria de mudar
totalmente de rumo com o Vale do Silício. “O desafio que tenho com eles é colocar
sustentabilidade e maturidade acima do lucro absoluto”, disse ele a uma publicação de
desenvolvimento, falando de forma mais direta do que faria com
Machine Translated by Google

agências de notícias. “E essa é uma conversa difícil de se ter, porque todos eles têm
resultados financeiros.”
Ele se reuniu regularmente com contatos corporativos durante a pandemia. Mas as
evidências de danos no mundo real continuaram aumentando. Os americanos que
usaram Facebook, Twitter ou YouTube, segundo um estudo, tornaram-se mais
propensos a acreditar que a vitamina C poderia tratar com sucesso a Covid ou que o
governo havia fabricado o vírus. Milhões estavam rejeitando máscaras e distanciamento
social e mais tarde rejeitariam vacinas. Os médicos relataram cada vez mais pacientes
recusando tratamentos salva-vidas com base em algo que viram online, assim como
famílias brasileiras atormentadas pelo zika fizeram apenas um ano antes, e muitas
vezes citando as mesmas conspirações. Trump, impulsionado pela fúria online que
inundou sua base, encorajou cada passo, promovendo curas falsas para a Covid e
prometendo “libertar” os estados com bloqueio.
medidas.
“Mais evidências de uma plandemia”, um californiano mandou uma mensagem de
texto para seu primo em outubro, vinculando a um vídeo do TikTok, no tipo de troca que
se tornou rotina na vida americana. “Não abrace nenhum dos vacinados, os sintomas
estão diretamente relacionados ao derramamento da vacina”, respondeu o primo,
referindo-se a uma conspiração propagada pelo Facebook. Ambos os homens tinham
Covid. Durante dias, eles trocaram mensagens de texto, atribuindo seus sintomas a
médicos intrigantes ou vacinas com base em rumores que viram online, de acordo com
mensagens posteriormente recuperadas pela escritora Rachel McKibbens, que era irmã
de um dos homens. “O maldito hospital me deixou muito pior. Meus pulmões não
estavam de forma alguma tão ruins quando entrei lá”, escreveu o irmão de McKibbens.
A equipe do hospital, ele estava convencido, estava “através do dinheiro agora”.
À medida que sua saúde piorava, os dois homens buscaram evidências de que os
rumores da mídia social estavam certos, com um atribuindo a menstruação abundante
de sua esposa às vacinas com base em uma falsidade promovida no Instagram. Eles
recomendaram um ao outro tratamentos falsos que circularam no YouTube e no
Facebook. Acima de tudo, eles se encorajaram a resistir aos conselhos de médicos,
autoridades de saúde e até de McKibbens. Seu irmão, com os sintomas piorando, foi
hospitalizado. Mas, certo de que os médicos o estavam envenenando como parte das
conspirações sobre as quais ele tinha ouvido falar várias vezes online, ele recusou o
tratamento e foi embora, ficando em casa. Alguns dias depois, ele morreu ali, sozinho.
Machine Translated by Google

2. Saques e Tiros

À medida que populações inteiras caíam na desinformação sobre saúde naquela primavera
e verão, uma segunda toca de coelho paralela se abriu nas mídias sociais, atraindo jovens
brancos desanimados que buscavam comunidade e propósito. Era um grupo demográfico
que, embora menor do que aqueles que sucumbiam às conspirações da Covid, provaria ser
quase tão perigoso assim que as plataformas fizessem seu trabalho. A direita alternativa
online, antes focada em pouco mais do que memes do Gamergate ou Pepe the Frog, foi
recrutada para um mundo de milícias que se descrevem se preparando para o colapso
social que eles tinham certeza de ser iminente.

Para Steven Carrillo, um sargento da Força Aérea de 32 anos, o deslizamento de bater


no peito em grupos do Facebook sobre violência para sua execução real começou em março
de 2020, quando um outro usuário mandou uma mensagem para ele: “Comece a esboçar
essa operação… 'ma luz verde alguma merda. Ele respondeu: “Parece bom, mano!”

Carrillo chegou aos grupos em meio a uma vida turbulenta. Ele cresceu pobre, passou
entre pais na pequena cidade da Califórnia e avós na zona rural do México. Em 2015, ele
sofreu um traumatismo craniano em um acidente de carro, que embotou sua personalidade
outrora brilhante e, em 2018, perdeu sua esposa para o suicídio. Depois disso, ele entregou
os filhos aos sogros e se mudou para uma van.
“Ele estava completamente desconectado”, disse sua irmã. Mas a Força Aérea o enviou
ao Oriente Médio durante grande parte de 2019. Amigos na base o apresentaram a grupos
do Facebook que se autodenominavam milícias. Na verdade, eram páginas de bate-papo
dedicadas a fantasiar sobre insurreição ou guerra civil. Eles ofereceram aos membros uma
maneira de dar sentido ao mundo, reenquadrando-o dentro da narrativa dos extremistas de
crises individuais respondidas por soluções coletivas, assim como os incels do Reddit
encontraram comunidade ao imaginar uma revolta contra as feministas, ou usuários do 8chan
elogiando atos de genocídio até Brenton Tarrant realizou um na Nova Zelândia. O grupo de
Carrillo havia se nomeado, em uma piscadela irônica semelhante, Boogaloo. Começou como
um meme do 4chan. Os usuários pediram uma insurreição nacional, com o objetivo de
derrubar o governo e criar uma utopia de direita, invocando “Civil War 2: Electric Boogaloo”,
uma peça do filme de dança dos anos 80 Breakin' 2: Electric Boogaloo .

Na primavera de 2020, quando as plataformas deram origem a comunidades que temiam


Machine Translated by Google

bloqueios exatamente como a tomada de poder predita em conspirações virais como as de Plandemic
ou QAnon, algoritmos de mídia social identificaram páginas de milícias outrora obscuras como
Boogaloo como exatamente o tipo de coisa que atrairia esses usuários ainda mais para os mundos
online. As postagens do Boogaloo se espalharam tão rapidamente pelo Facebook, Twitter, Instagram
e Reddit que um grupo de monitoramento de extremismo alertou que “insurgências virais” estavam
“se desenvolvendo à vista de todos”. Os conspiradores da Covid, interligados com as causas da milícia
pelos algoritmos das plataformas, trouxeram os recrutas dessas milícias e uma nova causa urgente,
enquanto as milícias deram aos conspiradores um senso de propósito: um conflito final iminente com o
governo. Crise e solução. Como em movimentos semelhantes de 4chan para o Facebook, Boogaloo e
outras milícias cujos seguidores postaram sobre o início de uma guerra civil pareciam sinalizar
principalmente membros de um grupo, não intenções sinceras. Mas alguns perderam de vista a
diferença; instruções para explosivos caseiros e armas de fogo proliferaram.

Um arquivo “Boogaloo Tactics” compartilhado no Facebook e no Instagram instruía que os “assassinatos”


contra “os lápis” deveriam esperar até que seus “crimes” fossem “provados ao povo”, mas, no entanto,
mais imediatamente, “algumas pessoas têm que ir .” Os membros do Boogaloo começaram a aparecer
em protestos anti-lockdown, fortemente armados, esperando o início do tiroteio.

Ao longo do início de 2020, Carrillo, agora de volta à Califórnia, onde começou a namorar uma
mulher local, passou cada vez mais tempo nas páginas do grupo, adotando o Boogaloo como
identidade. Ele adornou seu perfil no Facebook com memes da milícia e, em março, comprou um
componente AR-15 por meio de um site que anunciava nos grupos do Boogaloo no Facebook e
prometia doar parte de seus lucros para a família de um suposto membro do Boogaloo que havia sido
morto naquele mês. em confronto com a polícia. Algumas semanas depois de sua troca de texto sobre
o planejamento de uma “operação”, Carrillo se juntou a grupos apenas para convidados no Facebook
e WhatsApp para membros locais do Boogaloo, onde planejaram encontros de “treinamento com
armas de fogo” e discutiram planos vagos para desencadear sua guerra civil matando policiais. Um
arquivo de “integração” que ele preencheu em abril o informava, no faz de conta comum a esses grupos
de videogame: “Nossas áreas de operações podem nos levar da sujeira ao centro da cidade em um
piscar de olhos”.

Boogaloo era apenas um grupo de muitos outros como ele. Também naquele mês, ativistas de
armas de extrema direita criaram páginas no Facebook estado por estado chamando os moradores locais.
Machine Translated by Google

para protestar contra as ordens de permanência em casa. Embora os ativistas tivessem


pouco alcance preexistente, seus grupos atraíram 900.000 usuários, um sinal revelador
de promoção algorítmica. Apenas algumas dezenas compareceram a cada manifestação,
algumas carregando fuzis estilo M15. Mas milhares permaneceram ativos nas páginas,
que, com o tempo, se fundiram com as comunidades maiores de reação e conspiração
que as plataformas continuaram reunindo em um todo maior, encorajando essas
identidades e causas a se confundirem.
A violência organizada pelo Facebook tornou-se mais frequente e mais extrema. Em
maio daquele ano, no Arkansas, membros de uma milícia do Facebook invadiram o terreno
da mansão do governador e queimaram sua efígie. Em Washington, os organizadores
insinuaram que uma manifestação culminaria em ataques a cidadãos locais que, segundo
os organizadores aprenderam com registros policiais, denunciaram negócios que violaram
as ordens de fechamento da Covid. Embora os ataques em si nunca tenham se
materializado, 1.500 manifestantes compareceram, muitos deles armados.
As milícias, os conspiradores da Covid e as comunidades pró-Trump simpatizantes
também começaram a assumir a urgência de vida ou morte de outra causa com a qual as
plataformas os interligaram repetidamente: QAnon.
Com a ajuda do algoritmo, a crença QAnon agora infundiu todas essas causas separadas,
assim como Renée DiResta descobriu que os grupos do Facebook apresentam antivaxxers
indistintos com Pizzagate (a conspiração predecessora do QAnon) já em 2016.

Nina Jankowicz, uma pesquisadora de desinformação, tropeçou em um caminho típico


naquele verão. Ela pesquisava no Facebook por “saúde alternativa”, juntava-se a um dos
grupos mais bem classificados e seguia a barra lateral de “grupos relacionados” gerada
por algoritmos do Facebook, que frequentemente levava a páginas Q. Foi uma jornada
breve e brutalmente eficiente que ameaçou prender qualquer um que procurasse remédios
para a Covid em uma época em que a ciência médica ainda não tinha nenhum. O padrão
estava ocorrendo em todas as principais plataformas, convertendo o medo e a confusão
dos americanos primeiro em uma crença de conspiração mais branda, depois em
QAnonismo completo, um grande impulsionador do engajamento nas plataformas.
Canais de bem-estar no YouTube e influenciadores de fitness no Instagram passaram da
astrologia para conspirações de coronavírus para QAnon. A maior rede anti-vacina do
Facebook cheia de assobios de cães Q. O TikTok surgiu com as conspirações do
Pizzagate. Uma TikToker de 20 anos, que ajudou a desencadear o ressurgimento do
Pizzagate, disse que soube disso por meio de um vídeo viral no YouTube. Quando os
produtores de Plandemic lançaram uma sequência, o vídeo foi
Machine Translated by Google

predominantemente enviado por páginas Q.


No início da pandemia, a causa QAnon, em meio a sua tradição e esotérica agora quase
impenetravelmente densa, havia se aguçado em torno de uma crença central: o presidente
Trump e generais leais estavam à beira de um glorioso golpe militar que derrubaria a cabala
que havia orquestrado Pizzagate e que secretamente dominou a vida americana. No expurgo
subsequente, os militares executariam dezenas de milhares de democratas traidores,
financistas judeus, burocratas federais e liberais culturais no National Mall. Os seguidores de
Q, a maioria dos quais se reuniam no Facebook ou no YouTube e nunca se aventuraram nos
fóruns hardcore onde os “drops” de Q apareceram inicialmente, foram informados de que
desempenhavam um papel crucial, mesmo que apenas seguindo em busca de pistas e
ajudando a espalhar a palavra.

Naquele verão, noventa e sete crentes professos do QAnon concorreriam às primárias do


Congresso; vinte e sete deles ganhariam. Dois concorreram como independentes. Os outros
25 eram candidatos republicanos em boa posição para a Câmara dos Representantes. Memes
e referências QAnon dominaram especialmente as páginas da milícia, aumentando sua
sensação de que a violência seria justa e inevitável.

No final de maio, Ivan Hunter, o membro do Boogaloo com quem Carrillo havia enviado
uma mensagem de texto sobre uma “operação”, dirigiu com vários outros para Minneapolis,
onde estavam ocorrendo protestos contra o assassinato policial de George Floyd, um homem
negro desarmado. Os homens se reuniram do lado de fora de uma delegacia de polícia que
havia sido tomada por algumas centenas de manifestantes. Hunter gritou: “Justiça para Floyd”,
ergueu um rifle estilo Kalashnikov e disparou treze vezes contra o prédio. Ninguém ficou ferido.
Ele provavelmente esperava, como Boogaloos costuma escrever online, provocar violência
entre manifestantes e policiais que se transformaria em guerra.
Alguns dias depois, em 28 de maio, Carrillo postou um vídeo dos protestos do Black Lives
Matter em um grupo Boogaloo no Facebook que ele frequentava. “Agora está na nossa costa,
isso precisa ser nacional… de matar para desencadear o conflito total que desejavam. Ele
acrescentou: “Temos multidões de pessoas furiosas para usar a nosso favor”. Outro usuário
local, Robert Justus, respondeu: “vamos dançar”. Naquela noite, Carrillo pediu a namorada em
casamento com um anel de silicone de vinte e cinco dólares, que prometeu substituir por um
diamante, e fez as malas para partir pela manhã.
Machine Translated by Google

Páginas de Boogaloo como a dele não geraram por conta própria a sensação de
conflito civil iminente. Eles o absorveram das plataformas de mídia social, que estavam
impregnadas nele. Naquela mesma noite, 28 de maio, Trump, dirigindo e alimentando
esse sentimento, postou no Twitter e no Facebook que, se as autoridades em
Minneapolis não reprimissem os protestos do Black Lives Matter, ele “enviaria a Guarda
Nacional e faria o trabalho direito. .” Ele acrescentou: “Qualquer dificuldade e
assumiremos o controle, mas, quando os saques começarem, os tiros começarão”.
Sua última frase, ecoando a infame promessa de um chefe de polícia de Miami em
1967 de reprimir os bairros negros, parecia encorajar a violência letal em um momento
em que as tensões eram altas, os confrontos nas ruas aumentavam e tanto a polícia
quanto as milícias de extrema-direita estavam em posição de cumprir.
O Twitter adicionou uma mensagem de alerta à postagem de Trump, dizendo que
ela violava as regras contra “glorificação da violência” e limitava a circulação da
postagem. Mas Zuckerberg anunciou que, embora considerasse o post “divisivo e
inflamatório”, o Facebook o deixaria de lado. “Achamos que as pessoas precisam saber
se o governo está planejando usar a força”, explicou ele. Foi uma justificativa estranha
- amplificar o incitamento para o bem da consciência pública. Zuckerberg ligou
pessoalmente para Trump para reiterar as políticas do Facebook. Ele convocou uma
prefeitura em toda a empresa para defender sua decisão, que os funcionários
denunciaram internamente.
As tendências das plataformas estavam afetando a todos, não apenas à direita pró-
Trump. No mesmo dia da postagem de “saques e tiros” de Trump, um repórter de
Minneapolis publicou fotos dos protestos do Black Lives Matter na cidade. Usuários de
esquerda do Twitter questionaram se as fotos poderiam colocar os manifestantes em
risco de prisão. Quaisquer que sejam os méritos da questão, a indignação de uma
superioridade a dominou. Outros usuários ganharam mais atenção ao dizer que as
fotos, mais do que apenas arriscar a prisão, garantiram os assassinatos dos
manifestantes. Eles citaram uma conspiração há muito desmascarada, alegando que
os manifestantes fotografados em comícios anteriores do BLM tendiam a morrer
posteriormente em circunstâncias misteriosas. A indignação aumentou como uma bola
de neve, com dezenas de milhares de usuários acusando o fotógrafo de colocar deliberadamente em perig
Muitos expressaram o desejo de vê-lo ferido ou morto; outros se comprometeram a
realizá-lo. Alguns divulgaram seu número de telefone e endereço residencial. Naquela
noite, uma personalidade esquerdista do Twitter postou fotos das placas do carro de
um repórter da CNN, dizendo que pertencia a “provocadores mentirosos” infiltrados no
BLM em nome da polícia. A postagem ganhou 62.000 interações, provavelmente atingindo
Machine Translated by Google

milhões. Naquele fim de semana, manifestantes atacaram um cinegrafista da Fox News em


DC, enquanto outros invadiram a sede da CNN em Atlanta. Incidentes de manifestantes
atacando repórteres, embora menos frequentes do que ataques a repórteres pela polícia,
continuaram durante todo o verão.
Na noite seguinte, 29 de maio, Carrillo e Justus dirigiram uma van até os arredores de
um protesto do BLM em Oakland. Depois de circular, Carrillo subiu na parte de trás, abriu a
porta da van e apontou um rifle de alta potência para dois guardas da Segurança Interna do
lado de fora de um prédio federal. Ele atirou em ambos, matando um deles. Ele e Justus
abandonaram a van, que mais tarde foi encontrada cheia de armas e equipamentos para
fabricação de bombas.
Na medida em que os motivos de Carrillo eram coerentes, ele aparentemente esperava
que seu ataque fosse confundido com o trabalho de Black Lives Matter e desencadeasse
mais violência. Graças às tendências de afirmação partidária da mídia social, ele conseguiu
pelo menos seu primeiro desejo. A polícia ainda nem havia identificado Carrillo publicamente
quando as páginas pró-Trump do Facebook ganharam centenas de milhares de interações
ao culpar a morte do oficial de Oakland por “motins” do Black Lives Matter, “terroristas
domésticos de esquerda” e “outra cidade democrata mal administrada. ” Eles o descreveram
como o mais recente de uma onda de violência alimentada por “democratas nacionais, mídia
corporativa e funcionários de Biden”, uma extensão da tirania de “bloqueios democratas” e
minorias fora de controle.

Nos dias seguintes, Carrillo trocou mensagens no WhatsApp com outros membros do
grupo, incluindo Hunt, que estava escondido depois de atirar no escritório da delegacia de
Minneapolis, para planejar mais violência. Mas uma semana depois de seu ataque, a polícia
rastreou Carrillo até sua casa em uma cidade rural chamada Ben Lomond. Quando chegaram,
ele estava em uma encosta próxima, esperando em uma emboscada. Ele disparou
repetidamente um AR-15 caseiro e arremessou explosivos caseiros, matando um policial e
ferindo vários outros. Ele havia enviado mensagens a seus amigos, pedindo reforços, mas
depois de meses de conversas encorajadoras, eles o ignoraram. Carrillo, ferido pelo tiro de
retorno, fugiu em um carro roubado, mas foi rapidamente capturado. A polícia descobriu que
ele havia escrito “boog” com o próprio sangue no capô. O tiroteio ocorreu a menos de 70
quilômetros do campus do Facebook.

Carrillo, que permanece sem remorso, casou-se mais tarde, em uma cerimônia na prisão,
com a namorada a quem havia pedido em casamento na véspera de seus assassinatos.
Seu amigo Robert Justus, que também foi preso, disse aos promotores que
Machine Translated by Google

Carrillo o forçou a ir junto. Em janeiro de 2022, a irmã de um dos policiais que ele
assassinou processou o Facebook, alegando que a empresa permitiu conscientemente
que seus algoritmos promovessem e facilitassem o extremismo violento que levou à morte
de seu irmão. Embora as chances do processo sejam baixas, representa uma sensação
de que a aparente cumplicidade do Vale do Silício na desintegração do país em 2020 não
pode ser ignorada - uma sensação que, poucas horas após o crime de Carrillo, já havia
começado a se estender às próprias forças de trabalho das empresas.

3. Atrito

NA SEGUNDA-FEIRA, 1º DE JUNHO, uma semana após o assassinato de George Floyd


e três dias após o ataque de Carrillo, algumas centenas de funcionários do Facebook
enviaram mensagens de ausência temporária anunciando que, por um dia, se recusariam
a trabalhar. Alguns assinaram petições exigindo mudanças de pessoal e políticas de seus chefes.
Muitos, em um primeiro momento, condenaram publicamente seu empregador. “A inércia
do Facebook em derrubar a postagem de Trump que incita à violência me deixa com
vergonha de trabalhar aqui”, tuitou Lauren Tan, uma engenheira. “Isso não está certo.
Silêncio é cumplicidade.”
A paralisação foi nominalmente para protestar contra a recusa do Facebook, alguns
dias antes, de remover a postagem de Trump ameaçando fazer a Guarda Nacional atirar
em manifestantes de justiça racial. Mas mesmo isso foi, como muitos disseram, apenas a
afronta final. Em um momento de violência crescente e desinformação mortal sobre saúde,
o Vale do Silício, depois de recrutar os maiores talentos de engenharia do mundo com a
promessa de que eles ajudariam a salvar o mundo, parecia estar incentivando, até mesmo
conduzindo, males sociais que ameaçavam destruir a América. assim como fizeram em
Mianmar e Sri Lanka. Como que para enfatizar o argumento dos funcionários, no dia da
paralisação, a história dominante no Facebook foi a desinformação que culpava o Black
Lives Matter pelo duplo assassinato de Carrillo.
A paralisação marcou o início de uma batalha pública de alto risco entre os chefes
corporativos do Valley e uma aliança principalmente nova se levantando contra eles: seus
próprios funcionários, seus próprios anunciantes, proeminentes ativistas dos direitos civis
e, mais tarde, líderes do partido democrata. Isso era categoricamente diferente de enfrentar
analistas externos ou programadores dissidentes que haviam, até então, liderado as
críticas ao Valley. Foi um desafio significativo aos principais interesses corporativos do
Vale, colocados, de acordo com seus participantes, em
Machine Translated by Google

em nome de um mundo que cada vez mais via essas empresas como uma ameaça perigosa.
As preocupações com a desinformação eleitoral vinham aumentando há meses.
No final de maio, um dia após o assassinato de Floyd, Trump postou uma série de falsidades se
opondo às políticas de votação antecipada da Califórnia, escrevendo: “Esta será uma eleição
fraudulenta”. Depois de anos habilitando Trump, o Twitter finalmente agiu, mais ou menos. Ele
anexou uma pequena caixa intitulada “Obtenha os fatos”, com um link para uma página separada
que verificava gentilmente as alegações de Trump. Foi em grande parte simbólico.

Após a paralisação do Facebook, em uma pomada aos funcionários, Zuckerberg anunciou que
apoiava o BLM. No entanto, naquele mesmo dia, a postagem mais popular de sua plataforma foi um
vídeo da personalidade de direita Candace Owens afirmando que “a brutalidade policial com
motivação racial é um mito” e que George Floyd era “um criminoso” e “horrível ser humano”. Foi visto
94 milhões de vezes, quase o mesmo que o Super Bowl.

Ao longo de junho, surgiram histórias de Joel Kaplan, o lobista conservador na folha de


pagamento do Facebook, diluindo as políticas da empresa de maneira a proteger Trump das regras
contra a desinformação, efetivamente incentivando os esforços do presidente de usar a plataforma
para pressionar as autoridades estaduais a suprimir a votação e interromper o eleição. Para muitos,
foi a prova de que, mesmo com tudo em jogo, não se pode confiar no Vale do Silício para fazer a
coisa certa. Grupos de direitos civis lideraram uma campanha, Stop Hate for Profit, pressionando os
anunciantes a boicotar o Facebook. Várias empresas e agências de publicidade obedeceram. Alguns
puxaram orçamentos de anúncios no valor de $ 100.000 por dia.

É improvável que isso prejudique a receita de anúncios de US$ 80 bilhões por ano do Facebook.
Mas a ameaça aos seus resultados inspirou algo como ação, e não apenas no Facebook. No final de
junho, o Facebook e o Instagram baniram o Boogaloo de suas plataformas. O YouTube removeu
vários extremistas brancos proeminentes, incluindo o organizador do Unite the Right, Richard
Spencer - quase três anos após os eventos em Charlottesville. Talvez o mais significativo seja o fato
de o Reddit ter fechado duas mil comunidades que dizia terem se envolvido em discurso de ódio,
incluindo The_Donald, o ponto de encontro não oficial da extrema-direita online. As repressões foram
um ponto de virada, o reconhecimento implícito de que hospedar o ódio era efetivamente uma política
de apoio à sua disseminação. Esse bom discurso não iria, nessas plataformas, derrotar naturalmente
o mau. Ainda assim, as remoções vieram, como tantas antes, tarde demais. O insurrecionista,
nacionalista branco
Machine Translated by Google

a identidade e o modo de pensar, juntamente com as dezenas de conspirações e falsidades


que os justificavam, já eram endêmicos, arraigados nas comunidades maiores do mundo
real com as quais as plataformas os inculcaram com tanta eficácia.

Os críticos do Valley continuaram pressionando por uma mudança mais profunda. Um


programador do Facebook, cujo último dia na empresa caiu em 1º de julho, postou uma
mensagem de despedida de 24 minutos, alertando: “O Facebook está prejudicando as
pessoas em escala”. A empresa estava “caindo na armadilha de nossa ideologia de
liberdade de expressão”, disse o programador, ladeado por bonecos de pelúcia e vestindo
uma série de camisetas coloridas do Facebook. “Estamos falhando.
E o que é pior, consagramos essa falha em nossas políticas.”
A crescente ameaça de manchar a empresa aos olhos dos anunciantes foi suficiente
para que Zuckerberg e Sandberg se reunissem, no início de julho, com os grupos de
boicote. Os líderes dos direitos civis ficaram furiosos, dizendo aos repórteres que se sentiam
patrocinados por promessas vazias e alimentados por reivindicações de progresso que
pareciam deliberadamente não entender a tecnologia da própria empresa. O relato deles
soava familiar para qualquer repórter que tivesse entrevistado os formuladores de políticas do Facebook.
Coincidentemente, naquela semana, foi publicada uma auditoria independente das
políticas e práticas do Facebook, que estava sendo elaborada há dois anos. Sob pressão
pública sobre seu papel nas eleições de 2016 e nos subsequentes escândalos de
privacidade, o Facebook o encomendou em 2018 a um escritório de advocacia de direitos
civis, mantendo-o desde então como prova de seu compromisso com a melhoria. Mas os
auditores, com acesso que o Facebook havia sugerido que provaria que seus críticos
estavam errados, concluíram que seus algoritmos promoviam polarização e extremismo,
suas políticas permitiam que a desinformação eleitoral corresse solta e suas práticas
internas permitiam pouca sensibilidade aos danos do mundo real. Essas não eram
acusações novas. Mas, agora cobrados pelos próprios auditores escolhidos a dedo pelo
Facebook, com base em parte em informações internas e feitos não em nome de técnicos
dissidentes ou acadêmicos obscuros, mas por uma voz respeitada da lei de direitos civis,
eles tiveram um peso especial com o público como confirmação oficial além do que havia
venha antes. O relatório colocou os líderes do Valley na defensiva: eles podem descartar
Guillaume Chaslot como lesado ou Jonas Kaiser como equivocado, mas não podem bater
a porta na cara de respeitados advogados de direitos civis sem correr o risco de mais
rebeliões por parte de funcionários ou anunciantes.

Finalmente, em agosto, o Facebook e o Twitter fizeram o antes impensável:


Machine Translated by Google

eles deletaram uma postagem de Trump. Ele havia publicado um vídeo chamando as crianças
de “quase imunes” à Covid. Pôr em risco a saúde das crianças foi, finalmente, uma ponte
longe demais. O YouTube seguiu o exemplo. (As empresas podem ter esperado que isso
servisse como um tiro de advertência, mas não alterou seu comportamento. Dois meses e
muitas mentiras depois, eles retirariam outro de seus cargos praticamente pelos mesmos
motivos.) Enquanto isso, Trump continuou para se beneficiar da promoção algorítmica cujo
valor excedia em muito o fardo de qualquer tapa no pulso: seus números de engajamento no
Facebook ultrapassaram os de Joe Biden por quarenta a um naquele último mês do verão,
mesmo quando Trump ficou atrás nas pesquisas - mais uma prova de que as plataformas
não refletem a realidade, mas criam a sua própria.
Em setembro, os Estados Unidos caminhavam para uma eleição em que a própria
democracia parecia estar em jogo. Trump e alguns de seus aliados insinuaram que iriam
intervir contra a votação pelo correio, que deveria favorecer os democratas. Eles também
sugeriram que esperavam que a maioria conservadora da Suprema Corte anulasse uma
derrota. E que eles podem se recusar a entregar o poder. O medo da supressão do eleitor
durante a eleição e da violência dos vigilantes depois dela foi generalizado. A presidente da
Câmara, Nancy Pelosi, lamentando a disseminação da desinformação do QAnon no
Facebook, disse: “Não sei como o conselho de administração do Facebook ou seus principais
funcionários podem se olhar no espelho. Eles escolheram claramente. O plano de negócios
deles é ganhar dinheiro com veneno, e esse é o caminho que eles escolheram seguir.”

Sob pressão, o Facebook anunciou naquele mês que impediria os candidatos de declarar
falsamente a vitória e removeria todas as postagens que citassem a Covid para desencorajar
a votação pessoal. Ele impôs uma penalidade visivelmente mais leve para uma das táticas
favoritas de Trump: “Conteúdo que busca deslegitimar o resultado da eleição” ou “a
legitimidade dos métodos de votação” seria meramente anexado a um “rótulo informativo”.

O Facebook e o Instagram também não aceitariam novos anúncios políticos na semana


anterior à eleição, impedindo qualquer tentativa de colocar conteúdo de manipulação de
eleitores nas plataformas no último minuto. O Instagram foi além. Até que a eleição
terminasse, os usuários norte-americanos que seguissem uma hashtag, qualquer que fosse
o assunto, não seriam mais capazes de classificar as postagens pelas mais recentes.
“Estamos fazendo isso para reduzir a disseminação em tempo real de conteúdo potencialmente
prejudicial que pode surgir na época da eleição”, disse um comunicado à imprensa. Ambas
as mudanças, embora pequenas, ultrapassaram um patamar importante: limitar as características básicas dos pro
Machine Translated by Google

para a melhoria da sociedade.


A um mês da eleição, o Twitter anunciou as mudanças mais substanciais de qualquer
plataforma. Contas de muitos seguidores, incluindo políticos, seriam submetidas a regras mais
rígidas do que outras – o oposto das dispensas especiais do Facebook. As postagens que quebram
as regras seriam removidas ou ocultadas atrás de uma etiqueta de aviso. Trump já tinha quatorze
desses rótulos, que funcionavam como verificações de fatos e quebra de velocidade, diminuindo a
facilidade com que os usuários podiam lê-los ou compartilhá-los. Posteriormente, o Twitter proibiu
os usuários de retuitar ou curtir as postagens ofensivas de Trump. Sem esses elementos sociais,

o impacto de seus tuítes pareceu cair consideravelmente.

O Twitter também adicionou um elemento há muito solicitado por especialistas externos: atrito.
Normalmente, os usuários podem compartilhar uma postagem pressionando “retweet”, promovendo-
a instantaneamente em seus próprios feeds. Agora, pressionar “retweetar” abriria um prompt
instando o usuário a adicionar alguma mensagem própria. Isso forçou uma pausa, reduzindo a
facilidade de compartilhar. A escala da intervenção foi pequena, mas seu efeito foi significativo: os
retuítes caíram 20% no geral, disse a empresa, e a disseminação de desinformação com eles. O
Twitter desacelerou deliberadamente o engajamento, violando seu próprio interesse financeiro
junto com décadas de dogma do Vale do Silício insistindo que mais atividade online só poderia ser
benéfica. O resultado, aparentemente, foi tornar o mundo menos desinformado e, portanto, melhor.

O mais surpreendente é que o Twitter desativou temporariamente o algoritmo que enviava


tweets especialmente virais para os feeds de notícias dos usuários, mesmo que eles não seguissem
o autor do tweet. A empresa chamou o esforço para “desacelerar” a viralidade como um “sacrifício
valioso para encorajar uma amplificação mais cuidadosa e explícita”. Esta foi, pelo que pude
perceber, a primeira e única vez que uma grande plataforma desligou voluntariamente seu próprio
algoritmo. Era uma admissão implícita exatamente do tipo que as empresas haviam evitado por
tanto tempo: que seus produtos poderiam ser perigosos, que as sociedades ficariam mais seguras
com alguns aspectos desses produtos desligados e que isso estava facilmente ao seu alcance.

Então vieram as repressões do QAnon. Banimentos parciais no início do ano, removendo


contas ou grupos selecionados, mostraram-se ineficazes. Por fim, o Facebook e o Instagram
impuseram proibições totais ao movimento em outubro, com o Twitter eliminando gradualmente as
contas vinculadas ao Q. A CEO do YouTube, Susan Wojcicki, disse apenas que o YouTube
removeria vídeos que acusassem pessoas
Machine Translated by Google

de envolvimento em conspirações relacionadas a Q para assediá-los ou ameaçá-los. O


ajuste estreito da regra foi a única mudança política significativa do YouTube que antecedeu
a eleição. Mas, como aconteceu com o Boogaloo e tantas outras correntes sombrias, era
tarde demais. Depois de anos dessas comunidades extremistas incubadas nas plataformas
e se cultivando em movimentos de massa, a imposição de proibições simplesmente as
transferiu para plataformas mais privadas, onde estavam livres para mergulhar ainda mais
no extremismo. Mesmo nas plataformas convencionais, muitos continuaram à espreita de
alguma forma. Também em outubro, oficiais do FBI prenderam vários membros do Boogaloo
que estavam estocando armas e explosivos para uma conspiração para sequestrar e
potencialmente assassinar o governador de Michigan. Eles se organizaram em parte em um
grupo privado no Facebook.
As naturezas mais amplas das plataformas permaneceram inalteradas. Nas semanas
anteriores à eleição, o Facebook se encheu de apelos à violência contra os inimigos de
Trump. Pesquisadores digitais identificaram pelo menos 60.000 postagens invocando atos
de violência política: “Os democratas terroristas são o inimigo e todos devem ser mortos”.
“Na próxima vez que virmos SChiff, deve ser ele pendurado em um laço #deathforschiff.” (Adam
Schiff é um congressista democrata que liderou o primeiro esforço de impeachment contra
Trump.) Outros 10.000 pediram uma insurreição armada se Biden vencesse. Assombrosos
2,7 milhões de postagens em grupos políticos instavam a violência em termos mais gerais,
como “mate-os” ou “atire neles”.

Era exatamente o que eu tinha visto no Sri Lanka e em Mianmar – um canto crescente
por sangue, explícito e em uníssono – pouco antes de essas sociedades entrarem em
colapso nos próprios atos de violência que haviam ameaçado em grande número. Pensei em
Sudarshana Gunawardana, o ministro do governo do Sri Lanka que, observando o incitamento
propagado pelo Facebook invadir seu país, impotente lançou advertências aos representantes
distraídos da empresa.
Depois que os tumultos finalmente diminuíram, ele lamentou: “Somos uma sociedade, não
somos apenas um mercado”. Agora era a vez dos americanos implorarem ao Vale do Silício,
com sucesso limitado, para lembrar, antes que fosse tarde demais, que não éramos apenas
um mercado para eles explorarem.
No dia da eleição, dois candidatos Q ganharam cadeiras no Congresso: Lauren Boebert,
do Colorado, e Marjorie Taylor Greene, da Geórgia. Greene também repetiu as afirmações
de Alex Jones de que tiroteios em escolas foram encenados e, lembrando que a violência
política era fundamental para a causa, uma vez gostou de um post no Facebook pedindo
que Barack Obama fosse enforcado e outro instando
Machine Translated by Google

que a presidente da Câmara, Nancy Pelosi, deveria levar "uma bala na cabeça".
A ascensão de QAnon, no entanto, foi ofuscada para os americanos por outro desenvolvimento:
Trump havia perdido. Dois dias após a votação, com a maioria dos meios de comunicação ainda não
convocando formalmente a disputa, o Facebook anunciou que havia removido um grupo de desinformação
eleitoral. Chamado de “Stop the Steal”, afirmava que a suposta derrota de Trump era na verdade um
golpe de forças sombrias.
A página ganhou 338.000 membros em menos de um dia, tornando-se uma das de crescimento mais
rápido na história do Facebook. Ele se encheu de conspirações, apelos à violência e, especialmente,
invocações de QAnon.
Ainda assim, com Trump humilhado e prestes a deixar o cargo, talvez o extremismo online que ele
encorajou por muito tempo possa se dissipar também. Afinal, o Vale do Silício sempre disse que suas
plataformas apenas refletiam sentimentos e eventos do mundo real. Talvez o pior já tenha passado.

4. A Grande Mentira

Durante todo aquele outono, Richard Barnett, um empreiteiro de 60 anos e entusiasta de armas da
pequena cidade de Arkansas, caiu na toca do coelho. Um obcecado pelo Facebook, ele republicou
repetidamente as conspirações já virais de Covid, antivacinas e pró-Trump que circulavam pela
plataforma - um superposter típico do Facebook, não muito diferente de Rolf Wassermann, o artista
alemão que ampliou tudo o que a plataforma colocou na frente de ele. Mas Barnett estava absorvendo
um ecossistema de mídia social agora muito mais tóxico do que o da Alemanha. Ele participou de um
comício organizado pelo Facebook em sua capital estadual em setembro, carregando um AR-15, para
protestar contra as restrições da Covid. Ele passou a acreditar, disse um amigo mais tarde, que poderes
sombrios pretendiam explorar a pandemia para inserir microchips na testa dos cidadãos, um vago eco
das crenças plandêmicas e QAnon. Ele organizou um grupo de apoio à instituição de caridade Save Our
Children, que havia sido cooptada por QAnon por seu trabalho contra o tráfico de crianças. Em uma foto
de um encontro em outubro, ele e uma dúzia de outros seguravam fuzis de estilo militar em frente a uma
placa que dizia PEDÓFILOS MORTOS NÃO REFENDEM, uma referência codificada aos democratas.

Ele era típico da horda de usuários de mídia social - alguns afiliados a milícias ou grupos QAnon,
alguns, como Barnett, apenas montando o algoritmo - que estiveram, ao longo de 2020, trabalhando
para as grandes batalhas que suas conspirações disseram que eram gloriosamente quase. Quando
viralizou no Facebook
Machine Translated by Google

postagens afirmaram que a vitória de Biden foi fraudulenta, eles estavam prontos para acreditar,
mesmo para atuar.

“Precisamos acabar com esse governo corrupto”, postou um usuário, três dias após a
eleição, em um grupo de milícia no Facebook, cujas dezenas de milhares de membros já se
autodenominavam “prontos e armados”. Eles se mudaram para uma página privada, para
melhor planejar. “Se eles não forem eliminados agora, eles nos eliminarão”, escreveu um deles.
Outro respondeu: “Hora de derrubá-los”.

A milícia e os grupos Q, com toda a sua influência nas plataformas, eram apenas uma
facção pequena e hipercomprometida de usuários pró-Trump. Mas os sistemas das plataformas
começaram rapidamente a atrair massas mais amplas para os extremistas. E eles fizeram isso
promovendo conteúdo que promovia a mesma mentira que Trump estava usando para tentar
permanecer no cargo e que animava o grupo Stop the Steal rapidamente fechado: Trump havia
vencido, os democratas haviam instituído fraude eleitoral em massa e os patriotas teriam que
derrubar os resultados falsos. Ficou conhecido como a Grande Mentira. É impossível saber ao
certo até onde teria ido sem as redes sociais. Mas as plataformas o promoveram em uma escala
que de outra forma seria impossível e, talvez de forma mais poderosa, treinaram os usuários
para repeti-lo uns aos outros como uma verdade urgente. Na semana após a eleição, os vinte
posts mais engajados no Facebook contendo a palavra eleição foram todos escritos por Trump.
Todos os vinte carregavam uma etiqueta chamando a postagem de enganosa, o que teve pouco
efeito aparente. Suas postagens representaram 22 das 25 postagens mais engajadas do
Facebook nos Estados Unidos.

Rumores validando a mentira foram enviados de forma viral repetidas vezes. Biden admitiu
que a fraude eleitoral foi generalizada, disseram aos usuários. As cédulas democratas na
Pensilvânia carregavam os nomes de pessoas mortas. Um canal de direita no YouTube relatou
que funcionários eleitorais de Detroit foram pegos carregando malas com cédulas fraudulentas.
Outro disse a seus 1,8 milhão de assinantes que as pesquisas haviam retirado seus anúncios
de que Biden havia vencido. (Quando um repórter perguntou ao operador do canal por que o
YouTube não aplicou suas próprias regras de desinformação eleitoral contra ele, ele respondeu:
“O YouTube tem sido ótimo.”) Uma personalidade do Twitter inventou relatos de cédulas de
Trump sendo “despejadas” em Michigan. Uma conta proeminente de desinformação,
@Breaking911, anunciou que um carteiro desonesto havia fugido para o Canadá com cédulas
roubadas.
Machine Translated by Google

Em meados de novembro, os pesquisadores do Facebook fizeram uma descoberta


surpreendente: 10% de todas as visualizações de conteúdo político nos Estados Unidos,
ou 2% das visualizações gerais, eram de postagens alegando que a eleição havia sido
roubada. Em uma plataforma tão vasta, composta por bilhões de postagens diárias
abrangendo todas as notícias de todos os canais de todas as cidades, bilhões de grupos
de discussão sobre todos os tópicos concebíveis, bate-papo, fotos de família, listas de
empresas, a totalidade da experiência humana, para uma única declaração - especialmente
uma declaração perigosamente falsa - ultrapassar tanto da cacofonia normal foi chocante.

O YouTube não era melhor. A Newsmax TV, um canal que promove fortemente
conspirações de fraude eleitoral democrata, viu suas visualizações dispararem de 3
milhões em outubro para impressionantes 133 milhões em novembro. Chaslot, mais uma
vez rastreando as recomendações do YouTube, descobriu que a plataforma estava
empurrando o Newsmax para as pessoas depois que elas assistiram aos principais meios
de comunicação como a BBC, canais de esquerda e até o The Ellen DeGeneres Show.
De repente, o Newsmax estava no top 1% dos canais mais recomendados do YouTube.
Chaslot encontrou o mesmo padrão com a New Tang Dynasty TV, uma fossa de
desinformação eleitoral pró-Trump dirigida pelo movimento religioso Falun Gong, cuja
audiência explodiu por um fator de dez. Os vídeos do YouTube promovendo a Grande
Mentira foram vistos 138 milhões de vezes na semana seguinte à eleição. Em comparação,
7,5 milhões de pessoas assistiram à cobertura da noite eleitoral em todas as principais
redes de TV. No início de dezembro, alguns dias depois que Chaslot divulgou suas
descobertas, o YouTube finalmente anunciou que removeria as falsas alegações de
fraude eleitoral – mas, estranhamente, não removeria os vídeos falsos já existentes e não
puniria a quebra de regras até depois de 20 de janeiro.
A plataforma continuou saturada de mentiras eleitorais. Qualquer um que recebesse
notícias nas mídias sociais tinha todos os motivos para concluir, como Richard Barnett, o
superusuário do Arkansan, que “montanhas de evidências”, como ele escreveu em sua
página no Facebook, mostravam que Trump havia de fato vencido. Barnett ampliou a
conspiração para seus amigos, atraindo sua indignação como a mentira envolveu a dele,
uma engrenagem obediente na máquina de mídia social.
Em 19 de dezembro, um mês e meio após a eleição, Trump twittou: “Grande protesto
em DC em 6 de janeiro. Esteja lá, será selvagem! O Congresso deveria certificar a vitória
de Biden naquele dia. Trump estava pressionando os legisladores a rejeitar os votos
eleitorais de Biden, anulando sua vitória em um golpe de estado eficaz. Alguns legisladores
republicanos já haviam sinalizado que
Machine Translated by Google

concordaria em fazê-lo, e dezenas acabaram concordando. Talvez um comício na Casa


Branca, argumentaram Trump e seus aliados, pudesse pressionar os redutos.
Online, muitos dos apoiadores de Trump interpretaram sua mensagem como uma
validação de tudo o que vinham dizendo uns aos outros há meses. A cabala democrata
de abuso de crianças estava prestes a ser exposta, provavelmente executada. Trump
chamaria os militares, e milícias tementes a Deus deveriam estar lá para apoiá-lo.
“#Patriots precisam ser tão violentos quanto BLM/Antifa! Esse é o nosso sinal!!” um
membro dos Proud Boys, um grupo nacionalista branco, escreveu no Parler, um clone
do Twitter que se tornou favorito da extrema direita após as proibições das plataformas
convencionais. No TheDonald, um site de bate-papo baseado na agora proibida
subseção do Reddit, mais de 80% das discussões referentes ao evento de 6 de janeiro
incluíram apelos à violência. Alguns postaram mapas do prédio do Capitólio, marcando
túneis e entradas.
No final de dezembro, muitos usuários estavam convergindo em torno de um plano.
Alguns trariam armas e explosivos para Washington. Outros instigariam uma multidão
grande o suficiente para invadir a polícia do Capitólio. Eles invadiriam o prédio, impedindo
a certificação do voto à força. E então, como escreveu um usuário do Parler: “Vamos
matar o Congresso”. Todo um universo de grupos do Facebook, crescendo como um só,
promoveu o comício de Trump como a grande batalha para a qual eles estavam se
preparando. Memes semelhantes a panfletos, onipresentes na plataforma, incitavam o
comparecimento, muitas vezes trazendo slogans de milícias indicando o início de uma
revolta armada. Muitos incluíam slogans do QAnon chamando-o de “a tempestade”, o
expurgo encharcado de sangue que Q havia predito. E eles carregavam uma hashtag
que ecoava os planos dos fóruns de extrema direita aos quais muitos dos grupos se
vinculavam: #OccupyCongress.
“Este é o NOSSO PAÍS!!!” Barnett escreveu em sua página do Facebook alguns dias
antes do Natal, pedindo aos seguidores que se juntassem a ele no comício. No mesmo
dia, ele postou uma foto sua portando um rifle, junto com uma legenda dizendo que ele
veio ao mundo chutando e gritando, coberto de sangue, e estava disposto a deixá-lo do
mesmo jeito. Alguns dias depois, em 2 de janeiro, ele carregou uma placa com a
inscrição “Banana Republic USA” para um comício “Stop the Steal” em sua pequena
cidade natal no Arkansas, onde contou a um repórter sobre suas ambições de
restabelecer a suposta vitória de Trump. “Se você não gosta, mande alguém atrás de
mim, mas não vou cair fácil.”
Como em tantos casos anteriores, seja com incels ou Boogaloos, o que começou
como fanfarronice online para encontrar comunidade em meio a
Machine Translated by Google

a desorientação tornou-se, em plataformas que premiavam a escalada e


criavam um falso consenso em torno das visões mais extremas, uma vontade
sincera de ação. “Hoje tive uma conversa muito difícil com meus filhos, que
papai pode não voltar de DC”, escreveu um usuário do TheDonald um dia antes
do comício. Sua mensagem, votada por 3.800 usuários, dizia que pretendia
cumprir seu juramento militar de “defender meu país de todos os inimigos, tanto
estrangeiros quanto domésticos”.
O fórum se encheu de outras histórias como essas. Eram mensagens de
martírio, quase ecos palavra por palavra daquelas feitas, em fitas de vídeo e
postagens nas redes sociais, por homens-bomba jihadistas no dia anterior ao
ato. “Eu disse adeus à minha mãe hoje. Eu disse que tinha uma vida boa”,
escreveu outro. “Se nossos 'líderes' fizerem a coisa errada e tivermos que
invadir o Capitol, eu farei isso. Vejo vocês lá pedes ”, escreveu ela, encerrando
com uma referência ao apelido inspirado no YouTube e no Reddit que uniu a
comunidade por anos. “Será a honra da minha vida lutar ao seu lado.” Os
usuários postaram dezenas de respostas de apoio: Esses prédios pertencem a
nós… São as câmaras da Câmara que devem ser invadidas se for o caso, não
o WH… Traga a madeira, construa a forca fora do congresso, esteja
mentalmente preparado para retirá-los e amarrá-los eles para cima... Estarei
aberto carregando meus amigos também. Não há policiais suficientes em DC
para impedir o que está por vir.
Barnett chegou cedo ao terreno da Casa Branca em 6 de janeiro. Esperando
que Trump aparecesse, ele pegou o telefone e postou um vídeo no Facebook.
"Estamos chegando juntos", disse ele. “Prepare-se para a festa.” Por volta do
meio-dia, ao sul da Casa Branca, Trump começou a falar. Ao encerrar seu
discurso, ele disse à multidão: "Vamos caminhar até o Capitólio", dando a
entender que seria o próximo passo em seu esforço, agora com semanas de
duração, para impedir o Congresso de certificar os votos eleitorais, como estava
fazendo naquele momento. “Porque você nunca vai retomar nosso país com
fraqueza. Você tem que mostrar força e tem que ser forte”, disse Trump, com
um rugido de aprovação. Milhares cruzaram para o Capitólio, mas sem Trump,
que, apesar de garantir à multidão “estarei lá com vocês”, voltou à Casa Branca
para assistir pela TV.
Afinal, o outro líder da insurreição, talvez seu verdadeiro líder, já estava no
chão, enfiado nos bolsos de todos os participantes que carregavam
smartphones. 6 de janeiro foi o ápice do trumpismo, sim, mas
Machine Translated by Google

também de um movimento construído nas e pelas redes sociais. Foi um ato planejado
com dias de antecedência, sem planejadores. Coordenado entre milhares de pessoas
sem coordenadores. E agora seria executado por meio da vontade coletiva guiada
digitalmente. Quando as pessoas chegaram ao Capitólio, encontraram manifestantes
que haviam chegado antes já arengando aos poucos policiais de guarda. Uma forca
de madeira, com um laço vazio, foi erguida no local.
A dois quarteirões de distância, a polícia descobriu uma bomba caseira na sede do
Comitê Nacional Republicano. Em seguida, outro no Comitê Nacional Democrata.

A presença da polícia permaneceria esparsa durante grande parte do dia.


Funcionários distritais e federais, apesar de terem sido alertados sobre a natureza das
discussões online, simplesmente não viram o comício de Trump pela ameaça que era.
Mesmo depois que a violência começou, sua resposta foi atrasada por horas de
disfunção burocrática, constatou um relatório do inspetor geral. Vários altos funcionários
mais tarde renunciaram em desgraça.
À medida que os manifestantes se juntavam à multidão pressionada contra as
cercas, a matemática simples de sua situação deve ter se estabelecido. Eram milhares:
zangados, gritando, muitos com capacetes e equipamentos militares excedentes. O
único obstáculo, em algumas entradas, eram barricadas de metal de dez quilos,
guarnecidas por três ou quatro policiais com bonés de beisebol atrás dos quais havia
trilhas abertas até o Capitólio. Uma hora após a exortação de Trump, a multidão
dominou o perímetro externo. Em outra hora, eles invadiram o próprio prédio.
Os legisladores lá dentro, tratando de certificar o voto, não tinham ideia de que algo
estava errado até que a polícia entrou correndo e barricou as portas atrás deles.

“Estamos dentro, estamos dentro! Derrick Evans está no Capitólio!” Evans, um


legislador do estado da Virgínia Ocidental, gritou em seu smartphone, transmitindo ao
vivo no Facebook, onde havia postado sobre o comício por dias. Em praticamente
todas as fotos do cerco ao Capitólio, você verá manifestantes segurando smartphones.
Eles estão tuitando, usando o Instagram, transmitindo ao vivo para o Facebook e o
YouTube. Isso foi, como o tiroteio em Christchurch um ano antes ou os assassinatos
incel um ano antes disso, uma performance, tudo conduzido para e nas redes sociais.
Era um produto tão grande da rede social que muitos de seus participantes não viam
distinção entre as vidas que levavam online e a insurreição no mundo real que estavam
cometendo como uma extensão das identidades moldadas por essas plataformas.
Machine Translated by Google

Muitos dos que forçaram a entrada usavam camisas e chapéus da marca QAnon.
Jake Angeli, um obcecado por mídia social de 32 anos, usava pintura facial com a
bandeira americana, chifres de animais e um cocar de pele, chamando a si mesmo
de “Q shaman”. Outros usavam camuflagem de estilo militar com insígnias com os
nomes das milícias do Facebook. Um se escondeu atrás de uma máscara gigante de
Pepe, o Sapo. “Nós apenas empurramos, empurramos e empurramos, e gritamos
'vá' e gritamos 'ataque'”, uma florista de 36 anos do oeste do Texas, Jenny Cudd,
narrou ao vivo no Facebook ao entrar nos corredores. “Chegamos ao topo do
Capitólio e havia uma porta aberta e entramos”, ela continuou.
“Arrombamos a porta do escritório de Nancy Pelosi e alguém roubou seu martelo e
tirou uma foto na cadeira, desligando a câmera.”
O homem que ela tinha visto era Richard Barnett, o conspirador do Facebook do
Arkansas. E a foto que ele tirou - seus pés na mesa de Pelosi, de flanela e jeans,
braços estendidos em aparente alegria, um smartphone iluminado na mão - tornou-
se, antes mesmo do cerco terminar, um símbolo da irrealidade e humilhação do dia.
Barnett, sorrindo para todos nós, tornou-se o rosto de algo grotesco na vida
americana, algo cuja força muitos de nós não havíamos compreendido até aquele
momento, quando marchou para os salões do poder e levantou os pés.

Alguns vieram para mais do que transmissão ao vivo. Um grupo de oito homens
e uma mulher, vestindo roupas de estilo militar sobre camisetas do Oath Keepers,
passou pela multidão e entrou no Capitol. Eles mantiveram contato no Zello, um
aplicativo push-to-talk, e no Facebook, a plataforma na qual sua milícia havia subido
e recrutado. “Você está executando uma prisão civil. Prendam esta assembléia,
temos causa provável para atos de traição, fraude eleitoral”, disse um deles.
“Dentro”, escreveu um no Facebook. “Todos os legisladores estão nos túneis, três
andares abaixo”, outro respondeu. Um terceiro emitiu uma ordem: “Todos os
membros estão nos túneis sob o capitel selá-los. Ligue o gás”.
Outros compartilharam a intenção dos Oath Keepers. Peter Stager, um Arkansan
de 41 anos, disse em um vídeo no Twitter: “Todo mundo lá é um traidor traidor” e “A
morte é o único remédio para o que está naquele prédio”. Ele carregou uma bandeira
americana subindo os degraus do Capitólio, encontrou um policial que havia sido
derrubado pela multidão e espancou o policial com o mastro da bandeira. Angeli, o
“xamã Q”, deixou um bilhete para Pence em sua mesa na câmara do Senado: “É
apenas uma questão de tempo, a justiça está chegando”. Pence escapou dos
invasores por meros metros. Mais tarde, os legisladores surgiram dizendo que
Machine Translated by Google

se amontoaram em escritórios traseiros ou atrás de portas trancadas, temendo


por suas vidas enquanto multidões furiosas percorriam os corredores. Dominic
Pezzola, um membro do Proud Boys mais tarde acusado de quebrar uma janela
do Capitólio com um escudo policial, “disse que qualquer pessoa em quem eles
colocassem as mãos teriam matado, incluindo Nancy Pelosi”, relatou um informante
do FBI. O informante disse que Pezzola e seus amigos planejavam vir a
Washington para a posse e “matar todos os 'm-fer' que pudessem”. Ex-amigos
disseram ao Vice News que Pezzola havia se tornado hiperativo no Facebook; um
o descreveu como tendo caído em uma "toca de coelho" da mídia social.
Cinco pessoas morreram durante a insurreição. Nenhum foi visado
especificamente; a violência animal da multidão descontrolada os matou. Brian
Sicknick, um policial de 42 anos, atropelado pela multidão e com spray de pimenta
duas vezes, voltou ao quartel-general, desmaiou e sucumbiu no dia seguinte. Um
médico legista atribuiu o derrame que o matou a causas naturais exacerbadas
pela violência.
A maioria dos demais eram membros da máfia - como tantos outros engajados
em causas extremistas, simultaneamente participantes e vítimas.
Kevin Greeson, um usuário de Parler de 55 anos e apoiador dos Proud Boys do
Alabama — que postou: “Carreguem suas armas e vão para as ruas!” — morreu
de ataque cardíaco no meio da multidão. Benjamin Philips, um homem de
cinquenta anos da Pensilvânia que criou uma rede social alternativa chamada
Trumparoo, morreu de derrame. Roseanne Boyland, uma obcecada pelo Facebook
de 34 anos da Geórgia, desmaiou em um túnel do Capitólio e morreu.
A família de Boyland disse que ela encontrou a extrema direita online e depois o
QAnon, enquanto buscava um significado após longas lutas contra o vício.

Depois, houve Ashli Babbitt, uma californiana de 35 anos, veterana da Força


Aérea e proprietária de uma empresa de suprimentos para piscinas que reorientou
sua vida em torno do QAnon e twittou mais de cinquenta vezes por dia. Babbitt,
usando uma bandeira de Trump como capa, forçou-se através de uma janela de
vidro quebrada em uma porta barricada e, a poucos metros dos legisladores que
sua comunidade insistiu que deveriam ser mortos, foi baleada por um policial do
Capitólio. Ela morreu imediatamente. Como muitos outros na multidão, John
Sullivan, um grande usuário de mídia social, filmou a morte de Babbitt. “Isso me
comoveu, isso me aqueceu!” Sullivan disse na gravação. Quando Babbitt caiu de
volta na multidão, sangue escorrendo de sua boca, ele se assustou: “Cara, essa merda vai acabar.
Machine Translated by Google

viral.”
No gramado do Capitólio, Matthew Rosenberg, um repórter do New York Times
que correu para cobrir o caos, esbarrou em Barnett, que já era reconhecível pela foto
tirada no escritório de Pelosi poucos minutos antes. Barnett havia vagado pelo
gramado, sua camisa agora rasgada por causa de alguma confusão no Capitol,
segurando uma carta da mesa de Pelosi. Conversando livremente com Rosenberg,
Barnett acenou com a carta de Pelosi com orgulho, dizendo-lhe: "Escrevi um bilhete
desagradável para ela, coloquei meus pés em sua mesa e cocei minhas bolas".
Ele voltou para a multidão que agora se aglomerava casualmente em frente ao prédio
do Capitólio saqueado, bebendo cerveja e agitando bandeiras, projetando um ar de
vitória.
Depois, com centenas de presos (incluindo Barnett) e com o impeachment de
Trump pela segunda vez, as ondas de choque ecoaram por meses. Mas antes
mesmo de o cerco terminar, eles já haviam se espalhado até o Vale do Silício.
“Podemos obter alguma coragem e ação real da liderança em resposta a esse
comportamento?” um funcionário do Facebook escreveu no quadro de mensagens
interno da empresa enquanto o motim se desenrolava. “Seu silêncio é decepcionante
no mínimo e criminoso na pior.”
Em uma série de postagens internas, os funcionários se irritaram com a decisão
do Facebook de deixar um post de Trump, escrito em meio ao cerco, que o encorajou
a continuar: “Essas são as coisas e os eventos que acontecem”, escreveu ele,
quando um “sagrado a vitória esmagadora” é “despojada de grandes patriotas”. O
relacionamento da empresa com seus cerca de 50.000 trabalhadores já estava no
ponto mais baixo desde os conflitos do ano anterior. Agora, como o Facebook
permitiu que Trump usasse a plataforma para incitar uma insurreição em andamento,
a frustração transbordou. “Precisamos derrubar a conta dele agora. Este não é um
momento para meias medidas”, escreveu outro funcionário. Mas, em vez de agir
contra Trump, a empresa congelou comentários sobre a discussão interna.
No dia seguinte, o sindicato dos trabalhadores da Alphabet, formado apenas
naquela semana, divulgou uma declaração condenando a inação de seus empregadores.
(A Alphabet é a empresa-mãe do Google e do YouTube.) “A mídia social encorajou
o movimento fascista crescente nos Estados Unidos e estamos particularmente
cientes de que o YouTube, um produto da Alphabet, desempenhou um papel
fundamental nessa ameaça crescente”, escreveram eles. . Os funcionários da
Alphabet, continuaram, alertaram repetidamente os executivos sobre o papel do
YouTube em “ódio, assédio, discriminação e radicalização”, mas foram “ignorados ou
Machine Translated by Google

dadas concessões simbólicas.” Ele instou a empresa, pelo menos, a “responsabilizar


Donald Trump pelas próprias regras da plataforma”.
Houve, se não uma mudança radical no Vale, pelo menos um lampejo de ajuste de
contas. Chris Sacca, um dos primeiros investidores do Twitter, twittou: “Vocês têm
sangue em suas mãos, Jack e Zuck. Por quatro anos você racionalizou esse terror.
Incitar traição violenta não é um exercício de liberdade de expressão.
Se você trabalha nessas empresas, também é por sua conta. Desligue isso." Questionado
sobre por que ele também chamou os funcionários, Sacca respondeu: “Francamente, as
únicas pessoas que eles ouvem são os funcionários que os cercam. Na tecnologia, se
você perde talento, perde poder.”
No dia seguinte ao motim, o Facebook anunciou que impediria Trump de usar seus
serviços pelo menos até a posse, duas semanas depois. No dia seguinte, enquanto
Trump continuava twittando em apoio aos rebeldes, o Twitter também desligou. O
YouTube, o último grande obstáculo, veio quatro dias depois. A maioria dos especialistas
e grande parte do público concordaram que a proibição de Trump era necessária e
tardia. Ainda assim, havia um desconforto inegável com aquela decisão caindo nas mãos
de alguns executivos do Vale do Silício. E não apenas porque eram atores corporativos
não eleitos. As decisões desses mesmos executivos ajudaram a trazer a crise da mídia
social a esse ponto em primeiro lugar. Depois de anos da indústria apaziguando Trump
e os republicanos, a proibição foi amplamente vista como interesse próprio. Afinal, ela
havia sido implementada três dias depois que os democratas conquistaram o controle do
Senado, além da Câmara e da Casa Branca.

Os democratas, cuja raiva só aumentava, viam a proibição como uma medida


superficial adotada apenas quando a saída de Trump do poder havia sido descartada. A
campanha de Biden escreveu em particular para o Facebook, durante a eleição,
expressando primeiro preocupação, depois indignação, com o que considerava falhas
da empresa em agir. “Nunca fui fã do Facebook, como você provavelmente sabe”, disse
Biden anteriormente ao conselho editorial do New York Times , sugerindo que seu
governo pode revogar certas proteções legais para plataformas de mídia social. “Nunca
fui um grande fã de Zuckerberg. Acho que ele é um problema real.”

No dia seguinte à posse de Biden, dois membros democratas do Congresso enviaram


cartas aos CEOs do Facebook, Google, YouTube e Twitter. Eles foram escritos por Tom
Malinowski, que já foi um duro funcionário dos direitos humanos no Departamento de
Estado, e Anna Eshoo, que havia
Machine Translated by Google

representou o distrito da Califórnia, incluindo o Vale do Silício desde 1993.


Líderes democratas defenderam o Vale por décadas. Agora, a própria congressista
das empresas havia escrito uma carta dizendo a eles: “Talvez nenhuma entidade
seja mais responsável pela disseminação de perigosas teorias da conspiração
em grande escala ou por inflamar queixas antigovernamentais do que aquela que
vocês começaram e que supervisionam hoje”.
As cartas atribuíam grande parte da responsabilidade pela insurreição às
empresas. “O problema fundamental”, escreveram eles aos CEOs do Google e
do YouTube, “é que o YouTube, como outras plataformas de mídia social,
classifica, apresenta e recomenda informações aos usuários, fornecendo-lhes
conteúdo com maior probabilidade de reforçar seus preconceitos políticos
existentes, especialmente aqueles enraizados na raiva, ansiedade e medo. As
cartas para o Facebook e Twitter foram semelhantes. Todos exigiram mudanças
radicais nas políticas, terminando com a mesma advertência: que as empresas
“começassem um reexame fundamental para maximizar o envolvimento do
usuário como base para classificação e recomendação algorítmica”. A linguagem
sinalizou claramente que os democratas adotaram a visão há muito defendida
por pesquisadores, cientistas sociais e dissidentes do Valley: que os perigos das
mídias sociais não são uma questão de simplesmente moderar melhor ou ajustar
as políticas. Eles estão enraizados na natureza fundamental das plataformas. E
são suficientemente graves para ameaçar a própria democracia americana.
Houve outra mudança naquele janeiro: QAnon quase entrou em colapso.
“Demos tudo de nós. Agora precisamos manter o queixo erguido e voltar às
nossas vidas da melhor maneira possível ”, Ron Watkins, administrador do 8chan
(agora renomeado como “8kun”), amplamente suspeito de ter escrito o material
de Q, postou na manhã da posse de Biden. . No Telegram - um aplicativo social
que se tornou popular com QAnon à medida que o Twitter aplicava maior atrito -
ele pediu aos seguidores que respeitassem a legitimidade de Biden. Ele
acrescentou: “Ao entrarmos na próxima administração, lembre-se de todos os
amigos e memórias felizes que fizemos juntos nos últimos anos”. Watkins estava
efetivamente dizendo ao movimento, suspeito de chegar a milhões, todos se
preparando para uma batalha final contra os males responsáveis por todos os
males em suas vidas, para se retirarem. Depois disso, as postagens de Q, que já
estavam misteriosamente silenciosas desde 8 de dezembro, cessaram.
A sensação de um final permeou. Um moderador do 8kun eliminou os arquivos
“QResearch” do site, escrevendo: “Estou apenas realizando a eutanásia para
Machine Translated by Google

algo que uma vez amei muito.” Alguns começaram a postar suas despedidas.
Outros tentaram se entender: “Mods, por favor, expliquem por que Biden ainda
não foi preso”. Alguém comparou a posse de Biden a “ser uma criança e ver o
grande presente debaixo da árvore… apenas para abri-lo e perceber que era um
pedaço de carvão o tempo todo”. Sem plataformas convencionais para acelerar
sua causa ou interligá-la com a rede social mais ampla, os crentes remanescentes
tinham poucos lugares para aplicar suas outrora poderosas energias. Eles
giraram e giraram, procurando uma validação que nunca conseguiram, ansiando
por uma solução para a crise psicológica que anos de radicalização abriram neles.
“TUDO vai acontecer nos próximos 45 minutos”, escreveu um usuário em um
fórum Q durante a posse de Biden. Os democratas no palco, ele prometeu, “serão
presos ao vivo na televisão com dezenas de milhões assistindo maravilhados!”
Seria “o maior dia desde o Dia D” e “a América estará unida em comemoração!”
Quando o juramento ocorreu normalmente, outro usuário perguntou se ele estava
bem. Ele insistiu que a vitória ainda estava por vir e, com ela, um retorno à vida
que lhe havia sido tirada. “Perdi amigos e uma namorada no ano passado porque
eles se recusaram a ver a verdade, agora finalmente estou sendo redimido”,
escreveu ele. “Logo todos eles vão voltar e se desculpar, este é o dia mais feliz
da minha vida.”
Machine Translated by Google

epílogo

denúncia

UMA JANELA ABERTA nas semanas após o cerco do Capitólio. Ao contrário dos
cálculos vacilantes de 2016 e 2018, houve, finalmente, uma ampla compreensão das
consequências da mídia social. Reimaginar as plataformas, até seus núcleos, parecia
necessário de uma forma que não havia antes e, com grande parte do próprio Vale do
Silício horrorizado, talvez até possível. Especialistas em tecnologia e escritores
zumbiam sobre novas possibilidades. Talvez os serviços baseados em assinatura, com
usuários pagando taxas mensais para fazer logon, possam quebrar o vício da indústria
em receita de anúncios e, portanto, em engajamento. Talvez leis de responsabilidade
mais rígidas possam realinhar seus incentivos.
Mas a janela fechou rapidamente. Os gigantes da mídia social investiram
profundamente em modelos financeiros e ideológicos do status quo para uma mudança
tão radical. Principalmente, eles desenvolveram os métodos que conheciam melhor:
tecnologia automatizada e moderação de conteúdo em escala. O Twitter, por exemplo,
aumentou seu “atrito”, adicionando prompts e intersticiais (“Quer ler o artigo primeiro?”)
para impedir que os usuários compartilhem postagens compulsivamente. Foi uma
mudança significativa, mas muito aquém das sugestões de Jack Dorsey de repensar a
mecânica subjacente da plataforma, que permaneceu no lugar. Dorsey mais tarde
deixou o cargo de CEO, em novembro de 2021, com suas promessas ousadas não cumpridas.
Algumas semanas após a insurreição, Zuckerberg anunciou que o sistema de
recomendação do Facebook não promoveria mais grupos políticos – um passo
potencialmente marcante para enfraquecer um dos elementos mais perigosos da
plataforma. Mas, em uma indicação de que as reformas da empresa refletiram
relutantes concessões à pressão externa, em vez de uma mudança sincera de
pensamento, foi a terceira vez que o Facebook anunciou essa mudança. As promessas
anteriores, em outubro de 2020 e em 6 de janeiro, estavam quase vazias, descobriram
pesquisadores independentes. Somente sob pressão dos legisladores democratas
essa última promessa realmente se confirmou.
Machine Translated by Google

As reversões do Facebook começaram antes mesmo da insurreição. Durante a


eleição, o Facebook ajustou seu algoritmo para promover meios de comunicação
“autoritários” por meio de links hiperpartidários. Em dezembro, reverteu a mudança,
restabelecendo as preferências originais dos algoritmos. Naquele mês, o Facebook
também anunciou que suspenderia a proibição recentemente imposta a anúncios
políticos, mas apenas na Geórgia, onde duas eleições iminentes para o Senado
determinariam o controle da Câmara. A empresa alegou que estava cedendo a
"especialistas" não identificados que supostamente consideraram os anúncios políticos
cruciais para "a importância de expressar voz". Na realidade, os grupos democráticos se
opuseram amplamente à mudança. O efeito foi imediato. Antes que o Facebook
suspendesse sua proibição de anúncios políticos na Geórgia, os feeds de usuários
mostravam artigos do Wall Street Journal e do Atlanta Journal-Constitution . Um dia
depois que o Facebook ligou o interruptor, artigos do Breitbart , conteúdo partidário e
anúncios políticos os substituíram. Depois de 6 de janeiro, os críticos pressionaram o
Facebook para restabelecer o ajuste do algoritmo e a proibição de anúncios políticos. A
empresa, afinal, havia inicialmente apresentado ambas as políticas como essenciais para
proteger a democracia. Como isso poderia voltar? Mas o algoritmo permaneceu em sua
forma mais perigosa e, naquele mês de março, o Facebook suspendeu a proibição de
anúncios políticos em todo o país.
Com a mesma rapidez com que reverteram as reformas, os líderes do Vale do Silício
também começaram a questionar quanta responsabilidade eles realmente tinham para
mudar alguma coisa. “Acho que esses eventos foram amplamente organizados em
plataformas que não têm nossa capacidade de conter o ódio, não têm nossos padrões e
não têm nossa transparência”, disse Sheryl Sandberg, segunda no comando do Facebook,
sobre o evento de 6 de janeiro. insurreição. Seus comentários, embora amplamente
ridicularizados fora do Valley, enviaram um sinal claro dentro dele: estamos cavando.
Alguns dias depois, Adam Mosseri, o ex-chefe do feed de notícias que agora
administrava o Instagram, disse que, embora o dia 6 de janeiro “marque uma grande
mudança” na relação da sociedade com a tecnologia, é importante não exagerar.
“Toda nova tecnologia passou por essas ondas”, disse ele, fazendo uma série de
comparações que eu já tinha ouvido no Valley: “Isso aconteceu com o VHS. Isso
aconteceu com a escrita. Isso aconteceu com as bicicletas.” Mas ninguém jamais foi
capaz de apontar para mim quais genocídios foram atribuídos ao VHS.

O Facebook e outros deixaram de prometer que aprenderam a lição e finalmente


mudaram para insistir, ainda mais estridente do que
Machine Translated by Google

tinham antes de 6 de janeiro, que todas as evidências que apontavam para sua responsabilidade
estavam simplesmente erradas. “Os sistemas do Facebook não são projetados para
recompensar conteúdo provocativo”, escreveu o chefe de relações públicas do Facebook, o
ex-vice-primeiro-ministro britânico Nick Clegg, em um post de blog de 5.000 palavras intitulado
“Você e o algoritmo: são necessários dois para o tango”. Na verdade, foram os usuários que
enviaram “conteúdo sensacional”, escreveu Clegg.
As empresas em grande parte voltaram aos seus velhos hábitos. A aplicação contra a
desinformação eleitoral caiu vertiginosamente ao longo de 2021, descobriu o grupo de
vigilância Common Cause, pois mentiras que minavam a democracia foram “deixadas para se
espalhar por metástase no Facebook e no Twitter”. Os movimentos nascidos nas mídias
sociais continuaram a crescer, infiltrando-se no tecido da governança americana. No início de
2022, segundo um estudo, mais de um em cada nove legisladores estaduais em todo o país
pertencia a pelo menos um grupo de extrema-direita no Facebook.
Muitos promoveram as conspirações e ideologias que se tornaram leis pela primeira vez
online, aprovando ondas de legislação que restringiam o direito de voto, as políticas da Covid
e as proteções LGBT. Em meio a um pânico alimentado pela internet sobre os professores
supostamente “preparando” crianças em idade escolar para a homossexualidade, alguns
pressionaram a legislação incentivando as crianças a gravar seus professores para prova –
um eco perturbadoramente nítido da conspiração do “kit gay” do YouTube que causou tanto
caos no Brasil. O Partido Republicano do Texas, que controlava o senado estadual, a câmara
estadual e a mansão do governador, mudou seu slogan oficial para “Nós somos a tempestade”,
o grito de guerra QAnon. Em dois casos separados, no Colorado e em Michigan, funcionários
eleitorais leais a QAnon foram pegos adulterando os sistemas de votação. Na eleição
seguinte, em 2022, os candidatos alinhados com QAnon estavam nas urnas em 26 estados.

Os gigantes da mídia social continuaram revelando tantas mentiras e conspirações


relacionadas à Covid que Vivek Murthy, o cirurgião geral, emitiu um aviso formal em julho de
que as plataformas “permitiram que a desinformação envenenasse nosso ambiente de
informações, com pouca responsabilidade para com seus usuários”. chamou de “crise
urgente”. Um dia depois, Biden disse que o Facebook estava “matando pessoas”.

Os democratas, junto com muitos outros, depositam grande parte de suas esperanças
nas investigações regulatórias federais sobre as empresas. O esforço começou, no final de
2020, com o subcomitê antitruste da Câmara controlado pelos democratas, que divulgou um
relatório de 449 páginas em outubro recomendando regulamentos abrangentes contra
Facebook, Google, Amazon e Apple que, em
Machine Translated by Google

alguns casos, separe-os. Embora o relatório se concentrasse em comportamentos


monopolistas, os legisladores não esconderam que estavam preocupados com o controle
das empresas sobre assuntos além do mercado, alertando: “Nossa economia e
democracia estão em jogo”.
O Departamento de Justiça entrou com uma ação contra o Google naquele mês de
outubro, implicando-o e ao YouTube em abusos de acordo com os do relatório da Câmara.
A Comissão Federal de Comércio abriu um processo semelhante contra o Facebook em
dezembro, sugerindo que poderia tentar desmembrar a empresa. Ambos os casos,
unidos em processos paralelos por vários procuradores-gerais estaduais, prosseguiram
ao longo de 2021 e 2022. Mas, embora a fiscalização antitruste possa ser uma ferramenta
poderosa, é uma ferramenta contundente. Separar o Facebook do Instagram ou o Google
do YouTube enfraqueceria as empresas, talvez até drasticamente. Mas isso não mudaria
a natureza subjacente de seus produtos.
Tampouco eliminaria as forças econômicas ou ideológicas que produziram esses produtos
em primeiro lugar.
Apesar de toda a conversa sobre a reconstrução da confiança, o Vale do Silício
mostrou, em um episódio apenas um mês após a posse de Biden, que exerceria todo o
peso de seu poder contra sociedades inteiras para impedi-las de agir. Os reguladores
australianos agiram para atingir a maior vulnerabilidade do Vale: a receita.
A partir de fevereiro de 2021, o Facebook e o Google seriam obrigados a pagar aos
meios de comunicação australianos pelo direito de apresentar links para seus trabalhos.
Afinal, as plataformas estavam desviando a receita publicitária da indústria de notícias
negociando seu jornalismo. A nova regra incluía uma disposição poderosa. Se as
empresas de tecnologia e as agências de notícias não chegassem a um acordo sobre
um preço dentro do prazo imposto, os árbitros do governo o definiriam para elas. Na
verdade, as regras favoreceram a News Corp, o megaconglomerado dirigido pelo
australiano Rupert Murdoch, que em 2016 havia ameaçado Zuckerberg com esse tipo de
ação.
Mas quaisquer que sejam os méritos, como um caso de teste do poder dos governos
sobre as plataformas de mídia social, os resultados foram reveladores. O Google, pouco
antes do prazo, fechou um acordo com a News Corp e outros, tornando-o compatível. O
Facebook recusou. Em vez disso, uma manhã, os australianos acordaram e descobriram
que o Facebook havia bloqueado todo o conteúdo de notícias. A principal fonte de
informação de uma nação inteira — 39% dos australianos disseram que recebiam suas
notícias lá — de repente não incluiu nenhuma notícia. Muito mais também ficou obscuro:
políticos concorrendo à reeleição, grupos que trabalhavam com vítimas de
Machine Translated by Google

violência doméstica, o serviço meteorológico do estado. Até mesmo, no meio de uma


pandemia, escritórios de saúde do governo. A empresa finalmente fez o que não faria
em Mianmar, ao longo de um genocídio que durou meses e foi acusada de
cumplicidade. Ou no Sri Lanka ou na Índia. Em nenhum caso a violência crescente,
por mais mortal que seja, levou a empresa a desligar o botão, mesmo em apenas um
componente da plataforma. Mas na semana em que a Austrália ameaçou sua receita,
tudo se apagou.
Os australianos poderiam, é claro, acessar notícias ou sites do governo
diretamente. Ainda assim, o Facebook, por um projeto deliberado, tornou-se essencial,
treinando os usuários para confiar em sua plataforma como o fim de tudo para notícias
e informações. Sem o conteúdo das notícias, rumores e desinformação preencheram
o vácuo. Evelyn Douek, uma estudiosa australiana que estuda a governança de
plataformas de mídia social na Harvard Law School, chamou o apagão de “calculado
pelo impacto e inescrupuloso”. A Human Rights Watch descreveu a intervenção como
“alarmante e perigosa”. Um legislador australiano alertou que o bloqueio do serviço
meteorológico estadual pode interromper o acesso dos cidadãos a atualizações que,
em uma semana em que inundações e incêndios florestais ocorreram, podem
significar vida ou morte. Alguns dias depois, o governo da Austrália capitulou,
permitindo ao Facebook amplas exceções aos regulamentos.
Os governos europeus continuaram a impor multas e regulamentos.
As autoridades reconheceram implicitamente que tinham um pouco mais de
capacidade para forçar uma mudança estrutural no Vale do Silício do que suas
contrapartes na Austrália ou, aliás, as infelizes autoridades que conheci no Sri Lanka
- muitas das quais, em 2021, estavam fora do cargo. de qualquer maneira, tendo sido
substituído por um homem forte ultranacionalista que ascendeu, em parte, incitando
ódio e rumores online. Mas os europeus esperavam pilotar políticas que pudessem
se tornar modelos para outros. O governo francês abriu um centro de regulação
digital, para o qual contratou, entre outros, Guillaume Chaslot, ex-engenheiro do
YouTube. Ele tem se preocupado especialmente em encontrar maneiras de mostrar
aos usuários da web como os algoritmos orientam suas experiências enquanto
navegam nas plataformas, até mesmo revelando a eles as escolhas e hábitos do
sistema em tempo real. Ele comparou isso com os rótulos dos cigarros alertando os
consumidores de que fumar causa câncer de pulmão. No início de 2022, a União
Europeia começou a desenvolver novos regulamentos que restringiriam como as
empresas de tecnologia americanas poderiam usar os dados pessoais dos
consumidores europeus. O Facebook, em um relatório anual divulgado em fevereiro daquele ano, amea
Machine Translated by Google

Austrália, alertando que, se a UE seguisse em frente, “provavelmente seria incapaz de


oferecer vários de nossos produtos e serviços mais importantes, incluindo Facebook e
Instagram, na Europa”. O ministro das Finanças da Alemanha minimizou a coerção,
dizendo aos repórteres que, desde que havia desistido das mídias sociais quatro anos
antes, “a vida tem sido fantástica”. O ministro das finanças da França, quase desafiando
a empresa a seguir em frente, anunciou: “vivíamos muito bem sem o Facebook”.

A pressão pública nos Estados Unidos foi mais desigual. O ex-presidente Obama, em
um discurso de 2022 no coração do Vale do Silício, alertou que a mídia social estava
“turbinando alguns dos piores impulsos da humanidade”. Ele chamou “a profunda
mudança… na forma como nos comunicamos e consumimos informações” um dos
principais impulsionadores do agravamento das dificuldades da democracia, instando
cidadãos e governos a controlar as empresas. Ainda assim, o governo Biden estava
preocupado em estabilizar a saúde pública e as emergências econômicas provocadas
pela pandemia, depois com a invasão russa da Ucrânia. Enquanto isso, as empresas
contrataram muitos dos analistas e acadêmicos externos que as embaraçaram com as
investigações de seus produtos. Normalmente, eles eram recrutados por aspirantes a
reformadores dentro da gerência intermediária, que provavelmente falavam sério quando
afirmavam que pressionar as empresas internamente era mais provável de trazer
mudanças.
E muitos foram levados para os braços do Vale do Silício pelo colapso do mercado de
trabalho acadêmico, onde as oportunidades para doutorados carregados de dívidas
estudantis se desintegraram no momento em que os americanos viram seus custos com
saúde e creches dispararem com a pandemia. Quaisquer que sejam suas motivações
para ingressar no Valley, seu trabalho voltado para o público cessou como resultado.
Mas alguns, talvez em parte graças à sua notoriedade pelas descobertas chocantes
que já haviam feito sobre a mídia social, garantiram posições estáveis o suficiente na
academia para continuar. Jonas Kaiser, o estudioso de mídia alemão que mapeia o
YouTube, foi um deles, ingressando no corpo docente da Universidade Suffolk de Boston
no final de 2020. Outro foi William Brady, que se tornou professor assistente na
Northwestern em 2022. Ambos continuam o trabalho de entender as mídias sociais.
consequências, assim como dezenas como eles, com incontáveis descobertas ainda por
vir.
Alguns encontraram maneiras de pressionar a indústria por dentro. Entre eles está
Renée DiResta, que rastreia causas online e maus atores, como os anti-vacinas que
motivaram sua jornada pela primeira vez, em uma pesquisa da Universidade de Stanford.
Machine Translated by Google

centro no coração do Vale. Por mais que ela tenha sido cuidadosa, em seu depoimento
de 2018 perante o Senado, para envolver os democratas com maior probabilidade de agir
enquanto ainda encontra um terreno comum com os republicanos, DiResta aproveitou os
links dela e de Stanford para as empresas de mídia social, contribuindo para campanhas
bem-sucedidas para remover o governo - campanhas de influência alinhadas das
plataformas, tudo sem nunca, pelo que posso dizer, dar um único soco em suas críticas
públicas a essas mesmas corporações.
Existe um grupo com alavancagem, acesso e conhecimento técnico para pressionar
efetivamente o Vale do Silício: sua própria força de trabalho. Depois de 6 de janeiro, a
raiva dos trabalhadores só aumentou, com 40% da força de trabalho de big tech dizendo
em março de 2021 que gigantes como Google ou Facebook deveriam ser desmembrados.
Mas, apesar de toda a força que os trabalhadores usaram em 2020, seu ativismo
praticamente cessou. A sindicalização – os cinco dedos que se tornam um punho –
continua sendo um anátema entre os trabalhadores do Valley, tornando quase impossível
a organização em empresas de 50.000 trabalhadores. E com salários, regalias e
segurança no trabalho praticamente incomparáveis na era moderna, por que não entrar e
sair por alguns anos, fazer fortuna e se aposentar em paz?
Mas nem todo mundo optou por olhar para o outro lado. Em maio de 2021, uma
funcionária do Facebook chamada Frances Haugen, que trabalhava em uma equipe de
combate à desinformação relacionada a eleições no exterior, estava farta. Ela passou a
acreditar que seus senhores corporativos estavam deliberadamente sacrificando a
segurança dos usuários, de sociedades inteiras e até da própria democracia para maximizar o lucro.
Haugen copiou milhares de relatórios de pesquisa interna, memorandos de reuniões
e diretrizes corporativas, fotografando sua tela em vez de baixar os arquivos diretamente
para evitar o acionamento de medidas de segurança. Por meses, ela manteve contato
com Jeff Horwitz, um repórter do Wall Street Journal com quem ela contatou pela primeira
vez em dezembro de 2020, impressionado com suas reportagens sobre a influência
prejudicial da mídia social na Índia, onde ela passou um tempo. Mas levaria alguns meses
até que ela formulasse seu plano para os arquivos.
“Só não quero sofrer com o que não fiz pelo resto da minha vida”, Haugen escreveu
a uma amiga, em setembro de 2021, enquanto considerava se deveria ir a público. Logo
depois, ela enviou os arquivos à Comissão de Valores Mobiliários, órgão regulador federal
que supervisiona as práticas de mercado, como parte de oito denúncias de denunciantes
alegando má conduta corporativa no Facebook. Ela também os enviou ao Congresso e a
Horwitz, que começou a revelar os segredos que continham.
Machine Translated by Google

Coletivamente, os documentos contavam a história de uma empresa plenamente consciente


de que seus danos às vezes excediam até as piores avaliações dos críticos. Às vezes, os
relatórios alertavam explicitamente sobre perigos que mais tarde se tornaram mortais, como um
aumento no discurso de ódio ou na desinformação sobre vacinas, com bastante antecedência
para que a empresa agisse e, se não se recusasse a fazê-lo, possivelmente salvasse vidas.
Em relatórios inegáveis e linguagem pura, eles mostraram os próprios dados do Facebook e
especialistas confirmando as alegações que a empresa havia descartado tão alegremente em
público. Os executivos do Facebook, incluindo Zuckerberg, foram claramente informados de que
sua empresa representava perigos tremendos, e esses executivos intervieram várias vezes para
manter suas plataformas girando a toda velocidade de qualquer maneira. Os arquivos, que o
Facebook minimizou como não representativos, confirmaram em grande parte suspeitas de longa
data. Mas alguns foram ainda mais longe. Uma apresentação interna sobre como fisgar mais
crianças nos produtos do Facebook incluiu a frase “Existe uma maneira de aproveitar os encontros
para brincar para impulsionar o conhecimento/crescimento entre as crianças?”

À medida que a indignação pública crescia, o 60 Minutes anunciou que iria ao ar uma
entrevista com o vazador dos documentos. Até aquele momento, a identidade de Haugen ainda
era secreta. Sua entrevista cortou um debate já antigo sobre essa tecnologia pela clareza com
que ela fez suas acusações: as plataformas amplificaram os danos; O Facebook sabia disso; a
empresa tinha o poder de interrompê-lo, mas optou por não fazê-lo; e a empresa mentiu
continuamente para os reguladores e para o público. “O Facebook percebeu que, se mudar o
algoritmo para ser mais seguro”, disse Haugen, “as pessoas passarão menos tempo no site,
clicarão em menos anúncios e ganharão menos dinheiro”.

Dois dias depois, ela testemunhou a um subcomitê do Senado. Ela se apresentou como se
esforçando para reformar a indústria para salvar seu potencial. “Podemos ter redes sociais de
que gostamos, que nos conectam, sem destruir nossa democracia, colocar nossos filhos em
perigo e semear a violência étnica em todo o mundo”, disse ela aos senadores. Trabalhando com
Lawrence Lessig, um estudioso jurídico de Harvard que se ofereceu como seu advogado, junto
com uma empresa de comunicação que Lessig contratou, Haugen também enviou os documentos
para dezoito agências de notícias americanas e européias. Ela informou os membros do
Congresso cujos assentos nos comitês lhes davam o poder de formular novos regulamentos. Ela
circulou pelas capitais europeias, encontrando-se com autoridades de alto escalão cujos governos
lideraram a regulamentação da mídia social.

Durante todo o tempo, Haugen consistentemente chamou de volta as falhas do Facebook em


Machine Translated by Google

países mais pobres. Esse registro, ela argumentou, destacou a insensibilidade da empresa
em relação ao bem-estar de seus clientes, bem como o poder desestabilizador da dinâmica
da plataforma que, afinal, acontecia em todos os lugares. “O que vemos em Mianmar, o que
vemos na Etiópia”, disse ela em um painel, “são apenas os capítulos iniciais de um romance
que tem um final muito mais assustador do que qualquer coisa que queremos ler”.

Democratas e grupos de direitos humanos, aproveitando a indignação gerada por Haugen


e a ameaça de processos antitruste em andamento, se concentraram em pressionar pela
regulamentação vigorosa das empresas de mídia social. O governo americano, afinal, pode
ser a única entidade remanescente no mundo com o poder de forçar as empresas a mudar.
Ainda assim, é difícil imaginar algumas dezenas de legisladores, operando uma das
legislaturas mais disfuncionais do mundo ocidental, capazes de acompanhar perpetuamente
o ritmo de milhares de engenheiros cujos incentivos seriam substituir qualquer recurso ou
política que tenha sido regulamentado em submissão por outra coisa que poderia alcançar o
mesmo resultado.

Coagir as empresas a se regularem também é um caminho incerto. Os gigantes da mídia


social, conforme constituídos atualmente, podem ser simplesmente incapazes de reverter as
piores tendências de seus sistemas. Tecnicamente, seria fácil. Mas as forças culturais,
ideológicas e econômicas que levaram os executivos a criar e sobrecarregar esses sistemas
ainda se aplicam.
Legisladores e ativistas podem gritar com Zuckerberg, Wojcicki e outros o quanto quiserem.
Os fundadores e CEOs dessas empresas, apesar de toda a sua fabulosa riqueza, têm sido,
quer percebam ou não, prisioneiros de suas criações desde o dia em que um capitalista de
risco primeiro lhes deu um cheque em troca da promessa de crescimento exponencial
permanente. .
Quando questionado sobre o que reformaria de maneira mais eficaz as plataformas e as
empresas que as supervisionam, Haugen teve uma resposta simples: desligue o algoritmo.
“Acho que não queremos que os computadores decidam em que nos concentramos”, disse
ela. Ela também sugeriu que, se o Congresso reduzisse as proteções de responsabilidade,
tornando as empresas legalmente responsáveis pelas consequências de qualquer coisa que
seus sistemas promovessem, “elas se livrariam da classificação baseada em engajamento”.
As plataformas voltariam aos anos 2000, quando simplesmente exibiam as postagens de
seus amigos do mais recente para o mais antigo. Sem AI para enxamear você com conteúdo
maximizador de atenção ou encaminhá-lo para buracos de coelho.
Sua resposta seguiu um padrão confiável que surgiu nos anos
Machine Translated by Google

Eu gastei cobrindo mídia social. Quanto mais alguém passa estudando as plataformas,
seja qual for sua disciplina, mais provável é que converjam para a resposta de Haugen:
desligue-o. Às vezes, a recomendação é mais restrita.
Jonas Kaiser instou o YouTube a desativar seus algoritmos em tópicos delicados, como
saúde ou coisas relacionadas a crianças. Às vezes é mais largo. Benedict Evans, um ex-
capitalista de risco da Andreessen Horowitz, propôs “remover camadas inteiras de
mecânica que permitem o abuso”. Afinal, os algoritmos dificilmente são a única
característica por trás do caos da mídia social. Interfaces estilo cassino, botões de
compartilhamento, contadores de “curtidas” exibidos publicamente, recomendações de
grupos – todos são intrínsecos às plataformas e seus danos.
Há, como em qualquer assunto controverso, um punhado de especialistas
dissidentes, que argumentam que o impacto da mídia social é exagerado. Eles não
contestam a evidência do papel da tecnologia em danos como a radicalização, mas
usam métodos diferentes que produzem resultados mais brandos. Ainda assim, a visão
deles permanece minoritária e de relativa ênfase, semelhante a argumentar que o papel
do escapamento dos carros na mudança climática é menor do que o das usinas de carvão.
Praticamente nenhum desses especialistas ou dissidentes argumenta que o mundo
se beneficiaria com o fechamento total das mídias sociais. Afinal, todos haviam
começado a trabalhar acreditando que a mídia social trazia um bem inegável e, livre de
sua mecânica de aumento de receita, ainda poderia ser revolucionária. Mas seja qual
for o conselho, para muitos pesquisadores, analistas ou defensores dos direitos humanos
sérios, tudo se resume a alguma versão de desligá-lo. Isso significaria uma internet
menos atraente e envolvente, onde vídeos surpreendentes do YouTube ou grupos
emocionantes do Facebook seriam mais raros e menos acessíveis. Mas todas as
evidências disponíveis também sugerem que seria um mundo com menos professores
perseguidos e escondidos, menos famílias queimadas vivas em suas casas por tumultos
alimentados por boatos, menos vidas arruinadas por infâmia imerecida ou pela falsa
promessa de extremismo. Menos crianças privadas de vacinas que salvam vidas ou
expostas à sexualização involuntária. Talvez ainda menos democracias dilaceradas pela
polarização, mentiras e violência.

Uma razão pela qual muitos especialistas convergem para essa resposta, eu acho,
é que muitos deles, em seu quarto ou quinto grande estudo, foram ao Vale do Silício
para conhecer seus senhores engenheiros. E eles entenderam que um aspecto de sua
defesa pública é verdadeiro: eles acreditam que não estão promovendo deliberadamente
desinformação, ódio ou tribalismo. Na medida em que
Machine Translated by Google

eles pensam sobre esses efeitos, é para coibi-los. Mas é isso que torna a visita
ao Vale tão perturbadora. Alguma combinação de ideologia, ganância e a
opacidade tecnológica do complexo aprendizado de máquina impede que os
executivos vejam suas criações em sua totalidade. As máquinas são, da maneira
que importa, essencialmente desgovernadas.
Quanto mais eu falava com psicólogos e analistas de rede, reguladores e
engenheiros reformados, mais os termos que eles usavam para descrever essa
tecnologia me lembravam HAL 9000, a inteligência artificial de 2001: Uma
Odisséia no Espaço, o filme de Kubrick cuja relevância havia imposto si mesmo
repetidamente em minha investigação das mídias sociais. No filme, HAL, embora
responsável pela segurança da tripulação, superinterpreta a programação
instruindo-a a garantir a chegada ao destino pré-planejado, não importa o que
aconteça, e tenta matar todos a bordo do navio. HAL não pretende ser um vilão.
Se houve, foram os engenheiros que, em sua arrogância, presumiram que as
ações de sua criação seriam tão benevolentes quanto suas intenções, ou talvez
os astronautas que se entregaram a uma máquina dotada de poder de vida e
morte, com incentivos que podem divergir por conta própria.
A lição de 2001 não foi atualizar o HAL com mais ajustes algorítmicos, na
esperança de que, da próxima vez, ele pudesse se comportar com um pouco
mais de responsabilidade. Tampouco os engenheiros da HAL deveriam pedir
desculpas e prometer fazer melhor. E certamente não é que o fabricante
corporativo do HAL deveria assumir um controle cada vez maior da vida de seus
clientes, enquanto legisladores e jornalistas refletiam sobre a natureza do robô. A
lição foi inequívoca: desligue o HAL. Mesmo que isso significasse perder
quaisquer benefícios que o HAL trouxesse. Mesmo que tenha sido difícil, nas
cenas finais do filme, arrancar os tentáculos de HAL dos sistemas que governam
cada faceta da vida dos astronautas. Mesmo que a máquina revidasse com toda a sua força.
Machine Translated by Google

Agradecimentos

Qualquer valor para este livro se deve em grande parte ao seu editor, Ben George,
cuja paixão, cuidado e espírito contagiante nunca diminuíram, mesmo durante
maratonas de dezesseis horas de sessões de edição com uma criança no colo.
Obrigado também a Bruce Nichols, Katharine Myers e todos da Little, Brown por seu
entusiasmo e fé.
Este livro não teria sido possível sem Jennifer Joel, da ICM Partners, que o
conduziu através de oportunidades e obstáculos com firmeza e sabedoria.

Sou grato a muitos de meus colegas do New York Times. Michael Slackman, o
editor-chefe assistente da International, foi o primeiro a sugerir a ideia que se tornou
este projeto, além de supervisionar e apoiar reportagens que se desenvolveram ou
inspiraram as seções deste livro. Eric Nagourney, Juliana Barbassa e Doug Schorzman
editaram essa reportagem, colocando sangue e suor em histórias que realmente
deveriam levar seus nomes. Amanda Taub, com quem comecei a coluna Intérprete
em 2016, é coautora de histórias do Sri Lanka, Alemanha e Brasil. Também tive a
sorte de relatar ao lado ou co-autor de Wai Moe em Myanmar; Katrin Bennhold e
Shane Thomas McMillan na Alemanha; Dharisha Bastians no Sri Lanka; e, no Brasil,
Mariana Simões e Kate Steiker-Ginzberg; junto com Alyse Shorland e Singeli Agnew
como produtores de The Weekly. Pui-Wing Tam, Kevin Roose, Paul Mozur e outros
ofereceram apoio e solidariedade na cobertura das mídias sociais. Agradeço à
liderança do Times por apoiar essa reportagem e me conceder o espaço para este
livro.

Muitos acadêmicos, pesquisadores e outros deram livremente sua energia, ideias


e, às vezes, trabalhos originais para apoiar este projeto. Assim como médicos,
engenheiros, defensores dos direitos humanos e outros que estão na linha de frente
dessas questões, sem falar nas pessoas que eufemisticamente chamamos de
“fontes”: sobreviventes, pessoas de dentro, testemunhas. Eles são muitos para citar
aqui, mas são referenciados ao longo do texto. Este é, de muitas maneiras, o livro deles.
Machine Translated by Google

Agradeço, especialmente, a mamãe, papai e Joanna por acreditarem em mim


e me tornarem quem eu sou. E a Jordan por me manter em movimento, em
corpo e espírito, e por fazer tudo valer a pena.
Machine Translated by Google

Descubra sua próxima ótima leitura

Obtenha espreitadelas, recomendações de livros e notícias sobre os seus autores


favoritos.

Toque aqui para saber mais.


Machine Translated by Google

Sobre o autor

Max Fisher é repórter e colunista da mesa internacional do New York Times,


onde escreve uma coluna chamada “O Intérprete”, que explica as tendências
globais e os principais eventos mundiais, e onde fez parte de uma equipe de
reportagem nas mídias sociais que foi finalista do Prêmio Pulitzer em 2019.
Fisher cobriu anteriormente assuntos internacionais no The Atlantic e no
Washington Post. Ele mora em Washington, DC.
Machine Translated by Google

Notas

prólogo: consequências

1 gastou $ 300 milhões: “Facebook acaba de abrir um campus épico de $ 300


milhões projetado por Gehry com uma floresta de sequoias e um jardim na
cobertura”, Andrew Evers, CNBC, 4 de setembro de 2018. 2 por
murais inestimáveis: “Tina Vaz no Facebook's Artist in Residence
Programa,” Whitewall.art, 15 de janeiro de 2020.
3 “Não há nada de novo”: entrevista com Monika Bickert, do Facebook
chefe de gestão de políticas globais, em outubro de 2018.
4 “Como sociedade”: entrevista com Nathaniel Gleicher, chefe de política de segurança
do Facebook, em outubro de 2018.
5 “As we have better”: entrevista com Sara Su, então diretora de gerenciamento de
produtos da equipe de integridade do feed de notícias do Facebook, em outubro
de 2018.
6 “Exploração de nossos algoritmos”: De “Facebook Executives Shut Down Efforts
to Make the Site Less Divisive”, Jeff Horwitz e Deepa Seetharaman, Wall Street
Journal, maio de 2020.
7 “dirigindo as pessoas em direção a”: “Auditoria de direitos civis do Facebook -
relatório final”, Laura W. Murphy e o escritório de advocacia Relman
Colfax, About.fb.com, 8 de julho de 2020.
Machine Translated by Google

Capítulo Um: Preso no Cassino

1 retornou um fluxo: “Como o Facebook e o YouTube ajudam a espalhar anti


Vaxxer Propaganda,” Julia Carrie Wong, The Guardian, 1 de fevereiro de 2019.

2 a Silicon Galápagos: The Code: Silicon Valley and the Remaking of


America, Margaret O'Mara, 2019, estabelece, em grande detalhe, como os traços e
personalidades fundadores do Vale produziram as redes sociais modernas e as
tornaram como são.
3 “gosto por humilhar”: De The Man Behind the Microchip:
Robert Noyce and the Invention of Silicon Valley, Leslie Berlin, 2005, uma das muitas
biografias de contemporâneos de Shockley, detalhando seus abusos. Para obter
mais detalhes, particularmente sobre sua virada para a eugenia e o racismo, consulte
Broken Genius: The Rise and Fall of William Shockley, Creator of the Electronic Age,
Joel N. Shurkin, 2006. 4 mantidos no Vale: O'Mara, 2019: 7–9. 5
tendem a financiar: Entrevista com Leslie Berlin,
uma Universidade de Stanford
historiador, em maio de 2020.
6 O Facebook tinha 8 milhões de usuários: Fonte da base de usuários do Facebook: “Por
dentro da controversa decisão de Mark Zuckerberg de recusar a oferta antecipada de
US$ 1 bilhão do Yahoo para comprar o Facebook,” Mike Hoefflinger, Business
Insider, 16 de abril de 2017. Para o Friendster: “A autópsia do Friendster : How a Social
Network Dies,” Robert McMillan, Wired, 27 de fevereiro de 2013, e “Friendster Patents
Social Networking,” Pete Cashmore, Mashable, 7 de julho de 2006. Para
Orkut: “Google's Orkut Cativa Brasileiros,” por Seth Kugel, Novo York Times, 9
de abril de 2006. Para o Myspace: “The Decline of Myspace: Future of Social
Media,” Karl Kangur, DreamGrow, 13 de agosto de 2012.

7 saia da montanha-russa inicial: Facebook: The Inside Story, Steven Levy, 2020,
retransmite relatos detalhados e em primeira mão de Zuckerberg e outros funcionários
de alto escalão sobre a decisão de recusar a oferta do Yahoo, bem como o episódio
subsequente do feed de notícias . 8 uma questão de consenso:
Esse fenômeno, conhecido pelos cientistas sociais como conhecimento comum, talvez seja
melhor capturado em “Como a mídia influencia as normas sociais? Evidência
experimental sobre o papel da
Machine Translated by Google

Common Knowledge,” Eric Arias, Political Science Research and Methods,


julho de 2019. Veja também Rational Ritual: Culture, Coordination, and Common
Knowledge, Michael Suk-Young Chwe, reedição de 2013, ou o trabalho de Betsy
Levy Paluck da Universidade de Princeton, explorado posteriormente neste livro.

9 pedido de desculpas público irritado: “Calma. Respirar. Nós ouvimos você”,


Mark Zuckerberg no agora extinto Facebook Notes, setembro de 2006.
10 avaliado em US$ 15 bilhões: “Microsoft Buys Stake in Facebook,” Brad Stone, New
York Times, 25 de outubro de 2007.
11 Quando o feed de notícias foi lançado: todas as estatísticas neste parágrafo
do Social Media Fact Sheet, Pew Research Center, 7 de abril de 2021.
12 até o verão de 2016: as estatísticas de uso do Facebook são de “10 Facts About
Americans and Facebook,” John Gramlich , Pew Research Center, 1º de
junho de 2021. As estatísticas de socialização pessoal são do Bureau of
Labor Statistics e “O Facebook tem 50 minutos do seu tempo todos os dias. It
Wants More”, James B. Stewart, New York Times, 5 de maio de 2016.

13 “Não estou nas redes sociais”: os comentários de Parker são de uma empresa
conferência organizada pelo site de notícias Axios em novembro de 2017, onde
foi entrevistado pelo repórter Mike Allen. 14 gerou
$ 1 milhão: “The Formula for Phone Addiction Might Double as a Cure,” Simone Stolzoff,
Wired, 1 de fevereiro de 2018. 15 cúmplice da mídia social: A
visão geral do livro sobre dopamina e seus usos e abusos, inclusive por Pavlov, é o
artigo acadêmico "A Selective Role for Dopamine in Stimulus-Reward
Learning", Shelly B. Flagel et al., Nature, 2011.

16 O psicólogo BF Skinner: Para uma visão geral acessível das descobertas de


Skinner, bem como a elaboração de amplificadores duplos de
recompensas variáveis e intermitentes (a mídia social fornece ambos), tente
“Schedules of Reinforcement,” Annabelle GY Lim, Simply Psychology,
2 de julho , 2020. Mais detalhes, juntamente com citações para apoiar a
pesquisa neurológica, podem ser encontrados no capítulo 2 de Behave: The
Biology of Humans at Our Best and Worst, Robert M. Sapolsky, 2017.

17 verifica seu smartphone: “As 10 estatísticas mais valiosas do Facebook,”


Pesquisa Zephoria, 2021. See More
Machine Translated by Google

18 para abrir a mídia social: “47 Facebook Stats That Matter to Marketers in 2021”,
Christina Newberry, Hootsuite, 11 de janeiro de 2021.
19 Em 2018, uma equipe de economistas: “The Welfare Effects of Social Media,”
Hunt Allcott, Luca Braghieri, Sarah Eichmeyer e Matthew Gentzkow,
American Economic Review, março de 2020. 20 “considerado
um projeto amaldiçoado”: “Qual é a história do 'botão incrível' (que eventualmente se
tornou o botão Curtir) no Facebook?, ”
Andrew Bosworth, Quora, 16 de outubro de 2014.
21 “um medidor psicológico”: “Teoria do Sociômetro”, de Mark R. Leary, é o capítulo 33
do Handbook of Theories of Social Psychology, vol. 2, 2011.

22 até cerca de 150 membros: Uma discussão mais completa deste número, sua
origens e implicações ocorre mais adiante neste livro. Seu progenitor, Robin Dunbar,
fornece uma visão geral útil em “Número de Dunbar: Por que minha teoria de que os
humanos só podem manter 150 amizades resistiu a 30 anos de escrutínio”, The
Conversation, 12 de maio de 2021. 23 “sobrevivência do mais amigável ” :
Sobrevivência dos Mais Amigáveis, Brian Hare e
Vanessa Woods, 2021. See More

24 Processamos essas informações: Discussão adicional sobre as origens e funções


exclusivamente humanas dessas emoções em Humankind: A Hopeful History,
Rutger Bregman, 2019.
25 “Mesmo embora na época”: “The Binge Breaker”, Bianca Bosker, The Atlantic,
novembro de 2016. 26 “aquele
botão com um número”: “Jack Dorsey nos erros do Twitter,”
The Daily, um podcast do New York Times , 7 de agosto de 2020.
27 surtos de atividade neural: Salvo indicação em contrário, todas as referências ao
os efeitos neurológicos do uso da mídia social nesta seção são extraídos da
pesquisa de Dar Meshi, um neurocientista da Michigan State University.
Veja, em particular, “The Emerging Neuroscience of Social Media,”
Meshi et al., em Trends in Cognitive Sciences, dezembro de 2015. 28
núcleo accumbens menor: “Facebook Usage on Smartphones and
Gray Matter Volume of the Nucleus Accumbens,” Christian Montag et al., Behavioral
Brain Research, junho de 2017.
29 “Quando o Facebook mudou seu algoritmo”: “O inventor do botão 'Curtir' quer que você
pare de se preocupar com as curtidas,” Julian Morgans, Vice News, 5 de julho de
2017.
Machine Translated by Google

30 “É muito comum”: “'Our Minds Can Be Hijacked': The Tech Insiders Who
Fear a Smartphone Dystopia,” Paul Lewis, The Guardian, 6 de outubro
de 2017. 31 “permanece um
profundo mistério”: “Individuals and Groups nas redes sociais
Psychology,” Henri Tajfel, British Journal of Social & Clinical Psychology
18, no. 2, 1979.
32 Ele e vários colegas lançaram: Para uma visão geral eficaz, consulte “A
Social Identity Theory of Intergroup Behavior,” Henri Tajfel e John C. Turner,
Psychology of Intergroup Relations, 1986.
33 A identidade social, Tajfel demonstrou, é como nos relacionamos: “Social
Psychology of Intergroup Relations,” Henri Tajfel, Annual Review of Psychology
33, 1982.
34 Em um experimento: “Categorização social e discriminação
Behavior: Extinguishing the Minimal Intergroup Discrimination Effect”, Anne
Locksley, Vilma Ortiz e Christine Hepburn, Journal of Personality and Social
Psychology 39, no. 5, 1980.
35 O mesmo comportamento: uma visão geral de muitos desses estudos pode ser
encontrada em “Ingroup Favoritism and Prejudice”, em Principles of
Social Psychology, First International Edition, Charles Stangor, Hammond Tarry
e Rajiv Jhangiani, 2014.
36 Durante os intervalos para o almoço: Heston relatou isso em várias entrevistas,
com a primeira aparição em “The Arts”, Jeff Rovin, Omni Magazine, novembro
de 1980: 140. Sua co-estrela, Natalie Trundy, descreveu independentemente
o incidente pelo menos uma vez: “The Day of the Apes”, Tom Weaver, revista
Starlog , setembro de 2001: 20. 37 instintos de identidade
social nos impulsionam: Tafjel, “Social Psychology of Intergroup Relations”.

38 Também nos torna mais desconfiados: esse efeito foi repetidamente


demonstrado, talvez melhor em “A New Stress-Based Model of Political Extremism”,
Daphna Canetti-Nisim, Eran Halperin, Keren Sharvit e Stevan E. Hobfoll,
Journal of Conflict Resolution 53, no . 2 de junho de 2009.

39 “A identidade era o estilingue”: Por que somos polarizados, Ezra Klein, 2020:
143.
40 “Estou convencido de que todos vocês”: “Google Chief Says Internet Freedom
Key for Myanmar”, vídeo da Agence France-Presse, 22 de março de 2013.
Machine Translated by Google

41 “uma pessoa sem Facebook”: relatado em “Fears over Facebook


Proposta de regulamentação”, Tim McLaughlin, Myanmar Times, 15–21 de julho
de 2013.
42 De 2012 a 2015: Sticks and Stones: Hate Speech Narratives and Facilitators in
Myanmar, pelo grupo de pesquisa sem fins lucrativos C4ADS, fevereiro de
2016. 43 muitos
ainda não sabem: Internet Health Report: 2019, publicado pela Mozilla Foundation,
fornece dados de pesquisa mostrando que a maioria dos usuários em
vários países com classificação zero “não faz ideia de que existe uma internet
além do Facebook”. 44, suas postagens
circularam: Veja o relatório C4ADS Sticks and Stones para obter detalhes profundos
e muitas vezes perturbadores sobre o discurso de ódio do Facebook em
Mianmar neste momento.
45 Os gerentes disseram a Callan: “How Facebook's Rise Fueled Chaos and
Confusion in Myanmar”, Timothy McLaughlin, Wired, julho de 2018, captura
esse episódio em detalhes. Veja também “Por que o Facebook está perdendo a
guerra contra o discurso de ódio em Mianmar”, Steve Stecklow, Reuters, 15 de
agosto de 2018.
Machine Translated by Google

Capítulo 2: Tudo é Gamergate

1 Você acabou de ser despejado: Crash Override: Como Gamergate (quase)


Destroyed My Life, and How We Can Win the Fight Against Online Hate, Zoë
Quinn, 2017: 2. 2 “i just want
to see”: Logs dessas discussões estão acessíveis em “GamerGate —
#GameOverGate IRC Logs Explanation,”
Knowyourmeme.com, sem data. Veja também “As capturas de tela de Zoe Quinn
dos truques sujos do 4chan foram apenas o aperitivo. Aqui está o primeiro prato
do jantar, diretamente do registro do IRC,” David Futrelle,
Wehuntedthemammoth.com, 8 de setembro de 2014.
3 “Tentei me concentrar”: Quinn: 4.
4 “If I ever see”: “Game of Fear,” Zachary Jason, Boston Magazine, 28 de abril
de 2015.
5 “Se você pensa”: “Zoë and the Trolls”, Noreen Malone, Nova York
Revista, julho de 2017.
6 Um método preferido: “Naquela vez, a Internet enviou uma equipe da SWAT para
Casa da minha mãe,” Caroline Sinders, Narratively.com, 17 de julho de 2015.
7 Em 2017, a polícia prendeu: “Sua chamada 'Swatting' levou à morte de um
homem. Agora ele vai para a prisão por 20 anos”, Steve Almasy e Melissa
Alonso, CNN, 30 de março de 2019.
8 Duas outras séries: “FBI Arrests Man Suspected of Orchestrating Dozens of 'Swatting'
Calls,” Timothy B. Lee, Arstechnica.com, 14 de janeiro de 2020.

9 When an industry-news: “Intel Pulls Ads from Gamasutra, and Then Apologizes
for It”, Dean Takahashi, Venturebeat.com, 3 de outubro de 2014.

10 “Software define cada vez mais”: “Sou Brianna Wu, e estou arriscando minha
vida em defesa do Gamergate,” Brianna Wu, Daily Dot, 12 de fevereiro
de 2015.
11 Até a década de 1960: O'Mara: 90–92.
12 “Nós somos realmente os revolucionários”: Berlin: 194.
13 Boletim do PCC: O'Mara: 136–39.
14 Tinha crescido: From Counterculture to Cyberculture: Stewart Brand, the Whole Earth
Network, and the Rise of Digital Utopianism, Fred
Machine Translated by Google

Turner, 2010: 71–72.


15 Os fundadores do site: Cliff Figallo, um dos arquitetos da plataforma, disse, por exemplo,
“Princípios de tolerância e inclusão, alocação justa de recursos, responsabilidade
distribuída, gestão por exemplo e influência, uma hierarquia organizacional plana,
formulação de políticas cooperativas e a aceitação de um ethos libertário
que beira o anárquico foram todas heranças de nossa experiência de vida
comunitária”.
Fonte: Turner: 148.
16 Uma quase ausência de regras: Ibid.
17 “Rejeitamos: reis”: “A Cloudy Crystal Ball / Apocalypse Now,”
apresentação de David Clark, julho de 1992, na 24ª conferência anual da Internet
Engineering Task Force.
18 Um ex-membro do conselho do WELL: “A Declaration of the Independence of
Cyberspace,” John Perry Barlow, 8 de fevereiro de 1996. Inicialmente distribuído
em dezenas de sites simultaneamente, agora disponível em Eff.org/cyberspace-
independence.
19 “Nosso conselheiro geral e CEO”: “Tony Wang do Twitter: 'Nós somos a ala da liberdade
de expressão do Partido da Liberdade de Expressão'”, Josh Halliday, The
Guardian, 22 de março de 2012.
20 “o ideal fundador”: Levy, Facebook : A história interna: 458.
21 Enquanto a Apple era: Segundo Dave Morin, ex-engenheiro sênior do Facebook,
parafraseado em Levy: 149.
22 “We’re kind of fundamentally”: “The Facebook Dilemma,” PBS Frontline, 29 de
outubro de 2018. 23 uma carta aos
acionistas: “Zuckerberg's Letter to Investors,” Reuters, 1 de fevereiro de 2012.

24 “Existe esse fundamental”: Levy, 7.


25 “The reason we nerds”: Hackers and Painters, Paul Graham, 2004: 9. 26 disse que
procura: “What We Look for in Founders”, Paul Graham, Paulgraham.com, outubro de 2010.

27 “Esses caras querem”: “O que eu fiz neste verão,” Paul Graham,


Paulgraham.com, outubro de 2005.
28 “Se você for menos sensível”: Zero to One: Notes on Startups, or How to Build the
Future, Peter Thiel e Blake Masters, 2014: 40.
29 “Max Levchin, meu co-fundador”: Ibid: 122.
30 Um par de vídeos: Capturas de tela documentando o incidente podem ser encontradas em
Machine Translated by Google

“Kenny Glenn Case / Dusty the Cat,” Knowyourmeme.com, 10 de setembro


de 2011.
31 tornou extremamente popular: “Manipulação da mídia e desinformação
Online,” Alice Marwick e Rebecca Lewis, Data & Society, maio de 2017.

32 “Ultimately,” Christopher Poole: “The Trolls Among Us,” Mattathias Schwartz, New
York Times Magazine, 3 de agosto de 2008.
33 Os adolescentes também têm: Behave: The Biology of Humans at Our Best and
Worst, Robert M. Sapolsky, 2017: 163–164.
34 uso mais intenso de redes sociais: adolescentes, mídia social e privacidade, Mary
Madden et al., Pew Research Center, 21 de maio de 2013.
35 Um quadro de mensagens dos anos 90 havia definido: “De LOL a LULZ, o
Evolution of the Internet Troll over 24 Years”, Kristen V. Brown, Splinternews.com,
18 de março de 2016.
36 Em 2010, uma das comunidades: “How the Internet Beat Up an 11- Year-Old Girl,”
Adrian Chen, Gawker, 16 de julho de 2010.
37 A banda local que ela nomeou em suas postagens iniciais registrou: “Myspace
O famoso músico Dahvie Vanity foi acusado de abuso sexual infantil por anos. Agora
o FBI está envolvido”, Kat Tenbarge, Insider.com, 2 de julho de 2020.

38 Em meio a um FBI: Ibid.


39 “enquadrou regularmente sua atividade”: Você está aqui: um guia de campo para
Navigating Polarized Speech, Conspiracy Theories, and Our Polluted Media Landscape,
Whitney Phillips e Ryan M. Milner, 2021: 58. 40 “um resultado que eles provocaram”:
Ibid.
41 “Trollar é basicamente”: Schwartz. 42 “as
condições perfeitas”: Phillips e Milner: 78.
43 Auernheimer se gabou de seu papel: “The End of Kindness: Weev and the Cult of the
Angry Young Man”, Greg Sandoval, The Verge, 12 de setembro de 2013.

44 Em 2010, TechCrunch: “Estamos concedendo à Goatse Security um Crunchie


Award for Public Service,” Michael Arrington, TechCrunch, 14 de junho de 2010.

45 “jornalistas bebiam ao lado de hackers”: “Lulz e Leg Irons: No


Courtroom with Weev,” Molly Crabapple, Vice News, 19 de março de 2013.
46 “Estamos fazendo uma aposta no oceano azul”: “The Kleiner Perkins sFund: A $ 250
Machine Translated by Google

Million Bet That Social Is Just Getting Started,” Michael Arrington,


TechCrunch, 21 de outubro de
2010. 47 “três temas que vocês, CEOs”: “CEO 2.0,” discurso de Bing Gordon para
Endeavor Entrepreneur Summit em San Francisco, Califórnia, 28 de junho ,
2011.
48 o acidente do videogame norte-americano: Um relato abrangente dessa
história pode ser encontrado em “No Girls Allowed”, Tracey Lien,
Polygon.com, 2 de dezembro de 2013.
49 “Eles não estavam lutando pela direita”: “Como o sexismo da alt-right
Lures Men into White Supremacy,” Aja Romano, Vox, 26 de abril de 2018.
50 “Lembro-me das pessoas dizendo”: Facebook: The Inside Story, Steven Levy,
2020: 213.
51 Robin Dunbar havia proposto: “Coevolution of Neocortical Size, Group Size,
and Language in Humans”, Robin Dunbar, Behavioral and Brain Sciences 16,
1993. 52 o usuário
médio do Facebook tinha cerca de 130 amigos: isso foi relatado pelo agora extinto
Facebook página de estatísticas a partir de 2010. Veja, por exemplo, “10
Fascinating Facebook Facts,” Mashable, 22 de julho de 2010.
53 Friendster até resumiu: “Amigos, Friendsters e Top 8: Escrevendo
Community into Being on Social Network Sites,” Danah Boyd, First Monday
11, no. 12 de dezembro de 2006. 54
“escapando da maldição de Dunbar”: “Tipo, de quantos amigos o
Facebook precisa?” Edo Elan, The Product Guy, 10 de maio de 2010.
55 Zuckerberg falou publicamente: Zuckerberg havia dito: “Existe esse famoso
número de Dunbar – os humanos têm a capacidade de manter relacionamentos
empáticos com cerca de 150 pessoas. Acho que o Facebook estende isso.”
De Levy, Facebook: The Inside Story: 226. 56
estudos de macacos rhesus e macacos: Sapolsky: 428-436.
Machine Translated by Google

Capítulo 3: Abrindo o Portal

1 11 por cento do capital de risco em tecnologia: “Nova pesquisa reflete a falta de


mulheres e minorias em cargos de investimento sênior em empresas de
capital de risco”, comunicado de imprensa da National Venture Capital
Association, 14 de
dezembro de 2016. 2 98 por cento de seus dólares de investimento: “Financiamento
for Female Founders parou em 2,2% dos VC Dollars em 2018,” Emma
Hinchliffe, Fortune, 28 de janeiro de 2019.
3 “Não baniremos o legal”: “CEO do Reddit aborda a controvérsia de
Violentacrez,” Sean Hollister, The Verge, 18 de outubro de 2012. 4
“entenda o dano que o uso indevido”: Seções da postagem, que o Reddit
removeu desde então, podem ser encontrado em: “Resposta confusa do
Reddit à distribuição de nus,” Alex Goldman, NPR, 8 de setembro de
2014. 5 ela anunciou
a política: “De 1 a 9.000 comunidades, agora tomando medidas para aumentar o
Reddit para 90.000 comunidades (e além! ),” Ellen Pao et al., Reddit, 24 de
fevereiro de 2015.
6 Keegan Hankes, pesquisador de: “How Reddit Became a Worse Black Hole of
Violent Racism than Stormfront”, Keegan Hankes, Gawker, 10 de março de
2015. Worry About
the Blowback”, Jacob Siegel, The Daily Beast, 12 de julho de 2017.

8 “Gamergate parece ter alertado”: “Weev and the Rise of the Nazi Troll Army,”
Andrew Anglin, Daily Stormer, 4 de outubro de 2014. 9 “extremo demais”
mesmo para: Isso é de acordo com Brad Griffin, um ativista de direita. “Dylann
Roof, 4chan, and the New Online Racism,” Jacob Siegel, Daily Beast, 14 de
abril de 2017.
10 Um estudo posteriormente estimado: A Comparative Study of White Nationalist
and ISIS Online Social Media Networks, JM Berger, George Washington
University Program on Extremism, setembro de 2016.
11 “Os trolls estão vencendo”: “Os trolls estão ganhando a batalha pela Internet”,
Ellen Pao, Washington Post, 16 de julho de 2015.
12 “Toda vez que você escreve um dos seus”: “Como Stephen Bannon fez Milo
Machine Translated by Google

Dangerous,” Keegan Hankes, Southern Poverty Law Center, 23 de fevereiro de 2017.

13 “Se a cultura do estupro fosse real”: Ibid.


14 “Eu percebi que Milo poderia se conectar”: Barganha do Diabo: Steve Bannon,
Donald Trump e a Revolta Nacionalista, Joshua Green, 2017: 147.

15 “Finalmente fazendo meu grande longa”: “Veja como Breitbart e Milo


Nacionalismo branco contrabandeado para o mainstream”, Joseph Bernstein, BuzzFeed
News, 5 de outubro de 2017.
16 “The alt-right is a Movement”: “An Establishment Conservative's Guide to the Alt-
Right”, Allum Bokhari e Milo Yiannopoulos, Breitbart, 29 de março de 2016.

17 Acredita-se que o portmanteau tenha se originado: “Behind the Racist Hashtag That
Is Blowing Up Twitter,” Joseph Bernstein, BuzzFeed News, 27 de julho de 2015.

18 “Eles chamam isso de 'magia do meme'”: “Meme Magic: Donald Trump Is the Internet's
Revenge on Lazy Elites”, Milo Yiannopoulos, Breitbart, 4 de maio de 2016.

19 “Os não doutrinados não devem”: “This Is The Daily Stormer's Playbook”, Ashley
Feinberg, HuffPost, 13 de dezembro de 2017.
20 “Ele tem um caráter e um estilo”: Bokhari e Yiannopoulos. 21 um estudo de
Harvard descobriu mais tarde: partidarismo, propaganda e
Disinformation: Online Media and the 2016 US Presidential Election, Robert M.
Faris et al., Berkman Klein Center for Internet & Society research paper, 2017. 22 que
43 por cento dos americanos fizeram:
“Principais conclusões sobre o panorama das notícias online na América, ” AW Geiger, Pew
Research Center, 11 de setembro de 2019.

23 Facebook nomeou Breitbart: “Mark Zuckerberg está lutando para


Explique por que Breitbart pertence ao Facebook News,” Adi Robertson, The Verge, 25
de outubro de 2019. 24 o estudo de
Harvard concluiu: Todas as descobertas neste parágrafo e no
a seguir são de Faris et al.
Machine Translated by Google

Capítulo 4: Tirania dos Primos

1 “I’ve been between people”: “Full transcript: Walter Palmer Speaks About Cecil the
Lion Controversy,” Paul Walsh, Minneapolis Star Tribune, 7 de setembro de 2015.

2 “Não entendo esse nível”: Ibid. 3, a BBC


publicou: “Zimbabwe's 'Iconic' Lion Cecil Killed by Hunter,”
BBC News, 27 de julho de 2015.
4 envie uma mensagem de texto para um número gratuito: “Odeo Releases Twttr,”
Michael Arrington, TechCrunch, 15
de julho de 2006. 5 em um esboço inicial: “twttr sketch,” Jack Dorsey, Flickr, 24 de março , 2006.
6 “Revolução do Twitter”: Em uma reação representativa, Mark Pfeifle, um
vice-conselheiro de segurança nacional na Casa Branca de George W. Bush, pediu um
Prêmio Nobel da Paz para o Twitter, sem o qual, escreveu ele, “o povo do Irã não teria
se sentido empoderado e confiante para defender a liberdade e a democracia”. “Um
Prêmio Nobel da Paz para o Twitter?”
Mark Pfeifle, Christian Science Monitor, 6 de julho de 2009.
7 Em um único dia: “Indignação e reação: #CecilTheLion acumula
670 mil tweets em 24 horas,” Jordan Valinsky, Digiday.com, 29 de julho de 2015.

8 “Eu pagarei £35k+”: “O mundo inteiro está furioso com Walter Palmer,
o dentista americano que matou o leão Cecil,” Hanna Kozlowska, QZ.com, 28 de julho de
2015.
9 “I hope that #WalterPalmer”: “Stars Blast Minnesota Dentist over Killing of Cecil the
Lion”, Justin Ray, NBC News, 31 de julho de 2015.
10 Hundreds postou críticas negativas: “Killer of Cecil the Lion Finds Out That Is a Target Now,
of Internet Vigilantism”, Christina Capecchi e Katie Rogers, New York Times, 29 de julho
de 2015.
11 “Seus funcionários estão em melhor situação”: Comentário sobre “Enquanto isso, fora
do consultório odontológico de Walter Palmer” pelo usuário CinnamonDolceLatte,
Reddit, 29 de julho de 2015.
12 compartilhados 3,6 milhões de vezes: “Onde os cliques reinam, o público é rei,”
Ravi Somaiya, New York Times, 16 de agosto de 2015.
13 augurou uma mudança sísmica: “The Clickbait Candidate”, James Williams, Quillette, 3 de
outubro de 2016.
Machine Translated by Google

14 “A verdade é”: Ibid. 15


você se sente compelido a transmitir: “The New Synthesis in Moral Psychology”,
Jonathan Haidt, Science, 18 de maio de 2007.
16 Em um conjunto de experimentos, crianças: “How Infants and Toddlers React to
Antisocial Others,” Kiley Hamlin et al., Proceedings of the National Academy of
Sciences, 13 de dezembro de 2011. Veja também Just Babies: The Origins of
Good and Evil (2013), de Paul Bloom, coautor dos estudos de Hamlin.

17 O sentimentalismo diz que é realmente motivado: Haidt, 2007.


18 Pesquisas neurológicas apóiam isso: “O cão emocional e sua
Rational Tail: A Social Intuitionist Approach to Moral Judgment”,
Jonathan Haidt, Psychological Review, outubro de 2001.
19 Uma desenvolvedora de software chamada Adria Richards: “A Dongle Joke That
Spiraled Way Out of Control,” Kim Mai-Cutler, TechCrunch, 21 de março de 2013.

20 “Baixo custo, anônimo, instantâneo”: “Re-Shaming the Debate: Social Norms,


Shame, and Regulation in an Internet Age,” Kate Klonick, Maryland Law Review
76, no. 4, 2016.
21 tendiam a ser “sobredeterminados”: Ibid. 22
“como se vergonhas estivessem acontecendo agora”: “How One Stupid Tweet Blew
Up Justine Sacco's Life,” Jon Ronson, New York Times Magazine, 12 de
fevereiro de 2015.
23 Uma foto da turma de uma pequena cidade de Wisconsin: “A imagem da saudação nazista que
Divided an American Town”, Chris McGreal, The Guardian, 10 de janeiro de 2019.

24 Um repórter novato de Des Moines: “Twitter me odeia. o des


Moines Register me demitiu. Aqui está o que realmente aconteceu”, Aaron
Calvin, Columbia Journalism Review, 4 de novembro de 2019.
25 “Você acha que é fácil para mim”: “O CEO da Holy Land Hummus I
Know não combina com o monstro da mídia social”, Rob Eshman, The Forward,
8 de junho de 2020.
26 “É desconcertante que as pessoas que”: “Bogus Social Media Ultrage Is Making
Authors Change Lines in Their Books Now”, Laura Miller, Slate, 8 de junho de
2021.
27 Um estudante negro no Smith College: “Inside a Battle Over Race, Class, and
Power at Smith College,” Michael Powell, New York Times,
Machine Translated by Google

24 de fevereiro de 2021.
28 Um estudo de 2013 da plataforma chinesa Weibo: “Anger Is More
Influential than Joy: Sentiment Correlation in Weibo,” Rui Fan et al., PLOS One 9, no. 10
de outubro de 2014.
29 Estudos de Twitter e Facebook: “Evidência Experimental de Contágio Emocional em
Escala Massiva Através de Redes Sociais,” Adam DI
Kramer et al., Proceedings of the National Academy of Sciences 111, no. 24, junho de
2014. “Emoções hostis em comentários de notícias: uma análise nacional cruzada das
discussões do Facebook,” Edda Humprecht et al., Social Media + Society 6, no. 1, março
de 2020. “Behavioral Effects of Framing on Social Media Users: How Conflict, Economic,
Human Interest, and Morality Frames Drive News Sharing,” Sebastián Valenzuela et
al., Journal of Communication 67, no . 5 de outubro de 2017.

“A emoção molda a difusão de conteúdo moralizado nas redes sociais,” William


J. Brady et al., Proceedings of the National Academy of Sciences 114, no. 28 de
julho de 2017. “Postagens críticas obtêm mais curtidas, comentários e compartilhamentos
do que outras postagens”, Pew Research Center, 21 de fevereiro de 2017.
descobertas: “How to Tame a Fox
and Build a Dog,” Lee Alan Dugatkin e Lyudmila Trut, American Scientist, julho-agosto de 2017.
“The Silver Fox Domestication Experiment,” Lee Alan Dugatkin, Evolution: Education
and Outreach 11, 2018. 31 “ansioso para estabelecer humanos: “Early Canid
Domestication: The Farm-Fox Experiment,” Lyudmila Trut, American Scientist 87, no. 2,
março-abril de 1999.

32 resolvendo um mistério de longa data sobre os humanos: a extrapolação da pesquisa de


Trut sobre isso e as lições imediatamente subsequentes para antropologia e
comportamento humano são a base de The Goodness Paradox: The
Strange Relationship Between Virtue and Violence in Human Evolution, 2019, de
Richard Wrangham. conexões e conclusões estão longe de serem apenas de Wrangham,
ele está mais associado à teoria abrangente.

33 “A conspiração baseada na linguagem era a chave”: Wrangham: 274. 34


“tirania dos primos”: Conditions of Liberty: Civil Society and Its Rivals, Ernest Gellner, 1994.
Machine Translated by Google

35 “To be a noncomformist”: Wrangham: 275. 36 “proactive”


and “coalitional”: “Evolution of Coalitionary Killing,”
Richard Wrangham, Anuário de Antropologia Física 42, no. 1, 1999. Veja também
Wrangham, Goodness Paradox: 244.
37 Varreduras cerebrais descobrem que: “A desumanização perceptiva de rostos é
Ativado por violações de normas e facilita a aplicação de normas”,
Katrina M. Fincher e Philip E. Tetlock, Journal of Experimental Psychology 145, no.
2, 2016.
38 “In a quest to impression peers”: “Moral Grandstanding: There's a much of it about, all of
it bad,” Justin Tosi e Brandon Warmke, Aeon, 10 de maio de 2017. 39 “uma corrida
armamentista
moral”: Ibid . 40 “homogeneidade,
preconceitos de endogrupo/exogrupo”: “Arrogância moral em
Public Discourse: Status-Seeking Motives as a Potential Explanatory Mechanism in
Predicting Conflict,” Joshua B. Grubbs et al., PLOS One 14, no. 10 de 2019.

41 Em um experimento perturbador: “Reputation Fuels Moralistic Punishment That People


Judge To Be Questionably Merited,” Jillian J. Jordan e Nour S. Kteily, documento de
trabalho, 2020. Veja também “Signaling When No One Is Watching: A Reputation
Heuristics Account of Outrage and Punishment in One-Shot Anonymous Interactions,”
Jillian J. Jordan e DG Rand, Journal of Personality and Social Psychology 118, no. 1
de janeiro de 2020.

42 terminou Memorial Day 2020: Para um relato abrangente do


incidente, consulte “How Two Lives Collided in Central Park, Rattling the Nation”, Sarah
Maslin Nir, New York Times, 14 de junho de 2020. 43 “certos impulsos
sociais sombrios”: “The Bird Watcher, That Incident and His Feelings on the O destino da
mulher”, Sarah Maslin Nir, New York Times, 27 de maio de 2020.

44 Os Coopers demonstraram: Das muitas reflexões sobre a mudança na


costumes sociais animados pelas mídias sociais, aquele que talvez melhor capture a
ambivalência daquele momento: “Karens All the Way Down”, Kat Rosenfield, Arc
Digital, 26 de maio de 2020.
45 Quando dois estudiosos analisaram 300: “Political Rumoring on Twitter during the
2012 US Presidential Election: Rumor Diffusion and Correction,” Jieun Shin et al.,
New Media & Society 19, no. 8 de 2017.
Machine Translated by Google

Capítulo 5: Despertando a Máquina

1 “Em setembro de 2011, enviei um e-mail provocativo”: Medir o que


Matters: How Google, Bono and the Gates Foundation Rock the World
with OKRS, John Doerr, 2017: 161. 2 “tem dez
minutos de duração”: Ibid: 162 3 “gera
mais publicidade”: Ibid.
4 Em 2002, o spam representava 40%: “Spam Wars,” Evan I.
Schwartz, MIT Technology Review, 1 de julho de 2003.
5, a empresa credita seu algoritmo: “The Netflix Recommender System: Algorithms,
Business Value, and Innovation,” Carlos A. Gomez-Uribe e Neil Hunt, ACM
Transactions on Management Information Systems 6, no. 4 de janeiro
de 2016.
6 O Spotify adquiriu: “The Amazing Ways Spotify Uses Big Data, AI and Machine
Learning to Drive Business Success,” Benard Marr, Forbes, 30 de outubro de
2017.
7 Os homens gastavam 40% a mais: esse valor foi
corroborado independentemente por, por exemplo, “The Demographics of
YouTube, in 5 Charts,” Eric Blattberg, Digiday.com, 24 de abril de
2015. 8 um executivo chamou Goodrow: O executivo era Shishir
Mehrota. Todas as citações e paráfrases neste e no próximo parágrafo são de
Doerr: 163.
9 “Existe esse tipo de mudança”: “Cuidado com 'Filter Bubbles' on-line”, Eli
Pariser, discurso no TED2011, Long Beach, Califórnia, 2 de maio de 2011.
10 Em um experimento de 2015: “The Search Engine Manipulation Effect
(SEME) and Its Possible Impact on the Outcomes of Elections,”
Robert Epstein e Ronald E. Robertson, Proceedings of the National Academy
of Sciences 112, no. 33, 18 de agosto de 2015.
11 “O próximo presidente da América pode ser facilitado”: “How Google Could
Rig the 2016 Election”, Robert Epstein, Politico, 19 de agosto de 2015.
12 “Há uma luta épica”: Pariser.
13 O Facebook ajustou seu algoritmo: “How Facebook Shapes Your Feed,”
Will Oremus, Chris Alcantara, Jeremy B. Merrill e Artur Galocha, Washington
Post, 26 de outubro de 2021.
14 dando sermões às mulheres sobre seu dever: “Teen Vine Stars enfurecem os seguidores com
Machine Translated by Google

Telling Girls How to Be More Attractive”, Aja Romano, Daily Dot, 29 de dezembro de
2013.
15 “Há uma resposta certa”: “Carta aos acionistas”, Jeff Bezos, arquivos da Comissão
de Valores Mobiliários, 1997.
16 “O bilhão de horas diárias”: Doerr: 166–167.
17 “Esqueça a estratégia”: Zucked: Waking Up to the Facebook Catastrophe, Roger
McNamee, 2019: 41. 18 “a
verdadeira mercadoria escassa”: O memorando original, um fascinante
Um instantâneo da mudança do setor para uma economia de atenção pode ser encontrado
na íntegra em “Microsoft's CEO Sent a 3,187-Word Memo and We Read It So You Don't
Have To,” Polly Mosendz, The Atlantic Wire, 10 de julho de 2014 .

19 “Não vamos nos encontrar”: Doerr. 20


“mudança de paradigma fundamental”: “Deep Neural Networks for YouTube Recommendations”,
Paul Covington, Jay Adams e Emre Sargin, Proceedings of the 10th ACM Conference
on Recommender Systems, setembro de 2016.

21 “Então, quando o YouTube afirma”: “Reverse Engineering the YouTube Algorithm


(Part 2)”, Matt Gielen, Tubfilter.com, fevereiro de 2017.
22 “O produto nos diz”: “Executivos do YouTube ignoraram avisos, permitindo
Vídeos tóxicos correm desenfreados,” Mark Bergen, Bloomberg, 2 de abril de 2019.
23 A empresa estimou que 70 por cento: Isso é de acordo com os comentários de Neel Mohan,
diretor de produtos do YouTube, no Industry Consumer Electronics Show em janeiro
de 2018. Veja, por exemplo, “YouTube's AI Is the Puppet Master over Most of What
You Watch ,”
Joan E. Solsman, CNet, 10 de janeiro de 2018.
24 “Desenhamos muitos algoritmos”: “The Facebook Dilemma”, PBS Frontline, 29 de
outubro de 2018.
25 “É projetado para fazer”: Ibid. O palestrante é Sandy Parakilas, do Facebook
ex-gerente de operações da plataforma.
26 “Essa é a chave”: Ibid. O palestrante é Antonio García Martínez, ex-gerente de produto. 27
pesquisadores internos
rastrearam 10 milhões de usuários: “Exposição a
Notícias e opiniões ideologicamente diversas no Facebook”, Eytan Bakshy,
Solomon Messing e Lada A. Adamic, Science 348, no.
6239, 7 de maio de 2015.
Machine Translated by Google

28 “associado com a adoção mais extrema”: Ibid.


29 “Qual das grandes questões”: troca é do campo de comentários em “Pela próxima hora
estarei aqui respondendo às suas perguntas no Facebook”, Mark Zuckerberg,
Facebook.com, 30 de junho de 2015.
30 “Toda vez que você usa o Facebook”: “Por dentro da máquina de IA do Facebook,”
Steven Levy, Wired, fevereiro de 2017.
31 “Se eles fizerem isso”: “Feed de notícias: colocando seu conteúdo no lugar certo
People”, Adam Mosseri, apresentação na conferência F8 do Facebook em São
Francisco, 21 de abril de 2016.
32 “Quando os usuários gastam mais”: Doerr: 161.
33 engenheiros do Facebook responderam automaticamente: “Fui um líder eng em
Feed de notícias do Facebook”, Krishna Gade, Twitter, 11 de fevereiro de 2021.
Twitter.com/krishnagade/status/1359908897998315521 34 “Você
começa a pensar sobre”: “Mark Zuckerberg pode consertar o Facebook antes que
ele quebre a democracia?” Evan Osnos, The New Yorker, 17 de setembro
de 2018.
35 “Um algoritmo de aprendizado de máquina significativamente”: “TikTok and the Sorting
Hat,” Eugene Wei, Eugenewei.com, 4 de agosto de 2020.
36 “Nós apenas daremos”: O orador é Jim McFadden. “How YouTube Drives People to
the Internet's Darkest Corners,” Jack Nicas, Wall Street Journal, 7 de fevereiro
de 2018. 37 bombardeado com
a frase: “On Bbeing What We Remember”, Ian Begg, Victoria Armour e Thérèse Kerr,
Canadian Journal de Ciências Comportamentais 17, 1985.

38 Quando ele pesquisou o Papa Francisco no YouTube: Todas as descobertas de


O projeto de pesquisa eleitoral de Chaslot em 2016 foi publicado posteriormente em
“How YouTube's AI Boosts Alternative Facts,” Guillaume Chaslot,
Medium.com, 31 de março de 2017.
39 circulou um memorando: “The Binge Breaker,” Bianca Bosker, The Atlantic ,
novembro de 2016.
40 “Eles não fizeram nada”: Osnos.
41 “Eu percebi: isso é”: “'Our Minds Can Be Hijacked': The Tech Insiders Who Fear a
Smartphone Dystopia,” Paul Lewis, The Guardian, 6 de outubro de 2017.

42 “Não há um bom análogo”: Stand Out of Our Light: Freedom and Resistance in the
Attention Economy, James Williams, 2017: 29.
Machine Translated by Google

43 Andando pelo palco com um rádio: “Os lunáticos estão comandando o


Asylum”, Renee DiResta, discurso na conferência GoogleIO, Mountain View,
Califórnia, 8 de junho de 2016.
44 “Algoritmos estão influenciando a política”: Ibid.
45 “O tweet com curadoria média”: “O algoritmo do Twitter não parece silenciar os
conservadores”, The Economist, 1º de agosto de 2020. 46 “alguns
dos mais lascivos”: “Jack Dorsey on Twitter's Mistakes,”
Lauren Jackson, New York Times, 7 de agosto de 2020. 47
“Posso apenas dizer”: “O Chat Bot da Microsoft foi divertido por um tempo, até que se
transformou em um racista,” Mathew Ingram, Fortune, 24 de março de 2016.
48 “Você absolutamente NÃO”: “Como fazer um bot que não seja racista,”
Sarah Jeong, placa-mãe, 25 de março de 2016.
49 “Nossos engenheiros estavam caçando”: Doerr: 169.
50 “Tínhamos conseguido”: Ibid.
51 “Esticar OKRs tendem”: Ibid.
Machine Translated by Google

Capítulo 6: O Espelho da Fun House

1 altamente associado à “anomia”: “The Psychology of Conspiracy


Theories”, Karen M. Douglas, Robbie M. Sutton e Aleksandra Cichocka,
Current Directions in Psychological Science 26, no. 6 de dezembro de
2017.
2 “Pizza de queijo”, um sugeriu: uma cronologia batida a batida de
A ascensão de Pizzagate, incluindo referências a postagens individuais, pode
ser encontrada em “Anatomy of a Fake News Scandal,” Amanda Robb, Rolling
Stone, 16 de novembro de 2017; e “How the Bizarre Conspiracy Theory Behind
'Pizzagate' Was Spread,” Craig Silverman, BuzzFeed News, 5 de dezembro de
2016.
3 14% dos apoiadores de Trump: “Trump continua impopular; Voters Prefer
Obama on SCOTUS Pick,” Tom Jenson, Public Policy Polling, 9 de dezembro
de 2016. 4 outra
pesquisa testada: The Economist/ YouGov Poll, 20 de dezembro de 2016.
5 Wojcicki convocou seu estado de choque: “YouTube Executives Ignored
Warnings, Letting Toxic Videos Run Rampant”, Mark Bergen,
Bloomberg, 2 de abril de 2019.
6 “The results of the 2016 Election show”: Todas as citações neste parágrafo
do Facebook: The Inside Story, Steven Levy, 2020: 360–361.
7 Os executivos da empresa foram tão longe: “Facebook, na mira após a
eleição, diz-se que questiona sua influência”, Mike Isaac, New York Times,
12 de novembro de 2016. 8
um pesquisador do Facebook havia apresentado: “Executivos do Facebook
encerram esforços para Torne o site menos divisivo”, Jeff Horwitz e
Deepa Seetharaman, Wall Street Journal, 26 de maio de 2020.
9 Zuckerberg anulou o seu próprio: “Zuckerberg já quis sancionar Trump. Então
o FaceBook escreveu regras que o acomodavam”,
Elizabeth Dwoskin, Craig Timberg e Tony Romm, Washington Post, 28
de junho de 2020.
10 “Pessoalmente, eu acho”: “Zuckerberg: a ideia de que as notícias falsas
O Facebook influenciou a eleição é 'louco'”, Casey Newton, The Verge,
10 de novembro de 2016. 11
demonstrou empiricamente em seu próprio experimento de 2010: “O Facebook
Machine Translated by Google

Experimento aumenta a participação dos eleitores nos EUA,” Zoe Corbyn, Nature, 2012.
12 Apenas 1 por cento do usuário: “Quero compartilhar algumas ideias sobre o Facebook e a
eleição”, Mark Zuckerberg, Facebook.com, 12 de novembro de 2016.

13 “Realmente parece ter ajudado”: “Twitter Board Member: Twitter Helped Trump Win The
Election,” Charlie Warzel, BuzzFeed News, 30 de novembro de 2016.

14 “Priorização do Facebook”: “Media in the Age of Algorithms”, Tim O'Reilly, Oreilly.com, 16


de novembro de 2016.
15 “Mais de 80%”: “A IA do YouTube causou divisão nos EUA
Eleição Presidencial”, Guillaume Chaslot, Medium.com, 27 de novembro de 2016.

16 Invadindo uma rede de pedofilia: o ataque de Welch e a resposta do YouTube são


detalhado em “John Podesta Is Ready to Talk About Pizzagate”, Andy Kroll, Rolling
Stone, 9 de dezembro de 2018.
17 Sua equipe conseguiu meio milhão: a metodologia e os resultados detalhados nestas páginas
foram publicados pela primeira vez como “Emotion Shapes the Diffusion of Moralized
Content in Social Networks,” William J. Brady, Julian A.
Wills, John T. Jost, Joshua A. Tucker e Jay J. Van Bavel, Proceedings of the
National Academy of Sciences 114, no. 28, 11 de julho de 2017.

18 “Postagens negativas sobre grupos externos políticos”: “A pesquisa do Twitter mostra que seu
algoritmo favorece visões conservadoras,” Emma Roth, The Verge, 22 de outubro de
2021. 19 um estudo posterior
que se baseou em Brady: “Out-Group Animosity Drives
Engagement on Social Media”, Steve Rathje, Jay J. Van Bavel e Sander van der Linden,
Proceedings of the National Academy of Sciences 118, no. 26, 29 de junho de 2021.

20 impulsionou sistematicamente a política conservadora: “Examining Algorithmic Amplification


of Political Content on Twitter”, Rumman Chowdhury e Luca Belli, blog corporativo do
Twitter, 21 de outubro de 2021. 21 um sexto da base de usuários do
Facebook ou YouTube: o Twitter relatou 328 milhões de usuários ativos mensais em o primeiro
trimestre de 2017. Facebook relatou 1,94 bilhão. O YouTube não divulga
consistentemente dados comparáveis, mas às vezes afirma ter mais de 2
bilhões de usuários ativos mensais. Fontes: “Crescimento surpreendente de usuários
no Twitter
Machine Translated by Google

Bom presságio para 2017,” Trefis Team, Forbes, 27 de abril de 2017.


“Facebook bate no primeiro trimestre com receita de US$ 8,03 bilhões, crescimento mais
rápido para 1,94 bilhão de usuários”, Josh Constine, TechCrunch,
3 de maio de 2017. 22 capitalização de mercado vale apenas 2,5%: o mercado do Twitter
a capitalização em abril de 2017 era de $ 10,68 bilhões e a do Facebook era de $ 417
bilhões. Em comparação, o do Google foi de US$ 594 bilhões. Todos os números da
Macrotrends.net.

23 “Você está saindo com as pessoas”: “Por que estou terminando com o Twitter,” Alisyn
Camerota, CNN, 12 de julho de 2017.
24 pressionou Dorsey a mudar de rumo: “Paul Singer da Elliott Management procura substituir o
CEO do Twitter, Jack Dorsey, diz a fonte,” Alex Sherman, CNBC, 28 de fevereiro de
2020.
25 Outros executivos o descreveram como indeciso: “'Nós criamos este monstro?' How Twitter

Turned Toxic”, Austin Carr e Harry McCracken, Fast Company, 4 de abril de 2018.

26 retiros de meditação silenciosa, incluindo para Myanmar: Tweet por Jack Dorsey (@jack), 8 de
dezembro de 2018.
Twitter.com/jack/status/1071575088695140353 27 mudança
de meio período para a África: “Jack Dorsey's Planned Move to Africa Divides Square and
Twitter Investors,” Kate Rooney, CNBC, 2 de dezembro de 2019.

28 Ele se opôs ou diluiu as mudanças pós-eleitorais: o papel de Kaplan foi relatado de forma
exaustiva e independente, por exemplo, em Dwoskin et al.; Horwitz e Seetharaman; “15
meses de novo inferno dentro do Facebook”, Nicholas Thompson e Fred Vogelstein,
Wired, 16 de abril de 2018; e “Delay, Deny, and Deflect: How Facebook's Leaders Fought
Through Crisis”, Sheera Frenkel, Nicholas Confessore, Cecilia Kang, Matthew
Rosenberg e Jack Nicas, New York Times, 14 de novembro de 2018. 29 “reúna a
humanidade” : “ Leia a carta completa de 6.000 palavras de Mark Zuckerberg
sobre as ambições globais
do Facebook,” Kurt Wagner e Kara Swisher, ReCode, 16 de fevereiro de 2017. 30 entretidos
empurrando usuários de mente diferente: Jackson. 31 descreveu seu objetivo real:
“The Making of a YouTube Radical,” Kevin

Roose, New York Times, 8 de junho de 2019.


32 “como as opiniões são formadas”: “Inside Facebook's AI Machine,” Steven
Machine Translated by Google

Levy, Wired, 23 de fevereiro de 2017.


33 orientam os usuários a diferir: Ibid. 34
este processo funciona apenas em: “A Meta-Analytic Test of Intergroup
Contact Theory,” Thomas F. Pettigrew e Linda R. Tropp, Journal of Personality and
Social Psychology 90, no. 5 de junho de 2006. 35 seguem um bot
que retweetou vozes: “Exposição a pontos de vista opostos sobre
A mídia social pode aumentar a polarização política,” Christopher A. Bail et al.,
Proceedings of the National Academy of Sciences 115, no. 37, 11 de setembro
de 2018.
36 percebem os grupos externos como monólitos: os cientistas sociais
chamam isso de “efeito de homogeneidade do grupo externo”. Veja, por
exemplo: “Out-Group Homogeneity Effects in Natural and Minimal Groups,” Thomas M.
Ostrom e Constantine Sedikides, Psychological Bulletin 112, no. 3, 1992.

37 “falsa polarização”: Para um relato abrangente da falsa polarização, consulte “A


grande e ampla divisão: a falsa polarização política e suas consequências,”
Victoria Parker, tese de mestrado, Wilfrid Laurier University, 2018. 38 a falsa
polarização está
piorando: “On Trolls e enquetes: como social
Media Extremists and Dissiders Exacerbate and Mitigate Political False
Polarization”, apresentação de Victoria Parker, Wilfrid Laurier University, 2019.
39 leva as pessoas
a desenvolver visões mais extremas: “Thinking Fast and Furious: Emotional
Intensity and Opinion Polarization in Online Media,” David Asker e Elias
Dinas, Public Opinion Quarterly 83, n. 3, outono de 2019.

40 grupos aumentam sua sensibilidade: “The Spreading of Misinformation Online,”


Michela Del Vicario et al., Proceedings of the National Academy of Sciences
113, no. 3, 19 de janeiro de 2016.
41 “Quando encontramos visões opostas”: “Como a mídia social nos levou da Praça
Tahrir a Donald Trump”, Zeynep Tufekci, MIT Technology Review, 14
de agosto de 2018.
42 “o problema com o Facebook”: “Entrevista com Siva Vaidhyanathan,”
David Greene, National Public Radio, Morning Edition, 26 de dezembro de 2017.

43 “Gostaria de ler alguma coisa”: “Gritando no Vazio: como a indignação é


Machine Translated by Google

Hijacking Our Culture, and Our Minds”, National Public Radio, Hidden Brain, 7 de
outubro de 2019.
44 “Foi como sair de um transe”: Ibid. 45 um artigo curto,
mas influente: “Moral Outrage in the Digital Age,” Molly
J. Crockett, Nature Human Behavior 1, 2017.
46 “Eu acho que eles precisam ser extremamente”: “Mark Warner to Facebook: Tell Me
What You Know,” Elaine Godfrey, The Atlantic, 28 de setembro de 2017.

47 “como você tentaria disputar”: “The Facebook Dilemma”, PBS Frontline, 29 de


outubro de 2018.
48 Eles não podiam deixar de pensar: Ibid. 49
mais tarde chamou isso de “ampliganda”: “Não é desinformação. Isso é
Amplified Propaganda”, Renee DiResta, The Atlantic, outubro de 2021. 50 de acordo
com uma análise do MIT Media Lab: “Who's Influencing Election 2016?”, William Powers,
Medium.com, 23 de fevereiro de 2016. 51 começaram a postar mais de 200
vezes por dia: Para uma conta de Mackey
história, incluindo detalhes da acusação federal emitida contra ele, veja “Trump's Most
Influential White Nationalist Troll Is a Middlebury Grad Who Lives in Manhattan,” Luke
O'Brien, HuffPost, 5 de abril de 2018 ; e “FBI prende o troll racista prolífico do Twitter
'Ricky Vaughn' por interferência nas eleições de 2016”, Luke O'Brien, HuffPost, 27 de
janeiro de 2021.

52 compartilhado 36.000 vezes: “Debunking 5 Viral Images of the Migrant Caravan”,


Kevin Roose, New York Times, 24 de outubro de 2018.
53 republicanos viram uma manchete falsa: “Mudando a atenção para
A precisão pode reduzir a desinformação online,” Gordon Pennycook et al., Nature 592,
2021.
54 “A maioria das pessoas não quer se espalhar”: Ibid. 55
favoreceu fortemente os candidatos: “O algoritmo do YouTube promove candidatos populistas
nas eleições presidenciais francesas?”, Guillaume Chaslot et al., Mediashift.org, 21 de
abril de 2017. 56 “a metodologia, dados e, mais
importante”: “Como um ex-insider do YouTube investigou seu algoritmo secreto,” Paul Lewis
e Erin McCormick, The Guardian, 2 de fevereiro de 2018.

57 “Nossa única conclusão é que”: Ibid. 58


reformulando não apenas o comportamento online: Exceto quando indicado de outra forma, todos
Machine Translated by Google

as referências subsequentes ao estudo de Brady e Crockett neste capítulo são


extraídas de “The MAD Model of Moral Contagion: The Role of Motivation,
Attention, and Design in the Spread of Moralized Content Online,” William J. Brady,
Molly J. Crockett e Jay J. Van Bavel, Perspectives on Psychological Science 15,
no. 4, junho de 2020. 59 mostraram aos participantes um fluxo falso de
mídia social: “Captura de atenção
Ajuda a explicar por que o conteúdo moral e emocional se torna viral”, William J.
Brady, Ana P. Gantman e Jay J. Van Bavel, Journal of Experimental
Psychology 149, no. 4, 2020.
60 leva os usuários a expressar mais apelos: “Conteúdo moral-emocional e padrões
de expressão violenta e discurso de ódio em comentários de usuários online”,
Jeffrey Javed e Blake Miller, documento de trabalho, abril de 2019. (Javed
posteriormente conseguiu um emprego no Facebook, em um equipe que
otimiza o posicionamento do anúncio.)
Machine Translated by Google

Capítulo 7: Os Germes e o Vento

1 chegaria a uma aldeia: Veja, por exemplo: Massacre à Beira do Rio:


Crimes do exército birmanês contra a humanidade em Tula Toli, relatório da Human
Rights Watch, 19 de dezembro de 2017.
2 “As pessoas seguravam os pés dos soldados”: “Rohingya recontagem
Atrocidades: 'Eles jogaram meu bebê no fogo'”, Jeffrey Gettleman, New York
Times, 11 de outubro de 2017.
3 Uma mulher de 20 anos disse à Human Rights Watch: Sexual Violence Against
Rohingya Women and Girls in Burma, relatório da Human Rights Watch, 16 de
novembro de 2017. 4 voou para
a sede do Facebook: “Como a ascensão do Facebook alimentou
Chaos and Confusion in Myanmar”, Timothy McLaughlin, Wired, julho de 2018.

5 com discurso de ódio cada vez mais comum: Todos os exemplos neste e no próximo
parágrafo de: Hate Speech Narratives and Facilitators in Myanmar, relatório do
Centro de Estudos Avançados de Defesa (C4ADS), fevereiro de 2016. 6
analisaram uma
amostra de 32.000: Ibid. 7 38 por cento das
pessoas no país: Survey of Burma/ Myanmar Public Opinion, Center for Insights in
Survey Research, 1º de abril de 2017.
8 Madden voou para a sede do Facebook: McLaughlin, 2018.
9 “Tenho que agradecer ao Facebook”: “Em Myanmar, a negação da
Cleansing and Loathing of Rohingya,” Hanna Beech, New York Times, 24 de outubro
de 2017.
10 “Nunca houve mais”: “Genocídio na era moderna: mídias sociais e a proliferação do
discurso de ódio em Mianmar,” Ashley Kinseth, Tea Circle Oxford, maio de
2018.
11 “pergunta honesta — o que é”: Tweet de Max Read (@max_read), março
15, 2018 (desde excluído).
12 “Existem problemas reais”: Tweet de Adam Mosseri (@mosseri), março
15, 2018 (desde excluído).
13 em um episódio bizarro na Índia: “Quando a censura governamental na Web é
justificada? An Indian Horror Story,” Max Fisher, The Atlantic, 22 de agosto de 2012.
Machine Translated by Google

14 empurrando 300.000 pessoas: “Panic Seizes India as a Region's Strife


Radiates,” Jim Yardley, New York Times, 17 de agosto de 2012. 15
subiu na Indonésia: Veja, por exemplo: “Beredar Hoax Penculikan Anak,
Gelandangan Disiksa Nyaris Tewas,” Fajar Eko Nugroho, Liputan6, 7 de março
de 2017. “Justice by Numbers,” Sana Jaffrey, New Mandala, 12 de janeiro de
2017. “The Muslim Cyber Army: What Is It and What Does It Want?” Damar
Juniarto,
Indonésiaatmelbourne.unimelb.edu.au, 2017.
16 “Esta revolução começou”: “A mídia social provocou, acelerou o fogo revolucionário
do Egito”, Sam Gustin, Wired, 11 de fevereiro de 2011.
17 “A mesma ferramenta”: “Vamos projetar mídias sociais que gerem
mudanças reais,” Wael Ghonim, TED Talk, 14 de janeiro de 2016.
18 “Sinto uma tremenda culpa”: “Former Facebook Exec Says Social Media Is
Ripping Apart Society”, James Vincent, The Verge, 11 de dezembro de 2017.

19 lançaram serviços com classificação zero: Internet gratuita e os custos para a mídia
Pluralism: The Hazards of Zero-Rating the News, Daniel O'Maley e Amba Kak,
relatório digital CIMA, 8 de novembro de 2018.
20 “À medida que o uso se expande”: Facebook: The Inside Story, Steven Levy,
2020: 435.
21 “The history of progress”: Zero to One, Thiel and Masters, 2014: 32. 22 um
ensaio de 6.000 palavras: “Building Global Community,” Mark Zuckerberg,
Facebook.com, 16 de fevereiro de 2017.
Machine Translated by Google

Capítulo 8: Sinos de Igreja

1 Ela estava encontrando no México: “The Other Violence: The Lynching of José
Abraham and Rey David”, Gema Santamaría, Nexos, 22 de outubro de 2015.

2 Subúrbio de Cancun: “Um russo sobrevive a uma tentativa de linchamento em


Cancún por insultar os mexicanos”, LPB, El País, 20 de maio de 2017. 3 vilarejo de
famílias tranquilas: “Na Cidade do México assustada, uma multidão mata 2 jovens
pesquisadores”, Alberto Arce, Associated Press, 22 de outubro de 2015.
4 em outra aldeia, o mesmo padrão: “Quando as notícias falsas matam:
Linchamentos no México estão ligados a rumores virais de sequestro de crianças”,
Patrick J. McDonnel e Cecilia Sanchez, Los Angeles Times, 21 de setembro
de 2018.
5 é um impulso comunitário: Para saber mais, consulte In the Vortex of Violence:
Linchamento, Justiça Extralegal e o Estado no México Pós-Revolucionário, Gema
Kloppe-Santamaría, 2020.
6 Repórteres da BBC no norte da Nigéria: “Gostei. Compartilhar. Kill,” Yemisi
Adegoke, BBC Africa Eye, 12 de novembro de 2018.
7 sentem-se em risco de perder o cargo: Para uma explicação da pesquisa
ameaça de status e sua relevância para a coalizão Trump, veja, por exemplo: “Trump-
ing Foreign Affairs: Status Threat and Foreign Policy Preferences on the
Right,” Rachel Marie Blum e Cristopher Sebastian Parker, Perspectives on
Politics 17, no . 3, agosto de 2019. 8 “nossas identidades de grupo são mais
salientes”: “The MAD Model of Moral Contagion: The Role of Motivation, Attention, and
Design in the Spread of Moralized Content Online,” William J. Brady, Molly J.

Crockett e Jay J. Van Bavel, Perspectives on Psychological Science 15, no. 4 de junho
de 2020.
9 tentou incendiar uma casa de grupo de refugiados: “Um extremista de direita
Atitude é mais do que xenofobia”, Der Spiegel, 12 de outubro de 2015.

10 reuniu dados sobre todos os ataques anti-refugiados: “Fanning the Flames of Hate:
Social Media and Hate Crime,” Karsten Müller e Carlo Schwarz, Journal of the
European Economic Association 19, no. 4 de agosto de 2021.
Machine Translated by Google

11 “ironia envenenada”: Veja, por exemplo: “How the Parkland Teens Give Us a
Glimpse of a Post-Irony Internet,” Miles Klee, Mel Magazine, 28 de
fevereiro de 2018.
12 O advogado de Denkhaus enfatizou: “Brandstifterprozess Altena,”
Akantifahagen.blogsport.eu, 31 de maio de 2016.
13 “certeza relativamente imutável e injustificada”: “Tolerância política, dogmatismo
e usos e gratificações das mídias sociais,” Chamil Rathnayake e Jenifer
Sunrise Winter, Policy & Internet 9, no . 4, 2017.

14 Outro: narcisismo grandioso: “Por que os narcisistas correm o risco de


Desenvolvendo o vício do Facebook: a necessidade de ser admirado e a
necessidade de pertencer”, Silvia Casale e Giulia Fioravanti, Addictive
Behaviors 76, janeiro de 2018.
15 Autoestima extraordinariamente baixa: “The Relationship Between Addictive Use
of Social Media, Narcissism, and Self-Esteem: Findings from a Large National
Survey”, Cecilie Schou Andreassen, Ståle Pallesen e Mark D. Griffiths, Addictive
Behaviors 64 , janeiro 2017.
16 “A hostilidade política online está comprometida”: “The Psychology of Online
Political Hostility: A Comprehensive, Cross-National Test of the Mismatch
Hypothesis”, Alexander Bor e Michael Bang Peterson, American Political
Science Review, 2021.
17 Experimentos neurológicos confirmados: “Snapchat vs. Facebook:
Diferenças no uso problemático, tentativas de mudança de comportamento e
preferências de recompensa social por traços”, Dar Meshi, Ofir Turel e Dan
Henley, Addictive Behaviors Report 12, dezembro de 2020.
18 Ela estava certa, de fora: “A eficácia da proibição de 2015 do Reddit
Examined Through Hate Speech”, Eshwar Chandrasekharan et al.,
Proceedings of the ACM on Human-Computer Interaction 1, novembro
de 2017.
19 explorando como as normas sociais influenciam: Para uma visão geral acessível
do trabalho de Paluck, consulte “Romeo & Juliet in Rwanda: How a Soap
Opera Sought to Change a Nation”, NPR, Hidden Brain, 13 de julho de 2020.
20 Schoolkids intimidam ou não: “Changing Climates of Conflict: A Social Network
Experiment in 56 Schools,” Elizabeth Levy Paluck, Hana Shepher e Peter M.
Aronow, Proceedings of the National Academy of Sciences 113, no. 3, 19 de
janeiro de 2016.
Machine Translated by Google

21 experimento na zona rural do México: “Como a mídia influencia


Normas? Evidência experimental sobre o papel do conhecimento comum”,
Eric Arias, Pesquisa em Ciência Política e Métodos 7, no. 3 de julho de 2019.

22 identificando quais alunos foram influentes: Paluck et al., 2016.


23 “Agora, nesse caso”: “Mark Zuckerberg no ano mais difícil do Facebook e o que vem a
seguir”, Ezra Klein, Vox, 2 de abril de 2018. 24 “excesso de confiança
em terceiros”: “Carta aberta para Mark Zuckerberg,”
Phandeeyar et al., 5 de abril de 2018. 25
enviaram aos grupos um e-mail pedindo desculpas: “Zuckerberg foi denunciado
Sobre a violência em Mianmar. Aqui estão as desculpas dele”, Kevin Roose e Paul Mozur,
New York Times, 9 de abril de 2018.
26 relatório formal sobre o genocídio: Relatório da Missão Internacional Independente de
Apuração de Fatos em Mianmar, Conselho de Direitos Humanos das Nações Unidas,
27 de agosto de 2018.
27 “Você não pode simplesmente encaixar”: “Mark Zuckerberg pode consertar o Facebook
antes que ele quebre a democracia?” Evan Osnos, The New Yorker, 17 de setembro
de 2018.
28 US$ 55 bilhões: “Facebook Reports Fourth Quarter and Full Year 2018 Results,” press
release, Facebook Investor Relations, 30 de janeiro de 2019.
Machine Translated by Google

Capítulo 9: A Toca do Coelho

1 “This was new”: “As Germans Seek News, YouTube Delivers Far Right
Tirades”, Max Fisher e Katrin Bennhold, New York Times, 7 de setembro de
2018.
2 Serrato aplicou um conjunto: “Revelado: o discurso de ódio do Facebook
explodiu em Mianmar durante a crise de Rohingya,” Libby Hogan e Michael
Safi, The Guardian, 2 de abril de 2018.
3 O Google costuma promover o YouTube: “Procurando por vídeo? Google
Pushes YouTube Over Rivals”, Sam Schechner, Kirsten Grind e John West,
Wall Street Journal, 14 de julho de 2020. 4 não
refletia as comunidades do mundo real: Kaiser publicou posteriormente seu
descobertas em “Public Spheres of Skepticism: Climate Skeptics' Online
Comments in the German Networked Public Sphere”, Jonas Kaiser,
International Journal of Communication 11, 2017. 5
tiveram seu início: Veja, por exemplo, “Feeding Hate with Video: A O ex-alt-right
YouTuber explica seus métodos”, Cade Metz, New York Times, 15 de abril de
2021. 6 treinou um computador
para rastrear o YouTube; Posteriormente, os pesquisadores publicaram seus
resultados em “The German Far-right on YouTube: An Analysis of User
Overlap and User Comments,” Adrian Rauchfleisch e Jonas Kaiser, Journal
of Broadcasting and Electronic Media 64, no. 3 de 2020.
A pesquisa apareceu pela primeira vez em “Os algoritmos do YouTube
garantem que os fãs do AfD se mantenham reservados”, Adrian Rauchfleisch
e Jonas Kaiser, Vice Germany, 22 de setembro
de 2017. 7 raspou todos os
comentários: Ibid. 8 centrado em uma fervilhante: “A Alt-Right Can't Disown Charlottesville,”
Ashley Feinberg, Wired, 13 de agosto de 2017.
9 declarou um “verão do ódio”: “Summer of Hate Challenged in
Companion Civil Lawsuits,” Bill Morlin, Southern Poverty Law Center, 19
de outubro de 2017.
10 “We memed alt right”: “Our Extended Interview with Richard Spencer on White
Nationalism”, Vice News, 10 de dezembro de 2016. 11 endossou
o evento: Feinberg, 2017. 12 1.870 grupos
de extrema direita no Facebook: “Analysis of 2017 Unite o certo
Machine Translated by Google

Evento, um ano depois”, Megan Squire, Megansquire.com, agosto de 2018.

13 disse em um seminário de Harvard: “O lado negro do público em rede


Sphere”, palestra de Jonas Kaiser para Berkman Klein Luncheon Series na
Harvard University, Cambridge, Massachusetts, 23 de janeiro de 2018.
14 abriu um tópico de discussão: “McInnes, Molyneux e 4chan:
Investigating Pathways to the Alt-Right”, Cassie Miller, Southern Poverty
Law Center, 19 de abril de 2018.
15 creditado com o (((eco))): Ibid.
16 Em panfletos publicitários: “Birth of a White Supremacist,” Andrew
Marantz, The New Yorker, 9 de outubro de 2017.
17 “Eu costumava fazer parte”: citações de All the Right Stuff de Miller, 2018.
18 “horas em debate político”: Marantz, 2018. 19
portais mais importantes: Veja, por exemplo, “Alternative Influence: Broadcasting
the Reactionary Right on YouTube,” Rebecca Lewis, Data & Society,
setembro de 2018. 20 “o espírito
masculino”: “Jordan Peterson, Guardião do Patriarcado,”
Nellie Bowles, New York Times, 18 de maio de 2018.
21 buscas por “depressão”: “The Alt-Right Is Recruiting Depressed People,”
Paris Martineau, The Outline, 26 de fevereiro de 2018. 22
“agrigeved entitlement”: Angry White Men : Masculinidade no Fim da
e Era, Michael Kimmel, 2017: 31–68.
23 “Pessoas nessas comunidades”: Tweet de @SadMarshGhost, 23 de fevereiro
de 2018. twitter.com/SadMarshGhost/status/967029954016874497 24
posteriormente se tornou duas vezes: “Em Jordan Peterson, a Alt Right e
Engagement through Difference,” Joel Finkelstein, Heterodox Academy, 18 de
novembro de 2019.
25 “construção de solução de crise”: Extremismo, JM Berger, 2018: 62–89.
26 “A escala da crise”: Ibid: 96. 27
“vingança contra a humanidade”: “Elliot Rodger, Isla Vista Shooting
Suspect, Posted Misogynistic Video before Attack,” Josh Glasstetter, Southern
Poverty Law Center, 24 de maio de 2014.
28 se autodenominam “incels”: “The Alt-Right Is Killing People”, Keegan Hankes
e Alex Amend, Southern Poverty Law Center, 5 de fevereiro de 2018. Veja
também “Understanding the Incel Community on YouTube,”
Kostantinos Papadamou et al., Proceedings of the ACM on Human-
Machine Translated by Google

Interação por computador, outubro de 2021. See More


29 As visões tornaram-se mais extremas: “The Evolution of the Manosphere
across the Web,” Manoel Horta Ribeiro et al., Proceedings of the Fifteenth
International AAAI Conference on Web and Social Media, 2021.

30 cinquenta assassinatos foram reivindicados: “The Misogynist Incel Movement Is


Spreading,” Lois Beckett, The Guardian, 3 de março de 2021. 31
celebrado como um herói: “Nos anos desde o tiroteio em Isla Vista, a subcultura Incel
continua a inspirar pistoleiros ”, Jennifer Mascia, The Trace, 23 de maio de
2019.
32 pesquisou seus 25.000 membros: “Como as pessoas se juntam às milícias? A
A lista vazada de Oath Keepers tem respostas,” Ali Breland, Mother Jones, 27
de outubro de 2021. 33 um
sistema chamado Reinforce: “The Making of a YouTube Radical,”
Kevin Roose, New York Times, 9 de junho de 2019.
34 “Um dos meus amigos mais próximos”: Tweet de Chris Sacca (@sacca), 12 de
janeiro de 2021. twitter.com/sacca/status/1349055880348663808 35
sua descida havia começado: “Como o YouTube construiu uma máquina de radicalização
para a extrema-direita ,” Kelly Weill, Daily Beast, 19 de dezembro de 2018.
36 Bellingcat vasculhou um arquivo: “From Memes to Infowars: How 75
Ativistas fascistas eram 'Red-Pilled'”, Robert Evans, Bellingcat.com, 11 de outubro
de 2018.
37 “Os algoritmos do YouTube saltaram”: “My Affair with the Intellectual Dark Web”,
Meghan Daum, Medium.com, 24 de agosto de 2018.
38 Kaiser e Smoked Meat executados automaticamente: Kaiser e Smoked Meat
me forneceu, em entrevistas ao longo de 2019 e 2020, vários documentos de
trabalho que detalham seus métodos e descobertas, bem como muitos dos dados
subjacentes. Estes mais tarde se tornaram a base para vários artigos
revisados por pares e capítulos de livros, alguns ainda por vir. Veja, por exemplo:
“Birds of a Feather Get Recomendado Together: Algorithmic Homophily
in YouTube's Channel Recommendations in the United States and Germany,”
Jonas Kaiser e Adrian Rauchfleisch, Social Media + Society 6, no. 4
de outubro de 2020. 39 publicou suas descobertas: “Como as
recomendações de canal do YouTube
Push Users to the Fringe”, Craig Silverman, BuzzFeed News, 12 de abril de 2018.
Machine Translated by Google

40 “empurra muitos canais para”: “Unir a direita? How YouTube's Recommendation


Algorithm Connects the US Far-Right,” Jonas Kaiser e Adrian Rauchfleisch,
Data & Society, 11 de abril de 2018. 41 confirmaram o “canal de radicalização”:
“Auditing radicalization
caminhos no YouTube,” Manoel Horta Ribeiro et al., Proceedings of the 2020
Conference on Fairness, Accountability, and Transparency, Janeiro de 2020. 42
combinou 50
milhões de visualizações: “Untrue-Tube: Monetizing Misery and
Desinformação”, Jonathan Albright, Medium.com, 25 de fevereiro de 2018.
43 equipes de políticas recomendaram: “Executivos do YouTube ignoraram avisos,
Letting Toxic Videos Run Rampant”, Mark Bergen, Bloomberg, 2 de abril de 2019.

44 “uma batalha quase inconcebível”: “Uma carta aberta a Mark Zuckerberg,”


Leonard Pozner e Veronique De La Rosa, The Guardian, 25 de julho de 2018.

45 “We create Facebook”: “Facebook Touts Fight on Fake News, mas luta para
explicar por que o InfoWars não foi banido”, Oliver Darcy, CNN, 11 de julho de
2018.
46 “Eu sou judeu, e”: “Zuckerberg: The Recode Interview,” Kara Swisher,
Recode, 8 de outubro de 2018.
47 “Vamos segurar Jones”: Tweet de Jack Dorsey (@jack), 7 de agosto de 2018.
twitter.com/jack/status/1026984245925793792 48 “Não acredito
que seja o certo”: “Pode Correção de Mark Zuckerberg
Facebook antes de quebrar a democracia?” Evan Osnos, The New Yorker, 17 de
setembro de 2018.
49 “Não previmos totalmente”: Tweet de Jack Dorsey (@jack), 1º de março de 2018.
twitter.com/jack/status/969234275420655616 50 desistiram
em grande parte frustrados: “Empurrão de Jack Dorsey para limpar as paradas do
Twitter, pesquisadores Diga,” Deepa Seetharaman, Wall Street Journal, 15 de
março de 2020. 51
descobriram um em Denver: Landrum publicou suas descobertas em
“Suscetibilidade diferencial a argumentos enganosos sobre a Terra plana no
YouTube,” Asheley Landrum, Alex Olshansky, Othello Richards, Media
Psychology 24, no. 1, 2021.
52 exposição repetida a uma alegação: os cientistas sociais chamam isso de “ilusória
efeito de verdade”. Veja, por exemplo: “O conhecimento não protege contra
Machine Translated by Google

Illusory Truth Effect,” Lisa K. Fazio et al., Journal of Experimental Psychology


144, no. 5 de outubro de 2015.
53 impressão de que a afirmação é amplamente aceita: Este é o “comum
conhecimento” referenciado no Capítulo 1. Ver Arias 2019 e Chwe 2013.

54 “Social camaraderie”: Understanding Racist Activism: Theory, Methods,


and Research, Kathleen M. Blee, 2017: 70. 55 promessa de
resolução de sentimentos: Entre os estudos para estabelecer uma ligação entre
sentimentos de impotência e crença na conspiração: “Crenças em
conspirações,” Marina Abalakina-Paap, Political Psychology 20, no. 3, 1999.

56 enviado para desorientação: “QAnon High Priest Was Just Trolling Away as
Citigroup Tech Executive,” William Turton e Josh Brustein, Bloomberg,
7 de outubro de 2020.
57 Reenquadrando o caos como ordem: Entre os estudos para descobrir que a
crença na conspiração geralmente serve como uma forma de reafirmar
sentimentos perdidos de autonomia e controle: “Measuring Individual
Differences in Generic Beliefs in Conspiracy Theories across
Cultures: Conspiracy Mentality Questionnaire,” Martin Bruder et al. , Frontiers
in Psychology 4, 2013. 58 deslizou QAnon para o turbilhão: Este processo será
discutido mais adiante em um capítulo posterior. Veja, entre muitos outros: “As Profecias de Q,”
Adrienne LaFrance, The Atlantic, junho de 2020. “QAnon cresce no
Facebook enquanto o grupo de conspiração ganha tração popular,” Deepa
Seetharaman, Wall Street Journal, 13 de agosto de 2020. “Seven: 'Where We
Go One,'” Kevin Roose et al. , New York Times, 28 de maio de 2020.
59 downloads mais populares: “Apple, Google Lucrou com Pizzagate
Offshoot Conspiracy App”, Ben Collins e Brandy Zadrozny, NBC News, 16 de
julho de 2018. 60
alcançou o segundo lugar na Amazon: “How a Conspiracy Theory about Democrats
Drinking Children's Blood Topped Amazon's Best-Sellers List,”
Kaitlyn Tiffany, Vox, 6 de março de 2019.
61 muitos policiais: “QAnon está atraindo policiais”, Ali
Breland, Mother Jones, 28 de setembro de 2020.
62 mães de ioga e influenciadores de estilo de vida: “O mundo do ioga está repleto
de anti-Vaxxers e crentes do QAnon”, Cecile Guerin, Wired UK, 28 de
janeiro de 2021.
Machine Translated by Google

63 “Vão ser patriotas honestos”: Tweet de @_qpatriot1776_, 28 de junho de 2020, agora


removido pelo Twitter. Cópia disponível no tweet de Travis View (@travis_view), 29
de junho de 2020, twitter.com/travis_view/
status/1277634756927033345
64 “Estou no mesmo barco”: Ibid. 65 criou

uma série de contas de teste: “'Carol's Journey': What Facebook Knew about How It
Radicalized Users,” Brandy Zadrozny, NBC News, 22 de outubro de 2021. 66
através de “gateway groups”:
Ibid.
67 “Não consigo enfatizar o suficiente”: Tweet de Renee DiResta (@noUpside),
18 de fevereiro de 2018. twitter.com/noupside/status/965340235251920896 68 “Setenta
por cento dos 100 primeiros”: “Facebook sabia que apelos para 'grupos' atormentados por
violência, agora planeja reforma,” Jeff Horwitz, Wall Street Journal, 31 de janeiro, 3031.
69 “onde começa a geração da
bolha”: “Mark in the Middle”, Casey Newton, The Verge, 23 de setembro de 2020.

70 “Their theory about what”: postagem no Facebook de Dominic Fox, 8 de agosto de 2019.
www.facebook.com/reynardine/posts/10156003037586991 71 4.000 que assistiram:
“Facebook: New Zealand Attack Video Viewed 4,000 Times,” BBC News, 19 de março de
2019.
72 fax de escritório congestionado: “Twitter User Hacks 50,000 Printers to Tell People to
Subscribe to PewDiePie,” Catalin Cimpanu, ZD Net, 30 de novembro de 2018.

73 No 8chan, os usuários, assistindo ao vivo, ficaram extasiados: Todas as postagens de


usuários do tópico intitulado “*ahem*” por Anonymous, 8chan, 15 de março de 2019.
Anteriormente em 8ch.net/pol/res/12916717.html. 74
deveria ser encerrado: “'Shut the Site Down,' Says the Creator of 8chan, a Megaphone for
Gunmen,” Kevin Roose, New York Times, 4 de agosto de 2019. 75 a maior culpa era:
Royal Commission
of Inquiry into o
Ataque terrorista na Mesquita de Christchurch em 15 de março de 2019, Comissão Real
da Nova Zelândia, dezembro de 2020.
76 “YouTube era, para ele”: Ibid.
77 “Este é um ponto”: “Relatório de investigação de Christchurch divulgado,” Helen
Sullivan, The Guardian, 7 de dezembro de 2020.
Machine Translated by Google

Capítulo 10: Os Novos Senhores Supremos

1 Essas diretrizes já foram: “Post No Evil,” WNYC, Radiolab,


17 de agosto de 2018.
2 Um vasto arquipélago de milhares: Aspectos-chave do relato de Jacó sobre
O funcionamento interno da moderação do Facebook, bem como as experiências de seus
moderadores, foram estabelecidos de forma independente. Veja “Behind the Walls of
Silence,” Till Krause e Hannes Grassegger, Süddeutsche Zeitung Magazine, 15 de
dezembro de 2016. “The Low-Paid Workers Cleaning Up the Worst Horrors of the
Internet,” Gillian Tett, Financial Times, 16 de março de 2018 . “As vidas secretas dos
moderadores do Facebook na América,” Casey Newton, The Verge, 25 de fevereiro de 2019.

3 O executivo do Facebook que supervisionou: entrevista com Justin Osofsky, então vice-
presidente de operações globais do Facebook, 2 de outubro de 2018.
“Nós, obviamente, estamos sempre trabalhando para garantir que tenhamos os controles e
relacionamentos corretos em vigor. Meu instinto no que você está descobrindo aqui é
provavelmente menos um problema em um nível de parceiro, em um nível de empresa
para empresa e mais do que você está dizendo.
O que é como se você tivesse alguém na linha de frente dizendo algo inapropriado.”

4 “Por que a maioria dos mestres de xadrez”: “Conselhos para empreendedores da Y Combinator,”
Mark Coker, VentureBeat, 26 de março de 2007. 5 “em software, você quer
investir”: “As lições mais difíceis para as startups aprenderem,” palestra de Paul Graham para a
Y Combinator Startup School, abril de 2006.

6 As regalias foram planejadas: The Code: Silicon Valley and the Remaking of America,
Margaret O'Mara, 2019: 201, 271–272. 7 “passou alguns anos”:
Zucked: Waking Up to the Facebook Catastrophe, Roger McNamee: 2019: 48.

8 “Seu impacto se transformou”: Ibid.


9 “Não acredito mais”: “A educação de um libertário”, Peter Thiel,
CatoUnbound.com, 13 de abril de 2009.
10 cidades flutuantes administradas por corporações: “Mouthbreathing Machiavellis Dream of a
Silicon Reich,” Corey Pein, The Baffler, 19 de maio de 2014. 11 incumbentes:
Um termo de arte amplamente usado, é referenciado, por exemplo, em
Machine Translated by Google

“The History of Progress Is a History of Better Monopoly Businesses Replace


Incumbents,” Zero to One, Thiel e Masters, 2014: 33.
12 “This problem is one”: Open Hearing on Foreign Influence Operations' Use of
Social Media Platforms, Select Committee on Intelligence of the United States
Senate, 1 de agosto de 2018.
13 “Responsabilidade pelo”: Ibid.
14 “Um dos maiores problemas sociais”: “A Blueprint for Content
Governance and Enforcement”, Mark Zuckerberg, Facebook, 15 de
novembro de 2018. www.facebook.com/notes/751449002072082
15 “mesmo quando eles nos dizem”:
Ibid. 16 revisou seu algoritmo: “O Facebook revisa o feed de notícias em favor de
'interações sociais significativas'”, Julia Carrie Wong, The Guardian, 11 de
janeiro de 2018.
17 curtidas valiam um ponto: “Cinco pontos para raiva, um para uma 'curtida': como
a fórmula do Facebook fomentou a raiva e a desinformação,”
Jeremy B. Merrill e Will Oremus, Washington Post, 26 de outubro de 2021.

18 “Desinformação, toxicidade”: “O Facebook tentou tornar sua plataforma um


lugar mais saudável. Em vez disso, ficou mais irritado”, Keach Hagey e
Jeff Horwitz, Wall Street Journal, 15 de setembro de
2021. 19 “efeitos colaterais prejudiciais
à saúde”: Ibid. 20 “forçou-os a distorcer”: “Denunciante: o Facebook está
enganando o público sobre o progresso contra discurso de ódio, violência e desinformação,”
Scott Pelley, 60 minutos, 4 de outubro de 2021.
21 Economistas da Stanford and New York University: “The Welfare Effects of Social
Media,” Hunt Allcott et al., American Economic Review 110, no. 3, março de
2020. 22 chamando-
o de “ponto de virada”: “'Ponto de virada': Mitch Fifield sinaliza regulamentação
governamental adicional da Internet,” Michael Koziol, Sydney Morning
Herald, 8 de outubro de 2018.
23 “Se não vemos”: “União Europeia diz que o Facebook deve mudar
Regras até o final de 2018,” Alexander Smith e Jason Abbruzzese, NBC News,
19 de setembro de 2018.
24 “Facebook Morale Takes a Tumble Along with Stock Price,” Deepa
Seetharaman, Wall Street Journal, 14 de novembro de 2018.
25 pesquisa interna de 29.000: “15 Meses de Fresh Hell Inside Facebook,”
Machine Translated by Google

Nicholas Thompson e Fred Vogelstein, Wired, 16 de abril de 2019. 26 seu


bloqueio na democracia acabou: Cientistas políticos se referem à democracia mediada
por porteiros institucionais como “democracia schumpeteriana”, em homenagem
ao teórico Joseph Schumpeter. Para saber mais sobre as causas e
consequências do declínio desse sistema, consulte How Democracies Die,
Steven Levitsky e Daniel Ziblatt, 2018: 97–117. 27 “em vez
de completamente”: “Carta de Mark Zuckerberg aos investidores: o
Hacker Way”, CNN Money, 1º de fevereiro de 2012.
28 chamou essa nova era de: “O que aconteceu com a esfera pública? O
Networked Public Sphere and Public Opinion Formation,” Jonas Kaiser et
al., Handbook of Cyber-Development, Cyber-Democracia, and Cyber-Defense,
2016: 433–459.
As 29 postagens mais carregadas subiram: “Os motins dos coletes amarelos na
França são o que acontece quando o Facebook se envolve com notícias
locais”, Ryan Broderick e Jules Darmanin, BuzzFeed News, 5 de dezembro de
2018. 30 emitiram uma cacofonia: “Exigências dos Coletes Amarelos da França ”, France Bleu,
Opendemocracy.net, 29 de novembro de 2018.
31 frequência de protestos em massa: “Tendências na Resistência Não-Violenta e
Resposta do Estado: A Violência Contra Movimentos Civis Está Crescendo?”
Erica Chenoweth, Responsabilidade Global para Proteger 9, no. 1, janeiro de
2017. 32 mais
fácil para os ativistas se organizarem: Twitter and Tear Gas: The Power and Fragility
of Networked Protest, Zeynep Tufekci, 2017. 33 sob o título:
“Ex-Facebook Workers: We Routinely
Suppressed Conservative News”, Michael Nunez, Gizmodo, 9 de maio de 2016.

34 “Facebook tem o poder”: “Republicanos pressionam o Facebook sobre


Allegations of Bias against Conservative News,” Andrea Peterson, Washington
Post, 11 de maio de 2016. 35 dirigiu
mais acrimônia: Levy, 2020: 343.
36 Na segunda-feira, sua matéria principal: “Três dias após a remoção de editores
humanos, o Facebook já é tendência de notícias falsas”, Abby
Ohlheiser, Washington Post, 29 de agosto de 2016.
37 identificado como um dos principais: O blog em questão se chama Ending the
Fed. Fonte sobre seu papel nas eleições de 2016: “Partisanship,
Propaganda, and Disinformation: Online Media and the 2016 US
Machine Translated by Google

Presidential Election,” Robert M. Faris et al., Berkman Klein Center for Internet &
Society Research Paper, 2017. Redação, 2 de
fevereiro de 2018.

39 A Fox News tornou-se franca: Veja, por exemplo: “Is Facebook as Left
Inclinando-se como todos suspeitam? John Brandon, Fox News, 26 de setembro de
2016.
40 “Não chega nem perto”: “Mark Zuckerberg, do Facebook, encontrou-se com
Conservadores sobre o 'Trending' Bias Spat,” Arjun Kharpal, CNBC, 19 de maio de
2016.
41 História da Vice News com o título: “Twitter is 'Shadow Banning' Prominent
Republicans,” Alex Thompson, Vice News, 25 de julho de 2018. 42
baseado em um técnico: “Twitter não é 'Shadow Banning' republicanos, mas prepare-
se para ouvir que é É,” Laura Hazard Owen, NiemanLab.com, 27
de julho de 2018. 43 punindo-o por
questionar: Tweet de Matt Gaetz (@RepMattGaetz), 25 de julho de
2018. twitter.com/RepMattGaetz/status/
1022224027673219072 44 “suprime vozes conservadoras ”: Tweet
de Ronna McDaniel (@GOPChairwoman) 25 de julho de 2018. twitter.com/
gopchairwoman/status/1022289868620267522
45 “Basta”: Tweet de Donald Trump, Jr. (@donaldtrumpjr), 25 de julho
de 2018. twitter. com/donaldjtrumpjr/status/1022198354468593665 46 break up IBM:
Visões gerais
dos episódios da IBM e da Microsoft são

recontado em, por exemplo, “IBM and Microsoft: Antitrust Then and Now,” CNet,
2 de janeiro de 2002. Para mais detalhes e discussão do legado de casos, consulte
O'Mara, 2017: 341–346. 47 caiu tão dramaticamente:
“Dominance Ended, IBM Fights Back”, Sandra Salmans, New York Times, 9 de janeiro
de 1982.
48 “Eu disse, 'Arrume um escritório'”: Osnos, 2018.
49 argumentou um artigo de opinião de 2018: “O que o caso antitruste da Microsoft nos ensinou,”
Richard Blumenthal e Tim Wu, New York Times, 18 de maio de 2018. 50 um
líder que “viola o protocolo”: “CEO em tempos de paz/CEO em tempos de guerra”, Ben
Horowitz, A16z.com, 15 de abril de 2011.
Machine Translated by Google

51 traçou um paralelo estendido: “To Create Culture, Start a Revolution”, palestra de


Ben Horowitz para a Startup Grind Global Conference, fevereiro de 2017.
52 li um livro de autoria de Horowitz: “How Mark Zuckerberg Became a
Wartime CEO,” Casey Newton, The Verge, 20 de novembro de 2018. O livro:
The Hard Thing about Hard Things, Ben Horowitz, 2014. 53 reuniu a
empresa: “Com o Facebook em 'Guerra', Zuckerberg adota um estilo mais agressivo,”
Deepa Seetharaman, Wall Street Journal, 19 de novembro de 2018.

54 contratou um PR de artes negras: “Delay, Negy and Deflect: How Facebook's


Leaders Fought through Crisis”, Sheera Frenkel, Nicholas Confessore, Cecilia
Kang, Matthew Rosenberg e Jack Nicas, New York Times, 14 de novembro de
2018.
55 Investidores proeminentes no capital de risco: “Safe Space: Silicon
Valley, Clubhouse, and the Cult of VC Victimhood,” Zoe Schiffer e Megan
Farokhmanesh, The Verge, 16 de julho de 2020.
56 “Nós entendemos”: Tweet de Balaji Srinivasan (@balajis), 1º de julho de
2020. twitter.com/balajis/status/1278198087404515328
57 pedindo proibições em todo o vale: Schiffer e Farokhmanesh.
58ª reunião para considerar a reformulação: Thompson e Vogelstein, 2019.
59 Kaplan promoveu com sucesso: “Facebook Executives Shut Down Efforts to Make
the Site Less Divisive,” Jeff Horwitz e Deepa Seetharaman, Wall Street Journal, 26
de maio de 2020.
60 jantares off-the-record: “Inside Mark Zuckerberg's Private Meetings with
Conservative Pundits”, Natasha Bertran e Daniel Lippman, Politico, 14 de
outubro de 2019. 61 “a morte
da liberdade de expressão”: “Tucker Carlson: Zuckerberg do Facebook ditando qual
político Opiniões que você 'tem permissão para ter'”, Ian Schwartz,
Realclearpolitics.com, 2 de maio de 2019.
62 permitem que políticos mintam: “Facebook, eleições e discurso político”,
Nick Clegg, About.fb.com, 24 de setembro de 2019. Veja também “Facebook diz
que não removerá postagens de políticos por quebrar suas regras”, Adi Robertson,
The Verge, 24 de setembro de 2019.
63 “Eu estive no FB por menos”: Tweet de Sophie Zhang (@szhang_ds), 6 de junho
de 2021. twitter.com/szhang_ds/status/1401392039414046720 64 Zhang
sinalizou dezenas: Zhang contou sua história várias vezes, de forma mais
abrangente em “Ela arriscou tudo para expor o Facebook.
Machine Translated by Google

Agora ela está contando sua história”, Karen Hao, MIT Technology Review, 29 de
julho de 2021.
65 “Eu sei que tenho”: Ibid.
66 Ditadura comunista do Vietnã: “O caso contra Mark
Zuckerberg: Insiders dizem que o CEO do Facebook escolheu o crescimento
em vez da segurança”, Elizabeth Dwoskin, Tory Newmyer, Shibani Mahtani,
Washington Post, 25 de outubro de 2021.
67 estimou que a presença do Facebook no Vietnã rende US$ 1 bilhão: Vamos respirar!
Censura e criminalização da expressão online no Vietnã, Relatório da Anistia
Internacional, 30 de novembro de 2020. 68 não exibem mais anúncios
políticos: “Dissent Erupts at Facebook over Hands-Off Stance on Political Ads”, Mike
Isaac, New York Times, 28 de outubro , 2019.

69 Cerca de 250 funcionários assinaram: “Leia a Carta Funcionários do Facebook


Enviado para Mark Zuckerberg sobre anúncios políticos”, compilado pelo New York
Times, 28 de outubro de 2019.
70 publicou uma coluna sobre: “Eu trabalhei em anúncios políticos no Facebook. Eles
lucram manipulando-nos.”, Yaël Eisenstat, Washington Post, 4 de novembro
de 2019. 71 edição
explicitamente em agosto de 2019: “Facebook Wrestles with the Features It Used to
Define Social Networking,” Mike Isaac, New York Times, 25 de outubro, 2021. 72
“promoção deste tipo
de atividades”: Ibid. 73 PowerPoint de 32 slides: O
arquivo, e outros, podem ser vistos em “Inside Facebook's Secret Rulebook for Global
Political Speech,” Max Fisher, New York Times, 27 de dezembro de 2018.

74 “tempo bem gasto”: “Tempo de qualidade, trazido a você pela Big Tech,”
Arielle Pardes, Wired, 31 de dezembro de 2018.
75 “Começaremos a perceber”: Tweet de BJ Fogg (@bjfogg), 11 de setembro de 2019.
twitter.com/bjfogg/status/1171883692488183809 76 publicar um livro
com o título: “Addicted to Screens? Isso é realmente um problema seu”, Nellie Bowles,
New York Times, 6 de outubro de 2019.
77 Harris chamou a campanha: Pardes, 2018.
78 “The CEOs, inside”: “Where Silicon Valley Is Going to Get in Touch with Its Soul”,
Nellie Bowles, New York Times, 4 de dezembro de 2017. 79 um moderador
americano entrou com uma ação: “Ex-moderador de conteúdo processa
Machine Translated by Google

Facebook, dizendo que imagens violentas lhe causaram TEPT”, Sandra E.


Garcia, New York Times, 25 de setembro de 2018.
80 Em 2020, o Facebook estabeleceu: “O Facebook pagará US$ 52 milhões em
Acordo com moderadores que desenvolveram TEPT no trabalho”, Casey Newton, The
Verge, 12 de maio de 2020.
Machine Translated by Google

Chapter 11: Dictatorship of the Like 1

a far-right lawmaker edited footage: “É horrível ser difamado pelo


Bolsonaro,” Débora Lopes, Vice Portuguese, May 11, 2013. 2
millions of acres: “With Amazon on Fire, Environmental Officials in Open
Revolt against Bolsonaro,” Ernesto Londoño and Letícia Casado,
New York Times, August 28, 2019.
3 “Eu não te estupraria”: “Uma olhada nos comentários ofensivos do Brasil
Candidate Bolsonaro,” Stan Lehman, Associated Press, 29 de setembro de
2018.
4 infeccionou à margem do Brasil: “URSAL, Illuminati e o Brasil
YouTube Subculture,” Luiza Bandeira, Digital Forensic Research Lab, 30 de
agosto de 2018.
Mais 5 dezenas de conspirações: “Fast and False in Brazil,” Luiza Bandeira,
Digital Forensic Research Lab, 19 de setembro de 2018.
6 second-largest market; “Pesquisa Video Viewers: como os brasileiros estão
consumindo vídeos em 2018,” Maria Helena Marinho, Google Marketing
Materials, September 2018.
7 Almeida teve algumas ideias: Almeida e sua equipe nos forneceram
vários relatórios separados documentando sua metodologia e descobertas,
juntamente com os dados brutos subjacentes, em uma série de entrevistas
realizadas no início de 2019. Compartilhei muito desse material com o
YouTube antes da publicação de nossa história no New York Times .
Almeida e outros. ainda não publicaram esta pesquisa na íntegra e em um
artigo de jornal formal, embora tenham usado metodologia semelhante
(e produzido descobertas semelhantes) em estudos subseqüentes
revisados por pares. Ver “Auditing Radicalization Pathways on YouTube,”
Manoel Horta Ribeiro et al., Proceedings of the 2020 Conference on
Fairness, Accountability, and Transparency, Janeiro de 2020.
“Misinformation, Radicalization and Hate through the Lens of Users,”
Manoel Horta Ribeiro, Virgilio Almeida, e Wagner Meira Jr.,
dissertação, 30 de junho de 2020. 8 incentivando escolares a clandestinamente:
Ver, por exemplo: “Doutor de Professor: Vitória de Bolsonaro Faísca Empurrão contra a 'Doutrin
Dom Phillips, The Guardian, 30 de outubro de 2018.
9 Uma onda de tais incidentes: “Educação está na mira em
Machine Translated by Google

Brasil de Bolsonaro”, Michael Fox, The Nation, 12 de novembro de 2018.


Veja também “Brazil's Classrooms Become a Battleground in a Culture War”,
The Economist, 1º de dezembro de 2018.
10 Bolsonaro exortou os cidadãos: Tweet de Jair Bolsonaro (@jairbolsonaro), 11 de
novembro de 2018.
twitter.com/jairbolsonaro/status/1061809199196368896 11 Ele
substituiu os tecnocratas do governo: Por exemplo: “Brasil substitui ministro da
educação de extrema-direita por teórico da conspiração,” Dom Phillips,
The Guardian, 9 de abril de 2019.
12 tomaram medidas repetidas contra: “Facebook Removes Pages of Brazil
Activist Network before Elections”, Brad Haynes, Reuters, 25 de julho de 2018.

13 A evasão de vacinas estava aumentando: “Vaccine Confidence and Hesitancy in


Brazil,” Amy Louise Brown et al., Cadernos de Saúde Pública 21, setembro de
2018. 14 recusando-
se a usar larvicidas contra mosquitos: “Os efeitos de
Informações sobre epidemias e surtos de doenças: evidências de zika e febre
amarela no Brasil”, John M. Carey et al., Science Advances 6, no. 5 de
janeiro de 2020.
15 Brazilian Institute of Research and Data Analysis: “Mapeando propagação
de boatos no YouTube—Febre Amarela,” Isabela Pimentel, Instituto
Brasileiro de Pesquisa e Análise de Dados, February 8, 2018.

16 A equipe identificou: Kaiser et al. compartilharam suas descobertas e


metodologia comigo à medida que prosseguia, juntamente com a
documentação de apoio e os dados subjacentes. Compartilhei seleções relevantes
disso com o YouTube antes da publicação. Muito dessa pesquisa
apareceu posteriormente em: “Fighting Zika with Honey: An Analysis of
YouTube's Video Recommendations on Brazilian YouTube,” Kaiser,
Rauchfleisch e Yasodara Cordova, International Journal of Communication,
fevereiro de 2021. 17 estudando
exatamente esse fenômeno: Grande parte do metodologia, dados e resultados
referenciados nesta pesquisa podem ser encontrados nestes dois
estudos publicados: “Analyzing and Caracterizando Discussões
Políticas em Grupos Públicos de WhatsApp,” Josemar Alves Caetano et al.,
paper de trabalho, 2018. “Characterizing Attention Cascades in
Machine Translated by Google

WhatsApp Groups,” Caetano et al., Proceedings of the 10th ACM Conference


on Web Science, June 2019.
18 “YouTube anunciou que fez”: “Os quatro Rs de
Responsabilidade, Parte 2: aumentar o conteúdo oficial e reduzir o conteúdo
limítrofe e a desinformação prejudicial”, blog oficial do YouTube, 3 de
dezembro de 2019.
19 Kaiser, juntamente com Rauchfleisch e Córdova: Os pesquisadores
publicaram algumas de suas descobertas e métodos em “The Implications of
Venturing Down the Rabbit Hole”, Jonas Kaiser e Adrian Rauchfleisch,
Internet Policy Review, 27 de junho de 2019.
20 A maioria das pessoas que vê sexualizado: Para uma visão geral da pesquisa:
“A ciência do abuso sexual”, Rachel Aviv, The New Yorker, 6 de janeiro de 2013.

21 consumidores frequentemente desenvolviam esse interesse: “O uso de pornografia


desviante segue uma progressão semelhante à de Guttman?” Kathryn Seigfried-
Spellar e Marcus Rogers, Computers in Human Behavior 29, no. 5,
setembro de 2013.
22 estudo de infratores de pornografia infantil: Veja, entre outros: “An
Revisão Integrativa de Tecnologia Histórica e Tendências de Uso de
Contramedidas em Infratores de Material de Exploração Sexual
Infantil Online,” Chad MS Steel et al., Forensic Science International 33, junho de
2020. “Desvio Sexual Online, Pornografia e Material de Exploração Sexual
Infantil,” Ethel Quayle, Forensische Psychiatrie, Psychologie, Kriminologie
14, 2020. “Prevention, Disruption and Deterrence of Online Child Sexual
Exploitation and Abuse,” Ethel Quayle, ERA Forum 21, 2020. 23 uma
controvérsia anterior sobre:
“YouTube Bans Comments on Videos of Young Children in Bid to Block Predators”,
Daisuke Wakabayashi, New York Times, 28 de fevereiro de 2019.

24 Josh Hawley, um senador republicano: “Senate Bill Targets YouTube's Kids


Content amid Probe Report,” Rebecca Kern, Bloomberg, 20 de junho de 2019.

25 assinou uma carta com a senadora Marsha Blackburn: Richard Blumenthal e


Marsha Blackburn para Susan Wojcicki, 6 de junho de 2019.
www.blumenthal.senate.gov/imo/media/doc/2019.06.03%20-
%20YouTube%20-%20Child %20Abuso.pdf
Machine Translated by Google

26 disse que estava “francamente desapontado”: “Protecting Innocence in a Digital


World”, Audiência do Comitê Judiciário do Senado, 9 de julho de 2019.
Machine Translated by Google

Capítulo 12: Infodemia

1 foi a seu chefe com um plano: “OMS luta contra uma pandemia além do
coronavírus: uma 'infodemia'”, Matt Richtel, New York Times, 6 de fevereiro
de 2020.
2 “O interesse que recebi:” “Perguntas e respostas: Solidificando o papel das
plataformas de mídia social na saúde global”, Devex Partnerships, Devex.com, 29
de novembro de 2021.
3 “I made this pitch on a human”: “How WHO Is Engaging Big Tech to Fight Covid-19,”
Catherine Cheney, Devex.com, 14 de agosto de 2020. 4 an “infodemia”:
“Facebook, Amazon, Google e Mais se reuniu com a OMS para descobrir como
impedir a desinformação sobre o coronavírus”,
Christina Farr e Salvador Rodriguez, CNBC, 14 de fevereiro de 2020.
5 postagens no Facebook já estavam vencendo: “O coronavírus não pode ser curado
bebendo água sanitária ou cheirando cocaína, apesar dos rumores nas
mídias sociais”, Christina Capatides, CBS News, 9 de março de 2020.
6 influenciadores do Instagram explicaram: “Vídeo da conspiração do coronavírus
Spreads on Instagram between Black Celebrities”, Brandy Zadrozny, NBC News,
13 de março de 2020. a doença
nas torres de celular 5G: “Por que as teorias da conspiração do coronavírus florescem.
And Why It Matters”, Max Fisher, New York Times, 8 de abril de 2020.

9 O Facebook relatou 70 por cento: “Oito: 'We Go All'”, Kevin Roose, New York Times,
4 de junho de 2020. 10 saltou de 9
para 16 por cento: “YouTube Controls 16% of Pandemic Traffic Globally: Sandvine,”
Daniel Frankel, Next TV, 7 de maio de 2020. 11 estava em todo lugar em abril: Em
abril de 2020, o grupo de defesa Avaaz identificou 100 postagens de conspiração
Covid no Facebook com 1,7 milhão de compartilhamentos combinados. “Como o
Facebook pode achatar a curva da infodemia do coronavírus”, Avaaz, 15 de
abril de 2020. 12 Facebook de missionário de cidade
pequena: sua postagem recebeu 18.000 compartilhamentos.
“Fact-Checking a Facebook Conspiracy about Bill Gates, Dr. Fauci and Covid-19,”
Daniel Funke, Politifact, 14 de abril de 2020.
Machine Translated by Google

13 “O coronavírus é um governo feito”: sua postagem recebeu 90.000 compartilhamentos


e 350.000 curtidas. Tweet de @krisssnicolee, 7 de março de 2020.
twitter.com/krisssnicolee/status/1236309595544584192 14 dois
médicos apresentando falsos: o vídeo deles recebeu 4,3 milhões de visualizações.
“Deixe o desmascaramento: dois médicos de Bakersfield se tornam virais com
conclusões duvidosas do teste COVID”, Barbara Feder Ostrov, Cal Matters, 27 de
abril de 2020.
15 se espalhou rapidamente pelo YouTube: “Como o Covid-19 afetou o movimento anti-
vacinação? Uma análise de mídia social”, Commetric, 2 de junho de 2020.

16 “explosive growth in anti-vaccination”: “The Online Competition between Pro-


and Anti-Vaccination Views,” Neil F. Johnson et al., Nature 582, maio de 2020.

17 documentos internos sugerem que o Facebook: “The Case against Mark


Zuckerberg: Insiders Say Facebook's CEO Chose Growth over Safety,”
Elizabeth Dwoskin, Tory Newmyer, Shibani Mahtani, Washington Post, 25
de outubro de 2021.
18 Zuckerberg vetou: Ibid. 19
pesquisadores investigaram a “viralidade fabricada”: “Facebook
Os funcionários encontraram uma maneira simples de lidar com a
desinformação. Eles 'despriorizaram' isso depois de se encontrarem com Mark
Zuckerberg, Documents Show,” Billy Perrigo e Vera Bergengruen, Time, 10 de
novembro de 2021.
20 A rota do vídeo para a viralidade: “Virality Project (US): Marketing Meets
Misinformation,” Renée DiResta e Isabella Garcia-Camargo, Stanford
Internet Observatory, 26 de maio de 2020. 21
disseminado para comunidades de medicina alternativa: Ibid.
22 não reagiu até que as agências de notícias: “How the 'Plandemic' Movie and Its
Falsehoods Spread Widely Online,” Sheera Frenkel, Ben Decker, Davey Alba,
New York Times, 20 de maio de 2020.
23 “O desafio que tenho com eles”: Cheney, agosto de 2020. 24 mais
propensos a acreditar que a vitamina C: “A relação entre o consumo de mídia e a
desinformação no início da pandemia de SARS-CoV-2 nos EUA,” Kathleen Hall
Jamieson e Dolores Albarracin, Harvard Kennedy School Misinformation Review 1,
no. 2, 2020.
25 médicos relataram mais e mais pacientes: “Coronavirus Doctors Battle
Machine Translated by Google

Outro flagelo: desinformação”, Adam Satariano, New York Times, 17 de agosto de


2020.
26 “Mais evidências de uma plandemia”: Tweet de Rachel McKibbens
(@rachelmckibbens), 15 de novembro de 2021.
twitter.com/RachelMcKibbens/status/1460268133302738947
27 uma conspiração propagada pelo Facebook: “Não, Covid-19 Vaccines Do Not
'Shed'”, Arijeta Lajka, Associated Press, 29 de abril de 2021. 28
eles trocaram mensagens de texto: Tweet de Rachel McKibbens
(@rachelmckibbens), 11 de novembro , 2021.
twitter.com/RachelMcKibbens/status/1458881015917678594
29 “Comece a redigir essa operação”: Queixa criminal, Estados Unidos da América v.
Ivan Harrison Hunter, Caso 20-mj-758-hb, 27 de maio de 2020.
30 “Ele estava completamente desconectado”: “Eu senti ódio mais do que
Qualquer coisa: como um aviador ativo tentou iniciar uma guerra civil”,
Gisela Pérez de Acha, Kathryn Hurd e Ellie Lightfoot, Frontline e ProPublica, 13
de abril de 2021. 31 advertiram que
“insurgências virais”: “Cyber Swarming, Memetic Warfare and Viral Insurgency”, Alex
Goldenberg e Joel Finkelstein, Network Contagion Research Institute , fevereiro de
2020.
32 Um arquivo “Boogaloo Tactics”: Tech Transparency Project, 22 de abril de 2020. 33
comprou um componente AR-15: Reclamação criminal, Estados Unidos da América v.
Timothy John Watson, Caso 3:20-mj-000127-RWT, outubro 30 de 2020.

34 eles planejaram “treinamento com armas de fogo”: Queixa criminal, Estados Unidos
da América v. Jessie Alexander Rush, Robert Jesus Blancas, Simon Sage Ybarra
e Kenny Matthew Miksch, Caso CR-21-0121-JD, 23 de março de 2021.

Em 35 de fevereiro, seus grupos atraíram 900.000 usuários: “Facebook Removes Some


Events Calling for Protests of Stay-at-Home Orders”, Brandy Zadrozny, NBC News,
20 de abril de 2020.
36 Mas milhares permaneceram ativos nas páginas: Veja, por exemplo:
“Extremistas estão usando o Facebook para organizar a guerra civil em meio
ao coronavírus”, relatório do Tech Transparency Project, 22 de abril de 2020.
37 Crença QAnon agora infundida: “QAnon cresce no Facebook como
Conspiracy Group Gains Mainstream Traction,” Deepa Seetharaman, Wall Street
Journal, 13 de agosto de 2020.
Machine Translated by Google

38 Nina Jankowicz, uma desinformação: Tweet por Nina Jankowicz


(@wiczipedia), 27 de maio de 2020.
twitter.com/wiczipedia/status/1265629272988954625 39
preenchido com assobios de cachorro Q: “Facebook Bans One of the Anti-Vaccine
Movement's Biggest Groups for Violating QAnon Rules,” Aatif Sulleyman,
Newsweek , novembro 18 de 2020.
40 TikTok surgiu com Pizzagate: “A teoria da conspiração 'PizzaGate' prospera
novamente na era TikTok,” Cecilia Kang e Sheera Frenkel, New York Times, 27 de
junho de 2020.
41 Naquele verão, noventa e sete: “Aqui estão os apoiadores do QAnon concorrendo
ao Congresso em 2020”, Alex Kaplan, Media Matters, 7 de janeiro de 2020
(atualizado até 27 de julho de 2021).
42 Hunter gritou: “Justiça para Floyd”: EUA v. Hunter, 2020.
43 “Está na nossa costa agora”: os detalhes das ações de Carrillo e Justus são
de acordo com queixas criminais federais. Veja, por exemplo: “Alleged 'Boogaloo'
Extremist Charged in Killing of Federal Officer during George Floyd Protest,”
Andrew Blankstein e Ben Collins, NBC News, 16 de junho de 2020.

44 Carrillo propôs a ele: De Acha, Hurd e Lightfoot, abril de 2021. 45 ele “enviaria a
Guarda Nacional”: Tweet de Donald J. Trump (@realDonaldTrump), 29 de maio de
2020. Desde então excluído. 46 "divisivo e inflamatório":
"Zuckerberg diz que está 'lutando' com as últimas postagens de Trump, mas deixando-
as", David Ingram, NBC News, 29 de maio de 2020.

47 uma conspiração há muito desmascarada: “Show Me State of Mind,” Jelani Cobb,


This American Life 671, 29 de março de 2019.
48 Alguns divulgaram seu número de telefone: Tweet por Andy Mannix
(@andrewmannix), 29 de maio de 2020.
twitter.com/AndrewMannix/status/1266253783408930816. Como que para
enfatizar que seus antagonistas talvez tivessem o homem errado, Mannix mais
tarde compartilhou um Prêmio Pulitzer pela reportagem do Minneapolis
Star Tribune sobre os abusos policiais que inspiraram os protestos. 49
fotos postadas das placas: Tweet por Max Blumenthal (@MaxBlumenthal),
30 de maio de 2020. Desde então excluído. 50 processou o
Facebook, alegando que: “O Facebook promoveu o extremismo levando ao assassinato
do oficial federal Dave Patrick Underwood: ação judicial,”
Machine Translated by Google

Aaron Katersky, ABC News, 6 de janeiro de 2020.


51 “A inação do Facebook em derrubar”: Tweet de Lauren Tan
(@sugarpirate_), 1º de junho de
2020. twitter.com/sugarpirate_/status/1266470996162146304
52 Ainda naquele mesmo dia, a mais popular de sua plataforma: “How Facebook Is
Minando 'Black Lives Matters'”, The Daily, um podcast do New York Times ,
22 de junho de 2020.
53 Ao longo de junho, surgiram histórias: Veja, por exemplo: “Zuckerberg já quis
sancionar Trump. Então o Facebook escreveu regras que o acomodavam”,
Elizabeth Dwoskin, Craig Timberg, Tony Romm, Washington Post, 28 de
junho de 2020.
54 Grupos de direitos civis lideraram uma campanha: “Facebook's Tipping Point,”
Judd Legum, Popular Information, 27 de junho de
2020. 55 proibiram o Boogaloo de: “Banning a Violent Network in the US,”
Redação do Facebook, About.fb.com, 30 de junho de 2020.
56 YouTube removeu vários proeminentes: “YouTube Bans Stefan
Molyneux, David Duke, Richard Spencer e More for Hate Speech,”
Julia Alexander, The Verge, 29 de junho de 2020.
57 Reddit fechou dois mil: “Reddit Bans The_Donald, Fórum de
Quase 800.000 fãs de Trump, por causa de postagens abusivas,” Bobby Allyn,
NPR, 29 de
junho de 2020. 58 postou uma mensagem de despedida de 24 minutos: “'Facebook
está machucando pessoas em grande escala'”, Ryan Mac e Craig Silverman,
BuzzFeed
News , 23 de julho de 2020. 59 dizendo aos repórteres que sentiam: “Facebook
falha em apaziguar os organizadores do boicote aos anúncios”, Mike Isaac e
Tiffany Hsu, New York Times, 7 de julho de 2018. “Quando um crítico
conheceu o Facebook: 'O que eles são Doing Is Gaslighting'”, Charlie
Warzel, New York Times, 9 de julho de 2020. .com, 8 de julho de 2020.

61 Mas os auditores concederam acesso: Ibid.


62 ultrapassou Joe Biden por quarenta: dados de Crowdtangle.com.
63 “Não sei como o conselho do Facebook”: “Nancy Pelosi se pergunta como os
principais funcionários do Facebook podem 'olhar-se no espelho' porque
'ganham dinheiro com veneno'”, Avery Hartmans, Business
Machine Translated by Google

Insider, 21 de setembro de 2020.


64 Ele impôs uma penalidade visivelmente mais leve: “New Steps to Protect the
US Elections,” Facebook Newsroom, About.fb.com, 3 de setembro de 2020.

65 “Estamos fazendo isso para reduzir”: Tweet de @instagramcommes, outubro


29, 2020.
mobile.twitter.com/InstagramComms/status/1321957713476280320 66 A um
mês da eleição: “Com o dia da eleição se aproximando, o Twitter impõe novos
limites aos políticos dos EUA — e também aos usuários comuns,”
Elizabeth Dwoskin e Craig Timberg, Washington Post, 9 de outubro de 2020.

67 o esforço para “desacelerar” a viralidade: “Passos adicionais que estamos


tomando antes das eleições de 2020 nos EUA”, Vijaya Gadde e
Kayvon Beykpour, blog corporativo do Twitter, 9 de outubro
de 2020. 68 impuseram proibições totais ao movimento em outubro: “Facebook
Amps Up Its Crackdown on QAnon,” Sheera Frenkel, New York Times, 6 de
outubro de 2020. “Twitter, in Widening Crackdown, Removes over 70,000
QAnon Accounts,” Kate Conger, New York Times, 11 de janeiro de 2021.
69 A CEO do YouTube, Susan Wojcicki, disse apenas: “O YouTube aperta as regras
sobre vídeos de conspiração, mas não chega a proibir o QAnon”, Jennifer
Elias, CNBC, 15 de outubro de 2020.
70 pelo menos 60.000 postagens: Mídia social em 2020: Incitamento, Contra-ação
relatório, 25 de novembro de
2020. 71 “uma bala na cabeça”: “Marjorie Taylor Greene indicou apoio para
Executing Prominent Democrats in 2018 and 2019 before Running for Congress,”
Em Steck e Andrew Kaczynski, CNN, 26 de janeiro de 2021.
72 ganhou 338.000 membros: “The Rise and Fall of the 'Stop the Steal' Facebook
Group,” Sheera Frenkel, New York Times, 5 de novembro de 2020.

73 poderes sombrios destinados a explorar: “Richard Barnett, homem do Arkansas


retratado sentado na mesa de Nancy Pelosi, preso”, The Associated Press,
8 de janeiro de 2021.
74 Organizou um grupo de apoio à caridade: “Save Our Children
Arrecada mais de US$ 1.000 para organizações sem fins lucrativos”, Westside Eagle Observer, 28 de
outubro de 2020.

75 “Precisamos acabar com isso”: “O ataque ao Capitólio durou meses


Machine Translated by Google

Fazendo no Facebook”, relatório do Tech Transparency Project, 19 de janeiro de 2021.

76 as vinte postagens mais engajadas do Facebook: dados de Crowdtangle.com.


77 trabalhadores eleitorais de Detroit: “Nenhuma cédula de evidência foi contrabandeada
para o centro de contagem de Detroit”, Clara Hendrickson, Detroit Free Press, 5
de novembro de 2020.
78 “O YouTube tem sido ótimo”: “Os críticos chamam o YouTube de Gary Franchi
Channel, a Next News Network, uma colméia de teorias da conspiração. Então, como ele
sobreviveu à repressão da conspiração da plataforma?” John Keilman, Chicago Tribune,
31 de outubro de 2020. 79 cédulas sendo “despejadas”:
Tweet de @j_epp_, 4 de novembro de 2020. Desde
excluído.

80 carteiros desonestos fugiram: Tweet por @breaking911, 5 de novembro de


2020. Desde excluído.

81 10 por cento de todas as visualizações baseadas nos EUA: “Internal Alarm, Public
Shrugs: Facebook's Employees Dissect Its Election Role,” Ryan Mac e Sheera
Frenkel, New York Times, 22 de outubro de 2021. 82 1 por cento
do YouTube: Tweet de Guillaume Chaslot (@gchaslot), 3 de dezembro de 2020. twitter.com/
gchaslot/status/1334615047197380610 83 visualizações 138 milhões de vezes: “Election
Fraud Narrative,”
Relatório Transparency.tube, 17 de novembro de 2020.
84 A plataforma permaneceu saturada: “YouTube Still Awash in False Voter Fraud Claims”,
Tech Transparency Report, 22 de dezembro de 2020. 85 “montanhas de
evidências”: “Promessa de apoiadores de extrema-direita de Trump
Violence at Today's DC Protests,” Jordan Green, Raw Story, 6 de janeiro de 2021.

86 mais de 80% das discussões: “Em sites de extrema direita, planos para invadir o Capitólio
foram feitos à vista”, Laurel Wamsley, NPR, 7 de janeiro de 2021.

87 “Vamos matar o Congresso”: Green, 6 de janeiro de 2021.


88 “Este é o NOSSO PAÍS!!!”: Swaine, abril de 2021.
89 “Se você não gosta”: “Comício Republicano do Condado de Richard Barnett Benton”,
KNWA Fox 24, 6 de janeiro de 2021.
90 “Hoje eu tive a maior dificuldade”: “Como a direita insurgente e a MAGA estão sendo unidas
nas ruas de Washington DC,”
Robert Evans, Bellingcat.com, 5 de janeiro de 2021.
Machine Translated by Google

91 “Disse adeus à minha mãe”: Ibid.


92 Apelido inspirado no YouTube e no Reddit: “What Does 'Pedes' Mean?”
naterich_stl, Reddit, 16 de março de 2019.
93 “honra da minha vida”: Evans.
94, um relatório do inspetor geral constatou: “A polícia do Capitólio pediu para conter a
resposta ao motim em 6 de janeiro, constatações do relatório,” Luke Broadwater,
New York Times, 13 de abril de 2021.
95 “Estamos dentro, estamos dentro!” “West Virginia Lawmaker registra a si mesmo
Invadindo o Capitólio dos EUA: 'Estamos dentro!'” The Associated Press, 7 de janeiro
de 2021.
96 postando sobre a manifestação por dias: Reclamação criminal, Estados Unidos da
América v. Derrick Evans, Caso 1:21-CR-337, 8 de janeiro de 2021.
97 “We just push, push”: Queixa criminal, Estados Unidos da
América v. Jenny Cudd, Caso 1:21-cr-00068-TNM, 13 de outubro de 2021.
98 “Você está executando um cidadão”: queixa criminal, Estados Unidos da América
v. Thomas Edward Caldwell, Donovan Ray Crowl e Jessica Marie Watkins,
Caso 1:21-mj-00119, 19 de janeiro de 2021.
99 “Todo mundo ali é um traidor”: Queixa criminal, Estados Unidos da América v.
Peter Francis Stager, Caso 1:21-mj-00057, 14 de janeiro de 2021. , Unido

Estados da América v. Dominic Pezzola, Caso 1:21-mj-00047, 13 de janeiro de


2021.
101 Ex-amigos disseram ao Vice News: “The Proud Boy Who Smashed a US Capitol
Window Is a Ex-fuzileiro naval”, Tess Owen e Mack Lamoureux, Vice
News, 15 de janeiro de 2021.
102 “Carreguem suas armas e peguem”: “A radicalização de Kevin Greeson,”
Connor Sheets, ProPublica e Birmingham News, 15 de janeiro de 2021.
103 A família de Boyland disse: “Death of QAnon Follower at Capitol Leaves a Wake of
Pain,” Nicholas Bogel-Burroughs e Evan Hill, New York Times, 30 de maio de 2021.
104 filmou a morte de
Babbitt: “The Story of the Man Who Filmed Ashli
Babbitt's Death”, Samuel Benson, Deseret News, 11 de agosto de 2021.
105 “Isso me comoveu”: “John Sullivan, que filmou o tiroteio de Ashli Babbitt no Capitólio,
detido sob acusações federais”, Robert Mackey, The Intercept, 14 de janeiro de 2021.
Machine Translated by Google

106 “Podemos ter um pouco de coragem”: “Twitter, Facebook Freeze Trump


Contas como gigantes da tecnologia respondem ao assalto ao Capitólio dos EUA,”
Elizabeth Culliford, Katie Paul e Joseph Menn, Reuters, 6 de janeiro de 2021.

107 “Precisamos derrubar”: “O Facebook forçou seus funcionários a parar de


discutir a tentativa de golpe de Trump”, Ryan Mac, BuzzFeed News, 6 de
janeiro de 2021.
108 “A mídia social encorajou”: “Declaração do Sindicato dos Trabalhadores da Alphabet
sobre a Insurreição de Ontem”, Sindicato dos Trabalhadores da Alphabet, 7 de
janeiro de 2021.
109 “Você tem sangue”: Tweet de Chris Sacca (@sacca), 6 de janeiro de 2021.
twitter.com/sacca/status/1346921144859783169
110 “Nunca fui fã”: “Joe Biden”, The Editorial Board, New York Times, 17 de janeiro
de 2020.
111 “Talvez nenhuma entidade única”: Tom Malinowski e Anna G. Eshoo para
Mark Zuckerberg, 21 de janeiro de 2021.
malinowski.house.gov/sites/malinowski.house.gov/files/Letter%20to
%20Facebook%20—%20Malinowski_Eshoo_final_0.pdf 112 “O
problema fundamental”: Tom Malinowski e Anna G. Eshoo para Sundar Pichai e
Susan Wojcicki, 21 de janeiro de 2021. malinowski.house.gov/
sites/malinowski.house.gov/files/Letter%20to %20YouTube%20—
%20Malinowski_Eshoo_final_0.pdf 113 “Demos tudo de nós”: Post
por Ron Watkins (@codemonkeyz), Telegram, 20 de janeiro de 2021.

114 “Ao entrarmos no”: Ibid.


115 Um moderador 8kun expurgado: Postado por Pillow, 8kun, 20 de janeiro de
2021. archive.is/
lG6er 116 “Mods, por favor, explique”: Postado por StartAgain, Greatawakening.win,
20 de janeiro de
2021. 117 “ser uma criança e ver” : Postado por FL350, Greatawakening.win, janeiro
20 de 2021.
118 “TUDO vai acontecer”: Postado por Bubba1776, Greatawakening.win,
20 de janeiro de 2021.
119 “Perdi amigos”: Ibid.

epílogo: denúncia
Machine Translated by Google

1 não promove mais política: “Facebook vai parar de recomendar o Civic


e grupos políticos,” BBC News, 28 de janeiro de 2021.
2 estava quase vazio: “O Facebook disse que pararia de forçar os usuários a se juntarem a
grupos políticos partidários. Não funcionou”, Leon Yin e Alfred Ng, The Markup, 19 de janeiro
de 2021. 3 sob pressão do democrata:
“Facebook diz 'problemas técnicos'
Were the Cause of Broken Promise to Congress,” Alfred Ng e Leon Yin, The Markup, 12 de
fevereiro de 2021.
4 reverteu a mudança: “Facebook Reverses Postelection Algorithm Changes that Boosted
News from Authoritative Sources”, Kevin Roose, The New York Times, 16 de dezembro
de 2020.
5 A empresa alegou: “Uma atualização sobre as eleições de segundo turno da Geórgia,”
Sarah Schiff, About.fb.com, 15 de dezembro de 2020.
6 No dia seguinte ao Facebook: “Na Geórgia, as mudanças do Facebook trouxeram de volta
um feed de notícias partidário”, Corin Faife, The Markup, 5 de janeiro de 2021.

Em 7 de março daquele ano, o Facebook suspendeu: “Facebook encerra proibição de


Publicidade”, Mike Isaac, The New York Times, 3 de março de 2021.
8 “Eu acho que esses eventos”: “Sandberg do Facebook desviou a culpa por
Capitol Riot, mas novas evidências mostram como a plataforma desempenhou o papel”,
Elizabeth Dwoskin, Washington Post, 13 de janeiro de 2021. 9 “marque
uma grande mudança”: “Banir o presidente Trump foi a decisão certa, diz Adam Mosseri do
Instagram”, Nilay Patel, The Verge, 19 de janeiro de 2021.

10 “Os sistemas do Facebook não foram projetados”: “You and the Algorithm: It Takes Two to
Tango,” Nick Clegg, Medium.com, 31 de março de 2021. 11 “deixado para metástase”:
tendências na direção errada: mídias sociais
Platforms' Declining Enforcement of Voting Disinformation, Common Cause Report, 2 de
setembro de 2021. 12 “pelo menos um grupo
de extrema-direita no Facebook”: Breaching the Mainstream: A National Survey of Far-Right
Membership in State Legislatures, Institute for Research and Education sobre Direitos
Humanos, maio de 2022.
13 “incentivando as crianças a gravar seus professores”: “Florida GOP empurra
pesquisa de 'diversidade intelectual' para faculdades”, Ana Ceballos, The Tampa Bay Times,
6 de abril de 2021. 14 adulteração
de sistemas de votação: “Máquina de votação desaparecida após
Machine Translated by Google

Michigan Clerk Stripped of Election Power,” Jonathan Oosting, Bridge


Michigan, 28 de outubro de 2021. “Várias interrupções de Tina Peters fizeram
com que os comissários quase expulsassem Peters da audiência pública”,
Western Slope Now, 25 de outubro de 2021.
15 “na cédula em 26 estados:” “Os candidatos QAnon estão na cédula em 26
estados”, Steve Reilly, et al., Grid, 12 de abril de 2022.
16 emitiu um comunicado formal: “Surgeon General Assails Tech Companies over
Misinformation on Covid-19,” Sheryl Gay Stolberg e Davey Alba, New York
Times, 15 de julho , 2021.
17 Biden disse que o Facebook: “'Eles estão matando pessoas': Biden denuncia a
mídia social por desinformação de vírus”, Zolan Kanno-Youngs e Cecilia Kang,
New York Times, 16 de julho de 2021.
18 divulgou um relatório de 449 páginas: Investigation of Competition in Digital
Markets, House Subcommittee on Antitrust, Commercial and
Administrative Law, 6 de outubro de 2020.
19 pagam agências de notícias australianas: “A Austrália pode forçar o Google e
Facebook para pagar por notícias?” Celina Ribeiro, Wired, 30 de agosto de 2020.
20 39% dos australianos: Relatório de notícias digitais: Austrália 2020, Centro
de pesquisa de notícias e mídia da Universidade de Canberra, 2020.
21 Muito mais ficou obscuro: “Facebook's New Look in Australia: News and Hospitals
Out, Aliens Still In,” Damien Cave, New York Times, 18 de fevereiro de 2021.
22 “calculado para
impacto”: Tweet de Evelyn Douek (@evelyndouek ), 17 de fevereiro de 2021.
twitter.com/
evelyndouek/status/1362171044136710144 23 Human Rights
Watch descrito: Tweet de Sophie McNeill (@sophiemcneill), 17 de
fevereiro de 2021. twitter.com/Sophiemcneill/
status/1362187114431975426 24 O legislador australiano alertou:
Tweet de Anthony Albanese (@albomp), 17 de fevereiro de 2021. twitter.com/AlboMP/
status/
1362177819304812544
25 “provavelmente será incapaz de oferecer”: “Meta diz que pode fechar o Facebook
e o Instagram na Europa devido à disputa de compartilhamento de dados”,
Sam Shead, CNBC, 7 de
fevereiro de 2022. 26 “a vida tem sido fantástica”: “Estamos Tudo bem sem o
Facebook, dizem os ministros alemão e francês,” William Horobin e Zoe Schneeweiss,
Machine Translated by Google

Bloomberg News, 7 de fevereiro de 2022.


27 40% da força de trabalho da big tech: “How Tech Workers Feel about China, AI and Big
Tech's Tremendous Power,” Emily Birnbaum e Issie Lapowsky, Protocol, 15 de março
de 2021 .
28 Durante meses, ela manteve contato: “Por dentro do grande vazamento do Facebook”,
Ben Smith, New York Times, 24 de outubro de 2021.
29 “Eu simplesmente não quero agonizar”: “A educação de Frances Haugen: como o
denunciante do Facebook aprendeu a usar dados como uma arma de anos em
tecnologia”, Cat Zakrzewski e Reed Albergotti, Washington Post, 11 de outubro
de 2021 .
30 “Facebook percebeu”: “Denunciante: o Facebook está enganando o público sobre o
progresso contra discurso de ódio, violência e desinformação,”
Scott Pelley, 60 minutos, 4 de outubro de 2021.
31 “Podemos ter redes sociais de que gostamos”: Frances Haugen Opening
Declaração, Audiência do Senado sobre Crianças e Mídias Sociais, 5 de outubro de
2021.
32 “O que vemos em Mianmar”: Zakrzewski e Albergotti, outubro de 2021.

Você também pode gostar