Escolar Documentos
Profissional Documentos
Cultura Documentos
O Hachette Book Group apoia o direito à liberdade de expressão e o valor dos direitos
autorais. O propósito dos direitos autorais é encorajar escritores e artistas a produzir
trabalhos criativos que enriqueçam nossa cultura.
Little, Brown and Company é uma divisão da Hachette Book Group, Inc. O nome e o logotipo
Little, Brown são marcas registradas da Hachette Book Group, Inc.
O editor não é responsável por sites (ou seu conteúdo) que não sejam de sua propriedade.
O Hachette Speakers Bureau fornece uma ampla gama de autores para eventos de
palestras. Para saber mais, acesse hachettespeakersbureau.com ou ligue para (866)
376-6591.
ISBN 978-0-316-70331-4
E3-20220706-JV-NF-ORI
Machine Translated by Google
Conteúdo
Cobrir
Folha de rosto
direito autoral
Dedicação
Nota do autor
prólogo: consequências
Um: Preso no Cassino
Dois: Tudo é Gamergate
Três: Abrindo o Portal
Quatro: Tirania dos Primos
Cinco: Despertando a Máquina
Seis: O Espelho da Casa Divertida
epílogo: denúncia
Agradecimentos
Descubra mais
Machine Translated by Google
Sobre o autor
Notas
Machine Translated by Google
Nota do autor
prólogo
consequências
Em minha bolsa, enfiada entre blocos de notas, estava meu ingresso: mais de 1.400
páginas de documentos internos, de regiões do mundo todo, que revelavam a mão invisível
do Facebook em estabelecer os limites da política e do discurso aceitáveis para dois bilhões
de usuários em todo o mundo. Para o insider que os vazou para mim, os arquivos eram
evidências da negligência e dos atalhos da empresa na tentativa de conter a crescente
turbulência global que ele acreditava que seus produtos exacerbavam, ou mesmo causavam.
Para mim, eles eram ainda mais do que isso. Eles eram uma janela para como a liderança do
Facebook pensava sobre as consequências da ascensão da mídia social.
Como muitos, inicialmente presumi que os perigos da mídia social vinham principalmente
do uso indevido por pessoas mal-intencionadas – propagandistas, agentes estrangeiros,
vendedores de notícias falsas – e que, na pior das hipóteses, as várias plataformas eram um
canal passivo para os problemas preexistentes da sociedade. Mas praticamente em todos os
lugares que viajei em minhas reportagens, cobrindo déspotas distantes, guerras e revoltas,
eventos estranhos e extremos continuavam sendo vinculados às mídias sociais. Um tumulto repentino, um
Machine Translated by Google
Além disso, eles acreditavam que sua capacidade de conter esse ódio e
incitamento crescentes era prejudicada exatamente pelo que deveria ajudá-los: as
dezenas de livros de regras secretos ditando o que eles deveriam permitir nas
plataformas e o que remover. Para os mais de dois bilhões de usuários do Facebook,
essas regras são praticamente invisíveis. Eles pretendem manter as plataformas
seguras e civilizadas, articulando tudo, desde a linha entre a liberdade de expressão
e o discurso de ódio até os limites dos movimentos políticos permissíveis. Mas como
os livros de regras se mostraram inadequados para conter os danos que muitas vezes
eram provocados pela própria plataforma, e como a supervisão corporativa dessa
parte menos glamorosa do negócio se desvaneceu, os guias mundiais se espalharam
por centenas de páginas confusas e muitas vezes contraditórias. Algumas das mais
importantes, sobre identificação de recrutamento terrorista ou supervisão de eleições
contenciosas, estavam repletas de erros de digitação, erros factuais e brechas óbvias.
O desleixo e as lacunas sugeriam um perigoso desrespeito por um trabalho que Jacob
via como uma questão de vida ou morte, e numa época em que as plataformas
transbordavam de extremismo que cada vez mais se infiltrava no mundo real. Apenas
alguns meses antes, em Mianmar, as Nações Unidas haviam acusado formalmente o
Facebook de permitir que sua tecnologia ajudasse a provocar um dos piores
genocídios desde a Segunda Guerra Mundial.
Jacob registrou as descobertas e preocupações de sua equipe para enviar à rede.
Meses se passaram. O aumento do extremismo online só piorou. Ele batia o ponto,
esperando em seu terminal por uma resposta do quartel-general, distante na América,
que nunca veio. Ele teve uma ideia. Isso significaria quebrar o sistema de segurança
no trabalho, secretar arquivos confidenciais no exterior e convencer a mídia a
transmitir seus avisos para ele – tudo na esperança de entregá-los à tela de uma
pessoa: Mark Zuckerberg, fundador e CEO do Facebook. A distância e a burocracia,
ele tinha certeza, o impediam de chegar aos responsáveis. Se ao menos ele pudesse
falar com eles, eles iriam querer consertar as coisas.
Jacob me procurou pela primeira vez no início de 2018. Uma série de histórias em
que trabalhei, investigando o papel da mídia social no aumento da violência em massa
em lugares como a pequena nação asiática do Sri Lanka, pareceu a ele uma
confirmação de que os problemas que ele observou em sua tela era real - e tinha
consequências crescentes, às vezes mortais. Mas ele sabia que apenas sua palavra
não seria suficiente. Ele precisaria extrair os livros de regras internos do Facebook e
os documentos de treinamento dos computadores de seu escritório. Não seria fácil—
Machine Translated by Google
Quase todas as perguntas que eu fazia, por mais delicadas que fossem, produziam uma
resposta direta e sutil. Quando os problemas permaneceram sem solução, eles reconheceram isso.
Ninguém nunca teve que verificar suas anotações para me dizer, digamos, a política do
Facebook sobre grupos de independência curdos ou seus métodos para distribuir regras de
discurso de ódio em tagalo.
Eu me perguntei: com pessoas tão conscientes e ultraqualificadas no comando, por que
os problemas para os quais eles articulam respostas tão ponderadas só parecem piorar?
Quando grupos de direitos humanos alertam o Facebook sobre o perigo iminente de sua
plataforma, por que a empresa frequentemente falha em agir? Por que jornalistas como eu,
que têm pouca visibilidade sobre as operações das plataformas e uma fração infinitesimal de
sua equipe ou orçamento, continuam revelando atrocidades e cultos nascidos no Facebook
que parecem pegá-los de surpresa? Mas em algum momento de cada entrevista, quando eu
Machine Translated by Google
pergunte sobre os perigos que surgiram não do mau uso da plataforma, mas da própria
plataforma, seria como se uma parede mental fosse erguida.
“Não há nada de novo nos tipos de abuso que você vê”, disse o chefe de política
global da empresa quando perguntei sobre as consequências da plataforma. “O que é
diferente aqui é o poder de amplificação de algo como uma plataforma de mídia social”,
disse ela. “Como sociedade, ainda estamos muito adiantados em entender todas as
consequências da mídia social”, disse o chefe de segurança cibernética da empresa,
sugerindo que a principal mudança trazida pela tecnologia foi simplesmente reduzir o
“atrito” na comunicação, o que permitiu que as mensagens fossem para viajar mais
rápido e mais longe.
Era uma imagem estranhamente incompleta de como o Facebook funciona. Muitos
na empresa pareciam quase inconscientes de que os algoritmos e o design da plataforma
moldam deliberadamente as experiências e os incentivos dos usuários e, portanto, os
próprios usuários. Esses elementos são o núcleo do produto, a razão pela qual centenas
de programadores zumbiam ao nosso redor enquanto conversávamos. Era como entrar
em uma fábrica de cigarros e ouvir executivos dizerem que não conseguiam entender
por que as pessoas reclamavam dos impactos à saúde causados pelas caixinhas de
papelão que vendiam.
A certa altura, conversando com dois funcionários que supervisionavam a resposta à
crise, saí do modo de repórter para alertá-los sobre algo preocupante que eu havia visto.
Em países ao redor do mundo, um boato horrível estava surgindo, aparentemente
espontaneamente, no Facebook: que forasteiros misteriosos estavam sequestrando
crianças locais para torná-las escravas sexuais e colher seus órgãos.
As comunidades expostas a esse boato estavam respondendo de maneiras cada vez
mais perigosas. Quando se espalhou via Facebook e WhatsApp para uma parte rural da
Indonésia, por exemplo, nove aldeias diferentes se reuniram separadamente em
multidões e atacaram transeuntes inocentes. Era como se esse boato fosse algum vírus
misterioso que transformava comunidades normais em enxames sanguinários, e que
parecia estar emergindo da própria plataforma. Os dois usuários do Facebook ouviram e
assentiram. Nenhum dos dois fez perguntas. Uma comentou vagamente que esperava
que um pesquisador independente pudesse investigar essas coisas um dia, e seguimos
em frente.
Mas versões do boato continuaram a surgir no Facebook. Uma iteração americana,
que apareceu pela primeira vez no quadro de mensagens 4chan sob o rótulo “QAnon”,
recentemente atingiu o Facebook como uma partida para uma piscina de gasolina. Mais
tarde, quando o QAnon se tornou um movimento com dezenas de milhares de
Machine Translated by Google
seguidores, um relatório interno do FBI identificou-o como uma ameaça de terrorismo doméstico.
Durante todo o tempo, os mecanismos de recomendação do Facebook promoveram grupos
QAnon para um grande número de leitores, como se este fosse apenas outro clube, ajudando a
aumentar a conspiração até o tamanho de um partido político menor, aparentemente por
nenhuma razão mais elaborada do que os cliques contínuos que o conteúdo QAnon gerou. .
Dentro dos murais do Facebook, porém, a crença no produto como uma força para o bem
parecia inabalável. O ideal central do Vale do Silício de que fazer com que as pessoas passem
cada vez mais tempo on-line enriquecerá suas mentes e melhorará o mundo, manteve-se
especialmente firme entre os engenheiros que, em última instância, fabricam e moldam os
produtos. “Como temos maior alcance, como temos mais pessoas engajadas, isso aumenta as
apostas”, disse um engenheiro sênior do importantíssimo feed de notícias do Facebook. “Mas
também acho que há uma oportunidade maior para as pessoas serem expostas a novas ideias.”
Quaisquer riscos criados pela missão da plataforma de maximizar o envolvimento do usuário
seriam eliminados, ela me garantiu.
Mais tarde, soube que, pouco antes de minha visita, alguns pesquisadores do Facebook,
designados internamente para estudar os efeitos de sua tecnologia, em resposta à crescente
suspeita de que o site poderia estar piorando as divisões políticas da América, haviam alertado
internamente que a plataforma estava fazendo exatamente o que o os executivos da empresa
haviam, em nossas conversas, dado de ombros. “Nossos algoritmos exploram a atração do
cérebro humano pela divisão”, alertaram os pesquisadores em uma apresentação de 2018 que
vazou posteriormente para o Wall Street Journal. Na verdade, continuou a apresentação, os
sistemas do Facebook foram projetados de forma a fornecer aos usuários “conteúdo cada vez
mais divisivo em um esforço para atrair a atenção do usuário e aumentar o tempo na plataforma”.
Os executivos arquivaram a pesquisa e rejeitaram amplamente suas recomendações, que
exigiam ajustes nos sistemas promocionais que escolhem o que os usuários veem de maneiras
que poderiam reduzir seu tempo online. A pergunta que eu trouxe para os corredores do
Facebook – quais são as consequências de direcionar uma parcela cada vez maior de toda a
política, informação e relações sociais humanas por meio de plataformas online expressamente
projetadas para manipular a atenção? – era claramente um tabu aqui.
Os meses após minha visita coincidiram com o que foi então a maior reação pública da
história do Vale do Silício. Os gigantes da mídia social enfrentaram audiências no Congresso,
regulamentação estrangeira, multas multibilionárias e
Machine Translated by Google
Um
Preso no Cassino
as redes estavam trazendo à tona algo perigoso nas pessoas, algo que já alcançava
invisivelmente a vida dela e de seu filho. Ninguém em seu círculo imediato tinha filhos,
então ela se juntou a grupos online para novos pais, em busca de conselhos sobre
treinamento do sono ou dentição. Mas os outros usuários, embora em sua maioria
amigáveis, disse ela, ocasionalmente entravam em “guerras inflamadas” com milhares
de postagens e sobre um tópico que ela raramente encontrava off-line: vacinas.
Era 2014 e DiResta havia chegado recentemente ao Vale do Silício, para procurar
startups para uma empresa de investimentos. Ela ainda era uma analista de coração,
de seus anos em Wall Street e, antes disso, em uma agência de inteligência que ela
sugere ser a CIA. Para manter a mente ágil, ela preenchia seu tempo livre com
elaborados projetos de pesquisa, da mesma forma que outras pessoas fariam palavras
cruzadas na cama.
Sua curiosidade provocou, ela começou a investigar se a raiva anti-vacina que ela
viu online refletia algo mais amplo. Enterrada nos arquivos do departamento de saúde
pública da Califórnia, ela percebeu, estavam as taxas de vacinação dos alunos para
quase todas as escolas do estado - incluindo as pré-escolas que ela estava
considerando para seu filho. O que ela encontrou a chocou.
Algumas das escolas foram vacinadas em apenas 30 por cento. "O que diabos está
acontecendo?" ela se perguntou. Ela baixou registros de dez anos.
A tendência durante esse período - um aumento constante nas desistências - era
clara, ela me disse. “Puta merda”, ela pensou, “isso é muito ruim.”
Com taxas tão baixas, surtos de doenças como sarampo ou coqueluche tornaram-
se um grave perigo, colocando em risco as crianças de todos. ela ligou para ela
Machine Translated by Google
senador estadual para perguntar se algo poderia ser feito para melhorar os índices de
vacinação. Isso não ia acontecer, ela foi informada. As vacinas eram realmente tão
odiadas? ela perguntou. Não, disse o funcionário. A pesquisa mostrou 85 por cento de
apoio a um projeto de lei que tornaria mais rígida a obrigatoriedade de vacinas nas escolas.
Mas os legisladores temiam o movimento anti-vacinas extraordinariamente eloquente -
composto por jovens pais da Califórnia dominados pela paranóia e pela raiva - que
parecia estar emergindo do Twitter, YouTube e Facebook.
“Foi isso que realmente me levou a essa toca de coelho”, disse DiResta.
“Durante seis meses, sem brincadeira, das 20h às 2h, foi isso que fiz.”
Com o tempo, aquela toca de coelho a levou não a nenhuma mão secreta por trás do
movimento anti-vacina, mas, sim, às próprias redes sociais nas quais ele surgiu. Na
esperança de organizar alguns desses 85% dos californianos que apoiaram o projeto
de lei de vacinação, ela iniciou um grupo - onde mais? - no Facebook. Quando comprou
anúncios no Facebook para recrutar recrutas, percebeu algo curioso. Sempre que ela
digitava “vacina” ou qualquer coisa tangencialmente ligada ao tópico, na ferramenta de
direcionamento de anúncios da plataforma, ela retornava grupos e tópicos que se
opunham esmagadoramente às vacinas. E outra coisa: quando ela direcionou seus
anúncios para serem exibidos para mães da Califórnia, os usuários que os receberam
responderam com uma enxurrada de injúrias antivacinas. Era como se as opiniões pró-
vacinas de sua comunidade da vida real tivessem sido invertidas online.
estava certo, DiResta sabia, então o Facebook não estava apenas cedendo aos extremistas
anti-vacina. Ele os estava criando.
“Eu me senti como Chicken Little, dizendo às pessoas que o céu estava caindo”, disse ela.
“E eles estavam olhando para mim como, 'É apenas uma postagem de mídia social.'” Mas o
que DiResta percebeu foi que havia algo estruturalmente errado com a plataforma. Friends in
the Valley entrou em contato com ela para dizer que estava percebendo distúrbios
estranhamente semelhantes em todos os tipos de comunidades online. Ela sentiu um conjunto
comum de dinâmicas em jogo, talvez até mesmo um ponto de origem comum em algum lugar
nas entranhas da rede social. E se esse foi o efeito em algo restrito, como política de vacinação
escolar ou discussões de videogame, o que aconteceria quando atingisse a política ou a
sociedade de maneira mais ampla?
“Eu estava olhando para ele e dizendo: 'Isso vai ser um desastre'”, lembrou ela.
Foi uma jornada que eventualmente a levaria aos rastros do Estado Islâmico e da
inteligência militar russa. Para salas de reuniões do Departamento de Estado e uma mesa de
testemunhas do Congresso. E para um conjunto de conclusões chocantes sobre a influência
da mídia social sobre todos nós. Mas tudo começou na Califórnia, lutando contra uma franja
online que ela ainda não percebeu que representava algo muito mais profundo e intratável.
2. Galápagos Americanos
MENOS DE UM SÉCULO ATRÁS, o vale de Santa Clara, no centro da Califórnia, era uma
extensão sonolenta de pomares de frutas e fábricas de conservas, pontilhada por uma ou
outra torre de petróleo. Isso começou a mudar em 1941, quando a marinha japonesa atacou
Pearl Harbor, desencadeando uma série de eventos que transformaram esse remanso em
uma das maiores concentrações de riqueza que o mundo já conheceu.
Machine Translated by Google
mesmo.
Essas condições fizeram da Santa Clara dos anos 1950 o que Margaret O'Mara,
uma proeminente historiadora do Vale do Silício, chamou de Galápagos de silício.
Assim como a geologia peculiar e o extremo isolamento dessas ilhas produziram
espécies únicas de pássaros e lagartos, as condições peculiares do Vale produziram
maneiras de fazer negócios e de ver o mundo que não poderiam ter florescido em
nenhum outro lugar - e levaram, finalmente, ao Facebook, YouTube e Twitter.
A migração casual que semeou grande parte do DNA tecnológico do Vale, como
uma iguana à deriva pousando na costa de Galápagos, foi um engenheiro rabugento
chamado William Shockley. Nos Laboratórios Bell, talvez a mais prestigiosa das
firmas de pesquisa da Costa Leste, ele dividira o Prêmio Nobel de 1956 pelo
pioneirismo em novos transistores semicondutores. Os minúsculos dispositivos, que
direcionam ou modificam os sinais elétricos, são os blocos de construção da
eletrônica moderna. Shockley convenceu-se de que poderia derrotar os métodos de Bell.
Quando a saúde de sua mãe piorou, ele voltou para casa, no mesmo ano de seu
Nobel, para cuidar dela e abrir sua própria empresa de transistores. Sua cidade natal
era Palo Alto, a oito quilômetros de Moffett Field. Seu projeto de transistor exigia a
substituição do germânio convencionalmente usado por silício.
Shockley, que tinha a reputação de ser difícil e arrogante, lutou para convencer
os engenheiros da Bell a segui-lo. Além disso, mesmo com o dinheiro fluindo do
Pentágono, poucos cientistas com algum pedigree queriam se mudar para o remanso
de San Jose. Então ele contratou engenheiros talentosos com experiências que
limitavam suas oportunidades em Boston: não graduados, imigrantes, judeus.
Alguns, como Shockley, eram brilhantes, mas difíceis de trabalhar. Ele estabeleceu
as startups do Valley, para sempre, como o domínio dos desajustados autônomos
que crescem com base no mérito bruto - um legado que levaria suas gerações
futuras a elevar os desistentes misantrópicos e a desculpar as culturas corporativas
tóxicas do estilo Shockley como de alguma forma essenciais para o modelo. No
entanto, um ano após o lançamento de Shockley, todo o seu talento foi embora. Seu
"gosto por humilhar seus funcionários", sua rejeição instintiva de qualquer ideia que
não fosse sua e sua inclinação para extremos - mais tarde ele abraçou a eugenia e
chamou os negros de geneticamente inferiores - era demais para suportar.
Para os desertores, o mais fácil e esperado seria trazer suas inovações de volta
ao Leste, onde o resto da indústria ainda estava. Em vez disso, talvez por nenhum
motivo melhor do que o clima da Califórnia, eles obtiveram financiamento da Costa
Leste e ficaram parados. Porque eles estavam baseados no Santa
Machine Translated by Google
Se você tivesse que identificar o alvorecer da era da mídia social, poderia escolher
setembro de 2006, quando os operadores de um site interno, o Facebook.com, fizeram
uma descoberta acidental enquanto tentavam resolver um problema de negócios. Desde o
lançamento do site, dois anos e meio antes, eles tiveram uma entrada modestamente bem-
sucedida no setor de mídia social modestamente bem-sucedido, no qual os usuários
mantinham páginas de perfil personalizadas e faziam pouco mais. Na época, o Facebook
tinha 8 milhões de usuários, um número impressionante para um bando de garotos que
mal tinham idade para beber, mas não o suficiente para garantir a sobrevivência. Até o
Friendster, já visto até então como um fracasso catastrófico, tinha cerca de 10 milhões. O
LiveJournal também. O Orkut tinha 15 milhões. Myspace estava se aproximando de 100
milhões.
As duas vantagens competitivas do Facebook estavam começando a parecer passivos.
Seu design limpo o tornava visualmente atraente, mas menos lucrativo do que o LiveJournal
ou o Myspace repleto de anúncios. E sua exclusividade para campi universitários havia
conquistado uma grande fatia de um mercado limitado e com pouco dinheiro.
A empresa tentou expandir para locais de trabalho, mas poucos trabalhadores se
inscreveram. Que adulto que se preze colocaria sua vida profissional em um site para
universitários?
O crescimento do número de usuários estagnou quando, naquele verão, surgiu um
bote salva-vidas: o Yahoo se ofereceu para comprar o Facebook por US$ 1 bilhão. A
gigante da internet estava gerando pelo menos o mesmo volume de receita a cada
trimestre. Mas seu negócio de portal da web estava ficando obsoleto e a empresa estava
procurando novos mercados em crescimento. As redes sociais pareciam promissoras.
Mas, para grande surpresa da indústria, após meses de negociação, Zuckerberg recusou.
Ele não queria sair da montanha-russa das startups e, aos 22 anos, tornar-se uma peça do
Yahoo. No entanto, negar aos funcionários que passam a noite toda a chance de se
aposentar ricos aos vinte anos deixou Zuckerberg sob uma pressão tremenda não apenas
para transformar o Facebook, mas para ter um sucesso tão selvagem que o bilhão do
Yahoo pareceria pequeno.
A segunda parte de seu plano de duas partes era eventualmente abrir o Facebook
para qualquer pessoa. Mas a expansão fracassada para os locais de trabalho tornou
incerto o sucesso e pode até ser contraproducente se expulsar os universitários, e é por
isso que tanto depende da primeira parte. Ele revisaria a página inicial do Facebook para
mostrar a cada usuário um feed personalizado do que seus
Machine Translated by Google
amigos estavam fazendo no site. Até então, você tinha que verificar cada perfil ou grupo
manualmente para qualquer atividade. Agora, se um amigo mudou seu status de
relacionamento, outro postou sobre pizza ruim no refeitório e outro se inscreveu em um
evento, tudo isso seria relatado em sua página inicial.
Esse fluxo de atualizações tinha um nome: o feed de notícias. Foi apresentado como
uma festa sem fim com a presença de todos que você conhecia. Mas, para alguns usuários,
parecia ser forçado a entrar em um panóptico, onde todos tinham visibilidade total e
ininterrupta da vida digital de todos os outros. Surgiram grupos do Facebook com nomes
como “Estudantes contra o feed de notícias do Facebook”. Nada tangível aconteceu nos
grupos. Aderir sinalizou seu acordo; era isso. Mas por causa do redesenho do site, cada
vez que alguém entra, todos os amigos dessa pessoa recebem uma notificação em seu
feed alertando-os. Com um toque do mouse, eles também poderiam participar, o que seria
transmitido por sua vez para seus amigos. Em poucas horas, os grupos estavam por toda
parte. One atraiu 100.000 membros no primeiro dia e, no final da semana, quase um milhão.
Esses sistemas fisgaram tantos usuários de forma tão eficaz que, naquela época, o
valor de mercado do Facebook, um serviço da web gratuito quase sem produtos físicos
ou serviços ao consumidor, superava o do Wells Fargo, um dos maiores bancos do
mundo. Nesse mesmo ano, também superou a General Electric e o JPMorgan Chase e,
no final de 2017, a ExxonMobil. Desde então, duas das maiores empresas do mundo
são o Facebook e o Google, outro serviço de internet gratuito que ganha muito dinheiro
com anúncios, principalmente no YouTube, sua subsidiária.
o início.
4. O Efeito Cassino
O motivo é uma substância química neurológica chamada dopamina, a mesma que Parker
mencionou na coletiva de imprensa. Seu cérebro libera pequenas quantidades dele quando você
satisfaz alguma necessidade básica, seja biológica (fome, sexo) ou social (carinho, validação). A
dopamina cria uma associação positiva com quaisquer comportamentos que tenham desencadeado
sua liberação, treinando você para repeti-los. Mas quando esse sistema de recompensa de
dopamina é sequestrado, pode obrigá-lo a repetir comportamentos autodestrutivos. Para fazer mais
uma aposta, beba muito álcool - ou passe horas em aplicativos, mesmo quando eles o deixam
infeliz.
A dopamina é cúmplice da mídia social dentro do seu cérebro. É por isso que seu smartphone
parece uma máquina caça-níqueis, pulsando com emblemas de notificação coloridos, sons
sibilantes e vibrações suaves. Esses estímulos são neurologicamente sem sentido por conta
própria. Mas seu telefone os emparelha com atividades, como enviar mensagens de texto para um
amigo ou ver fotos, que são naturalmente gratificantes.
membro. Conforme ela clica em mais fotos ou comentários em resposta, seu cérebro
combina o sentimento de conexão com as pessoas que ela ama com os bipes e flashes da
interface do Facebook. “Com o tempo”, escreve Eyal, “Barbra começa a associar o Facebook
à sua necessidade de conexão social”. Ela aprende a atender a essa necessidade com um
comportamento - usando o Facebook - que, na verdade, raramente a atenderá.
Além disso, embora postar nas mídias sociais possa parecer uma interação genuína
entre você e o público, há uma diferença crucial e invisível.
Online, a plataforma atua como um intermediário invisível. Ele decide quais dos seus
comentários serão distribuídos para quem e em qual contexto. Sua próxima postagem pode
ser exibida para pessoas que irão amá-la e aplaudi-la, ou para pessoas que irão odiá-la e
importuná-la, ou para nenhum dos dois. Você nunca saberá porque suas decisões são
Machine Translated by Google
invisível. Tudo o que você sabe é que ouve aplausos, vaias ou grilos.
Ao contrário das máquinas caça-níqueis, que raramente estão disponíveis em nosso
dia-a-dia, os aplicativos de mídia social são alguns dos produtos mais acessíveis do mundo.
É um cassino que cabe no seu bolso, e é assim que nos treinamos lentamente para
responder a qualquer queda em nossa felicidade com um puxão na máquina caça-níqueis
mais onipresente da história. O americano médio verifica seu smartphone 150 vezes por
dia, muitas vezes para abrir as redes sociais. Não fazemos isso porque verificar
compulsivamente os aplicativos de mídia social nos deixa felizes. Em 2018, uma equipe
de economistas ofereceu aos usuários diferentes quantias de dinheiro para desativar suas
contas por quatro semanas, procurando o limite em que pelo menos metade deles diria
sim. O número acabou sendo alto: $ 180. Mas as pessoas que desativaram experimentaram
mais felicidade, menos ansiedade e maior satisfação com a vida. Após o término do
experimento, eles usaram menos o aplicativo do que antes.
Por que esses sujeitos foram tão resistentes a desistir de um produto que os deixou
infelizes? Seu comportamento, escreveram os economistas, era “consistente com os
modelos padrão de formação de hábito” – ou seja, com o vício – levando a “escolhas de
consumo abaixo do ideal”. Uma forma clínica de dizer que os sujeitos foram treinados para
agir contra seus próprios interesses.
5. O Sociômetro
Os seres humanos são alguns dos animais sociais mais complexos da Terra.
Evoluímos para viver em coletivos sem liderança muito maiores do que os de nossos
companheiros primatas: até cerca de 150 membros. Como indivíduos, nossa capacidade
de prosperar dependia de quão bem navegamos nesses 149 relacionamentos — para
não mencionar todos os relacionamentos de nossos colegas entre si. Se o grupo nos
valorizasse, poderíamos contar com apoio, recursos e provavelmente um companheiro.
Se não o fizesse, poderíamos não conseguir nada disso. Era uma questão de
sobrevivência, física e geneticamente.
Ao longo de milhões de anos, essas pressões foram selecionadas para pessoas
sensíveis e habilidosas em maximizar sua posição. É o que o antropólogo Brian Hare
chamou de “sobrevivência do mais amigável”. O resultado foi o desenvolvimento de um
sociômetro: uma tendência de monitorar inconscientemente como as outras pessoas em
nossa comunidade parecem nos ver. Processamos essa informação na forma de auto-
estima e emoções relacionadas como orgulho, vergonha ou insegurança. Essas emoções
nos obrigam a fazer mais do que faz com que nossa comunidade nos valorize e menos
do que não faz. E, crucialmente, eles devem fazer com que essa motivação pareça vir de
dentro. Se percebêssemos, em um nível consciente, que estávamos respondendo à
pressão social, nosso desempenho poderia parecer relutante ou cínico, tornando-o menos
persuasivo.
Machine Translated by Google
Na verdade, o incentivo é tão poderoso que aparece até mesmo em exames cerebrais.
Quando recebemos um Like, a atividade neural dispara em uma parte do cérebro chamada
núcleo accumbens: a região que ativa a dopamina. Indivíduos com núcleo accumbens
menor – uma característica associada a tendências viciantes – usam o Facebook por
períodos mais longos. E quando usuários pesados do Facebook recebem um Like, essa
massa cinzenta exibe mais atividade do que em usuários mais leves, como em viciados
em jogos de azar que foram condicionados a se exaltar a cada puxada da alavanca.
Pearlman, o Facebooker que ajudou a lançar o botão Curtir, descobriu isso depois de
deixar o Vale do Silício, em 2011, para desenhar quadrinhos. Ela
Machine Translated by Google
promoveu seu trabalho, é claro, no Facebook. No início, seus quadrinhos foram bem.
Eles retrataram temas edificantes relacionados à gratidão e compaixão, que os sistemas do Facebook
impulsionaram no início de 2010. Até que, por volta de 2015, o Facebook reformulou seus sistemas
para desfavorecer o “clickbait” que atrai a curiosidade, o que teve o efeito secundário de remover o
impulso artificial que a plataforma já havia dado a seu conteúdo calorosamente emotivo.
“Quando o Facebook mudou seu algoritmo, minhas curtidas caíram e parecia que eu não estava
recebendo oxigênio suficiente”, Pearlman disse mais tarde ao Vice News.
“Portanto, mesmo que eu pudesse culpar o algoritmo, algo dentro de mim dizia: 'Eles não gostam de
mim, não sou bom o suficiente.'” Seu próprio ex-empregador virou o núcleo accumbens de seu
cérebro contra ela, criando impulso interno para gostos tão poderoso que anulou seu melhor
julgamento. Então, como Skinner brincando com um objeto de pesquisa, simplesmente desligou as
recompensas.
“De repente, eu estava comprando anúncios, apenas para chamar a atenção de volta”, ela admitiu.
Para a maioria de nós, o processo é mais sutil. Em vez de comprar anúncios no Facebook,
modificamos nossas postagens e comentários do dia-a-dia para manter a dopamina chegando,
geralmente sem perceber que fizemos isso. Este é o verdadeiro “ciclo de feedback de validação
social”, como Sean Parker o chamou: perseguir inconscientemente a aprovação de um sistema
automatizado projetado para virar nossas necessidades contra nós.
“É muito comum que os humanos desenvolvam coisas com a melhor das intenções e que tenham
consequências negativas não intencionais”, disse Justin Rosenstein, ex-engenheiro do Facebook que
também trabalhou no botão Curtir, ao The Guardian . “Se nos preocuparmos apenas com a
maximização do lucro, iremos rapidamente para a distopia”, alertou. “Uma razão pela qual considero
particularmente importante falarmos sobre isso agora é que podemos ser a última geração que
consegue se lembrar da vida anterior.”
6. O Estilingue
APESAR DE TODO o peso que a atenção e a aprovação exercem sobre usuários como Pearlman, e
toda a atração viciante dos crachás de cassino, a força mais poderosa nas mídias sociais é a
identidade. É o estímulo que funciona melhor nos sistemas da tecnologia e que seus sistemas são,
portanto, projetados para ativar e gerar acima de tudo. Expressando identidade, aguçando identidade,
vendo e definindo o mundo através de suas lentes. Esse efeito refez o funcionamento das mídias
sociais, como seus supervisores e
Machine Translated by Google
os sistemas desviaram-se para o foco total na identidade que melhor servia às suas
agendas.
Para entender o poder da identidade, comece perguntando a si mesmo: quais
palavras melhor descrevem a minha? Sua nacionalidade, raça ou religião podem vir à
mente. Talvez sua cidade, profissão ou gênero. Nosso senso de identidade deriva em
grande parte de nossa participação em grupos. Mas essa compulsão – suas origens,
seus efeitos em nossas mentes e ações – “permanece um profundo mistério para o
psicólogo social”, escreveu Henri Tajfel em 1979, quando se propôs a resolvê-la.
Tajfel havia aprendido o poder da identidade de grupo em primeira mão. Em 1939, a
Alemanha ocupou seu país natal, a Polônia, enquanto ele estudava em Paris. Judeu e
temeroso por sua família, ele se fez passar por francês para se juntar ao exército francês.
Ele manteve o estratagema quando foi capturado por soldados alemães. Após a guerra,
percebendo que sua família havia sido exterminada, ele se tornou legalmente francês e
depois britânico. Essas identidades eram meras construções sociais - de que outra forma
ele poderia mudá-las como ternos tirados de um armário? No entanto, eles tinham o
poder de compelir o assassinato ou a misericórdia aos outros ao seu redor, levando um
continente inteiro à autodestruição.
As questões que isso levantou assombraram e fascinaram Tajfel. Ele e vários colegas
lançaram o estudo desse fenômeno, que eles denominaram teoria da identidade social.
Eles traçaram suas origens até um desafio formativo da existência humana primitiva.
Muitos primatas vivem em grupos. Os humanos, ao contrário, surgiram em grandes
coletivos, onde o parentesco familiar não era suficiente para unir os membros do grupo
não aparentados. O dilema era que o grupo não poderia sobreviver sem que cada
membro contribuísse para o todo, e nenhum indivíduo, por sua vez, poderia sobreviver
sem o apoio do grupo.
A identidade social, Tajfel demonstrou, é como nos ligamos ao grupo e eles a nós. É
por isso que nos sentimos compelidos a pendurar uma bandeira na frente de nossa casa,
vestir uma camiseta da alma mater, colocar um adesivo em nosso carro. Diz ao grupo
que valorizamos nossa afiliação como uma extensão de nós mesmos e, portanto,
podemos confiar que serviremos ao bem comum.
Nosso impulso para cultivar uma identidade compartilhada é tão poderoso que
construímos uma do nada. Em um experimento, os pesquisadores atribuíram aos
voluntários um dos dois rótulos por meio de um simples lançamento de uma moeda e,
em seguida, fizeram com que jogassem um jogo. Cada um mostrou maior generosidade
para com os outros com o mesmo rótulo, mesmo sabendo que a divisão não fazia sentido.
O mesmo comportamento surgiu em dezenas de experimentos e situações do mundo real, com pessoas
Machine Translated by Google
adotando consistentemente qualquer desculpa para dividir entre “nós” e “eles” – e mostrando
desconfiança, até mesmo hostilidade, em relação àqueles do grupo externo. Durante os
intervalos para o almoço no set do filme Planeta dos Macacos, de 1968, por exemplo, os
figurantes se separavam espontaneamente em mesas, conforme representavam chimpanzés
ou gorilas. Nos anos seguintes, Charlton Heston, a estrela do filme, relatou a “segregação
instintiva” como “bastante assustadora”. Quando a sequência foi filmada, um conjunto
diferente de figurantes repetiu exatamente o comportamento.
O preconceito e a hostilidade sempre animaram esse instinto. As tribos caçadoras-
coletoras às vezes competiam por recursos ou território. A sobrevivência de um grupo pode
exigir a derrota de outro. Por causa disso, os instintos de identidade social nos levam a
desconfiar e, se necessário, nos unir contra os membros do grupo externo. Nossas mentes
compelem esses comportamentos provocando duas emoções em particular: medo e ódio.
Ambos são mais sociais do que você imagina. O medo de uma ameaça física externa nos
faz sentir uma maior sensação de camaradagem com nosso grupo, como se corresse para
nossa tribo em busca de segurança. Também nos torna mais desconfiados e mais dispostos
a prejudicar as pessoas que percebemos como diferentes. Pense na resposta aos ataques
de 11 de setembro: uma onda de fervor patriótico agitando bandeiras e um alinhamento de
sentimento de companheirismo, mas que também foi seguido por um aumento nos crimes de
ódio anti-muçulmanos.
Esses são instintos profundamente sociais, portanto, as plataformas de mídia social, ao
transformar cada toque ou deslizar em um ato social, os revelam de maneira confiável. E
como as plataformas elevam quaisquer sentimentos que melhor atraiam o engajamento, elas
geralmente produzem esses instintos em sua forma mais extrema. O resultado pode ser uma
realidade artificial na qual o grupo interno é sempre virtuoso, mas sitiado, o grupo externo é
sempre uma ameaça terrível e praticamente tudo o que acontece é uma questão de nós
contra eles.
A indulgência da mídia social com a identidade não foi obviamente prejudicial a princípio.
Mas sempre foi bem conhecido. Em 2012, um ativista de esquerda levantou dinheiro dos
cofundadores do Facebook e do Reddit para iniciar a Upworthy, que produzia conteúdo sob
medida para se espalhar nas mídias sociais. Ao testar continuamente o que mais se espalhou,
Upworthy desenvolveu uma fórmula de viralidade. As listas numeradas funcionaram bem. O
mesmo aconteceu com as manchetes de “lacuna de curiosidade” que imploravam para serem
clicadas: “Você nunca vai adivinhar o que este treinador disse para animar seus jogadores”.
Mas uma fórmula provou ser especialmente eficaz: manchetes prometendo retratar o grupo
implícito do usuário (geralmente liberais) como humilhante para um grupo externo insultado
(criacionistas, corporações, racistas). "Um homem
Machine Translated by Google
Bate uma pergunta preconceituosa com tanta força que derruba a casa.
Enquanto isso, dezenas de jornais estavam diminuindo ou fechando, com seus
modelos de negócios destruídos pela internet. Upworthy, com quase nenhum orçamento,
conquistou uma audiência várias vezes maior do que a de qualquer jornal. Uma indústria
desesperada tomou nota. Organizações inteiras se levantaram ou se reorganizaram em
busca da viralidade. O BuzzFeed tornou-se um gigante da Internet em artigos baseados
em listas satisfazendo o desejo dos usuários de afirmação de identidade social: “28 sinais
de que você foi criado por pais irlandeses” ou “31 coisas que apenas pessoas de uma
cidade pequena entenderão”.
Em 2014, fui um dos vários repórteres do Washington Post a iniciar o Vox, um site de
notícias destinado a alavancar a web. Nunca moldamos nosso jornalismo para agradar os
algoritmos de mídia social - pelo menos não conscientemente - mas as manchetes foram
criadas com eles em mente. A abordagem mais eficaz, embora uma que, em retrospecto,
talvez devêssemos ter sido mais cautelosos em usar, era o conflito de identidade. Liberais
contra conservadores. A retidão do anti-racismo.
O ultraje das leis de armas frouxas. “A identidade era o estilingue”, escreveu Ezra Klein,
fundador da Vox , sobre mídia digital em um livro sobre polarização.
“Poucos perceberam, desde o início, que a maneira de vencer a guerra pela atenção era
aproveitar o poder da comunidade para criar identidade. Mas os vencedores surgiram
rapidamente, muitas vezes usando técnicas cujos mecanismos não compreendiam
completamente.”
Freqüentemente, isso significava provocadores hiperpartidários, fazendas de cliques
com fins lucrativos, golpistas absolutos. Sem restrições por qualquer fidelidade à justiça,
precisão ou ao bem maior, eles conquistaram grandes audiências ao ceder ou provocar
conflitos de identidade. As consequências podem não ter parecido, a princípio, estender-
se muito além da internet. Mas avisos da forma mais terrível e, em retrospecto, da maior
clareza possível, vinham chegando há anos, de uma parte do mundo onde os riscos não
poderiam ser maiores e a atenção dada a eles menor.
O QUE ACONTECE QUANDO uma sociedade inteira fica online de uma só vez, passando
da noite para o dia de uma vida sem mídia social para uma vida dominada por ela? Tal
experimento pode parecer impossível, mas aconteceu. Seu nome é Mianmar.
“Estou convencido de que todos vocês estão no passeio de sua vida agora,”
Machine Translated by Google
Eric Schmidt, CEO de longa data do Google, disse a uma sala cheia de alunos em uma
visita no início de 2013 ao país do sudeste asiático. “A internet tornará impossível voltar
atrás.”
Durante décadas, este país do tamanho do Texas com florestas tropicais, deltas de
rios repletos de arrozais e litoral do Oceano Índico esteve envolto em um dos mais
completos isolamentos de qualquer nação do mundo. Uma junta militar paranóica impôs
proibições quase totais à internet, telefones celulares, mídia estrangeira e viagens
internacionais. A tortura e a violência repressiva foram executadas com a pior
combinação de incompetência e crueldade. Em 2011, o líder envelhecido foi substituído
por outro general carrancudo, Thein Sein, mas Sein revelou ter tendências reformistas.
Ele exortou os exilados a voltarem para casa, aliviou as restrições da mídia e libertou
prisioneiros políticos. Ele se distanciou da China, o cada vez mais imperioso vizinho do
norte de Mianmar, e abriu negociações com os Estados Unidos. As sanções foram
levantadas e as eleições marcadas; em 2012, Barack Obama se tornou o primeiro
presidente dos EUA em exercício a visitar.
Para superar esse obstáculo e, assim, vencer a corrida para capturar os dois ou três
bilhões de clientes mais pobres do mundo, o Facebook e outras empresas de
tecnologia americanas começaram a “taxa zero” – essencialmente, subsidiando toda
a população fechando acordos com operadoras locais para isentar as cobranças de
quaisquer dados usado por meio dos aplicativos dessas empresas. Myanmar foi um
dos primeiros casos de teste e, para o Facebook, um sucesso impressionante. Uma
grande parte do país aprendeu a enviar mensagens e navegar na web exclusivamente
pelo Facebook, tanto que muitos desconhecem que existe outra forma de se comunicar
ou ler notícias online.
Cheguei a Mianmar pela primeira vez no início de 2014, aterrissando em Yangon
para relatar a tênue transição do país para a democracia. Parecia um lugar congelado
no início dos anos 1960, quando os governantes militares o isolaram do mundo exterior.
Quedas de energia eram comuns e a tecnologia moderna rara; os primeiros caixas
eletrônicos internacionais estavam apenas sendo instalados. Escritórios coloniais
britânicos em ruínas, cobertos de hera, ainda dominavam o centro da cidade. Muitas
ruas do centro da cidade não eram pavimentadas e, no início da manhã, cheias de
centenas de monges descalços. O clero vestido de laranja e carmesim, reverenciado
pela profundamente devota maioria budista, está por toda parte em Mianmar.
Alternando entre entrevistas com políticos e ativistas, cheguei a ver o futuro de
Mianmar mais instável do que havia sido retratado. Os militares ainda detinham
vestígios de poder que pareciam relutantes em se render. Entre o clero, uma franja
extremista estava surgindo. E suas mídias sociais recém-disponíveis estavam se
enchendo de racismo e conspirações. On-line, conversas raivosas sobre minorias
traidoras pareciam onipresentes.
Um nome preocupante não parava de surgir em minhas conversas: Wirathu. O
monge budista havia sido preso por seus sermões cheios de ódio na última década e
acabara de ser libertado como parte de uma anistia geral. Ele imediatamente entrou
no Facebook e no YouTube. Agora, em vez de viajar pelo país, templo por templo,
para espalhar o ódio, ele usava as plataformas para alcançar grande parte do país,
talvez várias vezes por dia. Ele acusou a minoria muçulmana do país de crimes
terríveis, misturando boatos com invenções vergonhosas. Especialmente no Facebook,
suas postagens circularam e recircularam entre usuários que as tomaram como fato,
criando uma realidade alternativa definida por conspiração e raiva, que impulsionou
Wirathu a um novo nível de estrelato.
com gerentes seniores do Facebook no final de 2013 para avisá-los de que o discurso
de ódio estava invadindo a plataforma, ela disse mais tarde ao repórter Timothy
McLaughlin. Para um país com centenas de milhares de usuários, e logo milhões, o
Facebook empregou apenas um moderador que poderia revisar o conteúdo em
birmanês, o idioma predominante em Mianmar, deixando a plataforma efetivamente
sem supervisão. Os gerentes disseram a Callan que o Facebook continuaria com sua
expansão em Mianmar de qualquer maneira.
No início de 2014, Callan transmitiu outro alerta ao Facebook: o problema estava
piorando e, com ele, a ameaça de violência. Novamente, pouco mudou. Alguns meses
depois, Wirathu compartilhou uma postagem alegando falsamente que dois donos de
lojas de chá muçulmanos na cidade de Mandalay haviam estuprado uma mulher
budista. Ele postou os nomes dos vendedores de chá e de sua loja, chamando seu
ataque fictício de o primeiro tiro em uma revolta muçulmana em massa contra os
budistas. Ele exortou o governo a invadir as casas e mesquitas dos muçulmanos em
um ataque preventivo – uma demanda comum dos genocidas, cuja mensagem implícita
é que os cidadãos comuns devem fazer o que as autoridades não farão. A postagem
se tornou viral, dominando feeds em todo o país. Usuários indignados juntaram-se à
confusão, incitando uns aos outros a acabar com seus vizinhos muçulmanos. Centenas
de pessoas se revoltaram em Mandalay, atacando empresas e proprietários
muçulmanos, matando duas pessoas e ferindo muitas outras.
À medida que os tumultos se espalhavam, um alto funcionário do governo ligou
para alguém que conhecia no escritório da Deloitte, uma empresa de consultoria em
Mianmar, para pedir ajuda para entrar em contato com o Facebook. Mas nenhum deles
conseguiu alcançar ninguém na empresa. Em desespero, o governo bloqueou o acesso
ao Facebook em Mandalay. Os tumultos esfriaram. No dia seguinte, funcionários do
Facebook finalmente responderam ao representante da Deloitte, não para perguntar
sobre a violência, mas para perguntar se ele sabia por que a plataforma havia sido
bloqueada. Em uma reunião duas semanas depois com o funcionário do governo e
outros, um representante do Facebook disse que estava trabalhando para melhorar
sua capacidade de resposta a conteúdo perigoso em Mianmar. Mas se a empresa fez
alguma alteração, o efeito foi indetectável em sua plataforma. Assim que o governo
suspendeu seu bloqueio virtual, o discurso de ódio e a audiência de Wirathu só
aumentaram. “Pelo menos desde o incidente de Mandalay, o Facebook sabia”, disse
David Madden, um australiano que dirigia a maior aceleradora de startups de tecnologia
de Mianmar, a McLaughlin, o repórter. “Isso não é retrospectiva 20/20. A escala desse
problema era significativa e já era aparente.”
Machine Translated by Google
Incapaz ou sem vontade de considerar que seu produto pode ser perigoso,
o Facebook continuou expandindo seu alcance em Mianmar e outros países
em desenvolvimento e submonitorados. Ele se ancorou inteiramente a um
credo autoenriquecido do Vale do Silício que Schmidt havia recitado naquela
primeira visita a Yangon: “A resposta para o discurso ruim é mais discurso.
Mais comunicação, mais vozes.”
Machine Translated by Google
Dois
Tudo é Gamergate
1. Na Nova Era
ERA AGOSTO DE 2014, um mês depois dos tumultos de Mandalay. Zoë Quinn
estava levantando uma taça com amigos em um bar de San Francisco, marcando
seu vigésimo sétimo aniversário, quando a rede social desabou sobre ela com uma
força tão terrível que alterou a trajetória da internet e quase tudo que surgiu dela
depois disso. O telefone dela tocou com uma mensagem de texto de um amigo:
Você acabou de levar um fora terrível. Um programador chamado Eron Gjoni postou
em seu blog uma narrativa desconexa de 10.000 palavras sobre seu breve
relacionamento e separação, que incluía capturas de tela de e-mails privados,
mensagens de texto e mensagens do Facebook.
Quinn, um desenvolvedor de videogame de cabelo Technicolor, era uma
presença familiar em fóruns geek e plataformas sociais. Ela ganhou a atenção da
crítica por obras de arte independentes como o Depression Quest, uma simulação
baseada em texto de como lidar com a depressão clínica, e por seu feminismo
franco. Ela postava com frequência, e às vezes de forma estridente, em apoio a
uma causa que estava ganhando força entre criadores de jogos e jornalistas:
ampliar o apelo dos jogos e a cultura dos fãs além de seu enclave tradicional de
jovens geeks do sexo masculino. Mas alguns círculos de jogos online ferviam com
transgressores feministas que buscavam, segundo elas, corromper o hobby que
havia se tornado, em meio a um mundo que parecia hostil e confuso para muitos
dos primeiros obsessivos da mídia social, uma espécie de espaço seguro. Isso foi
mais do que um debate sobre se os jogos príncipe-salva-princesa peituda poderiam
abrir espaço para participações excêntricas como a de Quinn, ou mesmo para
garotas gamers; tratava-se de uma identidade masculina nerd cujos seguidores se viam sob ataque.
A narrativa de raiva e ressentimento de Gjoni ressoou com a deles.
Um detalhe específico da postagem de Gjoni rodou através do videogame
Machine Translated by Google
fóruns, em plataformas principais, para amigos de Quinn, e de volta para seu telefone.
Gjoni afirmou que dormiu com um crítico de videogame em troca de uma cobertura
positiva do Depression Quest. Sua acusação foi facilmente desmascarada; a crítica
supostamente ilícita nem existia. Mas a verdade pouco importava. Os usuários das
subseções de jogos do quadro de mensagens 4chan, um centro da cultura nerd, e
especialmente do Reddit, um extenso site de discussão que se tornou uma megalópole
fervilhante no coração da rede social, adotaram a alegação de Gjoni como justificativa
de sua desconfiança, estabelecendo o narrativa para os milhões de usuários das
plataformas.
A postagem de Gjoni também foi lida como encorajadora da justiça bruta
frequentemente adotada na rede social: o assédio coletivo. Tanto que um juiz mais
tarde o proibiu de escrever mais sobre Quinn. E, de fato, se assédio era o objetivo de
Gjoni, sua postagem surtiu o efeito desejado. “Eu só quero ver Zoe receber seu
castigo”, escreveu um usuário do 4chan em um bate-papo organizando o esforço para,
como outro disse, “tornar sua vida irreparavelmente horrível”, até mesmo “assediá-la
para que ela se mate”.
“Tentei me concentrar na conversa à mesa”, escreveu Quinn mais tarde, “mas o
barulho agitado do meu telefone era a única coisa que eu conseguia ouvir. Foi como
contar os segundos entre os trovões para ver a que distância está a tempestade e
saber que ela está se aproximando.”
Ela escapuliu para casa para rastrear o ódio que chegava online. Já centenas de
mensagens instavam-na a se matar e prometiam atormentar sua família se ela não o
fizesse, suas ameaças tornadas críveis com listas de endereços e números de telefone
de parentes. Algumas fotos dela foram editadas e transformadas em pornografia.
Outros postaram detalhes pessoais como seu número de Seguro Social, demonstrando
seu poder de entrar em sua vida. “Se eu vir que você está fazendo um painel em um
evento para o qual estou indo, vou literalmente te matar”, escreveu um deles. “Você é
inferior a merda e merece ser ferido, mutilado, morto e, finalmente, agraciado com
meu mijo em seu cadáver apodrecido mil vezes.”
A fúria contra Quinn e a imprensa de jogos supostamente corrupta ultrapassou
grande parte do 4chan e do Reddit, depois do YouTube. Em todos os três, enormes
comunidades ficaram obcecadas com o escândalo inventado que denominaram
Gamergate. Mas o que começou como outro episódio de trollagem na internet, embora
incomumente grande, gradualmente se tornou algo mais, algo novo. Gamergate
alterou mais do que a vida de seus alvos. Ele enviou os extremos da rede social contra
a vida americana dominante, acabando para sempre com a separação entre
Machine Translated by Google
Em 2017, a polícia prendeu um homem que ligou em uma briga fatal por causa de uma disputa
de jogo online. Ele foi condenado a vinte anos de prisão como parte de um acordo judicial sobre
uma ameaça de bomba separada que ele fez. Dois outros assassinos em série, cada um
responsável por dezenas de relatórios falsos, principalmente sobre argumentos de jogos online,
foram presos. Caso contrário, os assediadores online raramente enfrentam consequências
legais. Embora a aplicação da lei tenha começado a levar essa atividade mais a sério, é
demorado investigar e, por ser tão descentralizado, é quase impossível parar ou dissuadir. No
momento em que a polícia pode rastrear a identidade de um assediador, muito menos agir, o
assédio geralmente termina. E processar um ou dois assediadores especialmente flagrantes,
enquanto restaurador para a vítima, faz pouco para evitar que outras centenas de usuários
reproduzam o mesmo efeito.) Mulheres em empresas de jogos, presumivelmente cúmplices,
também foram alvo. Alguns, com medo de expor seus filhos a danos, abandonam completamente
o campo.
“Tenho certeza de que parte disso foi apenas uma tática de intimidação”, disse ela. Mas um
Machine Translated by Google
A ameaça em particular a fez temer que alguns pudessem ser sinceros. Mesmo
anos depois, ela se lembrava de cada palavra: “Ei vadia, adivinha? Eu sei onde
você e Frank moram. Se você tem filhos, eles também vão morrer. Você não
fez nada que valesse a pena com sua vida. Vou cortar o minúsculo pênis
asiático de seu marido e estuprá-la com ele até sangrar. Quando ela contatou a
polícia, eles a aconselharam a deixar sua casa. Vários meses depois, um
YouTuber postou um vídeo de si mesmo com uma máscara de caveira, exibindo
uma faca que prometeu usar contra Wu. O incidente foi escrito em um episódio
de Law & Order: Special Victims Unit. “Ice-T mata Logan Paul em um telhado
para salvar o personagem baseado em mim. Juro por Deus que não acreditei
quando ouvi”, disse ela rindo. As ameaças continuaram. Pouco antes de nos
falarmos, em junho de 2020, um tijolo quebrou a janela dela.
Quando o Gamergate entrou na consciência pública, Wu aproveitou as
conexões nas redes sociais para fazer lobby, pelo menos, para conter as
campanhas de assédio que surgiam de seus sistemas. Mas os moradores do
Vale do Silício com quem ela falou, em sua maioria jovens brancos, pareciam
nunca ter considerado que o ódio e o assédio poderiam ter consequências reais,
muito menos como controlá-los. "Não é porque eles são vilões", disse ela. “Eles
simplesmente não têm uma certa experiência de vida que muitas mulheres,
pessoas queer e pessoas de cor têm.”
As empresas menos receptivas foram o Facebook, que não se envolveu
com ela de forma alguma, e o Reddit, um dos lugares onde o Gamergate havia
começado. Quanto mais Wu interagia com os operadores da plataforma ou
explorava o veneno que emanava de seus locais, mais ela suspeitava de um
perigo maior. “O software define cada vez mais o mundo ao nosso redor”,
escreveu ela no início de 2015. Plataformas e aplicativos “criam nossas
realidades sociais – como fazemos amigos, como conseguimos empregos e
como a humanidade interage”. Mas eles foram projetados com pouca contribuição
de pessoas fora da estreita visão de mundo ou demográfica do Valley. “Esses
sistemas são a próxima fronteira da evolução humana e são cada vez mais
perigosos para nós”, concluiu Wu, acrescentando, em um sentimento
considerado exagerado na época: “As apostas não poderiam ser maiores”.
Essa transformação havia começado quarenta anos antes, com uma geração
de fabricantes de computadores do Vale do Silício que se viam como
revolucionários destinados a derrubar o status quo americano em sua totalidade
e que construíram redes sociais, muito explicitamente, como a ferramenta pela qual eles
Machine Translated by Google
faria isso. Mas sua nova sociedade digital, concebida como eventual substituição de
tudo o que veio antes, foi projetada menos para a libertação do que para a raiva e o
conflito, graças a um pecado original do capitalismo do Vale do Silício e, na década de
1990, uma reviravolta fatídica na economia de brinquedos. . O resultado foi um mundo
digital já circulando, no início dos anos 2000, com uma estranha mistura de chauvinismo
geek masculino e, embora inicialmente descartado, extremismo de direita.
A Gamergate anunciou nossa nova era, da vida americana moldada pelos incentivos
e regras da mídia social, de plataformas um pouco além da periferia da sociedade
dominante. Dentro de alguns anos, essas plataformas iriam transformar o Gamergate e
suas ramificações em movimentos nacionais, levá-los para as casas de milhões de
recém-chegados digitais e mobilizá-los em um movimento que, muito em breve, chegaria
à Casa Branca.
2. Os Revolucionários
o sociólogo Ted Nelson, amigo de Engelbart, escreveu Computer Lib/ Dream Machines,
cujo título (“Lib” abreviação de liberation) e a imagem da capa de um único punho
erguido transmitiam grande parte da mensagem.
A mitologia conquistou rapidamente uma indústria pronta para se redefinir. Em
1971, um periódico de negócios cunhou o termo “Silicon Valley”, referindo-se ao
negócio de transistores de silício lançado uma década antes por William Shockley e
seus discípulos. No ano seguinte, um perfil brilhante de um escritório de pesquisa
corporativa do Valley foi publicado, de todos os lugares, na Rolling Stone. Ele retratava
os engenheiros como excêntricos de cabelos compridos que nos trariam “liberdade e
estranheza” por meio de um produto – o computador – que a maioria das pessoas
havia encontrado apenas como um maquinário monótono e ameaçador em seu
escritório ou universidade.
Os engenheiros de todo o Vale ficaram felizes em internalizar a lisonja como
verdade. Para sempre, digitar código em um terminal não era mais desenvolvimento
de produto comercial, era “hacking”. “Somos realmente os revolucionários no mundo
de hoje – não as crianças com cabelos compridos e barbas que estavam destruindo
as escolas alguns anos atrás”, disse Gordon Moore, cofundador da Intel, a um repórter.
À medida que as excentricidades da contracultura diminuíam no resto dos Estados
Unidos após a renúncia de Nixon, elas se mantiveram no Valley, em parte graças à
chegada em 1974 do Altair 8800, o primeiro computador pequeno e barato o suficiente
para uso doméstico. As máquinas eram “abertas”, o que significa que qualquer pessoa
com conhecimento poderia modificar ou trocar componentes. Os engenheiros do
Valley formaram clubes de consertos noturnos com nomes como Homebrew Computer
Club e People's Computer Company. Em boletins e reuniões regulares, eles
codificaram sua autoimagem revolucionária em algo como doutrina. O boletim do PCC
trazia orientação técnica juntamente com tratados sobre a futura utopia libertária.
web de consumo em sua imagem: não regulamentada, não governada, livre para usar,
implicitamente projetada para os geeks do sexo masculino que preencheram seu fórum
seminal. Estes não eram apenas sites. Eles eram uma sociedade cibernética que nos
elevava acima das formas ultrapassadas do mundo físico. “Rejeitamos: reis, presidentes
e votação. Acreditamos em: consenso aproximado e código em execução”, disse David
Clark, um dos arquitetos da web, em 1992.
Em 1996, um ex-membro do conselho do WELL escreveu o documento que definiu a
era da web, “Uma Declaração de Independência do Ciberespaço”. Endereçada aos
“Governos do Mundo Industrial”, anunciava: “Vocês não têm soberania onde nos reunimos”.
A web seria “uma civilização da Mente”, regida pela vontade coletiva de seus usuários. Foi
uma ideologia que rapidamente se espalhou pela cultura mais ampla, consagrada em
filmes como The Net e The Matrix, que retratavam os programadores como a nova
vanguarda da contracultura, rebeldes do kung fu que quebrariam as correntes da servidão
humana.
O manifesto consagrava um ideal em particular: total liberdade de expressão.
Assim como no WELL, esse seria o mecanismo da web para autogoverno, primeiro
mandamento e maior presente para o mundo. Seus preceitos continuam sendo o texto
fundamental da indústria de mídia social. “Nosso conselheiro geral e CEO gosta de dizer
que somos a ala de liberdade de expressão do partido de liberdade de expressão”,
disse o chefe do Twitter no Reino Unido. Zuckerberg chamou a liberdade de expressão de
“o ideal fundador da empresa”.
Mas é a ambição de longa data de finalmente realizar uma revolução de raiz e ramo
que mais anima a ideologia subjacente do Vale, uma profecia que as empresas de mídia
social se consideram destinadas a realizar. Enquanto a Apple era uma “empresa
inovadora”, o Facebook era uma “empresa revolucionária”, disse Zuckerberg, então com
22 anos, a um possível contratado. Ele disse a um entrevistador de TV: “Estamos
basicamente religando o mundo do zero”, uma promessa que ele formalizou em uma carta
aos acionistas.
O Facebook poderia e deveria fazer isso, ele acreditava, porque era administrado por
engenheiros, cuja pureza de visão os ajudaria. “Existe essa coisa fundamental de que
desde cedo você olhava para alguma coisa e pensava: isso pode ser melhor. Posso
quebrar esse sistema e torná-lo melhor”,
Zuckerberg disse uma vez em uma viagem à Nigéria, onde prometeu que o Facebook
ajudaria no avanço de toda a África. “Acho que essa é a mentalidade de engenharia - pode
até ser mais um conjunto de valores do que uma mentalidade.” Mas esse idealismo - a
crença de que qualquer startup que ganhasse mais usuários poderia e deveria refazer
Machine Translated by Google
toda a sociedade - refletia uma arrogância que se revelaria catastrófica. “A razão pela qual
nós, nerds, não nos encaixávamos era que, de certa forma, estávamos um passo à frente.”
Paul Graham, o investidor cuja incubadora lançou o Reddit, escreveu uma vez. Os futuros
Valleyites eram “consistentemente impopulares” quando crianças, argumentou ele, porque
“já estávamos pensando sobre o tipo de coisas que importam no mundo real, em vez de
gastar todo o nosso tempo jogando um jogo exigente, mas principalmente sem sentido,
como os outros”.
Mas ainda mais importante do que a crença do Vale em uma grande missão era o tipo
de engenheiros que seus investidores elegeram para liderar sua revolução e em cuja
imagem o mundo seria refeito. “Todos eles parecem ser nerds brancos que abandonaram
Harvard ou Stanford e absolutamente não têm vida social”, disse certa vez John Doerr, um
lendário investidor em tecnologia, sobre fundadores de sucesso, chamando isso de “padrão”
que ele costumava usar. selecionar investidas.
Da mesma forma, Graham disse que procura “nerds” e “idealistas” com “um brilho de pirata
nos olhos”, que “se deliciam em quebrar regras” e desafiar as sutilezas sociais. “Esses
caras querem ficar ricos, mas querem fazer isso mudando o mundo.” Peter Thiel, um dos
fundadores do PayPal e o primeiro investidor externo no Facebook, pediu que elevassem
os contrários antissociais.
“Indivíduos com uma inaptidão social semelhante à de Asperger parecem estar em
vantagem no Vale do Silício hoje”, escreveu ele em um influente livro sobre startups. “Se
você é menos sensível às sugestões sociais, é menos provável que faça as mesmas coisas
que todos ao seu redor.” Os investidores consideravam esse arquétipo uma forma extrema
de meritocracia — baseada apenas em resultados, tão pura que existia acima de
preocupações mesquinhas de diversidade. Na realidade, esses resultados, o “padrão” de
Doerr, simplesmente refletiam uma cultura tecnológica que era hostil a qualquer um fora
de um ideal de misantropo nerd de longa data.
“Não se dá muito valor às sutilezas sociais”, disse-me Margaret O'Mara. “Existe uma
tolerância para a estranheza, em parte porque as pessoas estranhas têm um histórico
comprovado. Essa é a outra dimensão da cultura do Vale do Silício. É como se todo mundo
fosse um idiota.” Esse arquétipo do Valley derivou de suas empresas fundadoras: Shockley
Semiconductor Laboratory e o fornecedor de componentes elétricos Hewlett-Packard.
Ambos foram definidos pelo desdém rabugento de seus fundadores pela vida corporativa
convencional e pelas estruturas administrativas, o que os impediu de se mudar para o
Leste. Eles cultivaram culturas de escritório impiedosamente competitivas e zelosamente
anti-hierárquicas, dando aos engenheiros rédea solta e supervisão frouxa. E eles
Machine Translated by Google
recrutou rabugentos anti-sistema à sua própria imagem, com pedigrees muito informais
e personalidades muito difíceis para os refinados IBM ou Bell Labs. Eventualmente,
como os desistentes argumentativos e auto-impulsionados pareciam estar em toda
parte, o Valley considerou essa personalidade um sinal de gênio.
Na maioria das indústrias, essas peculiaridades seriam diluídas, ao longo do tempo,
pelos recém-chegados e pelas gerações subsequentes. Mas, como costuma acontecer
no Vale, a força oculta por trás de tudo, definindo tanto a cultura quanto a economia,
era o capitalismo de risco. A prática de engenheiros se tornarem VCs que escolhem a
próxima geração de engenheiros dominantes manteve o pool genético ideológico
incestuosamente estreito.
Ainda hoje, Shockley está a apenas quatro ou mais passos de praticamente todas
as figuras importantes da mídia social. Uma de suas primeiras contratações, um
engenheiro chamado Eugene Kleiner, mais tarde cofundou a Kleiner Perkins, a empresa
de investimentos que contratou Doerr. Doerr, por sua vez, semeou a Amazon e o
Google, onde seus conselhos — lições que aprendera com os recrutas da Shockley —
se tornaram a base do modelo de negócios do YouTube. Outro protegido de Doerr, o
fundador da Netscape, Marc Andreessen, tornou-se um grande investidor e membro
do conselho do Facebook e mentor pessoal de Mark Zuckerberg. Ele cofundou uma
empresa de capital de risco que semeou, entre outros, Slack, Pinterest e Twitter.
Existem dezenas dessas interconexões, todas entre um pequeno grupo de
investidores e fundadores com ideias semelhantes. Yishan Wong, chefe do Reddit
durante o Gamergate, havia surgido no PayPal, cujos ex-alunos orientaram grande
parte da era da mídia social. Um dos primeiros executivos do PayPal, Reid Hoffman,
usou sua sorte inesperada para fundar o LinkedIn e investir cedo no Facebook. Ele
apresentou Zuckerberg a Thiel, que se tornou o primeiro membro do conselho do Facebook.
Thiel, aproveitando ainda mais seu sucesso no PayPal, iniciou um fundo que lançou
grandes investimentos no Airbnb, Lyft e Spotify. Durante todo o processo, como muitos
investidores importantes, ele impôs seus ideais às empresas que supervisionava. Na
década de 1990, ele foi co-autor de um livro, The Diversity Myth, chamando a inclusão
proposital de mulheres ou minorias de uma farsa que sufocava a livre busca intelectual.
“Max Levchin, meu co-fundador do PayPal, diz que as startups devem tornar sua
equipe inicial o mais semelhante possível”
Thiel escreveu. “Todos na sua empresa devem ser diferentes da mesma maneira –
uma tribo de pessoas com ideias semelhantes, devotadas ferozmente à missão da
empresa.”
Isso, mais do que raça ou gênero sozinho, era o arquétipo rígido em torno
Machine Translated by Google
3. Trolling
“Em última análise”, disse Christopher Poole, fundador do 4chan, em 2008, “o poder
está na comunidade para ditar seus próprios padrões”. Poole, então um jovem
esquelético de 20 anos, pertencia a uma crescente comunidade de entusiastas da web
— programadores, blogueiros, estudantes de pós-graduação — construindo a “civilização
da mente” do Vale do Silício. Mas depois de todas as inebriantes conferências de
hackers dos anos 80 e manifestos da década de 90, nos anos 2000 os habitantes da
web estavam mais interessados em se divertir. Os suburbanos presos em casa depois
da escola, jovens demais para dirigir, passavam horas online. A promessa de total
liberdade da internet atraiu especialmente as crianças, para quem a vida off-line é
governada por pais e professores. Os adolescentes também têm um impulso de
socialização mais forte do que os adultos, o que se manifesta como um uso mais intenso
das redes sociais e uma maior sensibilidade ao que acontece lá. Poole começou o 4chan quando tinha ape
Crianças que se sentiam isoladas off-line, como Adam, conduziram uma grande parte
da atividade online, trazendo consigo as preocupações dos desautorizados e intimidados.
Essa cultura era, a princípio, uma cultura de criação e tolice – vídeos de gatos e
desenhos animados – embora também tendesse a ser travessa e transgressora.
Baseando-se em uma cultura da web que remonta ao WELL, diversão significava estar
livre das regras e sensibilidades da sociedade e torcer o nariz para os estranhos que
não entendiam. Foi assim que as pegadinhas - um passatempo já apreciado por jovens
de todos os lugares - se tornaram a atividade que definiu os primórdios da web.
Em uma manobra organizada no 4chan, os usuários sequestraram um concurso
online no qual escolas competiam para hospedar um show de Taylor Swift e dirigiram
Machine Translated by Google
vitória para um centro para crianças surdas. Em outro, os usuários postaram uma
piada interna do 4chan, derivada de uma sessão de memes tarde da noite, em um
quadro de mensagens do programa de TV de Oprah Winfrey, escrevendo: “Nosso
grupo tem mais de 9.000 pênis e todos estão estuprando crianças”. Winfrey citou
sombriamente a linha no ar. “Muito do humor”, disse Adam, “vem do ato de
ultrapassar limites e expandir seu alcance para lugares mais populares que parecem intocáveis”.
Conseguir um mundo que os tratava como párias.
As coisas às vezes se transformavam em puro sadismo. Em 2006, os usuários
descobriram que, após o suicídio de um menino de treze anos, os amigos da vítima
postaram lembranças em sua página no MySpace. Os usuários zombaram dos erros
ortográficos e da seriedade infantil. Alguns hackearam a página para mudar a foto
do perfil do menino para a imagem de um zumbi. Outros trotes ligaram para seus
pais, que continuaram por mais de um ano. Se os adultos e os colegas de classe
acharem tais casos desconcertantes, melhor ainda.
Transgredir tabus cada vez maiores - mesmo contra a crueldade para com os
pais enlutados - tornou-se uma forma de sinalizar que você estava na brincadeira.
“Quando você navega no 4chan e no 8chan enquanto o resto de seus amigos estão
postando merdas normie live-ri-love no Instagram e no Facebook”, disse Adam,
“você se sente diferente. Resfriador. Parte de algo de nicho.” A piada pode ser uma
foto de pornografia escatológica. Um vídeo de um terrível assassinato. Uma calúnia
racial postada para provocar as pessoas, desafiando-as a levar isso a sério. Rir do
material - ou, melhor ainda, superá-lo - afirmou que você compartilhava o
distanciamento cínico e conhecedor do clube. E reformulou sua relação com o
mundo exterior: não é a sociedade que nos rejeita, somos nós que rejeitamos a sociedade.
Essas duas atividades unificadas, exibindo tabus e pregando peças, convergiram
para se tornar trollagem. Um fórum de mensagens dos anos 90 definiu o trolling
como postar comentários “com nenhum outro propósito além de irritar alguém ou
interromper uma discussão”, possivelmente com o nome de “um estilo de pesca em
que se arrasta a isca por um local provável na esperança de uma mordida”. Desde
os tempos do BEM, os internautas se entretinham procurando provocar uns aos
outros. Em redes como o 4chan, muitas vezes se tornava algo mais sombrio: atos
de abuso coletivo em que o objetivo era se deliciar com a angústia de outra pessoa.
A emoção de provocar uma reação em alguém tinha até nome: lulz, uma
corruptela da sigla para “laugh out loud”. Quase não havia limite para quem poderia
ser o alvo ou com que crueldade; o sonho do Vale do Silício de liberdade de leis e
hierarquias tornou-se, online, liberdade de
Machine Translated by Google
códigos sociais e morais também. A comunidade havia criado seus próprios padrões,
como esperava Poole, mas em torno do incentivo organizador de todas as mídias
sociais: atenção.
A maioria das plataformas é construída em torno de uma crença supostamente
neutra de que a atenção indica valor. O Reddit e o Twitter elevam as postagens com
base em quantos usuários as endossam com votos positivos ou retuítes. O Facebook e
o YouTube colocam essa autoridade em algoritmos. Qualquer uma das versões achata
todas as formas de atenção — positiva ou negativa, irônica ou sincera, quer tenha feito
você rir ou com raiva, satisfaça sua curiosidade intelectual ou seus instintos lascivos —
em uma métrica pura: para cima ou para baixo.
Conselhos como o 4chan fazem o mesmo, embora de forma mais orgânica. O
anonimato e a rotatividade de conteúdo encorajam os usuários a buscar a atenção uns
dos outros da forma mais agressiva possível. Insensível às restrições sociais do mundo
off-line, cada usuário opera como um algoritmo em miniatura do Facebook, aprendendo
iterativamente o que melhor chama a atenção dos outros. Uma lição se mantém
consistentemente. Para subir entre dezenas de milhares de vozes, independente do que
você poste, é melhor aumentar o volume, para ser mais extremo.
Em 2010, um dos ataques mais queridos da comunidade teve como alvo uma
menina de onze anos. Os usuários viram postagens circulando no Myspace, onde ela
era ativa, relatando que ela havia contado a amigos que estava envolvida romanticamente
com o vocalista de uma banda local de 25 anos. Os usuários do Myspace zombaram
dela por, presumiram, ter inventado. Ela postou respostas furiosas e, em seguida, um
vídeo no YouTube dizendo a seus “odiadores” que ela “enfiaria uma glock” na boca
deles. Os usuários do
4chan, encantados com sua reação desajeitada e emocional, começaram a provocar
mais. Ela mentiu, recusou a responsabilidade e agora seria colocada em seu lugar. Eles
a bombardearam com mensagens de assédio no Facebook e Myspace, falsas entregas
de pizza e trotes, que gravaram e enviaram para o 4chan para mais lulz. Um post sobre
“Como trollar” a aconselhou: “Diga a ela para se matar” e “Diga ao pai dela que vamos
espancá-la” e circular fotos reveladoras dela.
Ela postou um segundo vídeo, no qual soluçava enquanto seu pai adotivo gritava
para seus algozes invisíveis: “Adivinha, seus e-mails serão capturados e você será
encontrado”. Isso emocionou os usuários do 4chan - prova de que eles estavam
conseguindo. O assédio piorou. Em um vídeo final, ela cedeu, admitindo todas as
acusações e implorando por misericórdia. O incidente tornou-se
Machine Translated by Google
lenda na web social: justiça e lulz, alcançados. Seus vídeos circulavam continuamente,
atraindo milhões de visualizações. A banda local que ela citou em suas postagens iniciais
gravou uma música comemorando sua humilhação: “Meu nome e reputação não serão alvo
de uma vagabunda / estarei no topo do mundo e você se cortará fodido .”
Anos depois, ela disse à polícia que, quando ela tinha dez anos, o vocalista da banda a
molestou e estuprou repetidamente. Como acontece com muitas vítimas de abuso infantil, a
vergonha e a confusão a levaram a dizer aos amigos que era consensual. Em meio a uma
investigação do FBI, quase duas dúzias de outros apresentaram histórias semelhantes. No
entanto, o episódio ainda é comemorado no 4chan e sites semelhantes, onde os usuários
continuaram a assediá-la na web por mais de uma década.
Em uma festa para Auernheimer na noite anterior à sua sentença criminal, “jornalistas
beberam ao lado de hackers, ativistas, documentaristas de tapa-olho e garotas de cabelo
doce com piercings nos lábios”, de acordo com um relato da Vice . Na manhã seguinte, o
vice- escritor trouxe uma máscara de Guy Fawkes para o tribunal, explicando: “Fui porque a
condenação dele estava errada e meus amigos e eu cuidávamos dele”. No ano seguinte,
Auernheimer ingressou no The Daily Stormer, um proeminente fórum neonazista fundado e
povoado por 4channers, onde postou uma foto revelando uma tatuagem de suástica do
tamanho de um punho em seu peito.
Poole, desconfiado da reputação obscura do 4chan, impôs as mais leves das restrições.
Discurso de ódio extremo e assédio ainda eram permitidos, mas limitados a algumas
subseções. Transformou essas seções em distritos de luz vermelha, convidando multidões
de curiosos, alguns dos quais gostaram do que viram e ficaram. Ainda assim, alguns
consideraram até isso uma traição. Um deles, um desenvolvedor de software chamado
Fredrick Brennan, iniciou um spin-off do 4chan, o 8chan, que ele anunciou como uma
alternativa “amigável à liberdade de expressão”. Usuários, incluindo Adam, afluíram,
aprofundando uma identidade coletiva de marginalidade desafiadora que se tornou o lar de
alguns dos maiores horrores da era da internet.
No final dos anos 2000, as comunidades chan migraram para as plataformas mais
brilhantes que então cresciam em popularidade. Como ondas de colonos, eles desembarcaram em
Machine Translated by Google
4. Jogadores
produto, vendido em lojas de eletrônicos para adultos, como algo mais simples: brinquedos.
Os departamentos de brinquedos estavam, naquele momento, fortemente segmentados por gênero.
O presidente Reagan suspendeu as regulamentações que proibiam a publicidade na TV voltada para
crianças. Os profissionais de marketing, tomados por um neofreudismo então em voga, acreditavam que
poderiam fisgar as crianças satisfazendo sua curiosidade nascente sobre seus próprios gêneros. A nova
programação de TV, como My Little Pony e GI Joe , apresentou normas de gênero hiperexageradas,
sequestrando a autodescoberta natural de gênero dos adolescentes e convertendo-a em um desejo por
produtos de plástico moldado. Se isso soa como um eco nítido do modelo de negócios da mídia social,
não é coincidência. Explorar nossas necessidades psicológicas mais profundas e, em seguida, treinar-
nos para persegui-las por meio do consumo comercial que nos deixará insatisfeitos e voltaremos para
obter mais, tem sido fundamental para o capitalismo americano desde o boom do pós-guerra.
femininas retratadas como hipersexualizadas, submissas e algo a que os homens deveriam se sentir no
direito. Muitos jogadores entenderam que o retrato era fantasia, embora com valores preocupantes. Mas
o suficiente cresceu na fantasia para absorvê-la como verdade. Em meio às guerras culturais dos anos
1990 e 2000, os comerciantes de jogos aproveitaram essas tendências como um trunfo, apresentando
os jogos como refúgios de um mundo feminilizado, um lugar onde os homens ainda eram homens e as
mulheres mantidas em seus lugares. O jogo tornou-se, para alguns, uma identidade, enraizada na reação
contra a evolução das normas de gênero.
Quando as redes sociais apareceram, acessíveis apenas por computadores de mesa presos na
sala da família, os primeiros usuários pareciam muito com os jogadores: homens e meninos caseiros
que eram os primeiros a adotar a tecnologia. Portanto, os dois públicos foram tratados como sinônimos,
um conjunto de produtos comercializados para o outro, confundindo-os em uma subcultura e identidade
unificadas. Mas na década de 2000, computadores domésticos cada vez mais poderosos permitiram que
desenvolvedores autofinanciados construíssem jogos fora do molde comercial. (Zoë Quinn foi um desses
desenvolvedores.)
A democratização digital também trouxe novas vozes, como a YouTuber Anita Sarkeesian, que
argumentou que a representação da mulher nos jogos não
Machine Translated by Google
não apenas excluí-los, mas encorajou seus maus tratos na vida real. Entre os jogadores
ansiosos para ver a forma ser levada mais a sério, esse foi um desenvolvimento
empolgante e positivo. Os revisores começaram a adotar as críticas de Sarkeesian.
Lançamentos de grande orçamento apresentaram diversos protagonistas e enredos,
enquanto eliminavam os excessos de He-Man.
Para alguns jovens jogadores do sexo masculino, especialmente aqueles que se
reuniam em plataformas sociais, parecia uma ameaça. As normas e limites de sua
identidade estavam sendo desafiados e, com isso, seu senso de identidade. “Durante
trinta anos, encontramos um tipo muito particular de jogador, e os tornamos o centro do
mundo, e atendemos a todos os seus caprichos”, disse-me Brianna Wu, que ousou
desafiar os Gamergaters. “E agora, hoje, o mundo está mudando, e o jogador médio não
é um cara de vinte e poucos anos. É uma mulher de quarenta anos como eu. E quando
o mundo muda, há apenas uma incapacidade de lidar com isso, o que é muito lamentável
em nosso campo.”
Acusar desenvolvedores como Quinn de subornar revisores era uma espécie de
autodefesa cognitiva, uma forma de reformular mudanças indesejadas como uma
conspiração nefasta e a ameaça à identidade deles como uma batalha nossa contra eles.
“Eles não estavam mais lutando pelo direito de ver seios em videogames, mas lutando
contra o 'genocídio branco'”, disse David Futrelle, um escritor que monitora extremistas
online. “Não eram apenas os jogos que precisavam ser salvos, mas a própria civilização
ocidental.” Olhando para trás, Futrelle vinculou o evento à ascensão explosiva da extrema
direita online, chamando de “quase impossível exagerar o papel do Gamergate no
processo de radicalização”.
Adam, o obsessivo do 4chan, agora com dezoito anos, seguiu cada passo. A
indignação de afirmação da visão de mundo era irresistível. Vídeos postados por
proeminentes YouTubers de jogos o convenceram, disse ele, de que “jornalistas estavam
sendo subornados com dinheiro e sexo”. Observar os usuários tramando para atormentar
Wu o perturbou. Mas as plataformas, seguindo sua engenharia, martelaram-no com
postes supostamente provando que Wu e outros eram radicais perigosos empenhados
em sua subjugação. Ele continuou clicando, seguindo a campanha, como muitos de seus
compatriotas online, em tocas de coelho cada vez mais escuras e profundas.
Wu, observando o desenrolar do Gamergate, lembrou-se de um momento de anos
antes, quando ela havia estagiado no gabinete do senador Trent Lott, do Mississippi. Sua
equipe havia implantado uma pesquisa push agora famosa: “Você acredita que os
democratas estão tentando tirar sua cultura?” Ele executou
Machine Translated by Google
espetacularmente, especialmente com homens brancos. Imagine, ela disse, quão eficazes
as plataformas de mídia social poderiam ser nisso, otimizadas para desencadear as
emoções das pessoas de forma mais eficaz do que o escritório de campanha mais astuto,
saturando o público na casa dos bilhões com uma versão da realidade que era como uma
enquete de ativação de identidade que nunca terminou. “Da mesma forma daquela enquete
no Mississippi, acho que havia um medo real de que as mulheres estivessem vindo para
acabar com sua cultura”, disse Wu sobre o Gamergate. “É tribal.”
5. A Maldição de Dunbar
grupos. Em seguida, grupos antivacina, embora isso não parecesse surpreendente, dada
a atividade dela. Mas logo o Facebook promoveu grupos organizados em torno de
desinformação médica não relacionada. Muitos grupos promoveram uma conspiração que
ela nunca tinha ouvido antes: que o Zika, um vírus que se espalhava na América Latina e
nos Estados Unidos, foi fabricado. Ela pesquisou o termo Zika no Facebook para testar
se, como no caso das vacinas, a plataforma poderia estar levando os usuários a extremos.
Com certeza, os principais resultados foram todos para grupos de conspiração que
chamam o zika de uma conspiração judaica, um esquema de controle populacional, o
movimento inicial de uma tomada de poder global.
“Existe esse efeito de correlação de conspiração”, disse DiResta, “no qual a plataforma
reconhece que alguém que está interessado na conspiração A provavelmente está
interessado na conspiração B e a apresenta a eles”.
A era dos grupos do Facebook promoveu algo mais específico do que o consumo passivo
de conspirações. Simplesmente ler sobre rastros ou vírus produzidos em laboratório pode
ocupar vinte minutos. Mas ingressar em uma comunidade organizada em torno da luta
pode se tornar um ritual diário por meses ou anos. Cada vez que um usuário sucumbia,
eles treinavam o sistema para estimular outros a fazerem o mesmo. “Se eles mordem”,
disse DiResta, “eles reforçam esse aprendizado.
Então o algoritmo pegará esse reforço e aumentará a ponderação.”
Agentes Illuminati que espalharam o Zika, as feministas que buscam derrubar o lugar
de direito dos homens no topo da hierarquia de gênero, começando com jogos. “As
pessoas comuns começaram a se sentir como soldados em um exército online lutando
por sua causa”, disse ela. Era apenas uma questão de tempo até que eles desejassem
um ao outro para a ação.
Mas, embora DiResta pudesse demonstrar que isso acontecia em casos particulares,
sem acesso aos dados internos das empresas, ela só podia inferir que as plataformas
estavam conduzindo isso de forma sistêmica. Ela alertou colegas em todo o Valley –
primeiro dentro de seu grupo de observação informal, depois de forma mais ampla, em
artigos e palestras voltados para o público – de que algo estava errado. Ela temia, no
entanto, que fosse tarde demais. “Tive a sensação”, disse ela, “de que não importava
se eram gamers, antivaxxers” ou algum outro grupo sendo radicalizado em grande
escala. “Essa foi apenas a dinâmica que estava tomando forma como resultado desse
sistema.”
O gamergate, sob esse prisma, parecia praticamente inevitável, exatamente o que
aconteceria quando os primeiros usuários da rede social, os jogadores, interagissem
com uma máquina habilmente calibrada para produzir exatamente essa resposta.
Comunidades maiores e mais convencionais, pessoas comuns sem nenhum apego
especial à web, já estavam se movendo online, submetendo-se à influência da máquina.
Havia todos os motivos para esperar que a experiência deles fosse a mesma. No início
de 2015, já estava começando.
Machine Translated by Google
Três
Abrindo o portal
“Acho que eles não tinham muita certeza do que fazer comigo”, lembrou Ellen Pao sobre
seus primeiros dias no Reddit. “Não foi super acolhedor.” Na primavera de 2013, Pao era um
veterano do Vale, vindo de uma passagem pela Kleiner Perkins, a empresa de investimentos
de primeira linha. Mas, apesar de seu tempo na Kleiner, com seu enorme fundo para startups
de mídia social, ela tinha pouca experiência direta com empresas sociais. E ela se destacou
de outra maneira: ela era uma mulher negra de alto escalão em uma indústria notoriamente
dominada por homens.
Tanto de dentro quanto de fora, ela acreditava no Vale do Silício desde a década de
1990, quando ingressou em uma empresa que fabricava hardware para acessar a internet a
partir de TVs. Mas ela também se tornou cética em relação à tendência das grandes
tecnologias em relação a jovens geeks do sexo masculino. Além de Yishan Wong, o CEO do
site, os cerca de vinte outros funcionários do incipiente Reddit tendiam a ser jovens. A
maioria falava em piadas e arcanos culturais de uma plataforma que, apesar de sua enorme
base de usuários, parecia isolada. Pao estava um pouco rígido; Wong a incentivou a usar
menos linguagem “corporativa”.
Ela também era apenas uma usuária leve do Reddit, embora conhecesse o básico da
plataforma, que exibia links enviados por usuários que outros usuários votavam “para cima”
se gostassem e “para baixo” se não gostassem. Os links com mais votos apareciam no topo
da página, onde milhões os veriam. Uma seção de comentários anexada a cada postagem
operada pelas mesmas regras. Entrando em uma conversa, você veria primeiro as
declarações que agradavam ao público e os comentários impopulares, de modo algum. A
simplicidade e a rolagem infinita acabaram trazendo hordas de navegadores casuais,
inculcando-os em uma cultura da Internet que antes era impenetrável. O Reddit tornou-se
um portal de conexão
Machine Translated by Google
os dois mundos.
Ainda assim, o Reddit foi construído e governado em torno dos mesmos ideais iniciais
da Internet do 4chan e absorveu os usuários e os tiques culturais dessa plataforma. Sua
votação positiva ou negativa impôs uma maioria eclipsante que levou as coisas ainda mais
longe. O mesmo aconteceu com uma dinâmica semelhante às curtidas do Facebook: as
contagens de votos positivos são exibidas publicamente, aproveitando o impulso do
sociômetro dos usuários para validação. A caça à dopamina grudou os usuários no site e,
como no Facebook, direcionou suas ações.
Milhões que abriram o Reddit todas as manhãs encontraram um fluxo de comentários e
artigos afirmando a superioridade e satisfazendo as queixas do usuário mediano. Era uma
versão da realidade em que o libertarianismo tecnológico sempre foi justificado e sistemas
de crenças alternativos – feminismo, liberalismo estabelecido, religião organizada – foram
infinitamente humilhados e desmascarados. Se esses usuários medianos lutavam para se
encaixar off-line, eles garantiam uns aos outros, era porque eram mais inteligentes e
importantes do que o mundo que os tratava como indesejáveis. Como o 4chan, era um
lugar, em outras palavras, perfeitamente preparado para o Gamergate.
“Começou muito parecido com as outras plataformas”, disse Pao sobre os fundadores
do Reddit, “onde dois homens brancos saem para construir algo que desejam usar e que
atrai pessoas que se parecem com eles”. Pao desenvolveu uma sensibilidade especial para
o chauvinismo do Valley: dois anos antes, ela havia processado a Kleiner Perkins por
discriminação baseada em gênero, após o que a empresa a demitiu. Embora ela finalmente
tenha perdido no tribunal, muitos fora do Valley, e até mesmo alguns dentro dele, anunciaram
seu processo chamando a atenção necessária para as desigualdades irritantes no
capitalismo de risco tecnológico. Em 2016, quatro anos após o processo, apenas 11% dos
parceiros de capital de risco em tecnologia eram mulheres. Dois por cento eram negros. As
empresas, por sua vez, financiaram de forma esmagadora pessoas que se pareciam com
elas: em 2018, 98% de seus investimentos foram para empresas lideradas por homens. Isso
refletia, argumentou Pao, um viés ainda mais específico entre os investidores em tecnologia,
favorecendo não apenas os homens brancos, mas os contrários idealistas com políticas
libertárias; o “reconhecimento de padrões” defendido por Doerr, que também foi o antigo
mentor de Pao. As firmas que escolhem os vencedores e perdedores do Valley, seu
processo enfatizava, reforçam esse arquétipo com tanto zelo porque também o incorporam.
preocupações. Mas a empresa fez questão de defender o suposto valor mais alto da
web, total liberdade de expressão, em extremos que outros não fariam. Foi somente
após semanas de cobertura crítica da CNN que o Reddit fechou uma subseção,
“jailbait”, onde os usuários carregavam fotos reveladoras de meninas menores de
idade. (As subseções do site, conhecidas como subreddits, são criadas e gerenciadas
pelos usuários.) Antes do fechamento da subseção, jailbait era o segundo termo de
pesquisa mais bem classificado, depois do reddit, trazendo usuários ao site.
Quase qualquer outra coisa foi. Em um dos vários subreddits dedicados ao
extremismo racista, “WatchNiggersDie”, os usuários postaram vídeos horríveis de
negros morrendo em assassinatos ou acidentes violentos, juntamente com comentários
pseudônimos como: “Quase me sinto mal por deixar uma imagem como essa me
encher de uma quantidade esmagadora de prazer. Quase…” A maioria dos usuários
nunca encontrou essas comunidades, escondidas em cantos sombrios do site, mas o
suficiente para grupos de monitoramento digital avisarem o Reddit de que estava se
tornando uma incubadora de ódio.
“Não baniremos conteúdo legal, mesmo que o consideremos odioso ou que o
condenemos pessoalmente”, disse Wong, o CEO. Mas seu idealismo tecnológico
finalmente quebrou em setembro de 2014, quando um hacker invadiu as contas do
iCloud de várias celebridades femininas. iCloud é o serviço de computação em nuvem
da Apple; muitos produtos da Apple fazem backup dos arquivos do usuário em seus servidores.
O hacker baixou os dados do iPhone dos alvos, incluindo várias fotos privadas de
nudez. Dezenas foram carregadas no 4chan, depois no Reddit, que, cumprindo seu
papel de elo entre o ventre da internet e seu mainstream, tornou-se, da noite para o
dia, o repositório central. Milhões de visitantes lotaram o site.
“Todo mundo estava falando sobre isso”, disse Pao. Pessoas no noticiário, no
Vale, em sua vida pessoal. E isso, em última análise, foi o que fez a diferença. Não
foi a crescente pressão pública e legal, ou as vítimas implorando às plataformas de
mídia social para não permitir essa violação de suas vidas e corpos. Isso funcionou
em todas as outras plataformas importantes, das quais as fotos foram removidas. Mas
o Reddit ainda os tinha. Wong convocou uma reunião com toda a equipe. E, pela
primeira vez, grande parte da equipe do Reddit estava pronta para se posicionar
contra a comunidade do site, que ainda insistia em que as fotos permanecessem. “As
pessoas diziam: 'Não sei como defender isso'”, lembrou Pao, que parafraseou o
sentimento deles como “Meus amigos e família estavam perguntando sobre isso e eu
simplesmente não sabia o que dizer porque era
Machine Translated by Google
“Porque é assim que parece.” A conversa, disse ela, “abriu uma ideia: 'Ei, talvez essa ideia
de não interferir nem sempre seja certa'”.
Mas Wong resistiu. Ele anunciou em um post que, embora os líderes do Reddit
“entendam o mal que o uso indevido de nosso site causa às vítimas desse roubo”, eles
não cederiam. O Reddit, escreveu ele, não era apenas uma plataforma social “mas o
governo de um novo tipo de comunidade”. Como muitos outros operadores de plataforma
que viriam, no entanto, ele deixou claro que seu governo se recusava a governar, deixando
para os próprios usuários “escolher entre o certo e o errado, o bem e o mal”. Ele intitulou
seu post “Todo homem é responsável por sua própria alma”. Isso se tornaria uma defesa
padrão dos senhores da mídia social: que a importância de sua revolução os obrigou a
desconsiderar as leis mesquinhas e a moral do mundo off-line antiquado. Além disso,
qualquer mau comportamento era culpa dos usuários, não importando o papel crucial que
a plataforma desempenhava ao possibilitar, encorajar e lucrar com essas transgressões.
No mesmo dia em que Wong emitiu sua declaração, os repórteres apontaram que
entre as imagens roubadas no Reddit estavam fotos nuas de celebridades que eram
menores de idade no momento em que foram tiradas. Enquanto isso, os engenheiros do
site alertaram que, à medida que o tráfego aumentava, eles estavam lutando para manter o site online.
Finalmente, quase três semanas depois que as fotos apareceram pela primeira vez, Wong
as baniu. Os usuários do Reddit, enraivecidos, acusaram a plataforma de vender seus
princípios para influências corporativas sombrias e, pior, feministas.
As semanas seguintes foram uma época tempestuosa. Ao apresentar sua escolha
inicial como ideológica, Wong levou o escrutínio aos ideais do Vale do Silício que haviam
recebido pouca atenção nacional fora dos anúncios da Apple cuidadosamente elaborados.
Alegações de criação de uma sociedade nova e esclarecida pareciam difíceis de conciliar
com a realidade de lucrar com a exploração pornográfica de
Machine Translated by Google
mulheres sem consentimento. Ao mesmo tempo, o Gamergate estava piorando, com o Reddit
frequentemente apontado como um centro de atividade.
O conselho corporativo do Reddit rejeitou um plano que Wong havia proposto para consolidar
o espaço do escritório. A decisão, embora pequena, sinalizou que ele havia perdido a fé do
conselho. Ele demitiu-se. Em novembro de 2014, o conselho escolheu Pao como seu substituto.
Mesmo com seu processo contra Kleiner persistente, o histórico de Pao sugeria que ela traria
supervisão adulta e crescimento financeiro. Mas os membros do conselho sentiram tanta
incerteza que também trouxeram de volta um dos fundadores do site, que havia saído para
outras startups, em um vago papel executivo e nomeou Pao como CEO interino.
Mesmo assim, Pao viu uma oportunidade de melhorar a internet para todos, não apenas
para os jovens brancos que dominavam as redes sociais. Ela chamou os fiascos do Reddit de
“um alerta” para a necessidade de finalmente governar a rede social. Ao impor proteções para
mulheres e minorias e limpar subculturas de toxicidade e assédio, ela traria para a comunidade
do Reddit o que ela não conseguiu impor ao capitalismo de risco tecnológico: inclusão real.
A peça que faltava no sonho da tecnolibertação sempre caiu no ponto cego da elite nerd
masculina do Valley. Mas Pao foi autorizado a entregá-lo. Depois de um curso intensivo nas
ferramentas de moderação usadas para administrar o site, ela assumiu o comando do que era
então um dos sites mais visitados da Internet, pronta para guiar sua base de usuários de dezenas
de milhões em direção à sua visão da terra prometida.
TRÊS MESES DEPOIS de seu mandato, Ellen Pao se tornou a primeira chefe de uma grande
plataforma a tentar reformar os excessos de sua indústria. “Estava claro, na minha cabeça, que
as coisas tinham que mudar e que o assédio era demais”, disse ela. Episódios como o
Gamergate, cuja escala se tornou intolerável nos seis meses desde que começou, a convenceram
da necessidade de conter não apenas o pior conteúdo, mas os incentivos e subculturas que
tornaram a web tóxica para começar.
Ela começou pequena, proibindo fotos nuas postadas sem o consentimento do sujeito. Ela
queria coibir a “pornografia de vingança”, um método de humilhar alguém por meio da divulgação
de fotos privadas. As vítimas eram esmagadoramente
Machine Translated by Google
Pao também estava testando uma teoria: que as vozes mais odiosas, embora poucas
em número, exploravam a tendência da mídia social de amplificar conteúdo extremo para
seu poder de chamar a atenção, tingindo toda a plataforma no processo.
Eliminar “esses subreddits de assédio realmente ruins” e impedi-los de ressurgir, ela
acreditava, era a única maneira segura de acabar com o “efeito cascata” do mau
comportamento. Ainda assim, era apenas uma teoria e eles não tinham certeza se
funcionaria.
A primeira proibição foi pequena: um subreddit chamado “FatPeopleHate”. Seus vários
milhares de usuários postaram fotos de pessoas comuns que consideravam acima do
peso, direcionando-as para assédio e ameaças. Bullying como uma busca ociosa por emoções.
Pao também removeu um punhado de pequenos subreddits organizados em torno do ódio
a pessoas negras ou LGBT. Mas a liderança do Reddit enfatizou que isso era devido ao
comportamento de assédio dos usuários e não ao conteúdo em si. Comunidades de ódio
muito maiores foram deixadas de lado, como “WatchNiggersDie”, “GasTheKikes” e
“RapingWomen”, todas as quais glorificavam abertamente a violência. Keegan Hankes,
pesquisador do Southern Poverty Law Center, que monitora o extremismo de direita,
chamou o Reddit de “um buraco negro pior de racismo violento do que o Stormfront”, um
importante site neonazista, alertando que mesmo os piores fóruns de supremacia branca
proibiu tais extremos.
Ainda assim, a base de usuários do Reddit explodiu de raiva com as remoções como
um ataque à liberdade de ofender e transgredir que, afinal, era uma promessa explícita da
rede social desde sua fundação. Como no Gamergate, milhares votaram positivamente nas
postagens mais raivosas, levando uns aos outros a interpretações cada vez mais extremas:
Pao estava impondo uma agenda feminista, suprimindo os brancos
Machine Translated by Google
homens, movendo-se para acabar com a própria liberdade de expressão. Também como no
Gamergate, os usuários pareciam experimentar o incidente como um ataque à sua identidade
compartilhada, uma nova frente na guerra imaginada entre geeks masculinos de pensamento
livre e as feministas politicamente corretas que conspiram para controlá-los.
O site foi inundado com postagens chamando Pao de “vagabunda nazista” ou “presidente
Pao”, ou retratando-a em cartoons explicitamente racistas, votados de forma esmagadora por
outros usuários em uma das maiores plataformas de mídia social do mundo. Alguns postaram
o que acreditavam ser seu endereço residencial, às vezes junto com fantasias de que ela
poderia ser morta ou estuprada lá. Mas, com exceção de um post oferecendo US$ 1.000 por
uma foto de Pao sendo agredido, ela instruiu os moderadores a deixar tudo de lado.
Essa série de episódios - Gamergate, os fóruns de ódio, a reação a Pao - abalou a rede
social, mas, estranhamente, não seus supervisores, que não mostraram sinais de perceber o
quão profundamente a cultura do extremismo e da maioria da máfia se espalhou pela rede
social. Mas não foi ignorado pela extrema direita, que viu que a mídia social havia cultivado o
que não podia: uma grande e disposta audiência para o nacionalismo branco entre a juventude
americana.
“O Gamergate parece ter alertado os trolls racistas, misóginos e homofóbicos da internet sobre
o nível de poder que eles realmente possuem. O que é definitivamente uma coisa boa”, escreveu
Andrew Anglin, um antigo pôster do 4chan, no The Daily Stormer, um proeminente fórum
neonazista que ele fundou em 2013. Ele instou seus seguidores a cooptar o Gamergate e a
rede social mais ampla, lançando “ a ascensão do exército de trolls nazistas.”
Pao nunca teve a chance de pressionar ainda mais suas reformas. Em julho de 2015,
enquanto a revolta contra ela durava meses, um funcionário muito querido do Reddit que
administrava um serviço onde os usuários podiam fazer perguntas a celebridades foi demitido
sem explicação. Muitas das maiores subseções do site, administradas por voluntários
Machine Translated by Google
3. Memes Mágicos
Dentro de três anos, a pequena subcultura raivosa que Yiannopoulos defendia evoluiria
para um movimento dominante tão poderoso que ele conseguiu uma vaga na Conferência de
Ação Política Conservadora, o evento mais importante da direita política. (O convite foi
posteriormente revogado.)
Bannon chamou sua causa de “direita alternativa”, um termo emprestado de extremistas do
poder branco que esperavam rebatizar para uma nova geração. Mas para Yiannopoulos era o
que as redes sociais diziam que deveria ser.
Um descarado caçador de atenção, ele absorveu todas as mensagens que pareciam
dominantes online, as exagerou em alguns graus e depois as postou de volta nessas mesmas
plataformas. Ele era um algoritmo vivo de mídia social que também podia aparecer em painéis
de discussão a cabo. Ele se manteve no topo dos feeds dos usuários com calúnias no estilo
4chan e piadas perversas (“Se a cultura do estupro fosse real, eu passaria ainda mais tempo
nos campi americanos do que já passo”), agora para as massas do Twitter, Facebook e
YouTube. E como um novo rosto público do movimento sem rosto, ele provocou ou liderou
campanhas de assédio e abuso coletivo.
Yiannopoulos enviou seu material a um ghostwriter que ele recrutou por meio do
Gamergate, pedindo-lhe que o reunisse em um artigo sob o nome de Yiannopoulos.
“A direita alternativa é um movimento nascido nas bordas jovens, subversivas e
underground da internet”, dizia. Os cidadãos da web seriam os propagandistas da
direita alternativa, levando a um público mais amplo uma causa que “promete
diversão, transgressão e um desafio às normas sociais que eles simplesmente não
entendem”.
Semana após semana, a linguagem dos extremistas da web social se espalhou
para as principais plataformas, o que a empurrou para a política dominante. Nas
primeiras semanas das primárias presidenciais republicanas, as plataformas
encheram-se de acusações de que os candidatos de tendência moderada eram
“cuckservatives”. Acredita-se que a maleta tenha se originado em fóruns de
supremacia branca, onde “cuck” faz referência ao medo de ser traído por homens negros.
Gamergaters trouxe o termo para o Twitter, onde sua obscenidade chamativa o levou
ao topo dos feeds dos usuários. Os conservadores convencionais o adotaram
gradualmente, influenciando a política de direita – que cada vez mais se manifestava
no Twitter e no Facebook – com uma influência da cultura troll que só aumentaria.
Se quiséssemos saber aonde isso estava nos levando, tudo o que precisávamos fazer era
olhar para o Gamergate, que, no verão de 2016, havia mais ou menos declarado vitória em sua
guerra cultural pelos jogos. “O efeito de longo prazo do Gamergate foi criar uma cultura de medo
para as mulheres profissionais que fazem seus videogames”, disse Brianna Wu. Muitos deixaram o
negócio derrotados. Aqueles que ficaram aprenderam as consequências de falar. A indústria de
cem bilhões de dólares ainda é drasticamente masculina, tanto em seus produtos quanto nas
pessoas que os fabricam.
quatro
1. Justiça Web
EM SETEMBRO DE 2015, menos de dois meses após a saída de Ellen Pao do Reddit, Walter
Palmer, um dentista de 55 anos dos subúrbios de Minneapolis, sentou-se com dois repórteres
de jornais para insistir que não estava escondido. “Estive entre pessoas, familiares e amigos.
A localização realmente não é tão importante”, disse Palmer, ladeado por um advogado e um
representante de relações públicas. “Houve alguns problemas de segurança desde o início
para minha filha e minha esposa.” No que ele disse que seria sua única entrevista, Palmer
lamentou o movimento global - o primeiro de um novo tipo de raiva em massa que logo se
tornaria comum - agora perseguindo sua família e funcionários, que eram, ele enfatizou,
inocentes. “Não entendo esse nível de humanidade que vem depois de pessoas que não estão
envolvidas”, disse ele.
Seis semanas antes, a BBC havia publicado um pequeno artigo relatando que um caçador
não identificado havia matado um leão no Zimbábue. Isso não era incomum ou ilegal por conta
própria. Mas os guias do caçador primeiro atraíram o leão para fora de um parque de caça
próximo, onde matá-lo seria ilegal. E o animal tinha uma distinta juba preta que lhe rendeu
fama entre os frequentadores do parque, que o batizaram de Cecil.
Uma das subseções mais populares do Reddit na época era o worldnews, um repositório
de relatórios globais e boatos de serviços de notícias. Com os usuários postando mais de mil
links todos os dias, chegar ao topo da página geralmente exigia uma descrição elaborada para
provocar uma emoção intensa. Um usuário com o identificador Fuckaduck22, que postou a
história de Cecil, anexou exatamente esse título: “Cecil, o leão, foi esfolado e sua cabeça
removida. Hwange—Um leão de juba preta bem conhecido e muito fotografado carinhosamente
chamado Cecil foi morto por caçadores esportivos nos arredores de Hwange, no Zimbábue, no
último
Machine Translated by Google
semana."
Milhares de usuários votaram positivamente no artigo para o topo da página inicial do Reddit, o
que significou uma audiência de milhões. Nem todos ficaram com raiva. De qualquer forma, Cecil
estava perto do fim da expectativa de vida masculina, apontou um, enquanto outro observou que a
caça de grandes animais financia os esforços de conservação. Mas as seções de comentários do
Reddit são classificadas pela popularidade de cada comentário. E foram as expressões de indignação
que subiram ao topo:
os leões podem muito bem ser extintos na natureza em breve, porque você realmente
REALMENTE queria inflar seu senso de masculinidade.
Quero que a cabeça dos caçadores seja um troféu. Filho da puta covarde.
acreditava que o estado tinha manipulado. Enquanto as autoridades reprimiam, alguns manifestantes
usaram o Twitter para divulgar as atualizações da barricada. Quando eles perceberam que o
mundo estava assistindo – e que o escrutínio internacional poderia deter, ou pelo menos
documentar, os abusos do governo – seus tweets assumiram um propósito maior.
Em meio ao otimismo tecnológico da era Obama, os americanos a descreveram como uma
“revolução do Twitter”. Embora a verdadeira revolução iraniana tenha sido rapidamente esmagada,
o rótulo permaneceu.
À medida que mais eventos mundiais se desenrolavam ao vivo no Twitter, qualquer um que se
preocupasse com as notícias ou estivesse envolvido em produzi-las aderiu. Ele mudou do serviço
de texto em grupo para uma plataforma de postagens curtas voltadas para o público: um microblog
onde milhões transmitiam, discutiam e debatiam coletivamente as maquinações políticas do dia ou
o episódio de Game of Thrones . Mas tudo foi filtrado por uma plataforma que funciona menos
como um ticker da CNN do que como o Reddit.
Os usuários validam as postagens uns dos outros tocando em curtir ou retuitar, no processo
também trazendo à tona ou suprimindo qualquer conteúdo que mais apele à sua vontade coletiva.
Quando a fúria sobre Cecil aumentou para 316 milhões de usuários ativos do Twitter, a escala
de atividade escalou além dos extremos do Gamergate. Em um único dia, os usuários postaram
672.000 tweets sobre o incidente. Cerca de 50.000 deles citaram Palmer diretamente e foram
vistos um total de 222 milhões de vezes: infâmia em uma escala que, geralmente, apenas os livros
de história podem oferecer. “Vou pagar mais de £ 35 mil para assistir #WalterPalmer em uma luta
justa com o rei da selva”, escreveu um usuário, representante de uma onda de postagens
expressando o desejo de ver Palmer prejudicado.
Quando o Reddit ficou furioso, ele permaneceu principalmente confinado a nichos geeks da
internet. Mas o Twitter, em 2015, estava no centro das principais notícias e cultura. As fantasias de
vingança permearam o que era o equivalente nas mídias sociais da rede de TV, atraindo repórteres
e celebridades. “Espero que #WalterPalmer perca sua casa, seu consultório e seu dinheiro”, tuitou
Sharon Osbourne, então uma estrela de reality show, enquanto Mia Farrow, a premiada atriz,
postou o endereço de seu consultório odontológico.
2. Ultraje moral
BILLY BRADY era calouro na Universidade da Carolina do Norte quando percebeu que
gostava de ficar indignado no Facebook. Durante todo aquele ano de 2005, ele fez das
visitas ao Facebook uma parte regular de sua vida, brigando nas seções de comentários e,
ele agora admite com uma risada, “postando coisas bastante inflamadas”.
Brady, um vegano de boas maneiras que fala com um sotaque de surfista californiano
apesar de não ser da Califórnia, não estava acostumado a se sentir atraído pela raiva e pelo
conflito. E ele entrou no Facebook para mudar de ideia, não para brigar. Ele estava entrando
no ativismo pelos direitos dos animais, disse ele, e pensou que “parecia uma plataforma
interessante para poder espalhar mensagens e persuadir as pessoas”. Mas muitas vezes
ele acabava expressando indignação com eles. Ele estava se comportando de maneiras
que, como ele percebeu, tinham poucas chances de promover a causa e, por mais divertidas
no momento, o faziam se sentir um idiota depois.
Por sorte, o campo de estudo de Brady teve algum insight. A filosofia moral, antes um
domínio de arranhadores de queixo, estava se tornando mais empírica, alavancando a
ciência exata em busca da verdadeira natureza da moralidade. Suas descobertas sugeriram
uma explicação para o comportamento de Brady. Fumar em sua mesa ou disparar um
insulto parecia mais ruim do que bom. Mas quando suas expressões de indignação
chamaram a atenção online, especialmente o encorajamento de outras pessoas com ideias
semelhantes, a adrenalina foi viciante. “Eu definitivamente notei que você pode chamar a
atenção das pessoas postando mais coisas inflamatórias e sentindo algumas emoções”,
disse ele.
Mas por que as pessoas seriam atraídas por emoções tão prejudiciais e desagradáveis?
Fascinado, acrescentou aulas de psicologia à sua agenda. Ele estudou a influência da mídia
social no comportamento desde então. De certa forma, disse ele, todos os usuários estão
simultaneamente conduzindo e servindo como sujeitos de um experimento psicológico sem
fim. As pessoas, via de regra, estão muito atentas e se adaptam ao feedback social, um
impulso que as curtidas e compartilhamentos digitais aproveitam. Mesmo como estudante
de graduação envolvido em brigas no Facebook, “eu, por tentativa e erro, aprendi como as
pessoas respondem a diferentes enquadramentos e diferentes apelos”.
Quanto mais ele e usuários com ideias semelhantes se enfureceram, mais antagônicos
seus comportamentos se tornaram. comedores de carne e
Machine Translated by Google
os agnósticos dos direitos dos animais não eram pessoas bem-intencionadas a serem
persuadidas, eram camponeses e malfeitores a serem condenados. A chave, concluiu ele,
era a indignação moral. A indignação é um coquetel emocional simples: raiva mais repulsa.
A indignação moral é um instinto social.
Lembre-se das primeiras tribos de até 150 pessoas. Para sobreviver, o grupo tinha
que garantir que todos agissem de acordo com o interesse coletivo, parte do qual era se
dar bem uns com os outros. Isso exigia um código de comportamento compartilhado. Mas
como fazer com que todos internalizem e sigam esse código? A indignação moral é a
adaptação de nossa espécie para esse desafio. Quando você vê alguém violando uma
norma importante, você fica com raiva. Você quer vê-los punidos. E você se sente
compelido a transmitir essa raiva, para que outros também vejam a violação e queiram se
unir para envergonhar e talvez punir o transgressor.
O desejo de punir os infratores é tão profundo que aparece até nas crianças. Em um
conjunto de experimentos, crianças menores de um ano viram dois fantoches. Um fantoche
compartilhou, o outro recusou. Os bebês consistentemente tiravam doces do fantoche
ruim e recompensavam o bom.
As cobaias apenas um ou dois anos mais velhas até recompensavam fantoches que eram
cruéis com o fantoche mau e puniam fantoches que eram gentis com ele. Foi a confirmação
de que a indignação moral não é apenas raiva contra um transgressor. É um desejo ver
toda a comunidade se alinhar contra eles.
Brady, tentando entender a indignação que sentiu online, primeiro como parte de um
programa de mestrado em filosofia e depois outro em psicologia, circulou em torno de
uma teoria que ambos os campos chamam de sentimentalismo. “É essa ideia de que
nosso senso de moralidade está entrelaçado e talvez até impulsionado por nossas
respostas emocionais”, disse ele. “O que é contra essa ideia mais antiga de que os
humanos são muito racionais quando se trata de moralidade.”
A cultura popular muitas vezes retrata a moralidade como emergindo de nossos eus
mais elevados: os melhores anjos de nossa natureza, a mente iluminada.
O sentimentalismo diz que na verdade é motivado por impulsos sociais como conformidade
e gerenciamento de reputação (lembra do sociômetro?), que experimentamos como
emoção. A pesquisa neurológica apóia isso. À medida que as pessoas confrontadas com
dilemas morais descobrem como responder, elas exibem intensa atividade em regiões
neurais associadas às emoções. E o cérebro emocional trabalha rápido, muitas vezes
resolvendo uma decisão antes mesmo que a razão consciente tenha a chance de entrar
em ação.
Machine Translated by Google
os sujeitos da pesquisa ativam as partes de seus cérebros responsáveis pelo cálculo racional, que
eles usam, retroativamente, para justificar qualquer ação motivada pela emoção pela qual já tenham
decidido.
Essas escolhas morais e emocionais pareciam servir a um propósito social, como buscar a
aprovação dos colegas, recompensar um bom samaritano ou punir um transgressor. Mas a natureza
instintiva desse comportamento o deixa aberto à manipulação. O que é exatamente o que déspotas,
extremistas e propagandistas aprenderam a fazer, reunindo as pessoas ao seu lado, provocando
indignação - muitas vezes em algum bode expiatório ou malfeitor imaginário. O que aconteceria
quando, inevitavelmente, as plataformas sociais aprendessem a fazer o mesmo?
3. Mobs Envergonhados
BRIANNA WU ainda estava lutando contra uma multidão indignada na mídia social quando se viu
tentando criar outra. "Eu nunca vou esquecer isso", disse ela.
“Houve um momento, no meio do Gamergate, em que eu realmente me envolvi no argumento feminista
para a indústria de jogos.” A Oculus, uma empresa de propriedade do Facebook que fabricava
headsets de realidade virtual, havia anunciado uma nova equipe. Todos os homens brancos. Wu ficou
furioso. “Lembro-me de explodir no Twitter e postar esta foto e seus nomes”, disse ela.
“E isso é um problema. A falta de mulheres na engenharia de RV é terrível. Mas percebi que esse tipo
de tática funciona no mesmo lugar emocional do que o Gamergate estava fazendo comigo.
Ela reconheceu para si mesma, pela primeira vez, o quanto de sua experiência de mídia social foi
organizada em torno de provocar ou participar de campanhas de vergonha pública. Algumas duraram
semanas e outras alguns minutos.
Alguns estavam a serviço de uma causa importante, ou assim ela disse a si mesma, outros apenas
porque alguém a irritou. “Eu costumava destacar tweets sexistas que eram enviados para mim. Eu
apenas retuitava e deixava meus seguidores na internet cuidarem disso”, disse ela. “Eu não faço mais
isso porque é apenas pedir para alguém ser assediado.”
Em 2016, ela concorreu nas primárias democratas para sua cadeira na Câmara local por causas
de esquerda, junto com a promessa de lidar com o assédio online. Um repórter perguntou a ela sobre
um tweet de 2014 em que ela identificou o nome e o empregador de alguém que havia postado algo
sexista – não era esse tipo de assédio que ela estava convocando as plataformas a combater? "Eu
lembro
Machine Translated by Google
pensando no momento, como, 'Que maldito hipócrita eu sou.' Eu simplesmente não tenho
desculpa para isso ”, disse ela. “E é o que eu disse. 'Isso foi errado.'” Ela permitiu que as
plataformas trouxessem a tona exatamente o comportamento que ela detestava, disse ela.
“E eu simplesmente não vejo como essa merda fica menos tóxica sem que mais de nós
percebamos que, em nossos piores momentos, podemos ser o cara mau.”
Alguém que é, digamos, rude com um motorista de ônibus pode ter esperado alguns
outros passageiros acenando com o dedo. Agora, se o incidente for registrado e publicado
online, eles podem enfrentar semanas de abusos lançados de todo o mundo. “Hoje, é mais
fácil do que nunca”, escreveu Klonick, “usar a vergonha para impor as chamadas normas
sociais, e é mais fácil do que nunca que a vergonha saia do controle”. A vergonha pública
online tende a ser “exagerada”, argumentou ela, mal calibrada para a escala do crime e
“de pouca ou questionável precisão em quem e o que pune”.
Além disso, tornou-se mais cruel, até sádico. A partir do momento em que a rede social
se envolveu com a vida cotidiana, circularam histórias de multidões ultrajadas indo ao
excesso. Uma engrenagem corporativa chamada Justine Sacco tornou-se internacionalmente
famosa em 2013, quando um tweet para seus 170 seguidores ("Indo para a África. Espero
não pegar AIDS. Brincadeira. Sou branco!") provocou dezenas de milhares de respostas
raivosas , depois se alegrar com sua humilhação e subseqüente demissão. Um artigo da
New York Times Magazine sugeriu que Sacco e outros como ela sofreram para nossa
diversão, ou simplesmente porque perdemos o controle, “como se as vergonhas estivessem
acontecendo agora por si mesmas, como se estivessem seguindo um roteiro. ”
Uma foto de classe de uma pequena cidade de Wisconsin se tornou viral quando os
usuários do Twitter acusaram os alunos de fazer saudações nazistas. Uma tempestade de
fúria internacional, toda online, destruiu a vida de pais e funcionários de escolas locais,
humilhando-os por qualquer detalhe que os usuários pudessem encontrar online, deixando
cicatrizes na cidade. Mais tarde descobriu-se que o fotógrafo voluntário havia capturado os
meninos acenando em um ângulo estranho.
Um repórter novato de Des Moines traçou o perfil de um homem local que se tornou
viral no Facebook por aparecer em um jogo de futebol da faculdade com uma placa
engraçada (BUSCH LIGHT SUPPLY NEEDS REPLENISHED), seguido por seu nome de
usuário Venmo. O repórter observou de passagem que o homem já havia enviado tweets
ofensivos pelos quais ele se desculpou. Os usuários de mídia social primeiro exigiram que
o portador do sinal perdesse o emprego, então, em uma reação ao
Machine Translated by Google
esse programa apareceu. O guarda teve uma conversa educada com a aluna e não
pediu que ela fosse embora. Os trabalhadores do refeitório não estavam envolvidos.
Mas quando a verdade veio à tona, em um longo relatório de um escritório de
advocacia terceirizado contratado pela universidade, a versão do Facebook dos
eventos, calcificada por um derramamento de profunda emoção coletiva, há muito
havia endurecido na mente das pessoas. A universidade, provavelmente com medo
de provocar mais raiva, recusou-se a inocentar os trabalhadores, anunciando que era
“impossível descartar o papel potencial do viés racial implícito” em seu comportamento.
Um foi transferido, outro ficou de licença, outro pediu demissão. Mais tarde, uma das
funcionárias do refeitório teve negado um emprego em um restaurante quando o
entrevistador a reconheceu do Facebook como “a racista”. O aluno, antes elogiado
online como herói, agora era condenado como vilão. Poucos pensaram em culpar as
plataformas de mídia social que capacitaram uma adolescente a destruir os meios de
subsistência de trabalhadores de baixa renda, incentivaram ela e milhares de
espectadores a fazê-lo e garantiram que todos experimentassem sua impressão
equivocada e ultrajante como mais verdadeira do que a verdade.
Verdade ou falsidade tem pouca influência sobre a recepção de uma postagem,
exceto na medida em que um mentiroso é mais livre para alterar os fatos de acordo
com uma narrativa de apertar um botão. O que importa é se a postagem pode
provocar uma reação poderosa, geralmente indignação. Um estudo de 2013 da
plataforma chinesa Weibo descobriu que a raiva viaja mais longe do que outros
sentimentos. Estudos do Twitter e do Facebook descobriram repetidamente o mesmo,
embora os pesquisadores tenham reduzido o efeito da raiva em geral à indignação
moral especificamente. Os usuários internalizam as recompensas de atenção que
acompanham essas postagens, aprendendo a produzir mais, o que também treina os
algoritmos das plataformas para promovê-las ainda mais.
Muitos desses incidentes tinham uma valência de esquerda, levando a temores
de uma “cultura do cancelamento” desenfreada. Mas isso apenas refletiu a
concentração de usuários de esquerda em espaços acadêmicos, literários, jornalísticos
e outros que tendem a ser mais visíveis na vida americana. O mesmo padrão também
estava se desenvolvendo em comunidades de direita. Mas a maioria dessas instâncias
foi descartada como obra de malucos marginais (Gamergate, anti-vaxxers) ou
extremistas (incels, a direita alternativa). Direita ou esquerda, a variável comum
sempre foi a mídia social, os incentivos que impõe, o comportamento que provoca.
Para seus alvos, o dano, merecido ou não, é real e duradouro. Nossos cérebros
processam o ostracismo social como, literalmente, dor. Ser rejeitado dói
Machine Translated by Google
pela mesma razão que uma faca perfurando sua pele dói: você evoluiu para sentir ambos
como ameaças mortais. Nossa sensibilidade social evoluiu para tribos onde irritar algumas
dezenas de camaradas pode significar um risco real de morte. Nas redes sociais, uma pessoa
pode, sem aviso prévio, enfrentar a fúria e a condenação de milhares. Nessa escala, o efeito
pode ser psicologicamente devastador. “A grande parte do assédio que as pessoas que não
foram assediadas repetidamente por uma multidão odiosa têm sorte de não sofrer é: isso
muda sua vida para sempre”, escreveu Pao, ex-chefe do Reddit, certa vez. “Você não confia
tão facilmente.”
Eles estão errados. Vamos acabar com essa pessoa muito rápido e com muita força.' E isso
apenas amplifica todas as divisões que temos.”
4. Raposas de Lyudmila
O mistério da indignação moral - por que somos tão atraídos por uma emoção que nos faz
agir de maneiras que deploramos? - foi finalmente desvendado por um geneticista russo de
70 anos enfurnado em um laboratório de pesquisa na Sibéria, criando milhares de raposas.
Lyudmila Trut chegou ao laboratório em 1959, recém-saída da Universidade Estadual de
Moscou, para procurar as origens de algo que parecia não ter nenhuma relação: a
domesticação de animais.
A domesticação era um mistério. Charles Darwin havia especulado que poderia ser
genético. Mas ninguém sabia que pressões externas transformavam os lobos em cachorros
ou como a biologia do lobo mudava para torná-lo tão amigável.
Os discípulos de Darwin, no entanto, identificaram uma pista: os animais domesticados, sejam
cães, cavalos ou vacas, todos tinham caudas mais curtas, orelhas mais macias, compleições
mais esguias e pelagens mais manchadas do que suas contrapartes selvagens. E muitos
tinham uma mancha distinta em forma de estrela na testa.
Se Trut pudesse desencadear a domesticação em um ambiente controlado, ela poderia
isolar suas causas. Seu laboratório, ligado a uma fábrica de peles da Sibéria, começou com
centenas de raposas selvagens. Ela pontuou cada um em sua amizade com os humanos, criados
Machine Translated by Google
apenas os 10% mais amigáveis, depois repetiu o processo com os filhos daquela geração.
Na décima geração, com certeza, uma raposa nasceu com orelhas caídas. Outro tinha uma
marca na testa em forma de estrela. E eles estavam, escreveu Trut, “ansiosos para
estabelecer contato humano, choramingando para atrair a atenção e farejando e lambendo
os experimentadores como cachorros”. Darwin estava certo. A domesticação era genética.
As gerações subseqüentes das raposas, à medida que se tornavam ainda mais amigáveis,
tinham pernas, rabos e focinhos mais curtos, crânios menores, rostos mais achatados,
coloração de pelo mais manchada.
Trut estudou os animais por meio século, finalmente descobrindo o segredo da
domesticação: células da crista neural. Todo animal começa a vida com um conjunto. As
células migram através do embrião à medida que ele cresce, convertendo-se em
mandíbulas, cartilagem, dentes, pigmento da pele e partes do sistema nervoso.
Seu caminho termina logo acima dos olhos do animal. É por isso que as raposas
domesticadas tinham marcas brancas na testa: as células da crista neural transmitidas a
elas por seus pais mais amigáveis nunca chegaram tão longe. Isso também explicava as
orelhas caídas, caudas mais curtas e focinhos menores.
Além disso, desencadeou uma mudança na personalidade, porque as células da crista
neural também se tornaram as glândulas que produzem os hormônios responsáveis por
desencadear o medo e a agressão. As raposas selvagens eram medrosas em relação aos
humanos e agressivas umas com as outras, características que as serviam bem na
natureza. Quando Trut criou as raposas mais amigáveis, ela estava, sem saber, promovendo
animais com menos células da crista neural, atrofiando seu desenvolvimento neurológico
de uma maneira muito específica e poderosa.
Das muitas revelações decorrentes da pesquisa de Trut, talvez a maior tenha sido a
resolução de um antigo mistério sobre os humanos. Cerca de 250.000 anos atrás, nossos
cérebros, depois de crescer por milhões de anos, começaram a encolher. Estranhamente,
ocorreu no momento em que os humanos pareciam estar ficando mais espertos, a julgar
pelas ferramentas encontradas com seus restos mortais. Os humanos desenvolveram
simultaneamente ossos de braços e pernas mais finos, faces mais planas (sem sobrancelhas
de homem das cavernas) e dentes menores, com corpos masculinos mais parecidos com
os das mulheres. Com as descobertas de Trut, o motivo ficou subitamente claro. Esses
foram os marcadores de uma queda repentina nas células da crista neural — da domesticação.
Mas as raposas de Trut foram domesticadas por uma força externa: ela. O que interveio
na trajetória evolutiva dos humanos para repentinamente favorecer indivíduos dóceis em
detrimento dos agressivos? O antropólogo inglês Richard Wrangham desenvolveu uma
resposta: a linguagem. Por milhões de anos,
Machine Translated by Google
mob, você está vendo a tirania dos primos, o mecanismo de nossa auto-
domesticação. Essa ameaça, muitas vezes mortal, tornou-se uma pressão evolutiva
por si só, levando-nos a desenvolver sensibilidades ultrafinas aos padrões morais do
grupo — e um instinto para concordar. Se você quiser provar ao grupo que ele pode
confiar em você para impor seus padrões, pegue uma pedra e comece a arremessá-
la. Caso contrário, você pode ser o próximo.
Em nossa história muito recente, decidimos que esses impulsos são mais
perigosos do que benéficos. Substituímos a tirania dos primos pelo estado de direito
(principalmente), banimos a violência coletiva e desencorajamos o comportamento
de turba. Mas os instintos não podem ser totalmente neutralizados, apenas contidos.
As redes sociais, ao tocar diretamente em nossas emoções grupais mais viscerais,
contornam esse muro de contenção - e, nas circunstâncias certas, destroem-no
completamente, enviando esses comportamentos primordiais de volta à sociedade.
Quando você vê uma postagem expressando indignação moral, 250.000 anos de
evolução entram em ação. Isso o impele a participar. Faz você esquecer seus
sentidos morais internos e ceder aos do grupo. E faz com que infligir danos ao alvo
da indignação pareça necessário - até intensamente prazeroso. As varreduras
cerebrais descobrem que, quando os sujeitos prejudicam alguém que acreditam ser
um malfeitor moral, seus centros de recompensa de dopamina são ativados. As
plataformas também removem muitas das verificações que normalmente nos
impedem de levar as coisas longe demais. Atrás de uma tela, longe de nossas
vítimas, não há nenhuma pontada de culpa ao ver a dor no rosto de alguém que
prejudicamos. Também não há vergonha em perceber que nossa raiva se transformou
visivelmente em crueldade. No mundo real, se você gritar palavrões com alguém por
usar um boné de beisebol em um restaurante caro, você mesmo será rejeitado,
punido por violar as normas contra demonstrações excessivas de raiva e por perturbar
seus colegas frequentadores do restaurante. Online, se outras pessoas perceberem
sua explosão, provavelmente será para participar.
As plataformas sociais são extraordinariamente ricas em fontes de indignação
moral; há sempre um tweet ou desenvolvimento de notícias para ficar com raiva,
junto com muitos usuários para destacá-lo para um público potencial de milhões. É
como estar no centro da maior multidão já reunida, sabendo que, a qualquer
momento, ela pode se transformar em uma multidão. Isso cria incentivos poderosos
para o que os filósofos Justin Tosi e Brandon Warmke chamaram de “arrogância
moral” – mostrar que você está mais indignado e, portanto, mais moral do que todos
os outros. “Em uma missão para impressionar os colegas,”
Machine Translated by Google
aumentaram a punição, mesmo que pensassem que sua vítima não a merecia. A motivação
deles era simples: eles esperavam que a crueldade fizesse os observadores gostarem mais
deles.
As escalas de efeito; as pessoas expressam mais indignação e demonstram mais vontade
de punir os indignos, quando acham que seu público é maior. E não há audiência maior na terra
do que o Twitter ou o Facebook.
5. A Caminhada
subindo no que soou como uma tentativa de fingir terror. No meio da ligação, ela
recolocou a coleira de seu cachorro e Christian, recuperando a compostura, agradeceu
secamente e encerrou o vídeo.
Em um mundo sem mídia social, o incidente provavelmente teria terminado aí.
Quando a polícia chegou, os dois já haviam deixado o parque. Christian pode ter usado
o vídeo do celular para buscar acusações de falsificação de um relatório policial. Mas
a maior transgressão de Amy - usar a ameaça de violência policial para intimidar
Christian e colocar sua vida em perigo - teria ficado impune. Assim como sua tentativa
de impor expectativas de que espaços públicos como o parque pertencem primeiro aos
brancos e depois aos negros, puníveis sob pena de morte. Neste mundo, no entanto,
a irmã de Christian poderia postar o vídeo no Twitter. “Eu queria que as pessoas
soubessem o que aconteceu para garantir que nunca mais acontecesse com ela”,
disse ela a seus modestos seguidores.
Foi exatamente o tipo de transgressão que a indignação moral existe para impedir:
uma violação dos costumes compartilhados (não minta, não ponha em perigo os
outros, não promova o racismo) e um ataque ao contrato social que nos mantém
unidos. Também demonstrou uma forma particularmente perniciosa de racismo, para
a qual os usuários poderiam chamar a atenção compartilhando o clipe. Um republicou
o vídeo, depois outro, depois outro, até que mais de 200.000 pessoas compartilharam
a postagem, cada uma sinalizando assim sua concordância com a ligação para
responsabilizar Amy Cooper. Rapidamente atraiu 40 milhões de visualizações, vinte
vezes mais do que o noticiário da noite.
Dezenas de milhares de usuários, falando com uma voz furiosa, pressionaram os
empregadores de Amy Cooper, que prontamente a demitiram e distribuíram os nomes
e contas de mídia social de seus amigos, um apelo implícito por seu isolamento social.
A reação se estendeu até ao abrigo onde ela havia adotado seu cachorro, levando-a a
entregar o amado animal de estimação (o abrigo o devolveu uma semana depois).
Detalhes sórdidos e não relacionados de sua vida foram transmitidos para milhões. Ela
foi levada à maior praça da história da humanidade e condenada unanimemente. Era
justiça, tanto para Christian Cooper quanto para estabelecer que tal comportamento
seria rapidamente punido. E concentrou a atenção necessária no poder que a violência
policial dá a qualquer pessoa branca com um telefone celular para ameaçar a vida de
uma pessoa negra.
Mas o Twitter também levou essa justiça exatamente até onde os usuários mais
raivosos do site queriam levar sua raiva estimulada por algoritmos. Mesmo se o
Machine Translated by Google
coletivo online chegou ao veredicto certo, alguns expressaram desconforto com os métodos
pelos quais determinou e executou a sentença.
Entre aqueles que articulavam certa quantidade de ambivalência estava o próprio Christian
Cooper, que, embora tenha feito poucas críticas a Amy Cooper por tentar mobilizar “certos
impulsos sociais obscuros” contra ele, acrescentou: “Não estou desculpando o racismo, mas
não não sei se a vida dela precisava ser dilacerada.”
O fato de ela ter sido pressionada a entregar seu cachorro no auge da fúria online, mas
se recuperar quando os ânimos esfriaram, sugere que a dinâmica da mídia social, pelo menos
por um tempo, levou sua punição além do que até mesmo os punidores consideravam
apropriado. Qualquer sistema de justiça tem preconceitos, pontos cegos e excessos. Os
Coopers demonstraram que todos nós havíamos entrado em um novo sistema em camadas
sobre os antigos, sem que ninguém o projetasse conscientemente, optasse por ele ou mesmo
realmente o entendesse.
Há momentos em que esse sistema é positivamente transformador. Os ativistas do Black
Lives Matter o aproveitaram para atrair a atenção para a violência que os principais meios de
comunicação tendiam a encobrir. O vídeo de Christian Cooper ressoou tão poderosamente
em parte porque esses ativistas haviam estimulado milhões de pessoas a ver seu significado.
Naquele mesmo dia, um policial de Minneapolis se ajoelhou no pescoço de um homem negro
chamado George Floyd por quase nove minutos, matando-o. Milhões se reuniram em
protestos de semanas, cidade por cidade, que foram o ponto culminante da organização local,
bem como uma fonte nacional de indignação moral que se manifestou, em um grau
significativo, por meio da mídia social. As alegações de agressão sexual contra o produtor de
cinema Harvey Weinstein também provocaram um ciclo de crescente indignação online –
primeiro contra ele, depois contra Hollywood, depois contra os homens abusivos mencionados
em inúmeras histórias pessoais compartilhadas no Twitter – que se tornou o movimento
MeToo.
A promessa de revolução do Vale do Silício tinha sido egoísta, mal pensada e apenas um
componente de uma desestabilização mais ampla que muitas vezes era prejudicial, mas havia
verdade nisso.
No entanto, incidentes injustos também se tornaram frequentes. Falhas, erros, ultraje
implantados para fins nefastos ou sem motivo algum. O mesmo aconteceu com os casos que
se enquadram em áreas morais cinzentas: mais dentistas de 55 anos enviados para a
clandestinidade ou comerciantes de trinta e poucos anos despojados de seus meios de
subsistência. A mudança não foi a sociedade repentinamente se tornando mais justa ou o
surgimento da chamada cultura do cancelamento; foi a chegada de uma tecnologia tão onipresente, tão arraigada
Machine Translated by Google
em nosso próprio conhecimento, que havia alterado a maneira como a moralidade e a justiça
funcionam. Os Coopers, Walter Palmers e Gamergates fazem parte dessa mesma nova
ordem, nossa tirania digital de primos.
Esse sistema sensorial avassalador automatizado por máquina é facilmente explorado.
Assim como James Williams, o ex-engenheiro do Google, havia alertado, Trump levantou-se
em tweets ultra-virais e postagens no Facebook provocando raiva em democratas, jornalistas
e minorias, muitas vezes por causa de pecados inventados, mas inspirando apelos muito
reais para a prisão ou morte de seus alvos. . Passe uma hora navegando em uma parte da
rede social que não compartilha de sua política e pergunte se a indignação generalizada está
realmente em escala, se as punições exigidas são realmente sempre apropriadas.
Foi apenas uma digressão em meio a um verão em que, de outra forma, ativistas
sérios direcionaram a maquinaria da indignação online para fins mais meritórios. Mas
não era o maquinário deles. Embora possa parecer governado pela vontade coletiva
de seus participantes, na verdade era governado pelo Vale do Silício, cujos sistemas
foram projetados não para promover o progresso social ou para distribuir justiça de
forma justa, mas para maximizar nosso tempo no local, para ganhar dinheiro.
Na política, os resultados raramente privilegiam a libertação. Quando dois
estudiosos analisaram 300 milhões de tuítes enviados durante a campanha
presidencial de 2012, eles descobriram que os tuítes falsos superaram
consistentemente os verdadeiros. Os rumores e mentiras favoreceram ou encorajaram
a raiva do outro lado, alertaram os estudiosos, ampliando a polarização que já era
uma das doenças mais graves enfrentadas pela democracia americana. A divisão
resultante foi abrindo espaço para oportunistas. Eles descobriram que um dos piores
impulsionadores da desinformação no Twitter durante a eleição foi a personalidade
marginal da TV, Donald Trump. Ainda assim, a provocação viral, não importa o quão
amplamente proliferada, exerceu, por conta própria, pouca influência. Trump dominou
o Twitter, mas pouco mais. Se as plataformas tivessem permanecido estáticas, essas
ondas de indignação e conflito, com toda a sua força distorcida e às vezes destrutiva,
poderiam ter marcado o auge do impacto da mídia social. Mas um conjunto de
avanços tecnológicos aumentaria o poder das plataformas a tais extremos e em um
ritmo tão rápido que, nas próximas eleições, o próprio mundo seria refeito à sua
imagem.
Machine Translated by Google
Cinco
Despertando a Máquina
1. Algoritmificação
HÁ MUITO TEMPO para que isso pudesse ter evitado grande parte do caos que estava por vir,
um especialista em IA do Google tentou abrir um dos maiores segredos abertos de seu setor:
ninguém sabe exatamente como os algoritmos que governam as mídias sociais realmente
funcionam. Os sistemas operam de forma semi-autônoma, seus métodos além do alcance
humano. Mas o Vale tinha um incentivo para permanecer ignorante.
Verifique como o ganso consegue esses ovos de ouro e você pode não gostar do que encontra.
Você pode até ter que devolvê-los.
O especialista em IA, um francês chamado Guillaume Chaslot, admirava as empresas de
mídia social desde seus dias como estudante de doutorado na Europa nos anos 2000. A
tecnologia das plataformas não era sofisticada na época, mas seu potencial, ele acreditava, era
revolucionário. Depois de terminar sua dissertação, ele partiu para a Califórnia. No final de 2010,
ele conseguiu um emprego no Google.
“Eu não sabia no que estaria trabalhando, porque eles simplesmente contratavam pessoas
e depois as colocavam em um projeto”, disse Chaslot, que fala com um murmúrio ofegante e
enérgico. Ele estaria trabalhando, ele descobriu, em uma plataforma de vídeo que o Google
havia adquirido por insistência de uma executiva de publicidade chamada Susan Wojcicki. Em
1998, Larry Page e Sergey Brin, os criadores e cofundadores do Google, instalaram os primeiros
servidores da empresa em sua garagem. Quando o mecanismo de busca deles pegou, Wojcicki
(pronuncia-se woe jiski) deixou seu emprego na Intel para trabalhar para eles. Ela supervisionava
produtos de publicidade e um serviço de streaming, o Google Videos, que estava sendo superado
na proporção de três para um por uma startup básica chamada YouTube.
Wojcicki, acreditando que era tarde demais para alcançar o YouTube, convenceu seus chefes a
comprá-lo imediatamente, o que eles fizeram, em 2006, por surpreendentes US$ 1,65 bilhão.
Machine Translated by Google
Chaslot viu por que ele havia recebido a tarefa. A nova busca teria que fazer o
trabalho de um executivo de TV de classe mundial, avaliando os gostos e preferências
do público, mas selecionando entre um conjunto de vídeos milhões de vezes maior do
que qualquer rede de TV, e tudo em velocidades quase instantâneas. Chaslot
conhecia um caminho de sua pesquisa de doutorado, sobre
Machine Translated by Google
Lançado no início de 2012 no YouTube, os poderes desse novo sistema vão além de meros
resultados de pesquisa. Imagine assistir, digamos, a um clipe de um debate presidencial de
2012. A página agora recomendaria, ao lado do seu vídeo, miniaturas de uma dúzia de outros
que você pode assistir a seguir: um vídeo das piores gafes de Obama, uma paródia do Saturday
Night Live , um vlogger condenando as políticas de Mitt Romney. Quando o vídeo que você
está assistindo terminar, o sistema irá
Machine Translated by Google
até mesmo escolha um deles para jogar automaticamente a seguir. Cada um é selecionado
entre os bilhões de vídeos do YouTube por uma IA corporativa abreviada como “o algoritmo” –
um dos mais poderosos sistemas de aprendizado de máquina em tecnologia de consumo. Suas
seleções, guiadas pelo poder do aprendizado de máquina, mostraram-se extremamente
eficazes. “Em poucos meses, com uma equipe pequena, tínhamos um algoritmo que aumentava
o tempo de exibição para gerar milhões de dólares em receita publicitária adicional”, disse
Chaslot, “então foi muito, muito empolgante”.
Esses sistemas estavam se insinuando em todas as facetas da vida. A Netflix, por exemplo,
aprende os gostos de cada usuário rastreando o que a pessoa assiste e por quanto tempo,
emitindo recomendações tão eficazes que a empresa credita a seu algoritmo a retenção de
assinantes no valor de US$ 1 bilhão por ano.
O Spotify adquiriu empresas de IA para criar algoritmos de seleção de listas de reprodução que
impulsionam grande parte de seus negócios de US$ 8 bilhões por ano. Se você compra na
Amazon, um algoritmo extrai dados de hábitos de consumo para orientar quais produtos você
vê. Se você lê o Google Notícias, um algoritmo determina quais manchetes são mais atraentes
para você. Até o amor passou a ser governado por algoritmos de aplicativos de namoro que
reduzem os encantos e as esperanças de cada usuário a dados brutos, que esse programa usa
para estimular as pessoas a formar pares.
O sistema do YouTube busca algo mais abrangente do que uma assinatura mensal. Seu
olho que tudo vê rastreia todos os detalhes do que você assiste, por quanto tempo assiste, no
que clica a seguir. Ele monitora isso em dois bilhões de usuários, acumulando o que é
certamente o maior conjunto de dados sobre as preferências do visualizador já reunido, que ele
verifica constantemente em busca de padrões. Chaslot e outros ajustaram o sistema à medida
que avançava, estimulando seu processo de aprendizado para atingir melhor seu objetivo:
tempo máximo de exibição.
Uma das ferramentas mais poderosas do algoritmo é a afinidade tópica. Se você assistir a
um vídeo de gato até o fim, explicou Chaslot, o YouTube mostrará mais sobre as visitas de
retorno. Ele enviará especialmente quaisquer vídeos de gatos que considere mais eficazes para
capturar a atenção. Digamos, uma longa compilação de erros ultrajantes de gatinhos. Como
praticamente todos os usuários da Internet, eu já passei por isso. Eu ando de bicicleta nos fins
de semana e, enquanto moro no exterior, pesquiso no YouTube clipes de trilhas locais para ter
uma noção do terreno. O sistema começou a recomendar vídeos de ciclismo que eu nunca
pensei em pesquisar: corridas profissionais, testes de novos modelos. Funcionou; Eu assisti
mais vídeos. Com o tempo, as recomendações se tornaram mais extremas.
Acidentes dramáticos, engavetamentos de dez bicicletas, passeios de acrobacias que desafiam a morte. No entanto
Machine Translated by Google
dez. Seus servidores já registraram 100 milhões de horas de tempo de exibição por dia.
Mas, mesmo com a expansão do YouTube para novos países e com os espectadores de TV
mudando gradualmente para o online, a audiência só poderia crescer tão rápido. Os usuários
que pretendiam assistir a um vídeo teriam que ser atraídos a ficar por muitos mais. O poder de
persuasão do algoritmo precisaria aumentar drasticamente.
Quando eles poderiam fazer isso? o executivo quis saber. Qual foi o prazo? Goodrow
respondeu que 2015 seria muito cedo. Mas 2017, escreveu ele, “soava estranho” porque era
um número primo. Eles se estabeleceram no final de 2016, quatro anos depois, e Goodrow
mais tarde prometeu renunciar se falhasse. Isso colocou o YouTube em um prazo auto-imposto,
seus executivos e engenheiros empenhados em promover conteúdo que atraísse os usuários
pelo maior tempo possível, em paralelo com uma eleição presidencial em que sua influência
seria fatal.
2. Filtro de bolhas
Chaslot não era o único no vale preocupado com as consequências dos algoritmos. Uma certa
frase circulou, como abreviação para essas preocupações, desde o verão anterior, em 2011.
Em uma manhã daquele maio, enquanto Chaslot trabalhava em sua estação de trabalho no
escritório do Google em Los Angeles, seus chefes corporativos entraram em um salão de
convenções do outro lado da cidade, onde um O ativista de trinta anos chamado Eli Pariser
subiu ao palco para alertar o público de executivos e engenheiros de tecnologia de que seus
algoritmos podem ameaçar a própria democracia. “Existe esse tipo de mudança na forma como
as informações estão fluindo online, e isso é invisível”, disse ele. “E se não prestarmos atenção
a isso, pode ser um problema real.”
misoginia viral entre vídeos de gamers. “Não queria ser como o francês que reclama o
tempo todo”, disse ele, “queria trazer soluções” — construindo um algoritmo que atraísse
os usuários atendendo a seus interesses e necessidades, em vez de explorar suas
impulsos. “Eu estava tentando fazer do jeito americano”, disse ele, “para focar na
oportunidade e não nos problemas”.
O YouTube afirma que Chaslot foi demitido, naquele mês de outubro, por mau
desempenho. Chaslot acredita que foi demitido por apitar que ninguém queria ouvir. Foi,
talvez, uma distinção com pouca diferença; O YouTube estava se reestruturando em
torno de uma busca obstinada para a qual Chaslot não estava a bordo. “Esses valores de
moderação, de bondade, qualquer coisa que você possa pensar que são valores nos
quais nossa sociedade se baseia, os engenheiros não se importaram em colocar esses
valores no sistema”, disse ele.
“Eles só se importavam com a receita publicitária. Eles estavam pensando que apenas
se preocupando com uma métrica, que é o tempo de exibição, você faria o bem para todos.
Mas isso é simplesmente falso.”
Machine Translated by Google
3. Dez X
Mas, à medida que o Valley expandia seu alcance, essa cultura de otimização a todo
custo assumiu efeitos de segunda ordem. A otimização da Uber para as coletas mais rápidas
de compartilhamento de viagens criou proteções trabalhistas fora do mercado global de táxis.
A otimização do Airbnb para renda de aluguel de curto prazo tornou as moradias de longo
prazo mais escassas e caras. As redes sociais, otimizando para quantos usuários poderiam
atrair e por quanto tempo poderiam mantê-los lá, podem ter tido o maior impacto de todos.
“Foi uma ótima maneira de construir uma startup,”
Chaslot disse. “Você se concentra em uma métrica e todos estão a bordo [para] essa
métrica. E é realmente eficiente para o crescimento. Mas é um desastre para muitas outras
coisas.”
Na maioria das empresas, as métricas podem crescer 3 ou 4% ao ano. Mas Grove,
internalizando a lei de Moore, insistiu que as empresas encontrassem “mudanças 10x” –
inovações que avançariam em uma escala de dez. Exatamente o multiplicador que Goodrow,
em 2012, concordou em visar para o tempo de exibição do YouTube. “O bilhão de horas
diárias se tornou sua baleia branca”, escreveu Wojcicki, o executivo do Google, e não
apenas para Goodrow. “O OKR de um bilhão de horas era uma religião no YouTube”,
observou ela, usando um acrônimo corporativo para métricas, “com exclusão de quase todo
o resto”.
Naquele mesmo ano, Renée DiResta, a investidora em tecnologia que mais tarde
rastrearia os anti-vacinas do Facebook em seu tempo livre, percebeu que o mandato 10x de
Grove se transformava em um novo modelo de negócios estranho, muito diferente daquele
que havia produzido empresas como a Intel. Ela viu essa mudança pela primeira vez em
uma das mais importantes conferências de investimentos do Valley, organizada por um
acelerador de startups de tecnologia chamado Y Combinator, onde os fundadores se
misturam com os corretores de dinheiro que podem financiá-los. “YC Demo Day foi como
receber um convite para o Oscar”, disse ela. O show-and-tell anual dos graduados da
incubadora da Y Combinator “não era algo em que alguém pudesse simplesmente entrar”.
Investidores de baixo escalão como DiResta, sem poder para preencher um cheque na
hora, não eram bem-vindos, mas seu chefe, após perder o voo, pediu que ela fosse em seu
lugar.
Machine Translated by Google
Quando as apresentações começaram, cada fundador teve dois minutos para lançar a sala
cheia de investidores de peso. As ideias – um serviço de computação em nuvem, um site de
investimentos, um site de reservas de viagens, um agregador de memes – variavam muito, mas
cada uma tinha o mesmo plano de negócios. “Eles colocaram um gráfico mostrando a tração
subindo e indo para a direita”, lembrou DiResta. “Quase nenhum deles tinha machados. Era
apenas um rabisco indo para cima e para a direita. Eu estava assistindo isso pensando, 'Que
porra está acontecendo?'”
A DiResta se especializou em tecnologia de hardware, como a Intel. As empresas
precisavam investir em despesas gerais, planejar sua produção e logística e identificar clientes,
tudo antes de despachar a primeira unidade. Exigiu a projeção de custos e vendas em detalhes
minuciosos. Essas propostas eram consideravelmente mais vagas: as empresas criariam um
site, muitas pessoas o usariam, venderiam anúncios, todo mundo ficaria rico. Ninguém na
platéia parecia se importar com a falta de detalhes; DiResta ouviu rumores de avaliações de
US$ 15 milhões e US$ 20 milhões.
Nos meses subsequentes, ela observou uma startup após a outra ganhar investimentos
de seis ou sete dígitos, apesar de ter o mesmo plano de negócios “ondulado à mão” e, muitas
vezes, nenhuma receita. Os investidores, ela percebeu, não estavam jogando dinheiro em
qualquer garoto com uma proposta. Eles estavam perseguindo um modelo muito específico:
serviços da Web gratuitos que prometiam um crescimento vertiginoso de usuários. Isso a
intrigou, porém, porque muitos fecharam sem ganhar um centavo de lucro, apenas para serem
substituídos por outra rodada de startups. “Eu não conseguia decidir se era muito cética e não
o suficiente visionária”, disse ela. O que ela estava perdendo?
A resposta acabou por ser uma nova tecnologia predominante chamada computação em
nuvem. Antes da computação em nuvem, se você queria iniciar um negócio na web, tinha que
investir em servidores e toda a infraestrutura que os cercava: espaço de escritório, banda larga,
climatização especial, equipe para supervisionar tudo. Pode custar milhões em dinheiro inicial.
Isso exigia convencer um capitalista de risco de que ele recuperaria seu investimento,
geralmente prometendo vender bens ou serviços, o que aumentava ainda mais as despesas
gerais. Era uma situação que tornava os investidores conservadores. Uma aposta fracassada
de $ 20 milhões poderia ser devastadora, e mesmo um sucesso levaria muitos anos para
mostrar retornos.
Então, no final dos anos 2000, a Amazon e alguns outros montaram fazendas de servidores
em expansão, colocando seu poder de processamento e armazenamento de dados para alugar,
chamando-o de “a nuvem”. Agora você não precisava mais investir em despesas gerais. Você
Machine Translated by Google
alugou da Amazon, carregando seu site em seus servidores. Você poderia obter seus
primeiros dez mil clientes com um empréstimo de mamãe e papai. Você não precisava de
um modelo de lucro, de investidores iniciais ou mesmo de uma ideia totalmente formada.
“Esqueça a estratégia”, escreveu o investidor Roger McNamee sobre essa nova abordagem.
“Reúna alguns amigos, faça um produto que você goste e experimente no mercado. Cometa
erros, corrija-os, repita.” Foi transformador também para os investidores, que não precisavam
mais investir milhões para colocar uma startup no mercado. Eles poderiam fazer isso por
trocados.
Isso mudou o que os investidores queriam de seus investimentos. Não se tratava mais
de encontrar aquele promissor fabricante de widgets cujas vendas poderiam, depois de
muitos anos difíceis e caros, um dia eclipsar os custos. Tratava-se de investir em muitas
startups baratas da web, sabendo que a maioria falharia, mas que um grande sucesso
cobriria essas perdas e mais algumas.
Mas a definição de sucesso também estava sendo virada de cabeça para baixo. As
grandes corporações estavam ficando desesperadas para comprar seu caminho para a
internet adquirindo startups por quantias ridículas. E os corretores de Wall Street, ansiosos
para comprar ações da próxima grande empresa de tecnologia, despejaram dinheiro em
qualquer coisa que se parecesse vagamente com a Microsoft ou a Apple de amanhã. Em
1994, Kleiner Perkins investiu US$ 5 milhões por 25% da propriedade de uma startup de
navegadores da web chamada Netscape. A empresa teve lucro zero, em parte porque
distribuiu seu produto de graça, embora isso tenha conquistado milhões de usuários. No ano
seguinte, a Netscape tornou-se pública. Os especuladores do mercado de ações rapidamente
elevaram sua avaliação para US$ 2,3 bilhões, dando à Kleiner um retorno de 100 vezes sobre seu investimento.
O Netscape fracassou alguns anos depois.
Como a computação em nuvem permitiu que as startups estilo Netscape proliferassem,
o incentivo predominante para os investidores em tecnologia tornou-se preparar as startups
para queimar rapidamente, garantindo uma venda rápida de alto valor ou IPO. E a melhor
maneira de ganhar muito dinheiro, mas gastando muito pouco, é investir em serviços da web
que não oferecem produtos físicos, mas atraem muitos e muitos usuários. Isso faz com que
seu investimento pareça que um dia poderá transformar essa base de usuários em uma
fonte de lucro, o que cria uma avaliação alta, embora totalmente teórica.
O gráfico de rabiscos, como DiResta pensou, com sua promessa de usar serviços online
gratuitos para atrair o maior número possível de usuários sem nenhum plano de lucro, não
era um truque. Era o que os investidores exigiam. E nada entregue neste modelo como a
mídia social. “Você pode olhar para esses números e concluir que os investidores
enlouqueceram”, escreveu certa vez Peter Thiel. Mas o
Machine Translated by Google
4. Padrões escuros
tão impiedosamente obcecada pelo crescimento quanto Mark Zuckerberg ou Jack Dorsey,
ela atrairia apenas uma fração do escrutínio. Mesmo no auge da reação contra a mídia
social, quando seu serviço seria acusado com credibilidade de danos além até mesmo do
Facebook, ela raramente era levada ao Congresso, raramente castigada por apresentadores
de notícias a cabo, raramente mencionada.
Seu histórico mais convencional, como veterana dos departamentos de publicidade e
marketing, em vez de hacker prodígio de dormitório, não a inclinava para a persona de
superestrela da tecnologia - e especialmente para os pronunciamentos revolucionários -
que conquistaram tanta adoração dos Zuckerbergs e Dorseys antes de finalmente pousar.
eles em tal problema. Por outro lado, o Google tratou o YouTube como seu caixa eletrônico
em vez de seu líder de marca, então manteve ele e Wojcicki um passo atrás dos holofotes.
Pouco depois de Wojcicki assumir, Goodrow a alertou: “Não vamos cumprir esse OKR
de tempo de exibição se não fizermos algo a respeito”.
Essa coisa: transferir cada vez mais poder para IAs cada vez mais inescrutáveis
Em um artigo de 2016, os engenheiros do Google anunciaram uma “mudança de paradigma fundamental”
para um novo tipo de aprendizado de máquina que eles chamaram de “aprendizagem profunda”.
Na IA anterior, um sistema automatizado construía os programas que selecionavam
os vídeos. Mas, como acontece com as IAs de captura de spam, os humanos
supervisionaram esse sistema, intervindo à medida que evoluía para orientá-lo e fazer
alterações. Agora, o aprendizado profundo era sofisticado o suficiente para assumir esse
trabalho de supervisão também. Como resultado, na maioria dos casos, “não haverá
humanos realmente fazendo ajustes algorítmicos, medindo esses ajustes e, em seguida,
implementando esses ajustes”, escreveu o chefe de uma agência que desenvolveu talentos
para o YouTube em um artigo decifrando o aprendizado profundo papel. “Então, quando o
YouTube afirma que não pode realmente dizer por que o algoritmo faz o que faz,
provavelmente quer dizer isso muito literalmente.”
Era como se a Coca-Cola estocasse um bilhão de máquinas de refrigerante com
alguma bebida projetada por IA sem que um único humano verificasse o conteúdo das
garrafas - e se a IA de envase de bebidas fosse programada apenas para aumentar as vendas, sem
Machine Translated by Google
Era uma suposição estranha. As pessoas rotineiramente agem contra seus próprios
interesses. Bebemos ou comemos em excesso, usamos drogas perigosas, procrastinamos,
cedemos às tentações do narcisismo ou do ódio. Perdemos nossa paciência, nosso
autocontrole, nossa base moral. Mundos inteiros de conhecimento se organizam em torno
do entendimento de que nossos impulsos podem nos dominar, geralmente em nosso detrimento.
Era uma verdade central da experiência humana, incompatível com economias de
crescimento exponencial, e por isso foi convenientemente esquecida.
O impulso para o engajamento, que permaneceu uma característica permanente de
Machine Translated by Google
Primeiro, não eram apenas ela e seus colegas nerds de computador que se preocupavam
mais com os perigos da mídia social. Altos funcionários em Washington estavam vindo para
compartilhar suas preocupações. E segundo, os analistas do governo na reunião
continuaram levantando outra ameaça online que DiResta e seu círculo online ainda não
haviam encontrado: os serviços de inteligência russos.
Como os anti-vaxxers de DiResta, ou mesmo Upworthy, os russos sequestraram
Machine Translated by Google
5. Avisos
DEPOIS DE SER demitido, Guillaume Chaslot voltou para casa em Paris. Ele passou
alguns anos em um site de comércio eletrônico francês. O Vale do Silício era uma
memória distante. Até que, em uma longa viagem de ônibus no final de 2015, o
smartphone de seu companheiro de viagem chamou sua atenção. O homem assistia
ao YouTube, vídeo após vídeo, todos discutindo conspirações. O primeiro pensamento
de Chaslot foi de um engenheiro: “Sua sessão de observação é fantástica”. O algoritmo
de recomendação de vídeo zapeou entre os tópicos, mantendo a experiência atualizada,
enquanto puxava o homem para o fundo do abismo. “Foi quando percebi”, disse
Chaslot, “do ponto de vista humano, isso é realmente um desastre. Meu algoritmo que
ajudei a construir o estava empurrando para esses vídeos cada vez mais odiosos.”
Iniciando uma conversa, Chaslot perguntou a ele sobre o vídeo em sua tela,
descrevendo uma conspiração para exterminar bilhões de pessoas. Ele esperava que
o homem risse do vídeo, percebendo que era absurdo. Em vez disso, ele disse a
Chaslot: “Você precisa olhar para isso”. A mídia nunca revelaria tais segredos, explicou
ele, mas a verdade estava bem ali no YouTube. Você não pode acreditar em tudo na
internet, Chaslot disse a ele. Mas ele estava muito envergonhado para admitir para o
homem que havia trabalhado no YouTube, que era como ele sabia que seu sistema
puxava os usuários para buracos de coelho sem levar em conta a verdade. “Ele estava
me dizendo: 'Ah, mas tem tantos vídeos, tem que ser verdade'”, disse Chaslot. “O que
o convenceu não foram os vídeos individuais, foi a repetição. E a repetição veio do
mecanismo de recomendação.”
antes, provavelmente ainda é. É uma lacuna em nossas defesas mentais que você
poderia atravessar com um caminhão. Em experimentos, sujeitos de pesquisa
bombardeados com a frase “a temperatura corporal de uma galinha” concordarão
prontamente com variações como “a temperatura corporal de uma galinha é de 144 graus”.
O companheiro de assento de Chaslot foi exposto às mesmas conspirações malucas
tantas vezes que sua mente provavelmente confundiu familiaridade com o cheiro da verdade.
Como tudo nas mídias sociais, o efeito é agravado por uma falsa sensação de consenso
social, que aciona nossos instintos de conformidade.
Chaslot tinha ouvido falar de pessoas caindo em tocas de coelho no YouTube. Mas a
convicção na voz desse homem aparentemente normal o incomodava. Outros foram
vítimas? Ele montou um programa simples, que chamou de Algo Transparency, para
descobrir. O programa inseriu um termo, como o nome de um político, na barra de
pesquisa do YouTube. Em seguida, abriu os principais resultados. Em seguida, cada
recomendação sobre o que assistir a seguir. Ele fez grandes lotes de pesquisas anônimas,
uma após a outra, no final de 2015 e grande parte de 2016, procurando tendências.
O que ele encontrou o alarmou. Quando ele pesquisou o Papa Francisco no YouTube,
por exemplo, 10% dos vídeos exibidos eram conspirações. Sobre o aquecimento global,
foi de 15%. Mas o verdadeiro choque veio quando Chaslot seguiu recomendações
algorítmicas para o que assistir a seguir, que o YouTube disse ser responsável pela maior
parte de seu tempo de exibição. Incríveis 85% dos vídeos recomendados sobre o Papa
Francisco eram conspirações, afirmando a “verdadeira” identidade de Francisco ou
pretendendo expor conspirações satânicas no Vaticano. Sobre o aquecimento global, o
número era de 70 por cento, geralmente chamando-o de farsa. Em tópicos com poucas
conspirações estabelecidas, o sistema parecia invocá-las. Quando Chaslot pesquisou
Quem é Michelle Obama, por exemplo, pouco menos da metade dos principais resultados
e quase dois terços das recomendações de assistir a seguir afirmaram que a primeira-
dama era secretamente um homem.
Com certeza, pensou ele, qualquer que fosse seu desentendimento com seus ex-colegas,
eles iriam querer saber sobre isso. Mas quando ele levantava preocupações em particular
com pessoas que conhecia no YouTube, a resposta era sempre a mesma: “Se as pessoas
clicam neste conteúdo prejudicial, quem somos nós para julgar?”
Alguns dentro do Google, no entanto, estavam chegando a conclusões semelhantes
às de Chaslot. Em 2013, um engenheiro chamado Tristan Harris circulou um memorando
instando a empresa a considerar o impacto social de alertas push ou notificações de
zumbido que chamaram a atenção dos usuários. Como ex-aluno de Stanford
Machine Translated by Google
Persuasive Tech Lab, ele conhecia seu poder de manipulação. Todo esse treinamento
cognitivo poderia ter um custo? Ele recebeu o título de “eticista do design”, mas com pouco
poder e, em 2015, pediu demissão, na esperança de pressionar a indústria a mudar. Em
uma apresentação naquele ano para o Facebook, Harris citou evidências de que a mídia
social causava sentimentos de solidão e alienação, retratando-a como uma oportunidade
de reverter o efeito. “Eles não fizeram nada a respeito”, contou ele ao The New Yorker.
“Meus pontos estavam em seu ponto cego.” Ele circulou pelo Valley, alertando que seus
AIs, um exército de robôs empenhado em derrotar o controle de cada usuário sobre sua
própria atenção, estava travando uma guerra invisível contra bilhões de consumidores.
Outro funcionário do Google, James Williams, que mais tarde escreveu ensaios
chamando o Gamergate de um sinal de alerta de que a mídia social iria elevar Trump, fez
sua avaliação enquanto monitorava um painel que rastreava as interações dos usuários
com anúncios em tempo real. “Eu percebi: isso é literalmente um milhão de pessoas que
meio que cutucamos ou persuadimos a fazer algo que de outra forma não fariam”, disse
ele. Ele se juntou aos esforços de Harris dentro do Google até que, como Harris, desistiu.
Mas, em vez de bajular o Vale, ele tentou alertar o público. “Não há um bom análogo para
esse monopólio da mente que as forças da persuasão industrializada agora detêm”,
escreveu ele. O mundo enfrentou “uma ameaça de próxima geração à liberdade humana”
que “se materializou bem na frente de nossos narizes”.
flúor na água, brasileiros que pensavam que o zika era uma conspiração nefasta, mas
“não tinham certeza se culpavam as vacinas, os transgênicos, os chemtrails ou a
Monsanto”.
A platéia riu junto, deliciando-se com a zombaria desses caipiras retrógrados. Até
que ela chegou ao ponto final: os algoritmos de mídia social, incluindo aqueles que
executam o YouTube, de propriedade do Google, eram os responsáveis. “Chegamos
a um ponto em que coisas que são populares e emocionalmente ressonantes têm
muito mais probabilidade de serem vistas por vocês do que coisas que são verdadeiras”,
ela disse a eles.
Além disso, longe de ser um fenômeno marginal, essas conspirações representavam
uma mudança mais profunda provocada pelas plataformas de mídia social. Os
moradores do Oregon votaram pela proibição do flúor e os brasileiros reverteram as
proteções contra o zika – ambos os casos com base em crenças que foram cultivadas
online. “Os algoritmos estão influenciando a política”, disse DiResta. O problema
pioraria a menos que fossem reescritos com “um senso de responsabilidade cívica”. A
recepção foi educada, mas silenciosa. “Recebi muitos 'Essa é uma teoria realmente
interessante'”, lembrou DiResta.
Mas a influência dos algoritmos só se aprofundou, inclusive no último reduto, o
Twitter. Durante anos, o serviço mostrou a cada usuário um feed simples e cronológico
dos tweets de seus amigos. Até que, em 2016, introduziu um algoritmo que classificava
as postagens – para engajamento, é claro, e para efeitos previsíveis. “O tweet médio
com curadoria foi mais emotivo, em todas as escalas, do que seu equivalente
cronológico”, descobriu o The Economist em uma análise da mudança. O resultado foi
exatamente o que havia no Facebook e no YouTube: “O mecanismo de recomendação
parece recompensar a linguagem inflamada e as reivindicações bizarras”.
Para os usuários, para quem o algoritmo era invisível, eles pareciam dicas sociais
poderosas. Era como se sua comunidade tivesse subitamente decidido que valorizava
a provocação e a indignação acima de tudo, recompensando-a com ondas de atenção
que eram, na verdade, geradas por algoritmos. E como o algoritmo classificava as
postagens julgadas como pouco envolventes, o inverso também era verdadeiro. Parecia
que seus colegas de repente desprezavam as nuances e a moderação emocional com
a rejeição implícita de ignorá-lo. Os usuários pareciam absorver essas dicas, ficando
cada vez mais mesquinhos e raivosos, com a intenção de humilhar os membros do
grupo externo, punir os transgressores sociais e validar as visões de mundo uns dos outros.
O CEO do Twitter, Jack Dorsey, reconheceu mais tarde que, em uma plataforma
Machine Translated by Google
Goodrow escreveu em um ensaio narrando sua experiência: “Eu estava nervoso o suficiente
para pedir à minha equipe que pensasse em reordenar seus projetos para reacelerar o tempo
de exibição”. Em setembro, “nossos engenheiros estavam em busca de mudanças que
pudessem gerar apenas 0,2% a mais de tempo de exibição”, escreveu ele.
Qualquer ajuste ou atualização que possa tornar o produto um pouco mais envolvente, um
pouco mais viciante.
Se ele ou seus chefes consideraram as consequências de hackear milhões de americanos
no meio da eleição mais contenciosa da história americana moderna, em um momento em que
a polarização e a desinformação ameaçavam destruir o tecido da sociedade, ele não indicou
isso em seu ensaio. “Numa gloriosa segunda-feira daquele outono, verifiquei novamente – e vi
que havíamos atingido um bilhão de horas no fim de semana”, escreveu ele. “Conseguimos a
extensão que muitos pensavam que o OKR era impossível.” Embora admitisse que houve
“consequências imprevistas”, ele mencionou apenas uma: aumentar o tempo de exibição
também aumentou o número de visitas por dia.
“Os OKRs estendidos tendem a colocar forças poderosas em movimento”, ele se maravilhou, “e
você nunca pode ter certeza de onde eles vão levar”.
Machine Translated by Google
Seis
1. Apenas o começo
havia mencionado em seus e-mails, o Cometa Ping Pong era, insistiam os conspiradores,
o quartel-general de uma vasta conspiração de elite para canibalizar crianças
ritualisticamente.
“Metade ou mais das pessoas que conheci on-line acreditam plenamente nisso”, disse-
me Adam, o 4channer de longa data. Um dia a conspiração estava “em toda parte”, disse
ele, especialmente no Facebook, onde, após anos de inatividade, algumas páginas
ressurgiram simplesmente para repetir a frase “Pizzagate é real”. Mas foi no conselho de
política do 4chan, a placa de Petri da internet para conspirações patogênicas, que ele
observou sua gênese.
A crença na conspiração está altamente associada à “anomia”, a sensação de estar
desconectado da sociedade. A base de usuários do 4chan se definia em torno da anomia
— rejeição mútua do mundo off-line, certeza ressentida de que o sistema estava armado
contra eles. E eles idolatravam o chefe do WikiLeaks, Julian Assange, um hacker
anarquista cuja política, como a do 4chan, havia se desviado para a direita. Então, quando
Assange publicou os e-mails de Podesta em outubro, um mês antes da eleição, eles viram
isso não como uma operação apoiada pela Rússia, mas como o início de uma campanha
emocionante para expor a odiada elite. Seguindo o passatempo 4chan de mergulhos
colaborativos, os usuários vasculharam dezenas de milhares de páginas em busca de
revelações. Em ecossistemas digitais fechados, onde os usuários controlam o fluxo de
informações, as evidências que confirmam os vieses da comunidade parecem surgir por
si mesmas, como um tabuleiro Ouija flutuando em direção às letras de uma palavra na
mente de todos.
Quando os 4channers descobriram que Podesta, um chef amador, frequentemente
mencionava comida, eles concluíram que era um código secreto. “Pizza de queijo”, um
deles sugeriu, referindo-se à pornografia infantil, que no 4chan costuma ser abreviado
como “cp”. Os usuários encontraram mais referências a pizza, algumas junto com
menções a crianças. Embora os e-mails durassem quase uma década, quando coletados
podiam parecer suspeitos. Vagas teorias se espalharam pelo painel pró-Trump do Reddit,
altamente traficado. Um post exortou os usuários a divulgarem o “Pedo-Ring mundial
conectado à CLINTON FOUNDATION, que por acaso também está assumindo o controle
dos EUA para sempre”.
“Foi realmente chocante ver isso se desenrolar”, disse Adam. Pessoas que ele conhecia
da vida real estavam compartilhando memes do Pizzagate em suas páginas do Facebook.
Era como se uma parede separando a internet convencional e extremista estivesse desabando.
A atração era difícil de resistir. Embora ele soubesse que as postagens eram “absurdas de
papel alumínio”, algo sobre sua onipresença “me fez pesquisar pessoalmente tudo o que
podia sobre isso”.
Em um mês, 14% dos apoiadores de Trump acreditaram na afirmação “Hillary Clinton
está conectada a uma quadrilha de sexo infantil administrada por uma pizzaria em Washington
DC”. Quando outra pesquisa testou uma versão mais branda – “E-mails vazados da campanha
de Clinton falavam sobre pedofilia e tráfico humano” – a concordância entre os eleitores de
Trump subiu para 46%. Ainda assim, na época, a maioria descartava os Pizzagaters como
esquisitos da internet com um nome bobo.
Mesmo aqueles que levaram a sério tiveram seu foco desviado quando, na noite da eleição,
Trump venceu vários estados que ele esperava perder e assumiu a presidência.
Apesar de toda a divisão crescente, foi a escala que realmente mudou alguma
coisa, ao agir por meio do instinto inato das pessoas de inferir e se conformar às
normas de comportamento predominantes de sua comunidade. Cada um de nós se
esforça, embora inconscientemente, para seguir os costumes sociais de nosso grupo.
Mas tentar inferir essas normas nas mídias sociais era como estar dentro de uma casa
de diversões cheia de espelhos, onde certos comportamentos eram distorcidos para
parecerem mais comuns e aceitos do que realmente eram. No início de 2017, quase
todo mundo fora do Vale concordava que aqueles espelhos dobravam e distorciam o
que todos víamos e experimentamos, mas ninguém havia descoberto como medir sua
curva, muito menos o efeito sobre os dois ou três bilhões de pessoas que agora vagam
pelo casa de diversão digital.
O Twitter foi talvez a primeira plataforma cujos efeitos corrosivos foram,
Machine Translated by Google
“Você está saindo com pessoas que encontram satisfação vomitando vitríolo,
pessoas que espalham racismo, misoginia e anti-semitismo”, lamentou um âncora da
CNN. Ninguém precisou de uma investigação do Congresso para entender por que
pode ser ruim que a plataforma agora no centro do discurso político americano tenha
sido invadida por neonazistas e mentiras partidárias.
O Twitter, sob uma administração relativamente nova com Jack Dorsey, que havia
retornado à empresa em 2015 para assumir o cargo de CEO, anunciou que estava
mudando seu foco do crescimento para conter os propagadores de ódio e assediadores,
uma alegação que poderia ter sido fácil de descartar como spin corporativo se sua
base de usuários não tivesse parado de crescer imediatamente. Alguns dos maiores
acionistas do Twitter, furiosos com a estagnação do preço das ações do Twitter,
pressionaram Dorsey a mudar de rumo e, mais tarde, quando ele não o fez, quiseram
forçá-lo a sair totalmente. Mas Brianna Wu e outros críticos de longa data elogiaram o
Twitter pelo que chamaram de progresso genuíno, mesmo que apenas por conter os
comportamentos mais flagrantes, como ameaças de morte e racismo extremo.
Ainda assim, Dorsey, pelo menos no início, abordou o problema como um problema
de remoção de maus atores, em vez de considerar se a plataforma poderia estar
encorajando seu comportamento. Outros executivos o descreveram como indeciso,
Machine Translated by Google
A princípio, nas semanas após a eleição de Trump, essas empresas maiores - sob uma
combinação de pressão pública, pressão dos funcionários e, pelo menos no momento, um
desejo aparentemente legítimo de agir como bons cidadãos - lutaram para entender o que,
se é que alguma coisa, tinha dado errado. O Facebook encomendou uma auditoria interna
conhecida como Projeto P, refletindo as preocupações iniciais com a propaganda russa.
Descobriu-se que a Internet Research Agency, vinculada ao Kremlin, comprou anúncios no
Facebook, geralmente com rublos, que levaram cerca de 60.000 usuários a se registrarem
em eventos pró-Trump e anti-Clinton.
O Facebook pediu desculpas. Na verdade, o esquema de eventos russo provavelmente
teve pouco impacto. No tamanho do Facebook, 60.000 inscrições em eventos foi um
pontinho. Mas, como DiResta e outros descobriram, seria apenas uma parte das atividades
dos russos.
Outras revelações foram mais preocupantes. Dezenas de páginas do Facebook
espalharam notícias falsas e hiperpartidárias. Os instigadores, spammers de baixo custo
em busca de dinheiro rápido, careciam da sofisticação dos russos. No entanto, eles
conquistaram grandes audiências, sugerindo que algo sobre a maneira como o Facebook
funcionava os havia fortalecido. E sua prevalência forçou o Facebook a considerar se, e
onde, traçar uma linha entre o permitido
Machine Translated by Google
Facebook, Twitter e YouTube convergiram em uma explicação voltada para o público para
2016. A sociedade estava dividida e, embora as plataformas possam ter contribuído um pouco,
agora elas podem ser parte da solução. O Facebook alavancaria sua tecnologia para “reunir a
humanidade”, prometeu Zuckerberg. Isso significava, ele explicou, desconcertantemente,
encaminhar mais usuários para grupos, os mesmos veículos de radicalização que os críticos
chamaram de mais prejudiciais do que a propaganda russa ou notícias falsas. O truque contra-
intuitivo era que os grupos iriam, supostamente, expor as pessoas a pontos de vista mais diversos.
Era uma ideia popular em todo o Valley. O Twitter também se divertiu reunindo usuários com
ideias diferentes. Ellen Pao me disse que planejava implementar uma versão da ideia no Reddit
antes de ser demitida.
O YouTube o incorporou em uma atualização de algoritmo chamada Reinforce (embora um
engenheiro da empresa tenha descrito seu objetivo real como aumentar o tempo de exibição). Um
desenvolvedor de IA do Facebook ponderou que seus sistemas podem fazer engenharia reversa
“como as opiniões são formadas e como elas são ossificadas e cristalizadas, e como você pode
acabar com duas pessoas incapazes de falar uma com a outra”.
Outro afirmou que o algoritmo do Facebook agora guiaria os usuários para diferentes pontos de
vista.
A arrogância do Vale do Silício, ao que parecia, não apenas sobrevivera à eleição, como
estava prosperando. Se 2016 foi o ano em que o Vale foi forçado a reconhecer que servia como
marionetista de uma vasta rede de fios invisíveis que nos puxavam como dois bilhões de
marionetes, então 2017 foi quando seus programadores mais brilhantes decidiram que a solução
não era cortar os fios, mas para assumir um controle ainda mais firme sobre eles. Era só uma
questão de nos fazer dançar no ritmo certo.
Eles estavam agindo de acordo com uma interpretação errônea amplamente difundida de algo
Machine Translated by Google
conhecida como teoria do contato. Cunhada após a Segunda Guerra Mundial para explicar por
que as tropas dessegregadas se tornaram menos propensas ao racismo, a teoria sugeria que
o contato social levava grupos desconfiados a se humanizarem. Mas pesquisas subsequentes
mostraram que esse processo funciona apenas em circunstâncias restritas: exposição
controlada, igualdade de tratamento, território neutro e uma tarefa compartilhada. Simplesmente
misturar tribos hostis juntas, descobriram os pesquisadores repetidamente, piora a animosidade.
No ano seguinte à eleição, uma equipe de cientistas políticos fez com que várias centenas
de usuários do Twitter identificados como democratas ou republicanos seguissem um bot que
retuitava vozes do outro lado em seu feed. Em vez de se tornarem mais tolerantes, os usuários
de ambos os grupos se tornaram mais ideologicamente extremos. Os partidários da mídia
social, descobriu outro projeto, muitas vezes falham em registrar postagens razoáveis ou
inofensivas de pessoas do outro lado. Mas as postagens nas quais um membro do grupo
externo diz algo censurável chamam a atenção deles de maneira confiável. Freqüentemente,
eles retransmitem essas postagens como prova da depravação do outro lado. Um apoiador de
Hillary Clinton durante as primárias democratas de 2016, por exemplo, pode nem notar a
maioria dos tweets de apoiadores de Bernie Sanders. Até que alguém cruze a linha. “Bernie
bros são tão sexistas”, o usuário pode twittar, anexando uma captura de tela de um barista de
23 anos chamando Clinton de “estridente”.
As pessoas, via de regra, percebem os grupos externos como monólitos. Quando vemos
um membro de um clã adversário se comportar mal, assumimos que isso representa todos eles.
À medida que o tuíte do apoiador de Clinton se torna uma viralidade ultrajante, os usuários
afins que o virem se tornarão mais propensos a notar transgressões semelhantes dos
apoiadores de Sanders. À medida que eles circulam, parece uma evidência de um antagonismo
generalizado: os apoiadores de Sanders são sexistas. Os cientistas políticos chamam isso de
“falsa polarização”. Pesquisadores descobriram que a falsa polarização está piorando,
especialmente em torno do partidarismo, com as concepções que liberais e conservadores
têm uns dos outros se afastando cada vez mais da realidade. Isso pode alimentar uma política
de conflito de soma zero. Se Sanders é apenas um político com ideias diferentes, cumprir sua
agenda no meio do caminho é tolerável. Se ele é um radical perigoso liderando um bando de
hooligans, essa agenda deve ser derrotada e seus seguidores expulsos da política.
Mesmo em sua forma mais rudimentar, a própria estrutura da mídia social encoraja a
polarização. Ler um artigo e, em seguida, o campo de comentários abaixo dele, descobriu um
experimento, leva as pessoas a desenvolverem comportamentos mais extremos.
Machine Translated by Google
opiniões sobre o assunto no artigo. Grupos de controle que liam o artigo sem
comentários tornaram-se mais moderados e de mente aberta. Não que os comentários
em si fossem persuasivos; era o mero contexto de ter comentários. Os leitores de
notícias, descobriram os pesquisadores, processam as informações de maneira
diferente quando estão em um ambiente social: os instintos sociais dominam a razão,
levando-os a buscar a afirmação da retidão de seu lado.
Eles acreditavam que mapear a campanha russa poderia revelar como as plataformas
direcionavam ou distorciam o fluxo de informações. Foi também uma abertura para
pressionar as empresas a assumir responsabilidades. A tentativa de subversão da
democracia americana, amplificada por seus próprios sistemas, não seria tão fácil de
ignorar quanto os conspiradores anti-vacinas. Mas eles tinham um problema: o acesso. Em
plataformas onde bilhões de conteúdos circulam diariamente, examinar uma postagem por
vez era como estudar geologia inspecionando grãos de areia individuais. “As únicas
pessoas que têm o escopo completo”, disse DiResta, “que não precisam fazer essa besteira
como colar nomes aleatórios na Internet, são as plataformas”. Mas as empresas mal
responderiam a perguntas, muito menos abririam seus sistemas para escrutínio externo.
Que é exatamente o que aconteceu. Das 58 milhões de contas do Twitter ativas nos
Estados Unidos em 2016, a 107ª mais politicamente influente, de acordo com
Machine Translated by Google
uma análise do MIT Media Lab, era uma conta de troll pseudônimo, Ricky_Vaughn99.
O dono da conta entrou no Twitter em 2014, foi arrastado pelo Gamergate e começou
a postar mais de 200 vezes por dia.
Ele participou de aparentemente qualquer mob ou pilha de direita no Twitter. Ele era
um oportunista, aumentando sua raiva e seus apelos nus à queixa do homem branco,
alguns cliques acima de todos os outros. As postagens, que chegaram ao topo de
inúmeros ciclos de indignação, lhe renderam milhares de seguidores. Ele puxou
memes cruelmente racistas das profundezas mais sujas do 4chan e do Reddit,
circulando-os para o público conservador convencional. Ele promoveu conspirações
de uma conspiração judaica para diluir a raça branca. No verão, ele estava
aproveitando toda essa atenção a serviço de Trump. Ele e seus seguidores postaram
anúncios falsos da campanha de Hillary Clinton, dizendo a seus apoiadores que eles
poderiam votar por texto em vez de ir às urnas. O esquema enganou pelo menos
4.900 eleitores, de acordo com acusações federais que o acusaram de tentar “privar
os indivíduos de seu direito constitucional de votar” e identificaram seu nome: Douglass
Mackey, um consultor financeiro do Brooklyn.
Para cada intrometido russo, havia mil Douglass Mackeys, pessoas comuns
radicalizadas online, explorando as plataformas para sua própria gratificação. E para
cada Mackey, havia outros mil conduzindo desinformação em massa involuntariamente.
Mães de ioga espalhando conspirações de vacinas no Facebook, YouTubers caindo
em buracos de coelho Pizzagate, usuários do Twitter se juntando a multidões de
indignação por causa de uma deturpação.
Sem líder, sem agenda e ainda mais influente por isso. DiResta chamou isso de
“desinformação ponto a ponto”. Os usuários e as plataformas, trabalhando em
conjunto, eram os verdadeiros impulsionadores. Tornou-se, em poucos meses, rotina.
Quando centenas de centro-americanos fugiram da violência das gangues em
seus países de origem, sua chegada à fronteira foi incongruente com a cosmovisão
central da identidade política de muitos conservadores. Trump chamou os refugiados
de criminosos e terroristas, mas eram famílias desesperadas e aterrorizadas. A mídia
social forneceu uma saída. Uma foto, compartilhada 36.000 vezes, supostamente
mostrava um policial mexicano ensanguentado que havia sido atacado por bandidos
se passando por refugiados. Outra, compartilhada 81.000 vezes, mostrava um trem
lotado, prova de que os refugiados, que afirmavam estar andando, eram mentirosos
cúmplices de repórteres desonestos. Essas fotos, e dezenas de outras semelhantes,
eram de incidentes não relacionados de anos atrás. Mas a verdade não importava. Os
posts não eram realmente sobre a fronteira. Eles pretendiam proteger os apoiadores de Trump
Machine Translated by Google
identidade compartilhada, prova de que eles estavam certos e que os liberais eram os
verdadeiros monstros.
Em um experimento revelador, os republicanos viram uma manchete falsa sobre os
refugiados (“Mais de 500 'caravanistas migrantes' presos com coletes suicidas”).
Questionados se parecia correto, a maioria o identificou como falso; apenas 16 por cento o
consideraram preciso. O enquadramento da questão induziu implicitamente os participantes
a pensar sobre a precisão. Isso envolveu as partes racionais de suas mentes, que
rapidamente identificaram a manchete como falsa. Posteriormente, questionados se
poderiam compartilhar a manchete no Facebook, a maioria disse que não: pensando com
seus cérebros racionais, eles preferiram a precisão.
Mas quando os pesquisadores repetiram o experimento com um grupo diferente de
republicanos, desta vez ignorando a questão sobre precisão para simplesmente perguntar
se o sujeito compartilharia a manchete no Facebook, 51% disseram que sim. O foco no
Facebook ativou a parte social de suas mentes, que viu, no mesmo título, a promessa de
validação de identidade – algo que o cérebro social valoriza muito além da precisão. Tendo
decidido compartilhá-lo, os sujeitos disseram a si mesmos que era verdade. “A maioria das
pessoas não quer espalhar desinformação”, escreveram os autores do estudo, diferenciando
mentiras deliberadas de crenças motivadas socialmente. “Mas o contexto da mídia social
concentra sua atenção em outros fatores além da verdade e precisão.”
4. Um mundo enlouquecendo
CHASLOT, AINDA NA França, decidiu repetir o experimento de rastreamento que havia feito
nas eleições americanas, desta vez na corrida presidencial de quatro candidatos em casa.
Como antes, o algoritmo do YouTube, ele descobriu, favorecia fortemente os candidatos nos
extremos: a extrema-direita Marine Le Pen e a extrema-esquerda Jean-Luc Mélenchon. Um
novo truísmo da política estava surgindo: a mídia social elevava os políticos anti-sistema
familiarizados com uma linguagem emocional moral exagerada. Mélenchon, embora impopular
entre os eleitores, ganhou milhões de visualizações no YouTube, onde seus fãs mais dedicados
pareciam se reunir.
Isso começou como positivo: a internet ofereceu aos políticos de fora uma maneira de
contornar os meios de comunicação convencionais que os evitavam. Como os apoiadores de
base desses candidatos passaram um tempo desproporcional no YouTube, o sistema aprendeu
a direcionar os usuários para esses vídeos, criando mais fãs, aumentando ainda mais o tempo
de exibição. Mas, graças às preferências dos algoritmos por conteúdo extremo e divisivo, foram
principalmente os radicais marginais que se beneficiaram, e não os candidatos em todo o
espectro.
Apoiado por um punhado de colegas pesquisadores, Chaslot trouxe suas descobertas
sobre as eleições americanas e francesas para o The Guardian, resultando em um relatório
explosivo que oferecia evidências aparentes de uma ameaça há muito suspeitada à estabilidade
política global. O YouTube contestou “a metodologia, os dados e, mais importante, as
conclusões” da pesquisa. Chaslot não escondeu que suas conclusões eram estimativas
aproximadas, usando milhares de pontos de dados para inferir bilhões de decisões diárias do
algoritmo. Mas as descobertas eram tão consistentes, ele pensou, e tão consistentemente
alarmantes que a empresa não iria querer investigá-las? Ou compartilhar os dados internos que
poderiam, em teoria, esclarecer tudo isso? E ele dificilmente estava sozinho. Nos anos
seguintes, com a obstrução da empresa, todo um campo de pesquisadores publicou um
conjunto de descobertas após o outro, produzido por meio de métodos cada vez mais
sofisticados, que não apenas corroboravam os resultados de Chaslot, mas sugeriam que a
realidade era substancialmente pior do que ele temia.
Durante todo o tempo, o YouTube manteve uma estratégia consistente, muito parecida com
a que DiResta havia descrito: negar, desacreditar e antagonizar. Em resposta ao artigo
publicado no The Guardian, um porta-voz disse: “Nossa única conclusão é que o The Guardian
está tentando limitar a pesquisa, os dados e seus
Machine Translated by Google
conclusões incorretas em uma narrativa comum sobre o papel da tecnologia nas eleições do ano
passado”. Isso se tornou um padrão. Vez após vez, os representantes da empresa responderiam
a cada nova descoberta chamando a evidência de sem sentido ou errada, cavando em trocas
longas, muitas vezes hostis. Então, assim que uma grande história era publicada, o YouTube,
em uma reviravolta paradoxal, publicava uma declaração insistindo que já havia resolvido
problemas que, apenas algumas semanas antes, havia descartado como inexistentes. No caso
de Chaslot, a empresa também procurou retratá-lo como não confiável, motivado pelo desejo de
constranger a empresa em retaliação por tê-lo demitido por mau desempenho. Mas isso não
explica por que ele inicialmente tentou deixar o YouTube para trás, pesquisando a plataforma
apenas depois de ver seus danos em primeira mão anos depois, nem por que ele inicialmente
levou suas descobertas direta e privadamente ao YouTube.
“Essa é a rotina. Posso rir disso porque, ao mudar as coisas, eles reconhecem que eu
estava certo”, disse Chaslot, embora sua voz estivesse impregnada de uma tristeza pelas
negativas públicas de seu ex-empregador que, anos depois, ainda doía. “Mas quando eu estava
no meio disso, eles me pressionaram muito. Isso foi realmente frustrante.”
Enquanto isso, assim como Chaslot se juntou a DiResta e outros na luta pública para
entender a influência indevida do Vale do Silício, William Brady e Molly Crockett, o psicólogo e
neurocientista, alcançaram um avanço importante nesse esforço. Eles passaram meses
sintetizando resmas de dados recém-disponibilizados, pesquisas comportamentais e suas
próprias investigações. Foi como encaixar as peças de um quebra-cabeça que, uma vez montado,
revelou o que ainda pode ser a estrutura mais completa para entender o efeito da mídia social
na sociedade.
“Plataformas online”, escreveram Brady e Crockett, “são agora uma das principais
fontes de estímulos moralmente relevantes que as pessoas experimentam em sua
vida diária”. Bilhões de bússolas morais de pessoas potencialmente inclinadas para o
tribalismo e a desconfiança. Sociedades inteiras foram empurradas para o conflito, a
polarização e a irrealidade – para algo como o trumpismo.
Brady não achava que a mídia social fosse “inerentemente má”, ele me disse.
Mas à medida que as plataformas evoluíram, os efeitos só pareciam piorar. “Está
ficando tão tóxico”, disse ele. “Na faculdade, não era nada como é agora.” Era
importante que as pessoas se lembrassem, ele sentiu, que os designers e engenheiros,
que visam mantê-lo usando sua plataforma por tantos minutos e horas por dia quanto
possível, “têm objetivos diferentes, não quero chamá-los de bons ou metas ruins, mas
metas que podem não ser compatíveis com as suas.”
Mas, apesar de tudo o que aprenderam, Brady e Crockett estavam, eles sabiam,
apenas começando a entender as consequências. Que efeito toda essa distorção,
esse treinamento teve em nossas sociedades e políticas, em nossa espécie?
Sem perceber, eu estava tropeçando em meu próprio caminho em direção a uma
resposta. Enquanto Brady e Crockett continuavam a investigar as distorções do
espelho da diversão da psicologia da mídia social ao longo de 2017, parti, naquele
outono, para um lugar muito mais distante, que as plataformas haviam feito um
esforço especial para ignorar, mas que logo se tornaria um sinônimo de sua ganância,
negligência e perigo: Myanmar.
Machine Translated by Google
Sete
Os Germes e o Vento
Observe o investigador que os soldados mataram sua filha bebê da mesma maneira. Os
soldados então estupraram ela e sua mãe. Quando sua irmã resistiu, eles a mataram com
baionetas. Enquanto isso acontecia, um grupo de aldeões chegou e espancou seus três
irmãos adolescentes até a morte. Os homens locais geralmente acompanhavam os
soldados como voluntários ansiosos, brandindo machados e implementos agrícolas. Eles
eram Rakhine, o outro grande grupo étnico da região, que, como a maioria em Mianmar,
é budista. A presença deles sugeria a natureza comunitária da violência, bem como a
onda de pressão pública que a havia ocasionado.
O chefe do primeiro coletivo de mídia real de Mianmar, um repórter nervoso que voltou
de anos no exílio, disse que os jornalistas há muito reprimidos do país, finalmente livres,
enfrentaram um novo antagonista. As plataformas de mídia social estavam fazendo o que
nem mesmo os propagandistas treinados pela ditadura conseguiam: produzir notícias
falsas e fanfarras nacionalistas tão envolventes, tão lisonjeiras para os preconceitos dos
leitores, que as pessoas as preferiam voluntariamente ao jornalismo real. Quando os
repórteres tentaram corrigir a desinformação que fluía online, eles se tornaram o alvo dela,
acusados de cumplicidade em conspirações estrangeiras.
Machine Translated by Google
Pessoas de todas as esferas da vida recontaram sem fôlego, como um fato puro e
simples, conspirações malucas e odiosas que inevitavelmente atribuíram às mídias sociais.
Monges budistas insistiram que os muçulmanos estavam tramando para roubar a água
de Mianmar, velhinhas que não estariam seguros até que as minorias fossem expurgadas
de seu meio, jovens estudantes que grupos humanitários estavam armando os rohingya
em nome de potências estrangeiras. Todos eles apoiaram a campanha militar — gratos,
às vezes alegres, pela violência cometida em seu nome.
O sentimento anti-Rohingya data de pelo menos um século, no início dos anos 1900,
quando os senhores britânicos importaram milhares de súditos coloniais do Raj indiano,
muitos deles muçulmanos. O esforço era dividir para governar; os recém-chegados, que
completavam a classe mercantil urbana, contavam com a segurança dos britânicos. Após
a saída dos britânicos, em 1948, os líderes da independência buscaram consolidar sua
nova nação em torno de uma identidade étnica e religiosa compartilhada. Mas a
diversidade de Myanmar tornou isso difícil; eles precisavam de um inimigo contra o qual
lutar. Os líderes políticos promoveram as suspeitas da era colonial sobre os muçulmanos
como intrusos estrangeiros patrocinados por impérios estrangeiros. Na verdade, porém,
os indianos da classe mercantil importados pelos britânicos fugiram em sua maioria em
1948 ou pouco depois, então os líderes sublimaram a ira nacional para um grupo não
relacionado de muçulmanos: os rohingya. Para vender o estratagema, os Rohingya
foram classificados como imigrantes ilegais, uma declaração de ódio patrocinada pelo Estado posteriormente
Machine Translated by Google
reiterado até mesmo por Aung San Suu Kyi, o ícone da democracia ganhadora do
Nobel que se tornou o primeiro líder eleito de Mianmar.
Quando alguns rohingya e rakhine se enfrentaram em 2012, ela ainda estava
consolidando seu domínio na política. Ela aproveitou o incidente, enfatizando o suposto
perigo dos rohingyas para os cidadãos “reais” de Mianmar. Mas, nos anos seguintes,
a raiva do público contra os pobres agricultores rohingya aumentou muito além do que
ela havia encorajado. Em agosto de 2017, quando a violência esporádica entre
soldados e um punhado de rebeldes rohingya culminou em um ataque insurgente à
meia-noite a vários postos policiais, grande parte do país gritava por sangue. Alguns
dias depois, os militares concordaram, iniciando seu genocídio.
Como o sentimento, mesmo fervendo por muito tempo, chegou a tais extremos?
Líderes amedrontadores e confrontos sectários não eram, afinal, nada de novo aqui.
Havia algo diferente em jogo, algo novo. Dois anos antes, David Madden, o australiano
que dirigia a maior aceleradora de startups de tecnologia de Mianmar, havia voado
para a sede do Facebook para fazer uma apresentação alarmante aos executivos da
empresa. A essa altura, já havia se passado um ano desde os tumultos em Mandalay,
quando o perigo deveria ser inignorável. Ele detalhou a crescente incitação anti-
muçulmana na plataforma, aparentemente não controlada pelos moderadores, não
importa quantos fossem, que deveriam remover conteúdo perigoso. Ele alertou que o
Facebook poderia em breve ser usado para fomentar o genocídio. Mas havia pouca
indicação de que o Facebook atendeu ao seu aviso, com o discurso de ódio cada vez
mais comum. Postagens virais, uma após a outra, relataram que famílias muçulmanas
aparentemente inocentes eram, na verdade, células adormecidas terroristas ou espiões
estrangeiros. “Mianmar logo será dominado por 'cães muçulmanos'”, dizia um deles.
As postagens foram compartilhadas milhares de vezes, números que seriam difíceis
de alcançar em um país tão pequeno sem um impulso algorítmico.
mate eles. Número dois, atire e mate-os. Número três, atire e enterre-os.
O relatório foi publicado no início de 2016, outra voz em um coro alertando o Facebook
de que estava colocando em perigo uma sociedade que não compreendia.
Em junho daquele ano, a empresa, assim como havia feito em 2013, depois de ignorar os
avisos de violência iminente que rapidamente se mostraram precisos, escalou em Mianmar
de qualquer maneira, lançando o “Free Basics”, que permitia aos habitantes locais usar o
aplicativo de smartphone do Facebook sem pagar taxas de dados. Em poucos meses, 38%
das pessoas no país disseram que recebiam a maior parte ou todas as notícias via Facebook.
À medida que as coisas pioravam, seis meses antes do genocídio, Madden voou para a
sede do Facebook pela segunda vez. Mais uma vez, ele alertou que a plataforma estava
levando o país à violência em massa. Nada pareceu mudar, mesmo quando a matança
começou.
“Tenho que agradecer ao Facebook porque ele está me fornecendo informações
verdadeiras em Mianmar”, disse o administrador de um vilarejo que havia banido os
muçulmanos à minha colega Hannah Beech dois meses depois do derramamento de
sangue. “Kalar não são bem-vindos aqui”, disse ele, “porque são violentos e se multiplicam
como loucos”. As páginas extremistas que defendem essas visões permaneceram
hiperativas durante todo o derramamento de sangue. Eles eram uma atualização digital da
Rádio Milles Collines, que transmitiu apelos ao genocídio na Ruanda dos anos 1990. Mas
este Genocide Radio foi construído em infraestrutura de propriedade de ricas empresas de
tecnologia americanas, amplificado não por terminais de transmissão controlados por
milícias, mas por algoritmos executados no Vale do Silício.
“Nunca houve uma ferramenta mais poderosa para a rápida disseminação
Machine Translated by Google
Havia outra barreira importante para atuar. Isso significaria reconhecer que a plataforma
pode ter compartilhado alguma culpa. As empresas de cigarro levaram meio século, e a
ameaça de um litígio potencialmente fatal, para admitir que seus produtos causavam câncer.
Com que facilidade o Vale do Silício admitiria que seus produtos poderiam causar revolta,
inclusive genocídio?
Myanmar dificilmente foi a primeira indicação desses danos. Embora seja fácil esquecer
agora, eventos como os levantes da Primavera Árabe de 2011 foram, na época, vistos como
prova do potencial libertador da mídia social. Mas havia sinais de problemas, mesmo assim.
Em 2012, em um episódio bizarro na Índia sobre o qual escrevi, membros de dois grupos
étnicos, em seu medo mútuo, espalharam rumores no Facebook e no Twitter de que o outro
planejava atacá-los. A especulação virou certeza, que virou desinformação de um ataque
iminente, que virou incitação para atacar primeiro. Alguns inevitavelmente o fizeram. Relatos
da violência se espalharam amplamente online, muitas vezes retratados, com provas
fotográficas falsas, como centenas de vezes mais mortais do que realmente eram. Uma onda
de tumultos e represálias, incitadas nas redes sociais, varreu a Índia, empurrando 300.000
pessoas para campos de deslocados. O governo indiano bloqueou o acesso a plataformas
sociais e exigiu que removessem o conteúdo mais perigoso. Quando o governo Obama, um
antigo incentivador do Vale do Silício, interveio em nome das empresas, as autoridades
indianas cederam. O estrago já estava feito, de qualquer maneira. Explosões violentas
semelhantes surgiram na Indonésia.
2. O Tinderbox e o Match
isto." Lal, o primo, concordou. Ele chamou o Facebook de “as brasas sob as cinzas”
da raiva racial que, apenas alguns dias antes, havia levado o país ao caos. “As
pessoas são provocadas a agir.” Este vilarejo nas montanhas foi nosso ponto de
partida para refazer a queda do Sri Lanka no caos. O Facebook, descobrimos,
havia impulsionado cada passo mortal. E a cada passo, como em Mianmar, foi
avisado, urgente e explicitamente, mas recusou-se a agir.
Perguntamos à família como havia acontecido. Tudo “começou em Ampara”,
disse um deles, pronunciando um nome que vimos várias vezes na internet. A
verdadeira Ampara era apenas mais uma aldeia em um país espalhado por eles,
alguns prédios de concreto cercados por campos verdes abertos. Mas a Ampara
imaginária, construída a partir de rumores nas redes sociais, foi o epicentro de uma
conspiração para destruir os cingaleses do país.
Os irmãos Atham-Lebbe não sabiam nada sobre a Ampara imaginada quando,
usando o dinheiro que economizaram trabalhando como trabalhadores braçais no
exterior, abriram um restaurante de um quarto aqui. Eles são muçulmanos e falam
tâmil, uma língua minoritária, então nunca encontraram os distritos de língua
cingalesa da rede social onde sua cidade era um símbolo de perigo racial. Portanto,
eles não tinham como prever que, em uma noite quente de março de 2018, os
Amparas reais e imaginários colidiriam, mudando suas vidas para sempre.
Durante a correria do jantar daquela noite, um cliente começou a gritar em
cingalês sobre algo que havia encontrado em seu curry de carne. Farsith, o irmão
de 28 anos que dirigia o caixa, o ignorou. Ele não falava cingalês. E os clientes
bêbados, ele aprendeu, devem ser ignorados. Ele não sabia que, no dia anterior,
um boato viral no Facebook afirmava, falsamente, que a polícia havia apreendido
23.000 pílulas de esterilização de um farmacêutico muçulmano aqui. Se tivesse,
Farsith poderia ter entendido por que, à medida que o cliente ficava mais agitado,
uma multidão começava a se formar.
Os homens cercaram Farsith, batendo em seus ombros, gritando uma pergunta
que Farsith não conseguiu entender. Ele entendeu apenas que eles estavam
perguntando sobre um pedaço de farinha no curry do cliente, usando a frase “Você
colocou?” Ele temia que dizer a coisa errada pudesse tornar a multidão violenta,
mas não dizer nada também. “Não sei”, disse Farsith em cingalês quebrado. "Sim,
nós colocamos?"
A multidão, ouvindo a confirmação, desabou sobre Farsith e o espancou.
Eles perguntaram se ele havia colocado pílulas de esterilização na comida, como
todos viram no Facebook. Deixando-o ensanguentado no chão, eles derrubaram
Machine Translated by Google
Não havia, diziam a si mesmos, fosse por fervor ideológico ou desinteresse motivado
financeiramente, que não havia necessidade de monitorar ou mesmo considerar as
consequências, porque elas só poderiam ser positivas.
Isso era mais do que arrogância. Baseou-se em uma ideia que se espalhou pelo
Vale e que se originou com Peter Thiel, o investidor fundador do Facebook: “zero para
um”. Era uma obrigação, comercial e ideológica, que as empresas inventassem algo tão
novo que não houvesse mercado para isso — começando do zero — e depois
controlassem totalmente esse mercado, um campo com um entrante. “A história do
progresso é uma história de melhores negócios monopolistas substituindo os titulares”,
escreveu Thiel. Intel e processadores. Apple e computadores pessoais. Uber e táxis
particulares. Facebook e redes sociais.
Um monopólio, liberado da competição, estaria livre para investir em inovação,
melhorando toda a humanidade, argumentou. Isso era infundado: os monopólios, via de
regra, alavancam seu poder de entregar cada vez menos valor enquanto extraem rendas
cada vez maiores dos consumidores. Mas ressoou no Vale, cujos cidadãos reinterpretaram
o modelo de negócios de crescimento infinito, imposto por investidores alguns anos
antes com a ascensão da computação em nuvem, em uma missão gloriosa, a
continuação do liberacionismo da internet dos anos 90. Implicava que invadir sociedades
inteiras, pisoteando cegamente o que quer que tivesse vindo antes, era não apenas
aceitável, mas necessário.
Tal resultado, longe de ser negativo, foi considerado um presente para o mundo.
A indústria de tecnologia traria nada menos que o “próximo passo” em nossa jornada
como espécie, escreveu Zuckerberg em um ensaio de 6.000 palavras publicado um ano
antes de minha chegada ao Sri Lanka. Talvez no último suspiro do utopismo de Valley,
ele prometeu que o Facebook forneceria a “infraestrutura social” de uma nova era,
elevando-nos além de meras “cidades ou nações” para uma “comunidade global”. Isso
permitiria “espalhar a prosperidade e a liberdade, promover a paz e a compreensão, tirar
as pessoas da pobreza” e até “acabar com o terrorismo, combater as mudanças
climáticas e prevenir pandemias”.
A posição do Facebook foi a mesma nas duas reuniões. Não bastava alguém, mesmo um
ministro do governo, sinalizar uma postagem como discurso de ódio.
O Facebook, para agir, teve que verificar qualquer quebra de regra por conta própria. Mas a
plataforma terceirizou a maior parte desse trabalho para empresas de TI, que não empregavam
falantes cingaleses suficientes para acompanhar o ritmo. Os representantes do Facebook fizeram
promessas vagas sobre a contratação de funcionários.
Os funcionários do governo perguntaram se havia alguém que eles pudessem contatar
diretamente no caso de uma explosão de incitação ao estilo de Mianmar. Não, os representantes
da empresa disseram a eles. Se eles viram algo perigoso, devem usar o formulário no local para
relatar violações de regras. Essa diretiva era enlouquecedora.
Esse formulário, projetado para usuários comuns, era o mesmo widget para o qual Hattotuwa e
seus colegas já haviam preenchido meses de relatórios cada vez mais alarmados, até o silêncio
quase total. Tudo enquanto os apelos à violência se tornavam progressivamente mais específicos,
nomeando as mesquitas e bairros a serem limpos.
EM COLOMBO, nos escritórios da era colonial que abrigavam os ministérios do governo do Sri
Lanka, o chefe de informações do país, Sudarshana Gunawardana, nos disse que ele e outros
funcionários “tinham uma sensação de impotência”. Antes do Facebook, em tempos de tensão
comunitária, ele podia se encontrar com líderes cívicos e chefes de mídia, pedindo mensagens de
calma. Agora, tudo o que seus cidadãos viam e ouviam era controlado por engenheiros, distantes
na Califórnia, cujos representantes locais nem mesmo retornavam suas ligações.
Eles assistiram impotentes enquanto centenas de cingaleses postavam ao vivo das aldeias
e cidades cujas ruas eles enchiam. Moradores penduraram faixas com
Machine Translated by Google
imagens de leões pelas janelas da frente. Era uma mensagem: os cingaleses moram
aqui. Todos sabiam o que estava por vir. Os primeiros coquetéis Molotov voaram
naquela noite. Por três dias, multidões dominaram as ruas. Indo de casa em casa, onde
quer que os muçulmanos vivessem, eles arrombaram as portas da frente, saquearam
do chão ao teto e depois incendiaram as casas. Eles queimaram mesquitas e empresas
de propriedade de muçulmanos. Eles batem nas pessoas na rua.
Em Digana, a cidade onde Weerasinghe havia caminhado em seu vídeo, uma
dessas casas pertencia à família Basith. Eles vendiam chinelos no primeiro andar e
moravam no segundo. A maioria havia fugido. Mas um filho mais velho, Abdul, ficou
para trás e ficou preso no andar de cima. “Eles quebraram todas as portas de nossa
casa”, disse Abdul em uma mensagem de áudio que enviou ao tio pelo WhatsApp. “Há
chamas entrando.” Depois de alguns momentos, ele implorou, erguendo a voz: “A casa
está pegando fogo”. A família dele não conseguiu chegar até a casa. A polícia não
retomou Digana até a manhã seguinte. Eles encontraram Abdul morto no andar de cima.
disse-nos, assim que nosso anfitrião partiu: “Esperávamos isso”. Talvez não querendo
embaraçar Fazal, ele esperou para falar. Como a família Basith, Jainulabdeen era
muçulmana. Mas os vizinhos cingaleses o avisaram com dias de antecedência. “A
maioria deles sabia”, disse ele. “Eles sabiam disso pelo Facebook.”
Quando perguntei sobre o vídeo de Weerasinghe, o extremista do Facebook,
caminhando com Digana para pedir a expulsão dos muçulmanos, Jainulabdeen bufou
e balançou a cabeça. “Nós o conhecemos”, disse ele. “Ele é da área.” No Facebook,
Weerasinghe exercia o poder de moldar a realidade de centenas de milhares. Mas
aqui em sua cidade natal, Jainulabdeen insistia que ele era apenas “uma pessoa
normal”. Seu pai era carpinteiro. As famílias se conheciam.
Os parentes de Jainulabdeen até pediram a intervenção da família de Weerasinghe.
A família, aparentemente compartilhando suas preocupações, prometeu falar com ele,
mas não deu em nada. Ele adorava estar na internet demais.
Assim que a turba se dissipou, a polícia prendeu Weerasinghe por incitamento.
O Facebook finalmente fechou sua página. Mas o vídeo de Ampara que inspirou tanta
violência, do inocente empregado de restaurante muçulmano Farsith Atham-Lebbe
pressionado a confirmar uma guerra racial inexistente, permaneceu online.
Os pesquisadores continuaram apresentando pedidos para que o Facebook o
removesse, e a empresa continuou recusando, ignorando seus relatórios ou
respondendo que o conteúdo não infringia regras.
Farsith estava escondido, ficamos sabendo, do outro lado do país. Enquanto eu
arranjava uma carona na esperança de encontrá-lo, Amanda voltou para a capital para
perseguir os detalhes de uma reunião que ela ouviu de uma fonte. Mais cedo naquele
dia, o diretor de políticas do Facebook para o sul da Ásia, Shivnath Thukral, voou para
se encontrar com ministros do governo, revelou a fonte. Agora que o Sri Lanka
desligou o plugue, o Facebook finalmente estava dando show de ouvir.
Ele enfatizou que as divisões do Sri Lanka são anteriores à mídia social. Mas essas
plataformas, ele alertou, revelaram o que há de pior em uma sociedade, ampliando seus
extremos de maneiras que nunca antes foram possíveis. “Não culpamos completamente
o Facebook”, disse Dissanayake. “Os germes são nossos, mas o Facebook é o vento,
sabe?” Seu governo estava considerando regulamentações ou multas, disse ele. Mas ele
sabia que o poder do Sri Lanka era modesto.
Apenas os americanos, ele acreditava, tinham influência suficiente para forçar a mudança.
“Vocês, os próprios Estados Unidos, deveriam lutar contra o algoritmo. O que motiva o
Facebook, além disso?”
No dia seguinte, cheguei ao extremo oposto do país, onde um professor local que
dizia saber farsith me guiou até um pequeno povoado a alguns quilômetros de Ampara,
até uma fileira de casas de concreto de dois cômodos. Ele apontou para o terceiro a partir
do final.
Farsith, esperando lá dentro, havia raspado a barba. Não para esconder sua fé, disse
ele, mas porque, mesmo naquela aldeia distante, dificilmente conseguiria percorrer um
quarteirão sem ser reconhecido. “As pessoas me faziam todo tipo de perguntas”, disse
ele. Ou grite para ele: “Você é do vídeo!” Ele contou o tumulto, sua confusão e medo, a
fúria da turba. “Achei que aquele seria meu último dia”, disse ele. Ele fugiu na manhã
seguinte.
Tímido, quase infantil, ele parecia estar em outro lugar. Enquanto conversávamos, ele
torceu a mão na frente de sua sobrinha de cinco anos em uma brincadeira indiferente. Ela
Machine Translated by Google
puxou e cutucou, tentando trazer o olhar para cima do chão. O pai dela, que dirigia o
restaurante, trouxe-nos bananas e chá. Os irmãos fizeram tantos empréstimos para
construir a loja, disse ele, que não conseguiram pagar o seguro. Agora tudo se foi,
menos a dívida.
“Não sabemos o que fazer”, disse o irmão de Farsith. Talvez eles voltassem a
trabalhar na construção civil na Arábia Saudita, onde haviam economizado dinheiro
para o restaurante, embora isso significasse deixar suas famílias para trás. “Estamos
esperando a orientação de Deus.”
Farsith suspirou. “Não tenho nenhuma intenção de ficar aqui”, disse ele.
Perguntei-lhe várias vezes sobre a mídia social. O Facebook o transformou em
um vilão nacional. Espalhou uma mentira que arruinou sua família, talvez agora os
separando. Isso quase o matou. Mesmo agora, ele vivia com medo de outra turba
incitada pela plataforma.
Apesar de tudo, ele se recusou a abandonar as redes sociais. Com dias longos e
vazios escondido, ele disse: “Tenho mais tempo e olho muito mais para o Facebook”.
Fiquei chocado. Mesmo que ele não tivesse má vontade em relação à empresa
cuja plataforma havia abalado a vida de sua família, eu disse, ele sabia em primeira
mão que não podia acreditar no que via lá.
Não que ele acreditasse que a mídia social fosse precisa, disse ele. “Mas você
tem que gastar tempo e dinheiro para ir ao mercado comprar um jornal. Posso
simplesmente abrir meu telefone e receber as notícias. Ele olhou para cima do chão,
encolhendo os ombros. “Se está errado ou certo, é o que eu leio.”
Mantive contato intermitente com Farsith. Sua família caiu na pobreza. Ameaças
continuaram a segui-lo. Alguém do Facebook entrou em contato – citando o artigo
que Amanda e eu escrevemos – para perguntar o que havia acontecido. Farsith disse
à pessoa que estava desesperado por uma maneira de se alimentar. Ele estava
disposto a trabalhar. A ligação foi encerrada e ele nunca mais teve notícias do
Facebook. Depois de um ano, ele havia economizado o suficiente para viajar para o
Kuwait, onde começou a trabalhar como diarista. Ele ainda está lá.
Machine Translated by Google
Oito
Sinos de igreja
1. Situação de Ameaça
FOI DURANTE uma entrevista com Gema Santamaría, uma estudiosa da violência
vigilante que pesquisou incidentes estranhos em seu México natal, que percebi que
passaria anos tentando entender como esse padrão pode estar se desenrolando,
embora de maneiras menos óbvias ou menos efeitos óbvios, em todo o mundo,
talvez até nos Estados Unidos, onde os paralelos com a ascensão do trumpismo
estavam apenas surgindo. Ela estava encontrando no México os mesmos tipos de
surtos que pesquisadores de outros países ao redor do mundo vinham documentando.
Um subúrbio de Cancún que explodiu em violência devido à desinformação online.
Uma vila de famílias tranquilas que, depois de criar uma página no Facebook para
notícias da comunidade que se tornou um foco de rumores paranóicos, prenderam
dois perplexos pesquisadores itinerantes, a quem acusaram de conspirar para colher
os órgãos de crianças locais, e os colocaram em fogo. Então, em outra aldeia, o
mesmo padrão, desde os detalhes do boato até o método de assassinato, desta vez
ceifando a vida de dois homens que estavam na cidade para comprar postes de
cerca.
“A mídia social desempenha o papel que o toque dos sinos das igrejas costumava
desempenhar no passado”, disse Santamaría. “É assim que as pessoas sabem que
um linchamento vai acontecer.” As plataformas, ela explicou, reproduziam certos
mecanismos antigos pelos quais uma comunidade trabalhava para a violência
coletiva. O linchamento, quando um grupo segue sua indignação moral a ponto de
ferir ou matar alguém – a tirania dos primos no trabalho – é um impulso comunitário.
Uma demonstração pública do que acontece com aqueles que transgridem a tribo.
acreditou, foi a dizer que a mídia social tinha aprendido a reproduzir esse processo
antigo. Mais do que apenas desencadear um sentimento preexistente, a mídia social
o estava criando. Os rumores não eram aleatórios. "Eles têm uma lógica para eles",
disse ela. “Eles não visam a todos.” Em vez disso, os rumores ativaram uma
sensação de perigo coletivo em grupos que eram dominantes, mas sentiam que seu
status estava em risco – maiorias com raiva e medo de mudanças que ameaçavam
corroer sua posição na hierarquia. Como as forças impessoais da mudança social
são, para a maioria das pessoas, tão invencíveis quanto o clima, a mídia social
interveio para fornecer um vilão mais corpóreo e conquistável: blogueiras feministas,
a minoria religiosa vizinha, refugiados. “Isso finalmente é algo sobre o qual você tem
controle”, disse Santamaría. “Você pode realmente fazer algo sobre isso.”
O problema não é apenas que a mídia social aprendeu a promover indignação, medo e conflito
tribal, todos sentimentos que se alinham com a ameaça de status. Online, à medida que publicamos
atualizações visíveis para centenas ou milhares de pessoas, carregadas com as emoções de grupo
que as plataformas encorajam, “nossas identidades de grupo são mais salientes” do que as individuais,
como William Brady e Molly Crockett escreveram em seu artigo sobre efeitos das redes sociais. Não
apenas nos tornamos mais tribais, como também perdemos nosso senso de identidade. É um ambiente,
escreveram eles, “pronto para o estado psicológico de desindividuação”.
Lembrei-me de uma conversa com Sanjana Hattotuwa, a apaixonada pesquisadora digital que
rastreou o ódio online no Sri Lanka. “O câncer cresceu tanto que você está olhando para pessoas
comuns”, ele disse.
“É perturbador. A radicalização está acontecendo em uma idade muito jovem.” Mesmo os alunos de
famílias perfeitamente legais, se fossem ativos nas mídias sociais, eram sugados, seus mundos e
visões de mundo definidos pela ameaça de status que encontravam online. “Esta é a iniciação deles
nas relações comunitárias”, disse ele. “E é ódio. É muito, muito ruim.”
Talvez esse padrão, de ameaça de status correndo desenfreada online, tenha ajudado a explicar
por que, em 2016, os apoiadores de Trump caíram muito mais na toca do coelho digital do que outros
americanos. Se a mídia social fosse construída para ativar o pânico da identidade majoritária, então a
redução da maioria branca da América – e especialmente os brancos não graduados ou da classe
trabalhadora que tendem a manter sua identidade racial mais de perto e que se tornaram o grosso da
coalizão Trump – ser perigosamente suscetível ao mesmo padrão que eu tinha visto no Sri Lanka.
Ameaça de status e desindividuação digital em escala nacional. Em 2018, essa tribo, com um punhado
de exceções como a manifestação em Charlottesville, ainda não havia se preparado para a violência
da multidão.
Mas eu me perguntei se esse tipo de influência da mídia social poderia estar surgindo de outras
formas, preparando as pessoas para a violência racial de maneiras menos óbvias, mas ainda
consequentes.
Logo obtive uma resposta. Assim como o Sri Lanka entrou em combustão em março de 2018, dois
Machine Translated by Google
Cientistas sociais alemães estão quase concluindo um longo projeto que examina os efeitos
subterrâneos das mídias sociais em seu país. O estudo sugeriu uma revelação chocante,
sugerindo que eventos como os de Mianmar e Sri Lanka, longe de serem únicos, também
estavam ocorrendo nas democracias ocidentais, apenas de maneiras mais sutis. Para
entendê-lo, viajei para uma pequena cidade perto de Düsseldorf, onde minha colega Amanda
Taub se juntaria a mim alguns dias depois.
DURANTE DOIS DIAS em junho de 2018, alguns meses depois de nossa reportagem no Sri
Lanka, vaguei pelas ruas de paralelepípedos de Altena, fazendo uma pergunta que atraiu
acenos sóbrios e conhecedores. O que aconteceu com Dirk Denkhaus?
Altena, como muitas outras cidades no noroeste industrial da Alemanha, estava em
declínio, explicariam os moradores, uma situação que deixava os jovens entediados e
desiludidos. A Alemanha recentemente aceitou quase um milhão de refugiados de zonas de
guerra distantes, que a maioria em Altena apoiou. Mas alguns acharam o influxo
desorientador. Esse era o contexto, diriam eles, para entender por que Denkhaus, um jovem
bombeiro estagiário que não era considerado nem perigoso nem político, tentou incendiar
uma casa de grupo de refugiados enquanto várias famílias dormiam lá dentro.
Mas aqueles que parei, sejam velhos ou jovens, citaram repetidamente outro fator que
chamaram de tão importante quanto os outros: o Facebook. Todo mundo aqui tinha visto
rumores nas redes sociais retratando os refugiados como uma ameaça. Eles encontraram o
vitríolo enchendo os grupos locais do Facebook, um contraste chocante com os espaços
físicos de Altena, onde as pessoas acenavam calorosamente para as famílias refugiadas.
Muitos aqui suspeitaram - e os promotores argumentariam mais tarde - que Denkhaus havia
se isolado em um mundo online de paranóia racista que gradualmente o mudou.
3. Superposters
artista de profissão, ostentando uma barba grisalha e um terno todo preto, ele parece
ter saído de um anúncio de TV para uma cerveja de luxo. Embora conservador, ele
dificilmente é radical. Mas ele é furiosamente ativo online, onde se encaixa no perfil
arquetípico do superposter. Ele publica fluxos de rumores, colunas de opinião
estridentes e reportagens sobre crimes cometidos por refugiados. Embora nenhum
deles tenha se transformado em discurso de ódio ou notícias falsas, no geral eles
retrataram a Alemanha como cercada por estrangeiros perigosos.
“No Facebook, é possível atingir pessoas que não são altamente políticas”, ele
nos disse durante o café. “Você pode construir as opiniões políticas das pessoas no
Facebook.” Ele descreveu o que disse ser um arco típico para as pessoas que
conheceu lá. Eles começariam como não particularmente políticos. Eles começaram
a postar com frequência, talvez graças a um súbito excesso de tempo livre, em
quaisquer itens que aparecessem em seus feeds. Eles se juntavam a grupos do
Facebook, onde ele os encontrava com frequência. Com o tempo, eles se tornaram
mais estridentemente políticos, disse ele. Assim como ele tinha.
Ele preferia a mídia social a jornais ou TV, disse ele, porque “o Facebook é mais
honesto”. Por exemplo, no Facebook, ele soube, disse ele, que o número de refugiados
na Alemanha e os crimes que eles cometeram eram maiores do que a mídia afirmava.
E ele fez o possível para ampliar essa revelação. “As coisas que as pessoas dizem
no Facebook são apenas mais verdadeiras”, disse ele. Como se percebesse o absurdo
de acreditar em tal coisa com fé pura, ele riu, acrescentando: “Acho que sim, de
qualquer maneira. Eu não sou Deus, eu não sei.”
Na maioria das vezes, deduzir as opiniões morais de nossos colegas não é tão fácil.
Então usamos um atalho. Damos atenção especial a um punhado de colegas que
consideramos influentes, seguimos suas sugestões e presumimos que isso refletirá as
normas do grupo como um todo. As pessoas que escolhemos como referências morais
são conhecidas como “referentes sociais”. Dessa forma, a moralidade é “uma espécie de
tarefa perceptiva”, disse Paluck. “Quem em nosso grupo está realmente aparecendo para
nós? Quem recrutamos em nossas memórias quando pensamos no que é comum, o que
é desejável?”
Para testar isso, Paluck fez sua equipe se espalhar por 56 escolas, identificando quais
alunos eram influentes entre seus colegas, bem como quais alunos consideravam o
bullying moralmente aceitável. Em seguida, ela escolheu vinte ou trinta alunos em cada
escola que pareciam se encaixar em ambas as condições: esses eram, presumivelmente,
os alunos que desempenhavam o maior papel na instilação de normas sociais pró-
bullying em suas comunidades. Eles foram solicitados a condenar publicamente o bullying
- não forçados, apenas solicitados. O empurrãozinho para essa pequena população
provou ser transformador. Referências psicológicas descobriram que milhares de
estudantes se tornaram internamente contrários ao bullying, suas bússolas morais
puxadas para a compaixão. Relatórios disciplinares relacionados ao bullying
Machine Translated by Google
errado sobre isso também; muitos em Traunstein rejeitaram os rumores como falsos.
Wolff temia que essa bolha do Facebook, o falso consenso comunitário, tivesse consequências.
Seus alunos refugiados tiveram café jogado sobre eles na rua, lixo jogado sobre eles das
janelas dos carros. A violência casual, à luz do dia, só se tenta com a suposição de que será
tolerada.
A violência nascida nas redes sociais tornou-se tão comum que a polícia começou a tratar
as plataformas como uma ameaça contínua à segurança pública.
“O Facebook não é apenas como um quadro de anúncios onde as pessoas penduram coisas
e outras as leem”, disse-nos um inspetor da polícia local chamado Andreas Guske durante um
café no dia seguinte. “O Facebook, com seu algoritmo, influencia as pessoas.”
Guske, um detetive veterano, um pouco grisalho, começou a levar a mídia social a sério como
uma ameaça em 2015, durante uma cúpula do Grupo dos Sete nas proximidades.
Quando os manifestantes chegaram, ele notou plataformas cheias de rumores, alguns dos
quais levaram a multidão a um frenesi paranóico. No ano seguinte, os ataques a refugiados
pareciam aumentar em conjunto com o discurso de ódio online. Ele reformulou a equipe que
supervisiona as comunicações do departamento para revidar, online e offline.
Eles se consideravam trabalhadores da saúde pública, vacinando as comunidades contra a
desinformação viral e suas consequências.
Em um caso recente, Guske me disse, o Facebook fervilhou com alegações de que um
grupo de refugiados muçulmanos em uma cidade perto de Traunstein arrastou uma menina
de onze anos para uma passagem subterrânea de pedestres e a estuprou. O boato, embora
falso, provocou ondas de indignação quando o Facebook o divulgou em toda a Alemanha.
Quando a polícia negou a história, os usuários insistiram que os políticos haviam ordenado
que eles o encobrissem. Os rumores começaram, a equipe de Guske descobriu, depois que
a polícia prendeu um imigrante afegão acusado de apalpar uma garota de dezessete anos.
À medida que os usuários do Facebook retransmitiam o incidente, alguns adicionavam
detalhes que chocavam ou indignavam, o que fez com que essas versões passassem rapidamente pela verdade.
Um agressor tornou-se vários. Um apalpar se tornou um estupro. Uma vítima adolescente
tornou-se um adolescente.
A polícia postou declarações no Facebook e no Twitter desmentindo o boato, reconstruindo
sua propagação. Se a polícia pudesse mostrar como as plataformas distorciam a realidade,
acreditava Guske, as pessoas seriam persuadidas a rejeitar o que viram ali. Mas ele também
sabia que, nas redes sociais, uma checagem sóbria de fatos nunca seria tão alta quanto um
boato lascivo. Assim, sua equipe identificou moradores locais que compartilharam o boato no
início de sua propagação e, em seguida, apareceram em suas casas com evidências de que
haviam entendido errado. Ele pediu
Machine Translated by Google
Em uma democracia rica como a Alemanha, o resultado pode não ser tão óbvio quanto um
linchamento ou uma rebelião. Pode ser pior. O centro político do país estava em colapso. A
extrema-direita alemã estava em ascensão.
“Um dos alunos da minha escola foi mandado de volta para a África”, disse a mulher
com aprovação. A deportação ocorreu devido a um erro em sua papelada de imigração.
“Todos eles devem ser enviados de volta.”
Machine Translated by Google
4. Escurecendo
Uma mulher sardenta que se mudou da Colômbia para cá na década de 1980 achou
relaxante. Ela socializava mais com os vizinhos e acompanhava menos as notícias.
Sua filha, uma estudante de medicina, disse que não havia percebido quanta ansiedade
as plataformas lhe causavam até passar alguns dias sem elas. A interrupção, disse
ela, deixou claro até que ponto “quando as notícias se espalham no Facebook, elas se
tornam mais provocativas”. Sua mãe concordou. Quando sua Colômbia natal realizou
eleições algumas semanas antes, ela disse, seu feed de notícias, dominado por
colegas colombianos, se encheu de brigas partidárias e indignação – e, como se fosse
um script, com medo de refugiados.
“Foi o modelo de negócios que nos colocou em apuros”, Hany Farid, um cientista da
computação da UC Berkeley que havia consultado governos e grupos de direitos humanos
sobre os perigos emergentes na rede social, me disse mais tarde naquele ano.
“Quatrocentas horas de YouTube carregadas a cada minuto. Um bilhão de uploads para
o Facebook por dia. Trezentos milhões de tweets por dia. E é meio que uma bagunça”,
disse ele. “As empresas de tecnologia, eu nem diria que adormeceram no trabalho. Eu
diria que eles estavam com os olhos bem abertos. Acho que eles sabiam exatamente o
que estavam fazendo. Eles sabiam que o veneno estava na rede.
Eles sabiam que tinham um problema. Mas era tudo sobre crescimento agressivo.
Foi aí que começou o problema.”
Farid respirou fundo, voltando ao assunto sobre o qual eu havia ligado, uma tecnologia
especializada que as plataformas usavam. Mais tarde, porém, perto do final de uma
explicação técnica, quando ele se deparou com uma referência ao YouTube, sua voz
aumentou novamente. “O YouTube é o pior”, disse ele. Do que ele considerava as quatro
principais empresas da web - Google/YouTube, Facebook, Twitter e
Machine Translated by Google
Nove
a toca do coelho
1. A revolta do YouTube
quase meio milhão de visualizações - muito mais do que qualquer vídeo de notícias sobre os distúrbios.
Como isso foi possível?
Curioso, Serrato aplicou um conjunto de técnicas que usava em seu trabalho diário, rastreando o
discurso de ódio online em Mianmar para um grupo de monitoramento da democracia.
Ele começou com uma dúzia de vídeos recentes sobre Chemnitz e, em cada um, raspou as
recomendações do YouTube sobre o que assistir a seguir. Então ele fez o mesmo para esses vídeos e
assim por diante. Ele revelou uma rede de cerca de 650 vídeos: o ecossistema de conteúdo Chemnitz
cultivado pelo YouTube. Perturbadoramente, as recomendações do YouTube agruparam-se fortemente
em torno de um punhado de conspirações ou vídeos de extrema-direita. Isso sugeria que qualquer
usuário que entrasse na rede de vídeos de Chemnitz - digamos, procurando atualizações de notícias
ou assistindo a um clipe enviado a eles por um amigo - seria atraído pelo algoritmo do YouTube para
conteúdo extremista. Questionado sobre quantos passos levaria, em média, para um visualizador do
YouTube que abriu um clipe de notícias de Chemnitz e se viu assistindo a propaganda de extrema-
direita, Serrato respondeu: “Apenas dois”. Ele acrescentou: “Até o segundo, você está bem afundado
na direita alternativa”.
Serrato descobriu que os espectadores que assistiam a qualquer coisa sobre Chemnitz em
O YouTube, como um clipe de notícias, foi rapidamente recomendado para o Flesch
Machine Translated by Google
canal. Flesch postou quatorze vídeos sobre o assunto, todos os quais apareceram nas
recomendações do YouTube, semeando a plataforma com as mesmas falsidades de isca
racial sobre as quais Sören Uhle mais tarde seria questionado. Outros canais de conspiração
e de extrema direita rapidamente pegaram a versão de Flesch dos eventos, transformando
uma briga de rua isolada em um conto da virtude branca em perigo.
O algoritmo do YouTube também os impulsionou.
Mesmo os alemães que pesquisaram no Google por notícias sobre Chemnitz foram
direcionados aos conspiradores do YouTube. O Google frequentemente promove vídeos do
YouTube perto do topo dos resultados de pesquisa, um ato de sinergia corporativa projetado
para aumentar a receita. Isso significa que as práticas do YouTube não ficam no YouTube;
como o Google domina as buscas na internet, essas práticas influenciam como praticamente
qualquer pessoa na web encontra e acessa notícias e informações.
À medida que o YouTube e o Google desviavam mais alemães para vídeos sobre
Chemnitz repletos de falsidades, o interesse pela cidade crescia, inclusive entre muitos fora
da extrema direita. As vozes do YouTube recebendo toda essa atenção convocaram seus
seguidores em rápido crescimento para mostrar seu apoio à vítima de esfaqueamento indo a
Chemnitz. Os moradores disseram que nos dias anteriores à violência, as teorias da
conspiração se tornaram estranhamente comuns, sussurradas em bares e bebedouros. Então
as multidões chegaram, espumando para tomar de volta a cidade dos estrangeiros. Logo eles
se revoltaram, saqueando lojas e brigando com a polícia. Muitos dos manifestantes deram
crédito ao YouTube por colocá-los lá.
Foi o colapso do Sri Lanka, batida por batida, no coração da Europa. Mas havia uma
diferença importante. As mídias sociais, no Sri Lanka, radicalizaram um grupo social do
mundo real com uma identidade fortemente defendida, os cingaleses. Na Alemanha, porém,
os manifestantes de Chemnitz eram algo novo.
Certamente havia neonazistas endurecidos na multidão, mas muitos não pertenciam a
nenhuma causa ou grupo distinto. O YouTube, em vez de ativar uma comunidade preexistente
com uma identidade preexistente, criou uma do nada. Ele construiu a rede em seus sistemas,
uniu-a com uma realidade e crenças compartilhadas e então a colocou no mundo, tudo em
questão de dias. Isso era algo muito mais profundo do que a violência vigilante inspirada no
Facebook que eu tinha visto no país apenas alguns meses antes.
2. Unir a direita
Foi um momento aha para Kaiser, que viu um paralelo com os negacionistas alemães
da mudança climática. “É tudo muito pequeno e fragmentado”, disse ele sobre o movimento
de ceticismo climático de seu país. “Realmente o único lugar onde eles
Machine Translated by Google
O YouTube poderia estar fazendo algo semelhante? Kaiser se perguntou. Uma das
redes que a plataforma havia costurado no Gamergate era a direita alternativa.
A extrema direita existia há décadas, ele sabia. Mas online agora parecia entrelaçado
com círculos de mídia social que tinham pouco a ver com política, fundindo-se em algo
maior, algo novo. Depois de terminar seu doutorado, Kaiser se juntou a Adrian
Rauchfleisch, um estudante de pós-graduação suíço com interesses semelhantes e
talento para programação, que se tornaria seu parceiro de pesquisa de longa data. A
dupla reaproveitou as ferramentas que Kaiser havia desenvolvido para rastrear o
ceticismo em relação às mudanças climáticas, agora para entender a extrema-direita
ascendente da Alemanha.
Mas eles suspeitavam que qualquer lição também se aplicaria aos Estados Unidos.
Era verão de 2016, com Donald Trump subindo nas pesquisas. Kaiser reconheceu os
links de Trump para os nacionalistas brancos alinhados ao Gamergate que ele viu no
YouTube, bem como os paralelos com a direita alternativa de seu próprio país.
Embora o conjunto de dados inicial dele e de Rauchfleisch fosse alemão, a preocupação
deles se concentrava cada vez mais na América.
Eles começaram com o YouTube, onde várias das principais vozes da direita
alternativa, tanto alemãs quanto americanas, começaram. Muitos o descreveram como
sua base digital de operações. No entanto, foi a menos estudada das principais
plataformas, ainda principalmente uma caixa preta. Kaiser e Rauchfleisch mapeariam o
YouTube, mapeando como as recomendações da plataforma orientavam os usuários.
Seria o que Serrato havia feito com os vídeos de Chemnitz, mas em uma escala milhares
de vezes maior — talvez milhões.
Eles treinaram um computador para rastrear as recomendações do YouTube de um
punhado de canais alemães conhecidos, depois do próximo e do seguinte. Eles
Machine Translated by Google
O projeto levou um ano, até o verão de 2017. A vitória de Trump elevou as apostas.
Se algo semelhante estava acontecendo na América, eles sabiam, então isso
significava que as forças que eles identificaram na Alemanha agora dominavam a
nação mais poderosa do mundo. Isso tornaria a compreensão desse movimento –
suas partes constituintes e como elas se conectam – uma questão de importância
urgente. Antes que eles tivessem uma chance, algo que parecia muito com a
comunidade formada digitalmente que eles encontraram na Alemanha surgiu no que
antes era o coração da Confederação.
Andrew Anglin, a estrela do 4chan que virou neonazista. Anglin havia declarado um “verão
de ódio”, encorajando comícios no mundo real. À medida que o ritmo de uma mega-reunião
crescia online, um ativista chamado Richard Spencer começou a organizar uma em
Charlottesville. Spencer, que cunhou o termo direita alternativa como um verniz amigável
para o nacionalismo branco para atrair os universitários, vivia nas mídias sociais,
principalmente como um convidado regular nos canais de direita do YouTube. Certa vez,
ele disse a um repórter: “Nós nos lembramos de que tudo existia”.
Enquanto Spencer e Anglin promoviam a manifestação, os moderadores do The_Donald
do Reddit endossaram o evento e encorajaram a participação.
Mas foi o Facebook que transformou o evento de um encontro do Redditor em uma
festa de apresentação de transextremistas, determinou Megan Squire, uma estudiosa do
extremismo online da Elon University. Em um estudo que examina a importância da
plataforma, ela identificou pela primeira vez 1.870 grupos e eventos de extrema-direita no Facebook.
Ela os encontrou verificando os perfis de extremistas conhecidos, pesquisando termos
associados à extrema direita e, é claro, seguindo o algoritmo de “grupos sugeridos” do
Facebook, que a direcionou com fluidez para um universo de ódio. Ela raspou a lista de
membros de cada grupo. Em seguida, ela fez uma análise de rede, como a Kaiser fez com
o YouTube, para visualizar tudo. Cada grupo do Facebook era um nó. Quanto mais
membros compartilhados entre quaisquer dois grupos, mais próximos esses dois nós.
Em uma rede social mais neutra, o resultado poderia ter sido resolvido como cinco ou
seis grupos distintos — digamos, revivalistas da Confederação, neonazistas, milícias
antigovernamentais, círculos de memes da direita alternativa — que se mantinham
isolados no mundo off-line. Mas no Facebook, assim como no YouTube na Alemanha, a
plataforma fundiu essas comunidades díspares, criando algo totalmente novo. E bem no
centro: a página do evento Unite the Right.
Jonas Kaiser, agora nos Estados Unidos, tendo assumido um cargo de professor júnior
em Harvard, ficou horrorizado. “Vindo da Alemanha, provavelmente fui um pouco ingênuo”,
disse ele. Nos comícios de extrema-direita na Alemanha, disse ele, “alguns nazistas vão
para a rua e gritam, e geralmente os contra-manifestantes superam em muito os nazistas”.
A manifestação dos nacionalistas brancos em Charlottesville foi algo muito mais sísmico.
“Isso aumentou a urgência”, disse ele, tanto para ele quanto para Rauchfleisch.
identificar muito mais do que simples conexões. Eles poderiam mapear não apenas
a rede como um todo, como fizeram na Alemanha, mas como o algoritmo roteava os
usuários dentro dela, incluindo quais canais tratava como pontos de entrada e quais
como destinos. Era a diferença entre mapear uma cidade e mapear seu tráfego.
3. Crise e Solução
destruindo o espírito masculino - e um conjunto fácil de respostas. Limpe seu quarto. Sente-se direito.
Reafirmar as hierarquias tradicionais.
“As pessoas nessas comunidades muitas vezes se afogam em desespero e são suscetíveis à
corrupção pelo mal carismático e lúcido que lhes oferece o que parece ser a única tábua de salvação”,
tuitou um ex-adepto. O algoritmo do YouTube, em muitos casos, aproveitou esse descontentamento,
recomendando canais que levaram a mensagem de Peterson a extremos cada vez maiores. “As etapas
comuns da ferrovia”, escreveu o usuário, eram “Jordan Peterson—> Stefan Molyneux—> Desgraças
do Milênio”. (Molyneux, um supremacista branco que se apresenta como terapeuta e filósofo “apenas
fazendo perguntas”, trabalhou na obscuridade até ingressar no YouTube. Quando a pressão pública
obrigou a empresa a remover sua página em junho de 2020, ele tinha mais de 900.000 assinantes e
alcançou muito mais por meio de recomendações automatizadas.) Era exatamente o tipo de caminho
algorítmico que Kaiser estava mapeando em seu laboratório, o mesmo que ele descobriu gráficos do
YouTube repetidas vezes.
Os dados sugerem que essa sequência promocional está convertendo usuários em grande escala.
Os usuários que comentam nos vídeos de Peterson tornam-se subsequentemente duas vezes mais
propensos a aparecer nos comentários dos canais de extrema-direita do YouTube, descobriu um estudo
de Princeton. O próprio Peterson não recomenda os canais — o algoritmo faz a conexão. Essa era a
outra peça essencial do quebra-cabeça que Kaiser e Rauchfleisch estavam trabalhando para resolver.
Eles estavam medindo como o YouTube movia seus usuários. Mas seus mapas de rede não podiam
dizer por que o sistema fez as escolhas que fez. Foram necessários psicólogos e pesquisadores do
extremismo para revelar a resposta.
group oferece a solução. Se esse sentimento de conflito aumentar demais, pode atingir o
ponto de radicalização, no qual você vê o grupo externo como uma ameaça imutável sobre
a qual apenas a vitória total é aceitável. “A escala da crise torna-se mais extrema e a
solução prescrita torna-se mais violenta”, escreveu Berger, até que destruir o exogrupo se
torna o núcleo da identidade compartilhada do endogrupo. “A geração atual de plataformas
de mídia social”, acrescentou, “acelera a polarização e o extremismo para uma minoria
significativa”, permitindo e encorajando exatamente esse ciclo.
Solitário sim, mas não solitário: por meses, ele ferveu em fóruns da web, depois no
YouTube, onde seus vídeos se tornaram tão odiosos que seus próprios pais uma vez
chamaram a polícia. Ele era o produto de uma comunidade digital, abrangendo 4chan,
Reddit e YouTube, cujos membros se autodenominam “incels” por seu celibato involuntário.
Os fóruns do Incel começaram como lugares para compartilhar histórias sobre a sensação de solidão.
Os usuários discutiram como lidar com a vida “sem abraços”. Mas as normas de
superioridade da mídia social, de busca de atenção, ainda prevaleciam. As vozes mais
altas se levantaram. As visões tornaram-se mais extremas. A indignação prevalecente nas
plataformas reinterpretou as lutas individuais como uma luta tribal de Nós e Eles. Os incels
assumiram uma crença central radicalizadora: as feministas estão conspirando para
subjugar e emascular nossa subclasse de homens de baixo status.
In-group e out-group. Crise e solução.
Em 2021, cinquenta assassinatos foram reivindicados por autodenominados incels,
uma onda de violência terrorista. Um pequeno YouTuber atirou em quatro mulheres até a
morte em um estúdio de ioga na Flórida. Um superusuário do Reddit dirigiu uma van no
meio de uma multidão de pedestres em Toronto. Um incel do 4chan postou ao vivo
enquanto matava uma garota de dezessete anos, para aplausos de outros usuários, e
depois tentou se matar. Rodger permanece amplamente celebrado como um herói entre os incels.
Machine Translated by Google
O movimento era uma franja de franja, ofuscado pelo Pizzagate ou pela direita alternativa.
Mas deu a entender o potencial da mídia social para galvanizar a anomia do jovem homem
branco em comunidades inteiras de extremismo – um fenômeno cada vez mais difundido. Quando
um grupo paramilitar de extrema-direita chamado Oath Keepers pesquisou seus 25.000 membros
sobre como eles chegaram ao movimento, a resposta mais comum foi o Facebook, seguido pelo
YouTube.
David Sherratt, um ex-extremista, disse ao Daily Beast que sua descendência começou, aos
quinze anos, assistindo a clipes de videogame. O sistema o recomendou em vídeos pró-ateísmo,
que contam ciência e matemática
Machine Translated by Google
crianças, elas fazem parte de uma minoria ultrarracional sitiada por guerreiros da justiça
social. Em seguida, vídeos antifeministas, depois vídeos de “direitos dos homens”
alinhados ao incel, alguns dos quais ele mesmo contribuiu, e então vídeos neonazistas
diretos.
Em 2018, uma agência chamada Bellingcat vasculhou um arquivo de salas de bate-
papo privadas de extrema direita que totalizaram centenas de milhares de mensagens.
Os investigadores procuraram casos em que os usuários mencionaram como chegaram à
causa. O ponto de entrada mais comum que eles citaram: YouTube. Eles começavam
com vídeos banais, diziam muitos, e depois eram recomendados para canais cada vez
mais extremos. Era a mesma história que todo mundo estava contando.
Ela havia caído no que é conhecido como a toca do coelho. O termo já descrevia
qualquer noite ou tarde passada seguindo as recomendações do YouTube onde quer que
fossem. Talvez você tenha acessado um clipe de comédia favorito e depois recostado
enquanto o sistema o conduzia pelos sucessos do comediante. Mas em 2018, depois que
o sistema Reinforce foi implementado, “toca do coelho” se referia cada vez mais a seguir
canais políticos do YouTube em direção ao extremismo. Os usuários caíram nesses
buracos, quer tivessem procurado vídeos políticos ou não, muitas vezes levados a lugares
que não procuravam ir – lugares ainda mais perturbadores do que a extrema direita.
Foi o que tornou suas outras descobertas tão importantes, a segunda delas foi
que, como há muito se suspeitava, as recomendações do YouTube geralmente iam
para o extremo mais extremo de qualquer rede em que o usuário estivesse. Assista
a um clipe da CNN ou da Fox News e as chances de ser recomendado para um
vídeo de conspiração eram altos o suficiente para que, com o tempo, essa fosse a
direção que o usuário médio tendia a seguir.
E então a terceira descoberta. Em uma versão ainda mais perigosa do que eles
viram na Alemanha, as recomendações do sistema agrupavam os principais canais
de direita, e até mesmo alguns canais de notícias, com muitos dos mais virulentos
propagadores de ódio, incels e teóricos da conspiração. À medida que o algoritmo
atraiu os usuários para essas vozes extremas, concedeu-lhes uma influência
descomunal sobre as narrativas, agendas políticas e valores para o todo maior.
Isso foi mais do que apenas expandir o alcance da extrema direita. Estava unindo
uma comunidade mais ampla ao seu redor. E em uma escala - milhões de pessoas -
os organizadores de Charlottesville só poderiam ter sonhado. Aqui,
Machine Translated by Google
finalmente, foi uma resposta para o porquê de tantas histórias de pessoas caindo em
buracos de coelho de extrema-direita. Alguém que chegasse ao YouTube com interesse
em tópicos favoráveis à direita, como armas ou politicamente correto, seria encaminhado
para um mundo construído pelo YouTube de nacionalismo branco, misoginia violenta e
conspiração enlouquecida, e então puxado ainda mais para seus extremos.
havia travado “uma batalha quase inconcebível com o Facebook para nos fornecer a
proteção mais básica” contra o incitamento que emanava da plataforma. “Nossas
famílias estão em perigo”, escreveram eles, “como resultado direto das centenas de
milhares de pessoas que veem e acreditam nas mentiras e no discurso de ódio, que
vocês decidiram que deveriam ser protegidos”.
Mas as empresas se empenharam. Quando perguntado por que o Facebook não
removeria Alex Jones, o vice-presidente da empresa para o feed de notícias, John
Hegeman, disse: “Criamos o Facebook para ser um lugar onde pessoas diferentes
podem ter voz”. Zuckerberg, enfrentando a mesma questão, criticou a natureza da
liberdade de expressão: “Sou judeu e há um grupo de pessoas que nega que o
Holocausto tenha acontecido. Acho isso profundamente ofensivo. Mas, no final das
contas, não acredito que nossa plataforma deva derrubar isso, porque acho que há
coisas que diferentes pessoas entendem errado. Eu não acho que eles estão
entendendo errado intencionalmente.”
Era o antigo Vale do Silício. Se Zuckerberg estava disposto a sacrificar o consenso
histórico sobre a tentativa de extermínio de seus antepassados em prol de um ideal
tecnolibertário de liberdade de expressão, então todos os outros também deveriam. E,
como muitos dos líderes do Vale, ele parecia ainda estar vivendo em um universo
alternativo onde as plataformas são veículos neutros sem nenhum papel em moldar as
experiências dos usuários, onde a única consequência no mundo real é que alguém
pode se ofender, e onde a sociedade apreciaria a sabedoria de permitir que a negação
do Holocausto floresça.
Esse era o problema de Alex Jones: o Vale do Silício não conseguia agir de acordo
com o interesse público, nem mesmo aparentemente com seu próprio interesse,
extirpando um problema que incorporava, até mesmo personificava, as crenças de sua
indústria, inscritas nos sistemas que, afinal, elevou Jones ao que ele era.
Engajamento é igual a valor. Mais conexão constrói compreensão. A liberdade de
expressão vence a má fala. Agir significaria reconhecer que esses ideais eram falhos,
perigosos. Puxe esse fio e tudo pode se desfazer.
A reação piorou. Em julho daquele ano, o Facebook suspendeu Jones por um mês,
uma desculpa para os críticos. Finalmente, em agosto, a Apple retirou vários programas
de Jones de seu serviço de podcast. O Facebook e o YouTube seguiram o exemplo
em poucas horas, banindo-o. Apenas o Twitter se manteve desafiador. “Vamos manter
Jones no mesmo padrão que mantemos para todas as contas, não tomando medidas
pontuais para nos fazer sentir bem a curto prazo”, twittou Jack Dorsey, CEO do Twitter.
Mas o Twitter acabou removendo Jones também. Embora as empresas tenham dado
Machine Translated by Google
sob a pressão do público, no entanto, eles não pareciam aceitar que o público
estivesse certo. Zuckerberg disse mais tarde ao The New Yorker: “Não acredito que
seja certo banir uma pessoa por dizer algo que é factualmente incorreto”.
No Twitter, Dorsey, apesar de todo o seu desafio, estava mudando para os tipos
de mudanças mais profundas, para a natureza central da plataforma, que o Valley
havia resistido por muito tempo. Ou, pelo menos, parecia ser. A capitalização de
mercado do Twitter permaneceu abaixo de seu pico, em abril de 2015, antes de
Dorsey voltar para assumir, e sua base de usuários mal cresceu no ano passado.
Mas, em vez de turbinar seus algoritmos ou reformular a plataforma para trazer à
tona argumentos e emoções, como o YouTube e o Facebook fizeram em meio a
métricas estagnadas, Dorsey anunciou que todo o conceito por trás da mídia social era tóxico.
“Não previmos ou entendemos totalmente as consequências negativas no
mundo real” do lançamento de uma plataforma “instantânea, pública e global”,
escreveu ele em março. Ele admitiu que isso resultou em danos reais. Ele começou,
em entrevistas, levantando voluntariamente ideias heréticas que outros CEOs de
tecnologia continuaram a rejeitar fervorosamente: maximizar o engajamento é
perigoso; curtidas e retuítes encorajam a polarização. A empresa, disse ele, faria
uma reengenharia de seus sistemas para promover conversas “saudáveis” em vez
de envolventes. Ele contratou especialistas proeminentes e grupos de pesquisa
para desenvolver novos recursos ou elementos de design para fazê-lo.
Mas praticamente nenhum desses esforços saiu do papel. Os especialistas
externos, enfrentando atrasos de meses ou mudanças abruptas de políticas,
desistiram frustrados. Não ficou claro se a experiência de Dorsey em reimaginar o
Twitter fracassou porque sua atenção se desviou, porque investidores cada vez
mais rebeldes pressionaram o Twitter para impulsionar o crescimento ou porque as
soluções se mostraram intragáveis para uma empresa ainda presa à mentalidade
do Vale do Silício. Contas de funcionários do Twitter sugerem que provavelmente
foi uma combinação dos três.
Enquanto isso, no YouTube, tudo estava normal. Os sistemas da plataforma
continuaram projetando comunidades marginais de alto engajamento. Naquele ano,
Asheley Landrum, uma psicóloga cognitiva, descobriu um em Denver, em uma
conferência para pessoas que acreditavam que a Terra era plana. O terráqueo
plano, extinto por séculos, estava subitamente ressurgindo. Os professores de
ciências relataram que os alunos os desafiaram com cálculos de curvatura e
diagramas marcados. Uma estrela da NBA saiu como um
Machine Translated by Google
5. Um Grande Despertar
EM OUTUBRO DE 2017, dois meses após o comício Unite the Right em Charlottesville,
um pequeno post apareceu no quadro de política do 4chan com o nome de usuário Q
Clearance Patriot. O usuário insinuou que era um oficial de inteligência militar em uma
operação para prender os participantes em
Machine Translated by Google
Pizzagate, a conspiração alegando que os líderes democratas dirigiam uma quadrilha global
de tráfico de crianças. O usuário, que alegou ter uma autorização do governo de nível Q,
anunciou que a extradição de Hillary Clinton já estava “em andamento” e que a Guarda
Nacional havia sido mobilizada para combater “motins massivos organizados em desafio”.
Mas foi o segundo post que estabeleceu o estilo pelo qual Q seria conhecido:
Mockingbird
HRC detido, não preso (ainda).
Onde eles estão? Siga-os.
Isso não tem nada a ver com a Rússia (ainda).
A postagem continuou por mais vinte linhas. As referências são enigmáticas o suficiente
para que os usuários sintam que estão decifrando um código secreto e óbvias o suficiente
para garantir que o farão. Como a página de abertura de um romance de espionagem, ele
estabeleceu os fundamentos de uma trama que permaneceria consistente através de milhares
de “Q drops”, como os fãs chamavam as postagens. Trump e seus generais estavam se
preparando para prender milhares de conspiradores democratas e impor um regime militar
em um dia de acerto de contas sangrento e glorioso.
Nos meses seguintes, a história aumentou. Dezenas ou centenas de milhares seriam
presos: elites culturais, financistas, burocratas do “estado profundo” e espiões. Por gerações,
essa cabala controlou secretamente a vida americana, responsável por dificuldades desde
Pizzagate até a injustiça da ordem econômica. Agora eles seriam executados, o National Mall
convertido em um campo de extermínio. Alguns já haviam sido substituídos por dublês, um
primeiro ataque silencioso no plano de Trump.
Seguidores tem mais do que uma história. QAnon, como o movimento se autodenominava,
tornou-se uma série de comunidades online onde os crentes se reuniam para analisar as
postagens de Q. Eles procuraram pistas e significados ocultos nas gotas e, por insistência de
Q, nas coisas efêmeras da política cotidiana. O comentário improvisado de Trump sobre o
Congresso foi uma referência codificada ao próximo expurgo? Sua mão estranhamente
posicionada é um sinal para a 101ª Aerotransportada? Era um jogo sem fim, uma atividade
de grupo socialmente ligada que mapeava a vida cotidiana.
Grupos extremistas há muito recrutam com a promessa de atender à necessidade de
propósito e pertencimento de seus adeptos. O ódio às vezes é apenas a cola que
Machine Translated by Google
maximizado.
No momento em que os americanos perceberam que isso era algo perigoso, os
grupos QAnon no Facebook tinham milhões de membros, os vídeos QAnon no
YouTube ganharam milhões de visualizações e as contas QAnon no Twitter
organizaram campanhas de assédio em massa visando celebridades que acusaram
de conspirações bizarras e canibalísticas. Um aplicativo que agregou Q drops se
tornou um dos downloads mais populares da App Store. Um livro, QAnon: An Invitation
to a Great Awakening, escrito por um coletivo de seguidores anônimos, alcançou o
segundo lugar na lista de best-sellers da Amazon. Os membros passavam a vida
imersos na comunidade, marcando horas por dia em chats de vídeo e tópicos de
comentários que se tornaram seu mundo.
Em maio de 2018, um QAnon YouTuber invadiu uma fábrica de cimento no Arizona
que ele disse ser o centro de uma quadrilha de tráfico de crianças, transmitindo seu
confronto para centenas de milhares de visualizadores do Facebook. No mês seguinte,
outro adepto, carregando um fuzil AR-15, bloqueou as duas faixas de tráfego na
Represa Hoover com um caminhão blindado feito em casa, exigindo que o governo
divulgasse um relatório que Q havia mencionado na mensagem do dia anterior. Outro
foi preso em Illinois com material de bomba que pretendia detonar no prédio do
Capitólio do estado, visando molestar crianças satanistas que ele acreditava terem
assumido. Ainda outro dirigiu até a casa de um chefe da máfia de Staten Island, que
ele acreditava que Q havia marcado como um conspirador do estado profundo, e o
matou a tiros. O FBI, em um memorando interno, identificou QAnon como uma
potencial ameaça de terrorismo doméstico. No entanto, o Facebook, o YouTube e o
Twitter, assim como Alex Jones, se recusaram a agir, permitindo que o movimento,
impulsionado pelos vieses de suas plataformas, continuasse crescendo.
Praticamente toda a extrema-direita online parecia ter sido atraída. Assim como
muitos policiais, atraídos por suas promessas de ordem e retribuição contra os liberais.
O chefe do sindicato do NYPD deu entrevistas na TV com sua caneca QAnon no
quadro. O vice-presidente Mike Pence foi fotografado ao lado de um oficial da equipe
SWAT da Flórida usando um distintivo Q.
O movimento migrou para o Instagram, que promoveu o QAnon com força suficiente
para que muitas das mães de ioga e influenciadores de estilo de vida que dominam a
plataforma fossem arrebatados.
Mas, apesar de todos os sentimentos de autonomia, segurança e comunidade que
QAnon oferecia, isso teve um custo: isolamento esmagador. “Vão ser patriotas
honestos”, escreveu um QAnoner popular em um tweet amplamente compartilhado no
Machine Translated by Google
6. Niilismo digital
Em seu primeiro ano de faculdade, Adam, o usuário vitalício do 4chan de Dallas, mudou
sua fidelidade para o 8chan. Era 2014, com QAnon e muito mais ainda por vir, mas a
promessa do 8chan de dar as boas-vindas aos Gamergaters, banidos até do 4chan, o
marcou como o último verdadeiro lar da liberdade de expressão. Suas discussões sem
restrições e conteúdo extremo lhe renderam a reputação de barra pirata da web social,
repleta de conteúdo que não podia ser visualizado em nenhum outro lugar. “Eu vi tanta
merda,” Adam me disse. “Decapitações de cartel, pornografia horrível que não deveria
existir, nem quero entrar em detalhes. Mas vemos isso centenas de vezes e, então, os
problemas da vida real começam a parecer menos impactantes.”
Era um limite no estilo 4chan, sem nem mesmo as normas ou regras do 4chan. Os
8channers foram a novos extremos como defesa coletiva contra a anomia que, como
rejeitados dos rejeitados, desajustados dos desajustados, eles centravam em sua
identidade comum. “A teoria deles sobre o que eles estavam fazendo lá, o que eles
estavam ganhando com isso, era que eles estavam aprendendo a não serem acionados
por pessoas pressionando seus botões emocionais ou ideológicos”, escreveu Dominic
Fox, um engenheiro de software, sobre os chans. “O mundo real era um lugar duro e
indiferente, e qualquer um que fingisse se importar ou precisar de cuidados estava, por
definição, envolvido em fraude, uma espécie de fraude.” Portanto, de acordo com Fox,
em seu pensamento, “a única maneira de se livrar desse controle era olhar para memes
racistas, fotos de acidentes de carro, pornografia horripilante e assim por diante, até
que alguém pudesse fazê-lo com total serenidade”. Era, escreveu ele, uma cultura de
“autodessensibilização deliberada”.
Com o tempo, assim como a transgressividade do 4chan se tornou um lema dentro
do grupo, o mesmo aconteceu com a dessensibilização no 8chan. Tolerar coisas muito
chocantes ou insuportáveis para estranhos era uma forma de provar que você pertencia.
Você também foi entorpecido e derrotado, seus olhos estavam abertos, você era um
soldado em uma irmandade do vazio. Em seções mais duras, os usuários que
encontraram conforto e comunidade nessa prática buscaram tabus cada vez maiores até
Machine Translated by Google
voltou ao salão principal de orações, onde atirou novamente nos corpos das
vítimas já mortas ou moribundas. No momento em que ele voltou para a entrada,
apenas cinco minutos depois de chegar, ele havia assassinado 43 pessoas. O
mais velho tinha setenta e sete anos, o mais novo apenas três. No caminho em
direção ao seu carro, ele parou diante de uma mulher caída no chão, sangrando
muito, mas viva. Ele se inclinou sobre ela. Naquele momento, duzentas pessoas
assistiram ao vivo no Facebook, transmitindo o ponto de vista do smartphone em
seu peito, enquanto ele a ouvia implorar por sua vida e depois a matou.
Ele dirigiu, desviando pelas faixas de tráfego a mais de 150 quilômetros por
hora, atirando pela janela do carro, para outra mesquita suburbana, onde
assassinou mais sete pessoas. Abdul Aziz Wahabzada, um imigrante afegão de
48 anos, interrompeu seu ataque, arremessando uma máquina de cartão de crédito
nele e mergulhando atrás de um carro. Enquanto o atirador se rearmava,
Wahabzada correu para frente, pegou uma espingarda vazia que o atirador havia
deixado cair e apontou para ele. Acossado, o atirador partiu quando Wahabzada
acertou a espingarda na janela traseira de seu carro, estilhaçando-a. No caminho
do atirador para uma terceira mesquita, dois policiais rurais, visitando a cidade
para uma sessão de treinamento, bateram com o carro no meio-fio e o prenderam.
Em poucas horas, ficou claro que o assassino, um australiano de 28 anos
chamado Brenton Tarrant, representava um novo tipo de extremismo violento, a
escuridão total da rede social profunda manifestada. “Bem, rapazes, é hora de
parar de postar merda e fazer uma postagem de esforço da vida real”, ele escreveu
no fórum de política do 8chan horas antes do ataque. Ele vinculou seu Facebook
Live, incentivando os usuários a assistir seu “ataque contra os invasores”. E ele
anexou um arquivo de texto de setenta páginas explicando a si mesmo, que ele
também twittou. “Vocês são todos os melhores caras e o melhor bando de
sapateiros que um homem poderia desejar”, escreveu ele. “Por favor, faça sua
parte espalhando minha mensagem, fazendo memes e fazendo merda como você costuma fazer.”
Os usuários que o seguiram ao vivo, os 4.000 que assistiram ao vídeo antes
de o Facebook removê-lo e inúmeros outros que viram milhões de recarregamentos
na web, o ouviram dizer, momentos antes de começar a matar: “Lembrem-se,
rapazes, assinem o PewDiePie .” Foi, em uma sugestão dos motivos distorcidos
de Tarrant, uma piada interna da mídia social. Fãs de PewDiePie, o jogador mais
popular do YouTuber, com mais de 100 milhões de inscritos em seu canal,
recentemente espalharam a web - e, em uma pegadinha, bloquearam
Machine Translated by Google
instalar aparelhos de fax do escritório — com a mesma frase. O YouTuber também foi alvo de
acusações (em grande parte equivocadas) de flertar com o nacionalismo branco. A referência de
Tarrant pretendia ser um troll da mídia, desafiando-os a atribuir sua violência a PewDiePie, e uma
piscadela para outros trolls da Internet que entrariam na piada.
O terrorismo é a violência destinada a ameaçar uma comunidade mais ampla por causa de fins
políticos ou simples malícia. Mas também é tipicamente uma performance e um ato de solidariedade
com um grupo. Foi por isso que os recrutas do Estado Islâmico, especialmente os “lobos solitários”
radicalizados pela internet, que nunca se encontraram pessoalmente com outro membro, inundaram
os fóruns jihadistas com manifestos e mensagens de martírio gravadas em vídeo que fariam sentido
apenas para outros crentes.
Foi também por isso que as palavras finais escritas de Tarrant expressaram principalmente
afeição pela comunidade pela qual, ele deixou claro, estava fazendo isso. Em seu documento,
Tarrant escreveu que havia aprendido “etnonacionalismo” com Spyro: Year of the Dragon, um
videogame infantil. Ele agradeceu a Candace Owens, uma popular youtuber de direita alternativa,
por ensiná-lo a abraçar a violência.
Ele se gabou em um parágrafo: “Sou treinado em guerra de gorilas e sou o melhor atirador de todas
as forças armadas dos EUA”. Todos eram piadas internas da web social.
Mas para cada piada ou troll havia páginas de invocações aparentemente sinceras de
conspirações de extrema-direita, slogans nazistas e apelos para uma guerra racial global para
expulsar e extinguir não-cristãos e não-brancos. Acima de tudo, Tarrant cercou sua violência com
piadas internas que se tornaram, para sua comunidade, mortalmente sinceras, personificações de
sua deriva do extremismo irônico para o extremismo que era meramente encoberto pela ironia.
Durante sua transmissão ao vivo, enquanto dirigia, ele tocou uma música de um vídeo granulado
de 1992 de um ultranacionalista sérvio cantando em louvor a Radovan Karadžiÿ, um criminoso de
guerra responsável pelo genocídio da Bósnia. O vídeo há muito era um meme do 4chan, chamado
“remover kebab”, que, para alguns, passou de piada a sinal genuíno de apoio ao genocídio dos
muçulmanos. Tarrant também escreveu “remover kebab” na lateral de um de seus rifles.
Puta merda. OP entregue, porra, acabei de vê-lo matar tantos malditos hajis. [OP, para
“poster original”, refere-se a Tarrant.]
Alguns exortaram uns aos outros a seguir seu exemplo e, como disse um deles, “resgatar
sua nação”.
Alguns meses depois, Fredrick Brennan, fundador do 8chan e seu administrador até 2016,
disse que o site deveria ser fechado. “Não está fazendo nenhum bem ao mundo”, disse ele a
Kevin Roose, colunista de tecnologia do New York Times. “É uma negativa completa para todos,
exceto para os usuários que estão lá. E sabe de uma coisa? É negativo para eles também. Eles
simplesmente não percebem isso.”
para mostrar apoio e que essas pessoas podem mudar para melhor.”
Wu recebia cada vez mais mensagens como essas - de ex-Gamergaters que,
depois de anos seguindo o funil mais profundo do extremismo online, conseguiram
ajuda. “Eles realmente me parecem estar procurando seu lugar no mundo”, ela me
disse. “Eu posso ver ser infeliz e transformar esse ódio em si mesmo em relação às
pessoas e contra-atacar, principalmente quando você é mais jovem. Então, eu
apenas tento me lembrar de quando eu tinha vinte e poucos anos. Eu estava uma
bagunça.
Ela escreveu de volta para Adam: “Isso realmente significa o mundo para mim,
obrigada!” Depois de algumas mensagens, ela pediu permissão para twittar uma
imagem de sua troca com o nome dele removido. Ele disse que sim, que esperava
que isso pudesse ajudar “mais pessoas com quem cresci conversando online” a
mudar. Seu tuíte recebeu talvez uma dúzia de respostas, a maioria positivas.
Provavelmente foi a quarta ou quinta postagem mais discutida de Wu naquele dia.
Mas para Adam o sentimento de afirmação foi esmagador.
“ver todas as respostas para a captura de tela que você compartilhou me deixou
muito animado”, ele escreveu de volta para ela. “Não sei se já vi tanta gente tão feliz
com qualquer coisa que eu disse antes.”
Machine Translated by Google
Dez
Os Novos Soberanos
1. Um governo oculto
O TRABALHO DE JACOB ERA PARA SER FÁCIL. O moderador do Facebook, que mais
tarde leria minha história do Sri Lanka e me enviaria uma coleção de documentos internos
para alertar o mundo sobre o que ele considerava uma perigosa negligência corporativa,
sentaria-se em sua estação de trabalho, que lhe mostraria um conteúdo do Facebook. ,
Instagram ou WhatsApp. Ele verificaria as diretrizes para ver se o cargo era permitido. Ele
clicaria para permitir, remover ou encaminhar para um superior. Repita.
Essas diretrizes já foram uma lista simples, proibindo insultos raciais, nudez e nada
mais. Mas em 2018 as regras se assemelhavam às instruções para operar um reator
nuclear, se cada página tivesse sido escrita por um autor diferente, cada um cego para
como as suas se encaixam no todo. Eles correram mais de 1.400 páginas (provavelmente
muito mais, ao contabilizar arquivos específicos da região aos quais a equipe de Jacob
não tinha acesso). E, no entanto, esperava-se que Jacob e seus colegas de trabalho, a
maioria ex-operadores de call center, conhecessem e aplicassem essas regras para
tomar centenas de decisões de alto risco todos os dias. Seu escritório, composto por
algumas dezenas de pessoas que revisavam conteúdo em vários idiomas e regiões, era
um dos muitos espalhados pelo mundo. Um vasto arquipélago de milhares de moderadores
em dezenas de escritórios, compartilhando pouca comunicação ou coordenação além do
que veio da sede distante do Facebook. Árbitros invisíveis separando o proibido do
permitido, moldando invisivelmente a política e as relações sociais em todos os países do
mundo.
Foi assim que Jacob, cansado de se sentir cúmplice do veneno que viu surgindo nas
plataformas de propriedade do Facebook - uma onda de mentiras sectárias alimentando
a violência comunitária no Iraque, uma conspiração de isca racial girando em torno de
Machine Translated by Google
Israel ou Índia — e de ter sido impedido pelos chefes das agências de terceirização
que ele tentou alertar, acabou entrando em contato comigo. As regras que regem as
mídias sociais, escreveu ele em sua primeira mensagem, “não estão adaptadas à
realidade do conteúdo que vemos”. E outra coisa o preocupava. O Facebook,
escreveu ele, havia despejado “trabalho delicado que afeta a segurança mundial” em
multinacionais como seu empregador, uma “empresa com fins lucrativos que se
preocupa apenas em maximizar a produtividade”. Por mais ruins que fossem as
regras, o modelo de negócios de redução de custos, maximização de lucros e sigilo
apenas tornava as falhas na moderação do conteúdo muito piores.
Nos meses que se seguiram, Jacob e eu conversamos regularmente em
aplicativos seguros e, por fim, saí para pegar os guias que ele havia roubado dos
sistemas de computador de seu empregador. Os arquivos prometiam algo poderoso:
evidências de que o Facebook havia se integrado, ainda que relutantemente, à
governança de um mundo cuja política e relações sociais eram cada vez mais
roteadas por meio de seus sistemas. E detalhes profundos e reveladores de como
eles fizeram isso.
Enquanto estávamos sentados em um sofá caído na casa de blocos de concreto
de dois cômodos de Jacob, bebendo de uma garrafa de refrigerante de dois litros
que ele comprou para a ocasião, ele contou os redemoinhos de ódio e incitamento
que sua equipe foi forçada a deixar online. por regras que eles sinalizaram repetidas
vezes como insuficientes e defeituosos. “No final das contas”, disse ele, “você é
forçado a seguir as regras da empresa se quiser manter seu emprego”. Mas as
decisões pesaram sobre ele. “Você sente que matou alguém por não atuar.”
Ele sabia que não era ninguém, apenas uma das milhares de engrenagens da
máquina global do Facebook. E apesar de suas preocupações, ele ainda tinha fé na
empresa que havia prometido tanto ao mundo; com certeza, isso não passou de uma
falha de baixo nível em cumprir a grande visão de Zuckerberg. Mesmo enquanto eu
estava sentado em sua casa, examinando documentos cuja publicação ele sabia que
iria embaraçar o Facebook, ele se via como seu aliado. Ao revelar as falhas
burocráticas que temia estarem atrasando a empresa, ele a ajudaria a realizar a
revolução tecnológica na qual depositara suas esperanças.
A pilha de papel não parecia um manual para regular a política global. Não havia
arquivo mestre ou guia abrangente, apenas dezenas de apresentações de PowerPoint
e planilhas de Excel desconectadas. Seus títulos, embora burocráticos, sugeriam o
escopo do Facebook. Violência credível:
Machine Translated by Google
Um livro de regras que Jacob consultava com frequência, sobre como determinar se
algo constituía discurso de ódio, tinha 200 páginas cheias de jargões. Pediu aos
moderadores que realizassem uma espécie de álgebra linguística. Compare a postagem
com uma confusão de listas: aulas protegidas, calúnias proibidas, “comparações
desumanas designadas”. Classifique a gravidade da postagem em um dos três níveis.
Se a postagem fizer referência a um grupo, abra uma lista para verificar se o grupo foi
banido, outra para ver se alguma palavra na postagem indica elogio ou apoio e outra para
ressalvas e exceções.
E esperava-se que eles fizessem tudo em cerca de oito a dez segundos, seguindo a
memorização automática. Não foi tempo suficiente nem mesmo para nomear todos os
documentos relevantes, muito menos revisar suas regras. E certamente não o suficiente
para pensar em como aplicá-los de forma justa e segura. Pensar, porém, não era muito
encorajado. “Este é o maior pecado, quando você é acusado de impor seu próprio
julgamento”, disse Jacob. “Nosso trabalho é apenas seguir o que o cliente diz.”
Jacob balançou a cabeça. Ele só queria que o Facebook soubesse sobre erros,
lacunas nas regras, perigos que sua equipe havia visto na plataforma, mas
Machine Translated by Google
não poderia derrubar até que fosse escrito na orientação oficial. Afinal, disse ele, moderadores como
ele eram os que viam a maior quantidade de conteúdo. Mas seus chefes desencorajaram ele e seus
colegas de trabalho a se manifestarem. Se as regras parecessem equivocadas ou incompletas,
disseram-lhes, apenas fiquem calados e não causem problemas. “Eles estão interessados apenas em
produtividade”, disse ele.
Alguns de seus colegas desistiram. A maioria, precisando do trabalho, simplesmente ficou em silêncio.
"As pessoas desistem", disse Jacob. Em algum nível, a moderação era, como eles sabiam, uma
missão condenada. Nenhum livro de regras poderia conter o ódio e a desinformação que os sistemas
do Facebook foram projetados, embora não intencionalmente, para produzir em massa. Era como
colocar mais e mais purificadores de ar do lado de fora de uma fábrica de lixo tóxico enquanto a
produção aumentava simultaneamente no interior.
O Facebook não parecia querer a opinião deles de qualquer maneira. Era uma mentalidade de
engenharia de software: regras como linhas de código que moderadores intercambiáveis executariam
automaticamente. Em teoria, isso permitiria ao Facebook aumentar a moderação com um estalar de
dedos. O mesmo aconteceria com a terceirização do trabalho para multinacionais que poderiam
contratar os corpos conforme necessário. Era a única maneira de acompanhar a expansão permanente
do Facebook, que foi rápida demais para treinar revisores de pensamento independente.
Mais tarde descobri algo revelador. Vários departamentos do Facebook estavam lançando livros
de regras, usando estilos diferentes e, às vezes, formas de pensar diferentes, o que fazia com que
seus guias se chocassem e se contradissessem. Outros não vieram do Facebook, mas foram
produzidos pelas agências de terceirização, sem o conhecimento do Facebook, para tentar melhorar
as taxas de conformidade, dando aos moderadores regras mais restritas a seguir. Alguns foram
concebidos como manuais de treinamento, mas usados como materiais de referência. A empresa, ao
que parecia, não havia assumido o papel de árbitro global, mas sim mergulhado nele, crise após crise,
regra após regra. Seus líderes eram senhores supremos relutantes, cautelosos com a reação, avessos
a tomar decisões, executando seu papel em grande parte nas sombras.
De volta para casa, limpei os arquivos de todas as impressões digitais e comecei a distribuí-los
discretamente para analistas digitais e especialistas em vários países.
Na Índia, Chinmayi Arun, uma estudiosa do direito, identificou erros preocupantes nas diretrizes de
seu país. As diretrizes instruíam os moderadores de que qualquer postagem que degradasse uma
religião específica infringia a lei indiana e deveria ser sinalizada para remoção. Foi um freio significativo
no discurso do Facebook
Machine Translated by Google
2. Mestres do Universo
A ingenuidade de pensar que o fizeram, ou pelo menos o suficiente para continuar expandindo.
Tudo remontava, assim como muitos dos recursos definidores das plataformas, aos imperativos
do capitalismo do Vale do Silício. Nomeadamente, a uma mudança drástica e recente desse
modelo.
No final dos anos 2000, a relação de poder entre duas das classes mais importantes do Vale
— investidores e fundadores de startups — subitamente mudou. Desde as primeiras lojas de
transistores, os investidores detinham o poder.
Os fundadores precisavam de muito dinheiro para fazer seu primeiro widget, mais para conseguir
seu primeiro cliente, mais ainda para obter lucro. Os investidores, para cobrir esses custos e
garantir que suas apostas valessem a pena, receberam muita supervisão.
"O entendimento costumava ser que você trazia o capitalista de risco para - o termo era
sempre 'supervisão de um adulto'", explicou Leslie Berlin, historiadora da Universidade de
Stanford. Os investidores nomearam gerentes seniores, o conselho corporativo e até mesmo um
CEO experiente para supervisionar o fundador em sua própria empresa. Quando John Doerr
investiu US$ 12,5 milhões no Google, fundado e administrado por dois estudantes de pós-
graduação, ele contratou Eric Schmidt, um executivo veterano vinte anos mais velho que eles,
como chefe.
A era da computação em nuvem mudou tudo. Agora que qualquer fundador poderia iniciar
um negócio na web e obter seus primeiros mil clientes por conta própria, e agora que os VCs
estavam procurando por startups de hackers de crescimento rápido e de alto risco, os investidores
precisavam fazer mais apostas, assim como os fundadores precisavam menos deles. . De repente,
os VCs competiam para apresentar os fundadores, e não vice-versa.
“Quando você tem capitalistas de risco agora competindo para financiar alguém, versus
empreendedores de joelhos implorando por dinheiro, é uma dinâmica de poder completamente
diferente”, com fundadores de startups definindo cada vez mais os termos, disse Berlin. Uma
maneira segura de os investidores tornarem seus lances mais atraentes: não há mais supervisão
de um adulto. Não há mais CEOs instalados sobre as cabeças dos fundadores.
No caso do Facebook, nenhum conselho independente. “Essa é uma mudança fundamental em
toda a compreensão do que um capitalista de risco deve fazer”,
disse Berlim.
Ele lançou a era do fundador-CEO hacker de 22 anos vestindo moletom. A equipe executiva
composta por amigos do fundador. As culturas corporativas corajosamente, orgulhosamente
desafiam os adultos de terno. “Por que a maioria dos mestres de xadrez tem menos de trinta
anos?” Certa vez, Zuckerberg perguntou a um grupo de 650 aspirantes a fundadores na incubadora
de startups de Paul Graham. “Os jovens são
Machine Translated by Google
Muitos surgiram no boom das pontocom, uma época de chefs de sushi e massoterapeutas
no local. As regalias destinavam-se a resolver um problema trabalhista.
A Califórnia proíbe as cláusulas de não concorrência, o que significa que os funcionários
podem mudar de emprego a qualquer momento. As empresas oferecem escritórios de spa
de luxo e serviços de mordomo pessoal para manter as pessoas a bordo. Mas o estilo de
vida pode distorcer. Se estamos todos vivendo como reis e presidentes, então devemos ser
igualmente importantes, certo?
As culturas corporativas, absorvendo esse ambiente, assumiram uma alta fermentação
ideológica: construa widgets para nós e você não estará apenas ganhando dinheiro, estará
salvando o mundo. A corrida armamentista da declaração de missão aumentou até que, no
final dos anos 2000, praticamente todos os empregadores da cidade diziam aos contratados
que projetar aplicativos os colocava, em termos de importância, em algum lugar entre as
Nações Unidas e a Liga dos Super-Heróis. Era uma cultura em que assumir as rédeas da
governança global não parecia tão estranho.
Os egos foram impulsionados ainda mais por uma prática contábil da era da web: pagar
os primeiros funcionários com opções de compra de ações. As startups fragmentadas,
solicitadas a transformar um investimento inicial de $ 100.000 em uma base de clientes de
um milhão de usuários, concederam, no lugar de salários competitivos, o que eram
efetivamente IOUs. Se a empresa falisse, como aconteceu com a maioria, as opções seriam
inúteis. Se a empresa tivesse sucesso, o que poderia significar uma venda para a Oracle
por US$ 300 milhões, os primeiros funcionários poderiam se aposentar, milionários, aos 26
anos. Para aqueles que atingiram o sucesso, o dinheiro pareceu uma afirmação do que os
investidores e empregadores sempre lhes disseram: você é diferente das outras pessoas.
Mais inteligente, melhor. Mestres legítimos do universo.
A nova era também elevou uma classe diferente de investidores. Capitalistas de risco
apoiados por instituições, como John Doerr agindo em nome da Kleiner
Machine Translated by Google
Perkins, “passou alguns anos se retraindo após o estouro da bolha das pontocom”,
Roger McNamee, o primeiro investidor do Facebook, escreveu em suas memórias. “No vazio
surgiram investidores anjos – indivíduos, em sua maioria ex-empresários e executivos”, escreveu
ele. Insiders ricos, colocando seu próprio dinheiro, sem uma empresa controlando os cordões da
bolsa ou acionistas para mantê-los felizes.
Tanto o investidor quanto o fundador estavam agora muito mais livres para fazer o que quisessem.
A era dos porteiros e grades de proteção estava terminando.
Alguns dos primeiros e mais influentes investidores anjo foram os cofundadores do PayPal,
entre eles Peter Thiel, o arquiconservador que chamou o valor da diversidade de “mito” e disse que
hackers contrários “com inaptidão social semelhante à de Asperger” eram a melhor startup chefes.
“O impacto deles transformou o Vale do Silício”, escreveu McNamee, e seu dinheiro financiou grande
parte da era da mídia social. Mas o “sistema de valores” que eles trouxeram, de acordo com
McNamee, “pode ter contribuído para a cegueira das plataformas de internet aos danos que
resultaram de seu sucesso”.
A política dos fundadores do PayPal era severamente libertária: eles eram socialmente
darwinistas, desconfiados do governo, certos de que os negócios sabiam mais. Thiel levou isso a
tais extremos que, em 2009, anunciou: “Não acredito mais que liberdade e democracia sejam
compatíveis”. A sociedade não podia mais ser confiada ao “demos irracional que guia a chamada
social-democracia”, escreveu ele, usando o termo grego para cidadãos. Somente “empresas como
o Facebook” poderiam salvaguardar a liberdade. E somente se fossem libertos da “política”, que
parecia significar regulamentação, responsabilidade pública e possivelmente a lei.
Ele apoiou projetos destinados a criar cidades flutuantes administradas por corporações e a
colonização do espaço, tudo fora da jurisdição de qualquer governo.
Essas fantasias de ficção científica apenas exageravam uma velha ideia no Valley.
Engenheiros e fundadores de startups sabiam melhor. Era sua responsabilidade derrubar o status
quo e instalar uma tecno-utopia em seu lugar, exatamente como os escritores do manifesto dos
anos 1990 haviam predito. Se os governos ou os jornalistas se opuseram, foram apenas os antigos
titulares que se agarraram a uma autoridade que não era mais deles.
Esse senso de missão divina levou os investidores-anjo da Geração PayPal, que selecionaram
as startups e fundadores para refazer o mundo em torno de sua visão. Eles chamaram isso de
perturbar os titulares. Uber e Lyft não apenas ofereceriam uma nova maneira de chamar táxis, mas
também aboliriam e substituiriam o antigo
Machine Translated by Google
um. O Airbnb interromperia a habitação de curto prazo. Todos os três foram investidos por
ex-alunos do PayPal. Muitos outros perseguiram o mesmo deslocamento violento.
Amazon e varejo físico, Napster e música. Apenas alguns, como Thiel, sugeriram seriamente
fazer com a governança global o que o Uber havia feito com o compartilhamento de
viagens. Mas uma vez que as plataformas de mídia social se depararam com esse papel,
deve ter parecido apenas uma continuação de seu lugar de direito. Da crença de que a
sociedade é um conjunto de problemas de engenharia esperando para serem resolvidos.
3. Convergência
Ela inicialmente relutou em comparecer ao Senado. “Achei que era um futebol político”,
ela me disse, referindo-se à intromissão russa. “Vai ser tudo pegadinha? Serei eu lutando
com determinados senadores republicanos que eram, a essa altura, substitutos de Trump?”
Mas um briefing a portas fechadas que ela deu ao comitê foi “incrivelmente profissional”,
disse ela. “Foi tudo apenas apuração de fatos.” Impressionada e surpresa com a sinceridade
de alguns senadores que considerava hiperpartidários,
Machine Translated by Google
ela concordou. “Eu realmente queria deixar claro que achava que era um problema
do sistema”, ela me disse, “e que a Rússia talvez fosse a melhor em manipular o
sistema, mas que outros continuariam a fazê-lo”.
Quanto mais sua equipe analisava os gigas de dados fornecidos pelas
plataformas, ela disse, mais certa ela ficava “de que não importava tanto se era a
Rússia, antivaxxers ou terroristas. Essa foi apenas a dinâmica que estava tomando
forma como resultado desse sistema.” Durante meses, houve sinais de uma grande
convergência sobre o que já foi chamado de “manual da Rússia”, mas cada vez
mais parecia usuários e grupos simplesmente seguindo os incentivos e recursos
das mídias sociais. A linha se confundiu, talvez para sempre, entre os grupos que
promovem estrategicamente a desinformação ao estilo russo e os usuários que a
originam organicamente. Propagandistas tornaram-se desnecessários; o sistema,
temia DiResta, fazia o verdadeiro trabalho.
Em uma tentativa de abordar as preocupações do público, Zuckerberg publicou
um ensaio algumas semanas após a audiência de DiResta. “Um dos maiores
problemas que as redes sociais enfrentam”, escreveu ele, “é que, quando não são
controladas, as pessoas se envolvem desproporcionalmente com conteúdo mais
sensacionalista e provocativo”. Ele incluiu um gráfico que mostrava o engajamento
subindo conforme o conteúdo do Facebook se tornava mais extremo, até atingir o
limite do que o Facebook permitia. “Nossa pesquisa sugere que não importa onde
traçamos os limites do que é permitido, à medida que um conteúdo se aproxima
dessa linha, as pessoas se envolvem mais com ele, em média”, escreveu ele. “Em
grande escala”, acrescentou, esse efeito “pode prejudicar a qualidade do discurso
público e levar à polarização”.
Guillaume Chaslot, o ex-YouTube, ficou surpreso. Ele passou anos tentando
provar o que Zuckerberg havia acabado de admitir. Conteúdo mais extremo ganha
mais engajamento, ganha mais promoção, polarizando os usuários. “Isso é loucura
quando você pensa sobre isso”, disse Chaslot.
Zuckerberg havia revelado um detalhe revelador: em sua pesquisa interna, eles
descobriram que as pessoas se envolvem mais com conteúdo extremo “mesmo
quando depois nos dizem que não gostam do conteúdo”. Em outras palavras, como
especialistas e insiders preocupados se esforçaram para demonstrar por anos, não
era uma vontade consciente que os usuários estavam agindo; era algo entre
impulso, tentação e cutucadas impostas pelo sistema. A correção proposta por
Zuckerberg foi, naturalmente, mais ajustes de algoritmo. Eles iriam treiná-lo para
reconhecer o conteúdo que não era totalmente proibido e rebaixar sua promoção - uma espécie de
Machine Translated by Google
Até o Vale do Silício estava começando a internalizar a reação. Uma pesquisa interna
com 29.000 funcionários do Facebook realizada em outubro descobriu que a parcela de
funcionários que disseram ter orgulho de trabalhar no Facebook caiu de 87 para 70% em
apenas um ano. A parcela que sentiu que sua empresa tornou o mundo um lugar melhor
caiu de 72 para 53 por cento, e se eles se sentiam otimistas sobre o futuro do Facebook,
de meados dos anos 80 para pouco mais de 50 por cento. “Quando entrei no Facebook
em 2016, minha mãe ficou muito orgulhosa de mim”, disse um ex-gerente de produto do
Facebook à Wired
Machine Translated by Google
revista. “Eu poderia andar com minha mochila do Facebook por todo o mundo e as
pessoas parariam e diriam: 'É tão legal que você trabalhou para o Facebook.' Esse não
é mais o caso.” Ela acrescentou: “Ficou difícil ir para casa no Dia de Ação de Graças”.
4. Ciberdemocracia
DESDE que exista uma era democrática, ela tem sido governada por porteiros. As
instituições partidárias ditam as agendas e selecionam quem vai às urnas. Os
estabelecimentos de mídia controlam quem tem tempo de antena e quem não tem,
quem é retratado como aceitável e quem não é. Empresas e grupos de interesse
desembolsam o financiamento que ganha as eleições. A mídia social, entre outros
fatores, corroeu o poder desses porteiros. A custo zero, os candidatos poderiam
construir seus próprios impérios de mensagens públicas, organização e arrecadação
de fundos, contornando os porteiros. As instituições ainda têm influência, mas, para o
bem ou para o mal, seu bloqueio à democracia acabou.
O Vale do Silício esperava fazer exatamente isso, é claro. Ao permitir que as
pessoas se expressem diretamente e em massa, “em vez de por meio de intermediários
controlados por alguns poucos”, escreveu Zuckerberg em uma carta de 2012 aos
investidores, “esperamos que os governos se tornem mais receptivos”. Mas, na prática,
as mídias sociais não aboliram os estabelecimentos, mas os substituíram. Seus
algoritmos e incentivos agora agiam como guardiões, determinando quem subia ou
descia. E eles fizeram isso com base não na popularidade, mas no engajamento – o
que, como Chaslot havia demonstrado em sua análise do YouTube, levou à superação
de candidatos marginais.
Alguns chamaram essa nova era de “ciberdemocracia”. Na França, no final de
2018, chamavam de “coletes amarelos”. Tudo começou quando uma petição exigindo
preços mais baixos do combustível circulou nas mídias sociais durante o verão e se
tornou, em outubro, a base de um amplo grupo no Facebook pedindo aos motoristas
que bloqueiem as estradas locais. A discussão foi livre, culpando o aumento dos preços
da gasolina pela reclamação preferida de cada usuário, grupo externo ou conspiração,
dando a todos um motivo para se reagrupar. Em um dia pré-planejado naquele
novembro, dezenas de milhares em todo o país tiraram os coletes de segurança
amarelos de seus carros – uma lei francesa exige mantê-los à mão – e bloquearam as
estradas próximas. O espetáculo chamou a atenção, o que trouxe novos recrutas.
Desde o início, os Coletes Amarelos, como se autodenominavam,
Machine Translated by Google
identificado como um movimento sem liderança, radicalmente horizontal. A mídia social, sem
dúvida, permitiu isso. Nunca houve uma maneira tão escalável, gratuita e universalmente
aberta de se organizar. Mas as plataformas também aplicaram uma mão orientadora invisível.
Seus elementos promocionais atraíram os usuários para os grupos de alto engajamento que
impulsionavam a atividade e onde as postagens mais carregadas chegavam ao topo. O mesmo
aconteceu com a natureza participativa das plataformas, que recompensavam os usuários que
realizavam sua adesão com postagens e fotos de seu bloqueio. E era uma identidade
compartilhada, na qual qualquer francês com um colete de um euro podia se sentir parte de
algo grande e significativo.
Logo os Coletes Amarelos se uniram em torno de uma causa maior: refazer a democracia
francesa à sua imagem. Uma “assembléia de cidadãos” implementaria diretamente a vontade
popular, sem a mediação de representantes ou instituições.
As questões seriam decididas por referendo. Os eleitores teriam o poder de revogar os
representantes a qualquer momento. Até que isso fosse concedido, eles se comprometeram a
bloquear as estradas todos os sábados.
Os Coletes Amarelos também emitiram uma cacofonia de demandas políticas, muitas das
quais eram contraditórias. Uma série de impostos deveria ser zerada, assim como a falta de
moradia. O tamanho das turmas do jardim de infância deveria ser reduzido e o estacionamento
no centro da cidade seria gratuito. A dívida nacional deveria ser “declarada ilegítima” e
inadimplente. Os refugiados deveriam ser impedidos de entrar no país. Uma segunda lista,
acrescentada uma semana depois, exigia que a França deixasse a União Europeia e a OTAN,
reduzisse os impostos pela metade e suspendesse quase toda a imigração. Era uma agenda
que só poderia emergir das mídias sociais: maximalista, incoerente, enraizada na identidade,
livre de tomadores de decisão que poderiam aderir à lista. Identificação pura.
Isso acabou sendo uma tendência, e reveladora, descoberta por Erica Chenoweth, uma
estudiosa da resistência civil em Harvard. A frequência de movimentos de protesto em massa
vinha crescendo em todo o mundo desde a década de 1950, ela
Machine Translated by Google
“O Facebook tem o poder de influenciar muito a eleição presidencial”, disse o Comitê Nacional
Republicano em um comunicado à imprensa, combinando o feed de notícias muito mais poderoso
do Facebook com seu widget de tendências mais ignorado. “É perturbador saber que esse poder
está sendo usado para silenciar pontos de vista e histórias que não se encaixam na agenda de
outra pessoa.”
O senador John Thune, um republicano, enviou a Zuckerberg uma carta exigindo que a empresa
informasse os legisladores sobre o assunto. Thune presidiu o comitê de comércio, que supervisiona
a Comissão Federal de Comércio, que vinha investigando o Facebook. A empresa, assustada,
enviou sua equipe DC para amenizar Thune. Também convidou cerca de vinte conservadores
proeminentes, incluindo um conselheiro da campanha de Trump, para se encontrar pessoalmente
com Zuckerberg. Funcionou. Os participantes dirigiram mais acrimônia uns aos outros do que no
Facebook. Um deles, Glenn Beck, redigiu a reunião, elogiando Zuckerberg como um defensor da
liberdade de expressão.
Eles ameaçaram fazer com que a News Corp pressionasse publicamente os governos e reguladores
para verificar se o poder de mercado do Facebook poderia violar as regras antitruste.
Eles não ameaçaram usar seus meios de comunicação contra o Facebook. Mas não seria
irracional para Zuckerberg temer tanto. Nos meses seguintes, a Fox News falou abertamente sobre
o suposto viés anticonservador do Facebook. Ele chamou a campanha “saia do voto” do Facebook
de uma manobra para aumentar a participação democrata. Ele criticou o Facebook por “suprimir” o
que chamou de “notícias importantes”, como um relatório de saúde de Hillary Clinton.
Machine Translated by Google
Foi o caso da Microsoft que mais apavorou a big tech. Uma batalha de anos com
os reguladores culminou, em meados da década de 1990, com um tribunal ordenando
que a empresa fosse dividida em duas. (O Departamento de Justiça acusou a
Microsoft de explorar seu domínio em um mercado para monopolizar outros.)
A decisão foi rejeitada na apelação - o juiz havia discutido o caso com os repórteres
durante o processo, manchando sua imparcialidade - e o novo governo Bush desistiu
do caso. Ainda assim, o preço das ações da Microsoft caiu pela metade; sua entrada
em serviços de internet abreviada, para nunca mais se recuperar; e sua posição
perante o público e os reguladores ficou tão enfraquecida que Bill Gates, seu
fundador, renunciou. Anos depois, ele aconselharia Zuckerberg a não repetir o que
considerava seu erro: antagonizar Washington e ignorar os legisladores que
considerava equivocados. “Eu disse: 'Arrume um escritório lá, agora'”
Gates lembrou, referindo-se a Washington, onde o Facebook e o Google começaram
a gastar milhões em lobby. "E Mark fez, e ele me deve."
As multas regulatórias estavam se acumulando: $ 22 milhões para o Google em
2012, $ 170 milhões em 2019. Cem milhões para o Facebook em 2019, então um
recorde de $ 5 bilhões no final daquele ano, imposto pela Federal Trade Commission
por violações de privacidade do usuário. Houve até conversas sobre separações
forçadas. O senador Richard Blumenthal, um democrata de Connecticut, argumentou
em um artigo de opinião de 2018 que o caso da Microsoft forneceu um modelo
explícito para atingir o Facebook, o Google e a Amazon.
Evitar tais ataques exigiria mais do que lobby. A partir daquele ano, Zuckerberg
e outros chefes de tecnologia adotaram uma postura que o capitalista de risco Ben
Horowitz chamou de “CEO de guerra”. Se os reguladores giram ou o mercado
mergulha, Horowitz escreveu em um post de blog, as empresas precisam de um
líder que “viole o protocolo para vencer”, “use palavrões propositalmente”, “seja
completamente intolerante” com os funcionários que quebram
Machine Translated by Google
Horowitz atribuiu a estratégia a seu herói Andy Grove, ex-chefe da Intel. Ele adaptou o
termo “CEO em tempo de guerra” de uma frase de O Poderoso Chefão (Tom Hagen: “Mike,
por que estou fora?” Michael Corleone: “Você não é um consigliere em tempo de guerra”),
que ele reproduziu em seu post ao lado uma letra de rap, parte de sua campanha para
rebatizar os bilionários da tecnologia como a nova contracultura: durões em suéteres com
decote em V. Ele tirou seu prestígio da Andreessen Horowitz, uma empresa de investimentos
que ele e o fundador da Netscape, Marc Andreessen, fundaram em 2009. (O mentor de
Andreessen, John Doerr, foi orientado por Grove - mais um exemplo da insularidade
distorcida do Valley.)
o CEO em tempo de guerra também fornecia uma espécie de cobertura moral. Se os concorrentes
tiveram que ser destruídos, se os funcionários levantaram objeções éticas ou a mídia o acusou de ser
cúmplice da destruição do tecido social, eles não entenderam que isso era uma guerra.
Zuckerberg, em 2018, leu um livro de autoria de Horowitz que discorreu sobre a estratégia. Em
junho daquele ano, ele reuniu os cinquenta principais executivos da empresa para anunciar que o
Facebook estava em guerra e que ele agora era o CEO da guerra.
Ele toleraria menos divergências, exigiria maior obediência e levaria a luta aos inimigos do Facebook.
Em uma prefeitura de toda a empresa, ele chamou a cobertura jornalística dos abusos de privacidade
do Facebook, pelos quais o Facebook enfrentaria várias multas regulatórias, de “besteira”. Ele dispensou
Sheryl Sandberg, a segunda executiva da empresa e sua conselheira de longa data.
O Facebook contratou uma empresa de relações públicas obscura, que semeou informações
depreciativas, algumas delas falsas, sobre os críticos do Facebook.
Investidores proeminentes da classe dos capitalistas de risco anunciaram que o Valley estava em
guerra com uma mídia nacional desonesta que procurava puni-los por seu sucesso. (“Nós entendemos:
você nos odeia. E vocês são concorrentes”, um twittou.) Alguns tentaram revidar, pedindo proibições em
todo o vale de cooperar com agências de notícias ou, em um caso, oferecendo-se para pagar usuários
em Bitcoin para assediar repórteres críticos online.
Também naquele ano, Kaplan pressionou com sucesso para arquivar um dos relatórios internos da
empresa, descobrindo que os algoritmos da plataforma promoviam conteúdo divisivo e polarizador. Ele
e outros objetaram que abordar o problema afetaria desproporcionalmente as páginas conservadoras, o
que gerou uma parcela enorme de desinformação. Melhor deixar os usuários serem mal informados.
Não foi a última vez que o interesse público seria sacrificado para evitar
Machine Translated by Google
livros de regras internos - os que foram secretos para mim por Jacob. Eles queriam
que eu entendesse os arquivos no contexto e, um funcionário me disse, que
começasse a abrir um pouco seus processos para o mundo exterior. Monika Bickert,
que chefia a equipe de políticas, disse-me, em uma das dezenas de entrevistas que a
empresa organizou, que o processo de regulamentação tende a ser reativo. Um
funcionário, reportagem ou grupo de interesse pode sinalizar um problema. Alguém
criaria uma nova regra, trabalharia na reunião e a submeteria a um processo de revisão.
Pode ser testado em um mercado específico antes de ser lançado em outro lugar.
“Não estamos traçando essas linhas no vácuo”, disse Bickert, descrevendo as normas
e princípios legais que as guiaram. Mas quanto mais intrincadas as regras se
tornavam, mais difícil era implementá-las por meio de engrenagens de moderador
como Jacob, especialmente devido aos tempos impossivelmente curtos que os
moderadores recebiam para tomar decisões. Bickert estava ciente da contradição.
“Sempre que tornamos nossas políticas mais sutis, fica mais difícil para nós aplicar
essas regras de forma consistente e acertar em todo o mundo”, disse ela. “Há uma
tensão real aqui entre querer ter nuances para explicar cada situação e querer ter um
conjunto de políticas que possamos aplicar com precisão e explicar claramente.”
Parte de mim esperava que eu estivesse sendo enganado, que eles entendessem, mas
simplesmente não pudessem reconhecer abertamente os efeitos de distorção da realidade e
do comportamento de seu serviço. Eu senti como se estivesse no terceiro ato de 2001: Uma
Odisséia no Espaço, quando dois astronautas sobreviventes planejam o que fazer com HAL,
a inteligência artificial que, após supervisionar sua jornada de anos, enlouqueceu e assassinou
seus companheiros de tripulação. Tentei imaginar a cena central deles se, quando um astronauta
Machine Translated by Google
Onze
1. Presidente YouTube
FAZEM sete anos, recorda Tatiana Lionço, com a voz tensa, desde que um vídeo
viral no YouTube lhe destruiu a vida. Em 2012, o psicólogo Lionço havia falado em
uma mesa sobre o combate à homofobia nas escolas. Ela disse à pequena audiência
de acadêmicos e formuladores de políticas que os pais deveriam ter certeza de que
não havia nada incomum em crianças pequenas expressando curiosidade sobre os
corpos ou roupas umas das outras.
Logo depois, uma legisladora de extrema-direita editou a filmagem do evento,
reorganizando suas palavras para fazer parecer que ela havia encorajado a
homossexualidade e o sexo entre crianças. O legislador, amplamente considerado
uma esquisitice marginal, tinha poucos aliados políticos e pouco poder direto. Mas
ele teve muitos seguidores no YouTube, onde postou a filmagem editada. YouTubers
de extrema-direita, então uma comunidade pequena, mas ativa, republicaram o vídeo
enganoso, acrescentando seus próprios comentários cheios de informações erradas.
Lionço representava uma conspiração homossexual comunista global, disseram eles.
Ela havia endossado a pedofilia. Ela estava distribuindo “kits gays” para as escolas
usarem para converter crianças à homossexualidade. Suas reivindicações se
espalharam pelo Twitter e Facebook. Comentários nos vídeos cheios de apelos para que ela fosse mort
Os amigos e colegas de Lionço inicialmente descartaram isso como ruído da
mídia social. Até que a história fabricada virou realidade consensual nas plataformas,
indignando o cidadão comum. Muitos ligaram para sua universidade exigindo que ela
fosse demitida. Eles acusaram seu empregador e qualquer pessoa que a apoiasse
de colocar crianças em perigo. Seus amigos e colegas se distanciaram.
“Fiquei sozinho com isso”, me disse Lionço. Ela fez uma pausa, seu rosto se
contraindo, e olhou para o colo. Talvez as pessoas em sua vida sentissem
Machine Translated by Google
envergonhada por terem permitido que isso acontecesse, ela disse. “Acho que as
pessoas têm medo de que isso aconteça com elas.” Mesmo depois que ela praticamente
se retirou da vida pública, os YouTubers de extrema-direita, cujas audiências estavam
explodindo em tamanho, continuaram divulgando a história do complô acadêmico
comunista para sexualizar crianças. Embora ela finalmente tenha voltado a lecionar, sua
vida nunca mais foi a mesma, perseguida pela infâmia onde quer que ela vá. Ameaças
de morte permanecem uma presença constante, assim como sussurros de suspeita,
mesmo de colegas que pensam da mesma forma. "Eu estou exausto. Já se passaram
sete anos,” ela disse, cobrindo o rosto com as mãos. “Isso me quebrou. Esta é a pior
parte para mim. Me sinto sozinho."
Lionço é brasileiro. No outono de 2018, o legislador marginal e YouTuber que havia
lançado a campanha de desinformação contra Lionço seis anos antes, um homem
chamado Jair Bolsonaro, concorreu à presidência de seu país. Todos esperavam que ele
perdesse. Em vez disso, ele venceu com uma vitória esmagadora de 10 pontos. Foi o
evento mais significativo na política global desde a eleição de Donald Trump. O sexto
maior país do mundo ficou sob o comando de um conspirador de extrema-direita. Ele
supervisionou a destruição de milhões de acres da floresta amazônica, sinalizou apoio à
violência de extrema-direita, atacou implacavelmente as instituições democráticas do
Brasil e destruiu suas burocracias.
Sua ascensão parecia ser uma história de raiva pública contra a corrupção do
governo, turbulência econômica e retrocesso democrático. Mas os brasileiros e analistas
com quem falei continuaram mencionando plataformas de mídia social americanas.
“A direita brasileira quase não existia há dois anos”, disse-me Brian Winter, chefe de um
jornal político chamado Americas Quarterly . “Ele surgiu praticamente do nada.” O
establishment rejeitou Bolsonaro por suas conspirações extremistas, discurso de ódio e
hostilidade contra as mulheres (“Eu não estupraria você porque você não merece”, ele
disse uma vez a outro legislador). Mas esse comportamento de chamar a atenção teve
um bom desempenho online.
A mídia social e o YouTube em particular, disse Winter, apresentaram Bolsonaro como
“uma figura reinventada”. Antes da eleição, Winter havia visitado o gabinete de Bolsonaro,
esperando entender sua estranha e repentina ascensão. Todos os oito funcionários
estavam “fazendo uso da mídia social o tempo todo em que estive lá”, disse ele. “Não
houve trabalho legislativo sendo feito.”
Não foi só Bolsonaro. Por razões que ninguém conseguia explicar, o Brasil foi
inundado por conspirações e novas causas radicais que pareciam
Machine Translated by Google
Embora Trump tenha sido auxiliado pelas plataformas, ele não fazia parte delas.
No Brasil, foi como se as próprias redes sociais tivessem tomado posse. O país
Machine Translated by Google
parecia representar um estranho novo tipo de ordem social e política guiada digitalmente
que já estava surgindo nos EUA com a aproximação das eleições de 2020. Em
retrospecto, o Brasil de 2019 prenunciou não apenas muito do caos da América no ano
seguinte, mas um futuro para o mundo democrático mais amplo que, se algo não mudar,
ainda pode estar por vir.
Desembarquei no país, novamente trabalhando com minha colega Amanda Taub e
agora acompanhada por uma equipe de documentários, em abril de 2019, três meses
após a posse de Bolsonaro.
Almeida teve algumas ideias sobre como isolar a influência da plataforma para
descobrir. Sua equipe percebeu que poderia medir a valência política dos vídeos
políticos do YouTube raspando suas legendas. Eles usaram um software especial
para rastrear as tendências de humor e alinhamento político dos vídeos. E eles
fizeram o mesmo com os comentários abaixo desses vídeos. Eles descobriram que,
na época da atualização algorítmica do YouTube em 2016, os canais de direita
viram seu público crescer substancialmente mais rápido do que
Machine Translated by Google
semelhantes aos nazistas, ao que o professor respondeu que sim. Uma imagem de
banner exibia o nome de Jordy e as redes sociais. Ele havia editado erroneamente a
filmagem, descobriu-se. Na verdade, o estudante, que era gay, havia descrito ter sido
assediado por colegas cujas famílias apoiavam Bolsonaro, que ainda era uma figura
local conhecida por dizer que preferia que o filho morresse do que gay. A aluna
perguntou se esse sentimento tornava seus colegas como nazistas. Não, dissera a
professora, mesmo que os dois grupos tivessem a homofobia em comum.
O clipe inicialmente ganhou pouca audiência - até ser reembalado por Nando
Moura, que o chamou de prova de que esta escola era um epicentro de abuso. Ele
varreu os canais de direita da plataforma, empurrado para grandes audiências.
Em seguida, espalhou-se junto ao Facebook, onde foi visto cinco milhões de vezes.
Valéria Borges, a professora do vídeo, chamou os meses após sua circulação de
“o pior momento de toda a minha vida”. Borges nos mostrou páginas de ameaças
gráficas que inundaram. Outros professores e funcionários da escola também foram
alvos, presumivelmente cúmplices. Embora os alunos de Borges a apoiassem, a
maioria dos brasileiros a conhecia apenas como uma vilã. “Eles me veem como um
inimigo e que preciso ser destruído”, disse ela. Ainda assim, dois anos depois, ela
acrescentou: “Tenho medo por minha família, temo por meus alunos e meus colegas”.
Outro professor da escola nos disse que os pais ficaram sem saber em que
acreditar. Eles conheciam a escola e seus professores como competentes e amigáveis.
Mas tantos de seus amigos e parentes repetiram a conspiração para eles que lutaram
para conciliar a realidade que conheciam com a irrealidade da mídia social que a havia
dominado. Alguns começaram a fazer perguntas pontuais sobre “doutrinação”. Os
professores disseram que ficaram com medo e resguardados em suas próprias salas
de aula. Eles temiam que tudo o que dissessem pudesse aparecer online, distorcido
para promover alguma agenda, impulsionado em todo o país pelas mídias sociais.
Uma onda de tais incidentes estava se espalhando pelo Brasil. A acusação inicial
seria estranha - um professor havia encorajado seus alunos a traficar drogas, iniciar
uma insurreição comunista, "tornar-se" gay - mas aparentemente apoiada por um
vídeo. Outros YouTubers colocariam seu próprio toque no clipe, ganhando centenas
de milhares de visualizações (e uma fatia da receita publicitária), dando à plataforma
as conspirações de guerra cultural que ela sempre recompensava. Cada boato, por
mais implausível por si só, no agregado
Machine Translated by Google
“No Brasil, isso acontece com frequência agora, a gravação e o linchamento”, disse
Borges. “É uma forma de intimidação. E está funcionando.”
Jordy postou vídeos de outros professores, todos editados da mesma forma. Eles
trouxeram para ele, disse ele, uma “audiência nacional”. Depois de apenas dois anos
na Câmara Municipal, na mesma eleição que elevou Bolsonaro, ele conquistou uma
cadeira no legislativo federal. E outro YouTuber de extrema-direita que promoveu
reivindicações de doutrinação escolar foi eleito para a legislatura estadual. Foi, em
retrospecto, um sinal de alerta. Conspiradores americanos marginais com aspirações
políticas, como Lauren Boebert e Marjorie Taylor Greene, embora vistos como ridículos,
podem de fato representar uma tendência crescente cujo ponto culminante ainda pode
estar anos no futuro. “Se a mídia social não existisse, eu não estaria aqui”, disse Jordy.
“Jair Bolsonaro não seria presidente.”
Quando perguntei a Jordy sobre suas edições no vídeo que mudaram seu
significado, ele não contestou. Li algumas das ameaças que Borges havia recebido —
promessas de matá-la e coisas piores. Ele se arrependeu de ter destruído a vida de
professores que ele sabia serem inocentes?
A equipe de filmagem pediu à equipe de Jordy para desligar o ar-condicionado, o
que interferiu no áudio. Estava quase 100 graus lá fora e úmido. Cinco de nós
estávamos amontoados em seu escritório do tamanho de um armário, quase nos
tocando. Estávamos conversando há mais de uma hora, e o ar, estagnado e quente,
parecia sufocante.
Jordy, suor rolando em seus olhos, abandonou qualquer fingimento. “Fiz isso para
chocar, fiz para expô-la”, disse ele, erguendo os ombros e estufando o peito. “Eu queria
que ela sentisse medo.”
Durante todo o incidente, eu disse, ele nunca havia falado com alunos ou grupos
de pais em cujo nome afirmava agir. Nunca visitou a escola que ficava a alguns metros
de seu escritório. Nunca sequer usou seus poderes de vereador. Ele concentrou toda
a sua energia nas mídias sociais. Por que?
“Há uma guerra cultural que estamos travando”, disse ele, embora fosse vago
contra quem. “As pessoas respeitam o que temem. Eles precisam ter esse medo para
entender que podem ser punidos por suas ações”.
Ele parecia ter pouca agenda além de atiçar indignação e ganhar
Machine Translated by Google
atenção nas redes sociais, cujas deixas e incentivos, afinal, ele havia seguido até o
alto cargo. Quanto mais eu falava com as pessoas da cidade, menos pessoas como
Jordy e Bolsonaro pareciam estar dirigindo as forças digitais que os elevaram e mais
pareciam beneficiários passivos.
“Noventa e cinco por cento das crianças aqui usam o YouTube. É a principal
fonte que as crianças têm para obter informações”, disse-me Inzaghi, um estudante
de dezessete anos, fora da escola no centro do vídeo de Jordy. Eles assistiam ao
YouTube para matar o tempo no ônibus, disse ele, no lugar da TV em casa, até
mesmo como pesquisa para o dever de casa. Mas ele e seus amigos notaram a
mesma coisa que todos no país. “Às vezes estou assistindo a vídeos sobre um jogo
e de repente é um vídeo do Bolsonaro”, disse ele. “Ele vai tentar fazer com que você
assista a esses vídeos, quer queira ou não.”
Ele notou sua influência nas aulas também. Cada vez mais, os alunos
interrompiam os professores com acusações ou conspirações que haviam captado
no YouTube. “Toda vez que alguém está dizendo algo extremo, está citando pessoas
como Mamãefalei, Kim Kataguiri e MBL”, disse outro aluno, Jojo, listando os
YouTubers de direita. “Nando Moura, Nando Moura”, gritou Inzaghi, seus amigos
rindo junto. “Na rua, no ônibus, em grupos grandes, vejo gente olhando o Nando
Moura.” Todos os alunos com quem conversei enfatizaram que gostam do YouTube,
especialmente canais de jogos e comédia. Mas todos reclamaram que a plataforma
os pressionava repetidamente a assistir a conspirações e discursos políticos. “Isso
acaba afetando a maneira como as pessoas pensam”, disse Inzaghi.
eleitorado — estavam por toda parte, começando pela política. Bolsonaro pediu aos
cidadãos que assistam ao YouTube em vez de notícias respeitáveis. Ele substituiu
os tecnocratas do governo por personalidades da mídia social, que usaram seu
poder para agir nas conspirações excêntricas – sobre educação, saúde pública,
minorias – que apaziguaram o algoritmo do Vale do Silício que os levou até lá. E os
youtubers que acompanharam a posse de Bolsonaro continuaram postando
febrilmente na plataforma, entendendo que dependiam dela para manter os eleitores
nas redes sociais que eram sua base. Isso significava ceder, em tudo o que faziam
no cargo, às necessidades e preconceitos da plataforma.
Para ressaltar a importância da plataforma, do Val citou um vídeo superviral que outro
grupo acabou de postar. Intitulado “1964” para o ano do golpe militar no Brasil, afirmava que
os abusos da ditadura – ela assassinou centenas de dissidentes e torturou outros milhares –
foram fabricados por historiadores de esquerda. Argumentou que o golpe havia sido
necessário para acabar com o comunismo, sugerindo que outra ação semelhante também
poderia ser necessária em breve. “Fui um dos maiores compartilhadores deste vídeo”, disse
do Val.
Todos sentiram a pressão, disse ele. “Depois de abrir essa porta, não há como voltar
atrás, porque você sempre tem que ir mais longe.” Ele já havia acreditado na mídia social
como uma força de mudança, disse ele. Agora parecia trazer à tona tendências que só
poderiam ser prejudiciais, muito extremas mesmo para um grupo de revisionistas golpistas
de chapéu do MAGA. “Terraplanistas, anti-vacinas, teóricos da conspiração na política. É o
mesmo fenômeno”, disse ele. “Você vê isso em todos os lugares.” Se alguns dos maiores
exploradores e beneficiários desse sistema de repente estavam falando como Renée DiResta
ou Guillaume Chaslot, então percebi que os perigos deviam ter crescido além do que eu
tinha visto até agora, aqui ou na América. Eles tinham.
3. Dr. YouTube
nos arredores da cidade, quinze mães amontoadas sob um dossel de plástico na chuva,
esperando por Mardjane Nunes. Desde 2015, milhares de mulheres grávidas nas
Américas, infectadas por um novo vírus chamado Zika, deram à luz crianças com graves
problemas neurológicos e crânios deformados, uma condição conhecida como
microcefalia. O nordeste do Brasil, onde fica Maceió, foi o mais atingido. Em bairros
como este, as mães formaram grupos de apoio para ajudar umas às outras a enfrentar
a condição mal compreendida que aleijou seus filhos.
Isso explicava, disse ela, por que seu ministério investia cada vez mais recursos na
educação de famílias jovens como essas, apenas para se ver superado pela
desinformação que se espalhava ainda mais rapidamente, por meio da mídia social.
A evasão de vacinas estava aumentando no Brasil. O mesmo aconteceu com relatos de comunidades
que se recusaram a usar larvicidas contra mosquitos, um método preferido para combater o zika,
que também costuma ser mencionado em vídeos de conspiração. “As redes sociais estão ganhando”,
disse Nunes.
Não era um problema novo. DiResta descobriu o Facebook
Machine Translated by Google
Desde então, ela foi assolada por dúvidas e, acima de tudo, culpa.
Ela, ao aceitar as vacinas, causou a doença fatal de seu filho?
Os médicos disseram que ela não tinha. Mas essas empresas de tecnologia
americanas, profundamente respeitadas no Brasil, disseram a ela repetidamente que
sim. Eles até mostraram sua “prova”, colocando-a na frente dela quase toda vez que
ela procurava informações sobre como cuidar da criança que o YouTube e o Google
insistiam que ela havia aleijado para o resto da vida. “Eu me sinto impotente”, disse
ela. “Sinto-me impotente e ferido.” (Como inúmeros outros brasileiros, quanto mais
tempo ela passava no YouTube, mais vídeos ela via em apoio a Bolsonaro. Ela
também os achava persuasivos, disse ela, e votou nele.)
O hospital público de Maceió não é especialmente bem financiado. Quando visitei,
muitas das luzes do teto foram mantidas apagadas para economizar eletricidade. Mas
seu lugar na linha de frente contra o zika atraiu alguns dos maiores talentos médicos
do país. Quando os médicos souberam por que eu tinha vindo, eles arranjaram tempo
imediatamente, acenando para que eu entrasse na sala de descanso quase vazia.
“Fake news é uma guerra virtual. Temos isso vindo de todas as direções”, disse Flavio
Santana, neurologista pediátrico. As discussões dentro da comunidade médica do
país, disse ele, se concentram cada vez mais na frustração com as plataformas de mídia social.
“Se você for a outros lugares do Brasil, vai encontrar os mesmos problemas.”
Auriene Oliviera, uma infectologista, assentiu. Os pacientes desafiavam cada vez
mais seus conselhos e contestavam seus fatos. “Eles dizem: 'Não, pesquisei no
Google, vi no YouTube'”, disse ela. Ela compreendia o dilema de seus pacientes. As
conspirações ofereciam um nível de certeza que a ciência não podia. Os remédios
caseiros permitem que as mães sintam que estão retomando o controle da saúde de
seus filhos. E as plataformas sempre estiveram presentes de uma forma que a Dra.
Oliviera não poderia estar, aparecendo dia após dia na vida de mães que, por
trabalharem em vários empregos ou morarem longe, ela podia ver uma vez por mês.
Eles procuraram aplicativos para smartphones não por preguiça ou ignorância, mas
por necessidade.
Cada vez mais, no entanto, os vídeos virais colocam a vida das crianças em risco,
aconselhando as mães não apenas a recusar as vacinas, mas também a tratarem elas
mesmas certas condições, a recusar tubos de alimentação para crianças cuja condição
as torna incapazes de engolir. Algumas vezes, disseram os médicos, eles recorreram
à ameaça de entrar em contato com serviços infantis como forma de obrigar as mães
a ouvir. Era um poder que eles sentiam terrivelmente exercendo sobre as cabeças das
mães, mas às vezes era a única opção forte o suficiente para igualar o
Machine Translated by Google
Era uma prova concreta de que todos com quem conversamos sobre desinformação médica
no Brasil estavam ainda mais certos sobre o YouTube do que imaginavam. Que a plataforma
explorou o interesse normal do usuário em questões médicas, como fez com a política, para puxá-
los para buracos de coelho que, de outra forma, nunca teriam perseguido. E que, assim como o
YouTube aprendeu a sequenciar vídeos políticos para transformar espectadores casuais em
radicais digitalmente viciados, ele passou a organizar os vídeos de zika e vacinas precisamente
na ordem certa para persuadir mães amorosas a colocar deliberadamente em risco seus filhos.
“Sempre haverá conteúdo limítrofe nas plataformas. Isso era de se esperar”, disse Kaiser,
esforçando-se para simpatizar com as empresas de tecnologia.
“O mais chocante”, acrescentou, “é que os algoritmos do YouTube basicamente estão ajudando
as pessoas a seguirem essas direções”.
4. O Oleoduto
psicólogo clínico falado que conhecemos no centro materno de Maceió, insistiu para que
conversássemos. Ela estava na cidade, visitando seu centro de pesquisa na capital do
Brasil, para trabalho de campo com famílias de Zika. Brito estava ocupado o dia todo - os
pais estavam lutando - e já passava da meia-noite quando nos sentamos. Percorrendo o
telefone, ela abriu uma mensagem do WhatsApp que havia recebido de um pai de uma
criança com microcefalia. Era um vídeo que afirmava que o zika havia sido disseminado
pela Fundação Rockefeller como parte de uma conspiração para legalizar o aborto no
Brasil. O pai exigiu saber se era
verdadeiro.
Isso acontecia, disse Brito, o tempo todo agora. Em muitas partes do mundo, as
pessoas não podem pagar por computadores de tamanho normal ou banda larga, nem
mesmo pelas tarifas de dados associadas ao streaming de vídeo. O WhatsApp forneceu
uma solução alternativa. Com acordos de classificação zero que geralmente cobrem
cobranças de dados incorridas no aplicativo, as pessoas que não podiam transmitir o
YouTube podiam assistir a trechos que foram recarregados no WhatsApp e, em seguida,
encaminhá-los para amigos e compartilhá-los em grupos gigantes do WhatsApp. Em
partes do Brasil onde o analfabetismo é alto, acredita-se que esse seja o principal meio
pelo qual muitas famílias consomem notícias. Os grupos do WhatsApp são o Google, o
Facebook e a CNN, tudo em um.
Como eram usuários comuns copiando os clipes, o que quer que fosse tendência no
YouTube (ou Facebook) tornou-se mais provável de ser recarregado no WhatsApp e se
tornar viral novamente lá, como uma infecção pulando de um host para o outro. Vídeos
como o que o contato de Brito lhe enviou, disse ela, muitas vezes se espalham em grupos
de bate-papo do WhatsApp que foram criados para compartilhar informações sobre como
lidar com o Zika, virando os próprios esforços das pessoas para cuidar da saúde de suas
famílias contra elas. Brito e seus colegas se juntaram aos grupos, onde tentaram
desmascarar o pior, mas as perguntas continuaram chegando.
E o conteúdo do YouTube e do Facebook é filtrado constantemente, sem verificação.
Isso era outra coisa, disse Brito. À medida que as conspirações do zika se
espalhavam, os YouTubers de extrema-direita as sequestravam, acrescentando uma
reviravolta. Grupos de direitos das mulheres, alegaram, ajudaram a projetar o vírus como
uma desculpa para impor abortos obrigatórios. Freqüentemente, os vídeos chamavam o
grupo de Brito. Os espectadores, já apavorados com o zika, entenderiam a deixa. “Logo
depois que lançam um vídeo, começamos a receber ameaças”, disse Brito. As alegações,
ela sabia, ofereciam alívio psíquico para as famílias, deixando-as expressar sua culpa e
medo. Foi a construção de solução de crise de JM Berger: assim como os YouTubers
americanos transformaram a desapropriação masculina em raiva contra as feministas,
agora os brasileiros estavam explorando o terror de famílias confrontadas com uma doença implacável.
As ameaças contra Brito e seus colegas tornaram-se tão frequentes que a polícia
criou um canal especial para que eles denunciassem qualquer coisa que parecesse grave.
Eles o usavam cerca de uma vez por semana, disse ela. Mas ela se preocupava mais
com as mães que haviam internalizado as conspirações. Mais o tempo todo rejeitavam a
ajuda de grupos de ajuda que agora suspeitavam de afligir seus filhos. E sem apoio
médico e emocional, eles se aprofundaram ainda mais no YouTube. “Essas mulheres são
muito vulneráveis”, disse ela. “É muito fácil para eles cair na armadilha de acreditar
nessas teorias. Então, há muito desespero.”
“Eu a expus”, disse Küster em um vídeo muito assistido celebrando seu exílio.
“Você não é bem-vindo aqui”, gritou ele, apontando o dedo para a câmera. Mas Küster
era, Diniz acreditava, em muitos aspectos um produto de forças maiores do que ele.
Tanto ele quanto as ameaças que inspirou, ela argumentou, vieram de um “ecossistema
de ódio” cultivado pelo YouTube. “O sistema do YouTube de recomendar o próximo
vídeo e o próximo vídeo alimenta o ecossistema”, disse ela, falando devagar enquanto
escolhia cada palavra em inglês, seu terceiro idioma. “'Ouvi aqui que ela é inimiga do
Brasil. Eu ouço no próximo que as feministas estão mudando os valores familiares. E
na seguinte eu ouço que eles recebem dinheiro do exterior.' Esse loop é o que leva
alguém a dizer: 'Eu vou
Machine Translated by Google
faça o que tem que ser feito.'” O efeito foi tão persuasivo, disse ela, porque “parece que
a conexão é feita pelo espectador, mas a conexão é feita pelo sistema”.
Exilados como o de Diniz eram cada vez mais comuns. Afinal, você não pode se
proteger contra uma ameaça que vem de todos os lugares. Alguns meses antes, Marcia
Tiburi, uma ativista de esquerda que concorreu ao governo do estado do Rio de Janeiro,
fugiu do Brasil para escapar de ameaças de morte amplamente fomentadas nas redes
sociais. Jean Wyllys, o único legislador abertamente gay do país, fez o
mesmo.
Na noite anterior à nossa entrevista, disse Diniz, ela havia jantado com Wyllys, que
estava na cidade. Alguém deve tê-los reconhecido, pois um grupo de brasileiros se reuniu
em frente ao restaurante, tirando fotos e apontando. A multidão os ameaçou quando eles
saíram, seguindo-os pela rua, gritando calúnias e acusações ecoando as conspirações
no YouTube.
Era por isso que Diniz raramente saía, mesmo aqui.
“Temos uma milícia movida por algoritmos”, disse ela. "O
algoritmos estão construindo a milícia.”
Perguntei se ela ainda recebia mensagens ameaçadoras.
“É todo dia”, disse ela. “Você nunca, nunca se sente confortável com uma situação
como esta.”
Estávamos conversando há uma hora, as câmeras e as luzes se aproximando
enquanto eu pedia a ela para navegar, no filme e em uma língua estrangeira, seu próprio
trauma. Eu disse a ela que não conseguia imaginar o que seria necessário para continuar
falando, sabendo que os perigos a perseguiam até aqui.
Ela abriu os braços sobre a mesa em que estávamos sentados e olhou para baixo.
Ela estava chorando. “Há momentos em sua vida em que você enfrenta um dilema”,
disse ela. “Você tem apenas duas opções. Uma delas é deixá-los vencer. E a outra é
lutar. Não quero esse idioma para minha vida. Mas vou dedicar minha vida para mudar
essa situação. E eles não vão me matar. Eles não vão me matar.
Eu me ofereci para terminar a entrevista, mas ela balançou a cabeça. Ela disse que
acompanhou as histórias de médicos e ativistas visados por vídeos do YouTube,
professores enviados para a clandestinidade, vidas arruinadas e comunidades
subvertidas. “Precisamos que as empresas enfrentem seu papel”, disse ela. Ela instou
os executivos do YouTube a refletirem sobre seu próprio envolvimento. “Minha esperança
é que eles entendam que fazem parte dessa comunidade de ódio”, disse ela.
Machine Translated by Google
Depois de admitir que alguns dos vídeos de desinformação sobre saúde identificados por
Kaiser violavam as regras do site, a empresa os removeu. Os detalhes da pesquisa de Kaiser,
que eu transmiti ao YouTube, indicavam que havia centenas de vídeos, possivelmente milhares,
instando as mães a negarem aos filhos cuidados que salvam vidas. Enviamos apenas alguns links
como exemplos. O YouTube nunca pediu os outros. A empresa também não pediu detalhes sobre
os vídeos que inspiraram ameaças de morte críveis contra Diniz e outros, muitos dos quais
permanecem online.
Mais tarde naquele ano, o YouTube anunciou que havia feito alterações em seu algoritmo
com o objetivo de reduzir “a disseminação de conteúdo limítrofe e desinformação prejudicial”. Mas
algumas dessas mudanças já estavam em vigor quando fizemos nossos relatórios, levantando
questões sobre sua eficácia.
A empresa divulgou uma métrica um tanto oblíqua para o sucesso: “Uma queda de 70% no tempo
de exibição desse conteúdo proveniente de recomendações de não inscritos nos EUA”
Em maio de 2019, dois meses depois de voltar do Brasil, recebi uma mensagem de texto do
Kaiser: ele precisava que eu ligasse para ele imediatamente. Ele atendeu no primeiro toque, com
a voz trêmula. Ele e os outros estavam executando mais iterações de seu programa de
rastreamento de plataforma em canais brasileiros, disse ele.
E eles encontraram algo tão perturbador que não sabiam o que fazer com isso. Kaiser não estava
ligando para falar de um artigo, percebi. Ele estava pedindo ajuda.
5. Campos de Treinamento
talvez tão jovem quanto cinco ou seis trocando de roupa ou se contorcendo em uma pose de
ginástica. Em seguida, um fluxo quase interminável desses vídeos, extraídos de todo o
mundo. Nem todos pareciam ser filmes caseiros; alguns foram carregados por contas
cuidadosamente anonimizadas.
A especificidade implacável das seleções do YouTube era quase tão perturbadora quanto
o próprio conteúdo, sugerindo que seus sistemas poderiam identificar corretamente um vídeo
de uma criança parcialmente nua e determinar que essa característica era o apelo do vídeo.
Mostrar uma série deles imediatamente após o material sexualmente explícito deixou claro
que o algoritmo tratava as crianças involuntárias como conteúdo sexual. As extraordinárias
contagens de visualizações, às vezes na casa dos milhões, indicavam que não se tratava de
um capricho de personalização. O sistema havia encontrado, talvez construído, uma
audiência para os vídeos. E estava trabalhando para manter esse público envolvido.
“É o algoritmo do YouTube que conecta esses canais. Essa é a coisa assustadora”, disse
Kaiser, chamando as recomendações de “perturbadoramente precisas”.
Ele sabia proceder com cuidado com esses vídeos. As leis americanas contra a exibição de
pornografia infantil oferecem poucas exceções para pesquisadores ou jornalistas. A maioria
dos clipes caiu, provavelmente, pouco antes de constituir pornografia infantil legalmente. Mas
alguns não. E o contexto em que o YouTube os colocou não permitia ambiguidade quanto à
sua intenção. Kaiser e eu estabelecemos procedimentos para rastrear os vídeos com
responsabilidade e sem expor ninguém a danos. Mas também nos sentimos compelidos a
agir rapidamente. As contagens de visualizações estavam aumentando em milhares por dia.
Alguns, como o da filha de Christiane, foram postados com o nome dos pais, deixando as
crianças nos vídeos facilmente rastreáveis pelo tipo certo de monstro. Algo tinha que ser feito.
Juliana Cunha, psicóloga da SaferNet, um monitor brasileiro de internet, disse que sua
organização já havia visto esse fenômeno antes. Mas nunca envolvendo garotas tão jovens.
E nunca alcançando um público tão grande. Vídeos semelhantes, comercializados em fóruns
da dark web e sites de compartilhamento de arquivos, normalmente podem atingir algumas
centenas de pessoas. Este parecia ser o catálogo de vídeos de exploração infantil mais visto
já reunido, promovido para uma audiência de milhões.
A maioria das pessoas que vê imagens sexualizadas de crianças deixa por isso mesmo,
sugerem pesquisas. Mas alguns espectadores se tornam mais propensos, a cada exibição,
a entrar em contato diretamente com as crianças, um primeiro passo para preparar as vítimas
para possíveis abusos físicos. Grupos de segurança infantil temiam que os vídeos pudessem
Machine Translated by Google
torne isso mais fácil, até mesmo convide-o, levando-os repetidamente aos espectadores
interessados, desgastando-os e identificando os nomes dos membros da família ou das
contas das crianças nas redes sociais.
Havia, temiam os psicólogos, outro risco. O YouTube cultivou um enorme público de
espectadores que nunca procuraram o conteúdo, mas foram atraídos pelas recomendações
da plataforma. Esta não era apenas mais uma toca de coelho. O caminho parecia imitar,
passo a passo, um processo que os psicólogos observaram repetidamente em pesquisas
sobre como as pessoas desenvolvem atração pela pornografia infantil.
Suas compulsões eram moldadas por qualquer conteúdo que encontrassem, semelhante
ao treinamento. Não era absolutamente inevitável que essas pessoas seguissem seu
impulso além de qualquer linha moral. Nem que essa compulsão, se a seguissem, os levaria
a ter filhos. Mas no YouTube, o segundo site mais popular do mundo, o sistema parecia ter
identificado as pessoas com esse desejo, conduzindo-as por um caminho que o permitia no
ritmo certo para mantê-las em movimento e, em seguida, apontou-as em um direção muito
específica. “Isso é algo que os leva nessa jornada”,
foram pegos.
Ainda assim, todos os especialistas que Amanda e eu consultamos disseram que
havia evidências que sugeriam que as conclusões de Seigfried-Spellar e Rogers, bem
como seus temores de sua aplicação ao YouTube, tinham mérito. Stephen Blumenthal,
um psicólogo clínico do Serviço Nacional de Saúde da Grã-Bretanha que trata pessoas
com interesses sexuais desviantes e publicou pesquisas acadêmicas sobre seu
trabalho, disse que viu pacientes desenvolverem desejos pedófilos seguindo uma
progressão semelhante. “É incrivelmente poderoso e as pessoas são atraídas para
isso”, disse ele. “Eles nunca teriam seguido esse caminho se não fossem as
possibilidades que a internet abriu.” Embora desconhecia casos envolvendo
especificamente o YouTube, disse ele, os paralelos o preocupavam.
O mesmo aconteceu com a escala e a eficiência sem precedentes dos métodos do YouTube.
O YouTube respondeu com ceticismo quando apresentou nossas descobertas.
Um porta-voz chamou as preocupações dos psicólogos em particular de “questionáveis”.
A posição do YouTube, ela disse, era que a ciência ainda não havia estabelecido se
os impulsos pedófilos poderiam ser treinados ou intensificados por fatores ambientais,
como Seigfried-Spellar, Rogers e Blumenthal descobriram. O porta-voz citou uma
especialista chamada Ethel Quayle, cuja pesquisa, disse ela, desafiou a existência de
qualquer efeito de “porta de entrada”.
Mas, apesar da alegação confusa de responsabilidade do YouTube sobre a
incerteza científica, quando Amanda contatou Quayle, da Universidade de Edimburgo,
Quayle disse que, de fato, sua pesquisa apoiava a teoria do efeito gateway. Os
especialistas, disse ela, há muito temiam que os algoritmos de aprendizado de
máquina criassem esses caminhos. “O algoritmo não tem nenhum tipo de bússola
moral”, disse ela. Em um estudo recente de infratores de pornografia infantil que ela
conduziu, ela disse, “a maioria falou sobre seguir links, originalmente de sites
pornográficos legítimos, e depois perseguir cada vez mais material desviante”.
além de exibir as altas contagens de visualizações dos vídeos, demonstrando que eles
foram amplamente vistos e, portanto, presumivelmente aceitáveis. Como Rogers havia
dito: “Você normaliza isso”.
Imediatamente após notificarmos o YouTube sobre o que havíamos encontrado,
vários dos vídeos que enviamos como exemplos foram removidos. (Muitos que não
havíamos enviado, mas que faziam parte da mesma rede, permaneceram online.) O
algoritmo da plataforma também mudou imediatamente, deixando de vincular as dezenas
de vídeos. Quando perguntamos ao YouTube sobre isso, a empresa insistiu que o
momento era uma coincidência. Quando pressionei, um porta-voz disse que era
hipoteticamente possível que o momento estivesse relacionado, mas que ela não poderia
dizer de qualquer maneira. Parecia que o YouTube estava tentando arrumar sem
reconhecer que havia algo para arrumar.
Os porta-vozes da empresa nos solicitaram muitas informações: estudos, estudos
alternativos, detalhes sobre a metodologia dos pesquisadores. Eles nos pediram para
definir termos como rede e o que queríamos dizer com usuários “encontrando” vídeos.
Eles perguntaram quantas palavras a história teria. Eles nos pediram para esclarecer
alguns detalhes e, alguns dias depois, fizeram a mesma pergunta novamente.
E eles insistiram em falar com um de nossos editores do jornal antes da publicação, a
quem pressionaram para obter detalhes sobre palavras específicas que a história usaria
para descrever o papel do YouTube.
Durante minhas idas e vindas com o YouTube, as análises que Kaiser e sua equipe
ainda estavam fazendo chegaram a algo. Logo depois, entramos em contato com o
YouTube sobre os vídeos de exploração infantil, notificando a empresa de que a equipe
de Kaiser os havia encontrado em parte rastreando o recurso estático de “canal
relacionado” - assim como ele havia feito em todos os experimentos anteriores, como
uma verificação metodológica de seus resultados. - a empresa excluiu o recurso
completamente. Em todo o site, depois de anos no local, ele se foi. Quando perguntamos
à empresa se o tempo estava relacionado, os representantes alegaram desconhecer que
Kaiser havia usado o recurso em sua pesquisa. Foi uma afirmação estranha, não apenas
porque dissemos a eles que ele estava fazendo isso, mas porque o YouTube já havia se
oposto à pesquisa de Kaiser exatamente por esses motivos.
sem rodeios. Ainda assim, disse ela, não aceita a pesquisa sugerindo que o algoritmo
do YouTube atraiu os usuários para conteúdos mais extremos, neste caso ou em outros.
Mesmo em um assunto politicamente e legalmente delicado - no qual o YouTube
enfrentou um enorme incentivo para assegurar ao mundo que estava tomando todas as
medidas possíveis em resposta - para reconhecer publicamente o papel do sistema e,
assim, reconhecer suas tendências radicalizadoras neste e em tantos outros assuntos ,
permaneceu uma impossibilidade.
Eu disse que era difícil enquadrar essa postura com os vídeos que tínhamos visto,
os milhões de visualizações, a forma como o sistema encaminhava os usuários para
eles. Ela não cedeu ao ponto, mas sugeriu que o YouTube se protegeria de qualquer
maneira. “Quando se trata de crianças”, disse ela, “queremos apenas adotar uma
postura muito mais conservadora em relação ao que recomendamos”. O'Connor foi vago
nos detalhes, que ela disse estarem sendo elaborados.
Lembrei-me de algo que Kaiser havia dito. Havia, ele argumentou, apenas uma
maneira segura de impedir que isso acontecesse novamente. Em vídeos de crianças,
desligue o algoritmo. Apenas pare de recomendar vídeos de crianças. Isso estava dentro
da capacidade técnica do YouTube. Depois de uma controvérsia anterior sobre
comentários abaixo de vídeos de crianças, ele criou um sistema para identificar
automaticamente esses vídeos e desativar seus comentários. Além disso, para uma
empresa de US$ 15 bilhões por ano, quanto dinheiro esses vídeos poderiam realmente
render? Perguntei a O'Connor se o YouTube consideraria algo assim. Para minha
surpresa, ela disse que a empresa estava “tendendo nessa direção”. Ela prometeu
novidades em breve.
Repassei a conversa para a equipe da Kaiser, bem como para alguns grupos de
monitoramento, que ficaram emocionados. Eles chamaram isso de um passo
extremamente positivo, a internet se tornou significativamente mais segura para as
crianças. Mas pouco antes da publicação, o YouTube “esclareceu” o comentário de
O'Connor. Os criadores de vídeos do YouTube contam com recomendações para
direcionar o tráfego, disseram eles, para que o algoritmo permaneça ativado, mesmo
para vídeos de crianças pré-adolescentes.
Depois que nossa história foi publicada, Josh Hawley, um senador republicano que
costumava criticar as plataformas de mídia social, anunciou um projeto de lei em
resposta às nossas descobertas. Assim como Kaiser pediu, isso forçaria o YouTube e
outras plataformas a encerrar as recomendações de vídeos de crianças. Mas o projeto
de lei de cinco páginas, que nunca foi votado, parecia ter sido principalmente para se
exibir. Ainda assim, o senador Richard Blumenthal, um democrata que avançou
Machine Translated by Google
reformas sérias na internet, assinou uma carta com a senadora Marsha Blackburn, uma
republicana, ao CEO do YouTube sobre a história. Ele colocou questões precisas e objetivas.
Um deles perguntou se os gerentes de política do YouTube para segurança infantil seriam
“incluídos nas decisões de design e no ciclo de vida do produto”.
Este era um problema comum no Vale: as pessoas que estudam o impacto das plataformas,
como não engenheiros, têm pouco a dizer sobre seu projeto. A carta de Blumenthal e Blackburn
também repetia a pergunta principal de Kaiser: por que não simplesmente desligar as
recomendações de vídeos de crianças?
Em julho daquele ano, o Comitê Judiciário do Senado dedicou uma audiência completa,
embora com pouca participação, ao assunto. Seu presidente, Lindsey Graham, repetiu a
ameaça de longa data de Trump de retirar as proteções de responsabilidade das plataformas.
Blumenthal, o único democrata a comparecer, disse estar "francamente desapontado" com o
que considerou a falta de resposta do YouTube. “Este relatório foi doentio”, disse Hawley na
audiência, referindo-se à história. “Mas acho que o mais repugnante foi a recusa do YouTube
em fazer qualquer coisa a respeito.”
Doze
Infodemia
À medida que o vírus se espalhou por nações inteiras naquelas primeiras semanas, o medo
e o isolamento se espalharam com ele. Lojas e espaços públicos fechados com tábuas. Uma
quietude apocalíptica pairava sobre as principais vias e distritos comerciais, interrompida apenas
por sirenes uivantes à medida que as enfermarias dos hospitais aumentavam - e, em alguns
lugares, pela marcha lenta macabra de caminhões frigoríficos do lado de fora dos necrotérios
superlotados. Famílias se preparavam em casa como se estivessem se preparando para uma
invasão, aventurando-se apenas para tensas corridas ao supermercado durante as quais, em
nossa ignorância coletiva, muitos calçaram luvas ou borrifaram Windex em produtos cujas
superfícies, pelo que sabíamos, poderiam estar fatalmente contaminadas. As cidades se
reanimavam por um único minuto todas as noites, quando moradores de apartamentos fechados
abriam suas janelas para comemorar em gratidão aos trabalhadores da linha de frente, embora
talvez também como uma forma de buscar algum senso de comunidade, de segurança em números.
Nas outras 23 horas e 59 minutos do dia, os medrosos ou solitários podem recorrer a outra
janela para o mundo exterior: o computador.
Machine Translated by Google
Vários anos de adoção digital aconteceram da noite para o dia. O Facebook relatou um
aumento de 70% no uso em alguns países. O Twitter cresceu 23 por cento. Uma
empresa de serviços de internet estimou que a participação do YouTube no tráfego
mundial da internet saltou de 9 para 16 por cento. O uso geral da Internet aumentou
40%, disse a empresa, sugerindo que, na verdade, o tráfego do YouTube quase triplicou.
“máfia médica” que procura inserir microchips em seus filhos. O Facebook também
experimentou um “crescimento explosivo nas visualizações anti-vacinação”, de acordo
com um estudo da Nature, já que o sistema de recomendação da plataforma parecia
desviar um grande número de usuários das principais páginas de saúde para grupos
antivacinas.
Ao longo de 2020, três forças surgiram paralelamente nas plataformas de mídia
social, das quais as conspirações do coronavírus foram apenas as primeiras. Os outros
dois seriam igualmente fatídicos: tensões crescentes de extremismo online, passando
por nomes que muitos americanos teriam achado ridículos no início do ano e que eram
aterrorizantes no final; e, separadamente, entre os americanos de forma mais ampla,
indignação ultrapartidária e desinformação exagerada a ponto de tornar a rebelião
armada não apenas aceitável, mas, para muitos, necessária. Todas as três forças se
basearam em causas que existiam além da mídia social - a pandemia, reação branca a
uma onda de protestos por justiça racial durante o verão e, especialmente, o presidente
Trump.
Mas a mídia social impulsionou e moldou essas causas até que, em 6 de janeiro de
2021, elas convergiram em um ato de violência em massa, organizado online, que
mudaria a trajetória da democracia americana, talvez para sempre.
Durante toda aquela primavera, enquanto as mentiras e os rumores da Covid se
espalhavam, os gigantes da mídia social insistiram que estavam tomando todas as
medidas disponíveis. Mas documentos internos sugerem que os executivos do
Facebook, em abril, perceberam que seus algoritmos estavam aumentando a
desinformação perigosa, que poderiam ter contido o problema drasticamente com o
toque de um botão e que se recusaram a fazê-lo por medo de prejudicar o tráfego. Os
pesquisadores da empresa descobriram que “recompartilhamentos em série” –
postagens compartilhadas repetidamente de usuário para usuário – eram mais prováveis
de ser desinformação. O algoritmo, vendo essas postagens como boa forragem viral,
aumentou seu alcance artificialmente. Simplesmente desligar esse impulso, descobriram
os pesquisadores do Facebook, reduziria a desinformação relacionada à Covid em até
38%. Mas Zuckerberg vetou. “Mark não acha que poderíamos ir além”, escreveu um
funcionário que informou Zuckerberg em um memorando. “Não lançaríamos se
houvesse uma troca material com a MSI”, acrescentou ela, usando o acrônimo de
engajamento do Facebook, abreviação de “interações sociais significativas”.
No mesmo mês, pesquisadores do Facebook investigaram páginas de “viralidade
fabricada”, que republicam conteúdo já viral para atrair seguidores, uma ferramenta
preferida de golpistas, clickbaiters e vendedores de influência russos. O
Machine Translated by Google
agências de notícias. “E essa é uma conversa difícil de se ter, porque todos eles têm
resultados financeiros.”
Ele se reuniu regularmente com contatos corporativos durante a pandemia. Mas as
evidências de danos no mundo real continuaram aumentando. Os americanos que
usaram Facebook, Twitter ou YouTube, segundo um estudo, tornaram-se mais
propensos a acreditar que a vitamina C poderia tratar com sucesso a Covid ou que o
governo havia fabricado o vírus. Milhões estavam rejeitando máscaras e distanciamento
social e mais tarde rejeitariam vacinas. Os médicos relataram cada vez mais pacientes
recusando tratamentos salva-vidas com base em algo que viram online, assim como
famílias brasileiras atormentadas pelo zika fizeram apenas um ano antes, e muitas
vezes citando as mesmas conspirações. Trump, impulsionado pela fúria online que
inundou sua base, encorajou cada passo, promovendo curas falsas para a Covid e
prometendo “libertar” os estados com bloqueio.
medidas.
“Mais evidências de uma plandemia”, um californiano mandou uma mensagem de
texto para seu primo em outubro, vinculando a um vídeo do TikTok, no tipo de troca que
se tornou rotina na vida americana. “Não abrace nenhum dos vacinados, os sintomas
estão diretamente relacionados ao derramamento da vacina”, respondeu o primo,
referindo-se a uma conspiração propagada pelo Facebook. Ambos os homens tinham
Covid. Durante dias, eles trocaram mensagens de texto, atribuindo seus sintomas a
médicos intrigantes ou vacinas com base em rumores que viram online, de acordo com
mensagens posteriormente recuperadas pela escritora Rachel McKibbens, que era irmã
de um dos homens. “O maldito hospital me deixou muito pior. Meus pulmões não
estavam de forma alguma tão ruins quando entrei lá”, escreveu o irmão de McKibbens.
A equipe do hospital, ele estava convencido, estava “através do dinheiro agora”.
À medida que sua saúde piorava, os dois homens buscaram evidências de que os
rumores da mídia social estavam certos, com um atribuindo a menstruação abundante
de sua esposa às vacinas com base em uma falsidade promovida no Instagram. Eles
recomendaram um ao outro tratamentos falsos que circularam no YouTube e no
Facebook. Acima de tudo, eles se encorajaram a resistir aos conselhos de médicos,
autoridades de saúde e até de McKibbens. Seu irmão, com os sintomas piorando, foi
hospitalizado. Mas, certo de que os médicos o estavam envenenando como parte das
conspirações sobre as quais ele tinha ouvido falar várias vezes online, ele recusou o
tratamento e foi embora, ficando em casa. Alguns dias depois, ele morreu ali, sozinho.
Machine Translated by Google
2. Saques e Tiros
À medida que populações inteiras caíam na desinformação sobre saúde naquela primavera
e verão, uma segunda toca de coelho paralela se abriu nas mídias sociais, atraindo jovens
brancos desanimados que buscavam comunidade e propósito. Era um grupo demográfico
que, embora menor do que aqueles que sucumbiam às conspirações da Covid, provaria ser
quase tão perigoso assim que as plataformas fizessem seu trabalho. A direita alternativa
online, antes focada em pouco mais do que memes do Gamergate ou Pepe the Frog, foi
recrutada para um mundo de milícias que se descrevem se preparando para o colapso
social que eles tinham certeza de ser iminente.
Carrillo chegou aos grupos em meio a uma vida turbulenta. Ele cresceu pobre, passou
entre pais na pequena cidade da Califórnia e avós na zona rural do México. Em 2015, ele
sofreu um traumatismo craniano em um acidente de carro, que embotou sua personalidade
outrora brilhante e, em 2018, perdeu sua esposa para o suicídio. Depois disso, ele entregou
os filhos aos sogros e se mudou para uma van.
“Ele estava completamente desconectado”, disse sua irmã. Mas a Força Aérea o enviou
ao Oriente Médio durante grande parte de 2019. Amigos na base o apresentaram a grupos
do Facebook que se autodenominavam milícias. Na verdade, eram páginas de bate-papo
dedicadas a fantasiar sobre insurreição ou guerra civil. Eles ofereceram aos membros uma
maneira de dar sentido ao mundo, reenquadrando-o dentro da narrativa dos extremistas de
crises individuais respondidas por soluções coletivas, assim como os incels do Reddit
encontraram comunidade ao imaginar uma revolta contra as feministas, ou usuários do 8chan
elogiando atos de genocídio até Brenton Tarrant realizou um na Nova Zelândia. O grupo de
Carrillo havia se nomeado, em uma piscadela irônica semelhante, Boogaloo. Começou como
um meme do 4chan. Os usuários pediram uma insurreição nacional, com o objetivo de
derrubar o governo e criar uma utopia de direita, invocando “Civil War 2: Electric Boogaloo”,
uma peça do filme de dança dos anos 80 Breakin' 2: Electric Boogaloo .
bloqueios exatamente como a tomada de poder predita em conspirações virais como as de Plandemic
ou QAnon, algoritmos de mídia social identificaram páginas de milícias outrora obscuras como
Boogaloo como exatamente o tipo de coisa que atrairia esses usuários ainda mais para os mundos
online. As postagens do Boogaloo se espalharam tão rapidamente pelo Facebook, Twitter, Instagram
e Reddit que um grupo de monitoramento de extremismo alertou que “insurgências virais” estavam
“se desenvolvendo à vista de todos”. Os conspiradores da Covid, interligados com as causas da milícia
pelos algoritmos das plataformas, trouxeram os recrutas dessas milícias e uma nova causa urgente,
enquanto as milícias deram aos conspiradores um senso de propósito: um conflito final iminente com o
governo. Crise e solução. Como em movimentos semelhantes de 4chan para o Facebook, Boogaloo e
outras milícias cujos seguidores postaram sobre o início de uma guerra civil pareciam sinalizar
principalmente membros de um grupo, não intenções sinceras. Mas alguns perderam de vista a
diferença; instruções para explosivos caseiros e armas de fogo proliferaram.
Ao longo do início de 2020, Carrillo, agora de volta à Califórnia, onde começou a namorar uma
mulher local, passou cada vez mais tempo nas páginas do grupo, adotando o Boogaloo como
identidade. Ele adornou seu perfil no Facebook com memes da milícia e, em março, comprou um
componente AR-15 por meio de um site que anunciava nos grupos do Boogaloo no Facebook e
prometia doar parte de seus lucros para a família de um suposto membro do Boogaloo que havia sido
morto naquele mês. em confronto com a polícia. Algumas semanas depois de sua troca de texto sobre
o planejamento de uma “operação”, Carrillo se juntou a grupos apenas para convidados no Facebook
e WhatsApp para membros locais do Boogaloo, onde planejaram encontros de “treinamento com
armas de fogo” e discutiram planos vagos para desencadear sua guerra civil matando policiais. Um
arquivo de “integração” que ele preencheu em abril o informava, no faz de conta comum a esses grupos
de videogame: “Nossas áreas de operações podem nos levar da sujeira ao centro da cidade em um
piscar de olhos”.
Boogaloo era apenas um grupo de muitos outros como ele. Também naquele mês, ativistas de
armas de extrema direita criaram páginas no Facebook estado por estado chamando os moradores locais.
Machine Translated by Google
No final de maio, Ivan Hunter, o membro do Boogaloo com quem Carrillo havia enviado
uma mensagem de texto sobre uma “operação”, dirigiu com vários outros para Minneapolis,
onde estavam ocorrendo protestos contra o assassinato policial de George Floyd, um homem
negro desarmado. Os homens se reuniram do lado de fora de uma delegacia de polícia que
havia sido tomada por algumas centenas de manifestantes. Hunter gritou: “Justiça para Floyd”,
ergueu um rifle estilo Kalashnikov e disparou treze vezes contra o prédio. Ninguém ficou ferido.
Ele provavelmente esperava, como Boogaloos costuma escrever online, provocar violência
entre manifestantes e policiais que se transformaria em guerra.
Alguns dias depois, em 28 de maio, Carrillo postou um vídeo dos protestos do Black Lives
Matter em um grupo Boogaloo no Facebook que ele frequentava. “Agora está na nossa costa,
isso precisa ser nacional… de matar para desencadear o conflito total que desejavam. Ele
acrescentou: “Temos multidões de pessoas furiosas para usar a nosso favor”. Outro usuário
local, Robert Justus, respondeu: “vamos dançar”. Naquela noite, Carrillo pediu a namorada em
casamento com um anel de silicone de vinte e cinco dólares, que prometeu substituir por um
diamante, e fez as malas para partir pela manhã.
Machine Translated by Google
Páginas de Boogaloo como a dele não geraram por conta própria a sensação de
conflito civil iminente. Eles o absorveram das plataformas de mídia social, que estavam
impregnadas nele. Naquela mesma noite, 28 de maio, Trump, dirigindo e alimentando
esse sentimento, postou no Twitter e no Facebook que, se as autoridades em
Minneapolis não reprimissem os protestos do Black Lives Matter, ele “enviaria a Guarda
Nacional e faria o trabalho direito. .” Ele acrescentou: “Qualquer dificuldade e
assumiremos o controle, mas, quando os saques começarem, os tiros começarão”.
Sua última frase, ecoando a infame promessa de um chefe de polícia de Miami em
1967 de reprimir os bairros negros, parecia encorajar a violência letal em um momento
em que as tensões eram altas, os confrontos nas ruas aumentavam e tanto a polícia
quanto as milícias de extrema-direita estavam em posição de cumprir.
O Twitter adicionou uma mensagem de alerta à postagem de Trump, dizendo que
ela violava as regras contra “glorificação da violência” e limitava a circulação da
postagem. Mas Zuckerberg anunciou que, embora considerasse o post “divisivo e
inflamatório”, o Facebook o deixaria de lado. “Achamos que as pessoas precisam saber
se o governo está planejando usar a força”, explicou ele. Foi uma justificativa estranha
- amplificar o incitamento para o bem da consciência pública. Zuckerberg ligou
pessoalmente para Trump para reiterar as políticas do Facebook. Ele convocou uma
prefeitura em toda a empresa para defender sua decisão, que os funcionários
denunciaram internamente.
As tendências das plataformas estavam afetando a todos, não apenas à direita pró-
Trump. No mesmo dia da postagem de “saques e tiros” de Trump, um repórter de
Minneapolis publicou fotos dos protestos do Black Lives Matter na cidade. Usuários de
esquerda do Twitter questionaram se as fotos poderiam colocar os manifestantes em
risco de prisão. Quaisquer que sejam os méritos da questão, a indignação de uma
superioridade a dominou. Outros usuários ganharam mais atenção ao dizer que as
fotos, mais do que apenas arriscar a prisão, garantiram os assassinatos dos
manifestantes. Eles citaram uma conspiração há muito desmascarada, alegando que
os manifestantes fotografados em comícios anteriores do BLM tendiam a morrer
posteriormente em circunstâncias misteriosas. A indignação aumentou como uma bola
de neve, com dezenas de milhares de usuários acusando o fotógrafo de colocar deliberadamente em perig
Muitos expressaram o desejo de vê-lo ferido ou morto; outros se comprometeram a
realizá-lo. Alguns divulgaram seu número de telefone e endereço residencial. Naquela
noite, uma personalidade esquerdista do Twitter postou fotos das placas do carro de
um repórter da CNN, dizendo que pertencia a “provocadores mentirosos” infiltrados no
BLM em nome da polícia. A postagem ganhou 62.000 interações, provavelmente atingindo
Machine Translated by Google
Nos dias seguintes, Carrillo trocou mensagens no WhatsApp com outros membros do
grupo, incluindo Hunt, que estava escondido depois de atirar no escritório da delegacia de
Minneapolis, para planejar mais violência. Mas uma semana depois de seu ataque, a polícia
rastreou Carrillo até sua casa em uma cidade rural chamada Ben Lomond. Quando chegaram,
ele estava em uma encosta próxima, esperando em uma emboscada. Ele disparou
repetidamente um AR-15 caseiro e arremessou explosivos caseiros, matando um policial e
ferindo vários outros. Ele havia enviado mensagens a seus amigos, pedindo reforços, mas
depois de meses de conversas encorajadoras, eles o ignoraram. Carrillo, ferido pelo tiro de
retorno, fugiu em um carro roubado, mas foi rapidamente capturado. A polícia descobriu que
ele havia escrito “boog” com o próprio sangue no capô. O tiroteio ocorreu a menos de 70
quilômetros do campus do Facebook.
Carrillo, que permanece sem remorso, casou-se mais tarde, em uma cerimônia na prisão,
com a namorada a quem havia pedido em casamento na véspera de seus assassinatos.
Seu amigo Robert Justus, que também foi preso, disse aos promotores que
Machine Translated by Google
Carrillo o forçou a ir junto. Em janeiro de 2022, a irmã de um dos policiais que ele
assassinou processou o Facebook, alegando que a empresa permitiu conscientemente
que seus algoritmos promovessem e facilitassem o extremismo violento que levou à morte
de seu irmão. Embora as chances do processo sejam baixas, representa uma sensação
de que a aparente cumplicidade do Vale do Silício na desintegração do país em 2020 não
pode ser ignorada - uma sensação que, poucas horas após o crime de Carrillo, já havia
começado a se estender às próprias forças de trabalho das empresas.
3. Atrito
em nome de um mundo que cada vez mais via essas empresas como uma ameaça perigosa.
As preocupações com a desinformação eleitoral vinham aumentando há meses.
No final de maio, um dia após o assassinato de Floyd, Trump postou uma série de falsidades se
opondo às políticas de votação antecipada da Califórnia, escrevendo: “Esta será uma eleição
fraudulenta”. Depois de anos habilitando Trump, o Twitter finalmente agiu, mais ou menos. Ele
anexou uma pequena caixa intitulada “Obtenha os fatos”, com um link para uma página separada
que verificava gentilmente as alegações de Trump. Foi em grande parte simbólico.
Após a paralisação do Facebook, em uma pomada aos funcionários, Zuckerberg anunciou que
apoiava o BLM. No entanto, naquele mesmo dia, a postagem mais popular de sua plataforma foi um
vídeo da personalidade de direita Candace Owens afirmando que “a brutalidade policial com
motivação racial é um mito” e que George Floyd era “um criminoso” e “horrível ser humano”. Foi visto
94 milhões de vezes, quase o mesmo que o Super Bowl.
É improvável que isso prejudique a receita de anúncios de US$ 80 bilhões por ano do Facebook.
Mas a ameaça aos seus resultados inspirou algo como ação, e não apenas no Facebook. No final de
junho, o Facebook e o Instagram baniram o Boogaloo de suas plataformas. O YouTube removeu
vários extremistas brancos proeminentes, incluindo o organizador do Unite the Right, Richard
Spencer - quase três anos após os eventos em Charlottesville. Talvez o mais significativo seja o fato
de o Reddit ter fechado duas mil comunidades que dizia terem se envolvido em discurso de ódio,
incluindo The_Donald, o ponto de encontro não oficial da extrema-direita online. As repressões foram
um ponto de virada, o reconhecimento implícito de que hospedar o ódio era efetivamente uma política
de apoio à sua disseminação. Esse bom discurso não iria, nessas plataformas, derrotar naturalmente
o mau. Ainda assim, as remoções vieram, como tantas antes, tarde demais. O insurrecionista,
nacionalista branco
Machine Translated by Google
eles deletaram uma postagem de Trump. Ele havia publicado um vídeo chamando as crianças
de “quase imunes” à Covid. Pôr em risco a saúde das crianças foi, finalmente, uma ponte
longe demais. O YouTube seguiu o exemplo. (As empresas podem ter esperado que isso
servisse como um tiro de advertência, mas não alterou seu comportamento. Dois meses e
muitas mentiras depois, eles retirariam outro de seus cargos praticamente pelos mesmos
motivos.) Enquanto isso, Trump continuou para se beneficiar da promoção algorítmica cujo
valor excedia em muito o fardo de qualquer tapa no pulso: seus números de engajamento no
Facebook ultrapassaram os de Joe Biden por quarenta a um naquele último mês do verão,
mesmo quando Trump ficou atrás nas pesquisas - mais uma prova de que as plataformas
não refletem a realidade, mas criam a sua própria.
Em setembro, os Estados Unidos caminhavam para uma eleição em que a própria
democracia parecia estar em jogo. Trump e alguns de seus aliados insinuaram que iriam
intervir contra a votação pelo correio, que deveria favorecer os democratas. Eles também
sugeriram que esperavam que a maioria conservadora da Suprema Corte anulasse uma
derrota. E que eles podem se recusar a entregar o poder. O medo da supressão do eleitor
durante a eleição e da violência dos vigilantes depois dela foi generalizado. A presidente da
Câmara, Nancy Pelosi, lamentando a disseminação da desinformação do QAnon no
Facebook, disse: “Não sei como o conselho de administração do Facebook ou seus principais
funcionários podem se olhar no espelho. Eles escolheram claramente. O plano de negócios
deles é ganhar dinheiro com veneno, e esse é o caminho que eles escolheram seguir.”
Sob pressão, o Facebook anunciou naquele mês que impediria os candidatos de declarar
falsamente a vitória e removeria todas as postagens que citassem a Covid para desencorajar
a votação pessoal. Ele impôs uma penalidade visivelmente mais leve para uma das táticas
favoritas de Trump: “Conteúdo que busca deslegitimar o resultado da eleição” ou “a
legitimidade dos métodos de votação” seria meramente anexado a um “rótulo informativo”.
O Twitter também adicionou um elemento há muito solicitado por especialistas externos: atrito.
Normalmente, os usuários podem compartilhar uma postagem pressionando “retweet”, promovendo-
a instantaneamente em seus próprios feeds. Agora, pressionar “retweetar” abriria um prompt
instando o usuário a adicionar alguma mensagem própria. Isso forçou uma pausa, reduzindo a
facilidade de compartilhar. A escala da intervenção foi pequena, mas seu efeito foi significativo: os
retuítes caíram 20% no geral, disse a empresa, e a disseminação de desinformação com eles. O
Twitter desacelerou deliberadamente o engajamento, violando seu próprio interesse financeiro
junto com décadas de dogma do Vale do Silício insistindo que mais atividade online só poderia ser
benéfica. O resultado, aparentemente, foi tornar o mundo menos desinformado e, portanto, melhor.
Era exatamente o que eu tinha visto no Sri Lanka e em Mianmar – um canto crescente
por sangue, explícito e em uníssono – pouco antes de essas sociedades entrarem em
colapso nos próprios atos de violência que haviam ameaçado em grande número. Pensei em
Sudarshana Gunawardana, o ministro do governo do Sri Lanka que, observando o incitamento
propagado pelo Facebook invadir seu país, impotente lançou advertências aos representantes
distraídos da empresa.
Depois que os tumultos finalmente diminuíram, ele lamentou: “Somos uma sociedade, não
somos apenas um mercado”. Agora era a vez dos americanos implorarem ao Vale do Silício,
com sucesso limitado, para lembrar, antes que fosse tarde demais, que não éramos apenas
um mercado para eles explorarem.
No dia da eleição, dois candidatos Q ganharam cadeiras no Congresso: Lauren Boebert,
do Colorado, e Marjorie Taylor Greene, da Geórgia. Greene também repetiu as afirmações
de Alex Jones de que tiroteios em escolas foram encenados e, lembrando que a violência
política era fundamental para a causa, uma vez gostou de um post no Facebook pedindo
que Barack Obama fosse enforcado e outro instando
Machine Translated by Google
que a presidente da Câmara, Nancy Pelosi, deveria levar "uma bala na cabeça".
A ascensão de QAnon, no entanto, foi ofuscada para os americanos por outro desenvolvimento:
Trump havia perdido. Dois dias após a votação, com a maioria dos meios de comunicação ainda não
convocando formalmente a disputa, o Facebook anunciou que havia removido um grupo de desinformação
eleitoral. Chamado de “Stop the Steal”, afirmava que a suposta derrota de Trump era na verdade um
golpe de forças sombrias.
A página ganhou 338.000 membros em menos de um dia, tornando-se uma das de crescimento mais
rápido na história do Facebook. Ele se encheu de conspirações, apelos à violência e, especialmente,
invocações de QAnon.
Ainda assim, com Trump humilhado e prestes a deixar o cargo, talvez o extremismo online que ele
encorajou por muito tempo possa se dissipar também. Afinal, o Vale do Silício sempre disse que suas
plataformas apenas refletiam sentimentos e eventos do mundo real. Talvez o pior já tenha passado.
4. A Grande Mentira
Durante todo aquele outono, Richard Barnett, um empreiteiro de 60 anos e entusiasta de armas da
pequena cidade de Arkansas, caiu na toca do coelho. Um obcecado pelo Facebook, ele republicou
repetidamente as conspirações já virais de Covid, antivacinas e pró-Trump que circulavam pela
plataforma - um superposter típico do Facebook, não muito diferente de Rolf Wassermann, o artista
alemão que ampliou tudo o que a plataforma colocou na frente de ele. Mas Barnett estava absorvendo
um ecossistema de mídia social agora muito mais tóxico do que o da Alemanha. Ele participou de um
comício organizado pelo Facebook em sua capital estadual em setembro, carregando um AR-15, para
protestar contra as restrições da Covid. Ele passou a acreditar, disse um amigo mais tarde, que poderes
sombrios pretendiam explorar a pandemia para inserir microchips na testa dos cidadãos, um vago eco
das crenças plandêmicas e QAnon. Ele organizou um grupo de apoio à instituição de caridade Save Our
Children, que havia sido cooptada por QAnon por seu trabalho contra o tráfico de crianças. Em uma foto
de um encontro em outubro, ele e uma dúzia de outros seguravam fuzis de estilo militar em frente a uma
placa que dizia PEDÓFILOS MORTOS NÃO REFENDEM, uma referência codificada aos democratas.
Ele era típico da horda de usuários de mídia social - alguns afiliados a milícias ou grupos QAnon,
alguns, como Barnett, apenas montando o algoritmo - que estiveram, ao longo de 2020, trabalhando
para as grandes batalhas que suas conspirações disseram que eram gloriosamente quase. Quando
viralizou no Facebook
Machine Translated by Google
postagens afirmaram que a vitória de Biden foi fraudulenta, eles estavam prontos para acreditar,
mesmo para atuar.
“Precisamos acabar com esse governo corrupto”, postou um usuário, três dias após a
eleição, em um grupo de milícia no Facebook, cujas dezenas de milhares de membros já se
autodenominavam “prontos e armados”. Eles se mudaram para uma página privada, para
melhor planejar. “Se eles não forem eliminados agora, eles nos eliminarão”, escreveu um deles.
Outro respondeu: “Hora de derrubá-los”.
A milícia e os grupos Q, com toda a sua influência nas plataformas, eram apenas uma
facção pequena e hipercomprometida de usuários pró-Trump. Mas os sistemas das plataformas
começaram rapidamente a atrair massas mais amplas para os extremistas. E eles fizeram isso
promovendo conteúdo que promovia a mesma mentira que Trump estava usando para tentar
permanecer no cargo e que animava o grupo Stop the Steal rapidamente fechado: Trump havia
vencido, os democratas haviam instituído fraude eleitoral em massa e os patriotas teriam que
derrubar os resultados falsos. Ficou conhecido como a Grande Mentira. É impossível saber ao
certo até onde teria ido sem as redes sociais. Mas as plataformas o promoveram em uma escala
que de outra forma seria impossível e, talvez de forma mais poderosa, treinaram os usuários
para repeti-lo uns aos outros como uma verdade urgente. Na semana após a eleição, os vinte
posts mais engajados no Facebook contendo a palavra eleição foram todos escritos por Trump.
Todos os vinte carregavam uma etiqueta chamando a postagem de enganosa, o que teve pouco
efeito aparente. Suas postagens representaram 22 das 25 postagens mais engajadas do
Facebook nos Estados Unidos.
Rumores validando a mentira foram enviados de forma viral repetidas vezes. Biden admitiu
que a fraude eleitoral foi generalizada, disseram aos usuários. As cédulas democratas na
Pensilvânia carregavam os nomes de pessoas mortas. Um canal de direita no YouTube relatou
que funcionários eleitorais de Detroit foram pegos carregando malas com cédulas fraudulentas.
Outro disse a seus 1,8 milhão de assinantes que as pesquisas haviam retirado seus anúncios
de que Biden havia vencido. (Quando um repórter perguntou ao operador do canal por que o
YouTube não aplicou suas próprias regras de desinformação eleitoral contra ele, ele respondeu:
“O YouTube tem sido ótimo.”) Uma personalidade do Twitter inventou relatos de cédulas de
Trump sendo “despejadas” em Michigan. Uma conta proeminente de desinformação,
@Breaking911, anunciou que um carteiro desonesto havia fugido para o Canadá com cédulas
roubadas.
Machine Translated by Google
O YouTube não era melhor. A Newsmax TV, um canal que promove fortemente
conspirações de fraude eleitoral democrata, viu suas visualizações dispararem de 3
milhões em outubro para impressionantes 133 milhões em novembro. Chaslot, mais uma
vez rastreando as recomendações do YouTube, descobriu que a plataforma estava
empurrando o Newsmax para as pessoas depois que elas assistiram aos principais meios
de comunicação como a BBC, canais de esquerda e até o The Ellen DeGeneres Show.
De repente, o Newsmax estava no top 1% dos canais mais recomendados do YouTube.
Chaslot encontrou o mesmo padrão com a New Tang Dynasty TV, uma fossa de
desinformação eleitoral pró-Trump dirigida pelo movimento religioso Falun Gong, cuja
audiência explodiu por um fator de dez. Os vídeos do YouTube promovendo a Grande
Mentira foram vistos 138 milhões de vezes na semana seguinte à eleição. Em comparação,
7,5 milhões de pessoas assistiram à cobertura da noite eleitoral em todas as principais
redes de TV. No início de dezembro, alguns dias depois que Chaslot divulgou suas
descobertas, o YouTube finalmente anunciou que removeria as falsas alegações de
fraude eleitoral – mas, estranhamente, não removeria os vídeos falsos já existentes e não
puniria a quebra de regras até depois de 20 de janeiro.
A plataforma continuou saturada de mentiras eleitorais. Qualquer um que recebesse
notícias nas mídias sociais tinha todos os motivos para concluir, como Richard Barnett, o
superusuário do Arkansan, que “montanhas de evidências”, como ele escreveu em sua
página no Facebook, mostravam que Trump havia de fato vencido. Barnett ampliou a
conspiração para seus amigos, atraindo sua indignação como a mentira envolveu a dele,
uma engrenagem obediente na máquina de mídia social.
Em 19 de dezembro, um mês e meio após a eleição, Trump twittou: “Grande protesto
em DC em 6 de janeiro. Esteja lá, será selvagem! O Congresso deveria certificar a vitória
de Biden naquele dia. Trump estava pressionando os legisladores a rejeitar os votos
eleitorais de Biden, anulando sua vitória em um golpe de estado eficaz. Alguns legisladores
republicanos já haviam sinalizado que
Machine Translated by Google
também de um movimento construído nas e pelas redes sociais. Foi um ato planejado
com dias de antecedência, sem planejadores. Coordenado entre milhares de pessoas
sem coordenadores. E agora seria executado por meio da vontade coletiva guiada
digitalmente. Quando as pessoas chegaram ao Capitólio, encontraram manifestantes
que haviam chegado antes já arengando aos poucos policiais de guarda. Uma forca
de madeira, com um laço vazio, foi erguida no local.
A dois quarteirões de distância, a polícia descobriu uma bomba caseira na sede do
Comitê Nacional Republicano. Em seguida, outro no Comitê Nacional Democrata.
Muitos dos que forçaram a entrada usavam camisas e chapéus da marca QAnon.
Jake Angeli, um obcecado por mídia social de 32 anos, usava pintura facial com a
bandeira americana, chifres de animais e um cocar de pele, chamando a si mesmo
de “Q shaman”. Outros usavam camuflagem de estilo militar com insígnias com os
nomes das milícias do Facebook. Um se escondeu atrás de uma máscara gigante de
Pepe, o Sapo. “Nós apenas empurramos, empurramos e empurramos, e gritamos
'vá' e gritamos 'ataque'”, uma florista de 36 anos do oeste do Texas, Jenny Cudd,
narrou ao vivo no Facebook ao entrar nos corredores. “Chegamos ao topo do
Capitólio e havia uma porta aberta e entramos”, ela continuou.
“Arrombamos a porta do escritório de Nancy Pelosi e alguém roubou seu martelo e
tirou uma foto na cadeira, desligando a câmera.”
O homem que ela tinha visto era Richard Barnett, o conspirador do Facebook do
Arkansas. E a foto que ele tirou - seus pés na mesa de Pelosi, de flanela e jeans,
braços estendidos em aparente alegria, um smartphone iluminado na mão - tornou-
se, antes mesmo do cerco terminar, um símbolo da irrealidade e humilhação do dia.
Barnett, sorrindo para todos nós, tornou-se o rosto de algo grotesco na vida
americana, algo cuja força muitos de nós não havíamos compreendido até aquele
momento, quando marchou para os salões do poder e levantou os pés.
Alguns vieram para mais do que transmissão ao vivo. Um grupo de oito homens
e uma mulher, vestindo roupas de estilo militar sobre camisetas do Oath Keepers,
passou pela multidão e entrou no Capitol. Eles mantiveram contato no Zello, um
aplicativo push-to-talk, e no Facebook, a plataforma na qual sua milícia havia subido
e recrutado. “Você está executando uma prisão civil. Prendam esta assembléia,
temos causa provável para atos de traição, fraude eleitoral”, disse um deles.
“Dentro”, escreveu um no Facebook. “Todos os legisladores estão nos túneis, três
andares abaixo”, outro respondeu. Um terceiro emitiu uma ordem: “Todos os
membros estão nos túneis sob o capitel selá-los. Ligue o gás”.
Outros compartilharam a intenção dos Oath Keepers. Peter Stager, um Arkansan
de 41 anos, disse em um vídeo no Twitter: “Todo mundo lá é um traidor traidor” e “A
morte é o único remédio para o que está naquele prédio”. Ele carregou uma bandeira
americana subindo os degraus do Capitólio, encontrou um policial que havia sido
derrubado pela multidão e espancou o policial com o mastro da bandeira. Angeli, o
“xamã Q”, deixou um bilhete para Pence em sua mesa na câmara do Senado: “É
apenas uma questão de tempo, a justiça está chegando”. Pence escapou dos
invasores por meros metros. Mais tarde, os legisladores surgiram dizendo que
Machine Translated by Google
viral.”
No gramado do Capitólio, Matthew Rosenberg, um repórter do New York Times
que correu para cobrir o caos, esbarrou em Barnett, que já era reconhecível pela foto
tirada no escritório de Pelosi poucos minutos antes. Barnett havia vagado pelo
gramado, sua camisa agora rasgada por causa de alguma confusão no Capitol,
segurando uma carta da mesa de Pelosi. Conversando livremente com Rosenberg,
Barnett acenou com a carta de Pelosi com orgulho, dizendo-lhe: "Escrevi um bilhete
desagradável para ela, coloquei meus pés em sua mesa e cocei minhas bolas".
Ele voltou para a multidão que agora se aglomerava casualmente em frente ao prédio
do Capitólio saqueado, bebendo cerveja e agitando bandeiras, projetando um ar de
vitória.
Depois, com centenas de presos (incluindo Barnett) e com o impeachment de
Trump pela segunda vez, as ondas de choque ecoaram por meses. Mas antes
mesmo de o cerco terminar, eles já haviam se espalhado até o Vale do Silício.
“Podemos obter alguma coragem e ação real da liderança em resposta a esse
comportamento?” um funcionário do Facebook escreveu no quadro de mensagens
interno da empresa enquanto o motim se desenrolava. “Seu silêncio é decepcionante
no mínimo e criminoso na pior.”
Em uma série de postagens internas, os funcionários se irritaram com a decisão
do Facebook de deixar um post de Trump, escrito em meio ao cerco, que o encorajou
a continuar: “Essas são as coisas e os eventos que acontecem”, escreveu ele,
quando um “sagrado a vitória esmagadora” é “despojada de grandes patriotas”. O
relacionamento da empresa com seus cerca de 50.000 trabalhadores já estava no
ponto mais baixo desde os conflitos do ano anterior. Agora, como o Facebook
permitiu que Trump usasse a plataforma para incitar uma insurreição em andamento,
a frustração transbordou. “Precisamos derrubar a conta dele agora. Este não é um
momento para meias medidas”, escreveu outro funcionário. Mas, em vez de agir
contra Trump, a empresa congelou comentários sobre a discussão interna.
No dia seguinte, o sindicato dos trabalhadores da Alphabet, formado apenas
naquela semana, divulgou uma declaração condenando a inação de seus empregadores.
(A Alphabet é a empresa-mãe do Google e do YouTube.) “A mídia social encorajou
o movimento fascista crescente nos Estados Unidos e estamos particularmente
cientes de que o YouTube, um produto da Alphabet, desempenhou um papel
fundamental nessa ameaça crescente”, escreveram eles. . Os funcionários da
Alphabet, continuaram, alertaram repetidamente os executivos sobre o papel do
YouTube em “ódio, assédio, discriminação e radicalização”, mas foram “ignorados ou
Machine Translated by Google
algo que uma vez amei muito.” Alguns começaram a postar suas despedidas.
Outros tentaram se entender: “Mods, por favor, expliquem por que Biden ainda
não foi preso”. Alguém comparou a posse de Biden a “ser uma criança e ver o
grande presente debaixo da árvore… apenas para abri-lo e perceber que era um
pedaço de carvão o tempo todo”. Sem plataformas convencionais para acelerar
sua causa ou interligá-la com a rede social mais ampla, os crentes remanescentes
tinham poucos lugares para aplicar suas outrora poderosas energias. Eles
giraram e giraram, procurando uma validação que nunca conseguiram, ansiando
por uma solução para a crise psicológica que anos de radicalização abriram neles.
“TUDO vai acontecer nos próximos 45 minutos”, escreveu um usuário em um
fórum Q durante a posse de Biden. Os democratas no palco, ele prometeu, “serão
presos ao vivo na televisão com dezenas de milhões assistindo maravilhados!”
Seria “o maior dia desde o Dia D” e “a América estará unida em comemoração!”
Quando o juramento ocorreu normalmente, outro usuário perguntou se ele estava
bem. Ele insistiu que a vitória ainda estava por vir e, com ela, um retorno à vida
que lhe havia sido tirada. “Perdi amigos e uma namorada no ano passado porque
eles se recusaram a ver a verdade, agora finalmente estou sendo redimido”,
escreveu ele. “Logo todos eles vão voltar e se desculpar, este é o dia mais feliz
da minha vida.”
Machine Translated by Google
epílogo
denúncia
UMA JANELA ABERTA nas semanas após o cerco do Capitólio. Ao contrário dos
cálculos vacilantes de 2016 e 2018, houve, finalmente, uma ampla compreensão das
consequências da mídia social. Reimaginar as plataformas, até seus núcleos, parecia
necessário de uma forma que não havia antes e, com grande parte do próprio Vale do
Silício horrorizado, talvez até possível. Especialistas em tecnologia e escritores
zumbiam sobre novas possibilidades. Talvez os serviços baseados em assinatura, com
usuários pagando taxas mensais para fazer logon, possam quebrar o vício da indústria
em receita de anúncios e, portanto, em engajamento. Talvez leis de responsabilidade
mais rígidas possam realinhar seus incentivos.
Mas a janela fechou rapidamente. Os gigantes da mídia social investiram
profundamente em modelos financeiros e ideológicos do status quo para uma mudança
tão radical. Principalmente, eles desenvolveram os métodos que conheciam melhor:
tecnologia automatizada e moderação de conteúdo em escala. O Twitter, por exemplo,
aumentou seu “atrito”, adicionando prompts e intersticiais (“Quer ler o artigo primeiro?”)
para impedir que os usuários compartilhem postagens compulsivamente. Foi uma
mudança significativa, mas muito aquém das sugestões de Jack Dorsey de repensar a
mecânica subjacente da plataforma, que permaneceu no lugar. Dorsey mais tarde
deixou o cargo de CEO, em novembro de 2021, com suas promessas ousadas não cumpridas.
Algumas semanas após a insurreição, Zuckerberg anunciou que o sistema de
recomendação do Facebook não promoveria mais grupos políticos – um passo
potencialmente marcante para enfraquecer um dos elementos mais perigosos da
plataforma. Mas, em uma indicação de que as reformas da empresa refletiram
relutantes concessões à pressão externa, em vez de uma mudança sincera de
pensamento, foi a terceira vez que o Facebook anunciou essa mudança. As promessas
anteriores, em outubro de 2020 e em 6 de janeiro, estavam quase vazias, descobriram
pesquisadores independentes. Somente sob pressão dos legisladores democratas
essa última promessa realmente se confirmou.
Machine Translated by Google
tinham antes de 6 de janeiro, que todas as evidências que apontavam para sua responsabilidade
estavam simplesmente erradas. “Os sistemas do Facebook não são projetados para
recompensar conteúdo provocativo”, escreveu o chefe de relações públicas do Facebook, o
ex-vice-primeiro-ministro britânico Nick Clegg, em um post de blog de 5.000 palavras intitulado
“Você e o algoritmo: são necessários dois para o tango”. Na verdade, foram os usuários que
enviaram “conteúdo sensacional”, escreveu Clegg.
As empresas em grande parte voltaram aos seus velhos hábitos. A aplicação contra a
desinformação eleitoral caiu vertiginosamente ao longo de 2021, descobriu o grupo de
vigilância Common Cause, pois mentiras que minavam a democracia foram “deixadas para se
espalhar por metástase no Facebook e no Twitter”. Os movimentos nascidos nas mídias
sociais continuaram a crescer, infiltrando-se no tecido da governança americana. No início de
2022, segundo um estudo, mais de um em cada nove legisladores estaduais em todo o país
pertencia a pelo menos um grupo de extrema-direita no Facebook.
Muitos promoveram as conspirações e ideologias que se tornaram leis pela primeira vez
online, aprovando ondas de legislação que restringiam o direito de voto, as políticas da Covid
e as proteções LGBT. Em meio a um pânico alimentado pela internet sobre os professores
supostamente “preparando” crianças em idade escolar para a homossexualidade, alguns
pressionaram a legislação incentivando as crianças a gravar seus professores para prova –
um eco perturbadoramente nítido da conspiração do “kit gay” do YouTube que causou tanto
caos no Brasil. O Partido Republicano do Texas, que controlava o senado estadual, a câmara
estadual e a mansão do governador, mudou seu slogan oficial para “Nós somos a tempestade”,
o grito de guerra QAnon. Em dois casos separados, no Colorado e em Michigan, funcionários
eleitorais leais a QAnon foram pegos adulterando os sistemas de votação. Na eleição
seguinte, em 2022, os candidatos alinhados com QAnon estavam nas urnas em 26 estados.
Os democratas, junto com muitos outros, depositam grande parte de suas esperanças
nas investigações regulatórias federais sobre as empresas. O esforço começou, no final de
2020, com o subcomitê antitruste da Câmara controlado pelos democratas, que divulgou um
relatório de 449 páginas em outubro recomendando regulamentos abrangentes contra
Facebook, Google, Amazon e Apple que, em
Machine Translated by Google
A pressão pública nos Estados Unidos foi mais desigual. O ex-presidente Obama, em
um discurso de 2022 no coração do Vale do Silício, alertou que a mídia social estava
“turbinando alguns dos piores impulsos da humanidade”. Ele chamou “a profunda
mudança… na forma como nos comunicamos e consumimos informações” um dos
principais impulsionadores do agravamento das dificuldades da democracia, instando
cidadãos e governos a controlar as empresas. Ainda assim, o governo Biden estava
preocupado em estabilizar a saúde pública e as emergências econômicas provocadas
pela pandemia, depois com a invasão russa da Ucrânia. Enquanto isso, as empresas
contrataram muitos dos analistas e acadêmicos externos que as embaraçaram com as
investigações de seus produtos. Normalmente, eles eram recrutados por aspirantes a
reformadores dentro da gerência intermediária, que provavelmente falavam sério quando
afirmavam que pressionar as empresas internamente era mais provável de trazer
mudanças.
E muitos foram levados para os braços do Vale do Silício pelo colapso do mercado de
trabalho acadêmico, onde as oportunidades para doutorados carregados de dívidas
estudantis se desintegraram no momento em que os americanos viram seus custos com
saúde e creches dispararem com a pandemia. Quaisquer que sejam suas motivações
para ingressar no Valley, seu trabalho voltado para o público cessou como resultado.
Mas alguns, talvez em parte graças à sua notoriedade pelas descobertas chocantes
que já haviam feito sobre a mídia social, garantiram posições estáveis o suficiente na
academia para continuar. Jonas Kaiser, o estudioso de mídia alemão que mapeia o
YouTube, foi um deles, ingressando no corpo docente da Universidade Suffolk de Boston
no final de 2020. Outro foi William Brady, que se tornou professor assistente na
Northwestern em 2022. Ambos continuam o trabalho de entender as mídias sociais.
consequências, assim como dezenas como eles, com incontáveis descobertas ainda por
vir.
Alguns encontraram maneiras de pressionar a indústria por dentro. Entre eles está
Renée DiResta, que rastreia causas online e maus atores, como os anti-vacinas que
motivaram sua jornada pela primeira vez, em uma pesquisa da Universidade de Stanford.
Machine Translated by Google
centro no coração do Vale. Por mais que ela tenha sido cuidadosa, em seu depoimento
de 2018 perante o Senado, para envolver os democratas com maior probabilidade de agir
enquanto ainda encontra um terreno comum com os republicanos, DiResta aproveitou os
links dela e de Stanford para as empresas de mídia social, contribuindo para campanhas
bem-sucedidas para remover o governo - campanhas de influência alinhadas das
plataformas, tudo sem nunca, pelo que posso dizer, dar um único soco em suas críticas
públicas a essas mesmas corporações.
Existe um grupo com alavancagem, acesso e conhecimento técnico para pressionar
efetivamente o Vale do Silício: sua própria força de trabalho. Depois de 6 de janeiro, a
raiva dos trabalhadores só aumentou, com 40% da força de trabalho de big tech dizendo
em março de 2021 que gigantes como Google ou Facebook deveriam ser desmembrados.
Mas, apesar de toda a força que os trabalhadores usaram em 2020, seu ativismo
praticamente cessou. A sindicalização – os cinco dedos que se tornam um punho –
continua sendo um anátema entre os trabalhadores do Valley, tornando quase impossível
a organização em empresas de 50.000 trabalhadores. E com salários, regalias e
segurança no trabalho praticamente incomparáveis na era moderna, por que não entrar e
sair por alguns anos, fazer fortuna e se aposentar em paz?
Mas nem todo mundo optou por olhar para o outro lado. Em maio de 2021, uma
funcionária do Facebook chamada Frances Haugen, que trabalhava em uma equipe de
combate à desinformação relacionada a eleições no exterior, estava farta. Ela passou a
acreditar que seus senhores corporativos estavam deliberadamente sacrificando a
segurança dos usuários, de sociedades inteiras e até da própria democracia para maximizar o lucro.
Haugen copiou milhares de relatórios de pesquisa interna, memorandos de reuniões
e diretrizes corporativas, fotografando sua tela em vez de baixar os arquivos diretamente
para evitar o acionamento de medidas de segurança. Por meses, ela manteve contato
com Jeff Horwitz, um repórter do Wall Street Journal com quem ela contatou pela primeira
vez em dezembro de 2020, impressionado com suas reportagens sobre a influência
prejudicial da mídia social na Índia, onde ela passou um tempo. Mas levaria alguns meses
até que ela formulasse seu plano para os arquivos.
“Só não quero sofrer com o que não fiz pelo resto da minha vida”, Haugen escreveu
a uma amiga, em setembro de 2021, enquanto considerava se deveria ir a público. Logo
depois, ela enviou os arquivos à Comissão de Valores Mobiliários, órgão regulador federal
que supervisiona as práticas de mercado, como parte de oito denúncias de denunciantes
alegando má conduta corporativa no Facebook. Ela também os enviou ao Congresso e a
Horwitz, que começou a revelar os segredos que continham.
Machine Translated by Google
À medida que a indignação pública crescia, o 60 Minutes anunciou que iria ao ar uma
entrevista com o vazador dos documentos. Até aquele momento, a identidade de Haugen ainda
era secreta. Sua entrevista cortou um debate já antigo sobre essa tecnologia pela clareza com
que ela fez suas acusações: as plataformas amplificaram os danos; O Facebook sabia disso; a
empresa tinha o poder de interrompê-lo, mas optou por não fazê-lo; e a empresa mentiu
continuamente para os reguladores e para o público. “O Facebook percebeu que, se mudar o
algoritmo para ser mais seguro”, disse Haugen, “as pessoas passarão menos tempo no site,
clicarão em menos anúncios e ganharão menos dinheiro”.
Dois dias depois, ela testemunhou a um subcomitê do Senado. Ela se apresentou como se
esforçando para reformar a indústria para salvar seu potencial. “Podemos ter redes sociais de
que gostamos, que nos conectam, sem destruir nossa democracia, colocar nossos filhos em
perigo e semear a violência étnica em todo o mundo”, disse ela aos senadores. Trabalhando com
Lawrence Lessig, um estudioso jurídico de Harvard que se ofereceu como seu advogado, junto
com uma empresa de comunicação que Lessig contratou, Haugen também enviou os documentos
para dezoito agências de notícias americanas e européias. Ela informou os membros do
Congresso cujos assentos nos comitês lhes davam o poder de formular novos regulamentos. Ela
circulou pelas capitais europeias, encontrando-se com autoridades de alto escalão cujos governos
lideraram a regulamentação da mídia social.
países mais pobres. Esse registro, ela argumentou, destacou a insensibilidade da empresa
em relação ao bem-estar de seus clientes, bem como o poder desestabilizador da dinâmica
da plataforma que, afinal, acontecia em todos os lugares. “O que vemos em Mianmar, o que
vemos na Etiópia”, disse ela em um painel, “são apenas os capítulos iniciais de um romance
que tem um final muito mais assustador do que qualquer coisa que queremos ler”.
Eu gastei cobrindo mídia social. Quanto mais alguém passa estudando as plataformas,
seja qual for sua disciplina, mais provável é que converjam para a resposta de Haugen:
desligue-o. Às vezes, a recomendação é mais restrita.
Jonas Kaiser instou o YouTube a desativar seus algoritmos em tópicos delicados, como
saúde ou coisas relacionadas a crianças. Às vezes é mais largo. Benedict Evans, um ex-
capitalista de risco da Andreessen Horowitz, propôs “remover camadas inteiras de
mecânica que permitem o abuso”. Afinal, os algoritmos dificilmente são a única
característica por trás do caos da mídia social. Interfaces estilo cassino, botões de
compartilhamento, contadores de “curtidas” exibidos publicamente, recomendações de
grupos – todos são intrínsecos às plataformas e seus danos.
Há, como em qualquer assunto controverso, um punhado de especialistas
dissidentes, que argumentam que o impacto da mídia social é exagerado. Eles não
contestam a evidência do papel da tecnologia em danos como a radicalização, mas
usam métodos diferentes que produzem resultados mais brandos. Ainda assim, a visão
deles permanece minoritária e de relativa ênfase, semelhante a argumentar que o papel
do escapamento dos carros na mudança climática é menor do que o das usinas de carvão.
Praticamente nenhum desses especialistas ou dissidentes argumenta que o mundo
se beneficiaria com o fechamento total das mídias sociais. Afinal, todos haviam
começado a trabalhar acreditando que a mídia social trazia um bem inegável e, livre de
sua mecânica de aumento de receita, ainda poderia ser revolucionária. Mas seja qual
for o conselho, para muitos pesquisadores, analistas ou defensores dos direitos humanos
sérios, tudo se resume a alguma versão de desligá-lo. Isso significaria uma internet
menos atraente e envolvente, onde vídeos surpreendentes do YouTube ou grupos
emocionantes do Facebook seriam mais raros e menos acessíveis. Mas todas as
evidências disponíveis também sugerem que seria um mundo com menos professores
perseguidos e escondidos, menos famílias queimadas vivas em suas casas por tumultos
alimentados por boatos, menos vidas arruinadas por infâmia imerecida ou pela falsa
promessa de extremismo. Menos crianças privadas de vacinas que salvam vidas ou
expostas à sexualização involuntária. Talvez ainda menos democracias dilaceradas pela
polarização, mentiras e violência.
Uma razão pela qual muitos especialistas convergem para essa resposta, eu acho,
é que muitos deles, em seu quarto ou quinto grande estudo, foram ao Vale do Silício
para conhecer seus senhores engenheiros. E eles entenderam que um aspecto de sua
defesa pública é verdadeiro: eles acreditam que não estão promovendo deliberadamente
desinformação, ódio ou tribalismo. Na medida em que
Machine Translated by Google
eles pensam sobre esses efeitos, é para coibi-los. Mas é isso que torna a visita
ao Vale tão perturbadora. Alguma combinação de ideologia, ganância e a
opacidade tecnológica do complexo aprendizado de máquina impede que os
executivos vejam suas criações em sua totalidade. As máquinas são, da maneira
que importa, essencialmente desgovernadas.
Quanto mais eu falava com psicólogos e analistas de rede, reguladores e
engenheiros reformados, mais os termos que eles usavam para descrever essa
tecnologia me lembravam HAL 9000, a inteligência artificial de 2001: Uma
Odisséia no Espaço, o filme de Kubrick cuja relevância havia imposto si mesmo
repetidamente em minha investigação das mídias sociais. No filme, HAL, embora
responsável pela segurança da tripulação, superinterpreta a programação
instruindo-a a garantir a chegada ao destino pré-planejado, não importa o que
aconteça, e tenta matar todos a bordo do navio. HAL não pretende ser um vilão.
Se houve, foram os engenheiros que, em sua arrogância, presumiram que as
ações de sua criação seriam tão benevolentes quanto suas intenções, ou talvez
os astronautas que se entregaram a uma máquina dotada de poder de vida e
morte, com incentivos que podem divergir por conta própria.
A lição de 2001 não foi atualizar o HAL com mais ajustes algorítmicos, na
esperança de que, da próxima vez, ele pudesse se comportar com um pouco
mais de responsabilidade. Tampouco os engenheiros da HAL deveriam pedir
desculpas e prometer fazer melhor. E certamente não é que o fabricante
corporativo do HAL deveria assumir um controle cada vez maior da vida de seus
clientes, enquanto legisladores e jornalistas refletiam sobre a natureza do robô. A
lição foi inequívoca: desligue o HAL. Mesmo que isso significasse perder
quaisquer benefícios que o HAL trouxesse. Mesmo que tenha sido difícil, nas
cenas finais do filme, arrancar os tentáculos de HAL dos sistemas que governam
cada faceta da vida dos astronautas. Mesmo que a máquina revidasse com toda a sua força.
Machine Translated by Google
Agradecimentos
Qualquer valor para este livro se deve em grande parte ao seu editor, Ben George,
cuja paixão, cuidado e espírito contagiante nunca diminuíram, mesmo durante
maratonas de dezesseis horas de sessões de edição com uma criança no colo.
Obrigado também a Bruce Nichols, Katharine Myers e todos da Little, Brown por seu
entusiasmo e fé.
Este livro não teria sido possível sem Jennifer Joel, da ICM Partners, que o
conduziu através de oportunidades e obstáculos com firmeza e sabedoria.
Sou grato a muitos de meus colegas do New York Times. Michael Slackman, o
editor-chefe assistente da International, foi o primeiro a sugerir a ideia que se tornou
este projeto, além de supervisionar e apoiar reportagens que se desenvolveram ou
inspiraram as seções deste livro. Eric Nagourney, Juliana Barbassa e Doug Schorzman
editaram essa reportagem, colocando sangue e suor em histórias que realmente
deveriam levar seus nomes. Amanda Taub, com quem comecei a coluna Intérprete
em 2016, é coautora de histórias do Sri Lanka, Alemanha e Brasil. Também tive a
sorte de relatar ao lado ou co-autor de Wai Moe em Myanmar; Katrin Bennhold e
Shane Thomas McMillan na Alemanha; Dharisha Bastians no Sri Lanka; e, no Brasil,
Mariana Simões e Kate Steiker-Ginzberg; junto com Alyse Shorland e Singeli Agnew
como produtores de The Weekly. Pui-Wing Tam, Kevin Roose, Paul Mozur e outros
ofereceram apoio e solidariedade na cobertura das mídias sociais. Agradeço à
liderança do Times por apoiar essa reportagem e me conceder o espaço para este
livro.
Sobre o autor
Notas
prólogo: consequências
7 saia da montanha-russa inicial: Facebook: The Inside Story, Steven Levy, 2020,
retransmite relatos detalhados e em primeira mão de Zuckerberg e outros funcionários
de alto escalão sobre a decisão de recusar a oferta do Yahoo, bem como o episódio
subsequente do feed de notícias . 8 uma questão de consenso:
Esse fenômeno, conhecido pelos cientistas sociais como conhecimento comum, talvez seja
melhor capturado em “Como a mídia influencia as normas sociais? Evidência
experimental sobre o papel da
Machine Translated by Google
13 “Não estou nas redes sociais”: os comentários de Parker são de uma empresa
conferência organizada pelo site de notícias Axios em novembro de 2017, onde
foi entrevistado pelo repórter Mike Allen. 14 gerou
$ 1 milhão: “The Formula for Phone Addiction Might Double as a Cure,” Simone Stolzoff,
Wired, 1 de fevereiro de 2018. 15 cúmplice da mídia social: A
visão geral do livro sobre dopamina e seus usos e abusos, inclusive por Pavlov, é o
artigo acadêmico "A Selective Role for Dopamine in Stimulus-Reward
Learning", Shelly B. Flagel et al., Nature, 2011.
18 para abrir a mídia social: “47 Facebook Stats That Matter to Marketers in 2021”,
Christina Newberry, Hootsuite, 11 de janeiro de 2021.
19 Em 2018, uma equipe de economistas: “The Welfare Effects of Social Media,”
Hunt Allcott, Luca Braghieri, Sarah Eichmeyer e Matthew Gentzkow,
American Economic Review, março de 2020. 20 “considerado
um projeto amaldiçoado”: “Qual é a história do 'botão incrível' (que eventualmente se
tornou o botão Curtir) no Facebook?, ”
Andrew Bosworth, Quora, 16 de outubro de 2014.
21 “um medidor psicológico”: “Teoria do Sociômetro”, de Mark R. Leary, é o capítulo 33
do Handbook of Theories of Social Psychology, vol. 2, 2011.
22 até cerca de 150 membros: Uma discussão mais completa deste número, sua
origens e implicações ocorre mais adiante neste livro. Seu progenitor, Robin Dunbar,
fornece uma visão geral útil em “Número de Dunbar: Por que minha teoria de que os
humanos só podem manter 150 amizades resistiu a 30 anos de escrutínio”, The
Conversation, 12 de maio de 2021. 23 “sobrevivência do mais amigável ” :
Sobrevivência dos Mais Amigáveis, Brian Hare e
Vanessa Woods, 2021. See More
30 “É muito comum”: “'Our Minds Can Be Hijacked': The Tech Insiders Who
Fear a Smartphone Dystopia,” Paul Lewis, The Guardian, 6 de outubro
de 2017. 31 “permanece um
profundo mistério”: “Individuals and Groups nas redes sociais
Psychology,” Henri Tajfel, British Journal of Social & Clinical Psychology
18, no. 2, 1979.
32 Ele e vários colegas lançaram: Para uma visão geral eficaz, consulte “A
Social Identity Theory of Intergroup Behavior,” Henri Tajfel e John C. Turner,
Psychology of Intergroup Relations, 1986.
33 A identidade social, Tajfel demonstrou, é como nos relacionamos: “Social
Psychology of Intergroup Relations,” Henri Tajfel, Annual Review of Psychology
33, 1982.
34 Em um experimento: “Categorização social e discriminação
Behavior: Extinguishing the Minimal Intergroup Discrimination Effect”, Anne
Locksley, Vilma Ortiz e Christine Hepburn, Journal of Personality and Social
Psychology 39, no. 5, 1980.
35 O mesmo comportamento: uma visão geral de muitos desses estudos pode ser
encontrada em “Ingroup Favoritism and Prejudice”, em Principles of
Social Psychology, First International Edition, Charles Stangor, Hammond Tarry
e Rajiv Jhangiani, 2014.
36 Durante os intervalos para o almoço: Heston relatou isso em várias entrevistas,
com a primeira aparição em “The Arts”, Jeff Rovin, Omni Magazine, novembro
de 1980: 140. Sua co-estrela, Natalie Trundy, descreveu independentemente
o incidente pelo menos uma vez: “The Day of the Apes”, Tom Weaver, revista
Starlog , setembro de 2001: 20. 37 instintos de identidade
social nos impulsionam: Tafjel, “Social Psychology of Intergroup Relations”.
39 “A identidade era o estilingue”: Por que somos polarizados, Ezra Klein, 2020:
143.
40 “Estou convencido de que todos vocês”: “Google Chief Says Internet Freedom
Key for Myanmar”, vídeo da Agence France-Presse, 22 de março de 2013.
Machine Translated by Google
9 When an industry-news: “Intel Pulls Ads from Gamasutra, and Then Apologizes
for It”, Dean Takahashi, Venturebeat.com, 3 de outubro de 2014.
10 “Software define cada vez mais”: “Sou Brianna Wu, e estou arriscando minha
vida em defesa do Gamergate,” Brianna Wu, Daily Dot, 12 de fevereiro
de 2015.
11 Até a década de 1960: O'Mara: 90–92.
12 “Nós somos realmente os revolucionários”: Berlin: 194.
13 Boletim do PCC: O'Mara: 136–39.
14 Tinha crescido: From Counterculture to Cyberculture: Stewart Brand, the Whole Earth
Network, and the Rise of Digital Utopianism, Fred
Machine Translated by Google
32 “Ultimately,” Christopher Poole: “The Trolls Among Us,” Mattathias Schwartz, New
York Times Magazine, 3 de agosto de 2008.
33 Os adolescentes também têm: Behave: The Biology of Humans at Our Best and
Worst, Robert M. Sapolsky, 2017: 163–164.
34 uso mais intenso de redes sociais: adolescentes, mídia social e privacidade, Mary
Madden et al., Pew Research Center, 21 de maio de 2013.
35 Um quadro de mensagens dos anos 90 havia definido: “De LOL a LULZ, o
Evolution of the Internet Troll over 24 Years”, Kristen V. Brown, Splinternews.com,
18 de março de 2016.
36 Em 2010, uma das comunidades: “How the Internet Beat Up an 11- Year-Old Girl,”
Adrian Chen, Gawker, 16 de julho de 2010.
37 A banda local que ela nomeou em suas postagens iniciais registrou: “Myspace
O famoso músico Dahvie Vanity foi acusado de abuso sexual infantil por anos. Agora
o FBI está envolvido”, Kat Tenbarge, Insider.com, 2 de julho de 2020.
8 “Gamergate parece ter alertado”: “Weev and the Rise of the Nazi Troll Army,”
Andrew Anglin, Daily Stormer, 4 de outubro de 2014. 9 “extremo demais”
mesmo para: Isso é de acordo com Brad Griffin, um ativista de direita. “Dylann
Roof, 4chan, and the New Online Racism,” Jacob Siegel, Daily Beast, 14 de
abril de 2017.
10 Um estudo posteriormente estimado: A Comparative Study of White Nationalist
and ISIS Online Social Media Networks, JM Berger, George Washington
University Program on Extremism, setembro de 2016.
11 “Os trolls estão vencendo”: “Os trolls estão ganhando a batalha pela Internet”,
Ellen Pao, Washington Post, 16 de julho de 2015.
12 “Toda vez que você escreve um dos seus”: “Como Stephen Bannon fez Milo
Machine Translated by Google
17 Acredita-se que o portmanteau tenha se originado: “Behind the Racist Hashtag That
Is Blowing Up Twitter,” Joseph Bernstein, BuzzFeed News, 27 de julho de 2015.
18 “Eles chamam isso de 'magia do meme'”: “Meme Magic: Donald Trump Is the Internet's
Revenge on Lazy Elites”, Milo Yiannopoulos, Breitbart, 4 de maio de 2016.
19 “Os não doutrinados não devem”: “This Is The Daily Stormer's Playbook”, Ashley
Feinberg, HuffPost, 13 de dezembro de 2017.
20 “Ele tem um caráter e um estilo”: Bokhari e Yiannopoulos. 21 um estudo de
Harvard descobriu mais tarde: partidarismo, propaganda e
Disinformation: Online Media and the 2016 US Presidential Election, Robert M.
Faris et al., Berkman Klein Center for Internet & Society research paper, 2017. 22 que
43 por cento dos americanos fizeram:
“Principais conclusões sobre o panorama das notícias online na América, ” AW Geiger, Pew
Research Center, 11 de setembro de 2019.
1 “I’ve been between people”: “Full transcript: Walter Palmer Speaks About Cecil the
Lion Controversy,” Paul Walsh, Minneapolis Star Tribune, 7 de setembro de 2015.
8 “Eu pagarei £35k+”: “O mundo inteiro está furioso com Walter Palmer,
o dentista americano que matou o leão Cecil,” Hanna Kozlowska, QZ.com, 28 de julho de
2015.
9 “I hope that #WalterPalmer”: “Stars Blast Minnesota Dentist over Killing of Cecil the
Lion”, Justin Ray, NBC News, 31 de julho de 2015.
10 Hundreds postou críticas negativas: “Killer of Cecil the Lion Finds Out That Is a Target Now,
of Internet Vigilantism”, Christina Capecchi e Katie Rogers, New York Times, 29 de julho
de 2015.
11 “Seus funcionários estão em melhor situação”: Comentário sobre “Enquanto isso, fora
do consultório odontológico de Walter Palmer” pelo usuário CinnamonDolceLatte,
Reddit, 29 de julho de 2015.
12 compartilhados 3,6 milhões de vezes: “Onde os cliques reinam, o público é rei,”
Ravi Somaiya, New York Times, 16 de agosto de 2015.
13 augurou uma mudança sísmica: “The Clickbait Candidate”, James Williams, Quillette, 3 de
outubro de 2016.
Machine Translated by Google
24 de fevereiro de 2021.
28 Um estudo de 2013 da plataforma chinesa Weibo: “Anger Is More
Influential than Joy: Sentiment Correlation in Weibo,” Rui Fan et al., PLOS One 9, no. 10
de outubro de 2014.
29 Estudos de Twitter e Facebook: “Evidência Experimental de Contágio Emocional em
Escala Massiva Através de Redes Sociais,” Adam DI
Kramer et al., Proceedings of the National Academy of Sciences 111, no. 24, junho de
2014. “Emoções hostis em comentários de notícias: uma análise nacional cruzada das
discussões do Facebook,” Edda Humprecht et al., Social Media + Society 6, no. 1, março
de 2020. “Behavioral Effects of Framing on Social Media Users: How Conflict, Economic,
Human Interest, and Morality Frames Drive News Sharing,” Sebastián Valenzuela et
al., Journal of Communication 67, no . 5 de outubro de 2017.
Telling Girls How to Be More Attractive”, Aja Romano, Daily Dot, 29 de dezembro de
2013.
15 “Há uma resposta certa”: “Carta aos acionistas”, Jeff Bezos, arquivos da Comissão
de Valores Mobiliários, 1997.
16 “O bilhão de horas diárias”: Doerr: 166–167.
17 “Esqueça a estratégia”: Zucked: Waking Up to the Facebook Catastrophe, Roger
McNamee, 2019: 41. 18 “a
verdadeira mercadoria escassa”: O memorando original, um fascinante
Um instantâneo da mudança do setor para uma economia de atenção pode ser encontrado
na íntegra em “Microsoft's CEO Sent a 3,187-Word Memo and We Read It So You Don't
Have To,” Polly Mosendz, The Atlantic Wire, 10 de julho de 2014 .
42 “Não há um bom análogo”: Stand Out of Our Light: Freedom and Resistance in the
Attention Economy, James Williams, 2017: 29.
Machine Translated by Google
Experimento aumenta a participação dos eleitores nos EUA,” Zoe Corbyn, Nature, 2012.
12 Apenas 1 por cento do usuário: “Quero compartilhar algumas ideias sobre o Facebook e a
eleição”, Mark Zuckerberg, Facebook.com, 12 de novembro de 2016.
13 “Realmente parece ter ajudado”: “Twitter Board Member: Twitter Helped Trump Win The
Election,” Charlie Warzel, BuzzFeed News, 30 de novembro de 2016.
18 “Postagens negativas sobre grupos externos políticos”: “A pesquisa do Twitter mostra que seu
algoritmo favorece visões conservadoras,” Emma Roth, The Verge, 22 de outubro de
2021. 19 um estudo posterior
que se baseou em Brady: “Out-Group Animosity Drives
Engagement on Social Media”, Steve Rathje, Jay J. Van Bavel e Sander van der Linden,
Proceedings of the National Academy of Sciences 118, no. 26, 29 de junho de 2021.
23 “Você está saindo com as pessoas”: “Por que estou terminando com o Twitter,” Alisyn
Camerota, CNN, 12 de julho de 2017.
24 pressionou Dorsey a mudar de rumo: “Paul Singer da Elliott Management procura substituir o
CEO do Twitter, Jack Dorsey, diz a fonte,” Alex Sherman, CNBC, 28 de fevereiro de
2020.
25 Outros executivos o descreveram como indeciso: “'Nós criamos este monstro?' How Twitter
Turned Toxic”, Austin Carr e Harry McCracken, Fast Company, 4 de abril de 2018.
26 retiros de meditação silenciosa, incluindo para Myanmar: Tweet por Jack Dorsey (@jack), 8 de
dezembro de 2018.
Twitter.com/jack/status/1071575088695140353 27 mudança
de meio período para a África: “Jack Dorsey's Planned Move to Africa Divides Square and
Twitter Investors,” Kate Rooney, CNBC, 2 de dezembro de 2019.
28 Ele se opôs ou diluiu as mudanças pós-eleitorais: o papel de Kaplan foi relatado de forma
exaustiva e independente, por exemplo, em Dwoskin et al.; Horwitz e Seetharaman; “15
meses de novo inferno dentro do Facebook”, Nicholas Thompson e Fred Vogelstein,
Wired, 16 de abril de 2018; e “Delay, Deny, and Deflect: How Facebook's Leaders Fought
Through Crisis”, Sheera Frenkel, Nicholas Confessore, Cecilia Kang, Matthew
Rosenberg e Jack Nicas, New York Times, 14 de novembro de 2018. 29 “reúna a
humanidade” : “ Leia a carta completa de 6.000 palavras de Mark Zuckerberg
sobre as ambições globais
do Facebook,” Kurt Wagner e Kara Swisher, ReCode, 16 de fevereiro de 2017. 30 entretidos
empurrando usuários de mente diferente: Jackson. 31 descreveu seu objetivo real:
“The Making of a YouTube Radical,” Kevin
Hijacking Our Culture, and Our Minds”, National Public Radio, Hidden Brain, 7 de
outubro de 2019.
44 “Foi como sair de um transe”: Ibid. 45 um artigo curto,
mas influente: “Moral Outrage in the Digital Age,” Molly
J. Crockett, Nature Human Behavior 1, 2017.
46 “Eu acho que eles precisam ser extremamente”: “Mark Warner to Facebook: Tell Me
What You Know,” Elaine Godfrey, The Atlantic, 28 de setembro de 2017.
5 com discurso de ódio cada vez mais comum: Todos os exemplos neste e no próximo
parágrafo de: Hate Speech Narratives and Facilitators in Myanmar, relatório do
Centro de Estudos Avançados de Defesa (C4ADS), fevereiro de 2016. 6
analisaram uma
amostra de 32.000: Ibid. 7 38 por cento das
pessoas no país: Survey of Burma/ Myanmar Public Opinion, Center for Insights in
Survey Research, 1º de abril de 2017.
8 Madden voou para a sede do Facebook: McLaughlin, 2018.
9 “Tenho que agradecer ao Facebook”: “Em Myanmar, a negação da
Cleansing and Loathing of Rohingya,” Hanna Beech, New York Times, 24 de outubro
de 2017.
10 “Nunca houve mais”: “Genocídio na era moderna: mídias sociais e a proliferação do
discurso de ódio em Mianmar,” Ashley Kinseth, Tea Circle Oxford, maio de
2018.
11 “pergunta honesta — o que é”: Tweet de Max Read (@max_read), março
15, 2018 (desde excluído).
12 “Existem problemas reais”: Tweet de Adam Mosseri (@mosseri), março
15, 2018 (desde excluído).
13 em um episódio bizarro na Índia: “Quando a censura governamental na Web é
justificada? An Indian Horror Story,” Max Fisher, The Atlantic, 22 de agosto de 2012.
Machine Translated by Google
19 lançaram serviços com classificação zero: Internet gratuita e os custos para a mídia
Pluralism: The Hazards of Zero-Rating the News, Daniel O'Maley e Amba Kak,
relatório digital CIMA, 8 de novembro de 2018.
20 “À medida que o uso se expande”: Facebook: The Inside Story, Steven Levy,
2020: 435.
21 “The history of progress”: Zero to One, Thiel and Masters, 2014: 32. 22 um
ensaio de 6.000 palavras: “Building Global Community,” Mark Zuckerberg,
Facebook.com, 16 de fevereiro de 2017.
Machine Translated by Google
1 Ela estava encontrando no México: “The Other Violence: The Lynching of José
Abraham and Rey David”, Gema Santamaría, Nexos, 22 de outubro de 2015.
Crockett e Jay J. Van Bavel, Perspectives on Psychological Science 15, no. 4 de junho
de 2020.
9 tentou incendiar uma casa de grupo de refugiados: “Um extremista de direita
Atitude é mais do que xenofobia”, Der Spiegel, 12 de outubro de 2015.
10 reuniu dados sobre todos os ataques anti-refugiados: “Fanning the Flames of Hate:
Social Media and Hate Crime,” Karsten Müller e Carlo Schwarz, Journal of the
European Economic Association 19, no. 4 de agosto de 2021.
Machine Translated by Google
11 “ironia envenenada”: Veja, por exemplo: “How the Parkland Teens Give Us a
Glimpse of a Post-Irony Internet,” Miles Klee, Mel Magazine, 28 de
fevereiro de 2018.
12 O advogado de Denkhaus enfatizou: “Brandstifterprozess Altena,”
Akantifahagen.blogsport.eu, 31 de maio de 2016.
13 “certeza relativamente imutável e injustificada”: “Tolerância política, dogmatismo
e usos e gratificações das mídias sociais,” Chamil Rathnayake e Jenifer
Sunrise Winter, Policy & Internet 9, no . 4, 2017.
1 “This was new”: “As Germans Seek News, YouTube Delivers Far Right
Tirades”, Max Fisher e Katrin Bennhold, New York Times, 7 de setembro de
2018.
2 Serrato aplicou um conjunto: “Revelado: o discurso de ódio do Facebook
explodiu em Mianmar durante a crise de Rohingya,” Libby Hogan e Michael
Safi, The Guardian, 2 de abril de 2018.
3 O Google costuma promover o YouTube: “Procurando por vídeo? Google
Pushes YouTube Over Rivals”, Sam Schechner, Kirsten Grind e John West,
Wall Street Journal, 14 de julho de 2020. 4 não
refletia as comunidades do mundo real: Kaiser publicou posteriormente seu
descobertas em “Public Spheres of Skepticism: Climate Skeptics' Online
Comments in the German Networked Public Sphere”, Jonas Kaiser,
International Journal of Communication 11, 2017. 5
tiveram seu início: Veja, por exemplo, “Feeding Hate with Video: A O ex-alt-right
YouTuber explica seus métodos”, Cade Metz, New York Times, 15 de abril de
2021. 6 treinou um computador
para rastrear o YouTube; Posteriormente, os pesquisadores publicaram seus
resultados em “The German Far-right on YouTube: An Analysis of User
Overlap and User Comments,” Adrian Rauchfleisch e Jonas Kaiser, Journal
of Broadcasting and Electronic Media 64, no. 3 de 2020.
A pesquisa apareceu pela primeira vez em “Os algoritmos do YouTube
garantem que os fãs do AfD se mantenham reservados”, Adrian Rauchfleisch
e Jonas Kaiser, Vice Germany, 22 de setembro
de 2017. 7 raspou todos os
comentários: Ibid. 8 centrado em uma fervilhante: “A Alt-Right Can't Disown Charlottesville,”
Ashley Feinberg, Wired, 13 de agosto de 2017.
9 declarou um “verão do ódio”: “Summer of Hate Challenged in
Companion Civil Lawsuits,” Bill Morlin, Southern Poverty Law Center, 19
de outubro de 2017.
10 “We memed alt right”: “Our Extended Interview with Richard Spencer on White
Nationalism”, Vice News, 10 de dezembro de 2016. 11 endossou
o evento: Feinberg, 2017. 12 1.870 grupos
de extrema direita no Facebook: “Analysis of 2017 Unite o certo
Machine Translated by Google
45 “We create Facebook”: “Facebook Touts Fight on Fake News, mas luta para
explicar por que o InfoWars não foi banido”, Oliver Darcy, CNN, 11 de julho de
2018.
46 “Eu sou judeu, e”: “Zuckerberg: The Recode Interview,” Kara Swisher,
Recode, 8 de outubro de 2018.
47 “Vamos segurar Jones”: Tweet de Jack Dorsey (@jack), 7 de agosto de 2018.
twitter.com/jack/status/1026984245925793792 48 “Não acredito
que seja o certo”: “Pode Correção de Mark Zuckerberg
Facebook antes de quebrar a democracia?” Evan Osnos, The New Yorker, 17 de
setembro de 2018.
49 “Não previmos totalmente”: Tweet de Jack Dorsey (@jack), 1º de março de 2018.
twitter.com/jack/status/969234275420655616 50 desistiram
em grande parte frustrados: “Empurrão de Jack Dorsey para limpar as paradas do
Twitter, pesquisadores Diga,” Deepa Seetharaman, Wall Street Journal, 15 de
março de 2020. 51
descobriram um em Denver: Landrum publicou suas descobertas em
“Suscetibilidade diferencial a argumentos enganosos sobre a Terra plana no
YouTube,” Asheley Landrum, Alex Olshansky, Othello Richards, Media
Psychology 24, no. 1, 2021.
52 exposição repetida a uma alegação: os cientistas sociais chamam isso de “ilusória
efeito de verdade”. Veja, por exemplo: “O conhecimento não protege contra
Machine Translated by Google
56 enviado para desorientação: “QAnon High Priest Was Just Trolling Away as
Citigroup Tech Executive,” William Turton e Josh Brustein, Bloomberg,
7 de outubro de 2020.
57 Reenquadrando o caos como ordem: Entre os estudos para descobrir que a
crença na conspiração geralmente serve como uma forma de reafirmar
sentimentos perdidos de autonomia e controle: “Measuring Individual
Differences in Generic Beliefs in Conspiracy Theories across
Cultures: Conspiracy Mentality Questionnaire,” Martin Bruder et al. , Frontiers
in Psychology 4, 2013. 58 deslizou QAnon para o turbilhão: Este processo será
discutido mais adiante em um capítulo posterior. Veja, entre muitos outros: “As Profecias de Q,”
Adrienne LaFrance, The Atlantic, junho de 2020. “QAnon cresce no
Facebook enquanto o grupo de conspiração ganha tração popular,” Deepa
Seetharaman, Wall Street Journal, 13 de agosto de 2020. “Seven: 'Where We
Go One,'” Kevin Roose et al. , New York Times, 28 de maio de 2020.
59 downloads mais populares: “Apple, Google Lucrou com Pizzagate
Offshoot Conspiracy App”, Ben Collins e Brandy Zadrozny, NBC News, 16 de
julho de 2018. 60
alcançou o segundo lugar na Amazon: “How a Conspiracy Theory about Democrats
Drinking Children's Blood Topped Amazon's Best-Sellers List,”
Kaitlyn Tiffany, Vox, 6 de março de 2019.
61 muitos policiais: “QAnon está atraindo policiais”, Ali
Breland, Mother Jones, 28 de setembro de 2020.
62 mães de ioga e influenciadores de estilo de vida: “O mundo do ioga está repleto
de anti-Vaxxers e crentes do QAnon”, Cecile Guerin, Wired UK, 28 de
janeiro de 2021.
Machine Translated by Google
uma série de contas de teste: “'Carol's Journey': What Facebook Knew about How It
Radicalized Users,” Brandy Zadrozny, NBC News, 22 de outubro de 2021. 66
através de “gateway groups”:
Ibid.
67 “Não consigo enfatizar o suficiente”: Tweet de Renee DiResta (@noUpside),
18 de fevereiro de 2018. twitter.com/noupside/status/965340235251920896 68 “Setenta
por cento dos 100 primeiros”: “Facebook sabia que apelos para 'grupos' atormentados por
violência, agora planeja reforma,” Jeff Horwitz, Wall Street Journal, 31 de janeiro, 3031.
69 “onde começa a geração da
bolha”: “Mark in the Middle”, Casey Newton, The Verge, 23 de setembro de 2020.
70 “Their theory about what”: postagem no Facebook de Dominic Fox, 8 de agosto de 2019.
www.facebook.com/reynardine/posts/10156003037586991 71 4.000 que assistiram:
“Facebook: New Zealand Attack Video Viewed 4,000 Times,” BBC News, 19 de março de
2019.
72 fax de escritório congestionado: “Twitter User Hacks 50,000 Printers to Tell People to
Subscribe to PewDiePie,” Catalin Cimpanu, ZD Net, 30 de novembro de 2018.
3 O executivo do Facebook que supervisionou: entrevista com Justin Osofsky, então vice-
presidente de operações globais do Facebook, 2 de outubro de 2018.
“Nós, obviamente, estamos sempre trabalhando para garantir que tenhamos os controles e
relacionamentos corretos em vigor. Meu instinto no que você está descobrindo aqui é
provavelmente menos um problema em um nível de parceiro, em um nível de empresa
para empresa e mais do que você está dizendo.
O que é como se você tivesse alguém na linha de frente dizendo algo inapropriado.”
4 “Por que a maioria dos mestres de xadrez”: “Conselhos para empreendedores da Y Combinator,”
Mark Coker, VentureBeat, 26 de março de 2007. 5 “em software, você quer
investir”: “As lições mais difíceis para as startups aprenderem,” palestra de Paul Graham para a
Y Combinator Startup School, abril de 2006.
6 As regalias foram planejadas: The Code: Silicon Valley and the Remaking of America,
Margaret O'Mara, 2019: 201, 271–272. 7 “passou alguns anos”:
Zucked: Waking Up to the Facebook Catastrophe, Roger McNamee: 2019: 48.
Presidential Election,” Robert M. Faris et al., Berkman Klein Center for Internet &
Society Research Paper, 2017. Redação, 2 de
fevereiro de 2018.
39 A Fox News tornou-se franca: Veja, por exemplo: “Is Facebook as Left
Inclinando-se como todos suspeitam? John Brandon, Fox News, 26 de setembro de
2016.
40 “Não chega nem perto”: “Mark Zuckerberg, do Facebook, encontrou-se com
Conservadores sobre o 'Trending' Bias Spat,” Arjun Kharpal, CNBC, 19 de maio de
2016.
41 História da Vice News com o título: “Twitter is 'Shadow Banning' Prominent
Republicans,” Alex Thompson, Vice News, 25 de julho de 2018. 42
baseado em um técnico: “Twitter não é 'Shadow Banning' republicanos, mas prepare-
se para ouvir que é É,” Laura Hazard Owen, NiemanLab.com, 27
de julho de 2018. 43 punindo-o por
questionar: Tweet de Matt Gaetz (@RepMattGaetz), 25 de julho de
2018. twitter.com/RepMattGaetz/status/
1022224027673219072 44 “suprime vozes conservadoras ”: Tweet
de Ronna McDaniel (@GOPChairwoman) 25 de julho de 2018. twitter.com/
gopchairwoman/status/1022289868620267522
45 “Basta”: Tweet de Donald Trump, Jr. (@donaldtrumpjr), 25 de julho
de 2018. twitter. com/donaldjtrumpjr/status/1022198354468593665 46 break up IBM:
Visões gerais
dos episódios da IBM e da Microsoft são
recontado em, por exemplo, “IBM and Microsoft: Antitrust Then and Now,” CNet,
2 de janeiro de 2002. Para mais detalhes e discussão do legado de casos, consulte
O'Mara, 2017: 341–346. 47 caiu tão dramaticamente:
“Dominance Ended, IBM Fights Back”, Sandra Salmans, New York Times, 9 de janeiro
de 1982.
48 “Eu disse, 'Arrume um escritório'”: Osnos, 2018.
49 argumentou um artigo de opinião de 2018: “O que o caso antitruste da Microsoft nos ensinou,”
Richard Blumenthal e Tim Wu, New York Times, 18 de maio de 2018. 50 um
líder que “viola o protocolo”: “CEO em tempos de paz/CEO em tempos de guerra”, Ben
Horowitz, A16z.com, 15 de abril de 2011.
Machine Translated by Google
Agora ela está contando sua história”, Karen Hao, MIT Technology Review, 29 de
julho de 2021.
65 “Eu sei que tenho”: Ibid.
66 Ditadura comunista do Vietnã: “O caso contra Mark
Zuckerberg: Insiders dizem que o CEO do Facebook escolheu o crescimento
em vez da segurança”, Elizabeth Dwoskin, Tory Newmyer, Shibani Mahtani,
Washington Post, 25 de outubro de 2021.
67 estimou que a presença do Facebook no Vietnã rende US$ 1 bilhão: Vamos respirar!
Censura e criminalização da expressão online no Vietnã, Relatório da Anistia
Internacional, 30 de novembro de 2020. 68 não exibem mais anúncios
políticos: “Dissent Erupts at Facebook over Hands-Off Stance on Political Ads”, Mike
Isaac, New York Times, 28 de outubro , 2019.
74 “tempo bem gasto”: “Tempo de qualidade, trazido a você pela Big Tech,”
Arielle Pardes, Wired, 31 de dezembro de 2018.
75 “Começaremos a perceber”: Tweet de BJ Fogg (@bjfogg), 11 de setembro de 2019.
twitter.com/bjfogg/status/1171883692488183809 76 publicar um livro
com o título: “Addicted to Screens? Isso é realmente um problema seu”, Nellie Bowles,
New York Times, 6 de outubro de 2019.
77 Harris chamou a campanha: Pardes, 2018.
78 “The CEOs, inside”: “Where Silicon Valley Is Going to Get in Touch with Its Soul”,
Nellie Bowles, New York Times, 4 de dezembro de 2017. 79 um moderador
americano entrou com uma ação: “Ex-moderador de conteúdo processa
Machine Translated by Google
1 foi a seu chefe com um plano: “OMS luta contra uma pandemia além do
coronavírus: uma 'infodemia'”, Matt Richtel, New York Times, 6 de fevereiro
de 2020.
2 “O interesse que recebi:” “Perguntas e respostas: Solidificando o papel das
plataformas de mídia social na saúde global”, Devex Partnerships, Devex.com, 29
de novembro de 2021.
3 “I made this pitch on a human”: “How WHO Is Engaging Big Tech to Fight Covid-19,”
Catherine Cheney, Devex.com, 14 de agosto de 2020. 4 an “infodemia”:
“Facebook, Amazon, Google e Mais se reuniu com a OMS para descobrir como
impedir a desinformação sobre o coronavírus”,
Christina Farr e Salvador Rodriguez, CNBC, 14 de fevereiro de 2020.
5 postagens no Facebook já estavam vencendo: “O coronavírus não pode ser curado
bebendo água sanitária ou cheirando cocaína, apesar dos rumores nas
mídias sociais”, Christina Capatides, CBS News, 9 de março de 2020.
6 influenciadores do Instagram explicaram: “Vídeo da conspiração do coronavírus
Spreads on Instagram between Black Celebrities”, Brandy Zadrozny, NBC News,
13 de março de 2020. a doença
nas torres de celular 5G: “Por que as teorias da conspiração do coronavírus florescem.
And Why It Matters”, Max Fisher, New York Times, 8 de abril de 2020.
9 O Facebook relatou 70 por cento: “Oito: 'We Go All'”, Kevin Roose, New York Times,
4 de junho de 2020. 10 saltou de 9
para 16 por cento: “YouTube Controls 16% of Pandemic Traffic Globally: Sandvine,”
Daniel Frankel, Next TV, 7 de maio de 2020. 11 estava em todo lugar em abril: Em
abril de 2020, o grupo de defesa Avaaz identificou 100 postagens de conspiração
Covid no Facebook com 1,7 milhão de compartilhamentos combinados. “Como o
Facebook pode achatar a curva da infodemia do coronavírus”, Avaaz, 15 de
abril de 2020. 12 Facebook de missionário de cidade
pequena: sua postagem recebeu 18.000 compartilhamentos.
“Fact-Checking a Facebook Conspiracy about Bill Gates, Dr. Fauci and Covid-19,”
Daniel Funke, Politifact, 14 de abril de 2020.
Machine Translated by Google
34 eles planejaram “treinamento com armas de fogo”: Queixa criminal, Estados Unidos
da América v. Jessie Alexander Rush, Robert Jesus Blancas, Simon Sage Ybarra
e Kenny Matthew Miksch, Caso CR-21-0121-JD, 23 de março de 2021.
44 Carrillo propôs a ele: De Acha, Hurd e Lightfoot, abril de 2021. 45 ele “enviaria a
Guarda Nacional”: Tweet de Donald J. Trump (@realDonaldTrump), 29 de maio de
2020. Desde então excluído. 46 "divisivo e inflamatório":
"Zuckerberg diz que está 'lutando' com as últimas postagens de Trump, mas deixando-
as", David Ingram, NBC News, 29 de maio de 2020.
81 10 por cento de todas as visualizações baseadas nos EUA: “Internal Alarm, Public
Shrugs: Facebook's Employees Dissect Its Election Role,” Ryan Mac e Sheera
Frenkel, New York Times, 22 de outubro de 2021. 82 1 por cento
do YouTube: Tweet de Guillaume Chaslot (@gchaslot), 3 de dezembro de 2020. twitter.com/
gchaslot/status/1334615047197380610 83 visualizações 138 milhões de vezes: “Election
Fraud Narrative,”
Relatório Transparency.tube, 17 de novembro de 2020.
84 A plataforma permaneceu saturada: “YouTube Still Awash in False Voter Fraud Claims”,
Tech Transparency Report, 22 de dezembro de 2020. 85 “montanhas de
evidências”: “Promessa de apoiadores de extrema-direita de Trump
Violence at Today's DC Protests,” Jordan Green, Raw Story, 6 de janeiro de 2021.
86 mais de 80% das discussões: “Em sites de extrema direita, planos para invadir o Capitólio
foram feitos à vista”, Laurel Wamsley, NPR, 7 de janeiro de 2021.
epílogo: denúncia
Machine Translated by Google
10 “Os sistemas do Facebook não foram projetados”: “You and the Algorithm: It Takes Two to
Tango,” Nick Clegg, Medium.com, 31 de março de 2021. 11 “deixado para metástase”:
tendências na direção errada: mídias sociais
Platforms' Declining Enforcement of Voting Disinformation, Common Cause Report, 2 de
setembro de 2021. 12 “pelo menos um grupo
de extrema-direita no Facebook”: Breaching the Mainstream: A National Survey of Far-Right
Membership in State Legislatures, Institute for Research and Education sobre Direitos
Humanos, maio de 2022.
13 “incentivando as crianças a gravar seus professores”: “Florida GOP empurra
pesquisa de 'diversidade intelectual' para faculdades”, Ana Ceballos, The Tampa Bay Times,
6 de abril de 2021. 14 adulteração
de sistemas de votação: “Máquina de votação desaparecida após
Machine Translated by Google