Você está na página 1de 26

Machine Translated by Google

Fake news na internet:


estratégia de combate à
desinformação

Dezembro de 2017

Faculdade de Direito
Centro de Estudos sobre
Liberdade de Expressão e Acesso à Informação
Machine Translated by Google

Fake news na internet: a estratégia de combate


desinformação

Este documento foi preparado por Carlos Cortés* e Luisa Isaza** para a CELE

introdução

Em 4 de dezembro de 2016, um mês após a eleição presidencial dos EUA, Edgar Maddison Welch, um homem de 28 anos da
Carolina do Norte, atirou três vezes na pizzaria Comet Ping Pong em Washington DC Ele estava determinado a entrar, investigar e
resgatando crianças que estavam sendo exploradas por uma suposta quadrilha de tráfico sexual infantil dirigida por Hillary Clinton e
outros membros do Partido Democrata.1

Maddison Welch estava convencido da existência da rede pelas notícias que lera na Internet.
Após sua prisão, e apesar de a polícia ter negado a história –conhecida como Pizzagate–, o homem se desculpou, mas nunca admitiu
que a informação que motivou seu ataque era falsa.2 A louca história se espalhou pelas redes sociais e fóruns. na Internet, juntamente
com centenas de histórias falsas relacionadas aos dois candidatos ou membros de seus partidos.3

Semanas antes da eleição, milhões de pessoas viram uma história em seu feed de notícias do Facebook informando que, em uma
declaração sem precedentes, o Papa Francisco havia proclamado seu apoio à candidatura de Donald Trump. Essa fake news recebeu
960 mil interações na rede social (comentários, reações e compartilhamentos), mais do que qualquer outra notícia real sobre as
eleições.4 De fato, de acordo com uma análise do BuzzFeed publicada dias após as eleições, as vinte principais notícias falsas
disponíveis O Facebook durante os três meses anteriores à eleição gerou mais interações do que as vinte principais histórias
verdadeiras publicadas na mesma rede social pelos meios de comunicação mais reconhecidos (New York Times, Washington Post,
Los Angeles Times, Wall Street Journal, FOX News, entre outros).

O Guardian e o Buzzfeed revelaram que grande parte dessas histórias estava sendo produzida por um grupo de jovens
macedônios, que por meio de manchetes sugestivas que produziam cliques – uma técnica enganosa conhecida como clickbait – tornavam

*Carlos Cortes. Pesquisador consultor da Iniciativa para a Liberdade de Expressão (iLEI) do CELE. Advogado pela Universidad de Los Andes (Colômbia), com
mestrado em governança de mídia pela London School of Economics. É consultor em liberdade de expressão e regulação da internet.

** Luísa Isaza. Advogado pela Universidade Javeriana (Colômbia). Assessor jurídico da Coordenação de Defesa e Assistência a Jornalistas da Fundação para a
Liberdade de Imprensa (FLIP), na Colômbia.
1
Siddiqui, Faiz y Svrluga, Susan, “O homem da NC disse à polícia que foi à pizzaria de DC com uma arma para investigar a teoria da conspiração”, Washing
ton Post, 5 de dezembro de 2016, disponível em: http://wapo.st/2gW0yFo.
2
Goldman, Adam, “The Comet Ping Pong Gunman Answers Our Reporter's Questions”, The New York Times, 7 de diciembre de
2016, disponível em: http://nyti.ms/2Er1xrM.
3 Outras notícias falsas amplamente divulgadas relacionadas às eleições alegavam, por exemplo, que Hillary Clinton havia vendido armas ao ISIS, que
Donald Trump estava oferecendo passagens só de ida para a África e o México para aqueles que quisessem deixar o país e que um líder do ISIS estava
pedindo aos muçulmanos que votassem em Clinton. Silverman, Craig, “Aqui estão 50 dos maiores hits de notícias falsas no Facebook de 2016”, Buzzfeed, 30
de dezembro de 2016, disponível em: http://bzfd.it/2Ge4ZXo.

4
Silverman, Craig, “Esta análise mostra como as notícias virais sobre eleições falsas superaram as notícias reais no Facebook”, Buzzfeed,
16 de novembro de 2016, disponível em: http://bzfd.it/2ssm265.

2
Machine Translated by Google

Milhares de dólares em publicidade foram gerados a partir do tráfego para suas páginas na Internet.5 Na cidade de Veles, na Macedônia,
foram criados mais de uma centena de sites para esse fim, projetados para parecerem autênticos portais de notícias. Outras fábricas de
fake news operavam diretamente dos Estados Unidos.6 Segundo seus próprios criadores, grande parte do tráfego para esses sites vinha
de cliques originados do Facebook, onde também tinham centenas de milhares de seguidores.

Informações falsas foram espalhadas até o próprio dia das eleições na forma de hoaxes, contas falsas no Twitter, tweets de
desinformação e até resultados do Google. ” era um site chamado 70News que afirmava falsamente que Donald Trump havia ganho
tanto os votos eleitorais quanto os populares.8

Após a surpreendente vitória de Donald Trump, a discussão sobre fake news explodiu.9 Algumas vozes –incluindo a de um autor de
fake news– disseram que a desinformação nas redes sociais influenciou diretamente nos resultados eleitorais.10 E embora Por enquanto,
não há estudo que mede claramente esse impacto.Não há dúvida de que Facebook, Twitter e Google tiveram um papel importante por
serem a principal fonte de informação para muitas pessoas.11

Os serviços dessas empresas não foram explorados apenas por jovens astutos para lucrar com publicidade. De acordo com as
descobertas da inteligência dos EUA, o governo russo usou essas plataformas para espalhar notícias e propaganda falsas, buscando
influenciar o debate público durante o período de campanha e beneficiar a candidatura de Trump em detrimento da de Clinton.12 Mais
recentemente, a primeira-ministra britânica Theresa May fez acusações semelhantes contra o governo russo.13

5
Tynan, Dan, “How Facebook powers money machines for obscuro Political 'news' sites”, The Guardian, 24 de agosto de 2016, disponível
em: http://bit.ly/2bhzDzv; Silverman, Craig y Alexander, Lawrence “How Teens In The Balkans Are Duping Trump Supporters With Fake News”,
Buzzfeed, 3 de novembro de 2016, disponível em: http://bzfd.it/2EubVDu; Ohlheiser, Abby, “This is how Facebook's fake news writers make
money”, The Washington Post, 18 de novembro de 2016, disponível em: http://wapo.st/2Bt9wGk.
6
Silverman, Craig e Singer-Vine, Jeremy, “A verdadeira história por trás do maior sucesso de notícias falsas da eleição”, Buzzfeed, 16 de
Dezembro de 2016, disponível em: http://bzfd.it/2BZ7kHs.
7 Rogers, Kathy y Bromwich, Jonah, “The Hoaxes, Fake News and Misinformation We Saw on Election Day”, The New York Times, 8 de novembro
de 2016, disponível em: http://nyti.ms/2o4NhOA.
8 Abrams, Dan, “Now Even Google Search Aiding in Scourge of Fake, Inaccurate News About Election 2016”, Mediate, 13 de no
viembre de 2016, disponível em: http://bit.ly/2ssmbq9.
9 Uma consulta no Google Trends revela que as buscas pelo termo fake news dispararam em novembro de 2016, depois de quase
insignificantes nos últimos anos. O pico das buscas é na semana de 8 a 14 de janeiro de 2017, semana em que ocorreu o conhecido incidente
em que Donald Trump se recusou a responder a uma pergunta de um jornalista da CNN, dizendo-lhe “Você é uma notícia falsa!” . Google
Trends, http://bit.ly/2Gfn3QZ, último acesso: 4 de dezembro de 2017.
10
Leia, Max “Donald Trump Won Because of Facebook”, New York Magazine, 9 de novembro de 2016, disponível em: http://nymag.
com/selectall/2016/11/donald-trump-won-because-of-facebook.html; Dewey, Caitlin, “Facebook fake news writer: 'I think Donald Trump is in
the White House because of me'”, The Washington Post, 17 de novembro de 2016, disponível em: http://wapo.st/2f3NIlC; Parkinson, Hannah,
“Clique e eleja: como as notícias falsas ajudaram Donald Trump a vencer uma eleição real”, The Guardian, 14 de novembro de 2016, disponível
em: http://bit.ly/2fSyaDH.
11 De acordo com o último estudo sobre notícias digitais do Reuters Institute for the Study of Journalism da Universidade de Oxford, uma
pesquisa realizada em 36 países revelou que 54% dos internautas utilizam as mídias sociais como fonte de notícias (Reuters Institute for the
Estudo de Jornalismo, “Digital News Report”, http://bit.ly/SBryvD, último acesso: 14 de dezembro de 2017). No caso dos Estados Unidos, um
estudo do Pew Research Center diz que 67% da população consome notícias por meio dessas plataformas. Fazendo jus ao seu nome, o
Facebook NewsFeed é a principal fonte de notícias entre os entrevistados que usam a mídia social como fonte de notícias (Pew Research Center,
“News Use Across Social Media Platforms 2017,” http://pewrsr. ch/2vMCQWO, last acesso: 14 de dezembro de 2017).

12 Escritório do Diretor de Inteligência Nacional da Comunidade de Inteligência dos Estados Unidos, “Avaliando atividades e intenções
russas nas eleições recentes dos EUA”, 6 de janeiro de 2017, disponível em: http://bit.ly/2iRbS9b.
13
Mason, Rowena, “Theresa May acusa a Rússia de interferir em eleições e notícias falsas”, The Guardian, 14 de novembro de 2017,
Disponível em: http://bit.ly/2mnQaML.

3
Machine Translated by Google

Observação. O Google pesquisa o termo notícias falsas durante os últimos cinco anos (Google Trends).

Várias autoridades dos EUA iniciaram investigações sobre a interferência russa nas eleições, para as quais
solicitaram informações a empresas. Inicialmente, o Facebook queria minimizar a questão: dois dias após a eleição,
Mark Zuckerberg argumentou publicamente que pensar que notícias falsas tiveram impacto na eleição era uma ideia
“bem louca”. 14 Mas a empresa mais tarde admitiu no Senado
produzida
dos EUAna Rússia
que milhões
postada
de usuários
no Facebook
virame publicidade
Instagram .
vezes durante a eleição. O Google encontrou mais de mil vídeos no YouTube sobre o assunto.

Esse cenário tornou-se a tempestade perfeita para as empresas de Internet, que, por questões amplas e de
diferentes latitudes, sofrem pressões de governos e da sociedade civil para tornarem suas práticas transparentes.16 A
desinformação não é um problema isolado nem novo. Em segundo plano está o dilema dos conteúdos nocivos –
difamatórios, incendiários, violadores da privacidade, entre outros – e a resposta das empresas a estes. A moderação
de conteúdo está, portanto, no centro dessa discussão e suas implicações atravessam o exercício da liberdade de expressão on

Como será visto mais adiante, Facebook e Google vêm adotando medidas para lidar com o problema. Alguns se
concentram na prevenção, buscando educar os cidadãos para tomar decisões informadas sobre o conteúdo que
consomem. Outros têm efeito direto sobre as informações que são publicadas nas plataformas, seja por meio de
alterações invisíveis no algoritmo ou avisos visíveis sobre a veracidade das informações. A maioria dessas medidas
são ensaios ou têm cobertura geográfica parcial;17 outras destinam-se apenas a momentos específicos, como eleições.
De qualquer forma, não é fácil determinar o alcance e a profundidade dessas ações, pois é, em essência, uma série de
anúncios cuja implementação não é totalmente clara.

Este documento expõe as medidas que o Facebook e o Google anunciaram para combater a desinformação. Inclui
também uma breve alusão ao YouTube e Twitter. Focamos nas medidas que têm efeito direto na plataforma e nas
informações que seus usuários recebem, e não nas medidas preventivas e educativas que estão sendo trabalhadas
em paralelo. Da mesma forma, o documento tenta determinar qual será a cobertura geográfica dessas medidas.
Posteriormente, a título de conclusão, expõe quais podem ser os problemas por trás das soluções propostas em quatro
pontos: i) escala e tempo, ii) impacto, iii) o papel da sociedade civil e iv) transparência.

14 Entrevista realizada pelo jornalista David Kirkpatrick, fundador da Techonomy Media, em 10 de novembro de 2016, disponível em: http://
bit.ly/2o6NMrv.
15
Shaban, Hamza, Timberg, Craig y Dwoskin, Elizabeth “Facebook, Google e Twitter testemunharam no Capitólio. Aqui está o que eles
disseram”, The Washington Post, 31 de outubro de 2017, disponível em: http://wapo.st/2gZM9fx.
16 Em junho de 2017, o parlamento alemão aprovou uma lei exigindo que empresas de Internet com mais de dois milhões de usuários
removam discursos de ódio e outros conteúdos ilegais, como notícias falsas difamatórias, de suas plataformas em 24 horas. , sob pena de
multas de até € 50 milhões (Joe Miller, “Germany votes for 50m euro social media fines”, BBC, 30 de junho de 2017, disponível em: http://bbc.in/
2C0rTna). Mais recentemente, um porta-voz de Theresa May informou que o Reino Unido está avaliando o papel do Facebook e do Google no
fornecimento de notícias e quais podem ser suas responsabilidades (“Britain loo king at Google, Facebook role in news: PM May’s speaker” ,
Reuters, outubro 10, 2017, disponível em: http://reut.rs/2swt75t).
17 O experimento “Explore” do Facebook, realizado em seis países, separa as postagens e publicidade de amigos em uma aba e o conteúdo
público de outras contas do Facebook em outra. O Facebook anunciou que não tem planos de tornar essa medida definitiva ou extensiva a
todos. Facebook, “Clarifying Recent Tests”, http://bit.ly/2zwW0NF, último acesso: 14 de dezembro de 2017.

4
Machine Translated by Google

II. Desinformação e manipulação: uma classificação provisória

Em novembro de 2017, o Dicionário Collins elegeu fake news como palavra do ano.18 A expressão, cujo uso aumentou 365% neste
ano, será incluída na próxima edição daquele dicionário como “informação falsa, muitas vezes sensacionalista, divulgada sob o disfarce de
reportagem. As notícias falsas, no entanto, não têm uma única conotação. Las audiencias no solo la usan para referirse a reportajes falsos,
sino en general para expresar una inconformidad con la desinformación, especialmente en línea.19 Y, para no ir demasiado lejos, el
Presidente Donald Trump la usa para descalificar cualquier información con la que no está de acordo.

A verdade é que, além do uso político do termo, as fake news também estão relacionadas a opiniões, propaganda e manipulação
extremistas. Uma opinião desinformada e alarmista de um político via Twitter pode ser para muitos uma notícia falsa, tanto quanto uma
notícia que, com má-fé deliberada, informa falsamente sobre a morte de um líder mundial. Em ambos os casos, encontramos diferenças
de conteúdo (uma opinião versus uma notícia), de formato (um tweet versus uma página da web) e possivelmente de motivação (o político
quer arenga de sua base enquanto o site quer cliques).

Em seguida, é proposta uma classificação visando compreender como o conteúdo é produzido e como chega ao leitor. Esta proposta
não desenvolve categorias mutuamente exclusivas. Por exemplo, o conteúdo pode ser fake news e ter, ao mesmo tempo, uma abordagem
de propaganda. Também não tenta ordenar o assunto como um todo, e exclui, em particular, o conteúdo do jornalismo satírico e os erros
de reportagem cometidos de boa fé. Estas últimas podem fazer parte de um debate sobre notícias falsas, mas não estão relacionadas ao
objetivo deste documento.

1. Notícias falsas

Trata-se de conteúdo deliberadamente falso postado em sites cuja aparência pretende ser formal e autêntica.20 Às vezes, o design e o
URL do site personificam um portal de notícias respeitável. O objetivo claro é enganar o usuário. Geralmente, esse conteúdo circula nas
redes sociais por meio das contas desses portais, seja organicamente – por meio de curtidas, retuítes e compartilhamentos de usuários –
ou com ações promovidas, ou seja, pagando para que esses conteúdos sejam divulgados em todas as plataformas.

18
Flood, Alison, “Fake news is 'very real' word of the year for 2017”, The Guardian, 2 de novembro de 2017, disponível em: http://bit.
ly/2iTWYk4.
19 “Nossas descobertas sugerem que, do ponto de vista do público, as notícias falsas são apenas em parte sobre reportagens fabricadas estritamente
definidas, e muito mais sobre um descontentamento mais amplo com o cenário da informação – incluindo mídia de notícias e políticos, bem como plataformas
empresas. Lidar com notícias falsas é importante, mas não abordará a questão mais ampla de que as pessoas sentem que muitas das
informações que encontram, especialmente online, consistem em jornalismo ruim, propaganda política e formas enganosas de publicidade
e conteúdo patrocinado.” Nielsen, Rasmus y Graves, Lucas, “'News you don't believe': Audience perspectives on fake news”, Instituto
Reuters para el Estudio del Periodismo, outubro de 2017, disponível em: http:// bit.ly/ 2o4Exb6.
20 Media Matters, “Entendendo o universo das notícias falsas”, http://bit.ly/2EDq8NH.

5
Machine Translated by Google

Observação. Matéria falsa postada no site abcnews.com.co, criada para imitar a ABC News, cujo endereço na web é abcnews.go.com.
De acordo com esta notícia falsa, alguns dos manifestantes contra Donald Trump foram pagos para protestar. Apesar da falsidade das
notícias, dias após sua eleição, o próprio Trump sugeriu que essas pessoas eram “manifestantes profissionais”.

Observação. Uma foto de uma votação no Arizona foi alterada para incluir uma imagem de uma prisão. A pessoa que postou no Twitter
alegou que um imigrante indocumentado havia sido preso por tentar votar.22

21 Esta notícia foi compartilhada no Twitter por Eric Trump, filho de Donald Trump, por Corey Lewandowski e Kellyanne Conway, dois
gerentes de campanha de Trump. Jacobson, Louis, “Não, alguém não recebeu US$ 3.500 para protestar contra Donald Trump; é fake news”,
Politifact, 17 de novembro de 2016, disponível em: http://bit.ly/2flpuUR; Stahl, Lesley, “O presidente eleito Trump fala a um país dividido”, CBS
News, 13 de novembro de 2016, disponível em: http://cbsn.ws/2swFxKz.
22
Wardle, Claire, “6 types of misinformationcirculed this celebration season”, Columbia Journalism Review, 18 de novembro de 2016,
disponível em: http://bit.ly/2CkRdjh.

6
Machine Translated by Google

As notícias falsas no sentido estrito podem ter motivação econômica, motivação política ou um pouco de ambos.
No primeiro caso, trata-se de operações comerciais que buscam gerar tráfego a partir de conteúdos falsos e, sobretudo,
manchetes sensacionalistas nas quais as pessoas clicam, mas cujas informações relacionadas não têm significado ou
relevância. No segundo caso, a notícia tenta parecer autêntica não tanto para gerar tráfego e lucros, mas para
manipular o debate público em favor de certos interesses políticos. Um exemplo dessa categoria são as informações
falsas já mencionadas sobre a adesão do Papa Francisco à candidatura de Donald Trump em 2016.

Observação. As notícias falsas sobre o apoio do Papa a Donald Trump.

O interesse político pelas notícias falsas não é necessariamente exclusivo do interesse econômico. Enquanto
algumas notícias falsas são criadas com uma motivação ou outra, em muitos casos ambas as órbitas podem se unir.
No caso de desinformação em torno da campanha presidencial dos EUA, os jovens macedônios podem ficar
indiferentes sobre quem ganhou a eleição; mas não aos operativos russos que também a influenciaram. Neste último
caso, os benefícios econômicos do tráfego e da interação somaram-se à agenda política subjacente.23

2. Propaganda

Para Jacques Ellul, a propaganda é um conceito elusivo que se desenvolve em torno da ação psicológica e da
ação bélica, reeducação, lavagem cerebral e relações públicas entre humanos. Nesse sentido, para o sociólogo
francês, a propaganda é, antes de tudo, uma técnica para influenciar as ações de grupos ou indivíduos.24

Entre outras manifestações, a propaganda pode abranger informações falsas ou informações verdadeiras
apresentadas de forma enganosa.25 Por exemplo, alguns fatos são apresentados, mas outros são omitidos; a
informação é extraída com texto; o conteúdo é manipulado; teorias ou opiniões são apresentadas como fatos;
credibilidade é dada a informações altamente questionáveis; certa informação é negada para criar confusão, ou uma
única verdade é proclamada em oposição à 'outra' – a estratégia dos movimentos nacionalistas.26

A propaganda faz parte da política e da comunicação pelo menos desde o início do século passado. Não é,
portanto, um fenômeno digital. No entanto, a abrangência desse conteúdo no ambiente online é especial.

23 “Esses macedônios no Facebook não se importavam se Trump ganhasse ou perdesse a Casa Branca. Eles só queriam dinheiro de bolso para
pagar as coisas – um carro, relógios, celulares melhores, mais bebidas no bar”. Subramian, Samanth, “Welcome To Veles, Macedonia, Fake: News
Factory To The World”, Wired, março de 2017, disponível em: http://bit.ly/2o7BOxQ.
24
Ellul, Jacques, Propaganda: The Formation of Men's Attitudes, Nova York, Vintage Books, 1965.
25
“Propaganda é informação ou ideias falsas ou enganosas dirigidas a um público de massa por partes que assim ganham vantagem.
A propaganda é criada e disseminada sistematicamente e não convida a análise crítica ou resposta”. Huckin, Thomas, “Propa ganda Defined”, em:
Henderson, Gae Lyn y Braun, MJ (ed.), Propaganda and Rhetoric in Democracy: History, Theory, Analysis,
Carbondale, Southern Illinois University Press, 1a ed., 2016, pp. 118-136.
26
Powell, John A. “Nós contra eles: as técnicas sinistras de 'Othering' – e como evitá-las”, The Guardian, 8 de novembro de
2017, disponível em: http://bit.ly/2iGLAUX.

7
Machine Translated by Google

Importância: Por meio da ferramenta publicitária –especialmente no Facebook– a publicidade é ajustada a comunidades e grupos
específicos com base em gostos, tendências políticas e círculos de amizade. No caso das eleições norte-americanas, esse nível de
granularidade atingiu um nível alarmante:

Anúncios obscuros ou anúncios obscuros – como são conhecidos pela impossibilidade de saber quem os vê – permitiram reafirmar
convicções políticas, provocar divergências e, em geral, polarizar o eleitorado. Um homem branco de um estado republicano viu um
anúncio contra a imigração ou defendendo o uso de armas; um afro-americano viu um anúncio relembrando a perseguição racial da Ku
Klux Klan; um católico viu Hillary encarnando o diabo em uma luta contra Jesus.27

Observação. Um anúncio de televisão da campanha de Donald Trump dizia que o então candidato iria travar a imigração ilegal na “fronteira sul”
construindo um muro que seria pago pelo México, ao mesmo tempo que mostrava um vídeo de dezenas de pessoas atravessando a fronteira entre
Marrocos e a cidade espanhola de Melilla, não entre o México e os Estados Unidos.28

3. Teorias da conspiração

As teorias da conspiração procuram explicar um determinado evento como resultado de um plano cuidadosamente coordenado por
um indivíduo ou grupo. As motivações são geralmente secretas e maliciosas, e as ações são realizadas em detrimento do interesse
geral.29 Essas teorias abundam em canais de vídeo e páginas da Internet, e muitas vezes são apresentadas como notícias, apesar de
sua escassa base factual.

Na Colômbia, há alguns anos, circula uma teoria segundo a qual o presidente Juan Manuel Santos foi recrutado para trabalhar
secretamente para o governo cubano.30 Na Argentina, após o desaparecimento do jovem Santiago Maldonado, várias teorias da
conspiração foram lançadas na Internet , incluindo um que indicava que o site santiagomaldonado.com, criado para exigir o aparecimento
do ativista vivo, havia sido colocado em funcionamento antes de seu desaparecimento.31

A teoria da conspiração Pizzagate , mencionada na introdução deste texto, foi examinada por diversos meios de comunicação nos
Estados Unidos a fim de identificar sua origem.32 Em outubro de 2016, um usuário de

27
Cortés, Carlos, “O algoritmo impossível, redes sociais e notícias falsas”, Revista Arcadia, dezembro de 2017, disponível em: http://
bit.ly/2CmcdpT.
28
Edds, Carolyn, “O primeiro anúncio de TV de Donald Trump mostra migrantes 'na fronteira sul', mas na verdade eles estão em Marrocos”, Politifact, 4 de
Junho de 2016, disponível em: http://bit.ly/1mvNQi9.
29 Media Matters, “Understanding The Fake News Universe”, http://bit.ly/2EsVDdZ, último acesso: 14 de dezembro de 2017. Segundo Michael Barkun,
as teorias da conspiração se caracterizam por responder a três princípios, a saber: i) nada acontece por acaso, ii) nada é o que parece e iii) tudo está
conectado. Barkun, Michael, A Culture of Conspiracy: Apocalyptic Visions in Contemporary America, Berkeley, University of California Press, 2003, pp.
3-4, disponível em: http://bit.ly/2Btakek.
30 “Los Santos y su militancia castrocomunista”, Periodismo Sin Fronteras, 1 de julho de 2013, disponível em: http://bit.ly/1hjVIzx.
31 “O sítio de Santiago Maldonado foi criado antes de seu desaparecimento”, Data 24, 18 de setembro de 2017, disponível em: http://
bit.ly/2w3l0ed.
32 A esse respeito, ver os seguintes artigos: (i) Aisch, Gregor, Huang, Jon and Kang, Cecilia, “Dissecting the #PizzaGate Conspiracy Theories”, The New
York Times, 10 de dezembro de 2016, disponível em: http :/ /nyti.ms/2jcCzlu. (ii) Silverman, Craig, “How The Bizarre Conspiracy Theory Behind 'Pizzagate'
Was Spread”, Buzzfeed, 5 de dezembro de 2016, disponível em: http://bzfd.it/2CjSQOl.

8
Machine Translated by Google

O Twitter replicou de sua conta uma mensagem do Facebook em que uma mulher alegou que uma fonte anônima do
Departamento de Polícia de Nova York havia dito a ela que havia evidências de que Hillary e Bill Clinton estavam envolvidos em
uma rede de tráfico sexual de crianças. O tweet alcançou milhares de retuítes, e horas depois um usuário de um fórum de
discussão na Internet postou uma mensagem dizendo que "fontes internas" haviam confirmado a existência da rede de pedofilia,
que seria exposta em poucas horas.33 No dia seguinte, a notícia falsa O site YourNewsWire.com publicou uma história baseada
em comentários de um usuário do 4chan – um fórum online repleto de material de trollagem – dizendo que uma fonte do FBI
havia confirmado as alegações.34 A história foi replicada e amplificada por outros sites de notícias falsas e compartilhada no
Facebook .

Entre todas as versões publicadas, a história alcançou centenas de milhares de interações no Facebook e Twitter, e começou
a se tornar viral sob a hashtag #PizzaGate.35 Fake news foi criada com fotos manipuladas. Em fóruns de discussão e comentários
em redes, falava-se de túneis subterrâneos, câmaras de tortura, satanismo e canibalismo nos porões de vários restaurantes.
Quando a mídia refutou a teoria, foi acusada pelos crentes de querer esconder a verdade. Mesmo semanas depois que o homem
que atirou na pizzaria Comet Ping Pong – onde, é claro, nenhuma rede ilegal operava – foi preso, algumas pessoas ainda
insinuaram que a história era verdadeira.36

4. Informações falsas, rumores, correntes, memes

Uma categoria mais ampla de desinformação, que inclui diferentes formas de fake news, propaganda e teorias da
conspiração, é o conteúdo misturado e difundido por meio de serviços de mensagens instantâneas, principalmente o WhatsApp.
Nesse ambiente, as informações são giradas de mão em mão na forma de imagens, vídeos ou memes, sem autor identificado
ou identificável. A legitimidade e autoridade do conteúdo é dada, em última instância, pelo conhecido ou conhecido que o compartilha.

Em países como a Colômbia esse tipo de conteúdo teve um alcance aparentemente alto no ano passado. Durante as
campanhas a favor e contra os acordos de paz de Havana anteriores ao plebiscito de outubro de 2016, foi divulgado conteúdo
falso, impreciso e descontextualizado sobre os acordos por meio do WhatsApp, com o objetivo de captar o voto contra os
acordos. Conforme reconhecido por um dos líderes do movimento não, o objetivo era gerar raiva e indignação.37

(iii) LaCapria, Kim, “Chuck E. Sleaze”, Snopes, 21 de novembro de 2016, disponível em: http://bit.ly/2xX7xta.
33 O fórum de discussão “Quebrando: É pior do que e-mails classificados. Political Pedophile Sex Ring Exposed” está disponível em: http://bit.
ly/2ErmerY, último acesso: 14 de dezembro de 2017.
34 “FBI Insider: Clinton Emails Linked To Political Pedophile Sex Ring”, YourNewsWire.com, 31 de outubro de 2016, disponível em: http://bit.ly/2fesMdl.

35
Silverman, Craig, “How The Bizarre Conspiracy Theory Behind 'Pizzagate' Was Spread”, Buzzfeed, 5 de dezembro de 2016, dispo
disponível em: http://bzfd.it/2CjSQOl.
36
Allam, Hannah, “Conspiracy peddlers continue pushing debunked 'pizzagate' tale”, Miami Herald, 5 de diciembre de 2016, disponível
tornou-se um: http://hrld.us/2CFYGKw.
37
Ramírez, Juliana, “El Não tem sido a campanha mais barata e eficaz da história”, Assuntos Jurídicos, 4 de outubro de 2016, disponível em: http://
bit.ly/2EHxlwc.

9
Machine Translated by Google

Observação. Mensagens com informações falsas nas redes sociais e Whatsapp durante a campanha anterior ao plebiscito de outubro de 2016.38

Seja como notícia eminentemente falsa, propaganda, teorias da conspiração ou boatos, a notícia falsa não é um fenômeno isolado da
realidade social e política, muito menos uma externalidade da tecnologia. “Hoje, quando falamos da relação das pessoas com a Internet,
tendemos a adotar a linguagem acrítica da ciência computacional.
A 'fake news' foi descrita como um 'vírus' entre os usuários 'expostos' à desinformação online”, explica a socióloga norte-americana Katherine
Cross.39 A desinformação origina e retroalimenta a incorporação humana, e é nessa relação que podemos localizar a dimensão do problema
e as limitações das soluções propostas.

III. Acessibilidades e espaços

Assim como o fenômeno da desinformação responde a diferentes contextos sociais, ele não se manifesta da mesma forma em todos os
ambientes digitais: um espaço como o WhatsApp possibilita a troca de conteúdo sem cabeça –sem autor ou fonte aparente–; O Facebook dá
maior relevância ao conteúdo que é compartilhado massivamente, e no Twitter o usuário escolhe as vozes que quer ouvir. É neste diálogo
entre a plataforma e o utilizador que a produção e troca de informação adquire conotações particulares. As fake news não se manifestam da
mesma forma em todos esses espaços.

As affordances ou ofertas são as propriedades que surgem da relação entre o objeto e a pessoa. O conceito de affordances, introduzido
pelo psicólogo James Gibson, refere-se às possibilidades de ação em um determinado contexto, e é usado para falar sobre como os usuários
interagem com objetos, ambientes ou tecnologias para alcançar determinados resultados.40 Identificar as ofertas de um objeto Ele nos permite
entender as diferentes maneiras em que ele pode ser usado para vários propósitos. Algumas dessas ofertas estão inscritas no desenho do
objeto; outros são “descobertos” pelo indivíduo. Uma vassoura é usada para varrer, mas também para atingir um objeto distante, como uma
laranja em uma árvore; uma mesa é usada para colocar objetos sobre ela ou sentar sobre ela; um serviço de

38
“Qual a veracidade de alguns memes da campanha do “NÃO” no plebiscito?”, Pacifista, 30 de agosto de 2016, disponível em:
http://bit.ly/2bP16MN.
39
Cros, Katherine, “A Arte do Real: Desinformação vs. democracia”, The Baffler, junho de 2017, disponível em: http://bit.ly/2Er1KLR.
40
Gibson, James, The Ecological Approach to Visual Perception, Hillsdale, Cornell University, 1986. Evans, Pearce y otros definen los ofrecimientos como
la estructura relacional multifacética entre un objeto o tecnología y el usuario, que permite o restringe potenciales resultados conductuales en un contexto em
particular. Para entender o conceito, eles propõem o seguinte exemplo: a câmera integrada de um smartphone é uma função do telefone, uma oferta é a
capacidade do telefone de gravar (por exemplo, imagens ou vídeos de uma pessoa) e um possível resultado é a documentação de uma violação dos direitos
humanos com essa câmera. Eles explicam que os recursos ou ferramentas são estáticos, enquanto as ofertas são dinâmicas. Evans, Sandra K. et al.,
“Explaining Affor dances: A Conceptual Framework for Understanding Affordances in Communication Research”, em: Journal of Computer-Mediated
Communication, Vol. 22, No. 1, Blackwell Publishing Ltd, 2017, disponível em : http://bit.ly/2EEfYfM.

10
Machine Translated by Google

As mensagens são usadas para espalhar suas próprias mensagens ou mensagens de estranhos. O intelectual francês Bruno Latour define o
próprio design como um processo de inscrição de modos de uso: “Os produtos resultantes carregam consigo os 'scripts' que inibem ou
impedem certas ações enquanto convidam ou exigem outras.”41

Quando esses objetos, ambientes ou tecnologias permitem ações sociais, estamos diante de uma oferta social.42 No contexto das
tecnologias sociais, diversos trabalhos têm se concentrado em estudar, por exemplo, como as redes sociais são utilizadas pelas pessoas para
organizar sua vida privada; pelos governos para ter contato direto com seus cidadãos ou monitorá-los; pelas empresas para estimular o
trabalho em equipe; por instituições de ensino para promover fins pedagógicos, ou por organizações políticas para motivar a participação
cidadã.43
As affordances do serviço também são influenciadas pelas políticas de uso e pelos algoritmos, que são os que permitem essas interações e
acesso a conteúdos ou usuários (através daqueles recomendados pelo feed de notícias, por exemplo). É a partir dessa incorporação do
produto pelo usuário e pelas comunidades que se pode identificar como a desinformação é concebida, difundida e consumida. Em muitos
casos, é simplesmente o uso comum do serviço: uma notícia falsa é uma unidade de notícias como qualquer outra. Em outros casos, é uma
consequência não intencional que o produto oferece: usar um título enganoso para gerar cliques e tornar uma mentira viral. De uma forma ou
de outra, são usos que não são alheios ao produto.

Veja o exemplo do Pizzagate acima mencionado. A gênese da história estava nas mídias sociais: um boato compartilhado no Facebook
(“fonte anônima do NYPD disse…”) e replicado no Twitter. Este conteúdo falso surge organicamente, ou seja, através dos mecanismos normais
que o serviço dispõe para partilhar informação. A configuração de ambas as plataformas, que premia a interação de diferentes formas, permite
que esse conteúdo seja consumido massivamente. A veracidade disso é irrelevante. Paralelamente, um site que produz notícias falsas
incorpora esse boato como reportagem e, além de publicá-lo de forma orgânica, o promove.

Em outras palavras, você paga uma plataforma como o Facebook para exibir essas informações como um anúncio e obter mais interação e
visibilidade. Nesse ponto, o produto oferece uma ferramenta para que essa publicidade chegue a um público definido detalhadamente. É lógico
supor que o uso registrado –desejado– do serviço é para promover produtos verídicos, mas seu desenho oferece –permite– a possibilidade
de promover informações fraudulentas.

Vamos para o Twitter. O desenho da rede permite e promove a criação de conversas abertas e descentralizadas. Essa oferta tem
permitido gerenciar protestos sociais, movimentos de direitos e inúmeras ações conjuntas. Mas a incorporação do produto permite que essas
ações conjuntas sejam concertadas, abrindo assim a possibilidade de que um conjunto de relatos aparentemente autênticos se dediquem a
promover conteúdos falsos.44
E nesse ambiente aberto e participativo, muitos usuários vão considerar aquele volume de conversa como autêntico e, portanto, a informação
que ele transmite como verdadeira.

Vamos terminar com o caso do Whatsapp. Sendo um serviço de mensagens, seu design visa preservar a privacidade das comunicações.
Essa configuração fechada impossibilita, em princípio, monitorar o conteúdo,

41 Dow Schüll, Natasha, Addiction by Design: Machine Gambling em Las Vegas, Princeton, Princeton University Press, 2012 (Kind le
Ed.). Tradução informal.
42
“Na mesma linha de Gibson, nossa hipótese é que as affordances ambientais mais ricas e elaboradas são fornecidas por outros
animais e outras pessoas”. Kaufmann, Laurence y Clément, Fabrice, “How Culture Comes to Mind: From Social Affordances to Cultural
Analogies”, em: Intellectiva, nº 46-47, 2007, disponível em: http://bit.ly/2sv5lqD.
43
Ver, Kursat Ozenc, Fatih y Farnham, Shelly “Modos de vida” em mídias sociais” em: CHI '11 Proceedings of the SIGCHI Conference
on Human Factors in Computing Systems, Vancouver, 7 al 12 de maio de 2012; Mergel, Inés, “Implementing Social Media in the Public
Sector”, outubro de 2013, disponível em: http://bit.ly/2o6K0hT; Zeiller, Michael y Schauer, Bettina “Adoção, motivação e fatores de
sucesso de mídias sociais para colaboração em equipe em PMEs”, em: i-KNOW '11 Anais da 11ª Conferência Internacional sobre
Gestão do Conhecimento e Tecnologias do Conhecimento, Graz, 7 al 9 de setembro de 2011; Wang, Qiyun, Lit Woo, Huay y Lang
Quek, Choon, “Exploring the Affordances of Facebook for Teaching and Learning”, em: International Review of Contemporary Learning
Re search, No. 23-31, 2012, disponível em: http:/ /bit.ly/2Gd7ol3; Blegind Jensen, Tina y Dyrby, Signe “Exploring Affordances Of Facebook
As A Social Media Platform In Political Campaigning”, em: Proceedings of the 21st European Conference on Information Systems, ECIS
2013 Completed Research, 2013, disponível em: http://bit .ly/2EIGgxm.
44 Um estudo da Universidade de Edimburgo identificou centenas de contas falsas operadas a partir da Rússia com o objetivo de
influenciar o referendo sobre a permanência do Reino Unido na União Europeia (Brexit). Booth, Robert et al., “A Rússia usou centenas
de contas falsas para twittar sobre o Brexit, data shows”, The Guardian, 14 de novembro de 2017, disponível em: http://bit.ly/2iUPF8b.

11
Machine Translated by Google

seja pela própria plataforma ou por terceiros (por isso é conhecido como dark social environment ou dark social).45
A isso devemos acrescentar que os únicos que podem compartilhar esse conteúdo são os contatos que fazem parte de uma conversa –
individual ou coletiva–.46 Como são os indivíduos que compartilham vídeos, imagens, áudios ou textos, as informações não necessariamente
inclui uma fonte. , mas mesmo assim é partilhado num contexto de intimidade e com um falante conhecido, o que lhe confere legitimidade. O
objeto tem o uso registrado de conectar pessoas conhecidas em um ambiente fechado, o que não exclui que este canal seja utilizado para
compartilhar qualquer tipo de informação.

Ser claro sobre essas diferenças é importante por duas razões. Por um lado, permite compreender as soluções propostas e identificar as
suas limitações inerentes. Por outro lado, coloca o problema das fake news na órbita da incorporação social de uma tecnologia. O uso da
tecnologia –e, portanto, as questões que surgem de seu uso– é um processo mediado por pessoas e não uma equação isolada: “As tecnologias
não estão inseridas na vida cotidiana, provocando uma revolução ou uma ruptura radical, como dizem; pelo contrário, essa inserção costuma
acarretar uma evolução gradual, uma negociação entre as práticas herdadas e o desejo de transformar as sociedades”.47

4. A solução do problema

Muito antes de surgir um debate em torno da desinformação, as redes sociais já enfrentavam o desafio geral de moderar o conteúdo
online. A ação de arbitrar o fluxo de informações talvez seja o maior exemplo do poder que essas plataformas têm como intermediárias:48
“Não são eles que produzem o conteúdo, mas tomam decisões importantes sobre esse conteúdo: o que vão distribuir e para quem. , como
eles vão conectar os usuários e gerenciar suas interações, e o que eles vão rejeitar” . de interferência indesejada.

Discurso de ódio e terrorismo, discriminação contra minorias, assédio a mulheres e conteúdo tóxico, em geral, forçaram essas empresas
a buscar um equilíbrio complicado entre a livre circulação de conteúdo e a restrição oportuna. Nesse processo, e cada vez mais, eles se
deparam com questões relativas à transparência e prestação de contas desses processos –accountability–. O papel dos algoritmos nas
decisões de conteúdo, suspensão de contas e mecanismos de apelação, entre outros, fazem parte de uma agenda de demandas que governos
e sociedade civil pedem a essas empresas.50

É neste contexto que empresas como Facebook, Google e Twitter tentam responder ao problema das notícias falsas. E embora seja um
tema a desenvolver em outra ocasião, é relevante situar essas respostas dentro das políticas de moderação de conteúdo que essas plataformas
já possuem –e não como um assunto separado–. Por exemplo: Embora o Facebook tenha uma política de nome real, o Twitter não proíbe
pseudônimos ou contas de paródia. Este ponto de partida demarca diferentes desdobramentos contra a moderação da desinformação.

45 Esquemas de vigilância de comunicações não são descartados, mas o ponto central é que o produto não foi projetado para gerar e medir interação e consumo de conteúdo como Facebook ou Twitter.

46 Fazer com que uma pessoa desconhecida obtenha seu número de telefone e compartilhe algo no Whatsapp possivelmente terá um efeito alienante.
O receptor rejeitará a mensagem ou não dará relevância à informação.
47
Gómez, Rocío e outros (comp.), Facebook como obra mundana. Poetizar a vida e recriar laços pessoais, Universidad del Valle,
Programa Editorial, 2016, p. 66.
48
Ver, Cortés, Carlos “As chaves da governanta: a estratégia dos intermediários na Internet e o impacto no ambiente digital”,
in: Bertoni, Eduardo (comp.), Internet e Direitos Humanos. Contribuições para a discussão na América Latina. Buenos Aires, CELE,
Universidade de Palermo, 2014.
49
Gillespie, T. Citado em: Myers West, S. 'Raging Against the Machine: Network Gatekeeping e ação coletiva nas mídias sociais
Plataformas, Mídia e Comunicação (ISSN: 2183–2439) 2017, Volume 5, Edição 3, p. 28 (tradução informal).
50
Veja, entre outras iniciativas, www.onlinecensorship.org e http://responsible-tech.org/. O Relator Especial para a promoção e proteção
do direito à liberdade de opinião e expressão das Nações Unidas, por exemplo, fará um relatório em junho de 2018 sobre a regulamentação
de conteúdos na era digital.

12
Machine Translated by Google

1. Facebook

Em meados de 2017, o jornal inglês The Guardian, por meio do projeto Facebook Files, ofereceu um panorama das práticas de
moderação de conteúdo da empresa . por atores organizados para distorcer o sentimento político nacional ou estrangeiro”.52 As operações
informativas são divididas em notícias falsas, desinformação e contas falsas. Observe como a empresa reconhece o caráter conjunto e
organizado dessas ações, entendendo que se trata de um uso adaptado e particular do produto.

Sob esse entendimento, o Facebook anunciou soluções para lidar com notícias falsas focadas em duas áreas. Por um lado, anunciou
medidas para promover a alfabetização jornalística entre seus usuários, para ajudá-los a tomar decisões informadas sobre notícias e fontes
em que podem confiar. Para tanto, desenvolveu dois projetos: o Facebook Journalism Project e a New Integrity Initiative.53 Essas medidas
preventivas e educativas não são abordadas neste documento. Por outro lado, anunciou a adoção de medidas técnicas que impactam o
conteúdo que os usuários recebem na plataforma. Conforme publicado pela empresa, estas são as características dessas medidas:

1.1. Relatórios, verificação de fatos e avisos

Em dezembro de 2016, o Facebook anunciou que estava testando diferentes mecanismos para facilitar a divulgação de possíveis
notícias falsas por seus usuários.54 Denúncias da comunidade e “outros sinais” –o Facebook não esclarece quais– seriam considerados
para selecionar histórias que seriam enviadas ao Facebook. organizações independentes para fazer a verificação de fatos. O Facebook não
esclarece quantos relatórios são suficientes para gerar um alerta.

Se as organizações contestarem o conteúdo após o processo de verificação, o Facebook exibirá a sinalização de que o artigo foi
contestado. Ao lado da bandeira haverá um link para consultar informações mais detalhadas. Se, apesar dessas mensagens, um usuário
quiser compartilhar o conteúdo, o Facebook poderá exibir uma nova mensagem na qual avisa que o conteúdo questionado será
compartilhado. Além disso, de acordo com o Facebook, essas histórias podem ter menos prevalência no feed de notícias e não podem ser
promovidas ou anunciadas.

Mark Zuckerberg disse que o Facebook não quer ser um árbitro da verdade.55 Nessa medida, a tarefa de verificação de fatos foi
confiada a organizações externas que são signatárias do Código Poynter de Princípios Internacionais de Verificação de Fatos.56 Inicialmente,
o A empresa está trabalhando com ABC News, FactCheck.org, Associated Press, Snopes e Politifact.57 Entre o final de 2016 e 2017, essas
medidas foram anunciadas como testes em países como Estados Unidos, Alemanha, França e Holanda, e não estão disponíveis.
permanentemente.58

51
Veja, “The Facebook Files”, The Guardian, Disponível em: http://bit.ly/2r6h5yb.
52
Facebook, “Operações de Informação e Facebook”, 27 de abril de 2017, disponível em: http://bit.ly/2oOOS9s.
53 Por meio dessa iniciativa, o Facebook oferece ferramentas de treinamento para jornalistas. “Projeto de Jornalismo do Facebook”, http://
bit.ly/2ioDPAO, último acesso: 14 de dezembro de 2017; A News Integrity Initiative é a grande aposta do Facebook na questão da literacia
noticiosa. Através deste projeto, foi criado um consórcio de líderes da indústria de tecnologia, instituições acadêmicas e outras organizações,
que visa ajudar as pessoas a tomar decisões informadas sobre as notícias que lêem e compartilham na Internet. “News Integrity Initiative”, http://
bit.ly/2D5udGi, último acesso: 14 de dezembro de 2017.
54 “Facing Hoaxes and Fake News”, http://bit.ly/2HgPW0k, último acesso: 14 de dezembro de 2017.
55
http://bit.ly/2fOsvha
56 International Fact-Checking Network, “International Fact-Checking Network fact-checkers' code of Principles”, disponível em: http://
bit.ly/2BwtakU.
57
Mullin, Benjamin, “Facebook lança plano para combater notícias falsas”, Poynter, 15 de dezembro de 2016, disponível em: http://bit.ly/2h5bPm5.
58 Ver: Facebook, “News Feed FYI: Addressing Hoaxes and Fake News”, 15 de dezembro de 2016, disponível em: http://bit.ly/2gFFvVw;
Facebook, “Umgang mit Falschmeldungen”, 15 de janeiro de 2017, disponível em: http://bit.ly/2gFveyn; Facebook, “Facebook anuncia o
lançamento de seu uso de verificação de fatos na França”, 6 de fevereiro de 2017, disponível em: http://bit.ly/2swl4Ws; Facebook,
“Addressing Fake News Globally”, 15 de janeiro de 2017, disponível em: http://bit.ly/2jyZ1FV.

13
Machine Translated by Google

Ao fazer seu anúncio, o Facebook postou algumas imagens do esquema de denúncias. Um teste feito a partir de uma
conexão IP nos Estados Unidos confirmou esse mecanismo. No entanto, o mesmo exercício realizado em agosto de 2017
a partir de um IP na Colômbia mostrou que, embora os usuários pudessem apontar a opção “Isso é uma notícia falsa”, não
foi possível enviar uma denúncia ao Facebook. As únicas opções eram bloquear, deixar de seguir, excluir ou enviar uma
mensagem para quem havia compartilhado a informação em questão. Um novo exercício realizado em dezembro de 2017
mostra que a opção de denúncia está desabilitada nos dois países, pelo menos com o usuário do Facebook que usamos.

Nota: capturas de tela do esquema de reportagem de notícias falsas.

1.2. Mudanças no feed de notícias e medidas para neutralizar a amplificação falsa

Conforme observado acima, as notícias que os verificadores de fatos sinalizam como falsas podem ter menos relevância
no feed de notícias. Além disso, existem outros sinais que podem levar o Facebook a dar menos relevância a esse conteúdo:
por exemplo, se ao ler um artigo as pessoas estiverem menos inclinadas a compartilhá-lo, pode ser um sinal de que a
história é enganosa.59 Ou quando os usuários regularmente fazer muitas postagens por dia com conteúdo externo que
pode ser considerado de baixa qualidade – enganoso ou sensacionalista – postar com link externo pode ser “punido”.60 Por
outro lado, medidas adicionais foram anunciadas no feed de notícias:

– De acordo com um anúncio de abril de 2017, o Facebook está testando que artigos relacionados a um pu

59
Facebook, “Facing Hoaxes and Fake News”, 15 de dezembro de 2016, disponível em: http://bit.ly/2HgPW0k.
60
Facebook, “News Feed FYI: Showing More Informative Links in News Feed”, 30 de junho de 2017, disponível em: http://bit.ly/2uz
G8HM.

14
Machine Translated by Google

publicação aparecem antes que o usuário leia o conteúdo desejado, para que ele tenha acesso rápido a outras perspectivas sobre o
mesmo tópico, incluindo artigos que passaram no filtro de verificação de fatos.61

Observação: artigos relacionados no Facebook

• Em uma atualização de agosto de 2017, o Facebook anunciou que começará a usar o aprendizado de máquina para detectar
mais conteúdo enganoso. O Facebook poderá exibir histórias de verificação de fatos abaixo dos artigos originais.

• Desde julho de 2017, o Facebook removeu a opção de personalizar a imagem de visualização, título ou descrição de links
postados em perfis ou grupos do Facebook. Essas visualizações dependerão exclusivamente dos metadados do site vinculado.62
Isso evita a modificação dessas informações para atrair cliques por meio de títulos ou imagens enganosas.

• Desde 2013, o Facebook anunciou a adoção de um novo algoritmo para detectar e dar mais relevância a conteúdos de “alta
qualidade”. Na época, era considerado, por exemplo, se o conteúdo era relevante ou se as fontes eram confiáveis.63 Nesse
sentido, em 2016 o Facebook estabeleceu uma política para impedir que anunciantes com páginas de conteúdo de baixa
qualidade anunciassem na plataforma. 0,64

O Facebook também anunciou a adoção de medidas para combater a “falsa amplificação”, que entende como a atividade
coordenada que busca manipular a discussão política.65 Parte dessa prática irregular é a criação de contas falsas (muitas vezes
executadas em grande escala); a distribuição coordenada de conteúdo ou mensagens repetidas; as curtidas ou reações coordenadas;
a criação de grupos para distribuição de notícias ou manchetes sensacionalistas e a criação de memes, vídeos ou fotos manipuladas;
entre outros.

Para isso, a empresa anunciou o desenvolvimento de ferramentas tecnológicas que permitem identificar falsas curtidas e comentários
falsos provenientes de contas falsas, malware ou os chamados "click farms" (grupos de contas que possuem atividade aparentemente
orgânica que é criada para gerar uma interação falsa). 66

61
Facebook, “News Feed FYI: New Test With Related Articles”, 25 de abril de 2017, disponível em: http://bit.ly/2q2zxHe.
62
Facebook, “API Change Log: Modifying Link Previews”, disponível em: http://bit.ly/2u1ndq6.
63
Facebook, “News Feed FYI: Showing More High Quality Content”, disponível em: http://bit.ly/2BZYU2U.
64 Ver: “Conteúdo irritante ou de baixa qualidade”, disponível em: http://bit.ly/2q9hkFk, último acesso: 14 de dezembro de 2017.
65
Facebook, “Operações de Informação e Facebook”, 27 de abril de 2017, disponível em: http://bit.ly/2oOOS9s.
66 Ver: Facebook, “Breaking new Ground in the Fight Against Fake Likes”, 17 de abril de 2015, disponível em: http://bit.ly/1yCsKDM;
Facebook, “Disrupting a major spam operation”, 14 de abril de 2017, disponível em: http://bit.ly/2oQJZQX.

15
Machine Translated by Google

2. Google

Conforme relatado pelo New York Times em outubro passado, anúncios de notícias falsas usaram o sistema de publicidade do Google e até
apareceram em portais de verificação de fatos como Snopes e Politifact. Um site falso da Vogue anunciou, por exemplo, que a primeira-dama
dos Estados Unidos, Melania Trump, havia se recusado a morar na Casa Branca.67 Essa, porém, não foi a única frente de desinformação do
Google. Sites de notícias falsas apareceram em seus resultados de busca, e vídeos de teoria da conspiração são frequentemente recomendados
no YouTube.68

Algumas das medidas da empresa para combater a desinformação estão voltadas para a alfabetização digital no consumo de notícias, como
o programa Cidadãos da Internet do YouTube , que oferece oficinas para jovens de 13 a 18 anos.
Além disso, o Google financia centenas de projetos na Europa para produzir jornalismo original e orientar os cidadãos para conteúdo confiável.69
Além dessa abordagem, a resposta no serviço se concentrou em duas frentes: serviços de busca (Google Search e Google News) e serviços de
publicidade (Google AdWords, Google AdSense e YouTube).

1.1. Alterações nos serviços de pesquisa: Pesquisa Google e Google Notícias

O Google anunciou várias mudanças que podem afetar a experiência do usuário do serviço de pesquisa: verificação de fatos para resultados
de pesquisa, alterações no algoritmo de pesquisa e recebimento de feedback do usuário. Além disso, o Google anunciou que tornará mais
transparente a maneira como as pesquisas funcionam.

• Verificação de fato

Desde 2009, o Google implementou um sistema de rótulos para marcar alguns dos resultados exibidos nas pesquisas do Google Notícias.70
Por exemplo, os rótulos Conteúdo de opinião, Blog ou Sátira são usados para ajudar os usuários a identificar o tipo de conteúdo com o qual
encontrarão ao inserir um artigo. Em outubro de 2016, o Google anunciou que implementaria a tag Fact Check, com a qual pretende marcar
artigos que já passaram por um processo de checagem de fatos.

Por meses, por exemplo, o presidente Trump disse que seu governo fará o maior corte de impostos da história. Uma busca por este tópico
no Google Notícias (de novembro de 2017) mostra entre os resultados um artigo do FactCheck.org marcado com o rótulo Fact Check, explicando
o quão verdadeira e plausível é essa afirmação.

67
Wakabayashi, Daisuke y Qiu, Linda, “Google Serves Fake News Ads in an improvável lugar: Fact-Checking Sites”, The New
York Times, 17 de outubro de 2017, disponível em: http://nyti.ms/2hO00Ca.
68
Abrams, Dan, “Now Even Google Search Aiding in Scourge of Fake, Inaccurate News About Election 2016”, Mediaite, 13 de no
Novembro de 2016, disponível em: http://bit.ly/2C0uaic.
69 A este respeito, ver o projeto Cross Check e a Digital News Initiative.
70
Google, “O que cada tag significa (por exemplo, “blog”)?”, http://bit.ly/2F2tiYW, último acesso: 14 de dezembro de 2017.

16
Machine Translated by Google

Observação. Sob o subtítulo “Cobertura Relacionada”, aparece a matéria do FactCheck.org. Extraído do Google Notícias.

Originalmente, esse recurso estava disponível nos Estados Unidos e no Reino Unido. No entanto, em abril de
2017, o Google anunciou que a tag estaria disponível em todo o mundo e que seria estendida ao seu sistema de
busca geral Google Search em todos os idiomas.71 Assim, quando um usuário realiza uma pesquisa no Google e os
resultados retornam conteúdo que foi verificado, o Google mostrará essas informações indicando o que foi dito, quem
disse, quem verificou a informação e o resultado dessa verificação.72 O resultado da verificação pode não ser
apenas verdadeiro ou falso, mas também em sua maior parte verdadeiro ou parcialmente verdadeiro . Para indexar
essas informações, o Google usa critérios como a confiabilidade da fonte, fatos verificados, fontes e citações e as
conclusões alcançadas por meio dessa revisão.73

Os editores que desejam que suas verificações de fatos apareçam nos resultados de pesquisa podem sinalizar
isso ao Google de duas maneiras: i) usando a tag ClaimReview74 no código postal, com base nas diretrizes do
Google para verificadores de fatos; ii) usando o widget Share The Facts , que funciona como um selo de qualidade
para as organizações participantes e pode ser incorporado –como se fosse um tweet– em uma página da web.75
Vemos então como o Google se limita a destacar as verificações feitas por terceiros com base em determinados
critérios, mesmo que tenham chegado a conclusões diferentes.76 Em contraste, o Facebook incorpora o trabalho de
verificação de algumas organizações em suas próprias decisões, seja para decidir o destaque da história ou para
emitir um aviso específico.

71
Google, “Fact Check now available in Google Search and News around the world”, 7 de abril de 2017, disponível em: http://bit.ly/2tZyRSf.
72 Diferentes verificadores podem chegar a diferentes conclusões. Várias conclusões podem ser apresentadas nos resultados.
73 Veja verificações de fatos nos resultados da pesquisa, http://bit.ly/2CjpcJ5, último acesso: 14 de dezembro de 2017.
74 Ver: Schema.org, “ClaimReview”, disponível em: http://bit.ly/2EpwIDP, último acesso: 14 de dezembro de 2017; Google, “Data Verifications”,
disponível em: http://bit.ly/2CmGPrd, último acesso: 14 de dezembro de 2017.
75 Compartilhe os fatos, “Compartilhe os fatos”, disponível em: http://bit.ly/2srvQxi, último acesso: 14 de dezembro de 2017. Até o momento,
trabalha em conjunto com doze organizações, nenhuma delas na América Latina: PolitiFact , The Washington Post, FactCheck.org, Gossip Cop,
Pagella Politica, AGI, La Stampa, The Ferret, Climate Feedback, Demagog, Newsweek e VERA Files Fact Check (http://www.sharethefacts.org/
about/ ).
76
Google, “Fact Check now available in Google Search and News around the world”, 7 de abril de 2017, disponível em: http://bit.
ly/2tZyRSf.

17
Machine Translated by Google

Observação. Exemplos de como as informações verificadas aparecem nas pesquisas do Google.

• Melhorias na classificação de pesquisa

Embora o Google afirme que apenas 0,25% das pesquisas retornam conteúdo ofensivo ou enganoso, em abril de 2017
anunciou mudanças na Pesquisa Google para que os resultados reflitam um conteúdo mais confiável.77 Isso inclui a
atualização das diretrizes usadas pelas equipes que avaliam a qualidade dos resultados da pesquisa 0,78
• Feedback do usuário

Em abril de 2017, o Google anunciou que iria melhorar os mecanismos de denúncia do usuário em relação aos termos
sugeridos na função de preenchimento automático e conteúdo em destaque nos resultados de pesquisa (snippets em
destaque). Segundo o Google, os novos mecanismos de obtenção de feedback incluem categorias pré-estabelecidas de
conteúdo ofensivo que facilitam a denúncia. Esses mecanismos de denúncia não funcionam apenas para sinalizar notícias
falsas, mas também outros conteúdos problemáticos (sexualmente explícito, violento, perigoso etc.).79

Observação. Os usuários podem enviar comentários sobre o recurso de preenchimento automático clicando na opção 'Relatar previsões de
ofensas', que exibe várias opções de relatório.

77 Google, “Our last quality Improvements for Search”, 25 de abril de 2017, disponível em: http://bit.ly/2sya4ro.
78 Google, “General Guidelines”, 27 de julho de 2017, disponível em: http://bit.ly/1ZdLFyy.
79 Google, “Nossas melhorias de qualidade mais recentes para pesquisa”, 25 de abril de 2017, disponível em: http://bit.ly/2sya4ro. Antes do
anúncio, era possível para um usuário denunciar termos sugeridos de preenchimento automático caso violassem a Política de preenchimento
automático do Google, no entanto, era necessário acessar a página de ajuda, localizar e preencher um formulário (http://bit .ly/2C0rj95 ).

18
Machine Translated by Google

Observação. Relatórios sobre resultados em destaque na forma de snippets podem ser feitos clicando na opção 'Comentários' e, em seguida, marcando
'Conteúdo é enganoso ou incorreto'.

Segundo o Google, esse feedback é usado para avaliar se as alterações feitas em seu sistema de busca são bem-sucedidas e
devem ser aplicadas a outros usuários. Além disso, a empresa forneceu mais informações sobre como a Pesquisa Google funciona e
divulgou breves políticas de conteúdo para seu serviço de preenchimento automático.80

1.2. Alterações nos serviços de publicidade: Google Adwords, Google Adsense e YouTube

Em março de 2017, uma investigação do The Times revelou que anúncios no YouTube para L'Oréal, The Guardian, Nissan, BBC,
entre muitos outros, apareceram durante a reprodução de vídeos com mensagens extremistas, antissemitas ou homofóbicas.81 De
acordo com De acordo com De acordo com a pesquisa, aqueles que publicam vídeos no YouTube normalmente recebem até US$ 7,6
por mil visualizações, com alguns vídeos tendo milhões de visualizações. Após a revelação, grandes anunciantes como PepsiCo,
Starbucks, Walmart, AT&T, Verizon, Volkswagen, Johnson e Johnson decidiram retirar seus anúncios, em um evento conhecido na
mídia como o YouTube Ad Boycott.82

Em resposta, o Google divulgou um comunicado reconhecendo que, apesar dos esforços, suas ferramentas de tecnologia nem
sempre capturam anúncios ruins ou anunciantes que violam suas políticas. Poucos dias depois, a empresa anunciou, entre várias
medidas, o fortalecimento de suas políticas sobre conteúdo odioso ou ofensivo, a criação de mecanismos para que os anunciantes
controlem onde sua publicidade aparece e o desenvolvimento de novas ferramentas para revisar conteúdo questionável.83

O problema dos anúncios com conteúdo indesejável é o mesmo das notícias falsas: os anunciantes não querem que seus
produtos sejam associados a desinformação. Antes de que estallara esa polémica, Goolge ya estaba traba jando para identificar
“anuncios malos”: por ejemplo, productos que prometen falsamente ayudar a bajar de peso, productos ilegales o falsificados o anuncios
que llevan código malicioso o virus.84 Siguiendo esa línea, em novembro

80
Google, “Autocomplete Policies”, http://bit.ly/2EqUeRb, último acesso: 14 de dezembro de 2017; Como ajudar a melhorar
Resultados de pesquisa do Google”, http://bit.ly/2o9oqci, último acesso: 14 de dezembro de 2017; Google, “How Search works”, http://bit.ly/2rudrP8,
último acesso: 14 de dezembro de 2017.
81
Mostrous, Alexi, “YouTube hate preachers share screens with domestic names”, The Times, 17 de março de 2017, disponível em:
http://bit.ly/2HfmUON.
82
Solon, Olivia, “Google's bad week: YouTube perde milhões à medida que a fila de publicidade chega aos EUA”, The Guardian, 25 de março de
2017, disponível em: http://bit.ly/2n41Ccw.
83
Google, “Improving our brand safety controls”, 17 de março de 2017, disponível em: http://bit.ly/2uPIDdc; Google, “Proteções expandidas para
anunciantes”, 21 de março de 2017, disponível em: http://bit.ly/2EJTCJT; YouTube, “Visão geral do programa de parceiros do YouTube”, http://bit.ly/
1bQpskt, último acesso: 14 de dezembro de 2017.
84
Google, “How we fighted bad ads, sites and scammers in 2016”, 25 de junho de 2017, disponível em: http://bit.ly/2jpTTWP; Google,
“How we fighted bad ads, sites and scammers in 2016”, 25 de junho de 2017, disponível em: http://bit.ly/2jpTTWP.

19
Machine Translated by Google

Em 2016, o Google introduziu mudanças em sua política do Google AdSense – sua rede de anúncios que aparece em diferentes sites da Internet
– e proibiu a publicação de anúncios em sites que deturpem ou ocultem informações sobre o editor, seu conteúdo ou o objetivo principal do site.
85 Essa política, no entanto, não se refere a notícias falsas, mas a deturpação.86

No último relatório sobre a execução de suas políticas de combate a anúncios e sites proibidos, o Google informou que, após a introdução
das alterações mencionadas, foram tomadas medidas contra 340 sites por falsidade ideológica e outras ofensas.87 Duzentos desses sites foram
definitivamente expulsos do Google. rede de publicidade da empresa. No entanto, o Google não esclareceu quantos deles correspondem a casos
de notícias falsas. O mais próximo do assunto aparece em uma seção do relatório onde relata o bloqueio de mais de 1.300 contas de tablóides,
portais que publicam anúncios fingindo ser manchetes de notícias, mas que levam a sites com publicidade.

3. Twitter

Apesar de ter 16% dos usuários do Facebook, o Twitter também fez parte da polêmica em torno da desinformação. Como a própria empresa
explicou em audiências com o Congresso dos EUA, mais de 2.700 contas associadas a agentes russos movimentaram 1,4 milhão de tweets entre
setembro e novembro de 2016. 88

Este não é um problema totalmente novo no Twitter, que é constantemente desafiado por contas falsas e bots em sua plataforma. Segundo
a empresa, este tipo de conta não representa mais de 5% dos seus utilizadores, mas fontes externas asseguram que existem muitos mais. Por
exemplo, de acordo com um estudo de Alessandro Bessi e Emilio Ferrara, os bots foram responsáveis por um quinto dos tweets relacionados à
eleição presidencial dos EUA.89
No entanto, é importante lembrar que o Twitter permite contas automatizadas, e muitas delas cumprem um serviço relevante em termos de
informação (canais de notícias, serviços governamentais) e não são consideradas spam.

O Twitter reconheceu que é impossível determinar a veracidade dos tweets publicados e, como o Facebook, sustentou que não quer ser um
árbitro da verdade.90 O Twitter avaliar informações não seria apenas indesejável, mas também impossível de implementar na prática : pelo
menos um bilhão de tweets por dia passam pela plataforma. Nessa medida, o foco da resposta da empresa é detectar e remover contas que
propagam de forma automática ou manual conteúdos maliciosos (spam, falsidades ou ataques, entre outros). Algumas das ações específicas
anunciadas pela empresa são as seguintes:

• Reduza a visibilidade de tweets e possíveis contas de spam enquanto investiga se ocorreu um spam.
violação.

• Suspensão de contas uma vez detectada atividade proibida.

• Medidas para detectar aplicativos que abusam da API pública do Twitter.91

O Twitter considera que qualquer sistema de detecção automática apresenta alto risco de falsos positivos; ou seja, contas que para o
algoritmo podem estar violando as políticas mas que na realidade têm um comportamento

85 Google, “Conteúdo proibido”, http://bit.ly/2nZvWYe, último acesso: 14 de dezembro de 2017.


86 De fato, em janeiro de 2017, a organização Media Matters for America informou que o Google eliminou essa expressão, que anteriormente era incluída como exemplo
de conteúdo proibido. “O Google remove silenciosamente a linguagem “Fake News” de sua política de publicidade”, Media Matters, 12 de janeiro de 2017, disponível em:
http://bit.ly/2BZZY6U.
87 Google, “How we fighted bad ads, sites and scammers in 2016”, 25 de janeiro de 2017, disponível em: http://bit.ly/2kclNnZ.
88 Solon, Olivia e Siddiqui, Sabrina. “Publicações no Facebook apoiadas pela Rússia 'chegaram a 126 milhões de americanos' durante a eleição dos EUA”, 31 de outubro de
2017, disponível em: http://bit.ly/2hoiMRe.
89 Bessi, Alessandro e Ferrara, Emílio. “Os bots sociais distorcem a discussão online da eleição presidencial dos EUA em 2016”, 7 de novembro,
2016, disponível em: http://bit.ly/2oZNst8.
90
Twitter, “Our Approach to Bots & Misinformation”, 14 de junho de 2017, disponível em: http://bit.ly/2HhmFCC.
91 API é uma interface de programação de aplicativos que permite que softwares externos utilizem diversas funcionalidades de um serviço, neste caso, o Twitter.

20
Machine Translated by Google

legítimo. Por exemplo, uma conta de um ativista que constantemente tweeta e pode ser confundido com um bot ou um spammer deliberado .
Por outro lado, a desinformação na plataforma é realizada no desenvolvimento de ações conjuntas entre os grupos. São operações
coordenadas que se adaptam às regras e restrições da plataforma para atingir seu objetivo. “É muito mais complicado detectar a coordenação
não automatizada”, diz a empresa. “Os riscos de silenciar inadvertidamente atividades legítimas são muito maiores.”92

V. Conclusão: o problema da solução

O principal objetivo deste documento foi expor as medidas que alguns intermediários contemplaram –
Principalmente Facebook e Google – para combater a desinformação. Depois de explicar o problema e colocá-lo no espaço de cada plataforma,
descrevemos as soluções propostas, a maioria das quais em fase preliminar.
Nesta parte final do texto levantamos alguns dos problemas que estas soluções acarretam e fazemos algumas recomendações. Para realizar
esta análise, propomos quatro pontos: i) a escala e o tempo da solução; ii) o impacto; iii) o papel da sociedade civil e iv) transparência. Essa
análise parte de um pressuposto básico que fizemos no início e reiteramos agora: não é possível nem desejável que a solução para as fake
news seja automática. É um fenômeno de incorporação tecnológica, que é por definição social.

Essa análise se concentra no conteúdo orgânico e não no conteúdo promovido. As notícias falsas que são promovidas comercialmente
apresentam diferentes desafios e demandas para as plataformas. Seria razoável exigir um nível mais alto de monitoramento e controle neste
caso, uma vez que eles recebem um lucro direto pela divulgação de informações para fins comerciais.
O conteúdo orgânico é aquele que é difundido pelos usuários entre suas redes de contato e, ao contrário dos anúncios comerciais, engloba
igualmente informações espontâneas dos usuários, manipulação e ações coordenadas. É aí que encontramos os maiores desafios para a
liberdade de expressão e, portanto, onde queremos nos concentrar.

1. Escala e tempo

Para analisar esses dois fatores, é necessário retornar ao conceito de affordances. Conforme explicado acima, a resposta à desinformação
deve necessariamente partir da configuração do espaço onde ocorre o problema. Isso evidencia uma questão estrutural: alguns elementos
que possibilitam a desinformação só poderiam ser removidos na própria concepção do serviço. Estas são limitações inerentes à arquitetura do
espaço. Por exemplo, suponha que o Facebook introduziu um sistema de revisão prévia de todo o conteúdo: se possível, removeria a
desinformação e muito conteúdo legítimo. Mas como o Facebook não vai modificar esse aspecto substancial de sua estrutura e espaço, a
“oferta” dessa plataforma demarca o escopo da solução.

Tanto Facebook quanto Google, YouTube e Twitter “oferecem” um espaço onde o conteúdo pode ser divulgado sem revisão prévia. Isso
significa que, na grande maioria dos casos, as estratégias para lidar com a desinformação serão alguma forma de controle posterior: rótulos,
artigos relacionados, menor visibilidade etc. Esse tipo de controle, como vimos, não é suscetível à automação total, e nessa medida há um
desafio em termos de escala e tempo.

A escala se refere tanto às equipes da empresa quanto ao trabalho com atores externos.A empresa pode replicar as iniciativas contra a
desinformação para todos os seus usuários (mais de 2.000 milhões no caso do Facebook)? Você tem equipes humanas internas suficientes
para revisar todo o conteúdo questionável? Existem verificadores de fatos suficientes para todas as informações disponíveis? A resposta será
invariavelmente negativa. Se a estratégia para lidar com a desinformação exigir um esforço humano –como também é desejável–, não será
possível atender a todas as demandas do problema.

92
Op. Cit., Twitter, “Nossa abordagem aos bots e à desinformação”. Tradução informal.

21
Machine Translated by Google

Em setembro passado, o Facebook realizou várias ações preventivas para evitar a desinformação durante as eleições alemãs: suspensão
de dezenas de contas, trabalho direto com autoridades locais e campanhas educativas.93 Tendo como pano de fundo as eleições norte-
americanas, e desta vez em pleno No tenso contexto regulatório europeu, a empresa não podia ficar de braços cruzados.

Esses tipos de esforços dificilmente poderiam ser implantados em mercados de menor relevância, como a grande maioria dos países
latino-americanos. A escala da solução, então, é focada principalmente em países-chave e, embora algumas das respostas possam ser
estendidas a outros mercados, elas são projetadas e localizadas para esses cenários prioritários (idioma, abordagem do problema, soluções,
contexto) . No caso da Colômbia, como vimos, as notícias falsas aparentemente não estiveram disponíveis em nenhum momento. Os
esquemas de checagem de fatos , por outro lado, poderiam ser realizados em países da região (Share the Facts, reiteramos, não inclui
organizações latino-americanas por enquanto), mas exigem um trabalho conjunto local que não será facilmente escalável em todo o América
Latina. .

A limitação de escala está relacionada à variável tempo. O risco de desinformação no debate público é ainda maior em época de eleições.
Uma notícia falsa ou um boato propagado como verdade pode afetar o resultado de uma disputa eleitoral. Nessa medida, é desejável que a
resposta para resolver este problema seja oportuna. Uma ação post-mortem é relevante para compreender o fenômeno, mas não para
enfrentar seus efeitos imediatos.

Em momentos-chave de uma campanha, as respostas descritas neste texto podem ser tardias. Embora construir uma mentira seja rápido,
verificar um fato leva tempo. É fundamental reconhecer esta limitação, não tanto como argumento para justificar medidas mais restritivas para
o debate público, mas para compreender a realidade que enfrentamos e o alcance das soluções propostas.

2. Impacto

A escala e o tempo da solução influenciam o impacto da solução. Por um lado, um conjunto de ações parciais e isoladas, muitas delas
tardias, dificilmente servirão para combater a desinformação no debate público. Por outro lado, essas ações podem ter um efeito contrário ao
pretendido.

Sobre os possíveis efeitos indesejados, as evidências ainda são precárias. No entanto, alguns estudos indicam que ferramentas de
verificação e alertas podem ter um impacto negativo. De acordo com uma investigação de um grupo de acadêmicos – ainda em fase de revisão
– marcar histórias falsas como tal não necessariamente muda a percepção do usuário sobre elas. E, ainda mais grave, se um usuário começar
a ver histórias onde há avisos de possível falsidade, ele pode concluir que todas as sem aviso são verdadeiras, o que, claro, é uma
generalização errada.94

Em relação ao primeiro ponto, este documento não pretende desqualificar ações como checagem de fatos, advertências ou artigos de
contexto. São respostas que buscam equilibrar o problema da desinformação com a garantia da liberdade de expressão para os usuários.
Descartar medidas restritivas ou abertamente arbitrárias dificulta a solução do problema, mas impede a criação de outras piores. Nessa
perspectiva, também é relevante analisar as decisões de tornar o conteúdo invisível ou removê-lo sob classificações potencialmente arbitrárias,
como “baixa qualidade” ou não ser uma fonte “confiável”. Esses esquemas baseados em reputação correm o risco de favorecer principalmente
a mídia de massa e comercial, em detrimento de vozes que não podem acessar tais alianças ou vender, mas cujo conteúdo é legítimo e
relevante.

93
Facebook, “Atualização das eleições alemãs”. 27 de setembro de 2017, disponível em: http://bit.ly/2Buursp. Veja também: Locklear,
Mallory. “O Facebook encerrou 'dezenas de milhares' de contas antes das eleições alemãs”. Engadget, 27 de setembro de 2017
disponível em: http://engt.co/2k1Etdw.
94
Ver, Pennycook, Gordon, et. al. “A exposição prévia aumenta a precisão percebida de notícias falsas”. Versão de 26 de agosto de 2017;
Pennycook, Gordon, et. al, “Avaliando o efeito de avisos “disputados” e a relevância da fonte nas percepções da precisão das notícias falsas”.
Versão de 15 de setembro de 2017. Estes textos não foram revisados por pares.

22
Machine Translated by Google

As medidas para lidar com a desinformação estão localizadas no contexto dos termos de serviço da plataforma e, em particular, na
moderação de conteúdo. Portanto, seguindo o que foi declarado pela Relatoria Especial para a Liberdade de Expressão da Comissão
Interamericana de Direitos Humanos, “no desenho e criação de seus termos de serviço e regras comunitárias, as empresas não devem limitar
ou restringir a liberdade de expressão de expressão de forma desproporcional ou desnecessária.”95

3. O papel da sociedade civil

A maioria das estratégias para lidar com a desinformação inclui a participação da sociedade civil. De diferentes maneiras, as empresas
trabalham com organizações para verificar informações, emitir avisos ou fornecer mais texto. Essa participação é fundamental e, na medida
em que essas iniciativas estão localizadas regionalmente, devem incluir organizações que tenham legitimidade e conhecimento para ponderar
informações no debate público. O usuário, no entanto, é um convidado de pedra nesta discussão. Exceto pelas ações de feedback do Google,
não está claro como a opinião dos usuários é levada em consideração para lidar com a desinformação nesses serviços.

Finalmente, neste ponto, é preciso levar em conta que a sociedade civil também é um ator na produção de desinformação: partidos
políticos, agências de comunicação e diferentes grupos de interesse fazem parte do problema que está sendo enfrentado hoje. diretamente.
As ações concertadas, por exemplo, evidenciam uma ação organizada e sistemática de exploração dos serviços em benefício de uma
finalidade individual e em detrimento do interesse geral.

Embora isso não exime de responsabilidade os intermediários, ressalta a necessidade de buscar respostas, além das preventivas e
educativas, em diferentes setores econômicos, políticos e sociais. Em outras palavras, a solução para esse problema não se limita aos atores
tradicionais da governança da Internet.

4. Transparência

A elaboração deste documento teve uma dificuldade constante: entender se o grande número de decisões e ações veiculadas na mídia e
anunciadas pelas empresas foram de fato implementadas e em que medida. De fato, no momento em que escrevemos estas palavras, estão
sendo relatadas medidas que reverteriam as mudanças recentemente anunciadas e referenciadas neste texto . um grau de aplicação parcial e
temporário. De qualquer forma, não é possível determiná-lo com precisão, o que mostra um sério problema de transparência.

É compreensível e desejável que as empresas experimentem soluções possíveis. A desinformação deve ser confrontada com ações
criativas e inovadoras, e as estratégias não podem ser imutáveis. No entanto, a falta de clareza para os usuários e o público em geral
obscurece a compreensão do problema e impede que a sociedade civil forneça um feedback criterioso.

A tecnologia produz retornos informativos na medida em que sua adoção se torna generalizada. É por meio desse uso –e do efeito de rede–
que se obtêm dados que servem para melhorá-lo e adaptá-lo.97 Esse retorno social também deve ser massificado, ou pelo menos ter algum
grau de abertura. Conhecimento sobre como funciona a desinformação e as medidas

95 Relatoria Especial para a Liberdade de Expressão da Comissão Interamericana de Direitos Humanos, Padrões para uma Internet Livre, Aberta e Inclusiva OEA/Ser.L/V/II CIDH/RELE/INF.17/17 15 de março de 2017,

Original: Espanhol, Pará. 98


96
Cohen, David. “O Facebook está optando pelo contexto sobre a rotulagem em sua batalha contra notícias falsas”. Adweek, 21 de dezembro de 2017.
Disponível em: http://bit.ly/2Ero77P.
97
Ver, MacKenzie, Donal. Conhecendo Máquinas. Ensaios sobre Mudança Técnica. MIT Press, 1998.

23
Machine Translated by Google

para enfrentá-lo, é controlado pelas empresas, que parecem não querer compartilhá-lo com a sociedade civil. Não há
clareza no diagnóstico nem nas respostas adotadas, o que se soma às críticas existentes aos intermediários pela falta
de transparência na forma como prestam seu serviço. A transparência, nessa medida, não é uma ação unilateral
posterior, mas sim um processo conjunto que faz parte da solução.

24
Machine Translated by Google
Machine Translated by Google

Você também pode gostar