Escolar Documentos
Profissional Documentos
Cultura Documentos
fevereiro de 2021
Faculdade de Direito
Centro de Estudos da Liberdade
de Expressão e Acesso à Informação
Machine Translated by Google
Nos últimos quatro anos, a desinformação online tornou-se uma ameaça aparentemente
nova para as democracias ocidentais. Essa ameaça surge em um momento de
ansiedade pelo futuro: os sistemas democráticos parecem estar passando por uma
crise como resultado da consolidação de opções políticas que, mesmo que não
rejeitem abertamente os procedimentos e formalidades democráticas, os corroem por
dentro. É nesse contexto que o fenômeno da desinformação deve ser abordado.
1 Este documento foi redigido por Ramiro Alvarez Ugarte e Agustina Del Campo.
2
Machine Translated by Google
uma indústria sob pressão, tentando encontrar respostas satisfatórias para uma demanda
crescente pela moderação de conteúdos problemáticos.
2 CIDH (Guia para Garantir a Liberdade de Expressão contra a Desinformação Deliberada em Contextos Eleitorais.) Relatoria Especial para a
Liberdade de Expressão da Comissão Interamericana de Direitos Humanos, Washington DC, 17 de outubro de 2019.), 3. Ver também C. Botero
Ignacio Alvarez, Eduardo Bertoni, Catherine Botero, Edison Spear (eds.) (“A regulamentação estatal das chamadas “notícias falsas” na perspectiva
do direito à liberdade de expressão» “Fake News na Perspectiva do Direito à Liberdade de Expressão], em Liberdade de Expressão: aos 30 anos
do Parecer Consultivo sobre Colegiado Compulsório de Jornalistas[ Liberdade de Expressão: 30 anos depois do Parecer Consultivo sobre a
obrigatoriedade de associação prescrito por lei para o exercício do jornalismo], 1º, Comissão Interamericana de Direitos Humanos, W Ashington
DC, 2017, (OEA. Documentos oficiais; OEA/Ser.D/XV.18)., 69; M. Verstraete; DE Bambauer; JR Bambauer ("Identificando e combatendo notícias
falsas." Social Science Research Network, Rochester, NY. ID 3007971. 1º de agosto de 2017.)
3 Vários estudos apontam para este ponto: ver L. Bounegru; J. Gray; T. Venturini; M. Mauri («A Field Guide To“Fake News” And Other Information
Disorders». Public Data Lab & First Draft, Amsterdam. 2017.), 6; R. Darnton (“The True History Of Fake News,” The New York Review of Books,
13/02/2017, recuperado de https://www.nybooks.com/daily/2017/02/13/the-true- his tory-of-fake-news/ Último acesso: 1/mar/2019.)
3
Machine Translated by Google
4 Cf. C. Cortés; L. Isaza, «Notícias falsas na Internet: A estratégia para combater a desinformação» [Notícias falsas na Internet: A estratégia para
combater a desinformação]. Centro de Estudos para a Liberdade de Expressão, Buenos Aires. Dezembro de 2017. Página 2 (referindo-se ao infame
“Pizzagate”).
5 Uma dessas reações é a lei alemã de 30 de junho de 2017, conhecida como Netzwerk Durchsetzungsgesetz ou NetzDG, que impõe várias
obrigações às plataformas em relação a inúmeras instâncias de conteúdo ilegal. A lei foi criticada pelo Relator Especial da OSCE sobre Liberdade
de Mídia e pela Human Rights Watch. Cf. OSCE (Osce Representative On Free dom Of The Media Adverte Alemanha Lei de Redes Sociais Poderia
Ter Efeito Desproporcional, OSCE, 10/04/2017, recuperado de https://www.osce.org/fom/347651 Último acesso: 4/março/ 2019.);HRW|. 350. Avenida
F.; 34º. F. |. N. York; Nº 10118.
U. |. t 1.212.290.4700 (Alemanha: Lei de mídia social falha, Human Rights Watch, 14/02/2018, recuperada de https://www.
hrw.org/news/2018/02/14/germany-flawed-social-media-law Último acesso: 16/01/2019.). A França promulgou uma regra semelhante em novembro
de 2018, especificamente destinada a combater a “manipulação de informações”.
6 Sobre esta descrição, ver, por exemplo, Y. Benkler, The Wealth Of Networks: How Social Production Transforms Markets And Freedom, Yale
University Press, New Haven [Conn.], 2006 (que reflete essa visão “otimista” sobre a rede).
4
Machine Translated by Google
figura 1
(a) Rede aleatória descentralizada de 20 nós (b) Rede aleatória descentralizada de 19 nós (-E)
7 Cf. Y. Benkler (Ibid.), Cap. 5 (onde colocar a famosa produção de filmes caseiros The Jedi Saga, por exemplo). Grande parte da
literatura pioneira sobre direito e Internet apontava para essa dimensão potencialmente benéfica da Internet. Veja também, por exemplo, L.
Lessig (Código, Versão 2.0, Basic Books, Nova York, 2006.); E. Moglen (“O Churrasco Invisível”, Columbia Law Review, vol.
97, 1997.) (“Qualquer indivíduo pode alcançar, através do uso de mídias em rede, como a World Wide Web, uma audiência muito maior
do que o proprietário de várias pequenas emissoras de televisão, e sem nenhum custo. A forma de comunicação alcançada é sem dúvida
diferente , e é óbvio que o post individual de notícias da UseNet não alcançou paridade com um anúncio de televisão para um tênis
esportivo. Mas a metáfora da emissora e das condições do consumidor é aceitar a máxima desigualdade possível como uma necessidade
natural: algumas conversas e o resto apenas ouve. O espectro não precisa ser alocado em torno dessa concepção; as justificativas
históricas para fazê-lo estão entre as formas de raciocínio viciadas pelo surgimento de tecnologias complementares de transporte e a
consequente morte de 'racionalidades de escassez'”)
8 Cf. L. Lessig (Code, cit.), ix-x; um otimismo que – às vezes – levou ao que Eugene Morozov chamou corretamente de ciberutopismo.
Cf. E. Morozov (The Net Delusion: The Dark Side Of Internet Freedom, 1ª edição, Public Affairs, Nova York, 2011.). Veja também J.
Zittrain (The Future Of The Internet And How To Stop It, Yale University Press, New Haven [Conn.], 2008.), 30-35 (descrevendo os
princípios de design da Internet original)
9 O princípio de ponta a ponta (e2e) sobre o qual a primeira versão da Internet foi construída delega a maior parte do trabalho às
extremidades da rede: a rede deve ser “o mais simples possível, e sua inteligência deve estar no extremos ou pontos finais da rede.”
Este princípio explica por que quando falamos de Internet falamos de uma rede descentralizada - a rede poderia ter sido projetada de
forma diferente, por exemplo, estabelecendo pontos nodais aos quais cada usuário deve se conectar para acessar. Mas não foi assim.”
5
Machine Translated by Google
Figura 2
(uma) (b)
6
Machine Translated by Google
2. A era do pessimismo
As visões otimistas na Internet tiveram detratores desde o início. Muitos autores viram
como certas tendências no desenvolvimento da rede poderiam levar a uma Internet mais
fechada, regulada e sujeita ao controle de atores estatais e privados. Assim, Lawrence
Lessig apontou em 1999 como as pressões do comércio e dos estados tenderiam a
regular a Internet com mais rigor, tanto por meio de legislação quanto em requisitos no
código usado para projetar a arquitetura da rede.13 Da mesma forma, Jona do que
Zittrain previram como a segurança preocupações poderiam levar ao retorno de modelos
de tecnologia que a Internet parecia ter deixado para trás (eletrodomésticos controlados
pelo fabricante que fazem apenas o que os fabricantes querem, por exemplo, telefones
celulares).14 Surgia um pouco de cautela: a Internet não era necessariamente benéfico para a demo
Eugeny Morozov foi um dos primeiros a apontar como os governos autoritários estavam
aprendendo a usar a Internet para aumentar seu controle sobre a população . da
arquitetura original da rede.
12
Veja, por exemplo, os Princípios de Manila, em https://www.manilaprinciples.org/es. Para um ponto de vista oposto, ver J.
Kosseff, The Twenty-six Words That Created The Internet, Cornell University Press, Ithaca [New York], 2019, Cap. 7 (onde o autor
aponta que a seção 230 é um exemplo do “excepcionalismo” dos Estados Unidos, e argumenta que outros países adotaram
versões mais moderadas dessa disposição.
13 L. Lessig, Code, cit.
14 J. Zittrain, The Future Of The Internet and How To Stop It, cit., Cap. 1.
15 E. Morozov, The net delusion, cit.
7
Machine Translated by Google
16 Ver S. Hubbard («Fake News Is A Real Antitrust Problem», 12/2017, retirado de https://www.competitionpolicyinternational.com/fake-news-is-a-
real-antitrust-problem/ Último acesso: Janeiro/ 16/19), 2 (“Duas corporações têm um controle desproporcional sobre o fluxo de informações em todo
o mundo. O Google responde por cerca de 80% das buscas globais na Internet, e sua participação no mercado de buscas excede 90% na maioria
dos países europeus. todas as outras redes sociais, com dois bilhões de usuários ativos mensais”). Veja também Observacom («Ott Regulation.
Key Points For The Democratic Regulation Of “over-the-top”
Serviços Para Garantir uma Internet Livre e Aberta e o Pleno Exercício dos Direitos Digitais e da Liberdade de Expressão».
Observacom. Setembro de 2017.), 3:
“Em um cenário centralizado pela mídia tradicional, ficou claro que o mercado por si só não garantia a fundamental diversidade,
pluralismo e liberdade de expressão necessários à democracia. Com o surgimento da Internet, parecia que parte da racionalidade
que dava sentido e fundamento à regulação democrática poderia ter se perdido. Alguns atores importantes do ecossistema digital
afirmam que a regulação da Internet não é apenas perigosa, mas não deveria existir, pois não é mais necessária ou possível.
No entanto, após a fase inicial de operação de rede mais descentralizada e aberta, novos gargalos se formaram e a Internet
embarcou em uma crescente centralização entre apenas alguns atores do ecossistema digital que afetou seu potencial para servir
a toda a humanidade: isso foi sublinhado pela criador da World Wide Web, Tim Berners Lee. A tendência à concentração e as
ameaças à liberdade de expressão na Internet mostram que a diversidade e o pluralismo – e mesmo a noção de uma Internet
aberta e livre – precisam de garantias regulatórias para que possam se manter como valores e paradigmas das comunicações digitais modernas.”
17 Sobre este ponto, ver KS Baran; KJ Fietkiewicz; WG Stock («Monopólios em Serviços de Redes Sociais (sns) Mercados e Lei
da Concorrência», ISI, 2015.) (Descrevendo os efeitos de rede que levam a monopólios ou quase-monopólios nos mercados de
mídia social). Ver também E. Morozov (The net delusion, cit.), 217 (“Embora os ativistas possam minimizar sua exposição a
intermediários criando seus próprios sites independentes, é provável que seus esforços não recebam o tipo de atenção global que
receberiam em Facebook ou YouTube”).
18 Este modelo é diferente daquele que se baseava, pura e exclusivamente, nas escolhas do utilizador: dos “portais” que faziam a curadoria manual
da informação ao modelo “RSS feeds” que trazia informação de fácil acesso mas baseado na subscrição “expressa” de usuários. Sobre essa
mudança, veja MA DeVito; D. Gergle; J. Birnholtz (“Algorithms Ruin Everything”: #riptwitter, Folk Theories, And Resistance To Algorithmic Change In
Social Media,” CHI '17: Conferência CHI sobre Fatores Humanos em Sistemas Computacionais, Denver Colorado, EUA, 2 de maio de 2017, retirado
de https://dl.acm.org/doi/10.1145/3025453.3025659)
19 Neste ponto, as tendências são obviamente contraditórias: enquanto alguns querem endurecer os critérios das plataformas para lidar com vários
problemas (desinformação, difamação, violação de direitos autorais, discurso de ódio, etc.), outros querem proteger os usuários de decisões que
são arbitrário ou baseado em critérios obscuros.
8
Machine Translated by Google
acompanhado por uma demanda crescente de vários atores por maior responsabilidade e
prestação de contas.20 E isso, por sua vez, levou as plataformas a fazer muito mais do
que simplesmente “facilitar” o fluxo de informações: elas se tornaram “curadoras” desse
conteúdo, tanto por sua próprias razões (como o desenvolvimento de algoritmos de
recomendação de conteúdo) e pressão externa.21
Por fim, esse processo de concentração foi facilitado pela expansão de um modelo de
negócios que oferece esses serviços “gratuitamente” sob um sistema de publicidade
tradicional que utiliza a análise e os dados pessoais dos cidadãos para entregar mensagens
altamente personalizadas . alvo de críticas nos últimos anos, em parte motivados por
alguns escândalos que expuseram até que ponto a privacidade é comprometida neste
modelo, incluindo as revelações de Edward Snowden em 2013 ou o escândalo da
Cambridge Analytica e o uso de dados pessoais obtidos do Face book para fins políticos
propósitos em 2018.23 Esse modelo publicitário não está necessariamente em crise, mas
as críticas dos últimos anos contribuíram para a virada “pessimista”.
20 Sobre essa questão, a literatura sobre accountability e empresas de tecnologia parece ter aumentado exponencialmente nos últimos anos.
Veja S. Pearson; N. Wainwright («An Interdisciplinary Approach To Accountability For Future Internet Service Provision»,
International Journal of Trust Management in Computing and Communications, vol. 1, 1, 2013, retirado de https://www.inders
cienceonline.com/doi /abs/10.1504/IJTMCC.2013.052524); R. Gajanayake; R. Ianella; T. Sahama («Sharing With Care: An
Information Accountability Perspective», IEEE Internet Computing, vol. 15, 4, 2011.)
21 Cf. Observacom (“Regulamento Ott. Pontos-chave para a regulação democrática dos serviços «over-the-top» para garantir uma
Internet livre e aberta e o pleno exercício dos direitos digitais e da liberdade de expressão”, cit.), 9 (“ Esses intermediários deixam de
fornecer apenas suporte técnico e 'rotas de trânsito', mas muitas vezes afetam os conteúdos que circulam por essas vias, além de
monitorar todo o conteúdo produzido por terceiros, mas também intervir neles, ordenando e priorizando seu acesso e, portanto,
determinar quais conteúdos e fontes de informação um usuário pode ou não visualizar. Eles também podem bloquear, eliminar ou
desindexar conteúdos – como discursos protegidos pelo direito à liberdade de expressão – bem como contas ou perfis. Essas ações
são muitas vezes forçadas por pressões externas de autoridades governamentais ou outros atores privados, mas também pelas
decisões tomadas pelos próprios intermediários”). Ver também L. Lessig (Código, cit.), Cap. 6 (sobre a história da moderação do
conteúdo nas primeiras “comunidades”) da Internet e ST Roberts (“Content Moderation”, 2017.), 3-4 (chamando a atenção para uma
“nova escala” de moderação como consequência da concentração, impulsionado em parte pelos riscos “jurídicos, financeiros e
reputacionais” que essas empresas públicas que respondem aos seus acionistas devem enfrentar devido ao conteúdo gerado por usuários sem qualqu
22 Cf. D. Ghosh; B. Scott, «Digital Deceit: As tecnologias por trás da propaganda de precisão na Internet». Nova América, Washington DC
Janeiro de 2018.
23 Esse modelo já havia sido apontado por Lessig. Cf. L. Lessig, Code, cit., Cap. 11.
9
Machine Translated by Google
Essas reações não podem ser explicadas fora da virada pessimista descrita anteriormente. O
que está sendo questionado não é apenas o papel que desempenham no fluxo de informações
online, mas também o marco regulatório que, até agora, determinava as obrigações e
responsabilidades dos intermediários na Internet. O princípio da não responsabilidade dos
intermediários fazia sentido em uma rede descentralizada como a representada na Figura 1:
estabelecer responsabilidades nesse cenário implicava em dificultar, ao invés de favorecer, o
livre fluxo de informações.
Mas em uma rede centralizada, faz sentido manter o mesmo princípio?
As atuais respostas das plataformas à desinformação agravam esse estado de coisas por
dois motivos: primeiro, porque essas empresas são em parte impulsionadas por demandas
estatais por maior ação, o que viola o princípio detalhado acima, sobre o papel do Estado no
discernimento entre o que é verdadeiro e o que é falso. De repente, o Estado legitimou
informalmente – por meio de demandas e pressões de alguns de seus funcionários – um ator
intermediário, central na circulação da informação, como árbitro da verdade. Na era da
Internet, parece que os cidadãos não podem mais fazer o que faziam antes. Em segundo
lugar, como empresas privadas, realizam essas ações no âmbito de um direito legalmente
protegido de raízes contratuais, sem mecanismos adequados de responsabilização ou
responsabilização. Em outras palavras, adicionamos um novo ator que toma decisões que
antes cabiam a cada indivíduo, e não é nem mesmo um ator que podemos influenciar por
meio de procedimentos democráticos.
10
Machine Translated by Google
B. Ações
Para documentar as ações implantadas pelas plataformas nos últimos anos, as dividimos
em quatro categorias:
2. Alterações no código. São ações que modificam o código das plataformas, ou seja,
a forma como funcionam. Isso inclui alterações nos algoritmos de recomendações,
visibilidade e escopo do conteúdo.
4. Transparência e ações de relações públicas. Este grupo inclui as ações que revelam
informações sobre o funcionamento da plataforma, tanto as geradas diretamente
pelas plataformas quanto as que são resultado de pesquisadores independentes
com acesso a informações privilegiadas. Esta categoria também agrupa declarações
abstratas ou desejosas de plataformas sobre como lidar com o desafio da
desinformação.
Essas empresas não implantaram todas as ações ao mesmo tempo: cada ação tem sua
história, ligada à natureza temporária do fenômeno da desinformação e às mudanças de
atitude em relação à Internet no otimismo/pessimismo
11
Machine Translated by Google
binário. Seu objetivo era atender às demandas de usuários, sociedade civil e governos
sobre o papel central que adquiriram na circulação de informações na Internet como
consequência de seu sucesso.
1. Ações de conscientização
São ações que visam alertar os usuários sobre campanhas de desinformação ou promover
o jornalismo de qualidade como uma resposta supostamente eficaz ao problema.
Essas ações também reúnem as diversas parcerias estabelecidas pelas empresas com
outros atores, principalmente com os meios de comunicação tradicionais e órgãos de
verificação.
24 O anúncio de Mark Zuckerberg em 19 de novembro de 2016, cerca de dez dias após a eleição presidencial que levou Donald Trump à
presidência, é bastante revelador do que veio a seguir. Estas foram as medidas: (1) detecção mais forte, por meio de mecanismos automatizados;
(2) facilidade de comunicação, para facilitar a “detecção”; (3) avisos - Zuckerberg disse que estava “explorando” a possibilidade de rotular histórias
que haviam sido “relatadas” como falsas por “terceiros ou nossa comunidade”; (4) parcerias com “verificadores de fatos” e – em geral – ouvindo
mais o jornalismo e a indústria de verificação; (5) recomendação de artigos de “qualidade” (2). Zuc kerberg anunciou que iria “aumentar o nível”
da qualidade dos artigos apresentados em “artigos relacionados”; (6) mudanças nas políticas de anúncios para “alterar” a “economia das notícias
falsas” (3). Consulte M. Zuckerberg (Mark Zuckerberg On Disinformation, atualização de status do Facebook, 19/11/2016, recuperado de https://
www.facebook.com/zuck/posts/10103269806149061 Último acesso: 2/março/2020.).
12
Machine Translated by Google
Em geral, a maioria dessas ações ocorreu nos Estados Unidos, Canadá e Reino Unido, mas
também se espalhou para outras partes do mundo. Em outubro de 2018, por exemplo, o
Projeto de Jornalismo do Facebook anunciou apoio a jornalistas árabes para combater a
desinformação27 e dois anos depois anunciou a expansão de seu programa “acelerador”
globalmente.28 Na América Latina, eles parecem ter chegado a alguns meios de comunicação
brasileiros .29 A Iniciativa Google News esteve por trás do lançamento do Reverso na
Argentina30 e apoiou o Impacto.jor, um projeto que visa medir o impacto da mídia.
Esse tipo de ação se baseia nesta premissa: os meios de comunicação tradicionais podem
ser atores importantes no combate à desinformação. No entanto, isso não é totalmente evidente.
Por exemplo, precisamos analisar situações particulares para entender se e em que medida
esses meios de comunicação mantêm seu papel de guardiões. Por outro lado, também não
está claro que a mídia tradicional sempre opere em posição contrária às campanhas de
desinformação: por exemplo, o estudo de Benkler, Faris e Roberts sobre a circulação da
informação nos Estados Unidos revelou que uma rede de notícias tradicional como já que a
Fox News desempenhou um papel central na alavancagem
25
Veja, por exemplo, Brown Campbell (Campbell Brown: Facebook está fazendo mais para apoiar as notícias locais, Campbell Brown: Facebook
Is Doing More to Support to Local News, 15/01/2019, recuperado de https://www.facebook.com/journalismproject/facebook-su pports-local-news
Último acesso: 11/03/2020.); J. Mabry; D. Mendoza (Facebook desenvolve treinamento e suporte para redações locais, Facebook desenvolve
treinamento e suporte para redações locais , 27/04/2017, retirado de https://www.facebook.
com/journalismproject/facebook-training-support-local-newsrooms Último acesso: 02/03/2020.); F. Dinkelspiel (Berkeleyside lançará site de notícias em
Oakland, será convertido em organização sem fins lucrativos, Berkeleyside, 10/12/2019, recuperado de https://www.berkeleyside.
com/2019/12/10/berkeleyside-to-launch-news-site-in-oakland-will-convert-to-nonprofit Último acesso: agosto/27/2020.). O Face book e a Mozilla
também apoiaram a News Integrity Initiative na escola de jornalismo da CUNY. Veja Poynter (Pode confiar nas notícias ser reparado? Facebook, Craig
Newmark, Mozilla e outros estão gastando US $ 14 milhões para tentar, Poynter, 04/03/2017, recuperado de https://www.poynter.org/tech-tools/ 2017/
pode-confiar-in-the-news-be-repaired-facebook-craig-newmark-mozilla-and-others-are-gasing- 14-million-to-try/ Último acesso: 02/03/2020.); J. Rutenberg;
M. Isaac («Facebook contrata Campbell Brown para liderar a equipe de parcerias de notícias», The New York Times, 06/01/2017, recuperado de https://
www.nytimes.com/2017/01/06/business/media/
facebook-campbell-brown-media-fake-news.html Último acesso: março/02/2020.)
26 Consulte https://newsinitiative.withgoogle.com/
27 MENA Herald, novo programa ajudará jornalistas árabes a classificar fatos da ficção nas mídias sociais, MENA Herald, 28/11/2018, recuperado de
https://www.menaherald.com/en/business/media-marketing/new-program -will-help-arab-journalists-sort-fact fiction-social-media Último acesso: março/
11/2020.).
28 D. Grant, What's Next For Facebook's Accelerator Program, Facebook Accelerator Program: What's Planned for 2020, 01/28/2020, obtido em
https://www.facebook.com/journalismproject/programs/accelerator/whats-next-2020 Último acesso: 13/03/2020.).
29 Cf. Ibid.
30 PJ Blanco, «Eleição de “fake News”: mais de 100 veículos lançam “reverso”, para combater a desinformação em campanha» [Eleições de “fake
news:” mais de 100 veículos lançam “reverso”, para combater Desinformação em campanha], Diario Clarín, 6/11/2019, recuperado de https://
www.clarin.com/politica/eleccion-fake-news-100-medios-lan-zan-reverso-grupo-combat-desinformacion- bell_0_QYwSO8kRP.html Último acesso:
13/03/2020.).
13
Machine Translated by Google
31 Y. Benkler; R. Faris; H. Roberts, Network Propaganda: Manipulation, Disinformation, and Radicalization in American Politics, Oxford University
Press, New York, NY, 2018, página 158 (“…vemos a Fox News assumindo um papel central de forma clara e distinta, desviando a atenção e culpa,
interpretando a investigação em termos profundamente partidários e semeando confusão e dúvidas. erros episódicos de um ator jornalístico…” [vemos
a Fox News no centro do palco de uma maneira muito mais clara e distinta, desviando a atenção e a culpa, interpretando a investigação em termos
profundamente partidários e semeando confusão e dúvida.
E é aqui também que o amplo e frouxo quadro gestáltico assume formas falseáveis distintas, cujo padrão se ajusta ao de uma campanha de
desinformação sustentada por um veículo de propaganda, ao invés de erros episódicos por um veículo jornalístico...”).
32 A. Mosseri, Uma nova ferramenta educacional contra a desinformação, Sobre o Facebook, 04/06/2017, retirado de https://about.
fb.com/news/2017/04/a-new-educational-tool-against-misinformation/ Último acesso: 02/03/2020 («Melhorar a alfabetização jornalística é uma
prioridade global, e precisamos fazer nossa parte para ajudar as pessoas entender como tomar decisões sobre quais fontes confiar»); C. Silverman,
Facebook quer ensinar você a identificar notícias falsas no Facebook, BuzzFeed News, 04/06/2017, obtido em https://www.buzzfeednews.com/article/
craigsilverman/facebook-wants-to-teach- você-como-descobrir-fake-news em#.erZ2mjEY2a Último acesso: 02/03/2020.).
33 «Facebook compra anúncios de página inteira na Alemanha em batalha com notícias falsas», Bloomberg.com, 13/04/2017, recuperado de https://
www.bloomberg.com/news/articles/2017-04-13/facebook-buys-full-page-ads-in-germany-in-battle-with-fake-news Último acesso: 02/03/2020.) .
34
BBC, Youtube oferece oficinas de notícias falsas para adolescentes, BBC Newsbeat, 20/04/2017, recuperado de http://www.bbc.
co.uk/newsbeat/article/39653429/youtube-to-offer-fake-news-workshops-to-teenagers Último acesso: 02/03/2020 («Naomi Gummer, chefe de políticas
públicas do YouTube UK, disse: “A a internet é o que queremos que seja. Pode ser um lugar desagradável onde as pessoas se entendem mal e
deliberadamente enganam umas às outras. Ou pode ser esse lugar incrível onde podemos compartilhar, colaborar, entender e ajudar uns aos
outros”).
35 P. Diwanji, «be Internet Awesome»: Helping Kids Make Smart Decisions Online, Google, 06/06/2017, retirado de https://
blog.google/technology/families/be-internet-awesome-helping-kids-make-smart-decisions-online/ Último acesso: 04/03/2020.).
14
Machine Translated by Google
Esses tipos de ações não são muito problemáticos, mas as evidências sobre sua eficácia são
contraditórias. Esforços para combater informações falsas têm se mostrado, às vezes,
contraproducentes.37 No entanto, a intervenção preventiva parece ter efeitos positivos em alguns
casos, pois coloca as pessoas na defensiva de uma perspectiva cognitiva, e pode ser eficaz na
prevenção de possíveis efeitos epistêmicos da desinformação campanhas.38
A parceria com organizações que verificam informações parece ter surgido como a resposta preferida
das plataformas para enfrentar o problema da desinformação. O Facebook anunciou parcerias com
a Associated Press, 39 com o Boom para trabalhar no
mercado indiano,40 com o IFCN para melhorar a checagem de notícias, 41 e com a agência
Reuters.42 Em outubro de 2018, o Google lançou um mecanismo de busca especializado em
verificadores, incluindo atores latino-americanos.43 Parece haver uma estreita relação de trabalho
entre plataformas e agências de verificação, que proliferaram nos últimos tempos, como evidenciado
pelo projeto Reverso na Argentina.
36 Política pública do Twitter (Atualização: interferência russa nas eleições presidenciais americanas de 2016, blog do Twitter , 28/09/2017, obtido em
https://blog.twitter.com/en_us/topics/company/2017/Update-Russian- Interference-in-2016--Election-Bots-and-Mi sinformation.html Último acesso:
04/03/2020.); consulte https://medialiteracyweek.us/wp-content/uploads/2015/07/2017-me dia-literacy-week-press-release-final.pdf.
37 DJ Flynn; B. Nyhan; J. Reifler, «A Natureza e as Origens das Percepções Errôneas: Entendendo Crenças Falsas e Infundadas sobre a Política»,
Psicologia Política , vol. 38, S1, 2017, recuperado de https://onlinelibrary.wiley.com/doi/abs/10.1111/
pops.12394; Ver B. Nyhan; J. Reifler, «Estimativa dos Efeitos da Verificação de Factos». American Press Institute, Arlington, VA 2015.
38 Cf. J. Cook; S. Lewandowsky, «Desinformação e como corrigi-la», em Robert A Scott, Stephan M Kosslyn (eds.) Emer ging Trends in the Social
and Behavioral Sciences: An Interdisciplinary, Searchable, and Linkable Resource, 1, Wiley, 2015, páginas 6-7 recuperadas de https://
onlinelibrary.wiley.com/doi/book/10.1002/9781118900772. Além dessa estratégia, Cook e Lewandowski apontam que a força com que a informação
falsa é refutada e a explicação alternativa que “preenche a lacuna” deixada pela informação retirada dos modelos mentais utilizados para compreender
a informação em questão foram eficazes, sob condições experimentais, para fortalecer o efeito de refutação.
39 AP, Ap para desmascarar a desinformação eleitoral no Facebook, Associated Press, 03/07/2018, recuperado de https://www.ap.org/
press-releases/2018/ap-to-debunk-election-misinformation-on-facebook Último acesso: março/9/2020.).
40 P. Dixit, o Facebook finalmente começou a verificar notícias falsas em seu maior mercado, BuzzFeed News, 17/04/2018, recuperado de https://
www.buzzfeednews.com/article/pranavdixit/facebook-has-finally- start-fact-checking-fake-news-in-its Último acesso: 09/03/2020.).
41
Poynter, Ifcn e o projeto de jornalismo do Facebook anunciam a iniciativa de inovação de verificação de fatos, Poynter, 05/11/2019,
recuperado de https://www.poynter.org/fact-checking/2019/innovation-initiative/ Último acesso: agosto/ 27/2020.).
42 D. Patadia, «Reuters lança iniciativa de verificação de fatos para identificar desinformação, em parceria com o Facebook», Reuters, 12/02/2020,
recuperado de https://www.reuters.com/article/rpb-fbfactchecking-idUSKBN2061TG Último acesso: 27/08/2020.).
15
Machine Translated by Google
Esses tipos de parcerias também não apresentam problemas significativos do ponto de vista
da liberdade de expressão, e efeitos positivos têm sido relatados.44 No entanto, muitos
desafios persistem, incluindo seu impacto limitado sobre os menos informados ou menos
instruídos, que sua vez — são mais propensos a consumir informações falsas.45
Este grupo identifica as ações que modificam de alguma forma o código da plataforma.
Detecção, relatórios e recomendações para informações adicionais são ações típicas nesta
categoria.
Político aqueles que se originam no diálogo e aqueles que vêm de pressão do sistema político
alianças (por exemplo, autoridades eleitorais) (investigações legislativas)
Jurídico as demandas feitas por certos conteúdos ou aqueles que estabelecem obrigações em termos de
práticas expressão proibida
16
Machine Translated by Google
No âmbito dessas ações gerais de moderação, algumas ações visam “detectar” informações
falsas. São ações que recorrem a métodos diferentes, mas partem da mesma premissa: a
desinformação é um tipo de discurso indesejável dentro desses serviços.46 Na implementação
dessa política, o primeiro desafio sempre foi identificar conteúdos falsos com algum grau de
precisão , e para isso, as plataformas parecem ter recorrido a duas estratégias: relatórios de
usuários e detecção automática.
A primeira abordagem simplesmente pede aos usuários que denunciem o conteúdo suspeito
de ser falso, por exemplo, por meio de “pesquisas” nas quais o feedback é solicitado47 ou
dando a possibilidade de “denunciar” o conteúdo como falso. O Google implementou a opção
de relatar recomendações automáticas ao inserir texto no mecanismo de busca48 e o Twitter
configurou — em abril de 2019 — uma nova modalidade de relatório que inclui “informações
falsas sobre eleições”,49 embora essa opção ainda não esteja disponível na América Latina.50
46 Este momento parece estar ligado às eleições presidenciais de 2016 nos Estados Unidos. Veja T. Gillespie, Custodians Of The Internet: Plat
forms, Content Moderation, And The Hidden Decisions That Shape Social Media, Yale University Press, New Haven, 2018, pp.
65-66. Esse ponto é interessante porque havia alguma ambiguidade por parte das plataformas em relação às suas próprias capacidades de
“monitorar” esse conteúdo.
47 Ver C. Zang; S. Chen, Using Qualitative Feedback To Show Relevant Stories, About Facebook, 02/01/2016, recuperado de https://about.fb.com/
news/2016/02/news-feed-fyi-using-qualitative-feedback -to-show-relevant-stories/ Último acesso: 02/03/2020.).
48
O «projeto Coruja» do Google -- Um ataque triplo a notícias falsas e conteúdo problemático, Search Engine Land, 25/04/2017,
recuperado de https://searchengineland.com/googles-project-owl-attack-fake-news-273700 Último acesso: 07/05/2020.
49 Segurança no Twitter, fortalecendo nossa abordagem para tentativas deliberadas de enganar os eleitores, blog do Twitter, 24/04/2019, obtido
em https://blog.twitter.com/en_us/topics/company/2019/strengthening-our-approach- to-deliberate-attempts-to-mis lead-vot.html Último acesso:
março/11/2020.).
50
Hugo TwitterGov, Qualidade da informação durante as eleições [Qualidade da informação durante as eleições], 2020 (em arquivo com o autor),
pp.4-5 (“É importante que esta política seja aplicada globalmente e embora a ferramenta como tal ainda não seja disponível na América Latina, o
plano é implementá-lo em todo o mundo o mais rápido possível, mas devemos mencionar que a ausência da ferramenta de divulgação pública até o
momento, isso de forma alguma implica a ausência de aplicação dessa ferramenta. , na medida em que: i) o Twitter aplica suas regras de forma
proativa (mais de 50% do conteúdo ativado por nós é detectado de forma proativa, sem nenhum relato do usuário) e ii) a equipe de Políticas Públicas
para a América Latina de língua espanhola trabalha constantemente para estabelecer um canal de comunicação com as diferentes autoridades
eleitorais da região (por exemplo, Argentina, Colômbia e México) para denunciar conteúdo ou em violação de nossas políticas de conteúdo
publicitário ou regulamentos locais a esse respeito” [É importante que esta política seja aplicada globalmente e, embora a ferramenta como tal ainda
não esteja disponível na América Latina, o plano é implementá-la em todo o mundo como assim que possível. No entanto, devemos mencionar que
a ausência da ferramenta de denúncia pública até agora em nenhum sentido implica a ausência de implementação desta política, na medida em
que: i) o Twitter aplica suas regras de forma proativa (mais de 50% do conteúdo questionado por nós é detectado proativamente, sem qualquer
denúncia do usuário) e ii) a equipe de Políticas Públicas para a América Latina de língua espanhola trabalha constantemente para estabelecer um
canal de comunicação direta com as diferentes autoridades eleitorais da região (por exemplo, Argentina, Colômbia e México) para denunciar
conteúdos que viola nossas políticas sobre conteúdo de publicidade ou regulamentos locais a esse respeito]).
17
Machine Translated by Google
Outra ação que várias plataformas têm adotado nos últimos tempos tem a ver com a
“rotulagem” dos conteúdos para dar mais contexto à informação. Assim, por exemplo, em
junho de 2019, o Twitter anunciou que rotularia postagens de políticos ou figuras públicas
que violassem suas regras e que, em outras circunstâncias, seriam desplataformadas.55
Essa ação tornou-se especialmente controversa quando passou a rotular postagens de
então- Presidente dos Estados Unidos, Donald Trump.56 Facebook
52 E. Wemple, «Facebook Working On Approach To Classifying Satirical News Pieces - The Washington Post», The Washington Post, 05/03/2018,
retirado de https://www.washingtonpost.com/blogs/erik-wemple/ wp/2018/03/05/facebook-work ing-on-approach-to-classifying-satirical-news-pieces/
Último acesso: 07/05/2020.
53
YouTube, Continuando nosso trabalho para melhorar as recomendações no Youtube, Blog oficial do YouTube , 25/01/2019, recuperado
de https://youtube.googleblog.com/2019/01/continuing-our-work-to-improve.html Último acesso: março/11/2020.).
54
Veja, por exemplo, um relatório de progresso do Facebook a esse respeito em T. Lyons (Increasing Our Efforts To Fight False News, About Face
book, 21/06/2018, recuperado de https://about.fb.com/news/2018/ 06/aumentar-nossos-esforços-para-combater-notícias-falsas/ Último acesso:
14/07/2020.). Sobre os desafios da IA para combater a desinformação, consulte SC Woolley (We're Fighting Fake News Ai Bots By Using More Ai.
That's A Mistake., MIT Technology Review, 01/08/2020, recuperado de https://www.technologyreview .
com/2020/01/08/130983/were-fighting-fake-news-ai-bots-by-using-more-ai-thats-a-mistake/ Último acesso: 14/07/2020.).
55 E. Dwoskin; T. Romm «Twitter adiciona rótulos para tweets que quebram suas regras – um movimento com implicações potencialmente severas
para a conta de Trump», The Washington Post, 27/06/2019, recuperado de https://www.washingtonpost.com/technology/2019 /06/27/
twitter-adds-labels-tweets-that-break-its-rules-putting-president-trump-companys-crosshairs/ Último acesso: março/11/2020.).
56 D. Alba; K. Congro; R. Zhong, «Twitter acrescenta avisos aos tweets de Trump e da Casa Branca, alimentando tensões», The New York
Times, 29/05/2020, recuperado de https://www.nytimes.com/2020/05/29/technology/trump-twitter-minneapolis-george-floyd.
html Último acesso: 14/07/2020; J. Byrnes, Twitter sinaliza tweet de Trump sobre manifestantes por incluir «ameaça de dano», TheHill, 23/06/2020,
recuperado de https://thehill.com/policy/technology/504133-twitter-flags-trump-tweet- em-manifestantes-por-incluir -ameaça-de-dano Último acesso:
14/07/2020; K. Conger, «O Twitter estava desenhando uma linha por meses quando Trump a cruzou», The New York Times, 30/05/2020, recuperado
de https://www.nytimes.com/2020/05/30/technology/ twitter-trump-dorsey.
html Último acesso: 14/07/2020; A. Wiener, Trump, Twitter, Facebook e The Future Of Online Speech, The New Yorker, 07/06/2020, obtido em https://
www.newyorker.com/news/letter-from-silicon-valley/trump -twitter-facebook-and-the-fu ture-of-online-speech Último acesso: julho/10/2020.
18
Machine Translated by Google
Este último caso destaca alguns dos problemas envolvidos nessas ações voltadas ao
contexto exigente. Se se limita a fornecer mais contexto, não é muito arriscado do ponto
de vista da liberdade de expressão, mas pode ser problemático se essa rotulagem tiver
algum efeito na forma como a informação circula; por exemplo, se afetar negativamente
o algoritmo de recomendação de conteúdo. Por outro lado, essas ações de moderação
enfrentam um desafio considerável em termos de escala, replicabilidade e gestão dos
padrões usados para identificar cada caso: a aplicação consistente da norma em
diferentes países e contextos diferentes promete ser um desafio considerável e numerosos
os críticos apontaram que, embora os tweets de Trump merecessem ser rotulados, tweets
semelhantes de outros líderes políticos ou de opinião não receberam o mesmo tratamento.
57 N. Gleicher, Labeling State-Control Media On Facebook, About Facebook, 06/04/2020, retirado de https://about.
fb.com/news/2020/06/labeling-state-control-media/ Último acesso: agosto/ 27/2020.
58 Suporte do Twitter, Novos rótulos para contas de mídia afiliadas ao governo e ao Estado, Blog do Twitter , 08/06/2020, obtido em https://
blog.twitter.com/en_us/topics/product/2020/new-labels-for- contas de mídia afiliadas ao governo e ao estado.
html Último acesso: agosto/ 27/2020.
59 A. Joseph, Tornando as páginas e contas mais transparentes, Sobre o Facebook, 22/04/2020, obtido em https://about.
fb.com/news/2020/04/page-and-account-transparency/ Último acesso: 27/08/2020; R. Wong, Google está dando outro grande passo para impedir a
disseminação de notícias falsas, Mashable, 17/12/2017, obtido em https://mashable.com/2017/12/17/goo gle-news-no-hiding- country-origin-stop-
fake-news/ Último acesso: março/6/2020.
60 Suporte do Twitter, Suporte do Twitter No Twitter: “Compartilhar um artigo pode desencadear uma conversa, então você pode querer lê-lo antes
de tweetá-lo. Para ajudar a promover uma discussão informada, estamos testando um novo prompt no Android –– Quando você retweeta um artigo
que não abriu no Twitter, podemos perguntar se você gostaria de abri-lo primeiro., Twitter, 06/10 /2020, obtido em https://twitter.com/TwitterSupport/
status/1270783537667551233 Último acesso: 27/08/2020.
61 A situação se agravou de forma persistente, com os rótulos como ferramenta preferencial, até que, em 6 de janeiro de 2021, uma
manifestação perante o Congresso dos Estados Unidos avançou sobre as forças de segurança e invadiu o complexo onde os resultados
das eleições estavam sendo validados. Após o incidente, várias plataformas suspenderam a conta do presidente alegando que ele havia
incitado essa “insurreição” em parte por meio de suas instâncias de desinformação. No caso do Facebook, seu Conselho Fiscal decidiu
levar o caso para se pronunciar sobre o assunto. Veja S. Tavernise; M. Rosenberg, “Estes são os desordeiros que invadiram o Capitólio da Nação,”
The New York Times, 08/01/2021, recuperado de https://www.nytimes.com/2021/01/07/us/names-of-rioters-capitol.html Último acesso: 2 de fevereiro
de 2021; D. Ghosh; J. Hendrix, Conselho de Supervisão do Facebook assume o curioso caso de Donald J. Trump, Verfassungsblog, 29/01/2021,
recuperado em https://verfassungsblog.de/fob-trump/ Último acesso: 02/02/2021.
19
Machine Translated by Google
Em abril de 2017, o Facebook anunciou que “artigos relacionados” teriam uma posição mais
proeminente, antes que os usuários lessem determinado conteúdo.66 Isso inclui a promoção
ativa de informações verificadas quando mecanismos de detecção automatizados enviam
conteúdo suspeito para verificadores independentes e — após o correspondente “ check”
— esses artigos poderiam ser exibidos abaixo do artigo original.67 Da mesma forma, adotou
ações contra o cloaking, técnica utilizada para evitar controles internos,68 spam,69 e
clickbait. 70 Em outubro de 2017, o Facebook
de testes,
também
paraanunciou
oferecer um
maisnovo
informações
botão, em fase
contextuais sobre
62 Cf. A. Mantzarlis (Google Is Now Highlighting Fact Checks In Search, Poynter, 04/07/2017, recuperado de https://www.
poynter.org/fact-checking/2017/google-is-now-highlighting-fact-checks-in-search/ Último acesso: 02/03/2020.); A. Mantzar lis (Google News Now Has A
«fact Check» Tag, Poynter, 13/10/2016, obtido em https://www.poynter.org/fact-check ing/2016/google-news-now-has -a-fact-check-tag/ Último acesso:
02/03/2020.). O comportamento não pôde ser verificado, depende do uso de várias tecnologias, como por exemplo schema.org
63 J. Lichterman, Google News lança um redesenho simplificado que dá mais destaque à verificação de fatos, Nieman
Laboratório, 27/06/2017, recuperado de https://www.niemanlab.org/2017/06/google-news-launches-a-streamlined-redesign-that give-more-prominence-to-
fact-checking/ Último acesso: 04/03/2020.
64 R. Gingras, Elevating Original Reporting In Search, blog do Google, 12/09/2019, obtido em https://blog.google/products/
search/original-reporting Último acesso: março/11/2020; D. Osborn, Smarter Organization Of Top Stories In Search, Google, 11/12/2019, obtido em https://
blog.google/products/search/smarter-organization-top-stories-search/ Último acesso: agosto/ 27/2020.
65 S. Fischer, Axios Media Trends: Facebook To Change Its Algorithm, Axios, 30/06/2020, recuperado de https://www.axios.
com/newsletters/axios-media-trends-40d2f971-c434-4359-8a0f-7fa4155626bc.html Último acesso: 27/08/2020.
66 S. Su, Novo teste com artigos relacionados, Sobre o Facebook, 25/04/2017, obtido em https://about.fb.com/news/2017/04/
news-feed-fyi-new-test-with-related-articles/ Último acesso: 02/03/2020.
67 Ibid. («Agora, começaremos a usar o aprendizado de máquina atualizado para detectar mais fraudes em potencial para enviar a verificadores de fatos
de terceiros. Se um artigo foi revisado por verificadores de fatos, podemos mostrar as histórias de verificação de fatos abaixo da postagem original. Além
disso, Para ver quais histórias são contestadas por verificadores de fatos terceirizados, as pessoas querem mais contexto para tomar decisões informadas
sobre o que lêem e compartilham. Continuaremos testando atualizações de Artigos Relacionados e outros esforços contínuos do Feed de Notícias para
mostrar menos notícias falsas no Facebook e fornecer contexto às pessoas se elas virem notícias falsas»).
68 R. Leathern, Addressing Cloaking So People See More Authentic Posts, About Facebook, 08/09/2017, obtido em https://about.fb.com/news/2017/08/
news-feed-fyi-addressing-cloaking -so-people-see-more-authentic-posts/ Último acesso: março/4/2020.
69 A. Mosseri, mostrando links mais informativos no feed de notícias, sobre o Facebook, 30/06/2017, retirado de https://about.
fb.com/news/2017/06/news-feed-fyi-showing-more-informative-links-in-news-feed/ Último acesso: 04/03/2020.
70 A. Babu; A. Liu; J. Zhang, New Updates To Reduce Clickbait Headlines, About Facebook, 17/05/2017, obtido em https://about.fb.com/news/2017/05/
news-feed-fyi-new-updates-to- reduce-clickbait-headlines/ Último acesso: março/4/2020.
20
Machine Translated by Google
artigos,71 que mais tarde se tornaram os Indicadores de Confiança.72 O Google também desenvolveu
uma ferramenta semelhante (Painéis de Conhecimento) que permite que seu mecanismo de pesquisa
saiba mais sobre a origem das informações.73 Em março de 2018, o YouTube anunciou que a Wikipédia
vincularia informações a vídeos que promoviam teorias da conspiração74 e, em fevereiro de 2019, fez um
anúncio semelhante em relação à Índia, vinculado à publicação de checagem de fatos.75
Uma das estratégias preferidas das plataformas para combater a desinformação é direcionar os
“comportamentos” dos usuários que podem estar relacionados a campanhas de desinformação. Assim,
por exemplo, é possível que esse tipo de campanha seja alimentada por contas anônimas, que deixem
traços de comportamentos específicos - uma tendência desarrazoada de retweetar, enviar ou divulgar
informações, buscar instalar tendências -, ou que sejam simplesmente bots, ou seja, contas acionadas
por um código,
automaticamente (por exemplo, retweetar algumas contas ou conteúdos ou publicar informações
periódicas de determinadas características, etc.). Essa estratégia é de certa forma “preferida” pelas
plataformas porque evita a espinhosa questão de definir a desinformação: não é mais necessário
determinar se determinado conteúdo é falso, mas basta detectar comportamentos proibidos, tarefa que
pode ser feito de forma objetiva e por meio de processos automatizados.
O Twitter destacou esse ponto em particular.76 Entre suas principais estratégias para combater a
desinformação, incluiu não apenas a detecção de comportamentos que revelam práticas que violam os
TOS da empresa, mas também tentativas de impedir que atores mal-intencionados “vençam”
71 A. Anker, New Test To Provide Context About Articles, About Facebook, 10/05/2017, retirado de https://about.fb.com/
news/2017/10/news-feed-fyi-new-test-to-provide-context-about-articles/ Último acesso: 06/03/2020.
72 A. Anker, lançando novos indicadores de confiança do projeto Trust For News no Facebook, Facebook For Media, 17/11/2017, obtido em https://
www.facebook.com/facebookmedia/blog/launching-new-trust- indicadores-de-confiança-projeto-para- notícias-no-facebook Último acesso: março/
6/2020 («Inicialmente, estamos testando esses indicadores de confiança com um pequeno grupo de editores, com planos de expansão mais ampla
nos próximos meses »).
73 Google, Saiba mais sobre editores No Google, Google, 17/11/2017, obtido em https://blog.google/products/
search/learn-more-about-publishers-google/ Último acesso: 13/03/2020.
74 C. Newton, Youtube adicionará informações da Wikipedia a vídeos sobre conspirações, The Verge, 13/03/2018, recuperados de https://
www.theverge.com/2018/3/13/17117344/youtube-information-cues -conspiracy-theories-susan-wojcicki-sxsw Último acesso: março/9/2020.
75
Dixit , Pranav, Youtube está lançando um recurso que mostra verificações de fatos quando as pessoas pesquisam tópicos sensíveis -information-
pan els-india Último acesso: março/11/2020.
21
Machine Translated by Google
o sistema, por exemplo, manipulando os trending topics.77 Sobre esta questão, o Twitter relatou:
O Facebook opta por um modelo semelhante, mas com uma política diferente: ali são banidas
contas anônimas - o Facebook quer que cada um de seus usuários associe sua identidade real à
sua conta.79 Como no caso do Twitter, as medidas tomadas pelo Facebook em isso permite evitar
a necessidade de analisar o conteúdo das postagens, levando a (a) uma ferramenta de moderação
automatizada que (b) não depende de análises de conteúdo complicadas.80 Assim, por exemplo,
em agosto de 2017, a empresa anunciou
77 N. Confessora; GJX Dance, «Battling Fake Accounts, Twitter To Slash Millions Of Followers», The New York Times, 11/07/2018, recuperado de
https://www.nytimes.com/2018/07/11/technology/twitter-fake -followers.html Último acesso: março/11/2020; Cf. Política pública do Twitter,
Atualização, cit.
78
Hugo TwitterGov, “Qualidade da informação durante as eleições”, cit., p. dois.
79 S. Shaik, Melhorias na proteção da integridade da atividade no Facebook, Facebook, 13/04/2017, obtido em https://www.facebook.com/notes/
facebook-security/improvements-in-protecting-the-integrity -of-activity-on-face book/10154323366590766 Último acesso: março/2/2020 («As
pessoas vêm ao Facebook para fazer conexões significativas. Desde o início, acreditamos que isso só será possível se as interações aqui forem
autênticas – e se as pessoas usam os nomes pelos quais são conhecidas. Descobrimos que quando as pessoas se representam no Facebook da
mesma forma que fazem na vida real, elas agem com responsabilidade. Contas falsas não seguem esse padrão e estão intimamente relacionadas
com a criação e disseminação de spam. É por isso que estamos tão focados em manter essas contas inautênticas e suas atividades fora de nossa
plataforma»).
80 Ibid. («Fizemos melhorias para reconhecer essas contas inautênticas mais facilmente, identificando padrões de atividade — sem avaliar o
conteúdo em si. Por exemplo, nossos sistemas podem detectar postagens repetidas do mesmo conteúdo ou um aumento nas mensagens
enviadas. Com essas alterações , esperamos também reduzir a disseminação de material gerado por meio de atividade inautêntica, incluindo
spam, desinformação ou outro conteúdo enganoso que muitas vezes é compartilhado por criadores de contas falsas»); J. Weedon; W. Nuland; A.
Stamos, «Operações de Informação e Facebook». Facebook, Palo Alto, Califórnia. 27 de abril de 2017.
Páginas 10 (“Por meio de avanços técnicos, estamos aumentando nossas proteções contra contas falsas criadas manualmente e usando novas
técnicas analíticas, incluindo aprendizado de máquina, para descobrir e interromper mais tipos de abuso. Construímos e atualizamos sistemas
técnicos todos os dias para facilitar para responder a denúncias de abuso, detectar e remover spam, identificar e eliminar contas falsas e impedir
que contas sejam comprometidas. Fizemos melhorias recentes para reconhecer essas contas inautênticas
22
Machine Translated by Google
Esses tipos de estratégias parecem ter sido adotados para lidar com os “falsos
amplificadores”, os esforços para viralizar certas informações por meio de várias técnicas,
como a criação de contas falsas, a coordenação de certas mensagens, memes etc. caso
do Facebook — que não permite contas anônimas — a remoção de contas falsas torna-
se uma ótima proxy para enfrentar esse tipo de comportamento, que em plataformas de
redes sociais como o Twitter (que protege o direito ao anonimato dos usuários) parece
mais complicado .83 Da mesma forma, o Facebook também baniu “links” em anúncios e
histórias falsas.84
No Twitter, a luta contra os bots se justifica, pois eles buscam “minar o núcleo da
funcionalidade do serviço”. Em março de 2018, anunciou uma série de medidas de
restrição aos anunciantes que estavam abusando das políticas da empresa.87
contas mais facilmente identificando padrões de atividade — sem avaliar o conteúdo da conta por conta própria .10 Por exemplo, nossos sistemas
podem detectar postagens repetidas do mesmo conteúdo ou aberrações no volume de criação de conteúdo. Na França, por exemplo, a partir de 13 de
abril, essas melhorias recentemente nos permitiram agir contra mais de 30.000 contas falsas”).
81 S. Shukla; T. Lyons, Bloqueando anúncios de páginas que compartilham notícias falsas repetidamente, Sobre o Facebook, 28/08/2017, obtido em
https://about.fb.com/news/2017/08/blocking-ads-from-pages- that-repeatedly-share-false-news/ Último acesso: março/4/2020 («A atualização de hoje
ajuda a interromper os incentivos econômicos e conter a disseminação de notícias falsas, o que é mais um passo para construir uma comunidade mais
informada no Facebook») .
83 Cf. Ibid. («No caso do Facebook, observamos que a maior parte da falsa amplificação no contexto das operações de informação não é impulsionada
por processos automatizados, mas por pessoas coordenadas que se dedicam a operar contas inautênticas»).
84 S. Shukla; T. Lyons, “Bloqueando anúncios de páginas que repetidamente compartilham notícias falsas”, cit.
85 C. Crowell, Our Approach To Bots And Misinformation, Twitter Blog, 14/06/2017, obtido em https://blog.twitter.com/
pt_us/topics/company/2017/Our-Approach-Bots-Misinformation.html Último acesso: 04/03/2020.
86 R. Wong, Google está dando outro grande passo para impedir a disseminação de notícias falsas, cit.
87 I. Lunden (Google removeu 2.3b anúncios ruins, anúncios banidos em 1,5 milhão de aplicativos + 28 milhões de páginas, planeja novo gerente de
política este ano, TechCrunch, 14/03/2018, recuperado de http://social.techcrunch.com/2019 /03/13/google-removed-2-3b-bad-ads-1-5m bad-apps-
and-28m-bad-pages-plans-new-policy-manager-this-year/ Último acesso: março/9 /2020.); S. Spencer (An Adverti sing Ecosystem That Works For
Everyone, Google - The Keyword, 14/03/2018, recuperado de https://blog.google/technology/
ads/advertising-ecosystem-works-everyone/ Último acesso: 9/março/2020.)
88 S. McGregor, «What Even Is “Coordinated Inauthentic Behavior” On Platforms?», Wired, 17/09/2020, retirado de https://
www.wired.com/story/what-even-is-coordinated-inauthentic-behavior-on-platforms/ Último acesso: 22/09/2020 (“Essa ambiguidade e aplicação
inconsistente, bem como a maneira não baseada em princípios em que o conteúdo político é moderado,
23
Machine Translated by Google
aproximar-se facilmente. Por outro lado, tem um custo. Considere, por exemplo, as
restrições impostas pelo WhatsApp sobre o número de vezes que determinadas mensagens
podem ser enviadas. A restrição pressupõe que o conteúdo que está sendo encaminhado
é problemático e — por definição — limita o escopo da mensagem. Isso, em países
autoritários onde a tecnologia de mensagens privadas criptografadas pode ter algum tipo
de papel no livre fluxo de informações, é um problema e não uma solução.
3. “Política” e moderação
As ações e decisões das plataformas têm a ver com seu posicionamento e seus princípios
em relação a essa questão, ou “escolhas de política”. Essas escolhas buscam estabelecer
uma posição sobre o papel que eles próprios designam no fluxo de informações on-line e
impactam tanto em seu desenho interno quanto em suas posições públicas.
Como veremos a seguir, essas posições mudaram ao longo do tempo e tiveram impactos
transversais, principalmente na autorregulação e nas regras de moderação. Talvez a
mudança mais proeminente e memorável para exemplificar esse ponto tenha sido a
mudança de 2019 no slogan do Twitter: do princípio orientador de falar a verdade ao
poder, a empresa passou a “promover uma conversa pública saudável”.
Até 2019, entre as empresas analisadas, prevalecia uma posição de recusa em adotar um
papel de controle sobre a veracidade ou falsidade das informações, o que resultou em
declarações e posicionamentos públicos e na adoção de regras específicas sobre os
conteúdos permitidos em suas plataformas. Assim, por exemplo, o CEO do Facebook
afirmou que “não verificamos o que as pessoas dizem antes de dizerem e, francamente,
não acho que a sociedade queira que façamos.”90 Logo após a eleição presidencial de 2016, seu CE
exacerba as ameaças ao processo eleitoral , bem como a própria capacidade das plataformas de se defenderem de críticas de ambos os lados do
contraponto a ameaça ao processo eleitoral, bem como a capacidade das plataformas de se defenderem de críticas de ambos os lados do o
problema]).
89
CELE, Comentário em resposta às alterações propostas pelo Twitter às regras sobre conteúdo desumanizante [Comentários à proposta de
alteração do Twitter nas regras relativas a “Conteúdo desumanizante”], https://www.palermo.edu/Archivos_con tent/2020/cele/ March/
Internet_and_Derechos_HumanosIII.pdf
90
“…Zuckerberg também disse que continuaria trabalhando com o governo dos Estados Unidos, aprofundaria as investigações internas, fortaleceria
o processo interno de revisão de anúncios, duplicaria a equipe que trabalha em questões de “integridade eleitoral”, expandiria alianças com
autoridades eleitorais e aumentar a quantidade de informações sobre ameaças que eles compartilham com outras empresas de tecnologia.
[Zuckerberg também disse que ia continuar trabalhando com o governo dos Estados Unidos, ia ampliar as investigações internas, ia fortalecer o
processo interno de revisão de notificações, dobrar a equipe que trabalha em questões de “integridade eleitoral”, expandir suas parcerias com
autoridades eleitorais e aumentar a quantidade de informações sobre ameaças que compartilham com outras empresas de tecnologia]. Veja P.
Kafka (Mark Zuckerberg: "liberdade significa que você não precisa pedir permissão primeiro", Vox, 21/09/2017, recuperado de https://www.vox.
24
Machine Translated by Google
Também em 2017, o Facebook lançou a Iniciativa Perguntas Difíceis , que buscava fazer (e
responder) perguntas difíceis sobre o papel das mídias sociais nas comunidades políticas
democráticas. campanha eleitoral94 e em novembro permitiu que os usuários soubessem
se haviam “curtido” alguma página criada pelo Inter
92 Ibid. Nessa linha, por exemplo, o Facebook anunciou em abril de 2017 que estava adotando uma postura mais forte em relação às suas ações
de moderação, para incluir “formas mais sutis de uso indevido, incluindo tentativas de manipular o discurso cívico e enganar as pessoas”. J. Weedon;
W. Nuland; A. Stamos, “Operações de Informação e Facebook”, cit., p. 3.
25
Machine Translated by Google
net Research Agency, ligada à Rússia.95 Em seu documento de política, o Facebook define
“operações de informação” como “ações tomadas por atores organizados (governamentais ou
não governamentais) para distorcer sentimentos políticos domésticos ou estrangeiros, mais
frequentemente para alcançar um objetivo estratégico e /ou resultado geopolítico. Essas
operações podem usar uma combinação de métodos, como notícias falsas, desinformação ou
redes de contas falsas destinadas a manipular a opinião pública (nos referimos a eles como
'amplificadores falsos'”.96 O Google também produziu um pequeno relatório sobre “o que
encontrou ” em suas plataformas para o mesmo período97 e o Twitter anunciou que faria o mesmo.98
Essas posições podem ter sido baseadas no paradigma otimista em relação à Internet que
resultou na não responsabilização dos intermediários por conteúdos de terceiros. Mas a
pressão sobre as empresas durante os últimos três anos levou-as a assumir, de forma gradual
e relutante, um papel “controlador” em matéria de desinformação, especialmente em situações
eleitorais. As mudanças nesse sentido são bastante significativas e mostram empresas
flexíveis, com capacidade de adaptar suas políticas a um número cada vez maior de demandas
e ter um papel mais ativo e transparente no controle das informações que circulam em suas
plataformas.
Por exemplo, o Facebook parece ter feito um esforço para defender uma determinada
perspectiva de liberdade de expressão que, pelo menos em teoria, continuaria a justificar não
ter que desempenhar esse papel.99 No entanto, gradualmente — e acreditamos que como
consequência da crescente pressão sobre a empresa — também adotou mudanças em sua
posição. Por exemplo, em março de 2018, o Facebook expandiu sua
95 Facebook, transparência contínua sobre a atividade russa, sobre o Facebook, 22/11/2017, obtido em https://about.fb.com/
news/2017/11/continuing-transparency-on-russian-activity/ Último acesso: março/6/2020.
96
Ibid., pág. 4. É interessante chamar a atenção para o esforço do Facebook em definir precisamente o fenômeno, que, por exemplo, distingue
“operações de informação” de “notícias falsas” (“artigos de notícias que se pretendem factuais, mas que contêm distorções intencionais de fatos com
a intenção de despertar paixões, atrair espectadores ou enganar”) ou «desinformação» (“Informações/ conteúdos imprecisos ou manipulados que
são divulgados intencionalmente. Isso pode incluir notícias falsas ou pode envolver métodos mais sutis, como operações de bandeira falsa ,
fornecendo citações ou histórias imprecisas para intermediários inocentes, ou amplificando conscientemente informações tendenciosas ou enganosas.
97
Google, «O que encontramos». Google, Palo Alto, Califórnia. 30 de outubro de 2017.
98 T. Romm, Twitter está explorando como notificar seus usuários que viram propaganda russa durante as eleições de 2016, Vox, 17/01/2018,
recuperado de https://www.vox.com/2018/1/17/16901428 /twitter-notify-users-russia-trolls-2016-election Último acesso: 06/03/2020; Política pública
do Twitter, Atualização sobre a revisão do Twitter da eleição americana de 2016, 19/01/2018, obtida em https://blog.twitter.com/en_us/topics/
company/2018/2016-election-update.html Último acesso: 09/03/2020.
99 E. Schrage, Perguntas Difíceis: Anúncios Russos Entregues ao Congresso, Sobre o Facebook, 02/10/2017, retirados de https://about.
fb.com/news/2017/10/hard-questions-russian-ads-delivered-to-congress/ Último acesso: março/6/2020 («…deve também levar a sério o lugar crucial
que a liberdade de expressão política ocupa em torno do mundo na proteção da democracia e dos direitos daqueles que são minoria, que são
oprimidos ou que têm opiniões que não são defendidas pela maioria ou pelos que estão no poder»); K. Swi sher, Transcrição completa: CEO do
Facebook Mark Zuckerberg On Recode Decode, Vox, 18/07/2018, obtido em https://www.vox.
com/2018/7/18/17575158/mark-zuckerberg-facebook-interview-full-transcript-kara-swisher Último acesso: março/11/2020.
26
Machine Translated by Google
100 G. Rosen, Perguntas difíceis: O que o Facebook está fazendo para proteger a segurança eleitoral?, Sobre o Facebook, 29/03/2018, obtido em
https://about.fb.com/news/2018/03/hard-questions-election -segurança/ Último acesso: 09/03/2020.
101 J. Menn, «Exclusive: Facebook To Ban Misinformation On Voting In Upcoming US Elections», Reuters, 16/10/2018, obtido em https://
www.reuters.com/article/us-facebook-election-exclusive -idUSKCN1MP2G9 Último acesso: março/11/2020.
102 Sobre o Facebook, Novas etapas para proteger as eleições americanas, Sobre o Facebook, 03/09/2020, obtido em https://about.
fb.com/news/2020/09/additional-steps-to-protect-the-us-elections/ Último acesso: 03/09/2020.
103 Youtube acabou de desmonetizar canais anti-vax, BuzzFeed News, 22/02/2019, recuperado de https://www.buzzfeednews.
com/article/carolineodonovan/youtube-just-demonetized-anti-vax-channels Último acesso: 11/03/2020.
104 T. Cardoso, «Google To Ban Political Ads Ahead Of Federal Election, Citing New Transparency Rules», 04/03/2019, obtido em https://
www.theglobeandmail.com/politics/article-google-to-ban -politic-ads-ahead-of-federal-election-citing-new/ Último acesso: março/11/2020.
105 S. Shukla, Uma maneira melhor de aprender sobre anúncios no Facebook, Sobre o Facebook, 28/03/2019, obtido em https://about.
fb.com/news/2019/03/a-better-way-to-learn-about-ads/ Último acesso: março/11/2020.
106 J. Canfield, Aumentando a transparência por meio da verificação de identidade do anunciante, Google, 23/04/2020, recuperado de https://
blog.google/products/ads/advertiser-identity-verification-for-transparency/ Último acesso: agosto/27/2020.
107 A. Stamos, uma atualização sobre operações de informações no Facebook, sobre o Facebook, 06/09/2017, obtido em https://about.
fb.com/news/2017/09/information-operations-update/ Último acesso: 04/03/2020.
108 V. Gadde; Y. Roth, Enabling Further Research Of Information Operations On Twitter, Twitter Blog, 17/10/2018, obtido em https://blog.twitter.com/
en_us/topics/company/2018/enabling-further-research-of- information-operations-on-twitter.html Último acesso: março/11/2020.
109 A. Woodford, The Hunt For False News, Sobre o Facebook, 19/10/2018, obtido em https://about.fb.com/news/2018/10/
inside-feed-hunt-false-news-outubro-2018/ Último acesso: março/11/2020.
27
Machine Translated by Google
ment sugere que as ferramentas preferidas do Facebook para identificar informações falsas
são aprendizado de máquina e relatórios de verificadores externos.110
Essas ações representam uma mudança na forma como as empresas se veem e se mostram
para seus diferentes públicos.
Em abril de 2017, por exemplo, o Facebook publicou um documento no qual definia alguns
conceitos-chave relacionados às “operações de informação” que impactavam suas políticas
internas.112 Em junho de 2019, o Twitter atualizou suas regras e as simplificou para facilitar
o entendimento. 113 Em setembro de 2019, no entanto, o Twitter e o Facebook anunciaram
mudanças mais radicais que mostram sua abordagem à questão e – em menor grau – a
escala do desafio. Assim, o Twitter anunciou a suspensão total da publicidade política, sob a
premissa de que o “alcance” das mensagens políticas deve ser “conquistado, e não comprado”.
“No final do ano passado, o Twitter decidiu proibir a promoção de conteúdo político
em todo o mundo. Tomamos essa decisão com base em nossa crença de que o
alcance das mensagens políticas deve ser conquistado, não comprado. Definimos
conteúdo de natureza política como aquele que se refere a um candidato, partido
político, funcionário público eleito ou nomeado, eleição, referendo, medida
submetida a votação, lei, regulamento, diretiva ou decisão judicial. Anúncios que
contêm referências a conteúdo político, incluindo solicitações de votos, solicitações
de apoio financeiro e defesa a favor ou contra os tipos de po
110 Ibid.
111 Mas essas mudanças não se traduzem necessariamente, automaticamente, em mudanças formais nas regras. Ver sobre este ponto, T. Gillespie
(Custodians of the Internet, cit.), 66 (“Embora a política do Facebook tenha sido instituída em dezembro de 2016, em outubro de 2017, nenhuma nova
redação foi adicionada ao documento de padrões da comunidade que poderia razoavelmente Pode-se argumentar que o Facebook não proíbe
notícias falsas, apenas rotula-as; outra possibilidade é que em alguns casos políticas sejam instituídas, mas sua inclusão nos documentos de diretrizes
da comunidade é defasada”. As regras no momento da redação deste artigo (julho de 2020) incluem “notícias falsas” como conteúdo proibido.
Consulte https://www.facebook.com/communitystandards/false_news. Sobre esta questão, ver CELE e Linterna Verde, em https://letrachica.digital/
28
Machine Translated by Google
conteúdo lítico listado acima são proibidos por esta política. Também não
permitiremos anúncios de qualquer tipo de candidatos, partidos políticos ou
funcionários governamentais eleitos ou nomeados. Qualquer pessoa que use a
plataforma pode denunciar anúncios que vão contra essa política. O mecanismo
de denúncia pelo próprio aplicativo está disponível globalmente e nossos usuários
podem denunciar por meio deste canal. Estamos trabalhando em conjunto com
autoridades eleitorais de todo o mundo para garantir um diálogo aberto que
contribua para a identificação de anúncios que violem esta política.”115
Por sua vez, o Facebook anunciou que deixaria de verificar informações políticas, uma ação
surpresa que implicou uma mudança de direção que a empresa explicou em termos de
liberdade de expressão.116 Em setembro de 2020, introduziu outra mudança significativa:
seguir o Twitter, Facebook anunciou que não aceitaria anúncios políticos na semana que
antecedeu a eleição.117
Três eventos recentes levaram as plataformas a modificar mais uma vez suas abordagens
ao fenômeno da desinformação. Isso se refere à pandemia global causada pelo SARAS-
CoV-2 e a doença COVID-19, os protestos do movimento Black Lives Matter de 2020 e as
eleições presidenciais nos Estados Unidos.
Esses eventos revelaram a dificuldade de moderar o conteúdo de forma satisfatória para
todos os atores que demandam melhorias nesse sentido.118
115
Hugo TwitterGov, “Qualidade da informação durante as eleições”, cit., p. Quatro.
116 N. Clegg, Facebook, Elections And Political Speech, About Facebook, 24/09/2019, retirado de https://about.fb.com/
news/2019/09/eleições-e-discurso-político/ Último acesso: março/11/2020 («Não acreditamos, no entanto, que seja um papel apropriado para nós
arbitrar debates políticos e impedir que o discurso de um político alcançar seu público e estar sujeito a debate e escrutínio público. É por isso que o
Facebook isenta políticos de nosso programa de verificação de fatos de terceiros. Temos essa política nos livros há mais de um ano, publicada
publicamente em nosso site de acordo com nossas diretrizes de elegibilidade »).
29
Machine Translated by Google
A pandemia causada pelo SARS-CoV-2 trouxe outra fonte de pressão, neste caso
impulsionada pelas autoridades de saúde globais, regionais e nacionais. E as
plataformas parecem ter reagido ao novo cenário publicando proativamente informações
confiáveis sobre a pandemia.119
Este tipo de prática não foi isento de desafios significativos. Por um lado, nem todos os
governos são fontes confiáveis de notícias ou informações, mesmo em contextos como
o da pandemia. Por outro lado, como aponta D'Urso, as declarações governamentais
não necessariamente recebem os “cliques” necessários para atingir a população,
principalmente quando concorrem com conteúdos que apelam a reações emocionais
dos leitores, como o conteúdo que geralmente compõe campanhas de desinformação.121
Como vimos, as recomendações sobre o uso de medicamentos sem eficácia
comprovada, remédios caseiros ou — mais simplesmente — a subestimação dos riscos
de contágio têm sido comuns nas Américas nos últimos meses. A desinformação sobre
a pandemia e suas supostas características especiais (como riscos mais claros e
suposta facilidade para demonstrar a falsidade das alegações) podem ter levado as
plataformas a “fazer mais” sobre esse tipo de desinformação do que pelas questões eleitorais.122
removerá esse conteúdo. Da mesma forma, não há exceções para políticos em nenhuma das políticas que estou anunciando aqui hoje”)
119 J. D'Urso, How The Coronavirus Pandemic Is Changing Social Media, Reuters Institute for the Study of Journalism, 07/06/2020, obtido em https://
reutersinstitute.politics.ox.ac.uk/risj-review/ como-coronavirus-pandemia-mudando- social-media Último acesso: julho/10/2020.
120 Ibid.
121 Cf. V. Bakir; A. McStay, «Fake News e a economia das emoções: problemas, causas, soluções», Jornalismo Digital , vol. 6, 2, 2018, retirado de
https://www.tandfonline.com/doi/full/10.1080/21670811.2017.1345645 («…o problema das fakes news diz respeito à economia da emoção … as
emoções são aproveitadas para gerar atenção e tempo de visualização , que se converte em receita publicitária…»).
122 J. D'Urso, Como a pandemia de coronavírus está mudando as mídias sociais, cit. («Durante a pandemia, as empresas de redes sociais deram
alguns sinais de ir mais longe do que antes no que diz respeito à remoção de conteúdos…»).
30
Machine Translated by Google
anunciou um boicote ao Facebook até que ele tome medidas mais decisivas sobre
formas problemáticas de discurso, especialmente “discurso de ódio”. .
123 «Mark Zuckerberg: o boicote dos anunciantes ao Facebook terminará “em breve”» The Guardian, 02/07/2020, recuperado de https://
www.theguardian.com/technology/2020/jul/02/mark-zuckerberg -advertisers-boycott-facebook-back-look-enough Último acesso: 15/07/2020.
127 Essa ação teve várias consequências, pois o Facebook estendeu sua política a todos os anúncios, e não apenas aos de natureza política em
outubro de 2017 Cf. R. Goldman (Atualização sobre nossos esforços de transparência e autenticidade de publicidade, sobre o Facebook, 27/10/2017,
obtido em https://about.fb.com/news/2017/10/update-on-our-advertising-transparency- e-autenticidade-ef forts/ Último acesso: 6/março/2020.)
128 R. Goldman, Tornando anúncios e páginas mais transparentes, Sobre o Facebook, 04/06/2018, retirado de https://about.fb.
com/news/2018/04/transparent-ads-and-pages/ Último acesso: março/9/2020 (em abril de 2018); K. Harbath, atualizações para anúncios sobre
questões sociais, eleições ou política nos EUA, sobre o Facebook, 28/08/2019, recuperados de https://about.fb.com/
news/2019/08/updates-to-ads-about-social-issues-elections-or-politics-in-the-us/ Último acesso: março/11/2020 (em maio, sobre eleições); R.
Leathern, Shining A Light On Ads With Political Content, Sobre o Facebook, 24/05/2018, obtido em https://about.fb.com/news/2018/05/ads-with-
political-content/ Último acesso : 11/03/2020; K. Walker, Apoiando a Eleição
31
Machine Translated by Google
Integrity Through Greater Advertising Transparency, Google, 04/05/2018, obtido em https://blog.google/outreach-initiati ves/public-policy/supporting-
election-integrity-through-greater-advertising-transparency/ Último acesso: 09/03/2020.
129 B. Falck, Nova transparência para anúncios no Twitter, Twitter, 27/10/2017, obtido em https://blog.twitter.com/en_us/topics/
product/2017/New-Transparency-For-Ads-on-Twitter.html Último acesso: 06/03/2020. O Centro está disponível em https://ads.
twitter.com/transparency.
130 K. Walker, Apoiando a Integridade Eleitoral Através de Maior Transparência na Publicidade, cit.
131
Google, Publicidade política no Google - Relatório de transparência do Google, relatório de transparência do Google, 15/08/2018, recuperado
de https://transparencyreport.google.com/political-ads/region/US Último acesso: 11/03/2020.
133 R. Allan, Update On German Elections, Über Facebook, 27/09/2017, obtido em https://about.fb.com/de/news/2017/09/up date-zu-den-wahlen/
Último acesso : 04/03/2020 («O Facebook cooperou estreitamente com as autoridades alemãs, como o Escritório Federal de Segurança da
Informação (BSI). Fornecemos treinamento para membros do Parlamento e candidatos sobre questões de segurança on-line. Também criamos um
canal de denúncia do BSI para questões relacionadas à segurança e autenticidade no contexto das eleições federais»).
134 Política pública do Twitter, Atualização, cit. ("Envolvemo-nos com as comissões eleitorais nacionais regularmente e reforçamos consistentemente
nossa cobertura de segurança e revisão de agentes durante os principais momentos dos ciclos eleitorais em todo o mundo. Continuaremos a fazer
isso e expandir nosso alcance para que tenhamos processos de escalação fortes e claros ." em vigor para todas as potencialidades durante as
grandes eleições e eventos políticos globais»); Hugo TwitterGov, “ Qualidade da informação durante as eleições”, cit., p. 3 (“Nesse sentido, à
semelhança dos modelos que implantamos para eleições recentes em todo o mundo, como No caso dos Estados Unidos, Brasil e No México,
implementamos uma equipe interna e interdisciplinar para liderar nossos esforços em integridade eleitoral. Por meio de nossas próprias ferramentas
internas, essa equipe trabalha de forma proativa para avaliar tendências, abordar casos que são escalados por nossos aliados no assunto e identificar
possíveis ameaças de atores mal-intencionados . No que diz respeito a colaborações específicas com autoridades eleitorais e atores similares na
América Latina, convidamos você a ler nosso blog sobre as eleições no México como exemplo. questão número seis, na resposta a esta última iremos
aprofundar-nos» [Neste sentido, à semelhança dos modelos que temos posto em prática para as recentes eleições em todo o mundo, como Estados
Unidos, Brasil e México, implementamos uma equipe interna e interdisciplinar para liderar nossos esforços no campo da integridade eleitoral. Por
meio de nossas próprias ferramentas internas, essa equipe trabalha de forma proativa para avaliar tendências, abordar casos que são escalados por
nossos aliados no assunto e identificar possíveis ameaças de agentes mal-intencionados. No que diz respeito a colaborações específicas com
autoridades eleitorais e atores semelhantes na América Latina, convidamos você a ler nosso blog sobre as eleições no México como exemplo.
Esforços semelhantes foram implementados da mesma forma na Colômbia e na Argentina. Além disso, dada a semelhança entre esta questão e a
questão número seis, na resposta a esta última aprofundaremos mais sobre ela]).
135 Sobre o Facebook, “New Steps To Protect The Us Elections”, cit.; G. Rosen, Helping To Protect The 2020 Us Elections, Sobre o Facebook,
21/10/2019, obtido em https://about.fb.com/news/2019/10/update-on-election-integrity-efforts/ Last acesso: 11/03/2020.
32
Machine Translated by Google
Além disso, durante esse período, as empresas foram convocadas para explicar
publicamente seus negócios, modelos, políticas e padrões em diferentes fóruns e
foram explicitamente convocadas para reuniões formais com funcionários públicos
(por exemplo, Estados Unidos, Reino Unido). Citações do Congresso dos Estados
Unidos parecem ser especialmente significativas. Em setembro de 2017, The Hill
informou que Facebook, Google e Twitter seriam chamados para depor perante o
Comitê de Inteligência do Senado sobre a questão da interferência russa nas eleições
de 2016.136 Nesse contexto, o Twitter anunciou reuniões e apontou obstáculos para
lidar com contas falsas e bots.137 Em novembro de 2017, as empresas anunciaram
que colaborariam com o Reino Unido para investigar uma possível interferência russa
no referendo pela permanência daquele país na União Europeia em 2016.138 Em
setembro de 2018, Sheryl Sandberg, do Facebook e Jack Dors ey, do Twitter,
testemunharam novamente perante o Comitê de Inteligência do Senado dos EUA.139
É interessante salientar que há um questionamento implícito de anúncios direcionados
que pressiona as empresas a defendê-los;140 essas posições são vistas - por
exemplo - nas plataformas “princípios” sobre suas práticas de publicidade.141
Por fim, paralelamente ao desenvolvimento dos órgãos estaduais de monitoramento,
as empresas desenvolveram ações e criaram procedimentos e mecanismos com
diferentes graus de abertura a terceiros (especialistas, ONGs, acadêmicos etc.) que
satisfaçam os usuários e reguladores.
Em abril de 2018, o Facebook publicou seus critérios internos de moderação e passou
a realizar reuniões de stakeholders sobre o assunto; e ampliou seus apelos internos
136 J. Byrnes (Painel do Senado convida Facebook, Google para testemunhar na Rússia Probe, The Hill, 27/09/2017, recuperado de https://
thehill.com/homenews/senate/352743-senate-panel-invites-facebook-to-testify Último acesso: 07/05/2020.). Na ocasião, o Fa cebook anunciou que
iria cooperar com as autoridades. Consulte C. Stretch (Facebook para fornecer ao congresso anúncios vinculados à agência de pesquisa da Internet,
sobre o Facebook, 21/09/2017, obtido em https://about.fb.com/news/2017/09/provid ing-congress-with -ads-linked-to-internet-research-agency/ Último
acesso: 6/março/2020.)
137
Wired, «Twitter se reunirá com o Comitê de Inteligência do Senado sobre a Rússia», Wired, 28/09/2017, recuperado de https://www.
wired.com/story/twitter-senate-committee-russia-bots/ Último acesso: 07/05/2020.
138 MD Stefano, Facebook e Twitter dizem que vão cooperar com o inquérito do Reino Unido sobre a interferência russa no Brexit, BuzzFeed,
29/11/2017, recuperado de https://www.buzzfeed.com/markdistefano/facebook-and-twitter- dizem que estão prontos para cooperar com Último
acesso: 06/03/2020.
139 Comitê de Inteligência do Senado dos EUA, Audiências | Comitê de Inteligência, Senado dos EUA, 09/05/2018, recuperado de https://www.
intelligence.senate.gov/hearings/open-hearing-foreign-influence-operations%E2%80%99-use-social-media-platforms-com pany-witnesses Último
acesso: 07/05/2020.
140 E. Schrage, “Hard Questions”, cit. («Esses são usos valiosos da segmentação de anúncios porque permitem que as pessoas se conectem com as coisas que lhes interessam. Mas sabemos que a
segmentação de anúncios pode ser abusada e nosso objetivo é impedir que anúncios abusivos sejam executados em nossa plataforma. Para começar, anúncios contendo determinados tipos de segmentação
33
Machine Translated by Google
procedimento em suas decisões.142 Até então, o Twitter já havia lançado seu Conselho
de Confiança e Segurança e recentemente anunciou uma ampliação de seus poderes
em linha com o anúncio do Facebook.143 No final de 2018, o Facebook também
anunciou a criação de um conselho de especialistas que ajudar a empresa a tomar
boas decisões de moderação, compatíveis com os princípios de liberdade de expressão
que Zuckerberg enfatizou publicamente em vários momentos. O Conselho de Supervisão
foi finalmente apresentado publicamente em maio de 2020.144
142 M. Bickert (Publicando nossas diretrizes internas de aplicação e expandindo nosso processo de apelação, sobre o Facebook, 24/04/2018, obtido
em https://about.fb.com/news/2018/04/comprehensive-community-standards/ Last acesso: 09/03/2020.). Os padrões da comunidade podem ser
encontrados em https://www.facebook.com/communitystandards/. Em maio de 2018, o Facebook publicou um relatório sobre casos para mostrar como
seus critérios funcionam na prática. Veja G. Rosen (Facebook publica números de imposição pela primeira vez, sobre o Facebook, 15/05/2018,
recuperado de https://about.fb.com/news/2018/05/
enforcement-numbers/ Último acesso: 9/março/2020.)
143 N. Pickles, Strengthening Our Trust And Safety Council, Twitter Blog, 13/12/2019, obtido em https://blog.twitter.com/
pt_us/topics/company/2019/strengthening-our-trust-and-safety-council.html Último acesso: 27/08/2020.
144
(Estabelecimento de estrutura e governança para um conselho de supervisão independente, sobre o Facebook, 17/09/2019, obtido em https://
about.fb.com/news/2019/09/oversight-board-structure/ Último acesso: março/11 /2020.); consulte https://www.oversight board.com/.
145 C. Cortes; L. Isaza, “Notícias falsas na Internet: A estratégia para combater a desinformação” [Notícias falsas na Internet: A estratégia para
combater a desinformação], cit., P. 26.
34
Machine Translated by Google
Pandemia
Eleições COVID-19
do México Eleições
Eleições de Brasil
dos Estados Unidos
Fb
Devemos examiná-los para obter um quadro completo das descobertas que este relatório
procura atualizar.
35
Machine Translated by Google
147
Ibid., pág. 21-24.
148 Ibid., pág. 23.
36
Machine Translated by Google
Verificado
não verificado
Uma análise do que aconteceu nos últimos anos sugere que os padrões identificados
no relatório anterior ainda são válidos, mas surgiram algumas novas tendências. Assim,
por exemplo, a criação de órgãos internos encarregados de influenciar as políticas de
moderação aparece como uma das inovações mais significativas. O Conselho de
Supervisão do Face Book e, em menor escala, o Conselho de Confiança e Segurança
do Twitter são novas tentativas das plataformas de aumentar a responsabilização por
suas ações e políticas de moderação de conteúdo, embora ambas as ações pareçam
seguir o modelo do “fórum público” que aos poucos parece prevalecer neste tipo de empresa.
Por outro lado, recentemente algumas tendências parecem ter-se tornado mais fortes:
para além das ações de sensibilização para a segurança e da promoção de mais
informação, as plataformas aqui divulgadas têm optado por práticas de “contextualização”
da informação que apresentam aos utilizadores, cada vez mais graças a algoritmos de
recomendação de conteúdo. A prática de rotulagem parece ter crescido: além da
rotulagem em relação à verificação de conteúdo, tanto o Twitter quanto o Facebook
rotularam postagens de importantes atores públicos como contendo informações falsas,
mídia governamental de países estrangeiros e assim por diante. As empresas parecem
continuar a investir em soluções de inteligência artificial para suas políticas de
moderação: um algoritmo suficientemente bem treinado poderia identificar informações
falsas e agir de acordo, seja rotulando-as como tal, estabelecendo algum tipo de aviso
prévio, reduzindo sua circulação na rede, e assim por diante. Essa dependência de algoritmos, no e
37
Machine Translated by Google
149 C. Newton, o coronavírus está forçando os gigantes da tecnologia a fazer uma aposta arriscada em Ai, The Verge, 18/03/2020, recuperado de
https://www.theverge.com/interface/2020/3/18/21183549/ coronavirus-content-moderators-facebook-google-twitter Último acesso: agosto/ 27/2020.
150 C. Newton, The Antitrust Case Against Google Is Gathering Steam, The Verge, 15/07/2020, recuperado de https://www.
theverge.com/interface/2020/7/15/21324105/google-antitrust-california-search-youtube Último acesso: 22/09/2020; A. Satariano, «Facebook Loses
Antitrust Decision In Germany Over Data Collection», The New York Times, 23/06/2020, retirado de https://www.nytimes.com/2020/06/23/technology/
facebook-antitrust -germany.html Último acesso: 22/09/2020.
151
Veja, a esse respeito, a resposta do Twitter ao inquérito sobre a possibilidade de denunciar conteúdo como falso por motivo eleitoral
som. Cf. Hugo TwitterGov (“Qualidade da informação durante as eleições” [Qualidade da informação durante as eleições], cit.), 4-5.
38
Machine Translated by Google
es que queremos dizer ações que respeitem os padrões atuais de direitos humanos, a
resposta pode ser positiva: evidentemente, há ações mais ou menos problemáticas dentro
desse parâmetro. Mas se o que buscamos são ações efetivas, a resposta é mais ilusória
porque, sob esse prisma, essas ações são difíceis de avaliar: não há estudos de impacto,
não há acesso suficiente às informações necessárias por parte das empresas e não parece
qualquer preocupação para aferir os resultados.
Em vez disso, vistas como um todo, as ações parecem seguir umas às outras em um esforço
para responder à crescente pressão e agitação.
Esse cenário levanta grandes questões quanto ao papel dos intermediários na circulação
de informações na Internet. Se essa pergunta teve uma resposta definitiva em 1996 através
das garantias do artigo 230 da Lei de Decência nas Comunicações, é claro que isso não é
mais o caso. O papel e a responsabilidade das grandes plataformas da Internet estão em
plena disputa em todo o mundo e algum tipo de inovação regulatória será imposta em um
futuro não muito distante. No entanto, ainda não sabemos a forma que a regulação tomará:
se continuaremos com ações autorregulatórias como as que vimos até agora — cuja
intensidade e variedade parecem ter aumentado durante a pandemia — ou se uma regulação
tradicional prevalecerá junto com estados com capacidade de influenciar o que as plataformas
fazem, como os Estados Unidos ou a União Européia. A questão provavelmente será
abordada com uma variedade de abordagens, como sugerido por Marsden, Meyer e Brown:
auto-regulação controlada, uma auto-regulação formalizada ou co-regulação parecem os
cenários mais plausíveis.152 Nesse sentido, o que estão vendo atualmente é – possivelmente
– uma lenta mudança no debate público nessa direção (Figura 4).
152 C. Marsden; T. Meyer; I. Brown, «Valores de plataforma e eleições democráticas: como a lei pode regular a
desinformação digital?», Computer Law & Security Review, vol. 36, 2020, recuperado de http://www.sciencedirect.com/science/article/pii/
S026736491930384X.
39
Machine Translated by Google
Alguns sinais apoiam esta hipótese. De fato, embora a base legal para ações de
moderação continue sendo os direitos de propriedade das empresas e o poder derivado
de definir qual conteúdo é aceitável ou não, grande parte dessas decisões é baseada
em requisitos legais de países relevantes, como no caso do unproblemat ic casos de
pornografia infantil ou nos casos mais questionáveis de discurso de “ódio”, graças às
regulamentações em vigor especialmente nos países europeus. No estudo de Marsden
et al. menu de opções estamos atualmente entre a segunda fase de autorregulação e
a terceira, onde os atores externos começam a influenciar, por exemplo, as auditorias
do GNI ou o Código de Práticas de Desinformação da Comissão Europeia.153
40
Machine Translated by Google
156
CIDH, “ Marco Jurídico Interamericano do Direito à Liberdade de Expressão”. Relatoria Especial para a Liberdade de Expressão da Comissão
Interamericana de Direitos Humanos. OEA/Ser.L/V/II CASAMENTO/RELE/INF. 09/02. 30 de dezembro de 2009. Par. 108, e segs.
157
YouTube, “Continuando nosso trabalho para melhorar as recomendações no Youtube”, cit.
158 CIDH, «Liberdade de Expressão e Internet» [Liberdade de Expressão e Internet]. Comissão Interamericana de Direitos Humanos, Washington
DC 2013. Par. 55; «Estándares Para Una Internet Libre, Abierta e Incluyente» [Padrões para uma Internet Livre, Aberta e Inclusiva]. Relatoria
Especial para a Liberdade de Expressão da CIDH, Washington DC INF.17/17.
2017. Sobre. 87.
159 Há uma iniciativa que se inclina nessa direção: Social Science One. Veja https://socialscience.one/
41
Machine Translated by Google
42