Você está na página 1de 42

Machine Translated by Google

Fake news na internet: ações e

reações de três plataformas

fevereiro de 2021

Faculdade de Direito
Centro de Estudos da Liberdade
de Expressão e Acesso à Informação
Machine Translated by Google

Fake news na internet: ações e reações


de três plataformas1*

Nos últimos quatro anos, a desinformação online tornou-se uma ameaça aparentemente
nova para as democracias ocidentais. Essa ameaça surge em um momento de
ansiedade pelo futuro: os sistemas democráticos parecem estar passando por uma
crise como resultado da consolidação de opções políticas que, mesmo que não
rejeitem abertamente os procedimentos e formalidades democráticas, os corroem por
dentro. É nesse contexto que o fenômeno da desinformação deve ser abordado.

Em geral, a ansiedade sobre a democracia provoca uma reação. No caso da


desinformação, a reação veio dos estados, dos pesquisadores, da sociedade civil e
das grandes plataformas da Internet onde a desinformação parece se espalhar. Este
artigo explora as ações deste último diante das reivindicações do primeiro e enquadra
a questão em um momento-chave sobre o futuro da Internet.
A primeira seção apresenta uma conceituação geral do fenômeno da desinformação
na Internet e como ela ressurgiu na agenda pública. Da mesma forma, embora a
disseminação de informações falsas para enganar o público sempre tenha feito parte
da cartilha de diferentes atores estatais e paraestatais, os esforços para influenciar o
debate público nos Estados Unidos durante a campanha eleitoral de 2016 introduziu
um período em que essa antiga prática adquiriu novas características, que foram
replicadas e modificadas em processos eleitorais subsequentes, como os do Reino
Unido (2016), Colômbia (2016), México (2018) e Brasil (2018). Esse aspecto temporal
do fenômeno é relevante para sua definição, pois vincula as reações das grandes
plataformas da Internet a uma crise específica, que também é alimentada pelo
pessimismo generalizado em relação à capacidade da Internet de ter um impacto
positivo no futuro da democracia.
A segunda seção apresenta um esboço geral das principais ações realizadas pelas
plataformas em matéria de desinformação, do final de 2016 ao final de 2020. O
objetivo dessa aproximação temporal é duplo: identificar ações públicas, especialmente
no contexto da América Latina, e verificar o seu grau de implementação. O lento
aumento das mudanças anunciadas e das respostas ao fenômeno sugere

1 Este documento foi redigido por Ramiro Alvarez Ugarte e Agustina Del Campo.

2
Machine Translated by Google

uma indústria sob pressão, tentando encontrar respostas satisfatórias para uma demanda
crescente pela moderação de conteúdos problemáticos.

A terceira seção discute os achados e postula a existência de uma “aporia” no centro do


problema. A viragem pessimista em relação à Internet e o processo de concentração do
tráfego nas grandes plataformas tem suscitado novas questões sobre a atual solução
jurídica relativa ao fluxo de informação online. As ações das plataformas sugerem que elas
caminham para um modelo de fórum público, onde os princípios e critérios que utilizam
para definir qual discurso é aceitável ou não está inteiramente sob seu controle. Este
modelo põe em causa o princípio da não responsabilidade dos intermediários por conteúdos
de terceiros, que até agora era a solução jurídica predominante.

A. A desinformação como um problema atual da democracia

Uma definição possível de desinformação é “a disseminação massiva de informações


falsas (a) com a intenção de enganar o público e (b) saber que é falsa”. diante de um
fenômeno particularmente novo: vários atores tentaram manipular a população por meio
de informações falsas ao longo da história.3 Talvez por isso, para analisar o fenômeno
pareça mais relevante limitá-lo temporalmente do que conceitualmente.

De fato, a desinformação surge como um fenômeno recente no quadro de processos


eleitorais caracterizados por um debate público empobrecido em parte graças à
disseminação massiva de informações falsas, especialmente após a campanha eleitoral de
2016 nos Estados Unidos que levou Donald J. Trump à presidência

2 CIDH (Guia para Garantir a Liberdade de Expressão contra a Desinformação Deliberada em Contextos Eleitorais.) Relatoria Especial para a
Liberdade de Expressão da Comissão Interamericana de Direitos Humanos, Washington DC, 17 de outubro de 2019.), 3. Ver também C. Botero
Ignacio Alvarez, Eduardo Bertoni, Catherine Botero, Edison Spear (eds.) (“A regulamentação estatal das chamadas “notícias falsas” na perspectiva
do direito à liberdade de expressão» “Fake News na Perspectiva do Direito à Liberdade de Expressão], em Liberdade de Expressão: aos 30 anos
do Parecer Consultivo sobre Colegiado Compulsório de Jornalistas[ Liberdade de Expressão: 30 anos depois do Parecer Consultivo sobre a
obrigatoriedade de associação prescrito por lei para o exercício do jornalismo], 1º, Comissão Interamericana de Direitos Humanos, W Ashington
DC, 2017, (OEA. Documentos oficiais; OEA/Ser.D/XV.18)., 69; M. Verstraete; DE Bambauer; JR Bambauer ("Identificando e combatendo notícias
falsas." Social Science Research Network, Rochester, NY. ID 3007971. 1º de agosto de 2017.)

3 Vários estudos apontam para este ponto: ver L. Bounegru; J. Gray; T. Venturini; M. Mauri («A Field Guide To“Fake News” And Other Information
Disorders». Public Data Lab & First Draft, Amsterdam. 2017.), 6; R. Darnton (“The True History Of Fake News,” The New York Review of Books,
13/02/2017, recuperado de https://www.nybooks.com/daily/2017/02/13/the-true- his tory-of-fake-news/ Último acesso: 1/mar/2019.)

3
Machine Translated by Google

cy.4 Desde então, em várias eleições, a desinformação apareceu como um problema


mais ou menos grave: os referendos para a permanência do Reino Unido na União
Europeia e a paz na Colômbia em 2016, e as eleições presidenciais de 2018 do Brasil
e do México são bons exemplos disso.
Vários observadores concluem que a desinformação é uma séria ameaça ao futuro dos
sistemas democráticos, uma vez que os processos eleitorais são o principal mecanismo
pelo qual os governos adquirem legitimidade. Essa percepção, compartilhada por alguns
estados, gerou reações de vários tipos – regulatórias, de conscientização ou
autorregulação – que aumentaram a pressão sobre as grandes plataformas da Internet,
percebidas como “facilitadoras” do fenômeno . a reputação prejudicada produzida por
práticas comerciais questionáveis no tratamento dos dados pessoais dos usuários é a
principal causa das ações anunciadas ou adotadas pelas plataformas nos últimos anos,
que este relatório documenta. Mas entender essas reações requer consciência da
natureza histórica do fenômeno. Desinformação
acontece em duas crises distintas, mas relacionadas: a crise da democracia; e a crise
do modelo otimista da Internet que justificou — até agora — as principais abordagens
regulatórias de como a informação circula nessa rede.

1. Internet e a era do otimismo tecnológico

Como rede descentralizada, a Internet se apresentou desde o início como o espaço


ideal para a livre circulação de informações e ideias de todos os tipos. 6
A criação da rede, e — particularmente — sua popularização a partir da segunda
metade da década de 1990, mudou radicalmente a forma como a informação circula:
de modelos altamente centralizados controlados por atores poderosos para um modelo
descentralizado onde, com baixíssimo investimento em tecnologia, cada um dos usuários pode

4 Cf. C. Cortés; L. Isaza, «Notícias falsas na Internet: A estratégia para combater a desinformação» [Notícias falsas na Internet: A estratégia para
combater a desinformação]. Centro de Estudos para a Liberdade de Expressão, Buenos Aires. Dezembro de 2017. Página 2 (referindo-se ao infame
“Pizzagate”).

5 Uma dessas reações é a lei alemã de 30 de junho de 2017, conhecida como Netzwerk Durchsetzungsgesetz ou NetzDG, que impõe várias
obrigações às plataformas em relação a inúmeras instâncias de conteúdo ilegal. A lei foi criticada pelo Relator Especial da OSCE sobre Liberdade
de Mídia e pela Human Rights Watch. Cf. OSCE (Osce Representative On Free dom Of The Media Adverte Alemanha Lei de Redes Sociais Poderia
Ter Efeito Desproporcional, OSCE, 10/04/2017, recuperado de https://www.osce.org/fom/347651 Último acesso: 4/março/ 2019.);HRW|. 350. Avenida
F.; 34º. F. |. N. York; Nº 10118.
U. |. t 1.212.290.4700 (Alemanha: Lei de mídia social falha, Human Rights Watch, 14/02/2018, recuperada de https://www.
hrw.org/news/2018/02/14/germany-flawed-social-media-law Último acesso: 16/01/2019.). A França promulgou uma regra semelhante em novembro
de 2018, especificamente destinada a combater a “manipulação de informações”.

6 Sobre esta descrição, ver, por exemplo, Y. Benkler, The Wealth Of Networks: How Social Production Transforms Markets And Freedom, Yale
University Press, New Haven [Conn.], 2006 (que reflete essa visão “otimista” sobre a rede).

4
Machine Translated by Google

produzir seu próprio conteúdo e divulgá-lo em condições semelhantes aos grandes


produtores de conteúdo tradicional.7
Essa promessa inicial de descentralização gerou certo otimismo em relação à
Internet e sua influência no futuro da democracia, pois algumas características
básicas do design da rede tendem a favorecer o fluxo de informações sobre seu
controle.8 Esse design fortalece a resiliência da rede e não não depende de pontos
nodais de controle para funcionar.9

figura 1

(a) Rede aleatória descentralizada de 20 nós (b) Rede aleatória descentralizada de 19 nós (-E)

7 Cf. Y. Benkler (Ibid.), Cap. 5 (onde colocar a famosa produção de filmes caseiros The Jedi Saga, por exemplo). Grande parte da
literatura pioneira sobre direito e Internet apontava para essa dimensão potencialmente benéfica da Internet. Veja também, por exemplo, L.
Lessig (Código, Versão 2.0, Basic Books, Nova York, 2006.); E. Moglen (“O Churrasco Invisível”, Columbia Law Review, vol.
97, 1997.) (“Qualquer indivíduo pode alcançar, através do uso de mídias em rede, como a World Wide Web, uma audiência muito maior
do que o proprietário de várias pequenas emissoras de televisão, e sem nenhum custo. A forma de comunicação alcançada é sem dúvida
diferente , e é óbvio que o post individual de notícias da UseNet não alcançou paridade com um anúncio de televisão para um tênis
esportivo. Mas a metáfora da emissora e das condições do consumidor é aceitar a máxima desigualdade possível como uma necessidade
natural: algumas conversas e o resto apenas ouve. O espectro não precisa ser alocado em torno dessa concepção; as justificativas
históricas para fazê-lo estão entre as formas de raciocínio viciadas pelo surgimento de tecnologias complementares de transporte e a
consequente morte de 'racionalidades de escassez'”)
8 Cf. L. Lessig (Code, cit.), ix-x; um otimismo que – às vezes – levou ao que Eugene Morozov chamou corretamente de ciberutopismo.
Cf. E. Morozov (The Net Delusion: The Dark Side Of Internet Freedom, 1ª edição, Public Affairs, Nova York, 2011.). Veja também J.
Zittrain (The Future Of The Internet And How To Stop It, Yale University Press, New Haven [Conn.], 2008.), 30-35 (descrevendo os
princípios de design da Internet original)
9 O princípio de ponta a ponta (e2e) sobre o qual a primeira versão da Internet foi construída delega a maior parte do trabalho às
extremidades da rede: a rede deve ser “o mais simples possível, e sua inteligência deve estar no extremos ou pontos finais da rede.”
Este princípio explica por que quando falamos de Internet falamos de uma rede descentralizada - a rede poderia ter sido projetada de
forma diferente, por exemplo, estabelecendo pontos nodais aos quais cada usuário deve se conectar para acessar. Mas não foi assim.”

5
Machine Translated by Google

A Figura 1 representa uma rede descentralizada, na qual os nós são conectados


entre si de várias maneiras. Por eficiência, uma rede dessa natureza busca
conectar os pontos mais distantes uns dos outros através das etapas mais curtas
possíveis. Na Figura 1.a destaca-se a ligação entre o nó A e o nó G: o caminho
mais curto possível tem três passos (A ÿ E ÿ T ÿ G). Se removermos o primeiro
nó dessa seção (“E”, na Figura 1), vemos que o nó encontra rapidamente outro
caminho igualmente eficiente (A ÿ H ÿ T ÿ G). Em uma rede menos descentralizada,
na qual alguns nós fazem o papel de brokers (como, por exemplo, o nó “K” na
Figura 2), a conexão dos nós D ÿ G torna-se impossível.

Figura 2
(uma) (b)

Quando a Internet se popularizou, alguns pressupostos do modelo original foram


questionados. Assim, por exemplo, no final da década de 1990, os riscos de
segurança representados por uma rede descentralizada tornaram-se evidentes .
a natureza permitiria corroer as estruturas que permitem aos governos totalitários
controlar seus cidadãos.11 Nesse contexto, logo surgiram proteções legais para
atores intermediários que facilitaram o acesso a conteúdos produzidos por
terceiros. A Seção 230 da Lei de Decência nas Comunicações de 1996
estabeleceu, por exemplo,

10 Sobre este ponto, ver especialmente Ibid., Cap. 3.


11 E. Morozov, The net delusion, cit., passim.

6
Machine Translated by Google

o princípio da não responsabilidade dos intermediários para salvaguardar a concepção


arquitectónica original da rede. Quem se arriscaria a cumprir esse papel de intermediação
se pudesse ser responsabilizado pela informação cuja circulação facilita? Esse modelo
foi posteriormente adotado em outros países, por meio de legislação, jurisprudência ou
soft law.12

2. A era do pessimismo

As visões otimistas na Internet tiveram detratores desde o início. Muitos autores viram
como certas tendências no desenvolvimento da rede poderiam levar a uma Internet mais
fechada, regulada e sujeita ao controle de atores estatais e privados. Assim, Lawrence
Lessig apontou em 1999 como as pressões do comércio e dos estados tenderiam a
regular a Internet com mais rigor, tanto por meio de legislação quanto em requisitos no
código usado para projetar a arquitetura da rede.13 Da mesma forma, Jona do que
Zittrain previram como a segurança preocupações poderiam levar ao retorno de modelos
de tecnologia que a Internet parecia ter deixado para trás (eletrodomésticos controlados
pelo fabricante que fazem apenas o que os fabricantes querem, por exemplo, telefones
celulares).14 Surgia um pouco de cautela: a Internet não era necessariamente benéfico para a demo
Eugeny Morozov foi um dos primeiros a apontar como os governos autoritários estavam
aprendendo a usar a Internet para aumentar seu controle sobre a população . da
arquitetura original da rede.

Durante a expansão da Internet, vários atores intermediários na circulação da informação


surgiram e se tornaram cada vez mais poderosos. Assim, o Google (1998), por exemplo,
conquistou uma posição dominante no mercado de buscadores e tornou-se um ator
fundamental no acesso a informações até então desconhecidas. O YouTube (2005)
alcançou algo semelhante no mercado de vídeo online, devido ao aumento da velocidade
de conexão. O Facebook (2004) e o Twitter (2006) possibilitaram conectar as pessoas
ao replicar na Internet redes sociais físicas e criar novas.
Essas empresas passaram a concentrar grande parte do tráfego e, assim, um processo

12
Veja, por exemplo, os Princípios de Manila, em https://www.manilaprinciples.org/es. Para um ponto de vista oposto, ver J.
Kosseff, The Twenty-six Words That Created The Internet, Cornell University Press, Ithaca [New York], 2019, Cap. 7 (onde o autor
aponta que a seção 230 é um exemplo do “excepcionalismo” dos Estados Unidos, e argumenta que outros países adotaram
versões mais moderadas dessa disposição.
13 L. Lessig, Code, cit.
14 J. Zittrain, The Future Of The Internet and How To Stop It, cit., Cap. 1.
15 E. Morozov, The net delusion, cit.

7
Machine Translated by Google

de recentralização da rede.16 Esses atores se expandiram, adquiriram novos serviços


— em muitos casos, concorrentes diretos — e consolidaram suas posições dominantes
graças aos efeitos de rede que geram incentivos à participação nesses canais
centralizados (e aumento de custos de "desconexão").17
No âmbito desta recentralização, estas empresas intermediárias desenvolveram
termos de serviço e directrizes comunitárias que funcionam de facto de acordo com a
regulamentação da informação considerada aceitável em cada uma destas
plataformas. Além disso, eles abraçaram de forma mais decisiva seu papel de
moderadores quando introduziram timelines baseados em algoritmos que –
supostamente – buscam trazer aos usuários conteúdos mais “relevantes”, determinados
por padrões de consumo que as plataformas registram e exploram.18

Esses comportamentos sublinharam o papel essencial que essas empresas


desempenham nos eventos e levaram muitos legisladores ao redor do mundo a se
perguntar por que os órgãos representativos da democracia não podem intervir na
definição desses critérios . tempo, foi

16 Ver S. Hubbard («Fake News Is A Real Antitrust Problem», 12/2017, retirado de https://www.competitionpolicyinternational.com/fake-news-is-a-
real-antitrust-problem/ Último acesso: Janeiro/ 16/19), 2 (“Duas corporações têm um controle desproporcional sobre o fluxo de informações em todo
o mundo. O Google responde por cerca de 80% das buscas globais na Internet, e sua participação no mercado de buscas excede 90% na maioria
dos países europeus. todas as outras redes sociais, com dois bilhões de usuários ativos mensais”). Veja também Observacom («Ott Regulation.
Key Points For The Democratic Regulation Of “over-the-top”
Serviços Para Garantir uma Internet Livre e Aberta e o Pleno Exercício dos Direitos Digitais e da Liberdade de Expressão».
Observacom. Setembro de 2017.), 3:
“Em um cenário centralizado pela mídia tradicional, ficou claro que o mercado por si só não garantia a fundamental diversidade,
pluralismo e liberdade de expressão necessários à democracia. Com o surgimento da Internet, parecia que parte da racionalidade
que dava sentido e fundamento à regulação democrática poderia ter se perdido. Alguns atores importantes do ecossistema digital
afirmam que a regulação da Internet não é apenas perigosa, mas não deveria existir, pois não é mais necessária ou possível.
No entanto, após a fase inicial de operação de rede mais descentralizada e aberta, novos gargalos se formaram e a Internet
embarcou em uma crescente centralização entre apenas alguns atores do ecossistema digital que afetou seu potencial para servir
a toda a humanidade: isso foi sublinhado pela criador da World Wide Web, Tim Berners Lee. A tendência à concentração e as
ameaças à liberdade de expressão na Internet mostram que a diversidade e o pluralismo – e mesmo a noção de uma Internet
aberta e livre – precisam de garantias regulatórias para que possam se manter como valores e paradigmas das comunicações digitais modernas.”
17 Sobre este ponto, ver KS Baran; KJ Fietkiewicz; WG Stock («Monopólios em Serviços de Redes Sociais (sns) Mercados e Lei
da Concorrência», ISI, 2015.) (Descrevendo os efeitos de rede que levam a monopólios ou quase-monopólios nos mercados de
mídia social). Ver também E. Morozov (The net delusion, cit.), 217 (“Embora os ativistas possam minimizar sua exposição a
intermediários criando seus próprios sites independentes, é provável que seus esforços não recebam o tipo de atenção global que
receberiam em Facebook ou YouTube”).
18 Este modelo é diferente daquele que se baseava, pura e exclusivamente, nas escolhas do utilizador: dos “portais” que faziam a curadoria manual
da informação ao modelo “RSS feeds” que trazia informação de fácil acesso mas baseado na subscrição “expressa” de usuários. Sobre essa
mudança, veja MA DeVito; D. Gergle; J. Birnholtz (“Algorithms Ruin Everything”: #riptwitter, Folk Theories, And Resistance To Algorithmic Change In
Social Media,” CHI '17: Conferência CHI sobre Fatores Humanos em Sistemas Computacionais, Denver Colorado, EUA, 2 de maio de 2017, retirado
de https://dl.acm.org/doi/10.1145/3025453.3025659)

19 Neste ponto, as tendências são obviamente contraditórias: enquanto alguns querem endurecer os critérios das plataformas para lidar com vários
problemas (desinformação, difamação, violação de direitos autorais, discurso de ódio, etc.), outros querem proteger os usuários de decisões que
são arbitrário ou baseado em critérios obscuros.

8
Machine Translated by Google

acompanhado por uma demanda crescente de vários atores por maior responsabilidade e
prestação de contas.20 E isso, por sua vez, levou as plataformas a fazer muito mais do
que simplesmente “facilitar” o fluxo de informações: elas se tornaram “curadoras” desse
conteúdo, tanto por sua próprias razões (como o desenvolvimento de algoritmos de
recomendação de conteúdo) e pressão externa.21

Por fim, esse processo de concentração foi facilitado pela expansão de um modelo de
negócios que oferece esses serviços “gratuitamente” sob um sistema de publicidade
tradicional que utiliza a análise e os dados pessoais dos cidadãos para entregar mensagens
altamente personalizadas . alvo de críticas nos últimos anos, em parte motivados por
alguns escândalos que expuseram até que ponto a privacidade é comprometida neste
modelo, incluindo as revelações de Edward Snowden em 2013 ou o escândalo da
Cambridge Analytica e o uso de dados pessoais obtidos do Face book para fins políticos
propósitos em 2018.23 Esse modelo publicitário não está necessariamente em crise, mas
as críticas dos últimos anos contribuíram para a virada “pessimista”.

3. Desinformação como problema

Desde a eleição presidencial dos EUA em 2016, as principais plataformas intermediárias


parecem estar na defensiva. De forma regular e um tanto caótica, eles anunciaram e
implementaram mudanças em suas plataformas para combater o fenômeno da
desinformação. Eles também foram convocados para testemunhar em audiências informais
perante órgãos legislativos em todo o mundo. Além disso, eles

20 Sobre essa questão, a literatura sobre accountability e empresas de tecnologia parece ter aumentado exponencialmente nos últimos anos.
Veja S. Pearson; N. Wainwright («An Interdisciplinary Approach To Accountability For Future Internet Service Provision»,
International Journal of Trust Management in Computing and Communications, vol. 1, 1, 2013, retirado de https://www.inders
cienceonline.com/doi /abs/10.1504/IJTMCC.2013.052524); R. Gajanayake; R. Ianella; T. Sahama («Sharing With Care: An
Information Accountability Perspective», IEEE Internet Computing, vol. 15, 4, 2011.)
21 Cf. Observacom (“Regulamento Ott. Pontos-chave para a regulação democrática dos serviços «over-the-top» para garantir uma
Internet livre e aberta e o pleno exercício dos direitos digitais e da liberdade de expressão”, cit.), 9 (“ Esses intermediários deixam de
fornecer apenas suporte técnico e 'rotas de trânsito', mas muitas vezes afetam os conteúdos que circulam por essas vias, além de
monitorar todo o conteúdo produzido por terceiros, mas também intervir neles, ordenando e priorizando seu acesso e, portanto,
determinar quais conteúdos e fontes de informação um usuário pode ou não visualizar. Eles também podem bloquear, eliminar ou
desindexar conteúdos – como discursos protegidos pelo direito à liberdade de expressão – bem como contas ou perfis. Essas ações
são muitas vezes forçadas por pressões externas de autoridades governamentais ou outros atores privados, mas também pelas
decisões tomadas pelos próprios intermediários”). Ver também L. Lessig (Código, cit.), Cap. 6 (sobre a história da moderação do
conteúdo nas primeiras “comunidades”) da Internet e ST Roberts (“Content Moderation”, 2017.), 3-4 (chamando a atenção para uma
“nova escala” de moderação como consequência da concentração, impulsionado em parte pelos riscos “jurídicos, financeiros e
reputacionais” que essas empresas públicas que respondem aos seus acionistas devem enfrentar devido ao conteúdo gerado por usuários sem qualqu
22 Cf. D. Ghosh; B. Scott, «Digital Deceit: As tecnologias por trás da propaganda de precisão na Internet». Nova América, Washington DC
Janeiro de 2018.
23 Esse modelo já havia sido apontado por Lessig. Cf. L. Lessig, Code, cit., Cap. 11.

9
Machine Translated by Google

publicaram estudos e forneceram informações como parte dos esforços de transparência


visando aplacar seus críticos. Eles apoiaram e, em alguns casos, lideraram programas para
fortalecer o jornalismo de qualidade e a “verificação de fatos” como remédios menos problemáticos.

Essas reações não podem ser explicadas fora da virada pessimista descrita anteriormente. O
que está sendo questionado não é apenas o papel que desempenham no fluxo de informações
online, mas também o marco regulatório que, até agora, determinava as obrigações e
responsabilidades dos intermediários na Internet. O princípio da não responsabilidade dos
intermediários fazia sentido em uma rede descentralizada como a representada na Figura 1:
estabelecer responsabilidades nesse cenário implicava em dificultar, ao invés de favorecer, o
livre fluxo de informações.
Mas em uma rede centralizada, faz sentido manter o mesmo princípio?

O papel que as empresas assumem em questões de desinformação – em muitos casos, sob


crescente pressão social e política – apresenta um problema mais geral.
Esse problema pode ser evidenciado pela seguinte pergunta: quem lidava com a
desinformação antes da Internet? Os padrões de liberdade de expressão negavam ao Estado
qualquer autoridade para definir o que é verdadeiro e o que é falso: esse julgamento foi
reservado a cada um dos cidadãos que, no âmbito do livre mercado de ideias, pudessem
acessar diferentes pontos de vista e formar sua própria opinião. Esse arranjo não era apenas
um sinal de confiança em uma cidadania virtuosa: é uma regra para a adjudicação de poderes
e funções em uma sociedade democrática. O Estado não deve intervir na determinação do
que é verdadeiro e do que é falso, e isso explica por que a jurisprudência sobre liberdade de
expressão do século XX foi tão protetora desse direito em todo o mundo.

As atuais respostas das plataformas à desinformação agravam esse estado de coisas por
dois motivos: primeiro, porque essas empresas são em parte impulsionadas por demandas
estatais por maior ação, o que viola o princípio detalhado acima, sobre o papel do Estado no
discernimento entre o que é verdadeiro e o que é falso. De repente, o Estado legitimou
informalmente – por meio de demandas e pressões de alguns de seus funcionários – um ator
intermediário, central na circulação da informação, como árbitro da verdade. Na era da
Internet, parece que os cidadãos não podem mais fazer o que faziam antes. Em segundo
lugar, como empresas privadas, realizam essas ações no âmbito de um direito legalmente
protegido de raízes contratuais, sem mecanismos adequados de responsabilização ou
responsabilização. Em outras palavras, adicionamos um novo ator que toma decisões que
antes cabiam a cada indivíduo, e não é nem mesmo um ator que podemos influenciar por
meio de procedimentos democráticos.

10
Machine Translated by Google

Portanto, esses desafios apresentam um problema a ser resolvido: mantemos nosso


compromisso com a ampla liberdade de expressão e confiamos novamente que a melhor
resposta para informações falsas é a livre concorrência do mercado de ideias ou
desafiamos essa visão? No segundo caso, com o que o substituímos?

B. Ações

Para documentar as ações implantadas pelas plataformas nos últimos anos, as dividimos
em quatro categorias:

1. Ações de conscientização Aqui agrupamos as ações políticas das plataformas,


incluindo parcerias com outros atores, promoção de campanhas de educação,
alfabetização digital e midiática, etc. São ações que buscam construir um ecossistema
positivo em relação à desinformação, capacitar atores e estratégias que se espera
para combater o fenômeno. Por definição, eles não envolvem mudanças no código
ou nas políticas das plataformas.

2. Alterações no código. São ações que modificam o código das plataformas, ou seja,
a forma como funcionam. Isso inclui alterações nos algoritmos de recomendações,
visibilidade e escopo do conteúdo.

3. Mudanças de política e ações de moderação. Aqui nos referimos às ações que


modificam as políticas das empresas, tanto os Termos de Serviço (TOS) quanto as
políticas de moderação de conteúdo (diretrizes da comunidade). Nesta categoria,
também agrupamos ações que implementam políticas internas ou mandatos externos
para a remoção de conteúdo denunciado como ilegal ou contrário às diretrizes da
comunidade, em casos de desinformação.

4. Transparência e ações de relações públicas. Este grupo inclui as ações que revelam
informações sobre o funcionamento da plataforma, tanto as geradas diretamente
pelas plataformas quanto as que são resultado de pesquisadores independentes
com acesso a informações privilegiadas. Esta categoria também agrupa declarações
abstratas ou desejosas de plataformas sobre como lidar com o desafio da
desinformação.

Essas empresas não implantaram todas as ações ao mesmo tempo: cada ação tem sua
história, ligada à natureza temporária do fenômeno da desinformação e às mudanças de
atitude em relação à Internet no otimismo/pessimismo

11
Machine Translated by Google

binário. Seu objetivo era atender às demandas de usuários, sociedade civil e governos
sobre o papel central que adquiriram na circulação de informações na Internet como
consequência de seu sucesso.

As ações de conscientização (1) operam em um nível que envolve o investimento de


recursos das empresas, mas não impacta de forma alguma seu modelo de negócios. O
mesmo ocorre, embora em menor grau, com as ações de transparência e relações públicas
(4), que só podem ser vistas como “caros” do ponto de vista da livre concorrência (revelam
informações a adversários ou concorrentes). As ações de moderação envolvem o desenho
e implementação de políticas relacionadas ao conteúdo, como diretrizes comunitárias ou
termos de serviço (TOS), que podem acarretar custos elevados dependendo da
complexidade da estrutura (3). Por fim, as alterações no código afetam a operação dos
usuários dos serviços oferecidos pelas empresas e, embora essas modificações possam
ter um efeito disruptivo inesperado, devem ser vistas como as ações mais “radicais” dentro
do menu de opções disponíveis (2) .24

1. Ações de conscientização

São ações que visam alertar os usuários sobre campanhas de desinformação ou promover
o jornalismo de qualidade como uma resposta supostamente eficaz ao problema.
Essas ações também reúnem as diversas parcerias estabelecidas pelas empresas com
outros atores, principalmente com os meios de comunicação tradicionais e órgãos de
verificação.

uma. Apoio e promoção do jornalismo de “qualidade”

Google e Facebook têm apoiado iniciativas para fortalecer o jornalismo de “qualidade”.


Ambas as empresas concentraram esses esforços em duas iniciativas que parecem bastante

24 O anúncio de Mark Zuckerberg em 19 de novembro de 2016, cerca de dez dias após a eleição presidencial que levou Donald Trump à
presidência, é bastante revelador do que veio a seguir. Estas foram as medidas: (1) detecção mais forte, por meio de mecanismos automatizados;
(2) facilidade de comunicação, para facilitar a “detecção”; (3) avisos - Zuckerberg disse que estava “explorando” a possibilidade de rotular histórias
que haviam sido “relatadas” como falsas por “terceiros ou nossa comunidade”; (4) parcerias com “verificadores de fatos” e – em geral – ouvindo
mais o jornalismo e a indústria de verificação; (5) recomendação de artigos de “qualidade” (2). Zuc kerberg anunciou que iria “aumentar o nível”
da qualidade dos artigos apresentados em “artigos relacionados”; (6) mudanças nas políticas de anúncios para “alterar” a “economia das notícias
falsas” (3). Consulte M. Zuckerberg (Mark Zuckerberg On Disinformation, atualização de status do Facebook, 19/11/2016, recuperado de https://
www.facebook.com/zuck/posts/10103269806149061 Último acesso: 2/março/2020.).

12
Machine Translated by Google

semelhantes: o Projeto de Jornalismo do Facebook25 e a Iniciativa Google News.26

Em geral, a maioria dessas ações ocorreu nos Estados Unidos, Canadá e Reino Unido, mas
também se espalhou para outras partes do mundo. Em outubro de 2018, por exemplo, o
Projeto de Jornalismo do Facebook anunciou apoio a jornalistas árabes para combater a
desinformação27 e dois anos depois anunciou a expansão de seu programa “acelerador”
globalmente.28 Na América Latina, eles parecem ter chegado a alguns meios de comunicação
brasileiros .29 A Iniciativa Google News esteve por trás do lançamento do Reverso na
Argentina30 e apoiou o Impacto.jor, um projeto que visa medir o impacto da mídia.

Esse tipo de ação se baseia nesta premissa: os meios de comunicação tradicionais podem
ser atores importantes no combate à desinformação. No entanto, isso não é totalmente evidente.
Por exemplo, precisamos analisar situações particulares para entender se e em que medida
esses meios de comunicação mantêm seu papel de guardiões. Por outro lado, também não
está claro que a mídia tradicional sempre opere em posição contrária às campanhas de
desinformação: por exemplo, o estudo de Benkler, Faris e Roberts sobre a circulação da
informação nos Estados Unidos revelou que uma rede de notícias tradicional como já que a
Fox News desempenhou um papel central na alavancagem

25
Veja, por exemplo, Brown Campbell (Campbell Brown: Facebook está fazendo mais para apoiar as notícias locais, Campbell Brown: Facebook
Is Doing More to Support to Local News, 15/01/2019, recuperado de https://www.facebook.com/journalismproject/facebook-su pports-local-news
Último acesso: 11/03/2020.); J. Mabry; D. Mendoza (Facebook desenvolve treinamento e suporte para redações locais, Facebook desenvolve
treinamento e suporte para redações locais , 27/04/2017, retirado de https://www.facebook.
com/journalismproject/facebook-training-support-local-newsrooms Último acesso: 02/03/2020.); F. Dinkelspiel (Berkeleyside lançará site de notícias em
Oakland, será convertido em organização sem fins lucrativos, Berkeleyside, 10/12/2019, recuperado de https://www.berkeleyside.
com/2019/12/10/berkeleyside-to-launch-news-site-in-oakland-will-convert-to-nonprofit Último acesso: agosto/27/2020.). O Face book e a Mozilla
também apoiaram a News Integrity Initiative na escola de jornalismo da CUNY. Veja Poynter (Pode confiar nas notícias ser reparado? Facebook, Craig
Newmark, Mozilla e outros estão gastando US $ 14 milhões para tentar, Poynter, 04/03/2017, recuperado de https://www.poynter.org/tech-tools/ 2017/
pode-confiar-in-the-news-be-repaired-facebook-craig-newmark-mozilla-and-others-are-gasing- 14-million-to-try/ Último acesso: 02/03/2020.); J. Rutenberg;
M. Isaac («Facebook contrata Campbell Brown para liderar a equipe de parcerias de notícias», The New York Times, 06/01/2017, recuperado de https://
www.nytimes.com/2017/01/06/business/media/
facebook-campbell-brown-media-fake-news.html Último acesso: março/02/2020.)
26 Consulte https://newsinitiative.withgoogle.com/

27 MENA Herald, novo programa ajudará jornalistas árabes a classificar fatos da ficção nas mídias sociais, MENA Herald, 28/11/2018, recuperado de
https://www.menaherald.com/en/business/media-marketing/new-program -will-help-arab-journalists-sort-fact fiction-social-media Último acesso: março/
11/2020.).

28 D. Grant, What's Next For Facebook's Accelerator Program, Facebook Accelerator Program: What's Planned for 2020, 01/28/2020, obtido em
https://www.facebook.com/journalismproject/programs/accelerator/whats-next-2020 Último acesso: 13/03/2020.).

29 Cf. Ibid.

30 PJ Blanco, «Eleição de “fake News”: mais de 100 veículos lançam “reverso”, para combater a desinformação em campanha» [Eleições de “fake
news:” mais de 100 veículos lançam “reverso”, para combater Desinformação em campanha], Diario Clarín, 6/11/2019, recuperado de https://
www.clarin.com/politica/eleccion-fake-news-100-medios-lan-zan-reverso-grupo-combat-desinformacion- bell_0_QYwSO8kRP.html Último acesso:
13/03/2020.).

13
Machine Translated by Google

A estratégia de desinformação do presidente Trump diante do Robert Muller em


investigação.31

b. Aumentar a conscientização do usuário

Outras ações das plataformas buscaram conscientizar os usuários sobre a existência da


própria desinformação. Esse tipo de ação se apoia no paradigma descrito na seção
anterior, que estabelece que cabe ao cidadão definir o que é verdadeiro e o que é falso.
O objetivo parece duplo: educar os usuários desavisados ou surpresos com a circulação
caótica de informações que parece aumentar a cada dia e lembrar aos cidadãos de uma
comunidade política democrática que eles têm o dever de abordar criticamente o debate
público.

Assim, em abril de 2017, o Facebook, em colaboração com o First Draft, divulgou em


quatorze países uma série de “dicas” para identificar notícias falsas.32 No mesmo mês,
lançou campanhas em jornais alemães para aumentar a conscientização sobre o
fenômeno.33 O YouTube também anunciou workshops com adolescentes no Reino
Unido34 e o Google lançou uma iniciativa global semelhante.35 O Twitter também promoveu um Me

31 Y. Benkler; R. Faris; H. Roberts, Network Propaganda: Manipulation, Disinformation, and Radicalization in American Politics, Oxford University
Press, New York, NY, 2018, página 158 (“…vemos a Fox News assumindo um papel central de forma clara e distinta, desviando a atenção e culpa,
interpretando a investigação em termos profundamente partidários e semeando confusão e dúvidas. erros episódicos de um ator jornalístico…” [vemos
a Fox News no centro do palco de uma maneira muito mais clara e distinta, desviando a atenção e a culpa, interpretando a investigação em termos
profundamente partidários e semeando confusão e dúvida.

E é aqui também que o amplo e frouxo quadro gestáltico assume formas falseáveis distintas, cujo padrão se ajusta ao de uma campanha de
desinformação sustentada por um veículo de propaganda, ao invés de erros episódicos por um veículo jornalístico...”).

32 A. Mosseri, Uma nova ferramenta educacional contra a desinformação, Sobre o Facebook, 04/06/2017, retirado de https://about.
fb.com/news/2017/04/a-new-educational-tool-against-misinformation/ Último acesso: 02/03/2020 («Melhorar a alfabetização jornalística é uma
prioridade global, e precisamos fazer nossa parte para ajudar as pessoas entender como tomar decisões sobre quais fontes confiar»); C. Silverman,
Facebook quer ensinar você a identificar notícias falsas no Facebook, BuzzFeed News, 04/06/2017, obtido em https://www.buzzfeednews.com/article/
craigsilverman/facebook-wants-to-teach- você-como-descobrir-fake-news em#.erZ2mjEY2a Último acesso: 02/03/2020.).

33 «Facebook compra anúncios de página inteira na Alemanha em batalha com notícias falsas», Bloomberg.com, 13/04/2017, recuperado de https://
www.bloomberg.com/news/articles/2017-04-13/facebook-buys-full-page-ads-in-germany-in-battle-with-fake-news Último acesso: 02/03/2020.) .

34
BBC, Youtube oferece oficinas de notícias falsas para adolescentes, BBC Newsbeat, 20/04/2017, recuperado de http://www.bbc.
co.uk/newsbeat/article/39653429/youtube-to-offer-fake-news-workshops-to-teenagers Último acesso: 02/03/2020 («Naomi Gummer, chefe de políticas
públicas do YouTube UK, disse: “A a internet é o que queremos que seja. Pode ser um lugar desagradável onde as pessoas se entendem mal e
deliberadamente enganam umas às outras. Ou pode ser esse lugar incrível onde podemos compartilhar, colaborar, entender e ajudar uns aos
outros”).

35 P. Diwanji, «be Internet Awesome»: Helping Kids Make Smart Decisions Online, Google, 06/06/2017, retirado de https://
blog.google/technology/families/be-internet-awesome-helping-kids-make-smart-decisions-online/ Último acesso: 04/03/2020.).

14
Machine Translated by Google

Eracy Week em alguns de seus mercados.36

Esses tipos de ações não são muito problemáticos, mas as evidências sobre sua eficácia são
contraditórias. Esforços para combater informações falsas têm se mostrado, às vezes,
contraproducentes.37 No entanto, a intervenção preventiva parece ter efeitos positivos em alguns
casos, pois coloca as pessoas na defensiva de uma perspectiva cognitiva, e pode ser eficaz na
prevenção de possíveis efeitos epistêmicos da desinformação campanhas.38

c. Parcerias com verificadores e outros atores

A parceria com organizações que verificam informações parece ter surgido como a resposta preferida
das plataformas para enfrentar o problema da desinformação. O Facebook anunciou parcerias com
a Associated Press, 39 com o Boom para trabalhar no

mercado indiano,40 com o IFCN para melhorar a checagem de notícias, 41 e com a agência
Reuters.42 Em outubro de 2018, o Google lançou um mecanismo de busca especializado em
verificadores, incluindo atores latino-americanos.43 Parece haver uma estreita relação de trabalho
entre plataformas e agências de verificação, que proliferaram nos últimos tempos, como evidenciado
pelo projeto Reverso na Argentina.

36 Política pública do Twitter (Atualização: interferência russa nas eleições presidenciais americanas de 2016, blog do Twitter , 28/09/2017, obtido em
https://blog.twitter.com/en_us/topics/company/2017/Update-Russian- Interference-in-2016--Election-Bots-and-Mi sinformation.html Último acesso:
04/03/2020.); consulte https://medialiteracyweek.us/wp-content/uploads/2015/07/2017-me dia-literacy-week-press-release-final.pdf.

37 DJ Flynn; B. Nyhan; J. Reifler, «A Natureza e as Origens das Percepções Errôneas: Entendendo Crenças Falsas e Infundadas sobre a Política»,
Psicologia Política , vol. 38, S1, 2017, recuperado de https://onlinelibrary.wiley.com/doi/abs/10.1111/
pops.12394; Ver B. Nyhan; J. Reifler, «Estimativa dos Efeitos da Verificação de Factos». American Press Institute, Arlington, VA 2015.

38 Cf. J. Cook; S. Lewandowsky, «Desinformação e como corrigi-la», em Robert A Scott, Stephan M Kosslyn (eds.) Emer ging Trends in the Social
and Behavioral Sciences: An Interdisciplinary, Searchable, and Linkable Resource, 1, Wiley, 2015, páginas 6-7 recuperadas de https://
onlinelibrary.wiley.com/doi/book/10.1002/9781118900772. Além dessa estratégia, Cook e Lewandowski apontam que a força com que a informação
falsa é refutada e a explicação alternativa que “preenche a lacuna” deixada pela informação retirada dos modelos mentais utilizados para compreender
a informação em questão foram eficazes, sob condições experimentais, para fortalecer o efeito de refutação.

39 AP, Ap para desmascarar a desinformação eleitoral no Facebook, Associated Press, 03/07/2018, recuperado de https://www.ap.org/
press-releases/2018/ap-to-debunk-election-misinformation-on-facebook Último acesso: março/9/2020.).

40 P. Dixit, o Facebook finalmente começou a verificar notícias falsas em seu maior mercado, BuzzFeed News, 17/04/2018, recuperado de https://
www.buzzfeednews.com/article/pranavdixit/facebook-has-finally- start-fact-checking-fake-news-in-its Último acesso: 09/03/2020.).

41
Poynter, Ifcn e o projeto de jornalismo do Facebook anunciam a iniciativa de inovação de verificação de fatos, Poynter, 05/11/2019,
recuperado de https://www.poynter.org/fact-checking/2019/innovation-initiative/ Último acesso: agosto/ 27/2020.).

42 D. Patadia, «Reuters lança iniciativa de verificação de fatos para identificar desinformação, em parceria com o Facebook», Reuters, 12/02/2020,
recuperado de https://www.reuters.com/article/rpb-fbfactchecking-idUSKBN2061TG Último acesso: 27/08/2020.).

43 Recuperado de: https://toolbox.google.com/factcheck/

15
Machine Translated by Google

Esses tipos de parcerias também não apresentam problemas significativos do ponto de vista
da liberdade de expressão, e efeitos positivos têm sido relatados.44 No entanto, muitos
desafios persistem, incluindo seu impacto limitado sobre os menos informados ou menos
instruídos, que sua vez — são mais propensos a consumir informações falsas.45

2. Ações relacionadas ao código

Este grupo identifica as ações que modificam de alguma forma o código da plataforma.
Detecção, relatórios e recomendações para informações adicionais são ações típicas nesta
categoria.

d. Detecção de informações falsas

O modelo horizontal de produção de informação transforma grandes plataformas em canais


de conteúdo criados por terceiros. Mas, como observado acima, eles desempenham cada vez
mais um papel ativo de curadoria e moderação (Tabela 1). As empresas moldaram suas
políticas de moderação em função de seus próprios interesses econômicos e devido à pressão
de atores externos, como as exigências legais em vários países para combater formas de
expressão claramente proibidas, como pornografia infantil ou ameaças; a pressão social para
combater o discurso problemático, embora não necessariamente ilegal, como o chamado
discurso discriminatório; e a pressão política para enfrentar, por exemplo, problemas como o
que este estudo analisa.

Tabela 1 - Motivos que promovem a moderação de conteúdo por intermediários.


Motivos Positivo Negativo
O negócio a introdução de algoritmos como forma de gerar quando as empresas preferem que certas formas de
conteúdo mais relevante e aumentar o discurso não estejam em suas plataformas
engajamento do usuário
Social quando a sociedade pede certas formas de discurso quando a sociedade rejeita certas formas de discurso
(por exemplo, campanhas de conscientização do e pede ação contra elas (por exemplo, discurso de ódio)
bem público)

Político aqueles que se originam no diálogo e aqueles que vêm de pressão do sistema político
alianças (por exemplo, autoridades eleitorais) (investigações legislativas)

Jurídico as demandas feitas por certos conteúdos ou aqueles que estabelecem obrigações em termos de
práticas expressão proibida

44 B. Nyhan; J. Reifler, “Estimating Fact-checking's Effects”, cit.


45 Cf. G. Pennycook; DG Rand, «Quem se apaixona por notícias falsas? The Roles Of Analytic Thinking, Motivated Reasoning,
Political Ideology, And Bullshit Receptivity», SSRN Electronic Journal, 2017, retirado de https://www.ssrn.com/abstract=3023545.

16
Machine Translated by Google

No âmbito dessas ações gerais de moderação, algumas ações visam “detectar” informações
falsas. São ações que recorrem a métodos diferentes, mas partem da mesma premissa: a
desinformação é um tipo de discurso indesejável dentro desses serviços.46 Na implementação
dessa política, o primeiro desafio sempre foi identificar conteúdos falsos com algum grau de
precisão , e para isso, as plataformas parecem ter recorrido a duas estratégias: relatórios de
usuários e detecção automática.

A primeira abordagem simplesmente pede aos usuários que denunciem o conteúdo suspeito
de ser falso, por exemplo, por meio de “pesquisas” nas quais o feedback é solicitado47 ou
dando a possibilidade de “denunciar” o conteúdo como falso. O Google implementou a opção
de relatar recomendações automáticas ao inserir texto no mecanismo de busca48 e o Twitter
configurou — em abril de 2019 — uma nova modalidade de relatório que inclui “informações
falsas sobre eleições”,49 embora essa opção ainda não esteja disponível na América Latina.50

A segunda abordagem baseia-se no desenvolvimento de ferramentas tecnológicas capazes


de detectar automaticamente conteúdos falsos, com base em algoritmos, inteligência artificial
e aprendizado de máquina. Assim, por exemplo, o Facebook anunciou a adoção de cri

46 Este momento parece estar ligado às eleições presidenciais de 2016 nos Estados Unidos. Veja T. Gillespie, Custodians Of The Internet: Plat
forms, Content Moderation, And The Hidden Decisions That Shape Social Media, Yale University Press, New Haven, 2018, pp.
65-66. Esse ponto é interessante porque havia alguma ambiguidade por parte das plataformas em relação às suas próprias capacidades de
“monitorar” esse conteúdo.

47 Ver C. Zang; S. Chen, Using Qualitative Feedback To Show Relevant Stories, About Facebook, 02/01/2016, recuperado de https://about.fb.com/
news/2016/02/news-feed-fyi-using-qualitative-feedback -to-show-relevant-stories/ Último acesso: 02/03/2020.).

48
O «projeto Coruja» do Google -- Um ataque triplo a notícias falsas e conteúdo problemático, Search Engine Land, 25/04/2017,
recuperado de https://searchengineland.com/googles-project-owl-attack-fake-news-273700 Último acesso: 07/05/2020.

49 Segurança no Twitter, fortalecendo nossa abordagem para tentativas deliberadas de enganar os eleitores, blog do Twitter, 24/04/2019, obtido
em https://blog.twitter.com/en_us/topics/company/2019/strengthening-our-approach- to-deliberate-attempts-to-mis lead-vot.html Último acesso:
março/11/2020.).
50
Hugo TwitterGov, Qualidade da informação durante as eleições [Qualidade da informação durante as eleições], 2020 (em arquivo com o autor),
pp.4-5 (“É importante que esta política seja aplicada globalmente e embora a ferramenta como tal ainda não seja disponível na América Latina, o
plano é implementá-lo em todo o mundo o mais rápido possível, mas devemos mencionar que a ausência da ferramenta de divulgação pública até o
momento, isso de forma alguma implica a ausência de aplicação dessa ferramenta. , na medida em que: i) o Twitter aplica suas regras de forma
proativa (mais de 50% do conteúdo ativado por nós é detectado de forma proativa, sem nenhum relato do usuário) e ii) a equipe de Políticas Públicas
para a América Latina de língua espanhola trabalha constantemente para estabelecer um canal de comunicação com as diferentes autoridades
eleitorais da região (por exemplo, Argentina, Colômbia e México) para denunciar conteúdo ou em violação de nossas políticas de conteúdo
publicitário ou regulamentos locais a esse respeito” [É importante que esta política seja aplicada globalmente e, embora a ferramenta como tal ainda
não esteja disponível na América Latina, o plano é implementá-la em todo o mundo como assim que possível. No entanto, devemos mencionar que
a ausência da ferramenta de denúncia pública até agora em nenhum sentido implica a ausência de implementação desta política, na medida em
que: i) o Twitter aplica suas regras de forma proativa (mais de 50% do conteúdo questionado por nós é detectado proativamente, sem qualquer
denúncia do usuário) e ii) a equipe de Políticas Públicas para a América Latina de língua espanhola trabalha constantemente para estabelecer um
canal de comunicação direta com as diferentes autoridades eleitorais da região (por exemplo, Argentina, Colômbia e México) para denunciar
conteúdos que viola nossas políticas sobre conteúdo de publicidade ou regulamentos locais a esse respeito]).

17
Machine Translated by Google

critérios baseados no comportamento do usuário para classificar o conteúdo como


sensacionalista ou não sensacionalista51 (embora tenha mudado sua abordagem após uma
publicação satírica ser incorretamente classificada como falsa52). Por outro lado, em janeiro
de 2019, o YouTube anunciou que buscaria “reduzir o volume” de conteúdo que, embora
não viole suas políticas internas, está “próximo” de violá-las.53 O compromisso com esse
tipo de ferramenta é baseada na escalabilidade potencial de uma solução bem-sucedida.
No entanto, é difícil: detectar conteúdo falso é complexo e mesmo quando é relativamente
fácil (por exemplo, no caso de deepfakes) é muito provável que exija intervenção humana
para, entre outras coisas, distinguir um conteúdo meramente satírico de uma desinformação campanha

e. Dando contexto às informações “rotulando” o conteúdo

Outra ação que várias plataformas têm adotado nos últimos tempos tem a ver com a
“rotulagem” dos conteúdos para dar mais contexto à informação. Assim, por exemplo, em
junho de 2019, o Twitter anunciou que rotularia postagens de políticos ou figuras públicas
que violassem suas regras e que, em outras circunstâncias, seriam desplataformadas.55
Essa ação tornou-se especialmente controversa quando passou a rotular postagens de
então- Presidente dos Estados Unidos, Donald Trump.56 Facebook

51 M. Zuckerberg, Building Global Community, Facebook, 16/02/2017, obtido em https://www.facebook.com/notes/


mark-zuckerberg/building-global-community/10154544292806634 Último acesso: março/2/2020.).

52 E. Wemple, «Facebook Working On Approach To Classifying Satirical News Pieces - The Washington Post», The Washington Post, 05/03/2018,
retirado de https://www.washingtonpost.com/blogs/erik-wemple/ wp/2018/03/05/facebook-work ing-on-approach-to-classifying-satirical-news-pieces/
Último acesso: 07/05/2020.
53
YouTube, Continuando nosso trabalho para melhorar as recomendações no Youtube, Blog oficial do YouTube , 25/01/2019, recuperado
de https://youtube.googleblog.com/2019/01/continuing-our-work-to-improve.html Último acesso: março/11/2020.).
54
Veja, por exemplo, um relatório de progresso do Facebook a esse respeito em T. Lyons (Increasing Our Efforts To Fight False News, About Face
book, 21/06/2018, recuperado de https://about.fb.com/news/2018/ 06/aumentar-nossos-esforços-para-combater-notícias-falsas/ Último acesso:
14/07/2020.). Sobre os desafios da IA para combater a desinformação, consulte SC Woolley (We're Fighting Fake News Ai Bots By Using More Ai.
That's A Mistake., MIT Technology Review, 01/08/2020, recuperado de https://www.technologyreview .
com/2020/01/08/130983/were-fighting-fake-news-ai-bots-by-using-more-ai-thats-a-mistake/ Último acesso: 14/07/2020.).

55 E. Dwoskin; T. Romm «Twitter adiciona rótulos para tweets que quebram suas regras – um movimento com implicações potencialmente severas
para a conta de Trump», The Washington Post, 27/06/2019, recuperado de https://www.washingtonpost.com/technology/2019 /06/27/
twitter-adds-labels-tweets-that-break-its-rules-putting-president-trump-companys-crosshairs/ Último acesso: março/11/2020.).
56 D. Alba; K. Congro; R. Zhong, «Twitter acrescenta avisos aos tweets de Trump e da Casa Branca, alimentando tensões», The New York
Times, 29/05/2020, recuperado de https://www.nytimes.com/2020/05/29/technology/trump-twitter-minneapolis-george-floyd.
html Último acesso: 14/07/2020; J. Byrnes, Twitter sinaliza tweet de Trump sobre manifestantes por incluir «ameaça de dano», TheHill, 23/06/2020,
recuperado de https://thehill.com/policy/technology/504133-twitter-flags-trump-tweet- em-manifestantes-por-incluir -ameaça-de-dano Último acesso:
14/07/2020; K. Conger, «O Twitter estava desenhando uma linha por meses quando Trump a cruzou», The New York Times, 30/05/2020, recuperado
de https://www.nytimes.com/2020/05/30/technology/ twitter-trump-dorsey.
html Último acesso: 14/07/2020; A. Wiener, Trump, Twitter, Facebook e The Future Of Online Speech, The New Yorker, 07/06/2020, obtido em https://
www.newyorker.com/news/letter-from-silicon-valley/trump -twitter-facebook-and-the-fu ture-of-online-speech Último acesso: julho/10/2020.

18
Machine Translated by Google

anunciou em junho de 2020 que rotularia meios de comunicação pertencentes a estados


estrangeiros, como a agência russa Sputnik 57 e em agosto o Twitter fez um anúncio
semelhante.58 Da mesma forma, as plataformas também anunciaram que identificariam
os pontos de origem de vários conteúdos.59 Além disso, o Twitter anunciou que, em
certos casos, pediria aos usuários que confirmassem sua intenção de republicar certas
informações antes de enviá-las.60

Dar contexto às informações alcançou novos níveis durante as eleições presidenciais


dos EUA em 2020, quando começou a rotular postagens do ex-presidente Donald J.
Trump que deliberadamente desinformavam sobre supostas “fraudes” nas eleições61.

Este último caso destaca alguns dos problemas envolvidos nessas ações voltadas ao
contexto exigente. Se se limita a fornecer mais contexto, não é muito arriscado do ponto
de vista da liberdade de expressão, mas pode ser problemático se essa rotulagem tiver
algum efeito na forma como a informação circula; por exemplo, se afetar negativamente
o algoritmo de recomendação de conteúdo. Por outro lado, essas ações de moderação
enfrentam um desafio considerável em termos de escala, replicabilidade e gestão dos
padrões usados para identificar cada caso: a aplicação consistente da norma em
diferentes países e contextos diferentes promete ser um desafio considerável e numerosos
os críticos apontaram que, embora os tweets de Trump merecessem ser rotulados, tweets
semelhantes de outros líderes políticos ou de opinião não receberam o mesmo tratamento.

57 N. Gleicher, Labeling State-Control Media On Facebook, About Facebook, 06/04/2020, retirado de https://about.
fb.com/news/2020/06/labeling-state-control-media/ Último acesso: agosto/ 27/2020.

58 Suporte do Twitter, Novos rótulos para contas de mídia afiliadas ao governo e ao Estado, Blog do Twitter , 08/06/2020, obtido em https://
blog.twitter.com/en_us/topics/product/2020/new-labels-for- contas de mídia afiliadas ao governo e ao estado.
html Último acesso: agosto/ 27/2020.

59 A. Joseph, Tornando as páginas e contas mais transparentes, Sobre o Facebook, 22/04/2020, obtido em https://about.
fb.com/news/2020/04/page-and-account-transparency/ Último acesso: 27/08/2020; R. Wong, Google está dando outro grande passo para impedir a
disseminação de notícias falsas, Mashable, 17/12/2017, obtido em https://mashable.com/2017/12/17/goo gle-news-no-hiding- country-origin-stop-
fake-news/ Último acesso: março/6/2020.

60 Suporte do Twitter, Suporte do Twitter No Twitter: “Compartilhar um artigo pode desencadear uma conversa, então você pode querer lê-lo antes
de tweetá-lo. Para ajudar a promover uma discussão informada, estamos testando um novo prompt no Android –– Quando você retweeta um artigo
que não abriu no Twitter, podemos perguntar se você gostaria de abri-lo primeiro., Twitter, 06/10 /2020, obtido em https://twitter.com/TwitterSupport/
status/1270783537667551233 Último acesso: 27/08/2020.
61 A situação se agravou de forma persistente, com os rótulos como ferramenta preferencial, até que, em 6 de janeiro de 2021, uma
manifestação perante o Congresso dos Estados Unidos avançou sobre as forças de segurança e invadiu o complexo onde os resultados
das eleições estavam sendo validados. Após o incidente, várias plataformas suspenderam a conta do presidente alegando que ele havia
incitado essa “insurreição” em parte por meio de suas instâncias de desinformação. No caso do Facebook, seu Conselho Fiscal decidiu
levar o caso para se pronunciar sobre o assunto. Veja S. Tavernise; M. Rosenberg, “Estes são os desordeiros que invadiram o Capitólio da Nação,”
The New York Times, 08/01/2021, recuperado de https://www.nytimes.com/2021/01/07/us/names-of-rioters-capitol.html Último acesso: 2 de fevereiro
de 2021; D. Ghosh; J. Hendrix, Conselho de Supervisão do Facebook assume o curioso caso de Donald J. Trump, Verfassungsblog, 29/01/2021,
recuperado em https://verfassungsblog.de/fob-trump/ Último acesso: 02/02/2021.

19
Machine Translated by Google

f. Mais jornalismo de qualidade e verificação

Às vezes, as parcerias com verificadores envolvem mudanças no código das plataformas.


Por exemplo, o Google anunciou que os verificadores receberiam um lugar privilegiado nos
resultados de busca quando as referidas informações fossem devidamente verificadas por
um verificador reconhecido,62 uma mudança que — mais tarde — também introduziu no
Google News.63 Anunciou também que priorizar o jornalismo de qualidade em seu buscador,64
algo que o Facebook também anunciou sobre mudanças em seu algoritmo.65

Em abril de 2017, o Facebook anunciou que “artigos relacionados” teriam uma posição mais
proeminente, antes que os usuários lessem determinado conteúdo.66 Isso inclui a promoção
ativa de informações verificadas quando mecanismos de detecção automatizados enviam
conteúdo suspeito para verificadores independentes e — após o correspondente “ check”
— esses artigos poderiam ser exibidos abaixo do artigo original.67 Da mesma forma, adotou
ações contra o cloaking, técnica utilizada para evitar controles internos,68 spam,69 e
clickbait. 70 Em outubro de 2017, o Facebook
de testes,
também
paraanunciou
oferecer um
maisnovo
informações
botão, em fase
contextuais sobre

62 Cf. A. Mantzarlis (Google Is Now Highlighting Fact Checks In Search, Poynter, 04/07/2017, recuperado de https://www.
poynter.org/fact-checking/2017/google-is-now-highlighting-fact-checks-in-search/ Último acesso: 02/03/2020.); A. Mantzar lis (Google News Now Has A
«fact Check» Tag, Poynter, 13/10/2016, obtido em https://www.poynter.org/fact-check ing/2016/google-news-now-has -a-fact-check-tag/ Último acesso:
02/03/2020.). O comportamento não pôde ser verificado, depende do uso de várias tecnologias, como por exemplo schema.org

63 J. Lichterman, Google News lança um redesenho simplificado que dá mais destaque à verificação de fatos, Nieman
Laboratório, 27/06/2017, recuperado de https://www.niemanlab.org/2017/06/google-news-launches-a-streamlined-redesign-that give-more-prominence-to-
fact-checking/ Último acesso: 04/03/2020.

64 R. Gingras, Elevating Original Reporting In Search, blog do Google, 12/09/2019, obtido em https://blog.google/products/
search/original-reporting Último acesso: março/11/2020; D. Osborn, Smarter Organization Of Top Stories In Search, Google, 11/12/2019, obtido em https://
blog.google/products/search/smarter-organization-top-stories-search/ Último acesso: agosto/ 27/2020.

65 S. Fischer, Axios Media Trends: Facebook To Change Its Algorithm, Axios, 30/06/2020, recuperado de https://www.axios.
com/newsletters/axios-media-trends-40d2f971-c434-4359-8a0f-7fa4155626bc.html Último acesso: 27/08/2020.

66 S. Su, Novo teste com artigos relacionados, Sobre o Facebook, 25/04/2017, obtido em https://about.fb.com/news/2017/04/
news-feed-fyi-new-test-with-related-articles/ Último acesso: 02/03/2020.

67 Ibid. («Agora, começaremos a usar o aprendizado de máquina atualizado para detectar mais fraudes em potencial para enviar a verificadores de fatos
de terceiros. Se um artigo foi revisado por verificadores de fatos, podemos mostrar as histórias de verificação de fatos abaixo da postagem original. Além
disso, Para ver quais histórias são contestadas por verificadores de fatos terceirizados, as pessoas querem mais contexto para tomar decisões informadas
sobre o que lêem e compartilham. Continuaremos testando atualizações de Artigos Relacionados e outros esforços contínuos do Feed de Notícias para
mostrar menos notícias falsas no Facebook e fornecer contexto às pessoas se elas virem notícias falsas»).

68 R. Leathern, Addressing Cloaking So People See More Authentic Posts, About Facebook, 08/09/2017, obtido em https://about.fb.com/news/2017/08/
news-feed-fyi-addressing-cloaking -so-people-see-more-authentic-posts/ Último acesso: março/4/2020.

69 A. Mosseri, mostrando links mais informativos no feed de notícias, sobre o Facebook, 30/06/2017, retirado de https://about.
fb.com/news/2017/06/news-feed-fyi-showing-more-informative-links-in-news-feed/ Último acesso: 04/03/2020.

70 A. Babu; A. Liu; J. Zhang, New Updates To Reduce Clickbait Headlines, About Facebook, 17/05/2017, obtido em https://about.fb.com/news/2017/05/
news-feed-fyi-new-updates-to- reduce-clickbait-headlines/ Último acesso: março/4/2020.

20
Machine Translated by Google

artigos,71 que mais tarde se tornaram os Indicadores de Confiança.72 O Google também desenvolveu
uma ferramenta semelhante (Painéis de Conhecimento) que permite que seu mecanismo de pesquisa
saiba mais sobre a origem das informações.73 Em março de 2018, o YouTube anunciou que a Wikipédia
vincularia informações a vídeos que promoviam teorias da conspiração74 e, em fevereiro de 2019, fez um
anúncio semelhante em relação à Índia, vinculado à publicação de checagem de fatos.75

g. Proibindo alguns comportamentos

Uma das estratégias preferidas das plataformas para combater a desinformação é direcionar os
“comportamentos” dos usuários que podem estar relacionados a campanhas de desinformação. Assim,
por exemplo, é possível que esse tipo de campanha seja alimentada por contas anônimas, que deixem
traços de comportamentos específicos - uma tendência desarrazoada de retweetar, enviar ou divulgar
informações, buscar instalar tendências -, ou que sejam simplesmente bots, ou seja, contas acionadas
por um código,
automaticamente (por exemplo, retweetar algumas contas ou conteúdos ou publicar informações
periódicas de determinadas características, etc.). Essa estratégia é de certa forma “preferida” pelas
plataformas porque evita a espinhosa questão de definir a desinformação: não é mais necessário
determinar se determinado conteúdo é falso, mas basta detectar comportamentos proibidos, tarefa que
pode ser feito de forma objetiva e por meio de processos automatizados.

O Twitter destacou esse ponto em particular.76 Entre suas principais estratégias para combater a
desinformação, incluiu não apenas a detecção de comportamentos que revelam práticas que violam os
TOS da empresa, mas também tentativas de impedir que atores mal-intencionados “vençam”

71 A. Anker, New Test To Provide Context About Articles, About Facebook, 10/05/2017, retirado de https://about.fb.com/
news/2017/10/news-feed-fyi-new-test-to-provide-context-about-articles/ Último acesso: 06/03/2020.

72 A. Anker, lançando novos indicadores de confiança do projeto Trust For News no Facebook, Facebook For Media, 17/11/2017, obtido em https://
www.facebook.com/facebookmedia/blog/launching-new-trust- indicadores-de-confiança-projeto-para- notícias-no-facebook Último acesso: março/
6/2020 («Inicialmente, estamos testando esses indicadores de confiança com um pequeno grupo de editores, com planos de expansão mais ampla
nos próximos meses »).
73 Google, Saiba mais sobre editores No Google, Google, 17/11/2017, obtido em https://blog.google/products/
search/learn-more-about-publishers-google/ Último acesso: 13/03/2020.

74 C. Newton, Youtube adicionará informações da Wikipedia a vídeos sobre conspirações, The Verge, 13/03/2018, recuperados de https://
www.theverge.com/2018/3/13/17117344/youtube-information-cues -conspiracy-theories-susan-wojcicki-sxsw Último acesso: março/9/2020.

75
Dixit , Pranav, Youtube está lançando um recurso que mostra verificações de fatos quando as pessoas pesquisam tópicos sensíveis -information-
pan els-india Último acesso: março/11/2020.

76 Política pública do Twitter, Atualização, cit.

21
Machine Translated by Google

o sistema, por exemplo, manipulando os trending topics.77 Sobre esta questão, o Twitter relatou:

“Interpretamos “manipulação da plataforma” como o uso do Twitter com a finalidade de


amplificar ou suprimir artificialmente informações ou realizar ações que manipulem ou
dificultem a experiência dos usuários no Twitter. Nesse sentido, proibimos ações
massivas, de alta intensidade ou enganosas que confundem os usuários ou dificultam
sua experiência. Existem muitas maneiras de manipular a plataforma, e nossas regras
visam neutralizar uma ampla variedade de comportamentos proibidos, por exemplo,
spam para fins comerciais, que geralmente visa desviar o tráfego ou a atenção de uma
conversa do Twitter para outras contas, sites, produtos, serviços ou iniciativas; interações
falsas que visam fazer com que contas ou conteúdo pareçam mais populares ou ativos
do que realmente são; e atividades coordenadas que visam influenciar artificialmente
as conversas por meio do uso de várias contas, contas falsas, ações automáticas ou
scripts.78

O Facebook opta por um modelo semelhante, mas com uma política diferente: ali são banidas
contas anônimas - o Facebook quer que cada um de seus usuários associe sua identidade real à
sua conta.79 Como no caso do Twitter, as medidas tomadas pelo Facebook em isso permite evitar
a necessidade de analisar o conteúdo das postagens, levando a (a) uma ferramenta de moderação
automatizada que (b) não depende de análises de conteúdo complicadas.80 Assim, por exemplo,
em agosto de 2017, a empresa anunciou

77 N. Confessora; GJX Dance, «Battling Fake Accounts, Twitter To Slash Millions Of Followers», The New York Times, 11/07/2018, recuperado de
https://www.nytimes.com/2018/07/11/technology/twitter-fake -followers.html Último acesso: março/11/2020; Cf. Política pública do Twitter,
Atualização, cit.
78
Hugo TwitterGov, “Qualidade da informação durante as eleições”, cit., p. dois.

79 S. Shaik, Melhorias na proteção da integridade da atividade no Facebook, Facebook, 13/04/2017, obtido em https://www.facebook.com/notes/
facebook-security/improvements-in-protecting-the-integrity -of-activity-on-face book/10154323366590766 Último acesso: março/2/2020 («As
pessoas vêm ao Facebook para fazer conexões significativas. Desde o início, acreditamos que isso só será possível se as interações aqui forem
autênticas – e se as pessoas usam os nomes pelos quais são conhecidas. Descobrimos que quando as pessoas se representam no Facebook da
mesma forma que fazem na vida real, elas agem com responsabilidade. Contas falsas não seguem esse padrão e estão intimamente relacionadas
com a criação e disseminação de spam. É por isso que estamos tão focados em manter essas contas inautênticas e suas atividades fora de nossa
plataforma»).

80 Ibid. («Fizemos melhorias para reconhecer essas contas inautênticas mais facilmente, identificando padrões de atividade — sem avaliar o
conteúdo em si. Por exemplo, nossos sistemas podem detectar postagens repetidas do mesmo conteúdo ou um aumento nas mensagens
enviadas. Com essas alterações , esperamos também reduzir a disseminação de material gerado por meio de atividade inautêntica, incluindo
spam, desinformação ou outro conteúdo enganoso que muitas vezes é compartilhado por criadores de contas falsas»); J. Weedon; W. Nuland; A.
Stamos, «Operações de Informação e Facebook». Facebook, Palo Alto, Califórnia. 27 de abril de 2017.
Páginas 10 (“Por meio de avanços técnicos, estamos aumentando nossas proteções contra contas falsas criadas manualmente e usando novas
técnicas analíticas, incluindo aprendizado de máquina, para descobrir e interromper mais tipos de abuso. Construímos e atualizamos sistemas
técnicos todos os dias para facilitar para responder a denúncias de abuso, detectar e remover spam, identificar e eliminar contas falsas e impedir
que contas sejam comprometidas. Fizemos melhorias recentes para reconhecer essas contas inautênticas

22
Machine Translated by Google

que bloquearia anúncios de páginas que "repetidamente" compartilham informações falsas.81

Esses tipos de estratégias parecem ter sido adotados para lidar com os “falsos
amplificadores”, os esforços para viralizar certas informações por meio de várias técnicas,
como a criação de contas falsas, a coordenação de certas mensagens, memes etc. caso
do Facebook — que não permite contas anônimas — a remoção de contas falsas torna-
se uma ótima proxy para enfrentar esse tipo de comportamento, que em plataformas de
redes sociais como o Twitter (que protege o direito ao anonimato dos usuários) parece
mais complicado .83 Da mesma forma, o Facebook também baniu “links” em anúncios e
histórias falsas.84

No Twitter, a luta contra os bots se justifica, pois eles buscam “minar o núcleo da
funcionalidade do serviço”. Em março de 2018, anunciou uma série de medidas de
restrição aos anunciantes que estavam abusando das políticas da empresa.87

Como as campanhas de desinformação são construídas em estratégias específicas de


disseminação de informações, é possível “combater” a desinformação limitando ou
lutando contra essas estratégias. Mas isso apresenta dois problemas. Em primeiro lugar,
a linha que separa —por exemplo— “ações coordenadas” de simples campanhas políticas
é muito indistinta.88 Da mesma forma, não é certo que as plataformas possam gerenciar isso.

contas mais facilmente identificando padrões de atividade — sem avaliar o conteúdo da conta por conta própria .10 Por exemplo, nossos sistemas
podem detectar postagens repetidas do mesmo conteúdo ou aberrações no volume de criação de conteúdo. Na França, por exemplo, a partir de 13 de
abril, essas melhorias recentemente nos permitiram agir contra mais de 30.000 contas falsas”).

81 S. Shukla; T. Lyons, Bloqueando anúncios de páginas que compartilham notícias falsas repetidamente, Sobre o Facebook, 28/08/2017, obtido em
https://about.fb.com/news/2017/08/blocking-ads-from-pages- that-repeatedly-share-false-news/ Último acesso: março/4/2020 («A atualização de hoje
ajuda a interromper os incentivos econômicos e conter a disseminação de notícias falsas, o que é mais um passo para construir uma comunidade mais
informada no Facebook») .

82 Cf. J. Weedon; W. Nuland; A. Stamos, “Operações de Informação e Facebook”, cit., p. 9.

83 Cf. Ibid. («No caso do Facebook, observamos que a maior parte da falsa amplificação no contexto das operações de informação não é impulsionada
por processos automatizados, mas por pessoas coordenadas que se dedicam a operar contas inautênticas»).

84 S. Shukla; T. Lyons, “Bloqueando anúncios de páginas que repetidamente compartilham notícias falsas”, cit.

85 C. Crowell, Our Approach To Bots And Misinformation, Twitter Blog, 14/06/2017, obtido em https://blog.twitter.com/
pt_us/topics/company/2017/Our-Approach-Bots-Misinformation.html Último acesso: 04/03/2020.

86 R. Wong, Google está dando outro grande passo para impedir a disseminação de notícias falsas, cit.

87 I. Lunden (Google removeu 2.3b anúncios ruins, anúncios banidos em 1,5 milhão de aplicativos + 28 milhões de páginas, planeja novo gerente de
política este ano, TechCrunch, 14/03/2018, recuperado de http://social.techcrunch.com/2019 /03/13/google-removed-2-3b-bad-ads-1-5m bad-apps-
and-28m-bad-pages-plans-new-policy-manager-this-year/ Último acesso: março/9 /2020.); S. Spencer (An Adverti sing Ecosystem That Works For
Everyone, Google - The Keyword, 14/03/2018, recuperado de https://blog.google/technology/
ads/advertising-ecosystem-works-everyone/ Último acesso: 9/março/2020.)

88 S. McGregor, «What Even Is “Coordinated Inauthentic Behavior” On Platforms?», Wired, 17/09/2020, retirado de https://
www.wired.com/story/what-even-is-coordinated-inauthentic-behavior-on-platforms/ Último acesso: 22/09/2020 (“Essa ambiguidade e aplicação
inconsistente, bem como a maneira não baseada em princípios em que o conteúdo político é moderado,

23
Machine Translated by Google

aproximar-se facilmente. Por outro lado, tem um custo. Considere, por exemplo, as
restrições impostas pelo WhatsApp sobre o número de vezes que determinadas mensagens
podem ser enviadas. A restrição pressupõe que o conteúdo que está sendo encaminhado
é problemático e — por definição — limita o escopo da mensagem. Isso, em países
autoritários onde a tecnologia de mensagens privadas criptografadas pode ter algum tipo
de papel no livre fluxo de informações, é um problema e não uma solução.

3. “Política” e moderação
As ações e decisões das plataformas têm a ver com seu posicionamento e seus princípios
em relação a essa questão, ou “escolhas de política”. Essas escolhas buscam estabelecer
uma posição sobre o papel que eles próprios designam no fluxo de informações on-line e
impactam tanto em seu desenho interno quanto em suas posições públicas.
Como veremos a seguir, essas posições mudaram ao longo do tempo e tiveram impactos
transversais, principalmente na autorregulação e nas regras de moderação. Talvez a
mudança mais proeminente e memorável para exemplificar esse ponto tenha sido a
mudança de 2019 no slogan do Twitter: do princípio orientador de falar a verdade ao
poder, a empresa passou a “promover uma conversa pública saudável”.

Até 2019, entre as empresas analisadas, prevalecia uma posição de recusa em adotar um
papel de controle sobre a veracidade ou falsidade das informações, o que resultou em
declarações e posicionamentos públicos e na adoção de regras específicas sobre os
conteúdos permitidos em suas plataformas. Assim, por exemplo, o CEO do Facebook
afirmou que “não verificamos o que as pessoas dizem antes de dizerem e, francamente,
não acho que a sociedade queira que façamos.”90 Logo após a eleição presidencial de 2016, seu CE

exacerba as ameaças ao processo eleitoral , bem como a própria capacidade das plataformas de se defenderem de críticas de ambos os lados do
contraponto a ameaça ao processo eleitoral, bem como a capacidade das plataformas de se defenderem de críticas de ambos os lados do o
problema]).

89
CELE, Comentário em resposta às alterações propostas pelo Twitter às regras sobre conteúdo desumanizante [Comentários à proposta de
alteração do Twitter nas regras relativas a “Conteúdo desumanizante”], https://www.palermo.edu/Archivos_con tent/2020/cele/ March/
Internet_and_Derechos_HumanosIII.pdf
90
“…Zuckerberg também disse que continuaria trabalhando com o governo dos Estados Unidos, aprofundaria as investigações internas, fortaleceria
o processo interno de revisão de anúncios, duplicaria a equipe que trabalha em questões de “integridade eleitoral”, expandiria alianças com
autoridades eleitorais e aumentar a quantidade de informações sobre ameaças que eles compartilham com outras empresas de tecnologia.
[Zuckerberg também disse que ia continuar trabalhando com o governo dos Estados Unidos, ia ampliar as investigações internas, ia fortalecer o
processo interno de revisão de notificações, dobrar a equipe que trabalha em questões de “integridade eleitoral”, expandir suas parcerias com
autoridades eleitorais e aumentar a quantidade de informações sobre ameaças que compartilham com outras empresas de tecnologia]. Veja P.
Kafka (Mark Zuckerberg: "liberdade significa que você não precisa pedir permissão primeiro", Vox, 21/09/2017, recuperado de https://www.vox.

com/2017/9/21/16346858/mark-zuckberg-facebook-russia-freedom-permission Último acesso: 4/março/2020.)

24
Machine Translated by Google

anunciou critérios gerais sobre desinformação.91

“As duas preocupações mais discutidas no ano passado foram sobre a


diversidade de pontos de vista que vemos (bolhas de filtro) e a precisão das
informações (notícias falsas). Eu me preocupo com isso e nós os estudamos
extensivamente, mas também me preocupo que haja efeitos ainda mais
poderosos que devemos mitigar em torno do sensacionalismo e da polarização,
levando a uma perda de entendimento comum. (...) A mídia social já oferece
pontos de vista mais diversos do que a mídia tradicional já teve. (...) Mas nosso
objetivo deve ser ajudar as pessoas a terem uma visão mais completa, não apenas perspectivas a
Devemos ter cuidado como fazemos isso. A pesquisa mostra que algumas das
ideias mais óbvias, como mostrar às pessoas um artigo da perspectiva oposta,
na verdade aprofundam a polarização ao enquadrar outras perspectivas como
estrangeiras. Uma abordagem mais eficaz é mostrar uma variedade de
perspectivas, deixar as pessoas verem onde suas opiniões estão em um espectro
e chegar a uma conclusão sobre o que acham que é certo. Com o tempo, nossa
comunidade identificará quais fontes fornecem uma gama completa de
perspectivas para que o conteúdo apareça naturalmente mais.”

Especificamente sobre desinformação, Zuckerberg argumentou que “estamos procedendo


com cuidado porque nem sempre há uma linha clara entre fraudes, sátira e opinião. Em
uma sociedade livre, as pessoas devem ter o poder de compartilhar sua opinião, mesmo
que os outros pensem que estão errados. Nossa abordagem se concentrará menos em
banir informações erradas e mais em enfatizar perspectivas e informações adicionais,
incluindo que verificadores de fatos contestam a precisão de um item.”92

Também em 2017, o Facebook lançou a Iniciativa Perguntas Difíceis , que buscava fazer (e
responder) perguntas difíceis sobre o papel das mídias sociais nas comunidades políticas
democráticas. campanha eleitoral94 e em novembro permitiu que os usuários soubessem
se haviam “curtido” alguma página criada pelo Inter

91 M. Zuckerberg, “Construindo a Comunidade Global”, cit.

92 Ibid. Nessa linha, por exemplo, o Facebook anunciou em abril de 2017 que estava adotando uma postura mais forte em relação às suas ações
de moderação, para incluir “formas mais sutis de uso indevido, incluindo tentativas de manipular o discurso cívico e enganar as pessoas”. J. Weedon;
W. Nuland; A. Stamos, “Operações de Informação e Facebook”, cit., p. 3.

93 E. Schrage, Apresentando Perguntas Difíceis, Sobre o Facebook, 15/06/2017, obtido em https://about.fb.com/news/2017/06/


hard-questions/ Último acesso: 04/03/2020.
94 E Schrage, “Hard Questions”, cit.

25
Machine Translated by Google

net Research Agency, ligada à Rússia.95 Em seu documento de política, o Facebook define
“operações de informação” como “ações tomadas por atores organizados (governamentais ou
não governamentais) para distorcer sentimentos políticos domésticos ou estrangeiros, mais
frequentemente para alcançar um objetivo estratégico e /ou resultado geopolítico. Essas
operações podem usar uma combinação de métodos, como notícias falsas, desinformação ou
redes de contas falsas destinadas a manipular a opinião pública (nos referimos a eles como
'amplificadores falsos'”.96 O Google também produziu um pequeno relatório sobre “o que
encontrou ” em suas plataformas para o mesmo período97 e o Twitter anunciou que faria o mesmo.98

Essas posições podem ter sido baseadas no paradigma otimista em relação à Internet que
resultou na não responsabilização dos intermediários por conteúdos de terceiros. Mas a
pressão sobre as empresas durante os últimos três anos levou-as a assumir, de forma gradual
e relutante, um papel “controlador” em matéria de desinformação, especialmente em situações
eleitorais. As mudanças nesse sentido são bastante significativas e mostram empresas
flexíveis, com capacidade de adaptar suas políticas a um número cada vez maior de demandas
e ter um papel mais ativo e transparente no controle das informações que circulam em suas
plataformas.

Por exemplo, o Facebook parece ter feito um esforço para defender uma determinada
perspectiva de liberdade de expressão que, pelo menos em teoria, continuaria a justificar não
ter que desempenhar esse papel.99 No entanto, gradualmente — e acreditamos que como
consequência da crescente pressão sobre a empresa — também adotou mudanças em sua
posição. Por exemplo, em março de 2018, o Facebook expandiu sua

95 Facebook, transparência contínua sobre a atividade russa, sobre o Facebook, 22/11/2017, obtido em https://about.fb.com/
news/2017/11/continuing-transparency-on-russian-activity/ Último acesso: março/6/2020.
96
Ibid., pág. 4. É interessante chamar a atenção para o esforço do Facebook em definir precisamente o fenômeno, que, por exemplo, distingue
“operações de informação” de “notícias falsas” (“artigos de notícias que se pretendem factuais, mas que contêm distorções intencionais de fatos com
a intenção de despertar paixões, atrair espectadores ou enganar”) ou «desinformação» (“Informações/ conteúdos imprecisos ou manipulados que
são divulgados intencionalmente. Isso pode incluir notícias falsas ou pode envolver métodos mais sutis, como operações de bandeira falsa ,
fornecendo citações ou histórias imprecisas para intermediários inocentes, ou amplificando conscientemente informações tendenciosas ou enganosas.

97
Google, «O que encontramos». Google, Palo Alto, Califórnia. 30 de outubro de 2017.

98 T. Romm, Twitter está explorando como notificar seus usuários que viram propaganda russa durante as eleições de 2016, Vox, 17/01/2018,
recuperado de https://www.vox.com/2018/1/17/16901428 /twitter-notify-users-russia-trolls-2016-election Último acesso: 06/03/2020; Política pública
do Twitter, Atualização sobre a revisão do Twitter da eleição americana de 2016, 19/01/2018, obtida em https://blog.twitter.com/en_us/topics/
company/2018/2016-election-update.html Último acesso: 09/03/2020.

99 E. Schrage, Perguntas Difíceis: Anúncios Russos Entregues ao Congresso, Sobre o Facebook, 02/10/2017, retirados de https://about.
fb.com/news/2017/10/hard-questions-russian-ads-delivered-to-congress/ Último acesso: março/6/2020 («…deve também levar a sério o lugar crucial
que a liberdade de expressão política ocupa em torno do mundo na proteção da democracia e dos direitos daqueles que são minoria, que são
oprimidos ou que têm opiniões que não são defendidas pela maioria ou pelos que estão no poder»); K. Swi sher, Transcrição completa: CEO do
Facebook Mark Zuckerberg On Recode Decode, Vox, 18/07/2018, obtido em https://www.vox.
com/2018/7/18/17575158/mark-zuckerberg-facebook-interview-full-transcript-kara-swisher Último acesso: março/11/2020.

26
Machine Translated by Google

políticas de verificação de conteúdo para fotos e vídeos.100 Se até então verificava


“notícias”, a decisão de ampliar seus esforços de verificação em colaboração com terceiros
supostamente qualificados é uma decisão que se choca com o posicionamento mais geral
da empresa. Em outubro de 2018, também anunciou esforços específicos para combater a
desinformação que buscava “suprimir” a votação,101 algo que ratificou em setembro de
2020 à medida que as eleições se aproximavam.102

Em 2019, essas mudanças de política em relação a anúncios durante campanhas políticas


se tornaram mais rígidas. Em janeiro, o Facebook anunciou regras mais rígidas para lidar
com anúncios.103 O Google decidiu parar de transmitir publicidade política no Canadá
devido a regras de transparência que seriam “muito difíceis de aplicar”104; em março de
2019, decidiu relançar sua Biblioteca de Anúncios105 e em abril de 2020, anunciou um
sistema de verificação de identidade para alguns de seus anúncios.106

A pressão sobre as empresas também levou à revisão de ações de atividades suspeitas.


Em setembro de 2017, o Facebook anunciou que havia identificado despesas de mais de
US$ 100.000 de contas falsas da Rússia (que cancelou, seguindo sua política de não
permitir contas “inautênticas”).107 Em outubro de 2018, o Twitter publicou um relatório sobre
“ potenciais operações de informação.”108 E o Facebook deu informações sobre alguns
casos de notícias falsas, relatando o que detectou, como verificou a informação e – talvez
mais importante – como a detectou .

100 G. Rosen, Perguntas difíceis: O que o Facebook está fazendo para proteger a segurança eleitoral?, Sobre o Facebook, 29/03/2018, obtido em
https://about.fb.com/news/2018/03/hard-questions-election -segurança/ Último acesso: 09/03/2020.

101 J. Menn, «Exclusive: Facebook To Ban Misinformation On Voting In Upcoming US Elections», Reuters, 16/10/2018, obtido em https://
www.reuters.com/article/us-facebook-election-exclusive -idUSKCN1MP2G9 Último acesso: março/11/2020.

102 Sobre o Facebook, Novas etapas para proteger as eleições americanas, Sobre o Facebook, 03/09/2020, obtido em https://about.
fb.com/news/2020/09/additional-steps-to-protect-the-us-elections/ Último acesso: 03/09/2020.

103 Youtube acabou de desmonetizar canais anti-vax, BuzzFeed News, 22/02/2019, recuperado de https://www.buzzfeednews.
com/article/carolineodonovan/youtube-just-demonetized-anti-vax-channels Último acesso: 11/03/2020.

104 T. Cardoso, «Google To Ban Political Ads Ahead Of Federal Election, Citing New Transparency Rules», 04/03/2019, obtido em https://
www.theglobeandmail.com/politics/article-google-to-ban -politic-ads-ahead-of-federal-election-citing-new/ Último acesso: março/11/2020.

105 S. Shukla, Uma maneira melhor de aprender sobre anúncios no Facebook, Sobre o Facebook, 28/03/2019, obtido em https://about.
fb.com/news/2019/03/a-better-way-to-learn-about-ads/ Último acesso: março/11/2020.

106 J. Canfield, Aumentando a transparência por meio da verificação de identidade do anunciante, Google, 23/04/2020, recuperado de https://
blog.google/products/ads/advertiser-identity-verification-for-transparency/ Último acesso: agosto/27/2020.

107 A. Stamos, uma atualização sobre operações de informações no Facebook, sobre o Facebook, 06/09/2017, obtido em https://about.
fb.com/news/2017/09/information-operations-update/ Último acesso: 04/03/2020.

108 V. Gadde; Y. Roth, Enabling Further Research Of Information Operations On Twitter, Twitter Blog, 17/10/2018, obtido em https://blog.twitter.com/
en_us/topics/company/2018/enabling-further-research-of- information-operations-on-twitter.html Último acesso: março/11/2020.

109 A. Woodford, The Hunt For False News, Sobre o Facebook, 19/10/2018, obtido em https://about.fb.com/news/2018/10/
inside-feed-hunt-false-news-outubro-2018/ Último acesso: março/11/2020.

27
Machine Translated by Google

ment sugere que as ferramentas preferidas do Facebook para identificar informações falsas
são aprendizado de máquina e relatórios de verificadores externos.110

Essas ações representam uma mudança na forma como as empresas se veem e se mostram
para seus diferentes públicos.

Mudanças de política impactam diretamente na definição e implementação de políticas de


conteúdo, diretrizes da comunidade ou regras internas que afetam a forma como as empresas
tomam decisões de moderação.111 Nesse caso, são mudanças no conteúdo que as
plataformas consideram aceitáveis ou não.

Em abril de 2017, por exemplo, o Facebook publicou um documento no qual definia alguns
conceitos-chave relacionados às “operações de informação” que impactavam suas políticas
internas.112 Em junho de 2019, o Twitter atualizou suas regras e as simplificou para facilitar
o entendimento. 113 Em setembro de 2019, no entanto, o Twitter e o Facebook anunciaram
mudanças mais radicais que mostram sua abordagem à questão e – em menor grau – a
escala do desafio. Assim, o Twitter anunciou a suspensão total da publicidade política, sob a
premissa de que o “alcance” das mensagens políticas deve ser “conquistado, e não comprado”.

“No final do ano passado, o Twitter decidiu proibir a promoção de conteúdo político
em todo o mundo. Tomamos essa decisão com base em nossa crença de que o
alcance das mensagens políticas deve ser conquistado, não comprado. Definimos
conteúdo de natureza política como aquele que se refere a um candidato, partido
político, funcionário público eleito ou nomeado, eleição, referendo, medida
submetida a votação, lei, regulamento, diretiva ou decisão judicial. Anúncios que
contêm referências a conteúdo político, incluindo solicitações de votos, solicitações
de apoio financeiro e defesa a favor ou contra os tipos de po

110 Ibid.

111 Mas essas mudanças não se traduzem necessariamente, automaticamente, em mudanças formais nas regras. Ver sobre este ponto, T. Gillespie
(Custodians of the Internet, cit.), 66 (“Embora a política do Facebook tenha sido instituída em dezembro de 2016, em outubro de 2017, nenhuma nova
redação foi adicionada ao documento de padrões da comunidade que poderia razoavelmente Pode-se argumentar que o Facebook não proíbe
notícias falsas, apenas rotula-as; outra possibilidade é que em alguns casos políticas sejam instituídas, mas sua inclusão nos documentos de diretrizes
da comunidade é defasada”. As regras no momento da redação deste artigo (julho de 2020) incluem “notícias falsas” como conteúdo proibido.
Consulte https://www.facebook.com/communitystandards/false_news. Sobre esta questão, ver CELE e Linterna Verde, em https://letrachica.digital/

112 J. Weedon; W. Nuland; A. Stamos, “Operações de Informação e Facebook”, cit.


113 D. Harvey, Tornando nossas regras mais fáceis de entender, blog do Twitter , 07/06/2019, recuperado de https://blog.twitter.com/
pt_br/topics/company/2019/rules-refresh.html Último acesso: 11/03/2020.
114
(5) Jack no Twitter: «Tomamos a decisão de parar toda a publicidade política no Twitter globalmente. Acreditamos que o alcance da mensagem
política deve ser conquistado, não comprado. Por quê? Algumas razões…» / Twitter, Twitter, 30/10/2019, recuperado de https://
twitter.com/jack/status/1189634360472829952 Último acesso: 11/03/2020.

28
Machine Translated by Google

conteúdo lítico listado acima são proibidos por esta política. Também não
permitiremos anúncios de qualquer tipo de candidatos, partidos políticos ou
funcionários governamentais eleitos ou nomeados. Qualquer pessoa que use a
plataforma pode denunciar anúncios que vão contra essa política. O mecanismo
de denúncia pelo próprio aplicativo está disponível globalmente e nossos usuários
podem denunciar por meio deste canal. Estamos trabalhando em conjunto com
autoridades eleitorais de todo o mundo para garantir um diálogo aberto que
contribua para a identificação de anúncios que violem esta política.”115

Por sua vez, o Facebook anunciou que deixaria de verificar informações políticas, uma ação
surpresa que implicou uma mudança de direção que a empresa explicou em termos de
liberdade de expressão.116 Em setembro de 2020, introduziu outra mudança significativa:
seguir o Twitter, Facebook anunciou que não aceitaria anúncios políticos na semana que
antecedeu a eleição.117

Três eventos recentes levaram as plataformas a modificar mais uma vez suas abordagens
ao fenômeno da desinformação. Isso se refere à pandemia global causada pelo SARAS-
CoV-2 e a doença COVID-19, os protestos do movimento Black Lives Matter de 2020 e as
eleições presidenciais nos Estados Unidos.
Esses eventos revelaram a dificuldade de moderar o conteúdo de forma satisfatória para
todos os atores que demandam melhorias nesse sentido.118

115
Hugo TwitterGov, “Qualidade da informação durante as eleições”, cit., p. Quatro.

116 N. Clegg, Facebook, Elections And Political Speech, About Facebook, 24/09/2019, retirado de https://about.fb.com/
news/2019/09/eleições-e-discurso-político/ Último acesso: março/11/2020 («Não acreditamos, no entanto, que seja um papel apropriado para nós
arbitrar debates políticos e impedir que o discurso de um político alcançar seu público e estar sujeito a debate e escrutínio público. É por isso que o
Facebook isenta políticos de nosso programa de verificação de fatos de terceiros. Temos essa política nos livros há mais de um ano, publicada
publicamente em nosso site de acordo com nossas diretrizes de elegibilidade »).

117 Sobre o Facebook, “New Steps To Protect The Us Elections”, cit.


118 Sobre esta questão, ver A. Wiener (Trump, Twitter, Facebook, And The Future Of Online Speech, cit.); D. Alba; K. Congro; R. Zhong (“Twitter
acrescenta advertências a tweets de Trump e da Casa Branca, alimentando tensões”, cit.); M. Murphy («Facebook não deve ser o árbitro da
verdade», diz Zuckerberg à Fox News, MarketWatch, 28/05/2020, recuperado de https://www.marketwatch.com/story/face book-shouldnt-be- the-
arbiter-of-truth-zuckerberg-tells-fox-news-2020-05-27 Último acesso: 15/07/2020). Em junho de 2020, o Facebook também anunciou que começaria
a “rotular” conteúdo político, de forma semelhante ao Twitter. Cf. M. Zuckerberg (Anúncio de Mark Zucerkberg, Mural do Facebook de Zuckerberg ,
26/06/2020, obtido em https://www.facebook.com/zuck/posts/10112048980882521 Último acesso: 15/07/2020.) (“Um punhado vezes por ano,
deixamos de lado conteúdo que violaria nossas políticas se o valor do interesse público superar o risco de dano. Muitas vezes, ver o discurso de
políticos é de interesse público, e da mesma forma que os meios de comunicação relatam o que é um político diz, achamos que as pessoas deveriam
poder ver por si mesmas em nossas plataformas. Em breve começaremos a rotular alguns dos conteúdos que deixamos de lado porque são
considerados dignos de notícia, para que as pessoas possam saber quando for o caso. permitir que as pessoas compartilhem esse conteúdo para
condená-lo, assim como fazemos com outros conteúdos problemáticos, porque essa é uma parte importante de como discutimos o que é aceitável
em nossa sociedade. O re compartilhamento pode violar nossas políticas. Para esclarecer um ponto: não há isenção de noticiabilidade para conteúdo
que incite à violência ou suprima a votação. Mesmo que um político ou funcionário do governo o diga, se determinarmos que o conteúdo pode levar
à violência ou privar as pessoas do seu direito de voto,

29
Machine Translated by Google

A pandemia causada pelo SARS-CoV-2 trouxe outra fonte de pressão, neste caso
impulsionada pelas autoridades de saúde globais, regionais e nacionais. E as
plataformas parecem ter reagido ao novo cenário publicando proativamente informações
confiáveis sobre a pandemia.119

“Por exemplo, o Facebook estabeleceu um 'Centro de Informações COVID-19',


compartilhando informações oficiais e outros meios de comunicação
confiáveis. Este centro promoveu diversos conteúdos sobre a pandemia,
inclusive alguns confusos. O YouTube começou a direcionar as pessoas que
assistiram a vídeos relacionados ao vírus para 'obter os dados mais recentes
do Coronavírus' de fontes oficiais como a Organização Mundial da Saúde e
governos nacionais. Twitter, Instagram e TikTok realizaram ações semelhantes.”120

Este tipo de prática não foi isento de desafios significativos. Por um lado, nem todos os
governos são fontes confiáveis de notícias ou informações, mesmo em contextos como
o da pandemia. Por outro lado, como aponta D'Urso, as declarações governamentais
não necessariamente recebem os “cliques” necessários para atingir a população,
principalmente quando concorrem com conteúdos que apelam a reações emocionais
dos leitores, como o conteúdo que geralmente compõe campanhas de desinformação.121
Como vimos, as recomendações sobre o uso de medicamentos sem eficácia
comprovada, remédios caseiros ou — mais simplesmente — a subestimação dos riscos
de contágio têm sido comuns nas Américas nos últimos meses. A desinformação sobre
a pandemia e suas supostas características especiais (como riscos mais claros e
suposta facilidade para demonstrar a falsidade das alegações) podem ter levado as
plataformas a “fazer mais” sobre esse tipo de desinformação do que pelas questões eleitorais.122

No entanto, a pressão para agir não se limitou a questões de saúde e continuou a


crescer ao longo de 2020. Em julho de 2020, por exemplo, anunciantes poderosos e

removerá esse conteúdo. Da mesma forma, não há exceções para políticos em nenhuma das políticas que estou anunciando aqui hoje”)

119 J. D'Urso, How The Coronavirus Pandemic Is Changing Social Media, Reuters Institute for the Study of Journalism, 07/06/2020, obtido em https://
reutersinstitute.politics.ox.ac.uk/risj-review/ como-coronavirus-pandemia-mudando- social-media Último acesso: julho/10/2020.

120 Ibid.

121 Cf. V. Bakir; A. McStay, «Fake News e a economia das emoções: problemas, causas, soluções», Jornalismo Digital , vol. 6, 2, 2018, retirado de
https://www.tandfonline.com/doi/full/10.1080/21670811.2017.1345645 («…o problema das fakes news diz respeito à economia da emoção … as
emoções são aproveitadas para gerar atenção e tempo de visualização , que se converte em receita publicitária…»).

122 J. D'Urso, Como a pandemia de coronavírus está mudando as mídias sociais, cit. («Durante a pandemia, as empresas de redes sociais deram
alguns sinais de ir mais longe do que antes no que diz respeito à remoção de conteúdos…»).

30
Machine Translated by Google

anunciou um boicote ao Facebook até que ele tome medidas mais decisivas sobre
formas problemáticas de discurso, especialmente “discurso de ódio”. .

Inegavelmente, um dos principais problemas de moderação e autorregulação de conteúdo


tem a ver com a maleabilidade dos critérios e o fato significativo de que esses critérios muitas
vezes não são expressos com precisão nos termos e condições ou nas diretrizes da
comunidade. Para enfrentar essa dificuldade, diversas iniciativas têm buscado dar seguimento
a esses complexos documentos jurídicos. Por exemplo, a CELE e a Linterna Verde lançaram
recentemente a LetraChica, a primeira iniciativa para abordar este tema na América Latina.124

4. Transparência e ações de relações públicas

A evolução das políticas, regras de autorregulação e moderação de conteúdo tem sido


acompanhada por demandas crescentes de transparência. As três empresas em
análise publicam “relatórios de transparência” que mostram intensa atividade de
moderação, embora o nível de detalhamento que oferecem e os formatos em que as
informações são fornecidas dificultem a análise das informações.125
Em matéria eleitoral, como medida alternativa à moderação, as empresas tomaram
progressivamente medidas para aumentar os níveis de transparência em relação aos
anúncios:126 indicando a origem do anúncio, mas também oferecendo informações de
contexto, o alcance geral da campanha, valores investidos, e assim por diante.127 O
Facebook anunciou mudanças e expansões nessa política em várias ocasiões.128 Quase

123 «Mark Zuckerberg: o boicote dos anunciantes ao Facebook terminará “em breve”» The Guardian, 02/07/2020, recuperado de https://
www.theguardian.com/technology/2020/jul/02/mark-zuckerberg -advertisers-boycott-facebook-back-look-enough Último acesso: 15/07/2020.

124 Recuperado de https://letrachica.digital/


125 Consulte https://transparency.facebook.com/, https://transparency.twitter.com/, https://transparencyreport.google.com/?hl=es

126 P. Kafka, Mark Zuckerberg, cit.

127 Essa ação teve várias consequências, pois o Facebook estendeu sua política a todos os anúncios, e não apenas aos de natureza política em
outubro de 2017 Cf. R. Goldman (Atualização sobre nossos esforços de transparência e autenticidade de publicidade, sobre o Facebook, 27/10/2017,
obtido em https://about.fb.com/news/2017/10/update-on-our-advertising-transparency- e-autenticidade-ef forts/ Último acesso: 6/março/2020.)

128 R. Goldman, Tornando anúncios e páginas mais transparentes, Sobre o Facebook, 04/06/2018, retirado de https://about.fb.
com/news/2018/04/transparent-ads-and-pages/ Último acesso: março/9/2020 (em abril de 2018); K. Harbath, atualizações para anúncios sobre
questões sociais, eleições ou política nos EUA, sobre o Facebook, 28/08/2019, recuperados de https://about.fb.com/
news/2019/08/updates-to-ads-about-social-issues-elections-or-politics-in-the-us/ Último acesso: março/11/2020 (em maio, sobre eleições); R.
Leathern, Shining A Light On Ads With Political Content, Sobre o Facebook, 24/05/2018, obtido em https://about.fb.com/news/2018/05/ads-with-
political-content/ Último acesso : 11/03/2020; K. Walker, Apoiando a Eleição

31
Machine Translated by Google

simultaneamente, o Twitter anunciou uma política semelhante, por meio da criação do


Advertising Transparency Center.129 Por sua vez, o Google adotou uma política de
transparência mais rígida para as eleições de meio de mandato de 2018130 e lançou
um site contendo informações agregadas sobre anúncios políticos, restritos a Estados
Unidos, Índia, Reino Unido e União Europeia.131

Na mesma linha, eles implementaram colaborações com autoridades eleitorais,


oferecendo diálogo em tempo real e algum grau de abertura sobre o que estava
acontecendo em suas plataformas. O Facebook anunciou a expansão dessa política
em setembro de 2017132 e mostrou os resultados dessa colaboração em relação às
eleições alemãs.133 Da mesma forma, o Twitter afirmou que as parcerias com
autoridades eleitorais são uma constante para a empresa quando se trata de reagir a
situações eleitorais específicas. 134 Facebook anunciou “medidas especiais” para as eleições de

Integrity Through Greater Advertising Transparency, Google, 04/05/2018, obtido em https://blog.google/outreach-initiati ves/public-policy/supporting-
election-integrity-through-greater-advertising-transparency/ Último acesso: 09/03/2020.

129 B. Falck, Nova transparência para anúncios no Twitter, Twitter, 27/10/2017, obtido em https://blog.twitter.com/en_us/topics/
product/2017/New-Transparency-For-Ads-on-Twitter.html Último acesso: 06/03/2020. O Centro está disponível em https://ads.
twitter.com/transparency.
130 K. Walker, Apoiando a Integridade Eleitoral Através de Maior Transparência na Publicidade, cit.
131
Google, Publicidade política no Google - Relatório de transparência do Google, relatório de transparência do Google, 15/08/2018, recuperado
de https://transparencyreport.google.com/political-ads/region/US Último acesso: 11/03/2020.

132 P. Kafka, Mark Zuckerberg, cit.

133 R. Allan, Update On German Elections, Über Facebook, 27/09/2017, obtido em https://about.fb.com/de/news/2017/09/up date-zu-den-wahlen/
Último acesso : 04/03/2020 («O Facebook cooperou estreitamente com as autoridades alemãs, como o Escritório Federal de Segurança da
Informação (BSI). Fornecemos treinamento para membros do Parlamento e candidatos sobre questões de segurança on-line. Também criamos um
canal de denúncia do BSI para questões relacionadas à segurança e autenticidade no contexto das eleições federais»).

134 Política pública do Twitter, Atualização, cit. ("Envolvemo-nos com as comissões eleitorais nacionais regularmente e reforçamos consistentemente
nossa cobertura de segurança e revisão de agentes durante os principais momentos dos ciclos eleitorais em todo o mundo. Continuaremos a fazer
isso e expandir nosso alcance para que tenhamos processos de escalação fortes e claros ." em vigor para todas as potencialidades durante as
grandes eleições e eventos políticos globais»); Hugo TwitterGov, “ Qualidade da informação durante as eleições”, cit., p. 3 (“Nesse sentido, à
semelhança dos modelos que implantamos para eleições recentes em todo o mundo, como No caso dos Estados Unidos, Brasil e No México,
implementamos uma equipe interna e interdisciplinar para liderar nossos esforços em integridade eleitoral. Por meio de nossas próprias ferramentas
internas, essa equipe trabalha de forma proativa para avaliar tendências, abordar casos que são escalados por nossos aliados no assunto e identificar
possíveis ameaças de atores mal-intencionados . No que diz respeito a colaborações específicas com autoridades eleitorais e atores similares na
América Latina, convidamos você a ler nosso blog sobre as eleições no México como exemplo. questão número seis, na resposta a esta última iremos
aprofundar-nos» [Neste sentido, à semelhança dos modelos que temos posto em prática para as recentes eleições em todo o mundo, como Estados
Unidos, Brasil e México, implementamos uma equipe interna e interdisciplinar para liderar nossos esforços no campo da integridade eleitoral. Por
meio de nossas próprias ferramentas internas, essa equipe trabalha de forma proativa para avaliar tendências, abordar casos que são escalados por
nossos aliados no assunto e identificar possíveis ameaças de agentes mal-intencionados. No que diz respeito a colaborações específicas com
autoridades eleitorais e atores semelhantes na América Latina, convidamos você a ler nosso blog sobre as eleições no México como exemplo.
Esforços semelhantes foram implementados da mesma forma na Colômbia e na Argentina. Além disso, dada a semelhança entre esta questão e a
questão número seis, na resposta a esta última aprofundaremos mais sobre ela]).

135 Sobre o Facebook, “New Steps To Protect The Us Elections”, cit.; G. Rosen, Helping To Protect The 2020 Us Elections, Sobre o Facebook,
21/10/2019, obtido em https://about.fb.com/news/2019/10/update-on-election-integrity-efforts/ Last acesso: 11/03/2020.

32
Machine Translated by Google

Além disso, durante esse período, as empresas foram convocadas para explicar
publicamente seus negócios, modelos, políticas e padrões em diferentes fóruns e
foram explicitamente convocadas para reuniões formais com funcionários públicos
(por exemplo, Estados Unidos, Reino Unido). Citações do Congresso dos Estados
Unidos parecem ser especialmente significativas. Em setembro de 2017, The Hill
informou que Facebook, Google e Twitter seriam chamados para depor perante o
Comitê de Inteligência do Senado sobre a questão da interferência russa nas eleições
de 2016.136 Nesse contexto, o Twitter anunciou reuniões e apontou obstáculos para
lidar com contas falsas e bots.137 Em novembro de 2017, as empresas anunciaram
que colaborariam com o Reino Unido para investigar uma possível interferência russa
no referendo pela permanência daquele país na União Europeia em 2016.138 Em
setembro de 2018, Sheryl Sandberg, do Facebook e Jack Dors ey, do Twitter,
testemunharam novamente perante o Comitê de Inteligência do Senado dos EUA.139
É interessante salientar que há um questionamento implícito de anúncios direcionados
que pressiona as empresas a defendê-los;140 essas posições são vistas - por
exemplo - nas plataformas “princípios” sobre suas práticas de publicidade.141
Por fim, paralelamente ao desenvolvimento dos órgãos estaduais de monitoramento,
as empresas desenvolveram ações e criaram procedimentos e mecanismos com
diferentes graus de abertura a terceiros (especialistas, ONGs, acadêmicos etc.) que
satisfaçam os usuários e reguladores.
Em abril de 2018, o Facebook publicou seus critérios internos de moderação e passou
a realizar reuniões de stakeholders sobre o assunto; e ampliou seus apelos internos

136 J. Byrnes (Painel do Senado convida Facebook, Google para testemunhar na Rússia Probe, The Hill, 27/09/2017, recuperado de https://
thehill.com/homenews/senate/352743-senate-panel-invites-facebook-to-testify Último acesso: 07/05/2020.). Na ocasião, o Fa cebook anunciou que
iria cooperar com as autoridades. Consulte C. Stretch (Facebook para fornecer ao congresso anúncios vinculados à agência de pesquisa da Internet,
sobre o Facebook, 21/09/2017, obtido em https://about.fb.com/news/2017/09/provid ing-congress-with -ads-linked-to-internet-research-agency/ Último
acesso: 6/março/2020.)
137
Wired, «Twitter se reunirá com o Comitê de Inteligência do Senado sobre a Rússia», Wired, 28/09/2017, recuperado de https://www.
wired.com/story/twitter-senate-committee-russia-bots/ Último acesso: 07/05/2020.

138 MD Stefano, Facebook e Twitter dizem que vão cooperar com o inquérito do Reino Unido sobre a interferência russa no Brexit, BuzzFeed,
29/11/2017, recuperado de https://www.buzzfeed.com/markdistefano/facebook-and-twitter- dizem que estão prontos para cooperar com Último
acesso: 06/03/2020.

139 Comitê de Inteligência do Senado dos EUA, Audiências | Comitê de Inteligência, Senado dos EUA, 09/05/2018, recuperado de https://www.
intelligence.senate.gov/hearings/open-hearing-foreign-influence-operations%E2%80%99-use-social-media-platforms-com pany-witnesses Último
acesso: 07/05/2020.

140 E. Schrage, “Hard Questions”, cit. («Esses são usos valiosos da segmentação de anúncios porque permitem que as pessoas se conectem com as coisas que lhes interessam. Mas sabemos que a

segmentação de anúncios pode ser abusada e nosso objetivo é impedir que anúncios abusivos sejam executados em nossa plataforma. Para começar, anúncios contendo determinados tipos de segmentação

agora exigirão revisão e aprovação humana adicionais»).


141
Veja, por exemplo, Princípios do Facebook em R. Goldman, Nossos Princípios de Publicidade, Sobre o Facebook, 27/11/2017, retirado de
https://about.fb.com/news/2017/11/our-advertising-principles/ Último acesso: 06/03/2020.

33
Machine Translated by Google

procedimento em suas decisões.142 Até então, o Twitter já havia lançado seu Conselho
de Confiança e Segurança e recentemente anunciou uma ampliação de seus poderes
em linha com o anúncio do Facebook.143 No final de 2018, o Facebook também
anunciou a criação de um conselho de especialistas que ajudar a empresa a tomar
boas decisões de moderação, compatíveis com os princípios de liberdade de expressão
que Zuckerberg enfatizou publicamente em vários momentos. O Conselho de Supervisão
foi finalmente apresentado publicamente em maio de 2020.144

Esse tipo de ação parece responder às crescentes demandas por “responsabilização”


em termos de moderação de conteúdo e é um passo na direção de transformar grandes
plataformas em “fóruns públicos”.

C. Análise: boas práticas, problemas e desafios

O fenômeno da desinformação surgiu como um problema após a eleição presidencial


de 2016 nos Estados Unidos. As grandes plataformas da Internet tiveram que lidar com
isso desde então. Em seu relatório anterior, o CELE detectou que em dezembro de
2017 as plataformas haviam realizado ações que estavam “em fase preliminar”.

142 M. Bickert (Publicando nossas diretrizes internas de aplicação e expandindo nosso processo de apelação, sobre o Facebook, 24/04/2018, obtido
em https://about.fb.com/news/2018/04/comprehensive-community-standards/ Last acesso: 09/03/2020.). Os padrões da comunidade podem ser
encontrados em https://www.facebook.com/communitystandards/. Em maio de 2018, o Facebook publicou um relatório sobre casos para mostrar como
seus critérios funcionam na prática. Veja G. Rosen (Facebook publica números de imposição pela primeira vez, sobre o Facebook, 15/05/2018,
recuperado de https://about.fb.com/news/2018/05/
enforcement-numbers/ Último acesso: 9/março/2020.)

143 N. Pickles, Strengthening Our Trust And Safety Council, Twitter Blog, 13/12/2019, obtido em https://blog.twitter.com/
pt_us/topics/company/2019/strengthening-our-trust-and-safety-council.html Último acesso: 27/08/2020.
144
(Estabelecimento de estrutura e governança para um conselho de supervisão independente, sobre o Facebook, 17/09/2019, obtido em https://
about.fb.com/news/2019/09/oversight-board-structure/ Último acesso: março/11 /2020.); consulte https://www.oversight board.com/.

145 C. Cortes; L. Isaza, “Notícias falsas na Internet: A estratégia para combater a desinformação” [Notícias falsas na Internet: A estratégia para
combater a desinformação], cit., P. 26.

34
Machine Translated by Google

Pandemia
Eleições COVID-19
do México Eleições
Eleições de Brasil
dos Estados Unidos

Fb

Twitter

Google

Figura 3 - Cronograma de ações

Devemos examiná-los para obter um quadro completo das descobertas que este relatório
procura atualizar.

• Facebook. Agiu com base em uma definição de “operações de informação” como as


ações realizadas por atores organizados para distorcer o sentimento político nacional
ou estrangeiro, e são divididas em fake news, desinformação e contas falsas. O
relatório de 2017 identificou dois tipos de ações: as positivas focadas na
conscientização do usuário e as negativas que eram soluções “técnicas” para o
desafio da desinformação. Este último incluiu (a) relatórios, verificação de fatos e
advertências; (b) alterações no feed de notícias e medidas para neutralizar a
amplificação falsa.

• Google. Além das ações de conscientização, o relatório divulgou mudanças nos


serviços de busca, principalmente relacionadas ao destaque de conteúdo de
“qualidade” e serviços de verificação. O relatório observou, no entanto, que “o
Google se limita a destacar verificações de terceiros com base em seus critérios,
mesmo que as conclusões sejam diferentes”. qualquer sistema de classificação que
destaque a verificação de conteúdos tem uma classificação especial nos resultados
de pesquisa habituais. Por outro lado, o relatório também identificou a possibilidade
de reportar previsões, opção disponível na América Latina, mas não vinculada à
desinformação.

146 Ibid., pág. 17.

35
Machine Translated by Google

• Twitter. As ações identificadas em 2017 incluíram a redução da visibilidade de


tweets e possíveis contas de spam durante a investigação, suspensão de contas
e detecção de aplicativos que abusam de sua API.

Ao mesmo tempo, o relatório delineou desafios e possíveis soluções.147 Devemos


mencioná-los: o relatório apontou problemas de escala e tempo e detalhou que a
desinformação não poderia ser tratada apenas com mecanismos automatizados;
portanto, exigiria uma quantidade inviável de recursos humanos.
Da mesma forma, o relatório destacou que tomar “boas” decisões de moderação
nessa frente exigia a intervenção de pessoas com a capacidade de julgamento
necessária para afirmar, com algum grau de certeza, que estamos de fato enfrentando
uma campanha problemática de desinformação. Além disso, o relatório observou
que tais estruturas são difíceis de imaginar em mercados secundários, como a
América Latina. O relatório também denunciou a possibilidade de que algumas das
soluções propostas estivessem sujeitas à dinâmica de “consequências inesperadas”:
que — por exemplo — a verificação de informações teria o efeito oposto ao desejado,
como reforçar crenças errôneas ou conspiração teorias que muitas vezes reforçam essas crenç
Por fim, cabe destacar um ponto adicional: o relatório de 2017 afirmava que “a
elaboração deste documento teve uma dificuldade constante: entender se o grande
número de decisões e ações veiculadas na mídia e anunciadas pelas empresas
foram efetivamente implementadas e em que medida . _ ações visíveis, como as de
apoio ao jornalismo, parcerias com verificadores, etc. (Figura 4).

147
Ibid., pág. 21-24.
148 Ibid., pág. 23.

36
Machine Translated by Google

Verificado
não verificado

Figura 4 - Tipos de ações e status de implementação

Uma análise do que aconteceu nos últimos anos sugere que os padrões identificados
no relatório anterior ainda são válidos, mas surgiram algumas novas tendências. Assim,
por exemplo, a criação de órgãos internos encarregados de influenciar as políticas de
moderação aparece como uma das inovações mais significativas. O Conselho de
Supervisão do Face Book e, em menor escala, o Conselho de Confiança e Segurança
do Twitter são novas tentativas das plataformas de aumentar a responsabilização por
suas ações e políticas de moderação de conteúdo, embora ambas as ações pareçam
seguir o modelo do “fórum público” que aos poucos parece prevalecer neste tipo de empresa.

Por outro lado, recentemente algumas tendências parecem ter-se tornado mais fortes:
para além das ações de sensibilização para a segurança e da promoção de mais
informação, as plataformas aqui divulgadas têm optado por práticas de “contextualização”
da informação que apresentam aos utilizadores, cada vez mais graças a algoritmos de
recomendação de conteúdo. A prática de rotulagem parece ter crescido: além da
rotulagem em relação à verificação de conteúdo, tanto o Twitter quanto o Facebook
rotularam postagens de importantes atores públicos como contendo informações falsas,
mídia governamental de países estrangeiros e assim por diante. As empresas parecem
continuar a investir em soluções de inteligência artificial para suas políticas de
moderação: um algoritmo suficientemente bem treinado poderia identificar informações
falsas e agir de acordo, seja rotulando-as como tal, estabelecendo algum tipo de aviso
prévio, reduzindo sua circulação na rede, e assim por diante. Essa dependência de algoritmos, no e

37
Machine Translated by Google

excessivo. Como as próprias empresas reconhecem, a linha que separa a


desinformação da sátira ou da opinião protegida pela liberdade de expressão é
muito tênue e - no momento - não parece possível que uma solução puramente
técnica possa ser eficaz por si só, apesar de que, como consequência da pandemia,
as plataformas aceleraram a adoção desse tipo de ferramenta.149
Finalmente, algumas tendências gerais parecem estar ganhando força. As
empresas analisadas neste estudo – especialmente Facebook e Twitter – parecem
ter abraçado um firme exercício de seus poderes de moderação. As últimas ações
identificadas parecem corroborar a hipótese de contexto: identificar a localização
das informações, rotular a mídia governamental, bloquear anúncios de mídia
estrangeira e suspender a publicidade política no caso do Facebook, ou rotular
conteúdo político, suspender publicidade política ou rotular a mídia governamental
no caso do Twitter mostra ações do ano passado nesse sentido. Eles ocorrem em
um contexto de crescente pressão sobre o modelo de negócios imposto pelas
mídias sociais, várias ameaças regulatórias e até investigações por autoridades
reguladoras por práticas anticompetitivas.150
A sequência de ações dos últimos anos mostra empresas bastante ativas diante de
um fenômeno que causa preocupação e sobre o qual pouco se sabe.
Isso torna difícil chegar a conclusões definitivas, mas algumas questões relevantes
podem ser levantadas pelo menos provisoriamente. Por exemplo, qual é o impacto
dessas ações na América Latina? A resposta habitual das plataformas – consultadas
para este documento, mas também expressas no âmbito de outras iniciativas “multi-
stakeholders” – é que as políticas da empresa são globais. No entanto, foram
identificadas muitas ações cuja implementação na América Latina não pôde ser
verificada, como mostra a Figura 3. Claramente, há uma lacuna entre os anúncios
globais e sua implementação na América Latina.151
Por outro lado, existem boas práticas resultantes das ações identificadas? A
resposta a esta pergunta também pode ser apenas provisória. Se por boas práticas

149 C. Newton, o coronavírus está forçando os gigantes da tecnologia a fazer uma aposta arriscada em Ai, The Verge, 18/03/2020, recuperado de
https://www.theverge.com/interface/2020/3/18/21183549/ coronavirus-content-moderators-facebook-google-twitter Último acesso: agosto/ 27/2020.

150 C. Newton, The Antitrust Case Against Google Is Gathering Steam, The Verge, 15/07/2020, recuperado de https://www.
theverge.com/interface/2020/7/15/21324105/google-antitrust-california-search-youtube Último acesso: 22/09/2020; A. Satariano, «Facebook Loses
Antitrust Decision In Germany Over Data Collection», The New York Times, 23/06/2020, retirado de https://www.nytimes.com/2020/06/23/technology/
facebook-antitrust -germany.html Último acesso: 22/09/2020.
151
Veja, a esse respeito, a resposta do Twitter ao inquérito sobre a possibilidade de denunciar conteúdo como falso por motivo eleitoral
som. Cf. Hugo TwitterGov (“Qualidade da informação durante as eleições” [Qualidade da informação durante as eleições], cit.), 4-5.

38
Machine Translated by Google

es que queremos dizer ações que respeitem os padrões atuais de direitos humanos, a
resposta pode ser positiva: evidentemente, há ações mais ou menos problemáticas dentro
desse parâmetro. Mas se o que buscamos são ações efetivas, a resposta é mais ilusória
porque, sob esse prisma, essas ações são difíceis de avaliar: não há estudos de impacto,
não há acesso suficiente às informações necessárias por parte das empresas e não parece
qualquer preocupação para aferir os resultados.
Em vez disso, vistas como um todo, as ações parecem seguir umas às outras em um esforço
para responder à crescente pressão e agitação.

Uma hipótese que explica a quantidade de ações empreendidas está relacionada ao


seguinte fato: nos múltiplos pontos de pressão que as empresas suportam, a ameaça de
ação regulatória está sempre presente. Ao mostrar proatividade e receptividade às demandas
de atores poderosos, as empresas analisadas superam os argumentos contrários a esses
esforços. Por outro lado, essa permeabilidade é valorizada por agentes estatais que
encontram – por meio da influência informal – um canal eficaz para exercer algum controle
sobre a circulação de informações na Internet.
A concentração facilita este resultado: grandes plataformas são de fato intermediários
necessários que se tornam nós de controle influentes.

Esse cenário levanta grandes questões quanto ao papel dos intermediários na circulação
de informações na Internet. Se essa pergunta teve uma resposta definitiva em 1996 através
das garantias do artigo 230 da Lei de Decência nas Comunicações, é claro que isso não é
mais o caso. O papel e a responsabilidade das grandes plataformas da Internet estão em
plena disputa em todo o mundo e algum tipo de inovação regulatória será imposta em um
futuro não muito distante. No entanto, ainda não sabemos a forma que a regulação tomará:
se continuaremos com ações autorregulatórias como as que vimos até agora — cuja
intensidade e variedade parecem ter aumentado durante a pandemia — ou se uma regulação
tradicional prevalecerá junto com estados com capacidade de influenciar o que as plataformas
fazem, como os Estados Unidos ou a União Européia. A questão provavelmente será
abordada com uma variedade de abordagens, como sugerido por Marsden, Meyer e Brown:
auto-regulação controlada, uma auto-regulação formalizada ou co-regulação parecem os
cenários mais plausíveis.152 Nesse sentido, o que estão vendo atualmente é – possivelmente
– uma lenta mudança no debate público nessa direção (Figura 4).

152 C. Marsden; T. Meyer; I. Brown, «Valores de plataforma e eleições democráticas: como a lei pode regular a
desinformação digital?», Computer Law & Security Review, vol. 36, 2020, recuperado de http://www.sciencedirect.com/science/article/pii/
S026736491930384X.

39
Machine Translated by Google

Alguns sinais apoiam esta hipótese. De fato, embora a base legal para ações de
moderação continue sendo os direitos de propriedade das empresas e o poder derivado
de definir qual conteúdo é aceitável ou não, grande parte dessas decisões é baseada
em requisitos legais de países relevantes, como no caso do unproblemat ic casos de
pornografia infantil ou nos casos mais questionáveis de discurso de “ódio”, graças às
regulamentações em vigor especialmente nos países europeus. No estudo de Marsden
et al. menu de opções estamos atualmente entre a segunda fase de autorregulação e
a terceira, onde os atores externos começam a influenciar, por exemplo, as auditorias
do GNI ou o Código de Práticas de Desinformação da Comissão Europeia.153

Este possível cenário futuro envolverá um questionamento dos princípios da liberdade


de expressão que, até agora, definiram esta questão. A não responsabilidade dos
intermediários pelos conteúdos produzidos por terceiros funcionou como princípio viável
no quadro de uma rede descentralizada. Os processos de concentração e centralização
que caracterizaram a virada pessimista em relação à Internet colocam em dúvida se
esse princípio é suficiente para resolver múltiplos problemas atuais, desde a
desinformação até a criação algorítmica de novos conteúdos.
De qualquer forma, essa discussão se dará em um cenário complexo, possivelmente
em modelos regulatórios diferentes dos modelos “puros” que imaginamos até agora.154

Nesse cenário, os países latino-americanos terão um papel secundário, e isso revela a


persistência de um desafio estrutural em tudo relacionado à questão da regulação das
grandes plataformas de Internet de países periféricos: nem todos os países têm o
mesmo poder de influenciar como esses as empresas agem.155 Nesse sentido, é difícil
imaginar que os países da região possam modificar radicalmente as grandes tendências
que se observam hoje, mas talvez possam ter um impacto.
Nos últimos anos vimos que as plataformas citaram algumas experiências locais como
dinâmicas virtuosas, como as colaborações entre as plataformas e as autoridades
eleitorais em processos eleitorais recentes no México e no Brasil. Até agora, não vimos
iniciativas regulatórias “tradicionais” introduzindo inovações notáveis; pelo contrário, a
última experiência nesse sentido foi o projeto de lei brasileiro
153
Comissão Europeia, «Código de Práticas da UE sobre Desinformação». Comissão Europeia, Bruxelas. setembro de 2018; C.
Marsden; T. Meyer; I. Brown, “valores de plataforma e eleições democráticas”, cit., P. 12.
154 Sobre esta questão, ver o modelo de Abbott e Snidel; cf. K. Abbott; D. SnidalWalter Mattli, Ngaire Woods (eds.) («The Governan
ce Triangle: Regulatory Standards Institutions And The Shadow Of The State», em The Politics of Global Regulation, Princeton University
Press, Princeton, 2009.)
155 Este é um problema global, ligado ao papel que as empresas transnacionais desempenham no respeito ou violação dos direitos
humanos nos países periféricos. Sobre este assunto, ver J. Ruggie (“Proteger, Respeitar e Remediar: Um Quadro para Empresas e
Direitos Humanos.” Conselho de Direitos Humanos. Relatório do Representante Especial do Secretário-Geral sobre a questão dos
direitos humanos e corporações transnacionais e outros empresas comerciais, Genebra. A/HRC/8/5. 7 de abril de 2008.), Par. 14

40
Machine Translated by Google

sobre Liberdade, Responsabilidade e Transparência Digital na Internet, que foi rejeitado


por unanimidade pela sociedade civil da região por afetar os princípios fundamentais da
liberdade de expressão que, por ora, controlam o tipo de respostas aceitáveis a esses
problemas.

Nessa perspectiva — ou seja, do ponto de vista dos atuais padrões de liberdade de


expressão — as diversas ações das plataformas se enquadram facilmente dentro de um
espectro imaginário do que é aceitável. As ações incluídas na categoria (1) são as menos
problemáticas e respeitam o princípio fundamental de que a melhor solução para os
abusos da liberdade de expressão é mais liberdade de expressão.156
Erros são respondidos com correções; a informação falsa é combatida com a formação
verdadeira, e assim por diante. Ações de moderação que se limitam a fornecer mais
informações, em princípio, também fazem parte da mesma conclusão normativa. O
panorama começa a mudar, no entanto, nos casos em que essas ações de moderação
impactam, por exemplo, o alcance de conteúdos que podem ter sido sinalizados como
problemáticos e cujas recomendações foram reduzidas.157 Esses tipos de efeitos,
geralmente de difícil identificação, impactam como a informação circula e se transforma
em intermediários em verdadeiros “curadores” do debate público, que – como vimos – é o
papel que estão assumindo cada vez mais. Nesses casos, as ações que impactam o
debate público tornam-se mais problemáticas e devem ser submetidas às análises
normativas exigidas pelo sistema interamericano, que se baseiam fundamentalmente no
uso de critérios transparentes, consistentes e na garantia do devido processo legal. para
os usuários cujos conteúdos são afetados.158

A transparência nas ações de moderação deve melhorar substancialmente. Os relatórios


de transparência são difíceis de analisar e fornecem informações em formatos de difícil
leitura ou excessivamente agregados. Como regra geral, não temos conhecimento de
casos específicos de moderação: para preencher essa lacuna, as plataformas devem
estar abertas a estudos de independentes e acadêmicos.159 Por outro lado, as regras de
moderação também devem ser mais claras e sua aplicação consistente : as plataformas analisadas

156
CIDH, “ Marco Jurídico Interamericano do Direito à Liberdade de Expressão”. Relatoria Especial para a Liberdade de Expressão da Comissão
Interamericana de Direitos Humanos. OEA/Ser.L/V/II CASAMENTO/RELE/INF. 09/02. 30 de dezembro de 2009. Par. 108, e segs.

157
YouTube, “Continuando nosso trabalho para melhorar as recomendações no Youtube”, cit.
158 CIDH, «Liberdade de Expressão e Internet» [Liberdade de Expressão e Internet]. Comissão Interamericana de Direitos Humanos, Washington
DC 2013. Par. 55; «Estándares Para Una Internet Libre, Abierta e Incluyente» [Padrões para uma Internet Livre, Aberta e Inclusiva]. Relatoria
Especial para a Liberdade de Expressão da CIDH, Washington DC INF.17/17.
2017. Sobre. 87.

159 Há uma iniciativa que se inclina nessa direção: Social Science One. Veja https://socialscience.one/

41
Machine Translated by Google

neste documento não são minuciosamente avaliadas por atores independentes.160


Essas necessidades, que mal apontamos aqui, estão relacionadas ao papel de
curadoria que as plataformas têm adotado no cenário regulatório complexo e mutável
que explicamos nos parágrafos anteriores.
Ainda não sabemos se esse papel será aceite pelo regulamento que acabará por ser
introduzido. Imaginamos outros mundos possíveis, nos quais esse papel de curadoria
é rejeitado como desnecessário: em uma rede menos concentrada e mais
descentralizada, semelhante ao modelo original, esse papel de curadoria seria inviável
e ineficiente. A informação circularia de forma um pouco mais caótica e não haveria
uma forma simples de exercer o controle que hoje se exige desses atores centrais.

No entanto, esse futuro parece distante. Embora existam investigações de


autoridades em defesa da concorrência em todo o mundo (especialmente na Europa),
vemos incentivos alinhados para manter e salvaguardar o protagonismo que os atores
analisados têm alcançado. É mais fácil para os estados controlar a circulação de
informações quando há atores centrais com capacidade de controle do que quando
esses atores estão ausentes, são muitos ou não concentram parcelas significativas
do tráfego. A coincidência desses interesses com os interesses privados de algumas
das corporações mais poderosas do mundo sugere que o atual caminho regulatório
visa a aceitação dessas plataformas (neste nível de concentração). Enquanto persistir
essa característica da Internet, e na medida em que diversos atores – organizações
internacionais, ONGs, centros de pesquisa e Estados – continuarem a exigir ações
concretas das plataformas contra ameaças à democracia percebidas como graves,
maior transparência em relação à critérios usados para moderação parece uma
demanda razoável. Neste contexto, as plataformas assumem um papel cada vez mais
semelhante ao dos “fóruns públicos” sujeitos a critérios e normas não inteiramente
sob o seu controlo. Esse ponto final não é inevitável e pode não ser desejável. Mas
parece que estamos caminhando nessa direção.

160 Sobre esta questão, ver tos;dr, em https://tosdr.org/

42

Você também pode gostar