Você está na página 1de 8

fake

como as plataformas

news
enfrentam a desinformação
fake
como as plataformas

news
PESQUISA FAKE NEWS: COMO AS PLATAFORMAS
ENFRENTAM A DESINFORMAÇÃO
enfrentam a desinformação
AUTORIA
Bia Barbosa, Helena Martins e Jonas Valente

PROJETO GRÁFICO E DIAGRAMAÇÃO


Oficina Sal

CONSELHO DIRETOR INTERVOZES 2020-2021


Alex Hercog, André Pasti, Bruno Marinoni, Marcos Urupá,
Mônica Mourão, Paulo Victor Melo e Tâmara Terso

EXECUTIVA DO INTERVOZES
Gyssele Mendes, Iara Moura, Maria Mello, Marina Pita, Olívia Bandeira e Pedro Ekman

APOIO

intervozes.org.br | intervozes@intervozes.org.br

facebook.com/intervozes

instagram.com/intervozes
Este trabalho está licenciado com uma Licença Creative Commons
twitter.com/intervozes
Attribution-ShareAlike 4.0 International (CC BY-SA 4.0)
https://creativecommons.org/licenses/by-sa/4.0/
youtube.com/intervozes
4 P E S Q U I S A F A K E N E W S C O M O A S P L A T A F O R M A S E N F R E N T A M A D E S I N F O R M A Ç Ã O 5

resumo
executivo_
A pesquisa analisa a desinformação, considerada uma estratégia para
obtenção de ganhos políticos e econômicos.
Relaciona o fenômeno à configuração atual da internet, marcada pela
presença de monopólios digitais que operam com o objetivo de capturar
a atenção dos usuários, coletar e tratar dados pessoais usados, posterior-
mente, para a construção de perfis e para o direcionamento de mensagens,
a exemplo de publicidade ou propaganda política.
Considera que o modelo de negócios das plataformas favorece a ocor-
rência da desinformação que, embora não seja inaugurada com elas, pois
visível também na história dos meios de comunicação tradicionais, como
rádio e TV, torna-se mais constante, abrangente, penetrante e de rápida
circulação devido às formas de produção, circulação, mediação algorítmica
e acesso à informação características das plataformas digitais.
Tendo em vista essa importância, são estudadas as principais platafor-
mas de redes sociais em operação no Brasil: Facebook, Instagram, WhatsApp,
YouTube e Twitter.
São descritas as medidas adotadas por cada uma dessas empresas
no combate à desinformação desde 2018, quando o fenômeno já era con-
siderado um problema em âmbito mundial, até meados de 2020 – alcan-
çando, portanto, também ações justificadas pelo contexto da pandemia
de Covid-19.
Para descrição e análise de tais medidas, foram definidas quatro catego-
rias: 1. Abordagem do fenômeno; 2. Moderação de conteúdo; 3. Promoção
de informações e transparência; e 4. Medidas correlatas.
As medidas são analisadas tendo em vista o contexto e referências
expressas em regras existentes das plataformas sobre desinformação,
documentos desenvolvidos por autoridades internacionais e especialis-
tas em direitos humanos, bem como propostas já elaboradas pelo próprio
Intervozes.
Os quadros abaixo apresentam as principais medidas adotadas pelas
plataformas digitais neste campo, incluindo medidas correlatas, que inci-
dem indiretamente sobre a desinformação.
6 P E S Q U I S A F A K E N E W S C O M O A S P L A T A F O R M A S E N F R E N T A M A D E S I N F O R M A Ç Ã O 7

Plataforma Abordagem do fenômeno Moderação de conteúdo Promoção de informações Medidas correlatas


e transparência

Facebook Não possui uma política específica nem trabalha Recebe denúncias e utiliza sistemas automatizados Oferece ao usuário um ícone para buscar mais informações Adotou política de proibição do discurso de ódio em 2018
com uma definição própria de desinformação. para analisar as publicações. Encaminha conteúdos sobre a fonte da postagem. No contexto da Covid-19, apresenta e melhorou sistemas automatizados para identificar vídeos
Apresenta as estratégias adotadas contra o para verificação por agências de checagem parceiras informações de autoridades de saúde nos resultados da busca violentos, passando a restringir determinadas transmissões
fenômeno de maneira resumida nos Padrões e, em caso de classificação como “falso” ou (direcionando usuários para o site da OMS) e lançou o Centro ao vivo. Buscas relacionadas à supremacia branca, como
da Comunidade. A elaboração de medidas a “parcialmente falso”, o conteúdo recebe um rótulo de Informações sobre Coronavírus, disponível no alto do News exaltação ao nazismo, recebem indicações de materiais de
serem adotadas sobre o tema é realizada pela específico e passa a ser acompanhado de “artigos feed. Pessoas que interagiram com conteúdos “falsos nocivos” combate ao ódio. A plataforma ainda derruba contas falsas,
equipe de “Políticas Globais de Conteúdo”. relacionados” produzidos por checadores. Declarações recebem mensagens. Financia iniciativas de educação midiática, propagadoras de spam ou consideradas de “comportamento
Em 2020, criou o Conselho de Supervisão de e postagens de líderes políticos são excepcionadas e desenvolve materiais e campanhas sobre o tema e tem parceria não autêntico coordenado”. Procura verificar a autenticidade
Conteúdo, com membros externos à empresa, não passam por processos de verificação de agências com agências de checagem para disponibilizar dicas sobre das contas no momento de sua abertura e mapeia sinais de
responsável pela revisão aprofundada de de checagem parceiras. Vídeos e imagens podem ser verificação de conteúdos. Apoia experiências jornalísticas visando condutas maliciosas em contas recém-abertas. Também
casos (não apenas sobre desinformação). rotulados como “manipuladas”, “tiradas de contexto” ampliar a circulação de notícias profissionais na plataforma. reduz a circulação de contas difusoras de conteúdo de
ou “falsas”. Não há remoção da plataforma, mas a Disponibiliza dados para 60 pesquisadores em todo o mundo. baixa qualidade (caça-cliques ou que levam para sites com
circulação de postagens falsas é reduzida. Casos de anúncios maliciosos e chocantes). Passou a restringir o acesso
desinformação que causem violência ou dano ou que à coleta de dados por apps de terceiros. Como medida de
comprometa processos eleitorais são removidos. proteção à integridade eleitoral, disponibiliza um arquivo de
Anúncios com mensagens falsas não anúncios políticos com informações sobre identidade dos
podem ser veiculados e anunciantes anunciantes, pagamento e alcance dos conteúdos, além de
reincidentes podem ser sancionados rotular essas peças como “propaganda eleitoral”. Usuários
podem dizer se querem ou não receber este tipo de anúncio.

Instagr am Segue a linha geral de abordagem do fenômeno Realiza processos de análise de conteúdos a partir de Sistemas informatizados buscam “correspondência de imagens” As Diretrizes da Comunidade condenam o discurso de ódio,
adotada pelo Facebook, seu controlador. Os Termos agências de verificação de fatos, que classificam uma para rotular conteúdos já classificados como falsos, inclusive mensagens indesejadas enviadas repetidamente e ataques
de Uso determinam que o usuário não pode “fazer publicação em diferentes categorias. Conteúdos são quando eles foram inicialmente publicados no Facebook (e a pessoas com intenção de constrangê-las. Contas falsas
algo ilícito, enganoso, fraudulento ou com finalidade marcados quando são verificados como desinformativos vice-versa). Disponibiliza textos de contraponto elaborados são removidas, a maior parte no momento da tentativa
ilegal ou não autorizada”. Não possui estrutura e podem ter sua circulação reduzida (menor visualização por verificadores de fatos, com “desmentidos” ou informações de sua abertura. Contas cuja identidade do responsável
institucional ou processos específicos para tratar no feed e nos stories, remoção da página “explorar” oficiais sobre o tema. Buscas sobre vacinas direcionam é verificada podem ganhar sinalização de verificação.
de desinformação. Valem os fluxos e procedimentos e das páginas de hashtags). Conteúdos relacionados usuários para o site da OMS. No contexto da Covid-19, fez o Contas ou redes de contas enquadradas na categoria de
adotados pelo Facebook, incluindo as equipes de a falsos tratamentos sobre a Covid-19, sobre teorias mesmo e passou a disponibilizar informações do órgão no “comportamento inautêntico” são derrubadas. Contas
revisão de conteúdo e o Conselho de Supervisão. da conspiração ou falsas alegações registradas topo do feed dos usuários, além de oferecer imagens sobre que registrem determinados números de violações em um
como danosas pelas autoridades de saúde são medidas de prevenção para compartilhamento no stories. período podem ser desativadas, com direito à apelação.
removidos, assim como anúncios e hashtags que A promoção, oferta ou comércio de avaliações falsas de
possam promover desinformação sobre o tema. usuários são proibidos; e curtidas, seguidores e comentários
Na busca sobre o vírus, prioriza informações não autênticos para “impulsionar a popularidade” são
de autoridades de saúde. removidos. Tem ampliado medidas contra bullying e
Durante as eleições, se um conteúdo for classificado assédio, dando maior controle sobre interações dos usuários
como falso, um filtro cinza é exibido sobre a imagem e deixando de exibir o número de likes nos posts.
e alertas são dados ao usuário antes de compartilhar
uma publicação. Ferramentas de transparência para
anúncios vêm sendo adotadas em diferentes países.

What sApp Apresenta-se como plataforma de mensagens Informa oficialmente que não modera conteúdo. No aplicativo ou no blog oficial, é possível encontrar referências A maior parte das ações desenvolvidas pelo WhatsApp
privadas criptografadas que, como tal, não Não marca conteúdos como desinformativos, por à desinformação, mas as informações são dispersas e pouco inscrevem-se em “medidas correlatas”, a começar pela
acessa, modera, julga, verifica, bloqueia ou retira exemplo. No campo da moderação, apontamos acessíveis a um usuário comum, embora a plataforma tenha definição de usos envolvendo declarações falsas, incorretas
qualquer conteúdo, o que é contraditório com a apenas que, desde 2018, tem atuado para reduzir a possibilidade de contato direto com ele, por meio de notificações. ou enganosas como violações em seus Termos de Serviço.
existência de grupos e listas de transmissão que circulação, por meio do estabelecimento de limites A partir das eleições de 2018, foram feitas parcerias institucionais Além da já mencionada limitação de encaminhamentos
acabam fazendo com que tenha funcionamento para encaminhamento de mensagens. Primeiro, o para verificação de conteúdos e realização de pesquisas, mas de mensagens, tem sinalizado mensagens altamente
de rede social. Não assume o uso frequente limite de envio de uma vez foi fixado em 20 chats. o alcance e a efetividade delas são questionáveis. Da mesma encaminhadas com uma ou duas setas, indicando maior
da plataforma para desinformação. Seguindo Depois, 5. Desde a pandemia, as mensagens altamente forma, as ações de sensibilização do público amplo têm sido viralização. Foi retirado também o botão que permitia
tal entendimento, não possui política, encaminhadas só podem ser encaminhadas para um restritas. As medidas de promoção de informações foram encaminhamento rápido de conteúdos e inserida uma lupa
processos e/ou estrutura institucional nem contato de cada vez. Mesmo essa política não é, em ampliadas na pandemia, com a criação de canais de mensagens. ao lado das mensagens assinaladas com duas setas.
conceito de desinformação definidos. geral, associada ao combate à desinformação. Tal No mesmo sentido, para as eleições de 2020, foi firmado Utiliza ferramentas de tratamento de spam e aprendizagem
vinculação só foi expressa no contexto da pandemia. acordo com TSE e criado chatbot para denúncias e figurinhas avançada de máquinas para retirar mensagens
sobre voto consciente. O usuário tem que adicionar o número automatizadas em massa e banir contas de usuários com
da conta e entrar em contato. Falta transparência quanto às comportamentos inadequados, a exemplo do envio de
práticas adotadas pelo WhastApp, como proibição de criação mensagens em massa e da criação de múltiplas contas.
ou remoção de contas, além de relatórios sobre suas medidas.
8 P E S Q U I S A F A K E N E W S C O M O A S P L A T A F O R M A S E N F R E N T A M A D E S I N F O R M A Ç Ã O 9

Plataforma Abordagem do fenômeno Moderação de conteúdo Promoção de informações Medidas correlatas


e transparência

YouTube Não trabalha com uma única definição de Tira do ar conteúdos que violam suas diretrizes e reduz Informa priorizar o que chama de “vozes autorizadas”, como Possui uma política própria contra discurso de ódio e outra
desinformação e não possui uma política específica o alcance de “desinformação danosa” e “conteúdos canais de jornalismo, nas buscas por informações sobre eventos contra assédio e ameaças. Vídeos supremacistas são proibidos
para o tema. Mas restrições à disseminação de limítrofes”, deixando de recomendá-los. Vídeos e política e nos “próximos vídeos” sobre esses temas. Se o e aqueles que não podem ser caracterizados como de ódio
desinformação aparecem em diferentes políticas, editados e adulterados são proibidos pela política usuário pesquisa conteúdo jornalístico, mostra uma estante mas se aproximam disso tem restrições em engajamento,
como sobre danos e mídias manipuladas. de “mídia manipulada”, assim como canais que com “Principais notícias” para ele. A estante “Últimas notícias” é recomendação e monetização. Um alerta é exibido antes de
Conteúdos que violam as Diretrizes da Comunidade falseiam sua identidade. Remove conteúdos e canais exibida para eventos importantes. Exibe painéis de informação seu início. Qualquer pessoa ou canal intimidando, perseguindo,
são removidos e notificados. Casos reincidentes que desrespeitam a política para eleições e passou com dados de contexto de fontes autorizadas sobre assuntos desumanizando e incentivando comportamento violento,
sofrem restrições de publicação e monetização a remover informações enganosas sobre a Covid-19, históricos, cientificamente comprovados e teorias da conspiração. A inclusive via comentários. pode ser banida da rede. Possui
e o canal pode ser excluído. Estimula que a sobretudo desinformação médica, promoção de depender da busca, checagens de fatos por editores independentes ainda uma política para tratar de temas como privacidade
comunidade denuncie conteúdos inapropriados medicamentos perigosos e informações sobre a origem também são exibidas. Não há checagem sobre cada vídeo e contra a difamação de pessoas, para recebimento de
e equipes internas analisam os casos. do vírus. Recomenda aos produtores checarem fatos individual. A Covid-19 ganhou sessões especiais em todas essas denúncias. Não autoriza a distribuição de conteúdos perigosos
e usarem autoridades de saúde como fonte. Nem ferramentas. Nas eleições do EUA, oferece dados adicionais sobre ou nocivos e tem uma política contra spam, falsificação de
toda a publicidade em torno da pandemia foi restrita candidatos. Via Google News Initiative, apoia o jornalismo digital identidade e envolvimento/engajamento falso. Restringe o
e vídeos que seguem os padrões da comunidade no combate à desinformação e ações de educação para a mídia. acesso ao serviço via qualquer meio automatizado (bots).
podem receber anúncios. Decisões de cumprimento
às diretrizes são tomadas a partir da análise do
conteúdo e independem de quem fala ou publica
tais materiais, incluindo altas autoridades. Possui um
Grupo de Análise de Ameaças para identificar práticas
de desinformação patrocinadas por governos.

Tw it ter Não possui uma política para validar a Mídias manipuladas, incluindo deepfakes, são Possui a ferramenta #ConheçaosFatos, que é exibida em Sua política contra propagação de ódio proíbe conteúdos
autenticidade de conteúdos, tampouco trabalha marcadas, podem ter sua visibilidade reduzida, receber pesquisas associadas a vacinas e Covid-19. Informações não- com ameaças violentas, que promove ou expressa desejo de
com uma definição do termo desinformação. O foco link com mais explicações ou, em caso de risco de críveis sobre saúde não aparecem nas buscas, que priorizam morte ou agressão, disseminação de estereótipos, medo e
é oferecer contexto para ajudar pessoas a decidir danos graves imediatos, removidas. Conteúdos que fontes oficiais nas respostas. Adicionou aba especial sobre a assédio. Comportamentos considerados abusivos também
o teor de um post contestado, agindo diretamente possam enganar as pessoas sobre quando, onde e pandemia na função #Explorar, com fontes de credibilidade, não são permitidos. Infratores podem ter que excluir conteúdo,
somente em casos de possíveis danos causados como votar também são proibidos, dentro da política comunicados públicos e jornalistas em saúde. Aplica rótulo em passar um tempo sem publicar ou interagir ou ser suspensos
por mídias manipuladas, informações enganosas de integridade nas eleições, que nos EUA sinaliza posts sobre Covid e 5g, encorajando a checagem de fatos e, no totalmente. Combate o spam e a automação mal-intencionada,
sobre processos eleitorais e, recentemente, as postagens de candidatos. Anúncios políticos e recurso Eventos, também seleciona informações de credibilidade monitorando e desafiando atividades suspeitas das contas,
relacionadas à Covid-19. Proíbe o uso de robôs de veículos de comunicação estatais não são mais e disponibiliza no topo das timelines. Aumentou o número como por meio da verificação de identidades. O foco é barrar
manipuladores da rede. Tem um Conselho de permitidos. Monitoram tendências e picos nas de contas verificadas neste sentido. Abriu a plataforma para contas falsas, o engajamento não autêntico e atividades
Confiança e Segurança que também analisa o tema. conversas sobre eleições para detectar atividades de acompanhamento em tempo real de postagens sobre a Covid coordenadas para influenciar artificialmente conversas.
manipulação e derrubam contas falsas. Postagens de por desenvolvedores e pesquisadores. Apoia iniciativas de Perfis suspeitos têm a visibilidade reduzida e auditorias são
líderes globais, mesmo que desinformativas, podem jornalismo independente, de checagem de fatos e de educação realizadas em contas existentes. Divulga arquivos de posts
seguir no ar se forem de claro interesse público. O post para a mídia, inclusive por meio de créditos em anúncios. de atividades coordenadas apoiadas por governos para
é exibido por trás de um aviso e não é possível interagir dar transparência a tentativas de manipulação da rede.
com ele. Pós-Covid-19, ampliou a definição de “dano”
para incluir conteúdos contrários às recomendações
das autoridades de saúde e remove posts com
chamado claro a ações de risco. Sob risco de dano
menos severo, o post recebe um rótulo ou aviso. A
política de anúncios só é autorizada para serviços
públicos e privados que mudaram com a Covid-19.
10 P E S Q U I S A F A K E N E W S C O M O A S P L A T A F O R M A S E N F R E N T A M A D E S I N F O R M A Ç Ã O 11

Durante a maior parte do


período analisado pela pesquisa,
as plataformas resistiram em
remover conteúdos desinformativos

O estudo conclui que as plataformas digitais pesquisadas A moderação abrange também anúncios e conteúdos informações no caso de conteúdos verificados. Uma moda-

_conclusões
não apresentam políticas e processos estruturados sobre o impulsionados. Nesses casos, há restrições a conteúdos já lidade de ação deste tipo é a exibição de artigos das próprias
problema da desinformação e desenvolvem ações pontuais e considerados desinformativos. A extensão das medidas sobre agências de checagem com as informações apuradas sobre
reativas no combate ao fenômeno. Em geral, evitam a análise desinformação aos anúncios é fundamental. Isso porque aí determinado assunto. Outra é a oferta de informações “de
de conteúdo desinformativo, mas acabam fazendo-a. Nenhuma reside a dimensão econômica da prática de produção e difu- contexto” ou de “fontes confiáveis”. Conteúdos de veículos
das empresas relatou trabalhar com uma conceituação unifi- são de notícias falsas como negócio, o que é explorado pelas jornalísticos e oficiais podem também ser fornecidos. No já
cada sobre desinformação. Além de menções a ele, foi cons- “fábricas de conteúdos enganosos” e também pelas próprias mencionado contexto da pandemia, implantaram diversos
tatado o emprego de termos diversos, como notícias falsas e plataformas, que se beneficiam com a cobrança de impulsio- mecanismos de acesso e recomendação de informações ofi-
informações enganosas. Em que pese a polissemia do termo e namentos. No caso dos anúncios com discursos de políticos, as ciais sobre o tema, especialmente da Organização Mundial da
o debate intenso tanto na sociedade quanto em círculos acadê- medidas esbarram nas exceções para o discurso desses agentes Saúde e de autoridades nacionais de saúde.
micos sobre ele, a explicitação de um conceito seria um avanço adotadas por algumas companhias. Do ponto de vista da informação sobre como lida com con-
como forma de dar transparência sobre qual tipo de conteúdo Durante a maior parte do período analisado pela pesquisa, teúdos desinformativos, chamou atenção a baixa transparência
pode ser impactado pelas medidas de análise, sinalização ou as plataformas resistiram em remover conteúdos desinforma- das plataformas. As medidas existentes não são apresentadas
sanções. Não abordá-lo diretamente não ameniza o problema tivos como o fazem em outras categorias, a partir do que é de forma organizada e boa parte do trabalho da presente pes-
e abre margem para outros, como decisões unilaterais e pouco unilateralmente definido em suas diretrizes. Mas essa postura quisa foi exatamente a busca e a organização de informações
claras. começou a mudar no contexto da pandemia do novo coro- dispersas em notícias nos sites oficiais e em sites de “ajuda” ou
Nenhuma das empresas também relatou ter uma estrutura navírus, com a profusão de desinformação sobre a doença e FAQ de cada uma das empresas. A ausência de reconhecimento
específica para abordar a questão da desinformação, o que sobre “formas milagrosas” de cura. Os riscos graves à saúde da gravidade do problema e da implicação das plataformas no
pode dificultar a coordenação das iniciativas no âmbito de da população pressionaram as plataformas a responderem seu enfrentamento acaba significando empecilhos para que a
cada organização. Num contexto de crescimento de decisões de forma mais ágil e dura sobre isso. Nesse contexto, a admis- comunicação com os usuários sobre o tema seja efetiva. Porém,
automatizadas pelas plataformas, não ficaram claros nas expli- são de situações excepcionais de retirada em casos de risco o elemento mais problemático em termos de transparência tal-
cações dadas a essa pesquisa os critérios de uso de pessoas evidente de danos graves parece uma possibilidade razoável, vez seja a ausência de balanço das ações propagandeadas. Mais
naturais na análise e decisão sobre medidas de moderações desde que conectada a regras de devido processo que permi- uma vez, as informações são escassas e dispersas, de maneira
de conteúdo. tam a contestação, a avaliação dos recursos por pessoas e a que a aferição da concretude das ações fica restrita às alega-
Em relação à moderação de conteúdo desinformativo, a reparação em caso de erro na moderação aplicada, o que não ções das empresas, aproximando-se mais de promessas não
verificação de conteúdos, principalmente por agências exter- é garantido em nenhuma das plataformas analisadas. comprováveis. Não há também avaliação da efetividade do que
nas, é prática presente em boa parte das plataformas. Quando A redução do alcance, providência mais presente em casos tem sido implementado nem devido processo, mecanismo que
ocorrem, as checagens são realizadas conforme categoriza- de desinformação, acaba assumindo quase uma condição de poderia viabilizar que os usuários fossem notificados e pudes-
ções da plataforma, diretriz necessária para evitar tratamentos exclusão e aparece como medida de alto impacto sobre os sem se defender em processos de moderação de conteúdo ou
diferentes por cada checadora. Mesmo assim, naturalmente a conteúdos, mas que não tem sua eficiência totalmente com- em eventuais sanções sobre seus posts ou contas aplicadas
complexidade de analisar os “tons de cinza” entre um e outro provada. Estudos mencionados na pesquisa apontam uma pelas plataformas.
extremo enseja riscos de avaliações questionáveis, razão pela redução na velocidade na propagação de desinformações, Concluímos que as ações ainda carecem de organização,
qual a verificação deveria contar com mecanismos de devido mas a limitação do alcance não impede que tais conteúdos robustez, transparência e avaliação. O problema da desinfor-
processo efetivos para a mitigação de abusos e erros. Nas desinformativos sigam circulando. É necessário aprofundar mação precisa ser efetivamente reconhecido, comunicado
plataformas onde o conteúdo é verificado, este é “marcado” investigações sobre o tema, com destaque para investigações e enfrentado pelas plataformas, o que passa pela revisão da
(flagged). Agentes políticos e acadêmicos apontaram a inefi- que possam efetivamente incidir sobre a operação de grupos estrutura e do modelo de negócios dessas empresas, sob pena
cácia deste mecanismo; estudos mostraram que os alertas profissionais que usam as plataformas com sistemas que per- de seguirem oferecendo remédios incapazes de interromper
inclusive chamam a atenção para o conteúdo. Mesmo com mitem burlar essas limitações. uma forma de comunicação que hoje se converteu em um dos
esse “efeito colateral”, parece-nos uma ferramenta necessária. Parte das plataformas analisadas disponibiliza mais principais desafios às democracias em todo o mundo.
12 P E S Q U I S A F A K E N E W S C O M O A S P L A T A F O R M A S E N F R E N T A M A D E S I N F O R M A Ç Ã O 13

Síntese das medidas adotadas pelas


plataformas digitais (2018-2020)

Facebook Instagram WhatsApp YouTube Tw itter Facebook Instagram WhatsApp YouTube Tw itter

Política específica e estruturada de combate à


Sinalização de conteúdos desinformativos x x x
desinformação
ABORDAGEM DO FENÔMENO

PROMOÇÃO DE INFORMAÇÕES E TRANSPARÊNCIA


Disponibilização da informação sobre verificação do
Conceito de desinformação adotado e definido x x x x
conteúdo

Disponibilização de conteúdo de contexto ou fontes


Menção à desinformação em diretrizes ou políticas x x x x x x x x
oficiais

Medidas correlatas que incidem sobre desinformação x x x x x Medidas de transparência de anúncios x x x x

Canais de informação sobre medidas contra


Estrutura institucional específica para o tema
desinformação

Verificação de conteúdos desinformativos por equipe Balanço das medidas adotadas contra desinformação
x x
própria nos relatórios de transparência

Verificação de conteúdos desinformativos por


x x x x Iniciativas de educação midiática x x x x x
terceiros

Remoção de conteúdos desinformativos x x Projetos de apoio ao jornalismo profissional x x x x x


MODERAÇÃO DE CONTEÚDO

Redução de alcance x x x x Proibição de contas inautênticas x x x x

MEDIDAS CORRELATAS
Desmonetização e medidas restritivas em anúncios e
x x x Restrições a contas e ferramentas automatizadas x x x
conteúdos impulsionados

Suspensão de contas por desinformação x x Vedação de veiculação de discurso de ódio x x x x

Recurso para denúncia de desinformação x x Restrição de mídias manipuladas x x x x

Notificação de usuários em caso de sanção por


x x x x Restrição à circulação de mensagens x
desinformação

Recurso à plataforma em caso de sanção por


x x
desinformação

(*) No YouTube e no Twitter, a moderação ocorre quando a plataforma enquadra determinadas desinformações em sua política contra conteúdos que geram dano ou que afetem eleições

Você também pode gostar