Escolar Documentos
Profissional Documentos
Cultura Documentos
Rio de Janeiro
2022
NATALIA DE MACEDO COUTO
Rio de Janeiro
2022
Dados Internacionais de Catalogação na Publicação (CIP)
Ficha catalográfica elaborada pelo Sistema de Bibliotecas/FGV
CDD – 341.3221
3
7
4
3
45674
2437447173
437443
7
3
734
914567447
2567379413
4
3
734
914567
344343
0
4!"#!"#$!$$
4
241437
734424
4
24374
3
2
347
67
4
2437470%14
70%14
70%2
77&
294
7
24374
7
2
27
70'44
9
4(
)))))
7
27 )))))
))))) )))))
))))) )))))
))))) )))))
))))) )))))
*+,-./-012/+*,3-4-./--15,67,-./-8988:
?@ABCDEFGHIFJKKLMKNFLOIPQLFJMNLJJPRHSTHRTRHELEUGVGEPWXYVZGVEG[EG[[\XG]^VG[EGPN[[NE_]]`[abb[NP^VNcSO[\dXcPWZcHVbeNV\YPGV
?fghijDkflmnnBDmofljpjkqfDBgmijDkjrlgfDsfqijltulvwvxxyvzx{rl|qkwl{x}rl~vw
AGRADECIMENTOS
“Fundamental é mesmo o amor, é impossível ser feliz sozinho”. Parafraseando Tom Jobim, eu
inicio meus agradecimentos, pois sozinha eu não teria chegado até aqui. Foi preciso uma rede
de apoio para que eu pudesse conciliar o mestrado com meu melhor presente, a maternidade.
Por isso, eu gostaria de agradecer a cada pessoa que participou desta jornada. Primeiro, aos
meus pais, Lúcia e Nilo, que sempre incentivaram meus estudos e forneceram as bases para que
eu conseguisse alcançar meus objetivos. Ao meu irmão, Rodrigo, que é um grande exemplo de
determinação. Ao meu marido, Ricardo, que ficou ao meu lado, incansavelmente, me
proporcionando tranquilidade e força no meu caminhar, além de zelar com carinho pelo nosso
pequeno Arthur. À minha família e amigos, que sempre me apoiaram e incentivaram, agradeço
a compreensão pela abdicação do convívio.
E não poderia deixar de manifestar, ao meu orientador, Luca Belli, minha gratidão e admiração,
que me mostrou que, além de sermos profissionais, somos, antes de tudo, humanos, e, como
tal, devemos respeitar cada etapa de nossas vidas. Aproveito também para agradecer ao CTS-
FGV, sobretudo a Yasmin Curzi e Nicolo Zingales, pelos ensinamentos transmitidos nas
discussões promovidas, tão desafiadoras e incentivadoras à pesquisa sobre moderação de
conteúdo nas redes sociais.
Agradeço também àqueles que forneceram os meios para a realização deste mestrado, o
escritório, no qual sou associada, na pessoa do Dr. Marcos Figueiredo, e a Fundação Getúlio
Vargas. Por fim, aos meus colegas de turma, muito obrigada pela parceria nas discussões
acadêmicas.
Abstract: In a digital society, social media platforms increasingly play a central role in the
economy and democracy, with power to influence what, how and when information is accessed
by an user. To keep the digital environment attractive for the performance of their business
model, social media platforms need a healthy space, free from harmful speech (hate speech,
disinformation, etc.) and personalized. For this, they moderate the content posted by users and
manage the information flow through their recommender systems. This activity calls attention
to a procedure without transparency and justification, with decisions that affect the fundamental
rights of individuals, such as, for example, those referring to freedom of expression, privacy
and data protection and due process. Social networks, today, regulate the private digital space
alone, according to their terms of use and the architecture of their algorithmic systems, which,
consequently, generates criticism of legitimacy in this governance. Considering that platforms
are private entities and in the performance of their activities they can violate fundamental rights,
produce externalities and information asymmetry, technical justifications for their regulation
by the State are present. However, this regulation, as defended in this work, should not be based
on a command and control arrangement, since the presence of the actors that will be affected
by the regulation is important for the regulation to be more efficient. The complexity of society
and the evolution of institutional arrangements guide the realization of a more responsive
regulation, based on the regulation of the procedures addressed in the operation of the activity
of social networks and that consider the multiple actors involved. The hypothesis of this work
is, therefore, that the State, through the Executive Power, has a role to play in the regulation of
social network platforms. Within a co-regulation arrangement, regulatory norms may require
participation, transparency and accountability, while taking advantage of the expertise of those
regulated. As for the regulatory instrument, this work argues that the most appropriate would
be a Regulatory Agency, either through the creation of a new agency or through an existing
one.
Key words: Regulation; digital platforms; social networks; democratic legitimacy; online
content moderation; institutional arrangements; co-regulation; regulatory agency.
SUMÁRIO
1 INTRODUÇÃO ..................................................................................................................................... 9
1.1 DISTINÇÕES PRELIMINARES: INTERNET E PLATAFORMAS DIGITAIS DE REDES SOCIAIS .................................................... 11
1.2 O MODELO DE NEGÓCIOS DAS REDES SOCIAIS ..................................................................................................... 15
1.3 PROBLEMA E JUSTIFICATIVA DA PESQUISA .......................................................................................................... 17
1.4 OBJETO, OBJETIVOS E ORGANIZAÇÃO DO TRABALHO ............................................................................................ 21
2 A REGULAÇÃO DAS PLATAFORMAS DE REDES SOCIAIS NO ESPAÇO DIGITAL .....................................25
2.1 O UNIVERSO DA MODERAÇÃO DE CONTEÚDO ONLINE........................................................................................... 26
2.1.1 Moderação Automatizada e humana ..................................................................................................... 30
2.1.2 Moderação transparente e sigilosa ......................................................................................................... 32
2.1.3 Moderação ex ante e ex post .................................................................................................................. 35
2.1.4 Moderação centralizada e descentralizada............................................................................................. 35
2.2 REMÉDIOS E ORIENTAÇÕES NORMATIVAS PARA A MODERAÇÃO DE CONTEÚDO .......................................................... 38
2.3 SISTEMAS DE RECOMENDAÇÃO DE CONTEÚDO .................................................................................................... 40
2.4 OS PERIGOS E PROBLEMAS ENFRENTADOS DA MODERAÇÃO DE CONTEÚDO ONLINE. ................................................... 46
2.4.1 Os perigos: discursos prejudiciais e ilícitos. ............................................................................................. 46
2.4.2 Os problemas: inconsistência, escalabilidade, opacidade nas políticas de uso e decisões tomadas e
natureza privada das plataformas de mídias sociais. ........................................................................................... 51
2.5 RESPONSABILIDADE DAS PLATAFORMAS DIGITAIS PELO EXERCÍCIO DA MODERAÇÃO DE CONTEÚDO. .............................. 53
2.5.1 Responsabilidade das plataformas de redes sociais à luz da legislação americana ............................... 54
2.5.2 Responsabilidade das plataformas de redes sociais à luz da legislação da União Europeia ................... 57
2.5.3 Responsabilidade das plataformas de redes sociais à luz da legislação brasileira ................................. 58
3 OS DIREITOS FUNDAMENTAIS AFETADOS PELA MODERAÇÃO DE CONTEÚDO ONLINE ......................65
3.1 DIREITO À LIBERDADE DE EXPRESSÃO ................................................................................................................ 67
3.1.1 Perspectiva brasileira .............................................................................................................................. 71
3.2 DIREITO À PRIVACIDADE ................................................................................................................................. 76
3.2.1 Da privacidade à proteção de dados ....................................................................................................... 79
3.2.2 Perspectiva brasileira .............................................................................................................................. 83
3.3 DIREITO AO DEVIDO PROCESSO ........................................................................................................................ 86
3.3.1 Perspectiva brasileira .............................................................................................................................. 90
3.4 APLICAÇÃO DOS DIREITOS FUNDAMENTAIS AS PLATAFORMAS DIGITAIS .................................................................... 93
3.4.1 Constitucionalismo Digital ....................................................................................................................... 97
4 GOVERNANÇA DAS PLATAFORMAS DE REDES SOCIAIS ....................................................................102
4.1 GOVERNANÇA E REGULAÇÃO: NOÇÕES DISTINTAS.............................................................................................. 102
4.1.1 Governança das redes sociais ................................................................................................................ 105
4.2 CRÍTICAS À GOVERNANÇA EXERCIDA PELAS PLATAFORMAS DE REDES SOCIAIS NO AMBIENTE DIGITAL ............................ 108
4.2.1 Abordagem multissetorial ..................................................................................................................... 111
4.2.2 Uma atuação baseada em deveres procedimentais e direitos humanos por design ............................ 118
4.2.2.1 Transparência ..........................................................................................................................................................119
4.2.3 Participação dos usuários na Governança das plataformas ................................................................. 124
4.2.4 Uma análise tridimensional da legitimidade das plataformas digitais: input, throughput e output .... 125
4.3 RESPONSABILIDADE SOCIAL CORPORATIVA ....................................................................................................... 129
5 A REGULAÇÃO DAS PLATAFORMAS DE REDES SOCIAIS ....................................................................132
5.1 O ESTADO REGULADOR ............................................................................................................................... 133
5.1.1 O cenário do surgimento do Estado Regulador ..................................................................................... 133
5.1.2 O Estado Regulador contemporâneo .................................................................................................... 137
5.2 POR QUE REGULAR AS PLATAFORMAS DE REDES SOCIAIS? ................................................................................... 143
5.2.1 A ascensão das plataformas digitais à regulação de conteúdo nas redes sociais ................................. 145
5.2.2 Fundamentos da regulação estatal ....................................................................................................... 148
5.2.2.1 Proteção dos direitos fundamentais........................................................................................................................149
5.2.2.2 Externalidades negativas .........................................................................................................................................149
5.2.2.3 Assimetria informacional .........................................................................................................................................151
5.2.2.4 A doutrina do interesse público (public utility)........................................................................................................153
5.3 ALGUMAS LIÇÕES SOBRE A REGULAÇÃO DO MODELO DE TELECOMUNICAÇÕES QUE PODEM SER APLICADAS NA REGULAÇÃO
DAS PLATAFORMAS DE REDES SOCIAIS ........................................................................................................................... 156
5.3.1 Modelo americano ................................................................................................................................ 156
5.3.2 Modelo brasileiro .................................................................................................................................. 158
5.4 QUAIS ARRANJOS INSTITUCIONAIS PODEM REGULAR AS PLATAFORMAS DE REDES SOCIAIS? ........................................ 164
5.4.1 Regulação direta ................................................................................................................................... 165
5.4.1.1 Análise de caso: a regulação das plataformas de mídias sociais na China ..............................................................169
5.4.2 Autorregulação ...................................................................................................................................... 173
5.4.2.1 Autorregulação das plataformas de redes sociais: uma boa escolha? ....................................................................174
5.4.2.2 Análise de caso: a experiência europeia sobre a autorregulação das plataformas digitais no combate à
desinformação. .......................................................................................................................................................................178
5.4.2.2.1 O Código de Desinformação ....................................................................................................................................178
5.4.2.2.2 Resultados: Necessidade de um novo arranjo institucional ....................................................................................182
5.4.3 Corregulação ......................................................................................................................................... 184
5.4.3.1 Reino Unido: A Lei de Segurança Online (Online Safety Bill) ...................................................................................189
5.4.3.2 A Lei de Serviços Digitais Europeia (Digital Service Act – DSA). ...............................................................................191
1 INTRODUÇÃO
1
Facebook e Instagram removem vídeo de Jair Bolsonaro por violação de regras. G1. Brasília, 30 de março de
2020. Tecnologia. Disponível em: htps://g1.globo.com/economia/tecnologia/noticia/2020/03/30/facebook-e-
instagram-removem-video-de-jair-bolsonaro-por-violacao-de-regras.ghtml Acesso em 20/06/2021.
2
COMITÊ DE SUPERVISÃO DO FACEBOOK. Decisão nº 2021-008-FB-FBR, publicada em 19 de agosto de
2021. Disponível em https://oversightboard.com/decision/FB-B6NGYREK/ . Acesso em em 23/08/2021. Segundo
o resumo do caso, “o Comitê constatou que a decisão do Facebook de manter o conteúdo na plataforma era coerente
com as suas políticas sobre conteúdo. O Comitê concluiu que o conteúdo incluía algumas informações incorretas
que causavam preocupação, considerando a gravidade da pandemia no Brasil e o status do conselho como
instituição pública. No entanto, ele concluiu que o conteúdo não criava risco de danos iminentes e deveria,
portanto, permanecer na plataforma”.
3
Facebook e Twitter excluem postagens de Trump com 'desinformação nociva sobre covid-19'. BBC News/
Brasil. 05 de agosto de 2020. Disponível em: https://www.bbc.com/portuguese/internacional-53674195 Acesso
em 20/06/2021.
4
Ibid. Disponível em: https://www.bbc.com/portuguese/internacional-53674195 Acesso em 20/06/2021.
5
COMITÊ DE SUPERVISÃO DO FACEBOOK. Decisão nº 2021-001-FB-FBR. Publicada em 05 de maio de
2021. Disponível em: https://oversightboard.com/decision/FB-691QAMHJ/ Acesso em 23/08/2021.
10
6
BOLSONARO. Presidente Jair. Live da Semana - Presidente Jair Bolsonaro. Youtube, 29 de julho de 2021.
Disponível em: https://www.youtube.com/watch?v=C4sE3OAVpHY Acesso em 23/08/2021.
7
BOLSONARO. Presidente Jair. Democracia ou fraude? Youtube, 01 de julho de 2021. Disponível em:
https://www.youtube.com/watch?v=lt1ZcivVMqU Acesso em 23/08/2021.
8
ESTADÃO. Bolsonaro: Brasil pode ter 'problema pior' que EUA em 2022. Youtube, 07 de janeiro de 2021.
Disponível em: https://www.youtube.com/watch?v=GFEzMlalf14 Acesso em 23/08/2021.
9
HARTMANN, Ivar. MONTEIRO, Julia. Fake News no Contexto da Pandemia e Emergência Social: os deveres
e responsabilidades das plataformas de Redes Sociais na Moderação de Conteúdo Online: entre a Teoria e as
Proposições Legislativas. RDP, Brasília, volume 17, n. 94, 388-414, jul/ago.2020. p.391.
11
10
Segundo Clara Keller, a definição mais comum de internet é de que ela é “uma rede composta por redes locais
(uma rede das redes), cada uma delas direcionada às necessidades de um grupo específico de usuários e operada
por agentes diferentes (como provedores de serviço, empresas, universidades e governos), compondo assim uma
vasta coleção de sistemas de informação geridos independentemente, porém interoperáveis”. KELLER, Clara
Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do Estado. Rio de
Janeiro: Lumen Juris. 2019, p. 35.
11
Elettra Bietti explica que a internet se configura como uma rede de host de computadores que se interconectam
de forma distribuída por meio do protocolo TCP/IP, um conjunto de regras que permite que todas as redes se
comuniquem por meio de um padrão comum público em aberto. É esse protocolo que permite a comunicação entre
qualquer rede eletrônica ou sistema de computador e regula como os dados são transferidos de uma rede para outra.
O protocolo TCP decompõe as informações em dados, que, juntos, formam pequenos pacotes que são enviados do
ponto A para o ponto B, roteados de forma independente, sem seguir um caminho pré-determinado. A utilização
de um endereço único de IP, tanto na origem como no destino, é o que permite que esses pacotes transitem por
redes diversas e sejam, ao final, recompostos para transmitir a informação ao seu destinatário. BIETTI, Elettra. A
Genealogy of Digital Platform Regulation. 3 de junho de 2021, p. 10. Disponível em:
https://ssrn.com/abstract=3859487 Acesso em: 10/01/2022. Sobre esse ponto, Luca Belli afirma que é esse design
da internet que sustenta um ambiente digital aberto. Segundo ele, “a estrutura fundamental delineada pelo TCP/IP
produziu uma rede de próposito geral, baseada na abertura, descentralização e interoperabilidade. Tais
características técnicas fundamentais tem consequências importantes, tando permitido o florescimento da inovação
online e capacitando os usuários finais nas bordas da rede”. BELLi, Luca. Fundamentos da Regulação da
tecnologia digital: entender como a tecnologia digital regula para conseguir regulá-la. Em: Regulação e novas
tecnologias. Coordenação: Armando Castelar Pinheiro, Antônio José Maristello Porto, Patrícia Regina Pinheiro
Sampaio. Rio de Janeiro: FGV Editora, 2022, p. 69.
12
BELLi, Luca. Fundamentos da Regulação da tecnologia digital: entender como a tecnologia digital regula para
conseguir regulá-la. Em: Regulação e novas tecnologias. Coordenação: Armando Castelar Pinheiro, Antônio José
Maristello Porto, Patrícia Regina Pinheiro Sampaio. Rio de Janeiro: FGV Editora, 2022, p.63.
12
armazenados em computadores por meio de URLs13 exclusivos, tal como são utilizados nos
dias atuais14.
A internet é uma tecnologia digital, assim como outras15, que é estruturada em camadas
interdependentes, conforme explicado por Clara Keller16. Dessa forma, pode-se diferenciar as
atividades que são realizadas na camada física, estrutura da internet, como, por exemplo, as
redes de telecomunicações (cabos de transmissão, roteadores, etc) e hardwares (laptop, celular,
etc), das que ocorrem em na camada do software, relacionada à programação por códigos, que
corresponde aos recursos virtuais e padrões técnicos para operação do sistema (aplicativos,
sistema operacional e protocolos de comunicação), daquelas que acontecem na camada de
conteúdo, local onde ocorre as interações dos usuários e provedores de serviços e aplicações,
que suportam a circulação de conteúdo (textos, imagens, vídeos e outros).
A abertura para as empresas privadas tornou a internet disponível para bilhões de
usuários, no entanto, diferentemente do seu início, esses usuários, majoritariamente, são meros
consumidores de tecnologia, sem conhecer o seu funcionamento. Essa mudança abriu espaço
para que as plataformas centralizassem controle e poder através do desenvolvimento de
softwares que facilitavam a navegação do usuário na rede17.
Dessa forma, desenvolvedores de software começaram a oferecer mais do que
programas, passaram a oferecer plataformas flexíveis que possibilitavam que um código fosse
desenvolvido e implementado para o desenvolvimento de uma determinada atividade18. Essas
plataformas digitais estão situadas na camada de software e as interações que nela ocorrem
estão situadas na camada de conteúdo da internet.
Originalmente, conforme colacado por Luca Belli19, o dicionário Larousse sugere que o
termo “plataforma” apareceu pela primeira vez, em 1434, no francês, para definir uma
13
Uniform Resource Locator – URL, que significa um localizador uniforme de recurso e se refere ao endereço de
rede no qual se encontra algum recurso informático, como, por exemplo, uma página web, um arquivo de
computador ou um dispositivo periférico, como uma impressora.
14
BIETTI, Elettra. A Genealogy of Digital Platform Regulation. 03 de junho de 2021. Disponível em:
https://ssrn.com/abstract=3859487 Acesso em: 10/01/2022
15
Por exemplo, as plataformas digitais, que serão tratadas um pouco mais abaixo nesse texto, ou a inteligência
artificial, tecnologia utilizada pelas redes sociais em seus sistemas automatizados e que podem fazer uso da
internet. Todos esses exemplos representam tecnologias que devem ser conhecidas para poderem ser reguladas.
16
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris.2019, p. 23-24.
17
BELLi, Luca. Fundamentos da Regulação da tecnologia digital: entender como a tecnologia digital regula para
conseguir regulá-la. Em: Regulação e novas tecnologias. Coordenação: Armando Castelar Pinheiro, Antônio
José Maristello Porto, Patrícia Regina Pinheiro Sampaio. Rio de Janeiro: FGV Editora, 2022, p.63.
18
GORWA, Robert. What is Plataform Governance? Information, Communication & Society. University of
Oxford. 2019. Disponível em: https://gorwa.co.uk/files/platformgovernance.pdf Acesso em 10/01/2022
19
BELLI, Luca. Plataforms. Glossary of platform law and policy terms. Rio de Janeiro: FGV Direito Rio, 2021,
p.239-242. Disponível em: https://bibliotecadigital.fgv.br/dspace/handle/10438/31365. Acesso em 10/01/2022
13
superfície horizontal que atua como suporte. A partir deste significado, pode-se construir a
representação da plataforma como uma estrutura que será a base para que algo seja operado ou
construído. As plataformas, portanto, podem ser vislumbradas como estruturas técnicas e de
governança que facilitam as relações e troca de valores entre as diferentes categoriais de
usuários.
As plataformas digitais são frequentemente relacionadas a ideia de um mercado de “dois
lados”, cujo serviço é realizado mediante a internet e uso de dados pessoais como base de um
ativo estratégico. Nesses mercados, os usuários são reunidos por um operador de plataforma
para facilitar uma interação (troca de informações, uma transação comercial, etc.). No contexto
das redes sociais, por exemplo, os usuários estão interessados em interações sociais, produzindo
conteúdo, de um lado, e, de outro, consumindo esse conteúdo postado. Note-se, contudo, que
não é necessário que haja uma divisão entre esses grupos, podendo os mesmos usuários criar e
consumir conteúdo.
Por isso, é fundamental compreender que o serviço prestado por uma plataforma é o de
aproximar usuários dos dois lados, permitindo que eles se encontrem mediante uma redução
dos custos de transação. Conforme explicitado por Lory Obel, a verdadeira atividade dessas
empresas é a venda de acesso ao software, aos algoritmos de pareamento e a um sistema digital
de reputação e confiança entre seus usuários (de ambos os lados, prestadores e consumidores)20.
Segundo Harold Feld21, o conceito de plataforma digital deve ser identificado mediante
a combinação de três fatores para o desempenho de atividades, que operam sob condições
econômicas semelhantes: i) o serviço é acessado via internet22; ii) o serviço funciona como um
mercado de dois lados, com pelo menos um deles aberto ao público e com permissão para que
partes desse público produza conteúdo, compre ou venda bens ou serviços, ou qualquer outra
forma de interação que ultrapasse a posição de meros consumidores passivos; iii) o serviço
desfrute de efeitos de rede23.
20
LOBEL, Orly. The law of the platform. Minnesota Law Review. N. 101, 2016, p. 106. Disponível em:
https://bit.ly/2WsUms4 Acesso em: 10/01/2022.
21
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital Platforms.
Roosevelt Institute. Public Knowledge. 2019, pp.30-32.
22
O fato do serviço ser digital é importante porque significa que o espaço em que se constroem as relações é novo
e a arquitetura é totalmente comandada pelas empresas e pode ser alterada por ela a qualquer tempo, o que, por
consequência limita a ação dos usuários, representando uma regulação ex ante. HARTMANN, Ivar. Introdução à
regulação de novas tecnologias. Em: Regulação e novas tecnologias. Coordenação: Armando Castelar Pinheiro,
Antônio José Maristello Porto, Patrícia Regina Pinheiro Sampaio. Rio de Janeiro: FGV Editora, 2022, p.37.
23
Segundo Hartmann, esse efeito de rede é uma meta secundária das plataformas. Quanto maior o número de
pessoas na plataforma, mais chances de o usuário conseguir o que deseja. Logo, mais valiosa essa plataforma se
torna. Ilustrando a importância do efeito em rede, um consumidor irá preferir entrar em uma rede social com 50
mil usuários em detrimento daquela com 5 mil, já que na primeira ele encontra mais informação para consumo.
Essa é uma das razões que as plataformas tendem ao monopólio. HARTMANN, Ivar. Introdução à regulação de
14
Entendido o termo plataformas digital, é possível restringir ainda mais o seu significado
de acordo com o tipo de atividade praticada pela plataforma. Nesse sentido, a Comissão
Europeia24, em 2016, propôs a seguinte classificação: (i) marketplaces e plataformas de e-
commerce; (ii) ecossistemas móveis e plataformas de distribuição de aplicativo; (iii) serviços
de busca na internet; (iv) plataformas de publicidade; e, (v) plataformas de mídias sociais, as
quais são o objeto deste trabalho.
No que se refere às plataformas de mídias sociais, não há um conceito unívoco. É certo
que elas permitem, a partir de perfis pessoais, uma ampla interação entre seus usuários no
ambiente digital. A literatura traz alguns conceitos sobre o tema. Gillespie argumenta que a
característica central de uma plataforma de mídia social é a capacidade de interface e criação
de conteúdos de relevância para uma variedade de atores e diversas práticas de uso25.
Kietzmann et al. organizaram o entendimento sobre as plataformas de redes sociais a partir de
uma estrutura de colmeia com sete blocos de construção funcionais: identidade, conversas,
compartilhamento, presença, relacionamentos, reputação e grupos26.
No Brasil, não há uma definição legal sobre o que seja plataformas de redes sociais. O
Marco Civil da Internet (MCI – Lei 12.965/2014) não trouxe esse conceito, embora a Medida
Provisória (MP) nº 1.068, de 2021 (que foi rejeitada) tenha tentado alterá-lo para dispor sobre
o uso de redes sociais27. O MCI utiliza o termo “aplicações de internet” em seu artigo 5º, VII,
novas tecnologias. Em: Regulação e novas tecnologias. Coordenação: Armando Castelar Pinheiro, Antônio José
Maristello Porto, Patrícia Regina Pinheiro Sampaio. Rio de Janeiro: FGV Editora, 202, p.36.
24
EUROPEAN COMMISSION. (2016). Online Platforms Accompanying the document Communication on
Online Platforms and the Digital Single Market. Commission Staff Working Document. Disponível em:
https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:52016SC0172&from=EN Acesso em:
10/01/2022.
25
GILLESPIE, Tarleton. “The Politics of ‘Platforms” New Media & Society, vol. 12. Nº3, 2010, p. 347–364.
Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1601487 Acesso em: 10/01/2022.
26
KIETZMANN, Jan H; HERMKENS, Kristopher; MCCARTHY Ian P.; SILVESTRE, Bruno S. "Social media?
Get serious! Understanding the functional building blocks of social media" Business Horizons. Vol. 54, 241—
251, 2011. Disponível em:
https://www.sciencedirect.com/science/article/abs/pii/S0007681311000061?casa_token=pWW9skMOni8AAAA
A:lQlrbzagRKJ8M2ifZfF514flKDpG1ZMyBMezRtWA4A-J_GsKdLFjxAZFGW1OpAUPrKbso_cgYTk
Acesso em: 10/01/2022.
27
A MP estabelecia em seu artigo 5º, IX: aplicação de internet cuja principal finalidade seja o compartilhamento
e a disseminação, pelos usuários, de opiniões e informações, veiculados por textos ou arquivos de imagens, sonoros
ou audiovisuais, em uma única plataforma, por meio de contas conectadas ou acessíveis de forma articulada,
permitida a conexão entre usuários, e que seja provida por pessoa jurídica que exerça atividade com fins
econômicos e de forma organizada, mediante a oferta de serviços ao público brasileiro com, no mínimo, dez
milhões de usuários registrados no País. BRASIL, MP 1068 de 21 de setembro de 2021, que alterava a Lei nº
12.965, de 23 de abril de 2014, e a Lei nº 9.610, de 19 de fevereiro de 1998, para dispor sobre o uso de redes
sociais. Disponível em: https://www.in.gov.br/en/web/dou/-/medida-provisoria-n-1.068-de-6-de-setembro-de-
2021-343277275 Acesso em: 10/06/2022. É interessante pontuar que está tramitando no Congresso Nacional, o
PL 2630/20, que traz um conceito sobre rede social, no mesmo sentido daquele acima mencionado. Veja: Artigo
5º, IV – “rede social: aplicação de internet cuja principal finalidade seja o compartilhamento e a disseminação,
pelos usuários, de opiniões e informações, veiculados por textos ou arquivos de imagens, sonoros ou audiovisuais,
em uma única plataforma, por meio de contas conectadas ou acessíveis de forma articulada, permitida a conexão
15
designar “o conjunto de funcionalidades que podem ser acessadas por meio de um terminal
conectado à internet” 28. Esse conceito corresponde às plataformas digitais, de uma forma geral,
que operam na camada de aplicação29.
critérios de recomendação de conteúdo que não estejam ligados a atrair a atenção dos usuários
para o lucro31.
Esse modelo de negócios que prioriza a coleta de dados e seu processamento através da
formação de grandes bancos de dados, monetizando as operações dele decorrentes é chamado
de “capitalismo da vigilância” por Zuboff 32. Dessa forma, o controle dos dados dos usuários
e suas preferências são a fonte de lucros das plataformas, permitindo a manipulação sobre a
autodeterminação dos indivíduos, seja para a mercantilização ou para influenciar seu
comportamento.
Criou-se um clico vicioso e lucrativo, o que se permite concluir que a relação entre
usuários de redes sociais e provedor de aplicações não seja marcada pela gratuidade, mas por
uma remuneração indireta. As plataformas são remuneradas pelos serviços de publicidade e
outros que tenham o usuário como o publico alvo33.
Nos últimos anos, a atividade lucrativa das plataformas, inicialmente focada na
publicidade direcionada ao consumo dos usuários, passou também a visar potenciais eleitores.
Isso porque a coleta de dados também permite formar o perfil eleitoral dos indivíduos. Assim,
os segmentos de mercado publicitário, identificados nas plataformas digitais, começaram a ser
arrematados não só por empresas de publicidade, mas, também, por candidatos e partidos
políticos em busca de melhores resultados eleitorais.
No que se refere à comunicação, houve profunda modificação no seu exercício e as
plataformas sociais assumiram papel central. Agora não só os editoriais trazem a informação a
ser consumida, mas também os próprios usuários podem compartilhar notícias online. Essa
nova forma de se expressar trouxe problemas sistêmicos – desinformação, propagação de
discurso de ódio, assédio, divulgação de pornografia infantil, atos extremistas, racismo, dentre
outros males. As mídias digitais trouxeram um ambiente de baixo custo para a propagação da
informação, tornando mais difícil o cumprimento de normas de veracidade e objetividade pelas
empresas de comunicação.
Dentro dessa nova realidade, as plataformas digitais passaram a controlar a distribuição
de conteúdo, trazendo algumas questões centrais. Um relatório, produzido pelo George J.
31
WINCHCOMB. Tim. White paper: Ofcom: Use of AI in online content moderation. Cambridge Consultants,
2019. Disponível em: https://www.cambridgeconsultants.com/insights/whitepaper/ofcom-use-ai-online-content-
moderation Acesso em 10/01/2022. FELD. Harold. The Case for the Digital Platform Act: Market Structure and
Regulation of Digital Platforms. Roosevelt Institute. Public Knowledge. 2019, p. 134.
32
ZUBOFF, Shoshana. The age of surveillance capitalism: The Fight for a Human Future at the New Frontier
of Power. New York: Public Affairs. 2018.
33
TEFFÉ, Chiara Spadaccini; MORAES, Maria Celina Bodin. Redes sociais virtuais: privacidade e
responsabilidade civil. Análise a partir do Marco Civil da Internet. Pensar-Revista de Ciências Jurídicas, v. 22,
n. 1, p. 108-146, 2017. Disponível em: https://periodicos.unifor.br/rpen/article/view/6272 Acesso em 10/01/2022.
17
Stigler Center, da Universidade de Chicago 34, aponta que as plataformas digitais eliminam os
jornais, monopolizando o mercado de notícias, o que acarreta na concentração de informações
dentro dos moldes por elas desejados. Substitui-se a visão de diversas fontes editoriais por
poucas, pertencentes às empresas dominantes no mercado, comprometendo, assim, um robusto
compartilhamento de conhecimento, na qual uma verdadeira democracia se sustenta.
Para manter todo esse sistema funcionando e atrativo para que os usuários permaneçam
engajados, de forma a possibilitar a coleta de dados, as plataformas desenvolveram ferramentas
para nutrir um espaço digital saudável, que permite aos usuários interagir, criar e consumir
conteúdo. A moderação de conteúdo é o instrumento que autoriza a plataforma alcançar um
ambiente que reflete a expectativa de seus usuários, deixando-os confortáveis para navegar e
interagir. Com isso, as redes sociais obtem engajamento e atenção e, consequentemente, mais
dados, o que se transforma em mais poder.
34
ZINGALES, Luigi. LANCIERI, Filipo. Stigler Committee on Digital Platforms: Policy Brief. Stigler Center for
the Study of the Economy and the State. Chicago Booth. 2019, pp. 6-22. Disponível em:
https://www.publicknowledge.org/wp-content/uploads/2019/09/Stigler-Committee-on-Digital-Platforms-Final-
Report.pdf. Acesso em 20/11/2020.
18
assimetria de informação35, tanto entre elas e usuários, como entre elas e o próprio Estado, e
afetam os direitos fundamentais dos usuários36, pelo que retira desses entes intermediários a
legitimidade para governar o ambiente online sem supervisão37. Um dos pontos que será
analisado neste trabalho é como deve ser realizada essa supervisão.
Sendo a liberdade econômica o princípio vetor do sistema capitalista, adotado pela
Constituição Federal Brasileira em seu artigo 170, há situações em que esse princípio é
excepcionado e autorizada a intervenção estatal. Demandas por regulação de uma determinada
atividade são, normalmente, originadas da perseguição de interesse público, em razão da
existência de falhas de mercado 38, mas também podem advir da proteção de direitos humanos
e da solidariedade social39.
Essa lógica é aplicável às plataformas de redes sociais. Portanto, se a atividade de
moderação de conteúdo pode ferir direitos fundamentais dos indivíduos – liberdade de
expressão, privacidade e devido processo, por exemplo, ou se, do desenvolvimento da atividade
empresarial apresentam-se falhas de mercado, como, por exemplo, a assimetria de informação
entre usuário e plataformas, é possível que o Estado intervenha através da regulação do setor.
35
BAPTISTA, Patrícia; KELLER, Clara Iglesias. Porque, quando e como regular as novas tecnologias? Os
desafios trazidos pelas inovações disruptivas. Revista de Direito Administrativo – RDA,v. 273,Rio de Janeiro,
p.123-163,17set.2016.Disponível em: http://bibliotecadigital.fgv.br/ojs/index.php/rda/article/view/66659/64683.
Acesso em 25/07/2020. ESTEVES. Uber: o mercado de transporte individual de passageiros: regulação,
externalidades e equilíbrio urbano. In: Revista de Direito Administrativo, Rio de Janeiro,
v.270,set./dez.2015,p.325-361. Disponível em:
http://bibliotecadigital.fgv.br/ojs/index.php/rda/article/view/58746. Acesso em 10/07/2020.
36
KAYE, D. Promotion and protection of the right to freedom of opinion and expression. Relatório especial
oferecido na Assembleia Geral das Nações Unidas, 2019. A/74/486. Disponível em:
<https://www.ohchr.org/Documents/Issues/Opinion/A_74_486.pdf>. Acesso 01/06/2022.
37
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital Platforms.
Roosevelt Institute. Public Knowledge. 2019. BLOCH-WEHBA, Hannah. Global Platform Governance: Private
Power in the Shadow of the State, 72 SMU L. REV. 27, 2019, p. 27-80, p.61. Disponível em:
https://scholar.smu.edu/cgi/viewcontent.cgi?article=4778&context=smulr Acesso em 01/06/2022. DOUEK,
Evelyn. Verified Accountability: Self-Regulation of Content Moderation as an Answer to the Special Problems of
Speech Regulation. Hoover Institution, Aegis Series Paper n. 1903, 2019. Disponível em:
<https://s3.documentcloud.org/documents/6419386/Evelyn-Douek-Hoover-Aegis-Paper-Verified.pdf>. Acesso
em 01/06/2022. KLONICK, Kate. The New Governors: The People, Rules, and Processes Governing Online
Speech. Harvard Law Review. N. 131, 2017. Disponível em: <https://ssrn.com/abstract=2937985>. Acesso em
01/06/2022.
38
BALDWIN, Robert, CAVE, MARTIN e LODGE, Martin. Understanding Regulation. Theory, Strategy and
Pratice. 2ed. Oxford: Oxford University. 2012. Disponível em:
https://oxford.universitypressscholarship.com/view/10.1093/acprof:osobl/9780199576081.001.0001/acprof-
9780199576081-chapter-2 As razões da regulação, notadamente, as falhas de mercado, serão aprofundadas no
capítulo 5 deste trabalho.
39
T. PROSSER. Regulation and Social Solidarity (2006) 33 Journal of Law and Society 364-87 apud BALDWIN,
Robert, CAVE, MARTIN e LODGE, Martin. Understanding Regulation. Theory, Strategy and Pratice. 2ed.
Oxford: Oxford University. 2012, p. 22 Disponível em:
https://oxford.universitypressscholarship.com/view/10.1093/acprof:osobl/9780199576081.001.0001/acprof-
9780199576081-chapter-2 Acesso em 10/01/2022.
19
Ademais, a atividade de interação nas redes sociais ocorre em um espaço que se tornou
uma das principais fontes de opinião pública, motivo pelo qual deve ser considerado uma esfera
pública40. Por esfera pública entende-se o “espaço no qual as pessoas expressam opiniões e
trocam visões do que está acontecendo na sociedade”41. É na esfera pública, delimitada por
atores privados, que circulam as ideias e opiniões que influenciam a vida em sociedade. Esses
atores privados são instituições como, por exemplo, universidade, igrejas, teatros, dentre outros.
No mundo digital, esse espaço denominado de esfera pública digital é dominado pelas
plataformas digitais, notadamente, aquelas que se relacionam a redes sociais.
Afirmar que estão presentes os requisitos técnicos para a regulação estatal, não significa
que ela seja a melhor opção, principalmente quando se associa a presença do Estado a uma
regulação de comando e controle, em que o órgão estatal cria, aplica e supervisiona as regras
para que se alcance o equilíbrio de um determinado setor. Noutro giro, a afirmação de que a
internet é um ambiente livre e não pode ser regulado é falaciosa, vez que, conforme será
analisado neste trabalho, o ambiente online já é regulado pela arquitetura das plataformas.
É preciso investigar qual o arranjo institucional mais adequado para enfrentar os
problemas gerados pela tecnologia das redes sociais. Por essa razão vários fatores precisam ser
considerados antes de se adotar uma posição. É preciso compreender sobre a atividade realizada
pelas redes sociais de moderação de conteúdo e o que está em jogo, bem como analisar a
conjuntura do desenvolvimento social e a governança das redes sociais na internet para definir
se é recomendável algum tipo de interferência do Estado, sem descuidar da sensibilidade do
tema para os Estados Democráticos: regular o conteúdo sem caracterizar censura.
A premissa adotada neste trabalho é que a autorregulação, arranjo que se situa fora da
esfera da regulação estatal, com regimento do comportamento de um grupo pelas regras criadas
por eles próprios através de adesão voluntária, não é suficientemente eficaz para combater os
problemas sistêmicos gerados pela nova forma de comunicação social dos meios digitais, em
razão de possíveis efeitos colaterais mais danosos ao exercício da liberdade de expressão,
privacidade e devido processo.
40
BALKIN. Jack M. How regulate (and not regulate) social media. Journal of Free Speech Law , Knight Institute
Occasional Paper Series, No. 1 (March 25, 2020), Yale Law School, Public Law Research Paper Forthcoming,
2021. Disponível em SSRN: https://ssrn.com/abstract=3484114 Acesso em 10/06/2022.
41
BALKIN. Jack M. How regulate (and not regulate) social media. Journal of Free Speech Law , Knight Institute
Occasional Paper Series, No. 1 (March 25, 2020), Yale Law School, Public Law Research Paper Forthcoming,
2021, p. 72. Disponível em SSRN: https://ssrn.com/abstract=3484114 . Acesso em 10/06/2022.Trecho original:
For purposes of this essay, we can say that the public sphere is the space in which people express opinions and
exchange views that judge what is going on in society.
20
42
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, 2006, pp.
477-491. Disponível em: https://bit.ly/1ngGQAa. Acesso em 10/01/2021.
21
fomentar o debate sobre a futura escolha regulatória do legislador brasileiro. É preciso conhecer
a tecnologia que se pretende regular, os efeitos de sua utilização para a sociedade e o desenho
institucional disponível dentro do modelo de Estado Regulador.
Para tratar de todas essas questões, o trabalho fará uma pesquisa teórica dividida em
duas partes. A primeira parte é composta por duas seções que direcionam o olhar para a
atividade de moderação de conteúdo e seus desdobramentos, que é imprescindível para
conhecimento antes de se iniciar a regulação de um determinado setor. Assim, a primeira seção
se inicia no segundo capítulo e desenvolve o universo da moderação de conteúdo online e traz
sua identificação como uma nova categoria de atividade das plataformas digitais.
A fim de contextualizar o leitor sobre esse novo universo que demanda regulação, neste
capítulo será estudado o conceito de moderação, suas técnicas e maneiras de ser realizada, bem
como os remédios que são aplicados pelas plataformas quando os usuários postam publicações
que ofedem seus termos de uso. Serão trazidas algumas visões normativas que devem orientar
a plataforma na escolha de suas ações. Pela centralidade e importância para o desenvolvimento
do modelo de negócio das redes sociais, os sistemas de recomendação serão tratados em uma
subseção destacada. O capítulo segue elecando os perigos enfrentados pela atividade de
moderação, ou seja, os conteúdos prejudiciais (desinformação, discurso de ódio, etc), que
tornam a esfera pública onde ocorre o debate um espaço hostil, bem como elecando problemas,
como a inconsistência, escalabilidade, opacidade, ausência de clareza e justificação das
decisões tomadas que as plataformas de mídias sociais enfrentam ao moderar. Para finalizar o
capítulo, será apresentada a regulação existente hoje sobre moderação de conteúdo, a
responsabilidade das plataformas de redes sociais contida no Marco Civil da Internet (MCI).
O terceiro capítulo aborda os direitos fundamentais afetados pela moderação de
conteúdo. Serão detalhados os direitos da liberdade de expressão, privacidade e o devido
processo, com destaque para a perspectiva brasileira. Neste ponto será explicitada a visão da
literatura sobre a aplicação dos direitos humanos às redes sociais, empresas privadas. Não é
razoável pensar que as plataformas não possuem responsabilidades com a proteção desses
direitos. Para sanar o desejo por mecanismos que limitassem o poder arbitrário das plataformas,
ideologias, como o constitucionalismo digital, foram construídas. No Brasil, se destaca a teoria
da eficácia horizontal dos direitos fundamentais, à luz do artigo 5º, § 1º, da Constituição da
23
43
BELLI. Luca. Structural Power as a Critical Element of Digital Platforms’ Private Sovereignty. In Edoardo
Celeste, Amélie Heldt and Clara Iglesias Keller (Eds). Constitutionalising Social Media. (Hart 2022), p 06.
44
SUZOR, Nicolas P. Lawless: The secret rules that govern our digital lives. Cambridge University Press, 2019.
45
BELLI. Luca. Structural Power as a Critical Element of Digital Platforms’ Private Sovereignty. In Edoardo
Celeste, Amélie Heldt and Clara Iglesias Keller (Eds). Constitutionalising Social Media. (Hart 2022), p. 06.
46
BELLI. Luca. Structural Power as a Critical Element of Digital Platforms’ Private Sovereignty. In Edoardo
Celeste, Amélie Heldt and Clara Iglesias Keller (Eds). Constitutionalising Social Media. (Hart 2022), pp. 13-15.
47
BELLI. Luca. Structural Power as a Critical Element of Digital Platforms’ Private Sovereignty. In Edoardo
Celeste, Amélie Heldt and Clara Iglesias Keller (Eds). Constitutionalising Social Media. (Hart 2022), p 16.
48
BELLI. Luca. Structural Power as a Critical Element of Digital Platforms’ Private Sovereignty. In Edoardo
Celeste, Amélie Heldt and Clara Iglesias Keller (Eds). Constitutionalising Social Media. (Hart 2022), p. 16.
Trecho original: The effectiveness of regulating by structure is the main reason why policymakers are increasingly
26
delegating traditional regulatory and police functions to the platforms that design and control digital
environments.
49
BELLI. Luca. Structural Power as a Critical Element of Digital Platforms’ Private Sovereignty. In Edoardo
Celeste, Amélie Heldt and Clara Iglesias Keller (Eds). Constitutionalising Social Media. (Hart 2022), pp. 18-19.
50
KLONICK, Kate. The new governors: the people, rules, and processes governing online speech. Harvard Law
Review, n. 131, 2017. Disponível em: https://harvardlawreview.org/wp-content/uploads/2018/04/1598-
1670_Online.pdf Acesso em 10.05.2020.
27
debates coletivos. É por meio da moderação que as plataformas digitais irão controlar o fluxo
informacional, podendo remover postagens, valorizá-las, estimular a participação de usuários
ou excluí-los. Essa atividade se destaca porque as plataformas possuem o poder de criar regras
que irão moldar o comportamento dos usuários, seja através da arquitetura, seja através de seus
termos de uso e políticas de comunidade. Suas decisões serão capazes de influenciar o que será
lido e como será valorizado.
Sobre sua importância, James Grimmelmann 51 relata o episódio relacionado à tentativa
de construção de um wikitorial pelo Jornal Los Angeles Times, em 2005, onde seria permitido
aos leitores reescrever o editorial do sítio eletrônico do Jornal. Em um primeiro momento a
página gerou um debate sobre a Guerra do Iraque, dividindo os leitores entre aqueles que
estavam a favor e, outros, contra. Contudo, posteriormente, em menos de 48h, a página restou
repleta de comentários preconceituosos e fotografias indesejáveis, o que culminou na retirada
da página do ar. O referido autor afirma que a razão da desordem foi a ausência de moderação,
instrumento essencial para a prevenção de abusos online.
Mas não é só para prevenir abusos online para que serve a moderação. As plataformas
a fazem para zelar por sua imagem perante seus acionistas, usuários e anunciantes52. O modelo
de negócio predominante no espaço digital, desenvolvido pelas plataformas digitais,
principalmente as redes sociais, conforme apresentado na introdução, envolve coleta e
processamento de dados de seus usuários. Por isso, é interessante que sejam criados ambientes
saudáveis para que conteúdos sejam postados no ambiente virtual e os usuários permaneçam
engajados.
Segundo Grimmelmann, a moderação de conteúdo online é um “mecanismo de
governança que estrutura a participação do usuário em comunidades virtuais para facilitar a
cooperação e prevenir abusos”53. Assim, as plataformas digitais, ao exercerem a moderação,
cujo objeto é uma comunidade online, perseguem três objetivos: produtividade da rede, abertura
e baixos custos54.
51
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015. Disponível em: https:/ /
digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020. Veja também:
https://www.latimes.com/archives/la-xpm-2005-jun-21-na-wiki21-story.html Acesso em 09/08/2020.
52
GILLESPIE, Tarleton. Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions
That Shape Social Media. Yale University Press, 2018, p. 05.
53
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, p. 47. Disponível em:
https://digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/2. Acesso em 09/08/2020. Trecho original: By
"moderation," I mean the governance mechanisms that structure participation in a community to facilitate
cooperation and prevent abuse.
54
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, pp. 48/49. Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020. O autor define comunidade
28
online como sendo grupos pequenos ou grandes de pessoas que compartilham informações na internet, no qual é
possível identificar três elementos: membros, conteúdo compartilhado e infraestrutura.
55
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, pp. 48/49. Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
56
Grimmelmann destaca quatro tipos de abusos que precisam ser contornados pela moderação de conteúdo: (a)
congestionamento pelo uso aumentado das comunidades, o que dificulta o acesso à informação; (b) cacofonia,
causada pelo sobreuso, o que dificulta os integrantes de encontrar o que desejam; (c) abuso gerado por conteúdos
ruins nas trocas de informações, onde o exemplo clássico são os assédios e ofensas que afetam pessoas particulares;
e, (d) manipulação, na qual participantes ideologicamente motivados podem manipular a informação aberta ao
público. GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, pp. 53-54. Disponível
em: https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
57
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, pp. 56-60 Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
29
58
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, pp.56-57. Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
59
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, pp.58-60. Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
60
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, pp. 61-63. Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
61
Seção 2.2 “Sistemas de recomendação”.
62
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, pp 63-70. Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
30
63
HOFFMANN, Stacie et al. The Market of Disinformation. Oxford Internet Institute, 2019. Disponível em:
https://oxtec.oii.ox.ac.uk/wp-content/uploads/sites/115/2019/10/OxTEC-The-Market-of-Disinformation.pdf.
Acesso em 30/09/2020.
64
TUTT, Andrew. An FDA for Algorithms. Administrative Law Review. N. 69, 2017. Disponível em:
https://bit.ly/31Vc8HR. Acesso em 10/10/2020.
65
COBBE, Jennifer. SINGH, Jatinder, Regulating Recommending: Motivations, Considerations, and Principles
European Journal of Law and Technology, 2019, p.07. Disponível em: https://ssrn.com/abstract=3371830 or
http://dx.doi.org/10.2139/ssrn.3371830 Acesso em 22/08/2020. Trecho original: These systems play a key role for
platforms in enforcing norms and influencing behaviour, a situation described variously as 'governance by
software'; 'algorithmic regulation', and 'algorithmic governance' or 'algocracy', and as a form of 'algorithmic
governmentality'.
66
Os sistemas de recomendação, pela importância que assumem na moderação de conteúdo online e para fins de
organização, serão analisados em uma subseção própria ainda neste capítulo.
67
GORWA, Robert. What is platform governance? Information, Communication & Society, v. 22, n. 6, 2019,
p.. 854-871.
68
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, pp. 64-65. Disponível
em: https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
31
e infalíveis69, e podem trazer implicações relevantes para os direitos fundamentais dos usuários,
conforme será abordado no segundo capítulo deste trabalho. Em um ambiente repleto de
informações no espaço virtual, algoritmos poderão determinar quais notícias serão lidas,
podendo, se usados, indevidamente, incitar o medo, a insegurança e o ódio.
No que se refere à moderação de conteúdo por pessoas humanas, há crítica na literatura
de que as principais empresas de mídia social marginalizaram as pessoas que trabalham com a
realização de moderação de conteúdo. Uma pesquisa sobre o tema revelou três pontos principais
que merecem ser enfrentados70: (i) na contramão do crescimento das plataformas para lugares
distantes, essas não expandiram o número de moderadores para essas regiões, o que dificulta a
compreensão do idioma e cultura local, alimentando a violência étnica e religiosa; (ii) os
moderadores não recebem acompanhamento médicos adequados para os danos psicológicos
sofridos, já que são expostos diariamente a uma grande quantidade de conteúdo tóxicos; (iii)
esses ambientes, com condições precárias para o exercício do trabalho e com mal remuneração,
interferem na tomada de decisão dos moderadores.
A preocupação é que as plataformas digitais lidam com a atividade desempenhada pelos
moderadores humanos com diminuta importância ao tema, terceirizando a atividade, e, muitas
vezes, com exploração dos trabalhadores, o que pode, ao final, prejudicar o próprio desempenho
da função. É importante destacar que esses modos de moderação, em muitas plataformas, atuam
de forma conjunta. No Facebook, por exemplo, o estudo acima referenciado, aponta que a
abordagem inicial de um conteúdo prejudicial, isto é, aquele que viola os padrões da
comunidade, é feita através de sistemas de inteligência artificial ou por denúncia do usuário.
Após, esse conteúdo suspeito é supervisionado por um moderador humano, que conduzirá à
exclusão ou permanência do conteúdo no espaço digital71.
69
TUTT, Andrew. An FDA for Algorithms. Administrative Law Review. N. 69, 2017. Disponível em:
https://bit.ly/31Vc8HR. Acesso em 10/10/2020. Segundo o autor a maioria dos algoritmos não causam maiores
preocupações; eles são instruções dadas pelo seu programador para resolver um determinado problema. Todavia,
os algoritmos derivados da tecnologia de aprendizado de máquina (“machine learning”) são programados para
aprender a resolver problemas, passando, assim, a prever comportamentos futuros por conta própria. Um exemplo
dessa segunda categoria de algoritmos são os carros automáticos, que são capazes de tomar decisões sobre direção
independente da conduta humana.
70
BARRET, Paul M. Who Moderates the Social Media Giants? A call to end outsourcing, New York University
Stern Center for Business and Human Rights, Junho 2020, p. 03. Disponível em:
https://static1.squarespace.com/static/5b6df958f8370af3217d4178/t/5ed9854bf618c710cb55be98/159131374049
7/NYU+Content+Moderation+Report_June+8+2020.pdf Acesso em 10/01/2022.
71
BARRET, Paul M. Who Moderates the Social Media Giants? A call to end outsourcing, New York University
Stern Center for Business and Human Rights, Junho 2020, p. 03. Disponível em:
https://static1.squarespace.com/static/5b6df958f8370af3217d4178/t/5ed9854bf618c710cb55be98/159131374049
7/NYU+Content+Moderation+Report_June+8+2020.pdf Acesso em 10/01/2022.
32
72
Esse tema será retomando no capítulo 4.
73
GORWA, Robert & ASH, Timothy Garton. Democratic Transparency in plataforma society. In: Social Media
and Democracy The State of the Field, Prospects for Reform. Cambridge University Press. 2020, pp. 286-312.
Disponível em: https://gorwa.co.uk/publication/transparency/
74
GORWA, Robert; GARTON ASH, Timothy. Democratic Transparency in the Platform Society. In: PERSILY,
Nate; TUCKER, Josh. Social Media and Democracy. Cambridge University Press, 2020, p. 286 - 312. Disponível
em: https://www.cambridge.org/core/books/social-media-and-democracy/democratic-transparency-in-the-
platform-society/F4BC23D2109293FB4A8A6196F66D3E41 Acesso em 01/03/2022.
75
TUTT, Andrew. An FDA for Algorithms. Administrative Law Review. N. 69, 2017. Disponível
em:https://bit.ly/31Vc8HR. Acesso em 10/10/2020. e DESAI, Deven R. KROLL, Joshua A. Trust But Verify: A
Guide to Algorithms and the Law. Harvard Journal of Law & Technology. V. 31, n. 1, 2017. Disponível em:
https://bit.ly/2oSaww6. Acesso em 0/10/2020
33
realização da justiça social, se tratados de forma secreta76. Por isso, não se pode encarar o direito
ao segredo como absoluto. Nesse sentido, tem-se outros exemplos similares, como a
propriedade intelectual, que não é direito absoluto e deve ceder em detrimento de determinados
interesses sociais77.
Uma saída seria a divulgação dos códigos e dos critérios utilizados para treinar os
algoritmos, o conteúdo da base de dados (se é representativa) e o mecanismo de validação
desses pelas plataformas sociais. Isso significa que seria possível às plataformas divulgarem
critérios de inteligibilidade, isto é, o processo de lógica e da própria decisão. Se a divulgação
pudesse ser feita a uma entidade independente e imparcial que pudesse zelar pela manutenção
do segredo, por exemplo, seria melhor.
Ao contrário, a moderação de conteúdo secreta não demonstra a fundamentação do
processo decisório e pode nem ser conhecida pelo usuário. A título de exemplo, os usuários de
um serviço de busca não têm conhecimento quais páginas não são apresentadas a eles. Esse tipo
de atitude tem sido alvo de preocupação dos pesquisadores acerca de alguns remédios utilizados
pelas próprias plataformas quando lidam com conteúdos prejudiciais que são opacos78.
Quando um usuário posta um conteúdo prejudicial que viola os termos de uso e políticas
das plataformas, as intervenções, normalmente, adotadas partem de uma escolha binária: deixá-
lo na rede ou removê-lo. Esses remédios são facilmente medidos e verificados. Entretanto,
outros remédios também podem ser aplicados como forma de sanção e sequer são conhecidos
pelos usuários.
A título de exemplo, ligado à categoria de visibilidade de conteúdos, é o banimento para
a sombra (shadowban) e a redução da promoção interna (rebaixamento). O primeiro permite
que o usuário mantenha sua conta ativa, mas a visibilidade do conteúdo é restrita a ele. É
semelhante a suspensão de conteúdo, vez que o conteúdo prejudicial fica inacessível, mas a
diferença é que o usuário permanece com acessibilidade e funcionalidade da conta para edição
e busca de conteúdo79. A crítica a esse modelo é que muitos usuários sequer são notificados
76
MOORE, Taylor. Trade Secrets and Algorithms as Barriers to Social Justice. Center Democracy & Tecnology.
2017. Disponível em: https://cdt.org/wp-content/uploads/2017/08/2017-07-31-Trade-Secret-Algorithms-
asBarriers-to-Social-Justice.pdf Acesso em 01/06/2022.
77
FRAZÃO, Ana. Transparência de algoritmo X segredo de empresa. 2021. Disponível em:
http://www.professoraanafrazao.com.br/files/publicacoes/2021-06-09-
Transparencia_de_algoritmos_x_segredo_de_empresa_As_controversias_a_respeito_das_decisoes_judiciais_tra
balhistas_que_determinam_a_realizacao_de_pericia_no_algoritmo_da_Uber.pdf
78
LEERSEN. Paddy. Shadow bans and other secret sanctions: How non-takedown contente moderation threatens
transparency. Draft paper.
79
GOLDMAN, Eric, Content Moderation Remedies. Michigan Technology Law Review, 2021, p. 41.
Forthcoming, Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3810580. Acesso em
14/05/2021.
34
sobre essa ação da plataforma, o que pode caracterizar uma censura velada se operada de forma
abusiva pelos moderadores.
A redução da promoção interna está relacionada com as recomendações das
plataformas. Elas podem, por exemplo, não recomendar ou reduzir a promoção de um conteúdo
com desinformação80. Os usuários podem até suspeitar da aplicação desse remédio quando
ocorre uma queda repentina no engajamento ou tráfego, no entanto, é difícil apontar
conclusivamente essa prática. Por exemplo, o declínio de um usuário pode ser consequência da
crescente competição de outras fontes, priorização de outros conteúdos, mudança na
classificação do algoritmo, dentre outras práticas complexas de classificação das plataformas81.
Outro remédio que não possui a devida transparência é desmonetização. As plataformas
que pagam os criadores de conteúdo, como, por exemplo, o Youtube Partner Program (YPP),
cujo objetivo é dividir a renda auferida decorrente dos anúncios com os autores de conteúdo
para a rede social, dispõe da desmonetização (demonetization) como remédio para moderar o
conteúdo prejudicial. Isso quer dizer que a plataforma pode encerrar os pagamentos futuros,
caso haja violação dos seus termos de uso.
Caplan e Gillespie apontam algumas críticas a essa estratégia. Para eles a prática mostra
que o objetivo inicial de divisão de rendas entre plataformas e criadores de conteúdo se
transformou em uma forma de estabelecer o direcionamento na produção de mídia para a
plataforma. Isso porque a plataforma impõe a existência de uma estratégia de governança
estratificada, com diversas regras a diferentes estratos de usuários, o que gera ausência de
clareza e transparência sobre as regras de desmonetização82. Segundo os autores, é quase
impossível para os usuários detectar essa prática.
80
GOLDMAN, Eric, Content Moderation Remedies (2021). Michigan Technology Law Review, 2021, p. 45.
Forthcoming, Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3810580. Acesso em
14/05/2021.
81
LEERSEN. Paddy. Shadow bans and other secret sanctions: How non-takedown contente moderation threatens
transparency. Draft paper
82
CAPLAN, Robyn, Gillespie Tarleton. Tiered Governance and Demonetization: The Shifting Terms of Labor
and Compensation in the Platform Economy. Social Media + Society. Abril de 2020. Disponível em:
https://journals.sagepub.com/doi/10.1177/2056305120936636 Acesso em 30/06/2022.
35
Quanto ao momento em que a moderação é realizada, essa pode ser antes ou depois da
ação do usuário. Quando os moderadores atuam antes (ex ante), eles utilizam a estrutura do
sistema para permitir algumas ações e proibir outras, ou seja, atuam de forma preventiva, o que
fornece mais consistência através da aplicação da mesma regra para todos os conteúdos. A
moderação posterior (ex post) funciona como uma punição para a infração dos termos de uso
de uma comunidade. Essa forma de moderar, se vinculada à transparência sobre as regras para
exclusão de conteúdo e de contas dos usuários, fornece incentivo aos membros para se
comportarem83.
83
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, pp 67-69. Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
84
YOUTUBE. Our ongoing work to tackle hate. Setembro de 2019. Disponível em: https://blog.youtube/news-
and-events/our-ongoing-work-to-tackle-hate/ Acesso em: 09/08/2020
36
automatizados funcionarem com excelência em escala. Quanto mais pessoas usando uma
determinada rede social, maior é a diversidade que deve ser endereçada sobre as perspectivas
sobre um determinado assunto dentre os vários contextos culturais.
Em uma rede social, como o Facebook, por exemplo, que tem 350 milhões de fotos
sendo postadas por dia, ainda que se pense em uma pequena margem de erro, por exemplo, 1%
(um por cento), estar-se-ia falando em 350 mil moderações erradas por dia85.
A moderação descentralizada, por outro lado, é prática que ajuda a descentralizar o
poder sobre os conteúdos que circulam na internet das maõs das plataformas, pois investe em
mecanismos de autogestão em comunidades de redes sociais, fornecendo aos usuários algum
poder de decisão. Essa flexibilidade na formulação de regras decorre da adoção de um padrão
aberto de código que incentiva a inovação e concorrência. Como pontos positivos da moderação
descentralizada é o sentimento de pertencimento gerado no usuário ao compartilhar as ideias
desenvolvidas para guiar uma comunidade. Esse sentimento aumenta a confiança dos usuários
na própria plataforma86.
A moderação descentralizada é comum em redes descentralizadas. Um dos tipos mais
proeminentes de redes descentralizadas é o Fediverse, que constitui um conjunto de servidores
que são usados para publicações nas redes sociais através de protocolo aberto e permite aos
usuários postar textos e outras mídias publicamente ou para um grupo específico87. O servidor
responsável por operar as funções de moderação da rede social não residiria em uma estrutura
centralizada da plataforma, mas em um conjunto de servidores distribuídos pela rede.
No Fediverse é possível aos usuários escolher as plataformas que irão utilizar de acordo
com o serviço que é oferecido e de acordo com o código de conduta que guiará suas ações. Em
razão das redes serem de código aberto, os usuários são livres para criarem, dentro de cada
plataforma, novas instâncias (servidores) para determinar por quais regras eles serão
governados e não perdem a comunicação com outras instâncias. Esses códigos de conduta,
contudo, podem variar pela necessidade dos usuários. Cada servidor possuirá seus próprios
moderadores. Pessoas que preferem ambientes não regulados, por exemplo, também podem
85
CAELIN. Derek. Decentralized Social Networks vs the Trolls. Youtube, 26 de setembro de 2020. Disponível
em: https://www.youtube.com/watch?v=yZoASOyfvGQ&t=1085s Acesso em 10/05/22.
86
HARTMANN, Ivar A. Let the users be the filter? Crowdsourced filtering to avoid online Intermediary
Liability. Journal of the Oxford Centre for Socio-Legal Studies, v. 2017, n. 1, p. 21-47, 2017.
87
A titulo de exemplo, o Peertube é uma alternativa livre e descentralizada que permite aos usuários assistir vídeos.
Veja: https://joinpeertube.org/
37
seguir nessa direção e encontrar espaços que são pouco moderados. Assim, cada usuário pode
escolher a experiência que deseja usufruir88.
Uma plataforma que faz parte desse universo e chama bastante atenção pelo tamanho é
o Mastodon89, uma rede similar ao Twiter. Para ilustrar a flexibilidade de que as redes
descentralizadas gozam, pode-se mencionar um caso passado na Índia, no qual houve a
migração de vários usuários do Twitter para o Mastodon. Isso porque na plataforma Twiter
utiliza-se um sinal azul que identifica a casta de cada usuário, o que gerava muito desconforto
para alguns deles. Após muitos migrarem para o Mastodon, essa rede modificou o seu código
de conduta para incluir uma política contra a discriminação por castas90.
Com o objetivo de permitir que as plataformas operem em uma rede descentralizada, o
projeto Bluesky, desenvolvido em parceira com o Twitter, almeja que os conteúdos que
circulam na internet possam se desvencilhar das grandes empresas que controlam o mercado de
mídia social. Para isso, buscam um criar um novo padrão ou trabalhar nos já existentes, como
o sistema de blockchain ou do Fediverse, acima mencionado91. A plataforma, então,
abandonaria a lógica de operação atual para um novo sistema em que a sua regulação seria feira
também pelos usuários.
Até aqui foi apresentado um panorama da moderação de conteúdo exercido pelas
plataformas digitais de redes socias, explicitando as diversas maneiras que ela pode ser
realizada. Na próxima subseção serão analisadas as ações tomadas pelas plataformas de redes
sociais no desempenho da moderação quando um usuário viola os termos de uso, ou seja, quais
os remédios aplicados pelos entes intermediários para sanar a violação. Ainda e mais
88
YOUTUBE. Our ongoing work to tackle hate. Setembro de 2019. Disponível em: https://blog.youtube/news-
and-events/our-ongoing-work-to-tackle-hate/ Acesso em: 09/08/2020
89
O Mastodon é uma rede social criada por um programador alemão em 2016, cujo código é aberto. É um serviço
de microblog que aceita postagens curtas para conteúdos diversos, como vídeo, textos, fotos e etc. A rede social,
hoje, tem cerca de 4,4 milhões de usuários. Para mais informações: https://joinmastodon.org/
90
MOUNIKA. Alithe Sthephanie. Mastodon social adds policy against casteism as more Indian users join. 10 de
novembro de 2019. Disponível em: https://www.thenewsminute.com/article/mastodon-social-adds-policy-
against-casteism-more-indian-users-join-112064
91
ROBERTSON, Adi. Twitter is funding research into a decentralized version of its platform. Dezembro de 2019.
Disponível em: https://www.theverge.com/2019/12/11/21010856/twitter-jack-dorsey-bluesky-decentralized-
social-network-research-moderation IGNACIO, Bruno. Twitter avança em plano para descentralização de redes
sociais com Bluesky. Agosto de 2021. Disponível em: https://tecnoblog.net/noticias/2021/08/19/twitter-avanca-
em-plano-para-descentralizacao-de-redes-sociais-com-bluesky/ Notícia mais recente informa a existência de um
novo código para o sistema, o ADX - Authenticated Data Experiment. O ADX é um “protocolo construído em
torno de “Repositórios de Dados Pessoais” controlados pelo usuário que os desenvolvedores de redes sociais
podem optar por oferecer. Entre outras coisas, deve permitir que os usuários transfiram postagens de mídia social
ou engajamento entre redes sem corroer as próprias opções de moderação das redes”. Ao contrário do que ocorre
hoje (os dados permanecem na plataforma onde são criados), no novo sistema esses permanecerão nos repositórios
de propriedade do usuário. ROBERTSON, Adi. Twitter’s decentralized, open-source offshoot just released its
first code. Maio de 2022. Disponível em: https://www.theverge.com/2022/5/4/23057473/twitter-bluesky-adx-
release-open-source-decentralized-social-network
38
importante, será apresentada uma orientação normativa para aplicação desses remédios na
moderação de conteúdo.
92
Como referência história a esse comportamento tradicional, Eric Goldman aponta que algumas leis, tal como o
Ato de Direitos Autorais dos Estados Unidos (The Digital Millennium Copyright Act – DMCA) e Diretiva de
Comércio Eletrônico, adotada pela União Europeia (E-Commerce Directive), e guias elaborados pela sociedade
civil demonstram a difusão da abordagem binária aos remédios aplicados na moderação de conteúdo. Exemplo
dessa afirmação é a Carta Manila Principles, que em diversas passagens foca na remoção/restrição de conteúdo.
Esse documento que serve de guia regulatório para os formuladores de política sobre a responsabilidade dos entes
intermediários, promove a liberdade de expressão. Contudo, um dos seus princípios que excepciona essa regra é
de que “leis e ordens e práticas de restrição de conteúdo devem obedecer aos testes de necessidade e
proporcionalidade”. Observe que o princípio somente prevê a hipótese de restrição como solução ao conteúdo
prejudicial publicado. GOLDMAN, Eric, Content Moderation Remedies (2021). Michigan Technology Law
Review, Forthcoming, P. 16-19. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3810580.
Acesso em 14/05/2021.
93
GOLDMAN, Eric, Content Moderation Remedies (2021). Michigan Technology Law Review, pp. 5-6.
Forthcoming, Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3810580. Acesso em
14/05/2021.
39
proibidos. No passo seguinte, a indagação que surge é: quais valores normativos devem orientar
as plataformas na priorização da escolha desses remédios?
O primeiro deles é a preservação da diversidade das soluções a todo o setor, ou seja, é
esperado que esses entes intermediários tenham muitas opções de ação quando se depararem
com um conteúdo ou comportamento prejudicial na internet. Para isso não é recomendável que
os reguladores eliminem as possibilidades com previsões legais taxativas.
As peculiaridades de cada serviço de internet também devem ser observadas. Alguns,
por exemplo, tem opções limitadas de solução para combater um conteúdo ruim. Nesses casos,
os provedores de serviço não devem ser forçados a adotar medidas que não caibam em seus
serviços por inexistirem as ferramentas apropriadas94.
Um terceiro valor a ser considerado, é que as plataformas devem priorizar bons designs
para desencorajar a criação conteúdos problemáticos. Dessa forma, a conduta dos usuários seria
inibida antes do problema, reduzindo, com isso, a necessidade da aplicação de sanções. A
educação e socialização do usuário também podem ajudar a evitar violações que exijam
correções posteriores95.
Recursos privados podem ser preferíveis a recursos judiciais. Esse quarto valor
considera que, embora os tribunais sejam, por tradição, os órgãos naturais julgadores de
conflitos, quando esses ocorrem em ambientes digitais, o Poder Judiciário não é a melhor opção.
Isso porque os julgamentos são demorados, dispendiosos, aumentam o risco de o caso ganhar
mais notoriedade e podem ser limitados por problemas jurisdicionais que afetam os litigantes.
Nesses casos, as plataformas precisam investir na aplicação das soluções mais adequadas e
justas, evitando erros de escala e aplicando o devido processo96.
O quinto valor a ser observado é que as soluções aplicadas devem ser necessárias e
proporcionais. Esse ponto guarda conexão direta com a questão da violação dos direitos
fundamentais quando as plataformas moderam conteúdo online97. Em geral, os serviços da
internet somente devem aplicar sanções que sejam necessárias para alcançar um resultado de
reparação legítima e proporcional à gravidade da violação. Eric Goldman destaca duas maneiras
de operacionalizar esse princípio: (i) sempre que possível, as plataformas devem impor sanções
94
GOLDMAN, Eric, Content Moderation Remedies (2021). Michigan Technology Law Review, Forthcoming,
Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3810580. Acesso em 14/05/2021. P.64.
GOLDMAN, Eric, Content Moderation Remedies (2021). Michigan Technology Law Review, Forthcoming,
Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3810580. Acesso em 14/05/2021 P.65-67.
96
GOLDMAN, Eric, Content Moderation Remedies (2021). Michigan Technology Law Review, Forthcoming,
Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3810580. Acesso em 14/05/2021. P.67-68.
97
Esse ponto será tratado de forma profunda no capítulo 3 dessa dissertação.
40
em face dos conteúdos no lugar de restrições a contas; e, (ii) sempre que possível, impor
remédios locais em vez de globais98.
Por fim, o último valor normativo a ser atribuído nas escolhas das soluções aplicáveis
em moderação de conteúdo é a preferência por remédios que capacitem os usuários a controlar
os conteúdos de seus interesses. Essa abordagem pode ser vislumbrada através da utilização de
filtragem, onde o usuário escolhe o conteúdo que será direcionado a ele, ou por meio da
notificação de conteúdos que possam ser prejudiciais, como, por exemplo, emissão de avisos,
rótulos ou legendas. A fragilidade do uso de filtros, todavia, é a exposição dos usuários a
“bolhas de filtro”99, reforçando apenas seus conhecimentos e conceitos pré-existentes100.
98
GOLDMAN, Eric, Content Moderation Remedies (2021). Michigan Technology Law Review, Forthcoming,
Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3810580. Acesso em 14/05/2021. P.68-69.
99
A expressão “bolhas de filtro” é utilizada para explicar o fenômeno de edição da “web” feito por plataformas
digitais, como Google e Facebook, de acordo com as preferências de cada usuário. Assim, cada pessoa recebe um
tipo de informação ou notícia de acordo com seu perfil criado, nos moldes do que as plataformas acreditam que o
usuário queira consumir. A junção de todos esses filtros de personalização cria-se o que o autor chama de “filtro
bolha”, que tem o condão de aprisionar o usuário no seu próprio universo de informação. PARISER, Eli. O filtro
invisível. O que a internet está escondendo de você. Zahar. 2012. E-book. Filtros Bolha - Eli Pariser TED 2011,
Youtube, 22 de janeiro de 2014. Disponível em: https://www.youtube.com/watch?v=HKtvkvPNAsw. Acesso em
20.07.2020.
100
GOLDMAN, Eric, Content Moderation Remedies (2021). Michigan Technology Law Review, Forthcoming,
Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3810580. Acesso em 14/05/2021. P.70-72.
101
Em que pese não tão explorado pela literatura, os sistemas de recomendação de conteúdo também são
importantes para os influenciadores, que dependem da plataforma para torna-los visíveis. Os criadores de conteúdo
(social media influencers) constroem sua popularidade e convertem-na em renda através de um fenômeno chamado
de monetização, vez que ganham das empresas para fazer a propaganda de seus produtos ou serviços de forma
imperceptível. Sobre o ponto, veja: GOANTA, Catalina. SPANAKIS, Jerry. Influencers and Social Media
Recommender Systems: Unfair Commercial Practices in EU and US Law. TTLF Working Paper No. 54.
Disponível em:
https://www.researchgate.net/publication/341883786_Influencers_and_Social_Media_Recommender_Systems_
Unfair_Commercial_Practices_in_EU_and_US_Law/link/5faba4c5299bf18c5b64cba1/download Acesso em
30/07/2021.
41
definem como “sistemas de filtragem de informações que servem para determinar a preferência
de um usuário”102.
Segundo os autores, seu uso comercial ocorre para aumentar a satisfação do usuário ao
usufruir um produto ou serviço digital através da personalização da informação. Essa
personalização é obtida através das preferências expressadas, como avaliações, histórico de
pesquisa, dados demográficos, etc. Recentemente, por exemplo, o Instagram divulgou em um
artigo no seu sítio eletrônico que as publicações em seu feed de notícias ou stories são obtidas
a partir de “sinais”, com base no conteúdo considerado mais relevante para o usuário. Esses
sinais são informações sobre a publicação – seu autor, sobre a atividade do usuário
(visualização, itens salvos e curtidos, etc) e seu histórico de interação com alguém103.
Conforme relatado, as previsões são realizadas de acordo com a probabilidade do
usuário interagir com a publicação, quanto maior ela for, maior a chance dessa aparecer no topo
do feed, sendo certo que esses sinais são modificados com o passar do tempo.
A forma de funcionamento desses sistemas ocorre através de técnicas de aprendizado
de máquina (maching learning) ou inteligência artificial, ou seja, algoritmos, que são
programados para aprender e resolver tarefas por conta própria104. Esses algoritmos podem
fazer previsões a partir dos dados coletados, tomando suas decisões, sem qualquer tipo de
programação.
As duas categorias mais conhecidas são os métodos de filtragem e redes neurais
profundas. A filtragem se utiliza de uma matriz de fatoração, onde em uma linha ficam os
usuários, e, na outra, os itens pesquisados para prever a avaliação de um usuário sobre um
determinado item, usando informações semelhantes de outros usuários. Por exemplo, se um
usuário curtiu os vídeos A e B e outro usuário curtiu os vídeos C e D, qual seria a probabilidade
102
GOANTA, Catalina. SPANAKIS, Jerry. Influencers and Social Media Recommender Systems: Unfair
Commercial Practices in EU and US Law. TTLF Working Paper No. 54, p.6. Disponível em:
https://www.researchgate.net/publication/341883786_Influencers_and_Social_Media_Recommender_Systems_
Unfair_Commercial_Practices_in_EU_and_US_Law/link/5faba4c5299bf18c5b64cba1/download Acesso em
30/07/2021. Trecho original: Recommender systems are information filtering systems that are supposed do predict
a user´s preference.
103
MOSSERI, Adam. Explicando melhor o funcionamento do Instagram. 8 de junho de 2021. Disponpivel em:
https://about.instagram.com/pt-br/blog/announcements/shedding-more-light-on-how-instagram-works Acesso
em: 30/12/2021.
104
TUTT, Andrew. An FDA for Algorithms. Administrative Law Review. N. 69, 2017. Disponível
em:https://bit.ly/31Vc8HR. Acesso em 10/10/2020. Importante mencionar que, segundo o autor, essa categoria de
algoritmos (inteligência artificial) se diferencia dos algoritmos básicos – que são instruções a serem executados
por um computador, pois esses são diretos e respondem a resultados determinados. Neste caso, é possível ao
programador, em caso de erro, voltar no caminho percorrido pelo algoritmo, de acordo com as instruções do
programa, e corrigir o erro.
42
desse primeiro também curtir o vídeo C? A resposta advém de incontáveis cruzamentos que
podem ser feitos105.
Jennifer Cobbe e Jatinder Singh106 explicam que, tecnicamente, a filtragem pode ocorrer
de duas maneiras: a) filtragem com base no conteúdo e, b) filtragem colaborativa. A diferença
entre ambas é que a primeira se utiliza de dados produzidos pelo consumo anterior do usuário,
enquanto a segunda emprega dados de usuários semelhantes.
Redes neurais profundas são modelos de aprendizado de máquina profundo inspirado
em neurônios que aprendem a, sozinhos, resolver uma tarefa a partir de dados coletados. Passam
a operar por um sistema de espelhamento a partir de um aprendizado. Uma fórmula aplicável a
sistemas de recomendação desenvolvida por Convigton et al. é a utilização de duas redes
neurais: uma que gera recomendação e outra que classifica essas recomendações107.
Grande parte dos conteúdos disponíveis decorrem de decisões automatizadas baseadas
em inteligência artificial a partir de inferências feitas dos comportamentos dos usuários no
mundo digital. Esses sistemas podem ser muito funcionais quando o usuário já sabe o que deseja
e a plataforma apenas o ajuda a filtrar uma grande gama de conteúdo disponível.
No entanto, pode ser problemático quando os usuários não têm um objetivo definido
sobre a seleção que desejam. Nesse caso, as plataformas, na tentativa de facilitar e tornar mais
agradável a experiência do usuário, acabam por determinar qual conteúdo eles irão consumir,
de forma discreta, sem que esses saibam quais fatores (ou “sinais”, conforme expressão
utilizada pelo Instagram) levaram a esse “etiquetamento”108. De acordo com nota técnica
produzida pelo Laboratório de Políticas Públicas e Internet (LAPIN), “esse conteúdo é
105
GOANTA, Catalina. SPANAKIS, Jerry. Influencers and Social Media Recommender Systems: Unfair
Commercial Practices in EU and US Law. TTLF Working Paper No. 54. p.8. Disponível em:
https://www.researchgate.net/publication/341883786_Influencers_and_Social_Media_Recommender_Systems_
Unfair_Commercial_Practices_in_EU_and_US_Law/link/5faba4c5299bf18c5b64cba1/download Acesso em
30/07/2021.
106
COBBE, Jennifer. SINGH, Jatinder, Regulating Recommending: Motivations, Considerations, and Principles
European Journal of Law and Technology, 2019. Disponível em: https://ssrn.com/abstract=3371830 or
http://dx.doi.org/10.2139/ssrn.3371830 Acesso em 22/08/2020.
107
GOANTA, Catalina. SPANAKIS, Jerry. Influencers and Social Media Recommender Systems: Unfair
Commercial Practices in EU and US Law. TTLF Working Paper No. 54, p.9. Disponível em:
https://www.researchgate.net/publication/341883786_Influencers_and_Social_Media_Recommender_Systems_
Unfair_Commercial_Practices_in_EU_and_US_Law/link/5faba4c5299bf18c5b64cba1/download Acesso em
30/07/2021.
108
A expressão é utilizada para explicar a atividade da plataforma de marcar determinada pessoas, de acordo com
seu comportamento, nos moldes dos dados colhidos e analisados pelas plataformas digitais para prever futuras
ações e interesses.
43
personalizado para cada indivíduo, que tem pouca ou nenhuma autonomia sobre esse processo
perfilhamento”109.
A utilização dos algoritmos nos sistemas de recomendação de conteúdo traz duas
dificuldades, conforme abordado neste trabalho quando se falou sobre moderação transparente
e sigilosa, previsibilidade e explicabilidade. Segundo apontado, é difícil prever e explicar o
resultado quando uma tarefa é desempenhada através de inteligência artificial. Além de opacos,
muitos dos métodos utilizados pelos quais o algoritmo opera são segredos comerciais, pelo que
não podem ser revelados.
Por trás de todo o encantamento da personalização de conteúdo, a recomendação
solidifica um modelo de negócio baseado na vigilância, consoante apresentado na introdução
deste trabalho, onde o controle de dados dos usuários e suas preferências tornam-se fonte de
lucro para as plataformas110. As técnicas de recomendação, dentro desse sistema de capitalismo
de vigilância111, possuem dois papéis fundamentais: direcionar publicidade, de acordo com o
comportamento do usuário, e aumentar o engajamento dos usuários, o que retorna em receita e
liderança de mercado para as plataformas.
O problema se agrava quando se observa que padrões duvidosos são utilizados para
promover conteúdo ilegal ou controverso. Isso porque para atrair a atenção dos usuários são
direcionados conteúdos emotivos, que muitas vezes são discursos prejudiciais à sociedade.
Assim, em uma sociedade com problemas de desinformação, discurso de ódio, extremismo e
violência, os sistemas de recomendação, utilizados pelas plataformas, ajudam na disseminação
desse conteúdo, já que sua promoção é sempre ligada a conteúdos semelhantes, fazendo-os
caminhar lado a lado.
Catalina Goanta e Jerry Spanakis salientam que as plataformas são obrigadas a remover
conteúdos ilegais, contudo, discursos controversos, que permanecem em uma zona cinzenta,
109
LAPIN. Nota Técnica PL 2.630/2020 sobre a inclusão de mecanismos de transparência algorítmica no projeto
de lei. 2020, p. 6. Disponível em: https://lapin.org.br/wp-content/uploads/2020/08/LAPIN-NT-PL-2630-
Transparencia-Algoritmica.pdf Acesso em 22/08/2020.
110
Essa prática traz problemas para a privacidade e segurança de dados dos indivíduos. SOLOVE, Daniel J. A
taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, 2006, pp 477-491. Disponível em:
https://bit.ly/1ngGQAa.
111
O ponto aborda o que a professora Shoshana Zubof chama de “capitalismo de vigilância”. O termo significa
um “novo gênero de capitalismo que monetiza dados adquiridos por vigilância, por controle digital, via modernos
equipamentos pessoais de comunicação que estão completamente dominados pelas grandes corporações norte
americanas do Vale do Silício na Califórnia/”. Documentário disponível em:
/https://nossofuturoroubado.com.br/capitalismo-de-vigilancia/ Acesso em 08/11/2020. Ver também: ZUBOFF,
Shoshana. The age of surveillance capitalism: The Fight for a Human Future at the New Frontier of Power. New
York: Public Affairs, 2018.
44
112
GOANTA, Catalina. SPANAKIS, Jerry. Influencers and Social Media Recommender Systems: Unfair
Commercial Practices in EU and US Law. TTLF Working Paper No. 54, p.11. Disponível em:
https://www.researchgate.net/publication/341883786_Influencers_and_Social_Media_Recommender_Systems_
Unfair_Commercial_Practices_in_EU_and_US_Law/link/5faba4c5299bf18c5b64cba1/download Acesso em
30/07/2021.
113
MOZILLA. Mozilla Investigation: YouTube Algorithm Recommends Videos that Violate the Platform’s Very
Own Policies. 07 de julho de 2021. Disponível em: Mozilla Foundation - Mozilla Investigation: YouTube
Algorithm Recommends Videos that Violate the Platform’s Very Own Policies Acesso em 10/12/2021.
114
DESAI, Deven R. KROLL, Joshua A. Trust But Verify: A Guide to Algorithms and the Law. Harvard Journal
of Law & Technology. V. 31, n. 1, 2017. Disponível em: https://bit.ly/2oSaww6. Acesso em 0/10/2020. Neste
artigo, os autores utilizam exemplos de práticas discriminatórias. Citando dois deles, pode-se mencionar uma
pesquisa sobre histórico de visitação de página da web sobre publicidade de emprego, na qual foi descoberto que
quando as configurações de preferência de anúncio foram definidas para mulheres, um usuário viu menos anúncios
relacionados a empregos com altos salários empregos do que quando as preferências foram definidas para o
homem. Outro exemplo, diz respeito à personalização do comércio eletrônico e a prática discriminatória de preços.
Tentava-se igualar o preço para um bem ou serviço para pessoas ou segmentos de mercado específicos. Várias
empresas “estavam ajustando os preços de forma consistente e exibindo diferentes ofertas de produtos com base
em uma gama de características que poderiam ser descobertas sobre o usuário.
115
Decorrente da transparência está a obrigação de explicar sobre as decisões automatizadas a partir de dados
coletados dos usuários, prevista na Lei Geral de Proteção de Dados brasileira. Apesar da importância dessa
previsão normativa, foi destacado, no segundo capítulo desta dissertação, que muitas das vezes os usuários não
sabem ou percebem que estão sendo submetidos a uma decisão automatizada, sendo as recomendações que lhe são
oferecidos frutos de uma governança algorítmica. Nesse sentido, a previsão de uma transparência espontânea, a
par do que já existe no Regulamento Geral de Proteção de Dados Europeu – RGPD, seria conveniente. Segundo o
referido regulamento, “o controlador de dados deve informar, independente de aviso prévio: i) que o usuário está
sendo submetido a decisões automatizadas; ii) informações relevantes sobre a lógica da tomada de decisões; e iii)
os resultados e possíveis consequências das decisões”. MONTEIRO, Júlia. COUTO, Natália. Como funciona a
personalização de conteúdo em redes sociais? Disponível em https://www.jota.info/opiniao-e-
analise/artigos/como-funciona-a-personalizacao-de-conteudos-em-redes-sociais-
07082021?fbclid=IwAR1JXd_BKLgYLmW6Ywc9oswjhjSZ7gdmItAA2VK8QQGkbc5Z3zYiaiaYugs
45
aos sistemas de recomendação (opt-in ou opt-out), e conceder algum nível de controle aos
usuários sobre a maneira como se opera o algoritmo.
Além da transparência, outras soluções para os problemas gerados pelos sistemas de
recomendação já foram trazidas. A título de exemplo, Jennifer Cobbe e Jatinder Singh, propõe
que as plataformas adotem recomendações de conteúdo responsáveis, com atenção à princípios
éticos116. Assim, elas não poderiam promover certos tipos de conteúdo danoso, como
“supremacia branca, antissemitismo, desinformação em questões de saúde - conteúdo pró-
suicídio ou que promova desordens alimentares”117, pois, caso contrário, elas poderiam ser
submetidas a penalidades financeiras ou até mesmo à perda do direito de recomendar conteúdo.
A compreensão do modo de funcionamento dos sistemas de recomendação permite
concluir que o sistema de moderação de conteúdo é uma ferramenta de regulação privada pelas
plataformas digitais. A partir da organização dos sistemas de recomendação, as plataformas
possuem grande poder de influência para moldar os conteúdos que serão disponibilizados aos
usuários e isso se relaciona diretamente ao seu modelo de negócio. Assim, é possível verificar
que as plataformas são mais do que meros intermediários de uma atividade, elas são
responsáveis pela infraestrutura pelo qual os usuários produzirão o discurso online e possuem
a capacidade de direcionar essas atividades de acordo com seus interesses, que são
determinados por seus sistemas de algoritmos.
O próximo subtítulo deste capítulo segue examinando a atividade de moderação de
conteúdo. Todavia, o foco deixa de ser o modo de funcionamento da atividade em si mesma.
Serão analisados quais os conteúdos são, normalmente, indesejados pelos usuários e demandam
uma ação de moderação das redes sociais. Se de um lado, as plataformas tentam tornar o
ambiente digital mais saudável, por outro lado, essas ações apresentam erros de inconsistência
e escalabilidade, opacidade e ausência de justificação nas decisões tomadas. Esses problemas
também serão discutidos na subseção a seguir.
116
COBBE, Jennifer. SINGH, Jatinder, Regulating Recommending: Motivations, Considerations, and Principles
European Journal of Law and Technology, 2019. Disponível em: https://ssrn.com/abstract=3371830 or
http://dx.doi.org/10.2139/ssrn.3371830 Acesso em 22/08/2020.
117
COBBE, Jennifer. SINGH, Jatinder, Regulating Recommending: Motivations, Considerations, and Principles
European Journal of Law and Technology, 2019. Disponível em: https://ssrn.com/abstract=3371830 or
http://dx.doi.org/10.2139/ssrn.3371830 Acesso em 22/08/2020. Trecho original: This instead establishes a
responsibility to not promote certain kinds of content (for example, white supremacism, health disinformation,
anti-Semitic conspiracy theories, pro-suicide or self-harm content, content promoting eating disorders, and so
on).
46
O presente tópico está dividido em duas partes. A primeira analisará os desafios que as
plataformas enfrentam no desenvolvimento de sua atividade: conter os discursos ilegais e
prejudiciais, como por exemplo, desinformação, discurso de ódio, assédio, manipulação dos
usuários, repetição de conteúdo, dentre outras patologias. A segunda parte elencará um rol de
problemas consequentes das ações de moderação de conteúdo, tais como, a inconsistência das
decisões tomadas, problemas de escalabilidade, opacidade e ausência de justificação no
processo de moderação.
Quando se fala em perigos enfrentados pelas redes sociais, o que se busca explicitar são
os desafios enfrentados pelas plataformas quando desempenham a atividade de moderar:
combater o discurso ilegal e prejudicial aos usuários para tornar o ambiente digital mais
saudável e produtivo, com baixo custo e com amplo acesso aos interessados.
Discurso prejudicial consiste em um fenômeno que alcança discursos variados, que se
cruzam e se sobrepõem, causando diferentes perigos. Dentre os mais conhecidos, estão o
discurso de ódio, que é definido por Robert Faris como “o discurso que rebaixa ou ataca pessoas
como membros de um grupo com características compartilhadas, como raça, gênero, religião,
orientação sexual ou deficiência” 118
, e o assédio online, definido por Lenhart como “contato
indesejado que é usado para criar intimidação, irritação, ambiente assustador, ou mesmo hostil
para a vítima que utiliza meios digitais”119.
118
FARIS, Robert, ASHAR, Amar, GASSER, Urs, e JOO, Daisy. Understanding Harmful Speech Online.
Berkman Klein Center for Internet & Society Publication. Série 2016-18, 2016, p.5. Disponível em:
https://dash.harvard.edu/handle/1/38022941 Acesso em 01/03/2022. Trecho original: Harmful speech consists of
a range of phenomenon tha often overlap and intersect, and includes a variety of types of peech tha cause diferente
harms. The most familiar tupe is hate speech, wich commonly refres to speech wich demeans or attacks a person
or people as members of a group with shared characteristics such as race, gender, religion, sexual orientation, or
disability.
119
LENHART, Amanda; YBARRA, Michelle; ZICKUHR, Kathryn; PRICE-FEENEY, Myeshia. Online
Harassment, Digital Abuse, and Cyberstalking in America. Data & Society Institute. 2016, p. 3. Disponível em:
https://www.datasociety.net/pubs/oh/Online_Harassment_2016.pdf Acesso em 01/03/2022 Trecho original:
However, one persistent challenge to this ideal has been online harassment and abuse—unwanted contact that is
used to create an intimidating, annoying, frightening, or even hostile environment for the victim and that uses
47
digital means to reach the target. O assédio online pode se dar de diversas formas. Uma delas, bastante famosa
nos dias atuais é o doxing, em que o abusador tenta releva informações sensíveis sobre uma pessoa com a intenção
de intimidá-la ou torna-la vulnerável a ofensas. JHAVER, Shagun et al. Online Harassment and Content
Moderation: The Case of Blocklists. ACM Transactions on Computer-Human Interaction, s.l, vol. 25, n. 02,
março 2018. Disponível em: http://eegilbert.org/papers/tochi18-jhaver-blocklists.pdf
120
NADIM, Marjan; FLADMOE, Audun. Silencing women? Gender and online harassment. Social Science
Computer Review, 2019. Disponível em:
https://journals.sagepub.com/doi/full/10.1177/0894439319865518 . Acesso em 01/06/2022.
121
CURZI, Yasmin. Assédio e violência online: moderação de conteúdo pode ser enfrentamento eficaz. FGV. 13
de abril de 2020. Disponível em https://portal.fgv.br/artigos/assedio-e-violencia-online-moderacao-conteudo-
pode-ser-enfrentamento-eficaz Acesso em 01/06/2022.
122
Na campanha do Presidente Trump, em 2016, a empresa coletou uma enorme quantidade de dados, criando um
modelo com diversos pontos de medição que conseguiam prever a personalidade de cada adulto americano. Após
a coleta dos dados, a empresa fornecia o tratamento adequado, onde se traçava um perfil comportamental de cada
eleitor. De acordo com esses dados, o público alvo, normalmente composto por eleitores indecisos, eram
bombardeados de publicidade, inclusive, falsas. Importante destacar que não houve necessária mudança dos votos
por parte dos eleitores, em razão das notícias lidas. Pesquisas indicam que elas funcionam mais como uma
reafirmação do posicionamento já adotado pelo eleitor. GUESS, A.; NYHAN, B; REIFLER, J. Selective Exposure
to Misinformation: Evidence from the consumption of fake news during the 2016 U.S. presidential campaign.
European Research Council. 2018. Disponível em: https://cpb-us-
e1.wpmucdn.com/sites.dartmouth.edu/dist/5/2293/files/2021/03/fake-news-2016.pdf Acesso em: 4 de novembro
de 2020.
48
123
O microdirecionamento é, na verdade, o resultado de uma série de atividades, muitas vezes, elas próprias bem
definidas e regulamentadas, como a coleta de dados pessoais, a utilização dos dados para traçar perfis e a
transmissão de comunicações personalizadas a eleitores individuais (CAVALIERE, Paolo et al. Micro-Targeting
in Political Campaigns: A Comparative Analysis of Legal Frameworks. Edinburgh Law School. 2021. p. 04.
Disponível em: https://privacyinternational.org/sites/default/files/2021-01/UoE_PI%20Micro-
targeting%20in%20policital%20campaigns%20comparative%20analysis%202021.pdf). Essa técnica
revolucionou as campanhas políticas ao permitir a segmentação dos eleitores, com base no tratamento dos dados
pessoais coletados, e uso de mensagem políticas diferenciadas e personalizadas, que podem ser disseminadas com
velocidade, precisão e alcance (COMISSÃO EUROPEIA. Guidance on Strengthening the Code of Practice on
Disinformation. 2021, p. 14. Disponível em: https://digital-strategy.ec.europa.eu/en/library/guidance-
strengthening-code-practice-disinformation Acesso em 10/06/2022). Como um dos pontos negativos desta
abordagem está a polarização dos eleitores.
124
LAZER, David et al. The science of fake news. Science. Vol. 359, Issue 6380. 09 Mar, 2018, p. 1095.
Disponível em: https://bit.ly/2X78dDX. Acesso em 08/09/2020. Trecho original: We define “fake news” to be
fabricated information that mimics news media content in form but not in organizational process or intent. Fake-
news outlets, in turn, lack the news media's editorial norms and processes for ensuring the accuracy and credibility
of information. Fake news overlaps with other information disorders, such as misinformation (false or misleading
information) and disinformation (false information that is purposely spread to deceive people).
125
DIRECTORATE-GENERAL FOR COMMUNICATIONS NETWORKS, CONTENT AND TECHNOLOGY.
High Level Expert Group on fake news and online disinformation [Report]. European Commission. 2018.
Disponível em: https://op.europa.eu/s/tRk9 Acesso em 08/09/2020.
49
define como “'informações falsas, imprecisas ou enganosas que são elaboradas, apresentadas e
promovidas com a intenção de causar dano público ou lucrar”126.
A Comissão Europeia (CE)127, no documento elaborado sobre como lidar com
desinformação, cuja definição é de suma importância, haja vista sua utilização no Código de
Prática da União Europeia sobre desinformação128, considera desinformação como “informação
comprovadamente falsa ou enganosa que é criada, apresentada e disseminada para obter
vantagens econômicas ou para enganar deliberadamente o público, e que é suscetível de causar
dano público”, sendo certo que “dano público” deve ser considerado como “ameaças aos
processos políticos democráticos e aos processos de elaboração de políticas, bem como a bens
públicos, tais como a proteção da saúde dos cidadãos da União Europeia (UE), o ambiente ou
a segurança”129130.
Há, ainda, aqueles discursos que são ilegais, pois representam a materialização de uma
conduta penalmente típica. A título de exemplo, há falas que incitam o cometimento de crimes,
atacam a honra de uma pessoa ou disseminam pornografia infantil. A incitação ao crime,
prevista no artigo 286 do Código Penal, é um ato que provoca ou estimula a realização de crimes
de forma pública, incentivando os indivíduos a cometerem condutas penalmente típicas. Os
126
DIRECTORATE-GENERAL FOR COMMUNICATIONS NETWORKS, CONTENT AND TECHNOLOGY.
High Level Expert Group on fake news and online disinformation [Report]. European Commission. 2018, p.10.
Disponível em: https://op.europa.eu/s/tRk9 Acesso em 08/09/2020.
127
COMISSÃO EUROPEIA. Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao Comité
Económico e Social Europeu e ao Comité das Regiões. Combater a desinformação em linha: uma estratégia
europeia. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52018DC0236 Acesso em 08/09/2020.
128
COMISSÃO EUROPEIA. EU Code of Practice on Disinformation. Publicado em 28/09/2018.
https://www.europeansources.info/record/eu-code-of-practice-on-disinformation/ Acesso em 08/09/2020.
129
COMISSÃO EUROPEIA. Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao Comité
Económico e Social Europeu e ao Comité das Regiões. Combater a desinformação em linha: uma estratégia
europeia. 2018, p. 4. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52018DC0236 Acesso em
08/09/2020.
130
Da análise dos conceitos propostos, pode-se destacar quatro elementos que os compõe: (i) natureza factual ou
enganosa da informação; (ii) dano; (iii) intenção do ator; e, (iv) ganho econômico (Ó FATHAIGH, Ronan;
HELBERGER, Natali; e APPELMAN, Naomi, The Perils of Legally Defining Disinformation (November 4,
2021). Internet Policy Review 10 (4). 2021, Disponível em: https://ssrn.com/abstract=3964513 Acesso em
03/03/2022). No que se refere ao primeiro elemento, natureza factual ou enganosa, ele recebe maior amplitude na
definição trazida pelo HLEG ao incluir a expressão “imprecisa”. A CE, por outro lado, fala em
“comprovadamente” falsa ou enganosa. O elemento dano é citado nos dois conceitos e ambos os documentos
consideram como dano público as ameaças aos processos políticos democráticos, bem como a bens públicos, tais
como a proteção da saúde dos cidadãos da UE, o ambiente ou a segurança. A CE acrescenta, além dos pontos
mencionados, processos de elaboração de políticas. É importante notar que, nas definições apresentadas, o dano
não precisa ter ocorrido para que a informação seja qualificada como desinformação, embora seja necessário, em
ambos os conceitos, a existência de potencialidade de dano, ou seja, basta o conteúdo guardar a qualidade
intrínseca de poder, de forma abstrata, ameaçar o processo político democrático ou expor a saúde dos cidadãos da
EU. Não há necessidade de que esse dano seja demonstrado na prática para que um conteúdo seja considerado
como desinformação. A “intenção do ator”, no conceito trazido pelo HGEG, é exigida e direcionada para causar
dano público ou de obter proveito econômico, ao passo que, na proposição da CE, a intenção deve ser de enganar
o público ou obter vantagem econômica.
50
crimes contra a honra, previsto nos artigos 138 a 140 do Código Penal, tem como bem jurídico
a proteção à honra do sujeito a fim de proteger sua privacidade, intimidade e imagem. E, os
casos de proibição de divulgação de pornografia infantil estão previstos no artigo 241-A, do
Estatuto da Criança e do Adolescente.
Outro ilícito comum nas redes sociais é a prática do uso não autorizado de imagens e
vídeos íntimos (revenge porn - pornografia de vingança), que tem alto potencial lesivo à
privacidade e autodeterminação informativa, com previsão de tratamento jurídico penal pela
Lei 2.737/2012. Essa lei criou tipos penais que proíbem a obtenção e disseminação não
autorizada de imagens por meios eletrônicos (artigo 154-A do Código Penal).
Casos de difamação e as situações retratadas como uso não autorizado de imagens e
vídeos íntimos relacionam-se com a violação ao direito à privacidade e representam um especial
desafio ante a crescente utilização de redes sociais. Com o aumento do uso das tecnologias, a
partir dos anos 1970, observou-se um aumento da vulnerabilidade dos indivíduos com
exposições de sua vida privada, assunto que será aprofundado no próximo capítulo.
Todos esses discursos ilícitos e prejudiciais, que podem ocorrer pelos mais variados
motivos - inimizade, violações de privacidade, extremismo violento ou simples ataques de
motivações financeiras, geram pedidos, notificações e litígios com a finalidade de que as
plataformas retirem esse conteúdo da rede. A própria sociedade, enquanto usuária das redes
sociais, não deseja que o espaço digital seja inundado por esse tipo de conteúdo, conforme visto
antes.
A inconveniência de que esses discursos permaneçam circulando nas redes sociais
colocam as plataformas digitais de redes sociais na linha de frente para combate-los. Por isso,
elas desempenham um papel importante na definição dos contornos dos discursos permitidos e
proibidos. Faz parte do seu modelo de negócio moderar o conteúdo online, pois a maneira como
elas classificam e apresentam o conteúdo é o que atrai ou repele os usuários de seus espaços131.
Algumas intervenções não demandam controvérsia. São aquelas relacionadas a
conteúdos ilícitos, que já são definidos pela legislação como crime, como, por exemplo, casos
de pornografia infantil. Nestes casos, é possível e recomendável que a moderação priorize pela
velocidade de decisão, podendo se antecipar à própria publicação pelo usuário, através de
mecanismos que impeçam que o conteúdo seja inserido na rede.
131
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019. Disponível em:
https://www.hoover.org/research/verified-accountability.
51
Outros conteúdos, porém, demandam uma análise mais acurada, pois necessitam da
apreciação do contexto da publicação e considerações sobre valores e cultura de um país. São
os casos de difícil solução e estão longe de ter uma resposta sobre a melhor forma de
intervenção. Ao moderar, as plataformas, ainda que sob uma justificativa plausível, censuram
o discurso de um indivíduo e, o pior, podem cometer alguns erros na sua atividade. É o que será
analisado no próximo tópico.
132
HARTMANN, Ivar. MONTEIRO, Julia. Fake News no Contexto da Pandemia e Emergência Social: os deveres
e responsabilidades das plataformas de Redes Sociais na Moderação de Conteúdo Online: entre a Teoria e as
Proposições Legislativas. RDP, Brasília, volume 17, n. 94, 388-414, jul/ago.2020.
133
BELLI. Luca. Structural Power as a Critical Element of Digital Platforms’ Private Sovereignty. In Edoardo
Celeste, Amélie Heldt and Clara Iglesias Keller (Eds). Constitutionalising Social Media. 2022, pp 16-18.
52
abordado e, para piorar, não especificam a sanção a ser aplicada em cada caso 134. Ainda,
conforme apontado neste capítulo, são ocultos os procedimentos adotados para a filtragem e
organização do conteúdo online. Não existe, portanto, clareza sobre quais são as regras de
moderação e sobre como as plataformas estão aplicando essas regras em seus processos de
tomada de decisão, o que leva a assimetria informacional entre as partes envolvidas.
A natureza privada das plataformas de mídias sociais também traz problemas a serem
enfrentados. A primeira preocupação relacionada com essa questão é a regulação privada de
um local onde ocorre o debate público de ideias, em que, frequentemente, se pondera os direitos
fundamentais dos usuários. O desenvolvimento da atividade de moderação de conteúdo
mostrou que os governos não são mais os únicos que podem afetar os direitos fundamentais.
Atores privados podem, igualmente, se constituir como uma grande ameaça. Esse argumento
levou a literatura a apontar para a ausência de legitimidade democrática das plataformas e
ausência de regras de accountability135.
A segunda preocupação envolvendo a natureza privada e global desses entes
intermediários é o fato da moderação de conteúdo ser realizada segundo regras e padrões que
normalmente seguem a legislação do país onde estão estabelecidas suas sedes, que não
necessariamente se coadunam com a cultura e a legislação específicas dos demais países onde
seu serviço é prestado.
134
Cada uma das plataformas adota uma política diferente em seus termos de uso, sem,muitas das vezes, permitir
acesso claro aos seus usuários, já que elas podem ser interpretadas de forma inconsistente, deixando o usuário
confuso. Essa questão foi recentemente abordada pela Corte Constitucional Alemã, que, ao julgar dois casos sobre
a exclusão de postagens dos usuários e bloqueio de suas contas por violação a políticas do Facebook, determinou
a nulidade do seu termo de uso. Segundo o entendimento do Tribunal alemão “os termos de serviços e padrões de
comunidade do Facebook não podem ser aplicados por não darem a oportunidade aos usuários de compreenderem
significativamente o seu processo decisório, o que contraria regras de direito civil, como a assimetria informacional
entre as partes. O caso em questão envolveu postagens neonazistas e xenofóbicas da parte autora que alegou ter
tido seu direito de liberdade de expressão violado pela plataforma, ao ter sido bloqueado e suas postagens
excluídas. O Tribunal decidiu que o Facebook para agir neste tipo de situação deve (1) prover aos usuários
mecanismos de apelação das decisões depois da remoção do post; (2) e, antes de bloquear a conta, informar o seu
intuito e também disponibilizar justificação e vias de apelação. Disponível em:
https://www.bundesgerichtshof.de/SharedDocs/Pressemitteilungen/DE/2021/2021149.html Acesso em
08/08/2020.
135
O termo pode ser utilizado em diferentes contextos e referir-se a diversas relações. Em linhas gerais, o termo
corresponde à condição de sujeitar-se ao controle e supervisão externos, o que possibilita oferecer limites ao
exercício de poder. Pode ser aplicado aos deveres de prestação de contas de entidades governamentais, empresas
privadas e, até mesmo, os sistemas de algoritmos utilizados pelas redes sociais. Nesse sentido, a transparência
apresenta-se como um dos seus elementos. A partir da divulgação de informações é que se poderá aplicar eventuais
sanções, caso necessário, sendo esse o segundo elemento que forma a accountability. ZINGALES, Nicolo.
Accountability. In: BELLI, Luca; ZINGALES, Nicolo; CURZI, Yasmin (eds.). Glossary of platform law and
policy terms. Rio de Janeiro: FGV Direito Rio, 2021. Disponível em:
https://bibliotecadigital.fgv.br/dspace/handle/10438/31365. Acesso em 10/02/2022.
53
Luca Belli, Pedro Francisco e Nicolo Zingales136 destacam que essa regulação ocorre
em um ambiente em que as decisões tomadas por esses entes intermediários transbordam o
espaço delimitado por seus serviços e carregam a influência de determinadas regulações
nacionais, que orientam suas normas internas, para outros Estados. Por isso, os autores afirmam
que as plataformas se transformaram em um “proxy privado para aplicação da regulação
nacional”137, a exemplo do que ocorreu com a aplicação da regulação dos direitos autorais dos
Estados Unidos138.
Pelo que foi apresentado até aqui, é possível concluir que a moderação de conteúdo é a
atividade chave para o exercício da governança privada pelas plataformas, sendo certo que é
através dela que as plataformas controlam e organizam o fluxo informacional, além de prevenir
a ocorrência de excessos nos seus espaços digitais, como o discurso de ódio, desinformação,
dentre outros perigos. Essa atividade, entretanto, que se apresenta como solução para que as
plataformas promovam um ambiente saudável para que o debate público, aberto e livre para o
fluxo de ideias, também se apresenta com grandes problemas de difícil solução. No próximo
tópico será analisada a responsabilidade das plataformas de redes sociais ao desempenhar a
atividade de moderação, isto é, como é a regulação, até o presente momento, das atividades das
redes sociais.
136
BELLI, Luca, FRANCISCO, Pedro Augusto, ZINGALES, Nicolo. Law of the Land or Law of the Platform?
Beware of the Privatisation of Regulation and Police. In: Platform regulations: how platforms are regulated
and how they regulate us. P. 41-64. FGV Direito Rio. 2017.
Disponível em: https://bibliotecadigital.fgv.br/dspace/handle/10438/19402 Acesso em 08/08/2020.
137
BELLI, Luca, FRANCISCO, Pedro Augusto, ZINGALES, Nicolo. Law of the Land or Law of the Platform?
Beware of the Privatisation of Regulation and Police. In: Platform regulations: how platforms are regulated
and how they regulate us. P. 41-64. FGV Direito Rio. 2017, p. 42 Available at:
https://bibliotecadigital.fgv.br/dspace/handle/10438/19402 Trecho original: This latter example is particularly
useful to emphasise another collateral effect of the privatisation of regulation and police functions, which is the
extraterritorial application of a national regulatory regime – in this case, US copyright legislation – de facto
turning the platform into a private proxy for global application of national regulation.
138
Esse modelo será detalhado no item “2.4.1” deste capítulo. Ele foi adotado pelas plataformas e, depois, aplicado
pela legislação e jurisprudência de outros países, conforme a seguir abordado.
54
139
Seção §230, c, 1: “No provider or user of an interactive computer service shall be treated as the publisher or
speaker of any information provided by another information content provider”. Disponível em:
https://www.law.cornell.edu/uscode/text/47/230. Acesso em: 10/08/2021.
140
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019. P.139-140.
55
perante à legislação americana, pelo que a elas “não se aplica a lei de difamação, lei de
segurança, lei civil, lei do consumidor e quase todas as outras leis”141.
A política legislativa por trás dessa cláusula de imunidade era proteger as plataformas
para exercerem a moderação de conteúdo, em razão da jurisprudência norte-americana trazer
insegurança jurídica no início de uma era de responsabilização em dois precedentes: Cubby,
Inc. vs. Compuserve, Inc. e Stratton Oakmont, Inc. vs. Prodigy. Pela importância, passa-se a
narrar, em breve síntese as origens da cláusula §230, que influenciou as legislações
posteriores142.
Quando a internet se difundiu para o uso do público, em meados da década de 1990, a
troca de informações e conteúdos passou a ser cada vez mais intensa e, com isso, a quantidade
de conteúdos prejudiciais aumentou. Isso desencadeou a propositura de muitos processos
judiciais em face de fóruns de notícias online. Em um dos primeiros casos (Cubby vs.
Compuserve, em 1991), o tribunal decidiu que o provedor de serviço Compuserve não poderia
ser responsabilizado pelo conteúdo carregado em seu espaço digital porque não atuou como
revisor do conteúdo. Se o provedor não tinha conhecimento específico sobre a publicação, não
poderia ser responsabilizado como editor das declarações supostamente difamatórias143.
Posteriormente, outro caso foi colocado para julgamento pelo tribunal de Nova York,
no precedente Stratton Oakmont vs. Prodigy, em 1995. No entanto, o Poder Judiciário, em uma
virada de cento e oitenta graus, decidiu de forma diferente. Nesse caso, o provedor de serviço,
Prodigy, poderia ser responsabilizado como editor pelas declarações supostamente difamatórias
questionadas. O fundamento da sentença foi que a empresa assumiu uma postura de cuidado,
com esforços para filtrar o conteúdo que violasse a sua política de uso: “um serviço familiar”144.
Assim, se os entes intermediários assumiram o compromisso de moderar o conteúdo,
assumiram também o risco de serem responsabilizados pelos conteúdos nocivos que
permanecerem na rede.
141
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, p. 103. Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020. Trecho original: “The overall
effect, despite the "good faith" qualifier in the second prong, is that moderators have blanket immunity: no
moderation decision can lead to liability under defamation law,321 securities law,322 civil rights law,323
consumerprotection law, or almost-anything law”.
142
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015. P. 103. Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
143
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, pp. 139-140.
144
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, pp.139-140.
56
A diferença entre os dois julgamentos foi de que no primeiro caso o provedor não fez
promessas para exercer a moderação de conteúdo dos seus usuários, enquanto, no segundo caso,
o esforço do provedor em moderar o conteúdo, sujeitava-o à responsabilidade em caso de
potenciais declarações difamatórias, pois era entendido que sobre esse conteúdo era exercido
um controle editorial. Esses entendimentos foram proferidos em um cenário digital, onde se
proliferava, cada vez mais, conteúdos indecentes e pornografia infantil, conjugado com o
anonimato das publicações, o que trazia grande preocupação ao Congresso Americano.
Foi nesse contexto que surgiu a proposta de uma Lei de Decência (Communications
Decency Act - CDA) à Lei de Telecomunicações de 1996. E, no debate sobre responsabilizar
ou não os provedores de serviço (chamados, à época, de “serviços de computadores
interativos”), foi argumentado que se “os computadores interativos de serviços que tentassem
filtrar conteúdo obsceno e oferecer serviços "adequados para a família" iriam, sob a lógica do
precedente Stratton Oakmont, ser responsáveis por qualquer material indecente que vazasse”145.
Por consequência lógica, os serviços online adotariam a mesma posição do provedor
Compuserve, no caso Cubby, isto é, tentariam se proteger de eventual responsabilidade
adotando explicitamente uma política de “não-moderação de conteúdo”146. O efeito dessa
medida seria trazer ao espaço digital uma gama enorme de conteúdos prejudiciais aos usuários.
E, assim, foi acrescido a seção §230, “c, 1”, que trouxe a cláusula do bom samaritano, acima já
mencionada147.
Em 1998, o Congresso Americano promulgou uma nova lei, a Digital Millennium
Copyright Act – DMCA, com a criação de um novo regime para abordar a responsabilidade das
plataformas digitais, que estavam isentas por qualquer violação à luz da seção 230, para
acrescentar à Lei vigente sobre Direitos Autorais uma nova seção “Limitações de
Responsabilidade relacionado ao material online” – seção 512.
A seção 512 prevê que as plataformas digitais podem ser responsabilizadas se terceiros
usarem seus serviços para armazenar ou trocar conteúdo infrator, a menos que a plataforma
esteja em conformidade com o “porto seguro”. Isso quer dizer que, para as plataformas não
serem responsabilizadas, elas não poderão ter conhecimento da atividade infratora, e, se
145
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.140. Trecho original: Opponents argued that
interactive computer services that attempted to filter out obscene content and offer “family-friendly” services
would, under the logic of Stratton Oakmont, be liable for any indecent material that slipped through.
146
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.140.
147
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.140-141.
57
tiverem, devem tomar as medidas para remover o conteúdo ilícito quando descoberto ou,
supostamente ilícito, quando o detentor dos direitos autorais denunciar148.
A plataforma, uma vez retirado o conteúdo da rede, deve informar ao suposto infrator,
que pode enviar um “contra-aviso” à plataforma contestando a alegada violação. Feito isso, o
provedor de serviço encaminha a “contra notificação” ao denunciante, com a informação de
que o conteúdo será restabelecido em 10 (dez) dias caso esse não apresente uma ação de
violação de direitos autorais na Corte Federal. Esse sistema é o que se chama de notice-and-
takedown149.
148
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.146.
149
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019. P.146-147. O referido autor afirma que, embora esse
regime tenha seu lado negativo (imposição de custos, certa violação à liberdade de expressão e maior dificuldade
de aplicação para discursos prejudiciais que necessitem de avaliação do contexto), ele tem funcionado com
razoavelmente bem há 20 anos na área do direito autoral. Ele representa um esforço do legislador para equilibrar
as limitações inerentes à tecnologia, em relação ao monitoramento e julgamento de todos os conteúdos postados
na rede, com a necessidade de rápida resposta aos sujeitos que tiveram seus direitos violados. A lei, ainda, traz
penalidades aqueles que agem de má-fé e fornece a possibilidade de restaurar o conteúdo em caso de contra-
notificação.
150
COMISSÃO EUROPEIA. Diretiva 2000/31/CE do Parlamento Europeu e do Conselho. Trata de certos
aspectos legais dos serviços da sociedade da informação, em especial do comércio eletrônico, no mercado interno.
8 de Junho de 2000. Disponível em: https://eur-lex.europa.eu/legal-
content/PT/TXT/PDF/?uri=CELEX:32000L0031&from=PT Acesso em: 22/08/2021
151
COMISSÃO EUROPEIA. Proposal for a Regulation on a Single Market For Digital Services (Digital Services
Act). 15 de dezembro de 2020. Disponível em: https://eur-lex.europa.eu/legal-
content/en/TXT/?qid=1608117147218&uri=COM%3A2020%3A825%3AFIN Acesso em 30/06/2022.
58
A Lei dos Serviços Digitais segue a normativa anterior, prevendo nos artigos 3º a 9º a
responsabilidade das plataformas pelo conteúdo postado por terceiros, isto é, preservaram a
imunidade dos provedores de serviço de informações quando atuem como mero intermediários,
em um estado de neutralidade.
Nesse sentido, o “Considerando 18” do DSA preconiza que imunidade não se aplica aos
casos em que os serviços não sejam prestados de forma neutra, ou seja, “através de um
tratamento meramente técnico e automático das informações prestadas pelo destinatário do
serviço”, e passem a desempenhar um “papel ativo que lhe permita ter conhecimento ou
controle dessas informações”152.
Esse estado de neutralidade, entretanto, não se perde quando as plataformas realizarem
“investigações de iniciativa voluntária ou outras atividades destinadas a detectar, identificar e
remover ou desativar o acesso a conteúdo ilegal”, nos moldes do artigo 6º do referido diploma
legal. Ainda, essa previsão não traz as plataformas obrigações de vigilância ou monitoramento
de conteúdos (artigo 7º do DSA).
152
COMISSÃO EUROPEIA. Proposal for a Regulation on a Single Market For Digital Services (Digital Services
Act). 15 de dezembro de 2020, p. 24. Disponível em: https://eur-lex.europa.eu/legal-
content/en/TXT/?qid=1608117147218&uri=COM%3A2020%3A825%3AFIN Acesso em 30/06/2022.
153
Um pouco sobre o histórico do Marco Civil da Internet será tratado no capítulo 4 (item “4.2.1”), quando
abordado o multissetorialismo na governança da internet.
154
BRASIL. Lei 12.965/2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil.
Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm
155
O artigo 18 do MCI trata da responsabilidade do provedor de conexão. Pela referida lei, ele não pode ser
responsabilizado pelos conteúdos postados por terceiros, já que atuam como “meros condutores” de infraestrutura
tecnológica, pelo que não possuem relação com o conteúdo publicado pelos usuários (HARTMANN, Ivar; CURZI,
Yasmin; ZINGALES, Nicolo; ALMEIDA, Clara. Moderação de conteúdo online: contexto, brasileiro e suas
perspectivas regulatórias. Rio de Janeiro: Editora Alameda, 2022 (no prelo), pp. 29-30). Art. 18. O provedor de
conexão à internet não será responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros
(BRASIL. Lei 12.965/2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil.
Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm). Acesso em
10/04/2022.
59
terceiros, com exceção dos casos de existência de ordem judicial específica para a
indisponibilização do conteúdo infrator (artigo 19 da lei156).
É importante destacar que antes do MCI, a responsabilização dos provedores de serviço,
segundo a jurisprudência do Superior Tribunal de Justiça (STJ), adotava o sistema de notice
and take down, importado da legislação norte-americana sobre direitos autorais, que
determinava a inexistência de obrigação de filtragem prévia de conteúdo – imagens e dados,
inseridos em seus sistemas157, mas, caberia a eles, ao receberem a comunicação a respeito de
conteúdo ilícito ou ofensivo de um usuário, o prazo de 24h para retirar preventivamente a
postagem, supostamente ofensiva, da rede, podendo checar a veracidade das alegações em
momento futuro. Não o fazendo, haveria responsabilidade solidária pelos danos158. Adotava-se,
portanto, um regime de responsabilidade objetiva, após a constituição em mora do provedor de
aplicação.
Atualmente, o regime de responsabilidade adotado pelo artigo 19 do MCI é subjetivo159,
aplicado para os casos de omissão dos provedores de serviços e aplicações de internet perante
as determinações judiciais, o que significa que esses somente serão considerados responsáveis
pelos danos decorrentes de conteúdo publicado por terceiros quando houver uma ordem judicial
156
Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de
internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros
se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço
e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições
legais em contrário.
§ 1º A ordem judicial de que trata o caput deverá conter, sob pena de nulidade, identificação clara e específica do
conteúdo apontado como infringente, que permita a localização inequívoca do material.
§ 2º A aplicação do disposto neste artigo para infrações a direitos de autor ou a direitos conexos depende de
previsão legal específica, que deverá respeitar a liberdade de expressão e demais garantias previstas no art. 5º da
Constituição Federal.
§ 3º As causas que versem sobre ressarcimento por danos decorrentes de conteúdos disponibilizados na internet
relacionados à honra, à reputação ou a direitos de personalidade, bem como sobre a indisponibilização desses
conteúdos por provedores de aplicações de internet, poderão ser apresentadas perante os juizados especiais.
§ 4º O juiz, inclusive no procedimento previsto no § 3º, poderá antecipar, total ou parcialmente, os efeitos da tutela
pretendida no pedido inicial, existindo prova inequívoca do fato e considerado o interesse da coletividade na
disponibilização do conteúdo na internet, desde que presentes os requisitos de verossimilhança da alegação do
autor e de fundado receio de dano irreparável ou de difícil reparação (BRASIL. Lei 12.965/2014. Estabelece
princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm). Acesso em 30/06/2022.
157
STJ, RESP 1.192.208, Rel. Min. Nancu Andrighi, 3ª T. Dj. 02.08.2012. Disponível em:
https://scon.stj.jus.br/SCON/jurisprudencia/doc.jsp?livre=1.192.208&b=ACOR&p=false&l=10&i=6&operador=
E&tipo_visualizacao=RESUMO Acesso em 07/04/2021.
158
STJ, RESP 1.323.754, Rel. Min. Nancy Andrighi, Dj 19.06.2012. Disponível em:
https://scon.stj.jus.br/SCON/jurisprudencia/doc.jsp?livre=1.323.754&pesquisaAmigavel=+%3Cb%3E1.323.754
%3C%2Fb%3E&b=ACOR&p=false&thesaurus=&l=10&i=13&operador=E&tipo_visualizacao=RESUMO&tp=
T Acesso em 30/06/2022.
159
DE TEFFÉ, Chiara Spadaccini; DE MORAES, Maria Celina Bodin. Redes sociais virtuais: privacidade e
responsabilidade civil. Análise a partir do Marco Civil da Internet. Pensar-Revista de Ciências Jurídicas, v. 22,
n. 1, p. 108-146, 2017. Disponível em: https://periodicos.unifor.br/rpen/article/view/6272 Acesso em 30/06/2022.
60
específica de remoção de conteúdo e não tomarem as medidas cabíveis dentro de seus limites
técnicos.
A legislação nacional oferece uma espécie de imunidade condicional em relação ao
conteúdo postado por terceiros nas plataformas digitais, onde o Poder Judiciário foi considerado
a instância legítima para definir a eventual ilicitude do conteúdo em questão. Isso significa que
a mera notificação extrajudicial do usuário ao provedor não impõe o dever jurídico de retirada
do material da rede. É necessário a prévia análise do Poder Judiciário do material reputado
como ilícito como condição específica de responsabilidade. No entanto, o provedor poderá, a
qualquer momento, optar por retirar o conteúdo falso ou enganoso, caso esse ofenda seus termos
de uso, mas, neste caso, responderá por conduta própria160161.
Esse arranjo institucional, que não se aplica aos casos de violação de direitos autorais162,
traz pontos positivos: assegura a preservação da liberdade de expressão e evita a censura
privada, traz mais segurança e legitimidade para a expressão na rede e não se traduz em barreira
à diversidade ou inovação. Por outro lado, carrega consigo algumas críticas: dificuldades nas
ações voltadas para preservar a intimidade, honra e imagem das pessoas, bem como para conter
desinformação, discursos de ódio, atos de incitação ao terrorismo, dentre outros. Isso porque a
demora na análise do caso pelo Poder Judiciário permite a disseminação do conteúdo pela rede,
o que pode prejudicar o indivíduo, além de que a regra não traz incentivos legais para a
moderação de conteúdo pelas plataformas163.
Em razão de tais críticas, há autores que consideram o artigo 19 do MCI materialmente
inconstitucional (por todos, Anderson Schreiber164). Para o referido autor, há dois fundamentos
160
DE TEFFÉ, Chiara Spadaccini; DE MORAES, Maria Celina Bodin. Redes sociais virtuais: privacidade e
responsabilidade civil. Análise a partir do Marco Civil da Internet. Pensar-Revista de Ciências Jurídicas, v. 22,
n. 1, p. 108-146, 2017. Disponível em: https://periodicos.unifor.br/rpen/article/view/6272 Acesso em 30/06/2022.
161
É importante registrar aqui que a MP 1.068/2021, que alterava o Marco Civil da Internet desejava proibir essa
análise pela plataforma, já que em seus artigos 8º-A, 8º-B, 8º-C e 8º-D, que disciplinava sobre os “direitos dos
usuários das redes sociais”, determinava a necessidade de que as plataformas estivessem amparadas em uma “justa
causa legal” para que pudessem remover conteúdos. Essa MP, contudo, não está mais vigente. BRASIL, MP 1068
de 21 de setembro de 2021, que alterava a Lei nº 12.965, de 23 de abril de 2014, e a Lei nº 9.610, de 19 de fevereiro
de 1998, para dispor sobre o uso de redes sociais. Disponível em: https://www.in.gov.br/en/web/dou/-/medida-
provisoria-n-1.068-de-6-de-setembro-de-2021-343277275 Acesso em 30/06/2022.
162
Artigo 19, § 2º A aplicação do disposto neste artigo para infrações a direitos de autor ou a direitos conexos
depende de previsão legal específica, que deverá respeitar a liberdade de expressão e demais garantias previstas
no art. 5º da Constituição Federal (BRASIL. Lei 12.965/2014. Estabelece princípios, garantias, direitos e deveres
para o uso da Internet no Brasil. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-
2014/2014/lei/l12965.htm). Acesso em 30/06/2022.
163
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.134.
164
SCHREIBER, Anderson. Marco Civil da Internet: avanço ou retrocesso? A responsabilidade civil por dano
derivado do conteúdo gerado por terceiro. In: Direito & Internet III - Tomo II: Marco Civil da Internet: Lei
12.965/2014. DE LUCCA, Newton; SIMÃO FILHO, Adalberto; LIMA, Cíntia Rosa Pereira de (coords.). São
Paulo: Quartier Latin, 2015, pp. 293-294
61
165
Artigo 1º: A República Federativa do Brasil, formada pela união indissolúvel dos Estados e Municípios e do
Distrito Federal, constitui-se em Estado Democrático de Direito e tem como fundamentos: inciso III - a dignidade
da pessoa humana. Artigo 5, inciso X: são invioláveis a intimidade, a vida privada, a honra e a imagem das pessoas,
assegurado o direito a indenização pelo dano material ou moral decorrente de sua violação; Inciso XXXV: a lei
não excluirá da apreciação do Poder Judiciário lesão ou ameaça a direito. BRASIL, Constituição Federal.
Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 30/06/2022.
166
SCHREIBER, Anderson. Marco Civil da Internet: avanço ou retrocesso? A responsabilidade civil por dano
derivado do conteúdo gerado por terceiro. In: Direito & Internet III - Tomo II: Marco Civil da Internet: Lei
12.965/2014. DE LUCCA, Newton; SIMÃO FILHO, Adalberto; LIMA, Cíntia Rosa Pereira de (coords.). São
Paulo: Quartier Latin, 2015, pp. 293-294
167
SUPREMO TRIBUNAL FEDERAL. TEMA 987. Discussão sobre a constitucionalidade do art. 19 da Lei n.
12.965/2014 (Marco Civil da Internet) que determina a necessidade de prévia e específica ordem judicial de
exclusão de conteúdo para a responsabilização civil de provedor de internet, websites e gestores de aplicativos de
redes sociais por danos decorrentes de atos ilícitos praticados por terceiros. Disponível em:
https://portal.stf.jus.br/jurisprudenciaRepercussao/verAndamentoProcesso.asp?incidente=5160549&numeroProc
esso=1037396&classeProcesso=RE&numeroTema=987 Acesso em 04/07/2022.
62
168
DIAS, Daniel. Fundamentos da Regulação da tecnologia digital: entender como a tecnologia digital regula para
conseguir regulá-la. Em: Regulação e novas tecnologias. Coordenação: Armando Castelar Pinheiro, Antônio José
Maristello Porto, Patrícia Regina Pinheiro Sampaio. Pp. 193-245. Rio de Janeiro: FGV Editora, 2022. pp. 234-
240.
169
HARTMANN, Ivar A. Regulação da internet e novos desafios da proteção de direitos constitucionais: o caso
do revenge porn. Revista de Informação Legislativa: RIL, v. 55, n. 219, p. 13-26, jul./set. 2018. Disponível em:
<https://www12.senado.leg.br/ril/edicoes/55/219/ril_v55_n219_p13>. Acesso em 26/08/2021.
170
ZINGALES, Nicolo. The Brazilian approach to internet intermediary liability: blueprint for a global regime?
Internet Policy Review, Journal on internet regulation, v. 4, n. 4, 2015.Disponível em:
https://policyreview.info/articles/analysis/brazilian-approach-internet-intermediary-liability-blueprint-global-
regime Acesso em 30/06/2022.
63
São eles171: (i) liberdade de expressão: é necessário respeitar a internet como local para
se promover a troca de informações, o que se deve respeitar quando se pensar em limitar a
atuação dos intermediários; (ii) acesso à internet: direito essencial para promover a capacidade
dos cidadãos de se expressarem livremente e garantir o acesso à informação. Por isso, a
regulação deve promover oportunidades igualitárias, sem discriminação nas comunicações; (iii)
privacidade e proteção de dados: a responsabilização deve balancear os limites entre a liberdade
de expressão e à privacidade, além de possibilitar o controle sobre as informações que se tornam
públicas; (iv) devido processo: as plataformas devem implementar um sistema de devido
processo, permitindo que os usuários recorram das decisões tomadas relacionados a suas contas
e publicações. Os requisitos mínimos são: (a) independência e imparcialidade no processo; (b)
informações sobre a lei e notificação das acusações, com possibilidade de ampla defesa e direito
de resposta; (c) direito a uma decisão fundamentada; e, (v) internet livre e aberta: busca
preservar a arquitetura da internet, voltada para a propagação da inovação e flexibilidade no
transporte das informações. Dessa forma, a responsabilidade dos provedores deve respeitar
essas características.
Conforme analisado ao longo deste capítulo, a moderação possui um amplo campo de
aplicação e pode ser realizada de várias maneiras, pelo que não se resume a uma atividade
binária relacionada à remoção ou permanência de um conteúdo, posterior à ocorrência de uma
determinada publicação. Ela é a principal atividade atrelado ao modelo de negócio das redes
sociais. Destacou-se, em subseção própria, os sistemas de recomendação pelo fato deles serem
responsáveis por grande parte da regulação das atividades das plataformas digitais de redes
sociais, o que concede a elas poder de influência na autodeterminação do usuário e no conteúdo
que será acessado por eles.
No que se refere as soluções aplicadas na moderação, foram mencionados alguns
princípios que devem ser observados pelas plataformas ao eleger os remédios escolhidos
quando se deparam com um conteúdo prejudicial. O capítulo também apresentou os perigos e
problemas enfrentados na moderação de conteúdo. Sobre esse último ponto, foi ressaltado que
os Estados não são mais os únicos atores que podem violar os direitos fundamentais, sendo
certo que, as plataformas de redes sociais, mesmo tendo uma natureza privada, no desempenho
171
ZINGALES, Nicolo. The Brazilian approach to internet intermediary liability: blueprint for a global regime?
Internet Policy Review, Journal on internet regulation, v. 4, n. 4, 2015. P. 7-9. Disponível em:
https://policyreview.info/articles/analysis/brazilian-approach-internet-intermediary-liability-blueprint-global-
regime
64
de suas atividades podem afetar os direitos fundamentais. É sobre esse ponto que será o debate
do próximo capítulo.
65
172
O termo disrupção, aqui, é utilizado para retratar a situação de rompimento do curso normal de processos
econômicos, na qual se rompe a lógica de prestação do serviço anterior para explorar, ao mesmo tempo, o mesmo
serviço, sob uma nova ótica, com objetivo de promover maior eficiência em benefício dos consumidores.
MOREIRA, Egon Bockmann. Situações Disruptivas, Negócios Jurídico-Administrativos e Equilíbrio Econômico-
Financeiro, in: FREITAS, Rafael Véras de; RIBEIRO, Leonardo Coelho; FEIGELSON, Bruno (Organização).
Regulação e Novas Tecnologias, Belo Horizonte, Fórum, 2017.
66
humanos173, notadamente, a liberdade de expressão (por todos, David Kaye174, La Rue175). Essa
necessidade decorre do uso crescente de moderação de conteúdo pelas redes sociais em seus
espaços, não só por consequência da aplicação de suas regras internas, mas também em razão
de pedidos estatais176, que demandam que as plataformas protejam o espaço digital contra
conteúdos ilícitos e prejudiciais à sociedade (terrorismo, pedofilia, desinformação, etc).
Como recomendação, o Conselho da Europa177 entende que as regras elaboradas
referentes à moderação de conteúdo devem garantir a inviolabilidade dos direitos humanos, isto
é, as plataformas devem implementar a regulação dos direitos humanos por design , vale dizer,
o padrão é o respeito aos direitos humanos, sendo as restrições excepcionalmente aceitas
quando necessárias e proporcionais. Dessa forma, o Conselho Europeu advertiu que, se os
Estados optarem por sistemas de corregulação, ou apostarem na autorregulação das plataformas
digitais, eles devem garantir a salvaguarda dos direitos humanos e implementar princípios de
previsibilidade e proporcionalidade para as restrições, eventualmente, realizadas.
O presente capítulo fará uma análise dos principais direitos afetados pelas plataformas
digitais de redes sociais. O foco nas plataformas digitais de redes sociais não sugere que elas
sejam as únicas plataformas que possam violar os direitos fundamentais, mas, em razão do
escopo deste trabalho, a preocupação está na censura da informação e expressão e na influência
sobre a autodeterminação dos indivíduos, sem nenhuma transparência e justificativa aos seus
usuários.
173
Importante ressaltar, neste ponto, a diferença entre direito fundamental e direito humano. Conforme ensinado
por Ingo Sarlet, “o termo “direitos fundamentais” se aplica àqueles direitos (em geral atribuídos à pessoa humana)
reconhecidos e positivados na esfera do direito constitucional positivo de determinado Estado,ao passo que a
expressão “direitos humanos” guarda relação com os documentos de direito internacional, por referir-se àquelas
posições jurídicas que se reconhecem ao ser humano como tal, independentemente de sua vinculação com
determinada ordem constitucional, e que, portanto, aspiram à validade universal, para todos os povos e em todos
os lugares, de tal sorte que revelam um caráter supranacional (internacional) e universal”. SARLET, Ingo
Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO, Daniel. Curso de direito constitucional. 8. ed. – São
Paulo: Saraiva Educação, 2019, pp. 390-391.
174 KAYE, David. 2017. “Report on the Roles Played by Private Actors Engaged in the Provision of Internet and
Telecommunications Access” A/HRC/35/22. Geneva: Human Rights Council. Disponível em:
https://www.ohchr.org/en/calls-for-input/reports/2017/report-role-digital-access-providers
175
LA RUE, Frank. 2011. “Report on Key Trends and Challenges to the Right of All Individuals to Seek, Receive
and Impart Information and Ideas of All Kinds through the Internet.” A/HRC/17/27. May 6. Geneva: Human
Rights Council.Disponível em:
https://www2.ohchr.org/english/bodies/hrcouncil/docs/17session/a.hrc.17.27_en.pdf
176
KREIMER, Seth F. Censorship by Proxy: The First Amendment, Internet Intermediaries, and the Problem of
the Weakest Link. University of Pennsylvania Law Review, 2006, 155 (1), pp. 11–101.
177
STEERING COMMITTEE FOR MEDIA AND INFORMATION SOCIETY. Content Moderation. Best
Practices towards effective legal and procedural frameworks for self-regulatory and co-regulatory mechanisms of
content moderation. Council of Europe. 2021. Disponível em: https://edoc.coe.int/en/internet/10198-content-
moderation-guidance-note.html Acesso em 10/10/2021.
67
178
TEFFÉ, Chiara. Fake News: Como proteger a liberdade de expressão e inibir notícias falsas? ITS Rio. 19 de
março de 2018. https://feed.itsrio.org/fake-news-como-proteger-a-liberdade-de-express%C3%A3o-e-inibir-
not%C3%ADcias-falsas-8058aedd9f5c Acesso em 10/10/2020.
68
incitação de uma grande onda de violência em Mianmar, o que levou o Facebook a atuar com
mais força na remoção de mensagens compartilhadas e exclusão de contas179.
Ainda hoje, o referido país sofre com a intervenção da plataforma. Após os militares
tomarem o poder, em fevereiro de 2021, com a alegação de fraude eleitoral nas eleições de
novembro de 2020 e prisão da líder Aung San Suu Kyi, pertencente ao partido Liga Nacional
pela Democracia (LND), a situação tornou- se mais complicada. Grupos armados que lutavam
pela autodeterminação dos muçulmanos (Rohingyas) no estado de Rakhine, antes considerados
terroristas pela LND, tiveram esse rótulo retirado após a reformulação do cenário político.
As organizações armadas étnicas passaram a ser aliadas do Governo democraticamente
eleito em 2020. No entanto, ainda assim, esses ativistas relatam que não podem usar as redes
sociais para mostrar o que acontece no país. Além de restringir o conteúdo relacionado às
insurgências armadas, os bloqueios também ocorrem nas postagens sobre violações a direitos
humanos direcionadas às minorias étnicas. O Facebook não removeu as restrições aos grupos
étnicos minoritários, exercendo uma censura velada aos grupos que lutam contra o atual
Governo, apesar de afirmar que prioriza a liberdade de expressão para todos os cidadãos180.
As plataformas ao moderarem o conteúdo, possuem incentivos de natureza comercial
sobre quais conteúdos poderão ser removidos ou permanecer na rede, ser ampliados,
recomendados, entre outras ações, em seus espaços e não há transparência efetiva sobre essa
como essa regulação é efetivada. Anunciantes que geram receita para as plataformas preferem
um espaço privado de comunicação saudável, mas com conteúdo que gere engajamento. Os
usuários, por outro lado, também podem influenciar indiretamente nas escolhas dessas
plataformas com suas preferências de remoção ou permanência de determinado conteúdo.
Todas essas situações limitam a liberdade de expressão para muito além de um exame de
ponderação à vista da colisão de direitos181.
Para dificultar esse cenário e torná-lo mais espinhoso, acrescentam-se eventuais
violações de direitos humanos pelos provedores de serviço em lugares onde vigora o regime de
notice and takedown182. Através desses sistemas é possível que os entes intermediários atuem,
179
ASHER. Saira. 04 de fevereiro de 2021. Myanmar coup: How Facebook became the 'digital tea shop'. BBC
News. https://www.bbc.com/news/world-asia-55929654 Acesso em: 05/07/2021.
180
HLAING, Kyaw Hsan. 14 de maio de 2021. Facebook is still censoring groups fighting the military coup in
Myanmar. Rest of world. Reporting Tech Stories. https://restofworld.org/2021/facebook-is-still-censoring-
groups-fighting-the-military-coup-in-myanmar/ Acesso em: 05/07/2021.
181
HARTMANN, Ivar, SARLET, Ingo. Direitos fundamentais e direito privado: a proteção da liberdade de
expressão nas mídias sociais. Direito Público, 16(90). 2019, p. 96. Disponível em:
https://www.portaldeperiodicos.idp.edu.br/direitopublico/article/view/3755 Acesso em 10/10/2021.
182
Conforme explicado no capítulo anterior, é uma espécie de sistema para responsabilizar as plataformas por
conteúdos de terceiros. Nesse sistema inexiste a obrigação de filtragem prévia de conteúdo – imagens e dados,
69
inseridos em seus sistemas, porém cabe aos provedores, ao receberem a comunicação a respeito de conteúdo ilícito
ou ofensivo de um usuário, retirar preventivamente a postagem, supostamente ofensiva, da rede, podendo checar
a veracidade das alegações em momento futuro. Não o fazendo, haveria responsabilidade solidária pelos danos.
183
KREIMER, Seth F. 2006. Censorship by Proxy: The First Amendment, Internet Intermediaries, and the Problem
of the Weakest Link. University of Pennsylvania Law Review 155 (1), pp. 6-22. Disponível em:
https://scholarship.law.upenn.edu/penn_law_review/vol155/iss1/4/ Acesso em 10/10/2021.
184
LA RUE, Frank. Report on Key Trends and Challenges to the Right of All Individuals to Seek, Receive and
Impart Information and Ideas of All Kinds through the Internet. A/HRC/17/27. Geneva: Human Rights
Council.2011.
185
STEERING COMMITTEE FOR MEDIA AND INFORMATION SOCIETY. Content Moderation. Best
Practices towards effective legal and procedural frameworks for self-regulatory and co-regulatory mechanisms of
content moderation. Council of Europe. 2021, p. 28. Disponível em: https://edoc.coe.int/en/internet/10198-
content-moderation-guidance-note.html Acesso em 10/10/2021.
186
STEERING COMMITTEE FOR MEDIA AND INFORMATION SOCIETY. Content Moderation. Best
Practices towards effective legal and procedural frameworks for self-regulatory and co-regulatory mechanisms of
content moderation. Council of Europe, p. 25. Disponível em: https://edoc.coe.int/en/internet/10198-content-
moderation-guidance-note.html Acesso em 10/10/2021. Trecho original: As a result, ideas, explicitly protected by
the European Convention on Human Rights, such as those “that offend, shock or disturb the State or any sector
of the population,” have little chance of being protected in practice.
187
TWOREK, Heidi; LEERSSEN, Paddy. Na analysis of germany´s NetzDg Law. Transatalntic Working Group.
2019. Disponível em: NetzDG_Tworek_Leerssen_April_2019.pdf (ivir.nl) Acesso em 10/10/2021
70
A referida lei exige que as plataformas forneçam um mecanismo para que os usuários
enviem reclamações sobre conteúdo indevido. Uma vez instaurada a denúncia, as plataformas
devem investigar o caso. Se o conteúdo for manifestamente ilegal deve ser removido em 24hs.
Se, apenas ilegal, a remoção deve ser feita em 7 dias. O não cumprimento sujeita a plataforma
infratora à multa de até 50 milhões de euros.
Diversos críticos preocupam-se com as consequências da referida lei para a liberdade
de expressão, afirmando que, da forma como foi posta, pode encorajar a remoção de conteúdos
legais, gerando uma remoção excessiva, já que as plataformas não teriam tempo para avaliar
cada reclamação em detalhes. À vista do alto valor das multas e prazos justos, as plataformas
teriam forte incentivo para obedecer a maioria das reclamações. Há, ainda, aqueles que criticam
a lei pelo fato de a remoção ser feita independentemente de um mandado judicial, o que
concederia as plataformas um poder decisório muito grande, privatizando a execução de atos
estatais188.
A liberdade de expressão, considerada uma liberdade pública no sentido de
corresponder a um poder de autodeterminação do indivíduo, é reconhecida como um direito
humano, cuja proteção encontra-se na Declaração Universal de Direitos Humanos (DUDH)189
e na Convenção Internacional de Direitos Civis e Políticos190 (artigo 19 em ambos os
documentos). Em que pese a elaboração desses documentos ser voltada para a proteção dos
direitos humanos perante os Estados, trazendo, portanto, deveres aos atores estatais, há
estudos191 que apontam um grande debate em torno da inclusão de atores não-estatais ( as redes
sociais, por exemplo) como portadores de deveres para com o direito à liberdade de expressão.
188
TWOREk, Heidi; LEERSSEN, Paddy. Na analysis of germany´s NetzDg Law. Transatalntic Working
Group. Disponível em: NetzDG_Tworek_Leerssen_April_2019.pdf (ivir.nl) 2019. Acesso em 10/10/2021
189
NAÇÕES UNIDAS. Declaração Universal de Direitos Humanos. Disponível em:
https://www.ohchr.org/en/human-rights/universal-declaration/translations/portuguese?LangID=por Acesso em
10/10/2021. Art. 19 da DUDH: Todo o indivíduo tem direito à liberdade de opinião e de expressão, o que implica
o direito de não ser inquietado pelas suas opiniões e o de procurar, receber e difundir, sem consideração de
fronteiras, informações e idéias por qualquer meio de expressão.
190
BRASIL, Decreto nº592 de 6 de julho de 1992. Atos Internacionais. Pacto Internacional sobre Direitos
Civis e Políticos. Promulgação. Disponível em: http://www.planalto.gov.br/ccivil_03/decreto/1990-
1994/d0592.htm Acesso em 10/10/2021. Artigo 19: 1. Ninguém poderá ser molestado por suas opiniões. 2. Toda
pessoa terá direito à liberdade de expressão; esse direito incluirá a liberdade de procurar, receber e difundir
informações e idéias de qualquer natureza, independentemente de considerações de fronteiras, verbalmente ou por
escrito, em forma impressa ou artística, ou por qualquer outro meio de sua escolha. 3.O exercício do direito previsto
no parágrafo 2 do presente artigo implicará deveres e responsabilidades especiais. Conseqüentemente, poderá estar
sujeito a certas restrições, que devem, entretanto, ser expressamente previstas em lei e que se façam necessárias
para: a) assegurar o respeito dos direitos e da reputação das demais pessoas; b) proteger a segurança nacional, a
ordem, a saúde ou a moral públicas.
191
Por todos, há artigo escrito por Agnès Callamard, “The Human Rights Obligations of Non-state Actors”, que
realiza uma pesquisa sobre os documentos preparatórios para a promulgação da DUDH e CIDCP. CALLAMARD,
AGNÉS. The Human Rights Obligations of Non-State Actors. In: Human rights in the age of platforms. Editor:
71
Isso porque já se reconhecia, à época dos atos preparatórios para elaboração da DUDH,
período que sucedeu a segunda guerra mundial, que os Governos não eram os únicos que
poderiam censurar e interferir na produção de ideias, mas também a mídia de um modo geral,
o que inclui todos aqueles que controlam a tecnologia, desde jornais à intermediários na
internet. Em que pese, os atores não-estatais não serem considerados como portadores de
deveres no mesmo nível que os Estados, eles carregam obrigações de respeito aos direitos
humanos (diferentes daquelas impostas ao Estado), o que será analisado mais à frente neste
capítulo.
De uma forma geral, o direito à liberdade de expressão é especial porque através dele se
exerce a democracia, pelo que o discurso deve sempre ser encorajado e não restringido.
Quaisquer restrições à fala precisam ser previamente e claramente delimitadas. Fazer isso
globalmente é difícil porque cada país tem regras próprias que definiem os contornos desse
direito. Por isso, o contexto do exercício da fala também é importante, o que torna a moderação
de conteúdo das plataformas, em larga escala, especialmente desafiadoras.
Rikke Frank Jørgensen: Cambridge, MA: The MIT Press. 2019. Disponível em:
file:///C:/Users/user/Downloads/1005622.pdf Acesso em 10/01/2022.
192
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
193
Artigo 5º: Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e
aos estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à
propriedade, nos termos seguintes. Inciso IV: é livre a manifestação do pensamento, sendo vedado o anonimato.
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
72
IV, da CRFB194), liberdade de expressão artística (artigo 5º, IX, CRFB195), liberdade de ensino
e pesquisa (artigo, 206, II da CRFB196), liberdade de comunicação e informação (artigo 5º,
IX197, XIV198 e 220199, ambos da CRFB), e liberdade religiosa (artigo 5º, VI, da CRFB200), que
forma o arcabouço jurídico constitucional que reconhece e protege a liberdade de expressão nas
suas diversas manifestações201.
Segundo Ingo Sarlet, a liberdade de expressão consiste na emissão de “juízos de valor a
respeito de fatos, ideias, juízos de valor sobre opinião de terceiros, etc”202. Pode-se dizer que a
liberdade de expressão é entendida como liberdade de opinião, que nas palavras da Constituição
194
Artigo 5º: Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e
aos estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à
propriedade, nos termos seguintes. Inciso IV: é livre a manifestação do pensamento, sendo vedado o anonimato.
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
195
Artigo 5º: Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e
aos estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à
propriedade, nos termos seguintes. Inciso IX: é livre a expressão da atividade intelectual, artística, científica e de
comunicação, independentemente de censura ou licença. BRASIL, Constituição Federal. Constituição da
República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
196
Artigo 206: O ensino será ministrado com base nos seguintes princípios: Inciso II: liberdade de aprender,
ensinar, pesquisar e divulgar o pensamento, a arte e o saber. BRASIL, Constituição Federal. Constituição da
República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
197
Artigo 5º: Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e
aos estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à
propriedade, nos termos seguintes. Inciso IX: é livre a expressão da atividade intelectual, artística, científica e de
comunicação, independentemente de censura ou licença. BRASIL, Constituição Federal. Constituição da
República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
198
Artigo 5º: Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e
aos estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à
propriedade, nos termos seguintes. Inciso XIV: é assegurado a todos o acesso à informação e resguardado o sigilo
da fonte, quando necessário ao exercício profissional. BRASIL, Constituição Federal. Constituição da República
Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
199
Artigo 220: A manifestação do pensamento, a criação, a expressão e a informação, sob qualquer forma, processo
ou veículo não sofrerão qualquer restrição, observado o disposto nesta Constituição. BRASIL, Constituição
Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
200
Artigo 5º: Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e
aos estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à
propriedade, nos termos seguintes. Inciso VI: é inviolável a liberdade de consciência e de crença, sendo assegurado
o livre exercício dos cultos religiosos e garantida, na forma da lei, a proteção aos locais de culto e a suas liturgias.
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
201
Este trabalho, contudo, adotará a liberdade de expressão como um conceito genérico para uma análise conjunta
de todas as liberdades comunicativas que, com as devidas ressalvas, podem ser analisadas em bloco. Assim, pode-
se referir a esse direito tanto como liberdade de pensamento, relacionando-os aos juízos intelectivos, como também
o externar de sensações, como espiritualidade, expressões verbais, musical, artes e outros. SARLET, Ingo
Wolfgang, Marinoni, Luiz Guilherme e Mitidiero, Daniel. Curso de direito constitucional. 8. ed. – São Paulo:
Saraiva Educação, 2019. P. 632-633.
202
SARLET, Ingo Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO, Daniel. Curso de direito
constitucional. 8. ed. – São Paulo: Saraiva Educação, 2019, pp. 636-637.
73
203
SARLET, Ingo Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO, Daniel. Curso de direito
constitucional. 8. ed. – São Paulo: Saraiva Educação, 2019, pp. 632-633
204
SARLET, Ingo Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO, Daniel. Curso de direito
constitucional. 8. ed. – São Paulo: Saraiva Educação, 2019, p. 635.
205
MENDES, Gilmar Ferreira, BRANCO, Paulo Gustavo Goulart. Curso de Direito Constitucional.13ª Edição
Rev. e Atual. São Paulo. Saraiva. 2018.
206 HARTMANN, Ivar A. M. A Right to Free Internet? On Internet Access and Social Rights. Journal of High
Technology Law, v. XIII, pp. 362-429, 2013, p. 371. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2355900 Acesso em 10/06/2022. Trecho original: That is to
say, even though an individual’s right to life has a predominant negative dimension in the prohibition that the
state take her life, it also requires a positive performance by the state which commonly constitutes maintaining a
police force to keep other individuals from murdering her.
74
ambiente em que diferentes convicções e visões de mundo possam ser expostas, defendidas e
confrontadas umas com as outras, em um debate rico, plural e resolutivo” 207.
Sob o aspecto acima mencionado, a liberdade de expressão é analisada em sua dimensão
objetiva, ou seja, como uma pedra de toque para o Estado Democrático de Direito e para a
própria dignidade humana. Cuida-se de um valor para a comunidade em geral, motivo pela qual,
sob essa perspectiva, a liberdade de expressão adquire dimensão transindividual.
A liberdade de expressão, amplamente defendida pelo constituinte, apresenta proteção
destacada no Marco Civil da Internet, pois é considerada, ao mesmo tempo, fundamento e
princípio para o uso da internet no Brasil e condição para o exercício do direito de seu acesso.
O próprio sistema de responsabilidade lastreado a partir do artigo 19 do MCI, abordado no
capítulo anterior, permite essa conclusão. Segundo Teffé e Bodin, no caso do marco civil da
internet, o legislador “pendeu para a liberdade de expressão por se tratar de lei cujo objeto se
encontra diretamente vinculado à expressão humana e, portanto, ao aludido princípio”208.
Importante destacar que esse direito não é contrário a limites, tampouco se sobrepõe aos
demais. Nenhuma liberdade é absoluta, devendo coexistir de forma harmônica com outros
direitos protegidos constitucionalmente. Quando analisada de forma casuística, a solução passa
pela aplicação do critério da ponderação através do princípio proporcionalidade realizada pelo
Poder Judiciário.
A operacionalização desse critério ocorre através do emprego de três elementos: (i)
adequação (se através da utilização do meio empregado pode-se alcançar o evento pretendido),
(ii) necessidade (se há outros meios eficazes, porém menos restritivos aos direitos
fundamentais) e, (iii) proporcionalidade em sentido estrito (controle da sintonia fina, indicando
a justeza da solução encontrada)209, de forma que, ao final, o direito à liberdade de expressão
não possa salvaguardar, em sua abrangência, condutas de conteúdo ilícito210.
207
TOFFOLI, José Antônio Dias. Fake news, desinformação e liberdade de expressão. Fake News e Regulação.
Organização: Georges Abboud, Nelson Nery Jr. E Ricardo Campos. 2ed. rev., atual. e ampl. - São Paulo: Thomson
Reuters Brasil. Coleção Direito e Estado em transformação. 2020, p. 21.
208
DE TEFFÉ, Chiara Spadaccini; DE MORAES, Maria Celina Bodin. Redes sociais virtuais: privacidade e
responsabilidade civil. Análise a partir do Marco Civil da Internet. Pensar-Revista de Ciências Jurídicas, v. 22,
n. 1, p. 108-146, 2017, p. 113.
209
MENDES, Gilmar Ferreira, BRANCO, Paulo Gustavo Goulart. Curso de Direito Constitucional.13ª Edição
Rev. E Atual. São Paulo. Saraiva. 2018.
210
A liberdade de expressão, para parte da doutrina, assume uma posição preferencial quando em conflito com
outros direitos constitucionais, o que pode ser visualizado no julgamento sobre a inconstitucionalidade do artigo
16 da Lei de Imprensa na ADPF 130, que criminalizava fake news, ao considerar o ato de “publicar ou espalhar
notícias falsas” uma infração penal. Esse precedente garantiu a prevalência da liberdade de expressão. No entanto,
o Supremo Tribunal Federal (STF), não adotou o entendimento da Suprema Corte Americana que defende a
prevalência da liberdade de expressão nos casos de discursos de ódio. Para a Corte Constitucional, embora
possamos falar em uma posição preferencial da liberdade de expressão, não se trata de direito absolutamente
infenso a limites e restrições, desde que essa restrição tenha caráter excepcional e seja promovida por lei e/ou
75
decisão judicial. LENZA, Pedro. Direito Constitucional Esquematizado. 20 ed.rev.atual. e ampl. – São Paulo:
Saraiva, 2016, pp 1183-1185.
211
Internacionalmente, também é relevante apontar para o relatório anual sobre a promoção e proteção do direito
à liberdade de expressão, que preconiza que a restrição ou qualquer limitação ao direito à liberdade de expressão
deve passar por três etapas cumulativas do seguinte teste: (a) It must be provided by law, which is clear and
accessible to everyone (principles of predictability and transparency); and (b) It must pursue one of the purposes
set out in article 19, paragraph 3, of the Covenant, namely (i) to protect the rights or reputations of others, or (ii)
to protect national security or of public order, or of public health or morals (principle of legitimacy); and (c) It
must be proven as necessary and the least restrictive means required to achieve the purported aim (principles of
necessity and proportionality). LA RUE, Frank. Report of the Special Rapporteur on the promotion and protection
of the right to freedom of opinion and expression.. Conselho de Direitos Humanos. 2011, p. 8. Disponível em:
https://www2.ohchr.org/english/bodies/hrcouncil/docs/17session/a.hrc.17.27_en.pdf Acesso em 10/06/2022.
212
Artigo 5º: Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e
aos estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à
propriedade, nos termos seguintes. Inciso IX: é livre a expressão da atividade intelectual, artística, científica e de
comunicação, independentemente de censura ou licença; e Artigo 220: A manifestação do pensamento, a criação,
a expressão e a informação, sob qualquer forma, processo ou veículo não sofrerão qualquer restrição, observado o
disposto nesta Constituição. § 2º É vedada toda e qualquer censura de natureza política, ideológica e artística.
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
213
Ingo Sarlet define censura como “restrição à liberdade de expressão realizada pela autoridade administrativa e
que resulta na proibição da veiculação de determinado conteúdo”. A ampliação do conceito para outras
intervenções prévias é alvo de debate acirrado, segundo o autor, o que prevalece é “para assegurar a liberdade de
expressão, a proibição de censura e de licença deve ser compreendida em sentido amplo, de modo a abarcar não
apenas a típica censura administrativa, mas também outras hipóteses de proibição ou limitação da livre expressão
e circulação de informações e ideias”. SARLET, Ingo Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO,
Daniel. Curso de direito constitucional. 8. ed. – São Paulo: Saraiva Educação, 2019, p. 642.
214
Esse ponto foi objeto de acirrado debate no projeto de lei 2630/20, que trata da regulação das atividades das
plataformas digitais. Sobre o anonimato, recomenda-se: WIMMER, Miriam, CARVALHO, Lucas Borges. O papel
e os limites do anonimato: em busca de uma interpretação constitucionalmente adequada. Pensar. Revista de
Ciências Jurídicas. v. 27, n. 2, p. 1-16, abr./jun. 2022. Disponível em: file:///C:/Users/user/Downloads/13041-
Texto%20do%20Artigo-54711-54427-10-20220602.pdf Acesso em: 05/07/2022.
76
que esse exercício pode ser restringido em prol de outros, igualmente, importantes, nos
direciona à indagação a respeito da legitimidade das plataformas para essa tarefa (poderiam elas
restringir a fala?) e sobre o modo do exercício da moderação de conteúdo (sem nenhuma
explicação aos usuários sobre as decisões tomadas). Esses temas serão aprofundados nos
capítulos 4 e 5.
215
ZARSKY, Tal. Incompatible: The GDPR in the Age of Big Data. Seton Hall Law Review. N. 47, 2017.
Disponível em: https://bit.ly/2Ln5yE7 Acesso em 10/10/2020. O autor descreve essa enorme quantidade de dados
coletados, analisados e que servem de fontes de novas informações como um conceito que envolve o volume de 4
(quatro) “V”, vale dizer, que se relacionam com o volume de dados coletados; variedade de fontes; velocidade de
análise de dados; e, veracidade que os dados devem alcançar após o processo analítico. O autor aplica o termo “big
data” para destacar a mudança profunda na forma como que os dados são coletados, armazenados e, após,
utilizados, tudo como resultado do processo tecnológico.
216
DONEDA, Danilo. Da privacidade à proteção de dados: elementos da formação da Lei Geral de Proteção
de Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, p.34.
77
217
Um artigo citado pela doutrina como ponto de referência sobre a moderna discussão em torno da privacidade é
o “The right to privacy”, escrito por Samuel Warren e Louis Brandeis. Esse artigo, conforme explica Danilo
Doneda, reflete “uma tendência a uma fundamentação diversa para a proteção da privacidade desvinculada do
direito de propriedade”. Um dos seus pontos centrais é de que a proteção à privacidade se origina da inviolabilidade
da personalidade, o que, se transforma, mais a frente, na proteção da privacidade a partir do eixo da proteção da
pessoa humana. DONEDA, Danilo. Da privacidade à proteção de dados: elementos da formação da Lei Geral
de Proteção de Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, p.124.
218
Mais remotamente, pode-se conectar o entendimento da privacidade como desdobramento do direito de
propriedade, consequência do individualismo. A partir do século XVI, a percepção do ser humano é sentida em
oposição à sociedade. Busca-se estabelecer uma esfera privada livre das ingerências do ente público, em reação ao
absolutismo. No entanto, essa percepção era fortemente ligada à proteção da propriedade. A partir do século XIX,
“a propriedade era concebida como essencial ao desenvolvimento do indivíduo, à sua personalidade. Logo, “o
direito de propriedade era condição inafastável para se chegar à privacidade”. A sociedade industrial traz mudanças
nessa perspectiva, passa-se a entender a privacidade como uma forma de resistência do homem frente à
massificação provocada pela indústria. DONEDA, Danilo. Da privacidade à proteção de dados: elementos da
formação da Lei Geral de Proteção de Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, pp .118-120.
219
WARREN, Samuel; BRANDEIS, Louis D. The Right to Privacy. Harvard Law Review, Vol. 4, No. 5, pp.
193-220, 1980, p.195. Disponível em: https://www.cs.cornell.edu/~shmat/courses/cs5436/warren-brandeis.pdf
Acesso em 10/10/2021.
220
WARREN, Samuel; BRANDEIS, Louis D. The Right to Privacy. Harvard Law Review, Vol. 4, No. 5, pp.
193-220, 1980. Disponível em: https://www.cs.cornell.edu/~shmat/courses/cs5436/warren-brandeis.pdf Acesso
em 10/10/2021.
78
221
NAÇÕES UNIDAS. Declaração Universal de Direitos Humanos. Disponível em:
https://www.ohchr.org/en/human-rights/universal-declaration/translations/portuguese?LangID=por Acesso em
10/10/2021. Artigo 12: Ninguém será sofrerá intromissões arbitrárias na sua vida privada, em sua família, em seu
lar ou em sua correspondência, nem a ataque à sua honra e reputação. Todo ser humano tem direito à proteção da
lei contra tais interferências ou ataques.
222
DONEDA, Danilo. Da privacidade à proteção de dados: elementos da formação da Lei Geral de Proteção de
Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, p.101.
223
Embora a dificuldade para conceitua-la, a proteção de direito à privacidade encontra amparo no artigo 12 da
Declaração Universal dos Direitos Humanos de 1948, que consagrou o direito à vida privada, conforme acima
mencionado.
224
DONEDA, Danilo. Da privacidade à proteção de dados: elementos da formação da Lei Geral de Proteção de
Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, p.110.
225
SARLET, Ingo Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO, Daniel. Curso de direito
constitucional. 8. ed. – São Paulo: Saraiva Educação, 2019, p. 573. MORAES, Guilherme Pena. Curso de Direito
Constitucional. 4 ed. São Paulo: Atlas, 2021, p. 550. É importante destacar, noutro giro, que Danilo Doneda, em
referência a essa doutrina, informa que essa teoria foi deixada de lado pelo Tribunal Constitucional Alemão.
79
DONEDA, Danilo. Da privacidade à proteção de dados: elementos da formação da Lei Geral de Proteção de
Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, p.103.
226
DONEDA, Danilo. Da privacidade à proteção de dados: elementos da formação da Lei Geral de Proteção
de Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, p.29.
227
RODOTÀ. Stefano. A vida na sociedade da vigilância. A privacidade hoje. Organização, seleção e a
apresentação de Maria Celina Bodin de Moraes. Rio de Janeiro: Renovar, 2008, pp. 74-75.
228
Rodotà. Stefano. A vida na sociedade da vigilância. A privacidade hoje. Organização, seleção e a
apresentação de Maria Celina Bodin de Moraes. Rio de Janeiro: Renovar, 2008, pp 74-75.
229
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, pp. 477-
491, 2006, p. 447. Disponível em: https://bit.ly/1ngGQAa. Acesso em 05/10/2021.
230
Em 1960, William Prosser, na tentativa de organizar os diferentes problemas que apresentavam perigo à
privacidade, elencou 4 tipos de atividades perigosas: a) intromissão à vida privada de alguém ou em seus assuntos
privados; b) divulgação pública de fatos particulares embaraçosos do indivíduo; c) publicidade que coloca o
reclamante em uma falsa luz aos olhos públicos; e, d) apropriação, em proveito do réu, do nome do autor ou
semelhantes. PROSSER, William L. Privacy, California Law Review. Vol 48, nº3, 383-423, 1960. Disponível
em: https://lawcat.berkeley.edu/record/1109651 Acesso em 05/10/2021.
80
231
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, pp. 477-
491, 2006, pp. 491-504. Disponível em: https://bit.ly/1ngGQAa. Acesso em 05/10/2021.
232
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, pp 477-
491, 2006, pp. 504-505. Disponível em: https://bit.ly/1ngGQAa. Acesso em 05/10/2021.
233
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, pp. 477-
491, 2006, pp. 491-506. Disponível em: https://bit.ly/1ngGQAa. Acesso em 05/10/2021.
234
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, pp 477-
491, 2006, p. 510. Disponível em: https://bit.ly/1ngGQAa. Acesso em 05/10/2021.
81
especial, quando essas informações não forem corretas, relevantes ou atualizadas”235. Essa
discussão ganhou repercussão em um caso decidido pelo Tribunal de Justiça da União Europeia
(TJEU), proferido pelo acórdão Google-Spain (proc.C-131-12), em maio de 2014236, no qual
considerou que os provedores de busca, em razão da capacidade que possuem para controlar o
processamento dos dados pessoais, tem obrigação de desindexar as informações que sejam
inadequadas ou impertinentes pelo decurso do tempo por serem enquadrados como
controladores de dados (interpretação do artigo 12.b da Antiga Diretiva 95/46 da União
Europeia)237.
A insegurança é um problema que se relaciona como nossas informações são tratadas e
protegidas. Ela expõe os indivíduos, que podem vir a sofrer com a utilização indevida de seus
dados, de modo que a privacidade se estende para o interesse de evitar a divulgação de questões
pessoais238.
235
BELLI, Luca. STJ consagra direito ao esquecimento na Internet: o que isso significa? Jota. 20 de maio de 2018.
Disponível em: https://www.jota.info/coberturas-especiais/liberdade-de-expressao/stj-consagra-direito-ao-
esquecimento-na-internet-o-que-isso-significa-20052018 Acesso em 05/10/2021
236
Acórdão do Tribunal de Justiça Europeu. Caso: Google Spain SL e Google Inc. contra Agencia Española de
Protección de Datos (AEPD) e Mario Costeja González. Publicado em 13/05/2014. Disponível em:
https://curia.europa.eu/juris/liste.jsf?language=pt&jur=C,T,F&num=C-131/12&td=ALL Acesso em 05/10/2021
237
É importante destacar que recente julgamento do Supremo Tribunal Federal (STF) tratou o direito ao
esquecimento sob uma lente diferente daquela utilizada pela União Europeia (na seara digital e como obrigação
de desindexar informações sobre uma pessoa) quando da análise do precedente “Aida Curi” (recurso
Extraordinário nº 1010606, Relator: Ministro Dias Toffoli, acórdão proferido pelo Tribunal Pleno, publicado em
20/05/2021. Disponível em:
https://jurisprudencia.stf.jus.br/pages/search?base=acordaos&pesquisa_inteiro_teor=false&sinonimo=true&plura
l=true&radicais=false&buscaExata=true&page=1&pageSize=10&queryString=1.010.606&sort=_score&sortBy
=desc) Acesso em 05/10/2020. Anteriormente, o STJ já havia considerado o direito ao esquecimento, na esfera
analógica como o “direito de não ser lembrado contra sua vontade, especificamente no tocante a fatos
desabonadores” (Recurso Especial nº 1.334.097, Relator: Ministro LUIS FELIPE SALOMÃO (1140), acórdão
proferido pela 4ª Turma, publicado em 01/02/2022. Disponível em:
https://scon.stj.jus.br/SCON/jurisprudencia/doc.jsp?livre=1.334.097&b=ACOR&p=false&l=10&i=1&operador=
E&tipo_visualizacao=RESUMO Acesso em 05/10/2020), de forma que pode-se afirmar que o direito ao
esquecimento, pela jurisprudência brasileira, foi concebido como um direito geral de limitar efetivamente a
publicação de determinadas informações, concretizando o direito à privacidade, nos termos do artigo 5º, X, da
CRFB. Assim, em 2021, ao retomar o estudo do tema, afirmou o entendimento de que o direito ao esquecimento
é incompatível com a Constituição, de maneira que “o poder de impedir, pelo transcurso do tempo, a divulgação
de fatos ou dados verdadeiros e licitamente obtidos e publicados em meio analógico ou digital” não pode ser
tolerado. Conforme apontado por Luca Belli, o STF consolidou o entendimento de que não é possível utilizar o
direito ao esquecimento como um direito geral de censura, de modo que não se pode proibir a publicação de fatos
verdadeiros, obtidos licitamente. Ao mesmo tempo, no entanto, o STF deixa claro que “continua sendo possível
que qualquer Tribunal de Justiça avalie, caso a caso e de acordo com parâmetros constitucionais e dispositivos
legais existentes, se um episódio específico pode permitir o uso do direito ao esquecimento para proibir a
divulgação de informações que prejudiquem a dignidade, honra, privacidade ou outros interesses fundamentais do
indivíduo”. BELLI, Luca. The right to be forgotten is not compatible with the brazilian constitution. or is it?
Future of Privacy Forum. 23 de março de 2021. Disponível em: https://fpf.org/blog/the-right-to-be-forgotten-is-
not-compatible-with-the-brazilian-constitution-or-is-it/ Acesso em 05/10/2021
238
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, pp. 477-
491, 2006, pp. 515-518. Disponível em: https://bit.ly/1ngGQAa. Acesso em 05/10/2021.
82
239
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, pp. 477-
491, 2006, pp. 518-520. Disponível em: https://bit.ly/1ngGQAa.. Acesso em 05/10/2021.
240
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, pp. 477-
491, 2066, pp 521-523. Disponível em: https://bit.ly/1ngGQAa. Acesso em 05/10/2021.
241
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, pp. 477-
491, 2006, pp. 523-548. Disponível em: https://bit.ly/1ngGQAa. . Acesso em 05/10/2021.
242
Esse ponto se relaciona com o direito de ficar sozinho, já mencionado nesta dissertação, introduzido por Warren
e Brandeis.
243
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, pp. 477-
491, 2006, pp. 548-557. Disponível em: https://bit.ly/1ngGQAa. Acesso em 05/10/2021.
83
244
Os termos “dados” e “informação” são diferentes, embora, muitas vezes, se sobreponham em algumas
circunstâncias. Os dados se relacionam a pedaços brutos e desorganizados de informações que precisam ser
processadas para torná-lo significativo, por exemplo, observações, números, caracteres, símbolos, imagens, etc. Já
informação é um conjunto de dados organizados de forma significativa. As informações são processadas,
estruturadas ou apresentadas em um determinado contexto para torná-las úteis.
245
A proteção dos dados é alvo de preocupação há alguns anos. A década de 1980 fomentou o desenvolvimento
econômico a partir do papel estratégico dos dados pessoais. A Organização para o Desenvolvimento e Cooperação
Econômica (OCDE) passou a elaborar as Guidelines on the Protection of Privacy and Transborder Flows of
Personal Data, diretrizes que contribuíram não só para a consolidação do conceito de privacidade ligado à proteção
de dados pessoais, como também para o desenvolvimento do fluxo transfronteiriço de dados. Após, a União
Europeia também propôs um novo regulamento, que substituiu a Diretiva 95/46/CE, o conhecido General Data
Protection Regulation (GDPR), que, inclusive, inspirou a elaboração da legislação brasileira (LGPD). LAPIN. O
direito fundamental à proteção de dados pessoais à luz da jurisprudência do supremo tribunal federal. Postado em
31 de março de 2021. Disponível em: https://lapin.org.br/2021/03/31/o-direito-fundamental-a-protecao-de-dados-
pessoais-a-luz-da-jurisprudencia-do-supremo-tribunal-federal/ Acesso em 05/10/2021
246
Artigo 5º: Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e
aos estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à
propriedade, nos termos seguintes. Inciso X: são invioláveis a intimidade, a vida privada, a honra e a imagem das
pessoas, assegurado o direito a indenização pelo dano material ou moral decorrente de sua violação. BRASIL,
Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
247
DONEDA, Danilo. Da privacidade à proteção de dados: elementos da formação da Lei Geral de Proteção
de Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, p.105.
248
DONEDA, Danilo. Da privacidade à proteção de dados: elementos da formação da Lei Geral de Proteção
de Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, p.130.
84
artigo 5º, LXXIX, da CRFB, através da Emenda Constitucional (EC) nº 115/22249, logo após o
Supremo Tribunal Federal reconhecer “a proteção de dados pessoais e a autodeterminação
informativa como direitos fundamentais autônomos, extraídos da garantia da inviolabilidade da
intimidade e da vida privada e, consectariamente, do princípio da dignidade da pessoa
humana”250.
Dessa forma, privacidade e proteção de dados, embora sejam direitos interligados, são
diferentes. A privacidade, conforme acima exposto, protege o direito de informação sobre a
vida privada de uma pessoa. Está ligada ao conceito de opacidade e equivale a existência de
uma barreira sobre a vida particular de alguém. A proteção de dados, por outro lado,
corresponde ao processamento dos dados em si mesmos. Busca-se transparência no uso dos
dados de um indivíduo para que se coíba o mau uso dele.
O tratamento como direitos estanques também foi adotado na Carta de Direitos
Fundamentais da União Europeia, em seus artigos 7º, que trata sobre o “respeito pela vida
familiar e privada” e 8º, que trata da “proteção dos dados pessoais”, ambos com base na
dignidade da pessoa humana. Gloria González Fuster e Hielke Hijmans251 explicam que o
direito à proteção de dados pessoais envolve a imposição de obrigações sobre aqueles que
decidem processar dados pessoais, concedendo direitos subjetivos aos indivíduos sobre os quais
os dados estão sendo processados e estabelecendo monitoramento independente do
cumprimento das obrigações e respeito de direitos.
Sua origem está relacionada ao conceito alemão de autodeterminação informacional,
desenvolvido pela Bundesverfassungsgericht em 1983, sentença da Corte Constitucional Alemã
sobre proteção de dados, quando questionada a Lei do Censo, aprovada em 1982. Houve, à
249
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
250
ADI n. 6387 MC-Ref/DF, ADI n. 6388 MC-Ref/DF, ADI n. 6389 MC-Ref/DF, ADI n. 6390 MC-Ref/DF e
ADI n. 6393 MC-Ref/DF, de relatoria da Min. Rosa Weber. Essas ações foram ajuizadas em face da Medida
Provisória 954/2020, que tratava sobre o compartilhamento de dados não anonimizados – nomes, números de
telefones e endereços, dos brasileiros com acesso a telefonia (fixa e móvel) promovido por empresas de
telecomunicação (TELECOM) ao Instituto Brasileiro de Geografia e Estatística (IBGE). A MP 954/2020 teve a
vigência suspensa, sob a fundamentação de que “não estava definido como e para que os dados pessoais seriam
coletados, uma vez que, ao definir como objetivo apenas produção estatística oficial, o diploma não seria
necessário nem proporcional”. Apesar da referida MP não ter sido convertida em lei e as ações de
inconstitucionalidade a ela relacionadas terem perdido seu objeto, restou claro o reconhecimento da proteção de
dados pessoais como um direito fundamental autônomo. LAPIN. O direito fundamental à proteção de dados
pessoais à luz da jurisprudência do supremo tribunal federal. Postado em 31 de março de 2021. Disponível em:
https://lapin.org.br/2021/03/31/o-direito-fundamental-a-protecao-de-dados-pessoais-a-luz-da-jurisprudencia-do-
supremo-tribunal-federal/ Acesso em 10/10/2022.
251
FUSTER, Glória González, HIJMANS, Hielke. The EU rights to privacy and personal data protection: 20 years
in 10 questions. Discussion paper. VUB Brussels Privacy Hub.. Disponível em:
https://brusselsprivacyhub.eu/events/20190513.Working_Paper_Gonza%CC%81lez_Fuster_Hijmans.pdf Acesso
em 10/10/2021.
85
252
DONEDA, Danilo. Da privacidade à proteção de dados: elementos da formação da Lei Geral de Proteção
de Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, p.168.
253
BRASIL, Lei 13.079/2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm Acesso em 08/11/2020.
254
Outras legislações já traziam previsão sobre a proteção de dados sob o manto da proteção à privacidade. O
artigo 43 do Código de Defesa do Consumidor, por exemplo, aborda a proteção dos dados pessoais dos
consumidores, possibilitando o “acesso dessas as informações em cadastros, fichas, registros e dados pessoais de
consumo arquivados sobre ele, bem como suas respectivas fontes”. A Constituição Federal, em seu artigo 5º,
incisos LXXII, também traz a previsão de um remédio constitucional que permite ao cidadão o conhecimento dado
e informações pessoais que estejam sob posse do Estado brasileiro, ou de entidades privadas que tenham
informações de caráter público – o habeas data, que é regulamentado pela Lei 9.507/97.
255
BERTONI, Eduardo. Convention 108 and the GDPR: Trends and perspectives in Latin America. Computer
Law & Security Review. Volume 40, Abril de 2021.Disponível em: https://doi.org/10.1016/j.clsr.2020.105516
Acesso em 10/10/2021.
256
BRASIL, Lei 13.079/2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm Acesso em 08/11/2020.
86
Em que pese haja uma regulação sistematizada e robusta para a proteção de dados dos
usuários, o que poderá trazer mais confiança à sociedade na infraestrutura de informação e
comunicação, a legislação sobre proteção de dados não está direcionada à atividade de
moderação de conteúdo, pelo que deixa alguns temas importantes de fora e, sozinha, não é
suficiente para cessar a violação dos direitos fundamentais citados neste capítulo.
A título de exemplo, pode-se mencionar o direito à explicabilidade previsto no artigo 20
da LGPD257, inaplicável aos sistemas de recomendação. Essa previsão sozinha pode ser ineficaz
se for considerado que os usuários, muitas das vezes, sequer tem a consciência de que estão
sendo submetidos a decisões automatizadas e que as recomendações de anúncios ou vídeos, por
exemplo, oferecidas pelas plataformas, são frutos de escolhas realizadas por algoritmos que
fazem parte de uma arquitetura eleita pelas plataformas em prol de seus interesses.
Uma das críticas mais suscitadas nas atividades das plataformas digitais é que seus
sistemas não proporcionam o devido processo adequado aos usuários afetados pelas decisões
tomadas quando sofrem com a moderação de conteúdo nos espaços virtuais258. São frequentes
decisões equivocadas tomadas pelas plataformas na sua atividade de moderação, deixando os
usuários confusos sobre como as regras são criadas e como potenciais violações aos termos de
uso são identificadas, o que revela opacidade e assimetria na informação entre usuários e
plataformas259.
257
BRASIL, Lei 13.079/2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm Acesso em 08/11/2020. Artigo 20: O
titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento
automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil
pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade. § 1º O controlador deverá
fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos
utilizados para a decisão automatizada, observados os segredos comercial e industrial. § 2º Em caso de não
oferecimento de informações de que trata o § 1º deste artigo baseado na observância de segredo comercial e
industrial, a autoridade nacional poderá realizar auditoria para verificação de aspectos discriminatórios em
tratamento automatizado de dados pessoais.
258
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, p. 08. Disponível em:
https://www.hoover.org/research/verified-accountability Acesso em 14/12/2021.
259
ZINGALES, Nicolo. Accountability. Em: BELLI, Luca; ZINGALES, Nicolo; CURZI, Yasmin (eds.). Glossary
of platform law and policy terms. Rio de Janeiro: FGV Direito Rio, 2021. Disponível em:
https://bibliotecadigital.fgv.br/dspace/handle/10438/31365. Acesso em: 14/12/2021.
87
A título de exemplo, pode-se citar pesquisa realizada pela organização Propublica, cujo
resultado encontrou decisões conflitantes na moderação de conteúdo realizada pelo
Facebook260. Os termos de serviço da rede social não admitem ameaças violentas com base em
práticas religiosas, todavia, quando um usuário denunciou um determinado discurso de ódio
esse foi tolerado. Diversamente, a ideia traduzida pelo mesmo discurso foi repetida em uma
postagem de outro usuário, porém, desta vez, foi considerada violenta e retirada da rede.
Conforme apontado pelo referido relatório, essas decisões díspares não são incomuns. A
pesquisa realizada revelou que, das 49 postagens enviadas por usuários, que afirmaram que os
revisores de conteúdo cometeram algum engano, em 22 delas houve o reconhecimento do erro.
Essa questão se torna mais complicada quando os processos de tomada de decisão são
realizados por meio automatizados, isto é, através de sistemas de inteligência artificial, pois,
nesses casos, são frequentes problemas com consistência e escalabilidade, haja vista a
dificuldade para o reconhecimento do contexto do conteúdo de acordo com suas relações sociais
e produção de vieses nos modelos, o que pode resultar em ações discriminatórias para
determinados grupos de indivíduos.
Para clarear o ponto abordado, pode-se trazer o exemplo do uso de algoritmos em
processos criminais, nos quais busca-se prever a chance de reincidência do réu. Um caso
paradigmático foi o uso do sistema COMPAS (Correctional Offender Management Profiling
for Alternative Sanctions), nos Estados Unidos, no julgamento do Réu Eric Loomis, condenado
a 6 (seis) anos de prisão, em razão do sistema atribuir ao condenado um risco alto de violência
e grande probabilidade de reincidência261. Em seu recurso, tentou-se alcançar os fundamentos
que levaram o modelo a tomar essa decisão, sustentando, com base em um relatório elaborado
pela ProPublica262, que o referido sistema já apresentou vieses discriminatórios a pessoas
afrodescendentes. O recurso não foi provido pela Suprema Corte.
Pode-se, ainda, mencionar que, além dos danos individuais, há preocupação a respeito
do uso de soluções guiadas por tratamento de dados, quando não abertas ao escrutínio público,
pois essas podem levar a exclusão de certos grupos que são, por natureza, mais vulneráveis.
260
TOBIN, Ariana; VARNER, Madeleine; ANGWIN, Julia. Facebook's Uneven Enforcement of Hate Speech
Rules Allows Vile to Stay Up. Pro Publica, 2017. Disponível em: https://www.propublica.org/article/facebook-
enforcement-hate-speech-rules-mistakes. Acesso em: 14/12/2021.
261
FERRARI, Isabela, BECKER, Daniel, WOLKART, Eric Navarro. Arbitrium ex machina: panorama, riscos e a
necessidade de regulação das decisões informadas por algoritmos. Thomson Reuters. Revista dos Tribunais | vol.
995/2018 | Set / 2018 DTR\2018\18341. Disponível em: http://governance40.com/wp-
content/uploads/2018/11/ARBITRIUM-EX-MACHINA-PANORAMA-RISCOS-E-A-NECESSIDADE.pdf
262
ANGWIN, Julia et al. Machine Bias. Pro Publica. 23 de maior de 2016. Disponível em:
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing Acesso em:
25.10.2017.
88
Para ilustrar esse ponto, pode-se citar o caso do aplicativo de celular lançado na cidade de
Boston, em 2012, no qual ajudava aos cidadãos a identificarem falhas no recapeamento de
asfalto nas ruas da cidade. A partir dos dados coletados, a prefeitura atuava diretamente na
solução do defeito. Ocorre que a produção desses dados resultou na exclusão da classe menos
favorecida, deixando a parte mais humilde da cidade à margem de planos de ação. Isso porque
somente cidadãos que possuíssem aparelho de telefonia com acesso à internet e veículo de
passeio registravam os dados solicitados, determinando quais seriam as métricas a serem
adotadas pela prefeitura263.
Dessa forma, em que pese as decisões automatizadas serem importantes para o
funcionamento e eficiência das arquiteturas de software das plataformas, vez que os números
de casos avaliados pelos sistemas de moderação são enormes264, são frequentes problemas de
inconsistência, escalabilidade e transparência nas decisões tomadas, conforme mencionado no
capítulo anterior, além da dificuldade dos usuários contestarem essas decisões.
Em modelos de comunicação de massa, a utilização de modelos automatizados, que
priorizam velocidade de decisão, pode trazer eficiência, mas essas ferramentas são
implementadas às custas da deliberação nas decisões e do balanceamento judicial das restrições
dos direitos envolvidos, pelo que recebem críticas pela falta de compatibilidade com o devido
processo legal e não concretizarem decisões justas.
A previsão de recursos de apelação disponibilizados aos usuários na moderação de
conteúdo é solução que busca trazer legitimidade à atuação das plataformas dentro de um
cenário de restrição de direitos fundamentais. A ideia por traz da recorribilidade das decisões é
de que nenhum processo de tomada de decisão produz decisões perfeitas em todas as suas
manifestações. É preciso que os usuários disponham de um mecanismo de contestabilidade
dessas decisões que satisfaça suas necessidades e diminua os problemas de opacidade,
assimetria informacional, inconsistência e legitimidade das plataformas para privarem os
usuários de suas liberdades265.
263
CEA Alumni. Street Bump: Crowdsourcing Better Streets, but Many Roadblocks Remain. 30 de outubro de
2015. Digital Iniciative. Disponível em: https://digital.hbs.edu/platform-digit/submission/street-bump-
crowdsourcing-better-streets-but-many-roadblocks-remain/ Acesso em: 14/12/2021.
264
Conforme já analisado neste trabalho, estima-se que o Facebook, por exemplo, somente em relação ao uso de
contas falsas, tenha os números de casos avaliados na casa dos bilhões. Dados disponíveis em
https://transparency.facebook.com/community-standards-enforcement Acesso em: 14/12/2021.
265
Os princípios de Santa Clara, por exemplo, sugerem que as plataformas digitais ofereçam oportunidade para o
usuário apresentar apelação, já que elas “devem garantir que os direitos humanos e as considerações do devido
processo sejam integrados em todas as etapas do processo de moderação de conteúdo e devem publicar
informações descrevendo como essa integração é feita”. ACLU Legal Foundation of Northern California et al.,
“The Santa Clara Principles.”. Disponível em: https://santaclaraprinciples.org/ Acesso em: 14/12/2021.
89
266
BLOCH-WEHBA, Hannah. Global Platform Governance: Private Power in the Shadow of the State, 72 SMU
L. REV. 27, pp. 27-80, 2019, p.61. Disponível em:
https://scholar.smu.edu/cgi/viewcontent.cgi?article=4778&context=smulr Acesso em: 14/12/2021.
267
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, p. 08. Disponível em:
https://www.hoover.org/research/verified-accountability Acesso em: 14/12/2021
268
A título de exemplo, “o Facebook removeu 2,2 bilhões de contas falsas apenas no primeiro trimestre de 2019,
bem como 1,8 bilhão de conteúdos que envolviam violações de spam. As pessoas recorreram de 20,8 milhões das
decisões tomadas em relação ao spam. Esta é uma média de cerca de 231.000 apelos por dia”. DOUEK, Evelyn.
Verified accountability: self-regulation of content moderation as an answer to the special problems of speech
regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, p. 09. Disponível em:
https://www.hoover.org/research/verified-accountability Trecho original: But Facebook removed 2.2 billion fake
accounts in the first quarter of 2019 alone, as well as 1.8 billion pieces of content for spam violations.70 People
appealed 20.8 million of the decisions made in relation to spam. This is an average of around 231,000 appeals a
day. Facebook takes action against content for violating its rules against spam more often than in any other
category, but it is still only one category in its community standards. Overall, Facebook received nearly 25 million
requests for appeal of content in the first quarter of 2019.
269
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, pp. 08-10. Disponível em:
https://www.hoover.org/research/verified-accountability Como exemplo, a autora menciona que o sistema deve
levar em consideração que um dos fatores necessários à moderação de conteúdo é a velocidade na tomada de
decisão para evitar a sua disseminação. Ocorre que essa rapidez aumenta a margem de erro. Logo, para ela é
necessário reconhecer tais erros temporários como uma “compensação inevitável e aceitável contra a necessidade
de impor regras dentro de um prazo que os torne significativos”. Trecho original (p.10): A systematic
understanding of due process might recognize that such temporary errors are an inevitable and acceptable trade-
off against the need to impose rules within a time frame that makes them meaningful.
90
importantes, como, por exemplo, no combate ao discurso de ódio270. Nesse caso, contudo, a
autora faz uma ressalva:
270
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, pp. 09-10. Disponível em:
https://www.hoover.org/research/verified-accountability Acesso em: 14/12/2021.
271
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, p. 10. Disponível em:
https://www.hoover.org/research/verified-accountability Trecho original: Of course, if different categories of
content are treated differently, it will become more importante to ensure that platforms are accurately categorizing
their decisions. This is where selfregulatory auditing, enforced and verified by legal mechanisms, can play a key
role.
91
ou dos seus bens sem o devido processo legal”272. Esse direito, cuja inspiração foi buscada no
direito americano, tem previsão, no plano internacional, no Pacto Internacional de Direitos
Civis e Políticos, artigo 14273, e na Convenção Americana sobre Direitos Humanos, em seu
artigo 8º274.
Esse direito constitui um princípio fundamental para a organização processual do Estado
na tomada de suas decisões, seja no âmbito do Poder Legislativo, Poder Executivo ou Poder
Judiciário, mas também pode ser aplicado entre os particulares em determinadas situações
substanciais, conforme será aprofundado no próximo subtítulo. A sua observância é condição
necessária e indispensável à obtenção de decisões justas275.
Se o Estado Constitucional tem o dever de tutelar de forma efetiva os direitos protegidos,
e, se essa proteção depende de um processo, ela somente poderá ocorrer através de um processo
justo. Segundo Marinone e Mitidiero, “todo e qualquer processo está sujeito ao controle de sua
justiça processual como condição indispensável para sua legitimidade perante nossa ordem
272
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html. Acesso em: 14/12/2021.
273
BRASIL, Decreto nº592 de 6 de julho de 1992. Atos Internacionais. Pacto Internacional sobre Direitos Civis e
Políticos. Promulgação. Disponível em: http://www.planalto.gov.br/ccivil_03/decreto/1990-1994/d0592.htm
Artigo 14: 1. Todas as pessoas são iguais perante os tribunais e as cortes de justiça. Toda pessoa terá o direito de
ser ouvida publicamente e com as devidas garantias por um tribunal competente, independente e imparcial,
estabelecido por lei, na apuração de qualquer acusação de caráter penal formulada contra ela ou na determinação
de seus direitos e obrigações de caráter civil. A imprensa e o público poderão ser excluídos de parte ou da totalidade
de um julgamento, quer por motivo de moral pública, de ordem pública ou de segurança nacional em uma
sociedade democrática, quer quando o interesse da vida privada das Partes o exija, que na medida em que isso seja
estritamente necessário na opinião da justiça, em circunstâncias específicas, nas quais a publicidade venha a
prejudicar os interesses da justiça; entretanto, qualquer sentença proferida em matéria penal ou civil deverá tornar-
se pública, a menos que o interesse de menores exija procedimento oposto, ou o processo diga respeito à
controvérsias matrimoniais ou à tutela de menores. (...)
3. Toda pessoa acusada de um delito terá direito, em plena igualdade, a, pelo menos, as seguintes garantias: a) De
ser informado, sem demora, numa língua que compreenda e de forma minuciosa, da natureza e dos motivos da
contra ela formulada; b) De dispor do tempo e dos meios necessários à preparação de sua defesa e a comunicar-se
com defensor de sua escolha; c) De ser julgado sem dilações indevidas; d) De estar presente no julgamento e de
defender-se pessoalmente ou por intermédio de defensor de sua escolha; de ser informado, caso não tenha defensor,
do direito que lhe assiste de tê-lo e, sempre que o interesse da justiça assim exija, de ter um defensor designado
ex-offício gratuitamente, se não tiver meios para remunerá-lo; e) De interrogar ou fazer interrogar as testemunhas
de acusão e de obter o comparecimento e o interrogatório das testemunhas de defesa nas mesmas condições de que
dispõem as de acusação; f) De ser assistida gratuitamente por um intérprete, caso não compreenda ou não fale a
língua empregada durante o julgamento; g) De não ser obrigada a depor contra si mesma, nem a confessar-se
culpada.
274
Convenção Americana de Direitos Humanos. 22 de novembro de 1969. Disponível em:
https://www.cidh.oas.org/basicos/portugues/c.convencao_americana.htm Acesso em: 14/12/2021. 1. Toda pessoa
tem direito a ser ouvida, com as devidas garantias e dentro de um prazo razoável, por um juiz ou tribunal
competente, independente e imparcial, estabelecido anteriormente por lei, na apuração de qualquer acusação penal
formulada contra ela, ou para que se determinem seus direitos ou obrigações de natureza civil, trabalhista, fiscal
ou de qualquer outra natureza.
275
SARLET, Ingo Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO, Daniel. Curso de direito
constitucional. 8. ed. – São Paulo: Saraiva Educação, 2019, p. 573. MORAES, Guilherme Pena. Curso de Direito
Constitucional. 4 ed. São Paulo: Atlas, 2021, pp. 1050-1052.
92
276
SARLET, Ingo Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO, Daniel. Curso de direito
constitucional. 8. ed. – São Paulo: Saraiva Educação, 2019, p. 573.
277
SARLET, Ingo Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO, Daniel. Curso de direito
constitucional. 8. ed. – São Paulo: Saraiva Educação, 2019, p. 573. Os autores explicam que esse perfil mínimo
abrange a colaboração do juiz com as partes, devendo esse ser paritário e assimétrico, bem como um processo que
seja capaz de prestar a tutela jurisdicional adequada e efetiva, ou seja, com paridade de armas, contraditório, ampla
defesa, procedimentos previsíveis, confiáveis e motivados, além de públicos e transparentes.
278
BRASIL, Lei 13.079/2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm Acesso em 08/11/2020. Artigo 20: O
titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento
automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil
pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade. § 1º O controlador deverá
fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos
utilizados para a decisão automatizada, observados os segredos comercial e industrial. § 2º Em caso de não
oferecimento de informações de que trata o § 1º deste artigo baseado na observância de segredo comercial e
industrial, a autoridade nacional poderá realizar auditoria para verificação de aspectos discriminatórios em
tratamento automatizado de dados pessoais.
279
BRASIL, Lei 13.079/2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm Acesso em 08/11/2020 Artigo 6º: As
atividades de tratamento de dados pessoais deverão observar a boa-fé e os seguintes princípios: Inciso VI:
transparência: garantia, aos titulares, de informações claras, precisas e facilmente acessíveis sobre a realização do
tratamento e os respectivos agentes de tratamento, observados os segredos comercial e industrial;
280
BRASIL, Lei 13.079/2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm Acesso em 08/11/2020 Artigo 19: A
confirmação de existência ou o acesso a dados pessoais serão providenciados, mediante requisição do titular.
281
MONTEIRO, Renato Leite. Existe um direito à explicação na Lei Geral de Proteção de Dados no Brasil?
Instituto Igarapé. Artigo estratégico 39. 2018. Disponível em: Existe-um-direito-a-explicacao-na-Lei-Geral-de-
Protecao-de-Dados-no-Brasil.pdf (igarape.org.br) Acesso em: 14/12/2021.
93
conhecido os critérios utilizados para tomar a decisão automatizada, será possível a revisão
dessa decisão282.
Para além das obrigações de explicação no uso e tratamento dos dados, mais práticas de
transparência e justificação devem ser adotadas pelas plataformas em seus sistemas de
moderação de conteúdo. O devido processo, que inicialmente foi pensando como uma garantia
perante o Estado, para possibilitar aos cidadãos entenderem e tomar posições frente a decisões
que possam atingir suas liberdades e direitos, aqui encontra plena aplicabilidade, vez que essa
garantia de defesa deve ser observada também nas ações de atores não-estatais por estar atrelada
a ideia de democracia e Estado de Direito, o que será objeto do próximo subtítulo.
282
Uma crítica a essa previsão legal é quanto ao método de revisão das decisões, se novamente realizada por
sistemas automatizados, não garante a explicabilidade e contestabilidade das operações de tratamento de dados. A
lei é omissa nesse respeito, o que implicitamente implica uma autorização para que a revisão seja feita pelo mesmo
algoritmo que foi utilizado na decisão impugnada.
283
Nos Estados Unidos, por exemplo, a doutrina do state action preconiza que os direitos constitucionais se
aplicam apenas às ações estatais. Isso significa que as empresas privadas não possuem o dever de observar os
direitos fundamentais tal qual o Estado americano. Nesse sentido, a Suprema Corte americana já entendeu que não
se aplicam as restrições constitucionais às plataformas digitais, informando que “hospedar discursos de outros não
é uma função pública tradicional e exclusiva que as transforme sozinha em entidades públicas e atores públicos
sijeitos às restrições da primeira emenda”. DOUEK, Evelyn. Verified accountability: self-regulation of content
moderation as an answer to the special problems of speech regulation. Hoover Institution. Aegis series Paper no.
1903, 2019, p. 03. Disponível em: https://www.hoover.org/research/verified-accountability. Acesso em:
14/12/2021. Trecho original: The Supreme Court in a June 2019 decision made clear that it has little appetite for
applying constitutional constraints to tech platforms when it emphasized that “merely hosting speech by others is
not a traditional, exclusive public function and does not alone transform public entities into state actors subject
to First Amendment constraints”.
284
CALLAMARD, Agnés (2019). The Human Rights Obligations of Non-State Actors. In: Human rights in the
age of platforms. Editor: Rikke Frank Jørgensen: Cambridge, MA: The MIT Press. P. 201. Disponível em:
file:///C:/Users/user/Downloads/1005622.pdf
94
humanos. Como exemplo, pode-se mencionar os Códigos contra o discurso de ódio (2016)285 e
Desinformação (2018)286, além do próprio Guia elaborado pelo Conselho Europeu287 para a
moderação de conteúdo, já mencionado neste capítulo.
Segundo Agnès Callamard, a visão predominante é de que as empresas não têm
obrigações de direitos humanos, como portadores de deveres especiais, nos termos do previsto
no artigo 19(3) da Convenção Internacional de Direitos Civis e Políticos288. O portador desse
dever é o Estado e esse, ante à sua obrigação de prevenir eventuais abusos por parte das
corporações, deve estabelecer estruturas regulatórias e legislativas que assegurem que as
empresas privadas respeitem os direitos humanos, sob pena de responsabilização289.
Nesse sentido, o Guia de Princípios em Negócios e Direitos Humanos, elaborado pelas
Nações Unidas290, estabelece três pilares sobre o tema: (i) o Estado tem o dever de proteger os
indivíduos contra abusos de direitos humanos por terceiros por meio de políticas, regulação e
julgamento apropriados; (ii) as empresas devem agir com a devida diligência para evitar
infringir os direitos de terceiros e abordar os impactos adversos que puderem se envolver; e,
(iii) as vítimas devem ter acesso a recursos efetivos, tanto judiciais quanto não judiciais.
No espaço digital, quando a internet se popularizou não havia muitas acusações sobre
violações de direitos humanos pelas plataformas digitais. Isso se deve, em grande parte, a dois
fatores: (i) a visão libertária291 que predominou no início nos anos 1990, na qual acreditava-se
que a internet e seus intermediários eram um veículo para a proteção e expansão da liberdade
285
COUNCIL OF EUROPEAN UNION. Code of conduct on countering illegal hate speech online. Disponível
em: https://ec.europa.eu/info/policies/justice-and-fundamental-rights/combatting-discrimination/racism-and-
xenophobia/eu-code-conduct-countering-illegal-hate-speech-online_pt Acesso em 10/06/2022.
286
COUNCIL OF EURPEAN UNION. Code of Practice on DisinformationDisponível em: https://digital-
strategy.ec.europa.eu/en/library/2018-code-practice-disinformation Acesso em 10/06/2022. Esse código foi,
inclusive, reforçado através de uma versão mais atual, conforme será aprofundado no capítulo 5.
287
STEERING COMMITTEE FOR MEDIA AND INFORMATION SOCIETY. Content Moderation. Best
Practices towards effective legal and procedural frameworks for self-regulatory and co-regulatory mechanisms of
content moderation. Council of Europe, 2021. Disponível em: https://edoc.coe.int/en/internet/10198-content-
moderation-guidance-note.html
288
BRASIL, Decreto nº592 de 6 de julho de 1992. Atos Internacionais. Pacto Internacional sobre Direitos Civis e
Políticos. Promulgação. Artigo 19 (3). O exercício do direito previsto no parágrafo 2 do presente artigo implicará
deveres e responsabilidades especiais. Conseqüentemente, poderá estar sujeito a certas restrições, que devem,
entretanto, ser expressamente previstas em lei e que se façam necessárias para: a) assegurar o respeito dos direitos
e da reputação das demais pessoas; b) proteger a segurança nacional, a ordem, a saúde ou a moral pública.
289
CALLAMARD, Agnés. The Human Rights Obligations of Non-State Actors. In: Human rights in the age of
platforms. Editor: Rikke Frank Jørgensen : Cambridge, MA: The MIT Press, 2019, p. 201. Disponível em:
file:///C:/Users/user/Downloads/1005622.pdf Acesso em 10/04/2022.
290
UNITED NATIONS HUMAN RIGHTS. Office Of the High Comissioner. Guiding Principles on Business and
Human Rights. Implementing the United Nations “Protect, Respect and Remedy” Framework.2011, p.202.
Disponível em:
https://www.ohchr.org/sites/default/files/documents/publications/guidingprinciplesbusinesshr_en.pdf Acesso em
10/06/2022.
291
Esse ponto será aprofundado no próximo capítulo quando será estudado os arranjos institucionais sobre a
regulação da internet.
95
292
EUROPEAN COMMISSION. Proposal for a Regulation on a Single Market For Digital Services (Digital
Services Act). 15 de dezembro de 2020. Disponível em: https://eur-lex.europa.eu/legal-
content/en/TXT/?qid=1608117147218&uri=COM%3A2020%3A825%3AFIN Acesso em 30/06/2022. Os
dispositivos 3º a 9º, do referido diploma legal, tratam da responsabilidade das plataformas.
293
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 01. A Autora explica que o termo passou a ser utilizado como
referência crescente à animosidade pública em relação as grandes empresas de tecnologia do Vale do Silício e seus
equivalentes chineses. Segundo a autora, o “tempo dessas reações pode ser associado às revelações que ocuparam
o debate público nos anos recentes envolvendo, principalmente, vazamentos e comercialização de dados, práticas
de vigilância e o papel que algumas plataformas vem cumprindo como reguladores de conteúdo, principalmente
durante as campanhas que precedem os pleitos eleitorais”.
96
294
Committee of Ministers of the Council of Europe. 2012. “Recommendation on the Protection of Human Rights
with Regard to Social Networking Services.” Recommendation CM/Rec(2012)4. Strasbourg, France: Council of
Europe. Disponível em: https://search.coe.int/cm/Pages/result_details.aspx?ObjectID=09000016805caa9b Acesso
em 15/03/2022. Trecho original: Human rights may be threatened on social networks: 3. The right to freedom of
expression and information, as well as the right to private life and human dignity may also be threatened on social
networking services, which can also shelter discriminatory practices. Threats may, in particular, arise from lack
of legal, and procedural, safeguards surrounding processes that can lead to the exclusion of users; inadequate
protection of children and young people against harmful content or behaviours; lack of respect for others’ rights;
lack of privacy-friendly default settings; lack of transparency about the purposes for which personal data are
collected and processed. 4. Users of social networking services should respect other people’s rights and freedoms.
Media literacy is particularly important in the context of social networking services in order to make the users
aware of their rights when using these tools, and also help them acquire or reinforce human rights values and
develop the behaviour necessary to respect other people’s rights and freedoms.
295
CALLAMARD, Agnés (2019). The Human Rights Obligations of Non-State Actors. In: Human rights in the
age of platforms. Editor: Rikke Frank Jørgensen : Cambridge, MA: The MIT Press. P. 214. Disponível em:
file:///C:/Users/user/Downloads/1005622.pdf Acesso em 10/04/2022.
296
CALLAMARD, Agnés (2019). The Human Rights Obligations of Non-State Actors. In: Human rights in the
age of platforms. Editor: Rikke Frank Jørgensen : Cambridge, MA: The MIT Press. P. 215. Disponível em:
file:///C:/Users/user/Downloads/1005622.pdf Acesso em 10/04/2022.
97
autorregulação forte e efetiva297, é necessário que os Estados adotem arranjos institucionais que
permitam uma ação híbrica, ponto que será aprofundado no capítulo 5.
É nesse contexto de proteção dos direitos humanos, somada as críticas da literatura
especializada a respeito da legitimidade das plataformas para regular o espaço digital, é que
surge o constitucionalismo digital, tema da próxima subseção. Sobre a ausência de legitimidade,
pode-se adiantar a crítica de Hanna Bloch-Weba298, que aponta para a falta legitimidade das
plataformas para lançarem suas próprias normas, regulando o espaço digital, sobretudo a
liberdade de expressão dos indivíduos, e impropriedade para o julgamento de disputas sobre os
quais discursos devem ou não ser protegidos. Esse assunto será abordado no próximo capítulo.
297
Agnès Callamard ensina que uma das saídas para uma proteção forte de direitos humanos é através de uma
autorregulação forte e significativa. Isso demandaria a exigência de padrões de comportamento previamente
acordados, mas também um sistema de responsabilidade que possa ser confiável para usuários e outros atores.
Seriam necessários mecanismos de reclamação e investigação, que fossem eficazes e independentes. Para a autora,
a autorregulação tem um longo caminho a percorrer para atender os requisitos mínimos para uma autorregulação
efetiva. CALLAMARD, Agnés (2019). The Human Rights Obligations of Non-State Actors. In: Human rights
in the age of platforms. Editor: Rikke Frank Jørgensen : Cambridge, MA: The MIT Press. P. 216-217. Disponível
em: file:///C:/Users/user/Downloads/1005622.pdf
298
BLOCH-WEHBA, Hannah. Global Platform Governance: Private Power in the Shadow of the State, 72 SMU
L. REV. 27, pp. 27-80, 2019, p. 27. Disponível em:
https://scholar.smu.edu/cgi/viewcontent.cgi?article=4778&context=smulr Acesso em 20/08/2021.
299
O termo “soberania privada” é utilizado no sentido indicado por Luca Belli, em seu artigo Structural Power as
a Critical Element of Social Media Platforms’ Private Sovereignty. Nesse estudo, o autor aponta que as grandes
plataformas estão adquirindo uma forma de soberania, já que exercem uma forma de poder estrutural na medida
que definem e implementam seus sistemas. BELLI, Luca. Structural Power as a Critical Element of Digital
Platforms’ Private Sovereignty. In Edoardo Celeste, Amélie Heldt e Clara Iglesias Keller (eds). Constitutionalising
Social Media (Hart 2022). Disponível em: https://lucabelli.net/2021/08/10/structural-power-as-a-critical-element-
of-social-media-platforms-private-sovereignty/ Acesso em 07/07/2022.
98
Já o constitucionalismo digital, pode ser entendido como uma “ideologia que visa
estabelecer e assegurar a existência de um quadro normativo para a proteção de direitos
fundamentais e o equilíbrio de poderes no ambiente digital”301. Ele se liberta dos laços que o
prendem à dimensão estatal, na qual surgiu a noção de constitucionalismo, e passa a ser
utilizado para limitar a governança do poder no âmbito da internet.
Segundo Edoardo Celeste, a noção de constitucionalismo digital não deve ser utilizada
para denominar os instrumentos concretos que fundamentam seus valores e ideais, mas deve-
se pensa-lo como um conjunto de valores e ideais que permeiam, orientam e informam esses
300
BARROSO, Luís Roberto. Neoconstitucionalismo e Constitucionalização do Direito. Revista de Direito
Administrativo (RDA) nº 240. 2005. P. 12/13. Disponível em: https://luisrobertobarroso.com.br/wp-
content/uploads/2017/09/neoconstitucionalismo_e_constitucionalizacao_do_direito_pt.pdf
301
CELESTE, Edoardo, SANTARÉM, Paulo Rená. Constitucionalismo Digital: Mapeando a resposta
constitucional aos desafios da tecnologia digital. Revista Brasileira De Direitos Fundamentais & Justiça, 15(45),
63–91. 2022. Disponível em: https://dfj.emnuvens.com.br/dfj/article/view/1219 Acesso em 10/05/2022. O autor
informa, em seu artigo, que o conceito é novo e divergente entre os acadêmicos. Como exemplo, ele cita três
autores principais: Fitzgerald; Berman; Suzor e Gill, Redeker e Gasser. Fitzgerald (1999) reconhece que, na
sociedade da informação, o exercício do poder é compartilhado por atores públicos e privados. A Governança das
plataformas requer uma estrutura mista, que combina autorregulação do setor privado e supervisão pelas
instituições públicas. Dessa forma, o constitucionalismo atuaria como mediador das relações de poder desses dois
atores. No entanto, para ele, o direito privado dos estados é que exerceria o papel constitucional (instrumento) de
limitar a autorregulação dos atores privados. Berman (2000) propõe um constitucionalismo constitutivo, no qual
os atores privados devem se submeter ao direito constitucional. Para ele, não seria adequado a utilização do direito
privado comum em uma função “constitucionalizante”, na forma proposta por FitzGerald. O instrumento adequado
para limitar o poder dos atores privados seria o próprio direito constitucional. Suzor é quem lança o termo
“constitucionalismo digital”. Ele considera a autorregulação das plataformas legítima, em razão do consentimento
dado pelos usuários. Por isso, suas relações devem ser regidas nos limites do direito privado contratual. No entanto,
esse poder privado é limitado também pelo direito constitucional. O direito constitucional exerceria, então, um
duplo papel: a) determinar a extensão em que a autorregulação dos atores privados está em conformidade com os
valores estabelecidos pelo Estado; e, b) informar e liderar o desenvolvimento do direito contratual. Em síntese,
Suzor reconhece o papel constitucionalizante do direito privado e, ao mesmo tempo, a função de orientação e
informação do direito constitucional.
99
instrumentos. Esses, por sua vez, são os mais variados, pois o processo de constitucionalização
do ambiente digital302 não é unitário (possui diversos atores e instrumentos). Isso significa que
podem servir como instrumentos desse processo o direito ordinário, cartas de direito da internet,
o direito constitucional e até mesmo mecanismo de resolução de disputas de organismos
internacionais promovidos pela ICANN (Internet Corporation for Assigned Names and
Numbers)303.
Dessa forma, o constitucionalismo digital propõe a aplicação dos valores fundamentais
do Estado Democrático de Direito aos processos de governança empreendidos pelas
plataformas digitais, pessoas jurídicas de direito privado. Nesse sentido,
302
CELESTE, Edoardo, SANTARÉM, Paulo Rená. Constitucionalismo Digital: Mapeando a resposta
constitucional aos desafios da tecnologia digital. Revista Brasileira De Direitos Fundamentais & Justiça, 15(45),
63–91. 2022. Disponível em: https://dfj.emnuvens.com.br/dfj/article/view/1219 Acesso em 10/05/2022. O Autor
define a expressão “constitucionalização do ambiente digital” para “identificar o processo de produção de normas
que visam a garantir a proteção dos direitos fundamentais e o equilíbrio de poderes nesse contexto”. Esse processo
visa produzir uma série de contramedidas para lidar com as ameaças no equilíbrio do ecossistema constitucional
desencadeado pela tecnologia.
303
É uma entidade sem fins lucrativos, constituída em 1988, responsável por manter a Internet segura, estável e
interoperacional, além de promove a concorrência e desenvolver uma política aplicável à utilização de
identificadores únicos na Internet. Para mais informações: https://www.icann.org/resources/pages/what-2012-02-
25-pt Acesso em 30/06/2022.
304
SUZOR, Nicolas. Digital Constitutionalism: Using the Rule of Law to Evaluate the Legitimacy of Governance
by Platforms. Social Media + Society, July-September, 2018, p. 2. Disponível em:
https://journals.sagepub.com/doi/10.1177/2056305118787812 Acesso em: 10/03/2022. Tradução livre do
original: “The rule of law framework provides a lens through which to evaluate the legitimacy of online governance
and therefore to begin to articulate what limits societies should impose on the autonomy of platforms. For the
governance of platforms to be legitimate according to rule of law values, we should expect certain basic
procedural safeguards. First, decisions must be made according to a set of rules, and not in a way that is arbi-
trary or capricious. Second, these rules must be clear, well-understood, and relatively stable, and they must be
applied equally and consistently. Third, there must be adequate due process safeguards, including an explanation
of why a particular decision was made and some form of an appeals process that allows for the independent review
and fair resolution of disputes”.
100
305
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm Acesso em: 14/12/2021. Artigo 5º, § 1º: As
normas definidoras dos direitos e garantias fundamentais têm aplicação imediata.
306
HARTMANN, Ivar, SARLET, Ingo. Direitos fundamentais e direito privado: a proteção da liberdade de
expressão nas mídias sociais. Direito Público, 16(90), 2019, p. 89. Disponível em:
https://www.portaldeperiodicos.idp.edu.br/direitopublico/article/view/3755 Acesso em 10/06/2022.
307
Recurso Extraordinário nº 201819-8/RJ, Relator: Ministro Gilmar Mendes. Segunda Turma. 11/10/2005. DJ:
27/10/2006 Disponível em: https://redir.stf.jus.br/paginadorpub/paginador.jsp?docTP=AC&docID=388784
Acesso em 10/06/2022.
308
Hartmann e Sarlet apontam alguns critérios para se ponderar, respectivamente, se a aplicação direta dos direitos
fundamentais é demandada no caso em concreto e em que intensidade. Dentre eles, se encontram: i) a desigualdade
material presente na relação entre particulares; ii) a natureza do direito material e, iii) a proximidade da relação
com a esfera pública. HARTMANN, Ivar, SARLET, Ingo. Direitos fundamentais e direito privado: a proteção da
liberdade de expressão nas mídias sociais. Direito Público, 16(90), 2019, pp. 96-101. Disponível em:
https://www.portaldeperiodicos.idp.edu.br/direitopublico/article/view/3755 Acesso em 10/06/2022.
101
309
DONEDA, Danilo. Da privacidade à proteção de dados: elementos da formação da Lei Geral de Proteção de
Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, p.40.
102
Neste capítulo será lançado um olhar mais ampliado antes de se iniciar o tema da
regulação das plataformas de redes sociais propriamente. Antes de se analisar a ferramenta
(regulação), é proposto neste capítulo uma análise da estrutura na qual ocorrem as relações
políticas e econômicas (governança). É aqui que também se fará uma pausa para avaliar a
legitimidade das plataformas digitais de redes sociais para o exercício da governança da
internet, crítica muito debatida pela literatura. As teorias que são propostas para contornar esse
problema também serão analisadas, tal como o multissetorialismo, o constitucionalismo digital,
o cumprimento de deveres procedimentais pelas redes sociais, além da própria iniciativa desses
entes intermediários através da introdução de orientações voltadas à responsabilidade social e
a introdução da participação dos usuários na governança.
310
PAPAEVANGELOU, Charilaos. The existential stakes of platform governance: a critical literature review
[version 2; peer review: 3 approved] Open Research Europe 2021, 1:31, p .03.
https://doi.org/10.12688/openreseurope.13358.2 Acesso em 30/06/2022.
311
GORWA, Robert. What is Plataform Governance? Information, Communication & Society. University of
Oxford. 2019, p. 4. Disponível em: https://gorwa.co.uk/files/platformgovernance.pdf Trecho original: Initially
associated with domestic governments, governance was less a set of practices than a capacity: as per Fukuyama's
(2013, p. 4) traditional articulation, governance is the \government's ability to make and enforce rules, and to
deliver services."
103
Essa nova concepção substituiu o estado-centrismo das relações de poder e conflito por
formas mais híbridas e descentralizadas das estruturas de governança oriundas do século XX,
formadas amplamente por atores não-estatais, em resposta à complexidade das questões
surgidas na sociedade contemporânea. Essa complexidade requer que, em determinadas
matérias, o Estado utilize o aconselhamento de especialistas para conceber e operar políticas
públicas, não comportando mais decisões isoladas312.
Nesse sentido, conforme observado por Gerry Stoker, substitui-se o entendimento da
governança como uma capacidade de governar, para que essa seja entendida como um processo
de se “criar as condições para um governo ordenado e de ação coletiva” 313
. Segundo o autor,
sua essência seria criar mecanismos de governar sem se recorrer a autoridade ou sanções de
governo. Portanto, mais do que uma capacidade, torna-se uma função específica, que envolve
um conjunto de interações complexas entre diferentes atores com os mais variados
comportamentos.
Clara Keller aponta que essa terminologia afasta-se da lógica centralizada e hierárquica
estatal, associando-se a “novos processos de governar” 314, o que faz com que governança possa
englobar arranjos públicos, privados ou multissetoriais. O presente trabalho segue o conceito
trazido por Papaevangelou, para o qual, após uma revisão da bibliografia sobre o assunto,
governança pode ser entendida como “uma estrutura complexa em rede que acomoda diferentes
partes interessadas, que estão conectadas e coordenadas por meio de vários tipos de
regulamentos, normas e práticas”315.
A regulação316, assim como a governança, é um conceito polissêmico, que pode variar
de acordo a área relacionada a seu estudo (economia, ciência política, sociologia, etc). A título
de exemplo, Colin Scott317 explica que, para a teoria econômica da regulação, há uma nítida
312
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 80.
313
STOKER, Gerry. Governance as theory: Five propositions. International Social Science Journal,
50(155):17{28, 1998, p. 15. Disponível: https://onlinelibrary.wiley.com/doi/epdf/10.1111/issj.12189 Trecho
original: Governance is ultimately concerned with creating the conditions for ordered rule and collective action.
The outputs of governance are not therefore different from those of government. It is rather a matter of a difference
in processes.
314
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 78.
315
PAPAEVANGELOU, Charilaos. The existential stakes of platform governance: a critical literature review
[version 2; peer review: 3 approved] Open Research Europe 1:31, 2021, p.03.
https://doi.org/10.12688/openreseurope.13358.2 Trecho original: Governance is defined here as a complex
networked structure that accommodates different stakeholders, who are connected to and coordinated through
various types of regulations, norms and practices.
316
Outros aspectos da regulação serão estudados com mais profundidade no próximo capítulo.
317
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004, pp.1-2.
104
distinção entre mercados318 e regulação, sendo que o Estado fornece regras básicas de contrato
e direitos da propriedade, base da economia capitalista, e a regulação é implementada onde o
mercado apresenta falhas. A ciência política segue esse conceito da área econômica. No entanto,
a sociologia, rejeita essa análise, concentrando-se em pesquisar as diversas formas de
manifestação de poder, argumentando que a regulação é um fator na formação da conduta geral
e, portanto, formador dos mercados.
Sob o viés econômico, Baldwin, Cave e Lodge319 explicam que o termo é, muitas vezes,
indentificado com a atividade governamental, em que pese os diversos conceitos adotados.
Contudo, os autores alertam que a palavra deve ser pensanda em vários sentidos, citando três
deles: (a) como um conjunto específico de comandos, no qual a regulação envolve um conjunto
de regras vinculantes aplicáveis por um determinado corpo; (b) como influência estatal
deliberada, na qual a regulação abrange todas as ações estatais que são projetadas para
influenciar o comportamento social ou empresarial; e, (c) como todas as formas de influência
social ou econômica, onde todos os mecanismos que afetam o comportamento, sejam eles
provenientes do Estado ou outras fontes são considerados regulatórios. Esse último sentido
recebe influência da teoria da regulação inteligente (smart regulation) que considerou a
possibilidade de outros atores para exercerem a regulação.
Neste trabalho, o termo regulação será utilizado no sentido ampliado, à luz do conceito
de Papaevangelou, segundo o qual a regulação é um “mecanismo de governança, envolvendo a
intervenção intencional – direta ou indireta – nas atividades de um stakeholder, com a intenção
de mudar o seu modus operandi, que, por sua vez, pode ter consequências imprevisíveis – ainda
que mensuráveis - para o regime de governança, que envolve um processo dinâmico e
negociável”320
318
Mercado pode ser definido como um “grupo de compradores e vendores de um determinado bem ou serviço.
Os compradores, como grupo, determinam a demanda pelo produto, e os vendedores, também como grupo,
determinam a oferta do produto”. Esses mercados assumem diferentes formas e podem ser organizados ou não.
MANKIW, N. Gregory. Introdução à Economia. São Paulo: Cengage Learning, 2015. p.54.
319
BALDWIN, Robert, CAVE, MARTIN e LODGE, Martin. Understanding Regulation. Theory, Strategy and
Pratice. 2ed. Oxford: Oxford University. 2012, p. 03 Disponível em:
https://oxford.universitypressscholarship.com/view/10.1093/acprof:osobl/9780199576081.001.0001/acprof-
9780199576081
320
PAPAEVANGELOU, Charilaos. The existential stakes of platform governance: a critical literature review
[version 2; peer review: 3 approved] Open Research Europe 1:31. 2021, p 03.
https://doi.org/10.12688/openreseurope.13358.2p. 03. https://doi.org/10.12688/openreseurope.13358.2 Acesso
em 30/05/2022. Trecho original: Regulation is defined as a governance mechanism, involving the intentional –
direct or indirect – intervention in the activities of a stakeholder, with the intention to change a stakeholder’s
modus operandi, which, in turn, may have unpredictable – yet measurable - consequences to the governance
regime.
105
No que se refere à internet, o início de sua governança está atrelado à formação de alguns
organismos multissetoriais que se preocuparam com a formulação de suas políticas. A ideia
inicial era de que a gestão da internet deveria caber àqueles que estariam sujeitos as suas
decisões, desvinculados dos Estados322. O mais famoso deles é a ICANN (Internet Corporation
for Assigned Names and Numbers), cuja sede fica nos Estados Unidos. Criada em 1998, sua
função é desenvolver protocolos (IPv4 e IPv6) que atribuem uma identidade e um endereço
exclusivo a um computador e usuário, de forma individual na internet, além de garantir que os
dados sejam transmitidos ou recuperados no endereço certo323. Também gerencia nomes de
domínio e sistemas de servidores raiz324.
O conceito de governança da internet foi consagrado na Cúpula Mundial da Sociedade
de Informação (World Summit on the Information Society - WSIS)325, organizada pela ONU em
321
PAPAEVANGELOU, Charilaos. The existential stakes of platform governance: a critical literature review
[version 2; peer review: 3 approved] Open Research Europe 1:31. 2021, p. 04.
https://doi.org/10.12688/openreseurope.13358.2, Acesso em 10/05/2022.
322
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 75.
323
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 74.
324
Para mais informações: https://www.icann.org/history Acesso em 30/06/2022.
325
Esse fórum foi organizado com o objetivo de discutir ações concretas para a construção de bases para uma
sociedade de informação para todos. Representa, ao lado de outras instituições, um produto de organizações
formais, com regras e processos explícitos e dedicados a tópicos próprios de discussão. KELLER, Clara Iglesias.
Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do Estado. Rio de Janeiro: Lumen
Juris. 2019, pp. 87-88.
106
2003 e 2005326, na qual foi elaborado um documento, ao final da sua segunda fase (2005), a
“Agenda de Tunes”327. Esse documento estabeleceu que a governança da internet é “o
desenvolvimento e aplicação por governos, setor privado e sociedade civil, em seus respectivos
papeis, de princípios, normas, regras, procedimentos de tomada de decisão e programas
compartilhados que moldam a evolução e uso da internet”328.
Essa visão concede ênfase aos atores que exercem a governança, por isso é apontada
como ultrapassada, vez que há outros fatores, como por exemplo, o seu objeto e complexidade,
que devem influenciar na formação do conceito329. Ainda, pode-se mencionar que os atores que
desempenham essa governança, além dos mencionados, são mais amplos, podendo-se
mencionar os usuários, anunciantes, grupos não-governamentais de proteção de direitos
humanos, pesquisadores acadêmicos, jornalistas, dentre outros, que influenciam o ambiente
online, sem hierarquia entre eles.
Nesse sentido, Luca Belli330 propõe o uso do termo governança relacionado a estrutura
que estimula a interação e associação de diferentes atores em um espaço político, no qual se
confrontam ideologias e interesses econômicos divergentes. Sob essa lente, pode-se considerar
a governança como um conjunto de processos e instituições que organizam ideias heterogêneas
para promover novos instrumentos regulatórios de forma colaborativa para resolver problemas
específicos sobre o funcionamento da internet. A governança da internet é, então, conforme
antes mencionada, uma função específica que abrange uma complexa rede de interações com
diversos atores.
A governança tem por objetivo equilibrar e garantir o funcionamento desse sistema
complexo que envolve a estrutura da internet e seus instrumentos podem ser de origem pública,
tais como como convenções internacionais, leis, regulamentos e outros, ou de origem privada,
tal como antes já mencionado, os termos e políticas de uso, algoritmos, padrões e protocolos
326
BELLI, Luca. A heterostakeholder cooperation for sustainable internet policymaking. Internet Policy Review,
n. 4, 2015, p. 03. Disponível em: https://policyreview.info/pdf/policyreview-2015-2-364.pdf Acesso em
30/06/2022.
327
World Summit on the Information Society – WSIS. Tunis Agenda for the information society. 18 de novembro
de 2005. Disponível em: https://www.itu.int/net/wsis/docs2/tunis/off/6rev1.html Acesso em 30/06/2022.
328
World Summit on the Information Society – WSIS. Tunis Agenda for the information society. 18 de novembro
de 2005. Disponível em: https://www.itu.int/net/wsis/docs2/tunis/off/6rev1.html Acesso em 30/06/2022.
Parágrafo 34: A working definition of Internet governance is the development and application by governments, the
private sector and civil society, in their respective roles, of shared principles, norms, rules, decision-making
procedures, and programmes that shape the evolution and use of the Internet.
329
Keller, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 83.
330
BELLI, Luca. Internet Governance and Regulation: A Critical Presentation. In: Belli, Luca, Cavalli, Olga.
Internet Governance and Regulations in Latin America. FGV Direito Rio. 2019, p. 44. Disponível em:
https://www.gobernanzainternet.org/book/book_en.pdf. Acesso em 10/05/2022.
107
que definem o software, além das arquiteturas que determinam o que usuários podem e não
podem fazer no ambiente digital331.
Com exceção das regulações governamentais, esses documentos não são vinculantes,
mas possuem a importante função de trazer uma linguagem normativa sobre os principais
pontos da matéria, atribuindo certos valores que devem ser considerados nas políticas adotadas.
Dessa forma, tanto as escolhas algorítmicas programadas pelo modelo estabelecido pela
plataforma, quanto uma lei nacional que trate sobre a proteção dos dados dos usuários, por
exemplo, podem ser considerados instrumentos da governança, já que podem gerar efeitos para
os agentes da internet332.
Hoje, além da governança da internet, parte da literatura333, aprofundando o estudo do
tema, traz um novo subcampo, a governança das plataformas. Devido à natureza e às
características técnicas da internet, as plataformas são atores privados, que desempenham um
papel fundamental no ecossistema da internet. São elas que tomam decisões políticas
importantes e projetam sua arquitetura para desempenhar essas decisões, afetando
significativamente os comportamentos online dos usuários.
Segundo Gorwa, a governança das plataformas é uma abordagem que requer uma
compreensão de seus sistemas técnicos e uma apreciação global pela arena dentro do qual essas
empresas funcionam334, conforme apresentado na primeira parte deste trabalho. E, dentro desse
sistema, a fim de operá-lo, pode-se citar novamente o entendimento de Grimmelmann, segundo
o qual a moderação de conteúdo é um mecanismo de governança335, pelo que toda a estrutura
331
BELLI, Luca. Internet Governance and Regulation: A Critical Presentation. In: Belli, Luca, Cavalli, Olga.
Internet Governance and Regulations in Latin America. FGV Direito Rio. 2019, p. 44. Disponível em:
https://www.gobernanzainternet.org/book/book_en.pdf. Acesso em 10/05/2022.
332
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 73.
333
PAPAEVANGELOU, Charilaos. The existential stakes of platform governance: a critical literature review
[version 2; peer review: 3 approved] Open Research Europe 2021, 1:31. P. 04.
https://doi.org/10.12688/openreseurope.13358.2. Acesso em 10/05/2022. DOUEK, Evelyn. Governing Online
Speech: From ‘Posts-as-trumps’ to proportionality and probability. 121 COLUM. L. REV. 759 (2021). Disponível
em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3679607 Acesso em 30/06/2022; HELBERGER, Natali.
The Political Power of Platforms: How Current Attempts to Regulate Misinformation Amplify Opinion Power.
Digital Journalism 2020, VOL. 8, NO. 6, 842-854. Disponível em
https://www.tandfonline.com/doi/epub/10.1080/21670811.2020.1773888?needAccess=true Acesso em
30/06/2022; GORWA, Robert. What is Plataform Governance? Information, Communication & Society.
University of Oxford. 2019. Disponível em: https://gorwa.co.uk/files/platformgovernance.pdf Acesso em
10/05/2022.
334
GORWA, Robert. What is Plataform Governance? Information, Communication & Society. University of
Oxford. 2019. P. 4. Disponível em: https://gorwa.co.uk/files/platformgovernance.pdf Trecho original: Platform
governance is an approach necessitating an understanding of technical systems (platforms) and an appreciation
for the inherently global arena within which these platform companies function.
335
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, p. 47. Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
108
que envolve políticas e termos de uso, sistemas de algoritmos, interfaces e outros aparatos
técnicos são instrumentos que vão operar um complexo sistema de interações entre as
plataformas e os diversos atores que utilizam seu espaço.
É essa governança que exerce influência na disseminação do conhecimento e notícias
pelo espaço digital, nos debates políticos atuais, e principalemente, nos direitos funfamentais
dos usuários, conforme destacado nos capítulos anteriores. E, por isso, é que estudos tem
questionado a legitimidade das plataformas para desempenhar esse papel. É o que será abordado
a seguir.
336
BELLI, Luca, FRANCISCO, Pedro Augusto, ZINGALES, Nicolo. Law of the Land or Law of the Platform?
Beware of the Privatisation of Regulation and Police. In: Platform regulations: how platforms are regulated
and how they regulate us. FGV Direito Rio. 2017, pp. 41-64. Disponível em:
https://bibliotecadigital.fgv.br/dspace/handle/10438/19402 Acesso em 10/05/2022.
337
Fenômeno que ficou conhecido como techlash (ver nota de referência nº 293). Segundo Evelyn Douek esse
movimento permitiu a consciência de que as plataformas de mídias digitais carecem de responsabilidade, sendo
arbitrárias e ilegítimas. Essa demanda por maior responsabilidade permite o desenvolvimento de teorias que serão
tratadas nesta subseção e abrem espaço para novos arranjos institucionais, como a autorregulação e corregulação,
que serão tratados no próximo capítulo. DOUEK, Evelyn. Verified accountability: self-regulation of content
moderation as an answer to the special problems of speech regulation. Hoover Institution. Aegis series Paper no.
1903, 2019. Disponível em: https://www.hoover.org/research/verified-accountability Acesso em 10/06/2022.
109
338
Soberania popular deve ser compreendida em uma dupla perspectiva: “tanto a titularidade, quando o exercício
do poder estatal, incluindo a assunção de tarefas e fins pelo Estado, e a realização das tarefas estatais, podem
sempre ser reconduzidas concretamente ao povo, no sentido de uma legitimação democrática efetiva”. A
concepção de democracia, característica do Estado Democrático de Direito, funda-se, portanto, na legitimação
democrática (em sintonia com a noção de soberania popular), na busca da construção de consensos. SARLET,
Ingo Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO, Daniel. Curso de Direito Constitucional. 8. ed. –
São Paulo: Saraiva Educação, 2019, p. 350.
339
SARLET, Ingo Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO, Daniel. Curso de Direito
Constitucional. 8. ed. – São Paulo: Saraiva Educação, 2019, pp. 350-355.
340
BELLI, Luca, FRANCISCO, Pedro Augusto, ZINGALES, Nicolo. Law of the Land or Law of the Platform?
Beware of the Privatisation of Regulation and Police. In: Platform regulations: how platforms are regulated
and how they regulate us. FGV Direito Rio, pp. 41-64. 2017, p. 43. Disponível em:
https://bibliotecadigital.fgv.br/dspace/handle/10438/19402 Acesso em 30/06/2022.
341
WEBER, Max. Ciência e Política: Duas Vocações. Ed. Martin Claret. São Paulo. 2015.
342
BELLI, Luca, FRANCISCO, Pedro Augusto, ZINGALES, Nicolo. Law of the Land or Law of the Platform?
Beware of the Privatisation of Regulation and Police. In: Platform regulations: how platforms are regulated
and how they regulate us. FGV Direito Rio, pp. 41-64, 2017, pp. 44-45. Disponível em:
https://bibliotecadigital.fgv.br/dspace/handle/10438/19402 Acesso em 30/06/2022.
343
BELLI, Luca. A heterostakeholder cooperation for sustainable internet policymaking. Internet Policy Review,
n. 4, 2015. Disponível em: https://policyreview.info/pdf/policyreview-2015-2-364.pdf Acesso em 30/06/2022.
110
344
BELLI, Luca, FRANCISCO, Pedro Augusto, ZINGALES, Nicolo. Law of the Land or Law of the Platform?
Beware of the Privatisation of Regulation and Police. In: Platform regulations: how platforms are regulated
and how they regulate us. FGV Direito Rio. pp. 41-64, 2017, p. 44-45. Available at:
https://bibliotecadigital.fgv.br/dspace/handle/10438/19402 Acesso em 30/06/2022.
345
BELLI. Luca. Structural Power as a Critical Element of Digital Platforms’ Private Sovereignty. In Edoardo
Celeste, Amélie Heldt and Clara Iglesias Keller (Eds). Constitutionalising Social Media. (Hart 2022), pp 08-10.
346
BELLI, Luca, FRANCISCO, Pedro Augusto, ZINGALES, Nicolo. Law of the Land or Law of the Platform?
Beware of the Privatisation of Regulation and Police. In: Platform regulations: how platforms are regulated
and how they regulate us. FGV Direito Rio, pp. 41-64, 2017. Disponível em:
https://bibliotecadigital.fgv.br/dspace/handle/10438/19402 Acesso em 30/06/2022.
111
Especialistas (por todos, Luca Belli) destacam que, num ambiente com pluralidade
normativa, como o ambiente da internet, é interessante que essa governança tenha uma
abordagem multissetorial, isto é, o processo decisório deve incluir todos os interessados, de
forma que o Estado, entes privados e sociedade civil atuem em conjunto em um processo
transparente e aberto à participação. A colaboração de diversos atores mostra-se fundamental,
pois “somente a heterogeneidade de opiniões apresentadas e debatidas, com o confronto de
diferentes opiniões e a análise cuidadosa dos interesses envolvidos podem levar a tomadas de
decisões informadas e abordagens sustentáveis”347.
Essa abordagem é essencial ante às inúmeras questões complexas que se colocam no
ambiente de tecnologia e informação, certo que as empresas privadas detem conhecimentos
específicos sobre determinados temas. E, considerando a sociedade democrática na qual
vivemos, uma abordagem sustentável deve considerar a possibilidade de todas as partes
expressarem suas preocupações e fornecerem conhecimentos por meio de processos
transparentes e participativos.
Segundo Luca Belli, a governança participativa tem “o potencial de legitimar os
esforços de formulação de políticas, permitindo que todas as partes interessadas discutam
propostas de políticas e transmitam informações diversas aos formuladores de política” 348, o
que tornaria a própria decisão mais legítima e eficaz, vez que centrada em argumentos técnicos
e científicos, com maior probabilidade de melhorar a qualidade das decisões tomadas.
Historicamente, pode-se citar a Conferência das Nações Unidas sobre o meio ambiente
e desenvolvimento (“Cúpula da terra”) em 1992, como o início do reconhecimento do papel de
diversos atores no exercício da governança privada349. No que tange à internet, essa visão foi
347
BELLI, Luca. Internet Governance and Regulation: A Critical Presentation. In: Belli, Luca, Cavalli, Olga.
Internet Governance and Regulations in Latin America. FGV Direito Rio, pp. 39-64, 2019, p. 40. Disponível
em: https://www.gobernanzainternet.org/book/book_en.pdf. Acesso em 30/04/2022 Trecho original: The greatest
wealth of any multistakeholder exercise is or, at least, should be –the heterogeneity of opinions presented and
debated. Only the confrontation of different opinions and the careful analysis of the interests involved can lead to
informed decisionmaking and sustainable approaches.
348
BELLI, Luca. A heterostakeholder cooperation for sustainable internet policymaking. Internet Policy Review,
n. 4, 2015, p.02. Disponível em: https://policyreview.info/pdf/policyreview-2015-2-364.pdf Acesso em
30/04/2022. Trecho original: Such participatory governance has the potential to legitimise policymaking efforts,
allowing all interested stakeholders to discuss policy proposals and convey diverse information to policymakers,
in order to elaborate sustainable and evidence-based policies.
349
Nicolo Zingales e Roxana Radu apontam que a razão primária para a criação desse modelo de governança foi
a realização da propriedade privada como um recurso crítico que exigia o envolvimento de atores privados em
novas formas de regulação. Ainda, o aumento de empresas multinacionais trazia à tona muitas jurisdições
112
consagrada na WSIS, onde restou expresso na agenda Tunes que seria “essencial para a
construção bem-sucedida de uma sociedade da informação centrada em pessoas e orientada
para o desenvolvimento” a participação de diferentes partes interessadas350.
Esse novo posicionamento representou uma virada, pois foi a primeira vez que uma
cúpula com participação da ONU reconheceu a necessidade de envolver todas as partes
interessadas nos acordos de governança da internet. Pela importância, foi destacado no
parágrafo 35 que:
diferentes em práticas de arbitragem regulatória, tornando-se manifesto a necessidade de uma “lei global”.
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. 2015. GigaNet: Global Internet Governance Academic Network, Annual
Symposium 2015, p. 03. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em 30/05/2022.
350
BELLI, Luca. A heterostakeholder cooperation for sustainable internet policymaking. Internet Policy Review,
n. 4, 2015, p.04. Disponível em: https://policyreview.info/pdf/policyreview-2015-2-364.pdf Acesso em
30/03/2022. Trecho orginal: “Indeed, the Tunis Agenda considered the meaningful participation of diferente
stakeholders as “essential to the successful building of a people-centred, inclusive and development-oriented
Information Society” (para. 97), whilst internet governance was famously defined as the “development and
application by governments, the private sector and civil society, in their respective roles, of shared principles,
norms, rules, decision-making procedures, and programmes that shape the evolution and use of the Internet” (par.
34).
351
World Summit on the Information Society – WSIS. Tunis Agenda for the information society. 18 de novembro
de 2005. Disponível em: https://www.itu.int/net/wsis/docs2/tunis/off/6rev1.html Acesso em 30/06/2022. Trecho
original: a) Policy authority for Internet-related public policy issues is the sovereign right of States. They have
rights and responsibilities for international Internet-related public policy issues. b) The private sector has had,
and should continue to have, an important role in the development of the Internet, both in the technical and
economic fields. c) Civil society has also played an important role on Internet matters, especially at community
level, and should continue to play such a role. d) Intergovernmental organizations have had, and should continue
to have, a facilitating role in the coordination of Internet-related public policy issues. e) International
organizations have also had and should continue to have an important role in the development of Internet-related
technical standards and relevant policies.
113
alusivas à internet, sem vinculação nos resultados, criando, assim, uma política de
desenvolvimento de baixo para cima352, altamente flexível, o que facilita o debate para
construção de um consenso. Em que pese a expansão da abordagem multissetorial, Zingales e
Radu destacam que ela não penetrou efetivamente nas organizações intergovernamentais, que,
“mantiveram, em geral, seus procedimentos de tomada de decisão centrados no Estado”353.
Em que pese os benefícios dessa abordagem, algumas questões restam controvertidas
pelos acadêmicos. A título de exemplo, há divergência sobre a necessidade de desenho de um
procedimento multissetorial. Há quem defenda alguns critérios mínimos como (a)
representação igualitária; (b) três ou mais grupos de partes interessadas; (c) respeito ao princípio
da transparência e participação. Enquanto outros adotam uma visão mais flexível e focam
apenas na existência de “algum” mecanismo de participação disponível para um grupo que não
seja qualificado como defensor do interesse público354.
Seja como for, é importante registrar que para que essa abordagem funcione deve ser
garantida uma ampla participação de todos os atores envolvidos, o que não significa que eles
possuam os mesmos papeis, porém que possam expor diferentes interesses e ponto de vistas
sobre um determinado assunto. O objetivo final de uma abordagem multissetorial, conforme
trazido por Luca Belli, é que ela deve “apoiar e fortalecer os processos de preparação de
políticas e tomada de decisões, fornecendo uma ampla gama de informações e conhecimentos
pluralistas”355.
352
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
Network, Annual Symposium 2015, p. 06. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em
30/05/2022.
353
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
Network, Annual Symposium 2015, p. 07. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em
30/05/2022. Trecho original: Following the adoption of the Tunis Agenda, global as well as national institutions
sought to maximize inclusion and participation of a various set of stakeholders in the governance of the Internet.
Despite some laudable efforts, the expansion of multistakeholderism did not effectively penetrate
intergovernmental organizations, which retained by and large their state-centered procedures for decision-
making.
354
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
Network, Annual Symposium 2015, p. 11. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em
30/05/2022. Trecho original: Hemmati (2002) for example lists a number of demanding criteria consisting in (1)
equal representation (2) between three or more stakeholder groups (3) on the basis of principles of transparency
and participation, and (4) that aim to develop partnerships and strengthening networks between stakeholders. In
contrast, Mueller (2010) adopts a more flexible definition focusing on the existence of “some” participation
mechanism available to an unqualified group of public interest defenders, and defining multistakeholder
governance as a process where representatives from different public interest advocacy groups such as business
associations and civil society organizations can participate in governmental policy deliberations alongside with
governments.
355
BELLI, Luca. A heterostakeholder cooperation for sustainable internet policymaking. Internet Policy Review,
n. 4, 2015, p.06. Disponível em: https://policyreview.info/pdf/policyreview-2015-2-364.pdf Acesso em
114
É por isso que o referido autor, inclusive, defende que o termo mais apropriado seria
heterostakeholder (no lugar de multistakeholder), pois ele melhor traduziria a necessidade de
diversidade de opiniões, interesses e de representação geográfica, no lugar de uma simples
“abordagem quantitativa”, que poderia levar a supercategorias potencialmente ambíguas356.
Outro ponto de grande preocupação, é que esse modelo, em razão da falta de estrutura
para o exercício dessa governança, pode acabar se revelendo como um mecanismo “perpetuador
de posições de desigualdade na sociedade”357, fortalecendo a assimetria de poder e influência
exercida pelos atores dominantes. Isso ocorre devido ao patente desequilíbrio entre os diversos
atores na sociedade no que se refere à recursos e conhecimento.
Esse fator pode ser facilmente imaginado em razão da disponibilidade financeira que os
atores devem possuir para participar das diversas reuniões, que nem sempre ocorrem por meio
tecnológico, mas de forma presencial em países variados. Além dos recursos, esses atores
debem investir energia no conhecimento profundo sobre temas específicos para que possam
contribuir de maneira significativa. Todo esse padrão afunila a participação dos atores não-
estatais para que apenas os mais abastados possam participar desses processos. A consequência
é que esses atores privilegiados possam orientar, com lobby, a política regulatória para seus
interesses ou, até mesmo, implementar políticas gerais de práticas já oficializadas em seus
protocolos internos, prejudicando a inovação e concorrência.
Essa crítica levou parte da academia, conforme apontado por Zingales e Radu, a
lamentar a discrepância entre a ideologia do multissetorialismo e os princípios democráticos
amplamanete que regem a sociedade, de maneira que o grupo da sociedade civil “Just Net”, em
uma declaração intitulada The Delhi Declaration for a Just and Equitable Internet, desafiou a
ideia de igualdade por trás dessa governança aduzindo que: “por trás dos vários participantes,
30/03/2022. Trecho original: “The ultimate goal of a multistakeholder approach should be indeed to support and
strengthen policy-preparation and decision-making processes, by supplying a wide range of pluralistic
information and expertise”.
356
BELLI, Luca. A heterostakeholder cooperation for sustainable internet policymaking. Internet Policy Review,
n. 4, 2015, p.07. Disponível em: https://policyreview.info/pdf/policyreview-2015-2-364.pdf Acesso em
30/03/2022. Trecho original: Perhaps, the qualifying “heterostakeholder” would have been more appropriate than
the “multistakeholder” one, in order to imply the essential need for diversity of opinions, interests – which should
be transparently declared – as well as geographical origin, rather than merely rely on a “quantitative approach”
based on potentially ambiguous super-categories.
357
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
Network, Annual Symposium 2015, p. 11. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em
30/05/2022.
115
argumenta-se a favor dos Governos como os únicos que, legítima e diretamente, podem
representar as pessoas”358359.
Ian Brown e Christopher Marsden também lançam críticas a esse modelo, dentre elas, a
falta de transparência, representatividade e eficácia na implementação de suas políticas. Os
autores mencionam que muitos organismos multissetoriais não adotam processos de
transparência em suas tomadas de decisão, não havendo processos de consulta pública sobre as
políticas adotadas360.
Para frear esse desvirtuamento, a literatura361 propõe alguns valores básicos para que a
governança multissetorial siga por vetores democrátivos. Cita-se, neste trabalho, cinco valores
que podem ser considerados essenciais pelas teorias democráticas, conforme proposto por
Zingales e Radu362. O primeiro deles é a deliberação, que deve ser entendida no contexto de
governança multissetorial baseada nos princípios de uma democracia deliberativa, isto é, a fonte
de legitimidade das tomadas de decisão deve partir das discussões e deliberações, com registro
das opiniões divergentes. O interesse não deve ser focado na mera votação de um participante.
Por isso, o consenso não é o único resultado esperado em um ambiente multissetorial, mas é
preciso dedini-lo em regras prévias de orientação de condutas para que a preservação da
autonomia dos diferentes atores seja preservada363.
358
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
Network, Annual Symposium 2015, p. 11. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em
30/05/2022. Trecho original: “among various stakeholders, arguing in favor of governments as the only
stakeholder that legitimately and directly represents the people”.
359
Sobre essa crítica, ressalva-se a observação feita por Luca Belli, em seu artigo, de que a governança
multissetorial deve ser encarada como um complemento e, em hipótese alguma, substitutiva da democracia
representativa dos Estados. BELLI, Luca. A heterostakeholder cooperation for sustainable internet policymaking.
Internet Policy Review, n. 4, 2015. p.02. Disponível em: https://policyreview.info/pdf/policyreview-2015-2-
364.pdf Acesso em 30/03/2022.
360
BROWN, Ian; MARSDEN, Christopher T. Regulating Code: Good Governance and Better Regulation in
the Information Age. The MIT Press: London, 2013, p. 173.
361
GASSER, Urs; BUDISH, Ryan.; WEST, Sarah. Multistakeholder as Governance Groups: Observations from
Case Studies (January 14, 2015). Berkman Center Research Publication No. 2015-1. Disponível em:
http://ssrn.com/abstract=2549270 Acesso em 30/06/2022; BUDISH, Ryan; WEST, Sarah; and GASSER, Urs.
Designing Successful Governance Groups: Lessons for Leaders from Real-World Examples (August 2015).
Berkman Center Research Publication No. 2015-11. Disponível em: http://ssrn.com/abstract=2638006 Acesso
em 30/06/2022; e, ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to
Multistakeholder Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet
Governance Academic Network, Annual Symposium 2015. Disponível em: SSRN:
https://ssrn.com/abstract=2809920 Acesso em 30/05/2022.
362
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
Network, Annual Symposium 2015, P. 16-19. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso
em 30/05/2022.
363
ZINGALES, Nicolo; Radu, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
116
O segundo valor é a inclusão. Isso significa que todos os atores que sejam afetados por
uma determinada política devem ser ouvidos, inclusive aqueles mais vulneráveis. Obstáculos,
como a seletividade de iniciativa multissetoriais, para os mais engajados no tema, com recursos
disponíveis e com mais capacidade técnica para participação devem receber significativo
esforço para serem superados364.
A partiticipação é o terceiro valor mencionado pelos autores já citados. Aqui a
preocupação é que seja garantido aos grupos oportunidade para se manifestarem, com
consideração dos pontos abordados por eles, para que não prolifere o desinteresse por uma
participação meramente formal, bem como deve ser disponibilizada mecanismos e estrutura
para que essa participação ocorra365.
A legitimidade é o quarto valor que deve ser considerado para uma governança
multissetorial mais democrática. Ele se relaciona com a vinculação da participação de um
determinado ator com o tipo de interesse representado por ele, que deve sempre atuar em
conjunto com máxima transparência possível. A legitimidade pode ser externa ou interna. A
primeira guarda relação com a aceitação do público externo, ou seja, está relacionada a questões
de representatividade no meio social. Por outro lado, a legitimidade interna é encontrada em
questões de clareza e previsibilidade das regras que regem o processo de desenvolvimento de
políticas366.
Por fim, o ultimo valor atribuído é a transparência. Além da clareza e previvisibidade,
acima mencionada, que é conhecida como transparência ex ante, é necessário que haja
transparência ex post, ou seja, transparência nos processos de tomada de decisão. Mecanismos
de transparência permitem maior prestação de contas e transmitem mais confiabilidade nas
decisões tomadas367.
Network, Annual Symposium 2015, P. 16. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em
30/05/2022.
364
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
Network, Annual Symposium 2015, P. 16. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em
30/05/2022.
365
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
Network, Annual Symposium 2015, P. 17. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em
30/05/2022.
366
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
Network, Annual Symposium 2015, P. 17. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em
30/05/2022.
367
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
Network, Annual Symposium 2015, P. 18. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em
30/05/2022.
117
368
BRASIL. Lei 12.965/2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil.
Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm Acesso em
30/05/2022.
369
KELLER, Clara Iglesias. Regulação nacional de serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 222.
370
ARNAUDO, Daniel. O Brasil e o Marco Civil da Internet. 2017. Disponível em:
https://igarape.org.br/marcocivil/pt/ Acesso em 30/05/2022.
371
O cenário de 1990 era marcado por diversas propostas de leis no intuito de criminalizar condutas cibernéticas,
em apelo à proteção da privacidade e dados pessoais, o que prejudicava a liberdade de expressão. Duas delas foram
adiante, a Lei Azeredo (Lei 12.735 /2012, que altera o Código Penal para para tipificar condutas realizadas
mediante uso de sistema eletrônico, digital ou similares) e Lei Carolina Dickman (Lei 12.737/2012, que dispõe
sobre a tipificação de delitos informáticos). BRASIL. Lei 12.735/12. Altera o Decreto-Lei nº 2.848, de 7 de
dezembro de 1940 - Código Penal, o Decreto-Lei nº 1.001, de 21 de outubro de 1969 - Código Penal Militar, e a
Lei nº 7.716, de 5 de janeiro de 1989, para tipificar condutas realizadas mediante uso de sistema eletrônico, digital
ou similares, que sejam praticadas contra sistemas informatizados e similares; e dá outras providências. Disponível
em: http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2012/lei/l12735.htm Acesso em 10/06/2022. BRASIL,
Lei 12.737/2012. Dispõe sobre a tipificação criminal de delitos informáticos; altera o Decreto-Lei nº 2.848, de 7
de dezembro de 1940 - Código Penal; e dá outras providências. Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2012/lei/l12737.htm Acesso em 10/06/2022.
372
PAPAEVANGELOU, Charilaos. The existential stakes of platform governance: a critical literature review
[version 2; peer review: 3 approved] Open Research Europe 2021, 1:31.Disponível em:
https://doi.org/10.12688/openreseurope.13358.2 Acesso em 10/05/2022.
118
resultados, isto é, a partir de sua regulação e acordos. Para isso, ele amplia os atores,
organizando-os em clusters de governança, de acordo com seus interesseses e princípios
compartilhados.
Dessa forma, além do Governo, sociedade civil e empresas, a nova figura que desenharia
os atores da governança das plataformas digitais seria um círculo com a seguinte divisão entre
os grupos de atores: (a) autoridades públicas; (b) plataformas digitais de redes sociais; (c)
sociedade civil; (d) empresas de notícias; (e) cidadãos/usuários. Essa proposta é positiva, pois
amplia a representatividade dos diferentes atores que são afetados pelas políticas regulatórias,
tornando a governança mais inclusiva.
4.2.2 Uma atuação baseada em deveres procedimentais e direitos humanos por design
373
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p. 03. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022.
119
4.2.2.1 Transparência
374
SUZOR, Nicolas; VAN GEELEN, Tess; WEST, Sarah. Myers. Evaluating the legitimacy of platform
governance: A review of research and a shared research agenda. International Communication Gazette, 80(4),
385–400, 2018. Disponível em: https://doi.org/10.1177/1748048518757142 Acesso em 30/06/2022.
375
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, p.11. Disponível em:
https://www.hoover.org/research/verified-accountability. Acesso em 30/05/2022. A autora citada defende que é
essencial a existência de uma medida de transparência para se criar maior accountability, em que certas regras e
valores das plataformas precisam ser tornados públicos. No entanto, o apelo generalizado por transparência não
pode subverter alguns valores. Um exemplo simples é o efeito “Streisand” (fenômeno social que decorre da
tentativa de ocultar ou remover algum tipo de informação publicada na internet, que se volta contra a vítima,
resultando na vasta replicação da informação) causado nos casos em que a publicidade de casos tóxicos pode
aumentar a repercussão do caso ou, nos casos do direito ao esquecimento, no qual a privacidade é o foco.
376
SUZOR, Nicolas; WEST, Sarah Myers; QUODLING, Andrew; YORK, Jillian. What Do We Mean When We
Talk About Transparency? Toward Meaningful Transparency in Commercial Content Moderation. International
Journal of Communication. V. 13, 1526-1543, 2019, pp 1526-1543. Disponível em:
https://ijoc.org/index.php/ijoc/article/view/9736/2610 Acesso em 30/05/2022.
377
SUZOR, Nicolas; WEST, Sarah Myers; QUODLING, Andrew; YORK, Jillian. What Do We Mean When We
Talk About Transparency? Toward Meaningful Transparency in Commercial Content Moderation. International
Journal of Communication. V. 13, 1526-1543. 2019, pp. 1528-1529. Disponível em:
https://ijoc.org/index.php/ijoc/article/view/9736/2610 Acesso em 30/05/2022.
120
Nos apelos por maior transparência, muitas vezes há uma suposição explícita
ou implítica de que a transparência – maior divulgação de informações – leva
a uma maior responsabilidade e confiança. A boa governança é muitas vezes
considerada dependente da transparência. Mas até que ponto a transparência
realmente leva a uma maior responsabilização e melhores resultados, no
entanto, muitas vezes não é claro na melhor das hipóteses. Transparência,
implantada estrategicamente por uma organização como teatro pode evitar
reivindicações por maior responsabilidade, e, em última análise, trabalhar para
obscurecer a compreensão (Losey, 2015; Parsons, 2019). Nessa perspectiva,
a produção de relatórios de transparência poderia fornecer às plataformas um
“mercado amigável” às demandas por maior responsabilidade, evitando
regulamentações que imponham responsabilização (e é respaldado por
sanções autoritárias; Fox, 2010). Para que a transparência seja significativa,
ela deve ser direcionada – não apenas aumentando a informação, mas para
comunicar de uma maneira que possa ser usada para ajudar a responsabilizar
os tomadores de decisão (Fung, Graham, & Weil, 2007). Esta abordagem de
transparência torna mais clara a necessidade de prestar atenção à capacidade
de diferentes públicos para interpretar as informações divulgadas e às políticas
de divulgação que podem influenciar a qualidade e escopo das informações
(Albu & Flyverbom, 2016)378.
378
SUZOR, Nicolas P., WEST, Sarah Myers, QUODLING, Andrew, YORK, Jillian. What Do We Mean When
We Talk About Transparency? Toward Meaningful Transparency in Commercial Content Moderation.
International Journal of Communication. V. 13. 1526-1543, 2019, p. 1529. Disponível em:
https://ijoc.org/index.php/ijoc/article/view/9736/2610 Acesso em 30/05/2022. Trecho original: In calls for
greater transparency, there is often an explicit or implicit assumption that transparency—greater information
disclosure—leads to greater accountability and trust (Albu & Flyverbom, 2016). Good governance is often thought
to be contingent on transparency (Braithwaite & Drahos, 2000). But the extent to which transparency actually
leads to greater accountability and better outcomes, however, is often unclear at best. Transparency, deployed
strategically by an organization as theater to ward off claims for greater accountability, can ultimately work to
obscure understanding (Losey, 2015; Parsons, 2019). From this perspective, the production of transparency
reports could provide platforms a “market friendly” response to demands for greater accountability while
avoiding regulation that imposes real accountability (and is backed by authoritative sanctions; Fox, 2010). For
transparency to be meaningful, it has to be targeted—not just increasing information, but communicating in a way
that can be used to help hold decision makers to account (Fung, Graham, & Weil, 2007). This approach to
transparency makes clearer the need to pay attention to the capacity of different audiences to interpret the
information disclosed and to the politics of disclosure that can influence the quality and scope of information (Albu
& Flyverbom, 2016)
121
Nicolas Suzor destaca quatro pontos principais que devem ser trazidos para a atenção
dos reguladores no que se refere à transparência. Em primeiro lugar, a confusão causada aos
usuários sobre o conteúdo ou comportamento que desencadeou uma sanção da plataforma. Em
segundo lugar, a falha, por parte das plataformas de redes sociais, em justificar as decisões que
eles lançaram. Em terceiro, a inferência dos usuários sobre preconceitos e falta de sensibilidade
dos moderadores de conteúdo atribuída a falta de conhecimento contextual e cultural atrelado
ao conteúdo. Por fim, em quarto lugar, a inexistência de informação sobre a origem da
sinalização de seus conteúdos, se fruto de reclamações dos usuários, do Estado ou pelos
algoritmos das plataformas.
Como solução às preocupações acima narradas, buscando uma transparência
significativa, o referido autor aduz que é necessário às plataformas garantir que os usuários
sejam informados quando seu conteúdo foi removido ou quando os usuários sofram práticas de
shadowban379 ou similares. As plataformas devem garantir que a URL do conteúdo proibido ou
um extrato suficientemente detalhado esteja disponível na notificação enviada ao usuário.
Ainda, essas notificações devem estar permanentemente disponíveis de alguma forma, e não
apenas enviadas como notificações no aplicativo de maneira efêmera380.
Um dos pontos positivos de se adotar a transparência na aplicação das sanções pelas
plataformas na moderação é que, de acordo com pesquisa realizada, houve significativa
diminuição de postagens irregulares quando a moderação foi feita a partir de comentários de
moderadores aos usuários, pois essa prática permitiria ao usuário compreender o processo de
tomada de decisão381.
Pela inexistência de justificação sobre à moderação de conteúdo aos usuários, eles criam
suas próprias racionalizações para explicar as decisões que ficaram sujeitos, frequentemente
culpando moderadores tendenciosos e influência externa indevida. Essas explicações
desencadeiam desconfiança generalizada no sistema como um todo e podem encorajar a criação
de teorias da conspiração. A falta de justificativas claras dificulta que os usuários aprendam as
379
Sobre essa prática, veja definição no tópico que aborda a moderação transparente ou sigilosa (item 2.1.2).
380
SUZOR, Nicolas; WEST, Sarah Myers; QUODLING, Andrew; YORK, Jillian. What Do We Mean When We
Talk About Transparency? Toward Meaningful Transparency in Commercial Content Moderation. International
Journal of Communication. V. 13, 1526-1543, 2019, pp. 1531-1532. Disponível em:
https://ijoc.org/index.php/ijoc/article/view/9736/2610 Acesso em 30/05/2022.
381
JHAVER, Shagun; BRUCKMAN, Amy; GILBERT, Eric. Does Transparency in Moderation Really Matter?:
User Behavior After Content Removal Explanations on Reddit. Proc. ACM Hum.-Comput. Interact. 3, CSCW,
Article 150. 2019. Disponível em: https://doi.org/10.1145/3359252 Acesso em 30/05/2022.
122
regras. Por isso, é recomendável que as plataformas assumam uma posição de educação do
usuário, substituindo a postura punitiva382.
Problemas de escabilidade nas decisões sobre moderação de conteúdo são grandes alvos
de reclamação. Conforme já abordado no primeiro e segundo capítulo deste trabalho, o volume
de conteúdos a serem moderados é alto. Por isso, as principais plataformas utilizam a
moderação automatizada e terceirizam equipes de moderação de conteúdo para tomar suas
decisões. Mas fazer com que essas decisões sejam certeiras é tarefa difícil.
No que se refere aos moderadores humanos, esses trabalhadores não são treinados da
maneira apropriada para que tomem as decisões mais adequadas. Ao contrário, é preciso
investimento para surjam decisões mais habilidosas, de acordo com o contexto das relações
sociais383. Nas lições de Sarah Roberts, a linguagem vaga, comumente aplicada nos termos de
serviço e diretrizes da comunidade, somada com a falta de informações sobre o processo que
envolve a moderação de conteúdo, podem funcionar para esconder o real viés sistêmico e criar
séria apreensão sobre sua existência384.
Assim, a solução proposta por Nicolas Suzor, para permitir que os usuários confiem
melhor nos resultados das decisões de moderação, envolve divulgação detalhadas sobre o
treinamento e diretrizes associadas ao processo de moderação, incluindo aquelas que se
relacionam ao contexto social. As plataformas devem se preocupar em equilibrar a precisão
com as nuances de cada caso385.
Por outro lado, no que tange a moderação de conteúdo automatizada, existe um potencial
duvidoso sobre como as decisões que sofrem moderação são sinalizadas. A identificação de
possíveis violações das regras depende, em grande parte, do trabalho do usuário na sinalização
de material inapropriado, mas os sistemas de sinalização ocultam contestações complexas de
valores entre os usuários. Não há informações suficientes de como os sistemas de detecção
382
SUZOR, Nicolas; WEST, Sarah Myers; QUODLING, Andrew; YORK, Jillian. What Do We Mean When We
Talk About Transparency? Toward Meaningful Transparency in Commercial Content Moderation. International
Journal of Communication. V. 13, 1526-1543, 2019, p. 1533-1534. Disponível em:
https://ijoc.org/index.php/ijoc/article/view/9736/2610 Acesso em 30/05/2022.
383
SUZOR, Nicolas P., WEST, Sarah Myers, QUODLING, Andrew, YORK, Jillian. What Do We Mean When
We Talk About Transparency? Toward Meaningful Transparency in Commercial Content Moderation.
International Journal of Communication. V. 13. 2019. 1526-1543. P. 1534-1535. Disponível em:
https://ijoc.org/index.php/ijoc/article/view/9736/2610
384
ROBERTS, Sarah. Commercial content moderation: Digital laborers’ dirty work. In S. U. Noble & B. Tynes
(Eds.), The intersectional Internet: Race, sex, class and culture online. New York, NY: Peter Lang, 2016.
Disponível em: https://ir.lib.uwo.ca/commpub/12/ Acesso em 30/05/2022.
385
SUZOR, Nicolas P., WEST, Sarah Myers, QUODLING, Andrew, YORK, Jillian. What Do We Mean When
We Talk About Transparency? Toward Meaningful Transparency in Commercial Content Moderation.
International Journal of Communication. V. 13. 2019. 1526-1543. P. 1535. Disponível em:
https://ijoc.org/index.php/ijoc/article/view/9736/2610
123
automatizados funcionam, quais dados são utilizados para treinamento de um modelo, quão
eficazes são e como se integram ao sistema.
Essas informações, contudo, demandam as plataformas disponibilizarem acesso em
larga escala a seus dados, com análise mais profunda sobre a qualidade de seus processos
automatizados e humanos, o que elas têm relutado para fornecer. Sobre esse ponto, Harold
Feld386 entende que o adequado seria a determinação da abertura da “caixa preta” (black box)
que protege o código dos algoritmos para possibilitar a realização de testes para detectar vieses
por Agências Reguladoras. Elas poderiam equilibrar de maneira mais apropriada a necessidade
de respeito ao sigilo com a necessidade de conhecimento dos códigos fontes. A ausência de
testes claros para a verificação dos padrões utilizados pelas plataformas digitais dificulta a
demonstração de vieses e responsabilização das plataformas.
Noutro giro, esse ponto também é abordado por Evelyn Douek, mas com um viés
diferente para a solução a ser adotada: a existência de um órgão de supervisão independente
dentro dos arranjos autorregulatórios para supervisionar a aplicação de transparência nos
processos decisórios. A justificativa é a incapacidade de se avaliar e mensurar a realidade da
autorregulação pelos operadores das plataformas.
A título de exemplo, a autora menciona que no primeiro trimestre de 2019, o Facebook
retirou da rede mais de quatro milhões de conteúdos com discurso de ódio, o que, segundo a
rede social, reflete melhoria e expansão do seu sistema de detecção. Contudo, não há verificação
independente dos números ou se os conteúdos excluídos realemente se enquadram no conceito
de discurso de ódio, de acordo com os termos de uso.
Dessa forma, é possível aferir a necessidade de transparência para que as plataformas
tenham mais responsabilidade na operação de seus sistemas de moderação de conteúdo, desde
que sejam definidos os contornos do que realmente é importante que seja divulgado. Mas
transparência por si só não basta. É preciso, ainda, a supervisão dos relatórios publicados pelas
plataformas de redes sociais.
386
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019.
124
387
HARTMANN, Ivar. Let the users be the filter? Crowdsourced filtering to avoid online intermediary liability.
Journal of the Oxford Centre for Socio-Legal Studies, 2017 (1), 21–47, 2017, p. 22. Disponível em:
https://joxcsls.files.wordpress.com/2017/11/issue-1_2017-let-the-user-be-the-filter.pdf Acesso em 30/03/2022.
388
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p. 04. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022. Esse ponto será
aprofundado no capítulo 5, subseção “5.2.1”.
389
HARTMANN, Ivar. Let the users be the filter? Crowdsourced filtering to avoid online intermediary liability.
Journal of the Oxford Centre for Socio-Legal Studies, 2017 (1), 21–47, p. 22. Disponível em:
https://joxcsls.files.wordpress.com/2017/11/issue-1_2017-let-the-user-be-the-filter.pdf Acesso em 30/05/2022.
390
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p. 04. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022.
391
JHAVER, Shagun; BRUCKMAN, Amy; GILBERT, Eric. Does transparency in moderation really matter? User
behavior after content removal explanations on reddit. Proceedings of the ACM on Human-Computer
Interaction, v. 3, n. CSCW, p. 1-27, 2019. Disponívele em: https://dl.acm.org/doi/10.1145/3359252 Acesso em
30/05/2022.
125
392
HARTMANN, Ivar; CURZI, Yasmin; ZINGALES, Nicolo; ALMEIDA, Clara. Moderação de conteúdo online:
contexto, brasileiro e suas perspectivas regulatórias. Rio de Janeiro: Editora Alameda, 2022 (no prelo).
393
Clara Keller se baseia no trabalho de Vivian A. Schmidt, que justifica a legitimidade à atuação da União
Europeia (UE). Como entidade supranacional, composta por representação interestadual, instituições
supranacionais e apenas um órgão representativo relativamente fraco, a UE não pode reivindicar legitimidade da
mesma forma que um Estado-nação democrático. SCHMIDT, Vivian. Democracy and legitimacy in the European
Union revisited: Input, output and “throughput”. Political Studies, 61(1), 2–22, 2013.
https://doi.org/10.1111/j.1467-9248.2012.00962.x Acesso em 30/05/2022.
394
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022
126
395
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p. 05. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022. Trecho original:
Input legitimacy “refers to the participatory quality of the process leading to laws and rules as ensured by the
‘majoritarian’ institutions of electoral representation” or the institutions’ “responsiveness to citizen concerns as
a result of participation by the people.
396
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p. 05. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022.
397
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p. 05. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022. Trecho original:
Input legitimacy requires some form of democratic representation based in a citizenry, which itself has to have
some form of collective identity.
398
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p. 05. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022. Trecho original:
“Throughput legitimacy “focuses on the quality of … governance processes”. It is “process-oriented, and based
on the interactions – institutional and constructive – of all actors engaged in … governance”.
399
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p. 05. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022. Trecho original:
It “demands institutional and constructive governance processes that work with efficacy, accountability,
transparency, inclusiveness and openness” (Schmidt, 2013, pp. 7-8).
400
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p.06. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022. Trecho original:
Efficacy refers to how smoothly the processes of rule-making and implementation function. Accountability involves
the extent to which “actors are judged on their responsiveness to participatory input demands and can be held
responsible for their output decisions” (Schmidt, 2013, p. 6). Transparency, meanwhile, refers to whether “citizens
have access to information about the process and [whether] decisions as well as decision-making processes in
formal … institutions are public” (Schmidt, 2013, p. 6). Transparency should not be confused with accountability,
which “demands some form of scrutiny by a specific forum” (Schmidt, 2013, p. 6) and is thus related to input
legitimacy. Rather, transparency is merely “a prerequisite to accountability” (Schmidt, 2013, p. 6). Finally,
inclusiveness and openness of institutional processes to civil society participation in the policymaking process is
127
legitimizing as a balance to “access and influence among organized interests representing business” (Schmidt,
2013, pp. 6–7).
401
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p.06. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022. Trecho original:
Output legitimacy, meanwhile, covers “the problem-solving quality of the laws and rules” (Schmidt, 2013, p. 4),
or “effectiveness of … policy outcomes for the people” (Schmidt, 2013, p. 2) apud SCHMIDT, Vivian. Democracy
and legitimacy in the European Union revisited: Input, output and “throughput”. Political Studies, 61(1), 2–22,
2013. https://doi.org/10.1111/j.1467-9248.2012.00962.x Acesso em 30/05/2022.
402
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p. 07. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022.
128
Blayne Haggart e Clara Keller propõem uma estrutura para avaliação da legitimidade,
que pode ser traduzida no seguinte quadro abaixo elaborado403.
403
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p. 06-07. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022. Trecho original:
Input legitimacy with respect to platforms focuses on the ability of citizens in their role as citizens to control the
very form of the platform itself, including what the platform does and how it does it (...). We suggest two criteria:
(i) The degree to which majoritarian influences are incorporated into platform-governance structures, through
representation or participation. (ii) The presence of a self-identified polity. Throughput legitimacy refers to the
quality of governance processes. Here, we adopt Schmidt’s four listed criteria (2013, 6–7) wholesale: (i)
Transparency – Do people have enough information about decision-making processes and rules to hold rule-
makers accountable? (ii) Efficacy – Does the process actually achieve its intended outcome in an efficient manner?
(iii) Accountability – Are platforms and those working in and for platforms judged (and held accountable; i.e., do
they face consequences) for their decisions? (iv) Inclusiveness and openness to civil-society participation – Are
civil-society groups accorded an ongoing role in setting and/or implementing platforms’ policies and rules?
Output legitimacy, meanwhile, considers the ultimate result of a platform’s actitvity. It involves two factors: (i)
the extent to which platform’s actions enhance the lives of the people affected by it; and (ii)the extent to which
these actions fit the values and identities of the people affected by said actions.
129
empregados. Pode-se
perguntar: Os grupos da
sociedade civil têm um papel
contínuo na definição e ou
implementando políticas e
regras de plataformas?
404
KELLER, Clara Iglesias. Regulação nacional de serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 99.
130
ou vazio legislativo sobre o mesmo – o que favorece a sua adoção no âmbito dos regimes
econômicos transnacionais”405, como é o caso da governança da internet.
A responsabilidade corporativa pelo respeito aos direitos humanos, por exemplo, foi
reconhecida em documentos de soft law406 internacionais, tais como, a Declaração Tripartite de
Princípios sobre Empresas Multinacionais e Política Social e a Organização para a Cooperação
Econômica e Diretrizes de desenvolvimento para Empresas Multinacionais407.
Por fim, três principais críticas podem ser feitas à responsabilidade social corporativa
como teoria legitimadora da governança das plataformas digitais de redes sociais. A primeira
delas é que ela dá preferência aos interesses patrimoniais das empresas, no lugar aos interesses
sociais dos indivíduos, certo que as decisões que envolvem uma coletividade não podem ser
deixadas a cargo de um grupo, sem representação democrática. A segunda crítica é que essas
práticas, ainda que disciplinadas em um código, não são vinculativas e não geram
responsabilidade no caso de descumprimento408. E a terceira crítica seria a sua baixa eficácia
como fator de contribuição para a conformação da conduta das empresas, sendo considerada,
por parte da literarura, como “de fachada fraca, que serve apenas para desviar ou atrasar a
atenção legislativa necessária”409.
Esse capítulo apresentou a governança como um fenômeno amplo e abrangente, que
funciona como uma estrutura para acomodar as diferentes interações entre as partes
interessadas. No ecossistema das redes sociais, a governança é exercida pelas plataformas, em
405
KELLER, Clara Iglesias. Regulação nacional de serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 100.
406
O termo soft law, embora controverso, é utilizado na área de direito internacional como um instrumento
normativo, à margem do tratado (concepção tradicional) e outras fontes internacionais elencados pelo artigo 38 do
Estatuto da Corte Internacional de justiça. Surgiu para possibilitar que atores internacionais celebrem acordos que
possam respeitar, mas livres das pressões do pacta sunt servanda e das restrições de sua liberdade de ação e
apresenta-se como consequência da realidade das práticas de direito internacional, onde é necessária uma rápida
reação aos problemas de preocupação global. CASTAÑEDA, Fabián Augusto Cárdenas. A Call for Rethinking
the Sources of International Law: Soft Law and the Other Side of the Coin. In: Anuario Mexicano de Derecho
Internacional, vol. 13, 2013, p. 355-403, p. 376. Um dos conceitos mais utilizados é o de Christine Chinkin, no
qual soft law são “instrumentos que variam de tratados, mas que incluem apenas obrigações leves, a resoluções e
Códigos de Conduta não vinculativos ou voluntários formulados e aceitos por organizações internacionais e
regionais e declarações preparadas por indivíduos sem capacidade governamental, mas que pretendem lançar
princípios internacionais”. Nesse contexto, um instrumento de soft law, como por exemplo, o Código de conduta
de Desinformação, apesar de não alterar o status legal dos princípios, tem por função a padronização dos
comportamentos entre aqueles que aceitaram essa regulação. CHINKIN, Christine. The Challenges of Soft Law:
Development and Change in International Law. In: The International and Comparative Law Quaterly, vol.
38,1989, p. 850-866, p. 851.
407
CALLAMARD, Agnés. The Human Rights Obligations of Non-State Actors. In: Human rights in the age of
platforms. Editor: Rikke Frank Jørgensen: Cambridge, MA: The MIT Press. 2019, p. 202. Disponível em:
file:///C:/Users/user/Downloads/1005622.pdf Acesso em 30/05/2022.
408
KELLER, Clara Iglesias. Regulação nacional de serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 100.
409
LAIDLAW, Emily B., Internet Gatekkepers, Human Rights and Corporate Social Responsabilities, 2012,
304 F. Tese (doutorado) – London School of Economics And Political Science, London, 2021, p. 78.
131
razão do próprio aparato técnico operado. Esse fato levou a literatura especializada a criticar a
legitimidade das plataformas (enquadramdo-se também as redes sociais) para exercerem,
sozinhas (definindo regras, conformando condutas e resolvendo disputas, sem a participação do
usuário, Estados ou outros atores interessados), essa governança. Para solidificar essa
governança, foram apresentadas algumas teorias trazidas pela literatura.
O próximo capítulo granulariza mais o tema e passa a tratar da regulação, ferramenta
utilizada para o exercício da governança, direcionando o foco para os atores que podem exercê-
las. O objetivo do próximo capítulo é investigar, justamente, os arranjos institucionais cabíveis
quando se fala em moderação de conteúdo para se aproximar do ponto central deste trabalho, a
existência de um papel para o Estado nesta regulação.
132
O presente capítulo direciona o foco para a regulação das plataformas de redes sociais,
mais precisamente aos atores que podem estar envolvidos nessa regulação. Para isso, dividiu-
se o capítulo em três partes. Em um primeiro momento será realizada uma breve introdução
sobre o cenário teórico da configuração estatal em que se desenvolveu o tema sobre regulação
das plataformas de redes sociais, à luz da perspectiva do Estado Regulador e sua transformação
em uma sociedade complexa.
Neste ponto, é importante ressalvar que não se pretende abordar com profundidade as
diversas teorias que envolvem o assunto, pois foge ao escopo deste trabalho. No entanto, é
importante mencioná-las, pois servem para identificar o desenho institucional tradicional, com
especial atenção para o papel das Agências Reguladoras dentro deste modelo de Estado, e
conceder suporte a novas alternativas de arranjos regulatórios, uma vez que a regulação das
plataformas se desenvolve em um ambiente tecnológico complexo, globalizado e novo, o que
traz incerteza sobre as escolhas a serem feitas.
Feita essa introdução, em segundo momento serão analisadas duas questões. A primeira,
por lógica, é indagar se as plataformas devem ser reguladas, isto é, entender o porquê se fala
em regulação das plataformas. Na verdade, será destacado neste ponto que as plataformas
sempre foram reguladas. O segundo ponto se relaciona aos arranjos institucionais cabíveis para
essa regulação, ou seja, qual é o rol de instituições responsáveis para exercer o papel regulatório
(entendido aqui como regulação em sentido amplo, isto é, a regulação exercida por meio de
atores e formas variadas, como, por exemplo, atores estatais e não-estatais, leis e instrumentos
de soft law, códigos de conduta, termos de uso, dentre outros).
Ao final do capítulo, serão trazidas algumas experiências estrangeiras com essas
estruturas a fim de possibilitar uma avaliação crítica sobre os diversos arranjos possíveis para
destacar a corregulação como a estrutura mais adequada a regular as plataformas de redes
sociais, já que ela é a mais propensa a preservar as características do ambiente regulatório que
envolve a internet, principalmente a abertura e democracia, e, ao mesmo tempo, promover os
valores constitucionais e trazer mais responsabilidade à atuação das plataformas sociais.
133
410
A literatura sobre a evolução do Estado e a maneira que esse usa o poder e o legitima é extensa. Não é o objetivo
deste trabalho detalhá-las, o que tem sido feito pela doutrina administrativista. O que se busca nesse momento é
contextualizar o leitor sobre a evolução da configuração do Estado e seus arranjos institucionais regulatórios, com
ênfase na organização do Estado Regulador, e demonstrar que essas características se desenvolveram de acordo
com as transformações sociais, políticas e econômicas ocorridas em um momento histórico específico.
411
A referência aos modelos de Estado (Liberal, Intervencionista, Regulador e Pós-Regulador) é utilizada, a partir
do nascimento da figura do Estado, para expressar a sua forma de configuração e fixar suas relações com a política
econômica e social de uma determinada época. O fim do feudalismo trouxe a necessidade de organizar
politicamente um determinado povo situado sob um determinado território através do monopólio da coerção
(soberania) a fim de se alcançar ordem e coesão social. (CHEVALLIER, Jacques. O Estado pós-moderno.
Tradução de Marçal Justen Filho. Belo Horizonte: Fórum, 2009, p.24). A partir de então cada período de tempo é
caracterizado por um conjunto de valores centrais que guiam a organização política, e, a depender do campo do
conhecimento aplicado, tem-se uma nomenclatura diferente para traduzir um mesmo fenômeno relacionado ao
conjunto de interações entre Estado e sociedade e suas transformações que refletem nas instituições políticas,
econômicas e sociais do Estado.
412
ARAGÃO. Alexandre Santos. Agências Reguladoras e a evolução do direito administrativo econômico.
3ed. Rio de Janeiro: Forense, 2013.pp. 56-71. O autor faz menção que as nomenclaturas “Estado de bem-estar,
Estado social, pós-capitalista, pós-industrial, intervencionista e, mais recentemente, regulador, pós-moderno, ect”
não recebem denominação adequada para uma manifestação jus-política tão complexa como essa, pelo que a
melhor referência seria pela expressão “Estado Democrático de Direito”, que possibilita a adoção de outros
submodelos que melhor expressem o conteúdo da Carta Constitucional.
413
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004, p.6.
134
expansivo com o objetivo de conduzir a sociedade em seus diversos aspectos. Pode-se dizer
que o Estado Intervencionista pode ser traduzido na tentativa de fazer coexistir o fortalecimento
da atuação estatal e a emancipação social, através da efetivação dos direitos sociais em nome
da igualdade e da cidadania414.
Em apertada síntese, sob um viés econômico, pode-se dizer que esse modelo estatal
ultrapassou os dogmas liberais clássico415, notadamente, aquele da mão invisível do Estado
como o único mecanismo regulador, em favor da intervenção estatal como um segundo
mecanismo de alocação de recursos416. Do ponto de vista político, observa-se o crescimento do
pluralismo ideológico, em resposta a ameaças de políticas totalitárias, com a assunção de
compromissos sociais, de cidadania e de justiça distributiva417.
A partir dos anos de 1970, contudo, assistiu-se a necessidade de reavaliar o papel do
Estado sob as perspectivas econômicas e sociais de suas relações com a sociedade e mercado,
em razão da crise econômica mundial e da internacionalização das relações negociais e
sociais418, o que trouxe interdependência entre os Estados e, por consequência, abalo na noção
de soberania419. A aceleração do desenvolvimento tecnológico tornou a economia globalizada,
ou seja, mais integrada e capaz de se sobrepor a capacidade dos Estados nacionais de planificar
suas economias.
Novas propostas de um novo modelo político-econômico neoliberal420, adotado pelos
governos de Margareth Thatcher e Ronald Reagan (com variações), na década de 80,
414
BENTO, Leonardo Valles. Governança e governabilidade na reforma do Estado: entre eficiência e
democratização. Barueri: Manole, 2003, p. 10. Livro Digital disponível em: https://sb.fgv.br/catalogo/index.html
Acesso em 30/05/2022.
415
O liberalismo clássico defendido por Adam Smith pregava que o mercado andaria por conta própria e a única
fonte de riqueza seria o trabalho. Sobre as ideias desse autor, remete-se o leitor para DOMINGO, Rafael (Ed.).
Juristas universales. Madrid: Marcial Pons, 2004. P. 641-646. V.2.
416
BENTO, Leonardo Valles. Governança e governabilidade na reforma do Estado: entre eficiência e
democratização. Barueri: Manole, 2003, p. 35. Livro Digital disponível em: https://sb.fgv.br/catalogo/index.html
Acesso em 30/05/2022.
417
BENTO, Leonardo Valles. Governança e governabilidade na reforma do Estado: entre eficiência e
democratização. Barueri: Manole, 2003, p. 36. Livro Digital disponível em: https://sb.fgv.br/catalogo/index.html
Acesso em 30/05/2022.
418
A internacionalização das relações é marcada pela globalização, que, segundo Odete Medauar é a
“transnacionalização acelerada dos mercados, dos capitais, da produção, das relações econômicas, do consumo,
sem limites territoriais, em que ocorre a superação de restrições de espaço e tempo, com capacidade do tratamento
instantâneo de um grande número de informações”. MEDAUAR, Odete. O direito administrativo em evolução.
2ª. ed. São Paulo: RT, 2003, p. 94.
419
CHEVALLIER, Jacques. O Estado pós-moderno. Tradução de Marçal Justen Filho. Belo Horizonte: Fórum,
2009. p.29-37.
420
A título de curiosidade, conforme apontado por Leonardo, o pensamento neoliberal nasceu logo depois da
segunda guerra mundial, quando o modelo de Estado do bem-estar estava em crescente progresso. O marco teórico
do neoliberalismo é a obra de Friedrich Hayek. BENTO, Leonardo Valles. Governança e governabilidade na
reforma do Estado: entre eficiência e democratização. Barueri: Manole, 2003. P. 39. Livro Digital disponível
em: https://sb.fgv.br/catalogo/index.html Acesso em 30/05/2022.
135
421
Quando se fala em desregulação no Estado Regulador pode parecer paradoxal, no entanto, o termo aponta para
a ruína dos métodos tradicionais de regulação e controle, sob a pressão de novas forças tecnológicas, econômicas
e ideológicas, e combinação de desregulação, em alguns setores, com nova regulação, em um nível diferente de
governança. Por exemplo, a privatização de serviços de utilidade pública foi normalmente seguida por regulação
de preços. A desregulação também pode significar uma regulação menos rígida e restritiva. MAJONE,
Giandomenico. Do Estado Positivo ao Estado Regulador: Causas e consequências da mudança do modo de
governança. In: Regulação Econômica e Democracia: o debate europeu. Coordenação e tradução: Paulo
Todescan Lessa Mattos. 2 ed.rev. – São Paulo: editora Revista dos Tribunais. 2017, p. 59.
422
MEDAUAR, Odete. O direito administrativo em evolução. 2ª. ed. São Paulo: RT, 2003, pp. 94-97.
423
FRIEDMAN, Milton. Capitalismo e liberdade. LTC Editora, 2014. Disponível em:
https://edisciplinas.usp.br/pluginfile.php/5114393/mod_resource/content/1/FRIEDMAN.pdf Acesso em
30/05/2022.
424
BENTO, Leonardo Valles. Governança e governabilidade na reforma do Estado: entre eficiência e
democratização. Barueri: Manole, 2003. P. 50. Livro Digital disponível em: https://sb.fgv.br/catalogo/index.html
Acesso em 30/05/2022.
425
O Estado Regulador é inspirado no modelo estadunidense de Estado Administrativo. Segundo Sérgio Guerra,
esse modelo de estado é estruturado por meio de agências executivas e reguladoras, fora do aparato burocrático do
Poder Executivo. Sua formação destacada ocorre em razão da origem do modelo de governança americano, que,
em razão da influência negativa exercida pelo governo inglês sob as colônias americanas, originadas dos abusos e
violações nos direitos e liberdades individuais, fez com que os “founding fathers” da Constituição Americana
restringissem os poderes do Chefe do Poder Executivo. GUERRA, Sérgio. Separação de Poderes, Executivo
136
Unitário e Estado Administrativo no Brasil. In: Teoria do Estado Regulador/organização Sérgio Guerra/
Curitiba: Juruá, V.3, 2017, p. 12-13. Outra razão para o sucesso no desenvolvimento deste modelo está atrelada a
preferência da cultura do povo americano pela atividade econômica privada, ao passo que exigi-se do Estado dirigir
essa atividade para assegurar objetivos sociais e econômicos. Um período chave para o crescimento do Estado
Regulatório nos Estados Unidos foi o período associado ao New Deal, aproximadamente em 1960. SCOTT, Colin.
Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin; LEVI-FAUR,
David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of Governance. 2004,
p.07.
426
Registre-se que os termos governança e governabilidade são distintos. Governabilidade se refere às condições
do ambiente político em que se efetivam ou devem efetivar-se as ações da administração, à base de legitimidade
dos governos, credibilidade e imagem pública da burocracia. Sobre governança, remete-se o leitor para o capítulo
anterior. BENTO, Leonardo Valles. Governança e governabilidade na reforma do Estado: entre eficiência e
democratização. Barueri: Manole, 2003, p. 85. Livro Digital disponível em: https://sb.fgv.br/catalogo/index.html
427
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance.2004, p.6.
428
GUERRA, Sérgio. Discricionariedade, regulação e reflexividade: uma Nova Teoria sobre as Escolhas
Administrativas. 5ed. Ver.eatual. 1. Reimpressão – Belo Horizonte: Fórum,2019, p 124.
429
CHEVALLIER, Jacques. O Estado pós-moderno. Tradução de Marçal Justen Filho. Belo Horizonte: Fórum,
2009, p.72.
430
GUERRA, Sérgio. Discricionariedade, regulação e reflexividade: uma Nova Teoria sobre as Escolhas
Administrativas. 5ed. Ver.eatual. 1. Reimpressão – Belo Horizonte: Fórum,2019, p 124.
431
A propriedade pública, historicamente, foi o modo principal de regulação econômica na Europa. Supunha-se
que a propriedade estatal daria ao Estado o poder de impor uma estrutura planejada a economia, protegendo, ao
mesmo tempo, o interesse público. Contudo, com o tempo observou-se que propriedade e controle não eram
sinônimos. Segundo Majone, “o problema de impor controle público efetivo sobre grandes empresas
nacionalizadas, mostrou-se tão impraticável que o objetivo principal, pelo que haviam sido ostensivamente criadas
– regular a economia em razão do interesse público -, foi quase esquecido”. Assim, a falha da regulação por meio
de bens públicos explica a mudança para um modo alternativo de controle, no qual os serviços públicos,
considerados como importantes, são deixados nas mãos das empresas privadas, mas sujeitos ao controle de
agências técnicas e especializadas. Daí o nexo causal entre privatização e Estado Regulador. MAJONE,
Giandomenico. Do Estado Positivo ao Estado Regulador: Causas e consequências da mudança do modo de
governança. In: Regulação Econômica e Democracia: o debate europeu. Coordenação e tradução: Paulo
Todescan Lessa Mattos. 2 ed.rev. – São Paulo: editora Revista dos Tribunais. 2017, pp. 59-60.
137
432
CHEVALLIER, Jacques. O Estado pós-moderno. Tradução de Marçal Justen Filho. Belo Horizonte: Fórum,
2009, p.59.
433
Giandomenico Majone explica que existem 3 principais teorias político-econômicas sobre intervenção do
Estado na economia: (i) redistribuição de renda: transferência de recursos de um grupo de indivíduos ou regiões
para outro grupo, além da provisão de “bens de mérito”, como educação, seguridade, etc.; (ii) estabilização
macroeconômica: persegue níveis satisfatórios de crescimento econômico e emprego através de instrumentos e
política fiscal e monetária, mercado de trabalho e política industrial; e, (iii) regulação de mercados: cujo objetivo
é corrigir as falhas de mercado. No estado intervencionista, a importância atribuída às políticas de redistribuição e
à administração discricionária da demanda agregada começou a desmoronar a partir dos anos de 1970, surgindo a
noção de falha de governo, com os teóricos da escolha publica (public choice), para identificar vários tipos de
falhas no setor público. MAJONE, Giandomenico. Do Estado Positivo ao Estado Regulador: Causas e
consequências da mudança do modo de governança. In: Regulação Econômica e Democracia: o debate europeu.
Coordenação e tradução: Paulo Todescan Lessa Mattos. 2 ed.rev. – São Paulo: editora Revista dos Tribunais. 2017,
p. 57.
434
CHEVALLIER, Jacques. O Estado pós-moderno. Tradução de Marçal Justen Filho. Belo Horizonte: Fórum,
2009, p.72.
435
CHEVALLIER, Jacques. O Estado pós-moderno. Tradução de Marçal Justen Filho. Belo Horizonte: Fórum,
2009, pp.59-60.
138
436
CHEVALLIER, Jacques. O Estado pós-moderno. Tradução de Marçal Justen Filho. Belo Horizonte: Fórum,
2009, p.73.
437
CHEVALLIER, Jacques. O Estado pós-moderno. Tradução de Marçal Justen Filho. Belo Horizonte: Fórum,
2009, p.73.
438
MAJONE, Giandomenico. Do Estado Positivo ao Estado Regulador: Causas e consequências da mudança do
modo de governança. In: Regulação Econômica e Democracia: o debate europeu. Coordenação e tradução:
Paulo Todescan Lessa Mattos. 2 ed.rev. – São Paulo: editora Revista dos Tribunais. 2017, pp. 64-67.
439
ARAGÃO. Alexandre Santos. Agências Reguladoras e a evolução do direito administrativo econômico.
3ed. Rio de Janeiro: Forense,2013, pp.92-93.
440
MAJONE, Giandomenico. Do Estado Positivo ao Estado Regulador: Causas e consequências da mudança do
modo de governança. In: Regulação Econômica e Democracia: o debate europeu. Coordenação e tradução:
Paulo Todescan Lessa Mattos. 2 ed.rev. – São Paulo: editora Revista dos Tribunais. 2017, pp. 68-71.
139
de legitimidade dos reguladores passa a ser a força do conhecimento específico que pode trazer
mais eficiência às escolhas públicas em substituição ao modelo majoritário441.
Majone aponta que a legitimidade das agências independentes pode ser visualizada sob
uma dimensão procedimental e outra substancial. A legitimidade procedimental resulta da
criação das agências através de leis, democraticamente promulgadas, que definem os objetivos
a serem perseguidos pelas agências; dos reguladores serem nomeados por funcionários eleitos;
da tomada de decisões regulatórias seguirem regras formais e permitirem a participação pública;
e, das decisões das agências serem abertas ao escrutínio judicial e serem justificadas442.
Por outro lado, a legitimidade substancial deriva da coerência das matérias políticas, do
conhecimento específico e habilidade de solucionar problemas pelos reguladores eleitos; da
proteção concedida aos interesses coletivos; e de uma definição dos objetivos da agência, que
permite aos diretores das agência traçar agendas bem definidas que possam ser aferidas
posteriormente (esse último elemento facilita a responsabilização pelos resultados)443.
Essa medida assegura o pluralismo, sem retirar totalmente o poder de controle do chefe
do Poder Executivo ou do Poder legislativo. Segundo Alexandre Aragão:
441
Segundo Majone, as democracias são consideradas como governos da maioria. Uma formulação radical dessa
teoria sustenta que as maiorias deveriam controlar o governo. Essa concepação gera, por consequência um governo
centralizado e unitário, o contrário do modelo do Estado Regulador, caracterizado pelo pluralismo, pela difusão
de poder e delegação de tarefas à instituição não majoritárias, como as Agências Reguladoras. MAJONE,
Giandomenico. Do Estado Positivo ao Estado Regulador: Causas e consequências da mudança do modo de
governança. In: Regulação Econômica e Democracia: o debate europeu. Coordenação e tradução: Paulo
Todescan Lessa Mattos. 2 ed.rev. – São Paulo: editora Revista dos Tribunais. 2017, p. 75.
442
MAJONE, Giandomenico. Do Estado Positivo ao Estado Regulador: Causas e consequências da mudança do
modo de governança. In: Regulação Econômica e Democracia: o debate europeu. Coordenação e tradução:
Paulo Todescan Lessa Mattos. 2 ed.rev. – São Paulo: editora Revista dos Tribunais. 2017, p. 76.
443
MAJONE, Giandomenico. Do Estado Positivo ao Estado Regulador: Causas e consequências da mudança do
modo de governança. In: Regulação Econômica e Democracia: o debate europeu. Coordenação e tradução:
Paulo Todescan Lessa Mattos. 2 ed.rev. – São Paulo: editora Revista dos Tribunais. 2017, p. 77.
444
ARAGÃO. Alexandre Santos. Agências Reguladoras e a evolução do direito administrativo econômico.
3ed. Rio de Janeiro: Forense,2013, p.91.
140
445
MARQUES NETO, Floriano de Azevedo Marques. Ensaio sobre o processo como disciplina do exercício da
atividade estatal. 2012, In: Teoria do Processo – Panorama Doutrinário Mundial ed. Salvador: Editora Podium,
2007, p. 261-285. P.266.
446
No Brasil, no que se refere à participação pública, há na Lei 13.848/2019 (Lei das Agências Reguladoras) a
previsão no artigo 9º da realização de consultas públicas para a edição de atos normativos. Em um contexto mais
amplo, a consulta pública está disciplina também na Lei de Introdução as Normas do Direito Brasileiro – LINDB,
no artigo 29, que traz uma condição prévia para a edição de atos normativos pela autoridade administrativa. A
partir da vigência desta regra legal é possível falar na consulta pública como um poder-dever, que encontra
fundamento no devido processo legal, aplicável ao processo normativo administrativo. A necessidade de realização
de consulta pública relaciona-se com o dever de motivação dos atos normativos, que decorre do próprio devido
processo legal e do direito de os administrados conhecerem a fundamentação desses atos, quando houver confronto
com a esfera de seus direitos. A motivação somente será observada se for fornecido acesso aos elementos que
circundam a minuta do ato normativo, embasando a atividade regulatória. A partir daí é possível o exercício do
direito de defesa dos interesses que determinado ato normativo irá atingir. A consulta pública, seria, então, “o
caminho (procedimento) por meio do qual se materializa a efetiva motivação dos atos normativos da
Administração”. O cumprimento do dever de motivação, que decorre da participação popular e não é satisfeito por
motivação unilateral, é proporcionado pelo diálogo travado pela consulta pública. MONTEIRO, Vera. Art. 29 da
LINDB. Regime jurídico da consulta pública. Rev. Direito Adm., Rio de Janeiro, Edição Especial: Direito Público
na Lei de Introdução às Normas de Direito Brasileiro – LINDB (Lei nº 13.655/2018), p. 225-242, nov. 2018, p.
232. Disponível em: file:///C:/Users/RRBSC/Downloads/77656-Texto%20do%20Artigo-162000-1-10-
20181123.pdf Acesso em 05/12/2020.
447
MARQUES, Floriano Azevedo. Direito das Telecomunicações e Anatel. In: Direito Administrativo
Econômico. Coord.: Carlos Ari Sundfeld, Ed. Malheiros, São Paulo, 2000, pp. 301-302.
141
penetre na seara jurídica para que o campo regulado tenha chances de alcançar uma regulação
eficiente.
É importante observar que o agente econômico age movido por um conjunto de fatores
do subsistema social econômico, e não apenas pelas normas do subsistema jurídico. Conforme
apontado por Alexandre Aragão, para esse agente o “cumprimento ou descumprimento de uma
norma jurídica é mais um dos elementos das relações de custo-benefício com as quais lida na
condução de seus negócios”448. Por isso, a atividade regulatória não pode se esquivar de uma
análise econômica do setor que será regulado, vez que a observância de uma norma envolverá
a ponderação dos benefícios da conduta proibida não excederem os seus respectivos custos de
cumprimento.
As transformações sociais também impõem novos desafios. A presença da tecnologia e
o crescimento do uso da internet levaram a globalização e modificação do papel central exercido
pelos Estados. Nesse contexto, pode-se mencionar, a título de exemplo, a regulação pelo
código449 exercida pelas plataformas de redes sociais. Assim, a atividade desenvolvida pelas
plataformas na camada de conteúdo abandona a característica da centralidade da regulação no
Estado através da lei como principal mecanismo da regulação, que, em razão das questões
técnicas e específicas do ambiente em que se desenvolve a prestação desse serviço, não seria o
mais adequado a gerar a eficiência desejada.
É por isso que, parte da literatura, como Colin450 e Black451, compartilham o
entendimento sobre a existência de uma nova fase, a de um Estado Pós-Regulatório, que
demanda a “mudança de foco da análise da lei estatal para outras formas mais amplas de normas
e mecanismos para se alcançar o controle, ainda que de forma indireta”452.
448
ARAGÃO. Alexandre Santos. Agências Reguladoras e a evolução do direito administrativo econômico.
3ed. Rio de Janeiro: Forense,2013, p.94.
449
Veja o tópico 4.1.3 deste trabalho.
450
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004
451
BLACLK, Julia. Decentring Regulation: Understanding the Role of Regulation and Self-Regulation in a “post-
Regulatory” world. Current Legal Problems. 2001.
452
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004, p.02. Note-se, contudo, conforme destacado pelo próprio autor que esse exercício é
complementar a regulação estatal.
142
453
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004, pp.10-11.
454
Essas críticas serão analisadas de forma mais profunda quando analisada a regulação direta. Remete-se o leitor
para o tópico 4.3.1.
455
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA,
Jacin; LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004, p. 28.
143
456
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA,
Jacin; LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004, pp. 35-37.
457
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA,
Jacin; LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004, p. 37.
144
trabalho, é uma ferramenta à disposição das plataformas para regular o ambiente online, que,
eventualmente, censuram conteúdos indesejados pela sociedade por serem negativos.
Em que pesem todas as críticas à moderação de conteúdo, essa tarefa é essencial. As
plataformas não podem ser neutras, já que elas precisam manter o espaço digital saudável.
Entretanto, os limites dessa atividade precisam estar delimitados pelo que seja socialmente
desejável. O processo de organização dessa atividade deve ser conformado pelo interesse
público, mas essa questão é de difícil interpretação.
Para fundamentar a resposta, é preciso resgatar o modelo de negócio desenvolvido pelas
plataformas de redes sociais, apresentado na introdução deste trabalho, e salientar três funções
centrais exercidas pelas plataformas de redes sociais na esfera pública458. A primeira delas
corresponde a facilitação que as mídias sociais promovem para a participação do público na
arte, na política e na cultura. A segunda é que as mídias sociais organizam conversas públicas
para que as pessoas possam se encontrar e se comunicar umas com as outras. E a terceira é que
as mídias sociais selecionam a opinião pública, não apenas por meio de resultados e feeds de
pesquisa individualizados, mas também por meio da aplicação de padrões e termos de serviço
da comunidade. As mídias sociais fazem curadoria não apenas removendo ou reorganizando o
conteúdo, mas também regulando a velocidade de propagação e o alcance do conteúdo.
São essas funções que, segundo Balkin (2021), em uma esfera pública, concretizam os
valores da liberdade de expressão, que se correlaciona com uma cultura democrática, que
permite aos indivídios participar livremente das formas de poder que os afetam, na qual há a
promoção do conhecimento que sustenta uma democracia política 459. Nas palavras do autor
referenciado:
458
BALKIN. Jack M. How regulate (and not regulate) social media. Journal of Free Speech Law 71 (2021) , Knight
Institute Occasional Paper Series, No. 1 (March 25, 2020), Yale Law School, Public Law Research Paper
Forthcoming, Available at SSRN: https://ssrn.com/abstract=3484114 Acesso em 01/06/2022.
459
Em que pese a divergência sobre o conceito de democracia política, Balkin argumenta que os valores políticos
democráticos envolvem a participação na formação da opinião pública, que permite ao Estado responder à
evolução da opinião pública, e a possibilidade de formar um público informado sobre questões de interesse público.
BALKIN. Jack M. How regulate (and not regulate) social media. Journal of Free Speech Law 71 (2021) , Knight
Institute Occasional Paper Series, No. 1 (March 25, 2020), Yale Law School, Public Law Research Paper
Forthcoming, Available at SSRN: https://ssrn.com/abstract=3484114 Acesso em 01/06/2022.
145
esfera pública que funciona mal, por outro lado, mina a democracia política e
cultural e impede o crescimento e a disseminação do conhecimento460.
5.2.1 A ascensão das plataformas digitais à regulação de conteúdo nas redes sociais
Duas visões a respeito da regulação da internet predominaram no início dos anos 1990.
A primeira delas, segundo Clara Keller, foi a excepcionalista462, e tinha entre seus principais
defensores Jonh Perry Barlow, David Johnson e David Post. Essa teoria preconiza, em síntese,
que o espaço digital é um local separado do Estado-nação, com completa autonomia, onde
impera a liberdade criativa. Na conhecida “declaração de independência do ciberespaço”, por
460
BALKIN. Jack M. How regulate (and not regulate) social media. Journal of Free Speech Law 71 (2021), Knight
Institute Occasional Paper Series, No. 1 (March 25, 2020), Yale Law School, Public Law Research Paper
Forthcoming. P.75-76. Available at SSRN: https://ssrn.com/abstract=3484114 Acesso em 01/06/2022. Trecho
original (p.78): Social media perform their public functions well when they promote these three central values:
political democracy, cultural democracy, and the growth and spread of knowledge. More generally, a healthy,
well- functioning digital public sphere helps individuals and groups realize these three central values of free
expression. A poorly functioning public sphere, by contrast, undermines political and cultural democracy, and
hinders the growth and spread of knowledge.
461
Como exemplo de escândalos públicos com o uso de plataformas, retoma-se os exemplos já mencionados nesta
introdução, como aquele da Cambridge Analytica, a intereferência nas eleições presidenciais, o conflito de
Mianmar, além dos casos do uso de algoritmos com viés discriminatório, o caso do sistema COMPAS, abordados
ao longo deste trabalho.
462
Importante fazer o registro de que essa teoria se diferencia daquela conhecida como ciberlibertária,
principalmente, no que se refere as suas consequências. Ambas rejeitam a regulação da internet, no entanto, há
certas nuances que devem ser destacadas. O ciberlibertarismo defende que a internet não pode ser regulada,
enquanto o excepcionalismo preconiza a internet como algo único, sujeita à tratamento especial, que pode inclusive
ser o “não tratamento”. KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção,
legitimidade e o papel do Estado. Rio de Janeiro: Lumen Juris. 2019, pp. 132-140.
146
Jonh Perry Barlow (1196), foi apontado o “surgimento da internet como uma força
democratizante, descentralizada, sem limites territoriais e imune ao controle institucional” 463.
Para os autores, a internet deveria se desenvolver sem as amarras que regulavam os meios de
comununicação já conhecidos.
Conforme apresentado pela autora464, David Post e David Johnson ressaltaram que a
impossibilidade de regular a internet é fundamentada na necessidade de regras independentes
das regulações vinculadas às jurisdições territoriais. Para que ela fosse eficazmente regulada
suas leis deveriam envolver apenas questões de propriedade, personalidade jurídica e outros
valores que fossem importantes para a comunidade virtual.
Em resposta a essa visão excepcionalista, Joel Reidenberg (1998)465 e Lawrece Lessig
(2006)466, dentre outros467, observaram que a internet também estaria atrelada a alguma forma
de controle, sendo certo que a “arquitetura de sistemas a partir do qual a internet é construída
constitui, em si, uma forma de regulação”468, isto é, a internet estaria sujeita as mesmas
dinâmicas que se aplicavam as relações normais de poder.
Joel Reidenberg, a partir da observação que a informação se tornou uma mercadoria
internacional, apontou que os quadros jurídicos existentes não estavam adequadamente
adaptados para as demandas existentes. E, na ausência de regras jurídicas, a tecnologia, através
de sua própria arquitetura, traz um conjunto de regras que direcionam o fluxo de comunicação
no ambiente online, o que ele nomeu como lex informática, de forma a regular o ambiente
vittual469.
463
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 7.
464
KELLER, Clara Iglesias (2019). Regulação Nacional de Serviços na internet: exceção, legitimidade e o
papel do Estado. Rio de Janeiro: Lumen Juris. P. 8
465
REINDENBERG, Joel R. Lex Informatica: The formulation of Information Policy Rules Through Tecnology,
Texas Law Review, vol. 76, n. 3, 1998, pp. 553-584.
466
LESSIG, Lawrence. Code, Version 2.0, New York: Basic Books, 2006.
467
Tim Wu também publicou alguns trabalhos que negam a teoria excepcionalista, aduzindo que a internet não
receberia um tratamento especial e independente dos Governos ao longo do tempo. GOLDSMITH, Jack e WU,
Tim. Who controls the internet? Illusions of a bordless world. New York: ofxord University Press, 2006. WU,
Tim. Cyberspace Sovereignty? The internet and the Internacional System. Harvard Journal of Law and
Technology, v. 10, n. 3, 1997. Disponível em: http://jolt.law.harvard.edu/articles/pdf/v10/10HarvJLTech647.pdf
No entanto, em outro artigo publicado, ele compartilha reflexão mais profunda sobre o tema. Neste, o autor aborda
que a internet não seria exceção a um tratamento diferenciado pelo direito, mas poderia ser em razão do seu
tratamento sob o viés da tecnologia da informação, vez que houveram profundas mudanças na forma de
comunicação a nível global. WU, Tim, Is Internet Exceptionalism Dead? (Dezembro, 2010). The Next Digital
Decade - Essays on the future of the internet, p. 179, Berin Szoka, Adam Marcus, eds., TechFreedom,
Washington, D.C., 2010, Disponível em: https://ssrn.com/abstract=1752415
468
Keller, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 8.
469
REINDENBERG, Joel R. Lex Informatica: The formulation of policy rules through tecnology, Texas
Review, vol. 76, n. 03, 1998, pp. 553-584.
147
Nessa mesma linha, Lessig rejeitou a excessiva intervenção estatal, no entanto, alertou
que autorregulação poderia levar ao controle da internet por interesses corporativos, dominados
por empresas privadas. Lessig argumenta que há quatro modalidades de intervenção regulatória
que podem ser aplicadas no espaço físico, mas também ao espaço digital: (i) leis; (ii) normas
sociais; (iii) mercado; e, (iv) arquitetura470. Para o referido autor, a arquitetura seria a forma
mais adequada de regular o mundo virtual, vez que os códigos promoveriam uma arquitetura
do sistema capaz de moldar o comportamento dos usuários. Conforme explicado por Clara
Keller:
470
LESSIG, Lawrence. Code and other laws of cyberspace, version 2.0. New York: Basic Books, 2006, p. 290.
471
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris.2019, p. 64
472
LESSIG, Lawrence. Code and other laws of cyberspace, version 2.0. New York: Basic Books, 2006.
473
LESSIG, Lawrence. Code and other laws of cyberspace, version 2.0. New York: Basic Books, 2006, p.136.
148
474
BALDWIN, Robert, CAVE, Martin e LODGE, Martin. Understanding Regulation. Theory, Strategy and
Pratice. 2ed. Oxford: Oxford University. 2012, p.15 Disponível em:
https://oxford.universitypressscholarship.com/view/10.1093/acprof:osobl/9780199576081.001.0001/acprof-
9780199576081-chapter-2 Acesso em 01/06/2022.Trecho original: Regulation in such cases is argued to be
justified because the uncontrolled marketplace will, for some reason, fail to produce behaviour or results in
accordance with the public interest.
475
BALDWIN, Robert, CAVE, Martin e LODGE, Martin. Understanding Regulation. Theory, Strategy and
Pratice. 2ed. Oxford: Oxford University. 2012, pp.15-23 Disponível em:
https://oxford.universitypressscholarship.com/view/10.1093/acprof:osobl/9780199576081.001.0001/acprof-
9780199576081-chapter-2 Acesso em 01/06/2022.
476
PROSSER, Tony. Regulation and Social Solidarity. Journal of Law and Society. Vol. 33. Nº03, 2006, pp.
364–387. Disponível em: https://www.jstor.org/stable/3838855?seq=1 Acesso em 01/06/2022.
149
exercício de direitos e processos que permitam ao mercado funcionar. A regulação serve, então,
para proteger os cidadãos e promover solidariedade social.
Abaixo, portanto, serão destacados três justificativas que se aplicam às redes sociais: (a)
proteção de direitos fundamentais; (b) externalidades produzidas pelas redes sociais; e (c)
assimetrias informacionais.
Uma boa justificativa para regular as plataformas de redes sociais está no respeito e
promoção dos valores protegidos pelo Estado Democrático de Direito, notamente, os direitos
fundamentais, dos quais destacam-se a liberdade de expressão e a proteção de dados dos
usuários e privacidade477. Essa consideração é importante porque, conforme antes mencionado,
as plataformas digitais controlam a arena pública digital, podendo torná-la saudável ao debate
público ou não. É através da atividade de moderação de conteúdo que as plataformas de mídia
controlam as atividades que serão desenvolvidas pelos usuários.
E ao moderar o conteúdo, as plataformas (i) moldam o comportamento dos usuários, o
que afeta o direito à proteção de dados e privacidade; (ii) afetam a produção, distribuição e
circulação de conteúdo cultural, do conhecimento e da informação, o que afeta a democracia e
liberdade de expressão; e (iii) desempenham papel ativo em processos políticos, o que afeta a
democracia; e (iv) censuram discursos dos usuários, o que afeta à liberdade de expressão. E, na
maior parte das vezes, a moderação é feita através de sistemas automatizados, que, em grande
parte são opacos e com vieses discriminatórios, o que causa deficiência em padrões éticos e
justos, além de violar o devido processo nos processos de tomada de decisão.
Outra justificativa para a regulação das plataformas é que atividade desenvolvida pelas
plataformas digitais produzem externalidades negativas. Externalidades, segundo Baldwin,
477
Esse ponto será aprofundado no próximo subtópico.
150
Cave e Lodge478, são os efeitos sociais, econômicos ou ambientais causados, de forma indireta,
pela comercialização do produto ou serviço. Isso significa que as plataformas produzirão danos
decorrentes de suas atividades que não podem ser completamente capturados por transações
comuns de mercado, como é o caso da desinformação e outros efeitos nocivos sistémicos
produzidos e já tatados no primeito capítulo deste trabalho479.
Conforme destacado por Balkin, independente da teoria da liberdade de expressão
adotada, “a competição de mercado não produzirá o tipo de cultura e conhecimento necessários
para um autogoverno democrático, ou crescimento e difusão do conhecimento” 480. O modelo
de negócios praticado pelas plataformas de mídias sociais baseados no capitalismo de vigilância
não permitiria que a produção de bens fosse direcionada para discursos que sustentassem a
democracia política e cultural. Em contrapartida, conforme já exposto, os modelos de negócio
incentivam conteúdos que geram mais engajamento, tais como teorias da conspiração e
discursos que minam as instituições democráticas.
Dessa forma, a regulação obrigará as plataformas a lidar com os efeitos sistêmicos e
estruturais de sua atividade, tornando-se instituições responsáveis e confiáveis a fim de que
possam promover uma esfera pública saudável e não apenas seguir incentivos econômicos.
478
BALDWIN, Robert, CAVE, MARTIN e LODGE, Martin. Understanding Regulation. Theory, Strategy and
Pratice. 2ed. Oxford: Oxford University. 2012, pp.15-23 Disponível em:
https://oxford.universitypressscholarship.com/view/10.1093/acprof:osobl/9780199576081.001.0001/acprof-
9780199576081-chapter-2 Acesso em 01/06/2022.
479
Parte da literatura faz alusão a esses efeitos como riscos sistêmicos, que, de forma indireta, podem atingir a
toda à sociedade. Por isso, há boas razões para que as plataformas sejam consideradas como sistemas que acarretam
certos riscos, tal como os automóveis. Suas operações, portanto, devem levar em consideração os riscos e tomar
todos os cuidados necessários para minimiza-los. Essa visão é adotada na Legislação proposta para regular as
plataformas no Reino Unido (Online Safety Bil) e na União Europeia (Digital Service Act) ao trazer a obrigação
de elaborar uma avaliação de riscos de suas atividades. BAYER, Judit, HOLZNAGEL, Bernar, KORPISAARI,
Paivi, WOODS, Lorna. Conclusions: Regulatory Responses to communication plataforms: models and limits. IN:
Perspetives on Plataform Regulation. Concepts and Models os Social Media Governance Across the Globe.
BAYER, Judit, HOLZNAGEL, Bernar, KORPISAARI, Paivi, WOODS, Lorna (eds). Nomos. Vol. 1. P. 576-577.
Disponível em: https://doi.org/10.5771/9783748929789 Acesso em 01/06/2022. Sobre regulação do risco, Julia
Black observa que a demanda de regulação baseada no risco se expandiu de forma significativa a partir de 1990,
considerando as modificações no modelo de Estado. A justificativa para a regulação de determinadas atividades
passou a se basear nos riscos à saúde ou segurança pública. De maneira geral, pode-se dizer que a regulação do
risco de uma atividade considera duas etapas: (i) a avaliação do risco e o gerenciamento desse. BLACK, Julia.
Risk in Regulatory Processes, p. 3. [s. l.]: Oxford University Press, [s. d.]. ISBN 9780191594007. DOI
10.1093/oxfordhb/9780199560219.003.0014. Disponível em: https://search-ebscohost-
com.sbproxy.fgv.br/login.aspx?direct=true&db=edselc&AN=edselc.2-52.0-80054756021&lang=pt-br&site=eds-
live Acesso em 01/06/2022.
480
BALKIN. Jack M. How regulate (and not regulate) social media. Journal of Free Speech Law 71 (2021), Knight
Institute Occasional Paper Series, No. 1 (March 25, 2020), Yale Law School, Public Law Research Paper
Forthcoming. P.75-76. Available at SSRN: https://ssrn.com/abstract=3484114 Acesso em 01/06/2022. Trecho
original (p.81-82): Whatever your theory of free expression is, market competition won’t produce the kind of
culture and knowledge necessary for democratic self-government democratic culture, or the growth and spread of
knowledge.
151
481
Essa visão parte do pressuposto de que os usuários não possuem condições de tomar decisões, pelo que a
governança deve ser confiada a atores com poder de controle sobre a infraestrutura. Por essa razão, noutro giro,
deve-se impor maiores obrigações ao lado mais poderoso dessas relações. No Reino Unido, a proposta de lei,
Online Safety Bill, adotou essa ideia quando impõe deveres de cuidado às plataformas de redes sociais diante de
um conteúdo nocivo.
482
A ideia principal desenvolvida por Balkin é que as pessoas devem confiar suas informações a esses atores, pelo
que, em contrapartida, a ordem legal deve reconhecer essas relações como de confiança de maneira a oferecer
proteção contra eventuais violações dessa confiança. Por deveres de confidencialidade e cuidado deve-se entender
a obrigação das plataformas digitais de manter os dados dos usuários confidenciais e seguros. Por dever de lealdade
deve-se entender que esses entes intermediários não devem trair a confiança de seus usuários finais ou manipulá-
los. Eles devem garantir que seus sistemas e modelos de negócios estejam alinhados com os interesses dos usuários
e não entrem em conflito com eles. BALKIN. Jack M. The Fiduciary Model of Privacy, 134 HARV. L. REV. 11
(2020). Disponível em: https://harvardlawreview.org/wp-content/uploads/2020/10/134-Harv.-L.-Rev.-F.-11.pdf
Acesso em 01/06/2022. Observa-se, por outro lado, que esse modelo foi criticado por Lina Kahn e David Pozen.
Para eles o modelo propõe um abandono prematuro de uma regulação mais robusta pelo Estado, compactuando
com o poder exercido pelas plataformas digitais. Seria necessário confiar que as plataformas digitais, mesmo com
seus modelos de negócios, pudessem determinar, de forma adequada, o que é do interesse dos usuários, com pouca
fiscalização. Na verdade, a realidade do ambiente digital revela fragilidades e incentivos que são contrários aos
interesses das pessoas e exigem concorrência e outras formas de regulação direta. POZEN, David E.; KHAN, Lina
M. A Skeptical View of Information Fiduciaries, 133 HARV. L. REV. 497, 497 (2019). Disponível em:
https://harvardlawreview.org/2019/12/a-skeptical-view-of-information-fiduciaries/ Acesso em 01/06/2022.
152
483
Em sentido contrário, Balkin defende que as plataformas de mídias sociais devem ser reguladas por três
alavancas: (a) Direito antitruste e de concorrência; (b) Direito de privacidade e proteção ao consumidor; (c)
equilibrar a responsabilidade do intermediário com a imunidade do intermediário. Em seu artigo, o autor conclui
que para tornar a esfera pública digital vibrante e saudável, considerando a promoção da liberdade de expressão é
necessárias instituições intermediárias confiáveis. Por isso, é preciso que a regulação se destine a dar às empresas
de mídia social incentivos para assumir suas responsabilidades apropriadas na esfera pública digital, o que se
alcançara através das alavancas acima mencionadas. BALKIN. Jack M. How regulate (and not regulate) social
media. Journal of Free Speech Law 71 (2021), Knight Institute Occasional Paper Series, No. 1 (March 25, 2020),
Yale Law School, Public Law Research Paper Forthcoming. P.75-76. Available at SSRN:
https://ssrn.com/abstract=3484114 Acesso em 01/06/2022.
484
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.53.
153
485
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019. p.53-54.
486
RAHMAN. K. Sabeel. The New Utilities: Private Power, Social Infrastructure, and the Revival of the Public
Utility Concept, Cardozo Law Review. Vol. 39. 5. pp.1621-1689. 2018. Disponível em:
http://cardozolawreview.com/the-new-utilities-private-power-social-infrastructure-and-the-revival-of-the-public-
utility-concept/
487
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019. p.55.
154
Essas atividades pertencem, portanto, ao rol de atividades econômicas prestadas pela iniciativa
privada, sendo, por consequência protegidas pelo princípio constitucional da livre iniciativa e do valor
social do trabalho, expressos no artigo 1º, IV, bem como da livre concorrência, na forma do artigo 170,
caput, da Carta Constitucional490, consoante antes mencionado. No entanto, por abranger um grande
número de pessoas, afetando interesses da população de forma considerável, e pelo fato do interesse
coletivo se sobrepor ao interesse específico de cada um, é possível que essas atividades recebam a
interferência do Estado.
Para finalizar, é interessante ressaltar a posição de Balkin 491 no sentido contrário. Para
ele não estão presentes as razões para se considerar as atividades desempenhadas pelas
plataformas sociais como de utilidade pública. São elas: (i) controle do preço, pois nas
plataformas os serviços são gratuitos; (ii) garantia de acesso univesal, já que o acesso é livre
para as redes sociais; e (iii) serviço contínuo, uma vez que nas redes sociais o serviço é contínuo,
haja vista o próprio modelo de negócios implementado que demanda atenção dos usuários
finais.
488
Na comunidade europeia são chamados de atividades econômicas de interesse geral, confome previsto no artigo
86 do Tratado de Constituição da Comunidade Europeia. Disponível em: https://eur-lex.europa.eu/legal-
content/PT/TXT/PDF/?uri=CELEX:12002E/TXT&from=PT Acesso em 10/05/2022.
489
ARAGÃO, Alexandre Santos de. Direito dos Serviços Públicos – 4ed. Belo Horizonte: Forum,2017. p. 154.
490
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html. Acesso em 30/05/2022. Art. 1º A República
Federativa do Brasil, formada pela união indissolúvel dos Estados e Municípios e do Distrito Federal, constitui-se
em Estado Democrático de Direito e tem como fundamentos: IV- os valores sociais do trabalho e da livre iniciativa;
Artigo 170: A ordem econômica, fundada na valorização do trabalho humano e na livre iniciativa, tem por fim
assegurar a todos existência digna, conforme os ditames da justiça social, observados os seguintes princípios:
491
BALKIN. Jack M. How regulate (and not regulate) social media. Journal of Free Speech Law 71 (2021), Knight
Institute Occasional Paper Series, No. 1 (March 25, 2020), Yale Law School, Public Law Research Paper
Forthcoming. P.75-76. Available at SSRN: https://ssrn.com/abstract=3484114 Acesso em 10/05/2022.
155
492
BALKIN. Jack M. How regulate (and not regulate) social media. Journal of Free Speech Law 71 (2021), Knight
Institute Occasional Paper Series, No. 1 (March 25, 2020), Yale Law School, Public Law Research Paper
Forthcoming. P.75-76. Available at SSRN: https://ssrn.com/abstract=3484114 Acesso em 10/05/2022.
156
5.3 Algumas lições sobre a regulação do modelo de telecomunicações que podem ser
aplicadas na regulação das plataformas de redes sociais
493
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.56.
494
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, pp.56-60.
495
A Agência Reguladora americana (a Federal Communication Comission – FCC), é responsável pelos serviços
de telecomunicações, inclusive os serviços radiodifusão, o que inclui a televisão, o rádio, comunicações privadas
por telefones e celulares, etc. Dentre as suas competências está a regulação de questões relacionadas ao acesso aos
meios de comunicação, conteúdo audiovidual e à produção e veiculação de notícias de interesse público que
envolvem o debate público (broadcasting regulation). Cabe à FCC garantir que sejam fornecidas outorgas de
licenças aos interessados, desde que estejam presentes a conveniência, interesse e necessidade pública, nos termos
da lei. Cf. Communications Act 1934, alterado pelo Telecommunications Act de 1996. Disponível em:
https://www.fcc.gov/general/telecommunications-act-1996
496
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.60.
157
497
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.61.
498
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, pp.63-64. Para aprofundamento dos problemas sobre
competição enfrentados nos EUA após a política de desregulação, já que esse foge ao escopo deste trabalho, o
leitor pode consultar: CRAWFORD, Susan; SCOTT, Ben. Be careful what you wish for. Why Europe Should
Avoid the Mistakes of US Internet Access Policy. Policy Brief. Berlin: Stiftung Neue Verantwortung, 2015.
Disponível em: https://bit.ly/2YfFgau Acesso em 05/06/2022.
158
499
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, pp.65-66. Trecho original: • Regulation should focus on
eliminating or mitigating those elements that create monopoly, rather than focus on behavior modification. • Rules
should be as “bright-line” (i.e, clearly delineate permissible from impermissible conduct rather than rely on
adjudicating disputes after they arise) and self-executing as possible. • Although agency oversight remains crucial
to ensuring the effectiveness of rules, private litigants need private rights of action as well as agency enforcement
to protect Against political capture or loss of political will. • New technologies are never a panacea for old
problems, and they don’t displace the need for regulation or structural remedies. Absent a watchful regulator,
these markets lend themselves to concentration, cartelization, and segmentation. • Installed customer base, access
to the home, bundling, and the contest for users benefit existing incumbents in their efforts to take over adjacent
markets. • Sometimes, there is no substitute for rate regulation or other “natural monopoly” regulation.
500
BRASIL, Lei 4117/62. Institui o Código Brasileiro de Telecomunicações. Disponível em:
https://www.planalto.gov.br/ccivil_03/LEIS/L4117Compilada.htm Acesso em 30/05/2022.
501
BRASIL, Decreto Presidencial nº 52.795/63. Aprova o Regulamento dos Serviços de Radiodifusão. Disponível
em: http://www.planalto.gov.br/ccivil_03/decreto/antigos/d52795.htm Acesso em 30/05/2022.
502
WIMMER, Miriam. Serviços públicos de radiodifusão? Incoerências, insuficiências e contradições na
regulamentação infraconstitucional. Revista Eletrônica Internacional de Economia Política da Informação,
da Comunicação e da Cultura. Vol. 11. N. 1. 2009. Disponível em:
https://scholar.google.com/citations?view_op=view_citation&hl=pt-
BR&user=yfbP16EAAAAJ&citation_for_view=yfbP16EAAAAJ:Tyk-4Ss8FVUC Acesso em 30/05/2022.
159
503
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html. Acesso em 30/05/2022.
504
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html. Acesso em 30/05/2022.
505
WIMMER, Miriam. Serviços públicos de radiodifusão? Incoerências, insuficiências e contradições na
regulamentação infraconstitucional. Revista Eletrônica Internacional de Economia Política da Informação,
da Comunicação e da Cultura. Vol. 11. N. 1. 2009. Disponível em:
https://scholar.google.com/citations?view_op=view_citation&hl=pt-
BR&user=yfbP16EAAAAJ&citation_for_view=yfbP16EAAAAJ:Tyk-4Ss8FVUC Acesso em 30/05/2022.
506
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html. Acesso em 30/05/2022. Artigo 21: Compete
à União: XI - explorar, diretamente ou mediante autorização, concessão ou permissão, os serviços de
telecomunicações, nos termos da lei, que disporá sobre a organização dos serviços, a criação de um órgão regulador
e outros aspectos institucionais; (Redação dada pela Emenda Constitucional nº 8, de 15/08/95:) XII - explorar,
diretamente ou mediante autorização, concessão ou permissão: a) os serviços de radiodifusão sonora, e de sons e
imagens; (Redação dada pela Emenda Constitucional nº 8, de 15/08/95).
507
BRASIL, Lei 9472/97. Dispõe sobre a organização dos serviços de telecomunicações, a criação e
funcionamento de um órgão regulador e outros aspectos institucionais, nos termos da Emenda Constitucional nº
8, de 1995. Disponível em: http://www.planalto.gov.br/ccivil_03/leis/l9472.htm Acesso em 30/05/2022.
160
Agora, nos termos da Emenda Consitucional nº8/90, artigo 21, XI, da CRFB508, poderia
o Estado prestar o serviço de telecomunicações através de concessão, permissão ou autorização.
Segundo Gustavo Binenbojm509, o objetivo do constituinte com a previsão da figura da
autorização foi a de trazer maior flexibilidade à atuação do Poder Público ante as atividades
econômicas de sua competência. Para o autor, houve proposital liberdade conferida ao
legislador ordinário, que, a depender de sua preferência política, poderá escolher o regime
jurídico das atividades previstas nos incisos XI do artigo 21 da CRFB (público – permitida a
delegação através de concessão ou permissão, nos moldes do artigo 175 da CRFB, ou privado,
através da autorização, baseado no princípio da livre concorrência, artigo 170, IV, CRFB)510.
A autorização, instituto típico de poder de polícia sobre atividades privadas, atualmente,
é utilizado pela Administração Pública, de forma unilateral e vinculada, para alinhar o
desempenho de certa atividade econômica à finalidade pública. Através dela é possível defender
que a Constituição não adotou um sistema binário (atividades públicas ou privadas), mas “um
sistema que comporta dégradés” 511.
A nova Lei Geral de Telecomunicações possibilitou a prestação dos serviços de
telecomunicações pelo regime de direito público, quando presente o interesse coletivo, ou pelo
508
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html. Acesso em 30/05/2022.
509
BINEMBOJM, Gustavo. Assimetria regulatória no setor de transporte coletivo de passageiros: a
constitucionalidade do art 3º da lei 12.996/2014. In: Revista de Direito da Cidade, vol. 09, n. 3. pp. 1268-1285.
2017. Disponível em: https://www.e-publicacoes.uerj.br/index.php/rdc/article/view/29544 Acesso em
01/01/2021. P. 1274-1275.
510
O tema envolve a definição de serviço púbico na Constituição Federal, pelo que é controverso e foge ao escopo
deste trabalho citar todas as suas nuances. Para ilustrar a controvérisa, Sara Jane, na interpretação dos artigos 21 e
175 da CRFB, entende que as atividades previstas no artigo 21 permanecem sendo tratadas como serviços públicos,
entretanto, sua disciplina legal pode atender a outro regime, que não o público. A lei definirá quais as atividades
podem ser objeto de autorização, pelo que se pode concluir, à vista do pensamento da autora, que a escolha do
regime jurídico foi transferida ao legislador infraconstitucional. FARIA, Sara Jane Leite de. Regulação jurídica
dos serviços autorizados. Rio de Janeiro: Lumen Juris, 2005. P. 116-122. Diferentemente, para Alexandre Santos
de Aragão, quando há referência ao termo autorização, não haveria delegação do serviço público, porém atividades
privadas autorizadas. Para ele, a CRFB deu “certa margem de discricionariedade ao Legislador em relação às
atividades enumeradas nos incisos X a XII do artigo 21 para que, diante das revoluções tecnológicas propiciadoras
da concorrência e do princípio da subsidiariedade, enquadre-as como serviços públicos ou como atividades de
interesse público sujeitas a uma regulação de natureza autorizativo-operacional” ARAGÃO, Alexandre Santos de.
Direito dos Serviços Públicos – 4ed. Belo Horizonte: Forum,2017. P. 178. Adotando essa visão, algumas
atividades previstas no artigo 21 teriam sido privatizadas. Por fim, ressalva-se o entendimento de Maria Sylvia
Zanella Di Pietro, para quem, a posição de privatização de algumas das atividades previstas no artigo 21 seria
inconstitucional. DI PIETRO, Maria Sylvia Zanella. Parcerias na Administração Pública: concessão,
permissão, franquia, terceirização, parceria público-privada e outras formas. 7ª. ed., São Paulo: Atlas, 2009
(Capítulo 6).
511
BINEMBOJM, Gustavo. Assimetria regulatória no setor de transporte coletivo de passageiros: a
constitucionalidade do art 3º da lei 12.996/2014. In: Revista de Direito da Cidade, vol. 09, n. 3. p. 1268-1285.
2017, P. 1275. Disponível em: https://www.e-publicacoes.uerj.br/index.php/rdc/article/view/29544 Acesso em
01/01/2021.
161
regime de direito privado, quando presente o interesse restrito512. A título de exemplo, o serviço
de telefone fixo foi determinado como de interesse público, a ser prestado por meio de
concessão, porquanto os demais seriam prestados pelo modelo de autorização a ser concedida
pela Agência. Esse modelo foi reconhecido como constitucional pelo Supremo Tribunal
Federal513, sendo admitida a coexistência de dois modelos assimétricos para tratamento de um
mesmo serviço: concessão de telefonia fixa comutada e autorização de telefonia móvel.
Nesse caso, poderá haver a atuação do agente econômico pelo título de concessão, com
incidência do regime jurídico de direito público, vez que envolve a delegação de serviço
público, bem como poderá existir a atuação do agente privado, pelo regime da livre iniciativa e
concorrência, cuja atividade ficará sujeita à regulação por meio da autorização.
Noutro giro, conforme acima mencionado, a Lei de Telecomunicações separou os
serviços de rádio e televisão do setor, permanecendo a radiodifusão supostamente afetada pela
publicatio, mas também com possibilidade de transferência para o setor privado através de
concessão, permissão ou autorização514. Segundo Miriam Wimmer, “a lógica confusa e
incomum dos instrumentos de outorga da radiodifusão no Brasil impede uma associação
automática entre os termos “concessão” e “serviço público”. Reforçando essa afirmação, a
autora sustenta que os mecanismos de controle aplicados as concessões de serviço público não
eram replicados à radiodifusão, pelo que o CBT atribuía outros critérios, como parâmetros
objetivos de programação, com percentual máximo de publicidade e determinação de horário
para a propaganda eleitoral.
Importante também destacar que a instância reguladora existente à época do CBT, o
Conselho Nacional de Telecomunicações (Contel), não funcionou de forma adequada, sendo
512
BRASIL, Lei 9472/97. Dispõe sobre a organização dos serviços de telecomunicações, a criação e
funcionamento de um órgão regulador e outros aspectos institucionais, nos termos da Emenda Constitucional nº
8, de 1995. Disponível em: http://www.planalto.gov.br/ccivil_03/leis/l9472.htm Acesso em 30/05/2022. Art. 62.
Quanto à abrangência dos interesses a que atendem, os serviços de telecomunicações classificam-se em serviços
de interesse coletivo e serviços de interesse restrito. Parágrafo único. Os serviços de interesse restrito estarão
sujeitos aos condicionamentos necessários para que sua exploração não prejudique o interesse coletivo.Art. 63.
Quanto ao regime jurídico de sua prestação, os serviços de telecomunicações classificam-se em públicos e
privados. Parágrafo único. Serviço de telecomunicações em regime público é o prestado mediante concessão ou
permissão, com atribuição a sua prestadora de obrigações de universalização e de continuidade.Art. 64.
Comportarão prestação no regime público as modalidades de serviço de telecomunicações de interesse coletivo,
cuja existência, universalização e continuidade a própria União comprometa-se a assegurar. Art. 67. Não
comportarão prestação no regime público os serviços de telecomunicações de interesse restrito.
513
BRASIL. Supremo Tribunal Federal. Ação Direta de Inconstitucionalidade – ADI nº 1668 MC/ DF, de Relatoria
do Minº Marco Aurélio, pelo Tribunal Pleno, conforme publicado, em 16/04/2004, no DJ PP-00054 EMENT VOL-
02147-01 PP-00127. Disponível em: https://jurisprudencia.stf.jus.br/pages/search/sjur96611/false Acesso em
30/05/2022.
514
Em sentido contrário, a previsão da possibilidade de autorização no texto constitucional é um indicativo de que
nem todas as emissoras de rádio exercem serviço público. Por todos, JUSTEN FILHO, Marçal. Curso de Direito
Administrativo. São Paulo: Saraiva, 2006.
162
extinta pelo Ministério das Comunicações em 1967. Faltavam critérios objetivos que
possibilitassem o monitoramento das outorgas concedidas, sejam elas, concessões, permissões
ou autorizações. A Constituição da República Federativa Brasileira de 1988, em seu artigo 223,
haja vista o modelo de outorga anterior ser feito de forma livre pelo Presidente da República,
concedeu ao Congresso Nacional o dever de apreciar todas as ortorgas e suas renovações515.
O serviço de radiodifusão516, portanto, é caracterizado como serviço de comunicação
eletrônica de massa, gratuito e público, sendo prestado diretamente pelo Estado ou através de
delegação para o setor privado, desde que respeitada a finalidade educativa, cultural, recreativa,
informativa e outros princípios elencados no artigo 221 da CRFB, regulamentado pelo CBT e
Decreto Presidencial 52.795/63.
A regulação do setor ocorre, portanto, através de instrumentos contratuais regulatórios
(concessão, permissão ou autorização), com pouco transparência sobre as regras que regem
esses contratos e se satisfazem ou não o interesse público. Com isso, transfere-se para o Poder
Judiciário a regulação quando há violação dos direitos dos cidadãos.
A regulação existente, tal qual o artigo 53 do CBT517, aponta para a época da Ditadura
Militar, cujos incisos intensificavam um espírito moralizador para a programação que não
refletem os desejos da atual sociedade democrática que preocupa-se, por exemplo, com a
representação das minorias, não protegidas.
Por fim, é importante destacar o precedente do Supremo Tribunal Federal, a Arguição
de Descumprimento de Preceito Fundamental nº 130518, que julgou inconstitucional a Lei de
515
WIMMER, Miriam. Serviços públicos de radiodifusão? Incoerências, insuficiências e contradições na
regulamentação infraconstitucional. Revista Eletrônica Internacional de Economia Política da Informação,
da Comunicação e da Cultura. Vol. 11. N. 1. 2009. Disponível em:
https://scholar.google.com/citations?view_op=view_citation&hl=pt-
BR&user=yfbP16EAAAAJ&citation_for_view=yfbP16EAAAAJ:Tyk-4Ss8FVUC Acesso em 30/05/2022.
516
Excluem-se as televisões por assinatura dessa inferência, vez que são consideradas serviços privados, com
tratamento conferido pela Lei 12485/2011, que dispõe sobre a comunicação audiovisual de acesso condicionado.
517
Art. 53. Constitui abuso, no exercício de liberdade da radiodifusão, o emprego desse meio de comunicação para
a prática de crime ou contravenção previstos na legislação em vigor no País, inclusive: a) incitar a desobediência
às leis ou decisões judiciárias; b) divulgar segredos de Estado ou assuntos que prejudiquem a defesa nacional; c)
ultrajar a honra nacional; d) fazer propaganda de guerra ou de processos de subversão da ordem política e social;
e) promover campanha discriminatória de classe, cor, raça ou religião; f) insuflar a rebeldia ou a indisciplina nas
forças armadas ou nas organizações de segurança pública; g) comprometer as relações internacionais do País; h)
ofender a moral familiar, pública, ou os bons costumes; i) caluniar, injuriar ou difamar os Poderes Legislativos,
Executivo ou Judiciário ou os respectivos membros; j) veicular notícias falsas, com perigo para a ordem pública,
econômica e social; l) colaborar na prática de rebeldia desordens ou manifestações proibidas. Parágrafo único. Se
a divulgação das notícias falsas houver resultado de erro de informação e for objeto de desmentido imediato, a
nenhuma penalidade ficará sujeita a concessionária ou permissionária. BRASIL, Lei 4117/62. Institui o Código
Brasileiro de Telecomunicações. Disponível em:
https://www.planalto.gov.br/ccivil_03/LEIS/L4117Compilada.htm Acesso em 30/05/2022
518
ADPF nº 130, Tribunal Pleno. Relator: Ministro Carlos Ayres Brito. Julgamento: 30/04/2019. Disponível em:
https://redir.stf.jus.br/paginadorpub/paginador.jsp?docTP=AC&docID=605411 Acesso em: 10/01/2022.
163
A partir do exposto nesta subseção, observa-se que o sistema de radiodifusão tem sua
regulação considerando a premissa de ser esse um serviço público ou, ao menos, uma atividade
privada de grande utilidade pública, cujas características da regulação, no entanto, não seguem
os moldes tradicionais dos regimes de concessão e permissão, já que possui contornos próprios
e limites constitucionais que devem ser respeitados pelos atores que desenvolvem a atividade
no setor.
519
SARMENTO. Daniel. Livre e Iguais: Estudos de Direito constitucional. Rio de Janeiro: Lumen Juris, 2006.
164
A mensagem que pode ser extraída deste modelo é que não há transparência na forma
como as delegações ou autorizações são feitas, tampouco na própria regulação contratual
realizada pelo Estado. No que tange à liberdade de expressão, sob o ângulo da dimensão
positiva desse direito, há pouca inclusão, estando os meios de comunicação concentrado nas
mãos de grupos restritos de empresas.
Esse não é o modelo desejável para a regulação de conteúdo nas plataformas digitais,
notadamente, se for considerado que os problemas a elas relacionados aumentam os riscos aos
direitos individuais e à democracia, conforme já mencionado. O fim da censura não deve
significar a adoção de um viés liberal da matéria, com afastamento total do Estado, mas a
possibilidade de ordenar o setor das comunicações digitais nas redes sociais para um ambiente
saudável, que promova os valores constitucionais. Também é preciso ressaltar a regulação
social defendida pelo STF na ADPF 130, por exemplo, não seria aplicável às plataformas, vez
que a predominância das grandes plataformas fragilizaria o argumento da seletividade pelo
público.
Na próxima subseção serão abordados quais os atores podem exercer a regulação de
conteúdo nas mídias sociais, considerando para esse desenvolvimento as características dos
sistemas regulatórios atuais apontados no início deste capítulo, notadamente, em sociedades
complexas com uma Administração policêntrica.
regulação possa ser exercida por instituições diversas, o que leva a classificação dos arranjos
institucionais da seguinte maneira: direta, autorregulação e a corregulação520.
Esses arranjos, dentre suas particularidades, diferenciam-se quanto à gradação da ação
estatal521. Começando na regulação direta, pode-se afirmar que as partes estão vinculadas ao
cumprimento das regras estabelecidas pelo Estado através de um instrumento legislativo.
Tornando a ação estatal mais leve, tem-se a corregulação, no qual as regras são definidas por
um código aprovado. É um formato regulatório alternativo, onde os atores privados podem
formular regras e estabelecer uma regulação de “cima para baixo”, como podem, simplesmente,
implementar as regras estatais, em uma “abordagem cooperativa”, em uma regulação de “baixo
para cima” 522
. Pela diversidade de atores que participam desse processo é considerado um
arranjo multissetoral. Por fim, a autorregulação não recebe nenhuma intervenção estatal. Neste
arranjo as normas não são vinculantes e não há ameaça de sanção. Os atores são guiados pelos
próprios interesses.
Nos próximos subtópicos serão abordados cada um desses arranjos institucionais
cabíveis para a regulação das plataformas digitais de redes sociais, com uma análise sobre a
experiência internacional na implementação de cada um deles.
520
Ainda é possível identificar outras nuances para essa classificação. Nos próximos subtópicos algumas delas
serão mencionadas. Sobre o ponto, veja: MARSDEN, Christopher T., Internet co-regulation and constitutionalism:
Towards European judicial review, International Review of Law, Computers & Technology, 26:2-3, 211-228,
2012. DOI: 10.1080/13600869.2012.698450. Disponível em:
https://www.tandfonline.com/doi/abs/10.1080/13600869.2012.698450 Acesso em 30/05/2022.
521
MARSDEN. Christopher T. Beyond Europe: The Internet, Regulation, and Multistakeholder Governance—
Representing the Consumer Interest? J. Consum Policy Vol. 31. PP. 115–132. 2008. p. 118. Disponível em:
https://profiles.sussex.ac.uk/p319200-chris-marsden/publications Acesso em 30/05/2022.
522
MARSDEN. Christopher T. Beyond Europe: The Internet, Regulation, and Multistakeholder Governance—
Representing the Consumer Interest? J. Consum Policy Vol. 31. PP. 115–132. 2008, p. 118. Disponível em:
https://profiles.sussex.ac.uk/p319200-chris-marsden/publications Acesso em 30/05/2022.
166
garantida através da sanção estatal523. No que se refere à responsabilidade, ela é alta porque há
consequências legais rígidas para os atores que não cumprem a legislação estatal524.
Conforme explica Clara Keller, esse arranjo se desenvolve através de um órgão criado
por lei que elabora, aplica, monitora e fiscaliza um determinado arcabouço regulatório525, o que
se amolda perfeitamente as funções das Agências Reguladoras. O ponto central é que esse
arranjo se baseia na lei ou regulamento (nos casos de inexistência de reserva legal), podendo o
legislador optar por um regramento mais detalhado ou por outro mais principiológico, que se
dedique apenas a estabelecer normas de organização e procedimentos a nortear futuras ações
administrativas.
Esse modelo de regulação interfere diretamente no comportamento dos atores
envolvidos, o que, no campo da internet, segundo a literatura 526, pode prejudicar a inovação do
setor527. Outro ponto é que a necessidade de maior eficiência, notadamente em ambientes
dinâmicos e complexos, exige práticas que demandam a participação dos agentes regulados e
outras partes interessadas mediante estruturas regulatórias mais flexíveis.
Duas principais críticas a esse arranjo institucional são encontradas na literatura. A
primeira crítica é referente à capacidade limitada da lei exercer o controle e está relacionada a
análise da teoria jurídica da autopoiese528. Essa teoria providencia uma explicação, a partir da
comunicação, para os problemas em torno do controle regulatório. Citando o trabalho de Niklas
Luhmann529, Scott aponta que a sociedade está dividida em subsistemas diferentes e autônomos,
que possuem dificuldade para comunicarem-se entre si. Política, economia e sociedade são, por
523
BINENBOJM, Gustavo. Poder de Polícia, ordenação, regulação: transformações político-jurídicas,
econômicas e institucionais do direito administrativo ordenador. 3 ed. Belo Horizonte: Fórum, 2020, p. 172.
524
PAPAEVANGELOU, Charilaos. The existential stakes of platform governance: a critical literature review
[version 2; peer review: 3 approved] Open Research Europe 2021, 1:31. P. 04.
https://doi.org/10.12688/openreseurope.13358.2
525
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 176.
526
BOSTOEN, Friso. Neutrality, fairness or freedom? Principles for platform regulation. Internet Policy Review.
2018; 7(1): 19. Disponível em: http://policyreview.info/articles/analysis/neutrality-fairness-or-freedom-
principles-platform-regulation . Acesso em 30/05/2022.
527
Essa afirmação deve ser temperada com o exposto na próxima subseção. A observância do modelo regulatório
chinês pode sugerir que as regras de comando e controle não impedem necessariamente a inovação, vez que no
país as regras aplicáveis são extremamente rígidas e, ainda assim, há a entrada crescente de novas plataformas de
redes sociais no mercado.
528
Para Colin Scott autopoiese significa um “termo desenvolvido inicialmente nas ciências biológicas, derivado
de palavras gregas que significam autoprodução, e refere-se à ideia de que a lei reproduz-se por si mesma de acordo
com suas próprias normas. SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory
state. In: JORDANA, Jacin; LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory
Reforma for the Age of Governance, 2004, p. 11. Trecho original: Autopoiesis is a term developed initially in
biological sciences, derived from Greek words meaning self-producing, and refers to the idea that law reproduces
itself according to its own norms.
529
LUHMANN, Niklas (1992) "The Coding of the Legal System.European Yearbook in the ociology of Law
[1991-1992], 145-185.
167
exemplo, subsistemas, que deveriam se comunicar entre si a fim de se produzir regras efetivas
que produzam a mudança esperada no comportamento dos atores econômicos e sociais. No
entanto, são subsistemas fechados no que se refere às suas normas e modo de operação530.
Aplicando a teoria da autopoiese sobre o problema do controle regulatório, Scott detalha
uma nova visão531. No lugar de um padrão de governança linear, na qual a política é traduzida
em legislação, depois ação regulatória, para, posteriormente, analisar os efeitos regulatórios,
dever-se-ia providenciar uma imagem de múltiplos campos de ação autônomos, mas com
interferência entre eles, de maneira não-causal e simultânea.
Dessa forma, para essa teoria, os subsistemas se relacionariam entre si, não com base
em leis regulatórias específicas, mas por meio do “entendimento de ordenação dentro de outros
subsistemas”532. Seria preciso pensar, diante da limitação do uso da lei como instrumento
regulatório, em outras possibilidades normativas dentro desses subsistemas. Não precisaria,
portanto, pensar em desregulação, mas em mecanismos de controles indiretos e mais
sofisticados, como, por exemplo, a autorregulação, que será analisada no próximo tópico.
A segunda crítica é que a lei estatal será efetiva apenas quando vinculada a outras ordens
de processos. Esse argumento é identificado na teoria responsiva da regulação, cujo objetivo é
desenhar arranjos institucionais e processos que possam trabalhar com as capacidades de
controle que já existem para os regulados, deixando a intervenção regulatória estatal no seu
nível mais baixo para atingir os resultados desejados533. Afasta-se da ideia do direito como um
meio politicamente instrumentalizado para buscar um direito reflexivo, que se utiliza de normas
processuais que regulam os procedimentos, organização e distribuição de direitos e
competências534.
530
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004, pp.11-12.
531
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004.
532
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004, p.15.Trecho original: LTA envisions a post-regulatory state in which the legal sub-system
relates to other subsystems not through highly specified, or materialised, regulatory law, but rather through
working with the grain of the understanding of ordering within other sub-systems.
533
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance.2004, pp. 21-27.
534
Sobre regulação responsiva, ver BLACK, Julia. Procedimentalizando a Regulação in Regulação Econômica e
Democracia: O Debate Europeu. Paulo Todescan Lessa Mattos (coordenação), 2ª edição revista, São Paulo,
Editora Revista dos Tribunais, 2017 (Coleção Capitalismo & Democracia), P. 133 a 155. GUERRA, Sérgio.
Discricionariedade, Regulação e Reflexividade - Uma Nova Teoria Sobre as Escolhas Administrativas, 4ª
edição revista e atualizada, Belo Horizonte, Fórum, 2017, P. 387 a 410.
168
535
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance.2004, pp. 21-27.
536
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, pp. 07-08. Disponível em:
https://www.hoover.org/research/verified-accountability Acesso em 30/05/2022.
169
Na China537, o setor de mídia digital é fortemente regulado pelo Estado, pelo que o
principal arranjo institucional para o desenvolvimento da regulação é o de comando e controle.
Trata-se, portanto, de um mercado aberto ao setor privado538, mas regulado pelo Estado. A
autoridade responsável para regular as várias formas de serviços de mídia social539 na internet
é o Cyberspace Administration of China (CAC)540, que desde, aproximadamente, 2014,
concentrou a governança da internet em plataformas de mídia social, haja vista o importante
papel que esses entes intermediários desepenham na produção e circulação de notícias 541.
537
Para aprofundamento do sistema jurídico chinês, indica-se o artigo de Larissa Chen, A proteção de informações
pessoais na china: análise à luz do novo código civil chinês de 2021, em TEFFÉ, Chiara Spadaccini de; BRANCO,
Sérgio (Coords.). Proteção de dados e tecnologia: estudos da pós-graduação em Direito Digital. Rio de Janeiro:
Instituto de Tecnologia e Sociedade do Rio de Janeiro. 2022.
538
WANG, Jufang. Regulation of Digital Media Plataforms: The case of China. Policy Brief. The Foundation for
Law, Justice and Society (FLJS). Oxford. 2020, p. 02.Disponível em: https://www.fljs.org/regulation-digital-
media-platforms-case-china Veja também em: LOKUMANNAGE, Amila, Social Media Content Regulation in
China: Analysis of English Language Wechat Accounts (January 31, 2020). Vidyodaya Journal of Humanities
and Social Sciences. Vol. 05(01). Disponível em: https://ssrn.com/abstract=3798256 Acesso em 30/05/2022. No
artigo há a seguinte informação: “New People Republic China Internet Regulation Report, 1998)”: "China-based
websites cannot link to overseas news Websites or distribute news from overseas media without separate approval.
Only "licensed print publishers" have the authority to deliver news online. Non-licensed Web sites that wish to
broadcast news may only publish information already released publicly by other news media"(China Internet
Censorship Overview).
539
Na china, o Governo, através da Agência Governamental para regulação do mercado (State Administration for
Market Regulation – SAMR), elaborou um guia para classificação das plataformas digitais a fim de melhorar a
regulação. Essa classificação leva em consideração as propriedades de conectividade e seus principais recursos
disponibilizados, como, por exemplo, conexão de pessoas a bens, serviços, informação, entreterimento, capital,
aplicações de computação, etc. Para o escopo deste trabalho é interessante mencionar que plataformas de mídia
sociais são entendidas como aquelas relacionadas ao entreterimento social, cuja principal função é a interação
social, jogos, serviços audiovisuais, leitura literária, etc, enquanto as plataformas de informação são aquelas que
conectam pessoas e informação, as quais tem por funções principais o fornecimento de notícias, serviços de
pesquisa, conteúdos de áudio e vídeos, etc. Há ainda uma segunda classificação que envolve o número de usuários
combinado com o tipo de negócio. Aqui, as plataformas podem ser super plataformas – com mais de 500 milhões
de usuários ativos e possua 2 ou mais tipos de negócios, com alto valor de mercado; plataformas grandes – com
mais de 50 milhões de usuários ativos e excelente desempenho no negócio principal; pequenas e médias
plataformas – possuem um certo número de usuários ativos, com um determinado negócio e um certo valor de
mercado). BROWN, Ian.KORFF, Douwe. China´s new plataforma guidelines. 03/11/2021. Disponível em:
https://cyberbrics.info/chinas-new-platform-guidelines/ Acesso em 30/05/2022.
540
Existem outras autoridades chinesas para regular o setor de mídia, de forma geral. Os pricipais órgãos
reguladores são: a Administração Nacional de Rádio e Televisão (NRTA), que tem ampla autoridade para regular
negócios envolvendo mídia tradicional e mídia digital, e a Administração Estatal de Imprensa e Publicação
(SAPP), que tem competência para aprovar o estabelecimento de gráficas e regular o negócio de impressão, além
de aprovar o estabelecimento de editoras e regular a publicação e distribuição de publicações nacionais e
importação de publicações estrangeiras. Disponível em:
https://www.lexology.com/library/detail.aspx?g=983332cc-0fa7-4630-b5a8-b4fd525eaae1 Acesso em
30/05/2022.
541
WANG, Jufang. Regulation of Digital Media Plataforms: The case of China. Policy Brief. The Foundation for
Law, Justice and Society (FLJS). Oxford. 2020, pp. 01-02.Disponível em: https://www.fljs.org/regulation-digital-
media-platforms-case-china Acesso em 30/05/2022.
170
Essa afirmação pode ser demonstrada através dos diversos regulamentos expedidos pela
autoridade nacional chinesa, em um curto espaço de tempo, que refletem as preocupações do
partido comunista chinês sobre o controle que as plataformas exercem na circulação da
informação.
No que se refere à regulação de conteúdo na internet, as plataformas de redes sociais542
são dominadas por plataformas domésticas543, constituídas por capital privado. No entanto, para
exercer essa atividade o setor enfrenta algumas restrições e uma rígida supervisão.
A título de exemplo, não se pode criar notícias nas áreas de política, economia, militar,
relações exteriores, etc. A produção de notícias é restrita às autoridades chinesas ou as empresas
públicas autorizadas, mas as plataformas podem trabalhar replicando as notícias elaboradas
pelas instituições que são controladas pelo Estado, desde que seja expedida uma licença para
republicação notícias online. As plataformas que não publicam conteúdo devem, por outro lado,
garantir que os usuários que produzem conteúdo tenham licença para essa atividade caso
versem sobre atividades mais restritas 544.
Outro ponto relevante é que as plataformas são responsáveis pelo conteúdo que
545
hospedam . Na prática, essa imposição legal traz a obrigação de censura pelas plataformas
de mídia social, que devem criar regras que adotem uma moderação de conteúdo eficiente, de
542
Exemplos de plataformas chinesas de mídias sociais são: “we-chat” e “weibo” (plataformas de mídias sociais),
“Toutião e “Tencent” (plataformas de notícias) e “Douyin” (versão doméstica do Tik-tok) e “Kuai” (plataformas
de compartilhamento de vídeos). WANG, Jufang. Regulation of Digital Media Plataforms: The case of China.
Policy Brief. The Foundation for Law, Justice and Society (FLJS). Oxford. 2020, p.02. Disponível em:
https://www.fljs.org/regulation-digital-media-platforms-case-china Acesso em 30/05/2022.
543
O Linkedin foi a útlima plataforma norte-americana a deixar o país, conforme anúncio publicado em outubro
de 2021. Contudo, é interessante ressaltar que os chineses não sentiram essa perda, vez que a imposição de várias
regras de censura ao desenvolvimento da atividade pelas plataformas americanas incentivou o mercado doméstico
a produzir um vasto ecossistema de mídia social. Conforme reportagem publicada, pesquisadores afirmam que a
inovação é predominente nas redes sociais chinesas. LU, Christina. China´s social media explosion. 11 de
novembro de 2021. Disponível em: https://www.politics-dz.com/en/chinas-social-media-explosion/ Acesso em
30/05/2022. Sobre a diversidade das plataformas de mídia social veja também: LOKUMANNAGE, Amila, Social
Media Content Regulation in China: Analysis of English Language Wechat Accounts (January 31, 2020).
Vidyodaya Journal of Humanities and Social Sciences. Vol. 05(01). Disponível em:
https://ssrn.com/abstract=3798256 Acesso em 30/05/2022.
544
WANG, Jufang. Regulation of Digital Media Plataforms: The case of China. Policy Brief. The Foundation for
Law, Justice and Society (FLJS). Oxford. 2020, p. 02.Disponível em: https://www.fljs.org/regulation-digital-
media-platforms-case-china Acesso em 30/05/2022. Veja também em: LOKUMANNAGE, Amila, Social Media
Content Regulation in China: Analysis of English Language Wechat Accounts (January 31, 2020). Vidyodaya
Journal of Humanities and Social Sciences. Vol. 05(01). Disponível em: https://ssrn.com/abstract=3798256
Acesso em 30/05/2022. No artigo há a seguinte informação: “New People Republic China Internet Regulation
Report, 1998)”: "China-based websites cannot link to overseas news Websites or distribute news from overseas
media without separate approval. Only "licensed print publishers" have the authority to deliver news online. Non-
licensed Web sites that wish to broadcast news may only publish information already released publicly by other
news media"(China Internet Censorship Overview).
545
WANG, Jufang. Regulation of Digital Media Plataforms: The case of China. Policy Brief. The Foundation for
Law, Justice and Society (FLJS). Oxford. 2020, p. 03. Disponível em: https://www.fljs.org/regulation-digital-
media-platforms-case-china Acesso em 30/05/2022.
171
acordo com a legislação chinesa, coibindo conteúdos indesejados no espaço virtual. O relatório
sobre a política de regulação chinesa elaborado por Jufang Wang aponta alguns requisitos
específicos que as plataformas devem cumprir, de acordo com a regulação do país:
A respeito do conteúdo que deve ser moderado, a regulação chinesa define três
categorias que devem ser tratadas pelas plataformas como problemáticas: (i) conteúdo
politicamente sensível; (ii) conteúdo vulgar; e, (iii) desinformação e rumores não políticos547.
O primeiro tipo de conteúdo faz alusão aquele que pode prejudicar o partido chinês,
afetando a estabilidade social e legitimidade do governo. Não há uma definição estrita sobre o
546
WANG, Jufang. Regulation of Digital Media Plataforms: The case of China. Policy Brief. The Foundation for
Law, Justice and Society (FLJS). Oxford. 2020, p. 03. Disponível em: https://www.fljs.org/regulation-digital-
media-platforms-case-china Acesso em 30/05/2022. Trecho original: • conducting real-time content monitoring
and storing users’ data for no less than six months; • implementing the real-name registration and verification
policy. Platform users need to provide information about their real identities before they can post any content,
and platforms are required to verify users’ identities based on unique institutional codes (for institutional users)
and government-issued identity cards (for individuals); • establishing user-reporting, rumour-debunking, and
blacklisting mechanisms. The blacklisting requirement mandates platforms to add users who have seriously
breached relevant laws and regulations to a ‘blacklist’ and to enforce suitable punishment (e.g. closing their
accounts, banning them from re-registration); • building the user-grading-and-classification management system.
‘Grading’ means that if users are found to have breached certain rules, then their credit grades are downgraded
and the services they can use are limited accordingly. ‘Classification’ means that, for services such as group chats,
platforms need to classify them into different categories according to factors including the size of the groups and
the content areas (e.g. political, economic, or entertainment).
547
WANG, Jufang. Regulation of Digital Media Plataforms: The case of China. Policy Brief. The Foundation for
Law, Justice and Society (FLJS). Oxford. 2020, p. 04. Disponível em: https://www.fljs.org/regulation-digital-
media-platforms-case-china Acesso em 30/05/2022.
172
que seja esse conteúdo, alguns exemplos mencionados são a oposição aos princípios
estabelecidos na Constituição, leis ou regulamentos, comprometimento da segurança estatal,
vazemento de informações secretas, prejudicar interesses nacionais, perturbar ordem e
estabilidade social, etc. Conteúdo vulgar se relaciona com os esforços do governo chinês de
manter um espaço digital moralmente limpo e enquadrar a governança da internet através de
políticas protetivas.
Com isso, é possível observar que a atuação da autoridade chinesa (CAC) é diretamente
realizada sobre os tipos de conteúdos que devem permanecer na internet. Em 2018, por
exemplo, aquela convocou as principais plataformas requerendo maior controle sobre as contas
digitais de influencers548 que publicassem conteúdo sobre “distorcer intencionalmente a história
do Partido Comunista Chinês, difamar heróis de guerra, espalhar rumores e espalhar
pornografia” 549. O resultado foi a exclusão ou suspensão de 9.800 contas550.
Como consequência do descumprimento da regulação, o CAC multa as plataformas, as
obriga a retificarem seus termos de uso e até mesmo suspende o seu funcionamento551. O
controle do órgão regulador é tão intenso que há previsão da figura do “arranjo especial de
compartilhamento de gestão” (special management share arrangement) para intensificar o
controle editorial. Essa participação minoritária através de ações de ouro (golden share) permite
ao governo chinês possuir 1% a 2% do capital das empresas privadas, no caso das plataformas
de redes sociais, e, em contrapartida, o governo ou o representante do CAC ganha assento no
conselho e/ou direito de veto para as principais decisões sobre os negócios praticados, o que,
inclui, o controle editorial552.
Em que pese algumas falhas, o sistema de controle implementado na China nas
atividades realizadas pelas plataformas é tão eficiente que outros países não-democráticos, tal
548
Influencers são criadores de conteúdo que constroem popularidade nos canais de mídia social e convertem em
dinheiro para a vida real por meio da monetização. GOANTA, Catalina; SPANAKIS, Gerasimos, Influencers and
Social Media Recommender Systems: Unfair Commercial Practices in EU and US Law. TTLF Working Paper
No. 54. 2020, p. 03. Available at SSRN: https://ssrn.com/abstract=3592000 Acesso em 30/05/2022.
549
WANG, Jufang. Regulation of Digital Media Plataforms: The case of China. Policy Brief. The Foundation for
Law, Justice and Society (FLJS). Oxford. 2020, p. 03.Disponível em: https://www.fljs.org/regulation-digital-
media-platforms-case-china Acesso em 30/05/2022. Trecho original: The listed kinds of problematic content
include: intentionally distorting the history of the Chinese Communist Party, defaming war heroes, spreading
rumours, and spreading
Pornography.
550
WANG, Jufang. Regulation of Digital Media Plataforms: The case of China. Policy Brief. The Foundation for
Law, Justice and Society (FLJS). Oxford. 2020, p. 03.Disponível em: https://www.fljs.org/regulation-digital-
media-platforms-case-china Acesso em 30/05/2022.
551
WANG, Jufang. Regulation of Digital Media Plataforms: The case of China. Policy Brief. The Foundation for
Law, Justice and Society (FLJS). Oxford. 2020, p. 04.Disponível em: https://www.fljs.org/regulation-digital-
media-platforms-case-china Acesso em 30/05/2022.
552
Essa prática, segundo reportagem publicada pela Reuters, também está sendo expandida para a regulação de
dados. Veja em: https://www.reuters.com/article/china-regulation-data-idCAKBN2IU2B7 Acesso em 30/05/2022.
173
como Cuba, negociaram a compra de sua tecnologia para ampliar a vigilância na internet553. O
governo chinês, de muitas maneiras, aduz estar agindo razoavelmente ao restringir o acesso à
informação ou à internet. No entanto, na prática, na maioria dos casos, limita e dificulta muito
o acesso a qualquer tipo de conteúdo que não seja controlado pelo estado, característica, nítida,
de um estado não-democrático.
Dessa forma, é possível concluir que, ainda que a regulação seja determinada pelo
Estado, não é possível aferir, de plano, que os arranjos institucionais baseados no comando e
controle sejam legítimos. Essa avaliação dependerá do Estado que regula e das políticas
adotadas, como o processo democrático, representação política, dentre outros fatores. Ainda,
outro fator a ser considerado é que sempre que se busca regular a fala, deve-se adotar muita
cautela devido à preocupação e suspeita de que os governos possam agir de forma ilegítima no
intuito de preservar sua permanência no poder.
5.4.2 Autorregulação
553
LOKUMANNAGE, Amila, Social Media Content Regulation in China: Analysis of English Language Wechat
Accounts (January 31, 2020). Vidyodaya Journal of Humanities and Social Sciences. Vol. 05(01). Disponível
em: https://ssrn.com/abstract=3798256 Acesso em 30/05/2022.
554
BLACK, Julia. Procedimentalizando a Regulação em Regulação Econômica e Democracia: O Debate
Europeu. Paulo Todescan Lessa Mattos (coordenação), 2ª edição revista, São Paulo, Editora Revista dos
Tribunais, 2017 (Coleção Capitalismo & Democracia), páginas 133 a 155.
555
MARSDEN. Christopher T. Beyond Europe: The Internet, Regulation, and Multistakeholder Governance—
Representing the Consumer Interest? J. Consum Policy (2008) 31:115–132. P. 118. Disponível em:
https://profiles.sussex.ac.uk/p319200-chris-marsden/publications. Acesso em 30/05/2022. Trecho original: “We
can identify self-regulatory arrangements whose modus operandi consist of nonbinding norms of action, process,
and behaviour, for whom sanctions of the formal regulatory type play no part”.
174
Com a regulação sendo exercida pelas plataformas digitais de redes sociais, algumas
delas, na tentativa de trazer mais confiabilidade nas políticas de governança adotadas, além da
556
HOFFMANN-RIEM. Wolfgang. Teoria do direito digital. Transformaçao digital, desafios para o direito.
Tradução Italo Fuhrmann. Rio de Janeiro: Editora Forense. 2021, pp. 136-137.
557
BINENBOJM, Gustavo. Poder de Polícia, ordenação, regulação: transformações político-jurídicas,
econômicas e institucionais do direito administrativo ordenador. 3 ed. Belo Horizonte: Fórum, 2020, p. 322.
175
558
GLOBAL NETWORK INICIATIVE. Disponível em: https://globalnetworkinitiative.org/gni-2018-2019-
company-assessment/ Acesso em 10/04/2022.
559
MARSDEN. Christopher T. Beyond Europe: The Internet, Regulation, and Multistakeholder Governance—
Representing the Consumer Interest? J. Consum Policy (2008) 31:115–132. P. 117. Disponível em:
https://profiles.sussex.ac.uk/p319200-chris-marsden/publications
560
GORWA, Robert. What is Plataform Governance? Information, Communication & Society. University of
Oxford. 2019. P. 13-14. Disponível em: https://gorwa.co.uk/files/platformgovernance.pdf
561
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019. Disponível em:
https://www.hoover.org/research/verified-accountability.
176
562
GORWA, Robert. What is Plataform Governance? Information, Communication & Society. University of
Oxford. 2019. P. 13-14. Disponível em: https://gorwa.co.uk/files/platformgovernance.pdf Acesso em 10/04/2022.
563
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, p. 14. Disponível em:
https://www.hoover.org/research/verified-accountability. Acesso em 10/04/2022.
564
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, pp. 15-16. Disponível em:
https://www.hoover.org/research/verified-accountability. Acesso em 10/04/2022.
565
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, pp. 15-16. Disponível em:
https://www.hoover.org/research/verified-accountability. Acesso em 10/04/2022. Trecho original: people’s
judgments of legitimacy do not depend primarily on their obtaining favorable outcomes but are more strongly
177
influenced by the processes and procedures authorities use, including whether they afford participation,
demonstrate impartiality, and show respect for people’s interests as worthy of consideration.
566
KLONICK, Kate. The Facebook Oversight Board: Creating an Independent Institution to Adjudicate Online
Free Expression. Yale Law Journal, Vol. 129, nº 2418, 2020. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3639234 Acesso em 10/04/2022.
567
KLONICK, Kate. The Facebook Oversight Board: Creating an Independent Institution to Adjudicate Online
Free Expression. Yale Law Journal, Vol. 129, nº 2418, 2020. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3639234 Acesso em 10/04/2022.
178
568
Esse trabalho utilizou o Código de Desinformação como exemplo considerando que a elaboração dos
compromissos foi realizada, majoritariamente, pelas plataformas digitais. No entanto, é preciso fazer uma ressalva
para a participação da União Europeia nesse processo, pelo que esse exemplo não poderia ser considerado um
modelo autorregulatório puro.
569
DIRECTORATE-GENERAL FOR COMMUNICATIONS NETWORKS, CONTENT AND TECHNOLOGY.
High Level Expert Group on fake news and online disinformation [Report]. European Commission. 2018.
Disponível em: https://op.europa.eu/s/tRk9 Acesso em 08/09/2020.
570
COMISSÃO EUROPEIA. Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao Comité
Económico e Social Europeu e ao Comité das Regiões. Combater a desinformação em linha: uma estratégia
europeia. 2018. Disponível em: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52018DC0236
Acesso em 08/09/2020.
571
COMISSÃO EUROPEIA. EU Code of Practice on Disinformation. Publicado em 28/09/2018.
https://www.europeansources.info/record/eu-code-of-practice-on-disinformation/ Acesso em 08/09/2020.
179
572
COMISSÃO EUROPEIA. EU Code of Practice on Disinformation. Publicado em 28/09/2018.
https://www.europeansources.info/record/eu-code-of-practice-on-disinformation/ Acesso em 08/09/2020. Sobre
os pilares: (a) escrutínio nos posicionamentos de anúncios: significa não permitir que os criadores de conteúdos
com desinformação lucrem com isso, isto é, as plataformas devem se esforçar para excluir esse tipo de conteúdo
como veículos para seus serviços de publicidades. Para isso elas devem melhorar significativamente o controle na
inserção de anúncios nos diferentes conteúdos, bem como contar com a parceria de organizações de verificação
de fatos (compromisso “a”); (b) divulgação de anúncios políticos: significa que as plataformas devem garantir que
a propaganda política possa ser facilmente identificada pelos usuários, além de permitir que eles tenham
conhecimento da identidade do patrocinador da propaganda, do montante gasto e das métricas utilizadas para
serem considerados alvos de determinada propaganda política (compromisso “b”); (c) integridade de serviços:
corresponde aos problemas de contas falsas e sistemas automatizados que permitem a disseminação da
desinformação. As plataformas devem implementar políticas claras em relação à identidade e garantir que o uso
de ferramentas de bots não seja confundido com interações humanas (compromisso “c”); (d) capacitação dos
consumidores: significa que as plataformas devem investir em tecnologias e programas para permitir que os
usuários tomem decisões informadas quando sejam submetidos a notícias que possam ser falsas, inclusive,
desenvolvendo indicadores eficazes de confiança; investir em tecnologia para priorizar informações relevantes e
autênticas, quando apropriado, em distribuição de conteúdo automatizado; investir em tecnologia que permita aos
usuários a encontrar diversas perspectivas sobre temas de interesse público; desenvolver parcerias para melhorar
o pensamento crítico e literacia mediática; e, adotar ferramentas que ajudem os consumidores a compreender os
motivos de serem considerados alvos de anúncios específicos (compromisso “d”); e, (e) empoderamento da
comunidade acadêmica: significa apoiar os esforços independentes de verificadores de fatos, acadêmicos e
pesquisadores da sociedade civil para rastrear a desinformação e compreender o seu impacto, além de realizar
pesquisas que envolvam desinformação, propaganda política e anúncios publicitários. Essa medida inclui a
possibilidade de compartilhamento de dados protegidos pela cláusula de privacidade e informações gerais sobre
algoritmos (compromisso “e”).
573
COMISSÃO EUROPEIA. EU Code of Practice on Disinformation. Publicado em 28/09/2018, p. 08
https://www.europeansources.info/record/eu-code-of-practice-on-disinformation/ Acesso em 08/09/2020.
180
574
COMISSÃO EUROPEIA. Assessment of the Code of Practice on Disinformation - achievements and areas for
further improvement, 20202, pp. 7-13. Disponível em: https://digital-strategy.ec.europa.eu/en/library/assessment-
code-practice-disinformation-achievements-and-areas-further-improvement Acesso em 08/09/2020.
575
BROGI, Elda; BLEYER-SIMON, Konrad. Disinformation in the Perspective of Media Pluralism in Europe –
the role of plataforms. In: Perspectives on Platform Regulation. Nomos Verlagsgesellschaft mbH & Co. KG, 2021,
pp. 531-547. https://www.nomos-elibrary.de/10.5771/9783748929789/perspectives-on-platform-regulation
Acesso em 08/09/2020.
181
comum. Como sugestão a esse problema, a Comissão Europeia sugeriu a criação de dois tipos
fixos de indicadores, os de serviço e os estruturais.
Os indicadores de serviço são importantes porque mensuram os resultados das políticas
implementadas pelos signatários do Código. A fim de que não sejam burlados, devem ser feitos
de forma clara, objetiva e específica para cada tipo de serviço, podendo, inclusive, ser feitos em
formas de perguntas e complementados por diretrizes. Já os indicadores estruturais medem a
amplitude da desinformação de uma forma geral. São aplicáveis a todos os serviços e, portanto,
devem ser realizados de forma mais genérica576.
As únicas previsões do Código que sugerem um sistema de supervisão são a adoção de
um sistema de revisão pelos próprios pares, o que, resta enfraquecido pela parcialidade dos
próprios envolvidos, e a possibilidade de revisão externa por uma organização independente,
contratada pelas próprias plataformas, o que não ocorreu pela inércia dos signatários em
celebrar a referida contratação. Logo, o Código demonstrou que não trouxe um modelo eficiente
de revisão externa para a prestação de contas das plataformas digitais.
Por fim, importante mencionar a participação limitada dos atores do setor. Essa
limitação ocorre porque o Código aplicava-se apenas as plataformas e intervenientes do setor
publicitário que aceitem subscrever seus compromissos, e, ainda permite que elas escolham,
com base em suas próprias avaliações, a quais compromissos irão aderir e quais medidas serão
utilizadas para implementar esses compromissos577.
Esse cenário levou a Comissão Europeia a sugerir a elaboração de um novo Código para
vigorar dentro de um arranjo institucional de corregulação, em adequação com a nova Lei dos
Serviços Digitais (Digital Servide Act - DSA). Esse novo Código foi implementado em junho
de 2022578, como um conjunto de medidas mais amplo para combater a desinformação
online579. Os signatários do Código não são obrigados a assumir todos os compromissos, cabe
a eles decidir sobre quais áreas irão agir e garantir a implementação dos compromissos
assumidos.
576
COMISSÃO EUROPEIA. Assessment of the Code of Practice on Disinformation - achievements and areas
for further improvement. 2020, p. 23. Disponível em: https://digital-strategy.ec.europa.eu/en/library/assessment-
code-practice-disinformation-achievements-and-areas-further-improvement Acesso em 10/12/2021.
577
COMISSÃO EUROPEIA. Assessment of the Code of Practice on Disinformation - achievements and areas
for further improvement. 2020, p. 17. Disponível em: https://digital-strategy.ec.europa.eu/en/library/assessment-
code-practice-disinformation-achievements-and-areas-further-improvement Acesso em 10/12/2021.
578
Comissão Europeia. The 2022 Code of Practice on Disinformation. Junho de 2022. Disponível em: The 2022
Code of Practice on Disinformation | Shaping Europe’s digital future (europa.eu) Acesso em: 22/06/2022
579
Dentre as áreas dos 44 compromissos formulados, algumas medidas são: (i) desmonetização; (ii) transparência
da publicidade política; (iii) integridade dos serviços; (iv) empoderamento dos usuários, pesquisadores e
verificadores de fatos; (v) centro de transparência e criação de uma força-tarefa permanente; e (vi) reforço da
estrutura de monitoramento.
182
Essa reformulação na política regulatória parece ter levado a uma maior aderência dos
participantes, já que agora o Código conta com 34 signatários580, que atuam em diversos setores.
Acredita-se que esse aumento se deve ao fato da assinatura dos seus compromissos, em relação
às grandes plataformas, representar, sob a estrutura corregulatória do DSA, uma medida de
mitigação do risco da atividade. Esse cenário reflete a estrutura da corregulação na prática
(arranjo que será aprofundado ainda neste capítulo): as empresas se comprometem em
desenvolver meios para atingir os objetivos legais, sob a supervisão de autoridades públicas,
sendo que essas podem, a qualquer momento, fiscalizar o cumprimento do DSA, sob pena de
aplicação de sanções, inclusive, multas, ou a elaboração de normas regulatórias mais rígidas
caso os objetivos não sejam alcançados.
Do que foi exposto até aqui, observa-se que o espaço online não permanece separado
das diversas fontes de poder, sendo influenciado por diversos atores, privados e públicos.
Conforme analisado, não se sustenta a visão excepcionalista, já que a internet é uma zona
regulada pelo próprio código ou, modernamente, pelos sistemas de algoritmos das plataformas
digitais, podendo, ainda, sofrer a incidência do próprio direito já aplicável no mundo físico.
A teoria excepcionalista, no entanto, não é irrelevante. Sua análise pode servir para
indicar a necessidade de uma abordagem regulatória específica. Conforme apontado por Clara
Keller, tecnologias “podem demandar abordagens regulatórias próprias, a depender das suas
580
Algumas empresas signatárias: Google, Tiktok, Microsoft, Twitter, Vimeo. A lista completa pode ser acessada
em: Signatories of the 2022 Strengthened Code of Practice on Disinformation | Shaping Europe’s digital future
(europa.eu) Acesso em 22/06/2022.
183
características e dos benefícios e riscos que trazem em potencial para a coletividade”581, como,
por exemplo, a interoperabilidade582 e neutralidade da rede583.
O uso reiteirado da internet para o exercício da comunicação pelos indivíduos, dentre
diversas outras atividades rotineiras, aumentou o uso das plataformas no ambiente digital e fez
surgir um alerta para a sociedade em geral sobre o modelo de negócios implementado por esses
entes intermediários. Esse modelo se vale de sistemas automatizados, como, por exemplo,
sistemas de recomendação, para manter seus usuários engajados e coletar cada vez mais dados.
A partir da criação de perfis, esses sistemas direcionam o comportamento e influenciam os
conteúdos que serão consumidos, agindo diretamente sobre a autodeterminação dos usuários.
A par do desenvolvimento do ambiente online, observou-se a ausência de um Estado
Regulador e, como consequência, as plataformas passaram a lançar suas próprias normas,
regulando o espaço digital, o que permitiu que fossem construídas formas privadas de regulação
em espaços públicos, que são vitais para a deliberação democrática e o exercício de direitos
fundamentais.
Toda essa engrenagem afeta valores essenciais para a construção do Estado
Democrático de Direito, conforme já demonstrado neste trabalho, e traz sérias críticas no que
se refere à legitimidade e responsabilidade das plataformas para exercer a governança do espaço
digital. Teorias que buscam trazer mais legitimidade à governança exercida por esses entes
intermediários foram desenvolvidas e práticas de autorregulação foram implementadas.
Dessa forma, embora tenha predominado, no início da internet um cenário de
autorregulação das plataformas, através de normas não-vinculantes de ação, processo e
comportamentos, a análise sobre a implementação do Código de Desinformação pela União
581
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 137.
582
A interoperabilidade é a capacidade de transferir e renderizar dados úteis e outras informações entre sistemas,
aplicativos ou componentes. A combinação de transmissão e análise envolve várias camadas do chamado modelo
de Interconexão de Sistemas Abertos (Open Systems Interconnection model - OSI model), exigindo a obtenção de
vários níveis de interoperabilidade. No mínimo, deve-se distinguir a camada inferior e a camada superior,
apontando para uma divisão entre interoperabilidade de infraestrutura e interoperabilidade de dados. BELLI, Luca.
Appeal. Em: BELLI, Luca; ZINGALES, Nicolo; CURZI, Yasmin (eds.). Glossary of platform law and policy
terms. Rio de Janeiro: FGV Direito Rio, 2021. Disponível em:
https://bibliotecadigital.fgv.br/dspace/handle/10438/31365. Acesso em 10/05/2022. Para que dispositivos,
softwares e estruturas de redes, criados em separados, funcionem é preciso que haja interoperabilidade, ou seja,
um conjunto de padrões técnicos que permitam a comunicação e operação entre eles.
583
Luca Belli define a neutralidade da rede como como um princípio de não discriminação cujo objetivo é preservar
uma Internet aberta e de finalidade geral, facilitando a participação ativa do usuário bem como o pleno gozo dos
direitos fundamentais de todos os internautas. BELLI. Luca. A Neutralidade da Rede: Norma Fundamental para a
Proteção da Expressão e do Empreendedorismo na Internet. In: Horizonte presente. Tecnologia e sociedade em
debate. Páginas 377-402: FGV Direito Rio, 2019. Disponível em:
https://sbproxy.fgv.br/login?url=https://search.ebscohost.com/login.aspx?direct=true&db=cat08036a&AN=sbfgv
.000202613&lang=pt-br&site=eds-live. Acesso em 10/12/2021.
184
Europeia mostra que esse caminho não é o mais adequado para sujeitar a “soberania privada”
das plataformas digitais aos valores constitucionais de supervisão democrática e direitos
fundamentais.
Dois dos principais grupos de falhas decorrentes da operacionalização do Código de
Desinformação relacionam-se com funções estatais - monitoramento e pequena adesão no
número de integrantes, o que indica a necessidade de intervenção do Estado no quadro de
políticas regulatórias. Conforme já apontado por Clara Keller, o “afastamento total do Estado
não se mostra eficiente na regulação da internet”584.
A perspectiva de hoje, que já se aponta desde 2018, é de mudança de rumos. Parte da
literatura especializada (por todos, Christopher Marsden585) indica um novo arranjo
institucional para regular o ambiente virtual. O debate teórico que corresponde as estruturas
para regular as plataformas digitais indica uma solução híbrida, ou seja, que combine a atuação
privada, vez que, conforme visto, é indissociável da própria arquitetura da internet, com a
atuação pública, que deve ficar encarregada de mecanismos estatais de supervisão e
monitoramento. Tudo isso para que o ambiente online possa ser reflexivo, mas também
responsivo. Essa estrutura é a corregulação e será analisada na próxima subseção.
5.4.3 Corregulação
584
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris.2019, p. 113.
585
MARSDEN, Christopher T. The regulatated end of internet Law, and the return to computer and information
law? Em: After the Digital Tornado Networks, Algorithms, Humanity, Cambridge University Press. 2020, pp. 35
– 57. Disponível em: https://www.cambridge.org/core/books/after-the-digital-tornado/regulated-end-of-internet-
law-and-the-return-to-computer-and-information-law/F7B8DFAC0E3993179FF11093BF14B669 Acesso em
10/06/2022.
586
Para melhor compreensão das necessidades do Estado Regulador Contemporâneo veja a subseção “5.1.2”.
587
Ou como colocam alguns autores, Estado Pós-Moderno. Por todos, CHEVALLIER, Jacques. O Estado pós-
moderno. Tradução de Marçal Justen Filho. Belo Horizonte: Fórum, 2009.
185
grupos e interesses distintos, das pessoas jurídicas privadas que representassem o setor, e
também do próprio Estado, como garantidor dos direitos humanos e valores democráticos.
A corregulação, consoante explicitado por Gustavo Binenbojm, é um arranjo
institucional “fundado na divisão de tarefas e responsabilidades entre o Estado, agentes
regulados e partes interessadas, cuja concretização se dá, formalmente, por meio de delegação
de tarefas pelo Poder Público, mediante fixação de parâmetros sob controle estatal” 588. É uma
forma dos atores privados concretizarem os princípios ou parâmetros estabelecidos pelo Estado,
através de lei ou regulamento, mas sob a fiscalização de um órgão ou entidade estatal.
Esse arranjo permite que as múltiplas partes interessadas (multistakeholders), com
diversos interesses, sejam declaradas como partes do cenário institucional da regulação, o que
resulta em maior legitimidade para as políticas de governança, ideal para um regime
policêntrico por ser uma proposta mais democrática.
A corregulação tenta combinar o melhor da competência de cada um dos atores
envolvidos, que são a interdependência, representatividade, experiência e capacidade
operacional589, deixando para trás a simples possibilidade de uma escolha binária entre não-
regulação versus regulação estatal.
Esse novo arranjo institucional foi identificado como uma nova pespectiva nos debates
sobre “nova governança”590, aproximadamente, em 1990, e foi desenvolvido com mais força
na Europa. Ele guarda relação com as melhores práticas adotadas na teoria da regulação, tal
como a regulação responsiva 591 e o direito reflexivo592. Por isso, não é de se surpreender que
uma das primeiras utilizações desse modelo na Europa foi através da introdução de um
documento sem cunho normativo sobre standards de como legislar melhor, o Inter-Institutional
Agrement on Better law-making (IIA), oficialmente introduzido em 2003593.
588
BINENBOJM, Gustavo. Poder de Polícia, ordenação, regulação: transformações político-jurídicas,
econômicas e institucionais do direito administrativo ordenador. 3 ed. Belo Horizonte: Fórum, 2020, p.325.
589
PAPAEVANGELOU, Charilaos. The existential stakes of platform governance: a critical literature review
[version 2; peer review: 3 approved] Open Research Europe 2021, 1:31, p. 04. Disponível em:
https://doi.org/10.12688/openreseurope.13358.2 Acesso em 10/04/2022.
590
MARSDEN, Christopher T., Internet co-regulation and constitutionalism: Towards European judicial review,
International Review of Law, Computers & Technology, 26:2-3, 211-228, 2012, p. 01. DOI:
10.1080/13600869.2012.698450 Disponível em:
https://www.tandfonline.com/doi/abs/10.1080/13600869.2012.698450 Acesso em 10/04/2022. Trecho original:
Co-regulation is often identified with the rise of the ‘new governance’ in the 1990s.
591
AYRES, Ian; BRAITHWAITE, Jonh. Responsive Regulation. Transcending the deregulation debate.
Oxford: Oxford University Press, 1992. BLACK, Julia. Procedimentalizando a Regulação in Regulação
Econômica e Democracia: O Debate Europeu. Paulo Todescan Lessa Mattos (coordenação), 2ª edição revista,
São Paulo, Editora Revista dos Tribunais, 2017 (Coleção Capitalismo & Democracia), páginas 133 a 155.
592
GUERRA, Sérgio. Discricionariedade, Regulação e Reflexividade - Uma Nova Teoria Sobre as Escolhas
Administrativas, 4ª edição revista e atualizada, Belo Horizonte, Fórum, 2017, páginas 387 a 410.
593
MARSDEN, Christopher T. The regulatated end of internet Law, and the return to computer and information
law? Em: After the Digital Tornado Networks, Algorithms, Humanity, Cambridge University Press. 2020, pp. 35
186
No que se refere à regulação das redes sociais, conforme já colocado ao longo deste
trabalho, os Estados, de uma maneira geral, adotaram uma política evasiva, deixando a
regulação ocorrer pelos próprios atores regulados. Nas últimas décadas, no entanto,
questionamentos sobre a legitimidade para o exercício dessa regulação surgiram em razão das
violações aos direitos humanos. Movimentos a favor de uma intervenção estatal surgiram, mas,
can foster innovation. Co-regulation can remove barriers to the single market, simplify rules and can be
implemented flexibly and quickly.
595
BINENBOJM, Gustavo. Poder de Polícia, ordenação, regulação: transformações político-jurídicas,
econômicas e institucionais do direito administrativo ordenador. 3 ed. Belo Horizonte: Fórum, 2020, p.328.
596
Neste ponto, pode-se aplicar toda a discussão em torno da crítica já trazida no ponto da governança
multissetorial.
597
MARSDEN, Christopher T., Internet co-regulation and constitutionalism: Towards European judicial review,
International Review of Law, Computers & Technology, 26:2-3, 211-228, 2012. DOI:
10.1080/13600869.2012.698450. Disponível em:
https://www.tandfonline.com/doi/abs/10.1080/13600869.2012.698450 Acesso em 10/04/2022.
598
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris, 2019, p. 182.
188
599
BINENBOJM, Gustavo. Poder de Polícia, ordenação, regulação: transformações político-jurídicas,
econômicas e institucionais do direito administrativo ordenador. 3 ed. Belo Horizonte: Fórum, 2020, p. 324.
600
BINENBOJM, Gustavo. Poder de Polícia, ordenação, regulação: transformações político-jurídicas,
econômicas e institucionais do direito administrativo ordenador. 3 ed. Belo Horizonte: Fórum, 2020, p. 325.
601
BRASIL, Lei 10.848/2004, artigo 11 que alterou a Lei 6.648/1998. Dispõe sobre a comercialização de energia
elétrica, altera as Leis nºs 5.655, de 20 de maio de 1971, 8.631, de 4 de março de 1993, 9.074, de 7 de julho de
1995, 9.427, de 26 de dezembro de 1996, 9.478, de 6 de agosto de 1997, 9.648, de 27 de maio de 1998, 9.991, de
24 de julho de 2000, 10.438, de 26 de abril de 2002, e dá outras providências. Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2004-2006/2004/lei/l10.848.htm Acesso em 23/06/2022.
602
BINENBOJM, Gustavo. Poder de Polícia, ordenação, regulação: transformações político-jurídicas,
econômicas e institucionais do direito administrativo ordenador. 3 ed. Belo Horizonte: Fórum, 2020, pp. 327-
328.
189
A Lei de segurança online, o Online Safety Bill (no original), é um projeto de lei do
Reino Unido, publicado em maio de 2021, que sucedeu a proposta regulatória integralizada no
“Online Harms White Paper”, publicado em abril de 2019. A proposta foi elaborada em razão
da crescente preocupação em tornar o espaço digital um ambiente seguro para os usuários e
passou por um grande debate na sociedade civil, após um longo período de consulta pública,
ocasião em que foram emitidas duas respostas pelo Governo Britânico – a primeira, provisória,
em fevereiro de 2020, e a segunda, completa, em dezembro de 2020603.
O objetivo do projeto de lei é estabelecer um dever de cuidado às empresas que
hospedam conteúdos gerados pelo usuário ou que facilitam a interação pública ou privada entre
usuários. Estão incluídas nesse escopo as plataformas de mídia social, sites de armazenamento
em nuvem, plataformas de compartilhamentos de vídeos, fóruns online, videogames que
permitam a interação do usuário e mercados online. As ferramentas de busca também estão
inclusas no âmbito de aplicação da futura lei, apesar de não hospedarem conteúdo pelo usuário
diretamente604.
O raciocínio contido na proposta de legislação é que os provedores de serviço devem
ser vistos como responsáveis pelo espaço digital público que criaram. Assim como há deveres
de cuidado para os proprietários em relação às pessoas que ocupam seus espaços, empregadores
603
WOODHOUSE. John. Regulating Online harms. House of Commons Library. 15 de março de 2022.
Disponível em: https://researchbriefings.files.parliament.uk/documents/CBP-8743/CBP-8743.pdf Acesso em
10/04/2022.
604
WOODHOUSE. John. Regulating Online harms. House of Commons Library. 15 de março de 2022.
Disponível em: https://researchbriefings.files.parliament.uk/documents/CBP-8743/CBP-8743.pdf Acesso em
10/04/2022.
190
pelos seus colaboradores, deve existir um dever de cuidado para as plataformas digitais para
com seus usuários. Esse dever de cuidado parte do princípio de que os provedores de serviço e
mecanismos de busca devem tomar medidas relacionadas aos conteúdos ou atividades danosas
espraiados no espaço digital, podendo optar pelo meio mais eficiente para o fim seja alcançado.
Esse dever de cuidado se traduz em deveres para realização de avaliação de risco de
conteúdo ilegal e prejudicial (no caso de grandes plataformas); para tomar medidas
proporcionais a fim de mitigar e gerir os riscos à danos a indivíduos, de acordo com as
indicações feitas nas avaliações de risco, devendo, quando for o caso, minimizar a presença do
conteúdo ilegal e prejudicial (no caso de grandes plataformas) na rede; para respeitar os direitos
à liberdade de expressão e privacidade; para reportar denúncias e reparações dos usuários; e,
para manter registros e realizar revisões (capítulo 2, cláusula 5.2, e capítulo 3, cláusula 17.2 do
projeto de lei605).
Como parte do sistema de surpevisão, essa lei impõe regras sobre transparência, através
da publicação de relatórios, e traz a previsão da existência de um órgão regulador independente,
já estabelecido e com experiência, a Office of Communications (conhecida como OFCOM -
autoridade reguladora britânica para os serviços de radiofusão, telecomunicações e correio),
onde sua principal função será melhorar a segurança dos usuários no ambiente online. Sua
nomeação foi justificada pela forte reputação internacional e profunda experiência em ponderar
a prevenção de danos com o direito à liberdade de expressão, estando apta a garantir um
ambiente regulatório favorável ao crescimento da economia e inovação606.
Na tendência da regulação que está ocorrendo na Europa, caberá ao Órgão Regulador a
elaboração de Códigos de Conduta a serem seguidos pelas empresas. Esses códigos serão
responsáveis por estabelecer processos e sistemas a serem adotados para que as empresas
considerem como cumprido seu dever de cuidado e podem incluir em seu corpo abordagens
diferenciadas para a moderação dos vários tipos de conteúdo identificados pela lei, sistemas de
avaliação de risco de conteúdo, sistemas de governança e outras ferramentas que o órgão
regulador julgar relevante607. Como os Códigos não são vinculativos, caso, elas não cumpram
o determinado por eles, precisam demonstrar que adotaram uma abordagem, igualmente, eficaz.
605
DEPARTMENT FOR DIGITAL, CULTURE, MEDIA & SPORT AND HOME OFFICE. Draft Online Safety
Bill. The draft Online Safety Bill establishes a new regulatory framework to tackle harmful content online. 2021.
Disponível em: https://www.gov.uk/government/publications/draft-online-safety-bill Acesso em 10/01/2022.
606
DEPARTMENT FOR DIGITAL, CULTURE, MEDIA & SPORT AND HOME OFFICE. Online Harms White
Paper: Full Government Response to the consultation, 2020, p.12. Disponível em:
https://www.gov.uk/government/consultations/online-harms-white-paper Acesso em 10/01/2022.
607
Como exemplo, tem-se o Código de Práticas sobre exploração sexual e abuso de crianças e o Código de Práticas
sobre conteúdo e atividade terrorista online. Os códigos mencionados estão disponíveis no sítio eletrônico do
Governo britânico. DEPARTMENT FOR DIGITAL, CULTURE, MEDIA & SPORT AND HOME OFFICE.
191
A Lei dos Serviços Digitais (Digital Service Act – DSA)608 faz parte da estratégia de
regulação dos serviços digitais da Comissão Europeia apresentada ao Parlamento Europeu e ao
Conselho Europeu em 15 de dezembro de 2020 para ser implementada em 2022. Juntamente
com a Lei de Marketing Digital (Digital Market Act – DMA), o plano criado para garantir um
espaço digital seguro é destinado a governança dos serviços digitais e tem como escopo a
promoção dos direitos fundamentais nos serviços digitais e da inovação tecnológica por meio
do estabelecimento de regras comuns para fornecedores de serviços digitais no mercado
europeu a fim de que se mantenha um ambiente virtual justo e aberto.
A tão esperada reforma regulatória é mencionada como necessária para equilibrar a
moderação de conteúdo e preservação do direito à liberdade de expressão, poder de mercado e
competição que envolvem os serviços digitais na União Europeia (Comissão Europeia, 2020-
Online harms: interim codes of practice. These codes provide guidance for companies to help them understand
how to mitigate the risks from online terrorist content and activity and child sexual exploitation and abuse.
Dezembro de 2020. Disponível em: Online harms: interim codes of practice - GOV.UK (www.gov.uk) Acesso em
10/06/2022.
608
EUROPEAN COMMISSION. Proposal for a Regulation on a Single Market For Digital Services (Digital
Services Act). 15 de dezembro de 2020. Disponível em: https://eur-lex.europa.eu/legal-
content/en/TXT/?qid=1608117147218&uri=COM%3A2020%3A825%3AFIN Acesso em 30/06/2022.
192
a), que são regulados, hoje, pela Diretiva de Comércio Eletrônico (E-commerce Directive) e
Diretiva de Serviços de Mídia Audiovisual (Audiovisual Media Services Directive).
Essa reforma também se mostra necessária em um cenário em que as respostas nacionais
que emergiram dos Estados-membros para responder aos crescentes impactos e riscos causados
pelas atividades das plataformas digitais são divergentes. A liberdade de oferecer serviços e
produtos em toda a União Europeia é uma das quatro principais liberdades, além daquelas
relacionadas aos bens, pessoas e capital, e o conflito entre as várias legislações internas
atrapalha a formação de um mercado único.
Essas disparidades podem gerar insegurança jurídica e obstáculos para a prestação do
serviço de conteúdo digital. Por esse motivo, a opção da Comissão Europeia foi o
estabelecimento de um regulamento, o qual vincula todos os países-membros, e não uma
diretiva, conforme antes adotado609.
A lei dos serviços digitais está estruturada da seguinte forma: (i) Capítulo I: estabelece
seu escopo e define os conceitos chaves que são utilizados pela lei; (ii) Capítulo II: estabelece
a responsabilidade dos fornecedores de serviços intermediários, com base em padrões
anteriores definidos pela Diretiva sobre o comércio eletrônico; (iii) Capítulo III: estabelece as
obrigações de diligência para um serviço online transparente e seguro, distinguindo os
prestadores de serviços intermediários em geral; (iv) Capítulo IV: trata da implementação do
DSA e cooperação nacional e supranacional, bem como sanções e fiscalização, estabelecendo
novos órgãos da administração pública como os Coordenadores de Serviços Digitais610.
O objetivo da lei é proteger o ambiente digital do conteúdo ilegal, que é definido pelo
artigo 2º (g) como “qualquer informação que, por si só ou por referência a uma atividade,
incluindo a venda de produtos ou prestação de serviços, não está em conformidade com o direito
aplicado pela União Europeia ou Estado-membro”611.
Essa definição inclui material de abuso infantil, discurso de ódio, difamação, dentre
outros, e difere-se do conceito de conteúdo prejudicial, aquele que, apesar de causar danos aos
indivíduos e sociedade em geral, não é ilegal, como, por exemplo, a desinformação. Contudo,
diversos Estados-membros, tais como Áustria, Croácia, Chipre, República Tcheca, França,
609
Ó FATHAIGH, Ronan; HELBERGER, Natali; APPELMAN, Naomi. The perils of legally defining
desinformation. Internet Policy Review. 2021. v. 10. i.4.. DOI: https://doi.org/10.14763/2021.4.1584 Acesso em:
10/04/2022.
610
CAUFFMAN, Caroline, GOANTA, Catalina. A New Order: The Digital Services Act and Consumer
Protection. European Journal of Risk Regulation, 2021, 12(4), pp. 758-774. Disponível em:
https://www.cambridge.org/core/journals/european-journal-of-risk-regulation/article/new-order-the-digital-
services-act-and-consumer-protection/8E34BA8A209C61C42A1E7ADB6BB904B1 Acesso em: 10/04/2022.
611
Comissão Europeia. Proposta para Regulação de um mercado único para os serviços digitais (Lei dos Serviços
Digitais). 2020. https://eur-lex.europa.eu/legal-content/PT/TXT/PDF/?uri=CELEX:52020PC0825&from=pt
193
612
Ó FATHAIGH, Ronan; HELBERGER, Natali; APPELMAN, Naomi. The perils of legally defining
desinformation. Internet Policy Review. 2021. v. 10. i.4.. DOI: https://doi.org/10.14763/2021.4.1584 Acesso em:
10/04/2022.
613
KAYE, D. Promotion and protection of the right to freedom of opinion and expression. Relatório especial
oferecido na Assembleia Geral das Nações Unidas, 2019. A/74/486. Disponível em:
https://www.ohchr.org/Documents/Issues/Opinion/A_74_486.pdf Acesso em: 10/04/2022 e KAYE, D.
Promotion and protection of all human, civil, political and cultural rights, including the right to development.
Relatório especial oferecido na Assembleia Geral das Nações Unidas, 2018. A/HRC/38/35. Disponível em:
https://documents-dds-ny.un.org/doc/UNDOC/GEN/G18/096/72/PDF/G1809672.pdf Acesso em: 10/04/2022.
614
CAUFFMAN, Caroline, GOANTA, Catalina. A New Order: The Digital Services Act and Consumer
Protection. European Journal of Risk Regulation, 2021. 12(4), 758-774. doi:10.1017/err.2021.8. Disponível em:
https://www.cambridge.org/core/journals/european-journal-of-risk-regulation/article/new-order-the-digital-
services-act-and-consumer-protection/8E34BA8A209C61C42A1E7ADB6BB904B1
194
Como pontos positivos dessa atuação, as plataformas possuem acesso aos dados
necessários e estão em melhor posição para saber os problemas causados por elas, além da
maneira mais econômica para remediá-los. Por outro lado, a crítica que faz é que as auditorias
privadas são empresas privadas e agem com base no lucro, podendo não apresentar
independência em relação as empresas que auditam. O melhor seria existir que esses processos
de auditoria contassem com uma supervisão pública para garantir que os direitos fundamentais
e devido processo sejam, de fato, aplicados.
A fim de lidar com esse problema, a Lei dos Serviços Digitais exige que as auditorias
tenham experiência comprovada na área de gestão de risco, além de competência, capacidades
e ética profissional comprovadas, com base, em particular, na adesão a códigos de prática ou
padrões apropriados (artigo 28 §2 da Lei de Serviços Digitais). No entanto, não há uma
estrutura de supervisão específica para os auditores envolvidos615.
Para finalizar, a Lei dos Serviços Digitais traz um sistema de fiscalização das
atividades desenvolvidas pelas plataformas em relação ao cumprimento das normas que pode
ser chamado de digital enforcement. Neste sistema, cada Estado-membro designará um
Coordenador de Serviços Digitais, que atuará de forma independente das outras autoridades
públicas estatais, cuja competência será fixada de acordo com as plataformas que operem na
sede do seu Estado. A lei também estabelece um novo órgão: o Conselho Europeu de Serviços
Digitais. Este órgão é igualmente independente. Tanto o Coordenador como o Conselho,
enquanto órgãos reguladores, possuem poderes de investigação e enforcement da legislação,
o que inclui, a requisição e produção de documentos e informações. No caso do
descumprimento das medidas impostas pela lei, eles podem ordenar a cessação da infração,
impor medidas provisórias e aplicar multas no percentual de 6% da receita anual das
plataformas ou volume de negócios do provedor de serviços intermediários, por exemplo
(artigo 42 da Lei de Serviços Digitais).
615
CAUFFMAN, Caroline, GOANTA, Catalina. A New Order: The Digital Services Act and Consumer
Protection. European Journal of Risk Regulation, 2021. 12(4), 758-774. doi:10.1017/err.2021.8. Disponível em:
https://www.cambridge.org/core/journals/european-journal-of-risk-regulation/article/new-order-the-digital-
services-act-and-consumer-protection/8E34BA8A209C61C42A1E7ADB6BB904B1 Acesso em: 10/04/2022.
195
616
Ver Subseção 5.1.2 “Do estado regulador contemporâneo”.
617
ARAGÃO. Alexandre Santos. Agências Reguladoras e a evolução do direito administrativo econômico.
3ed. Rio de Janeiro: Forense, 2013. pp. 99-103.
618
ACKERMAN, Bruce. Good-bye Montesquieu. Comparative Administrative Law. Susan Rose-Ackerman e
Peter L. Lindseth (org.). Edward Eugar Publishing. 2012.
619
ARAGÃO. Alexandre Santos. Agências Reguladoras e a evolução do direito administrativo econômico.
3ed. Rio de Janeiro: Forense, 2013. P. 103.
197
620
HARTMANN, Ivar A. M. A Right to Free Internet? On Internet Access and Social Rights. Journal of High
Technology Law, v. XIII, Pp. 362-429. 2013. P. 381-385. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2355900 O autor menciona que o Poder Judiciário deve ter o
cuidado para não ultrapassar a sua função primordial, deixando, apenas, para os casos em que o mínimo existencial
esteja envolvido ou outras situações excepecionais, a exigência de uma ação específica sobre política para um
determinado Governo.
198
621
Nesse caso, o Tribunal da União Europeia delegou a implementação do acórdão para os buscadores que operam
na União Europeia. Conforme trazido por Luca Belli, “cada buscador deve oferecer acesso a um formulário online
para permitir que os indivíduos peçam a desindexação de informações que lhes pertencem e que podem ser
consideradas inadequadas, não pertinentes ou que já não sejam pertinentes por causa do tempo decorrido”. BELLI,
Luca. STJ consagra direito ao esquecimento na Internet: o queisso significa? Proteção ao direito ao esquecimento
pode ser explorado indevidamente. JOTA. Maio de 2018. Disponível em: https://www.jota.info/coberturas-
especiais/liberdade-de-expressao/stj-consagra-direito-ao-esquecimento-na-internet-o-que-isso-significa-
20052018
622
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.122
199
já se escapa da neutralidade no sentido convencional. Por isso, conteúdo neutro deve ser
entendido como “não favorecendo ou desfavorecendo um discurso em razão do seu ponto de
vista”623. Como exemplo, o autor cita o banimento do discurso de “assédio” ou “ameaça”. Isso
não quer dizer que está fazendo um julgamento sobre uma ideia específica, se boa ou ruim. Para
ser neutra, a regulação precisa julgar se esses discursos causam medo ou algum estresse
emocional.
Seja qual for o corpo do regime regulatório proposto, é preciso considerar que o tema é
controverso e não existe uma única resposta certa para todas as questões que permeiam o
assunto. Por exemplo, a questão do anonimato nas redes sociais. Muito se tem debatido que se
essa possibilidade é uma ferramenta importante de proteção para os usuários ou um escudo para
agentes maliciosos. Na verdade, as duas posições estão corretas. Assim, a resolução dos
problemas sobre moderação de conteúdo requer uma regulação que, invarialmente, pode trazer
alguns resultados arbitrários. No entanto, conforme colocado por Feld, “ o valor de qualquer
estrutura é encontrado na sua contribuição geral, não nos casos extremos mais difíceis”624.
No que se refere aos instrumentos da regulação, o Estado dispõe de um vasto leque ao
seu dispor. A depender do caso concreto, pode-se utilizar, por exemplo, instrumentos da
concessão ou permissão, quando se trata de serviços públicos, de autorizações de
funcionamento, quando o caso for de atividades privadas de interesse público, ou se simples
autorizações prévias atavés do exercício do poder de polícia625. Esse trabalho defende que a
instituição de uma Agência Reguladora seria o instrumento mais adequado para regular as
plataformas de mídias sociais, o que não significa que esse modelo não possui desafios a serem
superados. No entanto, ele permite que a regulação seja retirada da esfera política, que pode ser
manchada por questões políticas-eleitorais, para uma entidade independente, que possa atender
aos fins públicos perseguidos pela regulação estatal. É o que será a seguir abordado.
623
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.124. Trecho original: “Content neutral in this sense
generally means not favoring or disfavoring speech because of its point of view”. Como exemplo, o autor cita o
banimento do discurso de “assédio” ou “ameaça”.
624
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.122. Trecho original: There is no single right answer
to any of these questions. Resolving them inevitably requires line-drawing, resulting in some arbitrary outcomes.
But the value of any framework is found in its overall contribution, not in the most difficult edge cases.
625
ARAGÃO. Alexandre Santos. Agências Reguladoras e a evolução do direito administrativo econômico.
3ed. Rio de Janeiro: Forense, 2013.pp 145-179.
200
626
ARAGÃO. Alexandre Santos de. Agências Reguladoras e a evolução do direito administrativo econômico.
3 ed. rev. e atual. – Rio de Janeiro: Forense, 2013, p. 351.
627
Funções de Estado e funções de governo são diferentes. A primeira indica funções decorrentes das leis e da
Constituição, as quais devem ser observadas e executadas pela Administração Pública. A segunda se materializa
através das prioridades eleitas por um determinado plano de governo e depende da orientação política. MARQUES
NETO, Floriano Peixoto de Azavedo. Agências Reguladoras independentes: fundamentos e seu regime
jurídico. Belo Horizonte: Fórum, 2005, p.84. Essa diferença reflete a dificuldade que se tem nas democracias, em
razão do governo ser limitado pelo tempo, de se alcançar uma continuidade política. Isso porque, em razão da
alternância de poder, os políticos possuem poucos incentivos para desenvolverem políticas públicas de longo
prazo, cujos resultados virão após o término de seus mandatos. Uma solução a esse problema está na delegação de
políticas a instituições, como Banco Centrais e Agências Reguladoras. No entanto, em que pese essa orientação,
há estudos que indicam, nos EUA, que as políticas adotadas pelos reguladores seguem as preferências políticas
das comissões parlamentares, que possuem responsabilidade de supervisão das Agências. MAJONE,
Giandomenico. Do Estado Positivo ao Estado Regulador: Causas e consequências da mudança do modo de
governança. In: Regulação Econômica e Democracia: o debate europeu. Coordenação e tradução: Paulo
Todescan Lessa Mattos. 2 ed.rev. – São Paulo: editora Revista dos Tribunais. 2017.p. 69-71.
628
Um exemplo polêmico, de atuação duvidosa, sobre a regulação da moderação de conteúdo vinculada aos desejos
de um Governo foi a edição da MP1068/2021, que alterou o MCI. Isso porque ela foi editada em um Governo que
é constantemente alvo de críticas relacionadas à conteúdo prejudicial, muitas vezes moderados pelas plataformas
sociais. Assim, às vésperas das manifestações de 7 de setembro de 2021, o Presidente Jair Bolsonaro editou medida
provisória com o objetivo de conter a remoção de conteúdo da internet de maneira "imotivada e arbitrária" pelas
redes sociais, beneficiando, com esse ato, seus apoiadores. Conforme apontado por parte da mídia, “pelo momento
em que foi publicada, a MP foi interpretada pela oposição como uma maneira de proteger a disseminação de fake
news e propagar mensagens antidemocráticas”. https://noticias.r7.com/brasilia/devolucao-de-medidas-
provisorias-gera-divergencia-entre-congresso-e-constitucionalistas-15092021 Acesso em 10/04/2022. Veja
também: BRASIL, MP 1068 de 21 de setembro de 2021, que alterava a Lei nº 12.965, de 23 de abril de 2014, e
a Lei nº 9.610, de 19 de fevereiro de 1998, para dispor sobre o uso de redes sociais. Disponível em:
https://www.in.gov.br/en/web/dou/-/medida-provisoria-n-1.068-de-6-de-setembro-de-2021-343277275 Acesso
em 10/04/2022.
201
então, que se deu início a reestruturação do papel do Estado na economia, com implantação,
ainda que tímida629, do modelo norte-americano de Estado Administrativo630.
A finalidade da transformação e criação de entidades reguladoras independentes era
desfavorecer a concentração do poder político, com o estabelecimento de políticas favoráveis
aos Governos, para conceder planejamento e tecnicidade as decisões do Estado, desvinculadas,
portanto, das ações dos Governos631. A autonomia, ora mencionada, traz indepedência a essas
entidades, o que permite que essas agências consigam regular o mercado de forma eficaz,
entregando bons resultados para a sociedade, sem restar atrelada a velha política clientelista.
Criam-se, então, as Agências Reguladoras, autarquias, sob regime especial, dotadas de
autonomia financeira e administrativa. Essa independência decorre da necessidade da regulação
ocupar um espaço neutro e objetivo, capaz de definir um “justo equilíbrio” 632 entre os interesses
sociais. E, por serem independentes, as agências estão situadas fora do controle do Governo.
Essa emancipação é obtida pela concessão de garantias orgânicas (inamovibilidade dos
direigentes, mandato por tempo certo, gerência de seu próprio orçamento e estrutura, escolha
de seus membros, etc) e funcionais (eliminação de vínculos hierárquicos ou de tutela).
Outros argumentos que também podem ser utilizados a favor da criação de uma agência
é que dificilmente um usuário comum conseguirá, por exemplo, de forma eficaz, aferir o
cumprimento de eventuais normas ou diretrizes e o respeito aos direitos fundamentais nas
políticas internas adotadas pelas empresas. A uma porque são procedimentos extremamente
técnicos. A duas porque os recursos tecnológicos estão em constante evolução, pelo que
demandam constante monitoramento das bases normativas que orientam a atuação das
plataformas digitais de redes sociais.
Por essa razão é preciso que o Poder Legislativo elabore normas amplas, com o conteúdo
da política pública que se deseja alcançar, e delegue às Agências, um corpo dotado de
capacitação técnica, o poder de atingir esses objetivos. As normas funcionam melhor quando o
629
O plano apresentado pelo Governo do Presidente, à época, Fernando Henrique Cardoso, na prática, não
funcionou como o previsto em seu esboço, visto que a Administração Pública Indireta permaneceu vinculada ao
Executivo, ao contrário do que se pretendia, transformação das autarquias e fundações em agência independentes.
GUERRA, Sérgio. Separação de Poderes, Executivo Unitário e Estado Administrativo no Brasil. In: Teoria do
Estado Regulador/organizador Sérgio Guerra/Curitiba: Juruá,2017. V.3. p. 24-27.
630
GUERRA, Sérgio. Separação de Poderes, Executivo Unitário e Estado Administrativo no Brasil. In: Teoria do
Estado Regulador/organizador Sérgio Guerra/Curitiba: Juruá,2017. V.3. p. 24-27.
631
É importante asseverar que as agências independentes não atuam totalmente à margem da política, uma vez que
o presidente da autarquia será nomeado pelo Chefe do Poder Executivo, aprovado pelo Congresso. Ainda, ressalta-
se que as Agências sofrem o controle do Tribunal de Contas da União (TCU), órgão vinculado ao Poder
Legislativo.
632
CHEVALLIER, Jacques. O Estado pós-moderno. Tradução de Marçal Justen Filho. Belo Horizonte: Fórum,
2009. p.101.
202
633
SADDY, André. Regulação estatal, autorregulação privada e códigos de conduta e boas práticas. Rio de
Janeiro: Lumen Juris, 2015, p. 124.
634
ARAGÃO. Alexandre Santos. Agências Reguladoras e a evolução do direito administrativo econômico.
3ed. Rio de Janeiro: Forense, 2013.
204
conformidade com a lei, ou de acordo com os seus próprios termos de uso, ou ainda, em linha
com os compromissos assumidos nos códigos de conduta eventualmente assinados, o que torna
eventuais proteções normativas sem valor, caso não sejam previstos mecanismos de
monitoramento.
A atuação da Agência deve sempre se preocupar em equilibrar o ambiente digital,
cuidando para que a regulação do conteúdo não viole o direito fundamental da liberdade de
expressão, mas proteja-o e promova-o. Não se ignora, por outro lado, que a atuação das
Agências apresente grandes desafios. É o que será abordado na próxima subseção.
635
CARPENTER, Daniel; MOSS, David. Preventing regulatory capture: special interest influence and how to limit
it Carpenter. Harvard university. 2014. Disponpivel em: https://www.tobinproject.org/books-papers/preventing-
capture Acesso em 10/04/2022.
205
636
RYAN, Johnny, TONER, Alan. Europe’s enforcement paralysis ICCL’s 20. ICCL’s 2021 report on the
enforcement capacity of data protection authorities. Irish Council for Civil Liberties. 2021. Disponível em:
https://www.iccl.ie/wp-content/uploads/2021/09/Europes-enforcement-paralysis-2021-ICCL-report-on-GDPR-
enforcement.pdf Acesso em 10/06/2022.
206
637
HARTMANN, Ivar, MONTEIRO, Julia. Fake News no Contexto da Pandemia e Emergência Social: os deveres
e responsabilidades das plataformas de Redes Sociais na Moderação de Conteúdo Online: entre a Teoria e as
Proposições Legislativas. RDP, Brasília, 2020, volume 17, n. 94, 388-414. Disponível em:
https://www.portaldeperiodicos.idp.edu.br/direitopublico/article/view/4607 Acesso em 10/10/2021.
638
HARTMANN, Ivar, MONTEIRO, Julia. Fake News no Contexto da Pandemia e Emergência Social: os deveres
e responsabilidades das plataformas de Redes Sociais na Moderação de Conteúdo Online: entre a Teoria e as
Proposições Legislativas. RDP, Brasília, 2020, volume 17, n. 94, 388-414, p. 404.
https://www.portaldeperiodicos.idp.edu.br/direitopublico/article/view/4607 Acesso em 10/10/2021.
639
BRASIL. Projeto de Lei 2630/2020. Institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência
na Internet. Disponível em: https://www.camara.leg.br/propostas-legislativas/2256735 Acesso em 30/06/2022.
207
640
Sobre o ponto, destaca-se, inclusive, que no ano de 2017 foi realizada uma consulta pública pelo Ministério da
Ciência, Tecnologia, Inovações e Comunicações no intuito de revisar o desenho institucional, as funções, e as
208
A segunda crítica está na competência atribuída pelo PL 2630/20 ao órgão. Não foi
prevista nenhuma espécie de validação dos Códigos pelo CGI, cabendo a esse órgão público
somente certificar a entidade que atenda aos requisitos da lei e não os códigos elaborados pela
entidade de autorregulação privada641. A literatura sobre o tema indica que deve existir
monitoramento e avaliação periódica sobre os compromissos firmados nos Códigos de
Conduta, indicadores específicos para as promessas feitas, além de compromissos concretos,
que considerem as peculiaridades dos diversos atores do mercado 642. Caso contrário, o que se
terá são compromissos vagos e convenientes, que permitirão as plataformas a interpretarem as
normas de forma seletiva e discriminatória, o que fere a proporcionalidade e isonomia. Ignorar
essas recomendações pode consolidar o poder das grandes plataformas no mercado.
Dessa forma, em que pese ser possível várias formas de arquiteturas para essa
aproximação entre o poder público e os atores afetados na regulação, acredita-se que, a partir
do que foi narrado neste trabalho e, principalmente, pela necessidade de proteção dos direitos
fundamentais, que o Estado deve possui um papel mais amplo e ativo na regulação das
plataformas digitais de redes sociais dentro do que foi exposto na abordagem do arranjo
institucional da corregulação.
competências do CGI.br. Segundo um relatório do InternetLab, os debates giraram em torno dos 5 eixos propostos
pelo MCTIC, que por sua vez se referiam a pontos chave no funcionamento e composição do Comitê:
“competência” (possíveis mudanças e melhorias em relação às funções do Comitê); “composição” (discussão
sobre setores atuais e eventual necessidade de inclusão de outros atores); “eleição e mandato” (contribuições para
aprimorar o processo de escolha dos membros eleitos); “transparência” (aperfeiçoamento dos mecanismos de
transparência); e “outros temas ou considerações” (para assuntos residuais). KIRA, Beatriz, TAMBELLI, Clarice
N. O que está em jogo no debate sobre o cgi.br? INTERNETLAB - ASSOCIAÇÃO INTERNETLAB DE
PESQUISA EM DIREITO E TECNOLOGIA, 2017. Disponível em: http://www.internetlab.org.br/wp-
content/uploads/2018/01/O-que-esta-em-jogo-no-debate-sobre-CGI_.pdf Acesso em 23/06/2022.
641
CURZI, Yasmin. ZINGALES, Nicolo. GASPAR, Walter. LEITÃO, Clara. COUTO, Natália. REBELO,
Leandro. OLIVEIRA, Maria Eduarda. Nota técnica do Centro de Tecnologia e Sociedade da FGV Direito Rio
sobre o substitutivo ao PL 2630/2020. Rio de Janeiro: FGV Direito Rio, 2021, p. 18.
https://bibliotecadigital.fgv.br/dspace/bitstream/handle/10438/31348/nt-pl2630.pdf?sequence=1&isAllowed=y
642
BELLI, Luca, FRANCISCO, Pedro Augusto, ZINGALES, Nicolo. Law of the Land or Law of the Platform?
Beware of the Privatisation of Regulation and Police. In: Platform regulations: how platforms are regulated
and how they regulate us. P. 41-64. FGV Direito Rio. 2017.
209
7 CONCLUSÃO
O presente trabalho, cujo objeto é a regulação de conteúdo nas redes sociais, realizou
um estudo sobre os possíveis arranjos institucionais na atividade de moderação de conteúdo
desenvolvida pelas plataformas digitais de redes sociais, com especial atenção para a
corregulação, com o objetivo de investigar se o Estado possui algum papel na regulação de
conteúdo, hoje, exercida de forma unilateral pelas redes sociais. Buscou-se também analisar
como seria a regulação estatal da atividade de moderação de conteúdo exercida pelas
plataformas de redes sociais.
Ao longo da pesquisa, os capítulos desenvolvidos forneceram as bases para que se
pudesse, ao final, tecer as seguintes considerações:
V) A natureza privada das redes sociais acarreta alguns problemas, como falta de
legitimidade e accountability;
VI) Atualmente, não há, no Brasil, regulação que trate da moderação de conteúdo
exercida pelas redes sociais. Regras de responsabilidade, por outro lado, estão
previstas no artigo 19 do MCI, com previsão de uma responsabilidade subjetiva;
VII) A moderação de conteúdo afeta, de forma significativa, os direitos
fundamentais, tais como, a liberdade de expressão, privacidade e devido processo
legal. Observa-se um poder demasiado das redes sociais na forma de comunicação,
sem incentivos econômicos ou legais para proteger a liberdade de expressão.
VIII) O Estado, em razão da dimensão positiva dos direitos fundamentais, tem o dever
de promover e proteger a liberdade de expressão e os demais direitos fundamentais
afetados. Essa afirmação pode ser utilizada como justificativa para a regulação das
plataformas digitais de redes sociais.
IX) Governança e regulação são conceitos distintos. Enquanto a governança apresenta-
se como uma estrutura complexa em rede que acomoda diferentes partes
interessadas, com diferentes interesses, coordenadas de maneira colaborativa por
diversos instrumentos, que tanto podem ter origem pública, como particular. A
regulação é um mecanismo da governança, que objetiva conformar o
comportamento de um determinado grupo, com consequências imprevisíveis para a
governança.
X) A moderação de conteúdo, a partir desses conceitos, é enquadrada como uma
ferramenta de regulação utilizada pelas plataformas de redes sociais para exercer a
governança, pelo que toda a estrutura que envolve políticas e termos de uso, sistemas
de algoritmos, interfaces e outros aparatos técnicos são instrumentos que vão operar
o complexo sistema de interações entre as plataformas e os diversos atores que
utilizam seu espaço.
XI) A governança das plataformas de redes sociais gera críticas de legitimidade dessas
pessoas jurídicas privadas por exercem tamanha influência e poder no espaço digital
sem advirem de uma participação democrática no ambiente digital.
XII) Essa crítica levou a literatura especializada a traçar diversos caminhos que
pudessem conferir mais legitimidade as práticas regulatórias das redes sociais. As
principais delas são: (a) constitucionalismo digital, o que implica em trazer às redes
sociais deveres procedimentais na sua atuação e respeito aos direitos humanos por
211
XXVII) Esse instrumento tem como pontos positivos a autonomia e independência das
Agências em relação aos demais Poderes do Estado, desvinculando, portanto, a
política regulatória que regerá as atividades das plataformas de redes sociais das
ações de Governo. Busca-se um ambiente neutro que possa trazer equilíbrio ao
mercado com proteção dos direitos fundamentais e valores estabelecidos e,
sobretudo, que possa supervisionar o cumprimento dos parâmetros estabelecidos
pela regulação. De nada adiantaria uma boa legislação ou um bom código de conduta
se há pouca aderência entre os regulados e não há cumprimento das normas ou
compromissos assumidos.
XXVIII) O projeto de lei que, hoje, tramita no Congresso Nacional guarda um papel
mais tímido ao Estado, afastando do modelo de corregulação. A autorregulação
regulada, eleita pelo legislador brasileiro, não é sinônimo de corregulação e, por
isso, é mais deferente às iniciativas privadas das redes sociais. Como principais
pontos negativos do arranjo institucional eleito está a ausência de supervisão pública
das regras, elaboradas por uma instituição privada, que formaram o Código de
Conduta, instrumento que buscará a conformidade da atuação das redes sociais aos
parâmetros estabelecidos em lei. Ainda, a supervisão pública ficará a cargo de um
órgão atrelado ao Poder Executivo, mas sem autonomia administrativa e financeira,
que pode ser extinto por meio de decreto do chefe do Poder Executivo.
Assim, considerando o exposto neste trabalho, acredita-se que a criação de uma Agência
Reguladora é o instrumento regulatório (i) adequado, isto é, apto a promover a proteção dos
direitos fundamentais da pessoa humana, notadamente, os destacados neste trabalho, liberdade
de expressão, privacidade e devido processo, (ii) necessário, vez que nenhum outro instrumento
regulatório seria capaz de responder de forma eficiente e dinâmica as demandas do mercado,
equilibrando a inovação tecnológica e livre iniciativa, de um lado, com respeito e promoção
dos direitos fundamentais através de uma supervisão neutra, de outro, e, (iii) proporcional em
sentido estrito, ou seja, justifica-se a restrição da livre iniciativa para que possa realizar outros
valores constitucionais fundamentais.
Se a necessidade dessa Agência é afirmada com clareza, a forma de sua constituição, se
uma nova agência ou a incorporação a uma já existente, podendo-se cogitar, por exemplo, na
criação de uma “Agência Digital”, com competência para regular três áreas específicas: dados,
conteúdo e inteligência artificial, constituem questões para serem dirimidas em uma futura
215
pesquisa e melhor seriam avaliadas em conjunto com um exame pragmático das possibilidades
atuais do ordenamento jurídico.
216
8 REFERÊNCIAS BIBLIOGRÁFICAS
ARTIGOS E LIVROS:
ANGWIN, Julia et al. Machine Bias. Pro Publica. 23 de maior de 2016. Disponível em:
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
Acesso em: 25.10.2017.
ARAGÃO, Alexandre Santos de. Direito dos Serviços Públicos – 4ed. Belo Horizonte:
Forum,2017.
ASHER. Saira. 04 de fevereiro de 2021. Myanmar coup: How Facebook became the 'digital tea
shop'. BBC News. https://www.bbc.com/news/world-asia-55929654 Acesso em: 05/07/2021.
BALKIN. Jack M. How regulate (and not regulate) social media. Journal of Free Speech Law
, Knight Institute Occasional Paper Series, No. 1 (March 25, 2020), Yale Law School, Public
Law Research Paper Forthcoming, 2021. Disponível em SSRN:
https://ssrn.com/abstract=3484114
BALKIN. Jack M. The Fiduciary Model of Privacy, 134 HARV. L. REV. 11 (2020).
Disponível em: https://harvardlawreview.org/wp-content/uploads/2020/10/134-Harv.-L.-Rev.-
F.-11.pdf
BAPTISTA, Patrícia; KELLER, Clara Iglesias. Porque, quando e como regular as novas
tecnologias? Os desafios trazidos pelas inovações disruptivas. Revista de Direito
Administrativo – RDA,v. 273,Rio de Janeiro, p.123-163,17set.2016.Disponível em:
http://bibliotecadigital.fgv.br/ojs/index.php/rda/article/view/66659/64683.
BARRET, Paul M. Who Moderates the Social Media Giants? A call to end outsourcing, New
York University Stern Center for Business and Human Rights, Junho 2020.
217
BELLI, Luca, FRANCISCO, Pedro Augusto, ZINGALES, Nicolo. Law of the Land or Law of
the Platform? Beware of the Privatisation of Regulation and Police. In: Platform regulations:
how platforms are regulated and how they regulate us. P. 41-64. FGV Direito Rio. 2017
BELLI, Luca. STJ consagra direito ao esquecimento na Internet: o que isso significa? Jota. 20
de maio de 2018. Disponível em: https://www.jota.info/coberturas-especiais/liberdade-de-
expressao/stj-consagra-direito-ao-esquecimento-na-internet-o-que-isso-significa-20052018
BELLI, Luca. Internet Governance and Regulation: A Critical Presentation. In: Belli, Luca,
Cavalli, Olga. Internet Governance and Regulations in Latin America. FGV Direito Rio.
2019, p. 44. Disponível em: https://www.gobernanzainternet.org/book/book_en.pdf. Acesso
em 10/05/2022.
BELLI, Luca. The right to be forgotten is not compatible with the brazilian constitution. or is
it? Future of Privacy Forum. 23 de março de 2021. Disponível em: https://fpf.org/blog/the-
right-to-be-forgotten-is-not-compatible-with-the-brazilian-constitution-or-is-it/
BELLI, Luca. Appeal. Em: BELLI, Luca; ZINGALES, Nicolo; CURZI, Yasmin (eds.).
Glossary of platform law and policy terms. Rio de Janeiro: FGV Direito Rio, 2021.
Disponível em: https://bibliotecadigital.fgv.br/dspace/handle/10438/31365.
BELLI, Luca. Plataforms. Em: BELLI, Luca; ZINGALES, Nicolo; CURZI, Yasmin (eds.).
Glossary of platform law and policy terms. Rio de Janeiro: FGV Direito Rio, 2021, p.239-242.
Disponível em: https://bibliotecadigital.fgv.br/dspace/handle/10438/31365.
BERTONI, Eduardo. Convention 108 and the GDPR: Trends and perspectives in Latin
America. Computer Law & Security Review. Volume 40, Abril de 2021.Disponível em:
https://doi.org/10.1016/j.clsr.2020.105516 Acesso em 10/10/2021.
BLACLK, Julia. Decentring Regulation: Understanding the Role of Regulation and Self-
Regulation in a “post-Regulatory” world. Current Legal Problems. 2001.
BLACK, Julia. Risk in Regulatory Processes, p. 3. [s. l.]: Oxford University Press, [s. d.]. ISBN
9780191594007. DOI 10.1093/oxfordhb/9780199560219.003.0014. Disponível em:
https://search-ebscohost-
com.sbproxy.fgv.br/login.aspx?direct=true&db=edselc&AN=edselc.2-52.0-
80054756021&lang=pt-br&site=eds-live
BLOCH-WEHBA, Hannah. Global Platform Governance: Private Power in the Shadow of the
State, 72 SMU L. REV. 27, pp. 27-80, 2019, p.61. Disponível em:
https://scholar.smu.edu/cgi/viewcontent.cgi?article=4778&context=smulr
BOSTOEN, Friso. Neutrality, fairness or freedom? Principles for platform regulation. Internet
Policy Review. 2018; 7(1): 19. Disponível em:
http://policyreview.info/articles/analysis/neutrality-fairness-or-freedom-principles-platform-
regulation .
219
BROWN, Ian; MARSDEN, Christopher T. Regulating Code: Good Governance and Better
Regulation in the Information Age. The MIT Press: London, 2013
BUDISH, Ryan; WEST, Sarah; and GASSER, Urs. Designing Successful Governance Groups:
Lessons for Leaders from Real-World Examples (August 2015). Berkman Center Research
Publication No. 2015-11. Disponível em: http://ssrn.com/abstract=2638006
CALLAMARD, Agnés. The Human Rights Obligations of Non-State Actors. In: Human
rights in the age of platforms. Editor: Rikke Frank Jørgensen: Cambridge, MA: The MIT
Press. 2019. Disponível em: file:///C:/Users/user/Downloads/1005622.pdf
CAPLAN, Robyn, Gillespie Tarleton. Tiered Governance and Demonetization: The Shifting
Terms of Labor and Compensation in the Platform Economy. Social Media + Society. Abril
de 2020. Disponível em: https://journals.sagepub.com/doi/10.1177/2056305120936636
CAUFFMAN, Caroline, GOANTA, Catalina. A New Order: The Digital Services Act and
Consumer Protection. European Journal of Risk Regulation, 2021, 12(4), pp. 758-774.
Disponível em: https://www.cambridge.org/core/journals/european-journal-of-risk-
regulation/article/new-order-the-digital-services-act-and-consumer-
protection/8E34BA8A209C61C42A1E7ADB6BB904B1
CARPENTER, Daniel; MOSS, David. Preventing regulatory capture: special interest influence
and how to limit it Carpenter. Harvard university. 2014. Disponpivel em:
https://www.tobinproject.org/books-papers/preventing-capture
CEA Alumni. Street Bump: Crowdsourcing Better Streets, but Many Roadblocks Remain. 30
de outubro de 2015. Digital Iniciative. Disponível em: https://digital.hbs.edu/platform-
digit/submission/street-bump-crowdsourcing-better-streets-but-many-roadblocks-remain/
COMISSÃO EUROPEIA. Code of conduct on countering illegal hate speech online. 2016.
Disponível em: https://ec.europa.eu/info/policies/justice-and-fundamental-rights/combatting-
discrimination/racism-and-xenophobia/eu-code-conduct-countering-illegal-hate-speech-
online_pt
COMISSÃO EUROPEIA. Proposal for a Regulation on a Single Market For Digital Services
(Digital Services Act). 15 de dezembro de 2020. Disponível em: https://eur-lex.europa.eu/legal-
content/en/TXT/?qid=1608117147218&uri=COM%3A2020%3A825%3AFIN
CURZI, Yasmin. Assédio e violência online: moderação de conteúdo pode ser enfrentamento
eficaz. FGV. 13 de abril de 2020. Disponível em https://portal.fgv.br/artigos/assedio-e-
violencia-online-moderacao-conteudo-pode-ser-enfrentamento-eficaz
CURZI, Yasmin. ZINGALES, Nicolo. GASPAR, Walter. LEITÃO, Clara. COUTO, Natália.
REBELO, Leandro. OLIVEIRA, Maria Eduarda. Nota técnica do Centro de Tecnologia e
Sociedade da FGV Direito Rio sobre o substitutivo ao PL 2630/2020. Rio de Janeiro: FGV
Direito Rio, 2021. https://bibliotecadigital.fgv.br/dspace/bitstream/handle/10438/31348/nt-
pl2630.pdf?sequence=1&isAllowed=y
CRAWFORD, Susan; SCOTT, Ben. Be careful what you wish for. Why Europe Should Avoid
the Mistakes of US Internet Access Policy. Policy Brief. Berlin: Stiftung Neue Verantwortung,
2015. Disponível em: https://bit.ly/2YfFgau
DESAI, Deven R. KROLL, Joshua A. Trust But Verify: A Guide to Algorithms and the Law.
Harvard Journal of Law & Technology. V. 31, n. 1, 2017. Disponível em:
https://bit.ly/2oSaww6. Acesso em 0/10/2020
ESTADÃO. Bolsonaro: Brasil pode ter 'problema pior' que EUA em 2022. Youtube, 07 de
janeiro de 2021. Disponível em: https://www.youtube.com/watch?v=GFEzMlalf14
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade
e o papel do Estado. Rio de Janeiro: Lumen Juris. 2019
Facebook e Twitter excluem postagens de Trump com 'desinformação nociva sobre covid-19'.
BBC News/ Brasil. 05 de agosto de 2020. Disponível em:
https://www.bbc.com/portuguese/internacional-53674195
Facebook e Instagram removem vídeo de Jair Bolsonaro por violação de regras. G1. Brasília,
30 de março de 2020. Tecnologia. Disponível em:
htps://g1.globo.com/economia/tecnologia/noticia/2020/03/30/facebook-e-instagram-
removem-video-de-jair-bolsonaro-por-violacao-de-regras.ghtml Acesso em 20/06/2021.
FARIS, Robert, ASHAR, Amar, GASSER, Urs, e JOO, Daisy. Understanding Harmful Speech
Online. Berkman Klein Center for Internet & Society Publication. Série 2016-18, 2016,
p.5. Disponível em: https://dash.harvard.edu/handle/1/38022941.
FUSTER, Glória González, HIJMANS, Hielke. The EU rights to privacy and personal data
protection: 20 years in 10 questions. Discussion paper. VUB Brussels Privacy Hub..
Disponível em:
https://brusselsprivacyhub.eu/events/20190513.Working_Paper_Gonza%CC%81lez_Fuster_
Hijmans.pdf Acesso em 10/10/2021
GILLESPIE, Tarleton. “The Politics of ‘Platforms” New Media & Society, vol. 12. Nº3, 2010,
p. 347–364. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1601487
GOANTA, Catalina. SPANAKIS, Jerry. Influencers and Social Media Recommender Systems:
Unfair Commercial Practices in EU and US Law. TTLF Working Paper No. 54. Disponível
em:
https://www.researchgate.net/publication/341883786_Influencers_and_Social_Media_Recom
mender_Systems_Unfair_Commercial_Practices_in_EU_and_US_Law/link/5faba4c5299bf18
c5b64cba1/download
GOLDMAN, Eric, Content Moderation Remedies. Michigan Technology Law Review, 2021,
Forthcoming, Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3810580.
GOLDSMITH, Jack e WU, Tim. Who controls the internet? Illusions of a bordless world. New
York: ofxord University Press, 2006.
GORWA, Robert & ASH, Timothy Garton. Democratic Transparency in plataforma society.
In: Social Media and Democracy The State of the Field, Prospects for Reform. Cambridge
University Press. 2020, pp. 286-312. Disponível em:
https://gorwa.co.uk/publication/transparency/
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015. Disponível
em: https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020. Veja
também: https://www.latimes.com/archives/la-xpm-2005-jun-21-na-wiki21-story.html
HARTMANN, Ivar A. M. A Right to Free Internet? On Internet Access and Social Rights.
Journal of High Technology Law, v. XIII, pp. 362-429, 2013. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2355900
224
HARTMANN, Ivar A. Let the users be the filter? Crowdsourced filtering to avoid online
Intermediary Liability. Journal of the Oxford Centre for Socio-Legal Studies, v. 2017, n. 1,
p. 21-47, 2017.
HLAING, Kyaw Hsan. 14 de maio de 2021. Facebook is still censoring groups fighting the
military coup in Myanmar. Rest of world. Reporting Tech Stories.
https://restofworld.org/2021/facebook-is-still-censoring-groups-fighting-the-military-coup-in-
myanmar/ Acesso em: 05/07/2021.
HOFFMANN, Stacie et al. The Market of Disinformation. Oxford Internet Institute, 2019.
Disponível em: https://oxtec.oii.ox.ac.uk/wp-content/uploads/sites/115/2019/10/OxTEC-The-
Market-of-Disinformation.pdf
IGNACIO, Bruno. Twitter avança em plano para descentralização de redes sociais com
Bluesky. Agosto de 2021. Disponível em: https://tecnoblog.net/noticias/2021/08/19/twitter-
avanca-em-plano-para-descentralizacao-de-redes-sociais-com-bluesky/
JHAVER, Shagun et al. Online Harassment and Content Moderation: The Case of Blocklists.
ACM Transactions on Computer-Human Interaction, s.l, vol. 25, n. 02, março 2018.
Disponível em: http://eegilbert.org/papers/tochi18-jhaver-blocklists.pdf
JUSTEN FILHO, Marçal. Curso de Direito Administrativo. São Paulo: Saraiva, 2006.
KAYE, David. “Report on the Roles Played by Private Actors Engaged in the Provision of
Internet and Telecommunications Access” A/HRC/35/22. Geneva: Human Rights Council.
2017. Disponível em: https://www.ohchr.org/en/calls-for-input/reports/2017/report-role-
digital-access-providers
KAYE, D. Promotion and protection of all human, civil, political and cultural rights, including
the right to development. Relatório especial oferecido na Assembleia Geral das Nações
Unidas, 2018. A/HRC/38/35. Disponível em: https://documents-dds-
ny.un.org/doc/UNDOC/GEN/G18/096/72/PDF/G1809672.pdf
KAYE, D. Promotion and protection of the right to freedom of opinion and expression.
Relatório especial oferecido na Assembleia Geral das Nações Unidas, 2019. A/74/486.
Disponível em: <https://www.ohchr.org/Documents/Issues/Opinion/A_74_486.pdf>.
KLONICK, Kate. The New Governors: The People, Rules, and Processes Governing Online
Speech. Harvard Law Review. N. 131, 2017. Disponível em:
<https://ssrn.com/abstract=2937985>. Acesso em 01/06/2022.
KIRA, Beatriz, TAMBELLI, Clarice N. O que está em jogo no debate sobre o cgi.br?
INTERNETLAB - ASSOCIAÇÃO INTERNETLAB DE PESQUISA EM DIREITO E
TECNOLOGIA, 2017. Disponível em: http://www.internetlab.org.br/wp-
content/uploads/2018/01/O-que-esta-em-jogo-no-debate-sobre-CGI_.pdf Acesso em
23/06/2022
KREIMER, Seth F. Censorship by Proxy: The First Amendment, Internet Intermediaries, and
the Problem of the Weakest Link. University of Pennsylvania Law Review, 2006, 155 (1),
pp. 11–101.
226
LA RUE, Frank. 2011. “Report on Key Trends and Challenges to the Right of All Individuals
to Seek, Receive and Impart Information and Ideas of All Kinds through the Internet.”
A/HRC/17/27. May 6. Geneva: Human Rights Council.Disponível em:
https://www2.ohchr.org/english/bodies/hrcouncil/docs/17session/a.hrc.17.27_en.pdf
LAIDLAW, Emily B., Internet Gatekkepers, Human Rights and Corporate Social
Responsabilities, 2012, 304 F. Tese (doutorado) – London School of Economics And Political
Science, London, 2021,
LAZER, David et al. The science of fake news. Science. Vol. 359, Issue 6380. 09 Mar, 2018,
p. 1095. Disponível em: https://bit.ly/2X78dDX. Acesso em 08/09/2020
LEERSEN. Paddy. Shadow bans and other secret sanctions: How non-takedown contente
moderation threatens transparency. Draft paper
LESSIG, Lawrence. Code, Version 2.0, New York: Basic Books, 2006.
LOBEL, Orly. The law of the platform. Minnesota Law Review. N. 101, 2016, p. 106.
Disponível em: https://bit.ly/2WsUms4
LU, Christina. China´s social media explosion. 11 de novembro de 2021. Disponível em:
https://www.politics-dz.com/en/chinas-social-media-explosion/
LUHMANN, Niklas (1992) "The Coding of the Legal System.European Yearbook in the
ociology of Law [1991-1992], 145-185
MARQUES NETO, Floriano de Azevedo Marques. Ensaio sobre o processo como disciplina
do exercício da atividade estatal. 2012, In: Teoria do Processo – Panorama Doutrinário
Mundial ed. Salvador: Editora Podium, 2007, p. 261-285
MARSDEN, Christopher T. The regulatated end of internet Law, and the return to computer
and information law? Em: After the Digital Tornado Networks, Algorithms, Humanity,
Cambridge University Press. 2020, pp. 35 – 57. Disponível em:
https://www.cambridge.org/core/books/after-the-digital-tornado/regulated-end-of-internet-
law-and-the-return-to-computer-and-information-
law/F7B8DFAC0E3993179FF11093BF14B669
MEDAUAR, Odete. O direito administrativo em evolução. 2ª. ed. São Paulo: RT, 2003, pp.
94-97.
MONTEIRO, Vera. Art. 29 da LINDB. Regime jurídico da consulta pública. Rev. Direito
Adm., Rio de Janeiro, Edição Especial: Direito Público na Lei de Introdução às Normas de
Direito Brasileiro – LINDB (Lei nº 13.655/2018), p. 225-242, nov. 2018, p. 232. Disponível
em: file:///C:/Users/RRBSC/Downloads/77656-Texto%20do%20Artigo-162000-1-10-
20181123.pdf
MOUNIKA. Alithe Sthephanie. Mastodon social adds policy against casteism as more Indian
users join. 10 de novembro de 2019. Disponível em:
https://www.thenewsminute.com/article/mastodon-social-adds-policy-against-casteism-more-
indian-users-join-112064
MOORE, Taylor. Trade Secrets and Algorithms as Barriers to Social Justice. Center
Democracy & Tecnology. 2017. Disponível em: https://cdt.org/wp-
content/uploads/2017/08/2017-07-31-Trade-Secret-Algorithms-asBarriers-to-Social-
Justice.pdf
228
MOZILLA. Mozilla Investigation: YouTube Algorithm Recommends Videos that Violate the
Platform’s Very Own Policies. 07 de julho de 2021. Disponível em: Mozilla Foundation -
Mozilla Investigation: YouTube Algorithm Recommends Videos that Violate the Platform’s
Very Own Policies
NADIM, Marjan; FLADMOE, Audun. Silencing women? Gender and online harassment.
Social Science Computer Review, 2019. Disponível em:
https://journals.sagepub.com/doi/full/10.1177/0894439319865518.
POZEN, David E.; KHAN, Lina M. A Skeptical View of Information Fiduciaries, 133 HARV.
L. REV. 497, 497 (2019). Disponível em: https://harvardlawreview.org/2019/12/a-skeptical-
view-of-information-fiduciaries/
PROSSER. Tony. Regulation and Social Solidarity (2006) 33 Journal of Law and Society 364-
87 apud BALDWIN, Robert, CAVE, MARTIN e LODGE, Martin. Understanding Regulation.
Theory, Strategy and Pratice. 2ed. Oxford: Oxford University. 2012.
RAHMAN. K. Sabeel. The New Utilities: Private Power, Social Infrastructure, and the Revival
of the Public Utility Concept, Cardozo Law Review. Vol. 39. 5. pp.1621-1689. 2018.
Disponível em: http://cardozolawreview.com/the-new-utilities-private-power-social-
infrastructure-and-the-revival-of-the-public-utility-concept/
ROBERTSON, Adi. Twitter is funding research into a decentralized version of its platform.
Dezembro de 2019. Disponível em: https://www.theverge.com/2019/12/11/21010856/twitter-
jack-dorsey-bluesky-decentralized-social-network-research-moderation
RYAN, Johnny, TONER, Alan. Europe’s enforcement paralysis ICCL’s 20. ICCL’s 2021
report on the enforcement capacity of data protection authorities. Irish Council for Civil
Liberties. 2021. Disponível em: https://www.iccl.ie/wp-content/uploads/2021/09/Europes-
enforcement-paralysis-2021-ICCL-report-on-GDPR-enforcement.pdf
SCHMIDT, Vivian. Democracy and legitimacy in the European Union revisited: Input, output
and “throughput”. Political Studies, 61(1), 2–22, 2013. https://doi.org/10.1111/j.1467-
9248.2012.00962.x
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In:
JORDANA, Jacin; LEVI-FAUR, David. The polics of Regulation – Institutions and
Regulatory Reforma for the Age of Governance. 2004.
SUZOR, Nicolas. Digital Constitutionalism: Using the Rule of Law to Evaluate the Legitimacy
of Governance by Platforms. Social Media + Society, July-September, 2018, p. 2. Disponível
em: https://journals.sagepub.com/doi/10.1177/2056305118787812
SUZOR, Nicolas; VAN GEELEN, Tess; WEST, Sarah. Myers. Evaluating the legitimacy of
platform governance: A review of research and a shared research agenda. International
Communication Gazette, 80(4), 385–400, 2018. Disponível em:
https://doi.org/10.1177/1748048518757142
SUZOR, Nicolas; WEST, Sarah Myers; QUODLING, Andrew; YORK, Jillian. What Do We
Mean When We Talk About Transparency? Toward Meaningful Transparency in Commercial
230
TEFFÉ, Chiara Spadaccini; MORAES, Maria Celina Bodin. Redes sociais virtuais: privacidade
e responsabilidade civil. Análise a partir do Marco Civil da Internet. Pensar-Revista de
Ciências Jurídicas, v. 22, n. 1, p. 108-146, 2017. Disponível em:
https://periodicos.unifor.br/rpen/article/view/6272
TOFFOLI, José Antônio Dias. Fake news, desinformação e liberdade de expressão. Fake News
e Regulação. Organização: Georges Abboud, Nelson Nery Jr. E Ricardo Campos. 2ed. rev.,
atual. e ampl. - São Paulo: Thomson Reuters Brasil. Coleção Direito e Estado em
transformação. 2020
TUTT, Andrew. An FDA for Algorithms. Administrative Law Review. N. 69, 2017.
Disponível em: https://bit.ly/31Vc8HR. Acesso em 10/10/2020.
TUCKER, Josh. Social Media and Democracy. Cambridge University Press, 2020, p. 286 - 312.
Disponível em: https://www.cambridge.org/core/books/social-media-and-
democracy/democratic-transparency-in-the-platform-
society/F4BC23D2109293FB4A8A6196F66D3E41
UNITED NATIONS HUMAN RIGHTS. Office Of the High Comissioner. Guiding Principles
on Business and Human Rights. Implementing the United Nations “Protect, Respect and
Remedy” Framework.2011, p.202. Disponível em:
https://www.ohchr.org/sites/default/files/documents/publications/guidingprinciplesbusinesshr
_en.pdf
WANG, Jufang. Regulation of Digital Media Plataforms: The case of China. Policy Brief. The
Foundation for Law, Justice and Society (FLJS). Oxford. 2020, p. 02.Disponível em:
https://www.fljs.org/regulation-digital-media-platforms-case-china
WARREN, Samuel; BRANDEIS, Louis D. The Right to Privacy. Harvard Law Review, Vol.
4, No. 5, pp. 193-220, 1980, p.195. Disponível em:
https://www.cs.cornell.edu/~shmat/courses/cs5436/warren-brandeis.pdf
WEBER, Max. Ciência e Política: Duas Vocações. Ed. Martin Claret. São Paulo. 2015
World Summit on the Information Society – WSIS. Tunis Agenda for the information society.
18 de novembro de 2005. Disponível em:
https://www.itu.int/net/wsis/docs2/tunis/off/6rev1.html
WU, Tim. Cyberspace Sovereignty? The internet and the Internacional System. Harvard
Journal of Law and Technology, v. 10, n. 3, 1997. Disponível em:
http://jolt.law.harvard.edu/articles/pdf/v10/10HarvJLTech647.pdf
WU, Tim, Is Internet Exceptionalism Dead? (Dezembro, 2010). The Next Digital Decade -
Essays on the future of the internet, p. 179, Berin Szoka, Adam Marcus, eds., TechFreedom,
Washington, D.C., 2010, Disponível em: https://ssrn.com/abstract=1752415
YOUTUBE. Our ongoing work to tackle hate. Setembro de 2019. Disponível em:
https://blog.youtube/news-and-events/our-ongoing-work-to-tackle-hate/
YOUTUBE. Our ongoing work to tackle hate. Setembro de 2019. Disponível em:
https://blog.youtube/news-and-events/our-ongoing-work-to-tackle-hate/
ZARSKY, Tal. Incompatible: The GDPR in the Age of Big Data. Seton Hall Law Review. N.
47, 2017. Disponível em: https://bit.ly/2Ln5yE7
ZINGALES, Luigi. LANCIERI, Filipo. Stigler Committee on Digital Platforms: Policy Brief.
Stigler Center for the Study of the Economy and the State. Chicago Booth. 2019, pp. 6-22.
Disponível em: https://www.publicknowledge.org/wp-content/uploads/2019/09/Stigler-
Committee-on-Digital-Platforms-Final-Report.pdf. Acesso em 20/11/2020.
ZINGALES, Nicolo. The Brazilian approach to internet intermediary liability: blueprint for a
global regime? Internet Policy Review, Journal on internet regulation, v. 4, n. 4,
2015.Disponível em: https://policyreview.info/articles/analysis/brazilian-approach-internet-
intermediary-liability-blueprint-global-regime
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to
Multistakeholder Governance. Internet Policy-Making. 2015. GigaNet: Global Internet
232
ZINGALES, Nicolo. Accountability. In: BELLI, Luca; ZINGALES, Nicolo; CURZI, Yasmin
(eds.). Glossary of platform law and policy terms. Rio de Janeiro: FGV Direito Rio, 2021.
Disponível em: https://bibliotecadigital.fgv.br/dspace/handle/10438/31365
ZUBOFF, Shoshana. The age of surveillance capitalism: The Fight for a Human Future at
the New Frontier of Power. New York: Public Affairs. 2018.
LEGISLAÇÃO
BRASIL, Lei 9472/97. Dispõe sobre a organização dos serviços de telecomunicações, a criação
e funcionamento de um órgão regulador e outros aspectos institucionais, nos termos da Emenda
Constitucional nº 8, de 1995. Disponível em:
http://www.planalto.gov.br/ccivil_03/leis/l9472.htm
BRASIL, Lei 10.848/2004, artigo 11 que alterou a Lei 6.648/1998. Dispõe sobre a
comercialização de energia elétrica, altera as Leis nºs 5.655, de 20 de maio de 1971, 8.631, de
4 de março de 1993, 9.074, de 7 de julho de 1995, 9.427, de 26 de dezembro de 1996, 9.478,
de 6 de agosto de 1997, 9.648, de 27 de maio de 1998, 9.991, de 24 de julho de 2000, 10.438,
de 26 de abril de 2002, e dá outras providências. Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2004-2006/2004/lei/l10.848.htm
BRASIL, Lei 12.737/2012. Dispõe sobre a tipificação criminal de delitos informáticos; altera
o Decreto-Lei nº 2.848, de 7 de dezembro de 1940 - Código Penal; e dá outras providências.
233
BRASIL. Lei 12.965/2014. Estabelece princípios, garantias, direitos e deveres para o uso da
Internet no Brasil. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-
2014/2014/lei/l12965.htm
BRASIL, Lei 13.079/2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm
DEPARTMENT FOR DIGITAL, CULTURE, MEDIA & SPORT AND HOME OFFICE. Draft
Online Safety Bill. The draft Online Safety Bill establishes a new regulatory framework to
tackle harmful content online. 2021. Disponível em:
https://www.gov.uk/government/publications/draft-online-safety-bill
PRECEDENTES
STJ, RESP 1.192.208, Rel. Min. Nancu Andrighi, 3ª T. Dj. 02.08.2012. Disponível em:
https://scon.stj.jus.br/SCON/jurisprudencia/doc.jsp?livre=1.192.208&b=ACOR&p=false&l=1
0&i=6&operador=E&tipo_visualizacao=RESUMO Acesso em 07/04/2021.
1
STJ, RESP 1.323.754, Rel. Min. Nancy Andrighi, Dj 19.06.2012. Disponível em:
https://scon.stj.jus.br/SCON/jurisprudencia/doc.jsp?livre=1.323.754&pesquisaAmigavel=+%
3Cb%3E1.323.754%3C%2Fb%3E&b=ACOR&p=false&thesaurus=&l=10&i=13&operador=
E&tipo_visualizacao=RESUMO&tp=T
Recurso Extraordinário nº 1010606, Relator: Ministro Dias Toffoli, acórdão proferido pelo
Tribunal Pleno, publicado em 20/05/2021. Disponível em:
https://jurisprudencia.stf.jus.br/pages/search?base=acordaos&pesquisa_inteiro_teor=false&sin
onimo=true&plural=true&radicais=false&buscaExata=true&page=1&pageSize=10&queryStr
ing=1.010.606&sort=_score&sortBy=desc
Recurso Extraordinário nº 201819-8/RJ, Relator: Ministro Gilmar Mendes. Segunda Turma.
11/10/2005. DJ: 27/10/2006 Disponível em:
https://redir.stf.jus.br/paginadorpub/paginador.jsp?docTP=AC&docID=388784 Acesso em
10/06/2022.
Supremo Tribunal Federal. Ação Direta de Inconstitucionalidade – ADI nº 1668 MC/ DF, de
Relatoria do Minº Marco Aurélio, pelo Tribunal Pleno, conforme publicado, em 16/04/2004,
no DJ PP-00054 EMENT VOL-02147-01 PP-00127. Disponível em:
https://jurisprudencia.stf.jus.br/pages/search/sjur96611/false
ADPF nº 130, Tribunal Pleno. Relator: Ministro Carlos Ayres Brito. Julgamento: 30/04/2019.
Disponível em:
https://redir.stf.jus.br/paginadorpub/paginador.jsp?docTP=AC&docID=605411