Você está na página 1de 235

FUNDAÇÃO GETÚLIO VARGAS

ESCOLA DE DIREITO DO RIO DE JANEIRO


FGV DIREITO RIO

NATALIA DE MACEDO COUTO

O PAPEL REGULATÓRIO DO ESTADO NA MODERAÇÃO


DE CONTEÚDO EXERCIDA PELAS PLATAFORMAS DE
REDES SOCIAIS.

Rio de Janeiro
2022
NATALIA DE MACEDO COUTO

O PAPEL REGULATÓRIO DO ESTADO NA MODERAÇÃO


DE CONTEÚDO EXERCIDA PELAS PLATAFORMAS DE
REDES SOCIAIS.

Dissertação de Mestrado para obtenção


de grau de mestre em Direito da
Regulação apresentada à Escola de
Direito do Rio de Janeiro da Fundação
Getúlio Vargas.

Área de concentração: Direito da


Regulação.

Linha de pesquisa: Economia,


intervenção e estratégias regulatórias.

Orientador: Dr. Luca Belli

O presente trabalho foi realizado com


apoio financeiro da Fundação Getúlio
Vargas.

Rio de Janeiro
2022
Dados Internacionais de Catalogação na Publicação (CIP)
Ficha catalográfica elaborada pelo Sistema de Bibliotecas/FGV

Couto, Natalia de Macedo


O papel regulatório do Estado na moderação de conteúdo exercida pelas
plataformas de redes sociais / Natalia de Macedo Couto. --
2022.
234 f.

Dissertação (mestrado) - Escola de Direito do Rio de Janeiro da Fundação


Getulio Vargas.
Orientador: Luca Belli.
Inclui bibliografia.

1. Direito regulatório. 2. Redes sociais. 3.Moderação de conteúdo. 4. Agências


Reguladoras. 5. Corregulação. I. Belli, Luca
II. Escola de Direito do Rio de Janeiro da Fundação Getulio Vargas. IV. Título.

CDD – 341.3221

Elaborada por Maria do Socorro Almeida – CRB-7/4254


012345679
1 7494

 437443 7
3 
734
91 4567

7 43
3 
737 73
42
7
24  43
4
3771 7
74

91 4  737
 4372473
45673
72
3772 2


 34
4 4 40743


3
7 4 

3 
 45674

2 437447173

 437443 7
3 
734
91 4567447
2567379413


 
4
3 
734
91 4567

34 4343
0
4!"#!"#$!$$

4 24 1437
734424
4 24374

 3
2
347 67
4 2437470% 14


70% 14
 70%2 7 7& 294

7
2 4374 
7 2
27
70' 44 9
 4(

 )))))

7

27 )))))
))))) )))))
))))) )))))
))))) )))))
))))) )))))

*+,-./-012/+*,3-4-./--15,67,-./-8988:

70%#';9 742 72 7 491


4 70%42 72 73
44170
412 7
3 
74 <
73

2 27=
>1 4
<94314567

?@ABCDEFGHIFJKKLMKNFLOIPQLFJMNLJJPRHSTHRTRHELEUGVGEPWXYVZGVEG[EG[[\XG]^VG[EGPN[[NE_]]`[abb[NP^VNcSO[\dXcPWZcHVbeNV\YPGV
?fghijDkflmnnBDmofljpjkqfDBgmijDkjrlgfDsfqijltulvwvxxyvzx{rl|qkwl{x}rl~vw
AGRADECIMENTOS

“Fundamental é mesmo o amor, é impossível ser feliz sozinho”. Parafraseando Tom Jobim, eu
inicio meus agradecimentos, pois sozinha eu não teria chegado até aqui. Foi preciso uma rede
de apoio para que eu pudesse conciliar o mestrado com meu melhor presente, a maternidade.
Por isso, eu gostaria de agradecer a cada pessoa que participou desta jornada. Primeiro, aos
meus pais, Lúcia e Nilo, que sempre incentivaram meus estudos e forneceram as bases para que
eu conseguisse alcançar meus objetivos. Ao meu irmão, Rodrigo, que é um grande exemplo de
determinação. Ao meu marido, Ricardo, que ficou ao meu lado, incansavelmente, me
proporcionando tranquilidade e força no meu caminhar, além de zelar com carinho pelo nosso
pequeno Arthur. À minha família e amigos, que sempre me apoiaram e incentivaram, agradeço
a compreensão pela abdicação do convívio.
E não poderia deixar de manifestar, ao meu orientador, Luca Belli, minha gratidão e admiração,
que me mostrou que, além de sermos profissionais, somos, antes de tudo, humanos, e, como
tal, devemos respeitar cada etapa de nossas vidas. Aproveito também para agradecer ao CTS-
FGV, sobretudo a Yasmin Curzi e Nicolo Zingales, pelos ensinamentos transmitidos nas
discussões promovidas, tão desafiadoras e incentivadoras à pesquisa sobre moderação de
conteúdo nas redes sociais.
Agradeço também àqueles que forneceram os meios para a realização deste mestrado, o
escritório, no qual sou associada, na pessoa do Dr. Marcos Figueiredo, e a Fundação Getúlio
Vargas. Por fim, aos meus colegas de turma, muito obrigada pela parceria nas discussões
acadêmicas.

Dedico este trabalho a minha querida família.


Com carinho,
Natália Couto.
Resumo: Em uma sociedade cada vez mais digitalizada, as plataformas digitais de redes sociais
desempenham cada vez mais um papel central na economia e democracia, com poder de
influência sobre qual, como e quando uma informação é acessada por um determinado usuário.
Para manter o ambiente digital atrativo para o desempenho de seu modelo de negócio, as
plataformas de redes sociais precisam de um espaço saudável, livre de discursos prejudiciais
(discurso de ódio, desinformação, etc.) e personalizado. Para isso, elas moderam o conteúdo
postado pelos usuários e gerenciam o fluxo informacional através de seus sistemas de
recomendação. Essa atividade chama atenção para um procedimento sem transparência e
justificação, com decisões que afetam direitos fundamentais dos indivíduos, como, por
exemplo, àqueles referentes à liberdade de expressão, à privacidade e proteção de dados e ao
devido processo. As redes sociais, hoje, regulam o espaço digital privado sozinhas, de acordo
com seus termos de uso e a arquitetura de seus sistemas de algoritmos, o que, por consequência,
gera críticas de legitimidade nessa governança. Considerando que as plataformas são entidades
privadas e no desempenho de suas atividades podem violar os direitos fundamentais, produzir
externalidades e assimetria informacional, estão presentes justificativas técnicas para sua
regulação pelo Estado. No entanto, essa regulação, conforme defendido neste trabalho, não deve
ser baseada em um arranjo de comendo e controle, vez que a presença dos atores que serão
afetados pela regulação é importante para que a regulação possa ser mais eficiente. A
complexidade da sociedade e evolução dos arranjos institucionais norteiam para a realização de
uma regulação mais responsiva, baseada na regulação dos procedimentos abordados na
operação da atividade das redes sociais e que considere os múltiplos atores envolvidos. A
hipótese deste trabalho é, portanto, que o Estado, através do Poder Executivo, possui um papel
a desempenhar na regulação das plataformas de redes sociais. Dentro de um arranjo de
corregulação, as normas regulatórias podem trazer exigência de participação, transparência e
responsabilidade, sem deixar de aproveitar a expertise dos regulados. Quanto ao instrumento
regulatório, esse trabalho defende que o mais adequado seria uma Agência Reguladora, seja
através da criação de uma nova agência ou por meio de uma já existente.

Palavras-chave: Regulação; plataformas digitais; redes sociais; legitimidade democrática;


moderação de conteúdo online; arranjos institucionais; corregulação; agência reguladora.

Abstract: In a digital society, social media platforms increasingly play a central role in the
economy and democracy, with power to influence what, how and when information is accessed
by an user. To keep the digital environment attractive for the performance of their business
model, social media platforms need a healthy space, free from harmful speech (hate speech,
disinformation, etc.) and personalized. For this, they moderate the content posted by users and
manage the information flow through their recommender systems. This activity calls attention
to a procedure without transparency and justification, with decisions that affect the fundamental
rights of individuals, such as, for example, those referring to freedom of expression, privacy
and data protection and due process. Social networks, today, regulate the private digital space
alone, according to their terms of use and the architecture of their algorithmic systems, which,
consequently, generates criticism of legitimacy in this governance. Considering that platforms
are private entities and in the performance of their activities they can violate fundamental rights,
produce externalities and information asymmetry, technical justifications for their regulation
by the State are present. However, this regulation, as defended in this work, should not be based
on a command and control arrangement, since the presence of the actors that will be affected
by the regulation is important for the regulation to be more efficient. The complexity of society
and the evolution of institutional arrangements guide the realization of a more responsive
regulation, based on the regulation of the procedures addressed in the operation of the activity
of social networks and that consider the multiple actors involved. The hypothesis of this work
is, therefore, that the State, through the Executive Power, has a role to play in the regulation of
social network platforms. Within a co-regulation arrangement, regulatory norms may require
participation, transparency and accountability, while taking advantage of the expertise of those
regulated. As for the regulatory instrument, this work argues that the most appropriate would
be a Regulatory Agency, either through the creation of a new agency or through an existing
one.

Key words: Regulation; digital platforms; social networks; democratic legitimacy; online
content moderation; institutional arrangements; co-regulation; regulatory agency.
SUMÁRIO

1 INTRODUÇÃO ..................................................................................................................................... 9
1.1 DISTINÇÕES PRELIMINARES: INTERNET E PLATAFORMAS DIGITAIS DE REDES SOCIAIS .................................................... 11
1.2 O MODELO DE NEGÓCIOS DAS REDES SOCIAIS ..................................................................................................... 15
1.3 PROBLEMA E JUSTIFICATIVA DA PESQUISA .......................................................................................................... 17
1.4 OBJETO, OBJETIVOS E ORGANIZAÇÃO DO TRABALHO ............................................................................................ 21
2 A REGULAÇÃO DAS PLATAFORMAS DE REDES SOCIAIS NO ESPAÇO DIGITAL .....................................25
2.1 O UNIVERSO DA MODERAÇÃO DE CONTEÚDO ONLINE........................................................................................... 26
2.1.1 Moderação Automatizada e humana ..................................................................................................... 30
2.1.2 Moderação transparente e sigilosa ......................................................................................................... 32
2.1.3 Moderação ex ante e ex post .................................................................................................................. 35
2.1.4 Moderação centralizada e descentralizada............................................................................................. 35
2.2 REMÉDIOS E ORIENTAÇÕES NORMATIVAS PARA A MODERAÇÃO DE CONTEÚDO .......................................................... 38
2.3 SISTEMAS DE RECOMENDAÇÃO DE CONTEÚDO .................................................................................................... 40
2.4 OS PERIGOS E PROBLEMAS ENFRENTADOS DA MODERAÇÃO DE CONTEÚDO ONLINE. ................................................... 46
2.4.1 Os perigos: discursos prejudiciais e ilícitos. ............................................................................................. 46
2.4.2 Os problemas: inconsistência, escalabilidade, opacidade nas políticas de uso e decisões tomadas e
natureza privada das plataformas de mídias sociais. ........................................................................................... 51
2.5 RESPONSABILIDADE DAS PLATAFORMAS DIGITAIS PELO EXERCÍCIO DA MODERAÇÃO DE CONTEÚDO. .............................. 53
2.5.1 Responsabilidade das plataformas de redes sociais à luz da legislação americana ............................... 54
2.5.2 Responsabilidade das plataformas de redes sociais à luz da legislação da União Europeia ................... 57
2.5.3 Responsabilidade das plataformas de redes sociais à luz da legislação brasileira ................................. 58
3 OS DIREITOS FUNDAMENTAIS AFETADOS PELA MODERAÇÃO DE CONTEÚDO ONLINE ......................65
3.1 DIREITO À LIBERDADE DE EXPRESSÃO ................................................................................................................ 67
3.1.1 Perspectiva brasileira .............................................................................................................................. 71
3.2 DIREITO À PRIVACIDADE ................................................................................................................................. 76
3.2.1 Da privacidade à proteção de dados ....................................................................................................... 79
3.2.2 Perspectiva brasileira .............................................................................................................................. 83
3.3 DIREITO AO DEVIDO PROCESSO ........................................................................................................................ 86
3.3.1 Perspectiva brasileira .............................................................................................................................. 90
3.4 APLICAÇÃO DOS DIREITOS FUNDAMENTAIS AS PLATAFORMAS DIGITAIS .................................................................... 93
3.4.1 Constitucionalismo Digital ....................................................................................................................... 97
4 GOVERNANÇA DAS PLATAFORMAS DE REDES SOCIAIS ....................................................................102
4.1 GOVERNANÇA E REGULAÇÃO: NOÇÕES DISTINTAS.............................................................................................. 102
4.1.1 Governança das redes sociais ................................................................................................................ 105
4.2 CRÍTICAS À GOVERNANÇA EXERCIDA PELAS PLATAFORMAS DE REDES SOCIAIS NO AMBIENTE DIGITAL ............................ 108
4.2.1 Abordagem multissetorial ..................................................................................................................... 111
4.2.2 Uma atuação baseada em deveres procedimentais e direitos humanos por design ............................ 118
4.2.2.1 Transparência ..........................................................................................................................................................119
4.2.3 Participação dos usuários na Governança das plataformas ................................................................. 124
4.2.4 Uma análise tridimensional da legitimidade das plataformas digitais: input, throughput e output .... 125
4.3 RESPONSABILIDADE SOCIAL CORPORATIVA ....................................................................................................... 129
5 A REGULAÇÃO DAS PLATAFORMAS DE REDES SOCIAIS ....................................................................132
5.1 O ESTADO REGULADOR ............................................................................................................................... 133
5.1.1 O cenário do surgimento do Estado Regulador ..................................................................................... 133
5.1.2 O Estado Regulador contemporâneo .................................................................................................... 137
5.2 POR QUE REGULAR AS PLATAFORMAS DE REDES SOCIAIS? ................................................................................... 143
5.2.1 A ascensão das plataformas digitais à regulação de conteúdo nas redes sociais ................................. 145
5.2.2 Fundamentos da regulação estatal ....................................................................................................... 148
5.2.2.1 Proteção dos direitos fundamentais........................................................................................................................149
5.2.2.2 Externalidades negativas .........................................................................................................................................149
5.2.2.3 Assimetria informacional .........................................................................................................................................151
5.2.2.4 A doutrina do interesse público (public utility)........................................................................................................153
5.3 ALGUMAS LIÇÕES SOBRE A REGULAÇÃO DO MODELO DE TELECOMUNICAÇÕES QUE PODEM SER APLICADAS NA REGULAÇÃO
DAS PLATAFORMAS DE REDES SOCIAIS ........................................................................................................................... 156
5.3.1 Modelo americano ................................................................................................................................ 156
5.3.2 Modelo brasileiro .................................................................................................................................. 158
5.4 QUAIS ARRANJOS INSTITUCIONAIS PODEM REGULAR AS PLATAFORMAS DE REDES SOCIAIS? ........................................ 164
5.4.1 Regulação direta ................................................................................................................................... 165
5.4.1.1 Análise de caso: a regulação das plataformas de mídias sociais na China ..............................................................169
5.4.2 Autorregulação ...................................................................................................................................... 173
5.4.2.1 Autorregulação das plataformas de redes sociais: uma boa escolha? ....................................................................174
5.4.2.2 Análise de caso: a experiência europeia sobre a autorregulação das plataformas digitais no combate à
desinformação. .......................................................................................................................................................................178
5.4.2.2.1 O Código de Desinformação ....................................................................................................................................178
5.4.2.2.2 Resultados: Necessidade de um novo arranjo institucional ....................................................................................182
5.4.3 Corregulação ......................................................................................................................................... 184
5.4.3.1 Reino Unido: A Lei de Segurança Online (Online Safety Bill) ...................................................................................189
5.4.3.2 A Lei de Serviços Digitais Europeia (Digital Service Act – DSA). ...............................................................................191

6 O PAPEL DO ESTADO NA REGULAÇÃO DE PLATAFORMAS DE REDES SOCIAIS ..................................195


6.1 AS FORMAS DE ATUAÇÃO DO ESTADO NA REGULAÇÃO DE CONTEÚDO ................................................................... 196
6.2 A DESIGNAÇÃO DE UMA AGÊNCIA REGULADORA PARA REGULAR O CONTEÚDO ONLINE ............................................. 200
6.3 OS DESAFIOS DE UMA AGÊNCIA REGULADORA INDEPENDENTE. ........................................................................... 204
6.4 O PL 2630/2020: UMA PROPOSTA DE AUTORREGULAÇÃO REGULADA. ............................................................... 206
7 CONCLUSÃO ....................................................................................................................................209
8 REFERÊNCIAS BIBLIOGRÁFICAS ........................................................................................................216
9

1 INTRODUÇÃO

No dia 30 de março de 2020, as redes sociais Facebook e Instagram removeram vídeos


do Presidente brasileiro, Jair Bolsonaro, por violação aos seus termos de uso, em razão deste
ter assumido posição contrária às recomendações de isolamento social e uso de máscara durante
a pandemia instaurada pela COVID-19, defendida pelas autoridades de saúde do mundo
inteiro1. No entanto, em sentido contrário, postagens contra o ato de isolamento social emitidas
por um conselho médico estadual do Brasil foram mantidas na rede pelo Facebook2.
Em agosto de 2020, as plataformas Facebook e Twitter excluíram publicações do ex-
Presidente dos Estados Unidos, Donald Trump, que tinha como conteúdo desinformação sobre
a COVID-19. A postagem era de um vídeo no qual ele mencionava que “crianças são quase-
imunes ao Corona vírus” 3. A resposta do Facebook foi de que o vídeo continha alegações falsas
de um grupo de pessoas que estariam imunes a doença, o que representa violação as políticas
sobre desinformação nociva. Diversamente, vídeos do empresário Elon Musk sugerindo que
crianças eram “basicamente imunes” ao Corona vírus não haviam infringido as políticas e
termos de uso da plataforma, permanecendo na rede4.
Além de notícias sobre saúde, publicações sobre política e democracia também foram
moderadas pelas plataformas de forma contraditória. Em 07 de janeiro de 2021, Facebook e
Instagram bloquearam indefinidamente as contas do ex-Presidente dos Estados Unidos, Donald
Trump, após seus apoiadores invadirem o Capitólio, em Washington, D.C., durante uma
reunião que validaria a vitória de seu oponente, Joe Biden, atual Presidente do país. Durante o
evento violento, postagens do ex-Presidente Donald Trump incitaram e elogiaram os
manifestantes, além de colocar em dúvida a idoneidade do processo de eleição realizado5.

1
Facebook e Instagram removem vídeo de Jair Bolsonaro por violação de regras. G1. Brasília, 30 de março de
2020. Tecnologia. Disponível em: htps://g1.globo.com/economia/tecnologia/noticia/2020/03/30/facebook-e-
instagram-removem-video-de-jair-bolsonaro-por-violacao-de-regras.ghtml Acesso em 20/06/2021.
2
COMITÊ DE SUPERVISÃO DO FACEBOOK. Decisão nº 2021-008-FB-FBR, publicada em 19 de agosto de
2021. Disponível em https://oversightboard.com/decision/FB-B6NGYREK/ . Acesso em em 23/08/2021. Segundo
o resumo do caso, “o Comitê constatou que a decisão do Facebook de manter o conteúdo na plataforma era coerente
com as suas políticas sobre conteúdo. O Comitê concluiu que o conteúdo incluía algumas informações incorretas
que causavam preocupação, considerando a gravidade da pandemia no Brasil e o status do conselho como
instituição pública. No entanto, ele concluiu que o conteúdo não criava risco de danos iminentes e deveria,
portanto, permanecer na plataforma”.
3
Facebook e Twitter excluem postagens de Trump com 'desinformação nociva sobre covid-19'. BBC News/
Brasil. 05 de agosto de 2020. Disponível em: https://www.bbc.com/portuguese/internacional-53674195 Acesso
em 20/06/2021.
4
Ibid. Disponível em: https://www.bbc.com/portuguese/internacional-53674195 Acesso em 20/06/2021.
5
COMITÊ DE SUPERVISÃO DO FACEBOOK. Decisão nº 2021-001-FB-FBR. Publicada em 05 de maio de
2021. Disponível em: https://oversightboard.com/decision/FB-691QAMHJ/ Acesso em 23/08/2021.
10

No Brasil, o Presidente Jair Bolsonaro publicou em suas redes sociais, na noite de 29 de


julho 2021, discurso, à míngua de provas, afirmando a possibilidade de fraude no sistema
eleitoral brasileiro, já que, para ele, as urnas eletrônicas não são confiáveis por ser possível a
mudança do código-fonte das urnas para que voto de um candidato seja redirecionado a favor
de outro6. Afirmou, ainda, em discurso no seu canal que: “deve ser encontrada uma maneira de
ter contagem pública de voto, caso contrário teremos problemas nas eleições no Brasil”7. Em
outro vídeo afirma que “caso não tivermos o voto impresso em 2022, uma maneira de auditar
o voto, nós vamos ter um problema pior do que dos Estados Unidos”8. Em que pese o Presidente
Jair Bolsonaro manter a mesma narrativa de fraude eleitoral do ex-Presidente americano,
criando um ambiente que fomenta possíveis atos de violência, não teve sua conta suspensa,
tampouco as postagens foram retiradas de circulação na rede.
Os fatos mencionados, como diversos outros casos que ocorrem diariamente,
demonstram o desafio apresentado às plataformas digitais para moderar, de um lado, o uso do
direito à liberdade de expressão, e manter, por outro, o ambiente digital saudável, cuidando para
que não haja disseminação de discursos de ódio ou outros prejudiciais à sociedade. Os fatos
também alertam para o processo de moderação de conteúdo, que ocorre sem transparência e
justificação das decisões adotadas pelas plataformas, tomadas a portas fechadas, o que causa
assimetria informacional.
Todos esses episódios são processos que vão muito além da mera remoção de um
conteúdo específico e passam ao largo de qualquer tipo de controle, seja por parte do Judiciário
ou de qualquer outra instituição no Brasil. Casos como os relatos acima, independentemente do
mérito do conteúdo, apontam para “potenciais riscos de censura na tarefa de moderação de
conteúdo operada pelas plataformas, bem como a necessidade de que sejam estabelecidos
critérios democraticamente legítimos destinados a orientar e fiscalizar essa prática”9.

6
BOLSONARO. Presidente Jair. Live da Semana - Presidente Jair Bolsonaro. Youtube, 29 de julho de 2021.
Disponível em: https://www.youtube.com/watch?v=C4sE3OAVpHY Acesso em 23/08/2021.
7
BOLSONARO. Presidente Jair. Democracia ou fraude? Youtube, 01 de julho de 2021. Disponível em:
https://www.youtube.com/watch?v=lt1ZcivVMqU Acesso em 23/08/2021.
8
ESTADÃO. Bolsonaro: Brasil pode ter 'problema pior' que EUA em 2022. Youtube, 07 de janeiro de 2021.
Disponível em: https://www.youtube.com/watch?v=GFEzMlalf14 Acesso em 23/08/2021.
9
HARTMANN, Ivar. MONTEIRO, Julia. Fake News no Contexto da Pandemia e Emergência Social: os deveres
e responsabilidades das plataformas de Redes Sociais na Moderação de Conteúdo Online: entre a Teoria e as
Proposições Legislativas. RDP, Brasília, volume 17, n. 94, 388-414, jul/ago.2020. p.391.
11

1.1 Distinções preliminares: internet e plataformas digitais de redes sociais

A data de nascimento da internet é frequentemente atribuída a 1969, quando a


ARPANET (primeira versão da internet), a rede das redes10, foi concebida pela Agência de
Projetos de Pesquisa Avançados do Departamento de Defesa Norte-americano (Defense
Advanced Project Agency – DARPA) com o propósito de criar uma rede de comunicações capaz
de resistir à ataques estrangeiros em razão da sua característica, uma configuração distribuída11.
O principal efeito dessa arquitetura foi a criação de uma “rede em que a comunicação era
extremamente difícil de parar, mas, ao mesmo tempo, o controle era extremamente difícil de
exercer”12. Essa característica também permitia ao usuário criar aplicativos de software e
compartilhá-los com outros usuários.
Ao final dos anos 80, a NSFNET, uma rede financiada pela US National Science
Foundation, que também contava com o protocolo TCP/IP (Transmission Control
Protocol/Internet Protocol), foi criada, mas suas operações foram sendo progressivamente
transferidas para o controle de provedores comerciais privados utilizados atualmente. Mais
tarde, através de “world-wide web”, permitiu-se a conexão e compartilhamento de documentos

10
Segundo Clara Keller, a definição mais comum de internet é de que ela é “uma rede composta por redes locais
(uma rede das redes), cada uma delas direcionada às necessidades de um grupo específico de usuários e operada
por agentes diferentes (como provedores de serviço, empresas, universidades e governos), compondo assim uma
vasta coleção de sistemas de informação geridos independentemente, porém interoperáveis”. KELLER, Clara
Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do Estado. Rio de
Janeiro: Lumen Juris. 2019, p. 35.
11
Elettra Bietti explica que a internet se configura como uma rede de host de computadores que se interconectam
de forma distribuída por meio do protocolo TCP/IP, um conjunto de regras que permite que todas as redes se
comuniquem por meio de um padrão comum público em aberto. É esse protocolo que permite a comunicação entre
qualquer rede eletrônica ou sistema de computador e regula como os dados são transferidos de uma rede para outra.
O protocolo TCP decompõe as informações em dados, que, juntos, formam pequenos pacotes que são enviados do
ponto A para o ponto B, roteados de forma independente, sem seguir um caminho pré-determinado. A utilização
de um endereço único de IP, tanto na origem como no destino, é o que permite que esses pacotes transitem por
redes diversas e sejam, ao final, recompostos para transmitir a informação ao seu destinatário. BIETTI, Elettra. A
Genealogy of Digital Platform Regulation. 3 de junho de 2021, p. 10. Disponível em:
https://ssrn.com/abstract=3859487 Acesso em: 10/01/2022. Sobre esse ponto, Luca Belli afirma que é esse design
da internet que sustenta um ambiente digital aberto. Segundo ele, “a estrutura fundamental delineada pelo TCP/IP
produziu uma rede de próposito geral, baseada na abertura, descentralização e interoperabilidade. Tais
características técnicas fundamentais tem consequências importantes, tando permitido o florescimento da inovação
online e capacitando os usuários finais nas bordas da rede”. BELLi, Luca. Fundamentos da Regulação da
tecnologia digital: entender como a tecnologia digital regula para conseguir regulá-la. Em: Regulação e novas
tecnologias. Coordenação: Armando Castelar Pinheiro, Antônio José Maristello Porto, Patrícia Regina Pinheiro
Sampaio. Rio de Janeiro: FGV Editora, 2022, p. 69.
12
BELLi, Luca. Fundamentos da Regulação da tecnologia digital: entender como a tecnologia digital regula para
conseguir regulá-la. Em: Regulação e novas tecnologias. Coordenação: Armando Castelar Pinheiro, Antônio José
Maristello Porto, Patrícia Regina Pinheiro Sampaio. Rio de Janeiro: FGV Editora, 2022, p.63.
12

armazenados em computadores por meio de URLs13 exclusivos, tal como são utilizados nos
dias atuais14.
A internet é uma tecnologia digital, assim como outras15, que é estruturada em camadas
interdependentes, conforme explicado por Clara Keller16. Dessa forma, pode-se diferenciar as
atividades que são realizadas na camada física, estrutura da internet, como, por exemplo, as
redes de telecomunicações (cabos de transmissão, roteadores, etc) e hardwares (laptop, celular,
etc), das que ocorrem em na camada do software, relacionada à programação por códigos, que
corresponde aos recursos virtuais e padrões técnicos para operação do sistema (aplicativos,
sistema operacional e protocolos de comunicação), daquelas que acontecem na camada de
conteúdo, local onde ocorre as interações dos usuários e provedores de serviços e aplicações,
que suportam a circulação de conteúdo (textos, imagens, vídeos e outros).
A abertura para as empresas privadas tornou a internet disponível para bilhões de
usuários, no entanto, diferentemente do seu início, esses usuários, majoritariamente, são meros
consumidores de tecnologia, sem conhecer o seu funcionamento. Essa mudança abriu espaço
para que as plataformas centralizassem controle e poder através do desenvolvimento de
softwares que facilitavam a navegação do usuário na rede17.
Dessa forma, desenvolvedores de software começaram a oferecer mais do que
programas, passaram a oferecer plataformas flexíveis que possibilitavam que um código fosse
desenvolvido e implementado para o desenvolvimento de uma determinada atividade18. Essas
plataformas digitais estão situadas na camada de software e as interações que nela ocorrem
estão situadas na camada de conteúdo da internet.
Originalmente, conforme colacado por Luca Belli19, o dicionário Larousse sugere que o
termo “plataforma” apareceu pela primeira vez, em 1434, no francês, para definir uma

13
Uniform Resource Locator – URL, que significa um localizador uniforme de recurso e se refere ao endereço de
rede no qual se encontra algum recurso informático, como, por exemplo, uma página web, um arquivo de
computador ou um dispositivo periférico, como uma impressora.
14
BIETTI, Elettra. A Genealogy of Digital Platform Regulation. 03 de junho de 2021. Disponível em:
https://ssrn.com/abstract=3859487 Acesso em: 10/01/2022
15
Por exemplo, as plataformas digitais, que serão tratadas um pouco mais abaixo nesse texto, ou a inteligência
artificial, tecnologia utilizada pelas redes sociais em seus sistemas automatizados e que podem fazer uso da
internet. Todos esses exemplos representam tecnologias que devem ser conhecidas para poderem ser reguladas.
16
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris.2019, p. 23-24.
17
BELLi, Luca. Fundamentos da Regulação da tecnologia digital: entender como a tecnologia digital regula para
conseguir regulá-la. Em: Regulação e novas tecnologias. Coordenação: Armando Castelar Pinheiro, Antônio
José Maristello Porto, Patrícia Regina Pinheiro Sampaio. Rio de Janeiro: FGV Editora, 2022, p.63.
18
GORWA, Robert. What is Plataform Governance? Information, Communication & Society. University of
Oxford. 2019. Disponível em: https://gorwa.co.uk/files/platformgovernance.pdf Acesso em 10/01/2022
19
BELLI, Luca. Plataforms. Glossary of platform law and policy terms. Rio de Janeiro: FGV Direito Rio, 2021,
p.239-242. Disponível em: https://bibliotecadigital.fgv.br/dspace/handle/10438/31365. Acesso em 10/01/2022
13

superfície horizontal que atua como suporte. A partir deste significado, pode-se construir a
representação da plataforma como uma estrutura que será a base para que algo seja operado ou
construído. As plataformas, portanto, podem ser vislumbradas como estruturas técnicas e de
governança que facilitam as relações e troca de valores entre as diferentes categoriais de
usuários.
As plataformas digitais são frequentemente relacionadas a ideia de um mercado de “dois
lados”, cujo serviço é realizado mediante a internet e uso de dados pessoais como base de um
ativo estratégico. Nesses mercados, os usuários são reunidos por um operador de plataforma
para facilitar uma interação (troca de informações, uma transação comercial, etc.). No contexto
das redes sociais, por exemplo, os usuários estão interessados em interações sociais, produzindo
conteúdo, de um lado, e, de outro, consumindo esse conteúdo postado. Note-se, contudo, que
não é necessário que haja uma divisão entre esses grupos, podendo os mesmos usuários criar e
consumir conteúdo.
Por isso, é fundamental compreender que o serviço prestado por uma plataforma é o de
aproximar usuários dos dois lados, permitindo que eles se encontrem mediante uma redução
dos custos de transação. Conforme explicitado por Lory Obel, a verdadeira atividade dessas
empresas é a venda de acesso ao software, aos algoritmos de pareamento e a um sistema digital
de reputação e confiança entre seus usuários (de ambos os lados, prestadores e consumidores)20.
Segundo Harold Feld21, o conceito de plataforma digital deve ser identificado mediante
a combinação de três fatores para o desempenho de atividades, que operam sob condições
econômicas semelhantes: i) o serviço é acessado via internet22; ii) o serviço funciona como um
mercado de dois lados, com pelo menos um deles aberto ao público e com permissão para que
partes desse público produza conteúdo, compre ou venda bens ou serviços, ou qualquer outra
forma de interação que ultrapasse a posição de meros consumidores passivos; iii) o serviço
desfrute de efeitos de rede23.

20
LOBEL, Orly. The law of the platform. Minnesota Law Review. N. 101, 2016, p. 106. Disponível em:
https://bit.ly/2WsUms4 Acesso em: 10/01/2022.
21
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital Platforms.
Roosevelt Institute. Public Knowledge. 2019, pp.30-32.
22
O fato do serviço ser digital é importante porque significa que o espaço em que se constroem as relações é novo
e a arquitetura é totalmente comandada pelas empresas e pode ser alterada por ela a qualquer tempo, o que, por
consequência limita a ação dos usuários, representando uma regulação ex ante. HARTMANN, Ivar. Introdução à
regulação de novas tecnologias. Em: Regulação e novas tecnologias. Coordenação: Armando Castelar Pinheiro,
Antônio José Maristello Porto, Patrícia Regina Pinheiro Sampaio. Rio de Janeiro: FGV Editora, 2022, p.37.
23
Segundo Hartmann, esse efeito de rede é uma meta secundária das plataformas. Quanto maior o número de
pessoas na plataforma, mais chances de o usuário conseguir o que deseja. Logo, mais valiosa essa plataforma se
torna. Ilustrando a importância do efeito em rede, um consumidor irá preferir entrar em uma rede social com 50
mil usuários em detrimento daquela com 5 mil, já que na primeira ele encontra mais informação para consumo.
Essa é uma das razões que as plataformas tendem ao monopólio. HARTMANN, Ivar. Introdução à regulação de
14

Entendido o termo plataformas digital, é possível restringir ainda mais o seu significado
de acordo com o tipo de atividade praticada pela plataforma. Nesse sentido, a Comissão
Europeia24, em 2016, propôs a seguinte classificação: (i) marketplaces e plataformas de e-
commerce; (ii) ecossistemas móveis e plataformas de distribuição de aplicativo; (iii) serviços
de busca na internet; (iv) plataformas de publicidade; e, (v) plataformas de mídias sociais, as
quais são o objeto deste trabalho.
No que se refere às plataformas de mídias sociais, não há um conceito unívoco. É certo
que elas permitem, a partir de perfis pessoais, uma ampla interação entre seus usuários no
ambiente digital. A literatura traz alguns conceitos sobre o tema. Gillespie argumenta que a
característica central de uma plataforma de mídia social é a capacidade de interface e criação
de conteúdos de relevância para uma variedade de atores e diversas práticas de uso25.
Kietzmann et al. organizaram o entendimento sobre as plataformas de redes sociais a partir de
uma estrutura de colmeia com sete blocos de construção funcionais: identidade, conversas,
compartilhamento, presença, relacionamentos, reputação e grupos26.
No Brasil, não há uma definição legal sobre o que seja plataformas de redes sociais. O
Marco Civil da Internet (MCI – Lei 12.965/2014) não trouxe esse conceito, embora a Medida
Provisória (MP) nº 1.068, de 2021 (que foi rejeitada) tenha tentado alterá-lo para dispor sobre
o uso de redes sociais27. O MCI utiliza o termo “aplicações de internet” em seu artigo 5º, VII,

novas tecnologias. Em: Regulação e novas tecnologias. Coordenação: Armando Castelar Pinheiro, Antônio José
Maristello Porto, Patrícia Regina Pinheiro Sampaio. Rio de Janeiro: FGV Editora, 202, p.36.
24
EUROPEAN COMMISSION. (2016). Online Platforms Accompanying the document Communication on
Online Platforms and the Digital Single Market. Commission Staff Working Document. Disponível em:
https://eur-lex.europa.eu/legal-content/EN/TXT/PDF/?uri=CELEX:52016SC0172&from=EN Acesso em:
10/01/2022.
25
GILLESPIE, Tarleton. “The Politics of ‘Platforms” New Media & Society, vol. 12. Nº3, 2010, p. 347–364.
Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1601487 Acesso em: 10/01/2022.
26
KIETZMANN, Jan H; HERMKENS, Kristopher; MCCARTHY Ian P.; SILVESTRE, Bruno S. "Social media?
Get serious! Understanding the functional building blocks of social media" Business Horizons. Vol. 54, 241—
251, 2011. Disponível em:
https://www.sciencedirect.com/science/article/abs/pii/S0007681311000061?casa_token=pWW9skMOni8AAAA
A:lQlrbzagRKJ8M2ifZfF514flKDpG1ZMyBMezRtWA4A-J_GsKdLFjxAZFGW1OpAUPrKbso_cgYTk
Acesso em: 10/01/2022.
27
A MP estabelecia em seu artigo 5º, IX: aplicação de internet cuja principal finalidade seja o compartilhamento
e a disseminação, pelos usuários, de opiniões e informações, veiculados por textos ou arquivos de imagens, sonoros
ou audiovisuais, em uma única plataforma, por meio de contas conectadas ou acessíveis de forma articulada,
permitida a conexão entre usuários, e que seja provida por pessoa jurídica que exerça atividade com fins
econômicos e de forma organizada, mediante a oferta de serviços ao público brasileiro com, no mínimo, dez
milhões de usuários registrados no País. BRASIL, MP 1068 de 21 de setembro de 2021, que alterava a Lei nº
12.965, de 23 de abril de 2014, e a Lei nº 9.610, de 19 de fevereiro de 1998, para dispor sobre o uso de redes
sociais. Disponível em: https://www.in.gov.br/en/web/dou/-/medida-provisoria-n-1.068-de-6-de-setembro-de-
2021-343277275 Acesso em: 10/06/2022. É interessante pontuar que está tramitando no Congresso Nacional, o
PL 2630/20, que traz um conceito sobre rede social, no mesmo sentido daquele acima mencionado. Veja: Artigo
5º, IV – “rede social: aplicação de internet cuja principal finalidade seja o compartilhamento e a disseminação,
pelos usuários, de opiniões e informações, veiculados por textos ou arquivos de imagens, sonoros ou audiovisuais,
em uma única plataforma, por meio de contas conectadas ou acessíveis de forma articulada, permitida a conexão
15

designar “o conjunto de funcionalidades que podem ser acessadas por meio de um terminal
conectado à internet” 28. Esse conceito corresponde às plataformas digitais, de uma forma geral,
que operam na camada de aplicação29.

1.2 O modelo de negócios das redes sociais

As plataformas de redes sociais desenvolveram um modelo de negócio bem rentável,


cujos alicerces são a visibilidade, vigilância, identidade e indexação. Sua estrutura compõe-se
de duas fases principais. A primeira busca alcançar uma massa crítica de usuários com coleta
de seus dados, enquanto a segunda fase explora e monetiza os dados adquiridos através da venda
de espaços para publicidade, comercialização de produtos (publicações patrocinadas) e da
“venda” de perfis e outros30.
Quanto mais tempo as pessoas permanecem no ambiente virtual, mais dados são
coletados para, posteriormente, serem processados, agregados e reunidos para identificar
padrões a partir de interesses e preferências, o que permite aos algoritmos identificarem
previsões de comportamentos futuros. Essa previsão possibilita que os sistemas de
recomendação influenciem o que será consumido pelo usuário, de maneira a ampliar seus gastos
e tempo com os serviços oferecidos.
Certo que a recomendação algorítmica com fins lucrativos é o ponto central do modelo
de negócios da plataforma, na maior parte dos casos, as plataformas optam por recomendações
que gerem mais engajamento, ainda que o conteúdo recomendado seja prejudicial à sociedade
e ao interesse público, como a desinformação e o discurso de ódio, por exemplo. A regra geral
é a ausência de incentivos corporativos para que os desenvolvedores se concentrem em outros

entre usuários”. Disponível em: https://www.camara.leg.br/propostas-legislativas/2256735 Acesso em


10/06/2022.
28
BRASIL. Lei 12.965/2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil.
Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm
29
Os provedores de aplicação não devem ser confundidos com os provedores de acesso, que segundo previsão do
artigo 5, V, do MCI são: “a habilitação de um terminal para envio e recebimento de pacotes de dados pela internet,
mediante a atribuição ou autenticação de um endereço IP”. BRASIL. Lei 12.965/2014. Estabelece princípios,
garantias, direitos e deveres para o uso da Internet no Brasil. Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm Acesso em 10/06/2022.
30
TEFFÉ, Chiara Spadaccini; MORAES, Maria Celina Bodin. Redes sociais virtuais: privacidade e
responsabilidade civil. Análise a partir do Marco Civil da Internet. Pensar-Revista de Ciências Jurídicas, v. 22,
n. 1, p. 108-146, 2017. Disponível em: https://periodicos.unifor.br/rpen/article/view/6272 Acesso em 10/01/2022.
16

critérios de recomendação de conteúdo que não estejam ligados a atrair a atenção dos usuários
para o lucro31.
Esse modelo de negócios que prioriza a coleta de dados e seu processamento através da
formação de grandes bancos de dados, monetizando as operações dele decorrentes é chamado
de “capitalismo da vigilância” por Zuboff 32. Dessa forma, o controle dos dados dos usuários
e suas preferências são a fonte de lucros das plataformas, permitindo a manipulação sobre a
autodeterminação dos indivíduos, seja para a mercantilização ou para influenciar seu
comportamento.
Criou-se um clico vicioso e lucrativo, o que se permite concluir que a relação entre
usuários de redes sociais e provedor de aplicações não seja marcada pela gratuidade, mas por
uma remuneração indireta. As plataformas são remuneradas pelos serviços de publicidade e
outros que tenham o usuário como o publico alvo33.
Nos últimos anos, a atividade lucrativa das plataformas, inicialmente focada na
publicidade direcionada ao consumo dos usuários, passou também a visar potenciais eleitores.
Isso porque a coleta de dados também permite formar o perfil eleitoral dos indivíduos. Assim,
os segmentos de mercado publicitário, identificados nas plataformas digitais, começaram a ser
arrematados não só por empresas de publicidade, mas, também, por candidatos e partidos
políticos em busca de melhores resultados eleitorais.
No que se refere à comunicação, houve profunda modificação no seu exercício e as
plataformas sociais assumiram papel central. Agora não só os editoriais trazem a informação a
ser consumida, mas também os próprios usuários podem compartilhar notícias online. Essa
nova forma de se expressar trouxe problemas sistêmicos – desinformação, propagação de
discurso de ódio, assédio, divulgação de pornografia infantil, atos extremistas, racismo, dentre
outros males. As mídias digitais trouxeram um ambiente de baixo custo para a propagação da
informação, tornando mais difícil o cumprimento de normas de veracidade e objetividade pelas
empresas de comunicação.
Dentro dessa nova realidade, as plataformas digitais passaram a controlar a distribuição
de conteúdo, trazendo algumas questões centrais. Um relatório, produzido pelo George J.

31
WINCHCOMB. Tim. White paper: Ofcom: Use of AI in online content moderation. Cambridge Consultants,
2019. Disponível em: https://www.cambridgeconsultants.com/insights/whitepaper/ofcom-use-ai-online-content-
moderation Acesso em 10/01/2022. FELD. Harold. The Case for the Digital Platform Act: Market Structure and
Regulation of Digital Platforms. Roosevelt Institute. Public Knowledge. 2019, p. 134.
32
ZUBOFF, Shoshana. The age of surveillance capitalism: The Fight for a Human Future at the New Frontier
of Power. New York: Public Affairs. 2018.
33
TEFFÉ, Chiara Spadaccini; MORAES, Maria Celina Bodin. Redes sociais virtuais: privacidade e
responsabilidade civil. Análise a partir do Marco Civil da Internet. Pensar-Revista de Ciências Jurídicas, v. 22,
n. 1, p. 108-146, 2017. Disponível em: https://periodicos.unifor.br/rpen/article/view/6272 Acesso em 10/01/2022.
17

Stigler Center, da Universidade de Chicago 34, aponta que as plataformas digitais eliminam os
jornais, monopolizando o mercado de notícias, o que acarreta na concentração de informações
dentro dos moldes por elas desejados. Substitui-se a visão de diversas fontes editoriais por
poucas, pertencentes às empresas dominantes no mercado, comprometendo, assim, um robusto
compartilhamento de conhecimento, na qual uma verdadeira democracia se sustenta.
Para manter todo esse sistema funcionando e atrativo para que os usuários permaneçam
engajados, de forma a possibilitar a coleta de dados, as plataformas desenvolveram ferramentas
para nutrir um espaço digital saudável, que permite aos usuários interagir, criar e consumir
conteúdo. A moderação de conteúdo é o instrumento que autoriza a plataforma alcançar um
ambiente que reflete a expectativa de seus usuários, deixando-os confortáveis para navegar e
interagir. Com isso, as redes sociais obtem engajamento e atenção e, consequentemente, mais
dados, o que se transforma em mais poder.

1.3 Problema e justificativa da pesquisa

Nesse panorama, quando as plataformas digitais passam a desempenhar um papel tão


importante na economia e democracia – determinando o que, como e quando um determinado
conteúdo permanece na rede – o Estado precisa implementar mecanismos que viabilizem a
proteção de direitos fundamentais dos indivíduos perante às atividades desenvolvidas pelas
plataformas, garantindo seu crescimento e inovação, sem ferir a liberdade de expressão,
privacidade e outros direitos e valores relacionados ao ser humano. E, justamente, por se
tratarem de direitos sensíveis, tão importantes para o desenvolvimento de uma sociedade
democrática, é que é necessário um olhar mais atento sobre como as plataformas de redes
sociais têm utilizado sua infraestrutura tecnológica para governar o ambiente online.
Se por um lado não há como deixar o ambiente digital livre para o compartilhamento de
qualquer conteúdo, sob pena de inundação de problemas sistêmicos como a desinformação,
discursos de ódio, extremismo e outros. Por outro, há o reconhecimento, por parte da literatura,
de que a moderação de conteúdo exercida pelas plataformas digitais geram problemas de

34
ZINGALES, Luigi. LANCIERI, Filipo. Stigler Committee on Digital Platforms: Policy Brief. Stigler Center for
the Study of the Economy and the State. Chicago Booth. 2019, pp. 6-22. Disponível em:
https://www.publicknowledge.org/wp-content/uploads/2019/09/Stigler-Committee-on-Digital-Platforms-Final-
Report.pdf. Acesso em 20/11/2020.
18

assimetria de informação35, tanto entre elas e usuários, como entre elas e o próprio Estado, e
afetam os direitos fundamentais dos usuários36, pelo que retira desses entes intermediários a
legitimidade para governar o ambiente online sem supervisão37. Um dos pontos que será
analisado neste trabalho é como deve ser realizada essa supervisão.
Sendo a liberdade econômica o princípio vetor do sistema capitalista, adotado pela
Constituição Federal Brasileira em seu artigo 170, há situações em que esse princípio é
excepcionado e autorizada a intervenção estatal. Demandas por regulação de uma determinada
atividade são, normalmente, originadas da perseguição de interesse público, em razão da
existência de falhas de mercado 38, mas também podem advir da proteção de direitos humanos
e da solidariedade social39.
Essa lógica é aplicável às plataformas de redes sociais. Portanto, se a atividade de
moderação de conteúdo pode ferir direitos fundamentais dos indivíduos – liberdade de
expressão, privacidade e devido processo, por exemplo, ou se, do desenvolvimento da atividade
empresarial apresentam-se falhas de mercado, como, por exemplo, a assimetria de informação
entre usuário e plataformas, é possível que o Estado intervenha através da regulação do setor.

35
BAPTISTA, Patrícia; KELLER, Clara Iglesias. Porque, quando e como regular as novas tecnologias? Os
desafios trazidos pelas inovações disruptivas. Revista de Direito Administrativo – RDA,v. 273,Rio de Janeiro,
p.123-163,17set.2016.Disponível em: http://bibliotecadigital.fgv.br/ojs/index.php/rda/article/view/66659/64683.
Acesso em 25/07/2020. ESTEVES. Uber: o mercado de transporte individual de passageiros: regulação,
externalidades e equilíbrio urbano. In: Revista de Direito Administrativo, Rio de Janeiro,
v.270,set./dez.2015,p.325-361. Disponível em:
http://bibliotecadigital.fgv.br/ojs/index.php/rda/article/view/58746. Acesso em 10/07/2020.
36
KAYE, D. Promotion and protection of the right to freedom of opinion and expression. Relatório especial
oferecido na Assembleia Geral das Nações Unidas, 2019. A/74/486. Disponível em:
<https://www.ohchr.org/Documents/Issues/Opinion/A_74_486.pdf>. Acesso 01/06/2022.
37
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital Platforms.
Roosevelt Institute. Public Knowledge. 2019. BLOCH-WEHBA, Hannah. Global Platform Governance: Private
Power in the Shadow of the State, 72 SMU L. REV. 27, 2019, p. 27-80, p.61. Disponível em:
https://scholar.smu.edu/cgi/viewcontent.cgi?article=4778&context=smulr Acesso em 01/06/2022. DOUEK,
Evelyn. Verified Accountability: Self-Regulation of Content Moderation as an Answer to the Special Problems of
Speech Regulation. Hoover Institution, Aegis Series Paper n. 1903, 2019. Disponível em:
<https://s3.documentcloud.org/documents/6419386/Evelyn-Douek-Hoover-Aegis-Paper-Verified.pdf>. Acesso
em 01/06/2022. KLONICK, Kate. The New Governors: The People, Rules, and Processes Governing Online
Speech. Harvard Law Review. N. 131, 2017. Disponível em: <https://ssrn.com/abstract=2937985>. Acesso em
01/06/2022.
38
BALDWIN, Robert, CAVE, MARTIN e LODGE, Martin. Understanding Regulation. Theory, Strategy and
Pratice. 2ed. Oxford: Oxford University. 2012. Disponível em:
https://oxford.universitypressscholarship.com/view/10.1093/acprof:osobl/9780199576081.001.0001/acprof-
9780199576081-chapter-2 As razões da regulação, notadamente, as falhas de mercado, serão aprofundadas no
capítulo 5 deste trabalho.
39
T. PROSSER. Regulation and Social Solidarity (2006) 33 Journal of Law and Society 364-87 apud BALDWIN,
Robert, CAVE, MARTIN e LODGE, Martin. Understanding Regulation. Theory, Strategy and Pratice. 2ed.
Oxford: Oxford University. 2012, p. 22 Disponível em:
https://oxford.universitypressscholarship.com/view/10.1093/acprof:osobl/9780199576081.001.0001/acprof-
9780199576081-chapter-2 Acesso em 10/01/2022.
19

Ademais, a atividade de interação nas redes sociais ocorre em um espaço que se tornou
uma das principais fontes de opinião pública, motivo pelo qual deve ser considerado uma esfera
pública40. Por esfera pública entende-se o “espaço no qual as pessoas expressam opiniões e
trocam visões do que está acontecendo na sociedade”41. É na esfera pública, delimitada por
atores privados, que circulam as ideias e opiniões que influenciam a vida em sociedade. Esses
atores privados são instituições como, por exemplo, universidade, igrejas, teatros, dentre outros.
No mundo digital, esse espaço denominado de esfera pública digital é dominado pelas
plataformas digitais, notadamente, aquelas que se relacionam a redes sociais.
Afirmar que estão presentes os requisitos técnicos para a regulação estatal, não significa
que ela seja a melhor opção, principalmente quando se associa a presença do Estado a uma
regulação de comando e controle, em que o órgão estatal cria, aplica e supervisiona as regras
para que se alcance o equilíbrio de um determinado setor. Noutro giro, a afirmação de que a
internet é um ambiente livre e não pode ser regulado é falaciosa, vez que, conforme será
analisado neste trabalho, o ambiente online já é regulado pela arquitetura das plataformas.
É preciso investigar qual o arranjo institucional mais adequado para enfrentar os
problemas gerados pela tecnologia das redes sociais. Por essa razão vários fatores precisam ser
considerados antes de se adotar uma posição. É preciso compreender sobre a atividade realizada
pelas redes sociais de moderação de conteúdo e o que está em jogo, bem como analisar a
conjuntura do desenvolvimento social e a governança das redes sociais na internet para definir
se é recomendável algum tipo de interferência do Estado, sem descuidar da sensibilidade do
tema para os Estados Democráticos: regular o conteúdo sem caracterizar censura.
A premissa adotada neste trabalho é que a autorregulação, arranjo que se situa fora da
esfera da regulação estatal, com regimento do comportamento de um grupo pelas regras criadas
por eles próprios através de adesão voluntária, não é suficientemente eficaz para combater os
problemas sistêmicos gerados pela nova forma de comunicação social dos meios digitais, em
razão de possíveis efeitos colaterais mais danosos ao exercício da liberdade de expressão,
privacidade e devido processo.

40
BALKIN. Jack M. How regulate (and not regulate) social media. Journal of Free Speech Law , Knight Institute
Occasional Paper Series, No. 1 (March 25, 2020), Yale Law School, Public Law Research Paper Forthcoming,
2021. Disponível em SSRN: https://ssrn.com/abstract=3484114 Acesso em 10/06/2022.
41
BALKIN. Jack M. How regulate (and not regulate) social media. Journal of Free Speech Law , Knight Institute
Occasional Paper Series, No. 1 (March 25, 2020), Yale Law School, Public Law Research Paper Forthcoming,
2021, p. 72. Disponível em SSRN: https://ssrn.com/abstract=3484114 . Acesso em 10/06/2022.Trecho original:
For purposes of this essay, we can say that the public sphere is the space in which people express opinions and
exchange views that judge what is going on in society.
20

Em uma sociedade marcada pela complexidade e globalização, na qual a divisão entre


as fronteiras do público e do privado não se mostram tão fortes quanto antes, a regulação,
considerada como o mecanismo que permite trazer equilíbrio ao sistema, deve incluir todos os
atores interessados na participação do processo decisório dentro de uma visão de governança
multissetorial.
Dentro dessa nova perspectiva, observa-se a corregulação como o arranjo institucional
mais adequado para lidar com os problemas gerados na moderação de conteúdo, vez que ela
extrai a expertise das plataformas, atores privados que já estão na linha de frente da operação,
e utiliza os mecanismos de supervisão e responsabilidades públicas, inerentes à regulação
estatal.
Nesse sentido, o desenvolvimento da pesquisa tem início nos seguintes
questionamentos: o Estado, no Brasil, possui um papel a desempenhar na regulação de conteúdo
exercida pelas plataformas digitais de redes sociais? Caso positivo, qual o instrumento
regulatório o Estado poderia utilizar para a regulação da atividade de moderação de conteúdo
online?
A justificativa da pesquisa reside no fato de que os seres humanos são uma espécie
comunicativa, sendo a fala e privacidade extremamente importantes para o desenvolvimento
das democracias42. E, à medida que as tecnologias de comunicação modificam e ampliam o
acesso à informação, não se surpreende que essas mudanças possuam a capacidade de
remodelar fundamentalmente nossa sociedade. Por isso, é importante supervisionar o processo
de moderação de conteúdo online realizado pelas plataformas de redes sociais, já que ele tem o
potencial de influenciar e condicionar o exercício da liberdade de expressão e autodeterminação
dos usuários e a própria democracia de um Estado.
Essa supervisão é necessária para se garantir que as redes sociais respeitem os direitos
fundamentais em seus processos internos de tomada de decisão, bem como regras de
transparência. O simples estabelecimento de princípios e padrões para serem seguidos não são
uma solução eficaz, na medida que somente são implementados de acordo com os interesses
das plataformas. Essa supervisão deve ser pública, pois somente assim questões relacionadas a
governança algorítmica poderão ser analisadas sem ferir o segredo comercial das empresas
envolvidas.
Se até a presente data ainda não se tem, no Brasil, nenhuma regulação específica
aplicável à atividade de moderação de conteúdo nas redes sociais, a pesquisa é importante para

42
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, 2006, pp.
477-491. Disponível em: https://bit.ly/1ngGQAa. Acesso em 10/01/2021.
21

fomentar o debate sobre a futura escolha regulatória do legislador brasileiro. É preciso conhecer
a tecnologia que se pretende regular, os efeitos de sua utilização para a sociedade e o desenho
institucional disponível dentro do modelo de Estado Regulador.

1.4 Objeto, objetivos e organização do trabalho

Isto posto, o objeto do presente trabalho é a regulação da atividade de moderação de


conteúdo desempenhada pelas redes sociais, enquanto o objetivo geral é pesquisar se o Estado
possui algum papel nessa regulação exercida pelas plataformas digitais e como ele seria
desempenhado, considerando que a Constituição Federal adotou um modelo de Estado
Regulador. Para isso, essa dissertação traz cinco objetivos específicos:

i) Investigar o funcionamento da atividade que se pretende regular. Isso


significa: (a) entender o que é a moderação de conteúdo online, suas
maneiras e os remédios que são aplicados pelas plataformas quando se
deparam com conteúdos que infrinjam suas regras; (b) analisar os problemas
e perigos que as plataformas enfrentam ao moderar conteúdo; e, (c) analisar
a regulação, hoje existente, acerca da responsabilidade decorrente do
exercício dessa atividade.
ii) Elencar três direitos fundamentais afetados na moderação de conteúdo,
considerados, neste trabalho, como essenciais para o desenvolvimento de
uma sociedade democrática, a liberdade de expressão, a privacidade e o
devido processo, bem como apresentar justificativas teóricas para aplicação
desses direitos nas relações entre as plataformas de redes sociais e seus
usuários, dentre elas, o constitucionalismo digital.
iii) Apresentar uma leitura crítica sobre a legitimidade das plataformas digitais
para a governança do espaço digital, sendo certo que, enquanto empresas
privadas, realizam funções quase-legislativas, quase-executivas e quase-
judiciais que interferem nos direitos fundamentais dos usuários. Para isso,
será explicado o que é governança, diferenciando-a do seu mecanismo, a
regulação, e apresentado um modelo mais consentâneo com a atual
sociedade plural: a governança multissetorial.
22

iv) Analisar a viabilidade da regulação das plataformas de redes sociais, o que


inclui o cabimento técnico e adequação da medida. A fim de atingir esse
objetivo será feita uma breve introdução sobre o desenvolvimento do
modelo de Estado Regulador, para que, a partir de uma visão ampla, se tenha
elementos para que se possa optar pelo arranjo institucional mais adequado
para regular as redes sociais.

Para tratar de todas essas questões, o trabalho fará uma pesquisa teórica dividida em
duas partes. A primeira parte é composta por duas seções que direcionam o olhar para a
atividade de moderação de conteúdo e seus desdobramentos, que é imprescindível para
conhecimento antes de se iniciar a regulação de um determinado setor. Assim, a primeira seção
se inicia no segundo capítulo e desenvolve o universo da moderação de conteúdo online e traz
sua identificação como uma nova categoria de atividade das plataformas digitais.
A fim de contextualizar o leitor sobre esse novo universo que demanda regulação, neste
capítulo será estudado o conceito de moderação, suas técnicas e maneiras de ser realizada, bem
como os remédios que são aplicados pelas plataformas quando os usuários postam publicações
que ofedem seus termos de uso. Serão trazidas algumas visões normativas que devem orientar
a plataforma na escolha de suas ações. Pela centralidade e importância para o desenvolvimento
do modelo de negócio das redes sociais, os sistemas de recomendação serão tratados em uma
subseção destacada. O capítulo segue elecando os perigos enfrentados pela atividade de
moderação, ou seja, os conteúdos prejudiciais (desinformação, discurso de ódio, etc), que
tornam a esfera pública onde ocorre o debate um espaço hostil, bem como elecando problemas,
como a inconsistência, escalabilidade, opacidade, ausência de clareza e justificação das
decisões tomadas que as plataformas de mídias sociais enfrentam ao moderar. Para finalizar o
capítulo, será apresentada a regulação existente hoje sobre moderação de conteúdo, a
responsabilidade das plataformas de redes sociais contida no Marco Civil da Internet (MCI).
O terceiro capítulo aborda os direitos fundamentais afetados pela moderação de
conteúdo. Serão detalhados os direitos da liberdade de expressão, privacidade e o devido
processo, com destaque para a perspectiva brasileira. Neste ponto será explicitada a visão da
literatura sobre a aplicação dos direitos humanos às redes sociais, empresas privadas. Não é
razoável pensar que as plataformas não possuem responsabilidades com a proteção desses
direitos. Para sanar o desejo por mecanismos que limitassem o poder arbitrário das plataformas,
ideologias, como o constitucionalismo digital, foram construídas. No Brasil, se destaca a teoria
da eficácia horizontal dos direitos fundamentais, à luz do artigo 5º, § 1º, da Constituição da
23

República Federativa Brasileira, que vincula os particulares ao respeito aos direitos


fundamentais.
Concluída a primeira parte da dissertação, a segunda parte é composta por três seções,
cujo foco está na regulação das plataformas de redes sociais. Para se chegar lá, iniciou-se, no
quarto capítulo, um estudo sobre a governança da internet à governança das plataformas de
redes sociais. Nele foram apresentadas as críticas da literatura sobre a legitimidade desses entes
intermediários para o exercício da regulação e as possíveis soluções apontadas em um cenário
multinacional.
O quinto capítulo apresenta ao leitor o cenário da configuração estatal em que se discute
a regulação das plataformas de redes sociais, isto é, o modelo de Estado Regulador e suas
transformações em uma sociedade complexa. Após, justifica-se a necessidade da regulação
estatal para as atividades desenvolvidas nas redes sociais. Neste ponto, com o objetivo de se
afastar ou, pelo menos minimizar, a rejeição à regulação das redes sociais, será destacado que
as plataformas de redes sociais já regulam o conteúdo que circula nas redes sociais, sendo certo
que a novidade residiria no Estado exercendo um papel nessa regulação. Contudo, esse cenário
também não é novo, já que o sistema de radiodifusão dos Estados Unidos, por exemplo, é um
setor regulado. Ao final serão apresentados os arranjos institucionais cabíveis para essa
regulação e, para fundamentar a viabilidade de cada arranjo institucional, serão mencionadas
algumas experiências estrangeiras de forma crítica.
Representando o modelo de comando e controle, será analisada a regulação chinesa, por
ser a maior potência econômica que apresentou um modelo de regulação direta. A pesquisa da
adequação da autorregulação será feita a partir da iniciativa europeia sobre o Código de
Desinformação. A eleição deste Código de Conduta foi feita considerando a importância do
tema no cenário brasileiro, já que a partir de um projeto de lei sobre fake news foi que o debate
sobre regulação de conteúdo se iniciou em solo pátrio. E, por fim, os arranjos corregulatórios
serão exemplificados a partir das regulações que entrarão em vigor, em breve, do Reino Unido
e da União Europeia, já que ambas as legislações trazem um debate mais maduro sobre as
possibilidades regulatórias.
E, por fim, o sexto capítulo se decida a responder as perguntas que nortearam essa
pesquisa. Considerando o arranjo corregulatório como o mais adequado, o Estado, através do
Poder Executivo, tem um papel a desempenhar na regulação de conteúdo das redes sociais. E
como instrumento regulatório, defende-se que as Agências Reguladoras independentes
possuem o papel de colaborar no desenho regulatório, indicando os parâmetros, a partir da
legislação, que devem ser seguidos pelas plataformas de redes sociais em seus procedimentos
24

internos de tomadas de decisão, e medidores que serão posterioremente utilizados para


mensurar o cumprimento dessas normas. Também devem atuar na supervisão pública das
atividades de moderação de conteúdo (não superviosar o conteúdo em si mesmo), porém para
verificar se os procedimentos adotados respeitam os direitos fundamentais e valores do Estado
Democrático de Direito. Para completar a pesquisa, menciona-se o estado da arte da estrutura
regulatória das plataformas digitais de redes sociais no Brasil.
25

2 A REGULAÇÃO DAS PLATAFORMAS DE REDES SOCIAIS NO ESPAÇO


DIGITAL

Nas primeiras décadas de desenvolvimento da internet, o Estado absteve-se de regular


a internet, influenciado pelas visões libertárias que predominaram nos anos 1990. A escolha do
Estado em delegar a esses entes intermediários a regulação através da tecnologia foi consciente.
A capacidade das plataformas em governar o espaço online é conhecida desde 1970, quando,
no período da Guerra Fria, passou-se a compreender o uso da tecnologia como um “vetor para
espalhar e implementar valores embutidos nela”43.
Essa ausência de regulação estatal nas infraestruturas administradas pelas plataformas
para a comunicação interpessoal é um dos fatores que permitiu a esses entes intermediários o
exercício de uma regulação privada sobre o discurso localizado na internet44. E essa regulação
é exercida por meio das suas próprias ferramentas regulatórias: contratual, através dos termos
e políticas de uso, ou por meio da arquitetura técnica.
Dessa forma, as plataformas atuam para implementar seu próprio funcionamento. O
crescimento de seus poderes no setor é tão grande que a literatura (por todos, Luca Belli) afirma
45
que elas estão adquirindo uma nova forma de soberania no espaço digital . Essa afirmação
ocorre em razão das plataformas exercerem, em seus espaços online, muitas funções
anteriormente reservadas aos atores estatais.
Elas possuem um poder quase-normativo, pois através de seus termos de uso elas
definem, de forma unilateral, quais atividades são permitidas aos usuários, bem como a política
para coleta e processamento de dados46. Também desempenham um poder quase-executivo,
vez que por meio de seus softwares executam as suas regras47. Nesse caso, a sua estrutura
arquitetônica permite que as plataformas construam o caminho que deverá ser seguido pelo
usuário, moldando o comportamento dos usuários em seus espaços. A regulação por meio da
arquitetura, segundo Luca Belli, é um mecanismo muito eficaz48. E, para finalizar,

43
BELLI. Luca. Structural Power as a Critical Element of Digital Platforms’ Private Sovereignty. In Edoardo
Celeste, Amélie Heldt and Clara Iglesias Keller (Eds). Constitutionalising Social Media. (Hart 2022), p 06.
44
SUZOR, Nicolas P. Lawless: The secret rules that govern our digital lives. Cambridge University Press, 2019.
45
BELLI. Luca. Structural Power as a Critical Element of Digital Platforms’ Private Sovereignty. In Edoardo
Celeste, Amélie Heldt and Clara Iglesias Keller (Eds). Constitutionalising Social Media. (Hart 2022), p. 06.
46
BELLI. Luca. Structural Power as a Critical Element of Digital Platforms’ Private Sovereignty. In Edoardo
Celeste, Amélie Heldt and Clara Iglesias Keller (Eds). Constitutionalising Social Media. (Hart 2022), pp. 13-15.
47
BELLI. Luca. Structural Power as a Critical Element of Digital Platforms’ Private Sovereignty. In Edoardo
Celeste, Amélie Heldt and Clara Iglesias Keller (Eds). Constitutionalising Social Media. (Hart 2022), p 16.
48
BELLI. Luca. Structural Power as a Critical Element of Digital Platforms’ Private Sovereignty. In Edoardo
Celeste, Amélie Heldt and Clara Iglesias Keller (Eds). Constitutionalising Social Media. (Hart 2022), p. 16.
Trecho original: The effectiveness of regulating by structure is the main reason why policymakers are increasingly
26

desempenham um poder quase-judicial, isto é, elas implementam soluções alternativas aos


litígios ocorridos em seus espaços que são analisadas com base em seus termos de uso49.
Dessa forma, o espaço digital onde ocorre o debate público de ideias é um local privado,
regrado por pessoas jurídicas privadas. As plataformas digitais, mais do que intermediárias,
atuam ativamente no fluxo informacional, criando regras, executando-as e tomando decisões
quando surgem conflitos a ela relacionados. São elas, portanto, que regulam o ambiente digital,
o que levou parte da academia a reconhecê-las como os “novos governantes da liberdade de
expressão” 50.
Neste capítulo será abordado como as plataformas exercem a regulação privada do
ambiente digital: através da moderação de conteúdo. Primeiro, será apresentado o universo da
moderação de conteúdo online, isto é, como (ferramentas e modos) as plataformas
desempenham essa atividade, que é essencial para permitir a fluência da comunicação virtual e
enfrentar comportamentos nocivos. Depois será oferecida uma visão normativa sobre como
utilizar os remédios possíveis à moderação de conteúdo.
Pela importância, será estudado de forma mais profunda os sistemas de recomendação,
em subseção própria. Os perigos que as plataformas buscam enfrentar quando desempenham a
atividade de moderação de conteúdo e a responsabilidade jurídica dela decorrente também são
temas guardados para o final deste segundo capítulo.
A construção deste capítulo busca formar uma base teórica sobre o funcionamento dessa
ferramenta tecnológica colocada a disposição das plataformas de redes sociais para que, ao final
do trabalho, seja possível compreender os contornos do problema de pesquisa apresentado. É
necessário subsidídios mínimos sobre o tema que se deseja regular.

2.1 O universo da moderação de conteúdo online.

Quando as interações sociais ocorrem de forma pública em espaços online, a moderação


de conteúdo desempenha um papel fundamental na manutenção da ordem e civilidade nos

delegating traditional regulatory and police functions to the platforms that design and control digital
environments.
49
BELLI. Luca. Structural Power as a Critical Element of Digital Platforms’ Private Sovereignty. In Edoardo
Celeste, Amélie Heldt and Clara Iglesias Keller (Eds). Constitutionalising Social Media. (Hart 2022), pp. 18-19.
50
KLONICK, Kate. The new governors: the people, rules, and processes governing online speech. Harvard Law
Review, n. 131, 2017. Disponível em: https://harvardlawreview.org/wp-content/uploads/2018/04/1598-
1670_Online.pdf Acesso em 10.05.2020.
27

debates coletivos. É por meio da moderação que as plataformas digitais irão controlar o fluxo
informacional, podendo remover postagens, valorizá-las, estimular a participação de usuários
ou excluí-los. Essa atividade se destaca porque as plataformas possuem o poder de criar regras
que irão moldar o comportamento dos usuários, seja através da arquitetura, seja através de seus
termos de uso e políticas de comunidade. Suas decisões serão capazes de influenciar o que será
lido e como será valorizado.
Sobre sua importância, James Grimmelmann 51 relata o episódio relacionado à tentativa
de construção de um wikitorial pelo Jornal Los Angeles Times, em 2005, onde seria permitido
aos leitores reescrever o editorial do sítio eletrônico do Jornal. Em um primeiro momento a
página gerou um debate sobre a Guerra do Iraque, dividindo os leitores entre aqueles que
estavam a favor e, outros, contra. Contudo, posteriormente, em menos de 48h, a página restou
repleta de comentários preconceituosos e fotografias indesejáveis, o que culminou na retirada
da página do ar. O referido autor afirma que a razão da desordem foi a ausência de moderação,
instrumento essencial para a prevenção de abusos online.
Mas não é só para prevenir abusos online para que serve a moderação. As plataformas
a fazem para zelar por sua imagem perante seus acionistas, usuários e anunciantes52. O modelo
de negócio predominante no espaço digital, desenvolvido pelas plataformas digitais,
principalmente as redes sociais, conforme apresentado na introdução, envolve coleta e
processamento de dados de seus usuários. Por isso, é interessante que sejam criados ambientes
saudáveis para que conteúdos sejam postados no ambiente virtual e os usuários permaneçam
engajados.
Segundo Grimmelmann, a moderação de conteúdo online é um “mecanismo de
governança que estrutura a participação do usuário em comunidades virtuais para facilitar a
cooperação e prevenir abusos”53. Assim, as plataformas digitais, ao exercerem a moderação,
cujo objeto é uma comunidade online, perseguem três objetivos: produtividade da rede, abertura
e baixos custos54.

51
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015. Disponível em: https:/ /
digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020. Veja também:
https://www.latimes.com/archives/la-xpm-2005-jun-21-na-wiki21-story.html Acesso em 09/08/2020.
52
GILLESPIE, Tarleton. Custodians of the Internet: Platforms, Content Moderation, and the Hidden Decisions
That Shape Social Media. Yale University Press, 2018, p. 05.
53
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, p. 47. Disponível em:
https://digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/2. Acesso em 09/08/2020. Trecho original: By
"moderation," I mean the governance mechanisms that structure participation in a community to facilitate
cooperation and prevent abuse.
54
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, pp. 48/49. Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020. O autor define comunidade
28

A produtividade significa geração e distribuição de bens informacionais aos usuários,


que são valiosos por eles mesmos, ou, em razão de facilitar transações, ou ainda, por fazerem
parte de sistemas sociais importantes, como, por exemplo, questões políticas. A abertura,
relacionada com eficiência, significa garantir mais acessos, pois quanto maior o número de
membros de uma comunidade, mais produtiva ela será. Uma comunidade bem moderada traz
baixos custos para a infraestrutura - custos computacionais, mas também para os participantes
- sinalização de postagens prejudiciais, apelações de remoções ou exclusões de contas
incorretas, etc55.
Os exemplos mais conhecidos dessas atividades ocorrem nas plataformas de redes
sociais, objeto deste trabalho, quando esses intermediários excluem posts dos usuários que
contenham desinformação ou discurso de ódio. Contudo, revisões realizadas nas plataformas
de compras ou de oferecimento de serviços, como, no caso da Amazon, Mercado Livre, Airbnb,
Uber, etc., além de plataformas que oferecem recomendações de filmes, leitura ou outros
conteúdos também são exemplos de moderação de conteúdo.
Considerando que as comunidades online se tornaram um espaço importante para o
debate público e uma das principais fontes de informação dos usuários, a moderação de
conteúdo é uma ferramenta indispensável para manter a estrutura virtual como sendo um bem
de uso comum, sem discriminação na produção e acesso do conteúdo. No entanto, conforme já
apontado, as plataformas precisam lidar com alguns comportamentos abusivos56, mantendo-os
em níveis aceitáveis, já que seria impossível eliminá-los.
Grimmelmann elabora uma taxonomia da atividade de moderação de conteúdo e
informa que ela comporta técnicas variadas: as mais simples são a exclusão de membros
indesejados e a precificação do uso da comunidade; e as mais complexas são a organização do
fluxo informacional e o estabelecimento de regras, além do desenvolvimento de processos
decisórios e direcionamento de comportamentos57.

online como sendo grupos pequenos ou grandes de pessoas que compartilham informações na internet, no qual é
possível identificar três elementos: membros, conteúdo compartilhado e infraestrutura.
55
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, pp. 48/49. Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
56
Grimmelmann destaca quatro tipos de abusos que precisam ser contornados pela moderação de conteúdo: (a)
congestionamento pelo uso aumentado das comunidades, o que dificulta o acesso à informação; (b) cacofonia,
causada pelo sobreuso, o que dificulta os integrantes de encontrar o que desejam; (c) abuso gerado por conteúdos
ruins nas trocas de informações, onde o exemplo clássico são os assédios e ofensas que afetam pessoas particulares;
e, (d) manipulação, na qual participantes ideologicamente motivados podem manipular a informação aberta ao
público. GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, pp. 53-54. Disponível
em: https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
57
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, pp. 56-60 Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
29

A primeira delas, a exclusão, pode ser realizada quando detectado um comportamento


abusivo, enquanto a segunda, a precificação, eleva os custos de participação na plataforma, seja
com publicidade ou com cobrança de taxas para se tornar membro da comunidade, inibindo o
acesso ao público e, em tese, o comportamento abusivo58. A organização molda o fluxo de
conteúdo disponibilizado aos usuários, que ocorre através de atividades de formatação,
filtragem, síntese, anotação, edição e exclusão de conteúdo. Um ponto que merece atenção é
que a organização pode ser manipulada, de acordo com os interesses dos próprios moderadores,
de maneira a ampliar ou inibir o comportamento abusivo59.
O estabelecimento das normas destinadas aos usuários, membros de uma comunidade,
pode ser realizado de forma direta - por exemplo, através de regras expressamente veiculadas
nos termos de uso da plataforma, e de forma indireta - quando a plataforma se utiliza das demais
técnicas de moderação para direcionar o comportamento da comunidade. Isto se realiza tanto
pela proibição de certas condutas quanto por estímulos para que os membros adotem certos
comportamentos. Os processos decisórios representam um processo de moderação realizado
por essas empresas através de um complexo sistema normativo, que pode ser acompanhado por
mecanismos de inteligência artificial60. O direcionamento de comportamento será feito em
estudo a parte na próxima seção61.
Estabelecidas as ferramentas da moderação, é importante pontuar as diferentes maneiras
de realizar a moderação de conteúdo: automática ou manual (realizadas por humanos);
transparente ou secreta; ex ante e ex post; e, centralizada e descentralizada, destacadas nos
subtópicos abaixo a fim de facilitar a compreensão do tema. Cada uma das técnicas
mencionadas no parágrafo anterior pode ser combinada com a maneiras aqui descritas62.

58
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, pp.56-57. Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
59
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, pp.58-60. Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
60
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, pp. 61-63. Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
61
Seção 2.2 “Sistemas de recomendação”.
62
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, pp 63-70. Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
30

2.1.1 Moderação Automatizada e humana

A moderação de conteúdo automática é aquela feita pelo uso de algoritmos (cálculos


codificados em software de computador ou aplicações).63 Em um nível mais básico, são
instruções executadas por todos os programas, desde uma página da rede mundial de
computadores até processadores de computador. Em forma de motores de busca, redes sociais
e comércio eletrônico, algoritmos permitem a organização e filtragem da informação64.
Nas plataformas digitais, a automatização possui um importante papel, governar, através
de algoritmos, o fluxo de notícias e informações, guiando as recomendações fornecidas aos
usuários, o que tem sido chamado de “governança algorítmica” ou “algocracia”65. Esses
sistemas de algoritmos, chamados de sistemas de recomendação, são utilizados disseminar
conteúdo, determinando, assim, como e qual informação é acessada66.
A moderação automatizada se tornou indispensável para suprir às expectativas de
responsabilidade e segurança das plataformas digitais, haja vista que, ante o grande volume de
conteúdo compartilhado no espaço digital, moderadores humanos não seriam capazes de
analisar todas as publicações eventualmente danosas disseminadas nas redes sociais67. As
vantagens da moderação automática é que ela é mais efetiva; propensa a seguir regras, se
comparadas com moderadores humanos; mais barata (depois de implementada); e, pode ser
usada para milhões de casos68.
Por outro lado, os algoritmos, que não são neutros, refletem as preferências e
fragilidades do seu programador, pelo que não podem ser considerados livres de preconceitos

63
HOFFMANN, Stacie et al. The Market of Disinformation. Oxford Internet Institute, 2019. Disponível em:
https://oxtec.oii.ox.ac.uk/wp-content/uploads/sites/115/2019/10/OxTEC-The-Market-of-Disinformation.pdf.
Acesso em 30/09/2020.
64
TUTT, Andrew. An FDA for Algorithms. Administrative Law Review. N. 69, 2017. Disponível em:
https://bit.ly/31Vc8HR. Acesso em 10/10/2020.
65
COBBE, Jennifer. SINGH, Jatinder, Regulating Recommending: Motivations, Considerations, and Principles
European Journal of Law and Technology, 2019, p.07. Disponível em: https://ssrn.com/abstract=3371830 or
http://dx.doi.org/10.2139/ssrn.3371830 Acesso em 22/08/2020. Trecho original: These systems play a key role for
platforms in enforcing norms and influencing behaviour, a situation described variously as 'governance by
software'; 'algorithmic regulation', and 'algorithmic governance' or 'algocracy', and as a form of 'algorithmic
governmentality'.
66
Os sistemas de recomendação, pela importância que assumem na moderação de conteúdo online e para fins de
organização, serão analisados em uma subseção própria ainda neste capítulo.
67
GORWA, Robert. What is platform governance? Information, Communication & Society, v. 22, n. 6, 2019,
p.. 854-871.
68
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, pp. 64-65. Disponível
em: https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
31

e infalíveis69, e podem trazer implicações relevantes para os direitos fundamentais dos usuários,
conforme será abordado no segundo capítulo deste trabalho. Em um ambiente repleto de
informações no espaço virtual, algoritmos poderão determinar quais notícias serão lidas,
podendo, se usados, indevidamente, incitar o medo, a insegurança e o ódio.
No que se refere à moderação de conteúdo por pessoas humanas, há crítica na literatura
de que as principais empresas de mídia social marginalizaram as pessoas que trabalham com a
realização de moderação de conteúdo. Uma pesquisa sobre o tema revelou três pontos principais
que merecem ser enfrentados70: (i) na contramão do crescimento das plataformas para lugares
distantes, essas não expandiram o número de moderadores para essas regiões, o que dificulta a
compreensão do idioma e cultura local, alimentando a violência étnica e religiosa; (ii) os
moderadores não recebem acompanhamento médicos adequados para os danos psicológicos
sofridos, já que são expostos diariamente a uma grande quantidade de conteúdo tóxicos; (iii)
esses ambientes, com condições precárias para o exercício do trabalho e com mal remuneração,
interferem na tomada de decisão dos moderadores.
A preocupação é que as plataformas digitais lidam com a atividade desempenhada pelos
moderadores humanos com diminuta importância ao tema, terceirizando a atividade, e, muitas
vezes, com exploração dos trabalhadores, o que pode, ao final, prejudicar o próprio desempenho
da função. É importante destacar que esses modos de moderação, em muitas plataformas, atuam
de forma conjunta. No Facebook, por exemplo, o estudo acima referenciado, aponta que a
abordagem inicial de um conteúdo prejudicial, isto é, aquele que viola os padrões da
comunidade, é feita através de sistemas de inteligência artificial ou por denúncia do usuário.
Após, esse conteúdo suspeito é supervisionado por um moderador humano, que conduzirá à
exclusão ou permanência do conteúdo no espaço digital71.

69
TUTT, Andrew. An FDA for Algorithms. Administrative Law Review. N. 69, 2017. Disponível em:
https://bit.ly/31Vc8HR. Acesso em 10/10/2020. Segundo o autor a maioria dos algoritmos não causam maiores
preocupações; eles são instruções dadas pelo seu programador para resolver um determinado problema. Todavia,
os algoritmos derivados da tecnologia de aprendizado de máquina (“machine learning”) são programados para
aprender a resolver problemas, passando, assim, a prever comportamentos futuros por conta própria. Um exemplo
dessa segunda categoria de algoritmos são os carros automáticos, que são capazes de tomar decisões sobre direção
independente da conduta humana.
70
BARRET, Paul M. Who Moderates the Social Media Giants? A call to end outsourcing, New York University
Stern Center for Business and Human Rights, Junho 2020, p. 03. Disponível em:
https://static1.squarespace.com/static/5b6df958f8370af3217d4178/t/5ed9854bf618c710cb55be98/159131374049
7/NYU+Content+Moderation+Report_June+8+2020.pdf Acesso em 10/01/2022.
71
BARRET, Paul M. Who Moderates the Social Media Giants? A call to end outsourcing, New York University
Stern Center for Business and Human Rights, Junho 2020, p. 03. Disponível em:
https://static1.squarespace.com/static/5b6df958f8370af3217d4178/t/5ed9854bf618c710cb55be98/159131374049
7/NYU+Content+Moderation+Report_June+8+2020.pdf Acesso em 10/01/2022.
32

2.1.2 Moderação transparente e sigilosa

Quando se fala em moderação transparente e sigilosa, faz-se alusão a possibilidade de


observar as consequências dessa atividade. Transparente é aquela que é explícita sobre o que
os moderadores fizeram e porquê. Por isso, geram um trabalho adicional, mas promovem maior
legitimidade para os atos das plataformas, já que essas carecem dos controles eleitorais
estabelecidos por governos democráticos. Nesses casos, a política de moderação é plenamente
acessível ao público.
Por esse motivo, a transparência tem se tornado um valor central para a governança 72.
É crescente o desejo de regulação das plataformas, com mecanismos de supervisão, que possam
buscar a prestação de contas pelas plataformas e sua responsabilização. E, nesses casos, a
transparência serve como instrumento para que isso se torne possível. Conforme apontado pela
literatura sobre o tema, a transparência, por si só, não traz responsabilidade (accontability), mas
oferece uma pré-condição importante73.
O problema das políticas de transparência em sistemas complexos de algoritmos (deep
learning) é que essa explicabilidade se torna mais complicada, já que o processo de tomada de
decisão não é inteligível nem pelos próprios criadores74. Sendo esses algoritmos verdadeiras
caixas pretas (black boxes), as plataformas não possuem o controle sobre as decisões tomadas
em seus sistemas, mas o próprio modelo passará a tomar decisões sozinho, com base nos dados
registrados em seu dataset75.
Outro ponto relevante é que a transparência deve, ao mesmo tempo, respeitar a proteção
do segredo dos negócios. Trata-se um importante trade-off que não é de fácil solução. Taylor
Moore, em artigo escrito, salienta que os algoritmos podem funcionar como barreiras para a

72
Esse tema será retomando no capítulo 4.
73
GORWA, Robert & ASH, Timothy Garton. Democratic Transparency in plataforma society. In: Social Media
and Democracy The State of the Field, Prospects for Reform. Cambridge University Press. 2020, pp. 286-312.
Disponível em: https://gorwa.co.uk/publication/transparency/
74
GORWA, Robert; GARTON ASH, Timothy. Democratic Transparency in the Platform Society. In: PERSILY,
Nate; TUCKER, Josh. Social Media and Democracy. Cambridge University Press, 2020, p. 286 - 312. Disponível
em: https://www.cambridge.org/core/books/social-media-and-democracy/democratic-transparency-in-the-
platform-society/F4BC23D2109293FB4A8A6196F66D3E41 Acesso em 01/03/2022.
75
TUTT, Andrew. An FDA for Algorithms. Administrative Law Review. N. 69, 2017. Disponível
em:https://bit.ly/31Vc8HR. Acesso em 10/10/2020. e DESAI, Deven R. KROLL, Joshua A. Trust But Verify: A
Guide to Algorithms and the Law. Harvard Journal of Law & Technology. V. 31, n. 1, 2017. Disponível em:
https://bit.ly/2oSaww6. Acesso em 0/10/2020
33

realização da justiça social, se tratados de forma secreta76. Por isso, não se pode encarar o direito
ao segredo como absoluto. Nesse sentido, tem-se outros exemplos similares, como a
propriedade intelectual, que não é direito absoluto e deve ceder em detrimento de determinados
interesses sociais77.
Uma saída seria a divulgação dos códigos e dos critérios utilizados para treinar os
algoritmos, o conteúdo da base de dados (se é representativa) e o mecanismo de validação
desses pelas plataformas sociais. Isso significa que seria possível às plataformas divulgarem
critérios de inteligibilidade, isto é, o processo de lógica e da própria decisão. Se a divulgação
pudesse ser feita a uma entidade independente e imparcial que pudesse zelar pela manutenção
do segredo, por exemplo, seria melhor.
Ao contrário, a moderação de conteúdo secreta não demonstra a fundamentação do
processo decisório e pode nem ser conhecida pelo usuário. A título de exemplo, os usuários de
um serviço de busca não têm conhecimento quais páginas não são apresentadas a eles. Esse tipo
de atitude tem sido alvo de preocupação dos pesquisadores acerca de alguns remédios utilizados
pelas próprias plataformas quando lidam com conteúdos prejudiciais que são opacos78.
Quando um usuário posta um conteúdo prejudicial que viola os termos de uso e políticas
das plataformas, as intervenções, normalmente, adotadas partem de uma escolha binária: deixá-
lo na rede ou removê-lo. Esses remédios são facilmente medidos e verificados. Entretanto,
outros remédios também podem ser aplicados como forma de sanção e sequer são conhecidos
pelos usuários.
A título de exemplo, ligado à categoria de visibilidade de conteúdos, é o banimento para
a sombra (shadowban) e a redução da promoção interna (rebaixamento). O primeiro permite
que o usuário mantenha sua conta ativa, mas a visibilidade do conteúdo é restrita a ele. É
semelhante a suspensão de conteúdo, vez que o conteúdo prejudicial fica inacessível, mas a
diferença é que o usuário permanece com acessibilidade e funcionalidade da conta para edição
e busca de conteúdo79. A crítica a esse modelo é que muitos usuários sequer são notificados

76
MOORE, Taylor. Trade Secrets and Algorithms as Barriers to Social Justice. Center Democracy & Tecnology.
2017. Disponível em: https://cdt.org/wp-content/uploads/2017/08/2017-07-31-Trade-Secret-Algorithms-
asBarriers-to-Social-Justice.pdf Acesso em 01/06/2022.
77
FRAZÃO, Ana. Transparência de algoritmo X segredo de empresa. 2021. Disponível em:
http://www.professoraanafrazao.com.br/files/publicacoes/2021-06-09-
Transparencia_de_algoritmos_x_segredo_de_empresa_As_controversias_a_respeito_das_decisoes_judiciais_tra
balhistas_que_determinam_a_realizacao_de_pericia_no_algoritmo_da_Uber.pdf
78
LEERSEN. Paddy. Shadow bans and other secret sanctions: How non-takedown contente moderation threatens
transparency. Draft paper.
79
GOLDMAN, Eric, Content Moderation Remedies. Michigan Technology Law Review, 2021, p. 41.
Forthcoming, Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3810580. Acesso em
14/05/2021.
34

sobre essa ação da plataforma, o que pode caracterizar uma censura velada se operada de forma
abusiva pelos moderadores.
A redução da promoção interna está relacionada com as recomendações das
plataformas. Elas podem, por exemplo, não recomendar ou reduzir a promoção de um conteúdo
com desinformação80. Os usuários podem até suspeitar da aplicação desse remédio quando
ocorre uma queda repentina no engajamento ou tráfego, no entanto, é difícil apontar
conclusivamente essa prática. Por exemplo, o declínio de um usuário pode ser consequência da
crescente competição de outras fontes, priorização de outros conteúdos, mudança na
classificação do algoritmo, dentre outras práticas complexas de classificação das plataformas81.
Outro remédio que não possui a devida transparência é desmonetização. As plataformas
que pagam os criadores de conteúdo, como, por exemplo, o Youtube Partner Program (YPP),
cujo objetivo é dividir a renda auferida decorrente dos anúncios com os autores de conteúdo
para a rede social, dispõe da desmonetização (demonetization) como remédio para moderar o
conteúdo prejudicial. Isso quer dizer que a plataforma pode encerrar os pagamentos futuros,
caso haja violação dos seus termos de uso.
Caplan e Gillespie apontam algumas críticas a essa estratégia. Para eles a prática mostra
que o objetivo inicial de divisão de rendas entre plataformas e criadores de conteúdo se
transformou em uma forma de estabelecer o direcionamento na produção de mídia para a
plataforma. Isso porque a plataforma impõe a existência de uma estratégia de governança
estratificada, com diversas regras a diferentes estratos de usuários, o que gera ausência de
clareza e transparência sobre as regras de desmonetização82. Segundo os autores, é quase
impossível para os usuários detectar essa prática.

80
GOLDMAN, Eric, Content Moderation Remedies (2021). Michigan Technology Law Review, 2021, p. 45.
Forthcoming, Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3810580. Acesso em
14/05/2021.
81
LEERSEN. Paddy. Shadow bans and other secret sanctions: How non-takedown contente moderation threatens
transparency. Draft paper
82
CAPLAN, Robyn, Gillespie Tarleton. Tiered Governance and Demonetization: The Shifting Terms of Labor
and Compensation in the Platform Economy. Social Media + Society. Abril de 2020. Disponível em:
https://journals.sagepub.com/doi/10.1177/2056305120936636 Acesso em 30/06/2022.
35

2.1.3 Moderação ex ante e ex post

Quanto ao momento em que a moderação é realizada, essa pode ser antes ou depois da
ação do usuário. Quando os moderadores atuam antes (ex ante), eles utilizam a estrutura do
sistema para permitir algumas ações e proibir outras, ou seja, atuam de forma preventiva, o que
fornece mais consistência através da aplicação da mesma regra para todos os conteúdos. A
moderação posterior (ex post) funciona como uma punição para a infração dos termos de uso
de uma comunidade. Essa forma de moderar, se vinculada à transparência sobre as regras para
exclusão de conteúdo e de contas dos usuários, fornece incentivo aos membros para se
comportarem83.

2.1.4 Moderação centralizada e descentralizada

A diferença entre moderação centralizada e descentralizada está relacionada ao número


de pessoas responsáveis pela tomada de decisão. A primeira, é feita por um único tomador de
decisões globais, através, por exemplo, das plataformas digitais, enquanto a segunda acontece
através de moderadores dispersos, que atuam em nível regional.
As medidas de moderação centralizadas estão aptas a trazer mais consistência e clareza
nas regras, no entanto, significa uma entidade controlando o que pode ou não circular na rede
em relação à uma comunidade inteira. Também são difíceis de serem aplicadas pelas redes
sociais, haja vista a grande quantidade de postagem diária. Nesse sentido, em que pese as
políticas das redes sociais, por exemplo, no Youtube, adotarem em suas regras o combate ao
discurso extremista racial84, é possível visualizar muito desse conteúdo espalhado pela rede.
Pela impossibilidade de a moderação de conteúdo ser realizada apenas por humanos,
certo que as plataformas devem possuir uma abordagem dotada de velocidade, elas se utilizam
de sistemas automatizados para conseguirem conter o grande número de conteúdo produzido
online. A principal dificuldade que se pode elencar é a impossibilidade de os sistemas

83
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, pp 67-69. Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
84
YOUTUBE. Our ongoing work to tackle hate. Setembro de 2019. Disponível em: https://blog.youtube/news-
and-events/our-ongoing-work-to-tackle-hate/ Acesso em: 09/08/2020
36

automatizados funcionarem com excelência em escala. Quanto mais pessoas usando uma
determinada rede social, maior é a diversidade que deve ser endereçada sobre as perspectivas
sobre um determinado assunto dentre os vários contextos culturais.
Em uma rede social, como o Facebook, por exemplo, que tem 350 milhões de fotos
sendo postadas por dia, ainda que se pense em uma pequena margem de erro, por exemplo, 1%
(um por cento), estar-se-ia falando em 350 mil moderações erradas por dia85.
A moderação descentralizada, por outro lado, é prática que ajuda a descentralizar o
poder sobre os conteúdos que circulam na internet das maõs das plataformas, pois investe em
mecanismos de autogestão em comunidades de redes sociais, fornecendo aos usuários algum
poder de decisão. Essa flexibilidade na formulação de regras decorre da adoção de um padrão
aberto de código que incentiva a inovação e concorrência. Como pontos positivos da moderação
descentralizada é o sentimento de pertencimento gerado no usuário ao compartilhar as ideias
desenvolvidas para guiar uma comunidade. Esse sentimento aumenta a confiança dos usuários
na própria plataforma86.
A moderação descentralizada é comum em redes descentralizadas. Um dos tipos mais
proeminentes de redes descentralizadas é o Fediverse, que constitui um conjunto de servidores
que são usados para publicações nas redes sociais através de protocolo aberto e permite aos
usuários postar textos e outras mídias publicamente ou para um grupo específico87. O servidor
responsável por operar as funções de moderação da rede social não residiria em uma estrutura
centralizada da plataforma, mas em um conjunto de servidores distribuídos pela rede.
No Fediverse é possível aos usuários escolher as plataformas que irão utilizar de acordo
com o serviço que é oferecido e de acordo com o código de conduta que guiará suas ações. Em
razão das redes serem de código aberto, os usuários são livres para criarem, dentro de cada
plataforma, novas instâncias (servidores) para determinar por quais regras eles serão
governados e não perdem a comunicação com outras instâncias. Esses códigos de conduta,
contudo, podem variar pela necessidade dos usuários. Cada servidor possuirá seus próprios
moderadores. Pessoas que preferem ambientes não regulados, por exemplo, também podem

85
CAELIN. Derek. Decentralized Social Networks vs the Trolls. Youtube, 26 de setembro de 2020. Disponível
em: https://www.youtube.com/watch?v=yZoASOyfvGQ&t=1085s Acesso em 10/05/22.
86
HARTMANN, Ivar A. Let the users be the filter? Crowdsourced filtering to avoid online Intermediary
Liability. Journal of the Oxford Centre for Socio-Legal Studies, v. 2017, n. 1, p. 21-47, 2017.
87
A titulo de exemplo, o Peertube é uma alternativa livre e descentralizada que permite aos usuários assistir vídeos.
Veja: https://joinpeertube.org/
37

seguir nessa direção e encontrar espaços que são pouco moderados. Assim, cada usuário pode
escolher a experiência que deseja usufruir88.
Uma plataforma que faz parte desse universo e chama bastante atenção pelo tamanho é
o Mastodon89, uma rede similar ao Twiter. Para ilustrar a flexibilidade de que as redes
descentralizadas gozam, pode-se mencionar um caso passado na Índia, no qual houve a
migração de vários usuários do Twitter para o Mastodon. Isso porque na plataforma Twiter
utiliza-se um sinal azul que identifica a casta de cada usuário, o que gerava muito desconforto
para alguns deles. Após muitos migrarem para o Mastodon, essa rede modificou o seu código
de conduta para incluir uma política contra a discriminação por castas90.
Com o objetivo de permitir que as plataformas operem em uma rede descentralizada, o
projeto Bluesky, desenvolvido em parceira com o Twitter, almeja que os conteúdos que
circulam na internet possam se desvencilhar das grandes empresas que controlam o mercado de
mídia social. Para isso, buscam um criar um novo padrão ou trabalhar nos já existentes, como
o sistema de blockchain ou do Fediverse, acima mencionado91. A plataforma, então,
abandonaria a lógica de operação atual para um novo sistema em que a sua regulação seria feira
também pelos usuários.
Até aqui foi apresentado um panorama da moderação de conteúdo exercido pelas
plataformas digitais de redes socias, explicitando as diversas maneiras que ela pode ser
realizada. Na próxima subseção serão analisadas as ações tomadas pelas plataformas de redes
sociais no desempenho da moderação quando um usuário viola os termos de uso, ou seja, quais
os remédios aplicados pelos entes intermediários para sanar a violação. Ainda e mais

88
YOUTUBE. Our ongoing work to tackle hate. Setembro de 2019. Disponível em: https://blog.youtube/news-
and-events/our-ongoing-work-to-tackle-hate/ Acesso em: 09/08/2020
89
O Mastodon é uma rede social criada por um programador alemão em 2016, cujo código é aberto. É um serviço
de microblog que aceita postagens curtas para conteúdos diversos, como vídeo, textos, fotos e etc. A rede social,
hoje, tem cerca de 4,4 milhões de usuários. Para mais informações: https://joinmastodon.org/
90
MOUNIKA. Alithe Sthephanie. Mastodon social adds policy against casteism as more Indian users join. 10 de
novembro de 2019. Disponível em: https://www.thenewsminute.com/article/mastodon-social-adds-policy-
against-casteism-more-indian-users-join-112064
91
ROBERTSON, Adi. Twitter is funding research into a decentralized version of its platform. Dezembro de 2019.
Disponível em: https://www.theverge.com/2019/12/11/21010856/twitter-jack-dorsey-bluesky-decentralized-
social-network-research-moderation IGNACIO, Bruno. Twitter avança em plano para descentralização de redes
sociais com Bluesky. Agosto de 2021. Disponível em: https://tecnoblog.net/noticias/2021/08/19/twitter-avanca-
em-plano-para-descentralizacao-de-redes-sociais-com-bluesky/ Notícia mais recente informa a existência de um
novo código para o sistema, o ADX - Authenticated Data Experiment. O ADX é um “protocolo construído em
torno de “Repositórios de Dados Pessoais” controlados pelo usuário que os desenvolvedores de redes sociais
podem optar por oferecer. Entre outras coisas, deve permitir que os usuários transfiram postagens de mídia social
ou engajamento entre redes sem corroer as próprias opções de moderação das redes”. Ao contrário do que ocorre
hoje (os dados permanecem na plataforma onde são criados), no novo sistema esses permanecerão nos repositórios
de propriedade do usuário. ROBERTSON, Adi. Twitter’s decentralized, open-source offshoot just released its
first code. Maio de 2022. Disponível em: https://www.theverge.com/2022/5/4/23057473/twitter-bluesky-adx-
release-open-source-decentralized-social-network
38

importante, será apresentada uma orientação normativa para aplicação desses remédios na
moderação de conteúdo.

2.2 Remédios e orientações normativas para a moderação de conteúdo

Quando realizada a moderação de conteúdo por uma plataforma existem diversas


possibilidades para solucionar o problema do conteúdo e comportamento que são prejudiciais.
A principal e mais tradicional é a escolha binária entre excluir ou deixar o conteúdo permanecer
na rede92. No entanto, a exclusão de um conteúdo ou suspensão de uma conta podem representar
medida drástica à liberdade de expressão.
93
Nesse sentido, Eric Goldman propõe um olhar mais atento para diversas outras
nuances para solucionar o problema do conteúdo e comportamentos prejudiciais, resguardando
a liberdade de expressão. Ele propõe uma taxonomia de diversos remédios ligados a cinco
categorias relacionadas à moderação de conteúdo: (i) regulação do conteúdo (remoção,
suspensão, realocação, edição, avisos/etiquetas, etc.); (ii) regulação da conta (exclusão,
suspensão, redução dos níveis dos serviços, etc.); (iii) ações para reduzir a visibilidade das
violações, que podem ser ligadas ao próprio conteúdo ou a uma conta (shadowban,
rebaixamento, desindexação, etc.); (iv) consequências financeiras por violações
(desmonetização, multas, dentre outros) e, (v) quaisquer outras ações que não se enquadrem
nas categorias anteriores, uma vez que as possibilidades são infinitas.
Todas elas tentam, em alguma medida, equilibrar o direito à liberdade de expressão com
a manutenção de um ambiente saudável, afastando os conteúdos que são prejudiciais ou

92
Como referência história a esse comportamento tradicional, Eric Goldman aponta que algumas leis, tal como o
Ato de Direitos Autorais dos Estados Unidos (The Digital Millennium Copyright Act – DMCA) e Diretiva de
Comércio Eletrônico, adotada pela União Europeia (E-Commerce Directive), e guias elaborados pela sociedade
civil demonstram a difusão da abordagem binária aos remédios aplicados na moderação de conteúdo. Exemplo
dessa afirmação é a Carta Manila Principles, que em diversas passagens foca na remoção/restrição de conteúdo.
Esse documento que serve de guia regulatório para os formuladores de política sobre a responsabilidade dos entes
intermediários, promove a liberdade de expressão. Contudo, um dos seus princípios que excepciona essa regra é
de que “leis e ordens e práticas de restrição de conteúdo devem obedecer aos testes de necessidade e
proporcionalidade”. Observe que o princípio somente prevê a hipótese de restrição como solução ao conteúdo
prejudicial publicado. GOLDMAN, Eric, Content Moderation Remedies (2021). Michigan Technology Law
Review, Forthcoming, P. 16-19. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3810580.
Acesso em 14/05/2021.
93
GOLDMAN, Eric, Content Moderation Remedies (2021). Michigan Technology Law Review, pp. 5-6.
Forthcoming, Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3810580. Acesso em
14/05/2021.
39

proibidos. No passo seguinte, a indagação que surge é: quais valores normativos devem orientar
as plataformas na priorização da escolha desses remédios?
O primeiro deles é a preservação da diversidade das soluções a todo o setor, ou seja, é
esperado que esses entes intermediários tenham muitas opções de ação quando se depararem
com um conteúdo ou comportamento prejudicial na internet. Para isso não é recomendável que
os reguladores eliminem as possibilidades com previsões legais taxativas.
As peculiaridades de cada serviço de internet também devem ser observadas. Alguns,
por exemplo, tem opções limitadas de solução para combater um conteúdo ruim. Nesses casos,
os provedores de serviço não devem ser forçados a adotar medidas que não caibam em seus
serviços por inexistirem as ferramentas apropriadas94.
Um terceiro valor a ser considerado, é que as plataformas devem priorizar bons designs
para desencorajar a criação conteúdos problemáticos. Dessa forma, a conduta dos usuários seria
inibida antes do problema, reduzindo, com isso, a necessidade da aplicação de sanções. A
educação e socialização do usuário também podem ajudar a evitar violações que exijam
correções posteriores95.
Recursos privados podem ser preferíveis a recursos judiciais. Esse quarto valor
considera que, embora os tribunais sejam, por tradição, os órgãos naturais julgadores de
conflitos, quando esses ocorrem em ambientes digitais, o Poder Judiciário não é a melhor opção.
Isso porque os julgamentos são demorados, dispendiosos, aumentam o risco de o caso ganhar
mais notoriedade e podem ser limitados por problemas jurisdicionais que afetam os litigantes.
Nesses casos, as plataformas precisam investir na aplicação das soluções mais adequadas e
justas, evitando erros de escala e aplicando o devido processo96.
O quinto valor a ser observado é que as soluções aplicadas devem ser necessárias e
proporcionais. Esse ponto guarda conexão direta com a questão da violação dos direitos
fundamentais quando as plataformas moderam conteúdo online97. Em geral, os serviços da
internet somente devem aplicar sanções que sejam necessárias para alcançar um resultado de
reparação legítima e proporcional à gravidade da violação. Eric Goldman destaca duas maneiras
de operacionalizar esse princípio: (i) sempre que possível, as plataformas devem impor sanções

94
GOLDMAN, Eric, Content Moderation Remedies (2021). Michigan Technology Law Review, Forthcoming,
Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3810580. Acesso em 14/05/2021. P.64.
GOLDMAN, Eric, Content Moderation Remedies (2021). Michigan Technology Law Review, Forthcoming,
Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3810580. Acesso em 14/05/2021 P.65-67.
96
GOLDMAN, Eric, Content Moderation Remedies (2021). Michigan Technology Law Review, Forthcoming,
Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3810580. Acesso em 14/05/2021. P.67-68.
97
Esse ponto será tratado de forma profunda no capítulo 3 dessa dissertação.
40

em face dos conteúdos no lugar de restrições a contas; e, (ii) sempre que possível, impor
remédios locais em vez de globais98.
Por fim, o último valor normativo a ser atribuído nas escolhas das soluções aplicáveis
em moderação de conteúdo é a preferência por remédios que capacitem os usuários a controlar
os conteúdos de seus interesses. Essa abordagem pode ser vislumbrada através da utilização de
filtragem, onde o usuário escolhe o conteúdo que será direcionado a ele, ou por meio da
notificação de conteúdos que possam ser prejudiciais, como, por exemplo, emissão de avisos,
rótulos ou legendas. A fragilidade do uso de filtros, todavia, é a exposição dos usuários a
“bolhas de filtro”99, reforçando apenas seus conhecimentos e conceitos pré-existentes100.

2.3 Sistemas de recomendação de conteúdo

Os sistemas de recomendação de conteúdo, baseados na ideia de personalizar a


informação através da governança algorítmica, de acordo com alguma determinação feita pelo
provedor de serviços sobre relevância, interesse, popularidade ou outros fatores, são utilizados
pelas plataformas no comércio eletrônico, entretenimento ou mídia social para disseminar
conteúdo e gerenciar o fluxo de informação na rede101. Catalina Goanta e Jerry Spanakis o

98
GOLDMAN, Eric, Content Moderation Remedies (2021). Michigan Technology Law Review, Forthcoming,
Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3810580. Acesso em 14/05/2021. P.68-69.
99
A expressão “bolhas de filtro” é utilizada para explicar o fenômeno de edição da “web” feito por plataformas
digitais, como Google e Facebook, de acordo com as preferências de cada usuário. Assim, cada pessoa recebe um
tipo de informação ou notícia de acordo com seu perfil criado, nos moldes do que as plataformas acreditam que o
usuário queira consumir. A junção de todos esses filtros de personalização cria-se o que o autor chama de “filtro
bolha”, que tem o condão de aprisionar o usuário no seu próprio universo de informação. PARISER, Eli. O filtro
invisível. O que a internet está escondendo de você. Zahar. 2012. E-book. Filtros Bolha - Eli Pariser TED 2011,
Youtube, 22 de janeiro de 2014. Disponível em: https://www.youtube.com/watch?v=HKtvkvPNAsw. Acesso em
20.07.2020.
100
GOLDMAN, Eric, Content Moderation Remedies (2021). Michigan Technology Law Review, Forthcoming,
Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3810580. Acesso em 14/05/2021. P.70-72.
101
Em que pese não tão explorado pela literatura, os sistemas de recomendação de conteúdo também são
importantes para os influenciadores, que dependem da plataforma para torna-los visíveis. Os criadores de conteúdo
(social media influencers) constroem sua popularidade e convertem-na em renda através de um fenômeno chamado
de monetização, vez que ganham das empresas para fazer a propaganda de seus produtos ou serviços de forma
imperceptível. Sobre o ponto, veja: GOANTA, Catalina. SPANAKIS, Jerry. Influencers and Social Media
Recommender Systems: Unfair Commercial Practices in EU and US Law. TTLF Working Paper No. 54.
Disponível em:
https://www.researchgate.net/publication/341883786_Influencers_and_Social_Media_Recommender_Systems_
Unfair_Commercial_Practices_in_EU_and_US_Law/link/5faba4c5299bf18c5b64cba1/download Acesso em
30/07/2021.
41

definem como “sistemas de filtragem de informações que servem para determinar a preferência
de um usuário”102.
Segundo os autores, seu uso comercial ocorre para aumentar a satisfação do usuário ao
usufruir um produto ou serviço digital através da personalização da informação. Essa
personalização é obtida através das preferências expressadas, como avaliações, histórico de
pesquisa, dados demográficos, etc. Recentemente, por exemplo, o Instagram divulgou em um
artigo no seu sítio eletrônico que as publicações em seu feed de notícias ou stories são obtidas
a partir de “sinais”, com base no conteúdo considerado mais relevante para o usuário. Esses
sinais são informações sobre a publicação – seu autor, sobre a atividade do usuário
(visualização, itens salvos e curtidos, etc) e seu histórico de interação com alguém103.
Conforme relatado, as previsões são realizadas de acordo com a probabilidade do
usuário interagir com a publicação, quanto maior ela for, maior a chance dessa aparecer no topo
do feed, sendo certo que esses sinais são modificados com o passar do tempo.
A forma de funcionamento desses sistemas ocorre através de técnicas de aprendizado
de máquina (maching learning) ou inteligência artificial, ou seja, algoritmos, que são
programados para aprender e resolver tarefas por conta própria104. Esses algoritmos podem
fazer previsões a partir dos dados coletados, tomando suas decisões, sem qualquer tipo de
programação.
As duas categorias mais conhecidas são os métodos de filtragem e redes neurais
profundas. A filtragem se utiliza de uma matriz de fatoração, onde em uma linha ficam os
usuários, e, na outra, os itens pesquisados para prever a avaliação de um usuário sobre um
determinado item, usando informações semelhantes de outros usuários. Por exemplo, se um
usuário curtiu os vídeos A e B e outro usuário curtiu os vídeos C e D, qual seria a probabilidade

102
GOANTA, Catalina. SPANAKIS, Jerry. Influencers and Social Media Recommender Systems: Unfair
Commercial Practices in EU and US Law. TTLF Working Paper No. 54, p.6. Disponível em:
https://www.researchgate.net/publication/341883786_Influencers_and_Social_Media_Recommender_Systems_
Unfair_Commercial_Practices_in_EU_and_US_Law/link/5faba4c5299bf18c5b64cba1/download Acesso em
30/07/2021. Trecho original: Recommender systems are information filtering systems that are supposed do predict
a user´s preference.
103
MOSSERI, Adam. Explicando melhor o funcionamento do Instagram. 8 de junho de 2021. Disponpivel em:
https://about.instagram.com/pt-br/blog/announcements/shedding-more-light-on-how-instagram-works Acesso
em: 30/12/2021.
104
TUTT, Andrew. An FDA for Algorithms. Administrative Law Review. N. 69, 2017. Disponível
em:https://bit.ly/31Vc8HR. Acesso em 10/10/2020. Importante mencionar que, segundo o autor, essa categoria de
algoritmos (inteligência artificial) se diferencia dos algoritmos básicos – que são instruções a serem executados
por um computador, pois esses são diretos e respondem a resultados determinados. Neste caso, é possível ao
programador, em caso de erro, voltar no caminho percorrido pelo algoritmo, de acordo com as instruções do
programa, e corrigir o erro.
42

desse primeiro também curtir o vídeo C? A resposta advém de incontáveis cruzamentos que
podem ser feitos105.
Jennifer Cobbe e Jatinder Singh106 explicam que, tecnicamente, a filtragem pode ocorrer
de duas maneiras: a) filtragem com base no conteúdo e, b) filtragem colaborativa. A diferença
entre ambas é que a primeira se utiliza de dados produzidos pelo consumo anterior do usuário,
enquanto a segunda emprega dados de usuários semelhantes.
Redes neurais profundas são modelos de aprendizado de máquina profundo inspirado
em neurônios que aprendem a, sozinhos, resolver uma tarefa a partir de dados coletados. Passam
a operar por um sistema de espelhamento a partir de um aprendizado. Uma fórmula aplicável a
sistemas de recomendação desenvolvida por Convigton et al. é a utilização de duas redes
neurais: uma que gera recomendação e outra que classifica essas recomendações107.
Grande parte dos conteúdos disponíveis decorrem de decisões automatizadas baseadas
em inteligência artificial a partir de inferências feitas dos comportamentos dos usuários no
mundo digital. Esses sistemas podem ser muito funcionais quando o usuário já sabe o que deseja
e a plataforma apenas o ajuda a filtrar uma grande gama de conteúdo disponível.
No entanto, pode ser problemático quando os usuários não têm um objetivo definido
sobre a seleção que desejam. Nesse caso, as plataformas, na tentativa de facilitar e tornar mais
agradável a experiência do usuário, acabam por determinar qual conteúdo eles irão consumir,
de forma discreta, sem que esses saibam quais fatores (ou “sinais”, conforme expressão
utilizada pelo Instagram) levaram a esse “etiquetamento”108. De acordo com nota técnica
produzida pelo Laboratório de Políticas Públicas e Internet (LAPIN), “esse conteúdo é

105
GOANTA, Catalina. SPANAKIS, Jerry. Influencers and Social Media Recommender Systems: Unfair
Commercial Practices in EU and US Law. TTLF Working Paper No. 54. p.8. Disponível em:
https://www.researchgate.net/publication/341883786_Influencers_and_Social_Media_Recommender_Systems_
Unfair_Commercial_Practices_in_EU_and_US_Law/link/5faba4c5299bf18c5b64cba1/download Acesso em
30/07/2021.
106
COBBE, Jennifer. SINGH, Jatinder, Regulating Recommending: Motivations, Considerations, and Principles
European Journal of Law and Technology, 2019. Disponível em: https://ssrn.com/abstract=3371830 or
http://dx.doi.org/10.2139/ssrn.3371830 Acesso em 22/08/2020.
107
GOANTA, Catalina. SPANAKIS, Jerry. Influencers and Social Media Recommender Systems: Unfair
Commercial Practices in EU and US Law. TTLF Working Paper No. 54, p.9. Disponível em:
https://www.researchgate.net/publication/341883786_Influencers_and_Social_Media_Recommender_Systems_
Unfair_Commercial_Practices_in_EU_and_US_Law/link/5faba4c5299bf18c5b64cba1/download Acesso em
30/07/2021.
108
A expressão é utilizada para explicar a atividade da plataforma de marcar determinada pessoas, de acordo com
seu comportamento, nos moldes dos dados colhidos e analisados pelas plataformas digitais para prever futuras
ações e interesses.
43

personalizado para cada indivíduo, que tem pouca ou nenhuma autonomia sobre esse processo
perfilhamento”109.
A utilização dos algoritmos nos sistemas de recomendação de conteúdo traz duas
dificuldades, conforme abordado neste trabalho quando se falou sobre moderação transparente
e sigilosa, previsibilidade e explicabilidade. Segundo apontado, é difícil prever e explicar o
resultado quando uma tarefa é desempenhada através de inteligência artificial. Além de opacos,
muitos dos métodos utilizados pelos quais o algoritmo opera são segredos comerciais, pelo que
não podem ser revelados.
Por trás de todo o encantamento da personalização de conteúdo, a recomendação
solidifica um modelo de negócio baseado na vigilância, consoante apresentado na introdução
deste trabalho, onde o controle de dados dos usuários e suas preferências tornam-se fonte de
lucro para as plataformas110. As técnicas de recomendação, dentro desse sistema de capitalismo
de vigilância111, possuem dois papéis fundamentais: direcionar publicidade, de acordo com o
comportamento do usuário, e aumentar o engajamento dos usuários, o que retorna em receita e
liderança de mercado para as plataformas.
O problema se agrava quando se observa que padrões duvidosos são utilizados para
promover conteúdo ilegal ou controverso. Isso porque para atrair a atenção dos usuários são
direcionados conteúdos emotivos, que muitas vezes são discursos prejudiciais à sociedade.
Assim, em uma sociedade com problemas de desinformação, discurso de ódio, extremismo e
violência, os sistemas de recomendação, utilizados pelas plataformas, ajudam na disseminação
desse conteúdo, já que sua promoção é sempre ligada a conteúdos semelhantes, fazendo-os
caminhar lado a lado.
Catalina Goanta e Jerry Spanakis salientam que as plataformas são obrigadas a remover
conteúdos ilegais, contudo, discursos controversos, que permanecem em uma zona cinzenta,

109
LAPIN. Nota Técnica PL 2.630/2020 sobre a inclusão de mecanismos de transparência algorítmica no projeto
de lei. 2020, p. 6. Disponível em: https://lapin.org.br/wp-content/uploads/2020/08/LAPIN-NT-PL-2630-
Transparencia-Algoritmica.pdf Acesso em 22/08/2020.
110
Essa prática traz problemas para a privacidade e segurança de dados dos indivíduos. SOLOVE, Daniel J. A
taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, 2006, pp 477-491. Disponível em:
https://bit.ly/1ngGQAa.
111
O ponto aborda o que a professora Shoshana Zubof chama de “capitalismo de vigilância”. O termo significa
um “novo gênero de capitalismo que monetiza dados adquiridos por vigilância, por controle digital, via modernos
equipamentos pessoais de comunicação que estão completamente dominados pelas grandes corporações norte
americanas do Vale do Silício na Califórnia/”. Documentário disponível em:
/https://nossofuturoroubado.com.br/capitalismo-de-vigilancia/ Acesso em 08/11/2020. Ver também: ZUBOFF,
Shoshana. The age of surveillance capitalism: The Fight for a Human Future at the New Frontier of Power. New
York: Public Affairs, 2018.
44

são decisões discricionárias. Se as recomendações desses conteúdos podem aumentar a


audiência de engajamento, não há incentivos para sejam retirados de circulação112.
Algumas pesquisas demonstraram como sistemas de recomendação de conteúdo,
baseados em interesses meramente comerciais, podem conferir um "extraordinário poder de
permanência” a materiais sensacionalistas, falsos e que incitam ao ódio. A Fundação Mozilla113
publicou que o algoritmo utilizado pelo YouTube recomenda vídeos com desinformação,
conteúdo violento e discurso de ódio, contrariando as próprias políticas da plataforma.
Dessa forma, por trás do véu das facilidades dos sistemas de recomendação, eles
escondem mecanismos obscuros. Não existe transparência e clareza sobre os critérios adotados
pelas plataformas para a criação dos perfis dos usuários, tampouco sobre a forma como os
algoritmos funcionam. E, nesses casos, torna-se fácil para as plataformas padronizarem, por
exemplo, temas que sejam do interesse coletivo, ou atuarem através de forma discriminatória114,
sem serem responsabilizadas.
Por isso, é importante que haja transparência sobre a funcionalidade dos sistemas de
recomendação, tanto para que os usuários saibam quais dados estão sendo coletados, bem como
qual o uso que as plataformas fazem deles115, além de possibilitar aos usuários aderir ou não

112
GOANTA, Catalina. SPANAKIS, Jerry. Influencers and Social Media Recommender Systems: Unfair
Commercial Practices in EU and US Law. TTLF Working Paper No. 54, p.11. Disponível em:
https://www.researchgate.net/publication/341883786_Influencers_and_Social_Media_Recommender_Systems_
Unfair_Commercial_Practices_in_EU_and_US_Law/link/5faba4c5299bf18c5b64cba1/download Acesso em
30/07/2021.
113
MOZILLA. Mozilla Investigation: YouTube Algorithm Recommends Videos that Violate the Platform’s Very
Own Policies. 07 de julho de 2021. Disponível em: Mozilla Foundation - Mozilla Investigation: YouTube
Algorithm Recommends Videos that Violate the Platform’s Very Own Policies Acesso em 10/12/2021.
114
DESAI, Deven R. KROLL, Joshua A. Trust But Verify: A Guide to Algorithms and the Law. Harvard Journal
of Law & Technology. V. 31, n. 1, 2017. Disponível em: https://bit.ly/2oSaww6. Acesso em 0/10/2020. Neste
artigo, os autores utilizam exemplos de práticas discriminatórias. Citando dois deles, pode-se mencionar uma
pesquisa sobre histórico de visitação de página da web sobre publicidade de emprego, na qual foi descoberto que
quando as configurações de preferência de anúncio foram definidas para mulheres, um usuário viu menos anúncios
relacionados a empregos com altos salários empregos do que quando as preferências foram definidas para o
homem. Outro exemplo, diz respeito à personalização do comércio eletrônico e a prática discriminatória de preços.
Tentava-se igualar o preço para um bem ou serviço para pessoas ou segmentos de mercado específicos. Várias
empresas “estavam ajustando os preços de forma consistente e exibindo diferentes ofertas de produtos com base
em uma gama de características que poderiam ser descobertas sobre o usuário.
115
Decorrente da transparência está a obrigação de explicar sobre as decisões automatizadas a partir de dados
coletados dos usuários, prevista na Lei Geral de Proteção de Dados brasileira. Apesar da importância dessa
previsão normativa, foi destacado, no segundo capítulo desta dissertação, que muitas das vezes os usuários não
sabem ou percebem que estão sendo submetidos a uma decisão automatizada, sendo as recomendações que lhe são
oferecidos frutos de uma governança algorítmica. Nesse sentido, a previsão de uma transparência espontânea, a
par do que já existe no Regulamento Geral de Proteção de Dados Europeu – RGPD, seria conveniente. Segundo o
referido regulamento, “o controlador de dados deve informar, independente de aviso prévio: i) que o usuário está
sendo submetido a decisões automatizadas; ii) informações relevantes sobre a lógica da tomada de decisões; e iii)
os resultados e possíveis consequências das decisões”. MONTEIRO, Júlia. COUTO, Natália. Como funciona a
personalização de conteúdo em redes sociais? Disponível em https://www.jota.info/opiniao-e-
analise/artigos/como-funciona-a-personalizacao-de-conteudos-em-redes-sociais-
07082021?fbclid=IwAR1JXd_BKLgYLmW6Ywc9oswjhjSZ7gdmItAA2VK8QQGkbc5Z3zYiaiaYugs
45

aos sistemas de recomendação (opt-in ou opt-out), e conceder algum nível de controle aos
usuários sobre a maneira como se opera o algoritmo.
Além da transparência, outras soluções para os problemas gerados pelos sistemas de
recomendação já foram trazidas. A título de exemplo, Jennifer Cobbe e Jatinder Singh, propõe
que as plataformas adotem recomendações de conteúdo responsáveis, com atenção à princípios
éticos116. Assim, elas não poderiam promover certos tipos de conteúdo danoso, como
“supremacia branca, antissemitismo, desinformação em questões de saúde - conteúdo pró-
suicídio ou que promova desordens alimentares”117, pois, caso contrário, elas poderiam ser
submetidas a penalidades financeiras ou até mesmo à perda do direito de recomendar conteúdo.
A compreensão do modo de funcionamento dos sistemas de recomendação permite
concluir que o sistema de moderação de conteúdo é uma ferramenta de regulação privada pelas
plataformas digitais. A partir da organização dos sistemas de recomendação, as plataformas
possuem grande poder de influência para moldar os conteúdos que serão disponibilizados aos
usuários e isso se relaciona diretamente ao seu modelo de negócio. Assim, é possível verificar
que as plataformas são mais do que meros intermediários de uma atividade, elas são
responsáveis pela infraestrutura pelo qual os usuários produzirão o discurso online e possuem
a capacidade de direcionar essas atividades de acordo com seus interesses, que são
determinados por seus sistemas de algoritmos.
O próximo subtítulo deste capítulo segue examinando a atividade de moderação de
conteúdo. Todavia, o foco deixa de ser o modo de funcionamento da atividade em si mesma.
Serão analisados quais os conteúdos são, normalmente, indesejados pelos usuários e demandam
uma ação de moderação das redes sociais. Se de um lado, as plataformas tentam tornar o
ambiente digital mais saudável, por outro lado, essas ações apresentam erros de inconsistência
e escalabilidade, opacidade e ausência de justificação nas decisões tomadas. Esses problemas
também serão discutidos na subseção a seguir.

116
COBBE, Jennifer. SINGH, Jatinder, Regulating Recommending: Motivations, Considerations, and Principles
European Journal of Law and Technology, 2019. Disponível em: https://ssrn.com/abstract=3371830 or
http://dx.doi.org/10.2139/ssrn.3371830 Acesso em 22/08/2020.
117
COBBE, Jennifer. SINGH, Jatinder, Regulating Recommending: Motivations, Considerations, and Principles
European Journal of Law and Technology, 2019. Disponível em: https://ssrn.com/abstract=3371830 or
http://dx.doi.org/10.2139/ssrn.3371830 Acesso em 22/08/2020. Trecho original: This instead establishes a
responsibility to not promote certain kinds of content (for example, white supremacism, health disinformation,
anti-Semitic conspiracy theories, pro-suicide or self-harm content, content promoting eating disorders, and so
on).
46

2.4 Os perigos e problemas enfrentados da moderação de conteúdo online.

O presente tópico está dividido em duas partes. A primeira analisará os desafios que as
plataformas enfrentam no desenvolvimento de sua atividade: conter os discursos ilegais e
prejudiciais, como por exemplo, desinformação, discurso de ódio, assédio, manipulação dos
usuários, repetição de conteúdo, dentre outras patologias. A segunda parte elencará um rol de
problemas consequentes das ações de moderação de conteúdo, tais como, a inconsistência das
decisões tomadas, problemas de escalabilidade, opacidade e ausência de justificação no
processo de moderação.

2.4.1 Os perigos: discursos prejudiciais e ilícitos.

Quando se fala em perigos enfrentados pelas redes sociais, o que se busca explicitar são
os desafios enfrentados pelas plataformas quando desempenham a atividade de moderar:
combater o discurso ilegal e prejudicial aos usuários para tornar o ambiente digital mais
saudável e produtivo, com baixo custo e com amplo acesso aos interessados.
Discurso prejudicial consiste em um fenômeno que alcança discursos variados, que se
cruzam e se sobrepõem, causando diferentes perigos. Dentre os mais conhecidos, estão o
discurso de ódio, que é definido por Robert Faris como “o discurso que rebaixa ou ataca pessoas
como membros de um grupo com características compartilhadas, como raça, gênero, religião,
orientação sexual ou deficiência” 118
, e o assédio online, definido por Lenhart como “contato
indesejado que é usado para criar intimidação, irritação, ambiente assustador, ou mesmo hostil
para a vítima que utiliza meios digitais”119.

118
FARIS, Robert, ASHAR, Amar, GASSER, Urs, e JOO, Daisy. Understanding Harmful Speech Online.
Berkman Klein Center for Internet & Society Publication. Série 2016-18, 2016, p.5. Disponível em:
https://dash.harvard.edu/handle/1/38022941 Acesso em 01/03/2022. Trecho original: Harmful speech consists of
a range of phenomenon tha often overlap and intersect, and includes a variety of types of peech tha cause diferente
harms. The most familiar tupe is hate speech, wich commonly refres to speech wich demeans or attacks a person
or people as members of a group with shared characteristics such as race, gender, religion, sexual orientation, or
disability.
119
LENHART, Amanda; YBARRA, Michelle; ZICKUHR, Kathryn; PRICE-FEENEY, Myeshia. Online
Harassment, Digital Abuse, and Cyberstalking in America. Data & Society Institute. 2016, p. 3. Disponível em:
https://www.datasociety.net/pubs/oh/Online_Harassment_2016.pdf Acesso em 01/03/2022 Trecho original:
However, one persistent challenge to this ideal has been online harassment and abuse—unwanted contact that is
used to create an intimidating, annoying, frightening, or even hostile environment for the victim and that uses
47

Esses discursos caracterizam-se como obstáculos materiais para o acesso às redes


sociais pelos usuários. Com a proeminência desse tipo de conteúdo a rede deixa de ser equitativa
e democrática e passa a silenciar as minorias vítimas dos abusos. Essas condutas indesejadas
também existem no mundo físico, contudo, no espaço digital elas se tornam potencialmente
mais problemáticas em razão da sua disseminação e permanência.
Uma pesquisa da Universidade de Oslo indicou que o assédio direcionado a uma pessoa
que faz parte de um grupo específico, como as mulheres, é diferente de ofensas direcionadas a
uma pessoa devido a seu posicionamento120. As consequências do primeiro são muito mais
profundas e mais graves. Grupos que já sofrem com violências e desigualdades de tratamento
na vida social estão mais vulneráveis em situações de constrangimento – inclusive devido à
falta de amparo de instituições públicas121.
Outro grande perigo é a disseminação de conteúdo com desinformação, além de danos
pessoais, a desinformação pode causar danos a atividades empresariais, à saúde, à democracia
e outros valores tão importantes para o ser humano. Por isso também é considerada pela
literatura como conteúdo prejudicial. Para ilustrar, tem-se o caso paradigmático das eleições
presidenciais americanas, em 2016, quando notícias falsas foram veiculadas em desfavor da
candidata Hillary Clinton no escândalo relacionado à empresa Cambridge Analytica 122. Nesse
episódio restou evidenciado o uso de dados para criação de perfis dos usuários para

digital means to reach the target. O assédio online pode se dar de diversas formas. Uma delas, bastante famosa
nos dias atuais é o doxing, em que o abusador tenta releva informações sensíveis sobre uma pessoa com a intenção
de intimidá-la ou torna-la vulnerável a ofensas. JHAVER, Shagun et al. Online Harassment and Content
Moderation: The Case of Blocklists. ACM Transactions on Computer-Human Interaction, s.l, vol. 25, n. 02,
março 2018. Disponível em: http://eegilbert.org/papers/tochi18-jhaver-blocklists.pdf
120
NADIM, Marjan; FLADMOE, Audun. Silencing women? Gender and online harassment. Social Science
Computer Review, 2019. Disponível em:
https://journals.sagepub.com/doi/full/10.1177/0894439319865518 . Acesso em 01/06/2022.
121
CURZI, Yasmin. Assédio e violência online: moderação de conteúdo pode ser enfrentamento eficaz. FGV. 13
de abril de 2020. Disponível em https://portal.fgv.br/artigos/assedio-e-violencia-online-moderacao-conteudo-
pode-ser-enfrentamento-eficaz Acesso em 01/06/2022.
122
Na campanha do Presidente Trump, em 2016, a empresa coletou uma enorme quantidade de dados, criando um
modelo com diversos pontos de medição que conseguiam prever a personalidade de cada adulto americano. Após
a coleta dos dados, a empresa fornecia o tratamento adequado, onde se traçava um perfil comportamental de cada
eleitor. De acordo com esses dados, o público alvo, normalmente composto por eleitores indecisos, eram
bombardeados de publicidade, inclusive, falsas. Importante destacar que não houve necessária mudança dos votos
por parte dos eleitores, em razão das notícias lidas. Pesquisas indicam que elas funcionam mais como uma
reafirmação do posicionamento já adotado pelo eleitor. GUESS, A.; NYHAN, B; REIFLER, J. Selective Exposure
to Misinformation: Evidence from the consumption of fake news during the 2016 U.S. presidential campaign.
European Research Council. 2018. Disponível em: https://cpb-us-
e1.wpmucdn.com/sites.dartmouth.edu/dist/5/2293/files/2021/03/fake-news-2016.pdf Acesso em: 4 de novembro
de 2020.
48

microdirecionamento123 de conteúdo político, no intuito de influenciar o comportamento das


pessoas através da manipulação de dados para fins eleitorais.
A desinformação, popularmente conhecida como “fake news” não tem definição
unívoca. Lazer e outros autores, no artigo publicado The Science of fake News, a define como:

informação fabricada, que imita o conteúdo noticioso na forma, mas não no


processo ou intenção organizacional. Veículos de notícias falsas, por sua vez,
carecem das normas e processos editorais para garantir precisão e
credibilidade na informação. Notícias falsas se sobrepõe a outros desarranjos
de informação, como a informação equivocada - misinformation (informação
falsa ou enganosa) ou a desinformação – desinformation (informação falsa
que é difundida com o propósito de enganar as pessoas124.

Pela dificuldade de se estabelecer o que é ou não verdade, se o conteúdo é


intencionalmente falso ou trata-se de um mero erro, os autores vinculam o conceito de fake
news com o procedimento de produção da informação e sua intenção em disseminá-la.
A União Europeia entende que melhor seria separar os diversos desarranjos de
informações em dois grupos: de um lado, aquelas que podem ser qualificadas como “má-
informação” (misinformation) e, de outro lado, a “desinformação” (desinformation). Sobre o
significado das expressões, há algumas nuances.
A União Europeia, através do Grupo de Especialistas de Alto Nível sobre notícias falsas
e divulgação online de desinformação ( HLEG – High Legal Expert Group125), quando da
elaboração de um plano de ação lançado para o combate a desinformação e danos online, a

123
O microdirecionamento é, na verdade, o resultado de uma série de atividades, muitas vezes, elas próprias bem
definidas e regulamentadas, como a coleta de dados pessoais, a utilização dos dados para traçar perfis e a
transmissão de comunicações personalizadas a eleitores individuais (CAVALIERE, Paolo et al. Micro-Targeting
in Political Campaigns: A Comparative Analysis of Legal Frameworks. Edinburgh Law School. 2021. p. 04.
Disponível em: https://privacyinternational.org/sites/default/files/2021-01/UoE_PI%20Micro-
targeting%20in%20policital%20campaigns%20comparative%20analysis%202021.pdf). Essa técnica
revolucionou as campanhas políticas ao permitir a segmentação dos eleitores, com base no tratamento dos dados
pessoais coletados, e uso de mensagem políticas diferenciadas e personalizadas, que podem ser disseminadas com
velocidade, precisão e alcance (COMISSÃO EUROPEIA. Guidance on Strengthening the Code of Practice on
Disinformation. 2021, p. 14. Disponível em: https://digital-strategy.ec.europa.eu/en/library/guidance-
strengthening-code-practice-disinformation Acesso em 10/06/2022). Como um dos pontos negativos desta
abordagem está a polarização dos eleitores.
124
LAZER, David et al. The science of fake news. Science. Vol. 359, Issue 6380. 09 Mar, 2018, p. 1095.
Disponível em: https://bit.ly/2X78dDX. Acesso em 08/09/2020. Trecho original: We define “fake news” to be
fabricated information that mimics news media content in form but not in organizational process or intent. Fake-
news outlets, in turn, lack the news media's editorial norms and processes for ensuring the accuracy and credibility
of information. Fake news overlaps with other information disorders, such as misinformation (false or misleading
information) and disinformation (false information that is purposely spread to deceive people).
125
DIRECTORATE-GENERAL FOR COMMUNICATIONS NETWORKS, CONTENT AND TECHNOLOGY.
High Level Expert Group on fake news and online disinformation [Report]. European Commission. 2018.
Disponível em: https://op.europa.eu/s/tRk9 Acesso em 08/09/2020.
49

define como “'informações falsas, imprecisas ou enganosas que são elaboradas, apresentadas e
promovidas com a intenção de causar dano público ou lucrar”126.
A Comissão Europeia (CE)127, no documento elaborado sobre como lidar com
desinformação, cuja definição é de suma importância, haja vista sua utilização no Código de
Prática da União Europeia sobre desinformação128, considera desinformação como “informação
comprovadamente falsa ou enganosa que é criada, apresentada e disseminada para obter
vantagens econômicas ou para enganar deliberadamente o público, e que é suscetível de causar
dano público”, sendo certo que “dano público” deve ser considerado como “ameaças aos
processos políticos democráticos e aos processos de elaboração de políticas, bem como a bens
públicos, tais como a proteção da saúde dos cidadãos da União Europeia (UE), o ambiente ou
a segurança”129130.
Há, ainda, aqueles discursos que são ilegais, pois representam a materialização de uma
conduta penalmente típica. A título de exemplo, há falas que incitam o cometimento de crimes,
atacam a honra de uma pessoa ou disseminam pornografia infantil. A incitação ao crime,
prevista no artigo 286 do Código Penal, é um ato que provoca ou estimula a realização de crimes
de forma pública, incentivando os indivíduos a cometerem condutas penalmente típicas. Os

126
DIRECTORATE-GENERAL FOR COMMUNICATIONS NETWORKS, CONTENT AND TECHNOLOGY.
High Level Expert Group on fake news and online disinformation [Report]. European Commission. 2018, p.10.
Disponível em: https://op.europa.eu/s/tRk9 Acesso em 08/09/2020.
127
COMISSÃO EUROPEIA. Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao Comité
Económico e Social Europeu e ao Comité das Regiões. Combater a desinformação em linha: uma estratégia
europeia. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52018DC0236 Acesso em 08/09/2020.
128
COMISSÃO EUROPEIA. EU Code of Practice on Disinformation. Publicado em 28/09/2018.
https://www.europeansources.info/record/eu-code-of-practice-on-disinformation/ Acesso em 08/09/2020.
129
COMISSÃO EUROPEIA. Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao Comité
Económico e Social Europeu e ao Comité das Regiões. Combater a desinformação em linha: uma estratégia
europeia. 2018, p. 4. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52018DC0236 Acesso em
08/09/2020.
130
Da análise dos conceitos propostos, pode-se destacar quatro elementos que os compõe: (i) natureza factual ou
enganosa da informação; (ii) dano; (iii) intenção do ator; e, (iv) ganho econômico (Ó FATHAIGH, Ronan;
HELBERGER, Natali; e APPELMAN, Naomi, The Perils of Legally Defining Disinformation (November 4,
2021). Internet Policy Review 10 (4). 2021, Disponível em: https://ssrn.com/abstract=3964513 Acesso em
03/03/2022). No que se refere ao primeiro elemento, natureza factual ou enganosa, ele recebe maior amplitude na
definição trazida pelo HLEG ao incluir a expressão “imprecisa”. A CE, por outro lado, fala em
“comprovadamente” falsa ou enganosa. O elemento dano é citado nos dois conceitos e ambos os documentos
consideram como dano público as ameaças aos processos políticos democráticos, bem como a bens públicos, tais
como a proteção da saúde dos cidadãos da UE, o ambiente ou a segurança. A CE acrescenta, além dos pontos
mencionados, processos de elaboração de políticas. É importante notar que, nas definições apresentadas, o dano
não precisa ter ocorrido para que a informação seja qualificada como desinformação, embora seja necessário, em
ambos os conceitos, a existência de potencialidade de dano, ou seja, basta o conteúdo guardar a qualidade
intrínseca de poder, de forma abstrata, ameaçar o processo político democrático ou expor a saúde dos cidadãos da
EU. Não há necessidade de que esse dano seja demonstrado na prática para que um conteúdo seja considerado
como desinformação. A “intenção do ator”, no conceito trazido pelo HGEG, é exigida e direcionada para causar
dano público ou de obter proveito econômico, ao passo que, na proposição da CE, a intenção deve ser de enganar
o público ou obter vantagem econômica.
50

crimes contra a honra, previsto nos artigos 138 a 140 do Código Penal, tem como bem jurídico
a proteção à honra do sujeito a fim de proteger sua privacidade, intimidade e imagem. E, os
casos de proibição de divulgação de pornografia infantil estão previstos no artigo 241-A, do
Estatuto da Criança e do Adolescente.
Outro ilícito comum nas redes sociais é a prática do uso não autorizado de imagens e
vídeos íntimos (revenge porn - pornografia de vingança), que tem alto potencial lesivo à
privacidade e autodeterminação informativa, com previsão de tratamento jurídico penal pela
Lei 2.737/2012. Essa lei criou tipos penais que proíbem a obtenção e disseminação não
autorizada de imagens por meios eletrônicos (artigo 154-A do Código Penal).
Casos de difamação e as situações retratadas como uso não autorizado de imagens e
vídeos íntimos relacionam-se com a violação ao direito à privacidade e representam um especial
desafio ante a crescente utilização de redes sociais. Com o aumento do uso das tecnologias, a
partir dos anos 1970, observou-se um aumento da vulnerabilidade dos indivíduos com
exposições de sua vida privada, assunto que será aprofundado no próximo capítulo.
Todos esses discursos ilícitos e prejudiciais, que podem ocorrer pelos mais variados
motivos - inimizade, violações de privacidade, extremismo violento ou simples ataques de
motivações financeiras, geram pedidos, notificações e litígios com a finalidade de que as
plataformas retirem esse conteúdo da rede. A própria sociedade, enquanto usuária das redes
sociais, não deseja que o espaço digital seja inundado por esse tipo de conteúdo, conforme visto
antes.
A inconveniência de que esses discursos permaneçam circulando nas redes sociais
colocam as plataformas digitais de redes sociais na linha de frente para combate-los. Por isso,
elas desempenham um papel importante na definição dos contornos dos discursos permitidos e
proibidos. Faz parte do seu modelo de negócio moderar o conteúdo online, pois a maneira como
elas classificam e apresentam o conteúdo é o que atrai ou repele os usuários de seus espaços131.
Algumas intervenções não demandam controvérsia. São aquelas relacionadas a
conteúdos ilícitos, que já são definidos pela legislação como crime, como, por exemplo, casos
de pornografia infantil. Nestes casos, é possível e recomendável que a moderação priorize pela
velocidade de decisão, podendo se antecipar à própria publicação pelo usuário, através de
mecanismos que impeçam que o conteúdo seja inserido na rede.

131
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019. Disponível em:
https://www.hoover.org/research/verified-accountability.
51

Outros conteúdos, porém, demandam uma análise mais acurada, pois necessitam da
apreciação do contexto da publicação e considerações sobre valores e cultura de um país. São
os casos de difícil solução e estão longe de ter uma resposta sobre a melhor forma de
intervenção. Ao moderar, as plataformas, ainda que sob uma justificativa plausível, censuram
o discurso de um indivíduo e, o pior, podem cometer alguns erros na sua atividade. É o que será
analisado no próximo tópico.

2.4.2 Os problemas: inconsistência, escalabilidade, opacidade nas políticas de uso e


decisões tomadas e natureza privada das plataformas de mídias sociais.

Tradicionalmente, o Poder Judiciário de forma casuística, através do exercício da


ponderação de direitos, é responsável para lidar com o problema do discurso prejudicial,
trazendo maior segurança jurídica para as relações sociais. Parte-se da ideia de que nenhuma
liberdade é absoluta, devendo coexistir de forma harmônica com outros direitos
constitucionalmente protegidos132. Ocorre que, o número de decisões que seriam necessárias
para que o Poder Judiciário solucionasse todos os conflitos é imensurável e tornaria a atividade
impraticável.
O problema é que, quando as plataformas projetam sua estrutura regulatória, através da
arquitetura lógica de seus sistemas, para exercer a moderação de conteúdo, a evidência empírica
demonstrada é de que a remoção de conteúdos postados pelos usuários é excessiva e há sérias
dificuldades para a tecnologia automatizada ser implementada em escala. Essa dificuldade
decorre dos sistemas algoritmos serem instrumentos precários para o reconhecimento das
interações sociais e serem incapazes de entender certas nuances da comunicação que necessitam
de um contexto social ao redor para o deslinde da questão133.
Outro problema notório é a falta de transparência. As plataformas digitais não declaram
de forma clara e expressa as restrições que os usuários podem sofrer de acordo com cada assunto

132
HARTMANN, Ivar. MONTEIRO, Julia. Fake News no Contexto da Pandemia e Emergência Social: os deveres
e responsabilidades das plataformas de Redes Sociais na Moderação de Conteúdo Online: entre a Teoria e as
Proposições Legislativas. RDP, Brasília, volume 17, n. 94, 388-414, jul/ago.2020.
133
BELLI. Luca. Structural Power as a Critical Element of Digital Platforms’ Private Sovereignty. In Edoardo
Celeste, Amélie Heldt and Clara Iglesias Keller (Eds). Constitutionalising Social Media. 2022, pp 16-18.
52

abordado e, para piorar, não especificam a sanção a ser aplicada em cada caso 134. Ainda,
conforme apontado neste capítulo, são ocultos os procedimentos adotados para a filtragem e
organização do conteúdo online. Não existe, portanto, clareza sobre quais são as regras de
moderação e sobre como as plataformas estão aplicando essas regras em seus processos de
tomada de decisão, o que leva a assimetria informacional entre as partes envolvidas.
A natureza privada das plataformas de mídias sociais também traz problemas a serem
enfrentados. A primeira preocupação relacionada com essa questão é a regulação privada de
um local onde ocorre o debate público de ideias, em que, frequentemente, se pondera os direitos
fundamentais dos usuários. O desenvolvimento da atividade de moderação de conteúdo
mostrou que os governos não são mais os únicos que podem afetar os direitos fundamentais.
Atores privados podem, igualmente, se constituir como uma grande ameaça. Esse argumento
levou a literatura a apontar para a ausência de legitimidade democrática das plataformas e
ausência de regras de accountability135.
A segunda preocupação envolvendo a natureza privada e global desses entes
intermediários é o fato da moderação de conteúdo ser realizada segundo regras e padrões que
normalmente seguem a legislação do país onde estão estabelecidas suas sedes, que não
necessariamente se coadunam com a cultura e a legislação específicas dos demais países onde
seu serviço é prestado.

134
Cada uma das plataformas adota uma política diferente em seus termos de uso, sem,muitas das vezes, permitir
acesso claro aos seus usuários, já que elas podem ser interpretadas de forma inconsistente, deixando o usuário
confuso. Essa questão foi recentemente abordada pela Corte Constitucional Alemã, que, ao julgar dois casos sobre
a exclusão de postagens dos usuários e bloqueio de suas contas por violação a políticas do Facebook, determinou
a nulidade do seu termo de uso. Segundo o entendimento do Tribunal alemão “os termos de serviços e padrões de
comunidade do Facebook não podem ser aplicados por não darem a oportunidade aos usuários de compreenderem
significativamente o seu processo decisório, o que contraria regras de direito civil, como a assimetria informacional
entre as partes. O caso em questão envolveu postagens neonazistas e xenofóbicas da parte autora que alegou ter
tido seu direito de liberdade de expressão violado pela plataforma, ao ter sido bloqueado e suas postagens
excluídas. O Tribunal decidiu que o Facebook para agir neste tipo de situação deve (1) prover aos usuários
mecanismos de apelação das decisões depois da remoção do post; (2) e, antes de bloquear a conta, informar o seu
intuito e também disponibilizar justificação e vias de apelação. Disponível em:
https://www.bundesgerichtshof.de/SharedDocs/Pressemitteilungen/DE/2021/2021149.html Acesso em
08/08/2020.
135
O termo pode ser utilizado em diferentes contextos e referir-se a diversas relações. Em linhas gerais, o termo
corresponde à condição de sujeitar-se ao controle e supervisão externos, o que possibilita oferecer limites ao
exercício de poder. Pode ser aplicado aos deveres de prestação de contas de entidades governamentais, empresas
privadas e, até mesmo, os sistemas de algoritmos utilizados pelas redes sociais. Nesse sentido, a transparência
apresenta-se como um dos seus elementos. A partir da divulgação de informações é que se poderá aplicar eventuais
sanções, caso necessário, sendo esse o segundo elemento que forma a accountability. ZINGALES, Nicolo.
Accountability. In: BELLI, Luca; ZINGALES, Nicolo; CURZI, Yasmin (eds.). Glossary of platform law and
policy terms. Rio de Janeiro: FGV Direito Rio, 2021. Disponível em:
https://bibliotecadigital.fgv.br/dspace/handle/10438/31365. Acesso em 10/02/2022.
53

Luca Belli, Pedro Francisco e Nicolo Zingales136 destacam que essa regulação ocorre
em um ambiente em que as decisões tomadas por esses entes intermediários transbordam o
espaço delimitado por seus serviços e carregam a influência de determinadas regulações
nacionais, que orientam suas normas internas, para outros Estados. Por isso, os autores afirmam
que as plataformas se transformaram em um “proxy privado para aplicação da regulação
nacional”137, a exemplo do que ocorreu com a aplicação da regulação dos direitos autorais dos
Estados Unidos138.
Pelo que foi apresentado até aqui, é possível concluir que a moderação de conteúdo é a
atividade chave para o exercício da governança privada pelas plataformas, sendo certo que é
através dela que as plataformas controlam e organizam o fluxo informacional, além de prevenir
a ocorrência de excessos nos seus espaços digitais, como o discurso de ódio, desinformação,
dentre outros perigos. Essa atividade, entretanto, que se apresenta como solução para que as
plataformas promovam um ambiente saudável para que o debate público, aberto e livre para o
fluxo de ideias, também se apresenta com grandes problemas de difícil solução. No próximo
tópico será analisada a responsabilidade das plataformas de redes sociais ao desempenhar a
atividade de moderação, isto é, como é a regulação, até o presente momento, das atividades das
redes sociais.

2.5 Responsabilidade das Plataformas Digitais pelo exercício da moderação de


conteúdo.

Moderar o conteúdo é decidir o que permanece ou não na rede e, conforme já apontado,


é um aspecto indispensável da indústria de mídia social, vez que sem ele o modelo de negócios

136
BELLI, Luca, FRANCISCO, Pedro Augusto, ZINGALES, Nicolo. Law of the Land or Law of the Platform?
Beware of the Privatisation of Regulation and Police. In: Platform regulations: how platforms are regulated
and how they regulate us. P. 41-64. FGV Direito Rio. 2017.
Disponível em: https://bibliotecadigital.fgv.br/dspace/handle/10438/19402 Acesso em 08/08/2020.
137
BELLI, Luca, FRANCISCO, Pedro Augusto, ZINGALES, Nicolo. Law of the Land or Law of the Platform?
Beware of the Privatisation of Regulation and Police. In: Platform regulations: how platforms are regulated
and how they regulate us. P. 41-64. FGV Direito Rio. 2017, p. 42 Available at:
https://bibliotecadigital.fgv.br/dspace/handle/10438/19402 Trecho original: This latter example is particularly
useful to emphasise another collateral effect of the privatisation of regulation and police functions, which is the
extraterritorial application of a national regulatory regime – in this case, US copyright legislation – de facto
turning the platform into a private proxy for global application of national regulation.
138
Esse modelo será detalhado no item “2.4.1” deste capítulo. Ele foi adotado pelas plataformas e, depois, aplicado
pela legislação e jurisprudência de outros países, conforme a seguir abordado.
54

desempenhado pelas plataformas poderia não funcionar de forma agradável. Segundo


defendido pelas empresas de mídia social, essa atividade não poderia ser exercida acaso esses
entes intermediários se sentissem acuados com as repercussões legais. Para permitir, portanto,
a expansão da tecnologia das plataformas, os Estados, de um modo geral, inicialmente, optaram
por não responsabilizar esses entes intermediários. O presente tópico aborda o tratamento
jurídico dado pela legislação americana, europeia e brasileira no que tange à responsabilidade
das plataformas digitais no exercício da moderação de conteúdo.

2.5.1 Responsabilidade das plataformas de redes sociais à luz da legislação americana

Nos Estados Unidos (EUA), com o fundamento de proteger a liberdade de expressão,


adotou-se a cláusula do bom samaritano na seção §230 do Communications Decency Act
(CDA), cujo teor na alínea “c, 1” é “nenhum provedor ou usuário de um serviço de computador
interativo deve ser tratado como o editor ou locutor de qualquer informação fornecida” 139 por
um terceiro, o que estabeleceu um verdadeiro porto seguro para as plataformas140.
Neste instrumento regulatório, as plataformas, por serem consideradas intermediárias
do discurso online, não podem ser responsabilizadas em relação ao conteúdo postado por
terceiros, tampouco podem ser responsabilizadas por monitorá-los, exceto quando houver
previsão legal – casos em que lei enquadra a conduta como crime, casos de propriedade
intelectual, e, nos casos de tráfico sexual e prostituição. Isso quer dizer que, mesmo que as
plataformas moderem ativamente o conteúdo gerado pelo usuário, elas não podem ser
consideradas responsáveis pelo conteúdo de terceiros.
Essa previsão fornece uma dupla proteção à atividade de moderação: concede
imunidade tanto pelo conteúdo que elas moderam, como pelo conteúdo que elas deixam de
moderar. Conforme apontado por Grimmelmann, as plataformas adquirem ampla imunidade

139
Seção §230, c, 1: “No provider or user of an interactive computer service shall be treated as the publisher or
speaker of any information provided by another information content provider”. Disponível em:
https://www.law.cornell.edu/uscode/text/47/230. Acesso em: 10/08/2021.
140
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019. P.139-140.
55

perante à legislação americana, pelo que a elas “não se aplica a lei de difamação, lei de
segurança, lei civil, lei do consumidor e quase todas as outras leis”141.
A política legislativa por trás dessa cláusula de imunidade era proteger as plataformas
para exercerem a moderação de conteúdo, em razão da jurisprudência norte-americana trazer
insegurança jurídica no início de uma era de responsabilização em dois precedentes: Cubby,
Inc. vs. Compuserve, Inc. e Stratton Oakmont, Inc. vs. Prodigy. Pela importância, passa-se a
narrar, em breve síntese as origens da cláusula §230, que influenciou as legislações
posteriores142.
Quando a internet se difundiu para o uso do público, em meados da década de 1990, a
troca de informações e conteúdos passou a ser cada vez mais intensa e, com isso, a quantidade
de conteúdos prejudiciais aumentou. Isso desencadeou a propositura de muitos processos
judiciais em face de fóruns de notícias online. Em um dos primeiros casos (Cubby vs.
Compuserve, em 1991), o tribunal decidiu que o provedor de serviço Compuserve não poderia
ser responsabilizado pelo conteúdo carregado em seu espaço digital porque não atuou como
revisor do conteúdo. Se o provedor não tinha conhecimento específico sobre a publicação, não
poderia ser responsabilizado como editor das declarações supostamente difamatórias143.
Posteriormente, outro caso foi colocado para julgamento pelo tribunal de Nova York,
no precedente Stratton Oakmont vs. Prodigy, em 1995. No entanto, o Poder Judiciário, em uma
virada de cento e oitenta graus, decidiu de forma diferente. Nesse caso, o provedor de serviço,
Prodigy, poderia ser responsabilizado como editor pelas declarações supostamente difamatórias
questionadas. O fundamento da sentença foi que a empresa assumiu uma postura de cuidado,
com esforços para filtrar o conteúdo que violasse a sua política de uso: “um serviço familiar”144.
Assim, se os entes intermediários assumiram o compromisso de moderar o conteúdo,
assumiram também o risco de serem responsabilizados pelos conteúdos nocivos que
permanecerem na rede.

141
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, p. 103. Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020. Trecho original: “The overall
effect, despite the "good faith" qualifier in the second prong, is that moderators have blanket immunity: no
moderation decision can lead to liability under defamation law,321 securities law,322 civil rights law,323
consumerprotection law, or almost-anything law”.
142
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015. P. 103. Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
143
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, pp. 139-140.
144
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, pp.139-140.
56

A diferença entre os dois julgamentos foi de que no primeiro caso o provedor não fez
promessas para exercer a moderação de conteúdo dos seus usuários, enquanto, no segundo caso,
o esforço do provedor em moderar o conteúdo, sujeitava-o à responsabilidade em caso de
potenciais declarações difamatórias, pois era entendido que sobre esse conteúdo era exercido
um controle editorial. Esses entendimentos foram proferidos em um cenário digital, onde se
proliferava, cada vez mais, conteúdos indecentes e pornografia infantil, conjugado com o
anonimato das publicações, o que trazia grande preocupação ao Congresso Americano.
Foi nesse contexto que surgiu a proposta de uma Lei de Decência (Communications
Decency Act - CDA) à Lei de Telecomunicações de 1996. E, no debate sobre responsabilizar
ou não os provedores de serviço (chamados, à época, de “serviços de computadores
interativos”), foi argumentado que se “os computadores interativos de serviços que tentassem
filtrar conteúdo obsceno e oferecer serviços "adequados para a família" iriam, sob a lógica do
precedente Stratton Oakmont, ser responsáveis por qualquer material indecente que vazasse”145.
Por consequência lógica, os serviços online adotariam a mesma posição do provedor
Compuserve, no caso Cubby, isto é, tentariam se proteger de eventual responsabilidade
adotando explicitamente uma política de “não-moderação de conteúdo”146. O efeito dessa
medida seria trazer ao espaço digital uma gama enorme de conteúdos prejudiciais aos usuários.
E, assim, foi acrescido a seção §230, “c, 1”, que trouxe a cláusula do bom samaritano, acima já
mencionada147.
Em 1998, o Congresso Americano promulgou uma nova lei, a Digital Millennium
Copyright Act – DMCA, com a criação de um novo regime para abordar a responsabilidade das
plataformas digitais, que estavam isentas por qualquer violação à luz da seção 230, para
acrescentar à Lei vigente sobre Direitos Autorais uma nova seção “Limitações de
Responsabilidade relacionado ao material online” – seção 512.
A seção 512 prevê que as plataformas digitais podem ser responsabilizadas se terceiros
usarem seus serviços para armazenar ou trocar conteúdo infrator, a menos que a plataforma
esteja em conformidade com o “porto seguro”. Isso quer dizer que, para as plataformas não
serem responsabilizadas, elas não poderão ter conhecimento da atividade infratora, e, se

145
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.140. Trecho original: Opponents argued that
interactive computer services that attempted to filter out obscene content and offer “family-friendly” services
would, under the logic of Stratton Oakmont, be liable for any indecent material that slipped through.
146
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.140.
147
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.140-141.
57

tiverem, devem tomar as medidas para remover o conteúdo ilícito quando descoberto ou,
supostamente ilícito, quando o detentor dos direitos autorais denunciar148.
A plataforma, uma vez retirado o conteúdo da rede, deve informar ao suposto infrator,
que pode enviar um “contra-aviso” à plataforma contestando a alegada violação. Feito isso, o
provedor de serviço encaminha a “contra notificação” ao denunciante, com a informação de
que o conteúdo será restabelecido em 10 (dez) dias caso esse não apresente uma ação de
violação de direitos autorais na Corte Federal. Esse sistema é o que se chama de notice-and-
takedown149.

2.5.2 Responsabilidade das plataformas de redes sociais à luz da legislação da União


Europeia

Na União Europeia, a Diretiva de Comércio Eletrônico (Diretiva de E-Commerce,


2000)150 concedia imunidade às plataformas pelo conteúdo produzido por terceiros em seu
artigo 14, o que foi mantido pelo novo projeto de Lei de Serviços Digitais (Digital Service Act
- DSA151). Nesse sistema para se garantir a imunidade era necessária uma condição: que os
provedores de serviço removessem o conteúdo ilegal da rede assim que tomassem
conhecimento da ilegalidade. O regime adotado foi espelhado no regime de responsabilidade
trazido pelo DMCA, notice-and-takedown, mencionado na subseção anterior.

148
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.146.
149
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019. P.146-147. O referido autor afirma que, embora esse
regime tenha seu lado negativo (imposição de custos, certa violação à liberdade de expressão e maior dificuldade
de aplicação para discursos prejudiciais que necessitem de avaliação do contexto), ele tem funcionado com
razoavelmente bem há 20 anos na área do direito autoral. Ele representa um esforço do legislador para equilibrar
as limitações inerentes à tecnologia, em relação ao monitoramento e julgamento de todos os conteúdos postados
na rede, com a necessidade de rápida resposta aos sujeitos que tiveram seus direitos violados. A lei, ainda, traz
penalidades aqueles que agem de má-fé e fornece a possibilidade de restaurar o conteúdo em caso de contra-
notificação.
150
COMISSÃO EUROPEIA. Diretiva 2000/31/CE do Parlamento Europeu e do Conselho. Trata de certos
aspectos legais dos serviços da sociedade da informação, em especial do comércio eletrônico, no mercado interno.
8 de Junho de 2000. Disponível em: https://eur-lex.europa.eu/legal-
content/PT/TXT/PDF/?uri=CELEX:32000L0031&from=PT Acesso em: 22/08/2021
151
COMISSÃO EUROPEIA. Proposal for a Regulation on a Single Market For Digital Services (Digital Services
Act). 15 de dezembro de 2020. Disponível em: https://eur-lex.europa.eu/legal-
content/en/TXT/?qid=1608117147218&uri=COM%3A2020%3A825%3AFIN Acesso em 30/06/2022.
58

A Lei dos Serviços Digitais segue a normativa anterior, prevendo nos artigos 3º a 9º a
responsabilidade das plataformas pelo conteúdo postado por terceiros, isto é, preservaram a
imunidade dos provedores de serviço de informações quando atuem como mero intermediários,
em um estado de neutralidade.
Nesse sentido, o “Considerando 18” do DSA preconiza que imunidade não se aplica aos
casos em que os serviços não sejam prestados de forma neutra, ou seja, “através de um
tratamento meramente técnico e automático das informações prestadas pelo destinatário do
serviço”, e passem a desempenhar um “papel ativo que lhe permita ter conhecimento ou
controle dessas informações”152.
Esse estado de neutralidade, entretanto, não se perde quando as plataformas realizarem
“investigações de iniciativa voluntária ou outras atividades destinadas a detectar, identificar e
remover ou desativar o acesso a conteúdo ilegal”, nos moldes do artigo 6º do referido diploma
legal. Ainda, essa previsão não traz as plataformas obrigações de vigilância ou monitoramento
de conteúdos (artigo 7º do DSA).

2.5.3 Responsabilidade das plataformas de redes sociais à luz da legislação brasileira

No Brasil, no que se refere à moderação de conteúdo realizada pelas plataformas, o


Marco Civil da Internet153 (MCI - Lei 12.965/2014)154 tratou da responsabilidade desses
provedores de aplicações de internet nos artigos 19 e seguintes155. A lei brasileira, tal como os
modelos estrangeiros, acima mencionados, não considerou esses entes intermediários como
editores de conteúdo, motivo pelo qual não respondem civilmente pelos conteúdos postados por

152
COMISSÃO EUROPEIA. Proposal for a Regulation on a Single Market For Digital Services (Digital Services
Act). 15 de dezembro de 2020, p. 24. Disponível em: https://eur-lex.europa.eu/legal-
content/en/TXT/?qid=1608117147218&uri=COM%3A2020%3A825%3AFIN Acesso em 30/06/2022.
153
Um pouco sobre o histórico do Marco Civil da Internet será tratado no capítulo 4 (item “4.2.1”), quando
abordado o multissetorialismo na governança da internet.
154
BRASIL. Lei 12.965/2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil.
Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm
155
O artigo 18 do MCI trata da responsabilidade do provedor de conexão. Pela referida lei, ele não pode ser
responsabilizado pelos conteúdos postados por terceiros, já que atuam como “meros condutores” de infraestrutura
tecnológica, pelo que não possuem relação com o conteúdo publicado pelos usuários (HARTMANN, Ivar; CURZI,
Yasmin; ZINGALES, Nicolo; ALMEIDA, Clara. Moderação de conteúdo online: contexto, brasileiro e suas
perspectivas regulatórias. Rio de Janeiro: Editora Alameda, 2022 (no prelo), pp. 29-30). Art. 18. O provedor de
conexão à internet não será responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros
(BRASIL. Lei 12.965/2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil.
Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm). Acesso em
10/04/2022.
59

terceiros, com exceção dos casos de existência de ordem judicial específica para a
indisponibilização do conteúdo infrator (artigo 19 da lei156).
É importante destacar que antes do MCI, a responsabilização dos provedores de serviço,
segundo a jurisprudência do Superior Tribunal de Justiça (STJ), adotava o sistema de notice
and take down, importado da legislação norte-americana sobre direitos autorais, que
determinava a inexistência de obrigação de filtragem prévia de conteúdo – imagens e dados,
inseridos em seus sistemas157, mas, caberia a eles, ao receberem a comunicação a respeito de
conteúdo ilícito ou ofensivo de um usuário, o prazo de 24h para retirar preventivamente a
postagem, supostamente ofensiva, da rede, podendo checar a veracidade das alegações em
momento futuro. Não o fazendo, haveria responsabilidade solidária pelos danos158. Adotava-se,
portanto, um regime de responsabilidade objetiva, após a constituição em mora do provedor de
aplicação.
Atualmente, o regime de responsabilidade adotado pelo artigo 19 do MCI é subjetivo159,
aplicado para os casos de omissão dos provedores de serviços e aplicações de internet perante
as determinações judiciais, o que significa que esses somente serão considerados responsáveis
pelos danos decorrentes de conteúdo publicado por terceiros quando houver uma ordem judicial

156
Art. 19. Com o intuito de assegurar a liberdade de expressão e impedir a censura, o provedor de aplicações de
internet somente poderá ser responsabilizado civilmente por danos decorrentes de conteúdo gerado por terceiros
se, após ordem judicial específica, não tomar as providências para, no âmbito e nos limites técnicos do seu serviço
e dentro do prazo assinalado, tornar indisponível o conteúdo apontado como infringente, ressalvadas as disposições
legais em contrário.
§ 1º A ordem judicial de que trata o caput deverá conter, sob pena de nulidade, identificação clara e específica do
conteúdo apontado como infringente, que permita a localização inequívoca do material.
§ 2º A aplicação do disposto neste artigo para infrações a direitos de autor ou a direitos conexos depende de
previsão legal específica, que deverá respeitar a liberdade de expressão e demais garantias previstas no art. 5º da
Constituição Federal.
§ 3º As causas que versem sobre ressarcimento por danos decorrentes de conteúdos disponibilizados na internet
relacionados à honra, à reputação ou a direitos de personalidade, bem como sobre a indisponibilização desses
conteúdos por provedores de aplicações de internet, poderão ser apresentadas perante os juizados especiais.
§ 4º O juiz, inclusive no procedimento previsto no § 3º, poderá antecipar, total ou parcialmente, os efeitos da tutela
pretendida no pedido inicial, existindo prova inequívoca do fato e considerado o interesse da coletividade na
disponibilização do conteúdo na internet, desde que presentes os requisitos de verossimilhança da alegação do
autor e de fundado receio de dano irreparável ou de difícil reparação (BRASIL. Lei 12.965/2014. Estabelece
princípios, garantias, direitos e deveres para o uso da Internet no Brasil. Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm). Acesso em 30/06/2022.
157
STJ, RESP 1.192.208, Rel. Min. Nancu Andrighi, 3ª T. Dj. 02.08.2012. Disponível em:
https://scon.stj.jus.br/SCON/jurisprudencia/doc.jsp?livre=1.192.208&b=ACOR&p=false&l=10&i=6&operador=
E&tipo_visualizacao=RESUMO Acesso em 07/04/2021.
158
STJ, RESP 1.323.754, Rel. Min. Nancy Andrighi, Dj 19.06.2012. Disponível em:
https://scon.stj.jus.br/SCON/jurisprudencia/doc.jsp?livre=1.323.754&pesquisaAmigavel=+%3Cb%3E1.323.754
%3C%2Fb%3E&b=ACOR&p=false&thesaurus=&l=10&i=13&operador=E&tipo_visualizacao=RESUMO&tp=
T Acesso em 30/06/2022.
159
DE TEFFÉ, Chiara Spadaccini; DE MORAES, Maria Celina Bodin. Redes sociais virtuais: privacidade e
responsabilidade civil. Análise a partir do Marco Civil da Internet. Pensar-Revista de Ciências Jurídicas, v. 22,
n. 1, p. 108-146, 2017. Disponível em: https://periodicos.unifor.br/rpen/article/view/6272 Acesso em 30/06/2022.
60

específica de remoção de conteúdo e não tomarem as medidas cabíveis dentro de seus limites
técnicos.
A legislação nacional oferece uma espécie de imunidade condicional em relação ao
conteúdo postado por terceiros nas plataformas digitais, onde o Poder Judiciário foi considerado
a instância legítima para definir a eventual ilicitude do conteúdo em questão. Isso significa que
a mera notificação extrajudicial do usuário ao provedor não impõe o dever jurídico de retirada
do material da rede. É necessário a prévia análise do Poder Judiciário do material reputado
como ilícito como condição específica de responsabilidade. No entanto, o provedor poderá, a
qualquer momento, optar por retirar o conteúdo falso ou enganoso, caso esse ofenda seus termos
de uso, mas, neste caso, responderá por conduta própria160161.
Esse arranjo institucional, que não se aplica aos casos de violação de direitos autorais162,
traz pontos positivos: assegura a preservação da liberdade de expressão e evita a censura
privada, traz mais segurança e legitimidade para a expressão na rede e não se traduz em barreira
à diversidade ou inovação. Por outro lado, carrega consigo algumas críticas: dificuldades nas
ações voltadas para preservar a intimidade, honra e imagem das pessoas, bem como para conter
desinformação, discursos de ódio, atos de incitação ao terrorismo, dentre outros. Isso porque a
demora na análise do caso pelo Poder Judiciário permite a disseminação do conteúdo pela rede,
o que pode prejudicar o indivíduo, além de que a regra não traz incentivos legais para a
moderação de conteúdo pelas plataformas163.
Em razão de tais críticas, há autores que consideram o artigo 19 do MCI materialmente
inconstitucional (por todos, Anderson Schreiber164). Para o referido autor, há dois fundamentos

160
DE TEFFÉ, Chiara Spadaccini; DE MORAES, Maria Celina Bodin. Redes sociais virtuais: privacidade e
responsabilidade civil. Análise a partir do Marco Civil da Internet. Pensar-Revista de Ciências Jurídicas, v. 22,
n. 1, p. 108-146, 2017. Disponível em: https://periodicos.unifor.br/rpen/article/view/6272 Acesso em 30/06/2022.
161
É importante registrar aqui que a MP 1.068/2021, que alterava o Marco Civil da Internet desejava proibir essa
análise pela plataforma, já que em seus artigos 8º-A, 8º-B, 8º-C e 8º-D, que disciplinava sobre os “direitos dos
usuários das redes sociais”, determinava a necessidade de que as plataformas estivessem amparadas em uma “justa
causa legal” para que pudessem remover conteúdos. Essa MP, contudo, não está mais vigente. BRASIL, MP 1068
de 21 de setembro de 2021, que alterava a Lei nº 12.965, de 23 de abril de 2014, e a Lei nº 9.610, de 19 de fevereiro
de 1998, para dispor sobre o uso de redes sociais. Disponível em: https://www.in.gov.br/en/web/dou/-/medida-
provisoria-n-1.068-de-6-de-setembro-de-2021-343277275 Acesso em 30/06/2022.
162
Artigo 19, § 2º A aplicação do disposto neste artigo para infrações a direitos de autor ou a direitos conexos
depende de previsão legal específica, que deverá respeitar a liberdade de expressão e demais garantias previstas
no art. 5º da Constituição Federal (BRASIL. Lei 12.965/2014. Estabelece princípios, garantias, direitos e deveres
para o uso da Internet no Brasil. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-
2014/2014/lei/l12965.htm). Acesso em 30/06/2022.
163
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.134.
164
SCHREIBER, Anderson. Marco Civil da Internet: avanço ou retrocesso? A responsabilidade civil por dano
derivado do conteúdo gerado por terceiro. In: Direito & Internet III - Tomo II: Marco Civil da Internet: Lei
12.965/2014. DE LUCCA, Newton; SIMÃO FILHO, Adalberto; LIMA, Cíntia Rosa Pereira de (coords.). São
Paulo: Quartier Latin, 2015, pp. 293-294
61

principais para a inconstitucionalidade. O primeiro é a violação do 5º, incisos X e XXXV, e o


1º, inciso III, da Constituição da República Federativa Brasileira165, de forma a restringir a tutela
dos direitos fundamentais ao priorizar direitos de conteúdo patrimonial.
Segundo Schreiber, o artigo 19 restringiria a tutela dos indivíduos relacionada à
reparação integral dos danos sofridos ao impor uma condição específica para isso: a emissão de
ordem judicial. O segundo motivo é que, ao condicionar a tutela de tais direitos a emissão de
ordem judicial específica, a lei retrocede em relação ao grau de proteção que já era assegurado
pela jurisprudência brasileira, a qual vinha considerando os provedores responsáveis por tais
danos se deixassem de agir após comunicação de qualquer espécie, como por exemplo,
extrajudicial, por notificação física ou por meio eletrônico166.
Essa discussão chegou ao Supremo Tribunal Federal (STF) e hoje o tema de
Repercussão Geral nº 987 discute acerca da constitucionalidade do artigo 19 do MCI167. É
importante registrar que o que será analisado pelo STF é se a ponderação realizada previamente
pelo legislador a respeito dos direitos fundamentais em colisão – liberdade de expressão, de um
lado, e privacidade, intimidade, honra e imagem, do outro – que privilegia, em certa medida, a
liberdade de expressão, é constitucional.
Quando um conteúdo publicado na internet ofende o direito de terceiros, há uma colisão
entre a liberdade de expressão de um sujeito em detrimento da imagem, por exemplo, de outro.
O artigo 19 do MCI concede uma preferência inicial à liberdade de expressão, mantendo esse
conteúdo na rede até que o caso seja analisado pelo Poder Judiciário. Não caberia as plataformas
de redes sociais proceder à ponderação dos direitos em jogo. Mas será que essa preferência à
liberdade de expressão é proporcional?

165
Artigo 1º: A República Federativa do Brasil, formada pela união indissolúvel dos Estados e Municípios e do
Distrito Federal, constitui-se em Estado Democrático de Direito e tem como fundamentos: inciso III - a dignidade
da pessoa humana. Artigo 5, inciso X: são invioláveis a intimidade, a vida privada, a honra e a imagem das pessoas,
assegurado o direito a indenização pelo dano material ou moral decorrente de sua violação; Inciso XXXV: a lei
não excluirá da apreciação do Poder Judiciário lesão ou ameaça a direito. BRASIL, Constituição Federal.
Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 30/06/2022.
166
SCHREIBER, Anderson. Marco Civil da Internet: avanço ou retrocesso? A responsabilidade civil por dano
derivado do conteúdo gerado por terceiro. In: Direito & Internet III - Tomo II: Marco Civil da Internet: Lei
12.965/2014. DE LUCCA, Newton; SIMÃO FILHO, Adalberto; LIMA, Cíntia Rosa Pereira de (coords.). São
Paulo: Quartier Latin, 2015, pp. 293-294
167
SUPREMO TRIBUNAL FEDERAL. TEMA 987. Discussão sobre a constitucionalidade do art. 19 da Lei n.
12.965/2014 (Marco Civil da Internet) que determina a necessidade de prévia e específica ordem judicial de
exclusão de conteúdo para a responsabilização civil de provedor de internet, websites e gestores de aplicativos de
redes sociais por danos decorrentes de atos ilícitos praticados por terceiros. Disponível em:
https://portal.stf.jus.br/jurisprudenciaRepercussao/verAndamentoProcesso.asp?incidente=5160549&numeroProc
esso=1037396&classeProcesso=RE&numeroTema=987 Acesso em 04/07/2022.
62

Quando se analisa a proporcionalidade, o que está buscando responder é: (i) se a


exigência de ordem judicial é medida adequada ao fim pretendido, vale dizer, promove e
fomenta a liberdade de expressão; (ii) se a medida proposta é necessária, ou seja, se não há
nenhuma outra medida capaz de fomentar, na mesma intensidade, a liberdade de expressão e,
ao mesmo tempo, limitar, em menor grau, o direito à privacidade, intimidade, honra e imagem;
e, (iii) se a medida é proporcional em sentido estrito, isto é, se os motivos que fundamentam a
necessidade de ordem judicial prévia são suficientemente importantes para autorizar a restrição
prévia dos direitos da personalidade ofendidos168.
O artigo 21 do MCI traz uma exceção a regra geral de responsabilidade subjetiva,
adotada no artigo 19, para os casos de divulgação não autorizada de imagens, vídeos e materiais
que contenham nudez ou outros aspectos de natureza íntima. Esse artigo abre a possibilidade
dos usuários que tiverem sua privacidade violada possam notificar à plataforma, o que lembra
o modelo de notice and takendown, adotado pela legislação americana de direitos autorais.
Assim, os provedores de aplicação poderão ser responsabilizados se, uma vez notificados, não
retirarem o conteúdo violador dentro de seus limites técnicos.
Ivar Hartmann explica que para a configuração da hipótese de exceção é preciso que
quatro elementos estejam caracterizados: “uma mídia efetivamente mostrando uma pessoa ou
grupo de pessoas; o sentimento pessoal das pessoas retratadas de que aquele é um momento
íntimo; a falta de autorização por parte dessas pessoas para a disseminação; e, a disseminação
intencional dessa mídia online” 169.
Por fim, destaca-se as lições de Nicolo Zingales sobre uma regulação equilibrada da
responsabilidade dos provedores de serviço na internet. Para o autor é necessário respeitar cinco
pilares para que se promovam as diretrizes do Estado Democrático de Direito e respeite a
internet como provedora do desenvolvimento econômico e social170.

168
DIAS, Daniel. Fundamentos da Regulação da tecnologia digital: entender como a tecnologia digital regula para
conseguir regulá-la. Em: Regulação e novas tecnologias. Coordenação: Armando Castelar Pinheiro, Antônio José
Maristello Porto, Patrícia Regina Pinheiro Sampaio. Pp. 193-245. Rio de Janeiro: FGV Editora, 2022. pp. 234-
240.
169
HARTMANN, Ivar A. Regulação da internet e novos desafios da proteção de direitos constitucionais: o caso
do revenge porn. Revista de Informação Legislativa: RIL, v. 55, n. 219, p. 13-26, jul./set. 2018. Disponível em:
<https://www12.senado.leg.br/ril/edicoes/55/219/ril_v55_n219_p13>. Acesso em 26/08/2021.
170
ZINGALES, Nicolo. The Brazilian approach to internet intermediary liability: blueprint for a global regime?
Internet Policy Review, Journal on internet regulation, v. 4, n. 4, 2015.Disponível em:
https://policyreview.info/articles/analysis/brazilian-approach-internet-intermediary-liability-blueprint-global-
regime Acesso em 30/06/2022.
63

São eles171: (i) liberdade de expressão: é necessário respeitar a internet como local para
se promover a troca de informações, o que se deve respeitar quando se pensar em limitar a
atuação dos intermediários; (ii) acesso à internet: direito essencial para promover a capacidade
dos cidadãos de se expressarem livremente e garantir o acesso à informação. Por isso, a
regulação deve promover oportunidades igualitárias, sem discriminação nas comunicações; (iii)
privacidade e proteção de dados: a responsabilização deve balancear os limites entre a liberdade
de expressão e à privacidade, além de possibilitar o controle sobre as informações que se tornam
públicas; (iv) devido processo: as plataformas devem implementar um sistema de devido
processo, permitindo que os usuários recorram das decisões tomadas relacionados a suas contas
e publicações. Os requisitos mínimos são: (a) independência e imparcialidade no processo; (b)
informações sobre a lei e notificação das acusações, com possibilidade de ampla defesa e direito
de resposta; (c) direito a uma decisão fundamentada; e, (v) internet livre e aberta: busca
preservar a arquitetura da internet, voltada para a propagação da inovação e flexibilidade no
transporte das informações. Dessa forma, a responsabilidade dos provedores deve respeitar
essas características.
Conforme analisado ao longo deste capítulo, a moderação possui um amplo campo de
aplicação e pode ser realizada de várias maneiras, pelo que não se resume a uma atividade
binária relacionada à remoção ou permanência de um conteúdo, posterior à ocorrência de uma
determinada publicação. Ela é a principal atividade atrelado ao modelo de negócio das redes
sociais. Destacou-se, em subseção própria, os sistemas de recomendação pelo fato deles serem
responsáveis por grande parte da regulação das atividades das plataformas digitais de redes
sociais, o que concede a elas poder de influência na autodeterminação do usuário e no conteúdo
que será acessado por eles.
No que se refere as soluções aplicadas na moderação, foram mencionados alguns
princípios que devem ser observados pelas plataformas ao eleger os remédios escolhidos
quando se deparam com um conteúdo prejudicial. O capítulo também apresentou os perigos e
problemas enfrentados na moderação de conteúdo. Sobre esse último ponto, foi ressaltado que
os Estados não são mais os únicos atores que podem violar os direitos fundamentais, sendo
certo que, as plataformas de redes sociais, mesmo tendo uma natureza privada, no desempenho

171
ZINGALES, Nicolo. The Brazilian approach to internet intermediary liability: blueprint for a global regime?
Internet Policy Review, Journal on internet regulation, v. 4, n. 4, 2015. P. 7-9. Disponível em:
https://policyreview.info/articles/analysis/brazilian-approach-internet-intermediary-liability-blueprint-global-
regime
64

de suas atividades podem afetar os direitos fundamentais. É sobre esse ponto que será o debate
do próximo capítulo.
65

3 OS DIREITOS FUNDAMENTAIS AFETADOS PELA MODERAÇÃO DE


CONTEÚDO ONLINE

A disrupção172 causada pela tecnologia digital através de novos modelos de negócios


permitiu uma revolução econômica, social e tecnológica, concedendo grande poder as empresas
de tecnologia sobre a economia global de dados e sobre a produção e circulação de notícias.
Essa mudança ampliou as possibilidades para os indivíduos exercerem seus direitos
fundamentais, mas também criou novas fontes de ameaça a esses direitos.
Tradicionalmente, o direito preocupa-se em proteger os indivíduos de uma determinada
sociedade de violações em seus direitos fundamentais decorrentes de ações estatais. No entanto,
as plataformas digitais já demonstraram que possuem grande influência e poder sobre o
comportamento das pessoas e o modo como elas exercem seus direitos baseados em troca de
informações (liberdade de expressão, liberdade religiosa, liberdade de reunião e a livre
iniciativa).
Quando as redes sociais exercem a moderação de conteúdo, elas tomam decisões que
regulam o ambiente online e, invariavelmente, afetam direitos dos usuários. A criação de regras
internas e sua aplicação pelas plataformas têm repercussões sobre o exercício de direitos
fundamentais, protegidos pelos Estados, como, por exemplo, a liberdade de expressão, a
privacidade e o devido processo legal.
A medida que o poder das plataformas foi crescendo, a comunidade acadêmica passou
a alertar sobre a necessidade desses entes intermediários também protegerem os direitos

172
O termo disrupção, aqui, é utilizado para retratar a situação de rompimento do curso normal de processos
econômicos, na qual se rompe a lógica de prestação do serviço anterior para explorar, ao mesmo tempo, o mesmo
serviço, sob uma nova ótica, com objetivo de promover maior eficiência em benefício dos consumidores.
MOREIRA, Egon Bockmann. Situações Disruptivas, Negócios Jurídico-Administrativos e Equilíbrio Econômico-
Financeiro, in: FREITAS, Rafael Véras de; RIBEIRO, Leonardo Coelho; FEIGELSON, Bruno (Organização).
Regulação e Novas Tecnologias, Belo Horizonte, Fórum, 2017.
66

humanos173, notadamente, a liberdade de expressão (por todos, David Kaye174, La Rue175). Essa
necessidade decorre do uso crescente de moderação de conteúdo pelas redes sociais em seus
espaços, não só por consequência da aplicação de suas regras internas, mas também em razão
de pedidos estatais176, que demandam que as plataformas protejam o espaço digital contra
conteúdos ilícitos e prejudiciais à sociedade (terrorismo, pedofilia, desinformação, etc).
Como recomendação, o Conselho da Europa177 entende que as regras elaboradas
referentes à moderação de conteúdo devem garantir a inviolabilidade dos direitos humanos, isto
é, as plataformas devem implementar a regulação dos direitos humanos por design , vale dizer,
o padrão é o respeito aos direitos humanos, sendo as restrições excepcionalmente aceitas
quando necessárias e proporcionais. Dessa forma, o Conselho Europeu advertiu que, se os
Estados optarem por sistemas de corregulação, ou apostarem na autorregulação das plataformas
digitais, eles devem garantir a salvaguarda dos direitos humanos e implementar princípios de
previsibilidade e proporcionalidade para as restrições, eventualmente, realizadas.
O presente capítulo fará uma análise dos principais direitos afetados pelas plataformas
digitais de redes sociais. O foco nas plataformas digitais de redes sociais não sugere que elas
sejam as únicas plataformas que possam violar os direitos fundamentais, mas, em razão do
escopo deste trabalho, a preocupação está na censura da informação e expressão e na influência
sobre a autodeterminação dos indivíduos, sem nenhuma transparência e justificativa aos seus
usuários.

173
Importante ressaltar, neste ponto, a diferença entre direito fundamental e direito humano. Conforme ensinado
por Ingo Sarlet, “o termo “direitos fundamentais” se aplica àqueles direitos (em geral atribuídos à pessoa humana)
reconhecidos e positivados na esfera do direito constitucional positivo de determinado Estado,ao passo que a
expressão “direitos humanos” guarda relação com os documentos de direito internacional, por referir-se àquelas
posições jurídicas que se reconhecem ao ser humano como tal, independentemente de sua vinculação com
determinada ordem constitucional, e que, portanto, aspiram à validade universal, para todos os povos e em todos
os lugares, de tal sorte que revelam um caráter supranacional (internacional) e universal”. SARLET, Ingo
Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO, Daniel. Curso de direito constitucional. 8. ed. – São
Paulo: Saraiva Educação, 2019, pp. 390-391.
174 KAYE, David. 2017. “Report on the Roles Played by Private Actors Engaged in the Provision of Internet and
Telecommunications Access” A/HRC/35/22. Geneva: Human Rights Council. Disponível em:
https://www.ohchr.org/en/calls-for-input/reports/2017/report-role-digital-access-providers
175
LA RUE, Frank. 2011. “Report on Key Trends and Challenges to the Right of All Individuals to Seek, Receive
and Impart Information and Ideas of All Kinds through the Internet.” A/HRC/17/27. May 6. Geneva: Human
Rights Council.Disponível em:
https://www2.ohchr.org/english/bodies/hrcouncil/docs/17session/a.hrc.17.27_en.pdf
176
KREIMER, Seth F. Censorship by Proxy: The First Amendment, Internet Intermediaries, and the Problem of
the Weakest Link. University of Pennsylvania Law Review, 2006, 155 (1), pp. 11–101.
177
STEERING COMMITTEE FOR MEDIA AND INFORMATION SOCIETY. Content Moderation. Best
Practices towards effective legal and procedural frameworks for self-regulatory and co-regulatory mechanisms of
content moderation. Council of Europe. 2021. Disponível em: https://edoc.coe.int/en/internet/10198-content-
moderation-guidance-note.html Acesso em 10/10/2021.
67

Esse capítulo, portanto, se debruçará nas responsabilidades que esses entes


intermediários devem possuir em relação ao respeito dos direitos humanos que, se não forem
estabelecidas por leis, devem ser estabelecidas por sistemas autorregulatórios ou
corregulatórios eficazes. Para isso serão analisados três direitos fundamentais: a liberdade de
expressão, a privacidade e o devido processo, fornecendo em cada subseção um enfoque sob a
perspectiva brasileira. Será, também, ao final do capítulo oferecida uma visão geral do
constitucionalismo digital, cujo objetivo é desenvolver limites ao poder exercido pelos atores
privados e públicos em um contexto em que ambos podem afetar a proteção dos direitos
fundamentais.

3.1 Direito à Liberdade de expressão

As plataformas digitais através de suas políticas e termos de uso regulam o


comportamento do usuário, fazendo escolhas sobre o que é permitido ou não de ser expressado
em suas redes. Essas escolhas não se relacionam somente com o conteúdo considerado ilícito
pelo ordenamento jurídico de onde está localizado o usuário, mas também envolvem o conteúdo
considerado apropriado para uma determinada comunidade. E, dependendo do seu agir, elas
podem violar à liberdade de expressão dos usuários.
A título de exemplo, pode-se mencionar os casos que envolvem conteúdos prejudiciais
à sociedade, como, discurso de ódio e desinformação, abordados no capítulo anterior. O
provedor, uma vez notificado de um conteúdo falso ou enganoso pelo usuário, irá analisá-lo de
acordo com seus termos de política e privacidade de uso. Se o conteúdo publicado os ofender,
será possível a plataforma removê-lo, não havendo, ao contrário, obrigação de remoção do
conteúdo quando recebida a notificação pelo usuário178.
Um caso emblemático foi a utilização do Facebook para propagação de discurso de ódio,
quando, em 2014, um monge extremista e anti-mulçulmano, Ashin Wirathu, postou uma
mensagem de que uma menina budista havia sido estuprada por mulçumanos. Posteriormente,
descobriu-se que a notícia era falsa, no entanto, investigadores de direitos humanos da ONU
concluíram que os discursos de ódio postados na plataforma eram os principais motores para a

178
TEFFÉ, Chiara. Fake News: Como proteger a liberdade de expressão e inibir notícias falsas? ITS Rio. 19 de
março de 2018. https://feed.itsrio.org/fake-news-como-proteger-a-liberdade-de-express%C3%A3o-e-inibir-
not%C3%ADcias-falsas-8058aedd9f5c Acesso em 10/10/2020.
68

incitação de uma grande onda de violência em Mianmar, o que levou o Facebook a atuar com
mais força na remoção de mensagens compartilhadas e exclusão de contas179.
Ainda hoje, o referido país sofre com a intervenção da plataforma. Após os militares
tomarem o poder, em fevereiro de 2021, com a alegação de fraude eleitoral nas eleições de
novembro de 2020 e prisão da líder Aung San Suu Kyi, pertencente ao partido Liga Nacional
pela Democracia (LND), a situação tornou- se mais complicada. Grupos armados que lutavam
pela autodeterminação dos muçulmanos (Rohingyas) no estado de Rakhine, antes considerados
terroristas pela LND, tiveram esse rótulo retirado após a reformulação do cenário político.
As organizações armadas étnicas passaram a ser aliadas do Governo democraticamente
eleito em 2020. No entanto, ainda assim, esses ativistas relatam que não podem usar as redes
sociais para mostrar o que acontece no país. Além de restringir o conteúdo relacionado às
insurgências armadas, os bloqueios também ocorrem nas postagens sobre violações a direitos
humanos direcionadas às minorias étnicas. O Facebook não removeu as restrições aos grupos
étnicos minoritários, exercendo uma censura velada aos grupos que lutam contra o atual
Governo, apesar de afirmar que prioriza a liberdade de expressão para todos os cidadãos180.
As plataformas ao moderarem o conteúdo, possuem incentivos de natureza comercial
sobre quais conteúdos poderão ser removidos ou permanecer na rede, ser ampliados,
recomendados, entre outras ações, em seus espaços e não há transparência efetiva sobre essa
como essa regulação é efetivada. Anunciantes que geram receita para as plataformas preferem
um espaço privado de comunicação saudável, mas com conteúdo que gere engajamento. Os
usuários, por outro lado, também podem influenciar indiretamente nas escolhas dessas
plataformas com suas preferências de remoção ou permanência de determinado conteúdo.
Todas essas situações limitam a liberdade de expressão para muito além de um exame de
ponderação à vista da colisão de direitos181.
Para dificultar esse cenário e torná-lo mais espinhoso, acrescentam-se eventuais
violações de direitos humanos pelos provedores de serviço em lugares onde vigora o regime de
notice and takedown182. Através desses sistemas é possível que os entes intermediários atuem,

179
ASHER. Saira. 04 de fevereiro de 2021. Myanmar coup: How Facebook became the 'digital tea shop'. BBC
News. https://www.bbc.com/news/world-asia-55929654 Acesso em: 05/07/2021.
180
HLAING, Kyaw Hsan. 14 de maio de 2021. Facebook is still censoring groups fighting the military coup in
Myanmar. Rest of world. Reporting Tech Stories. https://restofworld.org/2021/facebook-is-still-censoring-
groups-fighting-the-military-coup-in-myanmar/ Acesso em: 05/07/2021.
181
HARTMANN, Ivar, SARLET, Ingo. Direitos fundamentais e direito privado: a proteção da liberdade de
expressão nas mídias sociais. Direito Público, 16(90). 2019, p. 96. Disponível em:
https://www.portaldeperiodicos.idp.edu.br/direitopublico/article/view/3755 Acesso em 10/10/2021.
182
Conforme explicado no capítulo anterior, é uma espécie de sistema para responsabilizar as plataformas por
conteúdos de terceiros. Nesse sistema inexiste a obrigação de filtragem prévia de conteúdo – imagens e dados,
69

voluntariamente ou covardemente, como procuradores do Estado para regular e censurar


conteúdos postados na rede, um processo denominado por Kreimer183 de “privatização da
censura”.
Outra possibilidade de a atividade de moderação de conteúdo violar a liberdade de
expressão é proporcionada pelos Estados quando criam inúmeras proibições para o discurso
online através de legislações que responsabilizam as plataformas. A crítica frequentemente
observada é que as plataformas, muitas vezes, são sobreinclusivas, agindo com exagero de
remoções de conteúdos para não serem penalizadas financeiramente ou criminalmente184. Essa
postura é chamada pelo Conselho Europeu de “excesso de conformidade” (overcompliance)185.
Um Guia elaborado pelo Conselho Europeu sobre melhores práticas de moderação de
conteúdo destaca o cuidado que se deve ter com a adoção desse política, vez que “como
resultado, ideias, explicitamente protegidas pela Convenção Europeia de Direitos Humanos,
tais como aquelas que ofendem, chocam ou perturbam o Estado ou qualquer setor da população,
tem poucas chances de serem protegidas na prática”186.
Na Alemanha, o Network Enforcment Act (Netzwerkdurchsetzungsgesetz or NetzDG),
promulgado em 2017 e, em vigor, a partir de janeiro de 2018, é uma tentativa de responsabilizar
as plataformas digitais pelos conteúdos de ódio, considerados ilegais pela legislação alemã, que
incluem categorias como incitação ao ódio, disseminação de violência, formação de
organizações terroristas, uso de símbolos de organizações inconstitucionais, pornografia
infantil, entre outros187.

inseridos em seus sistemas, porém cabe aos provedores, ao receberem a comunicação a respeito de conteúdo ilícito
ou ofensivo de um usuário, retirar preventivamente a postagem, supostamente ofensiva, da rede, podendo checar
a veracidade das alegações em momento futuro. Não o fazendo, haveria responsabilidade solidária pelos danos.
183
KREIMER, Seth F. 2006. Censorship by Proxy: The First Amendment, Internet Intermediaries, and the Problem
of the Weakest Link. University of Pennsylvania Law Review 155 (1), pp. 6-22. Disponível em:
https://scholarship.law.upenn.edu/penn_law_review/vol155/iss1/4/ Acesso em 10/10/2021.
184
LA RUE, Frank. Report on Key Trends and Challenges to the Right of All Individuals to Seek, Receive and
Impart Information and Ideas of All Kinds through the Internet. A/HRC/17/27. Geneva: Human Rights
Council.2011.
185
STEERING COMMITTEE FOR MEDIA AND INFORMATION SOCIETY. Content Moderation. Best
Practices towards effective legal and procedural frameworks for self-regulatory and co-regulatory mechanisms of
content moderation. Council of Europe. 2021, p. 28. Disponível em: https://edoc.coe.int/en/internet/10198-
content-moderation-guidance-note.html Acesso em 10/10/2021.
186
STEERING COMMITTEE FOR MEDIA AND INFORMATION SOCIETY. Content Moderation. Best
Practices towards effective legal and procedural frameworks for self-regulatory and co-regulatory mechanisms of
content moderation. Council of Europe, p. 25. Disponível em: https://edoc.coe.int/en/internet/10198-content-
moderation-guidance-note.html Acesso em 10/10/2021. Trecho original: As a result, ideas, explicitly protected by
the European Convention on Human Rights, such as those “that offend, shock or disturb the State or any sector
of the population,” have little chance of being protected in practice.
187
TWOREK, Heidi; LEERSSEN, Paddy. Na analysis of germany´s NetzDg Law. Transatalntic Working Group.
2019. Disponível em: NetzDG_Tworek_Leerssen_April_2019.pdf (ivir.nl) Acesso em 10/10/2021
70

A referida lei exige que as plataformas forneçam um mecanismo para que os usuários
enviem reclamações sobre conteúdo indevido. Uma vez instaurada a denúncia, as plataformas
devem investigar o caso. Se o conteúdo for manifestamente ilegal deve ser removido em 24hs.
Se, apenas ilegal, a remoção deve ser feita em 7 dias. O não cumprimento sujeita a plataforma
infratora à multa de até 50 milhões de euros.
Diversos críticos preocupam-se com as consequências da referida lei para a liberdade
de expressão, afirmando que, da forma como foi posta, pode encorajar a remoção de conteúdos
legais, gerando uma remoção excessiva, já que as plataformas não teriam tempo para avaliar
cada reclamação em detalhes. À vista do alto valor das multas e prazos justos, as plataformas
teriam forte incentivo para obedecer a maioria das reclamações. Há, ainda, aqueles que criticam
a lei pelo fato de a remoção ser feita independentemente de um mandado judicial, o que
concederia as plataformas um poder decisório muito grande, privatizando a execução de atos
estatais188.
A liberdade de expressão, considerada uma liberdade pública no sentido de
corresponder a um poder de autodeterminação do indivíduo, é reconhecida como um direito
humano, cuja proteção encontra-se na Declaração Universal de Direitos Humanos (DUDH)189
e na Convenção Internacional de Direitos Civis e Políticos190 (artigo 19 em ambos os
documentos). Em que pese a elaboração desses documentos ser voltada para a proteção dos
direitos humanos perante os Estados, trazendo, portanto, deveres aos atores estatais, há
estudos191 que apontam um grande debate em torno da inclusão de atores não-estatais ( as redes
sociais, por exemplo) como portadores de deveres para com o direito à liberdade de expressão.

188
TWOREk, Heidi; LEERSSEN, Paddy. Na analysis of germany´s NetzDg Law. Transatalntic Working
Group. Disponível em: NetzDG_Tworek_Leerssen_April_2019.pdf (ivir.nl) 2019. Acesso em 10/10/2021
189
NAÇÕES UNIDAS. Declaração Universal de Direitos Humanos. Disponível em:
https://www.ohchr.org/en/human-rights/universal-declaration/translations/portuguese?LangID=por Acesso em
10/10/2021. Art. 19 da DUDH: Todo o indivíduo tem direito à liberdade de opinião e de expressão, o que implica
o direito de não ser inquietado pelas suas opiniões e o de procurar, receber e difundir, sem consideração de
fronteiras, informações e idéias por qualquer meio de expressão.
190
BRASIL, Decreto nº592 de 6 de julho de 1992. Atos Internacionais. Pacto Internacional sobre Direitos
Civis e Políticos. Promulgação. Disponível em: http://www.planalto.gov.br/ccivil_03/decreto/1990-
1994/d0592.htm Acesso em 10/10/2021. Artigo 19: 1. Ninguém poderá ser molestado por suas opiniões. 2. Toda
pessoa terá direito à liberdade de expressão; esse direito incluirá a liberdade de procurar, receber e difundir
informações e idéias de qualquer natureza, independentemente de considerações de fronteiras, verbalmente ou por
escrito, em forma impressa ou artística, ou por qualquer outro meio de sua escolha. 3.O exercício do direito previsto
no parágrafo 2 do presente artigo implicará deveres e responsabilidades especiais. Conseqüentemente, poderá estar
sujeito a certas restrições, que devem, entretanto, ser expressamente previstas em lei e que se façam necessárias
para: a) assegurar o respeito dos direitos e da reputação das demais pessoas; b) proteger a segurança nacional, a
ordem, a saúde ou a moral públicas.
191
Por todos, há artigo escrito por Agnès Callamard, “The Human Rights Obligations of Non-state Actors”, que
realiza uma pesquisa sobre os documentos preparatórios para a promulgação da DUDH e CIDCP. CALLAMARD,
AGNÉS. The Human Rights Obligations of Non-State Actors. In: Human rights in the age of platforms. Editor:
71

Isso porque já se reconhecia, à época dos atos preparatórios para elaboração da DUDH,
período que sucedeu a segunda guerra mundial, que os Governos não eram os únicos que
poderiam censurar e interferir na produção de ideias, mas também a mídia de um modo geral,
o que inclui todos aqueles que controlam a tecnologia, desde jornais à intermediários na
internet. Em que pese, os atores não-estatais não serem considerados como portadores de
deveres no mesmo nível que os Estados, eles carregam obrigações de respeito aos direitos
humanos (diferentes daquelas impostas ao Estado), o que será analisado mais à frente neste
capítulo.
De uma forma geral, o direito à liberdade de expressão é especial porque através dele se
exerce a democracia, pelo que o discurso deve sempre ser encorajado e não restringido.
Quaisquer restrições à fala precisam ser previamente e claramente delimitadas. Fazer isso
globalmente é difícil porque cada país tem regras próprias que definiem os contornos desse
direito. Por isso, o contexto do exercício da fala também é importante, o que torna a moderação
de conteúdo das plataformas, em larga escala, especialmente desafiadoras.

3.1.1 Perspectiva brasileira

No Brasil, não há uma definição precisa sobre o conceito de direito à liberdade de


expressão, o que é justificável a partir das inúmeras liberdades protegidas pelo artigo 5º da
CRFB192. A Constituição não adotou o termo como um gênero que abrange outras liberdades
específicas. Ao contrário, assume essa condição a liberdade de pensamento, prevista no artigo
5º, IV, da CRFB193, já que essa poderá ocorrer na esfera da comunicação social, exercício da
atividade intelectual ou artística, etc.
Dessa forma, depreende-se que a liberdade de pensamento é uma cláusula geral que
comporta várias formas e direitos conexos, como por exemplo, liberdade de opinião (artigo 5º,

Rikke Frank Jørgensen: Cambridge, MA: The MIT Press. 2019. Disponível em:
file:///C:/Users/user/Downloads/1005622.pdf Acesso em 10/01/2022.
192
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
193
Artigo 5º: Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e
aos estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à
propriedade, nos termos seguintes. Inciso IV: é livre a manifestação do pensamento, sendo vedado o anonimato.
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
72

IV, da CRFB194), liberdade de expressão artística (artigo 5º, IX, CRFB195), liberdade de ensino
e pesquisa (artigo, 206, II da CRFB196), liberdade de comunicação e informação (artigo 5º,
IX197, XIV198 e 220199, ambos da CRFB), e liberdade religiosa (artigo 5º, VI, da CRFB200), que
forma o arcabouço jurídico constitucional que reconhece e protege a liberdade de expressão nas
suas diversas manifestações201.
Segundo Ingo Sarlet, a liberdade de expressão consiste na emissão de “juízos de valor a
respeito de fatos, ideias, juízos de valor sobre opinião de terceiros, etc”202. Pode-se dizer que a
liberdade de expressão é entendida como liberdade de opinião, que nas palavras da Constituição

194
Artigo 5º: Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e
aos estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à
propriedade, nos termos seguintes. Inciso IV: é livre a manifestação do pensamento, sendo vedado o anonimato.
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
195
Artigo 5º: Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e
aos estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à
propriedade, nos termos seguintes. Inciso IX: é livre a expressão da atividade intelectual, artística, científica e de
comunicação, independentemente de censura ou licença. BRASIL, Constituição Federal. Constituição da
República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
196
Artigo 206: O ensino será ministrado com base nos seguintes princípios: Inciso II: liberdade de aprender,
ensinar, pesquisar e divulgar o pensamento, a arte e o saber. BRASIL, Constituição Federal. Constituição da
República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
197
Artigo 5º: Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e
aos estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à
propriedade, nos termos seguintes. Inciso IX: é livre a expressão da atividade intelectual, artística, científica e de
comunicação, independentemente de censura ou licença. BRASIL, Constituição Federal. Constituição da
República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
198
Artigo 5º: Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e
aos estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à
propriedade, nos termos seguintes. Inciso XIV: é assegurado a todos o acesso à informação e resguardado o sigilo
da fonte, quando necessário ao exercício profissional. BRASIL, Constituição Federal. Constituição da República
Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
199
Artigo 220: A manifestação do pensamento, a criação, a expressão e a informação, sob qualquer forma, processo
ou veículo não sofrerão qualquer restrição, observado o disposto nesta Constituição. BRASIL, Constituição
Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
200
Artigo 5º: Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e
aos estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à
propriedade, nos termos seguintes. Inciso VI: é inviolável a liberdade de consciência e de crença, sendo assegurado
o livre exercício dos cultos religiosos e garantida, na forma da lei, a proteção aos locais de culto e a suas liturgias.
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
201
Este trabalho, contudo, adotará a liberdade de expressão como um conceito genérico para uma análise conjunta
de todas as liberdades comunicativas que, com as devidas ressalvas, podem ser analisadas em bloco. Assim, pode-
se referir a esse direito tanto como liberdade de pensamento, relacionando-os aos juízos intelectivos, como também
o externar de sensações, como espiritualidade, expressões verbais, musical, artes e outros. SARLET, Ingo
Wolfgang, Marinoni, Luiz Guilherme e Mitidiero, Daniel. Curso de direito constitucional. 8. ed. – São Paulo:
Saraiva Educação, 2019. P. 632-633.
202
SARLET, Ingo Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO, Daniel. Curso de direito
constitucional. 8. ed. – São Paulo: Saraiva Educação, 2019, pp. 636-637.
73

Federal, foi equiparada a pensamento. Nesse sentido, o âmbito de proteção (conteúdo) é a


opinião, devendo essa ser compreendida em sentido amplo, de forma a englobar “manifestações
de opiniões, ideias, pontos de vistas, convicções, críticas, juízos de valor sobre qualquer matéria
ou assunto ou mesmo proposições a respeito de fatos”203, inclusive sob a forma de sinais, gestos,
imagens, sons, inclusive mensagens publicadas nas variadas plataformas digitais.
É reconhecido pela doutrina (por todos, Ingo Sarlet204, Gilmar Mendes205) que a
liberdade de pensamento juntamente com a liberdade de expressão são os direitos fundamentais
mais valiosos e encontram fundamento na dignidade da pessoa humana, no que se relaciona à
autodeterminação do indivíduo.
É importante destacar que esse direito traz consigo uma dimensão negativa, ou seja,
direito de a pessoa não ser impedida de expressar ou divulgar suas opiniões, e uma dimensão
positiva, isto é, direitos subjetivos a prestações, importando em deveres estatais de proteção.
Esse ponto é exemplificado por Ivar Hartmann: “ ainda que o direito à vida de indivíduo tenha
uma dimensão negativa na proibição de que o Estado tire sua vida, exige também uma atuação
positiva do Estado que comumente constitui a manutenção de uma força policial para impedir
que outros indivíduos o assassinem” 206
. É essa dimensão positiva que poderá servir como
fundamento para que o Estado regule a atividade das plataformas, conforme será abordado no
capítulo cinco.
Sob uma perspectiva social e política, a liberdade de expressão garante o exercício da
democracia e do pluralismo político, facilitando e garantindo que o debate seja aberto, com
pluralidade de ideias, livre de censura e opressão por parte do Estado. A adoção de um regime
democrático, portanto, pressupõe um ambiente em que as ideias e vozes sejam livres. Nas
palavras de José Antônio Dias Toffoli, a “democracia somente se firma e progride em um

203
SARLET, Ingo Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO, Daniel. Curso de direito
constitucional. 8. ed. – São Paulo: Saraiva Educação, 2019, pp. 632-633
204
SARLET, Ingo Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO, Daniel. Curso de direito
constitucional. 8. ed. – São Paulo: Saraiva Educação, 2019, p. 635.
205
MENDES, Gilmar Ferreira, BRANCO, Paulo Gustavo Goulart. Curso de Direito Constitucional.13ª Edição
Rev. e Atual. São Paulo. Saraiva. 2018.
206 HARTMANN, Ivar A. M. A Right to Free Internet? On Internet Access and Social Rights. Journal of High
Technology Law, v. XIII, pp. 362-429, 2013, p. 371. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2355900 Acesso em 10/06/2022. Trecho original: That is to
say, even though an individual’s right to life has a predominant negative dimension in the prohibition that the
state take her life, it also requires a positive performance by the state which commonly constitutes maintaining a
police force to keep other individuals from murdering her.
74

ambiente em que diferentes convicções e visões de mundo possam ser expostas, defendidas e
confrontadas umas com as outras, em um debate rico, plural e resolutivo” 207.
Sob o aspecto acima mencionado, a liberdade de expressão é analisada em sua dimensão
objetiva, ou seja, como uma pedra de toque para o Estado Democrático de Direito e para a
própria dignidade humana. Cuida-se de um valor para a comunidade em geral, motivo pela qual,
sob essa perspectiva, a liberdade de expressão adquire dimensão transindividual.
A liberdade de expressão, amplamente defendida pelo constituinte, apresenta proteção
destacada no Marco Civil da Internet, pois é considerada, ao mesmo tempo, fundamento e
princípio para o uso da internet no Brasil e condição para o exercício do direito de seu acesso.
O próprio sistema de responsabilidade lastreado a partir do artigo 19 do MCI, abordado no
capítulo anterior, permite essa conclusão. Segundo Teffé e Bodin, no caso do marco civil da
internet, o legislador “pendeu para a liberdade de expressão por se tratar de lei cujo objeto se
encontra diretamente vinculado à expressão humana e, portanto, ao aludido princípio”208.
Importante destacar que esse direito não é contrário a limites, tampouco se sobrepõe aos
demais. Nenhuma liberdade é absoluta, devendo coexistir de forma harmônica com outros
direitos protegidos constitucionalmente. Quando analisada de forma casuística, a solução passa
pela aplicação do critério da ponderação através do princípio proporcionalidade realizada pelo
Poder Judiciário.
A operacionalização desse critério ocorre através do emprego de três elementos: (i)
adequação (se através da utilização do meio empregado pode-se alcançar o evento pretendido),
(ii) necessidade (se há outros meios eficazes, porém menos restritivos aos direitos
fundamentais) e, (iii) proporcionalidade em sentido estrito (controle da sintonia fina, indicando
a justeza da solução encontrada)209, de forma que, ao final, o direito à liberdade de expressão
não possa salvaguardar, em sua abrangência, condutas de conteúdo ilícito210.

207
TOFFOLI, José Antônio Dias. Fake news, desinformação e liberdade de expressão. Fake News e Regulação.
Organização: Georges Abboud, Nelson Nery Jr. E Ricardo Campos. 2ed. rev., atual. e ampl. - São Paulo: Thomson
Reuters Brasil. Coleção Direito e Estado em transformação. 2020, p. 21.
208
DE TEFFÉ, Chiara Spadaccini; DE MORAES, Maria Celina Bodin. Redes sociais virtuais: privacidade e
responsabilidade civil. Análise a partir do Marco Civil da Internet. Pensar-Revista de Ciências Jurídicas, v. 22,
n. 1, p. 108-146, 2017, p. 113.
209
MENDES, Gilmar Ferreira, BRANCO, Paulo Gustavo Goulart. Curso de Direito Constitucional.13ª Edição
Rev. E Atual. São Paulo. Saraiva. 2018.
210
A liberdade de expressão, para parte da doutrina, assume uma posição preferencial quando em conflito com
outros direitos constitucionais, o que pode ser visualizado no julgamento sobre a inconstitucionalidade do artigo
16 da Lei de Imprensa na ADPF 130, que criminalizava fake news, ao considerar o ato de “publicar ou espalhar
notícias falsas” uma infração penal. Esse precedente garantiu a prevalência da liberdade de expressão. No entanto,
o Supremo Tribunal Federal (STF), não adotou o entendimento da Suprema Corte Americana que defende a
prevalência da liberdade de expressão nos casos de discursos de ódio. Para a Corte Constitucional, embora
possamos falar em uma posição preferencial da liberdade de expressão, não se trata de direito absolutamente
infenso a limites e restrições, desde que essa restrição tenha caráter excepcional e seja promovida por lei e/ou
75

Além da proporcionalidade211, é importante destacar dois pontos correspondentes


quando ocorrem eventuais restrições à liberdade de expressão: a vedação à censura e o
anonimato previstos na Constituição Federal. O artigo 5º, IX e 220, § 2º, da CRFB212,
estabelecem a impossibilidade do exercício de qualquer tipo de censura213, o que representa
uma forte reação do constituinte ao período da ditadura militar. Por outro lado, a vedação ao
anonimato214 foi garantida para permitir eventual responsabilização civil e penal do autor de
alguma manifestação ofensiva.
Dessa forma, o direito à liberdade de expressão, apesar de extremamente importante
para os indivíduos e sociedade, o que pode lhe conceder uma certa posição de vantagem no
caso de conflitos com outros direitos fundamentais, não dispensa considerar as exigências da
proporcionalidade e outros critérios, vez que não se trata de direito absoluto. Por isso, ele não
deve respaldar a alimentação ao ódio, a intolerância, ao racismo e à desinformação, podendo,
nesses casos, sofrer restrição, sob pena de prejudicar o desenvolvimento da própria democracia.
Todas essas situações representam o abuso do direito à liberdade de expressão pelo
titular quando, ao exercê-lo, excede os limites sociais impostos por ele. Entretanto, reconhecer

decisão judicial. LENZA, Pedro. Direito Constitucional Esquematizado. 20 ed.rev.atual. e ampl. – São Paulo:
Saraiva, 2016, pp 1183-1185.
211
Internacionalmente, também é relevante apontar para o relatório anual sobre a promoção e proteção do direito
à liberdade de expressão, que preconiza que a restrição ou qualquer limitação ao direito à liberdade de expressão
deve passar por três etapas cumulativas do seguinte teste: (a) It must be provided by law, which is clear and
accessible to everyone (principles of predictability and transparency); and (b) It must pursue one of the purposes
set out in article 19, paragraph 3, of the Covenant, namely (i) to protect the rights or reputations of others, or (ii)
to protect national security or of public order, or of public health or morals (principle of legitimacy); and (c) It
must be proven as necessary and the least restrictive means required to achieve the purported aim (principles of
necessity and proportionality). LA RUE, Frank. Report of the Special Rapporteur on the promotion and protection
of the right to freedom of opinion and expression.. Conselho de Direitos Humanos. 2011, p. 8. Disponível em:
https://www2.ohchr.org/english/bodies/hrcouncil/docs/17session/a.hrc.17.27_en.pdf Acesso em 10/06/2022.
212
Artigo 5º: Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e
aos estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à
propriedade, nos termos seguintes. Inciso IX: é livre a expressão da atividade intelectual, artística, científica e de
comunicação, independentemente de censura ou licença; e Artigo 220: A manifestação do pensamento, a criação,
a expressão e a informação, sob qualquer forma, processo ou veículo não sofrerão qualquer restrição, observado o
disposto nesta Constituição. § 2º É vedada toda e qualquer censura de natureza política, ideológica e artística.
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
213
Ingo Sarlet define censura como “restrição à liberdade de expressão realizada pela autoridade administrativa e
que resulta na proibição da veiculação de determinado conteúdo”. A ampliação do conceito para outras
intervenções prévias é alvo de debate acirrado, segundo o autor, o que prevalece é “para assegurar a liberdade de
expressão, a proibição de censura e de licença deve ser compreendida em sentido amplo, de modo a abarcar não
apenas a típica censura administrativa, mas também outras hipóteses de proibição ou limitação da livre expressão
e circulação de informações e ideias”. SARLET, Ingo Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO,
Daniel. Curso de direito constitucional. 8. ed. – São Paulo: Saraiva Educação, 2019, p. 642.
214
Esse ponto foi objeto de acirrado debate no projeto de lei 2630/20, que trata da regulação das atividades das
plataformas digitais. Sobre o anonimato, recomenda-se: WIMMER, Miriam, CARVALHO, Lucas Borges. O papel
e os limites do anonimato: em busca de uma interpretação constitucionalmente adequada. Pensar. Revista de
Ciências Jurídicas. v. 27, n. 2, p. 1-16, abr./jun. 2022. Disponível em: file:///C:/Users/user/Downloads/13041-
Texto%20do%20Artigo-54711-54427-10-20220602.pdf Acesso em: 05/07/2022.
76

que esse exercício pode ser restringido em prol de outros, igualmente, importantes, nos
direciona à indagação a respeito da legitimidade das plataformas para essa tarefa (poderiam elas
restringir a fala?) e sobre o modo do exercício da moderação de conteúdo (sem nenhuma
explicação aos usuários sobre as decisões tomadas). Esses temas serão aprofundados nos
capítulos 4 e 5.

3.2 Direito à privacidade

A permeabilidade da digitalização na sociedade possibilita uma hiperconexão nas mais


variadas dimensões – entre pessoas, pessoas e máquinas e entre máquinas. Esse ambiente é
alimentado pela numerosa quantidade de dispositivos conectados, que compartilham,
processam e armazenam uma enorme quantidade de dados, conhecido como big data215.
Com o advento das novas tecnologias, as plataformas de redes sociais construíram um
modelo de negócios baseado na livre circulação dos dados, conforme analisado na introdução
deste trabalho. O controle das informações relativas à personalidade sempre foi de interesse
estatal. Segundo Danilo Doneda, um pressuposto para uma administração pública eficiente “é
o conhecimento acurado de sua população, o que implica, por exemplo, a realização de censos
e pesquisas e o estabelecimento de regras para tornar compulsórias a comunicação de
determinadas informações pessoais a administração pública” 216. A atividade de coleta de dados
não era atraente para as empresas privadas em razão dos altos custos, tanto para o seu
tratamento, como para a própria coleta. Contudo, esse panorama mudou com o avanço da
tecnologia da informação e tornou a atividade interessante também para os atores privados.
Dessa forma, um acervo amplo de informações coletados sobre uma determinada pessoa
permite a elaboração de perfis de consumo (profiling), sob o pretexto de personalizar a
experiência do usuário (o que, de fato, ocorre), mas que aumentam o controle sobre a pessoa

215
ZARSKY, Tal. Incompatible: The GDPR in the Age of Big Data. Seton Hall Law Review. N. 47, 2017.
Disponível em: https://bit.ly/2Ln5yE7 Acesso em 10/10/2020. O autor descreve essa enorme quantidade de dados
coletados, analisados e que servem de fontes de novas informações como um conceito que envolve o volume de 4
(quatro) “V”, vale dizer, que se relacionam com o volume de dados coletados; variedade de fontes; velocidade de
análise de dados; e, veracidade que os dados devem alcançar após o processo analítico. O autor aplica o termo “big
data” para destacar a mudança profunda na forma como que os dados são coletados, armazenados e, após,
utilizados, tudo como resultado do processo tecnológico.
216
DONEDA, Danilo. Da privacidade à proteção de dados: elementos da formação da Lei Geral de Proteção
de Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, p.34.
77

humana, desconsiderando sua autodeterminação, notadamente, através de sua participação no


processo decisório relacionado ao uso dos seus dados pessoais.
Essa dinâmica trouxe um novo tipo de compreensão acerca da esfera humana privada,
diferente do universo da privacidade, inspirado na cultura do direito de estar sozinho (right to
be alone) do direito estadunidense217, em que se buscava manter a essência pessoal, gostos e
hábitos fora do conhecimento público218.
A concepção inicial do direito à privacidade preocupava-se com a inexistência de
proteção legal contra o mau uso de informações pessoais verdadeiras. Isso porque com a
evolução dos meios de comunicação, fotos instantâneas e notícias de jornais passaram a invadir
a esfera individual das pessoas, tornando públicos os fatos que, antes, estavam subtraídos do
conhecimento de outras pessoas. Percebeu-se, com isso, que não apenas violações à propriedade
e integridade física precisavam ser remediadas, mas também à vida intelectual e emocional dos
indivíduos – a dignidade humana precisava ser protegida219.
O direito à privacidade, sob a perspectiva do “direito de estar sozinho”, nasce como um
desmembramento do direito à personalidade, na qual o indivíduo pode desenvolver sua
individualidade, inclusive com garantia de um espaço para seu recolhimento e reflexão, sem
que ele seja compelido a determinados comportamentos socialmente desejados220.
Após a segunda Guerra Mundial, a noção dos direitos à personalidade tornou-se
universal, notadamente, em razão do reconhecimento do direito da dignidade da pessoa humana
como centro dos sistemas jurídicos, cujo conteúdo era extrapatrimonial e inalienável, segundo

217
Um artigo citado pela doutrina como ponto de referência sobre a moderna discussão em torno da privacidade é
o “The right to privacy”, escrito por Samuel Warren e Louis Brandeis. Esse artigo, conforme explica Danilo
Doneda, reflete “uma tendência a uma fundamentação diversa para a proteção da privacidade desvinculada do
direito de propriedade”. Um dos seus pontos centrais é de que a proteção à privacidade se origina da inviolabilidade
da personalidade, o que, se transforma, mais a frente, na proteção da privacidade a partir do eixo da proteção da
pessoa humana. DONEDA, Danilo. Da privacidade à proteção de dados: elementos da formação da Lei Geral
de Proteção de Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, p.124.
218
Mais remotamente, pode-se conectar o entendimento da privacidade como desdobramento do direito de
propriedade, consequência do individualismo. A partir do século XVI, a percepção do ser humano é sentida em
oposição à sociedade. Busca-se estabelecer uma esfera privada livre das ingerências do ente público, em reação ao
absolutismo. No entanto, essa percepção era fortemente ligada à proteção da propriedade. A partir do século XIX,
“a propriedade era concebida como essencial ao desenvolvimento do indivíduo, à sua personalidade. Logo, “o
direito de propriedade era condição inafastável para se chegar à privacidade”. A sociedade industrial traz mudanças
nessa perspectiva, passa-se a entender a privacidade como uma forma de resistência do homem frente à
massificação provocada pela indústria. DONEDA, Danilo. Da privacidade à proteção de dados: elementos da
formação da Lei Geral de Proteção de Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, pp .118-120.
219
WARREN, Samuel; BRANDEIS, Louis D. The Right to Privacy. Harvard Law Review, Vol. 4, No. 5, pp.
193-220, 1980, p.195. Disponível em: https://www.cs.cornell.edu/~shmat/courses/cs5436/warren-brandeis.pdf
Acesso em 10/10/2021.
220
WARREN, Samuel; BRANDEIS, Louis D. The Right to Privacy. Harvard Law Review, Vol. 4, No. 5, pp.
193-220, 1980. Disponível em: https://www.cs.cornell.edu/~shmat/courses/cs5436/warren-brandeis.pdf Acesso
em 10/10/2021.
78

a Declaração Universal de Direitos Humanos. Neste documento consagrou-se o direito à vida


privada, sem interferências, conforme artigo 12221.
Com as transformações sociais, as violações à privacidade ganham novas dimensões. A
privacidade passa a ser um valor sentido pelo homem, de acordo com o ambiente social e sua
projeção dentro da sociedade. Por isso, é difícil uma definição precisa para traçar um conceito.
Essa tarefa, portanto, reflete um forte conteúdo social e ideológico.
Não há formação, portanto, de um conceito preciso sobre privacidade, embora a
literatura tente defini-la. Alguns autores alertam para o perigo do reducionismo em definições
estreitas de privacidade, vez que essas, muitas das vezes, isolam apenas um dos seus vários
aspectos, opondo-se a concepções holísticas da privacidade, que a abrangem em sua
multiplicidade222. Qualquer que seja a tentativa de conceituação, deve-se ter em mente que a
privacidade é uma noção cultural que pode ser observada no curso do tempo por fatores
condicionantes sociais, econômicos e políticos223.
A doutrina constitucional alemã, por exemplo, inicia o processo de juridificação da
privacidade no século XIX (embora, antes, já tratasse do tema), vislumbrando um “direito
natural à vida privada”224. Após, ela passa a identificar, no âmbito do direito à privacidade, três
esferas concêntricas e sobrepostas: (i) uma esfera íntima ou do segredo, que forma o núcleo
essencial e intangível do direito à intimidade e privacidade, na qual as pessoas realizam seus
interesses isoladas do grupo social; (ii) uma esfera privada, que corresponde a partes não
sigilosas da vida familiar, profissional e comercial da pessoa, ou seja, situações em que a
comunicação é inevitável, mas são, em princípio, excluídas de terceiros; e, (iii) uma esfera
social, em que se encontram os direitos à imagem e à palavra, e não mais a intimidade e à
privacidade. Aqui as pessoas procuram satisfazer seus interesses enquanto membros da
sociedade, comportando os fatos que são suscetíveis de conhecimento por todos225.

221
NAÇÕES UNIDAS. Declaração Universal de Direitos Humanos. Disponível em:
https://www.ohchr.org/en/human-rights/universal-declaration/translations/portuguese?LangID=por Acesso em
10/10/2021. Artigo 12: Ninguém será sofrerá intromissões arbitrárias na sua vida privada, em sua família, em seu
lar ou em sua correspondência, nem a ataque à sua honra e reputação. Todo ser humano tem direito à proteção da
lei contra tais interferências ou ataques.
222
DONEDA, Danilo. Da privacidade à proteção de dados: elementos da formação da Lei Geral de Proteção de
Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, p.101.
223
Embora a dificuldade para conceitua-la, a proteção de direito à privacidade encontra amparo no artigo 12 da
Declaração Universal dos Direitos Humanos de 1948, que consagrou o direito à vida privada, conforme acima
mencionado.
224
DONEDA, Danilo. Da privacidade à proteção de dados: elementos da formação da Lei Geral de Proteção de
Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, p.110.
225
SARLET, Ingo Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO, Daniel. Curso de direito
constitucional. 8. ed. – São Paulo: Saraiva Educação, 2019, p. 573. MORAES, Guilherme Pena. Curso de Direito
Constitucional. 4 ed. São Paulo: Atlas, 2021, p. 550. É importante destacar, noutro giro, que Danilo Doneda, em
referência a essa doutrina, informa que essa teoria foi deixada de lado pelo Tribunal Constitucional Alemão.
79

3.2.1 Da privacidade à proteção de dados

A era da informação, através da informática, trouxe novos perigos e a noção de


privacidade passou a conter uma “certa defasagem entre seu conceito original e o que ele
efetivamente representa”226. Seu aspecto mais destacado passou a ser o controle da circulação
de informações pessoais, já que esse é um elemento essencial na definição de poderes dentro
de uma sociedade.
A sua tradicional definição passa a sofrer influência da tecnologia dos computadores,
mostrando-se como ponto de referência na discussão: “direito a controlar o uso que os outros
façam das informações que me digam respeito” 227. Nesse sentido, afirma-se que o eixo da
privacidade teria mudado de “pessoa-informação-segredo” para “pessoa-informação-
circulação-controle”228. A proteção à privacidade de um indivíduo passou, portanto, a envolver
o controle sobre o acesso e disseminação de informações pessoais, além da proteção à honra e
dignidade e não interferência na vida privada, lar e correspondência.
Considerando as modificações estruturais da sociedade, Daniel Solove229 entende que a
análise das atividades perigosas ao direito da privacidade, desenvolvidas por Prosser 230, sob a
ótica da responsabilidade civil, deveriam ser revisitadas. Para o autor, o estudo da privacidade
deve ser realizado a partir dos riscos trazidos pela era da informação, que podem ser divididos
em 4 grupos de atividades: coleta de informação; processamento de informação; disseminação
de informação; e invasão.
A coleta de informações pode ser realizada através da vigilância e do interrogatório. A
vigilância pode ser entendida como uma ferramenta de controle social, enquanto o
interrogatório versa sobre a pressão que os indivíduos sofrem para divulgar informações. A

DONEDA, Danilo. Da privacidade à proteção de dados: elementos da formação da Lei Geral de Proteção de
Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, p.103.
226
DONEDA, Danilo. Da privacidade à proteção de dados: elementos da formação da Lei Geral de Proteção
de Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, p.29.
227
RODOTÀ. Stefano. A vida na sociedade da vigilância. A privacidade hoje. Organização, seleção e a
apresentação de Maria Celina Bodin de Moraes. Rio de Janeiro: Renovar, 2008, pp. 74-75.
228
Rodotà. Stefano. A vida na sociedade da vigilância. A privacidade hoje. Organização, seleção e a
apresentação de Maria Celina Bodin de Moraes. Rio de Janeiro: Renovar, 2008, pp 74-75.
229
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, pp. 477-
491, 2006, p. 447. Disponível em: https://bit.ly/1ngGQAa. Acesso em 05/10/2021.
230
Em 1960, William Prosser, na tentativa de organizar os diferentes problemas que apresentavam perigo à
privacidade, elencou 4 tipos de atividades perigosas: a) intromissão à vida privada de alguém ou em seus assuntos
privados; b) divulgação pública de fatos particulares embaraçosos do indivíduo; c) publicidade que coloca o
reclamante em uma falsa luz aos olhos públicos; e, d) apropriação, em proveito do réu, do nome do autor ou
semelhantes. PROSSER, William L. Privacy, California Law Review. Vol 48, nº3, 383-423, 1960. Disponível
em: https://lawcat.berkeley.edu/record/1109651 Acesso em 05/10/2021.
80

atividade de vigilância traz problemas aos indivíduos de ansiedade e desconforto, levando as


pessoas a alterarem o seu comportamento. É possível que, à medida que as ferramentas de
controle social aumentem, a autodeterminação dos indivíduos seja afetada de maneira
substancial. O interrogatório é uma forma de pesquisa que envolve a divulgação de informações
ocultas e pode trazer desconforto se essas informações são divulgadas, além de muitas vezes
ser colhido de forma compulsória, como por exemplo, a utilização de censo pelos Estados231.
Após a coleta de dados dos usuários, os portadores de dados, passam a realizar o
processamento de informações, fase que se refere ao processamento, armazenamento e
manipulação de dados. Pode ser observado em cinco circunstâncias: agregação; identificação;
insegurança; uso secundário e exclusão232.
Nos dias atuais tudo o que se faz deixa um rastro, desde uma compra pela internet a cada
like ou busca que realizada em um aparelho de celular. As plataformas, de forma rotineira,
reúnem esses dados soltos, que combinados tornam-se reveladores da personalidade de alguém,
formando seu retrato (pessoa digital). A agregação diz respeito, portanto, a reunião das
informações sobre uma determinada pessoa233. Essa atividade não é nova, porém, com o avanço
da tecnologia, essa prática torna possível que as plataformas exerçam poder sobre os indivíduos
e até mesmo importantes escolhas sobre ele, como ocorre nos sistemas de recomendação,
analisado no capítulo anterior.
A identificação recolhe os dados agregados (pedaços brutos e desorganizados de
informações que precisam ser processadas para torná-los significativo), que transformados em
informações (dados organizados de forma significativa), os conecta a indivíduos reais234. O
risco dessa atividade é que as pessoas possam ser controladas e até perseguidas, prejudicando
a possibilidade de anonimato e, por consequência, o discurso livre. O maior problema não está
em identificar a pessoa, mas como essa conexão é realizada, atrelando a ela uma bagagem de
informação correlacionada ao seu histórico de vida, o que pode inibir seu desejo de mudança e
impedir o pleno autodesenvolvimento.
Esse ponto chama atenção para o direito ao esquecimento, que, no âmbito digital refere-
se ao “direito de ter suas informações pessoais desindexadas pelos buscadores da internet, em

231
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, pp. 477-
491, 2006, pp. 491-504. Disponível em: https://bit.ly/1ngGQAa. Acesso em 05/10/2021.
232
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, pp 477-
491, 2006, pp. 504-505. Disponível em: https://bit.ly/1ngGQAa. Acesso em 05/10/2021.
233
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, pp. 477-
491, 2006, pp. 491-506. Disponível em: https://bit.ly/1ngGQAa. Acesso em 05/10/2021.
234
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, pp 477-
491, 2006, p. 510. Disponível em: https://bit.ly/1ngGQAa. Acesso em 05/10/2021.
81

especial, quando essas informações não forem corretas, relevantes ou atualizadas”235. Essa
discussão ganhou repercussão em um caso decidido pelo Tribunal de Justiça da União Europeia
(TJEU), proferido pelo acórdão Google-Spain (proc.C-131-12), em maio de 2014236, no qual
considerou que os provedores de busca, em razão da capacidade que possuem para controlar o
processamento dos dados pessoais, tem obrigação de desindexar as informações que sejam
inadequadas ou impertinentes pelo decurso do tempo por serem enquadrados como
controladores de dados (interpretação do artigo 12.b da Antiga Diretiva 95/46 da União
Europeia)237.
A insegurança é um problema que se relaciona como nossas informações são tratadas e
protegidas. Ela expõe os indivíduos, que podem vir a sofrer com a utilização indevida de seus
dados, de modo que a privacidade se estende para o interesse de evitar a divulgação de questões
pessoais238.

235
BELLI, Luca. STJ consagra direito ao esquecimento na Internet: o que isso significa? Jota. 20 de maio de 2018.
Disponível em: https://www.jota.info/coberturas-especiais/liberdade-de-expressao/stj-consagra-direito-ao-
esquecimento-na-internet-o-que-isso-significa-20052018 Acesso em 05/10/2021
236
Acórdão do Tribunal de Justiça Europeu. Caso: Google Spain SL e Google Inc. contra Agencia Española de
Protección de Datos (AEPD) e Mario Costeja González. Publicado em 13/05/2014. Disponível em:
https://curia.europa.eu/juris/liste.jsf?language=pt&jur=C,T,F&num=C-131/12&td=ALL Acesso em 05/10/2021
237
É importante destacar que recente julgamento do Supremo Tribunal Federal (STF) tratou o direito ao
esquecimento sob uma lente diferente daquela utilizada pela União Europeia (na seara digital e como obrigação
de desindexar informações sobre uma pessoa) quando da análise do precedente “Aida Curi” (recurso
Extraordinário nº 1010606, Relator: Ministro Dias Toffoli, acórdão proferido pelo Tribunal Pleno, publicado em
20/05/2021. Disponível em:
https://jurisprudencia.stf.jus.br/pages/search?base=acordaos&pesquisa_inteiro_teor=false&sinonimo=true&plura
l=true&radicais=false&buscaExata=true&page=1&pageSize=10&queryString=1.010.606&sort=_score&sortBy
=desc) Acesso em 05/10/2020. Anteriormente, o STJ já havia considerado o direito ao esquecimento, na esfera
analógica como o “direito de não ser lembrado contra sua vontade, especificamente no tocante a fatos
desabonadores” (Recurso Especial nº 1.334.097, Relator: Ministro LUIS FELIPE SALOMÃO (1140), acórdão
proferido pela 4ª Turma, publicado em 01/02/2022. Disponível em:
https://scon.stj.jus.br/SCON/jurisprudencia/doc.jsp?livre=1.334.097&b=ACOR&p=false&l=10&i=1&operador=
E&tipo_visualizacao=RESUMO Acesso em 05/10/2020), de forma que pode-se afirmar que o direito ao
esquecimento, pela jurisprudência brasileira, foi concebido como um direito geral de limitar efetivamente a
publicação de determinadas informações, concretizando o direito à privacidade, nos termos do artigo 5º, X, da
CRFB. Assim, em 2021, ao retomar o estudo do tema, afirmou o entendimento de que o direito ao esquecimento
é incompatível com a Constituição, de maneira que “o poder de impedir, pelo transcurso do tempo, a divulgação
de fatos ou dados verdadeiros e licitamente obtidos e publicados em meio analógico ou digital” não pode ser
tolerado. Conforme apontado por Luca Belli, o STF consolidou o entendimento de que não é possível utilizar o
direito ao esquecimento como um direito geral de censura, de modo que não se pode proibir a publicação de fatos
verdadeiros, obtidos licitamente. Ao mesmo tempo, no entanto, o STF deixa claro que “continua sendo possível
que qualquer Tribunal de Justiça avalie, caso a caso e de acordo com parâmetros constitucionais e dispositivos
legais existentes, se um episódio específico pode permitir o uso do direito ao esquecimento para proibir a
divulgação de informações que prejudiquem a dignidade, honra, privacidade ou outros interesses fundamentais do
indivíduo”. BELLI, Luca. The right to be forgotten is not compatible with the brazilian constitution. or is it?
Future of Privacy Forum. 23 de março de 2021. Disponível em: https://fpf.org/blog/the-right-to-be-forgotten-is-
not-compatible-with-the-brazilian-constitution-or-is-it/ Acesso em 05/10/2021
238
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, pp. 477-
491, 2006, pp. 515-518. Disponível em: https://bit.ly/1ngGQAa. Acesso em 05/10/2021.
82

O uso secundário e exclusão também são preocupações decorrentes da atividade de


moderação de conteúdo. Isso porque não é raro as plataformas utilizarem o dado coletado de
uma pessoa para outros fins, não relacionados com o propósito para o qual foi incialmente
coletado, sem o consentimento do sujeito. Isso fere a confidencialidade e trai a expectativa das
pessoas que forneceram a informação. Há uma assimetria informacional muito grande sobre
como os dados dos indivíduos são utilizados, pois não se sabe como são capturados, vendidos
e processados239.
A exclusão liga-se a impossibilidade de registros secretos. Os usuários precisam saber
qual a informação existe a seu respeito, com a oferecimento de oportunidade para correção ou
emenda dessas informações240.
O terceiro grupo de atividades que podem trazer riscos ao direito à privacidade é a
disseminação de informação. Os detentores de dados transferem essas informações para
terceiros que as divulgam, promovendo o distanciamento da informação para longe do
usuário241.
E, por fim, a invasão (quarto grupo de atividades) pode ser analisada sob a ótica da
intrusão e interferência decisória. A primeira protege o indivíduo de invasões e incursões em
sua vida, protegendo um pedaço de espaço para sua solidão242. Guarda relação com as
atividades de coleta de dados e vigilância. O perigo da intrusão é permitir a invasão de terceiros
em atividades diárias de uma pessoa de forma indesejada. Isso atrapalha o próprio
desenvolvimento do ser humano, vez que retira a paz e tranquilidade necessárias em contraste
com as pressões e questões da vida pública. Como exemplo, pode-se citar o envio de spam,
publicidade e outras atividades que retiram a atenção o interrompem a rotina de uma pessoa.
Em outro ângulo da invasão, tem-se a interferência decisória. Essa atividade diz respeito a
incursão indesejada na gerência da vida pessoal243.
É justamente esse desenvolvimento do direito à privacidade em face da tecnologia,
considerando-a como um pressuposto para que a pessoa não seja submetida a formas de controle
social (preservação da autodeterminação) que levou ao seu desdobramento para emergir a

239
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, pp. 477-
491, 2006, pp. 518-520. Disponível em: https://bit.ly/1ngGQAa.. Acesso em 05/10/2021.
240
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, pp. 477-
491, 2066, pp 521-523. Disponível em: https://bit.ly/1ngGQAa. Acesso em 05/10/2021.
241
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, pp. 477-
491, 2006, pp. 523-548. Disponível em: https://bit.ly/1ngGQAa. . Acesso em 05/10/2021.
242
Esse ponto se relaciona com o direito de ficar sozinho, já mencionado nesta dissertação, introduzido por Warren
e Brandeis.
243
SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154, n. 3, pp. 477-
491, 2006, pp. 548-557. Disponível em: https://bit.ly/1ngGQAa. Acesso em 05/10/2021.
83

proteção dos dados pessoais, o qual se relaciona à informação244. Atualmente, a importância


desse entendimento cresce, uma vez que considerável parcela das liberdades individuais são
exercidas através das plataformas digitais nas quais a informação possui papel de destaque245.

3.2.2 Perspectiva brasileira

No direito brasileiro, a privacidade está prevista no artigo 5º, inciso X, da CRFB246,


deixando claro que a proteção à pessoa humana abrange a “vida privada” e a “intimidade”, o
que reflete, em parte, a doutrina alemã dos círculos concêntricos antes mencionada. Seja como
for, não é recomendável que essa dicotomia seja valorada de forma diversa, já que ambas
objetivam aplicar o direito fundamental da pessoa humana247.
A tutela da privacidade deve ser analisada como uma situação subjetiva complexa, que
não se expressa somente através do arbitrário poder de seu titular, mas por um complexo de
interesses, tanto do titular como da coletividade, que podem embasar poderes, bem como
deveres, obrigações e ônus aos envolvidos248.
Reconhendo à proteção de dados como direito autônomo, o ordenamento jurídico
brasileiro introduziu o “direito à proteção dos dados pessoais, inclusive nos meios digitais” no

244
Os termos “dados” e “informação” são diferentes, embora, muitas vezes, se sobreponham em algumas
circunstâncias. Os dados se relacionam a pedaços brutos e desorganizados de informações que precisam ser
processadas para torná-lo significativo, por exemplo, observações, números, caracteres, símbolos, imagens, etc. Já
informação é um conjunto de dados organizados de forma significativa. As informações são processadas,
estruturadas ou apresentadas em um determinado contexto para torná-las úteis.
245
A proteção dos dados é alvo de preocupação há alguns anos. A década de 1980 fomentou o desenvolvimento
econômico a partir do papel estratégico dos dados pessoais. A Organização para o Desenvolvimento e Cooperação
Econômica (OCDE) passou a elaborar as Guidelines on the Protection of Privacy and Transborder Flows of
Personal Data, diretrizes que contribuíram não só para a consolidação do conceito de privacidade ligado à proteção
de dados pessoais, como também para o desenvolvimento do fluxo transfronteiriço de dados. Após, a União
Europeia também propôs um novo regulamento, que substituiu a Diretiva 95/46/CE, o conhecido General Data
Protection Regulation (GDPR), que, inclusive, inspirou a elaboração da legislação brasileira (LGPD). LAPIN. O
direito fundamental à proteção de dados pessoais à luz da jurisprudência do supremo tribunal federal. Postado em
31 de março de 2021. Disponível em: https://lapin.org.br/2021/03/31/o-direito-fundamental-a-protecao-de-dados-
pessoais-a-luz-da-jurisprudencia-do-supremo-tribunal-federal/ Acesso em 05/10/2021
246
Artigo 5º: Todos são iguais perante a lei, sem distinção de qualquer natureza, garantindo-se aos brasileiros e
aos estrangeiros residentes no País a inviolabilidade do direito à vida, à liberdade, à igualdade, à segurança e à
propriedade, nos termos seguintes. Inciso X: são invioláveis a intimidade, a vida privada, a honra e a imagem das
pessoas, assegurado o direito a indenização pelo dano material ou moral decorrente de sua violação. BRASIL,
Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
247
DONEDA, Danilo. Da privacidade à proteção de dados: elementos da formação da Lei Geral de Proteção
de Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, p.105.
248
DONEDA, Danilo. Da privacidade à proteção de dados: elementos da formação da Lei Geral de Proteção
de Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, p.130.
84

artigo 5º, LXXIX, da CRFB, através da Emenda Constitucional (EC) nº 115/22249, logo após o
Supremo Tribunal Federal reconhecer “a proteção de dados pessoais e a autodeterminação
informativa como direitos fundamentais autônomos, extraídos da garantia da inviolabilidade da
intimidade e da vida privada e, consectariamente, do princípio da dignidade da pessoa
humana”250.
Dessa forma, privacidade e proteção de dados, embora sejam direitos interligados, são
diferentes. A privacidade, conforme acima exposto, protege o direito de informação sobre a
vida privada de uma pessoa. Está ligada ao conceito de opacidade e equivale a existência de
uma barreira sobre a vida particular de alguém. A proteção de dados, por outro lado,
corresponde ao processamento dos dados em si mesmos. Busca-se transparência no uso dos
dados de um indivíduo para que se coíba o mau uso dele.
O tratamento como direitos estanques também foi adotado na Carta de Direitos
Fundamentais da União Europeia, em seus artigos 7º, que trata sobre o “respeito pela vida
familiar e privada” e 8º, que trata da “proteção dos dados pessoais”, ambos com base na
dignidade da pessoa humana. Gloria González Fuster e Hielke Hijmans251 explicam que o
direito à proteção de dados pessoais envolve a imposição de obrigações sobre aqueles que
decidem processar dados pessoais, concedendo direitos subjetivos aos indivíduos sobre os quais
os dados estão sendo processados e estabelecendo monitoramento independente do
cumprimento das obrigações e respeito de direitos.
Sua origem está relacionada ao conceito alemão de autodeterminação informacional,
desenvolvido pela Bundesverfassungsgericht em 1983, sentença da Corte Constitucional Alemã
sobre proteção de dados, quando questionada a Lei do Censo, aprovada em 1982. Houve, à

249
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html Acesso em 10/06/2022.
250
ADI n. 6387 MC-Ref/DF, ADI n. 6388 MC-Ref/DF, ADI n. 6389 MC-Ref/DF, ADI n. 6390 MC-Ref/DF e
ADI n. 6393 MC-Ref/DF, de relatoria da Min. Rosa Weber. Essas ações foram ajuizadas em face da Medida
Provisória 954/2020, que tratava sobre o compartilhamento de dados não anonimizados – nomes, números de
telefones e endereços, dos brasileiros com acesso a telefonia (fixa e móvel) promovido por empresas de
telecomunicação (TELECOM) ao Instituto Brasileiro de Geografia e Estatística (IBGE). A MP 954/2020 teve a
vigência suspensa, sob a fundamentação de que “não estava definido como e para que os dados pessoais seriam
coletados, uma vez que, ao definir como objetivo apenas produção estatística oficial, o diploma não seria
necessário nem proporcional”. Apesar da referida MP não ter sido convertida em lei e as ações de
inconstitucionalidade a ela relacionadas terem perdido seu objeto, restou claro o reconhecimento da proteção de
dados pessoais como um direito fundamental autônomo. LAPIN. O direito fundamental à proteção de dados
pessoais à luz da jurisprudência do supremo tribunal federal. Postado em 31 de março de 2021. Disponível em:
https://lapin.org.br/2021/03/31/o-direito-fundamental-a-protecao-de-dados-pessoais-a-luz-da-jurisprudencia-do-
supremo-tribunal-federal/ Acesso em 10/10/2022.
251
FUSTER, Glória González, HIJMANS, Hielke. The EU rights to privacy and personal data protection: 20 years
in 10 questions. Discussion paper. VUB Brussels Privacy Hub.. Disponível em:
https://brusselsprivacyhub.eu/events/20190513.Working_Paper_Gonza%CC%81lez_Fuster_Hijmans.pdf Acesso
em 10/10/2021.
85

época, desconfiança em torno dos trabalhos do censo da Alemanha em diversos setores da


sociedade, notadamente, quando ao método de coleta e o destino das informações coletadas. Na
sentença restou consignada a ideia de que as pessoas podem ser consideradas proprietárias dos
seus próprios dados pessoais, isto é, cabe “aos indivíduos decidirem por si próprios, quando e
dentro de quais limites seus dados pessoais podem ser utilizados” (autodeterminação
informativa)252.
Esta perspectiva, inclusive, serviu de fundamento para a Lei de Proteção de Dados
Brasileira (LGPD – Lei 13.709/2018253), que conferiu tratamento legal autônomo a proteção
dos dados254. A LGPD seguiu o modelo normativo estabelecido pela União Europeia,
estabelecido no Regulamento Geral de Proteção de Dados da União Europeia (General Data
Protection Regulation - GDPR). Interessante notar que o Brasil reproduz a maioria das regras
do GDPR e traz uma estrutura bastante similar: traz uma aplicação extraterritorial da lei; requer
a existência de uma base legal para o processamento de dados pessoais e transferência do fluxo
de dados; sistemas de penalidades e responsabilidade distinta para operador e controlador de
dados, a previsão de uma autoridade independente, obrigação de designação de oficial de
proteção de dados (DPO), institucionalização de portabilidade de dados, dentre outros255.
Pela LGPD256 são garantidos ao titular do direito de proteção de dados: (a) direito de
consentir com os termos de uso (artigo 7º, I); (b) direito de acesso às informações sobre o
tratamento (artigo 9º); (c) direito de revogar seu consentimento (artigo 15, III); (d) direito de
obter do controlador dos dados uma série de informações mediante requisição (artigo 18 e
incisos), inclusive, portabilidade (artigo 18, V); (e) direito de peticionar sobre o uso de seus
dados à autoridade de proteção; e (f) direito solicitar revisão de decisões que lhe afetem,
tomadas com tratamento de dados (artigo 20).

252
DONEDA, Danilo. Da privacidade à proteção de dados: elementos da formação da Lei Geral de Proteção
de Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, p.168.
253
BRASIL, Lei 13.079/2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm Acesso em 08/11/2020.
254
Outras legislações já traziam previsão sobre a proteção de dados sob o manto da proteção à privacidade. O
artigo 43 do Código de Defesa do Consumidor, por exemplo, aborda a proteção dos dados pessoais dos
consumidores, possibilitando o “acesso dessas as informações em cadastros, fichas, registros e dados pessoais de
consumo arquivados sobre ele, bem como suas respectivas fontes”. A Constituição Federal, em seu artigo 5º,
incisos LXXII, também traz a previsão de um remédio constitucional que permite ao cidadão o conhecimento dado
e informações pessoais que estejam sob posse do Estado brasileiro, ou de entidades privadas que tenham
informações de caráter público – o habeas data, que é regulamentado pela Lei 9.507/97.
255
BERTONI, Eduardo. Convention 108 and the GDPR: Trends and perspectives in Latin America. Computer
Law & Security Review. Volume 40, Abril de 2021.Disponível em: https://doi.org/10.1016/j.clsr.2020.105516
Acesso em 10/10/2021.
256
BRASIL, Lei 13.079/2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm Acesso em 08/11/2020.
86

Em que pese haja uma regulação sistematizada e robusta para a proteção de dados dos
usuários, o que poderá trazer mais confiança à sociedade na infraestrutura de informação e
comunicação, a legislação sobre proteção de dados não está direcionada à atividade de
moderação de conteúdo, pelo que deixa alguns temas importantes de fora e, sozinha, não é
suficiente para cessar a violação dos direitos fundamentais citados neste capítulo.
A título de exemplo, pode-se mencionar o direito à explicabilidade previsto no artigo 20
da LGPD257, inaplicável aos sistemas de recomendação. Essa previsão sozinha pode ser ineficaz
se for considerado que os usuários, muitas das vezes, sequer tem a consciência de que estão
sendo submetidos a decisões automatizadas e que as recomendações de anúncios ou vídeos, por
exemplo, oferecidas pelas plataformas, são frutos de escolhas realizadas por algoritmos que
fazem parte de uma arquitetura eleita pelas plataformas em prol de seus interesses.

3.3 Direito ao devido processo

Uma das críticas mais suscitadas nas atividades das plataformas digitais é que seus
sistemas não proporcionam o devido processo adequado aos usuários afetados pelas decisões
tomadas quando sofrem com a moderação de conteúdo nos espaços virtuais258. São frequentes
decisões equivocadas tomadas pelas plataformas na sua atividade de moderação, deixando os
usuários confusos sobre como as regras são criadas e como potenciais violações aos termos de
uso são identificadas, o que revela opacidade e assimetria na informação entre usuários e
plataformas259.

257
BRASIL, Lei 13.079/2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm Acesso em 08/11/2020. Artigo 20: O
titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento
automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil
pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade. § 1º O controlador deverá
fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos
utilizados para a decisão automatizada, observados os segredos comercial e industrial. § 2º Em caso de não
oferecimento de informações de que trata o § 1º deste artigo baseado na observância de segredo comercial e
industrial, a autoridade nacional poderá realizar auditoria para verificação de aspectos discriminatórios em
tratamento automatizado de dados pessoais.
258
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, p. 08. Disponível em:
https://www.hoover.org/research/verified-accountability Acesso em 14/12/2021.
259
ZINGALES, Nicolo. Accountability. Em: BELLI, Luca; ZINGALES, Nicolo; CURZI, Yasmin (eds.). Glossary
of platform law and policy terms. Rio de Janeiro: FGV Direito Rio, 2021. Disponível em:
https://bibliotecadigital.fgv.br/dspace/handle/10438/31365. Acesso em: 14/12/2021.
87

A título de exemplo, pode-se citar pesquisa realizada pela organização Propublica, cujo
resultado encontrou decisões conflitantes na moderação de conteúdo realizada pelo
Facebook260. Os termos de serviço da rede social não admitem ameaças violentas com base em
práticas religiosas, todavia, quando um usuário denunciou um determinado discurso de ódio
esse foi tolerado. Diversamente, a ideia traduzida pelo mesmo discurso foi repetida em uma
postagem de outro usuário, porém, desta vez, foi considerada violenta e retirada da rede.
Conforme apontado pelo referido relatório, essas decisões díspares não são incomuns. A
pesquisa realizada revelou que, das 49 postagens enviadas por usuários, que afirmaram que os
revisores de conteúdo cometeram algum engano, em 22 delas houve o reconhecimento do erro.
Essa questão se torna mais complicada quando os processos de tomada de decisão são
realizados por meio automatizados, isto é, através de sistemas de inteligência artificial, pois,
nesses casos, são frequentes problemas com consistência e escalabilidade, haja vista a
dificuldade para o reconhecimento do contexto do conteúdo de acordo com suas relações sociais
e produção de vieses nos modelos, o que pode resultar em ações discriminatórias para
determinados grupos de indivíduos.
Para clarear o ponto abordado, pode-se trazer o exemplo do uso de algoritmos em
processos criminais, nos quais busca-se prever a chance de reincidência do réu. Um caso
paradigmático foi o uso do sistema COMPAS (Correctional Offender Management Profiling
for Alternative Sanctions), nos Estados Unidos, no julgamento do Réu Eric Loomis, condenado
a 6 (seis) anos de prisão, em razão do sistema atribuir ao condenado um risco alto de violência
e grande probabilidade de reincidência261. Em seu recurso, tentou-se alcançar os fundamentos
que levaram o modelo a tomar essa decisão, sustentando, com base em um relatório elaborado
pela ProPublica262, que o referido sistema já apresentou vieses discriminatórios a pessoas
afrodescendentes. O recurso não foi provido pela Suprema Corte.
Pode-se, ainda, mencionar que, além dos danos individuais, há preocupação a respeito
do uso de soluções guiadas por tratamento de dados, quando não abertas ao escrutínio público,
pois essas podem levar a exclusão de certos grupos que são, por natureza, mais vulneráveis.

260
TOBIN, Ariana; VARNER, Madeleine; ANGWIN, Julia. Facebook's Uneven Enforcement of Hate Speech
Rules Allows Vile to Stay Up. Pro Publica, 2017. Disponível em: https://www.propublica.org/article/facebook-
enforcement-hate-speech-rules-mistakes. Acesso em: 14/12/2021.
261
FERRARI, Isabela, BECKER, Daniel, WOLKART, Eric Navarro. Arbitrium ex machina: panorama, riscos e a
necessidade de regulação das decisões informadas por algoritmos. Thomson Reuters. Revista dos Tribunais | vol.
995/2018 | Set / 2018 DTR\2018\18341. Disponível em: http://governance40.com/wp-
content/uploads/2018/11/ARBITRIUM-EX-MACHINA-PANORAMA-RISCOS-E-A-NECESSIDADE.pdf
262
ANGWIN, Julia et al. Machine Bias. Pro Publica. 23 de maior de 2016. Disponível em:
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing Acesso em:
25.10.2017.
88

Para ilustrar esse ponto, pode-se citar o caso do aplicativo de celular lançado na cidade de
Boston, em 2012, no qual ajudava aos cidadãos a identificarem falhas no recapeamento de
asfalto nas ruas da cidade. A partir dos dados coletados, a prefeitura atuava diretamente na
solução do defeito. Ocorre que a produção desses dados resultou na exclusão da classe menos
favorecida, deixando a parte mais humilde da cidade à margem de planos de ação. Isso porque
somente cidadãos que possuíssem aparelho de telefonia com acesso à internet e veículo de
passeio registravam os dados solicitados, determinando quais seriam as métricas a serem
adotadas pela prefeitura263.
Dessa forma, em que pese as decisões automatizadas serem importantes para o
funcionamento e eficiência das arquiteturas de software das plataformas, vez que os números
de casos avaliados pelos sistemas de moderação são enormes264, são frequentes problemas de
inconsistência, escalabilidade e transparência nas decisões tomadas, conforme mencionado no
capítulo anterior, além da dificuldade dos usuários contestarem essas decisões.
Em modelos de comunicação de massa, a utilização de modelos automatizados, que
priorizam velocidade de decisão, pode trazer eficiência, mas essas ferramentas são
implementadas às custas da deliberação nas decisões e do balanceamento judicial das restrições
dos direitos envolvidos, pelo que recebem críticas pela falta de compatibilidade com o devido
processo legal e não concretizarem decisões justas.
A previsão de recursos de apelação disponibilizados aos usuários na moderação de
conteúdo é solução que busca trazer legitimidade à atuação das plataformas dentro de um
cenário de restrição de direitos fundamentais. A ideia por traz da recorribilidade das decisões é
de que nenhum processo de tomada de decisão produz decisões perfeitas em todas as suas
manifestações. É preciso que os usuários disponham de um mecanismo de contestabilidade
dessas decisões que satisfaça suas necessidades e diminua os problemas de opacidade,
assimetria informacional, inconsistência e legitimidade das plataformas para privarem os
usuários de suas liberdades265.

263
CEA Alumni. Street Bump: Crowdsourcing Better Streets, but Many Roadblocks Remain. 30 de outubro de
2015. Digital Iniciative. Disponível em: https://digital.hbs.edu/platform-digit/submission/street-bump-
crowdsourcing-better-streets-but-many-roadblocks-remain/ Acesso em: 14/12/2021.
264
Conforme já analisado neste trabalho, estima-se que o Facebook, por exemplo, somente em relação ao uso de
contas falsas, tenha os números de casos avaliados na casa dos bilhões. Dados disponíveis em
https://transparency.facebook.com/community-standards-enforcement Acesso em: 14/12/2021.
265
Os princípios de Santa Clara, por exemplo, sugerem que as plataformas digitais ofereçam oportunidade para o
usuário apresentar apelação, já que elas “devem garantir que os direitos humanos e as considerações do devido
processo sejam integrados em todas as etapas do processo de moderação de conteúdo e devem publicar
informações descrevendo como essa integração é feita”. ACLU Legal Foundation of Northern California et al.,
“The Santa Clara Principles.”. Disponível em: https://santaclaraprinciples.org/ Acesso em: 14/12/2021.
89

Na linha do exposto, Hannah Bloch-Webba, em crítica à regulação privada exercida


pelas plataformas, refere-se a esses entes intermediários como uma espécie de “braço do
estado”266, seja colaborando ou até mesmo substituindo agentes governamentais em suas
atividades de criação, adjudicação e execução de regras. E, considerando que esses exercem
funções tipicamente públicas, afirma que esses agentes privados deveriam ser submetidos aos
mesmos padrões comumente exigidos a processos decisórios executados pelo Estado.
A fragilidade dessa exigência e que deve ser considerada pelo regulador é que a
literatura aponta que não há como aplicar um “perfeito processo” em todos os casos267. A uma
porque não se deve exportar o princípio do devido processo aplicado às relações públicas sem
os devidos ajustes às relações entre particulares, já que, por exemplo, na atuação do Estado há
o uso do poder coercitivo, o que não ocorre nas relações privadas. A duas porque deve-se
entender que as plataformas utilizam a moderação em escala com altos números268 e isso sempre
envolverá uma margem de erros. Logo, deve ser pensado o que se entende por “devido” no
devido processo e realizar os tipos de erros toleráveis pela sociedade269.
Alguns contornos são oferecidos por Evelyn Douek para a aplicação desse princípio.
Para a autora deve ser considerado qual o interesse privado afetado, tanto da plataforma como
do usuário, e o ônus no estabelecimento dessas salvaguardas. Assim, seria possível concentrar
mais força de trabalho e melhorar o nível de raciocínio nas categorias que seriam mais

266
BLOCH-WEHBA, Hannah. Global Platform Governance: Private Power in the Shadow of the State, 72 SMU
L. REV. 27, pp. 27-80, 2019, p.61. Disponível em:
https://scholar.smu.edu/cgi/viewcontent.cgi?article=4778&context=smulr Acesso em: 14/12/2021.
267
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, p. 08. Disponível em:
https://www.hoover.org/research/verified-accountability Acesso em: 14/12/2021
268
A título de exemplo, “o Facebook removeu 2,2 bilhões de contas falsas apenas no primeiro trimestre de 2019,
bem como 1,8 bilhão de conteúdos que envolviam violações de spam. As pessoas recorreram de 20,8 milhões das
decisões tomadas em relação ao spam. Esta é uma média de cerca de 231.000 apelos por dia”. DOUEK, Evelyn.
Verified accountability: self-regulation of content moderation as an answer to the special problems of speech
regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, p. 09. Disponível em:
https://www.hoover.org/research/verified-accountability Trecho original: But Facebook removed 2.2 billion fake
accounts in the first quarter of 2019 alone, as well as 1.8 billion pieces of content for spam violations.70 People
appealed 20.8 million of the decisions made in relation to spam. This is an average of around 231,000 appeals a
day. Facebook takes action against content for violating its rules against spam more often than in any other
category, but it is still only one category in its community standards. Overall, Facebook received nearly 25 million
requests for appeal of content in the first quarter of 2019.
269
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, pp. 08-10. Disponível em:
https://www.hoover.org/research/verified-accountability Como exemplo, a autora menciona que o sistema deve
levar em consideração que um dos fatores necessários à moderação de conteúdo é a velocidade na tomada de
decisão para evitar a sua disseminação. Ocorre que essa rapidez aumenta a margem de erro. Logo, para ela é
necessário reconhecer tais erros temporários como uma “compensação inevitável e aceitável contra a necessidade
de impor regras dentro de um prazo que os torne significativos”. Trecho original (p.10): A systematic
understanding of due process might recognize that such temporary errors are an inevitable and acceptable trade-
off against the need to impose rules within a time frame that makes them meaningful.
90

importantes, como, por exemplo, no combate ao discurso de ódio270. Nesse caso, contudo, a
autora faz uma ressalva:

Claro que, se diferentes categorias de conteúdo são tratadas de forma


diferente, será importante garantir que as plataformas estejam categorizando
suas decisões com precisão. É aqui que uma auditoria autorregulatória,
aplicada e verificada por mecanismos legais, pode desempenhar um papel
fundamental271.

Dessa forma, em um sistema democrático de direito, decisões que afetam os direitos de


um indivíduo devem ser transparentes, com abertura de espaço para que esse possa contestar a
decisão ou apresentar informações adicionais que possam guiar a tomada de decisão. É
essencial a existência de mecanismos de revisão internos que ofereçam aos usuários a
oportunidade de revisar as decisões tomadas. E o exercício desse direito somente poderá ser
efetivado se as plataformas exercerem de forma justificada as suas decisões a respeito da
moderação de conteúdo, o que ajudaria a diminuir o peso da assimetria informacional que recai
sobre os usuários. Por outro lado, é importante buscar o equilíbrio entre a justiça da decisão
com outros fatores que envolvem a moderação de conteúdo, como escala, precisão e o direito
do usuário afetado.

3.3.1 Perspectiva brasileira

O princípio do devido processo tutela os direitos à vida, à liberdade e à propriedade e


tem previsão no artigo 5º, LIV, da CRFB, segundo o qual “ninguém será privado da liberdade

270
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, pp. 09-10. Disponível em:
https://www.hoover.org/research/verified-accountability Acesso em: 14/12/2021.
271
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, p. 10. Disponível em:
https://www.hoover.org/research/verified-accountability Trecho original: Of course, if different categories of
content are treated differently, it will become more importante to ensure that platforms are accurately categorizing
their decisions. This is where selfregulatory auditing, enforced and verified by legal mechanisms, can play a key
role.
91

ou dos seus bens sem o devido processo legal”272. Esse direito, cuja inspiração foi buscada no
direito americano, tem previsão, no plano internacional, no Pacto Internacional de Direitos
Civis e Políticos, artigo 14273, e na Convenção Americana sobre Direitos Humanos, em seu
artigo 8º274.
Esse direito constitui um princípio fundamental para a organização processual do Estado
na tomada de suas decisões, seja no âmbito do Poder Legislativo, Poder Executivo ou Poder
Judiciário, mas também pode ser aplicado entre os particulares em determinadas situações
substanciais, conforme será aprofundado no próximo subtítulo. A sua observância é condição
necessária e indispensável à obtenção de decisões justas275.
Se o Estado Constitucional tem o dever de tutelar de forma efetiva os direitos protegidos,
e, se essa proteção depende de um processo, ela somente poderá ocorrer através de um processo
justo. Segundo Marinone e Mitidiero, “todo e qualquer processo está sujeito ao controle de sua
justiça processual como condição indispensável para sua legitimidade perante nossa ordem

272
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html. Acesso em: 14/12/2021.
273
BRASIL, Decreto nº592 de 6 de julho de 1992. Atos Internacionais. Pacto Internacional sobre Direitos Civis e
Políticos. Promulgação. Disponível em: http://www.planalto.gov.br/ccivil_03/decreto/1990-1994/d0592.htm
Artigo 14: 1. Todas as pessoas são iguais perante os tribunais e as cortes de justiça. Toda pessoa terá o direito de
ser ouvida publicamente e com as devidas garantias por um tribunal competente, independente e imparcial,
estabelecido por lei, na apuração de qualquer acusação de caráter penal formulada contra ela ou na determinação
de seus direitos e obrigações de caráter civil. A imprensa e o público poderão ser excluídos de parte ou da totalidade
de um julgamento, quer por motivo de moral pública, de ordem pública ou de segurança nacional em uma
sociedade democrática, quer quando o interesse da vida privada das Partes o exija, que na medida em que isso seja
estritamente necessário na opinião da justiça, em circunstâncias específicas, nas quais a publicidade venha a
prejudicar os interesses da justiça; entretanto, qualquer sentença proferida em matéria penal ou civil deverá tornar-
se pública, a menos que o interesse de menores exija procedimento oposto, ou o processo diga respeito à
controvérsias matrimoniais ou à tutela de menores. (...)
3. Toda pessoa acusada de um delito terá direito, em plena igualdade, a, pelo menos, as seguintes garantias: a) De
ser informado, sem demora, numa língua que compreenda e de forma minuciosa, da natureza e dos motivos da
contra ela formulada; b) De dispor do tempo e dos meios necessários à preparação de sua defesa e a comunicar-se
com defensor de sua escolha; c) De ser julgado sem dilações indevidas; d) De estar presente no julgamento e de
defender-se pessoalmente ou por intermédio de defensor de sua escolha; de ser informado, caso não tenha defensor,
do direito que lhe assiste de tê-lo e, sempre que o interesse da justiça assim exija, de ter um defensor designado
ex-offício gratuitamente, se não tiver meios para remunerá-lo; e) De interrogar ou fazer interrogar as testemunhas
de acusão e de obter o comparecimento e o interrogatório das testemunhas de defesa nas mesmas condições de que
dispõem as de acusação; f) De ser assistida gratuitamente por um intérprete, caso não compreenda ou não fale a
língua empregada durante o julgamento; g) De não ser obrigada a depor contra si mesma, nem a confessar-se
culpada.
274
Convenção Americana de Direitos Humanos. 22 de novembro de 1969. Disponível em:
https://www.cidh.oas.org/basicos/portugues/c.convencao_americana.htm Acesso em: 14/12/2021. 1. Toda pessoa
tem direito a ser ouvida, com as devidas garantias e dentro de um prazo razoável, por um juiz ou tribunal
competente, independente e imparcial, estabelecido anteriormente por lei, na apuração de qualquer acusação penal
formulada contra ela, ou para que se determinem seus direitos ou obrigações de natureza civil, trabalhista, fiscal
ou de qualquer outra natureza.
275
SARLET, Ingo Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO, Daniel. Curso de direito
constitucional. 8. ed. – São Paulo: Saraiva Educação, 2019, p. 573. MORAES, Guilherme Pena. Curso de Direito
Constitucional. 4 ed. São Paulo: Atlas, 2021, pp. 1050-1052.
92

constitucional”276. Essa consideração significa que quando os processos jurisdicionais ou não


jurisdicionais objetivarem impor uma restrição de um determinado direito ou uma penalidade,
devem observar um “perfil organizacional mínimo de processo justo traçado na nossa
Constituição” 277, sob pena de nulidade.
No que se refere a utilização de dados em sistemas de decisão automatizadas, a LGPD
busca assegurar direitos de transparência, à explicação e revisão das decisões automatizadas. O
direito à explicação, abordado na subseção anterior, está previsto nos artigos 20, § 1º278, e 6º,
VI (princípio da transparência)279 e complementado pelo artigo 19280, ambos da LGPD, e
possibilita ao titular dos dados o direito de acesso a eles, ou seja, ter conhecimento sobre quais
dados, critérios e procedimentos estão sendo utilizados para alimentar os algoritmos
responsáveis pelos tratamentos que dão origem as decisões automatizadas, notadamente as que
incluem a criação de perfis comportamentais.
A partir do conhecimento sobre o funcionamento do sistema, caso o usuário detecte uma
decisão tomada através de meios unicamente automatizados, que afete seus interesses, tal como
o direito à informação, é possível que ele solicite sua revisão, nos moldes do artigo 20 da LGPD,
o que tem sido reconhecido como uma “garantia de direito à explicação”281. Dessa forma,

276
SARLET, Ingo Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO, Daniel. Curso de direito
constitucional. 8. ed. – São Paulo: Saraiva Educação, 2019, p. 573.
277
SARLET, Ingo Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO, Daniel. Curso de direito
constitucional. 8. ed. – São Paulo: Saraiva Educação, 2019, p. 573. Os autores explicam que esse perfil mínimo
abrange a colaboração do juiz com as partes, devendo esse ser paritário e assimétrico, bem como um processo que
seja capaz de prestar a tutela jurisdicional adequada e efetiva, ou seja, com paridade de armas, contraditório, ampla
defesa, procedimentos previsíveis, confiáveis e motivados, além de públicos e transparentes.
278
BRASIL, Lei 13.079/2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm Acesso em 08/11/2020. Artigo 20: O
titular dos dados tem direito a solicitar a revisão de decisões tomadas unicamente com base em tratamento
automatizado de dados pessoais que afetem seus interesses, incluídas as decisões destinadas a definir o seu perfil
pessoal, profissional, de consumo e de crédito ou os aspectos de sua personalidade. § 1º O controlador deverá
fornecer, sempre que solicitadas, informações claras e adequadas a respeito dos critérios e dos procedimentos
utilizados para a decisão automatizada, observados os segredos comercial e industrial. § 2º Em caso de não
oferecimento de informações de que trata o § 1º deste artigo baseado na observância de segredo comercial e
industrial, a autoridade nacional poderá realizar auditoria para verificação de aspectos discriminatórios em
tratamento automatizado de dados pessoais.
279
BRASIL, Lei 13.079/2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm Acesso em 08/11/2020 Artigo 6º: As
atividades de tratamento de dados pessoais deverão observar a boa-fé e os seguintes princípios: Inciso VI:
transparência: garantia, aos titulares, de informações claras, precisas e facilmente acessíveis sobre a realização do
tratamento e os respectivos agentes de tratamento, observados os segredos comercial e industrial;
280
BRASIL, Lei 13.079/2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm Acesso em 08/11/2020 Artigo 19: A
confirmação de existência ou o acesso a dados pessoais serão providenciados, mediante requisição do titular.
281
MONTEIRO, Renato Leite. Existe um direito à explicação na Lei Geral de Proteção de Dados no Brasil?
Instituto Igarapé. Artigo estratégico 39. 2018. Disponível em: Existe-um-direito-a-explicacao-na-Lei-Geral-de-
Protecao-de-Dados-no-Brasil.pdf (igarape.org.br) Acesso em: 14/12/2021.
93

conhecido os critérios utilizados para tomar a decisão automatizada, será possível a revisão
dessa decisão282.
Para além das obrigações de explicação no uso e tratamento dos dados, mais práticas de
transparência e justificação devem ser adotadas pelas plataformas em seus sistemas de
moderação de conteúdo. O devido processo, que inicialmente foi pensando como uma garantia
perante o Estado, para possibilitar aos cidadãos entenderem e tomar posições frente a decisões
que possam atingir suas liberdades e direitos, aqui encontra plena aplicabilidade, vez que essa
garantia de defesa deve ser observada também nas ações de atores não-estatais por estar atrelada
a ideia de democracia e Estado de Direito, o que será objeto do próximo subtítulo.

3.4 Aplicação dos direitos fundamentais as plataformas digitais

No cenário internacional, não há consenso entre os juristas sobre se as obrigações a


respeito dos direitos humanos devem ser estendidas a outros atores, além dos Estados283.
Embora, Estados e atores não-estatais estejam faticamente interligados, normativamente, eles
permanecem separados. Contudo, há um certo consenso de que atores não-estatais podem violar
os direitos humanos, sob a lei internacional de direitos humanos, e, por isso, esses devem, pelo
menos, respeitar os direitos humanos284.
Nessa direção, nota-se certa preocupação com o desenvolvimento de códigos de conduta
internacionais que fortalecem a autorregulação e responsabilização com base nos direitos

282
Uma crítica a essa previsão legal é quanto ao método de revisão das decisões, se novamente realizada por
sistemas automatizados, não garante a explicabilidade e contestabilidade das operações de tratamento de dados. A
lei é omissa nesse respeito, o que implicitamente implica uma autorização para que a revisão seja feita pelo mesmo
algoritmo que foi utilizado na decisão impugnada.
283
Nos Estados Unidos, por exemplo, a doutrina do state action preconiza que os direitos constitucionais se
aplicam apenas às ações estatais. Isso significa que as empresas privadas não possuem o dever de observar os
direitos fundamentais tal qual o Estado americano. Nesse sentido, a Suprema Corte americana já entendeu que não
se aplicam as restrições constitucionais às plataformas digitais, informando que “hospedar discursos de outros não
é uma função pública tradicional e exclusiva que as transforme sozinha em entidades públicas e atores públicos
sijeitos às restrições da primeira emenda”. DOUEK, Evelyn. Verified accountability: self-regulation of content
moderation as an answer to the special problems of speech regulation. Hoover Institution. Aegis series Paper no.
1903, 2019, p. 03. Disponível em: https://www.hoover.org/research/verified-accountability. Acesso em:
14/12/2021. Trecho original: The Supreme Court in a June 2019 decision made clear that it has little appetite for
applying constitutional constraints to tech platforms when it emphasized that “merely hosting speech by others is
not a traditional, exclusive public function and does not alone transform public entities into state actors subject
to First Amendment constraints”.
284
CALLAMARD, Agnés (2019). The Human Rights Obligations of Non-State Actors. In: Human rights in the
age of platforms. Editor: Rikke Frank Jørgensen: Cambridge, MA: The MIT Press. P. 201. Disponível em:
file:///C:/Users/user/Downloads/1005622.pdf
94

humanos. Como exemplo, pode-se mencionar os Códigos contra o discurso de ódio (2016)285 e
Desinformação (2018)286, além do próprio Guia elaborado pelo Conselho Europeu287 para a
moderação de conteúdo, já mencionado neste capítulo.
Segundo Agnès Callamard, a visão predominante é de que as empresas não têm
obrigações de direitos humanos, como portadores de deveres especiais, nos termos do previsto
no artigo 19(3) da Convenção Internacional de Direitos Civis e Políticos288. O portador desse
dever é o Estado e esse, ante à sua obrigação de prevenir eventuais abusos por parte das
corporações, deve estabelecer estruturas regulatórias e legislativas que assegurem que as
empresas privadas respeitem os direitos humanos, sob pena de responsabilização289.
Nesse sentido, o Guia de Princípios em Negócios e Direitos Humanos, elaborado pelas
Nações Unidas290, estabelece três pilares sobre o tema: (i) o Estado tem o dever de proteger os
indivíduos contra abusos de direitos humanos por terceiros por meio de políticas, regulação e
julgamento apropriados; (ii) as empresas devem agir com a devida diligência para evitar
infringir os direitos de terceiros e abordar os impactos adversos que puderem se envolver; e,
(iii) as vítimas devem ter acesso a recursos efetivos, tanto judiciais quanto não judiciais.
No espaço digital, quando a internet se popularizou não havia muitas acusações sobre
violações de direitos humanos pelas plataformas digitais. Isso se deve, em grande parte, a dois
fatores: (i) a visão libertária291 que predominou no início nos anos 1990, na qual acreditava-se
que a internet e seus intermediários eram um veículo para a proteção e expansão da liberdade

285
COUNCIL OF EUROPEAN UNION. Code of conduct on countering illegal hate speech online. Disponível
em: https://ec.europa.eu/info/policies/justice-and-fundamental-rights/combatting-discrimination/racism-and-
xenophobia/eu-code-conduct-countering-illegal-hate-speech-online_pt Acesso em 10/06/2022.
286
COUNCIL OF EURPEAN UNION. Code of Practice on DisinformationDisponível em: https://digital-
strategy.ec.europa.eu/en/library/2018-code-practice-disinformation Acesso em 10/06/2022. Esse código foi,
inclusive, reforçado através de uma versão mais atual, conforme será aprofundado no capítulo 5.
287
STEERING COMMITTEE FOR MEDIA AND INFORMATION SOCIETY. Content Moderation. Best
Practices towards effective legal and procedural frameworks for self-regulatory and co-regulatory mechanisms of
content moderation. Council of Europe, 2021. Disponível em: https://edoc.coe.int/en/internet/10198-content-
moderation-guidance-note.html
288
BRASIL, Decreto nº592 de 6 de julho de 1992. Atos Internacionais. Pacto Internacional sobre Direitos Civis e
Políticos. Promulgação. Artigo 19 (3). O exercício do direito previsto no parágrafo 2 do presente artigo implicará
deveres e responsabilidades especiais. Conseqüentemente, poderá estar sujeito a certas restrições, que devem,
entretanto, ser expressamente previstas em lei e que se façam necessárias para: a) assegurar o respeito dos direitos
e da reputação das demais pessoas; b) proteger a segurança nacional, a ordem, a saúde ou a moral pública.
289
CALLAMARD, Agnés. The Human Rights Obligations of Non-State Actors. In: Human rights in the age of
platforms. Editor: Rikke Frank Jørgensen : Cambridge, MA: The MIT Press, 2019, p. 201. Disponível em:
file:///C:/Users/user/Downloads/1005622.pdf Acesso em 10/04/2022.
290
UNITED NATIONS HUMAN RIGHTS. Office Of the High Comissioner. Guiding Principles on Business and
Human Rights. Implementing the United Nations “Protect, Respect and Remedy” Framework.2011, p.202.
Disponível em:
https://www.ohchr.org/sites/default/files/documents/publications/guidingprinciplesbusinesshr_en.pdf Acesso em
10/06/2022.
291
Esse ponto será aprofundado no próximo capítulo quando será estudado os arranjos institucionais sobre a
regulação da internet.
95

de expressão; e, (ii) a ausência de responsabilização, pelas legislações dos Estados, aos


provedores de serviço, vez que se adotou como política legislativa conceder imunidade pelos
conteúdos publicados por terceiros.
Como exemplo dessa imunidade, repisa-se a ampla imunidade, abordada no capítulo
anterior, oferecida pela 230 Section nos Estados Unidos e pela União Europeia, ainda que em
menor grau, já que a Diretiva de Comércio Eletrônico (o que se mantêm com a Nova Lei de
Serviços Digitais – Digital Service Act – DSA292) apenas confere imunidade se os provedores
de serviço atuarem como meros intermediários, vale dizer, se não desempenharem um papel
ativo em relação ao conteúdo e usuários, assumindo, portanto, um papel neutro, e não tiverem
conhecimento ou controle do conteúdo.
Essa visão libertária tomou um caminho diferente ao final de 2018, quando o jornal
Financial Times elegeu o termo techlash para “o ano em uma palavra”293. A benevolência com
as plataformas foi substituída por uma animosidade pública em relação as grandes empresas de
tecnologia. No início do século XXI, esses atores não-estatais se transformaram em alguns dos
maiores e mais influentes monopólios do mundo, com críticas sérias em relação ao modelo de
negócio instaurado por eles, que exige a coleta, análise e venda de dados pessoais de forma a
exercer uma vigilância em escala global.
O resultado desse crescimento são potenciais abusos em direitos materiais e processuais
dos usuários, conforme exposto ao longo deste capítulo quando foram abordados os direitos
afetados pela moderação de conteúdo. Essa foi também a conclusão do Comitê de Ministérios
da União Europeia, expedida pela Recomendação CM/Rec (2012):

Direitos humanos podem ser ameaçados nas redes sociais

3. O direito à liberdade de expressão e informação, bem como o direito à vida


privada e à dignidade humana também podem ser ameaçados nos serviços de
redes sociais, que também podem abrigar práticas discriminatórias. Ameaças
podem surgir, em particular, da falta de garantias legais e processuais em torno

292
EUROPEAN COMMISSION. Proposal for a Regulation on a Single Market For Digital Services (Digital
Services Act). 15 de dezembro de 2020. Disponível em: https://eur-lex.europa.eu/legal-
content/en/TXT/?qid=1608117147218&uri=COM%3A2020%3A825%3AFIN Acesso em 30/06/2022. Os
dispositivos 3º a 9º, do referido diploma legal, tratam da responsabilidade das plataformas.
293
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 01. A Autora explica que o termo passou a ser utilizado como
referência crescente à animosidade pública em relação as grandes empresas de tecnologia do Vale do Silício e seus
equivalentes chineses. Segundo a autora, o “tempo dessas reações pode ser associado às revelações que ocuparam
o debate público nos anos recentes envolvendo, principalmente, vazamentos e comercialização de dados, práticas
de vigilância e o papel que algumas plataformas vem cumprindo como reguladores de conteúdo, principalmente
durante as campanhas que precedem os pleitos eleitorais”.
96

de processos que podem levar à exclusão de usuários; proteção inadequada de


crianças e jovens contra conteúdos ou comportamentos nocivos; falta de
respeito pelos direitos dos outros; falta de configurações padrão amigáveis à
privacidade; falta de transparência sobre as finalidades para as quais os dados
pessoais são coletados e processados.

4. Os usuários de serviços de redes sociais devem respeitar os direitos e


liberdades de outras pessoas. A alfabetização midiática é particularmente
importante no contexto dos serviços de redes sociais para conscientizar os
usuários sobre seus direitos ao usar essas ferramentas e também ajudá-los a
adquirir ou reforçar os valores dos direitos humanos e desenvolver o
comportamento necessário para respeitar os direitos e liberdades de outras
pessoas294.

Não é razoável, portanto, pensar que as plataformas digitais não possuem


responsabilidades com a proteção dos direitos humanos. Acrescenta-se, por outro lado, que, na
prática, as tentativas de autorregulação, sob a perspectiva dos direitos humanos, tem sido
fracas295, sendo agravadas por um contexto de grandes vácuos legislativos, em grande parte por
razões jurisdicionais (conteúdo extraterritorial e atores não-domésticos)296.
Considerando que esses entes intermediários são essenciais para a proteção dos direitos
humanos, uma vez que eles possuem a capacidade de garantir um ambiente online saudável,
isto é, somente eles possuem a capacidade tecnológica para remover conteúdo, tirar o
anonimato, encerrar contas ou permitir a circulação de conteúdos que possam violar direitos
humanos, como privacidade, discriminação, dentre outros; e, considerando o fracasso de uma

294
Committee of Ministers of the Council of Europe. 2012. “Recommendation on the Protection of Human Rights
with Regard to Social Networking Services.” Recommendation CM/Rec(2012)4. Strasbourg, France: Council of
Europe. Disponível em: https://search.coe.int/cm/Pages/result_details.aspx?ObjectID=09000016805caa9b Acesso
em 15/03/2022. Trecho original: Human rights may be threatened on social networks: 3. The right to freedom of
expression and information, as well as the right to private life and human dignity may also be threatened on social
networking services, which can also shelter discriminatory practices. Threats may, in particular, arise from lack
of legal, and procedural, safeguards surrounding processes that can lead to the exclusion of users; inadequate
protection of children and young people against harmful content or behaviours; lack of respect for others’ rights;
lack of privacy-friendly default settings; lack of transparency about the purposes for which personal data are
collected and processed. 4. Users of social networking services should respect other people’s rights and freedoms.
Media literacy is particularly important in the context of social networking services in order to make the users
aware of their rights when using these tools, and also help them acquire or reinforce human rights values and
develop the behaviour necessary to respect other people’s rights and freedoms.
295
CALLAMARD, Agnés (2019). The Human Rights Obligations of Non-State Actors. In: Human rights in the
age of platforms. Editor: Rikke Frank Jørgensen : Cambridge, MA: The MIT Press. P. 214. Disponível em:
file:///C:/Users/user/Downloads/1005622.pdf Acesso em 10/04/2022.
296
CALLAMARD, Agnés (2019). The Human Rights Obligations of Non-State Actors. In: Human rights in the
age of platforms. Editor: Rikke Frank Jørgensen : Cambridge, MA: The MIT Press. P. 215. Disponível em:
file:///C:/Users/user/Downloads/1005622.pdf Acesso em 10/04/2022.
97

autorregulação forte e efetiva297, é necessário que os Estados adotem arranjos institucionais que
permitam uma ação híbrica, ponto que será aprofundado no capítulo 5.
É nesse contexto de proteção dos direitos humanos, somada as críticas da literatura
especializada a respeito da legitimidade das plataformas para regular o espaço digital, é que
surge o constitucionalismo digital, tema da próxima subseção. Sobre a ausência de legitimidade,
pode-se adiantar a crítica de Hanna Bloch-Weba298, que aponta para a falta legitimidade das
plataformas para lançarem suas próprias normas, regulando o espaço digital, sobretudo a
liberdade de expressão dos indivíduos, e impropriedade para o julgamento de disputas sobre os
quais discursos devem ou não ser protegidos. Esse assunto será abordado no próximo capítulo.

3.4.1 Constitucionalismo Digital

As plataformas digitais não possuem legitimidade democrática para exercerem uma


“soberania privada”299, atuando como legisladores (poder quase normativo), executores (poder
quase executivo) e julgadores (poder quase judicial) dentro de seus espaços virtuais, visto que
não passaram por um processo eleitoral, assim como carecem de mecanismos de supervisão e
accountability que assegurem equidade a seus processos de resolução de disputa.
O constitucionalismo digital é uma declinação do constitucionalismo moderno, ou seja,
compartilha os valores fundamentais deste, mas se concentra no campo específico da tecnologia
digital. O constitucionalismo prega que todos os sistemas jurídicos sejam condicionados e

297
Agnès Callamard ensina que uma das saídas para uma proteção forte de direitos humanos é através de uma
autorregulação forte e significativa. Isso demandaria a exigência de padrões de comportamento previamente
acordados, mas também um sistema de responsabilidade que possa ser confiável para usuários e outros atores.
Seriam necessários mecanismos de reclamação e investigação, que fossem eficazes e independentes. Para a autora,
a autorregulação tem um longo caminho a percorrer para atender os requisitos mínimos para uma autorregulação
efetiva. CALLAMARD, Agnés (2019). The Human Rights Obligations of Non-State Actors. In: Human rights
in the age of platforms. Editor: Rikke Frank Jørgensen : Cambridge, MA: The MIT Press. P. 216-217. Disponível
em: file:///C:/Users/user/Downloads/1005622.pdf
298
BLOCH-WEHBA, Hannah. Global Platform Governance: Private Power in the Shadow of the State, 72 SMU
L. REV. 27, pp. 27-80, 2019, p. 27. Disponível em:
https://scholar.smu.edu/cgi/viewcontent.cgi?article=4778&context=smulr Acesso em 20/08/2021.
299
O termo “soberania privada” é utilizado no sentido indicado por Luca Belli, em seu artigo Structural Power as
a Critical Element of Social Media Platforms’ Private Sovereignty. Nesse estudo, o autor aponta que as grandes
plataformas estão adquirindo uma forma de soberania, já que exercem uma forma de poder estrutural na medida
que definem e implementam seus sistemas. BELLI, Luca. Structural Power as a Critical Element of Digital
Platforms’ Private Sovereignty. In Edoardo Celeste, Amélie Heldt e Clara Iglesias Keller (eds). Constitutionalising
Social Media (Hart 2022). Disponível em: https://lucabelli.net/2021/08/10/structural-power-as-a-critical-element-
of-social-media-platforms-private-sovereignty/ Acesso em 07/07/2022.
98

interpretados de acordo com os valores constitucionais. Nas palavras de Luís Roberto


Barroso300:

A ideia de constitucionalização do direito aqui explorada está associada a um


efeito expansivo das normas constitucionais, cujo conteúdo material e
axiológico se irradia, com força normativa, por todo o sistema jurídico. Os
valores, os fins públicos e os comportamentos contemplados nos princípios e
regras da Constituição passam a condicionar a validade e o sentido de todas
as normas do direito infraconstitucional. Como intuitivo, a
constitucionalização repercute sobre a atuação dos três Poderes, inclusive e
notadamente nas suas relações com os particulares. Porém, mais original
ainda: repercute, também, nas relações entre particulares.

Já o constitucionalismo digital, pode ser entendido como uma “ideologia que visa
estabelecer e assegurar a existência de um quadro normativo para a proteção de direitos
fundamentais e o equilíbrio de poderes no ambiente digital”301. Ele se liberta dos laços que o
prendem à dimensão estatal, na qual surgiu a noção de constitucionalismo, e passa a ser
utilizado para limitar a governança do poder no âmbito da internet.
Segundo Edoardo Celeste, a noção de constitucionalismo digital não deve ser utilizada
para denominar os instrumentos concretos que fundamentam seus valores e ideais, mas deve-
se pensa-lo como um conjunto de valores e ideais que permeiam, orientam e informam esses

300
BARROSO, Luís Roberto. Neoconstitucionalismo e Constitucionalização do Direito. Revista de Direito
Administrativo (RDA) nº 240. 2005. P. 12/13. Disponível em: https://luisrobertobarroso.com.br/wp-
content/uploads/2017/09/neoconstitucionalismo_e_constitucionalizacao_do_direito_pt.pdf
301
CELESTE, Edoardo, SANTARÉM, Paulo Rená. Constitucionalismo Digital: Mapeando a resposta
constitucional aos desafios da tecnologia digital. Revista Brasileira De Direitos Fundamentais & Justiça, 15(45),
63–91. 2022. Disponível em: https://dfj.emnuvens.com.br/dfj/article/view/1219 Acesso em 10/05/2022. O autor
informa, em seu artigo, que o conceito é novo e divergente entre os acadêmicos. Como exemplo, ele cita três
autores principais: Fitzgerald; Berman; Suzor e Gill, Redeker e Gasser. Fitzgerald (1999) reconhece que, na
sociedade da informação, o exercício do poder é compartilhado por atores públicos e privados. A Governança das
plataformas requer uma estrutura mista, que combina autorregulação do setor privado e supervisão pelas
instituições públicas. Dessa forma, o constitucionalismo atuaria como mediador das relações de poder desses dois
atores. No entanto, para ele, o direito privado dos estados é que exerceria o papel constitucional (instrumento) de
limitar a autorregulação dos atores privados. Berman (2000) propõe um constitucionalismo constitutivo, no qual
os atores privados devem se submeter ao direito constitucional. Para ele, não seria adequado a utilização do direito
privado comum em uma função “constitucionalizante”, na forma proposta por FitzGerald. O instrumento adequado
para limitar o poder dos atores privados seria o próprio direito constitucional. Suzor é quem lança o termo
“constitucionalismo digital”. Ele considera a autorregulação das plataformas legítima, em razão do consentimento
dado pelos usuários. Por isso, suas relações devem ser regidas nos limites do direito privado contratual. No entanto,
esse poder privado é limitado também pelo direito constitucional. O direito constitucional exerceria, então, um
duplo papel: a) determinar a extensão em que a autorregulação dos atores privados está em conformidade com os
valores estabelecidos pelo Estado; e, b) informar e liderar o desenvolvimento do direito contratual. Em síntese,
Suzor reconhece o papel constitucionalizante do direito privado e, ao mesmo tempo, a função de orientação e
informação do direito constitucional.
99

instrumentos. Esses, por sua vez, são os mais variados, pois o processo de constitucionalização
do ambiente digital302 não é unitário (possui diversos atores e instrumentos). Isso significa que
podem servir como instrumentos desse processo o direito ordinário, cartas de direito da internet,
o direito constitucional e até mesmo mecanismo de resolução de disputas de organismos
internacionais promovidos pela ICANN (Internet Corporation for Assigned Names and
Numbers)303.
Dessa forma, o constitucionalismo digital propõe a aplicação dos valores fundamentais
do Estado Democrático de Direito aos processos de governança empreendidos pelas
plataformas digitais, pessoas jurídicas de direito privado. Nesse sentido,

O panorama do Estado de Direito fornece uma lente através da qual se pode


avaliar a legitimidade da governança online e, portanto, começar a articular
quais limites as sociedades devem impor à autonomia das plataformas. Para
que a governança das plataformas seja legítima de acordo com os valores do
Estado de Direito, devemos esperar certas salvaguardas processuais básicas.
Em primeiro lugar, as decisões devem ser tomadas de acordo com um
conjunto de regras, e não de uma forma arbitrária ou inconstante. Em segundo
lugar, essas regras devem ser claras, bem compreendidas e relativamente
estáveis, e devem ser aplicadas de maneira igualitária e consistente. Terceiro,
deve haver salvaguardas adequadas de devido processo, incluindo uma
explicação sobre o porquê uma determinada decisão foi tomada, além de
algum tipo de processo de apelação que permita uma revisão independente e
uma resolução justa das disputas304.

302
CELESTE, Edoardo, SANTARÉM, Paulo Rená. Constitucionalismo Digital: Mapeando a resposta
constitucional aos desafios da tecnologia digital. Revista Brasileira De Direitos Fundamentais & Justiça, 15(45),
63–91. 2022. Disponível em: https://dfj.emnuvens.com.br/dfj/article/view/1219 Acesso em 10/05/2022. O Autor
define a expressão “constitucionalização do ambiente digital” para “identificar o processo de produção de normas
que visam a garantir a proteção dos direitos fundamentais e o equilíbrio de poderes nesse contexto”. Esse processo
visa produzir uma série de contramedidas para lidar com as ameaças no equilíbrio do ecossistema constitucional
desencadeado pela tecnologia.
303
É uma entidade sem fins lucrativos, constituída em 1988, responsável por manter a Internet segura, estável e
interoperacional, além de promove a concorrência e desenvolver uma política aplicável à utilização de
identificadores únicos na Internet. Para mais informações: https://www.icann.org/resources/pages/what-2012-02-
25-pt Acesso em 30/06/2022.
304
SUZOR, Nicolas. Digital Constitutionalism: Using the Rule of Law to Evaluate the Legitimacy of Governance
by Platforms. Social Media + Society, July-September, 2018, p. 2. Disponível em:
https://journals.sagepub.com/doi/10.1177/2056305118787812 Acesso em: 10/03/2022. Tradução livre do
original: “The rule of law framework provides a lens through which to evaluate the legitimacy of online governance
and therefore to begin to articulate what limits societies should impose on the autonomy of platforms. For the
governance of platforms to be legitimate according to rule of law values, we should expect certain basic
procedural safeguards. First, decisions must be made according to a set of rules, and not in a way that is arbi-
trary or capricious. Second, these rules must be clear, well-understood, and relatively stable, and they must be
applied equally and consistently. Third, there must be adequate due process safeguards, including an explanation
of why a particular decision was made and some form of an appeals process that allows for the independent review
and fair resolution of disputes”.
100

Se o constitucionalismo digital pretende aplicar os valores constitucionais do Estado de


Direito para a limitação de poder aos processos de governança empreendidos pelas plataformas
digitais, é possível traçar um paralelo entre essa ideologia e a teoria da eficácia direta dos
direitos fundamentais sobre as relações mantidas entre esses organismos privados e seus
usuários, aplicada no direito brasileiro.
No Brasil, além da vinculação estatal ao respeito aos direitos fundamentais, a
Constituição da República, em seu artigo 5º, § 1º305, também autoriza a vinculação dos direitos
fundamentais às relações privadas, o que pode ser extraído, conforme entendimento majoritário,
da aplicação imediata do referido artigo, que não carece de regulamentação específica por lei306.
O precedente que consagrou esse entendimento foi o julgamento, no Supremo Tribunal
Federal, que determinou que a União Brasileira de Compositores, uma entidade civil de caráter
privado, tinha o dever de ofertar a seus sócios um devido processo legal, com contraditório e
ampla defesa, na hipótese de tomarem uma decisão sobre a exclusão de qualquer integrante da
entidade307.
Dessa forma, se a jurisprudência e doutrina brasileira consideram que os agentes
privados estão juridicamente sujeitos a padrões mínimos de devido processo, em razão da
necessidade de respeito aos direitos fundamentais, é razoável concluir que esses princípios
também devem ser exigidos das plataformas digitais de redes sociais, considerando,
especialmente, o poder de influência que elas possuem no fluxo informacional disponibilizado
à sociedade308.
Do que foi exposto até aqui, é possível afirmar que a atividade de moderação de
conteúdo afeta de forma significativa os direitos humanos. E, mesmo em se tratando de atores
não-estatais, os entes intermediários precisam respeitar esses direitos. Por isso, é importante o

305
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.htm Acesso em: 14/12/2021. Artigo 5º, § 1º: As
normas definidoras dos direitos e garantias fundamentais têm aplicação imediata.
306
HARTMANN, Ivar, SARLET, Ingo. Direitos fundamentais e direito privado: a proteção da liberdade de
expressão nas mídias sociais. Direito Público, 16(90), 2019, p. 89. Disponível em:
https://www.portaldeperiodicos.idp.edu.br/direitopublico/article/view/3755 Acesso em 10/06/2022.
307
Recurso Extraordinário nº 201819-8/RJ, Relator: Ministro Gilmar Mendes. Segunda Turma. 11/10/2005. DJ:
27/10/2006 Disponível em: https://redir.stf.jus.br/paginadorpub/paginador.jsp?docTP=AC&docID=388784
Acesso em 10/06/2022.
308
Hartmann e Sarlet apontam alguns critérios para se ponderar, respectivamente, se a aplicação direta dos direitos
fundamentais é demandada no caso em concreto e em que intensidade. Dentre eles, se encontram: i) a desigualdade
material presente na relação entre particulares; ii) a natureza do direito material e, iii) a proximidade da relação
com a esfera pública. HARTMANN, Ivar, SARLET, Ingo. Direitos fundamentais e direito privado: a proteção da
liberdade de expressão nas mídias sociais. Direito Público, 16(90), 2019, pp. 96-101. Disponível em:
https://www.portaldeperiodicos.idp.edu.br/direitopublico/article/view/3755 Acesso em 10/06/2022.
101

desenvolvimento de mecanismos que “construam um espaço de coexistência das novas


tecnologias e dos vários interesses em questão com o respeito aos direitos fundamentais”309.
Diante do panorama apresentado, deve-se buscar uma forma de regular, que equilibre o
desenvolvimento da tecnologia através do ambiente criado pelas plataformas digitais, de modo
a permitir a inovação, sem descuidar da proteção aos direitos humanos. E o Estado desempenha
um papel fundamental nesse movimento, pois ele tem o dever de garantir a proteção desses
direitos fundamentais, mas em equilíbrio e respeito ao princípio da livre iniciativa. Conforme
será desenvolvido neste trabalho, caberá ao Estado um papel na regulação relacionada a
moderação de conteúdo das redes sociais, que envolverá o estabelecimento de diretrizes para a
atividade ou ratificando eventuais código de condutas elaborado pelas empresas privadas, além
de atuar como fiscalizador do cumprimento desses deveres e compromissos assumidos.
Conforme apontado na introdução deste trabalho, o objeto endereçado é a regulação da
atividade de moderação de conteúdo nas redes sociais. Os dois primeiros capítulos desta
pesquisa focaram na atividade de moderação de conteúdo e suas implicações aos direitos
fundamentais, com o objetivo de apresentar o cenário em que as plataformas de redes sociais
atuam de forma que o leitor tenha condições de compreender a atividade para a qual, mais a
frente, se defenderá a necessidade de sua regulação.
Concluído, portanto, a primeira parte deste trabalho. A segunda parte, que se inicia a
partir do próximo capítulo, foi direcionada para o tema da regulação das plataformas de redes
sociais e para a investigação do papel do Estado nessa regulação. Para se alcançar esse objetivo,
serão tecidos mais três capítulos, nos moldes do plano apresentado na introdução. Assim, no
próximo capítulo será traçado um estudo sobre a governança da internet, aproximando-se da
governança das plataformas de redes sociais. Também serão apresentadas as críticas da
literatura sobre a legitimidade desses entes intermediários para o exercício dessa governança e
as possíveis soluções apontadas em um cenário multinacional.

309
DONEDA, Danilo. Da privacidade à proteção de dados: elementos da formação da Lei Geral de Proteção de
Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019, p.40.
102

4 GOVERNANÇA DAS PLATAFORMAS DE REDES SOCIAIS

Neste capítulo será lançado um olhar mais ampliado antes de se iniciar o tema da
regulação das plataformas de redes sociais propriamente. Antes de se analisar a ferramenta
(regulação), é proposto neste capítulo uma análise da estrutura na qual ocorrem as relações
políticas e econômicas (governança). É aqui que também se fará uma pausa para avaliar a
legitimidade das plataformas digitais de redes sociais para o exercício da governança da
internet, crítica muito debatida pela literatura. As teorias que são propostas para contornar esse
problema também serão analisadas, tal como o multissetorialismo, o constitucionalismo digital,
o cumprimento de deveres procedimentais pelas redes sociais, além da própria iniciativa desses
entes intermediários através da introdução de orientações voltadas à responsabilidade social e
a introdução da participação dos usuários na governança.

4.1 Governança e regulação: noções distintas

Inicialmente, é interessante registrar que governança e regulação são conceitos distintos,


sendo o primeiro, mais amplo, uma espécie de conceito guarda-chuva, que abrange o de
regulação. Contudo, são conceitos que guardam uma estrita conexão, já que a governança
oferece uma estrutura na qual as relações políticas e econômicas se formulam por meio da
regulação, que pode ser considerada um mecanismo de governança310.
Robert Gorwa explica que a governança, antes associada a governos domésticos, era
entendida como uma “capacidade de o governo elaborar, fazer cumprir as regras e prestar
serviços”311. Contudo, após a década de 1990, sob a influência da globalização, o tema passou
a ser tratado sob um olhar global, com uma dimensão muito mais abrangente.

310
PAPAEVANGELOU, Charilaos. The existential stakes of platform governance: a critical literature review
[version 2; peer review: 3 approved] Open Research Europe 2021, 1:31, p .03.
https://doi.org/10.12688/openreseurope.13358.2 Acesso em 30/06/2022.
311
GORWA, Robert. What is Plataform Governance? Information, Communication & Society. University of
Oxford. 2019, p. 4. Disponível em: https://gorwa.co.uk/files/platformgovernance.pdf Trecho original: Initially
associated with domestic governments, governance was less a set of practices than a capacity: as per Fukuyama's
(2013, p. 4) traditional articulation, governance is the \government's ability to make and enforce rules, and to
deliver services."
103

Essa nova concepção substituiu o estado-centrismo das relações de poder e conflito por
formas mais híbridas e descentralizadas das estruturas de governança oriundas do século XX,
formadas amplamente por atores não-estatais, em resposta à complexidade das questões
surgidas na sociedade contemporânea. Essa complexidade requer que, em determinadas
matérias, o Estado utilize o aconselhamento de especialistas para conceber e operar políticas
públicas, não comportando mais decisões isoladas312.
Nesse sentido, conforme observado por Gerry Stoker, substitui-se o entendimento da
governança como uma capacidade de governar, para que essa seja entendida como um processo
de se “criar as condições para um governo ordenado e de ação coletiva” 313
. Segundo o autor,
sua essência seria criar mecanismos de governar sem se recorrer a autoridade ou sanções de
governo. Portanto, mais do que uma capacidade, torna-se uma função específica, que envolve
um conjunto de interações complexas entre diferentes atores com os mais variados
comportamentos.
Clara Keller aponta que essa terminologia afasta-se da lógica centralizada e hierárquica
estatal, associando-se a “novos processos de governar” 314, o que faz com que governança possa
englobar arranjos públicos, privados ou multissetoriais. O presente trabalho segue o conceito
trazido por Papaevangelou, para o qual, após uma revisão da bibliografia sobre o assunto,
governança pode ser entendida como “uma estrutura complexa em rede que acomoda diferentes
partes interessadas, que estão conectadas e coordenadas por meio de vários tipos de
regulamentos, normas e práticas”315.
A regulação316, assim como a governança, é um conceito polissêmico, que pode variar
de acordo a área relacionada a seu estudo (economia, ciência política, sociologia, etc). A título
de exemplo, Colin Scott317 explica que, para a teoria econômica da regulação, há uma nítida

312
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 80.
313
STOKER, Gerry. Governance as theory: Five propositions. International Social Science Journal,
50(155):17{28, 1998, p. 15. Disponível: https://onlinelibrary.wiley.com/doi/epdf/10.1111/issj.12189 Trecho
original: Governance is ultimately concerned with creating the conditions for ordered rule and collective action.
The outputs of governance are not therefore different from those of government. It is rather a matter of a difference
in processes.
314
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 78.
315
PAPAEVANGELOU, Charilaos. The existential stakes of platform governance: a critical literature review
[version 2; peer review: 3 approved] Open Research Europe 1:31, 2021, p.03.
https://doi.org/10.12688/openreseurope.13358.2 Trecho original: Governance is defined here as a complex
networked structure that accommodates different stakeholders, who are connected to and coordinated through
various types of regulations, norms and practices.
316
Outros aspectos da regulação serão estudados com mais profundidade no próximo capítulo.
317
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004, pp.1-2.
104

distinção entre mercados318 e regulação, sendo que o Estado fornece regras básicas de contrato
e direitos da propriedade, base da economia capitalista, e a regulação é implementada onde o
mercado apresenta falhas. A ciência política segue esse conceito da área econômica. No entanto,
a sociologia, rejeita essa análise, concentrando-se em pesquisar as diversas formas de
manifestação de poder, argumentando que a regulação é um fator na formação da conduta geral
e, portanto, formador dos mercados.
Sob o viés econômico, Baldwin, Cave e Lodge319 explicam que o termo é, muitas vezes,
indentificado com a atividade governamental, em que pese os diversos conceitos adotados.
Contudo, os autores alertam que a palavra deve ser pensanda em vários sentidos, citando três
deles: (a) como um conjunto específico de comandos, no qual a regulação envolve um conjunto
de regras vinculantes aplicáveis por um determinado corpo; (b) como influência estatal
deliberada, na qual a regulação abrange todas as ações estatais que são projetadas para
influenciar o comportamento social ou empresarial; e, (c) como todas as formas de influência
social ou econômica, onde todos os mecanismos que afetam o comportamento, sejam eles
provenientes do Estado ou outras fontes são considerados regulatórios. Esse último sentido
recebe influência da teoria da regulação inteligente (smart regulation) que considerou a
possibilidade de outros atores para exercerem a regulação.
Neste trabalho, o termo regulação será utilizado no sentido ampliado, à luz do conceito
de Papaevangelou, segundo o qual a regulação é um “mecanismo de governança, envolvendo a
intervenção intencional – direta ou indireta – nas atividades de um stakeholder, com a intenção
de mudar o seu modus operandi, que, por sua vez, pode ter consequências imprevisíveis – ainda
que mensuráveis - para o regime de governança, que envolve um processo dinâmico e
negociável”320

318
Mercado pode ser definido como um “grupo de compradores e vendores de um determinado bem ou serviço.
Os compradores, como grupo, determinam a demanda pelo produto, e os vendedores, também como grupo,
determinam a oferta do produto”. Esses mercados assumem diferentes formas e podem ser organizados ou não.
MANKIW, N. Gregory. Introdução à Economia. São Paulo: Cengage Learning, 2015. p.54.
319
BALDWIN, Robert, CAVE, MARTIN e LODGE, Martin. Understanding Regulation. Theory, Strategy and
Pratice. 2ed. Oxford: Oxford University. 2012, p. 03 Disponível em:
https://oxford.universitypressscholarship.com/view/10.1093/acprof:osobl/9780199576081.001.0001/acprof-
9780199576081
320
PAPAEVANGELOU, Charilaos. The existential stakes of platform governance: a critical literature review
[version 2; peer review: 3 approved] Open Research Europe 1:31. 2021, p 03.
https://doi.org/10.12688/openreseurope.13358.2p. 03. https://doi.org/10.12688/openreseurope.13358.2 Acesso
em 30/05/2022. Trecho original: Regulation is defined as a governance mechanism, involving the intentional –
direct or indirect – intervention in the activities of a stakeholder, with the intention to change a stakeholder’s
modus operandi, which, in turn, may have unpredictable – yet measurable - consequences to the governance
regime.
105

Essas características denotam a regulação como um “produto de negociações e


dinâmicas de poder”321, que, pretende prevenir certas ações indesejáveis, com objetivo de
controlar o comportamento de um grupo de atores, embora o efeito sobre a governança de um
determinado grupo não possa ser atribuído como previsível.
Feita essa introdução, a partir dos conceitos aqui trazidos, será realizado, nas próximas
subseções, um estudo sobre a governança da internet, sobretudo aquela exercida pelas
plataformas de redes sociais, para destacar que esses entes intermediários regulam o espaço
digital, o que, por consequência, expande as formas tradicionais de regulação criadas no Estado
Regulador, trazendo novos arranjos e estratégias regulatórias, temas do próximo capítulo.

4.1.1 Governança das redes sociais

No que se refere à internet, o início de sua governança está atrelado à formação de alguns
organismos multissetoriais que se preocuparam com a formulação de suas políticas. A ideia
inicial era de que a gestão da internet deveria caber àqueles que estariam sujeitos as suas
decisões, desvinculados dos Estados322. O mais famoso deles é a ICANN (Internet Corporation
for Assigned Names and Numbers), cuja sede fica nos Estados Unidos. Criada em 1998, sua
função é desenvolver protocolos (IPv4 e IPv6) que atribuem uma identidade e um endereço
exclusivo a um computador e usuário, de forma individual na internet, além de garantir que os
dados sejam transmitidos ou recuperados no endereço certo323. Também gerencia nomes de
domínio e sistemas de servidores raiz324.
O conceito de governança da internet foi consagrado na Cúpula Mundial da Sociedade
de Informação (World Summit on the Information Society - WSIS)325, organizada pela ONU em

321
PAPAEVANGELOU, Charilaos. The existential stakes of platform governance: a critical literature review
[version 2; peer review: 3 approved] Open Research Europe 1:31. 2021, p. 04.
https://doi.org/10.12688/openreseurope.13358.2, Acesso em 10/05/2022.
322
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 75.
323
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 74.
324
Para mais informações: https://www.icann.org/history Acesso em 30/06/2022.
325
Esse fórum foi organizado com o objetivo de discutir ações concretas para a construção de bases para uma
sociedade de informação para todos. Representa, ao lado de outras instituições, um produto de organizações
formais, com regras e processos explícitos e dedicados a tópicos próprios de discussão. KELLER, Clara Iglesias.
Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do Estado. Rio de Janeiro: Lumen
Juris. 2019, pp. 87-88.
106

2003 e 2005326, na qual foi elaborado um documento, ao final da sua segunda fase (2005), a
“Agenda de Tunes”327. Esse documento estabeleceu que a governança da internet é “o
desenvolvimento e aplicação por governos, setor privado e sociedade civil, em seus respectivos
papeis, de princípios, normas, regras, procedimentos de tomada de decisão e programas
compartilhados que moldam a evolução e uso da internet”328.
Essa visão concede ênfase aos atores que exercem a governança, por isso é apontada
como ultrapassada, vez que há outros fatores, como por exemplo, o seu objeto e complexidade,
que devem influenciar na formação do conceito329. Ainda, pode-se mencionar que os atores que
desempenham essa governança, além dos mencionados, são mais amplos, podendo-se
mencionar os usuários, anunciantes, grupos não-governamentais de proteção de direitos
humanos, pesquisadores acadêmicos, jornalistas, dentre outros, que influenciam o ambiente
online, sem hierarquia entre eles.
Nesse sentido, Luca Belli330 propõe o uso do termo governança relacionado a estrutura
que estimula a interação e associação de diferentes atores em um espaço político, no qual se
confrontam ideologias e interesses econômicos divergentes. Sob essa lente, pode-se considerar
a governança como um conjunto de processos e instituições que organizam ideias heterogêneas
para promover novos instrumentos regulatórios de forma colaborativa para resolver problemas
específicos sobre o funcionamento da internet. A governança da internet é, então, conforme
antes mencionada, uma função específica que abrange uma complexa rede de interações com
diversos atores.
A governança tem por objetivo equilibrar e garantir o funcionamento desse sistema
complexo que envolve a estrutura da internet e seus instrumentos podem ser de origem pública,
tais como como convenções internacionais, leis, regulamentos e outros, ou de origem privada,
tal como antes já mencionado, os termos e políticas de uso, algoritmos, padrões e protocolos

326
BELLI, Luca. A heterostakeholder cooperation for sustainable internet policymaking. Internet Policy Review,
n. 4, 2015, p. 03. Disponível em: https://policyreview.info/pdf/policyreview-2015-2-364.pdf Acesso em
30/06/2022.
327
World Summit on the Information Society – WSIS. Tunis Agenda for the information society. 18 de novembro
de 2005. Disponível em: https://www.itu.int/net/wsis/docs2/tunis/off/6rev1.html Acesso em 30/06/2022.
328
World Summit on the Information Society – WSIS. Tunis Agenda for the information society. 18 de novembro
de 2005. Disponível em: https://www.itu.int/net/wsis/docs2/tunis/off/6rev1.html Acesso em 30/06/2022.
Parágrafo 34: A working definition of Internet governance is the development and application by governments, the
private sector and civil society, in their respective roles, of shared principles, norms, rules, decision-making
procedures, and programmes that shape the evolution and use of the Internet.
329
Keller, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 83.
330
BELLI, Luca. Internet Governance and Regulation: A Critical Presentation. In: Belli, Luca, Cavalli, Olga.
Internet Governance and Regulations in Latin America. FGV Direito Rio. 2019, p. 44. Disponível em:
https://www.gobernanzainternet.org/book/book_en.pdf. Acesso em 10/05/2022.
107

que definem o software, além das arquiteturas que determinam o que usuários podem e não
podem fazer no ambiente digital331.
Com exceção das regulações governamentais, esses documentos não são vinculantes,
mas possuem a importante função de trazer uma linguagem normativa sobre os principais
pontos da matéria, atribuindo certos valores que devem ser considerados nas políticas adotadas.
Dessa forma, tanto as escolhas algorítmicas programadas pelo modelo estabelecido pela
plataforma, quanto uma lei nacional que trate sobre a proteção dos dados dos usuários, por
exemplo, podem ser considerados instrumentos da governança, já que podem gerar efeitos para
os agentes da internet332.
Hoje, além da governança da internet, parte da literatura333, aprofundando o estudo do
tema, traz um novo subcampo, a governança das plataformas. Devido à natureza e às
características técnicas da internet, as plataformas são atores privados, que desempenham um
papel fundamental no ecossistema da internet. São elas que tomam decisões políticas
importantes e projetam sua arquitetura para desempenhar essas decisões, afetando
significativamente os comportamentos online dos usuários.
Segundo Gorwa, a governança das plataformas é uma abordagem que requer uma
compreensão de seus sistemas técnicos e uma apreciação global pela arena dentro do qual essas
empresas funcionam334, conforme apresentado na primeira parte deste trabalho. E, dentro desse
sistema, a fim de operá-lo, pode-se citar novamente o entendimento de Grimmelmann, segundo
o qual a moderação de conteúdo é um mecanismo de governança335, pelo que toda a estrutura

331
BELLI, Luca. Internet Governance and Regulation: A Critical Presentation. In: Belli, Luca, Cavalli, Olga.
Internet Governance and Regulations in Latin America. FGV Direito Rio. 2019, p. 44. Disponível em:
https://www.gobernanzainternet.org/book/book_en.pdf. Acesso em 10/05/2022.
332
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 73.
333
PAPAEVANGELOU, Charilaos. The existential stakes of platform governance: a critical literature review
[version 2; peer review: 3 approved] Open Research Europe 2021, 1:31. P. 04.
https://doi.org/10.12688/openreseurope.13358.2. Acesso em 10/05/2022. DOUEK, Evelyn. Governing Online
Speech: From ‘Posts-as-trumps’ to proportionality and probability. 121 COLUM. L. REV. 759 (2021). Disponível
em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3679607 Acesso em 30/06/2022; HELBERGER, Natali.
The Political Power of Platforms: How Current Attempts to Regulate Misinformation Amplify Opinion Power.
Digital Journalism 2020, VOL. 8, NO. 6, 842-854. Disponível em
https://www.tandfonline.com/doi/epub/10.1080/21670811.2020.1773888?needAccess=true Acesso em
30/06/2022; GORWA, Robert. What is Plataform Governance? Information, Communication & Society.
University of Oxford. 2019. Disponível em: https://gorwa.co.uk/files/platformgovernance.pdf Acesso em
10/05/2022.
334
GORWA, Robert. What is Plataform Governance? Information, Communication & Society. University of
Oxford. 2019. P. 4. Disponível em: https://gorwa.co.uk/files/platformgovernance.pdf Trecho original: Platform
governance is an approach necessitating an understanding of technical systems (platforms) and an appreciation
for the inherently global arena within which these platform companies function.
335
GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015, p. 47. Disponível em:
https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020.
108

que envolve políticas e termos de uso, sistemas de algoritmos, interfaces e outros aparatos
técnicos são instrumentos que vão operar um complexo sistema de interações entre as
plataformas e os diversos atores que utilizam seu espaço.
É essa governança que exerce influência na disseminação do conhecimento e notícias
pelo espaço digital, nos debates políticos atuais, e principalemente, nos direitos funfamentais
dos usuários, conforme destacado nos capítulos anteriores. E, por isso, é que estudos tem
questionado a legitimidade das plataformas para desempenhar esse papel. É o que será abordado
a seguir.

4.2 Críticas à Governança exercida pelas plataformas de redes sociais no ambiente


digital

Conforme já apontado no segundo capítulo deste trabalho, as plataformas digitais, em


razão da ausência da regulação estatal de suas atividades, passaram a regular, de maneira
privada o espaço virtual, desempenhando funções que antes eram inerentes ao Estado e
consideradas tipicamente públicas. Passou-se a observar, portanto, uma “privatização das
funções de regulação e do poder de polícia”336.
Com o passar do tempo, essa governança exercida, principalmente, pelas plataformas
digitais, passou a sofrer inúmeras críticas337, ressaltando, dentre elas, questionamentos sobre a
legitimidade dessas pessoas jurídicas privadas para exercerem tamanha influência no espaço
virtual. Essa falta de confiança é atrelada a ausência de participação democrática na definição
e implementação das políticas que ditam o ambiente online.

336
BELLI, Luca, FRANCISCO, Pedro Augusto, ZINGALES, Nicolo. Law of the Land or Law of the Platform?
Beware of the Privatisation of Regulation and Police. In: Platform regulations: how platforms are regulated
and how they regulate us. FGV Direito Rio. 2017, pp. 41-64. Disponível em:
https://bibliotecadigital.fgv.br/dspace/handle/10438/19402 Acesso em 10/05/2022.
337
Fenômeno que ficou conhecido como techlash (ver nota de referência nº 293). Segundo Evelyn Douek esse
movimento permitiu a consciência de que as plataformas de mídias digitais carecem de responsabilidade, sendo
arbitrárias e ilegítimas. Essa demanda por maior responsabilidade permite o desenvolvimento de teorias que serão
tratadas nesta subseção e abrem espaço para novos arranjos institucionais, como a autorregulação e corregulação,
que serão tratados no próximo capítulo. DOUEK, Evelyn. Verified accountability: self-regulation of content
moderation as an answer to the special problems of speech regulation. Hoover Institution. Aegis series Paper no.
1903, 2019. Disponível em: https://www.hoover.org/research/verified-accountability Acesso em 10/06/2022.
109

Em um Estado Democrático de Direito o poder deve ser adquirido e exercido de forma


legítima. A legitimidade de um governo, tradicionalmente, é aferida pela soberania popular338,
fonte do poder estatal, que pode ser exercida de forma direta ou indireta/representativa. Uma
vez que os representantes dos órgãos executivos e legislativos são eleitos, esses devem atuar
em prol do interesse público, sob pena de serem responsabilizados339.
Conforme apontado por Belli, Francisco e Zingales, para o direito público e as relações
internacionais, os Estados e as Organizações Internacionais são os únicos atores que possuem
legitimidade para elaborar e implementar normas vinculantes340. Em nível nacional, segundo
Max Weber341, os Estados possuem o monopólio legítimo do uso da força em um determinado
território. Por outro lado, em nível internacional, nenhuma entidade pode reinvidicar o
monopólio da força ou, com legitimidade, estabelecer normas unilateriais e vinculantes. Por
isso, os atores privados assumiram um papel de liderança na governança de sistemas com o
estabelecimento de uma ordem privada342.
Dessa forma, a ideia de legitimidade democrática está relacionada à existência de
consentimento dos cidadãos em serem governados por seus representantes e mostra-se essencial
para definir políticas dentro de um sistema democrático343. Na governança das plataformas
digitais de redes sociais não se vislumbra essa representatividade, contudo. As decisões são
majoriatariamente tomadas a portas fechadas, de forma unilateral, por esses entes
intermediários. Dois principais pontos envolvem o tema sobre a legitimidade das plataformas
para o exercício da regulação privada pelas redes sociais.

338
Soberania popular deve ser compreendida em uma dupla perspectiva: “tanto a titularidade, quando o exercício
do poder estatal, incluindo a assunção de tarefas e fins pelo Estado, e a realização das tarefas estatais, podem
sempre ser reconduzidas concretamente ao povo, no sentido de uma legitimação democrática efetiva”. A
concepção de democracia, característica do Estado Democrático de Direito, funda-se, portanto, na legitimação
democrática (em sintonia com a noção de soberania popular), na busca da construção de consensos. SARLET,
Ingo Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO, Daniel. Curso de Direito Constitucional. 8. ed. –
São Paulo: Saraiva Educação, 2019, p. 350.
339
SARLET, Ingo Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO, Daniel. Curso de Direito
Constitucional. 8. ed. – São Paulo: Saraiva Educação, 2019, pp. 350-355.
340
BELLI, Luca, FRANCISCO, Pedro Augusto, ZINGALES, Nicolo. Law of the Land or Law of the Platform?
Beware of the Privatisation of Regulation and Police. In: Platform regulations: how platforms are regulated
and how they regulate us. FGV Direito Rio, pp. 41-64. 2017, p. 43. Disponível em:
https://bibliotecadigital.fgv.br/dspace/handle/10438/19402 Acesso em 30/06/2022.
341
WEBER, Max. Ciência e Política: Duas Vocações. Ed. Martin Claret. São Paulo. 2015.
342
BELLI, Luca, FRANCISCO, Pedro Augusto, ZINGALES, Nicolo. Law of the Land or Law of the Platform?
Beware of the Privatisation of Regulation and Police. In: Platform regulations: how platforms are regulated
and how they regulate us. FGV Direito Rio, pp. 41-64, 2017, pp. 44-45. Disponível em:
https://bibliotecadigital.fgv.br/dspace/handle/10438/19402 Acesso em 30/06/2022.
343
BELLI, Luca. A heterostakeholder cooperation for sustainable internet policymaking. Internet Policy Review,
n. 4, 2015. Disponível em: https://policyreview.info/pdf/policyreview-2015-2-364.pdf Acesso em 30/06/2022.
110

O primeiro é a dificuldade de se transpor a ideia de soberania e monopólio estatal no


espaço digital, vez que, à luz de uma perspectiva transnacional com diferentes atores, não há
uma entidade universal que reinvedique o monopólio da tomada de decisões344. Daí, consoante
acima apontado, agentes privados preenchem a lacuna, ditando suas próprias regulações 345. O
segundo é que a regulação ocorre em um espaço privado e, a partir dos termos de uso, assinados
pelos usuários, esses consentiriam com as regras impostas, de forma que essas regras
exerceriam o papel de “lei da plataforma”346.
Ocorre que, conforme apontado no capítulo anterior, essa regulação, ainda que
necessária, afeta os direitos fundamentais dos usuários, concede poder às redes sociais sobre o
conteúdo que será consumido aos usuários, sem transparência, o que retorna em assimetria
informacional, e permite que as redes sociais controlem o debate público de ideias, com grande
influência no exercício de direitos civis e políticos.
Ante esses questionamentos sistemáticos, a literatura especializada, na tentativa de
conferir maior legitimidade à atuação desses atores não-estatais, o que se aplica, portanto, às
plataformas de redes sociais, passou a apontar algumas abordagens sustentáveis para uma
governança legítima. São elas: (i) a aplicação dos princípios do Estado Democrático de Direito
(constitucionalismo digital); (ii) uma abordagem multissetorial para permitir a participação de
diversos atores na governança da internet e facilitar o diálogo coordenado entre esses, de forma
transparente e democrática; (iii) a atuação das plataformas digitais baseadas em deveres
procedimentais e direitos humanos por design; e, (iv) uma visão tridimensional da legitimidade,
onde se destacam três dimensões: input, output e throughtput.
As plataformas também passaram a adotar políticas de autorregulação e práticas de
responsabilidade social corporativa. Essas posturas, além de buscar mais credibilidade nas
políticas adotadas, buscam evitar intervenções regulatórias fortes por parte dos Estados. Os
próximos subtópicos que se seguem irão abordar os pontos acima destacados, com exceção do
constitucionalismo digital, no qual remete-se o leitor para o terceiro capítulo deste trabalho.

344
BELLI, Luca, FRANCISCO, Pedro Augusto, ZINGALES, Nicolo. Law of the Land or Law of the Platform?
Beware of the Privatisation of Regulation and Police. In: Platform regulations: how platforms are regulated
and how they regulate us. FGV Direito Rio. pp. 41-64, 2017, p. 44-45. Available at:
https://bibliotecadigital.fgv.br/dspace/handle/10438/19402 Acesso em 30/06/2022.
345
BELLI. Luca. Structural Power as a Critical Element of Digital Platforms’ Private Sovereignty. In Edoardo
Celeste, Amélie Heldt and Clara Iglesias Keller (Eds). Constitutionalising Social Media. (Hart 2022), pp 08-10.
346
BELLI, Luca, FRANCISCO, Pedro Augusto, ZINGALES, Nicolo. Law of the Land or Law of the Platform?
Beware of the Privatisation of Regulation and Police. In: Platform regulations: how platforms are regulated
and how they regulate us. FGV Direito Rio, pp. 41-64, 2017. Disponível em:
https://bibliotecadigital.fgv.br/dspace/handle/10438/19402 Acesso em 30/06/2022.
111

4.2.1 Abordagem multissetorial

Especialistas (por todos, Luca Belli) destacam que, num ambiente com pluralidade
normativa, como o ambiente da internet, é interessante que essa governança tenha uma
abordagem multissetorial, isto é, o processo decisório deve incluir todos os interessados, de
forma que o Estado, entes privados e sociedade civil atuem em conjunto em um processo
transparente e aberto à participação. A colaboração de diversos atores mostra-se fundamental,
pois “somente a heterogeneidade de opiniões apresentadas e debatidas, com o confronto de
diferentes opiniões e a análise cuidadosa dos interesses envolvidos podem levar a tomadas de
decisões informadas e abordagens sustentáveis”347.
Essa abordagem é essencial ante às inúmeras questões complexas que se colocam no
ambiente de tecnologia e informação, certo que as empresas privadas detem conhecimentos
específicos sobre determinados temas. E, considerando a sociedade democrática na qual
vivemos, uma abordagem sustentável deve considerar a possibilidade de todas as partes
expressarem suas preocupações e fornecerem conhecimentos por meio de processos
transparentes e participativos.
Segundo Luca Belli, a governança participativa tem “o potencial de legitimar os
esforços de formulação de políticas, permitindo que todas as partes interessadas discutam
propostas de políticas e transmitam informações diversas aos formuladores de política” 348, o
que tornaria a própria decisão mais legítima e eficaz, vez que centrada em argumentos técnicos
e científicos, com maior probabilidade de melhorar a qualidade das decisões tomadas.
Historicamente, pode-se citar a Conferência das Nações Unidas sobre o meio ambiente
e desenvolvimento (“Cúpula da terra”) em 1992, como o início do reconhecimento do papel de
diversos atores no exercício da governança privada349. No que tange à internet, essa visão foi

347
BELLI, Luca. Internet Governance and Regulation: A Critical Presentation. In: Belli, Luca, Cavalli, Olga.
Internet Governance and Regulations in Latin America. FGV Direito Rio, pp. 39-64, 2019, p. 40. Disponível
em: https://www.gobernanzainternet.org/book/book_en.pdf. Acesso em 30/04/2022 Trecho original: The greatest
wealth of any multistakeholder exercise is or, at least, should be –the heterogeneity of opinions presented and
debated. Only the confrontation of different opinions and the careful analysis of the interests involved can lead to
informed decisionmaking and sustainable approaches.
348
BELLI, Luca. A heterostakeholder cooperation for sustainable internet policymaking. Internet Policy Review,
n. 4, 2015, p.02. Disponível em: https://policyreview.info/pdf/policyreview-2015-2-364.pdf Acesso em
30/04/2022. Trecho original: Such participatory governance has the potential to legitimise policymaking efforts,
allowing all interested stakeholders to discuss policy proposals and convey diverse information to policymakers,
in order to elaborate sustainable and evidence-based policies.
349
Nicolo Zingales e Roxana Radu apontam que a razão primária para a criação desse modelo de governança foi
a realização da propriedade privada como um recurso crítico que exigia o envolvimento de atores privados em
novas formas de regulação. Ainda, o aumento de empresas multinacionais trazia à tona muitas jurisdições
112

consagrada na WSIS, onde restou expresso na agenda Tunes que seria “essencial para a
construção bem-sucedida de uma sociedade da informação centrada em pessoas e orientada
para o desenvolvimento” a participação de diferentes partes interessadas350.
Esse novo posicionamento representou uma virada, pois foi a primeira vez que uma
cúpula com participação da ONU reconheceu a necessidade de envolver todas as partes
interessadas nos acordos de governança da internet. Pela importância, foi destacado no
parágrafo 35 que:

a) A autoridade política para questões de políticas públicas relacionadas à


Internet é um direito soberano dos Estados. Eles têm direitos e
responsabilidades para questões de políticas públicas internacionais
relacionadas à Internet.
b) O setor privado teve e deve continuar a ter um papel importante no
desenvolvimento da Internet, tanto no campo técnico quanto no econômico.
c) A sociedade civil também desempenhou um papel importante em questões
de Internet, especialmente em nível comunitário, e deve continuar
desempenhando esse papel.
d) As organizações intergovernamentais tiveram e devem continuar a ter um
papel facilitador na coordenação de questões de políticas públicas
relacionadas à Internet.
e) As organizações internacionais também tiveram e devem continuar a ter um
papel importante no desenvolvimento de padrões técnicos relacionados à
Internet e políticas relevantes351.

Outra conquista decorrente da WSIS foi a criação do Fórum de Governança da Internet


(Internet Governance Forum - IGF), uma reunião multissetorial aberta para abordar questões

diferentes em práticas de arbitragem regulatória, tornando-se manifesto a necessidade de uma “lei global”.
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. 2015. GigaNet: Global Internet Governance Academic Network, Annual
Symposium 2015, p. 03. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em 30/05/2022.
350
BELLI, Luca. A heterostakeholder cooperation for sustainable internet policymaking. Internet Policy Review,
n. 4, 2015, p.04. Disponível em: https://policyreview.info/pdf/policyreview-2015-2-364.pdf Acesso em
30/03/2022. Trecho orginal: “Indeed, the Tunis Agenda considered the meaningful participation of diferente
stakeholders as “essential to the successful building of a people-centred, inclusive and development-oriented
Information Society” (para. 97), whilst internet governance was famously defined as the “development and
application by governments, the private sector and civil society, in their respective roles, of shared principles,
norms, rules, decision-making procedures, and programmes that shape the evolution and use of the Internet” (par.
34).
351
World Summit on the Information Society – WSIS. Tunis Agenda for the information society. 18 de novembro
de 2005. Disponível em: https://www.itu.int/net/wsis/docs2/tunis/off/6rev1.html Acesso em 30/06/2022. Trecho
original: a) Policy authority for Internet-related public policy issues is the sovereign right of States. They have
rights and responsibilities for international Internet-related public policy issues. b) The private sector has had,
and should continue to have, an important role in the development of the Internet, both in the technical and
economic fields. c) Civil society has also played an important role on Internet matters, especially at community
level, and should continue to play such a role. d) Intergovernmental organizations have had, and should continue
to have, a facilitating role in the coordination of Internet-related public policy issues. e) International
organizations have also had and should continue to have an important role in the development of Internet-related
technical standards and relevant policies.
113

alusivas à internet, sem vinculação nos resultados, criando, assim, uma política de
desenvolvimento de baixo para cima352, altamente flexível, o que facilita o debate para
construção de um consenso. Em que pese a expansão da abordagem multissetorial, Zingales e
Radu destacam que ela não penetrou efetivamente nas organizações intergovernamentais, que,
“mantiveram, em geral, seus procedimentos de tomada de decisão centrados no Estado”353.
Em que pese os benefícios dessa abordagem, algumas questões restam controvertidas
pelos acadêmicos. A título de exemplo, há divergência sobre a necessidade de desenho de um
procedimento multissetorial. Há quem defenda alguns critérios mínimos como (a)
representação igualitária; (b) três ou mais grupos de partes interessadas; (c) respeito ao princípio
da transparência e participação. Enquanto outros adotam uma visão mais flexível e focam
apenas na existência de “algum” mecanismo de participação disponível para um grupo que não
seja qualificado como defensor do interesse público354.
Seja como for, é importante registrar que para que essa abordagem funcione deve ser
garantida uma ampla participação de todos os atores envolvidos, o que não significa que eles
possuam os mesmos papeis, porém que possam expor diferentes interesses e ponto de vistas
sobre um determinado assunto. O objetivo final de uma abordagem multissetorial, conforme
trazido por Luca Belli, é que ela deve “apoiar e fortalecer os processos de preparação de
políticas e tomada de decisões, fornecendo uma ampla gama de informações e conhecimentos
pluralistas”355.

352
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
Network, Annual Symposium 2015, p. 06. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em
30/05/2022.
353
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
Network, Annual Symposium 2015, p. 07. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em
30/05/2022. Trecho original: Following the adoption of the Tunis Agenda, global as well as national institutions
sought to maximize inclusion and participation of a various set of stakeholders in the governance of the Internet.
Despite some laudable efforts, the expansion of multistakeholderism did not effectively penetrate
intergovernmental organizations, which retained by and large their state-centered procedures for decision-
making.
354
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
Network, Annual Symposium 2015, p. 11. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em
30/05/2022. Trecho original: Hemmati (2002) for example lists a number of demanding criteria consisting in (1)
equal representation (2) between three or more stakeholder groups (3) on the basis of principles of transparency
and participation, and (4) that aim to develop partnerships and strengthening networks between stakeholders. In
contrast, Mueller (2010) adopts a more flexible definition focusing on the existence of “some” participation
mechanism available to an unqualified group of public interest defenders, and defining multistakeholder
governance as a process where representatives from different public interest advocacy groups such as business
associations and civil society organizations can participate in governmental policy deliberations alongside with
governments.
355
BELLI, Luca. A heterostakeholder cooperation for sustainable internet policymaking. Internet Policy Review,
n. 4, 2015, p.06. Disponível em: https://policyreview.info/pdf/policyreview-2015-2-364.pdf Acesso em
114

É por isso que o referido autor, inclusive, defende que o termo mais apropriado seria
heterostakeholder (no lugar de multistakeholder), pois ele melhor traduziria a necessidade de
diversidade de opiniões, interesses e de representação geográfica, no lugar de uma simples
“abordagem quantitativa”, que poderia levar a supercategorias potencialmente ambíguas356.
Outro ponto de grande preocupação, é que esse modelo, em razão da falta de estrutura
para o exercício dessa governança, pode acabar se revelendo como um mecanismo “perpetuador
de posições de desigualdade na sociedade”357, fortalecendo a assimetria de poder e influência
exercida pelos atores dominantes. Isso ocorre devido ao patente desequilíbrio entre os diversos
atores na sociedade no que se refere à recursos e conhecimento.
Esse fator pode ser facilmente imaginado em razão da disponibilidade financeira que os
atores devem possuir para participar das diversas reuniões, que nem sempre ocorrem por meio
tecnológico, mas de forma presencial em países variados. Além dos recursos, esses atores
debem investir energia no conhecimento profundo sobre temas específicos para que possam
contribuir de maneira significativa. Todo esse padrão afunila a participação dos atores não-
estatais para que apenas os mais abastados possam participar desses processos. A consequência
é que esses atores privilegiados possam orientar, com lobby, a política regulatória para seus
interesses ou, até mesmo, implementar políticas gerais de práticas já oficializadas em seus
protocolos internos, prejudicando a inovação e concorrência.
Essa crítica levou parte da academia, conforme apontado por Zingales e Radu, a
lamentar a discrepância entre a ideologia do multissetorialismo e os princípios democráticos
amplamanete que regem a sociedade, de maneira que o grupo da sociedade civil “Just Net”, em
uma declaração intitulada The Delhi Declaration for a Just and Equitable Internet, desafiou a
ideia de igualdade por trás dessa governança aduzindo que: “por trás dos vários participantes,

30/03/2022. Trecho original: “The ultimate goal of a multistakeholder approach should be indeed to support and
strengthen policy-preparation and decision-making processes, by supplying a wide range of pluralistic
information and expertise”.
356
BELLI, Luca. A heterostakeholder cooperation for sustainable internet policymaking. Internet Policy Review,
n. 4, 2015, p.07. Disponível em: https://policyreview.info/pdf/policyreview-2015-2-364.pdf Acesso em
30/03/2022. Trecho original: Perhaps, the qualifying “heterostakeholder” would have been more appropriate than
the “multistakeholder” one, in order to imply the essential need for diversity of opinions, interests – which should
be transparently declared – as well as geographical origin, rather than merely rely on a “quantitative approach”
based on potentially ambiguous super-categories.
357
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
Network, Annual Symposium 2015, p. 11. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em
30/05/2022.
115

argumenta-se a favor dos Governos como os únicos que, legítima e diretamente, podem
representar as pessoas”358359.
Ian Brown e Christopher Marsden também lançam críticas a esse modelo, dentre elas, a
falta de transparência, representatividade e eficácia na implementação de suas políticas. Os
autores mencionam que muitos organismos multissetoriais não adotam processos de
transparência em suas tomadas de decisão, não havendo processos de consulta pública sobre as
políticas adotadas360.
Para frear esse desvirtuamento, a literatura361 propõe alguns valores básicos para que a
governança multissetorial siga por vetores democrátivos. Cita-se, neste trabalho, cinco valores
que podem ser considerados essenciais pelas teorias democráticas, conforme proposto por
Zingales e Radu362. O primeiro deles é a deliberação, que deve ser entendida no contexto de
governança multissetorial baseada nos princípios de uma democracia deliberativa, isto é, a fonte
de legitimidade das tomadas de decisão deve partir das discussões e deliberações, com registro
das opiniões divergentes. O interesse não deve ser focado na mera votação de um participante.
Por isso, o consenso não é o único resultado esperado em um ambiente multissetorial, mas é
preciso dedini-lo em regras prévias de orientação de condutas para que a preservação da
autonomia dos diferentes atores seja preservada363.

358
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
Network, Annual Symposium 2015, p. 11. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em
30/05/2022. Trecho original: “among various stakeholders, arguing in favor of governments as the only
stakeholder that legitimately and directly represents the people”.
359
Sobre essa crítica, ressalva-se a observação feita por Luca Belli, em seu artigo, de que a governança
multissetorial deve ser encarada como um complemento e, em hipótese alguma, substitutiva da democracia
representativa dos Estados. BELLI, Luca. A heterostakeholder cooperation for sustainable internet policymaking.
Internet Policy Review, n. 4, 2015. p.02. Disponível em: https://policyreview.info/pdf/policyreview-2015-2-
364.pdf Acesso em 30/03/2022.
360
BROWN, Ian; MARSDEN, Christopher T. Regulating Code: Good Governance and Better Regulation in
the Information Age. The MIT Press: London, 2013, p. 173.
361
GASSER, Urs; BUDISH, Ryan.; WEST, Sarah. Multistakeholder as Governance Groups: Observations from
Case Studies (January 14, 2015). Berkman Center Research Publication No. 2015-1. Disponível em:
http://ssrn.com/abstract=2549270 Acesso em 30/06/2022; BUDISH, Ryan; WEST, Sarah; and GASSER, Urs.
Designing Successful Governance Groups: Lessons for Leaders from Real-World Examples (August 2015).
Berkman Center Research Publication No. 2015-11. Disponível em: http://ssrn.com/abstract=2638006 Acesso
em 30/06/2022; e, ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to
Multistakeholder Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet
Governance Academic Network, Annual Symposium 2015. Disponível em: SSRN:
https://ssrn.com/abstract=2809920 Acesso em 30/05/2022.
362
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
Network, Annual Symposium 2015, P. 16-19. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso
em 30/05/2022.
363
ZINGALES, Nicolo; Radu, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
116

O segundo valor é a inclusão. Isso significa que todos os atores que sejam afetados por
uma determinada política devem ser ouvidos, inclusive aqueles mais vulneráveis. Obstáculos,
como a seletividade de iniciativa multissetoriais, para os mais engajados no tema, com recursos
disponíveis e com mais capacidade técnica para participação devem receber significativo
esforço para serem superados364.
A partiticipação é o terceiro valor mencionado pelos autores já citados. Aqui a
preocupação é que seja garantido aos grupos oportunidade para se manifestarem, com
consideração dos pontos abordados por eles, para que não prolifere o desinteresse por uma
participação meramente formal, bem como deve ser disponibilizada mecanismos e estrutura
para que essa participação ocorra365.
A legitimidade é o quarto valor que deve ser considerado para uma governança
multissetorial mais democrática. Ele se relaciona com a vinculação da participação de um
determinado ator com o tipo de interesse representado por ele, que deve sempre atuar em
conjunto com máxima transparência possível. A legitimidade pode ser externa ou interna. A
primeira guarda relação com a aceitação do público externo, ou seja, está relacionada a questões
de representatividade no meio social. Por outro lado, a legitimidade interna é encontrada em
questões de clareza e previsibilidade das regras que regem o processo de desenvolvimento de
políticas366.
Por fim, o ultimo valor atribuído é a transparência. Além da clareza e previvisibidade,
acima mencionada, que é conhecida como transparência ex ante, é necessário que haja
transparência ex post, ou seja, transparência nos processos de tomada de decisão. Mecanismos
de transparência permitem maior prestação de contas e transmitem mais confiabilidade nas
decisões tomadas367.

Network, Annual Symposium 2015, P. 16. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em
30/05/2022.
364
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
Network, Annual Symposium 2015, P. 16. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em
30/05/2022.
365
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
Network, Annual Symposium 2015, P. 17. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em
30/05/2022.
366
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
Network, Annual Symposium 2015, P. 17. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em
30/05/2022.
367
ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to Multistakeholder
Governance. Internet Policy-Making. Novembro 9, 2015. GigaNet: Global Internet Governance Academic
Network, Annual Symposium 2015, P. 18. Disponível em: SSRN: https://ssrn.com/abstract=2809920 Acesso em
30/05/2022.
117

Em que pese todas as falhas e críticas, a experiência brasileira com o multissetorialismo


é positiva. O marco civil da internet (MCI - Lei 12.965/2014)368, a primeira legislação brasileira
responsável pela regulação da internet, conhecida como a “Constituição da Internet”369, foi
criada pelo Comitê Gestor da Internet (CGI) e baseada em uma visão multissetorial promovida
por representantes de diversos setores da sociedade através de uma estrutura participativa e
transparente, que permitiu a diminuição de assimetrias de informação e a negociação de
interesses ao longo do processo de debate.
Essa normativa, aprovada em abril de 2014, importou em seu texto dez importantes
princípios elaborados pelo Comitê Gestor de Internet – CGI, dentre eles, liberdade de expressão,
governança democrática e colaborativa e neutralidade da rede, que são centrais para o
desenvolvimento de uma internet livre, segura, neutra e economicamente aproveitável370.
Consagrou-se na lei uma estrutura principiológica forte, com uma abordagem voltada para a
proteção dos direitos fundamentais, em que pese o apelo à vigilância e punitivismo do momento
anterior à vigência do MCI que assolava o país371.
Essa abordagem multissetorial, construída pela literatura a partir do referencial da
internet, deve ser aplicada também no campo da governança das plataformas digitais de redes
sociais. No que se refere aos seus atores, Papaevangelou372 propõe uma nova estrutura
operacional para estudar essa governança. A partir do triângulo da governança desenvolvido
por Gorwa, onde cada ponta da figura geométrica representaria um ator (Estado, empresas
privadas e sociedade civil), aquele autor sugere o estudo das redes sociais a partir de seus

368
BRASIL. Lei 12.965/2014. Estabelece princípios, garantias, direitos e deveres para o uso da Internet no Brasil.
Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2014/lei/l12965.htm Acesso em
30/05/2022.
369
KELLER, Clara Iglesias. Regulação nacional de serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 222.
370
ARNAUDO, Daniel. O Brasil e o Marco Civil da Internet. 2017. Disponível em:
https://igarape.org.br/marcocivil/pt/ Acesso em 30/05/2022.
371
O cenário de 1990 era marcado por diversas propostas de leis no intuito de criminalizar condutas cibernéticas,
em apelo à proteção da privacidade e dados pessoais, o que prejudicava a liberdade de expressão. Duas delas foram
adiante, a Lei Azeredo (Lei 12.735 /2012, que altera o Código Penal para para tipificar condutas realizadas
mediante uso de sistema eletrônico, digital ou similares) e Lei Carolina Dickman (Lei 12.737/2012, que dispõe
sobre a tipificação de delitos informáticos). BRASIL. Lei 12.735/12. Altera o Decreto-Lei nº 2.848, de 7 de
dezembro de 1940 - Código Penal, o Decreto-Lei nº 1.001, de 21 de outubro de 1969 - Código Penal Militar, e a
Lei nº 7.716, de 5 de janeiro de 1989, para tipificar condutas realizadas mediante uso de sistema eletrônico, digital
ou similares, que sejam praticadas contra sistemas informatizados e similares; e dá outras providências. Disponível
em: http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2012/lei/l12735.htm Acesso em 10/06/2022. BRASIL,
Lei 12.737/2012. Dispõe sobre a tipificação criminal de delitos informáticos; altera o Decreto-Lei nº 2.848, de 7
de dezembro de 1940 - Código Penal; e dá outras providências. Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2012/lei/l12737.htm Acesso em 10/06/2022.
372
PAPAEVANGELOU, Charilaos. The existential stakes of platform governance: a critical literature review
[version 2; peer review: 3 approved] Open Research Europe 2021, 1:31.Disponível em:
https://doi.org/10.12688/openreseurope.13358.2 Acesso em 10/05/2022.
118

resultados, isto é, a partir de sua regulação e acordos. Para isso, ele amplia os atores,
organizando-os em clusters de governança, de acordo com seus interesseses e princípios
compartilhados.
Dessa forma, além do Governo, sociedade civil e empresas, a nova figura que desenharia
os atores da governança das plataformas digitais seria um círculo com a seguinte divisão entre
os grupos de atores: (a) autoridades públicas; (b) plataformas digitais de redes sociais; (c)
sociedade civil; (d) empresas de notícias; (e) cidadãos/usuários. Essa proposta é positiva, pois
amplia a representatividade dos diferentes atores que são afetados pelas políticas regulatórias,
tornando a governança mais inclusiva.

4.2.2 Uma atuação baseada em deveres procedimentais e direitos humanos por design

Diferentes autores propuseram diferentes abordagens para o problema de avaliar e


melhorar a legitimidade do sistema online global plataformas373. Essas propostas geralmente se
concentram em aspectos específicos dos processos de tomada de decisão das plataformas, como
maior transparência, participação do usuário, respeito as normas de direitos humanos ou
aplicação de garantias processuais, como o devido processo, que abrange a justificação do
processo de tomada de decisão e possibilidade de impugnação pelo usuário.
Antes de aprofundar sobre os deveres acima mencionados, é importante destacar que
essa abordagem se mistura com a ideologia do constitucionalismo digital, já que ela pretende
trazer valores de ordem constitucional para a autorregulação dos atores privados. Por esse
motivo, a fim de evitar a repetição das ideias já colocadas no capítulo 3, apenas se analisará a
transparência, como dever procedimental, e a participação dos usuários na governança das redes
sociais.

373
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p. 03. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022.
119

4.2.2.1 Transparência

Há grande dificuldade para os usuários terem conhecimento sobre as justificativas a


respeito das decisões tomadas pelas plataformas digitais, notadamente, quando moderam
conteúdo374. A consequência é criação de dificuldade para um debate público informado a
respeito da própria regulação do conteúdo que flui na internet de forma a proteger a liberdade
de expressão e outros interesses. A demanda de que haja divulgação dos processos decisórios
que envolvem esses entes intermediários é crescente e, por essa razão, surgem pleitos de
transparência, conceito esse utilizado em um sentido geral375.
O termo transparência, para fins de escopo deste trabalho, será utilizado como um
componente necessário à atividade de prestação de contas pelas plataformas digitais, isto é,
relacionando-se com o conjunto de informações que são necessárias para entender melhor os
sistemas de moderação de conteúdo, de maneira que os responsáveis pela atividade possam ser
responsabilizados por seus atos376. Portanto, ela não é um fim em si mesma, mas um caminho
para que os usuários possam encontrar os fundamentos para responsabilizar as plataformas.
Nesse sentido, uma transparência significativa envolve tanto o fornecimento de
melhores informações aos usuários das plataformas, quanto a compreensão dos sistemas de
moderação377. Não basta entender os motivos sobre decisões individuais (procedimentos e
decisões relativas à intervenção ativa de contas e conteúdos gerados por terceiros, que
impliquem a exclusão, indisponibilização, redução de alcance, sinalização de conteúdos e

374
SUZOR, Nicolas; VAN GEELEN, Tess; WEST, Sarah. Myers. Evaluating the legitimacy of platform
governance: A review of research and a shared research agenda. International Communication Gazette, 80(4),
385–400, 2018. Disponível em: https://doi.org/10.1177/1748048518757142 Acesso em 30/06/2022.
375
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, p.11. Disponível em:
https://www.hoover.org/research/verified-accountability. Acesso em 30/05/2022. A autora citada defende que é
essencial a existência de uma medida de transparência para se criar maior accountability, em que certas regras e
valores das plataformas precisam ser tornados públicos. No entanto, o apelo generalizado por transparência não
pode subverter alguns valores. Um exemplo simples é o efeito “Streisand” (fenômeno social que decorre da
tentativa de ocultar ou remover algum tipo de informação publicada na internet, que se volta contra a vítima,
resultando na vasta replicação da informação) causado nos casos em que a publicidade de casos tóxicos pode
aumentar a repercussão do caso ou, nos casos do direito ao esquecimento, no qual a privacidade é o foco.
376
SUZOR, Nicolas; WEST, Sarah Myers; QUODLING, Andrew; YORK, Jillian. What Do We Mean When We
Talk About Transparency? Toward Meaningful Transparency in Commercial Content Moderation. International
Journal of Communication. V. 13, 1526-1543, 2019, pp 1526-1543. Disponível em:
https://ijoc.org/index.php/ijoc/article/view/9736/2610 Acesso em 30/05/2022.
377
SUZOR, Nicolas; WEST, Sarah Myers; QUODLING, Andrew; YORK, Jillian. What Do We Mean When We
Talk About Transparency? Toward Meaningful Transparency in Commercial Content Moderation. International
Journal of Communication. V. 13, 1526-1543. 2019, pp. 1528-1529. Disponível em:
https://ijoc.org/index.php/ijoc/article/view/9736/2610 Acesso em 30/05/2022.
120

outras que restrinjam a liberdade de expressão), mas é necessário ir além e compreender o


desenvolvimento dos processos de tomada de decisão pelas plataformas (sistemas de
perlhilhamento, sistemas de recomendação, que envolvem principalmente, conteúdos
publicitários e impulsionados, e conteúdos políticos).
Deve-se observar que simples exigências de dados numéricos sobre o total de medidas
de moderação aplicadas identificam apenas a visão das plataformas sobre os conteúdos
moderados por elas. Por isso, não são medidas suficientes para concretizar a prestação de contas
pelas plataformas, pois, a partir deles, não é possível identificar como funciona o processo de
tomada de decisão desses entes intermediários. Nesse sentido, conforme apontado por Nicolas
Suzor:

Nos apelos por maior transparência, muitas vezes há uma suposição explícita
ou implítica de que a transparência – maior divulgação de informações – leva
a uma maior responsabilidade e confiança. A boa governança é muitas vezes
considerada dependente da transparência. Mas até que ponto a transparência
realmente leva a uma maior responsabilização e melhores resultados, no
entanto, muitas vezes não é claro na melhor das hipóteses. Transparência,
implantada estrategicamente por uma organização como teatro pode evitar
reivindicações por maior responsabilidade, e, em última análise, trabalhar para
obscurecer a compreensão (Losey, 2015; Parsons, 2019). Nessa perspectiva,
a produção de relatórios de transparência poderia fornecer às plataformas um
“mercado amigável” às demandas por maior responsabilidade, evitando
regulamentações que imponham responsabilização (e é respaldado por
sanções autoritárias; Fox, 2010). Para que a transparência seja significativa,
ela deve ser direcionada – não apenas aumentando a informação, mas para
comunicar de uma maneira que possa ser usada para ajudar a responsabilizar
os tomadores de decisão (Fung, Graham, & Weil, 2007). Esta abordagem de
transparência torna mais clara a necessidade de prestar atenção à capacidade
de diferentes públicos para interpretar as informações divulgadas e às políticas
de divulgação que podem influenciar a qualidade e escopo das informações
(Albu & Flyverbom, 2016)378.

378
SUZOR, Nicolas P., WEST, Sarah Myers, QUODLING, Andrew, YORK, Jillian. What Do We Mean When
We Talk About Transparency? Toward Meaningful Transparency in Commercial Content Moderation.
International Journal of Communication. V. 13. 1526-1543, 2019, p. 1529. Disponível em:
https://ijoc.org/index.php/ijoc/article/view/9736/2610 Acesso em 30/05/2022. Trecho original: In calls for
greater transparency, there is often an explicit or implicit assumption that transparency—greater information
disclosure—leads to greater accountability and trust (Albu & Flyverbom, 2016). Good governance is often thought
to be contingent on transparency (Braithwaite & Drahos, 2000). But the extent to which transparency actually
leads to greater accountability and better outcomes, however, is often unclear at best. Transparency, deployed
strategically by an organization as theater to ward off claims for greater accountability, can ultimately work to
obscure understanding (Losey, 2015; Parsons, 2019). From this perspective, the production of transparency
reports could provide platforms a “market friendly” response to demands for greater accountability while
avoiding regulation that imposes real accountability (and is backed by authoritative sanctions; Fox, 2010). For
transparency to be meaningful, it has to be targeted—not just increasing information, but communicating in a way
that can be used to help hold decision makers to account (Fung, Graham, & Weil, 2007). This approach to
transparency makes clearer the need to pay attention to the capacity of different audiences to interpret the
information disclosed and to the politics of disclosure that can influence the quality and scope of information (Albu
& Flyverbom, 2016)
121

Nicolas Suzor destaca quatro pontos principais que devem ser trazidos para a atenção
dos reguladores no que se refere à transparência. Em primeiro lugar, a confusão causada aos
usuários sobre o conteúdo ou comportamento que desencadeou uma sanção da plataforma. Em
segundo lugar, a falha, por parte das plataformas de redes sociais, em justificar as decisões que
eles lançaram. Em terceiro, a inferência dos usuários sobre preconceitos e falta de sensibilidade
dos moderadores de conteúdo atribuída a falta de conhecimento contextual e cultural atrelado
ao conteúdo. Por fim, em quarto lugar, a inexistência de informação sobre a origem da
sinalização de seus conteúdos, se fruto de reclamações dos usuários, do Estado ou pelos
algoritmos das plataformas.
Como solução às preocupações acima narradas, buscando uma transparência
significativa, o referido autor aduz que é necessário às plataformas garantir que os usuários
sejam informados quando seu conteúdo foi removido ou quando os usuários sofram práticas de
shadowban379 ou similares. As plataformas devem garantir que a URL do conteúdo proibido ou
um extrato suficientemente detalhado esteja disponível na notificação enviada ao usuário.
Ainda, essas notificações devem estar permanentemente disponíveis de alguma forma, e não
apenas enviadas como notificações no aplicativo de maneira efêmera380.
Um dos pontos positivos de se adotar a transparência na aplicação das sanções pelas
plataformas na moderação é que, de acordo com pesquisa realizada, houve significativa
diminuição de postagens irregulares quando a moderação foi feita a partir de comentários de
moderadores aos usuários, pois essa prática permitiria ao usuário compreender o processo de
tomada de decisão381.
Pela inexistência de justificação sobre à moderação de conteúdo aos usuários, eles criam
suas próprias racionalizações para explicar as decisões que ficaram sujeitos, frequentemente
culpando moderadores tendenciosos e influência externa indevida. Essas explicações
desencadeiam desconfiança generalizada no sistema como um todo e podem encorajar a criação
de teorias da conspiração. A falta de justificativas claras dificulta que os usuários aprendam as

379
Sobre essa prática, veja definição no tópico que aborda a moderação transparente ou sigilosa (item 2.1.2).
380
SUZOR, Nicolas; WEST, Sarah Myers; QUODLING, Andrew; YORK, Jillian. What Do We Mean When We
Talk About Transparency? Toward Meaningful Transparency in Commercial Content Moderation. International
Journal of Communication. V. 13, 1526-1543, 2019, pp. 1531-1532. Disponível em:
https://ijoc.org/index.php/ijoc/article/view/9736/2610 Acesso em 30/05/2022.
381
JHAVER, Shagun; BRUCKMAN, Amy; GILBERT, Eric. Does Transparency in Moderation Really Matter?:
User Behavior After Content Removal Explanations on Reddit. Proc. ACM Hum.-Comput. Interact. 3, CSCW,
Article 150. 2019. Disponível em: https://doi.org/10.1145/3359252 Acesso em 30/05/2022.
122

regras. Por isso, é recomendável que as plataformas assumam uma posição de educação do
usuário, substituindo a postura punitiva382.
Problemas de escabilidade nas decisões sobre moderação de conteúdo são grandes alvos
de reclamação. Conforme já abordado no primeiro e segundo capítulo deste trabalho, o volume
de conteúdos a serem moderados é alto. Por isso, as principais plataformas utilizam a
moderação automatizada e terceirizam equipes de moderação de conteúdo para tomar suas
decisões. Mas fazer com que essas decisões sejam certeiras é tarefa difícil.
No que se refere aos moderadores humanos, esses trabalhadores não são treinados da
maneira apropriada para que tomem as decisões mais adequadas. Ao contrário, é preciso
investimento para surjam decisões mais habilidosas, de acordo com o contexto das relações
sociais383. Nas lições de Sarah Roberts, a linguagem vaga, comumente aplicada nos termos de
serviço e diretrizes da comunidade, somada com a falta de informações sobre o processo que
envolve a moderação de conteúdo, podem funcionar para esconder o real viés sistêmico e criar
séria apreensão sobre sua existência384.
Assim, a solução proposta por Nicolas Suzor, para permitir que os usuários confiem
melhor nos resultados das decisões de moderação, envolve divulgação detalhadas sobre o
treinamento e diretrizes associadas ao processo de moderação, incluindo aquelas que se
relacionam ao contexto social. As plataformas devem se preocupar em equilibrar a precisão
com as nuances de cada caso385.
Por outro lado, no que tange a moderação de conteúdo automatizada, existe um potencial
duvidoso sobre como as decisões que sofrem moderação são sinalizadas. A identificação de
possíveis violações das regras depende, em grande parte, do trabalho do usuário na sinalização
de material inapropriado, mas os sistemas de sinalização ocultam contestações complexas de
valores entre os usuários. Não há informações suficientes de como os sistemas de detecção

382
SUZOR, Nicolas; WEST, Sarah Myers; QUODLING, Andrew; YORK, Jillian. What Do We Mean When We
Talk About Transparency? Toward Meaningful Transparency in Commercial Content Moderation. International
Journal of Communication. V. 13, 1526-1543, 2019, p. 1533-1534. Disponível em:
https://ijoc.org/index.php/ijoc/article/view/9736/2610 Acesso em 30/05/2022.
383
SUZOR, Nicolas P., WEST, Sarah Myers, QUODLING, Andrew, YORK, Jillian. What Do We Mean When
We Talk About Transparency? Toward Meaningful Transparency in Commercial Content Moderation.
International Journal of Communication. V. 13. 2019. 1526-1543. P. 1534-1535. Disponível em:
https://ijoc.org/index.php/ijoc/article/view/9736/2610
384
ROBERTS, Sarah. Commercial content moderation: Digital laborers’ dirty work. In S. U. Noble & B. Tynes
(Eds.), The intersectional Internet: Race, sex, class and culture online. New York, NY: Peter Lang, 2016.
Disponível em: https://ir.lib.uwo.ca/commpub/12/ Acesso em 30/05/2022.
385
SUZOR, Nicolas P., WEST, Sarah Myers, QUODLING, Andrew, YORK, Jillian. What Do We Mean When
We Talk About Transparency? Toward Meaningful Transparency in Commercial Content Moderation.
International Journal of Communication. V. 13. 2019. 1526-1543. P. 1535. Disponível em:
https://ijoc.org/index.php/ijoc/article/view/9736/2610
123

automatizados funcionam, quais dados são utilizados para treinamento de um modelo, quão
eficazes são e como se integram ao sistema.
Essas informações, contudo, demandam as plataformas disponibilizarem acesso em
larga escala a seus dados, com análise mais profunda sobre a qualidade de seus processos
automatizados e humanos, o que elas têm relutado para fornecer. Sobre esse ponto, Harold
Feld386 entende que o adequado seria a determinação da abertura da “caixa preta” (black box)
que protege o código dos algoritmos para possibilitar a realização de testes para detectar vieses
por Agências Reguladoras. Elas poderiam equilibrar de maneira mais apropriada a necessidade
de respeito ao sigilo com a necessidade de conhecimento dos códigos fontes. A ausência de
testes claros para a verificação dos padrões utilizados pelas plataformas digitais dificulta a
demonstração de vieses e responsabilização das plataformas.
Noutro giro, esse ponto também é abordado por Evelyn Douek, mas com um viés
diferente para a solução a ser adotada: a existência de um órgão de supervisão independente
dentro dos arranjos autorregulatórios para supervisionar a aplicação de transparência nos
processos decisórios. A justificativa é a incapacidade de se avaliar e mensurar a realidade da
autorregulação pelos operadores das plataformas.
A título de exemplo, a autora menciona que no primeiro trimestre de 2019, o Facebook
retirou da rede mais de quatro milhões de conteúdos com discurso de ódio, o que, segundo a
rede social, reflete melhoria e expansão do seu sistema de detecção. Contudo, não há verificação
independente dos números ou se os conteúdos excluídos realemente se enquadram no conceito
de discurso de ódio, de acordo com os termos de uso.
Dessa forma, é possível aferir a necessidade de transparência para que as plataformas
tenham mais responsabilidade na operação de seus sistemas de moderação de conteúdo, desde
que sejam definidos os contornos do que realmente é importante que seja divulgado. Mas
transparência por si só não basta. É preciso, ainda, a supervisão dos relatórios publicados pelas
plataformas de redes sociais.

386
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019.
124

4.2.3 Participação dos usuários na Governança das plataformas

Na tentativa de trazer uma aproximação da participação democrática à formulação de


regras de plataforma, alguns autores (por todos Ivar Hartmann387), defendem um maior
envolvimento do usuário nas atividades de moderação de conteúdo. Essa ação concretizaria o
desejo que os usuários possuem pelo autogoverno. Conforme apontado por Clara Keller, essa
medida estaria de acordo com os proponentes do excepcionalismo da Internet, que “defenderam
uma Internet governada por seus usuários em vez das estruturas de poder centradas no estado
tradicionais”388.
Consoante apontado por Hartmann389, tais mecanismos podem produzir um sentimento
de pertencimento as comunidades dentro da própria plataforma, que passa a ser mais respeitada,
por refletir as interações dos próprios usuários, que possuem maior grau de autonomia para
tomar decisões. Esse sentimento aumenta a confiança dos usuários e pode trazer mais
legitimidade aos processos de tomada de decisão. No entanto, conforme observado por Clara
Keller, “não importa quais mecanismos são empregados para garantir a participação do usuário,
isso ainda não poderia ser equiparado à expansão do poder legítimo dos cidadãos”390.
A título de exemplo, pode ser trazida a moderação de conteúdo descentralizada,
abordada no primeiro capítulo, utilizada pela plataforma Reddit, na qual a terceirização das
decisões a grupos e seus próprios usuários diminuiu a discordância das decisões e questões a
respeito da discricionariedade das plataformas391.
A crítica que pode ser realizada a esse tipo de abordagem é que, em “um cenário de
polarização, não é raro observar grupos radicalistas e conservadores se organizando em seus

387
HARTMANN, Ivar. Let the users be the filter? Crowdsourced filtering to avoid online intermediary liability.
Journal of the Oxford Centre for Socio-Legal Studies, 2017 (1), 21–47, 2017, p. 22. Disponível em:
https://joxcsls.files.wordpress.com/2017/11/issue-1_2017-let-the-user-be-the-filter.pdf Acesso em 30/03/2022.
388
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p. 04. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022. Esse ponto será
aprofundado no capítulo 5, subseção “5.2.1”.
389
HARTMANN, Ivar. Let the users be the filter? Crowdsourced filtering to avoid online intermediary liability.
Journal of the Oxford Centre for Socio-Legal Studies, 2017 (1), 21–47, p. 22. Disponível em:
https://joxcsls.files.wordpress.com/2017/11/issue-1_2017-let-the-user-be-the-filter.pdf Acesso em 30/05/2022.
390
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p. 04. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022.
391
JHAVER, Shagun; BRUCKMAN, Amy; GILBERT, Eric. Does transparency in moderation really matter? User
behavior after content removal explanations on reddit. Proceedings of the ACM on Human-Computer
Interaction, v. 3, n. CSCW, p. 1-27, 2019. Disponívele em: https://dl.acm.org/doi/10.1145/3359252 Acesso em
30/05/2022.
125

fóruns para atacar e desvalorizar postagens progressistas em outros fóruns, e vice-versa”392.


Dessa forma, esse mecanismo perde seu objetivo, sem contar com a dificuldade de ser aplicado
em grandes comunidades, que lidam com temas muito controversos.

4.2.4 Uma análise tridimensional da legitimidade das plataformas digitais: input,


throughput e output

Conforme colocado no início desta subseção, a forte influência corporativa no


estabelecimento das regras inseridas nos termos de uso que direcionam o comportamento online
levanta sérias preocupações sobre os processos de tomada de decisão e os interesses dos atores
que motivam essas decisões. É por isso que muito se discute sobre a legitimidade das
plataformas de redes sociais para o exercício da governança, principalmente, porque elas
dominam um espaço no qual se realizam atividades de comunicação, que são consideradas
essenciais para uma sociedade democrática e o exercício das liberdades defendidas por essa
sociedade.
Partindo do pressuposto que as abordagens antes mencionadas (multissetorialismo,
constitucionalismo digital, aplicação de direitos humanos por design) são insuficientes para
formar uma base sólida para garantir a legitimidade de uma estrutura regulatória de governança
das redes sociais, Blayne Haggart e Clara Keller propõem uma análise tridimensional da
legitimidade393, baseada em uma visão do direito internacional e sua legitimação de governança
para se amoldar, e não transplantar diretamente, ao caso das plataformas de redes sociais394.
A primeira dimensão seria a legitimidade de entrada (input), que se refere “a qualidade
participativa do processo de elaboração das leis e regras garantidas pelas instituições

392
HARTMANN, Ivar; CURZI, Yasmin; ZINGALES, Nicolo; ALMEIDA, Clara. Moderação de conteúdo online:
contexto, brasileiro e suas perspectivas regulatórias. Rio de Janeiro: Editora Alameda, 2022 (no prelo).
393
Clara Keller se baseia no trabalho de Vivian A. Schmidt, que justifica a legitimidade à atuação da União
Europeia (UE). Como entidade supranacional, composta por representação interestadual, instituições
supranacionais e apenas um órgão representativo relativamente fraco, a UE não pode reivindicar legitimidade da
mesma forma que um Estado-nação democrático. SCHMIDT, Vivian. Democracy and legitimacy in the European
Union revisited: Input, output and “throughput”. Political Studies, 61(1), 2–22, 2013.
https://doi.org/10.1111/j.1467-9248.2012.00962.x Acesso em 30/05/2022.
394
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022
126

majoritárias de representação eleitoral ou as capacidades das instituições de resposta às


preocupações dos cidadãos, como resultado da participação pelo povo”395.
O ponto central são questões alusivas ao exercício da cidadania. Para que um
determinado processo de tomada de decisão tenha legitimidade, sob esse ângulo, é necessário
que os cidadãos expressem demandas institucionais e deliberem por meio de políticas
representativas396. Essa dimensão enfrenta diretamente o viés de “quem” exerce a governança
das redes sociais e requer, para sua afirmação, “alguma forma de representação democrática
com base em uma cidadania, que por sua vez deve ter alguma forma de identidade coletiva”397.
A segunda dimensão, a legitimidade de transferência (throughput) se relaciona com a
“qualidade dos processos de governança e é baseada nas interações dos atores envolvidos”398.
Para que uma política seja legítima é necessário que existam “processos de governança
institucionais ou construtivos que funcionem com eficácia, responsabilidade, transparência e
abertura”399. Explicando esses elementos, Blayne Haggart e Clara Keller afirmam que400:

395
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p. 05. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022. Trecho original:
Input legitimacy “refers to the participatory quality of the process leading to laws and rules as ensured by the
‘majoritarian’ institutions of electoral representation” or the institutions’ “responsiveness to citizen concerns as
a result of participation by the people.
396
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p. 05. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022.
397
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p. 05. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022. Trecho original:
Input legitimacy requires some form of democratic representation based in a citizenry, which itself has to have
some form of collective identity.
398
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p. 05. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022. Trecho original:
“Throughput legitimacy “focuses on the quality of … governance processes”. It is “process-oriented, and based
on the interactions – institutional and constructive – of all actors engaged in … governance”.
399
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p. 05. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022. Trecho original:
It “demands institutional and constructive governance processes that work with efficacy, accountability,
transparency, inclusiveness and openness” (Schmidt, 2013, pp. 7-8).
400
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p.06. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022. Trecho original:
Efficacy refers to how smoothly the processes of rule-making and implementation function. Accountability involves
the extent to which “actors are judged on their responsiveness to participatory input demands and can be held
responsible for their output decisions” (Schmidt, 2013, p. 6). Transparency, meanwhile, refers to whether “citizens
have access to information about the process and [whether] decisions as well as decision-making processes in
formal … institutions are public” (Schmidt, 2013, p. 6). Transparency should not be confused with accountability,
which “demands some form of scrutiny by a specific forum” (Schmidt, 2013, p. 6) and is thus related to input
legitimacy. Rather, transparency is merely “a prerequisite to accountability” (Schmidt, 2013, p. 6). Finally,
inclusiveness and openness of institutional processes to civil society participation in the policymaking process is
127

A eficácia refere-se a quão suave são os processos de formulação de regras e


sua função de implementação. Responsabilidade (accountability) envolve a
medida em que “os atores são julgados por suas respostas às demandas de
participação e podem ser responsabilizados por suas decisões”. A
transparência, por sua vez, refere-se a se "os cidadãos têm acesso às
informações sobre o processo e [se] as decisões, como processos de tomada
de decisão, em instituições formais ... são públicas”. Transparência não deve
ser confundida com responsabilidade, que "exige alguma forma de escrutínio
por um fórum específico" (...). Em vez disso, a transparência é apenas "um
pré-requisito para a responsabilidade". Finalmente, inclusão e abertura de
processos institucionais para a participação da sociedade civil no processo de
formulação de políticas está se legitimando como um equilíbrio para “acesso
e influência entre os interesses organizados que representam aos negócios”.

Por fim, a legitimidade de saída (output) corresponde "a qualidade da resolução de


problemas das leis e regras", isto é, guarda correlação com o resultado das políticas adotadas,
que deve ser baseada nas percepções dos cidadãos envolvidos. Somente, assim, poderá ser
considerada presente a legitimidade sob essa dimensão401.
Considerando, portanto, essas diferentes dimensões de legitimidade, que interagem
entre si, uma plataforma pode ter ou não legitimidade em sua governança se analisada cada um
desses níveis. Não é necessário que todos eles alcancem níveis altos de preenchimento; é
possível, por exemplo, segundo os autores mencionados, que a legitimidade de entrada seja
mais forte em um determinado processo do que as suas outras dimensões. Por isso, pode-se
afirmar que as variadas dimensões de legitimidade são complementares de um todo, não
havendo necessidade de estarem igualmente representadas para se afirmar a presença da
legitimidade democrática da governança402.

legitimizing as a balance to “access and influence among organized interests representing business” (Schmidt,
2013, pp. 6–7).
401
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p.06. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022. Trecho original:
Output legitimacy, meanwhile, covers “the problem-solving quality of the laws and rules” (Schmidt, 2013, p. 4),
or “effectiveness of … policy outcomes for the people” (Schmidt, 2013, p. 2) apud SCHMIDT, Vivian. Democracy
and legitimacy in the European Union revisited: Input, output and “throughput”. Political Studies, 61(1), 2–22,
2013. https://doi.org/10.1111/j.1467-9248.2012.00962.x Acesso em 30/05/2022.
402
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p. 07. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022.
128

Blayne Haggart e Clara Keller propõem uma estrutura para avaliação da legitimidade,
que pode ser traduzida no seguinte quadro abaixo elaborado403.

Legitimidade de entrada Legitimidade de Legitimidade de saída – 2


transferência – 4 critérios critérios
Deve ser avaliado o grau em Deve ser avaliado se há Deve ser avaliado até que
que as influências transparência nos processos ponto as ações da plataforma
majoritárias são incorporadas empregados, isto é, se as melhoram a vida das pessoas
às estruturas de governança pessoas têm informações afetadas por suas respectivas
da plataforma, por meio de suficientes sobre os ações.
representação ou processos de tomada de
participação. decisão.
Deve ser avaliado se há uma Deve ser avaliado se há Deve ser avaliado até que
comunidade política auto- eficácia nos processos ponto as ações das
identificada. empregados. Pode-se plataformas se ajustam aos
perguntar: O processo valores e identidades das
realmente alcança o resultado pessoas afetadas por essas
pretendido de maneira ações.
eficiente?
- Deve ser avaliado se há -
responsabilidade nos
processos empregados. Pode-
se perguntar: As plataformas
e aqueles que trabalham para
plataformas são julgados e
responsabilizados, ou seja,
eles enfrentam
consequências por suas
decisões?
- Deve ser avaliado se há -
inclusão e abertura para a
participação da sociedade
civil nos processos

403
HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma governance.
Telecommunications Policy. 2021, p. 06-07. Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562. Acesso em 30/05/2022. Trecho original:
Input legitimacy with respect to platforms focuses on the ability of citizens in their role as citizens to control the
very form of the platform itself, including what the platform does and how it does it (...). We suggest two criteria:
(i) The degree to which majoritarian influences are incorporated into platform-governance structures, through
representation or participation. (ii) The presence of a self-identified polity. Throughput legitimacy refers to the
quality of governance processes. Here, we adopt Schmidt’s four listed criteria (2013, 6–7) wholesale: (i)
Transparency – Do people have enough information about decision-making processes and rules to hold rule-
makers accountable? (ii) Efficacy – Does the process actually achieve its intended outcome in an efficient manner?
(iii) Accountability – Are platforms and those working in and for platforms judged (and held accountable; i.e., do
they face consequences) for their decisions? (iv) Inclusiveness and openness to civil-society participation – Are
civil-society groups accorded an ongoing role in setting and/or implementing platforms’ policies and rules?
Output legitimacy, meanwhile, considers the ultimate result of a platform’s actitvity. It involves two factors: (i)
the extent to which platform’s actions enhance the lives of the people affected by it; and (ii)the extent to which
these actions fit the values and identities of the people affected by said actions.
129

empregados. Pode-se
perguntar: Os grupos da
sociedade civil têm um papel
contínuo na definição e ou
implementando políticas e
regras de plataformas?

Na próxima subseção, será trazido outro mecanismo implementado pelas próprias


plataformas para trazer mais confiança e credibilidade à sua atuação, em uma tentativa de
consagrar sua legitimidade na regulação de políticas adotadas na internet e evitar intervenções
estatais. Serão abordadas as práticas de responsabilidade social corporativa.

4.3 Responsabilidade social corporativa

A responsabilidade social corporativa constitui um conjunto de práticas que buscam


trazer mais legitimidade à atuação das plataformas no exercício de sua governança. Essa teoria
foca na “responsabilidade que as entidades comerciais têm pelos impactos de suas práticas na
sociedade”404, e tem fundamento na evolução da relação entre empresa e sociedade,
notadamente, em uma economia transnacional.
Essa prática, no entanto, é voluntária, tendo as empresas ampla flexibilidade para
implementarem “códigos de conduta” ou “políticas de boas práticas” da maneira que acharem
mais conveniente para seus negócios. Conforme antes mencionado, a atuação das empresas em
harmonia com princípios do Estado Democrático de Direito e respeito aos direitos
fundamentais, com mecanismo de transparência e accountability geram mais confiança em seus
processos de tomada de decisão e amenizam a necessidade de uma regulação estatal forte.
A vantagem dessa prática, consoante apontado por Clara Keller, é que ela se “relaciona
com atividades e compromissos que iriam além do marco legal, ou em situações de incerteza

404
KELLER, Clara Iglesias. Regulação nacional de serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 99.
130

ou vazio legislativo sobre o mesmo – o que favorece a sua adoção no âmbito dos regimes
econômicos transnacionais”405, como é o caso da governança da internet.
A responsabilidade corporativa pelo respeito aos direitos humanos, por exemplo, foi
reconhecida em documentos de soft law406 internacionais, tais como, a Declaração Tripartite de
Princípios sobre Empresas Multinacionais e Política Social e a Organização para a Cooperação
Econômica e Diretrizes de desenvolvimento para Empresas Multinacionais407.
Por fim, três principais críticas podem ser feitas à responsabilidade social corporativa
como teoria legitimadora da governança das plataformas digitais de redes sociais. A primeira
delas é que ela dá preferência aos interesses patrimoniais das empresas, no lugar aos interesses
sociais dos indivíduos, certo que as decisões que envolvem uma coletividade não podem ser
deixadas a cargo de um grupo, sem representação democrática. A segunda crítica é que essas
práticas, ainda que disciplinadas em um código, não são vinculativas e não geram
responsabilidade no caso de descumprimento408. E a terceira crítica seria a sua baixa eficácia
como fator de contribuição para a conformação da conduta das empresas, sendo considerada,
por parte da literarura, como “de fachada fraca, que serve apenas para desviar ou atrasar a
atenção legislativa necessária”409.
Esse capítulo apresentou a governança como um fenômeno amplo e abrangente, que
funciona como uma estrutura para acomodar as diferentes interações entre as partes
interessadas. No ecossistema das redes sociais, a governança é exercida pelas plataformas, em

405
KELLER, Clara Iglesias. Regulação nacional de serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 100.
406
O termo soft law, embora controverso, é utilizado na área de direito internacional como um instrumento
normativo, à margem do tratado (concepção tradicional) e outras fontes internacionais elencados pelo artigo 38 do
Estatuto da Corte Internacional de justiça. Surgiu para possibilitar que atores internacionais celebrem acordos que
possam respeitar, mas livres das pressões do pacta sunt servanda e das restrições de sua liberdade de ação e
apresenta-se como consequência da realidade das práticas de direito internacional, onde é necessária uma rápida
reação aos problemas de preocupação global. CASTAÑEDA, Fabián Augusto Cárdenas. A Call for Rethinking
the Sources of International Law: Soft Law and the Other Side of the Coin. In: Anuario Mexicano de Derecho
Internacional, vol. 13, 2013, p. 355-403, p. 376. Um dos conceitos mais utilizados é o de Christine Chinkin, no
qual soft law são “instrumentos que variam de tratados, mas que incluem apenas obrigações leves, a resoluções e
Códigos de Conduta não vinculativos ou voluntários formulados e aceitos por organizações internacionais e
regionais e declarações preparadas por indivíduos sem capacidade governamental, mas que pretendem lançar
princípios internacionais”. Nesse contexto, um instrumento de soft law, como por exemplo, o Código de conduta
de Desinformação, apesar de não alterar o status legal dos princípios, tem por função a padronização dos
comportamentos entre aqueles que aceitaram essa regulação. CHINKIN, Christine. The Challenges of Soft Law:
Development and Change in International Law. In: The International and Comparative Law Quaterly, vol.
38,1989, p. 850-866, p. 851.
407
CALLAMARD, Agnés. The Human Rights Obligations of Non-State Actors. In: Human rights in the age of
platforms. Editor: Rikke Frank Jørgensen: Cambridge, MA: The MIT Press. 2019, p. 202. Disponível em:
file:///C:/Users/user/Downloads/1005622.pdf Acesso em 30/05/2022.
408
KELLER, Clara Iglesias. Regulação nacional de serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 100.
409
LAIDLAW, Emily B., Internet Gatekkepers, Human Rights and Corporate Social Responsabilities, 2012,
304 F. Tese (doutorado) – London School of Economics And Political Science, London, 2021, p. 78.
131

razão do próprio aparato técnico operado. Esse fato levou a literatura especializada a criticar a
legitimidade das plataformas (enquadramdo-se também as redes sociais) para exercerem,
sozinhas (definindo regras, conformando condutas e resolvendo disputas, sem a participação do
usuário, Estados ou outros atores interessados), essa governança. Para solidificar essa
governança, foram apresentadas algumas teorias trazidas pela literatura.
O próximo capítulo granulariza mais o tema e passa a tratar da regulação, ferramenta
utilizada para o exercício da governança, direcionando o foco para os atores que podem exercê-
las. O objetivo do próximo capítulo é investigar, justamente, os arranjos institucionais cabíveis
quando se fala em moderação de conteúdo para se aproximar do ponto central deste trabalho, a
existência de um papel para o Estado nesta regulação.
132

5 A REGULAÇÃO DAS PLATAFORMAS DE REDES SOCIAIS

O presente capítulo direciona o foco para a regulação das plataformas de redes sociais,
mais precisamente aos atores que podem estar envolvidos nessa regulação. Para isso, dividiu-
se o capítulo em três partes. Em um primeiro momento será realizada uma breve introdução
sobre o cenário teórico da configuração estatal em que se desenvolveu o tema sobre regulação
das plataformas de redes sociais, à luz da perspectiva do Estado Regulador e sua transformação
em uma sociedade complexa.
Neste ponto, é importante ressalvar que não se pretende abordar com profundidade as
diversas teorias que envolvem o assunto, pois foge ao escopo deste trabalho. No entanto, é
importante mencioná-las, pois servem para identificar o desenho institucional tradicional, com
especial atenção para o papel das Agências Reguladoras dentro deste modelo de Estado, e
conceder suporte a novas alternativas de arranjos regulatórios, uma vez que a regulação das
plataformas se desenvolve em um ambiente tecnológico complexo, globalizado e novo, o que
traz incerteza sobre as escolhas a serem feitas.
Feita essa introdução, em segundo momento serão analisadas duas questões. A primeira,
por lógica, é indagar se as plataformas devem ser reguladas, isto é, entender o porquê se fala
em regulação das plataformas. Na verdade, será destacado neste ponto que as plataformas
sempre foram reguladas. O segundo ponto se relaciona aos arranjos institucionais cabíveis para
essa regulação, ou seja, qual é o rol de instituições responsáveis para exercer o papel regulatório
(entendido aqui como regulação em sentido amplo, isto é, a regulação exercida por meio de
atores e formas variadas, como, por exemplo, atores estatais e não-estatais, leis e instrumentos
de soft law, códigos de conduta, termos de uso, dentre outros).
Ao final do capítulo, serão trazidas algumas experiências estrangeiras com essas
estruturas a fim de possibilitar uma avaliação crítica sobre os diversos arranjos possíveis para
destacar a corregulação como a estrutura mais adequada a regular as plataformas de redes
sociais, já que ela é a mais propensa a preservar as características do ambiente regulatório que
envolve a internet, principalmente a abertura e democracia, e, ao mesmo tempo, promover os
valores constitucionais e trazer mais responsabilidade à atuação das plataformas sociais.
133

5.1 O Estado Regulador

Antes de analisar os possíveis arranjos institucionais para regular as plataformas de


redes sociais, investigando o papel do Estado, é interessante dar um passo atrás para fazer uma
breve introdução sobre o cenário410 no qual se desenvolveu o Estado Regulador411, com
destaque para suas características na atual sociedade e a adoção desse modelo no Estado
Brasileiro.

5.1.1 O cenário do surgimento do Estado Regulador

O Estado Intervencionista ou Estado do Bem-estar, dentre outras nomenclaturas


adotadas pela literatura412, ocupou um lugar central na sociedade e implementou instrumentos
de propriedade pública, provisão direta de serviços públicos, integração da formulação de
políticas e funções operacionais413. Reconhecia-se o Estado como um poder soberano, que
possuía a função de proteger a nação dos perigos e ameaças externas, além de manter a ordem
interna, prestar serviços aos cidadãos e solucionar os conflitos sociais, isto é, um Estado

410
A literatura sobre a evolução do Estado e a maneira que esse usa o poder e o legitima é extensa. Não é o objetivo
deste trabalho detalhá-las, o que tem sido feito pela doutrina administrativista. O que se busca nesse momento é
contextualizar o leitor sobre a evolução da configuração do Estado e seus arranjos institucionais regulatórios, com
ênfase na organização do Estado Regulador, e demonstrar que essas características se desenvolveram de acordo
com as transformações sociais, políticas e econômicas ocorridas em um momento histórico específico.
411
A referência aos modelos de Estado (Liberal, Intervencionista, Regulador e Pós-Regulador) é utilizada, a partir
do nascimento da figura do Estado, para expressar a sua forma de configuração e fixar suas relações com a política
econômica e social de uma determinada época. O fim do feudalismo trouxe a necessidade de organizar
politicamente um determinado povo situado sob um determinado território através do monopólio da coerção
(soberania) a fim de se alcançar ordem e coesão social. (CHEVALLIER, Jacques. O Estado pós-moderno.
Tradução de Marçal Justen Filho. Belo Horizonte: Fórum, 2009, p.24). A partir de então cada período de tempo é
caracterizado por um conjunto de valores centrais que guiam a organização política, e, a depender do campo do
conhecimento aplicado, tem-se uma nomenclatura diferente para traduzir um mesmo fenômeno relacionado ao
conjunto de interações entre Estado e sociedade e suas transformações que refletem nas instituições políticas,
econômicas e sociais do Estado.
412
ARAGÃO. Alexandre Santos. Agências Reguladoras e a evolução do direito administrativo econômico.
3ed. Rio de Janeiro: Forense, 2013.pp. 56-71. O autor faz menção que as nomenclaturas “Estado de bem-estar,
Estado social, pós-capitalista, pós-industrial, intervencionista e, mais recentemente, regulador, pós-moderno, ect”
não recebem denominação adequada para uma manifestação jus-política tão complexa como essa, pelo que a
melhor referência seria pela expressão “Estado Democrático de Direito”, que possibilita a adoção de outros
submodelos que melhor expressem o conteúdo da Carta Constitucional.
413
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004, p.6.
134

expansivo com o objetivo de conduzir a sociedade em seus diversos aspectos. Pode-se dizer
que o Estado Intervencionista pode ser traduzido na tentativa de fazer coexistir o fortalecimento
da atuação estatal e a emancipação social, através da efetivação dos direitos sociais em nome
da igualdade e da cidadania414.
Em apertada síntese, sob um viés econômico, pode-se dizer que esse modelo estatal
ultrapassou os dogmas liberais clássico415, notadamente, aquele da mão invisível do Estado
como o único mecanismo regulador, em favor da intervenção estatal como um segundo
mecanismo de alocação de recursos416. Do ponto de vista político, observa-se o crescimento do
pluralismo ideológico, em resposta a ameaças de políticas totalitárias, com a assunção de
compromissos sociais, de cidadania e de justiça distributiva417.
A partir dos anos de 1970, contudo, assistiu-se a necessidade de reavaliar o papel do
Estado sob as perspectivas econômicas e sociais de suas relações com a sociedade e mercado,
em razão da crise econômica mundial e da internacionalização das relações negociais e
sociais418, o que trouxe interdependência entre os Estados e, por consequência, abalo na noção
de soberania419. A aceleração do desenvolvimento tecnológico tornou a economia globalizada,
ou seja, mais integrada e capaz de se sobrepor a capacidade dos Estados nacionais de planificar
suas economias.
Novas propostas de um novo modelo político-econômico neoliberal420, adotado pelos
governos de Margareth Thatcher e Ronald Reagan (com variações), na década de 80,

414
BENTO, Leonardo Valles. Governança e governabilidade na reforma do Estado: entre eficiência e
democratização. Barueri: Manole, 2003, p. 10. Livro Digital disponível em: https://sb.fgv.br/catalogo/index.html
Acesso em 30/05/2022.
415
O liberalismo clássico defendido por Adam Smith pregava que o mercado andaria por conta própria e a única
fonte de riqueza seria o trabalho. Sobre as ideias desse autor, remete-se o leitor para DOMINGO, Rafael (Ed.).
Juristas universales. Madrid: Marcial Pons, 2004. P. 641-646. V.2.
416
BENTO, Leonardo Valles. Governança e governabilidade na reforma do Estado: entre eficiência e
democratização. Barueri: Manole, 2003, p. 35. Livro Digital disponível em: https://sb.fgv.br/catalogo/index.html
Acesso em 30/05/2022.
417
BENTO, Leonardo Valles. Governança e governabilidade na reforma do Estado: entre eficiência e
democratização. Barueri: Manole, 2003, p. 36. Livro Digital disponível em: https://sb.fgv.br/catalogo/index.html
Acesso em 30/05/2022.
418
A internacionalização das relações é marcada pela globalização, que, segundo Odete Medauar é a
“transnacionalização acelerada dos mercados, dos capitais, da produção, das relações econômicas, do consumo,
sem limites territoriais, em que ocorre a superação de restrições de espaço e tempo, com capacidade do tratamento
instantâneo de um grande número de informações”. MEDAUAR, Odete. O direito administrativo em evolução.
2ª. ed. São Paulo: RT, 2003, p. 94.
419
CHEVALLIER, Jacques. O Estado pós-moderno. Tradução de Marçal Justen Filho. Belo Horizonte: Fórum,
2009. p.29-37.
420
A título de curiosidade, conforme apontado por Leonardo, o pensamento neoliberal nasceu logo depois da
segunda guerra mundial, quando o modelo de Estado do bem-estar estava em crescente progresso. O marco teórico
do neoliberalismo é a obra de Friedrich Hayek. BENTO, Leonardo Valles. Governança e governabilidade na
reforma do Estado: entre eficiência e democratização. Barueri: Manole, 2003. P. 39. Livro Digital disponível
em: https://sb.fgv.br/catalogo/index.html Acesso em 30/05/2022.
135

despontaram para se alcançar um Estado mínimo, com adoção de práticas de privatização


(entendida, em seu sentido amplo, como a redução do espaço do Estado no campo econômico,
em que se transfere as atividades econômicas desempenhadas pelo Estado aos atores privados),
redução dos custos e dos serviços públicos prestados pelo Estado, abertura de mercado,
desregulação421, dentre outras práticas que retirassem do Estado o papel de protagonista da
economia422.
Um dos maiores defensores da teoria neoclássica, Milton Friedman423, economista da
escola de Chicago, baseia-se na liberdade como valor essencial da vida humana e instituições
para sustentar que deve haver a devolução da coordenação econômica ao mercado com o
retorno da livre concorrência. Caberia ao Estado somente preservar a liberdade dos cidadãos
contra ameaças externas e garantir a lei e ordem, além de assegurar o funcionamento de um
mercado competitivo.
É importante observar que esse enxugamento da máquina pública com a reestruturação
das áreas de atuação estatal retorna ao Estado a função de gerenciar as atividades que sobraram.
É nesse momento que se observa a reconstrução da esfera pública, no final da década de 80,
com as reformas estruturais a fim de melhorar a capacidade organizacional do Estado, sua
eficiência e competitividade. Essa nova visão política econômica traz um novo modelo de
Administração Pública, “substituindo a centralização, hierarquização e universalidade típicas
do serviço público burocrático, pela descentralização, focalização e participação popular”424.
É nesse contexto que surge a noção de Estado Regulador425. Conforme explicado por
Colin Scott (2006), o conceito foi desenvolvido para referenciar o surgimento de uma nova

421
Quando se fala em desregulação no Estado Regulador pode parecer paradoxal, no entanto, o termo aponta para
a ruína dos métodos tradicionais de regulação e controle, sob a pressão de novas forças tecnológicas, econômicas
e ideológicas, e combinação de desregulação, em alguns setores, com nova regulação, em um nível diferente de
governança. Por exemplo, a privatização de serviços de utilidade pública foi normalmente seguida por regulação
de preços. A desregulação também pode significar uma regulação menos rígida e restritiva. MAJONE,
Giandomenico. Do Estado Positivo ao Estado Regulador: Causas e consequências da mudança do modo de
governança. In: Regulação Econômica e Democracia: o debate europeu. Coordenação e tradução: Paulo
Todescan Lessa Mattos. 2 ed.rev. – São Paulo: editora Revista dos Tribunais. 2017, p. 59.
422
MEDAUAR, Odete. O direito administrativo em evolução. 2ª. ed. São Paulo: RT, 2003, pp. 94-97.
423
FRIEDMAN, Milton. Capitalismo e liberdade. LTC Editora, 2014. Disponível em:
https://edisciplinas.usp.br/pluginfile.php/5114393/mod_resource/content/1/FRIEDMAN.pdf Acesso em
30/05/2022.
424
BENTO, Leonardo Valles. Governança e governabilidade na reforma do Estado: entre eficiência e
democratização. Barueri: Manole, 2003. P. 50. Livro Digital disponível em: https://sb.fgv.br/catalogo/index.html
Acesso em 30/05/2022.
425
O Estado Regulador é inspirado no modelo estadunidense de Estado Administrativo. Segundo Sérgio Guerra,
esse modelo de estado é estruturado por meio de agências executivas e reguladoras, fora do aparato burocrático do
Poder Executivo. Sua formação destacada ocorre em razão da origem do modelo de governança americano, que,
em razão da influência negativa exercida pelo governo inglês sob as colônias americanas, originadas dos abusos e
violações nos direitos e liberdades individuais, fez com que os “founding fathers” da Constituição Americana
restringissem os poderes do Chefe do Poder Executivo. GUERRA, Sérgio. Separação de Poderes, Executivo
136

forma de governabilidade426, em contraste com a do Estado do Bem-estar, separando as


atividades operacionais das atividades regulatórias na área pública, com a criação de entidades
governamentais e agências executivas427. Retira-se das mãos do Estado a atividade da prestação
de serviço ao público e passa para os particulares, o que demanda a ampliação da regulação
estatal com a redução de sua intensidade.
Importante destacar, contudo, a observação de Sérgio Guerra de que a “concepção da
escolha regulatória, não decorre, necessariamente, do modelo de política neoliberal”428. Isso
porque essa visão é contrária ao próprio discurso neoliberal, que opõe à regulação estatal aquela
que decorre da lógica do mercado. A função regulatória, por sua vez, pressupõe que o sistema
econômico não possa atingir seu equilíbrio sozinho, necessitando do Estado para fazer essa
mediação429. Segundo Guerra, “a associação da regulação ao neoliberalismo, de certa forma,
está ligada à ideia de que o Estado deve intervir indiretamente em sistemas complexos que, por
si só, não atingijam o equilíbrio, função essa que é diretamente incrementada pelas
privatizações”430431.

Unitário e Estado Administrativo no Brasil. In: Teoria do Estado Regulador/organização Sérgio Guerra/
Curitiba: Juruá, V.3, 2017, p. 12-13. Outra razão para o sucesso no desenvolvimento deste modelo está atrelada a
preferência da cultura do povo americano pela atividade econômica privada, ao passo que exigi-se do Estado dirigir
essa atividade para assegurar objetivos sociais e econômicos. Um período chave para o crescimento do Estado
Regulatório nos Estados Unidos foi o período associado ao New Deal, aproximadamente em 1960. SCOTT, Colin.
Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin; LEVI-FAUR,
David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of Governance. 2004,
p.07.
426
Registre-se que os termos governança e governabilidade são distintos. Governabilidade se refere às condições
do ambiente político em que se efetivam ou devem efetivar-se as ações da administração, à base de legitimidade
dos governos, credibilidade e imagem pública da burocracia. Sobre governança, remete-se o leitor para o capítulo
anterior. BENTO, Leonardo Valles. Governança e governabilidade na reforma do Estado: entre eficiência e
democratização. Barueri: Manole, 2003, p. 85. Livro Digital disponível em: https://sb.fgv.br/catalogo/index.html
427
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance.2004, p.6.
428
GUERRA, Sérgio. Discricionariedade, regulação e reflexividade: uma Nova Teoria sobre as Escolhas
Administrativas. 5ed. Ver.eatual. 1. Reimpressão – Belo Horizonte: Fórum,2019, p 124.
429
CHEVALLIER, Jacques. O Estado pós-moderno. Tradução de Marçal Justen Filho. Belo Horizonte: Fórum,
2009, p.72.
430
GUERRA, Sérgio. Discricionariedade, regulação e reflexividade: uma Nova Teoria sobre as Escolhas
Administrativas. 5ed. Ver.eatual. 1. Reimpressão – Belo Horizonte: Fórum,2019, p 124.
431
A propriedade pública, historicamente, foi o modo principal de regulação econômica na Europa. Supunha-se
que a propriedade estatal daria ao Estado o poder de impor uma estrutura planejada a economia, protegendo, ao
mesmo tempo, o interesse público. Contudo, com o tempo observou-se que propriedade e controle não eram
sinônimos. Segundo Majone, “o problema de impor controle público efetivo sobre grandes empresas
nacionalizadas, mostrou-se tão impraticável que o objetivo principal, pelo que haviam sido ostensivamente criadas
– regular a economia em razão do interesse público -, foi quase esquecido”. Assim, a falha da regulação por meio
de bens públicos explica a mudança para um modo alternativo de controle, no qual os serviços públicos,
considerados como importantes, são deixados nas mãos das empresas privadas, mas sujeitos ao controle de
agências técnicas e especializadas. Daí o nexo causal entre privatização e Estado Regulador. MAJONE,
Giandomenico. Do Estado Positivo ao Estado Regulador: Causas e consequências da mudança do modo de
governança. In: Regulação Econômica e Democracia: o debate europeu. Coordenação e tradução: Paulo
Todescan Lessa Mattos. 2 ed.rev. – São Paulo: editora Revista dos Tribunais. 2017, pp. 59-60.
137

O desenvolvimento do Estado Regulador modifica, portanto, a configuração da


intervenção estatal nas atividades econômicas e sociais432. A atividade regulatória estatal incide
sobre as atividades econômicas e se destaca de forma singular, fora dos padrões dos modelos
de Estado Intervencionista e Liberal433, sendo necessária para equilibrar os subsistemas
complexos e corrigindo as falhas de mercado434. Na próxima subseção serão analisadas as
características do atual Estado Regulador que são importantes para que se entenda as diversas
relações e interações entre reguladores e regulados e seus instrumentos.

5.1.2 O Estado Regulador contemporâneo

O Estado Regulador atende ao princípio da subsidiariedade, deixando a cargo das


empresas privadas o desempenho das atividades econômicas à luz do princípio da livre
iniciativa. Segundo Chevallier, a redefinição das funções estatais significa que a intervenção do
Estado na economia “somente é legítima em caso de insuficiência ou falha dos mecanismos de
autorregulação social (supletividade), sendo entendido que convém naquela situação privilegiar
os dispositivos mais próximos dos problemas a resolver (proximidade) e de apelar à
colaboração de atores sociais (parceria)”435.
O autor acima mencionado segue explicando que a regulação consiste em “supervisionar
o jogo econômico, estabelecendo certas regras e intervindo de maneira permante para amortecer

432
CHEVALLIER, Jacques. O Estado pós-moderno. Tradução de Marçal Justen Filho. Belo Horizonte: Fórum,
2009, p.59.
433
Giandomenico Majone explica que existem 3 principais teorias político-econômicas sobre intervenção do
Estado na economia: (i) redistribuição de renda: transferência de recursos de um grupo de indivíduos ou regiões
para outro grupo, além da provisão de “bens de mérito”, como educação, seguridade, etc.; (ii) estabilização
macroeconômica: persegue níveis satisfatórios de crescimento econômico e emprego através de instrumentos e
política fiscal e monetária, mercado de trabalho e política industrial; e, (iii) regulação de mercados: cujo objetivo
é corrigir as falhas de mercado. No estado intervencionista, a importância atribuída às políticas de redistribuição e
à administração discricionária da demanda agregada começou a desmoronar a partir dos anos de 1970, surgindo a
noção de falha de governo, com os teóricos da escolha publica (public choice), para identificar vários tipos de
falhas no setor público. MAJONE, Giandomenico. Do Estado Positivo ao Estado Regulador: Causas e
consequências da mudança do modo de governança. In: Regulação Econômica e Democracia: o debate europeu.
Coordenação e tradução: Paulo Todescan Lessa Mattos. 2 ed.rev. – São Paulo: editora Revista dos Tribunais. 2017,
p. 57.
434
CHEVALLIER, Jacques. O Estado pós-moderno. Tradução de Marçal Justen Filho. Belo Horizonte: Fórum,
2009, p.72.
435
CHEVALLIER, Jacques. O Estado pós-moderno. Tradução de Marçal Justen Filho. Belo Horizonte: Fórum,
2009, pp.59-60.
138

as tensões, compor os conflitos, assegurar a manutenção de um equilíbrio do conjunto”436. Isso


significa que o Estado deixa de ser um operador, mas passa a ser um árbitro do processo
econômico, “limitando-se a enquadrar a atuação dos operadores e se esforçando para
harmonizar suas ações”437.
É importante mencionar algumas adaptações necessárias que a reconfiguração do
Estado demandou para atender as novas demandas políticas administrativas. A primeira delas
é a formulação de regras como instrumento regulatório central. Elaborar regras sofre pequeno
impacto das limitações orçamentárias, enquanto, no Estado Intervencionista, que tinha como
principal instrumento a tributação e dispêndio, dependia de dotações orçamentárias e do nível
de receita dos governos438.
Essas normas, haja vista a quantidade crescente de demandas no Estado Democrático
de Direito, passaram a ser abrangentes e flexíveis para que possam alcançar seu objetivo,
perseguir a realização de princípios e finalidades públicas. Por essa razão, Alexandre Aragão
afirma que as normas passaram a ter seu critério de validade aferido não apenas no seu processo
criador, mas também na sua aptidão para atender aos objetivos da política pública perguida.
Isso significa atender ao teste do princípio da proporcionalidade, no que se refere ao elemento
adequação dos meios aos fins439. Uma norma, portanto, somente será válida se for apta a realizar
os objetivos para a qual foi criada.
A segunda mudança parte de uma burocracia centralizada na formulação de políticas e
na Administração Pública, exigida em um modelo de redistribuição de renda adotado no Estado
Intervencionista, para uma burocracia descentralizada, com o surgimento de agências
especializadas e independentes, as Agências Reguladoras, que operam a distância de um
governo central com autonomia no processo de tomada de decisão440.
Essas mudanças são essenciais para áreas em que se exige um conhecimento específico
e necessidade de assumir comprometimentos dotados de credibilidade política. Por isso, a fonte

436
CHEVALLIER, Jacques. O Estado pós-moderno. Tradução de Marçal Justen Filho. Belo Horizonte: Fórum,
2009, p.73.
437
CHEVALLIER, Jacques. O Estado pós-moderno. Tradução de Marçal Justen Filho. Belo Horizonte: Fórum,
2009, p.73.
438
MAJONE, Giandomenico. Do Estado Positivo ao Estado Regulador: Causas e consequências da mudança do
modo de governança. In: Regulação Econômica e Democracia: o debate europeu. Coordenação e tradução:
Paulo Todescan Lessa Mattos. 2 ed.rev. – São Paulo: editora Revista dos Tribunais. 2017, pp. 64-67.
439
ARAGÃO. Alexandre Santos. Agências Reguladoras e a evolução do direito administrativo econômico.
3ed. Rio de Janeiro: Forense,2013, pp.92-93.
440
MAJONE, Giandomenico. Do Estado Positivo ao Estado Regulador: Causas e consequências da mudança do
modo de governança. In: Regulação Econômica e Democracia: o debate europeu. Coordenação e tradução:
Paulo Todescan Lessa Mattos. 2 ed.rev. – São Paulo: editora Revista dos Tribunais. 2017, pp. 68-71.
139

de legitimidade dos reguladores passa a ser a força do conhecimento específico que pode trazer
mais eficiência às escolhas públicas em substituição ao modelo majoritário441.
Majone aponta que a legitimidade das agências independentes pode ser visualizada sob
uma dimensão procedimental e outra substancial. A legitimidade procedimental resulta da
criação das agências através de leis, democraticamente promulgadas, que definem os objetivos
a serem perseguidos pelas agências; dos reguladores serem nomeados por funcionários eleitos;
da tomada de decisões regulatórias seguirem regras formais e permitirem a participação pública;
e, das decisões das agências serem abertas ao escrutínio judicial e serem justificadas442.
Por outro lado, a legitimidade substancial deriva da coerência das matérias políticas, do
conhecimento específico e habilidade de solucionar problemas pelos reguladores eleitos; da
proteção concedida aos interesses coletivos; e de uma definição dos objetivos da agência, que
permite aos diretores das agência traçar agendas bem definidas que possam ser aferidas
posteriormente (esse último elemento facilita a responsabilização pelos resultados)443.
Essa medida assegura o pluralismo, sem retirar totalmente o poder de controle do chefe
do Poder Executivo ou do Poder legislativo. Segundo Alexandre Aragão:

Estando em crise o princípio majoritário, eminentemente político, de


regulação estatal da economia, surgiram estes organismos capazes de, se
conduzidos corretamente, não apenas ladear os prejuízos ao princípio da
maioria, como de compensar alguns de seus problemas. Com efeito, o
princípio da maioria é, em uma sociedade pluralista, altamente diferenciada,
apenas um dos possíveis mecanismos práticos de se estabelecer o rumo da
coletividade, com evidentes inconvenientes para as parcelas da população que
não estiverem de acordo com as posturas adotadas momentaneamente pela
maioria444.

441
Segundo Majone, as democracias são consideradas como governos da maioria. Uma formulação radical dessa
teoria sustenta que as maiorias deveriam controlar o governo. Essa concepação gera, por consequência um governo
centralizado e unitário, o contrário do modelo do Estado Regulador, caracterizado pelo pluralismo, pela difusão
de poder e delegação de tarefas à instituição não majoritárias, como as Agências Reguladoras. MAJONE,
Giandomenico. Do Estado Positivo ao Estado Regulador: Causas e consequências da mudança do modo de
governança. In: Regulação Econômica e Democracia: o debate europeu. Coordenação e tradução: Paulo
Todescan Lessa Mattos. 2 ed.rev. – São Paulo: editora Revista dos Tribunais. 2017, p. 75.
442
MAJONE, Giandomenico. Do Estado Positivo ao Estado Regulador: Causas e consequências da mudança do
modo de governança. In: Regulação Econômica e Democracia: o debate europeu. Coordenação e tradução:
Paulo Todescan Lessa Mattos. 2 ed.rev. – São Paulo: editora Revista dos Tribunais. 2017, p. 76.
443
MAJONE, Giandomenico. Do Estado Positivo ao Estado Regulador: Causas e consequências da mudança do
modo de governança. In: Regulação Econômica e Democracia: o debate europeu. Coordenação e tradução:
Paulo Todescan Lessa Mattos. 2 ed.rev. – São Paulo: editora Revista dos Tribunais. 2017, p. 77.
444
ARAGÃO. Alexandre Santos. Agências Reguladoras e a evolução do direito administrativo econômico.
3ed. Rio de Janeiro: Forense,2013, p.91.
140

Para garantir maior legitimidade no processo decisório, o processo normativo nas


agências passa a ser encarado como um “dever processual de atuação estatal”445, vez que é
através deste que se exerce o poder estatal no Estado Democrático de Direito. E, como etapa
deste processo, uma boa medida para suprir o déficit de democrático da regulação
administrativa é a possibilidade de participação pública com a devida motivação da
Administração Pública446.
A terceira mudança relaciona-se ao grupo de atores envolvidos na arena política. Antes,
concentrava-se nos partidos políticos e funcionários do próprio governo, ao passo que o Estado
Regulador acarreta o surgimento de novos atores. Toda atividade humana passou, de alguma
forma, a encontrar um correspondente na Administração Pública, o que levou a necessidade de
se promover uma setorização que possa atender a especialização técnica de cada área e uma
regulação efetiva.
O pluralismo jurídico reconhece uma pluralidade de fontes do direito, decorrentes não
apenas do Estado, mas de outros sistemas jurídicos consequentes das relações sociais. Essa
característica dá origem a um dos aspectos mais marcantes da Adminsitração Pública moderna,
o policentrismo. Por consequência, Floriano Azevedo Marques defende a ideia de se pensar em
subsistemas jurídicos dentro do ordenamento jurídico, isto é, parcelas do ordenamento jurídico
dirigidas por princípios, conceitos e estruturas hierárquicas próprias a um determinado setor447.
Além dessa divisão do próprio ordenamento jurídico, também se impõe que a função
regulatória seja permeável, ou seja, permita que o conhecimento correspondente às outras áreas

445
MARQUES NETO, Floriano de Azevedo Marques. Ensaio sobre o processo como disciplina do exercício da
atividade estatal. 2012, In: Teoria do Processo – Panorama Doutrinário Mundial ed. Salvador: Editora Podium,
2007, p. 261-285. P.266.
446
No Brasil, no que se refere à participação pública, há na Lei 13.848/2019 (Lei das Agências Reguladoras) a
previsão no artigo 9º da realização de consultas públicas para a edição de atos normativos. Em um contexto mais
amplo, a consulta pública está disciplina também na Lei de Introdução as Normas do Direito Brasileiro – LINDB,
no artigo 29, que traz uma condição prévia para a edição de atos normativos pela autoridade administrativa. A
partir da vigência desta regra legal é possível falar na consulta pública como um poder-dever, que encontra
fundamento no devido processo legal, aplicável ao processo normativo administrativo. A necessidade de realização
de consulta pública relaciona-se com o dever de motivação dos atos normativos, que decorre do próprio devido
processo legal e do direito de os administrados conhecerem a fundamentação desses atos, quando houver confronto
com a esfera de seus direitos. A motivação somente será observada se for fornecido acesso aos elementos que
circundam a minuta do ato normativo, embasando a atividade regulatória. A partir daí é possível o exercício do
direito de defesa dos interesses que determinado ato normativo irá atingir. A consulta pública, seria, então, “o
caminho (procedimento) por meio do qual se materializa a efetiva motivação dos atos normativos da
Administração”. O cumprimento do dever de motivação, que decorre da participação popular e não é satisfeito por
motivação unilateral, é proporcionado pelo diálogo travado pela consulta pública. MONTEIRO, Vera. Art. 29 da
LINDB. Regime jurídico da consulta pública. Rev. Direito Adm., Rio de Janeiro, Edição Especial: Direito Público
na Lei de Introdução às Normas de Direito Brasileiro – LINDB (Lei nº 13.655/2018), p. 225-242, nov. 2018, p.
232. Disponível em: file:///C:/Users/RRBSC/Downloads/77656-Texto%20do%20Artigo-162000-1-10-
20181123.pdf Acesso em 05/12/2020.
447
MARQUES, Floriano Azevedo. Direito das Telecomunicações e Anatel. In: Direito Administrativo
Econômico. Coord.: Carlos Ari Sundfeld, Ed. Malheiros, São Paulo, 2000, pp. 301-302.
141

penetre na seara jurídica para que o campo regulado tenha chances de alcançar uma regulação
eficiente.
É importante observar que o agente econômico age movido por um conjunto de fatores
do subsistema social econômico, e não apenas pelas normas do subsistema jurídico. Conforme
apontado por Alexandre Aragão, para esse agente o “cumprimento ou descumprimento de uma
norma jurídica é mais um dos elementos das relações de custo-benefício com as quais lida na
condução de seus negócios”448. Por isso, a atividade regulatória não pode se esquivar de uma
análise econômica do setor que será regulado, vez que a observância de uma norma envolverá
a ponderação dos benefícios da conduta proibida não excederem os seus respectivos custos de
cumprimento.
As transformações sociais também impõem novos desafios. A presença da tecnologia e
o crescimento do uso da internet levaram a globalização e modificação do papel central exercido
pelos Estados. Nesse contexto, pode-se mencionar, a título de exemplo, a regulação pelo
código449 exercida pelas plataformas de redes sociais. Assim, a atividade desenvolvida pelas
plataformas na camada de conteúdo abandona a característica da centralidade da regulação no
Estado através da lei como principal mecanismo da regulação, que, em razão das questões
técnicas e específicas do ambiente em que se desenvolve a prestação desse serviço, não seria o
mais adequado a gerar a eficiência desejada.
É por isso que, parte da literatura, como Colin450 e Black451, compartilham o
entendimento sobre a existência de uma nova fase, a de um Estado Pós-Regulatório, que
demanda a “mudança de foco da análise da lei estatal para outras formas mais amplas de normas
e mecanismos para se alcançar o controle, ainda que de forma indireta”452.

448
ARAGÃO. Alexandre Santos. Agências Reguladoras e a evolução do direito administrativo econômico.
3ed. Rio de Janeiro: Forense,2013, p.94.
449
Veja o tópico 4.1.3 deste trabalho.
450
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004
451
BLACLK, Julia. Decentring Regulation: Understanding the Role of Regulation and Self-Regulation in a “post-
Regulatory” world. Current Legal Problems. 2001.
452
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004, p.02. Note-se, contudo, conforme destacado pelo próprio autor que esse exercício é
complementar a regulação estatal.
142

Colin Scott453, a partir de críticas ao modelo do Estado Regulador tradicional454, isto é,


centralizado na regulação estatal através da lei, defende o surgimento de uma nova
configuração, o Estado Pós-Regulatório. Para o autor, a complexidade da sociedade, possibilita
uma reestruturação estatal com (i) maior variedade de normas, (ii) maior variedade de
mecanismos de controle, do qual decorrem (iii) maior número de controlados e controladores.
A variedade de normas está relacionada com a capacidade plural do Estado Regulador
para elaborar normas. Essa multiplicidade de atores pode ocasionar sobreposição de regras que
dificultam sua interpretação e aplicação quando esses não se comunicam. Nesses casos, outros
atores poderiam também se valer de instrumentos normativos de conduta, ainda que não formais
e vinculantes, como por exemplo, os instrumentos de soft law, aptos a conformar as condutas e
implementar políticas públicas. Collin Scott455 cita três formas de conformar a conduta além da
lei: (i) contratos; (ii) processos de normatização privados; e, (iii) contratos estatais.
As regras contratuais são muito utilizadas por atores não-estatais, inclusive, pelas
plataformas digitais através de seus termos de uso, conforme já colocado neste trabalho, e
quando produzidas coletivamente são utilizadas para vincular os indivíduos a regimes
autorregulatórios. Os processos de normatização privados ou procedimentalização, conforme
termo utilizado por Julia Black, envolvem estabelecer alguns padrões mínimos para serem
seguidos nos arranjos autorregulatórios privados. O próprio Estado também pode utilizar os
contratos firmados para regular, o que é conhecido como a contratualização da Administração
Pública, isto é, contrato administrativo é um instrumento regulatório, que serve para se alcançar
uma política pública.
O abandono da hierarquia como mecanismo central de controle traz mais variedade ao
sistema. Segundo Lessig, há 4 (quatro) espécies de controle: o direito, as normas sociais,
mercados e a arquitetura, ilustrada por ele, como “o código”, conforme será tratado na próxima
subseção.

453
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004, pp.10-11.
454
Essas críticas serão analisadas de forma mais profunda quando analisada a regulação direta. Remete-se o leitor
para o tópico 4.3.1.
455
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA,
Jacin; LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004, p. 28.
143

Decorrente das características acima, tem-se a variedade de controladores e


controlados456. O Estado Pós-regulatório reconhece uma extensa gama de atores envolvidos no
processo de regulação, tanto para elaboração das normas, o que demanda um processo aberto e
participativo, quanto para sua aplicação. Neste ponto, é importante destacar, no que se refere
os atores regulados, a regulação parcial do setor. Isso significa que a regulação pode atingir
apenas um determinado segmento do setor que apresenta problemas. A título de exemplo, pode-
se aplicar uma determinada política regulatória somente para os operadores dominantes,
deixando as empresas que desempenham atividades de baixo risco fora dos limites do
regulamento457. Essa foi a política aplicada pela Online Safaty Bill e Digital Service Act ao
regularem as “online large plataforms”, por exemplo.
Dessa forma, independentemente da terminologia referente a ideologia do modelo
estatal que se adote, é inevitável concluir para os fins deste estudo que a regulação tradicional
deve acompanhar os avanços sociais para conceber novas técnicas regulatórias a fim de
colmatar soluções eficientes e menos onerosas, que devem considerar os diversos atores
envolvidos quando o tema é regulação. E essa transformação pode ser observada nitidamente
no campo da internet, sobretudo quando se fala em plataformas de redes sociais.
Assim, a próxima subseção, parte da delimitação feita nesta primeira análise do capítulo,
onde situamos as relações entre particulares e Estado no modelo de Estado Regulador, para
analisar se há necessidade de submeter as plataformas de redes sociais à regulação estatal.

5.2 Por que regular as plataformas de redes sociais?

Nesta subseção, conforme antes mencionado, será abordado se a regulação estatal é


necessária ao setor de plataformas digitais de redes sociais. A regulação não é uma novidade
no espaço virtual, certo que, conforme será analisado na subseção abaixo, as tecnologias sempre
foram reguladas. A moderação de conteúdo, conforme trazido no segundo capítulo deste

456
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA,
Jacin; LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004, pp. 35-37.
457
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA,
Jacin; LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004, p. 37.
144

trabalho, é uma ferramenta à disposição das plataformas para regular o ambiente online, que,
eventualmente, censuram conteúdos indesejados pela sociedade por serem negativos.
Em que pesem todas as críticas à moderação de conteúdo, essa tarefa é essencial. As
plataformas não podem ser neutras, já que elas precisam manter o espaço digital saudável.
Entretanto, os limites dessa atividade precisam estar delimitados pelo que seja socialmente
desejável. O processo de organização dessa atividade deve ser conformado pelo interesse
público, mas essa questão é de difícil interpretação.
Para fundamentar a resposta, é preciso resgatar o modelo de negócio desenvolvido pelas
plataformas de redes sociais, apresentado na introdução deste trabalho, e salientar três funções
centrais exercidas pelas plataformas de redes sociais na esfera pública458. A primeira delas
corresponde a facilitação que as mídias sociais promovem para a participação do público na
arte, na política e na cultura. A segunda é que as mídias sociais organizam conversas públicas
para que as pessoas possam se encontrar e se comunicar umas com as outras. E a terceira é que
as mídias sociais selecionam a opinião pública, não apenas por meio de resultados e feeds de
pesquisa individualizados, mas também por meio da aplicação de padrões e termos de serviço
da comunidade. As mídias sociais fazem curadoria não apenas removendo ou reorganizando o
conteúdo, mas também regulando a velocidade de propagação e o alcance do conteúdo.
São essas funções que, segundo Balkin (2021), em uma esfera pública, concretizam os
valores da liberdade de expressão, que se correlaciona com uma cultura democrática, que
permite aos indivídios participar livremente das formas de poder que os afetam, na qual há a
promoção do conhecimento que sustenta uma democracia política 459. Nas palavras do autor
referenciado:

As mídias sociais desempenham bem suas funções públicas quando


promovem esses três valores centrais: democracia política, democracia
cultural e o crescimento e disseminação do conhecimento. De maneira mais
geral, uma esfera pública digital saudável e funcional ajuda indivíduos e
grupos a realizar esses três valores centrais da liberdade de expressão. Uma

458
BALKIN. Jack M. How regulate (and not regulate) social media. Journal of Free Speech Law 71 (2021) , Knight
Institute Occasional Paper Series, No. 1 (March 25, 2020), Yale Law School, Public Law Research Paper
Forthcoming, Available at SSRN: https://ssrn.com/abstract=3484114 Acesso em 01/06/2022.
459
Em que pese a divergência sobre o conceito de democracia política, Balkin argumenta que os valores políticos
democráticos envolvem a participação na formação da opinião pública, que permite ao Estado responder à
evolução da opinião pública, e a possibilidade de formar um público informado sobre questões de interesse público.
BALKIN. Jack M. How regulate (and not regulate) social media. Journal of Free Speech Law 71 (2021) , Knight
Institute Occasional Paper Series, No. 1 (March 25, 2020), Yale Law School, Public Law Research Paper
Forthcoming, Available at SSRN: https://ssrn.com/abstract=3484114 Acesso em 01/06/2022.
145

esfera pública que funciona mal, por outro lado, mina a democracia política e
cultural e impede o crescimento e a disseminação do conhecimento460.

Assim, se as plataformas de redes sociais, instituições responsáveis por essas funções,


não funcionam bem, o que pode ser vislumbrado diante dos grandes escândalos públicos já
mencionados nesta pesquisa461, pode-se argumentar que estão presentes justificativas para a
regulação estatal.
Essa subseção será dividida em três partes para tratar esse assunto. Primeiro, será
demonstrado que que as plataformas de redes sociais já regulam o conteúdo que circula nas
redes sociais. Após, serão apresentadas justificativas, pela teoria da regulação (econômica e
social), que fundamentam a regulação estatal. E, por fim, será feita uma pequena comparação
crítica a regulação dos sistemas de radiodifusão, com o objetivo de suprimir parte da estranheza
provacada ao leitor quando for defendida a regulação estatal na moderação de conteúdo.

5.2.1 A ascensão das plataformas digitais à regulação de conteúdo nas redes sociais

Duas visões a respeito da regulação da internet predominaram no início dos anos 1990.
A primeira delas, segundo Clara Keller, foi a excepcionalista462, e tinha entre seus principais
defensores Jonh Perry Barlow, David Johnson e David Post. Essa teoria preconiza, em síntese,
que o espaço digital é um local separado do Estado-nação, com completa autonomia, onde
impera a liberdade criativa. Na conhecida “declaração de independência do ciberespaço”, por

460
BALKIN. Jack M. How regulate (and not regulate) social media. Journal of Free Speech Law 71 (2021), Knight
Institute Occasional Paper Series, No. 1 (March 25, 2020), Yale Law School, Public Law Research Paper
Forthcoming. P.75-76. Available at SSRN: https://ssrn.com/abstract=3484114 Acesso em 01/06/2022. Trecho
original (p.78): Social media perform their public functions well when they promote these three central values:
political democracy, cultural democracy, and the growth and spread of knowledge. More generally, a healthy,
well- functioning digital public sphere helps individuals and groups realize these three central values of free
expression. A poorly functioning public sphere, by contrast, undermines political and cultural democracy, and
hinders the growth and spread of knowledge.
461
Como exemplo de escândalos públicos com o uso de plataformas, retoma-se os exemplos já mencionados nesta
introdução, como aquele da Cambridge Analytica, a intereferência nas eleições presidenciais, o conflito de
Mianmar, além dos casos do uso de algoritmos com viés discriminatório, o caso do sistema COMPAS, abordados
ao longo deste trabalho.
462
Importante fazer o registro de que essa teoria se diferencia daquela conhecida como ciberlibertária,
principalmente, no que se refere as suas consequências. Ambas rejeitam a regulação da internet, no entanto, há
certas nuances que devem ser destacadas. O ciberlibertarismo defende que a internet não pode ser regulada,
enquanto o excepcionalismo preconiza a internet como algo único, sujeita à tratamento especial, que pode inclusive
ser o “não tratamento”. KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção,
legitimidade e o papel do Estado. Rio de Janeiro: Lumen Juris. 2019, pp. 132-140.
146

Jonh Perry Barlow (1196), foi apontado o “surgimento da internet como uma força
democratizante, descentralizada, sem limites territoriais e imune ao controle institucional” 463.
Para os autores, a internet deveria se desenvolver sem as amarras que regulavam os meios de
comununicação já conhecidos.
Conforme apresentado pela autora464, David Post e David Johnson ressaltaram que a
impossibilidade de regular a internet é fundamentada na necessidade de regras independentes
das regulações vinculadas às jurisdições territoriais. Para que ela fosse eficazmente regulada
suas leis deveriam envolver apenas questões de propriedade, personalidade jurídica e outros
valores que fossem importantes para a comunidade virtual.
Em resposta a essa visão excepcionalista, Joel Reidenberg (1998)465 e Lawrece Lessig
(2006)466, dentre outros467, observaram que a internet também estaria atrelada a alguma forma
de controle, sendo certo que a “arquitetura de sistemas a partir do qual a internet é construída
constitui, em si, uma forma de regulação”468, isto é, a internet estaria sujeita as mesmas
dinâmicas que se aplicavam as relações normais de poder.
Joel Reidenberg, a partir da observação que a informação se tornou uma mercadoria
internacional, apontou que os quadros jurídicos existentes não estavam adequadamente
adaptados para as demandas existentes. E, na ausência de regras jurídicas, a tecnologia, através
de sua própria arquitetura, traz um conjunto de regras que direcionam o fluxo de comunicação
no ambiente online, o que ele nomeu como lex informática, de forma a regular o ambiente
vittual469.

463
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 7.
464
KELLER, Clara Iglesias (2019). Regulação Nacional de Serviços na internet: exceção, legitimidade e o
papel do Estado. Rio de Janeiro: Lumen Juris. P. 8
465
REINDENBERG, Joel R. Lex Informatica: The formulation of Information Policy Rules Through Tecnology,
Texas Law Review, vol. 76, n. 3, 1998, pp. 553-584.
466
LESSIG, Lawrence. Code, Version 2.0, New York: Basic Books, 2006.
467
Tim Wu também publicou alguns trabalhos que negam a teoria excepcionalista, aduzindo que a internet não
receberia um tratamento especial e independente dos Governos ao longo do tempo. GOLDSMITH, Jack e WU,
Tim. Who controls the internet? Illusions of a bordless world. New York: ofxord University Press, 2006. WU,
Tim. Cyberspace Sovereignty? The internet and the Internacional System. Harvard Journal of Law and
Technology, v. 10, n. 3, 1997. Disponível em: http://jolt.law.harvard.edu/articles/pdf/v10/10HarvJLTech647.pdf
No entanto, em outro artigo publicado, ele compartilha reflexão mais profunda sobre o tema. Neste, o autor aborda
que a internet não seria exceção a um tratamento diferenciado pelo direito, mas poderia ser em razão do seu
tratamento sob o viés da tecnologia da informação, vez que houveram profundas mudanças na forma de
comunicação a nível global. WU, Tim, Is Internet Exceptionalism Dead? (Dezembro, 2010). The Next Digital
Decade - Essays on the future of the internet, p. 179, Berin Szoka, Adam Marcus, eds., TechFreedom,
Washington, D.C., 2010, Disponível em: https://ssrn.com/abstract=1752415
468
Keller, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 8.
469
REINDENBERG, Joel R. Lex Informatica: The formulation of policy rules through tecnology, Texas
Review, vol. 76, n. 03, 1998, pp. 553-584.
147

Nessa mesma linha, Lessig rejeitou a excessiva intervenção estatal, no entanto, alertou
que autorregulação poderia levar ao controle da internet por interesses corporativos, dominados
por empresas privadas. Lessig argumenta que há quatro modalidades de intervenção regulatória
que podem ser aplicadas no espaço físico, mas também ao espaço digital: (i) leis; (ii) normas
sociais; (iii) mercado; e, (iv) arquitetura470. Para o referido autor, a arquitetura seria a forma
mais adequada de regular o mundo virtual, vez que os códigos promoveriam uma arquitetura
do sistema capaz de moldar o comportamento dos usuários. Conforme explicado por Clara
Keller:

O que esses códigos permitem ou não permitem que as pessoas façam no


ambiente online já constitui uma forma de regulação inerente ao sistema, que
funciona de forma similar à arquitetura no mundo físico. Neste sentido, é
possível dizer que o Código funciona como a “lei” do ciberespaço,
determinando que tipo de comportamentos serão aceitos e quais não. Na
altamente difundida expressão cunhada por Lessig: “code is law” 471.

O ponto de Lessig é que o código determina um número incontável de condutas


individuais e coletivas no mundo virtual. Conforme abordado no segundo capítulo deste
trabalho, a regução da camada de conteúdo, é, primordialmente, determinada pelos termos de
uso e pela arquitetura técnica da internet, que através da moderação de conteúdo organiza o
fluxo de informações na rede472.
A título de exemplo, um determinado conteúdo para permanecer na rede deve estar de
acordo com as diretrizes políticas da plataforma, e, para que esse mesmo conteúdo alcance
visibilidade é preciso estar na linha dos algoritmos programados pelas plataformas. Assim, a
arquitetura desenvolvida pelos softwares das plataformas molda o caminho que deve ser
percorrido pelo usuário, condicionamento o seu comportamento no espaço virtual.
O problema dessa prática reside na sua legitimidade, conforme já discutido no capítulo
anterior, e na implementação de políticas regulatórias autoexecutáveis, uma vez que é difícil
que esses arranjos apresentem a devida responsabilização, haja vista a inexistência de
mecanismos privados de accountability473.

470
LESSIG, Lawrence. Code and other laws of cyberspace, version 2.0. New York: Basic Books, 2006, p. 290.
471
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris.2019, p. 64
472
LESSIG, Lawrence. Code and other laws of cyberspace, version 2.0. New York: Basic Books, 2006.
473
LESSIG, Lawrence. Code and other laws of cyberspace, version 2.0. New York: Basic Books, 2006, p.136.
148

Dessa forma, a autonomia da condução dos negócios implementados pelas plataformas


possibilitou o desenvolvimento da regulação por elas, principalmente, através de dois
instrumentos: (i) pelos termos gerais de uso, que apesar de autovinculativos, não são legalmente
vinculantes; e (ii) pelos algoritmos, ou, conforme acima colocado, pelo “código”,
desenvolvidos pelas plataformas ou implementados sob sua responsabilidade para controlar
suas atividades na arquitetura conformada por elas. Na próxima subseção, será iniciada uma
investigação sobre a participação do Estado na regulação dessas plataformas de redes sociais a
partir da análise da presença ou não de justificativas, a partir da teoria da regulação econômica,
para o uso desse mecanismo de governança.

5.2.2 Fundamentos da regulação estatal

A regulação econômica tradicionalmente se justifica quando “mercados não


controlados, por alguma razão, falham em produzir comportamentos ou resultados de acordo
com o interesse público”474. As falhas podem ser monopólios, externalidades negativas,
informações inadequadas, comportamento anti-competitivo, desigualdade no poder de
negociação, dentre outras falhas 475.
Para justificar a regulação, duas práticas também são recorrentemente mencionadas: a
proteção de direitos humanos e aumento da solidariedade social476 (regulação social). Segundo
Prosser, a regulação nesses casos pode ser a principal ação para organizar as relações sociais.
Nesses casos, os reguladores podem buscar aumentar e implementar objetivos sociais. Não há
necessidade de se justificar a regulação pela existência de falhas de mercado. Para o autor,
mesmo quando os mercados estiverem envolvidos, a regulação, em sua visão, não fica limitada
a corrigir falhas, mas serve também para constituir mercados, providenciar estruturas para o

474
BALDWIN, Robert, CAVE, Martin e LODGE, Martin. Understanding Regulation. Theory, Strategy and
Pratice. 2ed. Oxford: Oxford University. 2012, p.15 Disponível em:
https://oxford.universitypressscholarship.com/view/10.1093/acprof:osobl/9780199576081.001.0001/acprof-
9780199576081-chapter-2 Acesso em 01/06/2022.Trecho original: Regulation in such cases is argued to be
justified because the uncontrolled marketplace will, for some reason, fail to produce behaviour or results in
accordance with the public interest.
475
BALDWIN, Robert, CAVE, Martin e LODGE, Martin. Understanding Regulation. Theory, Strategy and
Pratice. 2ed. Oxford: Oxford University. 2012, pp.15-23 Disponível em:
https://oxford.universitypressscholarship.com/view/10.1093/acprof:osobl/9780199576081.001.0001/acprof-
9780199576081-chapter-2 Acesso em 01/06/2022.
476
PROSSER, Tony. Regulation and Social Solidarity. Journal of Law and Society. Vol. 33. Nº03, 2006, pp.
364–387. Disponível em: https://www.jstor.org/stable/3838855?seq=1 Acesso em 01/06/2022.
149

exercício de direitos e processos que permitam ao mercado funcionar. A regulação serve, então,
para proteger os cidadãos e promover solidariedade social.
Abaixo, portanto, serão destacados três justificativas que se aplicam às redes sociais: (a)
proteção de direitos fundamentais; (b) externalidades produzidas pelas redes sociais; e (c)
assimetrias informacionais.

5.2.2.1 Proteção dos direitos fundamentais

Uma boa justificativa para regular as plataformas de redes sociais está no respeito e
promoção dos valores protegidos pelo Estado Democrático de Direito, notamente, os direitos
fundamentais, dos quais destacam-se a liberdade de expressão e a proteção de dados dos
usuários e privacidade477. Essa consideração é importante porque, conforme antes mencionado,
as plataformas digitais controlam a arena pública digital, podendo torná-la saudável ao debate
público ou não. É através da atividade de moderação de conteúdo que as plataformas de mídia
controlam as atividades que serão desenvolvidas pelos usuários.
E ao moderar o conteúdo, as plataformas (i) moldam o comportamento dos usuários, o
que afeta o direito à proteção de dados e privacidade; (ii) afetam a produção, distribuição e
circulação de conteúdo cultural, do conhecimento e da informação, o que afeta a democracia e
liberdade de expressão; e (iii) desempenham papel ativo em processos políticos, o que afeta a
democracia; e (iv) censuram discursos dos usuários, o que afeta à liberdade de expressão. E, na
maior parte das vezes, a moderação é feita através de sistemas automatizados, que, em grande
parte são opacos e com vieses discriminatórios, o que causa deficiência em padrões éticos e
justos, além de violar o devido processo nos processos de tomada de decisão.

5.2.2.2 Externalidades negativas

Outra justificativa para a regulação das plataformas é que atividade desenvolvida pelas
plataformas digitais produzem externalidades negativas. Externalidades, segundo Baldwin,

477
Esse ponto será aprofundado no próximo subtópico.
150

Cave e Lodge478, são os efeitos sociais, econômicos ou ambientais causados, de forma indireta,
pela comercialização do produto ou serviço. Isso significa que as plataformas produzirão danos
decorrentes de suas atividades que não podem ser completamente capturados por transações
comuns de mercado, como é o caso da desinformação e outros efeitos nocivos sistémicos
produzidos e já tatados no primeito capítulo deste trabalho479.
Conforme destacado por Balkin, independente da teoria da liberdade de expressão
adotada, “a competição de mercado não produzirá o tipo de cultura e conhecimento necessários
para um autogoverno democrático, ou crescimento e difusão do conhecimento” 480. O modelo
de negócios praticado pelas plataformas de mídias sociais baseados no capitalismo de vigilância
não permitiria que a produção de bens fosse direcionada para discursos que sustentassem a
democracia política e cultural. Em contrapartida, conforme já exposto, os modelos de negócio
incentivam conteúdos que geram mais engajamento, tais como teorias da conspiração e
discursos que minam as instituições democráticas.
Dessa forma, a regulação obrigará as plataformas a lidar com os efeitos sistêmicos e
estruturais de sua atividade, tornando-se instituições responsáveis e confiáveis a fim de que
possam promover uma esfera pública saudável e não apenas seguir incentivos econômicos.

478
BALDWIN, Robert, CAVE, MARTIN e LODGE, Martin. Understanding Regulation. Theory, Strategy and
Pratice. 2ed. Oxford: Oxford University. 2012, pp.15-23 Disponível em:
https://oxford.universitypressscholarship.com/view/10.1093/acprof:osobl/9780199576081.001.0001/acprof-
9780199576081-chapter-2 Acesso em 01/06/2022.
479
Parte da literatura faz alusão a esses efeitos como riscos sistêmicos, que, de forma indireta, podem atingir a
toda à sociedade. Por isso, há boas razões para que as plataformas sejam consideradas como sistemas que acarretam
certos riscos, tal como os automóveis. Suas operações, portanto, devem levar em consideração os riscos e tomar
todos os cuidados necessários para minimiza-los. Essa visão é adotada na Legislação proposta para regular as
plataformas no Reino Unido (Online Safety Bil) e na União Europeia (Digital Service Act) ao trazer a obrigação
de elaborar uma avaliação de riscos de suas atividades. BAYER, Judit, HOLZNAGEL, Bernar, KORPISAARI,
Paivi, WOODS, Lorna. Conclusions: Regulatory Responses to communication plataforms: models and limits. IN:
Perspetives on Plataform Regulation. Concepts and Models os Social Media Governance Across the Globe.
BAYER, Judit, HOLZNAGEL, Bernar, KORPISAARI, Paivi, WOODS, Lorna (eds). Nomos. Vol. 1. P. 576-577.
Disponível em: https://doi.org/10.5771/9783748929789 Acesso em 01/06/2022. Sobre regulação do risco, Julia
Black observa que a demanda de regulação baseada no risco se expandiu de forma significativa a partir de 1990,
considerando as modificações no modelo de Estado. A justificativa para a regulação de determinadas atividades
passou a se basear nos riscos à saúde ou segurança pública. De maneira geral, pode-se dizer que a regulação do
risco de uma atividade considera duas etapas: (i) a avaliação do risco e o gerenciamento desse. BLACK, Julia.
Risk in Regulatory Processes, p. 3. [s. l.]: Oxford University Press, [s. d.]. ISBN 9780191594007. DOI
10.1093/oxfordhb/9780199560219.003.0014. Disponível em: https://search-ebscohost-
com.sbproxy.fgv.br/login.aspx?direct=true&db=edselc&AN=edselc.2-52.0-80054756021&lang=pt-br&site=eds-
live Acesso em 01/06/2022.
480
BALKIN. Jack M. How regulate (and not regulate) social media. Journal of Free Speech Law 71 (2021), Knight
Institute Occasional Paper Series, No. 1 (March 25, 2020), Yale Law School, Public Law Research Paper
Forthcoming. P.75-76. Available at SSRN: https://ssrn.com/abstract=3484114 Acesso em 01/06/2022. Trecho
original (p.81-82): Whatever your theory of free expression is, market competition won’t produce the kind of
culture and knowledge necessary for democratic self-government democratic culture, or the growth and spread of
knowledge.
151

5.2.2.3 Assimetria informacional

As atividades desenvolvidas pelas plataformas digitais também geram problemas de


informações inadequadas aos usuários que caracterizam uma falha de mercado. É notória a falta
de transparência nos processos de tomada de decisão na moderação de conteúdo, havendo
críticas da literatura, conforme já trazido ao longo deste trabalho, sobre a necessidade de que
as plataformas sejam transparentes em relação as decisões algorítmicas e em relação a escolha
dos remédios aplicados aos usuários na moderação de conteúdo, por exemplo. Mecanismos de
transparência permitem maior prestação de contas e transmitem mais confiabilidade nas
decisões tomadas.
A regulação obrigará o fornecedor a informar, tornando-a acessível e permitindo uma
melhor operação no mercado. Uma visão mais contemporânea que abrange questões de
assimetria com os recursos tecnológicos, como, por exemplo dados e capacidade de decisões
que afetam as escolhas dos usuários, trabalha com a ideia de existência de um modelo
fiduciário481. Balkin explica que esse modelo impõe três deveres básicos para as plataformas
com os seus usuários: (i) dever de confidencialidade; (ii) dever de cuidado; e (iii) dever de
lealdade482.
Pelo exposto até aqui, falar em regulação das plataformas não significa que se proponha
o início de uma nova atividade até, então, não realizada. Conforme visto, a própria arquitetura
das plataformas e a legislação existente, de forma geral, como, por exemplo, leis sobre

481
Essa visão parte do pressuposto de que os usuários não possuem condições de tomar decisões, pelo que a
governança deve ser confiada a atores com poder de controle sobre a infraestrutura. Por essa razão, noutro giro,
deve-se impor maiores obrigações ao lado mais poderoso dessas relações. No Reino Unido, a proposta de lei,
Online Safety Bill, adotou essa ideia quando impõe deveres de cuidado às plataformas de redes sociais diante de
um conteúdo nocivo.
482
A ideia principal desenvolvida por Balkin é que as pessoas devem confiar suas informações a esses atores, pelo
que, em contrapartida, a ordem legal deve reconhecer essas relações como de confiança de maneira a oferecer
proteção contra eventuais violações dessa confiança. Por deveres de confidencialidade e cuidado deve-se entender
a obrigação das plataformas digitais de manter os dados dos usuários confidenciais e seguros. Por dever de lealdade
deve-se entender que esses entes intermediários não devem trair a confiança de seus usuários finais ou manipulá-
los. Eles devem garantir que seus sistemas e modelos de negócios estejam alinhados com os interesses dos usuários
e não entrem em conflito com eles. BALKIN. Jack M. The Fiduciary Model of Privacy, 134 HARV. L. REV. 11
(2020). Disponível em: https://harvardlawreview.org/wp-content/uploads/2020/10/134-Harv.-L.-Rev.-F.-11.pdf
Acesso em 01/06/2022. Observa-se, por outro lado, que esse modelo foi criticado por Lina Kahn e David Pozen.
Para eles o modelo propõe um abandono prematuro de uma regulação mais robusta pelo Estado, compactuando
com o poder exercido pelas plataformas digitais. Seria necessário confiar que as plataformas digitais, mesmo com
seus modelos de negócios, pudessem determinar, de forma adequada, o que é do interesse dos usuários, com pouca
fiscalização. Na verdade, a realidade do ambiente digital revela fragilidades e incentivos que são contrários aos
interesses das pessoas e exigem concorrência e outras formas de regulação direta. POZEN, David E.; KHAN, Lina
M. A Skeptical View of Information Fiduciaries, 133 HARV. L. REV. 497, 497 (2019). Disponível em:
https://harvardlawreview.org/2019/12/a-skeptical-view-of-information-fiduciaries/ Acesso em 01/06/2022.
152

concorrência, consumidor, proteção de dados, dentre outras, já são aplicadas as relações


existentes nos espaços digitais.
Ocorre que, conforme será aprofundado no decorrer desse capítulo, a autorregulação das
redes sociais e o arcabouço normativo existente não se mostrou suficiente para solução dos
problemas enfrentados, pelo que esse trabalho defende a necessidade de uma regulação estatal
específica para o setor483, com base na proteção dos direitos fundamentais e na existência de
falhas de mercado, como externalidades e assimetria informacional. Caberia a essa regulação
abordar as preocupações que surgem da natureza única da indústria regulamentada, de forma a
resolver problemas recorrentes e conceder consistência para que o mercado funcione com mais
eficiência484.
Ocorre que, essa regulação não deve ser feita nos moldes tradicionais através de regras
impositivas a respeito do conteúdo publicado, sob pena de coerção, conforme será analisado
quando tratarmos dos arranjos institucionais cabíveis. A regulação deve ser pensada com as
ideias do Estado Regulador contemporâneo, exposto no início deste capítulo, isto é, com foco
no procedimento que envolve a moderação de conteúdo exercida pelas plataformas sociais e
com a participação dos atores que serão efetados pela moderação.
Essas considerações são importantes porque impedem a equivalência de regulação à
censura e afastam o receio legítimo, da população brasileira, principalmente, em razão da
herença da ditadura militar, da interferência do Estado na comunicação. Esse receio é legítimo
porque a regulação das redes sociais, que representam um espaço para o exercício da liberdade
de expressão, é repleta de desafios e cuidados que devem ser tomados quando se definir a
estratégia regulatória. É especialmente tentador para qualquer Governo manter os meios de
comunicação como um artifício de manipulação da população, notadamente, em uma sociedade
democrática, em que se precisa convencer o povo para o exercício do voto.
A regulação não deve possuir como objetivo a censura, mas equilibrar o complexo
sistema que envolve as tecnologias das plataformas de redes sociais, orientadas pelo princípio

483
Em sentido contrário, Balkin defende que as plataformas de mídias sociais devem ser reguladas por três
alavancas: (a) Direito antitruste e de concorrência; (b) Direito de privacidade e proteção ao consumidor; (c)
equilibrar a responsabilidade do intermediário com a imunidade do intermediário. Em seu artigo, o autor conclui
que para tornar a esfera pública digital vibrante e saudável, considerando a promoção da liberdade de expressão é
necessárias instituições intermediárias confiáveis. Por isso, é preciso que a regulação se destine a dar às empresas
de mídia social incentivos para assumir suas responsabilidades apropriadas na esfera pública digital, o que se
alcançara através das alavancas acima mencionadas. BALKIN. Jack M. How regulate (and not regulate) social
media. Journal of Free Speech Law 71 (2021), Knight Institute Occasional Paper Series, No. 1 (March 25, 2020),
Yale Law School, Public Law Research Paper Forthcoming. P.75-76. Available at SSRN:
https://ssrn.com/abstract=3484114 Acesso em 01/06/2022.
484
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.53.
153

da liberdade de mercado, com a necessidade de intervenção pública para corrigir as falhas de


mercado provacadas pelo seu uso e para proteger os direitos fundamentais afetados. Conforme
já explicitado no terceiro capítulo, o princípio da liberdade de expressão impõe que o Estado
não interfira diretamente na fala dos indivíduos. A regulação estatal exerce, portanto, um papel
importante: equilibrar os processos de moderação de conteúdo, de forma a garantir o respeito
aos direitos dos usuários, a transparência dos processos e justificação das decisões tomadas, por
exemplo.
Na próxima subseção, a fim de tornar a pesquisa sobre os fundamentos da regulação
estatal mais completa, far-se-á referência à teoria da doutrina do interesse público, cuja origem
é americana. Essa análise é importante porque, de certa maneira, ela toca pontos em comum
com a justificativa da regulação com base na proteção dos direitos fundamentais. Contudo, são
justificativas distintas, já quando se fala em public utility o que se tenta explicitar é a
essencialidade do serviço ou atividade para os cidadãos, e, por isso, devem ser regulados.

5.2.2.4 A doutrina do interesse público (public utility)

O princípio da utilidade pública no direito norte-americano é utilizado por alguns


(Feld485 e Rahman 486) como fundamento para a regulação das plataformas digitais de mídia
social. Nos Estados Unidos todas as atividades são de caráter privado e, por isso, pertencem à
iniciativa privada. No entanto, algumas atividades são tão importantes para a coletividade que
somente podem ser exercidas se licenciadas pelo Estado. Não há a adoção da ideia de serviço
público, como na Europa e no Brasil.
Conforme expressado por Feld, as plataformas digitais possuem tanto poder para afetar
a economia e os usuários que devem se submeter a uma supervisão pública. Para o autor as
plataformas estão “vestidas com o interesse público” e a regulamentação específica é necessária
para proteger os consumidores, promover a competição e atender ao interesse público487.

485
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019. p.53-54.
486
RAHMAN. K. Sabeel. The New Utilities: Private Power, Social Infrastructure, and the Revival of the Public
Utility Concept, Cardozo Law Review. Vol. 39. 5. pp.1621-1689. 2018. Disponível em:
http://cardozolawreview.com/the-new-utilities-private-power-social-infrastructure-and-the-revival-of-the-public-
utility-concept/
487
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019. p.55.
154

No contexto brasileiro, Alexandre Aragão explica que, em categoria diferente do que se


considera serviço público, mas próxima a ela, existem outras atividades econômicas, privadas,
de interesse coletivo que demanda o atendimento dos princípios aplicáveis aos serviços públicos
(continuidade, universalidade, modicidade, eficiência e cortesia), as chamadas atividades
privadas regulamentadas488, que nas palavras do autor são:

Atividades de iniciativa privada para as quais a lei, em face da sua relação


com o bem-estar da coletividade e/ou por gerarem desigualdades e assimetrias
informativas para os usuários, exige autorização prévia para que possam ser
exercidas, impondo ainda a sua contínua sujeição à regulação do poder público
autorizante, através de um ordenamento jurídico setorial489.

Essas atividades pertencem, portanto, ao rol de atividades econômicas prestadas pela iniciativa
privada, sendo, por consequência protegidas pelo princípio constitucional da livre iniciativa e do valor
social do trabalho, expressos no artigo 1º, IV, bem como da livre concorrência, na forma do artigo 170,
caput, da Carta Constitucional490, consoante antes mencionado. No entanto, por abranger um grande
número de pessoas, afetando interesses da população de forma considerável, e pelo fato do interesse
coletivo se sobrepor ao interesse específico de cada um, é possível que essas atividades recebam a
interferência do Estado.
Para finalizar, é interessante ressaltar a posição de Balkin 491 no sentido contrário. Para
ele não estão presentes as razões para se considerar as atividades desempenhadas pelas
plataformas sociais como de utilidade pública. São elas: (i) controle do preço, pois nas
plataformas os serviços são gratuitos; (ii) garantia de acesso univesal, já que o acesso é livre
para as redes sociais; e (iii) serviço contínuo, uma vez que nas redes sociais o serviço é contínuo,
haja vista o próprio modelo de negócios implementado que demanda atenção dos usuários
finais.

488
Na comunidade europeia são chamados de atividades econômicas de interesse geral, confome previsto no artigo
86 do Tratado de Constituição da Comunidade Europeia. Disponível em: https://eur-lex.europa.eu/legal-
content/PT/TXT/PDF/?uri=CELEX:12002E/TXT&from=PT Acesso em 10/05/2022.
489
ARAGÃO, Alexandre Santos de. Direito dos Serviços Públicos – 4ed. Belo Horizonte: Forum,2017. p. 154.
490
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html. Acesso em 30/05/2022. Art. 1º A República
Federativa do Brasil, formada pela união indissolúvel dos Estados e Municípios e do Distrito Federal, constitui-se
em Estado Democrático de Direito e tem como fundamentos: IV- os valores sociais do trabalho e da livre iniciativa;
Artigo 170: A ordem econômica, fundada na valorização do trabalho humano e na livre iniciativa, tem por fim
assegurar a todos existência digna, conforme os ditames da justiça social, observados os seguintes princípios:
491
BALKIN. Jack M. How regulate (and not regulate) social media. Journal of Free Speech Law 71 (2021), Knight
Institute Occasional Paper Series, No. 1 (March 25, 2020), Yale Law School, Public Law Research Paper
Forthcoming. P.75-76. Available at SSRN: https://ssrn.com/abstract=3484114 Acesso em 10/05/2022.
155

Ainda, para o autor acima mencionado a conversão das plataformas em serviços de


utilidade pública demandaria a modificação do modelo de negócios das redes socais baseado
em publicidade para sua rentabilidade para que se pudesse alcançar um espaço saudável, pelo
que, em contrapartida, as plataformas poderiam exigir uma tarifa de assinatura mensal. Essa
mudança, todavia, não garantiria o respeito a privacidade ou ausência de manipulação do
usuário, tampouco resolveria outros problemas que não estivesses relacionados a coleta de
dados492.
Dessa forma, seja qual for o fundamento adotado (proteção dos direitos humanos, falhas
de mercado ou considerar as plataformas como serviços de utilidade pública), observa-se um
movimento de mais participação dos Estados na regulação das plataformas de redes sociais (os
possíveis arranjos serão estudados mais a frente). Nesse sentido, a União Europeia (Lei dos
Serviços Digitais – Digital Service Act – DSA) e o Reino Unido (Online Safety Bill) propuseram
inciativas regulatórias que estão sendo debatidas para entrar em vigor, principalmente, sob os
fundamentos de (i) permitir que outras empresas menores participem do mercado digital; (ii)
garantir a inovação; e, (iii) proteger os direitos humanos.
Segundo Electra Bietti, ao vislumbrar o leque de concepções que consideram as
plataformas como serviços de utilidades públicas, tanto nos EUA como na Europa, percebe-se
um espectro que vai desde a regulação do acesso não-discriminatório e justo às infraestruturas
das plataformas, na busca de um mercado mais competitivo e dinâmico, até concepções de
plataformas como praças públicas, governadas pelo interesse público, em vez de mercados com
fins lucrativos. Segundo a autora, “localizar as reformas da lei europeia (DSA) nesse espectro
não é simples”.
A fim de afastar eventuais surpresas sobre a regulação estatal das redes sociais, na
próxima subseção serão pincelados alguns pontos sobre a regulação dos serviços de
telecomunicações e radiofusão, que, por suas semelhanças, podem agregar valor a esse debate
e mostrar que a regulação estatal em meios que servem para a comunicação não é nova.

492
BALKIN. Jack M. How regulate (and not regulate) social media. Journal of Free Speech Law 71 (2021), Knight
Institute Occasional Paper Series, No. 1 (March 25, 2020), Yale Law School, Public Law Research Paper
Forthcoming. P.75-76. Available at SSRN: https://ssrn.com/abstract=3484114 Acesso em 10/05/2022.
156

5.3 Algumas lições sobre a regulação do modelo de telecomunicações que podem ser
aplicadas na regulação das plataformas de redes sociais

5.3.1 Modelo americano

As plataformas digitais são um modelo evolutivo de comunicação, assim como o rádio


e a televisão. E, em ambas as tecnologias, observa-se uma preocupação com o comercialismo
excessivo e com o conteúdo da informação que será passada para os indivíduos. Embora as
plataformas de redes sociais compartilhem muito dos atributos das telecomunicações e mídia
de massa, elas os combinam de forma diferente493.
A experiência americana de, aproximadamente, 100 anos com a regulação das
comunicações trazem alguns pontos importantes que devem ser considerados no debate da
regulação das plataformas de redes sociais. Aqui, serão destacados dois deles: (i) a consideração
de valores fundamentais para a construção ao arcabouço regulatório; e (ii) a existência de uma
lei que prime pela competição494.
A medida que o telégrafo e o telefone se tornaram meios de comunicação tão
importantes para a sociedade, o Congresso Americano, já que esse serviço era considerado
como de utilidade pública (public utility), criou a Federal Communications Comission
(FCC)495, através do Ato de Comunicação de 1934 (Communication Act of 1934) para que fosse
estabelecida uma regulação federal uniforme, cuja base residiria em quatro valores
fundamentais: a universalidade, a proteção do consumidor (serviço adequado com taxas
razoáveis), segurança pública/ defesa nacional e, mais tarde, competição para evitar os gargalos
da comunicação496.

493
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.56.
494
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, pp.56-60.
495
A Agência Reguladora americana (a Federal Communication Comission – FCC), é responsável pelos serviços
de telecomunicações, inclusive os serviços radiodifusão, o que inclui a televisão, o rádio, comunicações privadas
por telefones e celulares, etc. Dentre as suas competências está a regulação de questões relacionadas ao acesso aos
meios de comunicação, conteúdo audiovidual e à produção e veiculação de notícias de interesse público que
envolvem o debate público (broadcasting regulation). Cabe à FCC garantir que sejam fornecidas outorgas de
licenças aos interessados, desde que estejam presentes a conveniência, interesse e necessidade pública, nos termos
da lei. Cf. Communications Act 1934, alterado pelo Telecommunications Act de 1996. Disponível em:
https://www.fcc.gov/general/telecommunications-act-1996
496
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.60.
157

Esses valores e ideias foram transferidos para à radiodifusão e telecomunicações através


do Federal Radio Act, incorporado ao Communication Act of 1934. Em razão do poder de
atenção que o rádio exercia, principalmente sobre a opinião pública, a sua regulação (e
posteriormente a regulação das mídias eletrônicas de massa) adicionaram outros valores,
proteção da democracia, com a exigência de cobertura de notícias locais, necessidade de
diversas fontes de notícias, proibição de favorecer canditados políticos e impossibilidade de se
utilizar os meios de comunicação para promover a violência 497.
A Lei de Telecomunicações de 1996 (Telecommunications Act of 1996) objetivava
eliminar o monopólio natural do serviço de telecomunicações, incentivar a concorrência na
mídia eletrônica tradicional e no serviço de voz e dados, pelo que trazia alguns instrumentos
voltados para esse propósito. No entanto, após a eleição de W. Bush, a FCC passou a adotar
uma política de desregulação para aumentar a competição, o que, segundo Feld não foi uma
medida próspera. Segundo o autor, a desregulação ocasionou um mercado mais concentrado,
com oligopólios nacionais e duolólios regionais, além de comprometer a privacidade do
consumidor e confiança no sistema de redes, o que afetou a segurança pública 498.
Do histórico da regulação das comunicações nos EUA, é possível concluir que a
competição não resolve, por si só, os problemas da prestação dos serviços de comunicações,
tampouco promove a proteção do consumidor de forma adequada. Cinco lições, segundo Feld,
podem ser extraídas para as plataformas digitais, de uma maneira geral. São elas:

• A regulação deve se concentrar em eliminar ou mitigar os elementos que


criam monopólio, em vez de se concentrar na modificação do comportamento.
• As regras devem ser tão claras (ou seja, delinear claramente a conduta
permissível da conduta inadmissível, em vez de se basear na adjudicação de
disputas depois que elas surgirem) e auto-executáveis quanto possível.
• Embora a supervisão da agência continue sendo crucial para garantir a
eficácia das regras, litigantes privados precisam de direitos privados de ação,
bem como de fiscalização da agência para proteger contra captura política ou
perda de vontade política.
• As novas tecnologias nunca são uma panacéia para problemas antigos e não
substituem a necessidade de regulação ou remédios estruturais. Na ausência
de um regulador atento, esses mercados se prestam à concentração,
cartelização e segmentação.

497
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.61.
498
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, pp.63-64. Para aprofundamento dos problemas sobre
competição enfrentados nos EUA após a política de desregulação, já que esse foge ao escopo deste trabalho, o
leitor pode consultar: CRAWFORD, Susan; SCOTT, Ben. Be careful what you wish for. Why Europe Should
Avoid the Mistakes of US Internet Access Policy. Policy Brief. Berlin: Stiftung Neue Verantwortung, 2015.
Disponível em: https://bit.ly/2YfFgau Acesso em 05/06/2022.
158

• A base de clientes instalada, o acesso à casa, o empacotamento e o concurso


para usuários beneficiam os operadores existentes em seus esforços para
conquistar mercados adjacentes.
• Às vezes, não há substituto para a regulação tarifária ou outra regulação de
“monopólio natural” 499.

5.3.2 Modelo brasileiro

O Brasil, influenciado pelo sistema europeu de serviços públicos, concedeu a


titularidade do serviço de comunicação ao Estado, mas com a possibilidade da realização da
atividade pela iniciativa privada através de concessão ou permissão, nos termos da Constituição
Federal. No período de 1962 a 1997, todo o setor de telecomunicação, o que inclui o serviço de
radiodifusão, foi regido pelo Código Brasileiro de Telecomunicações (Lei 4.117/62 - CBT)500,
regulamentato pelo Decreto Presidencial nº 52.795/63501.
O referido Código adotou terminologia confusa sobre quais os serviços seriam
considerados públicos. O CBT reservou à União a manutenção e exploração direta da própria
rede de telecomunicações, telégrafos, telefones e radiocomunicações (artigo 101, I, do CBT),
com exceção do serviço de radiodifusão, que poderia ser prestado pelo Estado ou pela iniciativa
privada (artigo 32 do CBT). Conforme apontado por Miriam Wimmer, o serviço de
radiodifusão recebeu um tratamento jurídico incomum no que se refere aos instrumentos de
outorga de um serviço público502.

499
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, pp.65-66. Trecho original: • Regulation should focus on
eliminating or mitigating those elements that create monopoly, rather than focus on behavior modification. • Rules
should be as “bright-line” (i.e, clearly delineate permissible from impermissible conduct rather than rely on
adjudicating disputes after they arise) and self-executing as possible. • Although agency oversight remains crucial
to ensuring the effectiveness of rules, private litigants need private rights of action as well as agency enforcement
to protect Against political capture or loss of political will. • New technologies are never a panacea for old
problems, and they don’t displace the need for regulation or structural remedies. Absent a watchful regulator,
these markets lend themselves to concentration, cartelization, and segmentation. • Installed customer base, access
to the home, bundling, and the contest for users benefit existing incumbents in their efforts to take over adjacent
markets. • Sometimes, there is no substitute for rate regulation or other “natural monopoly” regulation.
500
BRASIL, Lei 4117/62. Institui o Código Brasileiro de Telecomunicações. Disponível em:
https://www.planalto.gov.br/ccivil_03/LEIS/L4117Compilada.htm Acesso em 30/05/2022.
501
BRASIL, Decreto Presidencial nº 52.795/63. Aprova o Regulamento dos Serviços de Radiodifusão. Disponível
em: http://www.planalto.gov.br/ccivil_03/decreto/antigos/d52795.htm Acesso em 30/05/2022.
502
WIMMER, Miriam. Serviços públicos de radiodifusão? Incoerências, insuficiências e contradições na
regulamentação infraconstitucional. Revista Eletrônica Internacional de Economia Política da Informação,
da Comunicação e da Cultura. Vol. 11. N. 1. 2009. Disponível em:
https://scholar.google.com/citations?view_op=view_citation&hl=pt-
BR&user=yfbP16EAAAAJ&citation_for_view=yfbP16EAAAAJ:Tyk-4Ss8FVUC Acesso em 30/05/2022.
159

Na Consituição de 1988, os setores de telecomunicações e radiodifusão forma tratados


em incisos diferentes. O artigo 21, inciso, XI, determinava que competia à União “explorar,
diretamente ou mediante concessão a empresas sob controle acionário estatal, os serviços
telefônicos, telegráficos, de transmissão de dados e demais serviços públicos de
telecomunicações”503, enquanto o inciso XII, alínea “a” preconizava a competência da União
para “explorar diretamente ou mediante autorização, concessão ou permissão, os serviços de
radiodifusão sonora, e de sons e imagens e demais serviços de telecomunicações”504. Essa
estrutura, conforme destaco por Wimmer505 se adequava a forma como os serviços eram
prestados, os serviços públicos de telecomunicações, pelas operadores públicas do sistema da
Telebrás e Embratel, à época, e os serviços de radiodifusão por particulares, mediante
concessão, permissão ou autorização.
A partir de 1990, com a reforma da Administração Pública e adoção de um modelo
gerencial, há uma mudança na organização do setor de telecomunicações através da Emenda
Consitucional (EC) nº8/90. Altera-se o artigo 21 XI e XII da Constituição506, concedendo
tratamento diferenciado aos serviços de telecomunicações e radiodifusão. No que se refere ao
serviço de telecomunicações infere-se a ocorrência do fenômeno da privatização, com posterior
vigência de uma nova Lei de Telecomunicações, cuja regulação é atribuída a uma Agência
independente (Lei 9.472/97507). Tansfere-se à ANATEL as competências anteriormente
atribuídas ao Ministério das Comunicações, exceto a outorga dos serviços de radiodifusão, que
se manteve na competência do Poder Executivo.

503
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html. Acesso em 30/05/2022.
504
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html. Acesso em 30/05/2022.
505
WIMMER, Miriam. Serviços públicos de radiodifusão? Incoerências, insuficiências e contradições na
regulamentação infraconstitucional. Revista Eletrônica Internacional de Economia Política da Informação,
da Comunicação e da Cultura. Vol. 11. N. 1. 2009. Disponível em:
https://scholar.google.com/citations?view_op=view_citation&hl=pt-
BR&user=yfbP16EAAAAJ&citation_for_view=yfbP16EAAAAJ:Tyk-4Ss8FVUC Acesso em 30/05/2022.
506
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html. Acesso em 30/05/2022. Artigo 21: Compete
à União: XI - explorar, diretamente ou mediante autorização, concessão ou permissão, os serviços de
telecomunicações, nos termos da lei, que disporá sobre a organização dos serviços, a criação de um órgão regulador
e outros aspectos institucionais; (Redação dada pela Emenda Constitucional nº 8, de 15/08/95:) XII - explorar,
diretamente ou mediante autorização, concessão ou permissão: a) os serviços de radiodifusão sonora, e de sons e
imagens; (Redação dada pela Emenda Constitucional nº 8, de 15/08/95).
507
BRASIL, Lei 9472/97. Dispõe sobre a organização dos serviços de telecomunicações, a criação e
funcionamento de um órgão regulador e outros aspectos institucionais, nos termos da Emenda Constitucional nº
8, de 1995. Disponível em: http://www.planalto.gov.br/ccivil_03/leis/l9472.htm Acesso em 30/05/2022.
160

Agora, nos termos da Emenda Consitucional nº8/90, artigo 21, XI, da CRFB508, poderia
o Estado prestar o serviço de telecomunicações através de concessão, permissão ou autorização.
Segundo Gustavo Binenbojm509, o objetivo do constituinte com a previsão da figura da
autorização foi a de trazer maior flexibilidade à atuação do Poder Público ante as atividades
econômicas de sua competência. Para o autor, houve proposital liberdade conferida ao
legislador ordinário, que, a depender de sua preferência política, poderá escolher o regime
jurídico das atividades previstas nos incisos XI do artigo 21 da CRFB (público – permitida a
delegação através de concessão ou permissão, nos moldes do artigo 175 da CRFB, ou privado,
através da autorização, baseado no princípio da livre concorrência, artigo 170, IV, CRFB)510.
A autorização, instituto típico de poder de polícia sobre atividades privadas, atualmente,
é utilizado pela Administração Pública, de forma unilateral e vinculada, para alinhar o
desempenho de certa atividade econômica à finalidade pública. Através dela é possível defender
que a Constituição não adotou um sistema binário (atividades públicas ou privadas), mas “um
sistema que comporta dégradés” 511.
A nova Lei Geral de Telecomunicações possibilitou a prestação dos serviços de
telecomunicações pelo regime de direito público, quando presente o interesse coletivo, ou pelo

508
BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988. Disponível em:
http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html. Acesso em 30/05/2022.
509
BINEMBOJM, Gustavo. Assimetria regulatória no setor de transporte coletivo de passageiros: a
constitucionalidade do art 3º da lei 12.996/2014. In: Revista de Direito da Cidade, vol. 09, n. 3. pp. 1268-1285.
2017. Disponível em: https://www.e-publicacoes.uerj.br/index.php/rdc/article/view/29544 Acesso em
01/01/2021. P. 1274-1275.
510
O tema envolve a definição de serviço púbico na Constituição Federal, pelo que é controverso e foge ao escopo
deste trabalho citar todas as suas nuances. Para ilustrar a controvérisa, Sara Jane, na interpretação dos artigos 21 e
175 da CRFB, entende que as atividades previstas no artigo 21 permanecem sendo tratadas como serviços públicos,
entretanto, sua disciplina legal pode atender a outro regime, que não o público. A lei definirá quais as atividades
podem ser objeto de autorização, pelo que se pode concluir, à vista do pensamento da autora, que a escolha do
regime jurídico foi transferida ao legislador infraconstitucional. FARIA, Sara Jane Leite de. Regulação jurídica
dos serviços autorizados. Rio de Janeiro: Lumen Juris, 2005. P. 116-122. Diferentemente, para Alexandre Santos
de Aragão, quando há referência ao termo autorização, não haveria delegação do serviço público, porém atividades
privadas autorizadas. Para ele, a CRFB deu “certa margem de discricionariedade ao Legislador em relação às
atividades enumeradas nos incisos X a XII do artigo 21 para que, diante das revoluções tecnológicas propiciadoras
da concorrência e do princípio da subsidiariedade, enquadre-as como serviços públicos ou como atividades de
interesse público sujeitas a uma regulação de natureza autorizativo-operacional” ARAGÃO, Alexandre Santos de.
Direito dos Serviços Públicos – 4ed. Belo Horizonte: Forum,2017. P. 178. Adotando essa visão, algumas
atividades previstas no artigo 21 teriam sido privatizadas. Por fim, ressalva-se o entendimento de Maria Sylvia
Zanella Di Pietro, para quem, a posição de privatização de algumas das atividades previstas no artigo 21 seria
inconstitucional. DI PIETRO, Maria Sylvia Zanella. Parcerias na Administração Pública: concessão,
permissão, franquia, terceirização, parceria público-privada e outras formas. 7ª. ed., São Paulo: Atlas, 2009
(Capítulo 6).
511
BINEMBOJM, Gustavo. Assimetria regulatória no setor de transporte coletivo de passageiros: a
constitucionalidade do art 3º da lei 12.996/2014. In: Revista de Direito da Cidade, vol. 09, n. 3. p. 1268-1285.
2017, P. 1275. Disponível em: https://www.e-publicacoes.uerj.br/index.php/rdc/article/view/29544 Acesso em
01/01/2021.
161

regime de direito privado, quando presente o interesse restrito512. A título de exemplo, o serviço
de telefone fixo foi determinado como de interesse público, a ser prestado por meio de
concessão, porquanto os demais seriam prestados pelo modelo de autorização a ser concedida
pela Agência. Esse modelo foi reconhecido como constitucional pelo Supremo Tribunal
Federal513, sendo admitida a coexistência de dois modelos assimétricos para tratamento de um
mesmo serviço: concessão de telefonia fixa comutada e autorização de telefonia móvel.
Nesse caso, poderá haver a atuação do agente econômico pelo título de concessão, com
incidência do regime jurídico de direito público, vez que envolve a delegação de serviço
público, bem como poderá existir a atuação do agente privado, pelo regime da livre iniciativa e
concorrência, cuja atividade ficará sujeita à regulação por meio da autorização.
Noutro giro, conforme acima mencionado, a Lei de Telecomunicações separou os
serviços de rádio e televisão do setor, permanecendo a radiodifusão supostamente afetada pela
publicatio, mas também com possibilidade de transferência para o setor privado através de
concessão, permissão ou autorização514. Segundo Miriam Wimmer, “a lógica confusa e
incomum dos instrumentos de outorga da radiodifusão no Brasil impede uma associação
automática entre os termos “concessão” e “serviço público”. Reforçando essa afirmação, a
autora sustenta que os mecanismos de controle aplicados as concessões de serviço público não
eram replicados à radiodifusão, pelo que o CBT atribuía outros critérios, como parâmetros
objetivos de programação, com percentual máximo de publicidade e determinação de horário
para a propaganda eleitoral.
Importante também destacar que a instância reguladora existente à época do CBT, o
Conselho Nacional de Telecomunicações (Contel), não funcionou de forma adequada, sendo

512
BRASIL, Lei 9472/97. Dispõe sobre a organização dos serviços de telecomunicações, a criação e
funcionamento de um órgão regulador e outros aspectos institucionais, nos termos da Emenda Constitucional nº
8, de 1995. Disponível em: http://www.planalto.gov.br/ccivil_03/leis/l9472.htm Acesso em 30/05/2022. Art. 62.
Quanto à abrangência dos interesses a que atendem, os serviços de telecomunicações classificam-se em serviços
de interesse coletivo e serviços de interesse restrito. Parágrafo único. Os serviços de interesse restrito estarão
sujeitos aos condicionamentos necessários para que sua exploração não prejudique o interesse coletivo.Art. 63.
Quanto ao regime jurídico de sua prestação, os serviços de telecomunicações classificam-se em públicos e
privados. Parágrafo único. Serviço de telecomunicações em regime público é o prestado mediante concessão ou
permissão, com atribuição a sua prestadora de obrigações de universalização e de continuidade.Art. 64.
Comportarão prestação no regime público as modalidades de serviço de telecomunicações de interesse coletivo,
cuja existência, universalização e continuidade a própria União comprometa-se a assegurar. Art. 67. Não
comportarão prestação no regime público os serviços de telecomunicações de interesse restrito.
513
BRASIL. Supremo Tribunal Federal. Ação Direta de Inconstitucionalidade – ADI nº 1668 MC/ DF, de Relatoria
do Minº Marco Aurélio, pelo Tribunal Pleno, conforme publicado, em 16/04/2004, no DJ PP-00054 EMENT VOL-
02147-01 PP-00127. Disponível em: https://jurisprudencia.stf.jus.br/pages/search/sjur96611/false Acesso em
30/05/2022.
514
Em sentido contrário, a previsão da possibilidade de autorização no texto constitucional é um indicativo de que
nem todas as emissoras de rádio exercem serviço público. Por todos, JUSTEN FILHO, Marçal. Curso de Direito
Administrativo. São Paulo: Saraiva, 2006.
162

extinta pelo Ministério das Comunicações em 1967. Faltavam critérios objetivos que
possibilitassem o monitoramento das outorgas concedidas, sejam elas, concessões, permissões
ou autorizações. A Constituição da República Federativa Brasileira de 1988, em seu artigo 223,
haja vista o modelo de outorga anterior ser feito de forma livre pelo Presidente da República,
concedeu ao Congresso Nacional o dever de apreciar todas as ortorgas e suas renovações515.
O serviço de radiodifusão516, portanto, é caracterizado como serviço de comunicação
eletrônica de massa, gratuito e público, sendo prestado diretamente pelo Estado ou através de
delegação para o setor privado, desde que respeitada a finalidade educativa, cultural, recreativa,
informativa e outros princípios elencados no artigo 221 da CRFB, regulamentado pelo CBT e
Decreto Presidencial 52.795/63.
A regulação do setor ocorre, portanto, através de instrumentos contratuais regulatórios
(concessão, permissão ou autorização), com pouco transparência sobre as regras que regem
esses contratos e se satisfazem ou não o interesse público. Com isso, transfere-se para o Poder
Judiciário a regulação quando há violação dos direitos dos cidadãos.
A regulação existente, tal qual o artigo 53 do CBT517, aponta para a época da Ditadura
Militar, cujos incisos intensificavam um espírito moralizador para a programação que não
refletem os desejos da atual sociedade democrática que preocupa-se, por exemplo, com a
representação das minorias, não protegidas.
Por fim, é importante destacar o precedente do Supremo Tribunal Federal, a Arguição
de Descumprimento de Preceito Fundamental nº 130518, que julgou inconstitucional a Lei de

515
WIMMER, Miriam. Serviços públicos de radiodifusão? Incoerências, insuficiências e contradições na
regulamentação infraconstitucional. Revista Eletrônica Internacional de Economia Política da Informação,
da Comunicação e da Cultura. Vol. 11. N. 1. 2009. Disponível em:
https://scholar.google.com/citations?view_op=view_citation&hl=pt-
BR&user=yfbP16EAAAAJ&citation_for_view=yfbP16EAAAAJ:Tyk-4Ss8FVUC Acesso em 30/05/2022.
516
Excluem-se as televisões por assinatura dessa inferência, vez que são consideradas serviços privados, com
tratamento conferido pela Lei 12485/2011, que dispõe sobre a comunicação audiovisual de acesso condicionado.
517
Art. 53. Constitui abuso, no exercício de liberdade da radiodifusão, o emprego desse meio de comunicação para
a prática de crime ou contravenção previstos na legislação em vigor no País, inclusive: a) incitar a desobediência
às leis ou decisões judiciárias; b) divulgar segredos de Estado ou assuntos que prejudiquem a defesa nacional; c)
ultrajar a honra nacional; d) fazer propaganda de guerra ou de processos de subversão da ordem política e social;
e) promover campanha discriminatória de classe, cor, raça ou religião; f) insuflar a rebeldia ou a indisciplina nas
forças armadas ou nas organizações de segurança pública; g) comprometer as relações internacionais do País; h)
ofender a moral familiar, pública, ou os bons costumes; i) caluniar, injuriar ou difamar os Poderes Legislativos,
Executivo ou Judiciário ou os respectivos membros; j) veicular notícias falsas, com perigo para a ordem pública,
econômica e social; l) colaborar na prática de rebeldia desordens ou manifestações proibidas. Parágrafo único. Se
a divulgação das notícias falsas houver resultado de erro de informação e for objeto de desmentido imediato, a
nenhuma penalidade ficará sujeita a concessionária ou permissionária. BRASIL, Lei 4117/62. Institui o Código
Brasileiro de Telecomunicações. Disponível em:
https://www.planalto.gov.br/ccivil_03/LEIS/L4117Compilada.htm Acesso em 30/05/2022
518
ADPF nº 130, Tribunal Pleno. Relator: Ministro Carlos Ayres Brito. Julgamento: 30/04/2019. Disponível em:
https://redir.stf.jus.br/paginadorpub/paginador.jsp?docTP=AC&docID=605411 Acesso em: 10/01/2022.
163

Imprensa deferindo-se preferência ao direito fundamental da liberdade de expressão. Foi


estabelecido nesse acórdão que a imprensa deve seguir por um arranjo institucional de
autorregulação acompanhado por uma regulação social. Para o acórdão, a Constituição de 1988
estabelece a liberdade de imprensa “plena”, sendo certo que os mecanismos de conformidade,
que operarão como remédios contra os abusos e desvios jornalísticos, serão através de
autorregulação aliada a própria seletividade do corpo social.
A partir dessa breve explanação é possível observar que o modelo brasileiro se difere
bastante do modelo americano em que a regulação da telecomunicação abrange a regulação por
conteúdo disseminado no sistema de radiodifusão. No Brasil, optou-se por atribuir tratamento
distinto, retirando da competência da ANATEL a regulação do conteúdo televisivo e por rádio.
Não há regulação específica para o setor, optando, o Estado, apenas em delegar a execução do
serviço ao setor privado. Essa posição, talvez, esteja associada aos abusos decorridos do período
de regime militar que fazem firmar a ideia de que qualquer atuação do Estado represente censura
e seja, por natureza, antidemocrática. Daniel Sarmento faz considerações relevantes sobre o
tema:

Se tivéssemos que fazer um balanço do desempenho da liberdade de expressão


no Brasil desde 1988, nossa conclusão também seria ambígua. A dimensão
negativa da liberdade de expressão vai bem: não há censura, críticas e
protestos contra o governo são tolerados e ninguém mais vai para a cadeia
pelo que pensa ou defende. Neste ponto, não há como negar que o país
avançou muito. No entanto, a dimensão positiva da liberdade de expressão vai
muito mal. Os pobres e excluídos continuam sem voz e os meios de
comunicação de massa permanecem escandalosamente concentrados nas
mãos de um reduzidíssimo número de pessoas, que mantém, em regra,
relações promíscuas com os governantes. 519

A partir do exposto nesta subseção, observa-se que o sistema de radiodifusão tem sua
regulação considerando a premissa de ser esse um serviço público ou, ao menos, uma atividade
privada de grande utilidade pública, cujas características da regulação, no entanto, não seguem
os moldes tradicionais dos regimes de concessão e permissão, já que possui contornos próprios
e limites constitucionais que devem ser respeitados pelos atores que desenvolvem a atividade
no setor.

519
SARMENTO. Daniel. Livre e Iguais: Estudos de Direito constitucional. Rio de Janeiro: Lumen Juris, 2006.
164

A mensagem que pode ser extraída deste modelo é que não há transparência na forma
como as delegações ou autorizações são feitas, tampouco na própria regulação contratual
realizada pelo Estado. No que tange à liberdade de expressão, sob o ângulo da dimensão
positiva desse direito, há pouca inclusão, estando os meios de comunicação concentrado nas
mãos de grupos restritos de empresas.
Esse não é o modelo desejável para a regulação de conteúdo nas plataformas digitais,
notadamente, se for considerado que os problemas a elas relacionados aumentam os riscos aos
direitos individuais e à democracia, conforme já mencionado. O fim da censura não deve
significar a adoção de um viés liberal da matéria, com afastamento total do Estado, mas a
possibilidade de ordenar o setor das comunicações digitais nas redes sociais para um ambiente
saudável, que promova os valores constitucionais. Também é preciso ressaltar a regulação
social defendida pelo STF na ADPF 130, por exemplo, não seria aplicável às plataformas, vez
que a predominância das grandes plataformas fragilizaria o argumento da seletividade pelo
público.
Na próxima subseção serão abordados quais os atores podem exercer a regulação de
conteúdo nas mídias sociais, considerando para esse desenvolvimento as características dos
sistemas regulatórios atuais apontados no início deste capítulo, notadamente, em sociedades
complexas com uma Administração policêntrica.

5.4 Quais arranjos institucionais podem regular as plataformas de redes sociais?

O termo “regulação” associa-se, comumente a intervenções direcionadas para a criação


de estruturas ou diretrizes para molder certos comportamentos ou solucionar certos problemas
por meio de coerções ou induções. A intervenção do Estado no exercício da liberdade privada
era, comumente, realizada por lei. A partir das ideias neoliberais, o avanço social e da
tecnologia ampliaram-se os mecanismos de controle e número de atores envolvidos nesse
processo, experimentando-se novos ajustes nas fronteiras entre público e privado. Hoje,
diversos atores, estatais e não-estatais, com diferentes tipos de instrumentos (regras legais,
códigos de conduta, contratos, licenças, etc), compõe o sistema regulatório, que pode, inclusive,
se valer de estratégias regulatórias híbridas em relação de complementariedade.
Dessa forma, a regulação direta não pode ser vista como a única instância possível de
regular um determinado setor da economia. Essa pluralidade de participantes permite que a
165

regulação possa ser exercida por instituições diversas, o que leva a classificação dos arranjos
institucionais da seguinte maneira: direta, autorregulação e a corregulação520.
Esses arranjos, dentre suas particularidades, diferenciam-se quanto à gradação da ação
estatal521. Começando na regulação direta, pode-se afirmar que as partes estão vinculadas ao
cumprimento das regras estabelecidas pelo Estado através de um instrumento legislativo.
Tornando a ação estatal mais leve, tem-se a corregulação, no qual as regras são definidas por
um código aprovado. É um formato regulatório alternativo, onde os atores privados podem
formular regras e estabelecer uma regulação de “cima para baixo”, como podem, simplesmente,
implementar as regras estatais, em uma “abordagem cooperativa”, em uma regulação de “baixo
para cima” 522
. Pela diversidade de atores que participam desse processo é considerado um
arranjo multissetoral. Por fim, a autorregulação não recebe nenhuma intervenção estatal. Neste
arranjo as normas não são vinculantes e não há ameaça de sanção. Os atores são guiados pelos
próprios interesses.
Nos próximos subtópicos serão abordados cada um desses arranjos institucionais
cabíveis para a regulação das plataformas digitais de redes sociais, com uma análise sobre a
experiência internacional na implementação de cada um deles.

5.4.1 Regulação direta

A regulação direta é aquela implementada diretamente pelo Estado através de leis ou


regulamentos administrativos, cujo fundamento pode advir diretamente da Constituição ou
outorgado por lei que atribua competência à Administração Pública. Por consequência, traz
normas mais rígidas por sua estrutura ser composta de prescrição-sanção. Essas normas
vinculam os regulados e inteferem diretamente no mercado, sendo a conduta dos agentes

520
Ainda é possível identificar outras nuances para essa classificação. Nos próximos subtópicos algumas delas
serão mencionadas. Sobre o ponto, veja: MARSDEN, Christopher T., Internet co-regulation and constitutionalism:
Towards European judicial review, International Review of Law, Computers & Technology, 26:2-3, 211-228,
2012. DOI: 10.1080/13600869.2012.698450. Disponível em:
https://www.tandfonline.com/doi/abs/10.1080/13600869.2012.698450 Acesso em 30/05/2022.
521
MARSDEN. Christopher T. Beyond Europe: The Internet, Regulation, and Multistakeholder Governance—
Representing the Consumer Interest? J. Consum Policy Vol. 31. PP. 115–132. 2008. p. 118. Disponível em:
https://profiles.sussex.ac.uk/p319200-chris-marsden/publications Acesso em 30/05/2022.
522
MARSDEN. Christopher T. Beyond Europe: The Internet, Regulation, and Multistakeholder Governance—
Representing the Consumer Interest? J. Consum Policy Vol. 31. PP. 115–132. 2008, p. 118. Disponível em:
https://profiles.sussex.ac.uk/p319200-chris-marsden/publications Acesso em 30/05/2022.
166

garantida através da sanção estatal523. No que se refere à responsabilidade, ela é alta porque há
consequências legais rígidas para os atores que não cumprem a legislação estatal524.
Conforme explica Clara Keller, esse arranjo se desenvolve através de um órgão criado
por lei que elabora, aplica, monitora e fiscaliza um determinado arcabouço regulatório525, o que
se amolda perfeitamente as funções das Agências Reguladoras. O ponto central é que esse
arranjo se baseia na lei ou regulamento (nos casos de inexistência de reserva legal), podendo o
legislador optar por um regramento mais detalhado ou por outro mais principiológico, que se
dedique apenas a estabelecer normas de organização e procedimentos a nortear futuras ações
administrativas.
Esse modelo de regulação interfere diretamente no comportamento dos atores
envolvidos, o que, no campo da internet, segundo a literatura 526, pode prejudicar a inovação do
setor527. Outro ponto é que a necessidade de maior eficiência, notadamente em ambientes
dinâmicos e complexos, exige práticas que demandam a participação dos agentes regulados e
outras partes interessadas mediante estruturas regulatórias mais flexíveis.
Duas principais críticas a esse arranjo institucional são encontradas na literatura. A
primeira crítica é referente à capacidade limitada da lei exercer o controle e está relacionada a
análise da teoria jurídica da autopoiese528. Essa teoria providencia uma explicação, a partir da
comunicação, para os problemas em torno do controle regulatório. Citando o trabalho de Niklas
Luhmann529, Scott aponta que a sociedade está dividida em subsistemas diferentes e autônomos,
que possuem dificuldade para comunicarem-se entre si. Política, economia e sociedade são, por

523
BINENBOJM, Gustavo. Poder de Polícia, ordenação, regulação: transformações político-jurídicas,
econômicas e institucionais do direito administrativo ordenador. 3 ed. Belo Horizonte: Fórum, 2020, p. 172.
524
PAPAEVANGELOU, Charilaos. The existential stakes of platform governance: a critical literature review
[version 2; peer review: 3 approved] Open Research Europe 2021, 1:31. P. 04.
https://doi.org/10.12688/openreseurope.13358.2
525
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 176.
526
BOSTOEN, Friso. Neutrality, fairness or freedom? Principles for platform regulation. Internet Policy Review.
2018; 7(1): 19. Disponível em: http://policyreview.info/articles/analysis/neutrality-fairness-or-freedom-
principles-platform-regulation . Acesso em 30/05/2022.
527
Essa afirmação deve ser temperada com o exposto na próxima subseção. A observância do modelo regulatório
chinês pode sugerir que as regras de comando e controle não impedem necessariamente a inovação, vez que no
país as regras aplicáveis são extremamente rígidas e, ainda assim, há a entrada crescente de novas plataformas de
redes sociais no mercado.
528
Para Colin Scott autopoiese significa um “termo desenvolvido inicialmente nas ciências biológicas, derivado
de palavras gregas que significam autoprodução, e refere-se à ideia de que a lei reproduz-se por si mesma de acordo
com suas próprias normas. SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory
state. In: JORDANA, Jacin; LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory
Reforma for the Age of Governance, 2004, p. 11. Trecho original: Autopoiesis is a term developed initially in
biological sciences, derived from Greek words meaning self-producing, and refers to the idea that law reproduces
itself according to its own norms.
529
LUHMANN, Niklas (1992) "The Coding of the Legal System.European Yearbook in the ociology of Law
[1991-1992], 145-185.
167

exemplo, subsistemas, que deveriam se comunicar entre si a fim de se produzir regras efetivas
que produzam a mudança esperada no comportamento dos atores econômicos e sociais. No
entanto, são subsistemas fechados no que se refere às suas normas e modo de operação530.
Aplicando a teoria da autopoiese sobre o problema do controle regulatório, Scott detalha
uma nova visão531. No lugar de um padrão de governança linear, na qual a política é traduzida
em legislação, depois ação regulatória, para, posteriormente, analisar os efeitos regulatórios,
dever-se-ia providenciar uma imagem de múltiplos campos de ação autônomos, mas com
interferência entre eles, de maneira não-causal e simultânea.
Dessa forma, para essa teoria, os subsistemas se relacionariam entre si, não com base
em leis regulatórias específicas, mas por meio do “entendimento de ordenação dentro de outros
subsistemas”532. Seria preciso pensar, diante da limitação do uso da lei como instrumento
regulatório, em outras possibilidades normativas dentro desses subsistemas. Não precisaria,
portanto, pensar em desregulação, mas em mecanismos de controles indiretos e mais
sofisticados, como, por exemplo, a autorregulação, que será analisada no próximo tópico.
A segunda crítica é que a lei estatal será efetiva apenas quando vinculada a outras ordens
de processos. Esse argumento é identificado na teoria responsiva da regulação, cujo objetivo é
desenhar arranjos institucionais e processos que possam trabalhar com as capacidades de
controle que já existem para os regulados, deixando a intervenção regulatória estatal no seu
nível mais baixo para atingir os resultados desejados533. Afasta-se da ideia do direito como um
meio politicamente instrumentalizado para buscar um direito reflexivo, que se utiliza de normas
processuais que regulam os procedimentos, organização e distribuição de direitos e
competências534.

530
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004, pp.11-12.
531
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004.
532
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance. 2004, p.15.Trecho original: LTA envisions a post-regulatory state in which the legal sub-system
relates to other subsystems not through highly specified, or materialised, regulatory law, but rather through
working with the grain of the understanding of ordering within other sub-systems.
533
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance.2004, pp. 21-27.
534
Sobre regulação responsiva, ver BLACK, Julia. Procedimentalizando a Regulação in Regulação Econômica e
Democracia: O Debate Europeu. Paulo Todescan Lessa Mattos (coordenação), 2ª edição revista, São Paulo,
Editora Revista dos Tribunais, 2017 (Coleção Capitalismo & Democracia), P. 133 a 155. GUERRA, Sérgio.
Discricionariedade, Regulação e Reflexividade - Uma Nova Teoria Sobre as Escolhas Administrativas, 4ª
edição revista e atualizada, Belo Horizonte, Fórum, 2017, P. 387 a 410.
168

Essa teoria abraça a ideia de governança multissetorial, que, conforme já colocado,


considera a lei apenas como um dos instrumentos da regulação que podem ser efetivos, havendo
outras normas ou técnicas utilizadas pela regulação que possuem mecanismos de
monitoramento e podem modificar substancialmente o comportamento. Assim, poder-se-ia
imaginar uma pirâmide, na qual em sua base permaneceriam a maioria das interações
regulatórias fundamentadas na persuasão e educação dos regulados. Apenas no caso de não-
conformidade é que os reguladores utilizariam a atividade fiscalizatória e de aplicação
(enforcement) através de advertências ou penalidades civis e criminais, que seriam aplicadas
gradativamente 535.
No que se refere à regulação de comando e controle, é válido trazer as lições de Evelyn
Douek536. Para a autora, os governos não podem e não devem regular de forma detalhada a
camada de conteúdo de forma direta por três razões. A primeira delas é que, conforme já
abordado, as plataformas podem impor restrições à liberdade de expressão que vão além das
possibilidades do Estado e de acordo com o seu modelo de negócio. A segunda razão reside no
fato da regulação estatal não conseguir gerenciar com velocidade e escala necessárias as
decisões que devem ser tomadas pelas plataformas. E, por fim, a terceira razão elencada é que,
quanto maior o envolvimento do Governo na regulação da fala, mais propenso ele estará para
colidir com os valores democráticos, notadamente, a liberdade de expressão.
Na próxima subseção, será analisada a experiência chinesa sobre a regulação das
plataformas de mídias sociais. Em que pese sua ocorrência ocorrer em um estado ditatorial, é
interessante para fins de estudo a menção ao modelo em razão da eficiência do controle
implementado.

535
SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In: JORDANA, Jacin;
LEVI-FAUR, David. The polics of Regulation – Institutions and Regulatory Reforma for the Age of
Governance.2004, pp. 21-27.
536
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, pp. 07-08. Disponível em:
https://www.hoover.org/research/verified-accountability Acesso em 30/05/2022.
169

5.4.1.1 Análise de caso: a regulação das plataformas de mídias sociais na China

Na China537, o setor de mídia digital é fortemente regulado pelo Estado, pelo que o
principal arranjo institucional para o desenvolvimento da regulação é o de comando e controle.
Trata-se, portanto, de um mercado aberto ao setor privado538, mas regulado pelo Estado. A
autoridade responsável para regular as várias formas de serviços de mídia social539 na internet
é o Cyberspace Administration of China (CAC)540, que desde, aproximadamente, 2014,
concentrou a governança da internet em plataformas de mídia social, haja vista o importante
papel que esses entes intermediários desepenham na produção e circulação de notícias 541.

537
Para aprofundamento do sistema jurídico chinês, indica-se o artigo de Larissa Chen, A proteção de informações
pessoais na china: análise à luz do novo código civil chinês de 2021, em TEFFÉ, Chiara Spadaccini de; BRANCO,
Sérgio (Coords.). Proteção de dados e tecnologia: estudos da pós-graduação em Direito Digital. Rio de Janeiro:
Instituto de Tecnologia e Sociedade do Rio de Janeiro. 2022.
538
WANG, Jufang. Regulation of Digital Media Plataforms: The case of China. Policy Brief. The Foundation for
Law, Justice and Society (FLJS). Oxford. 2020, p. 02.Disponível em: https://www.fljs.org/regulation-digital-
media-platforms-case-china Veja também em: LOKUMANNAGE, Amila, Social Media Content Regulation in
China: Analysis of English Language Wechat Accounts (January 31, 2020). Vidyodaya Journal of Humanities
and Social Sciences. Vol. 05(01). Disponível em: https://ssrn.com/abstract=3798256 Acesso em 30/05/2022. No
artigo há a seguinte informação: “New People Republic China Internet Regulation Report, 1998)”: "China-based
websites cannot link to overseas news Websites or distribute news from overseas media without separate approval.
Only "licensed print publishers" have the authority to deliver news online. Non-licensed Web sites that wish to
broadcast news may only publish information already released publicly by other news media"(China Internet
Censorship Overview).
539
Na china, o Governo, através da Agência Governamental para regulação do mercado (State Administration for
Market Regulation – SAMR), elaborou um guia para classificação das plataformas digitais a fim de melhorar a
regulação. Essa classificação leva em consideração as propriedades de conectividade e seus principais recursos
disponibilizados, como, por exemplo, conexão de pessoas a bens, serviços, informação, entreterimento, capital,
aplicações de computação, etc. Para o escopo deste trabalho é interessante mencionar que plataformas de mídia
sociais são entendidas como aquelas relacionadas ao entreterimento social, cuja principal função é a interação
social, jogos, serviços audiovisuais, leitura literária, etc, enquanto as plataformas de informação são aquelas que
conectam pessoas e informação, as quais tem por funções principais o fornecimento de notícias, serviços de
pesquisa, conteúdos de áudio e vídeos, etc. Há ainda uma segunda classificação que envolve o número de usuários
combinado com o tipo de negócio. Aqui, as plataformas podem ser super plataformas – com mais de 500 milhões
de usuários ativos e possua 2 ou mais tipos de negócios, com alto valor de mercado; plataformas grandes – com
mais de 50 milhões de usuários ativos e excelente desempenho no negócio principal; pequenas e médias
plataformas – possuem um certo número de usuários ativos, com um determinado negócio e um certo valor de
mercado). BROWN, Ian.KORFF, Douwe. China´s new plataforma guidelines. 03/11/2021. Disponível em:
https://cyberbrics.info/chinas-new-platform-guidelines/ Acesso em 30/05/2022.
540
Existem outras autoridades chinesas para regular o setor de mídia, de forma geral. Os pricipais órgãos
reguladores são: a Administração Nacional de Rádio e Televisão (NRTA), que tem ampla autoridade para regular
negócios envolvendo mídia tradicional e mídia digital, e a Administração Estatal de Imprensa e Publicação
(SAPP), que tem competência para aprovar o estabelecimento de gráficas e regular o negócio de impressão, além
de aprovar o estabelecimento de editoras e regular a publicação e distribuição de publicações nacionais e
importação de publicações estrangeiras. Disponível em:
https://www.lexology.com/library/detail.aspx?g=983332cc-0fa7-4630-b5a8-b4fd525eaae1 Acesso em
30/05/2022.
541
WANG, Jufang. Regulation of Digital Media Plataforms: The case of China. Policy Brief. The Foundation for
Law, Justice and Society (FLJS). Oxford. 2020, pp. 01-02.Disponível em: https://www.fljs.org/regulation-digital-
media-platforms-case-china Acesso em 30/05/2022.
170

Essa afirmação pode ser demonstrada através dos diversos regulamentos expedidos pela
autoridade nacional chinesa, em um curto espaço de tempo, que refletem as preocupações do
partido comunista chinês sobre o controle que as plataformas exercem na circulação da
informação.
No que se refere à regulação de conteúdo na internet, as plataformas de redes sociais542
são dominadas por plataformas domésticas543, constituídas por capital privado. No entanto, para
exercer essa atividade o setor enfrenta algumas restrições e uma rígida supervisão.
A título de exemplo, não se pode criar notícias nas áreas de política, economia, militar,
relações exteriores, etc. A produção de notícias é restrita às autoridades chinesas ou as empresas
públicas autorizadas, mas as plataformas podem trabalhar replicando as notícias elaboradas
pelas instituições que são controladas pelo Estado, desde que seja expedida uma licença para
republicação notícias online. As plataformas que não publicam conteúdo devem, por outro lado,
garantir que os usuários que produzem conteúdo tenham licença para essa atividade caso
versem sobre atividades mais restritas 544.
Outro ponto relevante é que as plataformas são responsáveis pelo conteúdo que
545
hospedam . Na prática, essa imposição legal traz a obrigação de censura pelas plataformas
de mídia social, que devem criar regras que adotem uma moderação de conteúdo eficiente, de

542
Exemplos de plataformas chinesas de mídias sociais são: “we-chat” e “weibo” (plataformas de mídias sociais),
“Toutião e “Tencent” (plataformas de notícias) e “Douyin” (versão doméstica do Tik-tok) e “Kuai” (plataformas
de compartilhamento de vídeos). WANG, Jufang. Regulation of Digital Media Plataforms: The case of China.
Policy Brief. The Foundation for Law, Justice and Society (FLJS). Oxford. 2020, p.02. Disponível em:
https://www.fljs.org/regulation-digital-media-platforms-case-china Acesso em 30/05/2022.
543
O Linkedin foi a útlima plataforma norte-americana a deixar o país, conforme anúncio publicado em outubro
de 2021. Contudo, é interessante ressaltar que os chineses não sentiram essa perda, vez que a imposição de várias
regras de censura ao desenvolvimento da atividade pelas plataformas americanas incentivou o mercado doméstico
a produzir um vasto ecossistema de mídia social. Conforme reportagem publicada, pesquisadores afirmam que a
inovação é predominente nas redes sociais chinesas. LU, Christina. China´s social media explosion. 11 de
novembro de 2021. Disponível em: https://www.politics-dz.com/en/chinas-social-media-explosion/ Acesso em
30/05/2022. Sobre a diversidade das plataformas de mídia social veja também: LOKUMANNAGE, Amila, Social
Media Content Regulation in China: Analysis of English Language Wechat Accounts (January 31, 2020).
Vidyodaya Journal of Humanities and Social Sciences. Vol. 05(01). Disponível em:
https://ssrn.com/abstract=3798256 Acesso em 30/05/2022.
544
WANG, Jufang. Regulation of Digital Media Plataforms: The case of China. Policy Brief. The Foundation for
Law, Justice and Society (FLJS). Oxford. 2020, p. 02.Disponível em: https://www.fljs.org/regulation-digital-
media-platforms-case-china Acesso em 30/05/2022. Veja também em: LOKUMANNAGE, Amila, Social Media
Content Regulation in China: Analysis of English Language Wechat Accounts (January 31, 2020). Vidyodaya
Journal of Humanities and Social Sciences. Vol. 05(01). Disponível em: https://ssrn.com/abstract=3798256
Acesso em 30/05/2022. No artigo há a seguinte informação: “New People Republic China Internet Regulation
Report, 1998)”: "China-based websites cannot link to overseas news Websites or distribute news from overseas
media without separate approval. Only "licensed print publishers" have the authority to deliver news online. Non-
licensed Web sites that wish to broadcast news may only publish information already released publicly by other
news media"(China Internet Censorship Overview).
545
WANG, Jufang. Regulation of Digital Media Plataforms: The case of China. Policy Brief. The Foundation for
Law, Justice and Society (FLJS). Oxford. 2020, p. 03. Disponível em: https://www.fljs.org/regulation-digital-
media-platforms-case-china Acesso em 30/05/2022.
171

acordo com a legislação chinesa, coibindo conteúdos indesejados no espaço virtual. O relatório
sobre a política de regulação chinesa elaborado por Jufang Wang aponta alguns requisitos
específicos que as plataformas devem cumprir, de acordo com a regulação do país:

 realizar monitoramento de conteúdo em tempo real e armazenar dados de


usuários por não menos de seis meses;
 implementar o registro de nome real e política de verificação. Os usuários
da plataforma precisam fornecer informações sobre suas identidades reais
antes que possam postar qualquer conteúdo, e as plataformas são obrigadas a
verificar as identidades dos usuários com base em códigos institucionais
exclusivos (para usuários institucionais) e carteiras de identidade emitidas
pelo governo (para indivíduos);
 estabelecer mecanismos de denúncia de usuários, desmascaramento de
rumores e listas negras. O requisito de lista negra obriga as plataformas a
adicionar usuários que violaram gravemente leis e regulamentos relevantes a
uma 'lista negra' e aplicar punições adequadas (por exemplo, fechar suas
contas, proibi-los de recadastramento);
 construir um sistema de gestão para classificação do usuário.
“Classificação” significa que, se os usuários violarem certas regras, suas notas
serão rebaixadas e os serviços que eles podem usar serão limitados de acordo
com essa classificação. A “classificação” também significa que, para serviços
como bate-papos em grupo, as plataformas precisam classificá-los em
diferentes categorias de acordo com fatores que incluem o tamanho dos grupos
e as áreas de conteúdo (por exemplo, política, econômica ou de
entretenimento)546.

A respeito do conteúdo que deve ser moderado, a regulação chinesa define três
categorias que devem ser tratadas pelas plataformas como problemáticas: (i) conteúdo
politicamente sensível; (ii) conteúdo vulgar; e, (iii) desinformação e rumores não políticos547.
O primeiro tipo de conteúdo faz alusão aquele que pode prejudicar o partido chinês,
afetando a estabilidade social e legitimidade do governo. Não há uma definição estrita sobre o

546
WANG, Jufang. Regulation of Digital Media Plataforms: The case of China. Policy Brief. The Foundation for
Law, Justice and Society (FLJS). Oxford. 2020, p. 03. Disponível em: https://www.fljs.org/regulation-digital-
media-platforms-case-china Acesso em 30/05/2022. Trecho original: • conducting real-time content monitoring
and storing users’ data for no less than six months; • implementing the real-name registration and verification
policy. Platform users need to provide information about their real identities before they can post any content,
and platforms are required to verify users’ identities based on unique institutional codes (for institutional users)
and government-issued identity cards (for individuals); • establishing user-reporting, rumour-debunking, and
blacklisting mechanisms. The blacklisting requirement mandates platforms to add users who have seriously
breached relevant laws and regulations to a ‘blacklist’ and to enforce suitable punishment (e.g. closing their
accounts, banning them from re-registration); • building the user-grading-and-classification management system.
‘Grading’ means that if users are found to have breached certain rules, then their credit grades are downgraded
and the services they can use are limited accordingly. ‘Classification’ means that, for services such as group chats,
platforms need to classify them into different categories according to factors including the size of the groups and
the content areas (e.g. political, economic, or entertainment).
547
WANG, Jufang. Regulation of Digital Media Plataforms: The case of China. Policy Brief. The Foundation for
Law, Justice and Society (FLJS). Oxford. 2020, p. 04. Disponível em: https://www.fljs.org/regulation-digital-
media-platforms-case-china Acesso em 30/05/2022.
172

que seja esse conteúdo, alguns exemplos mencionados são a oposição aos princípios
estabelecidos na Constituição, leis ou regulamentos, comprometimento da segurança estatal,
vazemento de informações secretas, prejudicar interesses nacionais, perturbar ordem e
estabilidade social, etc. Conteúdo vulgar se relaciona com os esforços do governo chinês de
manter um espaço digital moralmente limpo e enquadrar a governança da internet através de
políticas protetivas.
Com isso, é possível observar que a atuação da autoridade chinesa (CAC) é diretamente
realizada sobre os tipos de conteúdos que devem permanecer na internet. Em 2018, por
exemplo, aquela convocou as principais plataformas requerendo maior controle sobre as contas
digitais de influencers548 que publicassem conteúdo sobre “distorcer intencionalmente a história
do Partido Comunista Chinês, difamar heróis de guerra, espalhar rumores e espalhar
pornografia” 549. O resultado foi a exclusão ou suspensão de 9.800 contas550.
Como consequência do descumprimento da regulação, o CAC multa as plataformas, as
obriga a retificarem seus termos de uso e até mesmo suspende o seu funcionamento551. O
controle do órgão regulador é tão intenso que há previsão da figura do “arranjo especial de
compartilhamento de gestão” (special management share arrangement) para intensificar o
controle editorial. Essa participação minoritária através de ações de ouro (golden share) permite
ao governo chinês possuir 1% a 2% do capital das empresas privadas, no caso das plataformas
de redes sociais, e, em contrapartida, o governo ou o representante do CAC ganha assento no
conselho e/ou direito de veto para as principais decisões sobre os negócios praticados, o que,
inclui, o controle editorial552.
Em que pese algumas falhas, o sistema de controle implementado na China nas
atividades realizadas pelas plataformas é tão eficiente que outros países não-democráticos, tal

548
Influencers são criadores de conteúdo que constroem popularidade nos canais de mídia social e convertem em
dinheiro para a vida real por meio da monetização. GOANTA, Catalina; SPANAKIS, Gerasimos, Influencers and
Social Media Recommender Systems: Unfair Commercial Practices in EU and US Law. TTLF Working Paper
No. 54. 2020, p. 03. Available at SSRN: https://ssrn.com/abstract=3592000 Acesso em 30/05/2022.
549
WANG, Jufang. Regulation of Digital Media Plataforms: The case of China. Policy Brief. The Foundation for
Law, Justice and Society (FLJS). Oxford. 2020, p. 03.Disponível em: https://www.fljs.org/regulation-digital-
media-platforms-case-china Acesso em 30/05/2022. Trecho original: The listed kinds of problematic content
include: intentionally distorting the history of the Chinese Communist Party, defaming war heroes, spreading
rumours, and spreading
Pornography.
550
WANG, Jufang. Regulation of Digital Media Plataforms: The case of China. Policy Brief. The Foundation for
Law, Justice and Society (FLJS). Oxford. 2020, p. 03.Disponível em: https://www.fljs.org/regulation-digital-
media-platforms-case-china Acesso em 30/05/2022.
551
WANG, Jufang. Regulation of Digital Media Plataforms: The case of China. Policy Brief. The Foundation for
Law, Justice and Society (FLJS). Oxford. 2020, p. 04.Disponível em: https://www.fljs.org/regulation-digital-
media-platforms-case-china Acesso em 30/05/2022.
552
Essa prática, segundo reportagem publicada pela Reuters, também está sendo expandida para a regulação de
dados. Veja em: https://www.reuters.com/article/china-regulation-data-idCAKBN2IU2B7 Acesso em 30/05/2022.
173

como Cuba, negociaram a compra de sua tecnologia para ampliar a vigilância na internet553. O
governo chinês, de muitas maneiras, aduz estar agindo razoavelmente ao restringir o acesso à
informação ou à internet. No entanto, na prática, na maioria dos casos, limita e dificulta muito
o acesso a qualquer tipo de conteúdo que não seja controlado pelo estado, característica, nítida,
de um estado não-democrático.
Dessa forma, é possível concluir que, ainda que a regulação seja determinada pelo
Estado, não é possível aferir, de plano, que os arranjos institucionais baseados no comando e
controle sejam legítimos. Essa avaliação dependerá do Estado que regula e das políticas
adotadas, como o processo democrático, representação política, dentre outros fatores. Ainda,
outro fator a ser considerado é que sempre que se busca regular a fala, deve-se adotar muita
cautela devido à preocupação e suspeita de que os governos possam agir de forma ilegítima no
intuito de preservar sua permanência no poder.

5.4.2 Autorregulação

A globalização trouxe ambientes econômicos complexos e dinâmicos que retiraram o


Estado da posição central como fonte normativa do poder de polícia, conforme já analisado. As
transformações dos mecanismos de controle geraram a descentralização do monopólio da
regulação, pelo que outros atores passaram a desempenhar papeis essenciais na conformidade
das condutas em diversos setores da economia. Essa “descentralização da regulação” abriu
espaço para novos arranjos institucionais554. A autorregulação, então, pode ser identificada
como um arranjo, cujo “modo de operação consiste em normas não-vinculantes de ação,
processo e comportamentos, para a qual as sanções da regulação formal não possuem
espaço”555.

553
LOKUMANNAGE, Amila, Social Media Content Regulation in China: Analysis of English Language Wechat
Accounts (January 31, 2020). Vidyodaya Journal of Humanities and Social Sciences. Vol. 05(01). Disponível
em: https://ssrn.com/abstract=3798256 Acesso em 30/05/2022.
554
BLACK, Julia. Procedimentalizando a Regulação em Regulação Econômica e Democracia: O Debate
Europeu. Paulo Todescan Lessa Mattos (coordenação), 2ª edição revista, São Paulo, Editora Revista dos
Tribunais, 2017 (Coleção Capitalismo & Democracia), páginas 133 a 155.
555
MARSDEN. Christopher T. Beyond Europe: The Internet, Regulation, and Multistakeholder Governance—
Representing the Consumer Interest? J. Consum Policy (2008) 31:115–132. P. 118. Disponível em:
https://profiles.sussex.ac.uk/p319200-chris-marsden/publications. Acesso em 30/05/2022. Trecho original: “We
can identify self-regulatory arrangements whose modus operandi consist of nonbinding norms of action, process,
and behaviour, for whom sanctions of the formal regulatory type play no part”.
174

Essas estruturas têm por objetivo moldar o comportamento dos atores em um


determinado ambiente, em paralelo e em complemento ao modelo clássico de regulação estatal,
e decorre da aplicação dos valores relacionados à liberdade, inclusive do princípio da livre
iniciativa, que confere poder jurídico às pessoas naturais e jurídicas para configurar
autonomamente suas próprias ações, individualmente ou coletivamente, em um Estado
Democrático de Direito.
Normalmente, os participantes formulam suas regras através de ferramentas como
códigos de condutas, soluções ou padrões tecnológicos. Os membros possuem responsabilidade
pelo monitoramento e conformidade sem referência a uma autoridade reguladora, tal qual
ocorre no arranjo anterior. Apesar de não-vinculativa juridicamente, os afetados podem esperar,
uns dos outros, o seu cumprimento e, em caso negativo, podem ser aplicadas sanções sociais,
como, por exemplo, a quebra de relações comerciais ou mancha na reputação dos infratores556.
Gustavo Binenbojm explica que a criação de ambientes autorregulatórios voltados à
cooperação se mostra promissor em ambientes que: “(i) o acesso à informação é relativamente
homogêneo ou simétrico; (ii) há um número limitado de participantes que se conhecem e se
observam todo o tempo; e onde (iii) há, necessariamente, uma relação continuada
razoalvelmente estável entre eles por tempo indeterminado”557.
Dessa forma, em ambientes em que há contínuas negociações, em relações estáveis e
com informação distribuída de forma equilibrada, há grande probabilidade para o sucesso do
desenvolvimento de um modelo autorregulatório que gere confiança nos consumidores e
autoridades públicas, de forma a dispensar o controle por parte do Estado. Nesse sentido, a
aderência dos regulados às regras de conformidade é estimulada, representando um esforço dos
atores privados para evitar uma intervenção estatal.

5.4.2.1 Autorregulação das plataformas de redes sociais: uma boa escolha?

Com a regulação sendo exercida pelas plataformas digitais de redes sociais, algumas
delas, na tentativa de trazer mais confiabilidade nas políticas de governança adotadas, além da

556
HOFFMANN-RIEM. Wolfgang. Teoria do direito digital. Transformaçao digital, desafios para o direito.
Tradução Italo Fuhrmann. Rio de Janeiro: Editora Forense. 2021, pp. 136-137.
557
BINENBOJM, Gustavo. Poder de Polícia, ordenação, regulação: transformações político-jurídicas,
econômicas e institucionais do direito administrativo ordenador. 3 ed. Belo Horizonte: Fórum, 2020, p. 322.
175

adoção de regras de responsabilidade social, passaram a se autorregular de forma coletiva. A


título de exemplo, em 2008, as principais plataformas (Google, Yahoo!, Facebook, Microsoft)
e alguns provedores de acesso formaram um grupo autorregulador, para responder às demandas
governamentais por uma melhor fiscalização - a Global Network Initiative (GNI)558. Em sua
base estão um conjunto de princípios que as essas empresas prometeram respeitar, dentre eles,
a liberdade de expressão e os direitos de privacidade de seus usuários.
Os participantes também desenvolveram uma estrutura de governança multissetorial
para garantir a responsabilidade pela implementação desses princípios. Dentre as ações
implementadas por esse grupo para trazer mais confiança à sociedade é a publicação de
relatórios de transparência, que podem ser auditados pelo conselho da GNI, o que se traduz em
uma avaliação por um órgão independente.
As principais características da autorregulação citadas como positivas para o ambiente
da internet e com vantagens em relação à regulação direta são a rapidez, flexibilidade e
eficiência. Isso porque se trata de um ambiente que se transforma constantemente através das
mudanças tecnológicas, ao passo que o processo legislativo estatal é lento e, por isso, não
consegue acompanhar as novas situações colocadas no tempo real. Também deve ser ressaltado
que esse arranjo pode trazer a experiência acumulada da indústria para lidar com questões
difíceis para o governo, que abrange, por exemplo, falta de clareza técnica para definir regras559.
Outro ponto altamente vantajoso é que, “mantendo as principais decisões sobre a
liberdade de expressão nas mãos de intermediários online, preocupações importantes sobre
censura e repressão do governo são amenizadas”560. Evelyn Douek, por exemplo, conforme
antes mencionado, entende que não deve haver envolvimento do Governo na regulação da
fala561, pelo que as melhores instituições para regular questões relacionadas ao conteúdo seriam
as próprias plataformas.
Noutro giro, esse arranjo apresenta algumas limitações. A literatura informa que esses
acordos voluntários oferecem recursos limitados em caso de não-conformidade. Além disso,

558
GLOBAL NETWORK INICIATIVE. Disponível em: https://globalnetworkinitiative.org/gni-2018-2019-
company-assessment/ Acesso em 10/04/2022.
559
MARSDEN. Christopher T. Beyond Europe: The Internet, Regulation, and Multistakeholder Governance—
Representing the Consumer Interest? J. Consum Policy (2008) 31:115–132. P. 117. Disponível em:
https://profiles.sussex.ac.uk/p319200-chris-marsden/publications
560
GORWA, Robert. What is Plataform Governance? Information, Communication & Society. University of
Oxford. 2019. P. 13-14. Disponível em: https://gorwa.co.uk/files/platformgovernance.pdf
561
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019. Disponível em:
https://www.hoover.org/research/verified-accountability.
176

por se tratarem de mecanismos privados, não apresentam formas de responsabilidade pública


tão importantes para atores que afetam, no decorrer de suas atividades, direitos fundamentais562.
Para manter esse arranjo atrativo e solucionar o problema da ausência de accountability,
Evelyn Douek propõe que devem ser criados novos mecanismos internos de supervisão. Ela
propõe a criação de um órgão de supervisão externo ao corpo das plataformas, independente,
com competência para receber recursos dos usuários sobre a aplicação dos termos de uso e de
seus sistemas de moderação de conteúdo. Duas funções importantes podem ser realizadas por
um órgão de supervisão, segundo a autora: melhorar os processos de políticas nas plataformas
e fornecer raciocínio público de suas decisões internas para melhor aceitação dessas políticas
em uma sociedade plural563.
A primeira função está relacionada à verificação pelo órgão de supervisão das decisões
das plataformas e na possibilidade de o órgão lançar luz aos pontos cegos das regras e políticas
estabelecidas. Assim, as plataformas podem ser estimuladas em realizar mudanças para as
regras que violem o interesse público e, com isso, aprimorar a elaboração das regras. Para isso,
algumas das políticas das empresas devem ser abertas para o escrutínio público e devem ser
justificadas. A abertura do processo lógico de criação cria mais legitimidade para as regras que
a comunidade deve obedecer564.
A segunda função corresponde ao respeito pelas decisões tomadas pelas plataformas.
Para que elas sejam mais legítimas é necessário se criar um racicício público. Isso significa que
as decisões devem ser públicas e possibilitar a discordância. O raciocínio público também
permite que a sociedade se envolva no processo de criação de normas, o que, por consequência
gera mais conhecimento sobre elas e mais conformidade. Segundo a pesquisa empírica de
Rawls, citada por Evelyn Douek, “julgamentos sobre legitimidade não dependem da obtenção
de resultados favoráveis, mas são mais fortemente influenciados pelos processos e
procedimentos que as autoridades usam”565 e que se relacionam com circunstâncias de
participação, imparcialidade e respeito pelo interesse das pessoas.

562
GORWA, Robert. What is Plataform Governance? Information, Communication & Society. University of
Oxford. 2019. P. 13-14. Disponível em: https://gorwa.co.uk/files/platformgovernance.pdf Acesso em 10/04/2022.
563
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, p. 14. Disponível em:
https://www.hoover.org/research/verified-accountability. Acesso em 10/04/2022.
564
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, pp. 15-16. Disponível em:
https://www.hoover.org/research/verified-accountability. Acesso em 10/04/2022.
565
DOUEK, Evelyn. Verified accountability: self-regulation of content moderation as an answer to the special
problems of speech regulation. Hoover Institution. Aegis series Paper no. 1903, 2019, pp. 15-16. Disponível em:
https://www.hoover.org/research/verified-accountability. Acesso em 10/04/2022. Trecho original: people’s
judgments of legitimacy do not depend primarily on their obtaining favorable outcomes but are more strongly
177

Nesse sentido, o Facebook cirou o Conselho de Supervisão (Oversight Board), uma


estrutura independente, implementada para exercer a supervisão dos casos de tomada de decisão
em moderação de conteúdo, que se assemelha a uma Corte Superior. Trata-se de uma entidade
acessível tanto pelos usuários, quanto pelo Facebook, capaz de realizar julgamentos sobre as
regras das plataformas e influenciar a política da companhia de uma forma geral566.
O acesso ao Comitê pode se dar por três vertentes. A primeiro delas fica a critério dos
usuários como uma possibilidade de revisão da decisão tomada pela plataforma. Essa via de
acesso sofre o chamado docket control: o Comitê pode controlar os casos que julga, de forma
que os casos podem não ser admitidos discricionariamente. A segunda possibilidade é reservada
ao Facebook, que pode enviar casos ditos excepcionais e urgentes, não passando pelos mesmos
controles de acesso, e dando ao Comitê prazos menores para avaliar o pedido. A terceira,
exclusiva do Facebook, passa por controles de agenda. A empresa pode solicitar pareceres do
Comitê sobre as políticas que adota. Importante destacar que o veredito do Comitê é vinculante
apenas nas duas primeiras hipóteses567.
Essa ação representa uma estratégia para gerar confiança do público ao tentar
estabelecer um tipo de legitimidade em suas decisões sobre moderação de conteúdo. Embora
seja uma atitude positiva voltada para o interesse público em geral, os maiores problemas nas
atividades das plataformas, como o sistema da empresa para intermediar anúncios, a
manipulação comportamental dos usuários e as práticas de vigilância através da coleta e uso de
dados, não serão de competência do Oversight Board.
No sentido de analisar com mais profundidade a experiência internacional com a
autorregulação, o próximo tópico abordará a tentativa de autorregular o conteúdo de redes
sociais para combater a desinformação adotada pela Comissão Europeia.

influenced by the processes and procedures authorities use, including whether they afford participation,
demonstrate impartiality, and show respect for people’s interests as worthy of consideration.
566
KLONICK, Kate. The Facebook Oversight Board: Creating an Independent Institution to Adjudicate Online
Free Expression. Yale Law Journal, Vol. 129, nº 2418, 2020. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3639234 Acesso em 10/04/2022.
567
KLONICK, Kate. The Facebook Oversight Board: Creating an Independent Institution to Adjudicate Online
Free Expression. Yale Law Journal, Vol. 129, nº 2418, 2020. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3639234 Acesso em 10/04/2022.
178

5.4.2.2 Análise de caso: a experiência europeia sobre a autorregulação das plataformas


digitais no combate à desinformação.

5.4.2.2.1 O Código de Desinformação568

Para enfrentar o problema da desinformação, a Comissão Europeia implementou o


Grupo de Especialistas de Alto Nível sobre notícias falsas em janeiro de 2018569. Criou-se um
grupo formado por múltiplos atores, dentre eles, representantes da indústria, sociedade civil,
pesquisadores, jornalistas, veículos de comunicação, organizações de checagem (fact-checking)
e formuladores de política com o objetivo de orientar as iniciativas políticas para evitar a
propagação de informações falsas por meio da internet.
Em abril do mesmo ano, foi produzido um relatório, cuja recomendação foi uma
abordagem multissetorial para (i) promover um ecossistema mais transparente, confiável e
responsável, (ii) implementar processos eleitorais seguros e resilientes; (iii) promover educação
e literacia digital; (iv) apoiar o jornalismo de qualidade como elemento essencial de uma
sociedade democrática, e (v) combater ameaças de desinformação através de comunicação
estratégica570.
Com esse objetivo, criou-se o Código de Prática sobre Desinformação (“O Código”)571,
sendo essa a primeira grande iniciativa desenvolvida para combater a desinformação pela União
Europeia. Dentre os signatários do documento, estavam as seguintes empresas privadas: o
Facebook, Google, Twiter, Youtube, Microsoft, Snapchat, TikTok, Mozilla, Internet
Advertising Bureau e Dailymotion.

568
Esse trabalho utilizou o Código de Desinformação como exemplo considerando que a elaboração dos
compromissos foi realizada, majoritariamente, pelas plataformas digitais. No entanto, é preciso fazer uma ressalva
para a participação da União Europeia nesse processo, pelo que esse exemplo não poderia ser considerado um
modelo autorregulatório puro.
569
DIRECTORATE-GENERAL FOR COMMUNICATIONS NETWORKS, CONTENT AND TECHNOLOGY.
High Level Expert Group on fake news and online disinformation [Report]. European Commission. 2018.
Disponível em: https://op.europa.eu/s/tRk9 Acesso em 08/09/2020.
570
COMISSÃO EUROPEIA. Comunicação da Comissão ao Parlamento Europeu, ao Conselho, ao Comité
Económico e Social Europeu e ao Comité das Regiões. Combater a desinformação em linha: uma estratégia
europeia. 2018. Disponível em: https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:52018DC0236
Acesso em 08/09/2020.
571
COMISSÃO EUROPEIA. EU Code of Practice on Disinformation. Publicado em 28/09/2018.
https://www.europeansources.info/record/eu-code-of-practice-on-disinformation/ Acesso em 08/09/2020.
179

O Código implementou uma política de autorregulação das plataformas digitais, baseada


na realização de compromissos pelos signatários que não são exigidos por lei. O objetivo do
Código era incentivar as plataformas a garantir transparência na publicidade política e restringir
a propagação automatizada de desinformação pela Europa. Seus compromissos se
concentravam em cinco pilares: (i) escrutínio nos posicionamentos dos anúncios; (ii)
divulgação de anúncios políticos; (iii) integridade de serviços; (iv) capacitação dos
consumidores; e, (v) empoderamento da comunidade acadêmica572.
A execução desses compromissos era monitorada através de reuniões regulares, tendo
os signatários do Código o dever de enviar à Comissão Europeia relatórios anuais sobre o
cumprimento dos objetivos listados e identificados pelas plataformas, de acordo com os
indicadores chaves de desempenho listados no Código (cláusula 16573).
A prática apontada foi inovadora e promissora, pois representou uma ferramenta
importante no combate à desinformação, além de ter sido um bom exemplo de cooperação
estruturada entre as plataformas para garantir maior transparência e prestação de contas.
Contudo, após a apresentação dos relatórios elaborados pelos signatários, uma avaliação
realizada pela Comissão, sobre a implementação e eficácia do Código durante o período inicial

572
COMISSÃO EUROPEIA. EU Code of Practice on Disinformation. Publicado em 28/09/2018.
https://www.europeansources.info/record/eu-code-of-practice-on-disinformation/ Acesso em 08/09/2020. Sobre
os pilares: (a) escrutínio nos posicionamentos de anúncios: significa não permitir que os criadores de conteúdos
com desinformação lucrem com isso, isto é, as plataformas devem se esforçar para excluir esse tipo de conteúdo
como veículos para seus serviços de publicidades. Para isso elas devem melhorar significativamente o controle na
inserção de anúncios nos diferentes conteúdos, bem como contar com a parceria de organizações de verificação
de fatos (compromisso “a”); (b) divulgação de anúncios políticos: significa que as plataformas devem garantir que
a propaganda política possa ser facilmente identificada pelos usuários, além de permitir que eles tenham
conhecimento da identidade do patrocinador da propaganda, do montante gasto e das métricas utilizadas para
serem considerados alvos de determinada propaganda política (compromisso “b”); (c) integridade de serviços:
corresponde aos problemas de contas falsas e sistemas automatizados que permitem a disseminação da
desinformação. As plataformas devem implementar políticas claras em relação à identidade e garantir que o uso
de ferramentas de bots não seja confundido com interações humanas (compromisso “c”); (d) capacitação dos
consumidores: significa que as plataformas devem investir em tecnologias e programas para permitir que os
usuários tomem decisões informadas quando sejam submetidos a notícias que possam ser falsas, inclusive,
desenvolvendo indicadores eficazes de confiança; investir em tecnologia para priorizar informações relevantes e
autênticas, quando apropriado, em distribuição de conteúdo automatizado; investir em tecnologia que permita aos
usuários a encontrar diversas perspectivas sobre temas de interesse público; desenvolver parcerias para melhorar
o pensamento crítico e literacia mediática; e, adotar ferramentas que ajudem os consumidores a compreender os
motivos de serem considerados alvos de anúncios específicos (compromisso “d”); e, (e) empoderamento da
comunidade acadêmica: significa apoiar os esforços independentes de verificadores de fatos, acadêmicos e
pesquisadores da sociedade civil para rastrear a desinformação e compreender o seu impacto, além de realizar
pesquisas que envolvam desinformação, propaganda política e anúncios publicitários. Essa medida inclui a
possibilidade de compartilhamento de dados protegidos pela cláusula de privacidade e informações gerais sobre
algoritmos (compromisso “e”).
573
COMISSÃO EUROPEIA. EU Code of Practice on Disinformation. Publicado em 28/09/2018, p. 08
https://www.europeansources.info/record/eu-code-of-practice-on-disinformation/ Acesso em 08/09/2020.
180

de 12 meses, observou uma série de falhas no estabelecimento e monitoramento das obrigações


previstas no Código574.
Essa visão crítica também foi apresentada pela pesquisa realizada por Brogi e Bleyer-
Simon575, na qual se indicou três grupos de problemas que acarretaram em um impacto limitado
do Código: (i) falta de orientação detalhada aos signatários sobre os compromissos; (ii)
monitoramento inadequado, considerando que as próprias plataformas elaboraram seus
relatórios, sem supervisão de um órgão independente, o que não trouxe confiabilidade nos
dados apontados; e, (iii) o pequeno número de integrantes.
Sobre essas falhas, é possível observar que o Código implementou uma série de
obrigações definidas de forma vaga e abstrata, com abertura para que as plataformas buscassem
o meio mais adequado para se alcançar seu resultado. A falta de definições uniformes dos
principais termos que integram os compromissos inibe a implementação efetiva das medidas
pelos signatários, quiçá de sua adesão, além de atrapalhar o monitoramento e avaliação sobre a
eficácia do Código. A avaliação realizada pela Comissão Europeia trouxe a comprovação da
ocorrência de medidas inconsistentes para a implementação do Código em todos os cinco
pilares dos compromissos.
Para esses problemas de conformidade, não há sanções para os signatários, o que não os
incentiva no cumprimento de suas obrigações. A única consequência prevista é que as próprias
plataformas convidem o parceiro a se retirar. A eficácia desse remédio dependeria, portanto, da
aversão dos signatários em causar um dano reputacional do seu nome empresarial no mercado.
Sobre o monitoramento, não houve disponibilização de dados para verificação das
declarações e relatórios criados pelas próprias plataformas, além de inexistir padrões para a
elaboração e avaliação desses relatórios. A avaliação da Comissão Europeia ressaltou que a
simples menção de tópicos soltos como indicadores de desempenho, na prática, dificultou o
próprio monitoramento e avaliação, inclusive, para a realização de análises comparativas de
desempenho, vez que os relatórios apresentados pelas plataformas não adotaram uma estrutura

574
COMISSÃO EUROPEIA. Assessment of the Code of Practice on Disinformation - achievements and areas for
further improvement, 20202, pp. 7-13. Disponível em: https://digital-strategy.ec.europa.eu/en/library/assessment-
code-practice-disinformation-achievements-and-areas-further-improvement Acesso em 08/09/2020.
575
BROGI, Elda; BLEYER-SIMON, Konrad. Disinformation in the Perspective of Media Pluralism in Europe –
the role of plataforms. In: Perspectives on Platform Regulation. Nomos Verlagsgesellschaft mbH & Co. KG, 2021,
pp. 531-547. https://www.nomos-elibrary.de/10.5771/9783748929789/perspectives-on-platform-regulation
Acesso em 08/09/2020.
181

comum. Como sugestão a esse problema, a Comissão Europeia sugeriu a criação de dois tipos
fixos de indicadores, os de serviço e os estruturais.
Os indicadores de serviço são importantes porque mensuram os resultados das políticas
implementadas pelos signatários do Código. A fim de que não sejam burlados, devem ser feitos
de forma clara, objetiva e específica para cada tipo de serviço, podendo, inclusive, ser feitos em
formas de perguntas e complementados por diretrizes. Já os indicadores estruturais medem a
amplitude da desinformação de uma forma geral. São aplicáveis a todos os serviços e, portanto,
devem ser realizados de forma mais genérica576.
As únicas previsões do Código que sugerem um sistema de supervisão são a adoção de
um sistema de revisão pelos próprios pares, o que, resta enfraquecido pela parcialidade dos
próprios envolvidos, e a possibilidade de revisão externa por uma organização independente,
contratada pelas próprias plataformas, o que não ocorreu pela inércia dos signatários em
celebrar a referida contratação. Logo, o Código demonstrou que não trouxe um modelo eficiente
de revisão externa para a prestação de contas das plataformas digitais.
Por fim, importante mencionar a participação limitada dos atores do setor. Essa
limitação ocorre porque o Código aplicava-se apenas as plataformas e intervenientes do setor
publicitário que aceitem subscrever seus compromissos, e, ainda permite que elas escolham,
com base em suas próprias avaliações, a quais compromissos irão aderir e quais medidas serão
utilizadas para implementar esses compromissos577.
Esse cenário levou a Comissão Europeia a sugerir a elaboração de um novo Código para
vigorar dentro de um arranjo institucional de corregulação, em adequação com a nova Lei dos
Serviços Digitais (Digital Servide Act - DSA). Esse novo Código foi implementado em junho
de 2022578, como um conjunto de medidas mais amplo para combater a desinformação
online579. Os signatários do Código não são obrigados a assumir todos os compromissos, cabe
a eles decidir sobre quais áreas irão agir e garantir a implementação dos compromissos
assumidos.

576
COMISSÃO EUROPEIA. Assessment of the Code of Practice on Disinformation - achievements and areas
for further improvement. 2020, p. 23. Disponível em: https://digital-strategy.ec.europa.eu/en/library/assessment-
code-practice-disinformation-achievements-and-areas-further-improvement Acesso em 10/12/2021.
577
COMISSÃO EUROPEIA. Assessment of the Code of Practice on Disinformation - achievements and areas
for further improvement. 2020, p. 17. Disponível em: https://digital-strategy.ec.europa.eu/en/library/assessment-
code-practice-disinformation-achievements-and-areas-further-improvement Acesso em 10/12/2021.
578
Comissão Europeia. The 2022 Code of Practice on Disinformation. Junho de 2022. Disponível em: The 2022
Code of Practice on Disinformation | Shaping Europe’s digital future (europa.eu) Acesso em: 22/06/2022
579
Dentre as áreas dos 44 compromissos formulados, algumas medidas são: (i) desmonetização; (ii) transparência
da publicidade política; (iii) integridade dos serviços; (iv) empoderamento dos usuários, pesquisadores e
verificadores de fatos; (v) centro de transparência e criação de uma força-tarefa permanente; e (vi) reforço da
estrutura de monitoramento.
182

Essa reformulação na política regulatória parece ter levado a uma maior aderência dos
participantes, já que agora o Código conta com 34 signatários580, que atuam em diversos setores.
Acredita-se que esse aumento se deve ao fato da assinatura dos seus compromissos, em relação
às grandes plataformas, representar, sob a estrutura corregulatória do DSA, uma medida de
mitigação do risco da atividade. Esse cenário reflete a estrutura da corregulação na prática
(arranjo que será aprofundado ainda neste capítulo): as empresas se comprometem em
desenvolver meios para atingir os objetivos legais, sob a supervisão de autoridades públicas,
sendo que essas podem, a qualquer momento, fiscalizar o cumprimento do DSA, sob pena de
aplicação de sanções, inclusive, multas, ou a elaboração de normas regulatórias mais rígidas
caso os objetivos não sejam alcançados.

5.4.2.2.2 Resultados: Necessidade de um novo arranjo institucional

Do que foi exposto até aqui, observa-se que o espaço online não permanece separado
das diversas fontes de poder, sendo influenciado por diversos atores, privados e públicos.
Conforme analisado, não se sustenta a visão excepcionalista, já que a internet é uma zona
regulada pelo próprio código ou, modernamente, pelos sistemas de algoritmos das plataformas
digitais, podendo, ainda, sofrer a incidência do próprio direito já aplicável no mundo físico.
A teoria excepcionalista, no entanto, não é irrelevante. Sua análise pode servir para
indicar a necessidade de uma abordagem regulatória específica. Conforme apontado por Clara
Keller, tecnologias “podem demandar abordagens regulatórias próprias, a depender das suas

580
Algumas empresas signatárias: Google, Tiktok, Microsoft, Twitter, Vimeo. A lista completa pode ser acessada
em: Signatories of the 2022 Strengthened Code of Practice on Disinformation | Shaping Europe’s digital future
(europa.eu) Acesso em 22/06/2022.
183

características e dos benefícios e riscos que trazem em potencial para a coletividade”581, como,
por exemplo, a interoperabilidade582 e neutralidade da rede583.
O uso reiteirado da internet para o exercício da comunicação pelos indivíduos, dentre
diversas outras atividades rotineiras, aumentou o uso das plataformas no ambiente digital e fez
surgir um alerta para a sociedade em geral sobre o modelo de negócios implementado por esses
entes intermediários. Esse modelo se vale de sistemas automatizados, como, por exemplo,
sistemas de recomendação, para manter seus usuários engajados e coletar cada vez mais dados.
A partir da criação de perfis, esses sistemas direcionam o comportamento e influenciam os
conteúdos que serão consumidos, agindo diretamente sobre a autodeterminação dos usuários.
A par do desenvolvimento do ambiente online, observou-se a ausência de um Estado
Regulador e, como consequência, as plataformas passaram a lançar suas próprias normas,
regulando o espaço digital, o que permitiu que fossem construídas formas privadas de regulação
em espaços públicos, que são vitais para a deliberação democrática e o exercício de direitos
fundamentais.
Toda essa engrenagem afeta valores essenciais para a construção do Estado
Democrático de Direito, conforme já demonstrado neste trabalho, e traz sérias críticas no que
se refere à legitimidade e responsabilidade das plataformas para exercer a governança do espaço
digital. Teorias que buscam trazer mais legitimidade à governança exercida por esses entes
intermediários foram desenvolvidas e práticas de autorregulação foram implementadas.
Dessa forma, embora tenha predominado, no início da internet um cenário de
autorregulação das plataformas, através de normas não-vinculantes de ação, processo e
comportamentos, a análise sobre a implementação do Código de Desinformação pela União

581
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris. 2019, p. 137.
582
A interoperabilidade é a capacidade de transferir e renderizar dados úteis e outras informações entre sistemas,
aplicativos ou componentes. A combinação de transmissão e análise envolve várias camadas do chamado modelo
de Interconexão de Sistemas Abertos (Open Systems Interconnection model - OSI model), exigindo a obtenção de
vários níveis de interoperabilidade. No mínimo, deve-se distinguir a camada inferior e a camada superior,
apontando para uma divisão entre interoperabilidade de infraestrutura e interoperabilidade de dados. BELLI, Luca.
Appeal. Em: BELLI, Luca; ZINGALES, Nicolo; CURZI, Yasmin (eds.). Glossary of platform law and policy
terms. Rio de Janeiro: FGV Direito Rio, 2021. Disponível em:
https://bibliotecadigital.fgv.br/dspace/handle/10438/31365. Acesso em 10/05/2022. Para que dispositivos,
softwares e estruturas de redes, criados em separados, funcionem é preciso que haja interoperabilidade, ou seja,
um conjunto de padrões técnicos que permitam a comunicação e operação entre eles.
583
Luca Belli define a neutralidade da rede como como um princípio de não discriminação cujo objetivo é preservar
uma Internet aberta e de finalidade geral, facilitando a participação ativa do usuário bem como o pleno gozo dos
direitos fundamentais de todos os internautas. BELLI. Luca. A Neutralidade da Rede: Norma Fundamental para a
Proteção da Expressão e do Empreendedorismo na Internet. In: Horizonte presente. Tecnologia e sociedade em
debate. Páginas 377-402: FGV Direito Rio, 2019. Disponível em:
https://sbproxy.fgv.br/login?url=https://search.ebscohost.com/login.aspx?direct=true&db=cat08036a&AN=sbfgv
.000202613&lang=pt-br&site=eds-live. Acesso em 10/12/2021.
184

Europeia mostra que esse caminho não é o mais adequado para sujeitar a “soberania privada”
das plataformas digitais aos valores constitucionais de supervisão democrática e direitos
fundamentais.
Dois dos principais grupos de falhas decorrentes da operacionalização do Código de
Desinformação relacionam-se com funções estatais - monitoramento e pequena adesão no
número de integrantes, o que indica a necessidade de intervenção do Estado no quadro de
políticas regulatórias. Conforme já apontado por Clara Keller, o “afastamento total do Estado
não se mostra eficiente na regulação da internet”584.
A perspectiva de hoje, que já se aponta desde 2018, é de mudança de rumos. Parte da
literatura especializada (por todos, Christopher Marsden585) indica um novo arranjo
institucional para regular o ambiente virtual. O debate teórico que corresponde as estruturas
para regular as plataformas digitais indica uma solução híbrida, ou seja, que combine a atuação
privada, vez que, conforme visto, é indissociável da própria arquitetura da internet, com a
atuação pública, que deve ficar encarregada de mecanismos estatais de supervisão e
monitoramento. Tudo isso para que o ambiente online possa ser reflexivo, mas também
responsivo. Essa estrutura é a corregulação e será analisada na próxima subseção.

5.4.3 Corregulação

Ante ao exposto neste capítulo586, pode-se observar que a corregulação nasce em um


cenário em que o Estado Moderno587 enfrentava demandas por menos e melhor regulação e que
considerasse os aspectos de uma sociedade complexa. Um arranjo que equilibrasse a regulação
direta, defendida por política intervencionista, e a autorregulação, defendida por uma política
neoliberal. Um arranjo que pudesse abraçar o envolvimento de sociedade plural, com diferentes

584
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris.2019, p. 113.
585
MARSDEN, Christopher T. The regulatated end of internet Law, and the return to computer and information
law? Em: After the Digital Tornado Networks, Algorithms, Humanity, Cambridge University Press. 2020, pp. 35
– 57. Disponível em: https://www.cambridge.org/core/books/after-the-digital-tornado/regulated-end-of-internet-
law-and-the-return-to-computer-and-information-law/F7B8DFAC0E3993179FF11093BF14B669 Acesso em
10/06/2022.
586
Para melhor compreensão das necessidades do Estado Regulador Contemporâneo veja a subseção “5.1.2”.
587
Ou como colocam alguns autores, Estado Pós-Moderno. Por todos, CHEVALLIER, Jacques. O Estado pós-
moderno. Tradução de Marçal Justen Filho. Belo Horizonte: Fórum, 2009.
185

grupos e interesses distintos, das pessoas jurídicas privadas que representassem o setor, e
também do próprio Estado, como garantidor dos direitos humanos e valores democráticos.
A corregulação, consoante explicitado por Gustavo Binenbojm, é um arranjo
institucional “fundado na divisão de tarefas e responsabilidades entre o Estado, agentes
regulados e partes interessadas, cuja concretização se dá, formalmente, por meio de delegação
de tarefas pelo Poder Público, mediante fixação de parâmetros sob controle estatal” 588. É uma
forma dos atores privados concretizarem os princípios ou parâmetros estabelecidos pelo Estado,
através de lei ou regulamento, mas sob a fiscalização de um órgão ou entidade estatal.
Esse arranjo permite que as múltiplas partes interessadas (multistakeholders), com
diversos interesses, sejam declaradas como partes do cenário institucional da regulação, o que
resulta em maior legitimidade para as políticas de governança, ideal para um regime
policêntrico por ser uma proposta mais democrática.
A corregulação tenta combinar o melhor da competência de cada um dos atores
envolvidos, que são a interdependência, representatividade, experiência e capacidade
operacional589, deixando para trás a simples possibilidade de uma escolha binária entre não-
regulação versus regulação estatal.
Esse novo arranjo institucional foi identificado como uma nova pespectiva nos debates
sobre “nova governança”590, aproximadamente, em 1990, e foi desenvolvido com mais força
na Europa. Ele guarda relação com as melhores práticas adotadas na teoria da regulação, tal
como a regulação responsiva 591 e o direito reflexivo592. Por isso, não é de se surpreender que
uma das primeiras utilizações desse modelo na Europa foi através da introdução de um
documento sem cunho normativo sobre standards de como legislar melhor, o Inter-Institutional
Agrement on Better law-making (IIA), oficialmente introduzido em 2003593.

588
BINENBOJM, Gustavo. Poder de Polícia, ordenação, regulação: transformações político-jurídicas,
econômicas e institucionais do direito administrativo ordenador. 3 ed. Belo Horizonte: Fórum, 2020, p.325.
589
PAPAEVANGELOU, Charilaos. The existential stakes of platform governance: a critical literature review
[version 2; peer review: 3 approved] Open Research Europe 2021, 1:31, p. 04. Disponível em:
https://doi.org/10.12688/openreseurope.13358.2 Acesso em 10/04/2022.
590
MARSDEN, Christopher T., Internet co-regulation and constitutionalism: Towards European judicial review,
International Review of Law, Computers & Technology, 26:2-3, 211-228, 2012, p. 01. DOI:
10.1080/13600869.2012.698450 Disponível em:
https://www.tandfonline.com/doi/abs/10.1080/13600869.2012.698450 Acesso em 10/04/2022. Trecho original:
Co-regulation is often identified with the rise of the ‘new governance’ in the 1990s.
591
AYRES, Ian; BRAITHWAITE, Jonh. Responsive Regulation. Transcending the deregulation debate.
Oxford: Oxford University Press, 1992. BLACK, Julia. Procedimentalizando a Regulação in Regulação
Econômica e Democracia: O Debate Europeu. Paulo Todescan Lessa Mattos (coordenação), 2ª edição revista,
São Paulo, Editora Revista dos Tribunais, 2017 (Coleção Capitalismo & Democracia), páginas 133 a 155.
592
GUERRA, Sérgio. Discricionariedade, Regulação e Reflexividade - Uma Nova Teoria Sobre as Escolhas
Administrativas, 4ª edição revista e atualizada, Belo Horizonte, Fórum, 2017, páginas 387 a 410.
593
MARSDEN, Christopher T. The regulatated end of internet Law, and the return to computer and information
law? Em: After the Digital Tornado Networks, Algorithms, Humanity, Cambridge University Press. 2020, pp. 35
186

Em 2021, a Comissão Europeia manteve a corregulação como uma opção de


instrumento político no documento elaborado (toolbox) para complementar seu Guia sobre
como legislar melhor. No referido texto, a corregulação é tratada como soft regulation, ao lado
da autorregulação, para ser utilizada quando uma análise de subsidiariedade e
proporcionalidade indicarem que não é necessário lançar mão dos instrumentos tradicionais da
regulação (tal como a lei ou regulamento) para resolver um problema. A corregulação é assim
definida:

Um mecanimos através do qual o legislador da União Europeia confia a


realização de objetivos políticos específicos estabelecidos na legislação ou
outro documento político às partes reconhecidas no setor (como operadores
econômicos, parceiros sociais, organizações não governamentais, organismos
de normalização ouassociações). O reconhecimento desse arranjo público-
privado pode ser feito por meio de acordos de cooperação ou na legislação da
União. Nessa abordagem regulatória 'leve', as iniciativas políticas relevantes
estabelecem as principais condições, objetivos, prazos, mecanismos de
implementação (se relevante), os métodos de monitoramento da aplicação da
legislação e quaisquer sanções. A corregulação pode combinar as vantagens
da natureza vinculativa da legislação com uma abordagem flexível de
autorregulação da implementação que se baseia na experiência das partes
interessadas e pode promover a inovação. A corregulação pode eliminar as
barreiras para o mercado único, simplificar regras e pode ser implementada de
maneira rápida e flexível594.

– 57, p. 51. Disponível em: https://www.cambridge.org/core/books/after-the-digital-tornado/regulated-end-of-


internet-law-and-the-return-to-computer-and-information-law/F7B8DFAC0E3993179FF11093BF14B669
Acesso em 10/04/2022. No referido documento, o qual, hoje, já foi substituído, trazia uma definição para
corregulação: Item 18: “Entende-se por corregulação o mecanismo pelo qual um ato legislativo comunitário atribui
a realização dos objetivos definidos pela autoridade legislativa às partes envolvidas reconhecidas no domínio em
causa (nomeadamente os operadores econômicos, os parceiros sociais, as organizações não governamentais ou as
associações). Tal mecanismo pode ser utilizado com base em critérios definidos no ato legislativo para assegurar
a adaptação da legislação aos problemas e aos setores em causa, para aliviar o trabalho legislativo, concentrando-
se nos aspectos essenciais, e para aproveitar a experiência das partes envolvidas”. O item 20 prevê que as partes
afetadas podem celebrar acordos voluntários para determinar as modaidades práticas, mas esses acordos devem
ser transmitidos à autoridade legislativa para que se examine a conformidade dos projetos de acordo com a
legislação. INTERINSTITUTIONAL AGREEMENT BETWEEN THE EUROPEAN PARLIAMENT, THE
COUNCIL OF THE EUROPEAN UNION AND THE EUROPEAN COMMISSION. Better Law-Making. OJ C
321, 31.12.2003. Item 18. Disponível em: https://eur-lex.europa.eu/legal-
content/PT/TXT/PDF/?uri=CELEX:32003Q1231(01)&from=EN Acesso em 10/05/2022. Hoje o ato não
legislativo em vigor é o sob o nº 512, OJ, de 13.04.2016. Disponível em: https://eur-lex.europa.eu/legal-
content/EN/TXT/?uri=CELEX%3A32016Q0512%2801%29 Acesso em 10/05/2022.
594
COMISSÃO EUROPEIA. Better Regulation´toolbox. 2021. Disponível em:
file:///C:/Users/user/Downloads/toolbox-nov_2021_BETTER%20REGULATION.-1-134.pdf Trecho original:
Co-regulation is a mechanism whereby the Union Legislator entrusts the attainment of specific policy objectives
set out in legislation or other policy documents to parties which are recognised in the field (such as economic
operators, social partners, non-governmental organisations, standardisation bodies or associations). Recognition
of such public-private arrangements may be done through cooperation agreements or in Union legislation. Under
this ‘light’ regulatory approach, the relevant policy initiatives establish the key boundary conditions, objectives,
deadlines, mechanisms for implementation (if relevant), the methods of monitoring the application of the
legislation and any sanctions. Co-regulation can combine the advantages of the binding nature of legislation with
a flexible self-regulatory approach to implementation that draws on the experience of the parties concerned and
187

Como pontos positivos da cooperação entre os atores promovida na corregulação estão


a transparência e o grau de segurança jurídica que ela pode oferecer, ao mesmo tempo em que
incentiva a inovação ao permitir uma abordagem mais flexível de implementação da legislação.
Conforme apontado por Gustavo Binenbojm595, pode-se observar que as normas consentidas,
com participação procedimental, podem ser mais eficazes do que as aquelas impostas
unilateralmente pelo Estado.
Esse tipo de arranjo também permite que os regulados usem sua experiência para
projetar e implementar suas próprias soluções, amenizando, assim, a assimetria regulatória
entre reguladores e regulados (problema enfrentado na regulação direta). No entanto, para que
esse arranjo seja legítimo é preciso grantir que haja representatividade das partes
interessadas596, evitando-se a formação de cartéis na regulação, bem como é preciso que seja
implementado sistemas de monitoramento e avaliação constante597. Nas palavras de Clara
Keller:

Nesses setores, a sua vantagem maior é a garantia de algum grau de segurança


jurídica (provida pela base legal) a um espaço interpretativo aberto para
desenvolvimento da inovação e abordagens mais flexíveis. Isso permite a
determinação de critérios e implementação de soluções pensadas pelos
agentes regulados, enquanto os princípios da política pública, bem como
mecanismos de controle e transparência, são vinculados à legislação
primária598.

No que se refere à regulação das redes sociais, conforme já colocado ao longo deste
trabalho, os Estados, de uma maneira geral, adotaram uma política evasiva, deixando a
regulação ocorrer pelos próprios atores regulados. Nas últimas décadas, no entanto,
questionamentos sobre a legitimidade para o exercício dessa regulação surgiram em razão das
violações aos direitos humanos. Movimentos a favor de uma intervenção estatal surgiram, mas,

can foster innovation. Co-regulation can remove barriers to the single market, simplify rules and can be
implemented flexibly and quickly.
595
BINENBOJM, Gustavo. Poder de Polícia, ordenação, regulação: transformações político-jurídicas,
econômicas e institucionais do direito administrativo ordenador. 3 ed. Belo Horizonte: Fórum, 2020, p.328.
596
Neste ponto, pode-se aplicar toda a discussão em torno da crítica já trazida no ponto da governança
multissetorial.
597
MARSDEN, Christopher T., Internet co-regulation and constitutionalism: Towards European judicial review,
International Review of Law, Computers & Technology, 26:2-3, 211-228, 2012. DOI:
10.1080/13600869.2012.698450. Disponível em:
https://www.tandfonline.com/doi/abs/10.1080/13600869.2012.698450 Acesso em 10/04/2022.
598
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade e o papel do
Estado. Rio de Janeiro: Lumen Juris, 2019, p. 182.
188

de maneira geral, concorda-se que é necessário um modelo de regulação mais flexível e


favorável à inovação, o que se adequada à proposta de corregulação.
Essa tentativa de mesclar os arranjos de regulação, trazendo as formas privadas e
públicas para uma conversa, representa um desejo de aplicar às formas privadas de
autorregulação as exigências de participação, transparência e accountability, próprias da
regulação estatal599. Dentro desse espectro de interações entre Estado e outros atores privados,
a corregulação não é a única nuance possível.
Nessa perspectiva, Gustavo Binenbojm salienta que a corregulação é uma espécie de
um arranjo maior, o da autorregulação regulada. Segundo o referido autor, a autorregulação
regulada estabelece “o conjunto de arranjos em que a ordenação é exercida predominantemente
por entidades privadas, com variações entre si quanto à forma, momento e intensidade em que
se perfaz o controle ou a supervisão estatal”600.
Outros exemplos citados pelo referido autor como espécies do gênero autorregulação
regulada, seria a autorregulação por integração, quando ocorre uma ligação entre as
competências privadas e públicas numa única entidade privada de autorregulação, ou a
autorregulação por monitoramento, quando a entidade autorreguladora tem amplos poderes
normativos, porém submetida a controle prévio ou posterior pelo Poder Público, à luz da lei ou
regulamento. No primeiro caso, forma-se uma organização híbrida, que opera em um espaço
público não-estatal. É o caso, por exemplo, do Operador Nacional do Sistema (ONS) do setor
elétrico601 – entidade privada com representantes dos setores público, sociedade civil e
regulados. No segundo caso, a função do Estado ocorre através de fiscalizações ou pela
imposição de condições, suspensivas ou resolutivas, à regulação privada602.
A escolha do arranjo institucional deve-se levar em consideração as possibilidades
práticas das instituições para cooperar com o Poder Público e a postura do setor regulado em
suas ações, como, por exemplo, a adoção de mecanismos de transparência e garantias de
respeito aos direitos do usuário/consumidor nos serviços oferecidos. A intensidade da

599
BINENBOJM, Gustavo. Poder de Polícia, ordenação, regulação: transformações político-jurídicas,
econômicas e institucionais do direito administrativo ordenador. 3 ed. Belo Horizonte: Fórum, 2020, p. 324.
600
BINENBOJM, Gustavo. Poder de Polícia, ordenação, regulação: transformações político-jurídicas,
econômicas e institucionais do direito administrativo ordenador. 3 ed. Belo Horizonte: Fórum, 2020, p. 325.
601
BRASIL, Lei 10.848/2004, artigo 11 que alterou a Lei 6.648/1998. Dispõe sobre a comercialização de energia
elétrica, altera as Leis nºs 5.655, de 20 de maio de 1971, 8.631, de 4 de março de 1993, 9.074, de 7 de julho de
1995, 9.427, de 26 de dezembro de 1996, 9.478, de 6 de agosto de 1997, 9.648, de 27 de maio de 1998, 9.991, de
24 de julho de 2000, 10.438, de 26 de abril de 2002, e dá outras providências. Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2004-2006/2004/lei/l10.848.htm Acesso em 23/06/2022.
602
BINENBOJM, Gustavo. Poder de Polícia, ordenação, regulação: transformações político-jurídicas,
econômicas e institucionais do direito administrativo ordenador. 3 ed. Belo Horizonte: Fórum, 2020, pp. 327-
328.
189

intervenção estatal deve ser suficiente para garantir a participação, transparência e


accountability no setor regulado.
Por isso, considerando os pontos ressaltados, algumas propostas de legislação acerca da
regulação de conteúdo produzido pelos usuários nas redes sociais propõe a adoção da
corregulação como o arranjo institucional mais adequado, o qual também se considera neste
trabalho como o mais adequado para o modelo brasileiro. Nos próximos tópicos, abordaremos
duas delas, a Online Safety Bill e o Digital Service Act.

5.4.3.1 Reino Unido: A Lei de Segurança Online (Online Safety Bill)

A Lei de segurança online, o Online Safety Bill (no original), é um projeto de lei do
Reino Unido, publicado em maio de 2021, que sucedeu a proposta regulatória integralizada no
“Online Harms White Paper”, publicado em abril de 2019. A proposta foi elaborada em razão
da crescente preocupação em tornar o espaço digital um ambiente seguro para os usuários e
passou por um grande debate na sociedade civil, após um longo período de consulta pública,
ocasião em que foram emitidas duas respostas pelo Governo Britânico – a primeira, provisória,
em fevereiro de 2020, e a segunda, completa, em dezembro de 2020603.
O objetivo do projeto de lei é estabelecer um dever de cuidado às empresas que
hospedam conteúdos gerados pelo usuário ou que facilitam a interação pública ou privada entre
usuários. Estão incluídas nesse escopo as plataformas de mídia social, sites de armazenamento
em nuvem, plataformas de compartilhamentos de vídeos, fóruns online, videogames que
permitam a interação do usuário e mercados online. As ferramentas de busca também estão
inclusas no âmbito de aplicação da futura lei, apesar de não hospedarem conteúdo pelo usuário
diretamente604.
O raciocínio contido na proposta de legislação é que os provedores de serviço devem
ser vistos como responsáveis pelo espaço digital público que criaram. Assim como há deveres
de cuidado para os proprietários em relação às pessoas que ocupam seus espaços, empregadores

603
WOODHOUSE. John. Regulating Online harms. House of Commons Library. 15 de março de 2022.
Disponível em: https://researchbriefings.files.parliament.uk/documents/CBP-8743/CBP-8743.pdf Acesso em
10/04/2022.
604
WOODHOUSE. John. Regulating Online harms. House of Commons Library. 15 de março de 2022.
Disponível em: https://researchbriefings.files.parliament.uk/documents/CBP-8743/CBP-8743.pdf Acesso em
10/04/2022.
190

pelos seus colaboradores, deve existir um dever de cuidado para as plataformas digitais para
com seus usuários. Esse dever de cuidado parte do princípio de que os provedores de serviço e
mecanismos de busca devem tomar medidas relacionadas aos conteúdos ou atividades danosas
espraiados no espaço digital, podendo optar pelo meio mais eficiente para o fim seja alcançado.
Esse dever de cuidado se traduz em deveres para realização de avaliação de risco de
conteúdo ilegal e prejudicial (no caso de grandes plataformas); para tomar medidas
proporcionais a fim de mitigar e gerir os riscos à danos a indivíduos, de acordo com as
indicações feitas nas avaliações de risco, devendo, quando for o caso, minimizar a presença do
conteúdo ilegal e prejudicial (no caso de grandes plataformas) na rede; para respeitar os direitos
à liberdade de expressão e privacidade; para reportar denúncias e reparações dos usuários; e,
para manter registros e realizar revisões (capítulo 2, cláusula 5.2, e capítulo 3, cláusula 17.2 do
projeto de lei605).
Como parte do sistema de surpevisão, essa lei impõe regras sobre transparência, através
da publicação de relatórios, e traz a previsão da existência de um órgão regulador independente,
já estabelecido e com experiência, a Office of Communications (conhecida como OFCOM -
autoridade reguladora britânica para os serviços de radiofusão, telecomunicações e correio),
onde sua principal função será melhorar a segurança dos usuários no ambiente online. Sua
nomeação foi justificada pela forte reputação internacional e profunda experiência em ponderar
a prevenção de danos com o direito à liberdade de expressão, estando apta a garantir um
ambiente regulatório favorável ao crescimento da economia e inovação606.
Na tendência da regulação que está ocorrendo na Europa, caberá ao Órgão Regulador a
elaboração de Códigos de Conduta a serem seguidos pelas empresas. Esses códigos serão
responsáveis por estabelecer processos e sistemas a serem adotados para que as empresas
considerem como cumprido seu dever de cuidado e podem incluir em seu corpo abordagens
diferenciadas para a moderação dos vários tipos de conteúdo identificados pela lei, sistemas de
avaliação de risco de conteúdo, sistemas de governança e outras ferramentas que o órgão
regulador julgar relevante607. Como os Códigos não são vinculativos, caso, elas não cumpram
o determinado por eles, precisam demonstrar que adotaram uma abordagem, igualmente, eficaz.

605
DEPARTMENT FOR DIGITAL, CULTURE, MEDIA & SPORT AND HOME OFFICE. Draft Online Safety
Bill. The draft Online Safety Bill establishes a new regulatory framework to tackle harmful content online. 2021.
Disponível em: https://www.gov.uk/government/publications/draft-online-safety-bill Acesso em 10/01/2022.
606
DEPARTMENT FOR DIGITAL, CULTURE, MEDIA & SPORT AND HOME OFFICE. Online Harms White
Paper: Full Government Response to the consultation, 2020, p.12. Disponível em:
https://www.gov.uk/government/consultations/online-harms-white-paper Acesso em 10/01/2022.
607
Como exemplo, tem-se o Código de Práticas sobre exploração sexual e abuso de crianças e o Código de Práticas
sobre conteúdo e atividade terrorista online. Os códigos mencionados estão disponíveis no sítio eletrônico do
Governo britânico. DEPARTMENT FOR DIGITAL, CULTURE, MEDIA & SPORT AND HOME OFFICE.
191

Também caberá a OFCOM estabelecer práticas de transparência, confiança e prestação


de contas, além do oferecimento de mecanismos aos usuários para denunciar conteúdos
prejudiciais e de apelação das decisões tomadas. Ainda, ela será responsável por estabelecer
uma estratégia de educação digital a fim de proporcionar mais consciência crítica aos usuários.
Para o enforcement dessas competências, a agência poderá aplicar multas de até 18
milhões de euros ou 10% do faturamento anual da empresa, requerer que terceiros retirem o
acesso dos principais serviços que viabilizam a plataforma a operar no Reino Unido interromper
o funcionamento das empresas no Reino Unido. Para os responsáveis pela alta administração
da empresa, o governo reservou-se a possibilidade de, futuramente, aplicar sanções criminais
para os casos de falhas na resposta dos pedidos de informações formulados pela OFCOM. Essa
proposta poderá entrar em vigor após dois anos que o novo quadro regulatório estiver
implementado.

5.4.3.2 A Lei de Serviços Digitais Europeia (Digital Service Act – DSA).

A Lei dos Serviços Digitais (Digital Service Act – DSA)608 faz parte da estratégia de
regulação dos serviços digitais da Comissão Europeia apresentada ao Parlamento Europeu e ao
Conselho Europeu em 15 de dezembro de 2020 para ser implementada em 2022. Juntamente
com a Lei de Marketing Digital (Digital Market Act – DMA), o plano criado para garantir um
espaço digital seguro é destinado a governança dos serviços digitais e tem como escopo a
promoção dos direitos fundamentais nos serviços digitais e da inovação tecnológica por meio
do estabelecimento de regras comuns para fornecedores de serviços digitais no mercado
europeu a fim de que se mantenha um ambiente virtual justo e aberto.
A tão esperada reforma regulatória é mencionada como necessária para equilibrar a
moderação de conteúdo e preservação do direito à liberdade de expressão, poder de mercado e
competição que envolvem os serviços digitais na União Europeia (Comissão Europeia, 2020-

Online harms: interim codes of practice. These codes provide guidance for companies to help them understand
how to mitigate the risks from online terrorist content and activity and child sexual exploitation and abuse.
Dezembro de 2020. Disponível em: Online harms: interim codes of practice - GOV.UK (www.gov.uk) Acesso em
10/06/2022.
608
EUROPEAN COMMISSION. Proposal for a Regulation on a Single Market For Digital Services (Digital
Services Act). 15 de dezembro de 2020. Disponível em: https://eur-lex.europa.eu/legal-
content/en/TXT/?qid=1608117147218&uri=COM%3A2020%3A825%3AFIN Acesso em 30/06/2022.
192

a), que são regulados, hoje, pela Diretiva de Comércio Eletrônico (E-commerce Directive) e
Diretiva de Serviços de Mídia Audiovisual (Audiovisual Media Services Directive).
Essa reforma também se mostra necessária em um cenário em que as respostas nacionais
que emergiram dos Estados-membros para responder aos crescentes impactos e riscos causados
pelas atividades das plataformas digitais são divergentes. A liberdade de oferecer serviços e
produtos em toda a União Europeia é uma das quatro principais liberdades, além daquelas
relacionadas aos bens, pessoas e capital, e o conflito entre as várias legislações internas
atrapalha a formação de um mercado único.
Essas disparidades podem gerar insegurança jurídica e obstáculos para a prestação do
serviço de conteúdo digital. Por esse motivo, a opção da Comissão Europeia foi o
estabelecimento de um regulamento, o qual vincula todos os países-membros, e não uma
diretiva, conforme antes adotado609.
A lei dos serviços digitais está estruturada da seguinte forma: (i) Capítulo I: estabelece
seu escopo e define os conceitos chaves que são utilizados pela lei; (ii) Capítulo II: estabelece
a responsabilidade dos fornecedores de serviços intermediários, com base em padrões
anteriores definidos pela Diretiva sobre o comércio eletrônico; (iii) Capítulo III: estabelece as
obrigações de diligência para um serviço online transparente e seguro, distinguindo os
prestadores de serviços intermediários em geral; (iv) Capítulo IV: trata da implementação do
DSA e cooperação nacional e supranacional, bem como sanções e fiscalização, estabelecendo
novos órgãos da administração pública como os Coordenadores de Serviços Digitais610.
O objetivo da lei é proteger o ambiente digital do conteúdo ilegal, que é definido pelo
artigo 2º (g) como “qualquer informação que, por si só ou por referência a uma atividade,
incluindo a venda de produtos ou prestação de serviços, não está em conformidade com o direito
aplicado pela União Europeia ou Estado-membro”611.
Essa definição inclui material de abuso infantil, discurso de ódio, difamação, dentre
outros, e difere-se do conceito de conteúdo prejudicial, aquele que, apesar de causar danos aos
indivíduos e sociedade em geral, não é ilegal, como, por exemplo, a desinformação. Contudo,
diversos Estados-membros, tais como Áustria, Croácia, Chipre, República Tcheca, França,

609
Ó FATHAIGH, Ronan; HELBERGER, Natali; APPELMAN, Naomi. The perils of legally defining
desinformation. Internet Policy Review. 2021. v. 10. i.4.. DOI: https://doi.org/10.14763/2021.4.1584 Acesso em:
10/04/2022.
610
CAUFFMAN, Caroline, GOANTA, Catalina. A New Order: The Digital Services Act and Consumer
Protection. European Journal of Risk Regulation, 2021, 12(4), pp. 758-774. Disponível em:
https://www.cambridge.org/core/journals/european-journal-of-risk-regulation/article/new-order-the-digital-
services-act-and-consumer-protection/8E34BA8A209C61C42A1E7ADB6BB904B1 Acesso em: 10/04/2022.
611
Comissão Europeia. Proposta para Regulação de um mercado único para os serviços digitais (Lei dos Serviços
Digitais). 2020. https://eur-lex.europa.eu/legal-content/PT/TXT/PDF/?uri=CELEX:52020PC0825&from=pt
193

Grécia, Hungria, Malta, Romênia e Eslováquia, implementaram, em suas legislações nacionais,


disposições penais que abarcam a desinformação como conteúdo ilegal612. Tal desenho
legislativo, todavia, não é o recomendado pelo Relator Especial da ONU para Liberdade de
Expressão e Opinião613.
A participação das empresas na regulação pode ser visualizada através da previsão de
que a Comissão Europeia irá incentivar e facilitar a elaboração de Códigos de Conduta que
contribuam para o cumprimento do Regulamento, especialmente, para o enfrentamento dos
riscos sistêmicos mapeados nas avaliações. As partes interessadas e a sociedade civil podem
ser convidadas a participar da elaboração desses Códigos, com celebração de compromissos
para tomar medidas específicas de atenuação de riscos, bem como um quadro de comunicação
regular de informações sobre eventuais medidas tomadas e os seus resultados (artigo 35 da
Lei de Serviços Digitais).
Essas práticas e outras, como por exemplo, a de entidades que estabeleçam padrões
voluntários sobre aspectos técnicos a serem seguidos pelas plataformas, como o envio
eletrônico de notificações por sinalizadores de confiança, indica que o Regulamento europeu
forneceu um importante papel a ser cumprido pelos entes privados614. Essa participação se
mostra presente no estabelecimento da conformidade das leis e dos próprios termos de uso. O
documento também prevê, como forma de supervisão do cumprimento de suas obrigações e
dos compromissos assumidos nos termos do Código de Conduta a submissão de seus
processos à uma auditoria independente privada.
A participação do objeto da regulação na implementação dos objetivos públicos mostra
a adoção da corregulação como arranjo institucional para a regulação dos serviços digitais.
Há uma tendência global de que entidades privadas tomem parte da formulação das regras
aplicáveis à prestação do seu serviço, dentro dos limites delimitados pelo Poder Público.

612
Ó FATHAIGH, Ronan; HELBERGER, Natali; APPELMAN, Naomi. The perils of legally defining
desinformation. Internet Policy Review. 2021. v. 10. i.4.. DOI: https://doi.org/10.14763/2021.4.1584 Acesso em:
10/04/2022.
613
KAYE, D. Promotion and protection of the right to freedom of opinion and expression. Relatório especial
oferecido na Assembleia Geral das Nações Unidas, 2019. A/74/486. Disponível em:
https://www.ohchr.org/Documents/Issues/Opinion/A_74_486.pdf Acesso em: 10/04/2022 e KAYE, D.
Promotion and protection of all human, civil, political and cultural rights, including the right to development.
Relatório especial oferecido na Assembleia Geral das Nações Unidas, 2018. A/HRC/38/35. Disponível em:
https://documents-dds-ny.un.org/doc/UNDOC/GEN/G18/096/72/PDF/G1809672.pdf Acesso em: 10/04/2022.
614
CAUFFMAN, Caroline, GOANTA, Catalina. A New Order: The Digital Services Act and Consumer
Protection. European Journal of Risk Regulation, 2021. 12(4), 758-774. doi:10.1017/err.2021.8. Disponível em:
https://www.cambridge.org/core/journals/european-journal-of-risk-regulation/article/new-order-the-digital-
services-act-and-consumer-protection/8E34BA8A209C61C42A1E7ADB6BB904B1
194

Como pontos positivos dessa atuação, as plataformas possuem acesso aos dados
necessários e estão em melhor posição para saber os problemas causados por elas, além da
maneira mais econômica para remediá-los. Por outro lado, a crítica que faz é que as auditorias
privadas são empresas privadas e agem com base no lucro, podendo não apresentar
independência em relação as empresas que auditam. O melhor seria existir que esses processos
de auditoria contassem com uma supervisão pública para garantir que os direitos fundamentais
e devido processo sejam, de fato, aplicados.
A fim de lidar com esse problema, a Lei dos Serviços Digitais exige que as auditorias
tenham experiência comprovada na área de gestão de risco, além de competência, capacidades
e ética profissional comprovadas, com base, em particular, na adesão a códigos de prática ou
padrões apropriados (artigo 28 §2 da Lei de Serviços Digitais). No entanto, não há uma
estrutura de supervisão específica para os auditores envolvidos615.
Para finalizar, a Lei dos Serviços Digitais traz um sistema de fiscalização das
atividades desenvolvidas pelas plataformas em relação ao cumprimento das normas que pode
ser chamado de digital enforcement. Neste sistema, cada Estado-membro designará um
Coordenador de Serviços Digitais, que atuará de forma independente das outras autoridades
públicas estatais, cuja competência será fixada de acordo com as plataformas que operem na
sede do seu Estado. A lei também estabelece um novo órgão: o Conselho Europeu de Serviços
Digitais. Este órgão é igualmente independente. Tanto o Coordenador como o Conselho,
enquanto órgãos reguladores, possuem poderes de investigação e enforcement da legislação,
o que inclui, a requisição e produção de documentos e informações. No caso do
descumprimento das medidas impostas pela lei, eles podem ordenar a cessação da infração,
impor medidas provisórias e aplicar multas no percentual de 6% da receita anual das
plataformas ou volume de negócios do provedor de serviços intermediários, por exemplo
(artigo 42 da Lei de Serviços Digitais).

615
CAUFFMAN, Caroline, GOANTA, Catalina. A New Order: The Digital Services Act and Consumer
Protection. European Journal of Risk Regulation, 2021. 12(4), 758-774. doi:10.1017/err.2021.8. Disponível em:
https://www.cambridge.org/core/journals/european-journal-of-risk-regulation/article/new-order-the-digital-
services-act-and-consumer-protection/8E34BA8A209C61C42A1E7ADB6BB904B1 Acesso em: 10/04/2022.
195

6 O PAPEL DO ESTADO NA REGULAÇÃO DE PLATAFORMAS DE REDES


SOCIAIS

A moderação de conteúdo, ferramenta utilizada pelas plataformas de redes sociais para


combater comportamentos maliciosos e tornar o espaço digital saudável e atrativo ao usuário,
toma decisões a respeito dos conteúdos que permanem na rede, afetando direitos que envolvem
as liberdades dos usuários.
A proteção aos direitos fundamentais, como dever do Estado, legitima ou até mesmo
exige que medidas jurídicas sejam tomadas, não apenas para a proteção do indivíduo
considerado em sua particularidade, mas também para preservar o desenvolvimento dos valores
democráticos na sociedade. Essa, portanto, é a principal justificativa para que as plataformas de
redes sociais sejam reguladas. A regulação deve ser utilizada como um mecanismo para a
proteção e promoção dos direitos e valores do Estado Democrático de Direito.
A regulação, contudo, não deve ocorrer por formas de comando e controle (como na
regulação direta) ou de forma livre (como na autorregulação). As duas espécies de arranjo não
se mostram como estruturas proporcionais, no que tange a sua adequação, para a regulação da
camada de conteúdo da internet. A primeira estrutura, conforme analisado, concentra os
mecanismos de controle no Estado, que, por sua vez, apresenta limites para uma atuação
eficiente. O processo legislativo lento não permite que ele alcance, com atualidade, as
modificações introduzidas por novas tecnologias, o que se complica ainda mais com a falta de
informação e expertise sobre a prática das operações no desenvolvimento da atividade
empresarial. Ainda, considerando o objeto da regulação, conteúdo em redes sociais, não é
desejável que o controle permaneça exclusivamente nas mãos do Estado para que se evite
arbitrariedades já ocorridas no passado.
A autorregulação, por outro lado, apresenta déficits de supervisão pública, deixando às
plataformas a proteção dos direitos fundamentais, o que, conforme já analisado não foi uma boa
opção. A mudança da concentração de poder (do Estado para as empresas privadas) não
solucionou os problemas, mas aumentou as assimetrias informacionais decorrentes do
desenvolvimento da atividade.
Partindo da premissa de que as plataformas digitais são atores indispensáveis para o
funcionamento eficiente do ecossistema regulatório do conteúdo nas redes sociais, mas também
considerando a necessidade de uma supervisão pública nos procedimentos adotados por elas no
196

processo de moderação, acredita-se que o melhor caminho para a regulação é a adoção de um


arranjo institucional corregulatório.
Após o desenvolvimento deste trabalho, portanto, estamos prontos para responder as
duas perguntas que nortearam essa pesquisa: o Estado, no Brasil, possui um papel a
desempenhar na regulação de conteúdo exercida pelas plataformas digitais de redes sociais?
Caso positivo, qual o instrumento regulatório o Estado poderia utilizar para a regulação da
atividade de moderação de conteúdo online?

6.1 As formas de atuação do Estado na regulação de conteúdo

A participação do Estado na regulação da moderação de conteúdo pode ser realizada


pelos Poderes Legislativo, Judicário e Executivo. Embora o Poder Legislativo ainda
desempenhe um papel importante, através da promulgação de normas flexíveis, que trazem
normas fluidas para a realização dos objetivos determinados pelas políticas públicas, conforme
colocado no capítulo 5616 deste trabalho, pode-se observar, hoje, a “administrativização da
Regulação”617, com mudança de foco do Poder Legislativo para o Administração Pública.
A par de tudo que foi exposto, não se pode mais dizer que a função do Executivo é
executar a norma legislativa618. A atividade legislativa não se apresenta mais como a tarefa
central do Estado, sendo tão essencial como ela a conformação das políticas públicas por um
Poder especializado – o Executivo, que se faz através do desempenho de múltiplas funções para
trazer resultados mais eficientes. Abandona-se práticas de um processo lento de elaboração
legislativa, nem sempre concluído de forma adequada, para se voltar a entrega de resultados
sociais, muitas vezes graves e urgentes619.
Caberia ao Poder Legislativo, então, desenvolver os parâmetros e diretrizes a serem
seguidos na regulação de conteúdo através de normas fluídas e de caráter geral, trazendo apenas
os princípios, valores e objetivos que a sociedade deseja alcançar com a regulação. A título de
exemplo, normas sobre transparência, respeito aos direitos fundamentais da liberdade de

616
Ver Subseção 5.1.2 “Do estado regulador contemporâneo”.
617
ARAGÃO. Alexandre Santos. Agências Reguladoras e a evolução do direito administrativo econômico.
3ed. Rio de Janeiro: Forense, 2013. pp. 99-103.
618
ACKERMAN, Bruce. Good-bye Montesquieu. Comparative Administrative Law. Susan Rose-Ackerman e
Peter L. Lindseth (org.). Edward Eugar Publishing. 2012.
619
ARAGÃO. Alexandre Santos. Agências Reguladoras e a evolução do direito administrativo econômico.
3ed. Rio de Janeiro: Forense, 2013. P. 103.
197

expressão, da privacidade, da proteção de dados e do devido processo, proibição de atividades


discriminatórias e práticas consideradas como injustas e enganosas ao consumidor, dentre
outras. Também caberia a ele criar uma nova Agência ou alterar a estrutura de uma já existente
com poderes normativos e fiscalizatórios, conforme será mais detalhado na subseção a seguir.
Além do Poder Legislativo, ao Poder Judiciário também é possível exercer a regulação
do conteúdo nas redes sociais. Na esfera individual, através de ações subjetivas é nítido que
esse Poder acabará conformando a atuação das plataformas a medida que decisões sobre o
assunto sejam proferidas. Nesses casos, contudo, não se vislumbra como a opção mais
adequada. Primeiro porque a proteção jurídica individual não é suficiente para afastar os riscos
engendrados pela moderação de conteúdo nas redes sociais, vez que há diversas questões que
não seriam levadas à análise do Poder Judiciário. Segundo porque os juízes não são dotados da
expertise necessária para questões técnicas que envolvem algoritmos, por exemplo. É
necessário um corpo multidisciplinar. Terceiro porque não haveria estrutura física que
suportasse todos os conflitos que seriam levados ao Poder Judiciário, o que se agrava pelo fato
de os julgamentos serem demorados e dispendiosos. E, por fim, haveria, ainda, o risco de
decisões contraditórias sobre a matéria, o que ocorre nos casos em o Poder Judiciário é chamado
a decidir sobre questões particulares.
Não se deve olvidar que também é possível, em tese, que o Poder Judiciário conforme
a atuação das plataformas digitais através de ações abstratas ajuizadas a título de controle de
constitucionalidade. Isso porque, em Estados Democráticos de Direito, como, por exemplo o
Brasil, um dos pilares dos freios e contrapesos é a possibilidade de revisão da ação política
legislativa pelo Poder Judiciário, assim como a promoção de uma determinada política estatal.
Conforme exposto por Hartmann620, o tribunal deve considerar se o nível de implementação de
um direito está razoavelmente de acordo com o dever exarado na Constituição, o que, caso
negativo, exige o desenvolvimento do conteúdo desse direito pela Corte Constitucional.
Sobre a regulação através do Poder Judiciário de questões relacionadas ao uso da
internet, pode-se mencionar, a título de exemplo, a atuação da Corte do Tribunal de Justiça
Europeia na regulação da Diretiva 95/45/CE, no precedente “Gonzáles vs Google Espanha”,

620
HARTMANN, Ivar A. M. A Right to Free Internet? On Internet Access and Social Rights. Journal of High
Technology Law, v. XIII, Pp. 362-429. 2013. P. 381-385. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2355900 O autor menciona que o Poder Judiciário deve ter o
cuidado para não ultrapassar a sua função primordial, deixando, apenas, para os casos em que o mínimo existencial
esteja envolvido ou outras situações excepecionais, a exigência de uma ação específica sobre política para um
determinado Governo.
198

que abrangia o direito à proteção de dados pessoais e a possibilidade de remoção ou


desindexação de conteúdo lesivo, conforme mencionado antes neste trabalho621.
Neste ponto, vale ressaltar algumas críticas a essa atuação. Conforme antes mencionado,
o Poder Judiciário deve ter o cuidado para não ultrapassar a sua função primordial de julgar,
deixando, apenas, para os casos em que o mínimo existencial esteja envolvido ou outras
situações excepecionais, a exigência de uma ação específica sobre política para um determinado
Governo, pois cabe a ele a escolha dos instrumentos e análise dos impactos práticos de sua
decisão. O Poder Executivo pode, em tese, possuir um melhor corpo técnico para analisar os
custos e benefícios sobre a adoção de uma política regulatória. Trata-se de uma função muito
especializada para um Poder que não fui constituído para esse fim.
Passa-se, então, a observar a sobrepujança do Poder Executivo, cabendo, portanto, a ele
a regulação sobre o conteúdo das plataformas de redes sociais. Isso não significa que se deve
optar por mecanismos regulatórios verticais (comando e controle), mas por instrumentos que
sejam eficientes e satisfaçam o interesse público com o menor ônus possível aos regulados.
Essa afirmação se aproxima da racionalidade de um arranjo corregulatório e responsivo, isto é,
que chama os regulados para participar da elaboração da regulação, dando a eles a oportunidade
de adotar medidas capazes de comprovar a observância e o cumprimento do ordenamento
jurídico.
Ao estabelecer que a lei regerá os princípios e a moldura da regulação de conteúdo é
importante atentar para algumas orientações da literatura. A título de exemplo, Feld622 traz uma
estrutura básica para a moderação de conteúdo. Dentre elas, algumas lições podem ser extraídas
para aplicação à legislação brasileira.
A primeira delas é sobre o exercício de um escrutínio rigoroso na análise da regulação
sobre a fala em respeito à liberdade de expressão. Para vencer a esse escrutínio a regulação
precisa servir a um convicente interesse público e estar estritamente adapatada para isso.
Adicionalmente, a lei que regula a fala precisa ser neutra em relação ao conteúdo. Conforme
pontuado por Feld, definir o que é “conteúdo neutro” é muito difícil, pois ao regular conteúdo,

621
Nesse caso, o Tribunal da União Europeia delegou a implementação do acórdão para os buscadores que operam
na União Europeia. Conforme trazido por Luca Belli, “cada buscador deve oferecer acesso a um formulário online
para permitir que os indivíduos peçam a desindexação de informações que lhes pertencem e que podem ser
consideradas inadequadas, não pertinentes ou que já não sejam pertinentes por causa do tempo decorrido”. BELLI,
Luca. STJ consagra direito ao esquecimento na Internet: o queisso significa? Proteção ao direito ao esquecimento
pode ser explorado indevidamente. JOTA. Maio de 2018. Disponível em: https://www.jota.info/coberturas-
especiais/liberdade-de-expressao/stj-consagra-direito-ao-esquecimento-na-internet-o-que-isso-significa-
20052018
622
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.122
199

já se escapa da neutralidade no sentido convencional. Por isso, conteúdo neutro deve ser
entendido como “não favorecendo ou desfavorecendo um discurso em razão do seu ponto de
vista”623. Como exemplo, o autor cita o banimento do discurso de “assédio” ou “ameaça”. Isso
não quer dizer que está fazendo um julgamento sobre uma ideia específica, se boa ou ruim. Para
ser neutra, a regulação precisa julgar se esses discursos causam medo ou algum estresse
emocional.
Seja qual for o corpo do regime regulatório proposto, é preciso considerar que o tema é
controverso e não existe uma única resposta certa para todas as questões que permeiam o
assunto. Por exemplo, a questão do anonimato nas redes sociais. Muito se tem debatido que se
essa possibilidade é uma ferramenta importante de proteção para os usuários ou um escudo para
agentes maliciosos. Na verdade, as duas posições estão corretas. Assim, a resolução dos
problemas sobre moderação de conteúdo requer uma regulação que, invarialmente, pode trazer
alguns resultados arbitrários. No entanto, conforme colocado por Feld, “ o valor de qualquer
estrutura é encontrado na sua contribuição geral, não nos casos extremos mais difíceis”624.
No que se refere aos instrumentos da regulação, o Estado dispõe de um vasto leque ao
seu dispor. A depender do caso concreto, pode-se utilizar, por exemplo, instrumentos da
concessão ou permissão, quando se trata de serviços públicos, de autorizações de
funcionamento, quando o caso for de atividades privadas de interesse público, ou se simples
autorizações prévias atavés do exercício do poder de polícia625. Esse trabalho defende que a
instituição de uma Agência Reguladora seria o instrumento mais adequado para regular as
plataformas de mídias sociais, o que não significa que esse modelo não possui desafios a serem
superados. No entanto, ele permite que a regulação seja retirada da esfera política, que pode ser
manchada por questões políticas-eleitorais, para uma entidade independente, que possa atender
aos fins públicos perseguidos pela regulação estatal. É o que será a seguir abordado.

623
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.124. Trecho original: “Content neutral in this sense
generally means not favoring or disfavoring speech because of its point of view”. Como exemplo, o autor cita o
banimento do discurso de “assédio” ou “ameaça”.
624
FELD. Harold. The Case for the Digital Platform Act: Market Structure and Regulation of Digital
Platforms. Roosevelt Institute. Public Knowledge. 2019, p.122. Trecho original: There is no single right answer
to any of these questions. Resolving them inevitably requires line-drawing, resulting in some arbitrary outcomes.
But the value of any framework is found in its overall contribution, not in the most difficult edge cases.
625
ARAGÃO. Alexandre Santos. Agências Reguladoras e a evolução do direito administrativo econômico.
3ed. Rio de Janeiro: Forense, 2013.pp 145-179.
200

6.2 A designação de uma Agência Reguladora para regular o conteúdo online

Quando se entende ser necessária uma maior rigidez e controle estatal de um


determinado setor, notadamente, um setor complexo que demanda muita expertise, o Congresso
pode criar uma agência reguladora. Essa escolha decorre das características que essa entidade
possui. Dentre a mais importante delas está a autonomia reforçada ou independência que
apresentam em relação aos Poderes centrais do Estado626. A escolha deste instrumento
regulatório significa que a política digital correspondente à moderação de conteúdo exercida
pelas plataformas digitais não estará vinculada ao Governo627 628.
No Brasil, as influências do Estado Regulador foram sentidas na Constituição de 1988,
que adotou o capitalismo como sistema de mercado, pautado na valorização do trabalho humano
e livre iniciativa, na forma dos artigos 1º e 170 da Constituição Federal. Ao Estado coube, então,
as funções de regulação das atividades através de fiscalização, incentivo e planejamento. Foi,

626
ARAGÃO. Alexandre Santos de. Agências Reguladoras e a evolução do direito administrativo econômico.
3 ed. rev. e atual. – Rio de Janeiro: Forense, 2013, p. 351.
627
Funções de Estado e funções de governo são diferentes. A primeira indica funções decorrentes das leis e da
Constituição, as quais devem ser observadas e executadas pela Administração Pública. A segunda se materializa
através das prioridades eleitas por um determinado plano de governo e depende da orientação política. MARQUES
NETO, Floriano Peixoto de Azavedo. Agências Reguladoras independentes: fundamentos e seu regime
jurídico. Belo Horizonte: Fórum, 2005, p.84. Essa diferença reflete a dificuldade que se tem nas democracias, em
razão do governo ser limitado pelo tempo, de se alcançar uma continuidade política. Isso porque, em razão da
alternância de poder, os políticos possuem poucos incentivos para desenvolverem políticas públicas de longo
prazo, cujos resultados virão após o término de seus mandatos. Uma solução a esse problema está na delegação de
políticas a instituições, como Banco Centrais e Agências Reguladoras. No entanto, em que pese essa orientação,
há estudos que indicam, nos EUA, que as políticas adotadas pelos reguladores seguem as preferências políticas
das comissões parlamentares, que possuem responsabilidade de supervisão das Agências. MAJONE,
Giandomenico. Do Estado Positivo ao Estado Regulador: Causas e consequências da mudança do modo de
governança. In: Regulação Econômica e Democracia: o debate europeu. Coordenação e tradução: Paulo
Todescan Lessa Mattos. 2 ed.rev. – São Paulo: editora Revista dos Tribunais. 2017.p. 69-71.
628
Um exemplo polêmico, de atuação duvidosa, sobre a regulação da moderação de conteúdo vinculada aos desejos
de um Governo foi a edição da MP1068/2021, que alterou o MCI. Isso porque ela foi editada em um Governo que
é constantemente alvo de críticas relacionadas à conteúdo prejudicial, muitas vezes moderados pelas plataformas
sociais. Assim, às vésperas das manifestações de 7 de setembro de 2021, o Presidente Jair Bolsonaro editou medida
provisória com o objetivo de conter a remoção de conteúdo da internet de maneira "imotivada e arbitrária" pelas
redes sociais, beneficiando, com esse ato, seus apoiadores. Conforme apontado por parte da mídia, “pelo momento
em que foi publicada, a MP foi interpretada pela oposição como uma maneira de proteger a disseminação de fake
news e propagar mensagens antidemocráticas”. https://noticias.r7.com/brasilia/devolucao-de-medidas-
provisorias-gera-divergencia-entre-congresso-e-constitucionalistas-15092021 Acesso em 10/04/2022. Veja
também: BRASIL, MP 1068 de 21 de setembro de 2021, que alterava a Lei nº 12.965, de 23 de abril de 2014, e
a Lei nº 9.610, de 19 de fevereiro de 1998, para dispor sobre o uso de redes sociais. Disponível em:
https://www.in.gov.br/en/web/dou/-/medida-provisoria-n-1.068-de-6-de-setembro-de-2021-343277275 Acesso
em 10/04/2022.
201

então, que se deu início a reestruturação do papel do Estado na economia, com implantação,
ainda que tímida629, do modelo norte-americano de Estado Administrativo630.
A finalidade da transformação e criação de entidades reguladoras independentes era
desfavorecer a concentração do poder político, com o estabelecimento de políticas favoráveis
aos Governos, para conceder planejamento e tecnicidade as decisões do Estado, desvinculadas,
portanto, das ações dos Governos631. A autonomia, ora mencionada, traz indepedência a essas
entidades, o que permite que essas agências consigam regular o mercado de forma eficaz,
entregando bons resultados para a sociedade, sem restar atrelada a velha política clientelista.
Criam-se, então, as Agências Reguladoras, autarquias, sob regime especial, dotadas de
autonomia financeira e administrativa. Essa independência decorre da necessidade da regulação
ocupar um espaço neutro e objetivo, capaz de definir um “justo equilíbrio” 632 entre os interesses
sociais. E, por serem independentes, as agências estão situadas fora do controle do Governo.
Essa emancipação é obtida pela concessão de garantias orgânicas (inamovibilidade dos
direigentes, mandato por tempo certo, gerência de seu próprio orçamento e estrutura, escolha
de seus membros, etc) e funcionais (eliminação de vínculos hierárquicos ou de tutela).
Outros argumentos que também podem ser utilizados a favor da criação de uma agência
é que dificilmente um usuário comum conseguirá, por exemplo, de forma eficaz, aferir o
cumprimento de eventuais normas ou diretrizes e o respeito aos direitos fundamentais nas
políticas internas adotadas pelas empresas. A uma porque são procedimentos extremamente
técnicos. A duas porque os recursos tecnológicos estão em constante evolução, pelo que
demandam constante monitoramento das bases normativas que orientam a atuação das
plataformas digitais de redes sociais.
Por essa razão é preciso que o Poder Legislativo elabore normas amplas, com o conteúdo
da política pública que se deseja alcançar, e delegue às Agências, um corpo dotado de
capacitação técnica, o poder de atingir esses objetivos. As normas funcionam melhor quando o

629
O plano apresentado pelo Governo do Presidente, à época, Fernando Henrique Cardoso, na prática, não
funcionou como o previsto em seu esboço, visto que a Administração Pública Indireta permaneceu vinculada ao
Executivo, ao contrário do que se pretendia, transformação das autarquias e fundações em agência independentes.
GUERRA, Sérgio. Separação de Poderes, Executivo Unitário e Estado Administrativo no Brasil. In: Teoria do
Estado Regulador/organizador Sérgio Guerra/Curitiba: Juruá,2017. V.3. p. 24-27.
630
GUERRA, Sérgio. Separação de Poderes, Executivo Unitário e Estado Administrativo no Brasil. In: Teoria do
Estado Regulador/organizador Sérgio Guerra/Curitiba: Juruá,2017. V.3. p. 24-27.
631
É importante asseverar que as agências independentes não atuam totalmente à margem da política, uma vez que
o presidente da autarquia será nomeado pelo Chefe do Poder Executivo, aprovado pelo Congresso. Ainda, ressalta-
se que as Agências sofrem o controle do Tribunal de Contas da União (TCU), órgão vinculado ao Poder
Legislativo.
632
CHEVALLIER, Jacques. O Estado pós-moderno. Tradução de Marçal Justen Filho. Belo Horizonte: Fórum,
2009. p.101.
202

regulador é capaz de entender o problema. Em uma sociedade complexa, em que múltiplos


conhecimentos são exigidos de diferentes áreas e normas decorrentes de vários microssistemas,
com diferentes estruturas decisórias incidem sobre o mesmo assunto, esse corpo profissional
deve ser formado por uma equipe multidisciplinar.
A título de exemplo, uma equipe com a expertise adequada poderá apurar o real alcance
e limite de uma determinada tecnologia. As plataformas digitais quando instadas a agir em prol
do usuário sempre justificam sua inércia em uma limitação técnica. No entanto, quando se trata
de alguma ação que retorne em mais dividendos para seus acionistas, essas limitações não
parecem ser um empecilho. Uma Agência independente poderia verificar a real capacidade de
cada plataforma, conferindo, inclusive, tratamento isonômico de acordo com o seu tamanho,
incentivando as ações das empresas alinhadas com a sua possibilidade e respeitar o segredo
comercial.
Também é recomendado que seja um modelo centralizado, porque, conforme acima
mencionado, é preciso que seja investido recursos financeiros em especialização e na
capacitação professsional de alto nível. Essa unicidade concede mais segurança jurídica ao setor
privado, afastando a fragmentação da interpretação da lei por diversos órgãos diferentes. Um
modelo de agência único permitiria também o investimento no diálogo com instituições
internacionais, já que a regulação das plataformas de redes sociais é um tema transfronteiriço.
Seria adequado, portanto, que a Agência considerasse as boas práticas internacionais, como,
por exemplo, os princípios de Santa Clara, Manila ou outros pertinentes.
Duas funções que se destacam no modelo de agências: normativa especializada e de
fiscalização e monitoramento, de acordo com a competência atribuída pela lei de criação dessa
entidade. A função normativa permite que a atuação do setor público seja mais célere, com mais
especificidade e tecnicidade, distantes das disputas partidárias que rodam o Congresso
Nacional. Neste ponto, entretanto, cabe uma ressalva.
Em razão da existência da função normativa não se deve sacrificar os benefícios da
colaboração privada na regulação. Por isso, conforme estudado no capítulo anterior, o arranjo
corregulatório se mostra mais adequado. Uma atuação conjunta do setor público e do privado,
por exemplo, poderia estabelecer à Agência a função de fixar os parâmetros a serem controlados
na atividade das plataformas de redes sociais, nos limites legais, e de aprovar eventuais códigos
de conduta elaborados pelo setor privado com o objetivo de cumprir as obrigações legalmente
estabelecidas. A Agência poderia incentivar, no lugar de criar regulamentos, a elaboração de
códigos de conduta.
203

Os códigos de conduta são instrumentos que representam o arranjo da autorregulação e,


como antes mencionado, são mecanismos que o setor privado encontrou, com base na teoria de
uma melhor regulação, de conformar o comportamento de um grupo, com reconhecimento
social, e, ao mesmo tempo, conseguir medir a diligência aplicada a fim de desencadear a
responsabilidade. É importante destacar que a participação na elaboração desses códigos não
pode ser imposta pela lei, sob pena de se descaracterizar a liberdade de escolha do ator privado.
A ideia por trás dos códigos de conduta é que um conjunto de compromissos estabeleça o
comportamento de alguém, que se vincula com base na autonomia da vontade.
Segundo André Saddy, deve-se entender por códigos de conduta

Uma espécie de “missão” ou princípio de responsabilidade social das


empresas, pois esses códigos devem ser vistos como um conjunto de
determinados comportamentos ao qual um específico agente econômico ou
profissional se obriga, ou seja, um compromisso que este, ao elaborá-lo,
aprová-lo e subscrevê-lo ou aderir-lhe adquire: logicamente, um compromisso
ao qual as empresas ou profissionais não estão obrigados por lei, mas que se
assume e, uma vez adquirido, converte-se em um compromisso que o ator
deve respeitar em sua relação com terceiros633.

A medida do passar do tempo iria permitir que a Agência verificasse o cumprimento


dos parâmetros legais, por meio dos indicadores estabelecidos, e implementasse as ferramentas
necessárias para alinhar o interesse público com o interesse das plataformas, utilizando-se de
estratégias menos invasivas, inicialmente, como, por exemplo, políticas educativas ou
incentivos para diminuir o custo do bom comportamento, e, somente no caso de insucesso,
seriam implementadas medidas mais rígidas de compliance.
Nesse sentido, a fiscalização do setor sob a competência da Agência Reguladora é
essencial, pois essa função permite a análise de cumprimento da lei, das metas traçadas, nos
moldes dos indicadores previamente definidos, e permite a análise da qualidade dos serviços
prestados à sociedade, de acordo, não só com os interesses comerciais, mas também à luz dos
634
valores constitucionais . A importância dessa função também pode ser retirada da
improbabilidade de um usuário comum de rede social saber se uma plataforma está em

633
SADDY, André. Regulação estatal, autorregulação privada e códigos de conduta e boas práticas. Rio de
Janeiro: Lumen Juris, 2015, p. 124.
634
ARAGÃO. Alexandre Santos. Agências Reguladoras e a evolução do direito administrativo econômico.
3ed. Rio de Janeiro: Forense, 2013.
204

conformidade com a lei, ou de acordo com os seus próprios termos de uso, ou ainda, em linha
com os compromissos assumidos nos códigos de conduta eventualmente assinados, o que torna
eventuais proteções normativas sem valor, caso não sejam previstos mecanismos de
monitoramento.
A atuação da Agência deve sempre se preocupar em equilibrar o ambiente digital,
cuidando para que a regulação do conteúdo não viole o direito fundamental da liberdade de
expressão, mas proteja-o e promova-o. Não se ignora, por outro lado, que a atuação das
Agências apresente grandes desafios. É o que será abordado na próxima subseção.

6.3 Os desafios de uma Agência Reguladora Independente.

A defesa de um modelo de corregulação que tenha como o seu principal instrumento de


regulação a utilização de uma Agência Reguladora Independente não significa que esse seja
perfeito. A combinação da ação privada com a atuação pública no setor da tecnologia,
principalmente, quando se trata das redes sociais pelo poder de influência que elas exercem,
deve atrair as mesmas cautelas já debatidas pela doutrina quando no estudo de outros setores
regulados. Serão destacadas aqui duas críticas.
A primeira delas e, talvez a mais importante, seria a preservação de independência da
Agência, de modo a impedir a ocorrência do fenômeno da captura. Pesquisadores apontam que
a captura da Agência ocorre quando essas, que são encarregadas de proteger o interesse público,
se identificam com a indústria regulamentada, protegendo seus interesses, quando deveriam
proteger o interesse público 635.
Esta teoria chama atenção para o risco que do ator público ser “capturado” pelos agentes
econômicos, regulando o setor em um desenho que beneficie os atores privados ou certos
grupos de atores. No caso das redes sociais, por exemplo, esse risco está presente com as big
techs. Por outro lado, a regulação de conteúdo também gera grande interesse ao Governo e,
nesse caso, é preciso que se cuide para evitar a captura política, onde o interesse que prevalece
decorre do setor público. Entretanto, esse interesse não serve para beneficiar a sociedade em
geral, mas para beneficiar possíveis interesses políticos tendenciosos de agente públicos.

635
CARPENTER, Daniel; MOSS, David. Preventing regulatory capture: special interest influence and how to limit
it Carpenter. Harvard university. 2014. Disponpivel em: https://www.tobinproject.org/books-papers/preventing-
capture Acesso em 10/04/2022.
205

Dessa forma, sem um controle adequado do regulador, os interesses dos agentes


economicos regulados, no caso, as plataformas de redes sociais, tendem a influir e moldar as
práticas regulatorias de maneira distorcida. Como consequência, não haverá a necessária
indenpendência da Agência e uma fiscalização eficiente e adequada no exercício da atividade
regulatória. A captura também pode prejudicar a inovação no setor e facilitar o oligopólio pelas
grandes empresas, já que as práticas já implementadas por elas serão repassadas no desenho
regulatório a ser seguido pelas demais empresas do setor.
Alguns antídotos ao problema da captura da Agência, além da autonomia decisória e
financeira garantidas por lei, é garantir a participação mutissetorial e transparente na atuação
do órgão regulador, o que pode ser feito através das audiências públicas.
Um segundo desafio estaria relacionado a questões estruturais e de coordenação, o que
demandaria um grande montante em recursos financeiros e profissionais especializados, que
pudessem articular competências da agência criada e dos vários órgãos já existentes, nacionais
e internacionais que se participam da governança das plataformas digitais de redes sociais.
Esses custos acabariam sendo repassados ao setor e aos consumidores, gerando uma perda na
eficiência econômica.
A própria fiscalização, função primordial a ser exercida pela Agência, demandaria uma
boa estrutura e alto investimento para ser exercida. E, acaso comprometida essa função, poder-
se-ia comprometer a efetividade da própria regulação. Um exemplo desse tipo de problema foi
apontado pelo relatório produzido a respeito da efetividade das autoridades de proteção de
dados (Data Protection Autorith – DPA) na Europa636. O referido relatório aponta para (i)
ausência de especialistas em tecnologia que possam investigar o uso que as big techs atribuem
aos dados pessoais; e, (ii) diminuição do orçamento destinado à DPA. Essa ineficiência conduz
a um resultado alarmante: falha na supervisão da aplicação do GDPR e, por consequência,
poucas ações corretivas para as violações legais.
Na próxima subseção será analisado o estado da arte da regulação brasileira sobre
plataformas de redes sociais com foco no arranjo institucional eleito e investigação de eventual
papel destinado ao Estado nessa regulação.

636
RYAN, Johnny, TONER, Alan. Europe’s enforcement paralysis ICCL’s 20. ICCL’s 2021 report on the
enforcement capacity of data protection authorities. Irish Council for Civil Liberties. 2021. Disponível em:
https://www.iccl.ie/wp-content/uploads/2021/09/Europes-enforcement-paralysis-2021-ICCL-report-on-GDPR-
enforcement.pdf Acesso em 10/06/2022.
206

6.4 O PL 2630/2020: Uma proposta de autorregulação regulada.

A partir de preocupações lastreadas na disseminação de conteúdo com desinformação,


parlamentares brasileiros passaram a trabalhar em projetos de lei que adotassem medidas ao seu
enfrentamento. Em pesquisa realizada, observou-se que 49 projetos de lei abordaram o assunto.
Uma pesquisa realizada637, no Brasil no ano de 2020, aponta que esses projetos relacionavam o
tema a três grupos de preocupações: os dois primeiros grupos envolviam questões ligadas à
proteção da liberdade de expressão e dados pessoais, enquanto um terceiro grupo se relacionava
com projetos que buscavam “estabelecer novos deveres aos provedores de aplicação, que não
constavam na redação original do Marco Civil” 638.
Com o crescimento do conteúdo desinformativo e suas implicações na democracia
brasileira, o Projeto de Lei nº 2630/2020639 ganhou fôlego nas discussões no Congresso
Nacional. A referida iniciativa, conhecida como “PL das Fake News”, tem por objetivo tornar
as plataformas responsáveis pela infraestrutura que administram, inovando ao trazer a
necessidade de um devido processo para a moderação de conteúdo online, com deveres de
transparência, justificação e mecanismos de contestação das decisões tomadas pelas
plataformas. A proposta ganhou amplitude quando passou a enfrentar, além do problema da
desinformação, outras questões mais abrangentes relacionadas ao modelo de negócio
desenvolvido pelas plataformas de redes sociais.
O PL 2630/20 tem por objetivo tornar as plataformas responsáveis pela infraestrutura
comunicativa que administram e parace construir um arcabouço regulatório menos invasivo nas
atividades desenvolvidas pelas plataformas, apto a criar segurança jurídica e proteção aos
direitos fundamentais dos usuários, através do desestímulo de abusos e manipulações com
potencial de danos individuais e coletivos.
O projeto, que ainda está em trâmite no Congresso Nacional, trouxe em seu corpo a
previsão de um arranjo institucional de autorregulação regulada. No que se refere ao grau de

637
HARTMANN, Ivar, MONTEIRO, Julia. Fake News no Contexto da Pandemia e Emergência Social: os deveres
e responsabilidades das plataformas de Redes Sociais na Moderação de Conteúdo Online: entre a Teoria e as
Proposições Legislativas. RDP, Brasília, 2020, volume 17, n. 94, 388-414. Disponível em:
https://www.portaldeperiodicos.idp.edu.br/direitopublico/article/view/4607 Acesso em 10/10/2021.
638
HARTMANN, Ivar, MONTEIRO, Julia. Fake News no Contexto da Pandemia e Emergência Social: os deveres
e responsabilidades das plataformas de Redes Sociais na Moderação de Conteúdo Online: entre a Teoria e as
Proposições Legislativas. RDP, Brasília, 2020, volume 17, n. 94, 388-414, p. 404.
https://www.portaldeperiodicos.idp.edu.br/direitopublico/article/view/4607 Acesso em 10/10/2021.
639
BRASIL. Projeto de Lei 2630/2020. Institui a Lei Brasileira de Liberdade, Responsabilidade e Transparência
na Internet. Disponível em: https://www.camara.leg.br/propostas-legislativas/2256735 Acesso em 30/06/2022.
207

intensidade do envolvimento do Estado, esse parece ser pequeno, afastando-se do modelo


equilibrado da corregulação tratado no capítulo anterior deste trabalho. O PL 2630/20 é mais
deferente a autorregulação dos atores privados, já que prevê a criação pelos provedores de uma
instituição de autorregulação voltada à transparência e à responsabilidade, a qual terá
competência para elaborar os Códigos de Conduta para implementação da Lei.
Esse código de conduta, tal qual o Código de Desinformação antes analisado, é um
conjunto de normas que irá orientar os atores regulados – as plataformas digitais definidas pela
lei - e representa uma ferramenta regulatória que será utilizada para se alcançar os padrões
legais de transparência, obrigações de devido processo legal, respeito aos direitos fundamentais,
dentre outras tantas. Por não serem rígidos como as leis, são vinculantes apenas as partes que
assinarem a seus compromissos.
A legislação brasileira mostra-se acertada com as melhores práticas internacionais a
respeito da regulação quando opta pela autorregulação regulada, contudo, o arranjo, nos
“moldes brasileiros”, não impõe a representatividade que uma governança multissetorial
demanda. A elaboração do Código não deveria ser feita apenas pelas mãos dos provedores, mas
por todos os atores que poderão ser afetados pela regulação, como, por exemplo, os usuários,
organizações sociais, as empresas jornalísticas e de publicidade.
Outro ponto de fragilidade reside nos mecanismos de supervisão pública. Um dos pontos
positivos elencados no capítulo anterior quando se tratou dos arranjos mais contemporâneos da
regulação, relacionava-se com a aproximação de mecanimos de accountability próprios das
normas publicísticas às fontes privadas de regulação. Contudo, o projeto que se arquiteta para
o aperfeiçoamento da responsabilidade e transparência na internet traz o Comitê de Gestor da
Internet (CGI.br) como órgão responsável pelo acompanhamento das medidas legais. Duas
críticas podem ser feitas na escolha dessa estratégia.
A primeira é que sobre a natureza do órgão eleito. O CGI é o órgão responsável por
estabelecer diretrizes estratégicas relacionadas ao uso e desenvolvimento da Internet no país e
está atrelado ao Ministério da Ciência, Tecnologia, Inovações e Comunicações. Em que pese
sua formação multissetorial, já sua composição inclui, além do setor governamental, o setor
empresarial, a comunidade científica e tecnológica e um representante de notório saber em
assunto da Internet, o Comitê foi criado pelo Decreto nº 4.829, de 3 de setembro de 2003,
estando, portanto, vinculado ao Governo Federal. Não possui autonomia administrativa e
financeira e pode ser extinto pela discricionariedade do Poder Executivo640.

640
Sobre o ponto, destaca-se, inclusive, que no ano de 2017 foi realizada uma consulta pública pelo Ministério da
Ciência, Tecnologia, Inovações e Comunicações no intuito de revisar o desenho institucional, as funções, e as
208

A segunda crítica está na competência atribuída pelo PL 2630/20 ao órgão. Não foi
prevista nenhuma espécie de validação dos Códigos pelo CGI, cabendo a esse órgão público
somente certificar a entidade que atenda aos requisitos da lei e não os códigos elaborados pela
entidade de autorregulação privada641. A literatura sobre o tema indica que deve existir
monitoramento e avaliação periódica sobre os compromissos firmados nos Códigos de
Conduta, indicadores específicos para as promessas feitas, além de compromissos concretos,
que considerem as peculiaridades dos diversos atores do mercado 642. Caso contrário, o que se
terá são compromissos vagos e convenientes, que permitirão as plataformas a interpretarem as
normas de forma seletiva e discriminatória, o que fere a proporcionalidade e isonomia. Ignorar
essas recomendações pode consolidar o poder das grandes plataformas no mercado.
Dessa forma, em que pese ser possível várias formas de arquiteturas para essa
aproximação entre o poder público e os atores afetados na regulação, acredita-se que, a partir
do que foi narrado neste trabalho e, principalmente, pela necessidade de proteção dos direitos
fundamentais, que o Estado deve possui um papel mais amplo e ativo na regulação das
plataformas digitais de redes sociais dentro do que foi exposto na abordagem do arranjo
institucional da corregulação.

competências do CGI.br. Segundo um relatório do InternetLab, os debates giraram em torno dos 5 eixos propostos
pelo MCTIC, que por sua vez se referiam a pontos chave no funcionamento e composição do Comitê:
“competência” (possíveis mudanças e melhorias em relação às funções do Comitê); “composição” (discussão
sobre setores atuais e eventual necessidade de inclusão de outros atores); “eleição e mandato” (contribuições para
aprimorar o processo de escolha dos membros eleitos); “transparência” (aperfeiçoamento dos mecanismos de
transparência); e “outros temas ou considerações” (para assuntos residuais). KIRA, Beatriz, TAMBELLI, Clarice
N. O que está em jogo no debate sobre o cgi.br? INTERNETLAB - ASSOCIAÇÃO INTERNETLAB DE
PESQUISA EM DIREITO E TECNOLOGIA, 2017. Disponível em: http://www.internetlab.org.br/wp-
content/uploads/2018/01/O-que-esta-em-jogo-no-debate-sobre-CGI_.pdf Acesso em 23/06/2022.
641
CURZI, Yasmin. ZINGALES, Nicolo. GASPAR, Walter. LEITÃO, Clara. COUTO, Natália. REBELO,
Leandro. OLIVEIRA, Maria Eduarda. Nota técnica do Centro de Tecnologia e Sociedade da FGV Direito Rio
sobre o substitutivo ao PL 2630/2020. Rio de Janeiro: FGV Direito Rio, 2021, p. 18.
https://bibliotecadigital.fgv.br/dspace/bitstream/handle/10438/31348/nt-pl2630.pdf?sequence=1&isAllowed=y
642
BELLI, Luca, FRANCISCO, Pedro Augusto, ZINGALES, Nicolo. Law of the Land or Law of the Platform?
Beware of the Privatisation of Regulation and Police. In: Platform regulations: how platforms are regulated
and how they regulate us. P. 41-64. FGV Direito Rio. 2017.
209

7 CONCLUSÃO

O presente trabalho, cujo objeto é a regulação de conteúdo nas redes sociais, realizou
um estudo sobre os possíveis arranjos institucionais na atividade de moderação de conteúdo
desenvolvida pelas plataformas digitais de redes sociais, com especial atenção para a
corregulação, com o objetivo de investigar se o Estado possui algum papel na regulação de
conteúdo, hoje, exercida de forma unilateral pelas redes sociais. Buscou-se também analisar
como seria a regulação estatal da atividade de moderação de conteúdo exercida pelas
plataformas de redes sociais.
Ao longo da pesquisa, os capítulos desenvolvidos forneceram as bases para que se
pudesse, ao final, tecer as seguintes considerações:

I) As plataformas de redes sociais são tecnologias utilizadas através de internet, que


desfrutam dos efeitos de rede, e os serviços prestados funcionam como um mercado
de dois lados. Os serviços a elas relacionados são o compartilhamento de
informações ou conteúdos, que podem ser imagens, sons ou arquivos audiovisuais;
II) O modelo de negócios desenvolvido pelas plataformas digitais de redes sociais é
focado na coleta de dados a fim de prever comportamento e preferências dos
usuários, o que torna o uso de seus sistemas mais agradável e retorna em mais
engajamento. Quanto mais tempo é despendido, mais dados são coletados e mais
poder é transferido às plataformas;
III) A regulação do ambiente online pelas redes sociais é realizada pelos termos de uso
e através da moderação de conteúdo. A moderação de conteúdo, principal
ferramenta de governança das plataformas, pela amplitude das maneiras a ser
exercida, é passível de erro e apresenta problemas de opacidade nos seus processos
de tomada de decisão. A falta de transparência nos processos internos das
plataformas gera problemas de assimetria informacional;
IV) A moderação de conteúdo é capaz de gerir todo o espaço digital para troca de
conteúdo online e apresenta-se como uma ferramenta indispensável em qualquer
política regulatória a ser estabelecida. As plataformas digitais de redes sociais são a
linha de frente para conformar a conduta do usuário no ambiente digital, pelo que o
Estado não pode desprezar a colaboração desse ator privado;
210

V) A natureza privada das redes sociais acarreta alguns problemas, como falta de
legitimidade e accountability;
VI) Atualmente, não há, no Brasil, regulação que trate da moderação de conteúdo
exercida pelas redes sociais. Regras de responsabilidade, por outro lado, estão
previstas no artigo 19 do MCI, com previsão de uma responsabilidade subjetiva;
VII) A moderação de conteúdo afeta, de forma significativa, os direitos
fundamentais, tais como, a liberdade de expressão, privacidade e devido processo
legal. Observa-se um poder demasiado das redes sociais na forma de comunicação,
sem incentivos econômicos ou legais para proteger a liberdade de expressão.
VIII) O Estado, em razão da dimensão positiva dos direitos fundamentais, tem o dever
de promover e proteger a liberdade de expressão e os demais direitos fundamentais
afetados. Essa afirmação pode ser utilizada como justificativa para a regulação das
plataformas digitais de redes sociais.
IX) Governança e regulação são conceitos distintos. Enquanto a governança apresenta-
se como uma estrutura complexa em rede que acomoda diferentes partes
interessadas, com diferentes interesses, coordenadas de maneira colaborativa por
diversos instrumentos, que tanto podem ter origem pública, como particular. A
regulação é um mecanismo da governança, que objetiva conformar o
comportamento de um determinado grupo, com consequências imprevisíveis para a
governança.
X) A moderação de conteúdo, a partir desses conceitos, é enquadrada como uma
ferramenta de regulação utilizada pelas plataformas de redes sociais para exercer a
governança, pelo que toda a estrutura que envolve políticas e termos de uso, sistemas
de algoritmos, interfaces e outros aparatos técnicos são instrumentos que vão operar
o complexo sistema de interações entre as plataformas e os diversos atores que
utilizam seu espaço.
XI) A governança das plataformas de redes sociais gera críticas de legitimidade dessas
pessoas jurídicas privadas por exercem tamanha influência e poder no espaço digital
sem advirem de uma participação democrática no ambiente digital.
XII) Essa crítica levou a literatura especializada a traçar diversos caminhos que
pudessem conferir mais legitimidade as práticas regulatórias das redes sociais. As
principais delas são: (a) constitucionalismo digital, o que implica em trazer às redes
sociais deveres procedimentais na sua atuação e respeito aos direitos humanos por
211

design; (b) uma abordagem multissetorial de governança; e, (iii) uma abordagem


tridimensional da legitimidade.
XIII) Do constitucionalismo digital é possível vincular as plataformas de redes sociais
ao respeito aos direitos fundamentais em seus processos internos, bem como no
próprio desenvolvimento de sua arquitetura. É possível, então, estabelecer deveres
procedimentais às plataformas que devem ser observados em seus processos de
tomada de decisão. Destaca-se, dentre eles, práticas de transparência.
XIV) A transparência não deve ser vista, pelo regulador, como um fim em si mesma,
mas como um caminho para se alcançar a responsabilidade das plataformas. Por
isso, medidas que não permitam o entendimento das informações a respeito da
moderação de conteúdo, como, por exemplo, simples dados numéricos referentes às
ações implementadas pelas redes sociais, não trazem uma transparência significativa
e, por isso, não são aptas a trazer maior legitimidade de atuação.
XV) É preciso que as plataformas justifiquem às decisões tomadas na moderação de
conteúdo aos seus usuários. Essa medida permite ao usuário compreender o processo
de tomada de decisão e oferece oportunidade para ele exercer o direito de impugnar
uma determinada decisão. Também contribui para que não haja proliferação de
sentimentos de desconfiança no sistema como um todo.
XVI) Da abordagem multissetorial, é possível extrair a necessidade de participação de
todos os atores interessados e afetados no processo decisório. Quando transportada
essa visão para a regulação das plataformas de redes sociais, conclui-se que o melhor
caminho seria um arranjo que inclua todos os interessados, principalmente, as
próprias redes sociais e também os usuários.
XVII) A legitimidade pode, ainda, ser compreendida em uma dimensão tripla: (a)
legitimidade de entrada (por input), correspondente à qualidade dos meios de
participação popular no processo democrático; (b) legitimidade de transferência (por
throughput), que se refere à qualidade do processo de governança em si mesmo; e,
(c) legitimidade de saída (por output), relacionada à qualidade do resultado das leis
e regras criado para a população. Assim, para que a governança das redes sociais
seja legítima, não é necessário que todas as suas dimensões estejam fortemente
presentes, bastando que elas se complementem para a formação do todo.
XVIII) Após uma análise do modelo de negócios das redes sociais, é possível concluir
que existem fundamentos teóricos para a regulação estatal. São eles: (a) a proteção
dos direitos fundamentais; (b) a correção de falhas de mercado, como a produção de
212

externalidades negativas e a assimetria informacional. Essa regulação possui um


papel importante a desenvolver: equilibrar os processos de moderação de conteúdo,
de forma a garantir o respeito aos direitos dos usuários, a transparência dos
processos e justificação das decisões tomadas.
XIX) A regulação estatal, no entanto, não deve ser feita nos moldes tradicionais
através de regras impositivas de comando e controle. A regulação deve ser pensada
com as ideias do Estado Regulador contemporâneo, considerando a multiplicidade
de atores afetados pela regulação, principalmente, com a participação das
plataformas de redes sociais e usuários, cujo foco deve ser no procedimento que
envolve a moderação de conteúdo exercida pelas plataformas sociais.
XX) Há diversas nuances para se execer a regulação. Os arranjos institucionais
variam, diferenciando-se de acordo com à gradação da ação estatal. De uma maneira
mais simples, pode-se classificar a regulação em (a) direta, no qual as partes estão
vinculadas ao cumprimento de regras legais, sob pena de sanção; (b) autorregulação,
no qual não há nenhuma atuação do Estado e o próprio setor regulado conforma sua
conduta; e, (c) corregulação, arranjo híbrido, que mistura práticas da regulação
direta com práticas da autorregulação, trazendo mais transparência, participação e
responsabilidade ao setor regulado.
XXI) É importante que não seja feita uma equivalência da regulação à censura da
liberdade de expressão, o que no Brasil pode ocorrer, principalmente, em razão da
herença da ditadura militar e sua forte interferência na comunicação. Por isso, novos
arranjos mostram-se especialmente interessantes para a regulação das plataformas.
Arranjos regulatórios que possam trabalhar com as capacidades de controle já
existentes dos regulados, no caso, das mídias sociais, direcionando apenas o
procedimento da regulação e garantindo que a regulação seja uma ferramenta
inclusiva e de proteção aos direitos dos cidadãos são os mais adequados.
XXII) Nesse sentido, em que pese a regulação direta proporcionar uma forte
responsabilidade pública, ela é um arranjo institucional fraco para trazer a
cooperação de todos os atores envolvidos na regulação e enfrentar questões
complexas e dinâmicas como é o caso das tecnologias das plataformas digitais. Tem
como pontos negativos a desvantagem da assimetria existente entre o setor regulado
e o órgão estatal regulador, bem como um grande risco de abuso do poder por parte
dos Governos.
213

XXIII) No que se refere à autorregulação, não obstante a rapidez, flexibilidade e


eficiência, há problemas de responsabilidade pública, vez que as plataformas de
redes sociais oferecem recursos limitados de não-conformidade. A assimetria
informacional entre as redes sociais e os usuários também dificulta o sucesso de
arranjo autorregulatório. Há riscos de abuso do poder por parte das empresas
privadas. Órgãos de supervisão privado, como, por exemplo, a estrutura do
Oversight Board do Facebook, tem pouca probabilidade de endereçar todos os
problemas que merecem atenção, principalmente, quando se relacionam com o
próprio modelo de negócio desenvolvido pelas plataformas, como, por exemplo,
sistema de anúncios, análise comportamental, práticas de vigilância, etc.
XXIV) Estruturas autorregulatórias para o combate de problemas gerados pelo uso das
plataformas, como, por exemplo, a desinformação, evidenciaram falhas substanciais
sobre: (a) monitoramento inadequado; (b) abstração nos compromissos assumidos,
o que, na prática inviabilizou a avaliação do programa; e, (c) pouca aderência das
empresas privadas. Essas falhas guardam relação justamente com os pontos fortes
de um arranjo institucional de regulação direta.
XXV) Por isso, observa-se uma tendência no cenário atual, o que se defende neste
trabalho, a considerar como o arranjo institucional mais adequado para conformar
as condutas dos atores envolvidos na moderação de conteúdo das redes sociais a
corregulação. Essa estrutura tem mais aptidão a dar voz a todos os atores envolvidos
e distribuir as funções de acordo com as melhores competências de cada um. Dessa
forma, a fixação de parâmetros e princípios a serem desenvolvidos, bem como a
função de supervisão restariam a cargo do Estado, enquanto as plataformas
desenvolveriam os meios para sua implantação e alcance do resultado, já que são
elas que possuem a expertise e capacidade operacional. Usuários e atores envolvidos
no setor de comunicação também devem participar do processo estabelecendo, por
exemplo, os contornos das regras que irão conformar o ambiente digital e os
indicadores para a verificação do cumprimento das obrigações.
XXVI) A participação do Estado na regulação das atividades das plataformas digitais
de redes sociais deve ser realizada através do Poder Executivo, vez que se trata de
um poder com mais estrutura e capacidade técnica para desenvolver a política
regulatória. No que se refere aos instrumentos regulatórios disponíveis ao Poder
Executivo, esse deve se valer da instituição de uma nova Agência Reguladora ou na
transformação de uma já existente para a regulação do setor.
214

XXVII) Esse instrumento tem como pontos positivos a autonomia e independência das
Agências em relação aos demais Poderes do Estado, desvinculando, portanto, a
política regulatória que regerá as atividades das plataformas de redes sociais das
ações de Governo. Busca-se um ambiente neutro que possa trazer equilíbrio ao
mercado com proteção dos direitos fundamentais e valores estabelecidos e,
sobretudo, que possa supervisionar o cumprimento dos parâmetros estabelecidos
pela regulação. De nada adiantaria uma boa legislação ou um bom código de conduta
se há pouca aderência entre os regulados e não há cumprimento das normas ou
compromissos assumidos.
XXVIII) O projeto de lei que, hoje, tramita no Congresso Nacional guarda um papel
mais tímido ao Estado, afastando do modelo de corregulação. A autorregulação
regulada, eleita pelo legislador brasileiro, não é sinônimo de corregulação e, por
isso, é mais deferente às iniciativas privadas das redes sociais. Como principais
pontos negativos do arranjo institucional eleito está a ausência de supervisão pública
das regras, elaboradas por uma instituição privada, que formaram o Código de
Conduta, instrumento que buscará a conformidade da atuação das redes sociais aos
parâmetros estabelecidos em lei. Ainda, a supervisão pública ficará a cargo de um
órgão atrelado ao Poder Executivo, mas sem autonomia administrativa e financeira,
que pode ser extinto por meio de decreto do chefe do Poder Executivo.

Assim, considerando o exposto neste trabalho, acredita-se que a criação de uma Agência
Reguladora é o instrumento regulatório (i) adequado, isto é, apto a promover a proteção dos
direitos fundamentais da pessoa humana, notadamente, os destacados neste trabalho, liberdade
de expressão, privacidade e devido processo, (ii) necessário, vez que nenhum outro instrumento
regulatório seria capaz de responder de forma eficiente e dinâmica as demandas do mercado,
equilibrando a inovação tecnológica e livre iniciativa, de um lado, com respeito e promoção
dos direitos fundamentais através de uma supervisão neutra, de outro, e, (iii) proporcional em
sentido estrito, ou seja, justifica-se a restrição da livre iniciativa para que possa realizar outros
valores constitucionais fundamentais.
Se a necessidade dessa Agência é afirmada com clareza, a forma de sua constituição, se
uma nova agência ou a incorporação a uma já existente, podendo-se cogitar, por exemplo, na
criação de uma “Agência Digital”, com competência para regular três áreas específicas: dados,
conteúdo e inteligência artificial, constituem questões para serem dirimidas em uma futura
215

pesquisa e melhor seriam avaliadas em conjunto com um exame pragmático das possibilidades
atuais do ordenamento jurídico.
216

8 REFERÊNCIAS BIBLIOGRÁFICAS

ARTIGOS E LIVROS:

ACKERMAN, Bruce. Good-bye Montesquieu. Comparative Administrative Law. Susan


Rose-Ackerman e Peter L. Lindseth (org.). Edward Eugar Publishing. 2012.

ANGWIN, Julia et al. Machine Bias. Pro Publica. 23 de maior de 2016. Disponível em:
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
Acesso em: 25.10.2017.

ARAGÃO. Alexandre Santos. Agências Reguladoras e a evolução do direito administrativo


econômico. 3ed. Rio de Janeiro: Forense, 2013

ARAGÃO, Alexandre Santos de. Direito dos Serviços Públicos – 4ed. Belo Horizonte:
Forum,2017.

ARNAUDO, Daniel. O Brasil e o Marco Civil da Internet. 2017. Disponível em:


https://igarape.org.br/marcocivil/pt/

ASHER. Saira. 04 de fevereiro de 2021. Myanmar coup: How Facebook became the 'digital tea
shop'. BBC News. https://www.bbc.com/news/world-asia-55929654 Acesso em: 05/07/2021.

AYRES, Ian; BRAITHWAITE, Jonh. Responsive Regulation. Transcending the deregulation


debate. Oxford: Oxford University Press, 1992.

BALDWIN, Robert, CAVE, MARTIN e LODGE, Martin. Understanding Regulation. Theory,


Strategy and Pratice. 2ed. Oxford: Oxford University. 2012. Disponível em:
https://oxford.universitypressscholarship.com/view/10.1093/acprof:osobl/9780199576081.00
1.0001/acprof-9780199576081-chapter-2

BALKIN. Jack M. How regulate (and not regulate) social media. Journal of Free Speech Law
, Knight Institute Occasional Paper Series, No. 1 (March 25, 2020), Yale Law School, Public
Law Research Paper Forthcoming, 2021. Disponível em SSRN:
https://ssrn.com/abstract=3484114

BALKIN. Jack M. The Fiduciary Model of Privacy, 134 HARV. L. REV. 11 (2020).
Disponível em: https://harvardlawreview.org/wp-content/uploads/2020/10/134-Harv.-L.-Rev.-
F.-11.pdf

BAPTISTA, Patrícia; KELLER, Clara Iglesias. Porque, quando e como regular as novas
tecnologias? Os desafios trazidos pelas inovações disruptivas. Revista de Direito
Administrativo – RDA,v. 273,Rio de Janeiro, p.123-163,17set.2016.Disponível em:
http://bibliotecadigital.fgv.br/ojs/index.php/rda/article/view/66659/64683.

BARRET, Paul M. Who Moderates the Social Media Giants? A call to end outsourcing, New
York University Stern Center for Business and Human Rights, Junho 2020.
217

BARROSO, Luís Roberto. Neoconstitucionalismo e Constitucionalização do Direito. Revista


de Direito Administrativo (RDA) nº 240. 2005. P. 12/13. Disponível em:
https://luisrobertobarroso.com.br/wp-
content/uploads/2017/09/neoconstitucionalismo_e_constitucionalizacao_do_direito_pt.pdf

BAYER, Judit, HOLZNAGEL, Bernar, KORPISAARI, Paivi, WOODS, Lorna. Conclusions:


Regulatory Responses to communication plataforms: models and limits. IN: Perspetives on
Plataform Regulation. Concepts and Models os Social Media Governance Across the Globe.
BAYER, Judit, HOLZNAGEL, Bernar, KORPISAARI, Paivi, WOODS, Lorna (eds). Nomos.
Vol. 1. P. 576-577. Disponível em: https://doi.org/10.5771/9783748929789

BELLI, Luca. A heterostakeholder cooperation for sustainable internet policymaking. Internet


Policy Review, n. 4, 2015, p. 03. Disponível em: https://policyreview.info/pdf/policyreview-
2015-2-364.pdf

BELLI, Luca, FRANCISCO, Pedro Augusto, ZINGALES, Nicolo. Law of the Land or Law of
the Platform? Beware of the Privatisation of Regulation and Police. In: Platform regulations:
how platforms are regulated and how they regulate us. P. 41-64. FGV Direito Rio. 2017

BELLI, Luca. STJ consagra direito ao esquecimento na Internet: o que isso significa? Jota. 20
de maio de 2018. Disponível em: https://www.jota.info/coberturas-especiais/liberdade-de-
expressao/stj-consagra-direito-ao-esquecimento-na-internet-o-que-isso-significa-20052018

BELLI, Luca. Internet Governance and Regulation: A Critical Presentation. In: Belli, Luca,
Cavalli, Olga. Internet Governance and Regulations in Latin America. FGV Direito Rio.
2019, p. 44. Disponível em: https://www.gobernanzainternet.org/book/book_en.pdf. Acesso
em 10/05/2022.

BELLI, Luca. The right to be forgotten is not compatible with the brazilian constitution. or is
it? Future of Privacy Forum. 23 de março de 2021. Disponível em: https://fpf.org/blog/the-
right-to-be-forgotten-is-not-compatible-with-the-brazilian-constitution-or-is-it/

BELLI, Luca. Appeal. Em: BELLI, Luca; ZINGALES, Nicolo; CURZI, Yasmin (eds.).
Glossary of platform law and policy terms. Rio de Janeiro: FGV Direito Rio, 2021.
Disponível em: https://bibliotecadigital.fgv.br/dspace/handle/10438/31365.

BELLI, Luca. Plataforms. Em: BELLI, Luca; ZINGALES, Nicolo; CURZI, Yasmin (eds.).
Glossary of platform law and policy terms. Rio de Janeiro: FGV Direito Rio, 2021, p.239-242.
Disponível em: https://bibliotecadigital.fgv.br/dspace/handle/10438/31365.

BELLI, Luca. Fundamentos da Regulação da tecnologia digital: entender como a tecnologia


digital regula para conseguir regulá-la. Em: Regulação e novas tecnologias. Coordenação:
Armando Castelar Pinheiro, Antônio José Maristello Porto, Patrícia Regina Pinheiro Sampaio.
Rio de Janeiro: FGV Editora, 2022.

BELLI. Luca. Structural Power as a Critical Element of Digital Platforms’ Private


Sovereignty. In Edoardo Celeste, Amélie Heldt and Clara Iglesias Keller (Eds).
Constitutionalising Social Media. (Hart 2022),
218

BENTO, Leonardo Valles. Governança e governabilidade na reforma do Estado: entre


eficiência e democratização. Barueri: Manole, 2003, p. 10. Livro Digital disponível em:
https://sb.fgv.br/catalogo/index.html

BERTONI, Eduardo. Convention 108 and the GDPR: Trends and perspectives in Latin
America. Computer Law & Security Review. Volume 40, Abril de 2021.Disponível em:
https://doi.org/10.1016/j.clsr.2020.105516 Acesso em 10/10/2021.

BIETTI, Elettra. A Genealogy of Digital Platform Regulation. 3 de junho de 2021. Disponível


em: https://ssrn.com/abstract=3859487

BINEMBOJM, Gustavo. Assimetria regulatória no setor de transporte coletivo de passageiros:


a constitucionalidade do art 3º da lei 12.996/2014. In: Revista de Direito da Cidade, vol. 09,
n. 3. pp. 1268-1285. 2017. Disponível em: https://www.e-
publicacoes.uerj.br/index.php/rdc/article/view/29544

BINENBOJM, Gustavo. Poder de Polícia, ordenação, regulação: transformações político-


jurídicas, econômicas e institucionais do direito administrativo ordenador. 3 ed. Belo
Horizonte: Fórum, 2020

BLACLK, Julia. Decentring Regulation: Understanding the Role of Regulation and Self-
Regulation in a “post-Regulatory” world. Current Legal Problems. 2001.

BLACK, Julia. Risk in Regulatory Processes, p. 3. [s. l.]: Oxford University Press, [s. d.]. ISBN
9780191594007. DOI 10.1093/oxfordhb/9780199560219.003.0014. Disponível em:
https://search-ebscohost-
com.sbproxy.fgv.br/login.aspx?direct=true&db=edselc&AN=edselc.2-52.0-
80054756021&lang=pt-br&site=eds-live

BLACK, Julia. Procedimentalizando a Regulação in Regulação Econômica e Democracia: O


Debate Europeu. Paulo Todescan Lessa Mattos (coordenação), 2ª edição revista, São Paulo,
Editora Revista dos Tribunais, 2017 (Coleção Capitalismo & Democracia), P. 133 a 155.

BLOCH-WEHBA, Hannah. Global Platform Governance: Private Power in the Shadow of the
State, 72 SMU L. REV. 27, pp. 27-80, 2019, p.61. Disponível em:
https://scholar.smu.edu/cgi/viewcontent.cgi?article=4778&context=smulr

BOLSONARO. Presidente Jair. Live da Semana - Presidente Jair Bolsonaro. Youtube, 29 de


julho de 2021. Disponível em: https://www.youtube.com/watch?v=C4sE3OAVpHY

BOLSONARO. Presidente Jair. Democracia ou fraude? Youtube, 01 de julho de 2021.


Disponível em: https://www.youtube.com/watch?v=lt1ZcivVMqU

BOSTOEN, Friso. Neutrality, fairness or freedom? Principles for platform regulation. Internet
Policy Review. 2018; 7(1): 19. Disponível em:
http://policyreview.info/articles/analysis/neutrality-fairness-or-freedom-principles-platform-
regulation .
219

BROGI, Elda; BLEYER-SIMON, Konrad. Disinformation in the Perspective of Media


Pluralism in Europe – the role of plataforms. In: Perspectives on Platform Regulation. Nomos
Verlagsgesellschaft mbH & Co. KG, 2021.

BROWN, Ian; MARSDEN, Christopher T. Regulating Code: Good Governance and Better
Regulation in the Information Age. The MIT Press: London, 2013

BROWN, Ian;.KORFF, Douwe. China´s new plataforma guidelines. 03/11/2021. Disponível


em: https://cyberbrics.info/chinas-new-platform-guidelines/

BUDISH, Ryan; WEST, Sarah; and GASSER, Urs. Designing Successful Governance Groups:
Lessons for Leaders from Real-World Examples (August 2015). Berkman Center Research
Publication No. 2015-11. Disponível em: http://ssrn.com/abstract=2638006

CAELIN. Derek. Decentralized Social Networks vs the Trolls. Youtube, 26 de setembro de


2020. Disponível em: https://www.youtube.com/watch?v=yZoASOyfvGQ&t=1085s

CALLAMARD, Agnés. The Human Rights Obligations of Non-State Actors. In: Human
rights in the age of platforms. Editor: Rikke Frank Jørgensen: Cambridge, MA: The MIT
Press. 2019. Disponível em: file:///C:/Users/user/Downloads/1005622.pdf

CAPLAN, Robyn, Gillespie Tarleton. Tiered Governance and Demonetization: The Shifting
Terms of Labor and Compensation in the Platform Economy. Social Media + Society. Abril
de 2020. Disponível em: https://journals.sagepub.com/doi/10.1177/2056305120936636

CAUFFMAN, Caroline, GOANTA, Catalina. A New Order: The Digital Services Act and
Consumer Protection. European Journal of Risk Regulation, 2021, 12(4), pp. 758-774.
Disponível em: https://www.cambridge.org/core/journals/european-journal-of-risk-
regulation/article/new-order-the-digital-services-act-and-consumer-
protection/8E34BA8A209C61C42A1E7ADB6BB904B1

CARPENTER, Daniel; MOSS, David. Preventing regulatory capture: special interest influence
and how to limit it Carpenter. Harvard university. 2014. Disponpivel em:
https://www.tobinproject.org/books-papers/preventing-capture

CAVALIERE, Paolo et al. Micro-Targeting in Political Campaigns: A Comparative Analysis


of Legal Frameworks. Edinburgh Law School. 2021. p. 04. Disponível em:
https://privacyinternational.org/sites/default/files/2021-01/UoE_PI%20Micro-
targeting%20in%20policital%20campaigns%20comparative%20analysis%202021.pdf

CEA Alumni. Street Bump: Crowdsourcing Better Streets, but Many Roadblocks Remain. 30
de outubro de 2015. Digital Iniciative. Disponível em: https://digital.hbs.edu/platform-
digit/submission/street-bump-crowdsourcing-better-streets-but-many-roadblocks-remain/

CELESTE, Edoardo, SANTARÉM, Paulo Rená. Constitucionalismo Digital: Mapeando a


resposta constitucional aos desafios da tecnologia digital. Revista Brasileira De Direitos
Fundamentais & Justiça, 15(45), 63–91. 2022. Disponível em:
https://dfj.emnuvens.com.br/dfj/article/view/1219 Acesso em 10/05/2022
220

CHEVALLIER, Jacques. O Estado pós-moderno. Tradução de Marçal Justen Filho. Belo


Horizonte: Fórum, 2009.

COBBE, Jennifer. SINGH, Jatinder, Regulating Recommending: Motivations, Considerations,


and Principles European Journal of Law and Technology, 2019

COMITÊ DE SUPERVISÃO DO FACEBOOK. Decisão nº 2021-008-FB-FBR, publicada em


19 de agosto de 2021. Disponível em https://oversightboard.com/decision/FB-B6NGYREK/ .

COMITÊ DE SUPERVISÃO DO FACEBOOK. Decisão nº 2021-001-FB-FBR. Publicada em


05 de maio de 2021. Disponível em: https://oversightboard.com/decision/FB-691QAMHJ/
Acesso em 23/08/2021.

COMISSÃO EUROPEIA. Diretiva 2000/31/CE do Parlamento Europeu e do Conselho.


Trata de certos aspectos legais dos serviços da sociedade da informação, em especial do
comércio eletrônico, no mercado interno. 8 de Junho de 2000. Disponível em: https://eur-
lex.europa.eu/legal-content/PT/TXT/PDF/?uri=CELEX:32000L0031&from=PT

COMISSÃO EUROPEIA. Code of conduct on countering illegal hate speech online. 2016.
Disponível em: https://ec.europa.eu/info/policies/justice-and-fundamental-rights/combatting-
discrimination/racism-and-xenophobia/eu-code-conduct-countering-illegal-hate-speech-
online_pt

COMISSÃO EUROPEIA. Comunicação da Comissão ao Parlamento Europeu, ao Conselho,


ao Comité Económico e Social Europeu e ao Comité das Regiões. Combater a desinformação
em linha: uma estratégia europeia. 2018. https://eur-lex.europa.eu/legal-
content/EN/TXT/?uri=CELEX:52018DC0236

COMISSÃO EUROPEIA. Code of Practice on Disinformation. 2018. Disponível em:


https://digital-strategy.ec.europa.eu/en/library/2018-code-practice-disinformation
COMISSÃO EUROPEIA. Assessment of the Code of Practice on Disinformation -
achievements and areas for further improvement. 2020

COMISSÃO EUROPEIA. Proposal for a Regulation on a Single Market For Digital Services
(Digital Services Act). 15 de dezembro de 2020. Disponível em: https://eur-lex.europa.eu/legal-
content/en/TXT/?qid=1608117147218&uri=COM%3A2020%3A825%3AFIN

COMISSÃO EUROPEIA. Guidance on Strengthening the Code of Practice on Disinformation.


2021. Disponível em: https://digital-strategy.ec.europa.eu/en/library/guidance-strengthening-
code-practice-disinformation

COMISSÃO EUROPEIA. Better Regulation´toolbox. 2021. Disponível em:


file:///C:/Users/user/Downloads/toolbox-nov_2021_BETTER%20REGULATION.-1-134.pdf

COMISSÃO EUROPEIA. The 2022 Code of Practice on Disinformation. Junho de 2022.


Disponível em: The 2022 Code of Practice on Disinformation | Shaping Europe’s digital future
(europa.eu)
221

CURZI, Yasmin. Assédio e violência online: moderação de conteúdo pode ser enfrentamento
eficaz. FGV. 13 de abril de 2020. Disponível em https://portal.fgv.br/artigos/assedio-e-
violencia-online-moderacao-conteudo-pode-ser-enfrentamento-eficaz

CURZI, Yasmin. ZINGALES, Nicolo. GASPAR, Walter. LEITÃO, Clara. COUTO, Natália.
REBELO, Leandro. OLIVEIRA, Maria Eduarda. Nota técnica do Centro de Tecnologia e
Sociedade da FGV Direito Rio sobre o substitutivo ao PL 2630/2020. Rio de Janeiro: FGV
Direito Rio, 2021. https://bibliotecadigital.fgv.br/dspace/bitstream/handle/10438/31348/nt-
pl2630.pdf?sequence=1&isAllowed=y

CRAWFORD, Susan; SCOTT, Ben. Be careful what you wish for. Why Europe Should Avoid
the Mistakes of US Internet Access Policy. Policy Brief. Berlin: Stiftung Neue Verantwortung,
2015. Disponível em: https://bit.ly/2YfFgau

DESAI, Deven R. KROLL, Joshua A. Trust But Verify: A Guide to Algorithms and the Law.
Harvard Journal of Law & Technology. V. 31, n. 1, 2017. Disponível em:
https://bit.ly/2oSaww6. Acesso em 0/10/2020

DI PIETRO, Maria Sylvia Zanella. Parcerias na Administração Pública: concessão,


permissão, franquia, terceirização, parceria público-privada e outras formas. 7ª. ed., São
Paulo: Atlas, 2009 (Capítulo 6).

DIAS, Daniel. Fundamentos da Regulação da tecnologia digital: entender como a tecnologia


digital regula para conseguir regulá-la. Em: Regulação e novas tecnologias. Coordenação:
Armando Castelar Pinheiro, Antônio José Maristello Porto, Patrícia Regina Pinheiro Sampaio.
Pp. 193-245. Rio de Janeiro: FGV Editora, 2022.

DIRECTORATE-GENERAL FOR COMMUNICATIONS NETWORKS, CONTENT AND


TECHNOLOGY. High Level Expert Group on fake news and online disinformation [Report].
European Commission. 2018. Disponível em: https://op.europa.eu/s/tRk9 Acesso em
08/09/2020.

DONEDA, Danilo. Da privacidade à proteção de dados: elementos da formação da Lei


Geral de Proteção de Dados. 2ed. São Paulo: Thomas Reuters Brasil, 2019

DOUEK, Evelyn. Verified Accountability: Self-Regulation of Content Moderation as an


Answer to the Special Problems of Speech Regulation. Hoover Institution, Aegis Series Paper
n. 1903, 2019. Disponível em: <https://s3.documentcloud.org/documents/6419386/Evelyn-
Douek-Hoover-Aegis-Paper-Verified.pdf>. Acesso em 01/06/2022.

ESTADÃO. Bolsonaro: Brasil pode ter 'problema pior' que EUA em 2022. Youtube, 07 de
janeiro de 2021. Disponível em: https://www.youtube.com/watch?v=GFEzMlalf14
KELLER, Clara Iglesias. Regulação Nacional de Serviços na internet: exceção, legitimidade
e o papel do Estado. Rio de Janeiro: Lumen Juris. 2019

ESTEVES. Uber: o mercado de transporte individual de passageiros: regulação, externalidades


e equilíbrio urbano. In: Revista de Direito Administrativo, Rio de Janeiro,
v.270,set./dez.2015,p.325-361. Disponível em:
http://bibliotecadigital.fgv.br/ojs/index.php/rda/article/view/58746.
222

EUROPEAN COMMISSION. (2016). Online Platforms Accompanying the document


Communication on Online Platforms and the Digital Single Market. Commission Staff
Working Document. Disponível em: https://eur-lex.europa.eu/legal-
content/EN/TXT/PDF/?uri=CELEX:52016SC0172&from=EN

Facebook e Twitter excluem postagens de Trump com 'desinformação nociva sobre covid-19'.
BBC News/ Brasil. 05 de agosto de 2020. Disponível em:
https://www.bbc.com/portuguese/internacional-53674195
Facebook e Instagram removem vídeo de Jair Bolsonaro por violação de regras. G1. Brasília,
30 de março de 2020. Tecnologia. Disponível em:
htps://g1.globo.com/economia/tecnologia/noticia/2020/03/30/facebook-e-instagram-
removem-video-de-jair-bolsonaro-por-violacao-de-regras.ghtml Acesso em 20/06/2021.

FARIS, Robert, ASHAR, Amar, GASSER, Urs, e JOO, Daisy. Understanding Harmful Speech
Online. Berkman Klein Center for Internet & Society Publication. Série 2016-18, 2016,
p.5. Disponível em: https://dash.harvard.edu/handle/1/38022941.

FERRARI, Isabela, BECKER, Daniel, WOLKART, Eric Navarro. Arbitrium ex machina:


panorama, riscos e a necessidade de regulação das decisões informadas por algoritmos.
Thomson Reuters. Revista dos Tribunais | vol. 995/2018 | Set / 2018 DTR\2018\18341.
Disponível em: http://governance40.com/wp-content/uploads/2018/11/ARBITRIUM-EX-
MACHINA-PANORAMA-RISCOS-E-A-NECESSIDADE.pdf

FRAZÃO, Ana. Transparência de algoritmo X segredo de empresa. 2021. Disponível em:


http://www.professoraanafrazao.com.br/files/publicacoes/2021-06-09-
Transparencia_de_algoritmos_x_segredo_de_empresa_As_controversias_a_respeito_das_dec
isoes_judiciais_trabalhistas_que_determinam_a_realizacao_de_pericia_no_algoritmo_da_Ub
er.pdf

FRIEDMAN, Milton. Capitalismo e liberdade. LTC Editora, 2014. Disponível em:


https://edisciplinas.usp.br/pluginfile.php/5114393/mod_resource/content/1/FRIEDMAN.pdf
Acesso em 30/05/2022.

FUSTER, Glória González, HIJMANS, Hielke. The EU rights to privacy and personal data
protection: 20 years in 10 questions. Discussion paper. VUB Brussels Privacy Hub..
Disponível em:
https://brusselsprivacyhub.eu/events/20190513.Working_Paper_Gonza%CC%81lez_Fuster_
Hijmans.pdf Acesso em 10/10/2021

GASSER, Urs; BUDISH, Ryan.; WEST, Sarah. Multistakeholder as Governance Groups:


Observations from Case Studies (January 14, 2015). Berkman Center Research Publication
No. 2015-1. Disponível em: http://ssrn.com/abstract=2549270

GILLESPIE, Tarleton. “The Politics of ‘Platforms” New Media & Society, vol. 12. Nº3, 2010,
p. 347–364. Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1601487

GLOBAL NETWORK INICIATIVE. Disponível em: https://globalnetworkinitiative.org/gni-


2018-2019-company-assessment/
223

GOANTA, Catalina. SPANAKIS, Jerry. Influencers and Social Media Recommender Systems:
Unfair Commercial Practices in EU and US Law. TTLF Working Paper No. 54. Disponível
em:
https://www.researchgate.net/publication/341883786_Influencers_and_Social_Media_Recom
mender_Systems_Unfair_Commercial_Practices_in_EU_and_US_Law/link/5faba4c5299bf18
c5b64cba1/download

GOLDMAN, Eric, Content Moderation Remedies. Michigan Technology Law Review, 2021,
Forthcoming, Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3810580.

GOLDSMITH, Jack e WU, Tim. Who controls the internet? Illusions of a bordless world. New
York: ofxord University Press, 2006.

GORWA, Robert & ASH, Timothy Garton. Democratic Transparency in plataforma society.
In: Social Media and Democracy The State of the Field, Prospects for Reform. Cambridge
University Press. 2020, pp. 286-312. Disponível em:
https://gorwa.co.uk/publication/transparency/

GORWA, Robert. What is Plataform Governance? Information, Communication & Society.


University of Oxford. 2019. Disponível em: https://gorwa.co.uk/files/platformgovernance.pdf
Acesso em 10/01/2022

GRIMMELMANN, James. The Virtues of Moderation, 17 Yale J.L. & Tech, 2015. Disponível
em: https:/ / digitalcommons.law.yale.edu/ yjolt/ vol17/ iss1/ 2. Acesso em 09/08/2020. Veja
também: https://www.latimes.com/archives/la-xpm-2005-jun-21-na-wiki21-story.html

GUERRA, Sérgio. Separação de Poderes, Executivo Unitário e Estado Administrativo no


Brasil. In: Teoria do Estado Regulador/organização Sérgio Guerra/ Curitiba: Juruá, V.3,
2017.

GUERRA, Sérgio. Discricionariedade, Regulação e Reflexividade - Uma Nova Teoria


Sobre as Escolhas Administrativas, 4ª edição revista e atualizada, Belo Horizonte, Fórum,
2017.

GUESS, A.; NYHAN, B; REIFLER, J. Selective Exposure to Misinformation: Evidence from


the consumption of fake news during the 2016 U.S. presidential campaign. European
Research Council. 2018. Disponível em: https://cpb-us-
e1.wpmucdn.com/sites.dartmouth.edu/dist/5/2293/files/2021/03/fake-news-2016.pdf Acesso
em: 4 de novembro de 2020.

HAGGART, Blayne; KELLER, Clara Iglesias. Democratic Legitimacy in global plataforma


governance. Telecommunications Policy. 2021, Disponível em
https://www.sciencedirect.com/science/article/pii/S0308596121000562

HARTMANN, Ivar A. M. A Right to Free Internet? On Internet Access and Social Rights.
Journal of High Technology Law, v. XIII, pp. 362-429, 2013. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=2355900
224

HARTMANN, Ivar A. Let the users be the filter? Crowdsourced filtering to avoid online
Intermediary Liability. Journal of the Oxford Centre for Socio-Legal Studies, v. 2017, n. 1,
p. 21-47, 2017.

HARTMANN, Ivar, SARLET, Ingo. Direitos fundamentais e direito privado: a proteção da


liberdade de expressão nas mídias sociais. Direito Público, 16(90). 2019, p. 96. Disponível em:
https://www.portaldeperiodicos.idp.edu.br/direitopublico/article/view/3755 Acesso em
10/10/2021.

HARTMANN, Ivar. MONTEIRO, Julia. Fake News no Contexto da Pandemia e Emergência


Social: os deveres e responsabilidades das plataformas de Redes Sociais na Moderação de
Conteúdo Online: entre a Teoria e as Proposições Legislativas. RDP, Brasília, volume 17, n.
94, 388-414, jul/ago.2020.

HARTMANN, Ivar A. Regulação da internet e novos desafios da proteção de direitos


constitucionais: o caso do revenge porn. Revista de Informação Legislativa: RIL, v. 55, n.
219, p. 13-26, jul./set. 2018. Disponível em:
<https://www12.senado.leg.br/ril/edicoes/55/219/ril_v55_n219_p13>. Acesso em 26/08/2021.

HARTMANN, Ivar. Introdução à regulação de novas tecnologias. Em: Regulação e novas


tecnologias. Coordenação: Armando Castelar Pinheiro, Antônio José Maristello Porto, Patrícia
Regina Pinheiro Sampaio. Rio de Janeiro: FGV Editora, 2022

HARTMANN, Ivar; CURZI, Yasmin; ZINGALES, Nicolo; ALMEIDA, Clara. Moderação de


conteúdo online: contexto brasileiro e perspectivas regulatórias. Rio de Janeiro: Editora
Alameda, 2022 (no prelo).

HLAING, Kyaw Hsan. 14 de maio de 2021. Facebook is still censoring groups fighting the
military coup in Myanmar. Rest of world. Reporting Tech Stories.
https://restofworld.org/2021/facebook-is-still-censoring-groups-fighting-the-military-coup-in-
myanmar/ Acesso em: 05/07/2021.

HOFFMANN, Stacie et al. The Market of Disinformation. Oxford Internet Institute, 2019.
Disponível em: https://oxtec.oii.ox.ac.uk/wp-content/uploads/sites/115/2019/10/OxTEC-The-
Market-of-Disinformation.pdf

HOFFMANN-RIEM. Wolfgang. Teoria do direito digital. Transformaçao digital, desafios


para o direito. Tradução Italo Fuhrmann. Rio de Janeiro: Editora Forense. 2021

IGNACIO, Bruno. Twitter avança em plano para descentralização de redes sociais com
Bluesky. Agosto de 2021. Disponível em: https://tecnoblog.net/noticias/2021/08/19/twitter-
avanca-em-plano-para-descentralizacao-de-redes-sociais-com-bluesky/

INTERINSTITUTIONAL AGREEMENT BETWEEN THE EUROPEAN PARLIAMENT,


THE COUNCIL OF THE EUROPEAN UNION AND THE EUROPEAN COMMISSION.
Better Law-Making. OJ C 321, 31.12.2003. Item 18. Disponível em: https://eur-
lex.europa.eu/legal-content/PT/TXT/PDF/?uri=CELEX:32003Q1231(01)&from=EN
225

JHAVER, Shagun et al. Online Harassment and Content Moderation: The Case of Blocklists.
ACM Transactions on Computer-Human Interaction, s.l, vol. 25, n. 02, março 2018.
Disponível em: http://eegilbert.org/papers/tochi18-jhaver-blocklists.pdf

JHAVER, Shagun; BRUCKMAN, Amy; GILBERT, Eric. Does Transparency in Moderation


Really Matter?: User Behavior After Content Removal Explanations on Reddit. Proc. ACM
Hum.-Comput. Interact. 3, CSCW, Article 150. 2019. Disponível em:
https://doi.org/10.1145/3359252

JUSTEN FILHO, Marçal. Curso de Direito Administrativo. São Paulo: Saraiva, 2006.

KAYE, David. “Report on the Roles Played by Private Actors Engaged in the Provision of
Internet and Telecommunications Access” A/HRC/35/22. Geneva: Human Rights Council.
2017. Disponível em: https://www.ohchr.org/en/calls-for-input/reports/2017/report-role-
digital-access-providers

KAYE, D. Promotion and protection of all human, civil, political and cultural rights, including
the right to development. Relatório especial oferecido na Assembleia Geral das Nações
Unidas, 2018. A/HRC/38/35. Disponível em: https://documents-dds-
ny.un.org/doc/UNDOC/GEN/G18/096/72/PDF/G1809672.pdf

KAYE, D. Promotion and protection of the right to freedom of opinion and expression.
Relatório especial oferecido na Assembleia Geral das Nações Unidas, 2019. A/74/486.
Disponível em: <https://www.ohchr.org/Documents/Issues/Opinion/A_74_486.pdf>.

KIETZMANN, Jan H; HERMKENS, Kristopher; MCCARTHY Ian P.; SILVESTRE, Bruno


S. "Social media? Get serious! Understanding the functional building blocks of social media"
Business Horizons. Vol. 54, 241—251, 2011. Disponível em:
https://www.sciencedirect.com/science/article/abs/pii/S0007681311000061?casa_token=pW
W9skMOni8AAAAA:lQlrbzagRKJ8M2ifZfF514flKDpG1ZMyBMezRtWA4A-
J_GsKdLFjxAZFGW1OpAUPrKbso_cgYTk

KLONICK, Kate. The New Governors: The People, Rules, and Processes Governing Online
Speech. Harvard Law Review. N. 131, 2017. Disponível em:
<https://ssrn.com/abstract=2937985>. Acesso em 01/06/2022.

KLONICK, Kate. The Facebook Oversight Board: Creating an Independent Institution to


Adjudicate Online Free Expression. Yale Law Journal, Vol. 129, nº 2418, 2020. Disponível
em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3639234

KIRA, Beatriz, TAMBELLI, Clarice N. O que está em jogo no debate sobre o cgi.br?
INTERNETLAB - ASSOCIAÇÃO INTERNETLAB DE PESQUISA EM DIREITO E
TECNOLOGIA, 2017. Disponível em: http://www.internetlab.org.br/wp-
content/uploads/2018/01/O-que-esta-em-jogo-no-debate-sobre-CGI_.pdf Acesso em
23/06/2022

KREIMER, Seth F. Censorship by Proxy: The First Amendment, Internet Intermediaries, and
the Problem of the Weakest Link. University of Pennsylvania Law Review, 2006, 155 (1),
pp. 11–101.
226

LA RUE, Frank. 2011. “Report on Key Trends and Challenges to the Right of All Individuals
to Seek, Receive and Impart Information and Ideas of All Kinds through the Internet.”
A/HRC/17/27. May 6. Geneva: Human Rights Council.Disponível em:
https://www2.ohchr.org/english/bodies/hrcouncil/docs/17session/a.hrc.17.27_en.pdf

LAIDLAW, Emily B., Internet Gatekkepers, Human Rights and Corporate Social
Responsabilities, 2012, 304 F. Tese (doutorado) – London School of Economics And Political
Science, London, 2021,

LAPIN. Nota Técnica PL 2.630/2020 sobre a inclusão de mecanismos de transparência


algorítmica no projeto de lei. 2020. Disponível em: https://lapin.org.br/wp-
content/uploads/2020/08/LAPIN-NT-PL-2630-Transparencia-Algoritmica.pdf

LAZER, David et al. The science of fake news. Science. Vol. 359, Issue 6380. 09 Mar, 2018,
p. 1095. Disponível em: https://bit.ly/2X78dDX. Acesso em 08/09/2020

LEERSEN. Paddy. Shadow bans and other secret sanctions: How non-takedown contente
moderation threatens transparency. Draft paper

LENHART, Amanda; YBARRA, Michelle; ZICKUHR, Kathryn; PRICE-FEENEY, Myeshia.


Online Harassment, Digital Abuse, and Cyberstalking in America. Data & Society Institute.
2016, p. 3. Disponível em: https://www.datasociety.net/pubs/oh/Online_Harassment_2016.pdf

LESSIG, Lawrence. Code, Version 2.0, New York: Basic Books, 2006.

LOBEL, Orly. The law of the platform. Minnesota Law Review. N. 101, 2016, p. 106.
Disponível em: https://bit.ly/2WsUms4

LOKUMANNAGE, Amila, Social Media Content Regulation in China: Analysis of English


Language Wechat Accounts (January 31, 2020). Vidyodaya Journal of Humanities and
Social Sciences. Vol. 05(01). Disponível em: https://ssrn.com/abstract=3798256

LU, Christina. China´s social media explosion. 11 de novembro de 2021. Disponível em:
https://www.politics-dz.com/en/chinas-social-media-explosion/

LUHMANN, Niklas (1992) "The Coding of the Legal System.European Yearbook in the
ociology of Law [1991-1992], 145-185

MAJONE, Giandomenico. Do Estado Positivo ao Estado Regulador: Causas e consequências


da mudança do modo de governança. In: Regulação Econômica e Democracia: o debate
europeu. Coordenação e tradução: Paulo Todescan Lessa Mattos. 2 ed.rev. – São Paulo: editora
Revista dos Tribunais. 2017

MANKIW, N. Gregory. Introdução à Economia. São Paulo: Cengage Learning, 2015

MARQUES, Floriano Azevedo. Direito das Telecomunicações e Anatel. In: Direito


Administrativo Econômico. Coord.: Carlos Ari Sundfeld, Ed. Malheiros, São Paulo, 2000.
227

MARQUES NETO, Floriano Peixoto de Azavedo. Agências Reguladoras independentes:


fundamentos e seu regime jurídico. Belo Horizonte: Fórum, 2005.

MARQUES NETO, Floriano de Azevedo Marques. Ensaio sobre o processo como disciplina
do exercício da atividade estatal. 2012, In: Teoria do Processo – Panorama Doutrinário
Mundial ed. Salvador: Editora Podium, 2007, p. 261-285

MARSDEN. Christopher T. Beyond Europe: The Internet, Regulation, and Multistakeholder


Governance—Representing the Consumer Interest? J. Consum Policy Vol. 31. PP. 115–132.
2008, p. 118. Disponível em: https://profiles.sussex.ac.uk/p319200-chris-marsden/publications

MARSDEN, Christopher T., Internet co-regulation and constitutionalism: Towards European


judicial review, International Review of Law, Computers & Technology, 26:2-3, 211-228,
2012, p. 01. DOI: 10.1080/13600869.2012.698450 Disponível em:
https://www.tandfonline.com/doi/abs/10.1080/13600869.2012.698450

MARSDEN, Christopher T. The regulatated end of internet Law, and the return to computer
and information law? Em: After the Digital Tornado Networks, Algorithms, Humanity,
Cambridge University Press. 2020, pp. 35 – 57. Disponível em:
https://www.cambridge.org/core/books/after-the-digital-tornado/regulated-end-of-internet-
law-and-the-return-to-computer-and-information-
law/F7B8DFAC0E3993179FF11093BF14B669

MEDAUAR, Odete. O direito administrativo em evolução. 2ª. ed. São Paulo: RT, 2003, pp.
94-97.

MENDES, Gilmar Ferreira, BRANCO, Paulo Gustavo Goulart. Curso de Direito


Constitucional.13ª Edição Rev. e Atual. São Paulo. Saraiva. 2018.

MONTEIRO, Júlia. COUTO, Natália. Como funciona a personalização de conteúdo em redes


sociais? Disponível em https://www.jota.info/opiniao-e-analise/artigos/como-funciona-a-
personalizacao-de-conteudos-em-redes-sociais-
07082021?fbclid=IwAR1JXd_BKLgYLmW6Ywc9oswjhjSZ7gdmItAA2VK8QQGkbc5Z3z
YiaiaYugs

MONTEIRO, Vera. Art. 29 da LINDB. Regime jurídico da consulta pública. Rev. Direito
Adm., Rio de Janeiro, Edição Especial: Direito Público na Lei de Introdução às Normas de
Direito Brasileiro – LINDB (Lei nº 13.655/2018), p. 225-242, nov. 2018, p. 232. Disponível
em: file:///C:/Users/RRBSC/Downloads/77656-Texto%20do%20Artigo-162000-1-10-
20181123.pdf

MOUNIKA. Alithe Sthephanie. Mastodon social adds policy against casteism as more Indian
users join. 10 de novembro de 2019. Disponível em:
https://www.thenewsminute.com/article/mastodon-social-adds-policy-against-casteism-more-
indian-users-join-112064

MOORE, Taylor. Trade Secrets and Algorithms as Barriers to Social Justice. Center
Democracy & Tecnology. 2017. Disponível em: https://cdt.org/wp-
content/uploads/2017/08/2017-07-31-Trade-Secret-Algorithms-asBarriers-to-Social-
Justice.pdf
228

MOREIRA, Egon Bockmann. Situações Disruptivas, Negócios Jurídico-Administrativos e


Equilíbrio Econômico-Financeiro, in: FREITAS, Rafael Véras de; RIBEIRO, Leonardo
Coelho; FEIGELSON, Bruno (Organização). Regulação e Novas Tecnologias, Belo
Horizonte, Fórum, 2017

MOSSERI, Adam. Explicando melhor o funcionamento do Instagram. 8 de junho de 2021.


Disponpivel em: https://about.instagram.com/pt-br/blog/announcements/shedding-more-light-
on-how-instagram-works

MOZILLA. Mozilla Investigation: YouTube Algorithm Recommends Videos that Violate the
Platform’s Very Own Policies. 07 de julho de 2021. Disponível em: Mozilla Foundation -
Mozilla Investigation: YouTube Algorithm Recommends Videos that Violate the Platform’s
Very Own Policies

NADIM, Marjan; FLADMOE, Audun. Silencing women? Gender and online harassment.
Social Science Computer Review, 2019. Disponível em:
https://journals.sagepub.com/doi/full/10.1177/0894439319865518.

Ó FATHAIGH, Ronan; HELBERGER, Natali; e APPELMAN, Naomi, The Perils of Legally


Defining Disinformation (November 4, 2021). Internet Policy Review 10 (4). 2021,
Disponível em: https://ssrn.com/abstract=3964513

PAPAEVANGELOU, Charilaos. The existential stakes of platform governance: a critical


literature review [version 2; peer review: 3 approved] Open Research Europe 2021, 1:31, p .03.
https://doi.org/10.12688/openreseurope.13358.2 Acesso em 30/06/2022.

POZEN, David E.; KHAN, Lina M. A Skeptical View of Information Fiduciaries, 133 HARV.
L. REV. 497, 497 (2019). Disponível em: https://harvardlawreview.org/2019/12/a-skeptical-
view-of-information-fiduciaries/

PROSSER. Tony. Regulation and Social Solidarity (2006) 33 Journal of Law and Society 364-
87 apud BALDWIN, Robert, CAVE, MARTIN e LODGE, Martin. Understanding Regulation.
Theory, Strategy and Pratice. 2ed. Oxford: Oxford University. 2012.

RAHMAN. K. Sabeel. The New Utilities: Private Power, Social Infrastructure, and the Revival
of the Public Utility Concept, Cardozo Law Review. Vol. 39. 5. pp.1621-1689. 2018.
Disponível em: http://cardozolawreview.com/the-new-utilities-private-power-social-
infrastructure-and-the-revival-of-the-public-utility-concept/

REINDENBERG, Joel R. Lex Informatica: The formulation of Information Policy Rules


Through Tecnology, Texas Law Review, vol. 76, n. 3, 1998, pp. 553-584.

RODOTÀ. Stefano. A vida na sociedade da vigilância. A privacidade hoje. Organização,


seleção e a apresentação de Maria Celina Bodin de Moraes. Rio de Janeiro: Renovar, 2008

ROBERTS, Sarah. Commercial content moderation: Digital laborers’ dirty work. In S. U.


Noble & B. Tynes (Eds.), The intersectional Internet: Race, sex, class and culture online.
New York, NY: Peter Lang, 2016. Disponível em: https://ir.lib.uwo.ca/commpub/12/
229

ROBERTSON, Adi. Twitter is funding research into a decentralized version of its platform.
Dezembro de 2019. Disponível em: https://www.theverge.com/2019/12/11/21010856/twitter-
jack-dorsey-bluesky-decentralized-social-network-research-moderation

RYAN, Johnny, TONER, Alan. Europe’s enforcement paralysis ICCL’s 20. ICCL’s 2021
report on the enforcement capacity of data protection authorities. Irish Council for Civil
Liberties. 2021. Disponível em: https://www.iccl.ie/wp-content/uploads/2021/09/Europes-
enforcement-paralysis-2021-ICCL-report-on-GDPR-enforcement.pdf

SADDY, André. Regulação estatal, autorregulação privada e códigos de conduta e boas


práticas. Rio de Janeiro: Lumen Juris, 2015.

SARLET, Ingo Wolfgang, MARINONI, Luiz Guilherme e MITIDIERO, Daniel. Curso de


direito constitucional. 8. ed. – São Paulo: Saraiva Educação, 2019.

SARMENTO. Daniel. Livre e Iguais: Estudos de Direito constitucional. Rio de Janeiro:


Lumen Juris, 2006.

SCHMIDT, Vivian. Democracy and legitimacy in the European Union revisited: Input, output
and “throughput”. Political Studies, 61(1), 2–22, 2013. https://doi.org/10.1111/j.1467-
9248.2012.00962.x

SCHREIBER, Anderson. Marco Civil da Internet: avanço ou retrocesso? A responsabilidade


civil por dano derivado do conteúdo gerado por terceiro. In: Direito & Internet III - Tomo II:
Marco Civil da Internet: Lei 12.965/2014. DE LUCCA, Newton; SIMÃO FILHO, Adalberto;
LIMA, Cíntia Rosa Pereira de (coords.). São Paulo: Quartier Latin, 2015.

SCOTT, Colin. Regulation in the age of governance: the rise of the post-regulatory state. In:
JORDANA, Jacin; LEVI-FAUR, David. The polics of Regulation – Institutions and
Regulatory Reforma for the Age of Governance. 2004.

SOLOVE, Daniel J. A taxonomy of privacy. University of Pennsylvania Law Review. v. 154,


n. 3, 2006, pp. 477-491. Disponível em: https://bit.ly/1ngGQAa.

STEERING COMMITTEE FOR MEDIA AND INFORMATION SOCIETY. Content


Moderation. Best Practices towards effective legal and procedural frameworks for self-
regulatory and co-regulatory mechanisms of content moderation. Council of Europe. 2021.
Disponível em: https://edoc.coe.int/en/internet/10198-content-moderation-guidance-note.html

SUZOR, Nicolas. Digital Constitutionalism: Using the Rule of Law to Evaluate the Legitimacy
of Governance by Platforms. Social Media + Society, July-September, 2018, p. 2. Disponível
em: https://journals.sagepub.com/doi/10.1177/2056305118787812

SUZOR, Nicolas; VAN GEELEN, Tess; WEST, Sarah. Myers. Evaluating the legitimacy of
platform governance: A review of research and a shared research agenda. International
Communication Gazette, 80(4), 385–400, 2018. Disponível em:
https://doi.org/10.1177/1748048518757142

SUZOR, Nicolas; WEST, Sarah Myers; QUODLING, Andrew; YORK, Jillian. What Do We
Mean When We Talk About Transparency? Toward Meaningful Transparency in Commercial
230

Content Moderation. International Journal of Communication. V. 13, 1526-1543, 2019.


Disponível em: https://ijoc.org/index.php/ijoc/article/view/9736/2610

TEFFÉ, Chiara Spadaccini; MORAES, Maria Celina Bodin. Redes sociais virtuais: privacidade
e responsabilidade civil. Análise a partir do Marco Civil da Internet. Pensar-Revista de
Ciências Jurídicas, v. 22, n. 1, p. 108-146, 2017. Disponível em:
https://periodicos.unifor.br/rpen/article/view/6272

The Santa Clara Principles.”. Disponível em: https://santaclaraprinciples.org/

TOBIN, Ariana; VARNER, Madeleine; ANGWIN, Julia. Facebook's Uneven Enforcement of


Hate Speech Rules Allows Vile to Stay Up. Pro Publica, 2017. Disponível em:
https://www.propublica.org/article/facebook-enforcement-hate-speech-rules-mistakes.

TOFFOLI, José Antônio Dias. Fake news, desinformação e liberdade de expressão. Fake News
e Regulação. Organização: Georges Abboud, Nelson Nery Jr. E Ricardo Campos. 2ed. rev.,
atual. e ampl. - São Paulo: Thomson Reuters Brasil. Coleção Direito e Estado em
transformação. 2020

TWOREK, Heidi; LEERSSEN, Paddy. Na analysis of germany´s NetzDg Law. Transatalntic


Working Group. 2019. Disponível em: NetzDG_Tworek_Leerssen_April_2019.pdf (ivir.nl)
Acesso em 10/10/2021

TUTT, Andrew. An FDA for Algorithms. Administrative Law Review. N. 69, 2017.
Disponível em: https://bit.ly/31Vc8HR. Acesso em 10/10/2020.

TUCKER, Josh. Social Media and Democracy. Cambridge University Press, 2020, p. 286 - 312.
Disponível em: https://www.cambridge.org/core/books/social-media-and-
democracy/democratic-transparency-in-the-platform-
society/F4BC23D2109293FB4A8A6196F66D3E41

UNITED NATIONS HUMAN RIGHTS. Office Of the High Comissioner. Guiding Principles
on Business and Human Rights. Implementing the United Nations “Protect, Respect and
Remedy” Framework.2011, p.202. Disponível em:
https://www.ohchr.org/sites/default/files/documents/publications/guidingprinciplesbusinesshr
_en.pdf

WANG, Jufang. Regulation of Digital Media Plataforms: The case of China. Policy Brief. The
Foundation for Law, Justice and Society (FLJS). Oxford. 2020, p. 02.Disponível em:
https://www.fljs.org/regulation-digital-media-platforms-case-china

WARREN, Samuel; BRANDEIS, Louis D. The Right to Privacy. Harvard Law Review, Vol.
4, No. 5, pp. 193-220, 1980, p.195. Disponível em:
https://www.cs.cornell.edu/~shmat/courses/cs5436/warren-brandeis.pdf

WEBER, Max. Ciência e Política: Duas Vocações. Ed. Martin Claret. São Paulo. 2015

WIMMER, Miriam. Serviços públicos de radiodifusão? Incoerências, insuficiências e


contradições na regulamentação infraconstitucional. Revista Eletrônica Internacional de
Economia Política da Informação, da Comunicação e da Cultura. Vol. 11. N. 1. 2009.
231

Disponível em: https://scholar.google.com/citations?view_op=view_citation&hl=pt-


BR&user=yfbP16EAAAAJ&citation_for_view=yfbP16EAAAAJ:Tyk-4Ss8FVUC

WIMMER, Miriam, CARVALHO, Lucas Borges. O papel e os limites do anonimato: em busca


de uma interpretação constitucionalmente adequada. Pensar. Revista de Ciências Jurídicas. v.
27, n. 2, p. 1-16, abr./jun. 2022. Disponível em: file:///C:/Users/user/Downloads/13041-
Texto%20do%20Artigo-54711-54427-10-20220602.pdf

WINCHCOMB. Tim. White paper: Ofcom: Use of AI in online content moderation.


Cambridge Consultants, 2019. Disponível em:
https://www.cambridgeconsultants.com/insights/whitepaper/ofcom-use-ai-online-content-
moderation Acesso em 10/01/2022.

WOODHOUSE. John. Regulating Online harms. House of Commons Library. 15 de março


de 2022. Disponível em: https://researchbriefings.files.parliament.uk/documents/CBP-
8743/CBP-8743.pdf

World Summit on the Information Society – WSIS. Tunis Agenda for the information society.
18 de novembro de 2005. Disponível em:
https://www.itu.int/net/wsis/docs2/tunis/off/6rev1.html

WU, Tim. Cyberspace Sovereignty? The internet and the Internacional System. Harvard
Journal of Law and Technology, v. 10, n. 3, 1997. Disponível em:
http://jolt.law.harvard.edu/articles/pdf/v10/10HarvJLTech647.pdf

WU, Tim, Is Internet Exceptionalism Dead? (Dezembro, 2010). The Next Digital Decade -
Essays on the future of the internet, p. 179, Berin Szoka, Adam Marcus, eds., TechFreedom,
Washington, D.C., 2010, Disponível em: https://ssrn.com/abstract=1752415

YOUTUBE. Our ongoing work to tackle hate. Setembro de 2019. Disponível em:
https://blog.youtube/news-and-events/our-ongoing-work-to-tackle-hate/

YOUTUBE. Our ongoing work to tackle hate. Setembro de 2019. Disponível em:
https://blog.youtube/news-and-events/our-ongoing-work-to-tackle-hate/

ZARSKY, Tal. Incompatible: The GDPR in the Age of Big Data. Seton Hall Law Review. N.
47, 2017. Disponível em: https://bit.ly/2Ln5yE7

ZINGALES, Luigi. LANCIERI, Filipo. Stigler Committee on Digital Platforms: Policy Brief.
Stigler Center for the Study of the Economy and the State. Chicago Booth. 2019, pp. 6-22.
Disponível em: https://www.publicknowledge.org/wp-content/uploads/2019/09/Stigler-
Committee-on-Digital-Platforms-Final-Report.pdf. Acesso em 20/11/2020.

ZINGALES, Nicolo. The Brazilian approach to internet intermediary liability: blueprint for a
global regime? Internet Policy Review, Journal on internet regulation, v. 4, n. 4,
2015.Disponível em: https://policyreview.info/articles/analysis/brazilian-approach-internet-
intermediary-liability-blueprint-global-regime

ZINGALES, Nicolo; RADU, Roxana, In Search of the Holy Grail: A Principled Approach to
Multistakeholder Governance. Internet Policy-Making. 2015. GigaNet: Global Internet
232

Governance Academic Network, Annual Symposium 2015. Disponível em: SSRN:


https://ssrn.com/abstract=2809920

ZINGALES, Nicolo. Accountability. In: BELLI, Luca; ZINGALES, Nicolo; CURZI, Yasmin
(eds.). Glossary of platform law and policy terms. Rio de Janeiro: FGV Direito Rio, 2021.
Disponível em: https://bibliotecadigital.fgv.br/dspace/handle/10438/31365

ZUBOFF, Shoshana. The age of surveillance capitalism: The Fight for a Human Future at
the New Frontier of Power. New York: Public Affairs. 2018.

LEGISLAÇÃO

BRASIL, Lei 4117/62. Institui o Código Brasileiro de Telecomunicações. Disponível em:


https://www.planalto.gov.br/ccivil_03/LEIS/L4117Compilada.htm Acesso em 30/05/2022.

BRASIL, Decreto Presidencial nº 52.795/63. Aprova o Regulamento dos Serviços de


Radiodifusão. Disponível em:
http://www.planalto.gov.br/ccivil_03/decreto/antigos/d52795.htm Acesso em 30/05/2022

BRASIL, Constituição Federal. Constituição da República Federativa do Brasil de 1988.


Disponível em: http://www.planalto.gov.br/ccivil_03/constituicao/constituicao.html

BRASIL, Decreto nº592 de 6 de julho de 1992. Atos Internacionais. Pacto Internacional


sobre Direitos Civis e Políticos. Promulgação. Disponível em:
http://www.planalto.gov.br/ccivil_03/decreto/1990-1994/d0592.htm

BRASIL, Lei 9472/97. Dispõe sobre a organização dos serviços de telecomunicações, a criação
e funcionamento de um órgão regulador e outros aspectos institucionais, nos termos da Emenda
Constitucional nº 8, de 1995. Disponível em:
http://www.planalto.gov.br/ccivil_03/leis/l9472.htm

BRASIL, Lei 10.848/2004, artigo 11 que alterou a Lei 6.648/1998. Dispõe sobre a
comercialização de energia elétrica, altera as Leis nºs 5.655, de 20 de maio de 1971, 8.631, de
4 de março de 1993, 9.074, de 7 de julho de 1995, 9.427, de 26 de dezembro de 1996, 9.478,
de 6 de agosto de 1997, 9.648, de 27 de maio de 1998, 9.991, de 24 de julho de 2000, 10.438,
de 26 de abril de 2002, e dá outras providências. Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2004-2006/2004/lei/l10.848.htm

BRASIL. Lei 12.735/12. Altera o Decreto-Lei nº 2.848, de 7 de dezembro de 1940 - Código


Penal, o Decreto-Lei nº 1.001, de 21 de outubro de 1969 - Código Penal Militar, e a Lei nº
7.716, de 5 de janeiro de 1989, para tipificar condutas realizadas mediante uso de sistema
eletrônico, digital ou similares, que sejam praticadas contra sistemas informatizados e similares;
e dá outras providências. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-
2014/2012/lei/l12735.htm

BRASIL, Lei 12.737/2012. Dispõe sobre a tipificação criminal de delitos informáticos; altera
o Decreto-Lei nº 2.848, de 7 de dezembro de 1940 - Código Penal; e dá outras providências.
233

Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-2014/2012/lei/l12737.htm


Acesso em 10/06/2022.

BRASIL. Lei 12.965/2014. Estabelece princípios, garantias, direitos e deveres para o uso da
Internet no Brasil. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2011-
2014/2014/lei/l12965.htm

BRASIL, Lei 13.079/2018. Lei Geral de Proteção de Dados Pessoais (LGPD). Disponível em:
http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/l13709.htm

BRASIL. Projeto de Lei 2630/2020. Institui a Lei Brasileira de Liberdade, Responsabilidade


e Transparência na Internet. Disponível em: https://www.camara.leg.br/propostas-
legislativas/2256735

BRASIL, MP 1068 de 21 de setembro de 2021, que alterava a Lei nº 12.965, de 23 de abril de


2014, e a Lei nº 9.610, de 19 de fevereiro de 1998, para dispor sobre o uso de redes sociais.
Disponível em: https://www.in.gov.br/en/web/dou/-/medida-provisoria-n-1.068-de-6-de-
setembro-de-2021-343277275

DEPARTMENT FOR DIGITAL, CULTURE, MEDIA & SPORT AND HOME OFFICE. Draft
Online Safety Bill. The draft Online Safety Bill establishes a new regulatory framework to
tackle harmful content online. 2021. Disponível em:
https://www.gov.uk/government/publications/draft-online-safety-bill

EUROPEAN COMMISSION. Proposal for a Regulation on a Single Market For Digital


Services (Digital Services Act). 15 de dezembro de 2020. Disponível em: https://eur-
lex.europa.eu/legal-
content/en/TXT/?qid=1608117147218&uri=COM%3A2020%3A825%3AFIN

NAÇÕES UNIDAS. Declaração Universal de Direitos Humanos. Disponível em:


https://www.ohchr.org/en/human-rights/universal-
declaration/translations/portuguese?LangID=por

BRASIL. Projeto de Lei 2630/2020. Institui a Lei Brasileira de Liberdade, Responsabilidade


e Transparência na Internet. Disponível em: https://www.camara.leg.br/propostas-
legislativas/2256735

PRECEDENTES

STJ, RESP 1.192.208, Rel. Min. Nancu Andrighi, 3ª T. Dj. 02.08.2012. Disponível em:
https://scon.stj.jus.br/SCON/jurisprudencia/doc.jsp?livre=1.192.208&b=ACOR&p=false&l=1
0&i=6&operador=E&tipo_visualizacao=RESUMO Acesso em 07/04/2021.
1
STJ, RESP 1.323.754, Rel. Min. Nancy Andrighi, Dj 19.06.2012. Disponível em:
https://scon.stj.jus.br/SCON/jurisprudencia/doc.jsp?livre=1.323.754&pesquisaAmigavel=+%
3Cb%3E1.323.754%3C%2Fb%3E&b=ACOR&p=false&thesaurus=&l=10&i=13&operador=
E&tipo_visualizacao=RESUMO&tp=T

SUPREMO TRIBUNAL FEDERAL. TEMA 987. Discussão sobre a constitucionalidade do


art. 19 da Lei n. 12.965/2014 (Marco Civil da Internet) que determina a necessidade de prévia
234

e específica ordem judicial de exclusão de conteúdo para a responsabilização civil de provedor


de internet, websites e gestores de aplicativos de redes sociais por danos decorrentes de atos
ilícitos praticados por terceiros. Disponível em:
https://portal.stf.jus.br/jurisprudenciaRepercussao/verAndamentoProcesso.asp?incidente=516
0549&numeroProcesso=1037396&classeProcesso=RE&numeroTema=987

Recurso Extraordinário nº 1010606, Relator: Ministro Dias Toffoli, acórdão proferido pelo
Tribunal Pleno, publicado em 20/05/2021. Disponível em:
https://jurisprudencia.stf.jus.br/pages/search?base=acordaos&pesquisa_inteiro_teor=false&sin
onimo=true&plural=true&radicais=false&buscaExata=true&page=1&pageSize=10&queryStr
ing=1.010.606&sort=_score&sortBy=desc
Recurso Extraordinário nº 201819-8/RJ, Relator: Ministro Gilmar Mendes. Segunda Turma.
11/10/2005. DJ: 27/10/2006 Disponível em:
https://redir.stf.jus.br/paginadorpub/paginador.jsp?docTP=AC&docID=388784 Acesso em
10/06/2022.

Supremo Tribunal Federal. Ação Direta de Inconstitucionalidade – ADI nº 1668 MC/ DF, de
Relatoria do Minº Marco Aurélio, pelo Tribunal Pleno, conforme publicado, em 16/04/2004,
no DJ PP-00054 EMENT VOL-02147-01 PP-00127. Disponível em:
https://jurisprudencia.stf.jus.br/pages/search/sjur96611/false

ADPF nº 130, Tribunal Pleno. Relator: Ministro Carlos Ayres Brito. Julgamento: 30/04/2019.
Disponível em:
https://redir.stf.jus.br/paginadorpub/paginador.jsp?docTP=AC&docID=605411

Você também pode gostar