Escolar Documentos
Profissional Documentos
Cultura Documentos
2021
Confúcio 1
A maneira como nos comunicamos vem, ao longo dos últimos anos, transformando-se
e evoluindo em velocidade e sentidos jamais vistos. Atualmente, o consumo de
informações por meio de vídeos, especialmente em dispositivos móveis, encontra-se em
uma curva de ascensão exponencial . A digitalização da informação, somada ao
3
cada cinco usuários da Internet se informa através da plataforma, que fica atrás apenas do
Facebook no que diz respeito ao número de usuários . 5
A atração exercida pelos meios de comunicação audiovisual pode ser explicada por
aquilo que os psicólogos denominam “fluência de processamento”, que corresponde ao
nosso viés cognitivo inconsciente de predileção por informações as quais nosso cérebro
pode processar rapidamente . Isso pode ser problemático, como veremos a seguir, porque
6
as pessoas tendem a acreditar no que veem, de modo que imagens e outras formas de
mídias digitais são frequentemente aceitas enquanto verdadeiras sem questionamentos . 7
Como nós somos, em certo sentido, “programados” para acreditar naquilo que vemos ou
ouvimos, temos a tendência de considerar vídeos e áudios como autênticos e
incorruptíveis. A título ilustrativo, podemos mencionar um estudo que demonstrou que as
pessoas são mais propensas a acreditar na afirmação de que “macadâmias são da mesma
família que pêssegos” se a frase estivesse acompanhada por uma imagem de
macadâmias . 8
Nos dias de hoje, tem se tornado cada vez mais fácil sintetizar automaticamente rostos
inexistentes ou manipular o rosto de uma pessoa real em uma imagem ou vídeo, devido,
principalmente, à acessibilidade a dados públicos e a grandes bases de dados contendo
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad82… 1/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
milhões de imagens faciais, bem como à evolução das técnicas de machine learning e
deep learning . Tecnologias que permitem realizar a manipulação de vídeos e cujo
10
seguir. Adiantamos, desde já, que, embora a ameaça imposta pelas deepfakes ainda não
seja significante para a maioria das pessoas, a sua utilização já tem trazido implicações
graves para políticos, celebridades ou pessoas “de interesse” . E mais: com a proliferação17
quanto a mídias sonoras – estas não serão, por ora, objeto de nossa análise. Mas o que,
exatamente, são deepfakes?
produzidos eram manipulações de filmes pornôs, nos quais os rostos das atrizes eram
substituídos pelos de outras, como Scarlett Johansson e Gal Gadot, que nunca
participaram de produções pornográficas. Isso releva dois aspectos polêmicos das
deepfakes, aos quais retornaremos adiante: primeiro, embora mídias digitalmente
manipuladas possam ser criadas com o consentimento das pessoas cujos rostos são
utilizados, isso frequentemente não ocorre ; segundo, deepfakes podem ser – e são –
21
Colocando em termos mais simples, uma deepfake é um tipo de “mídia sintética”, o que
significa dizer que se trata de uma mídia – incluindo-se imagens, áudio e vídeo – que é ou
manipulada ou inteiramente gerada por uma inteligência artificial . Nesse ponto, destaca- 23
Outra distinção cabível é aquela que se estabelece entre deepfakes, tal qual definidas
anteriormente, e as chamadas “cheapfakes” . Pensemos, por exemplo, na imagem
26
nas eleições de 2018, Manuela D’Ávila, em que apareciam suas supostas tatuagens dos
rostos de Che Guevara e Lênin e que, ainda, mostravam a política utilizando uma faixa
presidencial claramente editada . Embora se tratasse de manipulações grotescas, ou, no
28
No que tange ao primeiro aspecto, Schick afirma que a “IA vai criar efeitos audiovisuais
muito melhores do que qualquer coisa que os estúdios de CGI já fizeram no passado” . 29 30
Talvez o mais conhecido exemplo do uso de GCI seja o filme “O Curioso Caso de
Benjamim Button”, de 2008, no qual Brad Pitt interpreta um homem que, em vez de
envelhecer com o passar do tempo, já nasce idoso e vai se tornando mais jovem a cada
dia. Embora não seja possível saber exatamente quanto foi gasto para a manipulação do
rosto do ator, diversas declarações foram feitas no sentido de que os efeitos especiais
contribuíram para o alto custo da produção – cerca de 170 milhões de dólares à época . 31
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad82… 3/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
confiança em mídias fotográficas tenha decaído durante às últimas décadas, nós ainda
depositamos muita confiança em evidências videográficas . 33
Schick aponta que uma terceira característica das deepfakes seria seu baixo custo , 37
uma vez que produzir vídeos digitalmente manipulados é cada vez menos dispendioso.
Essa característica, todavia, não é mais que um desdobramento da segunda que
apontamos, a facilidade de acesso às novas tecnologias. Deixando de lado esse
preciosismo, importa-nos o fato de que o custo de criação das deepfakes é cada vez mais
baixo, e em breve será inexistente. Em suma, o ponto de inflexão dessas tecnologias é o
escopo, a escala e a sofisticação dos métodos e instrumentos envolvidos, os quais
permitem que basicamente qualquer pessoa com acesso a um computador produza
conteúdos artificiais praticamente indistinguíveis daqueles considerados autênticos . 38
Combinados, esses fatores são uma “receita para o sucesso” , responsáveis pela 39
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad82… 4/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
suprimidos por uma nova classe de sistemas de deep learning, considerada por diversos
autores como um dos fatores preponderantes da explosão das deepfakes: as redes
42
Uma GAN é capaz de analisar milhares de fotos ou vídeos de uma pessoa em poucos
segundos, eliminando a necessidade de alimentação manual de dados que ocorre quando
a tecnologia adotada é a de autoencoders . Dessa forma, é possível produzir um novo
45
retrato ou vídeo de uma pessoa que combine as características das mídias analisadas,
sem que se trate de uma cópia exata de qualquer uma delas. Essa nova mídia pode ser
completamente original, isto é, pode representar um rosto que não existe “na vida real” , 46
Juízos de valor à parte, a intenção do vídeo é, mediante um caso prático, demonstrar como
as tecnologias de manipulação têm evoluído, bem como alertar para os perigos que
decorrem dessa evolução.
Alguém poderia argumentar que somente foi possível produzir um vídeo falso tão
preciso porque há milhares, senão milhões, de imagens e vídeos do ex-presidente Barack
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad82… 6/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
atualmente, as GANs demandem uma base de dados extensa para que o resultado seja,
de fato, verossimilhante e fidedigno, a tendência é que sejam necessárias bases de dados
cada vez menores para se produzir uma deepfake . Aliás, nesse ponto, vale dizer: já é
49
possível criar vídeos, ainda que de qualidade duvidosa, a partir de apenas uma foto ou
imagem da pessoa, o que fez com que nem mesmo a Monalisa escapasse da tecnologia . 50
Barack Obama, citado anteriormente, mas poderia ser de qualquer outra pessoa, qualquer
um de nós, se houver material suficiente para isso.
Analisadas, ainda que sucintamente, as inovações tecnológicas por trás das deepfakes,
cabe a nós discutir quais são os principais tipos de manipulação faciais existentes. Uma
vez mais, as classificações estabelecidas por diferentes autores variarão, mas podemos
apontar quatro principais categorias no que tange ao nível de manipulação: a) síntese
facial total; b) troca de identidade/rostos; c) manipulação de atributos faciais; e d) troca de
expressões faciais . 52
Essa técnica tem sido amplamente empregada para inserir o rosto de atrizes famosas em
vídeos nos quais elas nunca apareceram, conforme já exposto. Embora a troca de rostos
já fosse possível através de mecanismos gráficos computacionais “clássicos”, como aquele
empregado pelo aplicativo FaceSwap, softwares e aplicativos mais recentes, como
Impressions DeepFake e ZAO, têm se valido de novas técnicas de aprendizado de
máquina, as chamadas GANs, para realizar essa função – retomaremos a discussão 55
modo que a região da boca esteja em consonância com um registro de áudio previamente
definido, inserindo palavras na boca de quem é retratado no vídeo. Já o segundo se dá
quando a imagem de uma pessoa é animada (incluindo-se os movimentos da cabeça,
olhos, expressões faciais) pelo “manipulador”, uma pessoa que deverá falar e fazer aquilo
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad82… 7/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
que o “fantoche” reproduzir, o que hoje já é possível fazer em tempo real . Ainda em 60
não são capazes de englobar todas as formas de manipulação facial tornadas possíveis
pelas GANs. Nesse sentido, buscaremos expor duas outras abordagens no âmbito da
manipulação facial: a mutação facial e a “desidentificação” facial . 62
Talvez alguns leitores estejam se questionando por que um livro cujo foco é discutir
tecnologias de reconhecimento facial possui um capítulo inteiro dedicado a um assunto
aparentemente tão diverso. Como exposto anteriormente, a maior parte das deepfakes
focam celebridades, políticos, ou pessoas que, de alguma forma, despertam o interesse
público, o que se dá, entre outros motivos, porque a Internet é uma excelente e quase
inesgotável fonte de fotos e vídeos dessas pessoas. E, de fato, ainda são necessárias
grandes bases de dados para se treinar uma IA capaz de produzir uma deepfake com
certa qualidade. A questão é que isso tem mudado em três diferentes sentidos – e é
justamente nesse ponto que as tecnologias de reconhecimento facial se relacionam às
deepfakes.
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad82… 8/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
interessante notar que os algoritmos treinados com bases de dados mistas (i.e., com
imagens reais e imagens “produzidas” por uma GAN) tendem a demonstrar uma acurácia
mais elevada que aqueles treinados apenas com imagens reais . 70
Por fim, a tendência que se observa é a necessidade de bases de dados cada vez
menores para se produzir uma deepfake. Em outras palavras, menos fotos e/ou vídeos de
uma pessoa serão necessários para que se treine a inteligência artificial responsável por
criar a mídia sintética. Possivelmente, em um futuro não tão distante, bastará uma única
foto para se gerar uma deepfake. Nas palavras de Schick, “não é exagero dizer que, se
você já foi gravado a qualquer momento, em qualquer forma de documentação audiovisual,
seja uma fotografia, um vídeo ou uma gravação de áudio, então você poderia teoricamente
ser vítima de uma deepfake” . 71
Podemos afirmar, portanto, que tem se tornando cada vez mais fácil criar digitalmente
faces inexistentes ou manipular uma face real de uma pessoa em uma imagem ou vídeo,
graças a fatores como a acessibilidade a grandes bases de dados e à evolução das
tecnologias de inteligência artificial, como as GANs. Na medida em que mais elementos
das nossas vidas são constantemente capturados e compartilhados (por exemplo, através
de redes sociais), fornecemos cada vez mais dados sobre nós mesmos, que podem ser –
e provavelmente serão – utilizados para treinar algoritmos de reconhecimento facial e de
produção de mídias sintéticas, com ou sem nossa permissão ou ciência . 72
necessário quanto inevitável. Diante disso, é importante que compreendamos não apenas
como essas tecnologias funcionam, mas também quem as produz ou utiliza, e por que – e
justamente a essa empreitada dedicaremos o próximo tópico.
fotos, para produzir uma falsificação. Além disso, embora o programa seja relativamente
fácil de usar, existem diversos tutoriais na internet cujo objetivo é ensinar “pessoas
comuns” a utilizá-lo, o que demonstra, afinal, que não era tão acessível.
produção das mídias é uma série de selfies dos usuários, sendo que, em alguns casos,
uma única foto basta. Outro caso interessante é o WaveNet, da Google , que permite a 77
criação de falas realistas a partir de textos – embora o sistema conte com algumas
limitações, como o uso de vozes predefinidas (90 diferentes) e um número máximo de
caracteres a serem transformados em áudio na versão gratuita (1 milhão, para ser
preciso), a tendência é que, futuramente, qualquer voz possa ser reproduzida a partir do
programa.
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad82… 9/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
Nosso ponto é: atualmente, qualquer pessoa pode produzir uma deepfake. E, com a
facilidade de compartilhamento de conteúdo propiciada pelas redes sociais, a distribuição
dessas falsificações acaba sendo tão corriqueira e exequível quanto a sua produção. Isso
é relevante porque, considerados os fatores apontados até aqui, todas as instituições e
indivíduos estão mais vulneráveis a fraudes nesse novo ecossistema informacional, de
modo que todos nós somos, agora, potenciais alvos de ações de desinformação ou má
informação que poderiam afetar nossas reputações, negócios e até mesmo nosso
desenvolvimento pessoal . 78
Até o momento, quase todos os exemplos trazidos sobre o uso de deepfakes não
parecem positivos ou benéficos para a sociedade como um todo. Aliás, cabe dizer: a
própria utilização do termo deepfake, de maneira indistinta, denota uma negatividade
quase intrínseca a essa tecnologia. Não obstante, para além dos evidentes problemas, a
criação digital de mídias – às quais, repetimos, iremos nos referir ora como “mídias
sintéticas”, ora como “deepfakes” – também traz consigo diversos aspectos favoráveis.
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 10/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 11/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
franquia, a atriz Carrie Fisher, que deu vida à icônica personagem Leia Organa, apareceu
em cenas que não foram, de fato, gravadas. Utilizando técnicas de deep learning, os
produtores de efeitos visuais foram capazes de, a partir de fragmentos de vídeos já
existentes, reproduzir o rosto e a voz de Fisher, criando diálogos adicionais para sua
personagem . Vale dizer que, ao mesmo tempo que causaram comoção e contentamento
81
de diversos fãs, as reaparições de Cushing e Fisher trouxeram à tona debates acerca dos
aspectos éticos e jurídicos de se “ressuscitar” atores.
Executivo brasileiro, Jair Bolsonaro, aparece cantando a popular música “Admirável Gado
Novo” . Difícil é dizer se essas manipulações serão classificadas como mídias sintéticas,
84
Mais um caso notável, e que tem a ver tanto com fins de entretimento quanto
educacionais – os quais veremos a seguir – é a possibilidade de se utilizar manipulações
faciais para preservar a identidade de participantes de documentários, ao mesmo tempo
que se mantêm a emoção e sentimentos ínsitos à produção. O documentário Welcome to
Chechnya retrata a luta de pessoas LGBT na Rússia, bem como o trabalho de ativistas que
as auxiliam. A fim de evitar o fomento a uma perseguição ainda mais incisiva, os
produtores decidiram empregar técnicas de edição facial que evitassem a identificação dos
entrevistados, mas que, simultaneamente, preservassem a emoção de suas falas, um
aspecto essencial para a promoção de empatia por parte do público . 85
5.4.1.2. Educação
De certa forma, é uma inovação similar àquela proporcionada pelo acesso a tecnologias
audiovisuais em sala de aula, a partir dos anos 1980 e 1990. Com a nova tecnologia, será
possível, por exemplo, criar vídeos de figuras históricas que conversem diretamente com
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 12/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
os alunos, substituindo aulas meramente expositivas, as quais são, muitas vezes, pouco
cativantes. A tecnologia ainda permite a produção relativamente barata e acessível de
conteúdo de vídeo que altera filmes ou gravações existentes, para ilustrar determinados
objetivos pedagógicos . 87
As tecnologias de criação de mídias digitais podem ser utilizadas também para uma
variedade de fins de autoexpressão, que podem ser mais bem descritos como uma forma
de exercício de autonomia . Uma das hipóteses mais recorrentes é a criação de avatares,
90
Com as novas tecnologias de IA, será possível inserir simulacros cada vez mais
realistas de uma pessoa em uma variedade ainda maior de meios. O seu uso não se
limitará aos videogames, de modo que experiências sensoriais e pessoais se tornarão
cada vez mais comuns. Futuramente, pessoas com Alzheimer que tenham dificuldade de
reconhecer parentes ou amigos poderão interagir com rostos dos quais ainda se lembram,
graças a manipulações digitais que realizem o seu rejuvenescimento . Ainda que 91
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 13/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
delas. Não obstante, ignorar os eventuais danos trazidos por essas tecnologias não
apenas seria um ato de ingenuidade como também significaria perder totalmente o
propósito de nossa discussão neste capítulo.
Retornemos, por um instante, a uma discussão trazida no tópico 3.1. deste trabalho.
Vimos que, em determinado momento da história, o corpo humano (em seu aspecto
material) foi deixado de lado em razão da valoração do chamado “corpo eletrônico”.
Todavia, desde que os dados pessoais biométricos passaram a ser utilizados como
instrumentos indispensáveis à identificação pessoal, o corpo físico readquiriu importância . 96
Mais recentemente, voltou-se a prestar atenção aos componentes físicos, sobretudo porque
a realidade desmaterializada, em muitas situações, pode não garantir segurança na
identificação do sujeito a que se quer referir. (...) Uma vez confiada a identidade unicamente a
dados destituídos de qualquer relação com a pessoa concreta a que se referem, cresce o risco
de furtos de identidade mediante a simples apropriação de um código numérico, de uma
palavra-chave, de um algoritmo.97
O jurista italiano aponta, dessa forma, que a insegurança relacionada ao uso de dados
eletrônicos de identificação, como senhas e códigos PIN, fez com que os elementos
corpóreos – dados pessoais biométricos – readquirissem relevância. Em outras palavras,
devido à maior segurança que proporcionavam, dados como impressões digitais e
biometria facial passaram a ser amplamente empregados para fins de definição e
reconhecimento da identidade pessoal. Isso tem ocorrido desde meados dos anos 1980,
embora, logicamente, com maior frequência e escopo nos tempos atuais, em decorrência
dos avanços tecnológicos já discutidos.
fácil reproduzir, ou melhor, falsificar, vozes, impressões digitais 2D e imagens faciais para
se obter acesso não autorizado a inúmeros serviços e informações.
aumento no uso fraudulento dessas tecnologias, uma vez que sistemas de autenticação
baseadas em dados biométricos vêm sendo amplamente adotadas. Isso se torna
particularmente preocupante se considerarmos que muitos desses sistemas são incapazes
de detectar e prevenir as deepfakes , uma vez que se baseiam na mera checagem de
100
dados tidos como secretos, em vez de analisarem fatores que indiquem a “vivacidade” no
momento de autenticação biométrica . 101
Além do furto de identidade, outros tipos de fraude podem se tornar mais comuns. Será
possível, por exemplo, forjar um sequestro e utilizar vídeos falsificados da suposta vítima
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 14/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
para convencer seus familiares a pagarem o resgate pedido. Ou, então, como melhor
veremos a seguir, casos de sextortion (chantagem mediante ameaça de divulgação de
conteúdo sexual) poderão ocorrer com maior intensidade, devido à facilidade de se
produzir deepfakes de cunho erótico ou pornográfico. Este último exemplo revela um
importante e estarrecedor aspecto das deepfakes: o seu potencial uso para perpetuação e
acentuação da violência de gênero, que será trabalhado no tópico seguinte.
motivos para acreditarmos que a criação de vídeos de conteúdo erótico se dará sempre de
maneira consensual e legítima. Pelo contrário. Basta recordarmos o caso de Rana Ayubb,
jornalista indiana que foi vítima de uma deepfake pornográfica, veiculada por extremistas
de direita como forma de vingança pelas denúncias realizadas por ela referentes à
violência sexual praticada contra uma garota de apenas 8 anos de idade em seu país.
Não faz muito tempo desde que as discussões sobre revenge porn – pornografia de
vingança – ganharam a atenção da mídia e do meio jurídico , e uma nova fonte de 103
FakeApp e FindPornFace , têm sido empregados com o objetivo de criar vídeos falsos,
105
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 15/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
Nas palavras de Luciano Floridi, “as tecnologias digitais parecem minar nossa
confiança na natureza original, genuína e autêntica daquilo que vemos e ouvimos” . 106
“apocalipse informacional” faz com que as pessoas pensem que não podem confiar em
108
informações que não sejam provenientes de suas redes de contato, nas quais se incluem
seus familiares, amigos próximos ou colegas de trabalho, por exemplo.
Bobby Chesney e Danielle Citron apontam três fenômenos cognitivos que ajudam a
compreender por que as deepfakes possuem uma inclinação para se tornar virais : a 109
Esses fatores, somados ao fato de que as deepfakes têm se tornado tão realísticas a
ponto de confundir um expectador leigo ou desatento, podem levar a uma “anarquia
informacional”, um mundo caracterizado por uma insuperável paranoia acerca do que é
verdadeiro e o que é falso, afetando profundamente os processos de tomada de decisão
individuais e coletivos que dependem da existência de um mínimo de confiança em fontes
externas de comunicação . Deepfakes causarão tamanho desgaste na credibilidade das
110
instituições, tanto públicas quanto privadas, que elas enfrentarão uma crescente
dificuldade de se mostrar confiáveis para as pessoas de maneira geral, caracterizando a
erosão da confiabilidade.
as crenças das pessoas servissem aos interesses do governo, hoje as deepfakes podem
ser utilizadas como instrumento de controle de narrativas, elevando a novilíngua orwelliana
a um novo patamar. Nesse sentido, é importante que tenhamos em mente que a perda da
importância da verdade, somada à erosão da confiabilidade, pode abrir espaço para o
autoritarismo:
O fenômeno das fake news está diretamente relacionado aos fatores que definimos no
último tópico como “erosão da confiabilidade” e “dividendo do mentiroso”. Não se trata de
um algo novo, tampouco desconhecido – por mais que gostaríamos de dizer o contrário.
Mentiras e informações distorcidas existem desde que o homem e alguns outros animais 122
somando forças suficientes para representar uma ameaça à própria noção de democracia.
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 17/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
Indo além, o Grupo de especialistas aponta para o uso do termo fake news como
instrumento de concretização daquilo que definimos como “dividendo do mentiroso”,
afirmando que o termo
não só é inadequado, como também enganoso, porque foi apropriado por alguns políticos e
seus apoiadores, que usam o termo para desacreditar reportagens das quais discordam, e se
tornou assim uma arma com a qual atores poderosos podem interferir na circulação de
informações e atacar e minar a mídia jornalística independente.128
é, dessa forma, dissociado do fenômeno das fake news (ou, nos termos do Relatório, da
desinformação), não sendo objeto de estudo do Grupo.
Seguramente, concordamos com a noção de que o termo fake news não é suficiente
para dar conta de toda a polissemia que implica, e que sua utilização indistinta pode, em
determinados contextos, ser contraproducente ou inadequada. Não acreditamos, porém,
que o termo disinformation abarque todos os sentidos possíveis do fenômeno estudado, de
modo que se mostra insuficiente para a análise que pretendemos realizar neste capítulo.
Nesse sentido, é interessante notar que Wardle, após defender a utilização dos termos
misinformation e desinformation em substituição à expressão “fake news”, elenca 7 tipos
de má informação e desinformação, em uma escala de gradação do potencial enganoso e
lesivo de cada um. São eles:
1. Sátira ou paródia: não há intenção de causar mal, mas tem potencial de enganar;
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 18/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
7. Conteúdo fabricado: conteúdo inédito, 100% falso e criado com intuito de desinformar o
público e causar algum dano.130
Em maior ou menor medida, os diferentes tipos de fake news poderiam também ser
aplicados à classificação das deepfakes. Dito isso, tendo em vista a incipiência dessa
discussão no contexto sociojurídico brasileiro, e em razão do valor heurístico que possui,
seguiremos utilizando a expressão fake news, realizando, quando cabível e necessária, a
distinção entre disinformation e misinformation.
apenas tornam possível como facilitam e encorajam uma conectividade global, fazendo
com que qualquer pessoa com acesso à internet seja um potencial produtor e
disseminador de conteúdo. Entre essas plataformas, as redes sociais se destacam pela
ampla – senão ilimitada – liberdade de expressão que oferecem aos seus usuários, como
explica Sérgio Branco:
Em plataformas onde há uma editoria de conteúdo (como nos sites de jornais e revistas ou
em portais de mídia), sempre alguém fará a seleção daquilo que será publicado. Porém, nas
redes sociais, o que vale é exclusivamente a vontade do usuário. E foi sobretudo aqui que,
infelizmente, a internet se mostrou uma grande frustração no que diz respeito à promessa de
se tornar um grande espaço de discussão pública.133
recombinante que permite ao usuário da internet criar ou modificar conteúdos, bem como
compartilhá-los a qualquer momento.
não seja possível identificar uma razão principal capaz de explicar a diminuição do nível de
confiança dos cidadãos, podemos apontar, entre outros, a crise financeira de 2008, a crise
migratória global, e até mesmo as recentes mudanças tecnológicas . Como 135
Além disso, é preciso considerar que outros fatores (já citados no tópico
anterior) corroboram a dinâmica de propagação de fake news: o efeito da “cascata
informacional”, a atração humana a novidades e informações negativas e os “filtros-bolha”.
Este último fator, especificamente, guarda íntima relação com a comunicação em redes
sociais. Isso porque as fake news se valem de uma “lógica própria na semântica dos
algoritmos”, propiciada justamente pela bolha pessoal, a qual
A essa altura, não seria novidade nem exagero afirmar que as deepfakes surgiram em
um momento conturbado. Desde meados da década passada, o debate público,
especialmente em períodos eleitorais, tem sido permeado pela desinformação e por más
informações, tendência que não parece passageira. Isso se dá, como vimos até aqui, por
fatores diversos: a erosão da confiabilidade na política e nas instituições, as recentes
crises socioeconômicas e a alteração no fluxo informacional, marcada pelo engendramento
e consolidação das redes sociais são alguns deles.
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 20/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
79% da população brasileira, seguido do Youtube (49%) e do Facebook (44%) . Algo 141
parecido acontece na Índia, onde mais de 400 milhões de pessoas utilizam a rede. Em
razão da criptografia empregada no app, ele se tornou um dos principais canais de difusão
de fake news, seja aqui , seja na Índia, seja em tantos outros países.
142 143
Toda essa situação se torna mais complexa quando consideramos que as redes sociais
citadas são, inclusive, adotadas como veículos de comunicação oficial de vários
governos – destacando-se, entre elas, o Twitter, cuja importância não deve ser
subestimada. Para políticos como Trump e Bolsonaro, a rede funciona como um “palanque
que ultrapassa os gatekeepers da mídia tradicional” e viabiliza uma comunicação direta
com o mundo . E, não bastasse determinados políticos deliberadamente se engajarem no
144
Toffoli,
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 21/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
Embora as implicações das deep-fake news na democracia não passam, por ora, de
especulações, fato é que a atenção das pessoas já não mais se concentra no domínio dos
meios de comunicação ditos tradicionais. Do contrário, encontra-se dispersa pelas redes
sociais, nas quais qualquer pessoa pode compartilhar uma deepfake e, facilmente, difundi-
la em escala global. Se não tomarmos uma atitude agora, a desinformação promovida por
atores políticos, indivíduos e instituições poderá se agigantar de tal forma que não seremos
mais capazes de a domar, culminando na completa erosão das bases de que a democracia
necessita para funcionar adequadamente.
Fake news e deepfakes são fenômenos que guardam entre si diversas correlações, o
que faz com que o enfrentamento ao segundo, por vezes, coincida com aquele a ser
destinado ao primeiro. Poderíamos, de certa forma, afirmar que as falsificações profundas
são uma ferramenta à disposição do sistema de desinformação – o que não significa,
todavia, que se reduzam a isso. Do contrário, sobretudo em razão da ubiquidade que
possuem, as deepfakes podem ser caracterizadas como um fenômeno complexo, que
demandará, a depender do contexto considerado, diferentes estratégias de regulação.
ferramentas não é exclusivo, o que significa dizer que, às vezes, podem e devem ser
empregadas conjuntamente. Diante disso, não nos ateremos à distinção precisa entre os
fins das tecnologias anti-deepfake.
Ainda que essa “competição” tenha um lado, digamos, negativo, ela seguramente tem
impulsionado cientistas de dados e programadores a desenvolver novas técnicas para a
detecção de deepfakes. Uma técnica interessante, recentemente desenvolvida, consiste na
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 22/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
Ao que tudo indica, as correlações existentes entre o movimento dos músculos da face e o
movimento da cabeça podem ser utilizadas tanto para distinguir uma pessoa da outra
quanto uma deepfake de um vídeo autêntico. Trata-se, afinal, da identificação e extração
de um dado biométrico pessoal e sua posterior utilização para fins de verificação – o que
pode, facilmente, nos remeter às discussões iniciais deste livro.
Devemos ter em mente, porém, que mesmo técnicas de detecção de deepfakes como
as indicadas anteriormente podem não ser úteis em diversas situações. Aliás, geralmente
é isso o que ocorre. De maneira geral, a maioria das falsificações produzidas parece fácil
de ser detectada sob cenários controlados, quer dizer, quando os programas ou técnicas
de verificação são empregados exatamente nas mesmas condições para as quais foram
treinados . Se considerarmos que em diversas situações as imagens e vídeos falsos que
154
são compartilhados o são sob condições que os afastam daquelas do treinamento dos
programas, o resultado não é tão promissor assim. Geralmente, as mídias divulgadas em
redes sociais são redimensionadas, comprimidas, acrescidas de ruídos etc., o que dificulta
o trabalho forense de autenticação dessas mídias. É o que explicam Tolosana e outros:
Como se pode perceber, embora haja vasta literatura sobre a análise forense de
imagens e vídeos, são poucas as técnicas forenses específicas para a identificação das
deepfakes , e não raramente aquelas que existem se tornam obsoletas com certa
156
técnicas de manipulação e síntese de mídias digitais têm se tornado cada vez mais
sofisticadas, estando sempre um passo à frente daquelas destinadas à verificação.
Necessário, pois, no contexto de pós-verdade e erosão da confiabilidade, cada vez mais é
preciso ser capaz de validar a autenticidade de conteúdos compartilhados, a fim de se
evitar a difusão de informações falsas ou fraudulentas.
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 23/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
Nesse sentido, talvez seja útil pensar em técnicas ou tecnologias que dificultem a
criação de deepfakes. Mencionamos, no tópico 5.2., a possibilidade se realizar a
desidentificação de imagens com o uso de softwares de IA. Um exemplo simples e
facilmente aplicável é a “pixelização” dos rostos, como faz o Google Imagens. Porém,
imaginamos, ninguém gostaria de postar uma foto em seu Instagram com o rosto
completamente borrado. Pensando nisso, o aplicativo Fawkes foi desenvolvido com o
objetivo de impedir a extração de dados biométricos faciais de fotos a partir da adição de
um filtro supostamente invisível às imagens. Também se valendo de GANs, o app realiza o
processo inverso àquele utilizado na criação de deepfakes: são mescladas imagens de
pessoas diferentes, de modo que a imagem resultante possua as características faciais
dos dois indivíduos, e assim possa “enganar” os sistemas de reconhecimento facial.
Embora a ideia seja boa, a tecnologia ainda se encontra em desenvolvimento, e os
resultados não são tão “bonitos” quanto se gostaria: é comum que, nas fotos com o filtro
aplicado, as mulheres ganhem bigodes e os homens percebam cílios mais longos ou
traços de maquiagem nos olhos . 159
A cada dia que passa, diferentes propostas e soluções são apresentadas . A 160
registros do dia a dia, criando uma base de dados na qual constem todas as atividades
realizadas pela pessoa, de modo que ela sempre poderá fornecer um álibi crível capaz de
desmentir qualquer deepfake que seja produzida utilizando sua imagem. É a proposta
também de Jan Kietzmann e outros, que, na esteira do pensamento de Chesney e Citron,
advogam pelo emprego de dispositivos conectados à internet das coisas como
instrumentos para o registro de “conteúdos originais” da vida de uma pessoa . 163
Caso esses serviços se tornem populares, os custos sociais no que tange aos direitos à
privacidade e proteção de dados seriam imensuráveis, e todo o esforço no sentido de
fortalecimento e proteção desses direitos realizado nos últimos anos seria jogado fora.
Embora os autores afirmem que esse tipo de serviço poderia ser benéfico, se promovido
sob a égide de um regime de proteção de dados eficiente e observados critérios como
segurança e impossibilidade de uso secundário dos dados, não nos parece razoável
acreditar que todas as informações coletadas seriam empregadas pra outra coisa que não
o controle total sobre a vida das pessoas.
Não importa qual seja a medida tecnológica na qual pensemos para se combater as
deepfakes, uma questão permanece: o verdadeiro e genuíno problema não consiste em
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 24/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
provar que algo é falso, mas sim em provar que um conteúdo autêntico é, de fato,
autêntico . Os avanços nas técnicas de IA utilizadas para a produção de mídias
164
Como vimos no tópico 5.4., nem todas as deepfakes são, na realidade, deepfakes. Em
diversos casos, as mídias digitais geradas por programas de IA possuem fins legítimos e
lícitos. Comumente, a criação dessas mídias sintéticas está relacionada a fins econômicos,
como produções cinematográficas, quadros de programas de humor, jogos eletrônicos,
entre outros. Daí, logicamente, a necessidade de se buscarem meios de regulação da
atividade econômica per se.
Nesse sentido, em junho de 2019, a Câmara dos Representantes dos EUA apresentou
ao Congresso uma proposta de lei intitulada “DEEP FAKES Accountability Act” , cujo 165
uma importante arma no combate inicial à desinformação e aos danos causados pelas
deepfakes . Seguramente, os termos de serviço não deveriam incluir mídias sintéticas
167
De certa forma, é o que tem feito o Twitter quando determinado vídeo ou imagem é, na
realidade, uma deepfake. Em agosto de 2020, Dan Scavino Jr., secretário de imprensa da
Casa Branca e assessor do então presidente Donald Trump, postou um vídeo no qual Joe
Biden, que à época era candidato à presidência dos EUA, supostamente teria pegado no
sono durante uma entrevista. O vídeo, contudo, era uma manipulação, que inseriu o rosto
de Biden num vídeo que originalmente retratava outro político que realmente fora flagrado
dormindo. Diante disso, a plataforma inseriu um aviso, com letras em tamanho pequeno e
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 25/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
no qual se lia “(!) Mídia Manipulada”, logo abaixo do tuíte de Scavino. Apesar de discreta, a
indicação até poderia cumprir com o objetivo de alertar os usuários da rede social quanto à
autenticidade da mídia, não fosse o fato de o aviso não aparecer nos retuítes da postagem.
De maneira um pouco mais incisiva que o Twitter, outra plataforma que tem adotado
medidas contra a divulgação de deepfakes é o Pornhub, um dos sites de conteúdo
pornográfico mais acessados do mundo. Como exposto anteriormente, as primeiras
deepfakes foram criadas com o objetivo de inserir o rosto de atrizes hollywoodianas em
filmes de conteúdo erótico, uso este que se popularizou rapidamente. Assim, já em 2018, o
Pornhub começou a agir no sentido de remover todo conteúdo digitalmente manipulado
que fosse uma falsificação da realidade ou produzido não consensualmente. Nos termos
de uso da plataforma consta que seus usuários deverão se abster de postar quaisquer
conteúdos que contenham falsificações, representações enganosas ou imitações de
terceiros . 169
Antes de discutirmos alguns dos aspectos nos quais o Direito pode ser útil à regulação
e ao enfrentamento das deepfakes, são necessárias certas considerações. A primeira
delas é que, embora tenhamos apontado uma classificação quanto às medidas de
regulação das deepfakes no início deste tópico, é necessário ter em mente que essa
classificação não é hermética, o que significa dizer que, por vezes, essas medidas não
serão estritamente jurídicas, ou estritamente econômicas ou tecnológicas. O Direito pode,
como defendemos no capítulo 4, servir como uma metatecnologia apta a orientar o
desenvolvimento tecnológico ou atividades econômicas. Além disso, essas medidas não
são excludentes. Cada uma possui sua importância e, nas situações em que seja possível,
deverão ser concomitantemente observadas.
Outra consideração diz respeito ao fato de que, em diversas hipóteses, a regulação das
deepfakes se confundirá com a própria regulação das fake news. O debate em torno do
combate à desinformação é cercado de controvérsias e vem adquirindo mais relevância e
atenção a cada dia – tendência que, cremos, sustentar-se-á com a introdução das
discussões sobre falsificações profundas. Ademais, devemos ter em mente que a
produção de mídias sintéticas e de deepfakes, assim como a desinformação, suscita
implicações diretas em diferentes ramos do Direito, de modo que uma regulação
apropriada deverá levar em conta fundamentos do Direito Civil, Administrativo, Eleitoral,
Constitucional e, ultima ratio, Penal. A seguir, tentaremos apontar diferentes medidas a
serem adotadas nessas áreas, ainda que sem a pretensão de que o Direito traga todas as
respostas das quais tanto necessitamos.
No que tange às mídias sintéticas de maneira geral (e não somente às deepfakes), uma
primeira questão que se coloca está relacionada à proteção de direitos autorais.
Conteúdos manipulados facilmente podem incorrer em violações a direitos de autor e
direitos correlatos, daí determinados pesquisadores afirmarem que leis de copyright, como
a Digital Millennium Copyright Act (DMCA) dos EUA, poderiam servir como um substrato
legal para a regulação de mídias digitalmente manipuladas . No Brasil, a matéria é regida
170
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 26/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
principalmente pela Lei de Direitos Autorais (Lei n.º 9.610/1998). Embora o diploma
normativo vede a reprodução, ainda que parcial, de obra que não pertença ao domínio
público , não há nenhuma menção específica à manipulação digital de mídias.
171
às deepfakes. Há, todavia, uma hipótese em que a tipificação penal poderia servir para fins
reparatórios no contexto de manipulação digital de imagens. Trata-se dos casos de
pornografia de vingança levados a cabo mediante a produção de deepfakes. Atualmente, o
Código Penal brasileiro estipula, em seu art. 218-C, que a conduta de divulgar qualquer
registro que contenha cena de sexo, nudez ou pornografia, sem o consentimento da vítima,
configura crime punível com reclusão de até 5 anos. Ainda que o dispositivo não mencione
a divulgação de conteúdos digitalmente manipulados, acreditamos que uma eventual
alteração legislativa para o acréscimo dessa hipótese servirá como instrumento a coibir a
produção de manipulações digitais para fins de revenge porn – ou, ao menos, poderá
servir para minimizar os danos causados às vítimas dessa conduta.
Na esfera do Direito Administrativo, por sua vez, uma solução plausível (ainda que
parcial) parece estar na criação de agências administrativas, ou na delegação de certas
atividades regulatórias a agências já existentes . Embora não gozem de plenos poderes
176
Diante do contexto apresentado ao longo deste capítulo, faz sentido nos perguntarmos,
afinal, quais atitudes o Estado pode tomar a fim de coibir ou conter os danos causados
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 27/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
pelas deepfakes. Primeiramente, é importante deixar claro que um banimento geral deveria
estar fora de cogitação, pois a tecnologia por trás das falsificações não é inerentemente
problemática – basta lembrarmos da distinção feita entre “deepfake” e “mídias sintéticas”.
177
Ainda que, por vezes, a solução pareça relativamente simples, há um aspecto que deve
ser levado em consideração, e que em diversas ocasiões perpassará o debate acerca da
legitimidade, ou não, de uma deepfake: os limites da liberdade de expressão. Ainda que
envolvam declarações intencionalmente falsas ou imprecisas, a divulgação das deepfakes
implica o exercício da liberdade de expressão . E, se são protegidas, em alguma medida,
178
por esse direito, como que os governos poderiam proteger as pessoas dos danos
causados por elas? Tendo em vista o direito à manifestação de pensamento, seria legítimo
punir a criação e disseminação de fake news, e, consequentemente, de deepfakes? 179
consigo um sério risco: “empoderar governos menos democráticos que poderão, seja lá
por qual motivo, afirmar que algo é verdadeiro ou falso, usando essa prerrogativa em
benefício próprio” . Em uma democracia saudável, não é função do Estado controlar o
181
problema que apresentamos, “o que pode ser feito?”, ainda permanece sem solução. Em
geral, permitir que o Estado censure conteúdos potencialmente prejudiciais pode significar
um exercício de controle sobre o discurso público ainda mais incisivo, ao passo que
restringir a maneira como os indivíduos usam tecnologias de IA para a criação de mídias
pode implicar um controle excessivo sobre a maneira como os indivíduos se expressam,
artisticamente, politicamente e individualmente, mediante as novas tecnologias . 184
Mas, se um governo não deveria controlar o conteúdo de notícias, postagens etc., nem
a maneira como as pessoas lidam com as inovações tecnológicas, haveria, efetivamente,
alguma atitude a ser tomada, sem prejuízo da liberdade de expressão? Parece-nos que
sim, e a resposta reside justamente no modo como enxergamos as deepfakes. Uma vez
que as deepfakes correspondem a conteúdos falsos que não são meras inveracidades,
mas sim conteúdos que carregam em si uma aparência de credibilidade e autenticidade , 185
o Estado teria maior liberdade para agir, nas diferentes esferas apresentadas ao longo
deste tópico, de modo a regular essa nova tecnologia. Em outras palavras, apesar dos
inúmeros aspectos coincidentes, a regulação das deepfakes não deve ser idêntica à das
fake news, devido, sobretudo, ao maior potencial lesivo que apresentam para a sociedade.
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 28/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
que demanda circunstâncias vitais para a sua realização; não é indefinida ou indefinível, do
contrário, deve ser ordenada normativamente, sendo a atuação do Estado imprescindível
para a sua regulação . 186
também à regulação das deepfakes. Em outras palavras, a solução mais efetiva não se
encontra na proibição das tecnologias ou na remoção de conteúdos, mas sim em dotar as
pessoas das ferramentas necessárias para se guiarem adequadamente nesse vasto
mercado de ideias em que estamos inseridos.
ocorra, não vislumbramos outra saída senão a educação, que se concretiza, no contexto
de nossa discussão, através da alfabetização informacional e midiática (information and
media literacy) – posicionamento que aparece quase como consenso quando discutimos
estratégias para enfrentar a desinformação, manifestada, ou não, através de mídias
digitalmente manipuladas.
Nessa perspectiva, o High Level Group sobre Fake News e Desinformação On-line da
Comissão Europeia considera que só é possível fazer diante da desinformação a partir de
uma abordagem multidimensional, baseada em uma série de respostas inter-relacionadas
e que se reforçam mutuamente . Entre elas, destaca-se a promoção da media and
189
Embora não seja uma solução absoluta, uma vez que é possível e necessário o
emprego de instrumentos normativos e de determinações voluntárias para o combate das
deepfakes, o papel da educação é crucial. Há situações, inclusive, que somente a
alfabetização digital é capaz de evitar ou minimizar os danos causados pelas novas
tecnologias. Basta pensarmos na já citada hipótese de divulgação de um vídeo (falso, por
suposto) de um candidato falando atrocidades ou cometendo um ato imoral às vésperas de
uma eleição. Muito provavelmente, não haveria tempo hábil de desmentir a informação
com um vídeo de resposta, tampouco seria possível remover esse conteúdo da rede uma
vez que fora divulgado. Assim, não resta outra saída a não ser esperar que os
destinatários dessa informação sejam capazes de, criticamente, julgá-la verídica ou não.
é quase sempre por meio da educação e do uso responsável da tecnologia que logramos
sair de um lugar para chegar a outro, melhor. Trata-se de um caminho longo, demorado e que
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 29/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
.Popularmente atribuída a Confúcio, a frase tem origem incerta, mas que pode ser rastreada a determinadas
peças publicitárias estadunidense nos anos 1920. O Livro de Provérbios, Máximas e Frases Famosas,
publicado pela Macmillan, Fred. R. Barnard, em 1927, atribuiu a autoria do provérbio ao filósofo chinês, para
que o adágio, utilizado em peças publicitárias, gozasse de maior credibilidade (STEVENSON, Burton (ed.).
The Macmillan Book of Proverbs, Maxims and Famous Phrases. Nova York: The Macmillan Company, 1968.
p. 2611).
2
.SCHICK, Nina. Deepfakes: The Coming Infocalypse. Nova York: Twelve, 2020.
3
.TEYSSOU, Denis; SPANGENBERG, Jochen. Video Verification: Motivation and Requirements. In:
MEZARIS, Vasileios et al (Ed.). Video Verification in the Fake News Era. Cham: Springer, 2019, p. 3, 4).
4
.MARAS, Marie-Helen; ALEXANDROU, Alex. Determining authenticity of video evidence in the age of
artificial intelligence and in the wake of Deepfake videos. The International Journal of Evidence & Proof, vol.
23, n. 3, 2019, p. 255-262. Disponível em: https://journals.sagepub.com/doi/10.1177/1365712718807226.
Acesso em: 20 ago. 2020.
8
.TOLOSANA, Ruben et al. Deepfakes and beyond: A Survey of face manipulation and fake
detection. Information Fusion, v. 64, 2020, p. 131-148. Disponível em:
https://doi.org/10.1016/j.inffus.2020.06.014. Acesso em: 20 ago. 2020.
11
.CHESNEY, Bobby; CITRON, Danielle. Deep Fakes: A Looming Challenge for Privacy, Democracy, and
National Security. California Law Review, v. 107, 2019. Disponível em:
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3213954. Acesso em: 20 ago. 2020.
12
.WOJEWIDKA, John. The deepfake threat to face biometrics. Biometric Technology Today, v. 2, n. 2,
fev. 2020, p. 1-12. Disponível em: https://www.sciencedirect.com/journal/biometric-technology-
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 30/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
.KIETZMANN, Jan et al. Deepfakes: Trick or treat?, Business Horizons, v. 63, n. 2, 2020, p. 135-146.
Disponível em: https://doi.org/10.1016/j.bushor.2019.11.006. Acesso em: 20 ago. 2020.
21
.SHICK, op. cit., p. 8. No original: “When used maliciously as disinformation, or when used as misinformation,
a piece of synthetic media is called a ‘deepfake’”.
25
.Cabe, aqui, outra distinção. Tecnologias de inteligência artificial podem ser utilizadas para a falsificação,
mediante manipulação ou criação, de mídias que não envolvem uma imagem humana, como uma pintura.
Floridi (2018) usa como exemplo o projeto “The Next Rembrandt”, da Microsoft, cujo objetivo foi, através de
algoritmos de machine learning, reproduzir obras do pintor holandês de mesmo nome e criar obras com
tamanha semelhança às originais que seria impossível identificar que foram geradas por uma IA. Na
ausência de um termo que defina a produção realizada pelo projeto da Microsoft, Floridi sugere o termo
“éctipo” (“ectype”, em inglês), que vem do grego “éktypon” e significa “reprodução” ou “cópia”. Estabelecida
essa distinção, cabe apontar que utilizaremos o termo deepfakes em seu sentido mais corriqueiro, que é
aquele referente à manipulação/criação de mídias que envolvem imagens humanas.
26
.O termo deepfake pode ser traduzido como “falsificação profunda”, ao passo que cheapfake pode ser
entendido como “falsificação barata”.
27
.Cf.: “Mentira que Dilma comeu pombo em calçadão de Osasco”. Disponível em:
https://boainformacao.com.br/2019/07/mentira-que-dilma-comeu-pombo-em-calcadao-de-osasco/.
28
.Cf.: “Imagem de Manuela D’Ávila com tatuagens de Che Guevara e Lênin é montagem”.
https://www.otempo.com.br/hotsites/elei%C3%A7%C3%B5es-2018/imagem-de-manuela-d-avila-com-
tatuagens-de-che-guevara-e-lenin-e-montagem-1.2033630.
29
.“CGI” é a sigla para “computer-generated imagery”, expressão que pode ser traduzida como “imagens
geradas por computador”.
30
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 31/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
.http://deeplearningbook.com.br/introducao-aos-autoencoders/.
42
.KIETZMANN et al (op. cit.), TOLOSANA et al. (op. cit.), SCHICK (op. cit.), para citar alguns.
43
.Há um site cujo objetivo é exibir imagens de pessoas que, na realidade, não existem. Cf.:
https://www.thispersondoesnotexist.com/. Acesso em: 20 ago. 2020.
47
.Cf.: “You Won’t Believe What Obama Says In This Video! 😉 ”. Disponível em:
https://www.youtube.com/watch?v=cQ54GDm1eL0&t=8s. Acesso em: 20 ago. 2020.
48
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 32/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
49
.Cf.: “The Mona Lisa was brought to life in vivid detail by deepfake AI researchers at Samsung”. Disponível
em: https://www.businessinsider.com/mona-lisa-brought-to-life-by-saumsung-ai-2019-5. Acesso em: 20 ago.
2020.
51
.Tolosana et al (op. cit.) utilizam os termos “entire face synthesis”, “identity swap”, “attribute manipulation” e
“expression swap”.
53
.AGARWAL, Shruti et al. ProtectingWorld Leaders Against Deep Fakes. In: COMPUTER VISION
FOUNDATION. Conference on Computer Vision and Pattern Recognition, 2019. Disponível em:
https://farid.berkeley.edu/downloads/publications/cvpr19/cvpr19a.pdf. Acesso: 20 ago. 2020.
55
.A título de curiosidade, o PROCON-SP, no ano de 2019, multou a Google e a Apple pela distribuição do
aplicativo, o qual, segundo a entidade, violaria o Código de Defesa do Consumidor em razão de suas
políticas de privacidade. Cf.: “PROCON-SP multa Google e Apple por aplicativo Faceapp”. Disponível em:
https://folha.com/agndhvo5. Acesso em: 20 ago. 2020.
58
.TOLOSANA et al. (op. cit.) usam os termos face morphing e face de-identification.
63
.Cf.: “This Tool Could Protect Your Photos From Facial Recognition”. Disponível em: https://nyti.ms/31g6Gjh.
Acesso em: 20 ago. 2020.
65
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 33/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
.Sobre a criação de bases de dados de imagens faciais, cf. HUANG, Gary B. Labeled Faces in the Wild: A
Database for Studying Face Recognition in Unconstrained Environments. ECCV Workshop on Faces in
Real-life Images, 2008. Disponível em: http://vis-www.cs.umass.edu/lfw/lfw.pdf. Acesso em: 20 ago. 2020.
66
.“Utilizing generative adversarial networks to generate data for our classification is an interesting approach
considering that it uses the same algorithm to generate the data as the classifier will use to train and classify
faces with. (…) If the generator outperforms the discriminator, the generated data will theoretically not be
separable from real data to the neural networks. If this is in fact the case, the trained recognizing network will
in turn be better trained and will likely be better at identifying faces” (NATTEN, Jonas. Generative Adversarial
Networks for Improving Face Classification. 2017. Dissertação (Mestrado em Tecnologia da Informação e
Comunicação) – Faculdade de Engenharia e Comunicação, Universidade de Adger, Kristiansand, Noruega).
68
.As GANs podem tanto alterar as imagens de rostos já existentes em bases de dados utilizadas para o
treinamento de algoritmos de reconhecimento facial quanto criar e inserir rostos inexistentes (deepfakes)
nessas bases de dados; ampliando-se a base de dados utilizada para o treinamento, aumenta-se a acurácia
do sistema (WILIEM, Arnold. Generative Adversarial Networks for Face Recognition: A practical view – Part
II. Disponível em: https://outbox.eait.uq.edu.au/uqawilie/ICB2018_tutorial/ICB_2018_Tutorial_Wiliem.pdf.
Acesso em: 20 ago. 2020).
69
.Nos termos de uso do aplicativo, consta que os criadores do app tornavam-se os proprietários dos vídeos
produzidos na plataforma, incluindo-se os direitos autorais sobre os conteúdos criados. Cf.: “Zao, app de
deepfakes, é restrito pelo WeChat por ‘riscos à segurança’”. Disponível em:
https://tecnoblog.net/305325/zao-aplicativo-deepfakes-restrito-wechat/. Acesso em: 20 ago. 2020.
77
.Cf.: “Rogue One VFX head: ‘We didn’t do anything Peter Cushing would’ve objected to’”. Disponível em:
https://www.theguardian.com/film/2017/jan/16/rogue-one-vfx-jon-knoll-peter-cushing-ethics-of-digital-
resurrections. Aceso em: 20 ago. 2020.
81
.Cf.: “Star Wars: Rise of Skywalker’s CGI-free Carrie Fisher is ‘shockingly successful’”. Disponível em:
https://www.cnet.com/news/star-wars-rise-of-skywalkers-cgi-free-carrie-fisher-is-shockingly-successful/.
Acesso em: 20 ago. 2020.
82
.UNIVERSITY OF BATH. AI could make dodgy lip sync dubbing a thing of the past, [s.l.], 18 dez. 2018.
Disponível em: https://www.bath.ac.uk/announcements/ai-could-make-dodgy-lip-sync-dubbing-a-thing-of-the-
past/. Acesso em: 20 ago. 2020.
83
.Cf.: “’Welcome to Chechnya’ uses deepfake technology to protect its subjects”. Disponível em:
https://www.economist.com/prospero/2020/07/09/welcome-to-chechnya-uses-deepfake-technology-to-
protect-its-subjects. Acesso em: 20 ago. 2020.
86
.Cf.: “Meet Will – Vector’s new renewable energy educator in schools”. Disponível em:
https://www.vector.co.nz/news/meet-will-vector’s-new-renewable-energy-educator. Acesso em: 20 ago. 2020.
89
.Cf.: “Edtech company Udacity uses deepfake tech to create educational videos automatically”.
https://www.fanaticalfuturist.com/2019/08/edtech-company-udacity-uses-deepfake-tech-to-create-
educational-videos-automatically/. Acesso em: 20 ago. 2020.
90
.Cf.: “Terrifying high-tech porn: Creepy ‘deepfake’ videos are on the rise”. Disponível em:
https://www.foxnews.com/tech/terrifying-high-tech-porn-creepy-deepfake-videos-are-on-the-rise. Acesso em:
20 ago. 2020.
92
.A posição é defendida por David Greene, advogado e diretor da área de Liberdades Civis da Electronic
Frontier Foundation. Cf.: “We Don’t Need New Laws for Faked Videos, We Already Have Them”. Disponível
em: https://www.eff.org/deeplinks/2018/02/we-dont-need-new-laws-faked-videos-we-already-have-them.
Acesso em: 20 ago. 2020.
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 35/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
93
.É o caso de Erik (nome fictício), jovem estadunidense que ficou paraplégico após um acidente de carro, aos
30 anos de idade. Cf.: “Deepfake Porn Has Terrifying Implications. But What If It Could Be Used for Good?”.
Disponível em: https://www.menshealth.com/sex-women/a19755663/deepfakes-porn-reddit-pornhub/.
Acesso em: 20 ago. 2020.
94
.São as palavras de Pat Quinn, que possui a doença. Cf.: “Lyrebird Helps ALS Ice Bucket Challenge Co-
Founder Pat Quinn Get His Voice Back”. Disponível em: https://www.huffingtonpost.ca/2018/04/14/lyrebird-
helps-als-ice-bucket-challenge-co-founder-pat-quinn-get-his-voice-back_a_23411403/. Acesso em: 20 ago.
2020.
95
.RODOTÀ, 2004.
97
.Sobre a importância da “vivacidade” (“liveness”) para a autenticação biométrica, cf.: DENNING, Dorothy E.
It’s “liveness,” not secrecy, that counts. Information Security Magazine, 2001. Disponível em:
https://faculty.nps.edu/dedennin/publications/biometrics.pdf. Acesso em: 20 ago. 2020.
102
.A regra 34 é, de certa forma, um meme, cujo enunciado diz que, se algo existe, há uma versão pornô e
quem a consuma (SCHICK, op. cit.).
103
.A Lei 13.718/2018 tipificou especificamente a pornografia de vingança, incluindo no Código Penal brasileiro
o artigo 218-C. O dispositivo determina que o indivíduo que oferecer, trocar, disponibilizar, transmitir, vender
ou expor à venda, distribuir, publicar ou divulgar, por qualquer meio, mídia (fotografia, vídeo, áudio etc.) que
contenha cena de estupro, de vulnerável ou não, ou de sexo, nudez ou pornografia, sem o consentimento
da vítima, será condenado a pena de reclusão de 1 a 5 anos, caso o fato não constitua crime mais grave.
Há, também, a previsão de aumento de pena, de 1/3 a 2/3, se o crime for praticado por um agente que
mantém (ou manteve) relação íntima de afeto com a vítima ou agido com o fim de vingança ou humilhação
(BRASIL. Lei n.º 13.718, de 24 de setembro de 2018. Altera o Decreto-Lei nº 2.848, de 7 de dezembro de
1940 (Código Penal), para tipificar os crimes de importunação sexual e de divulgação de cena de estupro,
tornar pública incondicionada a natureza da ação penal dos crimes contra a liberdade sexual e dos crimes
sexuais contra vulnerável, estabelecer causas de aumento de pena para esses crimes e definir como
causas de aumento de pena o estupro coletivo e o estupro corretivo; e revoga dispositivo do Decreto-Lei nº
3.688, de 3 de outubro de 1941 (Lei das Contravenções Penais). Diário Oficial da União: Brasília, DF,
[2018c]. Disponível em: http://www.planalto.gov.br/ccivil_03/_ato2015-2018/2018/lei/L13718.htm. Acesso
em: 20 ago. 2020).
104
.HAO, 2019a.
105
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 36/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
.Cf.: “People Are Using AI to Create Fake Porn of Their Friends and Classmates”. Disponível em:
https://www.vice.com/en_us/article/ev5eba/ai-fake-porn-of-friends-deepfakes. Acesso em: 29 jul. 2020.
106
.Schick utiliza o neologismo “infocalypse”, o qual define como “the increasingly dangerous and untrustworthy
information ecosystem within which most humans now live” (op. cit., p. 9).
109
.BLITZ, Marc Jonathan. Lies, Line Drawing, and (Deep) Fake News. Oklahoma Law Review, 2018.
Disponível em: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3328273. Acesso em: 20 ago. 2020.
111
.CHESNEY; CITRON, op. cit.; WESTERLUND, op. cit.; SCHICK, op. cit.
112
.Em três anos de governo, de 2017 a janeiro de 2020, Donald Trump, presidente dos EUA, havia feito mais
de 18 mil (!) alegações falsas ou enganosas (SHICK, op. cit., p. 93). No Brasil, Jair Bolsonaro atingiu a
marca de mil declarações distorcidas ou falsas com 492 dias de governo (Cf.: “Bolsonaro chega a 1.000
declarações falsas ou distorcidas com 492 dias de mandato.” Disponível em:
https://www.aosfatos.org/noticias/bolsonaro-chega-1000-declaracoes-falsas-ou-distorcidas-com-492-dias-de-
mandato/. Acesso em: 20 ago. 2020).
113
.RAIS, Diogo; SALES, Stela Rocha. Fake News, Deepfakes e eleições. In: RAIS, Diogo (coord.). FAKE
NEWS: a conexão entre desinformação e o Direito. São Paulo: Ed. RT, 2. ed., 2020. Kindle Edition, l. l.499.
118
.CHESNEY; CITRON, op. cit., tradução nossa. No original: “Hence what we call the liar’s dividend: this
dividend flows, perversely, in proportion to success in educating the public about the dangers of deep fakes.
Against that backdrop, it is not difficult to see how “fake news” will extend to “deep-fake news” in the future.
As deep fakes become widespread, the public may have difficulty believing what their eyes or ears are telling
them – even when the information is real”.
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 37/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
121
.SEBEOK, Thomas A. Can Animals Lie? In: SEBEOK, Thomas A. I Think I Am a Verb. Topics in
Contemporary Semiotics. Boston: Springer, 1986.
123
.SOLL, Jacob. The Long and Brutal History of Fake News. POLITICO Magazine, [s.l.], 18 dez. 2016.
Disponível em: http://politi.co/2FaV5W9. Acesso em: 20 ago. 2020.
124
.WARDLE, Claire. Fake news. It’s complicated. First Draft, [s.l.], 16 fev. 2017. Disponível em:
https://firstdraftnews.org/latest/fake-news-complicated/. Acesso em: 20 ago. 2020.
125
.EUROPEAN COMISSION. HLEG (High-Level Group) On Fakenews And Online Disinformation. A multi-
dimensional approach to disinformation. Luxemburgo: Publications Office of the European Union, 2018.
Disponível em: https://ec.europa.eu/digital-single-market/en/news/final-report-high-level-expert-group-fake-
news-and-online-disinformation. Acesso em: 20 ago. 2020.
127
.BRANCO, Sérgio. Fake news e os caminhos para fora da bolha. Interesse Nacional, São Paulo, ano 10,
n. 38, p. 51-61, ago./out. 2017.
134
.CARVALHO, Eric de. O processo de circulação das fake news. In: RAIS, Diogo (coord.). FAKE NEWS: a
conexão entre desinformação e o Direito. São Paulo: Ed. RT, 2. ed., 2020.
135
.BRANCO, 2017.
137
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 38/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
.BRANCO, 2017.
139
.VALENTE, Pedro. Usuários de smartphone devem atualizar WhatsApp, orienta empresa. Agência Brasil,
Brasília, 14 maio 2019. Disponível em: https://agenciabrasil.ebc.com.br/geral/noticia/2019-05/usuarios-de-
smartphone-devem-atualizar-whatsapp-orienta-empresa. Acesso em: 20 ago. 2020.
141
.Cf.: “WhatsApp é a principal fonte de informação dos brasileiros, indica pesquisa”. Disponível em:
https://www.correiobraziliense.com.br/app/noticia/tecnologia/2019/12/10/interna_tecnologia,812946/whatsapp-
e-a-principal-fonte-de-informacao-dos-brasileiros-indica-pes.shtml. Acesso em: 20 ago. 2020.
142
.Cf.: “Todo mundo vai usar fake news nas eleições de 2020, diz pesquisador”. Disponível em:
https://noticias.uol.com.br/politica/ultimas-noticias/2019/11/04/todo-mundo-fakenews-eleicoes-2020-
whatsapp-redes-sociais-david-nemer.htm. Acesso em: 20 ago. 2020.
143
.TOFFOLI, José Antônio Dias. Fake news, Desinformação e Liberdade de Expressão. Interesse Nacional,
ano 12, vol. 46, out./dez. 2019. Disponível em: http://interessenacional.com.br/2019/07/11/fake-news-
desinformacao-e-liberdade-de-expressao/. Acesso em: 20 ago. 2020.
148
.LI, Yuezun; LYU, Siwei. Exposing DeepFake Videos By Detecting Face Warping Artifacts. In: COMPUTER
VISION FOUNDATION. Conference on Computer Vision and Pattern Recognition, 2019. Disponível em:
https://arxiv.org/pdf/1811.00656.pdf. Acesso em: 20 ago. 2020.
154
.TOLOSANA et al., op. cit., tradução nossa. No original: “… most of the features considered in traditional
fake detection methods are highly dependent on the specific training scenario, being therefore not robust
against unseen conditions fake content is usually shared on social networks, whose platforms automatically
modify the original image/video, for example, through compression and resize operations”.
156
.Cf.: “This Tool Could Protect Your Photos From Facial Recognition”. Disponível em: https://nyti.ms/31g6Gjh.
Acesso em: 20 ago. 2020.
160
.Cf.: “Cyber security companies race to combat ‘deepfake’ technology”. Disponível em:
https://www.ft.com/content/63cd4010-bfce-11e9-b350-db00d509634e. Acesso em: 20 ago. 2020.
161
.No original, “immutable life logs as an alibi service” (CHESNEY; CITRON, op. cit.).
163
.TEYSSOU, Denis. Disinformation: The Force of Falsity. In: MEZARIS, Vasileios et al (Ed.). Video Verification
in the Fake News Era. Cham: Springer, 2019.
165
.UNITED STATES OF AMERICA. Congress. H.R.3230 – Defending Each and Every Person from False
Appearances by Keeping Exploitation Subject to Accountability Act of 2019. Disponível em:
https://www.congress.gov/bill/116th-congress/house-bill/3230/text. Acesso em: 20 ago. 2020.
166
.MEDEIROS, Thalita. Fake news – os limites da criminalização da desinformação. In: RAIS, Diogo (coord.).
FAKE NEWS: a conexão entre desinformação e o Direito. São Paulo: Ed. RT, 2. ed., 2020.
167
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 40/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
.“Art. 33. Ninguém pode reproduzir obra que não pertença ao domínio público, a pretexto de anotá-la,
comentá-la ou melhorá-la, sem permissão do autor” (BRASIL. Lei n.º 6.120, de 19 de fevereiro de 1998.
Altera, atualiza e consolida a legislação sobre direitos autorais e dá outras providências. Diário Oficial da
União: Brasília, DF, [1998]. Disponível em: http://www.planalto.gov.br/ccivil_03/leis/l9610.htm. Acesso em: 20
ago. 2020).
172
.TEFFÉ, Chiara Spadaccini. Fake News e Eleições: identificando e combatendo notícias falsas. In:
EDITORA RT. Contraponto Jurídico: Posicionamentos divergentes sobre grandes temas do Direito. São
Paulo: Revista dos Tribunais, 2018.
175
.“Art. 323. Divulgar, na propaganda, fatos que sabe inverídicos, em relação a partidos ou candidatos e
capazes de exercerem influência perante o eleitorado:
Pena – detenção de 2 (dois) meses a 1 (um) ano, ou pagamento de 120 a 150 dias-multa.
Parágrafo único.A pena é agravada se o crime é cometido pela imprensa, rádio ou televisão” (BRASIL. Lei
n.º 4.737, de 15 de julho de 1965. Institui o Código Eleitoral. Diário Oficial da União: Brasília, DF, [1965].
Disponível em: https://www.tse.jus.br/legislacao/codigo-eleitoral/codigo-eleitoral-1/codigo-eleitoral-lei-nb0-
4.737-de-15-de-julho-de-1965. Acesso em: 20 ago. 2020. Grifo no original).
176
.SOUZA, Carlos Affonso; PADRÃO, Vinícius. Quem Lê Tanta Notícia (Falsa)? Entendendo o Combate
Contra as Fake News. ITS Rio, [s.l.], 19 abr. 2017. Disponível em: https://feed.itsrio.org/quem-le-tanta-
noticia-falsa-entendendo-o-combate-contra-as-fake-news-70fa0db05aa5. Acesso em: 20 ago. 2020.
182
.GROSS, Clarissa Piterman. Fake news e democracia: discutindo o status normativo do falso e a liberdade
de expressão. In: RAIS, Diogo (coord.). FAKE NEWS: a conexão entre desinformação e o Direito. São
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 41/42
14/03/2022 10:33 Thomson Reuters ProView - Sorria, Você Está Sendo Filmado! - Ed. 2021
.NOHARA, Irene Patrícia. Desafios da ciberdemocracia diante do fenômeno das fake news: regulação
estatal em face dos perigos da desinformação. In: RAIS, Diogo (coord.). FAKE NEWS: a conexão entre
desinformação e o Direito. São Paulo: Ed. RT, 2. ed., 2020.
187
.“The multi-dimensional approach recommended by the HLEG is based on a number of interconnected and
mutually reinforcing responses. These responses rest on five pillars designed to: 1. enhance transparency of
online news, involving an adequate and privacy-compliant sharing of data about the systems that enable
their circulation online; 2. promote media and information literacy to counter disinformation and help users
navigate the digital media environment; 3. develop tools for empowering users and journalists to tackle
disinformation and foster a positive engagement with fast-evolving information technologies; 4. safeguard the
diversity and sustainability of the European news media ecosystem, and 5. promote continued research on
the impact of disinformation in Europe to evaluate the measures taken by different actors and constantly
adjust the necessary responses” (EUROPEAN COMISSION, op. cit.).
190
https://proview.thomsonreuters.com/title.html?redirect=true&titleKey=rt%2Fmonografias%2F253598654%2Fv1.2&titleStage=F&titleAcct=i0ad8… 42/42