Você está na página 1de 6

INICIAÇÃO CIENTÍFICA

PIBIC8

DEEPFAKES E SUA INFLUÊNICA NA CADEIA DE CUSTÓDIA

Projeto Vinculado ao Curso de:


Direito

Unidade/Campi/Modalidade:
Maringá/PR - Presencial
1 DADOS EQUIPE EXECUTORA

2 IDENTIFICAÇÃO DO PROJETO

2.1 Vigência do projeto: 01/05/2024 a 31/12/2024

2.2 Tipo de Pesquisa: BibliográficaEscolher um item.

2.3 Utilizará Laboratório para Realização da Pesquisa? Não Escolher um item.


Se Sim, qual laboratório? Indique: Escolher um item.
Se for mais que 1 laboratório, indique
o(s) outro(s):

2.3 Resultará em produto/processo? Não Escolher um item.


Qual?

2.4 Vinculado a Grupo de Pesquisa? NãoEscolher um item.


Qual? Informe o link

2.5 Voltado à responsabilidade social*? Não Escolher um item.


Qual?
* Responsabilidade social: resultado de pesquisas voltadas ao atendimento de demandas sociais de seu entorno, às necessidades regionais iminentes, beneficiando uma parcela da
sociedade

2.6 Envolvimento com Seres Humanos, Animais ou Organismos Geneticamente Modificados?


Escolher um item. Se a resposta acima foi SIM, observe que:

Caso este projeto envolva pesquisa com Seres Humanos ou Animais, deverá ser enviado aos
respectivos Comitês pelo orientador e, após avaliação e resultado, informar à Diretoria de pesquisa o
nº do processo/protocolo de aprovação do projeto, conforme legislação vigente.

Caso envolva Organismos Geneticamente Modificados, informar se o Laboratório em que o projeto


será desenvolvido possui Certificado de Qualidade em Biossegurança.
3 ROTEIRO PARA ELABORAÇÃO DO PROJETO

RESUMO

Deepfake é o termo utilizado, atualmente, para descrever mídia produzida com Inteligência Artificial (IA), a qual se utiliza
de métodos relativamente fáceis para a criação de ‘novos’ conteúdos, nos quais os indivíduos parecem falar palavras ou
realizar ações que não são baseadas na realidade. Considerada uma das mais significativas tecnologias de manipulação
de mídia, a deepfake, por usa vez, representa grande ameaça à cadeia de custódia, cujo objetivo é prezar pela fiabilidade
de uma prova, de modo que se torna muito mais complexo analisar a veracidade de uma prova. O objetivo desta
pesquisa é apresentar, por meio de revisões bibliográficas e análises de casos onde já ocorreu o uso das deepfakes, a
influência negativa que as deepfakes causam na cadeia de custódia no que tange a credibilidade e autenticidade de
uma prova. Espera-se que esta pesquisa forneça uma compreensão aprofundada dos desafios enfrentados pela cadeia
de custódia devido as deepfakes, além de oferecer soluções práticas para fortalecer a autenticidade e credibilidade das
provas digitais.

PALAVRAS-CHAVE: Deepfakes; Cadeia de Custódia; Inteligência Artificial.

INTRODUÇÃO

Nos últimos cinco anos, a sociedade tem sido afetada pela disseminação das chamadas
Fake News (FN). Estas, por sua vez, se espalharam, principalmente, em sites falsos e redes sociais,
propagando informações falsas e, por vezes, maliciosas (PRADO, 2021b, p. 47).

Na era cibernética, as Fake News se alastraram em um extremo conhecido como deepfake


(DF), em especial, de vídeo, consideradas mais complexas de serem reproduzidas. Nesse tipo de
FN, manipula-se texto, imagem e áudio afim de deturpar, ou seja, distorcer informações,
aumentando ainda mais a desordem informacional. Além das deepfakes de vídeo, também surgiu
a mais conhecida e disseminada, deepfake de áudio, a qual o foco é manipular vozes, pré-
gravadas, incluindo ruídos para simular ambientes/lugares, que estão disponibilizada nas redes.
Ambas contribuem para obscurantismo comunicacional e todos os efeitos causados por eles
(PRADO, 2021b, p.47).
Ao contrário do que se pensa, não se trata de coisa banal e fora da realidade. A deepfake é
o “termo utilizado, atualmente, para descrever mídia fabricada produzida com inteligência artificial”,
em definição de Yuezun Li, Ming-Ching Chang e Siwei Lyu (2018 apud WARDLE, 2018), que traçam
uma breve explicação sobre o seu significado:
Ao sintetizar diferentes elementos de arquivos de vídeo ou áudio existentes, a
Inteligência Artificial (IA) permite métodos relativamente fáceis para a criação
de ‘novos’ conteúdos, nos quais os indivíduos parecem falar palavras e realizar
ações que não são baseadas na realidade.

As deepfakes, por seu turno, emergiram como uma das mais significativas tecnologias de
manipulação de mídia, podendo representar uma ameaça à democracia, de modo que coloca em
risco a credibilidade de fontes genuínas (GALANTE, 2020). Essa ameaça está presente, também,
na cadeia de custódia, que nada mais é do que um dispositivo que tem como objetivo garantir a
fiabilidade do elemento probatório, ao colocá-lo sob proteção, evitando interferências capazes de
falsificar o resultado da atividade probatória (PRADO, 2014, p. 82).
Nesse contexto, Luciano Floridi (2018) afirma que as “tecnologias digitais parecem minar a
nossa confiança acerca da natureza autêntica, genuína e original do que vemos e ouvimos”, isto é,
as deepfakes tem efeito negativo na credibilidade e autenticidade de toda e qualquer mídia, levando
à desconfiança generalizada na informação divulgada, já que pode ser difícil distinguir entre
conteúdo genuíno e o manipulado (MIQUEIAS, 2021).
Mas como as deepfakes podem influenciar na cadeia de custódia? Como alertam a Europol,
as Nações Unidas e a Trend Micro:
“o conteúdo audiovisual deepfake pode ser apresentado de forma maliciosa como
prova «legítima» na tentativa de frustrar investigações criminais e processos judiciais,
lançando dúvidas sobre as provas audiovisuais como uma categoria de provas. Isso
criaria novos obstáculos legais para investigadores e advogados, além de prejudicar a
credibilidade dos processos, incluindo as instituições e indivíduos que participam do
mesmo processo. Até mesmo a administração ou o sistema de justiça podem ser
questionados”. (2020, apud FREITAS, 2023, p. 201)

O autor Geraldo Prado (2014) ressalta que, a cadeia de custódia goza de status
constitucional, uma vez que tem relação com a garantia contra a prova ilícita. Nesse sentido, por
se tratar de um dispositivo que preza pela fiabilidade de uma prova, como acima mencionado por
Geraldo Prado, os vídeos e áudios produzidos pela IA, cuja tecnologia avançada permite que sejam
“fiéis” a um conteúdo real (SPENCER, 2019), torna muita mias complexo a análise de uma prova
para considerá-la ilícita ou não.
Spencer (2019) afirma: “O perigo das “deepfakes” representa um novo tipo de ameaça à
cybersegurança, na qual o que pode ser feito está muito à frente de como combatê-lo”. Em outras
palavras, compreende-se que, provar que um vídeo ou áudio (criado pela IA) é condizente com a
realidade dos fatos, é um trabalho muito mais difícil, visto que a Inteligência Artificial adota uma
tecnologia muito mais avançada do que as comumente conhecidas.

Em suma, Anderson Rocha, diretor do Recod.ai, o Laboratório de Inteligência Artificial da


Universidade Estadual de Campinas (Unicamp), diz: “há 20 anos, a imagem da cena de um crime
era uma evidência cabal. Dizíamos que a imagem valia por mil palavras. Hoje, vale por mil
mentiras”.

JUSTIFICATIVA

A influência das deepfakes na cadeia de custódia é um tema de extrema relevância,


considerando o impacto significativo que essas tecnologias têm sobre a autenticidade e a
confiabilidade das provas utilizadas na cadeia de custódia. Atualmente, a disseminação de
deepfakes representa uma grande ameaça à integridade da cadeia de custódia, uma vez que essas
tecnologias avançadas tornam mais desafiadora a distinção entre conteúdo genuíno e manipulado,
comprometendo, assim, a fiabilidade do elemento probatório. Esta pesquisa se justifica pela
necessidade de analisar de forma mais aprofundada como as deepfakes afetam a cadeia de
custódia, tanto no âmbito teórico quanto prático. Ao investigar esse fenômeno, será possível
identificar lacunas no sistema atual de gestão de evidências, bem como desenvolver estratégias
para lidar com as implicações das deepfakes na preservação da autenticidade das provas.
Portanto, a investigação sobre a influência das deepfakes na cadeia de custódia é essencial para
o fortalecimento do sistema jurídico diante dos desafios impostos pelas tecnologias digitais,
permitindo aprimorar os mecanismos de proteção e garantia dos direitos fundamentais dos
cidadãos.

OBJETIVOS (Gerais e Específicos)

Essa pesquisa científica tem como objetivo geral destacar os impactos que as deepfakes
causam na autenticidade e credibilidade das provas utilizadas na cadeia de custódia. Além disso,
esse projeto tem como objetivo específico analisar a natureza das deepfakes e sua criação, e
identificar os desafios enfrentados pela cadeia de custódia ao lidar com a autenticação de
evidências audiovisuais suscetíveis a manipulação pelas deepfakes.
METODOLOGIA

Trata-se de uma pesquisa exploratória, uma vez que busca identificar uma problematização
que poderá ser alvo de futuras pesquisas, além de ser um objeto de estudo com poucas
informações disponíveis, a qual será misturada o máximo de referências bibliográficas com outros
métodos, como pesquisa documental, dados estatísticos, e estudo de casos. Adota-se, ainda, a
pesquisa descritiva de base documental, de modo que não há intervenção ou abordagem ao sujeito
de modo direto. É de natureza aplicada, que objetiva gerar conhecimento para aplicações práticas
afim de solucionar problemas específicos. Na coleta de dados será utilizada a técnica documental,
isto é, a busca por documentos em jornais, registros estatísticos, livros, websites e utilização de
plataformas de bancos de dados, como IBGE, e artigos, como Scielo.

CRONOGRAMA DE EXECUÇÃO

Relacionar as atividades previstas, em ordem sequencial e temporal, de acordo com os objetivos


do projeto.
2024
Atividades a serem desenvolvidas no projeto
MAI JUN JUL AGO SET OUT NOV DEZ

Revisão bibliográfica X X

Discussão teórica em função da determinação dos objetivos X

Análise e interpretação X

Organização do roteiro X

Redação do trabalho X X

Revisão/entrega X

*Se necessário, pressionar a tecla TAB para inserir mais linhas no quadro acima

PLANO DE TRABALHO DO ACADÊMICO

Detalhar as atividades que serão desenvolvidas pelo acadêmico no período de execução do


projeto. Descrever como será realizada cada atividade informada no cronograma de execução.

Atividades a serem desenvolvidas no projeto Plano de Trabalho para a atividade

Descrever sobre a natureza das deepfakes e sua criação Revisão bibliográfica

Descrever sobre a influência das deepfakes na cadeia de custódia Revisão bibliográfica

Pesquisa com base em dados estatísticos sobre a influência das


Dados estatísticos em sites confiáveis
deepfakes na autenticidade das mídias audiovisuais

Pesquisa com base em casos reais que as deepfakes atuaram Pesquisa em Jornais e Noticiários

Conclusão sobre o a influência das deepfakes na cadeia de custódia Revisão bibliográfica

RESULTADOS ESPERADOS

Espera-se com essa pesquisa demonstrar os impactos negativos à autenticidade das provas
na cadeia de custódia causados pela proliferação das deepfakes audiovisuais, identificando o
posicionamento da doutrina a respeito das deepfakes e a cadeia de custódia, e, ao explorar esse
tema por meio de pesquisas bibliográficas e estudo de casos, apresentar a relação significativa que
as deepfakes apresentam na cadeia de custódia.
REFERÊNCIAS

FREITAS, Pedro Miguel; FANEGO, Coral Aranguena ; SANCHO, Montserrat De Hoyos;


GONZALEZ, Esther Pillado ; FERNANDEZ, Francisco Jiménez-villarejo. El Processo Penal ante
una nueva realidad tecnológica europea. 1. ed. Espanha: Aranzadi, 2023. ISBN 978-84-1125-845-
6.

GALANTE, Isabella. Deefake e os perigos da manipulação. Educa Mídia, 2020. Disponível em:
https://educamidia.org.br/deepfake-e-os-perigos-da-manipulacao/. Acesso em: 15 mar. 2024.

MIQUEIAS, Ítalo . Deepfakes e a Inteligência Artificial: O papel do Direito Digital no combate a Fake
News no âmbito Eleitora, Civil, Penal e Administrativo. Jusbrasil, 2021. Disponível em:
https://www.jusbrasil.com.br/artigos/deepfakes-e-a-inteligencia-artificial-o-papel-do-direito-digital-
no-combate-a-fake-news-no-ambito-eleitoral-civil-penal-e-administrativo/1194596401. Acesso em:
20 mar. 2024.

PRADO, Geraldo. Prova penal e Sistema de controles epistêmicos: A quebra da cadeia de custódia
das provas obtidas por meios ocultos. 1. ed. São Paulo: Marcial Pons, 2014. 82 p. ISBN
9788566722185.

PRADO, Magaly Parreira. Deepfake de áudio: manipulação simulada de voz real para retratar
alguém dizendo algo que não disse. TECCOGS - Revista Digital de Tecnologias Cognitivas, n. 23,
2021. Disponível em: PRADO, M. (2021b). Deepfake de áudio: manipulação simula voz real para
retratar alguém dizendo algo que não disse. TECCOGS - Revista Digital de Tecnologias Cognitivas,
n. 23, jan./jun. 2021, p. 45-68. Acesso em: 20 mar. 2024.

SPENCER, Michael K.. Deep Fake, a mais recente ameaça distópica: Estas pessoas não existem:
são "criadas" por INteligência Artificial. Fotos, vídeos e textos muito verossímeis multiplicam os
riscos de manipulação total. Emerge imenso problema: como regular a ciência, em meio à crise
civilizatória?. Outras Palavras, 2019. Disponível em:
https://outraspalavras.net/tecnologiaemdisputa/deep-fake-a-ultima-distopia/. Acesso em: 19 mar.
2024.

WARDLE, Claire; GREASON, Grace ; KERWIN, Joe; DIAS, Nic. Information Disorder: The Essential
Glossary. SHORENSTEIN CENTER on Media, Politics and Public Policy, 2021. Disponível em:
https://firstdraftnews.org/wp-content/uploads/2018/07/infoDisorder_glossary.pdf?x30563. Acesso
em: 13 mar. 2024.

Você também pode gostar