Escolar Documentos
Profissional Documentos
Cultura Documentos
Henry & Witt, 2021 Abuso Sexual em Imagem
Henry & Witt, 2021 Abuso Sexual em Imagem
Capítulo 43
Abstrato
Introdução
A tomada ou partilha não consensual de imagens nuas ou sexuais, também conhecida como
“abuso sexual baseado em imagens” (Henry et al., 2020; McGlynn & Rackley, 2017) ou
“pornografia não consensual” (Citron & Franks, 2014; Ruvalcaba & Eaton , 2020), é um grande
problema social e jurídico na era digital. Com o desenvolvimento das redes sociais e de outras
tecnologias em rede, que permitem a mais de três mil milhões de utilizadores gerar e partilhar
instantaneamente conteúdos na Internet (Kemp, 2020), o abuso sexual baseado em imagens
não só está a aumentar rapidamente, como também tem impactos significativos ( Henry e
outros, 2020).
Embora as infracções penais sejam um meio importante para punir os perpetradores e
proporcionar justiça às vítimas-sobreviventes, a criminalização pouco fez para prevenir o flagelo
do abuso sexual baseado em imagens ou minimizar os danos quando as imagens (fotografias
ou vídeos) são publicadas online. Por exemplo, as imagens podem ser copiadas e republicadas
em múltiplas plataformas e dispositivos – em alguns casos tornando virtualmente impossível
impedir a propagação de imagens online. Os perpetradores são muitas vezes difíceis de
identificar devido a medidas de anonimato, tais como encriptação, redes privadas virtuais e
servidores proxy que ocultam a natureza do conteúdo, a localização do tráfego da Internet e
outras informações sobre os utilizadores e os seus dispositivos. Além disso, o policiamento do
abuso sexual baseado em imagens (e do crime cibernético em geral) normalmente consome
muitos recursos, uma vez que as agências responsáveis pela aplicação da lei muitas vezes
têm de trabalhar além das fronteiras jurisdicionais.
Em resposta aos complexos desafios levantados pelos conteúdos nocivos online, os
governos de todo o mundo estão a introduzir novos regimes regulamentares para tentar
responsabilizar melhor as empresas tecnológicas pelo alojamento de conteúdos nocivos nas
suas plataformas. Ao mesmo tempo, as próprias empresas tecnológicas estão a tomar medidas
mais proactivas para resolver este problema. Neste capítulo, examinamos o problema do abuso
sexual baseado na imagem à luz destas duas formas de governação. Na primeira secção,
centramo-nos na governação das plataformas digitais, examinando a introdução de regimes
regulatórios governamentais e intergovernamentais mais amplos num cenário em mudança,
que alguns descreveram como um “techlash” global contra as principais plataformas digitais
(Flew, Martin, & Suzor, 2019, p. 33). Na segunda secção, examinamos a governação pelas
plataformas digitais, centrando-nos especificamente nas políticas, ferramentas e práticas que
estão a ser implementadas pelas plataformas digitais para responder e prevenir o abuso sexual
baseado em imagens.
Na terceira secção, recorremos a um modelo de responsabilidade social empresarial (RSE)
para propor caminhos a seguir. A RSE fornece uma linguagem útil, embora contestada, para
examinar a política e a prática de moderação ou regulamentação de conteúdo online.
Embora existam diferentes concepções de RSE, definimo-la como as responsabilidades sociais,
económicas, legais, morais e éticas das empresas para lidar com os efeitos nocivos das suas
actividades. A nossa concepção de RSE está inserida num quadro de justiça social que situa a
lógica da acção não apenas como um exercício de construção de lucros ou de reputação, mas
também como um exercício que depende dos valores comunitários e do “bem comum”.
Argumentamos que, embora muitas plataformas digitais estejam a tomar medidas proactivas para
detectar e abordar o abuso sexual baseado em imagens, quatro deficiências principais são evidentes
nas suas abordagens políticas. Primeiro, algumas plataformas adotam políticas inconsistentes, reducionistas e
Machine Translated by Google
e linguagem ambígua para descrever o abuso sexual baseado em imagens. Em segundo lugar,
embora várias plataformas tenham agora uma posição política explícita sobre o abuso sexual
baseado em imagens, existe muitas vezes uma grande lacuna entre a política e a prática de
regulação de conteúdos, bem como uma falta de transparência sobre como as decisões são
tomadas e quais são as consequências. resultados dessas decisões são. Terceiro, embora as
plataformas recorram cada vez mais a soluções de alta tecnologia para detectar ou prevenir o
abuso sexual baseado em imagens, estas são medidas imperfeitas que podem ser contornadas.
E quarto, a responsabilidade recai predominantemente sobre os utilizadores para encontrar e
denunciar abusos sexuais baseados em imagens às plataformas, o que pode ser traumatizante e altamente stressa
Afirmamos que, devido ao seu poder de governo, carácter público e controlo da informação,
as plataformas digitais têm a responsabilidade ética de detectar, abordar e prevenir o abuso
sexual baseado em imagens nas suas redes. Isto apesar do grau de imunidade legal que as
plataformas têm contra conteúdos nocivos publicados pelos seus utilizadores ao abrigo da secção
230(c) da Lei de Decência nas Comunicações dos Estados Unidos (EUA) de 1996 (CDA 230).
Argumentamos que quando as plataformas governam sem salvaguardas regulamentares
suficientes, tais como processos de recurso e práticas de fundamentação (Suzor, 2019), correm
o risco de falhar nas vítimas-sobreviventes de abuso sexual baseado em imagens e estão
implicadas na perpetração de atos sexuais baseados em imagens. Abuso.
Além das formas potencialmente ilícitas de vigilância e recolha de dados, uma das principais
formas pelas quais as plataformas governam as suas redes é moderando o conteúdo gerado
pelos utilizadores. Como forma de regulamentação, a moderação de conteúdo abrange uma série
de processos através dos quais os executivos da plataforma e os seus funcionários definem,
mantêm e impõem os limites dos comportamentos “apropriados” dos utilizadores (Witt, Suzor, &
Huggins, 2019). A norma é que a moderação de conteúdo seja ex post, o que significa que é
realizada depois que um usuário publica conteúdo e reativa em resposta a sinalizações ou
relatórios do usuário (Klonick, 2018; Roberts, 2019). Isto significa que as plataformas geralmente não
Machine Translated by Google
Nesta seção, exploramos uma série de políticas, ferramentas e práticas projetadas para detectar,
prevenir e responder ao abuso sexual baseado em imagens em algumas das maiores plataformas
digitais. Dado o ritmo acelerado da inovação no setor tecnológico, selecionámos plataformas de
acordo com o seu tráfego, domínio de mercado e capacidade de alojar conteúdos de abuso sexual
baseados em imagens. Os sites que selecionamos foram predominantemente os sites mais
populares classificados pela empresa de análise Alexa (Alexa Internet, nd).
As plataformas de mídia social e mecanismos de busca que examinamos incluíram Google,
YouTube, Facebook, Yahoo!, Reddit, Instagram, Microsoft, Twitter, Flickr, Snapchat, TikTok e
Tumblr. Os sites de pornografia que examinamos incluíam Pornhub, XVideos e xHamster. Depois
de criar uma lista de sites, usamos o mecanismo de busca Google para identificar os documentos
políticos de cada empresa, incluindo seus termos de serviço, diretrizes da comunidade, relatórios
e blogs oficiais. Cada documento foi analisado para identificar políticas específicas de abuso
sexual baseado em imagens, políticas gerais que poderiam ser aplicáveis ao abuso sexual
baseado em imagens e ferramentas para detectar, denunciar ou bloquear conteúdo, se houver.
Também pesquisamos artigos de notícias ou blogs relevantes sobre as respostas das plataformas
a conteúdo de abuso sexual baseado em imagens.
Machine Translated by Google
Nossa abordagem tem quatro limitações principais. A primeira limitação é que só pudemos examinar
documentos políticos disponíveis publicamente. Como tal, não pudemos examinar as diretrizes não
divulgadas que os moderadores seguem a portas fechadas ou informações sobre os sistemas
automatizados privatizados que as plataformas digitais podem utilizar. Em segundo lugar, realizámos a
nossa análise durante um período de três meses entre Janeiro e Março de 2020 e, portanto, não
podemos contabilizar quaisquer alterações nas políticas, ferramentas ou práticas após esse período.
Terceiro, não examinamos empresas de tecnologia não inglesas, nem examinamos plataformas
marginais, “desonestas” ou subterrâneas (por exemplo, na Clear Net ou Dark Net) onde conteúdo de
abuso sexual baseado em imagens está sendo compartilhado e negociado (ver Henry & Flynn, 2019).
O termo “pornografia de vingança” tornou-se popular em 2011, após a ampla atenção da mídia ao
compartilhamento não consensual de imagens nuas ou sexuais de músicos e esportistas no site
IsAnyoneUp.com e ao subsequente julgamento criminal de seu fundador, Hunter Moore (Martens,
2011). . O termo, no entanto, é impróprio porque nem todos os perpetradores são motivados por
vingança quando partilham imagens nuas ou sexuais sem consentimento. Em vez disso, podem ser
motivados por outras razões, tais como gratificação sexual, ganho monetário, construção de estatuto
social ou desejo de poder e controlo (Citron & Franks, 2014; Henry et al., 2020). O termo “pornografia
de vingança” tem sido amplamente criticado por ter conotações de culpabilização das vítimas,
minimização de danos ou lascivas. Acadêmicos, ativistas, vítimas-sobreviventes e profissionais também
argumentam que ele não consegue capturar a complexidade e a diversidade de comportamentos que
envolvem o uso e abuso de imagens sexuais ou nuas não consensuais por pessoas conhecidas e
desconhecidas, usando diversos meios e métodos (Henry et al. ., 2020; McGlynn e Rackley, 2017;
Powell, Henry e Flynn, 2018).
ofensa (YouTube, 2020, O que acontece se, parágrafo 1). Após uma primeira infração, os
usuários receberão um aviso contra seu canal e, depois de receberem três avisos, seu canal
será encerrado. Outras plataformas possuem sistemas semelhantes em funcionamento. Tal
como observado por York e Zuckerman (2019), a suspensão das contas dos utilizadores pode
funcionar como um “forte desincentivo” à publicação de conteúdos nocivos onde a reputação
social ou profissional esteja em jogo (p. 144).
Deepfakes
A medida em que as políticas e diretrizes da plataforma cobrem explícita ou implicitamente
“deepfakes”, incluindo pornografia deepfake, é uma questão de governança relativamente nova.
Deepfakes são uma mala de viagem de “aprendizado profundo”, um subcampo de inteligência
artificial (IA) restrita usada para criar conteúdo e imagens falsas. Em dezembro de 2017, um
usuário do Reddit, que se autodenominava “deepfakes”, treinou algoritmos para trocar rostos de
atores em vídeos pornográficos com rostos de celebridades conhecidas (ver Chesney & Citron,
2019; Franks & Waldman, 2019). Desde então, o volume de vídeos deepfake na internet
aumentou exponencialmente; a grande maioria dos quais são pornográficos e têm como alvo
desproporcional as mulheres (Ajder, Patrini, Cavalli, & Cullen, 2019).
Por outro lado, a nova política de deepfake do Twitter refere-se a “mídia sintética ou
manipulada que pode causar danos” de acordo com três critérios principais: primeiro, se o
conteúdo for sintético ou manipulado; segundo, se o conteúdo foi compartilhado de forma
enganosa; e terceiro, se o conteúdo for suscetível de afetar a segurança pública ou causar
danos graves (Twitter, 2020, parágrafo 1). A publicação de imagens deepfake no Twitter pode
levar a uma série de consequências, dependendo se algum ou todos os três critérios forem
satisfeitos. Isso inclui a aplicação de um rótulo ao conteúdo para deixar claro que ele é falso;
reduzir a visibilidade do conteúdo ou impedir que ele seja recomendado; fornecer um link para
explicações ou esclarecimentos adicionais; remover o conteúdo; ou suspensão de contas onde
houve violações repetidas ou graves da política (Twitter, 2020).
Embora não existam políticas específicas de deepfake em outras plataformas, algumas têm
regras mais gerais relacionadas a “fake/d”, “falso”, “enganoso”, “manipulado digitalmente”,
Machine Translated by Google
Conteúdo “semelhante” e/ou “agregado”, o que pode resultar na remoção de imagens deepfake. O Pornhub
(2020) não menciona deepfakes em seus Termos de Serviço; no entanto, em 2018 anunciou a proibição de
deepfakes (Cole, 2018).
No entanto, o site continua a hospedar pornografia deepfake. Quando pesquisamos por “deepfakes” usando a
função de pesquisa interna do Pornhub, nenhum resultado foi encontrado, mas quando pesquisamos
“deepfakes” e “pornhub” no Google, vários resultados de vídeos falsos de celebridades foram retornados.
As opções de denúncia são outro meio através do qual as plataformas digitais podem resolver o problema do
abuso sexual baseado em imagens. Todas as plataformas que examinamos possuem algum tipo de protocolo
de denúncia, incluindo os sites pornográficos, que deveriam desencadear a revisão por moderadores de
conteúdo humanos. Em sites pornográficos, por exemplo, os usuários podem denunciar por meio de uma
solicitação de remoção da Lei de Direitos Autorais do Milênio Digital de 1998 ou por meio de um formulário de
remoção de conteúdo. O Facebook anunciou recentemente que o conteúdo de abuso sexual baseado em
imagens agora é triado junto com a automutilação na fila de moderação de conteúdo (Solon, 2019).
Outra forma importante de denúncia de conteúdos ocorre através do sistema de “sinalização”, onde os
utilizadores são alistados como um “corpo voluntário de reguladores” para alertar as plataformas sobre
conteúdos que violam as suas políticas e padrões comunitários (Crawford & Gillespie, 2016, p. 412). Os
usuários do Facebook, por exemplo, sinalizam cerca de um milhão de conteúdos por dia (Buni & Chemaly,
2016). Muitas empresas fornecem recursos de denúncia integrados por meio dos quais os usuários podem
denunciar material que potencialmente viole as políticas de conteúdo (Witt et al., 2019, p. 577). Por exemplo,
o Pornhub permite que os usuários sinalizem vídeos (usando o link “Sinalizar este vídeo” abaixo de cada vídeo)
se forem “ilegais, ilícitos, de assédio, prejudiciais, ofensivos ou por vários outros motivos”, afirmando que
removerão o conteúdo de o site sem demora (Pornhub, 2020, Usos proibidos, parágrafo 2).
Ferramentas Tecnológicas
A terceira opção para reforçar a ação proativa da plataforma em relação a conteúdos nocivos é utilizar
soluções tecnológicas para evitar que os utilizadores cometam novos abusos.
Em 2009, a Microsoft e o professor Hany Farid, do Dartmouth College, desenvolveram o PhotoDNA,
uma tecnologia que cria uma assinatura digital única (também conhecida como “hash” ou “impressão
digital”) de imagens de abuso sexual infantil, que pode então ser comparada com imagens conhecidas.
armazenados em um banco de dados com curadoria do Centro Nacional para Crianças Desaparecidas
e Exploradas nos Estados Unidos (Langston, 2018, parágrafo 13).
Esta tecnologia auxilia as plataformas a detectar, remover e bloquear conteúdo de abuso sexual infantil
em suas redes. Também é usado pelas autoridades policiais para detectar, prender e processar os
perpetradores e identificar as vítimas.
A tecnologia PhotoDNA levou a outras inovações tecnológicas na regulação de conteúdo on-line
prejudicial.1 Em novembro de 2017, o Facebook anunciou um teste piloto em parceria com o Escritório
Australiano do Comissário de Segurança Eletrônica para impedir a ocorrência de abuso sexual baseado
em imagens em plataformas de propriedade do Facebook, o que foi então expandido para o Canadá,
os Estados Unidos e o Reino Unido em maio de 2018 (Facebook, 2020b). O teste permite que pessoas
preocupadas com a possibilidade de alguém compartilhar uma imagem delas entrem em contato com
a agência parceira relevante e preencham um formulário on-line. A pessoa recebe então um e-mail
contendo um link de upload único e seguro, onde ela pode fazer upload da imagem. Um analista de
operações da comunidade do Facebook acessa a imagem e cria um “hash” dela. Se algum usuário no
futuro tentar fazer upload ou compartilhar a mesma imagem na plataforma, será automaticamente
bloqueado e a imagem não poderá ser compartilhada (Facebook, 2020b).
Estas soluções tecnológicas têm recebido críticas significativas. O piloto do Facebook foi
amplamente condenado por pedir a indivíduos vulneráveis que confiassem no Facebook as suas
imagens íntimas na sequência do escândalo Cambridge Analytica (ver, por exemplo, Romano, 2018;
ver também Bailey & Liliefeldt, este volume). Mais recentemente, uma investigação do Motherboard
descobriu que o sistema de impressão digital do Pornhub “pode ser facilmente e rapidamente
contornado com pequenas edições” para alterar os metadados e, portanto, evitar que a imagem
corresponda à imagem original armazenada no banco de dados (Cole & Maiberg, 2020, parágrafo 7 ).
Os investigadores do Motherboard, com o consentimento e a cooperação de várias mulheres que
apareceram em vídeos pornográficos não consensuais, testaram o sistema de remoção de conteúdo
do Pornhub, descobrindo que o Pornhub removeu os vídeos quando denunciou o conteúdo. Os
investigadores
Machine Translated by Google
também testou o sistema de impressão digital usando técnicas de edição para alterar os vídeos.
Eles descobriram que depois que o conteúdo foi sinalizado, removido e impresso digitalmente,
quando tentaram enviar exatamente o mesmo vídeo para o Pornhub, o vídeo foi removido em
uma hora. No entanto, também experimentaram a utilização de técnicas de edição para alterar
ligeiramente uma série de vídeos e descobriram que, quando o fizeram, o método de impressão
digital não funcionou e o vídeo não foi removido (Cole & Maiberg, 2020). O sistema do Pornhub
pode ser comparado ao programa PhotoDNA da Microsoft, onde as imagens hash são resistentes
a alterações complexas de imagem, incluindo redimensionamento e pequenas alterações de cor
(Langston, 2018).
Em 2019, o Facebook introduziu uma nova ferramenta de IA que pode detectar imagens de
“quase nudez” compartilhadas não consensualmente (Davis, 2019). Usando um banco de dados
de imagens íntimas não consensuais previamente confirmadas, a tecnologia funciona treinando
o algoritmo para reconhecer padrões de linguagem e palavras-chave que sugeririam que essas
imagens não são consensuais (semelhante à ferramenta de IA do Google para detectar material
de abuso infantil). Depois que o conteúdo for sinalizado, um membro da equipe de operações
comunitárias do Facebook analisa o conteúdo e decide se o conteúdo violou os padrões da
comunidade do Facebook. Se concluirem que houve uma violação, o Facebook desativará a
conta ou emitirá um aviso ao usuário (Davis, 2019). Esta é uma medida proativa importante por
duas razões principais. Primeiro, devolve à plataforma a responsabilidade de encontrar e remover
conteúdo de abuso sexual baseado em imagens. Em segundo lugar, impede a visualização e/ou
posterior partilha destas imagens. Isto é crucial, uma vez que muitas vítimas-sobreviventes não
saberão que as suas imagens estão a ser partilhadas ou só descobrirão as suas imagens muito
depois de terem sido partilhadas online.
No entanto, é importante notar que esta ferramenta é imperfeita porque, em muitos casos, não
haverá indicação clara de que a imagem foi partilhada sem consentimento (por exemplo,
indicações claras incluem uma vítima que faz uma denúncia, é menor de idade ou o texto que a
acompanha sugerir vingança). Nos casos em que não há uma indicação clara, há pouco que o
Facebook e a sua ferramenta de IA possam fazer para determinar se a imagem foi de facto tirada
ou partilhada sem consentimento.
No geral, estes sistemas automatizados são revolucionários e estão a ajudar algumas
plataformas a abordar e prevenir melhor conteúdos online prejudiciais. No entanto, a criptografia
de ponta a ponta, onde ninguém (incluindo as plataformas) pode ver o conteúdo das mensagens
enviadas, funciona para contornar o uso de sistemas de hashing de imagens, frustrando os
esforços globais para reduzir a circulação de abuso sexual infantil ou abuso sexual baseado em
imagens. material de abuso (ver Green, 2019). Este é um forte lembrete de que não podemos e
não devemos confiar apenas em soluções tecnológicas para lidar com a circulação de conteúdos
nocivos online.
Tendo delineado quatro deficiências principais associadas à governação por plataformas, nesta
secção final exploramos como os quadros de RSE podem fornecer orientação crítica às
plataformas digitais e ajudar a estabelecer novas normas para garantir que estes actores
governamentais tomem medidas mais proactivas para abordar e prevenir a circulação de
conteúdo prejudicial em suas redes. RSE é um termo “essencialmente contestado” (Okoye, 2009) porque
Machine Translated by Google
há pouco acordo sobre o que isso implica e nenhuma definição universalmente acordada
(Ihlen, Bartlett, & May 2011). Na sua forma mais ampla, a RSE é definida como “a relação entre
empresas e sociedade” (Laidlaw, 2017, p. 138), ou, na sua forma mais restrita, como
“responsabilidade social” que “começa onde a lei termina” (Davis, 1973, p. 313). Existem
diversas justificativas para uma maior responsabilidade social por parte das plataformas; O
principal deles é o papel que estas empresas desempenham na facilitação e, em alguns casos,
até na promoção de conteúdos nocivos nas suas redes (Slane & Langlois, 2018, p. 46).
Embora haja pouco acordo sobre a natureza e a extensão das responsabilidades éticas ou
morais das empresas (ver Taddeo & Floridi, 2016), as empresas são cada vez mais avaliadas
em relação a um conjunto de parâmetros de referência sobre processos de governação e
respeito pela privacidade e liberdade de expressão dos utilizadores. Por exemplo, o Índice de
Responsabilidade Corporativa do Ranking Digital Rights (RDR) (2019) é uma iniciativa a nível
da indústria que avalia 24 das empresas de tecnologia mais poderosas do mundo de acordo
com três critérios principais: privacidade; liberdade de expressão; e governação. Outras
iniciativas globais, como os Princípios Orientadores das Nações Unidas (UNGP) sobre Empresas
e Direitos Humanos, fornecem igualmente um conjunto de directrizes para corporações
transnacionais, empresas e estados prevenirem, abordarem e remediarem violações de direitos
humanos cometidas em operações comerciais ( ver Nações Unidas, 2011). Existem, claro,
várias limitações associadas a iniciativas de RSC como estas. Em termos do Índice RDR,
apenas um pequeno número de empresas é classificado (nenhum é site pornográfico) de
acordo com 35 indicadores gerais que medem o desempenho. Infelizmente, eles pouco nos
dizem sobre o desempenho de diferentes empresas em relação ao tratamento de
comportamentos online específicos, como o abuso sexual baseado em imagens. Outra
preocupação é que a maioria dos quadros de RSE, como os UNGP, impõem obrigações não
vinculativas – por vezes descritas como “turvas” e “leves” – em matéria de direitos humanos
(ver Jørgensen, 2017, p. 281; ver também Coombs, este volume). No entanto, as iniciativas de
RSE levaram a melhorias tangíveis nas práticas das empresas de tecnologia relacionadas com
a privacidade, a liberdade de expressão e a governação (RDR, 2019, p. 9).
Argumentamos que a RSE fornece uma lente útil através da qual se pode examinar a
governação da plataforma. A concepção de RSC de Crane, Matten e Spence (2013) compreende
seis características principais: (1) participação voluntária; (2) gestão de externalidades, tais
como impactos nas comunidades locais; (3) tratar as partes interessadas como mais do que
apenas acionistas; (4) alinhamento das responsabilidades sociais e económicas; (5) formar
práticas e valores empresariais que abordem questões sociais; e (6) ir além da mera filantropia.
Estas características não só sublinham como deveria ser a ação positiva das plataformas
digitais, mas também fornecem uma linguagem útil para identificar e resolver potenciais
problemas. Baseamo-nos nesta concepção de RSE na nossa discussão abaixo, concentrando-
nos em quatro barreiras principais para abordar e prevenir o abuso sexual baseado em imagens
em plataformas digitais. Especificamente, demonstramos as formas pelas quais a governação
por plataformas entra frequentemente em conflito com estes ideais de RSE.
Estados da nação. Como mencionado acima, a CDA 230, por exemplo, não exige (com algumas
exceções) que as plataformas digitais moderem o conteúdo (Tushnet, 2008, pp. 1001–1002). Por
exemplo, os Termos de Serviço do Pornhub (2020) deixam claro que eles não têm a obrigação de
revisar o conteúdo e não o fazem regularmente.2 Existem também dificuldades inerentes em pesar as
demandas potencialmente conflitantes entre a liberdade de expressão e outros direitos, que constituem
a base de alguns argumentos contra a regulamentação corporativa de conteúdo (ver Hintz, 2014, p.
349).
Além disso, existem preocupações bem fundamentadas sobre a atribuição de poder regulamentar, em
grande parte não transparente e irresponsável, a entidades privadas, algumas das quais podem cometer
erros ao moderar conteúdos, dando prioridade a interesses comerciais em detrimento de questões
éticas e de objectivos orientados para a comunidade ou de justiça social.
Uma segunda barreira relacionada à RSE é o lucro económico. As plataformas concentram-se
geralmente em atrair mais utilizadores e, assim, gerar maiores receitas publicitárias, o que pode ter
impactos de longo alcance nos dados e na privacidade dos utilizadores. As plataformas digitais, no
entanto, envolvem-se regularmente em atividades filantrópicas e socialmente responsáveis, procurando
alinhar ostensivamente o lucro económico com a responsabilidade social. A título de exemplo, em Março
de 2020, em resposta à devastação causada pela COVID-19, o Pornhub doou máscaras cirúrgicas e
parte dos seus rendimentos a profissionais do sexo afectados pela pandemia (Iovine, 2020).
Esses atos filantrópicos contrastam fortemente com uma série de práticas antiéticas e criminosas
em sites pornográficos como o Pornhub. Em Março de 2020, quase meio milhão de pessoas assinaram
uma petição online (iniciada por um grupo chamado Exodus Cry) para responsabilizar o Pornhub por
acolher vídeos de violação de crianças e pornografia de menores, alguns dos quais são vítimas de
tráfico sexual (Milne, 2020). A petição também afirma que o Pornhub não possui um sistema confiável
para verificar a idade ou o consentimento das pessoas apresentadas no conteúdo pornográfico do site.
Um dos principais desafios é que, nos sites pornográficos, o conteúdo não consensual é um
empreendimento extremamente lucrativo, gerando milhões de visualizações e atraindo milhões de
dólares em publicidade. Como tal, pode haver muito pouco incentivo para as empresas pornográficas
removerem conteúdo de abuso sexual baseado em imagens e pouco risco de que se não o fizerem
prejudicará a sua imagem corporativa.
As principais plataformas de redes sociais, por outro lado, podem ter mais incentivos para abordar
conteúdos online prejudiciais, porque não o fazer podem resultar em danos significativos à sua reputação
corporativa.
Uma terceira barreira diz respeito aos desafios técnicos, logísticos e emocionais significativos que
surgem com a tentativa de regular volumes massivos de conteúdo online (Laidlaw, 2017; Roberts,
2019). Isto é particularmente verdade em plataformas como o Facebook, que tem atualmente 2,5 mil
milhões de utilizadores ativos (Hutchinson, 2020). A enorme escala do conteúdo significa que não só há
atrasos nos processos de revisão e remoção de conteúdo, mas também que os moderadores de
conteúdo – muitos dos quais são trabalhadores contratados com baixos salários – são regularmente
expostos a conteúdos violentos e prejudiciais, fazendo com que alguns sofram traumas indiretos
significativos ( ver Boran, 2020).
Finalmente, devido a estas barreiras acima mencionadas, existe frequentemente uma lacuna entre
as políticas sobre abuso sexual baseado em imagens e a prática real de revisão e remoção de
conteúdos. A advogada norte-americana Carrie Goldberg (2019) comentou sobre a falta de ação do
Google ao retirar vídeos de mulheres que foram enganadas para atuarem em pornografia ou abusadas
sexualmente nesses vídeos. De acordo com Goldberg: “Se o Google decidir
Machine Translated by Google
continuará vinculando a um site que contém suas imagens de nudez, as vítimas estão sem sorte.
E não há órgão de apelação. Não existe lei, apenas política corporativa, que proteja (ou deixe de
proteger) as informações mais privadas das vítimas” (parágrafo 9). No geral, pouco se sabe sobre
o número de imagens sinalizadas pelos utilizadores, denunciadas por vítimas-sobreviventes,
marcadas para análise por sistemas de IA ou com impressões digitais para bloqueio futuro. Isto,
por sua vez, torna difícil para as partes interessadas determinar até que ponto a governação da
plataforma tem sido eficaz na prática para responder e prevenir o abuso sexual baseado em
imagem.
Algumas empresas tecnológicas têm enfrentado o escrutínio público devido aos seus
processos opacos de moderação de conteúdos (ver Hopkins, 2017), levando, em alguns casos, a
uma maior transparência por parte destas empresas. Por exemplo, o Relatório de Transparência
do Facebook é um sistema regular de relatórios que dá “visibilidade à comunidade” sobre como o
Facebook aplica os padrões da sua comunidade, protege a propriedade intelectual, responde a
solicitações legais de dados do usuário ou restrições de conteúdo e monitora interrupções na
Internet em seus produtos (Facebook, 2020c, parágrafo 1). O Facebook também tem um guia
complementar que explica como redigem as suas políticas, como encontram e analisam
potenciais violações e como medem os resultados (Facebook, 2020d). Em relação à aplicação
dos seus Padrões da Comunidade, o Facebook divulga métricas sobre como eles estão
“prevenindo e tomando medidas sobre conteúdo que vai contra essas políticas” em relação a uma
série de questões diferentes, como “nudez adulta e atividade sexual”, “ intimidação e assédio”,
“nudez infantil e exploração sexual de crianças” e discurso de ódio (Facebook, 2020c, Relatório
de aplicação das normas comunitárias, parágrafos 1 e 4).
Em relação à “nudez adulta e atividade sexual”, o Facebook relata métricas sobre a prevalência
desse conteúdo, quanto conteúdo o Facebook tomou medidas, quanto conteúdo foi encontrado
pelo Facebook antes de ser denunciado pelos usuários, quanto conteúdo foi apelado pelos
usuários e quanto conteúdo acionado foi posteriormente restaurado pelo Facebook (Facebook,
2020c, Relatório de aplicação dos padrões comunitários, parágrafo 4). Infelizmente, o relatório
do Facebook não discrimina os diferentes tipos de nudez adulta e atividade sexual – o que inclui
a representação de nudez, bem como conteúdo de abuso sexual baseado em imagens. Em outras
palavras, o Facebook não informa especificamente sobre a prevalência de conteúdo de abuso
sexual baseado em imagens em sua plataforma, nem as ações que o Facebook tomou para
remover esse conteúdo ou as consequências para os usuários violadores. No entanto, as
tentativas do Facebook de maior transparência em relação à moderação de conteúdos são um
exemplo de formas mais responsáveis de RSE, que muitas outras empresas ainda não adoptaram.
Dadas as barreiras para abordar e prevenir o abuso sexual baseado em imagens através de
iniciativas de RSC, bem como as quatro principais deficiências que identificamos nas práticas de
governação das nossas plataformas selecionadas, argumentamos que os governos podem e
devem desempenhar um papel mais importante na resolução das deficiências. na governança por
plataformas. Isto não significa sugerir que as plataformas devam obedecer aos mesmos padrões
que os Estados-nação. As respostas regulamentares de cima para baixo, de comando e de
controlo são geralmente inadequadas para contextos descentralizados como a Internet e não
necessariamente desejáveis para utilizadores, legisladores e outras partes interessadas (Witt et al., 2019, p. 593).
Em vez disso, argumentamos que o que é necessário é mais regulamentação baseada no Estado
(governação de plataformas) que possa ajudar a alinhar melhor a governação por plataformas
com a RSE – especificamente, iniciativas integradas na justiça social e nos direitos humanos.
Machine Translated by Google
estruturas. Um passo positivo seria uma alteração ao CDA 230 para que a disposição do porto
seguro só se aplicasse às plataformas que tomam medidas razoáveis para rever e remover
conteúdos nocivos (ver Citron, 2018).
A sugestão de introduzir mais regulamentação governamental não é, na nossa opinião, radical.
Tal como demonstrámos na primeira secção deste capítulo, o panorama regulamentar em torno
da governação das plataformas está a mudar, com muitos governos em todo o mundo a tomar
medidas para responsabilizar as empresas tecnológicas pelo alojamento de conteúdos nocivos
(Flew et al., 2019). Na verdade, no início de 2019, o cofundador e CEO do Facebook, Mark
Zuckerberg, reconheceu: “Os legisladores dizem-me frequentemente que temos demasiado poder
sobre o discurso e, francamente, concordo. Passei a acreditar que não deveríamos tomar tantas
decisões importantes sobre o discurso por conta própria”
(Zuckerberg, 2019, parágrafo 5). Salientamos, no entanto, que qualquer tentativa de regular as
plataformas deve ser razoável, proporcional e ter em conta guias para uma boa concepção
regulamentar, como os Princípios de Manila sobre Responsabilidade dos Intermediários (2015),
que procuram equilibrar os direitos dos utilizadores à liberdade de expressão, à liberdade de
associação e o direito à privacidade. Estas medidas impulsionariam ainda mais uma nova cultura
de governação de plataformas digitais que se baseia não apenas no lucro económico, mas na
justiça social, na comunidade e na ética.
Conclusão
de abuso sexual baseado em imagens. Em resposta, apelamos a uma regulamentação estatal que
possa ajudar a alinhar melhor a governação por plataformas com iniciativas de RSE.
Há uma série de medidas que as próprias plataformas podem tomar para melhor enfrentar o
flagelo do abuso sexual baseado em imagens nas suas redes: principalmente, adoptar uma
abordagem regulamentar multifacetada, orientada para a comunidade e baseada na justiça social.
Essa abordagem deve incluir políticas claras e robustas que proíbam especificamente conteúdos
de abuso sexual baseados em imagens, com funções punitivas e educativas claramente associadas;
modificações arquitetônicas, incluindo melhores sistemas para verificar de forma confiável a idade
e o consentimento das pessoas apresentadas em conteúdo hospedado em plataformas; mais
recursos investidos em IA e outros sistemas automatizados para detecção e remoção de conteúdos,
com especial atenção às deficiências destas soluções tecnológicas; maior colaboração e consulta
multilateral entre plataformas digitais com a sociedade civil e intervenientes governamentais para
alcançar objetivos comuns; e aumento do debate público sobre a governação das plataformas e o
que a RSE deve implicar. Mais importante ainda, a governação por plataformas deve ser transparente
e responsável, sujeita ao escrutínio da sociedade civil e flexível num cenário digital em constante
mudança.
Notas
Referências
Ajder, H., Patrini, G., Cavalli, F., & Cullen, L. (2019, setembro). O estado das falsificações
profundas: cenário, ameaças e impacto. Obtido em https://deeptracelabs.com/mapeamento-the-
deepfake-landscape/
AlexInternet. (nd). Os 500 principais sites da web. Obtido em https://www.alexa.
com/topsites
Boran, M. (2020, 27 de fevereiro). A vida como moderador do Facebook: as pessoas são horríveis.
Isso é o que meu trabalho me ensinou. O Irish Times. Obtido em https://www.irishtimes. com/
Bose, N. (2020, 9 de janeiro). Os legisladores dos EUA dizem que as medidas do Facebook para
combater os vídeos ‘deepfake’ não são adequadas. Reuters. Obtido em https://
www.reuters.com/ Buni, C., & Chemaly, S. (2016, 13 de abril). As regras secretas da internet. A beira.
Obtido em https://www.theverge.com
Machine Translated by Google
Flew, T., Martin, F. e Suzor, N. (2019). Regulação da Internet como política de mídia: Repensando
a questão da governança das plataformas de comunicação digital. Journal of Digital Media &
Policy, 10(1), 33–50. doi:10.1386/jdmp.10.1.33_1
Franks, MA e Waldman, AE (2019). Sexo, mentiras e videoteipe: falsificações profundas e delírios
de liberdade de expressão. Revisão da Lei de Maryland, 78(4), 892–898. Obtido em https://
digitalcommons.law.umaryland.edu/cgi/viewcontent.cgi?article53835&context5mlr Gillespie,
T. (2018). Guardiões da internet: plataformas, moderação de conteúdo e as decisões ocultas que
moldam as mídias sociais. New Haven, CT: Yale University Press.
Goldberg, C. (2019, 17 de agosto). Como o Google destruiu a vida de vítimas de pornografia de
vingança. Correio de Nova York. Obtido em https://nypost.com
Machine Translated by Google
Iovine, A. (2020, 25 de março). O Pornhub Premium agora é gratuito para que todos possam
incentivar você a ficar em casa. Mashável. Obtido em https://mashable.com
Jørgensen, RF (2017). O que as plataformas querem dizer quando falam sobre direitos humanos.
Política e Internet, 9(3), 280–296. doi:10.1002/poi3.152 Kemp,
S. (2020, 30 de janeiro). Digital 2020: 3,8 mil milhões de pessoas utilizam as redes sociais.
[Postagem no blog]. Obtido em https://wearesocial.com/blog/2020/01/digital-2020-3-8-billion
people-use-social-media
Klonick, K. (2018). Os novos governadores: as pessoas, as regras e os processos que regem o
discurso online. Harvard Law Review, 131, 1598–1670. Obtido em https://harvar
dlawreview.org/wp-content/uploads/2018/04/1598-1670_Online.pdf
Laidlaw, E. (2017). Mito ou promessa? As responsabilidades sociais corporativas dos prestadores
de serviços online em matéria de direitos humanos. Em M. Taddeo & L. Floridi (Eds.), As
responsabilidades dos provedores de serviços online (pp. 135–154). Cham: Springer
International Publishing.
Langston, J. (2018, 12 de setembro). Como o PhotoDNA para vídeo está sendo usado para
combater a exploração infantil online. Microsoft. Obtido em https://news.microsoft.com Lee,
K. (2018). Superpotências da IA: China, Vale do Silício e a nova ordem mundial.
Boston, NY: Houghton Mifflin Harcourt.
Princípios de Manila sobre responsabilidade de intermediários. (2015). Obtido em https://www.
manilaprinciples.org/
Martens, T. (2011, 4 de dezembro). Rockers, totalmente expostos em Is Someone Up?. Los
Angeles Times. Obtido em https://www.latimes.com/entertainment/la-xpm 2011-dec-04-la-ca-
pop-nudes-20111204-story.html
Machine Translated by Google
McGlynn, C. e Rackley, E. (2017). Abuso sexual baseado em imagens. Oxford Journal of Legal Studies, 37(3),
535–561. doi:10.1093/ojls/gqw033
Microsoft. (2020). Formulário de denúncia de pornografia não consensual. Obtido em https://www.microsoft.com/
en-au/concern/revengeporn Milne, A. (2020, 27 de março). O serviço
gratuito de sites pornográficos durante o coronavírus aumenta temores de tráfico sexual. Reuters. Obtido em
https://www.reuters.com/article/us britain-women-trafficking-trfn/porn-sites-free-service-during-coronavirus-
raises sex-trafficking-fears-idUSKBN21D3E9 Okoye, A. (2009) . Teorizando a responsabilidade social
corporativa como um conceito essencialmente
contestado: é necessária uma definição?. Jornal de Ética Empresarial, 89, 613–627. doi: 10.1007/s10551-008-0021-9
Classificação dos direitos digitais. (2019, maio). Índice de Responsabilidade Corporativa 2019. Obtido em https://
rankingdigitalrights.org/index2019/assets/static/download/RDRindex 2019report.pdf
Roberts, S. (2019). Atrás da tela: moderação de conteúdo nas sombras das redes sociais
meios de comunicação. New Haven, CT: Yale University Press.
Romano, A. (2018, 24 de maio). O plano do Facebook para acabar com a pornografia de vingança pode ser mais
assustador do que a pornografia de vingança. Vox. Obtido em https://www.vox.com/ Ruvalcaba,
Y., & Eaton, AA (2020). Pornografia não consensual entre adultos nos EUA: uma estrutura de roteiros sexuais
sobre vitimização, perpetração e correlatos de saúde para mulheres e homens. Psicologia da Violência, 10(1),
68–78. doi:10.1037/vio0000233 Salter, M., Crofts, T., & Lee, M. (2018). Para além da criminalização e
da responsabilização: Sexting, género e jovens. Questões Atuais em Justiça Criminal, 24(3), 301–316.
doi:10.1080/10345329.2013.12035963
Satariano, A. (2018, 24 de maio). O GDPR, uma nova lei de privacidade, torna a Europa o principal órgão de
vigilância tecnológica do mundo. New York Times. Obtido em https://www.nytimes.com Secretário de Estado
do Digital, Cultura, Mídia e Esporte e Secretário de Estado do Departamento do Interior. (2019). Livro branco
sobre danos on-line. Londres: HM Government.
Obtido em https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/
793360/Online_Harms_White_Paper.pdf
Slane, A. e Langlois, G. (março de 2018). Desmascarando o mito de “nada mal”: imagens sexuais, consentimento
e responsabilidades de hospedagem online no Canadá. Jornal Canadense de Mulheres e a Lei, 30(1), 42–
81. doi:10.3138/cjwl.30.1.42 Snap Inc. Diretrizes da comunidade. Obtido em https://
www.snap.com/en US/community-guidelines Solon, O. (2019, 18 de novembro). Por dentro dos esforços do
Facebook para impedir a
pornografia de vingança antes
ele se espalha. Notícias da NBC. Obtido em https://www.nbcnews.com
Suzor, N. (2019). Sem lei: as regras secretas que regem nossas vidas digitais. Cambridge:
Cambridge University Press.
Machine Translated by Google
help.twitter.com/en/rules-and-policies/manipulated-media
Nações Unidas. (2011). Princípios orientadores sobre empresas e direitos humanos. Obtido em
https://www.ohchr.org/documents/publications/guidingprinciplesbusinesshr_en.pdf
Westlake, EJ (2008). Seja meu amigo no Facebook: Geração Y e vigilância performativa. TDR/The
Drama Review, 52(4), 21–40. doi:10.1162/dram.2008.52.4.21 Witt, A., Suzor, N., & Huggins, A.
(2019). O estado de direito no Instagram: uma avaliação da moderação de imagens que retratam
corpos de mulheres. Jornal Jurídico UNSW, 42(2), 557–596. Obtido em http://
www.unswlawjournal.unsw.edu.au/wp-content/uploads/2019/06/6-UNSWLJ-422-Witt-Suzor-and-
Huggins-Final.pdf xHamster. (2020, 22 de abril). Termos e condições: Contrato do usuário.
Obtido de
https://xhamster.com/info/terms
XVídeos. (nd). Termos de serviço do XVideos. Obtido em https://info.xvideos.com/legal/
para% s/