Você está na página 1de 9

https://theintercept.

com/2019/02/
27/carnaval-cameras-rio/

POR QUE VOCÊ DEVERIA USAR UMA


MÁSCARA NO CARNAVAL DO RIO NESTE
ANO
Murilo Roncolato, Tatiana Dias
28 de Fevereiro de 2019, 0h02

Ilustração: João Brizzi/The Intercept Brasil

Escolha José Loreto no surubão de Noronha. Bolsonaro de óculos


hipster. Ou Sergio Moro. O Salvador Dali da “Casa de Papel”.
Uma inocente máscara de gatinho. Só não pule o carnaval do Rio
de Janeiro de cara limpa.
Neste ano, a Polícia Militar carioca decidiu fazer um
experimento com você: ela vai salvar o seu rosto e armazená-lo
como parte de um banco de dados cujo destino e uso são um
mistério. Tudo, claro, está sendo feito em nome de um objetivo
nobre: a segurança pública. As câmeras de reconhecimento facial
vão permitir, no futuro, a prisão de foragidos infiltrados em
grandes aglomerações de pessoas, como o carnaval, por exemplo.
Ótimo.

Assine nossa newsletter


Conteúdo exclusivo. Direto na sua caixa de entrada.
Eu topo ⟶

A novidade foi classificada como uma “ferramenta fantástica”


pelo novo secretário da PM, coronel Rogério Figueredo de
Lacerda, e será testada nos blocos de Copacabana. “É a
modernidade, enfim, chegando.”

Mas há uma série de problemas com o sistema. O primeiro é que


inocentes podem ser confundidos com criminosos. Tecnologias
do tipo já foram testadas na Inglaterra – em 2017, por exemplo,
na final da UEFA Champions League, o sistema de vigilância
identificou 2.470 possíveis criminosos no meio da multidão.
Destes, só 173 foram corretamente identificados. O índice de erro
foi de 92%.

O segundo é que os dados serão administrados pela Oi – uma


empresa privada que já foi multada pelo Ministério da Justiça
por violar a privacidade ao monitorar a navegação de seus
clientes. Além disso, ainda não está clara a maneira como essas
informações serão utilizadas. Em outras palavras: você será
gravado e analisado, e ninguém esclareceu ainda quem terá
acesso a essas imagens, por quanto tempo elas ficarão guardadas
e para quem elas serão fornecidas. E, por fim, esse tipo de
sistema pode contribuir para discriminação e ser alvo de
vazamentos. E não é difícil imaginar o desastre caso cenas de
carnaval – que, você sabe, podem ser comprometedoras – caiam
nas mãos erradas.

‘Em um bloco de carnaval, podemos identificar


de forma imediata a presença de um criminoso’,
promete a polícia.

Entusiasta, Lacerda explicou que a tecnologia foi adquirida da


empresa de telefonia Oi por “custo zero” – guarde essa
informação. Funciona assim: as câmeras captarão imagens das
pessoas na rua e das placas dos carros; então, as imagens serão
cruzadas com bases da Polícia Civil e da justiça, além do
departamento de trânsito, para identificar criminosos à solta e
veículos roubados. Os vídeos dos foliões serão enviados para uma
central, onde eles serão processados e analisados de forma
automática. “Em um bloco de carnaval, podemos identificar de
forma imediata a presença de um criminoso”, diz o comunicado
da PMERJ.

Para que o sistema funcione, será preciso escanear rosto por


rosto e armazenar as imagens em um banco de dados. Todo
mundo será submetido à vigilância. Mas nossos rostos – ou dados
biométricos – são considerados dados sensíveis pela Lei Geral de
Proteção de Dados, ou seja, podem colocar pessoas em risco se
forem expostos indevidamente. Por isso, eles precisam de um
tratamento especial, mais seguro, e só podem ser coletados com
autorização das pessoas.

Não é o que vai acontecer no carnaval, é claro. Ninguém


esclareceu ainda quem exatamente terá acesso às gravações, se
elas poderão ser repassadas para outros sistemas além da polícia
e por quanto tempo elas ficarão armazenadas. Pior: não é a PM
que responde essas questões, essenciais para entender a
segurança do sistema. É a Oi, empresa que generosamente
“doou” ao governo estadual o sistema de vigilância.

Pedimos para a PMERJ – responsável, segundo ela própria, pela


“gestão operacional do sistema” – informações sobre a
tecnologia. Mas a instituição afirmou, por meio de sua
assessoria, que quem fala sobre o assunto é a Oi. E a empresa se
limitou a responder assim o nosso primeiro contato: “não
comentamos o tema”.
O sistema permite busca por pessoas específicas e objetos suspeitos por
tempo: quantas vezes você passou por ali? Reprodução

De graça, mas nem tanto


A tecnologia de vigilância foi uma promessa de campanha do
governador do Rio, Wilson Witzel, e é a menina dos olhos da Oi.
A empresa apresentou em outubro de 2018 na Futurecom, evento
de tecnologia e telecom em São Paulo, sua “solução de smart
cities [cidades inteligentes] voltada para vigilância”. Quem
desenvolveu a tecnologia, chamada VCM (gerenciador de vídeo
na nuvem, em tradução livre), foi a Huawei, responsável pelas
câmeras instaladas em aeroportos e outros lugares de grande
movimentação na China.

A Huawei diz que o diferencial de seu sistema é a precisão no


reconhecimento de pessoas e objetos. As imagens são
processadas por inteligência artificial, que pode ser programada
para enviar alertas se captar algum movimento não-usual. Na
cidade de Shenzen, base da Huawei na China, há cerca de 1,3
milhão de câmeras integradas ao sistema.

O sistema escaneia rosto por rosto e grava as informações como


um “RG digital” de cada indivíduo, diz uma reportagem assinada
por um jornalista que viajou à China a convite da empresa.
Depois, esse RG digital é cruzado com outras bases de dados – no
caso do Rio de Janeiro, com informações da justiça e da polícia,
por exemplo. Mas poderia ser uma base de consumidores, de
bancos ou mesmo de planos de saúde – saber por onde as
pessoas andam e o que elas fazem é bastante útil para calcular o
valor de planos de saúde ou a possibilidade de alguém ser
caloteiro.

Segundo a Folha de S.Paulo, com o sistema é possível saber


quantas vezes um automóvel ou uma pessoa visitou um local,
com histórico de tempo indeterminado. Para se ter uma ideia da
precisão, no ano passado, um repórter da BBC testou o sistema
de vigilância chinês e demorou exatos sete minutos para ser
localizado em meio à multidão.

A Oi está bem interessada na popularização desse tipo de


monitoramento. Em Búzios, na Região dos Lagos fluminense, a
empresa também “doou” dez câmeras de segurança em janeiro
deste ano, cinco com reconhecimento facial e cinco com
identificação de placas de veículos. Em Niterói, no mesmo mês, a
empresa de telefonia anunciou sua parceria com a prefeitura
para ampliar a rede de câmeras local.

A empresa vende o sistema como uma “plataforma de vídeo-


monitoramento inteligente” capaz de “compartilhar
informações com facilidade, inclusive entre instituições públicas
e privadas”. Para a empresa, espalhar essa tecnologia é um
negócio potencialmente lucrativo: câmeras inteligentes
demandam uma boa conexão à internet, e a Oi é fornecedora de
fibra ótica.
Reprodução

Quebra de privacidade em massa


A notícia foi vista com preocupação pelo Instituto de Defesa do
Consumidor, o Idec. Para a entidade, “falhas e omissões na
condução do projeto podem impactar de forma irreparável
direitos dos cidadãos”. Assim, uma eventual exposição dos dados
pessoais colhidos “pode levar à quebra de privacidade em
massa”.

Para o Idec, o governo deveria avisar os cidadãos que eles estão


sendo monitorados “para que tenham o direito de escolher se
vão ou não para a área onde estão as câmeras”. A entidade de
defesa do consumidor enviou uma carta à Secretaria da Polícia
Militar do Rio de Janeiro com uma série de perguntas até agora
não respondidas pelas autoridades, como os termos exatos do
contrato com a Oi e as condições de segurança das imagens
captadas.
Em São Paulo, vale lembrar, a ViaQuatro, concessionária da
Linha 4-Amarela do metrô, foi alvo de uma ação civil pública do
Idec contra câmeras instaladas para filmar e analisar as emoções
dos passageiros. No sistema, anunciado com pompa como
“Portas Digitais”, as pessoas eram gravadas e tinham suas
emoções analisadas em tempo real para fins publicitários. A
justiça ordenou que as câmeras fossem desligadas em setembro
de 2018.

‘Se não há clareza, abrimos margem para mais


insegurança do que a segurança.’

Como o objetivo das câmeras cariocas é outro – não vender


publicidade, mas vigiar para tentar inibir a criminalidade –, as
regras são diferentes. A Lei Geral de Proteção de Dados, aprovada
no ano passado, não diz que regras são essas – elas deverão ter
uma regulamentação específica, que ainda não existe. Nesse
vácuo, o que vale são “os princípios gerais de proteção”: que
deve haver um motivo claro para que essas informações sejam
coletadas e que os responsáveis devem adotar medidas de
transparência, não discriminatórias, de prevenção e segurança.

Ignorando esses princípios, o monitoramento feito pelo estado


com o objetivo de supostamente dar segurança ao cidadão pode
se tornar uma ferramenta de vigilância em massa e desrespeito à
privacidade – e mediada não apenas pelo governo, mas também
por uma empresa privada. “Se não há clareza, abrimos margem
para mais insegurança do que a segurança que esse tipo de
tecnologia promete”, diz Joana Varon, pesquisadora especialista
em políticas digitais e fundadora da organização Coding Rights.

O monitoramento massivo pode levar ao roubo de dados – um


vazamento de imagens, por exemplo – ou ainda a uma eventual
produção de falsos positivos, ou seja, um cidadão pode ser
confundido com um criminoso pelo software de reconhecimento
facial e sofrer consequências por isso. Em 2018, por “confusões”
similares, duas pessoas foram mortas por policiais no Rio de
Janeiro.

Além disso, o sistema adotado no Rio é intermediado por


algoritmos, que tomam decisões ao analisar e classificar as
imagens. Isso envolve certos vieses e marginalização de estratos
sociais. Nos EUA, por exemplo, algoritmos que determinam
penas para condenados têm a tendência de aumentar a
penalidade se o criminoso for negro.

“Qualquer falha, qualquer ajuste mal feito nesse sistema, gera


consequências drásticas”, diz Danilo Doneda, professor de
Direito Civil na Universidade Estadual do Rio de Janeiro e
especialista em proteção de dados e privacidade. Por situações
como essa, Doneda reforça a necessidade de clareza sobre como
opera o sistema, sobretudo para permitir que as pessoas vítimas
de uma acusação tomada com base em uma máquina tenham
como recorrer. “Sem transparência, temos uma camada de
obscuridade sobre decisões que podem afetar muito as pessoas.”

👆
Dependemos do apoio de leitores como você para
continuar fazendo jornalismo independente e
investigativo. Junte-se a nós ⟶

Você também pode gostar