Você está na página 1de 3

Inteligência artificial: Por que as tecnologias de reconhecimento facial são tão

contestadas
As ferramentas de inteligência artificial são tão boas quanto o banco de dados que usam para
funcionar, mas e se essas informações foram enviesadas?
Por BBC

AWS afirma que deve haver um aviso quando a tecnologia de reconhecimento facial são usadas em
conjunto em locais públicos ou comerciais. — Foto: REUTERS/Thomas Peter

Polícias e forças de segurança em todo o mundo estão testando sistemas automatizados de


reconhecimento facial como uma forma de identificar criminosos, foragidos e terroristas. Mas quão
acurada é essa tecnologia e com que facilidade ela pode ser usada, ao lado da inteligência artificial -
responsável por seu acionamento - como um meio de oprimir cidadãos?
Imagine a seguinte situação: um suspeito de terrorismo parte para uma missão suicida no centro
densamente povoado de uma cidade. Se ele disparar uma bomba, centenas de pessoas podem
morrer ou ficar gravemente feridas.
Câmeras de segurança que fazem a varredura dos rostos na multidão identificam o homem e
comparam seus traços com fotos de um banco de dados de terroristas conhecidos ou "pessoas de
interesse" para os serviços de segurança.
O sistema dispara um alarme e forças antiterroristas de rápida ação são enviadas ao local, onde
matam o suspeito antes que ele possa acionar os explosivos. Centenas de vidas são poupadas. A
tecnologia salva o dia.
Mas e se a tecnologia de reconhecimento facial estivesse errada? E se não fosse um terrorista, mas
apenas alguém azarado o bastante para parecer com um? Um inocente teria sido sumariamente
eliminado porque confiou-se demais em um sistema falível.
E se essa pessoa inocente fosse você?
Este é apenas um dos dilemas éticos colocados por essa tecnologia e pela inteligência artificial que a
sustenta.
Treinar máquinas para "ver" - reconhecer e diferenciar objetos e faces - é notoriamente difícil. A visão
computacional, como ela é chamada, estava tendo dificuldades até pouco tempo atrás para
diferenciar um bolinho de um chihuahua - um teste decisivo para essa ferramenta.

Limitações técnicas e bases de dados enviesadas

Timnit Gebru, cientista da computação e co-líder técnico da Equipe de Inteligência Artificial Ética do
Google, afirma que o reconhecimento facial tem mais dificuldade de diferenciar homens e mulheres
quanto mais escuro for o tom de pele. É muito mais provável que uma mulher de pele escura seja
confundida com um homem do que outra de pele mais clara.

Mas há problemas também na escolha das informações usadas para treinar esses algoritmos. "Os
conjuntos de dados originais são em sua maioria brancos e masculinos, muito enviesados contra os
tipos de pele mais escuros - há enormes taxas de erro por tom de pele e gênero."

Segundo ela, "cerca de 130 milhões de adultos dos EUA já estão em bancos de dados de
reconhecimento de rostos". O país tem 327 milhões de habitantes.

Em razão desses problemas, a cidade californiana de São Francisco baniu recentemente o uso da
tecnologia por agências de transporte e forças policiais. A medida sinaliza uma admissão de
imperfeições e ameaças às liberdades civis. Mas outras cidades americanas e países ao redor do
mundo estão cada vez mais testando a ferramenta.

Um exemplo são as forças policiais em South Wales, Londres. Manchester e Leicester também têm
testado a tecnologia sob críticas de organizações de liberdades civis, como Liberty e Big Brother
Watch, ambas preocupadas com o número de falsos positivos gerados pelos sistemas.

Ou seja, pessoas inocentes são erroneamente identificadas como possíveis criminosos.


"Um viés tendencioso é algo que deveria preocupar a todos nós", disse Gebru. "O policiamento de
previsão é um cenário de apostas altas."
Tecnologias de reconhecimento facial são usadas por forças policiais em vários países — Foto:
Pixabay/Divulgação

Reforço de preconceito racial


Como os negros representam 13% da população americana, mas 37,5% da massa carcerária do país,
algoritmos mal escritos alimentados por dados enviesados podem prever que negros são mais
propensos a cometer crimes.

Não é preciso ser um gênio para descobrir que implicações isso pode ter para o policiamento e as
políticas sociais.

Nesta semana, acadêmicos da Universidade de Essex, na Inglaterra, concluíram que cruzamentos de


dados usados em experimentos da polícia metropolitana de Londres estavam errados em 80% das
vezes, podendo levar a sérios desvios da Justiça e a violações dos direitos dos cidadãos à
privacidade.
Um britânico, Ed Bridges, começou uma batalha legal contra o uso do reconhecimento facial pela
Polícia de South Wales depois que sua foto foi tirada enquanto ele fazia compras, e a comissária de
informação do Reino Unido, Elizabeth Denham, expressou preocupação com a falta de estrutura
jurídica para a utilização de tal recurso.

Mas tais preocupações não impediram a Amazon de vender sua ferramenta Rekognition FR para
forças policiais nos EUA, apesar da revolta - infrutíera - de parte dos acionistas.
A Amazon diz que não tem responsabilidade sobre como os clientes usam o instrumento. Mas basta
comparar essa atitude com a da Salesforce, uma empresa de tecnologia que desenvolveu sua própria
ferramenta de reconhecimento chamada Einstein Vision, para perceber que é necessário um
envolvimento maior das empresas.

"A tecnologia de reconhecimento facial pode ser adotada em uma prisão para rastrear prisioneiros
ou evitar a violência entre gangues", disse Kathy Baxter, gerente de prática ética de Inteligência
Artificial da Salesforce, à BBC. "Mas quando a polícia quis usá-la ao prender pessoas, consideramos
isso inadequado."

"Precisamos nos perguntar se devemos usar a Inteligência Artificial em alguns cenários."


Ainda mais porque o reconhecimento facial também está sendo usado pelos militares, com os
fornecedores da tecnologia alegando que seus softwares podem não apenas identificar inimigos em
potencial, como também discernir comportamentos suspeitos.
Yves Daccord, diretor-geral do Comitê Internacional da Cruz Vermelha, está preocupado com esses
fatos.

"A guerra é de alta tecnologia nos dias de hoje - temos drones autônomos, armas autônomas,
tomando decisões entre combatentes e não combatentes. Suas decisões estarão corretas? Eles
poderiam ter um impacto de destruição em massa", alerta.
De todo modo, parece haver um crescente consenso global de que a tecnologia de reconhecimento
está longe de ser perfeita e precisa ser regulada.
"Não é uma boa ideia deixar a Inteligência Artificial nas mãos do setor privado, porque ela pode ter
uma grande influência", conclui o Chaesub Lee, diretor do escritório de padronização de
telecomunicações da União Internacional de Telecomunicações.
"O uso de dados de boa qualidade é essencial, mas quem garante que esses são bons dados? Quem
garante que os algoritmos não são tendenciosos? Precisamos de uma abordagem multidisciplinar das
várias partes interessadas."
Até lá, o reconhecimento facial permanece sob suspeita.

Você também pode gostar