Você está na página 1de 4

BATE-PAPO E-MAIL NOTÍCIAS HORÓSCOPO BUSCA

Inteligência artificial: Por que as tecnologias de reconhecimento


facial são tão contestadas

Tecnologia de reconhecimento facial é envolta em polêmicas


Imagem: Getty Images/iStockphoto

Matthew Wall - Editor de Tecnologia de Negócios


05/07/2019 17h02

As ferramentas de inteligência artificial são tão boas quanto o banco de dados que usam para funcionar,
mas e se essas informações foram enviesadas?

Polícias e forças de segurança em todo o mundo estão testando sistemas automatizados de reconhecimento facial como
uma forma de identificar criminosos, foragidos e terroristas. Mas quão acurada é essa tecnologia e com que facilidade ela
pode ser usada, ao lado da inteligência artificial responsável por seu acionamento, como um meio de oprimir cidadãos?

Imagine a seguinte situação: um suspeito de terrorismo parte para uma missão suicida no centro densamente povoado
de uma cidade. Se ele disparar uma bomba, centenas de pessoas podem morrer ou ficarem gravemente feridas.
Veja também
Ousadas na ficção, tecnologias de Black Mirror fritariam nossos cérebros

Como os vagalumes nos ajudaram a criar lâmpadas mais brilhantes

Ferramenta de inteligência artificial prevê onde conflito por água ocorrerá

No estilo "Shazam": como a Amazon quer mudar a forma que compramos roupas

Câmeras de segurança que fazem a varredura dos rostos na multidão identificam o homem e comparam seus traços
com fotos de um banco de dados de terroristas conhecidos ou "pessoas de interesse" para os serviços de segurança.

O sistema dispara um alarme e forças antiterroristas de rápida ação são enviadas ao local, onde matam o suspeito antes
que ele possa acionar os explosivos. Centenas de vidas são poupadas. A tecnologia salva o dia.

Mas e se a tecnologia de reconhecimento facial estivesse errada? E se não fosse um terrorista, mas apenas alguém
azarado o bastante para parecer com um? Um inocente teria sido sumariamente eliminado porque confiou-se demais em
um sistema falível.

E se essa pessoa inocente fosse você?

Este é apenas um dos dilemas éticos colocados por essa tecnologia e pela inteligência artificial que a sustenta.

Treinar máquinas para "ver" - reconhecer e diferenciar objetos e faces - é notoriamente difícil. A visão computacional,
como ela é chamada, estava tendo dificuldades até pouco tempo atrás para diferenciar um bolinho de um chihuahua -
um teste decisivo para essa ferramenta.

Limitações técnicas e bases de dados enviesadas


Timnit Gebru, cientista da computação e colíder técnico da Equipe de Inteligência Artificial Ética do Google, afirma que o
reconhecimento facial tem mais dificuldade de diferenciar homens e mulheres quanto mais escuro for o tom de pele. É
muito mais provável que uma mulher de pele escura seja confundida com um homem do que outra de pele mais clara.

Mas há problemas também na escolha das informações usadas para treinar esses algoritmos. "Os conjuntos de dados
originais são em sua maioria brancos e masculinos, muito enviesados contra os tipos de pele mais escuros - há enormes
taxas de erro por tom de pele e gênero."

Segundo ela, "cerca de 130 milhões de adultos dos EUA já estão em bancos de dados de reconhecimento de rostos". O
país tem 327 milhões de habitantes.
Em razão desses problemas, a cidade californiana de São Francisco baniu recentemente o uso da tecnologia por
agências de transporte e forças policiais. A medida sinaliza uma admissão de imperfeições e ameaças às liberdades
civis. Mas outras cidades americanas e países ao redor do mundo estão cada vez mais testando a ferramenta.

Um exemplo são as forças policiais em South Wales, Londres. Manchester e Leicester também têm testado a tecnologia
sob críticas de organizações de liberdades civis, como Liberty e Big Brother Watch, ambas preocupadas com o número
de falsos positivos gerados pelos sistemas.

Ou seja, pessoas inocentes são erroneamente identificadas como possíveis criminosos.

"Um viés tendencioso é algo que deveria preocupar a todos nós", disse Gebru. "O policiamento de previsão é um cenário
de apostas altas."

Reforço de preconceito racial


Como os negros representam 13% da população americana, mas 37,5% da massa carcerária do país, algoritmos mal
escritos alimentados por dados enviesados podem prever que negros são mais propensos a cometer crimes.

Não é preciso ser um gênio para descobrir quais implicações isso pode ter para o policiamento e as políticas sociais.

Nesta semana, acadêmicos da Universidade de Essex, na Inglaterra, concluíram que cruzamentos de dados usados em
experimentos da polícia metropolitana de Londres estavam errados em 80% das vezes, podendo levar a sérios desvios
da Justiça e a violações dos direitos dos cidadãos à privacidade.

Um britânico, Ed Bridges, começou uma batalha legal contra o uso do reconhecimento facial pela Polícia de South Wales
depois que sua foto foi tirada enquanto ele fazia compras, e a comissária de informação do Reino Unido, Elizabeth
Denham, expressou preocupação com a falta de estrutura jurídica para a utilização de tal recurso.

Mas tais preocupações não impediram a Amazon de vender sua ferramenta Rekognition FR para forças policiais nos
EUA, apesar da revolta - infrutífera - de parte dos acionistas.

A Amazon diz que não tem responsabilidade sobre como os clientes usam o instrumento. Mas basta comparar essa
atitude com a da Salesforce, uma empresa de tecnologia que desenvolveu sua própria ferramenta de reconhecimento
chamada Einstein Vision, para perceber que é necessário um envolvimento maior das empresas.

"A tecnologia de reconhecimento facial pode ser adotada em uma prisão para rastrear prisioneiros ou evitar a violência
entre gangues", disse Kathy Baxter, gerente de prática ética de Inteligência Artificial da Salesforce, à BBC. "Mas quando
a polícia quis usá-la ao prender pessoas, consideramos isso inadequado."

"Precisamos nos perguntar se devemos usar a Inteligência Artificial em alguns cenários."


Ainda mais porque o reconhecimento facial também está sendo usado pelos militares, com os fornecedores da
tecnologia alegando que seus softwares podem não apenas identificar inimigos em potencial, como também discernir
comportamentos suspeitos.

Yves Daccord, diretor-geral do Comitê Internacional da Cruz Vermelha, está preocupado com esses fatos.

"A guerra é de alta tecnologia nos dias de hoje - temos drones autônomos, armas autônomas, tomando decisões entre
combatentes e não combatentes. Suas decisões estarão corretas? Eles poderiam ter um impacto de destruição em
massa", alerta.

De todo modo, parece haver um crescente consenso global de que a tecnologia de reconhecimento está longe de ser
perfeita e precisa ser regulada.

"Não é uma boa ideia deixar a Inteligência Artificial nas mãos do setor privado, porque ela pode ter uma grande
influência", conclui o Chaesub Lee, diretor do escritório de padronização de telecomunicações da União Internacional de
Telecomunicações.

"O uso de dados de boa qualidade é essencial, mas quem garante que esses são bons dados? Quem garante que os
algoritmos não são tendenciosos? Precisamos de uma abordagem multidisciplinar das várias partes interessadas."

Até lá, o reconhecimento facial permanece sob suspeita.

COMUNICAR ERRO

As mais lidas agora

Piovani se revolta com filhos cantando Anitta: "Merda de separação"

Hickmann faz tour por cozinha em casa de Itu, com coleção enorme de louças

Faustão diz não ver novidade em conversa relatada por Moro a Dallagnol

Você também pode gostar