Você está na página 1de 3

UMA IA PODE SER

RACISTA?
Em 2015, Jacky Alciné, usuário da
Google Photos, descobriu que a
classificação automática do serviço
estava etiquetando fotos de pessoas
negras como "gorilas".

Segundo o Pesquisador, mestre em Comunicação e Cultura Contemporâneas


pela UFBA, Tarcízio Silva, “Na maioria dos casos não os algoritmos em si, mas os
sistemas onde são empregados podem ter resultados racistas e discriminatórios.
Elaboro o conceito de ‘racismo algorítmico’ para descrever como interfaces e
sistemas automatizados, tais como plataformas de mídias sociais, podem
reforçar e, pior, ocultar as dinâmicas racistas das sociedades onde são usados e
empregados”.

Se você pesquisar “cabelo bonito”


no google, é provável que encontre
imagens de pessoas brancas de
cabelos lisos. Em contrapartida, se
pesquisar “cabelo feio”, encontrará
pessoas negras com cabelos
crespos.
A digital influencer e youtuber Sá Ollebar, iniciou um experimento na
plataforma Instagram, após perceber a crescente queda nos índices de
alcance digital, a paulista publicou fotografias de modelos caucasianas
(brancas) em seu perfil e analisou as métricas de engajamento.

Surpreendentemente, a ferramenta de estatísticas aferiu um aumento de


6000% em seu alcance na rede social.

CAUSAS
Tarcizio Silva aponta que as mídias sociais são o reflexo da sociedade. “As mídias sociais
são catalizadoras de relações de poder já presentes na sociedade, podendo, em alguns
casos, intensificar a possibilidade de agressões discursivas ou apagamentos de
experiências de grupos minorizados”. Os algoritmos que utilizamos no nosso dia a dia hoje
em grande parte são criados por grandes corporações comumente chamadas de big techs
que, graças a investimento desproporcional de capital financeiro, conseguiram se
estabelecer em escala com a capacidade de coletar, armazenar e processar dados
pessoais, tendências sociais e os mais variados tipos de informações a partir de uma lógica
tecnocientífica corporativa.

Geralmente nós achamos que computadores e algoritmos são neutros, mas já vimos que
não é bem assim. Existem vieses estruturais e sistêmicos. Não é só matemática. Porque
quem pensa a tecnologia, quem está nas posições de poder, quem cria e desenvolve, ainda
são, em grande parte, as mesmas pessoas. Se as pessoas possuem vieses e preconceitos,
eles também serão transmitidos através de suas criações. E se é o algoritmo o responsável
por transmitir essa linguagem – que pode estar enviesada – ele pode enviar também, ao
computador, códigos que possuem traços de qualquer tipo de discriminação, como
gênero, idade e, claro… raça. Então, sim, algoritmos podem ser e alguns algoritmos são
racistas
34%

92%
O estudo Gender Shades No Brasil, cerca de 92% dos
avaliou sistemas de cargos da área de engenharia
reconhecimento facial da IBM, de equipamento e
Microsoft e Face++, e foi computação são ocupados
obtido que podem errar até por pessoas brancas, segundo
34% ao reconhecer rostos de dados do Ministério do
mulheres negras enquanto para Trabalho e Emprego em
rosto de homens brancos esse 2016.
erro seria de apenas 0,8%

90,5%
Em 2019, a Rede
Observatório da
Segurança registrou
que, das pessoas presas
por reconhecimento
facial em câmeras de
segurança 90,5% são
negras.

CONSEQUÊNCIAS

O uso de reconhecimento facial pode incriminar uma pessoa inocente injustamente pelo
fato da IA privilegiar pessoas brancas, subvertendo direitos diversos de minorias racias.
Além da invisibilidade dada a certos grupos, como pessoas negras, indígenas e não
brancas, que por conta dessa exclusão não conseguem se sentir representados nas redes.

POSSÍVEIS SOLUÇÕES

Embora especialistas afirmem não existir uma resposta única para eliminar o racismo
algorítmico, uma sugestão seria implementar um maior volume variável de dados e de
qualidade que seriam utilizados para treinar a IA, posto que, a qualidade de um algoritmo
depende da base de dados em qual foi ela treinada, Outro ponto seria a inclusão de uma
equipe diversa e heterogênea, inviabilizaria a interferência no resultado final. Podemos
tambem seguir o exemplo da Liga de Justiça Algorítmica (em inglês Algorithmic Justice
League) ou AJL, é uma iniciativa criada pela Joy Buolamnwini, uma cientista da
computação ganense-americana, que tem como objetivo o combate ao viés algorítmico.
Ela já conta com diversos membros ao redor do mundo, incluindo cidadãos, artistas,
pesquisadores e ativistas. A AJL segue uma tríade de medidas para combater o viés
algorítmico.

Você também pode gostar