Escolar Documentos
Profissional Documentos
Cultura Documentos
RACISTA?
Em 2015, Jacky Alciné, usuário da
Google Photos, descobriu que a
classificação automática do serviço
estava etiquetando fotos de pessoas
negras como "gorilas".
CAUSAS
Tarcizio Silva aponta que as mídias sociais são o reflexo da sociedade. “As mídias sociais
são catalizadoras de relações de poder já presentes na sociedade, podendo, em alguns
casos, intensificar a possibilidade de agressões discursivas ou apagamentos de
experiências de grupos minorizados”. Os algoritmos que utilizamos no nosso dia a dia hoje
em grande parte são criados por grandes corporações comumente chamadas de big techs
que, graças a investimento desproporcional de capital financeiro, conseguiram se
estabelecer em escala com a capacidade de coletar, armazenar e processar dados
pessoais, tendências sociais e os mais variados tipos de informações a partir de uma lógica
tecnocientífica corporativa.
Geralmente nós achamos que computadores e algoritmos são neutros, mas já vimos que
não é bem assim. Existem vieses estruturais e sistêmicos. Não é só matemática. Porque
quem pensa a tecnologia, quem está nas posições de poder, quem cria e desenvolve, ainda
são, em grande parte, as mesmas pessoas. Se as pessoas possuem vieses e preconceitos,
eles também serão transmitidos através de suas criações. E se é o algoritmo o responsável
por transmitir essa linguagem – que pode estar enviesada – ele pode enviar também, ao
computador, códigos que possuem traços de qualquer tipo de discriminação, como
gênero, idade e, claro… raça. Então, sim, algoritmos podem ser e alguns algoritmos são
racistas
34%
92%
O estudo Gender Shades No Brasil, cerca de 92% dos
avaliou sistemas de cargos da área de engenharia
reconhecimento facial da IBM, de equipamento e
Microsoft e Face++, e foi computação são ocupados
obtido que podem errar até por pessoas brancas, segundo
34% ao reconhecer rostos de dados do Ministério do
mulheres negras enquanto para Trabalho e Emprego em
rosto de homens brancos esse 2016.
erro seria de apenas 0,8%
90,5%
Em 2019, a Rede
Observatório da
Segurança registrou
que, das pessoas presas
por reconhecimento
facial em câmeras de
segurança 90,5% são
negras.
CONSEQUÊNCIAS
O uso de reconhecimento facial pode incriminar uma pessoa inocente injustamente pelo
fato da IA privilegiar pessoas brancas, subvertendo direitos diversos de minorias racias.
Além da invisibilidade dada a certos grupos, como pessoas negras, indígenas e não
brancas, que por conta dessa exclusão não conseguem se sentir representados nas redes.
POSSÍVEIS SOLUÇÕES
Embora especialistas afirmem não existir uma resposta única para eliminar o racismo
algorítmico, uma sugestão seria implementar um maior volume variável de dados e de
qualidade que seriam utilizados para treinar a IA, posto que, a qualidade de um algoritmo
depende da base de dados em qual foi ela treinada, Outro ponto seria a inclusão de uma
equipe diversa e heterogênea, inviabilizaria a interferência no resultado final. Podemos
tambem seguir o exemplo da Liga de Justiça Algorítmica (em inglês Algorithmic Justice
League) ou AJL, é uma iniciativa criada pela Joy Buolamnwini, uma cientista da
computação ganense-americana, que tem como objetivo o combate ao viés algorítmico.
Ela já conta com diversos membros ao redor do mundo, incluindo cidadãos, artistas,
pesquisadores e ativistas. A AJL segue uma tríade de medidas para combater o viés
algorítmico.