Você está na página 1de 3

Análise de Dados e Bigadata - Maria Eduarda Marques de Oliveira

Dentro do âmbito tecnológico, os dados são a representação de informações


usando códigos numéricos. Os dados podem incluir caracteres, desde de letras
alfabéticas até números e símbolos, imagens ou sons que, quando representados por
códigos numéricos, podem ser manipulados, armazenados e comunicados pelo meio
digital. O comportamento do algoritmo é determinado não só pelo código, mas também
pelos dados de treinamento, no entanto, como os dados são coletados e qual parte é
finalmente disponibilizada para o algoritmo está sujeito a muitos fatores sociais.

A discussão acerca do racismo implícito dentro do algoritmo do Twitter surgiu


graças à um usuário que postou duas fotos, uma com a foto do rosto do ex-presidente
dos Estados Unidos, Barack Obama, em cima da foto do senador Mitch McConnell e
vice-versa com a seguinte legenda: “Which will the Twitter algorithm pick? Mitch
McConnell or Barack Obama? (“Qual o algoritmo do Twitter escolherá? Mitch
McConnell ou Barack Obama?”)”.

Para entender melhor é preciso antes conhecer como funciona a função de


visualização de imagens da rede social citada. Quando uma imagem muito grande para
a tela é postada, o algoritmo escolhe qual parte se torna visível para os usuários. O
algoritmo de corte de imagem do Twitter coleta os dados e tenta criar “regras” para
escolher a melhor forma de cortar uma imagem, porém quem determina quais dados
são processados para treinar o algoritmo são os humanos. O viés racial inerente de um
algoritmo pode ser ampliado quando usado em plataformas que apresentam mais fotos
de usuários brancos, como o Instagram ou o próprio Twitter. Por consequência, isso
pode aumentar as chances de pessoas não brancas serem cortadas das imagens de
visualização. E em conclusão, nas duas fotos o recurso de visualização de imagem do
Twitter escolheu McConnell.

Outro exemplo de racismo proveniente dos algoritmos aconteceu envolvendo a


Google. Em 2015 a empresa anunciou o novo sistema de armazenamento de fotos em
nuvem, Google Photos, que, além de ter uma excelente capacidade de
armazenamento, prometia juntar as fotos semelhantes e categorizá-las em uma pasta
separada. Por exemplo, se você tem fotos na praia, o sistema reconheceria essas fotos
como iguais e as juntaria em um álbum exclusivo. Um programador da Google e
usuário dessa nova plataforma descobriu que o aplicativo categorizou fotos de seus
amigos negros como “gorilas” e logo em seguida fez uma publicação no Twitter se
queixando dessa falha. Esse recurso de “tag” aprende à medida que recebe mais
dados, aprimorando assim seu método de reconhecer e categorizar objetos, mas, ainda
hoje, não é perfeito.

(Fonte: https://www.tecmundo.com.br/google-fotos/82458-polemica-sistema-google-fotos-identifica-pessoas-negras-gorilas.htm)
Mais uma polêmica envolvendo a Google também em 2015 foi o
redirecionamento para a Casa Branca através de uma pesquisa racista usando as
palavras “nigga” e “nigger” pelo Google Maps. Na época o presidente dos Estados
Unidos era Barack Obama, o primeiro presidente negro do país. Pesquisando por
"n***** king" ou "n***a house”, o algoritmo enviava o usuário para o endereço exato de
onde é localizado a Casa Branca.

(Fonte: https://veja.abril.com.br/mundo/google-se-desculpa-por-associacao-entre-termos-racistas-e-casa-branca/)

Esses dois últimos exemplos acontecem porque, quando as pessoas usam um


determinado termo repetidamente, o Google aprende esse comportamento para
fornecer os resultados mais relevantes. Em teoria, isso é benéfico para todos os
envolvidos, mas, às vezes, pode fazer com que termos aleatórios sejam
acidentalmente associados a coisas não relacionadas. Ou seja, o racismo oriundo dos
algoritmos desprende-se de quem está por trás deles: os seres humanos.

Os humanos são propensos a erros e isso não significa que os algoritmos sejam
necessariamente melhores. O algoritmo pode ser injusto com base em quem os
constrói, como são desenvolvidos e como são usados. Frequentemente, não sabemos
como uma inteligência artificial foi projetada, quais dados ajudaram a criá-la ou como
funciona. Normalmente só temos conhecimentos do resultado final: como isso afetou
você.

Você também pode gostar