Você está na página 1de 3

Cada pessoa ficará responsável por realizar um estudo de caso de discriminação algorítmica,

conectando com a leitura da aula.  O estudo de caso deverá conter: (i) uma breve descrição das
características principais do caso com uma imagem ilustrativa, (ii) uma justificativa para a escolha do
caso, (iii) uma análise das consequências sociais, econômicas e jurídicas do caso, e (iv) a indicação de
propostas de solução para o caso. O documento, a ser enviado e , deve ter no máximo 2 páginas. São
objetivos deste exercício:
- Compreender as diferentes dimensões do fenômeno da discriminação algorítmica
- Identificar desafios e possíveis soluções em casos específicos de discriminação algorítmica

Exemplo:

 BREVE DESCRIÇÃO DO CASO


O caso escolhido diz respeito a um estudo publicado em 2017 acerca da possível discriminação
existente nos softwares que tomam decisões baseadas somente nas avaliações dos consumidores.
Especificamente, os pesquisadores basearam o estudo na plataforma da empresa Uber, que utiliza as
avaliações e as notas (números de estrelas) atribuídas aos motoristas pelos usuários/consumidores. Essas
avaliações são o principal fator de tomada de decisão para aplicação de eventuais suspensões,
elegibilidade para participar de programas que promovem maior remuneração e, inclusive, desativação
das contas dos motoristas (o que os(as) impede de seguir trabalhando com a plataforma).
O estudo questionou a possível transferência de vieses existentes nos consumidores para as
avaliações e notas atribuídas aos motoristas pertencentes a grupos considerados vulneráveis (ex.:
pessoas negras e asiáticas). Nesse caso, considerando que o principal fator de tomada de decisão da
plataforma é, justamente, a avaliação dos usuários, os motoristas que receberam avaliações/notas ruins
por fatores relacionados à cor da pele e/ou pertencimento a determinado grupo étnico, ainda que de
forma inconsciente pelos usuários, seriam prejudicados(as) e teriam maiores chances de receber menor
remuneração e até de ser banidos da plataforma.
 JUSTIFICATIVA PARA A ESCOLHA DO CASO
O caso foi escolhido diante do alto impacto social existente, uma vez que, no Brasil, o número de
motoristas de aplicativos cresceu exponencialmente nos últimos anos, principalmente devido ao
aumento do desemprego no país, afetando de forma mais agressiva pessoas que já eram
economicamente vulneráveis e que se viram obrigadas a buscar fontes alternativas de renda.

 ANÁLISE SOCIAL, ECONÔMICA E JURÍDICA DO CASO


Com efeito, entre 2012 e 2019, o número de motoristas de aplicativos cresceu mais de 130%
(cento e trinta por cento), segundo dados do IBGE, sendo certo que a principal razão desse crescimento
foi o aumento do desemprego no país no mesmo período, notadamente entre pessoas negras. Ainda de
acordo com o IBGE, em maio de 2020 o Brasil possuía pouco mais de 2.1 milhões de motoristas e
entregadores de aplicativos, sendo 60% (sessenta por cento) dessas pessoas negras.
Tomando por base esse contexto, do ponto de vista social verifica-se que pessoas negras estão
mais sujeitas a serem avaliadas por usuários de aplicativos e, portanto, mais expostas a eventuais vieses e
preconceitos que possam existir em tais usuários, os quais transferem (ainda que de forma inconsciente)
para a plataforma, no momento da avaliação, esses mesmos vieses e preconceitos (ex.: ao avaliar com
uma estrela um(a) motorista negro(a) pela cor de sua pele).
Quanto à análise econômica, se o fator de tomada de decisão da plataforma for a avaliação dos
usuários, essas pessoas injustamente mal avaliadas sofrerão punições com maior frequência e
severidade, o que reduzirá constantemente sua remuneração pelos serviços prestados e poderá até levar
ao seu banimento da plataforma, pondo fim à única fonte de renda que possuíam e inviabilizando seu
sustento e de sua família, dando início a uma verdadeira “bola de neve”.
Por fim, no que tange à análise jurídica, a ausência de regulamentações mais específicas quanto à
transparência dos sistemas de avaliação de usuários (e dos sistemas de I.A de maneira geral) acaba por
tonar ainda mais opaca a forma de tomada de decisão e, também, impede que as pessoas negativamente
impactadas questionem tais procedimentos perante o Poder Judiciário.

 PROPOSTAS DE SOLUÇÃO
De maneira geral, entendo que deva existir uma regulamentação que abranja,
principalmente, questões ligadas à transparência e à explicabilidade algorítmica, uma vez que a
opacidade das ferramentas de inteligência artificial é, em meu entender, a causa da grande maioria
dos problemas envolvendo essa temática. Essa regulamentação deveria abranger discussões tanto
com relação à forma como as ferramentas são desenvolvidas quanto aos critérios, fatores e respectivos
“pesos” que cada elemento possui na tomada de decisão pelo algoritmo, garantindo-se, assim, a
explicabilidade necessária.
Talvez o maior desafio a ser superado com relação a isso diga respeito a como harmonizar os
modelos e segredos de negócio com a ideia da transparência e explicabilidade, onde, de um lado,
deve-se garantir a confidencialidade das ferramentas desenvolvidas pelas big techs e, de outro lado,
deve-se garantir o direito de os usuários saberem como (e por quem) foram tomadas determinadas
decisões que possuem alto grau de impacto em sua vida privada.

Você também pode gostar