Escolar Documentos
Profissional Documentos
Cultura Documentos
Discriminação
Algorítmica
Márcio Galvão
galva.marcio@gmail.com
2022
1. Introdução
Na busca por uma inteligência artificial (IA) mais ética e responsável, os conceitos de fairness
(imparcialidade, justiça) e bias (viés) são provavelmente os que recebem maior atenção e têm maior
literatura acadêmica no estudo de algoritmos. Isso ocorre porque já existem muitos sistemas de IA
em produção, não existem ainda marcos regulatórios adequados, e há grande preocupação com o
fato de que modelos de Machine Learning podem incorporar bias de diferentes tipos, produzindo
discriminação algorítmica (unfairness) contra determinados subgrupos da população.
Não há espaço aqui para um debate aprofundado destas questões (várias referências foram
compiladas em https://www.etica-ia.com), mas vamos tentar resumir os principais aspectos do
problema.
2
Uma dificuldade surge com o fato de que há diferentes princípios para aplicar (e entender) a noção
de “justiça”.
Por exemplo, para os defensores do Princípio da Igualdade (Equality), justiça significa que todos
devem ser tratados da mesma maneira.
Fonte: [2]
Embora pareça uma proposta razoável, este princípio é criticado por não levar em conta diferenças
individuais que podem ser relevantes, como ilustrado, onde a criança mais baixa não tem meios para
alcançar a fruta se tiver que competir em “condições iguais” com a criança mais alta (ou seja, se
estiver “sendo tratada da mesma maneira”). Seria justo deixá-la com fome?
Assim, a Equidade não defende que a justiça seja feita tratando-se todos da mesma maneira, mas,
em vez disso, tentando dar a todos o mesmo acesso nas oportunidades.
Por exemplo, em um país com enormes diferenças sociais e econômicas e péssima distribuição de
renda como o Brasil, é razoável pelo Princípio da Equidade que certos subgrupos (baixa renda) sejam
tratadas de forma diferenciada e recebam mais benefícios sociais do Governo (e paguem menos
impostos), enquanto outros grupos em melhor situação econômica não tenham acesso aos mesmos
benefícios (e paguem mais impostos).
Fonte: [2]
Neste caso, tratar de forma diferente pessoas em situações diferentes é considerado mais “justo”,
pois é o meio de dar a todos (tanto quanto possível) o mesmo nível de acesso em recursos e
oportunidades (educação, saúde, alimentação etc.). Não é muito diferente do que pensava
Aristóteles, que 350 anos antes de Cristo já defendia a noção de Equidade, pois acreditava que “se as
pessoas não são iguais não devem receber coisas iguais”, ou seja, para se fazer justiça, as
circunstâncias importam.
Superada a noção de justiça e duas de suas interpretações comuns (Igualdade e Equidade), convém
deixar mais claro o que queremos dizer com “discriminação” e “bias”. Vamos reproduzir aqui as
definições de [2].
Definição: Discriminação é tratar um indivíduo de forma diferente por conta de ele pertencer a um
determinado grupo.
4
Esta definição parece seguir o Princípio da Igualdade, que prega que todos devem ser tratados da
mesma forma. Porém, como vimos, o Princípio da Equidade não é incompatível com o tratamento
diferenciado para um determinado grupo de indivíduos (crianças, idosos, mulheres, pobres etc.),
desde que vise promover maior equidade, que pode ser implementada por exemplo através de
políticas públicas.
Assim, pelo menos para os defensores da Equidade, “tratar de forma diferente alguém que pertence
a um determinado grupo” (ou “discriminar”, pela definição acima) pode em certos casos ser uma
ação positiva. O problema não está no tratamento diferenciado em si, mas na existência de
justificativa e no resultado que esta ação trará, já que a diferenciação pode estar cumprindo o
propósito de dar a um grupo menos favorecido maior acesso em oportunidades.
A discriminação no sentido negativo ocorre quando “tratar grupos de forma diferente” prejudica os
grupos afetados, em vez de beneficiá-los. Por exemplo, não é aceitável que certos grupos sociais
recebam tratamento diferente em função de sua idade, gênero, raça, preferência religiosa, inclinação
sexual etc. se isso vai causar impactos negativos na vida delas, como ter acesso negado a crédito e
empréstimos e menos oportunidades de emprego ou educação. Isso não pode ser considerado justo
pois nem o Princípio da Igualdade nem o Princípio da Equidade estariam sendo satisfeitos.
O fato de que a discriminação pode ser positiva ou negativa revela a importância de levar sempre em
conta o contexto nas avaliações de “discriminação”, e também nos alerta sobre o perigo de se tratar
um assunto tão complexo com abordagens por demais ingênuas ou simplistas (inclusive nos marcos
regulatórios em desenvolvimento).
Outra noção importante é bias (viés). Mais uma vez, vamos nos alinhar com as definições
apresentadas em [2], e veremos que o termo pode denotar coisas diferentes, dependendo de quem
o utiliza.
1. Para um estatístico, o termo bias significa a discrepância entre um valor estatístico obtido em
um sample (amostra) e o valor verdadeiro daquela mesma estatística para a população. Por
exemplo, diferença entre a média estimada (x) da altura de homens brasileiros em uma
amostra, e a média real das alturas dos homens brasileiros (µ). Em geral este tipo de bias
estatístico pode ser reduzido aumentando-se o tamanho da amostra.
2. Para um cientista cognitivo, o termo bias representa um preconceito cognitivo, uma forma de
pensar que tende a produzir resultados incorretos ou tendenciosos (skewed) de forma
sistemática. Por exemplo, a “falácia do jogador” (pensar que probabilidades futuras serão
afetadas por eventos independentes do passado) é um tipo de bias (Alice jogou dados e
perdeu nove vezes seguidas, então é certo que ganhará na próxima!). Ver [3] e [4].
3. Para um cientista social, o termo bias tem significado mais próximo ao que pensamos ao
discutir “discriminação”, ou seja, bias seria um tratamento diferenciado moralmente
questionável (talvez não justificado nem mesmo pelo Princípio da Equidade), resultando em
vantagens ou danos para certos grupos (comparativamente a outros).
5
Algumas confusões nos debates sobre “ética na IA” têm origem na mistura de noções de bias acima.
Por exemplo, um estatístico apegado na definição de bias como “a diferença entre o valor esperado
de um estimador e o valor real” pode argumentar que “se um modelo de Machine Learning sumariza
os dados da população corretamente, então não há bias no modelo, e se existe bias sociológico não
é culpa do algoritmo.” Entretanto, esta visão puramente estatística não leva em conta o propósito da
discussão sobre ética na IA, que é “como construir sistemas de IA que suportem valores éticos
humanos”, sem bias em qualquer um dos sentidos acima que possam causar discriminação negativa.
O ideal é que os sistemas de IA sejam desenvolvidos em todas as etapas de seu ciclo de vida com a
inclusão em mente. O diagrama mostra cinco possíveis categorias para diferentes tipos de bias em
sistemas de IA que vamos discutir em seguida (ver [5] e [6]), mas há muitas outras formas de
categorizar as diferentes fontes de bias.
Fonte: [5]
Dataset Bias
Ocorre quando os dados utilizados para treinar um modelo de Machine Learning não são
representativos da diversidade dos diferentes subgrupos na população. Por exemplo, ao se fazer uma
pesquisa sobre meios de transporte mais utilizados pela população, são entrevistados apenas
indivíduos de maior poder aquisitivo que provavelmente têm automóvel e não usam habitualmente
o transporte público.
6
Fonte: [7]
Associations Bias
Ocorrem quando os dados utilizados para treinar um modelo de Machine Learning reforçam
preconceitos culturais de associação (por exemplo, “soldado" é “profissão de homem”, e
“enfermeiro” é “profissão de mulher”), como no poema adaptado de [8].
Gender
A Poem by Google Translate
he is a soldier
she’s a teacher
he is a doctor
she is a nurse
...
No idioma Turco, há um pronome neutro “o” que pode ser utilizado para qualquer tipo de terceira
pessoa no singular independentemente de gênero, diferentemente do Português (“ele, ela”) e do
Inglês (“he”, “she”, “it”). Assim, quando o Google Translate faz traduções do Turco para o Inglês, ele
precisa “adivinhar” o gênero oculto pelo pronome “o”, e em alguns casos as traduções revelam bias
de gênero por associação [8]. Este tipo de bias pode perpetuar estereótipos.
7
Automation Bias
Ocorre quando decisões automatizadas tomadas pelo modelo se sobrepõem a valores sociais e
culturais humanos. Por exemplo, filtros com algoritmos em aplicativos para "embelezar" pessoas
podem reforçar nas meninas, meninos e adolescentes uma noção europeia de beleza em imagens
faciais, como peles com tonalidades claras, olhos azuis etc., em detrimento de outros padrões
estéticos. Neste sentido, o bias de automação pode impor os valores de um grupo maior ou mais
poderoso sobre outros grupos menos favorecidos, o que é maléfico para a diversidade.
Fonte: [9]
Havia a expectativa de que no “primeiro concurso de beleza internacional julgado por IA” as
avaliações do “juiz algoritmo” fossem imparciais, mas quase todas das 44 vencedoras eram brancas
(em mais de 6.000 concorrentes). Poucas eram asiáticas, e apenas uma tinha pele escura [10].
Interaction Bias
O bias de interação ocorre quando os próprios humanos (usuários) que interagem com o modelo de
IA fornecem dados que introduzem discriminação nos resultados. Por exemplo, humanos podem
propositalmente enviar mensagens racistas e sexistas para chatbots para que eles sejam "treinados"
para dizer mensagens ofensivas contra certos subgrupos.
8
Fonte: [11]
Confirmation Bias
Por exemplo, um indivíduo de inclinação negacionista (contra a ciência) que acredita que “tomar
vacina faz mal para a saúde” poderá reforçar esta crença se, ao tomar alguma vacina, tiver algum
problema de saúde, mesmo que não tenha qualquer relação com a vacina tomada. Este tipo de bias
é bastante amplificado em “bolhas” ou “salas de eco” criadas por algoritmos de filtragem de conteúdo
em redes sociais. Ao interagir apenas com pessoas que “pensam da mesma forma” e evitando
posições divergentes, o senso crítico é prejudicado, e o terreno para a desinformação (acidental ou
proposital) é fértil.
9
Fonte: [12]
No caso dos sistemas de IA, o viés de confirmação pode surgir por exemplo com a tendência do
criador do sistema em selecionar dados de treinamento (ou aplicar labels em dados, no caso de
classificação), ou ainda interpretar os resultados do modelo de modo compatível com suas crenças.
Qualquer que seja a origem ou tipo do bias, o fato é que a partir de 2017 “a ficha caiu” e tanto a
academia quanto as grandes empresas mais envolvidas com sistemas de IA começaram a demonstrar
enorme preocupação com o problema do bias em sistemas de IA.
Fonte: [13]
10
Fonte: [13]
3. O problema do alinhamento
Todos desejamos uma IA mais ética e responsável, aderente aos valores como justiça e igualdade (não
discriminação), inclusão, privacidade, confiabilidade e outros. Os princípios para uma IA ética [14]
tentam colocar em palavras os valores que se deseja assegurar. Porém, há uma dificuldade - como
"embutir" valores humanos em uma solução de IA?
Existe consenso de que esta tarefa se torna cada vez mais importante na medida em que vários
sistemas poderosos de IA já estão em uso, alguns operando com grande autonomia para tomar
decisões que antes eram relegadas aos humanos. Porém, a tarefa não é simples, e requer uma
abordagem multidisciplinar envolvendo legisladores, políticos, especialistas em IA, cientistas de
dados, estatísticos, desenvolvedores de software, psicólogos, antropologistas, filósofos e a sociedade
em geral.
Na literatura, o nome usualmente utilizado para denotar esta tarefa é "alinhamento de valores"
(Value Alignment). O propósito do "alinhamento de valores" é assegurar que os sistemas de IA
(sobretudo os mais poderosos e capazes de produzir maior impacto e com mais alcance) estejam
adequadamente alinhados com valores morais humanos. Este tema é discutido pelo cientista da
computação Stuart Russel em seu livro "Human Compatible: AI and the Problem of Control" [15] e em
várias outras referências. Em particular, o assunto é abordado com grande competência no artigo
"Artificial Intelligence, Values, and Alignment" [16] de Iason Gabriel, filósofo eticista da DeepMind
em Londres.
11
De forma simplificada, o problema de "alinhamento de valores" tem duas partes, uma técnica, e outra
filosófica:
Esta é a parte técnica do problema do alinhamento. Soluções de IA que utilizam Machine Learning
para aprender com dados são projetadas para maximizar eficiência na execução de alguma tarefa (por
exemplo, classificar imagens) - e fazem isso muito bem. Porém, como alerta o já citado Stuart Russell
e também Aaron Roth em seu livro "The ethical algorithm“ [17], não farão nada além disso se não
forem instruídas para tal, de modo objetivo.
Se você otimiza um algoritmo para maior precisão, não ganhará transparência, privacidade e não
discriminação como um bônus a troco de nada. Assim, é preciso encontrar meios técnicos (por
exemplo, através de restrições matemáticas definidas durante o treinamento do modelo) de incluir
os valores morais desejados no design da solução.
O efeito Midas
Um alerta feito por Stuart Russell em sua palestra TED Talk [18] é que devemos “entender exatamente
o que está sendo pedido” para um sistema de IA, pois pela forma como os modelos de Machine
Learning funcionam, os algoritmos vão tentar otimizar a sua performance na tarefa que devem
resolver (por exemplo, classificar imagens), sem se preocupar com outros objetivos se não forem
explicitamente definidos”. Temos que ter muita atenção ao que estamos pedindo, para evitar o
“efeito Midas” na IA – obter resultados ótimos, porém não alinhados ao que realmente desejamos.
Fonte: [18]
12
Um exemplo relacionado ao “problema do rei Midas na IA” citado pelo filósofo Nick Bostrom é o
seguinte [19, 20]:
Se é este o único propósito (a função utilidade que se deseja maximizar), o algoritmo vai tentar
alcançá-lo dispondo de todos os recursos que estiverem disponíveis, e eventualmente poderá destruir
estruturas para obter mais metal para a produção de clips, até cobrir o planeta Terra com estes
objetos.
Assim, a questão do propósito passado para os sistemas de IA é importante, assim como encontrar
um meio de embutir valores morais nos sistemas de IA (“problema do alinhamento de valores”).
• Como a sociedade vai decidir sobre quais princípios (ou objetivos) devem ser "codificados" em
sistemas de IA?
• Quem decidirá sobre isso, considerando que vivemos em uma sociedade pluralista com diferentes
visões de mundo e crenças sobre valores morais, em alguns casos, incompatíveis entre si?
• Como fazer isso de forma que um determinado grupo não "imponha" seus valores preferidos
sobre outros grupos?
Iason Gabriel nos ensina que há diferentes concepções sobre como isso pode ser feito. Por exemplo,
em uma abordagem minimalista o foco seria em tentar embutir na IA pelo menos os controles que
impeçam os impactos maiores (por exemplo, que atentem contra a segurança humana ou tragam
outros resultados ruins sobre esta ótica da segurança e confiabilidade). Esta concepção nos levaria ao
que o filósofo chama de "IA segura" (Safe AI).
Já na abordagem maximalista o desafio seria ter não apenas segurança, mas uma "IA boa e justa"
(Good IA), uma meta mais ambiciosa e próxima do que queremos dizer com "IA ética e responsável",
mas também mais difícil, dado que é neste caso justamente que será preciso lidar com a "questão
das definições".
13
Assim, a parte normativa do "problema do alinhamento" parece ser a mais difícil, até pelo fato de
que enquanto ela não for endereçada não será possível resolver a parte técnica de forma adequada
(não podemos embutir valores morais na IA se não concordamos ainda sobre quais são eles).
Iason Gabriel prossegue explicando que também é necessário entender com maior clareza com o que
desejamos alinhar a IA quando usamos a expressão "princípios" ou "valores morais". Qual deve ser o
portador da moralidade? Vejamos alguns candidatos...
Intenções (o agente faz o que eu pretendo que ele realmente faça, para além de instruções)
Preferências (o agente faz o que meu comportamento revela que eu pretendo que ele faça)
Etc.
Se formos bem-sucedidos em reproduzir nossos comportamentos morais em sistemas de IA, isso seria
bom?
A pergunta procede, já que por sua natureza, infelizmente o ser humano se comporta mal em muitas
situações e tem muitos preconceitos, nem sempre age de forma ética e se envolve em guerras sem
sentido. Logo, os futuros sistemas de IA precisam ser mais altruístas do que nós, sendo capazes de
respeitar valores morais que o próprio homem ignora em muitos contextos.
Tal como a falta, o “excesso de moralismo” em sistemas de IA pode ser igualmente problemático.
O difícil é encontrar a zona cinza onde os seres humanos operam, onde há regras, mas elas podem
ser quebradas em certos casos, em um complexo julgamento de valores e contextos.
A IA então vai preparar seu jantar, e nota que a geladeira está vazia.
Será a IA capaz de contrapor o sentimento humano afetivo por animais domésticos com o valor
nutricional deste mamífero?
Fonte: [18]
15
A primeira é a "Busca da Sobreposição de Valores", ou a ideia que ainda que existam diferenças entre
as visões sobre quais seriam os melhores valores para direcionar a IA, existe consenso sobre um grupo
de valores sobre o qual todos ou a grande maioria concorda. Por exemplo, uma pesquisa em
diferentes fontes de princípios para a IA ética revela que há razoável convergência sobre alguns
princípios éticos como transparência, justiça, igualdade, segurança (confiabilidade),
responsabilização e privacidade. Neste caso, talvez seja possível tomar como base os valores previstos
na carta dos direitos humanos fundamentais [21], que têm uma boa aceitação global.
A segunda é o "Véu da Ignorância", fundamentado nos estudos do já mencionado filósofo John Rawls
[22]. Esta abordagem visa evitar que os princípios sejam criados pensando-se "no interesse próprio e
em cada caso particular", e em vez disso sejam definidos com base apenas em considerações gerais,
como se seus criadores não soubessem quem vai ser afetado, nem onde, nem quando.
A terceira é a "Escolha Social", ou seja, deixar a sociedade votar e decidir sobre quais devem ser os
princípios e noções morais que a IA deve seguir. Neste caso não se pretende obter princípios
universais e categóricos (no sentido Kantiano), ou princípios sobre o qual todos concordem, mas em
vez disso adotar o que foi escolhido pela maioria da sociedade, que afinal é quem será afetada pelas
aplicações de IA. Esta seria, portanto, a "abordagem democrática" para atacar a parte normativa do
"problema do alinhamento". Naturalmente, tem também suas dificuldades. Como assegurar
representatividade e conduzir esta votação? Cada país fará sua análise de escolhas isoladamente, e
depois isso será agregado globalmente de alguma forma? Etc.
Também é preciso considerar que dados os interesses econômicos em jogo e o alcance e importância
da IA hoje no mundo, o problema não é apenas técnico e moral, mas tem também um forte
componente político. Além disso, a IA é uma tecnologia emergente sobre o qual sabemos pouco, e
que, portanto, é preciso cautela e uma abordagem progressiva na sua normatização.
Algoritmos éticos
Em vez de empregar apenas meios reativos (multas, punições etc.) definidos em marcos regulatórios
e políticas corporativas, o ideal seria tentar resolver os problemas éticos da IA de modo preventivo,
por exemplo, detectando e reduzindo o bias em sistemas de IA antes que eles entrem em produção.
Para isso, precisamos aprender a construir "algoritmos éticos“, disciplina interessante que ainda está
em sua infância.
No caso da privacidade, que é um dos princípios que deve nortear os projetos de IA, uma solução
satisfatória já foi desenvolvida [23]. Trata-se da privacidade diferencial, um mecanismo estatístico que
permite definir a “perda de privacidade” como uma restrição matemática que pode ser incorporada
em algoritmos de Machine Learning.
16
Para o caso da noção de justiça e outros valores morais, porém, o desafio é mais difícil, como
explicado em [24]. Por exemplo, existem muitas métricas de “fairness” diferentes que podem ser
aplicadas como restrições durante a criação dos modelos de Machine Learning [25], como a “paridade
demográfica” ou a “igualdade nas taxas de erros (falsos positivos, falsos negativos)”. Já existem mais
de 70 métricas para fairness compatíveis com a ferramenta AI Fairness 360 da IBM [37].
Infelizmente, não é possível maximizar o modelo para todas estas noções simultaneamente. Isto
significa que um modelo de IA que é "mais justo" por alguma definição de “fairness“ que se escolha
priorizar pode ao mesmo tempo ser “injusto” sobre alguma outra noção de fairness (igualmente
válida!).
Além disso, quase sempre haverá um trade-off inevitável entre os objetivos de se maximizar a
“justiça” (por qualquer definição de fairness) e a performance (por alguma métrica aplicável ao tipo
de modelo). A sociedade precisa compreender que assim como a discriminação produz efeitos ruins
que se deseja combater, a redução da precisão em sistemas de IA também pode trazer impactos
negativos para seus usuários, ou seja, não há lanche grátis.
Assim, a transparência é fundamental para que possa existir legitimidade (as pessoas devem ser
capazes de exercer adequadamente o seu direito de avaliar as decisões que as impactam). Isso já é
assim nas decisões tomadas por humanos, e deve valer também para os sistemas de IA com
autonomia para tomar decisões.
Estes são os desejos. Mas para implementar este “desejo” em aplicações de IA, é preciso determinar
por exemplo quem temos em mente ao requisitar “transparência” no sistema de IA, dado que há
diferentes partes interessadas, com variado nível de conhecimento técnico.
Da mesma forma, temos que decidir sobre o que desejamos maior transparência (Dados utilizados?
Funcionamento do algoritmo? Decisões tomadas pelo modelo?).
Além disso, assim como no caso do fairness, também no requisito de transparência poderão ocorrer
trade-offs que precisam ser compreendidos, como nas aplicações de Deep Learning que utilizam
redes neurais complexas, onde a performance é maior, mas ao custo de menor interpretabilidade.
4. Exemplos de discriminação em IA
Esta seção reúne alguns exemplos que ilustram os impactos negativos que a discriminação algorítmica
pode causar. Com relação aos danos que podem causar, Kate Crawford sugere dois grandes grupos
[13].
Fonte: [13]
18
Outros serviços como anúncios on-line e sistemas de recomendação por IA também podem ter
desempenho diferenciado de forma discriminativa, apresentando taxas de erros (falsos positivos,
falsos negativos) significativamente mais altas para determinados subgrupos apenas.
Segundo Crawford [13], enquanto os danos de alocação têm relação com o acesso a recursos, os
danos de representação estão relacionados com falhas na identificação de indivíduos, animais,
objetos etc.
Um grave exemplo de dano de representação foi a exibição de imagens de pessoas negras com o label
“Gorillas” [27] pela API de identificação de objetos do Google em 2015.
Fonte: [27]
Fonte: [30]
Fonte: [30]
2021, Alemanha. Uma mulher não conseguiu concluir uma compra on-line, embora tivesse recursos
para pagar, presumivelmente em função de uma combinação "desfavorável" de sua idade e seu
gênero (avaliação de risco de crédito por algoritmo de IA).
Fonte: [30]
Em 2020, Audrey K. foi a uma repartição pública em Hamburgo, na Alemanha, para tirar a carteira
internacional de motorista. Entretanto, o sistema de biometria não foi capaz de reconhecer o rosto
dela, em função do tom de pele escuro. A maior taxa de erro nos algoritmos de reconhecimento
facial para peles escuras cria muitos problemas de autenticação e pode causar dificuldades em vários
serviços para esta população (por exemplo, problemas na biometria facial implementada em
aeroportos).
21
No projeto The Gender Shade [31] liderado pela pesquisadora Joy Buolamwini três empresas (IBM,
Microsoft e Face++) que oferecem soluções de IA com visão computacional baseados na detecção e
identificação de atributos de rostos (por exemplo, classificação por gênero) tiveram seus produtos
avaliados.
Todas as empresas tiveram desempenho melhor nos rostos com tom de pele clara, ou seja, as taxas
de erro na classificação foram maiores para as peles escuras em todos os produtos avaliados. As
maiores taxas de erro na classificação para peles escuras têm impactos negativos para este grupo no
uso de soluções que utilizam estes modelos (tal como aconteceu com Audrey K. na Alemanha).
Fonte: [31]
22
Fonte: [30]
Udo Enwerenezor mora na Itália e tem dupla nacionalidade (Italiano e Nigeriano). Ele percebeu que
o preço do seguro do seu carro dependia de qual nacionalidade ele informava na contratação do
serviço. Se falasse que era nigeriano, o preço do seguro era mais elevado, mesmo com todos os outros
parâmetros idênticos no perfil. Isso indica um padrão discriminatório na análise.
Há modelos de NLP (Natural Language Processing) que fazem correlação semântica com
"proximidade espacial" entre palavras. Ou seja, a similaridade no significado é indicada pela
frequência em que as palavras aparecem próximas umas das outras (há uma forma técnica de medir
a "distância" entre as palavras). Entretanto, constatou-se que estes algoritmos são "contaminados"
por preconceitos da própria sociedade, e assim podem revelar padrões machistas e racistas.
Fonte: [32]
Fonte: [33]
Um sistema de IA chamado COMPAS foi utilizado para avaliar "o risco de um criminoso voltar a
cometer um crime nos próximos dois anos" após ser solto da prisão. Foi verificado que a ferramenta
era discriminatória contra pessoas negras.
Comparando os dados para pessoas brancas e negras, foi constatado que o número de erros do tipo
"falso positivo"1 entre as pessoas negras era maior do que para as brancas. Ver [33, 34] nas
Referências.
1
Falso positivo: pessoa que foi classificada como sendo de "alto risco" de reincidência, mas não voltou a cometer
crimes.
24
Os danos potenciais da discriminação são muitos. Em alguns casos, os danos são “injustos”, e em
outros são ilegais. Os danos podem ser tanto individuais quanto coletivos como ilustrado no quadro.
Fonte: [35]
Perda de oportunidades
- Discriminação em empregos.
- Discriminação em preços de seguros e benefícios sociais.
- Discriminação em programas de casas populares.
- Discriminação no acesso à educação.
25
Perdas econômicas
- Discriminação na concessão (ou custo) de crédito.
- Preços diferenciados na obtenção de produtos e serviços.
- Limitação de escolhas para determinados subgrupos.
Alienação social
- "Bolhas" em mídias sociais por algoritmos de filtragem.
- Reforço de estereótipos.
- Preconceitos diversos na filtragem de conteúdos disponíveis.
Perda de liberdade
- Riscos de abordagem em policiamento preditivo.
- Vigilância em massa pelo poder público, e no trabalho.
- Encarceramento injusto ou desproporcional.
5. Conclusão
Os sistemas de IA podem apresentar comportamento injusto (parcial, unfair) por vários motivos. Pode
haver bias cognitivo afetando as decisões tomadas durante o desenvolvimento do sistema. Pode ser
que o modelo tenha sido treinado com datasets desbalanceados (má representatividade de algum
subgrupo específico), ou pode ser que o bias reflita um comportamento social real (antes de existir
inteligência artificial já existia racismo no mundo, e ainda existe). Neste caso, o sistema de IA é um
espelho do que ocorre na sociedade - o mensageiro de uma realidade desconfortável – e se
desejamos realmente um mundo melhor, não adianta apenas “atirar no mensageiro”.
"Bias in AI is a reflection of bias in our broader society. Building ethics into AI is fixing the symptoms
of a much larger problem. We must decide as a society that we value equality and equity for all and
then make it in happen in real life, not just in our AI systems. AI has the potential to be the Great
Democratizer or to magnify social injustice and it is up to you to decide which side of that spectrum
you want your product to be on" (Kathy Baxter) [6] - “O viés na IA reflete o viés (preconceito) da
sociedade. Construir ética na inteligência artificial é atacar os sintomas de um problema muito mais
amplo. Nós precisamos decidir como sociedade que valorizamos a igualdade e a equidade para todos,
e então fazer isto acontecer na vida real, não apenas nos nossos sistemas de IA. A IA tem o potencial
de ser o “Grande Democratizador” ou de amplificar a injustiça social, e cabe a você decidir de que
lado do espectro você deseja que seu produto esteja”.
“Bias in systems is commonly caused as we know by bias in training data, and we can only gather
data about the world that we have, which has a long history of discrimination. So the default tendency
of these systems will be to reflect our darker biases” (Kate Crawford) [13]. - “O viés nos sistemas (de
IA) é normalmente causado, como sabemos, por vieses existentes nos dados de treinamento, e nós só
podemos coletar dados sobre o mundo em que vivemos, que tem uma longa história de discriminação.
Então, a tendência (por padrão) destes sistemas é refletir nossos preconceitos mais sombrios”
26
Não é trivial distinguir entre as diferentes fontes para o bias, dado que elas podem ocorrer
simultaneamente e podem se influenciar mutuamente (um bias cognitivo em um analista pode
resultar em um dataset desbalanceado, que poderá afetar negativamente a parcialidade do sistema).
Assim, em vez de gastar energia na identificação das origens do bias, é mais produtivo avaliar o
sistema de IA em função dos impactos que ele exerce em algum subgrupo da população.
Nesta visão mais pragmática, quaisquer que sejam as origens do bias, os responsáveis devem adotar
medidas para impedir que seus sistemas de IA reproduzam ou amplifiquem [36] situações de
discriminação contra pessoas ou grupos. Neste sentido, existem ferramentas interessantes que
podem ajudar os desenvolvedores, cientistas de dados e outras partes interessadas a identificar e
reduzir bias em seus modelos de Machine Learning, como o Fairlearn [37] e o AI Fairness 360 da IBM
[38].
Entretanto, como esperamos ter deixado claro neste estudo, a imparcialidade (fairness) em sistemas
de IA é um problema sociotécnico muito difícil e que não se resolve apenas com ferramentas de
software, mas requer a análise de contextos particulares e o entendimento dos inevitáveis trade-offs
entre “justiça e performance”, ou entre “diferentes noções de justiça” que não podem ser satisfeitas
simultaneamente. Dificuldades semelhantes surgem na agenda de embutir outros valores morais
humanos nos sistemas da IA.
6. Referências
1 – Justice as Fairness
https://en.wikipedia.org/wiki/Justice_as_Fairness
Último acesso em 05/08/2022
5 – How to Recognize Exclusion in AI - By Joyce Chou, Oscar Murillo, and Roger Ibars
https://medium.com/microsoft-design/how-to-recognize-exclusion-in-ai-ec2d6d89f850
Último acesso em 02/08/2022
6 – How to Build Ethics into AI - Part II Research-based recommendations to keep humanity in AI. Kathy
Baxter
https://blog.salesforceairesearch.com/how-to-build-ethics-into-ai-part-iiresearch-based-
recommendations-to-keep-humanity-in-ai/
Último acesso em 04/08/2022
7 – Identifying Unknown Unknowns in the Open World: Representations and Policies for Guided
Exploration. Himabindu Lakkaraju et al
https://arxiv.org/pdf/1610.09064.pdf
Último acesso em 02/08/2022
8 - Google Translate’s gender bias pairs “he” with “hardworking” and “she” with lazy, and other
examples. Nikhil Sonnad
https://qz.com/1141122/google-translates-gender-bias-pairs-he-with-hardworking-and-she-with-
lazy-and-other-examples/
Último acesso em 04/08/2022
9 – Welcome to the First International Beauty Contest Judged by Artificial Intelligence - Beauty.AI 2.0
https://beauty.ai/
Último acesso em 04/08/2022
28
10 - Is AI RACIST? Robot-judged beauty contest picks mostly white winners out of 6,000 contestants
https://www.dailymail.co.uk/sciencetech/article-3781295/Is-AI-RACIST-Robot-judged-beauty-
contest-picks-white-winners-6-000-submissions.html
Último acesso em 05/08/2022
11 - Tay, Microsoft's AI chatbot, gets a crash course in racism from Twitter (@guardian)
https://twitter.com/guardian/status/712903495221903360
Último acesso em 04/08/2022
21 - Declaração Universal dos Direitos Humanos - Assembleia Geral das Nações Unidas (resolução 217
A III) em 10 de dezembro 1948.
https://www.unicef.org/brazil/declaracao-universal-dos-direitos-humanos
Último acesso em 03/08/2022
24 – The Ethical Algorithm: The Science of Socially Aware Algorithm por Michael Kearns (Author),
Aaron Roth (Author)
https://www.amazon.com/-
/pt/dp/0190948205/ref=sr_1_1?crid=14I7JLDV2YQO9&keywords=the+ethical+algorithm&qid=1654
842121&s=books&sprefix=the+ethical+algorithm%2Cstripbooks%2C204&sr=1-1
Último acesso em 05/08/2022
26 – Transparência (Referências)
https://www.etica-ia.com/transpar%C3%AAncia
Último acesso em 05/08/2022
28 - Amazon built an AI tool to hire people but had to shut it down because it was discriminating
against women
https://www.businessinsider.com/amazon-built-ai-to-hire-people-discriminated-against-women-
2018-10
Último acesso em 03/08/2022
30
29 – AlgorithmWatch
https://algorithmwatch.org/en/
Último acesso em 05/08/2022
31 – How well do IBM, Microsoft, and Face++ AI services guess the gender of a face?
http://gendershades.org/overview.html
Último acesso em 03/08/2022
33 - The bias detectives - As machine learning infiltrates society, scientists grapple with how to make
algorithms fair. Rachel Courtland
https://media.nature.com/original/magazine-assets/d41586-018-05469-3/d41586-018-05469-3.pdf
Último acesso em 03/08/2022
34 - Machine Bias. Julia Angwin, Jeff Larson, Surya Mattu and Lauren Kirchner, ProPublica
https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
Último acesso em 03/08/2022
42 - Value-Sensitive Algorithm Design: Method, Case Study, and Lessons - Haiyi Zhu, Bowen Yu, Aaron
Halfaker and Loren Terveen
https://dl.acm.org/doi/10.1145/3274463
Último acesso em 05/08/2022