Escolar Documentos
Profissional Documentos
Cultura Documentos
1. Introdução
A inteligência artificial (IA) tem se tornado cada vez mais presente na sociedade,
impactando significativamente em vários setores, incluindo saúde, finanças e transporte.
Embora seus avanços sejam inegáveis, ainda há preocupações quanto ao seu uso
responsável. Até este momento o retorno da utilização desta tecnologia mostra-se
positivo, porém a falta de conhecimento aprofundado sobre suas limitações causa
preocupações em especialistas. A mais atual questão a causar preocupação é a presença
do viés algorítmico.
Como declara Kaplan (2019), a definição de uma IA pode seguir dois caminhos, sendo
eles pelas lentes dos “estágios evolucionários” (IA focada, IA Generalizada e IA
Superinteligente), ou através dos “tipos de sistemas de IA” (Analítica, humano-inspirada
ou humanizada). Ludermir (2021) caracteriza os três modos distintos de uma IA, focada,
generalizada e superinteligente, da seguinte forma:
Um exemplo concreto que ilustra a presença do viés pode ser observado nos
algoritmos utilizados por instituições financeiras para avaliação e liberação de crédito.
Estudos apontam que, nos Estados Unidos, ao solicitar um empréstimo para aquisição de
um imóvel, clientes pertencentes às minorias étnicas, tais como latinos e afro-americanos,
tendem a pagar juros cerca de 7,9 pontos (0,079 ponto percentual) mais elevados do que
os indivíduos brancos em seus pagamentos hipotecários, bem como juros 3,6 pontos
superiores em casos de renegociação da dívida [DETRIXHE 2019].
Geirhos (2020) nos mostra que, embora a aplicação dessa tecnologia a serviço da
sociedade mostra-se positiva, ainda há questões a serem consideradas e resolvidas, visto
que nossa base de conhecimento sobre os princípios fundamentais e suas limitações é
incipiente. Os casos de enviesamento nas tomadas de decisões já identificados possuem
uma origem que foge do âmbito técnico, visto que, como cita Ntoutsi (2020), o
aprendizado de uma IA depende de dados gerados por humanos, ou coletados por
sistemas humanos, logo qualquer viés que exista nos dados tende a ser transferido para a
IA. Dito isso, tal problema não demonstra possuir uma solução baseada diretamente em
linhas de códigos, mas algo mais profundo da sociedade.
Como lados opostos de uma mesma moeda, viés sendo este conceito tão amplo e
abstrato, uma das principais “técnicas” utilizadas atualmente para atuar na mitigação
desse problema não teria um conceito menos abstrato. O método de fair learning
(aprendizado justo, em tradução livre), que atua como um ramo da IA, não diretamente
um método de aprendizado, busca tornar as decisões de uma IA justas do ponto de vista
ético. Este método possui diversas definições, e não pode ser transformado em uma
simples definição matemática, por lidar com problemas no âmbito social e não apenas
estatístico. Sobre esta afirmação, podemos identificar que:
Fairlearn é uma ferramenta descrita por Bird et al. (2020) que visa auxiliar na
avaliação de quais grupos de pessoas podem ser negativamente afetados por modelos de
classificação e regressão. Os algoritmos de mitigação de viés da ferramenta demonstram
possuir a capacidade de auxiliar a reduzir a presença de viés nesses modelos. A ferramenta
inclui 17 métricas relacionadas à equidade e 4 algoritmos de mitigação de viés. Embora
o número de algoritmos de mitigação possa parecer limitado em comparação com outras
ferramentas, a equipe de desenvolvimento mantém um diálogo aberto com os usuários
para complementação e expansão da ferramenta. Pandey et al. (2022) apresentam
resultados interessantes da utilização da ferramenta, tanto por desenvolvedores
experientes quanto inexperientes. Participaram da pesquisa 19 desenvolvedores, entre
esses 10 que possuíam experiência com a ferramenta Fairlearn, 9 que possuíam
experiência com a ferramenta AIF360 E 10 sem conhecimento prévio de nenhuma das
ferramentas. Sobre os erros identificados, foram divididos em quatro categorias, sendo
essas: Tarefa, conjunto de dados e transformações, criação de modelos e avaliação de
modelos.
Também de acordo com Pandey et al. (2022), profissionais menos experientes que
utilizaram a ferramenta tiveram resultados distintos em relação aos mais experientes.
Embora não tenham sido relatados erros identificados por esse grupo, houve um consenso
de que a utilização da ferramenta aumentou sua consciência em relação às características
sensíveis. Anteriormente, era necessário que os profissionais definissem os atributos
sensíveis, mas, nesse caso, eles foram capazes de defini-los por conta própria.
Por fim, a ferramenta AIF360 ocupa uma posição semelhante a outra já citada,
porém demonstra possuir uma gama maior de material sobre o assunto. Bellamy et al.
(2019) nos mostra que a ferramenta dispõe de aproximadamente 71 métricas de detecção
de viés, 9 algoritmos de mitigação de viés e uma funcionalidade única de explicações
métricas extensíveis para ajudar os consumidores do sistema a entender o significado dos
resultados da detecção de viés. Este afirma que o paradigma no desenvolvimento desta
ferramenta é de disponibilizar um ambiente extenso e fácil de usar, permitindo que
usuários transformem seus dados “brutos” em um modelo justo, enquanto
compreendendo o processo intermediário de conversão.
Essas descobertas trazem uma luz a esse problema, porém a pouca divulgação de
ferramentas do tipo continua por manter uma sombra sobre esse assunto. Este trabalho
tem como objetivo discorrer sobre os métodos capazes de identificar e mitigar o
surgimento de erros nas tomadas de decisões, a fim de divulgar a existência e a capacidade
do mesmo em busca de conscientizar desenvolvedores iniciantes a se preocuparem não
apenas com a qualidade de seus algoritmos, mas seus impactos sociais.
6. Referências
Vanian, J. (2018) “Artificial intelligence can imitate and enhance human decision-making
and amplify human prejudices: Can Big Tech tackle A.I.'s discrimination problem?”.
Em: Fortune Media IP Limited.
Geirhos, R. et al. (2020) “Shortcut learning in deep neural networks”. Em: Nature
Machine Intelligence.
Mehrabi, N. et al. (2021) “A Survey on Bias and Fairness in Machine Learning”. Em:
ACM Computing Surveys, 6a edicão.
Martin, D. (2021) “The Unprecedented Downside of Artificial Intelligence: Proxy
Discrimination”, https://embeddedcomputing.com/technology/ai-machine-
learning/ai-dev-tools-frameworks/the-unprecedented-downside-of-artificial-
intelligence-proxy-
discrimination#:~:text=The%20proxy%20discrimination%20that%20results,women
%20applicants%20that%20have%20children.
Costa Da Silva, J. (2018) “Aprendendo em uma Floresta Aleatória: Veja a floresta e não
as árvores”, https://medium.com/machina-sapiens/o-algoritmo-da-floresta-aleatória-
3545f6babdf8.
Choi, K. et al. (2020) “Fair Generative Modeling via Weak Supervision”. Em:
Proceedings of the 37th International Conference on Machine Learning.
Bellamy, R. K. E. et al. (2019) “AI Fairness 360: An Extensible Toolkit for Detecting,
Understanding, and Mitigating Unwanted Algorithmic Bias”. Em: IBM Journal of
Research and Development.