Você está na página 1de 10

Inteligência Artificial e Fair Learning: Estudo dos Métodos de

Aprendizado e Mitigação do Viés


Abstract. Due to the ubiquitous nature of artificial intelligence
algorithms, concerns about these systems arise among academics due to the
scarcity of knowledge about their limitations that may result in harmful
behaviors towards the society, as evidenced by instances of discrimination
identified. Therefore, the development of learning methods capable of
mitigating this discriminatory behavior has become a necessity. This article
aims to discuss the types of artificial intelligence and their learning methods, as
well as to expound on the fair learning method, which focus on mitigating bias
through the analysis of attributes that tend to be the cause of discrimination.

Resumo. Devido a característica ubíqua dos algoritmos de inteligência


artificial, preocupações sobre esses sistemas surgem entre acadêmicos devido
à escassez de conhecimento sobre suas limitações que podem resultar em
comportamentos prejudiciais à sociedade, evidenciados pelos casos de
discriminações identificados. Desta forma, o desenvolvimento de métodos de
aprendizagem capazes de mitigar esse comportamento discriminatório tornou-
se uma necessidade. Este artigo se propõe a discorrer sobre os tipos de IA e
seus métodos de aprendizado, assim como dissertar sobre o método de fair
learning, voltado para a mitigação do viés, através da análise de atributos que
tendem a serem causadores do surgimento de discriminações.

1. Introdução
A inteligência artificial (IA) tem se tornado cada vez mais presente na sociedade,
impactando significativamente em vários setores, incluindo saúde, finanças e transporte.
Embora seus avanços sejam inegáveis, ainda há preocupações quanto ao seu uso
responsável. Até este momento o retorno da utilização desta tecnologia mostra-se
positivo, porém a falta de conhecimento aprofundado sobre suas limitações causa
preocupações em especialistas. A mais atual questão a causar preocupação é a presença
do viés algorítmico.

Em termos conceituais, o viés pode ser caracterizado como um processo


discriminatório algorítmico que pode ser desencadeado por diversos fatores, tais como
dados de treinamento inadequados, erros de programação e modelos de aprendizagem de
máquina imprecisos. No momento que o conjunto de dados usado para o treinamento de
uma IA é enviesado ou não equitativo, por exemplo, em relação às populações, o resultado
pode ser um sistema que perpetua ou amplifica a discriminação presentes nos dados. Essa
situação pode acarretar em consequências graves, especialmente em áreas sensíveis, tais
como empregos, crédito financeiro e saúde. É facilmente identificável na sociedade
problemas nessas áreas com relação a minorias e/ou pessoas de baixa renda, porém tende
a ser visto como um preconceito interno da sociedade e não fonte de um viés algorítmico.
Exemplos do tipo ilustram como o viés pode afetar desproporcionalmente certos grupos
sociais, mesmo quando a discriminação não é intencional, tendo consequências
significativas para a equidade e justiça social. Dessa forma, um dos principais desafios na
implementação de sistemas de IA é a compreensão e redução do enviesamento. As
diversas abordagens de aprendizagem de máquina apresentam níveis distintos de
suscetibilidade ao enviesamento, destacando-se a alta vulnerabilidade do aprendizado
supervisionado, que se utiliza de rótulos pré-determinados para classificar os dados de
treinamento, podendo gerar resultados altamente enviesados caso estes dados não sejam
representativos da população. Já o aprendizado não supervisionado, por sua vez, não
depende de tais rótulos e, por isso, pode apresentar menor propensão ao enviesamento.

Nesse contexto, a ampliação do uso de sistemas de IA, em prol da sociedade, traz


consigo a necessidade de realizar uma reflexão sobre o processo de desenvolvimento e
aprendizagem da mesma. A falibilidade dos julgamentos referentes a assuntos relevantes
na sociedade pode potencialmente tornar o uso de IA prejudicial, sobretudo quando esta
ferramenta é empregada com o propósito de reduzir a desigualdade social . De fato, sua
implementação inadequada pode contribuir para a acentuação das disparidades sociais,
em detrimento de uma perspectiva de equalização das oportunidades.

Diante do exposto, essa pesquisa tem como objetivo identificar os métodos de


desenvolvimento de sistemas de inteligência artificial, com enfoque na prevenção do viés
algorítmico. Para tanto, o estudo se propõe a classificar os distintos tipos de inteligência
artificial, examinar os métodos de aprendizado comumente empregados em seu
desenvolvimento, bem como avaliar as características relacionadas ao surgimento do viés
e a utilização do método de fair learning (aprendizado justo) na mitigação do viés
algorítmico.

A metodologia adotada consistiu em uma pesquisa de natureza básica, de


abordagem qualitativa e caráter exploratório, fundamentada em uma revisão bibliográfica
que contemplou uma análise ampla acerca da definição de inteligência artificial, seus
métodos de aprendizagem e a capacidade de prevenir o surgimento de viés algorítmico,
conforme o método utilizado.

2. Conceituação de Inteligência Artificial


Uma IA pode ser definida como uma criação teorizada capaz de raciocinar e agir como
um ser humano, ou até de forma superior. Esta possuiria inteligência para reconhecer
faces, vozes e padrões, que possua habilidades de planejamento e resolução de problemas
entre outras características tradicionalmente humanas. Como cita Haenlein (2019), esta
tecnologia pode ser traçada desde meados de 1940, quando o autor de ficção cientifica
Isaac Asimov lançou o conto Brincadeira de Pegar (Runaround, no original) publicado
na obra Eu Robô de 1942, cuja trama gira em torno das “3 leis da Robótica”, um conjunto
de leis que comandam o comportamento dos robôs.

Desde sua concepção, a Inteligência Artificial (IA) se estabeleceu como um


campo de pesquisa amplamente popular entre acadêmicos, no entanto, pouco
investimento foi destinado ao seu desenvolvimento pelo mercado. No entanto, segundo
Silver (2016 apud Haenlein 2019), essa situação mudou em 2015 quando um sistema de
IA desenvolvido pela equipe DeepMind, atualmente pertencente à Google, denominado
AlphaGo, venceu o campeão mundial de Go, um jogo de tabuleiro cuja complexidade
ultrapassa a do xadrez, utilizando aprendizado profundo (Deep Learning). Após essa
conquista, que demonstrou a qualidade dos algoritmos baseados em IA, a tecnologia
voltou a chamar a atenção, preenchendo uma grande lacuna no mercado em diversas
áreas. Após a ampliação dos investimentos nesta área, a eficácia desta tecnologia tem sido
amplamente testada. Saracco (2017 apud LUDERMIR 2021) afirma que atualmente,
aplicações voltadas para a área de diagnóstico médico podem apresentar uma precisão
superior até mesmo àquela dos profissionais da área. Um exemplo de uso dessa tecnologia
é observado no diagnóstico de problemas cardiovasculares, onde algoritmos baseados em
redes neurais convolucionais demonstraram uma habilidade consistente na identificação
de baixa fração de ejeção, mesmo em casos que envolvem diferenças raciais [Noseworthy
et al. 2020].

2.1. Tipos de Inteligência Artificial

Como declara Kaplan (2019), a definição de uma IA pode seguir dois caminhos, sendo
eles pelas lentes dos “estágios evolucionários” (IA focada, IA Generalizada e IA
Superinteligente), ou através dos “tipos de sistemas de IA” (Analítica, humano-inspirada
ou humanizada). Ludermir (2021) caracteriza os três modos distintos de uma IA, focada,
generalizada e superinteligente, da seguinte forma:

IA focada, ou IA fraca, são sistemas desenvolvidos para fins específicos e não


possuem autonomia para a resolução de problemas que fogem de sua área foco. Podem
possuir um vasto conhecimento e realizar operações complexas, no escopo de sua criação.
Um dos principais exemplos de IA fraca que vemos hoje é o sistema GPT-4
(coloquialmente conhecido como ChatGPT), desenvolvido pela empresa OpenIA. Este
sistema trabalha na lógica de IA Fraca, e possui 175 bilhões de parâmetros (ou variáveis)
disponíveis a cada consulta realizada. Este tipo de sistema é extremamente dependente de
seu algoritmo e de suas variáveis [Quaresma 2021].

A IA generalizada pode ser definida como o processo de raciocínio humano


simulado, visto que teoricamente uma inteligência generalizada seria capaz de resolver
problemas complexos fora do escopo de sua criação, por meio tanto de raciocínio
generalizado, como utilização de meios físicos para manipulação do mundo. Podemos
definir raciocínio generalizado como uma forma de resolução de um problema, dentro de
suas capacidades evolutivas, porém fora do seu escopo imediato de habilidades. De outra
forma, a capacidade de adaptar-se. Uma IA generalizada possuiria a capacidade de
solucionar um problema, utilizando métodos de aprendizagem de máquina, porém sem
possuir o treinamento especifico para o ocorrido. Desenvolvedores atualmente mostram-
se competindo entre si para desenvolver uma IA do tipo. Borana (2016) afirma que
pesquisas atuais se mostram longe de serem bem-sucedidas no desenvolvimento de uma
IA neste nível.

Vários transumanistas, termo utilizado para pessoas que acreditam em uma


continua evolução do ser humano com o uso da tecnologia, acreditam que o
desenvolvimento da IA forte pode juntamente ser a origem da IA superinteligente,
considerando a possibilidade da mesma desenvolver autoconsciência ao se tornar
equivalente a mente humana [Wang e Siau 2019].

A IA superinteligente pode ser definida como uma inteligência muito acima da


capacidade humana, sendo superior em todos os aspectos e tarefas. Possuiria um
raciocínio aprimorado, criatividade e habilidades sociais. Poderia ser aplicada em
qualquer área, solucionaria problemas matemáticos complexos instantaneamente, etc.
Este fenômeno da IA superinteligente mostra-se, desde a sua concepção, uma
preocupação da parte dos pesquisadores.

2.2. Métodos de aprendizados de Máquina

A IA por si só possui uma gama de métodos, porém os métodos de aprendizado de


máquina podem se resumir a três, sendo esses baseados primariamente no conceito de
indução. Sobre este assunto, Monard (2003) expõe que o processo de indução se trata de
um raciocínio lógico, utilizando um conjunto de exemplos sobre um tópico maior, a fim
de buscar a geração de uma hipótese com relação ao tópico primário. Em outras palavras,
trata-se da abstração de uma parte para simbolizar um todo. Deste método de raciocínio
originaram três tipos: Supervisionado, Não-Supervisionado e reforço.

O processo de aprendizado supervisionado utiliza um conjunto de dados rotulados


para que o algoritmo possa construir um classificador que possa identificar a classe de
um novo objeto. Um dos métodos de aprendizado supervisionado mais utilizados é a
floresta aleatória (random forest). Costa da Silva (2018) define floresta aleatória como
um método flexível que pode ser usado tanto para tarefas de classificação quanto de
regressão, e possui como funcionamento a criação de uma “floresta” de árvores de decisão
que combinadas obtém uma acurácia estável em suas predições.

Já o aprendizado não supervisionado não possui uma referência de classe, mas


agrupa objetos semelhantes em clusters que devem ser posteriormente analisados para
identificar padrões e tendências. O método de aprendizado por reforço não usa referência
de classe, mas sim um sinal de reforço como recompensa ou punição, com o objetivo de
maximizar as recompensas. Esse método se assemelha ao aprendizado orgânico visto em
crianças e animais. Além dos três métodos principais de aprendizado de máquina, outros
tipos de classificações podem ser considerados, como o método de aprendizado online ou
em lote, a abordagem de comparação entre novos pontos de dados e pontos de dados
conhecidos, ou a detecção de padrões nos dados de treinamento para construir um modelo
preditivo, conhecido como aprendizagem baseada em instância ou em modelo [GÉRON
2019]. No entanto, ao considerarmos o processo lógico de tomada de decisão, esses
aspectos podem não ser relevantes.

3. Enviesamento das tomadas de decisões de uma IA


O termo viés tem origem francesa, sendo frequentemente utilizado para descrever uma
predisposição ou inclinação a seguir uma determinada direção, podendo afetar a
objetividade em uma tomada de decisão ou análise. Na área de IA, viés é um conceito
antigo, referindo-se tradicionalmente às suposições feitas por um modelo específico (viés
indutivo) [MITCHELL 1997 apud NTOUTSI 2020]. Devido a busca pela simulação da
mente humana no processo de desenvolvimento, as tendências para o desenvolvimento
de vieses, encontradas na nossa sociedade, são também reforçadas em sistemas do tipo.
O preconceito na tecnologia "é tão antigo como a civilização humana [...] e é da natureza
humana que os membros da maioria dominante sejam alheios às experiências de outros
grupos” [LI 2018 apud VANIAN 2018], como identificado na utilização da ferramenta
para avaliar riscos de reincidência criminal através do sistema COMPAS [VIEIRA 2019],
logo identifica-se que este conceito acompanha o desenvolvimento desta tecnologia desde
seu início.

Um exemplo concreto que ilustra a presença do viés pode ser observado nos
algoritmos utilizados por instituições financeiras para avaliação e liberação de crédito.
Estudos apontam que, nos Estados Unidos, ao solicitar um empréstimo para aquisição de
um imóvel, clientes pertencentes às minorias étnicas, tais como latinos e afro-americanos,
tendem a pagar juros cerca de 7,9 pontos (0,079 ponto percentual) mais elevados do que
os indivíduos brancos em seus pagamentos hipotecários, bem como juros 3,6 pontos
superiores em casos de renegociação da dívida [DETRIXHE 2019].

Um dos fatores que tende a causar o surgimento de viés é a necessidade do uso de


atributos sensíveis dos dados dos usuários, atributos esses que podem relacionar
indivíduos a grupos minoritários e mal representados nos dados de treinamento. Sobre tal
afirmação, identifica-se que:

Os dados codificam uma série de características de pessoas sob a forma de


valores de características. As características sensíveis que identificam motivos
de discriminação ou preconceito podem estar presentes ou não. Remover ou
ignorar tais atributos sensíveis não impede a aprendizagem de modelos
enviesados, porque outros atributos correlacionados (também conhecidos
como codificações redundantes) podem ser usados como substitutos para eles.
Por exemplo, os bairros das cidades americanas estão altamente
correlacionados com a raça, e este fato tem sido usado para negação sistemática
de serviços como empréstimos bancários ou entrega de compras no mesmo dia
[NTOUTSI 2020].

Geirhos (2020) nos mostra que, embora a aplicação dessa tecnologia a serviço da
sociedade mostra-se positiva, ainda há questões a serem consideradas e resolvidas, visto
que nossa base de conhecimento sobre os princípios fundamentais e suas limitações é
incipiente. Os casos de enviesamento nas tomadas de decisões já identificados possuem
uma origem que foge do âmbito técnico, visto que, como cita Ntoutsi (2020), o
aprendizado de uma IA depende de dados gerados por humanos, ou coletados por
sistemas humanos, logo qualquer viés que exista nos dados tende a ser transferido para a
IA. Dito isso, tal problema não demonstra possuir uma solução baseada diretamente em
linhas de códigos, mas algo mais profundo da sociedade.

4. Fair learning e mitigação do viés


É possível identificar como o viés é uma preocupação crescente na área de IA e
aprendizado de máquina, especialmente em aplicações em áreas sensíveis, como saúde e
justiça. Deste modo existem diversas abordagens para identificar e mitigar o viés
algorítmico, uma comum é a utilização de métodos de aprendizagem não supervisionada,
como a clusterização, que pode identificar grupos de dados sem a necessidade de rótulos
pré-definidos [CHOI et al. 2020]. Além disso, técnicas de aprendizagem supervisionada
como a floresta aleatória podem ser utilizadas para identificar e corrigir o viés presente
nos dados de treinamento. O método de Rede Neural Convolucional (RNC) mostra-se
excepcional na análise de imagens e vídeos, e esta eficácia pode demonstrar a
complexidade por trás desse problema. Este método mostra-se eficaz principalmente na
área de diagnósticos de saúde, como nos mostra Noseworthy et al. (2020) ao verificar se
o sistema que desenvolveu era capaz de identificar baixa fração de ejeção ventricular
(Low LVEF) em pacientes, com uma taxa de erro aceitável, e após realizado o
treinamento da mesma ferramenta utilizando uma variedade maior de paciente, além dos
Brancos não-hispânicos, demonstrou novamente uma taxa de acertos dentro do esperado,
tendo em vista que os resultados encontrados durante um eletrocardiograma variam entre
raças. De toda forma, ainda que se mostre confiável, não aparenta ser a solução final para
o problema do viés, visto que pesquisas realizadas na análise de casos de COVID-19
[Dhont et al 2022] mostrou que mesmo sendo treinado em bancos de dados diversos ainda
mostrava uma baixa sensibilidade na identificação de casos positivos.

A ausência de pesquisas voltadas para a análise de métodos de aprendizagem e


suas eficácias na área em foco são incipientes pode ser um indicativo de que ainda não
foi criado um método que se mostre efetivamente capaz de mitigar a presença desse erro
integralmente, devido a inúmeras aplicações diferentes desta tecnologia. Estudos
realizados apresentam uma avaliação parcial da qualidade de métodos em suas
determinadas áreas de especialidades, como análise de imagens, textos, probabilidade,
etc., [MEHRABI et al., 2021], porém ainda não existe um consenso entre pesquisadores
sobre a eficácia de uma técnica sobre outras.

Como lados opostos de uma mesma moeda, viés sendo este conceito tão amplo e
abstrato, uma das principais “técnicas” utilizadas atualmente para atuar na mitigação
desse problema não teria um conceito menos abstrato. O método de fair learning
(aprendizado justo, em tradução livre), que atua como um ramo da IA, não diretamente
um método de aprendizado, busca tornar as decisões de uma IA justas do ponto de vista
ético. Este método possui diversas definições, e não pode ser transformado em uma
simples definição matemática, por lidar com problemas no âmbito social e não apenas
estatístico. Sobre esta afirmação, podemos identificar que:

A imparcialidade de um modelo de aprendizagem de máquinas é julgada em


relação a um conjunto de princípios legais ou éticos, que tendem a variar de
acordo com o governo e a cultura locais. [...] essas aplicações têm a capacidade
de produzir resultados indevidos em relação aos grupos demográficos;
portanto, é necessário ter uma estrutura para avaliar quantitativamente a
imparcialidade de tais decisões [Fletcher et al, 2020].

Devido a demanda de ferramentas que auxiliam nessa área, várias foram


desenvolvidas voltadas para este fim. Dentre as dezenas, vale citar dois destes
frameworks, sendo estes o Fairlearn (Microsoft) e o AI Fairness 360 (ou AIF360, IBM).
Ambas as ferramentas possuem eu seu acervo várias métricas de detecção de viés
algorítmico, assim como técnicas e algoritmos para mitigação do mesmo [Pandey et al.
2022].

Fairlearn é uma ferramenta descrita por Bird et al. (2020) que visa auxiliar na
avaliação de quais grupos de pessoas podem ser negativamente afetados por modelos de
classificação e regressão. Os algoritmos de mitigação de viés da ferramenta demonstram
possuir a capacidade de auxiliar a reduzir a presença de viés nesses modelos. A ferramenta
inclui 17 métricas relacionadas à equidade e 4 algoritmos de mitigação de viés. Embora
o número de algoritmos de mitigação possa parecer limitado em comparação com outras
ferramentas, a equipe de desenvolvimento mantém um diálogo aberto com os usuários
para complementação e expansão da ferramenta. Pandey et al. (2022) apresentam
resultados interessantes da utilização da ferramenta, tanto por desenvolvedores
experientes quanto inexperientes. Participaram da pesquisa 19 desenvolvedores, entre
esses 10 que possuíam experiência com a ferramenta Fairlearn, 9 que possuíam
experiência com a ferramenta AIF360 E 10 sem conhecimento prévio de nenhuma das
ferramentas. Sobre os erros identificados, foram divididos em quatro categorias, sendo
essas: Tarefa, conjunto de dados e transformações, criação de modelos e avaliação de
modelos.

Desenvolvedores experientes, ao utilizarem a ferramenta, identificaram


erros/falhas associados a utilização de “atributos protegidos/sensíveis”, assim como
“discriminação via Proxies”, ao qual houve um consenso entre os dez desenvolvedores
envolvidos. Sobre proxy, podemos afirmar que:

A discriminação por proxy que resulta do uso do aprendizado de máquinas


causa um impacto discrepante. Esse impacto, legalmente, é uma prática dentro
do setor de emprego ou habitação que causa efeitos negativos a um
determinado grupo. Um exemplo comum no local de trabalho é o empregador
evitar ativamente a contratação de mulheres candidatas que têm filhos
[MARTIN, 2021].

Proveniente da mesma categoria analisada identificou-se, em relação aos dados


populacionais utilizados, um erro associado a “sub/super-representação” de uma
categoria de indivíduo, tendo também um consenso sobre isso.

Também de acordo com Pandey et al. (2022), profissionais menos experientes que
utilizaram a ferramenta tiveram resultados distintos em relação aos mais experientes.
Embora não tenham sido relatados erros identificados por esse grupo, houve um consenso
de que a utilização da ferramenta aumentou sua consciência em relação às características
sensíveis. Anteriormente, era necessário que os profissionais definissem os atributos
sensíveis, mas, nesse caso, eles foram capazes de defini-los por conta própria.

Por fim, a ferramenta AIF360 ocupa uma posição semelhante a outra já citada,
porém demonstra possuir uma gama maior de material sobre o assunto. Bellamy et al.
(2019) nos mostra que a ferramenta dispõe de aproximadamente 71 métricas de detecção
de viés, 9 algoritmos de mitigação de viés e uma funcionalidade única de explicações
métricas extensíveis para ajudar os consumidores do sistema a entender o significado dos
resultados da detecção de viés. Este afirma que o paradigma no desenvolvimento desta
ferramenta é de disponibilizar um ambiente extenso e fácil de usar, permitindo que
usuários transformem seus dados “brutos” em um modelo justo, enquanto
compreendendo o processo intermediário de conversão.

Quanto a utilização prática da ferramenta, o erro com relação a “atributos


protegidos/sensíveis” foi identificado por todos os desenvolvedores experientes. Com
relação à conjunto de dados e transformações, “atributos irrelevantes” foram identificados
por 6 dos 9 desenvolvedores, etc. O erro “atributos protegidos/sensíveis” também foram
citados por todos os desenvolvedores. O erro de “escolhas” foi discutido por 5 dos 9
desenvolvedores, e a “mitigação de viés” foi discutida por 6 dos 9. Deste modo, podemos
notar uma consistência no processo de identificação dos problemas causadores do
surgimento do viés, além de identificação de outros problemas, ao utilizar esta ferramenta.
5. Conclusão
Os algoritmos de IA têm se disseminado amplamente por diversos setores da sociedade,
incluindo setores socialmente sensíveis, como economia, segurança e saúde. Tal
disseminação tem trazido à tona as preocupações dos pesquisadores da área quanto aos
possíveis prejuízos que um sistema de IA pode causar na vida dos indivíduos que façam
parte de minorias sociais. Em decorrência disso, a busca pelo desenvolvimento de um
método capaz de orientar as decisões de uma IA de forma justa e equitativa expandiu-se
no meio científico.

Porém, devido as vastas possibilidades de implementação da tecnologia em


funções diversas, como análise de probabilidades, imagens, etc., além das limitações na
capacidade de análise dos algoritmos, torna o desenvolvimento de um método único capaz
de mitigar o surgimento desses vieses um obstáculo substancial. Técnicas de aprendizado
de máquina foram desenvolvidas, a fim de melhorar a capacidade de análise de tais
sistemas e em muitos casos alcançando este objetivo, porém os vieses continuam a
manifestar-se. Pesquisadores então passaram a encarar este obstáculo não apenas como
um erro matemático em suas análises, mas como um reflexo do preconceito existente na
sociedade, logo também refletido em seus dados. O método de fair learning, ou
aprendizado justo, surgiu como o resultado desta descoberta, e com ele foram
desenvolvidas ferramentas que se mostraram, com sua devida prudência, bem-sucedidas
na identificação e mitigação destes erros. Tal método buscaria atributos sensíveis dentro
dos dados usados para analise, esses que poderiam se tornar responsáveis pelo surgimento
do viés que ainda aflige a sociedade.

Essas descobertas trazem uma luz a esse problema, porém a pouca divulgação de
ferramentas do tipo continua por manter uma sombra sobre esse assunto. Este trabalho
tem como objetivo discorrer sobre os métodos capazes de identificar e mitigar o
surgimento de erros nas tomadas de decisões, a fim de divulgar a existência e a capacidade
do mesmo em busca de conscientizar desenvolvedores iniciantes a se preocuparem não
apenas com a qualidade de seus algoritmos, mas seus impactos sociais.

6. Referências

Vanian, J. (2018) “Artificial intelligence can imitate and enhance human decision-making
and amplify human prejudices: Can Big Tech tackle A.I.'s discrimination problem?”.
Em: Fortune Media IP Limited.

Ludermir, T. B. (2021) “Inteligência Artificial e Aprendizado de Máquina: estado atual e


tendências”. Em: v. 35 n. 101: Estudos Avançados.

Haenlein, M. e Kaplan, A. (2019) “A Brief History of Artificial Intelligence: On the Past,


Present, and Future of Artificial Intelligence”. Em: California Management Review,
pag. 5-14.
Kaplan, A e Haenlein, M. (2019) “Siri, Siri, in my hand: Who‘s the fairest in the land?:
On the interpretations, illustrations, and implications of artificial intelligence.”
Em: Business Horizons, pag. 15-25.

Pacheco, C. A. R. e Pereira, N. S. (2018) “Deep Learning Conceitos e Utilização nas


Diversas Áreas do Conhecimento”. Em: Revista Ada Lovelace, pag. 34–49.

Ntoutsi, E. et al. (2019) “Bias in data‐driven artificial intelligence systems: An


introductory survey.” Em: Wiley interdisciplinary reviews. Data mining and
knowledge discovery.

Geirhos, R. et al. (2020) “Shortcut learning in deep neural networks”. Em: Nature
Machine Intelligence.

Monard, M. C. e Baranauskas, J. A. (2003) “Conceitos Sobre Aprendizado de


Máquina”. Em: Sistemas Inteligentes Fundamentos e Aplicações. 1a ed.

Vieira, L. M. (2019) “A problemática da inteligência artificial e dos vieses algorítmicos:


caso compas”. Em: 2019 Brazilian Technology Symposium.

Detrixhe, J. (2019) “FINTECH algorithms discriminate 40% less than traditional


lenders”, https://qz.com/1647701/fintech-algorithms-discriminate-40-less-than-
traditional-lenders.

Géron, A. (2019) “Types of Machine Learning Systems”. Em: HANDS-ON Machine


Learning with Scikit-Learn, Keras, and TensorFlow: Concepts, Tools, and Techniques
to Build Intelligent Systems. 3a edição.

Quaresma, A. (2021) “Inteligência artificial fraca e força bruta computacional”. Em:


International Technology Science and Society Review, 1a ed, p. 68-78.

Fletcher, R. R. Et Al. (2020) “Addressing Fairness, Bias, and Appropriate Use of


Artificial Intelligence and Machine Learning in Global Health”. Em: Frontiers in
artificial intelligence.

Pandey, H. et al. (2022) “Comparison of the usage of Fairness Toolkits amongst


practitioners: AIF360 and Fairlearn”. Em: EEMCS faculty Delft University of
Technology.

Mehrabi, N. et al. (2021) “A Survey on Bias and Fairness in Machine Learning”. Em:
ACM Computing Surveys, 6a edicão.
Martin, D. (2021) “The Unprecedented Downside of Artificial Intelligence: Proxy
Discrimination”, https://embeddedcomputing.com/technology/ai-machine-
learning/ai-dev-tools-frameworks/the-unprecedented-downside-of-artificial-
intelligence-proxy-
discrimination#:~:text=The%20proxy%20discrimination%20that%20results,women
%20applicants%20that%20have%20children.

Costa Da Silva, J. (2018) “Aprendendo em uma Floresta Aleatória: Veja a floresta e não
as árvores”, https://medium.com/machina-sapiens/o-algoritmo-da-floresta-aleatória-
3545f6babdf8.

Choi, K. et al. (2020) “Fair Generative Modeling via Weak Supervision”. Em:
Proceedings of the 37th International Conference on Machine Learning.

Bellamy, R. K. E. et al. (2019) “AI Fairness 360: An Extensible Toolkit for Detecting,
Understanding, and Mitigating Unwanted Algorithmic Bias”. Em: IBM Journal of
Research and Development.

Você também pode gostar