Escolar Documentos
Profissional Documentos
Cultura Documentos
Discriminação algorítmica
Origem: Wikipédia, a enciclopédia livre.
Discriminação algorítmica é um conceito que corresponde ao ato de algoritmos tomarem atitudes discriminatórias ou
exclusórias em relação a seres humanos. Estas atitudes podem ser desde simples erros em detecções faciais, até a
condenação de um indivíduo por algoritmos jurídicos baseado em suas características raciais. A discriminação
algorítmica está diretamente relacionada ao viés algorítmico
Índice
Viés algorítmico
Tipos de vieses algorítmicos
Causas do viés algorítmico
Casos reais de discriminações algorítmicas
Problemas de reconhecimento facial em câmeras digitais
Sugestões de anúncios racistas
Análise de currículos discriminatória
Outros exemplos de discriminação algorítmica
Código fechado e o viés algorítmico
Impactos causados pela discriminação algorítmica
Algorithmic Justice League (AJL)
Referências
Veja Também
Referências Externas
Viés algorítmico
O viés (em inglês bias) é um conceito que pode ser descrito como a "distorção do julgamento de um observador por
estar ele intimamente envolvido com o objeto de sua observação". O viés algorítmico é um tipo de viés que está
relacionado à construção de algoritmos. Quando uma máquina é treinada para ter uma inteligência artificial, ela
necessita passar por um processo de aprendizagem para que tome as decisões que o seu criador julguem corretas. Para
que isso ocorra, é necessária uma quantidade grande de dados aprendizado para que ela treine seu conhecimento
sobre a decisão a ser tomada baseada em uma função de decisão escolhida no seu desenvolvimento[1].
Quando os algoritmos de aprendizagem de máquina são relacionadas a pessoas, eles podem possuir um viés
discriminatório por diversos fatores, tanto relacionados ao seu treinamento quanto à sua implementação e isso é
chamado de viés algorítmico.
https://pt.wikipedia.org/wiki/Discriminação_algorítmica 1/5
07/10/2019 Discriminação algorítmica – Wikipédia, a enciclopédia livre
Algoritmos faciais são uns dos principais tipos de software que sofrem do viés algorítmico. Estes algoritmos precisam
de uma base de dados de faces para seu treinamento, quando essa base de dados não possui uma diversidade de rostos
de formas, cores e tipos diferentes, o algoritmo não irá detectar as faces que não possuem características semelhantes
às faces dos dados de aprendizado, resultando em um caso de viés algorítmico. Algoritmos de sugestão de anúncios
também sofrem com o viés, por causa de um treinamento errado ou uma função de decisão mal ajustada, eles podem
realizar sugestões racistas e machistas, como sugerir apenas produtos de limpeza ou beleza para mulheres e sugerir
anúncios de consulta de ficha criminal para quando nomes predominantes em pessoas negras são buscados em
ferramentas de pesquisa[2][3].
https://pt.wikipedia.org/wiki/Discriminação_algorítmica 2/5
07/10/2019 Discriminação algorítmica – Wikipédia, a enciclopédia livre
Em 2013, a Google foi acusada de emitir sugestões de comentários racistas por uma professora da universidade de
Harvard. A professora Latanya Sweeney, após pesquisar seu próprio nome na ferramenta de busca, recebeu um
anúncio de uma plataforma de checagem de histórico criminal com o seu nome nele. Após o ocorrido, Sweeney decidiu
fazer uma pesquisa sobre a influência de aspectos raciais em plataformas de anúncio. Ela pesquisou mais de 2.000
nomes racialmente associados, que correspondiam a nomes que eram mais comumente dados a pessoas negras do que
a pessoas brancas, e obteve o resultado que pesquisas de nomes associados a pessoas negras eram mais suscetíveis a
serem bombardeados com anúncios de checagem de histórico criminal. Sweeney chamou atenção para o impacto que
isso poderia causar aos afetados, se um empregador pesquisasse sobre o nome de um candidato de emprego negro e
ele visse o resultado associado sugerindo que eles foram presos isso provavelmente prejudicaria o candidato e faria ele
possivelmente perder a vaga de emprego. [6][7]
https://pt.wikipedia.org/wiki/Discriminação_algorítmica 3/5
07/10/2019 Discriminação algorítmica – Wikipédia, a enciclopédia livre
também são utilizados para forçar empresas que são suspeitas de produzirem softwares com viés algorítmico a
abrirem seu código para um grupo de analisadores técnicos. Esta falta de transparência é discutida por Cathy O' Neil
em seu livro "Weapons of math destruction" e o grande impacto que isso causa na sociedade[8][11].
Identificar o viés algorítmico ao desenvolver ferramentas para o teste de viés em algoritmos de aprendizagem de
máquina.
Mitigar o viés algorítmico ao desenvolver métodos para inclusão em amplo espectro durante o design,
desenvolvimento, teste e distribuição de softwares.
Chamar atenção através de materiais publicitários sobre o problema do viés algorítmico, o impacto causado por
ele nos indivíduos afetados e outras informações importantes sobre este tema. [12][13]
Referências
1. [1] (https://books.google.com.br/books/about/Machine_Learning.html?id=EoYBngEACAAJ&redir_esc=y) Machine
Learning - Tom M. Mitchell - 1997
2. [2] (https://www.ted.com/talks/joy_buolamwini_how_i_m_fighting_bias_in_algorithms#t-44733) Joy
Buolamwini:How I'm fighting bias in algorithms - TED - 2016
3. [3] (https://www.youtube.com/watch?v=Bmusl2dOZCw) Harvard Accuses Google Ads of Racism - The Young
Turks - 2013
4. [4] (http://content.time.com/time/business/article/0,8599,1954643,00.html) Are Face-Detection Cameras Racist? -
TIME, 2010
5. [5] (http://news.bbc.co.uk/2/hi/technology/8429634.stm)HP camera 'can't see' black faces - BBC, 2009
6. [6] (http://dl.acm.org/citation.cfm?id=2460278)Sweeney, Latanya. "Discrimination in online ad delivery." Queue
11.3 (2013): 10.
7. [7] (http://www.huffpostbrasil.com/entry/online-racial-profiling_n_2622556)Google's Online Ad Results Guilty Of
Racial Profiling, According To New Study - HuffPost, 2013
8. [8] (http://www.nationalbook.org/nba2016_nf_oneil-weapons-of-math-destruction.html#.WUn_BMaQzIU)
Weapons of math destruction - A book by Cathy O'Neil, 2016
9. [9] (https://www.theguardian.com/science/2016/sep/01/how-algorithms-rule-our-working-lives) How algorithms
rule our working lives - The Guardian, 2016
10. [10] (https://www.theguardian.com/technology/2016/dec/19/discrimination-by-algorithm-scientists-devise-test-to-d
etect-ai-bias) Discrimination by algorithm: scientists devise test to detect AI bias - The Guardian - 2016
11. [11] (http://www.wired.co.uk/article/creating-transparent-ai-algorithms-machine-learning) Holding AI to account:
will algorithms ever be free from bias if they're created by humans? - Wired, 2016
12. [12] (http://www.ajlunited.org/) Algorithmic Justice League - 2016
13. [13] (https://medium.com/mit-media-lab/the-algorithmic-justice-league-3cc4131c5148) The Algorithmic Justice
League - Medium, 2016
https://pt.wikipedia.org/wiki/Discriminação_algorítmica 4/5
07/10/2019 Discriminação algorítmica – Wikipédia, a enciclopédia livre
Veja Também
Aprendizagem de máquina
Responsabilização algorítmica
Algoritmos de decisão
Algoritmo
Inteligência artificial
Referências Externas
When algorithms discriminate - New York Times, 2015 (https://www.nytimes.com/2015/07/10/upshot/when-algorit
hms-discriminate.html)
[AI programs exhibit racial and gender biases, research reveals - The Guardian, 2017 (https://www.theguardian.c
om/technology/2017/apr/13/ai-programs-exhibit-racist-and-sexist-biases-research-reveals) ]
[Bias test to prevent algorithms discriminating unfairly - News Scientist, 2017 (https://www.newscientist.com/articl
e/mg23431195-300-bias-test-to-prevent-algorithms-discriminating-unfairly/)]
[Sandvig, Christian, et al. "Can an Algorithm be Unethical?." Ann Arbor 1001.48109 (2015): 1285. (https://pdfs.se
manticscholar.org/a8eb/6ab55363ad0ffad6a05c3f0b97874a2c3c62.pdf)]
[Chander, Anupam. "The Racist algorithm?." (2016). (https://papers.ssrn.com/sol3/papers.cfm?abstract_id=27952
03)]
[A white mask worked better': why algorithms are not colour blind - The Guardian, 2017 (https://www.theguardian.
com/technology/2017/may/28/joy-buolamwini-when-algorithms-are-racist-facial-recognition-bias)]
[Is an algorithm any less racist than a human? - The Guardian, 2016 (https://www.theguardian.com/technology/20
16/aug/03/algorithm-racist-human-employers-work)]
[Discrimination, Algorithms and Privacy - Yale Law Schoo, 2017l (https://law.yale.edu/system/files/area/center/isp/
documents/discrimination_algorithms_and_privacy.pdf)]
Obtida de "https://pt.wikipedia.org/w/index.php?title=Discriminação_algorítmica&oldid=49901760"
Esta página foi editada pela última vez às 16h47min de 20 de setembro de 2017.
Este texto é disponibilizado nos termos da licença Atribuição-CompartilhaIgual 3.0 Não Adaptada (CC BY-SA 3.0) da
Creative Commons; pode estar sujeito a condições adicionais. Para mais detalhes, consulte as condições de
utilização.
https://pt.wikipedia.org/wiki/Discriminação_algorítmica 5/5