Escolar Documentos
Profissional Documentos
Cultura Documentos
Viés de Gênero em Inteligência Artificial: A Necessidade de Diversidade e Teoria de Gênero em Aprendizado de Máquina
Viés de Gênero em Inteligência Artificial: A Necessidade de Diversidade e Teoria de Gênero em Aprendizado de Máquina
A inteligência artificial está influenciando cada vez mais as opiniões e o comportamento das
artificial refletirá os valores de seus criadores” [10]. Os valores sociais que são
Ao longo dos séculos, os humanos desenvolveram a teoria crítica para informar as decisões
de máquina treinados em texto perpetuem preconceitos requer uma
aprende principalmente observando os dados que são apresentados. Embora a capacidade Os desenvolvedores de inteligência artificial são predominantemente do sexo masculino.
de uma máquina de processar grandes volumes de dados possa resolver isso em parte, se Aqueles que reconheceram e estão procurando resolver esse problema são
esses dados estiverem carregados de conceitos estereotipados de gênero, a aplicação predominantemente mulheres (Kate Crawford, Fei-Fei Li e Joy Buolamwini, para citar
resultante da tecnologia perpetuará esse viés. Embora alguns estudos recentes tenham apenas algumas). Segue-se que, para evitar que algoritmos tendenciosos de gênero
procurado remover preconceitos de algoritmos aprendidos, eles ignoram em grande parte influenciem as decisões em nossa sociedade, a diversidade na área de aprendizado de
décadas de pesquisa sobre como a ideologia de gênero está incorporada na linguagem. O máquina é essencial. Os benefícios da diversidade no local de trabalho estão bem
conhecimento dessa pesquisa e sua incorporação em abordagens de aprendizado de documentados e derivam em grande parte da inclusão de uma série de perspectivas críticas.
máquina a partir de texto ajudaria a evitar a geração de algoritmos tendenciosos. A diversidade no desenvolvimento de tecnologias de aprendizado de máquina pode acelerar
soluções para a questão do preconceito de gênero por meio de uma melhor avaliação dos
dados de treinamento, incorporação de conceitos de justiça em algoritmos [16] e a avaliação
Os principais pensadores no campo emergente que abordam o viés na inteligência artificial do impacto potencial do preconceito de gênero no contexto do pretendido uso da tecnologia.
também são principalmente mulheres, sugerindo que aqueles que são potencialmente
afetados pelo viés são mais propensos a ver, entender e tentar resolvê-lo. O equilíbrio de
gênero no aprendizado de máquina é , portanto, crucial para evitar que os algoritmos Houve tentativas de abordar o viés de gênero no aprendizado
perpetuem ideologias de gênero que desfavorecem as mulheres. de máquina por meio da revisão de associações baseadas em
gênero aprendidas e modificação dos algoritmos para excluir
estereótipos [4]. No entanto, há pouca consideração das décadas
PALAVRAS-CHAVE de pesquisa que existem sobre a relação entre ideologia de gênero e linguagem.
Incorporar a teoria de gênero, em particular a teoria linguística feminista , na abordagem
Preconceito de gênero, aprendizado de máquina, análise de texto
do aprendizado de máquina a partir de dados textuais pode impedir o aprendizado do viés
de gênero e evitar a necessidade de modificar os algoritmos.
1. INTRODUÇÃO
14
Machine Translated by Google
mostrando seus efeitos danosos [3, 19]. Esses estudos levaram ao desenvolvimento contextos sexuais. Isso demonstra como técnicas para analisar não apenas a
de diretrizes para evitar o uso de linguagem tendenciosa ou sexista [8, 20]. Por frequência de menções, mas o contexto mais amplo do uso de termos para homens e
exemplo, a editora McGraw-Hill adotou diretrizes editoriais para evitar linguagem mulheres em textos podem detectar viés de gênero nos dados de treinamento para
sexista [25]. Seria lamentável ter que esperar até que os algoritmos de aprendizado aprendizado de máquina.
de máquina com viés de gênero repetissem as injustiças do passado antes que uma Títulos honoríficos como 'Miss' e 'Mrs' refletem o estado civil
ação que impedisse o viés de gênero fosse tomada. de mulheres, mas o equivalente masculino não, demonstrando como as mulheres são
retratadas em termos de seus relacionamentos com os outros [20, 22]. Na década de
1970, 'Ms' foi introduzido como um equivalente de 'Mr' para resolver essa assimetria.
3 APRENDENDO A VISIBILIDADE DO TEXTO No entanto, há provas de que 'Ms' está a ser utilizado para substituir 'Mrs', mas não
'Miss' [15].
O trabalho no campo da estilística sobre gênero e linguagem identificou
características linguísticas recorrentes da linguagem que são atribuíveis ao
3.2 Ordenação O
viés de gênero [22]. Este trabalho se presta a uma abordagem computacional
para identificar o viés de gênero e pode ser usado para removê-lo de dados preconceito de gênero na linguagem é evidente na ordenação dos itens nas listas.
de treinamento para um algoritmo de aprendizado de máquina. O que se Em inglês, é convenção ao nomear pares de cada gênero, nomear
segue demonstra como um conceito abstrato como o viés de gênero pode primeiro o masculino (por exemplo, filho e filha, marido e mulher, Sr
ser operacionalizado em características mensuráveis do texto que podem e Sra) [22]. Essa prática demonstra um viés que apresenta uma
ser identificadas computacionalmente. Essa conexão de perspectivas ordem social baseada no gênero [22-24, 30]. Esta prática de nomear
teóricas e críticas sobre a linguagem com o estágio de extração de recursos primeiro o mais poderoso de um par é evidenciada pelos seguintes
do aprendizado de máquina é a chave para abordar o viés na inteligência artificial. pares comuns: 'mestre/servo'
enfermeiro'
, 'professor/aluno'
[23]. e 'médico/
Um estudo abrangente da ordenação de binômios pessoais no British National
Corpus descobriu exemplos de pares de palavras estudados incluindo 'homem/
3.1 Nomeação O
mulher', 'menina/menino', títulos de nobreza como 'dama/cavalheiro', 'princesa/
preconceito de gênero pode ser reconhecido em termos usados para descrever
príncipe', realeza termos como 'esposa/marido', ocupações como 'atriz/ator' e pronomes
grupos de homens e mulheres. Por exemplo, um pai é frequentemente descrito como um
como 'ele/ela' [24]. Embora houvesse variações na ordem de nomeação dos pares, o
'homem de família' sem equivalente comumente usado, como ' mulher de família' [27].
gênero foi o fator de influência mais importante sobre qual dos pares de termos foi
Termos como 'mãe solteira', 'mãe trabalhadora', ' mulher de carreira' e 'mãe'
nomeado primeiro.
comumente usados na mídia também revelam preconceitos sociais das mulheres [22].
Verificou-se que os termos ocupacionais usados em relação às mulheres eram
frequentemente pré-modificados por uma especificação de gênero, como 'advogada'
3.3 Descrições tendenciosas Em uma
e 'mulher juíza', identificando sua existência como contrária às expectativas da
sociedade [28]. análise dos adjetivos usados para descrever homens e mulheres em jornais
Outra manifestação de preconceito de gênero que está em declínio é o uso de britânicos, [7] descobriu que os homens eram mais frequentemente descritos em
termos de seu comportamento, enquanto as mulheres eram descritas
termos androcêntricos como 'ele', 'ele', 'homem' e 'humanidade' para se referir
tanto a homens quanto a mulheres [2, 15]. No entanto, ao se referir a grupos, onde em termos de aparência e sexualidade. Em uma análise do contexto de uso
há uma expectativa de que os indivíduos em questão sejam mais provavelmente do termo 'menina', a pesquisa mostrou que meninas e meninos são
de um determinado gênero, esse gênero será usado para se referir a homens e representados de forma diferente, sendo as meninas mais objetificadas [ 29]
mulheres no grupo [18]. e retratadas em contextos mais negativos [2]. A extração de adjetivos usados
Por exemplo, em referência a um grupo de bombeiros, é mais provável que os para descrever mulheres em dados de treinamento poderia, portanto, ser
indivíduos sejam referidos em termos masculinos. No contexto do aprendizado de incorporada como parte da prova de gênero dos dados textuais usados para
máquina, enquanto certos recursos linguísticos podem ser menos usados em treinar algoritmos de aprendizado de máquina.
fontes textuais atuais, algoritmos de aprendizado de máquina treinados em corpora Como a incorporação de palavras aprende estereótipos tem sido o foco de
mais antigos podem refletir maneiras desatualizadas de se referir a homens e pesquisas recentes sobre preconceito de gênero e inteligência artificial [4].
mulheres. Avaliar o que constitui uma associação estereotipada tem sido em grande parte
As mulheres são descritas como meninas com mais frequência do que os resultado da interpretação do pesquisador. Entretanto [26] analisaram o Corpus
homens são descritos como meninos [27]. Em uma análise do uso dos termos nacional britânico e extraíram colocações de homens e mulheres e identificando
girl(s) e boy(s) em um corpus de texto do inglês britânico, americano e aqueles que foram usados apenas para cada gênero, revelando estereótipos de
neozelandês , [28] descobriu que o termo 'girl' é 3 vezes mais provável do que o gênero marcantes (Tabela 1). Outros tipos de estereótipos foram identificados em
termo 'menino' para se referir a um adulto e que as mulheres foram descritas como relação à sexualidade, beleza [12] e níveis de agência [22].
15
Machine Translated by Google
Viés de gênero na inteligência artificial: a necessidade de diversidade e teoria de gênero GE'18, 28 de maio de 2018, Gotemburgo, Suécia
Adjetivos de gênero [3] Sandra L Bem e Daryl J Bem. 1971. Capacitando a mulher para conhecer seu lugar: Os
Feminino Mandona, tagarela, fofoqueira, submissa, vadia, histérica, chorosa antecedentes sociais da mulher no mundo do trabalho. Departamento de Psicologia,
Universidade de Stanford.
[4] Tolga Bolukbasi, Kai-Wei Chang, James Y Zou, Venkatesh Saligrama e Adam T Kalai. 2016. O
Masculino Gregário, cauteloso, afável, amável, avuncular, mais divertido, bem- homem está para o programador de computador como a mulher está para a dona de casa?
humorado, jovial, simpático, educado, gentil, cruel, severo, debiasing word embeddings. Em Avanços em Sistemas de Processamento de Informação
Neural. 4349-4357.
insuportável, mais corajoso, humano, digno da lei, paciente, sincero,
[5] Joy Buolamwini e Timnit Gebru. 2018. Tons de Gênero: Disparidades de Precisão Interseccional
tolerante, confiável, verdadeiro, honesto, ansioso, insano, astuto, na Classificação Comercial de Gênero. Em Conferência sobre Justiça, Responsabilidade e
erudito, autodidata, ignorante Transparência. 77-91.
[6] Judith Butler. 1990. Problemas de gênero e a subversão da identidade. Nova York e
Londres: Routledge (1990).
[7] Carmen Rosa Caldas-Coulthard e Rosamund Moon. 2010. “Curvy, hunky, kinky”: Usando
Tabela 1: Adjetivos de Personalidade de Gênero do BNC
corpora como ferramentas para análise crítica. Discurso e Sociedade 21, 2 (2010), 99-133.
[8] Miller Casey, Swift Kate e Dowrick Stephanie. 1981. O Manual da Escrita Não Sexista: Para
Escritores, Editores e Palestrantes. Imprensa Feminina.
[9] Danielle Keats Citron e Frank Pasquale. 2014. A sociedade pontuada: devido processo legal
preconceito de gênero pelo qual essas metáforas usadas para retratar as mulheres
para previsões automatizadas. Wash. L. Rev. 89 (2014), 1.
são “mais prolíficas e mais depreciativas do que aquelas usadas exclusivamente [10] Kate Crawford. 2016. O problema do cara branco da inteligência artificial. O novo
para homens” [14, 17]. York Times (2016).
[11] Betty Friedan. 2001. A Mística Feminina. 1963. Nova York (2001).
[12] Katherine Frith, Ping Shaw e Hong Cheng. 2005. A construção da beleza: Uma análise
3.5 Presença de Mulheres no Texto transcultural da publicidade em revistas femininas. Jornal de comunicação 55, 1 (2005), 56–70.
[25] Janice Moulton, George M Robinson e Cherin Elias. 1978. Preconceito sexual no uso da
4. CONCLUSÕES linguagem: pronomes "neutros" que não são. American Psychologist 33, 11 (1978), 1032.
[26] Michael Pearce. 2008. Investigando o comportamento colocacional de HOMEM e MULHER no
Identificar o viés de gênero em dados de treinamento para algoritmos de BNC usando Sketch Engine. Corpora 3, 1 (2008), 1–29.
aprendizado de máquina é uma tarefa complexa, mas não intransponível. A [27] Suzanne Romaine et al. 1998. Comunicando o gênero. Imprensa Psicologia.
[28] Robert Sigley e Janet Holmes. 2002. Olhando para meninas em corpora de inglês.
seção anterior mostra como um conceito tão abstrato pode ser operacionalizado Journal of English Linguistics 30, 2 (2002), 138–157.
e capturado em características linguísticas computacionalmente identificáveis [29] Charlotte Taylor. 2013. Em busca de similaridade usando estudos de discurso assistidos por
corpus. Corpora 8, 1 (2013), 81-113.
da linguagem. Embora o fato de que algoritmos de aprendizado de máquina
[30] Gülÿen Musayeva Vefali e Fulya Erdentuÿ. 2010. As estruturas coordenadas em um corpus de
possam aprender preconceito de gênero possa ser de interesse para palestras da Nova Era: “homem e mulher”/ “mulher e homem”.
pesquisadores que procuram entender sua prevalência na sociedade, não é Text & Talk-An Interdisciplinary Journal of Language, Discourse & Communication Studies 30,
4 (2010), 465–484.
uma vantagem em aplicações práticas que tomam decisões sobre a vida das
pessoas. Há um foco emergente na justiça no aprendizado de máquina em
geral e é essencial que as mulheres estejam no centro de quem define o conceito de justiça.
Avançar na carreira das mulheres na área de Inteligência Artificial não é apenas um
direito em si; é essencial evitar avanços na igualdade de gênero apoiados por
décadas de desfazimento do pensamento feminista .
REFERÊNCIAS
[1] Omar Ali, Ilias Flaounas, Tijl De Bie, Nick Mosdell, Justin Lewis e Nello Cristianini. 2010.
Automatizando a análise de conteúdo de notícias: Uma aplicação ao preconceito de gênero e
legibilidade. Em Anais do Primeiro Workshop sobre Aplicações de Análise de Padrões. 36-43.
[2] Paulo Baker. 2008. Textos sexuados: linguagem, gênero e sexualidade. Equinócio.
16