Você está na página 1de 7

Traduzido do Inglês para o Português - www.onlinedoctranslator.

com

10
10 Equívocos SOBRE

APRENDIZAGEM DE MÁQUINA

10 Equívocos SOBRE APRENDIZAGEM DE MÁQUINA


A UE identificou a inteligência artificial (IA) como uma das tecnologias mais relevantes do século XXI e
destacou1a sua importância na estratégia para a transformação digital da UE. Tendo uma vasta gama
de aplicações, a IA pode contribuir em áreas tão díspares como ajudar no tratamento de doenças
crónicas, combater as alterações climáticas ou antecipar ameaças à cibersegurança.

“Inteligência artificial”, no entanto, é um termo abrangente para tecnologias que visam imitar as
capacidades de raciocínio humano, que podem ter aplicações e limitações muito diferentes.
Frequentemente, os fornecedores de tecnologia promovem os seus sistemas alegando que utilizam
IA, sem especificar que tipo de IA.

O aprendizado de máquina (ML) é um ramo específico da IA, aplicado à resolução de problemas específicos e
limitados – como tarefas de classificação ou previsão. Ao contrário de alguns outros tipos de IA que tentam
destilar a experiência humana (por exemplo, sistemas especialistas2), o comportamento dos sistemas de
aprendizado de máquina não é definido por um conjunto predeterminado de instruções.

Os modelos de ML são treinados usando conjuntos de dados. Durante o seu treinamento, os sistemas de ML se adaptam de
forma autônoma aos padrões encontrados entre as variáveis de um determinado conjunto de dados, criando correlações. Uma
vez treinados, esses sistemas usarão os padrões aprendidos para produzir seus resultados.
Ao contrário de outros tipos de sistemas de IA3, o desempenho4dos modelos de ML depende muito da
precisão e representatividade dos dados de treinamento.

O objetivo deste documento é dissipar os equívocos comuns em torno dos sistemas de BC, sublinhando ao
mesmo tempo a importância de implementar estas tecnologias de acordo com os valores da UE, os
princípios de proteção de dados e o pleno respeito pelos indivíduos.

1 Comunicação da Comissão, Inteligência Artificial para a Europa, https://eur-lex.europa.eu/legal-


content/EN/TXT/?uri=COM%3A2018%3A237%3AFIN
2 Sistemas especialistas são programas de computador projetados para resolver problemas complexos em áreas específicas. Eles contam com uma base de

conhecimento, que define as regras para a tomada de decisões, e com um mecanismo de inferência, que aplica as regras.

3 No aprendizado de máquina, o algoritmo aprende regras à medida que estabelece correlações entre entradas e saídas. No raciocínio simbólico, as

regras são criadas através da intervenção humana. Primeiro, os humanos devem aprender as regras pelas quais dois fenómenos se relacionam e

depois codificar essas relações no sistema de raciocínio simbólico. Portanto, a precisão do sistema simbólico de IA depende da qualidade das

relações definidas pelo homem, e não da qualidade do(s) conjunto(s) de dados de entrada.

4 Simplificando, o desempenho de um sistema de ML é o quão “boas” suas previsões realmente são. Embora seja um conceito simples, a
complexidade tem a ver com identificar o que é considerado “bom”. Existem várias “métricas de desempenho” que avaliam os modelos
de ML de maneira diferente: precisão é a fração de previsões que um modelo acertou; A precisão é a razão entre o número de
resultados corretos e o número de todos os resultados retornados; Recall é a razão entre o número de resultados corretos e o número
de resultados que deveriam ter sido retornados. Dependendo do contexto da aplicação, algumas métricas de desempenho podem ser mais
relevantes que outras.

10 Equívocos SOBRE APRENDIZAGEM DE MÁQUINA


1
MAL-ENTENDIDO
Correlação implica causalidade.

Fato: A causalidade exige mais do que


encontrar correlações.
2 MAL-ENTENDIDO
Ao desenvolver aprendizado de máquina
sistemas, quanto maior a variedade de
dados, melhor.

Fato: os conjuntos de dados de treinamento de ML


“Causalidade” é a relação que existe entre causa
devem atender à precisão e à representatividade
e efeito. “Correlação” é a relação que existe
entre dois fatores que ocorrem ou evoluem com limites.
alguma sincronização.
O crescente desenvolvimento de sistemas de ML levou a

Os sistemas de ML são muito eficientes em encontrar uma maior procura de partilha de dados pessoais e não

correlações, mas carecem de capacidade analítica para ir além pessoais, porque os desenvolvedores de ML não têm dados

disso e estabelecer uma relação causal5. suficientes para melhorar o desempenho dos seus sistemas.

Por exemplo, se for dado um conjunto de dados composto por

pontuações de testes de QI e a altura relacionada do indivíduo (mas Normalmente, o treinamento de sistemas de ML requer grandes

não a idade), um modelo de ML poderia prever erroneamente que quantidades de dados, dependendo da complexidade da tarefa a ser

pessoas altas são mais inteligentes do que pessoas mais baixas, resolvida. No entanto, adicionar mais dados de treinamento a um

estabelecendo uma correlação entre o aumento da altura e o processo de desenvolvimento de modelo de aprendizado de máquina

aumento das pontuações de QI. . nem sempre melhorará o desempenho do sistema.

No entanto, tal fenómeno pode estar enraizado no facto de as Na verdade, poderia criar novos problemas ou agravar os já

crianças geralmente terem pontuações mais baixas do que os adultos existentes. Por exemplo, adicionar mais imagens masculinas de

nos testes de QI. pele clara aos conjuntos de dados de treinamento de


reconhecimento facial não ajudará a corrigir quaisquer
6
É possível treinar um sistema de ML para inferir doenças usando preconceitos de gênero ou étnicos existentes nos sistemas .

um conjunto de dados com correlações entre sintomas e


doenças. No entanto, esse mesmo sistema pode não ser O RGPD exige que o tratamento de dados pessoais seja

adequado para explicar o que está a causar a doença inferida. proporcional à sua finalidade. Do ponto de vista da
proteção de dados, não é uma prática proporcional
aumentar substancialmente a quantidade de dados
Esses exemplos ilustram que a supervisão humana é
pessoais no conjunto de dados de formação para obter
necessária para garantir que os sistemas de ML identifiquem
apenas uma ligeira melhoria no desempenho dos
as variáveis relevantes (as causas) para uma previsão ou
sistemas.
classificação.

Mais dados não melhorarão necessariamente o desempenho


dos modelos de ML. Pelo contrário, mais dados poderiam
trazer mais preconceitos.

5https://www.wired.com/story/ai-pioneer-algorithms- 6 Encontre uma análise de preconceito de gênero e étnico em: Gender Shades

entenda por que projetohttp://gendershades.org

10 Equívocos SOBRE APRENDIZAGEM DE MÁQUINA


4
3
MAL-ENTENDIDO MAL-ENTENDIDO
O ML precisa de conjuntos de dados de treinamento O desenvolvimento de sistemas de ML
totalmente livres de erros. requer grandes repositórios de dados ou o
compartilhamento de conjuntos de dados
Fato: Sistemas de ML com bom desempenho exigem
conjuntos de dados de treinamento acima de um de diferentes fontes.
determinado limite de qualidade.
Fato: O aprendizado federado permite o desenvolvimento
de sistemas de aprendizado de máquina
O desempenho do ML depende, entre outros fatores, da
sem compartilhar conjuntos de dados de treinamento.
qualidade dos seus conjuntos de dados de treinamento,
validação e teste. Portanto, os conjuntos de dados de
treinamento devem ser capazes de descrever um caso real de O agrupamento de dados e do sistema de ML em uma

forma abrangente e precisa o suficiente. infraestrutura de computação em nuvem controlada pelo


desenvolvedor de ML é uma solução comum para contornar

No entanto, a ciência estatística sugere que, apesar da restrições de desempenho. Esta é uma arquitetura conhecida

presença de erros individuais nos dados de entrada, é como aprendizagem centralizada. No entanto, embora a

possível calcular com precisão o resultado médio ao aprendizagem centralizada possa mitigar as restrições de

processar grandes quantidades de dados.7. Os modelos de desempenho, ainda existem certas considerações que devem ser

ML são tolerantes a imprecisões ocasionais em registros tidas em conta. Uma é que os dados pessoais exigem que tanto o

individuais8porque dependem da qualidade geral de grandes controlador de dados como o destinatário dos dados cumpram

conjuntos de dados usados para treiná-los. os princípios do GDPR de responsabilidade, segurança e


limitação de finalidade, entre outros. Outra é que repositórios

Alguns modelos de ML são treinados usando dados sintéticos, ou seja, maiores de dados pessoais aumentam o interesse de terceiros

conjuntos de dados de treinamento gerados artificialmente, que imitam em obter acesso não autorizado e agravam o impacto de uma

dados reais. Mesmo que nenhum dado real corresponda precisamente aos violação de dados pessoais.

dados sintéticos, os modelos de ML treinados em dados sintéticos podem

produzir bons desempenhos9. O aprendizado distribuído no local e o aprendizado federado são

arquiteturas de desenvolvimento alternativas ao aprendizado de

A privacidade diferencial é uma técnica que introduz ruído nos máquina centralizado. No aprendizado distribuído no local, cada

conjuntos de dados de treinamento para preservar a privacidade dos servidor controlador de dados baixa um modelo de ML genérico ou

titulares dos dados. Apesar das imprecisões produzidas pela pré-treinado de um servidor remoto. Em seguida, cada servidor local

privacidade diferencial, os modelos de ML são capazes de alcançar usa seu próprio conjunto de dados para treinar e melhorar o

desempenho do modelo genérico. Depois que o servidor remoto tiver


boas atuações10.
distribuído o modelo inicial aos dispositivos, nenhuma comunicação

adicional será necessária. Envolve as mesmas técnicas utilizadas na

aprendizagem centralizada, mas nos servidores do controlador. No

aprendizado federado, cada servidor controlador de dados treina um

modelo com seus próprios dados e envia apenas seus parâmetros11


7 “Quando você tem muitos dados, a lei dos grandes números tende a
para um servidor central para agregação. Os dados permanecem nos
certifique-se de que os dados sejam distribuídos uniformemente.” (p. 43)
Aprendizado de máquina prático com H20 por Darren CooEu tentei k, O'Really dispositivos e o conhecimento é compartilhado por meio de um
Media Inc. “Terceiro, as anomalias de dados foram eliminadas no processo de
modelo agregado com pares. Nenhuma arquitetura de aprendizagem
limpeza de dados, devido à chamada lei dos grandes números.”https://link.
springer.com/article/10.1186/s40537-019-0216-1 se adapta a todas as tarefas. No entanto, acumular dados em um ou
8 Na verdade, devido ao grande volume de variáveis de entrada (recursos) em alguns
vários servidores nem sempre é a melhor, nem a solução mais
Nos modelos de ML, muitas vezes é necessário usar técnicas que
introduzam ruído nos dados de entrada, como Análise de Componentes eficiente, e pode até se tornar um obstáculo para o desenvolvimento
Principais (PCA), uma técnica para agregar recursos. É claro que o ruído do aprendizado de máquina nas Pequenas e Médias Empresas (PME).
introduzido nos dados de entrada deve estar abaixo do valor de
12.
desempenho aceitável da aplicação.
9 Para exemplos de modelos de aprendizado de máquina treinados em
dados sintéticos: Amazon Alexahttps://www.amazon.science/blog/
tools-forgenerating-synthetic-data-helped-bootstrap-alexas- 11 No aprendizado de máquina, parâmetros são os valores que um aprendizado
newlanguage-releases algoritmo pode mudar independentemente à medida que aprende. Esses valores são
Google Waymohttps://blog.waymo.com/2019/08/learning- otimizados à medida que o modelo aprende, aperfeiçoando assim seu raciocínio.
todrive-beyond-pure-imitation_26.html 12 Abdulrahman, Sawsan & Tout, Hanine & Ould-Slimane, Hakima &
10 'Pesquisas recentes mostraram, de forma contraintuitiva, que o diferencial Mourad, Azzam & Talhi, Chamseddine & Guizani, Mohsen. (2020). Uma
privacidade pode melhorar a generalização em algoritmos de aprendizado de máquina pesquisa sobre aprendizagem federada: a jornada da aprendizagem
- em outras palavras, a privacidade diferencial pode fazer o algoritmo funcionar centralizada à distribuída no local e muito mais. Jornal IEEE Internet das
melhor!' https://www.nist.gov/blogs/cybersecurity-insights/ Coisas. PP. 10.1109/JIOT.2020.3030072.http://dx.doi. org/10.1109/
como implantar privacidade diferencial de aprendizado de máquina JIOT.2020.3030072

10 Equívocos SOBRE APRENDIZAGEM DE MÁQUINA


5 6
MAL-ENTENDIDO MAL-ENTENDIDO
Os modelos de ML melhoram automaticamente As decisões automáticas tomadas por
com o tempo. algoritmos de ML não podem ser explicadas.

Fato: uma vez implantado, o modelo de ML é Fato: Um modelo de ML bem projetado pode
o desempenho pode deteriorar-se e não produzir decisões compreensíveis para todas as
melhorará a menos que receba formação partes interessadas relevantes.
adicional.
Existem várias abordagens para fornecer explicações sobre
Durante o treinamento de um modelo de ML, o algoritmo é decisões baseadas em IA, e a maioria delas também pode
testado constantemente. Quando o modelo estiver maduro (ou ser aplicada a decisões de modelos de ML.
seja, puder resolver corretamente os problemas para os quais foi
projetado), ele será considerado adequado para ser implantado. Algumas abordagens esclarecem o processo de criação do
modelo, especificando quais parâmetros e hiperparâmetros14
Um modelo implantado e não mais treinado não “aprenderá” foram considerados e quanta influência cada um teve no
correlações adicionais com os dados recebidos, modelo resultante. Outros explicam como o modelo
independentemente da quantidade de dados fornecidos. Isso interpreta as características dos dados recebidos1,5
significa que, a menos que os modelos de ML continuem a ser permitindo que os indivíduos entendam e antecipem como o
treinados, não se pode esperar que eles evoluam. Isto constitui sistema se comportará em uma situação particular. Algumas
um risco para a precisão do sistema, uma vez que a sua outras abordagens não explicam o comportamento global
obsolescência em relação à realidade pode pôr em perigo a sua do modelo, mas concentram-se na forma como um
capacidade de fazer julgamentos ajustados e justos. determinado input influenciou a obtenção de um
determinado resultado.16.
A capacidade preditiva dos modelos de ML pode deteriorar-se ao
longo do tempo de duas maneiras diferentes: devido ao desvio Podem ser necessários diferentes graus de detalhe
de dados (mudanças substanciais nos dados de entrada) ou explicativo, dependendo dos indivíduos e do
devido ao desvio de conceito (quando a nossa interpretação dos contexto. A abordagem adequada será aquela que
dados muda enquanto a distribuição geral dos dados não consiga descrever claramente ao público o caminho
muda). ).13 percorrido até a tomada de decisão desde o
treinamento e criação do modelo.
Uma vez que o contexto do processamento onde o sistema
ML funciona pode evoluir, é necessário monitorizar o sistema
para detectar qualquer deterioração do modelo e agir sobre
esta deterioração (por exemplo, treinando ainda mais o
modelo com novos dados, tendo em conta os requisitos de
protecção de dados ).

14 Um hiperparâmetro é um parâmetro cujo valor é definido antes do início do


processo de aprendizado de máquina. Em contraste, os valores de outros
parâmetros são derivados através de treino.
15 Por exemplo, o valor da pressão arterial de um paciente é muito
relevante para detectar uma determinada doença, enquanto a idade do
paciente não é tão relevante.
16 Arya, V. et al. “Uma explicação não serve para todos: um kit de
13 Um guia abrangente sobre como monitorar seus modelos ferramentas e taxonomia de técnicas de explicabilidade de IA.”
em produçãohttps://neptune.ai/blog/how-to- ArXivabs/1909.03012 'tr(2019):https://arxiv.org/
monitoryour-models-in-production-guide abs/1909.03012v2

10 Equívocos SOBRE APRENDIZAGEM DE MÁQUINA


8
7
MAL-ENTENDIDO MAL-ENTENDIDO
Transparência em AM viola Os sistemas de ML estão menos sujeitos a
propriedade intelectual e não é preconceitos humanos.

compreendido pelo usuário.


Fato: Os sistemas de ML estão sujeitos a
Facto: Isto é possível para fornecer diferentes tipos de preconceitos e alguns
transparência significativa para os usuários de deles vêm de preconceitos humanos.
IA sem prejudicar a propriedade intelectual.
Os modelos de ML podem estar livres de preconceitos humanos
ou favoritismo em relação a um indivíduo ou grupo com base em
Os indivíduos devem receber informações suficientes sobre a
suas características inerentes ou adquiridas. No entanto, os
forma como os seus dados pessoais são tratados e os
sistemas de ML são selecionados, projetados, ajustados e
sistemas de IA não devem ser diferentes. Este tipo de
treinados com dados que, na maioria dos casos, foram
transparência não envolve necessariamente a divulgação de
selecionados por humanos. Os sistemas de ML podem estar
informações técnicas detalhadas que, na maioria dos casos,
sujeitos a mais de vinte tipos de preconceitos decorrentes do
não seriam significativas para os utilizadores.
processamento de dados17.

Da mesma forma que uma bula de um medicamento fornece


Alguns dos preconceitos que afetam os sistemas de ML reproduzem
informações sobre usos, usos indevidos e efeitos colaterais,
preconceitos humanos (por exemplo, um modelo treinado com perfis
abstraindo o usuário das descrições detalhadas dos
históricos de CEO será tendencioso em relação a candidatos do sexo
produtos químicos, um sistema de ML deve oferecer aos
masculino). Outros possíveis vieses de ML dependem de decisões
seus usuários informações significativas que os tornem
humanas, como a forma como os dados de treinamento são
conscientes da lógica aplicada, bem como a importância e as
amostrados ou o resultado apresentado. Às vezes, os sistemas de
consequências esperadas do tratamento.
aprendizado de máquina são usados em contextos que não são os

mesmos para os quais os modelos foram projetados.


Ao tratar dados pessoais através do BC, os responsáveis pelo

tratamento dos dados devem informar adequadamente os titulares


Resumindo, o objetivo é que os sistemas de ML se baseiem na
dos dados sobre os possíveis impactos nas suas vidas quotidianas.
experiência e no conhecimento fornecidos pelos seus criadores.

Exemplos de significativo Informação são


No entanto, os sistemas não herdam a humanidade
certificações, limitações do sistema, métricas de
necessária para lidar com situações excepcionais: não
desempenho do sistema, os dados pessoais utilizados
têm uma visão global do problema e têm capacidade
para entrada e gerados como saída, impacto de
limitada de adaptação às mudanças contextuais e de
determinados dados de entrada na saída, comunicações
serem flexíveis face a circunstâncias imprevistas.
a terceiros e riscos para direitos e liberdades.

17 Ninareh Mehrabi, Fred Morstatter, Nripsuta Saxena,


Kristina Lerman e Aram Galstyan. “Uma pesquisa sobre preconceito e
justiça no aprendizado de máquina.” (2019)https://arxiv.org/abs/
1908.09635v2

10 Equívocos SOBRE APRENDIZAGEM DE MÁQUINA


9 1 0
MAL-ENTENDIDO MAL-ENTENDIDO
O ML pode prever o futuro com precisão. Os indivíduos são capazes de antecipar os

Fato: as previsões do sistema de ML são possíveis resultados que os sistemas de ML


preciso apenas quando evento futuro é e de seus dados.
podem trazer
reproduzir tendências passadas.
Fato: A capacidade do ML de encontrar
O ML leva em consideração os dados encontrados nos conjuntos
correlações não evidentes nos dados pode
de dados e os utiliza para traçar projeções de possíveis resultar na descoberta de novos dados,
resultados futuros. desconhecidos do titular dos dados.

Portanto, os sistemas de ML não fazem suposições sobre o Os sistemas de ML são excelentes para encontrar correlações em
futuro, mas sim previsões, que se baseiam em eventos dados e são capazes de identificar padrões em dados pessoais
passados e são fornecidas aos sistemas durante o que não foram explicitamente procurados e são desconhecidos
treinamento. até mesmo pelos indivíduos em causa (por exemplo, uma
predisposição para uma doença). Este potencial suscita diversas
Alguns modelos de aprendizagem de ML podem evoluir para se preocupações do ponto de vista da proteção de dados.
adaptarem a novos dados, como modelos de criação de perfis em

marketing ou mídia online. No entanto, eles são incapazes de se

adaptar a um cenário completamente novo ou a eventos em rápida Por um lado, os titulares dos dados podem ser afetados por
mudança. Para adaptar as suas previsões a tais mudanças, a maioria decisões baseadas em informações que não conhecem e que
dos modelos necessitará de grandes quantidades de novos dados. não têm como antecipar e/ou reagir.
Por outro lado, os titulares dos dados podem receber
informações sobre eles desencadeadas pelo BC em locais
ou situações onde possa haver um impacto acrescido nas
suas vidas devido ao contexto específico. Por exemplo,
ao receber pelo correio cupons de desconto de uma loja
comercial, com base em seus hábitos de compra, o que
poderia revelar um hábito obrigatório para jogos de
loteria.

Quando os sistemas de BC processam dados pessoais


para criar inferências além da finalidade declarada do
processamento, por exemplo, ao fazer algum tipo de
perfil (previsões ou classificações) de indivíduos, o
responsável pelo tratamento ainda precisa cumprir todos
os princípios de proteção de dados, incluindo legalidade,
transparência (art. 5(1)(a) do RGPD) e limitação da
finalidade (Art. 5(1)(b) do RGPD).

Qualquer tipo de tratamento posterior de dados pessoais


requer uma base jurídica e uma finalidade clara.

10 Equívocos SOBRE APRENDIZAGEM DE MÁQUINA

Você também pode gostar