Escolar Documentos
Profissional Documentos
Cultura Documentos
CLASSIFICAÇÃO
5 CLASSES DE PROBLEMAS DE DM
Machine
Learning
Não
Supervisionado
Supervisionado
Reforço
Classificação Agrupamento Aprendizado através da
Regressão Associação interação de agentes com um
Previsão de séries temporais ambiente
registros
atributos atributos
rótulo
registros registros
Regra de
associação:
SUPERVISIONADO
Aproximador: função mapeia entradas e saída.
estudante estudante
Tempo
NÃO SUPERVISIONADO
Agrupamento Associação
15
CLASSIFICAÇÃO
Treinamento supervisionado;
Dados da base possuem indicação da classe a qual pertencem;
16
CLASSIFICAÇÃO
Treinamento supervisionado;
Dados da base possuem indicação da classe a qual pertencem;
17
CLASSIFICAÇÃO
APLICAÇÕES:
18
SVM - Support Vector Machine
19
SVM - SUPPORT VECTOR MACHINE
Método supervisionado de aprendizado de máquina;
20
SVM
21
SVM
Reta / Plano / Hiperplano ?
22
SUPPORT VECTOR MACHINE
SVM para conjuntos separáveis linearmente
ax + b > 0
f(x) = ax + b
ax + b < 0
23
SUPPORT VECTOR MACHINE
Qual é o separador ótimo?
24
SUPPORT VECTOR MACHINE
25
SUPPORT VECTOR MACHINE
26
SVM - DIFERENÇAS
SUPPORT VECTOR MACHINE
E se os dados não forem linearmente separáveis?
Variáveis de folga ξi podem ser incluidas para permitir erro de
classificação de exemplos difíceis ou com ruído: soft margin.
ξi
ξi
30
SVM NÃO LINEAR
Dados que são linearmente separáveis (mesmo com algum ruído) funcionam bem:
0 x
0 x
0 x 31
SVM NÃO LINEAR
Ideia geral: o espaço de atributos original sempre pode ser mapeado
para um espaço de atributos maior, onde os dados podem ser separados:
Φ: x → φ(x)
32
THE “KERNEL TRICK”
A forma mais simples de separar grupos de dados é com uma reta ou hiperplano;
Mas existem situações em que não é possível separar dados com um separador linear, ou que uma
região não linear é capaz de separar os grupos de forma mais eficiente;
SVM trata esse problema usando uma função kernel (não linear) para mapear os dados em um
espaço de atributos diferente (maior);
Isso significa que uma função não linear é aprendida por uma máquina de aprendizado linear em
um espaço de atributos de dimensão maior;
33
SVM
Vantagens:
35
BASE MUSHROOM
Mushroom: https://www.kaggle.com/uciml/mushroom-classification
Este conjunto de dados está desfrutando de novos picos de popularidade. Aprenda quais
características soletram a morte certa e quais são mais palatáveis neste conjunto de dados de
características de cogumelo.
Este conjunto de dados inclui descrições de amostras hipotéticas correspondentes a 23 espécies
de cogumelos. Cada espécie é identificada como definitivamente comestível, definitivamente
venenosa, ou de consumo desconhecido e não recomendado. Esta última classe foi combinada
com a venenosa.
38
ESTUDO DE CASO
CRÉDITO BANCÁRIO
39
Árvores de Decisão
40
ÁRVORES DE DECISÃO
41
ÁRVORES DE DECISÃO
Árvores de decisão podem lidar tanto com dados numéricos quanto categóricos.
42
ÁRVORES DE DECISÃO
Fáceis de serem implementadas e interpretadas;
Dividir para conquistar;
43
ÁRVORES DE DECISÃO
Cada nó de decisão contém um teste de
um atributo;
44
ÁRVORES DE DECISÃO – ID3
Algoritmo ID3 (J. R. Quinlan)
Sem backtracking;
45
ÁRVORES DE DECISÃO – ID3
Algoritmo ID3 (J. R. Quinlan)
Sem backtracking;
46
ÁRVORES DE DECISÃO – ID3
Algoritmo ID3 (J. R. Quinlan)
Utiliza a entropia para calcular a homogeneidade dos dados. Se os dados são
completamente homogêneos, a entropia é zero. Se os dados estão divididos
igualmente, a entropia é 1.
47
ÁRVORES DE DECISÃO – ID3
48
ÁRVORES DE DECISÃO – ID3
2. Divide-se a base nos diferentes atributos e calcula-se a entropia para
cada um deles. Calcula-se o ganho de informação (entropia para
classe – entropia para atributo).
O ganho de informação é
baseado na diminuição da
entropia depois que uma base de
dados é subdividida em um
atributo.
49
ÁRVORES DE DECISÃO – ID3
2. Divide-se a base nos diferentes atributos e calcula-se a entropia para
cada um deles. Calcula-se o ganho de informação (entropia para
classe – entropia para atributo).
O ganho de informação é
baseado na diminuição da
entropia depois que uma base de
dados é subdividida em um
atributo.
50
ÁRVORES DE DECISÃO – ID3
51
ÁRVORES DE DECISÃO – ID3
52
ÁRVORES DE DECISÃO – ID3
53
ÁRVORES DE DECISÃO – ID3
4. Algoritmo é rodado recursivamente para todos os ramos sem folha até que todos os dados sejam
classificados.
Regras de
decisão
54
EXEMPLO
Splitting Attributes
Tid Refund Marital Taxable
Status Income Cheat
No Married 80K ?
Refund 10
Yes No
NO MarSt
Single, Divorced Married
TaxInc NO
< 80K > 80K
NO YES
56
APLICANDO O MODELO PARA INFERIOR UM DADO
Test Data
Refund Marital Taxable
Status Income Cheat
No Married 80K ?
Refund 10
Yes No
NO MarSt
Single, Divorced Married
TaxInc NO
< 80K > 80K
NO YES
57
APLICANDO O MODELO PARA INFERIOR UM DADO
Test Data
Refund Marital Taxable
Status Income Cheat
No Married 80K ?
Refund 10
Yes No
NO MarSt
Single, Divorced Married
TaxInc NO
< 80K > 80K
NO YES
58
APLICANDO O MODELO PARA INFERIOR UM DADO
Test Data
Refund Marital Taxable
Status Income Cheat
No Married 80K ?
Refund 10
Yes No
NO MarSt
Single, Divorced Married
TaxInc NO
< 80K > 80K
NO YES
59
APLICANDO O MODELO PARA INFERIOR UM DADO
Test Data
Refund Marital Taxable
Status Income Cheat
No Married 80K ?
Refund 10
Yes No
NO MarSt
Single, Divorced Married
TaxInc NO
< 80K > 80K
NO YES
60
APLICANDO O MODELO PARA INFERIOR UM DADO
Test Data
Refund Marital Taxable
Status Income Cheat
No Married 80K ?
Refund 10
Yes No
NO MarSt
Single, Divorced Married Assign Cheat to “No”
TaxInc NO
< 80K > 80K
NO YES
61
ÁRVORES DE DECISÃO
62
ESTUDO DE CASO
63
Exercício
64
ESTUDO DE CASO
CRÉDITO BANCÁRIO
65
COMITÊS
66
COMITÊS
Agregar múltiplos modelos treinados com o objetivo de melhorar a acurácia do
modelo conjunto.
Intuição: simula o que fazemos quando combinamos conhecimento de especialistas em
um processo de tomada de decisão.
67
COMITÊS
Conhecidos também por:
Comitês especialistas;
Sistemas múltiplos de classificação;
Comitê de classificadores;
Máquina de Comitê;
Mistura de especialistas;
Aprendizado em conjunto.
Diversos estudos demonstram sua utilização com sucesso em problemas onde um único
especialista não funciona bem.
68
COMITÊS
Votação:
Maioria do votos
Soma ponderada
Maioria ponderada dos votos
Produto
Borda count
Máximo
Média
Mínimo
Média ponderada
Mediana
Soma
69
APRENDIZADO DO COMITÊ
Aprendizado de Comitês
70
MOTIVAÇÃO
Analogias:
Eleições combinam votos de eleitores para escolher um candidato bom;
Comitês combinam opiniões de especialistas para tomar decisões melhores;
Estudantes trabalhando em conjunto em um projeto.
Intuição:
Indivíduos cometem erros, mas a maioria é menos propensa a erros;
Indivíduos em geral têm conhecimento parcial. Um comitê pode juntar conhecimento para tomar decisões
melhores.
71
COMITÊS
Quando usar?
72
COMITÊS
Vantagem
A combinação de modelos pode apresentar melhor desempenho que um modelo só;
Neutraliza ou minimiza fortemente a instabilidade inerente aos algoritmos de
aprendizagem;
Desvantagens
Não há garantia de que as estruturas modulares apresentem os melhores resultados;
Modelos combinados são mais difíceis de analisar;
O custo é alto.
73
COMITÊS - TÉCNICAS
COMITÊS: BAGGING X BOOSTING
76
COMITÊS: BAGGING X BOOSTING
77
COMITÊS: BAGGING X BOOSTING
Boosting:
• Durante etapa de treinamento, erro de treinamento é guardado.
• Existe uma condição para determinar se um modelo será utilizado ou será descartado.
80
COMITÊS: RMS
81
RANDOM FOREST
82
RANDOM FOREST: WORKFLOW
Cada
AAproximadamente
proporção
caso deixado
de votos
de
1/3diferentes
fora
dosécasos
apresentado
dasão
classe
deixados
a
target
cada
deem
uma
fora
relação
das
da árvores
amostra
ao total
da
dede
floresta
inicialização
votos ée ocada
erro
e não
árvore
OOB é
Para Cada
cada árvore é construída à
caso apresentado usando umaverifica-se
floresta, inicializaçãoa (bootstrap)
classe que diferente
obteve o do dataset
maior original.
número de votos.
usada na construção
retorna
(Out-Of-Bag
das
umaarvores
classificação.
estimate)
da Random Forest.
83
RANDOM FOREST - CLASSIFICAÇÃO
Criada através de árvores de decisão individuais cujos parâmetros podem variar
aleatoriamente.
Treinamento
Random subspace
Bagging (Bootstrap)
method
Recall
Maioria de votos
84
ESTUDOS DE CASO
http://www.netflixprize.com/assets/GrandPrize2009_BPC_BigChaos.pdf
85
NETFLIX PRIZE
Tarefa de aprendizado supervisionado
Dados de treinamento são formados por um conjunto de usuários e as avaliações dos filmes
(1,2,3,4,5 estrelas) feitas por esses usuários;
86
ESTUDO DE CASO
87
Exercício
88
ESTUDO DE CASO
CRÉDITO BANCÁRIO
89