Escolar Documentos
Profissional Documentos
Cultura Documentos
1. Visão geral
O desafio envolvido na tarefa conhecida como clusterização pode ser enunciado da
seguinte forma:
dados. Ao final, espera-se que cada grupo (cluster) identificado exiba alguma
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
similaridades mútuas. Em outras palavras, o objetivo é dividir um conjunto de
Agora, não há mais uma saída conhecida a ser aproximada para cada padrão de
entrada.
uma função que descreva de maneira adequada a estrutura dos dados não-
rotulados.
do agrupamento?
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
(a) Dados disponíveis. (b) Dois clusters. (c) Três clusters.
Figura. Diferentes possibilidades de agrupamento para o mesmo conjunto de observações.
de vista e/ou das hipóteses consideradas com respeito à natureza dos dados.
qualidade da clusterização,
clusterização ainda que eles não sejam definitivos e que não haja
O critério AIC (AKAIKE, 1974) foi concebido com base numa estimativa da
dados.
(1)
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
2.2. Bayesian Information Criterion (BIC)
O critério BIC (SCHWARZ ET AL., 1978) foi criado com base em uma estimativa da
(2)
Nota: Os critérios AIC e BIC podem ser usados para a seleção de modelos em
representação gráfica sucinta do quão bem cada objeto se situa dentro do seu cluster.
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
O coeficiente silhouette é uma medida do quão similar um objeto é com relação ao
próprio cluster (coesão) quando comparado com outros clusters (separação). Seu
valor está restrito ao intervalo , sendo que um valor elevado indica que o
ou negativo para o coeficiente silhouette, então a clusterização pode ter sido feita
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
menor o valor, melhor a atribuição, pois há forte similaridade (média) com todos os
Seja a menor distância média entre e todos os clusters dos quais não é
forma:
(3)
(4)
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
𝑖
que indica o quão dissimilar é o padrão com respeito a seu próprio cluster, um
valor pequeno significa que ele se encaixa bem nas características do cluster. Além
disso, um valor elevado de implica que não se encaixa bem no cluster vizinho.
Portanto:
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
próximo de significa que o dado foi clusterizado de forma adequada.
cluster vizinho.
próximo de zero significa que o dado está próximo da fronteira entre dois
clusters naturais.
Análise:
clusterizados.
Gráficos do coeficiente silhouette para cada padrão podem ser utilizados para
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
2.4. Índice de Davies-Bouldin
(5)
∈
para .
significativos.
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
(6)
Sendo assim, o índice de Davies-Bouldin (DAVIES & BOULDIN, 1979) (DBI) é definido
.
.
Se e , então
Se e , então
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Com esta formulação, quanto menor o valor de , maior a separação dos clusters e
mais concentrada é a dispersão dentro dos clusters. Uma solução que satisfaz estes
requisitos corresponde a:
(7)
(8)
(9)
clusterização.
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
3. Algoritmo -means
Um dos métodos mais simples e utilizados para encontrar agrupamentos em
desafio é encontrar uma atribuição dos dados aos clusters, bem como um conjunto
Função objetivo:
Seja
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
O critério explorado pelo algoritmo -means é definido pela seguinte função:
, (10)
Parâmetros a determinar
clusters existentes.
No segundo passo, dada a atribuição dos dados aos clusters, minimizamos com
Primeiro passo:
, (11)
,
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Como é linear com respeito a , , a otimização pode ser feita de forma
, (12)
Segundo passo:
, (13)
𝛍
, (14)
Logo,
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
,
(15)
,
anteriores até que um critério de parada (e.g., variação nas posições dos protótipos
Características:
também, ser sensível a outliers, uma vez que o critério explora a norma do
vetor diferença.
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Há, também, uma versão padrão-a-padrão (online) do algoritmo -means,
protótipos para ver qual será escolhido para representar o padrão de entrada. Neste
Explora uma medida de dissimilaridade mais geral entre cada padrão e cada
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
, (17)
dissimilaridade adotada, pode não ser possível obter uma solução simples e em
atribuídos ao cluster . Usualmente, opta-se pelo padrão que, sendo visto como
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Caso particular: quando
ndo corresponde à norma do vetor diferença, i.e.,
Exemplo:
Figura. À esquerda, são mostrados os valores do coeficiente silhouette para cada padrão de entrada. O valor
médio (em vermelho) foi igual a 0,7049.
0,7049. À direita, observamos os protótipos obtidos pelo 𝑘-means para o
caso em que 𝑘 = 2,, bem como a separação dos dados nos dois clusters.
é atribuído a um, e somente um, cluster. Este tipo de decisão rígida, conhecida
como hard assignment, pode ser razoável para dados situados a uma distância
tipo soft-assignment.
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
, (18)
Condição de otimalidade:
, (19)
Assim,
,
(20)
,
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Na análise da derivada parcial com respeito a , , também podemos tratar cada
, .
Multiplicadores de Lagrange:
, , , , (21)
,
, (22)
,
, , (23)
,
Com isso,
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
( )
,
(24)
,
Usando (22):
, (25)
( ) ( ) ( ) ( )
(26)
, ,
Logo,
( )
( ) (27)
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
( )
,
( ) ,
(28)
( )
, (29)
( ) ( )
,
, ,
Com isto, o algoritmo fuzzy -means pode ser resumido através do seguinte pseudo-
código:
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Algoritmo fuzzy 𝒌-means
1. Inicialize 𝑘,𝛍 , … , 𝛍 , 𝛽 e 𝐑 = 𝑟 , ∈ℝ ×
.
2. Normalize 𝑟 , .
3. Faça
3.1. Atualize 𝛍 usando (20).
3.2. Atualize 𝑟 , usando (28).
4. Até ocorrerem mudanças suficientemente pequenas em 𝛍 e 𝐑.
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
(a) 𝛽 = 1,5 (b) 𝛽 = 2
(c) 𝛽 = 3
Figura. Os círculos numerados representam os protótipos (𝛍( , 𝑖 = 1, … ,3)) obtidos ao final da execução do
algoritmo fuzzy 𝑘-means.. Em cada ponto do espaço de entrada, a cor codifica o nível de pertinência daquele
dado em relação aos clusters.
Tópico 8: Aprendizado Não-Supervisionado
Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Funções de pertinência ( ):
(c) Cluster 2
que cada cluster no espaço de atributos pode ser bem representado por uma função
explora esta ideia supondo que os dados foram amostrados com base numa
(30)
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
onde ,
(𝐱 𝛍 ) 𝚺 (𝐱 𝛍 )
/ /
(31)
Restrições:
.
.
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
5.1. Probabilidade a posteriori
explicar a observação .
(32)
Ora:
.
.
.
Portanto:
(33)
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Somente um elemento , enquanto os demais são nulos.
Cada e .
que cada uma representa uma atribuição específica de um padrão a uma das
.
.
Assim, .
Logo,
(34)
Com isto,
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
(35)
𝐳
Para cada vetor observado, existe uma única variável latente correspondente.
Dados: ×
.
verossimilhança como:
(36)
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Aplicando o logaritmo:
(37)
/
(38)
indesejáveis.
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Por exemplo, durante a otimização da função de verossimilhança, é possível
detectar se uma componente gaussiana está colapsando para uma das amostras e,
então, reinicializar sua média para um vetor aleatório, e sua matriz de covariâncias
contornado.
Desafio:
𝚷,𝚳,𝚺
(39)
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
5.4. Cálculo do gradiente da verossimilhança
(40)
Então:
(41)
( |𝐱 )
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
(42)
(43)
Com isto,
(44)
a .
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
(45)
Ora,
(𝐱 𝛍 ) 𝚺 (𝐱 𝛍 )
/ /
(46)
(47)
Então,
(48)
(𝐱 𝛍 ) 𝚺 (𝐱 𝛍 )
Seja ( ) / |𝚺 | /
.
Então, .
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Assim, aplicando a derivada com respeito a termo a termo, obtemos:
(49)
Propriedades:
a) .
𝚺 𝚺
|𝐌|
b) .
𝐌
(50)
𝐚 𝐌𝐛 (𝐱 𝛍 ) 𝚺 (𝐱 𝛍 )
c)
𝐌 𝚺
Portanto:
(51)
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
(52)
Retornando a (45):
(53)
Então,
(54)
Finalmente,
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
(55)
(56)
𝚷,𝚳,𝚺,
(57)
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
(58)
(59)
Então:
(60)
(61)
Tomando a
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
(62)
Com isso,
(63)
(64)
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Neste contexto, surge a ideia de se utilizar um procedimento iterativo para buscar a
𝑁 = 𝑃 (𝑘 | 𝐱 ) ( ) 1 ( ) ( )
𝚺 = 𝑃(𝑘 |𝐱 ) 𝐱 − 𝛍 𝐱 −𝛍
𝑁
( )
1 ( )
𝑁
𝛍 = 𝑃(𝑘 |𝐱 )(𝐱 ) 𝜋 =
𝑁 𝑁
4. Avalie a log-likelihood:
( ) ( ) ( )
ln 𝑃(𝐗|𝚷, 𝚳, 𝚺) = ln 𝜋 𝐺 𝐱 ;𝛍 ,𝚺
5. Repita os passos 2 a 4 caso não tenha ocorrido convergência da log-likelihood e/ou dos
parâmetros.
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Comentários:
(BISHOP, 2006).
um ótimo local.
Assim como ocorre no caso do algoritmo fuzzy -means, cada padrão de entrada
equivalentemente, de ter sido gerado por cada uma das componentes gaussianas.
Podemos usar o -means para obter uma inicialização mais adequada para os
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
covariâncias podem ser inicializadas com base nas estimativas amostrais, usando,
para a -ésima componente, os dados atribuídos ao cluster . Por fim, pode ser
Exemplo:
Figura. Distribuição dos dados disponíveis, os quais, por construção, estão associados a três diferentes
agrupamentos (clusters),
), gerados por distribuições gaussianas com diferentes matrizes de covariâncias.
covariâncias
(DBSCAN), proposto em (Ester et. al., 1996), é um método que usa a informação da
rotulada como sendo um ponto central, um ponto de fronteira ou, então, ruído; (ii)
próprio). Todos os pontos dentro deste raio de vizinhança são ditos diretamente
alcançáveis por .
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Um padrão é considerado um ponto de fronteira se ele possui menos que
Todos os pontos que não são centrais nem de fronteira são considerados como
ruído.
Uma vez que todos os padrões foram rotulados, o algoritmo DBSCAN constrói os
Cada ponto central forma um cluster juntamente com todos os pontos (centrais ou
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
A extensão de um cluster é definida com base na noção de pontos conectados por
existe algum outro ponto tal que tanto quanto são alcançáveis por .
propriedades:
por densidade.
densidade com qualquer ponto de um cluster, então ele também deve fazer
Vantagens:
Não requer que o número de clusters seja pré-especificado; além disso, pode
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Nem todos os padrões da base de dados são atribuídos aos clusters: os pontos
Desvantagens:
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Figura. Neste diagrama, foi considerado o valor de 𝑀 = 4.. O ponto A e todos os demais pontos em
vermelho representam pontos centrais, pois os círculos de raio 𝜀 em torno destes pontos englobam, no
mínimo, 𝑀 pontos. Uma vez que todos os pontos em vermelho são conectados por densidade, eles formam
um único cluster.. Os pontos B e C não são pontos centrais, mas são alcançáveis por A (diretamente ou
através dos outros pontos centrais). Assim, B e C também pertencem a este cluster.
cluster Finalmente, o ponto N é
considerado como ruído, pois não é um ponto central nem é alcançável
alcançável por qualquer um dos pontos
centrais.
clusters são, então, sequencialmente combinados em clusters maiores, até que todos
Em cada etapa, os dois clusters separados pela menor distância são combinados. A
Algumas opções:
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Ligação completa (complete-linkage): a distância máxima entre os elementos de
𝐱∈ 𝐱 ∈
único cluster.
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
(a) single-linkage (b) complete-linkage (c) average-linkage
5 6
1
8
4
7 9
3
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Do ponto de vista de redução de dimensionalidade, os dados originais são
(possivelmente radiais).
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
8. Mapas auto-organizáveis de Kohonen
Um mapa de Kohonen é um arranjo de neurônios, geralmente restrito a espaços de
(preservação topológica).
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Um mapa de Kohonen unidimensional é dado por uma sequência ordenada de
número de entradas.
…
𝑥1 𝑥2 𝑥𝐾
vinculado ao arranjo), mas há também uma relação entre os pesos dos neurônios no
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
espaço de dimensão igual ao número de entradas. Para entender a funcionalidade
Exemplos bidimensionais:
...
x1 x2 xdim
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
mi
mi
chamado de best matching unit, BMU). Então, o seu vetor de pesos é ajustado na
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
direção daquele padrão, de maneira que ele se especialize ainda mais em responder
Seja o neurônio vencedor. Então, uma opção para o processo de aprendizado não-
wj(k) (x(k)wj(k))
wj(k+1)
x(k)
próximos.
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Implementação
vizinhança vizinhança
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
8.1. Algoritmo de ajuste dos pesos
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
8.2. Ajuste de pesos com restrição de vizinhança
vk
BMU
Figura. BMU (Best Matching Unit) e seus vizinhos (figuras extraídas de ZUCHINI, 2003).
O neurônio que venceu para uma dada amostra é o que sofre o maior ajuste. No
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Figura. Inicialização linear dos vetores de pesos sobre um conjunto de dados artificiais.
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Figura. Conformação do mapa após o processo de auto-organização.
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
8.3. Discriminação dos agrupamentos
rede.
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
neurônios adjacentes na rede. O perfil apresentado pelas distâncias relativas entre
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Figura. Exemplo de matriz-U para arranjo hexagonal (figura extraída de ZUCHINI, 2003).
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
8.4. Mapa conceitual
Figura. Conjunto de features associadas a cada espécie de animal presente no conjunto de dados Extraída de
(HAYKIN, 2008).
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Figura. Mapa auto-organizável 10 x 10: os neurônios que responderam mais ativamente aos padrões de
entrada (features) receberam o respectivo rótulo. Figura extraída de (HAYKIN, 2008).
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
Figura. Cada neurônio foi marcado com o rótulo associado ao padrão de entrada (consequentemente, ao
animal) para o qual ele é mais fortemente ativado. Percebe-se claramente que o mapa conseguiu capturar
relações intrínsecas às próprias espécies – 3 clusters: em branco, temos os pássaros; em cinza, as espécies
“pacíficas”; em azul, os predadores. Extraída de (HAYKIN, 2008).
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
1.5
0.5
-0.5
2
-1
0
-1.5
3
2 1 0 -1 -2
-2
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
9. Referências bibliográficas
AKAIKE, H. A. A New Look at the Statistical Model Identification. IEEE Transactions on
Automatic Control, vol. 19, no. 6, pp. 716-723, 1974.
ALPAYDIN, E. Introduction to Machine Learning. MIT Press. 3rd edition. 2014.
BEZDEK, J. C. Pattern Recognition with Fuzzy Objective Function Algorithms. Springer. 1981.
BISHOP, C. M. Pattern Recognition and Machine Learning. Springer, 2006.
DAVIES, D. L.; BOULDIN, D. W. A Cluster Separation Measure. IEEE Transactions on Pattern
Analysis and Machine Intelligence, vol. 1, no. 2, pp. 224-227, 1979.
DESGRAUPES, B. Clustering Indices. Technical Report, University Paris Ouest, Lab Modal’X,
2017.
DUDA, R. O., HART, P. E., STORK, D. G. Pattern Classification. John Wiley & Sons. 2nd edition,
2001.
ESTER, M.; KRIEGEL, H.-P.; SANDER, J.; XU, X. A density-based algorithm for discovering clusters
in large spatial databases with noise, Proceedings of the Second International Conference on
Knowledge Discovery and Data Mining (KDD-96), AAAI Press, pp. 226-231, 1996.
HASTIE, T., TIBSHIRANI, R., FRIEDMAN, J. The Elements of Statistical Learning: Data Mining,
Inference and Prediction. Springer. 2nd edition, 2006.
HAYKIN, S. Neural Networks and Learning Machines. Prentice Hall, 3rd edition, 2008.
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
JAIN, A.K., MURTY, M.N. & FLYNN, P.J. Data Clustering: A Review, ACM Computing Surveys,
vol. 31, no. 3, pp. 264-323, 1999.
KOHONEN, T. Self-organized formation of topologically correct feature maps, Biological
Cybernetics, vol. 43, pp. 59-69, 1982.
KOHONEN, T. Self-Organization and Associative Memory, Springer, 3rd edition, 1989 (1st.
edition, 1984).
KOHONEN, T. The Self-Organizing Map, Proceedings of the IEEE, 78:1464-1480, 1990.
KOHONEN, T. Self-Organizing Maps, Springer, 3rd edition, 2001.
LUENBERGER, D.G. Linear and Nonlinear Programming. 2nd edition, Addison-Wesley
Publishing Company, 1984.
LLOYD, S. P. Least Squares Quantization in PCM. IEEE Transactions on Information Theory, vol.
28, no. 2, pp. 129-137, 1982.
MACQUEEN, J. Some Methods for Classification and Analysis of Multivariate Observations. In
L. M. LeCam e J. Neyman (Eds.), Proceedings of the Fifth Berkeley Symposium on Mathematical
Statistics and Probability, Volume I, pp. 281-297, University of California Press, 1967.
ROUSSEEUW, P.J. Silhouettes: a graphical aid to the interpretation and validation of cluster
analysis. Journal of Computational and Applied Mathematics, vol. 20, pp. 53-65, 1987.
SCHWARZ, G. et. al. Estimating the Dimension of a Model. The Annals of Statistics, Institute of
Mathematical Statistics, vol. 6, no. 2, pp. 461-464, 1978.
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP
VON LUXBURG, U. A Tutorial on Spectral Clustering, Statistics and Computing, vol. 17, no. 4,
pp.395-416, 2007.
ZUCHINI, M.H. “Aplicações de Mapas Auto-Organizáveis em Mineração de Dados e
Recuperação de Informação”, Tese de Mestrado, Faculdade de Engenharia Elétrica e de
Computação (FEEC/Unicamp), Setembro 2003.
Tópico 8: Aprendizado Não-Supervisionado – Clusterização Profs. Levy Boccato e Romis Attux – DCA/FEEC/UNICAMP