Você está na página 1de 30

Machine Translated by Google

Explorando a otimização multiobjetivo para multivisualização


Agrupamento

SRIPARNA SAHA e SAYANTAN MITRA, Instituto Indiano de Tecnologia de Patna


STEFAN KRAMER, Johannes Gutenberg University Mainz

Apresentamos uma nova abordagem de agrupamento multiview baseada em otimização multiobjetivo. Em contraste com os
algoritmos de agrupamento existentes baseados em otimização multiobjetivo, geralmente é aplicável a dados representados
por duas ou mais visualizações e não requer a especificação do número de agrupamentos a priori. A abordagem baseia-se
na capacidade de pesquisa de uma técnica baseada em recozimento simulado multiobjetivo, AMOSA, como a técnica de
otimização subjacente. Na primeira versão da abordagem proposta, um índice de validade de cluster interno é usado para
avaliar a qualidade de diferentes particionamentos obtidos usando diferentes visualizações. Uma nova forma de verificar a
compatibilidade destes diferentes particionamentos também é proposta e esta é utilizada como outra função objetivo. Uma
nova estratégia de codificação e alguns novos operadores de mutação são introduzidos. Finalmente, é proposta uma nova
forma de computar um particionamento de consenso a partir de múltiplas partições individuais obtidas em múltiplas
visualizações. Como linha de base e para comparação, duas técnicas de clusterização baseadas em multiobjetivo são
propostas para combinar os resultados de diferentes abordagens simples de clusterização. A eficácia dos métodos de
agrupamento propostos é mostrada para particionar vários conjuntos de dados do mundo real com várias visualizações.
Para mostrar a utilidade prática do método, apresentamos resultados sobre agrupamento de resultados de pesquisa na
web, onde a tarefa é encontrar um particionamento adequado de trechos da web.

Conceitos CCS: • Metodologias Computacionais ÿ Análise de Cluster;

Palavras-chave e frases adicionais: classificação multiview, otimização multiobjetivo, recozimento simulado, agrupamento
de resultados de pesquisa

Formato de Referência ACM:


Sriparna Saha, Sayantan Mitra e Stefan Kramer. 2018. Explorando a Otimização Multiobjetivo para Multiview
Clustering. ACM Trans. Knowl. Discov. Dados. 12, 4, Artigo 44 (maio de 2018), 30 páginas. https://doi.org/
10.1145/3182181

1. INTRODUÇÃO

O aprendizado de máquina multiview visa tirar proveito de múltiplas visualizações, ou seja, representações de
objetos, no processo de aprendizado de máquina (Sun 2013). As visualizações são geralmente definidas como
conjuntos de recursos ou variáveis que, juntas, descrevem um aspecto dos objetos. Se a relação subjacente entre
44
diferentes pontos de vista for compreendida, ela pode ser usada para aliviar a dificuldade de um problema de
aprendizagem de interesse (Sun 2013; Wahid et al. 2014). Problemas com múltiplas representações de objetos podem ser

Os autores gostariam de agradecer à fundação de pesquisa A. von Humboldt pelo apoio à pesquisa.
Endereços dos autores: S. Saha (autor correspondente) e S. Mitra, Departamento de Ciência da Computação e Engenharia, Instituto Indiano de
Tecnologia Patna, 801103 Bihar, Índia; e-mails: sriparana@iitp.ac.in, sayantaniem@gmail.com; S. Kramer, Universidade Johannes Gutenberg
Mainz, Instituto de Ciência da Computação, Staudingerweg 9, 55128 Mainz, Alemanha; e-mail: kramer@informatik.uni-mainz.de.

A permissão para fazer cópias digitais ou impressas de todo ou parte deste trabalho para uso pessoal ou em sala de aula é concedida sem taxa,
desde que as cópias não sejam feitas ou distribuídas com fins lucrativos ou vantagens comerciais e que as cópias contenham este aviso e a citação
completa na primeira página . Os direitos autorais dos componentes deste trabalho pertencentes a terceiros que não a ACM devem ser respeitados.
Abstraindo com crédito é permitido. Para copiar de outra forma, ou republicar, postar em servidores ou redistribuir para listas, requer permissão
específica prévia e/ou uma taxa. Solicite permissões de permissions@acm.org. © 2018 ACM 1556-4681/2018/05-ART44 $ 15,00 https://doi.org/
10.1145/3182181

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

44:2 S. Saha et ai.

encontrados em muitas aplicações do mundo real (Bickel e Scheffer 2004; Cai et al. 2013). O aprendizado da
máquina multiview pode ser supervisionado como no caso de classificação ou regressão (Wang et al. 2011, 2008), ou
não supervisionado como no caso de agrupamento (Bickel e Scheffer 2004; Cai et al. 2013).
Neste artigo, nos concentramos no problema de agrupamento multiview.
Um exemplo de um problema de agrupamento multivisualização de um aplicativo do mundo real é o agrupamento
de resultados de pesquisa na forma de trechos da web (Carpineto et al. 2009). Os trechos da web devem ser
agrupados em várias categorias, considerando várias visualizações, por exemplo, (i) uma visão sintática (a estrutura
do trecho da web em termos de palavras únicas e suas frequências, por exemplo, frequência de termo e frequência
de documento inverso) , e (ii) uma visão semântica (o “significado” de um trecho da web). A geração de um único
particionamento que satisfaça essas duas visualizações pode ser uma aplicação de agrupamento de múltiplas
visualizações (Wahid et al. 2014).
No caso de dados complexos com várias exibições, pode ser difícil identificar um único particionamento não
ambíguo. Para capturar todos os particionamentos alternativos de um determinado conjunto de dados, modelamos a
tarefa de agrupamento como um problema de otimização multiobjetivo (MOO) (Deb 2001). MOO requer otimizar mais
de uma função objetivo (Deb 2001). É diferente da otimização de objetivo único (SOO), em que apenas uma função
de objetivo único é otimizada. O MOO calcula um conjunto de soluções de compensação como as soluções ótimas,
enquanto o SOO determina apenas uma única solução como a ótima. Outra motivação importante para resolver o
problema de agrupamento usando MOO é que a maioria das técnicas de agrupamento baseadas em objetivo único
disponíveis otimizam apenas um único critério ou medida de qualidade de agrupamento. Assim, estes podem identificar
clusters com algumas formas ou estruturas particulares. Um conjunto de dados com várias exibições pode ter vários
particionamentos ideais correspondentes a diferentes exibições. Em um conjunto de dados, se existirem várias
exibições diferentes, ele deverá conter clusters com estruturas diferentes. Seria difícil identificar todos eles otimizando
uma única medida de qualidade de cluster. Diferentes medidas de qualidade de cluster que quantificam a qualidade
de um particionamento em relação a diferentes visualizações precisam ser otimizadas simultaneamente. No trabalho
atual, o problema de agrupamento multiview de diferentes conjuntos de dados é formulado como um problema MOO.

Nos últimos anos, duas abordagens principais baseadas em multiobjetivo foram desenvolvidas para agrupamento
multiview (Davidson et al. 2013; Wahid et al. 2014). A abordagem de agrupamento multiview proposta por Wahid et
al. (2014) usaram o recurso de pesquisa do MOO para agrupamento de resultados de pesquisa na web. É basicamente
uma abordagem de cluster ensemble onde as saídas de múltiplas técnicas de agrupamento, como abordagens de
agrupamento hierárquico e k-means, são combinadas eficientemente usando a capacidade de pesquisa de uma
técnica baseada em algoritmo genético multiobjetivo popular, NSGA-II (Deb et al. 2002 ) ( algoritmo genético de
classificação não-dom inada-II). A abordagem é então aplicada para agrupar documentos da web.
Ele assume que o número de clusters é conhecido de antemão. Além disso, a abordagem baseia-se no conceito de
agrupamento particional. Outra abordagem de agrupamento multivisualização baseada em multiobjetivo foi
desenvolvida por Davidson et al. (2013). Aqui, uma técnica de agrupamento espectral multiview é proposta sob a
estrutura do MOO. A frente de Pareto do MOO identifica todos os possíveis cortes bons sem receber nenhum valor
de parâmetro do usuário. A utilidade desta metodologia é verificada tanto pela análise teórica quanto pelos resultados
empíricos. As principais limitações dessa abordagem são que (i) é aplicável principalmente a apenas duas
visualizações dadas e (ii) o número de clusters presentes em um conjunto de dados é considerado conhecido a priori.
Além disso, os autores lidaram principalmente com o problema de particionamento bidirecional. Para resolver
problemas de particionamento multicluster, o algoritmo deve ser executado no conjunto de dados fornecido várias
vezes, considerando cada par de clusters por vez ou recursivamente até que as partições atendam a alguma condição/
critério de término.
Nenhuma das abordagens existentes multiobjetivo baseadas em múltiplas visualizações lida com o desenvolvimento
de alguma abordagem particional para agrupar um conjunto de dados descrito por múltiplas visualizações. Uma
maneira de determinar automaticamente o particionamento ideal de um determinado conjunto de dados após uma
única execução de um algoritmo (sem simplesmente combinar as saídas de vários algoritmos de agrupamento) satisfazendo

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

Explorando a Otimização Multiobjetivo para Multiview Clustering 44:3

foi necessário desenvolver várias visualizações. Além disso, as abordagens anteriores assumem que o número de clusters é
conhecido de antemão e pode ser especificado pelo usuário. Assim, algumas abordagens automáticas que podem determinar
o número apropriado de clusters presentes em um conjunto de dados também foram necessárias. No trabalho atual, uma
nova técnica de agrupamento multiview é desenvolvida usando os conceitos de MOO (Deb 2001). A abordagem usa a
capacidade de pesquisa de uma técnica MOO baseada em recozimento simulado (SA), AMOSA (Bandyopadhyay et al. 2008)
(técnica baseada em SA multiobjetivo arquivada). Observe que já foi provado experimentalmente que o AMOSA supera
outras técnicas baseadas em MOO existentes, incluindo NSGA-II (Deb et al. 2002) (usado como a técnica MOO subjacente
em outra técnica de agrupamento multiview, MMOEA (Wahid et al. 2014)) , na resolução de vários problemas de teste de
benchmark (Bandyopadhyay et al. 2008). As principais questões e pontos abordados neste artigo são discutidos a seguir:

—A abordagem principal, MOO-Multi1, conduz o agrupamento multiview identificando primeiro diferentes


particionamentos do mesmo conjunto de dados usando diferentes views. Para capturar a qualidade de um
agrupamento individual gerado usando uma única visão, um índice interno de validade do agrupamento, o índice
PBM (Pakhira et al. 2004), é usado. Os valores do índice PBM para diferentes particionamentos obtidos usando
diferentes visualizações são otimizados simultaneamente junto com um novo índice de concordância definido. Isso
mede a concordância entre vários particionamentos obtidos usando diferentes visualizações de uma nova maneira.
As soluções individuais são desenvolvidas usando a capacidade de pesquisa do AMOSA. Uma nova estratégia de
codificação e diferentes operadores de mutação são propostos. Finalmente, uma nova maneira é proposta para
combinar os particionamentos obtidos usando múltiplas visualizações para uma única solução. A abordagem é
automática por natureza: é capaz de determinar automaticamente o número de partições e o particionamento
apropriado correspondente para um determinado conjunto de dados.

— Mais dois métodos de linha de base para agrupamento multiview baseado em MOO são descritos e testados.
Esses métodos, MOO-Multi2 e MOO-Multi2, são baseados na ideia de cluster ensembles e, nesse sentido,
semelhantes ao algoritmo MMOEA de Wahid et al. (2014). Mas ao contrário do MMOEA, o número de clusters é
determinado automaticamente pelas abordagens propostas.
Inicialmente, algumas técnicas simples de agrupamento, como k-means e agrupamento hierárquico, são usadas
para particionar o conjunto de dados fornecido, variando as visualizações e o número de agrupamentos. As matrizes
de pertinência são finalmente codificadas na forma de soluções no AMOSA. Essas matrizes de associação são
combinadas de forma eficiente usando a capacidade de pesquisa do AMOSA. Os operadores de mutação do
AMOSA ajudam a explorar o espaço de busca de forma eficiente. Na segunda versão, otimizamos os particionamentos
individuais obtidos por diferentes técnicas.
A compacidade e a separação de particionamentos individuais são calculadas e essas funções objetivas são
otimizadas simultaneamente usando o AMOSA. Os particionamentos ótimos identificados pelo AMOSA são
finalmente combinados na última etapa da abordagem proposta para chegar a um único particionamento de
consenso. Na terceira abordagem, os particionamentos individuais presentes em uma solução são primeiro
combinados e a qualidade desse particionamento capturada por diferentes medidas de qualidade do cluster é
otimizada pelo AMOSA.
—Ao contrário das duas técnicas existentes de agrupamento multiobjetivo baseadas em múltiplas visualizações
(Davidson et al. 2013; Wahid et al. 2014), a abordagem de agrupamento proposta é de natureza automática. Ele
pode detectar automaticamente o número de clusters e os particionamentos apropriados para qualquer conjunto de
dados. Consideramos isso como uma grande vantagem da técnica de agrupamento proposta.
—Ao contrário da abordagem de agrupamento espectral multivista proposta por Davidson et al. (2013), a abordagem
proposta pode lidar com qualquer número de visualizações de um conjunto de dados enquanto particiona os dados.
—Ao contrário da abordagem de agrupamento espectral multivista proposta por Davidson et al. (2013), nossa
abordagem proposta pode identificar qualquer número de clusters automaticamente para um determinado conjunto de dados.

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

44:4 S. Saha et ai.

Conforme declarado acima, a abordagem de agrupamento espectral multivisualização existente (Davidson et al. 2013) só
pode detectar partições bidirecionais de um conjunto de dados. Assim, várias execuções dessa abordagem são necessárias
para obter várias partições de um determinado conjunto de dados. Em contraste com isso, a abordagem proposta pode
detectar várias partições automaticamente em uma única execução.

A eficácia das abordagens propostas é mostrada pela primeira vez para particionar vários conjuntos de dados padrão e recentes
retirados do UCI Machine Learning Repository.1 Os resultados mostram a eficácia da abordagem proposta em comparação com as
abordagens existentes. Comparamos nossos resultados com muitas técnicas existentes de agrupamento de visão única baseadas
em um único e multiobjetivo, bem como com uma técnica de agrupamento espectral baseada em multiobjetivo recentemente
desenvolvida (Davidson et al. 2013). Como um aplicativo do mundo real, optamos por aplicar nossas abordagens ao agrupamento
de resultados de pesquisa na web. Três conjuntos de dados de referência, Ambient,2 Moresque (Navigli e Crisafulli 2010) e ODP-239
(Carpineto e Romano 2010) são usados para a validação experimental. São consideradas duas visões, ou seja, uma semântica e
outra sintática. Os resultados são comparados com uma técnica existente de agrupamento de resultados de pesquisa na Web
baseada em multiobjetivo e multivisualização (Wahid et al. 2014) e também com várias técnicas existentes de agrupamento de
resultados de pesquisa de visualização única em termos de medidas de qualidade de agrupamento bem conhecidas e estabelecidas.

2. TRABALHO RELACIONADO

Esta seção discute o trabalho existente sobre técnicas de clusterização multiview e baseadas em MOO.

2.1 Trabalho existente sobre agrupamento de múltiplas

visualizações Conjuntos de dados multimodais são frequentes na vida real devido ao uso de diferentes modalidades de entrada e
geração de dados, a saber, texto, vídeo e áudio. Cada instância ou observação pode ter múltiplas representações, que também são
chamadas de visualizações. O aumento de dados multiview em aplicações do mundo real aumentou o interesse no chamado
aprendizado multiview (Sun 2013). As técnicas de agrupamento multiview tentam explorar as múltiplas representações de dados
disponíveis para obter uma partição precisa e robusta dos dados em contraste com o agrupamento de visualização única. Em geral,
as técnicas existentes de agrupamento multiview podem ser categorizadas em dois grupos: centralizadas e distribuídas (Tzortzis e
Likas 2009). Algoritmos centralizados usam simultaneamente todas as visualizações disponíveis para agrupar os dados (Tzortzis e
Likas 2009), enquanto algoritmos distribuídos agrupam os dados usando cada visualização independentemente e então combinam
os agrupamentos individuais para obter um único particionamento de consenso (Tzortzis e Likas 2009). Uma técnica de agrupamento
baseada na maximização da expectativa de duas visões foi desenvolvida por Bickel e Scheffer (2004). No mesmo artigo, eles
também apresentaram uma técnica de agrupamento esférico k-means de duas visualizações sob a suposição de que as visualizações
são independentes. Alguns algoritmos de clustering multiview hierárquicos aglomerativos para dados de texto também foram
propostos para lidar com dados de texto. Os resultados mostram que, embora as versões multiview de k-means e EM tenham um
desempenho melhor do que suas contrapartes de visão única, alguns resultados negativos são obtidos para técnicas de agrupamento
multiview hierárquico aglomerativo (Bickel e Scheffer 2004) . Um algoritmo de agrupamento espectral de duas visualizações que cria
um grafo bipartido foi desenvolvido por de Sa (2005). Outra técnica de agrupamento espectral multiview foi proposta por Kumar e
Daumé (2011). Uma técnica de clustering multiview baseada em modelo de mistura convexa foi proposta por Tzortzis e Likas (2009).
Os mesmos autores propuseram posteriormente uma técnica de clustering multiview ponderada baseada em kernel (Tzortzis e Likas
2012). Uma abordagem baseada em cluster ensemble para agrupamento multiview foi proposta por Xie e Sun (2013). Duas
abordagens, ou seja, agrupamento espectral multiview e k-means do kernel multiview, foram propostas para lidar com o

1http://www.ics.uci.edu/ÿmlearn/MLRepository.html. 2http://
credo.fub.it/ambient.

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

Explorando a Otimização Multiobjetivo para Multiview Clustering 44:5

problema de agrupamento multiview combinando os agrupamentos originários de diferentes visualizações por


uma abordagem de conjunto (Xie e Sun 2013). Uma nova técnica de clustering k-means baseada em múltiplas
visualizações foi desenvolvida por Cai et al. (2013) para conjuntos de dados de grande escala. Ele pode ser
executado em paralelo usando processadores multicore. Uma técnica de agrupamento de dados de expressão
gênica foi proposta nos últimos anos (Zeng et al. 2010), que combina informações de várias fontes. O algoritmo
Multi-Source Clustering (MSC) mescla informações de diferentes fontes de dados. Aqui, as informações de
uma fonte completa são consideradas primárias e as informações de algumas fontes incompletas são
consideradas como restrições. Os resultados mostram que o algoritmo MSC produz clusters mais significativos
biologicamente do que aqueles produzidos considerando apenas uma única fonte de informação. Isso, por
sua vez, prova a utilidade de combinar informações de várias fontes. Wahid et ai. (2014) desenvolveram uma
técnica baseada em cluster ensemble para resolver o problema de agrupamento multiview para documentos da web.
O método produz diferentes soluções de clustering utilizando visualizações separadas dos dados e, finalmente,
uma combinação desses clusters é formada para gerar um particionamento final.

2.2 Técnicas existentes de agrupamento baseadas em otimização multiobjetivo Para


muitos conjuntos de dados, é difícil identificar um único particionamento inequívoco. Para capturar todos os
particionamentos alternativos de um determinado conjunto de dados e também para capturar clusters com
formas diferentes, o problema de clustering é modelado como MOO (Deb 2001). Se existirem clusters de
estruturas diferentes em um único particionamento, será difícil identificar todos eles otimizando uma única
medida de qualidade de cluster. Para resolver este problema, várias medidas de qualidade de cluster, capazes
de identificar clusters com diferentes formas ao mesmo tempo, precisam ser otimizadas simultaneamente.
MOO pode ser empregado para resolver isso.
Handl e Knowles (2007) propuseram uma técnica de agrupamento multiobjetivo, chamada MOCK, onde
uma representação de adjacência baseada em locus (Park e Song 1998) é usada para codificar partições na
forma de uma string. O primeiro objetivo é capaz de determinar clusters com formato hiperesférico, enquanto
o segundo objetivo é usado para lidar com as estruturas conectadas. Os resultados de vários conjuntos de
dados artificiais e do mundo real mostram que o MOCK tem um desempenho melhor do que algumas técnicas
de agrupamento baseadas em conjuntos recentemente desenvolvidas, alguns algoritmos de agrupamento
baseados em SOO e duas abordagens diferentes de seleção de modelos. Um algoritmo evolutivo multiobjetivo
para clustering difuso também foi proposto nos últimos anos (Bandyopadhyay et al. 2007a, 2007b). Aqui,
novamente, duas funções objetivo, a de Fuzzy C-means (Bezdek 1981) e o índice Xie-Beni (Xie e Beni 1991a),
são otimizadas simultaneamente. Este algoritmo proposto é ainda estendido para resolver o problema de
agrupamento de dados categóricos (Mukhopadhyay et al. 2009). Uma nova técnica combinando as vantagens
de um agrupamento fuzzy multiobjetivo recentemente proposto (Bandyopadhyay et al. 2007a, 2007b) e o
classificador de máquina de vetor de suporte (SVM) também foi desenvolvida (Maulik et al. 2009;
Mukhopadhyay e Maulik 2009), que produz um solução única após a rescisão. A eficácia desta técnica foi
demonstrada para o particionamento automático de imagens de satélite (Bandyopadhyay et al. 2007a) e
dados de expressão gênica (Bandyopadhyay et al. 2007b).
Algumas técnicas de agrupamento multiobjetivo baseadas em simetria foram desenvolvidas por Saha e
Bandyopadhyay (2010a, 2010b, 2013). Para fins de agrupamento, as medidas de similaridade ou proximidade
desempenham alguns papéis importantes. Essas medidas são usadas para atribuir pontos a diferentes clusters.
O conceito de “simetria” é inerente a muitos objetos do mundo real. É um atributo importante para o
reconhecimento e identificação de objetos importantes. Inspirados por esta observação, algumas medidas de
similaridade baseadas em simetria foram propostas na literatura recente (Bandyopadhyay e Saha 2007; Saha
e Bandyopadhyay 2009). Bandyopadhyay et ai. (2008) propuseram uma técnica de agrupamento baseada em
AMOSA que é capaz de determinar agrupamentos com formas diferentes, desde que satisfaçam algumas
propriedades de simetria. Esse algoritmo foi estendido para determinar um particionamento adequado do
conjunto de dados fornecido após uma única execução (Saha e Bandyopadhyay 2010b).

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

44:6 S. Saha et ai.

Outra técnica de agrupamento multiobjetivo foi desenvolvida que utiliza uma nova medida de estabilidade de soluções de
agrupamento como a função objetivo (Saha e Bandyopadhyay 2010a). Todos esses algoritmos de clustering existentes são
capazes de lidar com clusters compactos de formato hiperesférico ou clusters com formas simétricas. A técnica de agrupamento
MOCK (Handl e Knowles 2007) é capaz de lidar com agrupamentos com estruturas conectadas ou formas hiperesféricas. Para
descobrir automaticamente clusters com várias propriedades, como formas simétricas, formas hiperesféricas ou estruturas
conectadas após a execução de um único algoritmo, um algoritmo de agrupamento generalizado foi desenvolvido (Saha e
Bandyopadhyay 2013). No entanto, todos os algoritmos mencionados acima consideraram apenas uma única visualização do
conjunto de dados no momento do particionamento. Várias exibições diferentes de um conjunto de dados não são consideradas
no momento do particionamento do conjunto de dados.

2.3 Desvantagens da Literatura Existente A maioria das

técnicas existentes de agrupamento multiview são baseadas nos conceitos de SOO. Uma única medida de qualidade para
particionamento é otimizada implícita ou explicitamente usando vários paradigmas de aprendizado de visão única. Nos últimos
anos, foram desenvolvidas duas abordagens de agrupamento multivisão baseadas em multiobjetivo; no entanto, eles assumem
que o número de clusters presentes em um conjunto de dados é conhecido a priori. Em resumo, as técnicas existentes sofrem das
seguintes desvantagens:

(1) A maioria das técnicas existentes de agrupamento multiview são baseadas nos conceitos de SOO. Uma única medida de
qualidade para particionamento é otimizada implícita ou explicitamente usando vários paradigmas de aprendizado de
visão única não supervisionado.
(2) Nenhuma das abordagens multiobjetivo baseadas em múltiplas visualizações segue uma abordagem particional para
agrupar um conjunto de dados descrito por múltiplas visualizações. É necessário desenvolver uma maneira de
determinar automaticamente o particionamento ideal de um determinado conjunto de dados após a execução única de
um algoritmo (sem simplesmente combinar as saídas de vários algoritmos de agrupamento) que satisfaça várias
visualizações.
(3) A maioria das abordagens anteriores assume que o número de clusters é conhecido de antemão e pode ser especificado
pelo usuário. Assim, algumas abordagens automáticas que podem determinar um número apropriado de clusters
presentes em um conjunto de dados também são necessárias.
(4) As técnicas de agrupamento baseadas em multiobjetivo mais avançadas disponíveis na literatura
não considere várias exibições ao agrupar os conjuntos de dados.

Isso nos motivou a desenvolver uma abordagem automatizada baseada em multiobjetivo para multiview clus
tering. Os principais atributos da abordagem são os seguintes:

—Determina automaticamente o número de clusters de um conjunto de dados.


—Todas as visualizações serão consideradas simultaneamente no momento do particionamento do conjunto de dados.
—Múltiplos particionamentos serão gerados satisfazendo diferentes medidas de qualidade de cluster. Todos
esses particionamentos corresponderão a diferentes formas de agrupar os dados.
—Múltiplas medidas de qualidade de cluster serão otimizadas simultaneamente usando a capacidade de pesquisa
bilidade de uma abordagem baseada em MOO.
—Finalmente, uma nova maneira de medir a concordância entre particionamentos gerados usando diferentes visualizações
é proposta e utilizada para obter um particionamento de consenso final que satisfaça múltiplas visualizações.

3 CLUSTERING MULTIVIEW BASEADO EM OTIMIZAÇÃO MULTIOBJETIVO Nesta seção, descrevemos em

detalhes nossa técnica de agrupamento baseada em multiview multiobjetivo proposta. Observe que a capacidade de pesquisa do
AMOSA é usada aqui como a estratégia de otimização subjacente. No entanto, a metodologia de agrupamento proposta é de
natureza genérica e qualquer outra estratégia de otimização poderia ter sido utilizada no lugar do AMOSA (Bandyopadhyay et al.
2008).

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

Explorando a Otimização Multiobjetivo para Multiview Clustering 44:7

3.1 Formulação do problema

O problema de agrupamento multiview é formulado como um problema MOO.

-Dado:
—Um conjunto de dados de n amostras S = {x1, x2,...,
xn }, —cada um descrito por d características diferentes
—e no total m visualizações diferentes, e —um conjunto
de funções objetivas

CV1,CV2,...,CVm,AI,

onde cada CVi é um índice de validade de cluster medido no particionamento obtido após considerar apenas a
exibição i para o conjunto de dados fornecido, e AI mede a concordância entre os particionamentos obtidos para
diferentes exibições.
-Encontrar:

—Um particionamento de consenso (U) que satisfaz todas as


visualizações —O conjunto de pontos de dados, S, é dividido em K clusters, {U1,U2,...,UK }
—Ui = {xi XI2,..., XI
1, ni }; ni : número de pontos no cluster i; xi : ponto jth
j do cluster i.

—ÿK i=1Ui = S e Ui ÿUj = ÿ para todo i j. — que


otimiza simultaneamente as funções objetivas. A otimização simultânea
desses objetivos fornece uma frente ótima de Pareto.

3.2 AMOSA: Estratégia de Otimização Subjacente Nosso problema

de definição de MOO para clustering multiview requer a otimização de três ou mais funções objetivas simultaneamente.
Como o algoritmo AMOSA (Bandyopadhyay et al. 2008) é particularmente útil para esse tipo de problema, nós o escolhemos
como a metodologia de otimização subjacente.
A seguir, damos uma breve descrição deste algoritmo, que é baseado em SA (Kirkpatrick et al. 1983).

SA é uma técnica de otimização popular baseada no processo de recozimento em metalurgia. Uma prova de
convergência de SA também existe na literatura, o que torna SA popular para resolver diferentes problemas difíceis de
otimização (Hastings 1985). No caso do SA, existe um conceito de probabilidade de aceitação, que é calculado a partir da
diferença de energia entre a solução atual e a nova solução.
Esta função de probabilidade é ainda utilizada durante o processo de seleção de uma nova solução. No caso de MOO, é
difícil gerar a probabilidade de aceitação considerando múltiplos objetivos.
Além disso, SA pode produzir apenas uma única solução após uma única execução. Como o MOO requer a identificação de
um conjunto de soluções de compensação, o SA deve ser executado para um problema de MOO várias vezes para obter o
conjunto de soluções não dominadas. Esses problemas dificultam o processo de extensão do SA para resolver problemas
de MOO. No AMOSA (Bandyopadhyay et al. 2008), vários novos conceitos são incorporados para resolver os problemas
mencionados acima.
Os principais atributos do AMOSA são os seguintes:

(1) Um Arquivo é usado para armazenar todas as soluções não dominadas geradas durante a busca
processo.
(2) Dois limites, ou seja, um limite rígido denotado por HL e um limite flexível denotado por SL, estão restringindo o
tamanho do Arquivo. Durante a execução, o tamanho do arquivo pode atingir SL, mas quando Archive-size> SL,
o agrupamento de ligação única (Jain et al. 1999) é usado para reduzir o
tamanho para HL.

(3) A inicialização do Archive é feita com soluções aleatórias (ÿ × SL), onde ÿ > 1. Cada solução corresponde a algum
estado no espaço de busca. Essas soluções iniciais são então refinadas usando algumas etapas de subida de
colina.

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

44:8 S. Saha et ai.

Fig. 1. Fluxograma da primeira abordagem proposta (MOO-Multi1).

(4) O ponto atual é selecionado escolhendo aleatoriamente uma solução do arquivo na temperatura T = Tmax .
Uma nova solução chamada new-pt é gerada após a aplicação de operações de
mutação no ponto atual.
(5) Um grande número de casos é definido dependendo do status de dominação do new-pt em relação ao
current-pt e outras soluções restantes no arquivo para selecionar o próximo ponto atual. Existem três
resultados possíveis dependendo do estado de dominação da nova solução, nomeadamente (i) aceitar a
nova solução, (ii) aceitar a solução atual ou (iii) aceitar uma solução do arquivo.

(6) O processo acima mencionado (etapas 4–5) é executado iter vezes em cada temperatura e a temperatura
é diminuída com uma taxa de resfriamento de ÿ (<1) até que a temperatura mínima Tmin seja atingida .

(7) Ao final da execução, o Arquivo final contém um conjunto de soluções não dominadas.
(8) O conceito de resfriamento geométrico é incorporado para diminuir a temperatura: Tk+1 =
ÿ ×Tk , onde ÿ é a taxa de resfriamento.

Os resultados experimentais mostram que o AMOSA tem um desempenho comparável aos algoritmos evolutivos
multiobjetivos existentes, como NSGA-II (Deb et al. 2002) para resolver diferentes problemas de teste de dois
objetivos de referência, mas supera todos os algoritmos existentes na resolução de três ou mais problemas de teste
objetivos, o que também são conhecidos como problemas de teste de muitos objetivos (Bandyopadhyay et al. 2008).

3.3 Visão geral do MOO-Multi1

Uma descrição detalhada das diferentes etapas do algoritmo proposto (MOO-Multi1) é fornecida abaixo e o
pseudocódigo é mostrado no Algoritmo 1 e nos algoritmos seguintes. Um fluxograma com as diferentes etapas do
MOO-Multi1 é mostrado na Figura 1. O algoritmo começa com a geração de diferentes visualizações para um dado
conjunto de dados. Algumas possíveis soluções iniciais são geradas aleatoriamente e são armazenadas no Arquivo
do processo AMOSA. Uma nova maneira de representar as soluções de particionamento na forma de strings é
proposta aqui. Com base nos centros codificados em uma solução/string, diferentes particionamentos são
identificados explorando diferentes visualizações. O critério baseado na distância central mínima é utilizado com a
finalidade de atribuir pontos a diferentes agrupamentos.
As qualidades desses diferentes particionamentos obtidos após a variação das vistas são julgadas com o

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

Explorando a Otimização Multiobjetivo para Multiview Clustering 44:9

ajuda de um índice de validade de cluster. O consenso entre diferentes particionamentos também é medido
usando um índice de concordância recém-desenvolvido. AMOSA é empregado para otimizar simultaneamente
essas múltiplas funções objetivas. A fim de explorar o espaço de busca de forma eficiente e determinar
automaticamente o número de clusters, vários operadores de mutação são propostos para gerar uma nova
solução a partir da solução atual. Por fim, serão seguidos os passos do AMOSA para identificar
automaticamente o particionamento ótimo e o número ótimo de clusters.

ALGORITMO 1: MOO-Multi1
Definir Tmax ,Tmin,no_views,HL, SL, Iter, ÿ,temp = Tmax /ÿno_views é o número total de visualizações do conjunto de dadosÿ/
begin

Inicializar pool /ÿ Tamanho do pool=SL ÿ/ for i = 1 to


pool_size do
para j = 1 para no_views faça
ComputeMembership(pool[i],j)
UpdateCenter(pool[i],j) fim

CombineCenter(pool[i]) for j
= 1 to no_views do
ComputeFitnessPBM(pool[i],j)/* Calcula PBM para cada visualização */ end

ComputeFitnessAI(pool[i]) fim

Inicialize o Archive com as soluções não dominadas do pool current_pt=random(Archive)


while temp ÿ Tmin do new_pt = perturb(current_pt) for j = 1 to no_views do

ComputeMembership(new_pt,j) /* Etapa de atribuição do tipo k-means para view j */


UpdateCenter(new_pt,j) /* Etapa de cálculo do centro do cluster tipo k-means para visualização j */
end
CombineCenter(new_pt) for j
= 1 to no_views do
ComputeFitnessPBM(new_pt,j)/* Calcula PBM para cada visualização */ end

ComputeFitnessAI(new_pt)
Calcule o domínio de current_pt e new_pt, atualize Archive temp = ÿ × temp
end

fim

3.4 Representação de String e Inicialização do Arquivo A


primeira etapa da abordagem de agrupamento proposta é inicializar o Arquivo usado no AMOSA
(Bandyopadhyay et al. 2008) com algumas soluções alternativas. As soluções são geradas aleatoriamente.
Aqui, cada solução contém um conjunto de centros de cluster para representar o agrupamento. Cada
membro do arquivo representa um conjunto de centros de cluster com base nos quais podemos obter
particionamentos usando várias exibições. Comprimentos diferentes são associados a diferentes membros
de arquivo. Assumimos que um determinado conjunto de dados contém n amostras onde cada uma delas
possui d características diferentes. Vamos assumir que cada ponto amostral tem m visões diferentes, V1, V2,...,Vm.
Aqui,

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

44:10 S. Saha et ai.

ALGORITMO 2: Gerar Partições de Cluster.

procedimento: ComputeMembership(Element,view_index) /ÿview_index refere-se ao número da visão


atualmente trabalhando.ÿ/ Defina min,distance,cluster_index begin for i=1 to no_clusters do

/*no_points = total de amostras presentes no conjunto


de dados*/ for j=1 to no_points do
Element.Membership[view_index][i][j] = 0 end

fim
for i=1 to no_points do
min = MAX_DOU BLE_VALU E
for j = 1 to no_clusters do /*
calcular a distância euclidiana */
distance = cal_distance (Element.center[view_index][j],dataset[view_index][i]) se a
distância ÿ min então min = distância

cluster_index = j
end end
Element.Membership[view_index]
[cluster_index][i] = 1 end

fim

1 n1
V1 = {f 1 ,..., f } (a visualização 1 consiste em um conjunto de n1 recursos presentes neste conjunto),
1 1n2 _
V2 = {f 2 ,...,f 2
} (a visualização 2 consiste em n2 recursos presentes neste conjunto), e assim por diante, até
1 nm m
Vm = {f m,..., f m } (a m-ésima visualização consiste em nm recursos presentes neste conjunto) e d = i=1 ni .
O conjunto de dados inicial consiste em amostras com todos os recursos pertencentes a diferentes visualizações.
Os valores m, ni,i = 1,...,m, d são específicos de um conjunto de dados. O membro do arquivo i representa os
centróides dos clusters Ki e tem comprimento li coordenadas
, onde li = d ÿdos
Ki . centros
Os diferentes
de Ki . valores
Para fins
reais
de inicialização,
de d × Ki representam
alguns pontos
as
Ki são selecionados aleatoriamente do conjunto de dados e são usados como os centros iniciais do cluster.

O número de centros de cluster codificados em uma solução particular i, denotado por Ki , é selecionado aleatoriamente
do intervalo dado Kmin a Kmax como segue:

Ki = (rand()mod(Kmax ÿ 1)) + Kmin (1)

Aqui, rand() é uma função que gera algum número inteiro aleatório. Kmax representa o limite superior do número de
clusters. O limite inferior denotado por Kmin é fixado em 2.
A estrutura de cada solução ou archive_element é mostrada na Figura 2. Aqui, uma amostra de valores de recursos d
é representada como um ponto de dados e cada centróide ck do cluster também é representado como um vetor de
valores de recursos d.

3.5 Formação de Clusters e Cálculos da Função Objetivo Depois de inicializar os

membros do arquivo com alguns centróides de cluster selecionados aleatoriamente, as etapas a seguir são executadas
para calcular diferentes funções objetivo. A capacidade de busca do AMOSA pode ser utilizada para otimizar
simultaneamente essas funções objetivas.

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

Explorando a Otimização Multiobjetivo para Multiview Clustering 44:11

Fig. 2. Representação de um particionamento na forma de solução. Aqui, uma representação baseada no centro é usada.
Nesta figura, assumimos que existem K = 2 clusters com duas visualizações: a primeira visualização possui 3 recursos e
a segunda visualização possui 2 recursos. Cjcluster.
(k) representa o valor
Por exemplo,euC1da(2)
k-ésima dimensão
representa dada
o valor j-ésima visão
segunda para o i-ésimo
dimensão da
primeira vista para a primeira 1
conjunto.

ALGORITMO 3: Atualize os Centros de Cluster.


procedimento: UpdateCenter(Element,view_index)
Defina sum_points[dim],count = 0 /ÿdim é o número de feições presentes na visão atual (número da visão referenciado
por view_index)ÿ/ begin for i=1 to no_cluster do count=0

para k = 1 para escurecer faça

soma_pontos[k] = 0
fim
para j=1 to no_points faça
if Element.Membership[view_index][i][j] = 1 then for k=1 to
dim faça sum_points[k] = sum_points[k] +
dataset[view_index][j][k] count = count + 1 end end end for k=1 to
dim do Element.center[view_index][i][k] = sum_points[k]/count end

fim
fim

(1) Primeiro, o conjunto de centros de cluster presentes na string são extraídos. Seja todo o conjunto },
{Cd1 ,Cd2,...,Cd k } = {C1 1,C1 2,...,C1 d 1 2 1 é o,CK
d hereCd ,...,CK primeiro centro de cluster
,...,CK
vetor de comprimento d, Cjésimo
denota
valor
o j- dimensional do i-ésimo centro do cluster e K é o número de clusters
eu

codificados nessa string específica. O clustering k-means é aplicado ao conjunto de dados usando esse
conjunto de centros de cluster para diferentes exibições.
(2) O valor do índice PBM é calculado para o particionamento final obtido usando view v. Let
o valor será denotado por PBMv .
(3) A matriz adjunta (Av de tamanho n × n, onde n é o tamanho do conjunto de dados) correspondente à visão v
é calculada da seguinte forma:

Av ij
= 1 se xi e xj pertencem ao mesmo cluster
= 0 caso contrário (2)

= 1 se i = j (3)

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

44:12 S. Saha et ai.

ALGORITMO 4: Combine Clusters com o Máximo de Pontos de Interseção de Diferentes Visualizações.


procedimento: CombineCenter(Elemento)
Defina temp[no_points],sum[no_points],max_strinä[no_points],index,max,count begin
for i=1 to no_clusters do

for j=1 to no_points do


sum[j] = max_strinÿ[j] = Element.membership[1][i][j] /*Inicializar sum e max_strinä com uma string de
cluster da primeira visualização.*/ end

/* começa a partir da segunda visualização */

para j=2 to no_views do


index = ÿ1
máximo = 0
contagem = 0

para k=1 a no_clusters faça


for l=1 to no_points do
temp[l] = Element.membership[j][k][l] end /
* determina o número de posições com um em
ambas as strings */ count = similarity_count(temp,max_strinä) if count
> max então índice = k

máx = contagem

f laä = 1
fim
end
if f laÿ = 1 então
f laÿ = 0 for
l=1 to no_points do
temp_strinÿ[l] = Element.membership[j][index][l] end /*
é o número de uns na primeira string maior que o número
de uns na segunda string? */ if count_ones(temp_strinä) > count_ones(max_strinä) então
max_strinä = temp end

fim
for l=1 to no_points do
sum[l]=sum[l]+Element.membership[j][index][l] end
end for l=1 to no_points do Element.f inal_membership[i,l]
= (sum [l]/no_views) > 0,5?1: 0 fim

fim
Centros de computação com associação atualizada e partição final de cálculo.
fim

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

Explorando a Otimização Multiobjetivo para Multiview Clustering 44:13

ALGORITMO 5: Compute o procedimento do índice


de concordância: ComputeFitnessAI()
Set aäree = 0,disaÿree = 0, adj[no_views][no_points][no_points],total_ai = 0,AäreementIndex begin

Calcular a matriz de adjacência para cada exibição


Inicialize adj
para v1=1 para (no_views ÿ 1) faça
for v2= (v1+1) to no_views do
aäree = 0 disaÿree = 0 for
n1 = 1 to no_points do

for n2 = 1 to no_points do if
adj[v1][n1][n2] = adj[v2][n1][n2] então concordo
= concordo+1 fim

outro
discordo = discordo+1
fim fim

fim
total_ai = total_ai + disaÿree/aÿree end

fim
AäreementIndex = (2 × total_ai)/(no_views × (no_views ÿ 1)) end

(4) Um novo índice de concordância da função objetivo é calculado da seguinte forma. Isso mede a concordância
entre os particionamentos obtidos usando várias exibições. A medida é calculada da seguinte forma: —Ao
mesmo tempo são consideradas duas visões: v1 e v2. Sejam as matrizes adjuntas correspondentes

ser Av1 e Av2, respectivamente.


n n
—O número de concordância (na) é calculado da seguinte forma: na = i=1 j=1 IAv1eu j ,Av2
, aqui
ij

= 1 se Av1 = Av2 (4)


IAv1 ,Av2 ij ij i j
eu j

= 0 caso contrário. (5)

—O número de discordâncias (nd ) é calculado da seguinte forma: nd = n2 ÿ na.


—O índice de concordância entre essas duas visualizações (v1, v2) é calculado da seguinte forma:

n+1
AIv1,v2 = . (6)
nd + 1
Os valores de 1 no numerador e no denominador são usados como fator de normalização para evitar o
problema de divisão por zero.
—O índice de Acordo total para todo o particionamento é calculado da seguinte forma:
m m
i=1 j=1,ji 2 × AIvi,vj
IA = , (7)
m × (m ÿ 1)
onde m é o número total de visualizações disponíveis.

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

44:14 S. Saha et ai.

(5) As funções objetivas correspondentes a uma cadeia particular são

{PBM1,..., PBMm,AI}.

A capacidade de busca do AMOSA é usada para maximizar simultaneamente essas funções objetivas. O
objetivo é identificar alguns bons particionamentos usando diferentes visualizações, que também são
particionamentos de consenso (semelhantes) em diferentes visualizações.
Observe que qualquer outro índice de validade de cluster poderia ter sido usado no lugar do índice PBM.
Para mostrar a eficácia do índice PBM em uma parte dos experimentos, também substituímos o índice PBM
pelo índice XB (Xie e Beni 1991b). Nesse caso 1 1 , as funções objetivo a serem otimizadas pelo AMOSA
são { ,AI}, onde
Bm XX BmB1 ,...,
é oX
valor do índice XB calculado para o particionamento obtido usando os recursos correspondentes
o valor mínimo dom.índice
Geralmente,
à exibição
corresponde aXBum
particionamento ótimo. Todas essas funções objetivas devem ser simultaneamente maximizadas pelo
AMOSA.

3.6 Atualização de String


Após o cálculo das funções objetivo, obtém-se um particionamento de consenso que satisfaça todas as visões
disponíveis. Os centros de agrupamento correspondentes a esse particionamento de consenso são usados para
atualizar a string do AMOSA.

—Seja o particionamento obtido por múltiplas visualizações representado por ÿ1, ÿ2,..., ÿm. Vamos denotar o j-
ésimo cluster da partição v como ÿv j . Primeiro, alguns reordenamentos
particionamentos são feitos
obtidos para entre todos
que haja os
uma
correspondência de um para um entre os números de cluster de diferentes particionamentos.

—Para obter um resultado de agrupamento combinado, primeiro atribuímos cada ponto de dados a um
agrupamento que é determinado pelo centro de agrupamento mais próximo. Primeiro, um centro de cluster de
consenso m, tendo no total d recursos/dimensões, para cada cluster é calculado considerando esses múltiplos
particionamentos. Apenas os pontos de dados são incluídos para os quais todas as visualizações concordam:
1 2 xi
xi ÿÿ j &xi ÿÿ j &...xi ÿÿm j
mj = | . (8)
{xi |xi ÿ ÿ1 &xi ÿ ÿ2 & ... &xi ÿ ÿm }| j
j j

Aqui, mj denota o j-ésimo centro do cluster do particionamento de consenso, o denominador conta o número
total de pontos presentes nos mesmos particionamentos obtidos usando diferentes visualizações.

—Em seguida, os cluster centersmj recém-gerados , j = 1,...,K são usados para obter o con final
particionamento sensual da seguinte forma:

ÿj = {ÿxi ÿ X : d(xi,mj) < d(xi,ml )forl = 1,...,K,lj}. (9)

Aqui, K é o número de clusters codificados naquela solução e d(xi,mj) denota a distância euclidiana entre a
média de consenso mj e o ponto de dados xi . X denota o conjunto de todos os

pontos de dados.
—Finalmente, usando a Equação (8), os novos centros de cluster de consenso são novamente calculados.
Esses novos centros de cluster mj , j = 1,...,K são usados para substituir os centros codificados na string.

Assim, para se obter um particionamento consensual, inicialmente são identificados os pontos comuns de diferentes
clusters presentes em diferentes particionamentos obtidos a partir de diferentes visões. Esses pontos são usados
posteriormente para determinar os centros dos clusters. Os outros pontos são atribuídos a esses centros usando um
critério de distância mínima para obter uma partição de consenso final. Esses centros de cluster são usados para
atualizar a string fornecida.

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

Explorando a Otimização Multiobjetivo para Multiview Clustering 44:15

3.7 Operadores de Busca


Para explorar o espaço de busca eficientemente usando o AMOSA, são introduzidas operações de
perturbação. Esses operadores também ajudam a gerar algumas novas soluções a partir da solução atual,
que podem participar ainda mais do processo de busca. Como a estrutura proposta é de natureza automática,
também é necessário que o número de clusters seja determinado automaticamente. Para isso, três diferentes
operadores de perturbação são introduzidos. O primeiro tipo pode ser usado para fazer algumas pequenas
perturbações no conjunto existente de centros de cluster. O segundo tipo é para aumentar o número de
clusters na solução dada e o terceiro tipo é para diminuir o número de clusters da solução dada. Para todas
essas operações, os centros do cluster são considerados indivisíveis, ou seja, todos os valores de
característica de um centro do cluster são inseridos ou excluídos simultaneamente. Abaixo descrevemos os
três tipos de operações de mutação em detalhes:
Mutação 1: Isso é usado para fazer algumas alterações no conjunto existente de centros de cluster. Para o
|ÿÿÿ |
Para fins de atualização, um valor aleatório é desenhado usando a distribuição Laplaciana, p(ÿ ) ÿ eÿ ÿ .
Aqui, ÿ é definido como o valor antigo do centro do cluster e ÿ é definido como 1,0. ÿ é usado para definir a
magnitude da perturbação. O valor recém-gerado é usado para substituir o valor do recurso atual de um
centro de cluster. A distribuição Laplaciana é utilizada para que a probabilidade de gerar um valor semelhante
ao valor antigo seja alta. Se um centróide específico for selecionado para a aplicação do operador de
mutação, todos os seus valores de recursos serão alterados da maneira acima.
Mutação 2: O objetivo deste operador de mutação é aumentar o número de clusters presentes em uma
solução. Do conjunto de dados fornecido, um ponto é selecionado aleatoriamente e esse ponto é inserido na
solução como um novo centro.
Mutação 3: Este tipo de mutação é usado para diminuir o número de centros de cluster codificados em
uma solução. Um centro de cluster é selecionado aleatoriamente do conjunto de centros de cluster codificado
na string. Isso é então excluído da solução. Como um centróide de cluster é considerado indivisível, no
processo de remoção de um centróide de cluster todos os valores de recursos são removidos.
Um exemplo da operação de mutação é mostrado no material suplementar. Qualquer um dos operadores
de mutação discutidos acima é aplicado em uma solução particular para gerar uma nova solução que pode
participar ainda mais no processo de AMOSA.

4 MÉTODOS DE LINHA DE BASE BASEADOS EM CONJUNTOS DE CLUSTER:


MOO-MULTI2 E MOO-MULTI3
Nesta seção, descrevemos dois métodos de linha de base, MOO-Multi2 e MOO-Multi3, que foram inspirados
por uma abordagem de conjunto SOO para clustering multiview (Wahid et al. 2014 ). Analogamente a esse
método SOO, MOO-Multi2 e MOO-Multi3 seguem uma abordagem baseada em ensemble para o clustering
multiview MOO. A capacidade de pesquisa do AMOSA é utilizada como acima, mas novamente qualquer
outro algoritmo MOO poderia ter sido usado. As saídas de algumas técnicas de agrupamento bem conhecidas
como k-means (Jain et al. 1999), técnicas de agrupamento hierárquico como ligação única (Jain et al. 1999),
ligação completa (Jain et al. 1999) e média linkage (Jain et al. 1999) são combinados eficientemente usando
as duas técnicas propostas baseadas em conjunto multiobjetivo. As etapas da segunda abordagem são
mostradas na Figura 3, e as etapas da terceira abordagem são mostradas na Figura 4. Ambos os algoritmos
começam com a geração de visualizações para um dado conjunto de dados. Quatro diferentes técnicas de
agrupamento, k-means, ligação única, ligação completa e ligação média são executadas em um determinado
conjunto de dados, variando as visualizações. As soluções do Arquivo são inicializadas com os
particionamentos identificados por essas técnicas de agrupamento. As duas abordagens propostas diferem
na forma de definir as funções objetivo. Os operadores de mutação propostos nas abordagens atuais são
usados para combinar as diferentes soluções de particionamento obtidas pelas técnicas de agrupamento
simples. O processo AMOSA é novamente seguido para otimizar diferentes funções objetivo

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

44:16 S. Saha et ai.

Fig. 3. Fluxograma da segunda abordagem (MOO-Multi2).

Fig. 4. Fluxograma da terceira abordagem (MOO-Multi3).

simultaneamente, e também para obter o número ideal de clusters e o número ideal de particionamentos
automaticamente.

4.1 Representação de strings


Primeiramente, para uma determinada string, o número de clusters (K) que serão codificados nela é
determinado aleatoriamente. Como na abordagem anterior, o número de clusters é variado no intervalo Kmin
a Kmax . Aqui, o valor de Kmin = 2 e Kmax = ÿ n, onde n denota o número de pontos de dados.
Primeiro, um valor K é selecionado aleatoriamente entre o intervalo Kmin e Kmax com probabilidade uniforme.
A cadeia particular contém algumas matrizes de pertinência de comprimento K × n. Quatro técnicas diferentes
de agrupamento, k-means, ligação única, ligação completa e ligação média, são executadas no dado

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

Explorando a Otimização Multiobjetivo para Multiview Clustering 44:17

Fig. 5. Matrizes de pertinência representadas em solução para segunda e terceira abordagens (MOO-Multi2 e MOO-
Multi3). No exemplo, há dois algoritmos de agrupamento, duas exibições, dois agrupamentos e um conjunto de dados
de 10 pontos.

conjunto de dados variando as visualizações com o número de clusters = K. Por exemplo, se o conjunto de dados
tiver V visualizações, então k-means será executado no total de V vezes no mesmo conjunto de dados com o conjunto
correspondente de atributos com o número de clusters = K . Para cada caso, uma matriz de pertinência Mem de
tamanho K × n é obtida da seguinte forma:

Memij = 1 se xj ÿ ÿi (10)
= 0. (11)

Aqui, xj denota o ponto de dados jth e ÿi denota o cluster i. Memij denota o valor de associação do ponto de dados jth
para o cluster ith. Assim, se o número total de algoritmos de agrupamento usados = m, o número de visualizações =
V, então obtemos m × V matrizes de pertinência, cada uma com tamanho K × n.
Essas matrizes de pertinência são codificadas na forma de uma string. Portanto, uma string é uma coleção de m ×V
matrizes binárias de pertinência. A Figura 5 mostra um exemplo da representação de string proposta.
Todas as strings do arquivo são inicializadas da maneira acima.

4.2 Cálculo de funções objetivo A segunda e a terceira


abordagem diferem no cálculo de suas funções objetivo.
Na segunda versão da abordagem proposta as matrizes de pertinência são tratadas separadamente.
A capacidade de pesquisa do AMOSA é usada para ajustar o particionamento obtido por um único algoritmo de
agrupamento. AMOSA é usado para encontrar o particionamento ideal para cada um dos algoritmos de agrupamento
individuais. Após a execução de todo o processo do AMOSA, para determinar um único particionamento de consenso
correspondente a uma única solução, uma nova abordagem é proposta.
Para medir a qualidade de um particionamento individual, duas medidas de qualidade de cluster, (i) compactação
e (ii) separação, são usadas. Assim, se o número total de algoritmos de agrupamento usados = m e o número de
visualizações = V então obtemos m ,×deV particionamentos
tamanho K × n. Aindividuais.
compacidadeAs de
matrizes de pertinênciaespecífico
um particionamento correspondentes são
é calculada
da seguinte forma:

k
i=1maxDiai
comp = . (12)
k

Aqui, K é o número de clusters e maxDiai representa o diâmetro máximo do i-ésimo cluster desse particionamento
específico. maxDiai é calculado da seguinte forma:
máximo
maxDiai = ÿk,j,kj&Memi j=Memik=1 d(xj , xk ),

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

44:18 S. Saha et ai.

Fig. 6. Operação de mutação em matrizes de pertinência (usadas nas abordagens MOO-Multi2 e MOO-Multi3).

onde d(xj , xk ) denota a distância euclidiana entre dois pontos xj e xk . Aqui, Memij = Memik = 1 indica que o j-
ésimo e o k-ésimo ponto pertencem ao i-ésimo cluster. A separação de um particionamento obtido é calculada da
seguinte forma:
k
i=1minSepi
setembro = , (13)
k
minSepi representa a separação mínima do i-ésimo cluster de todos os outros clusters. É calculado da seguinte
forma:

minSepi = d(xj , xk ), min ÿk,j,kj e Memi j=1&Memik=0

onde d(xj , xk ) representa a distância euclidiana entre dois pontos dados xj e xk . Memij = 1 denota que o j-ésimo
ponto pertence ao i-ésimo cluster e Memik = 0 denota que o k-ésimo ponto não pertence ao i-ésimo cluster. Assim,
as funções objetivo a serem otimizadas são }. O objetivo é então obter um particionamento onde os clusters são
1 1
,...,compm×v ,essas
minimizar simultaneamente funções
setembro×v
comp1, compactos
objetivas e bem
para obter separados
partições uns dos
individuais outros. O objetivo é
ótimas.
1 de setembro

Na terceira abordagem, os seguintes passos são seguidos:

—Aqui, para cada string primeiro, as matrizes de pertinência são combinadas para obter um único consenso
particionamento usando o procedimento da Seção 3.6.
—Os valores de compacidade e separação são calculados para este particionamento de consenso.
1
—As funções objetivo a serem otimizadas são {comp, }. Essas duas funções objetivo são minimizadas
setembro

simultaneamente usando o AMOSA.

4.3 Etapas da Operação de Mutação A


mutação binária simples é aplicada em cada matriz de pertinência codificada como uma string. O valor do bit
binário é invertido com alguma probabilidade. Alguns pontos são selecionados aleatoriamente e seus valores de
adesão são alterados. Um exemplo de uma operação de mutação é mostrado na Figura 6.

4.4 Combinando Soluções na Segunda Abordagem Após


o término da segunda abordagem, obtemos um conjunto de matrizes de pertinência correspondentes a uma única
solução no arquivo. As matrizes de pertinência são combinadas para obter um único particionamento de consenso
seguindo o procedimento mencionado na Seção 3.6. Esse particionamento final é relatado para essa solução
específica no arquivo.

5 RESULTADOS E ANÁLISES

Nesta seção, discutimos os conjuntos de dados usados para a análise experimental. Como todas as abordagens
propostas são baseadas no AMOSA, vários parâmetros estão envolvidos. Detalhes dos parâmetros também são
fornecidos nesta seção. Também incluímos uma aplicação real da técnica proposta,

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

Explorando a Otimização Multiobjetivo para Multiview Clustering 44:19

Tabela 1. Descrição dos conjuntos de dados

Nº real Recursos usados Número de recursos do PCA/


Conjuntos de dados AC Instâncias de recursos à vista1 recursos usados em view2 Total de recursos
Ratos 8 1.080 82 80 40 120

Diabético 2 1.151 20 19 4 23

HTRU2 2 17.898 9 8 4 12

Statlog (Shuttle) 7 58.000 9 9 5 14

Vinho 3 178 13 13 6 19
Levedura 10 1.484 8 8 4 12

o agrupamento de resultados de pesquisa na web. Os resultados obtidos são comparados com outra técnica de
agrupamento multiobjetivo baseada em multiview (Wahid et al. 2014) e várias outras técnicas de ponta.

5.1 Conjuntos de dados

Nesta seção, apresentamos os conjuntos de dados usados em nossos experimentos. Para o primeiro lote de
experimentos, usamos um grande número de conjuntos de dados do UCI Machine Learning Repository3, incluindo Iris,
Newthyroid, LiverDisorder, Glass, BreastCancer, Wine, Ionosphere, Yeast, Ecoli, Leaf, Mice Pro tein Expression,
Diabetic Retinopathy
como
Debrecen
o conjunto
, HTRU2
de dados
e Statlog
Mice(Shuttle).
Protein Expression,
Os resultados
Diabetic
com alguns
Retinopathy
conjuntos
Debrecen,
de dados
HTRU2,
maiores,
Stat
log (Shuttle), Wine e Yeast são fornecidos no documento principal e os resultados com outros conjuntos de dados são
discutidos no suplemento. Uma descrição de todos os conjuntos de dados usados aqui para experimentação é
fornecida na Tabela 1.

Como em outras publicações sobre agrupamento multiview, usamos duas views. A primeira exibição é o conjunto
original de atributos. A segunda visualização é gerada pela aplicação da Análise de Componentes Principais (PCA)
(Jolliffe 1986) ao conjunto de dados. Capturamos 95% da variação dos dados enquanto reduzimos a dimensionalidade.
O conjunto de atributos obtidos após a aplicação do PCA constitui a segunda visão. Os conjuntos de dados são
padronizados para média 0 e variância 1 antes da aplicação das técnicas propostas.

5.2 Pesquisa Comparativa Nós

comparamos nossa abordagem proposta com várias abordagens existentes: Multiview k-means (Bickel e Scheffer
2004), Multiview Multiobjective Evolutionary Algorithm (MMOEA) (Wahid et al. 2014), Multiobjective Multiview based
Spectral clustering approach (MOO-Spectral )
(Davidson et al. 2013), uma técnica de agrupamento multiobjetivo baseada em visão única, VAMOSA (Saha e
Bandyopadhyay 2010b). As três primeiras abordagens assumem que o número de clusters presentes em um conjunto
de dados é conhecido a priori. Um breve resumo dessas abordagens é fornecido no arquivo suplementar.

5.3 Parâmetros Utilizados

Como as abordagens propostas são baseadas na capacidade de busca do AMOSA (Bandyopadhyay et al. 2008), uma
técnica MOO baseada em SA, vários parâmetros estão envolvidos. Os parâmetros foram selecionados após a
realização de uma análise minuciosa. Algumas orientações sobre a seleção de parâmetros são fornecidas no artigo
original do AMOSA (Bandyopadhyay et al. 2008). A relação entre diferentes valores de parâmetros do AMOSA e uma
análise de sensibilidade dos parâmetros também pode ser encontrada lá (Bandyopadhyay et al. 2008). As mesmas
instruções são seguidas aqui para corrigir os valores

3http://www.ics.uci.edu/ÿmlearn/MLRepository.html.

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

44:20 S. Saha et ai.

Tabela 2. Resultados em alguns conjuntos de dados da vida real; os valores mínimos de pontuação de Minkowski
obtidos por diferentes algoritmos de agrupamento são relatados

Conjunto de dados MOO-Multi1PBM MOO-MultiX B MOO-Multi2 MOO-Multi3 multi-KM VAMOSA MOO-espectral


Ratos 0,9827 1.205684 1.34652 1,25745 1,36478 1.35134 1.1966908
Diabético 0,9900 0,992583 1.12874 1.02894 1.105689 1.11523 0,9962
Transporte 0,6007216 0,626147 0,68479 0,64854 0,648921 0,64233 0,6895
HTRU2 0,655078015 0,689214 0,70964 0,70498 0,695487 0,68125 0,7285
Vinho 0,662679 0,6875 0,6976 0,7154 0,9618 0,97 0,6764
Levedura 1.10384 1.127864 1.1555 1.18057 1,18766 1,831623 1.19975

Nota: Valores baixos do Minkowski Score correspondem a bons particionamentos. Os melhores valores para diferentes conjuntos de dados são
marcados em negrito.

de parâmetros. Por fim, mantivemos os seguintes valores: Tmax = 100, Tmin = 0,00001, iter = 30, ÿ, taxa de
resfriamento = 0,8, SL (soft-limit) = 50 e HL (hard-limit = 30). Kmax é definido igual a ÿ n, onde n é o tamanho do
conjunto de dados e Kmin = 2. Para medir a qualidade dos resultados obtidos, algumas medidas de qualidade de
cluster como o Minkowski Score (Ben-Hur e Guyon 2003), o Índice de Rand Ajustado (Hubert e Arabie 1985) e
Informação Mútua (Paninski 2003) são usados. Todas essas medidas verificam a concordância do particionamento
obtido com alguma verdade de campo disponível.

5.4 Análise dos resultados


Nós executamos nossas técnicas de clustering multiobjetivo baseadas em múltiplas visualizações propostas dez
vezes em um determinado conjunto de dados. Como as abordagens são baseadas em MOO, diversas soluções são
geradas para a frente ótima de Pareto final. Todas essas soluções representam uma compensação. Na primeira
abordagem (MOO Multi1), obtemos um conjunto de cluster centers na forma de soluções no arquivo final. Primeiro,
um particionamento de consenso é calculado usando esses centros de cluster seguindo as etapas mencionadas na
Seção 3.6. O valor Minkowski Score é calculado para este particionamento. Os valores mínimos de Minkowski Score
obtidos por todas as soluções produzidas por esta abordagem para diferentes conjuntos de dados são relatados na
Tabela 2. Aqui, duas versões do MOO-Multi1 são testadas. Na primeira abordagem, o índice PBM é usado para
medir a qualidade de particionamentos individuais obtidos de uma visão particular, e na segunda abordagem, o índice
XB (Xie e Beni 1991b) é usado como o índice interno de validade do cluster . As duas versões são nomeadas como
MOO-Multi1PBM e MOO-Multi1X B, respectivamente.
Da mesma forma, MOO-Multi2 retorna um conjunto de matrizes de pertinência de consenso após a aplicação dos
passos da Seção 3.6 sobre as soluções finais do arquivo. O valor Minkowski Score é calculado para cada uma
dessas matrizes de associação. Os valores mínimos de Pontuação de Minkowski obtidos por esta abordagem para
diferentes conjuntos de dados são relatados na Tabela 2. A terceira abordagem (MOO-Multi3) também retorna um
conjunto de matrizes de pertinência de consenso na frente ótima de Pareto final. Os valores mínimos de Minkowski
Score alcançados por essas soluções são relatados na Tabela 2. Os valores de Minkowski Score obtidos pelo
algoritmo multiview k-means e VAMOSA também são relatados na Tabela 2. No caso de VAMOSA, também relatamos
os valores mínimos de Minkowski Score sobre todas as soluções na frente final de Pareto. Cada um dos algoritmos
mencionados acima é executado dez vezes e, finalmente, os valores mínimos do Minkowski Score são relatados.
Cada uma das abordagens multivisão baseadas em multiobjetivos propostas fornece um conjunto de soluções na
frente final de Pareto. Também plotamos os boxplots dos valores do Minkowski Score obtidos por diferentes soluções
na frente ótima de Pareto para diferentes conjuntos de dados. Esses gráficos são mostrados no material
complementar. Esses números demonstram que todas as soluções produzidas por (MOO-Multi1PBM ) são melhores
que as soluções produzidas pelas outras duas abordagens (MOO-Multi1X B e multi-KM).

A Tabela 2 mostra claramente a eficácia das abordagens propostas. Também fica evidente na Tabela 2 que a
primeira abordagem proposta (MOO-Multi1PBM ) apresenta o melhor desempenho em comparação com todas as outras

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

Explorando a Otimização Multiobjetivo para Multiview Clustering 44:21

Tabela 3. Número de Clusters Identificados Automaticamente pelas Abordagens


Automáticas Propostas e Abordagens Comparadas

Conjunto de dados AC MOO-Multi1PBM MOO-MultiX B 6 2 MOO-Multi2 MOO-Multi3 VAMOSA


Ratos 8 6 6 6 6

Diabético 2 2 3 3 2

HTRU2 2 2 2 3 3 2
Transporte 7 7 7 6 6 6
Vinho 3 3 3 3 3 3
Levedura 10 10 9 6 6 6
Nota: Aqui, AC denota o número real de clusters.

abordagens propostas. Isso mostra a utilidade de desenvolver uma abordagem de particionamento usando a capacidade
de pesquisa do MOO para agrupar um conjunto de dados que satisfaça várias visualizações. O desempenho aprimorado
do MOO-Multi1 em relação ao MOO-Multi2 e MOO-Multi3 prova que as abordagens de agrupamento particional baseadas
em multiobjetivos são melhores em comparação com conjuntos de alguns algoritmos de agrupamento bem conhecidos.
Em geral, tem sido mostrado na literatura que as técnicas de agrupamento multiobjetivo funcionam melhor do que os
algoritmos de agrupamento simples. Mas os resultados obtidos também provam que haverá menos melhoria no
desempenho, mesmo se combinarmos as saídas dessas múltiplas técnicas de agrupamento único de forma eficiente.
Nossa abordagem proposta (MOO-Multi1) supera o k-means multiview para todos os conjuntos de dados. Isso novamente
suporta o utilitário de MOO para agrupamento de dados. O uso de índices internos de validade de cluster, índice PBM e
índice de concordância, ajuda o MOO-Multi1 a encontrar melhor um particionamento adequado. O desempenho
aprimorado das técnicas de agrupamento propostas em comparação com o VAMOSA também mostra a utilidade de usar
várias visualizações para agrupar um conjunto de dados. O VAMOSA usa apenas uma única visualização (os conjuntos
de dados originais), enquanto nossas abordagens usam duas visualizações (conforme discutido na Seção 5.1). Os
melhores resultados do MOO-MultiPBM em comparação com o MOO-MultiX B para a maioria dos conjuntos
ilustram
de adados
eficácia
do índice PBM para medir a qualidade dos particionamentos obtidos usando visualizações múltiplas.

Também comparamos o desempenho de MOO-Multi1 com outra abordagem de agrupamento espectral baseada em
multiobjetivo, MOO-Spectral (Davidson et al. 2013). MOO-Spectral (Davidson et al. 2013) em geral fornece um
particionamento bidirecional de um determinado conjunto de dados. Assim, ele deve ser executado várias vezes
considerando cada par de classes individualmente para avaliá-lo em conjuntos de dados com várias classes. Como na
publicação original, calculamos o Minkowski Score para cada particionamento bidirecional e, finalmente, relatamos o valor
médio de todos os pares. Os valores de pontuação de Minkowski obtidos por nossas técnicas de agrupamento MOO-
Multi1 e MOO-espectral propostas são relatados na Tabela 2 para todos os conjuntos de dados. Esta tabela mostra
claramente que nossa abordagem MOO-Multi1 proposta supera a técnica de agrupamento MOO-espectral existente por
grandes margens para a maioria dos conjuntos de dados. Isso prova as vantagens bidirecionais de nosso método
proposto. Nossa abordagem proposta não apenas determina automaticamente o número de clusters e o particionamento
apropriado, mas também a qualidade dos particionamentos obtidos é melhorada em comparação com as técnicas
existentes.
Também quantificamos a pureza dos particionamentos obtidos por todas as abordagens acima mencionadas usando
mais duas medidas de qualidade de cluster, a saber, o Índice de Rand Ajustado e a Informação Mútua. Os valores obtidos
do Índice de Rand Ajustado pela abordagem proposta são relatados na Tabela 4 e os valores obtidos de Informação
Mútua pela abordagem proposta são relatados na Tabela 5. Ambas as tabelas mostram novamente a eficácia da
abordagem proposta, MOO Multi1. Na Tabela 3, também relatamos o número de agrupamentos determinados
automaticamente pelas abordagens propostas e outra técnica de agrupamento automático multiobjetivo baseada em
visão única, VAMOSA. O número original de clusters presentes em diferentes conjuntos de dados também é relatado.
Isso é

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

44:22 S. Saha et ai.

Tabela 4. Resultados em termos do Índice Rand Máximo Ajustado

Conjunto de dados MOO-Multi1PBM MOO-MultiX B MOO-Multi2 MOO-Multi3 multi-KM VAMOSA MOO-Espectral


Ratos 0,094500041 0,093458722 0,01968 0,0200985 0,062849 0,0756 0,0219
Diabético 0,118363532 0,099873612 0,01097845 0,0115874 0,010087 0,09856 ÿ0,0016
Transporte 0,4585491 0,448914 0,3108954 0,3708954 0,3695123 0,3456 0,3648
HTRU2 0,353754503 0,334178 0,27415 0,29877 0,29475 0,29985 0,1247
Vinho 0,662679 0,6423 0,62835 0,6048 0,6148 0,42347 0,5270
Levedura 0,1261951 0,121016 0,1129 0,10689 0,10474 0,01163178 0,10247

Nota: Valores altos do Índice de Rand Ajustado correspondem a bons particionamentos. Os melhores valores para diferentes conjuntos de dados são
marcados em negrito.

Tabela 5. Resultados em Termos de Informação Mútua Máxima

Conjunto de dados MOO-Multi1PBM MOO-MultiX B MOO-Multi2 MOO-Multi3 Multi-KM VAMOSA MOO-Espectral


Ratos 0,094500041 0,093458722 0,01968 0,0200985 0,062849 0,04123 0,0219
Diabético 0,118363532 0,099873612 0,01097845 0,0115874 0,010087 0,09845 ÿ0,0016
Transporte 0,4585491 0,448914 0,3108954 0,3708954 0,3695123 0,3746 0,3648
HTRU2 0,353754503 0,334178 0,27415 0,29877 0,29475 0,3045 0,1247
Vinho 0,8082 0,79934 0,7944 0,7225 0,78544 0,7125 0,4942
Levedura 0,23599 0,22135 0,211354 0,210024 0,2080 0,05429907 0,059423693

Nota: Valores altos de Informação Mútua correspondem a bons particionamentos. Os melhores valores para diferentes conjuntos de dados são marcados
em negrito.

Tabela 6. Tempo de execução gasto (em segundos) por diferentes algoritmos de agrupamento

Conjunto de dados MOO-Multi1PBM MOO-MultiX B MOO-Multi2 MOO-Multi3 Multi-KM MOO-Spectral 13.0918


Ratos 10.9085 10.9015 12.9951 1.13 10.9119
Diabético 28.6825 28.7825 30.4128 30.8549 0,09 28.8996
Transporte 8905.16389 8906.173649 8910.31684 8909.17425 27.28 8906.2457
HTRU2 3515,14 3515,14 3518.11 3518,58 2.18 3516.14
Vinho 0,241427 0,234421 0,332141 0,432143 0,01 0,2417
Levedura 41,71 41,67 43.87936 43.493761 0,27 41,82

evidente a partir desta tabela que a abordagem MOO-Multi1PBM proposta é capaz de encontrar o número
apropriado de clusters de todos os conjuntos de dados testados.
Os tempos de execução levados por diferentes técnicas de agrupamento para todos os conjuntos de dados
usados são fornecidos na Tabela 6. A tabela mostra que o agrupamento MOO-espectral leva um pouco mais de
tempo em comparação com nossa abordagem MOO-Multi1 proposta para a maioria dos conjuntos de dados usados
para fins de experimentação. No entanto, o agrupamento espectral MOO precisa ser executado várias vezes com
diferentes combinações de exibição, enquanto o MOO-Multi1 é uma técnica de agrupamento particional automática
capaz de identificar o particionamento completo em uma única execução. Assim, o processo fica mais automatizado.
Com um aumento no número de pontos de dados e no número de visualizações, pode-se esperar que o tempo de
execução do MOO-espectral exceda o do MOO-Multi1.

5.5 Teste de significância estatística


Para mostrar que os resultados obtidos pela técnica de agrupamento multiobjetivo baseada em múltiplas
visualizações (MOO-Multi1) usando o índice PBM como a função objetivo são estatisticamente melhores do que
outras abordagens, também realizamos um teste estatístico teste de significância, para ser mais preciso, o teste t,
a um nível de significância de 5%. Aqui, a hipótese nula é que os valores médios de

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

Explorando a Otimização Multiobjetivo para Multiview Clustering 44:23

Tabela 7. Conjuntos de dados SRC Gold Standard

# de Nº de consultas # de
conjunto de dados
de subtópicos Avg/Min/Max Snippets
AMBIENTE 44 17,95/6/37 4.400
ODP-239 239 10/10/10 25.580
MORESQUE 114 6,7/2/38 11.402

os dois grupos são iguais. A hipótese alternativa assume que existem diferenças significativas nos valores médios dos
dois grupos. Cada um dos algoritmos usados é executado 10 vezes. Os valores-p obtidos e as diferenças médias
entre os valores de pontuação de Minkowski obtidos pelos dois grupos (aqui, o primeiro grupo consiste nos valores
mínimos de pontuação de Minkowski obtidos por nossa abordagem MOO-Multi1PBM proposta em dez execuções e o
segundo grupo é variado ao longo diferentes outros algoritmos de agrupamento) são relatados no material suplementar.
Os resultados na tabela mostram claramente que as melhorias obtidas pelo nosso algoritmo MOO-Multi1PBM proposto
são estatisticamente significativas em comparação com o MOO-multi1X B e, de fato, também em comparação com
todos os outros métodos que testamos.

6 APLICAÇÃO PARA CLUSTERING DE RESULTADOS DE PESQUISA

A fim de mostrar a eficácia da técnica proposta (MOO-Multi1) para resolver algum problema do mundo real, nós a
aplicamos para agrupamento de resultados de busca (Carpineto et al. 2009). O agrupamento de resultados de
pesquisa na Web (SRC), também conhecido como agrupamento pós-recuperação ou agrupamento efêmero, tornou-
se popular nos últimos vinte anos para ajudar os usuários na navegação na web. O objetivo é agrupar os trechos da
web disponíveis em alguns clusters rotulados de forma significativa. Os trechos da web são recuperados de um
mecanismo de pesquisa para uma determinada consulta (Acharya et al. 2014). Vários algoritmos de agrupamento são
propostos na literatura para lidar com esse problema (Moreno et al. 2013). Nos últimos anos, uma abordagem
particional baseada em objetivos múltiplos foi proposta por Acharya et al. (2014) para lidar com essa questão. Como
mencionado anteriormente, Wahid et al. (2014) desenvolveram uma técnica de agrupamento MOO baseada em
múltiplas visualizações para agrupamento de resultados de pesquisa. Aqui, a capacidade de pesquisa do NSGA-II
(Deb et al. 2002), um algoritmo genético multiobjetivo popular, é usada para combinar as saídas de alguns algoritmos
de agrupamento bem conhecidos, como k-means e agrupamento hierárquico.
Os seguintes conjuntos de dados foram usados para nossa avaliação: AMBIENT,4 MORESQUE (Navigli e Crisafulli
2010) e ODP-239 (Carpineto e Romano 2010). Uma breve descrição dos conjuntos de dados é mostrada na Tabela
7. Uma discussão detalhada sobre os conjuntos de dados é apresentada no material suplementar. Para cada um
desses conjuntos de dados, geramos duas exibições da seguinte maneira:

(1) A visão sintática: Esta visão representa a informação sintática de um documento dado
uma consulta específica. Isso é gerado usando as seguintes etapas: (i) Os
termos nos documentos são primeiro extraídos. (ii) Uma matriz documento-
termo é criada. Aqui, uma linha, uma coluna e uma célula correspondem a um documento, um termo e o
valor ponderado de um termo para um documento, respectivamente. (iii) Valores de TF-IDF (um
esquema de ponderação comum) são usados para preencher esta matriz. Cada célula contém a pontuação
TF-IDF (Robertson 2004) de um termo dado a um documento.
(2) A visão semântica: Esta visão captura o conteúdo semântico dos trechos da web (Moreno et al. 2013; Moreno
e Dias 2014). As seguintes etapas são executadas para gerar essa visualização:

4http://credo.fub.it/ambient.

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

44:24 S. Saha et ai.

(i) Primeiro, dada uma consulta, os termos exclusivos são extraídos de todos os documentos da web
correspondentes. Cada documento da web é tokenizado após a remoção de todas as palavras de
parada. (ii) Os serviços web desenvolvidos por Machado et al. (2009) pode ser implantado para atribuir
uma pontuação de relevância a um token que faz parte do conjunto de web snippets adquiridos. A
pontuação é calculada após a análise dos contextos. (iii) Com base nessas pontuações, alguns
limites são fixados. Alguns tokens irrelevantes são removidos e tokens relevantes são usados para formar
um vocabulário V . um conjunto de p tokens mais relevantes é selecionado com base nos valores de
(iv) Deste vocabulário V , W (.) propostos por Machado et al. (2009) para um determinado trecho
da web. (v) Esses p tokens são usados para formar o vetor de recurso de palavra para essa web
específica
trecho.
(vi) Uma medida de similaridade baseada em conteúdo, Probabilidade Condicional Simétrica (SCP) (da
Silva et al. 1999), é usada para calcular a similaridade entre dois trechos da web. Dados dois vetores
de características de palavras di e dj , a similaridade
similaridade
correspondente
de seus constituintes
é calculada
conforme
considerando
definido na
a
Equação (14):

1 di dj
S (di,dj) = SCP (wr ).,wb (14)
eu
j
di dj r=1 b=1

Aqui, wr ) representa
(resp. wb o token na posição r (resp. bth) do vetor de recursos de palavra di (resp. dj). di
eu
j
e dj denotam, respectivamente, o número total de tokens ,wb nos vetores de recursos de palavra di
1999), calculado usando a seguinte equação: e dj . SCP (wr ) é o SCP (da Silva et al.
eu
j

2
P (W1,W2)
SCP (W1,W2) = , (15)
P (W1) × P (W2)

onde a probabilidade conjunta de dois tokens (W1 e W2), que fazem parte do vetor de recursos de
palavras, é denotada por P (., .) e P (.) denota a probabilidade marginal de um determinado token,
que faz parte de a palavra vetor de recurso.

Para executar a abordagem MOO-Multi1 para agrupamento de resultados de pesquisa na web, o seguinte
alterações são feitas no processo de MOO-Multi1 (conforme descrito na Seção 3.3):

—Agora cluster medoids são usados para representar os clusters na forma de uma solução. No agrupamento
MOO Multi1, uma codificação baseada em número inteiro é usada. Cada membro do arquivo é codificado
como uma string que representa os medoids das partições. Cada string tem um comprimento diferente.
Vamos assumir que a string i representa os medoids dos clusters Ki. Para fins de inicialização, os
documentos Ki são selecionados aleatoriamente como os medoids do cluster inicial. Os IDS do documento
são usados para representar os medoids do cluster.
—No caso de agrupamento baseado em visão semântica, trechos da web (ou pontos de dados) são atribuídos
a seus respectivos agrupamentos usando a medida de similaridade S (conforme definido na Equação (14) ).
Observe que aqui cada cluster medoid é considerado um vetor de recurso de palavra com um número
variável de tokens. Um ponto de dados (trecho da web) dj é alocado para um cluster t cujo medoid tem o
valor máximo de similaridade em relação a dj calculado da seguinte forma:

t = arämaxk=1,...KS (dj,mÿk ), (16)

o número total de clusters/partições é denotado por K, dj é o jth web snippet, mÿk é o medoid do kth cluster
ÿk , e S (dj,mÿk ) denota a semelhança
(14entre
). o documento dj e o cluster medoid mÿk definido na Equação

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

Explorando a Otimização Multiobjetivo para Multiview Clustering 44:25

Tabela 8. Resultados da avaliação em termos de F 1 sobre conjuntos de dados MORESQUE e ODP239:


comparação da abordagem proposta com abordagens baseadas em visão única de última geração

MOO-multi1 MOO-clus SOO-SRC


conjunto de dados mín. Max Min Max GK significa STC LINGO BIK

Moresco 0,6689 0,6987 0,658 0,675 0,655 0,455 0,326 0,317


ODP-239 0,4059 0,4294 0,379 0,384 0,366 0,324 0,273 0,2

O melhor valor é destacado em negrito.

—No caso do clustering baseado em visão sintática, a similaridade entre um cluster medoid e
um determinado documento é calculado da seguinte forma:
—Primeiro, os vetores TF-IDF (Robertson 2004) do documento representado como o cluster
medoid e o documento específico são criados.
—Finalmente, a similaridade do cosseno (Tata e Patel 2007) é calculada entre os dois documentos
vetores de mento di e dj como segue:

di .dj
sim(di,dj) = (17)
di ×dj
n
dk × dk
= k=1 eu
j .
n n
k=1
(dk )2 ×
eu k=1
(dkj )2

Um determinado documento di é atribuído ao cluster t cujo medoid tem o valor máximo de similaridade com di .

t = arämaxk=1,...KSim(di,mÿk ). (18)

Aqui, mÿk representa o vetor de características de palavra do medoid do cluster ÿk .


—Outras etapas são as mesmas descritas na Seção 3.3.

Para medir as qualidades dos particionamentos obtidos usando diferentes técnicas de agrupamento para esses conjuntos
de dados de pesquisa na web, usamos duas medidas de qualidade de agrupamento, a medida F1 (Crabtree et al. 2005) e o
índice Rand (Hubert e Arabie 1985 ) . . Observe que essas medidas de avaliação são diferentes das funções objetivas
usadas, pois essas medidas exigem o particionamento da verdade de campo. Essas medidas basicamente verificam a
concordância entre o particionamento calculado e o particionamento real. Os resultados são relatados na Tabela 8. Aqui, a
comparação é feita com outro algoritmo evolutivo multiobjetivo baseado em múltiplas visualizações (MMOEA) existente

(Wahid et al. 2014). Também comparamos o MOO-Multi1 com os atuais algoritmos SRC baseados em texto (endógenos)
de última geração: STC (Zamir e Etzioni 1998), LINGO (Osinski e Weiss 2005), Bisecting Incremental k-means (BIK) e GK-
means (Moreno et al. 2013). Além dessas técnicas de agrupamento baseadas em objetivo único, também fornecemos
resultados comparativos com relação a um algoritmo de agrupamento de resultados de pesquisa multiobjetivo baseado em
visão única (MOO-clus) (Acharya et al. 2014) . Este algoritmo é proposto recentemente, onde a capacidade de busca do
AMOSA é usada como estratégia de otimização subjacente. Duas funções objetivas, compacidade e separação do
particionamento, são otimizadas simultaneamente. Mas essa abordagem usa apenas uma única visão (a visão semântica, a
visão baseada em SCP). Os resultados obtidos por essas diferentes técnicas para conjuntos de dados MORESQUE e
ODP-239 são mostrados na Tabela 8. Observe que valores mais altos da medida F1 indicam melhores particionamentos.
Aqui, como nosso MOO-Multi1 proposto e o MOO-clus existente fornecem um conjunto de soluções na frente ótima de
Pareto final, relatamos os intervalos mínimo e máximo de valores de F 1 em todas as soluções no Pareto

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

44:26 S. Saha et ai.

Fig. 7. Boxplots dos melhores valores de (a) F1-measure (c) Rand index obtidos para diferentes consultas
combinando todos os conjuntos de dados após a aplicação da técnica proposta de MOO-Multi1PBM . Boxplots dos
melhores valores de (b) F1-measure (d) Rand index obtidos para diferentes consultas combinando todos os
conjuntos de dados após a aplicação de MMOEA (retirado do artigo (Wahid et al. 2014)) .

frontal ideal. Os resultados da Tabela 8 mostram claramente a utilidade da técnica de clusterização multiobjetivo
baseada em múltiplas visualizações proposta. Para ambos os conjuntos de dados, nosso algoritmo proposto obtém
resultados melhores em comparação com algoritmos de última geração. Esses resultados aprimorados podem ser
atribuídos ao uso de várias visualizações.
Observe que o algoritmo evolucionário multiobjetivo baseado em multivisualização existente (MMOEA)
(Wahid et al. 2014) foi aplicado nos três conjuntos de dados de resultados de pesquisa na web (AMBIENT, ODP-239
e MORESQUE) com seis visualizações diferentes. Para cada conjunto de dados, foram construídas seis matrizes de
visão: duas matrizes documento-termo (aqui uma linha corresponde a um documento e uma coluna corresponde a
um termo). A primeira matriz contém as pontuações TF-IDF correspondentes, mas na segunda matriz apenas as
pontuações TF são armazenadas. Na terceira matriz, são captados os “sentidos” presentes nas diferentes consultas.
Três matrizes de tópicos de documentos são construídas. Os agrupamentos hierárquicos k-means, single-linkage,
average-linkage e complete-linkage são aplicados nessas seis exibições com um número de clusters especificado
pelo usuário. As saídas dessas técnicas de agrupamento são então combinadas de forma eficiente usando uma
abordagem baseada em conjunto. Observe que no artigo (Wahid et al. 2014) os resultados não são resumidos em
uma tabela para conjuntos de dados individuais. Para apresentar os resultados, os autores forneceram boxplots de
valores de Re call, Precision, F1-measure (Crabtree et al. 2005) e Rand index (Hubert e Arabie 1985) obtidos para
particionamentos após mesclar todas as consultas de três conjuntos de dados (este está em contraste com a literatura
existente, onde os resultados de diferentes técnicas de agrupamento de resultados de pesquisa na web são relatados
para conjuntos de dados individuais). Extraímos os boxplots correspondentes do artigo (Wahid et al. 2014) e os
reproduzimos aqui na Figura 7(b) e (d), respectivamente, para a medida F1 e o índice de Rand (os gráficos para
precisão e recuperação são fornecido no arquivo suplementar). Em ordem

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

Explorando a Otimização Multiobjetivo para Multiview Clustering 44:27

para fazer uma comparação justa, também mesclamos os melhores valores de precisão, recall, medida F1 e índice Rand
obtidos por nossa abordagem para diferentes consultas após combinar todos os três conjuntos de dados e plotá-los em
diferentes boxplots. Os boxplots correspondentes para a medida F1 e o índice Rand são mostrados na Figura 7(a) e (c),
respectivamente (os gráficos para precisão e recall são fornecidos no suplemento).

Essas figuras (Figura 7(a)–(h)) ilustram que o desempenho da abordagem proposta, MOO Multi1, é muito semelhante ao
da abordagem multivisualização existente para agrupamento de resultados de pesquisa na web. Nossa abordagem utiliza
apenas duas visualizações em contraste com as seis visualizações usadas pelo MMOEA, mas ainda atinge resultados
semelhantes. Além disso, no caso de agrupamento de resultados de pesquisa na Web, é muito difícil saber a priori o número
de agrupamentos por consulta. MMOEA assume que o número de clusters é conhecido de antemão. Essa restrição foi
superada por nossa abordagem proposta. Em nossa abordagem proposta, em particular a escolha do número de clusters, ou
seja, sua ordem de modelo, é de natureza automática. Ele pode determinar o número apropriado de clusters e o particionamento
apropriado automaticamente para qualquer consulta.

7 CONCLUSÕES E TRABALHOS FUTUROS

Apresentamos uma nova abordagem para clusterização multivisualização baseada em MOO. Muitos conjuntos de dados do
mundo real são abrangentes e implicam em várias representações. A obtenção de um particionamento de consenso geralmente
é uma tarefa não trivial. Portanto, propusemos três abordagens baseadas no conceito de MOO para esse propósito. A primeira
abordagem pode identificar automaticamente o particionamento apropriado, satisfazendo várias visualizações simultaneamente
para um determinado conjunto de dados. Uma nova estratégia de codificação e uma nova forma de medir a dissimilaridade
entre múltiplos particionamentos obtidos usando diferentes visões foram propostas no processo. Finalmente, um novo método
é proposto para combinar os particionamentos obtidos usando múltiplas visualizações para obter um único particionamento de
consenso. A frente ótima final de Pareto fornece um conjunto de tais particionamentos de consenso. A segunda e terceira
abordagens (linha de base) são baseadas nos conceitos de cluster ensembles. Eles foram desenvolvidos para combinar
adequadamente as saídas de alguns algoritmos simples de agrupamento, como k-means, agrupamento hierárquico e assim
por diante. Os operadores de busca usados nas abordagens de agrupamento multiobjetivo ajudam a combinar as saídas
dessas técnicas simples de agrupamento de forma eficaz e eficiente. Essas abordagens propostas diferem nas formas de
calcular as funções objetivo. Em todas as três abordagens, a capacidade de busca do AMOSA, uma técnica MOO baseada em
SA, é usada para explorar o espaço de busca de forma eficiente.

Os resultados dessas abordagens foram mostrados para vários conjuntos de dados, alguns deles do repositório de
aprendizado de máquina UCI. Duas visualizações foram usadas para cada conjunto de dados. Os resultados mostram a
eficácia da primeira abordagem em comparação com outras duas abordagens e também várias técnicas existentes de
agrupamento baseadas em visualização única e múltipla na detecção adequada de particionamentos adequados. Além disso,
mostramos a eficácia da abordagem para um aplicativo do mundo real, agrupamento de resultados de pesquisa na web. Duas
visualizações são consideradas para esses conjuntos de dados: uma visualização semântica e uma visualização sintática. Os
resultados foram mostrados para três conjuntos de dados de referência.

O trabalho futuro inclui o uso de alguns algoritmos multiobjetivos no lugar do AMOSA para entender sua capacidade como
técnica de otimização subjacente. Alguns algoritmos evolutivos multiobjetivos como o NSGA-II podem ser usados no lugar do
AMOSA para fazer um estudo comparativo.
Determinar automaticamente várias visualizações de um conjunto de dados sem usar nenhum conhecimento de domínio é
outra importante direção de pesquisa. A capacidade de pesquisa do MOO também pode ser usada para esse fim. Além dos
dados de pesquisa na web, muitos outros domínios do mundo real, como biologia molecular (expressão de genes RNAseq e
proteômica), podem se beneficiar dessas técnicas. Finalmente, o desenvolvimento de funções objetivas eficazes e eficientes
para capturar a qualidade de particionamentos de diferentes domínios e, em seguida, incorporá-los nas abordagens baseadas
em multiobjetivos desenvolvidas será objeto de pesquisas futuras.

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

44:28 S. Saha et ai.

REFERÊNCIAS
Sudipta Acharya, Sriparna Saha, Jose G. Moreno e Gaël Dias. 2014. Agrupamento de resultados de pesquisa multiobjetivo. Em Proceedings of the 25th
International Conference on Computational Linguistics (COLING'14), Conference: Technical Papers, 23–29 de agosto de 2014, Dublin, Irlanda. 99–108.

S. Bandyopadhyay, U. Maulik e A. Mukhopadhyay. 2007a. Agrupamento genético multiobjetivo para classificação de pixels em
imagens de sensoriamento remoto. IEEE Transações Geociência e Sensoriamento Remoto 45, 5 (2007), 1506–1511.
S. Bandyopadhyay, A. Mukhopadhyay e U. Maulik. 2007b. Um algoritmo aprimorado para agrupar dados de expressão gênica.
Bioinformática 23, 21 (2007), 2859–2865.
S. Bandyopadhyay e S. Saha. 2007. GAPS: Um método de agrupamento usando uma nova medida de distância baseada em simetria de ponto.
Reconhecimento de padrões 40 (2007), 3430–3451.
Sanghamitra Bandyopadhyay, Sriparna Saha, Ujjwal Maulik e Kalyanmoy Deb. 2008. Um algoritmo de otimização multi-objetivo baseado em recozimento
simulado: AMOSA. IEEE Transactions on Evolutionary Computation 12, 3 (junho de 2008),
269–283.

Asa Ben-Hur e Isabelle Guyon. 2003. Detectando clusters estáveis usando análise de componentes principais. Em Genômica Funcional. Springer, 159-182.

JC Bezdek. 1981. Reconhecimento de Padrões com Algoritmos de Função Objetiva Fuzzy. Plenário, Nova York.
Steffen Bickel e Tobias Scheffer. 2004. Agrupamento de múltiplas visualizações. In Proceedings of the 4th IEEE International Conference on
Mineração de Dados (ICDM'04). IEEE Computer Society, Washington, DC, 19–26.
Xiao Cai, Feiping Nie e Heng Huang. 2013. Multi-view K-means clustering em big data. Nos Anais da 23ª Inter
Conferência Nacional Conjunta sobre Inteligência Artificial (IJCAI'13). AAAI Press, 2598–2604.
Claudio Carpineto, Stanislaw Osinski, Giovanni Romano e Dawid Weiss. 2009. Uma pesquisa de mecanismos de agrupamento da web. ACM Computing
Surveys 41, 3 (julho de 2009), artigo 17, 38 páginas. DOI: http://dx.doi.org/10.1145/1541880.1541884 Claudio Carpineto e Giovanni Romano. 2010.
Agrupamento ideal de resultados de meta pesquisa. In Proceedings of the 33rd International ACM SIGIR Conference on Research and Development in
Information Retrieval (SIGIR'10). ACM, Nova York, NY, 170-177. DOI: http://dx.doi.org/10.1145/1835449.1835480 Daniel Crabtree, Xiaoying Gao e
Peter Andreae. 2005. Melhorando o clustering da web por seleção de cluster. In Proceedings of the 2005 IEEE/WIC/ACM International Conference on
Web Intelligence (WI'05). IEEE Computer Society, Washington, DC, 172–178. DOI: http://dx.doi.org/10.1109/WI.2005.75 Joaquim Ferreira da Silva, Gaël
Dias, Sylvie Guilloré, and José Gabriel Pereira Lopes. 1999. Usando o algoritmo localmaxs para a extração de unidades lexicais multipalavras contíguas
e não contíguas. In Actas do 9º Congresso Português de Inteligência Artificial (EPIA'99). 113–132.

Ian Davidson, Buyue Qian, Xiang Wang e Jieping Ye. 2013. Agrupamento espectral multi-objetivo e multivisualização via otimização de Pareto. In
Proceedings of the 13th SIAM International Conference on Data Mining. 234–242. DOI: http://dx.doi.org/
10.1137/1.9781611972832.26
VR de Sa. 2005. Agrupamento espectral com duas visualizações. In Proceedings of ICML Workshop on Learning With Multiple Views.
Kalyanmoy Deb. 2001. Otimização Multi-Objetivo Usando Algoritmos Evolutivos. John Wiley and Sons, Ltd., Inglaterra.
K. Deb, A. Pratap, S. Agarwal e T. Meyarivan. 2002. Um algoritmo genético multiobjetivo rápido e elitista: NSGA-II. IEEE Transactions on Evolutionary
Computation 6, 2 (abril de 2002), 182–197. DOI: http://dx.doi.org/10.1109/4235.996017 J. Handl e J. Knowles. 2007. Uma abordagem evolutiva para
agrupamento multiobjetivo. Transações IEEE em Evolutivo
Cálculo 11, 1 (2007), 56–76.
Harold M. Hastings. 1985. Convergência de simulação de recozimento-hastings. SIGACT News 17, 2 (setembro de 1985), 52–63.
DOI: http://dx.doi.org/10.1145/382252.382806
Lawrence Hubert e Phipps Arabie. 1985. Comparando partições. Journal of Classification 2, 1 (1985), 193–218. DOI: http://
dx.doi.org/10.1007/BF01908075
AK Jain, MN Murty e PJ Flynn. 1999. Agrupamento de dados: Uma revisão. ACM Computing Surveys 31, 3 (setembro de 1999), 264–323. DOI: http://
dx.doi.org/10.1145/331499.331504 TI Jolliffe. 1986. Análise de Componentes Principais. Springer Verlag.

S. Kirkpatrick, CD Gelatt e MP Vecchi. 1983. Otimização por recozimento simulado. Science 220, 4598 (1983), 671-680.
DOI: http://dx.doi.org/10.1126/science.220.4598.671
Abhishek Kumar e Hal Daumé III. 2011. Uma abordagem de co-treinamento para agrupamento espectral de múltiplas visualizações. Em Proceedings of the
28th International Conference on Machine Learning (ICML'11), Bellevue, Washington, 28 de junho a 2 de julho de 2011. 393–400.

D. Machado, T. Barbosa, S. Pais, B. Martins e G. Dias. 2009. Recuperação universal de informações móveis. Em Anais do
5ª Conferência Internacional sobre Acesso Universal na Interação Humano-Computador (HCI). 345–354.
U. Maulik, A. Mukhopadhyay e S. Bandyopadhyay. 2009. Combinando clusters pareto-ótimos usando aprendizado supervisionado para identificar genes co-
expressos. BMC Bioinformatics 27 (2009), 1197–1208.

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

Explorando a Otimização Multiobjetivo para Multiview Clustering 44:29

Jose G. Moreno, Gaël Dias e Guillaume Cleuziou. 2013. Agrupamento pós-recuperação usando medidas de similaridade de terceira
ordem. In Proceedings of the 51st Annual Meeting of the Association for Computational Linguistics (ACL'13), Volume 2: Short
Papers. 153–158. http://aclweb.org/anthology/P/P13/P13-2028.pdf.
José G. Moreno e Gaël Harry Dias. 2014. Agrupamento fácil de resultados de pesquisa na web: quando as linhas de base podem alcançar
algoritmos de última geração. In Proceedings of the 14th Conference of the European Chapter of the Association for Computational
Linguistics, (EACL'14). 1–5.
A. Mukhopadhyay e U. Maulik. 2009. Classificação de pixel não supervisionada em imagens de satélite usando clustering difuso multiobjetivo
combinado com classificador SVM. IEEE Transactions on Geoscience and Remote Sensing 47, 4 (2009),
1132–1138.
A. Mukhopadhyay, U. Maulik e S. Bandyopadhyay. Agrupamento difuso baseado em algoritmo genético multiobjetivo de categoria
atributos físicos. IEEE Transactions on Evolutionary Computation 13, 5 (2009), 991–1005.
Roberto Navigli e Giuseppe Crisafulli. 2010. Induzindo sentidos de palavras para melhorar o agrupamento de resultados de pesquisa na web. In
Proceedings of the 2010 Conference on Empirical Methods in Natural Language Processing (EMNLP'10). Associação de Lingüística
Computacional, Stroudsburg, PA, 116–126.
S. Osinski e D. Weiss. 2005. Um algoritmo baseado em conceito para agrupar resultados de pesquisa. IEEE Intelligent Systems 20, 3 (2005),
48–54.
Malay Kumar Pakhira, Sanghamitra Bandyopadhyay e Ujjwal Maulik. 2004. Índice de validade para clus crisp e fuzzy
ters.Pattern Recognition 37, 3 (2004), 487–501.
Liam Paninski. 2003. Estimativa de entropia e informação mútua. Computação neural 15, 6 (junho de 2003), 1191–1253.
DOI: http://dx.doi.org/10.1162/089976603321780272 YJ
Park e MS Song. 1998. Um algoritmo genético para problemas de agrupamento. In Actas da 3ª Conferência Anual sobre
Programação Genética. Paris, França, 568-575.
Estevão Robertson. 2004. Compreendendo a frequência inversa de documentos: Sobre argumentos teóricos para o IDF. Jornal de Docu
menção 60 (2004), 503–520.
Sriparna Saha e Sanghamitra Bandyopadhyay. 2009. Uma nova técnica de agrupamento baseada em recozimento simulado multiobjetivo
usando simetria. Cartas de reconhecimento de padrões 30, 15 (2009), 1392–1403. DOI: http://dx.doi.org/10.1016/j.patrec.2009. 07.015

S. Saha e S. Bandyopadhyay. 2010a. Uma nova técnica de agrupamento multiobjetivo baseada nos conceitos de estabilidade e
simetria. Conhecimento e Sistemas de Informação 23, 1 (2010), 1–27.
S. Saha e S. Bandyopadhyay. 2010b. Uma nova técnica de agrupamento multiobjetivo baseada em simetria para evolução automática de
agrupamentos. Reconhecimento de padrões 43, 3 (2010), 738–751.
Sriparna Saha e Sanghamitra Bandyopadhyay. 2013. Um algoritmo de agrupamento automático generalizado em uma estrutura multiobjetivo.
Applied Soft Computing 13, 1 (janeiro de 2013), 89–108. DOI: http://dx.doi.org/10.1016/j.asoc.2012.
08.005
Shiliang Sun. 2013. Uma pesquisa sobre aprendizado de máquina multivisualização. Computação Neural e Aplicações 23, 7 (2013), 2031–2038.
DOI: http://dx.doi.org/10.1007/s00521-013-1362-6
Sandeep Tata e Jignesh M. Patel. 2007. Estimando a seletividade de predicados de similaridade de cosseno baseados em tf-idf. SIGMOD
Registro 36, 2 (junho de 2007), 7–12. DOI: http://dx.doi.org/10.1145/1328854.1328855 Grigorios Tzortzis e Aristidis Likas. 2009. Modelos de
mistura convexa para agrupamento de várias visualizações. Springer, Berlim, 205-214.
DOI: http://dx.doi.org/10.1007/978-3-642-04277-5_21 Grigorios
Tzortzis e Aristidis Likas. 2012. Agrupamento multivisualização ponderado baseado em kernel. Em Proceedings of the12th IEEE International
Conference on Data Mining (ICDM'12), Bruxelas, Bélgica, 10–13 de dezembro de 2012. 675–684. DOI:http://dx. doi.org/10.1109/ICDM.2012.43

Abdul Wahid, Xiaoying Gao e Peter Andreae. 2014. Agrupamento multivisualização de documentos da Web usando multiobjetivo
algoritmo genético. In Proceedings of the IEEE Congress on Evolutionary Computation. 2625–2632.
Zhe Wang, Songcan Chen e Daqi Gao. 2011. Uma nova aprendizagem multivisão desenvolvida a partir de padrões de visão única. Padrão
Reconhecimento 44, 10–11 (2011), 2395–2413. DOI: http://dx.doi.org/10.1016/j.patcog.2011.04.002
Zhe Wang, Songcan Chen e Tingkai Sun. 2008. MultiK-MHKS: Um novo algoritmo de aprendizado de kernel múltiplo. IEEE Transactions on
Pattern Analysis and Machine Intelligence 30, 2 (2008), 348–353. DOI: http://dx.doi.org/10.1109/TPAMI. 2007.70786

Xijiong Xie e Shiliang Sun. 2013. Ensembles de agrupamento de múltiplas visualizações. In Proceedings of International Conference on Machine
Learning and Cybernetics (ICMLC'13), Tianjin, China, 14–17 de julho de 2013. 51–56. DOI: http://dx.doi.org/10.1109/ICMLC. 2013.6890443

XL Xie e G. Beni. 1991a. Uma medida de validade para agrupamento difuso. Transações IEEE em Análise de Padrões e Máquina
Inteligência 13 (1991), 841-847.
Xuanli Lisa Xie e Gerardo Beni. 1991b. Uma medida de validade para agrupamento difuso. Transações IEEE sobre Análise de Padrões e
Machine Intelligence 13, 8 (1991), 841-847.

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.
Machine Translated by Google

44:30 S. Saha et ai.

O. Zamir e O. Etzioni. 1998. Agrupamento de documentos da Web: uma demonstração de viabilidade. Nos Anais da 21ª Conferência Anual
Conferência nacional ACM SIGIR sobre Pesquisa e Desenvolvimento em Recuperação de Informação (SIGIR). 46–54.
Erliang Zeng, Chengyong Yang, Tao Li e Giri Narasimhan. 2010. Agrupamento de genes usando fontes de dados heterogêneas. International
Journal of Knowledge Discovery in Bioinformatics 1, 2 (2010), 12–28.

Recebido em agosto de 2017; revisado em janeiro de 2018; aceito em janeiro de 2018

ACM Transactions on Knowledge Discovery from Data, vol. 12, nº 4, artigo 44. Data de publicação: maio de 2018.

Você também pode gostar