Escolar Documentos
Profissional Documentos
Cultura Documentos
C ENTRO DE T ECNOLOGIA
Orientador
Prof. Dr. José Alfredo Ferreira Costa
Coorientador
Prof. Dr. Cláudio Rodrigues Muniz da Silva
E sta longa e cansativa caminhada, eu estudei diversos temas, encontrei muitas dúvidas, deparei-
N me com o medo, porém aprendi bastante. Eu descobri quatro pilares sobre os quais me
sustentei: persistência, humildade, paciência e fé. Mas, para isso, eu precisei da ajuda de muitas
pessoas a quem devo os meus sinceros agradecimentos.
Meu orientador, Prof. Dr. José Alfredo, pelos vários artigos dos quais solicitou minhas revi-
sões. Indiscutivelmente, elas contribuíram com o desenvolvimento da minha escrita científica.
Prof. Dr. Cláudio Muniz, meu amigo e co-orientador, por ter disponibilizado o seu precioso
tempo. Nossas reuniões semanais foram além da produção acadêmica: elas contribuíram com o
meu crescimento pessoal e o profissional.
Eu não poderia imaginar que, além dos professores orientadores, tantas pessoas poderiam
contribuir diretamente com este trabalho. São elas:
Professor Leandro Pasa, que, por muitas vezes, sugeriu melhorias nos artigos que eu
produzi durante o curso de doutorado.
Professores Carmelo Bastos, Ahmed Esmin, Teófilo Mattozo, Givanaldo Souza, Érico
Braz, Rodrigo Siqueira, Valério Gutemberg, Gustavo Fontoura e Daniel Brito, pelas dis-
cussões e preciosas sugestões relacionadas a este trabalho.
Professores Elthon Medeiros, Albérico Canário, Iderval Barbosa e Valdemiro Severiano,
pelas vezes que sanaram minhas dúvidas de matemática.
Professor Milson Santos, pelas várias revisões textuais relacionadas a esta tese.
Professores Luciana Bernardo, Luiz Ferdinando e Henrique Coelho, pelas revisões de
artigos submetidos no idioma inglês.
Professores Airton Souza e João Paulo Queiroz, além do amigo pesquisador Marcial
Guerra, pelo suporte técnico que me prestaram nas ferramentas usadas nesta tese.
Professores Alexandro Rocha, Bruno Gurgel e Pedrina Brasil, por se mobilizarem na viabi-
lização do meu afastamento das atividades em sala de aula para conclusão deste trabalho.
Eu agradeço também a todas aquelas pessoas que foram fontes de incentivo durante o meu
cansaço: amigos, familiares e colegas de trabalho. Aqui, é impossível eu citar todos os nomes, mas
as palavras de apoio de cada uma delas permanecem na minha mente.
Minha esposa e o pequeno Heitor, por conviverem com a minha ausência nesses anos. Ao
fim deste trabalho, certamente, o tempo que teremos juntos será muito mais agradável e divertido.
V IDA R ELUZ
RESUMO
literatura, é comum encontrar diversos problemas de engenharia que são usados com o
N
A
Figura 1 – Exemplo de uma função com um mínimo global x ∗ e vários mínimos locais x ∗A 29
Figura 2 – Uma ave pode orientar a direção do seu voo de acordo com a posição de seus
vizinhos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
Figura 3 – Comportamento exploratório da PSO em busca do ótimo global . . . . . . . . . 36
Figura 4 – Modelo Perceptivo de Serendipidade . . . . . . . . . . . . . . . . . . . . . . . . . . 38
Figura 5 – Diagrama de atividades do algoritmo SBPSO . . . . . . . . . . . . . . . . . . . . . 56
Figura 6 – Padrões de comportamento usados para implementar a dimensão sagacidade . 57
Figura 7 – Exemplo de identificação do Padrão 1 . . . . . . . . . . . . . . . . . . . . . . . . . 57
Figura 8 – Plotagem da Função Esfera ( f 1 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
Figura 9 – Plotagem da Função Rosenbrock ( f 2 ) . . . . . . . . . . . . . . . . . . . . . . . . . . 64
Figura 10 – Plotagem da Função Griewank ( f 3 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
Figura 11 – Plotagem da Função Rastrigin ( f 4 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
Figura 12 – Plotagem da Função Ackley ( f 5 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
Figura 13 – Plotagem da Função Noisy Quartic ( f 6 ) . . . . . . . . . . . . . . . . . . . . . . . . . 66
Figura 14 – Plotagem da Função Zakharov ( f 7 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
Figura 15 – Plotagem da Função Hiper Elipsoide Rotacionada ( f 8 ) . . . . . . . . . . . . . . . 67
Figura 16 – Plotagem da Função Alpine ( f 9 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
Figura 17 – Plotagem da Função Sargan ( f 10 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
Figura 18 – Plotagem da Função Salomon ( f 11 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
Figura 19 – Plotagem da Função Csendes ( f 12 ) . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
Figura 20 – Plotagem da Função Xin-She Yang 01 ( f 13 ) . . . . . . . . . . . . . . . . . . . . . . . 70
Figura 21 – Plotagem da Função Soma dos Quadrados ( f 14 ) . . . . . . . . . . . . . . . . . . . 70
Figura 22 – Plotagem da Função Schumer Steiglitz ( f 15 ) . . . . . . . . . . . . . . . . . . . . . . 71
Figura 23 – Plotagem da Função Powell Sum ( f 16 ) . . . . . . . . . . . . . . . . . . . . . . . . . 71
Figura 24 – Processo de convergência médio na Função f 1 , com 20 partículas, em 30D . . . 74
Figura 25 – Processo de convergência médio na Função f 2 , com 20 partículas, em 30D . . . 74
Figura 26 – Processo de convergência médio na Função f 3 , com 20 partículas, em 30D . . . 75
Figura 27 – Processo de convergência médio na Função f 4 , com 20 partículas, em 30D . . . 75
Figura 28 – Processo de convergência médio na Função f 5 , com 50 partículas, em 300D . . 83
Figura 29 – Processo de convergência médio na Função f 6 , com 50 partículas, em 300D . . 83
Figura 30 – Processo de convergência médio na Função f 7 , com 50 partículas, em 300D . . 84
Figura 31 – Processo de convergência médio na Função f 8 , com 50 partículas, em 300D . . 84
Figura 32 – Processo de convergência médio na Função f 9 , com 50 partículas, em 300D . . 85
Figura 33 – Processo de convergência médio na Função f 10 , com 50 partículas, em 300D . . 85
Figura 34 – Processo de convergência médio na Função f 11 , com 50 partículas, em 300D . . 86
Figura 35 – Processo de convergência médio na Função f 12 , com 50 partículas, em 300D . . 86
Figura 36 – Processo de convergência médio na Função f 13 , com 50 partículas, em 300D . . 87
Figura 37 – Processo de convergência médio na Função f 14 , com 50 partículas, em 300D . . 87
Figura 38 – Processo de convergência médio na Função f 15 , com 50 partículas, em 300D . . 88
Figura 39 – Processo de convergência médio na Função f 16 , com 50 partículas, em 300D . . 88
LISTA DE TABELAS
AP Adjacent Point
IP Inspection Point
NP New Point
TQ Teoria Quântica
1 INTRODUÇÃO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.1 Contextualização . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.2 Motivação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.3 Definição do Problema . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.4 Contribuições . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.5 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
1.6 Organização do Documento . . . . . . . . . . . . . . . . . . . . . . . 25
2 FUNDAMENTAÇÃO TEÓRICA . . . . . . . . . . . . . . . . . . . . . . . 27
2.1 Processo de Otimização . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.1 Otimização Local . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.1.2 Otimização Global . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2 Meta-heurística . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3 Inteligência de Enxames . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4 Otimização por Enxame de Partículas . . . . . . . . . . . . . . . . . 32
2.5 Serendipidade . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.6 Trabalhos Relacionados . . . . . . . . . . . . . . . . . . . . . . . . . . 39
2.6.1 Aumento de Diversidade . . . . . . . . . . . . . . . . . . . . . . . 39
2.6.2 Detecção de Estagnação . . . . . . . . . . . . . . . . . . . . . . . 45
2.6.3 Comparação dos Trabalhos . . . . . . . . . . . . . . . . . . . . . . 46
2.7 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4 EXPERIMENTOS COMPUTACIONAIS . . . . . . . . . . . . . . . . . . 59
4.1 Funções de Referência . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4.2 Configuração dos Parâmetros . . . . . . . . . . . . . . . . . . . . . . 72
4.3 Resultados Experimentais . . . . . . . . . . . . . . . . . . . . . . . . . 72
4.3.1 Experimentação 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
4.3.1.1 Avaliação dos Resultados . . . . . . . . . . . . . . . . . . . 81
4.3.2 Experimentação 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.3.2.1 Avaliação dos Resultados . . . . . . . . . . . . . . . . . . . 90
4.4 Resumo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5 CONSIDERAÇÕES FINAIS . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.1 Conclusões . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
5.2 Limitações e Trabalhos Futuros . . . . . . . . . . . . . . . . . . . . . 94
REFERÊNCIAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
Na Seção 1.1, é apresentada a contextualização desta tese. Na Seção 1.2, os aspectos que
contribuíram com a motivação do desenvolvimento do trabalho são apresentados. Na Seção 1.3, é
descrita a convergência prematura, um problema comumente enfrentado pelos algoritmos de oti-
mização. Na Seção 1.4, as principais contribuições do trabalho são apresentadas. Na Seção 1.5, os
objetivos gerais e os específicos são listados. E, por fim, na Seção 1.6 é apresentada a organização
do documento.
1.1 CONTEXTUALIZAÇÃO
Os problemas de otimização estão presentes em diversos domínios do mundo real como,
por exemplo, medicina (SMIGRODZKI et al., 2005), planejamento de transportes (CONTRERAS;
CHUNG; JONES, 2008), roteamento de veículos (LI; TIAN; LEUNG, 2009), planejamento da pro-
dução (VASANT, 2010), projetos de engenharia (YI; DUAN; LIAO, 2013), gerenciamento de tráfego
aéreo (ALONSO-AYUSO; ESCUDERO; MARTÍN-CAMPO, 2016) e muitos outros. A otimização con-
siste em um processo que objetiva encontrar a melhor solução para um determinado problema.
Assim, há uma necessidade constante da construção de algoritmos eficientes e robustos, capazes
de resolver problemas de otimização em aplicações reais.
et al., 2013). Uma classe especial dos algoritmos bioinspirados foi inspirada na inteligência dos en-
xames e, portanto, são conhecidos como algoritmos baseados em inteligência de enxames.
A Otimização por Enxame de Partículas (PSO) é uma das meta-heurísticas mais utiliza-
das para resolução de problemas de otimização (GANDOMI; ALAVI, 2012). Segundo Bai (2010),
ela ganhou muita atenção devido a algumas de suas características, tais como: a) aplicabilidade a
pesquisas científicas e a problemas do mundo real, b) exploração mais rápida do espaço de busca,
quando comparada com algumas meta-heurísticas tradicionais e c) facilidade de implementação.
Apesar dessas características, muitas vezes, a PSO enfrenta um problema em que as suas partícu-
las ficam “presas” em soluções sub-ótimas, também chamadas de ótimos locais. Esse problema
enfrentado durante o processo de otimização é conhecido como convergência prematura.
Esta tese estuda o conceito de serendipidade e propõe a sua adaptação ao contexto dos
algoritmos de inteligência de enxames, a fim de criar mecanismos que possibilitem o enxame es-
capar de soluções sub-ótimas. Para validar a proposta apresentada e avaliar os seus resultados,
uma variante da PSO, que se beneficia do conceito de serendipidade, é implementada para me-
lhorar a performance do algoritmo. Algumas estratégias, comumente empregadas em uma área
conhecida como Sistemas de Recomendação, são usadas para implementar as duas dimensões de
serendipidade: acaso e sagacidade. A dimensão “acaso” é implementada por meio da estratégia
chamada blind luck, e a implementação da dimensão “sagacidade” é realizada usando a estratégia
22
1.2. MOTIVAÇÃO
Nesta tese, a estratégia blind luck consiste em usar o comportamento exploratório de partí-
culas escoteiras para implementar a dimensão acaso. Recentemente, alguns trabalhos implemen-
taram essa dimensão (SILVA; NEVES; GONÇALVES, 2013; VITORINO; RIBEIRO; BASTOS-FILHO,
2015). Já a dimensão sagacidade consiste na realização de inspeções nas adjacências da partícula
gBest da iteração atual. A dimensão foi implementada por Peer, Bergh e Engelbrecht (2003), modi-
ficando a equação da velocidade apenas da melhor partícula do enxame. Já a abordagem de Evers
e Ghalia (2009) reagrupa o enxame nas proximidades da partícula gBest, quando a estagnação do
enxame é detectada.
Observou-se que a dimensão acaso foi bastante utilizada nas variantes estudadas neste
trabalho, ao passo que a implementação de sagacidade ocorreu com menos frequência. Apesar de
essas duas dimensões já terem sido implementadas em trabalhos anteriores, no estudo realizado
aqui, nenhum deles considerou um conjunto de padrões de comportamento para implementar
a dimensão sagacidade. O benefício em considerar esses padrões é o fato de que eles podem ser
usados para representar o comportamento do valor de fitness ao longo dos pontos em uma reta
que passam pela partícula gBest durante a iteração atual.
1.2 MOTIVAÇÃO
Em uma área de estudo conhecida como Sistemas de Recomendação, há um conceito que
tem se tornado uma tendência para melhoria da qualidade dos resultados apresentados aos usuá-
rios (MALAK, 2014). Esse conceito é conhecido como serendipidade. De maneira geral, serendipi-
dade é um termo que se refere a resultados afortunados que, aparentemente, ocorreram por acaso.
No entanto, o conceito de serendipidade não consiste apenas na ocorrência do acaso, mas de sua
combinação com sagacidade.
De acordo com Paiva, Costa e Silva (2015), quando um sistema de recomendação sugere
apenas itens relacionados ao perfil de interesse do usuário, ele converge para recomendações que
podem não atender as reais expectativas do usuário e, dessa forma, deixar de sugerir itens que
23
CAPÍTULO 1. INTRODUÇÃO
podem ser mais adequados. De forma similar, quando um algoritmo baseado na inteligência de
enxames converge para um ótimo local, sem levar em consideração outras soluções mais adequa-
das que a encontrada, é possível observar a semelhança entre superespecialização e convergência
prematura.
Na literatura específica estudada, não foram encontradas propostas que utilizam a imple-
mentação do conceito de serendipidade. Nesse sentido, a hipótese desta tese é que o conceito de
serendipidade é uma abordagem promissora e, quando aplicado no contexto dos algoritmos ba-
seados na inteligência de enxames, pode ser usado como uma estratégia para tratar o problema
da convergência prematura e obter melhores resultados.
Aplicar muita diversificação ao processo de busca pode torná-lo ineficiente, ao passo que
o uso de muita intensificação pode ocasionar a convergência prematura que, em geral, ocorre
devido à diminuição da diversidade no espaço de busca, o que leva o enxame a um estado de
estagnação. Segundo Evers e Ghalia (2009), depois que a convergência prematura é iniciada, o
algoritmo continua o processo de convergência no qual as soluções estão muito próximas umas
das outras em uma região extremamente estreita do espaço de busca.
Portanto, diante desse problema típico dos algoritmos meta-heurísticos, a questão que
esta tese se propõe a responder é:
Como o conceito de serendipidade pode ser adaptado ao contexto dos algoritmos base-
ados em inteligência de enxames a fim de retardar a convergência prematura durante o
processo de busca?
24
1.4. CONTRIBUIÇÕES
1.4 CONTRIBUIÇÕES
Esta tese estuda o conceito de serendipidade e as suas estratégias de implementação com
o propósito de construir mecanismos que possam lidar com um problema frequentemente en-
frentado pelos algoritmos baseados na inteligência de enxames. Abaixo são listadas as principais
contribuições:
3. Definição de um conjunto de padrões que pode ser usado para representar os possíveis va-
lores de fitness dos pontos para definir o ótimo global da iteração atual durante o processo
de otimização.
1.5 OBJETIVOS
O principal objetivo deste trabalho é estudar o conceito de serendipidade e criar mecanis-
mos que possam ser usados para melhorar o processo de convergência de um enxame e, conse-
quentemente, obter melhores resultados. Os objetivos específicos são elencados a seguir:
25
CAPÍTULO 1. INTRODUÇÃO
26
CAPÍTULO
2
F UNDAMENTAÇÃO T EÓRICA
Neste capítulo, são apresentados alguns conceitos básicos necessários para uma compre-
ensão adequada do leitor. Na Seção 2.1, é apresentada uma visão geral sobre o processo de oti-
mização. Na Seção 2.2, são apresentados o conceito de meta-heurística e as suas características.
Na Seção 2.3, Inteligência de Enxames é apresentada como uma área de pesquisa, que tem sido
bastante utilizada para resolver problemas de otimização. Já na Seção 2.4, a meta-heurística PSO
é discutida. Na Seção 2.5, o conceito de serendipidade é apresentado, a fim de justificar a sua
adequação no contexto da Inteligência de Enxames. Por fim, na Seção 2.6, alguns trabalhos da
literatura que propuseram lidar com o problema da convergência prematura são apresentados.
Depois que o modelo de otimização é definido, um algoritmo pode ser utilizado para en-
contrar a sua solução. Existem vários algoritmos com esse propósito (GLOVER, 1986; HOLLAND,
1992; KENNEDY; EBERHART, 1995; DORIGO; MANIEZZO; COLORNI, 1991). Cada um deles é ade-
quado para um determinado tipo de problema de otimização. A escolha de um desses algoritmos
pode determinar se a resolução do problema será rápida (ou lenta) e se a solução ótima será en-
contrada.
onde f e cada c i são funções com valores escalares das variáveis x, ε e % são os conjuntos de
índices.
f (x ∗A ) ≤ f (x), ∀x ∈ A, (2.2)
28
2.1. PROCESSO DE OTIMIZAÇÃO
f (x ∗ ) ≤ f (x), ∀x ∈ S, (2.3)
onde S é o espaço de busca. Para problemas sem restrição é comum escolher S = Rn , onde n é a
dimensão de x.
De acordo com Bergh (2006), alguns autores definem um algoritmo de otimização global
diferentemente do que foi apresentado na Equação (2.3). Para eles, o algoritmo deve ser capaz de
encontrar um minimizador local de A ⊂ S independentemente da posição atual z 0 . Esses algorit-
mos consistem de dois processos: busca local e busca global. Em geral, a busca local é a aplicação
de um algoritmo de minimização local, enquanto a busca global objetiva garantir que o algoritmo
se moverá em uma região A i , a partir do ponto em que a busca local é capaz de encontrar o mi-
nimizador de A i . Esses algoritmos também são capazes de encontrar o minimizador global, uma
vez que a posição de partida z 0 é escolhida corretamente.
x*
A
x*
A
x*
A
x*
A x*
A
x*
A
x*
A
x*
Figura 1: Exemplo de uma função com um mínimo global x ∗ e vários mínimos locais x ∗A .
Fonte: Autoria própria.
29
CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA
2.2 META-HEURÍSTICA
Um problema complexo pode ser resolvido por um método exato ou por um método apro-
ximado. Os métodos exatos garantem que a solução global ótima será encontrada. Esses métodos
são formados pelos seguintes algoritmos: programação dinâmica, programação por restrições, fa-
mília branch e família A ∗ . Por outro lado, os métodos aproximados produzem soluções de alta
qualidade em um tempo razoável, porém não há a garantia de que a solução ótima global será
encontrada. Os métodos aproximados podem ser classificados em algoritmos heurísticos e algo-
ritmos de aproximação.
Os algoritmos heurísticos encontram boas soluções para problemas complexos. Eles ob-
têm desempenho e custo aceitáveis em vários problemas. Normalmente, esses algoritmos não
garantem aproximação das soluções obtidas. Eles podem ser classificados em duas subclasses:
heurística específica e meta-heurística. As heurísticas específicas são adaptadas e projetadas para
resolver um problema específico. Por outro lado, as meta-heurísticas são de uso geral e podem ser
aplicadas para resolver qualquer problema de otimização (TALBI, 2009).
A origem do termo heurística vem do grego heuriskein, que significa “a arte de descobrir
novas estratégias para resolução de problemas”. O sufixo meta é também de origem grega e signi-
fica “metodologia de alto nível”. O termo meta-heurística foi usado pela primeira vez por Glover,
em 1986. As meta-heurísticas são formadas por uma família de técnicas de otimização que ga-
nharam popularidade nas últimas duas décadas (TALBI, 2009). O motivo da sua popularização é
o fato de elas oferecem soluções aceitáveis para problemas complexos de ciência e de engenharia
em um tempo razoável. Os métodos de busca meta-heurística podem ser definidos como meto-
dologias gerais de alto nível e que podem ser usados como estratégias no projeto de heurísticas
para resolver problemas específicos de otimização.
A eficiência e a eficácia das meta-heurísticas são comprovadas por meio de sua grande uti-
lização para resolver problemas complexos em diferentes domínios, tais como telecomunicações
(VILLEGAS et al., 2004), gerenciamento de tráfego aéreo (DURAND; GOTTELAND, 2006), proces-
samento de imagens (YAGOUNI, 2009), automação (KOUMBOULIS; TZAMTZI, 2010), aerodinâ-
mica (YUE-BO et al., 2012), mercado financeiro (SMONOU; KAMPOURIDIS; TSANG, 2013), pla-
nejamento de robôs (GIGRAS; GUPTA, 2014), aprendizagem de máquina (CHOU; THEDJA, 2016)
e outros.
Existem dois componentes presentes nos algoritmos de meta-heurística que são bastante
significativos. São eles: diversificação e intensificação. Na diversificação, as regiões não exploradas
devem ser visitadas para garantir que todas as regiões do espaço de busca sejam uniformemente
exploradas e que a busca não seja restrita a um número reduzido de regiões. Por outro lado, na in-
tensificação, as regiões promissoras são exploradas mais profundamente, a fim de obter melhores
soluções. Algumas meta-heurísticas são mais voltadas à intensificação enquanto outras possuem
características mais fortes de diversificação, porém uma boa combinação desses dois componen-
tes, em geral, garante o sucesso de uma meta-heurística.
30
2.3. INTELIGÊNCIA DE ENXAMES
A expressão inteligência de enxames foi usada pela primeira vez por Beni e Wang em um
trabalho que tinha como proposta um framework para otimização global no domínio de enxame
de robôs (BENI; WANG, 1989). Para Blum e Li (2008), Inteligência de Enxames pode ser definida
como uma disciplina da Inteligência Artificial que é usada para modelar o comportamento cole-
tivo de enxames sociais da natureza.
31
CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA
1. Proximidade – o enxame deve ser capaz de realizar cálculos simples de espaço e de tempo;
3. Resposta diversificada – o enxame não deve comprometer a sua atividade ao longo dos ca-
nais excessivamente estreitos;
4. Estabilidade – o enxame não deve mudar o seu comportamento devido à variação das con-
dições do ambiente e;
5. Adaptabilidade – o enxame deve ser capaz de alterar o seu comportamento quando for ne-
cessário.
Os algoritmos de inteligência de enxames têm sido aplicados com sucesso em vários domí-
nios. Podem ser citados como exemplos a) roteamento de veículos (GAMBARDELLA; TAILLARD;
AGAZZI, 1999), b) composição musical (BLACKWELL; BENTLEY, 2002), c) análise de clustering
(CHEN; YE, 2004), d) aplicações de eletromagnetismo (MIKKI; KISHK, 2005), e) bioinformática
(CORREA; FREITAS; JOHNSON, 2006), f) problema do caixeiro-viajante (SOUZA, 2013), g) treina-
mento de redes neurais (ZHOU; LIN, 2014), h) processamento paralelo (SILVA; BASTOS-FILHO,
2015), i) otimização de funções (PAIVA; COSTA; SILVA, 2016a; PAIVA; COSTA; SILVA, 2016b), en-
tre outros. Alguns modelos de inteligência de enxames que já foram implementados computa-
cionalmente são: Otimização por Enxame de Partículas (KENNEDY; EBERHART, 1995), Colônia
Artificial de Abelhas (KARABOGA, 2005), Otimização por Colônia de Formigas (DORIGO; BIRAT-
TARI; STÜTZLE, 2006), Algoritmo dos Vaga-lumes (YANG, 2010a), Algoritmo dos Morcegos (YANG,
2010b) e outros.
As aves também possuem uma interação social que viabiliza a) voos sem o risco de haver
colisões, mesmo quando há mudanças repentinas de direção, b) espalhamento e rápido reagrupa-
mento quando ameaças externas são percebidas e c) capacidade de evitar predadores (KENNEDY;
EBERHART, 1995).
32
2.4. OTIMIZAÇÃO POR ENXAME DE PARTÍCULAS
Figura 2: Uma ave pode orientar a direção do seu voo de acordo com a posição de seus vizinhos.
Fonte: Adaptada de Avise (2011).
O termo “partícula” denota um indivíduo de um enxame ou, de forma análoga, uma ave
que é membro de um bando. Em outras palavras, o conjunto dessas partículas é conhecido como
“enxame”. Quando uma partícula descobre um bom caminho que a leve ao alimento, as outras
partículas também serão capazes de se deslocarem para esse novo caminho, mesmo que ele esteja
distante do resto do enxame.
Uma partícula representa uma solução para um determinado problema que está sendo
otimizado. Ela “sobrevoa” o espaço de busca à procura de uma solução ótima, durante um número
de iterações. Cada partícula i é composta de três vetores: 1) a sua posição no espaço de busca
em D dimensões x~i = (x i 1 , x i 2 , ..., x i D ), 2) a sua melhor posição encontrada até o momento p
~i =
(p i 1 , p i 2 , ..., p i D ) e 3) a sua velocidade para uma trajetória v~i = (v i 1 , v i 2 , ..., v i D ).O pseudocódigo da
PSO é apresentado no Algoritmo 1.
33
CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA
zadas aleatoriamente (linha 2). Em seguida, o valor de fitness de cada uma delas é avaliado (linha
6) por uma função, a fim de definir os dois “melhores” valores (linhas 7–12). Eles são conhecidos
como pBest (linha 8) e gBest (linha 11).
v i d = w · v i d + c 1 · r 1 (p i d − x i d ) + c 2 · r 2 (p g d − x i d ) (2.4)
xi d = xi d + v i d (2.5)
34
2.4. OTIMIZAÇÃO POR ENXAME DE PARTÍCULAS
Apesar da PSO ser uma técnica capaz de encontrar bons resultados em um tempo de con-
vergência rápido, ela corre o risco de convergir prematuramente. A fim de evitar a estagnação do
enxame, Bergh (2006) apresentou três métodos que podem ser usados para detectar a convergên-
cia prematura:
1. Maximum Swarm Radius – consiste em avaliar a maior distância euclidiana entre uma par-
tícula do enxame e a partícula gBest. A estagnação ocorre quando essa distância euclidiana é
inferior a um valor limite, δst ag . Esse método de avaliação é formalmente apresentado pela
Equação (2.6):
maxi ∈(1,...,s) ke i j − e i∗j k
ϕj = , (2.6)
|µmax − µmi n |
onde ke i j − e i∗j k é a norma euclidiana entre uma partícula i do enxame e a partícula g B est
na iteração j . µmax e µmi n representam as extremidades máxima e mínima de cada dimen-
são da partícula i , respectivamente.
2. Cluster Analysis – consiste em avaliar o percentual do número de partículas que fazem parte
de um cluster C . Uma partícula pertence a C se a distância entre ela e a partícula g B est
é menor que um limite mínimo, δmi n . Então, quando um percentual de partículas em C
atingir um limite máximo, δmax , assume-se que a convergência ocorreu;
3. Objective Function Slope – considera a posição das partículas no espaço de busca. Baseia-se
exclusivamente na taxa de mudança da função objetivo, e o seu valor normalizado é obtido
por meio da Equação (2.7):
f ( ŷ j ) − f ( ŷ j −1 )
f r at i o = , (2.7)
f ( ŷ j )
onde f ( ŷ j ) denota o valor de fitness da função objetivo na iteração j , e f ( ŷ j −1 ) na iteração
j − 1. Se o valor de f r at i o é inferior a um limite predefinido, um contador é incrementado.
Quando o valor do contador atinge um valor limite, δconv , é assumido que o enxame con-
vergiu.
Para Bergh (2006), o método Objective Function Slope é melhor do que os outros, porém
apresenta algumas desvantagens. Uma abordagem alternativa para a obtenção de melhores resul-
tados é uma combinação do método Objective Function Slope com o Cluster Analysis ou o Maxi-
mum Swarm Radius.
Para exemplificar o princípio de funcionamento da PSO, foi utilizada uma função de refe-
rência bastante utilizada pelos algoritmos de otimização, chamada Esfera, que será apresentada
na Seção 4.1. O funcionamento da PSO durante várias iterações é representado nas Figuras 3a, 3b,
3c e 3d. Em (a), na primeira iteração, 20 partículas são inicializadas, de forma aleatória, no espaço
de busca; em (b), na iteração de número 40, as partículas são guiadas pelas experiências social e
individual adquiridas ao longo das iterações anteriores; em (c), na iteração 80, as partículas estão
se movendo para uma posição que apresenta um melhor valor de fitness e se aproximando da so-
lução ótima; e, em (d), na iteração 120, quase todas as partículas atingiram a melhor solução do
espaço de busca. Neste experimento, o algoritmo convergiu na iteração 193.
35
CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA
(a) (b)
(c) (d)
2.5 SERENDIPIDADE
O que há de comum entre o raio-X, o nylon e a vacina? Uma possível resposta a esse ques-
tionamento é que todos esses elementos foram descobertos por acaso, ou seja, eles ocorreram por
meio de serendipidade (CAMPOS; FIGUEIREDO, 2002). Uma frase frequentemente encontrada na
literatura relacionada a serendipidade é a de Louis Pasteur: “A sorte favorece a mente preparada”.
O termo “serendipidade”, muitas vezes, é usado como a) algo que foi achado sem, neces-
sariamente, estar procurando-se por ele (AUSTIN, 2003), b) sinônimo de “qualquer surpresa agra-
dável” (TOLSON, 2004), c) acaso ou d) sorte. Em 1754, em uma carta destinada a um amigo, o
romancista Horace Walpole cunhou o termo serendipidade. Na carta, o romancista falou de uma
descoberta fundamental que havia realizado. Segundo ele, a sua descoberta estava baseada em um
conto persa do século XVI, intitulado The Three Princes of Serendip. Naquela história, por serem
observadores e sagazes, os príncipes descobriram a solução para um determinado problema. Mas,
para isso, eles precisaram observar e combinar um conjunto de eventos fortuitos que ocorreram.
36
2.5. SERENDIPIDADE
O conceito de serendipidade tem sido estudado em diversos domínios, tais como Tele-
comunicações (EAGLE, 2004), Ciências Sociais (MERTON; BARBER, 2006), Medicina (MEYERS,
2007), Marketing (PERNA et al., 2013), Direito Penal (MENDES, 2014), Sistemas de Recomenda-
ção (OKU; HATTORI, 2011; TAHARA; OHSUGA, 2014) e outros.
Em um estudo exaustivo, Andel (1994) mostrou que a serendipidade tem uma grande con-
tribuição para o progresso da ciência, da tecnologia e da arte. Na ciência e na tecnologia, as desco-
bertas casuais ocorrem com frequência (KUHN, 1970). Na história da ciência, por exemplo, exis-
tem vários casos de serendipidade: 1) a da vaselina, em 1859, pelo químico britânico Chesebrough;
2) a da sacarina, em 1878, pelo químico russo Fahlberg; 3) a do raio-X, em 1895, pelo físico alemão
Röntgen; 4) a da radioatividade, em 1896, pelo cientista francês Beckerel; 5) a do forno micro-
ondas, em 1945, pelo engenheiro americano Spencer, além de tantas outras.
P 1 ⊂ (K P 1 )
⇒ S 1 ⊂ (K P 1 , K M , K N ) (2.8)
M ⊂ (K M ),
37
CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA
Equação (2.9):
P 1 ⊂ (K P 1 ) P 2 ⊂ (K P 2 )
⇒ (2.9)
M ⊂ (K M ) S 2 ⊂ (K P 2 , K M , K N ),
onde P 2 é um novo problema inspirado a partir de M, K P 2 é o domínio de conhecimento do novo
problema e S 2 é a solução para P 2 , a qual é reconhecida simultaneamente com a identificação de
P 2 . Serendipidade também pode ocorrer sem inspirar-se em uma metáfora M :
P 2 ⊂ (K P 2 )
P 1 ⊂ (K P 1 ) ⇒ (2.10)
S 2 ⊂ (K P 2 , K N ).
Por fim, a metáfora também pode ocorrer quando o conhecimento é representado de forma in-
correta. Considerando a representação do conhecimento incorreto E P 1 , tem-se que:
P 2 ⊂ (K P 2 )
P 1 ⊂ (K P 1 , E P 1 ) ⇒ (2.11)
S 2 ⊂ (K P 2 , K N ).
Lawley (2013) propôs um modelo perceptivo de serendipidade que considera seis eventos
que garantem a existência da serendipidade clássica ou da pseudosserendipidade, como ilustrado
na Figura 4. São eles: 1) uma “mente preparada”, 2) um evento não planejado e inesperado, 3) o
reconhecimento da potencialidade de um significado no futuro, 4) uma ação para ampliar a po-
tencialidade do efeito considerado no Evento 2, 5) efeitos que podem ser utilizados para amplificar
ainda mais o benefício do Evento 2 e 6) ocorrência de serendipidade.
38
2.6. TRABALHOS RELACIONADOS
Na definição de serendipidade, existem duas importantes dimensões que devem ser consi-
deradas (OLMA, 2016): acaso e sagacidade. A dimensão “acaso” representa um conjunto formado
por ideias e intuições que, normalmente, não são combinadas. Para alguns filósofos, essa dimen-
são é vista como relações capazes de criar um potencial, a partir do qual pode surgir algo novo.
Já a dimensão “sagacidade” é o ambiente no qual esse potencial pode ser aproveitado. Sem essa
segunda dimensão, serendipidade não pode ser viabilizada.
v i d = w · v i d − c 1 · r 1 (p i d − x i d ) − c 2 · r 2 (p g d − x i d ) (2.12)
Na fase de repulsão, a partícula individual não é atraída. Pelo contrário, ela é repelida pela posição
da melhor partícula, p g d , e pela sua própria melhor posição, p i d . Na fase de atração, o enxame é
contraído e consequentemente a diversidade diminuída. Quando a diversidade fica abaixo de um
limite inferior, d Low , ocorre a mudança para a fase de repulsão, na qual o enxame se expande de-
vido à modificação na Equação (2.4). Finalmente, quando a diversidade atinge um limite superior,
d Hi g h , o enxame retorna ao estágio de atração, conforme Equação (2.13):
−1, se d i r > 0 ∧ d i v enxame < d Low
dir = (2.13)
1, se d i r < 0 ∧ d i v enxame > d Hi g h ,
onde d i r é usado para definir o sinal-variável (-1 ou 1), e a diversidade do enxame, d i v enxame , é
calculada de acordo com a Equação (2.14):
v
uN
|S| u X
1 X
t (p i j − p̄ j )2 ,
d i v enxame = · (2.14)
|S| · |L| i =1 j =1
onde S é o enxame, |S| é o tamanho do enxame, |L| é o comprimento da maior diagonal no espaço
de busca, N é a dimensionalidade do problema, p i j é o j − ési mo valor da i − ési ma partícula
39
CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA
e p̄ j o j − ési mo valor do ponto médio p̄. Finalmente, a Equação (2.4) é alterada por meio do
sinal-variável d i r que define se as partículas sofrerão atração ou repulsão:
£ ¤
v i d = w · v i d + d i r c 1 · r 1 (p i d − x i d ) + c 2 · r 2 (p g d − x i d ) . (2.15)
A variante Guaranteed Convergence Particle Swarm Optimization (GCPSO) foi proposta por
Bergh e Engelbrecht (2002) para abordar a questão da convergência prematura em soluções cujos
extremos locais não são garantidos. Para a partícula gBest, GCPSO modifica a equação de veloci-
dade da PSO, apresentada na Equação (2.4), como segue:
v i d = w · v i d − x i d + p i d + ρ(t ) · r j , (2.16)
onde r j é uma sequência de números aleatórios uniformes, gerados no intervalo (-1, 1), e ρ(t ) é
um fator de escala determinado pela Equação (2.17):
2ρ(t ), se #sucessos > s c
ρ(t + 1) = 0.5ρ(t ), se # f al has > f c (2.17)
ρ(t ),
senão ,
40
2.6. TRABALHOS RELACIONADOS
¯ ¯
¯p i j (t )−X i j (t +1)¯
¯ ¯
−2 L i j (t )
F (X i j (t + 1)) = e , (2.20)
onde L i j (t ) é o desvio padrão da distribuição, que determina o escopo da busca de cada partícula.
Aplicando o método Monte Carlo na Equação (2.21), obtém-se a posição da partícula, usando:
L i j (t )
µ ¶
1
X i j (t + 1) = p i j (t ) ± ·ln , (2.21)
2 u
onde u é um número uniformemente distribuído no intervalo [0, 1]. Para avaliar L i j (t ), foi intro-
duzido na PSO um ponto global chamado de “posição da melhor média da população”. O ponto
global, denotado como m, é definido como a média das melhores posições de todas as partículas,
conforme a equação abaixo:
à !
1 XM 1 XM 1 XM
m(t ) = (m 1 (t ), m 2 (t ), ..., m n (t )) = P i ,1 (t ), P i ,2 (t ), ..., P i ,n (t ) , (2.22)
M i =1 M i =1 M i =1
onde β é chamado coeficiente de contração-expansão e pode ser usado para controlar a veloci-
dade de convergência do algoritmo. Finalmente, a posição das partículas pode ser calculada pela
Equação (2.24): µ ¶
1
X i j (t + 1) = p i j (t ) ± β · m j (t ) − X i j (t ) · l n
¯ ¯
¯ ¯ . (2.24)
u
O método Opposition-based Particle Swarm Optimization (OPSO) (WANG et al., 2007) foi
proposto para acelerar a convergência da PSO e evitar a convergência prematura. OPSO emprega
Aprendizagem Baseada em Oposição, em inglês Opposition-Based Learning (OBL), combinada
com a mutação dinâmica de Cauchy na partícula gBest. O método é calculado conforme Equa-
ção (2.25):
p p
OP i j = a j + b j − P i j , (2.25)
41
CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA
onde D é a função de distribuição de Cauchy, cujo parâmetro de escala é definido com valor igual
a 1. (l i m mi n , l i m max ) é um valor aleatório definido na faixa [l i m mi n , l i m max ], o qual é definido
dentro dos limites do espaço de busca.
Ling et al. (2008) propuseram uma variante chamada Hybrid Particle Swarm Optimization
With Wavelet Mutation (HPSOWM), que combina operadores de mutação com a Teoria Wavelet.
Na HPSOWM, cada elemento da partícula tem uma chance de sofrer mutação, a qual é controlada
por uma probabilidade predefinida p m ∈ [0, 1]. Para cada elemento, é gerado um valor aleatório
no intervalo [0, 1] e, quando esse número é menor ou igual a p m , o elemento da partícula sofre
p p p
a mutação. Portanto, dada uma p − ési ma partícula selecionada x p (t ) = [x 1 (t ), x 2 (t ), ..., x k (t )] e o
p p
seu elemento x j (t ) é sorteado para mutação (o valor de x j (t ) está no intervalo [l i m mi n , l i m max ]),
p p p
a partícula resultante é representada por x p (t ) = [x 1 (t ), x 2 (t ), ..., x k (t )], ou seja,
x p (t ) + σ × (l i m j p
se σ > 0
p j max − x j (t )),
x j (t ) = , (2.29)
x p (t ) + σ × (x p (t ) − l i m j ), se σ ≤ 0
j j mi n
onde ψa,0 (ϕ) é uma versão em escala de amplitude de ψ(ϕ), enquanto ψ(ϕ) é a própria wavelet.
Hybrid PSO with Genetic Mutation (HPSOM), proposta por Esmin e Matwin (2013), é uma
variante que adiciona o processo de mutação na PSO. Em HPSOM, as partículas possuem uma
probabilidade de sofrer mutação a cada iteração. O processo de mutação é empregado usando a
Equação (2.31):
mut (p k ) = −p k + β, (2.31)
42
2.6. TRABALHOS RELACIONADOS
Adaptive Particle Swarm Optimization (APSO) é uma variante que atualiza os parâmetros
da PSO baseada em regras fuzzy (ZHAN et al., 2009). De um modo geral, APSO: a) estima e clas-
sifica o estado de diversidade, b) determina os coeficientes de aceleração com base no estado de
diversidade, c) aplica mecanismo de diversidade e d) adapta o peso de inércia. O mecanismo de
geração de diversidade é implementado usando um operador de mutação gaussiana. O estado de
diversidade do algoritmo pode ser avaliado por meio do fator f d , conforme Equação (2.32):
d g − d mi n
fd = ∈ [0, 1], (2.32)
d max − d mi n
onde d g é a distância entre a melhor partícula do enxame e as outras, d mi n e d max são, respecti-
vamente, a menor e a maior distância média entre todas as partículas. A distância média, d i , da
i − ési ma partícula pode ser avaliada usando a Equação (2.33):
v
N
uD
1 X uX
t (x k − x k ),
di = i j
(2.33)
N − 1 j =1, j 6=i k=1
onde N é o número das partículas, e D o número de dimensões das partículas. O fator de inércia
w é atualizado usando a Equação (2.34), a fim de autoaajustar a capacidade de busca do enxame:
1
w( f ) = ∈ [0.4, 0.9], ∀ f ∈ [0, 1]. (2.34)
1 + 1.5e −2.6 f d
Silva, Neves e Gonçalves (2013) propuseram uma variante chamada Scouting Predator-Prey
Optimizer (SPPO), que utiliza a ideia de partículas predadoras e escoteiras. O papel da partícula
predadora é adicionar um fator de perturbação no enxame e garantir que a perturbação aumen-
tará ao passo que o enxame convirja para um determinado ponto. Para isso, foi introduzida uma
perturbação à velocidade das partículas na dimensão j , conforme Equação (2.35):
onde φ1 e φ2 são valores aleatórios uniformemente distribuídos nos intervalos [-1, 1] e [0, 1], res-
pectivamente. l i m mi n e l i m max são, respectivamente, os limites mínimo e máximo do espaço de
busca, e r é a probabilidade de perturbação predefinida. Já às partículas escoteiras, são aplicadas
regras de atualização diferentes das partículas do enxame. O algoritmo usou três partículas esco-
teiras. Para implementar o comportamento da primeira, a melhor partícula do enxame é escolhida
em uma determinada iteração e é aplicada uma mutação aleatória sobre uma das suas dimensões
j , usando a Equação (2.36):
onde n(0, σ) é um número aleatório, gerado a partir de uma distribuição normal com média 0 e
desvio padrão σ, σ é iniciado em l i m max /10 e é atualizado durante a execução usando a regra
1/5, usada em estratégias de evolução (BEYER; SCHWEFEL, 2002). A implementação do compor-
tamento da segunda partícula escoteira utiliza Aprendizagem Baseada em Oposição e consiste na
43
CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA
escolha da pior partícula, p w . O cálculo da posição da sua partícula oposta, p˜w , é dada pela Equa-
ção (2.37):
˜ j = a tj + b tj − p w j , se f i t (p˜w ) < f i t (p w ),
pw (2.37)
onde a tj e b tj são, respectivamente, os valores máximo e mínimo para p i j na iteração t . Uma ter-
ceira partícula escoteira também é adicionada, porém o seu papel é definido para cada problema.
Vitorino, Ribeiro e Bastos-Filho (2015) propuseram o Adaptive Bee and Particle Swarm Op-
timization (ABeePSO), que consiste na combinação dos algoritmos Artificial Bee Colony (ABC) e
Adaptive Particle Swarm Optimization (APSO). O algoritmo ABC só é executado quando o enxame
atinge o estado de diversidade de convergência. Neste caso, uma metade do enxame com o me-
lhor valor de fitness se torna abelhas-guia e as demais tornam-se abelhas guiadas. A i − ési ma
abelha-guia é otimizada de acordo com a Equação (2.38):
~
" #
B
~
vi = ~
x i +~ ri ~
s ·~ xi − , (2.38)
~ −~
Di st (B xi )
onde o vetor ~ r i representa números aleatórios, gerados por uma distribuição uniforme no inter-
valo [0, 1], e Di st é a distância Euclidiana entre a posição atual ~ ~ , que representa o
x i e o vetor B
baricentro das abelhas-guia e é definido na Equação (2.39):
NP
/2
x~i · f i t (i )
~=
B
i =1
, (2.39)
NP
/2
f i t (i )
i =1
~ s ± f d~
s =~ s. (2.41)
Cada abelha guiada procura uma nova solução nas proximidades da fonte de alimento, usando a
seguinte equação:
−→
~
vi = ~
x i +~ ~ ),
ri ( f si − B (2.42)
onde ~ r i é um vetor de números aleatórios, gerados por uma distribuição uniforme no intervalo [0,
−
→
1] e, f s i é a fonte de alimento selecionada pela abelha guiada.
44
2.6. TRABALHOS RELACIONADOS
Tabu Search Particle Swarm Optimization (TPSO) é uma variante proposta por Wang, Zhao
e Ren (2007), que incorpora as estratégias de busca tabu à PSO, a fim de aumentar a diversidade
da população e reduzir as atrações repetidas para os mínimos locais. Na TPSO, quando a partícula
gBest não é alterada durante um certo número de iterações, o algoritmo assume que a estagnação
ocorreu. Então, cada dimensão do vetor de posição da partícula i é reinicializada até que a partí-
cula não esteja dentro da área tabu. A reinicialização é implementada por meio da Equação (2.43):
x i d = x i d + η · r, (2.43)
onde η denota o comprimento do salto das partículas para fora da região tabu, cujo valor deve ser
superior ao raio da sua vizinhança, δ. O termo r é um número aleatório, uniformemente distri-
buído no intervalo [-1, 1]. Embora a variante tenha apresentado bons resultados quando avaliada
em algumas funções de referência, o seu desempenho é sensível ao tamanho da vizinhança δ.
δ(k)
δnor m = < ², (2.44)
d i am(Ω)
onde k denota uma determinada iteração, d i am(Ω) é o diâmetro do espaço de busca inicial e, ²
representa um limite de estagnação predefinido. Quando a convergência prematura é detectada,
o enxame é reagrupado em um espaço de busca cujo centro é a partícula gBest. A abordagem per-
mite que o enxame se reagrupe em uma região pequena que evita pesquisas redundantes e des-
necessárias, porém grande o suficiente para escapar de ótimos locais. O fator de reagrupamento é
calculado conforme Equação (2.45):
6
ρ= . (2.45)
5²
45
CAPÍTULO 2. FUNDAMENTAÇÃO TEÓRICA
Após a convergência prematura ter sido detectada, a Equação (2.46) é usada para calcular a faixa
onde as partículas devem ser reagrupadas:
µ ° °¶
r 0 ° r −1 r −1 °
f ai xa j (Ω ) = max f ai xa j (Ω ), ρ · max °x i j − g j ° , (2.46)
i ∈(1,...,s)
onde f ai xa(Ω0 ) representa a faixa do espaço de busca inicial, na dimensão j . x ir j−1 é a posição da
partícula i na última iteração antes do reagrupamento, e g rj −1 é a melhor partícula do enxame na
última iteração antes do reagrupamento. O enxame é então reagrupado usando a Equação (2.47):
1
xi = ~
~ g r −1 +~r · f ai xa(Ωr ) − f ai xa(Ωr ), (2.47)
2
onde f ai xa(Ωr ) = f ai xa 1 (Ωr ), f ai xa 2 (Ωr ), ..., f ai xa n (Ωr ) , e ~
£ ¤
r é um vetor para geração de par-
tículas aleatórias dentro do espaço de busca que foi definido implicitamente. Por fim, o espaço de
busca reagrupado é dado pela Equação (2.48):
h i h i
Ωr = x 1L,r , xU ,r L,r U ,r
× ... × x nL,r , xU ,r
£ ¤
1 × x 2 , x 2 n , (2.48)
1
xU
j
,r
= g rj −1 + f ai xa j (Ωr ). (2.50)
2
Observa-se que a maioria dos trabalhos apresentados se caracteriza pelo uso de mecanis-
mos que se propõem a gerar diversidade durante o processo de otimização do algoritmo. Também
observa-se que, em quase todos eles, apenas uma das duas dimensões foi considerada na imple-
mentação da variante proposta.
Fica claro que a maioria das propostas apresentadas anteriormente implementou apenas
a dimensão acaso. Por outro lado, a dimensão sagacidade foi implementada apenas em duas vari-
antes: ARPSO e RegPSO. Na primeira, com base na equação usada para atualizar a velocidade das
partículas, uma medida para controlar a diversidade do enxame é utilizada. Já a RegPSO, quando
a estagnação é detectada, o enxame é reagrupado nas proximidades da partícula gBest.
2.7 RESUMO
Neste capítulo, foram apresentados os principais conceitos utilizados ao longo deste tra-
balho, tais como: Processo de Otimização, Meta-heurística, Inteligência de Enxames, Otimização
46
2.7. RESUMO
Dim.
Sagacidade
Acaso
Autor Variante Abordagem
por Enxame de Partículas, Serendipidade e alguns trabalhos encontrados na literatura que pro-
puseram estratégias para lidar com a convergência prematura. Ao fim, uma breve comparação
entre esses trabalhos foi apresentada. No próximo capítulo, é proposta a adaptação do conceito
de serendipidade no contexto da inteligência de enxames, bem como uma variante baseada no
conceito de serendipidade.
47
CAPÍTULO
3
S ERENDIPIDADE NO C ONTEXTO DA
I NTELIGÊNCIA DE E NXAMES
50
3.3. SBPSO: UMA VARIANTE PSO BASEADA EM SERENDIPIDADE
Há três abordagens que podem ser usadas para implementar o conceito de serendipidade.
Na PSO, a primeira delas é baseada em modificações nos pontos de decisões, de acordo com as
linhas 2, 8, 11, 17 e 18 do Algoritmo 1. A segunda é baseada na inclusão de um método comple-
mentar para implementar um algoritmo baseado em serendipidade. A terceira abordagem é uma
combinação das outras duas. Todas elas consideram as “descobertas afortunadas” como pontos
no espaço de busca, que são úteis para um processo de otimização, uma vez que eles possuem
valores da função objetivo melhores do que a melhor solução encontrada até a iteração atual.
Uma vez que a terceira abordagem atende às duas dimensões fundamentais do conceito
de serendipidade, apresentadas na Seção 2.5 e conhecidas como acaso e sagacidade, esta tese
adota uma variante dessa abordagem, propondo uma estratégia — usada em Paiva, Costa e Silva
(2016b) para gerar serendipidade — que combina duas estratégias usadas no domínio de sistemas
de recomendação (TOMS, 2000): blind luck e Princípio de Pasteur.
A estratégia blind luck é implementada por meio do uso de partículas escoteiras. Elas im-
plementam a dimensão acaso e complementam a exploração do espaço de busca, gerando diver-
sidade adicional. O Princípio de Pasteur é usado para reconhecer potenciais e usar percepções
para aproveitar o momento. Esse princípio combina partículas escoteiras com a detecção de com-
portamentos, a fim de inspecionar regiões no espaço de busca inexploradas pelo enxame. Essa
estratégia é a implementação do conceito de sagacidade ou, em outras palavras, o conceito de
“mente preparada”.
51
CAPÍTULO 3. SERENDIPIDADE NO CONTEXTO DA INTELIGÊNCIA DE ENXAMES
uma nova variante chamada Serendipity-Based Particle Swarm Optimization (SBPSO), na qual as
estratégias blind luck e Princípio de Pasteur são usadas.
A velocidade de uma partícula escoteira k, Vkd , é dada pela Equação (3.4). Essa equação é
uma adaptação da que foi apresentada por Wu et al. (2013) na implementação da variante Discrete
Particle Swarm Optimization (DPSO):
Os passos iniciais da SBPSO, mostrados no Algoritmo 2, são similares aos da PSO. A ve-
locidade e a posição de cada partícula do enxame e de cada partícula escoteira são inicializadas
aleatoriamente (linhas 1 e 2). A seguir, para cada partícula do enxame, o valor de fitness é calculado
para encontrar a melhor partícula (linhas 4 – 10). Isso também ocorre para as partículas escotei-
ras (linhas 11 – 17). Depois que a melhor partícula do enxame e a melhor partícula escoteira são
encontradas, a melhor delas se tornará a nova partícula gBest (linhas 19 – 25).
O próximo passo é iniciar o processo de inspeção nas proximidades da partícula gBest (li-
nhas 27 – 29). Para isso, o algoritmo cria aleatoriamente um Ponto Adjacente (AP ), de acordo com
a Equação (3.6):
AP = best + α · R, (3.6)
onde best é a partícula gBest atual, α é uma constante real positiva, R é um vetor com n elementos
aleatórios distribuídos uniformemente no intervalo [-1, 1], e n é a dimensão de best .
Então, para o AP que foi criado, o algoritmo define um vetor d~ que representa o segmento
orientado best AP , de acordo com a Equação (3.7):
d~ = AP − best , (3.7)
52
3.3. SBPSO: UMA VARIANTE PSO BASEADA EM SERENDIPIDADE
53
CAPÍTULO 3. SERENDIPIDADE NO CONTEXTO DA INTELIGÊNCIA DE ENXAMES
Uma vez que best e AP definem um vetor simples d~, que representa uma direção, então
existem infinitos Pontos de Inspeção (I P ) cuja direção best I P é a mesma de best AP . Para o AP
criado, dois I P podem ser escolhidos, de acordo com a Equação (3.8):
Mais uma vez, os passos da SBPSO são similares aos da PSO. A velocidade das partículas do
enxame é calculada, e a posição é atualizada (linhas 32 – 35). Isso também ocorre para as partículas
escoteiras (linhas 36 – 39).
onde ϕ j é o raio do enxame na iteração j , e δst ag é um valor limite que avalia a estagnação do
enxame, de acordo com a Equação (2.6). O número de iterações nas quais o enxame não apresenta
melhorias significativas é denotado por cont , e δconv é o valor limite que indica a convergência do
enxame, conforme a descrição da Equação (2.7).
Uma outra alternativa para apresentar o algoritmo SBPSO é usando um diagrama da Uni-
fied Modeling Language (UML), bastante conhecido e chamado Diagrama de Atividades. Em sua
forma básica, ele ilustra o que ocorre em um fluxo de trabalho, as atividades que podem ser reali-
zadas em paralelo e a existência de caminhos alternativos no fluxo de execução. A Figura 5 repre-
senta o algoritmo SBPSO.
De acordo com o Princípio de Pasteur, “a sorte favorece a mente preparada”. Neste trabalho,
uma “mente preparada” é implementada usando um conjunto de padrões de comportamento, os
quais são considerados para a dimensão sagacidade. Eles podem ser usados para representar o
comportamento do valor de fitness ao longo dos pontos em uma reta, que passam pela partícula
gBest (dentro do domínio da função objetivo), durante uma iteração j . Eles consideram várias
possibilidades em matrizes como, por exemplo, uma matriz M × 3.
54
Tabela 2: Conjunto de regras para tratar padrões de comportamento na definição de Pontos de Inspeção próximos à partícula gBest.
55
sor t ei a(N P , N P ), senão
1 2
f i t (I P 1 ) < f i t (g B est )∧
04 Idem Regra 01
f i t (g B est ) ≤ f i t (I P 2 )
f i t (I P 2 ) < f i t (g B est )∧
05 Idem Regra 02
f i t (g B est ) ≤ f i t (I P 1 )
f i t (I P 1 ) == f i t (I P 2 )∧
06 Partícula g B est permanece inalterada
f i t (I P 2 ) == f i t (g B est )
f i t (g B est ) ≤ f i t (I P 1 )∧
07 Partícula g B est permanece inalterada
f i t (I P 1 ) ≤ f i t (I P 2 )
f i t (g B est ) ≤ f i t (I P 2 )∧
08 Partícula g B est permanece inalterada
f i t (I P 2 ) < f i t (I P 1 )
f i t (I P 1 ) == f i t (I P 2 ) ∧ f i t (I P 1 ) < f i t (g B est ).
Nessa situação, como os valores de fitness de I P 1 e de I P 2 são iguais, dois novos pontos são defi-
nidos: N P 1 e N P 2 . A definição de N P 1 é dada a partir de I P 1 e N P 2 a partir de I P 2 . Os dois novos
pontos são definidos por meio da Equação (3.10):
λ ~
NP = IP ± · d, (3.10)
2
56
3.3. SBPSO: UMA VARIANTE PSO BASEADA EM SERENDIPIDADE
ss(IP2)
Fitne
est)
ss(gB
) Fitne
ss(IP1
Fitne
Corresp
onde
Consulta
P
Adjonto
ace P
(AP nte In onto d
) speç e
*
ã
(IP o 1 gBe
1) Iter st na ório
açã P aleat st
o j In onto de Cortesição gBe
speç p o
ã na
(IP ) o 2
2
o
Executa Açã
Conjunto de
Regras
57
CAPÍTULO 3. SERENDIPIDADE NO CONTEXTO DA INTELIGÊNCIA DE ENXAMES
Embora o exemplo ilustrado na Figura 7 esteja no espaço 3D, isso também ocorre em várias
dimensões, uma vez que qualquer espaço pode conter um “corte” implementado por uma reta
no domínio da função objetivo. A direção da reta é estocástica, uma vez que ela liga o gBest ao
ponto aleatório AP . Em cada iteração, a direção da reta é alterada. Durante todas as iterações,
a direção da reta apresenta uma percepção razoável do comportamento do valor de fitness da
função objetivo, mesmo em um espaço com várias dimensões.
3.4 RESUMO
Neste capítulo, um breve histórico do que foi realizado durante esta pesquisa foi descrito.
Também foram apresentadas a formalização do conceito de serendipidade e a proposta de uma
variante baseada na implementação desse novo conceito. No próximo capítulo, serão apresen-
tados os resultados dos experimentos computacionais encontrados pela PSO, pela SBPSO e por
outras variantes da literatura.
58
CAPÍTULO
4
E XPERIMENTOS C OMPUTACIONAIS
Este capítulo está dividido em três seções e nele são apresentados os resultados obtidos
nos experimentos computacionais. Na Seção 4.1, são apresentadas as funções de referência usadas
nos experimentos e, na Seção 4.2, as configurações dos parâmetros utilizados. Por fim, na Seção
4.3, SBPSO é comparada com a PSO padrão e com algumas variantes da literatura.
• separabilidade – é uma medida que pode ser usada para considerar a dificuldade de uma
função. A condição geral de separabilidade é dada por:
∂ f (x̄)
= g (x̄ i )h(x̄),
∂x i
onde g (x̄ i ) significa qualquer função apenas do x i , e h(x̄) significa qualquer função de qual-
quer x̄.
CAPÍTULO 4. EXPERIMENTOS COMPUTACIONAIS
• modalidade – uma função pode ser unimodal ou multimodal. Uma função unimodal pos-
sui apenas um vale (quando o processo de otimização é aplicado em um problema de mi-
nimização) ou um pico (quando o problema é de maximização). As funções multimodais
possuem mais de um vale (ou pico).
Para realização dos experimentos desta tese, 16 funções de referência, que são frequente-
mente aplicadas em problemas de minimização, foram escolhidas. Elas podem ser utilizadas para
investigar a estagnação e a convergência dos algoritmos de otimização (BERGH, 2006). Elas vêm
sendo aplicadas em vários estudos de inteligência de enxames como, por exemplo, em Xi, Sun e
Xu (2008), Krishnanand e Ghose (2009), Yang (2010b), Aydın et al. (2011), Sun et al. (2012), Arora
e Singh (2013), Li et al. (2014), Vitorino, Ribeiro e Bastos-Filho (2015), Paiva, Costa e Silva (2016b)
e outros. As funções usadas nos experimentos são descritas abaixo, e as figuras 8 – 23 apresentam
os mapas 3D correspondentes a cada uma delas:
2. Função Rosenbrock – posssui o mínimo global em um vale parabólico. Embora seja fácil
encontrá-lo, a convergência é difícil (PICHENY; WAGNER; GINSBOURGER, 2013):
dX
−1
f 2 (x) = [100(x i +1 − x i2 )2 + (x i − 1)2 ]
i =1
1 X d xi
µ ¶
2
Y
f 3 (x) = x i − cos p + 1
400 i =1 i
4. Função Rastrigin – é uma função altamente multimodal, no entanto as localizações dos vá-
rios mínimos locais são regularmente distribuídos:
d
[x i2 − 10cos(2πx i ) + 10]
X
f 4 (x) =
i =1
5. Função Ackley – há vários mínimos locais, e a função se caracteriza por ter uma região ex-
terna quase plana e um grande orifício no centro:
à r d ! à !
1X 2 1X d
f 6 (x) = −20 exp −0.2 x − exp cos(2πx i ) + 20 + exp(1)
d i =1 i d i =1
6. Função Noisy Quartic – é uma função unimodal simples e preenchida com um ruído gaussi-
ano:
d
i x i4 + r and (0, 1)
X
f 6 (x) =
i =1
60
4.1. FUNÇÕES DE REFERÊNCIA
7. Função Zakharov – é uma função unimodal simples, que possui uma forma de placa:
à !2 à !4
d d d
x i2 +
X X X
f 7 (x) = 0.5i x i + 0.5i x i
i =1 i =1 i =1
8. Função Hiper Elipsoide Rotacionada – é uma função unimodal e convexa, cuja solução ótima
se encontra em uma região do espaço bastante restrita. Ela é uma extensão da função Soma
dos Quadrados:
i
d X
x 2j
X
f 8 (x) =
i =1 j =1
9. Função Alpine – é uma função multimodal com apenas um ótimo global. Em relação à ori-
gem, a superfície do espaço de busca não é completamente simétrica:
d
X
f 9 (x) = |x i sen(x i ) + 0.1x i |
i =1
10. Função Weierstrass – é uma função contínua em todos os lugares, porém em nenhum deles
é diferenciável:
à !
d kmax kmax
[αk cos(2πβk (x i + 0.5))]) − d [αk cos(2παk · 0.5)],
X X X
f 10 (x) =
i =1 k=0 k=0
11. Função Salomon – é uma função não separável e altamente multimodal. A sua superfície se
assemelha a uma lagoa com várias ondulações:
v v
d d
u u
uX uX
f 11 (x) = 1 − cos 2π
t x + 0.1t x 2
2
i i
i =1 i =1
d · µ ¶¸
1
x i6
X
f 12 (x) = 2 + sen
i =1 xi
13. Função Xin-She Yang 01 – é uma função estocástica genérica multimodal e é dada de acordo
com a formulação abaixo:
d
r and (0, 1) · |x i |i
X
f 13 (x) =
i =1
14. Função Soma dos Quadrados – essa função não possui mínimo local, exceto o global. É con-
tínua, convexa e unimodal:
d
i x i2
X
f 14 (x) =
i =1
61
CAPÍTULO 4. EXPERIMENTOS COMPUTACIONAIS
15. Função Schumer Steiglitz – é uma função que não possui mínimos locais, apenas o mínimo
global:
d
x i4
X
f 15 (x) =
i =1
16. Função Powell Sum – é uma função unimodal definida conforme formulação abaixo:
d
|x i |i +1
X
f 16 (x) =
i =1
Para cada uma das funções apresentadas, a Tabela 3 mostra as fronteiras do espaço de
busca, as faixas de inicialização, o valor que representa o ótimo global e a solução ótima. Além
disso, também são apresentadas as suas características no que diz respeito às propriedades de
continuidade (CON), diferenciabilidade (DIF), separabilidade (SEP), escalabilidade (ESC) e mo-
dalidade (MOD).
62
Tabela 3: Características das funções de referência avaliadas.
f8 Unimodal
63
−65.53 ≤ x i ≤ −65.53 32.76 ≤ x i ≤ 65.53 f (x ∗ ) = 0 x ∗ = (0, ..., 0) • • • •
64
4.1. FUNÇÕES DE REFERÊNCIA
65
CAPÍTULO 4. EXPERIMENTOS COMPUTACIONAIS
66
4.1. FUNÇÕES DE REFERÊNCIA
67
CAPÍTULO 4. EXPERIMENTOS COMPUTACIONAIS
68
4.1. FUNÇÕES DE REFERÊNCIA
69
CAPÍTULO 4. EXPERIMENTOS COMPUTACIONAIS
70
4.1. FUNÇÕES DE REFERÊNCIA
71
CAPÍTULO 4. EXPERIMENTOS COMPUTACIONAIS
Existem outros parâmetros que são específicos da SBPSO e os valores atribuídos a eles são
apresentados a seguir. Os parâmetros estão relacionados à a) quantidade e velocidade das partí-
culas escoteiras, b) criação de pontos adjacentes e de inspeção, próximos à partícula gBest, e c)
detecção de estagnação do enxame. Todos eles foram escolhidos empiricamente depois de várias
simulações que apresentaram bons resultados, os quais estão relacionados à qualidade e à estabi-
lidade das soluções encontradas após a avaliação de todas as funções de referência utilizadas nos
experimentos.
Para detectar a convergência prematura, dois valores limites foram usados: δst ag e δconv . O
δst ag foi definido em 10−3 e, o δconv corresponde a 5% do número total de iterações. O valor limite
δconv foi usado para definir o número de iterações cujo valor de fitness da partícula gBest não foi
melhorado significativamente.
PSO-Scout é uma variante que foi implementada nesta tese. Ela se caracteriza por utili-
zar um conjunto de partículas especiais chamadas escoteiras. Elas são usadas como mecanismos
para melhorar a performance da PSO e também como uma abordagem simples para incorporar
conhecimentos específicos para resolver problemas. O comportamento dessas partículas pode
72
4.3. RESULTADOS EXPERIMENTAIS
ser controlado usando as Equações (3.4) e (3.5), apresentadas no Capítulo 3. Como dito na seção
anterior, o número de partículas escoteiras usado nesta variante equivale a 10% do total das par-
tículas do enxame. Após a realização de vários experimentos, observou-se que a PSO-Scout, em
algumas situações, pode melhorar a performance da PSO usando o comportamento exploratório
das partículas escoteiras.
O Teste de Wilcoxon (Signed Rank Test), com nível de significância de 0,05, é utilizado para
verificar se os resultados obtidos da comparação entre PSO, PSO-Scout e SBPSO são estatistica-
mente diferentes. A hipótese nula, H0 , indica que duas amostras vêm da mesma população, ao
passo que a hipótese alternativa, H1 , indica que uma população tem valores maiores que a outra.
Quando p-value é inferior ao nível de significância, então decide-se rejeitar H0 , ou seja, há uma
diferença significativa entre as amostras.
4.3.1 EXPERIMENTAÇÃO 1
Para investigar a escalabilidade da variante SBPSO, neste conjunto de experimentos, qua-
tro funções de referência são usadas: Esfera ( f 1 ), Rosenbrock ( f 2 ), Griewank ( f 3 ) e Rastrigin ( f 4 ).
Para cada uma delas, são definidas 9 configurações que consistem em variar o tamanho do en-
xame, a dimensionalidade do problema e o número máximo de iterações.
Os resultados obtidos pela SBPSO e pela PSO-Scout também são comparados com algumas
variantes disponíveis na literatura: QPSO (SUN; FENG; XU, 2004), WQPSO (XI; SUN; XU, 2008), HP-
SOWM (LING et al., 2008) e HPSOM (ESMIN; MATWIN, 2013). A comparação considera as funções
73
CAPÍTULO 4. EXPERIMENTOS COMPUTACIONAIS
74
4.3. RESULTADOS EXPERIMENTAIS
75
CAPÍTULO 4. EXPERIMENTOS COMPUTACIONAIS
Para comparar os resultados, são variados as dimensões (10, 20 e 30) e o número máximo
de iterações (1.000, 1.500 e 2.000). Apenas o tamanho da população é fixado em 20 partículas. Após
a realização desse conjunto de experimentos, a média dos valores de fitness e o desvio padrão
obtidos são registrados na Tabela 7.
76
Tabela 4: Comparação entre a PSO, PSO-Scout e SBPSO nas funções f 1 e f 2 .
Esfera ( f 1 ) Rosenbrock ( f 2 )
Partícula Dim Iter
PSO PSO-Scout SBPSO PSO PSO-Scout SBPSO
1.2368E-020 1.0056E-022 1.3900E-081 58.3417 40.6746 9.5785E-08
10 1000
(3.1403E-020) (5.5127E-022) (1.2772E-080) (133.7896) (103.9401) (5.7832E-07)
2.9396E-011 3.4132E-018 3.1139E-124 104.9516 99.4901 2.9085E-07
20 20 1500
(1.8370E-010) (1.9818E-017) (2.6196E-123) (162.9876) (186.9198) (8.6492E-06)
4.6804E-008 5.0619E-021 2.9522E-156 151.5238 104.9869 2.0347E-05
30 2000
(1.3386E-007) (5.0275E-020) (2.9520E-155) (239.0893) (151.4036) (7.6421E-04)
2.2365E-024 1.3691E-027 3.1786E-084 30.80349 15.6310 3.7120E-08
10 1000
(1.3369E-023) (1.0608E-026) (3.1719E-083) (114.8610) (38.1135) (8.8402E-07)
77
8.1334E-015 2.9916E-028 2.2798E-119 81.5949 48.1244 6.8410E-07
40 20 1500
(2.5881E-014) (2.9840E-027) (1.9630E-118) (141.4203) (60.5719) (6.0376E-06)
8.0544E-011 5.4840E-034 5.5811E-129 132.6704 112.7430 3.7810E-05
30 2000
(1.3452E-010) (2.4924E-033) (2.3349E-128) (204.0919) (13.9928) (1.9304E-04)
1.5394E-028 1.5496E-030 9.7470E-081 20.5744 13.9724 4.8522E-08
10 1000
(4.8125E-028) (1.0748E-029) (9.7469E-080) (43.8337) (34.8846) (4.3964E-07)
5.1700E-018 2.3584E-026 5.6513E-120 65.7612 52.7690 6.9654E-07
80 20 1500
(1.4221E-017) (1.9487E-025) (5.6513E-119) (105.0775) (92.4566) (3.0942E-06)
1.4817E-013 2.2470E-031 1.1080E-162 86.87974 69.8944 3.8413E-05
30 2000
(2.9377E-013) (2.2468E-030) (1.1113E-161) (123.5531) (92.4215) (7.7475E-04)
Griewank ( f 3 ) Rastrigin ( f 4 )
Partícula Dim Iter
PSO PSO-Scout SBPSO PSO PSO-Scout SBPSO
0.1012 0.0216 0 4.5782 0.9514 0
10 1000
(0.0516) (0.0456) (0) (2.1132) (0.6391) (0)
0.0334 4.2475E-04 0 22.8061 0.0475 0
20 20 1500
(0.0336) (5.1756E-03) (0) (10.0912) (0.3913) (0)
0.0146 2.4458E-04 0 49.7192 0.0253 0
30 2000
(0.0171) (1.4592E-03) (0) (13.7956) (0.1905) (0)
0.0845 0.0192 0 3.9224 0.2854 0
10 1000
(0.0438) (0.0396) (0) (1.5118) (0.4404) (0)
78
0.0276 7.9024E-04 0 16.1082 8.7266E-04 0
CAPÍTULO 4. EXPERIMENTOS COMPUTACIONAIS
40 20 1500
(0.0291) (3.7688E-03) (0) (1.5722) (8.7266E-03) (0)
0.0592 1.7253E-04 0 38.6344 9.5142E-04 0
30 2000
(0.1690) (1.2263E-03) (0) (2.2039) (9.5142E-03) (0)
0.0772 0.0188 0 2.2854 0.1141 0
10 1000
(0.0396) (0.0339) (0) (0.4780) (0.3123) (0)
0.0357 3.7898E-04 0 12.3630 3.5527E-04 0
80 20 1500
(0.0325) (1.4178E-03) (0) (2.2804) (6.6714E-03 (0)
0.0127 1.0129E-04 0 31.5714 7.6115E-04 0
30 2000
(0.0133) (9.8582E-03) (0) (6.2924) (3.2228E-03) (0)
79
10 1000 1.5777E-30 2.3377E-19 1.5777E-30 1.9073E-12 1.5777E-30 5.8344E-15 5.2939E-23 6.1035E-06
Fun Dim Iter PSO HPSOWM WQPSO QPSO HPSOM PSO-Scout SBPSO
1.2368E-20 6.2868E-56 2.2922E-56 1.3909E-41 2.2400E-56 1.0056E-22 1.3900E-81
10 1000
(3.1403E-20) (1.506E-55) (1.7300E-58) (1.4049E-043) (1.7300E-58) (5.5127E-22) (1.2772E-80)
2.9396E-11 6.2830E-45 2.9451E-40 3.5103E-022 2.1449E-49 3.4132E-18 3.1139E-124
f1 20 1500
(1.8370E-10) (2.0330E-44) (2.8717E042) (3.5452E-24) (1.6891E-43) (1.9818E-17) (2.6196E-123)
4.6804E-08 3.7940E-36 3.9664E-33 5.3183E-014 6.5764E-034 5.0619E-21 2.9522E-156
30 2000
(1.3386E-07) (1.4060E-35) (3.8435E-35) (5.3623E-16) (5.6809E-36) (5.0275E-20) (2.9520E-155)
58.3417 36.4736 35.8436 51.9761 6.9688 40.6746 9.5785E-08
10 1000
(133.7896) (0.1844) (0.2843) (0.4737) (0.2730) (103.9401) (5.7832E-07)
104.9516 65.6678 62.7696 136.8782 17.3033 99.4901 2.9085E-07
f2 20 1500
(162.9876) (0.5870) (0.4860) (0.6417) (0.2210) (186.9198) (8.6492E-06)
151.5238 70.7275 70.9525 157.4707 27.5645 104.9869 2.0347E-05
30 2000
(239.0893) (0.4813) (0.4283) (0.8287) (0.2939) (151.4036) (7.6421E-04)
80
CAPÍTULO 4. EXPERIMENTOS COMPUTACIONAIS
Na Figura 26, função f 3 , SBPSO encontrou a solução ótima próximo da iteração 1.380. A
PSO e a PSO-Scout convergiram próximo da iteração 1.700, porém a solução ótima não foi loca-
lizada. Por fim, na Figura 27, função f 4 , SBPSO encontrou a solução ótima próximo da iteração
1.300. Já a PSO estagnou próximo da iteração 1.500, ao passo que o movimento da PSO-Scout con-
tinuou ativo próximo da iteração 2.000.
4.3.2 EXPERIMENTAÇÃO 2
Neste segundo conjunto de experimentos, foram avaliadas outras 12 funções de referência.
Assim como as que foram avaliadas no conjunto de experimentos anterior, as 12 funções também
possuem características distintas em relação à continuidade, à diferenciabilidade, à separabili-
dade, à escalabilidade e à modalidade. As funções avaliadas são: Ackley ( f 5 ), Noisy Quartic ( f 6 ),
Zakharov ( f 7 ), Hiper Elipsoide Rotacionada ( f 8 ), Alpine ( f 9 ), Weierstrass ( f 10 ), Salomon ( f 11 ), Csen-
81
CAPÍTULO 4. EXPERIMENTOS COMPUTACIONAIS
des ( f 12 ), Xin-She Yang 01 ( f 13 ), Soma dos Quadrados ( f 14 ), Schumer Steiglitz ( f 15 ) e Powell Sum
( f 16 ).
82
4.3. RESULTADOS EXPERIMENTAIS
83
CAPÍTULO 4. EXPERIMENTOS COMPUTACIONAIS
84
4.3. RESULTADOS EXPERIMENTAIS
85
CAPÍTULO 4. EXPERIMENTOS COMPUTACIONAIS
86
4.3. RESULTADOS EXPERIMENTAIS
87
CAPÍTULO 4. EXPERIMENTOS COMPUTACIONAIS
88
Tabela 8: Comparação entre a PSO, PSO-Scout e SBPSO para as funções f 5 – f 16 , em 300 dimensões com 50 partículas.
89
f 10 33.24 60.92 33.42 55.70 0 0 1.86E-09
(6.18) (7.38) (0)
7.12 7.02 0
f 11 5.79 9.49 5.69 8.69 0 0 1.86E-09
(0.89) (0.82) (0)
2.85E-06 2.70E-06 0
f 12 8.02E-07 5.61E-06 5.47E-07 6.24E-06 0 0 1.86E-09
(1.45E-06) (1.34E-06) (0)
8.24E125 8.97E125 0
f 13 5.29E110 1.40E127 2.36E104 2.54E127 0 0 1.86E-09
(2.72E126) (4.64E126) (0)
1.08E-05 3.34E-05 0
f 14 1.96E-07 7.34E-05 4.02E-07 7.77E-04 0 0 1.86E-09
(1.93E-05) (1.41E-04) (0)
0.38 0.76 0
f 15 2.75E-02 1.79 1.09E-02 8.80 0 0 1.86E-09
(0.44) (1.66) (0)
4.76 2.64 0
f 16 3.29 5.91 1.41 4.18 0 0 1.86E-09
(0.65) (0.69) (0)
Na Figura 28, função f 5 , observa-se que a SBPSO convergiu próximo da iteração 22.500,
ao passo que a PSO nas primeiras iterações. Por outro lado, após 50.000 iterações, PSO-Scout não
convergiu, e a qualidade das soluções encontradas foi bastante inferior à da SBPSO, embora me-
lhor que a da PSO. Para a função f 6 , representada pela Figura 29, o comportamento de convergên-
cia da PSO-Scout é muito parecido com o da PSO, apesar de a qualidade da solução encontrada
ter sido inferior à da PSO. Embora SBPSO tenha encontrado boas médias para o valor de fitness
das funções f 5 (8.88E-16) e f 6 (6.58E-06), a solução ótima não foi encontrada.
Na Figura 36, função f 13 , SBPSO encontrou o ótimo global próximo da iteração 40.000. No
entanto, observa-se que houve um período de estagnação entre as iterações 15.000 e 30.000, apro-
ximadamente. Nesta simulação, depois de o algoritmo ter detectado a estagnação do enxame, ele
conseguiu fazê-lo movimentar-se novamente. A solução ótima foi encontrada nas proximidades
da iteração 40.000. Por outro lado, PSO e PSO-Scout apresentaram uma velocidade de convergên-
cia lenta, além de o ótimo global não ter sido localizado. Já o comportamento de convergência da
90
4.4. RESUMO
PSO e da PSO-Scout na otimização da função f 14 , como visto na Figura 37, novamente, são apro-
ximados. Na maior parte do número de iterações, os algoritmos permaneceram estagnados. Por
outro lado, SBPSO atingiu o ponto ótimo próximo da iteração 30.000.
Na Figura 38, função f 15 , SBPSO encontrou a solução ótima próximo da iteração 25.500. Já
a PSO superou a PSO-Scout, apesar de o comportamento médio de convergência apresentado por
elas ser bastante próximos. Por fim, na Figura 39, a velocidade de convergência da PSO e da PSO-
Scout são parecidos, mas PSO-Scout superou PSO. SBPSO encontrou a solução global próximo à
iteração 22.000.
4.4 RESUMO
O principal objetivo deste capítulo foi a apresentação dos resultados obtidos após várias
simulações computacionais. O capítulo descreveu as funções de referência utilizadas para avaliar
a performance da variante SBPSO e a configuração dos parâmetros para realização dos experi-
mentos. SBPSO foi comparada com a PSO e outras variantes da literatura e, como resultado dos
experimentos, observou-se a sua superioridade em todos eles. No próximo capítulo, serão apre-
sentadas as considerações finais deste trabalho.
91
CAPÍTULO
5
C ONSIDERAÇÕES F INAIS
5.1 CONCLUSÕES
Esta tese estudou o conceito de serendipidade e o adaptou ao contexto da inteligência de
enxames. Para validar a adaptação do conceito nesse novo contexto, uma variante da PSO baseada
em serendipidade, chamada SBPSO, foi implementada com o objetivo de obter melhores resulta-
dos no processo de convergência.
A SBPSO usou uma abordagem que considera as duas dimensões definidas no conceito de
serendipidade. Elas são conhecidas como acaso e sagacidade. A dimensão acaso foi implemen-
tada por meio do uso de partículas escoteiras com o objetivo de melhorar a exploração no espaço
de busca. Já a dimensão sagacidade foi implementada usando um conjunto de padrões que repre-
sentam o comportamento dos valores de fitness da função objetivo avaliada.
riante com a PSO e a PSO-Scout. Mais uma vez a SBPSO superou as outras duas.
Como visto nos resultados que foram apresentados no Capítulo 4, a velocidade de con-
vergência da SBPSO superou as velocidades da PSO e da PSO-Scout. Quanto aos resultados das
soluções encontradas, a PSO e a PSO-Scout não encontraram o ótimo global de nenhuma das 16
funções de referência avaliadas. Por outro lado, a SBPSO não encontrou o ótimo global apenas em
duas funções ( f 1 e f 2 ), porém os ótimos locais foram melhores que os dos outros dois algoritmos
e, além disso, eles se mostraram bastante satisfatórios.
Após a realização dos experimentos, foi observado que há bastante espaço para novas apli-
cações do conceito de serendipidade no domínio dos algoritmos de inteligência de enxames. Tam-
bém observou-se que, de fato, a convergência prematura foi retardada nas simulações realizadas
em cada uma das 16 funções de referência avaliadas. Isso mostra que a utilização do conceito de
serendipidade pode viabilizar o desenvolvimento de mecanismos capazes de diminuir a aleatori-
edade e melhorar a performance dos algoritmos baseados em inteligência de enxames.
Ainda em relação à utilização dos padrões de comportamento, as ações são tomadas com
base em regras predefinidas para o padrão que foi identificado. Essas ações são disparadas quando
uma determinada regra é atendida. No entanto, a rotina pode ser melhorada a fim de aumentar a
parametrização do algoritmo, uma vez que, para cada novo padrão apresentado, não haverá ne-
cessidade de mudanças no código-fonte. Uma alternativa para isso seria a utilização de matrizes
para definição de regras a serem disparadas quando um novo padrão de comportamento for apre-
sentado.
94
5.2. LIMITAÇÕES E TRABALHOS FUTUROS
embora o conceito possa ser estendido a outros algoritmos da inteligência de enxames. Portanto,
é interessante implementar o conceito de serendipidade em outros algoritmos, como o dos Vaga-
lumes, o dos Morcegos e outros.
A variante SBPSO foi validada em funções de referência que podem ser usadas para re-
presentar diversos problemas contínuos do mundo real, embora elas não sejam adequadas na
representação do comportamento de sistemas que possuem natureza dinâmica. Quando as mu-
danças no valor de fitness da função objetivo são moderadas, adicionar novas partículas escoteiras
para aumentar a diversidade do enxame ou, simplesmente, reiniciá-lo pode não produzir resulta-
dos significativos. Em casos como esses, é importante que o algoritmo seja capaz de se adequar a
essas mudanças ao longo do tempo.
Em uma próxima pesquisa, além de estudar mecanismos que possam ser adicionados à
nova variante para tratar problemas dinâmicos, pretende-se também aplicá-la a problemas dis-
cretos, como o do Caixeiro-Viajante. A validação da SBPSO nesse problema é importante por ele
ser bastante utilizado em cenários reais como roteamento de veículos, perfuração de placas de
circuitos impressos, problemas de sequenciamento e outros.
Pretende-se ainda validar a nova variante em domínios específicos nos quais exista co-
nhecimento passível de ser utilizado para explorar a dimensão sagacidade. Um desses domínios
é a otimização de problemas relacionados a Telecomunicações, tais como projetos de antenas
de microfitas e arrays de antenas inteligentes. Eles são exemplos clássicos nos quais os algorit-
mos bioinspirados são frequentemente aplicados e, portanto, na literatura, há vários trabalhos
que podem ser utilizados para comparar o desempenho dessa nova variante em relação às meta-
heurísticas tradicionais.
95
R EFERÊNCIAS
ABRAHAM, A.; DAS, S.; ROY, S. Soft computing for knowledge discovery and data mining. In:
. Boston, MA: Springer US, 2008. cap. Swarm Intelligence Algorithms for Data Clustering, p.
279–313.
ANDEL, P. V. Anatomy of the unsought finding. serendipity: Origin, history, domains, traditions,
appearances, patterns and programmability. The British Journal for the Philosophy of Science,
Oxford University Press, v. 45, n. 2, p. 631–648, 1994. ISSN 00070882, 14643537.
ARORA, S.; SINGH, S. The firefly optimization algorithm: convergence analysis and parameter
selection. International Journal of Computer Applications, Foundation of Computer Science, v. 69,
n. 3, 2013.
AUSTIN, J. H. Chase, chance, and creativity: The lucky art of novelty. [S.l.]: Mit Press, 2003.
AYDIN, D. et al. Improving performance via population growth and local search: the case of the
artificial bee colony algorithm. In: SPRINGER. International Conference on Artificial Evolution
(Evolution Artificielle). [S.l.], 2011. p. 85–96.
BAI, Q. Analysis of particle swarm optimization algorithm. Computer and information science,
v. 3, n. 1, p. 180, 2010.
BENI, G.; WANG, J. Swarm intelligence in cellular robotic systems. In: NATO Advanced Workshop
on Robots and Biological Systems. [S.l.: s.n.], 1989. p. 26–30.
BERGH, F. V. D. An Analysis of Particle Swarm Optimizers. Tese (Doutorado), Pretoria, South Africa,
South Africa, 2006.
BERGH, F. V. D.; ENGELBRECHT, A. P. A new locally convergent particle swarm optimizer. In: IEEE.
Proceedings of the IEEE international conference on systems, man and cybernetics. [S.l.], 2002. v. 3,
p. 94–99.
BLACKWELL, T. M.; BENTLEY, P. Improvised music with swarms. In: Evolutionary Computation,
2002. CEC ’02. Proceedings of the 2002 Congress on. [S.l.: s.n.], 2002. v. 2, p. 1462–1467.
REFERÊNCIAS
BLUM, C.; LI, X. Swarm intelligence in optimization. In: Swarm Intelligence: Introduction and
Applications. [S.l.: s.n.], 2008. p. 43–85.
CAMPOS, J.; FIGUEIREDO, A. D. Programming for serendipity. In: Proceedings of Fall Symposium
on Chance Discovery - The Discovery and Management of Chance Events. [S.l.: s.n.], 2002. p. 48–60.
CHEN, C.-Y.; YE, F. Particle swarm optimization algorithm and its application to clustering
analysis. In: Networking, Sensing and Control, 2004 IEEE International Conference on. [S.l.: s.n.],
2004. v. 2, p. 789–794 Vol.2.
CONTRERAS, M. A.; CHUNG, W.; JONES, G. Applying ant colony optimization metaheuristic to
solve forest transportation planning problems with side constraints. Canadian journal of forest
research, NRC Research Press, v. 38, n. 11, p. 2896–2910, 2008.
CORREA, E. S.; FREITAS, A. A.; JOHNSON, C. G. A new discrete particle swarm algorithm applied
to attribute selection in a bioinformatics data set. In: Proceedings of the 8th Annual Conference on
Genetic and Evolutionary Computation. New York, NY, USA: ACM, 2006. (GECCO ’06), p. 35–42.
COUZIN, I. et al. Collective Memory and Spatial Sorting in Animal Groups. Journal of Theoretical
Biology, Elsevier, v. 218, n. 1, p. 1–11, 2002.
ČREPINŠEK, M.; MERNIK, M.; LIU, S.-H. Analysis of exploration and exploitation in evolutionary
algorithms by ancestry trees. International Journal of Innovative Computing and Applications,
Inderscience Publishers, v. 3, n. 1, p. 11–19, 2011.
CUEVAS, E. et al. A swarm optimization algorithm inspired in the behavior of the social-spider.
Expert Systems with Applications, Elsevier, v. 40, n. 16, p. 6374–6384, 2013.
DHANRAJ, A. V.; NANJUNDAPPAN, D. Design of optimized pi controller with ideal decoupler for
a non linear multivariable system using particle swarm optimization technique. International
Journal of Innovative Computing, Information and Control (IJICIC), v. 10, n. 1, p. 341–355, 2014.
98
REFERÊNCIAS
DORIGO, M.; BIRATTARI, M.; STÜTZLE, T. Ant colony optimization. Computational Intelligence
Magazine, IEEE, IEEE, v. 1, n. 4, p. 28–39, 2006.
DORIGO, M.; MANIEZZO, V.; COLORNI, A. Positive Feedback as a Search Strategy. [S.l.], 1991.
DOSCIATTI, E.; GODOY, W.; FORONDA, A. Tq/pso - a new scheduler to optimize the time frame
with pso in wimax networks. IEEE Latin America Transactions, v. 13, n. 1, p. 365–376, Jan 2015.
ISSN 1548-0992.
DURAND, N.; GOTTELAND, J.-B. Genetic algorithms applied to air traffic management. In:
Metaheuristics for hard optimization. [S.l.]: Springer, 2006. p. 277–306.
EAGLE, N. Can serendipity be planned? MIT Sloan Management Review, Massachusetts Institute
of Technology, v. 46, n. 1, p. 10, 2004.
ESMIN, A.; MATWIN, S. Hpsom: A hybrid particle swarm optimization algorithm with genetic
mutation. International Journal of Innovative Computing, Information and Control, v. 9, n. 5, p.
1919–1934, May 2013. ISSN 1349-4198.
EVERS, G. I.; GHALIA, M. B. Regrouping particle swarm optimization: A new global optimization
algorithm with improved performance consistency across benchmarks. In: SMC. [S.l.]: IEEE, 2009.
p. 3901–3908.
FISTER-JR, I. et al. A brief review of nature-inspired algorithms for optimization. arXiv preprint
arXiv:1307.4186, 2013.
GAMBARDELLA, L. M.; TAILLARD, E.; AGAZZI, G. MACS-VRPTW: A Multiple Ant Colony System
for Vehicle Routing Problems with Time Windows. [S.l.], 1999.
GIGRAS, Y.; GUPTA, K. Metaheuristic algorithm for robotic path planning. International Journal
of Computer Applications, Foundation of Computer Science, v. 85, n. 3, 2014.
GLOVER, F. Future paths for integer programming and links to artificial intelligence. Comput.
Oper. Res., Elsevier Science Ltd., Oxford, UK, UK, v. 13, n. 5, p. 533–549, maio 1986. ISSN 0305-0548.
HIGASHI, N.; IBA, H. Particle swarm optimization with gaussian mutation. In: Swarm Intelligence
Symposium, 2003. SIS ’03. Proceedings of the 2003 IEEE. [S.l.: s.n.], 2003. p. 72–79.
IAQUINTA, L. et al. Can a recommender system induce serendipitous encounters? In: . [S.l.]:
IN-TECH, 2009.
99
REFERÊNCIAS
KARABOGA, D. An idea based on honey bee swarm for numerical optimization. [S.l.], 2005.
KENNEDY, J.; EBERHART, R. Particle swarm optimization. In: Neural Networks, 1995. Proceedings.,
IEEE International Conference on. [S.l.: s.n.], 1995. v. 4, p. 1942–1948.
KUHN, T. S. The structure of scientific revolutions. 2nd ed., enl.. ed. Chicago: University of Chicago
Press, 1970. (International encyclopedia of unified science. Foundations of the unity of science).
LAWLEY, J. Maximising serendipity: The art of recognising and fostering unexpected potential –
a systemic approach to change. In: Neuro Linguistic Psychotherapy and Counselling Association
2013. [S.l.: s.n.], 2013.
LEITAO, H.; LOPES, W.; MADEIRO, F. Pso algorithm applied to codebook design for channel-
optimized vector quantization. Latin America Transactions, IEEE (Revista IEEE America Latina),
v. 13, n. 4, p. 961–967, April 2015. ISSN 1548-0992.
LI, C. et al. A fast particle swarm optimization algorithm with cauchy mutation and natural
selection strategy. In: Advances in computation and intelligence. [S.l.]: Springer, 2007. p. 334–343.
LI, J. et al. Analysis and improvement of the bacterial foraging optimization algorithm. Journal of
Computing Science and Engineering, Li Jun; Dang Jianwu; Bu Feng; Wang Jiansheng, v. 8, n. 1, p.
1–10, 2014.
LI, X.; TIAN, P.; LEUNG, S. C. An ant colony optimization metaheuristic hybridized with tabu
search for open vehicle routing problems. Journal of the Operational Research Society, Springer,
v. 60, n. 7, p. 1012–1025, 2009.
LING, S.-H. et al. Hybrid particle swarm optimization with wavelet mutation and its industrial
applications. IEEE Transactions on Systems, Man, and Cybernetics, Part B, v. 38, n. 3, p. 743–763,
2008.
LOPS, P.; GEMMIS, M. D.; SEMERARO, G. Content-based recommender systems: State of the art
and trends. In: Recommender systems handbook. [S.l.]: Springer, 2011. p. 73–105.
MCGILL, R.; TUKEY, J. W.; LARSEN, W. A. Variations of box plots. The American Statistician, Taylor
& Francis Group, v. 32, n. 1, p. 12–16, 1978.
MERTON, R. K.; BARBER, E. The travels and adventures of serendipity: A study in sociological
semantics and the sociology of science. [S.l.]: Princeton University Press, 2006.
MEYERS, M. A. Happy accidents: Serendipity in modern medical breakthroughs. [S.l.]: Arcade Pub.,
2007.
100
REFERÊNCIAS
MIKKI, S.; KISHK, A. A. Investigation of the quantum particle swarm optimization technique for
electromagnetic applications. In: Antennas and Propagation Society International Symposium,
2005 IEEE. [S.l.: s.n.], 2005. v. 2A, p. 45–48.
MONSON, C. K.; SEPPI, K. D. Exposing origin-seeking bias in pso. In: ACM. Proceedings of the 7th
annual conference on Genetic and evolutionary computation. [S.l.], 2005. p. 241–248.
NOCEDAL, J.; WRIGHT, S. J. Numerical optimization. Berlin: Springer, 2006. (Springer Series in
Operations Research and Financial Engineering).
OKU, K.; HATTORI, F. Fusion-based recommender system for improving serendipity. In:
DiveRS@RecSys. [S.l.]: CEUR-WS.org, 2011. (CEUR Workshop Proceedings, v. 816), p. 19–26.
OLMA, S. 14 university as übungsraum. Higher Education and the Creative Economy: Beyond the
Campus, Routledge, p. 261, 2016.
PAIVA, F. A. P.; COSTA, J. A. F.; SILVA, C. R. M. An alternative approach for particle swarm
optimization using serendipity. International Journal of Bio-Inspired Computation, No prelo,
2016.
PAIVA, F. A. P.; COSTA, J. A. F.; SILVA, C. R. M. A serendipity-based pso approach to delay premature
convergence using scout particle. International Journal of Innovative Computing, Information
and Control, v. 12, n. 4, Ago 2016. ISSN 1349-4198.
PEER, E. S.; BERGH, F. van den; ENGELBRECHT, A. P. Using neighbourhoods with the guaranteed
convergence pso. In: IEEE. Swarm Intelligence Symposium, 2003. SIS’03. Proceedings of the 2003
IEEE. [S.l.], 2003. p. 235–242.
PERNA, A. et al. Serendipity in business relationship beginning. In: The 29th IMP Conference. [S.l.:
s.n.], 2013.
PICHENY, V.; WAGNER, T.; GINSBOURGER, D. A benchmark of kriging-based infill criteria for
noisy optimization. Structural and Multidisciplinary Optimization, v. 48, n. 3, p. 607–626, 2013.
101
REFERÊNCIAS
ROND, M. D. The structure of serendipity. Culture and Organization, Taylor & Francis, v. 20, n. 5,
p. 342–358, 2014.
ROND, M. d. D.; MORLEY, I. Serendipity: Fortune and the prepared mind. [S.l.]: Cambridge
University Press, 2010. v. 22.
SILVA, A.; NEVES, A.; GONÇALVES, T. Using scout particles to improve a predator-prey optimizer.
In: Adaptive and Natural Computing Algorithms, 11th International Conference, ICANNGA 2013,
Lausanne, Switzerland, April 4-6, 2013. Proceedings. [S.l.: s.n.], 2013. p. 130–139.
SILVA, E.; BASTOS-FILHO, C. Pso efficient implementation on gpus using low latency memory.
Latin America Transactions, IEEE (Revista IEEE America Latina), v. 13, n. 5, p. 1619–1624, May
2015. ISSN 1548-0992.
SUN, J.; FENG, B.; XU, W. Particle swarm optimization with particles having quantum behavior.
In: Evolutionary Computation, 2004. CEC2004. Congress on. [S.l.: s.n.], 2004. v. 1, p. 325–331.
TAHARA, Y.; OHSUGA, A. Context-aware music recommendation with serendipity using semantic
relations. In: SPRINGER. Semantic Technology: Third Joint International Conference, JIST 2013,
Seoul, South Korea, November 28–30, 2013, Revised Selected Papers. [S.l.], 2014. v. 8388, p. 17.
TALBI, E.-G. Metaheuristics: From Design to Implementation. [S.l.]: Wiley Publishing, 2009. ISBN
0470278587, 9780470278581.
THERAULAZ, G. et al. Task differentiation in polistes wasp colonies: a model for self-organizing
groups of robots. In: MIT PRESS. Proceedings of the first international conference on simulation of
adaptive behavior on From animals to animats. [S.l.], 1991. p. 346–355.
TOLSON, J. A word’s eventful journey. US News & World Report, US News & World Report, v. 136,
n. 4, p. 51, 2004.
TOMS, E. Serendipitous information retrieval. In: First DELOS Network of Excellence Workshop on
Information Seeking, Searching and Querying in Digital Libraries. [S.l.: s.n.], 2000. p. 11–12.
VASANT, P. Hybrid simulated annealing and genetic algorithms for industrial production
management problems. International Journal of Computational Methods, World Scientific, v. 7,
n. 02, p. 279–297, 2010.
102
REFERÊNCIAS
VITORINO, L.; RIBEIRO, S.; BASTOS-FILHO, C. J. A mechanism based on artificial bee colony to
generate diversity in particle swarm optimization. Neurocomputing, Elsevier, v. 148, p. 39–45,
2015.
WANG, H. et al. Opposition-based particle swarm algorithm with cauchy mutation. In: IEEE
Congress on Evolutionary Computation. [S.l.: s.n.], 2007. p. 4750–4756.
WANG, X. W. et al. Intelligent welding robot path planning. In: Chinese Intelligent Automation
Conference. [S.l.: s.n.], 2015. v. 1, p. 25–32.
WANG, Y.-X.; ZHAO, Z.-D.; REN, R. Hybrid particle swarm optimizer with tabu strategy for
global numerical optimization. In: IEEE. Congress on Evolutionary Computation. [S.l.], 2007. p.
2310–2316.
WEI, J.; GUANGBIN, L.; DONG, L. Elite particle swarm optimization with mutation. In: IEEE.
System Simulation and Scientific Computing, 2008. ICSC 2008. Asia Simulation Conference-7th
International Conference on. [S.l.], 2008. p. 800–803.
WU, Y.-L. et al. Discrete particle swarm optimization with scout particles for library materials
acquisition. The Scientific World Journal, Hindawi, v. 2013, p. 1–11, 2013.
XI, M.; SUN, J.; XU, W. An improved quantum-behaved particle swarm optimization algorithm
with weighted mean best position. Applied Mathematics and Computation, v. 205, n. 2, p. 751–759,
2008.
YAGOUNI, M. Using of metaheuristics for optimizing satellite image registration. In: IEEE.
Computers & Industrial Engineering, 2009. CIE 2009. International Conference on. [S.l.], 2009. p.
531–535.
YANG, X.-S. Nature-Inspired Metaheuristic Algorithms: Second Edition. [S.l.]: Luniver Press, 2010.
ISBN 1905986289, 9781905986286.
YANG, X.-S. A new metaheuristic bat-inspired algorithm. In: Nature inspired cooperative strategies
for optimization (NICSO 2010). [S.l.]: Springer, 2010. p. 65–74.
YI, H.; DUAN, Q.; LIAO, T. W. Three improved hybrid metaheuristic algorithms for engineering
design optimization. Applied Soft Computing, Elsevier, v. 13, n. 5, p. 2433–2444, 2013.
YUE-BO, M. et al. Research on wnn aerodynamic modeling from flight data based on improved
pso algorithm. Neurocomputing, Elsevier, v. 83, p. 212–221, 2012.
ZANG, H.; ZHANG, S.; HAPESHI, K. A review of nature-inspired algorithms. Journal of Bionic
Engineering, v. 7, p. 232 – 237, 2010.
ZHAN, Z.-H. et al. Adaptive particle swarm optimization. IEEE Transactions on Systems, Man, and
Cybernetics, Part B (Cybernetics), IEEE, v. 39, n. 6, p. 1362–1381, 2009.
ZHANG, W.-J.; XIE, X.-F. Depso: hybrid particle swarm with differential evolution operator. In:
IEEE International Conference on Systems, Man and Cybernetics, 2003. [S.l.: s.n.], 2003. v. 4, p.
3816–3821.
103
REFERÊNCIAS
ZHOU, F.; LIN, X. Research of training feedforward neural networks based on hybrid chaos
particle swarm optimization-back-propagation. In: Intelligent Computing in Bioinformatics -
10th International Conference, ICIC 2014, Taiyuan, China, August 3-6, 2014. Proceedings. [S.l.:
s.n.], 2014. p. 41–47.
104
APÊNDICE
A
T RABALHOS P UBLICADOS
1. PAIVA, F. A. P., COSTA, J. A. F., SILVA, C. R. M., An Alternative Approach for Particle Swarm
Optimization Using Serendipity, Int. J. Bio-Inspired Computing (IJBIC), no prelo. ISSN 1758-
0374.
2. PAIVA, F. A. P., COSTA, J. A. F., SILVA, C. R. M., A Serendipity-Based PSO Approach to Delay
Premature Convergence Using Scout Particle, International Journal of Innovative Compu-
ting, Information and Control (IJICIC), v. 12, n. 4, p. 1141–1163, Ago. 2016. ISSN 1349-4198.
3. PAIVA, F. A. P., COSTA, J. A. F., SILVA, C. R. M., Uma Meta-Heurística Alternativa de Inteli-
gência de Enxames Baseada em Serendipidade Guiada, 12o Congresso Brasileiro de Inteli-
gência Computacional (CBIC 2015), Curitiba, Brasil, 2015.
5. PAIVA, F. A. P., COSTA, J. A. F., SILVA, C. R. M., A Hierarchical Architecture for Ontology-
based Recommender Systems, Congress on Computational Intelligence (BRICS 2013), Porto
de Galinhas, Brasil, 2013.
7. PAIVA, F. A. P., COSTA, J. A. F., SILVA, C. R. M., Sistema de Recomendação Baseado em On-
tologia para Anúncios de Carros Usados, Symposium on Knowledge Discovery, Mining and
Learning (KDMiLe 2013), São Carlos, Brasil, 2013.
8. PAIVA, F. A. P., COSTA, J. A. F., Sistemas de Recomendação Baseados em Web Usage Mining.
Holos, v. 3, p. 75-83, 2012. ISSN 1807-1600.
APÊNDICE A. TRABALHOS PUBLICADOS
9. PAIVA, F. A. P., COSTA, J. A. F., Using SOM to clustering of web sessions extracted by tech-
niques of Web Usage Mining, 13th Intelligent Data Engineering and Automated Learning
(IDEAL 2012), Natal, Brasil, 2012.
10. PASA, L. A., COSTA, J. A. F., TOSIN, M. C., PAIVA, F. A. P., Using SOM maps for clustering and
visualization of diamond films deposited by HFCVD process, 13th Ibero-American Confe-
rence on Artificial Intelligence (IBERAMIA 2012), Cartagenia de Indias, Colômbia, 2012.
11. VERAS, W. C., COSTA, J. A. F., PAIVA, F. A. P., PASA, L. A., SOFFIATTI, A., SOARES, J. L. M., Um
Sistema Autonômico Multiagente Baseado em Ontologias para Segurança em Ambientes
Computacionais, 10o Congresso Brasileiro de Inteligência Computacional (CBIC 2011), For-
taleza, Brasil, 2011.
106