Você está na página 1de 6

Teaching–Learning-Based Optimization: An optimization method

for continuous non-linear large scale problems


1. Introdução

Muitas dificuldades, como multimodalidade, dimensionalidade e diferenciabilidade, estão


associadas à otimização de problemas de grande escala. Técnicas tradicionais, como
programação linear mais decente e decente, programação dinâmica etc. geralmente falham
em resolver problemas de grande escala, especialmente com funções objetivas não lineares. A
maioria das técnicas tradicionais requer informações de gradiente e, portanto, não é possível
resolver funções não diferenciáveis com a ajuda de tais técnicas tradicionais. Além disso, essas
técnicas geralmente falham na solução de problemas de otimização que possuem muitos
ótimos locais. Portanto, permanece a necessidade de técnicas de otimização eficientes e
eficazes. Pesquisas contínuas estão sendo conduzidas nesse campo e as técnicas de otimização
meta-heurística inspiradas na natureza estão se mostrando melhores do que as técnicas
tradicionais e, portanto, são amplamente utilizadas.

Algumas das meta-heurísticas conhecidas desenvolvidas nas últimas três décadas são:
Algoritmo Genético (GA) [12], que trabalha com o princípio da teoria darwiniana da
sobrevivência do mais apto e com a teoria da evolução dos seres vivos; Algoritmo Imune
Artificial (AIA) [9], que atua no sistema imunológico do ser humano; Otimização de colônias de
formigas (ACO) [6], que trabalha sobre o comportamento de forrageamento da formiga nos
alimentos; Otimização de enxame de partículas (PSO) [16], que trabalha no comportamento de
forrageamento do enxame de aves; Evolução Diferencial (DE) [7,26], que é semelhante ao GA
com método especializado de cruzamento e seleção; Harmony Search (HS) [10], que trabalha
com o princípio da improvisação musical em um tocador de música; Otimização da forragem
de bactérias (BFO) [20], que trabalha sobre o comportamento das bactérias; Shuffled Frog
Leaping (SFL) [8], que trabalha com o princípio da comunicação entre os sapos, Artificial Bee
Colony (ABC) [3,13], que trabalha com o comportamento de forragem de uma abelha;
Otimização baseada em biogeografia (BBO) [25], que trabalha com o princípio da imigração e
emigração das espécies de um lugar para o outro; Algoritmo de Pesquisa Gravitacional (GSA)
[22], que trabalha com o princípio da força gravitacional agindo entre os corpos; Método de
explosão de granadas (GEM) [1], que trabalha com o princípio de explosão de uma granada.
Esses algoritmos foram aplicados a muitos problemas de otimização de engenharia e provaram
ser eficazes para resolver algum tipo específico de problema.

Todos os algoritmos mencionados acima são métodos de otimização baseados em população,


inspirados na natureza, mas eles têm algumas limitações em um ou outro aspecto. Devido a
esse fato, são necessárias mais pesquisas para testar os algoritmos quanto a diferentes
problemas, a fim de verificar sua adequação aos problemas considerados. A pesquisa continua
para aprimorar os algoritmos existentes para atender a aplicações específicas. O
aprimoramento é feito (a) modificando os algoritmos existentes ou (b) hibridizando os
algoritmos existentes. O aprimoramento devido a modificações nos algoritmos existentes é
relatado em GA [18], PSO [5,19,27,28,31], ACO [23], ABC [4], HS [11], SFL [17], etc. O
aprimoramento também pode ser feito combinando os pontos fortes de diferentes algoritmos
de otimização, conhecidos como hibridação de algoritmos. A hibridação é uma maneira eficaz
de tornar o algoritmo eficiente e combina as melhores propriedades de diferentes algoritmos.
Alguns desses algoritmos hibridizados podem ser encontrados em [15,21,29,30,32,33].

A principal limitação de todos os algoritmos mencionados acima é que são necessários


parâmetros diferentes para o funcionamento adequado desses algoritmos. A seleção
adequada dos parâmetros é essencial para a busca da solução ideal por esses algoritmos. Uma
mudança nos parâmetros do algoritmo altera a eficácia do algoritmo. A técnica de otimização
evolutiva mais usada é o algoritmo genético (GA). No entanto, o GA fornece uma solução
quase ideal para um problema complexo com grande número de variáveis e restrições. Isso se
deve principalmente à dificuldade em determinar os parâmetros ótimos de controle, como
tamanho da população, taxa de cruzamento e taxa de mutação. O mesmo acontece com o
PSO, que utiliza peso de inércia, parâmetros sociais e cognitivos. Da mesma forma, o ABC
requer parâmetros ótimos de controle do número de abelhas (empregado, olheiro e
observadores), limite, etc. O HS requer taxa de consideração da memória de harmonia, taxa de
ajuste de altura e número de improvisações. Às vezes, a dificuldade para a seleção de
parâmetros aumenta com modificações e hibridação. Portanto, os esforços devem ser
continuados para desenvolver uma técnica de otimização que esteja livre dos parâmetros do
algoritmo, ou seja, nenhum parâmetro do algoritmo é necessário para o funcionamento do
algoritmo. Este aspecto é considerado no presente trabalho.

Um método de otimização, Otimização baseada no ensino-aprendizagem (TLBO), é proposto


neste documento para obter soluções globais para funções não lineares contínuas com menos
esforço computacional e alta consistência. O método TLBO trabalha com a filosofia de ensino e
aprendizagem. O método TLBO é baseado no efeito da influência de um professor na produção
dos alunos em uma classe. Aqui, a produção é considerada em termos de resultados ou notas.
O professor geralmente é considerado uma pessoa altamente instruída que compartilha seu
conhecimento com os alunos. A qualidade de um professor afeta o resultado dos alunos. É
óbvio que um bom professor treina os alunos para que eles possam obter melhores resultados
em termos de notas ou notas. Além disso, os alunos também aprendem com a interação entre
si, o que também ajuda em seus resultados.

2. Otimização baseada no ensino-aprendizagem

Suponha que dois professores diferentes, T1 e T2, ensinem uma matéria com o mesmo
conteúdo para os mesmos alunos do nível de mérito em duas classes diferentes. A figura 1
mostra a distribuição das notas obtidas pelos alunos de duas classes diferentes avaliadas pelos
professores. As curvas 1 e 2 representam as notas obtidas pelos alunos ensinados pelos
professores T1 e T2, respectivamente. Uma distribuição normal é assumida para as marcas
obtidas, mas na prática real ela pode ter distorção. A distribuição normal é definida como,
onde r2 é a variação, l é a média e x é qualquer valor do qual a função de distribuição normal é
necessária.
É visto na Fig. 1 que a curva 2 representa melhores resultados que a curva 1 e, portanto, pode-
se dizer que o professor T2 é melhor que o professor T1 em termos de ensino. A principal
diferença entre os dois resultados é a média (M2 para a curva 2 e M1 para a curva 1), ou seja,
um bom professor produz uma média melhor para os resultados dos alunos. Os alunos
também aprendem com a interação entre si, o que também ajuda em seus resultados.

Considere a Fig. 2, que mostra um modelo para as notas obtidas pelos alunos de uma classe
com a curva A com média de MA. O professor é considerado a pessoa mais experiente da
sociedade; portanto, o melhor aluno é imitado como professor, e isso é mostrado por TA na
Figura 2. O professor tenta disseminar o conhecimento entre os alunos, o que, por sua vez,
aumenta o nível de conhecimento de toda a classe e ajude os alunos a obter boas notas ou
notas. Portanto, um professor aumenta a média da turma de acordo com sua capacidade. Na
Fig. 2, o professor AT tentará mover o MA médio para seu próprio nível, de acordo com sua
capacidade, aumentando assim o nível dos alunos para um novo MB médio. O professor AT
fará todo o possível para ensinar seus alunos, mas eles ganharão conhecimento de acordo com
a qualidade do ensino ministrada por um professor e a qualidade dos alunos presentes na
turma. A qualidade dos alunos é avaliada a partir do valor médio da população. O professor TA
se esforça para aumentar a qualidade dos alunos do MA para o MB, momento em que os
alunos precisam de um novo professor, de qualidade superior a eles mesmos, ou seja, nesse
caso, o novo professor é TB. Portanto, haverá uma nova curva B com o novo professor TB.

Como outros algoritmos inspirados na natureza, o TLBO também é um método baseado em


população que usa uma população de soluções para avançar para a solução global. Para TLBO,
a população é considerada como um grupo de alunos ou uma classe de alunos. Nos algoritmos
de otimização, a população consiste em diferentes variáveis de design. No TLBO, diferentes
variáveis de design serão análogas às diferentes disciplinas oferecidas aos alunos e o resultado
dos alunos é análogo ao 'fitness', como em outras técnicas de otimização baseadas na
população. O professor é considerado a melhor solução obtida até o momento.

O processo de trabalho do TLBO é dividido em duas partes. A primeira parte consiste em "Fase
do professor" e a segunda parte consiste em "Fase do aluno". A "Fase do professor" significa
aprender com o professor e a "Fase do aluno" significa aprender através da interação entre os
alunos.

2.1 Fase do professor

Como mostra a Figura 3, a média de uma turma aumenta de MA para MB, dependendo de um
bom professor. Um bom professor eleva seus alunos ao seu nível em termos de conhecimento.
Mas, na prática, isso não é possível e um professor pode apenas mover a média de uma classe
até certo ponto, dependendo da capacidade da classe. Isso segue um processo aleatório,
dependendo de muitos fatores.
Seja Mi a média e Ti seja o professor em qualquer iteração i. O Ti tentará mover o Mi médio
para seu próprio nível, então agora o novo meio será designado como Mnew. A solução é
atualizada de acordo com a diferença entre a média existente e a nova, dada por Diferença
Meani ð riðNovo TFMiÞ ð2Þ em que TF é um fator de ensino que decide o valor da média a ser
alterada e ri é um número aleatório no intervalo [ 0,1]

O valor de TF pode ser 1 ou 2, que é novamente um passo heurístico e decidido


aleatoriamente com igual probabilidade de TF = round [1 + rand (0,1) {2 1}]

Essa diferença modifica a solução existente de acordo com a seguinte expressão Xnew; i ¼
Xold; i þ Diferença Meani

2.2 Fase do aluno

Os alunos aumentam seus conhecimentos por dois meios diferentes: um através da


contribuição do professor e outro através da interação entre si. Um aluno interage
aleatoriamente com outros alunos com a ajuda de discussões em grupo, apresentações,
comunicações formais, etc. Um aluno aprende algo novo se o outro aluno tiver mais
conhecimento do que ele. A modificação do aluno é expressa como,

Para i = 1: Pn

Seleciona aleatoriamente outro aluno Xj, de modo que i - j

3. Implementação do TLBO para otimização

O procedimento passo a passo para a implementação do TLBO é apresentado nesta seção.


Para demonstração do procedimento, é considerada a função Rastrigin de fðxÞ ¼ Pn i¼1 x2i 10
cosð2pxiÞÞþ 10. A função Rastrigin é uma função multimodal, separável e regular. Os gráficos
tridimensionais e de contorno para a função Rastrigin são mostrados na Fig. 4.

Etapa 1: defina o problema de otimização e inicialize os parâmetros de otimização.

Os seguintes parâmetros de otimização são considerados para a função Rastrigin

Tamanho da população (Pn) = 10

Número de gerações (Gn) = 20

Número de variáveis de projeto (Dn) = 2


Limites de variáveis de projeto (LL, i 6 x, i 6 UL, I) = 5,12 6 x, 1,2 6 5,12

Defina o problema de otimização como Minimize fðXð Minimize f ðxÞ Pn i¼1 x2 i

4. Comparação de TLBO com outras técnicas de otimização

Como o GA, PSO, ABC, HS, etc., o TLBO também é uma técnica baseada na população que
implementa um grupo de soluções para avançar para a solução ideal. Muitos métodos de
otimização requerem parâmetros do algoritmo que afetam o desempenho do algoritmo. A GA
requer probabilidade de cruzamento, taxa de mutação e método de seleção; PSO requer
fatores de aprendizado, variação de peso e valor máximo de velocidade; ABC requer número
de abelhas empregadas, espectadoras e valor do limite; O HS requer taxa de consideração da
memória de harmonia, taxa de ajuste de afinação e número de improvisações: SFLA requer
número de memeplexos, iteração por memeplexos: O ACO requer parâmetros de expoente,
taxa de evaporação do feromônio e fator de recompensa. Diferentemente de outras técnicas
de otimização, o TLBO não exige que nenhum parâmetro do algoritmo seja ajustado,
simplificando a implementação do TLBO. Como no PSO, o TLBO usa a melhor solução da
iteração para alterar a solução existente na população, aumentando assim a taxa de
convergência. TLBO não divide a população como ABC e SFLA. Assim como o GA, que usa a
fase de seleção, cruzamento e mutação, e o ABC, que utiliza as fases empregadas,
espectadoras e abelhas exploradoras, o TLBO usa duas fases diferentes, 'Fase do professor' e
'Fase do aluno'. O TLBO usa o valor médio da população para atualizar a solução. TLBO
implementa a ganância para aceitar a boa solução como o ABC.

A força do método TLBO é que ele não requer nenhuma configuração de parâmetros para o
funcionamento do algoritmo. Pesquisas futuras consistirão em verificar o método TLBO para
problemas da vida real e para problemas de benchmark mais desafiadores. Algumas melhorias
também serão incorporadas no algoritmo TLBO e o método aprimorado será verificado quanto
a problemas de referência e da vida real.

6. conclusões

Todos os algoritmos inspirados na natureza, como GA, PSO, ACO, ABC, HS, etc. requerem que
parâmetros de algoritmo sejam definidos para o seu funcionamento adequado. A seleção
adequada dos parâmetros é essencial para a busca da solução ideal por esses algoritmos. Uma
mudança nos parâmetros do algoritmo altera a eficácia dos algoritmos. Para evitar essa
dificuldade, um método de otimização, TLBO, que é livre de parâmetros de algoritmo, é
apresentado neste artigo. Este método funciona com o efeito da influência de um professor
nos alunos. Como outros algoritmos inspirados na natureza, o TLBO também é um método
baseado em população que usa uma população de soluções para avançar para a solução
global. Para TLBO, a população é considerada como um grupo de alunos ou uma classe de
alunos. O processo de trabalho do TLBO é dividido em duas partes. A primeira parte consiste
em "Fase do professor" e a segunda parte consiste em "Fase do aluno". A "Fase do professor"
significa aprender com o professor e a "Fase do aluno" significa aprender através da interação
entre os alunos.

O desempenho do método TLBO proposto é verificado com os algoritmos de otimização


recentes e conhecidos, como GA, ABC, PSO, HS, DE, Hybrid-PSO, etc., experimentando
diferentes problemas de benchmark com diferentes características, como multimodalidade,
separabilidade , regularidade e dimensionalidade. A eficácia do método TLBO também é
verificada quanto a diferentes critérios de desempenho, como taxa de sucesso, solução média,
avaliações de funções médias necessárias, taxa de convergência etc. Os resultados mostram
melhor desempenho do método TLBO em relação a outros métodos de otimização de natureza
para as funções de referência consideradas . Além disso, o método TLBO mostra melhor
desempenho com menos esforços computacionais para os problemas de grande escala, ou
seja, problemas com altas dimensões. Este método pode ser usado para a otimização de
aplicações de design de engenharia

Você também pode gostar