Você está na página 1de 1

#5 VIDA ARTIFICIAL

Simplificação de GAs: Dificuldades: Facilitar com: dinâmicas (meta GAs- algoritmos


Codificar variáveis e operadores; Linkage learning; que adaptam os parâmetros dos
Definir parâmetros para os operadores. Heurísticas para definir valores de GAs).
GAs sem parâmetros: parâmetros estáticas.
Teoria do esquema-> olhamos para a população de forma generalizada, considerando o genoma como uma classe com indivíduos semelhantes em setores
relevantes do genoma. Dá nos que o rácio de crescimento de um esquema H na geração t: φ (H,t) [1-£(H,t)]~= s(1-pc). probabilidade de crossover (quanto
muito pequeno: GA não encontra boas soluções. maior, mais dificilmente o esquema
Tamanho adequado:
muito grande: GA lento. pressão de seleção. cresce de forma contínua).
População pequena quando a população converge (todos os indivíduos têm o mesmo pára consoante condição de paragem definida pelo user (ex:
genótipo) a população recomeça com o dobro dos indivíduos. qualidade da solução).
É possível comparar o desempenho de algoritmos vendo quantas vezes é necessário chamar a função de avaliação.
Problema da deriva aleatória-> convergência pode ser lenta devido a baixa pressão de seleção:
Indivíduos com um bit único e todos os indivíduos com a mesma fitness (não há pressão de seleção, por isso o indivíduo é escolhido aleatoriamente).
Numa população de tamanho N, com metade 0 e metade 1, devido a características não determinísticas do GA: a população converge eventualmente
em só 0s ou 1s mas de forma muito lenta.
Difícil de detetar por isso devemos evitar: gerações intermediárias que usam populações de tamanhos diferentes. E eliminar populações mais
pequenas que aquela com a maior fitness média,
Online-> considera a trajetória de todo o algoritmo genético e a média das adaptações de todos os indivíduos
Desempenho teoria dos esquemas: avaliados (GA desenvolvido para otimizar este desempenho).
Offline-> só se interessa pelos melhores resultados de cada geração.
Esquema-> padrão de semelhança entre strings. Alfabeto de padrões (ex:{0,1,*})-> representação simbólica estendida pelo esquema em que * designa
qualquer atribuição possível. Permite definir os blocos que são importantes para resolver um problema.
Ordem (o(H))-> número de valores fixos no Comprimento definidor (δ (H))-> distância entre as posições do 1º e último valores fixos do esquema na
esquema. sua definição.
Seleção: simplificando, escolhemos os esquemas com fitness superior à da média da população e estes vão ter estatisticamente mais cópias na geração
seguinte. Podemos, por vezes, considerar que o esquema que se mantém acima da média de fitness com um valor constante (c) para simplificar, de forma
que a seleção fornece um número exponencial de tentativas para um esquema se este tiver uma fitness médica acima da fitness média da população.
Crossover: como altera as strings em si, pode fazer com que um esquema seja quebrado, perdendo a sua relação com o comprimento definidor. No
entanto: A destruição de um esquema pode originar outro melhor.
Mesmo que o ponto de crossover esteja no comprimento definidor, um esquema sobrevive se ambos os progenitores tiverem os mesmos alelos
nas mesma posições.
Mutação: para um esquema sobreviver à mutação é necessário que todas as posições fixas se mantenham.
Juntando a seleção, crossover e mutação e assumindo a sua independência vem a probabilidade de sobrevivência:
Assumimos que a seleção é proporcional à fitness, que existe single point crossover e que a mutação é uniforme.
Os esquemas com maior fitness crescem como uma função de um fator multiplicativo de : Fitness acima da média;
Quando construímos GAs devemos manter os blocos pequenos e com os bits juntos. Comprimento definidor pequeno;
Modularidade dos GAs: Ordem pequena.
Crossover pode juntar módulos úteis vindos de diferentes indivíduos. Mas depende de que haja uma ligação forte entre os bits ou de que as variáveis
estejam ordenadas pela sua posição e de que o crossover consiga preservar uma ligação, mantendo elementos contíguos. Tal não acontece quando não
se conhece a linkage a priori.
Procuramos resolver o problema com base no desempenho do indivíduo sucessivamente ao longo das gerações preservando a linkage no crossover
quando é conhecida (violação de assunções de BBO).
Método: criar um modelo explícito do que é bom da sub-população selecionada (modelo implícito do GA) e aprender que grupos de genes devemos passar
em conjunto.
EADs: população atual seleção estimativa de distribuição amostragem do modelo obtido (não se garante que as probabilidades se mantenham)
substituição
O método considera as variáveis independentes não resolvendo o problema posto.
Modelos Bivariáveis: estima-se probabilidades condicionais para construir um modelo que reflete as dependências de problemas. São bem definidos e
simples de fazer a amostragem. cadeia árvore floresta
Modelos Multivariados: representam relações mais complexas extraídas de correlações, mas a amostragem é mais rede de Markov
cara. rede Bayeriana
Características EDAs: Combinam técnicas de aprendizagem estatística com EAs;
Podem utilizar modelos gráficos com ordem de dependências (dirigida ou não).
Para construir o modelo: aprender a estrutura do modelo; adaptar os parâmetros ao modelo.
Prós: Técnicas de aprendizagem estatísticas maduras; Abstração de constrições biológicas; Boa performance empírica em vários problemas;
Utilidade para aprendizagem humana (questionável).
Contras: Perda de bio-plausibilidade; Grandes populações: Não são modelos completos em termos de dados.
Estratégias Evolucionárias: têm como objectivo fornecer um conjunto de procedimentos experimentais para otimização de parâmetros. Operação manual
que usava 1 indivíduo para 1 descendente. Hoje usa computação e generaliza-se para populações.
Indivíduo-> vetor com n parâmetros reais e um conjunto de parâmetros estratégicos que controlam o processo de variação (meta evolução).
Vetor de desviospadrão (mais usual): Simplificado (constante para todas as variáveis); 1 variação por variável; Mais complexo: covariância (relação
Seleção (ES): Completamente determinística, com µ = tamanho da população e λ = tamanho dos descendentes. entre os pares de variáveis).
Modelo (µ, λ)-> selecionam-se os melhores indivíduos de λ, λ > µ com Modelo (µ + λ)-> Elitismo seleciona os µ melhores indivíduos do conjunto de
rácio ótimo µ/λ ∼ 1/7. Recomenda-se para ambientes não estáticos. pais e descendentes.
Crossover (ES)-> recombinação (operador acessório). Seleciona uma variável aleatoriamente de cada um dos pais. Faz recombinação intermediária para os
parâmetros estratégicos (variáveis) em que o novo parâmetro resulta da combinação das variações dos pais.
Mutação (ES)-> Operador principal de diversificação de algoritmos. Junta o ruído Gaussiano de média 0 e desvio padrão 1 a cada variável. Os novos
valores dos parâmetros estratégicos são mutados através de 2 funções Gaussianas.
ES: Bons valores (para taxa de mutação, tamanho de população, etc) dependem do objetivo exploram o problema e o seu espaço estratégico;
da função, podendo as recomendações não serem as mais ideiais.
Mutações dos parâmetros estratégicos permitem adaptação do algoritmo ao problema específico (auto-organização);
Programação evolucionária-> criada para desenvolver um autómata finito para resolver tarefas de predição (operação manual-> 1 indivíduo). Hoje com
computação é aplicada em otimização numérica de uma população. Indivíduos: strings/cadeias de valores reais. 1 indivíduo-> 1 descendente->
Modelo estendido(meta EP) tem parâmetros estratégicos. Não tem crossover. 2µ indivíduos.
Seleção (EP)-> torneio q-estocástico (elitista: os melhores são sempre selecionado ->1 indivíduo tem q oponentes.
Conta-se os oponentes com fitness menor (wk) melhores indivíduos têm maiores valores de wk Ordenam-se em ordem descendente e seleciona-se os
melhores.
Mutação (EP): único processo de pesquisa e variação.
Soma ruído Gaussiano com média 0 às variáveis do objetivo. Adapta os meta parâmetros segundo uma constante com valores recomendados.

Você também pode gostar