Escolar Documentos
Profissional Documentos
Cultura Documentos
1-Algoritmos genticos
Os algoritmos genticos (AG) so uma famlia de algoritmos computacionais inspirados
na teoria da evoluo, que incorporam conceitos semelhantes aos de cromossomo,
seleo, reproduo e mutao para resolver, principalmente, problemas de otimizao.
O conjunto de estados possveis de um problema denominado populao. Cada estado
constitui
retorne valores
Seleo
A seleo feita de forma a privilegiarem-se indivduos mais aptos (maiores valores da
funo de avaliao). Um dos mtodos mais populares o denominado mtodo da
roleta, em que cada cromossomo, em uma roleta, possui uma rea proporcional a sua
aptido. O ponteiro da roleta impulsionado e a rea apontada pelo mesmo ao parar,
corresponde a um indivduo selecionado. Assim, a rea ai de um indivduo i que possui
uma determinada notai proporcional a sua aptido dada por:
ai =
nota i
N
nota
j =1
cromossomo definida pela escolha de um valor entre 0,0 e 1,0. Cada indivduo, em
ordem crescente do ranking, ocupa, da rea total da roleta ainda no ocupada, uma fatia
proporcional ao valor escolhido. O indivduo de menor ranking ocupar a rea que
restou na roleta.
De forma a preservarem-se os melhores indivduos, pode-se pass-los, sem cruzamento
e alterao, para a gerao seguinte. Este procedimento, denominado elitismo, melhora
o desempenho do algoritmo, pois evita que tais indivduos sejam destrudos no
cruzamento ou na ocorrncia de mutao. A % dos indivduos restantes que se cruzam
denominada taxa de cruzamento.
homogneas, com bons indivduos, mas com chances menores de produzir indivduos
ainda melhores.
Reproduo
O processo de reproduo combina cromossomos entre si, de forma a produzir
indivduos diferentes na prxima gerao, para consequentemente aumentar a
possibilidade de aparecimento de melhores variaes. Esse processo ocorre por meio
de dois operadores sucessivos:
Nessa mscara, se o -simo elemento for 1, o -simo gene do filho 1 ser igual
ao do pai, se for 0, ser igual ao da me. O inverso ocorre no filho 2. A Figura
34 exibe esquematicamente esses processos.
Crossing-over convencional
1
Crossing-over uniforme
Mscara
Pais
Filhos
Mutao
0
a responsvel pela
O algoritmo gentico
Criar um conjunto Inicial de cromossomos;
Repetir
Utilizar uma funo de avaliao para atribuir uma nota a cada cromossomo;
3
Desempenho do algoritmo
A escolha de parmetros do algoritmo pode influenciar no desempenho e no
comportamento do mesmo e devem ser determinados, geralmente por tentativa e erro,
em funo das caractersticas e peculiaridades do problema em questo. Segundo (Jong,
1980) e (Pdua, 2000) os parmetros mais importantes a serem considerados so os
seguintes:
2.1-Definio
Segundo (Pdua, 2000), Redes Neurais Artificiais (RNAs) so
sistemas paralelos
in = wi xi (1)
i =1
x1
w1
x2
w2
y
x3
w3
wn
xn
1 wi xi
A funo degrau,
onde o limiar a partir do qual o
0 wi xi <
neurnio dispara.
1
A funo sigmide f ( x) =
1 + e x
Ao utilizar-se a funo degrau, a condio de disparo de um nodo MCP
n
w x
i i
i =1
w x
i i
= 0
i =1
w x
i i
=0
i =1
Segundo (Pdua, 2000), a funo degrau restringe o uso do neurnio MCP soluo de
problemas ditos linearmente separveis, ou seja, aqueles cuja soluo obtida pela
separao do espao em duas regies por meio de uma reta (se houver apenas duas
entradas) ou um hiperplano (para n entradas). Se considerarmos apenas duas entradas x1
e x2 com pesos w1 e w2 e limiar , a condio de disparo do neurnio w1 x1 + w2 x2 =
, que pode ser descrita no formato de uma equao de reta x2 =-(w1/ w2 ) x1+( / w2 ).
A Figura 27 abaixo exibe a soluo para os problemas das portas lgicas E e OU, com
as respectivas retas-soluo. Conforme pode ser visto, tais retas dividem o plano em
duas regies, evidenciando o carter linearmente separvel dos problemas. Entretanto, a
Figura 28 mostra que o problema do OU-exclusivo (XOU) no linearmente separvel,
no havendo portanto, soluo para a equao acima nessas condies.
x2
(0,1)
(0,0)
x2
(1,1)
(1,0)
(0,1)
x1
(0,0)
(1,1)
x2=-x1+1,5
(1,0)
x2=-x1+0,5
E lgico
OU lgico
x1
x2
(0,1)
(0,0)
(1,1)
(1,0)
x1
2.2- O Perceptron
Segundo (Pdua,2000) o trabalho de McCulloch e Pitts focou-se no modelamento
matemtico do neurnio biolgico. Somente com o trabalho de Frank Rosemblatt, em
1958, o conceito de aprendizado de redes neurais foi introduzido. Rosemblatt props o
denominado modelo perceptron, uma estrutura de rede contendo ns MCP e com um
algoritmo de aprendizado.
O perceptron composto por unidades de entrada (sensores, receptores de dados),
unidades de associao (ns MCP com pesos fixos pr-determinados) e unidades de
resposta (uma nica camada de ns MCP a serem devidamente treinados).
algoritmos de treinamento de
perceptrons sempre
1
( Err ) 2 , onde Err= yd - ya , yd a sada desejada e
2
E
E Err
=
wi Err wi
E
Err
= Err
wi
wi
n
E
= Err
( y d f ( wi xi ))
wi
wi
i =1
Finalmente:
E
= Err
wi
f ' ( wi xi ) xi
i =1
Entretanto, a regra de declnio de gradiente determina que o ajuste w deva ser feito na
direo contrria de
w =
E
wi
ou seja , w
E
,podendo ser escrito como
wi
E
, onde a constante de proporcionalidade
wi
aprendizado,
denominada taxa de
w(t+1)=w(t)+
Err
f ' ( wi xi ) xi
i =1
Se f for a funo degrau, o termo f ' ( wi xi ) pode ser omitido, pois o mesmo para
i =1
y a = f ( w i xi ) ;
i=1
Err= yd - ya ;
n
w(t+1)=w(t)+
Err
f ' ( wi xi ) xi ;
i =1
At que Err=0 (ou algum outro critrio de parada), para todos os p elementos do
conjunto de treinamento e todos os nodos da rede.
no linearmente separveis somente obtida com o uso de redes com uma ou mais
camadas intermedirias ou escondidas. (Cybenko, 1988, 1989) demonstra que uma rede
com uma nica camada escondida pode implementar qualquer funo contnua e que
duas camadas escondidas permitem a aproximao de qualquer funo. As redes do
tipo perceptron multicamadas ou MLP (multilayer perceptron) caracterizam-se por
apresentar a seguinte disposio de camadas (Figura 29):
Em uma rede MLP, o processamento realizado por cada nodo definido pela
combinao linear dos processamentos realizados pelos nodos da camada anterior que
esto conectados a ele (Pdua, 2000).
y1
y2
y3
1
w11
...
2
w11
x1
...
n
x3
wji
xj
wnp
w2p
3
x2
wpm
w2m
w12
yi
w12
ym
wkj
xk
xn
11
12
1
1
( Err ) 2 + w
2
2
Essa expresso ento minimizada, obtendo-se uma soluo com pesos de norma
mnima, na qual aqueles muito pequenos so eliminados. O parmetro de regularizao
deve ser ajustado: se for muito grande, a soluo para o vetor de pesos tende para
w=0, se for nulo, somente a soma dos erros quadrticos minimizada. Portanto, o
desafio consiste em obter um valor intermedirio de que seja satisfatrio, entre esses
extremos.
13
p
1 m
2
onde
Err=
yd
-y
,
yd
a
sada
desejada
e
(
Err
)
y
=
f
(
w ji x j ) .
i
i
i
i
2 i =1
j =1
Vamos considerar inicialmente a correo dos pesos wji que conectam a camada
escondida camada de sada, ou seja, vamos obter o gradiente de E em relao aos
pesos wji. Nesse caso especfico, expandimos somente yi, pois todos os outros termos do
somatrio no so afetados por wji (Russel, 2004). Assim, nesse caso tem-se
E=
1
( Err ) 2 .
2
E
E Err
=
w ji Err w ji
E
Err
= Err
w ji
w ji
p
E
= Err
( yd i f ( w ji x j ))
w ji
w ji
j =1
p
E
= ( yd i f ( w ji x j ))
w ji
j =1
f ' ( w ji x j ) x j
j =1
Escrevemos finalmente:
14
p
E
= x j i , onde i = ( yd i f ( w ji x j ))
w ji
j =1
f ' ( w ji x j )
j =1
w ji =
E
= x j i , onde a taxa de aprendizado.
w ji
p
p
m
E
= (( yd i f ( w ji x j ))
(( yd i f ( w ji x j ))))
wkj i =1
wkj
j =1
j =1
p
p
p
m
E
= (( yd i f ( w ji x j )) f ' ( w ji x j )
( f ( w ji x j )))
wkj
wkj
i =1
j =1
j =1
j =1
p
Mas, i = ( yd i f ( w ji x j ))
f ' ( w ji x j )
j =1
j =1
p
m
E
= ( i
( f ( w ji x j )))
wkj
wkj
i =1
j =1
m
E
= ( i w ji
xj)
wkj
wkj
i =1
n
Mas x j = f ( wkj x k )
k =1
m
n
E
= ( i w ji
f ( wkj x k ))
wkj
wkj
i =1
k =1
m
n
E
= ( i w ji f ' ( wkj x k )x k )
wkj
i =1
k =1
15
Finalmente
n
m
E
= x k j , onde j = f ' ( wkj x k ) ( i w ji )
wkj
k =1
i =1
wkj =
E
= x k j , onde a taxa de aprendizado.
wkj
Uma vez derivadas as correes dos pesos entre as camadas, vamos utiliz-las para
descrever detalhadamente o algoritmo backpropagation:
1-Iniciar pesos e parmetros;
2-Repetir at o erro ser mnimo ou at a realizao de um dado nmero de ciclos:
2.1-Para cada padro de treinamento X
2.1.1-Definir a sada da rede atravs da fase forward (descrita abaixo);
2.1.2-Atualizar pesos dos nodos atravs da fase backward
(descrita
abaixo).
Considerando-se:
M= nmero de camadas da RNA
p = nmero de ns da camada l;
q= nmero de ns da camada (l-1);
Para j = 1 at p faa
16
y = f ( wijl x l i ) ;
l
j
i =1
Se (l=M) faa
q
Mj = ( yd j y Mj )
Fase backward
Para l=M at 2 faa
p = nmero de ns da camada l;
q= nmero de ns da camada (l-1);
r= nmero de ns da camada (l-2);
Para i = 1 at q faa
Para j = 1 at p faa
l 1
i
j =1
Melhorias no treinamento
O principal problema no treinamento de RNAs pelo algoritmo backpropagation a
possibilidade de ocorrncia de mnimos locais na superfcie de erro, que prov uma
soluo incorreta. Para reduzir a incidncia deste problema, bem como acelerar a
convergncia do algoritmo, pode-se fazer o seguinte (Pdua, 2000):
17
Referncias
CYBENKO, G. Continuous Valued Neural Networks with Two Hidden Layers are
Sufficient. Technical Report, Department of Computer Science, Boston: Tufts
University, 1988.
CYBENKO, G. Aproximation by Superpositions of a Sigmoid Function. In
Mathematics of Control, Signals and Systems. New York: 1989
PADUA, A. et al. Redes Neurais Artificiais-Teoria e Aplicaes. Rio de Janeiro, LTC,
2000.
RUSSEL, S. & NORVIG, P. Inteligncia Artificial. Rio de Janeiro: Elsevier, 2 edio,
2004.
18