Escolar Documentos
Profissional Documentos
Cultura Documentos
Redes Neurais Artificial
Redes Neurais Artificial
Tpicos:
Wij(t) = ai(t)aj(t)
Treinamento Supervisionado
O treinamento de rede Perceptron, consiste em
ajustar os pesos e os thresholds (bias) de suas
unidades para que a classificao desejada seja
obtida.
Quando um padro inicialmente apresentado
rede, ela produz uma sada.
Aps medir a distncia entre a resposta atual e a
desejada, so realizados os ajustes apropriados nos
pesos de modo a reduzir esta distncia.
Este procedimento conhecido como Regra Delta
Esquema de treinamento
Iniciar todas as conexes com pesos aleatrios;
Repita enquanto o erro E > e
Para cada par de treinamento (X,d), faa:
Calcular a resposta obtida O;
Se o erro no for satisfatoriamente pequeno E > e, ento:
Atualizar pesos: Wnovo := W anterior + neta E X
Onde:
O par de treinamento (X, d) corresponde ao padro de entrada e a sua respectiva
resposta desejada;
O erro E definido como: Resposta Desejada - Resposta Obtida (d - O);
A taxa de aprendizado neta uma constante positiva, que corresponde velocidade
do aprendizado.
Potencial de Representao
Perceptrons representam uma superficie de um
hiperplano no espao n-dimensional
Alguns problemas no podem ser separados por
hiperplanos
A regra de aprendizado encontra um vetor de
pesos se os exemplos so linearmente separaveis
em cc a regra converge para a melhor
aproximao
Perceptron Multi-Camadas (MLP)
o desenvolvimento do algoritmo de treinamento
backpropagation, por Rumelhart, Hinton e
Williams em 1986, precedido por propostas
semelhantes ocorridas nos anos 70 e 80,
possvel treinar eficientemente redes com
camadas intermedirias, resultando no modelo de
Perceptron Multi-Camadas (MLP)
Se existirem as conexes certas entre as unidades de
entrada e um conjunto suficientemente grande de unidades
intermedirias, pode-se sempre encontrar a representao
que ir produzir o mapeamento correto da entrada para a
sada atravs das unidades intermediria.
Como provou Cybenko, a partir de extenses do Teorema
de Kolmogoroff, so necessrias no mximo duas camadas
intermedirias, com um nmero suficiente de unidades por
camada, para se produzir quaisquer mapeamentos.
Tambm foi provado que apenas uma camada intermediria
suficiente para aproximar qualquer funo contnua.
Backpropagation
Durante o treinamento com o algoritmo backpropagation,
a rede opera em uma sequncia de dois passos.
Primeiro, um padro apresentado camada de entrada da
rede. A atividade resultante flui atravs da rede, camada por
camada, at que a resposta seja produzida pela camada de
sada.
segundo passo, a sada obtida comparada sada desejada
para esse padro particular. Se esta no estiver correta, o erro
calculado. O erro propagado a partir da camada de sada at a
camada de entrada, e os pesos das conexes das unidades das
camadas internas vo sendo modificados conforme o erro
retropropagado.
As redes que utilizam backpropagation trabalham
com uma variao da regra delta, apropriada para
redes multi-camadas: a regra delta generalizada.
A regra delta padro essencialmente implementa
um gradiente descendente no quadrado da soma do
erro para funes de ativao lineares.
Entretanto, a superfcie do erro pode no ser to
simples, as redes ficam sujeitas aos problemas de
de mnimos locais.
A regra delta generalizada funciona quando so
utilizadas na rede unidades com uma funo de
ativao semi-linear, que uma funo diferencivel e
no decrescente. Note que a funo threshold no se
enquadra nesse requisito. Uma funo de ativao
amplamente utilizada, nestes casos, a funo
sigmoid.
A taxa de aprendizado uma constante de
proporcionalidade no intervalo [0,1], pois este
procedimento de aprendizado requer apenas que a
mudana no peso seja proporcional neta.
Entretanto, o verdadeiro gradiente descendente requer que sejam
tomados passos infinitesimais. Assim quanto maior for essa
constante, maior ser a mudana nos pesos, aumentando a
velocidade do aprendizado, o que pode levar uma oscilao do
modelo na superfcie de erro. O ideal seria utilizar a maior taxa
de aprendizado possvel que no levasse uma oscilao,
resultando em um aprendizado mais rpido.
O treinamento das redes MLP com backpropagation pode
demandar muitos passos no conjunto de treinamento, resultando
um tempo de treinamento considervelmente longo. Se for
encontrado um mnimo local, o erro para o conjunto de
treinamento pra de diminuir e estaciona em um valor maior que
o aceitvel.
Uma maneira de aumentar a taxa de aprendizado sem
levar oscilao modificar a regra delta generalizada
para incluir o termo momentum, uma constante que
determina o efeito das mudanas passadas dos pesos na
direo atual do movimento no espao de pesos.
Desta forma, o termo momentum leva em considerao
o efeito de mudanas anteriores de pesos na direo do
movimento atual no espao de pesos. O termo
momentum torna-se til em espaos de erro que
contenham longas gargantas, com curvas acentuadas ou
vales com descidas suaves.
Memrias Matricias
Modelo no-linear de Willshaw
Modelo linear de Kohonen e Anderson
Memria linear tima
Hopfield
Memria Matricial
Envolve a gerao de um padro de
ativao no conjunto de nodos de sada em
funo do aparecimento de um determinado
padro de ativao de entrada.
O mapeamento entre o padro de ativao
de entrada e o de sada feito atravs de
uma transformao matricial
Pode ter ou no uma operao no-linear
Modelo de Willshaw
A matriz de pesos obtida atravs da regra
de Hebb + uma transformao no linear
para obter uma matriz de pesos binria
Wij = g( Yi Xj )
g(x) = {1 x>= 1, 0 x<1}
(Y) = (W X)
(x) uma funo de limear, o limear deve ser
igual ao nmero de elementos ativos em X
Exemplo
Suponha que se deseja recuperar X2 e Y2:
WX2 = (3 2 3 0 2 2 3 0)t ento Y2 = (1 0 1 0 0 0 1 0)t
Capacidade de recuperao
Se adiciona-se o par [x3y3]
x3 =(1 1 1 1 1 1 1 1)t e y3 =(1 1 1 1 1 1 1 1 )t
W passa a ter todos seus elementos em 1, a
rede perde a sua capacidade de recuperar as
associaes.