Escolar Documentos
Profissional Documentos
Cultura Documentos
Rna C2 PDF
Rna C2 PDF
Captulo 2
Processos de Aprendizado
A propriedade mais significativa de uma Rede Neural Artificial certamente a
habilidade de aprender a partir do seu ambiente e melhorar seu desempenho atravs do
aprendizado.
A melhora no desempenho de uma RNA ocorre ao longo do aprendizado, de acordo
com critrios especficos adotados para atingir tal propsito.
O problema do aprendizado em RNAs simplesmente o problema de encontrar,
atravs de um processo interativo (relativo a uma aplicao na qual cada entrada provoca
uma resposta) e iterativo (reiterado) um conjunto de parmetros livres que possibilite rede
o desempenho desejado. Visto de uma forma ideal, o conhecimento de uma RNA sobre o
ambiente em que est inserida deve aumentar a cada iterao do processo de aprendizagem.
Uma interessante definio de aprendizado no contexto de redes neurais
apresentada por Haykin em [3]:
-1-
-2-
-4-
(2.1)
1 2
e k (n )
2
(2.2)
-6-
(2.3)
(2.4)
onde wkj (n ) e wkj (n + 1) podem ser vistos, respectivamente, como o valor antigo e o valor
novo (atualizado) do peso sinptico wkj .
A Figura 2.3(b) mostra o grafo de fluxo de sinal representativo do processo de
aprendizado por correo de erro, focando a atividade ao redor do neurnio k. O sinal de
entrada x j e o potencial de ativao v k do neurnio k so chamados, respectivamente, de
sinais pr-sinptico e ps-sinptico da j-sima sinapse do neurnio k.
Ainda observando a Figura 2.3(b) pode-se verificar que o processo de aprendizado
por correo de erro um exemplo de um sistema realimentado de elo fechado (closed-loop
feedback) e, portanto, a estabilidade de tal sistema determinada pelos parmetros que
constituem os elos de realimentao do sistema. No nico elo fechado de realimentao
existente no processo, um parmetro de particular interesse o parmetro razo de
-7-
-8-
-9-
- 10 -
(2.5)
'
(2.6)
- 11 -
Figura 2.6: A rea dentro do crculo tracejado inclui dois pontos pertencentes classe 1 e
um ponto "estranho" pertencente classe 0. O ponto d corresponde ao vetor de teste x teste .
Com k = 3 , o classificador dos 3-vizinhos mais prximos atribui classe 1 ao ponto d
embora ele esteja mais prximo do elemento "estranho" (a maioria vence).
Um interessante e muito importante exemplo de classificador baseado em memria
a rede neural do tipo Radial-Basis Function, que ser estudada em captulo posterior.
- 12 -
Esta afirmao feita por Hebb no contexto da neurobiologia, como uma base do
aprendizado associativo a nvel celular. O aprendizado associativo pode resultar em uma
modificao duradoura no padro de atividade de um conjunto de clulas nervosas
espacialmente distribudo.
Expandindo o postulado de Hebb em duas regras:
1.
2.
precisamente, uma sinapse Hebbiana definida como uma sinapse que usa um mecanismo
dependente do tempo, altamente localizado, e fortemente interativo para aumentar a
eficincia sinptica como uma funo da correlao entre as atividades pr-sinpticas e pssinpticas. A partir desta definio pode-se deduzir as quatro propriedades principais que
caracterizam uma sinapse Hebbiana:
1.
2.
Mecanismo localizado:
Pela sua natureza, uma sinapse o local de transmisso onde os sinais de informao
que chegam (representando atividade nas unidades pr-sinpticas e ps-sinpticas)
esto em contiguidade espao-temporal. Esta informao localmente disponvel
usada por uma sinapse Hebbiana para produzir uma modificao sinptica local.
- 13 -
3.
Mecanismo Interativo:
A ocorrncia de uma mudana em uma sinapse Hebbiana depende dos sinais em
ambos os lados da sinapse, ou seja, entre sinais pr-sinpticos e ps-sinpticos.
Sinais pr-sinpticos e ps-sinpticos
sinptica.
4.
wkj (n ) = F y k (n ), x j (n )
(2.7)
onde F (,) uma funo de ambos sinais pr-sinpticos e ps-sinpticos. (Os sinais x j (n )
e y k (n ) so freqentemente tratados como adimensionais.)
A seguir apresentaremos duas formas (ambas Hebbianas) para a Expresso (2.7). A
primeira delas baseada na hiptese de Hebb e a segunda, na hiptese da covarincia.
- 14 -
a) Hiptese de Hebb
A forma mais simples de aprendizado Hebbiano descrita por
wkj (n ) = y k (n ) x j (n )
(2.8)
- 15 -
b) Hiptese da Covarincia
Uma forma de superar a limitao da hiptese de Hebb utilizar a hiptese da
Covarincia, em que os sinais pr-sinpticos e ps-sinpticos na Equao (2.8) so
substitudos pelos sinais pr-sinpticos e ps-sinpticos dos quais foram retirados seus
respectivos valores mdios sobre um determinado intervalo de tempo. Sejam x e y os
valores mdios referidos dos sinais pr-sinpticos e ps-sinpticos
xj
yk ,
)(
wkj = x j x y k y
(2.9)
2.
- 16 -
Um conjunto de neurnios que so todos iguais exceto por alguns pesos sinpticos
aleatoriamente distribudos, e que, portanto, respondem de forma diferente a um
dado conjunto de padres de entrada.
2.
3.
- 17 -
Figura 2.8: Arquitetura de uma rede sob aprendizado competitivo simples com conexes
progressivas excitatrias partindo dos ns fonte para os neurnios, e conexes laterais
inibitrias entre os neurnios.
Para um neurnio k ser o neurnio vencedor, seu potencial de ativao v k para um
especfico padro de entrada x deve ser o maior dentre todos os neurnios na rede. O sinal
de sada y k do neurnio vencedor k feito igual a um; os sinais de sada de todos os
outros neurnios que perdem a competio so feitos iguais a zero. Pode-se ento escrever
que
1
yk =
0
(2.10)
- 18 -
wkj = 1
para todo k
(2.11)
x wkj
wkj = j
0
(2.12)
onde o parmetro razo de aprendizado. Esta regra tem o efeito global de mover o
vetor de pesos sinpticos w k do neurnio vencedor k na direo do padro de entrada x .
Os pesos sinpticos inibitrios (quando existem), em geral, apresentam valores
constantes.
- 19 -
- 20 -
A rede projetada deve aproximar a funo desconhecida, de tal forma que o mapeamento
entrada/sada efetivamente realizado pela rede aproxime f () para todas as entradas.
Para construir o conhecimento sobre o mapeamento entrada/sada, a rede provida de um
conjunto de exemplos representativos deste mapeamento.
Desde que o tamanho do conjunto de treino seja suficientemente grande e a rede disponha
de um nmero adequado de parmetros livres, o erro de aproximao obtido ser
suficientemente pequeno para a tarefa proposta.
Paradigma de aprendizagem envolvido: Aprendizado Supervisionado.
- 21 -
- 22 -
- 23 -