Escolar Documentos
Profissional Documentos
Cultura Documentos
Redes Neurais
Artificiais
Perceptrons e Adalines
Neurnios
Funo: receber entradas, computar funo
sobre entradas e enviar resultado para as
unidades seguintes
u x jwj
j 1
x1
w1
x2
w2
(u)
ff (xw)
wN
xN
3
Funes de ativao
Mais comuns
a(t ) = u(t)
a(t ) =
(sigmoide logstica)
a(t) = (1 - e-u(t))
(1 +e-u(t))
(tangente hiperblica)
(linear)
1 , se u(t) (threshold ou
0, se u(t) limiar)
Perceptrons e Adalines
Perceptrons e Adalines
Redes de uma nica camada
Unidades Lineares com Threshold (TLUs)
Perceptron => Rosenblatt, 1958
Problemas de classificao
Dado um conjunto pr-especificado de
entradas, uma certa entrada pertence ou no
a este conjunto?
6
a x i wi
1
y=
1, se a
0, se a
7
Algoritmo de aprendizado do
Perceptron (1/2)
1. Inicializar e o vetor de pesos w
2. Repetir
3. Para cada par do conjunto de
treinamento (x,t)
4. Atualizer o vetor de pesos para cada um
dos ns da rede segundo a regra
wi(t+1)= wi(t) + (t - o)xi
5. At o=t para todos os vetores
8
Algoritmo de aprendizado do
Perceptron (2/2)
Teorema da convergncia (Minsky e Papert,
1969)
O algoritmo converge dentro de um
nmero finito de passos para um vetor de
pesos que classifica corretamente todo o
conjunto de treinamento
Dado que o conjunto de treinamento
linearmente separvel
9
Regra Delta
Considere a tarefa de treinar um perceptron
sem limiar (unthresholded), i.e., uma Unidade
Linear (UL):
y=w.x
(1)
(2)
11
13
14
15
Modique o vetor
repetidamente, em passos
pequenos
16
Observaes (1/2)
Observaes (2/2)
Aproximao estocstica
Gradiente descendente incremental ou
gradiente descendente estocstico
Aproxima a busca do gradiente
descendente atualizando os pesos a
cada exemplo individual
wi = (t - o)xi
23
Gradiente descendente
estocstico
Perceptrons/Adalines (1/2)
Poder Computacional
Representam uma superfcie de deciso
atravs de um hiperplano
o=1 para exemplos situados em um lado
o=0 para exemplos situados no outro
lado
Exemplos linearmente separveis
Apenas funes linearmente separveis
(Minsky e Papert, 1969)
26
Perceptrons/Adalines (2/2)
Poder Computacional
Podem representar todas as funes Booleanas
primitivas (AND, OR, NAND e NOR)
No podem representar o XOR
Qualquer funo booleana pode ser representada
por um perceptron de duas camadas
Forma normal disjuntiva
Regresso Linear
27
Regra do Perceptron x
Regra Delta (1/3)
Regra do Perceptron x
Regra Delta (2/3)
Convergncia
1. Converge dentro de um nmero finito de passos
para um vetor de pesos que classifica
corretamente todo o conjunto de treinamento
Dado que o conjunto de treinamento seja
linearmente separvel
29
Regra do Perceptron x
Regra Delta (3/3)
Convergncia
1. Converge apenas assintoticamente para um vetor
de pesos com um erro mnimo, possivelmente
requererendo um nmero ilimitado de pasos
Independentemente de o conjunto de
treinamento ser linearmente separvel
30