Escolar Documentos
Profissional Documentos
Cultura Documentos
Solução 1:
• Cada neurona posee un término BIAS, que constituye la predisposición de la neurona a activarse.
• O uso de BIAS em nossos RN mostra-se importante, pois permite que fixemos o valor Treshold
adotado em nossa função de ativação.
• O BIAS pode ser encarado como sendo o peso para um neurônio cuja entrada é sempre 1.
• BIAS, é usada para aumentar os graus de liberdade, permitindo uma melhor adaptação, por parte
da rede neural e ao conhecimento a ela fornecido.
• O neurônio de McCulloch-Pitts pode conter também um peso bias w0 alimentado por uma
constante x0 = +1 que desempenha o controle do nível de saída do neurônio.
Solução 2:
A propriedade mais importante das RN é a habilidade de aprender e com isso melhorar seu
desempenho. Isso é feito através de um processo iterativo de ajustes aplicados a seus pesos que
correspondem ao treinamento.
Denomina-se algoritmo de treinamento a um conjunto de regras bem definidas para a solução de um
problema de treinamento. Existem muitos tipos de algoritmos de treinamento específicos para
determinados modelos de redes neurais. Estes algoritmos diferem entre si, principalmente, pelo modo
como os pesos são modificados.
Outro fator importante é a maneira pela qual uma rede neural se relaciona com o ambiente. Nesse
contexto existem, basicamente, os seguintes paradigmas de treinamento:
Treinamento Supervisionado. Baseado na entrada e na saída, para fornecer saídas desejadas,
considerando-se o conjunto de padrões de entrada.
Treinamento Não-supervisionado. Baseado somente nos padrões de entrada. Procedimento de
treinamento auto-organizável.
Solução 3:
Assumindo ordem seudo-aleatorio para o tratamento dos padrões: {4, 2, 3, 1}
Assumindo alfa = 1,5 valores desejados d = -0,5 ou d = 0,5 pesos iniciais W = [ 1, 1, -1]
• Adaptação para o vetor padrão P4 = (x1 , x2) = (-1 , 1); d = 0,5 ; yd = 1
s = x1.w1 + x2.w2 + w0 = (-1)x1 + 1x1 + (-1) = -1 yc = -1 e = d – s = 1,5
1 Alfa Erro -1 0,25
1 + 1,5 1,5 1 = 1,75 (yd ≠ yc) outra iteração
W=
-1 3 1 -0,25
s = x1.w1 + x2.w2 + w0 = (-1)x0,25 + 1x1,75 + (-0,25) = 1,25 yc = 1 e = d – s = -0,75
0,25 Alfa Erro -1 0,625
1,75 + 1,5 -0,75 1 = 1,375 (yd = yc) OK
W=
-0,25 3 1 -0,625
Solução 5:
Matrizes de pesos:
0,5 λ1
= σ .
1 2!.
.
%
0,5 λ1 1
= σ % .
1 2!.
.
%
0,5 λ1 2
= σ % .
1 2!.
.
%
0,5 λ1 3
=
σ % .
1 2!.
. . .
(
= (
σ ' ) 0,5 λ1 %1
1
. 2!.
. . .
(
= σ '( ) 0,5 λ1 %2
1
. 2!.
=========================================================================
QUESTÕES – 1ra prova – RN – Ana Diva – 27/11/2009
1) Comente sobre as deficiências da técnica “Retropropagação” aplicada no treinamento de Redes
Neurais multicamadas Feed Forward com não-linearidades sigmoidal (2 ptos).
2) Explique objetivamente os tipos de redes neurais (1 pto)
3) Supondo que, se deseje implementar uma RN Feed Forward “Retropropagação” cujos vetores de
entrada e de saída possuem dimensões M e N, respectivamente. Especifique o N° de camadas e o
número de neurônios de cada camada desta RN (2 ptos).
4) Projete (determinação do número de camadas, Função Lógica
neurônios por camada, e dos pesos) uma RN que Entrada Saída
realize a função lógica mostrada Q1 (3 ptos). x1 x2 Q1
+1 +1 +1
+1 -1 -1
5) Calcule a saída Y na seguinte rede mostrada na fig. 1 -1 +1 -1
para uma entrada X1 = 1 e X2 = -1 (2 ptos) -1 -1 +1
Solução 1:
• Existência de pontos mínimos locais. – O treinamento da rede neural será considerado concluído
quando houver a convergência para um ponto mínimo global.
• Existência de paralisia no mecanismo de adaptação de pesos. – Outro detalhe que contribui para a
redução da eficiência, quando não impossibilita a conclusão do treinamento. Quando “s” (saída
intermediaria) é excessivamente grande o pequena.
• Algoritmo de treinamento muito lento, tempo de treinamento muito grande (pudendo ser dias o
semanas, para ração de aprendizado pequeno, 0.05 < alfa < 0.25 (alfa max = 1)
• Se ração de aprendizado muito grande, pode não converger.
• Quanto menor for o parâmetro da taxa de aprendizagem, menor serão variações dos pesos
sinápticos da rede, de uma iteração para outra, e mais suave será a trajetória no espaço dos pesos.
O custo é uma taxa de aprendizagem lenta. Se taxa é elevada, as grandes modificações nos pesos
sinápticos resultantes podem tornar a rede inestavel (i.e. oscilatória).
• Permite treinar redes multicamadas.
Solução 2: As Redes Neurais podem ser classificadas em dois tipos quanto a sua estrutura:
Redes Neurais Recorrentes (feedforward). Uma rede é definida como recorrente se ela contém laços
de realimentação, ou seja, contém conexões das saídas de uma determinada camada para a entrada da
mesma ou de camadas anteriores.
As entradas de um neurônio são as saídas dos demais neurônios da camada anterior. As redes que
possuem esta estrutura desenvolvem uma memória a longo prazo nos neurônios internos. Nesta classe
de redes neurais, e.g., encontra-se a rede de Hopfield.
Redes Neurais Não-recorrentes. Esta rede caracteriza-se estruturalmente por estar disposta em
camadas. Nestas redes cada camada de neurônios recebe sinais somente das camadas anteriores, ou
seja, elas não possuem laços de realimentação.
Solução 3: no melhor dos casos 3 camadas (razoável)
• Camada de entrada: M neurônios NE = dim(X) = M
• Camada de saída: N neurônios NS = dim(Y) = N
• Camada escondida: P neurônios máx(M,N) ≤ NI ≤ n° de padrões
Solução 4: se usara 2 camadas (solução, ver exercício 4 do exame anterior)
• Camada de entrada: 2 neurônios
• Camada de saída: 1 neurônio
* *
+, -λ../ +, -λ..0 +, -λ.1
, -λ../ , -λ..0 , -λ.1
Solução 5: considerando lambda = 0,5
0 3 1 1
possui inicialmente a seguinte matriz de pesos.
3 0 3 1
1 3 0 1
1 1 1 0
Determine a matriz W atualizada considerando inclusão 2 novos vetores
X(k) [ -1 -1 -1 -1 ]T
X(k+1) [ 1 1 1 -1 ]T
Solução 4:
W12(novo) = -3 + (-1)x(-1) + 1x1 = -1 = W21(novo) W13(novo) = -1 + (-1)x(-1) + 1x1 = 1 = W31(novo)
W14(novo) = 1 + (-1)x(-1) + 1x(-1) = 1 = W41(novo) W23(novo) = 3 + (-1)x(-1) + 1x1 = 5 = W32(novo)
0 1 1 1
W24(novo) = 1 + (-1)x(-1) + 1x(-1) = 1 = W42(novo) W34(novo)= -1 + (-1)x(-1) + 1x(-1) = -1 = W43(novo)
1 0 5 1
W
1 5 0 1
1 1 1 0
5) Calcule a saída Y na seguinte rede mostrada na figura para uma entrada X1 = 1 e X2 = 1 (2 ptos)
* *
+, -λ../ +, -λ..0 +, -λ.1
, -λ../ , -λ..0 , -λ.1
Considerando λ = 0,5; α = 0,8
======================================================
Rede Neural ARTMAP é uma arquitetura em que o treinamento e realizado de modo supervisionado e
auto-organizavel, é composta por 2 módulos Arta e Artb e póssuem a mesma estrutura da rede ART,
exceto quando uma vigilância básica é usada para controlar o sistema.
- Treinamento rápido
- Supervisionado
- Estabilidade / plasticidade
Lista 1 – 7
1 − e− λ A1
A1 = x1.w11 + x2 .w21 + w01 B1 = f ( A1 ) =
1 + e− λ A1
1 − e− λ A2
A2 = x1.w21 + x2 .w22 + w02 B2 = f ( A2 ) =
1 + e − λ A2
C1 = B1U11 + B2U 21 + U 01 C2 = B1U12 + B2U 22 + U 02 C3 = B1U13 + B2U 23 + U 03
∈1(3) = d1 − y1 ∈(3)
2 = d 2 − y2 3ra camada, 1er y 2do neurônios