Escolar Documentos
Profissional Documentos
Cultura Documentos
Resolução Da Prova de RNA
Resolução Da Prova de RNA
X1 X2 Saı́da desejada
1 1 -1
1 -1 1
-1 1 1
-1 -1 -1
5. De acordo com o desenho da rede apresentada calcular o valor do neurônio 2 para um ciclo de backpropagation.
Respostas
I A camada de entrada deve possuir uma unidade especial conhecida como bias, usada para aumentar os graus
de liberdade, permitindo uma melhor adaptação, por parte da rede neural, ao conhecimento a ela fornecido.
No caso do neurônio de McCulloch-Pitts temos um peso bias w0 alimentado por uma constante x0 = +1 que
desempenha o controle do nı́vel de saı́da do neurônio.
II A propriedade mais importante das redes neurais é a habilidade de aprender e com isso melhorar o seu desem-
penho. Isso é feito através de um processo iterativo de ajustes aplicados aos seus pesos que correspondem ao
treinamento. O treinamento pode ser:
[Treinamento supervisionado] Consiste no ajuste de pesos de uma rede neural para fornecer saı́das dese-
jadas, considerando-se o conjunto de padrões de entrada.
[Treinamento não supervisionado] Consiste no ajuste de pesos de uma rede neural, levando-se em conta
somente o conjunto de padrões de entrada. É portanto, um procedimento auto-organizável.
III Sejam os pontos P1 = (1, 1), P2 = (1, −1), P3 = (−1, −1) e P4 = (−1, 1), vamos assumir uma ordem psudo-
aleatória [4 2 3 1], α = 1, 5, d = 0, 5 ou d = −0, 5 e W = [1 1 − 1]T .
X
Wk+1 = W + α
|X|2
logo S = −1(0, 25) + 1(1, 75) − 0, 25 = 1, 25, S > 0 ⇒ y > 0 OK! para este ponto.
S = 1 ∗ 2, 125 + (−1) ∗ (−0, 125) + 0, 125 = 2, 375 portanto S > 0 ⇒ y > 0 OK!
2
[⇒] Para o ponto P3 = (−1, −1), S = x1 W1 +x2 W2 +W0 = (−1)∗2, 125+(−1)∗(−0, 125)+0, 125 = −1, 875
e como = d − S temos = 0, 5 − (−1, 875) ⇒ = 2, 375
W1 1 −1
W2 = 1 + p 1, 5 ∗ 2, 375 −1
W0 −1 ( 12 + 12 + (−1)2 )2 1
W1 −0, 1875
W2 = −0, 1875
W0 0, 1875
S = 3, 5625, S > 0 ⇒ y > 0 logo a saı́da calculada é diferente da desejada ! Temos de fazer outra iteração para
o pontoP3
S = x1 W1 + x2 W2 + W0 = (−1) ∗ (−0, 1875) + (−1) ∗ (−0, 1875) + 0, 1875 = −3, 5625 e como = d − S temos
= 0, 5 − (−3, 5625) ⇒ = −3, 0625
W1 1 −1
W2 = 1 + p1, 5 ∗ (−3, 0625) −1
W0 −1 ( 12 + 12 + (−1)2 )2 1
W1 2, 53125
W2 = 2, 53125
W0 −2, 53125
S = (−1) ∗ 2, 53125 + (−1) ∗ 2, 53125 − 2, 53125 = −7, 59375, ou seja, S < 0 ⇒ y < 0 OK! Para este ponto
também.
[⇒] Para o ponto P1 = (1, 1), vamos usar os dados da iteração anterior S = x1 W1 + x2 W2 + W0 =
1 ∗ (−0, 1875) + 1 ∗ (−0, 1875) + 0, 1875 = −0, 1875 e como = d − S temos = 0, 5 − (−0, 1875) ⇒ = 0, 65625
W1 1 1
W2 = 1 + p 1, 5 ∗ 0, 65625 1
W0 −1 ( 12 + 12 + (−1)2 )2 1
W1 1, 34375
W2 = 1, 34375
W0 −0, 65625
S = 1, 34375 + 1, 34375 − 0, 65625 = 2, 03125, isto é, S > 0 ⇒ y > 0 OK!
Desta forma os pesos finais são
W1 1, 34375
W2 = 1, 34375
W0 −0, 65625
IV No caso “XOR”
Hiperplano t1 = x1 W11 + x2 W21 + W01 ⇒ x2 = − W 11
W21 1
x − W01
W21
Para (0,0) t1 = W01 ⇒ W01 = −1
W11
Para (-1,0) 0 = W01 ⇒ W11 = −1
W21 − W
21
Para (0,1) 1 = − W
W
01
⇒ W21 = 1
21
Hiperplano t2 = x1 W12 + x2 W22 + W02 ⇒ x2 = − W 12
W22 1
x − W02
W22
Para (0,0) t2 = W02 ⇒ W02 = −1
W12
Para (1,0) 0 = − W02 ⇒ W12 = 1
W22 − W
22
W02
Para (0,-1) −1 = − W ⇒ W22 = −1
22
x1 x2 t1 t2 z1 z2 Sy y
1 1 -1 -1 -1 -1 -1 -1
1 -1 -3 1 -1 1 1 1 não sei porque fazer a outra opção afinal aqui ja vimos que os
-1 1 1 -3 1 -1 1 1
-1 -1 -1 -1 1 1 -1 -1
pesos são ⇑ e que a primeira camada tem dois neurôios e que a segunda tem 1.