Você está na página 1de 6

14/12/2010 .:LVCoN:.

Laboratório Virtual em Comp…

Exercícios: Redes Neurais Artificiais

Questões para pesquisa:

1. (1,0) Classifique a lista de itens abaixo c omo verdadeiro (V) ou falso (F) e justifique sua resposta:

a. Nós usamos apenas 10% do potencial do nosso c érebro.

Resposta

b. O número de neurônios que temos ao nasc ermos é o mesmo do número de neurônios ao morrermos.

Resposta

c . Os neurônios não se reproduzem.

Resposta

d. Os homens têm mais neurônios que as mulheres.

Resposta

e. As mulheres possuem uma visão periféric a mais ampla que os homens.

Resposta

Questões teóricas:

1. (1,5) Dado o neurônio de McCulloc h & Pitts abaixo, determine valores para seus pesos, w1 e w2, e para o
limiar , tal que ele reproduza as portas lógic as AND, OR e NOT.

Resposta

AND OR NOT
w1 = 1, w2 = 1, θ = 2 w1 = 1, w2 = 1, θ = 1 w1 = -1, w2 = 0, θ = 0
f(u) = 1 para u ≥ 2 f(u) = 1 para u ≥ 1 f(u) = 1 para u ≥ 0
f(u) = 0 para u < 2 f(u) = 0 para u < 1 f(u) = 0 para u < 0

natcomp.com.br/…/exercicio_id2.jsp 1/6
14/12/2010 .:LVCoN:. Laboratório Virtual em Comp…
2. (1,0) O neurônio de Mc Culloch & Pitts pode ser implementado de forma a simular uma porta lógic a AND e
uma porta OR. Dado o neurônio NOT abaixo, c onec te alguns neurônios AND, OR e NOT tal que a rede
resultante opere c omo uma porta XOR.

Resposta

3. (1,0) Seja um neurônio genéric o sem o bias e c om funç ão de ativaç ão do tipo linear, (u) = u. A regra de
atualizaç ão deste neurônio é do tipo supervisionada e, portanto, leva em c onsideração o erro entre a saída
da rede e a saída desejada. A Eq. (1) apresenta a regra de atualizaç ão dos pesos em funç ão do gradiente
do erro instantâneo.

onde, w é o vetor de pesos do neurônio, é a taxa de aprendizagem, e / w é vetor gradiente do erro em


relação ao vetor de pesos do neurônio. O erro instantâneo do neurônio é dado pela Eq. (2) abaixo:

onde e(t) é o sinal de erro medido na iteração t. Mostre que a regra resultante de atualização de pesos do neurônio é
dada pela Eq. (3).

Resposta

e(t) = d(t) - y(t)


e(t) = d(t) - xT(t)w(t)

w(t + 1) = w(t) + ae(t)x(t)

4. (1,5) Para a rede c ompetitiva treinada abaixo c alc ule o neurônio venc edor para cada padrão de entrada
dado. Onde: m é o número de entradas da rede, o o número de saídas e N o número de amostras (padrões)
de treinamento.

natcomp.com.br/…/exercicio_id2.jsp 2/6
14/12/2010 .:LVCoN:. Laboratório Virtual em Comp…

Rede c ompetitiva; matriz de pesos W; matriz de dados de entrada X.

Neurônio vencedor: 1, onde 1 = arg min i ||x - wi||, i.

Métrica de distância: ||x - wi|| = (Distância Euclidiana)

Resposta

Padrão de Entrada x1

Neurônio Vencedor: w1

Padrão de Entrada x2

Neurônio Vencedor: w2

5. (2,0) Dada a rede do tipo perc eptron simples (SLP) abaixo, calc ule a saída da rede, o erro entre a saída
desejada e a saída da rede, e o ajuste a ser promovido nos pesos da rede na primeira época (iteração) de
treinamento.
Regras de ajuste de pesos (aprendizagem):
ei (t) = di (t) - yi (t),
w(t+1) = w(t) + ei 2 xi,
b(t+1) = b(t) + e i 2.

natcomp.com.br/…/exercicio_id2.jsp 3/6
14/12/2010 .:LVCoN:. Laboratório Virtual em Comp…

Resposta

Apresentação do primeiro padrão de entrada:

Saída da rede

Cálculo do erro

Ajuste dos Pesos

Ajuste dos Bias

natcomp.com.br/…/exercicio_id2.jsp 4/6
14/12/2010 .:LVCoN:. Laboratório Virtual em Comp…

Apresentação do segundo padrão de entrada:

Saída da rede

Cálculo do erro

Ajuste dos Pesos

Ajuste dos Bias

6. (2,0) Para o perc eptron de múltiplas c amadas (MLP) mostrado na figura abaixo, calc ule a saída da rede
assumindo neurônios lineares em todas as c amadas da rede e proponha uma rede c om uma únic a camada
(SLP) equivalente a esta rede MLP. Padrão de entrada: x1 = x2 = 1.

natcomp.com.br/…/exercicio_id2.jsp 5/6
14/12/2010 .:LVCoN:. Laboratório Virtual em Comp…
Resposta
Saídas da rede: y = W .(W 2.(W 1.x + b1 ) + b2 ) + b3 ) = [0.5 0.73]T S
3
Rede equivalente: (possíveis respostas)

a-) b-)

natcomp.com.br/…/exercicio_id2.jsp 6/6