Escolar Documentos
Profissional Documentos
Cultura Documentos
REDES NEURAIS
EPC4
CORNÉLIO PROCÓPIO
2023
SUMÁRIO
1 – Exercicı́os . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 4.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 4.6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1
1 Exercicı́os
1.1 4.5
1) Considerando-se que um problema a ser mapeado pelo Adaline não seja linearmente
separável, explique então se para esta situação o processo de treinamento (por meio do algoritmo
regra Delta) também convergirá.
Resposta: É possı́vel convergir, mas irá depender da precisão estipulada.
2) Explique por que o treinamento do Adaline se processa normalmente de forma mais
rápida que aquele do Perceptron. Considere que ambas as redes foram aplicadas no mesmo
tipo de problema, tendo-se ainda seus vetores de pesos iniciados com valores iguais.
Resposta: O Adaline atualiza seus pesos com base no erro linear, enquanto o Perceptron
atualiza com base no erro de classificação. Essa diferença faz com que o Adaline convirja mais
rápido.
3) Para o exercı́cio anterior, discorra sobre uma eventual estratégia que se poderia
utilizar, fazendo-se uso do Adaline já treinado, para verificar se as classes do problema mapeado
são linearmente separáveis.
Resposta: Se o erro for zero ou baixo, isso pode indicar que as classes são linearmente
separáveis. Um erro maior pode sugerir que as classes não são linearmente separáveis.
4) Explique as principais diferenças existentes entre o Perceptron e o Adaline.
Resposta: O Adaline utiliza uma função de ativação linear para a atualização dos pesos,
enquanto o Perceptron utiliza uma função de ativação de limiar. O Adaline atualiza seus pesos
com base no erro linear, enquanto o Perceptron atualiza com base no erro de classificação.
5) Considerando-se a aplicação de redes neurais artificiais em um processo de classifi-
cação de padrões que necessite de treinamento online, explique que tipo de rede (Perceptron
ou Adaline) seria a mais apropriada para tal condição.
Resposta: O Adaline, com sua atualização baseada em erro linear, pode ser mais adequado
para problemas que requerem ajustes mais finos nos pesos durante o treinamento.
6) Baseando-se no processo de treinamento utilizando a regra Delta, explique as
eventuais instabilidades que se podem verificar quando da adoção de valores elevados para a
taxa de aprendizado. Explique também se há eventuais inconvenientes quando se assumem
valores extremamente pequenos para a taxa de aprendizagem.
Resposta: Valores elevados para a taxa de aprendizado podem causar oscilações nos pesos,
fazendo com que a rede não convirja ou demore muito para convergir. Valores muito pequenos
para a taxa de aprendizado podem fazer com que a rede aprenda muito lentamente, necessitando
de muitas épocas para convergir.
7) Considerando-se os procedimentos de derivação do processo de aprendizagem do
Adadine, explique se seria possı́vel utilizar na expressão (4.5) a saı́da do neurônio y(t) ao invés
Capı́tulo 1. Exercicı́os 2
1.2 4.6
1)
2)
3) Explique por que o número de épocas de treinamento, em relação a esta aplicação,
varia a cada vez que executamos o treinamento do Perceptron.
Porque as épocas variam de acordo com os pesos do vetor inicial, juntamente com a
distribuição dos valores e a taxa de aprendizado.
4) Para a aplicação em questão, discorra se è possivel afirmar se as suas classes são
linearmente separáveis.
Como a rede perceptron convergiu para um valor, pode-se dizer que sim, as classes
são linearmente separáveis. Caso a rede neural não tivesse convergido, não seria linearmente
separável.
Capı́tulo 1. Exercicı́os 3
Amostra X1 X2 X3 X4 T1 T2 T3 T4 T5
1 0.9694 0.6909 0.4334 3.4965 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000
2 0.5427 1.3832 0.6390 4.0352 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000
3 0.6081 -0.9196 0.5925 0.1016 -0.9998 -0.9998 -0.9998 -0.9998 -0.9998
4 -0.1618 0.4694 0.2030 3.0117 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000
5 0.1870 -0.2578 0.6124 1.7749 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000
6 0.4591 -0.5276 0.4378 0.6439 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000
7 0.3777 2.0149 0.7423 3.3932 -0.9555 -0.9555 -0.9555 -0.9555 -0.9555
8 1.1498 -0.4067 0.2469 1.5866 -0.9998 -0.9998 -0.9998 -0.9998 -0.9998
9 0.9325 1.0950 1.0359 3.3591 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000
10 0.5060 1.3317 0.0222 3.7174 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000
11 0.0497 -2.0656 0.6124 -0.6585 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000
12 0.4004 3.5389 0.9766 5.3532 -0.8251 -0.8250 -0.8251 -0.8251 -0.8251
13 -0.1874 1.3343 0.5374 3.2189 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000
14 0.5000 1.3317 0.9222 3.7174 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000
15 1.6375 -0.7911 0.7537 0.5516 0.9659 0.9659 0.9659 0.9659 0.9659