Você está na página 1de 5

UNIVERSIDADE TECNOLÓGICA FEDERAL DO PARANÁ

REDES NEURAIS

HUGO SILVA RODRIGUES

EPC4

CORNÉLIO PROCÓPIO
2023
SUMÁRIO

1 – Exercicı́os . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1 4.5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 4.6 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1

1 Exercicı́os

1.1 4.5

1) Considerando-se que um problema a ser mapeado pelo Adaline não seja linearmente
separável, explique então se para esta situação o processo de treinamento (por meio do algoritmo
regra Delta) também convergirá.
Resposta: É possı́vel convergir, mas irá depender da precisão estipulada.
2) Explique por que o treinamento do Adaline se processa normalmente de forma mais
rápida que aquele do Perceptron. Considere que ambas as redes foram aplicadas no mesmo
tipo de problema, tendo-se ainda seus vetores de pesos iniciados com valores iguais.
Resposta: O Adaline atualiza seus pesos com base no erro linear, enquanto o Perceptron
atualiza com base no erro de classificação. Essa diferença faz com que o Adaline convirja mais
rápido.
3) Para o exercı́cio anterior, discorra sobre uma eventual estratégia que se poderia
utilizar, fazendo-se uso do Adaline já treinado, para verificar se as classes do problema mapeado
são linearmente separáveis.
Resposta: Se o erro for zero ou baixo, isso pode indicar que as classes são linearmente
separáveis. Um erro maior pode sugerir que as classes não são linearmente separáveis.
4) Explique as principais diferenças existentes entre o Perceptron e o Adaline.
Resposta: O Adaline utiliza uma função de ativação linear para a atualização dos pesos,
enquanto o Perceptron utiliza uma função de ativação de limiar. O Adaline atualiza seus pesos
com base no erro linear, enquanto o Perceptron atualiza com base no erro de classificação.
5) Considerando-se a aplicação de redes neurais artificiais em um processo de classifi-
cação de padrões que necessite de treinamento online, explique que tipo de rede (Perceptron
ou Adaline) seria a mais apropriada para tal condição.
Resposta: O Adaline, com sua atualização baseada em erro linear, pode ser mais adequado
para problemas que requerem ajustes mais finos nos pesos durante o treinamento.
6) Baseando-se no processo de treinamento utilizando a regra Delta, explique as
eventuais instabilidades que se podem verificar quando da adoção de valores elevados para a
taxa de aprendizado. Explique também se há eventuais inconvenientes quando se assumem
valores extremamente pequenos para a taxa de aprendizagem.
Resposta: Valores elevados para a taxa de aprendizado podem causar oscilações nos pesos,
fazendo com que a rede não convirja ou demore muito para convergir. Valores muito pequenos
para a taxa de aprendizado podem fazer com que a rede aprenda muito lentamente, necessitando
de muitas épocas para convergir.
7) Considerando-se os procedimentos de derivação do processo de aprendizagem do
Adadine, explique se seria possı́vel utilizar na expressão (4.5) a saı́da do neurônio y(t) ao invés
Capı́tulo 1. Exercicı́os 2

do valor do combinador linear u(t).


Resposta: Sim, pois U é a resposta da combinação linear, ou seja, y, a saı́da do neurônio.
8) Discorra se a afirmação seguinte é verdadeira ou falsa: Independente dos valores
iniciais assumidos para o vetor de pesos do Adaline, uma mesma configuração final para w’
será sempre obtida após a sua convergência.
Resposta: Verdadeira. Como o objetivo é encontrar um W em que o erro quadrático seja
o mı́nimo para todo o conjunto de dados, é possı́vel obter valores iguais ou extremamente
próximos.
9) Explique, considerando a questão anterior, se o número de épocas de treinamento
será também igual, independentemente do seu vetor de pesos iniciais.
Resposta: Não, o número de épocas necessárias para a convergência pode variar dependendo
dos valores iniciais dos pesos.
10) Em relação ao critério de parada para o processo de convergência do Adaline,
fornecido em (4.17), discorra se há realmente a necessidade de aplicação do operador módulo
sobre a diferença do erro quadrático médio entre duas épocas sucessivas.
Resposta: Sim, dependendo do caso, o erro anterior pode ser maior que o erro atual, resultando
em um erro quadrático negativo. Como deve-se parar no menor erro para todo o conjunto de
dados, um erro negativo resultaria em uma parada não esperada.

1.2 4.6

1)

Treinamento Vetor de pesos iniciais Vetor de pesos finais Número de épocas


W1 W2 W3 W4 W1 W2 W3 W4
T1 0.7792 0.9340 0.1299 0.5688 8.2544 8.8803 -1.1705 -6.4935 19141
T2 0.0119 0.3371 0.1622 0.7943 8.2543 8.8802 -1.1704 -6.4934 19212
T3 0.5285 0.1656 0.6020 0.2630 8.2544 8.8803 -1.1705 -6.4935 19149
T4 0.6892 0.7482 0.4505 0.0838 8.2544 8.8803 -1.1705 -6.4935 19174
T5 0.9133 0.1524 0.8258 0.5383 8.2544 8.8803 -1.1705 -6.4935 19101

Tabela 1 – Resultados do treinamento Adaline

2)
3) Explique por que o número de épocas de treinamento, em relação a esta aplicação,
varia a cada vez que executamos o treinamento do Perceptron.
Porque as épocas variam de acordo com os pesos do vetor inicial, juntamente com a
distribuição dos valores e a taxa de aprendizado.
4) Para a aplicação em questão, discorra se è possivel afirmar se as suas classes são
linearmente separáveis.
Como a rede perceptron convergiu para um valor, pode-se dizer que sim, as classes
são linearmente separáveis. Caso a rede neural não tivesse convergido, não seria linearmente
separável.
Capı́tulo 1. Exercicı́os 3

Amostra X1 X2 X3 X4 T1 T2 T3 T4 T5
1 0.9694 0.6909 0.4334 3.4965 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000
2 0.5427 1.3832 0.6390 4.0352 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000
3 0.6081 -0.9196 0.5925 0.1016 -0.9998 -0.9998 -0.9998 -0.9998 -0.9998
4 -0.1618 0.4694 0.2030 3.0117 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000
5 0.1870 -0.2578 0.6124 1.7749 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000
6 0.4591 -0.5276 0.4378 0.6439 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000
7 0.3777 2.0149 0.7423 3.3932 -0.9555 -0.9555 -0.9555 -0.9555 -0.9555
8 1.1498 -0.4067 0.2469 1.5866 -0.9998 -0.9998 -0.9998 -0.9998 -0.9998
9 0.9325 1.0950 1.0359 3.3591 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000
10 0.5060 1.3317 0.0222 3.7174 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000
11 0.0497 -2.0656 0.6124 -0.6585 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000
12 0.4004 3.5389 0.9766 5.3532 -0.8251 -0.8250 -0.8251 -0.8251 -0.8251
13 -0.1874 1.3343 0.5374 3.2189 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000
14 0.5000 1.3317 0.9222 3.7174 -1.0000 -1.0000 -1.0000 -1.0000 -1.0000
15 1.6375 -0.7911 0.7537 0.5516 0.9659 0.9659 0.9659 0.9659 0.9659

Tabela 2 – Resultados dos testes para cada treinamento

Você também pode gostar