Escolar Documentos
Profissional Documentos
Cultura Documentos
RAPHAEL ANDRADE, C. L.
Resumo⎯ Neste relatório serão mostradas e explicadas três práticas da disciplina ENGK37 acerca de redes neurais
implementadas nas topologias perceptron, adaline e mcp com backpropagation. Todas as implementações e simulações forma
realizadas no Matlab 2015b.
1 Introdução
2.3 Tabela 2
Redes neuronais artificiais são modelos
computacionais inspirados pelo sistema nervoso
central de um animal (em particular o cérebro) que
são capazes de realizar o aprendizado de máquina
bem como o reconhecimento de padrões. Redes
neurais artificias geralmente são apresentadas como
sistemas de "neurônios interconectados, que podem
computar valores de entradas", simulando o
comportamento de redes neurais biológicas.
Algumas topologias de neurônio como
Perceptron e Adaline puderam ser explanados em
sala de aula a respeito de seu funcionamento. A
implementação feita no Matlab foi possibilitada 2.4 Explique porque o número de iterações de
pelos algoritmos de iteração, também discutidos em treinamento, em relação a esta aplicação, varia cada
sala. Redes mais complexas envolvendo mais de um vez que executamos o treinamento do Perceptron.
neurônio (PMC) foram explanadas através do
método Backpropagation. A partir de tal Cada vez que iniciamos o algoritmo elaborado, se
conhecimento foram feitas três práticas que serão utiliza um vetor de pesos iniciais diferentes para a
abordadas nos tópicos a seguir com base nos roteiros entrada, levando a um número diferente de
fornecidos. iterações(épocas) para se convergir.
3.2 Tabela 1
T1
Epoca x Eqm
3
2.5
2
EQM
1.5
0.5
0 20 40 60 80 100 120 140 160
EPOCA
4.2 Tabela 2
2.5
2
EQM
1.5
0.5
0 50
EPOCA
100 150 4.3 Gráficos de Epoca x Eqm
T3 T1
Epoca x Eqm
2
1.5
Mean Squared Error (mse)
EQM
-2
10
1
0.5
0 50 100 150
EPOCA
-3
10
0 50 100 150 200 250
Pode-se considerar os conjuntos como separáveis 268 Epochs
10 -1
Mean Squared Error (mse)
10 -2
-3
10
-4
10
0 20 40 60 80 100 120 140
142 Epochs
end
Após a conclusão dos três trabalhos foi possível if (erro == 0) && (i == n1);
break;
ilustrar como a eficiência de um sistema de rede end
end
neural está ligado aos parâmetros de projeto e aos epoca = epoca/n1;
disp('O PESO W VALE:');
algoritmos aplicados. O Perceptron apresentou um disp(w);
número de épocas bem superior ao número de épocas disp ('QUANTIDADE DE EPOCAS NECESSARIAS:');
disp(epoca);
do Adaline que é resultado da implementação
baseada no erro quadrático médio. O MCP da file = 'dados.xlsx';
dados = xlsread(file);
terceira prática foi projetado por meio da toolbox do y = size(dados);
Matlab utilizando o comando “>>nntool”. Foram y1 = y(1,1);
y2 = y(1,2);
inseridos os parâmetros do roteiro resetando os pesos i = 1;
dados(:,n2)= -1;
a cada treino. O Perceptron Multicamadas com Back for i=1:y1,
Propagation se mostrou bem eficiente levando a um u = dados(i,:)*w';
if (u >= 0);
número de épocas similar ao Adaline de neurônio y(i) = 1;
else
único. y(i) = -1;
end
end
disp('y = ');
Agradecimentos disp(y);
[x1,x2] = meshgrid(-3:0.1:3,-1:0.1:2);
x3 = -w(1)*x1/w(3) + -w(2)*x2/w(3) + w(4)/w(3);
Agradeço ao Professor Bernardo Ordonez pelos surf(x1,x2,x3);
for i = 1:n1;
if target(i,1) == 1
Referências Bibliográficas else
plot3(Amostras(i,1),Amostras(i,2), Amostras(i,3),'g*');
plot3(Amostras(i,1),Amostras(i,2), Amostras(i,3),'yo');
end
Anotacões de aula da matéria ENGK37. end
for i = 1:y1;
if y(i) == 1
plot3(dados(i,1),dados(i,2), dados(i,3),'b*');
else
plot3(dados(i,1),dados(i,2), dados(i,3),'ro');
end
end
6.3 Interface da toolbox do Matlab para rede neural
6.2 Código do Adaline multicamadas
end
plot(epoca_vector, eqm_vector);
xlabel('EPOCA');
ylabel('EQM');
title('Epoca x Eqm');
disp('O peso W vale:');
disp(w);
disp('Quantidade de epocas necessarias:');
disp(epoca);
file = 'dados2.xlsx';
dados = xlsread(file);
y = size(dados);
y1 = y(1,1);
y2 = y(1,2);
dados(:,y2+1) = -1;
i = 1;
for i = 1:y1;
u = dados(i, :)*w';
if(u>=0)
y(i) = 1;
else
y(i) = -1;
end
end
disp('y = ');
disp(y);