Você está na página 1de 30

‭INSTITUTO FEDERAL DE SANTA CATARINA‬

‭DISCIPLINA:‬
‭INTRODUÇÃO À INTELIGÊNCIA ARTIFICIAL CONEXIONISTA‬

‭PROFESSORES:‬
‭Cesar Alberto Penz, Dr.‬
‭Marco Aurelio Moreira Saran, MSc.‬

‭ESTUDANTES:‬
‭Artur Antonio Dal Prá (20232900009)‬
‭Marcos Vinícius Rodrigues Lopes Granado (20232900018)‬

‭Trabalho: MLP e Confiabilidade‬

‭1 CONSIDERAÇÕES INICIAIS‬

‭Neste‬‭trabalho‬‭é‬‭analisado‬‭o‬‭processo‬‭Smart‬‭position‬‭sensor‬‭system‬‭.‬‭A‬‭partir‬
‭do‬ ‭esquema‬ ‭apresentado‬ ‭na‬ ‭Figura‬ ‭1,‬ ‭a‬ ‭ideia‬ ‭geral‬ ‭é‬ ‭estimar‬ ‭a‬ ‭posição‬ ‭y‬ ‭do‬
‭anteparo‬‭através‬‭das‬‭tensões‬‭de‬‭saída‬‭(v1‬‭e‬‭v2)‬‭de‬‭dois‬‭módulos‬‭fotovoltaicos.‬‭Para‬
‭tanto,‬ ‭o‬ ‭deslocamento‬ ‭do‬ ‭anteparo‬‭na‬‭direção‬‭y‬‭causa‬‭diferentes‬‭áreas‬‭de‬‭sombra‬
‭nos módulos fotovoltaicos, e assim afeta as tensões de saída.‬

‭Conforme‬‭o‬‭enunciado,‬‭espera-se‬‭por‬‭comportamento‬‭para‬‭as‬‭tensões‬‭v‬‭1‬ ‭e‬‭v‬‭2‬
‭algo assemelhado ao apresentado na Figura 2:‬

‭Para‬‭a‬‭definição,‬‭treinamento‬‭e‬‭teste‬‭de‬‭redes‬‭neurais‬‭artificiais‬‭que‬‭possam‬
‭representar a função y = f(v‬‭1‭,‬ v‬‭2‭)‬ foi gerada experimentalmente‬‭uma base de dados.‬

‭2 ANÁLISE DE DADOS‬

‭Da‬‭leitura‬‭dos‬‭dados‬‭foi‬‭fornecido‬‭um‬‭dataset‬‭composto‬‭por‬‭86‬‭(oitenta‬‭e‬‭seis‬
‭elementos),‬‭que‬‭consiste‬‭nas‬‭leituras‬‭sendo‬‭formado‬‭por‬‭três‬‭variáveis‬‭dispostas‬‭em‬
‭colunas‬‭(v‬‭1‭,‬ ‬‭v‬‭2‬‭,‬‭y)‬‭que‬‭precisou‬‭ser‬‭reorganizado‬‭para‬‭haver‬‭a‬‭atribuição‬‭às‬‭variáveis‬
‭inPut (v‬‭1‬ ‭e v‬‭2‭)‬ e Target (y) conforme a sintaxe do‬‭scilab.‬
‭Conforme‬‭orientação‬‭em‬‭aula,‬‭os‬‭dados‬‭tiveram‬‭sua‬‭escala‬‭alterada‬‭por‬‭meio‬
‭da divisão por 10, por efeito de uma melhoria nos resultados.‬

‭A‬‭etapa‬‭2.a.‬‭pede‬‭a‬‭definição‬‭de‬‭um‬‭parâmetro‬‭de‬‭desempenho‬‭desejado‬‭e‬‭a‬
‭definição de um conjunto de treino e um conjunto de teste.‬
‭Quanto‬ ‭à‬ ‭definição‬ ‭de‬ ‭parâmetro‬ ‭de‬ ‭desempenho‬ ‭desejado‬ ‭(item‬ ‭2.a.ii.),‬
‭entende-se‬ ‭que‬ ‭foi‬ ‭pedido‬ ‭qual‬ ‭métrica‬ ‭será‬ ‭estudada‬ ‭para‬ ‭avaliar‬‭o‬‭desempenho‬
‭da‬ ‭rede.‬ ‭Escolhe-se‬‭MSE‬‭(erro‬‭quadrático‬‭médio).‬‭Esta‬‭métrica‬‭calcula‬‭a‬‭diferença‬
‭(o‬‭erro)‬‭entre‬‭os‬‭valores‬‭previstos‬‭(calculados‬‭pelo‬‭modelo)‬‭e‬‭os‬‭valores‬‭observados‬
‭nas‬‭medições,‬‭que‬‭é‬‭o‬‭erro.‬‭Em‬‭seguida‬‭soma‬‭o‬‭quadrado‬‭de‬‭cada‬‭erro‬‭e‬‭obtém‬‭a‬
‭média‬‭aritmética.‬‭Deseja-se‬‭que‬‭o‬‭MSE‬‭seja‬‭o‬‭menor‬‭possível.‬‭Uma‬‭particularidade‬
‭desta‬‭métrica‬‭é‬‭ser‬‭rigorosa‬‭quando‬‭há‬‭valores‬‭discrepantes‬‭nos‬‭dados‬‭usados‬‭para‬
‭cálculo do modelo, porque a diferença (erro) é elevada ao quadrado.‬
‭Uma‬ ‭RNA‬ ‭possui‬ ‭como‬ ‭parâmetros‬ ‭os‬ ‭pesos‬ ‭dos‬ ‭nós‬ ‭e‬ ‭o‬ ‭viés,‬
‭resumidamente, é o que a rede aprende, é aquilo que é otimizado.‬
‭Uma‬ ‭RNA‬ ‭possui‬ ‭como‬ ‭hiperparâmetros‬ ‭sua‬ ‭topologia‬ ‭(disposição‬ ‭dos‬
‭neurônios‬ ‭conforme‬ ‭as‬ ‭camadas),‬ ‭taxa‬ ‭de‬ ‭aprendizado,‬ ‭número‬ ‭de‬ ‭iterações,‬ ‭e‬
‭critérios‬ ‭para‬ ‭estabelecer‬ ‭quando‬ ‭o‬ ‭treinamento‬ ‭está‬‭satisfatório.‬‭Este‬‭trabalho‬‭fez‬
‭uso dos seguintes hiperparâmetros.‬

‭a)‬ ‭mu = 0.001; // TAXA DE APRENDIZADO‬

‭b)‬ ‭mumax = 1000//00000; // TAXA DE APRENDIZADO MÁXIMA‬

‭c)‬ ‭theta = 10; // FATOR DE AJUSTE DA TAXA DE APRENDIZADO‬

‭d)‬ ‭itermax = 200; // Número máximo de iterações para parada do treinamento‬

‭e)‬ ‭mse_min = 1e-5; // MSE ALVO PARA PARADA DO TREINAMENTO‬

‭f)‬ ‭gd_min = 1e-5; // Gradiente mínimo para continuidade do TREINAMENTO‬

‭O‬ ‭enunciado‬ ‭do‬ ‭trabalho,‬ ‭em‬ ‭seu‬ ‭item‬ ‭2.a.‬ ‭não‬ ‭estabelece‬ ‭uma‬ ‭proporção‬
‭para‬‭divisão‬‭dos‬‭dados‬‭entre‬‭treino‬‭e‬‭teste,‬‭então‬‭adotou-se‬‭80%‬‭para‬‭treino‬‭e‬‭20%‬
‭para‬ ‭teste.‬ ‭De‬ ‭fato,‬ ‭uma‬ ‭taxa‬ ‭com‬ ‭mais‬ ‭elementos‬ ‭para‬ ‭teste‬ ‭num‬ ‭dataset‬ ‭que‬
‭contém‬ ‭poucos‬ ‭elementos‬ ‭e‬ ‭com‬ ‭regiões‬ ‭importantes‬‭(as‬‭regiões‬‭em‬‭que‬‭ocorrem‬
‭as‬ ‭inflexões)‬ ‭certamente‬‭impactará‬‭na‬‭qualidade‬‭do‬‭treinamento.‬‭Sob‬‭este‬‭cuidado‬
‭a‬ ‭distribuição‬ ‭dos‬ ‭elementos‬ ‭para‬ ‭compor‬ ‭o‬ ‭conjunto‬ ‭de‬ ‭treino‬ ‭e‬ ‭teste‬ ‭se‬ ‭deu‬
‭percorrendo‬ ‭sequencialmente‬ ‭o‬ ‭conjunto‬ ‭de‬ ‭dados,‬ ‭então‬ ‭os‬ ‭primeiros‬ ‭quatro‬
‭elementos‬ ‭foram‬ ‭destinados‬ ‭ao‬ ‭conjunto‬ ‭de‬ ‭treino‬ ‭e‬ ‭o‬ ‭quinto‬ ‭para‬ ‭o‬ ‭conjunto‬ ‭de‬
‭testes,‬ ‭e‬ ‭assim‬ ‭por‬ ‭diante.‬ ‭Note‬ ‭que‬ ‭essa‬ ‭decisão‬ ‭favorece‬ ‭que‬ ‭todo‬ ‭o‬
‭comportamento‬‭da‬‭curva‬‭seja‬‭aprendido‬‭pela‬‭rede.‬‭Note‬‭ainda‬‭que‬‭uma‬‭distribuição‬
‭aleatória‬ ‭poderia‬ ‭conter‬ ‭agrupamentos,‬ ‭então‬ ‭neste‬ ‭cenário‬ ‭o‬ ‭aprendizado‬ ‭seria‬
‭bom para a região do agrupamento e péssimo para a região do vazio.‬
‭A‬ ‭figura‬ ‭abaixo‬ ‭cumpre‬ ‭o‬ ‭requisitado‬ ‭em‬ ‭2.a.i.‬ ‭e‬ ‭mostra‬ ‭a‬ ‭distribuição‬ ‭dos‬
‭dados entre treino e teste para o‬‭dataset‬‭.‬
‭2.1. Estudo de diferentes topologias‬

‭Esta‬‭etapa‬‭do‬‭trabalho‬‭contará‬‭com‬‭cinco‬‭redes‬‭neurais‬‭do‬‭tipo‬‭feed-forward‬
‭backpropagation‬ ‭(nos‬ ‭moldes‬ ‭do‬ ‭código‬ ‭anexado‬ ‭junto‬ ‭ao‬ ‭enunciado).‬ ‭Diversas‬
‭topologias‬ ‭serão‬ ‭testadas,‬ ‭por‬ ‭meio‬ ‭da‬ ‭alteração‬ ‭dos‬ ‭parâmetros‬ ‭da‬ ‭rede‬ ‭da‬
‭quantidade‬ ‭de‬ ‭camadas,‬ ‭do‬ ‭número‬ ‭de‬ ‭neurônios‬ ‭por‬ ‭camada,‬ ‭e‬ ‭das‬ ‭funções‬ ‭de‬
‭ativação. Para tanto, todos os dados do conjunto de treinamento serão utilizados.‬

‭Conforme item 2.b.i. , seguem os resultados obtidos:‬


‭A‬ ‭primeira‬ ‭rede‬ ‭(22-codigo_trabalho_01.sci‬ ‭,‬ ‭rna-2bi-rede1.w)‬ ‭foi‬ ‭treinada‬
‭com‬ ‭taxa‬ ‭de‬ ‭aprendizado‬ ‭0,001,‬ ‭número‬ ‭máximo‬ ‭de‬ ‭iterações‬ ‭para‬ ‭parada‬ ‭do‬
‭treinamento‬‭300‬‭épocas.‬‭O‬‭fator‬‭de‬‭ajuste‬‭da‬‭taxa‬‭de‬‭aprendizado‬‭foi‬‭10,‬‭e‬‭o‬‭critério‬
‭para‬ ‭parada‬ ‭do‬ ‭treinamento‬ ‭foi‬ ‭10‬‭-5‬‭.‬ ‭Esta‬ ‭rede‬ ‭é‬ ‭composta‬ ‭por‬ ‭2‬ ‭neurônios‬ ‭de‬
‭entrada,‬ ‭20‬ ‭neurônios‬ ‭na‬ ‭camada‬ ‭intermediária‬ ‭e‬‭1‬‭neurônio‬‭de‬‭saída.‬‭As‬‭funções‬
‭de ativação usadas foram, respectivamente: ann_tansig_activ e ann_purelin_activ.‬
‭Os‬ ‭gráficos‬ ‭abaixo‬ ‭mostram‬ ‭que‬ ‭o‬ ‭gradiente‬ ‭oscilou‬ ‭bastante‬ ‭durante‬ ‭o‬
‭treinamento. O MSE diminuiu e estabilizou por volta de 0,02003.‬

‭Quanto‬ ‭às‬ ‭saídas‬ ‭da‬ ‭rede‬ ‭comparativamente‬ ‭com‬ ‭os‬ ‭valores‬ ‭esperados,‬
‭tem-se:‬

‭O‬‭gráfico‬‭acima‬‭mostra‬‭haver‬‭certa‬‭perturbação‬‭para‬‭os‬‭valores‬‭menores‬‭no‬
‭treinamento.‬ ‭Contudo,‬ ‭a‬ ‭saída‬ ‭para‬ ‭os‬‭dados‬‭de‬‭teste‬‭(que‬‭é‬‭usado‬‭para‬‭avaliar‬‭o‬
‭modelo), se mostrou precisa.‬
‭O gradiente final resultou 0,00191.‬
‭A‬ ‭segunda‬ ‭rede‬ ‭(22-codigo_trabalho_02.sci‬ ‭,‬ ‭rna-2bi-rede2.w)‬ ‭foi‬ ‭treinada‬
‭com‬ ‭taxa‬ ‭de‬ ‭aprendizado‬ ‭0,001,‬ ‭número‬ ‭máximo‬ ‭de‬ ‭iterações‬ ‭para‬ ‭parada‬ ‭do‬
‭treinamento‬‭300‬‭épocas.‬‭O‬‭fator‬‭de‬‭ajuste‬‭da‬‭taxa‬‭de‬‭aprendizado‬‭foi‬‭10,‬‭e‬‭o‬‭critério‬
‭para‬ ‭parada‬ ‭do‬ ‭treinamento‬ ‭foi‬ ‭10‬‭-5‬‭.‬ ‭Esta‬ ‭rede‬ ‭é‬ ‭composta‬ ‭por‬ ‭2‬ ‭neurônios‬ ‭de‬
‭entrada,‬ ‭5‬ ‭neurônios‬ ‭na‬ ‭primeira‬ ‭camada‬ ‭intermediária,‬ ‭5‬ ‭neurônios‬ ‭na‬ ‭segunda‬
‭camada‬‭intermediária‬‭e‬‭1‬‭neurônio‬‭de‬‭saída.‬‭As‬‭funções‬‭de‬‭ativação‬‭usadas‬‭foram,‬
‭respectivamente: ann_tansig_activ, ann_tansig_activ e ann_purelin_activ.‬
‭Os‬ ‭gráficos‬ ‭abaixo‬ ‭mostram‬ ‭que‬ ‭o‬ ‭gradiente‬ ‭despencou‬ ‭durante‬ ‭o‬
‭treinamento.‬ ‭O‬ ‭MSE‬ ‭diminuiu‬ ‭e‬ ‭ficou‬ ‭limitado‬ ‭a‬ ‭9.52647‬ ‭no‬ ‭final‬ ‭do‬ ‭ciclo‬ ‭de‬
‭treinamento.‬ ‭É‬ ‭um‬ ‭erro‬ ‭muito‬ ‭grande,‬ ‭mostra‬ ‭que‬ ‭a‬ ‭RNA‬ ‭não‬ ‭aprendeu‬
‭suficientemente. Este modelo não pode ser posto em produção.‬

‭Quanto às saídas da rede comparadas com os valores esperados, tem-se:‬

‭O‬ ‭gráfico‬ ‭acima‬ ‭mostra‬ ‭que‬ ‭a‬ ‭rede‬ ‭falhou‬ ‭ainda‬ ‭em‬ ‭época‬ ‭de‬ ‭treinamento,‬
‭sendo um caso de subajuste (underfitting). A saída dos resultados foi desastrosa.‬
‭O‬ ‭gradiente‬ ‭final‬ ‭resultou‬ ‭muito‬ ‭baixo‬ ‭(2,5‬ ‭*‬ ‭10‬‭-6‬‭).‬ ‭Outras‬ ‭execuções‬ ‭do‬
‭mesmo script resultaram em comportamento assemelhado.‬
‭A‬ ‭terceira‬ ‭rede‬ ‭(22-codigo_trabalho_03.sci‬ ‭,‬ ‭rna-2bi-rede3.w)‬ ‭foi‬ ‭treinada‬
‭com‬ ‭taxa‬ ‭de‬ ‭aprendizado‬ ‭0,001,‬ ‭número‬ ‭máximo‬ ‭de‬ ‭iterações‬ ‭para‬ ‭parada‬ ‭do‬
‭treinamento‬‭300‬‭épocas.‬‭O‬‭fator‬‭de‬‭ajuste‬‭da‬‭taxa‬‭de‬‭aprendizado‬‭foi‬‭10,‬‭e‬‭o‬‭critério‬
‭para‬ ‭parada‬ ‭do‬ ‭treinamento‬ ‭foi‬ ‭10‬‭-5‬‭.‬ ‭Esta‬ ‭rede‬ ‭é‬ ‭composta‬ ‭por‬ ‭2‬ ‭neurônios‬ ‭de‬
‭entrada,‬ ‭15‬ ‭neurônios‬ ‭na‬‭primeira‬‭camada‬‭intermediária,‬‭15‬‭neurônios‬‭na‬‭segunda‬
‭camada‬ ‭intermediária,‬ ‭15‬ ‭neurônios‬ ‭na‬‭terceira‬‭camada‬‭intermediária‬‭e‬‭1‬‭neurônio‬
‭de saída. As funções de ativação usadas foram, respectivamente:‬
‭função‬ ‭logística‬ ‭sigmoidal‬ ‭entre‬ ‭as‬ ‭camadas‬ ‭intermediárias‬ ‭(ann_logsig_activ)‬ ‭e‬
‭função‬ ‭linear‬ ‭pura‬ ‭(ann_purelin_activ)‬ ‭entre‬ ‭a‬ ‭última‬ ‭camada‬ ‭intermediária‬ ‭e‬ ‭a‬
‭camada de saída.‬
‭Os‬ ‭gráficos‬ ‭abaixo‬ ‭mostram‬ ‭que‬ ‭o‬ ‭gradiente‬ ‭despencou‬ ‭durante‬ ‭o‬
‭treinamento.‬‭O‬‭MSE‬‭mostrou‬‭aspecto‬‭de‬‭convergência,‬‭resultando‬‭0,00284‬‭no‬‭final‬
‭do ciclo de treinamento.‬

‭Quanto às saídas da rede comparadas com os valores esperados, tem-se:‬

‭O‬‭gráfico‬‭acima‬‭mostra‬‭que‬‭a‬‭rede‬‭conseguiu‬‭generalizar,‬‭exceto‬‭por‬‭um‬‭ponto,‬‭que‬
‭apresentou um erro grande. O gradiente final resultou 0,00301.‬
‭A‬‭quarta‬‭rede‬‭(22-codigo_trabalho_04.sci‬‭,‬‭rna-2bi-rede4.w)‬‭foi‬‭treinada‬‭com‬
‭taxa‬ ‭de‬ ‭aprendizado‬ ‭0,001,‬ ‭número‬ ‭máximo‬ ‭de‬ ‭iterações‬ ‭para‬ ‭parada‬ ‭do‬
‭treinamento‬‭500‬‭épocas.‬‭O‬‭fator‬‭de‬‭ajuste‬‭da‬‭taxa‬‭de‬‭aprendizado‬‭foi‬‭10,‬‭e‬‭o‬‭critério‬
‭para‬ ‭parada‬ ‭do‬ ‭treinamento‬ ‭foi‬ ‭10‬‭-5‬‭.‬ ‭Esta‬ ‭rede‬ ‭é‬ ‭composta‬ ‭por‬ ‭2‬ ‭neurônios‬ ‭de‬
‭entrada,‬ ‭16‬ ‭neurônios‬ ‭na‬‭primeira‬‭camada‬‭intermediária,‬‭16‬‭neurônios‬‭na‬‭segunda‬
‭camada‬‭intermediária‬‭e‬‭1‬‭neurônio‬‭de‬‭saída.‬‭As‬‭funções‬‭de‬‭ativação‬‭usadas‬‭foram‬
‭todas do tipo função linear pura (ann_purelin_activ).‬
‭Os‬ ‭gráficos‬‭abaixo‬‭mostram‬‭que‬‭o‬‭gradiente‬‭teve‬‭pouca‬‭oscilação‬‭durante‬‭o‬
‭treinamento.‬‭O‬‭MSE‬‭mostrou‬‭aspecto‬‭de‬‭convergência,‬‭resultando‬‭0,34464‬‭no‬‭final‬
‭do ciclo de treinamento.‬

‭Quanto às saídas da rede comparadas com os valores esperados, tem-se:‬

‭O‬‭gráfico‬‭acima‬‭mostra‬‭que‬‭a‬‭rede‬‭apresentou‬‭certo‬‭aspecto‬‭de‬‭generalização,‬‭mas‬
‭contém‬ ‭erros‬ ‭significativos.‬ ‭O‬ ‭uso‬ ‭da‬ ‭função‬ ‭de‬ ‭ativação‬ ‭linear‬ ‭pura‬ ‭em‬ ‭todas‬ ‭as‬
‭camadas‬ ‭impediu‬‭que‬‭a‬‭rede‬‭capturasse‬‭a‬‭não‬‭linearidade‬‭do‬‭fenômeno‬‭estudado.‬
‭O‬ ‭gradiente‬ ‭final‬ ‭resultou‬ ‭4,2‬ ‭*‬ ‭10‬‭-7‬‭.‬ ‭Contudo,‬ ‭ao‬ ‭contrário‬ ‭das‬ ‭outras‬ ‭redes,‬
‭capturou a particularidade de ocorrer desvio grande nas proximidades quando y = 8.‬
‭A‬ ‭quinta‬ ‭rede‬ ‭(22-codigo_trabalho_05.sci‬‭,rna-2bi-rede5.w)‬‭foi‬‭treinada‬‭com‬
‭taxa‬ ‭de‬ ‭aprendizado‬ ‭0,001,‬ ‭número‬ ‭máximo‬ ‭de‬ ‭iterações‬ ‭para‬ ‭parada‬ ‭do‬
‭treinamento‬‭500‬‭épocas.‬‭O‬‭fator‬‭de‬‭ajuste‬‭da‬‭taxa‬‭de‬‭aprendizado‬‭foi‬‭10,‬‭e‬‭o‬‭critério‬
‭para‬ ‭parada‬ ‭do‬ ‭treinamento‬ ‭foi‬ ‭10‬‭-5‬‭.‬ ‭Esta‬ ‭rede‬ ‭é‬ ‭composta‬ ‭por‬ ‭2‬ ‭neurônios‬ ‭de‬
‭entrada,‬ ‭16‬ ‭neurônios‬ ‭na‬‭primeira‬‭camada‬‭intermediária,‬‭16‬‭neurônios‬‭na‬‭segunda‬
‭camada‬‭intermediária‬‭e‬‭1‬‭neurônio‬‭de‬‭saída.‬‭As‬‭funções‬‭de‬‭ativação‬‭usadas‬‭foram‬
‭do‬ ‭tipo‬ ‭função‬ ‭logística‬ ‭sigmoidal‬ ‭entre‬ ‭as‬ ‭camadas‬ ‭intermediárias‬
‭(ann_logsig_activ)‬ ‭e‬ ‭função‬ ‭linear‬ ‭pura‬ ‭(ann_purelin_activ)‬ ‭entre‬ ‭a‬ ‭última‬ ‭camada‬
‭intermediária e a camada de saída.‬
‭Os‬ ‭gráficos‬ ‭abaixo‬ ‭mostram‬ ‭que‬ ‭o‬ ‭gradiente‬ ‭teve‬ ‭um‬ ‭comportamento‬ ‭de‬
‭convergência.‬ ‭O‬ ‭MSE‬ ‭também‬ ‭mostrou‬ ‭aspecto‬ ‭de‬ ‭convergência,‬ ‭resultando‬
‭0,00237 no final do ciclo de treinamento.‬

‭Quanto às saídas da rede comparadas com os valores esperados, tem-se:‬

‭O‬‭gráfico‬‭acima‬‭mostra‬‭que‬‭a‬‭rede‬‭conseguiu‬‭generalizar,‬‭exceto‬‭por‬‭um‬‭ponto,‬‭que‬
‭apresentou um erro grande. O gradiente final resultou 0,01028.‬
‭A‬ ‭sexta‬ ‭rede‬ ‭(22-codigo_trabalho_06.sci‬ ‭,rna-2bi-rede6.w)‬ ‭foi‬ ‭treinada‬ ‭com‬
‭taxa‬ ‭de‬ ‭aprendizado‬ ‭0,001,‬ ‭número‬ ‭máximo‬ ‭de‬ ‭iterações‬ ‭para‬ ‭parada‬ ‭do‬
‭treinamento‬‭500‬‭épocas.‬‭O‬‭fator‬‭de‬‭ajuste‬‭da‬‭taxa‬‭de‬‭aprendizado‬‭foi‬‭10,‬‭e‬‭o‬‭critério‬
‭para‬ ‭parada‬ ‭do‬ ‭treinamento‬ ‭foi‬ ‭10‬‭-5‬‭.‬ ‭Esta‬ ‭rede‬ ‭é‬ ‭composta‬ ‭por‬ ‭2‬ ‭neurônios‬ ‭de‬
‭entrada,‬ ‭16‬ ‭neurônios‬ ‭na‬‭primeira‬‭camada‬‭intermediária,‬‭16‬‭neurônios‬‭na‬‭segunda‬
‭camada‬‭intermediária‬‭e‬‭1‬‭neurônio‬‭de‬‭saída.‬‭As‬‭funções‬‭de‬‭ativação‬‭usadas‬‭foram‬
‭do‬ ‭tipo‬ ‭função‬‭tangente‬‭sigmoidal‬‭entre‬‭a‬‭camada‬‭de‬‭entrada‬‭e‬‭a‬‭primeira‬‭camada‬
‭intermediária,‬ ‭função‬ ‭logística‬ ‭sigmoidal‬ ‭entre‬ ‭as‬ ‭camadas‬ ‭intermediárias‬
‭(ann_logsig_activ)‬ ‭e‬ ‭função‬ ‭linear‬ ‭pura‬ ‭(ann_purelin_activ)‬ ‭entre‬ ‭a‬ ‭última‬ ‭camada‬
‭intermediária e a camada de saída.‬
‭Os‬ ‭gráficos‬ ‭abaixo‬ ‭mostram‬ ‭que‬ ‭o‬ ‭gradiente‬ ‭teve‬ ‭um‬ ‭comportamento‬ ‭de‬
‭convergência.‬ ‭O‬ ‭MSE‬ ‭também‬ ‭mostrou‬ ‭aspecto‬ ‭de‬ ‭convergência,‬ ‭resultando‬
‭0,00392 no final do ciclo de treinamento.‬

‭Quanto às saídas da rede comparadas com os valores esperados, tem-se:‬

‭O‬ ‭gráfico‬ ‭mostra‬ ‭que‬ ‭a‬ ‭rede‬ ‭conseguiu‬ ‭generalizar,‬ ‭e‬ ‭todos‬ ‭os‬ ‭pontos‬ ‭estão‬
‭bastante‬ ‭próximos‬ ‭dos‬ ‭valores‬ ‭medidos,‬ ‭vide‬ ‭gráfico‬ ‭abaixo,‬ ‭onde‬ ‭as‬ ‭diferenças‬
‭resultaram pequenas. O gradiente final é 0,02599.‬

‭Cabe‬ ‭observar‬ ‭que‬ ‭os‬ ‭erros‬ ‭foram‬ ‭pequenos,‬ ‭tanto‬ ‭para‬ ‭treino‬‭quanto‬‭para‬
‭teste, evidenciando que foi escolhido um bom modelo.‬

‭2.2. Escolha da rede neural‬

‭Conforme‬‭2b-ii,‬‭a‬‭sexta‬‭rede‬‭foi‬‭a‬‭rede‬‭escolhida‬‭porque‬‭não‬‭tem‬‭pontos‬‭com‬
‭distorção.‬ ‭De‬ ‭fato,‬ ‭o‬ ‭fenômeno‬ ‭traz‬ ‭particularidades‬ ‭que‬ ‭dificultam‬ ‭sua‬
‭previsibilidade,‬ ‭em‬ ‭especial‬ ‭nos‬ ‭primeiros‬ ‭pontos‬ ‭e‬ ‭também‬ ‭quando‬ ‭a‬ ‭distância‬
‭ultrapassa‬ ‭um‬ ‭pouco‬ ‭a‬ ‭posição‬ ‭de‬ ‭80‬ ‭mm‬ ‭(8‬ ‭cm).‬ ‭Ainda,‬ ‭esta‬ ‭rede‬ ‭mostrou‬
‭convergência‬‭do‬‭gradiente‬‭e‬‭do‬‭MSE,‬‭atingindo‬‭um‬‭valor‬‭de‬‭MSE‬‭bastante‬‭pequeno‬
‭(vide comentários no item 2.1.).‬
‭A topologia é esta abaixo:‬
‭OBS: foi obtida em‬‭https://alexlenail.me/NN-SVG/LeNet.html‬
‭2.3. Comentários sobre a rede escolhida‬

‭É‬ ‭solicitado‬ ‭em‬ ‭2b-iii‬ ‭para‬ ‭utilizar‬ ‭a‬ ‭rede‬ ‭neural‬ ‭escolhida‬ ‭com‬ ‭todos‬ ‭os‬
‭ELEMENTOS‬‭do‬‭conjunto‬‭de‬‭teste.‬‭Este‬‭item‬‭já‬‭veio‬‭programado‬‭no‬‭script‬‭fornecido‬
‭na‬ ‭ocasião‬‭da‬‭publicação‬‭do‬‭enunciado.‬‭Pede-se‬‭para‬‭apresentar‬‭os‬‭resultados‬‭de‬
‭forma‬ ‭gráfica‬ ‭(saída‬ ‭esperada‬ ‭versus‬ ‭saída‬‭da‬‭rede)‬‭e‬‭evidenciar‬‭os‬‭erros‬‭para‬‭os‬
‭dados de teste.‬
‭Um‬ ‭importante‬ ‭gráfico‬ ‭é‬ ‭a‬ ‭comparação‬ ‭entre‬ ‭a‬ ‭saída‬ ‭esperada‬ ‭versus‬ ‭a‬
‭saída da rede, que pode ser notado em dois gráficos:‬

‭O‬ ‭gráfico‬ ‭acima‬ ‭mostra‬ ‭a‬ ‭evolução‬ ‭de‬ ‭cada‬ ‭uma‬ ‭das‬ ‭tensões‬
‭comparativamente‬ ‭com‬ ‭a‬ ‭respectiva‬ ‭posição.‬ ‭Nota-se‬ ‭que‬ ‭a‬ ‭evolução‬ ‭da‬ ‭posição‬
‭tem aspecto linear e que a tensão varia entre os painéis.‬
‭Na‬ ‭posição‬ ‭y=8‬ ‭houve‬ ‭um‬ ‭pequeno‬ ‭desvio,‬ ‭não‬ ‭reparado‬ ‭nos‬ ‭pontos‬
‭limitantes,‬ ‭provavelmente‬ ‭se‬ ‭houvessem‬ ‭sido‬ ‭obtidos‬ ‭mais‬ ‭pontos‬ ‭(ou‬ ‭seja,‬ ‭se‬
‭houvesse‬‭sido‬‭capturado‬‭um‬‭conjunto‬‭de‬‭dados‬‭maior),‬‭este‬‭efeito‬‭não‬‭aconteceria,‬
‭porque na fase de treinamento poderia haver o aprendizado desta particularidade.‬
‭Cabe‬ ‭destacar‬ ‭que‬ ‭está‬ ‭sendo‬ ‭trabalhado‬ ‭um‬ ‭conjunto‬ ‭de‬ ‭dados‬ ‭pequeno‬
‭para modelar o fenômeno e que está sendo estudado.‬
‭O‬‭outro‬‭gráfico‬‭(abaixo)‬‭aponta‬‭as‬‭mesmas‬‭conclusões.‬‭De‬‭fato,‬‭esta‬‭é‬‭uma‬
‭parte do gráfico anterior.‬

‭O‬ ‭item‬ ‭2b-iv‬ ‭do‬ ‭enunciado‬ ‭do‬ ‭trabalho‬ ‭pede‬ ‭os‬ ‭pesos‬ ‭da‬ ‭rede,‬ ‭se‬ ‭deu‬
‭conforme o código abaixo.‬
‭// PARA ABRIR OS PESOS DA REDE NEURAL TREINADA‬
‭caminho_arquivo = ('e:\rna-2bi-rede6.w');‬
‭load(caminho_arquivo);‬

‭// PRINT DOS PESOS‬


‭for camada = 1:size(W)‬
‭disp('Weight: ' + string(camada));‬
‭disp(W(camada));‬
‭end‬
‭Segue o extrato do comando:‬

‭Pesos entre a camada de entrada e a primeira camada intermediária:‬

‭0.43300 9.45949 0.‬


‭18.7752 - 32.3688 12.913‬
‭- 8.0654 2.97983 9.9D-08‬
‭- 4.78604 2.32758 - 0.23439‬
‭6.36297 6.00661 0.‬
‭- 8.68951 - 0.54536 0.‬
‭6.35094 - 0.92405 - 1.5D-09‬
‭- 5.36223 - 1.26134 1.6D-11‬
‭4.44182 - 1.35999 - 0.00277‬
‭- 0.81575 - 17.2442 52.781‬
‭- 16.9277 0.80262 49.1085‬
‭- 6.09785 0.11839 1.7D-10‬
‭3.18575 - 8.33525 - 0.00213‬
‭- 1.55563 8.13888 6.0D-07‬
‭0.37190 - 7.33658 - 5.6D-09‬
‭6.61229 - 2.03522 - 10.914‬
‭Pesos entre a primeira camada intermediária e a segunda camada intermediária:‬
‭column 1 to 8‬
‭- 6.40801 11.2735 - 2.67603 - 4.74184 3.451 - 9.47221 - 6.74768 1.66593‬
‭4.27805 - 6.3836 - 6.09348 9.43758 4.75579 - 8.74911 - 3.28407 - 5.30466‬
‭0.33068 0.04584 - 8.54956 - 4.05964 3.29445 - 1.28793 9.62238 - 7.98817‬
‭1.27467 1.36906 8.35558 2.34873 - 6.21496 - 6.29934 - 6.01296 0.62935‬
‭6.6276 - 4.16032 - 0.20625 0.95742 3.96211 7.63733 2.89529 - 2.30762‬
‭- 6.03234 7.2472 - 6.10203 1.78349 6.64316 - 8.38692 - 5.14052 - 9.82174‬
‭6.84594 - 4.91437 - 3.98879 8.06117 4.10921 2.60485 - 1.6959 0.88107‬
‭0.06137 - 4.93543 0.20371 - 9.49798 - 4.16874 - 11.9554 - 4.415 2.82489‬
‭- 9.0736 - 9.40739 9.31564 - 1.36251 - 6.72038 - 5.90831 - 6.46455 - 4.68085‬
‭- 3.92206 5.50591 7.03635 0.81108 - 3.2218 - 1.39445 2.44428 2.56981‬
‭- 2.01484 9.68127 8.40664 9.66105 - 7.43971 - 2.62167 - 1.43494 - 4.19119‬
‭10.4168 - 0.75150 - 5.40546 - 2.16423 10.8893 - 0.56877 7.7927 - 11.6935‬
‭0.53752 - 6.65663 - 8.94646 - 3.9709 9.98161 - 0.78548 - 0.35956 2.34181‬
‭8.17873 - 6.55764 8.93155 - 3.7902 3.48426 0.59526 7.55146 - 0.54462‬
‭- 0.12586 - 1.00461 3.21901 2.4847 - 5.03942 8.0946 - 6.04961 - 6.23254‬
‭2.34513 - 0.13785 - 6.66558 - 7.58656 4.78549 - 0.04215 4.14274 9.92996‬

‭column 9 to 16‬
‭6.61175 8.83035 1.34157 - 8.7481 0.50247 - 6.80264 2.62996 - 4.04681‬
‭0.64192 - 3.46529 - 2.10547 - 4.07662 4.97221 0.54083 - 4.63645 8.70432‬
‭12.1654 - 0.82024 - 51.3509 - 6.11993 - 6.00901 - 1.86797 6.64195 1.89349‬
‭6.91929 1.10202 3.33713 - 2.42401 4.72876 - 5.82845 5.56755 7.58605‬
‭4.60498 1.88713 1.97047 0.61729 - 7.88742 - 1.1983 - 5.18586 3.35665‬
‭5.64399 0.51025 7.96927 2.43642 3.43945 - 0.14652 - 1.87073 - 4.05575‬
‭- 2.3438 - 9.14664 - 17.7362 2.31026 1.44044 1.32151 2.74379 8.33639‬
‭- 3.80305 - 118.173 67.7017 7.76837 - 10.5449 - 5.26215 - 2.62737 36.3895‬
‭1.39836 - 1.41061 3.89601 - 1.56459 5.85907 - 1.13454 - 3.93568 - 2.92154‬
‭8.66682 0.19045 3.41307 - 0.2037 - 1.34593 - 7.58653 - 9.41583 - 11.0612‬
‭- 7.84462 - 3.74562 3.99776 6.39962 - 1.53094 7.50743 3.43616 5.61039‬
‭0.75116 - 44.8617 - 0.68693 1.23424 0.70781 - 4.33753 - 0.97995 - 0.36395‬
‭8.12617 - 6.7703 2.77061 4.36718 - 8.18354 0.36104 3.90281 3.50664‬
‭6.96178 - 0.23632 2.66727 - 5.08851 - 8.6423 9.39674 - 0.18762 0.20218‬
‭9.13124 - 5.8786 - 9.52697 7.83483 - 6.20865 10.4106 - 10.1783 - 9.81344‬
‭- 3.46647 - 1.41425 0.57356 - 3.35276 - 8.61674 5.12518 8.08995 - 5.38841‬
‭column 17‬

‭0.12422‬
‭- 0.00003‬
‭2.51193‬
‭- 1.06943‬
‭2.3D-07‬
‭0.18598‬
‭0.77866‬
‭2.12174‬
‭- 0.28303‬
‭0.52466‬
‭- 1.9D-07‬
‭3.25484‬
‭2.8D-06‬
‭0.‬
‭1.53815‬
‭- 0.00046‬

‭Pesos entre a segunda camada intermediária e a camada de saída:‬

‭column 1 to 8‬
‭2.41812 6.74945 - 15.7064 9.56256 10.8316 5.34215 - 3.73645 - 1.3565‬

‭column 9 to 17‬
‭- 1.16035 - 3.7887 - 1.51302 - 21.232 1.73015 1.4403 1.94963 11.9307 2.51182‬

‭A‬ ‭representação‬ ‭gráfica‬ ‭está‬ ‭em‬ ‭2.2.,‬ ‭logo‬ ‭no‬ ‭início.‬ ‭Como‬ ‭são‬ ‭muitos‬
‭pesos,e‬‭o‬‭formato‬‭da‬‭página‬‭é‬‭A4,‬‭se‬‭tornaria‬‭muito‬‭custoso‬‭desenhar‬‭os‬‭pesos‬‭na‬
‭rede.‬
‭2.3. Estudo com foco na confiabilidade da rede neural‬‭escolhida‬

‭O‬ ‭trabalho‬ ‭continua,‬ ‭onde‬ ‭para‬ ‭a‬ ‭topologia‬ ‭escolhida‬ ‭(no‬ ‭item‬‭b)‬‭pede-se‬‭a‬
‭realização de um estudo com foco na confiabilidade da rede neural.‬
‭Para‬ ‭fins‬ ‭de‬ ‭organização,‬ ‭este‬ ‭trabalho‬ ‭seguirá‬ ‭no‬ ‭item‬ ‭2.c.ii,‬ ‭então‬ ‭o‬ ‭item‬
‭2.c.i. será tratado em conjunto com 2.c.iii.‬

‭2.3.1. Escolha manual‬


‭O‬ ‭item‬ ‭2.c.ii‬ ‭pede‬ ‭para,‬ ‭usando‬ ‭a‬ ‭topologia‬ ‭escolhida‬ ‭no‬ ‭item‬ ‭b,‬ ‭treinar‬ ‭3‬
‭redes‬ ‭neurais‬ ‭com‬ ‭conjuntos‬ ‭de‬ ‭treinamento‬ ‭escolhidos‬ ‭manualmente‬ ‭de‬ ‭modo‬ ‭a‬
‭evidenciar‬‭a‬‭importância‬‭da‬‭representatividade‬‭dos‬‭dados‬‭na‬‭descrição‬‭do‬‭processo.‬
‭A‬ ‭quantidade‬ ‭de‬ ‭dados‬ ‭escolhidos‬ ‭para‬ ‭os‬ ‭conjuntos‬ ‭de‬ ‭treinamento‬ ‭deve‬ ‭ser‬ ‭de‬
‭80%‬ ‭do‬ ‭total‬ ‭de‬ ‭padrões‬ ‭da‬ ‭base‬ ‭de‬ ‭dados‬ ‭de‬ ‭treinamento.‬ ‭O‬ ‭dataset‬ ‭possui‬ ‭86‬
‭elementos‬ ‭(padrões),‬ ‭80%‬ ‭disto‬ ‭resulta‬ ‭69‬ ‭elementos‬ ‭compondo‬ ‭o‬ ‭conjunto‬ ‭de‬
‭treinamento,‬ ‭como‬ ‭pede-se‬ ‭80%‬ ‭do‬ ‭conjunto‬ ‭de‬ ‭treinamento,‬ ‭então‬ ‭serão‬ ‭55‬
‭elementos.‬ ‭A‬ ‭análise‬ ‭se‬ ‭dará‬ ‭sob‬ ‭a‬ ‭ótica‬ ‭do‬ ‭desempenho‬ ‭das‬ ‭redes‬ ‭neurais‬ ‭com‬
‭foco na representatividade dos dados escolhidos.‬
‭Para‬ ‭a‬ ‭escolha‬ ‭manual,‬ ‭como‬ ‭o‬ ‭conjunto‬ ‭de‬ ‭treino‬ ‭manualmente‬ ‭escolhido‬
‭precisa ter 55 elementos e possui 69 elementos, resta a exclusão de 14 elementos.‬
‭A‬ ‭primeira‬ ‭escolha‬‭manual‬‭(24-escolha_manual-1.sci,‬‭escolhaManual_1.w)‬
‭removeu pontos sequencialmente, perdendo pontos importantes das inflexões.‬
‭Os‬ ‭gráficos‬ ‭abaixo‬ ‭mostram‬ ‭que‬ ‭o‬ ‭gradiente‬ ‭teve‬ ‭um‬ ‭comportamento‬ ‭de‬
‭convergência.‬ ‭O‬ ‭MSE‬ ‭também‬ ‭mostrou‬ ‭aspecto‬ ‭de‬ ‭convergência,‬ ‭resultando‬
‭0,07969 no final do ciclo de treinamento.‬

‭Quanto às saídas da rede comparadas com os valores esperados, tem-se:‬


‭O‬ ‭gráfico‬ ‭mostra‬ ‭que‬ ‭a‬ ‭rede‬ ‭conseguiu‬ ‭generalizar,‬ ‭embora‬ ‭com‬ ‭maior‬ ‭dispersão‬
‭por volta da distância na região depois de 8 cm. O gradiente final é 1,70107.‬

‭Cabe‬‭observar‬‭que‬‭os‬‭erros‬‭foram‬‭pequenos,‬‭mas‬‭maiores‬‭que‬‭aqueles‬‭erros‬
‭notados no conjunto com mais dados (vide sexta rede).‬

‭A‬ ‭figura‬ ‭acima‬ ‭mostra‬ ‭que‬ ‭a‬ ‭falta‬ ‭de‬ ‭pontos‬ ‭na‬ ‭inflexão‬ ‭na‬ ‭região‬ ‭depois‬ ‭da‬
‭distância 8 cm causou erros maiores nesta região.‬
‭A‬‭segunda‬‭escolha‬‭manual‬‭(24-escolha_manual-2.sci,‬‭escolhaManual_2.w)‬
‭removeu‬ ‭pontos‬ ‭localmente,‬ ‭perdendo‬ ‭pontos‬ ‭onde‬ ‭o‬ ‭comportamento‬ ‭é‬ ‭mais‬
‭uniforme,‬ ‭nas‬ ‭regiões‬ ‭inicial,‬ ‭central‬ ‭e‬ ‭final,‬ ‭que‬ ‭em‬ ‭tese‬ ‭não‬ ‭são‬ ‭pontos‬
‭importantes.‬
‭Os‬ ‭gráficos‬ ‭abaixo‬ ‭mostram‬ ‭que‬ ‭o‬ ‭gradiente‬ ‭teve‬ ‭um‬ ‭comportamento‬ ‭de‬
‭convergência.‬ ‭O‬ ‭MSE‬ ‭também‬ ‭mostrou‬ ‭aspecto‬ ‭de‬ ‭convergência,‬ ‭resultando‬
‭0,00451 no final do ciclo de treinamento.‬

‭Quanto às saídas da rede comparadas com os valores esperados, tem-se:‬

‭O‬ ‭gráfico‬ ‭mostra‬ ‭que‬ ‭a‬ ‭rede‬ ‭conseguiu‬ ‭generalizar,‬ ‭com‬ ‭excelentes‬
‭resultados‬ ‭ao‬ ‭longo‬ ‭de‬ ‭todas‬ ‭as‬ ‭distâncias.‬ ‭O‬ ‭gradiente‬ ‭final‬ ‭é‬ ‭0,00213.‬ ‭Ocorreu‬
‭que‬ ‭esta‬ ‭rede‬ ‭se‬ ‭mostrou‬‭mais‬‭balanceada‬‭(na‬‭prática‬‭ocorreu‬‭um‬‭undersampling,‬
‭ou‬ ‭subamostragem‬ ‭da‬ ‭classe‬ ‭majoritária),‬ ‭entendemos‬ ‭que‬ ‭é‬ ‭a‬ ‭melhor‬ ‭rede‬ ‭até‬
‭então.‬
‭Cabe‬‭observar‬‭que‬‭os‬‭erros‬‭no‬‭conjunto‬‭de‬‭teste‬‭foram‬‭pequenos,‬‭mostrando‬
‭boa generalização.‬
‭A‬ ‭terceira‬ ‭escolha‬ ‭manual‬ ‭(24-escolha_manual-3.sci,‬ ‭escolhaManual_3.w)‬
‭removeu‬ ‭pontos‬ ‭localmente,‬ ‭perdendo‬ ‭pontos‬ ‭na‬ ‭região‬ ‭inicial‬ ‭e‬ ‭final,‬ ‭onde‬ ‭o‬
‭comportamento é mais uniforme, mantendo os pontos na região central.‬
‭Os‬ ‭gráficos‬ ‭abaixo‬ ‭mostram‬ ‭que‬ ‭o‬ ‭gradiente‬ ‭teve‬ ‭um‬ ‭comportamento‬ ‭de‬
‭convergência.‬ ‭O‬ ‭MSE‬ ‭também‬ ‭mostrou‬ ‭aspecto‬ ‭de‬ ‭convergência,‬ ‭resultando‬
‭0,11071 no final do ciclo de treinamento.‬

‭Quanto às saídas da rede comparadas com os valores esperados, tem-se:‬

‭O‬ ‭gráfico‬ ‭mostra‬ ‭que‬ ‭a‬ ‭rede‬ ‭perdeu‬ ‭muito‬ ‭em‬ ‭generalização,‬ ‭com‬ ‭resultados‬
‭discrepantes ao longo de praticamente toda sua extensão (vide gráfico abaixo):‬
‭O‬ ‭gradiente‬ ‭final‬ ‭resultou‬ ‭0,00496.‬ ‭Quanto‬ ‭aos‬ ‭erros,‬ ‭a‬ ‭imagem‬ ‭abaixo‬
‭mostra erros grandes, tanto para treino quanto para teste.‬

‭Em‬ ‭outras‬ ‭palavras,‬ ‭a‬ ‭perda‬ ‭massiva‬‭de‬‭pontos‬‭empobreceu‬‭o‬‭aprendizado‬


‭da rede.‬

‭Esta rede não seria praticada numa situação real.‬


‭2.3.1. Escolha aleatória‬
‭O‬ ‭item‬ ‭2.c.i‬ ‭pede‬ ‭para,‬ ‭usando‬ ‭a‬ ‭topologia‬ ‭escolhida‬ ‭no‬ ‭item‬ ‭b,‬ ‭treinar‬
‭CINCO‬‭redes‬‭neurais‬‭a‬‭partir‬‭de‬‭subconjuntos‬‭de‬‭dados,‬‭escolhidos‬‭aleatoriamente,‬
‭do‬‭conjunto‬‭de‬‭treinamento.‬‭A‬‭quantidade‬‭de‬‭dados‬‭escolhidos‬‭deve‬‭ser‬‭de‬‭80%‬‭do‬
‭total‬ ‭de‬‭padrões;‬‭utilizar‬‭as‬‭redes‬‭neurais‬‭com‬‭todos‬‭os‬‭padrões‬‭da‬‭base‬‭de‬‭dados‬
‭de‬‭teste;‬‭apresentar‬‭os‬‭resultados‬‭de‬‭forma‬‭gráfica‬‭(saída‬‭esperada‬‭versus‬‭saída‬‭da‬
‭rede),‬ ‭evidenciar‬ ‭os‬ ‭erros‬ ‭para‬ ‭os‬ ‭dados‬ ‭de‬ ‭teste.‬ ‭Pede‬ ‭também‬ ‭para‬ ‭analisar‬ ‭o‬
‭desempenho‬ ‭das‬ ‭redes‬ ‭neurais‬ ‭com‬ ‭foco‬ ‭na‬ ‭representatividade‬ ‭dos‬ ‭dados‬
‭escolhidos aleatoriamente. Tudo se deu conforme o script 25-escolha_aleatoria.sci.‬
‭Note‬‭que‬‭como‬‭o‬‭conjunto‬‭tem‬‭regiões‬‭importantes‬‭(as‬‭regiões‬‭de‬‭inflexões),‬
‭a‬‭representatividade‬‭dos‬‭dados‬‭na‬‭descrição‬‭do‬‭processo‬‭pode‬‭ficar‬‭comprometida,‬
‭dependendo‬ ‭dos‬ ‭pontos‬ ‭que‬ ‭sejam‬ ‭escolhidos.‬ ‭A‬ ‭quantidade‬ ‭de‬‭dados‬‭escolhidos‬
‭para‬‭os‬‭conjuntos‬‭de‬‭treinamento‬‭deve‬‭ser‬‭de‬‭80%‬‭do‬‭total‬‭de‬‭padrões‬‭da‬‭base‬‭de‬
‭dados‬ ‭de‬ ‭treinamento,‬ ‭então‬ ‭como‬ ‭o‬ ‭dataset‬ ‭possui‬ ‭86‬‭elementos‬‭(padrões),‬‭80%‬
‭disto‬ ‭resulta‬ ‭69‬ ‭elementos‬ ‭compondo‬ ‭o‬ ‭conjunto‬ ‭de‬ ‭treinamento,‬ ‭como‬ ‭pede-se‬
‭80% do conjunto de treinamento, então serão 55 elementos.‬
‭O‬ ‭código‬ ‭foi‬ ‭alterado‬ ‭para‬ ‭contemplar‬ ‭a‬ ‭mudança‬ ‭proposta,‬ ‭onde‬ ‭usando‬
‭resampling = 1 as instruções (linhas de código) dentro do IF são acessadas:‬
‭A‬ ‭primeira‬ ‭escolha‬ ‭aleatória‬ ‭(escolha_aleatoria-01.w)‬ ‭mostrou‬
‭convergência‬ ‭nas‬ ‭épocas‬ ‭de‬ ‭treinamento,‬ ‭no‬ ‭final‬ ‭do‬ ‭ciclo‬ ‭de‬ ‭treinamento‬ ‭o‬ ‭MSE‬
‭resultou 0,26632 e o gradiente resultou 10^-5, em 473 épocas.‬

‭Quanto às saídas da rede comparadas com os valores esperados, tem-se:‬

‭Notam-se erros grandes na região inicial.‬


‭A‬ ‭segunda‬ ‭escolha‬ ‭aleatória‬ ‭(escolha_aleatoria-02.w)‬ ‭mostrou‬
‭convergência‬ ‭nas‬ ‭épocas‬ ‭de‬ ‭treinamento,‬ ‭no‬ ‭final‬ ‭do‬ ‭ciclo‬ ‭de‬ ‭treinamento‬ ‭o‬ ‭MSE‬
‭resultou 0,01252 e o gradiente resultou 0,00152.‬

‭Quanto às saídas da rede comparadas com os valores esperados, tem-se:‬

‭Nota-se haver resultados razoavelmente bons ao longo de toda a rede:‬


‭A‬‭terceira‬‭escolha‬‭aleatória‬‭(escolha_aleatoria-03.w)‬ ‭mostrou‬‭convergência‬
‭nas‬‭épocas‬‭de‬‭treinamento,‬‭no‬‭final‬‭do‬‭ciclo‬‭de‬‭treinamento‬‭o‬‭MSE‬‭resultou‬‭0,00238‬
‭e o gradiente resultou 0,00090.‬

‭Quanto às saídas da rede comparadas com os valores esperados, tem-se:‬

‭Nota-se haver bons resultados ao longo de toda a rede.‬


‭A‬ ‭quarta‬ ‭escolha‬‭aleatória‬‭(escolha_aleatoria-04.w)‬ ‭mostrou‬‭convergência‬
‭nas‬‭épocas‬‭de‬‭treinamento,‬‭no‬‭final‬‭do‬‭ciclo‬‭de‬‭treinamento‬‭o‬‭MSE‬‭resultou‬‭0,00213‬
‭e o gradiente resultou 0,04585.‬

‭Quanto às saídas da rede comparadas com os valores esperados, tem-se:‬

‭Nota-se haver bons resultados ao longo de toda a rede.‬


‭A‬ ‭quinta‬ ‭escolha‬ ‭aleatória‬‭(escolha_aleatoria-05.w)‬ ‭mostrou‬‭convergência‬
‭nas‬‭épocas‬‭de‬‭treinamento,‬‭no‬‭final‬‭do‬‭ciclo‬‭de‬‭treinamento‬‭o‬‭MSE‬‭resultou‬‭0,01252‬
‭e o gradiente resultou 0,00152.‬

‭Quanto às saídas da rede comparadas com os valores esperados, tem-se:‬

‭Nota-se haver bons resultados ao longo de toda a rede.‬


‭O‬ ‭trabalho‬ ‭continua‬ ‭no‬ ‭item‬ ‭final,‬ ‭item‬ ‭2.c.iii.‬ ‭ainda melhores.‬
‭Aproveitam-se‬ ‭as‬ ‭cinco‬ ‭redes‬ ‭anteriores,‬ ‭cujos‬ ‭valores‬ ‭de‬ ‭y‬
‭(distância‬ ‭calculada‬ ‭foram‬ ‭salvos).‬ ‭Os‬ ‭comentários‬ ‭serão‬
‭omitidos,‬‭por‬‭não‬‭fazerem‬‭parte‬‭do‬‭enunciado.‬‭Desta‬‭maneira‬
‭serão‬ ‭processadas‬‭outras‬‭dez‬‭redes,‬‭sob‬‭mesmos‬‭requisitos‬
‭do item 2.c.i, numeradas por rede-06 até rede-15.‬
‭Os‬ ‭dados‬ ‭da‬ ‭tabela‬ ‭da‬ ‭próxima‬ ‭página‬ ‭foram‬
‭coletados,‬‭foi‬‭calculada‬‭a‬‭mediana‬‭e‬‭a‬‭partir‬‭dela‬‭o‬‭pior‬‭ponto‬
‭foi‬‭eliminado,‬‭novamente‬‭calculou-se‬‭a‬‭mediana‬‭(a‬‭partir‬‭dos‬
‭pontos‬ ‭restantes)‬ ‭e‬ ‭novamente‬ ‭o‬ ‭pior‬ ‭ponto‬ ‭foi‬ ‭eliminado.‬‭A‬
‭mediana‬ ‭foi‬ ‭calculada‬ ‭pela‬ ‭terceira‬ ‭vez‬ ‭e‬ ‭comparada‬ ‭com‬ ‭o‬
‭valor‬ ‭da‬ ‭medição‬ ‭(valor‬ ‭real).‬ ‭Conclui-se‬ ‭que‬ ‭embora‬ ‭os‬
‭resultados‬ ‭gerados‬ ‭pela‬ ‭técnica‬ ‭ensemble‬ ‭não‬ ‭sejam‬ ‭os‬
‭melhores‬ ‭do‬ ‭trabalho,‬ ‭são‬ ‭excelentes‬ ‭resultados,‬‭mostraram‬
‭que‬‭depois‬‭do‬‭tratamento‬‭pode-se‬‭ter‬‭mais‬‭confiança‬‭em‬‭sua‬
‭MSE = 0,008521062‬
‭exibição.‬ ‭Provavelmente‬ ‭o‬ ‭uso‬ ‭de‬ ‭mais‬ ‭redes‬ ‭neurais‬
‭dispostas‬ ‭e‬ ‭maneira‬ ‭conjunta‬ ‭(ensemble)‬ ‭trariam‬ ‭resultados‬
‭elt.‬ ‭val real‬ ‭rede-01‬ ‭rede-02‬ ‭rede-03‬ ‭rede-04‬ ‭rede-05‬ ‭rede-06‬ ‭rede-07‬ ‭rede-08‬ ‭rede-09‬ ‭rede-10‬ ‭rede-11‬ ‭rede-12‬ ‭rede-13‬ ‭rede-14‬ ‭rede-15‬

‭1‬ ‭0,671096‬ ‭1,752216‬ ‭0,957653‬ ‭0,923701‬ ‭0,564468‬ ‭0,957653‬ ‭0,923701‬ ‭0,564468‬ ‭0,665677‬ ‭0,68967‬ ‭0,804092‬ ‭0,620915‬ ‭0,674481‬ ‭0,850568‬ ‭0,907997‬ ‭0,803939‬

‭2‬ ‭1,292842‬ ‭1,755929‬ ‭1,197957‬ ‭1,390957‬ ‭0,995599‬ ‭1,197957‬ ‭1,390957‬ ‭0,995599‬ ‭0,670619‬ ‭0,829721‬ ‭1,079526‬ ‭1,187305‬ ‭0,920262‬ ‭1,009008‬ ‭1,344266‬ ‭0,961486‬

‭3‬ ‭1,932513‬ ‭1,765415‬ ‭1,653823‬ ‭1,917924‬ ‭1,808446‬ ‭1,653823‬ ‭1,917924‬ ‭1,808446‬ ‭0,682568‬ ‭1,174058‬ ‭1,801061‬ ‭1,723034‬ ‭1,41524‬ ‭1,369439‬ ‭1,920984‬ ‭1,318764‬

‭4‬ ‭2,580881‬ ‭1,808475‬ ‭2,579885‬ ‭2,445812‬ ‭2,631948‬ ‭2,579885‬ ‭2,445812‬ ‭2,631948‬ ‭1,238724‬ ‭2,682255‬ ‭4,632817‬ ‭2,720564‬ ‭2,62133‬ ‭2,368953‬ ‭2,680502‬ ‭2,383142‬

‭5‬ ‭3,228028‬ ‭1,99567‬ ‭3,206828‬ ‭3,152555‬ ‭3,318131‬ ‭3,206828‬ ‭3,152555‬ ‭3,318131‬ ‭3,289848‬ ‭3,00132‬ ‭3,335227‬ ‭3,189823‬ ‭3,182924‬ ‭3,242655‬ ‭0,990685‬ ‭3,308284‬

‭6‬ ‭3,870925‬ ‭2,846379‬ ‭3,806589‬ ‭4,086204‬ ‭3,686796‬ ‭3,806589‬ ‭4,086204‬ ‭3,686796‬ ‭4,032788‬ ‭5,141273‬ ‭3,892386‬ ‭3,96783‬ ‭4,295803‬ ‭3,489747‬ ‭3,838492‬ ‭3,584182‬

‭7‬ ‭4,510979‬ ‭5,037989‬ ‭4,794876‬ ‭4,620453‬ ‭4,385406‬ ‭4,794876‬ ‭4,620453‬ ‭4,385406‬ ‭4,265421‬ ‭4,721241‬ ‭3,068777‬ ‭4,530558‬ ‭4,385758‬ ‭3,044119‬ ‭4,184127‬ ‭4,620637‬

‭8‬ ‭5,143834‬ ‭5,511071‬ ‭5,085412‬ ‭4,898195‬ ‭5,141477‬ ‭5,085412‬ ‭4,898195‬ ‭5,141477‬ ‭5,359544‬ ‭5,627964‬ ‭4,964416‬ ‭5,369795‬ ‭5,121941‬ ‭5,186335‬ ‭5,113936‬ ‭4,974148‬

‭9‬ ‭5,771713‬ ‭5,654892‬ ‭5,680731‬ ‭5,888422‬ ‭5,821177‬ ‭5,680731‬ ‭5,888422‬ ‭5,821177‬ ‭5,819981‬ ‭5,907191‬ ‭5,545669‬ ‭5,918336‬ ‭5,877316‬ ‭5,857475‬ ‭5,792466‬ ‭5,696627‬

‭10‬ ‭6,400318‬ ‭5,763875‬ ‭6,418453‬ ‭6,168172‬ ‭6,239643‬ ‭6,418453‬ ‭6,168172‬ ‭6,239643‬ ‭6,094631‬ ‭6,075724‬ ‭6,023947‬ ‭6,276085‬ ‭6,307635‬ ‭6,226781‬ ‭6,190447‬ ‭6,384242‬

‭11‬ ‭7,032306‬ ‭6,467181‬ ‭7,009496‬ ‭7,084476‬ ‭7,526041‬ ‭7,009496‬ ‭7,084476‬ ‭7,526041‬ ‭7,296157‬ ‭6,804539‬ ‭6,723896‬ ‭7,031031‬ ‭7,192265‬ ‭7,137587‬ ‭7,224433‬ ‭6,885157‬

‭12‬ ‭7,665364‬ ‭7,551766‬ ‭7,639152‬ ‭7,525593‬ ‭7,935755‬ ‭7,639152‬ ‭7,525593‬ ‭7,935755‬ ‭7,257351‬ ‭7,699222‬ ‭8,229033‬ ‭7,69427‬ ‭4,375559‬ ‭7,670111‬ ‭6,966013‬ ‭8,309651‬

‭13‬ ‭8,312266‬ ‭8,67685‬ ‭8,416083‬ ‭8,058193‬ ‭8,289628‬ ‭8,416083‬ ‭8,058193‬ ‭8,289628‬ ‭8,390005‬ ‭8,545192‬ ‭7,712765‬ ‭8,654399‬ ‭7,178742‬ ‭8,266337‬ ‭6,133708‬ ‭8,424367‬

‭14‬ ‭8,944216‬ ‭9,397004‬ ‭8,928416‬ ‭9,017644‬ ‭8,55446‬ ‭8,928416‬ ‭9,017644‬ ‭8,55446‬ ‭9,153138‬ ‭8,877802‬ ‭9,015212‬ ‭8,97685‬ ‭8,894302‬ ‭9,514881‬ ‭8,991771‬ ‭9,366346‬

‭15‬ ‭9,576127‬ ‭9,374661‬ ‭9,490094‬ ‭9,587736‬ ‭9,586256‬ ‭9,490094‬ ‭9,587736‬ ‭9,586256‬ ‭9,571111‬ ‭9,971795‬ ‭9,687724‬ ‭9,603738‬ ‭9,579682‬ ‭9,443293‬ ‭9,575981‬ ‭9,060229‬

‭16‬ ‭9,999502‬ ‭9,483794‬ ‭10,00018‬ ‭10,03484‬ ‭10,0292‬ ‭10,00018‬ ‭10,03484‬ ‭10,0292‬ ‭9,937359‬ ‭9,782171‬ ‭9,972133‬ ‭10,01819‬ ‭10,00006‬ ‭10,00571‬ ‭10,07912‬ ‭9,999735‬

‭17‬ ‭9,999443‬ ‭9,493071‬ ‭9,998705‬ ‭10,02237‬ ‭9,9959‬ ‭9,998705‬ ‭10,02237‬ ‭9,9959‬ ‭9,962913‬ ‭9,754294‬ ‭9,990093‬ ‭10,00931‬ ‭9,97789‬ ‭10,0383‬ ‭10,02939‬ ‭9,984129‬

Você também pode gostar