Escolar Documentos
Profissional Documentos
Cultura Documentos
Coronel Fabriciano
2017
Oseias de Paula Ferreira
Raffael Christopher Soares Souza
Coronel Fabriciano
2017
Oseias de Paula Ferreira
Raffael Christopher Soares Souza
Nome: _________________________________________________________
Instituição: ______________________________________________________
Assinatura: ______________________________________________________
Nome: _________________________________________________________
Instituição: ______________________________________________________
Assinatura: ______________________________________________________
Nome: _________________________________________________________
Instituição: ______________________________________________________
Assinatura: ______________________________________________________
Primeiramente à Deus que por sua vontade e misericórdia permitiu que tudo isso acontecesse.
Ao nosso professor e mestre Luciano Bittencourt, pela orientação, apoio, confiança e
principalmente fé na nossa capacidade.
Aos pais, irmãs e namoradas, pelo amor, incentivo е apoio incondicional.
E a todas as pessoas que confiaram e acreditaram em nossa capacidade.
“É paradoxal, mas verdadeiro, dizer que quanto
mais aprendemos mais ignorantes nos tornamos no
sentido absoluto, pois é somente através da
iluminação que nos tornamos conscientes de
nossas limitações”.
(Nikola Tesla)
RESUMO
With the purpose of clarifying the use of artificial intelligence in identifying systems, this work
presents modeling strategies through artificial neural networks (ANNs). Having in mind that
there are non-linear complex processes that cannot be represented by a simple linear
approximation, developed advanced modeling techniques, and one of them is addressed in the
current work. Models obtained using the techniques shown in the diagrams have superior results
to the classical techniques of nonlinear systems modeling. The proposed work made use of a
prototype helicopter to perform modeling of the inclination angle of the prototype through the
ANNs, to extract the model of a dynamic structure was used an architecture of recurrent NARX-
type networks, in order to characterize the temporal processing of real plant. NARX neural
network was trained using the downward gradient method with Adaptive learning rate and
momentum. To perform the training of RNA were used pseudorandom signals (PRBS) with
different amplitudes. In the process of identification of helicopter prototype, data analysis were
made, system modeling and analysis of results in order to ensure that the model obtained is
satisfactory for problem. Therefore, it is expected that the method of indication and detailing
the steps required for modeling a system using neural network, and demonstration of your
effectiveness is of great value to prospective students or enthusiasts on the subject.
1 INTRODUÇÃO ................................................................................................................... 10
1.1 Contextualização teórica .................................................................................................. 10
1.2 Objetivos ............................................................................................................................ 11
1.2.1 Objetivo geral .................................................................................................................. 11
1.2.2 Objetivo especifico .......................................................................................................... 11
1.3 Delimitação do tema ......................................................................................................... 11
1.4 Justificativa ....................................................................................................................... 11
1.5 Classificação ...................................................................................................................... 12
1.6 Amostragem ou objeto de análise ................................................................................... 12
1.7 Instrumentos ..................................................................................................................... 12
1.8 Procedimentos de pesquisa .............................................................................................. 13
1.9 Tabulação de dados .......................................................................................................... 13
2 FUNDAMENTAÇÃO TEÓRICA ...................................................................................... 14
2.1 Identificação de sistemas dinâmicos não lineares .......................................................... 14
2.1.1 Sistemas dinâmicos ......................................................................................................... 14
2.1.2 Sistemas dinâmicos não lineares ................................................................................... 15
2.1.3 Correlação ....................................................................................................................... 15
2.1.4 Identificação de sistemas ................................................................................................ 16
2.2 Redes neurais artificiais ................................................................................................... 18
2.2.1 Modelo de um neurônio artificial .................................................................................. 20
2.2.2 Funções de ativação ....................................................................................................... 21
2.2.3 Arquitetura das RNAs .................................................................................................... 23
2.2.4 O Processo de aprendizagem .......................................................................................... 26
2.2.4.1 Aprendizado supervisionado ........................................................................................ 27
2.2.4.2 Algoritmo Backpropagation ......................................................................................... 29
2.2.5 Generalização das RNAs ................................................................................................ 32
2.3 Identificações de sistemas dinâmicos não lineares utilizando RNAs ........................... 33
2.3.2 Configuração da RNA para identificação de sistemas dinâmicos ................................ 34
2.3.1 Redes recorrentes ............................................................................................................ 36
3 PROCEDIMENTOS METODOLÓGICOS ..................................................................... 39
3.1 Helicóptero 2DOF ............................................................................................................. 39
3.2 Modelagem matemática do Helicóptero ......................................................................... 40
3.2.1 Descrição física do ângulo de arfagem .......................................................................... 41
3.2.2 Processo de modelagem do ângulo de arfagem com RNAs .......................................... 42
4 ANÁLISE DE RESULTADOS ........................................................................................... 48
4.1 Análises iniciais ................................................................................................................. 48
4.1.1 Parâmetros da RNA ........................................................................................................ 51
4.2 Resultados obtidos ............................................................................................................ 53
4.3 Validação do modelo ........................................................................................................ 58
4.3.1 Coeficiente de desigualdade de Theil ............................................................................. 58
4.3.2 Índice de eficiência do modelo ....................................................................................... 59
4.3.3 Regressão entre valor simulado e valor medido ............................................................ 60
5 CONCLUSÃO...................................................................................................................... 62
REFERÊNCIAS ..................................................................................................................... 64
10
1 INTRODUÇÃO
1.2 Objetivos
1.4 Justificativa
1.5 Classificação
1.7 Instrumentos
Na realização deste trabalho foram usadas inúmeras fontes de pesquisa para o assunto
tratado.
Os métodos para essa pesquisa foram obtidos de dissertações, artigos científicos, notas
de aplicação e livros acadêmicos.
O objeto de estudo em questão apresenta uma flexibilidade de compreensão das
informações, onde o entendimento do leitor é facilitado.
2 FUNDAMENTAÇÃO TEÓRICA
Os sistemas dinâmicos são aqueles que possuem dependência temporal, eles são
chamados de sistemas com memoria por causa de sua capacidade de guardar informações
atrasadas no tempo. Esses sistemas são caracterizados por possuir uma saída 𝑦(𝑡) que não
depende exclusivamente da entrada naquele instante de 𝑥(𝑡), mas sim dos valores instantâneos
e passados de entrada e saída. Existem também sistemas que dependem apenas dos valores de
entrada e saída naquele instante, eles são denominados de sistemas estáticos, pois não possuem
memoria (CORRÊA, 1997, p.4).
Um sistema dinâmico pode ser representado por equações diferenciais no tempo
contínuo e por equações de diferenças no tempo discreto (AGUIRRE, 2004, pg.57). Abaixo
estão as equações que representam os modelos contínuos e discretos:
𝑑𝑦
τ + 𝑦(𝑡) − 𝐾𝑥(𝑡) = 0 (1)
𝑑𝑡
Sendo que 𝑓 é uma função dos valores passados da entrada [𝑥(𝑡), 𝑥(𝑡 − 1),
𝑥(𝑡 − 𝑇)]; e 𝑦(𝑡) representa a saída do sistema.
15
2.1.3 Correlação
Funções de correlação
A função de correlação cruzada (FCC) entre dois sinais 𝑢(𝑡) e 𝑦(𝑡) (AGUIRRE, 2004,
p.182):
1 𝑇
𝑟𝑢𝑦 (𝜏) = lim ∫ 𝑢(𝑡)𝑦(𝑡 + 𝜏)𝑑𝑡, (4)
𝑇→ ∞ 2𝑇 −𝑇
se que a média seja extraída entre inúmeras realizações ao invés de se tomar a média no tempo
(AGUIRRE, 2004, pg.182).
Em diversos eventos é necessário trabalhar com os dados de forma discreta, sendo
assim a função de correlação cruzada e definida por:
𝑁
1
𝑟𝑢𝑦 (𝑘) = lim ∑ 𝑢(𝑖)𝑦(𝑖 + 𝑘), (5)
𝑁→ ∞ 2𝑁 + 1
𝑖= −𝑁
𝑁
1
𝑟𝑢𝑢 (𝑘) = lim ∑ 𝑢(𝑖)𝑢(𝑖 + 𝑘), (6)
𝑁→ ∞ 2𝑁 + 1
𝑖= −𝑁
matemáticas. Segundo Aguirre (2004, pg.60) para identificar um sistema existem alguns
métodos de modelagem conhecidos como:
Métodos paramétricos: modelos que possui propriedades que o caracteriza, como, números,
coeficientes;
Método não paramétrico: modelos que são representados graficamente, ou seja, não são
caracterizados por parâmetros;
É notável a grande eficiência que possui as RNAs, em grande parte por sua capacidade
de adquirir conhecimento durante o processo de aprendizagem e de generalização de
informação. Essa capacidade de generalizar faz com que a rede neural seja capaz de produzir
saídas adequadas para entradas que não estavam presentes no treinamento. Assim torna-se
possível para as redes neurais resolver problemas complexos (HAYKIN, 2001, p. 28).
As redes conexionistas baseadas no sistema nervoso biológico têm grande âmbito de
aplicação para resolver problemas gerais, como, aproximação de funções, classificações de
padrões, identificação de sistemas, predição, controle de processos e etc. (BRAGA, et.al., 2000,
p.217). Segundo Haykin (2001, p.28-29) as RNAs têm uma grande capacidade de solucionar
problemas complexos devido a uma série de características úteis para o sistema, tais como:
Não linearidade;
Mapeamento de Entrada e Saída;
Adaptabilidade;
Resposta a evidencia;
Analogia Neurobiológica.
Sinais de entrada: o neurônio pode possuir um ou mais sinais de entrada. Essas entradas são
a referência do sistema para obter uma resposta desejada no processo.
Pesos sinápticos: as sinapses são as interconexões caracterizadas por pesos, os quais definem
o grau de importância dos valores de entrada.
Bias: o bias (𝑏𝑘 ) é um termo limiar que é responsável por ajustar o valor liquido de entrada
da função de ativação.
Junção aditiva: é um combinador linear utilizado para fazer somas ponderadas dos sinais de
entrada.
Função de ativação: pode ser linear ou não linear, ela é responsável por limitar o sinal de
saída de um neurônio para que a amplitude do mesmo não tenda a ser um valor infinito.
𝑦𝑘 = φ(𝑣𝑘 ) (7)
Sendo que,
𝑣𝑘 = 𝑢𝑘 + 𝑏𝑘 , (8)
Onde,
𝑚
𝑢𝑘 = ∑ 𝑤𝑘𝑗 𝑥𝑗 (9)
𝑗
Em que 𝑥1 , 𝑥2 , … , 𝑥𝑚 são os sinais de entrada; 𝑤𝑘1 , 𝑤𝑘2 , … , 𝑤𝑘𝑚 são os pesos sinápticos do
neurônio 𝑘; 𝑏𝑘 é o bias; 𝑣𝑘 é o nível de saída interno da junção aditiva; 𝜑(. ): é a função de
ativação e 𝑦𝑘 é o sinal de saída do neurônio.
A entrada fixa onde 𝑥0 = +1, também conhecida como termo de polarização tem o
efeito de deslocar a função de ativação em torno da origem, com o objetivo de fazer com que a
ativação interna 𝑣𝑘 seja não nula quando as entradas do neurônio forem nulas (PAGANOTO,
2007, p.11).
Função Limiar: quando a saída do neurônio é igual a zero, então sua entrada é negativa. E
quando o seu valor de saída for 1, então sua entrada é não negativa. A equação (10) tem sua
representação gráfica na Figura 3(a).
22
1 𝑠𝑒 𝑣𝑘 ≥ 0
𝑦𝑘 = { } (10)
0 𝑠𝑒 𝑣𝑘 < 0
𝜑(𝑣) = 𝛼𝑣 (11)
Sendo alfa um número real que define a saída linear para os valores de 𝑣.
Função sigmoide: é o tipo mais utilizado se tratando de RNAs. Ela permite que o
mapeamento entrada-saída tenha características não lineares. A equação (12) está ilustrada na
Figura 2(c).
1
𝜑(𝑣) = (12)
1 + 𝑒𝑥𝑝(−𝑎𝑣)
Função tangente hiperbólica: assim como a sigmoide, esta função permite que o
mapeamento entrada-saída tenha características não lineares. O diferencial é que a tangente
hiperbólica ou sigmoide bipolar trabalha a função de ativação em um campo local induzido
ímpar. A equação (13) tem sua representação gráfica na Figura 3(d).
1 − 𝑒𝑥𝑝(−𝑎𝑣)
𝜑(𝑣) = (13)
1 + 𝑒𝑥𝑝(−𝑎𝑣)
23
Figura 3 - Funções de ativação: (a) função limiar, (b) função linear, (c) função sigmoide,
função sigmoidal bipolar.
Segundo Rezende (1999 apud POPOFF, 2009, p.28), as camadas internas dos
neurônios das RNAs geralmente possuem funções sigmoides e a de saída funções lineares, isto
acontece para preservar a característica de não linearidade da rede e torna possível ter valores
de saída maiores do que um.
As redes neurais feedforward de múltiplas camadas geralmente são formadas por uma
ou mais camadas ocultas também chamadas de camadas intermediárias. O objetivo dos
neurônios contidos nas camadas ocultas é de intervir nas entradas e a saída da rede de forma
útil. Com o acréscimo de uma ou duas camadas ocultas, a rede se torna capaz de extrair
estatísticas de ordem elevada. As camadas de neurônios da rede utilizam como entrada os sinais
25
de saída da camada anterior. Sendo assim, as redes com múltiplas camadas se tornam valiosas
para resolver problemas em que o tamanho da entrada é grande, e pode ser utilizada em
situações complexas e não lineares. As redes neurais feedforward de múltiplas camadas também
são conhecidas como Perceptron de Múltiplas Camadas ou MultiLayer Perceptron (MLP). A
Figura 5 ilustra a estrutura de uma rede feedforward com múltiplas camadas.
3. Redes Recorrentes
As redes recorrentes têm como base a rede feedforward, porem ela se diferencia de
uma rede alimentada adiante por ter um laço de realimentação (feedback). A presença de um
sinal de saída que realimenta os neurônios de entrada com valores atrasados no tempo, faz com
que se torne atrativa para modelagem em sistemas dinâmicos variantes no tempo.
A arquitetura das redes feedback podem possuir multicamadas ou somente uma
camada de neurônios interligados por sinapses. As redes recorrentes podem ser dotadas de laços
26
com auto realimentação que se refere a saída de um neurônio realimentando sua própria entrada,
isto envolve os elementos de atraso unitário (ɀ −1 ), o que faz com que essas RNAs sejam
indicadas para controle de sistemas dinâmicos não lineares. A Figura 6 ilustra a estrutura das
redes recorrentes.
Como já foi dito anteriormente, as redes neurais artificias têm a habilidade de adquirir
conhecimento e fazer interpolação e extrapolação do que aprenderam. Durante as iterações do
processo de aprendizagem a RNA extrai informações relevantes do ambiente em que ela está
inserida e cria seu próprio modelo para representar o problema. Através desta etapa ocorre as
modificações de pesos sinápticos e bias visando a melhorar o desempenho no decorrer do tempo
(BRAGA et.al, 2000, p.15).
27
Para minimizar o erro são realizados ajustes nos parâmetros ao final de cada etapa do
treinamento, até que a diferença entre a resposta desejada e a saída real do neurônio seja
satisfatória para o processo, com isso consideramos que a minimização da diferença é
incremental. Sendo assim, ao termino do processo de aprendizagem a rede adquire as
informações necessárias do ambiente em que ela foi treinada (PROTTES, 2009, p.48).
O sinal do erro equivale a seguinte forma matemática:
Sendo que 𝑒𝑘 (𝑛) é o sinal de erro do sistema; 𝑑𝑘 (𝑛) é a resposta desejada; 𝑦𝑘 (𝑛) é o
sinal de saída real do neurônio 𝑘.
A soma dos erros quadráticos 𝐸(𝑛) de todas as saídas geralmente é a função de custo
a ser minimizada, ou índice de desempenho, pelo algoritmo de treinamento (NIED, 2007, p.25):
A equação abaixo demonstra como é obtido a soma do erro quadrático:
1
𝐸(𝑛) = ∑ 𝑒𝑘2 (𝑛) (15)
2
𝑘
A soma de todos os erros quadráticos 𝐸(𝑛) para todas as 𝑛 interações é dividido pelo
número total de treinamento realizado, representado por (𝑁), obtemos o erro médio quadrático
𝐸𝑚𝑒𝑑 (𝑛) que é representado pela seguinte equação (NIED, 2007, p.26):
29
𝑁
1
𝐸𝑚𝑒𝑑 (𝑛) = ∑ 𝐸(𝑛) (16)
𝑁
𝑛=1
Tem-se que 𝑤𝑘𝑗 equivale o valor do peso sináptico do neurônio 𝑘 que recebe um sinal
de entrada 𝑥𝑗 (𝑛), onde 𝜂 é a taxa de aprendizado da rede neural. Sendo assim podemos dizer
que o valor atualizado do peso por correção de erros é:
Fase forward: é a etapa de propagação da rede utilizada para definir a saída da mesma de
acordo com os padrões de entrada, e os pesos sinápticos permanecem fixos durante o processo.
Fase backward: é a etapa de retropropagação da rede que utiliza a saída desejada e a saída
obtida na fase forward para atualizar os pesos sinápticos.
As equações que representam o algoritmo backpropagation estão dispostas da seguinte
forma:
30
Onde 𝑒𝑘 (𝑛) é o erro entre a saída do neurônio 𝑘 e a saída desejada da iteração 𝑛; 𝜑′(𝑣𝑘 (𝑛)) é
a derivada da função de ativação do neurônio 𝑘 em relação à saída linear do neurônio, 𝑣𝑘 (𝑛),
da iteração 𝑛.
Sendo que,
Gradiente descendente
𝜕𝐸𝑘
∆𝑤𝑖𝑗 = − 𝜂 (23)
𝜕𝑤𝑘𝑗
A taxa de aprendizado
Segundo Braga et.al (2000, p.65), o algoritmo backpropagation realiza ajuste nos
pesos para minimizar a função objetivo que corresponde ao erro obtido pela rede neural. Para
essa aplicação é utilizado o método de otimização gradiente descendente.
A taxa de aprendizagem está diretamente ligada ao grau de variação dos pesos
sinápticos da rede de uma iteração para outra em busca pela minimização do erro. Sendo assim,
quanto menor o parâmetro de aprendizagem (𝜂), menor a variação dos pesos Δ𝑤, e a trajetória
espacial dos pesos será mais suave. Mas se este parâmetro for muito grande, o sistema tenderá
a instabilidade pelas grandes modificações dos pesos das conexões (POPOFF, 2009, p.36).
Para minimizar o problema da instabilidade deve-se incluir um termo, conhecido como
momentum, na regra delta.
De acordo com o que foi descrito acima podemos dizer que underfitting e overfitting
afetam a capacidade de generalização da rede, sendo assim, a definição da arquitetura e
topologia da rede neural devem ser bem dimensionadas para que não ocorra uma baixa
capacidade de generalização.
O problema das redes neurais para realizar identificação de sistemas não está ligado
com a capacidade das RNAs, mas sim com o tipo de estrutura neural, por exemplo: o número
de parâmetros livres que será utilizado para que a capacidade de generalização da rede não seja
afetada. Essa dificuldade na definição dos parâmetros livres acontece por não se conhecer a
relação entre o grau de aproximação e o número de neurônios por camadas, assim é necessário
ter cuidado com a quantidade de parâmetros livres que serão utilizados na rede neural (GUPTA
et.al, 1994 apud VARGAS, 1997, p.18).
Além da definição de parâmetros, outro aspecto que dificulta a estruturação das RNAs
é a seleção de um algoritmo de aprendizagem que seja capaz de representar as características
dinâmicas do sistema (VARGAS, 1997, p.18).
Para solucionar os problemas citados anteriormente, grandes pesquisadores
desenvolveram propostas de arquiteturas de RNA e algoritmos de aprendizagem com objetivo
de fazer que o resultado tenha estabilidade necessária para que o processo de identificação seja
válidado (ASSIS 2001, p.32).
Para modelagem de sistemas dinâmicos existem duas formas básicas para o arranjo da
RNA durante o treinamento: o modelo direto e o modelo inverso, que estão descritos abaixo
(Brown et.al 1994 apud SCHNITMAN, 1998, p.58):
1. Modelo direto
O modelo direto se dá quando a RNA está disposta em paralelo com o sistema a ser
identificado ou o processo. Neste método a rede neural recebe informações direto da entrada e
sinal do erro de saída estimada pelo modelo neural e a saída real da planta, o erro é enviado
35
2. Modelo inverso
O modelo neural de uma rede recorrente possui uma única camada de entrada, que é
constituída por memória de linha de atraso que é derivada com 𝑞 unidades. Ela também é
composta por uma única saída que forma outra memória de linha de atrasos derivados no tempo
através de uma realimentação também com 𝑞 unidades.
Nas redes recorrentes tem-se entradas e saídas instantâneas e valores atrasados no
tempo. Os valores de entrada atual é dado por 𝑢(𝑛) enquanto os valores passados no tempo são
representados por [𝑢(𝑛 − 1), 𝑢(𝑛 − 2), … , 𝑢(𝑛 − 𝑞 + 2), 𝑢(𝑛 − 𝑞 + 1)]; a saída
corresponde a 𝑦(𝑛 + 1); sendo assim pode-se dizer que a saída está adiantada em relação à
entrada por uma unidade de tempo. Os valores atrasados da saída são [𝑦(𝑛), 𝑦(𝑛 −
1), … , 𝑦(𝑛 − 𝑞 + 2), 𝑦(𝑛 − 𝑞 + 1)].
37
Sendo que 𝑓 é uma função não linear dos valores passados da saída [𝑦(𝑘), 𝑦(𝑘 −
1), … , 𝑦(𝑘 − 𝑛)] e dos valores passados da entrada [𝑢(𝑘), 𝑢(𝑘 − 1), … , 𝑢(𝑘 − 𝑚 )].
Nota-se que a equação acima possui processamento temporal, que é caracterizado
pelos valores de atraso no tempo, sendo assim pode-se considerar que o sistema possui memória
de estado. Segundo Braga (2000, p.207), as RNAs que são dotadas de processamento temporal
têm a capacidade de realizar mapeamento dinâmico pela sua sensibilidade a sinais que variam
com o tempo.
Mesmo utilizando uma estrutura NARX ou outra que tenha bom desempenho para
sistemas dinâmicos, não é possível garantir a convergência e estabilidade para que o processo
de identificação seja válidado. Por isso pode-se afirmar que um dos maiores desafios na área de
identificação é trabalhar com sistemas que possuem parâmetros que variam com o tempo
(ASSIS 2001, p.33).
39
3 PROCEDIMENTOS METODOLÓGICOS
O protótipo na figura acima é um modelo não linear que possui dois graus de liberdade.
As saídas dos sistemas são os ângulos de arfagem que é responsável pelos movimentos de
rotação em torno do eixo lateral e o ângulo de guinada que realiza rotação em torno do eixo
vertical do helicóptero.
40
O modelo do helicóptero possui duas entradas (UA e UG), e duas saídas (YA e YG).
A Figura 13 representa o diagrama do sistema MIMO.
𝐼𝑀𝑞 × 𝜃̈ = 𝑇𝑃 − 𝑇𝐷 − 𝑇𝐴 − 𝑇𝑀 + 𝑇𝐺 + 𝑇𝐶 + 𝑇𝑇 (26)
Sendo que:
𝐼𝑀𝑞 : Momento de inercia da arfagem do sistema [𝑘𝑔. 𝑚2 ];
𝜃̈ : Derivada de segunda ordem do ângulo de arfagem [𝑟𝑎𝑑];
𝑇𝑃 : Torque gerado pelo empuxo do motor principal [𝑁. 𝑚];
𝑇𝐴 : Torque gerado pelo atrito [𝑁. 𝑚];
𝑇𝑀 : Torque gerado pela massa do corpo do helicóptero [𝑁. 𝑚];
𝑇𝐺 : Torque gerado pelo efeito giroscópio [𝑁. 𝑚];
𝑇𝐶 : Torque gerado pelo Cíclico [𝑁. 𝑚];
𝑇𝑇 : Torque gerado devido ao empuxo do motor traseiro [𝑁. 𝑚].
O ângulo de arfagem (𝜃) é alterado de acordo com o torque devido a ação da gravidade
que atua sobre o helicóptero. Esse torque é gerado de acordo com a própria massa do protótipo
que aplica uma força sobre o centro de gravidade que aponta sempre no sentido do solo.
Os movimentos de arfagem ocorrem em torno ao eixo lateral do helicóptero, esse
movimento é responsável pela inclinação do helicóptero, seja ela na parte frontal ou traseira da
planta. A força de arfagem tem um ponto de que incide no eixo do conjunto motor/hélices de
arfagem. O sentido de giro do helicóptero dependendo exclusivamente do sentido de rotação
do conjunto motor/hélices. Se o sentido de giro for positivo então a frente do helicóptero tende
a levantar, caso ele seja negativo a frente do helicóptero inclina-se para a baixo (BO et.al, 2004,
p.67).
“Os modelos empíricos podem ser contínuos e discretos; lineares ou não lineares;
monovariaveis ou multivariaveis; determinísticos ou estocásticos; invariantes ou variantes no
tempo” (ASSIS, p.10). O modelo matemático do sistema pode ser obtido de diferentes formas.
Os métodos utilizados para a obtenção do modelo do sistema são baseados basicamente em:
modelagem caixa-branca, modelagem empírica ou caixa-preta e modelagem caixa cinza. Neste
trabalho será empregado o método de modelagem caixa-preta (NØRGAARD et.al, 2000, p.13).
No método de modelagem caixa-preta a princípio não se conhece nenhuma informação
do sistema. Como já dito neste trabalho, esse método consiste em aplicar um sinal na entrada
do sistema e adquirir o sinal de saída através de fermentadas matemáticas.
Para obter o modelo neural é preciso traçar algumas etapas como as descritas abaixo:
45
Arquitetura da RNA
A rede neural recorrente do tipo NARX é uma ferramenta largamente utilizada para
identificação de sistemas não lineares. Como já dito nesse trabalho ela tem capacidade de
46
trabalhar com processamento temporal, o que a torna atrativa para trabalhar com sistemas
dinâmicos.
O modelo auto regressivo não linear com entrada externa (NARX) para um sistema
SISO com adição de ruído e entradas exógenas em instantes de tempo anteriores, pode ser
representado da seguinte forma (LIMA, 2000, p.50).
Sendo 𝑓 valores instantâneos e atrasados no tempo; 𝑤(𝑛) é um ruído aleatório com intensidade
igual em frequências distintas comumente chamado de ruído branco.
A representação do vetor regressor das redes recorrentes NARX para sistemas SISO
sem adição de ruído é dada da seguinte maneira:
Sendo assim, considera-se que a rede NARX pode ser descrita matematicamente
como:
A representação que exemplifica a rede recorrente NARX pode ser vista na figura
abaixo:
47
4 ANÁLISE DE RESULTADOS
Nessa seção são apresentadas as etapas de realização e a análise dos resultados obtidos.
Os algoritmos utilizados foram desenvolvidos para atender as necessidades especificas para o
trabalho.
Entradas aleatórias são ideais para treinamento de RNAs, pois possuem autocorrelação
0 ∀ 𝜏 ≠ 0 (AGUIRRE, 2000, p.362).
49
potência com controle analógico para protótipos Quanser, helicóptero Quanser 2dof com saídas
de encoders óticos e entrada de tensão continua. Como resposta da excitação extraiu-se um
conjunto de valores com sua amplitude entre 0 e 1, relativos respectivamente aos ângulos
limites -40,5º e 40,5º.
Figura 21 - Auto correlação da saída (a) sem segmentação (b) com segmentação
Foi utilizada a estrutura NARX para obter o modelo da planta, sendo necessário os
seguintes parâmetros: número de camadas ocultas da rede, número de atrasos na entrada e na
saída do modelo, número de neurônios por camada da rede, função de ativação das camadas,
função de treinamento.
A escolha da quantidade de camadas da RNA foi feita com intuito de adquirir
características lineares e não lineares do sistema real, com números de neurônios e de camadas
escolhidos de acordo com a necessidade, tomando os devidos cuidados para não ultrapassar os
limites máximos de camadas e neurônios, evitando a memorização e não generalização da RNA
52
(TAFNER et.al, 1996, p.77). Os melhores resultados foram obtidos com uma camada de função
não linear sigmoide e uma camada linear, a primeira com 5 neurônios e a segunda com 1
neurônio, sendo a camada linear a camada de saída.
Para escolha dos atrasos a serem utilizados na modelagem do sistema, foram utilizados
a correlação cruzada entre a saída e a entrada para atrasos de entrada, e a autocorrelação da
saída para atrasos de realimentação do sistema, obtendo os valores de 3 atrasos significativos
para a entrada e 10 atrasos significativos para a realimentação do sistema.
A função gradiente descendente com momentum e taxa de aprendizagem adaptativa
teve o melhor resultado entre as selecionadas para ser o método de treinamento, pois a
existência do momentum acelerou o processo e evitou mínimos locais, tendo algumas
concorrentes próximas em resultados como: Levenberg-Marquardt; One Step Secant e Quasi-
Newton.
53
Matrizes são as formas mais utilizadas para representar uma rede neural treinada,
contendo todas as informações de peso (IW) e bias (b) necessários. Sendo estas as matizes da
primeira camada:
−1.645
−0.458
𝑏1 = −0.602
0.89
1.532
𝑏2 = −0.5017
Com estes valores e as devidas funções de ativação de cada camada, foi possível fazer
diversos tipos de simulação do modelo, todos esses utilizando as matrizes de pesos e bias.
“Comparar a simulação do modelo obtido com dados medidos é provavelmente a
forma mais usual de se validar um modelo. ” (AGUIRRE, 2000, p.388). Existem diversas
maneiras de se analisar os resultados obtidos do processo de treinamento, com o modelo em
mãos pode-se excita-lo com as entradas utilizadas no treinamento e obter uma resposta, porém
54
por se tratar de um sinal que já foi apresentado à rede neural não são dados apropriados para
análise, necessitando assim de excitar o modelo com dados que nunca foram apresentados.
√∑𝑁 ̂(𝑘))2
𝑘=1(𝑦(𝑘) − 𝑦
𝑅𝑀𝑆𝐸 =
√∑𝑁 ̅)2
𝑘=1(𝑦(𝑘) − 𝑦 (31)
√∑𝑁 ̂(𝑘))2
𝑘=1(𝑦(𝑘) − 𝑦
𝑅𝑀𝑆𝐸(𝑖) =
√∑𝑁
𝑘=1(𝑦(𝑘) − 𝑦(𝑘 − 𝑖))
2 (32)
√ 1 ∑𝑁 2
𝑁 𝑡=1(𝑦(𝑡) − 𝑦̂(𝑡))
𝑇𝐼𝐶 =
√ 1 ∑𝑁 1 (33)
(𝑦(𝑡))2 + √ ∑𝑁 (𝑦̂(𝑡))2
𝑁 𝑡=1 𝑁 𝑡=1
Como resultado tem-se um valor entre 0 e 1, sendo 0 uma predição perfeita, e 1 uma
péssima predição. Feito os devidos cálculos para uma predição de 6 passos à frente, obteve-se
o valor de 0.0284, que segundo Rowland (1978 apud ALVARADO, 2017, p.26), atende o limite
aceitável de TIC < 0.4 para modelos aceitáveis, TIC < 0.7 e TIC ≥ 0.4 para modelos razoáveis,
e TIC ≥ 0.7 para modelos péssimos.
∑𝑁 ̂(𝑡))2
𝑡=1(𝑦(𝑡) − 𝑦 ∑𝑁 ̂(𝑡))2
𝑡=1(𝑦(𝑡) − 𝑦
𝐶𝑃 = ≈
∑𝑁 (𝑦(𝑡) − 𝑦̅(𝑡))2 ∑𝑁 ̅(𝑡))2
𝑡=1(𝑦(𝑡) − 𝑦
(34)
𝑁 × 𝑡=1
(𝑁 − 1)
𝐸𝐹 = 1 − 𝐶𝑃 (35)
Aplicando uma simples raiz quadrada sob CP, obtém-se um índice mais robusto
chamado EF’. Utilizando os vetores Target e predição de 6 passos à frente como y(t) e ŷ(t)
respectivamente, e assumindo ȳ(t) como valor médio do vetor y(t), foi possível chegar ao valor
de EF=92,18% e EF’=72,04%, tendo um bom percentual no índice comum e um percentual
mediano utilizando um índice mais exigente.
60
Afim de fazer uma análise da relação entre os valores desejados e os valores obtidos,
gerou-se um gráfico de regressão entre o vetor Target e a saída da predição de 6 passos à frente.
O valor obtido é chamado índice de linearidade entre variáveis, sendo 1 o valor ideal e 0 a pior
situação, no trabalho em questão o resultado foi de R=0.99119 para k=6; equivalente a 99,12%
de regressão linear entre as variáveis, e R=0,92293 para k infinito; equivalente a 92,29% de
regressão linear entre as variáveis
5 CONCLUSÃO
controle com 6 ou mais passos à frente. Além desse citado, um trabalho futuro necessário é
utilizar métodos de linearização juntamente com redes neurais, avaliando os resultados obtidos
dos novos modelos lineares e comparando-os com o modelo não linear proposto no atual
trabalho. Um outro trabalho futuro é utilizar métodos de modelagem caixa cinza no sistema
descrito no trabalho, e comparar sua eficiência e eficácia com os métodos de caixa preta aqui
utilizados. Novos trabalhos com intuitos de modelagem utilizando uma nova estrutura e um
novo código de treinamento são necessários para a continuação do estudo sobre redes neurais.
64
REFERÊNCIAS
HAYKIN, Simon. Redes Neurais: Princípios e prática. Traduzido por Paulo Martins Engel. 2°
edição. Porto Alegre: Editora Bookman, 2001. 900 p.
OGATA, Katsuhiko. Engenharia de Controle Moderno. 5. ed. São Paulo: Pearson Prentice
Hall, 2010. 824 p.
SILVA, I. N., SPATTI, D. H., FLAUZINO, R. A. Redes Neurais Artificias para engenharia
e ciências aplicadas. 1.ed. São Paulo: Artliber editora. 2010. 399 p.
SILVA, I. N., SPATTI, D. H., FLAUZINO, R. A. Redes Neurais Artificias para engenharia
e ciências aplicadas. 1.ed. São Paulo: Artliber editora. 2010. 399 p.