Escolar Documentos
Profissional Documentos
Cultura Documentos
Resumo: Este trabalho compara a utilização dos modelos de Redes Neurais Artificiais
Multi-Layer Perceptron, Elman e Narx, para a previsão de tendências em uma série
temporal utilizando os valores do ativo da Petrobrás (PETR4). É feita uma introdução
resumida das Redes Neurais Artificiais, e utilizando o Software MatLab são feitos
experimentos que consistem em treinamento e simulação da rede. Os resultados são
avaliados através da média e do desvio padrão dos índices de EMQ (Erro Médio
Quadrático), POCID (Percentage of Change in Direction), U de Theil r 2 e (Coeficiente de
Correlação), dispostos em tabelas e gráficos.
1. INTRODUÇÃO
atribuído ao estudo no ano de 1943 dos pesquisadores McCulloch e Pitts, que fizeram a
primeira tentativa de criação de um modelo artificial de neurônio.
Desde então, várias metodologias foram criadas e vários temas dentro das RNAs vem
sendo estudadas e utilizadas nas mais diversas áreas. As redes neurais Perceptron e MLP
(Multi-Layer Perceptron) realizam sua aprendizagem através de treinamento supervisionado,
buscando através do ajuste de parâmetros a convergência em um número finito de iterações.
Segundo (Cybenko, 1989) a utilização de RNAs com uma camada intermediária pode
aproximar qualquer função contínua, já a utilização de duas camadas intermediárias permite a
aproximação de qualquer função matemática mesmo que descontínua.
De acordo com (Valença, 2009) o Perceptron proposto por Rosenblatt é o modelo de rede
neural de menor complexidade computacional. Sucintamente, esse tipo de rede é útil para
mapear padrões em valores distintos e resolver problemas linearmente separáveis nos quais os
dados de treinamento pertencem a duas classes distintas.
As redes Perceptron Multi-Camadas (Multi-Layer Perceptron) são RNAs que possuem
além da camada de entrada e saída, camadas intermediárias de neurônios.
São justamente estas camadas as responsáveis pela aproximação de funções não-lineares.
Uma rede MLP com quatro entradas, 2 camadas intermediárias e 1 camada de saída é
apresentada na Fig. 1 acima.
Os valores de entrada para a camada intermediária são dados pelo soma ponderada dos
pesos multiplicada pelos valores de entrada, e assim sucessivamente, ou seja, a entrada de
uma camada posterior é igual à soma ponderada dos pesos pelos valores de saída da camada
anterior.
Uma rede MLP com uma camada escondida pode aproximar qualquer função contínua, e
uma MLP com 2 camadas escondidas é capaz de aproximar qualquer função não linear
mesmo que descontínua.
O algoritmo mais comumente utilizado para o treinamento desta rede é o
backpropagation. A ideia principal do backpropagation é retropropagar o erro cometido na
camada de saída para as camadas anteriores, com o objetivo de mudar os pesos sinápticos a
cada iteração e assim adequar a saída aos padrões de treinamento.
neurônios ocultos têm assim um registro das suas ativações passadas, o que capacita a rede a
realizar tarefas de aprendizagem que se estendem no tempo.
Dessa forma, redes do tipo recorrente são de particular interesse na previsão de séries
temporais, já que a capacidade de realimentação capacita essas redes a reprocessar de forma
dinâmica o erro destas saídas.
3.3 Rede Narx (Nonlinear Autoregressive model process with eXogenous input)
4. METODOLOGIA
Neste trabalho foi utilizada a série PETR4, referente ao fechamento, abertura, mínimo e
máximo dos ativos da Petrobrás. Esta série é composta de 708 observações divididas em duas
partes: 637 pontos para treinamento, 70 pontos para simulação.
Foram utilizados oito índices para treinamento e simulação na tentativa de previsão do
valor de fechamento: abertura(1), fechamento(2), mínimo(3), máximo(4), sombra superior
(candlestick)(5), sombra inferior(6) (candlestick), corpo(7) (candlestick) e Ibovespa(8). A
numeração sobrescrita em cada índice representa de forma abreviada quais entradas estarão
sendo utilizadas. A tabela a seguir relaciona o tipo de entrada com o índice que a representa
ao longo do texto:
O candlestick é uma ferramenta para interpretar o movimento de preços das ações, seus
valores de sombra superior, sombra inferior e corpo são calculados pela diferença entre
XIV Encontro de modelagem Computacional
II Encontro de Ciência e Tecnologia de Materiais
Instituto Politécnico (IPRJ), Campus Regional da UERJ, Nova Friburgo/RJ, Brasil. 22-24 nov. 2011.
Associação Brasileira de Engenharia e Ciências Mecânicas – ABCM
máximo e o maior valor entre fechamento e abertura, mínimo e o menor valor entre
fechamento e abertura, fechamento e abertura, respectivamente.
Os parâmetros de abertura(1), fechamento(2), mínimo(3), máximo(4) e Ibovespa(8) foram
tratados (normalizados) com o ln (logaritmo natural) a fim de minimizar a variação entre estes
valores. Já os valores de candlestick (sombra superior (5), sombra inferior(6), corpo(7) foram
normalizados através da proporção de seus valores em relação ao tamanho total do candlestick
(máximo – mínimo).
Com estes dados organizados em uma tabela, foi gerado a matriz de correlação e um
dendrograma para auxiliar na escolha das entradas da rede com a intenção de minimizar o
tempo de execução dos experimentos e principalmente na melhoria dos resultados:
250
Distância Euclidiana
200
150
100
50
0
1 4 2 3 5 6 7 8
Parâmetros de Entrada
n
1
EMQ= ∑ d − y 2
n 1 i i
(1)
U de Theil, que indica quanto os resultados estão melhores que a previsão trivial de dizer
que a melhor estimativa para o preço de amanhã é o preço de hoje (Abelém, 1994).
Qualquer valor inferior a 1 indica que é melhor usar a projeção do que se ater à previsão
trivial.
n
∑ d i − y i 2
1
U= (3)
∑
n
2
d i −d i−1
1
O cálculo de r 2 indica o quanto as previsões estão próximas dos valores reais, quanto
mais próximo de 1 melhor é a previsão realizada (Valença, 2009).
n
∑ d j −d y i − y
2 1
r = n n (4)
2 2
∑ d j −d ∑ y i− y
1 1
onde:
n=número de amostras;
d i =valor desejado no tempoi;
y i =valor obtido no tempoi;
d =média dos valores d;
y =média dos valores y;
Para cálculo do expoente de Hurst foi utilizado uma série financeira de 2.700
observações, acolhendo assim recomendações de (Feder apud Cajueiro, 2006), que sugere
uma quantidade mínima de 2.500 observações. A série contempla o período de 03 de janeiro
2000 a 25 de novembro de 2010. As informações foram conseguidas por meio do banco de
dados da Economática, sendo que as cotações diárias foram ajustadas (dividendos,
bonificações, split e insplit).
Foram utilizadas então as redes MLP e Elman com as mesmas configurações de entrada,
número de camadas escondidas, número de neurônios em cada camada.
XIV Encontro de modelagem Computacional
II Encontro de Ciência e Tecnologia de Materiais
Instituto Politécnico (IPRJ), Campus Regional da UERJ, Nova Friburgo/RJ, Brasil. 22-24 nov. 2011.
Associação Brasileira de Engenharia e Ciências Mecânicas – ABCM
5. RESULTADOS
valor de abertura
3.3 3.3
3.25 3.25
3.2 3.2
0 10 20 30 40 50 60 70 0 10 20 30 40 50 60 70
dias dias
Já a previsão de um certo índice (saída) utilizando ele próprio como entrada da rede, tanto
na rede MLP como na rede Elman, não dá resultados satisfatórios segundo os índices usados
para avaliação. Na Tabela 6 temos a previsão da abertura utilizando como entradas a
abertura(1) e o corpo(7) (candlestick).
Este fato pode ser constatado também ao utilizarmos a rede NARX com um índice
qualquer, utilizando os Delay de entrada 1:3 e Feedback 1:3. Na Tabela 7 temos o resultado
da previsão da abertura utilizando o fechamento(2) do dia anterior. O resultado é semelhante a
utilização da MLP/Elman da Tabela 6.
Isso nos leva a pensar que este fato pode ter sido decorrente de uma memorização dessas
entradas por parte da rede, tornando o resultado da previsão mesmo que graficamente
semelhante na forma, deslocado no tempo. Para isso, fizemos um experimento com a rede
NARX com 90 pontos para simulação, dado o fato que esta rede é capaz de fazer a
memorização da entrada por ser uma rede recorrente autoregressiva.
Rede Elman - Previsão de Abertura - Entradas: Abertura, Corpo (candlestick) Rede NARX - Previsão da Abertura - Entrada: Fechamento
3.4 3.4
Saida Real Saida Real
Saida Simulada Saida Prevista
3.35 3.35
valor de abertura
valorde abertura
3.3 3.3
3.25 3.25
3.2 3.2
0 10 20 30 40 50 60 70 80 90
0 10 20 30 40 50 60 70
dias dias
6. CONCLUSÕES
REFERÊNCIAS
Alexander, G. J.; Sharper, W. F.; BAILEY, J. V. (2000), Fundamentals of investments.3rd. ed. New Jersey
Prentice Hall.
Brealey, R. A.; Myers, S. C. (1998). Princípios de finanças empresariais. 5. ed. Lisboa: McGraw-Hill de
Portugal.
Brockwell, P. J.; Davis, R. A. (1996), Introduction to Time Series andForecasting. New York, USA : Springer
Verlag
Chu, C. W. e Z; Guoqiang, P. (2003), A comparative study of linear and nonlinear models for agregate retail
sales forecasting. International Journal of Production Economics. pp. 217-23.
De Gooijer, J. G.; Kumar, K. (1992), Some recent developments in non-linear times series modeling, testing
and forecasting. International Journal of Forecasting. 8, pp. 135-156.
Diaconescu, A. E. (2008), The use of NARX neural networks to predict chaotic time series. WSEAS
TRANSACTIONS on COMPUTER RESEARCH, Issue 3, Vol. 3
XIV Encontro de modelagem Computacional
II Encontro de Ciência e Tecnologia de Materiais
Instituto Politécnico (IPRJ), Campus Regional da UERJ, Nova Friburgo/RJ, Brasil. 22-24 nov. 2011.
Associação Brasileira de Engenharia e Ciências Mecânicas – ABCM
Fama, E. F. (1991), Efficient capital markets: II.Journal of Finance, Oxford, v. 46, n. 5, p. 1575-1617, dec.
Gately, E. (1996), Neural Networks for financial forecasting. 1 ed. EUA, Jonh Wiley & Sons, Inc.
Haykin, S. (2001), Redes Neurais: princípios e prática. 2 ed. Porto Alegre: Bookman
Mhendehall, W. (1993). et. al. Statistic for management and economics. 7. ed. E.U.A: Wadsworth Inc.
Morettin, P.A. & Toloi, C.M.C. (2004), Análise de Séries Temporais. Editora Edgard Blücher Ltda. 535 p.
Ribeiro, C. O., Miranda B.; Widonsck, C. (2005), “Redes Neurais aplicadas à previsão de volatilidade do
mercado futuro de álcool”. XXV Encontro Nacional de Engenharia de Produção – Porto Alegre, RS,
Brasil.
Stagge, P., Husken. (2011), Recurrent Neural Netwoks for Time Series Classification. Online
http://www.dsc.ufcg.edu.br/~brunoc/ANP/revisaoElman.html em 8 de Julho de 2011.
Tsungnan Lin, B. G. H.; Peter Tino, C., L. G. (1996), Learning long-term dependencies in NARX recurrent
networks, IEEE Transactions on Neural Networks, Vol. 7, No. 6, pp. 1329-1351.
Valença, M. (2005), Aplicando Redes Neurais: um guia completo. Olinda, PE : Ed. Do autor, 284 p.: Il.
Yang Gao, M. J. E. (2005), NARMAX time series model prediction: feedforward and recurrent fuzzy neural
network approaches, Fuzzy Sets and Systems. Vol. 150, No. 2, pp. 331-350.
Abstract: This paper compares the use of models of Artificial Neural Networks Multi-
LayerPerceptron, Elman and Narx, for predicting trends in time series using the values of the
assets of Petrobras (PETR4). It made a brief introduction of artificial neural networks, and
using the software MatLab are made experiments consisting of training and network
simulation. The results are evaluated through the mean and standard deviation of the RMSE
indices (Mean Square Error), POCID (Percentage of Change in Direction), U de Theil and r 2
(correlation coefficient), arranged in tables and graphs.