Você está na página 1de 14

Box-Jenkins e rede neural Ana Paula de Sousa

artificial para previsão de Economista. Mestre em Engenharia de


séries temporais: estudo Produção e Sistemas pela PUC/GO

comparativo entre José Elmo de Menezes


modelos Professor da PUC/GO. Doutor em
Estatística pela USP

simularam a relação entre pontos sucessivos de


Resumo: Este trabalho teve como objetivo comparar
os métodos de inteligência artificial e estatística para o séries temporais geradas artificialmente. Os
problema da previsão de séries temporais através da resultados indicaram que as redes podem ser
rede neural de Elman e Box-Jenkins, respectivamente.
Os modelos foram utilizados para previsão um período usadas para previsão de séries temporais não-
a frente dos preços do etanol no estado de Goiás e
comparados através de medidas de erros específicas. lineares.
Ao final, o modelo estatístico de Box-Jenkins se Brace et al. (1991) concluíram que as redes
mostrou mais adequado que a rede Elman em termos
de parcimônia entre desempenho e complexidade. neurais não são tão boas quanto os métodos
Palavras-chave: Box-Jenkins, Redes neurais, Séries
estatísticos tradicionais ao avaliar a série carga
temporais.
elétrica. Caire et al. (1992) identificaram que para
o consumo diário de eletricidade as redes neurais
Introdução
apresentam desempenho um pouco melhor que o
Para Sharda (1994), as formas funcionais dos
ARIMA (Autoregressive Integrated Moving
modelos de previsão das redes neurais são mais
Average) na previsão de um período a frente,
flexíveis que os métodos estatísticos tradicionais,
porém são bem mais confiáveis para previsões
pois assumem que existe uma relação (conhecida
por horizonte de tempo maiores.
ou desconhecida) subjacente entre as entradas,
Sharda e Patil (1992), Tang et al. (1991)
representadas por valores passados da série
verificaram que para séries temporais com
histórica e/ou outras variáveis relevantes, e as
memória longa os modelos de redes neurais e
saídas, que são os valores futuros. Os modelos
Box-Jenkins produzem resultados equivalentes.
estatísticos de previsão têm limitações na
No entanto, para séries temporais com memória
estimativa desta função subjacente devido a
curta, Tang et al. (1991) identificaram que as
complexidade do sistema real, enquanto que as
redes neurais são superiores ao modelo Box-
redes neurais podem indicar método alternativo
Jenkins.
para identificar esta função.
Faraway e Chatfield (1995) analisaram o
A idéia de comparação entre os métodos
desempenho preditivo dos modelos ARIMA e
estatísticos e de redes neurais não é recente.
redes neurais através de dados extraídos do
Werbos (1988) identificou que as redes treinadas
estudo de Tang et al. (1991) sobre o volume de
com backpropagation superaram os métodos
passageiros em vôos dos Estados Unidos. Os
tradicionais estatísticos como as abordagens de
resultados das previsões de curto, médio e longo
regressão e Box-Jenkins. Lapedes e Farber
prazo indicaram resultado superior dos modelos
(1988) treinaram uma rede neural não-linear e
ARIMA.

89
Zhang et al. (1998) apresentaram estudo sobre o previsão, dependendo do país analisado e do
estado da arte das redes neurais aplicadas no horizonte de previsão.
problema da previsão. Os autores concluíram que Catalão et al. (2007) realizaram projeções do
as características das redes neurais, como a preço da energia para os mercados de curto
adaptabilidade, não-linearidade e o mapeamento prazo da Espanha e Califórnia através das redes
de uma função trazem um desempenho neurais e os resultados foram comparados com
satisfatório de previsão. Porém, para esse os modelos ARIMA e Naive desenvolvidos pelos
problema específico, resultados não são trabalhos de Contreras et al. (2003) e Conejo et
conclusivos se as redes neurais são melhores al. (2005). O algoritmo de Levenberg-Marquardt
que os métodos estatísticos clássicos como Box- foi aplicado para treinar a rede e a conclusão foi
Jenkins. de que a rede neural superou as técnicas ARIMA
Shabri (2001) comparou Box-Jenkins e redes e Naive para todas as previsões realizadas.
neurais com algoritmo backpropagation para a Sobreiro et al. (2009) identificaram uma lacuna na
previsão de cinco séries temporais distintas. Os previsão do preço dos combustíveis, que ficou
resultados indicaram que para as séries com mais evidente quando se observa o etanol no
tendência e sazonalidade, Box-Jenkins e as redes Brasil. Os autores compararam as redes neurais
neurais tiveram bom desempenho na previsão. de arquitetura perceptron de múltiplas camadas
No entanto, para séries que apresentam padrão com o ARIMA e os resultados obtidos através dos
irregular, o modelo Box-Jenkins superou a erros indicaram que as redes neurais tiveram
acurácia das redes neurais. melhor performance para previsão do preço do
Bressan (2001) utilizou modelos ARIMA, etanol quando comparado ao ARIMA.
estruturais, bayesianos e redes neurais para a Pasquotto (2010) utilizou as redes de Elman para
previsão de séries temporais de negociações de previsão de séries temporais mensais da
contratos futuros do boi gordo, café e soja em demanda por produtos farmacêuticos, demanda
operações de compra e venda de contratos por adubos e tráfego aéreo e comparou os
nesses mercados. A conclusão foi de que o resultados com modelos lineares sazonais
melhor desempenho preditivo nos três mercados através de Box-Jenkins. A conclusão foi de que a
foi obtido pelo ARIMA em função de sua Box-Jenkins foi superior ao modelo da rede de
adaptabilidade e estrutura parcimoniosa. Elman para as três variáveis analisadas. A
Gomes (2005) comparou as redes neurais presença de tendência e sazonalidade nas séries
recorrentes para séries temporais com memória temporais teve impacto negativo na qualidade de
curta e longa, tendo como referência modelos previsão das redes neurais.
ARIMA e ARFIMA. As redes neurais recorrentes
apresentaram bons resultados para as séries 1 – Material e métodos
espaciais (variáveis de solo) devido a não- 1.1 - Material
linearidade. Para várias séries econômicas de Os preços se referem ao consumidor final
inflação em países desenvolvidos, as redes (R$/litros), no período de janeiro de 2005 até
recorrentes, redes feedforward e modelos dezembro de 2011, totalizando 84 observações
lineares se alternaram como melhores para mensais. Optou-se por trabalhar com os preços

1
90
medianos, já que essa medida de tendência wt = série temporal estacionária no
central não é afetada pelos valores extremos. instante t ;
Para Box-Jenkins utilizou-se a transformação i = parâmetro auto-regressivo;
logarítmica da amostragem com o objetivo de
= parâmetro de média móvel;
estabilizar a variância e aplicou a normalização
dos dados para a rede neural.
t ~ N (0, ) 2
= ruído branco, com média

1.2 - Métodos zero e variância constante.

1.2.1- Box-Jenkins Alternativamente, utilizando o operador de

Box-Jenkins considera um conjunto de processos defasagem, tem-se:

estocásticos denominados de ARIMA (1 B ...


1 pB p )wt (1 B ...
1 Bq )
q t

(Autoregressive Integrated Moving Average), (3)


resultantes da combinação de componentes auto- wt (1 B )d yt (4)
regressivo (AR), integração (I) e médias móveis
(MA). É representado por ARIMA (p, d, q), onde p (1 B )d (B )yt (B ) t (5)

é o número de defasagens da série, d é a ordem Neste caso, (1 B )d (B )yt 0 apresenta d


de integração para tornar a série estacionária e q
raízes sobre o círculo unitário (d raízes unitárias)
o número de defasagens dos erros aleatórios
e p raízes fora do círculo unitário.
(GUJARATI, 2006).
Várias modificações são feitas no modelo ARIMA
Para Matos (2000), esses modelos são usados
para explicar o comportamento sazonal e não-
para analisar as séries temporais não
estacionário das séries temporais, presente
estacionárias, transformando-as em
principalmente em séries econômicas. Devido a
estacionárias, com média e variância constante
essas flutuações é apropriado introduzir
ao longo do tempo, através da ordem de
polinômios auto-regressivos e de média móvel
integração, ou seja, a diferenciação da variável
com defasagens sazonais, portanto a
envolvida. A razão para necessitar que os dados
representação fica alterada para ARIMA
sejam estacionários é que qualquer modelo
(p,d,q)(P,D,Q) .
inferido a partir desses dados pode ser
As equações abaixo descrevem esse modelo.
considerado como estável, fornecendo uma base
válida para previsão. (1 B ...
1 pB p )(1 B s ...
1 P B Ps )(1 B )d (1 B s )
(6)
Para representar esse modelo, a variável

observada
yt é substituída por w t que indica (1 1 B ... q B q )(1 1 B s ... Q B Qs ) t

uma série estacionária, conforme equação (7)

abaixo: (B ) (B s ) d D
s yt (B ) (B S ) t

wt 1wt 1 ... p wt p t 1 t 1 ... q t q


(8)
(1)
Em que:
d
wt yt (2) = operador auto-regressivo
Onde: sazonal;

2
91
= operador de média móvel contrário, outra especificação deve ser escolhida
sazonal; para modelar a série temporal.
Como um dos obstáculos na modelagem Box-
Jenkins é a definição da ordem (p, d, q), que é 1.2.2 - Rede neural de Elman
considerada subjetiva e de difícil verificação, Conforme Fausett (1994), as redes neurais
optou-se pela seleção automática desses artificiais são generalizações matemáticas de
parâmetros através do pacote Forecast do cognição humana ou biologia neural. O
programa R para identificar o melhor modelo para conhecimento adquirido ocorre através de um
descrever a série temporal. Hyndman e processo de aprendizagem e as transmitâncias
Khandakar (2008) descreveram esse pacote. dos pesos sinápticos, às quais estão submetidos
O primeiro parâmetro identificado é o número de os fluxos de informações através da rede que são
diferenciações d necessárias para tornar a série utilizadas para armazenar o conhecimento obtido.
estacionária, escolhido com base no teste KPSS. A figura abaixo ilustra esse modelo artificial.
Posteriormente determinam-se os parâmetros
auto-regressivo e de média móvel que podem Figura 1. Generalização de neurônio artificial
assumir valores entre 0 a 3 e os operadores auto-
Pesos
regressivo sazonal e de média móvel sazonal de
x1 wk 1
ordens P e Q, que podem assumir valores entre 0
Saída
Entradas

e 1, caso a série apresente sazonalidade. Dessa


x2 wk 2 (.) yk
forma, o algoritmo do R percorre um espaço de
busca para identificar os possíveis modelos e ao
final seleciona aquele com menor critério de AIC xn wkn
Fonte: Haykin (2001).
e estima os parâmetros através da função de
verossimilhança.
O neurônio artificial é descrito pela equação:
A etapa seguinte é a validação do modelo
n
estimado através da análise dos resíduos. Além yk wkj xi (9)
de verificar se os resíduos se comportam como i 1

um ruído branco através dos testes Box-Pierce e Em que yk é a saída do neurônio; φ (.) é a função
Ljung-Box, no qual os coeficientes de de ativação que restringe a amplitude de saída do
autocorrelações amostrais dos erros devem ser neurônio; x1, x2, ..., xn são os sinais de entrada do
estatisticamente iguais a zero, é necessário neurônio; e wk1, wk2, ..., wkn são os pesos
identificar se os mesmos apresentam distribuição sinápticos do neurônio em questão.
normal através do teste Shapiro-Wilk e Jarque- Para Zhang et al. (1998), uma das principais
Bera que verifica se os momentos da série críticas as redes neurais é que elas são uma
estimada são iguais aos da normal (MATOS, “caixa-preta”, pois não existe forma explícita para
2000). analisar e explicar a relação entre as entradas e
Se o modelo identificado for adequado, o mesmo saídas, dificultando a interpretação dos
pode ser utilizado para realizar previsões, caso resultados. Essa rede pode produzir previsões
satisfatórias, mas geralmente oferecem um

3
92
pequeno conhecimento sobre a estrutura dos A rede de Elman foi desenvolvida no pacote
dados. RSNNS do R (Bergmeier e Benitez, 2010),
A rede neural desenvolvida por Elman (1990) através das etapas descritas abaixo:
possui conexões recorrentes dos neurônios i) Organização da base de dados com
ocultos para uma camada de unidades de as informações relevantes;
contexto que consistem em atrasos unitários. ii) Separação dessas informações em
Essas unidades de contexto armazenam as dois grupos destinados à fase de treinamento e
saídas dos neurônios ocultos por um período de outra de teste. O treinamento deve ser
tempo, e então realimenta de volta para a caracterizado por possuir uma boa representação
camada de entrada. Os neurônios ocultos têm um da população em análise. Estudos apresentados
registro de suas ativações passadas, o que por Granger (1993), Tang e Fishwick (1993)
capacita a rede a realizar tarefas de aprendizado indicam que pelo menos 20% da amostra deve
que se estendem no tempo. ser utilizada para validar o modelo obtido na fase
A camada de entrada possui neurônios sensoriais de treinamento. Com base nesses trabalhos, as
que recebem um sinal externo e o propagam sem 71 primeiras observações da amostragem foram
alterá-lo. A camada de saída possui neurônios consideradas para a fase de treinamento e as
lineares em que as saídas são somas demais aplicadas na validação da rede;
ponderadas de seus respectivos sinais de iii) A etapa seguinte foi à normalização
entrada. A camada intermediária tem neurônios estatística dos dados que teve como objetivo
que apresentam funções de ativação lineares ou adaptar os dados de entrada a faixa dinâmica das
não-lineares e a camada de contexto é formada funções de ativação da rede neural. Essa
por neurônios que apenas memorizam as normalização está descrita em Weigend et al.
ativações dos neurônios da camada (1992) e apresentada na equação abaixo:
intermediária, atuando com operadores de ( yt y)
yt* (10)
defasagens em um instante de tempo (ZUBEN, σy
1996). A figura abaixo representa uma Em que:
generalização da rede de Elman.
yt* valor normalizado; yt = valor real
ou observado;
σy desvio padrão da amostra; y
Figura 2. Rede de Elman
média amostral;
Camada de saída
iv) Finalmente, a rede foi treinada e

Camada oculta testada. Os parâmetros da taxa de aprendizado,


os pesos iniciais e o número de ciclos (iterações)
foram alterados ao longo do treinamento com
Camada de entrada Camada de contexto
objetivo de identificar um modelo com um

Fonte: Elman (1990) resultado mais satisfatório. Para realizar essas


simulações foi criado um script no R que permitiu

4
93
alterar a combinação entre esses diferentes O termo de erro et equivale ao valor observado
parâmetros.
menos o estimado, ou seja, e y ˆ
t y e n =
número de observações.
1.2.3 - Medidas de erros
A escolha de uma medida específica depende se
2 – Resultados e discussões
o objetivo é selecionar um método mais preciso
Através da análise gráfica da decomposição da
para previsão ou calibrar um determinado
série de preços, nota-se um comportamento
modelo. Como o objeto de estudo é a
sazonal homogêneo e estável em todos os anos,
comparação entre métodos de previsão, optou-se
o que já era esperado, considerando a
por utilizar quatro medidas específicas: ME (erro
sazonalidade da produção da cana-de-açúcar,
médio), MAE (média absoluta dos erros), RMSE
que implica no preço dos produtos
(raiz do erro quadrático médio) e MAPE (média
sucroalcooleiros. Também existe uma tendência
absoluta percentual dos erros), conforme
de crescimento justificada pelo aumento da frota
equações abaixo.
de veículos flexfuel e conseqüente elevação da
n
1 demanda pelo produto, o que ao final pressiona
ME et 1 n n n
n t 1 MAE | et | 1 1 et os níveis de preços.
n t 1RMSE et2
MAPE x100
nt1 n t 1 yt
0.3 0.4 0.5 0.6 0.7 0.8

Figura 3. Decomposição da série de preços do etanol


data
Dados

0.05
Sazonalidade
seasonal

0.00
-0.05
0.70
Tendência

0.60
trend
0.50
0.40

0.05 0.10
remainder
Resíduos

-0.05 0.00

2005 2006 2007 2008 2009 2010 2011 2012

time

Fonte: Agência Nacional do Petróleo (2012)

5
94
2.1 - Box-Jenkins verdadeiros valores desses parâmetros. Outro
Após a identificação do ARIMA (2,1,3)(0,0,1)[12], ponto observado é que os valores dos critérios de
estimou-se os parâmetros desse modelo. É informação AIC e BIC apresentaram resultados
possível verificar que os mesmos se encontram negativos, o que é plausível, já que eles
dentro do intervalo de confiança que contém os dependem a função de verossimilhança.

Tabela 1. Parâmetros estimados do ARIMA (2,1,3)(0,0,1)[12]


Parâmetro Erro Intervalo de confiança
Descrição
estimado padrão 2,50% 97,50%

1 0,077 0,147 -0,210 0,364

2 0,555 0,156 0,249 0,861

1 0,603 0,101 0,404 0,801

2 -0,724 0,111 -0,941 -0,506

3 -0,739 0,083 -0,902 -0,576

1 0,393 0,114 0,169 0,617

Tabela 2. Critérios de informação


AIC AICc BIC
Critérios de informação -303,05 -301,55 -286,11
Fonte: Dados da pesquisa.

Pela figura seguinte, percebe-se que o sobrepostos à reta (b), representando indícios de
histograma dos resíduos do modelo é simétrico normalidade.
(a) e que a maioria dos pontos se encontram

95
Figura 4. Histograma (a) e QQ-Plot dos resíduos (b)

(a) (b)

0.10
14
12

0.05
10

Quantis da amostra
8
Frequência

0.00
6
4

-0.05
2
0

-0.05 0.00 0.05 0.10 -2 -1 0 1 2

Resíduos Quantis teórico

Fonte: Dados da pesquisa

O teste Shapiro-Wilk indicou que não existem empírica coincidem com os da normal, ao nível de
evidências para rejeitar a hipótese de significância de 5%. Portanto, a análise gráfica
normalidade, com nível de significância de 5%. preliminar de normalidade dos resíduos foi
Paralelamente, o teste Jarque-Bera caracterizou confirmada pelos resultados dos testes ilustrados
que o terceiro e quarto momentos da distribuição a seguir.

Tabela 3. Testes de Normalidade


Modelo Teste de Normalidade
ARIMA(2,1,3)(0,0,1)[12] Shapiro-Wilk Jarque-Bera
Estatística W = 0,9771 X² = 3,1985
p-value 0,139 0,202
Fonte: Dados da pesquisa.

A análise conjunta dos testes Ljung-Box e Box os resíduos não se correlacionam, portanto mais
Pierce indicaram que não há indícios para rejeitar um dos pressupostos da modelagem Box-Jenkins
a hipótese nula de ruído branco, ao nível de foi satisfeito, conforme resultados apresentados
significância de 5%. Ou seja, pode-se afirmar que abaixo.

1
96
Tabela 4. Testes de Autocorrelação

Modelo Autocorrelação
ARIMA(2,1,3)(0,0,1)[12] Box-Pierce Ljung-Box
Estatística X²= 0,0046 X² = 0,0047
p-value 0,9461 0,9451
Fonte: Dados da pesquisa.

2.2 - Redes neurais Após várias simulações, a taxa de aprendizado


Conforme Zhang et al. (1998), para o problema foi de 0,40. O número de ciclos para parada do
de previsão das séries temporais, o número de treinamento permaneceu em 3.000 iterações e os
neurônios da camada de entrada corresponde à pesos iniciais determinados de forma aleatória
escolha das defasagens utilizadas para descobrir foram 0,60, -0,15; -0,55 e 0,12. A ativação da
o padrão existente da série. Já a quantidade de camada oculta ocorreu através da função
neurônios na camada de saída indica o horizonte sigmóide logística e a camada de saída utilizou a
de previsão, que pode ocorrer um período a função identidade.
frente, ou seja, quando a camada de saída possui Para a função de aprendizado foi utilizado o
apenas um neurônio. Para previsões maiores, a algoritmo backpropagation para a rede Elman. A
solução é realimentar as informações da rede ou importância desse algoritmo é que ele identifica
apresentar mais neurônios na camada de saída, o iterativamente a diferença mínima entre as saídas
que não exige que a rede seja realimentada. desejadas e as saídas obtidas pela rede neural,
A arquitetura da rede construída neste trabalho foi de acordo com um erro mínimo, ajustando os
com três camadas de entrada, definidas de pesos entre as camadas através da
empírica, ou seja, a rede foi simulada várias retropropagação do erro encontrado em cada
vezes com diferentes números de neurônios iteração.
nessa camada e aquela que apresentou o melhor A figura abaixo mostra o processo de
resultado com base nos erros foi selecionada. aprendizado durante o treinamento da rede
Para a camada de saída, considerou-se apenas através da soma dos quadrados dos resíduos. O
um neurônio, o que representa a previsão de um treinamento ficou estabilizado nas proximidades
período à frente. da época 1.100. A linha preta indica a fase de
treino e a vermelha representa a fase de testes.

1
97
Figura 5. Processo de aprendizagem da rede neural

20
15
Weighted SSE

10
5
0

0 500 1000 1500 2000 2500 3000

Iteration

Fonte: Dados da pesquisa.

A tabela abaixo apresenta os erros da rede Elman representa a validação do modelo neural. Os
calculados para a fase de treino, ou seja, o demais indicadores de erros também
processo de aprendizado e a fase de teste que apresentaram resultados satisfatórios.

Tabela 5. Erros da rede neural

Erros Treino Teste

ME -0,02% 0,44%

MAE 5,23% 5,86%

RMSE 7,52% 8,76%

MAPE 3,15% 3,10%

Fonte: Dados da pesquisa.

1
98
2.3 - Análise comparativa entre modelos A tabela seguinte indica os erros dos métodos
O modelo estatístico permitiu identificar os propostos. Embora a validação da rede neural
padrões de comportamento como tendência e seja realizada com base na fase de testes, para a
sazonalidade presentes na série estudada. Após análise comparativa entre os modelos, optou-se
a validação do método de Box-Jenkins, o mesmo por calcular os erros sobre as etapas de
apresentou bons resultados de previsão. Já a validação e teste para que as medidas de erro
aplicação da rede neural de Elman na previsão do tivessem o mesmo número de observações
preço do etanol em Goiás se mostrou uma daquela apresentada por Box-Jenkins, visto que a
ferramenta relevante, embora esta técnica não comparação entre modelos com diferenças de
permita identificar padrões de comportamentos tamanho entre as amostras fica prejudicada.
existentes na série.

Tabela 6. Resumo das medidas de erros dos modelos propostos


ARIMA Rede de
Descrição
(2,1,3)(0,0,1)[12] Elman

ME 0,36% 0,07%

MAE 2,67% 5,37%

RMSE 3,49% 7,79%

MAPE 5,23% 3,14%

Fonte: Dados da pesquisa.

O desempenho obtido pelo ARIMA próximos aos valores observados. Para os


(2,1,3)(0,0,1)[12] foi superior em duas medidas de períodos de baixa variação de preços, como por
erro. A rede neural apresentou menores erros exemplo, janeiro de 2008 até janeiro de 2009, os
através do ME e MAPE, embora as outras modelos de Box-Jenkins e a rede neural de
medidas também fossem consideradas Elman apresentaram desempenho similar devido
satisfatórias. A figura 6 ilustra que todas as à facilidade de captar o padrão de
metodologias encontraram resultados bem comportamento da série temporal.

1
99
Figura 6. Valores observados e preditos pelos modelos para o preço do etanol em Goiás

2,300

2,200

2,100

2,000

1,900
Preço - R$/litros

1,800

1,700

1,600

1,500

1,400

1,300
jan/05

jan/06

jan/07

jan/08

jan/09

jan/10

jan/11
out/05

out/06

out/07

out/08

out/09

out/10

out/11
abr/05

abr/06

abr/07

abr/08

abr/09

abr/10

abr/11
jul/05

jul/06

jul/07

jul/08

jul/09

jul/10

jul/11
Observado Previsto ARIMA Previsto Rede neural

Fonte: Dados da pesquisa.

Considerações Finais tentativa-erro, refletindo incertezas quanto à


Neste trabalho foram aplicadas metodologias de determinação desse modelo.
estatística e de inteligência artificial através da O método de Box Jenkins tem limitações teóricas,
rede neural de Elman para o problema da pois é incapaz de modelar um grande número de
previsão do preço do etanol no estado de Goiás. fenômenos. Porém, a vantagem desse modelo é
Após as análises, modelagens e previsões para que ele é fácil e rápido de ser implementado,
cada uma das técnicas, os dois métodos se sendo necessário que apenas os pressupostos
mostraram competitivos em termos de predição teóricos como a estacionariedade e normalidade
um período à frente, representando ferramentas sejam obtidos. O modelo estatístico permitiu
relevantes para as previsões. identificar os padrões de comportamento da série
Observa-se que a rede neural não oferece como tendência e sazonalidade do preço do
conhecimento sobre os dados, pois não identifica etanol em Goiás, padrões estes que não foram
padrões de comportamento da série temporal, identificados pela rede neural.
embora seja um sistema adaptativo que capta as Como os resultados das medidas de erros dos
relações funcionais entre os dados através de um modelos propostos ficaram muito próximos e
processo de treino e aprendizado. Outro fato é considerando a complexidade e dificuldade na
que desenvolvimento de uma rede incorpora modelagem da rede neural, como a identificação
dificuldades e limitações como à identificação da da taxa de aprendizado, obtenção dos pesos
taxa de aprendizado, definição dos pesos iniciais iniciais, a topologia e o treinamento da rede,
e do número de camadas, além da topologia, que conclui-se que o modelo de Box-Jenkins foi o
na maioria das vezes são obtidos através da mais adequado em termos de parcimônia entre o

1
100
desempenho e complexidade, podendo ser [10] FARAWAY, J., CHATFIELD, C. Time series
forecasting with neural networks: a case study.
estendido para a previsão de outras séries
Research Report 95-06. University of Bath, 20 p.,
temporais. 1995.

FAUSETT, L. Fundamentals of neural networks


Referências bibliográficas architectures, algarithms and applications.
[S.L]: Prentice Hall. 1994. 462 p.
AGÊNCIA NACIONAL DO PETRÓLEO (ANP).
Sistema de levantamento de preços. Disponível
GOMES, D.T. Modelos de redes neurais
em: http://www.anp.gov.br/preco. Acesso em: 15
recorrentes para previsão de séries temporais
de mar. 2012.
de memórias curta e longa. 2005. 138 p.
Dissertação (Mestrado em Estatística),
BERGMEIER, C.; BENITEZ, J. M. Neural
Universidade Estadual de Campinas, Campinas,
networks in R using the Stuttgart Neural
2005.
Network Simulator RSNNS. Disponível em
http://cran.r-
GRANGER, C.W.J., 1993. Strategies for
project.org/web/packages/RSNNS/citation.html.
modelling nonlinear time series relationships. The
Acesso em 05.06.2010.
Economic Record. v. 69, n.3, p. 233-238, 1993.
BRACE, M.C.; SCHMIDT, J.; HADLIN, M.
GUJARATI, D. N. Econometria básica. Rio de
Comparison of the forecasting accuracy of neural
Janeiro: Elsevier. 2006. 846 p.
networks with other established techniques.
Networks to Power Systems. Proceedings of the
HAYKIN, S. Redes neurais: princípios e
First Forum on Application of Neural. n.1, p. 31–
práticas. 2ed. Porto Alegre: Bookman. 2001. 900
35, 1991.
p.
BRESSAN, A. A. Modelos de previsão de
HYNDMAN, R.J.; KHANDAKAR, Y. Automatic
preços aplicados aos contratos futuros
time series forecasting: the forecast package for
agropecuários. 2001. 152 p. Tese (Doutorado
R. Journal of Statistical Software. v. 27, n. 3,
em Economia Rural), Universidade Federal de
p.1-22, 2008.
Viçosa, Viçosa, 2001.
HU, M.J.C. Application of the adaline system to
CAIRE, P.; HATABIAN, G.; MULLER, C. Progress
weather forecasting. Master Thesis, Technical
in Forecasting by Neural Networks. Proceedings
Report, Stanford Eletronic Laboratories. 51 p,
of the International Joint Conference on
1964.
Neural Networks, v. 2, p. 540-545. 1992.
LAPEDES, A.; FARBER, R. How Neural Nets
CATALÃO, J. P. S.; MARIANO, S. J. P. S.;
Work. Neural Information Processing Systems
MENDES, V. M. F.; FERREIRA, L. A. F.M. Short-
(NIPS). American Institute of Physics. p. 442–456,
term electricity prices forecasting in a competitive
1988.
market: a neural network approach. Electric
Power Systems Research , v. 77, p. 1297–1304,
MATOS, O. C. Econometria básica: teoria e
2007.
aplicações. 3ed. São Paulo: Atlas, 2000. 304 p.
CONEJO, A.J.;PLAZES, M.A.; ESPINOLA, R.;
PASQUOTTO, J.L.D. Previsão de séries
MOLINA, A.B. Day-ahead electricity price
temporais no varejo brasileiro: uma
forecasting using the wavelet transform and
investigação comparativa das redes neurais
ARIMA models. Transactions on Power
recorrentes de Elman. 2010. 191 p. Dissertação
Systems. v. 20, n. 2, p. 1035–1042, 2005.
(Mestrado em Administração), Universidade de
São Paulo, São Paulo, 2010.
CONTRERAS, J.; ESPINOLA, R.; NOGALES,
F.J.; CONEJO, A.J. ARIMA models to predict
SHABRI, A. Comparision of time series
next-day electricity prices. Transactions Power
forescasting methods using neural networks and
Systems. v. 18, n. 3, p. 1014-1020, 2003.
Box-Jenkins model. Matematika, p. 52-32, 2001.
ELMAN, J. L. Finding structure in time. Cognitive
SHARDA, R.; PATIL, R.B. Connectionist
Science. vol. 14, p. 179-211, 1990.
approach to time series prediction: an empirical
test. Journal of Intelligent Manufacturing. v 3,
p. 317–323, 1992.
1
101
SHARDA, R. Neural networks for the MS/OR exchange rates with connectionist networks. In:
analyst: an application bibliography. Interfaces. Casdagli, M., Eubank, S. (Eds.), Nonlinear
The Institute of Manegement Sciences. v. 24, Modeling and Forecasting. Addison-Wesley. p.
p.116–130, 1994. 395-432, 1992.

SOBREIRO, V. A.; ARAÚJO, P. H. de S. L.; WERBOS, P.J. Generalization of backpropagation


NAGANO, M.S. Precificação do etanol utilizando with application to a recurrent gas market model.
técnicas de redes neurais artificiais. Revista de Neural Networks. v.1, p. 339-356, 1988.
Administração. v.44, n.1, p. 46-58, 2009.
ZHANG, G.; PATUWO, B.E.; HU, M.Y.
TANG, Z.; ALMEIDA, C.; FISHWICH, P.A. Time Forecasting whit artificial neural networks: the
series forecasting using neural networks vs Box- state of the art. International Journal of
Jenkins methodology. Simulation. v. 57, n. 5, p. Forecasting. Elservier. v. 14, n. 1, p. 35-62,
303-310, 1991. 1998.

TANG, Z.; FISHWICK, P.A. Feedforward neural ZUBEN, F.J.V. Modelos paramétricos e não-
nets as models for time series forecasting. ORSA paramétricos de redes neurais. 1996. 243 p.
Journal on Computing. v.5, n. 4, p. 374-385, Tese (Doutorado em Engenharia Elétrica),
1993. Universidade Estadual de Campinas, Campinas,
1996.
WEIGEND, A.S.; HUBERMAN, B.A.;
RUMELHART, D.E. Predicting sunspots and

2
102

Você também pode gostar