Você está na página 1de 102

MODELAGEM ARIMA

Glaura C. Franco
Depto. Estatística – UFMG

Belo Horizonte, 08/08/2011

1
Sumário
1. Séries Temporais
1.1 Séries reais
1.2 Operadores
1.3 Estacionariedade
1.4 Autocovariância e autocorrelação
1.5 Função de autocorrelação amostral (ACF)
1.6 Ruído Branco
1.7 Transformação Box – Cox

2. Modelo de Box & Jenkins


2.1 Tipos de Modelos
2.2 Estacionariedade e inversibilidade dos Modelos Box & Jenkins
2.3 Modelos não estacionários ARIMA
2.4 Formas do modelo ARIMA
2.5 Funções de Autocorrelação (ACF) e Autocorrelação Parcial (PACF) Teóricas
2.6 Identificação de Modelos
2.7 Estimação de Parâmetros
2.8 Validação do Modelo
2.9 Modelos sazonais
2.10 Previsões

2
Capítulo 1: Séries temporais

Definição: Uma Série Temporal é um conjunto de observações geradas sequencialmente


no tempo.

Característica principal: as variáveis são dependentes.

Denotaremos a série temporal por Y1 , Y2 ,..., YT onde T é o tamanho da série.


Trabalharemos com séries temporais a tempo discreto, onde os dados são coletados
diariamente, semanalmente, mensalmente ou anualmente.

Objetivos: - Modelagem;
- Previsão;
- Periodicidade.

3
1.1. Séries reais

Neste curso serão utilizadas as seguintes séries:

IPCA: Série do Índice de Preços ao Consumidor Amplo de Belo Horizonte (jan/97 a


out/05).

CELTINS: Série do consumo de energia elétrica das Centrais Elétricas do Tocantins


(jan/86 a abr/97).

FORTAL: Série de precipitação pluviométrica mensal na cidade de Fortaleza (jan/24 a


dez/99).

CEP: Série do consumo de energia elétrica das Centrais Elétricas do Paraná (jan/80 a
dez/94).

4
IPCA (%)

-1,00
-0,50
0,00
0,50
1,00
1,50
2,00
2,50
3,00

jan/97
jun/97
nov/97
abr/98
set/98
fev/99
jul/99
dez/99
mai/00
out/00
mar/01
ago/01
Período

jan/02
jun/02
Figura 1.1: Série IPCA
nov/02
abr/03
set/03
fev/04
jul/04
dez/04
mai/05
out/05
5
60
50
40
CELTINS

30
20
10

1986 1988 1990 1992 1994 1996

Time

Figura 1.2: Série CELTINS

6
Time Series Plot of FORTAL

500

400

300
FORTA L

200

100

Month jan jan jan jan jan jan jan


Year 1924 1936 1948 1960 1972 1984 1996

Figura 1.3: Série FORTAL

7
Time Series Plot of CEP
600

550

500

450
CEP

400

350

300

250
Month jan jan jan jan jan jan jan jan
Year 1980 1982 1984 1986 1988 1990 1992 1994

Figura 1.4: Série CEP

8
1.2. Operadores

a) Operador de retardo ou de translação para o passado: representa uma defasagem de k


períodos de tempo para trás. É denotado por B e definido por:

B k Yt = Yt − k .

b) Operador de avanço ou de translação para o futuro: representa uma defasagem de k


períodos de tempo para frente. É denotado por F e definido por:

F k Yt = Yt + k .

c) Operador diferença: é uma transformação nos dados que consiste em tomar


diferenças sucessivas da série original. É denotado por ∇ e definido por

∇ d Yt = (1 − B ) Yt .
d

9
1.3. Estacionariedade e Ergodicidade

Ergodicidade: Um processo estocástico é dito "ergódico" se apenas uma realização do


mesmo é o suficiente para se obter todas as estatísticas do mesmo.

Estacionariedade: Se o processo estocástico que gerou a série de observações é


invariante com respeito ao tempo, diz-se que o mesmo é estacionário. Um processo
estacionário pode ser classificado em:

a) Estritamente estacionário: Quando as séries Yt e Yt+k estão distribuídas


identicamente qualquer que seja k.

b) Fracamente estacionário (ou estacionário de segunda ordem): quando a sua função


valor médio é constante e sua função de covariância depende somente da diferença,
em valor absoluto de ts − t j .

10
Em termos práticos, uma série é fracamente estacionária quando ela se desenvolve no
tempo ao redor de uma média e variância constantes, indicando um padrão de
equilíbrio. Assim, uma série Yt será estacionária se os dois primeiros momentos
forem constantes ao longo do tempo, ou seja,

E (Yt ) = µ ,

Var (Yt ) = σ 2 .

Se o processo for Gaussiano e estacionário de segunda ordem, ele será estritamente


estacionário.

Processo Não Estacionário Homogêneo: Um processo é não estacionário homogêneo


se, ao tomarmos suas diferenças sucessivas, encontramos um processo estacionário.

11
Seja a série temporal não estacionária abaixo:

50

40

Zt (n=100)
30

20

10

Index 10 20 30 40 50 60 70 80 90 100

Figura 1.5: Série não estacionária

12
Se calcularmos a primeira diferença desta série, teremos:

Wt = ∇Yt = Yt − Yt −1

1
Dif 1(Yt)

-1

-2

-3
Index 10 20 30 40 50 60 70 80 90 100

Figura 1.6: Série da primeira diferença

Se a série diferenciada é estacionária, dizemos que a série original é integrada de ordem


1, ou I(1).

13
1.4 Autocovariância e Autocorrelação

Autocovariância: É a covariância entre Yt e Yt-k separados por k intervalos de tempo.

γ k = Cov[Yt , Yt −k ] = E ([Yt − µ ][Yt −k − µ ]), k = 0, ± 1, ± 2,...

Se temos uma série real, o estimador amostral aproximadamente não-tendencioso (para


grandes amostras) da autocovariância é dado por:

1 T
γˆk = ∑ (Yt − Y )(Yt −k − Y ).
T t =k +1

Como a autocovariância é uma função par, temos que para todo inteiro k, γ k = γ − k .
Portanto, é necessário determinar γ k apenas para k ≥ 0.

14
Autocorrelação: a autocorrelação é a autocovariância padronizada. Serve para medirmos
o comprimento e a memória de um processo, ou seja, a extensão para a qual o valor
tomado no tempo t depende daquele tomado no tempo t-k,

γk Cov[Yt , Yt −k ]
ρk = = .
γ0 Var (Yt )Var (Yt −k )

Claramente, ρ 0 = 1 e ρ k = ρ −k . Um estimador amostral da autocorrelação de


defasagem k é dado por:

γˆk
ρˆ k = , k = 0,1,2,...
γˆ0

15
1.5. Função de Autocorrelação Amostral (ACF)

A ACF pode ser construída no R usando o comando:

acf(x, lag.max = NULL)

onde x é a série e lag.max é o número de lags que se quer utilizar no cálculo da ACF. Se
não for especificado um número, como no caso acima, o R usa o default de
10*log10(T/m) onde T é o número de observações e m é o número de séries.

16
Series ipca

1.0
0.8
0.6
ACF

0.4
0.2
0.0
-0.2

0 5 10 15 20

Lag

Figura 1.7: ACF da série IPCA

17
Series celtins

1.0
0.8
0.6
ACF

0.4
0.2
0.0
-0.2

0 10 20 30 40 50

Lag

Figura 1.8: ACF da série CELTINS

18
Series fortal

1.0
0.8
0.6
0.4
ACF

0.2
0.0
-0.2
-0.4

0 20 40 60 80

Lag

Figura 1.9: ACF da série FORTAL

19
1.6. Ruído Branco

O processo ut, t = 0,1,... é um ruído branco se

i) E[ ut ] = 0,

ii) E[ ut2 ] = σ u2 < ∞ e

iii) E[ ut , ut + k ] = 0, para k = ± 1, ± 2,L

Além disto, ρ k = 1 para k = 0 e ρ k = 0 , para k = ± 1, ± 2,L

20
Series RB

1.0
0.8
0.6
ACF

0.4
0.2
0.0
-0.2

0 5 10 15 20 25

Lag

Figura 1.10: ACF de um Ruído Branco

21
1.7. Transformação Box - Cox

Para séries temporais que não apresentam variância constante, é necessário transformar a
série original para estabilizá-la. Através da transformação Box-Cox, pode-se obter uma
série mais simétrica e com variância constante, ou seja, próxima da distribuição normal,
quando valores apropriados de λ na equação abaixo são encontrados,

Yt λ − c
(λ )  , se λ ≠ 0
Yt = λ
log Y , se λ = 0
 t

O valor de λ e c são parâmetros a serem estimados. O λ é obtido a partir de uma


varredura sobre um intervalo de valores possíveis, no qual procura-se identificar aquele
que apresente a menor soma dos quadrados dos resíduos.

Exercício computacional
Construir a Função de Autocorrelação (ACF) da série CEP.

22
Capítulo 2: Modelo de Box & Jenkins

A metodologia de Box & Jenkins (1976) está fundamentada em quatro passos:

1. Identificação: Identifica-se um modelo apropriado para a série em questão;

2. Estimação: Estima-se os parâmetros do modelo identificado;

3. Verificação do modelo: é necessário checar a adequação do modelo através de


estatísticas apropriadas e fazer uma análise de resíduos;

4. Previsão: o modelo final é usado para prever futuros valores da série.

23
A modelagem proposta por Box & Jenkins é da forma


Yt = µ + ∑ψ k ut − k = µ + ψ (B )ut
k =0

onde u t é um ruído branco, geralmente Gaussiano e o filtro linear ψ é definido por

θ (B )
ψ (B ) =
φ (B )

onde θ ( B) = 1 − θ1B − θ 2 B 2 − L − θ q B q e φ ( B) = 1 − φ1B − φ2 B 2 − L − φ p B p são


polinômios de graus q e p, respectivamente.

24
Desta forma, os modelos de Box & Jenkins são dados por:

φ ( B )(Yt − µ ) = θ ( B )ut (2.1)

De acordo com Box & Jenkins, o modelo (2.1) é denominado ARMA(p,q). De (2.1)
pode-se escrever:

(1 − φ1B − ... − φ p B p )(Yt − µ ) = (1 − θ1B − ... − θ q B q )ut


ou

(Yt − µ ) − φ1 (Yt −1 − µ ) − ... − φ p (Yt − p − µ ) = ut − θ1ut −1 − ... − θ q ut − q

A partir deste ponto vamos assumir, sem perda de generalidade, que µ = 0 .

25
2.1. Tipos de modelos

a) Modelos Auto-Regressivos (AR)

O modelo que tem θ (B ) ≡ 1 é chamado Modelo Auto-Regressivo.

Notação: AR(p)

O nome Auto-Regressivo se deve ao fato de que Yt no instante t é função dos Y's nos
instantes anteriores a t.

AR(1): Yt = φ1Yt −1 + ut

AR(p): Yt = φ1Yt −1 + φ2Yt − 2 + ... + φ pYt − p + ut

26
b) Modelos Médias Móveis (MA)

O modelo que tem φ ( B ) ≡ 1 é chamado Modelo Médias Móveis.

Notação: MA(q)

O nome Médias Móveis vem do fato que Yt é uma função soma algébrica ponderada
dos u t que se movem no tempo.

MA(1): Yt = ut − θ1ut −1

MA(q): Yt = ut − θ1ut −1 − θ 2ut − 2 − ... − θ q ut − q

27
c) Modelos Auto-Regressivos - Médias Móveis (ARMA)

É o modelo que tem tanto uma parte AR (φ (⋅) ≠ 1) como uma parte MA (θ (⋅) ≠ 1).

Notação: ARMA(p,q)

ARMA(1,1): Yt = φ1Yt −1 + ut − θ1ut −1

ARMA(p,q):
Yt = φ1Yt −1 + φ2Yt − 2 + ... + φ pYt − p + ut − θ1ut −1 − θ 2ut − 2 − ... − θ q ut − q

28
2.2. Estacionariedade e inversibilidade dos Modelos Box & Jenkins

Estacionariedade:

Proposição 1: Um processo estocástico Yt = ψ (B )ut será estacionário se a série


ψ (B ) = ∑ψ k B k
k =0
converge para B < 1.

a) Estacionariedade dos modelos MA


Todo modelo MA é estacionário. Como ψ (B ) = θ (B ) para modelos MA, a
convergência de ψ (B ) para B < 1 é trivial, pois ψ (B ) é uma soma finita.

29
b) Estacionariedade dos modelos AR

Os modelos AR devem ter as raízes do polinômio ψ −1 (B ) = φ (B ) = 0 fora do círculo


unitário como condição de estacionariedade.

c) Estacionariedade dos modelos ARMA


Um modelo ARMA(p,q) será estacionário se φ (B ) satisfizer as condições de
estacionariedade de um modelo AR.

Inversibilidade:

Vamos inicialmente expressar o modelo geral ARMA na forma inversa, isto é,


expressando o ruído u t em função de Yt :

ut = φ (B )θ −1 (B )Yt = π (B )Yt

30
Proposição 2: Um processo estocástico ut = π (B )Yt será inversível se a série

π (B ) = 1 − ∑ π jB j
j =0

converge para B < 1.

a) Inversibilidade dos modelos AR


Todo modelo AR é inversível. Como π (B ) = φ (B ) para modelos AR, a convergência
de π (B ) para B < 1 é trivial, pois π (B ) é uma soma finita.

b) Inversibilidade dos modelos MA


Os modelos MA devem ter as raízes do polinômio π −1 (B ) = θ (B ) = 0 fora do círculo
unitário como condição de inversibilidade.

c) Inversibilidade dos modelos ARMA


Um modelo ARMA(p,q) será inversível se θ (B ) satisfizer as condições de
inversibilidade de um modelo MA.

31
2.3. Modelos não estacionários ARIMA

Se a série temporal Yt é não estacionária, vimos que uma forma de torná-la estacionária é
tomando diferenças sucessivas da forma wt = ∇ d Yt = (1 − B ) Yt .
d

Assim, se wt for estacionária, podemos representá-la por um modelo ARMA(p,q), ou


seja,

φ (B )wt = θ (B )ut . (2.2)

Neste caso, dizemos que Yt segue um modelo Auto-Regressivo - Integrado - Média


Móvel, ou ARIMA(p,d,q):

φ (B )(1 − B )d Yt = θ (B )ut

⇒ (1 − φ1 B − ... − φ p B p )(1 − B ) Yt = (1 − θ1 B − ... − θ q B q )ut


d

No modelo (2.2), todas as raízes de φ (B ) estão fora do círculo unitário.

32
Seja ξ (B ) o operador auto-regressivo não estacionário de ordem p+d:

ξ (B )Yt = θ (B )ut
onde
ξ (B ) = φ (B )∇ d = φ (B )(1 − B )d

Portanto o modelo ARIMA supõe que a d-ésima diferença da série Yt pode ser
representada por um modelo ARMA, estacionário e inversível. Na maioria dos casos
usuais, d = 1 ou 2.

33
2.4. Formas do modelo ARIMA
O modelo ARIMA pode ser representado de 3 formas.

a) Forma de Equação de Diferenças


Representado em termos de valores prévios de Yt e do valor atual. É bastante utilizado
para calcular previsões.
Yt = ξ1Yt −1 + L + ξ p + d Yt − p − d + ut − θ1ut −1 − L − θ qut − q

b) Forma de Choques Aleatórios


Representado em termos do valor atual e prévio de u t . É uma forma conveniente para se
calcular a variância dos erros de previsão.
Yt = ut + ψ 1ut −1 + ψ 2ut − 2 + L = ψ (B )ut
c) Forma Invertida
Representada em termos dos valores prévios de Yt e do valor atual de u t .
π (B )Yt = Yt − π1Yt −1 − π 2Yt − 2 − L = ut

34
2.5. Funções de Autocorrelação (ACF) e Autocorrelação Parcial (PACF)
Teóricas

Função de Autocorrelação (ACF):

Vimos que a função de autocorrelação é dada por

γk Cov[Yt , Yt −k ]
ρk = = , para k = 0, ± 1, ± 2,...
γ0 Var (Yt )Var (Yt −k )

35
a) Modelos AR:

A função de autocorrelação de um AR(p) é dada por:

ρ k = φ1ρ k −1 + φ2 ρ k − 2 + L + φ p ρ k − p

ou seja, ρ k satisfaz à equação:

φ (B ).ρ k = 0 onde φ ( B ) = 1 − φ1 B − φ2 B 2 − L − φ p B p .

Assim, para modelos AR as autocorrelações decrescem exponencialmente, podendo


ou não ter componentes senoidais amortecidas.

36
b) Modelos MA:

A função de autocorrelação de um MA(q) é dada por:

 − θ k + θ1θ k +1 + L + θ q − kθ q
 ; k = 1,2,L, q
ρk =  1 + θ1 + L + θ q
2 2

 0 ; k>q

A função de autocorrelação do modelo MA(q) apresenta "q" picos (valores)
diferentes de zero (isto é, para k=1,2,...,q) e é identicamente nula para k > q.

c) Modelos ARMA:

Como um modelo ARMA é uma mistura de modelos AR e MA, sua função de


autocorrelação é uma combinação das autocorrelações dos processos componentes.

37
Função de Autocorrelação Parcial (PACF): Se medirmos a correlação entre duas
observações seriais, Yt e Yt − k , eliminando a dependência dos termos intermediários,
Yt −1 , Yt − 2 ...Yt − ( k +1) , temos o que se denomina autocorrelação parcial, representada por:

φkk = Corr (Yt , Yt −k Yt −1...., Yt −( k +1) ), para k = 0, ± 1, ± 2,....

Equações de Yule-Walker:
 ρ1 = φ1 + φ2 ρ1 + L + φ p ρ p −1
 ρ = φ ρ +φ +L+φ ρ
 2 1 1 2 p p −2
 L
ρ = φ ρ + φ ρ
 p 1 p −1 2 p −2 + L + φ p

Consideremos o sistema de equação de Yule-Walker reescrito como a seguir:

38
 1 ρ1 L ρ k −1  φk1   ρ1 
 ρ 1 L ρ k − 2  φk 2   ρ 2 
 1 ×  =  
 M M O M   L  L 
ρ ρk −2 L 1  φkk   ρ k 
 k −1

A autocorrelação parcial de um processo é definida como a sequência dos φkk 's obtidos
pela resolução das equações acima, para k = 1,2,3,...

Usando a regra de Cramer para k = 1,2,3,... temos:


φ11 = ρ1

1 ρ1
p ρ2
φ22 = 1
1 ρ1
p1 1

39
1 ρ1 ρ1
ρ1 1 ρ2
ρ2 ρ1 ρ3
φ33 =
1 ρ1 ρ2
ρ1 1 ρ1
ρ2 ρ1 1

Em geral,

Pk*
φkk = ,
Pk

onde | . | é o determinante da matriz, Pk é a matriz de autocorrelação e Pk* é a matriz Pk


com a última coluna substituída pelo vetor de autocorrelações.

40
0.6 Modelo AR(1):

0.6
0.5

0.5
0.4

0.4
PACF
ACF

0.3

0.3
0.2

0.2
0.1

0.1
0.0

0.0
0 10 20 30 40 0 10 20 30 40

Index Index

Figura 2.1: ACF e PACF de um AR(1) com φ = 0,6

41
Modelo MA(1):

0.4
0.4

0.3
0.3

PACF
ACF

0.2
0.2

0.1
0.1

0.0
0.0

5 10 15 20 25 5 10 15 20 25

Index Index

Figura 2.2: ACF e PACF de um MA(1) com θ = 0,6

42
2.6. Identificação de Modelos

A identificação da ordem do modelo ARIMA(p,d,q) se faz através das funções de


autocorrelação (ACF) e autocorrelação parcial (PACF).

Escolha de d

Se uma série apresenta não-estacionariedade, as autocorrelações estimadas terão valores


absolutos altos para todos os lags. Neste caso, aplicamos sucessivamente o operador
diferença à série e calculamos sua autocorrelação, que indicará quando uma série com
características de um processo estacionário foi obtida.

43
Escolha de p e q

Uma vez que o grau d tenha sido identificado, o passo seguinte será a escolha dos graus p
e q dos polinômios φ (B ) e θ (B ) do modelo ARMA aplicado à série wt = ∇ d Yt .

A identificação de p e q é feita comparando-se o comportamento dos estimadores das


( )
autocorrelações ( ρ̂ k ) e das autocorrelações parciais φˆkk com as correspondentes funções
teóricas.

Obs.: A maioria das séries estacionárias, na prática, apresentam p + q ≤ 2 .

44
Na Tabela 2.1 são apresentados os comportamentos esperados da FAC e FACP de alguns
modelos da classe ARMA mais comuns.

Tabela 2.1 - Comportamento teórico da AC e PACF para alguns modelos


Modelo ACF PACF
MA(1) 1 pico no lag 1 Decrescimento exponencial

AR(1) Decrescimento exponencial 1 pico no lag 1

MA(2) 1 pico no lag 1 e 1 pico no lag 2


Mistura de exponenciais ou ondas
senóides amortecidas
AR(2) Mistura de exponenciais ou ondas 1 pico no lag 1 e 1 pico no lag 2
senóides amortecidas
ARMA(1,1) Decrescimento exponencial Decrescimento exponencial

45
Teste de hipóteses para ρ k e φ kk

Para T suficientemente grande, se ρ k = 0 , então a distribuição de ρ̂ k é aproximadamente


normal, isto é:

ρˆ k ~ N [0;Var (ρˆ k )].

Onde Var (ρ̂ k ) é calculada usando-se a fórmula de Bartlett:

1 k −1
Var ( ρˆ k ) ≈ 1 + 2 ∑ ρˆ i2  .
T i =1 

Com relação às autocorrelações parciais, a fórmula de Quenouille determina que a


variância dos φ kk 's para lags k suficientemente grandes é dada por:

1
Var (φkk ) ≈ .
T

46
Exemplo 2.1: ACF e PACF amostrais da série IPCA

acf(IPCA, lag.max = NULL)


pacf(IPCA, lag.max = NULL)

Series IPCA Series IPCA

0.4
1.0

0.3
0.8

0.2
0.6

Partial ACF
ACF

0.1
0.4

0.0
0.2

-0.1
0.0
-0.2

-0.2
0.0 0.5 1.0 1.5 0.5 1.0 1.5

Lag Lag

Figura 2.3: ACF e PACF amostrais para a série IPCA

47
Exemplo 2.2: ACF e PACF amostrais da série CELTINS
par(mfrow=c(2,1))
acf(CELTINS, lag.max = 50)
pacf(CELTINS, lag.max = 50)
Series CELTINS

1.0
ACF

0.4
-0.2 0 1 2 3 4

Lag

Series CELTINS
1.0
Partial ACF

0.4
-0.2

0 1 2 3 4

Lag

Figura 2.4: ACF e PACF amostrais para a série CELTINS

48
Primeira diferença na série CELTINS

difCELTINS=diff(CELTINS)
acf(difCELTINS, lag.max = 50)
pacf(difCELTINS, lag.max = 50)
Series difCELTINS

1.0
ACF

0.4
-0.2

0 1 2 3 4

Lag

Series difCELTINS
Partial ACF

0.05
-0.15

0 1 2 3 4

Lag

Figura 2.5: ACF e PACF amostrais para a primeira diferença da série CELTINS

49
2.7. Estimação de Parâmetros

Consideremos o modelo ARMA(p,q).

φ p (B )Yt = θ q (B )ut

onde φ ( B) e θ ( B) são polinômios de grau, p e q, respectivamente, e


u t é um processo ruído branco, com E (ut ) = 0 e Var (ut ) = σ u2 .

Vamos estimar:

φ p (B ) = (φ1 ,φ2 ,L,φ p ), θ q (B ) = (θ1 ,θ 2 ,L,θ q ) e σ u2 = E (ut2 ).

50
i. Método de Mínimos Quadrados

a) Modelo AR(1)
Consideremos o modelo AR(1):

Yt = φ1Yt −1 + ut

Para calcular os estimadores de mínimos quadrados, devemos minimizar a soma de


quadrados das diferenças

ut = Yt − φ1Yt −1

Dado T observações, a soma de quadrados de t = 2 a t = T é:

T T
S (φ ) = ∑ ut
2
= ∑ [Yt − φ1Yt −1 ]2 .
t =2 t =2

51
Derivando em relação a φ e igualando a zero temos:
T
∑ Yt Yt −1
φˆ1 = t = T2 .
2
∑ Yt −1
t =2

b) Modelo MA(1)
Consideremos o modelo MA(1):

Yt = ut + θ1ut −1

Colocando o modelo na forma invertida:

(
ut = 1 + θ1B + θ12 B 2 + L Yt )
Para T valores observados Y1,L, YT temos:

52
S (θ ) =
T
∑ ut
2
T
( )2
= ∑ Yt + θ1Yt −1 + θ12Yt − 2 + L
t =2 t =2

⇒ Utilizar procedimento numérico para minimizar S (θ ).

ii. Método dos Momentos

Consiste em substituir a média amostral Y , a variância amostral γˆ0 e a correlação


amostral ρ̂ k nas equações do modelo e resolver estas equações.

a) Modelo AR(p)
Usar a relação

ρ k = φ1ρ k −1 + φ2 ρ k − 2 + L + φ p ρ k − p , k>1 (Equação de Yule-Walker)

53
para obter o seguinte sistema de equações:

 ρ1 = φ1 + φ2 ρ1 + L + φ p ρ p −1 
 ρ = φ ρ +φ +L+φ ρ 
 2 1 1 2 p p − 2 
 L 
ρ = φ ρ + φ ρ + L + φ 
 p 1 p −1 2 p − 2 p 

Substituindo ρ k por ρ̂ k , obtemos as estimativas φˆ1 L,φˆp resolvendo o sistema de


equações:
−1
 φˆ1   1 ρˆ1 L ρˆ p −1   ρˆ1 
ˆ   ˆ   ρˆ 
φ
 2 =  1 ρ 1 L ρ
ˆ p−2 
× 
2
L   M M M  L
ˆ  
φ p   ρˆ p −1 ρˆ p − 2 L 1   ρˆ 
 p

54
b) Modelo MA(1)
Yt = ut + θ1ut −1
θ1
Neste modelo: ρ1 = −
1 + θ12

− 1 ± 1 − 4 ρ
ˆ 2
Substituindo ρ1 por ρ̂1 : θˆ1 = 1
2 ρˆ1

Obs.: - Os estimadores de momentos dos modelos MA(q) e ARMA(p,q) são mais


complicados que no AR(p).
- Os estimadores são muito sensíveis a arredondamentos.

55
iii. Método de Máxima Verossimilhança

Para o modelo ARMA(p,q) temos

ut = wt − φ1wt −1 − L − φ p wt − p + θ1ut −1 + L + θ qut − q .

Sob a suposição de normalidade dos u t , temos que a função densidade conjunta de


u1 , u 2 , L , u T é
 T ut2 
f (u1 ,L, uT ) = (2π ) (σ u ) exp− ∑ 2  .
−T / 2 −T

 t =1 2σ u 

Os estimadores dos parâmetros são obtidos maximizando-se a verossimilhança acima, o


que deve ser feito através de procedimentos numéricos.

56
Variância dos estimadores

Da teoria de inferência estatística sabe-se que os estimadores de máxima verossimilhança


têm distribuição aproximadamente normal, se T é grande, com esperança igual ao
verdadeiro parâmetro e matriz de covariância igual ao inverso da matriz de informação de
Fisher.

Para os modelos geralmente utilizados na prática, as variâncias estimadas estão


sintetizadas a seguir:

1 − φˆ12
( )
AR(1): Var φˆ1 ≅
T
1 − θˆ12
( )
MA(1): Var θˆ1 ≅
T

ARMA(1,1): ( )
Var φˆ1 ≅
2
(
1 − φ1 1 − φ1θ1
ˆ

ˆ )
ˆ 2

e Var ( )
θ
2
(
ˆ1 ≅ 1 − θ1 ⋅ 1 − φ1θ1
ˆ ˆ ˆ)2

T ( ˆ )
φ1 − θ1
ˆ 2
T (
φ1 − θ1
ˆ ˆ)2

57
Exemplo 2.3: Série IPCA

Vamos ajustar um modelo ARIMA(1,0,0) à série IPCA

M1=arima(IPCA, order = c(1, 0, 0)) # Ajusta o modelo


M1 # Imprime o modelo

Call:
arima(x = IPCA, order = c(1, 0, 0))
Coefficients:
ar1 intercept
0.4002 0.5627
s.e. 0.0911 0.0860
sigma^2 estimated as 0.2852: log likelihood = -84.01, aic = 174.02

Para calcular o valor-p do coeficiente do AR(1):


2*(1-pt(abs(M1$coef[1]/M1$var.coef[1])))

[1] 2.730559e-05

58
Vamos ajustar um modelo ARIMA(0,0,1) à série IPCA

M2=arima(IPCA, order = c(0, 0, 1)) # Ajusta o modelo


M2 # Imprime o modelo

Call:
arima(x = IPCA, order = c(0, 0, 1))

Coefficients:
ma1 intercept
0.3702 0.5588
s.e. 0.0815 0.0714

sigma^2 estimated as 0.2896: log likelihood = -84.8, aic = 175.59

Para calcular o valor-p do coeficiente do MA(1):


2*(1-pt(abs(M1$coef[1]/M1$var.coef[1])))

[1] 1.517442e-05
59
Exemplo 2.4: Série CELTINS

Vamos ajustar um modelo ARIMA(1,0,1) à série difCELTINS

M1=arima(difCELTINS, order = c(1, 0, 1)) # Ajusta o modelo


M1 # Imprime o modelo

Call:
arima(x = difCELTINS, order = c(1, 0, 1))

Coefficients:
ar1 ma1 intercept
0.6507 -0.8629 0.3608
s.e. 0.1320 0.0880 0.0717
Valor-p 0.0000 0.0000

sigma^2 estimated as 4.204: log likelihood = -288.62, aic = 585.25

60
2.8. Validação do Modelo

Objetivo: Verificar se o modelo estimado para Yt está representando adequadamente o


comportamento da série. Se o modelo for adequado nós o utilizaremos para fins de
previsão. Senão, temos que retornar à fase de identificação.

a) Sobrefixação

Estimamos um modelo com parâmetros extras e examinamos se estes são significativos e


se sua inclusão diminui significativamente a variância residual.

Princípio da parcimônia: entre 2 modelos que se ajustam igualmente bem à uma série
Yt, devemos preferir aquele que tem menor número de parâmetros.

61
Exemplo 2.5: Sobrefixando o modelo AR(1) ajustado à série IPCA

M3=arima(IPCA, order = c(1, 0, 1))


Coefficients:
ar1 ma1 intercept
0.3763 0.0282 0.5625
s.e. 0.3566 0.4041 0.0851
Valor-p 0.2932 0.9445
sigma^2 estimated as 0.2852: log likelihood = -84.01, aic = 176.01

M4=arima(IPCA, order = c(2, 0, 0))


Coefficients:
ar1 ar2 intercept
0.4017 -0.0039 0.5626
s.e. 0.0991 0.0991 0.0857
Valor-p 0.0001 0.9687
sigma^2 estimated as 0.2852: log likelihood = -84.01, aic = 176.02

62
Exemplo 2.6: Sobrefixando o modelo ARIMA(1,1,1) ajustado à série CELTINS

M2=arima(difCELTINS, order = c(2, 0, 1))


Coefficients:
ar1 ar2 ma1 intercept
0.6496 0.055 -0.8894 0.3599
s.e. 0.1292 0.102 0.0967 0.0689
Valor-p 0.0000 0.5906 0.0000
sigma^2 estimated as 4.195: log likelihood = -288.47, aic = 586.95

M3=arima(difCELTINS, order = c(1, 0, 2))


Coefficients:
ar1 ma1 ma2 intercept
0.7132 -0.9456 0.0541 0.3600
s.e. 0.1805 0.1934 0.1157 0.0695
Valor-p 0.0001 0.0000 0.6776
sigma^2 estimated as 4.197: log likelihood = -288.51, aic = 587.03

63
b) Análise de Resíduos

Se o modelo está correto, as nossas suposições iniciais feitas para os resíduos devem ser
satisfeitas, isto é, ut ~ N (0,σ u2 ) e independentes.

Assim, a análise de resíduos é feita da seguinte forma:

1) Faz-se um gráfico da série û t e observa-se a sua estacionariedade e se sua média é


igual a zero (aproximadamente).

2) Se a série û t for estacionária, calcula-se suas funções de autocorrelação e


autocorrelação parcial amostral.

3) Se as funções em (2) indicarem que o processo gerador de û t é um ruído branco, o


modelo escolhido para Yt poderá ser utilizado para fins de previsão ou controle. Senão,
podemos utilizar a análise dos resíduos para identificar outro modelo para a série.

64
Exemplo 2.7: Análise de resíduos para modelo ARIMA(1,0,0) – série IPCA

1.5
M1$resid

0.0
-1.5
1998 2000 2002 2004 2006

Time

Histogram of M1$resid
40
Frequency

20
0

-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5 2.0

M1$resid

Figura 2.6: Gráfico de resíduos e histograma para o modelo ARIMA(1,0,0) - IPCA

65
Series M1$resid

1.0
ACF

0.4
-0.2
0.0 0.5 1.0 1.5 2.0

Lag

Series M1$resid
0.2
Partial ACF

0.0
-0.2

0.5 1.0 1.5 2.0

Lag

Figura 2.7: ACF e PACF dos resíduos do modelo ARIMA(1,0,0) - IPCA

66
Exemplo 2.8: Análise de resíduos para modelo ARIMA(1,0,1) – série difCELTINS

5
M1$resid

0
-5
1986 1988 1990 1992 1994 1996

Time

Histogram of M1$resid
20 40 60
Frequency

-5 0 5

M1$resid

Figura 2.8: Gráfico de resíduos e histograma para o modelo ARIMA(1,0,1) - CELTINS

67
Series M1$resid

1.0
ACF

0.4
-0.2
0.0 0.5 1.0 1.5 2.0

Lag

Series M1$resid
Partial ACF

0.05
-0.15

0.5 1.0 1.5 2.0

Lag

Figura 2.9: ACF e PACF dos resíduos do modelo ARIMA(1,0,1) - CELTINS

68
2.9. Modelos sazonais

Sazonalidade: Tendência do processo em repetir um certo tipo de comportamento dentro


de um período sazonal (geralmente 12 meses para séries mensais, 4 meses para séries
trimestrais, etc.).

a) Modelos MA sazonais

Seja “S” o período sazonal e considere o seguinte modelo MA aplicado à série Yt

Yt = ut − Θ1ut − S − L − ΘQut − QS = (1 − Θ1B S − L − ΘQ B QS )ut

Este modelo tem ordem QS e é conhecido como modelo sazonal MA(Q)S.

69
b) Modelos AR sazonais

Yt − Φ1Yt − S − L − Φ PYt − PS = (1 − Φ1B S − L − Φ P B PS ) = ut

Este modelo tem ordem PS e é conhecido como modelo sazonal AR(P)S.

c) Modelos ARMA sazonais

Yt − Φ1Yt − S − L − Φ PYt − PS = ut − Θ1ut − S − L − ΘQut − QS

Este modelo é o modelo sazonal ARMA(P,Q)S.

70
d) Modelos ARIMA multiplicativos

Este modelo se aplica à maioria das séries sazonais reais, ou seja, realizações de
processos que apresentam correlação serial “dentro” e “entre” períodos sazonais.

Definição: ARIMA(p,d,q)(P,D,Q)S

Φ (B S )φ (B )∇ SD∇ d Yt = Θ(B S )θ (B )ut

( )( )(
⇒ 1 − Φ 1 B S − ... − Φ P B SP 1 − φ1 B − ... − φ p B p 1 − B S )
D
(1 − B )d Yt ( )( )
= 1 − Θ1 B S − ... − Θ Q B SQ 1 − θ1 B − ... − θ q B q u t

onde
( ) (
Φ B S = 1 − Φ1 B S − Φ 2 B 2 S − L − Φ P B PS ; )
φ (B ) = (1 − φ B − φ B
1 2
2
−L −φpB p ; )
∇ = (1 − B ) ;
D
S
S D

∇ = (1 − B )d ;
d

( ) (
Θ B S = 1 − Θ1B S − Θ 2 B 2 S − L − Θ Q B QS ; )
θ (B ) = (1 − θ B − θ B
1 2
2
− L − θq Bq .)

71
Exemplo 2.9: Ajuste do modelo de Box & Jenkins para a série CEP

Time Series Plot of CEP


600

550

500

450
CEP

400

350

300

250
Month jan jan jan jan jan jan jan jan
Year 1980 1982 1984 1986 1988 1990 1992 1994

Figura 2.10: Série CEP

72
ACF e PACF da série CEP

Series CEP

0.6
ACF

0.0 0 1 2 3 4 5

Lag

Series CEP
0.8
Partial ACF

0.2
-0.4

0 1 2 3 4 5

Lag

Figura 2.11: ACF e PACF da série CEP

73
ACF e PACF da série CEP com a primeira diferença

Series dif1CEP

1.0
ACF

0.4
-0.2 0 1 2 3 4 5

Lag

Series dif1CEP
Partial ACF

0.2
-0.4

0 1 2 3 4 5

Lag

Figura 2.12: ACF e PACF da série CEP com uma diferença

74
Ajuste do modelo ARIMA(0,1,0)(1,0,0)12 à série CEP

M1=arima(dif1CEP, order = c(0, 0, 0),seasonal = list(order = c(1, 0, 0)))

Call:
arima(x = dif1CEP, order = c(0, 0, 0), seasonal = list(order = c(1, 0, 0)))

Coefficients:
sar1 intercept
0.8486 2.0909
s.e. 0.0343 2.9426
Valor-p 0.0000 0.4781

sigma^2 estimated as 62.22: log likelihood = -631.33, aic = 1268.65

75
Sobrefixando o modelo ARIMA(0,1,0)(1,0,0)12

M2=arima(dif1CEP, order = c(0, 0, 0),seasonal = list(order = c(1, 0, 1)))


Error in arima(dif1CEP, order = c(0, 0, 0), seasonal = list(order = c(1, :
non-stationary seasonal AR part from CSS

M3=arima(dif1CEP, order = c(0, 0, 0),seasonal = list(order = c(2, 0, 0)))


Coefficients:
sar1 sar2 intercept
0.6380 0.2455 2.1248
s.e. 0.0733 0.0760 3.2344
Valor-p 0.0000 0.0031

sigma^2 estimated as 58.43: log likelihood = -626.33, aic = 1260.67

76
M4=arima(dif1CEP, order = c(1, 0, 0),seasonal = list(order = c(1, 0, 0)))

Coefficients:
ar1 sar1 intercept
-0.2369 0.8650 2.1554
s.e. 0.0733 0.0322 2.5105
Valor-p 0.0015 0.0000

sigma^2 estimated as 58.36: log likelihood = -626.26, aic = 1260.53

M5=arima(dif1CEP, order = c(0, 0, 1),seasonal = list(order = c(1, 0, 0)))

Coefficients:
ma1 sar1 intercept
-0.3109 0.8737 2.1531
s.e. 0.0943 0.0314 2.2301
Valor-p 0.0012 0.0000

sigma^2 estimated as 57.45: log likelihood = -625.25, aic = 1258.49

77
Sobrefixando o modelo M5: ARIMA(0,1,1)(1,0,0)12

M6=arima(dif1CEP, order = c(1, 0, 1),seasonal = list(order = c(1, 0, 0)))


Coefficients:
ar1 ma1 sar1 intercept
0.5484 -0.8766 0.8662 2.0257
s.e. 0.0966 0.0524 0.0324 0.8343
Valor-p 0.0000 0.0000 0.0000

sigma^2 estimated as 53.49: log likelihood = -618.54, aic = 1247.08

M7=arima(dif1CEP, order = c(0, 0, 2),seasonal = list(order = c(1, 0, 0)))


Coefficients:
ma1 ma2 sar1 intercept
-0.3838 -0.2001 0.8814 2.1040
s.e. 0.0773 0.0808 0.0294 1.3932
Valor-p 0.0000 0.0142 0.0000

sigma^2 estimated as 55.65: log likelihood = -622.86, aic = 1255.72

78
M8=arima(dif1CEP, order = c(0, 0, 1),seasonal = list(order = c(1, 0, 1)))
Error in arima(dif1CEP, order = c(0, 0, 1), seasonal = list(order = c(1, :
non-stationary seasonal AR part from CSS

M9=arima(dif1CEP, order = c(0, 0, 1),seasonal = list(order = c(2, 0, 0)))


Coefficients:
ma1 sar1 sar2 intercept
-0.3212 0.6544 0.2500 2.1832
s.e. 0.0952 0.0733 0.0758 2.4066
Valor-p 0.0009 0.0000 0.0012
sigma^2 estimated as 53.78: log likelihood = -620.05, aic = 1250.11

M10=arima(dif1CEP, order = c(1, 0, 1),seasonal = list(order = c(2, 0, 0)))


Coefficients:
ar1 ma1 sar1 sar2 intercept
0.5137 -0.8422 0.6635 0.2338 2.0937
s.e. 0.1022 0.0599 0.0741 0.0772 1.0786
Valor-p 0.0000 0.0192 0.0000 0.0028
sigma ^2 estimated as 50.54: log likelihood = -614.18, aic = 1240.36

79
Melhor modelo para a série CEP:

M10 - ARIMA(1,1,1)(2,0,0)12

(1 − 0.6635B 12
− 0.2338 B 24 )(1 − 0.5137 B )(1 − B )(Yt − 2.0937 ) = (1 + 0.8422 B ) )ut

sigma ^2 estimated as 50.54: log likelihood = -614.18, aic = 1240.36

80
Análise de resíduos para o Modelo M10

M10$resid

10
-10
1980 1985 1990 1995

Time

Histogram of M10$resid
40
Frequency

20
0

-20 -10 0 10 20

M10$resid

Figura 2.13: Gráfico de resíduos e histograma – modelo M10

81
Series M10$resid

1.0
ACF

0.4
-0.2
0 1 2 3 4 5

Lag

Series M10$resid
Partial ACF

0.05
-0.15

0 1 2 3 4 5

Lag

Figura 2.14: ACF e PACF dos resíduos – modelo M10

82
2.10. Previsão

Vamos denotar por YˆT (h ) a previsão para o tempo T+h, dado que observamos a série até
o tempo T.

A previsão nos modelos de Box & Jenkins é feita através do cálculo do valor esperado de
uma observação futura condicionado aos valores passados e ao valor presente da variável,

Yˆt (h ) = E (Yt + h | Yt , Yt −1 , L) = Et [Yt + h ].

Previsão com Erro Médio Quadrático Mínimo

Colocando o modelo na forma de choques aleatórios, temos

83

Yt + h = ∑ ψ j ut + h − j = ψ 0ut + h + ψ 1ut + h −1 + L + ψ h +1ut −1 + L (2.3)
j =0

Calculando a esperança condicional das variáveis da equação (2.3) temos:

Et [Yt + h ] = ψ 0 Et [ut + h ] + ψ 1Et [ut + h −1 ] + L + ψ h Et [ut ] + ψ h +1Et [ut −1 ] + L

porém, sabemos que

[ ] [ ]
Et ut + j = 0 ; j = 1,2,L e Et ut − j = ut − j ; j = 0,1,2,L

Então
Et [Yt + l \ h ] = ψ h ut + ψ h +1ut −1 + L

84
Vamos definir o erro de previsão como
et (h ) = Yt + h − Yˆt (h ). (2.4)

[ ]
Desejamos determinar ψ l + j ; j = 0,1,L tal que E et2 (h ) seja mínimo.

Pode ser provado (Box-Jenkins, 1976) que a previsão ótima (no sentido do erro médio
quadrático mínimo) é aquela em que os ψ h+ j são substituídos por ψˆ h+ j .

Assim, o erro de previsão h-passos à frente será:

et (h ) = ψ 0ut + h + ψ 1ut + h −1 + L + ψ h −1ut +1.

85
Por exemplo, para um ARIMA(1,0,1) (1,0,1)12:

(1 − Φ1B12 )(1 − φ1B )Yt + h = (1 − Θ1B12 )(1 − θ1B )ut + h

(1 − φ1B − Φ1B12 + φ1Φ1B13 )Yt + h = (1 − θ1B − Θ1B12 + θ1Θ1B13 )ut + h

Yt + h = φ1Yt + h −1 + Φ1Yt + h −12 − φ1Φ1Yt + h −13 + ut + h − θ1ut + h −1 − Θ1ut + h −12 + θ1Θ1ut + h −13

Assim, a previsão h passos à frente é dada por:

Yˆt (h) = φ1Et [Yt + h −1 ] + Φ1Et [Yt + h −12 ] − φ1Φ1Et [Yt + h −13 ]

+ Et [ut + h ] − θ1Et [ut + h −1 ] − Θ1Et [ut + h −12 ] + θ1Θ1Et [ut + h −13 ]

86
A expressão acima constitui o modelo geral da previsão. Para sua implementação
computacional, substituímos as diversas esperanças condicionais pelos seus valores
correspondentes satisfazendo às seguintes restrições:

i) Esperança condicional dos Yt's já realizados são as próprias realizações,

[ ] ( )
Et Yt − j = E Yt − j | Yt , Yt −1,L = Yt − j para j = 0, 1, 2, ...

ii) Esperança condicional dos Yt's ainda não realizados são as respectivas previsões,

[ ] ( )
Et Yt + j = E Yt + j | Yt , Yt −1,L = Yˆt ( j ) para j = 1, 2, ...

iii) Esperança condicional dos ut's,

[ ] ( )
Et ut − j = E ut − j | ut , ut −1,L = ut − j , para j = 0, 1, 2, ...

e
[ ] ( )
Et ut + j = E ut + j | ut , ut −1,L = 0 para j = 1, 2, ...

87
Variância da Previsão

Qualquer modelo ARIMA pode ser escrita na forma de uma media móvel infinita, sendo
função dos valores atual e anteriores dos resíduos ut,


Yt = ut + ψ 1ut −1 + ψ 2ut − 2 + L = ∑ ψ j ut − j = ψ (B )ut
j =0

Se o modelo for escrito desta forma, podemos facilmente obter a variância do erro de
previsão como

( )
Var[et ( h )] = Var[ψ 0ut + h + ψ 1ut + h −1 + L + ψ h −1ut +1 ] = ψ 02 + ψ 12 + L + ψ h2−1 σ u2 .

88
Intervalo de Confiança para as Previsões

Suposição:
 

ˆ [(
(Yt + h | Yt , Yt −1 , L) ~ N  Yt (h ); 1 ) ] 2 
ψ 0 + ψ 1 + L + ψ h −1 σ u 
2 2
4444244443
2

 
 σ t2+ h 

Desta forma, um intervalo de confiança de 100(1-α)% para as observações futuras Yt+h é


dado por:
Yˆt (h ) ± zα / 2σ t + h

onde: zα / 2 é o quantil α /2 da distribuição normal e


σ t + h é o desvio-padrão da distribuição de (Yt + h | Yt , Yt −1 , L).

89
Exemplo 2.10: Previsões para a série CELTINS

Vamos fazer previsões para os meses de Mai/96 a Abr/97 da serie CELTINS.


Inicialmente vamos ajustar o modelo a serie reduzida, sem as 12 ultimas observações.

CELTINS=scan('CELTINS.txt')
n=length(CELTINS)-12 # Coloca em n o tamanho da série menos 12 observações
serie=rep(0,n) # Cria a variável “serie”
for(i in 1:n)
serie[i]=CELTINS[i] # Coloca na variavel “serie” a série CELTINS de Jan/86 a Abr/96
serie=ts(serie,start=1986,frequency=12)
difserie=diff(serie)
M1=arima(difserie, order = c(1, 0, 1)) # Ajusta o modelo para a serie diferenciada
M1 # Imprime o modelo

90
Call:
arima(x = difserie, order = c(1, 0, 1))

Coefficients:
ar1 ma1 intercept
0.4704 -0.7493 0.3572
s.e. 0.1954 0.1485 0.0831
Valor-p 0.0230 0.0000 0.0000

sigma^2 estimated as 3.655: log likelihood = -254.34, aic = 516.68

As previsões devem ser feitas ao ajuste para a serie original, assim:

M2=arima(serie, order = c(1, 1, 1)) # Ajusta o modelo para a serie original

install.packages("forecast") # Instala o pacote que calcula as previsões

forecast(M2) # Calcula as previsões

91
Point Forecast Lo 95 Hi 95 Real
May 1996 53.08440 49.20319 56.96560 53
Jun 1996 53.34679 48.46070 58.23287 53
Jul 1996 53.27159 47.41449 59.12869 56
Aug 1996 53.29314 46.64042 59.94586 59
Sep 1996 53.28697 45.91487 60.65906 62
Oct 1996 53.28874 45.26391 61.31356 61
Nov 1996 53.28823 44.65926 61.91720 60
Dec 1996 53.28837 44.09505 62.48169 61
Jan 1997 53.28833 43.56331 63.01335 53
Feb 1997 53.28834 43.05923 63.51746 51
Mar 1997 53.28834 42.57883 63.99785 53
Apr 1997 53.28834 42.11909 64.45760 57

92
Exemplo 2.11: Previsões para a série CEP

Vamos fazer previsões para os meses de Jan/94 a Dez/94 da serie CEP. Inicialmente
vamos ajustar o modelo a serie reduzida, sem as 12 ultimas observações.

CEP=scan('CEP.txt')
n=length(CEP)-12 # Coloca em n o tamanho da série menos 12 observações
serie=rep(0,n) # Cria a variável “serie”
for(i in 1:n)
serie[i]=CEP[i] # Coloca na variavel “serie” a série CEP de Jan/80 a Dez/93
serie=ts(serie,start=1980,frequency=12)

Para o cálculo das previsões, devemos ajustar o modelo a serie original. Assim, o ajuste
deve ser feito como:

M1=arima(serie, order = c(1, 1, 1),seasonal = list(order = c(2, 0, 0))) # Ajusta o modelo


para a serie original

93
M1

Call:
arima(x = serie, order = c(1, 1, 1), seasonal = list(order = c(2, 0, 0)))

Coefficients:
ar1 ma1 sar1 sar2
0.5319 -0.8376 0.6468 0.2640
s.e. 0.1114 0.0678 0.0769 0.0795

sigma^2 estimated as 51.46: log likelihood = -575.87, aic = 1161.74

install.packages("forecast") # Instala o pacote que calcula as previsões

require(forecast) # Carrega o pacote

forecast(M1, 12, level=c(95)) # Calcula as previsões

94
Point Forecast Lo 95 Hi 95 Real
Jan 1994 496.6038 482.5435 510.6642 508
Feb 1994 534.3995 517.2825 551.5164 552
Mar 1994 544.2711 525.5929 562.9493 551
Apr 1994 564.1950 544.4957 583.8943 575
May 1994 575.0215 554.5381 595.5048 595
Jun 1994 570.6433 549.4931 591.7936 585
Jul 1994 562.6874 540.9342 584.4406 582
Aug 1994 572.0760 549.7580 594.3940 587
Sep 1994 585.0079 562.1504 607.8655 591
Oct 1994 583.9829 560.6040 607.3617 593
Nov 1994 556.1322 532.2464 580.0181 571
Dec 1994 551.0778 526.6971 575.4584 565

95
ANEXO: Séries utilizadas nos exemplos.

Tabela A1 – Série do Índice de Preços ao Consumidor Amplo de Belo Horizonte


(jan/97 a out/05) - IPCA

Jan Fev Mar Abr Mai Jun Jul Ago Set Out Nov Dez

1997 1.92 0.88 -0.06 0.69 0.55 0.17 -0.09 0.03 0.19 0.62 0.32 0.81
1998 0.77 0.14 -0.04 0.28 0.63 -0.08 -0.39 -0.59 0.05 -0.10 0.25 0.27
1999 0.01 1.45 0.93 0.44 0.54 0.47 1.29 0.22 0.35 0.59 1.38 0.94
2000 0.63 0.04 -0.05 0.23 0.27 0.17 1.74 1.35 0.13 0.12 0.08 1.13
2001 0.50 -0.01 0.62 1.38 0.28 -0.12 0.60 0.53 0.19 0.87 0.38 0.67
2002 0.84 0.13 0.18 0.88 0.19 0.34 0.77 0.94 0.56 1.56 2.83 1.51
2003 2.52 1.07 1.41 1.00 1.23 -0.67 0.25 0.49 0.45 0.41 -0.07 0.46
2004 0.98 0.31 0.48 0.49 1.25 0.59 0.50 1.05 0.12 0.14 1.08 1.43
2005 0.50 0.16 0.74 0.96 0.76 -0.22 0.26 -0.12 0.13 0.41

96
Tabela A2 - Série do consumo de energia elétrica das Centrais Elétricas do Tocantins
(jan/86 a abr/97) - CELTINS

Jan Fev Mar Abr Mai Jun Jul Ago Set Out Nov Dez

1986 9 9 9 9 9 11 9 11 11 11 11 11
1987 15 12 14 14 15 16 14 14 15 14 14 15
1988 20 16 18 16 18 19 20 20 23 23 22 23
1989 17 16 17 18 18 19 19 19 22 21 20 22
1990 17 17 17 18 18 18 19 19 22 21 21 22
1991 23 23 24 24 24 25 24 32 32 32 32 32
1992 29 31 31 31 31 32 32 30 33 32 31 31
1993 31 31 33 33 34 34 33 34 38 33 38 37
1994 34 33 36 37 39 40 38 38 39 43 42 43
1995 41 42 43 44 42 46 49 53 53 52 53 51
1996 50 48 50 54 53 53 56 59 62 61 60 61
1997 53 51 53 57

97
Tabela A3 - Série do consumo de energia elétrica das Centrais Elétricas do Paraná
(jan/80 a dez/94) - CEP.

Jan Fev Mar Abr Mai Jun Jul Ago Set Out Nov Dez

1980 256 261 275 283 293 290 281 292 289 291 296 286
1981 270 283 285 297 303 302 298 301 302 301 290 288
1982 279 295 293 306 313 314 307 311 313 310 311 313
1983 289 305 318 325 332 324 322 334 335 330 320 306
1984 284 304 331 351 365 353 352 354 346 343 321 318
1985 304 337 343 358 364 363 357 361 358 359 329 337
1986 314 356 357 371 383 375 367 368 378 372 338 340
1987 316 361 366 388 395 403 391 394 403 389 369 365
1988 345 383 400 406 428 424 422 426 423 420 392 396
1989 373 407 413 430 443 446 444 450 448 447 417 411
1990 387 422 429 444 450 451 456 455 452 443 420 423
1991 408 438 464 470 478 482 469 471 474 476 452 451
1992 425 465 474 485 506 499 481 492 514 515 483 481
1993 458 499 510 536 544 540 535 545 556 554 524 517
1994 508 552 551 575 595 585 582 587 591 593 571 565

98
Tabela A4 - Série de precipitação pluviométrica mensal na cidade de Fortaleza
(jan/24 a dez/99) - FORTAL.
Jan Fev Mar Abr Mai Jun Jul Ago Set Out Nov Dez

1924 88.0 265.9 187.2 138.4 153.9 42.1 29.6 2.6 3.1 2.2 1.9 54.9
1925 135.4 81.8 106.8 164.9 168.8 127.0 38.7 79.0 0.0 4.6 1.9 0.6
1926 19.1 1.4 29.2 82.3 13.3 5.0 0.0 1.1 0.0 0.0 0.9 56.5
1927 73.0 44.6 267.7 103.9 136.4 135.8 1.1 1.5 0.0 0.3 9.3 101.7
1928 285.1 195.1 332.1 305.8 170.6 28.5 23.6 1.2 2.0 0.2 26.6 80.5
1929 90.3 126.8 46.9 97.4 66.4 87.0 45.8 62.0 12.1 0.0 1.1 10.2
1930 119.6 7.3 47.1 14.2 15.6 4.6 34.3 16.9 2.1 0.0 0.0 0.0
1931 1.9 5.6 213.3 126.0 167.3 61.9 58.1 0.8 15.0 10.4 4.7 55.6
1932 30.4 166.0 189.5 105.1 288.4 31.4 121.1 2.6 4.5 0.5 48.7 4.2
1933 6.3 38.9 218.0 520.7 238.4 112.9 95.4 18.2 0.0 0.0 24.1 9.7
1934 30.7 149.0 113.0 150.1 20.3 77.8 24.1 0.0 0.0 0.2 0.1 0.4
1935 59.1 199.1 358.7 354.3 177.2 134.2 3.8 23.3 1.3 9.2 6.3 23.7
1936 187.5 120.5 258.4 197.7 77.0 23.0 4.1 3.7 1.4 0.1 1.9 5.3
1937 41.3 168.8 259.8 151.8 114.7 22.6 6.5 0.0 0.0 1.5 1.7 0.8
1938 30.4 142.9 202.5 270.0 89.3 14.1 41.7 0.0 0.0 0.2 0.2 9.5
1939 31.6 11.4 237.7 132.5 93.5 50.1 3.8 0.0 2.7 2.7 2.1 0.1
1940 18.8 153.5 175.9 181.6 146.5 20.8 28.6 1.5 0.0 2.0 3.7 33.7
1941 70.1 36.8 117.2 98.8 9.3 63.7 1.5 0.2 0.0 3.3 0.7 5.3
1942 70.2 79.2 114.4 122.7 46.9 40.7 3.6 12.1 6.8 3.7 0.0 20.2
1943 62.7 54.2 37.5 78.6 14.8 10.3 3.9 0.0 22.7 0.4 0.0 8.5
1944 96.7 71.7 190.1 207.2 43.1 9.9 5.0 1.0 0.0 3.9 2.7 18.1
1945 34.5 274.9 499.4 202.7 225.1 3.7 0.5 0.2 0.7 0.0 0.0 0.0
1946 60.5 199.5 175.3 266.4 55.9 92.5 15.6 15.8 0.8 2.4 1.1 10.3

99
1947 27.0 173.9 232.9 85.9 304.6 150.8 0.0 0.1 0.0 0.2 0.6 4.5
1948 3.1 157.0 69.2 151.5 186.4 63.0 42.4 11.7 0.0 0.3 1.5 1.7
1949 33.9 12.4 391.0 226.3 54.6 71.6 10.5 0.1 0.0 0.1 0.9 11.6
1950 4.5 135.9 207.8 153.4 90.8 43.6 23.2 1.0 11.0 18.6 15.6 2.6
1951 73.6 64.5 248.9 318.3 185.3 116.8 16.8 2.2 0.6 1.0 1.5 0.7
1952 6.2 76.6 144.6 126.8 54.4 13.9 58.3 11.5 0.0 0.1 1.2 1.1
1953 8.9 66.0 77.2 57.5 20.6 17.1 1.7 7.9 0.0 3.0 5.0 90.8
1954 22.2 93.9 111.3 92.5 49.7 15.7 20.3 38.3 26.9 0.0 3.7 6.1
1955 30.7 18.4 221.5 236.2 76.7 33.5 44.3 7.2 0.0 1.0 1.0 45.7
1956 153.0 131.1 99.8 117.0 200.0 64.4 88.5 9.0 0.1 0.2 4.2 24.6
1957 151.5 176.8 63.9 150.0 33.8 41.8 10.2 2.5 0.0 3.1 0.1 56.8
1958 64.8 144.1 281.7 217.1 89.0 28.5 0.0 0.0 11.0 0.0 34.8 58.0
1959 6.2 24.8 184.3 178.1 128.6 63.0 29.2 15.0 5.0 6.1 0.0 0.0
1960 3.8 88.5 153.5 172.6 156.1 47.8 20.5 32.0 11.5 0.0 56.6 0.0
1961 0.0 63.6 295.7 304.2 117.7 8.0 12.0 13.5 4.0 0.0 0.0 0.0
1962 20.6 41.5 27.5 152.0 91.5 120.1 15.2 0.0 0.0 0.0 0.0 61.0
1963 6.0 31.3 222.5 142.0 118.0 10.2 1.5 4.0 0.0 4.0 3.1 22.1
1964 14.0 24.0 32.8 138.7 68.5 38.1 2.0 10.5 0.0 0.0 0.0 0.1
1965 51.5 40.7 89.5 53.4 91.8 11.3 0.4 1.5 0.0 0.0 0.4 0.0
1966 88.2 74.1 135.8 176.8 156.0 1.0 4.5 9.0 2.5 3.3 0.2 3.4
1967 0.4 189.5 274.4 127.4 12.8 1.5 23.5 40.0 0.0 0.0 1.0 2.4
1968 61.6 30.2 283.4 259.9 51.2 5.5 16.0 0.0 0.0 0.0 0.0 4.2
1969 18.1 8.6 51.0 28.8 173.5 15.0 30.0 8.6 5.5 0.0 0.0 0.5
1970 122.0 87.8 147.7 152.0 56.5 39.7 0.5 0.0 0.7 1.2 2.0 6.4
1971 0.6 22.1 352.5 298.7 158.5 23.7 53.7 1.5 2.0 0.0 1.5 6.1
1972 125.6 191.2 216.2 209.8 228.5 4.0 75.7 0.0 0.0 0.1 0.3 0.1
1973 24.0 93.0 240.9 138.9 129.0 47.0 55.8 0.4 1.0 0.0 3.5 100.3
1974 104.4 222.6 273.3 201.1 29.2 53.7 8.1 0.0 0.0 0.0 8.0 54.6

100
1975 245.2 260.4 329.9 297.3 249.7 67.9 37.5 30.0 7.8 0.7 0.8 0.2
1976 118.5 1.7 183.8 380.6 132.2 257.7 11.2 0.0 0.5 6.9 0.0 4.1
1977 9.4 204.7 140.2 197.5 143.8 89.1 76.9 1.5 0.5 0.0 10.5 37.8
1978 17.8 263.9 302.0 303.5 196.6 16.2 0.0 0.2 1.2 0.0 0.3 15.1
1979 153.2 33.1 183.0 53.9 154.8 28.1 60.9 32.0 0.0 6.3 8.3 3.8
1980 105.5 12.1 277.3 171.3 377.7 104.6 90.6 14.1 0.0 0.4 1.0 0.0
1981 73.8 93.5 181.1 132.8 27.6 10.6 8.4 10.9 0.0 1.2 13.6 8.0
1982 46.7 174.0 163.6 149.4 140.5 131.8 73.4 10.2 12.0 2.2 5.2 4.0
1983 48.5 23.9 87.1 202.1 40.6 34.8 0.0 66.4 0.0 1.2 0.0 95.6
1984 38.0 85.7 125.5 311.6 161.6 61.0 53.2 0.0 5.0 11.6 3.4 0.0
1985 163.9 167.4 248.7 222.4 259.4 67.6 23.9 8.4 11.0 9.2 6.0 25.4
1986 95.0 59.0 118.0 180.0 164.0 221.6 166.0 7.5 0.0 0.0 0.0 28.0
1987 13.0 129.1 158.7 128.2 118.6 6.1 3.0 0.3 5.7 0.0 11.7 3.8
1988 83.0 26.0 178.0 130.0 193.0 156.0 73.0 0.0 0.0 0.0 0.0 0.0
1989 9.0 116.0 59.0 93.8 173.0 66.0 39.0 0.0 0.0 0.0 21.0 0.0
1990 31.0 10.0 33.0 102.0 137.0 81.0 17.6 3.7 0.0 1.4 0.0 6.6
1991 29.0 340.0 321.0 74.0 25.0 119.9 3.6 1.4 0.5 2.0 7.9 25.0
1992 85.6 43.5 308.2 41.0 0.0 3.0 1.0 0.0 0.0 0.0 0.0 115.4
1993 79.0 109.0 92.0 159.5 122.0 20.5 0.0 26.7 0.0 0.1 17.4 5.0
1994 7.3 105.9 96.8 51.9 9.0 4.5 1.7 1.2 0.0 0.0 0.0 0.0
1995 44.4 50.6 181.1 444.7 192.4 118.5 51.8 6.3 6.4 0.0 0.0 0.0
1996 164.7 168.0 275.6 465.9 58.3 86.9 117.0 25.2 0.0 5.1 1.8 127.4
1997 18.5 191.1 247.7 360.5 240.7 109.3 35.2 56.8 39.4 4.4 11.3 11.6
1998 35.6 71.7 235.4 60.9 19.1 77.8 13.2 0.0 1.2 0.1 0.0 0.0
1999 42.4 76.5 178.4 188.5 163.3 51.8 40.9 2.0 0.8 0.0 0.0 0.0

101
Bibliografia

Anderson, O.D. (1976) Time Series Analysis and Forecasting: Box and Jenkins Approach. London: Butterwoerths.

Box, G.E.P., Jenkins, G.M. (1976) Time Series Analysis: Forecasting and Control. San Francisco: Holden-Day.

Brockwell, P.J, Davis, R.A. (2002) Introduction to Time series and Forecasting, 2a ed. New York: Springer.

Chatfield, C. (1989) The Analysis of Time Series: An Introduction. London, Chapman and Hall.

Morettin, P. A., Toloi, C. M. (2004) Análise de Séries Temporais. São Paulo: Edgard Blucher.

Nelson, C.R. (1973) Applied Time Series Analysis. San Francisco: Holden-Day.

Pena, D. (2005) Análisis de Series Temporales. Madrid: Alianza Editorial.

Shumway, R. H., Stoffer, D.S. Time Series Analysis and its Applications: With R Examples (2006). New York: Springer.

Wei, W.S. Time Series Analysis: Univariate and Multivariate Methods (1990) Addison-Wesley Publishing Company.

102

Você também pode gostar