Você está na página 1de 38

APOSTILA SOBRE

MODELAGEM BOX AND JENKINS

Glaura C. Franco
Depto. Estatística - UFMG

1
Sumário

1. Séries Temporais ............................................................................................................... 4


1.1 Análise no domínio do tempo ............................................................................. 4
1.2 Operadores .......................................................................................................... 5
1.3 Estacionariedade e Ergodicidade ........................................................................ 5
1.4 Ruído Branco ...................................................................................................... 6
1.5 Transformação Box – Cox .................................................................................. 6

2. Modelo de Box & Jenkins ................................................................................................. 7


2.1 Tipos de modelos ................................................................................................. 8
2.2 Estacionariedade dos Modelos Box & Jenkins ................................................... 8
2.3 Inversibilidade dos Modelos Box & Jenkins ....................................................... 9
2.4 Modelos não estacionários ARIMA .................................................................. 10
2.5 Formas do modelo ARIMA ............................................................................... 11
2.6 Exercícios .......................................................................................................... 11

3. Funções de Autocorrelação e Autocorrelação Parcial .................................................... 13


3.1 Função de Autocorrelação (FAC) ..................................................................... 13
3.2 Função de Autocorrelação Parcial (FACP) ....................................................... 14
3.3 Exercícios .......................................................................................................... 16

4. Identificação de Modelos ................................................................................................ 17

4.1 Escolha de d ....................................................................................................... 17


4.2 Escolha de p e q ................................................................................................. 17
4.3 Teste de hipóteses para ρk e φkk ..................................................................... 18
4.4 Exercícios .......................................................................................................... 19

5. Estimação de Parâmetros ................................................................................................ 20

5.1 Método de Mínimos Quadrados ........................................................................ 20


5.2 Método dos Momentos ...................................................................................... 21
5.3 Método de Máxima Verossimilhança ................................................................ 22
5.4 Exercícios .......................................................................................................... 23

6. Validação do Modelo ...................................................................................................... 24

6.1 Sobrefixação ...................................................................................................... 24


6.2 Critérios de adequação ...................................................................................... 24
6.3 Análise de Resíduos .......................................................................................... 25
6.4 Teste de Box-Pierce (ou Ljung-Box) ................................................................ 25
6.5 Uso dos resíduos para modificar o modelo ....................................................... 26
6.6 Exemplo ............................................................................................................. 26
6.7 Exercícios .......................................................................................................... 29

2
7. Previsão ........................................................................................................................... 30

7.1 Previsão com Erro Médio Quadrático Mínimo ................................................. 31


7.2 Variância das Previsões ..................................................................................... 32
7.2 Cálculo das Previsões ........................................................................................ 33
7.3 Atualização das Previsões ................................................................................. 33
7.4 Limites de Confiança para as Previsões ............................................................ 34
7.5 Exercícios .......................................................................................................... 35

8. Modelos Sazonais ............................................................................................................ 36

Bibliografia ......................................................................................................................... 38

3
Capítulo 1: Séries temporais

Definição: Uma Série Temporal é um conjunto de observações geradas sequencialmente no


tempo.

Uma série temporal pode ser observada como uma realização parcial de um processo
estocástico.

Característica principal: as variáveis são dependentes.

Denotaremos a série temporal por Y1 , Y2 ,..., YT onde T é o tamanho da série. Trabalharemos


com séries temporais a tempo discreto, onde os dados são coletados diariamente,
semanalmente, mensalmente ou anualmente.

Objetivos: - Modelagem;
- Previsão e controle de qualidade;
- Periodicidade.

1.1. Análise no domínio do tempo

Mede a magnitude do evento que ocorre em determinado instante de tempo. Utiliza as


funções de autocovariância e autocorrelação.

Autocovariância: É a covariância entre Yt e o seu valor Yt-k separado por k intervalos de


tempo.

γ k = Cov[Yt , Yt −k ] = E ([Yt − µ ][Yt −k − µ ]), k = 0, ± 1, ± 2,...

Se temos uma série, o estimador amostral aproximadamente não-tendencioso (para grandes


amostras) da autocovariância é dado por:

∑ (Yt − Y )(Yt −k − Y )
1 T
γˆk =
T t =k +1
Como a autocovariância é uma função par, temos que para todo inteiro k, γk = γ−k . Portanto,
é necessário determinar γk apenas para k ≥ 0.

4
Autocorrelação: a autocorrelação é a autocovariância padronizada. Serve para medirmos o
comprimento e a memória de um processo, ou seja, a extensão para a qual o valor tomado
no tempo t depende daquele tomado no tempo t-k,

γk Cov[Yt , Yt −k ]
ρk = = .
γ0 Var (Yt )Var (Yt −k )

Claramente, ρ0 = 1 e ρk = ρ−k . Um estimador amostral da autocorrelação de defasagem


k é dado por:
γˆk
ρˆ k = , k = 0,1,2,...
γˆ0

1.2. Operadores

a) Operador de retardo ou de translação para o passado: representa uma defasagem de k


períodos de tempo para trás. É denotado por B e definido por:

B k Yt = Yt −k .

b) Operador de avanço ou de translação para o futuro: representa uma defasagem de k


períodos de tempo para frente. É denotado por F e definido por:

F k Yt = Yt + k .

c) Operador diferença: é uma transformação nos dados que consiste em tomar diferenças
sucessivas da série original. É denotado por ∇ e definido por

∇ d Yt = (1 − B ) Yt .
d

1.3. Estacionariedade e Ergodicidade

Se o processo estocástico que gerou a série de observações é invariante com respeito ao


tempo, diz-se que o mesmo é estacionário. Um processo estacionário pode ser classificado
em:

a) Estritamente estacionário: Quando as séries Yt e Yt+k estão distribuídas identicamente


qualquer que seja k.

b) Fracamente estacionário (ou estacionário de segunda ordem): quando a sua função valor
médio é constante e sua função de covariância depende somente da diferença, em valor
absoluto de t s − t j .

5
Em termos práticos, uma série é fracamente estacionária quando ela se desenvolve no
tempo ao redor de uma média e variância constantes, indicando um padrão de equilíbrio.
Assim, uma série Yt será estacionária se os dois primeiros momentos forem constantes ao
longo do tempo, ou seja,
E (Yt ) = µ ,
Var (Yt ) = σ 2 .

Se o processo for Gaussiano e estacionário de segunda ordem, ele será estritamente


estacionário.

Não Estacionariedade Homogênea: Um processo é estacionário homogêneo se, ao


tomarmos suas diferenças sucessivas, encontramos um processo estacionário.

Ergodicidade: Um processo estocástico é dito "ergódico" se apenas uma realização do


mesmo é o suficiente para se obter todas as estatísticas do mesmo.

1.4. Ruído Branco

O processo ut, t = 0,1,... é um ruído branco se i) E[ ut ] = 0, ii) E[ ut2 ] = σ u2 < ∞ e


iii) E[ ut , ut +k ] = 0, para k = ± 1, ± 2, L

Além disto, ρk = 1 para k = 0 e ρk = 0 , para k = ± 1, ± 2, L

1.5. Transformação Box - Cox

Para séries temporais que não apresentam variância constante, é necessário transformar a
série original para estabilizá-la. Através da transformação Box-Cox, pode-se obter uma
série mais simétrica e com variância constante, ou seja, próxima da distribuição normal,
quando valores apropriados de λ na equação abaixo são encontrados,

 Yt λ − c
(λ)  , se λ ≠ 0
Yt = λ
log Y , se λ = 0
 t

O valor de λ e c são parâmetros a serem estimados. O λ é obtido a partir de uma varredura


sobre um intervalo de valores possíveis, no qual procura-se identificar aquele que apresente
a menor soma dos quadrados dos resíduos.

6
Capítulo 2: Modelo de Box & Jenkins

A metodologia de Box & Jenkins (1976) está fundamentada em quatro passos:

1. Identificação: Identifica-se um modelo apropriado para a série em questão;


2. Estimação: Estima-se os parâmetros do modelo identificado;
3. Verificação do modelo: é necessário checar a adequação do modelo através da análise
de resíduos;
4. Previsão: o modelo final é usado para prever futuros valores da série.

A modelagem proposta por Box & Jenkins é da forma


Yt = µ + ∑ ψ k u t −k = µ + ψ (B )u t
k =0

onde o filtro linear ψ é definido por

θ (B )
ψ (B ) =
φ (B )

onde θ ( B ) = 1 − θ1 B − θ 2 B 2 − L − θ q B q e φ ( B ) = 1 − φ1 B − φ2 B 2 − L − φ p B p são polinômios


~
de graus q e p, respectivamente. Chamando Yt = Yt − µ , temos
Yt = ψ (B )u t .
~

Desta forma, os modelos de Box & Jenkins são dados por:

φ (B )Yt = θ (B )ut
~
(2.1)

onde u t é um ruído branco, geralmente Gaussiano. De acordo com Box & Jenkins, o
modelo (2.1) é denominado ARMA(p,q). De (2.1) pode-se escrever:

Yt = θ (B ).φ −1 (B )ut .
~

A partir deste ponto vamos assumir, sem perda de generalidade, que µ = 0 .

7
2.1. Tipos de modelos

a) Modelos Médias Móveis (MA)

O modelo que tem φ (B ) ≡ 1 é chamado Modelo Médias Móveis.

Notação: MA(q)

O nome Médias Móveis vem do fato que Yt é uma função soma algébrica
ponderada dos ut que se movem no tempo.

b) Modelos Auto-Regressivos (AR)

O modelo que tem θ (B ) ≡ 1 é chamado Modelo Auto-Regressivo.

Notação: AR(p)

O nome Auto-Regressivo se deve ao fato de que Yt no instante t é função dos Y's


nos instantes anteriores a t.

c) Modelos Auto-Regressivos - Médias Móveis (ARMA)

É o modelo que tem tanto uma parte AR (φ (⋅) ≠ 1) como uma parte MA (θ (⋅) ≠ 1) .

Notação: ARMA(p,q)

2.2. Estacionariedade dos Modelos Box & Jenkins

Proposição 1: Um processo estocástico Yt = ψ (B )ut será estacionário se a série


ψ (B ) = ∑ ψ k B k
k =0

converge para B < 1 .

8
a) Estacionariedade dos modelos MA

Como ψ (B ) = θ (B ) para modelos MA, a convergência de ψ (B ) para B < 1 é trivial,


pois ψ (B ) é uma soma finita. Portanto, podemos dizer que todo modelo MA é
estacionário.

b) Estacionariedade dos modelos AR

Os modelos AR devem ter as raízes do polinômio ψ −1 (B ) = φ (B ) = 0 fora do círculo


unitário como condição de estacionariedade.

c) Estacionariedade dos modelos ARMA

Um modelo ARMA(p,q) será estacionário se φ (B ) satisfizer as condições de


estacionariedade de um modelo AR.

2.3. Inversibilidade dos Modelos Box & Jenkins

Vamos inicialmente expressar o modelo geral ARMA na forma inversa, isto é, expressando
o ruído ut em função de Yt :

ut = φ (B )θ −1 (B )Yt = π (B )Yt

Proposição 2: Um processo estocástico ut = π (B )Yt será inversível se a série



π (B ) = ∑ π j B j
j =0

converge para B < 1 .

a) Inversibilidade dos modelos AR

Como π (B ) = φ (B ) para modelos AR, a convergência de π (B ) para B < 1 é trivial,


pois π (B ) é uma soma finita. Portanto, podemos dizer que todo modelo AR é
inversível.

9
b) Inversibilidade dos modelos MA

Os modelos MA devem ter as raízes do polinômio π −1 (B ) = θ (B ) = 0 fora do círculo


unitário como condição de inversibilidade.

c) Inversibilidade dos modelos ARMA

Um modelo ARMA(p,q) será inversível se θ (B ) satisfizer as condições de


inversibilidade de um modelo MA.

2.4. Modelos não estacionários ARIMA

Um processo não estacionário homogêneo é dado por

∇Yt = (1 − B )Yt = wt

onde ∇ é um polinômio do tipo AR, ∇ = (1 − B ) , em que a condição de estacionariedade


foi violada.

φ (B ) = 0 ⇒ B = 1.

Se wt = ∇ d Yt é estacionária, podemos representar wt por um modelo ARMA(p,q), ou seja,

φ (B )wt = θ (B )ut (2.2)

Dizemos que Yt segue um modelo Auto-Regressivo - Integrado - Média Móvel, ou


ARIMA(p,d,q).

No modelo (2.2), todas as raízes de φ (B ) estão fora do círculo unitário.

Seja ξ (B ) o operador auto-regressivo não estacionário de ordem p+d:

ξ (B )Yt = θ (B )ut
onde
ξ (B ) = φ (B )∇ d = φ (B )(1 − B )d

Portanto o modelo ARIMA supõe que a d-ésima diferença da série Yt pode ser representada
por um modelo ARMA, estacionário e inversível. Na maioria dos casos usuais, d = 1 ou 2.

10
2.5. Formas do modelo ARIMA

O modelo ARIMA pode ser representado de 3 formas.

a) Forma de Equação de Diferenças

Representado em termos de valores prévios de Yt e do valor atual. É bastante utilizado para


calcular previsões.

Yt = ξ1Yt −1 + L + ξ p+ d Yt − p −d + ut − θ1ut −1 − L − θ q ut −q

b) Forma de Choques Aleatórios

Representado em termos do valor atual e prévio de ut . É uma forma conveniente para se


calcular a variância dos erros de previsão.

Yt = ut + ψ1ut −1 + ψ 2ut −2 + L = ψ (B )ut

c) Forma Invertida

Representada em termos dos valores prévios de Yt e do valor atual de ut .

π (B )Yt = Yt − π1Yt −1 − π 2Yt −2 − L = ut

2.6. Exercícios

1) Os seguintes processos são estacionários? Justifique.


1.1) Yt = u t + u t −1 u t ~ i.i.d . N 0, σ 2 ( )
1.2) Yt = Yt −1 + u t ut ~ i.i.d . N (0, σ )
2

1.3) Yt − Yt −1 + 0,5Yt −2 = ut ut ~ i.i.d . N (0, σ )


2

2) Seja o modelo MA(1):


Yt = ut − 0,9ut −1
Para este modelo pede-se:
2.1) É estacionário?
2.2) É inversível?
2.3) Calcule os pesos π1 , π 2 , L , π 5 do modelo AR( ∞ ) equivalente.

11
3) Seja o modelo AR(1):
Yt = 0,8Yt −1 + ut
Para este modelo pede-se:
3.1) É estacionário?
3.2) É inversível?
3.3) Calcule os pesos ψ1 , ψ 2 , L , ψ 5 do modelo MA( ∞ ) equivalente.

4) Seja o modelo MA(2) inversível aplicado a Yt:

Yt = ut + 0,9ut −1 − 0,5ut −2

Pede-se determinar a sequência π1 , π 2 , L , π 5 do polinômio π (B ) correspondente.

5) Seja o modelo AR(2) estacionário aplicado a Yt:

Yt = Yt −1 − 0,21Yt −2 + ut

Pede-se determinar a sequência ψ1 , ψ 2 , L , ψ 5 do polinômio ψ (B ) correspondente.

6) Seja o modelo linear para Yt:

Yt = 0,1Yt −1 + 0,9Yt −2 + ut
Para este modelo pede-se:
6.1) Verificar as condições de estacionariedade.
6.2) Em caso de não estacionariedade, como torná-lo estacionário?

12
Capítulo 3: Funções de Autocorrelação e Autocorrelação Parcial

3.1 Função de Autocorrelação (FAC)

Seja wt uma série temporal estacionária. A função de autocovariância para wt , como visto
na Seção 1.1, é dada por:

Função de Autocovariância:

γ k = Cov(wt , wt −k ) = E ([wt − E (wt )][wt −k − E (wt −k )])

Assumindo que E (wt ) = E (wt −k ) = 0 , temos

γ k = E ([wt ][wt −k ]) .

A função de autocorrelação, também vista na Seção 1.1 é dada por:

Função de Autocorrelação (FAC):

γk
ρk = , k = 0, 1, 2,...
γ0
onde γ0 = Var (wt ) .

a) Modelos AR:

A função de autocorrelação de um AR(p) é dada por:

ρ k = φ1 ρ k −1 + φ2 ρ k −2 + L + φ p ρ k − p

ou seja, ρk satisfaz à equação:

φ (B ).ρ k = 0 onde φ (B ) = 1 − φ1 B − φ2 B 2 − L − φ p B p .

Assim, para modelos AR as autocorrelações decrescem exponencialmente, podendo


ou não ter componentes senoidais amortecidas.

13
b) Modelos MA:

A função de autocorrelação de um MA(q) é dada por:

 − θk + θ1θk +1 + L + θq −k θ q
 ; k = 1,2, L , q
ρk =  1 + θ12 + L + θq2
 ; k>q
 0

A função de autocorrelação do modelo MA(q) apresenta "q" picos (valores)


diferentes de zero (isto é, para k=1,2,...,q) e é identicamente nula para k > q.

c) Modelos ARMA:

Como um modelo ARMA é uma mistura de modelos AR e MA, sua função de


autocorrelação é uma combinação das autocorrelações dos processos componentes.

3.2. Função de Autocorrelação Parcial (FACP)

A idéia de autocorrelação pode ser estendida. Se medirmos a correlação entre duas


observações seriais, Yt e Yt + k , eliminando a dependência dos termos intermediários,
Yt +1 , Yt + 2 ...Yt + k −1 , temos o que se denomina autocorrelação parcial, representada por:

( )
Cov Yt , Yt − k Yt −1 ...., Yt −( k +1) .

Equações de Yule-Walker:

 ρ1 = φ1 + φ2 ρ1 + L + φ p ρ p −1
 ρ = φ ρ +φ +L+φ ρ
 2 1 1 2 p p −2

 L

 ρ p = φ1 ρ p −1 + φ2 ρ p−2 + L + φ p

Consideremos o sistema de equação de Yule-Walker reescrito como a seguir:

14
 1 ρ1 L ρ k −1  φ k1   ρ1 
ρ 1 L ρ k −2  φ k 2   ρ 2 
 1 × =
 M M O M   L  L 
     
 ρ k −1 ρ k −2 L 1  φ kk   ρ k 

A autocorrelação parcial de um processo é definida como a sequência dos φkk 's obtidos pela
resolução das equações acima, para k = 1,2,3,...

Usando a regra de Cramer para k = 1,2,3,... temos:

φ11 = ρ1

1 ρ1
p1 ρ2
φ22 =
1 ρ1
p1 1

1 ρ1 ρ1
ρ1 1 ρ2
ρ2 ρ1 ρ3
φ33 =
1 ρ1 ρ2
ρ1 1 ρ1
ρ2 ρ1 1

Em geral,

Pk*
φkk = ,
Pk

onde | . | é o determinante da matriz, Pk é a matriz de autocorrelação e Pk* é a matriz Pk


com a última coluna substituída pelo vetor de autocorrelações.

15
3.3. Exercícios

1) Seja o modelo MA(1):


Yt = ut − 0,9ut −1 onde u t ~ N (0,2 )
Calcule as sequências γ k e ρ k , k = 0,1,...,5.

2) Seja o modelo AR(1):


Yt = 0,8Yt −1 + ut
Calcule as sequências γ k e ρ k , k = 0,1,...,5.

3) Sabe-se que os valores das 5 primeiras autocorrelações teóricas de um processo são:

ρ1 = 0,70 ρ2 = 0,49 ρ3 = 0,34 ρ4 = 0,24 ρ5 = 0,17


Que modelo ARMA(p,q) originou estes coeficientes?
Obs.: Os valores p e q são pequenos.

5) Seja o modelo AR(2) estacionário aplicado a Yt:

Yt = φ1Yt −1 + φ 2Yt − 2 + u t

Sabendo-se que φ1 = 0,7 e ρ 2 = 0,6 , é possível deduzir o valor de φ 2 ?

6) Determine a função de autocorrelação do seguinte processo estocástico:

Yt = 14 + u t + 0,4ut −1 − 0,2ut −2

7) Calcule as primeiras 5 autocorrelações para um processo AR(2) com:


a) φ1 = 0,6 , φ2 = −0,2 ;
b) φ1 = −0,6 , φ2 = 0,2 .
Esboce as funções de autocorrelação.

8) a) Esboce a função de autocorrelação do processo


Yt = −0,5Yt −1 + ut − 0,8ut −1
b) Ache os coeficientes ψ j da representação MA infinita.

9) O modelo
Yt = −0,2Yt −1 + 0,48Yt −2 + u t + 0,6ut −1 − 0,16ut −2
está sobre-parametrizado?

10) Seja o processo AR(2) aplicado a Yt . Sendo conhecida a primeira autocorrelação


parcial φ11 = 0,9 e sabendo-se que ρ2 = 0,8 pede-se determinar φ22 .

16
Capítulo 4: Identificação de Modelos

A identificação da ordem do modelo ARIMA(p,d,q) se faz através das funções de


autocorrelação (FAC) e autocorrelação parcial (FACP).

4.1 Escolha de d

Se uma série apresenta não-estacionariedade, as autocorrelações estimadas terão valores


absolutos altos para todos os lags. Neste caso, aplicamos sucessivamente o operador
diferença à série e calculamos sua autocorrelação, que indicará quando uma série com
características de um processo estacionário foi obtida.

4.2 Escolha de p e q

Uma vez que o grau d tenha sido identificado, o passo seguinte será a escolha dos graus p e
q dos polinômios φ (B ) e θ (B ) do modelo ARMA aplicado à série wt = ∇ d Yt .

A identificação de p e q é feita comparando-se o comportamento dos estimadores das


( )
autocorrelações ( ρ̂ k ) e das autocorrelações parciais φˆkk com as correspondentes funções
teóricas.

Obs.: A maioria das séries estacionárias, na prática, apresentam p + q ≤ 2 .

Na Tabela 4.1 são apresentados os comportamentos esperados da FAC e FACP de alguns


modelos da classe ARMA mais comuns.

Modelo FAC FACP


MA(1) 1 pico no lag 1
(ρ 1 ≠ 0) Decrescimento exponencial
AR(1) Decrescimento exponencial 1 pico no lag 1 (φ11 ≠ 0 )
MA(2) 1 pico no lag 1 e 1 pico no lag 2 Mistura de exponenciais ou ondas
( ρ 1 ≠ 0 e ρ 2 ≠ 0) senóides amortecidas
AR(2) Mistura de exponenciais ou 1 pico no lag 1 e 1 pico no lag 2
ondas senóides amortecidas
(φ11 ≠ 0
e φ 22 ≠ 0 )
ARMA(1,1) Decrescimento exponencial Decrescimento exponencial
Tabela 4.1 - Comportamento teórico da FAC e FACP para alguns modelos

17
4.3. Teste de hipóteses para ρ k e φkk

Para o processo estacionário Gaussiano, a fórmula de Bartlett diz que

1 k −1 2
Var (ρˆ k ) ≈ ∑ ρi . (4.1)
T i =− ( k −1)

Para T suficientemente grande, se ρk = 0 , então a distribuição de ρ̂ k é aproximadamente


normal, isto é:

ρˆ k ~ N [0; Var (ρˆ k )].

Substituindo ρk por ρ̂ k em (4.1), temos

k −1
1 
Var ( ρˆ k ) ≈ 1 + 2∑ ρˆ i2  .
T i =1 

Com relação às autocorrelações parciais, a fórmula de Quenouille determina que a


variância dos φkk 's para lags k suficientemente grandes é dada por:

Var (φkk ) ≈
1
.
T

Exemplo 4.1: A partir de uma série temporal formada por 144 observações, obteve-se os
seguintes resultados:

k 1 2 3 4 5
ρ̂ k -0,490 -0,040 -0,026 0,009 0,013
e.p.( ρ̂ k )
0,08 0,10 0,10 0,10 0,10
φˆkk -0,490 -0,318 -0,277 -0,159 0,113
e.p.( φˆkk ) 0,08 0,08 0,08 0,08 0,08

Como houve um corte rápido no coeficiente de autocorrelação a partir do lag k = 1, e


os coeficientes de autocorrelação parcial têm um decaimento exponencial, pode-se
dizer que a série temporal foi gerada por um processo MA(1).

18
4.4 Exercícios

1) Numa série temporal de tamanho 100 obteve-se os seguintes valores para as primeiras 5
autocorrelações amostrais:

ρˆ1 = 0,75 ρˆ 2 = 0,09 ρˆ 3 = 0,04 ρˆ 4 = 0,02 ρˆ 5 = 0,01

Pede-se determinar:
a) A significância destes ρ̂i estimados a um nível de 95%.
b) Calcule as 3 primeiras autocorrelações parciais φˆii , i=1,2,3 pelas equações de Yule-
Walker e verifique a significância destas a um nível de 95%.
c) Que modelo ARMA(p,q) pede ter gerado estes dados?

2) A partir de uma série temporal de tamanho 200 obteve-se os seguintes estimadores da


FAC e FACP:

k 1 2 3 4 5
ρ̂ k -0,909 0,727 -0,540 0,454 -0,364
φkk -0,909 -0,317 -0,225 -0,136 -0,410

Pede-se verificar a significância destes estimadores e em seguida identificar um


possível modelo gerador destes dados.

3) Para uma série temporal de tamanho 100 ajustou-se o seguinte modelo:

∇Yt = (1 − 0,324 B )ut

Os estimadores da FAC e FACP dos resíduos estimados foram:

k 1 2 3 4 5
ρ̂ k -0,508 0,013 -0,032 -0,015 0,043
φkk -0,508 -0,329 -0,220 -0,143 -0,093

Pelo exposto, você consideraria este modelo ajustado adequado?

19
Capítulo 5: Estimação de Parâmetros

Consideremos o modelo ARMA(p,q).

φ p (B )Yt = θ q (B )ut

onde φ e θ são polinômios de grau, p e q, respectivamente, e


ut é um processo ruído branco, com E (ut ) = 0 e Var (ut ) = σ u2 .

Vamos estimar:

φ p (B ) = (φ1 , φ2 , L , φ p ), θq (B ) = (θ1 , θ2 , L , θq ) e σ u2 = E (ut2 ) .

5.1. Método de Mínimos Quadrados

a) Modelo AR(1)

Consideremos o modelo AR(1):

Yt = φ1Yt −1 + ut

Para calcular os estimadores de mínimos quadrados, devemos minimizar a soma de


quadrados das diferenças

ut = Yt − φ1Yt −1

Dado T observações, a soma de quadrados de t = 2 a t = T é:

T T
S (φ ) = ∑ ut2 = ∑ [Yt − φ1Yt −1 ] .
2

t =2 t =2

Derivando em relação a φ e igualando a zero temos:

∑Y Y t t −1
φˆ1 = t =2
T
.
∑Y
t =2
2
t −1

20
b) Modelo MA(1)

Consideremos o modelo MA(1):

Yt = ut + θ1ut −1

Colocando o modelo na forma invertida:

(
ut = 1 + θ1 B + θ12 B 2 + L Yt )
Para T valores observados Y1 , L , YT temos:

( )
T T
S (θ ) = ∑ ut2 = ∑ Yt + θ1Yt −1 + θ12Yt −2 + L
2

t =2 t =2

⇒ Utilizar procedimento numérico para minimizar S (θ ) .

5.2. Método dos Momentos

Consiste em substituir a média amostral Y , a variância amostral γ̂0 e a correlação amostral


ρ̂ k nas equações do modelo e resolver estas equações.

a) Modelo AR(p)

Usar a relação

ρ k = φ1 ρ k −1 + φ 2 ρ k −2 + L + φ p ρ k − p , k>1 (Equação de Yule-Walker)

para obter o seguinte sistema de equações:

 ρ1 = φ1 + φ2 ρ1 + L + φ p ρ p −1 
 ρ = φ ρ +φ +L+φ ρ 
 2 1 1 2 p p −2 

 L 
 
 ρ p = φ1 ρ p −1 + φ2 ρ p−2 + L + φ p 

Substituindo ρk por ρ̂ k , obtemos as estimativas φˆ1 L , φˆp resolvendo o sistema de


equações:

21
−1
 φˆ1   1 ρˆ1 L ρˆ p−1   ρˆ1 
ˆ     ρˆ 
φ2  =  ρˆ1 1 L ρˆ p −2 
× 
2
L  M M M  L 
     
φˆp   ρˆ p −1 ρˆ p −2 L 1   ρˆ p 

b) Modelo MA(1)

Yt = ut + θ1ut −1

θ1
Neste modelo: ρ1 = −
1 + θ12

− 1 ± 1 − 4 ρˆ12
Substituindo ρ1 por ρ̂1 : θˆ1 =
2 ρˆ1

Obs.: - Os estimadores de momentos dos modelos MA(q) e ARMA(p,q) são mais


complicados que no AR(p).
- Os estimadores são muito sensíveis a arredondamentos.

5.3. Método de Máxima Verossimilhança

Para o modelo ARMA(p,q) temos

ut = wt − φ1wt −1 − L − φ p wt − p + θ1ut −1 + L + θ q ut −q .

Sob a suposição de normalidade dos u t , temos que a função densidade conjunta de


u1 , u 2 ,L, uT é
 T
u t2 
f (u1 ,L , uT ) = (2π ) (σ u )−T exp− ∑
−T / 2
.
 t =1 2σ u2 

Os estimadores dos parâmetros são obtidos maximizando-se a verossimilhança acima, o


que deve ser feito através de procedimentos numéricos. Para isto, é necessário obter valores
iniciais para os wt e u t . Esta questão de valores iniciais pode ser resolvida por meio de dois
procedimentos: um condicional, em que os valores iniciais desconhecidos são substituídos
por valores que supomos serem razoáveis; outro, incondicional, em que os valores iniciais
são estimados utilizando um procedimentos denominado “backforecasting”.

22
Variância dos estimadores

Uma avaliação da precisão dos parâmetros assim estimados pode ser feita a partir da
variância desses estimadores e da construção dos respectivos intervalos de confiança e teste
de hipóteses.

Da teoria de inferência estatística sabe-se que os estimadores de máxima verossimilhança


têm distribuição aproximadamente normal, se T é grande, com esperança igual ao
verdadeiro parâmetro e matriz de covariância igual ao inverso da matriz de informação de
Fisher.

Para os modelos geralmente utilizados na prática, as variâncias estimadas estão sintetizadas


a seguir:

( )
AR(1): Var φ1 ≅
ˆ 1 − φˆ12
T

( )
AR(2): Var φˆ2 ≅
1 − φˆ22
T

( )
MA(1): Var θˆ1 ≅
1 − θˆ12
T

( )
MA(2): Var θˆ2 ≅
1 − θˆ22
T

ARMA(1,1): Var φ1 ≅
ˆ () (
1 − φˆ12 1 − φˆ1θˆ1

2
) ( )
e Var θ1 ≅
ˆ (
1 − θˆ12 1 − φˆ1θˆ1

)2

T (
φˆ1 − θˆ1
2
) T (
φˆ1 − θˆ1)2

5.4. Exercícios

1) Como você estimaria θ e φ em um modelo ARMA(1,1) utilizando as duas primeiras


autocorrelações amostrais?

2) Determinar os estimadores de Mínimos Quadrados para φ1 e φ2 em um modelo AR(2).

3) Seja a seguinte série temporal:

Y1= 14 Y2= 27,6 Y3= 7,7 Y4= 0,4 Y5=17,8 Y6=10,5 Y7=13,6 Y8=9 Y9=6,8 Y10=13,7

Estime θ de um modelo MA(1) usando o método dos Momentos.

4) Seja a seguinte série temporal:

Y1= 28,2 Y2= 19,2 Y3= 28 Y4= 22,4 Y5=31,9 Y6=30,7 Y7=11,2 Y8=1 Y9=8,8 Y10=18

Estime φ de um modelo AR(1) usando o método de Mínimos Quadrados.

23
Capítulo 6: Validação do Modelo

Objetivo: Verificar se o modelo estimado para a série Yt está representando adequadamente


o comportamento da série temporal em estudo. Se o modelo for adequado nós o
utilizaremos para fins de previsão. Senão, termos que retornar à fase de identificação.

6.1. Sobrefixação

Estimamos um modelo com parâmetros extras e examinamos se estes são significativos e se


sua inclusão diminui significativamente a variância residual.

O resultado da aplicação deste procedimento pode ser resumido como abaixo:


1) Aceitamos como correto o modelo testado quando o modelo com parâmetros adicionais
está sobre-identificando o modelo testado.
2) Rejeitamos a hipótese do modelo identificado ser correto, caso as estimativas dos
parâmetros adicionais sejam coerentes.

Princípio da parcimônia: entre 2 modelos que se ajustam igualmente bem à uma série Yt,
devemos preferir aquele que tem menor número de parâmetros.

6.2 Critérios de Adequação

Uma estatística muito utilizada para verificar a adequação de um modelo é o Critério de


Akaike (AIC). O AIC é dado por:

AIC = T ln σˆ u2 + 2 p

onde p = número de parâmetros do modelo.

O melhor modelo é aquele que apresenta menor AIC.

Problema: O AIC tende a superestimar o número de parâmetros no modelo. Assim, pode-


se calcular o AIC corrigido:

AIC = T ln σˆ u2 + T
(1 + p / T )
1 − ( p + 2) / T

24
6.3. Análise de Resíduos

A análise de resíduos é feita da seguinte forma:

• Constrói-se a série de resíduos estimados ( ût ) através da aplicação do modelo que for
escolhido para representar a série. Aplica-se o método de Box-Jenkins para a série de
resíduos estimados.

Se o modelo está correto, as nossas suposições iniciais feitas para os resíduos devem ser
( )
satisfeitas, isto é, ut ~ N 0, σu2 e independentes.

Neste caso, procedemos da seguintes forma:

1) Faz-se um gráfico da série ût e observa-se a sua estacionariedade e se sua média é igual
a zero (próximo).

2) Se a série ût for estacionária, calcula-se as suas funções de autocorrelação e


autocorrelação parcial amostral.

3) Se as funções em (2) indicarem que o processo gerador de ût é um ruído branco, o


modelo escolhido para Yt poderá ser utilizado para fins de previsão ou controle. Senão,
podemos utilizar a análise dos resíduos para identificar outro modelo para a série.

6.4. Teste de Box-Pierce (ou Ljung-Box)

A partir da série dos resíduos estimados podemos calcular as k primeiras autocorrelações


dos resíduos, isto é:
ρˆ i (uˆ ) ; i = 1,2,L, k

O teste proposto por Box-Pierce assume que, se o modelo fixado é correto, então a
estatística:
k
Q = N ∑ ρˆ i2 (uˆ )
i =1

que foi modificado por Ljung e Box (1978) para

ρˆ i2 (uˆ )
k
Q = N ( N + 2 )∑
i =1 N − k

tem, aproximadamente, uma distribuição Qui-Quadrado com M = k - (p+q) graus de


liberdade e N = T - d é o número de termos da série estacionária.

A hipótese de ruído branco é rejeitada para valores grandes de Q.

25
6.5. Uso dos resíduos para modificar o modelo

Seja o modelo ajustado


φˆ(B )wt = θˆ(B ) bt

onde bt são os resíduos do modelo proposto.

Se bt não é ruído branco, podemos utilizar os métodos de identificação para ajustar um


modelo para os resíduos

φ * (B ) bt = θ * (B ) ut

onde ut é ruído branco.

Então bt = θ * (B )φ *−1 (B ) ut .

Assim, o novo modelo a ser tentado para wt é

φ (B )wt = θ (B )θ * (B )φ *−1ut

⇒ φ (B )φ * (B )wt = θ (B )θ * (B ) ut .

6.6. Exemplo

Seja a série CELTINS (Centrais Elétricas do Tocantins) no período de jan/86 a abr/97


(T=136 observações mensais). Na Figura 6.1 encontra-se o gráfico e a FAC da série. A
partir destes dois gráficos podemos constatar que a série não é estacionária. Assim, é
necessário tomar a primeira diferença da série.

Autocorrelation Function for celtins


1,0
Autocorrelation

0,8
0,6
0,4
60 0,2
0,0
-0,2
-0,4
50 -0,6
-0,8
-1,0
40
celtins

4 14 24 34

30 Lag Corr T LBQ Lag Corr T LBQ Lag Corr T LBQ Lag Corr T LBQ

1 0,97 11,28 130,14 10 0,72 2,22 1037,66 19 0,51 1,27 1551,41 28 0,33 0,77 1795,16
20 2 0,94 6,49 254,55 11 0,70 2,08 1111,60 20 0,48 1,19 1588,69 29 0,31 0,73 1812,19
3 0,92 4,97 373,68 12 0,68 1,95 1181,30 21 0,46 1,12 1622,77 30 0,30 0,69 1827,74
4 0,89 4,14 487,36 13 0,65 1,83 1246,48 22 0,43 1,05 1653,64 31 0,28 0,64 1841,60
10 5 0,86 3,57 593,86 14 0,63 1,71 1307,14 23 0,41 1,00 1682,16 32 0,27 0,61 1854,41
6 0,83 3,17 694,45 15 0,61 1,62 1364,12 24 0,40 0,95 1708,68 33 0,26 0,59 1866,49
7 0,80 2,85 788,66 16 0,58 1,52 1416,86 25 0,38 0,91 1733,23 34 0,25 0,57 1877,87
Index 20 40 60 80 100 120
8 0,78 2,60 876,84 17 0,56 1,43 1465,65 26 0,36 0,86 1755,57
9 0,75 2,39 959,76 18 0,53 1,35 1510,47 27 0,35 0,82 1776,29

Figura 6.1: Gráfico da série e Função de Autocorrelação amostral

26
10

dif-1(celtins)
0

-10
Index 20 40 60 80 100 120

Autocorrelation Function for dif-1(celtin Partial Autocorrelation Function for dif-1(celtin

Partial Autocorrelation
1,0 1,0
Autocorrelation

0,8 0,8
0,6 0,6
0,4 0,4
0,2 0,2
0,0 0,0
-0,2 -0,2
-0,4 -0,4
-0,6 -0,6
-0,8 -0,8
-1,0 -1,0

2 12 22 32 2 12 22 32

Lag Corr T LBQ Lag Corr T LBQ Lag Corr T LBQ Lag Corr T LBQ Lag PAC T Lag PAC T Lag PAC T Lag PAC T

1 -0,18 -2,12 4,59 10 -0,09 -1,02 10,58 19 -0,10 -0,99 18,67 28 -0,03 -0,25 32,52 1 -0,18 -2,12 10 -0,14 -1,62 19 -0,07 -0,78 28 -0,00 -0,05
2 -0,00 -0,00 4,59 11 0,05 0,56 10,98 20 -0,09 -0,95 20,02 29 -0,06 -0,60 33,18 2 -0,03 -0,40 11 -0,05 -0,53 20 -0,14 -1,68 29 -0,07 -0,83
3 -0,07 -0,77 5,25 12 0,15 1,60 14,27 21 0,17 1,73 24,59 30 0,09 0,92 34,76 3 -0,08 -0,90 12 0,12 1,42 21 0,09 1,05 30 0,05 0,62

4 -0,06 -0,66 5,74 13 0,08 0,86 15,27 22 -0,13 -1,32 27,39 31 -0,11 -1,07 36,93 4 -0,09 -1,04 13 0,12 1,43 22 -0,13 -1,46 31 -0,02 -0,28
5 -0,12 -1,35 7,81 14 -0,04 -0,38 15,46 23 0,10 0,95 28,89 32 -0,01 -0,05 36,93 5 -0,16 -1,86 14 0,02 0,25 23 0,00 0,05 32 -0,03 -0,38
6 -0,03 -0,35 7,95 15 0,05 0,50 15,82 24 0,07 0,67 29,65 33 -0,02 -0,23 37,04 6 -0,11 -1,22 15 0,08 0,89 24 0,01 0,08 33 -0,04 -0,48

7 -0,04 -0,45 8,19 16 -0,08 -0,84 16,80 25 0,01 0,05 29,66 7 -0,10 -1,17 16 0,00 0,04 25 -0,05 -0,53

8 -0,02 -0,27 8,28 17 -0,04 -0,42 17,05 26 -0,10 -1,03 31,50 8 -0,10 -1,19 17 0,02 0,18 26 -0,15 -1,76
9 0,01 0,11 18 0,01 0,17 27 -0,00 -0,04
9 0,08 0,91 9,29 18 -0,03 -0,35 17,23 27 0,07 0,71 32,41

Figura 6.2: Gráfico da série com a primeira diferença, Função de Autocorrelação e Função
de Autocorrelação Parcial amostrais da série com a primeira diferença

A Figura 6.2 apresenta os gráficos referentes à primeira diferença da série. Através do


gráfico da série e da FAC, podemos observar que a série se tornou estacionária. Ainda na
Figura 6.2, podemos ver que existe apenas um pico significativo no primeiro lag de cada
um dos gráficos da FAC e FACP. Isto nos leva ao ajuste inicial de um modelo
ARIMA(1,1,1) aos dados. O modelo é apresentado abaixo:

Modelo1:
Estimativas dos Parâmetros
Tipo Coef e.p. Coef T P
AR 1 0,6563 0,1245 5,27 0,000
MA 1 0,8699 0,0796 10,93 0,000
Constante 0,1240 0,0234 5,30 0,000

Resíduos: Variância = 4,299

1a Sobrefixação: Ajuste do modelo ARIMA(2,1,1)

Modelo2:
Estimativas dos Parâmetros
Tipo Coef e.p. Coef T P
AR 1 -0,8728 21,1516 -0,04 0,967
AR 2 -0,1258 3,9359 -0,03 0,975
MA 1 -0,6868 21,1564 -0,03 0,974
Constante 0,7030 0,3084 2,28 0,024

Resíduos: Variância = 4,520

27
2a Sobrefixação: Ajuste do modelo ARIMA(1,1,2)

Modelo3:
Estimativas dos Parâmetros
Tipo Coef e.p. Coef T P
AR 1 0,7270 0,1350 5,38 0,000
MA 1 0,9624 0,1521 6,33 0,000
MA 2 -0,0601 0,1132 -0,53 0,596
Constante 0,09826 0,01847 5,32 0,000

Resíduos: Variância = 4,324

Pelos resultados acima, verificamos que o melhor modelo é o ARIMA(1,1,1). A Figura 6.3
mostra os gráficos de FAC e FACP dos resíduos, onde podemos verificar que não existe
autocorrelação na série dos ruídos.

2
resíduos

-2

-4

-6

-8
Index 20 40 60 80 100 120

Autocorrelation Function for resíduos Partial Autocorrelation Function for resíduos


Partial Autocorrelation

1,0 1,0
Autocorrelation

0,8 0,8
0,6 0,6
0,4 0,4
0,2 0,2
0,0
0,0
-0,2
-0,2
-0,4
-0,4
-0,6
-0,6
-0,8
-0,8
-1,0
-1,0

2 12 22 32
2 12 22 32
Lag PAC T Lag PAC T Lag PAC T Lag PAC T
Lag Corr T LBQ Lag Corr T LBQ Lag Corr T LBQ Lag Corr T LBQ
1 -0,03 -0,31 10 -0,05 -0,63 19 -0,11 -1,27 28 0,03 0,31
1 -0,03 -0,31 0,10 10 -0,05 -0,55 4,27 19 -0,12 -1,28 16,32 28 -0,04 -0,40 27,01 2 0,08 0,97 11 0,06 0,71 20 -0,14 -1,62 29 -0,04 -0,43
2 0,08 0,98 1,09 11 0,08 0,94 5,30 20 -0,11 -1,15 18,24 29 -0,07 -0,73 27,93 3 -0,00 -0,04 12 0,18 2,11 21 0,09 1,10 30 0,08 0,91
3 -0,01 -0,09 1,09 12 0,17 1,89 9,56 21 0,12 1,27 20,66 30 0,06 0,60 28,56 4 -0,03 -0,39 13 0,11 1,31 22 -0,13 -1,47 31 -0,02 -0,20
4 -0,03 -0,30 1,19 13 0,10 1,14 11,21 22 -0,12 -1,28 23,17 31 -0,11 -1,14 30,88 5 -0,10 -1,11 14 -0,02 -0,23 23 0,02 0,22 32 -0,02 -0,21
5 -0,09 -1,09 2,45 14 -0,01 -0,13 11,24 23 0,07 0,76 24,09 32 -0,02 -0,22 30,97 6 -0,02 -0,27 15 0,02 0,26 24 0,00 0,03 33 -0,02 -0,19
6 -0,02 -0,26 2,52 15 0,04 0,44 11,49 24 0,05 0,53 24,54 33 -0,03 -0,30 31,15 7 -0,01 -0,16 16 -0,06 -0,69 25 -0,05 -0,61
7 -0,03 -0,32 2,64 16 -0,09 -0,92 12,62 25 -0,01 -0,06 24,54 8 -0,00 -0,06 17 -0,04 -0,48 26 -0,12 -1,42
8 -0,01 -0,07 2,64 17 -0,07 -0,70 13,29 26 -0,10 -1,05 26,38 9 0,09 1,07 18 -0,04 -0,51 27 0,05 0,54
9 0,09 1,06 3,92 18 -0,07 -0,72 14,00 27 0,05 0,45 26,73

Figura 6.3: Gráfico dos resíduos do modelo ARIMA(1,1,1) juntamente com a FAC e a
FACP

28
6.7. Exercícios

1) A série abaixo (leia na horizontal) refere-se ao consumo de energia elétrica da CEP


(Centrais Elétricas do Paraná) no período de jan/80 a mar/95. Ajuste o melhor modelo Box-
Jenkins, faça a adequação do modelo, juntamente com uma análise de resíduos.

211 218 226 229 230 232 232 248 217 212 173 172 180 174 187 171 172 192
200 177 169 176 177 176 185 191 179 190 190 183 188 200 193 180 181 195
198 197 213 212 213 209 195 197 193 197 191 215 211 232 244 257 227 235
224 216 220 223 228 241 257 254 255 257 271 264 251 228 233 226 235 249
236 265 247 271 226 256 226 256 272 253 216 260 239 264 273 276 237 235
260 232 215 243 211 254 255 261 236 227 205 255 196 190 232 224 238 215
246 286 288 285 269 278 294 281 276 284 290 289 289 329 325 298 290 272
247 249 242 277 289 261 292 280 278 274 271 284 251 305 322 265 270 302
263 283 282 278 312 289 302 285 291 289 261 298 299 305 336 338 350 345
346 348 344 335 333 371 362 342 340 344 358 343 355 348 313 322 325 364
346 330 335

2) A partir de uma série temporal formada por 100 observações, foi ajustado o seguinte
modelo:
∇Yt = (1 − 0,75 B )ut
Os coeficientes das funções ACF e PACF dos resíduos estão apresentados no quadro
abaixo:
k 1 2 3 4 5
ρ̂k -0,500 0,330 -0,220 -0,150 0,430
φˆ -0,500 -0,030 -0,020 -0,010 -0,001
kk

Pode-se considerar adequado o modelo ajustado? Caso contrário, use os resíduos para
modificar o modelo proposto.

29
Capítulo 7: Previsão

Cálculo do valor esperado de uma observação futura condicionado aos valores passados e
ao valor presente da variável. Ou seja, chamando de Yˆt (l ) o valor previsto para um
horizonte de l períodos de tempo futuros e t o período de origem da previsão, então,

Yˆt (l ) = E[Yt + l | Yt , Yt −1 ,L] .

O valor de Y no tempo t+l é obtido pela equação do modelo ARIMA.

Já vimos que o modelo φ (B )∇ d Yt = θ (B ) ut pode ser escrito em 3 formas diferentes:


{
wt

a) Forma de Equação de Diferenças


O valor atual da série Yt é função de valores anteriores Yt-j e valores atual e anteriores dos
resíduos ut.
Yt = ξ1Yt −1 + L + ξ p + d Yt − p − d + ut − θ1ut −1 − L − θqut − q (7.1)

b) Forma de Choques Aleatórios


O valor atual da série Yt é função dos valores atual e anteriores dos resíduos ut.

Yt = ut + ψ1ut −1 + ψ 2 ut − 2 + L = ∑ ψ j ut − j = ψ (B )ut (7.2)
j =0

c) Forma Invertida
O valor atual da série Yt é função de valores anteriores Yt-j e do valor atual do resíduo ut.

π (B )Yt = Yt − π1Yt −1 − π 2Yt − 2 − L = ∑ π j Yt − j = ut (7.3)
j =0

Notação:
Yt+l: l ≥ 1: Valor teórico a ser previsto l-passos à frente a partir da origem t.
Yt(l): previsão obtida pelo modelo do valor Yt+l (previsão feita na origem t, l-passos à
frente).
A equação geral de previsão é obtida diretamente da equação (7.1) para t+l.

30
7.1. Previsão com Erro Médio Quadrático Mínimo

Seja Yt(l) uma função linear das observações presentes e passadas da série Yt. Colocando o
modelo na forma de choques aleatórios, temos


Yt + l = ∑ ψ j ut +l − j = ψ 0ut +l + ψ1ut +l −1 + L + ψ l +1ut −1 + L (7.4)
j =0

Vamos denotar por Et [Yt +l ] o valor esperado de Yt+l, condicional ao conhecimento das
observações até o instante t, isto é:

Et [Yt +l ] = E [Yt +l | Yt , Yt −1 ,L, Y1 ]

Aplicando este operador à equação (7.4) teremos:

Et [Yt + l ] = ψ 0 Et [ut + l ] + ψ1 Et [ut + l −1 ] + L + ψ l Et [ut ] + ψ l +1 Et [u t −1 ] + L

porém, sabemos que

[ ] [ ]
Et ut + j = 0 ; j = 1,2, L e Et u t − j = ut − j ; j = 0,1,2,L

Então
Et [Yt + l ] = ψ l ut + ψ l +1ut −1 + L

Vamos definir o erro de previsão como


et (l ) = Yt +l − Yˆt (l ) .

[
Desejamos determinar ψl + j ; j = 0,1, L tal que E et2 (l ) seja mínimo. ]

Pode ser provado (Box-Jenkins, 1976) que a previsão ótima (no sentido do erro médio
quadrático mínimo) é aquela em que os ψ l + j são substituídos por ψˆ l + j .

31
Assim, o erro de previsão l-passos à frente et(l) será:

et (l ) = ψ 0ut +l + ψ1ut +l −1 + L + ψ l −1ut +1 . (7.5)

7.2. Variância da Previsão

Podemos também facilmente obter a variância da previsão Yˆt (l ) através dos erros de
previsão da equação (7.5), ou seja:

[ ] [ ]
Var Yˆt (l ) = Var [et (l )] = Et et2 (l ) = Et [ψ 0 ut +l + ψ1ut +l −1 + L + ψ l −1ut +1 ] .
2

Sendo os ut's não-correlacionados, com média nula e variância σ u2 temos

Var [et (l )] = (ψ 02 + ψ12 + L + ψ l2−1 )σ u2 .

Os resíduos ut's podem ser obtidos através das previsões e erros para l=1 passo à frente.

Da equação (7.5) podemos escrever para et(1):

et (1) = Yt +1 − Yˆt (1) = ψ 0u t +1 = ut +1 pois ψ0 = 1 .

Assim, o resíduo ut+1 é o erro da previsão de Yt+1 feita na origem t.

32
7.3. Cálculo das Previsões

Sendo a previsão feita com erro médio quadrático mínimo, podemos então obter a
expressão para Yˆt (l ) = E (Yt +l | Yt , Yt −1 ,L) = Et [Yt +l ] diretamente da equação (7.1) como
segue:

[ ] [
Yˆt (l ) = ξ1 Et [Yt +l −1 ] + L + ξ p +d Et Yt +l − p −d + Et [ut +l ] − θ1 Et [ut +l −1 ] − L − θ q Et ut +l −q ]
A expressão acima constitui o modelo geral da previsão. Para sua implementação
computacional, substituímos as diversas esperanças condicionais pelos seu valores
correspondentes satisfazendo às seguintes restrições:

i) Esperança condicional dos Yt's já realizados são as próprias realizações, isto é,

[ ]
Et Yt − j = E (Yt − j | Yt , Yt −1 ,L) = Yt − j para j = 0, 1, 2, ...

ii) Esperança condicional dos Yt's ainda não realizados são as respectivas previsões, isto é,

[ ]
Et Yt + j = E (Yt + j | Yt , Yt −1 ,L) = Yˆt ( j ) para j = 1, 2, ...

iii) Esperança condicional dos ut's,

[ ]
Et ut − j = E (ut − j | u t , ut −1 ,L) = ut − j , para j = 0, 1, 2, ...

[ ]
Et ut + j = E (ut + j | u t , ut −1 ,L) = 0 para j = 1, 2, ...

7.4. Atualização das Previsões

Quando Yt+1 é observado, as previsões anteriores feitas na origem t podem ser facilmente
atualizadas para a origem t+1 com o uso dos pesos ψ j 's.

Considerando a forma de choques aleatórios, temos

Yˆt (l + 1) = ψ 0 Et [u t +l +1 ] +ψ 1 Et [ut +l ] + L + ψ l −1 Et [ut + 2 ] +ψ l Et [u t +1 ] +ψ l +1 Et [ut ] + L

33
e
Yˆt +1 (l ) = ψ 0 E t +1 [u t +l +1 ] + ψ 1 Et +1 [u t +l ] + L + ψ l −1 Et +1 [u t + 2 ] + ψ l Et +1 [u t +1 ] + ψ l +1 Et +1 [u t ] + L

Aplicando as regras (i), (ii) e (iii) obtemos, para l ≥ 1 :

Yˆt (l + 1) = ψ l +1u t + ψ l + 2 u t −1 + L

e
Yˆt +1 (l ) = ψ l u t +1 + ψ l +1u t + ψ l + 2 u t −1 + L

Subtraindo as duas expressões acima temos:


Yˆt +1 (l ) = Yˆt (l + 1) + ψ l u t +1

7.5. Intervalo de Confiança para as Previsões

Suposição:

 
(Yt +l ˆ
[( 2 
| Yt , Yt −1 , L) ~ N  Yt (l ); ψ 0 + ψ 1 + L + ψ l −1 σ u 
2 2
1444424444
2
3
) ]

 σ t2+ l 

Desta forma, um intervalo de confiança de 100(1-α)% para as observações futuras Yt+l é


dado por:

Yˆt (l ) ± zα / 2σ t +l

onde: zα / 2 é o quantil α /2 da distribuição normal e

σ t +l é o desvio-padrão da distribuição de (Yt + l | Yt , Yt −1 ,L) .

34
7.6. Exercícios

1) Para uma série temporal ajustou-se o seguinte modelo ARIMA(0,1,1)


∇Yt = (1 + 0,8B )u t
Expressar YT + l através de:
i) Forma de equação de diferenças;
ii) Forma de choques aleatórios;
iii) Forma invertida.

2) Idêntico à questão (1), só que aplicado ao modelo ARIMA(1,1,1) da forma:


(1 − 0,5B )(1 − B )Yt = (1 + 0,6 B )ut

3) Seja eT +l|T = YT +l − YT (l ) o erro de previsão l- passos à frente cometido na origem T e


eT + l |T − j = YT + l − j − YT − j (l ) o erro de previsão l-passos à frente cometido na origem T-j.
Verifique se estes erros estão correlacionados.

4) Se uT = 1,5, calcule previsões 1 e 2 passos à frente para o modelo:


Yt = ut + 0,5ut −1 + 100

5) Dado que YT = 2,0, YT-1 = 1,0 e uT = 0,3, calcule previsões 1, 2 e 3 passos à frente para o
modelo:
Yt = 0,6Yt −1 + 0,2Yt −2 + u t + 0,6ut −1

6) Calcule previsões e seus EQM’s para um modelo AR(2) com φ1 = 0,5, φ2 = - 0,2 e σ2 =
3, para l =1,2 e 3, se YT = 2, YT-1 = 1.

7) A partir de 110 observações da série temporal Yt estimou-se o seguinte modelo:

Yt = u t + 0,5u t −1 + 0,4ut −2 + 18 com σ 2 = 4.

Sabendo-se que u109 = 1,9 e u110 = 1,7, pede-se:


i) As previsões para os instantes 111, 112 e 113 feitas na origem t=110;
ii) Calcule o EQM das previsões calculadas em (i);
iii) Sabendo que u111 = 1,8, atualize as previsões para o instante 112.

35
Capítulo 8: Modelos sazonais

Sazonalidade: Tendência do processo em repetir um certo tipo de comportamento dentro


de um período sazonal (geralmente 12 meses para séries mensais, 4 meses para séries
trimestrais, etc.).

a) Modelos MA sazonais

Seja “S” o período sazonal e considere o seguinte modelo MA aplicado à série Yt

( )
Yt = ut − Θ1u t −S − L − Θ Q ut −QS = 1 − Θ1 B S − L − Θ Q B QS u t

Este modelo tem ordem QS e é conhecido como modelo sazonal MA(Q)S.

b) Modelos AR sazonais

Yt − Φ1Yt − S − L − Φ PYt − PS = (1 − Φ1 B S − L − Φ P B PS ) = ut

Este modelo tem ordem PS e é conhecido como modelo sazonal AR(P)S.

c) Modelos ARMA sazonais

Yt − Φ1Yt − S − L − Φ PYt − PS = ut − Θ1ut −S − L − Θ Q ut −QS

Este modelo é o modelo sazonal ARMA(P,Q)S.

d) Modelos ARIMA multiplicativos

Este modelo se aplica à maioria das séries sazonais reais, ou seja, realizações de processos
que apresentam correlação serial “dentro” e “entre” períodos sazonais.

Definição: ARIMA(p,d,q)(P,D,Q)S

Φ (B S )φ (B )∇ SD ∇ d Yt = Θ(B S )θ (B )ut

onde
( ) (
Φ B S = 1 − Φ1 B S − Φ 2 B 2 S − L − Φ P B PS )
φ (B ) = (1 − φ1 B − φ2 B 2 − L − φ p B p )
∇ SD = (1 − B S )
D

∇ d = (1 − B )
d

36
Θ(B S ) = (1 − Θ1 B S − Θ 2 B 2 S − L − Θ Q B QS )
(
θ (B ) = 1 − θ1 B − θ 2 B 2 − L − θ q B q )

Exercício: Os dados abaixo correspondem à série de temperatura de Belo Horizonte no


período de jan/72 a dez/89 (Unidade de medida: Graus Celsius). Ajuste o melhor modelo
Box-Jenkins, faça a adequação do modelo, juntamente com uma análise de resíduos.

25,0 23,6 24,4 23,2 26,1 25,5


24,1 24,6 23,7 24,6 26,8 25,5
24,3 24,7 24,5 24,2 24,8 24,5
21,3 22,0 23,0 22,0 23,4 23,9
20,9 20,4 20,2 21,0 24,0 22,7
21,0 19,8 19,5 19,1 21,9 20,4
19,7 18,6 20,2 18,5 21,1 21,5
21,9 21,4 21,1 20,7 20,8 22,5
21,5 22,0 21,5 23,5 21,9 22,6
23,5 23,5 23,5 21,9 24,2 25,9
23,5 22,3 22,9 22,8 24,5 24,3
24,2 23,9 23,1 23,6 23,7 22,7
25,4 25,3 22,2 22,7 22,6 25,3
25,8 24,0 23,3 24,5 25,0 24,4
23,3 21,9 23,4 22,0 24,3 24,5
23,4 23,4 22,4 21,6 23,4 23,8
21,5 21,5 21,8 19,8 21,8 23,0
21,6 21,3 18,8 21,0 18,6 20,1
20,1 19,6 19,0 20,1 19,0 18,7
22,8 21,5 21,5 21,9 21,9 20,7
22,0 21,8 21,4 22,2 22,4 24,1
22,1 22,3 24,1 23,2 24,3 22,9
22,7 23,2 23,5 26,8 23,5 22,4
23,8 22,7 24,0 22,9 23,1 23,6
24,2 23,5 23,4 22,9 24,4 24,7
25,1 25,1 24,3 24,3 24,8 24,6
23,3 25,4 24,9 23,5 25,5 24,3
22,7 23,2 22,5 23,1 24,1 24,4
21,6 20,6 22,2 22,4 22,8 21,1
19,5 20,4 19,8 21,8 20,1 20,0
19,4 20,7 20,6 20,9 19,7 19,3
21,1 23,0 21,6 21,1 21,9 20,6
24,0 22,0 22,1 22,0 21,7 23,6
23,4 24,2 24,6 22,2 24,5 22,4
24,0 23,7 22,9 22,9 24,1 22,8
22,2 24,0 23,6 22,9 23,4 22,6
Obs.: Os dados são lidos na vertical

37
Bibliografia

ANDERSON, O.D. (1976) Time Series Analysis and Forecasting: Box and Jenkins
Approach. London: Butterwoerths.

BOWERMAN, B.L., O’CONNELL, R.T. (1993) Forecasting and Time Series: an Applied
Approach, 3a. ed. Wadsworth, Inc.

BOX, G.E.P. and JENKINS, G.M. (1976) Time Series Analysis: Forecasting and Control.
San Francisco: Holden-Day.

BROCKWELL, P.J, DAVIS, R.A. (2002) Introduction to Time series and Forecasting, 2a
ed. New York: Springer.

CHATFIELD, C. (1989) The Analysis of Time Series: An Introduction. London, Chapman


and Hall.

MORETTIN, P. A., TOLOI, C. M. (2004) Análise de Séries Temporais. São Paulo: Edgard
Blucher.

NELSON, C.R. (1973) Applied Time Series Analysis. San Francisco: Holden-Day.

PEÑA, D. (2005) Análisis de Series Temporales. Madrid: Alianza Editorial.

POLE, A., WEST, M., HARRISON, J. (1994) Applied Bayesian Forecasting and Time
Series Analysis, Chapman and Hall.

WEI, W.S. Time Series Analysis: Univariate and Multivariate Methods (1990) Addison-
Wesley Publishing Company.

38