Escolar Documentos
Profissional Documentos
Cultura Documentos
Glaura C. Franco
Depto. Estatística - UFMG
1
Sumário
2
7. Previsão ........................................................................................................................... 30
Bibliografia ......................................................................................................................... 38
3
Capítulo 1: Séries temporais
Uma série temporal pode ser observada como uma realização parcial de um processo
estocástico.
Objetivos: - Modelagem;
- Previsão e controle de qualidade;
- Periodicidade.
∑ (Yt − Y )(Yt −k − Y )
1 T
γˆk =
T t =k +1
Como a autocovariância é uma função par, temos que para todo inteiro k, γk = γ−k . Portanto,
é necessário determinar γk apenas para k ≥ 0.
4
Autocorrelação: a autocorrelação é a autocovariância padronizada. Serve para medirmos o
comprimento e a memória de um processo, ou seja, a extensão para a qual o valor tomado
no tempo t depende daquele tomado no tempo t-k,
γk Cov[Yt , Yt −k ]
ρk = = .
γ0 Var (Yt )Var (Yt −k )
1.2. Operadores
B k Yt = Yt −k .
F k Yt = Yt + k .
c) Operador diferença: é uma transformação nos dados que consiste em tomar diferenças
sucessivas da série original. É denotado por ∇ e definido por
∇ d Yt = (1 − B ) Yt .
d
b) Fracamente estacionário (ou estacionário de segunda ordem): quando a sua função valor
médio é constante e sua função de covariância depende somente da diferença, em valor
absoluto de t s − t j .
5
Em termos práticos, uma série é fracamente estacionária quando ela se desenvolve no
tempo ao redor de uma média e variância constantes, indicando um padrão de equilíbrio.
Assim, uma série Yt será estacionária se os dois primeiros momentos forem constantes ao
longo do tempo, ou seja,
E (Yt ) = µ ,
Var (Yt ) = σ 2 .
Para séries temporais que não apresentam variância constante, é necessário transformar a
série original para estabilizá-la. Através da transformação Box-Cox, pode-se obter uma
série mais simétrica e com variância constante, ou seja, próxima da distribuição normal,
quando valores apropriados de λ na equação abaixo são encontrados,
Yt λ − c
(λ) , se λ ≠ 0
Yt = λ
log Y , se λ = 0
t
6
Capítulo 2: Modelo de Box & Jenkins
∞
Yt = µ + ∑ ψ k u t −k = µ + ψ (B )u t
k =0
θ (B )
ψ (B ) =
φ (B )
φ (B )Yt = θ (B )ut
~
(2.1)
onde u t é um ruído branco, geralmente Gaussiano. De acordo com Box & Jenkins, o
modelo (2.1) é denominado ARMA(p,q). De (2.1) pode-se escrever:
Yt = θ (B ).φ −1 (B )ut .
~
7
2.1. Tipos de modelos
Notação: MA(q)
O nome Médias Móveis vem do fato que Yt é uma função soma algébrica
ponderada dos ut que se movem no tempo.
Notação: AR(p)
É o modelo que tem tanto uma parte AR (φ (⋅) ≠ 1) como uma parte MA (θ (⋅) ≠ 1) .
Notação: ARMA(p,q)
∞
ψ (B ) = ∑ ψ k B k
k =0
8
a) Estacionariedade dos modelos MA
Vamos inicialmente expressar o modelo geral ARMA na forma inversa, isto é, expressando
o ruído ut em função de Yt :
ut = φ (B )θ −1 (B )Yt = π (B )Yt
9
b) Inversibilidade dos modelos MA
∇Yt = (1 − B )Yt = wt
φ (B ) = 0 ⇒ B = 1.
ξ (B )Yt = θ (B )ut
onde
ξ (B ) = φ (B )∇ d = φ (B )(1 − B )d
Portanto o modelo ARIMA supõe que a d-ésima diferença da série Yt pode ser representada
por um modelo ARMA, estacionário e inversível. Na maioria dos casos usuais, d = 1 ou 2.
10
2.5. Formas do modelo ARIMA
Yt = ξ1Yt −1 + L + ξ p+ d Yt − p −d + ut − θ1ut −1 − L − θ q ut −q
c) Forma Invertida
2.6. Exercícios
11
3) Seja o modelo AR(1):
Yt = 0,8Yt −1 + ut
Para este modelo pede-se:
3.1) É estacionário?
3.2) É inversível?
3.3) Calcule os pesos ψ1 , ψ 2 , L , ψ 5 do modelo MA( ∞ ) equivalente.
Yt = ut + 0,9ut −1 − 0,5ut −2
Yt = Yt −1 − 0,21Yt −2 + ut
Yt = 0,1Yt −1 + 0,9Yt −2 + ut
Para este modelo pede-se:
6.1) Verificar as condições de estacionariedade.
6.2) Em caso de não estacionariedade, como torná-lo estacionário?
12
Capítulo 3: Funções de Autocorrelação e Autocorrelação Parcial
Seja wt uma série temporal estacionária. A função de autocovariância para wt , como visto
na Seção 1.1, é dada por:
Função de Autocovariância:
γ k = E ([wt ][wt −k ]) .
γk
ρk = , k = 0, 1, 2,...
γ0
onde γ0 = Var (wt ) .
a) Modelos AR:
ρ k = φ1 ρ k −1 + φ2 ρ k −2 + L + φ p ρ k − p
φ (B ).ρ k = 0 onde φ (B ) = 1 − φ1 B − φ2 B 2 − L − φ p B p .
13
b) Modelos MA:
− θk + θ1θk +1 + L + θq −k θ q
; k = 1,2, L , q
ρk = 1 + θ12 + L + θq2
; k>q
0
c) Modelos ARMA:
( )
Cov Yt , Yt − k Yt −1 ...., Yt −( k +1) .
Equações de Yule-Walker:
ρ1 = φ1 + φ2 ρ1 + L + φ p ρ p −1
ρ = φ ρ +φ +L+φ ρ
2 1 1 2 p p −2
L
ρ p = φ1 ρ p −1 + φ2 ρ p−2 + L + φ p
14
1 ρ1 L ρ k −1 φ k1 ρ1
ρ 1 L ρ k −2 φ k 2 ρ 2
1 × =
M M O M L L
ρ k −1 ρ k −2 L 1 φ kk ρ k
A autocorrelação parcial de um processo é definida como a sequência dos φkk 's obtidos pela
resolução das equações acima, para k = 1,2,3,...
φ11 = ρ1
1 ρ1
p1 ρ2
φ22 =
1 ρ1
p1 1
1 ρ1 ρ1
ρ1 1 ρ2
ρ2 ρ1 ρ3
φ33 =
1 ρ1 ρ2
ρ1 1 ρ1
ρ2 ρ1 1
Em geral,
Pk*
φkk = ,
Pk
15
3.3. Exercícios
Yt = φ1Yt −1 + φ 2Yt − 2 + u t
Yt = 14 + u t + 0,4ut −1 − 0,2ut −2
9) O modelo
Yt = −0,2Yt −1 + 0,48Yt −2 + u t + 0,6ut −1 − 0,16ut −2
está sobre-parametrizado?
16
Capítulo 4: Identificação de Modelos
4.1 Escolha de d
4.2 Escolha de p e q
Uma vez que o grau d tenha sido identificado, o passo seguinte será a escolha dos graus p e
q dos polinômios φ (B ) e θ (B ) do modelo ARMA aplicado à série wt = ∇ d Yt .
17
4.3. Teste de hipóteses para ρ k e φkk
1 k −1 2
Var (ρˆ k ) ≈ ∑ ρi . (4.1)
T i =− ( k −1)
k −1
1
Var ( ρˆ k ) ≈ 1 + 2∑ ρˆ i2 .
T i =1
Var (φkk ) ≈
1
.
T
Exemplo 4.1: A partir de uma série temporal formada por 144 observações, obteve-se os
seguintes resultados:
k 1 2 3 4 5
ρ̂ k -0,490 -0,040 -0,026 0,009 0,013
e.p.( ρ̂ k )
0,08 0,10 0,10 0,10 0,10
φˆkk -0,490 -0,318 -0,277 -0,159 0,113
e.p.( φˆkk ) 0,08 0,08 0,08 0,08 0,08
18
4.4 Exercícios
1) Numa série temporal de tamanho 100 obteve-se os seguintes valores para as primeiras 5
autocorrelações amostrais:
Pede-se determinar:
a) A significância destes ρ̂i estimados a um nível de 95%.
b) Calcule as 3 primeiras autocorrelações parciais φˆii , i=1,2,3 pelas equações de Yule-
Walker e verifique a significância destas a um nível de 95%.
c) Que modelo ARMA(p,q) pede ter gerado estes dados?
k 1 2 3 4 5
ρ̂ k -0,909 0,727 -0,540 0,454 -0,364
φkk -0,909 -0,317 -0,225 -0,136 -0,410
k 1 2 3 4 5
ρ̂ k -0,508 0,013 -0,032 -0,015 0,043
φkk -0,508 -0,329 -0,220 -0,143 -0,093
19
Capítulo 5: Estimação de Parâmetros
φ p (B )Yt = θ q (B )ut
Vamos estimar:
a) Modelo AR(1)
Yt = φ1Yt −1 + ut
ut = Yt − φ1Yt −1
T T
S (φ ) = ∑ ut2 = ∑ [Yt − φ1Yt −1 ] .
2
t =2 t =2
∑Y Y t t −1
φˆ1 = t =2
T
.
∑Y
t =2
2
t −1
20
b) Modelo MA(1)
Yt = ut + θ1ut −1
(
ut = 1 + θ1 B + θ12 B 2 + L Yt )
Para T valores observados Y1 , L , YT temos:
( )
T T
S (θ ) = ∑ ut2 = ∑ Yt + θ1Yt −1 + θ12Yt −2 + L
2
t =2 t =2
a) Modelo AR(p)
Usar a relação
ρ1 = φ1 + φ2 ρ1 + L + φ p ρ p −1
ρ = φ ρ +φ +L+φ ρ
2 1 1 2 p p −2
L
ρ p = φ1 ρ p −1 + φ2 ρ p−2 + L + φ p
21
−1
φˆ1 1 ρˆ1 L ρˆ p−1 ρˆ1
ˆ ρˆ
φ2 = ρˆ1 1 L ρˆ p −2
×
2
L M M M L
φˆp ρˆ p −1 ρˆ p −2 L 1 ρˆ p
b) Modelo MA(1)
Yt = ut + θ1ut −1
θ1
Neste modelo: ρ1 = −
1 + θ12
− 1 ± 1 − 4 ρˆ12
Substituindo ρ1 por ρ̂1 : θˆ1 =
2 ρˆ1
ut = wt − φ1wt −1 − L − φ p wt − p + θ1ut −1 + L + θ q ut −q .
22
Variância dos estimadores
Uma avaliação da precisão dos parâmetros assim estimados pode ser feita a partir da
variância desses estimadores e da construção dos respectivos intervalos de confiança e teste
de hipóteses.
( )
AR(1): Var φ1 ≅
ˆ 1 − φˆ12
T
( )
AR(2): Var φˆ2 ≅
1 − φˆ22
T
( )
MA(1): Var θˆ1 ≅
1 − θˆ12
T
( )
MA(2): Var θˆ2 ≅
1 − θˆ22
T
ARMA(1,1): Var φ1 ≅
ˆ () (
1 − φˆ12 1 − φˆ1θˆ1
⋅
2
) ( )
e Var θ1 ≅
ˆ (
1 − θˆ12 1 − φˆ1θˆ1
⋅
)2
T (
φˆ1 − θˆ1
2
) T (
φˆ1 − θˆ1)2
5.4. Exercícios
Y1= 14 Y2= 27,6 Y3= 7,7 Y4= 0,4 Y5=17,8 Y6=10,5 Y7=13,6 Y8=9 Y9=6,8 Y10=13,7
Y1= 28,2 Y2= 19,2 Y3= 28 Y4= 22,4 Y5=31,9 Y6=30,7 Y7=11,2 Y8=1 Y9=8,8 Y10=18
23
Capítulo 6: Validação do Modelo
6.1. Sobrefixação
Princípio da parcimônia: entre 2 modelos que se ajustam igualmente bem à uma série Yt,
devemos preferir aquele que tem menor número de parâmetros.
AIC = T ln σˆ u2 + 2 p
AIC = T ln σˆ u2 + T
(1 + p / T )
1 − ( p + 2) / T
24
6.3. Análise de Resíduos
• Constrói-se a série de resíduos estimados ( ût ) através da aplicação do modelo que for
escolhido para representar a série. Aplica-se o método de Box-Jenkins para a série de
resíduos estimados.
Se o modelo está correto, as nossas suposições iniciais feitas para os resíduos devem ser
( )
satisfeitas, isto é, ut ~ N 0, σu2 e independentes.
1) Faz-se um gráfico da série ût e observa-se a sua estacionariedade e se sua média é igual
a zero (próximo).
O teste proposto por Box-Pierce assume que, se o modelo fixado é correto, então a
estatística:
k
Q = N ∑ ρˆ i2 (uˆ )
i =1
ρˆ i2 (uˆ )
k
Q = N ( N + 2 )∑
i =1 N − k
25
6.5. Uso dos resíduos para modificar o modelo
φ * (B ) bt = θ * (B ) ut
Então bt = θ * (B )φ *−1 (B ) ut .
φ (B )wt = θ (B )θ * (B )φ *−1ut
⇒ φ (B )φ * (B )wt = θ (B )θ * (B ) ut .
6.6. Exemplo
0,8
0,6
0,4
60 0,2
0,0
-0,2
-0,4
50 -0,6
-0,8
-1,0
40
celtins
4 14 24 34
30 Lag Corr T LBQ Lag Corr T LBQ Lag Corr T LBQ Lag Corr T LBQ
1 0,97 11,28 130,14 10 0,72 2,22 1037,66 19 0,51 1,27 1551,41 28 0,33 0,77 1795,16
20 2 0,94 6,49 254,55 11 0,70 2,08 1111,60 20 0,48 1,19 1588,69 29 0,31 0,73 1812,19
3 0,92 4,97 373,68 12 0,68 1,95 1181,30 21 0,46 1,12 1622,77 30 0,30 0,69 1827,74
4 0,89 4,14 487,36 13 0,65 1,83 1246,48 22 0,43 1,05 1653,64 31 0,28 0,64 1841,60
10 5 0,86 3,57 593,86 14 0,63 1,71 1307,14 23 0,41 1,00 1682,16 32 0,27 0,61 1854,41
6 0,83 3,17 694,45 15 0,61 1,62 1364,12 24 0,40 0,95 1708,68 33 0,26 0,59 1866,49
7 0,80 2,85 788,66 16 0,58 1,52 1416,86 25 0,38 0,91 1733,23 34 0,25 0,57 1877,87
Index 20 40 60 80 100 120
8 0,78 2,60 876,84 17 0,56 1,43 1465,65 26 0,36 0,86 1755,57
9 0,75 2,39 959,76 18 0,53 1,35 1510,47 27 0,35 0,82 1776,29
26
10
dif-1(celtins)
0
-10
Index 20 40 60 80 100 120
Partial Autocorrelation
1,0 1,0
Autocorrelation
0,8 0,8
0,6 0,6
0,4 0,4
0,2 0,2
0,0 0,0
-0,2 -0,2
-0,4 -0,4
-0,6 -0,6
-0,8 -0,8
-1,0 -1,0
2 12 22 32 2 12 22 32
Lag Corr T LBQ Lag Corr T LBQ Lag Corr T LBQ Lag Corr T LBQ Lag PAC T Lag PAC T Lag PAC T Lag PAC T
1 -0,18 -2,12 4,59 10 -0,09 -1,02 10,58 19 -0,10 -0,99 18,67 28 -0,03 -0,25 32,52 1 -0,18 -2,12 10 -0,14 -1,62 19 -0,07 -0,78 28 -0,00 -0,05
2 -0,00 -0,00 4,59 11 0,05 0,56 10,98 20 -0,09 -0,95 20,02 29 -0,06 -0,60 33,18 2 -0,03 -0,40 11 -0,05 -0,53 20 -0,14 -1,68 29 -0,07 -0,83
3 -0,07 -0,77 5,25 12 0,15 1,60 14,27 21 0,17 1,73 24,59 30 0,09 0,92 34,76 3 -0,08 -0,90 12 0,12 1,42 21 0,09 1,05 30 0,05 0,62
4 -0,06 -0,66 5,74 13 0,08 0,86 15,27 22 -0,13 -1,32 27,39 31 -0,11 -1,07 36,93 4 -0,09 -1,04 13 0,12 1,43 22 -0,13 -1,46 31 -0,02 -0,28
5 -0,12 -1,35 7,81 14 -0,04 -0,38 15,46 23 0,10 0,95 28,89 32 -0,01 -0,05 36,93 5 -0,16 -1,86 14 0,02 0,25 23 0,00 0,05 32 -0,03 -0,38
6 -0,03 -0,35 7,95 15 0,05 0,50 15,82 24 0,07 0,67 29,65 33 -0,02 -0,23 37,04 6 -0,11 -1,22 15 0,08 0,89 24 0,01 0,08 33 -0,04 -0,48
7 -0,04 -0,45 8,19 16 -0,08 -0,84 16,80 25 0,01 0,05 29,66 7 -0,10 -1,17 16 0,00 0,04 25 -0,05 -0,53
8 -0,02 -0,27 8,28 17 -0,04 -0,42 17,05 26 -0,10 -1,03 31,50 8 -0,10 -1,19 17 0,02 0,18 26 -0,15 -1,76
9 0,01 0,11 18 0,01 0,17 27 -0,00 -0,04
9 0,08 0,91 9,29 18 -0,03 -0,35 17,23 27 0,07 0,71 32,41
Figura 6.2: Gráfico da série com a primeira diferença, Função de Autocorrelação e Função
de Autocorrelação Parcial amostrais da série com a primeira diferença
Modelo1:
Estimativas dos Parâmetros
Tipo Coef e.p. Coef T P
AR 1 0,6563 0,1245 5,27 0,000
MA 1 0,8699 0,0796 10,93 0,000
Constante 0,1240 0,0234 5,30 0,000
Modelo2:
Estimativas dos Parâmetros
Tipo Coef e.p. Coef T P
AR 1 -0,8728 21,1516 -0,04 0,967
AR 2 -0,1258 3,9359 -0,03 0,975
MA 1 -0,6868 21,1564 -0,03 0,974
Constante 0,7030 0,3084 2,28 0,024
27
2a Sobrefixação: Ajuste do modelo ARIMA(1,1,2)
Modelo3:
Estimativas dos Parâmetros
Tipo Coef e.p. Coef T P
AR 1 0,7270 0,1350 5,38 0,000
MA 1 0,9624 0,1521 6,33 0,000
MA 2 -0,0601 0,1132 -0,53 0,596
Constante 0,09826 0,01847 5,32 0,000
Pelos resultados acima, verificamos que o melhor modelo é o ARIMA(1,1,1). A Figura 6.3
mostra os gráficos de FAC e FACP dos resíduos, onde podemos verificar que não existe
autocorrelação na série dos ruídos.
2
resíduos
-2
-4
-6
-8
Index 20 40 60 80 100 120
1,0 1,0
Autocorrelation
0,8 0,8
0,6 0,6
0,4 0,4
0,2 0,2
0,0
0,0
-0,2
-0,2
-0,4
-0,4
-0,6
-0,6
-0,8
-0,8
-1,0
-1,0
2 12 22 32
2 12 22 32
Lag PAC T Lag PAC T Lag PAC T Lag PAC T
Lag Corr T LBQ Lag Corr T LBQ Lag Corr T LBQ Lag Corr T LBQ
1 -0,03 -0,31 10 -0,05 -0,63 19 -0,11 -1,27 28 0,03 0,31
1 -0,03 -0,31 0,10 10 -0,05 -0,55 4,27 19 -0,12 -1,28 16,32 28 -0,04 -0,40 27,01 2 0,08 0,97 11 0,06 0,71 20 -0,14 -1,62 29 -0,04 -0,43
2 0,08 0,98 1,09 11 0,08 0,94 5,30 20 -0,11 -1,15 18,24 29 -0,07 -0,73 27,93 3 -0,00 -0,04 12 0,18 2,11 21 0,09 1,10 30 0,08 0,91
3 -0,01 -0,09 1,09 12 0,17 1,89 9,56 21 0,12 1,27 20,66 30 0,06 0,60 28,56 4 -0,03 -0,39 13 0,11 1,31 22 -0,13 -1,47 31 -0,02 -0,20
4 -0,03 -0,30 1,19 13 0,10 1,14 11,21 22 -0,12 -1,28 23,17 31 -0,11 -1,14 30,88 5 -0,10 -1,11 14 -0,02 -0,23 23 0,02 0,22 32 -0,02 -0,21
5 -0,09 -1,09 2,45 14 -0,01 -0,13 11,24 23 0,07 0,76 24,09 32 -0,02 -0,22 30,97 6 -0,02 -0,27 15 0,02 0,26 24 0,00 0,03 33 -0,02 -0,19
6 -0,02 -0,26 2,52 15 0,04 0,44 11,49 24 0,05 0,53 24,54 33 -0,03 -0,30 31,15 7 -0,01 -0,16 16 -0,06 -0,69 25 -0,05 -0,61
7 -0,03 -0,32 2,64 16 -0,09 -0,92 12,62 25 -0,01 -0,06 24,54 8 -0,00 -0,06 17 -0,04 -0,48 26 -0,12 -1,42
8 -0,01 -0,07 2,64 17 -0,07 -0,70 13,29 26 -0,10 -1,05 26,38 9 0,09 1,07 18 -0,04 -0,51 27 0,05 0,54
9 0,09 1,06 3,92 18 -0,07 -0,72 14,00 27 0,05 0,45 26,73
Figura 6.3: Gráfico dos resíduos do modelo ARIMA(1,1,1) juntamente com a FAC e a
FACP
28
6.7. Exercícios
211 218 226 229 230 232 232 248 217 212 173 172 180 174 187 171 172 192
200 177 169 176 177 176 185 191 179 190 190 183 188 200 193 180 181 195
198 197 213 212 213 209 195 197 193 197 191 215 211 232 244 257 227 235
224 216 220 223 228 241 257 254 255 257 271 264 251 228 233 226 235 249
236 265 247 271 226 256 226 256 272 253 216 260 239 264 273 276 237 235
260 232 215 243 211 254 255 261 236 227 205 255 196 190 232 224 238 215
246 286 288 285 269 278 294 281 276 284 290 289 289 329 325 298 290 272
247 249 242 277 289 261 292 280 278 274 271 284 251 305 322 265 270 302
263 283 282 278 312 289 302 285 291 289 261 298 299 305 336 338 350 345
346 348 344 335 333 371 362 342 340 344 358 343 355 348 313 322 325 364
346 330 335
2) A partir de uma série temporal formada por 100 observações, foi ajustado o seguinte
modelo:
∇Yt = (1 − 0,75 B )ut
Os coeficientes das funções ACF e PACF dos resíduos estão apresentados no quadro
abaixo:
k 1 2 3 4 5
ρ̂k -0,500 0,330 -0,220 -0,150 0,430
φˆ -0,500 -0,030 -0,020 -0,010 -0,001
kk
Pode-se considerar adequado o modelo ajustado? Caso contrário, use os resíduos para
modificar o modelo proposto.
29
Capítulo 7: Previsão
Cálculo do valor esperado de uma observação futura condicionado aos valores passados e
ao valor presente da variável. Ou seja, chamando de Yˆt (l ) o valor previsto para um
horizonte de l períodos de tempo futuros e t o período de origem da previsão, então,
c) Forma Invertida
O valor atual da série Yt é função de valores anteriores Yt-j e do valor atual do resíduo ut.
∞
π (B )Yt = Yt − π1Yt −1 − π 2Yt − 2 − L = ∑ π j Yt − j = ut (7.3)
j =0
Notação:
Yt+l: l ≥ 1: Valor teórico a ser previsto l-passos à frente a partir da origem t.
Yt(l): previsão obtida pelo modelo do valor Yt+l (previsão feita na origem t, l-passos à
frente).
A equação geral de previsão é obtida diretamente da equação (7.1) para t+l.
30
7.1. Previsão com Erro Médio Quadrático Mínimo
Seja Yt(l) uma função linear das observações presentes e passadas da série Yt. Colocando o
modelo na forma de choques aleatórios, temos
∞
Yt + l = ∑ ψ j ut +l − j = ψ 0ut +l + ψ1ut +l −1 + L + ψ l +1ut −1 + L (7.4)
j =0
Vamos denotar por Et [Yt +l ] o valor esperado de Yt+l, condicional ao conhecimento das
observações até o instante t, isto é:
[ ] [ ]
Et ut + j = 0 ; j = 1,2, L e Et u t − j = ut − j ; j = 0,1,2,L
Então
Et [Yt + l ] = ψ l ut + ψ l +1ut −1 + L
[
Desejamos determinar ψl + j ; j = 0,1, L tal que E et2 (l ) seja mínimo. ]
Pode ser provado (Box-Jenkins, 1976) que a previsão ótima (no sentido do erro médio
quadrático mínimo) é aquela em que os ψ l + j são substituídos por ψˆ l + j .
31
Assim, o erro de previsão l-passos à frente et(l) será:
Podemos também facilmente obter a variância da previsão Yˆt (l ) através dos erros de
previsão da equação (7.5), ou seja:
[ ] [ ]
Var Yˆt (l ) = Var [et (l )] = Et et2 (l ) = Et [ψ 0 ut +l + ψ1ut +l −1 + L + ψ l −1ut +1 ] .
2
Os resíduos ut's podem ser obtidos através das previsões e erros para l=1 passo à frente.
32
7.3. Cálculo das Previsões
Sendo a previsão feita com erro médio quadrático mínimo, podemos então obter a
expressão para Yˆt (l ) = E (Yt +l | Yt , Yt −1 ,L) = Et [Yt +l ] diretamente da equação (7.1) como
segue:
[ ] [
Yˆt (l ) = ξ1 Et [Yt +l −1 ] + L + ξ p +d Et Yt +l − p −d + Et [ut +l ] − θ1 Et [ut +l −1 ] − L − θ q Et ut +l −q ]
A expressão acima constitui o modelo geral da previsão. Para sua implementação
computacional, substituímos as diversas esperanças condicionais pelos seu valores
correspondentes satisfazendo às seguintes restrições:
[ ]
Et Yt − j = E (Yt − j | Yt , Yt −1 ,L) = Yt − j para j = 0, 1, 2, ...
ii) Esperança condicional dos Yt's ainda não realizados são as respectivas previsões, isto é,
[ ]
Et Yt + j = E (Yt + j | Yt , Yt −1 ,L) = Yˆt ( j ) para j = 1, 2, ...
[ ]
Et ut − j = E (ut − j | u t , ut −1 ,L) = ut − j , para j = 0, 1, 2, ...
[ ]
Et ut + j = E (ut + j | u t , ut −1 ,L) = 0 para j = 1, 2, ...
Quando Yt+1 é observado, as previsões anteriores feitas na origem t podem ser facilmente
atualizadas para a origem t+1 com o uso dos pesos ψ j 's.
33
e
Yˆt +1 (l ) = ψ 0 E t +1 [u t +l +1 ] + ψ 1 Et +1 [u t +l ] + L + ψ l −1 Et +1 [u t + 2 ] + ψ l Et +1 [u t +1 ] + ψ l +1 Et +1 [u t ] + L
Yˆt (l + 1) = ψ l +1u t + ψ l + 2 u t −1 + L
e
Yˆt +1 (l ) = ψ l u t +1 + ψ l +1u t + ψ l + 2 u t −1 + L
Suposição:
(Yt +l ˆ
[( 2
| Yt , Yt −1 , L) ~ N Yt (l ); ψ 0 + ψ 1 + L + ψ l −1 σ u
2 2
1444424444
2
3
) ]
σ t2+ l
Yˆt (l ) ± zα / 2σ t +l
34
7.6. Exercícios
5) Dado que YT = 2,0, YT-1 = 1,0 e uT = 0,3, calcule previsões 1, 2 e 3 passos à frente para o
modelo:
Yt = 0,6Yt −1 + 0,2Yt −2 + u t + 0,6ut −1
6) Calcule previsões e seus EQM’s para um modelo AR(2) com φ1 = 0,5, φ2 = - 0,2 e σ2 =
3, para l =1,2 e 3, se YT = 2, YT-1 = 1.
35
Capítulo 8: Modelos sazonais
a) Modelos MA sazonais
( )
Yt = ut − Θ1u t −S − L − Θ Q ut −QS = 1 − Θ1 B S − L − Θ Q B QS u t
b) Modelos AR sazonais
Yt − Φ1Yt − S − L − Φ PYt − PS = (1 − Φ1 B S − L − Φ P B PS ) = ut
Este modelo se aplica à maioria das séries sazonais reais, ou seja, realizações de processos
que apresentam correlação serial “dentro” e “entre” períodos sazonais.
Definição: ARIMA(p,d,q)(P,D,Q)S
Φ (B S )φ (B )∇ SD ∇ d Yt = Θ(B S )θ (B )ut
onde
( ) (
Φ B S = 1 − Φ1 B S − Φ 2 B 2 S − L − Φ P B PS )
φ (B ) = (1 − φ1 B − φ2 B 2 − L − φ p B p )
∇ SD = (1 − B S )
D
∇ d = (1 − B )
d
36
Θ(B S ) = (1 − Θ1 B S − Θ 2 B 2 S − L − Θ Q B QS )
(
θ (B ) = 1 − θ1 B − θ 2 B 2 − L − θ q B q )
37
Bibliografia
ANDERSON, O.D. (1976) Time Series Analysis and Forecasting: Box and Jenkins
Approach. London: Butterwoerths.
BOWERMAN, B.L., O’CONNELL, R.T. (1993) Forecasting and Time Series: an Applied
Approach, 3a. ed. Wadsworth, Inc.
BOX, G.E.P. and JENKINS, G.M. (1976) Time Series Analysis: Forecasting and Control.
San Francisco: Holden-Day.
BROCKWELL, P.J, DAVIS, R.A. (2002) Introduction to Time series and Forecasting, 2a
ed. New York: Springer.
MORETTIN, P. A., TOLOI, C. M. (2004) Análise de Séries Temporais. São Paulo: Edgard
Blucher.
NELSON, C.R. (1973) Applied Time Series Analysis. San Francisco: Holden-Day.
POLE, A., WEST, M., HARRISON, J. (1994) Applied Bayesian Forecasting and Time
Series Analysis, Chapman and Hall.
WEI, W.S. Time Series Analysis: Univariate and Multivariate Methods (1990) Addison-
Wesley Publishing Company.
38