Escolar Documentos
Profissional Documentos
Cultura Documentos
A adição de modelos não estacionários à mistura leva ao modelo de média móvel integrado autorregressivo
(ARIMA), popularizado no trabalho de referência de Box e Jenkins (1970). O método Box-Jenkins para
identificar os modelos ARIMA é apresentado aqui, juntamente com técnicas de estimação e previsão de
parâmetros para esses modelos. Uma justificativa teórica parcial do uso de modelos ARMA é discutida no
Apêndice B.4.
O modelo de regressão clássico no Capítulo II foi desenvolvido para o caso estático, ou seja, apenas
permitimos que a variável dependente seja influenciada pelos valores atuais das variáveis
independentes. No caso de séries temporais, é desejável permitir que a variável dependente seja
influenciada pelos valores passados das variáveis independentes e, possivelmente, pelos seus próprios
valores passados. Se o presente puder ser modelado de maneira plausível em termos apenas dos
valores passados dos insumos independentes, teremos a perspectiva sedutora de que a previsão será
possível.
Os modelos autorregressivos baseiam-se na ideia de que o valor atual da série Xt , pode ser explicado
como uma função de p valores passados, Xt−1 , Xt−2 , ⋯ , Xt−p , onde p determina o número de etapas
no passado necessárias para prever o valor atual. Como um caso típico, lembremos do Exemplo I.10, no
qual os dados foram gerados usando o modelo
Agora assumimos que o valor atual é uma função linear particular de valores passados. A regularidade
que persiste na figura do Exemplo I.9 dá uma indicação de que a previsão para tal modelo pode ser uma
possibilidade distinta, digamos, através de alguma versão como
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 1/91
06/06/2023, 12:29 Modelos ARIMA
n
X̂ n+1
= X n − 0.90X n−1 ,
onde a quantidade no lado esquerdo indica a previsão no próximo período n + 1 com base nos dados
observados, X1 , X2 , ⋯ , Xn . Vamos tornar essa noção mais precisa em nossa discussão sobre previsão.
A medida em que pode ser possível prever uma série de dados reais a partir de seus próprios valores
passados pode ser avaliada examinando-se a função de autocorrelação e as matrizes do gráfico de
dispersão discutidas na Parte II. Por exemplo, a matriz de dispersão defasada do Índice de Oscilação
Meridional (SOI), mostrado na Figura II.8, fornece uma indicação distinta de que as defasagens 1 e 2,
por exemplo, estão linearmente associadas ao valor atual. O ACF mostrado na Figura II.16 mostra
valores positivos relativamente grandes nas defasagens 1, 2, 12, 24 e 36 e grandes valores negativos
em 18, 30 e 42. Notamos também a possível relaç&ailde;o entre as séries de SOI e Recrutamento
indicadas na matriz de dispersão mostrada na Figura II.9. Vamos indicar em seções posteriores sobre a
função de transferência e modelagem do vetor AR como lidar com a dependência de valores obtidos por
outras séries.
ou escrevemos
sendo α = μ(1 − ϕ1 − ϕ2 − ⋯ − ϕp ) .
Notamos que o modelo acima é semelhante ao modelo de regressão da Seção II.1. Algumas dificuldades
técnicas, entretanto, se desenvolvem na aplicação desse modelo porque os regressores
X t−1 , X t−2 , ⋯ , X t−p , são componentes aleatórios, enquanto Zt foi considerado fixo. Uma forma útil
segue usando o operador de retardo B para escrever o modelo AR(p) como
2 p
(1 − ϕ1 B − ϕ2 B − ⋯ − ϕ p B )X t = W t
As propriedades de ϕ(B) são importantes na resolução da equação acima para Xt . Isso leva à seguinte
definição.
2 p
ϕ(B) = (1 − ϕ1 B − ϕ2 B − ⋯ − ϕp B )⋅
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 2/91
06/06/2023, 12:29 Modelos ARIMA
Xt = ϕXt−1 + Wt = ϕ(ϕXt−2 + Wt−1 ) + Wt
2
= ϕ Xt−2 + ϕWt−1 + Wt
= ⋮
k−1
k j
= ϕ Xt−k + ∑ ϕ Wt−j ⋅
j=0
Este método sugere que, continuando a iterar para trás e, desde que, |ϕ| < 1 e supt Var(X t ) < ∞ ,
j
X t = ∑ ϕ Wt−j ⋅
j=0
Observe que
k−1
2
j 2 2
lim E(X t − ∑ ϕ Wt−j ) = lim ϕ E(X ) = 0,
t−k
k→∞ k→∞
j=0
de maneira que a expressão acima existe no sentido de média quadrádita, ver Anexo A para a definição.
∞
A representação Xt = ∑
j=0
j
ϕ Wt−j é chamada de solução estacionária do modelo. De fato, por
simples substituição,
∞ ∞
j k
∑ ϕ Wt−j = ϕ∑ ϕ Wt−i−k + Wt ⋅
j=0 k=0
Xt X t−1
j
E(X t ) = ∑ ϕ E(Wt−j ) = 0
j=0
e função de autocovariância
∞ ∞
j k
γ (h) = Cov(X t+h , X t ) = E (( ∑ ϕ Wt+h−j )( ∑ ϕ Wt−k ))
j=0 k=0
h h+1
= E ((Wt+h + ⋯ + ϕ Wt + ϕ Wt−1 + ⋯ )(Wt + ϕWt−1 + ⋯ ))
∞ ∞ 2 h
σW ϕ
2 h+j j 2 h 2j
= σW ∑ ϕ ϕ = σW ϕ ∑ϕ = , h ≥ 0⋅
2
1 − ϕ
j=0 j=0
Recordemos que γ (h) = γ (−h), então vamos exibir apenas a função de autocovariância para h ≥ 0.
γ (h) h
ρ(h) = = ϕ , h ≥ 0,
γ (0)
A figura abaixo mostra um gráfico no tempo de dois processos AR(1), um com ϕ = 0.9 e um com
ϕ = −0.9 ; em ambos os casos, σ = 1. No primeiro caso, ρ(h) = 0.9 , para , então as
2 h
W
h ≥ 0
observações próximas no tempo estão positivamente correlacionadas entre si. Esse resultado
significa que as observações em pontos de tempo contíguos tenderão a estar próximas em valor
umas às outras; este fato aparece no topo da figura abaixo como um caminho amostral muito
suave para Xt .
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 3/91
06/06/2023, 12:29 Modelos ARIMA
Agora, compare isso com o caso em que ϕ = −0.9 , de modo que ρ(h) = (−0.9)
h
, para h ≥ 0 . Esse
resultado significa que as observações em pontos de tempo contíguos são negativamente
correlacionadas, mas observações em dois pontos de tempo distintos estão positivamente
correlacionados. Este fato aparece na parte inferior da figura abaixo, onde, por exemplo, se
uma observação X , é positiva, a próxima observação X
t é tipicamente negativa, e a próxima t+1
instável.
> par(mfrow=c(2,1),mar=c(4,3,1,1),mgp=c(1.6,.6,0))
> plot(arima.sim(list(order=c(1,0,0), ar=.9), n=100), ylab="x", xlab="Tempo",
main=(expression(AR(1)~~~phi==+.9)))
> plot(arima.sim(list(order=c(1,0,0), ar=-.9), n=100), ylab="x", xlab="Tempo",
main=(expression(AR(1)~~~phi==-.9)))
1 1 1 1 1 1
Xt = Xt+1 − Wt+1 = ( Xt+2 − Wt+2 ) − Wt+1
ϕ ϕ ϕ ϕ ϕ ϕ
⋮ ⋮
k−1
1 1
= Xt+k − ∑ Wt+j ,
k j
ϕ ϕ
j=1
−1
por iterar passos k para a frente. Porque |ϕ| < 1 , este resultado sugere o modelo dependente
estacionário futuro AR(1)
∞
1
Xt = −∑ Wt+j ⋅
j
ϕ
j=1
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 4/91
06/06/2023, 12:29 Modelos ARIMA
O leitor pode verificar que este modelo é estacionário e da forma AR(1) com X t = ϕX t−1 + Wt .
Infelizmente, esse modelo é inútil porque requer que saibamos o futuro para podermos prever o futuro.
Quando um processo não depende do futuro, como o AR(1) quando |ϕ| < 1, diremos que o processo é
causal. No caso explosivo deste exemplo, o processo é estacionário, mas também depende do futuro e
não é causal.
e Wt ∼ N (0, σW )
2
, independentes igualmente distribuídos. Então utilizando o modelo
∞
Xt = − ∑
j=1
ϕ
−j
Wt+j {X t } é um processo Gaussiano estacionário não causal com E(Xt ) = 0 e
∞ ∞
1 1
γ (h) = Cov(Xt+h , Xt ) = Cov (− ∑ Wt+h+j − ∑ Wt+k )
X
ϕ k
ϕ
j=1 k=1
2
σW
= ⋅
2 h −2
ϕ ϕ (1 − ϕ )
1
Yt = Y t−1 + V t ,
ϕ
onde V t ∼ N (0, σW ϕ
2 −2
) é estocasticamente igual ao processo Xt , ou seja, todas as
distribuições finitas dos processos são as mesmas. Por exemplo, se Xt = 2Xt−1 + Wt com
2
σW = 1 , então Yt =
1
2
Y t−1 + V t com σV
2
= 1/4 é um processo causal equivalente, ver o Exercício
III.3. Este conceito generaliza para ordens superiores, mas é mais fácil de mostrar usando
técnicas na Parte IV; veja o Exemplo IV.8.
A técnica de iterar para obter uma idéia da solução estacionária de modelos AR funciona bem quando
p = 1, mas não para ordens maiores. Uma técnica geral é a dos coeficientes correspondentes.
Considere o modelo AR(1) na forma de operador
ϕ(B)X t = Wt ,
onde ϕ(B) = 1 − ϕB e |ϕ| < 1. Também podemos escrever, utilizando o operador de forma
∞
X t = ∑ ψj Wt−j = ψ(B)Wt ,
j=0
∞
onde ψ(B) = ∑
j=0
ψj B
j
e ψj = ϕ
j
. Suponha que não soubéssemos que ψj = ϕ
j
. Substituindo, temos
que
ϕ(B)ψ(B)Wt = Wt ⋅
2 j
(1 − ϕB)(1 + ψ1 B + ψ2 B + ⋯ + ψj B + ⋯ ) = 1⋅
2 j
1 + (ψ1 − ϕ)B + (ψ2 − ψ1 ϕ)B + ⋯ + (ψj − ψj−1 ϕ)B + ⋯ = 1,
vemos que para cada j = 1, 2, ⋯, o coeficiente de Bj à esquerda deve ser zero porque é zero à direita.
O coeficiente de B à esquerda é de ψ1 − ϕ, e igualando isso a zero, ψ1 − ϕ = 0, leva a ψ1 = ϕ.
Continuando, o coeficiente de B
2
é ψ2 − ψ1 ϕ, então ψ2 = ϕ
2
. Em geral,
ψj = ψj−1 ϕ,
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 5/91
06/06/2023, 12:29 Modelos ARIMA
Outra maneira de pensar sobre as operações que acabamos de realizar é considerar o modelo AR(1) na
forma de operador, ϕ(B)Xt = Wt . Agora multiplique ambos os lados por ϕ
−1
(B) , assumindo que o
operador inverso exista, para obter
−1 −1
ϕ (B)ϕ(B)X t = ϕ (B)Wt ,
ou
−1
Xt = ϕ (B)Wt ⋅
−1 2 2 j j
ϕ (B) = 1 + ϕB + ϕ B + ⋯ + ϕ B + ⋯,
isto é, ϕ
−1
(B) = ψ(B) acima. Assim, notamos que trabalhar com operadores é como trabalhar com
polinômios. Isto é, considere o polinômio ϕ(z) = 1 − ϕz , onde z é um número complexo e |ϕ| < 1.
Então
1
−1 2 2 j j
ϕ (z) = = 1 + ϕz + ϕ z + ⋯ + ϕ z + ⋯, |z| ≤ 1,
1 − ϕz
e os coeficientes de Bj em ϕ−1 (B) são os mesmos que os coeficientes de z j em ϕ−1 (z). Em outras
palavras, podemos tratar o operador de retrocesso B, como um número complexo z. Esses resultados
serão generalizados em nossa discussão sobre os modelos ARMA. Os polinômios correspondentes aos
operadores serão úteis para explorar as propriedades gerais dos modelos ARMA.
Como uma alternativa à representação autorregressiva na qual os Xt no lado esquerdo da equação são
combinados linearmente, o modelo de médias móveis de ordem q , abreviado como M A(q), assume o
ruído branco Wt do lado direito da equação definidora seja combinado linearmente para formar os dados
observados.
onde Wt ∼ N (0, σ W )
2
independentes e θ1 , θ2 , ⋯ , θq , θq ≠ 0 são parâmetros.
Em alguns textos e pacotes define-se o modelo M A(q) com coeficientes negativos; isso é,
O sistema é o mesmo que o da média móvel infinita definida como o processo linear
∞
X t = ∑ ψj Wt−j = ψ(B)Wt ,
j=0
X t = θ(B)Wt ,
2 q
θ(B) = 1 + θ1 B + θ2 B + ⋯ + θq B ⋅
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 6/91
06/06/2023, 12:29 Modelos ARIMA
2
γ(h) = ⎨ θσW , quando h = 1 ,
⎩
⎪
0, quando h > 1
e o ACF é
⎧ θ
, quando h = 1
ρ(h) = ⎨ 1 + θ2 ⋅
⎩
0, quando h > 1
Observemos que |ρ(1)| ≤ 1/2 para todos os valores de θ. Além disso, Xt está correlacionado com
X , mas não com X , X , ⋯. Compare isso com o caso do modelo
t−1 t−2 t−3 AR(1) no qual a correlação
entre Xt e Xt−k nunca é zero. Quando θ = 0.9 , por exemplo, Xt e Xt−1 estão positivamente
correlacionados e ρ(1) = 0.497. Quando θ = −0.9, X e X são correlacionados negativamente e
t t−1
ρ(1) = −0.497 . A figura abaixo mostra um gráfico de tempo destes dois processos com σ = 1.
2
W
Perceba que a série para qual θ = 0.9 é mais suave que a série para a qual θ = −0.9 .
Usando o Exemplo III.5, notamos que para um modelo M A(1), ρ(h) é o mesmo para θ e 1/θ ; tente
5 e 15, por exemplo. Além disso, o par σ = 1 e θ W
2
= 5 produzem a mesma função de
autocovariância que o par 2
σW = 25 e θ = 1/5 ,
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 7/91
06/06/2023, 12:29 Modelos ARIMA
⎧ 26,
⎪
para h = 0,
γ(h) = ⎨ 5, pata h = 1, ⋅
⎩
⎪
0, para h > 1⋅
1
Xt = Wt + Wt−1 , Wt ∼ N (0, 25)
5
independentes e
independentes são os mesmos por causa da normalidade, ou seja, todas as distribuições finitas
são as mesmas. Somente podemos observar as séries temporais, X ou Y , e não o ruído, W ou t t t
V , então não podemos distinguir entre os modelos. Por isso, teremos que escolher apenas um
t
deles. Por conveniência, imitando o critério de causalidade para modelos de AR, escolheremos o
modelo com uma representação AR infinita. Tal processo é chamado de processo inversível.
Para descobrir qual modelo é invertível, podemos inverter os papéis de Xt e Wt , isso porque
estamos imitando o caso AR e escrever o modelo M A(1) como Wt = −θWt−1 + Xt .
∞
Se |θ| < 1 , então Wt = ∑
j=0
j
(−θ) Xt−j , que é a representação AR infinita desejada do modelo.
Assim, dada uma escolha, escolheremos o modelo com 2
σW = 25 e θ = 1/5 porque é invertível.
No caso AR, o polinômio, θ(z) correspondente aos operadores de médias móveis, θ(B) será útil na
exploração das propriedades gerais dos processos de MA. Por exemplo, podemos escrever o modelo
M A(1) como X t = θ(B)Wt , onde θ(B) = 1 + θB. Se |θ| < 1 , então podemos escrever o modelo
∞
e determinamos que π(B) = ∑
j=0
(−θ) B
j j
.
onde ϕp ≠ 0 , θq ≠ 0 e σW > 0.
2
Os parâmetros p e q são chamados ordens autorregressivas e de
médias móveis, respectivamente. Se Xt tiver uma média μ diferente de zero, definimos
α = μ(1 − ϕ1 − ⋯ − ϕp ) e escrevemos o modelo como
onde Wt ∼ N (0, σ W )
2
independentes.
M A(q). Para auxiliar na investigação de modelos ARMA, será útil escrevê-los usando o operador AR e o
operador MA. Em particular, o modelo ARM A(p, q) pode então ser escrito de forma concisa
ϕ(B)X t = θ(B)Wt ⋅
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 8/91
06/06/2023, 12:29 Modelos ARIMA
A forma concisa do modelo aponta para um problema potencial em que podemos complicar
desnecessariamente o modelo multiplicando ambos os lados por outro operador, digamos
η(B)ϕ(B)X t = η(B)θ(B)Wt ,
Xt = 0.5Xt−1 − 0.5Wt−1 + Wt ,
que se parece com um modelo ARM A(1, 1) . Claro, Xt ainda é ruído branco; nada mudou a esse
respeito, ou seja, X = W é a solução para o modelo acima, mas ocultamos o fato de que
t t Xt é
ruído branco por causa da redundância de parâmetros ou parametrização excessiva.
Abaixo está o código R , note que a estimativa chamada intercept é realmente a estimativa da
média.
> set.seed(8675309)
> x = rnorm(150, mean=5) # gerando iid N(5,1)s
> arima(x, order=c(1,0,1)) # estimação
Call:
arima(x = x, order = c(1, 0, 1))
Coefficients:
ar1 ma1 intercept
-0.9595 0.9527 5.0462
s.e. 0.1688 0.1750 0.0727
(1 + 0.96B)Xt = (1 + 0.96B)Wt ,
Os exemplos III.3, III.6 e III.7 apontam para um número de problemas possíveis com a definição geral
de modelos ARM A(p, q) . Para resumir, vimos os seguintes problemas:
Para superar esses problemas, vamos exigir algumas restrições adicionais nos parâmetros do modelo.
Primeiro, fazemos as seguintes definições.
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 9/91
06/06/2023, 12:29 Modelos ARIMA
p
ϕ(z) = 1 − ϕ1 z − ⋯ − ϕp z , ϕp ≠ 0,
q
θ(z) = 1 + θ1 z + ⋯ + θq z , θq ≠ 0,
Para resolver o primeiro problema, iremos nos referir a um modelo ARM A(p, q) para significar que ele
está em sua forma mais simples. Ou seja, além da definição original também exigiremos que ϕ(z) e
θ(z) não tenham fatores comuns. Assim, o processo, X t = 0.5X t−1 − 0.5Wt−1 + Wt , discutido no
Exemplo III.7 não é referido como um processo ARM A(1, 1) porque, em sua forma reduzida, Xt é
ruído branco.
Para abordar o problema dos modelos dependentes do futuro, introduzimos formalmente o conceito de
causalidade.
Um modelo ARM A(p, q) é considerado causal, se a série temporal {X t : t = 0, ±1, ±2, ⋯} pode
ser escrito como um processo linear unilateral:
∞
X t = ∑ ψj Wt−j = ψ(B)Wt ,
j=0
∞ ∞
onde ψ(B) = ∑
j=0
ψj B
j
e ∑
j=0
|ψj | < ∞, escolhemos ψ0 = 1 .
No Exemplo III.3, o processo AR(1), Xt = ϕXt−1 + Wt é causal apenas quando |ϕ| < 1.
Equivalentemente, o processo é causal apenas quando a raiz de ϕ(z) = 1 − ϕz é maior que um em
valor absoluto. Ou seja, a raiz z0 de ϕ(z) é z0 = 1/ϕ , porque ϕ(z0 ) = 0 e |z0 | > 1 porque |ϕ| < 1. Em
geral, temos a seguinte propriedade.
Um modelo ARM A(p, q) é causal se, e somente se, ϕ(z) ≠ 0 para |z| ≤ 1. Os coeficientes do
processo linear na Definição III.7 podem ser determinados resolvendo-se
∞
θ(z)
j
ψ(z) = ∑ ψj z = , |z| ≤ 1⋅
ϕ(z)
j=0
Outra maneira de expressar o Teorema III.1 é que um processo ARMA é causal apenas quando as raízes
de ϕ(z) estão fora do círculo unitário; isto é, ϕ(z) = 0 somente quando |z| > 1. Finalmente, para
resolver o problema de unicidade discutido no Exemplo III.6, escolhemos o modelo que permite uma
representação autorregressiva infinita.
Um modelo ARM A(p, q) é dito invertível se a série temporal {X t : t = 0, ±1, ±2, ⋯} pode ser
escrita como
∞
π(B)X t = ∑ πj X t−j = Wt ,
j=0
∞ ∞
onde π(B) = ∑
j=0
πj B
j
e ∑
j=0
|πj | < ∞ , escolhemos π0 = 1.
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 10/91
06/06/2023, 12:29 Modelos ARIMA
Um modelo ARM A(p, q) é invertível se, e somente se, θ(z) ≠ 0 para |z| ≤ 1. Os coeficientes πj de
π(B) dados na Definição III.8 podem ser determinados resolvendo-se
∞
ϕ(z)
j
π(z) = ∑ πj z = , |z| ≤ 1⋅
θ(z)
j=0
Outra maneira de expressar o Teorema III.2 é que um processo ARMA é invertível somente quando as
raízes de θ(z) estão fora do círculo unitário; isto é, θ(z) = 0 somente quando |z| > 1.
Considere o processo
2 2
(1 − 0.4B − 0.45B )Xt = (1 + B + 0.25B )Wt ⋅
2
ϕ(B) = 1 − 0.4B − 0.45B = (1 + 0.5B)(1 − 0.9B)
2 2
θ(B) = (1 + B + 0.25B ) = (1 + 0.5B) ,
Após o cancelamento, os operadores são ϕ(B) = (1 − 0.9B) e θ(B) = (1 + 0.5B) , portanto o modelo
é um ARM A(1, 1) , (1 − 0.9B)Xt = (1 + 0.5B)Wt ou
Xt = 0.9Xt−1 + 0.5Wt−1 + Wt ⋅
O modelo é causal porque ϕ(z) = (1 − 0.9z) = 0 quando z = 10/9 , que está fora do círculo unitário. O
modelo também é invertível porque a raiz de θ(z) = (1 + 0.5z) é z = −2 ; que está fora do círculo
unitário.
Para escrever o modelo como um processo linear, podemos obter os pesos ψ usando o enunciado no
Teorema III.1, ϕ(z)ψ(z) = θ(z), ou
2 j
(1 − 0.9z)(1 + ψ1 z + ψ2 z + ⋯ + ψj z + ⋯) = 1 + 0.5z⋅
Reorganizando, ficamos
2 j
1 + (ψ1 − 0.9)z + (ψ2 − 0.9ψ1 )z + ⋯ + (ψj − 0.9ψj−1 )z + ⋯ = 1 + 0.5z⋅
j−1
X t = Wt + 1.4 ∑ 0.9 Wt−j ⋅
j=1
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 11/91
06/06/2023, 12:29 Modelos ARIMA
A representação invertível usando o Teorema III.1 é obtida através da correspondência dos coeficientes
em θ(z)π(z) = ϕ(z) ,
2 3
(1 + 0.5z)(1 + π1 z + π2 z + π3 z + ⋯) = 1 − 09.z⋅
j−1
X t = 1.4 ∑(−0.5) X t−j + Wt ⋅
j=1
Os valores dos πj podem ser calculados em R como segue, revertendo os papéis de Wt e Xt , ou seja,
escrevendo o modelo como Wt = −0.5Wt−1 + X t − 0.9X t−1 :
Para o modelo AR(1) , (1 − ϕB)Xt = Wt , ser causal, a raiz de ϕ(z) = 1 − ϕz deve ficar fora do
círculo unitário. Nesse caso, ϕ(z) = 0 quando z = 1/ϕ , por isso é fácil ir a partir do
requisito causal na raiz, |1/ϕ| > 1, a um requisito no parâmetro, |ϕ| < 1. Não é tão fácil
estabelecer essa relação para modelos de ordem superior.
Por exemplo, o modelo AR(2), é causal quando as duas raízes de ϕ(z) = 1 − ϕ z − ϕ z ficam 1 2
2
fora do círculo unitário. Usando a fórmula quadrática, este requisito pode ser escrito como
−−−−−−−
∣ 2 ∣
ϕ1 ± √ϕ + 4ϕ2
∣ 1 ∣
∣ ∣ > 1⋅
∣ −2ϕ2 ∣
∣ ∣
As raizes de ϕ(z) podem ser reais e distintas, reais e iguais ou um par conjugado complexo. Se
denotarmos essas raízes por z e z , podemos escrever ϕ(z) = (1 − z z)(1 − z z), observe que
1 2
−1
1
−1
ϕ(z1 ) = ϕ(z2 ) = 0 .
2 2 = −(z1 z2 )
−1
. Essa relação e o fato de
que |z | > 1 e
1 |z2 | > 1 podem ser usados para estabelecer a seguinte condição equivalente para
causalidade:
O estudo do comportamento dos processos ARMA e seus ACFs é bastante aprimorado por um
conhecimento básico de equações de diferenças, simplesmente porque são equações de diferença.
Vamos dar um breve e heurístico relato do tópico, juntamente com alguns exemplos da utilidade da
teoria. Para detalhes, o leitor é referido a Mickens (1990).
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 12/91
06/06/2023, 12:29 Modelos ARIMA
u n − αu n−1 = 0, α ≠ 0, n = 1, 2, ⋯ ⋅
Por exemplo, recordemos que a função ACF de um processo AR(1) é uma sequência ρ(h) satisfazendo
ρ(h) − ϕρ(h − 1) = 0, h = 1, 2, ⋯ ⋅
u1 = αu 0
2
u2 = αu 1 = α u 0
⋯ ⋯
n
un = αu n−1 = α u0 ⋅
c
n
un = α c = ⋅
n
z
0
Ou seja, a solução para a equação de diferença depende apenas da condição inicial e do inverso da raiz
para o polinômio associado α(z).
u n − α1 u n−1 − α2 u n−2 = 0, α2 ≠ 0, n = 2, 3, ⋯ ⋅
2
α(z) = 1 − α1 z − α2 z ,
que tem duas raízes z1 e z2 ; isto é, α(z1 ) = α(z2 ) = 0 . Vamos considerar dois casos. Primeiro suponha
z1 ≠ z2 . Então a solução geral é
c1 c2
un = + ,
n n
z z
1 2
onde c1 e c2 dependem das condições iniciais. A alegação de que é uma solução pode ser verificada por
substituição direta:
−n 2 −n 2
= c1 z (1 − α1 z1 − α2 z ) + c 2 z (1 − α1 z2 − α2 z )
1 1 2 2
−n −n
= c1 z α(z1 ) + c 2 z α(z2 ) = 0⋅
1 2
−1 −1
u 0 = c1 + c2 e u 1 = c1 z + c2 z ,
1 2
onde z1 e z2 pode ser resolvido em termos de α1 e α2 usando a fórmula quadrática, por exemplo.
c1 + c2 n
un = ⋅
n
z
0
−n −(n−1) −n−2
z (c 1 + c 2 n) − α1 (z (c 1 + c 2 (n − 1))) − α2 (z (c 1 + c 2 (n − 2))) =
0 0 0
un
un−1 un−2
−n 2 −n+1
= z (c 1 + c 2 n)(1 − α1 z0 − α2 z ) + c 2 z (α1 + 2α2 z0 )
0 0 0
−n+1
= c2 z (α1 + 2α2 z0 )⋅
0
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 13/91
06/06/2023, 12:29 Modelos ARIMA
c1 + c2
u 0 = c1 e u1 = ⋅
z0
Para resumir estes resultados, no caso de raízes distintas, a solução para a equação em diferenças
homogênea de grau dois é
1 1
un = × (um polinômio em n de grau m 1 − 1) + × (um polinômio em n de grau m 2 − 1),
n n
z z
1 2
1
un = × (um polinômio em n de grau m 0 − 1),
n
z0
u n − α1 u n−1 − ⋯ − αp u n−p = 0, αp ≠ 0, n = p, p + 1, ⋯ ⋅
1 1 1
un = P1 (n) + P2 (n) + ⋯ + Pr (n),
n n n
z z zr
1 2
Suponhamos que X = ϕ t 1 Xt−1 + ϕ2 Xt−2 + Wt seja um processo AR(2) causal. Multiplicando cada
lado do modelo por X t−h para h > 0 e tomado esperança obtemos
O resultado é
Para encontrarmos o resultado acima utilizamos o fato de que E(Xt ) = 0 e que para h > 0 ,
∞
j=0
Obtemos assim
raízes do polinômio associado, ϕ(z) = 1 − ϕ z − ϕ z . Como o modelo é causal, sabemos que as1 2
2
raízes estão fora do círculo unitário |z | > 1 e |z | > 1. Agora, considere a solução para três
1 2
casos:
c1 c2
ρ(h) = + ,
h h
z z
1 2
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 14/91
06/06/2023, 12:29 Modelos ARIMA
assim ρ(h) → 0 exponencialmente rápido quando h → ∞ .
(ii) Quando z1 = z2 = z0 sejam reais e iguais, então
c1 + c2 h
ρ(h) = ,
h
z
0
¯¯
c1 c1
ρ(h) = + ⋅
h h
z ¯
¯¯
z1
1
, o intervalo de
arg(z1 ) θ é [−π, π] . Então, usando o fato de que e
iα
+ e
−iα
, a
= 2 cos(α)
a
ρ(h) = cos(hθ + b),
h
|z1 |
onde a e b são determinados pelas condições iniciais. Mais uma vez, ρ(h) amortece a zero
exponencialmente rápido quando h → ∞ , mas o faz de forma sinusoidal. A implicação desse
resultado é mostrada no próximo exemplo.
Xt = 1.5Xt−1 − 0.75Xt−2 + Wt ,
com 2
σW = 1 e com raízes complexas escolhidas para que o processo exiba um comportamento
pseudocíclico à taxa de um ciclo a cada 12 pontos de tempo. O polinômio autoregressivo para
–
este modelo é ϕ(z) = 1 − 1.5z + 0.75z . As raízes de ϕ(z)
2
são 1 ± i/√3 e
–
(1/√3) = 2π/12 radianos por unidade de tempo. Para converter o ângulo em ciclos por
−1
θ = tan
unidade de tempo, divida por 2 para obter 1/12 ciclos por unidade de tempo.
> set.seed(8675309)
> ar2 = arima.sim(list(order=c(2,0,0), ar=c(1.5,-.75)), n = 144)
> plot(ar2, axes=FALSE, xlab="Tempo", ylab="AR(2)")
> axis(2); axis(1, at=seq(0,144,by=12)); box()
> abline(v=seq(0,144,by=12), col = "lightgray", lty = "dotted")
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 15/91
06/06/2023, 12:29 Modelos ARIMA
> abline(h=c(-5,0,5), col = "lightgray", lty = "dotted")
Para o modelo causal ARM A(p, q), ϕ(B)X = θ(B)W , onde os zeros de
t t ϕ(B) estão fora do
círculo unitário, lembre-se de que podemos escrever
∞
Xt = ∑ ψj Wt−j ,
j=0
2 2 2
(1 − ϕz − ϕ2 z − ⋯)(ψ0 + ψ1 z + ψ2 z + ⋯) = (1 + θ1 z + θ2 z + ⋯)⋅
ψ1 = 1
ψ1 − ϕ1 ψ0 = θ1
ψ2 − ϕ1 ψ2 − ϕ2 ψ1 − ϕ3 ψ0 = θ2
ψ3 − ϕ1 ψ2 − ϕ2 ψ1 − ϕ3 ψ0 = θ3
⋮ ⋮
k=1
k=1
temos que ψ = 1 e ψ = 0.9 + 0.5 = 1.4. Pelo resultado das equações em diferença homogêneas
0 1
encontrar a solução específica, usamos a condição inicial ψ = 1.4, de manerira que 1.4 = 0.9c 1
E(X t ) = ∑ θj E(Wt−j ) = 0,
j=0
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 17/91
06/06/2023, 12:29 Modelos ARIMA
q q
j=0 k=0
q−h
⎧
⎪
⎪ 2
σ W ∑ θj θj+h , quando 0 ≤ h ≤ q
= ⎨ ⋅
j=0
⎪
⎩
⎪
0, quando h > q
Lembrando que γ (h) = γ (−h) , por isso somente exibiremos os valores para h ≥ 0. Observe que γ (q)
não pode ser zero porque θq ≠ 0 . O corte de γ (h) após q lags é a assinatura do modelo M A(q).
q−h
⎧
⎪
⎪
⎪
⎪ ∑ θj θj+h
⎪
j=0
ρ(h) = ⎨
, quando 1 ≤ h ≤ q
2 2
⎪
⎪ 1 + θ + ⋯ + θq
⎪
⎪
1
⎩
⎪
0, quando h > q
Para um modelo ARM A(p, q) causal, ϕ(B)X t = θ(B)Wt , onde os zeros de ϕ(z) estão fora do círculo
unitário, escrevamos
∞
X t = ∑ ψj Wt−j ⋅
j=0
2
γ (h) = Cov(X t+h , X t ) = σ W ∑ ψj ψj+h , h ≥ 0⋅
j=0
Poderíamos então utilizar equações acima para resolver os pesos. Por sua vez, poderíamos resolver por
γ (h) e o ACF ρ(h) = γ (h)/γ (0) . Como no Exemplo III.10, também é possível obter uma equação em
p q
j=1 j=0
p q
2
= ∑ ϕj γ (h − j) + σ W ∑ θj ψj−h , h ≥ 0,
j=1 j=k
2
Cov(Wt+h−j , X t ) = Cov(Wt+h−j , ∑ ψk Wt−k ) = ψj−h σ W ⋅
k=0
Assim, podemos escrever a equação homogênea geral para o ACF de um processo ARM A causal:
p q
2
γ (h) − ∑ ϕj γ (h − j) = σ W ∑ θj ψj−h , 0 ≤ h < max{p, q + 1}
j=1 j=h
Dividindo por γ (0) nos permitirá resolver para o ACF, ρ(h) = γ (h)/γ (0) .
1 1 1
ρ(h) = P 1 (h) + P 2 (h) + ⋯ + P r (h), h ≥ p,
h h h
z z zr
1 2
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 18/91
06/06/2023, 12:29 Modelos ARIMA
onde P j (h) é um polinômio em h de grau mj − 1 .
Lembre-se que, para um modelo causal, todas as raízes estão fora do círculo unitário, |z | > 1, i
i = 1, ⋯ , r . Se todas as raízes são reais, então ρ(h) amortece exponencialmente rápido a zero
quando h → ∞ . Se algumas das raízes são complexas, então elas estarão em pares conjugados e
ρ(h) irá amortecer, de uma maneira sinusoidal, exponencialmente rápido a zero quando h → ∞ .
No caso de raízes complexas, a série temporal parecerá ser de natureza cíclica. Isso, é claro,
também é verdadeiro para modelos ARMA nos quais a parte AR possui raízes complexas.
Consideremos o processo ARM A(1, 1) dado por X = ϕX + θW + W , onde |ϕ| < 1. Com base
t t−1 t−1 t
na equação homogênea geral para o ACF de um processo ARMA causal, a função de autocovariância
satisfaz
γ(h) − ϕγ(h − 1) = 0, h = 2, 3, ⋯ ,
h
γ(h) = cϕ , h = 1, 2, ⋯ ,
2 2 2
γ(0) = ϕγ(1) + σW (1 + θϕ + θ ) e γ(1) = ϕγ(0) + σW θ⋅
2
1 + 2θϕ + θ (1 + θϕ)(ϕ + θ)
2 2
γ(0) = σW e γ(1) = σW ⋅
2 2
1 − ϕ 1 − ϕ
γ(1) (1 + θϕ)(ϕ + θ)
h 2 h−1
γ(h) = ϕ = σW ϕ ⋅
2
ϕ 1 − ϕ
(1 + θϕ)(ϕ + θ)
h−1
ρ(h) = ϕ , h ≥ 1⋅
2
1 + 2θϕ + θ
Observe que o padrão geral de ρ(h) versus h acima não é diferente do de um AR(1). Portanto, é
improvável que possamos diferenciar entre um ARM A(1, 1) e um AR(1) baseado somente em um
ACF estimado a partir de uma amostra. Essa consideração nos levará à função de autocorrelação
parcial.
Vimos que para modelos M A(q), o ACF será zero para defasagens maiores que q. Além disso, porque
θq ≠ 0 , o ACF não será zero no atraso ou lag q. Assim, o ACF fornece uma quantidade considerável de
informações sobre a ordem da dependência quando o processo é de médias móveis. Se o processo, no
entanto, é ARMA ou AR, o ACF sozinho nos diz pouco sobre as ordens de dependência. Assim, vale a
pena buscar uma função que se comportará como o ACF dos modelos MA, mas para os modelos AR, a
saber, a função de autocorrelação parcial (PACF).
Lembre-se que se X, Y e Z forem variáveis aleatórias, então a correlação parcial entre X e Y , dada
por Z , é obtida pela regressão de X em Z para obter X̂ , regredindo Y em Z para obter ˆ
Y e então
calculando
ρ ˆ)⋅
= Corr(X − X̂ , Y − Y
XY |Z
A idéia é que ρ
XY |Z
mede a correlação entre X e Y com o efeito linear de Z removido ou parcialmente
excluído. Se as variáveis são multivariadas normais, então esta definição coincide com
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 19/91
06/06/2023, 12:29 Modelos ARIMA
ρ = Corr(X, Y |Z )⋅
XY |Z
Para motivar a ideia para séries temporais, considere um modelo causal AR(1), X t = ϕX t−1 + Wt .
Então,
2 2
= Cov(ϕ X t−2 + ϕWt−1 + Wt , X t−2 ) = ϕ γ (0)⋅
X
Este resultado é decorrente da causalidade, pois Xt−2 envolve {Wt−2 , Wt−3 , ⋯} que são todos não
correlacionados com Wt e Wt−1 . A correlação entre Xt e Wt−1 não é zero, como seria para um
M A(1) , porque Xt é dependente de Xt−2 através de Xt−1 . Suponha que quebremos essa cadeia de
dependência removendo ou retirando o efeito de Xt−1 . Ou seja, consideramos a correlação entre
X t − ϕX t−1 e X t−2 − ϕX t−1 , porque é a correlação entre X t e X t−2 com a dependência linear
removida de cada um em X t−1 . Desta forma, quebramos a cadeia de dependência entre Xt e X t−2 . De
fato,
Assim, a ferramenta que precisamos é a autocorrelação parcial, que é a correlação entre Xs e Xt com o
efeito linear de tudo no meio removido.
Para definir formalmente o PACF para séries temporais estacionárias de média zero, seja X̂ t+h , para
h ≥ 2, denote a regressão de X t+h em {X t+h−1 , X t+h−2 , ⋯ , X t+1 } , que escrevemos como
h−1
2
j=1
Observe que nenhum termo de intercepto é necessário porque a média de Xt é zero, caso contrário,
substitua Xt por X t μXnesta discussão. Além disso, se X̂ t
denota a regressão de Xt em
{X t+h−1 , X t+h−2 , ⋯ , X t+1 } então
Por causa da estacionariedade, os coeficientes, β1 , ⋯ , βh−1 são os mesmos nos modelos de regressão
acima. Vamos explicar este resultado na próxima seção, mas será evidente a partir dos exemplos.
A função de autocorrelação parcial (PACF) de um processo estacionário, Xt , denotada por ϕh,h , para
h = 1, 2, ⋯ é
A razão para usar um subscrito duplo ficará evidente na próxima seção. O PACF ϕh,h é a correlação
entre Xt+h e Xt com a dependência linear de {Xt+1 , ⋯ , Xt+h−1 } em cada, removido. Se o processo
X t é gaussiano, então ϕh,h = Corr(X t+h , X t |X t+1 , ⋯ , X t+h−1 ), isto é, ϕh,h é o coeficiente de
Considere a PACF do processo AR(1) dado por X = ϕX + W , com |ϕ| t t−1 t < 1. Por definição,
ϕ = ρ(1) = ϕ .
1,1 Para calcular ϕ , considere a regressão de X
2,2 t+2 em X , digamost+1
ˆ
X t+2 = βXt+1 . Escolhemos β minimizando
2 2
ˆ 2
E(Xt+2 − X t+2 ) = E(Xt+2 − βXt+1 ) = γ(0) − 2βγ(1) + β γ(0)⋅
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 20/91
06/06/2023, 12:29 Modelos ARIMA
Tomando derivadas em relação a β e definindo o resultado igual a zero, temos
β = γ(1)/γ(0) = ρ(1) = ϕ . Em seguida, considere a regressão de Xt em X , digamos
t+1
ˆ
X t = βXt+1 . Escolhemos β minimizando
2 2 2
ˆ )
E(Xt − X = E(Xt − βXt+1 ) = γ(0) − 2βγ(1) + β γ(0)⋅
t
ˆ ˆ
ϕ2,2 = Corr(Xt+2 − X t+2 , Xt − X t ) = Corr(Xt+2 − ϕXt+1 , Xt − ϕXt+1 )
= Corr(Wt+2 , Xt − ϕXt+1 ) = 0,
por causalidade. Portanto, ϕ2,2 = 0 . No próximo exemplo, veremos que neste caso, ϕh,h = 0 para
todo h > 1 .
p
Este modelo implica que Xt+h = ∑
j=1
ϕj Xt+h−j + Wt+h , onde as raízes de ϕ(z) estão fora do
círculo unitário. Quando h > p , a regressão de Xt+h em {Xt+1 , ⋯ , Xt+h−1 } , é
p
ˆ
X t+h = ∑ ϕj Xt+h−j ⋅
j=1
Ainda não provamos este resultado, mas vamos provar isso na próxima seção. Assim, quando
h > p ,
ˆ ˆ ˆ
ϕh,h = Corr(Xt+h − X t+h , Xt − X t ) = Corr(Wt+h , Xt − X t ) = 0,
é não zero e ϕ , ⋯ , ϕ 1,1 não são necessariamente zero. Veremos mais tarde que, de fato,
p−1,p−1
ϕp,p= ϕ . Mostramos na figura abaixo as funções ACFe PACF para o modelo AR(2) presente no
p
Exemplo III.11.
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 21/91
06/06/2023, 12:29 Modelos ARIMA
Xt = − ∑ ϕj Xt−j + Wt ⋅
j=1
Além disso, não existe representação finita. A partir deste resultado, deve ficar claro que o
PACF nunca será cortado, como no caso do AR(p) .
Para um M A(1), Xt = Wt + θWt−1 , com |θ| < 1 , cálculos semelhantes ao Exemplo III.15
produzirão
2
θ
ϕ2,2 = − ⋅
2 4
1 + θ + θ
h 2
(−θ) (1 − θ )
ϕh,h = − , h ≥ 1⋅
2(h+1)
1 − θ
Xt = ϕ0 + ϕ1 Xt−1 + ϕ2 Xt−2 + Wt ,
> library(astsa)
> acf2(rec, 48) # produzindo valores e um gráfico
ACF PACF
[1,] 0.92 0.92
[2,] 0.78 -0.44
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 22/91
06/06/2023, 12:29 Modelos ARIMA
[3,] 0.63 -0.05
[4,] 0.48 -0.02
[5,] 0.36 0.07
[6,] 0.26 -0.03
[7,] 0.18 -0.03
[8,] 0.13 0.04
[9,] 0.09 0.05
[10,] 0.07 -0.02
[11,] 0.06 -0.05
[12,] 0.02 -0.14
[13,] -0.04 -0.15
[14,] -0.12 -0.05
[15,] -0.19 0.05
[16,] -0.24 0.01
[17,] -0.27 0.01
[18,] -0.27 0.02
[19,] -0.24 0.09
[20,] -0.19 0.11
[21,] -0.11 0.03
[22,] -0.03 -0.03
[23,] 0.03 -0.01
[24,] 0.06 -0.07
[25,] 0.06 -0.12
[26,] 0.02 -0.03
[27,] -0.02 0.05
[28,] -0.06 -0.08
[29,] -0.09 -0.04
[30,] -0.12 -0.03
[31,] -0.13 0.06
[32,] -0.11 0.05
[33,] -0.05 0.15
[34,] 0.02 0.09
[35,] 0.08 -0.04
[36,] 0.12 -0.10
[37,] 0.10 -0.09
[38,] 0.06 -0.02
[39,] 0.01 0.05
[40,] -0.02 0.08
[41,] -0.03 -0.02
[42,] -0.03 -0.01
[43,] -0.02 -0.02
[44,] 0.01 0.05
[45,] 0.06 0.01
[46,] 0.12 0.05
[47,] 0.17 0.08
[48,] 0.20 -0.04
> (regr = ar.ols(rec, order=2, demean=FALSE, intercept=TRUE))
Call:
ar.ols(x = rec, order.max = 2, demean = FALSE, intercept = TRUE)
Coefficients:
1 2
1.3541 -0.4632
$ar
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 23/91
06/06/2023, 12:29 Modelos ARIMA
[1] 0.04178901 0.04187942
III.4 Previsão
Na previsão, o objetivo é prever valores futuros de uma série temporal Xn+m , m = 1, 2, ⋯ com base
nos dados coletados até o presente, X1:n = {X1 , X2 , ⋯ , Xn }. Ao longo desta seção, assumiremos que
X t é estacionário e os parâmetros do modelo são conhecidos. O problema de previsão quando os
parâmetros do modelo são desconhecidos será discutido na próxima seção. O preditor de erro
quadrático médio mínimo de Xn+m é
n
X n+m = E(X n+m | X 1:n ),
2
E(X n+m − g(X 1:n )) ,
Primeiro, vamos restringir a atenção aos preditores que sejam funções lineares dos dados, ou seja,
preditores da forma
n
X n+m = α0 + ∑ αk X k ,
k=1
onde α0 , α1 , ⋯ , αn são números reais. Notamos que os α 's dependem de n e m, mas por enquanto
abandonamos a dependência da notação. Por exemplo, se n = m = 1, então X
1
2
é a previsão linear de
um passo à frente de X2 dado X1 . Em termos da expressão acima, X
1
2
= α0 + α1 X 1 . Mas se n = 2,
X
2
3
é a previsão linear de um passo à frente de X3 dado X1 e X2 , ou seja, X
2
3
= α0 + α1 X 1 + α2 X 2
e, em geral, os α 's em X
1
2
e X
2
3
são diferentes.
Os preditores lineares que minimizam o erro quadrático médio são chamados de melhores preditores
lineares (BLPs). Como veremos, a previsão linear depende apenas dos momentos de segunda ordem do
processo, que são fáceis de estimar a partir dos dados. Grande parte do material desta seção é
aprimorada pelo material teórico apresentado no Apêndice B. Por exemplo, o Teorema B.3 afirma que,
se o processo for Gaussiano, os preditores de erro quadrático médio mínimo e os melhores preditores
lineares serão os mesmos. A seguinte propriedade, baseada no Teorema da Projeção, Teorema B.1, é
um resultado chave.
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 24/91
06/06/2023, 12:29 Modelos ARIMA
n
m ≥ 1, é encontrado resolvendo
n
E((X n+m − X n+m )X k ) = 0, k = 0, 1, ⋯ , n,
onde X0 = 1 , para α0 , α1 , ⋯ , αn .
Demonstração Apêndice B ▉
As equações especificadas no Teorema III.3 são chamadas de equações de predição e são usadas para
resolver os coeficientes {α0 , α1 , ⋯ , αn } . Os resultados do Teorema III.3 também podem ser obtidos
n
através de mínimos quadrados; isto é, minimizando Q = E(X n+m − ∑
k=0
αk X k )
2
com respeito aos
α 's, resolvendo ∂ Q/∂ αj = 0 para αj , j = 0, 1, ⋯ , n . Isso leva ao resultado no Teorema III.3.
n
E(X n+m ) = E(X n+m ) = μ⋅
n n
μ = α0 + ∑ αk μ ou α0 = μ(1 − ∑ αk )⋅
k=1 k=1
n
X n+m = μ + ∑ αk (X k − μ)⋅
k=1
Assim, até discutirmos a estimação, não há perda de generalidade ao considerar o caso que μ = 0, em
cujo caso, α0 = 0.
Primeiro, considere a previsão de um passo à frente. Isto é, dado {X1 , ⋯ , Xt }, desejamos prever o
valor da série temporal no próximo ponto de tempo, Xn+1 . O BLP de Xn+1 é da forma
n
X = ϕn,1 X n + ϕn,2 X n−1 + ⋯ + ϕn,n X 1 ,
n+1
onde agora mostramos a dependência dos coeficientes em n; nesse caso αk no preditor linear é
ϕn,n+1−k na expressão acima, para k = 1, ⋯ , n. Utilizando o Teorema III.3, os coeficientes
{ϕn,1 , ϕn,2 , ⋯ , ϕn,n } satisfazem
j=1
ou
n
∑ ϕn,j γ (k − j) = γ (k), k = 1, 2 ⋯ , n⋅
j=1
Γ n ϕn = γn ,
onde Γ n = {γ (k − j)}
n
j,k=1
é uma matriz n × n, ϕn = (ϕn,1 , ⋯ , ϕn,n )
⊤
é um vetor n × 1 e
γn = (γ (1), ⋯ , γ (n))
⊤
é um vetor n × 1.
A mariz Γn é definida não negativa. Se Γn é singular, existem muita soluções mas, pelo Teorema de
projeção (Teorema B.1), Xn+1
n
é única. Se Γn é não singular, os elementos de ϕn são únicos e dados
por
−1
ϕn = Γn γn ⋅
Para os modelos ARM A, o fato de σ 2 > 0 e limh→∞ γ (h) = 0 é o suficiente para garantir que Γn
W
seja definido positivo. Às vezes é conveniente escrever a previsão de um passo à frente na notação
vetorial
n ⊤
X n+m = ϕn X,
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 25/91
06/06/2023, 12:29 Modelos ARIMA
onde X = (X n , X n−1 , ⋯ , X 1 )
⊤
.
2
n n ⊤ −1
P = E(X n+1 − X ) = γ (0) − γn Γ n γn ⋅
n+1 n+1
2 2 2
n ⊤ ⊤ −1
E(X n+1 − X ) = E(X n+1 − ϕn X) = E(X n+1 − γn Γ n X)
n+1
2 ⊤ −1 ⊤ −1 ⊤ −1
= E(X − 2γn Γ n XX n+1 + γn Γ n XX Γn γn )
n+1
⊤ −1 ⊤ −1 −1
= γ (0) − 2γn Γ n γn + γn Γ n Γ n Γ n γn
⊤ −1
= γ (0) − γn Γ n γn ⋅
γ(1)
1
X = ϕ1,1 X1 = X1 = ρ(1)X1 ⋅
2
γ(0)
Agora, suponha que queremos a previsão de X3 com um passo à frente com base em duas
observações X e X ,
1 ou seja, 2 X
2
3
= ϕ2,1 X2 + ϕ2,2 X1 . Poderíamos usar que
n
∑ ϕ γ(k − j) = γ(k), para k = 1, 2 ⋯ , n ,
n,j
j=1
−1
ϕ2,1 γ(0) γ(1) γ(1)
( ) = ( ) ( ),
ϕ2,2 γ(1) γ(0) γ(2)
n
X = ϕ1 Xn + ϕ2 Xn−1 ⋅
n+1
A partir do Exemplo III.19, deve ficar claro que, se a série temporal é um processo causal AR(p),
então, para n ≥ p,
n
X = ϕ1 X n + ϕ2 X n−1 + ⋯ + ϕp X n−p+1 ⋅
n+1
Para os modelos ARMA em geral, as equações de predição não serão tão simples quanto o caso AR puro.
Além disso, para n grande, o uso de sistemas de equações é proibitivo porque requer a inversão de uma
matriz grande. Existem, no entanto, soluções iterativas que não exigem nenhuma inversão de matrizes.
Em particular, mencionamos a solução recursiva devido a Levinson (1947) e Durbin (1960).
2
As equações e podem ser resolvidas
−1 n n ⊤ −1
ϕn = Γ n γn P = E(X n+1 − X ) = γ (0) − γn Γ n γn
n+1 n+1
0
ϕ0,0 = 0, P = γ (0)⋅
1
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 26/91
06/06/2023, 12:29 Modelos ARIMA
Para n ≥ 1,
n−1
k=1
n n−1 2
ϕn,n = , P = Pn (1 − ϕn,n ),
n+1
n−1
1 − ∑ ϕn−1,k ρ(k)
k=1
onde, para n ≥ 2
Demonstração Exercício ▉
1
= γ(0) . Então, para n = 1
1 2
ϕ1,1 = ρ(1), P = γ(0)(1 − ϕ )⋅
2 1,1
Para n = 2 ,
2 1 2 2 2
P = P (1 − ϕ ) = γ(0)(1 − ϕ )(1 − ϕ )⋅
3 2 2,2 1,1 2,2
Para n = 3 ,
3 2 2 2 2 2
P = P (1 − ϕ ) = γ(0)(1 − ϕ )(1 − ϕ )(1 − ϕ )
4 3 3,3 1,1 2,2 3,3
e assim por diante. Observe que, em geral, o erro padrão da previsão de um passo à frente é a
raiz quadrada de
n
n 2
P = γ(0) ∏ (1 − ϕ )⋅
n+1 j,j
j=1
O PACF de um processo estacionário Xt , pode ser obtido iterativamente via o Teorema III.4 como
ϕn,n , para n = 1, 2, ⋯ .
p
X = ϕp,1 X p + ϕp,2 X p−1 + ⋯ + ϕp,p X 1
p+1
= ϕ1 X p + ϕ2 X p−1 + ⋯ + ϕp X 1 ⋅
O resultado acima mostra que, para um modelo AR(p), o coeficiente de autocorrelação parcial na
defasagem p, ϕp,p , também é o último coeficiente no modelo, ϕp , como foi reivindicado no Exemplo
III.16.
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 27/91
06/06/2023, 12:29 Modelos ARIMA
Utilizaremos o resultado do Exemplo III.20 e do Teorema III.5 para calcular os três primeiros
valores ϕ1,1 , ϕ2,2 e ϕ3,3 do PACF. Lembremos do Exemplo III.10 e
ρ(h) − ϕ1 ρ(h − 1) − ϕ2 ρ(h − 2) = 0 para h ≥ 1 . Quando h = 1, 2, 3, temos que ρ(1) = ϕ1 /(1 − ϕ2 ) ,
ρ(2) = ϕ1 ρ(1) + ϕ2 , ρ(3) − ϕ1 ρ(2) − ϕ2 ρ(1) = 0. Portanto,
ϕ1
ϕ1,1 = ρ(1) = ,
1 − ϕ2
2 2
ϕ1 ϕ1
(ϕ 1 ( ) + ϕ2 ) − ( )
2
ρ(2) − ρ(1) 1 − ϕ2 1 − ϕ2
ϕ2,2 = = = ϕ2 ,
2 2
1 − ρ(1) ϕ1
1 − ( )
1 − ϕ2
ϕ2,1 = ρ(1)(1 − ϕ2 ) = ϕ1 ,
Até agora, nos concentramos na previsão de um passo à frente, mas o Teorema III.3 nos permite
calcular o melhor preditor linear de X n+m para qualquer m ≥ 1. Fornecidos os dados {X 1 , ⋯ , X n }, o
preditor m -passos-à-frente é
n
(m)
∑ϕ E(X n+1−j X n+1−k ) = E(X n+m X n+1−k ), k = 1, ⋯ , n,
n,j
j=1
ou
n
(m)
∑ϕ γ (k − j) = γ (m + k − 1), k = 1, ⋯ , n⋅
n,j
j=1
(m) (m)
Γ n ϕn = γn ,
2 (m)⊤ (m)
n n −1
Pn+m = E(X n+m − X n+m ) = γ (0) − γn Γn γn ⋅
Outro algoritmo útil para calcular previsões foi dado por Brockwell e Davis (1991). Esse algoritmo segue
diretamente da aplicação do teorema da projeção (Teorema B.1) às inovações, , para
t−1
Xt − X
t
0 0
X = 0, P = γ (0),
1 1
t t−j
X = ∑ θt,j (X t+1−j − X ), t = 1, 2, ⋯
t+1 t+1−j
j=1
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 28/91
06/06/2023, 12:29 Modelos ARIMA
t−1
t 2 j
P = γ (0) − ∑ θ P , t = 1, 2, ⋯ ,
t+1 t,t−j j+1
j=0
onde, para j = 0, 1, ⋯ , t − 1,
j−1
k
γ (t − j) − ∑ θj,j−k θt,t−k P
k+1
k=0
θt,t−j = ⋅
j
P
j+1
n+m−1
n n+m−j−1
X n+m = ∑ θn+m−1,j (X n+m−j − X )
n+m−j
j=m
n+m−1
n 2 n+m−j−1
Pn+m = γ (0) − ∑ θ P ,
n+m−1,j n+m−j
j=m
2
θσW
θn,1 = ,
n−1
Pn
θn,j = 0, j = 2, ⋯ , n,
0 2 2
P = (1 + θ )σW ,
1
n 2 2
P = (1 + θ − θθn,1 )σW ⋅
n+1
n−1 2
θ(Xn − Xn )σW
n
X = ⋅
n+1 n−1
Pn
As equações gerais de predição fornecem pouca informação sobre previsão para modelos ARMA em
geral. Existem várias maneiras diferentes de expressar essas previsões e cada uma delas ajuda a
entender a estrutura especial da predição do ARMA.
Ao longo do tempo, assumimos que Xt é um processo causal e inversível ARM A(p, q),
ϕ(B)X t = θ(B)Wt , onde Wt ∼ N (0, σ independentes. No caso de média não zero E(Xt ) = μt ,
2
W
)
n
X n+m = E(X n+m |X n , ⋯ , X 1 )⋅
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 29/91
06/06/2023, 12:29 Modelos ARIMA
Para modelos ARMA, é mais fácil calcular o preditor de Xn+m assumindo que temos a história completa
do processo {Xn , Xn−1 , ⋯ , X1 , X0 , X−1 , ⋯}. Vamos denotar o preditor de Xn+m com base no
passado infinito como
n
X̃ n+m
= E(X n+m | X n , X n−1 , ⋯ , X 1 , X 0 , X −1 , ⋯)⋅
n n
Em geral, n
X n+m e X̃ n+m
não são iguais, mas a ideia aqui é que, para grandes amostras, X̃ n+m
X n+m = ∑ ψj Wn+m−j , ψ0 = 1,
j=0
e invertível
∞
Wn+m = ∑ πj X n+m−j , π0 = 1⋅
j=0
j=0 j=m
0, t > n
W̃ j = E(Wt |X n , X n−1 , ⋯ , X 0 , X −1 , ⋯) = { ⋅
Wt , t ≤ n
0 = X̃ n+m
+ ∑ πj X̃ n+m−j
,
j=1
ou
m−1 ∞
X̃ n+m
= − ∑ πj X̃ n+m−j
− ∑ πj X n+m−j ,
j=1 j=m
escrever
m−1
j=0
m−1
2
n 2 2
Pn+m = E(X n+m − X̃ n+m ) = σW ∑ ψ ⋅
j
j=0
Além disso, notamos que, para um tamanho de amostra fixo n, os erros de previsão são
correlacionados. Isto é,
m−1
2
E((X n+m − X̃ n+m )(X n+m+k − X̃ n+m+k )) = σ W ∑ ψj ψj+k ⋅
j=0
Considere prever o processo ARMA com a média μX . Substituindo Xn+m por Xn+m − μX e
considerando a esperança condicional, deduzimos que a previsão m -passos à frente pode ser
escrita como
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 30/91
06/06/2023, 12:29 Modelos ARIMA
∞
X̃ n+m = μX + ∑ ψj Wn+m−j ⋅
j=m
n 2 2 2
P n+m → σW ∑ ψ = γ (0) = σW ,
j X
j=0
Deve ficar claro que as previsões do ARMA se ajustam rapidamente à média com um erro de
previsão constante à medida que o horizonte de previsão, m, cresce. Esse efeito pode ser
visto na figura do Exemplo III.25, onde a série Recrutamento está prevista para 24 meses.
Quando n é pequeno, as equações gerais de predição podem ser usadas facilmente. Quando n é grande,
usaríamos
m−1 ∞
j=1 j=m
m−1 n+m−1
n n
X̃ n+m
= − ∑ πj X̃ n+m−j
− ∑ πj X n+m−j ,
j=1 j=m
n n
onde X̃ t
= Xt , para 1 ≤ t ≤ n e X̃ t
= 0 para t ≤ 0. Os erros de previsãão truncados são dados
n
por W̃ t
= 0 para t ≤ 0 ou t > n e
n n n n
W̃ t
= ϕ(B) X̃ t
− θ1 W̃ t−1
− ⋯ − θq W̃ t−q
,
para 1 ≤ t ≤ n.
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 31/91
06/06/2023, 12:29 Modelos ARIMA
n n
X̃ n+1
= ϕXn + 0 + θW̃ n
⋅
Para m ≥ 2 , temos
n n
X̃ n+m
= ϕ X̃ n+m−1
,
m−1 2 2(m−1)
(ϕ + θ) (1 − ϕ )
n 2 2 2(j−1) 2
P n+m = σW (1 + (ϕ + θ) ∑ ϕ ) = σW (1 + )⋅
2
j=1
1 − ϕ
Para avaliar a precisão das previsões, os intervalos de previsão são normalmente calculados junto com
as previsões. Em geral, os intervalos de previsão com probabilidade de cobertura 1 − α, são da forma
−−−−−
n n
X n+m ± c α/2 √Pn+m ,
onde c α/2 é escolhido para obter o grau de confiança desejado. Por exemplo, se o processo for
gaussiano, escolher c α/2 = 2 produz um intervalo de previsão de aproximadamente 95% para X n+m .
Se o interesse é envolver os intervalos de previsão para o longo de um período de tempo, então ele
deve ser convenientemente ajustado, por exemplo, usando a desigualdade de Bonferroni (ver Johnson
and Wichern, 1992, Capítulo 5).
Usando as estimativas dos parâmetros como os valores reais dos parâmetros, a figura abaixo
mostra o resultado da previsão da série de Recrutamentos fornecida no Exemplo III.18 em um
horizonte de 24 meses, m = 1, 2, ⋯ , 24 . As previsões reais são calculadas como
n n n
Xn+m = 6.74 + 1.35X − 0.46X ,
n+m−1 n+m−2
ψj = 1.35ψj−1 − 0.46ψj−2
n
P = 89.72,
n+1
n 2
P = 89.72(1 + 1.35 ),
n+2
3 2 2 2
P = 89.72(1 + 1.35 + (1.35 − 0.46 )),
n+3
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 32/91
06/06/2023, 12:29 Modelos ARIMA
> U = fore$pred+fore$se; L = fore$pred-fore$se
> xx = c(time(U), rev(time(U))); yy = c(L, rev(U))
> polygon(xx, yy, border = 8, col = gray(.6, alpha = .2))
> lines(fore$pred, type="p", col=2)
Completamos esta seção com uma breve discussão sobre previsão reversa (backcasting). Na previsão
reversa, queremos prever X 1−m , para m = 1, 2, ⋯ , com base nos dados {X 1 , ⋯ , X n }. Escreva a
previsão reversa como
n
n
X = ∑ αj X j ⋅
1−m
j=1
j=1
ou
n
∑ αj γ (k − j) = γ (m + k − 1), k = 1, ⋯ , n⋅
j=1
(m)
Essas equações são precisamente as equações de previção para a previsão direta. Isto é αj = ϕ
n,j
,
(m)
para j = 1, ⋯ , n, onde ϕ
n,j
foram dadas anteriormente. Finalmente, os backcasts são dados por
n (m) (m)
X = ϕ X 1 + ⋯ + ϕn,n X n , m = 1, 2, ⋯ ⋅
1−m n,1
encaminhamento. Acabamos de ver que a melhor previsão linear para trás no tempo é a mesma que
a melhor previsão linear para frente no tempo para modelos estacionários. Assumindo que os
modelos são gaussianos, também temos que o erro quadrático médio mínimo da previsão para trás
no tempo é a mesma do modelo anterior para modelos ARMA. Lembremos que no caso gaussiano
estacionário, (a) a distribuição de {X , X , ⋯ , X } é a mesma que (b) a distribuição de
n+1 n 1
previsão reversa usamos (b) para obter E(X |X , ⋯ , X 0 1 n) . Porque (a) e (b) são os mesmos, os
dois problemas são equivalentes.
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 33/91
06/06/2023, 12:29 Modelos ARIMA
Assim, o processo pode ser gerado de forma equivalente pelo modelo backward ou de
encaminhamento,
Xt = ϕXt+1 + θV t+1 + V t ,
Então
n n n n
X̃ ˜ + V
= ϕX 1 + θV ˜ ˜ ,
= ϕX 1 + θV
0 1 0 1
n
porque ˜
V t
= 0 para t ≤ 0 . Continuando, os backcasts gerais truncados são dados por
n n
X̃ 1−m
= ϕ X̃ 2−m
, m = 2, 3, ⋯ ⋅
Para fazer backcast de dados em R, basta inverter os dados, ajustar o modelo e prever. A
seguir, fizemos backcast de um processo ARM A(1, 1) simulado; veja a figura abaixo.
> set.seed(90210)
> x = arima.sim(list(order = c(1,0,1), ar =.9, ma=.5), n = 100)
> xr = rev(x) # xr is the reversed data
> pxr = predict(arima(xr, order=c(1,0,1)), 10) # prever os dados invertidos
> pxrp = rev(pxr$pred) # reordene os preditores (para plotagem)
> pxrse = rev(pxr$se) # reordenar os error padrão
> nx = ts(c(pxrp, x), start=-9) # anexãndo os backcasts aos dados
> par(mfrow = c(1,1),mar=c(4,3,1,1),mgp=c(1.6,.6,0), pch=19)
> plot(nx, ylab=expression(X[~t]), main='Previsão reversa', xlab="Tempo")
> U = nx[1:10] + pxrse; L = nx[1:10] - pxrse
> xx = c(-9:0, 0:-9); yy = c(L, rev(U))
> polygon(xx, yy, border = 8, col = gray(0.6, alpha = 0.2))
> lines(-9:0, nx[1:10], col=2, type='o')
III.5 Estimação
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 34/91
06/06/2023, 12:29 Modelos ARIMA
Começamos com o método dos estimadores de momentos. A ideia por trás desses estimadores é a de
igualar os momentos da população aos momentos da amostra e depois resolver os parâmetros em
termos dos momentos da amostra. Vemos imediatamente que, se E(Xt ) = μ, então o método de
¯¯¯¯
estimador de momentos é a média amostral X . Assim, enquanto se discute o método dos momentos,
assumimos μ = 0. Embora o método dos momentos possa produzir bons estimadores, eles podem levar
a estimadores sub-ótimos. Primeiro, consideramos o caso em que o método leva a estimadores ótimos
(eficientes), isto é, modelos AR(p),
X t = ϕ1 X t−1 + ⋯ + ϕp X t−p + Wt ,
γ (h) = ϕ1 γ (h − 1) + ⋯ + ϕp γ (h − p), h = 1, 2, ⋯ , p,
2
σW = γ (0) − ϕ1 γ (1) − ⋯ − ϕp γ (p)⋅
2 ⊤
Γ p ϕ = γp , σW = γ (0) − ϕ γp ,
p
onde Γ p = {γ (k − j)}
j,k=1
é uma matriz p × p, ϕ = (ϕ 1 , ⋯ , ϕ p )
⊤
é um vetor p × 1 e
γp = (γ (1), ⋯ , γ (p))
⊤
é um veotr p × 1. Usando o método dos momentos, substituímos γ (h) por γ̂ (h)
e resolvemos
−1 −1
2 ⊤
ϕ̂ = Γ̂ p γ̂ p , σ̂ W = γ̂ (0) − γ̂ p Γ̂ p γ̂ p ⋅
Esses estimadores são tipicamente chamados de estimadores Yule-Walker. Para fins de cálculo, às vezes
é mais conveniente trabalhar com a ACF amostral. Ao fatorar γ̂ (0) na expressão acima, podemos
escrever os estimadores de Yule-Walker como
−1 −1
2 ⊤
ϕ̂ = R̂ ρ̂ p , σ̂ W = γ̂ (0)(1 − ρ̂ p R̂p ρ̂ p ),
Para os modelos AR(p), se o tamanho da amostra for grande, os estimadores de Yule-Walker são
aproximadamente normalmente distribuídos e está próximo ao valor real de . Declaramos esses
2 2
σ̂ W σW
D P
−
− 2 −1 2 2
√n (ϕ̂ − ϕ) ⟶ N (0, σ W Γ p ), σ̃
W
⟶ σW ⋅
O algoritmo de Durbin-Levinson pode ser usado para calcular ϕ̂ sem inverter Γ̂ p ou R̂p , substituindo
γ (h) por γ̂ (h) no algoritmo. Ao executar o algoritmo, calcularemos iterativamente o vetor h × 1,
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 35/91
06/06/2023, 12:29 Modelos ARIMA
D
−
−
√n ϕ̂ h,h ⟶ N (0, 1) h > p⋅
Xt = 1.5Xt−1 − 0.75Xt−2 + Wt ,
onde W ∼ t N (0, 1) independentes. Para esses dados, γ̂ (0) = 8.903 , ρ̂ (1) = 0.849 e ρ̂ (2) = 0.519 .
Portanto
−1
ˆ
ϕ1 1 0.849 0.849 1.463
ˆ
ϕ = ( ) = ( ) ( ) = ( )
ˆ 0.849 1 0.519 −0.723
ϕ2
2 1.463
σ̂ = 8.903 (1 − (0.849 , 0.519) ( )) = 1.187⋅
W
−0.723
−1 2
1 1.187 1 0.949 0.058 −0.003
× ( ) = ( ),
2
144 8.903 0.849 1 −0.003 0.589
e pode ser usado para obter regiões de confiança ou fazer inferências sobre ϕ
ˆ
e seus
componentes. Por exemplo, um intervalo de confiança de aproximadamente 95% para ϕ é 2
No Exemplo III.18, ajustamos um modelo AR(2) à série de Recrutamento usando mínimos quadrados
ordinários (OLS). Para os modelos AR, os estimadores obtidos via OLS e Yule-Walker são quase
idênticos; veremos isso quando discutirmos a estimação de soma condicional de quadrados.
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 36/91
06/06/2023, 12:29 Modelos ARIMA
Para obter as previsões de 24 meses à frente e seus erros padrão e, em seguida, plotar os
resultados como no Exemplo III.25, use os comandos R:
No caso dos modelos AR(p), os estimadores Yule-Walker são ótimos no sentido de que a distribuição
assintótica é a melhor distribuição normal assintótica. Isso porque, dadas as condições iniciais, os
modelos AR(p) são modelos lineares e os estimadores Yule-Walker são essencialmente estimadores de
mínimos quadrados. Se usarmos o método dos momentos para os modelos MA ou ARMA, não obteremos
estimadores ótimos porque tais processos não são lineares nos parâmetros.
Exemplo III.29. Estimadores obtidos pelo método dos momentos para o modelo M A(1) .
Xt = Wt + θWt−1 ,
j
Xt = ∑(−θ) Xt−j + Wt ,
j=1
ˆ
γ̂ (1) θ
ρ̂ (1) = = ⋅
2
γ̂ (0) ˆ
1 + θ
2
, as soluções são reais,
caso contrário, soluções reais não existem. Mesmo que |ρ(1)| <
1
2
para um M A(1) invertível,
pode acontecer que |ρ̂ (1)| ≥
1
2
porque é um estimador. Por exemplo, a seguinte simulação em R
produz um valor de ρ̂ (1) = 0.507 quando o valor verdadeiro é 2
ρ(1) = 0.9/(1 + 0.9 ) = 0.497 .
> set.seed(2)
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 37/91
06/06/2023, 12:29 Modelos ARIMA
> ma1 = arima.sim(list(order = c(0,0,1), ma = 0.9), n = 50)
> acf(ma1, plot=FALSE)[1] # = 0.507 (lag 1 ACF amostral)
1
0.507
2
, o estimador invertível é
−−−−−−−−
2
1 − √1 − 4ρ̂ (1)
ˆ
θ = ⋅
2ρ̂ (1)
2 4 6 8
1 + θ + 4θ + θ + θ
ˆ
θ ∼ N (θ, ), quando n → ∞⋅
2 2
n(1 + θ )
X t = μ + ϕ(X t−1 − μ) + Wt ,
2 2
L(μ, ϕ, σ W ) = f (X 1 , X 2 , ⋯ , X n ; μ, ϕ, σ W ),
2
L(μ, ϕ, σ W ) = f (X 1 )f (X 2 |X 1 ) ⋯ f (X n |X n−1 ),
onde deixamos de escrever os parâmetros nas densidades, f (⋅) , para facilitar a notação. Dado que
X t |X t−1 ∼ N (μ + ϕ(X t−1 − μ), σ ), temos
2
W
onde fW (⋅) é a função de densidade de Wt , isto é, a densidade normal com média zero e variáncia σW
2
.
Podemos então escrever a verossimilhança como
2
L(μ, ϕ, σ W ) = f (X 1 ) ∏ fW ((X t − μ) − ϕ(X t−1 − μ))⋅
t=2
j
X 1 = μ + ∑ ϕ W1−j ,
j=0
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 38/91
06/06/2023, 12:29 Modelos ARIMA
−−−−−
√1 − ϕ2 S (μ, ϕ)
2
L(μ, ϕ, σ W ) = n
exp(− ),
2
2 2 2σ W
(2πσ W )
onde
n
2
2 2
S (μ, ϕ) = (1 − ϕ )(X 1 − μ) ∑ ((X t − μ) − ϕ(X t−1 − μ)) ⋅
t=2
2
1
σ̂ W = S (μ̂, ϕ̂ ),
n
1 1
2
ℓ(μ, ϕ) = log( S (μ, ϕ)) − log(1 − ϕ ),
n n
2
isto é, ℓ(μ, ϕ) ≈ −2 log (L(μ, ϕ, σ̂ W )) . A função critério é às vezes chamada de perfilada ou
verossimilhança concentrada.
Fica claro que a função de verossimilhança é complicada nos parâmetros, a minimização de ℓ(μ, ϕ) ou
S (μ, ϕ) é realizada numericamente. No caso dos modelos AR, temos a vantagem de, condicionalmente
aos valores iniciais, serem modelos lineares. Ou seja, podemos descartar o termo na verossimilhança
que causa a não-linearidade. Condicionado em X1 , a verossimilhança condicional torna-se
n
2
L(μ, ϕ, σ W ) = ∏ fW ((X t − μ) − ϕ(X t−1 − μ))
t=2
1 Sc (μ, ϕ)
= exp(− ),
n−1 2
2 2σ W
(2πσ W ) 2
n
2
Sc (μ, ϕ) = ∑ ((X t − μ) − ϕ(X t−1 − μ)) ⋅
t=2
2
Sc (μ̂, ϕ̂ )
σ̂ = ,
W
n − 1
n
2
Sc (μ, ϕ) = ∑ (X t − (α + ϕX t−1 )) ⋅
t=2
O problema agora é a regressão linear exposto na Seção II.1. Seguindo os resultados da estimação por
¯¯¯¯ ¯¯¯¯
mínimos quadrados, temos α̂ = X (2) − ϕ̂ X (1) , onde
n−1
¯¯¯¯
1
X (1) = ∑ Xt
n − 1
t=1
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 39/91
06/06/2023, 12:29 Modelos ARIMA
n
¯¯¯¯
1
X (2) = ∑ Xt
n − 1
t=2
¯¯¯¯ ¯¯¯¯
X (2) − ϕ̂ X (1)
μ̂ =
1 − ϕ̂
n
¯¯¯¯ ¯¯¯¯
∑ (X t − X (2) )(X t−1 − X (1) )
t=2
ϕ̂ = ⋅
n
¯¯¯¯ 2
∑ (X t−1 − X (1) )
t=2
Para os modelos AR(p) gerais, a estimação por máxima verossimilhança, os mínimos quadrados
incondicionais e os mínimos quadrados condicionais seguem analogamente ao exemplo AR(1). Para
modelos ARM A gerais, é difícil escrever a verossimilhança como uma função explícita dos parâmetros.
Em vez disso, é vantajoso escrever a verossimilhança em termos das inovações ou erros de previsão em
um passo à frente, Xt − X
t−1
t
. Isso também será útil no Capítulo VI quando estudarmos modelos de
espaço de estados.
2
L(β, σ W ) = ∏ f (X t |X t−1 , ⋯ , X 1 )⋅
t=1
Lembre-se de que
t−1
t−1 2
P = γ (0) ∏ (1 − ϕ )⋅
t j,j
j=1
∞ t−1
t−1 2 2 2 2
P = σ W (( ∑ ψ )( ∏ (1 − ϕ ))) = σ W rt ,
t j j,j
j=0 j=1
onde rt é o termo entre as chaves. Note que os termos rt são apenas funções dos parâmetros de
regressão e que podem ser computados recursivamente como
2
rt+1 = (1 − ϕ )rt ,
t,t
1 1 S (β)
2
L(β, σ W ) = n −−−−−−−−−−−−−−− exp(− ),
2
2 2 √r1 (β)r2 (β) ⋯ rn (β) 2σ W
(2πσ W )
onde
2
t−1
(X t − X (β))
t
S (β) = ∑ n ⋅
rt (β)
t=1
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 40/91
06/06/2023, 12:29 Modelos ARIMA
verossimilhança dos dados anterior. Dados valores para β e σ 2 , a verossimilhança pode ser avaliada W
2
1
ˆ
σ̂ W = S (β ),
n
onde ˆ
β é o valor de β que minimiza a verossimilhança concentrada ou perfilada
n
S (β) 1
ℓ(β) = log( ) + ∑ log (rt (β))⋅
n n
t=1
0 t−1
X = μ e X = μ + ϕ(X t−1 − μ),
1 t
para t = 2, ⋯ , n⋅ . Também, usando o fato de que \phi_{1,1} = \phi\) e ϕh,h = 0 para h > 1, temos
∞ 2
1 1 − ϕ
2j
r1 = ∑ ϕ = , r2 = = 1
2 2
1 − ϕ 1 − ϕ
j=0
e, em geral, rt = 1 para t = 2, ⋯ , n .
Duas rotinas comuns de otimização numérica para realizar a estimação de máxima verossimilhança
são Newton–Raphson e escore. Vamos dar um breve relato das ideias matemáticas aqui. A
implementação real desses algoritmos é muito mais complicada do que nossa discussão pode
implicar. Para detalhes, o leitor é encaminhado para, por exemplo, Press et al. (1993).
relação a β. Por exemplo, considere alguma das funções de verossimilhança dadas acima.
Suponha que ℓ(β ˆ
) é o extremo que estamos interessados em encontrar e ˆ
β é encontrado
resolvendo ∂ ℓ(β)/∂ β = 0 , para j = 1, ⋯ , k .
j
Seja ℓ
(1)
(β) o vetor k × 1 de derivadas parciais
⊤
∂β ∂β
(1)
ℓ (β) = ( ,⋯, ) ⋅
∂ β1 ∂ βk
Observe que, ℓ (β ˆ
) = 0, o vetor
(1)
k × 1 de zeros. Seja ℓ
(2)
(β) a matriz k × k das derivadas
parciais de segundo ordem
k
2
∂ ℓ (β)
(2)
ℓ (β) = (− ) ,
∂ βi ∂ βj
i,j=1
e assuma que ℓ
(2)
(β) não seja singular. Seja β(0) um estimador inicial suficientemente bom de
β . Então, usando a expansão de Taylor, temos a seguinte aproximação:
0 = ℓ
(1) ˆ) ≈
(β
(1)
(β(0) ) − ℓ
(2) ˆ −
(β(0) )(β
ℓ β(0) )⋅
−1
(2) (1)
β(1) = β(0) + (ℓ (β(0) )) ℓ (β(0) )⋅
O algoritmo de Newton–Raphson procede iterando esse resultado, substituindo β(0) por β(1) para
obter β(2) , e assim por diante, até a convergência. Sob um conjunto de condições apropriadas,
a sequência de estimadores, β(1) , β(2) , ⋯ converge para ˆ
β , a estimativa de máxima
verossimilhança de β .
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 41/91
06/06/2023, 12:29 Modelos ARIMA
Para a estimação por máxima verossimilhança, a função de critério usada é ℓ(β) dada acima;
ℓ
(1)
é chamado vetor escore e ℓ (β) é chamado de hessiano. No método de escore,
(β)
(2)
substituímos ℓ (β) por E(ℓ (β)), a matriz de informação. Sob condições apropriadas, o
(2) (2)
difíceis de obter é possível usar estimação de quase máxima verossimilhança, onde técnicas
numéricas são usadas para aproximar as derivadas.
Até agora, ajustamos um modelo AR(2) à série Recrutamento usando mínimos quadrados ordinários
(Exemplo III.18) e usando os estimadores de Yule-Walker (Exemplo III.28). A seguir, uma sessão
R usada para ajustar um modelo AR(2) via estimação de máxima verossimilhança à série de
Recrutamento; estes resultados podem ser comparados com os resultados do Exemplo 3.18 e do
Exemplo III.28.
Discutimos agora os mínimos quadrados para os modelos ARM A(p, q) via Gauss–Newton. Para
detalhes gerais e completos do procedimento de Gauss-Newton, o leitor é referido ao livro de Fuller
(1996). Como antes, escreva β = (ϕ1 , ⋯ , ϕp , θ1 , ⋯ , θq )
⊤
e para facilitar a discussão, vamos colocar
μ = 0. Escrevemos o modelo em termos de erros
p q
j=1 k=1
Para os mínimos quadrados condicionais, aproximamos a soma dos quadrados residual pelo
condicionamento em X1 , ⋯ , Xp , se p > 0 e Wp = Wp−1 = Wp−2 = ⋯ + W1−q = 0 se q > 0 , neste
caso, dado β podemos avaliar a expressão acima para t = p + 1, p + 2, ⋯ , n. Usando este argumento
de condicionamento, a soma do erro dos quadrados condicional é
n
2
Sc (β) = ∑ W (β)⋅
t
t=p+1
Quando n é grande, o condicionamento em alguns valores iniciais terá pouca influência nas estimativas
finais dos parâmetros. No caso de amostras pequenas a moderadas, pode-se desejar confiar em
mínimos quadrados incondicionais. O problema dos mínimos quadrados incondicionais é escolher
minimizar a soma incondicional de quadrados, que genericamente denotamos por S (β) nesta seção. A
soma incondicional de quadrados pode ser escrita de várias maneiras e uma forma útil no caso de
modelos ARM A(p, q) são derivados em Box et al. (1994). Eles mostraram que a soma incondicional de
quadrados pode ser escrita como
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 42/91
06/06/2023, 12:29 Modelos ARIMA
n
2
S (β) = ∑ W̃ t
(β),
t=−∞
2 2
onde W̃ t (β) = E(Wt |X1 , ⋯ , Xn ). Quando t ≤ 0, o W̃ t (β) é obtido por backcasting ou previsão
reversa. Como uma questão prática, nos aproximamos do S (β) começando a soma em t = −M + 1,
−M
2
onde M é escolhido grande o suficiente para garantir ∑ W̃ t
(β) ≈ 0. No caso da estimação de
t=−∞
mínimos quadrados incondicionais, uma técnica de otimização numérica é necessária mesmo quando
q = 0.
⊤
Wt (β) ≈ Wt (β(0) ) − (β − β(0) ) zt (β(0) ),
onse
∂ Wt (β) ∂ Wt (β) ∣
⊤
z (β(0) ) = (− ,⋯,− )∣ , t = 1, ⋯ , n⋅
t
∂ β1 ∂ βp+q ∣
β=β(0)
n
2
⊤
Q(β) = ∑ (Wt (β(0) ) − (β − β(0) ) zt (β(0) ))
t=p+1
e esta é a quantidade que vamos minimizar. Para quadrados mínimos incondicionais aproximados
iniciaríamos a soma em t = −M + 1, para um grande valor de M e trabalharíamos com os valores
para trás.
−1
n n
1 1
(β ˆ
⊤
− β(0) ) = ( ∑ zt (β(0) )z (β(0) )) ( ∑ zt (β(0) )Wt (β(0) )) ,
t
n n
t=p+1 t=p+1
até a convergência.
Seja θ(0) ser uma estimativa inicial de , por exemplo, a estimativa dada no Exemplo III.29.
θ
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 43/91
06/06/2023, 12:29 Modelos ARIMA
n
t=1
θ(j+1) = θ(j) + , j = 0, 1, 2, ⋯ ,
n
2
∑ z (θ(j) )
t
t=1
sendo que os valores acima são calculados recursivamente. Os cálculos são interrompidos quando
|θ(j+1) − θ(j) | ou |Q(θ(j+1) ) − Q(θ(j) )| são menores que alguns valores predefinidos.
Xt
∇ log(Xt ) = log(Xt ) − log(Xt−1 ) = log ( ),
Xt−1
que pode ser interpretado como sendo aproximadamente a variação percentual na espessura.
> x = diff(log(varve))
> par(mfrow = c(2,1), mar=c(3,3,1,1), mgp=c(1.6,.6,0))
> acf(x)
> grid()
> pacf(x)
> grid()
> acf(x, lag.max = 12, plot = FALSE)
0 1 2 3 4 5 6 7 8 9 10 11 12
1.000 -0.397 -0.044 -0.064 0.009 -0.003 0.035 -0.043 0.041 0.010 -0.054 0.063 -0.060
Como ρ̂ (1) = −0.397 , nossa estimativa inicial é θ(0) = −0.495 . Os resultados de onze iterações
do procedimento de Gauss-Newton, começando com θ(0) , são mostrados abaixo. A estimativa final
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 44/91
06/06/2023, 12:29 Modelos ARIMA
é ˆ
θ = θ(11) = −0.773 ; valores intermediários e o valor correspondente da soma de quadrados
condicional Sc (θ) , também são exibidos.
2
A estimativa final da variância do erro é σ̂
W
= 148.980/(n − 2) = 148.980/632 = 0.236 com 632
graus de liberdade, um é perdido na diferenciação. O valor da soma de quadradasdas derivadas
n
na convergência é ∑
t=1
2
z (θ(11) ) = 368.741
t
e, consequentemente, o erro padrão estimado de ˆ
θ é
−−−−−−−−− −−
√0.236/368.741 = 0.025 , isto leva-nos a um valor t de −0.773/0.025 = −30.92 com 632 graus de
liberdade.
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 45/91
06/06/2023, 12:29 Modelos ARIMA
A figura acima mostra a soma de quadrados condicional S (θ) como função de θ, assim como c
No caso geral dos modelos causais e invertíveis ARM A(p, q) , a estimação por máxima
verossimilhança, a estimação por mínimos quadrados condicionais e incondicionais e a estimação de
Yule-Walker no caso de modelos AR levam a estimadores ótimos. A prova desse resultado geral pode ser
encontrada em vários textos sobre análise de séries temporais teóricos, por exemplo, Brockwell and
Davis (1991) ou Hannan (1970). Vamos denotar os parâmetros do modelo ARMA por
β = (ϕ1 , ⋯ , ϕp , θ1 , ⋯ , θq )
⊤
.
Sob condições apropriadas, para processos ARMA causais e invertíveis, os estimadores de máxima
verossimilhança, mínimos quadrados incondicionais e mínimos quadrados condicionais, cada um
iniciado pelo método de momentos, todos fornecem estimadores ótimos de σ 2 e β, no sentido de que W
2
σ̂
W
é consistente e a distribuição assintótica de ˆ
β é a melhor distribuição normal assintótica. Em
particular, quando n → ∞
D
−
− ˆ 2 −1
√n (β − β) ⟶ N (0, σ W Γ p,q )⋅
Γ ϕ,ϕ Γ ϕ,θ
Γ p,q = ( )⋅
Γ θ,ϕ Γ θ,θ
Demonstração Uma discussão adicional sobre este Teorema, incluindo uma demonstração para o caso
específico de estimadores de mínimos quadrados para processos AR(p), pode ser encontrada na Seção
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 46/91
06/06/2023, 12:29 Modelos ARIMA
B.3 ▉
2
σW
AR(1) : γ
X
(0) =
2
, assim σW Γ
2 −1
1,0
= 1 − ϕ
2
. Então, quando n → ∞ ,
1 − ϕ
2
1 − ϕ
ˆ
ϕ ∼ N (ϕ, )⋅
n
2
1 − ϕ2 σW
γ (0) = ( ) ,
X
2 2
1 + ϕ2 (1 − ϕ2 ) − ϕ
1
e que γ
X
(1) = ϕ1 γ
X
(0) + ϕ2 γ
X
(1) . A partir desses fatos, podemos calcular −1
Γ
2,0
. Em
particular, temos
ˆ 2
ϕ1 ϕ1 1 1 − ϕ −ϕ1 (1 + ϕ2 )
2
( ) ∼ N (( ), ( )) ,
2
ˆ ϕ2 n −ϕ1 (1 + ϕ2 ) 1 − ϕ
ϕ2 2
quando n → ∞ .
M A(1) : Neste caso escrevemos θ(B)Y t = Wt ou Y t + θY t−1 = Wt . Então, análogo ao caso
2
σW
AR(1) temos que, γ
Y
(0) =
2
, deste modo 2
σW Γ
−1
1,0
= 1 − θ
2
. Portanto,
1 − θ
2
1 − θ
ˆ
θ ∼ N (θ, ),
n
quando n → ∞ .
M A(2) : Escrevendo Y t + θ1 Y t−1 + θ2 Y t−2 = Wt , então, análogo ao caso AR(2) , temos
ˆ 1 − θ
2
−θ1 (1 + θ2 )
θ1 θ1 1 2
( ) ∼ N (( ), ( )) ,
ˆ 2
θ2 n −θ1 (1 + θ2 ) 1 − θ
θ2 2
quando n → ∞ .
ARM A(1, 1) : Para calcular Γϕ,θ , devemos encontrar γ
XY
(0) , onde Xt − ϕXt−1 = Wt e
Y t + θY t−1 = Wt . Temos então
2
γ (0) = Cov(Xt , Y t ) = Cov(ϕXt−1 + Wt , −θY t−1 + Wt ) = −ϕθγ (0) + σW ⋅
XY XY
2
σW
Resolvendo, encontramos γ
XY
(0) = . Então
1 + ϕθ
−1
⎛ 1 ⎞
⎛ 1 ⎞
ˆ 1 + ϕθ
ϕ ⎜ ϕ 1 ⎜ 1 − ϕ2 ⎟
⎟
( ) ∼ N ⎜( ), ⎜ ⎟
⎟,
⎜ ⎟
ˆ ⎜ θ n⎜ 1 1 ⎟ ⎟
θ
⎝ ⎝ 2
⎠ ⎠
1 + ϕθ 1 − θ
quando n → ∞ .
O comportamento assintótico dos estimadores de parâmetros nos dá uma visão adicional sobre o
problema de adaptar os modelos ARMA aos dados. Por exemplo, suponha que uma série temporal
segue um processo AR(1) e decidimos ajustar um AR(2) aos dados. Algum problema ocorre ao
fazer isso? Em termos mais gerais, por que não simplesmente ajustar modelos de AR de ordem
maior para garantir que capturemos a dinâmica do processo? Afinal, se o processo for realmente
um AR(1) os outros parâmetros autoregressivos não serão significativos.
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 47/91
06/06/2023, 12:29 Modelos ARIMA
A resposta é que, se formos demais, obteremos estimativas dos parâmetros menos eficientes ou,
de outra maneira, menos precisas. Por exemplo,se ajustarmos um modelo AR(1) a um processo
AR(1) , para grande n ,
1
ˆ 2
Var(ϕ 1 ) ≈ (1 − ϕ )⋅
1
n
1 1
ˆ 2
Var(ϕ 1 ) ≈ (1 − ϕ ) = ,
2
n n
Queremos mencionar, no entanto, que o overfitting pode ser usado como uma ferramenta de
diagnóstico. Por exemplo, se ajustarmos um modelo AR(2) aos dados e estivermos satisfeitos
com esse modelo, adicionar mais um parâmetro e ajustar um AR(3) deve levar aproximadamente ao
mesmo modelo que no ajuste AR(2). Discutiremos os diagnósticos do modelo em mais detalhes na
Seção III.7.
O leitor pode querer saber, por exemplo, por que as distribuições assintóticas de ϕ̂ de um AR(1) e θˆ de
um M A(1) são da mesma forma. É possível explicar este resultado inesperado usando heuristicamente
a intuição da regressão linear. Ou seja, para o modelo de regressão normal apresentado na Seção II.1,
sem termo de intercepto X t = βzt + Wt , sabemos que ˆ
β é normalmente distribuído com mádia β e
2 2
nσ W σW
−
− ˆ
Var(√n (β − β)) = = ⋅
n n
1
2 2
∑z ∑z
t t
n
t=1 t=1
Para o modelo causal AR(1) dado por X t = ϕX t−1 + Wt , a intuição da regressão nos diz para esperar
−
−
que, para n grande, √n (ϕ̂ − ϕ) é aproximadamente normal com média zero e com variância dada por
2
σW
⋅
n
1
2
∑X
t−1
n
t=2
2 2
σW 1 − ϕ
2 2
= σW ( ) = 1 − ϕ ,
2
γX (0) σW
No caso de um M A(1) , podemos usar a discussão do Exemplo III.32 para escrever um modelo de
regressão aproximado para o M A(1) . Ou seja, considere a aproximação no Exemplo III.32, como o
modelo de regressão
ˆ ˆ
zt (θ ) = −θzt−1 (θ ) + Wt−1 ,
onde agora, ˆ
zt−1 (θ ) como definido no Exemplo III.32, desempenha o papel do regressor. Continuando
−
− ˆ
com a analogia, esperaríamos a distribuição assintótica de √n (θ − θ) ser normal, com média zero e
variáncia aproximada
2
σW
⋅
n
1
2 ˆ
∑z (θ )
t−1
n
t=2
n
Como no caso AR(1),
ˆ
é a variância amostral de ˆ
então, para grande, deve ser
1 2
∑ z (θ ) zt (θ ) n
n t=2 t−1
que Var(zt (θ)) = γZ (0). Mas, note que zt (θ), pode ser aproximado como um processo AR(1) com
parâmetro −θ. Deste modo
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 48/91
06/06/2023, 12:29 Modelos ARIMA
2 2
σW 1 − (−θ)
2 2
= σW ( ) = 1 − θ ⋅
2
γZ (0) σW
Para um relato rigoroso dessa abordagem para o caso geral, ver Fuller (1996).
No Exemplo III.33, o erro padrão estimado de θˆ é 0.025. Nesse exemplo, usamos resultados de
regressão para estimar o erro padrão como a raiz quadrada de
−1
2 n 2
σ̂ W 1 σ̂ W
( ˆ 2
∑ z (θ )) = ,
t n
n n
t=1 ˆ 2
∑ zt (θ )
t=1
2 n
onde n = 632 , σ̂
W
= 0.236 , ∑
t=1
2
zt (θ̂ ) = 368.74 e θ̂ = −0.773. Utilizando o resultado acerca do
comportamento da distribuição assintótica específicas para os modelos M A(1) no Exemplo III.34,
poderíamos também ter calculado esse valor usando a aproximação assintótica, como a raiz quadrada
de (1 − (−0.773) )/632 ,
2
que também é 0.025.
Xt = μ + ϕ(Xt−1 − μ) + Wt ,
de Wt é dada por
1 |w|
f (w) = exp ( − ), −∞ < w < ∞⋅
2β β
> set.seed(101010)
> e = rexp(150, rate=.5); u = runif(150,-1,1); de = e*sign(u)
> dex = 50 + arima.sim(n=100, list(ar=.95), innov=de, n.start=50)
> par(mfrow = c(1,1), mar=c(3,3,1,1), mgp=c(1.6,.6,0), pch=19)
> plot.ts(dex, type='o', ylab=expression(X[~t]), xlab="Tempo")
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 49/91
06/06/2023, 12:29 Modelos ARIMA
2
Usando esses dados, obtivemos as estimativas de Yule-Walker μ̂ = 45.25 , ˆ
ϕ = 0.96 e σ̂ W = 7.88 ,
como segue:
2
(1 − 0.96 )/100 = 0.03
2
; essa distribuição é sobreposta na figura abaixo. Claramente, a
distribuição amostral não está próxima da normalidade para este tamanho de amostra.
> set.seed(111)
> phi.yw = rep(NA, 1000)
> for (i in 1:1000){
e = rexp(150, rate=.5); u = runif(150,-1,1); de = e*sign(u)
x = 50 + arima.sim(n=100,list(ar=.95), innov=de, n.start=50)
phi.yw[i] = ar.yw(x, order=1)$ar }
A simulação anterior exigia conhecimento total do modelo, dos valores dos parâmetros e da
distribuição do ruído. É claro que, em uma situação de amostragem, não teríamos as informações
necessárias para fazer a simulação anterior e, consequentemente, não conseguiríamos gerar uma
figura como a abaixo. O bootstrap, no entanto, nos dá uma maneira de atacar o problema.
t−1
X = μ + ϕ(Xt−1 − μ), t = 2, ⋯ , 100⋅
t
Consequentemente, as inovações, ϵt = Xt − X
t−1
t
, são dadas por
t−1
Xt = X + ϵt = μ + ϕ(Xt−1 − μ) + ϵt , t = 2, ⋯ , 100⋅
t
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 50/91
06/06/2023, 12:29 Modelos ARIMA
Para realizar a simulação bootstrap, substituímos os parâmetros com suas estimativas na
expressão acima, ou seja, μ̂ = 45.25 e ϕˆ
= 0.96, e denotamos as inovações amostrais resultantes
como { ϵ̂ , ⋯ , ϵ̂ }. Para obter uma amostra bootstrap, primeiro faça uma amostragem aleatória,
2 100
∗ ∗ ∗
X = 45.25 + 0.96(X − 45.25) + ϵ , t = 2, ⋯ , 100,
t t−1 t
com X
∗
!
fixo como X1 . Em seguida, estime os parâmetros como se os dados fossem X
∗
t
. Chame
estas estimativas μ̂(1) , ˆ
ϕ (1) e 2
σW (1) . Repita este processo um número grande B , de vezes,
gerando uma coleção de estimativas de parâmetros bootstrap, {μ̂(b), ϕ
ˆ
(b), σ (b) : b = 1, ⋯ , B}.
2
W
A figura abaixo mostra o histograma da amostra bootstrap de 500 estimativas bootstrap dos
dados mostrados na figura acima. Note que a distribuição bootstrap de ˆ
ϕ é próxima da
distribuição de ˆ
ϕ mostrada na figura abaixo. O código a seguir foi usado para executar o
bootstrap.
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 51/91
06/06/2023, 12:29 Modelos ARIMA
X t = μt + Y t ,
∇X t = X t − X t−1 = β1 + Y t − Y t−1 = β1 + ∇Y t ⋅
μt = μt−1 + Vt
∇X t = V t + ∇Y t ,
j=0
μt = μt−1 + Vt e Vt = Vt−1 + ϵt ,
2 2
∇ X t = ϵt + ∇ Y t ,
é estacionária.
O modelo ARMA integrado ou ARIMA é uma ampliação da classe de modelos ARMA para incluir a
diferenciação.
d d
∇ X t = (1 − B) X t ,
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 52/91
06/06/2023, 12:29 Modelos ARIMA
d
ϕ(B)(1 − B) X t = θ(B)Wt ⋅
Se E(∇ X t ) = μ,
d
escrevemos o modelo como
d
ϕ(B)(1 − B) X t = δ + θ(B)Wt ,
onde δ = μ(1 − ϕ1 − ⋯ − ϕp ).
Por causa da não-estacionariedade, deve-se ter cuidado ao derivar previsões. Por uma questão de
completude, discutimos brevemente essa questão aqui, mas enfatizamos o fato de que os aspectos
teóricos e computacionais do problema são mais bem tratados por meio de modelos de espaço de
estados. Discutimos os detalhes teóricos no Capítulo VI. Para obter informações sobre o aspectos
computacionais baseados em espaço de estados em R, veja os arquivos de ajuda ARIMA,
> ?arima
> ?predict.Arima
os scripts sarima e sarima.for apresentados aqui são basicamente invólucros para esses scripts.
Deve ficar claro que, como Yt = ∇d Xt é ARMA, podemos usar os métodos da Seção III.4 para obter
previsões de Yt , que, por sua vez, levam a previsões para Xt . Por exemplo, se d = 1, dadas as
previsões Yn+m
n
para m = 1, 2, ⋯ ,, temos Yn+m
n
= X
n
n+m
− X
n
n+m−1
, de modo que
n n n
X n+m = Y n+m + X ,
n+m−1
m−1
n 2 ∗2
Pn+m = σW ∑ ψ ,
j
j=0
sendo ψ
∗2
j
o coeficiente de z
j
em
θ(z)
∗
ψ (z) = ⋅
ϕ(z)(1 − z)d
Para entender melhor os modelos integrados, examinamos as propriedades de alguns casos simples. O
Exercício III.29 abrange o caso ARI M A(1, 1, 0).
Para fixar ideias, começamos considerando o passeio aleatório com modelo de tendência
apresentado primeiro no Exemplo I.11, ou seja,
Xt = δ + Xt−1 + Wt ,
n
X = E(Xn=1 | Xn , ⋯ , X1 ) = E(δ + Xn + Wn+1 | Xn , ⋯ , X1 ) = δ + Xn ⋅
n+1
n
Xn+m = mδ + Xn ⋅
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 53/91
06/06/2023, 12:29 Modelos ARIMA
n
podemos escrever
n+m n+m
Xn+m = (n + m)δ + ∑ Wj = mδ + Xn + ∑ Xj ⋅
j=1 j=n+1
A partir disso, segue-se que o erro de predição de m passos à frente é dado por
2
n+m
2
n n 2
P n+m = E(Xn+m − Xn+m ) = E( ∑ Wj ) = mσW ⋅
j=n+1
Assim, ao contrário do caso estacionário (ver Exemplo III.23), à medida que o horizonte de
previsão cresce, os erros de previsão, aumentam sem limite e as previsões seguem uma linha
reta com declive que emana de Xn . Notamos que
m−1
n 2 ∗2
P n+m = σW ∑ ψ
j
j=0
∞
1
é exato neste caso porque ∗
ψ (z) = = ∑z
j
, para |z| < 1 , de modo que ψ
∗
j
= 1 para todo j.
1 − z
j=0
amostrais de Yt , respectivamente.
O modelo ARI M A(0, 1, 1) ou I M A(1, 1) é de interesse porque muitas séries temporais econômicas
podem ser modeladas com sucesso dessa maneira. Além disso, o modelo leva a um método de
previsão frequentemente usado e abusado, chamado de médias móveis exponencialmente ponderadas
ou EWMA (Exponentially Weighted Moving Averages). Vamos escrever o modelo como
Xt = Xt−1 + Wt − λWt−1 ,
com |λ| < 1, para t = 1, 2, ⋯ e X = 0, porque este modelo é mais fácil de se trabalhar aqui e
0
leva à representação padrão para EWMA. Poderíamos ter incluído um termo de tendência como foi
feito no exemplo anterior, mas por uma questão de simplicidade, deixamos fora da discussão.
Escrevendo
Y t = Wt − λWt−1 ,
podemos escrever Xt = Xt−1 + Y t . Devido a que |λ| < 1 , Yt tem uma representação invertível,
∞
j
Y t = ∑ λ Y t−j + Wt
j=1
j
Xt = ∑(1 − λ)λ Xt−j + Wt ,
j=1
j
X̃ n+1 = ∑(1 − λ)λ Xn+1−j
j=1
∞ j−1
= (1 − λ)Xn + λ ∑ (1 − λ)λ Xn−j = (1 − λ)Xn + λ X̃ n⋅
j=1
Do resultado anterior vemos que a nova previsão é uma combinação linear da previsão antiga e
da nova observação. Com base nesse resultado e no fato de que apenas observamos X , ⋯ , X e 1 n
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 54/91
06/06/2023, 12:29 Modelos ARIMA
n n−1
X̃ n+1
= (1 − λ)Xn + λ X̃ n
, n ≥ 1,
0
com X̃ 1
= X1 como valor inicial.
O erro quadrático médio da previsão pode ser aproximado usando observando que
∞
∗
1 − λz j
ψ (z) = = 1 + (1 − λ) ∑ z ,
1 − z
j=1
n 2 2
P n+m ≈ σW (1 + (m − 1)(1 − λ) )⋅
Este método de previsão é popular porque é fácil de usar, precisamos apenas reter o valor da previsão
anterior e a observação atual para prever o próximo período de tempo. Infelizmente, como sugerido
anteriormente, o método é frequentemente abusado porque alguns analistas não verificam se as
observações seguem um processo I M A(1, 1) e muitas vezes arbitrariamente escolher valores de λ. A
seguir, mostramos como gerar 100 observações de um modelo I M A(1, 1) com λ = −θ = 0.8 e depois
calcular e exibir o EWMA ajustado sobreposto aos dados. Isso é feito usando o comando Holt-Winters em
R, veja o arquivo de ajuda ?HoltWinters para detalhes:
> set.seed(666)
> x = arima.sim(list(order = c(0,1,1), ma = -0.8), n = 100)
> # α abaixo é 1 − λ . Parâmetro de suavização: alfa: 0.1663072
> (x.ima = HoltWinters(x, beta=FALSE, gamma=FALSE))
Holt-Winters exponential smoothing without trend and without seasonal component.
Call:
HoltWinters(x = x, beta = FALSE, gamma = FALSE)
Smoothing parameters:
alpha: 0.1663072
beta : FALSE
gamma: FALSE
Coefficients:
[,1]
a -2.241533
> plot(x.ima, xlab="Tempo")
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 55/91
06/06/2023, 12:29 Modelos ARIMA
Existem algumas etapas básicas para ajustar modelos ARIMA a dados de séries temporais. Essas etapas
envolvem:
plotando os dados,
possivelmente transformando os dados,
identificar as ordens de dependência do modelo,
estimação dos parâmetros,
diagnósticos e
escolha do modelo.
Primeiro, como em qualquer análise de dados, devemos construir um gráfico de tempo dos dados e
inspecionar o gráfico em busca de quaisquer anomalias. Se, por exemplo, a variabilidade nos dados
aumenta com o tempo, será necessário transformar os dados para estabilizar a variância. Nesses casos,
a classe de transformações de potência Box-Cox, poderia ser empregada. Além disso, pode-se sugerir
uma transformação apropriada.
Por exemplo, vimos vários exemplos em que os dados se comportam como X t = (1 + pt )X t−1 , onde pt
é uma pequena alteração percentual do período t − 1 para t, que pode ser negativo. Se pt é um
processo relativamente estável, então ∇ log(Xt ) ≈ pt será relativamente estável. Frequentemente,
é chamado retorno ou taxa de crescimento. Essa ideia geral foi usada no Exemplo III.33 e
∇ log(X t )
Além dos gráficos de tempo, o ACF amostral pode ajudar a indicar se a diferenciação é necessária. Como
o polinômio ϕ(z)(1 − z)d tem uma raiz unitária, o ACF amostral ρ̂ (h), não decairá a zero rápido quando
h aumenta. Assim, um decaimento lento em ρ̂ (h) é uma indicação de que a diferenciação pode ser
necessária.
Quando os valores preliminares de d foram estabelecidos, o próximo passo é olhar para o ACF e o PACF
amostrais de ∇d Xt para quaisquer valores de d que tenham sido escolhidos. Usando a Tabela III.1
como guia, os valores preliminares de p e q são escolhidos. Observe que não é possível que tanto o ACF
quanto o PACF sejam cortados. Como estamos lidando com estimativas, nem sempre ficará claro se o
ACF ou o PACF amostral está diminuindo ou cortando. Além disso, dois modelos aparentemente
diferentes podem ser muito semelhantes. Com isso em mente, não devemos nos preocupar em ser tão
precisos neste estágio do ajuste do modelo. Neste ponto, alguns valores preliminares de p, d e q devem
estar à mão, e podemos começar a estimar os parâmetros.
Neste exemplo, consideramos a análise do PIB trimestral dos EUA do primeiro trimestre de 1947
ao terceiro trimestre de 2002, n = 223 observações. Os dados são o Produto Interno Bruto real
dos EUA em bilhões de dólares de 1996 encadeados e foram ajustados sazonalmente. Os dados
foram obtidos do Federal Reserve Bank of St. Louis. A figura abaixo mostra um gráfico dos
dados, digamos, Y . Como a tendência forte tende a obscurecer outros efeitos é difícil ver
t
qualquer outra variabilidade nos dados, exceto por grandes quedas periódicas na economia.
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 56/91
06/06/2023, 12:29 Modelos ARIMA
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 57/91
06/06/2023, 12:29 Modelos ARIMA
[39,] 0.47 -0.01
[40,] 0.45 -0.01
[41,] 0.44 0.00
[42,] 0.43 -0.01
[43,] 0.42 -0.01
[44,] 0.41 -0.01
[45,] 0.40 -0.01
[46,] 0.38 -0.01
[47,] 0.37 -0.01
[48,] 0.36 -0.02
[49,] 0.35 -0.02
[50,] 0.33 -0.01
ACF e PACF amostrais dos dados do PIB. O lag ou atraso é em termos de anos.
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 58/91
06/06/2023, 12:29 Modelos ARIMA
> plot(gnpgr, xlab="Tempo", ylab=expression(paste(nabla,log,"(",Y[t],")")))
> grid()
> abline(h=mean(gnpgr), lwd=2, col="darkblue")
> text(1975, 0.04, "Taxa de crescimento do PIB ", col="darkred")
A funções ACF e PACF amostrais da taxa de crescimento trimestral estão representadas na figura
abaixo. Inspecionando as ACF e PACFa mostrais, podemos sentir que o ACF está cortando no lag
ou atraso 2 e o PACF está diminuindo. Isto sugeriria que a taxa de crescimento do PIB segue um
processo M A(2) ou que o logartimo do PIB segue um modelo ARI M A(0, 1, 2) . Em vez de focar em
um modelo, também sugeriremos que parece que o ACF está diminuindo e o PACF está cortando na
defasagem 1. Isso sugere um modelo AR(1) para a taxa de crescimento ou ARI M A(1, 1, 0) para
logartimo do PIB. Como uma análise preliminar, vamos encaixar ambos os modelos.
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 59/91
06/06/2023, 12:29 Modelos ARIMA
[24,] -0.05 0.00
Usando a estimação por máxima verossimilhança para ajustar o modelo M A(2) para a taxa de
crescimento X , o modelo estimado é
t
ˆ ˆ ˆ ˆ
X t = 0.008(0.001) + 0.303(0.065) W t−1 + 0.204(0.064) W t−2 + W t ,
onde σ̂ = 0.0094 com 219 graus de liberdade. Os valores entre parênteses correspondem aos
W
Call:
stats::arima(x = xdata, order = c(p, d, q), seasonal = list(order = c(P, D,
Q), period = S), xreg = xmean, include.mean = FALSE, transform.pars = trans,
fixed = fixed, optim.control = list(trace = trc, REPORT = 1, reltol = tol))
Coefficients:
ma1 ma2 xmean
0.3028 0.2035 0.0083
s.e. 0.0654 0.0644 0.0010
$degrees_of_freedom
[1] 219
$ttable
Estimate SE t.value p.value
ma1 0.3028 0.0654 4.6272 0.0000
ma2 0.2035 0.0644 3.1594 0.0018
xmean 0.0083 0.0010 8.7178 0.0000
$AIC
[1] -6.450133
$AICc
[1] -6.449637
$BIC
[1] -6.388823
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 60/91
06/06/2023, 12:29 Modelos ARIMA
Fazemos uma nota especial disso porque, como padrão, alguns pacotes computacionais não ajustam
uma constante em um modelo diferenciado. Ou seja, esses pacotes assumem, por padrão, que não
há desvio. Neste exemplo, não incluir uma constante leva a conclusões erradas sobre a natureza
da economia dos EUA. A não inclusão de uma constante assume que a taxa de crescimento média
trimestral é zero, enquanto a taxa de crescimento trimestral média do PIB dos EUA é de cerca
de 1%, o que pode ser visto facilmente na figura da taxa de crescimento. Deixamos para o
leitor investigar o que acontece quando a constante não é incluída.
ˆ ˆ ˆ
X t = 0.008(0.001) (1 − 0.347) + 0.347(0.063) X t−1 + W t ,
onde σ̂
W
= 0.0095 com 220 graus de liberdade, observe que a constante na expressão acima é
0.008(1-0.347)=0.005.
Call:
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 61/91
06/06/2023, 12:29 Modelos ARIMA
stats::arima(x = xdata, order = c(p, d, q), seasonal = list(order = c(P, D,
Q), period = S), xreg = xmean, include.mean = FALSE, transform.pars = trans,
fixed = fixed, optim.control = list(trace = trc, REPORT = 1, reltol = tol))
Coefficients:
ar1 xmean
0.3467 0.0083
s.e. 0.0627 0.0010
$degrees_of_freedom
[1] 220
$ttable
Estimate SE t.value p.value
ar1 0.3467 0.0627 5.5255 0
xmean 0.0083 0.0010 8.5398 0
$AIC
[1] -6.44694
$AICc
[1] -6.446693
$BIC
[1] -6.400958
Discutiremos os diagnósticos a seguir, mas assumindo que ambos os modelos se encaixam bem,
como vamos reconciliar as diferenças aparentes dos modelos estimados. De fato, os modelos
ajustados são quase os mesmos. Para mostrar isso, considere um modelo AR(1) sem um termo
constante; isto é,
Xt = 0.35Xt−1 + Wt ,
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 62/91
06/06/2023, 12:29 Modelos ARIMA
e escrevê-lo em sua forma causal
∞
Xt = ∑ ψj Wt−j ,
j=0
Xt ≈ 0.35Wt−1 + 0.12Wt−2 + Wt ,
O próximo passo no ajuste do modelo é o diagnóstico. Esta investigação inclui a análise dos resíduos,
bem como comparações de modelos. Mais uma vez, o primeiro passo envolve um gráfico de tempo das
t−1
inovações ou resíduos X t − X̂ t
ou das inovações padronizadas
t−1
X t − X̂ t
ϵt = ,
−−−−
t−1
ˆ
√P
t
t−1 t−1
onde X̂ t é a previsão de Xt com um passo à frente com base no modelo ajustado e Pˆt é a
variância estimada do erro de um passo à frente. Se o modelo se encaixa bem, os resíduos padronizados
devem se comportar como uma sequência independente e identicamente distribuída com média zero e
variância um. O gráfico de tempo deve ser inspecionado para quaisquer desvios óbvios desta suposição.
A menos que a série temporal seja gaussiana, não é suficiente que os resíduos sejam não
correlacionados. Por exemplo, é possível, no caso não gaussiano, ter um processo não correlacionado
para o qual os valores contíguos no tempo sejam altamente dependentes. Como exemplo, mencionamos
a família de modelos GARCH que serão discutidos no Capítulo V.
Existem vários testes de aleatoriedade, por exemplo, o teste de execução, que pode ser aplicado aos
resíduos. Poderíamos também inspecionar as autocorrelações amostrais dos resíduos, digamos, ρ̂ ϵ (h),
para quaisquer padrões ou valores grandes. Lembre-se de que, para uma sequência de ruído branco, as
autocorrelações amostrais são aproximadamente independentes e normalmente distribuídas com média
zero e variância 1/n. Portanto, uma boa verificação na estrutura de correlação dos resíduos é traçar
−
−
ρ̂ ϵ (h) versus versus h juntamente com os limites de erro de ±2/√n . Os resíduos de um ajuste de
modelo, no entanto, não terão exatamente as propriedades de uma sequência de ruído branco e a
variância de ρ̂ ϵ (h) pode ser muito menor que 1/n. Detalhes podem ser encontrados em Box e Pierce
(1970) e McLeod (1978). Esta parte dos diagnósticos pode ser vista como uma inspeção visual de ρ̂ ϵ (h)
Além de mostrar o ρ̂ ϵ (h), podemos realizar um teste geral que leva em consideração as magnitudes de
ρ̂ ϵ (h) como um grupo. Por exemplo, pode ser o caso de, individualmente, cada ρ̂ ϵ (h) ser pequeno em
H
ρ̂ ϵ (h)
Q = n(n + 2) ∑ ,
n − h
h=1
pode ser usada para realizar tal teste. O valor H na expressão acima é escolhido arbitrariamente,
tipicamente, H = 20. Sob a hipótese nula de adequação do modelo, assintoticamente, Q ∼ χ
2
H −p−q
.
Assim, rejeitaríamos a hipótese nula no nível α se o valor de Q exceder o valor do quantil 1 − α da
distribuição χ
2
H −p−q
. Detalhes podem ser encontrados em Box e Pierce (1970), Ljung e Box (1978) e
Davies et al. (1977). A ideia básica é que se é ruído branco, então por Proposição I.2, para
2
Wt nρ̂ W (h)
significa que
H
2
n ∑ ρ̂ W (h),
h=1
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 63/91
06/06/2023, 12:29 Modelos ARIMA
Vamos nos concentrar no ajuste M A(2) do Exemplo III.39; a análise dos resíduos do modelo
AR(1) é semelhante. A figura mostra um gráfico dos resíduos padronizados, o ACF dos resíduos,
um boxplot dos resíduos padronizados e os p-valores associados à estatística-Q nas defasagens
H = 3 até H = 20 , com H − 2 graus de liberdade.
A inspeção do gráfico de tempo dos resíduos padronizados na figura acima não mostra padrões
óbvios. Observe que pode haver outliers, com alguns valores excedendo 3 desvios padrão em
magnitude. O ACF dos resíduos padronizados não mostra nenhum desvio aparente das premissas do
modelo e a estatística Q nunca é significativa nas defasagens mostradas. O gráfico Q-Q normal
dos resíduos mostra que a suposição de normalidade é razoável, com exceção dos possíveis
outliers.
O modelo parece se encaixar bem. Os diagnósticos mostrados na figura acima são um subproduto
do comando sarima do exemplo anterior, Exemplo III.39. O script tsdiag está disponível no R
para executar diagnósticos para um objeto ARIMA, no entanto, o script possui erros e não é
recomendável usá-lo.
No Exemplo III.33, ajustamos um modelo ARI M A(0, 1, 1) aos logaritmos dos dados das variedades
glaciais Paleoclimáticasvariante e parece haver uma pequena quantidade de autocorrelação nos
resíduos e os testes-Q são todos significativos; veja a figura abaixo.
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 64/91
06/06/2023, 12:29 Modelos ARIMA
Call:
stats::arima(x = xdata, order = c(p, d, q), seasonal = list(order = c(P, D,
Q), period = S), include.mean = !no.constant, transform.pars = trans, fixed = fixed,
optim.control = list(trace = trc, REPORT = 1, reltol = tol))
Coefficients:
ma1
-0.7705
s.e. 0.0341
$degrees_of_freedom
[1] 632
$ttable
Estimate SE t.value p.value
ma1 -0.7705 0.0341 -22.6161 0
$AIC
[1] 1.398792
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 65/91
06/06/2023, 12:29 Modelos ARIMA
$AICc
[1] 1.398802
$BIC
[1] 1.412853
Para retificar este problema, ajustamos um ARI M A(1, 1, 1) aos dados das variedades glaciais
registradas e obteve as estimativas
ˆ 2
ˆ
ϕ = 0.23(0.05) , θ = −0.89(0.03) , σ̂ W = 0.23⋅
Como dito anteriormente, os diagnósticos são subprodutos das execuções individuais do sarima.
Notamos que não ajustamos uma constante em nenhum modelo porque não há desvio aparente na
série. Este fato pode ser verificado observando que a constante não é significativa quando o
comando no.constant = TRUE é removido no código:
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 66/91
06/06/2023, 12:29 Modelos ARIMA
iter 4 value -0.737363
iter 5 value -0.737363
iter 5 value -0.737363
iter 5 value -0.737363
final value -0.737363
converged
$fit
Call:
stats::arima(x = xdata, order = c(p, d, q), seasonal = list(order = c(P, D,
Q), period = S), include.mean = !no.constant, transform.pars = trans, fixed = fixed,
optim.control = list(trace = trc, REPORT = 1, reltol = tol))
Coefficients:
ar1 ma1
0.2330 -0.8858
s.e. 0.0518 0.0292
$degrees_of_freedom
[1] 631
$ttable
Estimate SE t.value p.value
ar1 0.2330 0.0518 4.4994 0
ma1 -0.8858 0.0292 -30.3861 0
$AIC
[1] 1.37263
$AICc
[1] 1.372661
$BIC
[1] 1.393723
No Exemplo III.39, temos dois modelos concorrentes, um AR(1) e um M A(2) sobre a taxa de
crescimento do PIB, que parecem se encaixar bem nos dados. Além disso, podemos também considerar
que um AR(2) ou um M A(3) podem ser melhores para a previsão. Talvez combinar os dois modelos,
isto é, ajustar um ARM A(1, 2) na taxa de crescimento do PIB, seria o melhor. Como mencionado
anteriormente, temos que nos preocupar com o overfitting do modelo; isso porque nem sempre é o caso
que mais é melhor. O overfitting leva a estimadores menos precisos e a adição de mais parâmetros pode
adequar melhor os dados, mas também pode levar a previsões ruins. Esse resultado é ilustrado no
exemplo a seguir.
A figura mostra a população dos EUA por censo oficial a cada dez anos, de 1910 a 1990, como
pontos. Se usarmos essas nove observações para prever a população futura, podemos usar um
polinômio de oito graus para que o ajuste às nove observações seja perfeito. O modelo neste
caso é
2 8
Xt = β0 + β1 t + β2 t + ⋯ + β8 t + Wt ⋅
A linha ajustada, que é plotada na figura, passa pelas nove observações. O modelo prevê que a
população dos Estados Unidos crescerá pouco no ano 2000 e irá diminiuir fortemente sendo em
2020 a população similar à população de 1960 enquanto a população projetada para 2020 deve ser
333.546.000.
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 67/91
06/06/2023, 12:29 Modelos ARIMA
A etapa final do ajuste do modelo é a escolha do modelo ou a seleção do modelo. Ou seja, devemos
decidir qual modelo iremos reter para previsão. As técnicas mais populares, AIC, AICc e BIC, foram
descritas na Seção II.1 no contexto de modelos de regressão.
Retornando à análise dos dados do PIB dos EUA apresentados no Exemplo III.39 e no Exemplo
III.40, lembremos que dois modelos, um AR(1) e um M A(2), se ajustam bem à taxa de
crescimento do PIB. Para escolher o modelo final, comparamos o AIC, o AICc e o BIC para ambos
os modelos. Esses valores são um subproduto das execuções do comando sarima exibidas no final
do Exemplo III.39 mas, por conveniência, exibimos novamente aqui lembrando que os dados da
taxa de crescimento estão no objeto gnpgr:
> # AR(1)
> sarima(gnpgr, 1, 0, 0, details = FALSE)$AIC
[1] -6.44694
> sarima(gnpgr, 1, 0, 0, details = FALSE)$AICc
[1] -6.446693
> sarima(gnpgr, 1, 0, 0, details = FALSE)$BIC
[1] -6.400958
> # MA(2)
> sarima(gnpgr, 0, 0, 2, details = FALSE)$AIC
[1] -6.450133
> sarima(gnpgr, 0, 0, 2, details = FALSE)$AICc
[1] -6.449637
> sarima(gnpgr, 0, 0, 2, details = FALSE)$BIC
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 68/91
06/06/2023, 12:29 Modelos ARIMA
[1] -6.388823
O AIC e o AICc preferem o ajuste M A(2) , enquanto o BIC prefere o modelo AR(1) mais simples.
Geralmente, o BIC selecionará um modelo de ordem menor que o AIC ou AICc. Em ambos os casos,
não é irracional manter o AR(1) porque os modelos autorregressivos puros são mais fáceis de
trabalhar.
Na Seção II.1, cobrimos o modelo de regressão clássico com erros não correlacionados Wt . Nesta
seção, discutimos as modificações que podem ser consideradas quando os erros são correlacionados. Ou
seja, considere o modelo de regressão
r
Y t = ∑ βj zt,j + X t ,
j=1
onde Xt é um processo com alguma função de covariância γX (s, t) . Em mínimos quadrados ordinários,
a suposição é que Xt é ruído branco gaussiano, em que γ (s, t) = 0 para s ≠ t e γ (t, t) = σ 2 , X X
independente de t. Se este não for o caso, então os mínimos quadrados ponderados devem ser usados.
∗ ∗
Y = Z β + δ,
onde Y
∗
= Γ
−1/2
Y , Z
∗
= Γ
−1/2
Z e δ = Γ
−1/2
X. Consequentemente, a matriz de covariância de δ éa
identidade e o modelo está na forma de modelo linear clássico. Segue-se que a estimativa ponderada de
β é
−1
ˆ ∗⊤ ∗ ∗⊤ ∗ ⊤ −1 −1 ⊤ −1
βW = (Z Z ) Z Y = (Z Γ Z) Z Γ Y
ˆ ⊤ −1 −1
Var(β W ) = (Z Γ Z) ⋅
Se Xt é ruído branco, então Γ = σI e estes resultados reduzem-se aos resultados usuais de mínimos
quadrados.
No caso de séries temporais, muitas vezes é possível assumir uma estrutura de covariância estacionária
para o processo de erro Xt que corresponde a um processo linear e tentar encontrar uma representação
ARMA para Xt . Por exemplo, se tivermos um erro AR(p) puro,
ϕ(B)X t = Wt ,
e ϕ(B) = 1 − ϕ1 B − ⋯ − ϕp B
p
é a transformação linear que, quando aplicada ao processo de erro,
produz o ruído branco Wt . Multiplicando a equação de regressão através da transformação ϕ(B),
produz
r
e estamos de volta ao modelo de regressão linear onde as observações foram transformadas de modo
que Y
∗
t
= ϕ(B)Y t seja a variável dependente, z
t,j
∗
= ϕ(B)zt,j para j = 1, ⋯ , r, são as variáveis
independentes, mas os β são os mesmos que no modelo original. Por exemplo, se p = 1, então
= Y t − ϕY t−1 e z = zt,j − ϕZt−1,j .
∗ ∗
Y
t t,j
No caso de AR, podemos configurar o problema dos quadrados mínimos para minimizar a soma dos
quadrados dos erros
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 69/91
06/06/2023, 12:29 Modelos ARIMA
2
n n r
2
S (ϕ, β) ´ = ∑ W = ∑ (ϕ(B)Y t − ∑ βj ϕ(B)Zt,j ) ,
t
Se o processo de erro é ARM A(p, q) , ou seja, ϕ(B)X t = θ(B)Wt , então na discussão acima,
transformamos por π(B)Xt = Wt , onde π(B) = θ(B)
−1
ϕ(B) . Neste caso, a soma dos quadrados dos
erros também depende de θ = (θ1 , ⋯ , θq ) :
2
n n r
2
S (ϕ, θ, β) ´ = ∑ W = ∑ (π(B)Y t − ∑ βj π(B)Zt,j ) ,
t
Neste ponto, o principal problema é que normalmente não conhecemos o comportamento do ruído Xt
antes da análise. Uma maneira fácil de resolver esse problema foi apresentada pela primeira vez em
Cochrane e Orcutt (1949) e com o advento da computação barata é modernizado abaixo:
(i) Primeiro, execute uma regressão ordinária de Yt em zt,1 , ⋯ , ztr agindo como se os erros não
fossem correlacionados. Guarde os resíduos,
r
ˆ
X̂ t = Y t − ∑ β j zt,j ⋅
j=1
2
Mt = β1 + β2 t + β3 T t + β4 T + β5 P t + Xt ,
t
onde, por enquanto, assumimos que X é ruído branco. O ACF e o PACF amostrais dos resíduos do
t
ajuste de mínimos quadrados ordinários são mostrados na figura abaixo e os resultados sugerem
um modelo AR(2) para os resíduos.
Nossa próxima etapa é ajustar o modelo de erro correlacionado mostrado acima, mas onde Xt é
AR(2) ,
Xt = ϕ1 Xt−1 + ϕ2 Xt−2 + Wt ,
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 70/91
06/06/2023, 12:29 Modelos ARIMA
e Wt é um ruído branco. O modelo pode ser ajustado usando a função sarima da seguinte forma:
Call:
lm(formula = cmort ~ trend + temp + temp2 + part, na.action = NULL)
Residuals:
Min 1Q Median 3Q Max
-19.0760 -4.2153 -0.4878 3.7435 29.2448
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 2.831e+03 1.996e+02 14.19 < 2e-16 ***
trend -1.396e+00 1.010e-01 -13.82 < 2e-16 ***
temp -4.725e-01 3.162e-02 -14.94 < 2e-16 ***
temp2 2.259e-02 2.827e-03 7.99 9.26e-15 ***
part 2.554e-01 1.886e-02 13.54 < 2e-16 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 71/91
06/06/2023, 12:29 Modelos ARIMA
[37,] -0.07 0.03
[38,] -0.07 -0.02
[39,] -0.05 0.02
[40,] -0.05 -0.01
[41,] -0.04 0.00
[42,] -0.03 0.00
[43,] -0.04 -0.01
[44,] 0.05 0.08
[45,] 0.00 -0.01
[46,] 0.04 -0.01
[47,] 0.08 0.08
[48,] 0.07 -0.01
[49,] 0.06 -0.01
[50,] 0.05 -0.03
[51,] 0.07 0.03
[52,] 0.02 -0.04
> sarima(cmort, 2,0,0, xreg=cbind(trend,temp,temp2,part))
initial value 1.849900
iter 2 value 1.733730
iter 3 value 1.701063
iter 4 value 1.682463
iter 5 value 1.657377
iter 6 value 1.652444
iter 7 value 1.641726
iter 8 value 1.635302
iter 9 value 1.630848
iter 10 value 1.629286
iter 11 value 1.628731
iter 12 value 1.628646
iter 13 value 1.628634
iter 14 value 1.628633
iter 15 value 1.628632
iter 16 value 1.628628
iter 17 value 1.628627
iter 18 value 1.628627
iter 19 value 1.628626
iter 20 value 1.628625
iter 21 value 1.628622
iter 22 value 1.628618
iter 23 value 1.628614
iter 24 value 1.628612
iter 25 value 1.628611
iter 26 value 1.628610
iter 27 value 1.628610
iter 28 value 1.628609
iter 29 value 1.628609
iter 30 value 1.628608
iter 31 value 1.628608
iter 32 value 1.628608
iter 32 value 1.628608
iter 32 value 1.628608
final value 1.628608
converged
initial value 1.630401
iter 2 value 1.630393
iter 3 value 1.630382
iter 4 value 1.630381
iter 5 value 1.630375
iter 6 value 1.630370
iter 7 value 1.630362
iter 8 value 1.630354
iter 9 value 1.630349
iter 10 value 1.630347
iter 11 value 1.630347
iter 12 value 1.630347
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 72/91
06/06/2023, 12:29 Modelos ARIMA
iter 13 value 1.630347
iter 14 value 1.630346
iter 15 value 1.630346
iter 16 value 1.630346
iter 17 value 1.630346
iter 17 value 1.630346
iter 17 value 1.630346
final value 1.630346
converged
$fit
Call:
stats::arima(x = xdata, order = c(p, d, q), seasonal = list(order = c(P, D,
Q), period = S), xreg = xreg, transform.pars = trans, fixed = fixed,
optim.control = list(trace = trc, REPORT = 1, reltol = tol))
Coefficients:
ar1 ar2 intercept trend temp temp2 part
0.3848 0.4326 3075.1482 -1.5165 -0.0190 0.0154 0.1545
s.e. 0.0436 0.0400 834.7157 0.4226 0.0495 0.0020 0.0272
$degrees_of_freedom
[1] 501
$ttable
Estimate SE t.value p.value
ar1 0.3848 0.0436 8.8329 0.0000
ar2 0.4326 0.0400 10.8062 0.0000
intercept 3075.1482 834.7157 3.6841 0.0003
trend -1.5165 0.4226 -3.5882 0.0004
temp -0.0190 0.0495 -0.3837 0.7014
temp2 0.0154 0.0020 7.6117 0.0000
part 0.1545 0.0272 5.6803 0.0000
$AIC
[1] 6.130066
$AICc
[1] 6.130507
$BIC
[1] 6.196687
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 73/91
06/06/2023, 12:29 Modelos ARIMA
A saída de análise dos resíduos do sarima não mostra nenhum problema óbvio de afastamento dos
resíduos de um ruído branco.
contrário. No entanto, a análise dos resíduos indica que os resíduos não são ruído branco. O
ACF e o PACF amostrais dos resíduos indicam que um modelo AR(2) pode ser apropriado, o que é
semelhante aos resultados do Exemplo III.44.
Call:
lm(formula = rec ~ soiL6 * dL6, data = fish, na.action = NULL)
Residuals:
Min 1Q Median 3Q Max
-63.291 -15.821 2.224 15.791 61.788
Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 74.479 2.865 25.998 < 2e-16 ***
soiL6 -15.358 7.401 -2.075 0.0386 *
dL6 -1.139 3.711 -0.307 0.7590
soiL6:dL6 -51.244 9.523 -5.381 1.2e-07 ***
---
Signif. codes: 0 ‘***’ 0.001 ‘**’ 0.01 ‘*’ 0.05 ‘.’ 0.1 ‘ ’ 1
> attach(fish)
The following objects are masked from fish (pos = 3):
rec
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 74/91
06/06/2023, 12:29 Modelos ARIMA
[12,] -0.16 -0.02
[13,] -0.17 -0.01
[14,] -0.23 -0.12
[15,] -0.24 -0.04
[16,] -0.23 0.02
[17,] -0.23 -0.02
[18,] -0.22 0.00
[19,] -0.17 0.03
[20,] -0.09 0.12
[21,] -0.05 0.02
[22,] 0.01 -0.01
[23,] 0.05 0.01
[24,] 0.06 -0.04
[25,] 0.09 0.00
[26,] 0.07 -0.04
[27,] 0.10 0.06
[28,] 0.06 -0.09
[29,] 0.02 -0.10
[30,] -0.02 -0.05
[31,] -0.02 0.04
[32,] -0.02 0.04
[33,] -0.03 -0.01
[34,] -0.02 0.03
[35,] 0.00 0.04
[36,] 0.01 0.01
[37,] -0.01 -0.04
[38,] -0.04 -0.07
[39,] -0.07 -0.04
[40,] -0.05 0.06
[41,] -0.06 0.01
[42,] -0.03 0.06
[43,] -0.02 -0.02
[44,] 0.01 0.00
[45,] 0.04 0.03
[46,] 0.04 -0.04
[47,] 0.08 0.04
[48,] 0.08 -0.01
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 75/91
06/06/2023, 12:29 Modelos ARIMA
intercept 64.8028 4.1121 15.7590 0.0000
soiL6 8.6671 2.2205 3.9033 0.0001
dL6 -2.5945 0.9535 -2.7209 0.0068
intract -10.3092 2.8311 -3.6415 0.0003
Nesta seção, introduzimos várias modificações feitas no modelo ARIMA para considerar o
comportamento sazonal e não-estacionário. Muitas vezes, a dependência do passado tende a ocorrer
mais fortemente em múltiplos de alguns lag s sazonais subjacentes. Por exemplo, com dados
econômicos mensais, há um forte componente anual ocorrendo em lags que são múltiplos de s = 12,
devido às fortes conexões de todas as atividades ao ano civil. Os dados obtidos trimestralmente exibirão
o período anual repetitivo em s = 4 trimestres. Fenômenos naturais como a temperatura também têm
componentes fortes correspondentes às estações do ano. Assim, a variabilidade natural de muitos
processos físicos, biológicos e econômicos tende a combinar com as flutuações sazonais. Por causa
disso, é apropriado introduzir polinômios autorregressivos de médias móveis que se identifiquem com as
defasagens sazonais. O modelo resultante de médias móveis autorregressivo puro resultante, digamos,
ARM A(P , Q), então assume a forma
s s
Φ P (B )X t = Θ Q (B )W t ,
onde os operadores
s 2s Ps
ΦP = 1 − Φ1 B − Φ2 B − ⋯ − ΦP B
s 2s Qs
ΘQ = 1 + Θ1 B + Θ2 B + ⋯ + ΘQ B ,
são o operador autoregressivo sazonal e o operador de médias móveis sazonal das ordens P e Q,
Analogamente às propriedades dos modelos de ARMA não sazonais, o ARM A(P , Q)s puro e sazonal é
causal apenas quando as raízes de Φ P (z )
s
se situam fora do círculo unitário, e é invertível somente
quando as raízes de s
Θ Q (z ) estão fora do círculo unitário.
Uma série autorregressiva sazonal de primeira ordem que pode ser executada ao longo de meses
pode ser escrita como
12
(1 − ΦB )X t = Wt
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 76/91
06/06/2023, 12:29 Modelos ARIMA
ou
Xt = ΦXt−12 + Wt ⋅
Este modelo exibe a série Xt em termos de atrasos passados no múltiplo do período sazonal
anual s = 12 meses. Fica claro, a partir da forma acima, que a estimação e previsão para tal
processo envolve apenas modificações diretas do caso de defasagem unitária já tratado. Em
particular, a condição causal requer |Φ| < 1 .
Simulamos 3 anos de dados do modelo com Φ = 0.9, e exibimos o ACF teórico e o PACF do modelo.
Veja a figura.
> set.seed(666)
> phi = c(rep(0,11),.9)
> sAR = arima.sim(list(order=c(12,0,0), ar=phi), n=37)
> sAR = ts(sAR, freq=12)
> layout(matrix(c(1,1,2, 1,1,3), nc=2))
> par(mar=c(3,3,2,1), mgp=c(1.6,.6,0))
> plot(sAR, axes=FALSE, main='sazonal AR(1)', xlab="Anos", type='c')
> grid()
> Months = c("J","F","M","A","M","J","J","A","S","O","N","D")
> points(sAR, pch=Months, cex=1.25, font=4, col=1:4)
> axis(1, 1:4); abline(v=1:4, lty=2, col=gray(.7))
> axis(2); box()
> ACF = ARMAacf(ar=phi, ma=0, 100)
> PACF = ARMAacf(ar=phi, ma=0, 100, pacf=TRUE)
> plot(ACF,type="h", xlab="LAG", ylim=c(-.1,1)); abline(h=0)
> plot(PACF, type="h", xlab="LAG", ylim=c(-.1,1)); abline(h=0)
2
γ(0) = (1 + Θ )σ ,
2
γ(±12) = Θσ
2
e γ(h) = 0, á
caso contr rio⋅
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 77/91
06/06/2023, 12:29 Modelos ARIMA
Assim, a única correlação não nula, além do desfasamento zero, é
Θ
ρ(±12) = ⋅
2
1 + Θ
2 2 k
σ σ Φ
γ(0) = , γ(±12k) = , k = 1, 2, ⋯ e γ(h) = 0, á
caso contr rio⋅
2 2
1 − Φ 1 − Φ
Estes resultados podem ser verificados usando o resultado geral que γ(h) = Φ (h − 12)
γ
, para
h ≥ 1 . Por exemplo, quando h = 1 , γ(1) = Φ (11)
γ
, mas quando h = 11 , temos γ(11) = Φ (1)
γ
, o que
implica que γ(1) = γ(11) = 0 . Além desses resultados, o PACF tem as extensões análogas de
modelos não sazonais a sazonais. Esses resultados são demonstrados na figura acima.
Como critério inicial de diagnóstico, podemos usar as propriedades das séries autorregressivas sazonais
e de médias móveis sazonais listadas na Tabela abaixo.
AC F
∗
Cauda em retardos ks Corta depois Cauda em retardos
k = 1, 2, ⋯ lag Qs lags ks
P AC F
∗
Corta depois Cauda em retardos ks Cauda em retardos
lag Ps k = 1, 2, ⋯ lags ks
Como critério inicial de diagnóstico, podemos usar as propriedades das séries autorregressivas sazonais
e de médias móveis sazonais listadas na Tabela III.3. Essas propriedades podem ser consideradas como
generalizações das propriedades para modelos não sazonais que foram apresentadas na Tabela III.1.
Em geral, podemos combinar os operadores sazonais e não sazonais em um modelo de média móvel
autorregressivo sazonal multiplicativo, denotado por ARM A(p, q) × (P , Q)s e escrever
s s
Φ P (B )ϕ(B)X t = Θ Q (B )θ(B)Wt ,
como o modelo geral. Embora as propriedades de diagnóstico na Tabela III.3 não sejam estritamente
verdadeiras para o modelo global misto, o comportamento do ACF e do PACF tende a mostrar padrões
aproximados da forma indicada. De fato, para modelos mistos, tendemos a ver uma mistura dos fatos
listados na Tabela III.1 e na Tabela III.3. Na adaptação de tais modelos, a focalização nos componentes
de média regressiva e média móvel sazonal geralmente leva a resultados mais satisfatórios.
Xt = ΦXt−12 + Wt + θWt−1 ,
onde |Φ| < 1 e |θ| < 1 . Então, devido à que Xt−12 , Wt e Wt−1 são não correlacionados e Xt é
estacionário, 2
γ(0) = Φ γ(0) + σW + θ σW
2 2 2
ou
2
1 + θ
2
γ(0) = σW ⋅
2
1 − Φ
Além disso, multiplicando o modelo por Xt−h , h > 0 e tomando esperança, temos
γ(1) = Φ (11) + θσW
γ
2
e γ(h) = Φ (h − 12)
γ
, para h ≥ 2 . Assim, o ACF para este modelo é
h
ρ(12h) = Φ , h = 1, 2, ⋯
θ
h
ρ(12h − 1) = ρ(12h + 1) = Φ , h = 0, 1, 2, ⋯ ,
2
1 + θ
A persistência sazonal ocorre quando o processo é quase periódico na temporada. Por exemplo, com
temperaturas médias mensais ao longo dos anos, cada janeiro seria aproximadamente o mesmo, cada
fevereiro seria aproximadamente o mesmo e assim por diante. Nesse caso, podemos pensar na
temperatura média mensal Xt como sendo modelada como
X t = St + Wt ,
onde St é um componente sazonal que varia um pouco de um ano para o outro, de acordo com um
passeio aleatório,
St = St−12 + Vt ⋅
Neste modelo, Wt e Vt são processos de ruído branco não correlacionados. A tendência dos dados para
seguir este tipo de modelo será exibida em uma amostra de ACF que é grande e decai muito lentamente
nas defasagens h = 12k , para k = 1, 2, ⋯. Se subtrairmos o efeito de anos sucessivos um do outro,
descobriremos que
12
(1 − B )X t = X t − X t−12 = Vt + Wt − Wt−12 ⋅
Este modelo é um M A(1)12 estacionário e o seu ACF terá um pico apenas na defasagem 12. Em geral,
a diferenciação sazonal pode ser indicada quando o ACF decai lentamente em múltiplos de algumas
estações, mas é insignificante entre os períodos. Então, uma diferença sazonal da ordem D é definida
como
D s D
∇s X t = (1 − B ) Xt ,
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 79/91
06/06/2023, 12:29 Modelos ARIMA
s D d s
Φ P (B )ϕ(B)∇s ∇ X t = δ + Θ Q (B )θ(B)Wt ,
onde Wt é o processo habitual de ruído branco gaussiano. O modelo geral é denotado como
ARI M A(p, d, q) × (P , D, Q)s . As componentes autorregressiva e de médias móveis são
representadas pelos polinômios ϕ(B) e θ(B) de ordem p e q , respectivamente, e as componentes
autorregressiva e de médias móveis sazonal por Φ (Bs ) e Θ (Bs de ordem P e Q assim como as
P Q
Considere o modelo a seguir, que geralmente fornece uma representação razoável para séries
temporais sazonais e não-estacionárias. Exibimos as equações do modelo, denotadas por
ARI M A(0, 1, 1) × (0, 1, 1)12 na notação acima, onde as flutuações sazonais ocorrem a cada 12
meses. Então, com δ = 0 , o modelo na Definição III.12 torna-se
12
∇12 ∇Xt = Θ(B )θ(B)Wt ,
ou
12 12
(1 − B )(1 − B)Xt = (1 + ΘB )(1 + θB)Wt ⋅
12 13 12 13
(1 − B − B + B )X t = (1 + θB + ΘB + ΘθB )Wt ,
Note que a natureza multiplicativa do modelo implica que o coeficiente de Wt−13 é o produto
dos coeficientes de W e Wt−1 t−12 , em vez de um parâmetro livre. A suposição do modelo
multiplicativo parece funcionar bem com muitos conjuntos de dados de séries temporais
sazonais, reduzindo o número de parâmetros que devem ser estimados.
Selecionar o modelo apropriado para um dado conjunto de dados de todos aqueles representados pela
expressão geral na Definição III.12 é uma tarefa difícil e geralmente pensamos primeiro em termos de
encontrar operadores de diferenças que produzam uma série aproximadamente estacionária e então em
termos de encontrar um conjunto autorregressivo de médias móveis simples ou ARMA sazonal
multiplicativo para se ajustar à série residual resultante. As operações de diferenciação são aplicadas
primeiro e, em seguida, os resíduos são construídos a partir de uma série de comprimentos reduzidos.
Em seguida, o ACF e o PACF desses resíduos são avaliados. Os picos que aparecem nessas funções
podem ser eliminados com o ajuste de um componente autorregressivo ou de médias móveis de acordo
com as propriedades gerais apresentadas na Tabela III.1 e na Tabela III.3. Ao considerar se o modelo é
satisfatório, as técnicas de diagnóstico discutidas na Seção III.7 ainda se aplicam.
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 80/91
06/06/2023, 12:29 Modelos ARIMA
Conjunto de dados R AirPassengers, que são os totais mensais dos passageiros aéreos
internacionais x e os dados transformados: lx = log(xt ) , dlx = ∇ log(x ) e ddlx = ∇ ∇ log(x ).
t 12 t
> x = AirPassengers
> lx = log(x); dlx = diff(lx); ddlx = diff(dlx, 12)
> par(mfrow=c(1,1), mar=c(1,1,1,1), mgp=c(1.6,0.8,0))
> plot.ts(cbind(x,lx,dlx,ddlx), main="", xlab="Tempo")
> grid()
> # abaixo o interesse é mostrar a componente sazonal
> par(mfrow=c(2,1), mar=c(3,3,2,1), mgp=c(1.6,.6,0))
> monthplot(dlx)
> grid()
> monthplot(ddlx)
> grid()
Observe que x é a série original, que mostra tendência mais variação crescente. O logaritmo
dos dados estão registrados em lx e a transformação estabiliza a variação. O logaritmo dos
dados são então diferenciados para remover a tendência e são armazenados em dlx . É claro que
ainda há persistência nas estações, ou seja, dlx ≈ dlx t, de modo que uma diferença de
t−12
décima segunda ordem seja aplicada e armazenada em ddlx . Os dados transformados parecem estar
estacionários e agora estamos prontos para estimar o modelo.
As funções ACF e PACF amostrais de ddlx , ou seja, de ∇12 ∇ log(xt ) são mostradas na figura a
seguir. O código R é:
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 81/91
06/06/2023, 12:29 Modelos ARIMA
> acf2(ddlx,50)
ACF PACF
[1,] -0.34 -0.34
[2,] 0.11 -0.01
[3,] -0.20 -0.19
[4,] 0.02 -0.13
[5,] 0.06 0.03
[6,] 0.03 0.03
[7,] -0.06 -0.06
[8,] 0.00 -0.02
[9,] 0.18 0.23
[10,] -0.08 0.04
[11,] 0.06 0.05
[12,] -0.39 -0.34
[13,] 0.15 -0.11
[14,] -0.06 -0.08
[15,] 0.15 -0.02
[16,] -0.14 -0.14
[17,] 0.07 0.03
[18,] 0.02 0.11
[19,] -0.01 -0.01
[20,] -0.12 -0.17
[21,] 0.04 0.13
[22,] -0.09 -0.07
[23,] 0.22 0.14
[24,] -0.02 -0.07
[25,] -0.10 -0.10
[26,] 0.05 -0.01
[27,] -0.03 0.04
[28,] 0.05 -0.09
[29,] -0.02 0.05
[30,] -0.05 0.00
[31,] -0.05 -0.10
[32,] 0.20 -0.02
[33,] -0.12 0.01
[34,] 0.08 -0.02
[35,] -0.15 0.02
[36,] -0.01 -0.16
[37,] 0.05 -0.03
[38,] 0.03 0.01
[39,] -0.02 0.05
[40,] -0.03 -0.08
[41,] -0.07 -0.17
[42,] 0.10 0.07
[43,] -0.09 -0.10
[44,] 0.03 -0.06
[45,] -0.04 -0.03
[46,] -0.04 -0.12
[47,] 0.11 -0.01
[48,] -0.05 -0.05
[49,] 0.11 0.09
[50,] -0.02 0.13
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 82/91
06/06/2023, 12:29 Modelos ARIMA
Componente sazonal: parece que nas estações do ano o ACF está cortando um atraso ou lag de
1s , s = 12 , enquanto o PACF está diminuindo nos intervalos 1s, 2s, 3s, 4s, ⋯ . Estes resultados
implicam um modelo S M A(1) , P = 0 , Q = 1 , na estação s = 12 .
Componente não sazonal: inspecionando a amostra ACF e PACF nos desfasamentos inferiores,
parece que ambos estão diminuindo. Isso sugere um modelo ARM A(1, 1) dentro das estações
p = q = 1 .
Assim, primeiro tentamos um modelo ARI M A(1, 1, 1) × (0, 1, 1)12 no logaritmo dos dados.
Call:
stats::arima(x = xdata, order = c(p, d, q), seasonal = list(order = c(P, D,
Q), period = S), include.mean = !no.constant, transform.pars = trans, fixed = fixed,
optim.control = list(trace = trc, REPORT = 1, reltol = tol))
Coefficients:
ar1 ma1 sma1
0.1960 -0.5784 -0.5643
s.e. 0.2475 0.2132 0.0747
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 83/91
06/06/2023, 12:29 Modelos ARIMA
> modelos
AIC AICc BIC
modelo -3.393658 -3.392434 -3.312667
modelo1 -3.404219 -3.403611 -3.343475
modelo2 -3.390772 -3.390164 -3.330028
> sarima(lx, 0,1,1, 0,1,1,12)
Todos os critérios de informação preferem o modelo ARI M A(0, 1, 1) × (0, 1, 1)12 , que é o modelo
ajustado no objeto modelo1. Os diagnósticos dos resíduos são mostrados na figura abaixo e, com
exceção de um ou dois outliers, o modelo parece se encaixar bem.
Análise dos resíduos do modelo ARI M A(0, 1, 1) × (0, 1, 1)12 aplicado ao conjunto de dados de
passageiros aéreos registados.
$se
Jan Feb Mar Apr May Jun Jul Aug Sep
1961 0.03671562 0.04278291 0.04809072 0.05286830 0.05724856 0.06131670 0.06513124 0.06873441 0.07215787
Oct Nov Dec
1961 0.07542612 0.07855851 0.08157070
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 84/91
06/06/2023, 12:29 Modelos ARIMA
III.10 Exercícios
1. Para um modelo M A(1) , X t = Wt + θWt−1 , mostrar que |ρX (1)| ≤ 1/2 para qualquer número
θ. Para quais valores de θ, ρX (1) não atinge seu máximo e mínimo?
X t = ϕX t−1 + Wt , t = 1, 2, ⋯ ⋅
Podemos usar este método para simular um processo AR(1) a partir do ruído branco simulado.
t
(a) Mostre que Xt = ∑
j=0
j
ϕ Wt−j para qualquer t = 1, 2, ⋯.
2
σW
2(t+1)
Var(X t ) = (1 − ϕ )⋅
2
1 − ϕ
(e) É Xt estacionário?
(f) Argumente que, quando t → ∞ , o processo se torna estacionário, então, em certo
sentido, Xt é assintoticamente estacionário.
(g) Comente como poderiamos usar esses resultados para simular n observações de um
modelo estacionário Gaussiano AR(1) a partir de valores de independentes identicamente
distribuídos N (0, 1) simulados.
−−−−−
(h) Agora suponha que X 0 = W0 √1 − ϕ .
2
Este é um processo estacionário?
(b) Seja Yt = ϕ−1 Yt−1 + Vt onde Vt ∼ N (0, σ 2 ϕ−2 ) e ϕ e σ são como na parte (a).
W W
4. Identifique os seguintes modelos como modelos ARM A(p, q) , atente para a redundância de
parâmetros e determine se eles são causais e ou invertíveis:
(a) X t = 0.80X t−1 − 0.15X t−2 + Wt − 0.30Wt−1 .
5. Mostre que um modelo AR(2) é causal se, e somente se, as condições mostrados no Exemplo
III.9 forem válidas, ou seja, mostre que um modelo AR(2) é causal se, e somente se,
ϕ1 + ϕ2 < 1 , ϕ2 − ϕ1 < 1 e |ϕ 2 | < 1 .
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 85/91
06/06/2023, 12:29 Modelos ARIMA
6. Para o modelo AR(2) dado por X t = −0.9X t−2 + Wt , encontre as raízes do polinômio
autoregressivo e, em seguida, trace o ACF, ρ(h) .
7. Para as séries AR(2) mostradas abaixo, use os resultados do Exemplo III.10 para determinar
um conjunto de equações em diferença que podem ser usadas para encontrar o ACF ρ(h),
h = 0, 1, ⋯; resolva para encontrar as constantes no ACF usando as condições iniciais. Em
seguida, plote os valores do ACF para o lag ou atraso 10, use o ARMAacf como uma verificação
das suas respostas.
(a) X t + 1.60X t−1 + 0.64X t−2 = Wt
9. Gere n = 100 observações de cada um dos três modelos discutidos no Exercício III.8. Calcule o
ACF amostral para cada modelo e compare-a com os valores teóricos. Calcule o PACF amostral
para cada uma das séries geradas e compare as ACF e PACF amostrais com os resultados gerais
apresentados na Tabela III.1.
10. Seja Xt um processo que represente a série de mortalidade cardiovascular cmort discutida no
Exemplo II.2.
(a) Ajuste um modelo AR(2) à Xt usando regressão linear como no Exemplo III.18.
(b) Assumindo que o modelo ajustado em (a) seja o modelo verdadeiro, encontre as
previsões ao longo de um horizonte de quatro semanas, n
X n+m para m = 1, 2, 3, 4 e os
intervalos de previsão de 95% correspondentes.
X t = Wt + θWt−1 ,
n 2
2 2+2n
E((X n+1 − X̃ n+1
) ) = σ (1 + θ )⋅
Compare o resultado com (a) e indique o quão bem a aproximação finita funciona neste
caso.
12. No contexto da equação Γ n ϕn = γn , mostre que γ (0) > 0 e γ (h) → 0, quando h → ∞, então
Γ n é definida positiva.
13. Suponha que Xt seja estacionário com média zero e lembre a Definição III.9 do PACF. Isto é,
h−1 h−1
i=1 j=1
sejam os dois resíduos onde {a 1 , ⋯ , a h−1 } e {b 1 , ⋯ , b h−1 } foram escolhidos para minimizar os
erros quadráticos médios
2 2
E(ϵ ) e E(δ )⋅
t t−h
O PACF no atraso ou lag h foi definido como a correlação cruzada entre ϵt e δt−h , ou seja,
E(ϵt δt−h )
ϕh,h = ⋅
−−−−−−−−−−−
2 2
√E(ϵ )E(δ )
t t−h
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 86/91
06/06/2023, 12:29 Modelos ARIMA
⊤
ρ(h) = Corr(X t+h , X t ). Seja ρ̃ h = (ρ(h), ρ(h − 1), ⋯ , ρ(1)) o vetor reverso. Mais ainda,
seja X
h
t
o melhor preditor linear de Xt dados {X t−1 , ⋯ , X t−h }:
h
X = αh,1 X t−1 + ⋯ + αh,h X t−h ,
t
⊤ −1
ρ(h) − ρ̃ R ρh
h−1 h−1
ϕh,h = = αh,h ⋅
⊤ −1
1 − ρ̃ R ρ̃ h−1
h−1 h−1
⊤
onde o vetor h × 1 de coeficientes α = (αh,1 , ⋯ , αh,h ) é paticionado como (α
⊤
1
, αh,h )
⊤
.
14. Suponha que desejamos encontrar uma função de predição g(x) que minimize
2
M SE = E((Y − g(x)) ),
(a) Mostre que o MSE é minimizado pela escolha g(x) = E(Y |X) .
2
Sugestão: E(E((Y − g(X)) | X)) .
(c) Suponha que restringimos nossas escolhas para a função g(x) para funções lineares da
forma
g(X) = a + bX,
15. Para um modelo AR(1), determine a forma geral da previsão m passos à frente X
t
t+m
e mostre
que
2m
2 1 − ϕ
t 2
E((X t+m − X ) ) = σW ⋅
t+m 2
1 − ϕ
m−1 n+m−1
n n
X̃ n+m
= − ∑ πj X̃ n+m−j
− ∑ πj X n+m−j ,
j=1 j=m
m−1
2
E((X n+m − X̃ n+m )(X n+m+k − X̃ n+m+k )) = σ W ∑ ψj ψj+k ⋅
j=0
Significa que, para um tamanho de amostra fixo, os erros de previsão do modelo ARMA estão
correlacionados.
18. Ajustar um modelo AR(2) para a série de mortalidade cardiovascular cmort discutida no
Exemplo II.2. usando regressão linear e usando Yule-Walker.
(a) Compare as estimativas dos parâmetros obtidos pelos dois métodos.
(b) Compare os erros padrão estimados das estimativas dos coeficientes obtidos por
regressão linear com suas aproximações assintóticas correspondentes, como dado no
Teorema III.10.
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 87/91
06/06/2023, 12:29 Modelos ARIMA
(b) Por sua vez, mostre que, para t ≤ 1, os erros da previsão reversa são
n n 1−t 2
W̃ t (ϕ) = X − ϕX = ϕ (1 − ϕ )X 1 ⋅
t t−1
t=−∞
(d) Use o resultado de (c) para verificar se a soma de quadrados incondicional, S (ϕ), pode
1
ser escrita como ∑
t=−∞
W̃ t (ϕ)
2
.
(e) Encontre Xt
t−1
e rt para 1 ≤ t ≤ n e mostre que
n
1 2
t−1
S (ϕ) = ∑ (X t − X ) ⋅
t
rt
t=1
20. Repita o seguinte exercício numérico três vezes. Gere n = 500 observações do modelo ARMA
dado por
com Wt ∼ N (0, 1) independentes. Plote os dados simulados, calcule o ACF e o PACF amostrais
dos dados simulados e ajuste um modelo ARM A(1, 1) aos dados. O que aconteceu e como
você explica os resultados?
21. Gere 10 realizações de comprimento n = 200 cada de um processo ARM A(1, 1) com ϕ = 0.9 ,
22. Gere n = 50 observações de um modelo Gaussian AR(1) com ϕ = 0.99 e σ 2 = 1 . Usando uma W
23. Usando o Exemplo III.32 como seu guia, desenvolva o procedimento de Gauss-Newton para
estimar o parâmetro autoregressivo ϕ, a partir do modelo AR(1), Xt = ϕXt−1 + Wt , dados
X1 , ⋯ , Xn . Este procedimento produz o estimador incondicional ou condicional?
Dica: Escreva o modelo como Wt = X t − ϕX t−1 ; sua solução deve funcionar como um
procedimento não-recursivo.
X t = α + ϕX t−1 + Wt + θWt−1 ,
onde E(X t ) = μ, |θ| < 1 , |ϕ| < 1 e Wt são variáveis aleatórias independentes com média zero
e variância σ
2
W
.
(a) Determine a média como uma função do modelo acima. Encontre a autocovariância e o
ACF do processo Xt e mostre que o processo é fracamente estacionário. O processo é
estritamente estacionário?
(b) Prove que a distribuição limite quando n → ∞ da média da amostral,
n
¯¯¯¯
1
X = ∑ Xt ,
n
t=1
25. Um problema de interesse na análise de séries temporais geofísicas envolve um modelo simples
para dados observados contendo um sinal e uma versão refletida do sinal com fator de
amplificação desconhecido a e atraso de tempo desconhecido δ . Por exemplo, a profundidade de
um terremoto é proporcional ao tempo de atraso δ para a onda P e sua forma refletida pP em
um registro sísmico. Suponha que o sinal, digamos st , seja ruído branco Gaussiano com
variância σs
2
e considere o modelo gerador
X t = st + ast−δ ⋅
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 88/91
06/06/2023, 12:29 Modelos ARIMA
j
st = ∑(−a) X t−δj
j=0
(b) Se o atraso de tempo δ for assumido como sendo conhecido, sugira um método
computacional aproximado para estimar os parâmetros a e 2
σs usando a máxima
verossimilhança e o método de Gauss-Newton.
(c) Se o atraso de tempo δ for assumido como sendo desconhecido, especifiqu como
poderíamos estimar os parâmetros incluindo δ . Gere n = 500 pontos da série com a = 0.9,
2
σW = 1 e δ = 5. Estime o atraso de tempo inteiro δ pesquisando sobre δ = 3, 4, ⋯ , 7 .
27. Suponha
q
Y t = β0 + β1 t + ⋯ + βq t + Xt , βq ≠ 0,
28. Verifique se o modelo I M A(1, 1), X t = X t−1 + Wt − λWt−1 com |λ| < 1 para t = 1, 2, ⋯ e
X0 = 0 , como apresentado do Exemplo III.38, pode ser invertido e escrito como
∞
j−1
X t = ∑(1 − λ)λ X t−j + Wt ⋅
j=1
(1 − ϕB)(1 − B)X t = δ + Wt ,
seja Y t = (1 − B)X t = ∇X t .
n j−1 j
Y = δ(1 + ϕ + ⋯ + ϕ ) + ϕ Yn ⋅
n+j
m m
δ ϕ(1 − ϕ ) ϕ(1 − ϕ )
n
X n+m = X n + (m − ) + (X n − Zn−1 ) ⋅
1 − ϕ 1 − ϕ 1 − ϕ
Dica: De (a),
j
1 − ϕ
n n j
X − X = δ + ϕ (X n − X n−1 )⋅
n+j n+j−1
1 − ϕ
ψ
∗
1
= (1 + ϕ) e ψ
∗
j
− (1 + ϕ)ψ
∗
j−1
+ ϕψ
∗
j−2
= 0 quando j ≥ 2, neste caso
)/(1 − ϕ) , para j ≥ 1.
∗ j+1
ψ = (1 − ϕ
j
30. Para o logaritmo dos dados das variedades glaciais paleoclimáticas, chamemos Xt , apresentados
t
no Exemplo III.33, use as primeiras 100 observações e calcule o EWMA, X̃ t+1
, dado no Exemplo
III.38 para t = 1, ⋯ , 100, usando λ = 0.25, 0.50 e λ = 0.75 e grafique os EWMA's e os dados
sobrepostos uns aos outros. Comente os resultados.
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 89/91
06/06/2023, 12:29 Modelos ARIMA
31. No Exemplo III.40, apresentamos os diagnósticos para o M A(2) ajustado à série de taxas de
crescimento do PIB. Usando esse exemplo como guia, conclua o diagnóstico para o ajuste do
AR(1).
32. Os preços do petróleo bruto em dólares por barril são guardados em oil. Ajuste um modelo
ARI M A(p, d, q) para a taxa de crescimento realizando todos os diagnósticos necessários.
Comente.
33. Ajuste um modelo ARI M A(p, d, q) para os dados da temperatura global em globtemp
realizando todos os diagnósticos necessários. Depois de decidir sobre um modelo apropriado,
faça uma previsão com limites de confiança para os próximos 10 anos. Comente.
34. Ajuste um modelo ARI M A(p, d, q) para a série de dióxido de enxofre so2, realizando todos os
diagnósticos necessários. Depois de decidir sobre um modelo apropriado, faça uma previsão dos
dados para o futuro com quatro períodos de tempo à frente, cerca de um mês, e calcule os
intervalos de previsão de 95% para cada uma das quatro previsões. Comente. O dióxido de
enxofre é um dos poluentes monitorados no estudo de mortalidade descrito no Exemplo II.2.
35. Consideremos que St representa os dados de vendas mensais em sales, n = 150 e seja Lt o
principal indicador em lead.
(a) Ajustar um modelo ARIMA para St , os dados de vendas mensais. Discuta seu modelo
passo-a-passo, apresentando seu (A) exame inicial dos dados, (B) transformações, se
necessário, (C) identificação inicial das ordens de dependência e grau de diferenciação, (D)
estimativas dos parâmetros, (E) diagnósticos dos resíduos e escolha do modelo.
(b) Use os gráficos CCF e lag entre ∇St e ∇L t para argumentar que uma regressão de
∇St em ∇L t é razoável. Observe que, em lag2.plot(), a primeira série nomeada é aquela
que fica defasada.
(c) Ajuste o modelo de regressão ∇St = β0 + β1 ∇Lt−3 + Xt , onde Xt é um processo
ARMA. Explique como você decidiu o seu modelo para Xt . Discuta seus resultados. Veja o
Exemplo III.45 para ajudar na codificação deste problema.
37. Refaça o Exercício 2 da Seção II.1, sem assumir que o termo de erro é ruído branco.
X t = Wt + ΘWt−2 ⋅
Wt = ∑ πk X t−k ⋅
k=0
(c) Desenvolva equações para a previsão m passos à frente X̃ n+m e sua variância baseada
no passado infinito Xn , Xn−1 , ⋯ .
39. Trace o ACF do sazonal do modelo ARI M A(0, 1) × (1, 0)12 com Φ = 0.8 e θ = 0.5 .
40. Ajuste um modelo sazonal ARIMA de sua escolha aos dados de preço de frango em chicken. Use
o modelo estimado para prever os próximos 12 meses.
41. Ajuste um modelo sazonal ARIMA de sua escolha para os dados de desemprego em unemp. Use
o modelo estimado para prever os próximos 12 meses.
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 90/91
06/06/2023, 12:29 Modelos ARIMA
42. Ajuste um modelo sazonal ARIMA de sua escolha para os dados de desemprego em
UnempRate. Use o modelo estimado para prever os próximos 12 meses.
43. Ajuste um modelo sazonal ARIMA de sua escolha para a série de nascidos vivos dos EUA birth.
Use o modelo estimado para prever os próximos 12 meses.
44. Ajustar um modelo sazonal ARIMA apropriado à série de lucros Johnson & Johnson jj
transformada em logaritmo do Exemplo I.1. Use o modelo estimado para prever os próximos 4
trimestres.
45. Suponha que X t = ∑ ϕj X t−j + Wt onde ϕp ≠ 0 e Wt é um ruído branco de tal modo que Wt
j=1
não está correlacionado com {Xk : k < t}. Use o Teorema da Projeção, Teorema B.1, para
mostrar que, para n > p, o melhor preditor linear de Xn+1 em ¯sp
¯¯¯¯
{X k : k ≤ n} é
X̂ n+1 = ∑ ϕj X n+1−j ⋅
j=1
46. Considere a série X t = Wt − Wt−1 , onde Wt é um processo de ruído branco com média zero e
variância σW
2
. Suponha que consideremos o problema de prever Xn+1 baseado em apenas
X 1 , ⋯ , X n . Use o Teorema da Projeção para responder às perguntas abaixo.
n
1
(a) Mostrar que o melhor preditor linear é X
n
n+1
= − ∑ kX k .
n + 1
k=1
2 n + 2
(b) Prove que o erro quadrático médio é E(X n+1 − X
n
n+1
) =
2
σW .
n + 1
leg.ufpr.br/~lucambio/STemporais/STemporaisIII.html 91/91