Escolar Documentos
Profissional Documentos
Cultura Documentos
Luis A. F. Alvarez
1 de abril de 2024
A metodologia
2 / 42
Etapas da metodologia
3 / 42
Modelos considerados
4 / 42
MA(q)
- Dizemos que uma série de tempo {Yt } segue um MA(q) se:
q
X
Yt = α + ϵt + θj ϵt−j
j=1
6 / 42
ARMA(p,q) estacionário
7 / 42
E se os dados forem não estacionários?
8 / 42
Modelos ARIMA(p,d,q)
9 / 42
Previsão com tendência determinística
- Se séries apresentam tendência determinística, conduzimos a
metodologia com dados detrended. Calculadas as projeções
detrended, recompomos projeções em nível usando a tendência
estimada.
- Por exemplo, se estimamos uma tendência linear:
Yt = ã + b̃t + ξ˜t
e ajustamos um modelo ARMA para ξ˜t , a projeção para fora da
amostra é:
\
Y ˜[
T +h = ã + b̃(T + h) + ξT +h ,
onde ξ˜[
T +h é a projeção do ARMA para T + h (veremos como
calculá-la na etapa de previsão).
- Estimação de ARMA para dado detrended é equivalente a estimar um
modelo ARMA(p,q) com tendência determinística.
Φ(L)Yt = α + γt + Ψ(L)ϵt .
10 / 42
“Filosofia” da metodologia de Box-Jenkins
11 / 42
Identificação
12 / 42
Identificação de um ARMA(p,q)
13 / 42
Função de autocorrelação serial (FAC)
- Note que essa função está bem definida para processos estacionários,
visto que cor(Yt , Yt−k ) não depende de t.
14 / 42
Função de autocorrelação serial parcial
(FACP)
- Note que função está bem definida para processos estacionários, visto
que coeficientes do melhor preditor linear em (1) não dependem de t.
15 / 42
FAC e FACP estimadas
16 / 42
Inferência sobre FAC e FACP populacionais
17 / 42
FAC e FACP amostrais de ∆Desemprego
0.6
0.8
0.4
0.6
Partial ACF
0.4
0.2
ACF
0.2
0.0
0.0
−0.2
−0.2
−0.4
0 10 20 30 40 0 10 20 30 40
Lag Lag
18 / 42
Inferência conjunta sobre a FAC
19 / 42
FAC e FACP de um AR(p) estacionário
- Como vimos em aula anterior, a FAC de um AR(1) estacionário é
dada por:
γk = cor(Yt , Yt−k ) = β1k , |β1 | < 1
isto é, a FAC apresenta decaimento geométrico em direção a zero.
- De modo geral, a FAC de um AR(p) estacionário apresenta
decaimento em direção a zero, visto que um AR(p) estacionário pode
ser escrito como um MA(∞), i.e.
∞
X
Yt = µ + ϵt + ωj ϵt−j
j=1
0.6
0.5
0.8
0.4
0.6
Partial ACF
ACF
0.3
0.4
0.2
0.2
0.1
0.0
0.0
0 10 20 30 40 0 10 20 30 40
Lag Lag
21 / 42
FAC e FACP de um MA(q) invertível
22 / 42
Exemplo: FAC e FACP estimadas de um MA(3)
(T=10.000)
0.4
0.8
0.3
0.2
0.6
Partial ACF
ACF
0.1
0.4
0.0
0.2
−0.1
0.0
−0.2
0 10 20 30 40 0 10 20 30 40
Lag Lag
23 / 42
FAC e FACP de um ARMA(p,q) estacionário e
invertível
24 / 42
Exemplo: FAC e FACP estimadas de um
ARMA(2,3) (T=10.000)
0.8
0.8
0.6
0.6
0.4
Partial ACF
ACF
0.4
0.2
0.2
0.0
0.0
−0.2
0 10 20 30 40 0 10 20 30 40
Lag Lag
25 / 42
Resumo
26 / 42
Estimação
27 / 42
Estimação condicional vs. incondicional
28 / 42
Estimação condicional do AR(p)
29 / 42
Estimação condicional do MA(1)
- Para a estimação de um modelo MA(1) com base numa série {Yt }T t=1 ,
precisamos de um chute inicial para o ruído branco no período t = 0.
- Chamemos esse chute de ϵ̃0 (padrão é tomar ϵ̃0 = 0).
- Dado o chute inicial, e dado um valor candicato c para o parâmetro
θ1 , e um valor candidato a para o intercepto α, podemos imputar o
ruído branco em t = 1:
ϵ̃1 (a, c) = Y1 − a − cϵ̃0 .
- Procedendo recursivamente, obtemos, para todo t ≥ 2.
ϵ̃t (a, c) = Yt − a − cϵ̃t−1 (a, c)
- MA(1) pode ser estimado como:
T
1 X
(α̂, θ̂1 ) ∈ argmina,c (Yt − a − ϵ̃t (a, c) − cϵ̃t−1 (a, c))2
T − 1 t=2
30 / 42
Estimação condicional do MA(1)
- Note que (a, c) 7→ a + ϵ̃t (a, c) + cϵ̃t−1 (a, c) varia não linearmente
com (a, c).
- Estimação se dá através de algoritmos para mínimos quadrados não
lineares (não há expressão fechada para o mínimo).
31 / 42
Estimação condicional do ARMA(p,q)
onde ϵ̃t (a, b, c) são definidos recursivamente, para cada valor candidato
dos parâmetros (a, b, c) e chutes iniciais dos errors.
- Perdemos p observações pois não observamos os valores de Y
anteriores a t = 1, e mais q observações na construção recursiva dos
erros.
32 / 42
Estimação incondicional do ARMA(p,q)
- Na estimação condicional, perdemos a informação das p + q primeiras
informações.
- Se fizermos uma hipótese distributiva sobre os ruídos brancos, somos
capazes de caracterizar a distribuição das p+q primeiras observações.
iid
- Por exemplo, se ϵt ∼ N(0, σ 2 ) e Yt seguir um AR(1) estacionário,
então Y1 ∼ N(α/(1 − α), σ 2 /(1 − ρ2 )).
- A estimação incondicional de um ARMA(p,q) se dá pela máxima
verossimilhança que usa a distribuição conjunta de {Y1 , . . . , YT }, sob
iid
a hipótese auxiliar de que ϵt ∼ N(0, σ 2 ).
- Método padrão na função arima do R.
- Se ruído branco de fato é Gaussiano, estimador é eficiente: dentre
todos os estimadores de um ARMA(p,q) Gaussiano, estimador é o de
menor variância.
- Mesmo que o ruído branco não seja Gaussiano, estimador ainda é
consistente para os parâmetros de um ARMA(p,q).
33 / 42
Diagnóstico
34 / 42
Diagnóstico
35 / 42
Critérios de informação
- A princípio, gostaríamos de uma métrica que indicasse quanto da
variabilidade do processo é explicada pelo modelo.
- Quantidade não observada; precisa ser estimada.
38 / 42
Não autocorrelação dos erros
- Os modelos ARMA discutidos supõem que os erros são ruído branco.
- Dessa forma, esperaríamos que os resíduos de nosso modelo fossem
aproximadamente não autocorrelacionados.
- Se houver correlação nos resíduos, ainda há informação nos dados que
a parte sistemática do modelo não está capturando.
- Teste da hipótese nula de que as autocorrelações dos erros de ordens
1 até s são zero, contra a alternativa de que ao menos uma é diferente
de zero, podem ser conduzidos usando a estatística de Ljung-Box:
s
X
Q = T (T + 2) γ̂j2 /(T − j) ,
j=1
40 / 42
Convergência numérica
41 / 42
Normalidade dos erros
42 / 42