Você está na página 1de 51

AULA:

Introdução às Séries
Temporais

Prof. Victor Hugo Lachos Davila


Natureza e Fonte de Dados

Existe 3 tipos de dados disponível para análise:

• Séries Temporais: quando os dados são observados em diferentes instantes do tempo, seja
diariamente (preço de ações, relatórios meteorológicos), mensalmente (taxa de desemprego, IPC),
trimestralmente (PIB).
• Corte Transversal: quando os dados observados foram coletados no mesmo ponto do tempo
(pesquisas de opinião, dados de censos)
• Dados em Painel: Aqui uma unidade em corte transversal é pesquisada ao longo do tempo. (PIB
de cada pais sul-americano para o período de 1990 a 2008)
Exemplos de séries temporais (1)

Ruído Branco Gaussiano

2.82
X t~ N (0, σ 2 ) i.i.d
2.35

1.88

1.41 independente e identicamente distribuídos


0.94 (a.a.)
0.47

-0.47
• O valor esperado é constante
-0.94 • A variância é constante
-1.41
• Simétrica
0
3
6
9
12
15
18
21
24
27
30
33
36
39
42
45
48
51
54
57
60
63
66
69
72
75
78
81
84
87
90
93
96
99
• Não correlacionados entre instantes
diferentes
Exemplos de séries temporais (2)

Movimento de uma partícula com relação a um ponto

μ=0 Passeio Aleatório

X t= μ + X t −1+ a t

a t ~ N (0, σ 2 ) i.i.d

μ=0.2
• O valor esperado é constante
• A variância não é constante
• Simétrica
• Correlacionados entre instantes diferentes
Exemplos de séries temporais (3)

População da Espanha

37800000 A média não é constante


35700000
33600000
A população espanhola cresceu estritamente
31500000

29400000
de década em década de maneira
27300000
aparentemente lineal. Tendência crescente
25200000
23100000
Se tomamos a diferença yt - yt-1 pode-se
21000000
observar as flutuações quanto à velocidade de
18900000
crescimento.
y1900m01d01

y1910m01d01

y1920m01d01

y1930m01d01

y1940m01d01

y1950m01d01

y1960m01d01

y1970m01d01

y1980m01d01

y1990m01d01
870000
3600000
580000
3360000
290000
3120000
0
2880000
-290000
2640000
-580000
2400000
-870000
2160000
-1160000
1920000
-1450000
1680000
-1740000
1440000
-2030000

y1910m01d01

y1920m01d01

y1930m01d01

y1940m01d01

y1950m01d01

y1960m01d01

y1970m01d01

y1980m01d01

y1990m01d01

y1920m01d01

y1930m01d01

y1940m01d01

y1950m01d01

y1960m01d01

y1970m01d01

y1980m01d01

y1990m01d01
Exemplos de séries temporais (4)

Consumo elétrico

As séries de consumo de eletricidade


apresentam uma clara tendência positiva que
1960 parece acelerar-se no final da série.
1820
1680 Por outro lado a série apresenta uma marcada
1540 sazonalidade com consumos muito elevados
1400 nos meses de inverno devido ao efeito da
1260 temperatura.
1120
980 A série parece ter maior dispersão na medida
840 que toma maiores valores.
700
560 Se a sazonalidade é estritamente periódica
pode eliminar-se da série com um
91
92
93
94
95
96
97
98
99
00
01
02
03
04

componente determinista.
Um truque poderia ser estudar
separadamente as séries correspondentes
em períodos equivalentes.
Outra alternativa é tomar diferenças de
ordem apropriado.
104
156
208
260
312
364
416
468
520
572
624
y1980m01d01
y1980m07d01
y1981m01d01
y1981m07d01
y1982m01d01
y1982m07d01
y1983m01d01
y1983m07d01
y1984m01d01
y1984m07d01
y1985m01d01
y1985m07d01
y1986m01d01
y1986m07d01
y1987m01d01
y1987m07d01
y1988m01d01
y1988m07d01
y1989m01d01
y1989m07d01
y1990m01d01
y1990m07d01
y1991m01d01
y1991m07d01
y1992m01d01
Passageiros em linhas aéreas

os dados iniciais.

4.75
4.94
5.13
5.32
5.51
5.7
5.89
6.08
6.27
6.46

y1980m01d01
Heteroscedasticidade

y1980m07d01
y1981m01d01
y1981m07d01
y1982m01d01
y1982m07d01
y1983m01d01
y1983m07d01
y1984m01d01
y1984m07d01
y1985m01d01
y1985m07d01
y1986m01d01
y1986m07d01
y1987m01d01
y1987m07d01
y1988m01d01
y1988m07d01
Se a variância não é constante pode-se

y1989m01d01
y1989m07d01
y1990m01d01
y1990m07d01
normalizar transformando apropriadamente

y1991m01d01
y1991m07d01
y1992m01d01
um marcado crescimento onde a variância
As séries de número de passageiros por mês

aumenta na medida que toma maiores valores.


em linhas aéreas apresenta sazonalidade com
Exemplos de séries temporais (5)
0
19
38
57
76
95
114
133
152
171
190
y2004m01d02
y2004m01d19
y2004m02d05
y2004m02d22
y2004m03d10
y2004m03d27
y2004m04d13
y2004m04d30
y2004m05d17
y2004m06d03
y2004m06d20
y2004m07d07
y2004m07d24
y2004m08d10
y2004m08d27
y2004m09d13
y2004m09d30
y2004m10d17
y2004m11d03
y2004m11d20
y2004m12d07
y2004m12d24
y2005m01d10
y2005m01d27
y2005m02d13
y2005m03d02
y2005m03d19
y2005m04d05
y2005m04d22
y2005m05d09
y2005m05d26
y2005m06d12
y2005m06d29
y2005m07d16
y2005m08d02
y2005m08d19
y2005m09d05
y2005m09d22
y2005m10d09
y2005m10d26
y2005m11d12
y2005m11d29
0
16
32
48
64
80
96
112
128
144
160

y2005m12d16 y2004m11d15
y2006m01d02 y2004m11d22
y2004m11d29
pontes, etc.

y2006m01d19 y2004m12d06
Se observa:

y2006m02d05 y2004m12d13
y2004m12d20
y2006m02d22 y2004m12d27
y2006m03d11 y2005m01d03
y2005m01d10
y2006m03d28 y2005m01d17
y2006m04d14 y2005m01d24
y2005m01d31
y2006m05d01 y2005m02d07
• Mudanças de nível.

y2006m05d18 y2005m02d14
y2005m02d21
y2006m06d04 y2005m02d28
Venda diária de um jornal em uma banca

y2006m06d21 y2005m03d07
semanal e a nível anual.

y2005m03d14
y2006m07d08 y2005m03d21
y2006m07d25 y2005m03d28
y2005m04d04
y2006m08d11 y2005m04d11
y2006m08d28 y2005m04d18
y2005m04d25
y2006m09d14 y2005m05d02
y2006m10d01 y2005m05d09
y2005m05d16
y2006m10d18 y2005m05d23
y2006m11d04 y2005m05d30
y2005m06d06
• Comportamentos periódicos a nível

y2005m06d13
y2005m06d20
y2005m06d27
• A influência de efeitos como feriados,

y2005m07d04
y2005m07d11
y2005m07d18
y2005m07d25
04
05
06
07
08
09
001
011
021
031

y2005m08d01
y2005m08d08
Exemplos de séries temporais (6)
y2004m07d17
y2004m07d31
y2004m08d14
y2004m08d28
y2004m09d11
y2004m09d25
y2004m10d09
y2004m10d23
y2004m11d06
y2004m11d20
y2004m12d04
y2004m12d18
y2005m01d01
y2005m01d15
y2005m01d29
y2005m02d12
y2005m02d26
y2005m03d12
y2005m03d26
y2005m04d09
com certo decaimento.
Venda de um tipo de produto em uma temporada

produz um resultado em incremento


Efeitos como o começo das promoções

instantãneo das vendas que se transmite


Exemplos de séries temporais (7)
Exemplos de séries temporais (8)

Temperatura máxima e mínima diária

39.2 As séries de temperaturas oscilam em torno de


34.3 34.3 um valor central, (15º máx e 5º mín) mas
29.4 29.4 sistematicamente alguns meses tem valores
24.5 24.5 mais altos que outros. Por exemplo os meses
19.6 19.6 de verão tem valores mais altos que os meses
14.7 14.7 de inverno.
9.8 9.8
4.9 4.9 Séries diferentes guardam altas correlações.
0 0 Também pode-se considerar o problema de
-4.9 -4.9 modelar ambas simultaneamente, como Séries
-9.8 -9.8 Temporais Multivariadas.
1994

1995

1996

1997

1998

1999

2000

2001

2002

2003
Processos Estocásticos
Um Processo Estocástico pode ser definido como uma coleção de variáveis aleatórias
{ }
ordenadas no tempo x t , t ε T ,onde T é um conjunto ordenado de índices.

Serie Temporal
Observada

zt
Os Zt,, , t=0,1,2,3,.....n, são realizações de xt
Conceito de Série Temporal
Def.) Série temporal : Uma serie temporal se considera como a realização de um processo estocástico e que estão
ordenadas em intervalos regulares de tempo (cada dia, cada mês, cada ano, etc)

{zt } z1, z2 , z3,...zt

39.2
34.3
2000 2000
34.3 1800 1800
29.4 29.4 1600 1600
24.5 24.5 1400 1400
19.6 19.6 1200 1200
14.7 14.7 1000 1000
9.8 9.8 800 800
4.9
600 600
4.9
400 400
0 0 200 200
-4.9 -4.9 0 0
-9.8 -9.8

89-Ene
89-Abr
89-Jul
89-Oct
90-Feb
90-May
90-Ago
90-Dic
91-Mar
91-Jun
91-Sep
92-Ene
92-Abr
92-Jul
92-Nov
93-Feb
93-May
93-Ago
93-Dic
94-Mar
94-Jun
94-Oct
95-Ene
95-Abr
95-Jul
95-Nov
96-Feb
96-May
96-Sep
96-Dic
97-Mar
97-Jun
97-Oct
98-Ene
98-Abr
98-Ago
98-Nov
99-Feb
99-May
99-Sep
99-Dic
00-Mar
00-Jul
00-Oct
01-Ene
01-Abr
01-Ago
01-Nov
02-Feb
02-Jun
02-Sep
02-Dic
03-Mar
03-Jul
03-Oct
04-Ene
04-May
1994

1995

1996

1997

1998

1999

2000

2001

2002

2003

Os dados de séries temporais geralmente não são independentes, especialmente se os


intervalos da amostra são curtos.
As observações próximas costumam ser mais parecidas que as mais distantes (p. ej.
temperatura diária).
Caracterização de Processos Estocásticos
Um processo estocástico fica caracterizado se definimos a função da distribuição conjunta das variáveis aleatórias (z1,z2,.. zT)
para qualquer valor de T. Dizemos que conhecemos a estrutura probabilística de um proceso estocástico quando
conhecemos estas distribuições, sem embargo isto requer observar um grande número de realizações que não costumam estar
disponíveis quando se trata de séries econômicas.

Def.) Função de Médias :proporciona as esperanças das distribuições marginais de zt para cada instante
μ t = E[ z t ]
Caracterizando
o processo
Def.) Função de variâncias do processo proporciona as variâncias em cada instante temporal.
estocástico Zt
σ t2 = Var[ zt ]

Def.) Função de AutoCovariâncias: descreve a Covariâncias entre duas variáveis do processo em dois instantes
quaisquer.
γ (t , t + j ) = Cov( zt , zt + j ) = E[( zt − μ t )( zt + j − μ t + j )]

Def.) Função de Autocorrelaçãon: mede a dependência lineal entre os valores do processo no instante t e no
instante t+j. Chamaremo coeficiente de correlação de orden (j) a:
Cov( zt , zt + j )
ρ (t , t + j ) =
σ tσ t + j
o correlograma não é mais que a representação dos coeficientes de autocorrelación em função do atraso j.
Tipos de processos estocásticos
Processos
Estocásticos

Processos Estacionários Processos Não Estacionários


Um processo estocástico Zt é estacionário quando Um processo estocástico Zt é não estacionário
as propriedades estatísticas de qualquer quando as propriedades estatísticas de ao menos
sequência finita z1,z2,.. zk de componentes de Zt uma sequência finita z1,z2,.. zk de componentes de
são semelhantes às da sequência z1+h,z2+h,.. zk+h Zt são diferentes das de sequência z1+h,z2+h,.. zk+h
para qualquer número inteiro h para ao menos um número inteiro h

0.8 1960
0.64 1820
0.48 1680
0.32 1540
1400
0.16 1260
0 1120
-0.16 980
-0.32 840
-0.48 700
-0.64 560
00-Ene

00-Nov

01-Sep

02-Jul

03-May

04-Mar

05-Ene

05-Nov

06-Sep

07-Jul

08-May

09-Mar

10-Ene

10-Nov

91

92

93

94

95

96

97

98

99

00

01

02

03

04
Se existe a transformação:
Processos Homogêneos de Orden d
Processos Estocásticos Estacionários

Def.) Processo Estocástico Estacionário em Sentido Estrito : Um processo estocástico Zt é estacionário quando as
propriedades estatísticas de qualquer sequência finita z1,z2,.. zk de componentes de Zt são semelhantes às da sequência
z1+h,z2+h,.. zk+h para qualquer número inteiro h.
Um processo estocástico Zt é estacionário quando a distribuição conjunta de qualquer conjunto de variáveis não se modifica
se transferimos as variáveis no tempo.

F(xi , x j ,...xk ) = F(xi+h , x j+h ,...,xk+h )

Def.) Processo Estocástico Estacionário em Sentido Débil : Quando os momentos de primeira e segunda ordem do
processo são constantes e a Covariância entre duas variáveis depende somente de sua separação no tempo
E(xt ) = μ
Var(xt ) = σ 2
γ (t, t − k) = γ (t, t + k) = γ k k = 0,±1,±2

0.8
0.64
Nota: Quando um processo é 0.48
0.32
estacionário as propriedades 0.16
estatísticas se simplificam 0
-0.16
notavelmente e sua -0.32
-0.48
caracterização é mais simples -0.64
00-Ene

00-Nov

01-Sep

02-Jul

03-May

04-Mar

05-Ene

05-Nov

06-Sep

07-Jul

08-May

09-Mar

10-Ene

10-Nov
Exemplos de Processos Estocásticos Estacionários
Processo Ruído Branco. ARIMA(0,0,0)

zt = at Caracterização
Média de Amostra
Processo Homogêneo de orden 1. ARIMA(p,0,0)

T
z
zˆt = t =1 t

∇zt =Homogéneo
Proceso
at de Orden 1. ARIMA(0,1,0)
T
Matriz de Covariâncias
1 T
Processo Autoregressivo de orden (p).ARIMA(p,0,0)
γˆt = ∑ ( zt − zˆ)( zt −k − zˆ)
T t = k +1

zt = φ1 zt + .. + φ p zt − p + at
Autocorrelações

rk = γˆk γˆo

Processo Média Móvel de ordem (q).ARIMA(0,0,q)

zt = at + θ1at −1 + .. + θ q at − q

Processo ARIMA(p,0,q)

zt = φ1 zt −1 + .. + φ p zt − p + at + θ1at −1 + .. + θ q at − q
Estimação dos momentos de Processos Estacionários
Dada uma série temporal Zt nosso objetivo é construir um modelo estatístico que capture toda a informação estatística
sistemática contida em essa série. Se consideramos Zt como uma realização de um processo estocástico podemos obter
estimativas de seus momentos de amostras tal que:
Caracterização
Def.) Estimador Média de amostra: é um estimador centrado da média populacional. E ( zˆt ) = μ

T
z
zˆt = t =1 t
T
Def.) Estimador das Covariânçias de orden k quando a média populacional é desconhecida. É um estimador
enviesado da autocovariâncias populacionais mas têm menores erros quadráticos de estimação que o estimador com
média conhecida. Garante que a matriz de covariâncias seja sempre definida positiva.
Média Desconhecida: Média Conhecida
1
1 T
∑ ( zt − zˆ)( zt −k − zˆ) γ~k = ∑ ( zt − μ )( zt − k − μ )
T
γˆk =
T t = k +1 T − k t = k +1

Def.) Estimador da matriz de covariâncias:

⎡ γˆ0 γˆ1 L γˆk −1 ⎤


⎢γ γˆ0 L γˆk − 2 ⎥⎥
ˆ
Γk = ⎢ 1
~
⎢ M M O M ⎥
⎢ ⎥
⎣γˆk −1 γˆk − 2 L γˆ0 ⎦

Def.) Estimador das autocorrelações de orden k:

rk = γˆk γˆo Onde γˆo é a variância do proceso


Conceito de Modelação Empírica
Def.) Modelação Empírica: Usando modelos estatísticos descrevem-se fenômenos estocásticos observáveis

12 12
0.8 0.8 11 11
0.7 0.7 Série Temporal:
10
9
10
9
0.6 0.6 z1, z2 , z3,...zt 8 8
7 7
0.5 0.5 6 6
0.4 0.4 5
4
5
4
0.3 0.3 3 3
2 2
0.2 0.2

0101

0201

0301

0401

0501

0601

0701

0801

0901

1001
0.1 0.1
0 0
-2 -1 0 1 2 150 150
Padrão de 120 120
regularidade:
90 90
Histograma 60 60

Φ = { f ( x, θ ) , θ ∈ Θ , x ∈ ℜ x }
30 30

0 0
2 3 4 5 6 7 8 9 10 11 12

A ponte entre os padrões de regularidade e os conceitos probabilísticos é transformar o reconhecimento


intuitivo de padrões em informação estatística sistemática para ser utilizada na modelação.

zt = f (t , β ) + at
onde f(t,B) é uma função conhecida determinista do tempo que depende de um vetor de parâmetros B e at é uma
sequência de variáveis aleatórias independentes de média zero e variância constante.
Modelo Lineal

zt = f (t , β ) + at = β o + β1 x1 + β 2 x2 + ... + β k xk + at
at − > RB(0, σ a )
1. Modelo estocástico: A presença de término de error faz que a relação entre
a variável endógena e a explicativa seja estocástica.
2. O modelo que relaciona as variáveis endógena e explicativa é lineal nos
coeficientes beta.
3. Os coeficientes beta são constantes no tempo.
4. Existe uma relação causal desde as variáveis explicativas até as variáveis
endógenas.
5. As variáveis x são linealmente independentes.
6. As variáveis x são deterministas.
Estimador Mínimos Quadrados Ordinários

yt = X t β + at at ∴ RB(0, σ a ) Parâmetros desconhecidos


do meu modelo beta e
sigma
aˆt = yt − yˆ t = yt − X t βˆ

SR( βˆ ) = aˆt′aˆt = yt yt − 2 βˆ ' X ' y + βˆ ' X ' Xβˆ XB


'

min SR( βˆ ) = min ( yt yt − 2 βˆ ' X ' y + βˆ ' X ' Xβˆ )


'
β β

at=Y-XB
∂SR ( βˆ ) ∂aˆt′aˆt
= = −2 βˆ ' X ' y + βˆ ' X ' Xβˆ y
∂βˆ ∂βˆ
∂SR ( βˆ )
= 0 ⇒ βˆ = ( X ' X ) −1 X ' y
∂βˆ
∂ 2 SR( βˆ )
= X '
X def +
∂β ∂β
ˆ ˆ '
Propriedades do Estimador MCO
Se E(at)=0T então o estimador MCO é insesgado e E(β)=β
βˆ = ( X ' X ) −1 X ' y = ( X ' X ) −1 X ' ( Xβ + at )
E ( βˆ ) = E[ β + ( X ' X ) −1 X ' at ] = β + ( X ' X ) −1 X ' E[at ] = β

βˆ − β = ( X ' X ) −1 X ' at
Var ( βˆ ) = E[( βˆ − E ( βˆ ))(βˆ − E ( βˆ ))] = E[( βˆ − β )( βˆ − β )]
Var ( βˆ ) = E[( X ' X ) −1 X ' at a ' t X ( X ' X ) −1 ] = ( X ' X ) −1 X ' E[at a ' t ] X ( X ' X ) −1
Var ( βˆ ) = ( X ' X ) −1 X ' (σ a2 I T ) X ( X ' X ) −1 = σ a2 ( X ' X ) −1

β ∴ N ( βˆ , σ a2 ( X ' X ) −1 )
É necessário um estimador da variância, se demonstra que:
a '
t at ⎛ a '
t at ⎞
σˆ a =
2

E (σˆ a ) = E ⎜
2
⎟ = σ a2
T −k ⎟
⎝T − k ⎠
Métodos Tradicionais
Os métodos atuais de análises de séries temporais entende-se melhor se connhecemos as limitações de
outros métodos mais simples desenvolvidos para solucionar o problema da predição.

Modelo com Tendência Determinista

zt = μ + β1t + at

Modelo com Sazonalidade Cíclica Determinista

zt = μ + A.sen( wt ) + B. cos(wt ) + at

Modelo de Ajuste de Múltiplos Ciclos Deterministas


k k
zt = μ + ∑ A j sen( w j t ) + ∑ B j cos( w j t ) + at
j =1 j =1
Modelo com Tendências Deterministas:
Zt=bo+b1t+at
Dada a série de consumo elétrico anual procedemos a representar-lo mediante um modelo estatístico consistente em uma
constante, uma tendência dependente do tempo e uma variável aleatória de média zero e variância constante. Nosso objetivo
é realizar uma previsão de demanda de consumo para o ano seguinte.

zt = f (t , β ) + at = β o + β1t + at O modelo dá um
grande ajuste !?!
Para isto realizamos uma regressão lineal com os seguintes resultados

Parâmetros Estimados
Name Value StDs TStudent RefuseProb R2 0.955771
B0 cte 265093.5 8403.6 31.5 6.49E-13
Desv. Est. 14283.3717
B1 trend 17745.6 1058.8 16.8 1.09E-09

Modelo de Tendência Lineal Os resíduos contém claramente

zˆt = 265093.5 + 17745.6 t


informação, fato que nos leva a concluir
que o modelo está mal especificado.
506000
19200
483000
460000 14400 aˆt = zt − zˆt
437000 9600
414000 4800
391000 0
368000 -4800
345000 -9600
322000 -14400 Erros
299000 -19200 MUITO
-24000 ALTOS
91

92

93

94

95

96

97

98

99

00

01

02

03

91

92

93

94

95

96

97

98

99

00

01

02

03
A variância não
é constante!
Modelo com sazonalidade cíclica
Um modelo para a temperatura média diária é uma estrutura harmônica no tempo da forma

zt = μ + Asen(ωt ) + B cos(ωt ) + at

onde
• μ é uma constante (nível)
• A e B dão os desvios com respeito a μ
• ω = 2π é a frequência ( T = 365 dias , T=12, T=52)
T
Realizamos uma regressão lineal com os seguintes resultados
Value StDs TStudent RefuseProb
μ 7.82323835 0.06754142 115.828749 0
A -2.57632028 0.09547423 -26.9844582 0
B -4.14312321 0.09556174 -43.3554605 0

Os resíduos são grandes e têm


uma certa estrutura sazonal
Modelo com múltiplos ciclos de Fourier
Uma função periódica pode descompor-se como uma superposição de funções harmônicas
de distintas frequências e amplitudes

k k
zt = μ + ∑ A j sen (ω j t ) + ∑ B j cos(ω j t ) + at
j =1 j =1

onde
• μ é uma constante (nível)
• Aj e Bj dão os desvios com respeito a μ
• ω = 2π n, n = 1,2,..., T / 2 são as frequências ( T = 365 días )
T

O ajuste é melhor
1992m05d01
1992m06d01
1992m07d01
1992m08d01
1992m09d01
1992m10d01
1992m11d01
1992m12d01
1993m01d01
1993m02d01

irregulares:
1993m03d01
1993m04d01
1993m05d01
1993m06d01
1993m07d01
1993m08d01
1993m09d01
1993m10d01
1993m11d01
1993m12d01
1994m01d01
1994m02d01
1994m03d01
1994m04d01
1994m05d01
1994m06d01
1994m07d01
1994m08d01
1994m09d01
1994m10d01
1994m11d01
1994m12d01
1995m01d01
1995m02d01
1995m03d01
1995m04d01
1995m05d01
1995m06d01
1995m07d01
1995m08d01
1995m09d01
1995m10d01
1995m11d01
1995m12d01
1996m01d01
1996m02d01
1996m03d01
1996m04d01
1996m05d01
1996m06d01
1996m07d01
1996m08d01
1996m09d01
1996m10d01
1996m11d01
1996m12d01
1997m01d01
1997m02d01
1997m03d01
1997m04d01
1997m05d01
1997m06d01
1997m07d01
1997m08d01
1997m09d01
1997m10d01
1997m11d01
1997m12d01
1998m01d01
1998m02d01
1998m03d01
49800
58100
66400
74700
83000
91300
99600
107900
116200
124500
elétrico

Normalmente as séries apresentam tendências não constantes e padrões estacionais


constante ao largo
O padrão estacional é

ciclos de Fourier
dos anos no consumo

se ajusta bem aos


estacionalidade não
Ainda que apresente
A Sazonalidade das séries econômicas pode a vezes ser representada com ciclos de Fourier
Limitações dos métodos deterministas
Tipos de períodos
A agregação nos dados sempre conduz a perda de informação. Sempre que seja possível se deve construir modelos sobre
séries temporais com a maior profundidade de desagregação.

6753.6
1960 6748.8
1820 6744
1680 6739.2
1540 6734.4
1400 6729.6
1260 6724.8
1120 6720
980 6715.2
840 6710.4
700
560

92

93

95

97

99

01

03
91
92
93
94
95
96
97
98
99
00
01
02
03
04 56000
504000 52500
Poca 49000
483000
Información 462000 45500
42000
441000 38500
420000 35000
399000 31500
378000 28000
357000 24500
336000 21000
315000
91/01
91/07
92/01
92/07
93/01
93/07
94/01
94/07
95/01
95/07
96/01
96/07
97/01
97/07
98/01
98/07
99/01
99/07
00/01
00/07
01/01
01/07
02/01
02/07
03/01
03/07
04/01
04/07
91

92

93

94

95

96

97

98

99

00

01

02

03
Objetivo da análise das Séries Temporais
O objetivo da análise de uma série temporal consiste em elaborar um modelo estatístico que descreva adequadamente a
procedência de dita série, de maneira que as implicações teóricas do modelo resultem compatíveis com as pautas de
amostras observadas nas séries temporais. Depois o modelo elaborado a partir da série temporal pode ser utilizado para
prever a evolução futura da série ou explicar a relação entre os distintos componentes do modelo.

2000 2000
1800 1800
1600 1600
1400 1400
1200 1200
1000 1000
800 800
600 600
400 400
200 200
0 89-Ene
89-Abr 0
89-Jul
89-Oct
90-Feb
90-May
90-Ago
90-Dic
91-Mar
91-Jun
91-Sep
92-Ene
92-Abr
92-Jul
92-Nov
93-Feb
93-May
93-Ago
93-Dic
94-Mar
94-Jun
94-Oct
95-Ene
95-Abr
95-Jul
95-Nov
96-Feb
96-May
96-Sep
96-Dic
97-Mar
97-Jun
97-Oct
98-Ene
98-Abr
98-Ago
98-Nov
99-Feb
99-May
99-Sep
99-Dic
00-Mar
00-Jul
00-Oct
01-Ene
01-Abr
01-Ago
01-Nov
02-Feb
02-Jun
02-Sep
02-Dic
03-Mar
03-Jul
03-Oct
04-Ene
04-May
Pautas de Amostras Modelo Estatístico Prever, Descrever
μ t = E[ zt ]
σ t2 = Var[ zt ]
zt = μ + at 1.04
0.78

zt = β o + β1t + at
0.52
Cov( zt , zt + j ) 0.26
0
ρ (t , t + j ) = -0.26
σ tσ t + j -0.52
zt = μ + Rsen( wt + θ ) + at
-0.78
1
0.8

05
06
07
08
09
09
10
11
12
0.6

zt = (1 − θ1 B − ... − θ q B q )at
0.4
0.2
0 2*Sigma
-2*Sigma
-0.2
-0.4
-0.6
-0.8
-1 (1 − φ1 B − ... − φ p B p ) zt = at
10 20 30
Construção do modelo
Modelo de séries temporais univariantes

Filtro Ruído ou Noise


Observações (fatores externos) (fatores estruturais)

θ ( B)
T ( X t ) = Ft + at
ϕ ( B)
Ft = ∑ α i ( B ) F t
i

2.2
1960 1.65
1820

ϕ ( B)
1680 1.1

(T ( X t ) − Ft ) = at
1540

Ruido Blanco
0.55
1400
1260 0
1120

θ ( B)
980 -0.55
840 -1.1
700
560 -1.65
-2.2
91
92
93
94
95
96
97
98
99
00
01
02
03
04

-2.75
Operadores: Diferença, Retardo, Inverso
Uma propriedade importante dos processos estacionários é que os processos obtidos através das combinações lineares dos
processos estacionários são também estacionários.
Ou seja se Zt é estacionário então o processo wt = zt − zt −1 é também estacionário.

Para poder operar com processos estacionários definimos os siguientes operadores Operadores
Def.) Operador Retardo: um operador linear que aplicado a uma função temporal proporciona a essa função retardada um
período. Em particular se aplicamos o operador a uma série temporal obtenemos a mesma série retardada um período.
Bμ = μ
Bf (t ) = f (t − 1) Bazt −1 = aBzt = a zt −1
B zt = zt −1 B k zt = B..Bzt = zt − k
(1 − φ1 B − φ 2 B 2 ) zt = zt − φ1 zt −1 − φ 2 zt − 2

Def.) Operador Diferença: é o operador polinômico (1-B). O resultado de aplicar o operador diferença a uma série Zt com
T observações é obter uma nova série com T-1 observações através

∇ = (1 − B ) ∇ 2 zt = (1 − B ) 2 zt = (1 − 2 B + B 2 ) = zt − 2 zt −1 + zt − 2
∇zt = (1 − B ) zt = zt − zt −1 ∇ s zt = (1 − B s ) zt = zt − zt − s

Def.) Operadores Inversos: Verificam a propriedade que o produto por o operador inicial é a unidade. (pe. o inverso do
operador retardo é o operador adiantado )
(1 + φ B + φ 2 B 2 ....) zt = ∑i =0 φ i B i zt −i = (1 − φB ) −1 zt

F zt = B −1 zt = zt +1
FB =1 (1 − φB ) −1 (1 − φB ) = φ ( B ) −1φ ( B ) = 1
Aplicação de Operadores
Aplicando, à série de consumo elétrico em períodos mensais, os distintos operadores teremos que:

B 4 zt = zt − 4 A série transformada têm a mesma tendência e estrutura estacional que a série original.
wt = (1 − B ) zt A série diferença regular é estacionária em média mas apresenta estrutura estacional.
S t = (1 − B ) zt
12
A série diferença estacional é estacionária em média e não apresenta estrutura estacional.

55000
50000 Operador B move a
série para a direita!
45000
40000
35000
30000
25000
A série Wt
20000 continua tendo
15000 Perdem-se 12 obvs. estrutura
10000
5000
0
-5000
91

92

93

94

95

96

97

98

99

00

01

02

03

04
Processo Ruído Branco. ARIMA(0,0,0)
Def.) Processo Ruído Branco: é um processo Processo
estocástico onde todas as variáveis aleatórias seguem 2500
uma distribuição normal de média zero, variância 2250 Hist.
constante e as covariâncias são nulas. 2000
1750
1500
1250
E ( zt ) = 0 1000
z t = at Var ( zt ) = σ 2
750
500
250
Cov ( zt , zt −k ) = 0
-3 -2 -1 0 1 2 3
ACF
1
0.8
Nota: Um processo ruído branco é estacionário em média e variância. 0.6
0.4
3 0.2
0 -2*Sigma
2*Sigma
-0.2
2 -0.4
-0.6
-0.8
1 -1
2 4 6 8 10 12 14 16 18 20 22 24 26 28 30
0 PACF
1
-1 0.8
0.6
0.4
-2 0.2
0 -2*Sigma
2*Sigma
-0.2
-3 -0.4
-0.6
-0.8
90

91

92

93

94

95

96

97

98

99

00

01

02

03

04

05

-1
2 4 6 8 10 12 14 16 18 20 22 24 26 28 30
PROCESSOS ESTACIONÁRIOS
Autorregressivos AR(p)
Processos Autorregressivos AR(1). ARIMA(1,0,0)
Def.) Proceso Autorregressivo AR(1) : é um processo estocástico {zt} que estabelece uma Processo
dependência linear sobre o primeiro retardo da variável. Dizemos que uma série Zt segue um processo
autorregressivo de primeira ordem se foi gerada por:
zt = φ1 ~
~ zt −1 + at (1 − φ1 B ) ~
zt = at
~z = 1 /(1 − φ )a
= at + φ at −1 + φ 2 at − 2 + φ 3 at −3 ... t 1 t

Onde –1< φ1 <1 é uma constante a determinar, at é um processo ruído branco e zt = zt − c


~ .

Def.) Função de Médias de AR(1) :Tomando esperanças de Zt e dado que E(Zt) = E(Zt-1)=cts Caracterização
posto que o processo é estacionário temos que
E ( zt ) = c /(1 − φ1 ) já que μ = c + φ1μ onde c = μ (1 − φ1 )

Def.) Função de Autocovariâncias de AR(1) : se obtém como


zt = φ1 zt −1 + at
E ( zt − k zt ) = φ1 E ( zt − k zt −1 ) + E ( zt − k at ) multiplicado Zt-k e tomando esperanças onde E(at)=0

γ k = φ1γ k −1 k > 0 σ a2
onde γ0 = já que σ z2 = φ 2σ z2 + σ a2
(1 − φ12 )

Def.) Função de Autocorrelação de AR(1) : dividindo a função de autocovariâncias pela variância do processo
ρ k = φ1 ρ k −1
ρ k = φ1k k ≥1 que é a solução da equação em diferenças com ρ0 = 1
por tanto a função de autocorrelação tende a zero com uma rápidez que depende de φ1 quanto maior seja, menor será o
decrescimento, a condição de estacionariedade nos garante que a função de autocorrelação converge.
Processos Autorregressivos AR(1). ARIMA(1,0,0)
Vamos a representar duas realizações de um processo AR(1) com distintos valores do parâmetro e suas funções de
autocorrelação teóricas.

(1 − 0.9 B ) zt = at (1 + 0.9 B ) zt = at
Valores próximos tem comportamentos similares e A série tende a oscilar e se reflexa na função de
exibem acentuada tendência que se reflexa na ACF autocorrelação que muda de sinal.
700
600
500 400
400 300
300 200
200 100
100 0
0
-100
-100
-200 -200
-300
00

01

02

03

04

05

06

00

01

02

03

04

05

06
ρ k = 0 .9 k ρ k = (−0.9) k
Decrescimento lento exponencial em direção ao zero com Alternância de sinal
parâmetro positivo
1 1
0.8 0.8 ACF
0.6 ACF 0.6
0.4 0.4
0.2 0.2
0 2*Sigma
-2*Sigma 0 2*Sigma
-0.2 -0.2
-2*Sigma
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
-1 -1
10 20 30 10 20 30
Consumo Elétrico Anual AR(1)
A série de consumo elétrico em períodos anuais é claramente não estacionária, com um primeiro valor do correlograma muito
próximo que indica a necessidade de tomar uma primeira diferença regular.
1
504000 0.8 ACF
483000
462000 0.6
441000 0.4 2*Sigma
420000 0.2
399000 0
378000 -0.2
357000
336000 -0.4 -2*Sigma
315000 -0.6
-0.8
-1
91

92

93

94

95

96

97

98

99

00

01

02

03
10 20 30

A série de consumo uma vez diferenciada não apresenta uma tendência clara e o correlograma apresenta valores
positivos que se amortizam com rapidez, o que nos sugere a existência de um processo autorregressivo de ordem
1 1
32400
29700 0.8 ACF
27000 0.6 2*Sigma
24300 0.4
21600 0.2
18900 0
16200 -0.2
13500 -0.4
10800 -2*Sigma
8100 -0.6
-0.8
-1
92

93

94

95

96

97

98

99

00

01

02

03

10 20 30

Por tanto o modelo estatístico proposto para representar o comportamento da série consumo elétrico em períodos
anuais é
wt = φ1wt −1 + at wt = (1 − B) zt
(1 − φ1 B)∇zt = at
Consumo Elétrico Anual AR(1)
Dada a série de consumo elétrico em períodos mensais procedemos a representar-la através de um modelo estatístico
consistente em uma diferença regular e um processo autorregressivo de orden 1 tal que:

(1 − φ1 B)∇zt = at Name Value StDs TStudent RefuseProb


Realizando uma estimativa por máxima verisimilitude RegularAR 0.88149 0.17150 5.13991 0.00061
(1 − 0.88149 B)(1 − B) zt = at Pouco ajuste !?!
Predição de um período para frente é

zˆt +1 = 1.881490 zt − 0.881490 zt −1 = 547794.515 R2Coeficient 0.471662


StandardError 11451.6037
513000
494000
475000
456000 Nota: O R2 é baixo mas o erro padrão é
437000
418000 menor que no modelo com tendência
399000
380000 determinista.
361000
342000
323000
Não apresenta
93

94

95

96

97

98

99

00

01

02

03
nenhuma estrutura

1
19200 E (at ) = 0 0.8 ACF
16000 0.6
12800
Var ( at ) = σ 2 0.4
2*Sigma
9600 0.2
6400
3200 Cov (at , at − k ) = 0 0
0 -0.2
-3200 -0.4 -2*Sigma
-6400 -0.6
-9600 -0.8
-1
94

95

96

97

98

99

00

01

02

03

10 20 30
Função de Autocorrelação Parcial
Determinar a ordem de um processo autorregressivo a partir de sua função de autocorrelação é difícil ao ser uma mescla
de decrescimentos exponenciais e sinusoidais, que se amortizam ao avançar o retardo e não apresenta rasgos fácilmente
identificáveis para determinar a ordem do processo. Para resolver este problema introduz-se a função de autocorrelação
parcial.

Def.) Coeficiente de Autocorrelação Parcial de ordem k. é o coeficiente de correlação entre Processo


observações separadas k períodos quando eliminamos a dependência produzida pelos valores
intermediários.
Se elimina de Zt o efeito Zt-1, Zt-2,…, Zt-k+1 z t = β1 z t −1 + ... + β k −1 z t − k +1 + u t
Se elimina de Zt o efeito Zt-1, Zt-2,…, Zt-k+1
z t − k = γ 1 z t −1 + ... + γ k −1 z t − k +1 + vt
Coeficiente de autocorrelação de ordem k
Corr (u t , vt )

Esta definição é análoga a de coeficiente de correlação parcial da regressão múltipla.

z t = α 11 .z t −1 + η1,t
A sequência de coeficientes αii
z t = α 21 .z t −1 + α 22 .z t − 2 + η 2.t proporciona a função de
autocorrelação parcial (PACF)
....
Em um processo AR(p) a PACF terá
z t = α k1 z t −1 + ... + α kk z t − k + η k .t os p primeiros coeficientes distintos de
zero.
PROCESSOS ESTACIONÁRIOS
Autorregressivos AR(2)
Processos Autorregressivos AR(2). ARIMA(1,0,0)
Def.) Processo Autorregressivo AR(2) : é um processo estocástico {zt} que estabelece uma dependência Processo
linear sobre o primeiro e segundo retardo da variável. Diremos que uma série Zt segue um processo
autorregressivo de segunda ordem se foi gerada por:
z t = φ1 ~
~ z t −1 + φ 2 ~
z t −2 + at (1 − φ1 B − φ 2 B 2 ) ~
z t = at
Onde φ1, φ 2 são duas constantes a determinar, at é um processo ruído branco e zt = zt − c
~ .

Def.) Função de Médias de AR(2) :Tomando esperanças de Zt e dado que E(Zt) = E(Zt-1)=cts Caracterização
posto que o processo é estacionário temos que
E ( z t ) = c /(1 − φ1 − φ 2 )
Def.) Função de Autocovariâncias de AR(2) : se obtém como
z t = φ1 z t −1 + φ 2 z t − 2 + at multiplicado Zt-k e tomando esperanças onde E(at)=0 temos

E ( z t − k z t ) = φ1 E ( z t − k z t −1 ) + φ 2 E ( z t − k z t − 2 ) + E ( z t − k at )
γ k = φ1γ k −1 + φ 2 γ k − 2 k ≥1 onde

γ 1 = φ1 γ 0 + φ 2 γ 1 Variância do processo: para que seja positiva têm-se que − 1 < φ2 < 1
cumprir que os parâmetros do processo estejam na região:
(1 − φ 2 )σ a2 φ1 − φ 2 < 1
γ 0 = φ γ 0 + φ γ 0 + 2φ 2 φ1 γ 1 + σ
2 2 2
γ0 = φ1 + φ 2 < 1
(1 + φ 2 )(1 − φ1 − φ 2 )(1 + φ1 − φ 2 )
1 2 a

Def.) Função de Autocorrelação de AR(2) : dividindo a função de autocovariâncias pela variância do processo

ρ k = φ1 ρ k −1 + φ 2 ρ k − 2 k ≥1 como ρ −i = ρ i
Resolver a Equação em diferenças
φ1 φ 2
para k = 1 ρ1 = , para k = 2 ρ2 = 1
+ φ2 ,para k ≥ 3 ρ k = A1G1k + A2 G2k
1 − φ2 1 − φ2
Equação em diferenças para um AR(2)
(1 − G1 B)(1 − G2 B) z t = at
Expressão do processo AR(2) como
z t = 1.2 z t −1 − 0.32 z t − 2 + at soma de inovações

Resolver a Equação em diferenças

0.32 X 2 − 1.2 X + 1 = 0 (1 − 0.4 B )(1 − 0.8 B ) z t = at


1.2 ± 1.2 2 − 4 × 0.32 1.2 ± 0.4 z t = 1.2 z t −1 − 0.32 z t − 2 + at
X = =
0.64 0.64 1
zt = at
G1−1 = 2.5 G2−1 = 1.25 (1 − 0.4 B )(1 − 0.8 B)
G1 = 0.4 G2 = 0.8 1
= 1 + 0.4 B + 0.4 2 B 2 + ...
(1 − 0.4 X )(1 − 0.8 X ) = 0.32 X 2 − 1.2 X + 1 (1 − 0.4 B)
1
Função de Autocorrelação para o processo AR(2)
= 1 + 0.8 B + 0.8 2 B 2 + ...
ρ k = A1 0.4 k + A2 0.8 k (1 − 0.8 B)
k = 0 1 = A1 + A2
k = 1 0.91 = 0.4 A1 + 0.8 A2 z t = (1 + 0.4 B + 0.4 2 B 2 + ...)

ρk = −
0.11 k 0.51 k
0.4 + 0.8 (1 + 0.8 B + 0.8 2 B 2 + ...)at
0.4 0.4
Processos Autorregressivos AR(2)

ACF

zero a partir do
segundo retardo PACF

(1 − 0.6 B − 0.2 B 2 ) zt = at Raízes Reais

ACF

Sinal Distinto
PACF
(1 + 0.6 B − 0.2 B ) zt = at
2
Raízes Reais
PROCESSOS ESTACIONÁRIOS
Média Móvel MA(q)
Processo Média Móvel MA(1). ARIMA(0,0,1)
Def.) Processo Média Móvel MA(1): é um processo estocástico {zt} gerado pela combinação linear Processo
das duas últimas inovações. ∞
zt = at − θ1 at −1
~ π ( B ) zt = ∑ θ1i B i zt = (1 + θ1 B + θ12 B 2 + ...) ~zt = at AR (∞)
i =0
zt = (1 − θ1 B ) at
~ Representação infinita com coeficientes que decrescem em progressão
geométrica, somente é possível a representação se θ1 < 1
onde –1< θ1 <1 é uma constante a determinar, at é um processo ruído branco e zt = zt − c .
~

Def.) Função de Autocovariâncias de MA(1) : se obtém como Caracterização


zt = at − θ1at −1 = ψ ( B ) at ⎧γ 0 = σ (1 + θ )
2
a 1
2


γ ( B) = σ a2ψ ( B)ψ ( B −1 ) = ψ ( B )ψ ( F ) ⎨γ 1 = −θ1σ a
2

⎪γ = 0 k ≥ 2
γ ( B) = σ a2 (1 − θ1 B)(1 − θ1 F ) = σ a2 {− θ1 F + (1 + θ12 ) − θ1 B} ⎩ k
Def.) Função de Autocorrelação de MA(1) : dividindo a função de autocovariâncias pela variância do processo.
Por tanto o correlograma do processo terá unicamente um valor distinto de zero no primeiro
⎧ ρ1 = − θ1 (1 + θ12 ) retardo.

⎩ρk = 0 k > 1
Def.) Função de Autocorrelação Parcial de MA(1) : utilizando as equações de Yule-Walker com ρ1 = − θ1 (1 + θ12 )
y ρ k = 0 k > 1 depois de manipulações algébricas obtemos que (Box-Cox 70)
Por tanto a função está dominada por um decrescimento exponencial que dependerá
φkk = −θ {1 − θ } /{1 − θ
1
k
1
2
1
2 k +1
} do valor de θ1 . Quando θ1 é positivo a função é negativa e é negativo a função
alterna de sinal.
Processos Média Móvel MA(1). ARIMA(0,0,1)
Vamos representar duas realizações de um processo MA(1) com distintos valores de parâmetro e suas funcões teóricas de
autocorrelação simples e parcial.

zt = at − θ1at −1 zt = at − θ1at −1
zt = (1 − 0.99 B ) at zt = (1 + 0.99 B ) at
ρ1 = − θ1 (1 + θ12 ) = -0.4999747 ρ1 = − θ1 (1 + θ12 ) = 0.49997475
1 1
0.8 ACF 0.8 ACF
0.6 0.6
0.4 0.4
0.2 -2*Sigma
0.2 -2*Sigma
0 0 2*Sigma
-0.2
2*Sigma -0.2
-0.4 -0.4
-0.6 -0.6
-0.8 -0.8
-1 -1
5 10 15 20 5 10 15 20

Decrescimento lento exponencial em direção a zero com Alternância de sinal com parâmetro negativo

φ = −θ {1 − θ } /{1 − θ
parâmetro positivo
kk 1
k
1
2
1
2 k +1
} | φ |< θ
kk 1
k

1
1 PACF 0.8 PACF
0.8 0.6
0.6 0.4
0.4 0.2
0.2 -2*Sigma 0
-2*Sigma
0 2*Sigma -0.2
2*Sigma
-0.2 -0.4
-0.4
-0.6 -0.6
-0.8 -0.8
-1 -1
5 10 15 20 5 10 15 20
Comportamento das ACF e PACF de um processo
ARIMA(p,d,q)
Ordem ARIMA(1,d,0) ARIMA(0,d,1)
comportamento ACF decai exponencialmente ρ1 ≠ 0
comportamento PACF φ 11 ≠ 0 Decaimento exponencial
regiao de admisibilidade −1 < φ < 1 −1 < θ < 1
Ordem ARIMA(2,d,0) ARIMA(0,d,2)
Misturas de exponenciais ρ1 ≠ 0
e ondas senóides
comportamento ACF amortecidas ρ2 ≠ 0
φ 11 ≠ 0 Misturas de exponenciais
e ondas senóides
comportamento PACF φ 22 ≠ 0 amortecidas

− 1 < φ2 < 1 − 1 < θ 2 < 1


região de admisibilidade φ 2 − φ1 < 1 θ 2 − θ 1 < 1
φ 2 + φ1 < 1 θ 2 + θ 1 < 1
Ordem ARIMA(1,d,1)
Decai exponencialmente após o lag 1
comportamento ACF
Decai exponencialmente após o lag 1
comportamento PACF

−1<φ <1
região de admisibilidade
−1<θ <1
Processos Estocásticos Não Estacionários
Def.) Processo Estocástico Não Estacionário : Um processo estocástico Zt é não estacionário quando as propriedades
estatísticas de ao menos uma sequência finita z1,z2,.. zk de componentes de Zt são diferentes das da secuencia z1+h,z2+h,..
zk+h para ao menos um número inteiro h.
Um processo estocástico Zt é não estacionário quando a distribuição conjunta de qualquier conjunto de variáveis se modifica
se modificamos as variáveis no tempo.

F(xi , x j ,...xk ) ≠ F(xi+h , x j+h ,...,xk +h )

E(xt ) ≠ μ Se o nível da série não é estável no tempo podendo ter tendência crescente ou
decrescente diremos que a série não é estacionária em média.

Var(xt ) ≠ σ 2 Se a variância ou as covariâncias variam com o tempo diremos que a série não é
estacionária nas covariâncias.
γ (t, t − k) ≠ γ (t, t + k)

Def.) Processo Integrado de Ordem h- I(h): quando ao diferenciar-lo h vezes se obtém um processo estacionário. São
processos não estacionários unicamente em média e têm a propriedade de converter-se em estacionários tomando uma
diferença. Um processo estacionário é sempre I(0) .

2000 2000
1800 1800
1600 1600
1400 1400
Nota:A maioria das séries reais 1200 1200
1000 1000
são não estacionárias e seu nível 800 800
médio varia com o tempo, sem 600 600
embargo podem converter-se em 400 400
200 200
estacionárias tomando diferenças 0 0
89-Ene
89-Abr
89-Jul
89-Oct
90-Feb
90-May
90-Ago
90-Dic
91-Mar
91-Jun
91-Sep
92-Ene
92-Abr
92-Jul
92-Nov
93-Feb
93-May
93-Ago
93-Dic
94-Mar
94-Jun
94-Oct
95-Ene
95-Abr
95-Jul
95-Nov
96-Feb
96-May
96-Sep
96-Dic
97-Mar
97-Jun
97-Oct
98-Ene
98-Abr
98-Ago
98-Nov
99-Feb
99-May
99-Sep
99-Dic
00-Mar
00-Jul
00-Oct
01-Ene
01-Abr
01-Ago
01-Nov
02-Feb
02-Jun
02-Sep
02-Dic
03-Mar
03-Jul
03-Oct
04-Ene
04-May
Processos Estocásticos Não Estacionários
Passeio Aleatório. ARIMA(0,1,0)

(1 − B) zt = at
Processo Alisamento Exponencial Simples.
IMA(1,1).

(1 − B) z = (1 − θ B)a
Proceso Homogéneo
t de
1 Orden
t 1. ARIMA(0,1,0)

Processos Integrados ARIMA(p,d,q)

(1 − φ1 B − ... − φ p B p )(1 − B ) d ~
zt = (1 − θ1 B − ... − θ q B q ) at

Processos de Memória Longa

(1 − B) d zt = at − 0.5 < d < 0.5

Processo ARFIMA(p,d,q)

θ p ( B)∇ d zt = φq ( B)at − 0.5 < d < 0.5


Passeio Aleatório. ARIMA(0,1,0)
Def.) Passeio aleatório :é um processo estocástico Processo Hist.
cujas primeiras diferenças formam um processo ruído 500
branco. 400
∇zt = at E ( zt ) = 0
300
Var ( zt ) = σ a2t
zt = zt −1 + at 200
Cov ( z t , z t − k ) = σ a2 (t − k ) 100

0 25 50 75 100
120 A variância cresce com o tempo
Diminuição
110 muito lenta
100
1
ACF
90 0.8
0.6
80 0.4
0.2 -2*Sigma
70 0
60 -0.2 2*Sigma
-0.4
50 -0.6
-0.8
40 -1
30 Valor próximo a 1 10 20 30
20
10 1 PACF
0.8
0 0.6
0.4
-10 0.2 -2*Sigma
0
-0.2 2*Sigma
91

92

93

94

95

96

97

98

99

00

01

02

03

04 -0.4
-0.6
-0.8
-1
Para el gráfico se ha generado un paseo aleatorio mediante una serie aleatoria en
fechado diario de media cero y varianza la unidad. 10 20 30
Série do IBEX-35
A série de cotizações do IBEX_35 em períodos diários é um processo não estacionário em média e em variância. Sem
embargo no correlograma se aprecia uma estrutura muito parecida ao correlograma de um passeio aleatório, o que nos leva a
propor esta estrutura como modelo para representar a cotização da bolsa.
E ( at ) = 0 At não é um passeio
∇Ibex35t = at Var ( a ) ≠ σ
2 aleatório
t a
Ibex35t = Ibex35t −1 + at Cov (at , at − k ) ≠ 0
Uma vez tomada a diferença regular (1-B) observamos que a série é estacionária em média nu=0 mas não assim em variância
que apresenta períodos de muita instabilidade. Uma representação mais adequada do processo deveria introduzir a variância do
erro como variável explicativa (p.e.modelo GARCH), por tanto não podemos concluir que o IBEX35 seja um passeio aleatório.

12500 1
ACF
0.8
0.6
0.4
10000 0.2 -2*Sigma
0
-0.2 2*Sigma
-0.4
-0.6
7500 -0.8
-1
10 20 30
5000
A variância do 1 PACF
modelo não é 0.8
2500 constante 0.6
0.4
0.2 -2*Sigma
0
-0.2 2*Sigma
0 -0.4
-0.6
-0.8
-1
90
91
91
91
92
92
92
93
93
93
94
94
94
95
95
95
96
96
96
97
97
97
98
98
98
99
99
99
00
00
00
01
01
01
02
02
02
03
03
03

10 20 30
Processo Integrado ARIMA(p,d,q)
Def.) Processos autorregressivos integrados de média móvel ARIMA(pd,q) : É um processo Processo
ARMA que possui uma ou várias raízes unidade no operador.
(1 − φ1 B − ... − φ p B p )(1 − B ) d ~
zt = (1 − θ1 B − ... − θ q B q ) at
φ p ( B )∇ d ~zt = θ q ( B )at
onde at é um processo ruído branco com ~ zt = zt − μ
Sendo p a ordem da parte autorregressiva , q a ordem da parte média móvel e d o número de raízes unitárias. O processo
chama-se integrado porque zt obtém-se como soma infinita de wt. Por exemplo se
wt = (1 − B ) ~
zt
zt = (1 − B ) −1 wt = (1 + B + B 2 + B 3 ...) wt = ∑ j = −∞ wt
t
~
Definimos φ p ( B ) = (1 − φ1 B − ... − φ p B p ) como a equação característica do processo autorregressivo

θ q ( B ) = (1 − θ1 B − ... − θ q B q )
Duas representações alternativas do processo ARIMA como
1.) Soma de Inovações:
zt = at + ∑i =1ψ i at −i = ψ ( B )at

MA(∞ )
ϕ p + d ( B ) = φ p ( B )(1 − B ) d = (1 − ϕ1 B − ... − ϕ p + d B p + d )
zt = at + ψ 1at −1 + ψ 2 at − 2 + ... = ψ ( B )at MA(∞ )
ϕ ( B ) ~z = θ ( B )a
p+d t q t

ϕ p + d ( B )ψ ( B ) = θ q ( B ) Os ψ i obtém-se igualando os coeficientes em B desta expressão

2.) Soma de valores passados:


π ( B ) zt = zt + ∑i =1π i zt −i = at

AR (∞ )
ϕ p + d ( B ) ~zt = θ q ( B )at
ϕ p + d ( B ) = θ q ( B )π ( B ) Os π i obtém-se igualando os coeficientes em B desta expressão.

Você também pode gostar