Você está na página 1de 28

1

An´alise de S´eries Temporais

Maria S´ılvia de Assis Moura

msilvia@ufscar.br

Departamento de Estat´ıstica Universidade Federal de S˜ao Carlos, Brasil

2

260

240

220

200

180

160

Cap´ıtulo 1 Introdu¸c˜ao

S´erie temporal ´e um conjunto de observa¸c˜oes {X t } tT , cada uma anotada em um tempo espec´ıfico t. Um s´erie temporal em tempo discreto ´e o nome dado para uma s´erie cujos tempos observados t T T 0 , sub-conjunto de Z. Se os tempos de observa¸c˜oes ´e um intervalo cont´ınuo T 0 = [0, 1], ´e chamada de s´erie temporal a tempo cont´ınuo.

1.1

Exemplo

Exemplo 1. Temperatura Mensal na Cidade de Cananeia.

Exemplo Exemplo 1. Temperatura Mensal na Cidade de Cananeia. 0 20 40 60 80 100 120
Exemplo Exemplo 1. Temperatura Mensal na Cidade de Cananeia. 0 20 40 60 80 100 120
Exemplo Exemplo 1. Temperatura Mensal na Cidade de Cananeia. 0 20 40 60 80 100 120
Exemplo Exemplo 1. Temperatura Mensal na Cidade de Cananeia. 0 20 40 60 80 100 120

0

20

40

60

80

100

120

Figura 1.1: Examplo 1: Temperatura Mensal

Exemplo 2. N´umero de p˜aes vendidos, na padaria da esquina, das 6 as` durante, 8 anos.

3

7, diariamente,

1200

1000

800

600

400

200

5.5e+07

5.0e+07

4.5e+07

4.0e+07

3.5e+07

3.0e+07

4

´

CAP ITULO 1.

5.0e+07 4.5e+07 4.0e+07 3.5e+07 3.0e+07 4 ´ CAP ITULO 1. 0 50 100 150 ˜ INTRODUC¸
5.0e+07 4.5e+07 4.0e+07 3.5e+07 3.0e+07 4 ´ CAP ITULO 1. 0 50 100 150 ˜ INTRODUC¸
5.0e+07 4.5e+07 4.0e+07 3.5e+07 3.0e+07 4 ´ CAP ITULO 1. 0 50 100 150 ˜ INTRODUC¸

0

50

100

150

˜

INTRODUC¸ AO

Figura 1.2: Examplo 2: Temperatura Mensal

1. 0 50 100 150 ˜ INTRODUC¸ AO Figura 1.2: Examplo 2: Temperatura Mensal 0 20
1. 0 50 100 150 ˜ INTRODUC¸ AO Figura 1.2: Examplo 2: Temperatura Mensal 0 20
1. 0 50 100 150 ˜ INTRODUC¸ AO Figura 1.2: Examplo 2: Temperatura Mensal 0 20
1. 0 50 100 150 ˜ INTRODUC¸ AO Figura 1.2: Examplo 2: Temperatura Mensal 0 20

0

20

40

60

80

100

Figura 1.3: Examplo 3: ECG

1.2.

OBJETIVOS

5

100

50

0

−50

−100

−150

Exemplo 3. Eletrocardiograma de uma pessoa, durante o dia todo.

Exemplo 4. N´ıvel do Rio Greg´orio, durante 15 meses.

Exemplo 4. N´ıvel do Rio Greg´orio, durante 15 meses. 0 200 400 600 800 1000 Figura
Exemplo 4. N´ıvel do Rio Greg´orio, durante 15 meses. 0 200 400 600 800 1000 Figura
Exemplo 4. N´ıvel do Rio Greg´orio, durante 15 meses. 0 200 400 600 800 1000 Figura
Exemplo 4. N´ıvel do Rio Greg´orio, durante 15 meses. 0 200 400 600 800 1000 Figura
Exemplo 4. N´ıvel do Rio Greg´orio, durante 15 meses. 0 200 400 600 800 1000 Figura

0

200

400

600

800

1000

Figura 1.4: Examplo 4:Rio Greg´orio

Se tomarmos a decis˜ao de observar sempre em uma determinada hora, ou local, poder- emos ter os valores diferentes, ou ainda, se acontecer algo, externo, que possa alterar a s´erie teremos trajet´orias diferentes da s´erie. Para cada t fixo, teremos uma vari´avel aleat´oria Z t , com, obviamente, uma fun¸c˜ao de distribui¸c˜ao de probabilidade. S´erie temporal ´e o nome dado a uma particular trajet´oria. Como para cada valor de t temos uma vari´avel aleat´oria, sobre um mesmo espa¸co amostral, pois a caracter´ıstica que estamos observando ´e a mesma, assim, uma s´erie temporal ´e tamb´em uma realiza¸c˜ao de um processo estoc´astico.

1.2

Objetivos

, t N , o in-

teresse pode ser o de prever o pr´oximo valor da s´erie ou valores mais adiante, por´em o interesse pode ser de investigar o mecanismo gerador da s´erie, descrever o comportamento da s´erie ou ainda procurar periodicidades relevantes nos dados. Para atingir qualquer um desses objetivos, devemos construir modelos probabil´ısticos, tanto no dom´ınio do tempo como no domn´ınio da frequˆencia. Devemos ter em mente a parcimonia, i.e., construir modelos com o menor n´umero de parˆametros poss´ıvel.

Dada uma s´erie temporal {Z t 1 , Z t 2 ,

, Z t N }, observada nos instantes

t 1 , t 2 ,

6

´

CAP ITULO 1.

˜

INTRODUC¸ AO

Cap´ıtulo 2 Processos Estacion´arios

2.1

Defini¸c˜oes

Suponha um processo {X t , t = 0, ±1, ±2,

Para especificarmos um processo estoc´astico ´e necess´ario conhecermos as fun¸c˜oes de den- sidade de probabilidade de todas as vari´aveis aleat´orias, bem como todas as densidades conjuntas. Uma restri¸c˜ao que se faz necess´aria para a an´alise de s´eries temporais ´e a estacionariedade. Existem duas defini¸c˜oes de estacionariedade largamente usadas. Estacionariedade Estrita ou Forte ´e dita se, para qualquer inteiro positivo k, e k pontos

.}.

de tempo t 1 , t 2 ,

, t k e qualquer inteiro h (lag), temos que os vetores:

(X t 1 , X t 2 ,

, X t k )

e

(X t 1 +h , X t 2 +h ,

,

X t k +h )

tem a mesma fun¸c˜ao de distribui¸c˜ao de probabilidade conjunta. Estacionariedade Fraca ou no sentido amplo ou de segunda ordem ´e dita se todas as variˆancias do processo s˜ao finitas e temos,

IE(X t ) = µ, Cov(X t , X t+h ) = γ h ,

as quantidades µ e γ h s˜ao independentes de t.

Como as variˆancias s˜ao finitas, ´e claro que um processo estritamente estacion´ario ser´a

´

E f´acil

construir exemplos de vari´aveis aleat´orias, as quais possuem os dois primeiros momentos

iguais e os demais n˜ao.

fracamente estacion´arios. Entretanto, a volta n˜ao ´e necessariamente verdadeira.

Se o processo for Normal, os dois conceitos s˜ao equivalentes. Um processo {X t , t =

0, ±1, ±2,

.} ´e dito ser linear se pudermos reescrevˆe-lo na forma

X t = µ +

c r tr

r=−∞

onde µ ´e uma m´edia comum, {c r } ´e uma sequˆencia de constantes fixas e { t } s˜ao vari´aveis

< para

aleat´orias independentes com m´edia 0 e variˆancia comum. Assumimos que c

2

r

7

8

´

CAP ITULO 2.

´

PROCESSOS ESTACION ARIOS

assegurar que as variˆancias individuais X t sejam finitas. Tal processo ´e necessariamente estritamente estacion´ario, se c r = 0 para todo r < 0, e tamb´em ´e dito ser causal (i.e. no caso de processo no tempo t n˜ao depender do futuro dos valores ainda n˜ao observados de t ). Um processo gaussiano necessariamente tem uma representa¸c˜ao como um processo linear com { t } normais, mas, podemos tamb´em considerar processo lineares n˜ao-normais. As classes AR, MA e ARMA s˜ao todos casos especiais dos processos lineares causais.

2.2 Autocovariˆancia, Autocorrela¸c˜ao e Representa¸c˜ao Espectral

Para processos fracamente estacion´arios de m´edia 0, a fun¸c˜ao de autocorrela¸c˜ao ´e dada por

γ k = IE{X t X t+k }.

Isto segue da defini¸c˜ao de estacionariedade fraca que n˜ao depende de t. Tamb´em, observe que γ k = γ k para todo k. A fun¸c˜ao de autocorrela¸c˜ao (fac) ´e

ρ k = γ k , γ 0

k = 0, ±1, ±2,

Para qualquer sequˆencia de autocovariˆancias {γ k } geradas por um processo esta- cion´ario, existe uma fun¸c˜ao F tal que:

onde F ´e uma unica´

(i)

F (π) = 0

γ k = (π,π] e ikλ dF (λ)

fun¸c˜ao sobre [π, π] satisfazendo

(2.1)

(ii) F ´e fun¸c˜ao n˜ao decrescente e cont´ınua a` direita

(iii) F tem incrementos sim´etricos em torno de 0, significando que, para qualquer 0 a < b π

temos,

F(b) F(a) = F(a) F(b)

Ent˜ao F ´e chamada de fun¸c˜ao de distribui¸c˜ao espectral, pois possui muitas das pro- priedades da fun¸c˜ao de distribui¸c˜ao de probabilidade exceto que F (π) = 1. Note que, a integral (2.1) ´e uma integral de Stieltjes refletindo o fato que F pode ter descontinuidade. Entretanto, se F ´e cont´ınua e diferenci´avel em toda parte, com f (λ) = dF (λ)/dλ, ent˜ao f ´e chamada de fun¸c˜ao de densidade espectral e (2.1) pode ser simplificada por:

π

γ k = π e ikλ f (λ)dλ.

ˆ

˜

˜

2.2. AUTOCOVARI ANCIA, AUTOCORRELAC¸ AO E REPRESENTAC¸ AO ESPECTRAL9

Se |γ k | < , ent˜ao pode ser mostrado que f sempre existe e ´e dado por:

f(λ) =

1

2π

k=−∞

γ k e iλk =

0

γ

2π + 1

π

k=1

γ k cos(λk).

(2.2)

A interpreta¸c˜ao de F , para 0 λ 1 < λ 2 π, F(λ 2 ) F(λ 1 ) mede a contribui¸c˜ao da variabilidade total do processo na varia¸c˜ao de frequˆencia λ 1 < λ λ 2 .

2.2.1

Exemplos:

1. Ru´ıdo Branco:

Suponha que γ 0 = σ 2 > 0 mas, γ k = 0 para todo k

Neste caso, temos que

= 0.

f(λ) =

σ

2

2π

para todo

λ

que ´e independe de λ. A volta vale, i.e., um processo ´e ru´ıdo branco se e somente se sua fun¸c˜ao espectral ´e constante.

2. Considere o processo

X t = cos(ωt + U )

onde U ´e uma vari´avel aleat´oria uniformemente distribu´ıda sobre (π, π) e 0 ω π. Podemos calcular

IE(X t )

=

IE(X t X t+k )

=

=

=

2π

1

π

π cos(ωt + u)du = 0,

2π

π

1

π

cos(ωt + u) cos(ωt + ωk + u)du

1

4π π {cos(ωk) + cos(2ωt + ωk + 2u)}du

cos(ωk)

π

2

Ent˜ao vemos que {X t } ´e um processo estacion´ario, pois a m´edia e as covariˆancias de X t n˜ao dependem de t. Para encontarmos a representa¸c˜ao espectral usaremos a represen- sta¸c˜ao da autocovariˆancia na forma

γ k = cos(ωk)

2

= (π,π] cos(λk)dF (λ)

Uma poss´ıvel F ´e uma com salto de tamanho 1/4 em ±ω, i.e.

F(λ) =

  se

0

1 4 se

1

  se

2

π λ < ω,

ω λ < ω,

ω λ < π.

Pela unicidade de F , esta ´e a fun¸c˜ao de densidade espectral para este caso. Ent˜ao, a fun¸c˜ao de densidade espectral tem descontinuidade em ±ω, e ´e plana em outra parte,

10

´

CAP ITULO 2.

´

PROCESSOS ESTACION ARIOS

correspondendo a uma unica´ senoide, e a s´erie ´e totalmente conhecida com uma unica´ observa¸c˜ao. Observe que γ k = , neste caso. Podemos estender este caso, onde F ´e plana, exceto para 2k pontos de descontinuidade

±ω 1 , ±ω 2 ,

, ±ω k . Isto ´e correspondente a um processo da forma:

X t =

k

j=1

a j cos(ω j t + U j )

(2.3)

, U k s˜ao vari´aveis aleat´orias independentes e

uniformemente distribu´ıdas sobre (π, π). A restri¸c˜ao 0 ω π no exemplo anterior n˜ao ´e, de fato limitante, pela seguite raz˜ao. Suponha que tenhamos um processo X t = cos(Ωt + U ) para qualquer Ω. Se escrevermos Ω = + ω para algum inteiro N , ω [0, π) e consideremos N par, temos cos(Ωt + U ) = cos(ωt + U ) para algum inteiro t, ent˜ao as frequˆencias ω e Ω s˜ao indistingu´ıveis, ou podemos usar a terminologia convencional aliases. Se N ´e ´ımpar, ent˜ao cos(Ωt + U ) = cos(ωtπt+U ) = cos(ωtπtU ). Mas, U tem a mesma distribui¸c˜ao que U , ent˜ao, neste caso, a frequˆencia Ω ´e alias para π ω. Da´ı, qualquer frequˆencia Ω ´e aliased a alguma frequˆencia no intervalo (0, π]. O limite superior π corresponde a um ciclo do per´ıodo 2 e ´e a frequˆencia mais alta que podemos detectar com amostras de per´ıodo completo, isto ´e tamb´em chamado de frequˆencia Nyquist. 3. O processo AR(1)

para constantes a 1 ,

, a k com U 1 ,

(2.4)

em que { t } ´e uma sequˆencia de vari´aveis n˜ao correlacionadas, com m´edia 0 e variˆancia

comum σ

X t = φ 1 X t1 + t ,

2 , satisfazendo a rela¸c˜ao

V

ar{X t } = φ 2 V ar{X t1 } + σ

1

2

2

Sob a condi¸c˜ao de estacionariedade, que ´e V ar{X t } = γ 0 = σ X , que independe de t, temos:

σ

2 1

X =

1 φ 2

1

σ

2

.

(2.5)

Note que, para (2.5) fazer sentido, devemos ter |φ 1 | < 1. Esta ´e a condi¸c˜ao de esta- cionariedade para um processo AR(1), sem esta condi¸c˜ao o processo tende a crescer in- definidamente. Para o modelo (2.4), satisfazendo a condi¸c˜ao |φ 1 | < 1 e, para k > 0, temos

γ k

=

= φ 1 IE{X t1 X tk + IE{ t X tk }

= φ 1 γ k1 .

IE{X t X tk }

Como temos γ k = γ k , deduzimos:

γ k = φ

|k|

1

γ 0 ,

−∞ < k < .

Diretamente, substituindo em (2.2), temos:

f(λ) =

γ 0 (1 φ 2 )

1

π(1 2φ 1 cos λ + φ 2 ) =

1

σ

2

π(1 2φ 1 cos λ + φ 2 ) .

1

(2.6)

(2.7)

ˆ

˜

˜

2.2. AUTOCOVARI ANCIA, AUTOCORRELAC¸ AO E REPRESENTAC¸ AO ESPECTRAL11

0.0 0.2 0.4 0.6 0.8 1.0 0.0 0.2 0.4 0.6 0.8 1.0 (a) (b) f(lambda)
0.0
0.2
0.4
0.6
0.8
1.0
0.0
0.2
0.4
0.6
0.8
1.0
(a)
(b)
f(lambda)
0.5
1.0
1.5
2.0
f(lambda)
0.5
1.0
1.5
2.0

Figura 2.1: Densidade Espectral de um AR(1), (a) φ 1 = 0, 6 e (b) φ 1 = 0.6

A Figura (2.2.1) mostra f (λ) para φ = ±0, 6. Se φ 1 > 0, a potˆencia ´e concentrada em frequˆencias baixas, i.e., correspondente a flutua¸c˜ao suave. Para φ 1 < 0, a potˆencia ´e concetrada em frequˆencias altas, o que reflete o fato que o processo tende a oscilar. 3. O processo AR(2)

(2.8)

em que { t } ´e uma sequˆencia de vari´aveis n˜ao correlacionadas, com m´edia 0 e variˆancia

comum σ

X t = φ 2 X t2 + φ 1 X t1 + t ,

2 , satisfazendo a rela¸c˜ao

V ar{X t } = φ 2 2 V ar{X t2 }φ 2 V ar{X t1 } + σ

1

2

2

Sob a condi¸c˜ao de estacionariedade, que ´e V ar{X t } = γ 0 = σ X , que independe de t, temos:

σ

2

X =

1

1 φ 2

2

2 φ 1

σ

2

.

(2.9)

Note que, para (2.9) fazer sentido, devemos ter as ra´ızes de φ 2 X 2 + φ 1 X + 1 fora do c´ırculo unit´ario. Esta ´e a condi¸c˜ao de estacionariedade para um processo AR (2), sem esta condi¸c˜ao o processo tende a crescer indefinidamente. Para o modelo (2.8), satisfazendo a condi¸c˜ao φ 2 X 2 + φ 1 X + 1 e, para k > 0, temos

γ k

=

= IE{(φ 2 X t2 + φ 1 X t1 + t )X tk }

= φ 2 IE{X t2 X tk + φ 1 IE{X t1 X tk + IE{ t X tk }

= φ 2 γ k2 + φ 1 γ k1 .

IE{X t X tk }

12

´

CAP ITULO 2.

´

PROCESSOS ESTACION ARIOS

Como temos γ k = γ k , deduzimos:

γ k = φ

|k|

1

γ 0 ,

−∞ < k < .

Diretamente, substituindo em (2.2), temos:

f(λ) =

γ 0 (1 φ 2

1

)

π(1 2φ 1 cos λ + φ 2 ) =

1

σ

2

π(1 2φ 1 cos λ + φ 2 ) .

1

(2.10)

(2.11)

2.3 Decomposi¸c˜ao de Wold

Em geral, ´e poss´ıvel escrever a fun¸c˜ao de densidade espectral F na forma,

F = F 1 + F 2

(2.12)

onde F 1 ´e absolutamente cont´ınua e F 2 ´e fun¸c˜ao de distribui¸c˜ao espctral puramente de- scontinua. Correspondendo a decomposi¸c˜ao do processo.

X t = U t + V t

em processos U e V nos quais U tem fun¸c˜ao de densidade espectral F 1 e V tem fun¸c˜ao densidade espectral F 2 . Como foi visto em (2.3), uma fun¸c˜ao de densidade espectral puramente descont´ınua com finitos pontos de descontinuidade corresponde a uma mistura de senoides, cujo pro- cesso ´e deterministico e previs´ıvel. O resultado geral ´e dado por:

Teorema: Suponha que F = F 1 + F 2 como em (2.12), supomos,

π

π log F 1 (λ)dλ > −∞.

(2.13)

Ent˜ao a decomposi¸c˜ao de X em processos n˜ao correlacionados U e V como em (2.13) existe, e temos:

(i) U t = r=0 c r tr com { r } vari´aveis aleat´orias n˜ao correlacionadas com m´edia 0 e variˆancia comum, sem perda de generalidade, tomemos c 0 = 1, temos tamb´em a

suposi¸c˜ao que c

2

r

< ,

(ii) V t ´e processo deterministico, i.e. se conhecemos V s para todo s < t ent˜ao podemos prever V t perfeitamente.

A soma (i) ´e definida no sentido de m´edia quadrada, i.e.,

lim

R→∞ IE

U t

r=0 c r tr 2

R

= 0

(2.14)

2.3.1 N˜ao Negatividade

Uma pergunta natural ´e: ”Sob quais condi¸c˜oes, uma sequˆencia arbitr´aria {γ k , k 0} ´e fun¸c˜ao de covariˆancia de algum processo estacion´ario?”

´

E

f´acil verificar que devemos colocar algumas restri¸c˜oes, se for uma sequˆencia finita

de constantes {c 1 , c 2 ,

, c T }, teremos:

˜

2.3. DECOMPOSIC¸ AO DE WOLD

0

=

V ar

T

T

s=1 t=1

T

T


=

s=1 t=1

 

13

T

c t X t

 

t=1

c s c t Cov (X s , X t )

(2.15)

c s c t γ |ts| .

, c T } ent˜ao dizemos que {γ k } ´e n˜ao-negativa

= c T = 0,

ent˜ao ´e dita positiva definida. A defini¸c˜ao de n˜ao-negativadade definida ´e uma condi¸c˜ao necess´aria e suficiente para {γ k } ser uma fun¸c˜ao de autocovariˆancia para algum processo estacion´ario. (Este resultado ´e conhecido como Teorema de Bochner). Como podemos verificar a condi¸c˜ao de n˜ao-negativa definida de uma dada sequˆencia {γ k }? Uma condi¸c˜ao suficiente (e de fato, necess´aria) ´e que a fun¸c˜ao de densidade espectral definida por (2.2) deve ser n˜ao-negativa para todo λ. Sob esta condi¸c˜ao temos:

definida. Se a ultima´ express˜ao ´e estritamente positiva, exceto se c 1 =

Se (2.15) vale para toda sequˆencia {c 1 ,

s

t

c s c t γ|s t|

=

s

t

c s c t

π π e i(st)λ f (λ)

=

=

π

π

π

π

s

t

c s c t e i(st)λ f (λ)

2

f (λ)

t

c t e itλ

0.

Da´ı, um m´etodo geral, ´e construir fun¸c˜oes de autocovariˆancias que sejam um trans- forma¸c˜ao n˜ao-negativa arbitr´aria de f .

2.3.2 Estimando autocovariˆancias e densidades espectrais

Apresentamos autocovariˆancias e densidades espectrais apenas na forma te´orica e n˜ao

indicamos como estim´a-las a partir dos dados.

conceito relacionado, fun¸c˜ao de autocorrela¸c˜ao parcial.

Suponha que tenhamos a s´erie {X 1 , X 2 , k > 0 ´e dada por

, X T }. A forma usual de estimar γ k para

E o que faremos aqui e, discutiremos um

´

¯

γˆ k =

onde X ´e a m´edia amostral.

1

T

Tk

t=1

X t

ˆ 1

X =

T

X X tk

¯

T

t=1

X

t

X

¯

(2.16)

Podemos estimar as autocorrela¸c˜oes ρ k = γ k 0 , por

r k = γˆ γˆ k 0

Em (2.16), o natural seria dividir por T k e n˜ao por T , uma vez que a soma tem T k termos, mas, usualmente n˜ao fazemos isto, por duas raz˜oes: (a) usando a defini¸c˜ao

 

´

´

14

CAP ITULO 2.

PROCESSOS ESTACION ARIOS

(2.16) vemos que a autocovariˆancia amostral ser´a sempre n˜ao-negativa definida e, com esta propriedade temos que (b) a estimativa r k em (2.17) frequentemente tem erro quadr´atico m´edio menor se for definida desta maneira, ent˜ao pode ser uma alternativa dividir por T e n˜ao por T k. A fun¸c˜ao de autocorrela¸c˜ao parcial de lag k ´e baseada na regress˜ao de X t sobre

X tk ,

, X t1 . Formalmente, ´e baseada no modelo

X t =

p

j=1

a j,k X tj + t ,

t > k,

com t independente de X tk ,

, X t1 .

As estimativas de m´ınimos quadrados de

{a j,k , j = 1,

, k} s˜ao obtidas pela minimiza¸c˜ao de

2 1

σ k =

T

T

t=k+1

X t

p

j=1

a j,k X tj

2

.

(2.17)

que ´e, equivalente a resolver as equa¸c˜oes

γˆ l =

k

j=1

a j,k γˆ|j l|,

1 l k,

e, calculando a m´edia da soma de quadrados, pela substitui¸c˜ao em (2.17). Na pr´atica, esses coeficientes s˜ao calculados recursivamente, atrav´es da recurs˜ao de Levinson-Durbin:

a k,k

a j,k

=

=

γˆ k

k1

j=1

a j,k1 γˆ jk

2

σ k1

a j,k1 a k,k a kj,k1 ,

σ k = σ k1 (1 a k,k 2 ).

2

2

,

1 j k 1,

(2.18)

Uma medida ´obvia de quanto a regress˜ao de ordem k aumenta sobre a regress˜ao de ordem

k 1 ´e retirar do erro quadr´atico m´edio, e (2.18) mostra que ´e determinado pelo coeficiente

a k,k . Da´ı, denominamos a k,k , como o coeficiente de autocorrela¸c˜ao parcial. A para os coeficientes populacionais s˜ao calculados, substituindo, γ k por γˆ k .

estimativa

Se o processo for Gaussiano, h´a uma interpreta¸c˜ao alternativa, a k,k ´e a correla¸c˜ao

condicional de X t e X tk dado os valores intermedi´arios X tk+1 ,

, X t1 .

Para densidades espectrais, a estimativa mais simples ´e dada pelo periodograma

I T (λ) =

1

2πT

T

t=1

X t e iλt

2

.

(2.19)

Cap´ıtulo 3

Regress˜ao com componentes senodais

A forma mais simples de an´alise espectral consiste em uma regress˜ao sobre componentes peri´odicas:

Y t = A cos ωt + B sin ωt + C + t ,

1 t T,

no qual { t }, para 1 t T , s˜ao n˜ao correlacionados com m´edia 0 e variˆancia comum σ 2 . Assumimos que 0 ω π. Reescrevendo este modelo na nota¸c˜ao padr˜ao matricial, temos:

em que, Y = (Y 1 , Y 2 , Y 3 ,

vetor de erros, β = (A

B

,

Y = Xβ +

Y T ) ´e o vetor de observa¸c˜oes, = ( 1 , 2 , 3 ,

C) e X ´e uma matriz T × 3 dada por:

X =

cos ω

cos 2ω

.

.

.

cos T ω

sin ω

sin 2ω

.

sin T ω

1

1

.

1

.

, T ) ´e o

Ent˜ao as estimativas, por m´ınimos quadrados ordin´arios, s˜ao:

ˆ

A

ˆ

B

ˆ

C

= (X X) 1 X Y = (X X) 1

Y t cos ωt

Y t sin ωt Y t

,

estes estimadores s˜ao n˜ao viesados e a matriz de covariˆancia ´e dada pela f´ormula usual (X X) 1 σ 2 . Se, { t }, para 1 t T s˜ao normais independentes, ent˜ao as estimativas s˜ao tamb´em independentes e normalmente distribu´ıdos. Essas f´ormulas ficam na forma mais simples se ω ´e uma das frequˆencias de F ourier, definidas por ω j = 2πj/T para algum inteiro j entre 0 e T/2. Lembramos as identidades trigonom´etricas:

T T

t=1

cos ω j t

=

t=1

sin ω j t = 0(j

= 0),

15

16

´

CAP ITULO 3.

T

t=1

T

t=1

T

t=1

cos ω j t cos ω k t

=

sin ω j t sin ω k t =

cos ω j t sin ω k t

=

0

˜

REGRESS AO COM COMPONENTES SENODAIS

T

2

T

0

T

2

0

quando

quando

quando

quando

j

j = k =

= k

j

= k,

j = k

caso contr´ario,

para todo

j, k.

= 0

0

= 0

ou

ou

ou

T ,

2

T

2 ,

T ,

2

Por simplicidade, n˜ao consideraremos os casos j = 0, j = T/2, os quais produzem f´ormulas um pouco diferentes, mas, similares. Para todas outras frequˆencias de F ourier ω j , temos:

Da´ı, temos:

X X =

ˆ

A

ˆ

B

ˆ

C

=

=

=

T

2

0

0

2

T

2

T

¯

Y

0

T

2

0

0

0

T

2

.

Y t cos ω j t,

Y t sin ω j t,

=

1

T

Y t ,

e estes estimadores s˜ao n˜ao correlacionados com variˆancias 2σ 2 /T , 2σ 2 /T e σ 2 /T , respec- tivamente. Uma maneira de testar a significˆancia da componente senoidal com frequˆencia ω j e ver a redu¸c˜ao na Soma de Quadrados dos Res´ıduos da regress˜ao acima,

R T (ω j ) = T

2

A 2 + B 2 .

ˆ

ˆ

 

ˆ

ˆ

Se os { t } s˜ao Normais i.i.d., ent˜ao, segue que

A

e

B s˜ao tamb´em independentes

normais, cada um com variˆancia 2σ 2 /T , sob a hip´otese nula A = B = 0, temos que

R T (ω j )

σ 2

χ 2

2

,

ou equivalentemente, R T (ω j )/(2σ 2 ) tem distribui¸c˜ao exponencial com m´edia 1. A teoria acima ´e facilmente estendida para estima¸c˜ao simultˆanea de muitas compo-

nentes peri´odias. Em particular, se considerarmos a estima¸c˜ao de k frequˆencias de F ourier

, ω j k as colunas correspondentes da matriz X s˜ao ortogonais. Isto significa que as

estimativas pontuais dos coeficientes s˜ao as mesmas quando as k componentes s˜ao esti- madas simultanemente como quando elas s˜ao estimadas uma-a-uma, e tamb´em que as estimativas dos parˆamentros, e da´ı da estat´ıstica R T , s˜ao n˜ao correlacionadas. Sob a hip´otese nula que todos os coeficientes A e B s˜ao 0, temos o seguinte resultado():

ω j 1 ,

3.1.

O PERIODOGRAMA

17

Os testes para as k estat´ısticas normalizadas R T (ω j 1 )/(2σ 2 ),

, R T (ω j k )/(2σ 2 ) s˜ao

vari´aveis aleat´orias, independentes exponencialmente distribu´ıdas com m´edia 1.

Este resultado ´e exato para todos T se os { t } s˜ao normais independentes. Este resultado ´e aproximadamente v´alido para T grande se { t } s˜ao n˜ao-normais independentes. Isto, porque o Teorema do Limite Central garante que as estimativas dos parˆametros s˜ao aproximadamente normais independentes para T grande.

3.1 O periodograma

O periodograma foi definido em (2.19), onde foi colocado (sem prova) que ´e um estimador n˜ao viesado da densidade espectral f . Aqui vamos apresentar um prova informal disto, e encontrar as propriedades estat´ısticas dele. Em termos da estat´ıstica R T (ω), definida anteriormente, o periodograma ´e:

I T = R T (ω)

4π

.

Pela propriedade (), se o processo for ru´ıdo branco, ent˜ao R T (ω j ) para frequˆencias de F ourier {ω j , 1 j T/2} s˜ao independentes exponencialmente distribu´ıdas com m´edia comum σ 2 /(2π) = f (ω j ). Este resultado ´e exato se { j } forem normais independentes, e aproximado para T grande, se eles forem independentes e n˜ao normais. O resultado geral ´e:

Teorema: Suponha que Y t = r=0 c r tr seja um processo linear, com { t } tendo m´edia 0 e variˆancia comum σ 2 . Suponha que o processo seja estacion´ario com densidade espectral,

f(ω) =

2

σ

2π |C(e iω | 2 .

(C(z) =

r=0

c r z r .)

Ent˜ao, as ordenadas do periodograma {I T (ω j ), 1 j < T/2}, s˜ao aproximadamente independentes e exponencialmente distribu´ıdas, com m´edias {f (ω j ), 1 j < T/2}. Prova Heur´ıstica: Escrevendo

1

2πT

T

t=1

Y t e iωt

=

=

=

1

2πT

1

2πT

1

2πT

T

c r tr e iωt

t=1 r=0

c r e iωr

r=1

c r e iωr

T

T

r=1

tr e (tr)

u e iωu .

t=1

u=1r

Para T grande e r fixo, a aproxima¸c˜ao ´e v´alida,

T

Tr

t=1 u=1r

u e iωu

T

u=1

e iωu ,

(3.1)

 

´

˜

18

CAP ITULO 3.

REGRESS AO COM COMPONENTES SENODAIS

por que, essencialmente n´os estamos somando ou removendo um total de r termos e esses s˜ao neglicenci´aveis comparado com o comprimento total da soma T . Se aceitarmos a aproxima¸c˜ao (3.1), ent˜ao temos

1

2πT

T

t=1

Y t e iωt C(e iω )

1

2πT

T

t=1

t e iωt ,

e, tomando o quadrado do m´odulo de ambos os lados,

I T,Y (ω) ∼ |C(e iω )| 2 I T, (ω),

(3.2)

com I T,Y e I Y, sendo os periodogramas dos processos Y e respectivamente. Combinado os resultados () e (3.2), temos que as ordenadas do periodograma de Y , avaliadas nas frequˆencias de F ourier, s˜ao aproximadamente independentes. Entretanto,

E{I T,Y (ω j )} ≈ |C(e iω j )| 2 E{I T, (ω j )} = f(ω j ).

o que completa a prova. [a prova completa, dispon´ıvel em livros avan¸cados, sup˜oe que |c r | < , com esta restri¸c˜ao, podemos provar que a diferen¸ca entre os dois lados de 3.2, converge em probabilidade, uniformemente sobre todo ω, quando T → ∞. ] Este teorema ´e fundamental na teoria de estima¸c˜ao espectral.

3.2

Alisamento

A ideia ´e fazer uma m´edia ponderada das ordenadas de frequˆencias vizinhas, com o intuito

de reduzir a variˆancia associada com os valores individuais do periodograma. Entretanto, esta opera¸c˜ao introduz v´ıcios no procedimento de estima¸c˜ao. Estudos te´oricos focam o quanto podemos alisar, tendo em mente o v´ıcio e a variˆancia.

A forma principal do estimador de alisamento ´e:

π

f(λ) =

ˆ

π

1 K λ ω

h

h

I T (ω)dω,

(3.3)

onde I T (.) ´e o periodograma baseado em T observa¸c˜oes, K(.) ´e a fun¸c˜ao kernel e h

´e a largura da banda. Usualmente tomamos K(.) como fun¸c˜ao n˜ao negativa, sim´etrica

em torno de 0, e integrando 1. Da´ı, qualquer densidade sim´etrica, como a normal, ser˜ao usadas na pr´atica, com amplitude finita, como o Epanechnikov kernel

K(x) =

4 5 1 t 2

3

5

,

5 t 5,

que assumir´a valor 0 para valores fora do intervalo [ 5, 5]. A escolha da fun¸c˜ao kernel com propriedades ´otimas, ´e vista com menor importˆancia do que a escolha da largura da banda h, que efetivamente controlaa varia¸c˜ao sobre o qual o periodograma ´e alisado. A seguinte discuss˜ao mostra como a largura de banda ´e escolhida teoricamente. Considere primeiro o v´ıcio do estimador (3.3). Escrevendo,

3.2.

ALISAMENTO

19

ˆ

E{ f(λ)}

=

=

π

π

1 K λ ω

h

h

f (ω)

K(x)f (λ + hx)dx

K(x) f (λ) + hxf (λ) + h 2 λ 2 f (λ) + o h 2 dx

2

f(λ) + h 2 f x 2 K(x)dx + o

2

h 2 .

Onde a segunda linha segue da substitui¸c˜ao ω = λ + hx e a troca de limites de (π, π) para (−∞, ) segue do fato que, para pequeno h tal transforma¸c˜ao ocorre assintotica- mente para λ como um ponto no interior do intervalo (π, π). A subsequente expans˜ao obviamente assume que f seja, pelo menos, duas vezes diferenci´avel, a partir daqui nos assumeremos esta suposi¸c˜ao explicita. O resultado final justifica a aproxima¸c˜ao

V´ıcio em f(λ) h 2 f (λ) x 2 K(x)dx,

ˆ

2

(3.4)

v´alida assintoticamente com T → ∞ e h 0. Para examinar a variˆancia de (3.3), notamos, na pr´atica que, (3.3) ser´a avaliada via soma de Riemann,

ˆ

f(λ) =

j

ω

ω

j

j1

1 K λ ω

h

h

I T (ω)2π

T

j

1 K λ ω j

h

h

I T (ω j ),

onde ω j = 2πj/T ´e a j a frequˆencia de F ourier. Desde que I T (ω j ) s˜ao assintoticamente independentes,

Var f(λ)

ˆ

4π

2

2

T

j

1 2 K 2 λ ω j

h

h

f 2 (ω j )

2π

hT

h

1 K 2 λ ω

h

f 2 (ω)

hT 2π K 2 (x) f 2 (λ + hx)dx

hT 2π f 2 (λ) K 2 (x) dx

Ent˜ao (3.4) e (3.5) juntos, indicam a aproxima¸c˜ao do v´ıcio e da variˆancia de Que ser´a,

V´ıcio A 2 ,

h

Variˆancia B

hT ,

(3.5)

ˆ

f (λ).

onde A e B s˜ao constantes (dependendo de f e K, mas n˜ao de T ou h). Da´ı o erro quadr´atico m´edio (= V icio 2 +V ariancia) ´e aproximadamente,

A 2 h 4 +

B

hT

20

´

CAP ITULO 3.

que ´e minimizado por,

˜

REGRESS AO COM COMPONENTES SENODAIS