Escolar Documentos
Profissional Documentos
Cultura Documentos
ITULO 1. INTRODUC
AO
0 50 100 150
2
0
0
4
0
0
6
0
0
8
0
0
1
0
0
0
1
2
0
0
Figura 1.2: Examplo 2: Temperatura Mensal
0 20 40 60 80 100
3
.
0
e
+
0
7
3
.
5
e
+
0
7
4
.
0
e
+
0
7
4
.
5
e
+
0
7
5
.
0
e
+
0
7
5
.
5
e
+
0
7
Figura 1.3: Examplo 3: ECG
1.2. OBJETIVOS 5
Exemplo 3. Eletrocardiograma de uma pessoa, durante o dia todo.
Exemplo 4. Nvel do Rio Greg orio, durante 15 meses.
0 200 400 600 800 1000
1
5
0
1
0
0
5
0
0
5
0
1
0
0
Figura 1.4: Examplo 4:Rio Greg orio
Se tomarmos a decis ao de observar sempre em uma determinada hora, ou local, poder-
emos ter os valores diferentes, ou ainda, se acontecer algo, externo, que possa alterar a
serie teremos trajetorias diferentes da serie.
Para cada t xo, teremos uma vari avel aleat oria Z
t
, com, obviamente, uma fun cao de
distribuic ao de probabilidade.
Serie temporal e o nome dado a uma particular trajet oria. Como para cada valor de t
temos uma vari avel aleatoria, sobre um mesmo espaco amostral, pois a caracterstica que
estamos observando e a mesma, assim, uma serie temporal e tambem uma realizac ao de
um processo estoc astico.
1.2 Objetivos
Dada uma serie temporal {Z
t
1
, Z
t
2
, . . . , Z
t
N
}, observada nos instantes t
1
, t
2
, . . . , t
N
, o in-
teresse pode ser o de prever o pr oximo valor da serie ou valores mais adiante, porem o
interesse pode ser de investigar o mecanismo gerador da serie, descrever o comportamento
da serie ou ainda procurar periodicidades relevantes nos dados. Para atingir qualquer um
desses objetivos, devemos construir modelos probabilsticos, tanto no domnio do tempo
como no domnnio da frequencia. Devemos ter em mente a parcimonia, i.e., construir
modelos com o menor n umero de parametros possvel.
6 CAP
ITULO 1. INTRODUC
AO
Captulo 2
Processos Estacionarios
2.1 Denic oes
Suponha um processo {X
t
, t = 0, 1, 2, . . .}.
Para especicarmos um processo estoc astico e necessario conhecermos as fun coes de den-
sidade de probabilidade de todas as vari aveis aleat orias, bem como todas as densidades
conjuntas. Uma restric ao que se faz necess aria para a an alise de series temporais e a
estacionariedade.
Existem duas deni coes de estacionariedade largamente usadas.
Estacionariedade Estrita ou Forte e dita se, para qualquer inteiro positivo k, e k pontos
de tempo t
1
, t
2
, . . . , t
k
e qualquer inteiro h (lag), temos que os vetores:
(X
t
1
, X
t
2
, . . . , X
t
k
)
e
(X
t
1
+h
, X
t
2
+h
, . . . , X
t
k
+h
)
tem a mesma func ao de distribui cao de probabilidade conjunta.
Estacionariedade Fraca ou no sentido amplo ou de segunda ordem e dita se todas as
vari ancias do processo s ao nitas e temos,
IE(X
t
) = ,
Cov(X
t
, X
t+h
) =
h
,
as quantidades e
h
s ao independentes de t.
Como as variancias s ao nitas, e claro que um processo estritamente estacion ario sera
fracamente estacionarios. Entretanto, a volta n ao e necessariamente verdadeira.
E f acil
construir exemplos de vari aveis aleat orias, as quais possuem os dois primeiros momentos
iguais e os demais nao.
Se o processo for Normal, os dois conceitos s ao equivalentes. Um processo {X
t
, t =
0, 1, 2, . . .} e dito ser linear se pudermos reescreve-lo na forma
X
t
= +
r=
c
r
tr
onde e uma media comum, {c
r
} e uma sequencia de constantes xas e {
t
} s ao variaveis
aleat orias independentes com media 0 e vari ancia comum. Assumimos que
c
2
r
< para
7
8 CAP
ARIOS
assegurar que as vari ancias individuais X
t
sejam nitas. Tal processo e necessariamente
estritamente estacion ario, se c
r
= 0 para todo r < 0, e tambem e dito ser causal (i.e. no
caso de processo no tempo t n ao depender do futuro dos valores ainda n ao observados de
t
).
Um processo gaussiano necessariamente tem uma representac ao como um processo linear
com {
t
} normais, mas, podemos tambem considerar processo lineares nao-normais. As
classes AR, MA e ARMA s ao todos casos especiais dos processos lineares causais.
2.2 Autocovariancia, Autocorrelacao e Representacao
Espectral
Para processos fracamente estacionarios de media 0, a funcao de autocorrelacao e dada
por
k
= IE{X
t
X
t+k
}.
Isto segue da denic ao de estacionariedade fraca que n ao depende de t. Tambem, observe
que
k
=
k
para todo k.
A funcao de autocorrelac ao (fac) e
k
=
k
0
, k = 0, 1, 2, . . .
Para qualquer sequencia de autocovariancias {
k
} geradas por um processo esta-
cion ario, existe uma func ao F tal que:
k
=
_
(,]
e
ik
dF() (2.1)
onde F e uma unica func ao sobre [, ] satisfazendo
(i) F() = 0
(ii) F e func ao nao decrescente e contnua ` a direita
(iii) F tem incrementos simetricos em torno de 0, signicando que, para qualquer 0
a < b
temos,
F(b) F(a) = F(a) F(b)
Ent ao F e chamada de func ao de distribuicao espectral, pois possui muitas das pro-
priedades da fun cao de distribuicao de probabilidade exceto que F() = 1. Note que, a
integral (2.1) e uma integral de Stieltjes reetindo o fato que F pode ter descontinuidade.
Entretanto, se F e contnua e diferenciavel em toda parte, com f() = dF()/d,
ent ao f e chamada de funcao de densidade espectral e (2.1) pode ser simplicada por:
k
=
_
e
ik
f()d.
2.2. AUTOCOVARI
ANCIA, AUTOCORRELAC
AOE REPRESENTAC
AOESPECTRAL9
Se
|
k
| < , ent ao pode ser mostrado que f sempre existe e e dado por:
f() =
1
2
k=
k
e
ik
=
0
2
+
1
k=1
k
cos(k). (2.2)
A interpretacao de F, para 0
1
<
2
, F(
2
) F(
1
) mede a contribuic ao da
variabilidade total do processo na variacao de frequencia
1
<
2
.
2.2.1 Exemplos:
1. Rudo Branco:
Suponha que
0
=
2
> 0 mas,
k
= 0 para todo k = 0.
Neste caso, temos que
f() =
2
2
para todo
que e independe de . A volta vale, i.e., um processo e rudo branco se e somente se sua
func ao espectral e constante.
2. Considere o processo
X
t
= cos(t + U)
onde U e uma vari avel aleat oria uniformemente distribuda sobre (, ) e 0 .
Podemos calcular
IE(X
t
) =
1
2
_
cos(t + u)du = 0,
IE(X
t
X
t+k
) =
1
2
_
k
=
cos(k)
2
=
_
(,]
cos(k)dF()
Uma possvel F e uma com salto de tamanho 1/4 em , i.e.
F() =
_
_
0 se < ,
1
4
se < ,
1
2
se < .
Pela unicidade de F, esta e a func ao de densidade espectral para este caso. Ent ao,
a func ao de densidade espectral tem descontinuidade em , e e plana em outra parte,
10 CAP
ARIOS
correspondendo a uma unica senoide, e a serie e totalmente conhecida com uma unica
observacao. Observe que
k
= , neste caso.
Podemos estender este caso, onde F e plana, exceto para 2k pontos de descontinuidade
1
,
2
, . . . ,
k
. Isto e correspondente a um processo da forma:
X
t
=
k
j=1
a
j
cos(
j
t + U
j
) (2.3)
para constantes a
1
, . . . , a
k
com U
1
, . . . , U
k
s ao vari aveis aleatorias independentes e
uniformemente distribudas sobre (, ).
A restricao 0 no exemplo anterior nao e, de fato limitante, pela seguite raz ao.
Suponha que tenhamos um processo X
t
= cos(t + U) para qualquer . Se escrevermos
= N + para algum inteiro N, [0, ) e consideremos N par, temos cos(t +U) =
cos(t + U) para algum inteiro t, ent ao as frequencias e s ao indistinguveis, ou
podemos usar a terminologia convencional aliases. Se N e mpar, ent ao cos(t + U) =
cos(tt+U) = cos(ttU). Mas, U tem a mesma distribui cao que U, entao, neste
caso, a frequencia e alias para . Da, qualquer frequencia e aliased a alguma
frequencia no intervalo (0, ]. O limite superior corresponde a um ciclo do perodo 2 e
e a frequencia mais alta que podemos detectar com amostras de perodo completo, isto e
tambem chamado de frequencia Nyquist.
3. O processo AR(1)
X
t
=
1
X
t1
+
t
, (2.4)
em que {
t
} e uma sequencia de vari aveis nao correlacionadas, com media 0 e vari ancia
comum
2
, satisfazendo a relac ao
V ar{X
t
} =
2
1
V ar{X
t1
} +
2
2
X
=
1
1
2
1
. (2.5)
Note que, para (2.5) fazer sentido, devemos ter |
1
| < 1. Esta e a condic ao de esta-
cionariedade para um processo AR(1), sem esta condic ao o processo tende a crescer in-
denidamente.
Para o modelo (2.4), satisfazendo a condi cao |
1
| < 1 e, para k > 0, temos
k
= IE{X
t
X
tk
}
=
1
IE{X
t1
X
tk
+ IE{
t
X
tk
}
=
1
k1
.
Como temos
k
=
k
, deduzimos:
k
=
|k|
1
0
, < k < . (2.6)
Diretamente, substituindo em (2.2), temos:
f() =
0
(1
2
1
)
(1 2
1
cos +
2
1
)
=
2
(1 2
1
cos +
2
1
)
. (2.7)
2.2. AUTOCOVARI
ANCIA, AUTOCORRELAC
AOE REPRESENTAC
AOESPECTRAL11
0.0 0.2 0.4 0.6 0.8 1.0
0
.
5
1
.
0
1
.
5
2
.
0
(a)
f
(
l
a
m
b
d
a
)
0.0 0.2 0.4 0.6 0.8 1.0
0
.
5
1
.
0
1
.
5
2
.
0
(b)
f
(
l
a
m
b
d
a
)
Figura 2.1: Densidade Espectral de um AR(1), (a)
1
= 0, 6 e (b)
1
= 0.6
A Figura (2.2.1) mostra f() para = 0, 6. Se
1
> 0, a potencia e concentrada
em frequencias baixas, i.e., correspondente a utuac ao suave. Para
1
< 0, a potencia e
concetrada em frequencias altas, o que reete o fato que o processo tende a oscilar. 3. O
processo AR(2)
X
t
=
2
X
t2
+
1
X
t1
+
t
, (2.8)
em que {
t
} e uma sequencia de vari aveis n ao correlacionadas, com media 0 e vari ancia
comum
2
, satisfazendo a relac ao
V ar{X
t
} =
2
2
V ar{X
t2
}
2
1
V ar{X
t1
} +
2
2
X
=
1
1
2
2
2
1
. (2.9)
Note que, para (2.9) fazer sentido, devemos ter as razes de
2
X
2
+
1
X + 1 fora do
crculo unitario. Esta e a condic ao de estacionariedade para um processo AR(2), sem esta
condic ao o processo tende a crescer indenidamente.
Para o modelo (2.8), satisfazendo a condi cao
2
X
2
+
1
X + 1 e, para k > 0, temos
k
= IE{X
t
X
tk
}
= IE{(
2
X
t2
+
1
X
t1
+
t
)X
tk
}
=
2
IE{X
t2
X
tk
+
1
IE{X
t1
X
tk
+ IE{
t
X
tk
}
=
2
k2
+
1
k1
.
12 CAP
ARIOS
Como temos
k
=
k
, deduzimos:
k
=
|k|
1
0
, < k < . (2.10)
Diretamente, substituindo em (2.2), temos:
f() =
0
(1
2
1
)
(1 2
1
cos +
2
1
)
=
2
(1 2
1
cos +
2
1
)
. (2.11)
2.3 Decomposicao de Wold
Em geral, e possvel escrever a funcao de densidade espectral F na forma,
F = F
1
+ F
2
(2.12)
onde F
1
e absolutamente contnua e F
2
e func ao de distribuic ao espctral puramente de-
scontinua. Correspondendo a decomposic ao do processo.
X
t
= U
t
+ V
t
em processos U e V nos quais U tem func ao de densidade espectral F
1
e V tem func ao
densidade espectral F
2
.
Como foi visto em (2.3), uma func ao de densidade espectral puramente descontnua
com nitos pontos de descontinuidade corresponde a uma mistura de senoides, cujo pro-
cesso e deterministico e previsvel. O resultado geral e dado por:
Teorema: Suponha que F = F
1
+ F
2
como em (2.12), supomos,
_
log F
1
()d > . (2.13)
Ent ao a decomposic ao de X em processos n ao correlacionados U e V como em (2.13)
existe, e temos:
(i) U
t
=
r=0
c
r
tr
com {
r
} vari aveis aleatorias nao correlacionadas com media 0 e
vari ancia comum, sem perda de generalidade, tomemos c
0
= 1, temos tambem a
suposic ao que
c
2
r
< ,
(ii) V
t
e processo deterministico, i.e. se conhecemos V
s
para todo s < t ent ao podemos
prever V
t
perfeitamente.
A soma (i) e denida no sentido de media quadrada, i.e.,
lim
R
IE
_
_
_
_
U
t
r=0
c
r
tr
_
2
_
_
_
= 0 (2.14)
2.3.1 Nao Negatividade
Uma pergunta natural e: Sob quais condic oes, uma sequencia arbitr aria {
k
, k 0} e
func ao de covari ancia de algum processo estacion ario?
E f acil vericar que devemos colocar algumas restri coes, se for uma sequencia nita
de constantes {c
1
, c
2
, . . . , c
T
}, teremos:
2.3. DECOMPOSIC
AO DE WOLD 13
0 V ar
_
T
t=1
c
t
X
t
_
=
T
s=1
T
t=1
c
s
c
t
Cov (X
s
, X
t
) (2.15)
=
T
s=1
T
t=1
c
s
c
t
|ts|
.
Se (2.15) vale para toda sequencia {c
1
, . . . , c
T
} ent ao dizemos que {
k
} e nao-negativa
denida. Se a ultima expressao e estritamente positiva, exceto se c
1
= . . . = c
T
= 0,
ent ao e dita positiva denida. A denic ao de nao-negativadade denida e uma condic ao
necess aria e suciente para {
k
} ser uma func ao de autocovariancia para algum processo
estacion ario. (Este resultado e conhecido como Teorema de Bochner).
Como podemos vericar a condic ao de n ao-negativa denida de uma dada sequencia
{
k
}? Uma condic ao suciente (e de fato, necessaria) e que a fun cao de densidade espectral
denida por (2.2) deve ser n ao-negativa para todo . Sob esta condicao temos:
t
c
s
c
t
|s t| =
t
c
s
c
t
_
e
i(st)
f()d
=
_
t
c
s
c
t
e
i(st)
_
f()d
=
_
t
c
t
e
it
2
f()d
0.
Da, um metodo geral, e construir fun coes de autocovari ancias que sejam um trans-
formac ao nao-negativa arbitraria de f.
2.3.2 Estimando autocovariancias e densidades espectrais
Apresentamos autocovariancias e densidades espectrais apenas na forma teorica e nao
indicamos como estima-las a partir dos dados.
E o que faremos aqui e, discutiremos um
conceito relacionado, funcao de autocorrelacao parcial.
Suponha que tenhamos a serie {X
1
, X
2
, . . . , X
T
}. A forma usual de estimar
k
para
k > 0 e dada por
k
=
1
T
Tk
t=1
_
X
t
X
_ _
X
tk
X
_
(2.16)
onde
X e a media amostral.
X =
1
T
T
t=1
X
t
Podemos estimar as autocorrelac oes
k
=
k
/
0
, por
r
k
=
k
0
Em (2.16), o natural seria dividir por T k e n ao por T, uma vez que a soma tem
T k termos, mas, usualmente n ao fazemos isto, por duas razoes: (a) usando a denic ao
14 CAP
ARIOS
(2.16) vemos que a autocovari ancia amostral ser a sempre n ao-negativa denida e, com esta
propriedade temos que (b) a estimativa r
k
em (2.17) frequentemente tem erro quadr atico
medio menor se for denida desta maneira, ent ao pode ser uma alternativa dividir por T
e nao por T k.
A func ao de autocorrela cao parcial de lag k e baseada na regressao de X
t
sobre
X
tk
, . . . , X
t1
. Formalmente, e baseada no modelo
X
t
=
p
j=1
a
j,k
X
tj
+
t
, t > k,
com
t
independente de X
tk
, . . . , X
t1
. As estimativas de mnimos quadrados de
{a
j,k
, j = 1, . . . , k} s ao obtidas pela minimizacao de
2
k
=
1
T
T
t=k+1
_
_
X
t
j=1
a
j,k
X
tj
_
_
2
. (2.17)
que e, equivalente a resolver as equacoes
l
=
k
j=1
a
j,k
|j l|, 1 l k,
e, calculando a media da soma de quadrados, pela substituicao em (2.17). Na pratica,
esses coecientes s ao calculados recursivamente, atraves da recurs ao de Levinson-Durbin:
a
k,k
=
k
k1
j=1
a
j,k1
jk
2
k1
,
a
j,k
= a
j,k1
a
k,k
a
kj,k1
, 1 j k 1,
2
k
=
2
k1
(1 a
2
k,k
). (2.18)
Uma medida obvia de quanto a regressao de ordem k aumenta sobre a regress ao de ordem
k1 e retirar do erro quadr atico medio, e (2.18) mostra que e determinado pelo coeciente
a
k,k
. Da, denominamos a
k,k
, como o coeciente de autocorrelacao parcial. A estimativa
para os coecientes populacionais sao calculados, substituindo,
k
por
k
.
Se o processo for Gaussiano, h a uma interpretac ao alternativa, a
k,k
e a correlac ao
condicional de X
t
e X
tk
dado os valores intermediarios X
tk+1
, . . . , X
t1
.
Para densidades espectrais, a estimativa mais simples e dada pelo periodograma
I
T
() =
1
2T
t=1
X
t
e
it
2
. (2.19)
Captulo 3
Regressao com componentes
senodais
A forma mais simples de an alise espectral consiste em uma regressao sobre componentes
periodicas:
Y
t
= Acos t + Bsin t + C +
t
, 1 t T,
no qual {
t
}, para 1 t T, s ao nao correlacionados com media 0 e vari ancia comum
2
. Assumimos que 0 .
Reescrevendo este modelo na notac ao padrao matricial, temos:
Y = X +
em que, Y = (Y
1
, Y
2
, Y
3
, . . . , Y
T
)
e o
vetor de erros, = (A B C)
C
_
_
_
_
= (X
X)
1
X
Y = (X
X)
1
_
_
_
Y
t
cos t
Y
t
sin t
Y
t
_
_
_,
estes estimadores sao nao viesados e a matriz de covari ancia e dada pela f ormula usual
(X
X)
1
2
. Se, {
t
}, para 1 t T s ao normais independentes, ent ao as estimativas
s ao tambem independentes e normalmente distribudos.
Essas f ormulas cam na forma mais simples se e uma das frequencias de Fourier,
denidas por
j
= 2j/T para algum inteiro j entre 0 e T/2. Lembramos as identidades
trigonometricas:
T
t=1
cos
j
t =
T
t=1
sin
j
t = 0(j = 0),
15
16 CAP
ITULO 3. REGRESS
t=1
cos
j
t cos
k
t =
_
_
T
2
quando j = k
_
= 0 ou
T
2
_
,
T quando j = k = 0 ou
T
2
,
0 quando j = k,
T
t=1
sin
j
t sin
k
t =
_
T
2
quando j = k
_
= 0 ou
T
2
_
,
0 caso contrario,
T
t=1
cos
j
t sin
k
t = 0 para todo j, k.
Por simplicidade, n ao consideraremos os casos j = 0, j = T/2, os quais produzem f ormulas
um pouco diferentes, mas, similares. Para todas outras frequencias de Fourier
j
, temos:
X
X =
_
_
_
T
2
0 0
0
T
2
0
0 0
T
2
_
_
_.
Da, temos:
A =
2
T
Y
t
cos
j
t,
B =
2
T
Y
t
sin
j
t,
C =
Y =
1
T
Y
t
,
e estes estimadores s ao n ao correlacionados com vari ancias 2
2
/T, 2
2
/T e
2
/T, respec-
tivamente.
Uma maneira de testar a signic ancia da componente senoidal com frequencia
j
e
ver a reducao na Soma de Quadrados dos Resduos da regressao acima,
R
T
(
j
) =
T
2
_
A
2
+
B
2
_
.
Se os {
t
} s ao Normais i.i.d., entao, segue que
A e
B s ao tambem independentes
normais, cada um com vari ancia 2
2
/T, sob a hip otese nula A = B = 0, temos que
R
T
(
j
)
2
2
2
,
ou equivalentemente, R
T
(
j
)/(2
2
) tem distribui cao exponencial com media 1.
A teoria acima e facilmente estendida para estimacao simultanea de muitas compo-
nentes peri odias. Em particular, se considerarmos a estimac ao de k frequencias de Fourier
j
1
, . . . ,
j
k
as colunas correspondentes da matriz X s ao ortogonais. Isto signica que as
estimativas pontuais dos coecientes s ao as mesmas quando as k componentes s ao esti-
madas simultanemente como quando elas sao estimadas uma-a-uma, e tambem que as
estimativas dos paramentros, e da da estatstica R
T
, sao nao correlacionadas.
Sob a hip otese nula que todos os coecientes A e B s ao 0, temos o seguinte resultado():
3.1. O PERIODOGRAMA 17
Os testes para as k estatsticas normalizadas R
T
(
j
1
)/(2
2
), . . . , R
T
(
j
k
)/(2
2
) sao
variaveis aleatorias, independentes exponencialmente distribudas com media 1.
Este resultado e exato para todos T se os {
t
} s ao normais independentes. Este
resultado e aproximadamente valido para T grande se {
t
} s ao n ao-normais independentes.
Isto, porque o Teorema do Limite Central garante que as estimativas dos parametros sao
aproximadamente normais independentes para T grande.
3.1 O periodograma
O periodograma foi denido em (2.19), onde foi colocado (sem prova) que e um estimador
n ao viesado da densidade espectral f. Aqui vamos apresentar um prova informal disto, e
encontrar as propriedades estatsticas dele.
Em termos da estatstica R
T
(), denida anteriormente, o periodograma e:
I
T
=
R
T
()
4
.
Pela propriedade (), se o processo for rudo branco, ent ao R
T
(
j
) para frequencias de
Fourier {
j
, 1 j T/2} s ao independentes exponencialmente distribudas com media
comum
2
/(2) = f(
j
). Este resultado e exato se {
j
} forem normais independentes, e
aproximado para T grande, se eles forem independentes e n ao normais.
O resultado geral e:
Teorema: Suponha que Y
t
=
r=0
c
r
tr
seja um processo linear, com {
t
} tendo
media 0 e vari ancia comum
2
. Suponha que o processo seja estacion ario com densidade
espectral,
f() =
2
2
|C(e
i
|
2
. (C(z) =
r=0
c
r
z
r
.)
Ent ao, as ordenadas do periodograma {I
T
(
j
), 1 j < T/2}, s ao aproximadamente
independentes e exponencialmente distribudas, com medias {f(
j
), 1 j < T/2}.
Prova Heurstica: Escrevendo
1
2T
T
t=1
Y
t
e
it
=
1
2T
T
t=1
r=0
c
r
tr
e
it
=
1
2T
r=1
c
r
e
ir
T
t=1
tr
e
i(tr)
=
1
2T
r=1
c
r
e
ir
T
u=1r
u
e
iu
.
Para T grande e r xo, a aproximac ao e v alida,
T
t=1
Tr
u=1r
u
e
iu
u=1
e
iu
, (3.1)
18 CAP
ITULO 3. REGRESS
2T
T
t=1
Y
t
e
it
C(e
i
)
1
2T
T
t=1
t
e
it
,
e, tomando o quadrado do modulo de ambos os lados,
I
T,Y
() |C(e
i
)|
2
I
T,
(), (3.2)
com I
T,Y
e I
Y,
sendo os periodogramas dos processos Y e respectivamente.
Combinado os resultados () e (3.2), temos que as ordenadas do periodograma de Y ,
avaliadas nas frequencias de Fourier, sao aproximadamente independentes. Entretanto,
E{I
T,Y
(
j
)} |C(e
i
j
)|
2
E{I
T,
(
j
)} = f(
j
).
o que completa a prova. [a prova completa, disponvel em livros avancados, supoe que
|c
r
| < , com esta restric ao, podemos provar que a diferenca entre os dois lados de
3.2, converge em probabilidade, uniformemente sobre todo , quando T . ]
Este teorema e fundamental na teoria de estimac ao espectral.
3.2 Alisamento
A ideia e fazer uma media ponderada das ordenadas de frequencias vizinhas, com o intuito
de reduzir a vari ancia associada com os valores individuais do periodograma. Entretanto,
esta operac ao introduz vcios no procedimento de estimac ao. Estudos teoricos focam o
quanto podemos alisar, tendo em mente o vcio e a vari ancia.
A forma principal do estimador de alisamento e:
f() =
_
1
h
K
_
h
_
I
T
()d, (3.3)
onde I
T
(.) e o periodograma baseado em T observacoes, K(.) e a funcao kernel e h
e a largura da banda. Usualmente tomamos K(.) como fun cao nao negativa, simetrica
em torno de 0, e integrando 1. Da, qualquer densidade simetrica, como a normal, serao
usadas na pr atica, com amplitude nita, como o Epanechnikov kernel
K(x) =
3
4
5
_
1
t
2
5
_
,
5 t
5,
que assumira valor 0 para valores fora do intervalo [
5,
f()}
_
1
h
K
_
h
_
f()d
K(x)f( + hx)dx
=
_
K(x)
_
f() + hxf
() +
h
2
2
2
f
() + o
_
h
2
_
_
dx
= f() +
h
2
f
2
_
x
2
K(x)dx + o
_
h
2
_
.
Onde a segunda linha segue da substituic ao = + hx e a troca de limites de (, )
para (, ) segue do fato que, para pequeno h tal transformacao ocorre assintotica-
mente para como um ponto no interior do intervalo (, ). A subsequente expansao
obviamente assume que f seja, pelo menos, duas vezes diferenci avel, a partir daqui nos
assumeremos esta suposic ao explicita. O resultado nal justica a aproximacao
Vcio em
f()
h
2
2
f
()
_
x
2
K(x)dx, (3.4)
v alida assintoticamente com T e h 0.
Para examinar a variancia de (3.3), notamos, na pr atica que, (3.3) sera avaliada via
soma de Riemann,
f() =
j
_
j
j1
1
h
K
_
h
_
I
T
()d
2
T
j
1
h
K
_
j
h
_
I
T
(
j
),
onde
j
= 2j/T e a j
a
frequencia de Fourier. Desde que I
T
(
j
) s ao assintoticamente
independentes,
Var
_
f()
_
4
2
T
2
j
1
h
2
K
2
_
j
h
_
f
2
(
j
)
2
hT
_
1
h
K
2
_
h
_
f
2
() (3.5)
2
hT
_
K
2
(x) f
2
( + hx)dx
2
hT
f
2
()
_
K
2
(x) dx
Ent ao (3.4) e (3.5) juntos, indicam a aproximac ao do vcio e da variancia de
f().
Que sera,
Vcio
A
h
2
, Variancia
B
hT
,
onde A e B s ao constantes (dependendo de f e K, mas n ao de T ou h). Da o erro
quadr atico medio (= V icio
2
+V ariancia) e aproximadamente,
A
2
h
4
+
B
hT
20 CAP
ITULO 3. REGRESS
x
t
e
it
=
1
T
T
t=1
e
i()t
.
Para avaliar isto, fazemos:
1
T
T
t=1
e
iyt
=
1
T
e
iy
.
e
iTy
1
e
iy
1
=
1
T
e
i(T+1)y/2
.
e
iTy/2
e
iTy/2
e
iy/2
e
iy/2
= e
i(T+1)y/2
.
1
T
sin(Ty/2)
sin(y/2)
= e
i(T+1)y/2
.D
T
(y),
onde D
T
(.) e uma func ao conhecida como Kernel de Dirichlet. Temos que D
T
(0) = 1,
D
T
(y) = 0 quando y = 2t/T, para algum inteiro k, mas, existem sidelobesao lado do
pico principal. Essas propriedades entram no periodograma, por conta do caso x
t
= e
it
,
temos
I
T
() |D
T
( )|
2
.
3.3. TAPERING 21
Se e uma frequencia de Fourier, e se I
T
e avaliado apenas nas frequencias de
Fourier {
j
}, entao nao h a problema, mas, para frequencias , nao Fourier, esses side
lobespodem representar uma distorc ao signicante no espectro.
A solu cao para os problemas de side lobes e tapering. Suponha que renemos x
t
em:
x
t
=
x
t
2
_
1 cos
_
2(t 1/2)
T
__
(3.8)
=
1
2
e
it
1
4
e
it+2i(t1/2)/T
1
4
e
it2i(t1/2)/T
,
Ent ao, vemos que, m odulo constante 2, a func ao D
t
(y) e repassada pela forma modi-
cada do kerneldeDirechlet,
D
T
(y) = D
T
(y) +
1
2
D
T
_
y +
2
T
_
+
1
2
D
T
_
y
2
T
_
A operac ao que torna x
t
em x
t
e chamada de tapering. Em uma linguagem menos
formal, a ideia por tras e reduzir os efeitos nais associados com a forma da transformada
nita de Fourier. Uma forma mais geral do taper e denir x
t
= x
t
h
t
, onde:
h
t
=
_
_
1
2
_
1 cos
_
(t1/2)
m
__
1 t m,
1 m + 1 t T m
1
2
_
1 cos
_
(Tt+1/2)
m
__
T m + 1 t T,
que e chamado de 100p% cosseno taper onde, usualmente p = 2m/T. (Observe ,
entretanto que S-plus parte da convenc ao pela denic ao p = m/T.) Ent ao a operacao
(3.8) e taper 100%, na pr atica e usual usar taper entre 10% e 20%. Para maiores detalhes,
ver Bloomeld () ou Percival e Walden().
3.3.1 Exemplos
A Figura (3.3.1) a seguir mostra a serie da quantidade de dioxido de carbono, avaliada
mensalmente, em Mauna Loa, Hava, de marco de 1958 ate fevereiro de 2011. Esta
serie e uma das mais longas para avaliar o efeito estufa, vemos uma tendencia positiva e
sazonalidade claramente.
Para estudar a natureza da tendencia, a Figura acima, mostra os resduos da serie
depois de ajustarmos um modelo linear, quadratico e c ubico. Em todos os tres casos
foi ajustado um modelo por mnimos quadrados ordinarios e nada foi feito para reti-
rar a sazonalidade. Os resduos da tendencia linear mostra uma curvatura, mas, n ao
h a evidencia de tendencia nos outros ajustes, assim, conclumos, por parcim onia que a
tendencia da serie e quadratica.
A Figura (3.3.1) mostra os espectros para os dados brutos. Foi usado o comando
spectrum do R. Usamos o spans = c(5, 5), spans = c(13, 13) e spans = c(21, 21) que
corresponde a aumentar o alisamento, sempre com escala em decibel.
Na Figura (3.3.1) foram refeitos os espectros para a serie sem tendencia quadr atica.
22 CAP
ITULO 3. REGRESS
5
0
5
(c)
0 100 200 300 400 500 600
2
0
2
4
(d)
0 100 200 300 400 500 600
2
0
2
4
Figura 3.1: Exemplo 4: (a) Serie Original, (b) Serie sem Tendencia Linear, (c) Serie sem
Tendencia Quadr atica e (d) Serie sem Tendencia C ubica
0.0 0.1 0.2 0.3 0.4 0.5
3
0
1
0
0
1
0
2
0
3
0
(a)
S
p
e
c
t
r
o
0.0 0.1 0.2 0.3 0.4 0.5
2
0
1
0
0
1
0
2
0
(b)
S
p
e
c
t
r
o
0.0 0.1 0.2 0.3 0.4 0.5
2
0
1
0
0
1
0
2
0
(c)
S
p
e
c
t
r
o
0.0 0.1 0.2 0.3 0.4 0.5
2
0
1
0
0
1
0
2
0
(d)
S
p
e
c
t
r
o
Figura 3.2: Exemplo 4: (a) Sem alisamente, (b) Banda=5, (c) Banda=13 e (d) Banda=21
3.4. TESTES PARA ORDENADAS DO PERIODOGRAMA 23
0.0 0.1 0.2 0.3 0.4 0.5
3
0
1
0
0
1
0
2
0
3
0
(a)
S
p
e
c
t
r
o
0.0 0.1 0.2 0.3 0.4 0.5
2
0
1
0
0
1
0
2
0
(b)
S
p
e
c
t
r
o
0.0 0.1 0.2 0.3 0.4 0.5
1
0
0
1
0
2
0
(c)
S
p
e
c
t
r
o
0.0 0.1 0.2 0.3 0.4 0.5
1
0
0
1
0
2
0
(d)
S
p
e
c
t
r
o
Figura 3.3: Exemplo 4: (a) Sem alisamente, (b) Banda=5, (c) Banda=13 e (d) Banda=21
A diferenca a se destacar nas Figuras (3.3.1) e (3.3.1) e que o pico na frequencia zero foi
removido, valores altos na densidade espectral em baixas frequencias indicam a presenca
de tendencia na serie.
Nas duas guras notamos picos nas frequencias 1/12, 1/6, 1/4 e 1/3. Estes s ao
harm onicas do ciclo anual e e espero em series. Muitas vezes, ao retirarmos a sazon-
alidade maior, de perodo 12, neste caso, as outras devem desaparecer.
Nesta ultima gura mostramos a serie em estudo diferenciada de ordem 12, para retirar
a sazonalidade anual, de ordem 12 meses.
3.4 Testes para Ordenadas do Periodograma
A nao existencia de componente periodica na serie e indicada por um periodograma sem
compomente com destaque. Isto e, esperamos que os valores do periodograma, para todas
as frequencias padr ao, sejam
p
=
2p
T
, com p = 0, 1, . . . , [T/2] sao os mesmos.
Um teste para a existencia de sazonalidade e, H
0
: A
i
= 0, para todo i. Se assumirmos
que {X
t
} s ao normais, as ordenadas I
P
_
I
T
_
2p
T
__
, p = 0, 1, . . . , [T/2] s ao independen-
temente distrbudos e cada um tem distribuic ao proporcional a
2
2
, isto e:
I
p
2
X
=
2
2
Mas, a distribuic ao
2
com dois graus de liberdade e equivalente a exponencial, da I
p
/
2
X
tem f.d.p.
24 CAP
ITULO 3. REGRESS
3
0
1
0
0
1
0
2
0
3
0
(a)
S
p
e
c
t
r
o
0.0 0.1 0.2 0.3 0.4 0.5
2
0
1
0
0
1
0
2
0
(b)
S
p
e
c
t
r
o
0.0 0.1 0.2 0.3 0.4 0.5
1
0
0
1
0
2
0
(c)
S
p
e
c
t
r
o
0.0 0.1 0.2 0.3 0.4 0.5
1
5
5
0
5
1
0
1
5
(d)
S
p
e
c
t
r
o
Figura 3.4: Exemplo 4: (a) Sem alisamente, (b) Banda=5, (c) Banda=13 e (d) Banda=21
f(x) =
1
2
exp
x
2
, 0 x < . (3.9)
Ent ao, para qualquer z( 0),
P
_
(I
p
/
2
X
z
_
=
_
z
0
1
2
exp
x
2
dx = 1 exp (z/2) . (3.10)
Seja
=
max
1p[T/2]
(I
p
)
2
X
. (3.11)
Sob H
0
, e o maximo de [T/2] termos i.i.d exponenciais, temos, a seguir, que:
P[ > z] = 1 P[ z]
= 1 P
__
I
p
2
X
_
z
_
p
= 1
_
1 exp
_
z
2
__
(3.12)
Se soubermos o valor de
2
X
podemos usar essa distribuicao para construir um teste
exato.
Sob a hip otese alternativa (nem todo A
i
= 0) ser a grande, usamos um teste
unilateral com regi ao crtica da forma { > z
0
} onde z
0
e escolhido de tal forma que RHS
seja igual a , o nvel de signicancia do teste.
3.4. TESTES PARA ORDENADAS DO PERIODOGRAMA 25
Na pr atica,
2
X
e desconhecido e devemos estim a-lo a partir dos dados. Desde que, sob
H
0
, IE[I
p
] = 2
2
X
, para todo p 1, temos:
IE
_
_
[T/2]
p=1
_
_
= 2
_
T
2
_
2
X
e
= 2
1
2[N/2]
e estimador nao viesado de
2
X
.
Podemos construir um teste para grandes amostras para max (I
p
) substituindo
2
X
por
em (3.11), resultando em:
g
=
max (I
p
)
_
1
2
[N/2]
_
[N/2]I
p
p=1
Se, T for grande, podemos desprezar as utuac oes amostrais do denominador, ent ao,
g
> z]
= 1
_
1 exp
_
z
2
__
[N/2]
.
Fisher derivou um teste exato para max(I
p
) baseado na estatstica
g =
max(I
p
)
[T/2]
p=1
I
p
(3.13)
a estatstica (3.13) e conhecida como Estatstica g de Fisher.
2
X
e um fator de
propocionalidade entre as distribuic oes de I
p
e
p
I
p
.
E claro que a distribui cao de
I
p
I
p
n ao envolve
2
X
.
Fisher tambem mostrou que, para T par, e o processo Gaussiano N(0,
2
)a distribuic ao
exata de g sob H
0
e dada por:
P [g > z] = n(1 z)
n1
n(n 2)
2
(1 2z)
n1
+ . . .
+(1)
a1
n!
a!(n a!)
(1 az
n1
), (3.14)
onde n = [T/2], e a e o maior inteiro menor que (1/z). Assim, para um dado nvel de
signic ancia , podemos usar a equa cao (3.14) para encontrar o valor crtico g
tal que:
P(g > g
) = .
Se o valor g, calculado a partir da serie e maior que um dado g
= T(1 g
)
T1
.
26 CAP
ITULO 3. REGRESS
i=1
2
i
< infty (3.16)
Devemos notar tambem, desde que {e
t
} e nao-observado, n ao h a perda de generalidade
na equac ao ([?]), se assumirmos que o coeciente de e
t
e 1: efetivamente
0
= 1.
Um exemplo n ao trivial, os pesos
j
=
j
em que e um n umero estritamente entre 1 e 1. Ent ao
Y
t
= e
t
+ e
t1
+
2
e
t2
+ . . .
Neste exemplo,
E(Y
t
) = E(e
t
+ e
t1
+
2
e
t2
+ . . .)
= E(e
t
) + E(e
t1
) +
2
E(e
t2
) + . . .) = 0
Da, como {Y
t
} tem media constante zero. Ent ao
V ar(Y
t
) = V ar(e
t
+ e
t1
+
2
e
t2
+ . . .)
= V ar(e
t
) +
2
V ar(e
t1
) +
4
V ar(e
t2
) + . . .)
=
2
e
(1 +
2
+
4
+ . . .)
=
2
e
1
2
e,
Cov(Y
t
, Y
t1
) = Cov(e
t
+ e
t1
+
2
e
t2
+ . . . , e
t
+ e
t1
+
2
e
t2
+ . . .)
= Cov(e
t1
, e
t1
) + Cov(
2
e
t2
, e
t2
) + Cov(
3
e
t3
, e
t3
) + . . .)
=
2
e
+
3
2
e
+
5
2
e
+ . . .
=
2
e
(1 +
2
+
4
+
4
+ . . .)
=
2
e
1
2
Ent ao
3.6. PROCESSOS M
EDIAS MOVEIS 27
Corr(Y
t
, Y
t1
) =
2
e
1
2
2
e
1
2
=
Similarmente, encontramos Cov(Y
t
, Y
tk
) =
k
2
e
1
2
e da, Corr(Y
t
, Y
tk
) =
k
.
2
e
t2
+ . . ., temos
E(Y
t
) = 0
k
= Cov(Y
t
, Y
tk
) =
2
e
i=0
i+k
k 0
com
0
= 1. Um processo com media pode ser obtido somando do lado direito da
equac ao ([?]). Desde que a media n ao afeta as propriedades da covariancia do processo,
assumimos que e zero.
Voltando a equac ao ([?]) e usando o operador B, que faz BX
t
= X
t1
, e B
m
X
t
= X
tm
.
Y
t
= e
t
+
1
e
t1
+
2
e
t2
+
3
e
t3
+
4
e
t4
+ . . . (3.17)
= e
t
+
1
Be
t
+
2
B
2
e
t
+
3
B
3
e
t
+
4
B
4
e
t
+ . . . (3.18)
= (1 +
1
B +
2
B
2
+
3
B
3
+
4
B
4
+ . . .)e
t
(3.19)
Na equac ao ([?]), chamaremos (1 +
1
B +
2
B
2
+
3
B
3
+
4
B
4
+. . .) = (B), entao,
Y
t
= (1 +
1
B +
2
B
2
+
3
B
3
+
4
B
4
+ . . .)e
t
(3.20)
= (B)e
t
(3.21)
Sob certas condic oes, podemos encontrar um polin onimo (B) = (1
1
B
2
B
2
3
B
3
4
B
4
+ . . .), tal que (B) (B) = 1, ent ao reescrevemos ([?]),
Y
t
= (1 +
1
B +
2
B
2
+
3
B
3
+
4
B
4
+ . . .)e
t
(3.22)
Y
t
= (B)e
t
(B)Y
t
= (B)(B)e
t
(B)Y
t
= e
t
(1
1
B
2
B
2
3
B
3
4
B
4
+ . . .)Y
t
= e
t
(Y
t
1
BY
t
2
B
2
Y
t
3
B
3
Y
t
4
B
4
Y
t
+ . . .) = e
t
Y
t
1
Y
t1
2
Y
t2
3
Y
t3
4
Y
t4
+ . . . = e
t
Y
t
=
1
Y
t1
+
2
Y
t2
+
3
Y
t3
+
4
Y
t4
+ . . . + e
t
A equac ao ([?]) e chamada de forma invertida.
3.6 Processos Medias Moveis
No caso em que Psi(B) e um polin omio nito, isto e, os valores de psi
j
s ao iguais a zero
para j > q, dizemos que o Processo e Media Moveis de ordem q, desta forma
Y
t
= e
t
1
e
t1
2
e
t2
3
e
t3
+ . . .
q
e
tq
(3.23)
28 CAP
ITULO 3. REGRESS
i=0
i+k
, mas temos termos nito, ent ao o processo ser a sempre esta-
cion ario.
A vari ancia e dada por:
0
= (1 +
2
1
+
2
2
+
2
3
+ . . . +
2
q
)
2
e
(3.24)
A fac e dada por:
k
=
_
_
_
k
+
1
k+1
+
2
k+2
+...+
qk
q
1+
2
1
+
2
2
+...+
2
q
para k = 1, 2, . . . , q
0 para k > q
onde o numerador de
k
e apenas
q
. A func ao de autocorrelac ao tem uma queda
abrupta apartir do lag q.
3.7 Processos Autorregressivos
No caso em que o polin omio (B) for nito, isto e, s o os primeiros p valores de
j
s ao
diferentes de zero, temos um processo autorregressivo, assim.
Y
t
=
1
Y
t1
+
2
Y
t2
+
3
Y
t3
+ . . . +
p
Y
tp
+ e
t
(3.25)
A func ao de autocorrelac ao e encontrada construindo as equa coes de Yule Walker,
lembre-se que e
t
e rudo branco, e e independente de Y
t
, por consequencia e independente
de Y
t+1
, Y
t+2
, . . ..
1
=
1
+
2
1
+
3
2
+ . . . +
p
p1
2
=
1
1
+
2
+
3
1
+ . . . +
p
p2
.
.
.
p
=
1
p1
+
2
p2
+
3
p3
+ . . . +
p
Como um processo, MA(q) e escrito na forma direta ([?]) e ser a sempre estacion ario,
precisamos vericar se e possvel escreve-lo na forma invertida. O polinomio (B) ser a
invesvel se as razes da equac ao caracterstica estejam fora do crculo unit ario. A equacao
caracterstica associada ao polin omio (B) = 1
1
B
2
B
2
. . .
q
B
q
e 1
1
x
2
x
2
+ . . .
q
x
q
= 0.
Um processo Autorregressivo j a est a escrito na forma invertida e para conseguirmos
escreve-lo na forma direta e necessario que as razes da equac ao caracterstica associada
ao polinomio (B) estejam fora do crculo unit ario.