Escolar Documentos
Profissional Documentos
Cultura Documentos
Uma parte importante da análise de dados no domínio da frequência, bem como no domínio do tempo, é a
investigação e exploração das propriedades do filtro linear invariante no tempo. Essa transformação linear
especial é usada de forma semelhante à regressão linear na estatística convencional e usamos muitos dos
mesmos termos no contexto de séries temporais.
Também introduzimos a coerência como uma ferramenta para relacionar o comportamento periódico comum
de duas séries. A coerência é uma medida baseada na frequência da correlação entre duas séries em uma
dada frequência, e mostramos posteriormente que ela mede o desempenho do melhor filtro linear
relacionado às duas séries.
Muitas escalas de frequência coexistem, dependendo da natureza do problema. Por exemplo, no conjunto de
dados da Johnson & Johnson no Exemplo I.1, a frequência predominante de oscilação é de um ciclo por ano,
4 trimestres, ou ω = 0.25 ciclos por observação. A frequência predominante nas séries de SOI e populações de
peixes no Exemplo I.5 é também um ciclo por ano, mas isso corresponde a 1 ciclo a cada 12 meses ou
ω = 1 / 12 = 0.083 ciclos por observação. Ao longo do texto, medimos a frequência ω em ciclos por ponto de
tempo, em vez da alternativa λ = 2πω isso daria radianos por ponto. De interesse descritivo é o período de
uma série temporal, definida como o número de pontos em um ciclo, ou seja, 1 / ω. Assim, o período
predominante da série de Johnson & Johnson é 1 / 0.25 ou 4 trimestres por ciclo, enquanto o predominante
período da série SOI é de 12 meses por ciclo.
Já encontramos a noção de periodicidade em numerosos exemplos nos Capítulos I, II e III. A noção geral
de periodicidade pode ser tornada mais precisa introduzindo alguma terminologia. Para definir a taxa na qual
uma série oscila, primeiro definimos um ciclo como um período completo de uma função seno ou cosseno
definida ao longo de um intervalo de tempo unitário. Como no Exemplo I.12, consideramos o processo
periódico
X t = Acos (2πωt + ϕ ),
Processing math: 87%
para t = 0, ± 1, ± 2, ⋯ onde ω é um índice de frequência, definido em ciclos por unidade de tempo com A
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 1/72
16/02/23, 19:52 Análise espectral e filtragem
determinando a altura ou amplitude da função e ϕ, chamada fase, determinando o ponto inicial da função
cosseno. Podemos introduzir variação aleatória nesta série temporal permitindo a amplitude e fase para
variar aleatoriamente.
Como discutido no Exemplo II.10, para fins de análise de dados, é mais fácil usar a identidade trigonométrica
cos(α ± β) = cos(α)cos(β) ∓ sin(α)sin(β) e escrever a expressão acima como
onde U 1 = Acos(ϕ) e U 2 = − Asin(ϕ) são frequentemente considerados como variáveis aleatórias normalmente
2 2
distribuídas. Neste caso, a amplitude é A =
√U 1 + U 2 e a fase é ϕ = tan − 1 ( − U 2 / U 1 ).
A partir desses fatos podemos mostrar que se, e somente se, A e ϕ são variáveis aleatórias independentes,
onde A 2 é qui-quadrado com 2 graus de liberdade e ϕ uniformemente distribuído em ( − π, π), então U 1 e U 2
são variáveis aleatórias normais padronizadas.
Se assumirmos que U 1 e U 2 são variáveis aleatórias não correlacionadas com média 0 e variância σ 2, então X t
é estacionária com média E(X t) = 0 e, escrevendo c t = cos (2πωt ) e s t = sin (2πωt ), a função de autocovariância
assume a forma
= Cov (U 1c t + h, U 1c t ) + Cov (U 1c t + h, U 2s t )
+ Cov (U 2s t + h, U 1c t ) + Cov (U 2s t + h, U 2s t )
= σ c t + hc t + 0 + 0 + σ 2s t + hs t = σ 2cos(2πωh),
2
utilizando a relação cos(α ± β) mencionada acima e notando que Cov (U 1, U 2 ) = 0. Então, vemos que
Var(X t) = γ (0) = σ 2 ⋅
X
a2 + b2
S2 = = a2 + b2 ⋅
2−1
O processo aleatório X t = U 1cos (2πωt ) + U 2sin (2πωt ), é função da sua frequência ω. Para ω = 1, a série faz um
ciclo por unidade de tempo; para ω = 0.50, a série faz um ciclo a cada duas unidades de tempo; para ω = 0.25,
a cada quatro unidades e assim por diante. Em geral, para dados que ocorrem em pontos de tempo
discretos, precisaremos de pelo menos dois pontos para determinar um ciclo, então a maior frequência de
interesse é 0.5 ciclos por ponto. Essa frequência é chamada de frequência de dobra e define a frequência
mais alta que pode ser vista na amostragem discreta. Frequências mais altas amostradas dessa maneira
aparecerão em frequências mais baixas, chamadas aliases. Um exemplo é o modo como uma câmera faz a
amostragem de uma roda giratória em um automóvel em movimento em um filme, no qual a roda parece
estar girando a uma taxa diferente, e às vezes para trás, o efeito da roda do vagão. Por exemplo, a maioria
dos filmes são gravados a 24 quadros por segundo ou 24 Hertz. Se a câmera estiver filmando uma roda que
esteja girando a 24 Hertz, a roda parecerá ficar parada.
Considere uma generalização de X t = U 1cos (2πωt ) + U 2sin (2πωt ), que permite misturas de séries periódicas com
múltiplas frequências e amplitudes,
2
onde U k1 e U k2, para k = 1, 2, ⋯, q são variáveis aleatórias de média zero não correlacionadas com variâncias σ k
e as ω k são frequências distintas. Observe que X t acima exibe o processo como uma soma de componentes
2
não correlacionados, com variância σ k para frequência ω k.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 2/72
16/02/23, 19:52 Análise espectral e filtragem
γ (h) =
X
∑ σ 2k cos (2πωh ),
k=1
e notamos que a função de autocovariância é a soma de componentes periódicos com pesos proporcionais às
2
variâncias σ k . Portanto, X t é um processo estacionário com média zero com variância
γ (0) = Var(X t) =
X
∑ σ 2k ,
k=1
exibindo a variância global como uma soma de variâncias de cada uma das partes componentes.
q
^
γ̂ = Var(X t) =
X
∑ (a 2k + b 2k ) ⋅
k=1
A figura abaixo mostra um exemplo da mistura com q = 3 construído da seguinte maneira. Primeiro,
para t = 1, ⋯, 100, geramos três séries
Essas três séries são exibidas na figura, juntamente com as frequências correspondentes e as
amplitudes quadradas. Por exemplo, a amplitude quadrada de X t1 é A 2 = 2 2 + 3 2 = 13. Assim, os valores
máximo e mínimo que X t1 atingirá são ± √13 = ± 3.61.
Finalmente, construímos
X t = X t1 + X t2 + X t3,
e esta série também é exibida na figura. Observamos que X t parece comportar-se como algumas das
séries periódicas que vimos antes. A sistemática de seleção dos componentes de frequência
essencial em uma série temporal, incluindo suas contribuições relativas, constitui um dos
principais objetivos da análise espectral.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 3/72
16/02/23, 19:52 Análise espectral e filtragem
Figura IV.1: Componentes periódicos e sua soma conforme descrito neste exemplo.
O modelo de séries periódicas com múltiplas frequências e amplitudes, juntamente com a função de
autocovariância correspondente são construções populacionais. Embora, para obtermos γ̂ , tenhamos
X
sugerido como estimaríamos os componentes de variância, agora discutimos os aspectos práticos de como,
dadas as observações ou realizações de uma séria x 1, x 2, ⋯, x n, estimar realmente os componentes de
2
variância σ k .
Para qualquer amostra de série temporal x 1, x 2, ⋯, x n, onde n é ímpar, podemos escrever, exatamente
(n−1) /2
Xt = a0 + ∑
j=1
(ajcos (2πt j / n ) + bjsin (2πt j / n ) ),
para t = 1, ⋯, n e coeficientes adequadamente escolhidos.
n n 2
Usando os resultados de regressão, os coeficientes a j e b j são da forma ∑ t = 1x tz tj / ∑ t = 1z tj, onde z tj é um
n 2
outro cos (2πt j / n ) ou sin (2πt j / n ). Pode-se demonstrar que ∑ t = 1z tj = n / 2, quando j / n ≠ 0, 1 / 2 então os
¯
coeficientes de regressão podem ser escritos como a 0 = x,
n n
2 2
aj = ∑ x cos (2πt j / n )
nt=1 t
e bj = ∑ x sin (2πt j / n ) ⋅
nt=1 t
2 2
P(j / n) = a j + b j ,
e é de interesse porque indica quais componentes de frequência são grandes em magnitude e quais
componentes são pequenos.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 4/72
16/02/23, 19:52 Análise espectral e filtragem
Felizmente, não é necessário executar uma grande regressão para obter os valores de a j e b j, porque
eles podem ser calculados rapidamente se n for um inteiro altamente composto. Embora vamos
discuti-lo em mais detalhes na Seção IV.3, a transformada discreta de Fourier (DFT) é uma média
ponderada de valor complexo dos dados fornecidos, dada por
n
1
d(j / n) = ∑ x exp ( − 2π it j / n )
nt=1 t
( )
n n
1
=
n t=1
∑ x tcos (2π t j / n ) − i ∑ x tsin (2π t j / n )
t=1
Devido a um grande número de redundâncias no cálculo, d(j / n) pode ser calculado rapidamente usando a
transformada rápida de Fourier (FFT). Observe que
( ) ( )
n 2 n 2
1 1
| d(j / n) | 2 =
n t=1
∑ x tcos (2π t j / n ) +
n t=1
∑ x tsin (2π t j / n )
4
P(j / n) = | d(j / n) | 2 ⋅
n
O periodograma escalado dos dados x t, simulado no Exemplo IV.1 é mostrado na figura abaixo e
identifica claramente os três componentes x t1, x t2 e x t3 de x t. Observe que
P(6 / 100) = P(94 / 100) = 13, P(10 / 100) = P(90 / 100) = 41, P(40 / 100) = P(60 / 100) = 85,
e P(j / n) = 0, caso contrário. Estes são exatamente os valores das amplitudes quadradas dos
componentes gerados no Exemplo IV.1.
Assumindo
Processing math: 87% que os dados simulados, x, foram retidos do exemplo anterior, o código R para reproduzir
a figura acima é:
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 5/72
16/02/23, 19:52 Análise espectral e filtragem
Pacotes diferentes escalam a FFT de maneira diferente, por isso é uma boa idéia consultar a documentação.
O R calcula-o sem o fator n − 1 / 2 e com um fator adicional de e 2πiωj que pode ser ignorado porque estaremos
interessados no módulo ao quadrado.
Se considerarmos os dados x t no Exemplo IV.1 como uma cor (forma de onda) composta de cores primárias
x t1, x t2, x t3 em várias intensidades ou amplitudes, então podemos considerar o periodograma como um prisma
que decompõe a cor x t em suas cores primárias ou espectro. Daí o termo análise espectral. A seguir, um
exemplo usando dados reais.
Os dados na segunda figura embaixo são a magnitude de uma estrela tirada à meia-noite por 600 dias
consecutivos. Os dados são retirados do texto clássico: The Calculus of Observations, a Treatise
on Numerical Mathematics, por E.T. Whittaker e G. Robinson (1923, Blackie & Son, Ltd.).
Podemos interpretar esse resultado conforme estamos observando um sinal modulado em amplitude. Por
exemplo, suponha que estamos observando sinal-mais-ruído, X t = s t + V t, onde s t = cos(2πω t)cos(2πδ t) e δ é
muito pequeno. Neste caso, o processo irá oscilar na frequência ω, mas a amplitude será modulada
por cos(2πδ t). Como 2cos(α)cos(δ) = cos(α + δ) + cos(α − δ), o periodograma dos dados gerados como X t terá
dois picos próximos um do outro em. Observe isso na figura a seguir:
> t = 1:200
> plot.ts(x <- 2*cos(2*pi*.2*t)*cos(2*pi*.01*t), type="n", xlab="Tempo",
ylab=expression(2*cos(2*pi*0.2*t)*cos(2*pi*.01*t)))
> lines(cos(2*pi*.19*t)+cos(2*pi*.21*t), col=2) # the same
> Px = Mod(fft(x))^2; plot(0:199/200, Px, type='o', pch=19) # periodograma
Processing math: 87%
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 6/72
16/02/23, 19:52 Análise espectral e filtragem
> n = length(star)
> par(mfrow=c(2,1), mar=c(3,3,1,1), mgp=c(1.6,.6,0))
> plot(star, ylab="Magnitude da Estrela", xlab="Dias")
> Per = Mod(fft(star-mean(star)))^2/n
> Freq = (1:n -1)/n
> plot(Freq[1:50], Per[1:50], type='h', lwd=3, ylab="Periodograma", xlab="Frequência")
> u = which.max(Per[1:50]) # 22 freq=21/600=.035 ciclos/dia
> uu = which.max(Per[1:50][-u]) # 25 freq=25/600=.041 ciclos/dia
> 1/Freq[22]; 1/Freq[26] # período = dias/ciclo
[1] 28.57143
[1] 24
> text(.05, 7000, "ciclo de 24 dias"); text(.027, 9000, "ciclo de 29 dias")
> ### outra maneira de encontrar os dois picos é ordenar Per
> y = cbind(1:50, Freq[1:50], Per[1:50]); y[order(y[,3]),]
[,1] [,2] [,3]
[1,] 1 0.000000000 9.443191e-29
[2,] 2 0.001666667 4.507982e-01
[3,] 3 0.003333333 6.383881e-01
[4,] 4 0.005000000 6.520257e-01
[5,] 42 0.068333333 8.665436e-01
[6,] 5 0.006666667 9.562050e-01
[7,] 6 0.008333333 1.102173e+00
[8,] 7 0.010000000 1.571938e+00
[9,] 8 0.011666667 1.919698e+00
[10,] 9 0.013333333 2.660354e+00
[11,] 50 0.081666667 2.716201e+00
[12,] 49 0.080000000 2.950864e+00
[13,] 48 0.078333333 3.131141e+00
[14,] 10 0.015000000 3.360490e+00
[15,] 41 0.066666667 3.434992e+00
[16,] 47 0.076666667 3.436210e+00
[17,] 46 0.075000000 3.727665e+00
[18,] 45 0.073333333 4.217734e+00
[19,] 40 0.065000000 4.333342e+00
[20,] 11 0.016666667 4.602068e+00
[21,] 44 0.071666667 4.961120e+00
[22,] 39 0.063333333 5.104726e+00
[23,] 38 0.061666667 5.787418e+00
[24,] 12 0.018333333 6.000647e+00
Processing math: 87% [25,] 37 0.060000000 6.609014e+00
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 7/72
16/02/23, 19:52 Análise espectral e filtragem
[26,] 36 0.058333333 7.479905e+00
[27,] 43 0.070000000 7.759837e+00
[28,] 13 0.020000000 8.299324e+00
[29,] 35 0.056666667 8.579677e+00
[30,] 34 0.055000000 9.855970e+00
[31,] 14 0.021666667 1.130510e+01
[32,] 33 0.053333333 1.149882e+01
[33,] 32 0.051666667 1.354988e+01
[34,] 15 0.023333333 1.626158e+01
[35,] 31 0.050000000 1.627495e+01
[36,] 30 0.048333333 1.994590e+01
[37,] 16 0.025000000 2.384928e+01
[38,] 29 0.046666667 2.512683e+01
[39,] 28 0.045000000 3.282879e+01
[40,] 17 0.026666667 3.760709e+01
[41,] 27 0.043333333 4.499063e+01
[42,] 18 0.028333333 6.410010e+01
[43,] 25 0.040000000 1.085316e+02
[44,] 19 0.030000000 1.276647e+02
[45,] 24 0.038333333 2.152119e+02
[46,] 20 0.031666667 3.395142e+02
[47,] 23 0.036666667 6.436224e+02
[48,] 21 0.033333333 2.136963e+03
[49,] 26 0.041666667 9.011002e+03
[50,] 22 0.035000000 1.102080e+04
Nesta seção, definimos a ferramenta do domínio de frequência fundamental, a densidade espectral. Além
disso, discutimos as representações espectrais para processos estacionários. Assim como a decomposição de
Wold (Teorema B.5) justifica teoricamente o uso de regressão para analisar séries temporais, os teoremas de
representação espectral fornecem as justificativas teóricas para a decomposição de séries temporais
estacionárias em componentes periódicos que aparecem em proporção às suas variâncias subjacentes. Este
material é aprimorado pelos resultados apresentados no Apêndice C.
onde U 1 e U 2 são variáveis aleatórias de média zero não correlacionadas com igual variância σ 2. O
número de períodos necessários para a série acima para completar um ciclo é exatamente 1 / ω 0 e o
processo faz exatamente ω 0 ciclos por ponto para t = 0, ± 1, ± 2, ⋯. Temos então que
σ2 σ2
γ(h) = σ 2cos (2πω 0 h ) = exp ( − 2π iω 0 h ) + exp (2π iω 0 h )
2 2
1/2
= ∫ − 1 / 2exp (2π iω 0 h )dF(ω),
usando a integração de Riemann-Stieltjes (ver Seção C.4.1), onde F(ω) é a função definida por
{
0, caso ω < − ω0
σ2
F(ω) = , caso − ω0 ≤ ω < ω0 ⋅
2
σ 2, caso ω ≥ ω0
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 8/72
16/02/23, 19:52 Análise espectral e filtragem
A função F(ω) se comporta como uma função de distribuição para uma variável aleatória discreta,
exceto que F(∞) = σ 2 = Var(X t) em vez de um. De fato, F(ω) é uma função de distribuição, não de
probabilidades, mas sim de variâncias, com F(∞) sendo a variância total do processo X t. Portanto,
denominamos F(ω) a função de distribuição espectral. Este exemplo será continuado no Exemplo IV.9.
Uma representação como a fornecida no Exemplo IV.4 sempre existe para um processo estacionário. Para
detalhes, veja o Teorema C.1 e sua prova. A integração de Riemann-Stieltjes é descrita na Seção C.4.1.
Se {X t} é um processo estacionário com autocovariância γ(h) = Cov(X t + h, X t), então existe uma função única
monotonicamente crescente F(ω), chamada de função de distribuição espectral, com F( − ∞) = F( − 1 / 2) = 0 e
F(∞) = F(1 / 2) = γ(0), de tal modo que
1
Uma situação importante que usamos repetidamente é o caso quando a função de autocovariância é
absolutamente sumável, em cujo caso a função de distribuição espectral é absolutamente contínua com
dF(ω) = f(ω)dω e a representação no Teorema IV.1 se torna a motivação para a propriedade dada abaixo.
∑ | γ(h) | < ∞,
h= −∞
Essa densidade espectral é o análogo da função de densidade; o fato de γ(h) ser definido não negativo
garante que f(ω) ≥ 0, para todo ω. Segue imediatamente do Teorema IV.2 que f(ω) = f( − ω), verificando que a
densidade espectral é uma função par.
Por causa da uniformidade, tipicamente traçamos apenas f(ω) para 0 ≤ ω ≤ 1 / 2. Mais ainda, escolhendo h = 0 na
expressão acima, produz
1
que expressa a variância total como densidade espectral integrada em todas as frequências. Mostramos mais
adiante que um filtro linear pode isolar a variância em certos intervalos de frequência ou bandas.
Agora deve ficar claro que as funções de autocovariância e distribuição espectral contêm as mesmas
Processing math: 87%
informações. Essa informação, no entanto, é expressa de maneiras diferentes. A função de autocovariância
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 9/72
16/02/23, 19:52 Análise espectral e filtragem
Observamos que a função de autocovariância γ(h) e a densidade espectral f(ω) são pares de transformada de
Fourier. Em particular, isto significa que se f(ω) e g(ω) são duas densidades espectrais para as quais
1 1
γ (h) =
f ∫ 2− 1 f(ω)exp (2π iω h )dω = ∫ 2− 1 g(ω)exp (2π iω h )dω = γ (h),
g
2 2
para h = 0, ± 1, ± 2, ⋯, então
f(ω) = g(ω) ⋅
∞
Finalmente, a condição de soma absoluta ∑ h = − ∞ | γ(h) | < ∞, no Teorema IV.2, não é satisfeita pela função
γ (h) = ∑ qk = 1σ 2k cos (2πωh ), no exemplo que usamos para introduzir a idéia de uma representação espectral. A
X
Como um exemplo simples, considere o espectro do poder teórico de uma sequência de variáveis
2
aleatórias não correlacionadas W t, com variância σ . Um conjunto simulado de dados é exibido na
W
figura no Exemplo I.8. Porque a função de autocovariância foi computada no Exemplo I.16 como
2
γ (h) = σ para h = 0 e zero, caso contrário, segue que
W W
2
f (ω) = σ ,
W W
Como o processo linear é uma ferramenta essencial, vale a pena investigar o espectro de tal processo. Em
geral, um filtro linear usa um conjunto de coeficientes especificados, digamos a j, quando j = 0, ± 1, ± 2, ⋯ para
transformar uma série de entrada, X t, produzindo uma série de saída, Y t, da forma
∞ ∞
Yt = ∑ a jX t − j, ∑ | aj | < ∞ ⋅
j= −∞ j= −∞
A forma acima também é chamada de convolução em alguns contextos estatísticos. Os coeficientes são
chamados coletivamente de função de resposta ao impulso e a transformada de Fourier
A(ω) = ∑ a je − 2π i ωj,
j= −∞
é chamada função de resposta de frequência. Se, na expressão de Y t acima, X t tiver densidade espectral f (ω),
X
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 10/72
16/02/23, 19:52 Análise espectral e filtragem
∞ ∞
Para o processo em Y t = ∑ a jX t − j, quando ∑ | a j | < ∞, se X t tem espectro f (ω), então o espectro da saída
X
j= −∞ j= −∞
filtrada Y t, digamos f (ω), está relacionado com o espectro da entrada X t por
Y
Yt = ∑ a jX t − j,
j= −∞
γ (h)
Y
= Cov (X t + h, X t ) = Cov (r∑ arXt + h − r , s∑ asXt − s )
( )
1
( )( )
1
= ∫ 2− 1 ∑ a re 2π i ωr ∑ a se 2π i ωs e 2π i ωhf (ω)dω
X
2 r s
1
= ∫ 2− 1 e 2π i ωh | A(ω) | 2f X(ω)dω
2
⏟
f (ω)
Y
O uso do Teorema IV.3 é explorado na Seção IV.7. Se X t é um processo ARMA, sua densidade espectral pode
∞ ∞
ser obtida explicitamente usando o fato de que é um processo linear, isto é, X t = ∑ j = 0ψ jW t − j, onde ∑ j = 0 | ψ j | < ∞
.
2
| θ(e − 2π i ω) | 2
f (ω) = σ ,
X W | ϕ(e − 2π i ω) | 2
p q
Demonstração
Consequência direta do Teorema IV.3, usando os fatos adicionais de que a densidade espectral do ruído
2
branco é f (ω) = σ e, pelo Teorema III.1, ψ(z) = θ(z) / ϕ(z) ▉
W W
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 11/72
16/02/23, 19:52 Análise espectral e filtragem
Como exemplo de uma série que não possui uma mistura igual de frequências, consideramos um modelo
de médias móveis. Especificamente, considere o modelo MA(1) dado por
X t = W t + 0.5W t − 1 ⋅
Uma realização amostral é mostrada no topo da figura do Exemplo III.5 e notamos que a série tem
menos frequências mais altas ou mais rápidas. A densidade espectral irá verificar esta observação.
A função de autocovariância foi exibida no Exemplo III.5 e para este exemplo em particular, temos
{
(1 + 0.5 2)σ 2 = 1.25σ 2 quando h=0
W W
2
γ(h) = 0.5σ quando h±1 ⋅
W
0 quando h>1
f(ω) = ∑
h= −∞ W
(
γ(h)e − 2π i ωh = σ 2 1.25 + 0.5 (e − 2π i ω + e 2πω ) ) = σ2 (1.25 + cos(2π ω) ) ⋅
W
Podemos também calcular a densidade espectral usando o Teorema IV.4, que afirma que para uma MA,
2
f(ω) = σ
W
| θe − 2π i ω | 2 ⋅
2
Mostrando o espectro para σ = 1, como no meio da figura do Exemplo IV.7, mostra que as frequências
W
mais baixas ou mais lentas têm maior potência do que as frequências mais altas ou mais rápidas.
X t − ϕ 1X t − 1 − ϕ 2X t − 2 = W t,
para o caso especial ϕ 1 = 1 e ϕ 2 = − 0.9. A figura do Exemplo I.10 mostra uma realização amostral de
tal processo para σ = 1. Notamos que os dados exibem um forte componente periódico que faz um
W
ciclo a cada seis pontos.
| θ (e − 2π i ω ) | 2 =
2
σ
W
f (ω) = ⋅
X 2.81 − 3.8cos(2πω) + 1.8cos(4πω)
2
Definindo σ = 1, a parte inferior da figura abaixo exibe f (ω) e mostra um forte componente de
W X
potência em torno de ω = 0.16 ciclos por ponto ou um período entre seis e sete ciclos por ponto e
pouquíssima potência em outras frequências. Nesse caso, modificar a série de ruído branco
aplicando o operador AR de segunda ordem concentrou a potência ou a variação da série resultante
em uma faixa de frequência muito estreita.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 12/72
16/02/23, 19:52 Análise espectral e filtragem
A densidade espectral também pode ser obtida sem ter que usar o Teorema IV.4; isso porque
W t = X t − X t − 1 + 0.9X t − 2,
γ (h) = Cov(W t + h, W t)
W
γ (h)
W
= ∫ 2− 1 (2.81 − 1.9 (e 2π i ω + e − 2π i ω ) + 0.9 (e 4π i ω + e − 4π i ω ) )e 2π i ωhf X(ω)dω
2
1
12
= −
2 (2.81 − 3.8cos(2πω) + 1.8cos(4πω) )e2π i ωhf (ω)dω ⋅
X
Se o espectro do processo de ruído branco W t, for g (ω), a unicidade da transformada de Fourier nos
W
permite identificar
g (ω) =
W
(2.81 − 3.8cos(2πω) + 1.8cos(4πω) )f (ω) ⋅ X
2
Mas, como já vimos, g (ω) = σ , do qual deduzimos que
W W
σ2
W
f (ω) = ,
X 2.81 − 3.8cos(2πω) + 1.8cos(4πω)
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 13/72
16/02/23, 19:52 Análise espectral e filtragem
Figura IV.4: Espectros teóricos do ruído branco (superior), médias móveis de primeira
ordem (meio) e processo autorregressivo de segunda ordem (inferior).
> par(mfrow=c(3,1))
> arma.spec(log="no", main="Ruído branco")
> arma.spec(ma=.5, log="no", main="Médias móveis")
> arma.spec(ar=c(1,-.9), log="no", main="Autoregressões")
No Exemplo III.4, discutimos o fato de que os modelos explosivos têm contrapartes causais. Nesse
exemplo, também indicamos que era mais fácil mostrar esse resultado em geral no domínio espectral.
Neste exemplo, damos os detalhes para um modelo AR(1), mas as técnicas usadas aqui indicarão como
generalizar o resultado.
densidade espectral de X t é
2
f (ω) = σ
X W
| 1 − e − 2π i ω | − 2 ⋅
Mas,
| 1 − e − 2π i ω | = | 1 − e 2π i ω |
1
= | (2e 2π i ω )( 2 e − 2π i ω − 1 ) |
1 − 2π i ω
= 2 |1 − e |⋅
2
1 2 1
f (ω) = σ | 1 − e − 2π i ω | − 2,
X 4 W 2
1 1 2
o que implica que X t = 2 X t − 1 + V t, com V t ∼ N (0, 4 σ ) é uma forma equivalente do modelo.
W
Terminamos esta seção mencionando outra representação espectral que lida diretamente com o processo. Em
termos não técnicos, o resultado sugere que
é aproximadamente verdadeiro para qualquer série temporal estacionária e isso fornece uma justificativa
teórica adicional para a decomposição de séries temporais em componentes harmônicos.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 14/72
16/02/23, 19:52 Análise espectral e filtragem
No Exemplo IV.4, consideramos o processo periódico estacionário com uma frequência fixa ω 0, dado
como
1 1
Xt = (U + iU 2 )e − 2π i ω0t + 2 (U 1 − iU 2 )e 2π i ω0t,
2 1
onde nos lembramos que U 1 e U 2 são variáveis aleatórias não correlacionadas, com média zero, cada
uma com variância σ 2.
1 1
Chamemos Z = 2 (U 1 + iU 2), então Z ∗ = 2 (U 1 − iU 2), onde ∗ denota o complexo conjugado. Neste caso,
1
Z = 2 (E(U 1) + iE(U 2) ) = 0 e, similarmente, E(Z ∗ )
= 0. Para variáveis aleatórias complexas com média
∗
zero, digamos X e Y, Cov(X, Y) = E(XY ). Portanto
1
Var(Z) = E( | Z | 2) = E(ZZ ∗ ) = E ((U 1 + iU 2)(U 1 − iU 2) )
4
1 σ2
=
4
(E(U 21) + E(U 22) ) =
2
⋅
σ2
Similarmente Var(Z ∗ ) = .
2
1 1
Cov(Z, Z ∗ ) = E(ZZ ∗ ∗ ) =
4
E ((U 1 + iU 2)(U 1 − iU 2) ) =
4
(E(U 21) − E(U 22) ) = 0⋅
X t = Ze − 2π iω 0t + Z ∗ e 2π iω 0t = ∫ 2− 1 e 2π iωtdZ(ω),
2
onde Z(ω) é um processo aleatório de valor complexo que faz saltos não correlacionados em − ω 0 e ω 0
com média-zero e variância σ 2 / 2. A integração estocástica é discutida em mais detalhes na Seção
C.4.2.
Se X t é um processo estacionário de média zero, com distribuição espectral F(ω) como dado na Proposição
IV.1, então existe um processo estocástico de valor complexo Z(ω), no intervalo ω ∈ [ − 1 / 2, 1 / 2], com
incrementos estacionários não-correlacionados não-sobrepostos, tal que X t pode ser escrito como a
integral estocástica (ver Seção C.4.2)
1
Xt = ∫ 2− 1 e 2π i ωtdZ(ω),
2
onde, para − 1 / 2 ≤ ω ≤ 1 / 2,
Agora estamos pronto para unir o periodograma, que é o conceito amostral apresentado na Seção IV.1, com
a densidade espectral, que é o conceito populacional da Seção IV.2.
Definição
Processing math: 87% IV.1 Transformada discreta de Fourier.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 15/72
16/02/23, 19:52 Análise espectral e filtragem
n
1
d(ω j) =
n
∑ X te − 2π i ωjt,
t=1
Se n é um inteiro altamente composto, isto é, tem muitos fatores o DFT pode ser calculado pela transformada
rápida de Fourier (FFT) introduzida em Cooley and Tukey (1965). Além disso, diferentes pacotes escalonam a
FFT de maneira diferente, por isso é uma boa ideia consultar a documentação. R calcula o DFT definida acima
1
sem o fator n , mas com um fator adicional de e 2π i ω j que pode ser ignorado porque estaremos interessados no
quadrado do módulo da DFT. Às vezes, é útil explorar o resultado da inversão para DFTs, o que mostra que a
transformação linear é de um para um. Para o DFT inverso temos,
n−1
1
Xt =
n t=1
∑ d(ω j)e 2π i ωjt,
para t = 1, ⋯, n. O exemplo a seguir mostra como calcular o DFT e seu inverso em R para o conjunto de dados
{1, 2, 3, 4}; note que R escreve um número complexo z = a + ib como a+bi.
I(ω j) = | d(ω j) | 2,
para j = 0, 1, 2, ⋯, n − 1.
¯2 ¯
Note que I(0) = nX , sendo X é a média amostral. Também
∑ e − 2π i tj / n = 0, para j ≠ 0,
t=1
1−zn
n
ist porque ∑ t = 1z t = z 1 − z , para z ≠ 1, neste caso z n = e − 2π i j = 1. Podemos então escrever a DFT como
n
1 ¯
d(ω j) =
n
∑ (X t − X)e − 2π i ωjt,
t=1
para j ≠ 0
Portanto,
n n
1 ¯ ¯
I(ω j) = | d(ω j) | 2 = n
∑ ∑ (X t − X)(X s − X)e − 2π i ωj ( t − s )
t = 1s = 1
n−1 n− |h|
1 ¯ ¯
=
n
∑ ∑ (X t + | h | − X)(X t − X)e − 2π i ω jh
h= − (n−1)t=1
n−1
= ∑ γ̂(h)e − 2π i ω jh,
h= − (n−1)
Processing math: 87%
para j ≠ 0, onde colocamos h = t − s, com γ̂(h) como dado na Definição I.14. Note que a expressão acima pode
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 16/72
16/02/23, 19:52 Análise espectral e filtragem
ser usado para obter γ̂(h) tomando o DFT inverso de I(ω j). Esta abordagem foi usada no Exemplo I.31 para
obter um ACF bidimensional. Em vista da expressão acima, o periodograma, I(ω j) é a versão amostral de f(ω j),
a densidade espectral. Ou seja, podemos pensar no periodograma como a densidade espectral amostral de X t
.
Inicialmente, a expressão acima parece ser uma maneira óbvia de estimar uma densidade espectral, ou seja,
basta colocar um chapéu em γ(h) e somar até onde o tamanho da amostra permitir. No entanto, após uma
análise mais aprofundada, verifica-se que este não é um bom estimador, porque usa algumas estimativas
ruins de γ(h). Por exemplo, há apenas um par de observações, (X 1, X n) para estimar γ(n − 1) e apenas dois pares
(X 1, X n − 1) e (X 1, X n) que podem ser usados para estimar γ(n − 1), e assim por diante. Discutiremos esse
problema ainda mais à medida que progredirmos, mas uma melhoria óbvia seria algo como
às vezes é útil trabalhar com as partes real e imaginária da DFT individualmente. Para este fim, definimos as
seguintes transformações.
n
1
d c(ω j) =
n
∑ X tcos(2πω jt),
t=1
e a transformação seno
n
1
d s(ω j) = ∑ X sin(2πω jt),
nt=1 t
onde ω j = j / n para j = 0, 1, ⋯, n − 1.
2 2
I(ω j) = d c (ω j) + d s (ω j) ⋅
Também discutimos o fato de que a análise espectral pode ser pensada como uma análise de variância. O
próximo exemplo examina essa noção.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 17/72
16/02/23, 19:52 Análise espectral e filtragem
Seja X 1, ⋯, X n uma amostra de tamanho n, onde para facilidade, n é ímpar. Então, lembrando o Exemplo
IV.2,
n n
2 2 2 2
aj =
n
∑ X tcos(2πω jt) = d c(ω j), b j =
n
∑ X tsin(2πω jt) = d s(ω j) ⋅
t=1 √n t=1 √n
Portanto, podemos escrever
m
¯ 2
(X t − X) =
n
∑ (d c(ω j)cos(2πω jt) + d s(ω j)sin(2πω jt) ),
j=1
m m
¯
∑ n(X t − X) 2 = 2 ∑ (d c (ω j) + d s (ω j) ) = 2 ∑ I(ω j),
2 2
Assim, particionamos a soma dos quadrados em componentes harmônicos representados pela freqüência
ω j com o periodograma, I(ω j), sendo a regressão quadrada média. Isso leva à tabela ANOVA para n
ímpar:
> x = c(1, 2, 3, 2, 1)
> c1 = cos(2*pi*1:5*1/5); s1 = sin(2*pi*1:5*1/5)
> c2 = cos(2*pi*1:5*2/5); s2 = sin(2*pi*1:5*2/5)
> omega1 = cbind(c1, s1); omega2 = cbind(c2, s2)
> anova(lm(x~omega1+omega2)) # ANOVA Table
Analysis of Variance Table
Response: x
Df Sum Sq Mean Sq F value Pr(>F)
omega1 2 2.74164 1.37082
omega2 2 0.05836 0.02918
Residuals 0 0.00000
> Mod(fft(x))^2/5 # o periodograma
[1] 16.20000000 1.37082039 0.02917961 0.02917961 1.37082039
# I(0) I(1/5) I(2/5) I(3/5) I(4/5)
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 18/72
16/02/23, 19:52 Análise espectral e filtragem
¯2
Observe que I(0) = nx = 5 × 1.8 2 = 16.2. Além disso, a soma dos quadrados associados aos resíduos (SSE)
é zero, indicando um ajuste exato.
Também é possível pensar em análise espectral como uma Análise de Componentes Principais. Na Seção
C.5, mostramos que a densidade espectral pode ser considerada como os autovalores aproximados da
matriz de covariância de um processo estacionário. Se X = (X 1, ⋯, X n) são n valores de uma série
temporal de média zero X t com densidade espectral f (ω), então
X
( )
γ(0) γ(1) ⋯ γ(n − 1)
γ(1) γ(0) ⋯ γ(n − 2)
Cov(X) = Γ n = ⋅
⋮ ⋮ ⋱ ⋮
γ(n − 1) γ(n − 2) ⋯ γ(0)
A j ≈ f(ω j) = ∑ γ(h)e − 2π i hj / n,
h= −∞
1
∗
gj =
√n
(e − 2π i 0j / n, e − 2π i 1j / n, ⋯, e − 2π i ( n − 1 ) j / n ),
para j = 0, 1, ⋯, n − 1. Considerando G ser a matriz complexa com colunas g j, então o vetor complexo
Y = G ∗ X tem elementos que são as DFTs,
n
1
yj = ∑ X te − 2π i tj / n,
√n t = 1
para j = 0, 1, ⋯, n − 1. Neste caso, os elementos de Y são variáveis aleatórias complexas
assintoticamente não correlacionadas, com média zero e variância f(ω j). Além disso, X pode ser
recuperado como X = GY, de modo que
n−1
1
Xt = ∑ Y je 2π i tj / n ⋅
√n j = 0
Agora estamos prontos para apresentar algumas propriedades em amostras grandes do periodograma.
Primeiro, seja μ a média de um processo estacionário X t com função de autocovariância absolutamente
convergente γ(h) e densidade espectral f(ω). Podemos escrever
n−1 n− |h|
I(ω j) = ∑ ∑ (X t + | h | − μ )(X t − μ )e − 2π i ω ) jh
h= − (n−1) t=1
onde ω j é uma frequência fundamental diferente de zero. Tomando esperança acima obtemos
n−1 n− |h|
E (I(ω j) ) = ∑
h= − (n−1) t=1
∑ ( n − |h|
n ) γ(h)e − 2π i ω ) jh ⋅
Para qualquer dado ω ≠ 0, escolha uma sequência de frequências fundamentais ω j : n → ∞, isto significa que
ω j : n = j n / n, onde {j n} é uma seqëência de inteiros escolhidos de modo que j n / n é a frequência de Fourier mais
1
próxima de ω; consequentemente | j n / n − ω | ≤ 2n . Disto, segue que, c/quando n → ∞
∞ ∞
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 19/72
16/02/23, 19:52 Análise espectral e filtragem
¯2
Da Definição IV.2, temos I(0) = nX , então o resultado análogo deste anterior para o caso ω = 0 é
¯
E (I(0) ) − nμ 2 = nVar (X ) → f(0), quando n → ∞ ⋅
Em outras palavras, sob a soma absoluta de γ(h), a densidade espectral é a média de longo prazo do
periodograma.
Propriedades assintóticas adicionais podem ser estabelecidas sob a condição de que a função de
autocovariância satisfaça
θ = ∑ | h | | γ(h) | < ∞ ⋅
h= −∞
n n
1
Cov (d c(ω j) , d c(ω k) ) =
n
∑ ∑ γ(s − t)cos(2πω js)cos(2πω kt),
s = 1t = 1
n n
1
Cov (d c(ω j) , d s(ω k) ) =
n
∑ ∑ γ(s − t)cos(2πω js)sin(2πω kt),
s = 1t = 1
n n
1
Cov (d s(ω j) , d s(ω k) ) = ∑ ∑ γ(s − t)sin(2πω js)sin(2πω kt),
n s = 1t = 1
onde as variâncias são obtidas configurando ω j = ω k nos termos acima. No Apêndice C, Seção C.2,
mostramos que os termos os termos acima possuem propriedades interessantes sob a suposição de que θ < 0
é válida. Em particular, para ω j, ω k ≠ 0 ou 1 / 2,
{
1
2
f(ω j) + ϵ n ωj = ωk
Cov (d c(ω j) , d c(ω k) ) = Cov (d s(ω j) , d s(ω k) ) = ,
ϵn ωj ≠ ωk
θ
| ϵn | ≤ ,
n
Para a série de médias móveis de três pontos do Exemplo I.9 e n = 256 observações, a matriz de
covariância teórica do vetor D = (d c(ω 26), d s(ω 26), d c(ω 27), d s(ω 27) ) ⊤ é
( )
0.3752 − 0.0009 − 0.0022 − 0.0010
− 0.0009 0.3777 − 0.0009 0.0003
Cov(D) = ⋅
− 0.0022 − 0.0009 0.3667 − 0.0010
− 0.0010 0.0003 − 0.0010 0.3692
Os elementos diagonais podem ser comparados com metade dos valores espectrais teóricos de
1 1
2
f(ω 26) = 0.3774 para o espectro na frequência ω 26 = 26 / 256 e de 2 f(ω 27) = 0.3689 para o espectro em
ω 27 = 27 / 256. Assim, as transformações de cosseno e seno produzem variáveis quase não
correlacionadas com variâncias aproximadamente iguais a metade do espectro teórico. Para este caso
particular, o limite uniforme é determinado de θ = 8 / 9, rendendo | ϵ 256 | ≤ 0.0035 para o limite no erro
de aproximação.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 20/72
16/02/23, 19:52 Análise espectral e filtragem
Se X t forem independentes identicamente distribuídas com média zero e variância σ 2 e utilizando o Teorema
do Limite Central, obtemos que
n n
∑ a jY j ∼ N (0, ∑ a 2j ),
j=1 j=1
Notamos que neste caso f (ω) = σ 2. Em vista do resultado anterior, segue-se imediatamente que, quando
X
n→∞
2 D 2 P
2 2
I(ω j : n) ⟶ χ 2 e I(ω k : n) ⟶ χ 2,
σ2 σ2
2
com I(ω j : n) e I(ω k : n) sendo assintoticamente independentes, onde χ v denota uma variável aleatória qui-
quadrado com ν graus de liberdade. Se o processo também for gaussiano, as declarações acima serão
verdadeiras para qualquer tamanho de amostra.
Usando a teoria do limite central da Seção C.2, é razoavelmente fácil estender os resultados do caso
independentes igualmente distribuídas para o caso de um processo linear.
Seja
Xt = ∑ ψ jW t − j,
j= −∞
sendo que ∑ | ψ j | < ∞ e W t variáveis aleatórias independentes e igualmente distribuídos de média zero e
j= −∞
∞
variância σ
2
W
satisfazendo que θ = ∑ | h | | γ(h) | < ∞. Então, para qualquer coleção de m distintas
h= −∞
frequências ω j ∈ (0, 1 / 2), com ω j : n → ω j
I(ω j : n) D
2
2 ⟶ χ 2,
f(ω j)
Outras abordagens para a normalidade em amostras grandes das ordenadas do periodograma são em termos
de cumulantes, como em Brillinger (1981) ou em termos de condições de mistura, como em Rosenblatt
(1956a). Aqui, adotamos a abordagem usada por Hannan (1970), Fuller (1996) e Brockwell e Davis (1991).
O resultado assintótico no Teorema IV.6 pode ser usado para derivar um intervalo de confiança aproximado
2
para o espectro da maneira usual. Seja χ ν denotando a cauda de probabilidade α mais baixa para a
distribuição qui-quadrado com ν graus de liberdade; isso é,
2
P (χ ν ≤ χ nu 2(α) ) = α ⋅
Processing math: 87%
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 21/72
16/02/23, 19:52 Análise espectral e filtragem
Então, um intervalo de confiança aproximado de 100 × (1 − α) para a função de densidade espectral seria da
forma
2I(ω j : n) 2I(ω j : n)
2
≤ f(ω) ≤ 2
⋅
χ 2(1 − α / 2) χ 2(α / 2)
Muitas vezes, as tendências estão presentes e devem ser eliminadas antes do cálculo do periodograma. As
tendências introduzem componentes de frequência extremamente baixa no periodograma que tendem a
obscurecer a aparência em frequências mais altas. Por esta razão, é usualmente convencional centralizar os
¯
dados antes de uma análise espectral usando dados ajustados à média da forma X t − X para eliminar o
componente zero ou d − c ou usar dados retificados da forma X t − β̂ 1 − β̂ 2t para eliminar o termo que será
considerado meio ciclo pela análise espectral. Observe que as regressões polinomiais de ordem mais alta em t
ou suavização não paramétrica (filtragem linear) podem ser usadas nos casos em que a tendência é não-
linear.
Como indicado anteriormente, muitas vezes é conveniente calcular os DFTs e, portanto, o periodograma,
usando o algoritmo da transformação rápida de Fourier (FFT). A FFT utiliza um número de redundâncias no
cálculo da DFT quando n é altamente composto; isto é, um inteiro com muitos fatores de 2, 3 ou 5, sendo o
melhor caso quando n = 2 p é um fator de 2. Detalhes podem ser encontrados em Cooley e Tukey (1965). Para
acomodar essa propriedade, podemos preencher os dados centralizados ou retificados de comprimento n até
c c c
o próximo composto altamente inteiro n ′ adicionando zeros, ou seja, definindo X n + 1 = X n + 2 = ⋯ = X n ′ = 0, onde
c
X t denota os dados centralizados. Isto significa que as ordenadas da frequência fundamental serão ω j = l / n ′
em vez de j / n. Ilustramos considerando o periodograma das séries de IOS e Recrutamento mostradas na
figura do Exemplo I.5. Lembre-se de que são séries mensais e n = 453 meses. Para encontrar n ′ em R, use o
comando nextn(453) para ver que n ′ = 480 será usado nas análises espectrais por padrão.
A figura abaixo mostra os periodogramas de cada série, onde o eixo da frequência é rotulado em
múltiplos de ∆ = 1 / 12. Como indicado anteriormente, os dados centralizados foram preenchidos com
uma série de comprimento de 480. Notamos um pico de banda estreita no óbvio ciclo anual (12 meses)
ω = 1 ∆ = 1 / 12. Além disso, há uma potência considerável em uma banda larga nas frequências mais
1
baixas, centradas no ciclo de quatro anos (48 meses) ω = 4 ∆ = 1 / 48 representando um possível efeito
El Niño. Essa atividade de banda larga sugere que o possível ciclo El Niño é irregular, mas tende
a ser em torno de quatro anos em média. Continuaremos abordando esse problema à medida que
avançamos para análises mais sofisticadas.
2 2
Observando que χ 2(0.025) = 0.05 e χ 2(0.975) = 7.38, podemos obter intervalos de confiança aproximados de
95% para as frequências de interesse. Por exemplo, o periodograma da série SOI é I SOI(1 / 12) = 0.97 no
ciclo anual. Um intervalo de confiança aproximado de 95% para o espectro f SOI(1 / 12) é então
(2
0.97
7.38
,2
0.97
0.05 ) = (0.26, 38.4),
que é muito grande para ser de muito uso. Notamos, entretanto, que o valor mais baixo de 0.26 é
maior do que qualquer outro periodograma ordenado, então é seguro dizer que este valor é
significativo. Por outro lado, um intervalo de confiança de 95% para o espectro no ciclo de quatro
anos, f SOI(1 / 48) é
(2
0.05
7.38
,2
0.05
0.05 ) = (0.01, 2.12),
que novamente é extremamente amplo e com o qual somos incapazes de estabelecer significância do
pico.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 22/72
16/02/23, 19:52 Análise espectral e filtragem
Figura IV.5: Periodograma das séries SOI e Recrutamento, n = 453 e n ′ = 480, onde o eixo da
frequência é rotulado em múltiplos de ∆ = 1 / 12. Observe os picos comuns em ω = 1 ∆ = 1 / 12
1
ou um ciclo por ano (12 meses) e alguns valores maiores próximos ω = 4 ∆ = 1 / 48 ou um
ciclo a cada quatro anos (48 meses).
Mostramos agora os comandos R que podem ser usados para reproduzir a figura acima. Para calcular e
representar graficamente o periodograma, usamos o comando mvspec disponível em astsa. Notamos que
o valor de ∆ é o recíproco do valor frequency para os dados de um objeto de série temporal. Se os
dados não são um objeto de série temporal, frequency é definida como 1. Além disso, definimos log
= "no" porque o periodograma é plotado na escala log 10 por padrão. A figura acima exibe uma largura
de banda ou bandwidth. Vamos discutir a largura de banda na próxima seção, então ignore isso por
enquanto.
> library(astsa)
> par(mfrow=c(2,1))
> soi.per = mvspec(soi, log="no")
> abline(v=1/4, lty=2)
> rec.per = mvspec(rec, log="no")
> abline(v=1/4, lty=2)
O exemplo anterior deixou claro que o periodograma como um estimador é suscetível a grandes incertezas e
precisamos encontrar uma maneira de reduzir a variância. Não surpreendentemente, este resultado segue se
considerar no Teorema IV.6 o fato de que, para qualquer n, o periodograma é baseado em apenas duas
observações. Lembre-se de que a esperança e a variância da distribuição χ 2(ν) são ν e ν 2, respectivamente.
1
Assim, usando o resultado do Teorema IV.6, temos I(ω) ∼ 2 f(ω)χ 2(2), implicando que
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 23/72
16/02/23, 19:52 Análise espectral e filtragem
Para continuar a discussão que terminou a seção anterior, introduzimos uma banda de frequência B de L ≪ n
frequências fundamentais contíguas, centradas em torno da frequência ω j = j / n, que é escolhido perto de uma
frequência de interesse ω. Para frequências da forma ω ∗ = ω j + k / n, seja
B = { ω ∗ : ωj −
m
n
≤ ω ∗ ≤ ωj +
m
n
, }
onde
L = 2m + 1
f(ω j + k / n), k = − m, ⋯, 0, ⋯, m
são aproximadamente iguais a f(ω). Essa estrutura pode ser realizada para tamanhos de amostra grandes,
conforme mostrado formalmente na Seção C.2. Os valores do espectro nesta faixa devem ser relativamente
constantes para que os espectros suavizados definidos abaixo serem bons estimadores. Por exemplo, para
ver uma pequena seção do espectro AR(2), próximo ao pico, mostrado na figura do Exemplo IV.13, use
Figura IV.6: Uma pequena seção, perto do pico, do espectro do modelo AR(2) mostrado na figura
do Exemplo IV.13.
Definimos agora o periodograma médio ou suavizado como a média dos valores do periodograma, digamos,
m
¯ 1
f(ω) = ∑ I(ω + k / n),
Lk= −m j
sobre a banda B. Sob a suposição de que a densidade espectral é razoavelmente constante na banda B, e em
vista da conclusão do Teorema IV.6 podemos mostrar que sob condições apropriadas, para n grande, o
2
periodograma tem distribuição aproximadamente como variáveis aleatórias independentes f(ω)χ 2 / 2, para
0 < ω < 1 / 2, contanto que mantenhamos L relativamente pequeno em relação a n. Este resultado é discutido
¯
formalmente na Seção C.2. Assim, sob essas condiçõs, L f(ω) é a soma de aproximadamente L variáveis
2
aleatórias independentes f(ω)χ 2 / 2. Daqui resulta que, para n grande
¯
L f(ω) 2
2 ∼ χ 2L ⋅
Processing math: 87% f(ω)
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 24/72
16/02/23, 19:52 Análise espectral e filtragem
As condições à quais fazemos referência acima, que são suficientes, são que X t seja um processo linear, como
descrito na Proposição IV.6, com ∑ j√ | j | | ψ j | < ∞ e que W t tenha quarto momento finito.
Neste cenário, onde suavizamos o periodograma pela média simples, parece razoável chamar a largura do
intervalo de frequência definido por B,
L
B= ,
n
a largura de banda ou bandwidth. Existem muitas definições de largura de banda e uma excelente discussão
pode ser encontrada em Percival and Walden (1993, §6.7). O valor de largura de banda usado em R para
spec.pgram é baseado em Grenander (1951). A ideia básica é que a largura de banda pode estar
relacionada ao desvio padrão da distribuição de ponderação. Para a distribuição uniforme na faixa de
frequência − m / n a m / n, o desvio padrão é L / n√12, usando uma correção de continuidade. Consequentemente,
¯
no caso de f(ω), o R irá reportar uma largura de banda de L / n√12, o que equivale a dividir nossa definição por
√12. Note que no caso extremo L = n, teríamos B = 1 indicando que tudo foi usado na estimação. Nesse caso,
o R relataria uma largura de banda de 1 / √12 ≈ 0.29, o que parece perder o ponto.
O conceito de largura de banda, no entanto, torna-se mais complicado com a introdução de estimadores
espectrais que suavizam com pesos desiguais. Note que a expressão acima implica que os graus de liberdade
podem ser expressos como
2L = 2Bn,
¯
L f(ω) 2
O resultado 2 ∼ χ 2L pode ser rearranjado para obter uma aproximação do intervalo de confiança com
f(ω)
100(1 − α) probabilidade de cobertura, da forma
¯ ¯
2L f(ω) 2L f(ω)
2
≤ f(ω) ≤ 2 ,
χ 2L(1 − α / 2) χ 2L(α / 2)
Muitas vezes, o impacto visual de um gráfico de densidade espectral será melhorado ao traçar o logaritmo do
espectro em vez do espectro propriamente, a transformação logarítmica é a transformação estabilizadora da
variância nesta situação. Esse fenômeno pode ocorrer quando as regiões do espectro existem com picos de
interesse muito menores do que alguns dos principais componentes de potência. Tomando logaritmos no
intervalos de confiança acima, obtemos um intervalo para o logaritmo do espectro dado por
{ }
¯ ¯
log ( f(ω) ) − a , log ( f(ω) ) + b ,
L L
onde
2 2
a = − log(2L) + log (χ 2L(1 − α / 2) ) e b = log(2L) − log (χ 2L(α / 2) )
L L
não dependem de ω.
Se forem acrescentados zeros antes de calcular os estimadores espectrais precisamos ajustar os graus de
liberdade, porque não se obtém mais informações por preenchimento, e uma aproximação é substituir 2L por
2Ln / n ′ . Assim, definimos os graus de liberdade ajustados como
2Ln
df = ⋅
n′
¯ ¯
df f(ω) df f(ω)
2
≤ f(ω) ≤ 2 ⋅
χ df(1 − α / 2) χ df(α / 2)
Várias suposições são feitas no cálculo dos intervalos de confiança aproximados acima, que podem não se
manter na prática. Nesses casos, pode ser razoável empregar técnicas de reamostragem, como um dos
bootstraps paramétricos propostos por Hurvich and Zeger (1987) ou um bootstrap não paramétrico proposto
por Paparoditis and Politis (1999). Para desenvolver as distribuições bootstrap, assumimos que as
Processing math: 87%
transformadas discretas de Fourier contíguas em uma banda de frequências vieram todas de uma série
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 25/72
16/02/23, 19:52 Análise espectral e filtragem
temporal com espectro idêntico f(ω). Isso, na verdade, é exatamente a mesma suposição feita ao derivar a
teoria de grandes amostras. Podemos, então, simplesmente re-amostrar as L transformadas diiscretas de
Fourier na banda, com a substituição, calculando uma estimativa espectral de cada amostra de bootstrap. A
distribuição amostral dos estimadores bootstrap aproxima a distribuição do estimador espectral não
paramétrico. Para mais detalhes, incluindo as propriedades teóricas de tais estimadores, ver Paparoditis and
Politis (1999).
Antes de prosseguir, consideramos o cálculo dos periodogramas médios para as séries SOI e Recrutamento.
Geralmente, é uma boa idéia tentar várias larguras de banda que parecem ser compatíveis com a
forma geral geral do espectro, conforme sugerido pelo periodograma. Discutiremos esse problema com
mais detalhes após o exemplo. Os periodogramas das séries SOI e Recrutamento, previamente
calculados no gráfico do Exemplo IV.13, sugerem que a potência na frequência mais baixa do El Niño
precisa de suavização para identificar o período geral predominante. A tentativa de valores de L
leva à escolha L = 9 como um valor razoável, e o resultado é exibido na figura abaixo.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 26/72
16/02/23, 19:52 Análise espectral e filtragem
Figura IV.7: Periodograma médio da série SOI e Recrutamento n = 453, n ′ = 480, L = 9, df = 17,
1
mostrando picos comuns no período de quatro anos, ω = 4 Δ = 1 / 48 ciclos/mês, o período
anual, ω = 1Δ = 1 / 12 ciclos/mês e alguns de seus harmônicos ω = kΔ para k = 2, 3.
Os espectros suavizados mostrados fornecem um meio-termo razoável entre a versão ruidosa, mostrada
na Figura IV.5 e um espectro mais suavizado, que pode perder alguns dos picos. Um efeito
indesejável da média pode ser observado no ciclo anual ω = 1Δ, onde os picos de banda estreita que
apareceram nos periodogramas na Figura IV.5 foram achatados e espalhados para frequências
proacute;ximas. Também notamos e marcamos o aparecimento de harmônicos do ciclo anual, isto é,
frequências da forma ω = kΔ para k = 1, 2, ⋯. Os harmônicos normalmente ocorrem quando um componente
não sinusoidal periódico está presente; veja o Exemplo IV.15.
> library(astsa)
> soi.ave = mvspec(soi, kernel('daniell',4), log='no')
> abline(v=c(.25,1,2,3), lty=2)
> soi.ave$bandwidth
[1] 0.225
> rec.ave = mvspec(rec, kernel('daniell',4), log='no')
> abline(v=c(.25,1,2,3), lty=2)
> rec.ave$bandwidth
[1] 0.225
Para calcular periodogramas médios, use o kernel de Daniell e especifique m, onde L = 2m + 1 logo,
L = 9 e m = 4 neste exemplo). Explicaremos o conceito de kernel posteriormente nesta seção,
especificamente antes do Exemplo IV.16.
A largura de banda exibida 0.225 é ajustada para o fato de que a escala de frequência do gráfico é
em termos de ciclos por ano em vez de ciclos por mês. Usando que B = L / n, a largura de banda em
termos de meses é 9 / 480 = 0.01875; o valor exibido é simplesmente convertido em anos:
0.01875 × 12 = 0.225.
Os graus de liberdade ajustados são df = 2(9)(453) / 480 ≈ 17. Podemos usar este valor para os intervalos
2 2
de confiança de 95%, com χ df(0.025) = 7.56 e χ df(0.975) = 30.17. Substituindo na expressão do intervalo de
confiança fornece os intervalos na Tabela IV.1 para as duas bandas de frequência identificadas
como tendo a potência máxima.
Para examinar as duas possibilidades de potência de pico, podemos olhar para os intervalos de
confiança de 95% e ver se os limites inferiores são substancialmente maiores do que os níveis
espectrais de linha de base adjacentes.
Por exemplo, a frequência do El Niño de 48 meses tem limites inferiores que excedem os valores que
Processing math: 87%
o espectro teria se houvesse simplesmente uma função espectral subjacente suave sem os picos. A
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 27/72
16/02/23, 19:52 Análise espectral e filtragem
distribuição relativa de potência nas frequências é diferente, com o SOI tendo menos potência na
frequência mais baixa, em relação aos períodos sazonais e a série Recrutamento tendo mais potência
na frequência mais baixa ou El Niño.
As entradas na Tabela IV.1 para SOI e REC podem ser obtidas no R da seguinte forma:
> df = soi.ave$df; df
[1] 16.9875
> U = qchisq(.025, df); U
[1] 7.555916
> L = qchisq(.975, df); L
[1] 30.17425
> soi.ave$spec[10]
[1] 0.04952026
> soi.ave$spec[40]
[1] 0.11908
> # intervalos
> df*soi.ave$spec[10]/L
[1] 0.02787891
> df*soi.ave$spec[10]/U
[1] 0.1113333
> df*soi.ave$spec[40]/L
[1] 0.06703963
> df*soi.ave$spec[40]/U
[1] 0.2677201
> df = rec.ave$df; df
[1] 16.9875
> U = qchisq(.025, df); U
[1] 7.555916
> L = qchisq(.975, df); L
[1] 30.17425
> rec.ave$spec[10]
[1] 658.9607
> rec.ave$spec[40]
[1] 219.3919
> # intervalos
> df*rec.ave$spec[10]/L
[1] 370.9816
> df*rec.ave$spec[10]/U
[1] 1481.501
> df*rec.ave$spec[40]/L
[1] 123.5133
> df*rec.ave$spec[40]/U
[1] 493.2453
Finalmente, a Figura IV.8 mostra os periodogramas médios na Figura IV.7 plotados em uma escala
log 10. Isto pode ser obtido colocando a instrução log = "y". Observe que o gráfico padrão também
mostra um intervalo de confiança genérico. Notamos que exibir as estimativas em uma escala
logarítmica tende a enfatizar os componentes harmônicos.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 28/72
16/02/23, 19:52 Análise espectral e filtragem
Figura IV.8: Figura IV.7 com as ordenadas do periodograma médio plotadas em uma escala
log 10. A tela no canto superior direito representa um intervalo de confiança genérico de
95%, onde o a marca de escala do meio é a largura da largura de banda.
No exemplo anterior, vimos que os espectros dos sinais anuais exibiam picos menores nos
harmônicos; ou seja, o espectro do sinal teve um grande pico em ω = 1Δ = 1 / 12 ciclos/mês o ciclo de
Processing math: 87%
um ano e picos menores em seus harmônicos ω = kΔ para k = 2, 3, ⋯, dois, três e assim por diante,
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 29/72
16/02/23, 19:52 Análise espectral e filtragem
ciclos por ano. Geralmente, esse será o caso porque a maioria dos sinais não são sinusóides
perfeitos ou perfeitamente cíclicos. Nesse caso, os harmônicos são necessários para capturar o
comportamento não senoidal do sinal. Como exemplo, considere o sinal formado na Figura IV.9 a
partir de uma sinusóide, fundamental, oscilando em dois ciclos por unidade de tempo junto com o
segundo ao sexto harmônico em amplitudes decrescentes. Em particular, o sinal foi formado como
X t = sin(2π 2t) + 0.5sin(2π 4t) + 0.4sin(2π 6t) + 0.3sin(2π 8t) + 0.2sin(2π 10t) + 0.1sin(2π 12t),
para 0 ≤ t ≤ 1. Observe que o sinal não é sinusoidal na aparência e aumenta rapidamente, em seguida,
diminui lentamente.
> library(astsa)
> t = seq(0, 1, by=1/200)
> amps = c(1, .5, .4, .3, .2, .1)
> x = matrix(0, 201, 6)
> for (j in 1:6){ x[,j] = amps[j]*sin(2*pi*t*2*j) }
> x = ts(cbind(x, rowSums(x)), start=0, deltat=1/200)
> par(mfrow=c(1,1), mar=c(3,3,1,1), mgp=c(1.6,.6,0))
> ts.plot(x, lty=c(1:6, 1), lwd=c(rep(1,6), 2), ylab="Sinusoids", col = 1:7)
> names = c("Fundamental","2nd Harmonic","3rd Harmonic","4th Harmonic", "5th
Harmonic", "6th Harmonic", "Formed Signal")
> legend("top", names, xpd = TRUE, horiz = FALSE, lty=c(1:6, 1), lwd=c(rep(1,6), 2),
col = 1:7, inset = c(1.4, 0), bty = "n", pch = c(4, 2, 15, 19), ncol = 2)
> grid()
Figura IV.9: Um sinal (linha sólida espessa) formado por uma senoide fundamental (linha
sólida fina) oscilando a dois ciclos por unidade de tempo e seus harmônicos conforme
especificado acima.
O Exemplo IV.14 aponta a necessidade de se ter algum procedimento relativamente sistemático para decidir
se os picos são significativos. A questão de decidir se um único pico é significativo geralmente repousa em
estabelecer o que poderíamos pensar como um nível de linha de base para o espectro, definido vagamente
como a forma que se esperaria ver se nenhum pico espectral estivesse presente. Geralmente, esse perfil
pode ser adivinhado observando-se a forma geral do espectro que inclui os picos; normalmente, um tipo de
nível de linha de base será aparente, com os picos parecendo emergir desse nível de linha de base. Se o
limite de confiança inferior para o valor espectral ainda for maior do que o nível da linha de base em algum
nível predeterminado de significância, podemos reivindicar esse valor de frequência como um pico
estatisticamente significativo. Para ser consistente com nossa indiferença declarada aos limites superiores,
podemos
Processing math: 87% usar um intervalo de confiança unilateral.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 30/72
16/02/23, 19:52 Análise espectral e filtragem
Por esta razão, é desejável definir o nível de significância para testar cada frequência em K se houver K
frequências potenciais de interesse. Se, a priori, potencialmente K = 10 frequências forem de interesse, definir
α = 0.01 daria um nível de significância geral do limite de 0.10.
O uso dos intervalos de confiança e a necessidade de suavização requerem que tomemos uma decisão sobre
a largura de banda B na qual o espectro será essencialmente constante. Usar uma banda muito ampla
tenderá a suavizar os picos válidos nos dados quando a suposição de variância constante não for atendida ao
longo da banda. Usar uma banda muito estreita levará a intervalos de confiança tão amplos que os picos não
serão mais estatisticamente significativos. Assim, notamos que há um conflito aqui entre propriedades de
variância ou estabilidade de largura de banda, que pode ser melhorada aumentando ou diminuindo B. Uma
abordagem comum é tentar várias larguras de banda diferentes e olhar qualitativamente nos estimadores
espectrais para cada caso.
Para tratar do problema de resolução da largura de banda, deve ser evidente que o achatamento dos picos na
¯
Figura IV.7 e na Figura IV.8 foi devido ao fato de que a média simples foi usada no cálculo de f(ω). Não há
nenhuma razão particular para usar a média simples e podemos melhorar o estimador empregando uma
média ponderada, digamos
Em particular, parece razoável que a resolução do estimador melhore se usarmos pesos que diminuem à
medida que a distância do peso central h 0 aumenta; voltaremos a essa ideia em breve. Para obter o
¯
periodograma médio f(ω), defina h k = L − 1, para todo k, onde L = 2m + 1. A teoria assintótica estabelecida para
¯
f(ω) ainda é válida para f̃(ω) desde que os pesos satisfaçam a condição adicional de que se m → ∞ quando
n → ∞ mas m / n → 0, então
∑ 2
hk → 0 ⋅
k= −m
{
f 2(ω), quando ω = λ ≠ 0, 1 / 2
1
(ii)
∑m 2 (
Cov f̂(ω), f̂(λ) ) → 0, quando ω≠λ .
k = − mh k 2
2f (ω), quando ω = λ = 0 ou 1 / 2
¯
Já vimos esses resultados no caso de f(ω), onde os pesos são constantes, h k = L − 1, caso em que
m 2
∑ k = − mh k = L − 1. As propriedades de distribuição de f̂(ω) são mais difíceis agora porque este estimador é uma
combinação linear ponderada de variáveis aleatórias χ 2 assintoticamente independentes.
( )
m −1
Uma aproximação que parece funcionar bem é substituir L por ∑ h 2k . Ou seja, defina
k= −m
( )
m −1
Lh = ∑ 2
hk
k= −m
Processing math: 87%
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 31/72
16/02/23, 19:52 Análise espectral e filtragem
2
e use a seguinte aproximação: se f̂ ∼ cχ ν , onde c é uma constante, então
2L hf̂(ω)
2
≈ χ 2L ⋅
f(ω) h
Lh
B = ⋅
n
Utilizando a aproximação anterior, obtemos um intervalo de confiança aproximado de 100(1 − α)% da forma
2L hf̂(ω) 2L hf̂(ω)
2
≤ f(ω) ≤ 2
χ 2L (1 − α / 2) χ 2L (α / 2)
h h
para o espectro verdadeiro f(ω). Se os dados forem preenchidos com n ′ , então substitua 2L h acima por
df = 2L hn / n ′ .
Uma maneira fácil de gerar os pesos em R é pelo uso repetido do kernel Daniell. Por exemplo, com m = 1 e
1 1 1
L = 2m + 1 = 3, o kernel Daniell tem pesos {h k} = { 3 , 3 , 3 }; aplicando este kernel a uma sequência de números
{u t}, produz
1 1 1
û t = u + u + u ⋅
3 t−1 3 t 3 t+1
1 1 1
ûˆ t = û t − 1 + û t + û t + 1,
3 3 3
1 2 3 2 1
ûˆ t = u t − 2 + u t − 1 + u t + u t + 1 + u t + 2 ⋅
9 9 9 9 9
1 2 1
O kernel Daniell modificado coloca meio peso nos pontos finais, então com m = 1 os pesos são {h k} = {4, 4, 4 }
e
1 2 1
û t = u + u + u ⋅
4 t−1 4 t 4 t+1
1 4 6 4 1
ûˆ t = ut − 2 + ut − 1 + ut + ut + 1 + u ⋅
16 16 16 16 16 t + 2
Esses coeficientes podem ser obtidos em R emitindo o comando kernel. Por exemplo,
produziria os coeficientes do último exemplo. Outros kernels que estão atualmente disponíveis no R são o
kernel Dirichlet e o kernel Fejér, que discutiremos em breve.
É interessante notar que esses pesos do kernel formam uma distribuição de probabilidade. Se X e Y são
1
uniformes discretos independentes nos inteiros { − 1, 0, 1}, cada com probabilidade 3 , então a convolução X + Y
1 2 3 2 1
é discreta nos inteiros { − 2, − 1, 0, 1, 2} com as probabilidades correspondentes { 9 , 9 , 9 , 9 , 9 }.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 32/72
16/02/23, 19:52 Análise espectral e filtragem
Neste exemplo, estimamos os espectros das séries SOI e Recrutamento usando a estimativa do
periodograma suavizado em f̂(ω). Usamos um kernel Daniell modificado duas vezes, com m = 3 nas duas
m
Nesse caso, a largura de banda é B = 9.232 / 480 = 0.019 e os graus de liberdade modificados são
df = 2L h453 / 480 = 17.43.
> library(astsa)
> kernel("modified.daniell", c(3,3))
mDaniell(3,3)
coef[-6] = 0.006944
coef[-5] = 0.027778
coef[-4] = 0.055556
coef[-3] = 0.083333
coef[-2] = 0.111111
coef[-1] = 0.138889
coef[ 0] = 0.152778
coef[ 1] = 0.138889
coef[ 2] = 0.111111
coef[ 3] = 0.083333
coef[ 4] = 0.055556
coef[ 5] = 0.027778
coef[ 6] = 0.006944
> plot(kernel("modified.daniell", c(3,3)))
> grid()
As estimativas espectrais resultantes podem ser vistas na Figura IV.10 e notamos que as
estimativas são mais atraentes do que as da Figura IV.7. A Figura IV.10 foi gerada em R como
segue; também mostramos como obter a largura de banda associada e os graus de liberdade.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 33/72
16/02/23, 19:52 Análise espectral e filtragem
> abline(v=c(.25,1), lty=2)
> df = rec.smo$df; df
[1] 15.61029
> rec.smo$bandwidth # B = 0.2308103
[1] 0.2308103
> mtext("1/4", side=1, at=1/4)
Figura IV.10: Estimativas espectrais suavizadas (afiladas) das séries SOI e Recrutamento;
consulte o Exemplo IV.16 para obter detalhes.
Observe que uma redução gradual foi aplicada no processo de estima¸ão; discutiremos a redução
gradual na próxima parte. A reemissão dos comandos mvspec com log="no" removido resultará em uma
figura semelhante à Figura IV.8. Finalmente, mencionamos que o kernel de Daniell modificado é
usado por padrão e uma maneira mais fácil de obter soi.smo é emitir o comando:
Tem havido muitas tentativas de lidar com o problema de alisar o periodograma de maneira automática; uma
Processing math: 87%
referência anterior é Wahba (1980). Fica evidente a partir do Exemplo IV.16 que a largura de banda de
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 34/72
16/02/23, 19:52 Análise espectral e filtragem
suavização para o comportamento do El Niño de banda larga (perto do ciclo de 4 anos), deve ser muito maior
do que a largura de banda para o ciclo anual (o ciclo de 1 ano). Consequentemente, talvez seja melhor
realizar a suavização adaptativa automática para estimar o espectro. Referimos os leitores interessados a Fan
and Kreutzberger (1998) e as inúmeras referências contidas nele.
Agora estamos prontos para introduzir o conceito de redução gradual (tapering); uma discussão mais
detalhada pode ser encontrada em Bloomfield (2000). Suponha que X t seja um processo estacionário de méia
zero com densidade espectral f (ω). Se substituírmos a série original pela série reduzida
X
Y t = h tX t,
n
1
d (ω j) = ∑ h tX te − 2π iω jt
Y nt=1
E(I (ω j)) =
Y ∫ 2− 1 W n(ω j − ω)f X(ω)dω,
2
onde
W n(ω) = | H n(ω) | 2
n
1
H n(ω) = ∑ h te − 2π iωt ⋅
√n t = 1
O valor W n(ω) é denominado janela espectral porque ele determina qual parte da densidade espectral f (ω)
X
está sendo vista pelo estimador I (ω j) em média. No caso em que h t = 1 para todo t, I (ω j) = I (ω j) é
Y Y X
sin 2(nπω)
W n(ω) = ,
nsin 2(πω)
com W n(0) = n, que é conhecido como kernel de Fejér ou kernel Bartlett modificado.
m
¯ 1
f (ω) =
X Lk= −m
∑ I (ω j + k / n),
X
m
1 sin 2 (nπ(ω + k / n) )
W n(ω) = ∑
nL k = − m sin 2 (π(ω + k / n) )
⋅
Os cones geralmente têm uma forma que realça o centro dos dados em relação às extremidades, como um
sino cosseno da forma
( ( ))
¯
2π(t − t)
h t = 0.5 1 + cos ,
n
¯
onde t = (n + 1) / 2, preferido por Blackman and Tukey (1959). A forma desse cone é mostrada na inserção da
Figura IV.12.
Na Figura IV.11, traçamos as formas de duas janelas W n(ω), para n = 480 e L = 9, quando
Processing math: 87%
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 35/72
16/02/23, 19:52 Análise espectral e filtragem
m 2
1 sin (nπ(ω + k / n) )
(i) h t = 1, caso em que W n(ω) = ∑
nL k = − m sin 2 (π(ω + k / n) )
se aplica, e
( ( ))
¯
2π(t − t)
(ii) h t é o afilamento do cosseno em h t = 0.5 1 + cos .
n
Em ambos os casos, a largura de banda prevista deve ser B = 9 / 480 = 0.01875 ciclos por ponto, o que
corresponde à “largura” das janelas mostradas na Figura IV.11. Ambas as janelas produzem um espectro
médio integrado sobre esta banda, mas a janela afunilada nos painéis superiores mostra ondulações
consideráveissobre a banda e fora da banda.
As ondulações fora da banda são chamadas de lóbulos laterais e tendem a introduzir frequências de fora do
intervalo que podem contaminar a estimativa espectral desejada dentro da banda. Por exemplo, uma grande
faixa dinâmica para os valores no espectro introduz espectros em intervalos de frequência contíguos várias
ordens de magnitude maiores do que o valor no intervalo de interesse. Esse efeito às vezes é chamado de
vazamento. A Figura IV.11 enfatiza a supressão dos lóbulos laterais no kernel de Fejér quando uma
conicidade cosseno é usada.
Figura IV.11: Janela Fejér média (linha superior) e a janela cosseno cônica correspondente (linha
inferior) para L = 9; n = 480. As marcas de tiques extras no eixo horizontal dos gráficos à esquerda
exibem a largura de banda prevista, B = 9 / 480 = 0.01875.
As estimativas no Exemplo IV.16 foram obtidas diminuindo os 10% superior e inferior dos dados.
Neste exemplo, examinamos o efeito do tapering na estimativa do espectro da série SOI, os
resultados para a série de Recrutamento são semelhantes. A Figura IV.12 mostra duas estimativas
espectrais mostradas em uma escala logarítmica. A linha tracejada na Figura IV.12 mostra a
estimativa sem qualquer redução. A linha sólida mostra o resultado com afilamento total. Observe
que o espectro cônico faz um trabalho melhor em separar o ciclo anual ω = 1 e o ciclo El Niño
ω = 1 / 4.
A seguinte sessão R foi usada para gerar a Figura IV.12. Observamos que, por padrão, o mvspec não
faz a redução gradual. Para a gerarmos a redução gradual completa, usamos o argumento taper = 0.5
na instrução mvspec para diminuir 50% de cada extremidade dos dados; qualquer valor entre 0 e 0.5
é aceitável.
Processing math: 87% > s50 = mvspec(soi, spans=c(7,7), taper=.5, plot=FALSE) # full taper
> par(mfrow=c(1,1), mar=c(3,3,1,1), mgp=c(1.6,.6,0))
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 36/72
16/02/23, 19:52 Análise espectral e filtragem
> plot(s50$freq, s50$spec, log="y", type="l", ylab="spectrum",
+ xlab="frequency") # solid line
> lines(s0$freq, s0$spec, lty=2) # dashed line
> abline(v=1/4, lty=2, lwd=2)
> mtext("1/4", side=1, at=1/4)
> arrows(1.5,0.045,0.78,0.009, length = 0.1, col = "red", lwd = 2)
> arrows(1.5,0.045,1.23,0.007, length = 0.1, col = "red", lwd = 2)
> text(1.5,0.05, labels = "vazamento")
> grid()
> par(fig = c(.65, 1, .65, 1), new = TRUE) # the insert
> x = seq(-0.5,0.5,by=1/200)
> ht = 0.5*(1+cos(2*pi*(x-mean(x))/n))
Figura IV.12: Estimativas espectrais suavizadas do SOI sem afilamento (linha tracejada) e
com afilamento total (linha contínua); veja o Exemplo IV.17. A inserção mostra uma
¯
conicidade completa em sino, com eixo horizontal (t − t) / n, para t = 1, ⋯, n.
Encerramos esta seção com uma breve discussão sobre os estimadores da janela de latência. Primeiro,
considere o periodograma I(ω j), que foi mostrado acima como sendo
I(ω j) = ∑ γ̂(h)e − 2π iω jh ⋅
|h| <n
onde
g(h / n) = ∑ h ke − 2π ikh / n ⋅
|h| ≤m
(i) w(0) = 1.
Processing math: 87% (b) | w(x) | ≤ 1 e w(x) = 0 para | x | > 1.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 37/72
16/02/23, 19:52 Análise espectral e filtragem
Observe que se w(x) = 1 para | x | < 1 e r = n, então f̃(ω j) = I(ω j), o periodograma. Este resultado indica que o
problema com o periodograma como um estimador da densidade espectral é que ele dá muito peso aos
valores de γ̂(h) quando h é grande e, portanto, não é confiável, por exemplo, há apenas um par de
observações usados para estimar γ̂(n − 1), e assim por diante. A janela de suavização é definida sendo
e determina qual parte do periodograma será usado para formar a estimativa de f(ω).
A teoria assintótica para f̂(ω) é válida para f̃(ω) nas mesmas condições e desde que r → ∞ quando n → ∞ mas
com r / n → 0. Ou seja,
E (f̃(ω) ) → f(ω),
n 1
Cov (f̃(ω), f̃(λ) ) → f 2(ω)∫ − 1w 2(x)dx, ω = λ ≠ 0, 1 / 2 ⋅
r
Muitos autores desenvolveram várias janelas e Brillinger (2001) e Brockwell and Davis (1991) são boas
fontes de informações detalhadas sobre este tópico.
Os métodos da seção anterior levam ao que é geralmente referido como estimadores espectrais não
paramétricos porque nenhuma suposição é feita sobre os parâmetros de forma da densidade espectral. No
Teorema IV.4, exibimos o espectro de um processo ARMA e podemos considerar basear um estimador
espectral nesta função, substituindo as estimativas dos parâmetros de um ARMA(p, q) ajustado nos dados na
fórmula para a densidade espectral f (ω) dada no Teorema IV.4.
X
Esse estimador é chamado de estimador paramétrico espectral. Por conveniência, um estimador espectral
paramétrico é obtido ajustando um modelo AR(p) aos dados, onde a ordem p é determinada por um dos
critérios de seleção, como AIC, AICc e BIC, definidos anteriormente. Estimadores espectrais paramétricos
autoregressivos muitas vezes têm resolução superior em problemas quando vários picos espectrais estreitos
e próximos estão presentes e são preferidos por engenheiros para uma ampla variedade de problemas (ver
Kay, 1988). O desenvolvimento de estimadores espectrais autorregressivos foram resumidos por Parzen
(1983).
2
Sejam ϕ̂ 1, ϕ̂ 2, ⋯, ϕ̂ p e σ̂ os estimadores do modelo AR(p) ajustado à X t, então segundo o Teorema IV.4, uma
W
estimativa espectral paramétrica de f (ω) é obtida substituindo essas estimativas na expressão do teorema
X
mencionado, ou seja,
2
σ̂
W
f̂ (ω) = ,
X
| ϕ̂(e − 2πiω) | 2
onde
ϕ̂(z) = 1 − ϕ̂ 1z − ϕ̂ 2z 2 − ⋯ − ϕ̂ pz p ⋅
A distribuição assintótica do estimador espectral autoregressivo foi obtida por Berk (1974) nas condições
p → ∞, p 3 / n → 0 quando p, n → ∞, que pode ser muito grave para a maioria das aplica¸ões. Os resultados
limites implicam em um intervalo de confiança da forma
f̂ (ω) f̂ (ω)
X X
≤ f (ω) ≤ ,
(1 + Cz α / 2 ) X
(1 − Cz α / 2 )
onde C = √2p / n e z α / 2 é o quantil α / 2 superior da distribuição normal padrão.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 38/72
16/02/23, 19:52 Análise espectral e filtragem
Se a distribuição amostral deve ser verificada, sugerimos a aplicação do estimador bootstrap para obter a
distribuição amostral de f̂ (ω) usando um procedimento semelhante ao usado para p = 1 no Exemplo III.36.
X
Uma alternativa para séries autoregressivas de ordem superior é colocar o modelo AR(p) na forma de espaço
de estado e usar o procedimento de bootstrap discutido na Seção VI.7.
Um fato interessante sobre os espectros racionais da forma descritos no Teorema IV.4 é que qualquer
densidade espectral pode ser aproximada, arbitrariamente próxima, pelo espectro de um processo AR.
Seja g(ω) a densidade espectral de um processo estacionário. Então, dado ϵ > 0, há uma série temporal
com a representação
Xt = ∑ ϕ kX t − k + W t,
k=1
2
onde W t é um ruído branco com variância σ , tal que,
W
Demonstração
1 1
Se g(ω) = 0, então p = 0 e σ = 0. Quando g(ω) > 0 sobre alguns ω ∈
W
( − 2 , 2 ), seja ϵ > 0 e definamos
d(ω) =
{ g − 1(ω) caso
2/ϵ caso
g(ω) > ϵ / 2,
g(ω) ≤ ϵ / 2,
de modo que d − 1(ω) = max {g(ω), ϵ / 2}. Definamos G = max ω{g(ω)} e seja 0 < δ < ϵ (G(2G + ϵ) ) − 1.
Definamos a soma S n (d(ω) ) = ∑ < d, e j > e j(ω) onde e j(ω) = e 2π i jω e < d, e j >= ∫ 2− 1 d(ω)e − 2π i jωdω. Agora definimos
|j| ≤n 2
a soma Cesaro
m−1
1
C m(ω) = ∑ S (d(ω) ),
m n=0 n
|j|
que é uma média cumulativa de S n( ⋅ ). Nesse caso C m(ω) = ∑ c je − 2π i jω onde c j = (1 − m ) < d, e j > . A soma
|j| ≤m
1 1
Cesaro converge uniformemente em ( − 2 , 2 ) para d ∈ L 2, consequentemente, existe um p finito tal que
|∑
|j| ≤p
|
c je − 2π i jω − d(ω) < δ para todo ω∈
1 1
( − 2, 2 ) ⋅
Observe que C p(ω) é uma densidade espectral. Na verdade, é a densidade espectral de um processo MA(p)
com γ(h) = c h para | h | ≤ p e γ(h) = 0 para | h | > p; pode-se verificar que γ(h) definido desta forma é definido não
negativo. Portanto, é um processo MA(p) invertível, digamos
Y t = U t + α 1U t − 1 + ⋯ + α pU t − p,
2
onde U t ∼ N n(0, σ ) e α(z) tem raízes fora do círculo unitário. Por isso,
U
C p(ω) = ∑ c je − 2π i jω = σ 2 | α(e − 2π i ω) | 2
U
|j| ≤p
| 2
|
σ | α(e − 2π i ω) | 2 − d(ω) < δ < ϵ (G(2G + ϵ) ) − 1 = ϵ ∗ ⋅
U
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 39/72
16/02/23, 19:52 Análise espectral e filtragem
2 − 2π i ω 2 −1
Definamos agora f (ω) = (σ | α(e )| ) . Mostraremos que | f (ω) − g(ω) | < ϵ, caso em que o resultado segue
X U X
2 −2
com α 1, ⋯, α p sendo estes os coeficientes AR(p) exigidos e σ = σ sendo a variância do ruído. Considere que
W U
Também
| f (ω) − d − 1(ω) |
X
= | 2
σ | α(e − 2π i ω) | − 2 − d − 1(ω)
W |
= | σ
−2
W | |
2
| α(e − 2π i ω) | 2 − d(ω) × σ | α(e − 2π i ω) | − 2 − d − 1(ω)
W |
2
< δσ | α(e − 2π i ω) | − 2G ⋅
W
Mas
−2
ϵ ∗ − d(ω) < σ | α(e − 2π i ω) | 2 < ϵ ∗ + d(ω),
W
de maneira que
1 1 1
σ 2 | α(e − 2π i ω) | − 2 < < −1
= = G + ϵ/2 ⋅
W ∗
ϵ − d(ω) ϵ −G∗
ϵ (G(2G + ϵ) ) − 1 − G − 1
Finalmente,
Uma desvantagem desta propriedade é que ela não nos diz quão grande p deve ser antes que a aproximação
seja razoável; em algumas situações, p pode ser extremamente grande. Este teorema permance válido para
processos MA e ARMA. Mostramos a técnica no exemplo a seguir.
Podemos ver na Figura IV.13 que o BIC é muito preciso sobre o modelo que escolhe; ou seja, o BIC
mínimo é muito distinto. Por outro lado, não está claro o que vai acontecer com a AIC; ou seja, o
mínimo não é tão claro e há alguma preocupação de que o AIC comece a diminuir após p = 30. O AICc
mínimo seleciona o modelo p = 15, mas sofre da mesma incerteza que o AIC.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 40/72
16/02/23, 19:52 Análise espectral e filtragem
Figura IV.13: Critérios de seleção de modelos AIC e BIC em função da ordem p para modelos
autorregressivos ajustados à série SOI.
No R, o comando spec.ar pode ser usado para ajustar o melhor modelo via AIC e mostrar o espectro
resultante. Uma maneira rápida de obter os valores AIC é executar o comando ar da seguinte
maneira:
> library(astsa)
> (soi.ar = ar(soi, order.max=30)) # estimates and AICs
Call:
ar(x = soi, order.max = 30)
Coefficients:
1 2 3 4 5 6 7 8 9 10 11 12 13
0.4237 0.0803 0.1411 0.0750 -0.0446 -0.0816 -0.0686 -0.0640 0.0159 0.1099 0.1656 0.1482 0.0231
14 15
-0.1814 -0.1406
O espectro é mostrado na Figura IV.14, e notamos os fortes picos próximos aos ciclos de quatro e
um ano, como nas estimativas não paramétricas obtidas na Seção IV.4. Além disso, as harmônicas do
período anual são evidentes no espectro estimado.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 41/72
16/02/23, 19:52 Análise espectral e filtragem
Figura IV.14: Estimador espectral autoregressivo para a série SOI usando o modelo AR(15)
selecionado por AIC, AICc e BIC.
Finalmente, deve ser mencionado que qualquer espectro paramétrico f(ω; θ), dependendo do vetor de
parâmetros pode ser estimado através da verossimilhaça de Whittle (Whittle, 1961), usando as propriedades
aproximadas da transformada discreta de Fourier derivadas no Apêndice C.
Temos que as transformadas discretas de Fourier d(ω j), são aproximadamente complexas normalmente
distribuídas com média zero e variância f(ω j; θ) e são aproximadamente independentes para ω j ≠ ω k. Isso
implica que a log-verossimilhança aproximada pode ser escrita na forma
ln (L(x; θ) ) ≈ − ∑
0 < ωj < 1 / 2(ln (f (ω j; θ) ) +
X f (ω j; θ)
X
)
| d(ω j) | 2
,
onde a soma às vezes é expandida para incluir as frequências ω j = 0, 1 / 2. Se a forma com as duas frequências
adicionais for usada, o multiplicador da soma será a unidade, exceto para os pontos puramente reais em
ω j = 0, 1 / 2 para o qual o multiplicador é 1/2.
Para uma discussão sobre a aplicação da aproximação de Whittle ao problema de estimar parâmetros em um
espectro ARMA, consulte Anderson (1978). A verossimilhança de Whittle é especialmente útil para ajustar
modelos de memória longa que serão discutidos no Capíítulo V.
A noção de analisar flutuações de frequência usando idéias estatísticas clássicas se estende ao caso em que
existem várias séries estacionárias conjuntamente, por exemplo, X t e Y t.
Nesse caso, podemos introduzir a ideia de uma correlação indexada por frequência, chamada de coerência.
Os resultados na Seção C.2 implicam que a função de covariância
tem a representação
1
γ (h) =
XY ∫ 2− 1 f XY(ω)e 2π i ωhdω h = 0, ± 1, ± 2, ⋯,
2
f (ω) =
XY
∑ γ (h)e − 2π i ωh,
XY
− 1 / 2 ≤ ω ≤ 1 / 2,
h= −∞
assumindo que a função de covariância cruzada é absolutamente somatável, como foi o caso da
autocovariância.
O espectro cruzado é geralmente uma função de valor complexo e muitas vezes é escrito como
onde
c (ω) =
XY
∑ γ (h)cos (2πωh )
XY
h= −∞
q (ω) =
XY
∑ γ (h)sin (2πωh )
XY
h= −∞
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 42/72
16/02/23, 19:52 Análise espectral e filtragem
f (ω) =
XY
∑ γ (h)e − 2π i ωh,
XY
− 1 / 2 ≤ ω ≤ 1 / 2,
h= −∞
e reorganizando, que
∗
f (ω) = f (ω),
YX XY
com ∗ denotando conjugação. Este resultado, por sua vez, implica que o cospectro e o quadspectrum
satisfazem
c (ω) = c (ω)
YX XY
q (ω) = − q (ω) ⋅
YX XY
Um exemplo importante da aplicação do espectro cruzado é o problema de prever uma série de saída Y t de
alguma série de entrada X t por meio de uma relação de filtro linear, como a média móvel de três pontos
considerada abaixo.
Uma medida da força de tal relação é a função de coerência ao quadrado, definida como
| f (ω) | 2
2 YX
ρ (ω) = ,
YX f (ω)f (ω)
XX YY
Embora consideremos uma forma mais geral disso que se aplica a várias entradas posteriormente, é
instrutivo exibir o caso de entrada única para enfatizar a analogia com a correlação quadrática convencional,
que assume a forma
2
σ
2 YX
ρ = 2 2
,
YX σ σ
XX YY
2 2
para variáveis aleatórias com variâncias σ e σ e covariância σ = σ . Isso motiva a interpretação da
X Y YX XY
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 43/72
16/02/23, 19:52 Análise espectral e filtragem
Como um exemplo simples, calculamos o espectro cruzado entre X t e a média móvel de três pontos
1
Y t = 3 (X t − 1 + X t + X t + 1), onde X t é um processo de entrada estacionário com densidade espectral f (ω).
XX
Primeiro,
1
γ (h) = Cov (X t + h, Y t ) = Cov (X t + h , X t − 1 + X t + X t + 1 )
XY 3
1
=
3 (γ XY
(h + 1) + γ (h) + γ (h + 1)
XY XY
)
1
1
3∫ − (
= 2
1 e
2π i ω
+ 1 + e − 2π i ω )e 2π i ωhf (ω)dω
XX
2
1
1
+ 2cos(2πω))f (ω)e 2π i ωhdω,
3∫ − 2
2
= 1 (1
XX
1
f (ω) = (1 + 2cos(2πω))f (ω),
XY 3 XX
de modo que o espectro cruzado é real neste caso. Usando o Teorema IV.3, a densidade espectral de
Yt é
1 2π i ω 1
f (ω) =
YY 9 |
e
2
XX 9 |
+ 1 + e − 2π i ω f (ω) = |1 + 2cos (2πω )| 2f (ω) ⋅
XX
ρ
2
=
|(
1
3
1 + 2cos (2πω ) f (ω) ) XX | 2
= 1;
1
YX
(
f (ω) 9 1 + 2cos (2πω ) 2f (ω)
XX XX
)
isto é, a coerência quadrada entre X t e Y t é a unidade em todas as frequências.
Esta é uma característica herdada por filtros lineares mais gerais. No entanto, se algum ruído for
adicionado à média móvel de três pontos, a coerência não será unidade; esses tipos de modelos
serão considerados em detalhes posteriormente.
satisfazendo
∑ | γ (h) | < ∞,
jk
k= −∞
Γ(h) = ∫ 2− 1 e 2π i ωhf(ω)dω, h = 0, ± 1, ± 2, ⋯,
2
f(ω) = {f (ω)},
jk
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 44/72
16/02/23, 19:52 Análise espectral e filtragem
∞
A matriz espectral f(ω) é Hermitiana, f(ω) = f ∗ (ω), onde ∗ significa transposto conjugado.
( )
γ (h) γ (h)
XX XY
Γ(h) = ⋅
γ (h) γ (h)
YX YY
( )
f (h) f (h)
XX XY
f(ω) = ,
f (h) f (h)
YX YY
A extensão da estimativa espectral para séries de vetores é bastante clara. Para a série vetorial
X t = (X t1, X t2, ⋯, X tp) ⊤ podemos usar o vetor de DFTs d(ω j) = (d 1(ω j), d 2(ω j), ⋯, d p(ω j)) ⊤ e estimar a matriz espectral
por
∞
¯ 1
f(ω) = ∑ I(ω + k / n),
Lk= −∞ j
onde agora
¯
A série pode ser reduzida antes que o DFT f(ω) e podemos usar a estimativa ponderada,
onde {h k} são pesos conforme definido pela função de coerência quadrada. A estimativa da coerência
quadrada entre duas séies, Y t e X t é
| f̂ (ω) | 2
2 YX
ρ̂ (ω) = ⋅
YX f̂ (ω)f̂ (ω)
XX YY
¯
Se as estimativas espectrais acima forem obtidas usando pesos iguais, escreveremos ρ (ω) para a estimativa.
YX
2
Sob condições gerais, se ρ (ω) > 0 então
YX
(
| ρ̂ (ω) | ∼ N | ρ (ω) | , (1 − ρ (ω) ) 2 / 2L h ,
YX YX
2
YX
)
m 2
onde L h = ( ∑ k = − mh k ) − 1; os detalhes desse resultado podem ser encontrados em Brockwell and Davis (1991).
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 45/72
16/02/23, 19:52 Análise espectral e filtragem
Podemos usar o resultado acima para obter intervalos de confiança aproximados para a coerência quadrada
2
ρ (ω).
YX
¯2
2
Também podemos testar a haip&ocute;tese nula de que ρ (ω) = 0 se usarmos ρ (ω) para a estimativa com
YX YX
¯2
L > 1, caso L = 1 então ρ (ω) = 1; ou seja,
YX
¯
¯2 | f (ω) | 2
YX
ρ (ω) = ¯ ¯
⋅
YX
f (ω) f (ω)
XX YY
¯2
ρ (ω)
YX
F = (L − 1)
¯2
1 − ρ (ω)
YX
Quando a série foi estendida ao comprimento n ′ , substituímos 2L − 2 por df − 2, onde df = 2Ln / n ′ . Resolver F
acima para um determinado nível de significância leva a
F 2 , 2L − 2(α)
Cα = ,
L − 1 + F 2 , 2L − 2(α)
como o valor aproximado que deve ser excedido para que a coerência quadrada original seja capaz de
2
rejeitar ρ (ω) = 0 em uma frequência especificada a priori.
YX
Figura IV.15: Coerência quadrática entre as séries SOI e Recrutamento; L = 19, n = 453;
n ′ = 480 e α = 0.001. A linha horizontal é C 0.001.
A Figura IV.15 mostra a coerência quadrática entre as séries SOI e Recrutamento em uma banda mais
ampla do que a usada para o espectro. Nesse caso, ao nível de significância α = 0.001, usamos L = 19,
df = 2(19)(453 / 480) ≈ 36 e F 2 , df − 2(0.001) ≈ 8.53. Portanto, podemos rejeitar a hipótese de nenhuma
¯2
coerência para valores de ρ (ω) que exceda C 0.001 = 0.32.
YX
Enfatizamos que este método é bruto porque, além do fato da estatística F ser aproximada, estamos
Processing math: 87%
examinando a coerência quadrada em todas as frequências com a desigualdade de Bonferroni em mente.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 46/72
16/02/23, 19:52 Análise espectral e filtragem
A Figura IV.15 também exibe bandas de confiança como parte da rotina de gráfico do R. Enfatizamos
¯2
que essas bandas são válidas apenas para ω onde ρ (ω) > 0 .
YX
> library(astsa)
> sr = mvspec(cbind(soi,rec), kernel("daniell",9), plot=FALSE)
> sr$df # df = 35.8625
[1] 35.8625
> f = qf(.999, 2, sr$df-2) # = 8.529792
> C = f/(18+f) # = 0.321517
> par(mfrow=c(1,1), mar=c(3,3,1,1), mgp=c(1.6,.6,0))
> plot(sr, plot.type = "coh", ci.lty = 2)
> abline(h = C)
> grid()
Nesse caso, as duas séries são obviamente fortemente coerentes na frequência sazonal anual. As
séries também são fortemente coerentes em frequências mais baixas que podem ser atribuídas ao
ciclo El Niño, que afirmamos ter um período de 3 a 7 anos. O pico na coerência, entretanto, ocorre
próximo ao ciclo de 9 anos. Outras frequências também são coerentes, embora a coerência forte seja
menos impressionante porque o espectro de potência subjacente nessas frequências mais altas é
bastante pequeno. Finalmente, notamos que a coerência é persistente nas frequências harmônicas
sazonais.
Alguns dos exemplos das seções anteriores sugeriram a possibilidade de que a distribuição de poder ou
variação em uma série temporal pode ser modificada por meio de uma transformação linear. Nesta seção,
exploramos essa noção ainda mais, mostrando como os filtros lineares podem ser usados para extrair sinais
de uma série temporal. Esses filtros modificam as características espectrais de uma série temporal de
maneira previsível e o desenvolvimento sistemático de métodos para aproveitar as propriedades especiais
dos filtros lineares é um tópico importante na análise de série temporal.
∞ ∞
Yt = ∑ a jX t − j, ∑ | a j | < ∞,
j= −∞ j= −∞
f (ω) =
YY
| A YX(ω) | 2f XX(ω),
onde
A (ω) =
YX
∑ a je − 2π iωj
j= −∞
é a função de resposta em frequência. Este resultado mostra que o efeito de filtragem pode ser caracterizado
como uma multiplicação de frequência por frequência pela magnitude quadrada da função da resposta em
frequência.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 47/72
16/02/23, 19:52 Análise espectral e filtragem
Ilustramos o efeito da filtragem com dois exemplos comuns, o primeiro filtro de diferença
Y t = ∇X t = X t − X t − 1
5
1 1
Yt =
24
(X t − 6 + X t + 6 ) + ∑X ,
12 r = − 5 t − r
Os resultados da filtragem da série SOI usando os dois filtros são mostrados nos painéis do meio e
inferior da Figura IV.16. Observe que o efeito da diferenciação é tornar a série mais áspera
porque tende a reter as frequências mais altas ou mais rápidas. A média móvel centralizada suaviza
a série porque retém as frequências mais baixas e tende a atenuar as frequências mais altas. Em
geral, a diferenciação é um exemplo de filtro alto porque retém ou passa as frequências mais
altas, enquanto a média móvel é um filtro baixo porque passa as frequências mais baixas ou mais
lentas.
Figura IV.16: Série SOI (topo) comparada com o SOI diferenciado (meio) e uma média móvel
de 12 meses centralizada (parte inferior).
> library(astsa)
> par(mfrow=c(3,1), mar=c(3,3,1,1), mgp=c(1.6,.6,0))
> plot(soi) # gráfico dos dados
> plot(diff(soi)) # mostrando a primeira diferença
> k = kernel("modified.daniell", 6) # calculando os pesos dos filtros
> plot(soif <- kernapply(soi, k)) # mostrando o filtro de 12 meses
> grid()
Observe que os períodos mais lentos são realçados na média móvel simétrica e as frequências
sazonais ou anuais são atenuadas. A série filtrada faz cerca de 9 ciclos na duração dos dados,
cerca de um ciclo a cada 52 meses, e o filtro das médias móveis tende a aumentar ou extrair o
sinal do El Niño. Além disso, ao filtrar os dados com um filtro baixo temos uma melhor noção do
efeito do El Niño e de sua irregularidade.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 48/72
16/02/23, 19:52 Análise espectral e filtragem
> library(astsa)
> par(mfrow=c(1,1), mar=c(4,3,3,3), mgp=c(1.6,.6,0))
> spectrum(soif, spans=9, log="no") # análise espectral
> abline(v=12/52, lty="dashed")
> grid()
Agora, feita a filtragem, é essencial determinar a maneira exata como os filtros alteram o
∞
espectro de entrada. Usando que A(ω) = ∑ j = − ∞a je − 2π i ωi e o resultado da Teorema IV.3 para este
propósito. O primeiro filtro de diferença pode ser escrito como
∞ ∞
Yt = ∑ A jX t − j com ∑ | a j | < ∞,
j= −∞ j= −∞
A (ω) = 1 − e − 2π i ω,
YX
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 49/72
16/02/23, 19:52 Análise espectral e filtragem
O painel superior da Figura IV.17 mostra que o primeiro filtro de diferença atenuará as
frequências mais baixas e aumentará as frequências mais altas porque o multiplicador do espectro
| A (ω) | 2 é grande para as frequências mais altas e pequeno para as frequências mais baixas.
YX
Geralmente, o aumento lento desse tipo de filtro não o recomenda particularmente como um
procedimento para reter apenas as altas frequências.
( )
5
1
A (ω) = 1 + cos (12πω ) + 2 ∑ cos (2πω k ) ⋅
YX 12 k=1
Traçando o quadrado da resposta de frequência desta função como na parte inferior da Figura IV.17
mostra que podemos esperar que este filtro corte a maior parte do conteúdo de frequência acima de
0.05 ciclos por ponto e quase todo o conteúdo de frequência acima de 1 / 12 ≈ 0.083. Em particular,
isso reduz os componentes anuais com períodos de 12 meses e aumenta a frequência do El Niño, que é
um pouco menor. O filtro não é completamente eficiente na atenuação de altas frequências; algumas
contribuições de potência são deixadas em frequências mais altas, conforme mostrado na função
| A (ω) | 2.
YX
Os dois filtros discutidos no exemplo anterior eram diferentes porque a função de resposta em frequência da
primeira diferença era de valor complexo, enquanto a resposta em frequência da média móvel era puramente
real. Uma derivação direta mostra que, quando X t e Y t estão relacionados pela relação de filtro linear, o
espectro cruzado satisfaz
onde usamos que f (ω) = c (ω) − iq (ω) para obter a último relação. Então, podemos escrever A (ω) em
XY XY XY YX
2 2
√c YX
(ω) + q (ω)
YX
| A (ω) | =
YX f (ω)
XX
( )
q (ω)
YX
ϕ (ω) = tan − 1 − ⋅
YX c (ω)
YX
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 50/72
16/02/23, 19:52 Análise espectral e filtragem
Uma interpretação simples da fase de um filtro linear é que ele exibe atrasos de tempo em função da
frequência, da mesma forma que o espectro representa a variância em função da frequência. Uma visão
adicional pode ser obtida considerando o filtro de atraso simples
Y t = AX t − D,
onde a série é substituída por uma versão amplificada pela multiplicação por A e atrasada por D pontos.
a amplitude é | A | e a fase é
ϕ (ω) = − 2πωD,
YX
ou apenas uma função linear da frequência ω. Para este caso, a aplicação de um atraso de tempo simples
causa atrasos de fase que dependem da frequência do componente periódico que está sendo atrasado. A
interpretação é ainda mais aprimorada pela configuração
X t = cos (2πωt ),
caso no qual
Y t = Acos (2π ωt − 2π ωD ) ⋅
Assim, a série de saída Y t, tem o mesmo período que a série de entrada X t, mas a amplitude da saída
aumentou por um fator de | A | e a fase foi alterada por um fator de − 2πωD.
Consideramos o cálculo da amplitude e da fase dos dois filtros discutidos no Exemplo IV.22. O caso
da média móvel é fácil porque A (ω) é puramente real. Portanto, a amplitude é apenas | A (ω) | e a
YX YX
A primeira diferença, entretanto, muda isso, como poderíamos esperar do exemplo acima envolvendo o
filtro de atraso de tempo. Nesse caso, a amplitude ao quadrado é dada por
A (ω)
YX
= (
1 − e − 2π i ω = e − π i ω e iπω − e − iπω )
= 2ie − iπωsin(πω) = 2sin 2(πω) + 2icos(πω)sin(πω)
c (ω) q (ω)
YX YX
= −i ,
f (ω) f (ω)
XX XX
então
( )
q (ω)
YX cos(πω)
ϕ (ω) = tan − 1 − = tan − 1 ⋅
YX c (ω) sin(πω)
YX
Notar que
cos(πω) = sin( − πω + π / 2)
e que
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 51/72
16/02/23, 19:52 Análise espectral e filtragem
ϕ (ω) = − πω + π / 2,
YX
A tendência acima das frequências de chegarem em momentos diferentes na versão filtrada da série
permanece como uma das duas características irritantes dos filtros de tipo de diferença. A outra fraqueza é o
aumento suave na função de resposta de frequência. Se as baixas frequências não são realmente
importantes e as altas frequências devem ser preservadas, gostaríamos de ter uma resposta um pouco mais
nítida do que é óbvio na Figura IV.17. Da mesma forma, se as frequências baixas são importantes e as
frequências altas não, os filtros de médias móveis também não são muito eficientes em passar as frequências
baixas e atenuar as frequências altas. A melhoria é possível projetando filtros melhores e mais longos, mas
não discutiremos isso aqui.
Ocasionalmente, usaremos resultados para séries multivariadas X t = (X t1, ⋯, X tp) que são comparáveis à
propriedade simples mostrada no Teorema IV.3. Considere o filtro matricial
Yt = ∑ A jX t − j,
j= −∞
∞
onde {A j} denota uma sequência de matrizes q × p tais que ∑ j = − ∞ | | A j | | < ∞ e | | ⋅ | | denota qualquer norma
de matriz, X t = (X t1⋯, X tp) ⊤ é um processo vetorial estacionário p × 1 com vetor médio μ , função p × p de matriz
X
de covariâncias Γ (h), matriz espectral f (ω) e Y t é o processo de saída q × 1. Então, podemos obter a seguinte
XX XX
propriedade.
Yt = ∑ A jX t − j,
j= −∞
A = ∑ A jexp ( − 2π i ωj ) ⋅
j= −∞
Uma das possibilidades intrigantes oferecidas pela análise de coerência da relação entre as séries de SOI e
Recrutamento discutidas no Exemplo IV.21 seria estender a regressão clássica à análise de modelos de
regressão defasados da forma
Yt = ∑ β rX t − r + V t ,
r=∞
No caso das séries SOI e Recrutamento, podemos identificar a série de condução do El Niño, SOI, como a
Processing math: 87%
entrada, X t e Y t, a série de Recrutamento, como a saída. Em geral, haverá mais de uma série de entradas
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 52/72
16/02/23, 19:52 Análise espectral e filtragem
possíveis e podemos imaginar um vetor q × 1 de séries de condução. Essa situação de entrada multivariada é
abordada no Capítulo VII. O modelo acima é útil sob vários cenários diferentes, correspondendo a
diferentes suposições que podem ser feitas sobre os componentes.
Assumimos que as entradas e saídas têm médias zero e são conjuntamente estacionárias, de dimensão 2 × 1,
com o processo vetorial (X t, Y t) ⊤ tendo uma matriz espectral da forma
( )
f (ω) f (ω)
X,X X,Y
f(ω) = ⋅
f (ω) f (ω)
Y,X Y,Y
Aqui, f (ω) é o espectro cruzado relacionando a entrada X t com a saída Y t, e f (ω) e f (ω) são os espectros
X,Y X,X Y,Y
das séries de entrada e saída, respectivamente. Geralmente, observamos duas séries, consideradas como
entrada e saída e procuramos por funções de regressão para relacionar as entradas às saídas. Presumimos
que todas as funções de autocovariância satisfazem as condições de soma absoluta.
( )
∞ 2
MSE = E Y t − ∑ β rX t − r ,
r=∞
(( )
∞
E Yt − ∑ β rX t − r ) X t − s = 0
r=∞
∑ β rγ
X,X
(s − r) = γ
Y,X
(s),
r= −∞
para s = 0, ± 1, ± 2, ⋯. Estas equações podem ser resolvidas, com algum esforço, se as funções de covariância
forem conhecidas exatamente. Se os dados (X t, Y t) para t = 1, ⋯, n estão disponíveis, podemos usar uma
aproximação finita das equações acima com γ̂ (h) e γ̂ (h) substituídos nas equações normais acima. Se os
X,X Y,X
vetores de regressão forem essencialmente nulos para | s | ≥ M / 2 e M < n, o sistema de equações normais
seria de total alcance e a solução envolveria inverter uma matriz (M − 1) × (M − 1).
Uma solução aproximada de domínio de frequência é mais fácil neste caso por dois motivos. Primeiro, os
cálculos dependem de espectros e espectros cruzados que podem ser estimados a partir de dados amostrais
usando as técnicas da Seção IV.5. Além disso, nenhuma matriz terá que ser invertida, embora a razão do
domínio da frequência tenha que ser calculada para cada frequência. Para desenvolver a solução do domínio
da frequência, substitua a representação na Proposição IV.8 de Γ(h) pelas equações normais. O lado esquerdo
das equações normais pode então ser escrito na forma
1 ∞ 1
∫−1 ∑ β re 2π i ω ( s − r ) f 2π i ωs
2
X,X
(ω)dω = ∫ 2− 1 e B(ω)f
X,X
(ω)dω,
2r= −∞ 2
onde
B(ω) = ∑ β re 2π i ωr
r= −∞
é a transformada de Fourier dos coeficientes de regressão β t. Agora, como γ (s) é a transformada inversa do
Y,X
espectro cruzado f (ω), podemos escrever o sistema de equações no domínio da frequência, usando a
Y,X
f̂ (ω k)
Y,X
B̂(ω k) = ,
Processing math: 87% f̂ (ω k)
X,X
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 53/72
16/02/23, 19:52 Análise espectral e filtragem
como estimador da transformada de Fourier dos coeficientes de regressão, avaliados em algum subconjunto
de frequências fundamentais ω k = k / M com M ≪ n.
M−1
1
β̂ t = ∑ B̂(ω k)e 2π i ωkt,
M k=0
para t = 0, ± 1, ± 2, ⋯, ± (M / 2 − 1). Se tivéssemos que usar a expressão acima para definir β̂ t para | t | ≥ M / 2,
acabaríamos com uma sequência de coeficientes que é periódica com um período de M. Na prática, definimos
β̂ t = 0 para | t | ≥ M / 2.
A alta coerência entre as séries SOI e Recrutamento observada no Exemplo IV.21 sugere uma relação
de regressão defasada ou retardada entre as duas séries. Uma direção natural para a implicação
nesta situação está implícita porque sentimos que a temperatura da superfície do mar ou SOI deve
ser a entrada e a série de Recrutamento deve ser a saída. Com isto em mente, seja X t a série SOI e
Y t a série Recrutamento.
Embora pensemos naturalmente no SOI como a entrada e o Recrutamento como a saída, duas
configurações de entrada-saída são de interesse. Com o SOI como entrada, o modelo é
Yt = ∑ a rX t − r + W t ,
r= −∞
Xt = ∑ b rY t − r + V t ,
r= −∞
onde W t e V t são processos de ruído branco. Embora não exista uma explicação ambiental plausível
para o segundo desses dois modelos, a exibição de ambas as possibilidades ajuda a estabelecer um
modelo de função de transferência parcimoniosa, mas não será mostrado.
Baseado no script LagReg no pacote astsa, a função de regressão estimada ou resposta ao impulso
para SOI, com M = 32 e L = 15 é:
> library(astsa)
> par(mfrow=c(1,1), mar=c(3,3,3,1), mgp=c(1.6,.6,0))
> resultado = LagReg(soi, rec, L=15, M=32, threshold=6)
INPUT: soi OUTPUT: rec L = 15 M = 32
3.463141 2.088613 2.688139 -0.3515829 0.3717705 -18.47931 -12.2633 -8.539368 -6.984553 -4.978238 -4.526358 -4.223713
-3.239262 -1.372815 1.489903 3.744727
3.463141 2.835444 1.628129 2.726815 0.6330645 -1.256092 -0.05458373 1.722774 4.925481 5.440352 6.877381 5.141606
4.479202 3.796848 4.004762 3.184184
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 54/72
16/02/23, 19:52 Análise espectral e filtragem
[3,] 7 -8.539368
[4,] 8 -6.984553
Observe o pico negativo em um atraso de cinco pontos na figura acima. A queda após o desfasamento
cinco parece ser aproximadamente exponencial e um possível modelo é
Se examinarmos a relação inversa, ou seja, um modelo de regressão com a série Recrutamento Y t como
entrada obtemos um modelo muito mais simples:
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 55/72
16/02/23, 19:52 Análise espectral e filtragem
[2,] 5 -0.02120013
Finalmente, verificamos se o ruído ϵ t é branco. Além disso, neste ponto, simplifica a questão se
voltarmos a executar a regressão com erros autocorrelacionados e reestimar os coeficientes. O
modelo é chamado de modelo ARMAX, o X significa exógeno; consulte a Seção V.6 e a Seção VI.6.1:
Call:
lm(formula = fish[, 1] ~ fish[, 2:3], na.action = NULL)
Coefficients:
(Intercept) fish[, 2:3]RL1 fish[, 2:3]SL5
11.3136 0.8434 -20.3004
Processing math: 87% PACF -0.03 0.05 -0.01 -0.02 -0.01 -0.02 0.03 0.06 -0.01 0.05 0.01 -0.01 -0.14 -0.02 0.06 0.05 0.03 0.03 -0.09
[,39] [,40] [,41] [,42] [,43] [,44] [,45] [,46] [,47] [,48]
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 56/72
16/02/23, 19:52 Análise espectral e filtragem
ACF -0.13 -0.03 0.05 0.08 0.04 -0.02 -0.09 -0.08 -0.04 0.01
PACF -0.05 0.10 0.06 0.00 -0.04 0.00 -0.07 -0.02 0.01 -0.01
Call:
stats::arima(x = xdata, order = c(p, d, q), seasonal = list(order = c(P, D,
Q), period = S), xreg = xreg, transform.pars = trans, fixed = fixed, optim.control = list(trace = trc,
REPORT = 1, reltol = tol))
Coefficients:
ar1 intercept RL1 SL5
0.4489 14.6838 0.7902 -20.9988
s.e. 0.0495 1.5605 0.0229 1.0812
$degrees_of_freedom
Processing math: 87% [1] 444
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 57/72
16/02/23, 19:52 Análise espectral e filtragem
$ttable
Estimate SE t.value p.value
ar1 0.4489 0.0495 9.0591 0
intercept 14.6838 1.5605 9.4098 0
RL1 0.7902 0.0229 34.4532 0
SL5 -20.9988 1.0812 -19.4218 0
$AIC
[1] 6.764027
$AICc
[1] 6.764229
$BIC
[1] 6.80984
2
onde W t é ruído branco com σ̂ = 49.57. Este exemplo também é examinado no Capítulo V e os valores
W
ajustados para o modelo final podem ser visualizados na figura no Exemplo V.9.
O exemplo mostra que podemos obter um estimador limpo para as funções de transferência relacionando as
2
duas séries se a coerência ρ̂ é grande. A razão é que podemos escrever o erro quadrático médio como
x,y
( )
∞ ∞
MSE = E (Y t − ∑ )
β rX t − r Y y = γ
Y,Y
(0) − ∑ β rγ
X,Y
( − r),
r= −∞ r= −∞
usando o resultado sobre a ortogonalidade dos dados e o termo de erro no Teorema da Projeção. Então,
Processing math: 87%
substituindo
as representações espectrais das funções de autocovariância e de covariância cruzada e
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 58/72
16/02/23, 19:52 Análise espectral e filtragem
B(ω) = ∑ β re 2π i ωr,
r= −∞
leva a
1 1
MSE = ∫−
2
1
2
(
f
Y,Y
(ω) − B(ω)f
X,Y )
(ω) d(ω) = ∫ 2− 1 f Y , Y(ω)
2
(
1−ρ
2
Y,X )
(ω) d(ω),
2
onde ρ (ω) é apenas a coerência quadrada. A semelhança do MSE dado acima com o erro quadrático médio
Y,X
2 2
E (Y − βX ) 2 = σ (1 − ρ ),
Y X,Y
2 2
para variáveis aleatórias com distribuição conjunta X e Y com m&eacdias;dias zero, variâncias σ e σ e
X Y
covariância σ =ρ σ σ . Como o erro quadrático médio satisfaz MSE ≥ 0 com f (ω) uma função não-
X,Y X,Y X Y Y,Y
2
0≤ρ ≤ 1,
X,Y
para todo ω. Assim, a coerência múltipla fornece uma medida da associação ou correlação entre as séries de
entrada e saída em função da frequência.
A questão de verificar se a distribuição F será válida quando os valores da coerência amostral forem
substituídos por valores teóricos ainda permanece. Novamente, a forma da estatística F é exatamente
análoga ao teste t usual para nenhuma correlação em um contexto de regressão. Daremos um argumento
que leva a essa conclusão mais tarde usando os resultados da Seção C.3.
Outra questão que não foi resolvida nesta seção é a extensão para o caso de múltiplas entradas X t , X t , ⋯, X t .
1 2 q
Frequentemente, há mais do que apenas uma única série de entrada que pode possivelmente formar um
preditor defasado da série de saída Y t. Um exemplo é a série de mortalidade cardiovascular que dependia
possivelmente de várias séries de poluição e temperatura. Discutimos essa extensão particular como parte
das técnicas de séries temporais multivariadas consideradas no Capítulo VII.
Um modelo intimamente relacionado à regressão pode ser desenvolvido assumindo novamente que
Yt = ∑ β rX t − r + V t ,
r=∞
mas onde os βs são conhecidos e X t é algum sinal aleatório desconhecido que não está correlacionado com o
processo de ruído V t. Neste caso, observamos apenas Y t e estamos interessados em um estimador para o
sinal X t da forma
X̂ t = ∑ a rY t − r ⋅
r=∞
No domínio da frequência é conveniente fazer as suposições adicionais de que as séries X t e V t são ambas
séries estacionárias de média zero com espectros f (ω) e f (ω), frequentemente referidos como o espectro
X,X V,V
Yt = Xt + Vt
nesse caso. Em geral, buscamos o conjunto de coeficientes de filtro que minimizam o erro quadrático médio
de estimativa,
( )
∞ 2
MSE = E X t − ∑ β rY t − r ⋅
r=∞
Processing math: 87%
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 59/72
16/02/23, 19:52 Análise espectral e filtragem
Lembremos que a delta de Kronecker, nomeado em homenagem a Leopold Kronecker, é uma função de duas
variáveis, geralmente apenas inteiros não negativos. A função é 1 se as variáveis forem iguais e 0 caso
contrário, definida como:
δ ij =
{ 0
1
se i ≠ j,
se i = j.
Este problema foi originalmente resolvido por Kolmogorov (1941) e por Wiener (1949), que derivou o
resultado em 1941 e o publicou em relatórios confidenciais durante a Segunda Guerra Mundial.
(( )
∞
E Xt − ∑ a rY t − r )Y t − s = 0
r=∞
∑ a rγ
Y,Y
(s − r) = γ
X,Y
(s),
r= −∞
a ser resolvido para os coeficientes do filtro. Substituindo as representações espectrais para as funções de
autocovariância acima e identificar as densidades espectrais através da exclusividade da transformada de
Fourier produz
onde A(ω) e o filtro ótimo a t são pares de transformada de Fourier para B(ω) e β t. Agora, uma consequência
especial do modelo é que
B ∗ (ω)
A(ω) = ,
f (ω)
V,V
2
| B(ω) | +
f (ω)
X,Y
f (ω)
V,V
SNR(ω) = ⋅
f (ω)
X,Y
O resultado mostra que os filtros ideais podem ser calculados para este modelo se os espectros de sinal e
ruído forem conhecidos ou se pudermos assumir o conhecimento da relação sinal-ruído SNR(ω) em função da
frequência. No Capítulo VII, mostramos alguns métodos para estimar esses dois parâmetros em conjunto
com os modelos de análise de variância de efeitos aleatórios, mas assumimos aqui que é possível especificar
a razão sinal-ruído a priori.
Se a relação sinal-ruído for conhecida, o filtro ideal pode ser calculado pela transformada inversa da função
A(ω). É mais provável que a transformada inversa seja intratável e uma aproximação de filtro finito como a
usada na seção anterior possa ser aplicada aos dados. Neste caso, teremos
M−1
1
M
at =
M k=0
∑ A(ω k)e 2π i ωkt,
como a função de filtro estimada. Freqüentemente, a forma da resposta de frequência especificada terá
algumas transições bastante nítidas entre regiões onde a relação sinal-ruído é alta e regiões onde há pouco
sinal.
Nestes casos, a forma da função de resposta em frequência terá ondulações que podem introduzir
frequências em diferentes amplitudes. Uma solução estética para este problema é introduzir a redução
gradual como foi feito com a estimação espectral não paramétrica.
Processing math: 87%
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 60/72
16/02/23, 19:52 Análise espectral e filtragem
( ( ))
¯
2π(t − t)
h t = 0.5 1 + cos ⋅
n
Ã(ω) = ∑ a th te − 2π i ωt ⋅
t= −∞
Os resultados são ilustrados no exemplo a seguir que extrai o componente El Niño da série de temperaturas
da superfície do mar.
A Figura IV.7 mostra o espectro da série SOI e notamos que essencialmente dois componentes têm
energia: a frequência do El Niño de cerca de 0.02 ciclos por mêês, o ciclo de quatro anos, e uma
frequência anual de cerca de 0.08 ciclos por mês, ciclo anual. Assumimos, para este exemplo, que
desejamos preservar a frequência inferior como sinal e eliminar as frequências de ordem superior
e, em particular, o ciclo anual. Neste caso, assumimos o modelo simples de sinal mais ruído
Y t = X − t + V t,
Além disso, a relação sinal-ruído é considerada alta para cerca de 0.06 ciclos por mês e zero
depois disso. A resposta de frequência ótima foi assumida como unitária a 0.05 ciclos por ponto e,
em seguida, decai linearmente até zero em várias etapas. A Figura IV.19 à esquerda mostra os
M
coeficientes conforme especificados por a t com M = 64, bem como a função de resposta em frequência
dada por Ã(ω), dos coeficientes cosseno cônicos; lembre-se da Figura IV.11, onde demonstramos a
necessidade da redução gradual para evitar ondulações severas na janela. A função de resposta
construída é comparada com a janela ideal na Figura IV.19.
A Figura IV.20 mostra o índice SOI original e filtrado e vemos um sinal extraído suave que
transmite a essência do sinal El Niño subjacente. A resposta de frequência do filtro projetado
pode ser comparada com aquela da média móvel simétrica de 12 meses aplicada à mesma série no
Exemplo IV.22. A série filtrada, mostrada na Figura IV.16, mostra uma boa quantidade de vibração
de frequência mais alta na versão suavizada, que foi introduzida pelas frequências mais altas que
Processing math: 87%
vazam na resposta de frequência quadrada, como na Figura IV.17.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 61/72
16/02/23, 19:52 Análise espectral e filtragem
Figura IV.20. Série SOI original (parte superior) em comparação com a versão filtrada
mostrando o sinal estimado de temperatura do El Niño (parte inferior).
> library(astsa)
> par(mfrow=c(1,1), mar=c(3,3,1,2)+.5, mgp=c(1.6,.6,0))
> SigExtract(soi, L=9, M=64, max.freq=.05)
O projeto de filtros finitos com uma resposta de frequência especificada requer alguma experimentação com
várias funções de resposta de frequência alvo e apenas tocamos na metodologia aqui. O filtro projetado aqui,
às vezes chamado de filtro passa-baixa, reduz as frequências altas e mantém ou passa as frequências baixas.
Como alternativa, poderíamos projetar um filtro passa-alta para manter as altas frequências se for onde o
sinal está localizado. Um exemplo de um filtro passa-alta simples é a primeira difereça com uma resposta de
frequência que é mostrada na Figura IV.17. Também podemos projetar filtros passa-banda que mantêm as
frequências em bandas especificadas. Por exemplo, filtros de ajuste sazonal são freqüentemente usados em
economia para rejeitar frequências sazonais, enquanto mantêm frequências altas, frequências mais baixas e
tendência (ver, por exemplo, Grether and Nerlove, 1970).
Os filtros que discutimos aqui são todos filtros simétricos de dois lados, porque as funções de resposta de
frequência projetadas eram puramente reais. Alternativamente, podemos projetar filtros recursivos para
produzir uma resposta desejada. Um exemplo de filtro recursivo é aquele que substitui a entrada X t pela
saída filtrada
p q
Yt = ∑ ϕ kY t − k + X t − ∑ θ kX t − k ⋅
k=1 k=1
Observe a semelhança entre a expressão acima e o modelo ARMA(p, q), em que o componente de ruído branco
é substituído pela entrada. Transpor os termos envolvendo Y t e usando o resultado do filtro linear básico no
Teorema IV.3 leva a
| θ(e − 2π i ω) | 2
f (ω) = f (ω),
Processing math: 87%
Y | ϕ(e − 2π i ω) | 2 X
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 62/72
16/02/23, 19:52 Análise espectral e filtragem
onde
θ(e − 2π i ω) = 1 − ∑ ϕ ke − 2π i k ω
k=1
θ(e − 2π i ω) = 1 − ∑ θ ke − 2π i k ω ⋅
k=1
Filtros recursivos, como os fornecidos por f (ω), distorcem as fases das frequências de chegada e não
Y
f (ω) =
X
∑ ⋯ ∑ hγ X(h)e − 2π i ω⊤h ⋅
Novamente, o resultado inverso
1 1
⊤h
γ (h) =
X ∫ 2− 1 ⋯∫ 2− 1 f X(ω)e 2π i ω dω
2 2
se mantém, onde a integral acima é calculada no intervalo multidimensional do vetor ω. Temos como
interpretação intuitiva a taxa de ciclagem ω i por distância percorrida s i na i-ésima direção.
∞ ∞
f (ω 1, ω 2) =
X
∑ ∑ γ (h 1, h 2)e − 2π i ( ω 1h 1 + ω 2h 2 )
X
h = − ∞h = − ∞
e
1 1
γ (h 1, h 2) =
X ∫ − ∫ 2− 1 f X(ω 1, ω 2)e 2π i ( ω1h1 + ω2h2 ) dω 1dω 2
2
1
2 2
no caso r = 2. A noção de filtragem linear generalizada para o caso bidimensional, definindo a função de
resposta ao impulso a s , s e a saída do filtro espacial como
1 2
Ys , s =
1 2
∑ ∑ a u 1 , u 2X s 1 − u 1 , s 2 − u 2 ⋅
u1 u2
f (ω 1, ω 2) = | A(ω 1, ω 2) | 2f (ω 1, ω 2)
Y X
onde
Esses resultados são análogos aos do caso unidimensional, descritos pelo Teorema IV.3.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 63/72
16/02/23, 19:52 Análise espectral e filtragem
n1 n2
1
d(ω 1, ω 2) = ∑ ∑ X s1 , s2e − 2π i ( ω1s1 + ω2s2 )
n 1n 2 s 1 = 1s 2 = 1
√
como a Transformada Discreta de Fourier bidimensional, onde as frequências ω 1, ω 2 são avaliados em
múltiplos de (1 / n 1, 1 / n 2) na escala de frequência espacial. O espectro bidimensional pode ser estimado pelo
espectro amostral suavizado
¯ 1
f (ω 1, ω 2) =
X
∑ |d (ω 1 + ℓ 1 / n 1, ω 2 + ℓ 2 / n 2 ) |2,
L 1L 2 ℓ ℓ
1 2
¯
2L 1L 2 f (ω 1, ω 2)
X 2
∼ χ 2L L
f (ω 1, ω 2) 1 2
X
pode ser usado para definir intervalos de confiança ou fazer testes aproximados contra um espectro fixo
assumido f (ω 1, ω 2).
0
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 64/72
16/02/23, 19:52 Análise espectral e filtragem
Figura IV.21. Periodograma bidimensional do perfil da temperatura do solo mostrando pico
em 0.0625 ciclos/linha. O período é de 16 linhas e isso corresponde a 16 × 17pés = 272
pés.
> library(astsa)
> per = Mod(fft(soiltemp-mean(soiltemp))/sqrt(64*36))^2
> per2 = cbind(per[1:32,18:2], per[1:32,1:18])
> per3 = rbind(per2[32:2,],per2)
> par(mfrow=c(1,1), mar=c(1,2.5,0,0)+.15, mgp=c(1.6,.6,0))
> persp(-31:31/64, -17:17/36, per3, phi=30, theta=30, expand=.6,
ticktype="detailed", xlab="cycles/row", ylab="cycles/column", zlab="Periodogram Ordinate")
Outra aplicação da análise espectral bidimensional é no campo agrícola foi dada em McBratney and Webster
(1981), que a usou para detectar padrões de cristas e sulcos no campo. A necessidade de amostras regulares
e igualmente espaçadas em grades bastante grandes tende a limitar o entusiasmo pela análise espectral
bidimensional estrita. Uma exceção é quando um sinal de propagação de uma dada velocidade e azimute
está presente, de forma que a previsão do espectro do número de onda em função da velocidade e do
azimute se torna viável (ver Shumway et al., 1999).
IV.11 Exercícios
1. Verifique se para qualquer número inteiro positivo n e j, k = 0, 1, ⋯, [n / 2], onde [ ⋅ ] denota a função
maior inteiro:
(a) Exceto para j = 0 ou j = n / 2,
n n
n
∑ cos 2(2π tj / n) = ∑ sin 2(2π tj / n) =
2
⋅
t=1 t=1
Dica:
n n
1
∑ cos 2
(2π tj / n) =
4t=1
∑ (e 2π itj / n + e − 2π itj / n )(e 2π itj / n + e − 2π itj / n )
t=1
n
1 n
=
4
∑ ((e 4π itj / n + 1 + 1 + e − 4π itj / n )) =
2
⋅
t=1
(b) Quando j = 0 ou j = n / 2,
n n
(c) Para j ≠ k,
n n
∑ cos(2π tj / n)sin(2π tk / n) = 0⋅
t=1
2. Repita as simulações e análises nos Exemplos IV.1 e IV.2 com as seguintes alterações:
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 65/72
16/02/23, 19:52 Análise espectral e filtragem
(a) Mude o tamanho da amostra para n = 128, gere e mostre gráficamente na mesma série do
Exemplo IV.1:
Qual é a principal diferença entre essas séries e as séries geradas no Exemplo IV.1?
Dica: a resposta é fundamental. Mas não é aceito como resposta que a série é mais longa.
(b) Como no Exemplo IV.2, calcule e mostre gráficamente o periodograma da série X t, gerado em
(a) e comente.
(c) Repita as análises de (a) e (b), mas com n = 100, como no Exemplo IV.1, e adicionando ruído
a X t; isso é
X t = X t1 + X t2 + X t3 + W t,
onde W t ∼ N(0, 25) independentes identicamente disrtibuídas. Ou seja, você deve simular e
mostrar os dados e então traçar o periodograma de X t e comentar.
X t = Acos (2πωt + ϕ ),
2 2
A2 = Z1 + Z2 e ϕ = tan − 1(Z 2 / Z 1) ⋅
(a) Encontre a densidade conjunta de (A 2, ϕ). Conclua que A 2 e ϕ são independentes, sendo que
A 2 ∼ χ 2(2) e ϕ ∼ U( − π, π).
(b) Indo no sentido inverso, das coordenadas polares às coordenadas retangulares. Suponha
assumimos que A 2 e ϕ sejam variáveis aleatórias independentes, onde A 2 ∼ χ 2(2) e ϕ ∼ U( − π, π).
Com Z 1 = Acos(ϕ) e Z 2 = Asin(ϕ), onde A é a raiz quadrada positiva de A 2, mostre que Z 1 e Z 2 são
variáveis aleatórias normais padrão independentes.
onde U k1 e U k2, para k = 1, 2, ⋯, q são variáveis aleatórias de média zero não correlacionadas com
2
variâncias σ k . Prove que a função de autocovariância do processo é
γ (h) =
X
∑ σ 2k cos (2πωh ) ⋅
k=1
5. Uma série temporal foi gerada desenhando primeiro a série de ruído branco W t de uma distribuição
normal com média zero e variância um. A série observada X t foi gerada a partir de
X t = W t − θW t − 1, t = 0, ± 1, ± 2, ⋯,
onde θ é o parâmetro.
(a) Derive as esperanças e as funções de autocovariância para as séries X t e W t. As séries X t e W t
são estacionárias? Dê suas razões.
(b) Forneça uma fórmula para o espectro de potência de W t, expresso em termos de θ e ω.
6. Um modelo autoregressivo de primeira ordem é gerado a partir da série de ruído branco W t usando as
equações geradoras
Processing math: 87%
X t = ϕX t − 1 + W t,
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 66/72
16/02/23, 19:52 Análise espectral e filtragem
onde ϕ, para | ϕ | < 1 é o parâmetro e W t são variáveis aletórias independentes de média zero e
2
variância σ .
W
2
σ
W
f (ω) = ⋅
X 1 + ϕ 2 − 2ϕcos(2πω)
2
σ ϕ |h|
W
γ (h) = ,
X 1 − ϕ2
(a).
7. Nas aplicações, frequentemente observaremos séries contendo um sinal que foi atrasado por algum
tempo D desconhecido, ou seja,
X t = S t + AS t − D + η t,
onde S t e η t são estacionários e independentes com médias zero e densidades espectrais f (ω) e f (ω),
S η
respectivamente. Observe que o sinal atrasado é multiplicado por alguma constante desconhecida A.
Mostre que
f (ω) =
X
(1 + A2 + 2Acos(2π ωD) )f (ω) + f (ω) ⋅
S η
8. Suponha que X t e Y t sejam séries temporais de média zero estacionárias com X t independente de Y s,
para todos os s e t. Considere a série dos produtos
Zt = Xt × Yt ⋅
f (ω) =
Z ∫ 2− 1 f X(ω − ν)f Y(ν)dν ⋅
2
9. A Figura IV.22 mostra o número de manchas solares suavizadas bi-ano (média móvel de 12 meses)
de junho de 1749 a dezembro de 1978 com n = 459 pontos que foram obtidos duas vezes por ano; os
dados estão contidos em sunspotz. Com o Exemplo IV.13 como guia, execute uma análise de
periodograma identificando os períodos predominantes e obtendo intervalos de confiança para os
períodos identificados. Interprete suas descobertas.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 67/72
16/02/23, 19:52 Análise espectral e filtragem
10. Os níveis de concentração de sal que se sabe ocorreram ao longo das linhas, correspondendo aos
níveis de temperatura média para os dados científicos do solo considerados na Figura I.18 e na Figura
I.19, estão em salt e saltemp. Trace as séries e, em seguida, identifique as frequências dominantes
realizando análises espectrais separadas nas duas séries. Inclua intervalos de confiança para as
frequências dominantes e interprete suas descobertas.
11. Considere a série observada X t ser composta de um sinal periódico e ruído, podendo ser escrita como
2
onde W t é um processo de ruído branco com variância σ . Suponha que consideremos estimar β 1, β 2 e
W
2
σ por mínimos quadrados ou equivalentemente, por máxima verossimilhança se W t for assumido
W
como Gaussiano.
(a) Prove, para ω k fixo, o erro quadrático mínimo é atingido por
() ( )
β̂ 1
β̂ 2
=
√n
2 d c(ω k)
d s(ω k)
,
de modo que o valor de ω k que minimiza o erro quadrático é o mesmo que o valor que maximiza
o estimador do periodograma I(\omega_j) = \big| d(\omega_j)\big|^2.
(c) Sob a suposição Gaussiana e com \omega_k fixo, mostre que o teste F de nenhuma
regressão leva a uma estatística F que é uma função monótona de I_X(\omega_k).
13. Analise os dados do preço do frango (chicken) usando um procedimento de estimação espectral não
paramétrica. Além do ciclo anual óbvio descoberto no Exemplo II.5, que outros ciclos interessantes
são revelados?
14. Repita o Problema IV.3.1 usando um procedimento de estimação espectral não paramétrica. Além de
discutir suas descobertas em detalhes, comente sobre sua escolha de uma estimação espectral com
relação a suavização e redução.
15. Repita o Problema IV.3.2 usando um procedimento de estimação espectral não paramétrica. Além de
discutir suas descobertas em detalhes, comente sobre sua escolha de uma estimação espectral com
relação a suavização e redução.
16. Análise Cepstral. O comportamento periódico de uma série temporal induzida por ecos também
pode ser observado no espectro da série; este fato pode ser visto a partir dos resultados declarados
no Exercício IV.2.3. Usando a notação desse problema, suponha que observamos \begin{equation}
X_t \, = \, S_t + A S_{t-D} + \eta_t, \end{equation} o que implica que os espectros satisfazem
\begin{equation} f_{_X}(\omega) \, = \, \Big(1 + A^2 + 2A\cos\big(2\pi \omega D\big)\Big)f_{_S}
(\omega) + f_{\eta}(\omega)\cdot \end{equation} Se o ruído for insignificante, ou seja, se f_{\eta}
(\omega)\approx 0, então \log\big(f_{_X}(\omega)\big) é aproximadamente a soma de um
componente periódico, \begin{equation} \log\Big(1 + A^2 + 2A\cos\big(2\pi \omega D\big)\Big)
\end{equation} e \begin{equation} \log\big(f_{_S}(\omega)\big)\cdot \end{equation} Bogart et al.
(1962) propuseram tatar o espectro do logaritmo sem tendência como uma pseudo série temporal e
calcular seu espectro ou cepstrum, que deve mostrar um pico em uma quefrência correspondente a
1/D. O cepstrum pode ser plotado como uma função da quefrência, a partir do qual o atraso D pode
ser estimado.
Para a série de fala apresentada no Exemplo I.3, estime o período de pico usando a análise cepstral
Processing math: 87% como segue. Os dados estão na spreech.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 68/72
16/02/23, 19:52 Análise espectral e filtragem
19. Considere as duas séries temporais \begin{equation} X_t \, = \, W_t - W_{t-1}, \end{equation} e
\begin{equation} Y_t \, = \, \frac{1}{2}\big( W_t+W_{t-1}\big), \end{equation} formadas a partir
da série de ruído branco W_t com variância \sigma^2_{_W} = 1.
(a) São X_t e Y_t conjuntamente estacionárias? Lembre-se de que a função de covariância
cruzada também deve ser uma função apenas da defasagem h e não pode depender do tempo.
(b) Calcule os espectros f_{_Y}(\omega) e f_{_X}(\omega) e comente sobre a diferença entre
os dois resultados.
(c) Suponha que o estimador espectral amostral \overline{f}_{_Y}(0.10) seja calculado usando
L = 3. Encontre a e b tais que \begin{equation} P\left(a\leq \overline{f}_{_Y}(0.10)\leq b
\right) \, = \, 0.90\cdot \end{equation} Esta expressão fornece dois pontos que conterão 90%
dos valores espectrais da amostra. Coloque 5% da área em cada cauda.
20. Os dados no arquivo climhyd contém 454 meses de valores medidos para as variáveis climáticas:
temperatura do ar (Temp), ponto de orvalho (DewPt), cobertura de nuvens (CldCvr), velocidade do
vento (WndSpd), precipitação (Precip) e influxo (Inflow), no Lago Shasta; os dados são exibidos na
Figura VII.3. Gostaríamos de examinar as possíveis relações entre os fatores climáticos e o influxo
para o Lago Shasta.
(a) Ajuste um modelo ARIMA(0,0,0)\times (0,1,1)_{12} para (i) a precipitação transformada P_t
= \sqrt{\mbox{Precip}} e (ii) influxo transformado I_t = \ln(\mbox{Inflow}).
(b) Calcule as coerências quadradas entre todas as variáveis meteorológicas e o influxo
transformado e argumente que o determinante mais forte da série de influxo é a precipitação
(transformada). Dica: se x contiver várias séries temporais, a maneira mais fácil de exibir todas
as coerências quadradas é graficar as coerências suprimindo os intervalos de confiança, por
exemplo, \begin{equation} \mbox{mvspec(x, spans=c(7,7), taper=.5, plot.type="coh",
ci=-1)}\cdot \end{equation}
(c) Ajuste um modelo de regressão defasada da forma \begin{equation} I_t =
\beta_0+\sum_{j=0}^\infty \beta_j P_{t-j}+\omega_t, \end{equation} usando limiarização e
depois comentar a capacidade preditiva da precipitação para o influxo.
21. Freqüentemente, as periodicidades nas séries de manchas solares são investigadas ajustando-se um
espectro autorregressivo de ordem suficientemente alta. A periodicidade principal costuma ser em
torno de 11 anos. Ajuste um estimador espectral autoregressivo aos dados de manchas solares
usando um método de seleção de modelos de sua escolha. Compare o resultado com um estimador
espectral não paramétrico convencional encontrado no Exercício 1, Seção IV.3.
22. Analise os dados do preço do frango (chicken) usando um procedimento de estimação espectral
paramétrica. Compare os resultados com os do Exercício 1, Seção IV.4.
24. Suponha que uma série temporal amostrada com n = 256 pontos esteja disponível seguindo o modelo
autorregressivo de primeira ordem. Além disso, suponha que o espectro amostral calculado com L = 3
produza o valor estimado \overline{f}_{_X}(1/8) = 2.25. Este valor amostral é consistente com
\sigma_{_W}^2 = 1 e \phi =0.5? Repita usando L = 11 se apenas obtivermos o mesmo valor da
amostra.
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 69/72
16/02/23, 19:52 Análise espectral e filtragem
25. Suponha que desejamos testar a hipótese de ruído sozinho H_0 \, : \, X_t = \eta_t contra a hipótese
de sinal mais ruído H_1 \, : \, X_t = S_t + \eta_t, onde S_t e \eta_t são processos estacionários de
média zero não correlacionados com espectros f_{_S}(\omega) e f_{_\eta}(\omega). Suponha que
você queira o teste em uma banda de L = 2m + 1 frequências da forma \omega_{j:n} + k/n; para k
= 0,\pm 1,\pm 2,\cdots,\pm m perto de alguma frequência fixa \omega. Suponha que os espectros
de sinal e ruído sejam aproximadamente constantes ao longo do intervalo.
(a) Prove que a estatística de teste baseada na verossimilhança aproximada para testar H_0
contra H_1 é proporcional a \begin{equation} T \, = \, \sum_k |d_X(w_{j:n}+k/n)|^2\left(
\dfrac{1}{f_{_\eta}(\omega)} -\dfrac{1}{f_{_S}(\omega)+f_{_\eta}(\omega)}\right)\cdot
\end{equation}
(b) Encontre as distribuições aproximadas de T sob H_0 e H_1.
(c) Defina as probabilidades de falso alarme e detecção de sinal como P_F = P(T> K \, | \, H_0)
e P_d = P(T> k \, | \, H_1), respectivamente. Expresse essas probabilidades em termos da razão
sinal-ruído f_{_S}(\omega)/f_{_\eta}(\omega) e integrais qui-quadradas apropriadas.
26. Analise a coerência entre os dados de temperatura e sal discutidos no Exercício 2 da Seção IV.3.
Discuta suas descobertas.
27. Considere dois processos: \begin{equation*} X_t \, = \, W_t \qquad \mbox{ e } \qquad Y_t \, = \,
\phi X_{t-D}+\nu_t, \end{equation*} onde W_t e \nu_t são processos de ruído branco
independentes com variância comum \sigma^2, \phi é uma constante e D é um atraso inteiro fixo.
(a) Calcule a coerência entre X_t e Y_t.
(b) Simule n = 1024 observações normais de X_t e Y_t para \phi =0.9, \sigma^2 = 1 e D = 0.
Em seguida, estime e mostre a coerência entre as séries simuladas para os seguintes valores de
L e comente:
(i) L=1, (ii) L=3, (iii) L=41 e (iv) L=101.
28. Considere o processo \begin{equation*} X_t \, = \, W_t \qquad \mbox{ e } \qquad Y_t \, = \, \phi
X_{t-D}+V_t \end{equation*} onde W_t e V_t são processos de ruído branco independentes com
variância comum \sigma^2, \phi é uma constante e D é um atraso inteiro fixo.
(a) Calcule a fase entre X_t e Y_t.
(b) Simule n=1024 observações de X_t e Y_t para \phi=0.9, \sigma^2=1 e D=1. Em seguida,
estime e mostre a fase entre as séries simuladas para os seguintes valores de L e comente:
(i) L=1, (ii) L=3, (iii) L=41 e (iv) L=101.
29. Considere os registros da série temporal bivariada contendo a produção mensal dos EUA (prod)
conforme medido pelo Índice de Produção do Federal Reserve Board e a série mensal de desemprego
(unemp).
(a) Calcule o espectro e o espectro do logaritm para cada série e identifique picos
estatisticamente significativos. Explique o que pode estar gerando os picos. Calcule a coerência e
explique o que significa quando uma alta coerência é observada em uma determinada
frequência.
(b) Qual seria o efeito da aplicação do filtro \begin{equation*} U_t \, = \, X_t - X_{t-1} \qquad
\mbox{seguido de} \qquad V_t \, = \, U_t-U_{t-12} \end{equation*} para a série dada acima?
Trace as respostas de frequência previstas do filtro de diferença simples e da diferença sazonal
da primeira diferença.
(c) Aplique os filtros sucessivamente a uma das duas séries e mostre a saída. Examine a saída
depois de fazer uma primeira diferença e comente se a estacionariedade é uma suposição
razoável. Por que ou por que não? Trace depois de tirar a diferença sazonal da primeira
diferença. O que pode ser notado sobre a saída que é consistente com o que voê previu a partir
da resposta de frequência? Verifique calculando o espectro da saída após a filtragem.
30. Determine o espectro de potência teórico da série formada combinando a série de ruído branco W_t
para formar \begin{equation*} Y_t \, = \, W_{t-2}+4 W_{t-1}+6 W_t + 4 W_{t+1} +
W_{t+2}\cdot \end{equation*} Determine quais frequências estão presentes traçando o espectro de
potência.
31. Seja X_t=\cos\big( 2\pi\omega t\big) e considere a saída \begin{equation*} Y_t \, = \, \sum_{k=-
\infty}^\infty a_k X_{t-k}, \end{equation*} onde \sum_k |a_k|<\infty. Prove que \begin{equation*}
Y_t \, = \, |A(\omega)|\cos\big( 2\pi \omega t+\phi(\omega)\big), \end{equation*} onde
|A(\omega)| e \phi(\omega) são a amplitude e a fase do filtro, respectivamente. Interprete o
resultado em termos da relação entre a série de entrada X_t e a série de saída Y_t.
32. Suponha que X_t seja uma série estacionária e aplicamos duas operações de filtragem em sucessão,
Processing math: 87%
digamos, \begin{equation*} Y_t \, = \, \sum_r a_r X_{t-r} \qquad \mbox{ depois } \qquad Z_t \, =
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 70/72
16/02/23, 19:52 Análise espectral e filtragem
33. Suponha que recebamos uma série de média zero estacionária X_t com espectro f_{_X}(\omega) e,
em seguida, construamos a série derivada \begin{equation*} Y_t \, = \, aY_{t-1}+X_t, \qquad
t=\pm 1,\pm 2,\cdots \cdot \end{equation*}
(a) Mostre como o espectro f_{_Y}(\omega) teórico está relacionado com f_{_X}(\omega).
(b) Trace a função que multiplica f_{_X}(\omega) na parte (a) para a =0.1 e para a =0.8. Este
filtro é denominado filtro recursivo.
35. Prove que a coerência quadrada \rho_{_{Y,X}}^2(\omega)=1, para todo \omega, quando
\begin{equation*} Y_t \, = \, \sum_{r=-\infty}^{\infty} a_r X_{t-r}, \end{equation*} isto é,
quando X_t e Y_t podem ser relacionados exatamente por um filtro linear.
36. O conjunto de dados climhyd contém 454 meses de valores medidos para seis variáveis climáticas:
(i) Temp: temperatura do ar,
(ii) DewPt: ponto de orvalho,
(iii) CldCvr: cobertura de nuvens,
(iv) WndSpd: velocidade do vento,
(v) Precip: precipitação,
(vi) Influxo: influxo,
no Lago Shasta na Califórnia; os dados são exibidos na Figura VII.3.
Gostaríamos de examinar as possíveis relações entre os fatores climáticos e entre os fatores
climáticos e o influxo para o Lago Shasta.
(a) Primeiro transforme as séries de influxo e precipitação da seguinte forma: I_t = \log(i_t),
onde i_t é o influxo e P_t =\sqrt{p_t}, onde p_t é a precipitação. Em seguida, calcule as
coerências quadradas entre todas as variáveis climáticas e o influxo transformado e argumente
que o determinante mais forte da série de influxo é a precipitação (transformada).
Dica: se x contiver várias séries temporais, a maneira mais fácil de exibir todas as coerências
quadradas é plotar as coerências suprimindo os intervalos de confiança, por exemplo,
> mvspec (x, spans = c(7,7), taper = .5, plot.type = "coh", ci = -1)
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 71/72
16/02/23, 19:52 Análise espectral e filtragem
leg.ufpr.br/~lucambio/STemporais/STemporaisIV.html 72/72