Você está na página 1de 122

Fundamentos de Processos Estocásticos

Guilherme de Alencar Barreto


gbarreto@ufc.br

Grupo de Aprendizado de Máquinas – GRAMA


Programa de Pós-Graduação em Engenharia de Teleinformática
Universidade Federal do Ceará – UFC
www.researchgate.net/profile/Guilherme_Barreto2/

c G. A. Barreto
Fundamentos de Processos Estocásticos
“O processamento de sinais mudou! Não estamos mais na era na
qual a informação na forma de sinais elétricos é processada por meio
de tradicionais dispositivos analógicos. Nós estamos solida e, para o
futuro previsível, irrevogavelmente, no âmago do processamento de
sinais digitais (amostrados ou discretos no tempo) aleatórios."

Charles W. Therrien, 1992


Discrete Random Signals and Statistical Signal Processing

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos

Conteúdo da Apresentação
1 Definição de Processos Estocásticos
2 Funções de Autocovariância e de Covariância Cruzada
3 Funções de Autocorrelação e de Correlação Cruzada
4 Estacionariedade Forte/Fraca e Ergodicidade
5 Função Densidade Espectral de Potência
6 Periodograma e a Transformada Discreta de Fourier
7 Gráfico de Dispersão (lagplot)

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos

Pré-Requisitos
1 Variáveis Aleatórias (Univariada/Multivariada)
2 Álgebra Linear e Cálculo Integral/Diferencial
3 Sinais e Sistemas (ou Processamento Digital de Sinais)
4 Noções de Matlab/Octave/Scilab

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos

Referências Importantes

1 Charles W. Therrien (1992). Discrete Random Signals and Statistical


Signal Processing, Prentice Hall.

2 A. Hyvärinen, J. Karhunen & E. Oja (2001). Independent Component


Analysis, John Wiley & Sons.

3 R. G. Brown & P. Y. C. Hwang (1996). Introduction to Random Signals


and Applied Kalman Filtering, John Wiley & Sons.

4 P. A. Morettin & C. M. C. Toloi (2004). Análise de Séries Temporais,


editora Edgar Blücher LTDA.

5 Notas de Aula - Prof. Guilherme A. Barreto

c G. A. Barreto
Fundamentos de Processos Estocásticos
Parte I

Fundamentos de Processos Estocásticos

c G. A. Barreto
Fundamentos de Processos Estocásticos
Análise Matemática de Sinais Probabilísticos

Conceito de Processo Estocástico


Grosso modo, Processo Estocástico é uma generalização do
conceito de variável aleatória, em que uma segunda componente
(em geral, a variável tempo) é utilizada na caracterização de um
evento ou experimento probabilístico.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Análise Matemática de Sinais Probabilísticos
Nomenclatura Matemática

Definição
Um processo estocástico no espaço paramétrico T é uma
família {X(w, t); t ∈ T, w ∈ Ω} de variáveis aleatórias
definidas no mesmo espaço amostral Ω.

Se T é um intervalo de números reais, o processo é dito


contínuo. Se T é uma seqüência de números inteiros, o
processo é dito discreto.

Para simplificar a notação, em geral, omite-se a dependência


em ω escrevendo apenas

X(ω, t) ≡ X(t). (1)

c G. A. Barreto
Fundamentos de Processos Estocásticos
Análise Matemática de Sinais Probabilísticos

Caso 1 - Se t = ti é fixo e ω varia, tem-se que


X(ω, ti ) ≡ X(ti ) é uma variável aleatória.

Caso 2 - Se t varia e ω = ωj é fixo, tem-se que X(ωj , t) é


uma realização do processo estocástico, também chamado de
sinal aleatório.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Análise Matemática de Sinais Probabilísticos

Exemplos de realizações de processos estocásticos:


→ Ondas de tensão/corrente em circuitos elétricos reais.
→ Sinais de voz, EEG, ECG e outros biossinais.
→ Demanda de energia elétrica.
→ Em geral, qualquer grandeza física que pode ser medida no
tempo e que está sujeita à incertezas provocadas pelo processo
de medição ou por influências externas e/ou internas
indeterminadas.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Análise Matemática de Sinais Probabilísticos

c G. A. Barreto
Fundamentos de Processos Estocásticos
Análise Matemática de Sinais Probabilísticos

Figura : Um processo estocástico interpretado como uma família de


variáveis aleatórias.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Análise Matemática de Sinais Probabilísticos

Figura : Um processo estocástico interpretado como uma família de


trajetórias.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Análise Matemática de Sinais Probabilísticos

Descrição Probabilística: Um processo estocástico


{X(w, t); t ∈ T, w ∈ Ω} está completamente caracterizado quando,
para uma dada realização de tempo discreto deste processo,
denotada por {X(ti )}ni=1 , é possível especificar todas as funções
densidade conjuntas até a de ordem n:

Ordem 1 → fX1 (x1 ), fX2 (x2 ), ..., fXn (xn )


Ordem 2 → fX1 X2 (x1 , x2 ), fX1 X3 (x1 , x3 ), ..., fXn Xn−1 (xn , xn−1 )
.. ..
. .
Ordem n → fX1 X2 ...Xn (x1 , x2 , ..., xn )

em que foi adotada a seguinte notação xi = x(ti ).

c G. A. Barreto
Fundamentos de Processos Estocásticos
Análise Matemática de Sinais Probabilísticos

Observações

1 Densidades conjuntas de ordem superior são, em tese, úteis na


caracterização de determinado processo estocástico.
2 Na prática é praticamente impossível e improdutivo escrever
todas estas densidades conjuntas!!!
3 Único caso viável na prática ocorre quando o processo
estocástico é gaussiano. Neste caso, todas as densidades
conjuntas para qualquer combinação de variáveis aleatórias são
gaussianas!!

c G. A. Barreto
Fundamentos de Processos Estocásticos
Análise Matemática de Sinais Probabilísticos

Independência

Caso 1 - Para uma dada realização {X(t)} de um processo


estocástico de interesse, as variáveis aleatórias
X(ti ) = Xi , i = 1, 2, . . . , n, são ditas
independentes, para n = 2, 3, . . ., se e somente se

fX1 ···Xn (x1 , . . . , xn ) = fX1 (x1 ) · · · fXn (xn ), (2)


Yn
= fXi (xi ). (3)
i=1

Neste caso, X(t) é chamado de processo


estocástico independente.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Caso 2 - Dois processos estocásticos quaisquer, {X(t)} e
{Y (t)} são independentes se a densidade conjunta de
qualquer combinação das variáveis aleatórias dos 2
processos pode ser escrita como produto das
densidades conjuntas individuais:

fX1 X2 ...Y1Y2 ... = fX1 X2 ... fY1 Y2 ... (4)

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Média de um Processo Estocástico

Definição
Seja fXi (xi ) a PDF da variável aleatória X(ti ). Então, a média do
processo X(t) no instante ti é definida como

mX (ti ) = E[X(ti )]
Z ∞
= x(ti )fX(ti ) (x(ti ))dx(ti ) (5)
Z−∞

= xi fXi (xi )dxi
−∞

em que xi ≡ x(ti ).

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Média de um Processo Estocástico

Observações sobre a Média de um Processo Estocástico


A média de um sinal estocástico é função de ti . Portanto, ela
pode ter valor diferente para diferentes valores de ti .

Na Eq. (5) o sinal é contínuo, logo para resolver a integral


devemos conhecer todos os infinitos possíveis valores que
X(t) pode assumir em t = ti .

De acordo com a Eq. (5), para saber o valor médio da


amplitude do sinal no instante ti necessitamos de infinitas
realizações do sinal estocástico X(t).

Como a média definida na Eq. (5) é tomada ao longo das


infinitas realizações do processo para um instante fixo t = ti ,
ela recebe é comumente chamada de média de conjunto (do
inglês ensemble mean).

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Média de um Processo Estocástico

A figura abaixo mostra várias realizações um sinal aleatório de


tempo discreto.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação

Definição
A Função de Autocorrelação (FAC) de X(t) para dois instantes
R
de tempo t1 e t2 , t1 , t2 ∈ e t2 > t1 , é definida como:

RX (t1 , t2 ) = E[X(t1 )X(t2 )]


Z ∞Z ∞
= x1 x2 fX1 X2 (x1 , x2 )dx1 dx2 (6)
−∞ −∞

em que x1 = x(t1 ), x2 = x(t2 ) e fX1 X2 (x1 , x2 ) é a FDP conjunta


de X1 = X(t1 ) e X2 = X(t2 ).

A FAC avalia o quanto a amplitude do sinal em certo instante


de tempo t1 está estatisticamente associada à amplitude do
sinal em outro instante de tempo t2 .
Note que a FAC fornece valores na faixa (−∞, +∞).
c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação

A figura abaixo mostra várias realizações um sinal aleatório.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação

Importante 1
Valores positivos indicam que quando a amplitude no instante
t1 tende a crescer, a amplitude no instante t2 tende a crescer
também.

Valores negativos indicam que quando a amplitude no instante


t1 tende a crescer, a amplitude no instante t2 tende a
decrescer.

Valores próximos de zero indicam que tanto faz se a amplitude


no instante t1 tende a crescer (ou descrescer), pois não se
verifica nenhuma tendência de crescimento (ou decrescimento)
da amplitude no instante t2 .

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação

Importante 2
Valores elevados da FAC para dois instantes quaisquer t1 e t2
indicam a presença de componentes de baixa freqüência no
sinal.
⋆ Quando o sinal é predominantemente de baixa freqüência as
amplitudes consecutivas X(t1 ) e X(t2 ) possuem valores muito
parecidos.

Valores baixos da FAC para dois instantes quaisquer t1 e t2


indicam a presença de componentes de alta freqüência no
sinal.
⋆ Quando o sinal é predominantemente de alta freqüência as
amplitudes consecutivas X(t1 ) e X(t2 ) possuem valores bem
diferentes.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação

A figura abaixo mostra um sinal aleatório com um conteúdo


harmônico considerado de baixa freqüência.

1.5

X(t )
X(t ) 2
1 1

0.5
Amplitude do Sinal

−0.5

−1

−1.5
0 10 20 30 40 50 60 70 80 90 100
t t
1 2 tempo

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação

A figura abaixo mostra um sinal aleatório com um conteúdo


harmônico de maior freqüência que a do sinal do slide anterior.

1.5

X(t1)

0.5
Amplitude do Sinal

−0.5 X(t2)

−1

−1.5
0 10 20 30 40 50 60 70 80 90 100
t1 t
2 tempo

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação

A amplitude do sinal mostrado na segunda figura varia


bastante entre instantes consecutivos t1 e t2 , t2 > t1 ,
enquanto a amplitude do sinal da primeira figura varia menos.

Logo, o produto X(t1 ) · X(t2 ) para a segunda figura é menor


do que o produto para a primeira figura, para os mesmos
valores t1 e t2 .

Quanto mais distintos forem os valores consecutivos das


amplitudes X(t1 ) e X(t2 ), menor será a correlação entre eles.

Quanto mais parecidos forem os valores consecutivos das


amplitudes X(t1 ) e X(t2 ), maior será a correlação entre eles.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação

Comentário Importante
A interpretação da FAC em termos do conteúdo harmônico de um
sinal será muito útil mais adiante quando formos definir o conceito
de função densidade espectral de potência.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocovariância

Uma vez definida a FAC de um sinal estocástico, prosseguimos


com a definição de Função de Autocovariância (FACV).

Definição
Seja fX1 X2 (x1 , x2 ) a PDF conjunta do sinal X(t) nos instantes t1
e t2 . Então a Função de Autocovariância (FACV) de X(t)
nestes dois instantes de tempo é definida como:

CX (t1 , t2 ) = E[(x(t1 ) − mX (t1 ))(x(t2 ) − mX (t2 ))] (7)

em que mX (ti ) = E[X(ti )] é a média do sinal no instante ti ,


i = 1, 2.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocovariância

Após alguma manipulação algébrica, chegamos a uma


expressão bastante útil que relaciona a FAC com a FACV:

CX (t1 , t2 ) = RX (t1 , t2 ) − mX (t1 )mX (t2 ) (8)

⋆ Para obter a FACV basta calcular a FAC e subtrair o produto


das médias correspondentes.

Para sinais de médias nulas tem-se obviamente que

CX (t1 , t2 ) = RX (t1 , t2 ) (9)

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocovariância

Uma definição importante que derivada da definição de FACV


é a de variância de um processo estocástico.

Definição
Seja fXi (xi ) a PDF do sinal X(t) no instante ti . Então a
Variância (FACV) de X(t) neste instante é definida como:
2
σX (ti ) = E[(x(ti ) − mX (ti ))2 ],
Z ∞
= (xi − mX (ti ))2 fXi (xi )dxi (10)
−∞

em que mX (ti ) = E[X(ti )] é a média do sinal no instante ti .

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Valor quadrático médio

Por sua vez, da definição de variância deriva-se o conceito de


Valor Quadrático Médio de um processo estocástico.

Definição
Considere que o sinal X(t) tem média nula. Então, o valor
quadrático médio de X(t) é definido como:

E[x2 (ti )] = RX (ti , ti ),


Z ∞
= x2i fXi (xi )dxi (11)
−∞

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função Coeficiente de Autocorrelação

É comum em Processamento de Sinais Estocásticos, usar uma


versão normalizada da FACV, denominada Função
Coeficiente de Autocorrelação (FCAC).

Definição
Seja CX (t1 , t2 ), σX (t1 ) e σX (t1 ), respectivamente, a FACV e as
variâncias do sinal X(t) para os instantes t1 e t2 . Então, a FCAC
de X(t) é dada por

CX (t1 , t2 )
ρX (t1 , t2 ) = , (12)
σX (t1 )σX (t2 )

tal que −1 ≤ ρX (t1 , t2 ) ≤ 1.

Na literatura, o termo FAC (Função de Autocorrelação) é


usado para designar tanto a FAC quanto a FCAC.
c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade

Um conceito importante em processamento de sinais aleatórios


é a Estacionariedade.
Este conceito está associado com a invariância (ou constância)
das propriedades estatísticas de um processo estocástico.
Considere a seguinte realização de um processo estocástico:

{X(t1 ), X(t2 ), ..., X(tk )}

Considere agora uma nova realização obtida τ instantes de


tempo depois, ou seja:

{X(t1 + τ ), X(t2 + τ ), ..., X(tk + τ )}

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-1)

Definição
Um processo estocástico é fortemente estacionário ou estacionário
no sentido estrito se, e somente se, todas as FDPs de ordem k ≥ 1
forem invariantes sob uma translação do tempo τ ∈ . R
Assim, um processo estocástico é fortemente estacionário se, para
todo k e para todo τ :

fX1 (x1 ) ≡ fX1+τ (x1+τ )


fX1 X2 (x1 , x2 ) ≡ fX1+τ X2+τ (x1+τ , x2+τ )
.. .. ..
. . .
fX1 X2 ...Xk (x1 , x2 , ..., xk ) ≡ fX1+τ X2+τ ...Xk+τ (x1+τ , x2+τ , ..., xk+τ )

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-2)

Observações Importantes - 1
A condição de estacionariedade forte é um requisito bastante
severo, pois exige que todas as FDPs associadas sejam
invariantes no tempo.

Esta condição é bastante difícil de ser verificada ou testada na


prática. Uma definição “menos” exigente de estacionariedade é
freqüentemente usada (ou assumida).

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-3)

Observações Importantes - 2
Quando a condição acima só é válida para 1 ≤ r ≤ k, diz-se
que o processo estocástico X(t) é estacionário de ordem r.

Um caso importante e de bastante interesse prático diz


respeito a um processo estocástico estacionário de ordem
r = 2.

Este processo estacionário é chamado fracamente


estacionário ou estacionário no sentido amplo.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-4)

Observações Importantes - 2
Para um processo fracamente estacionário as seguintes condições
são válidas:

Condição 1 - A média do processo mX (ti ) é constante.


2 (t ) é constante.
Condição 2 - A variância do processo σX i

Condição 3 - A FAC do processo RX (t1 , t2 ) = RX (τ ), em que


τ = t2 − t1 (t1 < t2 ).

As condições acima são mais fáceis de se verificar na prática,


permitindo classificar um sinal estocástico em estacionário ou
não-estacionário.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-5)

Mostre que a Condição 1 de estacionariedade fraca é verdadeira.


Seja X(t) um processo estocástico contínuo. Se o processo é
estacionário, então podemos escrever que:

fXt (xt ) = fXt+τ (xt+τ ), ∀τ ∈ R


Assim, a média de X(t + τ ) é dada por:
Z ∞
mX (t + τ ) = E[X(t + τ )] = xt+τ fXt+τ (xt+τ )dxt+τ
−∞
Z ∞
= xt+τ fXt (xt )dxt+τ = E[X(t)] = mX (t).
−∞

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-6)

Mostre que a Condição 3 de estacionariedade fraca é verdadeira.


Seja X(t) um processo estocástico contínuo. Assim, a FAC de
X(t) é dada por:

E[X(t1 )X(t2 )] = RX (t1 , t2 ) = RX (t1 + τ, t2 + τ )


= RX (t1 − t2 , 0) ≡ RX (τ ), ∀τ ∈ R (13)
em que assumimos que

fX1 X2 (x1 , x2 ) = fX1+τ X2+τ (x1+τ , x2+τ )

Note que a FAC depende apenas da diferença entre t1 e t2 . Por


isso, em vez de escrever RX (t1 − t2 , 0), costumamos abreviar a
notação e escrever RX (t1 − t2 , 0) = RX (τ ).

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-7)

A figura abaixo mostra um sinal aleatório estacionário (pelo


menos para o período de observação do mesmo!).
1.5

0.5
Amplitude do Sinal

−0.5

−1

−1.5
0 100 200 300 400 500 600 700 800 900 1000
tempo

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-8)

A figura anterior mostra uma realização do seguinte processo


estocástico, simulado no Matlab/Octave:

X(t) = sin(ωt) + ε(t) (14)

em que ε(t) é uma variável aleatória gaussiana de média zero e


variância σε2 =0,1, ω = 2π/T é a freqüência angular constante
e T = 50 unidades de tempo é o período da senóide.
O sinal gerado obedece todas as três condições de
estacionariedade fraca.
O tipo de sinal estocástico mostrado na Eq. (14) simula um
fenômeno comumente encontrado na prática: um sinal
determinístico contaminado com ruído branco.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-9)

A parte senoidal do sinal corresponderia a uma onda de


tensão/corrente gerada por determinado equipamento elétrico,
enquanto a variável aleatória ε(t) corresponderia ao ruído que
interfere na medição desta onda de tensão/corrente.

Na prática, mede-se apenas o sinal ruidoso X(t).

Muitas vezes o nível de ruído é tão elevado que não temos


certeza absoluta que o sinal medido possui uma componente
senoidal.

Mais adiante estudaremos uma técnica baseada na FAC para


detectar sinais períodicos imersos em ruído.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-10)

A figura abaixo mostra um sinal aleatório não-estacionário na


média (por quê?).
3.5

2.5

2
Amplitude do Sinal

1.5

0.5

−0.5

−1

−1.5
0 100 200 300 400 500 600 700 800 900 1000
tempo

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-11)

A figura abaixo mostra um sinal aleatório não-estacionário na


variância (por quê?).
2.5

1.5

1
Amplitude do Sinal

0.5

−0.5

−1

−1.5

−2

−2.5
0 100 200 300 400 500 600 700 800 900 1000
tempo

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-12)

A figura abaixo mostra um sinal aleatório não-estacionário na


FAC (por quê?).
1.5

0.5
Amplitude do Sinal

−0.5

−1

−1.5
0 100 200 300 400 500 600 700 800 900 1000
tempo

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-13)

A estacionariedade fraca permite simplificar as expressões da


FAC, FACV e FCAC, escrevendo-as em função de τ = t2 − t1 .
Por exemplo, a FAC passa ser escrita como

RX (t1 , t2 ) = RX (τ ) = E[X(t)X(t + τ )] (15)

A FACV, por sua vez, passa ser escrita como

CX (t1 , t2 ) = CX (τ ) = E[(X(t)−mX )(X(t+τ )−mX )] (16)

Por fim, a FCAC passa ser escrito como

CX (τ )
ρX (t1 , t2 ) = ρX (τ ) = 2 (17)
σX
2 são constantes.
em que mX e σX

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-14)

Como a FAC de um processo fracamente estacionário depende


apenas de τ (τ > 0), podemos escrever a FAC de duas
maneiras equivalentes:

RX (τ ) = E[X(t)X(t + τ )] (18)

ou
RX (τ ) = E[X(t − τ )X(t)] (19)

Note que em ambas definições temos t2 − t1 = τ .

A mesma observação vale para a definição da FACV e do


FCAC.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-15)

Propriedades Gerais da FAC

(1) RX (0) é o valor quadrático médio do processo X(t):

E[x2 (ti )] = RX (ti , ti ) = RX (ti − ti ) = RX (0).


2 se o processo tiver média nula.
(2) RX (0) = σX
(3) RX (τ ) é uma função par de seu argumento:
RX (τ ) = RX (−τ ). Assim, para fins de análise consideramos
apenas os valores correspondentes a τ > 0.
(4) |RX (τ )| ≤ RX (0), para todo τ .
(5) Se X(t) contém uma componente periódica, RX (t) também
conterá uma componente de mesmo período.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estacionariedade de um Processo Estocástico (cont.-16)

Propriedades Gerais da FAC (cont.)

(6) Se a componente periódica é do tipo senoidal, então RX (t)


perderá informação sobre a fase da componente senoidal.
(7) Se X(t) não contém componentes periódicas, RX (τ ) tende a
zero, à medida que τ → ∞.
(8) Se para um determinado processo estocástico X(t) obtivermos
RX (∞) = 0 implica dizer que o processo tem média zero.
(9) A transformada de Fourier de RX (τ ) é real (não é um número
complexo), simétrica e não-negativa.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico

Definição
Um processo estocástico é ergódico, se seus momentos
estatísticos, calculados ao longo de várias realizações do processo,
forem equivalentes aos momentos temporais, calculados a partir de
uma única realização do processo.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-1)

Definição
Um processo é ergódico na média, se e somente se:
Z ∞
E[X(ti )] = xi fXi (xi )dxi
−∞
1 k
(sinal contínuo)
 R
 k 0 x(t)dt, k → ∞
≡ (20)
1 Pk
i=1 x(ti ), k → ∞ (sinal amostrado)

k

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-2)

Definição
Um processo é ergódico na variância, se e somente se:
Z ∞
V ar[X(ti )] = (xi − µX )2 fXi (xi )dxi
−∞
1 k
− µX )2 dt, k → ∞
 R
 k 0 (x(t) (contínuo)
≡ (21)
 1 Pk 2
k i=1 (x(ti ) − µX ) , k → ∞ (amostrado)

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-3)

Definição
Um processo é ergódico na correlação, se e somente se:

RX (τ ) = E[X(t)X(t + τ )]
Z ∞Z ∞
= xt xt+τ fXt Xt+τ (xt , xt+τ )dxt dxt+τ
−∞ −∞
 R
k
 k1 0 x(t)x(t + τ )dt, k → ∞
 (contínuo)
≡ (22)
 1 Pk−τ x(t )x(t + τ ), k → ∞ (amostrado)

k−τ i=1 i i

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-4)

O conceito de ergodicidade é de fundamental importância


prática para a teoria de processos estocásticos.

Dizer que um processo é ergódico implica em assumir que


podemos inferir todas as informações estatísticas sobre o
processo estocástico a partir de uma única realização do
mesmo.

Na prática, é muito difícil verificar a estacionariedade no


sentido estrito e a ergodicidade de um processo estocástico.

Assim, para facilitar a nossa vida, o que se faz é assumir que o


processo é estacionário no sentido amplo e ergódico.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-5)

Estimativa da FAC de um Processo Estocástico Ergódico


A expressão da FAC de um processo ergódico na correlação de
tempo discreto, mostrada na Eq. (22), nos dá um método simples
para estimar a FAC a partir de uma realização de tal processo de
tamanho N , {x(t1 ), x(t2 ), . . . , x(tN )}:

N −τ
1 X
R̂X (τ ) = x(ti )x(ti + τ ) (23)
N −τ
i=1

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-5)

Dica Prática para Verificar Estacionariedade!


(1) Dividir o sinal original em um número finito K de sub-sinais de
mesmo comprimento N .
(2) Para um certo ti fixo, estimar a média (mx (ti )) e variância
(σx (ti )) ao longo das K pseudo-realizações:
K
1 X (k)
m̂X (ti ) ≈ x (ti ), (24)
K
k=1
K
2 1 X (k)
σ̂X (ti ) ≈ (x (ti ) − m̂X (ti ))2 , (25)
K
k=1

para i = 1, . . . , N .

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-6)

Dica Prática para Verificar Estacionariedade! (cont.)


(3) Calcular a média das médias e das variâncias do Item (2):
PN PN 2
i=1 m̂X (ti ) i=1 σ̂X (ti )
M̄ = e V̄ = (26)
N N
(4) Calcular a média e a variância das amplitudes da realização
original completa:
N ·K
1 X
X̄ ≈ x(ti ), (27)
N ·K
i=1
N ·K
1 X
s2X ≈ (x(ti ) − X̄)2 . (28)
N ·K
i=1

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-7)

Dica Prática!
(5) Analisar a plausibilidade das seguintes hipóteses:
A média é constante, ou seja, M̄ ≈ X̄.
A variância é constante, ou seja, V̄ ≈ s2X .

(6) Se as hipóteses forem verdadeiras, então pode-se assumir com


relativa segurança que o processo é ergódico e estacionário.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-8)

Exercício Resolvido
Considere o seguinte processo estocástico:

X(t) = A sin ωt (29)

em que A é uma variável aleatória gaussiana de média zero e


2 , ω é uma constante de valor conhecido e t
variância σA
corresponde ao tempo contínuo.

Suponha que obtemos um valor amostral para A, denotado


por A1 . Assim, a realização correspondente de X(t) para esse
valor de A1 é dada por:

XA (t) = A1 sin ωt (30)

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-9)

Exercício Resolvido
Assim, usando a Eq. (22) para um sinal contínuo, obtemos:

1 k
Z
RXA (τ ) = lim x(t)x(t + τ )dt
k→∞ k 0

1 k
Z
= lim A1 sin ωt · A1 sin ω(t + τ )dt
k→∞ k 0
A21
= cos ωτ
2
Para resolver a integral acima usar a seguinte identidade
trigonométrica:

1 1
sin(a) · sin(b) = cos(a − b) − cos(a + b)
2 2

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Ergodicidade de um Processo Estocástico (cont.-10)

Exercício Resolvido
Por outro lado, usando a definição teórica da FAC (Eq. (6)),
chegamos ao seguinte resultado:

RX (t1 , t2 ) = E[X(t1 )X(t2 )] = E[A sin ωt1 · A sin ωt2 ]


= E[A2 ] sin ωt1 · sin ωt2
2
= σA sin ωt1 · sin ωt2 (31)

Como os resultados são diferentes, concluímos que este


processo não é ergódico.
Além disso, como a expressão da FAC dada na Eq. (31) não
pode ser reduzida a uma simples função de τ = t2 − t1 , o
processo também não é estacionário.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Processo Autorregressivo de Ordem 1 - AR(1)

O processo AR(1) é definido pela seguinte expressão:

x(t) = a0 + a1 x(t − 1) + ε(t), (32)

R
em que a0 ∈ e |a1 | < 1 são constantes e ε(t) ∼ N (0, σε2 ) é
uma variável aleatória gaussiana de média zero e variância σε2 .
Além disso, a variável aleatória ε(t) tem a seguinte função de
autocorrelação teórica:
 2
σε , para τ = 0
Rε (τ ) = (33)
0, para τ 6= 0

Por esse motivo, a variável aleatória σε2 é popularmente


chamada de ruído branco gaussiano aditivo.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Média de um Processo AR(1)

A média teórica de um processo AR(1) é dada por

µx = E[x(t) = E[a0 + a1 x(t − 1) + ε(t),


= E[a0 ] + E[a1 x(t − 1)] + E[ε(t)],
= a0 + a1 E[x(t − 1)], (34)
em que lançamos mão do fato de o valor esperado de uma
constante ser a própria constante.
Se assumirmos que o processo AR(1) é estacionário no sentido
amplo, temos que E[x(t)] = E[x(t − 1)] = µx . Assim, a
expressão (34) pode ser resolvida para µx , resultando em

µ x = a0 + a1 µ x ⇒ (1 − a1 )µx = a0
a0
µx = . (35)
1 − a1
Note que da Eq. (35) tiramos que a0 = µx (1 − a1 ).
c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Variância de um Processo AR(1)

Assim, podemos reescrever a expressão de um processo AR(1)


da seguinte forma:
x(t) = a0 + a1 x(t − 1) + ε(t),
= µx (1 − a1 ) + a1 x(t − 1) + ε(t), (36)
de onde resulta
x(t) − µx = a1 (x(t − 1) − µx ) + ε(t). (37)
Daí, a variância teórica de um processo AR(1) é dada por
2 2
σx = E[(x(t) − µx ) ],
2
= E[(a1 (x(t − 1) − µx ) + ε(t)) ],
2 2 2
= E[a1 (x(t − 1) − µx ) + 2a1 (x(t − 1) − µx )ε(t) + ε (t)],
2 2 2
= a1 E[(x(t − 1) − µx ) ] + 2a1 E[(x(t − 1) − µx )ε(t)] + E[ε (t)],

2
2 2 2 2 σε
= a1 σx + 0 + σε ⇒ σx = . (38)
1 − a2
1

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Variância de um Processo AR(1)

Na obtenção da Eq. (38), usamos o fato de o processo ser


estacionário. Logo,

σx2 = E[(x(t) − µx )2 ] = E[(x(t − 1) − µx )2 ]. (39)

Além disso, a covariância entre x(t − 1) e ε(t) é nula por


questões de causalidade.
Se ε(t) é visto como um sinal de entrada, enquanto x(t − 1) é
visto como um sinal de saída, estamos tentando correlacionar
a entrada no instante t com a saída no instante t − 1.
Seria como tentar determinar ou visualizar a resposta do
sistema antes de aplicar a entrada!
Por este motivo, temos que

E[(x(t − 1) − µx )ε(t)] = 0. (40)

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação de um Processo AR(1)

A fim de obter uma expressão para Rx (τ ) = E[x(t)x(t − τ )],


iremos considerar primeiro τ = 0. Além disso, sem perda de
generalidade, iremos considerar a0 = 0.
Neste caso, temos o seguinte resultado:
Rx (0) = E[x2 (t)] = σx2 . (41)
Para obter Rx (1) = E[x(t)x(t − 1)], basta multiplicar ambos
os lados da expressão do processo AR(1) e aplicar o operador
valor esperado a ambos os lados da expressão resultante.
Assim,
E[x(t)x(t − 1)] = a1 E[x2 (t − 1)] + E[ε(t)x(t − 1)],
Rx (1) = a1 σx2 , (42)
em que lançamos mão do fato de o ruído ε(t) não ser
correlacionado com valores passados de x(t).
c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação de um Processo AR(1)

Para τ = 2, obtemos o seguinte resultado:

E[x(t)x(t − 2)] = a1 E[x(t − 1)x(t − 2)] + E[ε(t)x(t − 2)],


Rx (2) = a1 Rx (1) = a21 σx2 . (43)

E para τ = 3, obtemos

E[x(t)x(t − 3)] = a1 E[x(t − 1)x(t − 3)] + E[ε(t)x(t − 3)],


Rx (3) = a1 Rx (2) = a31 σx2 . (44)

Por indução, podemos generalizar os resultados anteriores e


obter uma expressão para Rx (τ ) para qualquer τ ≥ 0:

E[x(t)x(t − τ )] = a1 E[x(t − 1)x(t − τ )] + E[ε(t)x(t − τ )],


σε2
Rx (τ ) = a1 Rx (τ − 1) = aτ1 σx2 = aτ . (45)
1 − a21 1

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação de um Processo AR(1)

A Equação (44) pode ainda ser generalizada para qualquer τ ,


positivo, negativo ou nulo.
Para isto, basta lembrar que a FAC é uma função par, ou seja,
Rx (τ ) = Rx (−τ ).
Assim, chegamos à expressão final da FAC de um processo
AR(1):

|τ | σε2 |τ |
Rx (τ ) = σx2 a1 = a , τ = 0, ±1, ±2, ... (46)
1 − a21 1

em que |u| denota o valor absoluto de u.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação (Normalizada) de um Processo AR(1)

Se dividirmos a Equação (46) da FAC pela variância do


processo, obtemos a FAC normalizada, ou seja:

Rx (τ ) |τ | |τ |
ρx (τ ) = = a1 = a1 , τ = 0, ±1, ±2, ... (47)
σx2

em que |u| denota o valor absoluto de u.


A expressão de ρx (τ ) é útil na estimação do parâmetro a1 do
modelo AR(1). Se fizermos τ = 1, teremos

a1 = ρx (1). (48)

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação (Normalizada) de um Processo AR(1)

Assim, dada uma realização {x(ti )}N


i=1 do processo AR(1),
uma estimativa do coeficiente a1 a partir da FCAC amostral
para τ = 1 é dada por
PN −1
x(ti )x(ti − 1)
â1 = ρ̂x (1) = i=1 , (49)
(N − 1)s2x

em que s2x é a variância amostral do processo:


PN
− x̄)2
i=1 (x(ti )
s2x = , (50)
N −1
PN
com x̄ = i=1 x(ti )/N denotando a média amostral.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação de um Processo AR(1)

FAC de um processo AR(1) com a1 = 0.8 e σε2 = 0.1


FAC Processo AR(1): a1=0.8, σe=0.1
0.35

0.3

0.25

0.2
FAC (R (τ))
x

0.15

0.1

0.05

0
0 2 4 6 8 10 12 14 16 18 20
atraso temporal (τ)

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Autocorrelação de um Processo AR(1)

FAC de um processo AR(1) com a1 = −0.8 e σε2 = 0.1


FAC Processo AR(1): a1=−0.8, σe=0.1

0.25

0.2

0.15

0.1

0.05
FAC (Rx(τ))

−0.05

−0.1

−0.15

−0.2

−0.25

0 2 4 6 8 10 12 14 16 18 20
atraso temporal (τ)

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Correlação Cruzada (FCC) - Sinais Contínuos

Definição 1
Sejam X(t) e Y (t) dois sinais aleatórios estacionários de tempo
contínuo. A Função de Correlação Cruzada (FCC) entre X(t) e
Y (t) pode ser definida como:

RXY (τ ) = E[X(t)Y (t + τ )], τ = 0, 1, 2, ... (51)


Z ∞Z ∞
= xt yt+τ fXt Yt+τ (xt , yt+τ )dxt dyt+τ ,
−∞ −∞

em que fXt Yt+τ (xt , yt+τ ) é a FDP conjunta de X(t) e Y (t + τ ).

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Correlação Cruzada (FCC) (cont.-1)

Definição 2
A FCC entre X(t) e Y (t) também pode ser definida como:

RY X (τ ) = E[Y (t)X(t + τ )], τ = 0, 1, 2, ... (52)


Z ∞Z ∞
= yt xt+τ fYt Xt+τ (yt , xt+τ )dyt dxt+τ ,
−∞ −∞

em que fYt Xt+τ (yt , xt+τ ) é a FDP conjunta de Y (t) e X(t + τ ).

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Propriedades da FCC

Propriedade 1
A definição de RY X (τ ) dada na Eq. (52) é invariante a uma
translação de −τ .
Desta forma, RY X (τ ) é também dada por:

RY X (τ ) = E[Y (t − τ )X(t)] (53)

Comparando a Eq.(53) com a definição de RXY (τ ) dada na


Eq.(51), percebemos que:

RXY (τ ) = RY X (−τ ) (54)

Logo, trocar a ordem dos índices da FCC tem o efeito de


mudar o sinal do seu argumento.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Propriedades da FCC

Propriedades 2 e 3
O valor máximo de RXY (τ ) e RY X (τ ) geralmente não
ocorrem para τ = 0.
Porém, pode-se mostrar que
p
|RXY (τ )| ≤ RX (0)RY (0) (55)

Para dois processos estocásticos independentes temos que:

RXY (τ ) = RY X (τ ) (56)

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função de Correlação Cruzada (FCC) - Sinais Discretos

Definição
Sejam X(t) = {..., x(−2), x(−1), x(0), x(1), x(2), ...} e
Y (t) = {..., y(−2), y(−1), y(0), y(1), y(2), ...} dois sinais aleatórios
estacionários e de tempo discreto. Neste caso, as FCCs são
definidas como:

X
RXY (τ ) = x(t)y(t + τ ) (57)
t=−∞
e

X
RY X (τ ) = y(t)x(t + τ ), (58)
t=−∞

para τ = 0, 1, 2, ...

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estimação da FCC - Sinais Discretos

Definição 1
Sejam X(t) = {x(1), x(2), ..., x(N )} e
Y (t) = {y(1), y(2), ..., y(N )} duas seqüências aleatórias
finitas (e.g. sinais amostrados).
Neste caso, as FCCs podem ser estimadas por meio das
seguintes expressões:
PN −τ
x(t)y(t + τ )
rXY (τ ) = t=1 (59)
N −τ
e
PN −τ
y(t)x(t + τ )
rY X (τ ) = t=1 , (60)
N −τ
para τ = 0, 1, 2, ...

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estimação da FCC - Sinais Discretos (cont.-1)

Exemplo

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Estimação da FCC - Sinais Discretos (cont.-2)

Exemplo (continuação)

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FAC na Detecção de Sinais em Meio ao Ruído

Na prática, é comum a ocorrência de combinações aditivas de


sinais estocásticos.
Por exemplo, seja um processo Z(t) dado pela soma de dois
outros processos estacionários X(t) e Y (t):

Z(t) = X(t) + Y (t) (61)

Pode-se mostrar (exercício!) que a FAC do processo Z(t) é


dada por:

RZ (τ ) = E[Z(t)Z(t + τ )]
= RX (τ ) + RY X (τ ) + RXY (τ ) + RY (τ ) (62)

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FAC na Detecção de Sinais em Meio ao Ruído (cont.-1)

Se X(t) e Y (t) são processos não-correlacionados e ambos


têm média zero, os termos RY X (τ ) = RXY (τ ) são nulos,
resultando em

RZ (τ ) = RX (τ ) + RY (τ ) (63)

Assim, concluímos a FAC de um sinal formado pela soma de


dois sinais não-correlacionados é equivalente à soma das FACs
dos sinais individuais.

Este resultado pode ser estendido para a soma de mais de dois


processos estocásticos não-correlacionados.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FAC na Detecção de Sinais em Meio ao Ruído (cont.-2)

A Eq. (63) provê um procedimento muito interessante para ser


utilizado na prática; por exemplo, na detecção de sinais
determinísticos em um meio ruidoso, tal como um canal de
comunicação.

Nesta aplicação supõe-se que um determinado sinal


estocástico é formado por componentes determinísticas
(informação transmitida pelo meio) distorcidas por ruído e que
o ruído e a informação desejada são não-correlacionados.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FAC na Detecção de Sinais em Meio ao Ruído (cont.-3)

Seja o sinal senoidal de amplitude unitária e período T = 50


unidades de tempo, cujo gráfico está mostrado na figura
abaixo.

0.8

0.6

0.4

0.2

−0.2

−0.4

−0.6

−0.8

−1
0 20 40 60 80 100 120 140 160 180 200

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FAC na Detecção de Sinais em Meio ao Ruído (cont.-4)

De acordo com o exposto na teoria, a FAC de um sinal


periódico é também periódica e possui o mesmo período do
sinal.

Sample Autocorrelation Function (ACF)


1

0.8

0.6

0.4
Sample Autocorrelation

0.2

−0.2

−0.4

−0.6

−0.8

−1
0 10 20 30 40 50 60 70 80 90 100
Lag

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FAC na Detecção de Sinais em Meio ao Ruído (cont.-5)

Considere agora um sinal totalmente aleatório (ruído branco),


gaussiano, de média 0 e variância 1.

Ruido Branco N(0,1)


3

−1

−2

−3
0 20 40 60 80 100 120 140 160 180 200

Tempo

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FAC na Detecção de Sinais em Meio ao Ruído (cont.-6)

De acordo com a teoria, a FAC do ruído branco é nula, exceto


para τ = 0. A FAC estimada a partir do sinal mostrado na
figura anterior é mostrado abaixo.

Sample Autocorrelation Function (ACF)


1

0.5
Sample Autocorrelation

−0.5
0 10 20 30 40 50 60 70 80 90 100
Lag

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FAC na Detecção de Sinais em Meio ao Ruído (cont.-7)

Considere agora um sinal formado pela soma da senóide com o


ruído branco. Este sinal é mostrado abaixo.

−1

−2

−3

−4
0 20 40 60 80 100 120 140 160 180 200

Tempo

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FAC na Detecção de Sinais em Meio ao Ruído (cont.-9)

Pergunta Desafio
Você poderia confirmar só no “olhômetro”, que este sinal
estocástico é uma senóide contaminada com ruído branco?

De acordo com a teoria, a FAC de dois sinais


não-correlacionados é a soma das FACs dos sinais individuais.
Vamos ver se isto se confirma?
A FAC do sinal ruidoso estimada diretamente a partir do sinal
observado é mostrada no próximo slide.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FAC na Detecção de Sinais em Meio ao Ruído (cont.-10)

Sample Autocorrelation Function (ACF)


1

0.5
Sample Autocorrelation

−0.5
0 10 20 30 40 50 60 70 80 90 100
Lag

Assim, concluímos que a FAC pode ser usada para detectar


estruturas determinísticas periódicas imersas em sinais
estocásticos, podendo inclusive estimar o período do sinal
determinístico.
c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função Densidade Espectral de Potência

Definição
Seja um processo estocástico X(t) contínuo, estacionário e de
média nula. A Função Densidade Espectral de Potência (FDE) de
X(t) é definida como:
Z ∞
SX (jω) = F[RX (τ )] = RX (τ )e−jωτ dτ (64)
−∞

em que
F[·] é a transformada de Fourier do sinal.
RX (τ ) = E[X(t)X(t − τ )] é a FAC de X(t).
ω = 2πf (rad/s) é a freqüência angular.

A Eq. (64) é conhecida como relação de Wiener-Khinchin em


homenagem aos seus proponentes.
c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função Densidade Espectral de Potência (cont.-1)

Seja a transformada de Fourier inversa de SX (jω) dada por:



1
Z
−1
F [SX (jω)] = SX (jω)ejωτ dω = RX (τ ) (65)
2π −∞

Então, é possível definir o valor quadrático médio de um


processo estacionário, dada sua FDE.

Para isto, basta fazer τ = 0 na Eq. (65), ou seja:


Z ∞
2 1
RX (0) = E[X (t)] = SX (jω)dω (66)
2π −∞

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função Densidade Espectral de Potência (cont.-2)

A Eq. (66) sugere que a potência do sinal está distribuída em


freqüência de acordo com SX (jω).
É nesta interpretação que está a origem dos termos densidade
e potência na nomenclatura adotada para a Eq. (64).
Com base na Eq. (65), pode-se obter a potência média P̄ em
uma banda-passante finita integrando SX (jω) na faixa
apropriada de freqüências:
Z −ω1 Z ω2
1 1
P̄ω1 ≤ω≤ω2 [X(t)] = SX (jω)dω + SX (jω)dω
2π −ω2 2π ω1

para ∀ω1 , ω2 > 0.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função Densidade Espectral de Potência (cont.-3)

Pode-se fazer os seguintes comentários sobre a relação entre FDE e


a FAC:
⇒ As funções RX (τ ) e SX (jω) são pares transformados. Assim,
ambos contém a mesma informação estatística sobre o
processo.
⇒ Visto que se pode ir e vir entre os domínios do tempo e da
freqüência, a escolha de uma das formas é apenas uma
questão de conveniência!
⇒ Devido aos atributos de RX (τ ), a sua transformada de Fourier
dada por SX (jω) será sempre uma função real, não-negativa e
simétrica de ω.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Função Densidade Espectral Cruzada

Definições
A FDE Cruzada (FDEC) entre dois processos estacionários
contínuos, X(t) e Y (t), pode ser definida de duas formas:
Z ∞
SXY (jω) = F[RXY (τ )] = RXY (τ )e−jωτ dτ (67)
−∞
Z ∞
SY X (jω) = F[RY X (τ )] = RY X (τ )e−jωτ dτ (68)
−∞

em que RXY (τ ) e RY X (τ ) são as respectivas FCC cruzadas de


X(t) e Y (t).

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FDE Cruzada de Dois Sinais Aleatórios (cont.-1)

Comentário Importante 1
As funções RXY (τ ) e RY X (τ ) não são necessariamente
funções pares de τ !!
Logo, as funções SXY (jω) e SY X (jω) correspondentes não
são, em geral, funções reais de ω.

Comentário Importante 2
De fato, mostrou-se anteriormente que RXY (τ ) = RY X (−τ ).
Neste caso, as funções SXY (jω) e SY X (jω) são pares
complexos conjugados, ou seja:

SXY (jω) = SY∗ X (jω)

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FDE Cruzada de Dois Sinais Aleatórios (cont.-2)

Função Coerência
A FDE Cruzada Normalizada, chamada de Função
Coerência, de dois processos estacionários X(t) e Y (t) é
definida como:
SXY (jω)
γXY (jω) = p p . (69)
SX (jω) SY (jω)

O valor absoluto quadrático de γXY (jω) é dado por:

|SXY (jω)|2
|γXY |2 = , (70)
SX (jω)SY (jω)
2
tal que 0 ≤ γXY ≤ 1.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
FDE Cruzada de Dois Sinais Aleatórios (cont.-3)

Resultado Importante
Seja Z(t) um sinal aleatório dado pela soma de dois outros
sinais não-correlacionados, X(t) e Y (t).
A FDE de Z(t) é então dada por

SZ (jω) = F[RX+Y (τ )] = SX (jω) + SY (jω), (71)

visto que SXY (jω) = SY X (jω) = 0, ∀ω.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Periodograma

Definição: Periodograma
Seja F[XT (t)] a transformada de Fourier de uma versão
“truncada", XT (t), de um processo estacionário X(t).

Define-se o periodograma de qualquer realização particular de


XT (t) como a seguinte quantidade:
1
Periodograma[XT (t)] = |F[XT (t)]|2 (72)
T

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Periodograma (cont.-1)

O interesse prático no cálculo do periodograma está no fato de


que seu valor esperado, para T → ∞, fornece uma estimativa
não-paramétrica da FDE de XT (t).

Numericamente,tem-se que:
  Z ∞
1 2
E lim |F[XT (t)]| = RX (τ )e−jωτ dτ (73)
T →∞ T −∞

A Eq. (73) é de fundamental importância pois é ela que faz a


conexão da função SX (jω) com o conceito de “espectro"no
sentido clássico.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Transformada Discreta de Fourier

Considere um sinal de banda-passante na faixa 0 a W Hz.


O teorema de Nyquist/Shannon diz que a taxa de amostragem
do sinal deve ser de pelo menos 2W amostras/segundo.
Seja o número N de amostras do sinal. Assim, o intervalo de
tempo T varrido pelas amostras é
N
T =
2W
Seja o sinal truncado XT (t) representado agora por g(t).
Assim, sua transformada de Fourier é dada por:
Z T
G(jω) = g(t)e−jωt dt (74)
0

em que assume-se que g(t) ∈ ℜ, ∀t ∈ [0, T ].

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Transformada Discreta de Fourier (cont.-1)

Considere agora uma discretização de G(jω) dada por:


N
X −1
G(jn2π∆f ) ≈ gk e−jn2π∆f k∆T ∆T (75)
k=0

em que

gk = g(tk ), k = 0, 1, . . . , N − 1
1
∆T = = espaço entre amostras no domínio do tempo
2W
2W
∆f = = espaço entre amostras no domínio da freqüência
N

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Transformada Discreta de Fourier (cont.-2)

1
Nota-se que ∆f · ∆T = N. Assim, a Eq. (75) pode ser
reescrita como:
N −1  
1 X 2πnk
G(jn2π∆f )∆f ≈ gk exp −j (76)
N N
k=0

Dada a seqüência g0 , g1 , ..., gN −1 , o lado direito da Eq. (76)


gera uma outra seqüência G0 , G1 , ..., GN −1 , dada por:
N −1  
1 X 2πnk
Gn = gk exp −j , n = 0, 1, ..., N − 1 (77)
N N
k=0

em que Gn não são valores exatos de G(jω), mas sim boas


aproximações destas.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Transformada Discreta de Fourier (cont.-3)

N −1
Dada a seqüência {Gn }n=0 , pode-se mostrar que existe a
seguinte relação inversa exata:
N −1  
X 2πnk
gk = Gn exp j , k = 0, 1, ..., N − 1 (78)
N
n=0

As seqüências {Gn } e {gk } formam um par-transformado de


Fourier, ou seja, dado uma delas pode-se achar a outra.
A seqüência {Gn } é chamada de Transformada Discreta de
Fourier de gk , enquanto {gk } é a transformada inversa {Gn }.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Transformada Discreta de Fourier (cont.-4)

Comentários Importantes sobre DFT


(1) A seqüência |G0 |2 , |G1 |2 , ..., define uma aproximação da FDE
do sinal, pois envolve apenas uma única realização.
(2) A DFT foi responsável pela popularização do método do
periodograma. Quanto maior N maior a resolução e a
confiabilidade do resultado.
(3) A implementação algorítmica da DFT exige um número de
multiplicações da ordem de N 2 .

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Transformada Discreta de Fourier (cont.-5)

Comentários Importantes sobre DFT (cont.)


(4) Implementações computacionalmente eficientes da DFT,
chamadas de Transformadas Rápidas de Fourier (FFT),
requerem multiplicações da ordem de N log2 N .
(5) Todos os algoritmos do tipo FFT exigem que o número de
amostras N seja uma potência inteira de 2.
(6) Se N é pequeno e uma boa resolução no domínio da
freqüência é requerida, então é melhor usar a DFT da Eq. (77).

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Periodograma no Matlab/Octave

Senóide com Harmônico e Ruído


1 Freqüência Fundamental: F 0 = 440Hz

2 Freqüência de Amostragem: F s = 10000Hz


3 Duração do sinal: T = 3s
4 Desvio-padrão do ruído: σruido = 0.1
» F0=440;
» Fs=10000;
» T=3;
» dpr=0.1;
» t=0:1/Fs:T-1/Fs; % instantes de amostragem
» x=sin(2*pi*F0*t)+0.5*sin(2*pi*3*F0*t)+dpr*randn(size(t));
» plot(t(1:100),x(1:100)) % plota primeiras 100 amostras

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Periodograma no Matlab/Octave

1.5

0.5
Amplitude

−0.5

−1

−1.5
0 0.001 0.002 0.003 0.004 0.005 0.006 0.007 0.008 0.009 0.01
Tempo (segundos)

Figura : Primeiras 100 amostras do sinal senoidal ruidoso gerado.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Periodograma no Matlab/Octave

Estimação da PSD Usando FFT


» N=length(x);
» xdft=fft(x); % transformada rapida Fourier
» xdft=xdft(1:N/2+1); % Seleciona N/2+1 amostras se N par
» Pxx = (1/(Fs*N)) * abs(xdft).∧ 2; % Aplica Eq.(76)
» Pxx(2:end-1) = 2*Pxx(2:end-1);
» Freq = 0:Fs/N:Fs/2; % Fs=2W => W=Fs/2
» Pyy=10*log10(Pxx); % Escala logaritmica
» figure; plot(Freq, Pxx); % grafico escala linear
» figure; plot(Freq, Pyy); % grafico escala logaritmica

Observação - Se o o número N de amostras do sinal é ímpar,


trocar a linha 3 por:
» xdft=xdft(1:(N+1)/2); % Seleciona (N+1)/2 amostras se N impar

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Periodograma no Matlab/Octave

Periodograma Usando FFT


1.6

1.4
Potencia/Frequencia (Watts/Hz)

1.2

0.8

0.6

0.4

0.2

0
0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000
Frequencia (Hz)

Figura : Estimativa da PSD usando FFT (escala linear).

c G. A. Barreto
Fundamentos de Processos Estocásticos
Fundamentos de Processos Estocásticos
Periodograma no Matlab/Octave

Periodograma Usando FFT


20

Potencia/Frequencia (dB/Hz) 0

−20

−40

−60

−80

−100

−120
0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000
Frequencia (Hz)

Figura : Estimativa da PSD usando FFT (escala logaritmica - decibel).

c G. A. Barreto
Fundamentos de Processos Estocásticos
Parte II

Gráfico de Dispersão (lagplot)

c G. A. Barreto
Fundamentos de Processos Estocásticos
Função de Autocorrelação
Gráfico de Dispersão (lagplot)

Definição
Técnica qualitativa (gráfica) que avalia a correlação serial das
amplitudes do sinal através do gráfico de dispersão.

Implementação
Considere o seguinte sinal de tempo discreto:
X = {x(1), x(2), x(3), ...., x(N )}.
O lagplot consiste em gerar o gráfico de um conjunto de pares
ordenados:

[x(n), x(n − τ )], n = τ + 1, . . . , N (79)

em que a constante τ (τ > 0), chamada de lag, é um


nÃo mero inteiro que define ao distânciamento temporal entre
as amplitudes do sinal.
c G. A. Barreto
Fundamentos de Processos Estocásticos
Função de Autocorrelação
Gráfico de Dispersão (lagplot)

Comentários
Em geral, é necessário plotar lagplots para vários lags para se
ter uma idéia da persistência da memória.

Em outras palavras, vários lagplots são necessários para avaliar


quanto tempo dura a influência dos valores passados sobre o
valor atual do sinal.

A influência pode ser dos valores passados sobre o valor atual


pode ser positiva, negativa ou nula.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Função de Autocorrelação
Gráfico de Dispersão (lagplot)

Exemplo 1
Considere um sinal de tempo discreto X, de comprimento
N = 1000.

Lagplot (τ = 1)
Os pares ordenados que formam o lagplot para τ = 1 são definidos
como:
[x(n), x(n − 1)], n = 2, ...., 1000. (80)
Ou seja,

[x(2), x(1)], [x(3), x(2)], · · · , [x(1000), x(999)]. (81)

c G. A. Barreto
Fundamentos de Processos Estocásticos
Função de Autocorrelação
Gráfico de Dispersão (lagplot)

Exemplo 2
Considere novamente um sinal de tempo discreto X, de
comprimento N = 1000.

Lagplot (τ = 2)
Os pares ordenados que formam o lagplot para τ = 2 são definidos
como:
[x(n), x(n − 2)], n = 3, ...., 1000. (82)
Ou seja,

[x(3), x(1)], [x(4), x(2)], · · · , [x(1000), x(998)]. (83)

E assim sucessivamente para outros lagplots do mesmo sinal


(i.e.τ = 3, ..., 1000).

c G. A. Barreto
Fundamentos de Processos Estocásticos
Função de Autocorrelação
Gráficos de Típicos

Lagplot (τ = 1) - correlação positiva


O lagplot de um sinal cujas as amplitudes distanciadas de τ = 1
estão positivamente correlacionadas é mostrado a seguir.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Função de Autocorrelação
Gráficos de Típicos (cont.-1)

Lagplot (τ = 1) - correlação nula


O lagplot de um sinal cujas as amplitudes distanciadas de τ = 1
não são correlacionadas é mostrado abaixo.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Função de Autocorrelação
Gráficos de Típicos (cont.-2)

Lagplots (τ = 1, 2) - Processo AR(1):x(n) = 0.6x(n − 1) + v(n)


Os lagplots para τ = 1 e 2 de um processo AR(1) são mostrados
abaixo. O ruído é branco gaussiano com variância 1.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Função de Autocorrelação
Gráficos de Típicos (cont.-2)

Lagplots (τ = 3, 4) - Processo AR(1):x(n) = 0.6x(n − 1) + v(n)


Os lagplots para τ = 3 e 4 de um processo AR(1) são mostrados
abaixo. O ruído é branco gaussiano com variância 1.

c G. A. Barreto
Fundamentos de Processos Estocásticos
Função de Autocorrelação
Código Matlab/Octave - Lagplots Processo AR(1)

c G. A. Barreto
Fundamentos de Processos Estocásticos

Você também pode gostar