Você está na página 1de 51

Processamento Digital de Sinal - 2007 1

DEPARTAMENTO DE ENGENHARIA ELECTROTCNICA E DE COMPUTADORES


















Processos Estocsticos
(Apontamentos de Processamento Digital de Sinal)










Fernando Santos Perdigo
Coimbra, 2007


Processamento Digital de Sinal - 2007 2

ndice

1. Variveis aleatrias...................................................................................................................... 3
1.1 Mdia e Varincia.................................................................................................................. 8
1.2 Duas Variveis Aleatrias ..................................................................................................... 8
1.3 Sequncias de Variveis Aleatrias..................................................................................... 13
2. Processos estocsticos ............................................................................................................... 15
2.1 Estacionaridade em sentido lato (WSS) .............................................................................. 17
2.2 Ergodicidade........................................................................................................................ 18
2.3 Espectro de Potncia............................................................................................................ 19
2.4 Filtragem de Processos Estocsticos ................................................................................... 21
2.4.1 Processos regulares....................................................................................................... 26
2.4.3 Teorema da decomposio de Wold............................................................................. 29
3. Estimao Espectral de Potncia............................................................................................... 30
3.1 Noo de estimador ............................................................................................................. 30
3.2 Estimativa da autocorrelao............................................................................................... 31
3.2 Periodograma....................................................................................................................... 32
3.3 Mtodos de suavizao........................................................................................................ 36
A. Mtodo de Bartlett (mdias de periodogramas)................................................................ 36
B. Mtodo de Welch.............................................................................................................. 37
C. Mtodo de Blackman-Tuckey........................................................................................... 38
3.4 Mtodo da Mxima Entropia............................................................................................... 39
4. Filtros ptimos.......................................................................................................................... 42
4.1 Filtro FIR de Wiener ........................................................................................................... 44
4.2 Aplicaes ........................................................................................................................... 47
a) Cancelamento de eco acstico ou elctrico....................................................................... 47
b) Reduo de rudo............................................................................................................... 47
c) Cancelamento de rudo (melhoramento do sinal).............................................................. 48
d) Predio............................................................................................................................. 49



Processamento Digital de Sinal - 2007 3

1. Variveis aleatrias


Funo densidade de probabilidade

Definio: { } ( ) Pr
x
F a x a =
Propriedades:
( ) 0
x
F =
( ) 1
x
F + =
{ } Pr 1 ( )
x
x a F a > =
{ } Pr ( ) ( )
x x
a x b F b F a < =

Funo densidade de probabilidade (PDF)


( )
( )
x
x
dF x
f x
dx
=
( ) 0
x
f x ; ( ) 1
x
f x dx
+



Exemplos:

Exemplo de PDF de varivel aleatria (VA) discreta

1 1 1
( ) ( 1) ( 1) ( 2)
2 4 4
x
f a a a a = + + +

Exemplo de VA contnua:
(densidade uniforme)


1
,
( )
0 ,
x
a x b
f x b a
<
=



( ) ( )
x
x x
F x f d








1/2
-1 1 2
1/2
1/4
f
x
(x)
x
-1 1 2
1
F
x
(x)
x
1/(b-a)
a b
f
x
(x)
x
1
-1 a b
F
x
(x)
x
Processamento Digital de Sinal - 2007 4
Exemplos de distribuies usuais
-Gaussiana (normal)
( ) ( ) 2
2 2
1
2
1
( ) exp ( ) ; ,
2
x
f x x x



= = N
-Lognormal ( )
( ) 2
2
1
2
1
( ) exp ln( ) ( )
2
x
f x x u x
x



=
-Rayleigh
( )
2
2
2
2
( ) exp ( )
x
x
x
f x u x

=
-Maxwell
( )
2
2
2
3 2
2
( ) exp ( )
2
x
x
x
f x u x


=
-Laplace
( )
1
1
( ) exp
2
x
f x x

=
-Gama (Erlang)
1
( ) ( )
( )
b
b cx
x
c
f x x e u x
b

=


-Beta
1
( ) (1 ) ( ) (1 )
( 1, 1)
b c
x
f x x x u x u x
B c b
=
+ +

-Exponencial ( ) ( )
x
x
f x e u x


=
-Cauchy
2 2
/
( )
x
f x
x

=
+




Normal
=0
=1
Lognormal
=0
=1
Rayleigh
=1
Maxwell
=1
Laplace
=0
=1
Gama
b =2
c =1
Exponencial
=1
Cauchy
=1
1
Beta
b =2
c =1
2
/ 2 x
e

| | x
e

2
1
1 x +
2
2 / 2 x
x e

2
/ 2 x
xe
1 b cx
x e

(1 )
b c
x x
2
ln ( ) / 2
1
x
e
x

x
e

2
e


2
( 1) / b c
/( ) b b c +
Processamento Digital de Sinal - 2007 5
Funo de uma VA ([Papoulis, 91])

Se ( ) y g x = ,
ento
( )
( )
( )
x n
y
n n
f x
f y
g x
=

, onde x
n
so as razes de ( ) y g x = .

Exemplos
1. y ax b = + ; y a = ;
Uma nica raiz:
y b
x
a

=
( )
1
( )
y b
y x a
f y f
a

=
-Se x uniforme em [0,1], ( ) ( ) (1 )
x
f x u x u x = , y uniforme em [b,a+b].
-Se x normal com mdia zero e var. unitria (x~N (0,1)), y tambm normal,
com mdia b e varincia a
2
.
- Se x~N (,
2
), y = (x)/ tem mdia nula e varincia unitria.

2.
1
y
x
= ;
2
2
1
y y
x
= = ;
Uma nica raiz:
1
x
y
=
( ) 2
1
2
1
( )
y x
y
f y f
y
=
- Se x tem distribuio de Cauchy, y tambm.

3.
2
y x = ; 2 2 y x y = =
Duas razes se y0: x y = . Para y<0, f
y
(y)=0.

( ) ( ) ( )
1
( ) ( )
2
y x x
f y f y f y u y
y
= +
Se x~N (0,1), isto ,
( )
2
1
( ) exp / 2
2
x
f x x

= , ento:
( )
1
( ) exp / 2 ( )
2
y
f y y u y
y
= (Gama com b=1/2, c=1/2, pois
1
2
( ) = ).

4.
x
y e = ;
x
y e y = =
Uma raiz se y0: ln( ) x y = . Para y<0, f
y
(y)=0.
( )
1
( ) ln( ) ( )
y x
f y f y u y
y
=
Se x~N (0,
2
), ento
( )
2 2
1
2
1
( ) exp ln ( ) / ( )
2
y
f y y u y
y


= , isto ,
a distribuio de y lognormal.




Processamento Digital de Sinal - 2007 6
Histogramas

Dada uma amostra com N pontos x
n
de uma VA x com PDF f
x
(x), determina-se quais os valores
extremos, x
min
, x
max
. Divide-se o intervalo de x
min
a x
max
em N
b
subintervalos (bins) de largura
x

=(x
max
x
min
)/(N
b
-1). Conta-se o nmero de ocorrncias em cada bin.
Para amostras grandes, obtm-se aproximao da PDF.

Exemplo:
Gerar 10000 nmeros aleatrios de uma distribuio normal de mdia zero e varincia unitria.
Fazer o histograma.
Em matlab:
xn=randn(1,10000);
hist(xn,100) %com 100 bins
ou:
[count,bin]=hist(xn,100);
plot(bin,count)

Comparao com a PDF esperada:
- A rea do histograma N
x
pois os bins so todos iguais e o n total de contagens N.
- A rea da PDF 1. Para justapor a PDF no histograma, multiplicar f
x
(x) por N
x
.

Exemplo com Matlab:

x=linspace(-4,4,200);
fx=exp(-0.5*x.^2)/sqrt(2*pi);
Dx=bin(2)-bin(1);
plot(bin,count,x,fx*10000*Dx);


a) Histograma com barras b) Histograma com PDF justaposta.






-4 -3 -2 -1 0 1 2 3 4
0
50
100
150
200
250
300
350
400
-4 -3 -2 -1 0 1 2 3 4
0
50
100
150
200
250
300
350
400
Processamento Digital de Sinal - 2007 7
Exemplo de funo de VA com Matlab:

x uniforme entre 1 e 2: ( ) ( 1) (2 )
x
f x u x u x =
y = x
2
.

y ir estar distribuda entre 1 e 4.
( ) ( ) ( )
1 2 ( 1) (4 )
x
f y u y u y u y u y = =
pois
( )
2 1 u y = se 2 0 y e 0 caso contrrio. Ou seja,
( )
2 1 u y = se y4.
Assim,

1
( ) ( 1) (4 )
2
y
f y u y u y
y
= .

Verificao experimental:

xn=rand(1,10000)+1; %uniforme entre 1 e 2
hist(xn,20); %histograma com 20 bins.
yn=xn.^2;
hist(yn,20);
y=linspace(1,4,200);
fy=0.5./sqrt(y);
Dx=bin(2)-bin(1);
hold on, plot(y,fy*10000*Dx,'r'); hold off












0 1 1.5 2 3
0
100
200
300
400
500
600
0 1 2 3 4 5
0
200
400
600
800
Processamento Digital de Sinal - 2007 8
1.1 Mdia e Varincia

O valor esperado ou mdia da VA x , por definio
{ } ( )
x x
E x x f x dx
+

= =


Para VAs discretas: ( ) ( )
x i i
i
f x p x x =

,
logo { } ( )
x i i i i
i i
E x p x x x dx p x
+

= = =



A mdia da VA x corresponde ao centro de massa da sua funo densidade ((PDF).
A mdia de ( ) y g x =
{ ( )} ( ) ( )
x
E g x g x f x dx
+

.
Varincia

{ } ( )
2
2 2
Var( ) ( ) ( )
x x x x
x E x x f x dx
+

= = =


O operador esperana matemtica, E{x}, linear, isto , dadas as VAs x e y,

{ } { } { } E ax by a E x b E y + = + .
Assim,

{ } { } { } { }
2 2 2 2 2 2
( ) 2 2
x x x x x x
E x E x x E x E x = = + = +
ou
{ }
2 2 2
x x
E x = , ou ainda:
{ } { }
2 2 2
x
E x E x = ;
{ }
2 2 2
x x
E x = + .

Momentos: { }
n
n
m E x =


1.2 Duas Variveis Aleatrias

A distribuio conjunta de duas VAs x e y , ( , )
xy
F a b , a probabilidade do evento { } , x a y b :
{ } { }
1
( , ) Pr , Pr ( , )
xy
F a b x a y b x y D = =

A funo densidade conjunta

2
( , )
( , )
xy
xy
F x y
f x y
x y

=


Estatsticas marginais:
( ) ( , ) ; ( ) ( , )
x xy y xy
f x f x y dy f y f x y dx
+ +

= =



a x
D
1

y
b
Processamento Digital de Sinal - 2007 9
Momentos conjuntos

A correlao entre as VAs x e y o momento conjunto de 2 ordem


{ }
xy
r E x y

=

Covarincia:
{ }
Cov( , ) ( ) ( )
xy x y
c x y E x y

= = ;

xy xy x y
c r

=

A covarincia iguala a correlao se as mdias das VAs forem zero.

Coeficiente de correlao:
Cov( , )
xy
x y
x y

xy xy x y
x y x y
c r


= =



O coeficiente de correlao um nmero com mdulo inferior a 1,


2
1
xy
.

Prova:
( )
2
( ) ( ) 0 ,
x y
a x y a ,

( )
{ }
2
2 2 2
( ) ( ) 2 0
x y x xy y
E a x y a a c = + .

Esta equao de 2 grau em a no pode ter razes reais (quando muito duplas). O seu
discriminante tem de ser no negativo:


2 2 2
4 4 0
xy x y
c ou
2
1
xy
.

Ou:
( )
2
2 2
2 2 2 2 2
2
xy xy
x x
c c
x xy y x y
a a c a

+ = + uma parbola virada para cima com centro em
2
xy
x
c
a

= e valor mnimo
2
2
2 xy
x
c
y

, que no pode ser negativo. Logo


2
2
2 2 2 2 2
0 1
xy
x
c
y xy x y xy
c

.

Definio: Duas VAs dizem-se no correlacionadas se 0
xy
= (ou 0
xy
c = ).
Significa neste caso que { } { }
xy x y
r E x E y

= = (a correlao torna-se separvel).

Definio: Duas VAs dizem-se ortogonais se 0
xy
r = e anota-se como x y .
VAs x e y no correlacionadas no so necessariamente ortogonais, mas VAs de mdias nulas
no correlacionadas so sempre ortogonais.

a
Processamento Digital de Sinal - 2007 10
Interpretao de VA como vectores

As VAs podem ser interpretadas como vectores num espao abstracto. Assim E{xy} corresponde
ao produto interno dos dois vectores e E{x
2
} e E{y
2
} ao quadrado dos seus mdulos. Assim,

2 2
{ }
cos( )
{ } { }
E xy
E x E y
=

o cosseno do ngulo entre os vectores. Este valor ser 1 se os vectores estiverem alinhados e
ser zero se forem perpendiculares (ortogonais). Assim, como
2
cos ( ) 1 ,
2 2 2
xy x y
r a
chamada desigualdade de cosseno.

Exemplos de correlao de VAs :

Seja x~N (0,1) e 2 3 y x = + .
As duas VAs esto obviamente totalmente correlacionadas. Teremos que:

2
0 ; 1
x x
= =
{ } 2 3 3
y x
E y = = + =

{ } { } { }
2 2 2 2 2
( ) (2 ) 4 4( 0) 4
y y x
E y E x E x = = = = + =
{ } { } { }
2 2
(2 3) 2 3 2
xy x x
r E x y E x x E x = = + = + =

2
2
xy xy x y xy x
c r r = = =

2
2 2
1
xy
x x
xy
x y x y y
c


= = = =

.

Figura: scatter plot de 100 pontos (x,y)
(todos os pontos esto na linha 2 3 y x = + )


Scatter plots de VAs normais com vrios coeficientes de correlao (500 pontos):


-3 -2 -1 0 1 2 3
-2.5
-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
2.5
0
xy
=
-3 -2 -1 0 1 2 3
-2.5
-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
2.5
0.5
xy
=
3
y
x
Processamento Digital de Sinal - 2007 11


De uma forma geral
1
, a no correlao entre VAs x e y manifesta-se por um espalhamento dos
pontos (x,y) no interior de um crculo ou de uma elipse. medida que o coeficiente de correlao
aumenta (em mdulo) este espalhamento concentra-se em elipses mais excntricas. O eixo
principal destas elipses tem inclinao positiva para coeficientes de correlao positivos e
inclinao negativa para coeficientes de correlao negativos.

Independncia estatstica

Duas VAs x e y dizem-se estatisticamente independentes se a sua funo densidade de
probabilidade conjunta for separvel, isto , se

( , ) ( ) ( )
xy x y
f x y f x f y =

Este conceito mais forte que o de VAs no correlacionadas, uma vez que a correlao
apenas uma estatstica de 2 ordem.
Se as VAs so independentes ento { } { } { } E xy E x E y

= .
Se as VAs so independentes ento so no correlacionadas. O contrrio no
necessariamente verdade, a no ser no caso de VAs conjuntamente normais.

PDF Gaussiana multidimensional

A funo densidade Gaussiana a duas dimenses mais facilmente definida como um caso
particular (N=2) da funo Gaussiana multidimensional. Seja x um vector de N VAs. Se estas
VAs forem conjuntamente normais, ento a sua PDF


( )
( )
1
1
/ 2
2
1
( ) exp ( ) ( )
2 | |
T
N
f

=
x x
x x C x
C


onde C
x
a matriz de covarincia de x e o vector de mdias.

1
Isto verdade para distribuies normais, embora estes elipsides de concentrao [Therrien, 92, Cap. 2] sejam
igualmente teis para outras distribuies, para dar ima ideia do espalhamento da PDF.
-3 -2 -1 0 1 2 3
-2.5
-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
2.5
0.9
xy
=
-6 -4 -2 0 2 4 6
-5
-4
-3
-2
-1
0
1
2
3
4
0.95
xy
=
Processamento Digital de Sinal - 2007 12
No caso de N=2, com
x
y
(
=
(

x ,
x
y

(
=
(

e C
xy
, dada por

2
2
2
2
( ) ( )( )
( )( ) ( )
;
x x y x x y
xy
y y x y
x xy
xy y
x x y x x y
E E
y y x y
c
c

( ( (


= =
( ` ` (

(
) )
(
=
(
(

C


( )
2 2 2 2 2 2
1
xy x y xy x y xy
c = = C ;

( )
1
2 2
1
2 2
2 2 2
1
1
x xy y xy
xy
xy y xy x
x y xy
c c
c c


( (
= =
( (

( (

C ,
ento


( ) ( )
2
2
2 2 2 2 2 2
( )( ) ( )
( ) 1
2
2 1
1
( , ) exp
2 1
x y y
x
xy
x x y y xy
xy
x y xy
x y y
x
f x y

| |
(
= |
(
|


\


Daqui se verifica que se 0
xy
= ento esta PDF torna-se separvel:

2
2
2 2 2 2
( )
( ) 1
2
1
( , ) exp
2
( ) ( )
y
x
x y
xy
x y
x y
y
x
f x y
f x f y

+
| | (
= |
(
|
\
=


Logo: VAs conjuntamente normais e no correlacionadas so independentes.
Caso geral: Quando as VAs so conjuntamente normais e a matriz de covarincia diagonal,
ento as VAs so independentes.
Fazer f
xy
(x,y)=C
te
, equivale a tornar o expoente da Gaussiana constante, o que resulta numa
equao de uma elipse (elipside para N>2) que ser centrada se as VAs forem no
correlacionadas.


Exemplo de uma Gaussiana
com:

2 2
2 ; 1
2 ; 1;
1/ 2
x y
x y
xy

= =
= =
=








Processamento Digital de Sinal - 2007 13
Independncia e convoluo

Se duas VAs x e y so independentes, ento a sua soma, z x y = + , tem funo densidade que a
convoluo das PDFs de x e de y:


( , ) ( ) ( )
( ) ( ) ( )
xy x y
z x y
f x y f x f y
z x y f z f x f y
=
= + =


Exemplo: x e y independentes e uniformes entre 0 e 1. Histograma de x+y com 10000 nmeros:


Propriedade correspondente para VAs no correlacionadas:

Se x e y so VAs no correlacionadas, ento a varincia da sua soma iguala a soma das
varincias das VAs:

z x y = +

2 2 2
0
xy z x y
c = = +

1.3 Sequncias de Variveis Aleatrias
Um vector aleatrio define-se como
1
2
n
x
x
x
(
(
(
=
(
(
(

x

.

onde as suas componentes x
i
, i =1..n, so VAs. A funo de distribuio conjunta define-se como

{ }
1 2 1 1 2 2
( ) ( , , , ) Pr , , ,
n n n
F F a a a x a x a x a = = < < <
x x
a

e a densidade conjunta como
0 0.2 0.4 0.6 0.8 1 1.2 1.4 1.6 1.8 2
0
50
100
150
200
250
300
350
400
450
Processamento Digital de Sinal - 2007 14

1 2
( )
( )
n
n
F
f
x x x

=

x
x
x
x

.
A mdia o vector
{ }
1
2
n
E

(
(
(
= =
(
(
(

x

.

Teremos agora matrizes de correlao,


{ }
2
1 2 1 1 1 2 1
2
2 2 1 2
2
1
| |
| |
| |
n n
T
n n n
x x x x x x x x x
x x x x
E E E
x x x x

( ( (

( (

( (
= = =
` `
( (

( (

( (
) )
x
R xx


,
com elementos

{ } ij i j
r E x x

= ,
e a matriz de covarincia


{ }
( )( )
T T
E

= =
x x
C x x R

com elementos
{ }
( )( )
ij i i j j ij i j
c E x x r

= = .

As n VAs dizem-se mutuamente no correlacionadas se 0
ij
c = para i j. Neste caso a matriz
de covarincia diagonal. Se as VAs forem no correlacionadas e conjuntamente normais ento
so independentes.
A matriz de covarincia iguala a matriz de correlao se todas as n VAs tiverem mdia nula.
Uma matriz de correlao no negativamente definida (os seus valores prprios nunca so
negativos).
Processamento Digital de Sinal - 2007 15
2. Processos estocsticos

O valor de uma VA x um nmero associado ao resultado de uma experincia aleatria.
O valor de um processo estocstico um sinal x[n] associado a uma experincia aleatria.

Exemplo [Hayes,96]:
Ao lanamento de um dado associa-se uma VA A cujo valor um inteiro entre 1 e 6,
correspondente face do dado virada para cima. Forma-se depois o sinal


0
[ ] cos( ) x n A n =

Cria-se assim um processo estocstico (PE) que consiste num conjunto de 6 sinais sinusoidais
diferentes e igualmente provveis.

Processo de Bernoulli

Uma moeda lanada repetidamente e de forma independente. Associa-se ao valor x[n]=1
quando o n-simo resultado cara e x[n] = 1 quando coroa.
Uma nova experincia resulta num sinal x[n] diferente, mas com as mesmas propriedades.
Para um dado instante, n = n
0
, obtemos para cada experincia uma VA com valor x[n
0
].


4 amostras de um processo de Bernoulli

A mdia de um PE x[n] a mdia da VA x[n] para cada instante n. Depende, portanto do tempo e
indicada como

{ } [ ] [ ]
x
n E x n = .

(Trata-se de uma sequncia determinstica).

A varincia de um PE obtm-se de forma idntica:
n
-1
1
n
0

n
0

n
0

n
0

Processamento Digital de Sinal - 2007 16


{ }
2
2
[ ] [ ] [ ]
x x
n E x n n =

Para um par de ndices (k, l) do PE, define-se a autocorrelao e a autocovarincia:


{ }
[ , ] [ ] [ ]
x
r k l E x k x l

=
( ) ( )
{ }
[ , ] [ ] [ ] [ ] [ ]
x x x
c k l E x k k x l l

=

que se relacionam com as duas VAs x[k] e x[l]. Quando k=l=n a autocorrelao mdia
quadrtica da VA x[n] e a autocovarincia a sua varincia.

Dados dois PE podemos igualmente definir a correlao cruzada entre eles:


{ }
[ , ] [ ] [ ]
xy
r k l E x k y l

=

bem como a covarincia cruzada:


( ) ( )
{ }
[ , ] [ ] [ ] [ ] [ ]
[ , ] [ ] [ ]
xy x y
xy x y
c k l E x k k y l l
r k l k l

=
=


PE harmnico

( )
0
[ ] sin x n A n = +

onde A e
0
so constantes de uma VA uniformemente distribuda entre e .


10 amostras deste PE:

fi=pi*(2*rand(1,10)-1);
A=1;
w0=pi/20;
x=zeros(10,100);
n=0:99;
for k=1:10
x(k,:)=A*sin(w0*n+fi(k));
end
plot(n,x);



Mdia: com ( ) ( ) { }
1
0 0
2
( ) sin sin ( ) 0 g n E n g d

= + + = =

.
0 20 40 60 80 100
-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
Processamento Digital de Sinal - 2007 17
Autocorrelao:

{ }
( ) ( ) { }
( ) ( )
( )
( ) ( )
( ) { }
( ) ( )
{ }
( ) { } ( ) { }
0 0 0 0
0 0 0 0
2
0 0
2
2
( ) 2 ( ) 2 ( ) ( )
2 2
0 0
[ , ] [ ] [ ]
sin sin
4
4
cos ( ) cos ( ) 2
2 2
x
j k j k j l j l
j k l j k l j k l j k l
r k l E x k x l
A E k l
A
E e e e e
A
E e e e e
A A
E k l E k l



+ + + +
+ + + +
=
= + +
=
= +
= + +


A mdia de um cosseno (2 termo) nula. O 1 termo constante. Logo

( )
2
0
[ , ] cos ( )
2
x
A
r k l k l =

A autocorrelao depende apenas da diferena entre os ndices e no da origem temporal:


[ , ] [ , 0]
[ , ] ,
x x
x
r k l r k l
r n k l n n
=
= +

PE estacionrio (em sentido lato).

2.1 Estacionaridade em sentido lato (WSS)

1. Mdia constante: [ ]
x x
n =
2. Autocorrelao depende apenas da diferena dos ndices [ , ] [ ]
x x
r k l r k l =
3. Varincia finita:
2
[0] [0] | |
x x x
c r = <

a autocorrelao passa a ser definida com apenas um ndice: [ ]
x
r k .

{ }
[ ] [ ] [ ] ,
x
r k E x n k x n n

= +
( ) ( )
{ }
2
[ ] [ ] [ ] [ ] ,
x x x x x
c k E x n k x n r k n

= + =

Propriedades
[ ] [ ]
x x
r k r k

= (autocorrelao par para PE reais)



{ }
2
[0] [ ] 0
x
r E x n = (potncia do PE)
[ ] [0]
x x
r k r (mdulo do valor mximo a potncia)

Se
0
[ ] [0]
x x
r k r = , ento r
x
[k] peridica com perodo k
0
.

Processamento Digital de Sinal - 2007 18
Dados dois PE estacionrios WSS, ento

[ ] [ ]
xy yx
r k r k

=

2
[ ] [0] [0]
xy x y
r k r r

2
[ ] [0] [0]
xy x y
c k c c

2.2 Ergodicidade

Um PE WSS diz-se ergdico se as suas propriedades poderem ser estimadas a partir de uma
nica realizao do processo.

Para estimar a mdia [ ]
x
n de um PE dadas K realizaes, x
i
[n], podemos usar o seguinte
estimador

1
1
[ ] [ ]
K
x i
i
n x n
K

=
=

.

Dada apenas UMA realizao do PE pretende-se estimar a mdia atravs da mdia temporal em
N pontos

1
0
1
( ) [ ]
N
N x
n
m N x n
N

=
= =



Se
{ }
2
lim ( ) 0
x x
N
E N

=
ento o PE x[n] diz-se ergdico para a mdia.
Para a convergncia no sentido da mdia quadrtica necessrio que a mdia da VA m
N
tenda
para a mdia e que a sua varincia tenda para zero medida que mais pontos so tomados:

1. { }
lim ( )
x x
N
E N

=
2. { }
lim Var ( ) 0
x
N
N

=
Mas

{ }
{ }
( )
( ) ( )
{ }
2
2
1
0
1 1
2
0 0
1 1
2
0 0
Var ( ) ( )
1
[ ]
1
[ ] [ ]
1
[ ]
x x x
N
x
n
N N
x x
n m
N N
x
n m
N E N
E x n
N
E x m x n
N
c m n
N

= =

= =
=


=
`

)
=
=



Pode colocar-se na forma:
Processamento Digital de Sinal - 2007 19

{ }
1
1
1 | |
Var ( ) 1 [ ]
N
x x
k N
k
N c k
N N

= +
| |
=
|
\


Uma condio necessria e suficiente para que um PE WSS seja ergdico para a mdia que


1
0
1
lim [ ] 0
N
x
N
k
c k
N

=
=



Uma condio suficiente para que um PE WSS seja ergdico para a mdia que

lim [ ] 0
x
k
c k

= .

Uma consequncia desta condio que


2
lim [ ]
x x
k
r k

= .

Exemplo [Mitra, 2002]

Determinar a mdia, a varincia e autocovarincia de um processo estocstico real que tem
autocorrelao
2
2
10 21
[ ]
1 3
x
k
r k
k
+
=
+
.

O quadrado da mdia
2
lim [ ] 7
x x
k
r k

= = . Logo a mdia 7
x
= ou 7
x
= . A mdia
quadrtica [0] 10
x
r = e a varincia
2
10 7 3
x
= = .
A autocovarincia
2
2
2 2
10 21 3
[ ] [ ] 7
1 3 1 3
x x x
k
c k r k
k k

+
= = =
+ +
que tende para zero quando k
tende para infinito.

2.3 Espectro de Potncia

O espectro de potncia de um PE WSS a transformada de Fourier em tempo discreto (DTFT) da
autocorrelao
( ) [ ]
j j n
x x
n
P e r n e

+

=
=


Como a autocorrelao complexa simtrica, ento o espectro de potncia real:

( ) ( )
j j
x x
P e P e

=
Para PE reais a autocorrelao real e par, logo o espectro de potncia real e par:
( ) ( )
j j
x x
P e P e

= .
Alm disso o espectro de potncia no pode ser negativo:

Processamento Digital de Sinal - 2007 20
( ) 0
j
x
P e

.
Potncia total:
{ }
2 1
[0] [ ] ( )
2
j
x x
r E x n P e d

= =

.

Se o PE x[n] no tiver mdia nula, ento o espectro de potncia tem um impulso na origem.

Exemplo (processo autorregressivo de 1 ordem)

Se
| |
[ ]
k
x
r n a = , a>0,

o espectro de potncia

1
| |
0
2
2
( )
1 1
1 1 1 2 cos( )
j n j n n j n n j n
x
n n n
j
j j
P e a e a e a e
ae a
ae ae a a

+

= = =

= = +

= + =
+


Rudo branco

Se a autocovarincia de um PE for um impulso na origem:
2
[ ] [ ]
x x
c n n = , o processo diz-se
rudo branco pois o seu espectro de potncia constante (alm de um eventual impulso em =0
se a mdia do processo no for nula):


2
( )
j
x x
P e

= ou
2
2
( ) ( )
j
x x x
P e

= +

Rudo branco corresponde a uma sequncia de VAs no correlacionadas com igual varincia
2
x
.
Uma vez que o rudo branco definido apenas em termos do momento de 2 ordem, existe uma
infinidade de processos rudo branco: Gaussiano, Bernoulli, etc.





Exemplo de uma amostra de rudo branco
Gaussiano de mdia zero e varincia unitria:
(sequncia de 200 VAs normais no correlacio-
nadas).






0 20 40 60 80 100 120 140 160 180 200
-2.5
-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
2.5
Processamento Digital de Sinal - 2007 21
2.4 Filtragem de Processos Estocsticos

Frequentemente a entrada de sistemas LTI so processos estocsticos WSS. Quais as
propriedades do PE de sada?


[ ] [ ] [ ] [ ] [ ]
k
y n x n h n h k x n k
+
=
=


Mdia da sada:
{ } { } [ ] [ ] [ ] [ ]
y x
k k
E y n h k E x n k h k
+ +
= =
= = =



logo
0
( )
j
y x
H e = .

Correlao cruzada:

{ }
{ }
[ ] [ ] [ ] [ ] [ ] [ ]
[ ] [ ] [ ]
[ ] [ ]
[ ] [ ] [ ]
yx
k
k
x
k
x xy
r m E y n x n m E h k x n k x n m
h k E x n k x n m
h k r m k
h m r m r m
+

=
+

=
+
=


= =
`
)
=
=
= =



Autocorrelao da sada:

{ }
{ }
[ ] [ ] [ ] [ ] [ ] [ ]
[ ] [ ] [ ]
[ ] [ ]
[ ] [ ] [ ] [ ]
[ ] [ ] [ ]
y
k
k
xy
k
xy yx
x
r m E y n y n m E h k x n k y n m
h k E x n k y n m
h k r m k
h m r m h m r m
h m h m r m
+

=
+

=
+
=


= =
`
)
=
=
= =
=



Definindo a autocorrelao determinstica da resposta a impulso,

[ ] [ ] [ ] [ ] [ ]
h
k
r m h m h m h k h m k
+

=
= = +


resulta
x[n] y[n] h[n]
Processamento Digital de Sinal - 2007 22
[ ] [ ] [ ]
y h x
r m r m r m = .






Resultados em termos de espectro de potncia


2
[ ] [ ] [ ] ( ) ( ) ( )
[ ] [ ] [ ] ( ) ( ) ( )
[ ] [ ] [ ] ( ) ( ) ( )
[ ] [ ] [ ] [ ] ( ) ( ) ( )
j j j
yx x yx x
j j j
xy x xy x
j j j
y xy y xy
j j j
y x y x
r m h m r m P e H e P e
r m h m r m P e H e P e
r m h m r m P e H e P e
r m h m h m r m P e H e P e




= =
= =
= =
= =


Como
2
( ) ( ) ( )
j j j
y x
P e H e P e

= ,

a potncia da sada :



{ }
2
2 1
[ ] [0] ( ) ( )
2
j j
y x
E y n r H e P e d

= =

.


Exemplo 1:

Faz-se a 1 diferena de um processo Bernoulli: [ ] [ ] [ 1] y n x n x n = . O PE y[n] rudo branco?

Neste caso h[n]=[n][n1] e ( ) 1
j j
H e e

= . Como [ ] [ ]
x
r n n = (rudo branco de varincia
unitria), ento ( ) 1
j
x
P e

= e ( ) ( ) (1 )(1 ) 2 1 cos( )
j j j
y
P e e e

= =
2
2
4sin ( )

= . Logo j
no branco. A mdia continua zero mas a varincia 2.

r
x
[n] r
y
[n] h[n] h
*
[-n]
r
yx
[n]
Processamento Digital de Sinal - 2007 23


A autocorrelao igual autocorrelao determinstica de h[n] que ( ) 2 [ ] [ 1] [ 1] n n n + + .
Podemos colorir mais este processo se usarmos, por exemplo o seguinte filtro de 2 ordem:




1 2
1
( )
1 0.9 2 0.81
H z
z z

=
+ +


(par de plos em
/ 4
0.9
j
z e

= ).







A correlao entre amostras agora bem evidente.




0 20 40 60 80 100
-2
-1.5
-1
-0.5
0
0.5
1
1.5
2
x[n]
0 20 40 60 80 100
-3
-2
-1
0
1
2
3
y[n]
0 10 20 30 40 50 60 70 80 90 100
-6
-5
-4
-3
-2
-1
0
1
2
3
4
y[n]
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
1000
2000
3000
4000
5000
6000
7000
8000
9000
DFT{y[n]}
com 1024 pontos
(924 zeros introduzidos)
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
10
20
30
40
50
60
2
( )
j
H e

Processamento Digital de Sinal - 2007 24
Exemplo 2 [Hayes,96]:
Pretende-se gerar um PE com espectro de potncia
5 4cos(2 )
( )
10 6cos( )
j
x
P e

+
=
+
, por filtragem de
rudo branco de mdia nula e varincia unitria. Qual o filtro a usar?

Como
( )
( )
2 2
5 2
( )
10 3
j j
j
x
j j
e e
P e
e e

+ +
=
+ +
ento
( )
( )
2 4 2
2 2
1 1 2
2 5 2
5 2 2
( )
10 3 3 3 10 3
x
z z z
z z
P z
z z z z z


+ +
+ +
= =
+ + + +
.

O numerador tem razes -2 e -1/2 em z
2
. O denominador razes -3 e -1/3 em z (existem sempre
pares de razes recprocas). Logo podemos factorizar P
x
(z) da seguinte forma


( )( )
( ) ( )
( )( )
( )( )
2 2 2 2 2
1
2
1
1 1 1
3
2 2 1 2 2 1
( ) ( ) ( )
3 3 1 3 3 1
x
z z z z z
P z H z H z
z z z z z


+ + + +
= =
+ + + +


Para termos um filtro H(z) estvel, devemos escolher o plo em z = 1/3. Quantos aos zeros
indiferente, por exemplo


2 2 2 2
1 1
2 2 2
3 1 1
1 1
3 3
2 (1 ) 1 2 1
( )
3 1 3 (1 ) 1
z z z z
H z z
z z z z


+ + +
= = =
+ + +


Podemos adicionar ao filtro um atraso unitrio sem que isso altere o espectro de potncia final,
ficando assim o filtro no s estvel como tambm causal:


2
1
2 2
3 1
1
3
1
( )
1
z
H z
z

+
=
+
.


Positividade do espectro de potncia

A partir da relao
{ }
2
2 1
[ ] ( ) ( ) 0
2
j j
x
E y n H e P e d

, se definirmos um filtro passa


banda com uma banda de passagem de ganho unitrio muito estreita, esta relao tem de se
manter, qualquer que seja a frequncia central do filtro,
0
, e a largura de banda, . Como a
potncia da sada


0
0
/ 2
/ 2
1
( ) 0
2
j
x
P e d



significa que qualquer espectro de potncia ( )
j
x
P e

no pode ser negativo: ( ) 0
j
x
P e

.


Processamento Digital de Sinal - 2007 25


Matriz de autocorrelao

Um PE pode ser visto como uma sequncia de VAs. Se forem definidas N+1 VAs do processo,
por exemplo,
[ ] [0] [1] [ ]
T
x x x N = x

ento a correspondente matriz de autocorrelao tem as propriedades de uma matriz de correlao
com elementos
{ }
[ ] [ ]
ij
r E x i x j

= . Mas se o processo for WSS, significa que a matriz de


autocorrelao tem elementos [ ]
ij x
r r i j = e portanto apresenta a seguinte forma:


{ }
* *
*
[0] [ 1] [ ] [0] [1] [ ]
[1] [0] [1] [0]
[ 1] [1]
[ ] [1] [0] [ ] [1] [0]
x x x x x x
x x T x x
x x
x x x x x x
r r r N r r r N
r r r r
E
r r
r N r r r N r r

( (
( (
( (
= = =
( (
( (
( (

x
R xx






isto , todas as diagonais da matriz so iguais: uma matriz Toeplitz. Se o processo for real
ento a matriz alm de Toeplitz simtrica.
Sabemos que os valores prprios da matriz so no negativos, mas alm disso, verificam a
seguinte propriedade (para processos WSS de mdia nula):

min ( ) max ( )
j j
x i x
P e P e


.

A no negatividade da matriz de autocorrelao pode ser verificada atravs da potncia total de
sada de um filtro FIR. Seja N a ordem do filtro FIR onde os N+1 coeficientes do filtro se
colocam no vector [ ] [0] [1] [ ]
T
h h h N = h .
A potncia de sada

{ }
2
[ ] [0]
y
E y n r =
Neste caso
[ ] [ ] [ ] [ ]
y x
r m h m r m h m

=
ou

0



P
x
(e
j
)
1
Processamento Digital de Sinal - 2007 26

0
0 0
[ ] [ ] [ ] [ ]
[ ] [ ] [ ]
N
y x
k
N N
x
l k
r m h m r m k h k
h l r m k l h k

= =
| |
= +
|
\
= +


Logo

0 0
*
[0] [ ] [ ] [ ]
N N
y x
l k
T
r h l r k l h k

= =
=
=

x
h R h


Um escalar definido da forma
*T
x
h R h chama-se factor quadrtico. Neste caso o factor quadrtico
a potncia de sada, logo um valor positivo ou zero, qualquer que sejam os coeficientes do filtro,
ou seja h. Isto s pode acontecer se a matriz for semi definida positiva, o que se anota por 0
x
R .
Os valores prprios de
x
R so positivos ou zero.
2.4.1 Processos regulares

O espectro de potncia, ( )
j
x
P e

, de um processo estacionrio uma funo real, positiva e
peridica em . Se for uma funo contnua (sem impulsos), pode mostrar-se que ( )
x
P z pode ser
factorizado no seguinte produto com pares de razes recprocas,


2
0
( ) ( ) (1/ )
x
P z H z H z

=

e diz-se que o processo regular. Significa que um processo regular pode ser definido atravs da
sada de um filtro causal e estvel, H(z), quando a entrada rudo branco com
2
0
( )
j
v
P e

= . O
seu espectro de potncia ento

2
2
0
( ) ( )
j j
x
P e H e

= .

Se H(z) for uma expresso racional, podem definir-se 3 tipos de processos regulares consoante
H(z) tem zeros e plos (finitos), s zeros ou s plos.

Processo autoregressivos (AR):
0
0
( )
p
k
k
k
b
H z
a z

=
=


2
0 2
0 2
( )
( )
j
x
j
b
P e
A e

= .
Processo moving average, (MA):
0
( )
q
k
k
k
H z b z

=
=


2
2
0
( ) ( )
j j
x
P e B e

=
Processo ARMA:
0
0
( )
q
k
k
k
p
k
k
k
b z
H z
a z

=
=


2
2
0
( )
( )
( )
j
j
x j
B e
P e
A e

= .

Processamento Digital de Sinal - 2007 27
2.4.2 Equaes de Yule-Walker

Atravs da equao de diferenas do filtro H(z) podem derivar-se relaes recursivas para a
sequncia de autocorrelao do processo.
Para o caso mais genrico, o processo ARMA, como


0
0 0
0
( )
( ) ( )
( )
q
k
k p q
k k k
k k p
k k k
k
k
b z
X z
X z a z V z b z
V z
a z

=
= =
=
= =

,

teremos a seguinte equao de diferenas:


0 0
[ ] [ ]
p q
k k
k k
a x n k b v n k
= =
=

, a
0
=1,

onde v[n] o processo rudo branco de entrada do filtro. Multiplicando por [ ] x n l

e tomando a
mdia, resulta

0 0
[ ] [ ]
p q
k x k vx
k k
a r l k b r l k
= =
=



Mas como
2
0
[ ] [ ] [ ] [ ]
vx v
r m h m r m h m

= = (a entrada v[n] rudo branco com
2
0
[ ] [ ]
v
r m m = )
ento

2
0
0 0
[ ] [ ]
p q
k x k
k k
a r l k b h k l

= =
=

.

Apenas no caso de processos AR que possvel obter um sistema de equaes lineares para
obter os coeficientes do filtro. Neste caso b
k
=0 para k0, e h[0]=b
0
, pelo que a equao para l 0
:

2 2
0 0
0
[ ] | | [ ]
p
k x
k
a r l k b l
=
=

, l 0; a
0
=1.
Matricialmente,


2 2
0 0
1
1 [0] [ 1] [ ] 1 | |
[1] [0] 0
[ 1]
[ ] [1] [0] 0
x x x
x x
x
p x x x
r r r p b
a r r
r
a r p r r
( ( (
( ( (
( ( (
=
( ( (
( ( (
( (




Para 1 l teremos:
Processamento Digital de Sinal - 2007 28

1
2
[0] [ 1] [ 1] [1]
[1] [0] [2]
[ 1]
[ 1] [1] [0] [ ]
x x x x
x x x
x
p x x x x
a r r r p r
a r r r
r
a r p r r r p
+ ( ( (
( ( (
( ( (
=
( ( (
( ( (
( ( (



Se soubermos que um processo AR significa que podemos conhecer o filtro associado (os
coeficientes a
k
) resolvendo estas equaes de Yule-Walker. Existem algoritmos eficientes para
resolver este sistema de equaes, por exemplo o algoritmo de Levinson-Durbin.


Exemplo
Um PE AR(2), isto , p=2. Sabendo que r
x
[0]=1, r
x
[1]=1/2 e r
x
[2]=0, qual o espectro de
potncia do processo? Qual o valor de r
x
[3]?

Basta conhecer o filtro
0
1 2
1 2
( )
1
b
H z
a z a z

=
+ +
. Atravs das equaes de Yule-Walker obtermos

2 1 1
1 1 3 2 2
1 1
2 2 3 2
1
1 0
a a
a a
( ( ( ( (
= =
( ( ( ( (



Da equao de Yule Walquer com l=0, sabemos que
2 2
0 0
0
[ ] | |
p
k x
k
a r k b
=
=

, ou

2 2
1 2 0 0
[0] [ 1] [ 2] | |
x x x
r a r a r b + + =
2 2
2 1 2
0 0 3 2 3
1 0 | | b + = = .

Podemos admitir que
2
0
1 = vindo
2
0
| | 2/ 3 b = . Logo o espectro de potncia do processo

2
2
2 1
3 3
2/ 3
( )
1
j
x
j j
P e
e e


=
+
.

Podemos agora saber toda a sequncia de autocorrelao do processo, pois


2
2
0
0
[ ] | | [ ]
k x
k
a r l k b l
=
=

para l 0.

Para l=3,
1 2
[3] [2] [1] 0
x x x
r a r a r + + = , ou


1 1
3 2
[3] 0 0 [3] 1/ 6
x x
r r + = = .

Nota: A potncia do processo
2
[0] 1
x
r = = . Logo

2
2
2 1
3 3
1 2/ 3
1
2
1
j j
d
e e

=
+


Processamento Digital de Sinal - 2007 29
Atravs dos coeficientes do filtro podemos tambm obter a varincia do processo (de media nula).
Basta tomar as equaes de Yule-Walker tendo como incgnitas os valores de autocorrelao.
Neste caso teramos


2
0
1
2
[0] [1] [2] 1
[1] [0] [1] 0
[2] [1] [0] 0
r r r b
r r r a
r r r a
(
( (
(
( (
=
(
( (
(
( (


ou
2
1 2 0
1 2
1 2
[0] [1] [2]
[1] [0] [1] 0
[2] [1] [0] 0
r a r a r b
r a r a r
r a r a r
+ + =

+ + =

+ + =


logo

2
1 2 0
1 2
2 1
1 [0]
1 0 [1] 0
1 [2] 0
a a r b
a a r
a a r
(
( (
(
( (
+ =
(
( (
(
( (


.

O determinante da matriz do sistema
( )
2 2
2 1 2 1 2 2
(1 ) (1 ) a a a a a a = + + + e

( )
2
0 1 2
2 2
0 2 0 2
2
2 2
2 1 2 1 2 2
1
(1 ) (1 ) 1
[0] 0 1 0
1 (1 )
0 1
b a a
b a b a
r a
a a a a a a
a
+ +
= + = =
+ + +
.
Assim a varincia de um processo AR de ordem 2 com
1 2
0 1 2
( ) /(1 ) H z b a z a z

= + +

( ) ( )
2 2
2 0 2 0 2
2 2 2 2
2 1 2 2 1 2 1 2 2
(1 ) ( 1)
[0]
1 ( 1) 1 (1 )
x
b a b a
r
a a a a a a a a a

+ +
= = =
( + + + +

.

Neste caso, com
2
2
0 3
b = ,
1
2/ 3 a = e
2
1/ 3 a = , obtemos r[0]=1, r[1]=1/2 e r[2]=0. Fazendo a
2
=0,
obtemos a varincia de um processo AR de ordem 1:


2
2 0
2
1
1
x
b
a
=

.
2.4.3 Teorema da decomposio de Wold

Um importante teorema (teorema da decomposio de Wold) diz que qualquer processo pode
ser definido atravs da soma de dois processos, um regular e outro previsvel (com espectro de
potncia composto por impulsos),

[ ] [ ] [ ]
r p
x n x n x n = + ,

onde x
r
[n] regular e x
p
[n] previsvel e ortogonal a x
r
[n]:
{ }
[ ] [ ] 0
r p
E x n x n

= . A forma geral do
espectro de potncia de processos WSS assim dada atravs de

( ) ( ) ( )
j j
x r k k
k
P e P e c

= +

.
Processamento Digital de Sinal - 2007 30
3. Estimao Espectral de Potncia

3.1 Noo de estimador

Considere-se o problema de estimar o valor de um parmetro, , atravs de uma sequncia de
VAs, x
n
, n =1..N. Seja a estimativa

N
, que tambm uma VA. Se o valor esperado da estimativa
for igual ao verdadeiro valor, , diz-se que a estimativa no-polarizada. A polarizao (bias)
da estimativa


{ }

N
B E = .

Se a estimativa for no polarizada, ento B=0 e
{ }

N
E = .
Se a estimativa for polarizada mas a polarizao tender para zero medida que o nmero de
observaes N tende para infinito, ento diz-se que a estimativa assimptoticamente no
polarizada. Se a estimativa converge para o verdadeiro valor segundo um dado critrio, por
exemplo em termos de mdia quadrtica,


{ }
2

lim 0
N
N
E

=

diz-se que a estimativa consistente. Assim, se

N
no polarizada, a varincia da estimativa
deve tender para zero medida que o nmero de observaes aumenta.
Podemos medir esta tendncia atravs da desigualdade de Tchebycheff (ver exemplo seguinte):

{ }
{ }
2

Var

Pr
N
N

.

Um exemplo clssico de estimador a mdia amostrada,


1
1

N
N n
n
x
N

=
=

,

onde se assume que as N VAs so no correlacionadas e igualmente distribudas com a mesma
mdia
x
. Trata-se de uma estimativa no polarizada pois
{ } { }
1
1

N
N n x
n
E E x
N

=
= =

.

Sendo as VAs no correlacionadas, a varincia da soma das VAs igual soma das varincias:
{ } { }
2 2 2
1 1
Var Var Var
N N
N n x x N
n n
N x N N
= =

= = = =
`
)

. Logo
Processamento Digital de Sinal - 2007 31
{ } ( )
{ }
2
2
Var
x
N N x
E
N

= =

Trata-se portanto de uma estimativa consistente da mdia.

Exemplo
O nmero de observaes N para que a estimativa da mdia esteja dentro de um intervalo de 10%
do valor correcto com 99% de certeza dado por

{ }
2
1
2 2
Pr 10 1 0.99
10
x
N x x
x
N

=
Logo
2
4
2
10
x
x
N

= . Por exemplo, para que a mdia amostrada de uma sequncia de VAs com
2
x
= e
2
1
x
= esteja no intervalo entre 1.9 e 2.1 com 99% de certeza, devem tomar-se 2500
amostras (VAs).

3.2 Estimativa da autocorrelao

Usualmente dispomos apenas de N amostras de um processo WSS ergdico, por exemplo para
n=0..N-1, pelo que a estimativa da autocorrelao pode ser obtida atravs da soma finita

1
0
1
[ ] [ ] [ ]
N k
x
n
r k x n k x n
N

=
= +

, k=0..N1

sendo os valores para ndices negativos obtidos pela simetria complexa conjugada:
*
[ ] [ ]
x x
r k r k = .
Podemos assim obter valores da estimativa apenas para |k|< N. Alm disso, o somatrio anterior
tem apenas um termo para k=N1, que usa os valores extremos de x[n]:
1
[ 1] [ 1] [0]
x
r N x N x
N

= . Devido a este facto, esta estimativa polarizada, embora seja
assimptoticamente no polarizada. De facto,


{ } { }
1 1 1
0 0 0
1 1 1
[ ] [ ] [ ] [ ] [ ] 1
[ ]
N k N k N k
x x x
n n n
x
E r k E x n k x n r k r k
N N N
N k
r k
N

= = =
= + = =

=


Considerando os ndices para |k|< N, podemos dizer que

{ }
[ ] [ ] [ ]
x B x
E r k w k r k =

onde w
B
[k] a janela de Bartlett (janela triangular) centrada na origem e definida como

Processamento Digital de Sinal - 2007 32

,
[ ]
0 ,
B
N k
k N
w k N
k N

<

.

Podemos tambm definir a estimativa da autocorrelao atravs de uma convoluo. Basta definir
a amostra conhecida do processo como o sinal

[ ] [ ] [ ]
N R
x n w n x n =

onde w
R
[n] a janela rectangular de N amostras. Podemos assim definir a estimativa da
autocorrelao com limites infinitos:


1
[ ] [ ] [ ]
1
[ ] [ ]
x N N
n
N N
r k x n k x n
N
x k x k
N
+

= +
=



Se usarmos esta expresso para obter o valor esperado da estimativa da autocorrelao, resulta o
seguinte:

{ } { }
( )
1
[ ] [ ] [ ] [ ] [ ]
1
[ ] [ ] [ ]
x R R N
n
R R x
E r k w n k w n E x n k x n
N
w k w k r k
N
+

=
= + +
=


Significa que ( )
1
[ ] [ ] [ ]
B R R
w k w k w k
N
= (resultado conhecido).


3.2 Periodograma

O espectro de potncia a transformada de Fourier da sequncia de autocorrelao. Portanto a
estimao do espectro de potncia equivalente estimao da autocorrelao.
A transformada de Fourier (DTFT) da estimativa da autocorrelao conhecida com o nome de
periodograma:

1
( 1)

( ) [ ]
N
j jk
per x
k N
P e r k e

=
=



Em termos da amostra do processo, x
N
[n], como
1
[ ] [ ] [ ]
x N N
r k x k x k
N

= , temos que

2
*
1 1

( ) ( ) ( ) ( )
j j j j
per N N N
P e X e X e X e
N N

= =
N N
Processamento Digital de Sinal - 2007 33
Portanto, o periodograma proporcional ao mdulo quadrado da DTFT de x
N
[n].
As propriedades do periodograma como estimador espectral de potncia derivam das
propriedades da estimativa da autocorrelao: o periodograma um estimador polarizado mas
assimptoticamente no polarizado:

{ }
{ } { } { }

( ) DTFT [ ] DTFT [ ] [ ]
1
( ) ( )
2
j
per x B x
j j
B x
E P e E r k w k r k
W e P e

= =
=



onde ( )
j
B
W e

a transformada de Fourier da janela triangular,


2
2
2
1 sin ( / 2) 1
( ) ( )
sin ( / 2)
j j
B R
N
W e W e
N N

= = .

uma vez que, como vimos, ( )
1
[ ] [ ] [ ]
B R R
w k w k w k
N
= . Quando N tende para infinito o espectro
da janela tende para um impulso, logo o periodograma tende para o espectro de potncia do
processo.
O valor esperado do periodograma a convoluo peridica do espectro de potncia do
processo com a DTFT da janela triangular (logo polarizado).

Exemplo

Considere-se o processo harmnico embebido em rudo branco


0
[ ] sin( ) [ ] x n A n v n = + +

onde uma VA uniformemente distribuda entre e e v[n] rudo branco de varincia
2
v
.
A autocorrelao deste processo

( )
2
2
0
[ ] cos [ ]
2
x v
A
r k k k = +

e portanto, o seu espectro de potncia


[ ]
2
2
0 0
( ) ( ) ( )
2
j
x v
A
P e


= + + +
A esperana do periodograma

{ }
0 0
2
( ) ( ) 2
1

( ) ( ) ( )
2
( ) ( )
4
j j j
per B x
j j
B B v
E P e W e P e
A
W e W e

+
=

( = + +



Processamento Digital de Sinal - 2007 34














Varincia do periodograma

No caso de rudo branco Gaussiano possvel conhecer a varincia do periodograma. O resultado
o seguinte:

{ }
4 2

Var ( ) ( )
j j
per x x
P e P e

= = .

Vemos assim que a varincia do periodograma no tende para zero mesmo quando N tende para
infinito. Significa que o periodograma no uma estimativa consistente do espectro de potncia.
Para outros processos o resultado aproximado


{ }
2

Var ( ) ( )
j j
per x
P e P e

,

mantendo-se a concluso anterior.

Exemplo

Periodograma de rudo branco Gaussiano (
v
2
=1) com 256, 512, 1024 e 2048 amostras avaliado
atravs de DFTs de 2048 pontos.

X=fft(randn(1,256 ),2048); P1=(1/256 )*abs(X(1:1025)).^2;
X=fft(randn(1,512 ),2048); P2=(1/512 )*abs(X(1:1025)).^2;
X=fft(randn(1,1024),2048); P3=(1/1024)*abs(X(1:1025)).^2;
X=fft(randn(1,2048),2048); P4=(1/2048)*abs(X(1:1025)).^2;
wn=(0:1024)/1024;
plot(wn,db(P1),wn,db(P2),wn,db(P3),wn,db(P4))

0


P
x
(e
j
)

v
2


[A
2
/2]
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
1
2
3
4
5
6
7
8
9
10
A=1

0
=0.4

v
2
=1
N=32
NA
2
/4 +
v
2

Processamento Digital de Sinal - 2007 35



A resoluo do periodograma depende da largura do lbulo principal da janela de Bartllet, que
neste caso (largura 2N) 4/N, a mesma da janela rectangular de N amostras.
Considere-se o caso de um processo harmnico que consiste em duas sinusides de igual
amplitude e de fase aleatria, embebidas em rudo branco de varincia unitria,

1 1 2 2
[ ] sin( ) sin( ) [ ] x n A n A n v n = + + + +
com
1
0.4 = ,
2
0.45 = e A=5. Apenas com N=80 amostras do processo possvel resolver
completamente os dois harmnicos.


0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
-70
-60
-50
-40
-30
-20
-10
0
10
20
N=256
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
-70
-60
-50
-40
-30
-20
-10
0
10
20
N=1024
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
-70
-60
-50
-40
-30
-20
-10
0
10
20
N=512
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
-40
-30
-20
-10
0
10
20
30
N=40
A=5

v
2
=1

dB
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
-70
-60
-50
-40
-30
-20
-10
0
10
20
N=2048
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
-40
-30
-20
-10
0
10
20
30
N=80
A=5

v
2
=1

Processamento Digital de Sinal - 2007 36
Periodograma modificado

Se aplicarmos s amostras do processo uma janela diferente da janela rectangular obtemos um
periodograma modificado. Embora a janela rectangular tenha o lbulo principal mais estreito que
todas as outras, os lbulos secundrios podem mascarar a componentes fracas e de banda estreita
do processo.
O periodograma modificado dado por

{ }
2 1

( ) DTFT [ ] [ ]
j
M
P e x n w n
NU

=

onde w[n] uma janela genrica, N a sua largura da janela e U a sua energia normalizada:


1
2
2
0
1 1
[ ] ( )
2
N
j
n
U w n W e d
N N

=
= =


.

O valor esperado do periodograma modificado


{ }
2
1

( ) ( ) ( )
2
j j j
M x
E P e P e W e
NU

=

.

A constante U permite normalizar a estimativa e torn-la assimptoticamente no polarizada. De
facto, se x[n] for rudo branco de varincia unitria ( ( ) 1
j
x
P e

= ) ento o valor esperado da
estimativa
2
( ) /
j
W e NU

e tende para um impulso quando N.


A varincia do periodograma modificado a mesma do periodograma. A resoluo depende da
janela usada.

3.3 Mtodos de suavizao

A fim de obter uma estimativa consistente do espectro de potncia, vrios mtodos foram
propostos.
A. Mtodo de Bartlett (mdias de periodogramas)

O mtodo consiste em dividir as N amostras conhecidas do processo em K sequncias de
comprimento L (N = KL):

[ ] [ ] , 0.. 1
k
x n x n kL k K = + = .

Fazer a mdia dos K periodogramas de comprimento L.

{ }
1
2
0
1

( ) DTFT [ ]
K
j
B k
k
P e x n
KL

=
=


Processamento Digital de Sinal - 2007 37
O valor esperado no se altera em relao ao do periodograma, contudo a varincia desta
estimativa agora


{ } { }
2
1 1

Var ( ) Var ( ) ( )
j j j
B per x
P e P e P e
K K

=

Assim, medida que N tende para infinito, o mesmo acontece com K e com L, tornando esta
estimativa consistente.

Exemplo anterior com N=4000, K=50, L=80:



B. Mtodo de Welch

Idntico ao anterior, mas com sobreposio das sub-sequncias e usando o periodograma
modificado.

1
( )
0
1

( ) ( )
K
j k j
W M
k
P e P e
K

=
=



onde
( )

( )
k j
M
P e

o periodograma modificado de cada seco (sub-sequncia) k.



Exemplo com 4000 amostras, L=80,
janela de Hamming e sobreposio
de 10 amostras (K=57).


Nota:
O comando PSD no Matlab usa este mtodo
com a janela de Hanning. Ex:
Px = psd(x,1024,1,80,10);
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
-5
0
5
10
15
20
25
30

( )
j
B
P e
N=4000
K=50
L=80
A=5

v
2
=1

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
0
5
10
15
20
25
30
{ }

( )
j
B
E P e

0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
-10
-5
0
5
10
15
20
25
Processamento Digital de Sinal - 2007 38
C. Mtodo de Blackman-Tuckey

Este mtodo tem em conta que os valores implcitos da autocorrelao so mal estimados para
ndices perto de N. Por exemplo o valor
1
[ 1] [ 1] [0]
x
r N x N x
N

= estimado tomando apenas
duas amostras.
Assim, uma forma de reduzir a varincia do periodograma consiste em reduzir a contribuio
destas estimativas no periodograma, o que pode ser feito aplicando uma janela sequncia da
autocorrelao:

{ }

( ) DTFT [ ] [ ]
j
BT x
P e r n w n

= .

Usualmente a janela w[n] nula para |n|>M onde M<N. isto , desprezam-se as ltimas MN
amostras da autocorrelao. A janela tem de ser simtrica de forma que o produto com [ ]
x
r n
continue uma sequncia par/complexa simtrica para garantir a positividade da estimativa do
espectro de potncia.
Como { }
[ ] [ ] [ ]
x B x
E r k w k r k = , temos que o valor esperado desta estimativa


{ }
{ } { }
{ }

( ) DTFT [ ] [ ]
DTFT [ ] [ ] [ ]
1
( ) ( ) ( )
2
j
BT x
x B
j j j
x B
E P e E r k w n
r k w k w n
P e W e W e

=
=
=




Fazendo um certo nmero de simplificaes, pode mostrar-se que a varincia desta estimativa
aproximadamente


{ }
2 2
1

Var ( ) ( ) [ ]
M
j j
BT x
k M
P e P e w k
N

=




Se a janela for rectangular, ento
{ }
2
2 1

Var ( ) ( )
j j
BT x
M
P e P e
N

+
.
Existe assim um compromisso entre polarizao e varincia: para reduzir a varincia da
estimativa M deve ser to pequeno quanto possvel, embora neste caso a suavizao espectral e
resoluo em frequncia, isto a polarizao, venham aumentadas.









Processamento Digital de Sinal - 2007 39
3.4 Mtodo da Mxima Entropia

Uma das limitaes dos mtodos clssicos o facto de se assumir implicitamente que a sequncia
de autocorrelao nula para |k| N.
No mtodo da mxima entropia a sequncia de autocorrelao extrapolada para os ndices kN
de forma a maximizar a taxa de entropia do processo.

Entropia uma medida da incerteza de um processo estocstico. Define-se a taxa de entropia de
um processo como a mdia, por amostra, dessa incerteza.
A taxa entropia de um processo com espectro de potncia ( )
j
x
P e

(de mdia nula) dada por
[Papoulis, 91],

1
ln ( )
4
j te
x
H P e d C

= +

.

Suponhamos que de um processo estocstico (de mdia nula) conhecida a sequncia de
autocorrelao apenas para |k| p. Pretende-se obter uma estimativa do espectro de potncia do
processo extrapolando os valores da autocorrelao para |k|>p e de forma que esta extrapolao
corresponda a admitir o menos possvel sobre as amostras do processo necessrias para obter essa
extrapolao. Isto , pretende-se maximizar a taxa de entropia para |k|>p. Teremos ento

| |
( ) [ ] [ ]
p
j j k j k
x x e
k p k p
P e r k e r k e

= >
= +



onde r
e
[k] corresponde sequncia de autocorrelao extrapolada. Para maximizar a taxa de
entropia para |k|>p, dever ser


1
ln ( )
[ ] 4 [ ]
( ) 1 1
4 ( ) [ ]
1
4 ( )
0 ,
j
x
e e
j
x
j
x e
j k
j
x
H
P e d
r k r k
P e
d
P e r k
e
d
P e
k p

=
= >



Poderamos igualmente ter derivado em ordem a r
e
[k], vindo ento que


1 1
0 ,
2 ( )
j k
j
x
e d k p
P e

= >

.

Tomando a transformada inversa de Fourier desta expresso, verificamos que se trata de uma
sequncia limitada ao intervalo |k| p. Seja ela q[k]. Teremos que
Processamento Digital de Sinal - 2007 40

1
[ ]
( )
p
j k
j
k p x
q k e
P e

=
=

,
e portanto

1

( )
[ ]
j
MEM p
j k
k p
P e
q k e


=
=



Factorizado esta expresso, chegamos concluso que a estimativa de mxima entropia , afinal,
o espectro de potncia de um processo autoregressivo (AR):


2
0
2
0
| |

( )
j
MEM
p
j k
k
k
b
P e
a e


=
=

, a
0
=1.

Como vimos anteriormente, os coeficientes a
k
podem ser obtidos atravs das equaes de Yule-
Walker:

1
2
[0] [ 1] [ 1] [1]
[1] [0] [2]
[ 1]
[ 1] [1] [0] [ ]
x x x x
x x x
x
p x x x x
a r r r p r
a r r r
r
a r p r r r p
+ ( ( (
( ( (
( ( (
=
( ( (
( ( (
( ( (



que correspondem equao


0
[ ] 0 , 0
p
k x
k
a r l k l
=
= >



Esta tambm a equao que define a extrapolao da sequncia de autocorrelao. Como a
0
=1,
temos a recurso


1
[ ] [ ] , 0
p
x k x
k
r l a r l k l
=
= >



O coeficiente b
0
deve ser escolhido de forma a potncia total do processo coincida com a desta
estimativa, isto ,

2
0
0
[ ] | |
p
k x
k
a r k b
=
=

.
Exemplo.
Considere-se o processo harmnico anterior com N= 80 pontos de onde se estimam 21 valores de
autocorrelao. A estimativa de mxima entropia com p=20 a que se apresenta na figura
seguinte. Mostram-se tambm a sequncia de autocorrelao estimada e a sequncia extrapolada.
Notar que para lp as duas sequncias coincidem.

Processamento Digital de Sinal - 2007 41


Cdigo em Matlab que gerou estas figuras:

N=80;
A=5;
w1=0.4*pi;
w2=0.45*pi;
rand('state',0);
randn('state',0);
fi1=rand(1);
fi2=rand(1);
v=randn(1,N);
n=0:N-1;
%amostra do processo:
x=A*sin(w1*n+fi1)+A*sin(w2*n+fi2)+v;
%autocorrelao
rx=xcorr(x,'biased'); %sequncia par; diviso por N.
%Estimativa MEM com p=20
p=20
r=rx(N:N+p); % p+1 valores da estimativa da autocorrelao, r[0]..r[p]
%Equaes de Yule-Walker:
R=toeplitz(r(1:p)); %matriz do sistema com valores r[0]...r[p-1]
a=-R\r(2:p+1); %soluo de R*a = -b, onde b=[r[1],...,r[p]]'
a=[1;a]; %colocar a0=1
b02=r'*a; %quadrado do ganho: b0^2 = sum(ak*r[k]), k=0..p.
%Mdulo quadrado em [0,pi[ com 512 pontos:
P=abs(freqz(sqrt(b02),a)).^2;
wn=(0:511)/512; %freq. normalizada em [0,pi[
plot(wn,10*log10(P))
%sequncia de autocorrelao extrapolada com 80 pontos
re=zeros(N,1);
re(1:p+1)=r; %valores tomados (no extrapolados)
for m=p+1:N-1
re(m+1)= - a(2:p+1)'*re((m-1:-1:m-p)+1);
end
stem((0:N-1),rx(N:end)), hold on, stem((0:N-1),re,'r'), hold off




0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
-5
0
5
10
15
20
25
30
p=20
0 10 20 30 40 50 60 70 80
-30
-20
-10
0
10
20
30
r
x
estimado
r
x
extrapolado
Processamento Digital de Sinal - 2007 42
4. Filtros ptimos

Filtros ptimos so filtros obtidos em condies estocsticas atravs da minimizao da mdia
quadrtica do erro de modelao.

Exemplos de Aplicaes

a) Cancelamento de eco acstico ou elctrico


Sistema de cancelamento de eco acstico

Neste exemplo de aplicao pretende-se eliminar ou reduzir o eco acstico em sistemas de mos
livres atravs de um filtro H(z) que identifique e simule o sistema acstico que produz o eco.
Usualmente o filtro adaptativo, isto actualizado com grande frequncia.
Mesmo nos sistemas telefnicos convencionais pode acontecer o chamado eco elctrico (em
comunicaes via satlite ou a grande distncia que provocam um atraso considervel do sinal)
devido imperfeio do sistema que passa de 4 2 fios (hbrido).



Eco elctrico (em comunicaes de longa distncia (satlite))

Um problema semelhante o problema da identificao de sistemas: pretende-se modelar um
sistema desconhecido (planta) atravs do sistema linear H(z). Os coeficientes do filtro H(z) so
escolhidos de forma a minimizar o mdia quadrtica do erro de modelao, entre o sinal desejado,
d[n], e a sada do sistema quando a entrada comum o processo estocstico x[n].


Identificao de sistemas



d[n]
y[n]
e[n] x[n]
H(z)
planta
d[n]
y[n]
e[n]
x[n]
s[n] (sinal)
H(z)
ecos


hbrido hbrido

2
Processamento Digital de Sinal - 2007 43
b) Reduo de rudo

Em muitas situaes os sinais observados esto contaminados por rudo. Pretende-se neste caso
estimar o sinal desejado, d[n], atravs das observaes ruidosas x[n].
Assumindo que o rudo no correlacionado com o sinal desejado, possvel melhorar a relao
sinal/rudo conhecendo as estatsticas do rudo.



c) Cancelamento de rudo

Um exemplo ilustrativo o caso de obteno de um sinal de udio num ambiente muito ruidoso
(por exemplo num cockpit de um avio, devido ao rudo dos motores). Neste caso so captados
dois sinais com dois microfones: um perto da boca do locutor (capta o sinal principal) e outro
afastado, de tal forma que capte apenas o rudo ambiente (sinal de referncia). Como o rudo no
sinal principal est correlacionado com o sinal de referncia, possvel estimar o rudo presente
no sinal principal e assim cancelar este efeito, ou, pelo menos, melhorar a relao sinal/rudo.



d) Predio

Neste caso pretende-se fazer uma predio de um sinal x[n] custa das amostras anteriores desse
sinal (atravs de um preditor P(z)). A estimao ser ptima, segundo o critrio da mdia
quadrtica, se o erro de predio tiver a mnima varincia possvel.



Se o preditor for da forma
1
( )
p
k
k
k
P z a z

=
=

, ento o sistema global, com entrada x[n] e sada


e[n] o filtro FIR (designado de predio linear)
d[n]
e[n] x[n] P(z)
[ ] [ ] y n x n =
s[n]+v
1
[n]
y[n]
e[n]
v[n]
H(z)


d[n]
y[n]
e[n]
x[n]
H(z)
v[n] (rudo)
Processamento Digital de Sinal - 2007 44


0
1 0
( ) 1 ( ) 1 , 1
p p
k k
k k
k k
H z P z a z a z a

= =
= = + = =

.

4.1 Filtro FIR de Wiener

As diferentes situaes identificadas anteriormente podem generalizar-se no diagrama da figura
seguinte.


Vejamos como se pode obter o chamado filtro ptimo de Wiener no caso de se tratar de um
sistema FIR de ordem p:


0
( )
p
k
k
k
H z h z

=
=

.
Teremos que
[ ] [ ] [ ] e n d n y n =
e
0
[ ] [ ]
p
k
k
y n h x n k
=
=

,
logo
0
[ ] [ ] [ ]
p
k
k
e n d n h x n k
=
=

.

Assumimos que x[n] e d[n] so processos estacionrios (WSS) com sequncias de autocorrelao
conhecidas bem como a correlao cruzada entre d[n] e x[n].
Pretende-se calcular os p+1 coeficientes h
k
do filtro H(z), para k=0..p, usando como critrio a
minimizao da mdia quadrtica do erro e[n]. Para isso definimos


{ }
2
[ ] E e n =

e as derivadas deste valor em ordem aos coeficientes do filtro tm de ser nulas. Se os processos
forem reais, teremos que
{ }
2
[ ] E e n = e que

[ ]
2 [ ] 0
k k
e n
E e n
h h

= =
`

)
, para k = 0..p.
Como [ ] [ ]
k
e n h x n k = obtemos as condies

{ } [ ] [ ] 0 , 0.. E e n x n k k p = = .

d[n]
y[n]
e[n] x[n] H(z)
Processamento Digital de Sinal - 2007 45
No caso de processos complexos, pode mostrar-se que as condies resultantes so semelhantes e
so as seguintes:


{ }
[ ] [ ] 0 , 0.. E e n x n k k p

= =

Diz-se que a soluo ptima se obtm quando as observaes so ortogonais (ou perpendiculares)
ao erro, o que conhecido como o princpio da ortogonalidade ou da perpendicularidade.
Pode tambm mostrar-se que a soluo obtida usando estas condies corresponde a um mnimo
(e no a um mximo) do erro quadrtico. A soluo obtm-se introduzindo na expresso anterior
a definio do erro:


{ } { }
0
0
[ ] [ ] [ ]
[ ] [ ] [ ] [ ]
p
m
m
p
m
m
E d n h x n m x n k
E d n x n k h E x n m x n k

=

=
| |

` |
\ )
=

k = 0..p.

Atravs da definio de correlao cruzada e da autocorrelao, obtemos, finalmente


0
[ ] [ ] , 0..
p
dx m x
m
r k h r k m k p
=
= =

.

Trata-se de um sistema de p+1 equaes a p+1 incgnitas h
k
, sendo estas equaes conhecidas
como equaes de Wiener-Hopf. Matricialmente teremos


0
1
[0] [ 1] [ ] [0]
[1] [0] [1]
[ 1]
[ ] [1] [0] [ ]
x x x dx
x x dx
x
p x x x dx
h r r r p r
h r r r
r
h r p r r r p
( ( (
( ( (
( ( (
=
( ( (
( ( (
( ( (



ou
x dx
= R h r ,
cuja soluo ptima

1
x dx

= h R r .

A matriz do sistema a matriz de autocorrelao de x[n], que , como sabemos Toeplitz (todas as
diagonais so iguais). No caso de o processo x[n] ser real, esta matriz tambm simtrica pois
nesse caso r
x
[k] = r
x
[k].


Falta apenas conhecer o erro mdio quadrtico mnimo. Temos que

Processamento Digital de Sinal - 2007 46

{ }
{ }
{ } { }
2
0
0
[ ] [ ] [ ]
[ ] [ ] [ ]
[ ] [ ] [ ] [ ]
p
m
m
p
m
m
E e n E e n e n
E e n d n h x n m
E e n d n h E e n x n m



=

=
= =
| |
=
` |
\ )
=



Pelo princpio da ortogonalidade, o 2 termo desta ltima expresso tem de ser nulo na soluo
ptima, resultando que o erro mdio quadrtico mnimo


{ }
min
0
0
*
0
[ ] [ ]
[ ] [ ] [ ]
[0] [ ]
[0] [ ] [0]
p
m
m
p
d m xd
m
p
T
d m dx d dx
m
E e n d n
E d n h x n m d n
r h r m
r h r m r

=
=

=
=
| |
=
` |
\ )
=
= =

r h


ou ainda
* 1
min
[0]
T
d dx x dx
r

= r R r


Exemplo
Se
| |
[ ]
k
x
r k = e
| |
[ ]
k
dx
r k = (com ||<1 e ||<1), qual o filtro ptimo de Wiener de ordem 1? A
soluo obtm-se atravs da equao


0
1
1 1
1
h
h


( ( (
=
( ( (


vindo

0 2 2
1
1 1
1 1 1
h


= =

;
1 2 2
1 1
1
1 1
h

= =


e
1
2
1
( ) 1
1 1
H z z

| |
=
|

\
.






Processamento Digital de Sinal - 2007 47
4.2 Aplicaes

a) Cancelamento de eco acstico ou elctrico

Nesta situao admite-se que o sinal s[n] no correlacionado com x[n] (ver figura anterior).
Assim d[n] contm os ecos de x[n] que so evidenciados pela correlao cruzada r
dx
[k].
Conhecendo a sequncia de autocorrelao r
x
[k] e a correlao cruzada r
dx
[k], obtemos a soluo
ptima atravs de
1
x dx

= h R r .

b) Reduo de rudo


Nesta situao assume-se que o sinal de interesse, d[n], no correlacionado com o rudo, v[n],
de forma que, sendo [ ] [ ] [ ] x n d n v n = + ento


{ }
( ) { }
[ ] [ ] [ ]
[ ] [ ] [ ]
[ ]
dx
d
r k E d n k x n
E d n k d n v n
r k


= +
= + +
=

Por outro lado

{ }
( ) ( ) { }
[ ] [ ] [ ]
[ ] [ ] [ ] [ ]
[ ] [ ]
x
d v
r k E x n k x n
E d n k v n k d n v n
r k r k


= +
= + + + +
= +


A equao a resolver agora

( )
d v d
+ = R R h r .

A matriz (R
d
+R
v
) pode ser estimada atravs de x[n]. Se for possvel estimar a autocorrelao do
rudo v[n] (por exemplo quando d[n]=0), ento obtemos tambm r
d
[k] atravs de r
d
[k] =
r
x
[k]r
d
[k].





d[n]
y[n]
e[n]
x[n]
H(z)
v[n] (rudo)
Processamento Digital de Sinal - 2007 48
Exemplo
Considere-se o caso em que a autocorrelao dos dados [ ]
k
d
r k = , =0.8 e v[n] rudo branco
de varincia
2
1
v
= . Calcular a relao sinal/rudo na entrada e na sada do filtro de Wiener de
ordem 1.
Como a matriz de autocorrelao do rudo diagonal, ento


2
2
2
1 1 0 1
; ; ;
1 0 1 1
v
d v v x d v
v


( + ( (
= = = + =
( ( (
+

R R R R R .

A equao a resolver

2
0
2
1
1 1
1
v
v
h
h


( + ( (
=
( ( (
+

.
A soluo

2 2
0
2 2 2 2
1
1 1
(1 )
v
v v
h
h


( + (
=
( (
+

.

Com os valores dados, resulta h
0
=0.4048 e h
1
=0.2381.
A sada do filtro de Wiener ( ) [ ] [ ] [ ] [ ] [ ] [ ] y n h n d n v n d n v n = + = + . A relao sinal/ rudo na
entrada
2 2
/ 1
d v
= , enquanto que na sada do filtro (ver pgina 24)
2 2
/ /
T T
d v d v



= h R h h R h =0.3747/0.2205=1.6992. A relao sinal rudo melhorou cerca de
10log
10
(1.6992)2.3 dB.

c) Cancelamento de rudo (melhoramento do sinal)




Nesta situao d[n] = s[n]+v
1
[n] e x[n] = v[n] (rudo). O sinal v
1
[n] no conhecido mas sabe-se
que est correlacionado com o sinal de referncia v[n]. Sem sinal (s[n]=0), vemos que o filtro de
Wiener estima o rudo v
1
[n] que contamina o sinal s[n]. O mesmo se passa na presena do sinal
s[n], uma vez que no existe correlao entre este e o rudo, isto :


1
[ ] [ ] [ ] d n s n v n = + ,
[ ] [ ] x n v n = ;
s[n]+v
1
[n]
y[n]
e[n]
v[n]
H(z)
Processamento Digital de Sinal - 2007 49

{ }
( ) { }
1
1
[ ] [ ] [ ]
[ ] [ ] [ ]
0 [ ]
dx
v v
r k E d n k x n
E s n k v n v n
r k

= +
= + +
= +


Significa que a correlao cruzada entre o sinal principal e o sinal de referncia resulta na
correlao entre os dois rudos.
Como x[n]=v[n], a matriz do sistema a resolver R
x
= R
v
. Logo a equao


1
v v v
= R h r
d) Predio

Usualmente considera-se um preditor da amostra actual em funo das p amostras anteriores.
Uma situao anloga consiste em prever a amostra x[n+1] em funo das p+1 amostras
anteriores. Teremos ento o esquema da figura de acordo com o esquema genrico.


Assim

{ }
{ }
[ ] [ ] [ ]
[ 1 ] [ ]
[ 1] [ ]
dx
x d
r k E d n k x n
E x n k x n
r k r k

= +
= + +
= + =

Logo a equao do sistema agora


x d
= R h r .

As equaes de Wiener-Hopf transforma-se nas equaes de Yuke-Walker:


0
1
[0] [ 1] [ ] [1]
[1] [0] [2]
[ 1]
[ ] [1] [0] [ 1]
x x x x
x x x
x
p x x x x
h r r r p r
h r r r
r
h r p r r r p
( ( (
( ( (
( ( (
=
( ( (
( ( (
+ ( ( (



Nota: podemos considerar, em vez do avano de uma amostra, o avano ou atraso de m amostras.
No segundo membro teremos nesse caso valores r
x
[m].




d[n]=x[n+1]
e[n] x[n] H(z)
z
[ ] [ 1] y n x n = +
Processamento Digital de Sinal - 2007 50
Exemplo
Se x[n] for o processo AR da sada do filtro
1 1 2 2
1
( )
1 2 cos( )
H z
z z

=
+
quando a entrada
rudo branco (de mdia nula e varincia unitria), verificar que o preditor ptimo de ordem p=2
de x[n]
1 2 2
( ) 2 cos( ) P z z z

= .

Pretendemos predizer x[n] custa da estimativa
1 2
[ ] [ ] [ 1] [ 2] y n x n h x n h x n = = + . Logo
1 2
1 2
( ) P z h z h z

= + . Neste caso, como d[n]=x[n], r
dx
[k] = r
x
[k]. Queremos estimar h
k
para k=1 e
k=2. Obtermos ento o sistema


1 2
1
[ ] [ ] [ 1] [ 2] , 1, 2
p
x m x x x
m
r k h r k m h r k h r k k
=
= = + =


ou:

1
2
[0] [1] [1]
[1] [0] [2]
x x x
x x x
r r r h
r r r h
( ( (
= =
( ( (

r .

Mas como x[n] AR de ordem 2, verifica as equaes de Yule-Walker:


1
2
[0] [1] [1]
[1] [0] [2]
x x x
x x x
r r r a
r r r a
( ( (
= =
( ( (


r ,

pelo que
1 1
2 cos( ) h a = = e
2
2 2
h a = = . O filtro com entrada x[n] e sada e[n] o filtro
de erro,
1 2 2
1
( ) 1 ( ) 1 2 cos( ) A z P z z z

= = + , que exactamente o filtro inverso de H
1
(z).
Significa que a predio linear de processos AR pode ser exacta, desde que o filtro de Wiener
tenha ordem igual ou superior do processo AR. O erro de mdia quadrtica mnimo


*
min
0
[0] [ ]
p
T
x k x
k
r a r k
=
= =

h r , a
0
=1.

Vejamos agora o caso de um preditor das amostras x[n+1] (o caso discutido anteriormente). A
equao a resolver agora (com r[k] = r
x
[k]):


0
1
2
[0] [1] [2] [1]
[1] [0] [1] [2]
[2] [1] [0] [3]
r r r h r
r r r h r
r r r h r
( ( (
( ( (
=
( ( (
( ( (

.

Como vimos, podemos calcular a sequncia de autocorrelao de um processo AR se
conhecermos os coeficientes a
k
(ver exemplo sobre processos AR). Se fizermos isso, resulta que a
soluo desta equao h
0
= a
1
, h
1
= a
2
e h
2
=0. Significa que o filtro ptimo
2 1
( ) 2 cos( ) H z z

= . Mas, neste caso o filtro de erro vai ser dado atravs de
( ) ( ) ( ) ( ) ( ) ( ) ( ) E z zX z H z X z z H z X z = = . Logo
Processamento Digital de Sinal - 2007 51

( ) ( )
2
1
0 1
1 2 1 2
0 1 1 2
1
( ) ( ) / ( ) ( )
1 1
( )
A z E z X z z H z
z h h z
z h z h z z a z a z
zA z


= =
=
= = + +
=


Equivale a redesenhar o sistema para a seguinte forma onde
1
( ) z H z

o preditor anterior.




e[n] x[n] H(z)
z z
-1

Você também pode gostar