Você está na página 1de 80

MATERI

ALSUPLEMENT
ARPARAACOMPANHAR
Probabilidade e Processos
Estocásticos
Uma Introdução Amigável para Engenheiros
Eletricistas e de Computação

Terceira Edição

Suplemento de Processamento de Sinais


(SPS)
Roy D. Yates e David J. Goodman

Introdução

No projeto de novos equipamentos e na avaliação do desempenho de sistemas existentes, engenhei-


ros elétricos e de computação constantemente representam sinais elétricos como funções amostrais
de processos estocásticos estacionários no sentido amplo. Usamos funções de densidade de probabili-
dade e funções de massa de probabilidade para descrever as características de amplitude dos sinais,
além de usarmos funções de autocorrelação para descrever a natureza dos sinais, que variam com o
tempo. Muitos sinais importantes  por exemplo, níveis de brilho dos elementos de imagem da tele-
visão  aparecem como funções amostrais de sequências aleatórias. Outros  por exemplo, formas
de onda de áudio  aparecem como funções amostrais de processos de tempo contínuo. Porém, na
prática, equipamentos práticos cada vez mais utilizam o processamento de sinais digitais para rea-
lizar muitas operações sobre sinais de tempo contínuo. Para fazer isso, o equipamento contém um
conversor analógico-digital para transformar um sinal de tempo contínuo em uma sequência aleatória.
Um conversor analógico-digital realiza duas operações: amostragem e quantização. A amostragem
com um período de Ts segundos transforma um processo de tempo contínuo X(t) em uma sequência
aleatória Xn = X(nTs). A quantização transforma a variável aleatória contínua Xn em uma variável
aleatória discreta Qn.
Neste capítulo, ignoramos a quantização e analisamos a filtragem linear dos processos aleatórios
e sequências aleatórias resultantes da amostragem de processos aleatórios. A filtragem linear é uma
técnica prática, com muitas aplicações. Por exemplo, veremos que, quando aplicamos os métodos
de estimativa linear desenvolvidos no Capítulo 12 a um processo aleatório, o resultado é um filtro
linear. Usaremos a transformada de Fourier das funções de autocorrelação e correlação cruzada para
desenvolver as técnicas de domínio de frequência para a análise de sinais aleatórios.
1
2   suplemento de processamento de sinais (sps)

1  Filtragem Linear de um Processo Estocástico de Tempo Contínuo

A saída de um filtro linear invariante no tempo é um processo estocástico estacio-


nário no sentido amplo se a entrada for um processo estacionário no sentido
amplo.

Vamos começar descrevendo o relacionamento entre o processo estocástico na saída de um filtro li-
near para o processo estocástico na entrada do filtro. Considere um filtro linear invariante no tempo
(LTI) com resposta ao impulso h(t). Se a entrada for um sinal determinístico v(t), a saída, w(t), é
a convolução
 ∞  ∞
w(t) = h(u)v(t − u) du = h(t − u)v(u) du. (1)
−∞ −∞
Se as entradas possíveis no filtro forem x(t), as funções amostrais de um processo estocástico X(t),
então as saídas, y(t), são funções amostrais de outro processo estocástico, Y(t). Como y(t) é a con-
volução de x(t) e h(t), adotamos a seguinte notação para o relacionamento entre Y(t) e X(t).
 ∞  ∞
Y (t) = h(u)X(t − u) du = h(t − u)X(u) du. (2)
−∞ −∞

De modo semelhante, o valor esperado de Y(t) é a convolução de h(t) e E[X(t)].

Teorema 1
 ∞   ∞
E [Y (t)] = E h(u)X(t − u) du = h(u) E [X(t − u)] du.
−∞ −∞

Quando X(t) é estacionário no sentido amplo, usamos o Teorema 1 para derivar RY(t, t) e RXY(t, t)
como funções de h(t) e RX(t). Iremos observar que, quando X(t) é estacionário no sentido amplo,
Y(t) também o será.

Teorema 2

Se a saída de um filtro LTI com resposta ao impulso h(t) é um processo estacionário no sen-
tido amplo X(t), a saída Y(t) tem as seguintes propriedades:
(a) Y(t) é um processo estacionário no sentido amplo, com valor esperado
 ∞
µY = E [Y (t)] = µX h(u) du,
−∞

e função de autocorrelação
 ∞  ∞
RY (τ ) = h(u) h(v)RX (τ + u − v) dv du.
−∞ −∞

(b) X(t) e Y(t) são, em conjunto, estacionários no sentido amplo e possuem correlação
cruzada entre entrada e saída
 ∞
RXY (τ ) = h(u)RX (τ − u) du.
−∞
suplemento de processamento de sinais (sps)   3

(c) A autocorrelação de saída está relacionada com a correlação cruzada entre entrada e
saída por meio de
 ∞
RY (τ ) = h(− w)RXY (τ − w) dw.
−∞


Prova Retornamos ao Teorema 1 para lembrar que E[Y(t)] = −∞

h(m) E[X(t – u)]du. Como E[X(t)] =
∞
mX para todo t, E[Y(t)] = −∞ h(u) mX du, que é independente de t. Em seguida, observamos que a
∞
Equação (2) implica Y(t + t) = −∞ h(v)X(t + t – u) dv. Assim,
RY (t, τ ) = E [Y (t)Y (t + τ )]
 ∞  ∞ 
=E h(u)X(t − u) du h(v)X(t + τ − v) dv
 ∞ −∞  ∞ −∞

= h(u) h(v) E [X(t − u)X(t + τ − v)] dv du. (3)


−∞ −∞

Como X(t) é estacionário no sentido amplo, E[X(t – u) X(t + t – v)] = RX(t – v + u), de modo que
 ∞  ∞
RY (t, τ ) = RY (τ ) = h(u) h(v)RX (τ − v + u) dv du. (4)
−∞ −∞
Pela Definição 13.15, Y(t) é estacionário no sentido amplo, pois E[Y(t)] é independente do tempo t
e RY(t, t) depende somente do deslocamento de tempo t.
A correlação cruzada de entrada-saída é
  ∞ 
RXY (t, τ ) = E X(t) h(v)X(t + τ − v) dv
−∞
 ∞  ∞
= h(v) E [X(t)X(t + τ − v)] dv = h(v)RX (τ − v) dv. (5)
−∞ −∞
Assim, RXY(t, t) = RXY(t) e, pela Definição 13.18, X(t) e Y(t) são conjuntamente estacionários no
sentido amplo. Pelo Teorema 2(a) e o Teorema 2(b), observamos que
 ∞  ∞  ∞
RY (τ ) = h(u) h(v)RX (τ + u − v) dv du = h(u)RXY (τ + u) du. (6)
−∞
 −∞   −∞
RXY (τ +u)


∞
A substituição de w = –u leva a RY(t) = −∞h(–w)RXY(t – w)dw, para completar a derivada.

Exemplo 1

X(t), um processo estocástico estacionário no sentido amplo, com valor esperado μX = 10 volts, é
a entrada de um filtro invariante no tempo. A resposta ao impulso do filtro é

et/0,2 0 ≤ t ≤ 0,1 s,
h(t) = (7)
0 caso contrário.

Qual é o valor esperado do processo de saída do filtro Y(t)?
.................................................................................
4   suplemento de processamento de sinais (sps)

Aplicando o Teorema 2, temos


 ∞  0,1

µY = µ X h(t) dt = 10 et/0,2 dt = 2 e0,5 − 1 = 1,30 V. (8)
−∞ 0

Exemplo 2

Um processo de ruído branco gaussiano W(t) com função de autocorrelação

RW (τ ) = η0 δ(τ ) (9)

passa pelo filtro de média móvel



1/T 0 ≤ t ≤ T,
h(t) = (10)
0 caso contrário.

Para a saída Y(t), determine o valor esperado E[Y(t)], a correlação cruzada de entrada-saída
RWY(t) e a autocorrelação RWY(t).
...........................................................................
Relembramos, pela Definição 13.20, que um processo de ruído branco W(t) tem valor esperado
∞
mW = 0. O valor esperado da saída é E[Y(t)] = mW −∞ h(t) dt = 0. Pelo Teorema 2(b), a correlação
cruzada de entrada-saída é
 
η0 T η0 /T 0 ≤ t ≤ T,
RW Y (τ ) = δ(τ − u) du = (11)
T 0 0 caso contrário.

Pelo Teorema 2(c), a autocorrelação de saída é
 ∞ 
1 0
RY (τ ) = h(− v)RW Y (τ − v) dv = RW Y (τ − v) dv. (12)
−∞ T −T
Para avaliar esta integral de convolução, temos que expressar RWY(t – v) como uma função de v.
Pela Equação (11),
 
η0
0 ≤ τ − v ≤ T η0
τ − T ≤ v ≤ τ,
RW Y (τ − v) = T = T (13)
0 caso contrário 0 caso contrário.

Assim, RWY(t – v) é diferente de zero pelo intervalo t – T ≤ v ≤ t. Porém, na Equação (12), in-
tegramos RWY(t – v) pelo intervalo –T ≤ v ≤ 0. Se t < –T ou t – T > 0, então esses dois interva-
los não se sobrepõem e a integral (12) é zero. Caso contrário, para –T ≤ t ≤ 0, segue-se pela
Equação (12) que

1 τ η0 η0 (T + τ )
RY (τ ) = dv = . (14)
T −T T T2
Além do mais, para 0 ≤ t ≤ T,

1 0
η0 η0 (T − τ )
RY (τ ) = dv = . (15)
T τ− T T T2
Juntando essas partes, a autocorrelação de saída é a função triangular

η0 (T − | τ |)/T 2 |τ | ≤ T,
RY (τ ) = (16)
0 caso contrário.

suplemento de processamento de sinais (sps)   5

Na Seção 13.11, observamos que um ruído branco gaussiano W(t) é fisicamente impossível, pois
ele tem potência média E[W 2(t)] = h0d(0) = ∞. Porém, quando filtramos o ruído branco, a saída será
um processo com potência finita. No Exemplo 2, a saída do filtro de média móvel h(t) tem potência
média finita RY(0) = h0/T. Essa conclusão é generalizada no Problema 1.4.
O Teorema 2 fornece procedimentos matemáticos para derivar o valor esperado e a função de
autocorrelação do processo estocástico na saída de um filtro a partir das funções correspondentes
na entrada. Em geral, no entanto, é muito mais complicado determinar a PDF ou a PMF da saída
dada a função de probabilidade correspondente da entrada. Uma exceção ocorre quando a entrada
do filtro é um processo estocástico gaussiano. O teorema a seguir afirma que a saída também é um
processo estocástico gaussiano.

Teorema 3

Se um processo gaussiano estacionário X(t) é a entrada para um filtro LTI h(t), a saída Y(t) é
um processo gaussiano estacionário com valor esperado e autocorrelação dada pelo Teorema 2.

Apesar da prova do Teorema 3 estar além do escopo deste texto, podemos observar que ele é se-
melhante ao Teorema 8.11, o que mostra que uma transformação linear de variáveis aleatórias gaus-
sianas conjuntas produz variáveis aleatórias gaussianas conjuntas. Em particular, para um processo
de entrada gaussiana X(t), a integral de convolução da Equação (2) pode ser vista como o caso limite
de uma transformação linear de variáveis aleatórias gaussianas conjuntas. O Teorema 7 prova que, se
a entrada de um filtro de tempo discreto for gaussiana, a saída também é gaussiana.

Exemplo 3

Para o processo de média móvel de ruído branco Y(t) no Exemplo 2, considere que h0 = 10–15 W/Hz
e T = 10–3 s. Para um tempo qualquer t0, determine P[Y(t0) > 4 ⋅ 10–6].
.................................................................................
Aplicando os valores de parâmetro dados h = 10–15 e T = 10–3 à Equação (16), descobrimos que

10− 9 (10− 3 − | τ |) |τ | ≤ 10− 3
RY [τ ] = (17)
0 caso contrário.

Pelo Teorema 3, Y(t) é um processo gaussiano estacionário e, assim, Y(t0) é uma variável aleató-
ria gaussiana. Em particular, como E[Y(t0)] = 0, vemos pela Equação (17) que Y(t0) tem variância
Var[Y(t0)] = RY(0) = 10–12. Isso implica
 
  Y (t ) 4 · 10 −6
P Y (t0 ) > 4 · 10− 6 = P 
0
> (18)
Var[Y (t0 )] 10− 6

= Q(4) = 3,17 · 10− 5 .

Teste 1

Considere que h(t) seja um filtro passa-baixas com resposta ao impulso



e− t t ≥ 0,
h(t) = (19)
0 caso contrário.

6   suplemento de processamento de sinais (sps)

A entrada do filtro é X(t), um processo aleatório estacionário em sentido amplo com valor esperado
mX = 2 e autocorrelação RX(t) = d(t). Quais são o valor esperado e autocorrelação do processo de
saída Y(t)?

2 Filtragem Linear de uma Sequência Aleatória

A saída de um filtro digital linear invariante no tempo é uma sequência aleatória


estacionária no sentido amplo se a entrada for uma sequência aleatória no sentido
amplo. A função de autocorrelação da saída do filtro é determinada pela função de
autocorrelação do processo de entrada e a resposta ao impulso do filtro. A relação
é expressa em uma somatória dupla.

Uma forte tendência na eletrônica prática é usar um microcomputador especializado conhecido como
um processador de sinais digitais (DSP) para executar as operações de processamento de sinal.
Para usar um DSP como um filtro linear, é necessário converter o sinal de entrada x(t) em uma se-
quência de amostras x(nT), na qual n = . . ., –1, 0, 1 . . . e 1/T Hz é a taxa de amostragem. Quando
o sinal de tempo contínuo é um exemplo de função de um processo estocástico, X(t), a sequência
de amostras na entrada do processador de sinais digitais é um exemplo de função de uma sequência
aleatória Xn = X(nT). A função de autocorrelação da sequência aleatória Xn consiste em amostras
da função de autocorrelação do processo de tempo contínuo X(t).

Teorema 4

A sequência aleatória Xn é obtida amostrando o processo de tempo contínuo X(t) a uma taxa
de 1/Ts amostras por segundo. Se X(t) é um processo estacionário no sentido amplo com valor
esperado E[X(t)] = mX e autocorrelação RX(t), então Xn é uma sequência aleatória estacionária
no sentido amplo, com valor esperado E[Xn] = mX e função de autocorrelação
RX [k] = RX (kTs ).

Prova Visto que a taxa de amostragem é 1/Ts amostras por segundo, as variáveis aleatórias em Xn
são variáveis aleatórias em X(t) ocorrendo em intervalos de Ts segundos. Xn = X(nTs). Portanto,
E[Xn] = E[X(nTs)] = mX e
RX [k] = E [Xn Xn+k ] = E [X(nTs )X([n + k]Ts )] = RX (kTs ). (20)

Exemplo 4

Continuando o Exemplo 3, a sequência aleatória Yn é obtida amostrando o processo de média


móvel de ruído branco Y(t) a uma taxa de fs = 104 amostras por segundo. Derive a função de au-
tocorrelação RY[n] de Yn.
...........................................................................
suplemento de processamento de sinais (sps)   7

Dada a função de autocorrelação RY[n] (t) na Equação (17), o Teorema 4 implica que

−4 10− 9 (10− 3 − 10− 4 |k|) |k10− 4 | ≤ 10− 3
RY [k] = RY (k10 ) =
0 caso contrário

−6
10 (1 − 0,1 |k|) |k| ≤ 10,
=
0 caso contrário. (21)

O DSP realiza filtragem linear de tempo discreto. A resposta ao impulso de um filtro de tempo
discreto é uma sequência hn, n = . . ., –1, 0, 1, . . . e a saída é uma sequência aleatória Yn, relacio-
nada com a entrada Xn pela convolução de tempo discreto,


Yn = hi Xn− i . (22)
i=−∞
Correspondente ao Teorema 2 para processos de tempo contínuo, temos o teorema equivalente para
os processos de tempo discreto.

Teorema 5

Se a entrada de um filtro linear de tempo discreto invariante no tempo com resposta ao im-
pulso hn é uma sequência aleatória estacionária no sentido amplo, Xn, a saída Yn tem as pro-
priedades a seguir:
(a) Yn é uma sequência aleatória estacionária no sentido amplo com valor esperado


µY = E [Yn ] = µX hn ,
n=−∞

e função de autocorrelação

∞ 

RY [n] = hi hj RX [n + i − j] .
i=−∞ j=−∞

(b) Yn e Xn são estacionários conjuntos no sentido amplo, com correlação cruzada de en-
trada-saída


RXY [n] = hi RX [n − i] .
i=−∞

(c) A autocorrelação de saída está relacionada com a correlação de entrada-saída por




RY [n] = h− i RXY [n − i] .
i=−∞

Exemplo 5

Uma sequência aleatória estacionária no sentido amplo Xn com mX = 1 e função de autocorrela-


ção RX[n] é a entrada para o filtro de média móvel em tempo discreto hn de ordem M – 1, em que

 
1/M n = 0, . . . , M − 1 4 n = 0,
hn = e RX [n] = 2 n = ±1, (23)
0 caso contrário, 

0 |n| ≥ 2.
8   suplemento de processamento de sinais (sps)

Para o caso M = 2, determine as seguintes propriedades da sequência aleatória de saída Yn: o


valor esperado mY, a autocorrelação RY[n] e a variância Var[Yn].
...........................................................................
Para este filtro com M = 2, temos, pelo Teorema 5,

µY = µX (h0 + h1 ) = µX = 1. (24)

Pelo Teorema 5(a), a autocorrelação da saída do filtro é



1 
1
RY [n] = (0,25)RX [n + i − j]
i=0 j=0

= (0,5)RX [n] + (0,25)RX [n − 1] + (0,25)RX [n + 1] . (25)

Substituindo RX[n] a partir do enunciado do problema, obtemos




 3 n = 0,

2 |n| = 1,
RY [n] = (26)

 0,5 |n| = 2,


0 caso contrário.

Para obter Var[Yn], lembramos, pela Definição 13.16, que E[Yn2] = RY[0] = 3. Portanto, Var[Yn] =
E[Yn2] – mY2 = 2.

Observe, no Exemplo 5, que a saída do filtro é a média da amostra de entrada mais recente e a
amostra de entrada anterior. Por conseguinte, também poderíamos usar o Teorema 9.1 e Teorema
9.2 para encontrar o valor esperado e a variância do processo de saída.
O Teorema 5 apresenta as propriedades importantes dos filtros de tempo discreto de uma manei-
ra geral. Ao projetar e analisar filtros práticos, os engenheiros elétricos e de computação geralmente
limitam sua atenção aos filtros causais com a propriedade que hn = 0 para n < 0. Eles consideram
filtros em duas categorias:
• Filtros de resposta finita ao impulso (FIR) com hn = 0 para n ≥ M, em que M é um inteiro
positivo. Observe que M – 1 é chamado de ordem do filtro. A convolução de entrada-saída é

M −1
Yn = hi Xn− i . (27)
i=0
• Filtros de resposta infinita ao impulso (IIR), tais que, para qualquer inteiro positivo N,
hn  0 para pelo menos um valor de n > N. A concretização prática de um filtro IIR é recur-
siva. A saída de cada filtro é uma combinação linear de um número finito de amostras de en-
trada e um número finito de amostras de saída anteriores:

∞ 
M −1 
N
Yn = hi Xn− i = ai Xn− i + bj Yn− j . (28)
i=0 i=0 j=1
Nesta fórmula, a0, a2, . . ., aM–1 são os coeficientes da seção adiante do filtro e b0, b2, . . ., bN
são os coeficientes da seção de retorno.

Exemplo 6

Por que o índice i na seção adiante de um filtro IIR começa em i = 0, enquanto o índice j da seção
de retorno começa em 1?
...........................................................................
Na seção adiante, a saída Yn depende da entrada atual Xn, bem como das entradas passadas.
Porém, na seção de retorno, o filtro na amostra n tem acesso apenas às saídas anteriores Yn–1,
Yn–2, . . . na produção de Yn.
suplemento de processamento de sinais (sps)   9

Exemplo 7

Uma sequência aleatória estacionária no sentido amplo Xn, com valor esperado mX = 0 e função
de autocorrelação RX[n] = s 2dn, percorre o filtro de média móvel de tempo discreto de ordem M – 1

1/M 0 ≤ n ≤ M − 1,
hn = (29)
0 caso contrário.

Ache a autocorrelação de saída RY[n].
...........................................................................
No Exemplo 5, encontramos a autocorrelação de saída diretamente pelo Teorema 5(a) porque o fil-
tro de média era simples de primeira ordem. Para um filtro de uma ordem M – 1 qualquer, primeiro
encontramos a correlação cruzada de entrada-saída RXY[k] e depois usamos o Teorema 5(c) para
encontrar RY[k]. Pelo Teorema 5(b), a correlação cruzada de entrada-saída é

σ2 
M− 1
σ 2 /M k = 0, 1, . . . , M − 1,
RXY [k] = δk− i = (30)
M i=0 0 caso contrário.

Pelo Teorema 5(c), a autocorrelação de saída é


1 
0
RY [n] = h− i RXY [n − i] = RXY [n − i] . (31)
M
i=−∞ i=− (M − 1)

Para expressar RXY[n – i] como uma função de i, usamos a Equação (30) substituindo k em RXY[k]
por n – i, resultando em

σ 2 /M i = n − M + 1, n − M + 2, . . . , n,
RXY [n − i] = (32)
0 caso contrário.

Assim, se n < (M – 1) ou n – M + 1 > 0, então RXY [n – i] = 0 durante o intervalo –(M – 1) ≤ i ≤
M – 1. Para –(M – 1) ≤ n ≤ 0,

1 
n
σ2 σ 2 (M + n)
RY [n] = = . (33)
M M M2
i=− (M − 1)
Para 0 ≤ n ≤ M – 1,

1 
0
σ2 σ 2 (M − n)
RY [n] = = . (34)
M M M2
i=n− (M − 1)
Combinando esses casos, a autocorrelação de saída é a função triangular

σ 2 (M − | n|)/M 2 − (M − 1) ≤ n ≤ M − 1,
RY [n] = (35)
0 caso contrário.

Exemplo 8

Um integrador de tempo discreto com sequência de entrada estacionária no sentido amplo Xn tem
saída

Yn = Xn + 0,8Yn− 1 . (36)

Qual é a resposta ao impulso do filtro hn?


...........................................................................
10   suplemento de processamento de sinais (sps)

Encontramos a resposta ao impulso substituindo repetidamente Yk no lado direito da Equação (36).


Para começar, substituímos Yn–1 pela expressão entre parênteses na seguinte fórmula:

Yn = Xn + 0,8(Xn− 1 + 0,8Yn− 2 ) = Xn + 0,8Xn− 1 + 0,82 Yn− 2 . (37)

Podemos continuar esse procedimento, substituindo valores sucessivos de Yk. Para a terceira eta-
pa, a substituição de Yn–2 resulta em

Yn = Xn + 0,8Xn− 1 + 0,82 Xn− 2 + 0,83 Yn− 3 . (38)

Depois de k etapas desse processo, obtemos


Yn = Xn + 0,8Xn− 1 + 0,82 Xn− 2 + · · · + 0,8k Xn− k + 0,8k+1 Yn− k− 1 . (39)

∞
Continuando o processo indefinidamente, deduzimos que Yn = k=0 0,8k Xn− k . Comparando esta
fórmula com a Equação (22), obtemos

0,8n n = 0, 1, 2, . . .
hn = (40)
0 caso contrário.

Exemplo 9

Continuando o Exemplo 8, suponha que a entrada estacionária no sentido amplo Xn com valor es-
perado mX = 0 e função de autocorrelação


1 n = 0,
RX [n] = 0,5 |n| = 1, (41)


0 |n| ≥ 2,
2
seja a entrada do integrador de primeira ordem hn. Determine o segundo momento, E[Y n], da
saída.
...........................................................................
Começamos expandindo o quadrado da Equação (36).
   
E Yn2 = E Xn2 + 2(0,8)Xn Yn− 1 + 0,82 Yn−2
  1
 2 
= E Xn2 + 2(0,8) E [Xn Yn− 1 ] + 0,82 E Yn− 1 . (42)

2 2
Como Yn é estacionário no sentido amplo, E[Y n–1] = E[Y n]. Além do mais, como

E [Xn Xn− 1− i ] = RX [i + 1] , (43)

vemos que
 
E [Xn Yn− 1 ] = E Xn (Xn− 1 + 0,8Xn− 2 + 0,82 Xn− 3 . . .)
∞
= 0,8i RX [i + 1] = RX [1] = 0,5. (44)
i=0
Exceto para o primeiro termo (i = 0), todos os termos na soma são zero, pois RX[n] = 0 para n > 1.
Portanto, pela Equação (42),
     
E Yn2 = E Xn2 + 2(0,8)(0,5) + 0,82 E Yn2 . (45)

2 2
Com E[Xn]= RX[0] = 1, E[Y n] = 1,8/(1 – 0,82) = 2,8125.
suplemento de processamento de sinais (sps)   11

Teste 2

A entrada de um diferenciador de tempo discreto de primeira ordem hn é Xn, uma sequência aleató-
ria Gaussiana estacionária no sentido amplo com mX = 0,5 e função de autocorrelação RX[k]. Dados
 

1 k = 0, 
1 n = 0,
RX [k] = 0,5 |k| = 1, e hn = − 1 n = 1, (46)

 

0 caso contrário, 0 caso contrário,

determine as seguintes propriedades da sequência aleatória de saída Yn: o valor esperado mY, a au-
tocorrelação RY[n], a variância Var[Yn].

3   Filtragem Linear de Tempo Discreto: Vetores e Matrizes

Os sinais de tempo discreto podem ser representados como vetores e os filtros de


tempo discreto como matrizes. A notação de vetor/matriz é mais concisa do que as
somas convolucionais e nos permite entender as propriedades dos filtros lineares de
tempo discreto em termos dos resultados para vetores aleatórios.

Em muitas aplicações, é conveniente pensar em um filtro digital em termos da resposta ao impulso


do filtro hn e a soma de convolução da Equação (22). Porém, nesta seção, observaremos que também
podemos representar os sinais de tempo discreto como vetores e os filtros de tempo discreto como
matrizes. Isso pode oferecer algumas vantagens. A notação de vetor/matriz geralmente é mais con-
cisa do que as somas convolucionais. Em segundo lugar, a notação de vetor nos permite entender as
propriedades dos filtros lineares de tempo discreto em termos dos resultados para vetores aleatórios
derivados no Capítulo 8. Por último, a notação de vetor é a primeira etapa na implementação de
filtros LTI no Matlab.
Podemos representar uma sequência de entrada de tempo discreto Xn pelo vetor de L dimensões
de amostras X = [X0 . . . XL–1]9. Pela Equação (27), a saída no instante n de um filtro FIR de ordem
M – 1 depende do vetor de M dimensões

Xn = Xn− M +1 · · · Xn ] , (47)


que mantém as M amostras mais recentes de Xn. O subscrito n do vetor Xn indica que a observação
mais recente do processo Xn está no instante n. Para X e Xn, ordenamos os elementos dos vetores
em índice crescente de tempo. A seguir, descrevemos as propriedades de Xn, observando que Xn =
X quando n = L – 1 e M = L.

Teorema 6

Se Xn é um processo estacionário no sentido amplo com valor esperado m e função de autocor-


relação RX[k], então o vetor Xn tem matriz de correlação RXn e valor esperado E[Xn] dado por
 
RX [0] RX [1] ··· RX [M − 1]  
 ... ..  1
 RX [1] RX [0] .   .. 
RXn =  , E [Xn ] = µ  .  .
 ... ... ...
RX [1]  1
RX [M − 1] ··· RX [1] RX [0]
12   suplemento de processamento de sinais (sps)

A matriz RXn tem uma estrutura especial. Existem apenas M números diferentes entre os M2
elementos da matriz e cada diagonal de RXn consiste em elementos idênticos. Essa matriz está em
uma categoria conhecida como formas de Toeplitz. A estrutura de Toeplitz simplifica o cálculo da
inversa RXn–1.

Exemplo 10

A sequência estacionária no sentido amplo Xn tem autocorrelação RX[n], conforme dada no Exemplo
5. Determine a matriz de correlação de X33 = [X30 X31 X32 X33]9.
...........................................................................
Pelo Teorema 6, X33 tem comprimento M = 4 e matriz de correlação de Toeplitz
   
RX [0] RX [1] RX [2] RX [3] 4 2 0 0
RX [1] RX [0] RX [1] RX [2] 2 4 2 0
RX33 =   
RX [2] RX [1] RX [0] RX [1] = 0 2 4 2 .
 (48)

RX [3] RX [2] RX [1] RX [0] 0 0 2 4


Representamos um filtro hn LTI FIR de ordem M – 1 pelo vetor linha
 
h = h 0 · · · h M − 1 . (49)

Com entrada Xn, a saída Yn no instante n, conforme dada pela convolução de entrada-saída da
Equação (27), pode ser expressa de modo conveniente em notação de vetor como


Y n = h  X n (50)
←−  
em que h = hM − 1 · · · h0 . Devido à equivalência do filtro hn e do vetor h9, é uma terminologia
comum referir-se a um vetor de filtro h9 simplesmente como um filtro FIR1. Conforme fizemos para o
vetor de sinal Xn, representamos o filtro FIR h com elementos em índice crescente de tempo. Porém,
conforme observamos na Equação (50), a convolução de tempo discreto com o filtro hn emprega o
vetor de filtro h com seus elementos em ordem invertida de tempo. Nesse caso, colocamos uma seta


para a esquerda sobre o h, como em h , para a versão de h com tempo invertido.

Exemplo 11

O filtro de média hn com ordem M – 1 dado no Exemplo 7 pode ser representado pelo vetor de
elementos
1  
h= 1 1 ··· 1 . (51)
M

Para um filtro FIR h, normalmente se deseja processar um bloco de entradas representado pelo
vetor X = [X0 . . . XL–1]9. O vetor de saída Y é a convolução discreta de h e X. O n-ésimo elemento
de Y é Yn dado pela convolução de tempo discreto da Equação (27) ou, de modo equivalente, pela

Na verdade, é conveniente referir-se tanto a h9 quanto ao seu vetor coluna correspondente h como um filtro.
1
suplemento de processamento de sinais (sps)   13

Equação (50). Na implementação da convolução discreta dos vetores, é comum considerar X como
preenchido com zeros, de modo que Xi = 0 para i < 0 e para i > N – 1. Nesse caso, a convolução
discreta (50) resulta em
Y0 = h 0 X 0 , (52)
Y1 = h 1 X 0 + h 0 X 1 , (53)

e assim por diante. O vetor de saída Y está relacionado a X por Y = HX, onde
    
Y0 h0 X0
 ..   .. ...   .. 
 .    . 
   .  
 YM − 1  hM − 1 · · · h0   XM − 1 
    . 
 ..   ... ...  . 
 .    . 
 ..  =   . . (54)
   ... ...   .. 
 .    
 Y   · · · h0   
 L− 1   hM − 1  XL− M 
 ..   ... ..   .. 
 .   .  . 
YL+M − 2 hM − 1 XL− 1
        
Y H X
Assim como para processos de tempo contínuo, geralmente é difícil determinar a PMF ou a PDF
de uma saída de filtro isolada Yn ou da saída de vetor Y. Assim como para sistemas de tempo
contínuo, o caso especial de um processo de entrada gaussiano é um exemplo digno de nota.

Teorema 7

Considere que a entrada de um filtro FIR h = [h0 . . . hM–1]9 seja o vetor X = [X0 . . . XL–1]9,
consistindo em amostras de um processo gaussiano estacionário Xn com valor esperado m e
função de autocorrelação RX[k]. A saída Y = HX conforme dada pela Equação (54), é um
vetor aleatório gaussiano com valor esperado e matriz de covariância dados por
µY = HµX e CY = H(RX − µX µX )H

em que RX e mX são dados por RXn e E[Xn] no Teorema 6 com M = L.

Prova O Teorema 8.7 verifica se X tem matriz de covariância CX = RX – mXm9X. O teorema atual,
então, é resultado imediato do Teorema 8.11.

Na Equação (54), observamos que as saídas da faixa do meio YM–1, . . ., YL–1 representam uma
resposta em estado estável. Para M – 1 ≤ i ≤ L – 1, cada Yi tem a forma Yi = h9Xi, em que
←−  
h  = hM − 1 · · · h0 (55)

e
 
Xi = Xi− M +1 Xi− M +2 · · · Xi . (56)

Por outro lado, as saídas iniciais Y0, . . ., YM–2 representam uma resposta transiente resultante da
suposição de que Xi = 0 para i < 0. De modo semelhante, YL, . . ., YL+M–2 são saídas transientes
que dependem de Xi = 0 para i > n. Essa saídas transientes são simplesmente o resultado do uso de
uma entrada de tamanho finito para computações práticas. O Teorema 7 é um resultado geral que
considera componentes transientes no cálculo do valor esperado E[Y] e matriz de covariância CY
através da estrutura da matriz H.
14   suplemento de processamento de sinais (sps)

Porém, um processo gaussiano estacionário Xn é definido para todas as instâncias de tempo n. Nesse
caso, na passagem de X
←n
por um filtro FIR h0, . . ., hM–1, cada saída Yn é dada pela Equação (50), que
repetimos aqui: Yn = h ‘Xn. Ou seja, cada Yn combina as M entradas mais recentes exatamente da
mesma maneira. Quando Xn é um processo estacionário, os vetores Xn são estatisticamente idênticos
para cada n. Essa observação leva ao teorema a seguir.

Teorema 8

Se a entrada para um filtro linear de tempo discreto hn é uma sequência aleatória gaussiana
estacionária Xn, a saída Yn é uma sequência aleatória gaussiana estacionária com valor es-
perado e autocorrelação dadas pelo Teorema 5.

Prova Como Xn é estacionária no sentido amplo, o Teorema 5 implica que Yn é uma sequência es-
tacionária no sentido amplo. Assim, basta mostrar que Yn é uma sequência aleatória gaussiana, pois
o Teorema 13.15 garantirá então que Yn é estacionária. Provamos essa afirmação somente para um
filtro FIR h = [h0 . . . hM–1]9. Ou seja, para cada conjunto de instâncias de tempo n1 < n2 < . . . <
nk, mostraremos que Y = [Yn1 Yn2 Ynk]9 é um vetor aleatório gaussiano. Para começar, definimos L
de modo que nk = n1 + L – 1. Em seguida, definimos os vetores X = [Xn1–M+1 Xn1–M+2 . . . Ynk]9 e
Ŷ = Ĥ X, em que
···
 
hM − 1 ··· h0
Ĥ =  ..
.
..
.  (57)
hM − 1 · · · h0

é uma matriz de Toeplitz L × (L + M – 1). Observamos que Y1̂ = Yn1, Ŷ2 = Yn1+1, . . ., ŶL = Ynk.
Assim, os elementos de Y são um subconjunto dos elementos de Ŷ e podemos definir uma matriz
de seleção k × L B tal que Y = BŶ. Observe que Bij = 1 se ni = n1 + j – 1, caso contrário Bij = 0.
Assim, Y = BHX e segue-se pelo Teorema 8.11 que Y é um vetor aleatório gaussiano.

Teste 3

A sequência aleatória gaussiana estacionária X0, X1, . . . com valor esperado E[Xn] = 0 e função de
covariância RX[n] = dn é a entrada de um filtro de média móvel h = (1/4)[1 1 1 1]9. A saída é Yn.
Determine a PDF de Y = [Y33 Y34 Y35]’.

4  Estimativa Linear de Tempo Discreto e Filtros de Previsão

O previsor linear ótimo de uma sequência aleatória é a solução para um conjunto


de equações lineares, nas quais os coeficientes são valores da função de autocorre-
lação da sequência aleatória.

A maioria dos telefones celulares contém microprocessadores de sinais digitais que realizam previsão
linear como parte de um algoritmo de compactação de voz. Em um previsor linear, uma forma de
onda de voz é considerada como uma função amostral do processo estocástico estacionário no sentido
amplo X(t). A forma de onda é amostrada a cada T segundos (normalmente, T = 1/8000 segundos)
para produzir a sequência aleatória Xn = X(nT). O problema de previsão é estimar uma amostra
de fala futura, Xn+k, usando N amostras de fala anteriores Xn–M+1, Xn–M+2, . . ., Xn. A necessidade de
minimizar o custo, a complexidade e o consumo de energia do previsor torna um filtro linear basea-
do em DSP uma escolha atraente.
suplemento de processamento de sinais (sps)   15

Na terminologia do Teorema 12.6, queremos formar uma estimativa linear da variável aleatória
X = Xn+k usando o vetor de observação aleatória Y = [Xn–M+1 . . . Xn]9. A solução geral para este
problema foi dada na Seção 12.4 na forma dos Teoremas 12.6 e 12.7. Quando a variável aleatória X
tem valor esperado zero, aprendemos pelo Teorema 12.6 que o estimador linear do erro médio qua-
drático mínimo de X, dado um vetor de observação Y, é

X̂L (Y) = RXY R−Y1 Y. (58)



De modo equivalente, podemos escrever

X̂L (Y) = a Y (59)

em que

a = RXY R−Y1 . (60)

Enfatizamos que esta é uma solução geral para a variável aleatória X e vetor de observação Y.
No contexto de uma sequência aleatória Xn, as Equações (59) e (60) podem resolver uma grande
variedade de problemas de estimativa e previsão com base em um vetor de observação Y deriva-
do do processo Xn. Quando X é um valor futuro do processo Xn, a solução é um previsor linear.
Quando X = Xn e Y é uma coleção de observações com ruído, a solução é um estimador linear. A
seguir, descrevemos alguns exemplos básicos de previsão e estimativa. Esses exemplos comparti-
lham o recurso comum de que o previsor ou estimador linear podem ser implementados como um
filtro linear de tempo discreto.

Filtros de Previsão Lineares

No instante n, um filtro de previsão linear usa as observações disponíveis


 
Y = X n = Xn− M +1 · · · Xn (61)

para estimar uma amostra futura X = Xn+k. Queremos construir um filtro FIR LTI hn com entrada
Xn de modo que a saída desejada no filtro no instante n seja a estimativa de erro médio quadrático
linear mínimo

X̂L (Xn ) = a Xn (62)

em que a9 = RXYRY–1. Seguindo a notação da Equação (50), a saída do filtro no instante n será


X̂L (Xn ) = h  Xn . (63)

Comparando

as Equações (60) e (63), vemos que o previsor pode ser implementado na forma h
escolhendo h9 = a9 ou


h = a  . (64)

Ou seja, o vetor de filtro ótimo h9 = [h0 . . . hM–1] é simplesmente o a9 revertido no tempo. Para com-
pletar a derivação do filtro de previsão ótimo, observamos que Y = Xn e que RY = RXn, conforme
dado pelo Teorema 6. A matriz de correlação cruzada RXY é
  
RXY = RXn+k Xn = E Xn+k Xn− M +1 · · · Xn− 1 Xn
 
= E Xn+k Xn− M +1 · · · Xn+k Xn− 1 Xn+k Xn
 
= RX [M + k − 1] · · · RX [k + 1] RX [k] . (65)

Resumimos essa conclusão no teorema a seguir. Um exemplo aparece em seguida.
16   suplemento de processamento de sinais (sps)

Teorema 9

Considere que Xn seja um processo aleatório estacionário no sentido amplo, com valor espera-
do E[Xn] = 0 e função de autocorrelação RX[k]. O filtro linear de erro médio quadrático mínimo
de ordem M – 1 para prever Xn+k no instante n é o filtro h tal que


h = RXn+k Xn R−X1n ,

em que RXn é dado pelo Teorema 6 e RXnXn+k é dado pela Equação (65).

Exemplo 12

Xn é uma sequência aleatória estacionária no sentido amplo com E[Xn] = 0 e função de autocor-
relação RX[k] = (–0,9)|k|. Para M = 2 amostras, determine h = [h0 h1]9, os coeficientes do previsor
linear ótimo de X = Xn+1, dado Y = [Xn–1 Xn]9. Qual é o previsor linear ótimo de Xn+1 dados Xn–1
e X n?
. . . . . . . . . . . . . . . .←. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
O filtro ótimo é h9 = h 9, em que a9 é dado pela Equação (60). Para M = 2, o vetor a9 = [a0 a1] deve
satisfazer a9RY = RXY. Pelo Teorema 6 e Equação (65),
 
  RX [0] RX [1]  
a0 a 1 = RX [2] RX [1] (66)
RX [1] RX [0]

ou
 
  1 − 0,9  
a 0 a1 = 0,81 − 0,9 . (67)
− 0,9 1
A solução para essas equações é a0 = 0 e a1 = –0,9. Portanto, o filtro de previsão linear ótimo é
     
h = h0 h1 = a1 a0 = − 0,9 0 . (68)

O previsor ideal ótimo de Xn+1, dados Xn–1 e Xn é
 

←   Xn− 1
X̂n+1 = h  Y = 0 − 0,9 = − 0,9Xn . (69)
Xn

Exemplo 13

Continuando o Exemplo 12, qual é o erro médio quadrático do previsor ótimo?


...........................................................................
Como o previsor ótimo é X̂n+1 = 0,9Xn, o erro médio quadrático é
   
eL = E (Xn+1 − X̂n+1 )2 = E (Xn+1 + 0,9Xn )2 . (70)

Expandindo o quadrado e expressando o resultado em termos da função de autocorrelação RX[k],
obtemos

eL = RX [0] + 2(0,9)RX [1] + (0,9)2 RX [0] = 1 − (0,9)2 = 0,19. (71)

Os Exemplos 12 e 13 são um caso especial da seguinte propriedade das sequências aleatórias Xn


com função de autocorrelação na forma RX[n] = b|n| RX[0].
suplemento de processamento de sinais (sps)   17

Teorema 10

Se Xn tem função de autocorrelação RX[n] = b|n|RX [0], o previsor linear ótimo de Xn+k, dadas
as M amostras anteriores Xn–M+1, Xn–M+2, . . . , Xn é

X̂n+k = bk Xn

e o erro médio quadrático mínimo é e*L = RX [0](1 – b2k).

Prova Como RX[n] = bn, observamos, pela Equação (65), que

RXY = bk [RX [M − 1] · · · RX [1] RX [0]] . (72)

Pelo Teorema 6, vemos que RXY é a linha de ordem M de RY escalada por bk. Assim, a solução para
a9RY = RXY é um vetor a9 = [0 . . . 0 bk]. O erro médio quadrático é
 
e∗L = E (Xn+k − bk Xn )2 = RX [0] − 2bk RX [k] + b2k RX [0]
= RX [0] − 2b2k RX [0] + b2k RX [0]
= RX [0] (1 − b2k ). (73)

Quando bk está próximo de 1, Xn+k e Xn estão altamente correlacionados. Neste caso, a sequên-
cia varia lentamente e a estimativa bkXn será próxima de Xn e também próxima de Xn+k. Como b2k
também é próximo de 1, o erro médio quadrático e*L será próximo de zero. À medida que bk se torna
menor, Xn+k e Xn tornam-se menos correlacionados. Consequentemente, a sequência aleatória tem
uma variação muito maior. O previsor é incapaz de rastrear essa variação e o valor previsto aproxi-
ma-se de E[Xn+k] = 0. Ou seja, quando a observação nos diz pouco sobre o futuro, o previsor precisa
contar com um conhecimento prévio da sequência aleatória. Além disso, observamos para um valor
fixo de b que aumentar k reduz b2k e as estimativas são menos acuradas, ou seja, as previsões mais
para o futuro também serão.
Além do mais, o Teorema 10 declara que, para sequências aleatórias com funções de autocorrela-
ção na forma RX[k] = b|k|RX[0], Xn é a única variável aleatória que contribui para a previsão linear
ótima de Xn+1. Outra forma de declarar isso é que, no instante n + 1, toda a informação sobre o
histórico passado da sequência é resumida no valor de Xn. As sequências aleatórias de valor discreto
com essa propriedade são conhecidas como cadeias de Markov de tempo discreto. A análise dos mo-
delos de probabilidade das cadeias de Markov de tempo discreto pode ser encontrada no Suplemento
das Cadeias de Markov.

Filtros de Estimativa Lineares

No problema de estimativa, estimamos X = Xn com base nas observações de ruído Yn = Xn + Wn.


Em particular, usamos o vetor Y = Yn = [Yn–M+1 . . . Yn–1 Yn]’ das M observações mais recentes.
Nossas estimativas serão a saída resultante da passagem da sequência Yn pelo filtro FIR LTI hn.
Consideramos que Xn e Wn são sequências estacionárias independentes no sentido amplo com valores
esperados E[Xn] = E[Wn] = 0 e funções de autocorrelação RX[n] e RW[n].
Pelo Teorema 12.6, sabemos que a estimativa do erro médio quadrático linear mínimo de X, dada
a observação Yn é X̂L(Yn) = a9Yn, em que a9 = RXYn RYn–1. O filtro de estimativa ótima é h9 = a 9,

a reversão de tempo de a. Tudo o que resta é identificar RYn e RXYn. Na forma de vetor,
 
Xn = Xn− M +1 · · · Xn− 1 Xn , (74)
 
Wn = Wn− M +1 · · · Wn− 1 Wn , (75)
18   suplemento de processamento de sinais (sps)

Yn = Xn + Wn . (76)

Isso implica
RYn = E [Yn Y n ] = E [(Xn + Wn )(X n + W n )]
= E [Xn X n + Xn W n + Wn X n + Wn W n ] (77)

Como Xn e Wn são independentes, E[XnW9n] = E[Xn] E[W9n] = 0. De modo semelhante, E[WnX9n] =


0. Isso implica

RYn = E [Xn X n ] + E [Wn W n ] = RXn + RWn . (78)

A matriz de correlação cruzada é


RXYn = E [Xn (X n + W n )]
= E [Xn X n ] + E [Xn W n ] = E [Xn X n ] (79)

visto que E[XnW9n] = E[Xn] E[Wn] = 09. Assim, pelas Equações (74) e (79),
  
RXYn = RXn Xn = E Xn Xn− M +1 · · · Xn− 1 Xn
 
= RX [M − 1] · · · RX [1] RX [0] . (80)

Esses fatos são resumidos no teorema a seguir. Um exemplo pode ser visto a seguir.

Teorema 11

Considere que Xn e Wn sejam processos aleatórios estacionários independentes no sentido amplo


com valores esperados E[Xn] = E[Wn] = 0 e funções de autocorrelação RX[k] e RW[k]. Considere
que Yn = Xn + Wn. O filtro de estimativa linear do erro médio quadrático mínimo de Xn de
ordem M – 1, dada a entrada Yn é dado por h9 de modo que
− 
← 
h = hM − 1 · · · h0 = RXn Xn (RXn + RWn )− 1

em que RXnXn é dado pela Equação (80).

Exemplo 14

As sequências aleatórias independentes Xn e Wn têm valor esperado zero e funções de autocor-


relação RX[k] = (–0,9)|k| e RW [k] = (0,2)dk. Use M = 2 amostras da sequência de observação com
ruído Yn = Xn + Wn para estimar Xn. Determine o filtro de previsão do erro quadrático da média
mínima linear h = [h0 h1]9.
...........................................................................
Com base na observação Y = [Yn–1 Yn]9, a estimativa MMSE linear de X = Xn é a9Y, em que a9 =
RXYRY–1. Pela Equação (80),
   
RXY = RX [1] RX [0] = − 0,9 1 . (81)

Pela Equação (78),


     
1 − 0,9 0,2 0 1,2 − 0,9
RY = RXn + RWn = + = . (82)
− 0,9 1 0 0,2 − 0,9 1,2

suplemento de processamento de sinais (sps)   19

Isso implica
a = RXY R−Y1
 
  1,2 − 0,9 − 1  
= − 0,9 1 = − 0,2857 0,6190 . (83)
− 0,9 1,2

O filtro ótimo é h9 = a9 = [0,6190 –0,2857].

No Exemplo 14, o filtro de estimativa combina as observações para obter o benefício dual da mé-
dia das amostras com ruído, bem como a exploração da correlação de Xn–1 e Xn. Uma versão geral
do Exemplo 14 é examinada no Problema 4.6.

Teste 4

Xn é uma sequência aleatória estacionária no sentido amplo com E[Xn] = 0 e função de autocorrelação

(0,9)|n| + 0,1 n = 0,
RX [n] =
(0,9)|n| caso contrário. (84)

Para M = 2 amostras, determine h = [h0 h1]’, o filtro de previsão linear ótimo de Xn+1, dados Xn–1
e Xn. Qual é o erro médio quadrático do previsor linear ótimo?

5  Densidade Espectral de Potência de um Processo de Tempo Contínuo

A função de densidade espectral de potência (PSD), que é definida como a transfor-


mada de Fourier da função de autocorrelação, oferece uma interpretação de domínio
de frequência do processo aleatório estacionário no sentido amplo.

A função de autocorrelação de um processo estocástico de tempo contínuo transporta informações


sobre a estrutura de tempo do processo. Se X(t) for estacionário e RX(t) diminuir rapidamente
com o aumento de t, é provável que uma função amostral de X(t) mude bruscamente em um
curto tempo. Ao contrário, Se o declínio em RX(t) com o aumento de t for gradual, é provável
que uma função amostral de X(t) varie lentamente com o tempo. As transformadas de Fourier
oferecem outra visão da variabilidade das funções de tempo. Uma função que varia rapidamen-
te com o tempo tem uma transformada de Fourier com altas magnitudes em altas frequências,
além disso uma função que varia lentamente tem uma transformada de Fourier com baixas mag-
nitudes em frequências altas.
No estudo dos processos estocásticos, a função de densidade espectral de potência, SX(f), oferece
uma representação de domínio de frequência da estrutura de tempo de X(t). Pela definição, SX(f) é
o valor esperado da magnitude ao quadrado da transformada de Fourier de uma função amostral de
X(t). Para apresentar a definição formalmente, primeiro estabelecemos nossa notação para a trans-
formada de Fourier como uma função da variável de frequência f Hz.

Definição 1 Transformada de Fourier

As funções g(t) e G(f) são um par de transformadas de Fourier se


 ∞  ∞
− j2πf t
G(f ) = g(t)e dt, g(t) = G(f )ej2πf t df.
−∞ −∞
20   suplemento de processamento de sinais (sps)

Funcão de tempo Transformada de Fourier


δ(τ ) 1
1 δ(f )
δ(τ − τ0 ) e− j2πf τ0
1 1
u(τ ) δ(f ) +
2 j2πf
ej2πf0 τ δ(f − f0 )
1 1
cos 2πf0 τ δ(f − f0 ) + δ(f + f0 )
2 2
1 1
sen 2πf0 τ δ(f − f0 ) − δ(f + f0 )
2j 2j
a
ae− aτ u(τ )
a + j2πf
2a2
ae− a|τ |
a2 + (2πf )2
ae− πa e− πf /a
2τ 2 2 2

rect(τ /T ) T sinc(f T )
1 f
sinc(2W τ ) rect( )
2W 2W

Observe que a é uma constante positiva e que as funcões rect e sinc são
definidas como

1 |x| < 1/2,
rect(x) =
0 caso contrário,
sen(πx)
sinc(x) = .
πx
Tabela 1  Pares de transformada de Fourier de sinais comuns.
Tabela 1 Pares de transformada de Fourier de sinais comuns.

As Tabelas 1 e 2 oferecem uma lista dos pares e propriedades de transformada de Fourier. Os


alunos que já tiverem estudado sinais e sistemas poderão se lembrar de que nem todas as funções de
tempo possuem transformadas de Fourier. Para muitas funções que se estendem no tempo infinito,
a integral de tempo na Definição 1 não existe. As funções amostrais x(t) de um processo estocástico
estacionário X(t) normalmente têm essa natureza. Para trabalhar com essas funções no domínio
da frequência, começamos com xT(t), uma versão truncada de x(t). Ela é idêntica a x(t) para –T ≤
t ≤ T e 0 em caso contrário. Usamos a notação XT(f) para a transformada de Fourier dessa
função.
 T
XT (f ) = x(t)e− j2πf t dt. (85)
− T
|XT(f)|2, a magnitude ao quadrado de XT(f), aparece na definição de SX(f). Se x(t) é um sinal elétrico
medido em volts ou amperes, |XT(f)|2 tem unidades de energia. Sua média de tempo, |XT(f)|2/2T,
tem unidades de potência. SX(f) é o limite à medida que a janela de tempo vai para o infinito do
valor esperado dessa função.
suplemento de processamento de sinais (sps)   21

Função de tempo Transformada de Fourier


g(τ − τ0 ) G(f )e− j2πf τ0
g(τ )ej2πf0 τ G(f − f0 )
g(− τ ) G∗ (f )
dg(τ )
j2πf G(f )

 τ
G(f ) G(0)
g(v) dv + δ(f )
−∞ j2πf 2

h(v)g(τ − v)dv G(f )H(f )
−∞
∞
g(t)h(t) −∞
H(f  )G(f − f  ) df 

Tabela Propriedades da
Tabela 22  Propriedades da transformada
transformada de
de Fourier.
Fourier.

Definição 2 Densidade Espectral de Potência

A função de densidade espectral de potência do processo estocástico estacionário no sentido


amplo X(t) é
  2 
1  2 1  T 
SX (f ) = lim E |XT (f )| = lim 
E  X(t)e − j2πf t
dt .
T →∞ 2T T →∞ 2T −T

Referimo-nos a SX(f) como a função de densidade, pois ela pode ser interpretada como a quanti-
dade de potência em X(t) no intervalo infinitesimal de frequências [f, f + df]. Fisicamente, SX(f) tem
unidades de watts/Hz = Joules. Conforme indicado no Teorema 13(b), a potência média de X(t) é
a integral de SX(f) por todas as frequências em –∞ < f < ∞.
Tanto a função de autocorrelação quanto a função de densidade espectral de potência transmitem
informações sobre a estrutura de tempo de X(t). O teorema de Wiener-Khintchine mostra que elas
transmitem a mesma informação.

Teorema 12 Wiener-Khintchine

Se X(t) é um processo estocástico estacionário no sentido amplo, RX(t) e SX(f ) são o par de
transformadas de Fourier
 ∞  ∞
SX (f ) = RX (τ )e− j2πf τ dτ, RX (τ ) = SX (f ) ej2πf τ df.
−∞ −∞

T
Prova Visto que x(t) tem valor real, XT∗ (f ) = x(t )ej2πf t dt. Como |XT(f)|2 = XT(f)XT*(f),

−T
   T   T 
X(t)e− j2πf t dt

E |XT (f )|2 = E x(t )ej2πf t dt
−T −T
 
T T  
E X(t)X(t ) e− j2πf (t− t ) dt dt

=
−T −T
 T  T
RX (t − t )e− j2πf (t− t ) dt dt . (86)

=
−T −T
22   suplemento de processamento de sinais (sps)

Na Equação (86), estamos integrando a função determinística


g(t − t ) = RX (t − t )e− j2πf (t− t ) (87)


sobre uma caixa quadrada. Fazendo a substituição de variável t = t – t9 e invertendo a ordem de
integração, podemos mostrar que
 T  T  2T  
|τ |
 
g(t − t ) dt dt = 2T g(τ ) 1 − dτ. (88)
−T −T − 2T 2T

Com g(t) = RX(t)e–j2πft, segue-se pelas Equações (86) e (88) que
  
1   2T
|τ |
E |XT (f )|2 = RX (τ ) 1 − e− j2πf τ dτ. (89)
2T − 2T 2T
Definimos a função

1 − | τ | /(2T ) |τ | ≤ 2T,
hT (τ ) = (90)
0 caso contrário,

e observamos que limT→∞ hT(t) = 1 para todo t finito. Segue-se, pela Equação (89), que
 ∞
1  
lim E |XT (f )|2 = lim hT (τ )RX (τ )e− j2πf τ dτ
T →∞ 2T T →∞ −∞
 ∞ 
= lim hT (τ ) RX (τ )e− j2πf τ dτ = SX (f ) . (91)

−∞ T →∞


O teorema a seguir declara três propriedades importantes de SX(f).

Teorema 13

Para um processo aleatório estacionário no sentido amplo X(t), a densidade espectral de po-
tência SX(f) é uma função de valor real com as seguintes propriedades:
(a) SX (f ) ≥ 0 para todo f
 ∞
(b) SX (f ) df = E[X 2 (t)] = RX (0)
−∞
(c) SX (− f ) = SX (f )

Prova A primeira propriedade segue da Definição 2, na qual SX(f) é o valor esperado da média de
tempo de uma quantidade não negativa. A segunda propriedade segue substituindo t = 0 no Teorema
12 e referindo-se à Definição 1. Para provar a terceira propriedade, observamos que RX(t) = RX(–t)
implica
 ∞
SX (f ) = RX (− τ )e− j2πf τ dτ. (92)
−∞
Fazendo a substituição t' = – t, obtemos
 ∞
RX (τ  )e− j2π(− f )τ dτ  = SX (− f ) . (93)

SX (f ) =
−∞
suplemento de processamento de sinais (sps)   23

Exemplo 15

Um processo estacionário no sentido amplo X(t) tem função de autocorrelação RX(t) = Ae–b|t|, em que
b > 0. Derive a função de densidade espectral de potência SX(f) e calcule a potência média E[X2(t)].
...........................................................................
Para achar SX(f), usamos a Tabela 1, pois RX(t) tem a forma ae–a|t|.
2Ab
SX (f ) = . (94)
(2πf )2 + b2

A potência média é

  ∞
2Ab
2
E X (t) = RX (0) = Ae − b|0|
= df = A. (95)
−∞ (2πf )2 + b2

A Figura 1 apresenta três gráficos para cada um dos dois processos estocásticos na família
estudada no Exemplo 15: V(t) com RV(t) = e–0,5|t| e W(t) com RW(t) = e–2|t|. Para cada proces-
so, os três gráficos são a função de autocorrelação, a função de densidade espectral de potência
e uma função amostral. Para os dois processos, a potência média é A = 1 watt. Observe que
W(t) tem uma autocorrelação mais estreita (menor dependência entre dois valores do processo
com determinada separação de tempo) e uma densidade espectral de potência mais larga (mais
potência em frequências mais altas) do que V(t). A função amostral w(t) flutua mais rapida-
mente do que v(t).

1 1
RW(τ)
R (τ)

0,5 0,5
V

0 0
−3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3
τ τ

4 4
S (f)
SV(f)

2 2
W

0 0
−1 −0,5 0 0,5 1 −1 −0,5 0 0,5 1
f f

2 2
W(t)

0 0
V(t)

−2 −2
0 1 2 3 4 0 1 2 3 4
t t

Os processos aleatórios V(t) e W(t) com funções de autocorrelação RV(t) = e–0,5|t| e RW(t) = e–2|t|
são exemplos do processo X(t) no Exemplo 15. Esses gráficos mostram RV(t) e RW(t), as funções de
densidade espectral de potência SV(f) e SW(f), e caminhos de amostra de V(t) e W(t).

Figura 1  Dois exemplos do processo X(t) no Exemplo 15.


24   suplemento de processamento de sinais (sps)

Exemplo 16

Para o processo aleatório Y(t) do Exemplo 2, determine a densidade espectral de potência SY(f).
...........................................................................
Pela Definição 2 e a função de autocorrelação triangular RY(t) dada na Equação (16), podemos
escrever
 0  T 
η0
RY (τ ) = 2 (T + τ )e − j2πf τ
dτ + (T − τ )e − j2πf τ
dτ . (96)
T
−T 0

Com a substituição t9 = – t na integral da esquerda, obtemos
 T  T 
η0  j2πf τ  − j2πf τ
RY (τ ) = 2 (T − τ )e 
dτ + (T − τ )e dτ
T 0 0

2η0 T
= 2 (T − τ ) cos(2πf τ ) dτ. (97)
T 0
Usando a integração por partes (Apêndice B, Fato Matemático B.10), u = T – t e dv = cos(2p f t)
dt, resultam em
 T  T 
2η0 (T − τ ) sen(2πf τ )  sen(2πf τ )
RY (τ ) = 2  + dτ
T 2πf 0 0 2πf
2η0 (1 − cos(2πf T ))
= . (98)
(2πf T )2

Teste 5

A densidade espectral de potência de X(t) é


  
5 f 5/W − W ≤ f ≤ W,
SX (f ) = rect = (99)
W 2W 0 caso contrário.

(a) Qual é a potência média de X(t)?
(b) Escreva uma fórmula para a função de autocorrelação de X(t).
(c) Desenhe gráficos de SX(f) e RX(t) para W = 1 kHz e W = 10 Hz.

6  Densidade Espectral de Potência de uma Sequência Aleatória

A análise espectral de uma sequência aleatória equivale à análise de um processo


de tempo contínuo. A função de densidade espectral de potência da saída do filtro
digital é o produto da função de densidade espectral de potência da entrada pela
magnitude ao quadrado da função de transferência do filtro.

Uma função amostral de uma sequência aleatória é uma lista ordenada de números. Cada número na
lista é um valor amostral de uma variável aleatória. A transformada de Fourier de tempo discreto
(DTFT) é uma representação espectral de um conjunto ordenado de números.
suplemento de processamento de sinais (sps)   25

Definição 3 Transformada de Fourier de Tempo Discreto (DTFT)

A sequência {. . ., x–1, x0, x1, . . .} e a função X(f) são um par de transformadas de Fourier de
tempo discreto (DTFT) se
 ∞  1/2
− j2πφn
X(φ) = xn e , xn = X(φ)ej2πφn dφ.
n=−∞ − 1/2

A Tabela 3 oferece uma tabela de transformadas de Fourier de tempo discreto comumente en-
contradas.
Note que f é uma frequência adimensional normalizada, com intervalo de –1/2 ≤ f ≤ 1/2 e X(f)
é periódica com período unitário. Esta propriedade reflete o fato de que uma lista de números em
si não possui nenhuma escala de tempo inerente. Quando a sequência aleatória Xn = X(nTs) con-
siste em amostras de um processo de tempo contínuo amostradas na frequência fs = 1/Ts Hz, a
frequência normalizada f corresponde à frequência f = ffs Hz. A faixa de frequência normalizada
–1/2 ≤ f ≤ 1/2 reflete a exigência do teorema da amostragem de Nyquist, em que a amostragem
de um sinal na taxa fs permite que o sinal amostrado descreva componentes de frequência no in-
tervalo –fs/2 ≤ f ≤ fs/2.

Função de tempo discreto Transformada de Fourier de tempo discreto


δ[n] = δn 1
1 δ(φ)
δ[n − n0 ] = δn− n0 e− j2πφn0
1 

1
u[n] + δ(φ + k)
1 − e− j2πφ 2 k=−∞
∞
ej2πφ0 n δ(φ − φ0 − k)
k=−∞
1 1
cos 2πφ0 n δ(φ − φ0 ) + δ(φ + φ0 )
2 2
1 1
sen 2πφ0 n δ(φ − φ0 ) − δ(φ + φ0 )
2j 2j
1
an u[n]
1 − ae− j2πφ
1 − a2
a|n|
1 + a2 − 2a cos 2πφ

gn− n0 G(φ)e− j2πφn0


gn ej2πφ0 n G(φ − φ0 )
g− n G∗ (φ)
∞
hk gn− k G(φ)H(φ)
k=−∞
 1/2
gn hn H(φ )G(φ − φ ) dφ
− 1/2

Observe que d[n] é o impulso discreto, u[n] é o degrau unitário discreto, e a é uma constante com
magnitude |a| < 1.

Tabela 3  Pares e propriedades da transformada de Fourier de tempo discreto.


26   suplemento de processamento de sinais (sps)

Exemplo 17

Calcule a DTFT H(f) do filtro de média móvel hn de ordem M – 1 do Exemplo 5.


...........................................................................
Como hn = 1/M para n = 0, 1, . . ., M – 1 e, em caso contrário, é zero, aplicamos a Definição 3 para
escrever


1  − j2πφn
M− 1
H(φ) = hn e− j2πφn = e . (100)
M n=0
n=−∞
Usando o Fato Matemático B.4 com a = e e n = M – 1, obtemos
–j2 pf

 
1 1 − e− j2πφM
H(φ) = . (101)
M 1 − e− j2πφ

Observamos anteriormente que muitas funções de tempo não possuem transformadas de Fourier.
De modo semelhante, a soma na Definição 3 não converge para funções amostrais de muitas sequên-
cias aleatórias. Para trabalhar com essas funções amostrais, nossa análise é semelhante àquela dos
processos de tempo contínuo. Definimos uma função amostral truncada que é idêntica a xn para –L ≤
n ≤ L e 0 em caso contrário. Usamos a notação XL(f) para a transformada de Fourier de tempo
discreto desta sequência:

L
XL (φ) = xn e− j2πφn . (102)
n=− L
A função de densidade espectral de potência da sequência aleatória Xn é o valor esperado |XL(f)|2/
(2N + 1).

Definição 4 Densidade Espectral de Potência de uma Sequência Aleatória

A função de densidade espectral de potência da sequência aleatória estacionária no sentido


amplo Xn é
 2 
L 
1  
SX (φ) = lim E  Xn e− j2πφn  .
L→∞ 2L + 1  
n=− L

O Teorema de Wiener-Khintchine também é verdadeiro para sequências aleatórias.

Teorema 14 Wiener-Khintchine de Tempo Discreto

Se Xn é um processo estocástico estacionário no sentido amplo, RX[k] e SX(f) são um par de


transformada de Fourier de tempo discreto.
∞  1/2
SX (φ) = RX [k] e− j2πφk , RX [k] = SX (φ) ej2πφk dφ.
k=−∞ − 1/2

As propriedades da função de densidade espectral de potência de uma sequência aleatória são se-
melhantes às propriedades da função de densidade espectral de potência de um processo estocástico
suplemento de processamento de sinais (sps)   27

de tempo contínuo. O teorema a seguir corresponde ao Teorema 13 e, além disso, descreve a perio-
dicidade de SX(f) para uma sequência aleatória.

Teorema 15

Para uma sequência aleatória estacionária no sentido amplo Xn, a densidade espectral de po-
tência SX(f) tem as seguintes propriedades:
(a) SX (φ) ≥ 0 para todo f,
 1/2
(b) SX (φ) dφ = E[Xn2 ] = RX [0],
− 1/2
(c) SX (− φ) = SX (φ),
(d) para qualquer inteiro n, SX (φ + n) = SX (φ).

Exemplo 18

A sequência aleatória estacionária no sentido amplo Xn tem valor esperado zero e função de au-
tocorrelação

σ 2 (2 − | n|)/4 n = − 1, 0, 1,
RX [k] = (103)
0 caso contrário.

Derive a função de densidade espectral de potência de Xn.
...........................................................................
Aplicando o Teorema 14 e a Definição 3, temos

1
SX (φ) = RX [n] e− j2πnφ
n=− 1
 
(2 − 1) j2πφ 2 (2 − 1) − j2πφ
2
=σ e + + e
4 4 4
σ2 σ2
= + cos(2πφ). (104)
2 2

Exemplo 19

A sequência aleatória estacionária no sentido amplo Xn possui valor esperado zero e densidade
espectral de potência
1 1
SX (φ) = δ(φ − φ0 ) + δ(φ + φ0 ) (105)
2 2
em que 0 < f0 < 1/2. Qual é a autocorrelação RX[k]?
...........................................................................
Pelo Teorema 14, temos
 1/2
RX [k] = (δ(φ − φ0 ) + δ(φ + φ0 )) ej2πφk dφ. (106)
− 1/2
28   suplemento de processamento de sinais (sps)

Pela propriedade de filtragem da função delta de tempo contínuo,


1 1
RX [k] = ej2πφ0 k + e− j2πφ0 k = cos(2πφ0 k). (107)
2 2

Teste 6

A sequência aleatória Xn tem função de densidade espectral de potência SX(f) = 10. Derive RX[k],
a função de autocorrelação de Xn.

7  Densidade Espectral Cruzada

A densidade espectral cruzada dos sinais estacionários conjuntos no sentido amplo


é a transformada de Fourier da função de correlação cruzada.

Quando dois processos são estacionários conjuntos no sentido amplo, podemos estudar a correlação
cruzada no domínio de frequência.

Definição 5 Densidade Espectral Cruzada

Para os processos aleatórios estacionários conjuntos no sentido amplo X(t) e Y(t), a transfor-
mada de Fourier da correlação cruzada resulta na densidade espectral cruzada
 ∞
SXY (f ) = RXY (τ )e− j2πf τ dτ.
−∞

...........................................................................
Para as sequências aleatórias estacionárias conjuntas no sentido amplo Xn e Yn, a trans-
formada de Fourier de tempo discreto da correlação cruzada resulta na densidade espec-
tral cruzada


SXY (φ) = RXY [k] e− j2πφk .
k=−∞

Encontramos as correlações cruzadas em experimentos que envolvem observações com ruído de


um processo aleatório estacionário no sentido amplo X(t).

Exemplo 20

No Exemplo 13.24, estávamos interessados em X(t), mas poderíamos observar somente Y(t) =
X(t) + N(t), em que N(t) é um processo com ruído estacionário no sentido amplo com mN = 0. Nesse
caso, quando X(t) e N(t) são estacionários conjuntos no sentido amplo, descobrimos que

RY (τ ) = RX (τ ) + RXN (τ ) + RN X (τ ) + RN (τ ). (108)

Determine a densidade espectral de potência da saída Y(t).


...........................................................................
suplemento de processamento de sinais (sps)   29

Tomando a transformada de Fourier dos dois lados, obtemos a densidade espectral de potência da
observação Y(t).

SY (f ) = SX (f ) + SXN (f ) + SN X (f ) + SN (f ) . (109)

Exemplo 21

Continuando o Exemplo 20, suponha que N(t) e X(t) sejam independentes. Determine a autocor-
relação e a densidade espectral de potência da observação Y(t).
...........................................................................
Neste caso,

RXN (τ ) = E [X(t)N (t + τ )] = E [X(t)] E [N (t + τ )] = 0. (110)

De modo semelhante, RNX(t) = 0. Isso implica

RY (τ ) = RX (τ ) + RN (τ ), (111)

SY (f ) = SX (f ) + SN (f ) . (112)

Teste 7

O processo aleatório Y(t) = X(t – t0) é uma versão adiada no tempo do processo estacionário no
sentido amplo X(t). Determine a densidade espectral cruzada SXY(t).

8  Relacionamentos entre filtros de domínio de frequência

Quando um processo estacionário no sentido amplo é a entrada de um filtro linear,


a PSD da saída é o produto entre a PSD da entrada e a magnitude ao quadrado da
resposta de frequência do filtro.

Engenheiros elétricos e de computação estão bem acostumados com as representações de domínio


de frequência das operações de filtragem. se um filtro linear tem resposta ao impulso h(t), H(f), a
transformada de Fourier de h(t), é conhecida como a resposta de frequência do filtro. A transforma-
da de Fourier da saída de filtro W(f) está relacionada à transformada da entrada V(f) e à resposta
de frequência do filtro H(f) por

W (f ) = H(f )V (f ). (113)

A Equação (113) é a representação no domínio de frequência da propriedade fundamental de entra-


da-saída de um filtro de tempo contínuo. Para sinais de tempo discreto Wn e Vn e o filtro de tempo
discreto com resposta ao impulso hn, o relacionamento correspondente é

W (φ) = H(φ)V (φ) (114)

em que as três funções da frequência são transformadas de Fourier de tempo discreto definidas na
Definição 3. Quando o filtro de tempo discreto contém seções adiante e de retorno, como na Equação
(28), a função de transferência é

H(φ) = A(φ)/(1 − B(φ)), (115)


30   suplemento de processamento de sinais (sps)

H(f)
B

f
-f0 f0

Figura 2  O filtro passa-banda ideal H(f) com frequência central f0 e largura de banda B Hz.

em que A(f) e B(f) são as transformadas de Fourier de tempo discreto da seção adiante e da seção
de retorno, respectivamente.
No estudo de processos estocásticos, nossa principal representação no domínio de frequência do
processo de tempo contínuo X(t) é a função de densidade espectral de potência SX(f) na Definição
2, e nossa principal representação da sequência aleatória Xn é SX(f) na Definição 4. Quando X(t)
ou Xn é a entrada de um filtro linear com função de transferência H(f) ou H(f), o teorema a seguir
apresenta o relacionamento da função de densidade espectral de potência da saída do filtro para a
função correspondente do processo de entrada.

Teorema 16

Quando um processo estocástico estacionário no sentido amplo X(t) é a entrada de um filtro


linear invariante no tempo com função de transferência H(f), a densidade espectral de potên-
cia da saída Y(t) é
SY (f ) = |H(f )|2 SX (f ) .

...........................................................................
Quando uma sequência aleatória estacionária no sentido amplo Xn é a entrada de um filtro
linear invariante no tempo com função de transferência H(f), a densidade espectral de po-
tência da saída Yn é
SY (φ) = |H(φ)|2 SX (φ) .

Prova Referimo-nos ao Teorema 12 para lembrar que SY(f) é a transformada de Fourier de RY(t).
Depois, substituímos o Teorema 2(a) na definição da transformada de Fourier para obter
 ∞  ∞  ∞ 
SY (f ) = h(u)h(v)RX (τ + v − u) du dv e− j2πf τ dτ. (116)
−∞ −∞ −∞
Substituindo t' = t + v – u, obtemos
 ∞  ∞  ∞
h(u)e− j2πf u du RX (τ  )e− j2πf τ dτ  (117)

SY (f ) = h(v)ej2πf v dv
 −∞    −∞    −∞  
H(f ) H ∗ (f ) SX (f )
Assim, SY(f) = H(f)H (f)SX(f) = |H(f)| SX(f). A prova é semelhante para sequências aleatórias.
* 2

Agora, estamos prontos para justificar a interpretação de SX(f) como uma função de densidade.
Como mostra a Figura 2, suponha que H(f) seja um filtro passa-banda estreito, ideal, da largura de
banda B, centralizado na frequência f0. Ou seja,
suplemento de processamento de sinais (sps)   31


1 |f ± f0 | ≤ B/2,
H(f ) = (118)
0 caso contrário.

Nesse caso, passar o processo aleatório X(t) pelo filtro H(f) sempre produz uma forma de onda de
saída Y(t) que está na banda de passagem do filtro H(f). Como vimos, a densidade espectral de po-
tência da saída do filtro é

SY (f ) = |H(f )|2 SX (f ) . (119)

Além do mais, o Teorema 13(b) implica que a potência média de Y(t) é


 ∞
 
E Y 2 (t) = SY (f ) df
−∞
 − f0 +B/2  f0 +B/2
= SX (f ) df + SX (f ) df. (120)
− f0 − B/2 f0 − B/2

Como SX(f) = SX(–f), quando B é muito pequeno, temos
 
E Y 2 (t) ≈ 2BSX (f0 ) . (121)

Vemos que a potência média da saída do filtro é aproximadamente a densidade espectral de po-
tência da entrada, na frequência central do filtro, vezes a largura de banda do filtro. A aproxima-
ção torna-se exata quando a largura de banda se aproxima de zero. Portanto, SX(f0) é a potência
por frequência unitária (a definição de uma função de densidade) de X(t) nas frequências perto
de f0.

Exemplo 22

Um processo estacionário no sentido amplo X(t) com função de autocorrelação RX(t) = e–b|t| é a
entrada de um filtro RC com resposta ao impulso

(1/RC)e− t/RC t ≥ 0,
h(t) = (122)
0 caso contrário.

Supondo que b > 0 e b ≠ 1/RC, encontramos SY(f) e RY(t), a densidade espectral de potência e
autocorrelação da saída de filtro Y(t). Qual é a potência média do processo estocástico de saída?
...........................................................................
Por conveniência, considere que a = 1/RC. Como a resposta ao impulso tem a forma h(t) = ae–atu(t)
e RX(t) = e–b|t|, a Tabela 1 nos diz que
a 2b
H(f ) = , SX (f ) = . (123)
a + j2πf (2πf )2 + b2

Portanto,
a2
|H(f )|2 = (124)
(2πf )2 + a2

e, pelo Teorema 16, SY(f ) = |H(f )|2SX(f ). Usamos o método das frações parciais para escrever
2ba2
SY (f ) =
[(2πf )2 + a2 ][(2πf )2 + b2 ]
2ba2 /(b2 − a2 ) 2ba2 /(b2 − a2 )
= − . (125)
(2πf )2 + a2 (2πf )2 + b2

32   suplemento de processamento de sinais (sps)

Reconhecendo que, para qualquer constante c > 0, e–c|t| e 2c/((2πf )2 + c2) são pares de transformada
de Fourier, obtemos a autocorrelação de saída
ba a2
RY (τ ) = e− a|τ | − 2 e− b|τ | . (126)
b2 − a 2 b − a2
Pelo Teorema 13, obtemos a potência média
  ba − a2 a
E Y 2 (t) = RY (0) = 2 = . (127)
b − a 2 (b + a)

Exemplo 23

A sequência aleatória Xn tem densidade espectral de potência

SX (φ) = 2 + 2 cos(2πφ). (128)

Essa sequência é a entrada do filtro no Teste 2 com resposta ao impulso




1 n = 0,
hn = − 1 n = − 1, 1, (129)


0 caso contrário.

Derive SY(f), a função da densidade espectral de potência da sequência de saída Yn. Qual é o va-
lor de E[Yn2]?
...........................................................................
A transformada de Fourier discreta de hn é
H(φ) = 1 − ej2πφ − e− j2πφ = 1 − 2 cos(2πφ). (130)

Portanto, pelo Teorema 16, temos
SY (φ) = |H(φ)|2 SX (φ) = [1 − 2 cos(2πφ)]2 [2 + 2 cos(2πφ)]

= 2 − 6 cos(2πφ) + 8 cos3 (2πφ). (131)

Aplicando a identidade cos3(x) = 0,75 cos(x) + 0,25 cos(3x), podemos simplificar esta fórmula para
obter

SY (φ) = 2 + 2 cos(6πφ). (132)

Obtemos o valor quadrado médio pelo Teorema 15(b):


 1/2
 
E Yn2 = [2 + 2 cos(6πφ)] dφ = 2. (133)
− 1/2

Exemplo 24

Relembramos que, no Exemplo 7, a sequência aleatória estacionária no sentido amplo Xn com va-
lor esperado mX = 0 e função de autocorrelação RX[n] = s2dn é passada pelo filtro de média móvel
de tempo discreto de ordem M – 1

1/M 0 ≤ n ≤ M − 1,
hn = (134)
0 caso contrário.

suplemento de processamento de sinais (sps)   33

Figura 3  Correlação de entrada-saída e funções de densidade espectral

Ache a densidade espectral de potência SY(f) para a saída do filtro de média móvel de tempo dis-
creto Yn.
...........................................................................
Usando o Teorema 16, SY(f) = |H(f)|2SX(f). Observamos que SX(f) = s2. No Exemplo 17, desco-
brimos que
 
1 1 − e− j2πφM
H(φ) = . (135)
M 1 − e− j2πφ
Como |H(f)|2 = H(f)H*(f), segue-se que
  
σ 2 1 − e− j2πφM 1 − ej2πφM
SY (φ) = H(φ)H ∗ (φ)SX (φ) =
M2 1 − e− j2πφ 1 − ej2πφ
 
σ 2
1 − cos(2πM φ)
= 2 . (136)
M 1 − cos(2πφ)

A seguir, consideramos a função de densidade espectral de potência cruzada da entrada e saí-


da de um filtro linear. O Teorema 2(b) pode ser interpretado da seguinte forma. Se uma forma
de onda determinística RX(t) é a entrada de um filtro com resposta ao impulso h(t), a saída é
a forma de onda RXY(t). De modo semelhante, o Teorema 2(c) declara que, se a forma de onda
RXY(t) for a entrada de um filtro com resposta ao impulso h(–t), a saída é a forma de onda RY(t).
A metade superior da Figura 3 ilustra os relacionamentos entre RX(t), RXY(t) e RY(t), bem como
os relacionamentos correspondentes para sistemas de tempo discreto. A metade inferior da figura
demonstra os mesmos relacionamentos no domínio da frequência. Ela usa o fato de que a transfor-
mada de Fourier de h(–t), a resposta ao impulso invertida no tempo, é H*(f), a conjugada complexa
da transformada de Fourier de h(t). O teorema a seguir declara esses relacionamentos matema-
ticamente.

Teorema 17

Se o processo estacionário no sentido amplo X(t) é a entrada de um filtro linear invariante


no tempo com função de transferência H(f), e Y (t) é a saída do filtro, a função de densidade
espectral de potência cruzada de entrada-saída e a função de densidade espectral da potência
de saída são
SXY (f ) = H(f )SX (f ) , SY (f ) = H ∗ (f )SXY (f ) .

...........................................................................
34   suplemento de processamento de sinais (sps)

Se a sequência aleatória estacionária no sentido amplo Xn é a entrada de um filtro linear in-


variante no tempo com função de transferência H(f), e Yn é a saída do filtro, a função de
densidade espectral de potência cruzada de entrada-saída e a função de densidade espectral
da potência de saída são
SXY (φ) = H(φ)SX (φ) , SY (φ) = H ∗ (φ)SXY (φ) .

Teste 8

Um processo estocástico estacionário no sentido amplo X(t) com valor esperado mX = 0 e função de
autocorrelação RX(t) = e–5000|t| é a entrada de um filtro RC com constante de tempo RC = 100 ms.
A saída do filtro é o processo estocástico Y(t).
(a) Derive SXY(f ), a função de densidade espectral de potência cruzada de X(t) e Y(t);
(b) Derive SY(f ), a função de densidade espectral de potência de Y(t).
2
(c) Qual é o valor de E[Y (t)], a potência média da saída do filtro?

9  Estimativa Linear de Processos de Tempo Contínuo

A função de transferência do estimador linear ótimo de um processo estocástico de


tempo contínuo é a razão entre a função de densidade espectral cruzada do proces-
so observado e estimado e a função de densidade espectral de potência do processo
observado.

Nesta seção, observamos uma função amostral de um processo estocástico de tempo contínuo esta-
cionário no sentido amplo Y(t) e projetamos um filtro linear para estimar uma função amostral de
outro processo estacionário no sentido amplo X(t). O filtro linear que minimiza o erro médio qua-
drático é conhecido como um filtro de Wiener. As propriedades de um filtro de Wiener são mais
bem representadas no domínio da frequência.

Teorema 18

X(t) e Y(t) são processos estocásticos estacionários com funções de densidade espectral de
potência SX(f) e SY(f), e função de densidade espectral cruzada SXY(f). X(t) é a saída de um
filtro linear com entrada Y(t) e função de transferência H(f). A função de transferência que
minimiza o erro médio quadrático E[(X(t) – X(t))2] é

 SXY (f ) S (f ) > 0,
Y
Ĥ(f ) = SY (f )

0 caso contrário.

O erro médio quadrático mínimo é


  

|SXY (f )|2
e∗L = SX (f ) − df.
−∞ SY (f )

Omitimos a prova deste teorema.


Na prática, um dos procedimentos de estimativa mais comuns é separar um sinal do ruído aditi-
vo. Nesta aplicação, o processo estocástico observado, Y(t) = X(t) + N(t), é a soma do sinal de in-
teresse e um processo estocástico externo N(t) conhecido como ruído aditivo. Normalmente, X(t) e
suplemento de processamento de sinais (sps)   35

N(t) são processos estocásticos independentes. Segue-se que a função espectral de potência de Y(t)
é SY(f ) = SX(f ) + SN(f ), e a função de densidade espectral cruzada é SXY(f ) = SX(f ). Pelo Teorema
18, a função de transferência do filtro de estimativa ótimo é
SX (f )
Ĥ(f ) = , (137)
SX (f ) + SN (f )

e o erro médio quadrático mínimo é


  

|SX (f )|2
e∗L = SX (f ) − df
−∞ SX (f ) + SN (f )
 ∞
SX (f ) SN (f )
= df. (138)
−∞ SX (f ) + SN (f )

Exemplo 25

X(t) é um processo estocástico estacionário no sentido amplo com mX = 0 e função de autocorrelação


sen(2π5000τ )
RX (τ ) = . (139)
2π5000τ
Observe que Y(t) = X(t) + N(t), em que N(t) é um processo estacionário no sentido amplo com
função de densidade espectral de potência SN(f) = 10–5. X(t) e N(t) são mutuamente indepen-
dentes.
(a) Qual é a função de transferência do filtro linear ótimo para estimar X(t) dado Y(t)?
(b) Qual é o erro médio quadrático do filtro de estimativa ótimo?
...........................................................................
(a) Pela Tabela 1, deduzimos que a função da densidade espectral de potência de X(t) é

10− 4 |f | ≤ 5000,
−4 4
RX (τ ) = 10 rect(f /10 ) = (140)
0 caso contrário.

̂ ̂
(b) Pela Equação (137), obtemos H(f ) = 1/1,1, |f | ≤ 5000, H(f ) = 0 caso contrário. O erro médio
quadrático na Equação (138) é
 5000
10− 5 10− 4
(141)

eL = df = 0,1/1,1 = 0,0909.
− 5000 10− 4 + 10− 5

Neste exemplo, o filtro de estimativa ótimo é um filtro passa-baixas ideal com uma resposta ao
impulso que tem valores diferentes de zero para todo de –∞ a ∞. Esse filtro não pode ser implemen-
tado no hardware prático. O projeto de filtros que minimizam o erro de estimativa médio quadrático
sob restrições práticas é abordado em textos mais avançados. A Equação (138) é um limite inferior
sobre o erro de estimativa para qualquer filtro prático.

Teste 9

Em um sistema de comunicações de espectro espalhado, X(t) é um sinal de informação modelado


como processo estocástico estacionário no sentido amplo com mX = 0 e função de autocorrelação

RX (τ ) = sen(2π5000τ )/(2π5000τ ). (142)


36   suplemento de processamento de sinais (sps)

4 4
Xn Xn
2 Yn 2 Yn

0 0

−2 −2

−4 −4
0 10 20 30 0 10 20 30
n n

M =2 M = 10
Figura 4  Caminhos amostrais da entrada Xn e saída Yn do filtro de média móvel de ordem M – 1 do
Exemplo 26.

Um receptor de rádio obtém Y(t) = X(t) + N(t), em que a interferência N(t) é um processo esta-
cionário no sentido amplo com mN = 0 e Var[N] = 1 watt. A função de densidade espectral de po-
tência de N(t) é SN(f ) = N0 para |f | ≤ B e SN(f ) = 0 para |f | > B. X(t) e N(t) são independentes.
(a) Qual é o relacionamento entre a densidade espectral de potência de ruído N0 e a largura de
banda de interferência B?
(b) Qual é a função de transferência do filtro de estimativa ótimo que processa Y(t) a fim de
estimar X(t)?
(c) Qual é o valor mínimo da largura de banda de interferência B Hz que resulta em um erro
médio quadrático mínimo eL* ≤ 0,05?

10 MATLAB

Já vimos em capítulos anteriores que o Matlab simplifica o processamento de matrizes e vetores. No


contexto de sinais aleatórios, o uso eficiente do Matlab requer sequências aleatórias de tempo dis-
creto. Estas podem ser o resultado de um processo discreto ou de um processo de tempo contínuo a
uma velocidade não inferior à taxa de amostragem de Nyquist. Além disso, o Matlab processa ape-
nas vetores de tamanho finito correspondentes para sinais de tempo discreto de duração finita ou
para blocos de comprimento L de um sinal de duração infinita. Em ambos os casos, assumimos que
o nosso objetivo é de processar um sinal de tempo discreto, uma sequência aleatória de comprimen-
to L, representado pelo vetor
 
x = x0 · · · xL− 1 . (143)

Observe que x pode ser determinística ou aleatória. No momento, deixamos nossa convenção usual
de indicar quantidades aleatórias por letras maiúsculas, pois, em código Matlab, vamos usar
letras maiúsculas para vetores no domínio da frequência. O vetor x é chamado frequentemente
de dados a fim de distingui-lo dos filtros de tempo discreto, que também são representados por
vetores.

Processamento de Dados de Tamanho Finito no Domínio do Tempo

Os métodos de domínio de tempo, como a filtragem linear para uma sequência aleatória introduzida
na Seção 2, podem ser implementados diretamente usando as técnicas do Matlab para processamento
de matrizes e vetores. Em Matlab, o processamento em bloco é especialmente comum.
suplemento de processamento de sinais (sps)   37

Exemplo 26

Para o filtro de média móvel de ordem M – 1, hn, e processos aleatórios Xn e Yn do Exemplo 5,


escreva a função Matlab smoothfilter(L,M) que gera um caminho amostral de comprimento L,
X = [X0 . . . XL–1]9 sob a hipótese de Xn ser um processo gaussiano. Além disso, gere o processo
de saída de comprimento L + M – 1, Y = [Y0 ... YL+M–2]9.
...........................................................................

function y=smoothfilter(L,M); A função smoothfilter gera os vetores X e Y. O ve-


rx=[4 2 zeros(1,L-2)]; tor rx é o vetor de autocorrelações preenchido com ze-
cx=rx-ones(size(rx)); ros, de modo que todos os termos de autocorrelação
x=gaussvector(1,cx,1); necessários são especificados. Implementando CX[k] =
h= ones(1,M)/M; RX[k] – mX2, o vetor cx é a função de autocovariância
y=conv(h,x); correspondente.
plot(1:L,x,1:L,y(1:L),’:’);
xlabel(’\it n’);
legend(’\it X_n’,’\it Y_n’);

Em seguida, o vetor x de amostras X0, . . ., XL–1 é gerado por gaussvector. Relembramos, do


Capítulo 13, que estendemos gaussvector de modo que, se o segundo argumento for um vetor
N × 1, então gaussvetor gera internamente a matriz de covariância simétrica de Toeplitz. Por fim,
conv implementa a convolução discreta de Xn e do filtro hn.
Para um único caminho amostral Xn, a Figura 4 mostra Xn e a saída do filtro de suavização para
M = 2 e M = 10. Para M = 2, os picos mais agudos de Xn são atenuados na sequência de saída Yn.
Porém, a diferença entre entrada e saída é pequena, pois o filtro de primeira ordem não é muito
eficaz. Para M = 10, é removido muito mais do conteúdo de alta frequência do sinal.

Dada uma função de autocorrelação RX[k] e filtro hn, o Matlab também pode usar a convolução
e o Teorema 5 para calcular a autocorrelação de saída RY[k] e a correlação cruzada entrada-saída
RXY [k].

Exemplo 27

Para o processo aleatório Xn e filtro de suavização hn do Exemplo 5, use o Matlab para calcular
RY[k] e RXY[k].
...........................................................................
A solução, dada por smoothcorrelation.m, e saída correspondente são:

%smoothcorrelation.m >> smoothcorrelation


rx=[2 4 2]; rxy =
h=[0.5 0.5]; 1.00 3.00 3.00 1.00
rxy=conv(h,rx) ry =
ry=conv(fliplr(h),rxy) 0.50 2.00 3.00 2.00 0.50

As funções RX[k], RXY[k] e RY[k] são representadas pelos vetores rx, rxy e ry. Pelo Teorema
5(c), a autocorrelação de saída ry é a convolução de RXY[k] com o filtro invertido no tempo h–n. No
Matlab, fliplr(h) reverte o tempo ou muda de estado do vetor linha h. Observe que os vetores
rx, rxy e ry não registram a hora inicial das funções correspondentes. Como rx e ry descre-
vem funções de autocorrelação, podemos deduzir que essas funções têm a origem como centro.
Porém, sem conhecimento do filtro hn e autocorrelação RX[k], não existe um modo de deduzir que
rxy(1) = RXY[–1].
38   suplemento de processamento de sinais (sps)

MATLAB torna mais fácil para implementar filtros lineares de estimativa e previsão. No exemplo
a seguir, podemos generalizar a solução do Exemplo 12 para encontrar o previsor linear de ordem N
para Xn+1 dadas M amostras prévias.

Exemplo 28

Para a sequência aleatória estacionária Xn com valor esperado mX = 0, escreva um programa Matlab
lmsepredictor.m para calcular o filtro previsor LMSE de ordem M – 1, h, para X = Xn+1, dada a
observação Xn = [Xn–M+1 . . . Xn]9.
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .←. . . . . . . . . . . . . . . . . .
Pelo Teorema 9, o vetor de filtro h expresso na forma invertida no tempo, é h = RXn–1 RXnXn+1. Nesta
solução, RXn é dado no Teorema 6 e RXnXn+1 aparece na Equação (65) com k = 1. A solução requer
que saibamos o conjunto de valores de autocorrelação {RX(0), . . ., RX(M)}. Existem várias maneiras
de implementar uma solução em Matlab. Uma maneira seria que lmsepredictor exigisse como
argumento um handle para uma função em Matlab que calcula RX(k). Escolhemos um método mais
simples e passamos um vetor rx igual a [RX(0) . . . RX(m – 1)]9. Se M ≥ m, então preenchemos rx
com zeros.

function h=lmsepredictor(r,M); Matlab oferece a função toeplitz para gerar a matriz


m=length(r); RXn (indicada por RY no código). Por fim, encontramos
rx=[r(:);zeros(M-m+1,1)]; a de modo que a9RXn = RXn+1xn. De modo equivalente,
%inclui zeros se necessário observe que o código, conforme escrito, resolve RXna =
RXnXn+1. A saída é h = a , o a invertido no tempo.

RY=toeplitz(r(1:M));
RYX=r(M+1:-1:2);
a=RY\RYX;
h=a(M:-1:1);

A função lmsepredictor.m supõe que RX(k) = 0 para k ≥ m. Se RX(k) tem uma cauda de
tamanho finito (RX(k) = (0,9)|k|, por exemplo), então o usuário precisa garantir que m > M; caso
contrário, os resultados serão imprecisos. Isso é examinado no Problema 10.5.

Processamento de Dados de Tamanho Finito no Domínio da Frequência

Nossa análise de domínio de frequência das sequências aleatórias empregou a transformada de Fourier
de tempo discreto (DTFT). Porém, a DTFT é uma função contínua da variável de frequência nor-
malizada f. Para os métodos de domínio de frequência no Matlab, empregamos a Transformada
Discreta de Fourier (DFT).

Definição 6 Transformada Discreta de Fourier (DFT)


 
Para um sinal de duração finita representado
  x = x0 · · · xL− 1 , a DFT de N pon-
pelo vetor
tos é o vetor de comprimento N X̃ = X̃0 · · · X̃N − 1 , em que

L− 1
X̃n = xk e− j2π(n/N )k , n = 0, 1, . . . , N − 1.
k=0
suplemento de processamento de sinais (sps)   39

Comparando a Definição 6 para a DFT e a Definição 3 para a DTFT, vemos que, para um sinal
de tamanho finito x, a DFT avalia a DTFT X(f) em N frequências igualmente espaçadas,
n
φn = , n = 0, 1, . . . , N − 1, (144)
N
pelo intervalo completo de frequências normalizadas 0 ≤ f ≤ 1. Lembre-se de que a DTFT é simétri-
ca em torno de f = 0 e periódica com período 1. É comum observar a DTFT pelo intervalo –1/2 ≤
f ≤ 1/2. Ao contrário, o Matlab produz valores da DFT sobre 0 ≤ f ≤ 1. Quando L = N, as duas
transformadas coincidem sobre 0 ≤ f ≤ 1/2, enquanto a imagem da DFT sobre 1/2 < f ≤ 1 cor-
~ ~
responde a amostras da DTFT sobre –1/2 < f ≤ 0. Ou seja, X N/2 = X(–1/2), X N/2+1 = X(–1/2 +
1/N), e assim por diante.
Devido à estrutura especial da transformação da DFT, ela pode ser implementada com grande
eficiência como a “Transformada Rápida de Fourier” ou FFT. No Matlab, se x é um vetor de ta-
manho L, então X=fft(x) produz a DFT de L pontos de x. Além disso, X=fft(x,N) produz
a DFT de N pontos de x. Nesse caso, se L < N, então o Matlab preenche o vetor x com N – L
zeros. Porém, se L > N, então o Matlab retorna a DFT do truncamento de x aos seus primeiros
N elementos. Observe que isso é incoerente com a Definição 6 da DFT. Em geral, consideramos
L = N quando nos referimos a uma DFT de N pontos sem referência ao tamanho de dados L. Na
forma da FFT, a DFT é tanto eficiente quanto útil na representação de um processo aleatório no
domínio da frequência.

Exemplo 29

Considere que hn indique o filtro de suavização de ordem M – 1 do Exemplo 5. Para M = 2 e M =


10, calcule a DFT de N = 32 pontos. Para cada M, desenhe a magnitude de cada DFT e a magni-
tude da DTFT correspondente |H(f)|.
...........................................................................
Calculamos a DFT do vetor de M elementos h = [1/M . . . 1/M]9 para cada M. No Exemplo 17, des-
cobrimos que a DTFT de hn é
 
1 1 − e− j2πφM
H(φ) = . (145)
M 1 − e− j2πφ

function smoothdft(M,N); O programa smoothdft.m calcula H(f) e a DFT


phi=0.01:0.01:1; de N pontos, além de gerar os gráficos mostra-
hdtft=(1-exp(-j*2*pi*phi*M))./ ... dos na Figura 5. A magnitude |H(f)| aparece na
(M*(1-exp(-j*2*pi*phi))); figura como a curva sólida. A magnitude da DFT é
h=ones(1,M)/M; exibida como um gráfico de hastes para frequên-
hdft=fft(h,N); cias normalizadas n/N, para mostrar a corres-
n=(0:(N-1))/N; pondência com |H(f)| em frequências f = n/N.
stem(n,abs(hdft));
hold on;
plot(phi,abs(hdtft));
hold off;

Nas Figuras 5, 7 e 8, vemos a simetria da imagem espelho tanto da DTFT quando da DFT
em torno da frequência f = 1/2. Esta é uma propriedade geral da DFT para sinais de valor real.
Explicamos essa propriedade para o filtro de suavização hn do Exemplo 29. Quando os elementos
de hn são reais, H(– f) = H*(f). Assim, |H(– f)| = |H(f)|, correspondendo à simetria da imagem
espelho para o espectro de magnitude em torno de f = 0. Além do mais, como a DTFT H(f) é
periódica com período unitário, H(f) = H(f – 1). Assim, H(f) pelo intervalo 1/2 ≤ f < 1 é idên-
tica a H(f) pelo intervalo –1/2 ≤ f < 0. Ou seja, em um gráfico da DTFT ou DFT, o lado direito
do gráfico correspondente às frequências normalizadas 1/2 ≤ f < 1 é o mesmo da imagem para fre-
40   suplemento de processamento de sinais (sps)

0,5

0
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1

M = 2: smoothdft(2,32)
1

0,5

0
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1

M = 10: smoothdft(10,32)
Figura 5  A magnitude da DTFT e a DFT de 32 pontos para o filtro de média móvel de ordem M – 1, hn,
do Exemplo 29.

quências negativas –1/2 ≤ f < 1. Combinando essa observação com a simetria de imagem espelho de
H(f) em torno de f = 0 resulta em simetria por imagem espelho em torno de f = 1/2. Assim, ao
interpretar um gráfico de DTFT ou DFT, baixas frequências são representadas pelos pontos próxi-
mos da borda esquerda e da borda direita do gráfico. Componentes de alta frequência são descritos
pelos pontos perto do meio do gráfico.
Quando L = N, podemos expressar a DFT como a transformação de matriz N × N

X̃ = DFT(x) = F̃x (146)


em que a matriz da DFT
X̃ = DFT(x) = F̃xtem o elemento n, k
 nk
F̃nk = e− j2π(n/N )k = e− j2π/N . (147)

Como
X̃ = DFT(x) = F̃xé uma matriz quadrada N × N com uma estrutura especial, seu inverso existe e é dado por
1 ∗
F̃− 1 = F̃ . (148)
N
em que
X̃ = DFT(x) *
= F̃x é obtido tomando a conjugada complexa de cada
X̃ = entrada
DFT(x)de . Assim, dada a DFT X̃ =
= F̃x = DFT(x) =
x, podemos recuperar o sinal original x pela DFT inversa
X̃ = DFT(x) = F̃x
1 ∗
x = IDFT(X̃) = F̃ X̃. (149)
N

Exemplo 30

Escreva uma função F=dftmat(N) que retorna a matriz DFT de N pontos. Encontre a matriz de
DFT F para N = 4 e mostre numericamente que F–1 = (1/N)F*.
...........................................................................

function F = dftmat(N); A função dftmat.m é uma implementação direta da


Usage: F=dftmat(N) Equação (147). No código, n é o vetor coluna [0 1
%F é a matriz DFT N por N . . . N – 1]9 e n*(n’) produz a matriz N × N com o
n=(0:N-1)’; elemento n, k igual a nk.
F=exp((-1.0j)*2*pi*(n*(n’))/N);
suplemento de processamento de sinais (sps)   41

Como vemos na Figura 6, a execução de F=dftmat(4) produz a matriz DFT 4 × 4


 
1 1 1 1
1 − j − 1 j 
F = 
1 − 1 1 − 1 . (150)
1 j −1 −j

Na figura, também verificamos que F–1 = (1/4)F*.

Como uma consequência,X̃a =


estrutura
DFT(x)de= F̃xnos permite mostrar no próximo teorema que um al-
goritmo para a DFT também pode ser usado como um algoritmo para a IDFT.

Teorema 19

1  ∗
IDFT(X̃) = DFT(X̃∗ ) .
N

Prova Tomando conjugadas complexas das Equação (149), obtemos


1 1
x∗ = F̃X̃∗ = DFT(X̃∗ ). (151)
N N
Conjugando mais uma vez, obtemos
1  ∗
x= DFT(X̃∗ ) . (152)
N
Para completar a prova, observe que x = IDFT(X̃).= DFT(x) = F̃x

Assim, se x é um vetor de dados de comprimento L com L > N, então a DFT de N pontos produz
um vetor X̃ == DFT(x)
DFT(x) = deF̃x
comprimento N. Para o Matlab, X=fft(x,N) produz a DFT do trunca-
mento de x aos seus N primeiros valores. De qualquer forma, a IDFT definida pelaX̃matriz N×N
= DFT(x) = F̃x–1
ou, de modo equivalente, ifft, também retorna uma saída de comprimento N. Se L > N, a saída
das IDFT não pode ser a mesma que a entrada original x de comprimento L. No caso do Matlab,
ifft retorna a versão truncada do sinal original. Se L < N, então a DFT inversa retorna a entrada
x original preenchida com zeros até o comprimento N.

>> F=dftmat(4)
F =
1.00 1.00 1.00 1.00
1.00 0.00 - 1.00i -1.00 - 0.00i -0.00 + 1.00i
1.00 -1.00 - 0.00i 1.00 + 0.00i -1.00 - 0.00i
1.00 -0.00 + 1.00i -1.00 - 0.00i 0.00 - 1.00i
>> (1/4)*F*(conj(F))
ans =
1.00 -0.00 + 0.00i 0.00 + 0.00i 0.00 + 0.00i
-0.00 - 0.00i 1.00 -0.00 0.00 + 0.00i
0.00 - 0.00i -0.00 - 0.00i 1.00 + 0.00i -0.00 + 0.00i
0.00 - 0.00i 0.00 - 0.00i -0.00 - 0.00i 1.00
>>

Figura 6  A matriz DFT de 4 pontos para o Exemplo 30 conforme gerada por dftmat.m.
42   suplemento de processamento de sinais (sps)

A DFT para a Densidade Espectral de Potência

A DFT também pode ser usada para transformar a autocorrelação discreta RX[n] na densidade espec-
tral de potência SX(f). Consideramos que RX[n] é o sinal com comprimento 2L – 1 dado pelo vetor
 
r = RX [− (L − 1)] RX [− L + 2] · · · RX [L − 1] . (153)

A PSD correspondente é

L− 1
SX (φ) = RX [k] e− j2πφk . (154)
k=− (L− 1)

Dado um vetor r, gostaríamos de gerar o vetor S = [S0 . . . SN–1]9 tal que Sn = SX(n/N). Uma com-
plicação é que a PSD dada pela Equação (154) é uma transformada bilateral, enquanto a DFT na
forma da Definição 6, ou a função fft do Matlab, é uma transformada unilateral. Para sinais de
único lado, as duas transformadas são iguais. Porém, para uma função de autocorrelação bilateral
RX[n], a diferença importa.
Embora o vetor r represente uma função de autocorrelação, ele pode ser visto simplesmente como
uma sequência de números, da mesma forma que qualquer outro sinal de tempo discreto. Visto dessa
~
forma, o Matlab pode usar fft para calcular a DFT R = DFT(r), onde
2
2L−
R̃n = RX [l − (L − 1)] e− j2π(n/N )l . (155)
l=0
Fazemos a substituição k = l 2 (L – 1) para escrever

L− 1
R̃n = RX [k] e− j2π(n/N )(k+L− 1)
k=− (L− 1)

= e− j2π(n/N )(L− 1) SX (n/N ) . (156)

De modo equivalente, podemos escrever

Sn = SX (n/N ) = R̃n ej2π(n/N )(L− 1) . (157)


~
Assim, a diferença entre a DFT unilateral e a DTFT bilateral resulta nos elementos de R sendo
deslocados linearmente em fase a partir dos valores de SX(n/N) que desejávamos. Se estivermos in-
~
teressados apenas na magnitude da resposta de frequência, essa fase pode ser ignorada, pois |Rn| =
|SX(n/N)|. Porém, em muitos casos, a fase correta da PSD é necessária.

function S=fftc(varargin); Neste caso, o programa fftc.m ofe-


%DFT para um sinal r rece uma DFT para sinais r que são
%centralizado na origem centralizados na origem. Dada a ta-
%Uso: refa simples de fftc, o código pode
% fftc(r,N): DFT de N pontos de r parecer estranhamente longo. De
% fftc(r): DFT de comprimento(r) pontos de r fato, a correção real do deslocamen-
r=varargin{1}; to de fase ocorre somente na última
L=1+floor(length(r)/2);
if (nargin>1) linha do programa. O código adicio-
N=varargin{2}(1); nal emprega a função varargin do
else Matlab para dar suporte as mesmas
N=(2*L)-1; convenções de chamada de argumento
end variável de fft; fftc(r) retorna a
R=fft(r,N); DFT de n pontos na qual n é o com-
n=reshape(0:(N-1),size(R)); primento de r, enquanto fftc(r,N)
phase=2*pi*(n/N)*(L-1); retorna a DFT de N pontos.
S=R.*exp((1.0j)*phase);
suplemento de processamento de sinais (sps)   43

Convolução Circular

Dado o sinal de tempo discreto xn como entrada de um filtro hn, sabemos que a saída yn é a convo-
lução de xn e hn. De modo equivalente, a convolução no domínio do tempo resulta na multiplicação
Y(f) = H(f)X(f) no domínio da frequência.
Quando xn é uma entrada de comprimento L dada pelo vetor x = [x0 . . . xL–1]9, e hn é o filtro
causal de ordem M – 1 h = [h0 . . . hM–1]9, a saída correspondente y tem comprimento L + M – 1.
Se escolhermos N ≥ L + M – 1, então as DFTs de N pontos de h, x e y têm a propriedade de que

Ỹk = Y (k/N ), H̃k = H(k/n), X̃k = X(k/N ). (158)


~ ~ ~ ~
Logo, em frequências k/N, temos que Yk = Hk Xk. Além do mais, IDFT(Y) recuperará o sinal de
saída no domínio do tempo yn.

Sequências Aleatórias de Duração Infinita

Observamos que, para sinais de duração finita e filtros de ordem finita, a DFT pode ser usada quase
como uma substituta para a DTFT. As únicas diferenças observáveis são os deslocamentos de fase
que resultam da função fft, assumindo que todos os vetores de sinal r são indexados para começar
no instante n = 0. Para as sequências de comprimento L ≤ N, a DFT tanto oferece uma trans-
formação reversível no domínio da frequência quanto oferece amostras da DTFT nas frequências
fn = n/N.
Por outro lado, existem muitas aplicações envolvendo sequências aleatórias de duração infinita
para as quais gostaríamos de obter uma caracterização de domínio de frequência. Neste caso, só po-
demos aplicar a DFT a uma amostra de dados de comprimento finito x = [xi xi+1 . . . xi+L–1]9. Assim,
a DFT deveria ser usada com algum cuidado como uma aproximação ou substituto para a DTFT.
Primeiro, como vemos no exemplo a seguir, as amostras de frequência da DFT podem não combinar
exatamente com as frequências de pico de X(f).

Exemplo 31

Calcule a DFT de N = 20 pontos e N = 64 pontos da sequência xk = cos(2(0, 15)k) de comprimento


L = N. Desenhe a magnitude da DFT como uma função da frequência normalizada.
...........................................................................

function X=fftexample1(L,N) O programa fftexample1.m gera e desenha a magni-


k=0:L-1; tude da DFT de N pontos. Os gráficos para N = 20 e N =
x=cos(2*pi*(0.15)*k); 64 aparecem na Figura 7. Vemos que a DFT não descreve
X=fft(x,N); com precisão a DTFT, a menos que a senoide xk esteja na
phi=(0:N-1)/N; frequência n/N para um inteiro n.
stem(phi,abs(X));

Mesmo que seja escolhido um grande valor para N, a DFT provavelmente será uma aproxi-
mação fraca da DTFT se o comprimento de dados L escolhido for muito pequeno. Para entender
isso, vemos x como uma representação de vetor do sinal xkwL[k], em que wL[k] é uma função de
janela satisfazendo

1 k = 0, . . . , L − 1,
wL [k] = (159)
0 caso contrário.

Pela Equação (159), vemos que wL[k] é apenas uma versão em escala do filtro de média móvel hn
de ordem M – 1 no Exemplo 26. Em particular, para M = L, wL[k] = Lhk e a DTFT de wL[k] é
44   suplemento de processamento de sinais (sps)

15 10

10
5
5

0 0
0 0,2 0,4 0,6 0,8 1 0 0,2 0,4 0,6 0,8 1

DFT de 20 pontos DFT de 64 pontos


Figura 7  DFTs de 20 pontos e 64 pontos de xk = cos(2π(0,15)k).

WL(f) = LH(f). Assim, para L = M = 10, WL(f) será semelhante a H(f) no gráfico inferior da
Figura 5. A DTFT da multiplicação no domínio do tempo xkwL[k] resulta na convolução no domínio
da frequência de X(f) e WL(f). Assim, o uso da janela introduz componentes artificiais de alta fre-
quência associados às transições bruscas da função wL[k]. Em particular, se X(f) tem componentes
senoidais nas frequências f1 e f2, esses componentes de sinal não serão distinguíveis se |f1 − f2| <
1/L, não importa o tamanho escolhido para N.

Exemplo 32

Considere a função de tempo discreto

xk = cos(2π(0,20)k) + cos(2π(0,25)k), k = 0, 1, . . . , L − 1. (160)

Para L = 10 e L = 20, desenhe o gráfico da magnitude da DFT de N = 20 pontos.


...........................................................................

function X=fftexample2(L,N) O programa fftexample2.m desenha a magnitude da


k=0:L-1; DFT de N pontos. Os resultados para L = 10, 20 apare-
x=cos(2*pi*(0.20)*k) ... cem na Figura 8. O gráfico para L = 10 mostra como o ta-
+cos(2*pi*(0.25)*k); manho de dados curto introduz componentes de frequên-
X=fft(x,N); cia artificiais, embora a DFT de N = 20 pontos deva ser
stem((0:N-1)/N,abs(X)); suficiente para identificar os componentes senoidais. Para
um tamanho de dados L = 20, podemos identificar com
precisão os dois componentes do sinal.

10 10

5 5

0 0
0 0,2 0,4 0,6 0,8 1 0 0,2 0,4 0,6 0,8 1

L = 10 L = 20
Figura 8  A DFT de N = 20 pontos de xk = cos(2π(0,20)k) + cos(2π(0,25)k) para o tamanho de dados L.

Observamos que podemos especificar o número de pontos de frequência N da DFT separadamente


a partir do tamanho de dados L. Porém, se xn for um sinal de comprimento infinito, então a capaci-
dade da DFT de resolver componentes de frequência é limitada pelo tamanho de dados L. Assim, se
formos aplicar uma DFT de N pontos a uma sequência de comprimento L extraída de um sinal de
dados de duração infinita, há muito pouco motivo para extrair menos do que N amostras.
suplemento de processamento de sinais (sps)   45

Por outro lado, se L > N, podemos gerar um sinal encapsulado de comprimento N com a mes-
ma DFT. Em particular, se x tem comprimento L > N, expressamos x como a concatenação de
segmentos de comprimento N

x = [x1 x2 · · · xi ]. (161)

em que o último segmento xi pode ser preenchido com zeros para ter comprimento N. Nesse caso,
definimos o sinal encapsulado de comprimento N como x̂ = x1 + x2 + . . . + xi. Visto que ej2π(n/N)k
~
tem período N, pode-se mostrar que x e x̂ têm a mesma DFT. Se X = DFT(x) = DFT(x̂), então
~
IDFT(X) retornará o sinal encapsulado x̂. Assim, para preservar a reversibilidade da DFT, é desejá-
vel utilizar um registro de dados de comprimento L igual a N, o número de pontos na DFT.

Teste 10

O processo estacionário no sentido amplo Xn do Exemplo 5 percorre o filtro de média móvel de or-
dem M – 1. A saída é Yn. Use uma DFT de 32 pontos para desenhar um gráfico das funções de den-
sidade espectral de potência
(a) SX(f);
(b) SY(f) para M = 2;
(c) SY(f) para M = 10.
Use estes gráficos para interpretar os resultados do Exemplo 26.

Leitura Adicional: Teoria da probabilidade, processos estocásticos e processamento de sinais digi-


tais (DSP) se cruzam no estudo de processamento de sinais aleatórios. [MSY98] e [Orf96] são pontos
de entrada bastante acessíveis para o estudo de DSP com a ajuda do Matlab. [BH92] aborda a teo-
ria do processamento de sinais aleatórios em profundidade e conclui com um capítulo dedicado ao
Sistema de Posicionamento Global. [Hay96] apresenta princípios básicos do processamento de sinais
digitais no contexto de algumas aplicações práticas importantes.
BH92. R. G. Brown e P. Y. C. Hwang. Introduction to Random Signals. John Wiley & Sons,
2ª edição, 1992.
Hay96. M. H. Hayes. Statistical Digital Signal Processing and Modeling, 1996.
MSY98. J. H. McClellan, R.W. Shafer e M.A. Yoder. DSP First. A Multimedia Approach. Prentice
Hall, 1998.
Orf96. S. J. Orfanidis. Introduction to Signal Processing. Prentice Hall, 1996.

Problemas
Dificuldade:  Fácil  Moderado  Difícil  Extremamente difícil

1.1 Considere que X(t) indique um processo estacionário no senti- 1.3 X(t), a entrada de um filtro linear invariante no tempo, é
do amplo com mX = 0 e autocorrelação RX(t). Considere que Y(t) = um processo estocástico estacionário no sentido amplo com valor
2 + X(t). O que é RY(t, t)? Y(t) é estacionário no sentido amplo? esperado mX = 4 volts. A saída do filtro Y(t) é um processo esto-
1.2 X(t), a entrada de um filtro linear invariante no tempo, é cástico estacionário no sentido amplo com valor esperado mY =
um processo aleatório estacionário no sentido amplo com valor 1 volt. A resposta ao impulso do filtro é
esperado mX = 3 volts. A resposta ao impulso do filtro é 
 e− t/a t ≥ 0,
1 − 106 t2 0 ≤ t ≤ 10− 3 s, h(t) =
h(t) = 0 caso contrário.
0 caso contrário.
Qual é o valor esperado do processo de saída Y(t)? Qual é o valor da constante de tempo a?
46   suplemento de processamento de sinais (sps)


1.4 Um sinal de ruído branco gaussiano W(t) com função de 1 n = 0,
autocorrelação RW(t) = h0d(t) é passado por um filtro LTI h(t). hn = − 1 n = 1,

Prove que a saída Y(t) tem potência média 0 caso contrário.

  ∞
A saída é a sequência aleatória Vn.
E Y 2 (t) = η0 h2 (u) du.
−∞
(a) Qual é o valor esperado da saída mV?
2.1 A sequência aleatória Xn é a entrada de um filtro de tem- (b) Qual é a função de autocorrelação da saída RV[n]?
po discreto. A saída é
(c) Qual é a variância da saída Var[Vn]?
Xn+1 + Xn + Xn− 1
Yn = . (d) Vn é uma função linear do processo de entrada original Xn
3
no Exemplo 5:
(a) Qual é a resposta ao impulso hn?

M −1
(b) Ache a autocorrelação da saída Yn quando Xn é uma sequên- Vn = fi Xn− i .
cia aleatória estacionária no sentido amplo com mX = 0 e i=0

autocorrelação
Qual é a resposta ao impulso fi do filtro combinado?

RX [n] =
1 n = 0, 2.5 O Exemplo 5 descreve um filtro de suavização de tempo
0 caso contrário.
discreto com resposta ao impulso

2.2 X(t) é um processo estacionário no sentido amplo com 1 n = 0, 1,
hn =
função de autocorrelação 0 caso contrário.
sen(2000πt) + sen(1000πt) Para um processo de entrada Xn estacionário no sentido amplo em
RX (τ ) = 10 .
2000πt particular, o processo de saída Yn é uma sequência aleatória esta-
O processo X(t) é amostrado na taxa 1/Ts = 4.000 Hz, resul- cionária no sentido amplo, com mY = 0 e função de autocorrelação
tando no processo de tempo discreto Xn. Qual é a função de 
2 n = 0,
autocorrelação RX[k] de Xn? RY [n] = 1 |n| = 1,

2.3 A saída Yn do filtro de suavização no Exemplo 5 tem mY = 1 0 caso contrário.
e função de autocorrelação
Qual é a autocorrelação RX[n] da entrada Xn?


 3 n = 0, 2.6 A entrada . . ., X–1, X0, X1, . . . e a saída . . ., Y–1, Y0, Y1,

2 |n| = 1,
RY [n] = . . . de um filtro digital obedecem a

 0,5 |n| = 2,

0 caso contrário. 1
Yn = (Xn + Yn− 1 ) .
2
Yn é a entrada de outro filtro de suavização com resposta ao
impulso Considere que as entradas sejam uma sequência de variáveis
 aleatórias iid com E[Xi] = mXi = 0 e Var[Xi] = s2. Ache as
1 n = 0, 1, seguintes propriedades da sequência de saída: E[Yi], Var[Yi],
hn =
0 caso contrário.
Cov[Yi+1, Yi]e rYi+1,Yi.
A saída desse segundo filtro de suavização é Wn. 2.7 Z0, Z1, . . . é uma sequência aleatória iid com E[Zn] = 0 e
(a) Qual é o valor de mW, o valor esperado da saída do segundo Var[Zn] = ŝ2. A sequência aleatória X0, X1, ... obedece a equa-
filtro? ção recursiva
Xn = cXn− 1 + Zn− 1 , n = 1, 2, . . . ,
(b) Qual é a função de autocorrelação de Wn?
(c) Qual é a variância de Wn? na qual c é uma constante satisfazendo |c| < 1. Determine ŝ2
tal que X0, X1, . . . seja uma sequência aleatória com E[Xn] =
(d) Wn é uma função linear do processo de entrada original Xn 0, tal que, para n ≥ 0 e n + k ≥ 0,
no Exemplo 5:
RX [n, k] = σ 2 c|k| .

M −1
Wn = gi Xn− i . 2.8 A sequência aleatória iid X0, X1, . . . das variáveis alea-
i=0
tórias normais padrão é a entrada de um filtro digital. Para uma
Qual é a resposta ao impulso gi do filtro combinado? constante a satisfazendo a |a| < 1, a saída do filtro é a sequência
aleatória Y0, Y1, . . . tal que Y0 = 0 e, para n > 1,
2.4 Considere que a sequência aleatória Yn no Problema 2.3
seja a entrada do diferenciador com resposta ao impulso, Yn = a (Xn + Yn− 1 ) .
suplemento de processamento de sinais (sps)   47

Determine E[Yi] e a autocorrelação RY[m,k] da sequência de saí- Para cada Xn transmitido, o receptor observa Yn = Xn + Wn, onde
da. A sequência aleatória Yn é estacionária no sentido amplo? os Wi são ruídos gaussianos iid (0, 1), independentes de todo Xj.
3.1 Xn é uma sequência gaussiana estacionária com valor (a) Quais valores de a são possíveis?
esperado E[Xn] = 0 e função de autocorrelação RX[k] = 2–|k|. (b) Com base na observação Yn, determine Xn̂ , a estimativa
Determine a PDF de X = [X1 X2 X3]. MMSE linear de Xn dado Yn.
3.2 Xn é uma sequência de variáveis aleatórias independentes (c) Com base na observação Yn = [Yn, Yn–1], determine X̃ n, a
tais que Xn = 0 para n < 0 enquanto, para n ≥ 0, cada Xn é uma estimativa MMSE linear de Xn dado Yn.
variável aleatória gaussiana (0, 1). Passar Xn pelo filtro h = [1
–1 1] resulta na saída Yn. Determine as PDFs de: 4.4 Xn é uma sequência estacionária aleatória no sentido am-
plo, com mX = 0 e função de autocorrelação
(a) Y3 = [Y1 Y2 Y3 ] , 
1,1 k = 0,
(b) Y2 = [Y1 Y2 ] . RX [k] = 1 − 0,25 |k| 1 ≤ |k| ≤ 4,

0 caso contrário.
3.3 O processo gaussiano estacionário Xn com valor esperado
E[Xn] = 0 e função de correlação RX[k] = 2–|k| é passado pelo Para M = 2 amostras, determine h = [h0 h1], os coeficientes
filtro linear h = [1 –1 1], resultando na saída Yn. Determine do previsor linear ótimo de Xn+1, dados Xn–1 e Xn. Qual é o erro
a PDF de Y = [Y3 Y4 Y5]. médio quadrático do previsor linear ótimo?
3.4 O processo gaussiano estacionário Xn com valor esperado 4.5 Considere que Xn seja uma sequência aleatória com valor
E[Xn] = 0 e função de autocorrelação RX[k] = 2–|k| é passado pelo esperado E[Xn] = 0 e função de autocorrelação
filtro linear h = [1 0 –1]. Para a saída do filtro Yn, determine
a PDF de Y = [Y3 Y4 Y5]. RX [k] = E [Xn Xn+k ] = c|k| ,

4.1 Considere que Xn seja uma sequência aleatória gaussiana em que |c| < 1. Observamos a sequência aleatória
estacionária no sentido amplo, com valor esperado E[Xn] e fun- Y n = Xn + Z n ,
ção de autocorrelação
em que Zn é uma sequência de ruído iid, independente de Xn,
RX [k] = E [Xn Xn+k ] = 2 −| k|
. com E[Zn] = 0 e Var[Zn] = h2. Determine a estimativa LMSE
de Xn dado Yn.
Observamos a sequência aleatória com ruído Yn = Xn + Zn, em
que Zn é uma sequência de ruído gaussiana iid, independente de 4.6 Continuando com o Problema 4.5, encontre o erro médio
Xn, com E[Zn] = 0 e Var[Zn] = 1/2. quadrático do filtro linear ótimo h = [h0 h1]’ com base em M =
2 amostras de Yn. Que valor de c minimiza o erro de estimativa
(a) Determine a estimativa LMSE X̂n de Xn dada apenas a ob- médio quadrático?
servação Yn. Observe que Xn̂ não pode usar as observações
anteriores Yn–1, Yn–2, . . . Ou seja, Xn̂ é a saída de um filtro 4.7 Suponha que Xn seja uma sequência aleatória satisfazendo
de ordem 0. Xn = cXn− 1 + Zn− 1 ,
(b) Qual é o erro médio quadrático e0 do estimador Xn̂ ? em que Z1, Z2, . . . é uma sequência aleatória iid com E[Zn] = 0
(c) Qual é a PDF f n(x) de Xn̂ ?

e Var[Zn] = s2 e c é uma constante satisfazendo a |c| < 1. Além
disso, por conveniência, consideramos que E[X0] = 0 e Var[X0] =
(d) Determine a expectativa condicional E[Xn|Yn].
s2/(1 – c2). Fazemos a seguinte medição de ruído
4.2 Xn é uma sequência aleatória estacionária no sentido am-
Yn− 1 = dXn− 1 + Wn− 1 ,
plo com mX = 0 e função de autocorrelação
 em que W1, W2, . . . é uma sequência de ruído de medição iid
1 − 0,25 |k| |k| ≤ 4,
RX [k] =
0 caso contrário. com E[Wn] = 0 e Var[Wn] = h2, que é independente de Xn e Zn.
(a) Determine o previsor linear ótimo, Xn̂ (Yn–1), de Xn utili-
Para M = 2 amostras, determine h = [h0 h1], os coeficientes do zando a observação de ruído Yn–1.
filtro de previsão linear ótimo de Xn+1, dados Xn–1 e Xn. Qual é
o erro médio quadrático do previsor linear ótimo? (b) Determine o erro de estimativa médio quadrático
 2 
4.3 Um sistema de comunicação é usado para transmitir uma e∗L (n) = E Xn − X̂n (Yn− 1 ) .
sequência de variáveis aleatórias binárias X1, X2, ... tais que Xn ∈
{–1, 1} formam um processo estacionário no sentido amplo com 5.1 X(t) é um processo estacionário no sentido amplo com
E[Xn] = 0 e função de autocovariância: função de autocorrelação
 sen(2000πτ ) + sen(1000πτ )
1 k = 0, RX (τ ) = 10 .
CX [k] = α k = 1, 2000πτ

0 caso contrário. Qual é a densidade espectral de potência de X(t)?
48   suplemento de processamento de sinais (sps)

5.2 X(t) é um processo estacionário no sentido amplo com é a entrada de um filtro com função de transferência
mX = 0 e Y(t) = X(at), em que a é uma constante diferente de 
1 0 ≤ |f | ≤ 2,
zero. Determine RY(t) em termos de RX(t). Y(t) é estacionário H(f ) =
0 caso contrário.
no sentido amplo? Se for, determine a densidade espectral de
potência SY(f). Determine

6.1 Xn é uma sequência aleatória de tempo discreto estacio- (a) A potência média da entrada X(t).
nária no sentido amplo, com função de autocorrelação RX[k] tal (b) A densidade espectral de potência da saída SY(f).
que
(c) A potência média da saída Y(t).
RX [k] = δ[k] + (0,1)|k|
8.5 Um processo estacionário no sentido amplo X(t) com den-
para k = 0, ±1, ±2, . . ., e RX[k] = 0 caso contrário. Determine sidade espectral de potência
a densidade espectral de potência SX(f).  −4
10 |f | ≤ 100,
7.1 Para processos estacionários conjuntos no sentido amplo SX (f ) =
0 caso contrário,
X(t) e Y(t), prove que a densidade espectral cruzada satisfaz
é a entrada de um filtro RC com resposta de frequência
SY X (f ) = SXY (− f ) = [SXY (f )]∗ .
1
H(f ) = .
8.1 Um processo estacionário no sentido amplo X(t) com fun- 100π + j2πf
ção de autocorrelação RX(t) = 100e–100|t| é a entrada de um filtro
A saída do filtro é o processo estocástico Y(t).
RC com resposta ao impulso
 − t/RC (a) Qual é o valor de E[X2(t)]?
e t ≥ 0,
h(t) = (b) Qual é o valor de SXY(f )?
0 caso contrário.
(c) Qual é o valor de SYX(f )?
O processo de saída do filtro tem potência média E[Y2(t)] = 100.
(d) Qual é o valor de SY(f )?
(a) Determine a autocorrelação de saída RY(t).
(e) Qual é o valor de E[Y2(t)]?
(b) Qual é o valor de RC?
8.6 Um processo estocástico estacionário no sentido amplo
8.2 Considere que W(t) indica um processo gaussiano esta-
X(t) com função de autocorrelação RX(t) = e–4|t| é a entrada de
cionário no sentido amplo com mW = 0 e densidade espectral de
um filtro linear invariante no tempo com resposta ao impulso
potência SW(f) = 1.  − 7t
e t ≥ 0,
(a) Qual é o valor de RW(t), a autocorrelação de W(t)? h(t) =
0 caso contrário.
(b) W(t) é a entrada de um filtro linear invariante no tempo
A saída do filtro é Y(t).
com resposta ao impulso
 (a) Determine a densidade espectral cruzada SXY(f ).
1 |f | ≤ B/2
H(f ) =
0 caso contrário. (b) Determine a correlação cruzada RXY(t).

A saída do filtro é Y(t). Qual é a função de densidade es- 8.7 Um processo de ruído gaussiano branco N(t) com densi-
pectral de potência de Y(t)? dade espectral de potência de 10–15 W/Hz é a entrada do filtro
6
passa-baixas H(f) = 106e–10 |f|. Determine as seguinte proprieda-
(c) Qual é a potência média de Y(t)? des da saída Y(t):
(d) Qual é o valor esperado da saída do filtro? (a) O valor esperado mY.
8.3 O processo estacionário no sentido amplo X(t) com fun- (b) A densidade espectral de potência SY(f ).
ção de autocorrelação RX(t) e densidade espectral de potência
SX(f) é a entrada de um filtro de linha de retardo com tomadas (c) A potência média E[Y2(t)].
(d) P[Y(t) > 0,01].
H(f ) = a1 e− j2πf t1 + a2 e− j2πf t2 .
8.8 No Problema 13.11.3, descobrimos que passar um proces-
Determine a densidade espectral da potência de saída SY(f) e a
so de ruído branco estacionário por um integrador produzia um
autocorrelação de saída RY(t).
processo de saída não estacionário Y(t). Este exemplo infrin-
8.4 Um processo estacionário no sentido amplo X(t) com fun- ge o Teorema 2?
ção de autocorrelação
8.9 Considere que M(t) seja um processo aleatório estacionário
RX (τ ) = e− 4πτ . no sentido amplo com potência média E[M2(t)] = q e densidade
2
suplemento de processamento de sinais (sps)   49

espectral de potência SM(f ). A transformada de Hilbert de M(t) Observe que Y(t) = X(t) + N(t), em que N(t) é um processo
é M̂(t), um sinal obtido passando M(t) por um filtro linear in- estacionário no sentido amplo com função de densidade espec-
variante no tempo com resposta de frequência tral de potência SN(f) = 10–5. X(t) e N(t) são mutuamente in-
 dependentes.
− j f ≥ 0,
H(f ) = − jsgn (f ) =
j f < 0. (a) Qual é a função de transferência do filtro linear ótimo para
estimar X(t), dado Y(t)?
(a) Determine a densidade espectral de potência SM̂(t) e a po-
tência média q ̂ = E[M̂ (t)];
2
(b) Qual é o erro médio quadrático do filtro de estimativa
(b) Em um sistema de comunicações de banda lateral única, o ótimo?
sinal da banda lateral superior é 10.1 Para o filtro digital do Problema 2.6, gere 100 caminhos
̂ cos(2pf t + )
U(t) = M(t) de amostra Y0, . . ., Y500 supondo que os Xi sejam variáveis ale-
c
– M̂(t) sen(2pfct + ), atórias gaussianas (0, 1) iid e Y(0) = 0. Estime o valor esperado
e a variância de Yn para n = 5, n = 50 e n = 500.
em que Θ tem uma PDF uniforme sobre [0, 2π), indepen-
dente de M(t) e M̂(t). Qual é a potência média E[U2(t)]? 10.2 No programa fftc.m, o vetor n simplesmente man-
tém os elementos 0, 1, ..., N – 1. Por que ele é definido
8.10 Como representado a seguir, um processo gaussiano de como n=reshape(0:(N-1),size(R)) em vez de apenas
ruído branco W(t) com densidade espectral de potência SW(f ) = n=0:N-1?
10–15 W/Hz é passado por um modulador de fase aleatória para
produzir V(t). O processo V(t) então percorre um filtro passa- 10.3 A sequência aleatória gaussiana estacionária Xn tem va-
baixas (L(f ) é um filtro passa-baixas de ganho unitário ideal e lor esperado E[Xn] = 0 e função de autocorrelação RX[k] =
largura de banda B) para criar Y(t). cos(0,04πk). Use gaussvector para gerar e desenhar 10 cami-
nhos de amostra na forma X0, . . ., X99. O que você parece ob-
V(t) servar? Confirme sua suspeita calculando a DFT de 100 pontos
W(t) + L( f ) Y(t) em cada caminho de amostra.

10.4 O previsor de LMSE é a = RY–1RYX. Porém, a penúltima


cos( c ) linha de lmsepredictor.m não é a=inv(RY)*RYX. Por quê?

10.5 Xn é uma sequência aleatória estacionária no sentido am-


A fase aleatória Θ é considerada independente de W(t) e possui
plo com valor esperado mX = 0 e função de autocorrelação RX[k] =
uma distribuição uniforme sobre [0, 2π].
(–0,9)|k|. Suponha que
(a) Qual é a autocorrelação RW(t)?
rx=(-0.9).^(0:5)
(b) Qual é o valor de E[V(t)]?
Para quais valores de N
(c) Qual é a autocorrelação RV(t)? Simplifique ao máximo pos-
sível. a=lmsepredictor(rx,N)

(d) Y(t) é um processo estacionário no sentido amplo? produz o vetor de coeficiente â correto?

(e) Qual é a potência média de Y(t)? 10.6 Para o processo de tempo discreto Xn no Problema 2.2,
calcule uma aproximação para a densidade espectral de potên-
9.1 X(t) é um processo estocástico estacionário no sentido cia determinando a DFT da função de autocorrelação truncada
amplo, com mX = 0 e função de autocorrelação
r = [r− 100 r− 99 · · · r100 ] ,
RX(t) = sen(2pWt)/(2pWt).
em que rk = RX[k]. Compare a saída da sua DFT com a DTFT
Observe que Y(t) = X(t) + N(t), em que N(t) é um processo SX(f).
estacionário no sentido amplo, com função de densidade espec-
tral de potência SN(f) = 10–5 tal que X(t) e N(t) sejam mutua- 10.7 Para a sequência aleatória Xn definida no Problema 4.2,
mente independentes. determine o filtro h = [h0 . . . hM–1]’ do previsor linear ótimo
de Xn+1, dados Xn–M+1, . . ., Xn–1, . . ., Xn. Qual é o erro mé-
(a) Qual é a função de transferência do filtro linear ótimo para dio quadrático eL*(M) do previsor linear ótimo de M tomadas?
estimar X(t) dado Y(t)? Represente eL*(M) graficamente como uma função de M para
(b) Qual é a largura de banda de sinal máxima W Hz que pro- M = 1, 2, . . ., 10.
duz um erro médio quadrático mínimo eL* ≤ 0,04?
10.8 Para uma sequência estacionária no sentido amplo Xn
9.2 X(t) é um processo estocástico estacionário no sentido com valor esperado zero, estenda lmsepredictor.m para uma
amplo, com mX = 0 e função de autocorrelação função
RX (τ ) = e− 5000|τ | . function h = kpredictor(rx,M,k)
50   suplemento de processamento de sinais (sps)

que produz o vetor de filtro h do previsor linear ótimo de k de- (c) c = 0,9, d = 0,1;
graus de Xn+k, dada a observação
(d) c = 0,6, d = 10;
Yn = [Xn− M +1 · · · Xn− 1 Xn ] .
(e) c = 0,6, d = 1;
10.9 Continuando com o Problema 4.7 do previsor de ruído, (f) c = 0,6, d = 0,1.
gere caminhos de amostra de Xn e Xn̂ para n = 0, 1, . . ., 50 com
os seguintes parâmetros. Em cada experimento, use h = s = 1. Use a análise do Problema
4.7 para interpretar seus resultados.
(a) c = 0,9, d = 10;
(b) c = 0,9, d = 1;

Soluções de Testes

Solução do Teste 1

Pelo Teorema 2,
 ∞  ∞
µY = µ X h(t)dt = 2 e− t dt = 2. (1)
−∞ 0
Visto que RX(t) = d(t), a função de autocorrelação da saída é
 ∞  ∞
RY (τ ) = h(u) h(v)δ(τ + u − v) dv du
−∞

−∞

= h(u)h(τ + u) du. (2)


−∞
Para t > 0, temos
 ∞  ∞
1
RY (τ ) = e− u e− τ − u du = e− τ e− 2u du = e− τ . (3)
0 0 2
Para t < 0, podemos deduzir que RY(t) = ½e–|t| por simetria. Só por segurança, porém, podemos
verificar novamente. Para t < 0,
 ∞  ∞
1
RY (τ ) = h(u)h(τ + u) du = e− u e− τ − u du = eτ . (4)
−τ −τ 2

Logo,
1
RY (τ ) = e−| τ | . (5)
2

Solução do Teste 2

O valor esperado da saída é




µY = µ X hn = 0,5(1 + − 1) = 0. (1)
n=−∞
suplemento de processamento de sinais (sps)   51

A autocorrelação da saída é

1 
1
RY [n] = hi hj RX [n + i − j]
i=0 j=0

= 2RX [n] − RX [n − 1] − RX [n + 1]

1 n = 0, (2)
=
0 caso contrário.

Como mY = 0, a variância de Yn é Var[Yn] = E[Yn2] = RY[0] = 1.

Solução do Teste 3

Pelo Teorema 8, Y = [Y33 Y34 Y35] é um vetor aleatório gaussiano, pois Xn é um processo
∞ aleatório
gaussiano. Além do mais, pelo Teorema 5, cada Yn tem valor esperado E[Yn] = µX n=−∞ hn = 0.
Assim, E[Y] = 0. Para encontrar a PDF do vetor gaussiano Y, precisamos encontrar a matriz de
covariância CY, que é igual à matriz de correlação RY, pois Y tem valor esperado zero. Uma forma
de encontrar RY é observar que RY tem a estrutura de Toeplitz do Teorema 6 e usar o Teorema 5
para encontrar a função de autocorrelação

∞ 

RY [n] = hi hj RX [n + i − j] . (1)
i=−∞ j=−∞
Apesar do fato de que RX[k] é um impulso, o uso da Equação (1) é surpreendentemente tedioso, pois
ainda precisamos somar por todo i e j de modo que n + i – j = 0.
Neste problema, é mais simples observar que Y = HX, em que
 
X = X30 X31 X32 X33 X34 X35 (2)

e
 
1 1 1 1 0 0
1
H= 0 1 1 1 1 0 . (3)
4
0 0 1 1 1 1

Neste caso, seguindo o Teorema 7, ou aplicando diretamente o Teorema 8.8 com mX = 0 e A = H,


obtemos RY = HRXH. Como RX[n] = dn, RX = I, a matriz identidade. Assim,
 
4 3 2
1 3 4 3 .
CY = RY = HH = (4)
16
2 3 4

Segue-se (muito rapidamente, se você usar o Matlab para a inversão de matriz 3 × 3) que
 
7/12 − 1/2 1/12
C−Y1 = 16 − 1/2 1 − 1/2 . (5)
1/12 − 1/2 7/12

Assim, a PDF de Y é
 
1 1  −1
fY (y) = exp − y C Y y . (6)
(2π)3/2 [det (CY )]1/2 2
Um volume desagradável de álgebra mostrará que det(CY) = 3/1024 e que a PDF pode ser “sim-
plificada” para
 
16 exp − 8 12
7 2 2
y33 + y34 y − y33 y34 + 16 y33 y35 − y34 y35
7 2
+ 12
fY (y) = √35 . (7)
6π 3
52   suplemento de processamento de sinais (sps)

A Equação (7) mostra que um dos recursos mais interessantes da distribuição gaussiana multivaria-
da é que yCY– 1 y é uma representação bastante concisa dos termos cruzados no expoente de fY(y).

Solução do Teste 4

Este teste é resolvido usando o Teorema 9 para o caso de k = 1 e M = 2. Neste caso, Xn = [Xn–1 Xn] e
   
RX [0] RX [1] 1,1 0,9
RXn = E [Xn X n ] = = (1)
RX [1] RX [0] 0,9 1,1

e
  
RXn+1 Xn = E Xn+1 Xn− 1 Xn (2)
   
= RX [2] RX [1] = 0,81 0,9 .

O filtro MMSE linear de primeira ordem para prever Xn+1 no instante n é o filtro h tal que


h = RXn+1 Xn R−X1n
   
  1,1 0,9 − 1 81 261
= 0,81 0,9 = . (3)
0,9 1,1 400 400

Segue-se que o filtro é h = [261/400 81/400] e o previsor MMSE linear é
81 261
X̂n+1 = Xn− 1 + Xn . (4)
400 400
Para encontrar o erro médio quadrático, uma abordagem é seguir o método do Exemplo 13 e calcu-
lar diretamente
 
e∗L = E (Xn+1 − X̂n+1 )2 . (5)

Este método é funcional para este problema simples, mas torna-se cada vez mais tedioso para filtros
de ordem mais alta. Em vez disso, podemos derivar o erro médio quadrático para um filtro de pre-


visão qualquer h. Como X̂n+1 = h  Xn ,
 2 


e∗L = E Xn+1 − h  Xn
 −
← −
← 
= E (Xn+1 − h  Xn )(Xn+1 − h  Xn )
 −
← − 

= E (Xn+1 − h  Xn )(Xn+1 − Xn h ) (6)

Após alguma álgebra, obtemos
←− −
← ←−
e∗L = RX [0] − 2 h  RXn Xn+1 + h  RXn h . (7)

Com a substituição


h = R−X1n RXn Xn+1 , (8)

obtemos
e∗L = RX [0] − RXn Xn+1 R−X1n RXn Xn+1


= RX [0] − h  RXn Xn+1 . (9)


Observe que este é basicamente o mesmo resultado do Teorema 12.6 com Y = Xn, X = Xn+1 e â = h .
É importante observar que o resultado é derivado de uma maneira muito mais simples na prova do
Teorema 12.6, usando a propriedade de ortogonalidade do estimador LMSE.
suplemento de processamento de sinais (sps)   53

De qualquer forma, o erro médio quadrático é


←−
e∗L = RX [0] − h  RXn Xn+1
 
1   0,81 506
= 1,1 − 81 261 = = 0,3487. (10)
400 0,9 1451

Lembre-se de que a estimativa cega geraria um erro médio quadrático de Var[X] = 1.1; vemos que
observar Xn–1 e Xn melhora a acurácia da nossa previsão de Xn+1.

Solução do Teste 5

(a) Pelo Teorema 13(b), a potência média de X(t) é


 ∞  W
 2  5
E X (t) = SX (f ) df = df = 10 Watts. (1)
W
−∞ −W
(b) A função de autocorrelação é a transformada inversa de Fourier de SX(f). Consultando a
Tabela 1, observamos que
 
1 f
SX (f ) = 10 rect . (2)
2W 2W
x 10
8
Segue-se que a transformada inversa de SX(f) é
0,6 6
SX(f)

S (f)

0,4 4 sin(2πW τ )
(3)
X

RX (τ ) = 10 sinc(2W τ ) = 10 .
0,2 2 2πW τ
0 0
(c) Para W = 10 Hz−15e W
−10= −5
1 kHZ,
0 aqui
5 estão
10 15 os gráficos
−1500−1000de SX(f0) e500
−500 (t). 1500
RX1000
f f

x 10
10 8
0,6 5 6 5
RX(τ)
RX(τ)
SX(f)

S (f)

0,4 4 0
X

0
0,2 2
−5
0 −5 0 −2 −1 0 1 2
−15−0,2−10 −0,1
−5 0 0 5 0,1
10 15 0,2 −1500−1000 −500 0 500
τ 1000 1500 −3
f τ f x 10

(a) W = 10 10 (b) W = 1000


10

5 5
RX(τ)
RX(τ)

0 0

−5 −5
−0,2 −0,1 0 0,1 0,2 −2 −1 0 1 2
τ −3
τ x 10

(a) W = 10 (b) W = 1000

Solução do Teste 6

Em um sistema amostrado, o impulso de tempo discreto d[n] tem uma transformada de Fourier dis-
creta plana. Ou seja, se RX[n] = 10d[n], então


SX (φ) = 10δ[n]e− j2πφn = 10. (1)
n=−∞
Assim, RX[n] = 10d[n] (este teste está realmente fajuto).
54   suplemento de processamento de sinais (sps)

Solução do Teste 7

Visto que Y(t) = X(t – t0),


RXY (t, τ ) = E [X(t)Y (t + τ )]
= E [X(t)X(t + τ − t0 )]
= RX (τ − t0 ). (1)

Vemos que RXY(t, t) = RXY(t) = RX(t – t0). Pela Tabela 1, relembramos a propriedade de que
g(t – t0) tem transformada de Fourier G(f)e–j2πft0. Assim, a transformada de Fourier de

RXY (τ ) = RX (τ − t0 ) = g(τ − t0 ) (2)

SXY (f ) = SX (f ) e− j2πf t0 . (3)

Solução do Teste 8

Resolvemos este teste usando o Teorema 17. Primeiro, precisamos de alguns fatos preliminares.
Considere que a0 = 5.000, de modo que
1
RX (τ ) = a0 e− a0 |τ | . (1)
a0
Consultando com as transformadas de Fourier na Tabela 1, vemos que
1 2a20 2a0
SX (f ) = 2
= 2 . (2)
a0 a0 + (2πf )2 a0 + (2πf )2

O filtro RC tem resposta ao impulso h(t) = a1e–a1t u(t), em que u(t) é a função de degrau unitário e
a1 = 1/RC, em que RC = 10–4 é a constante de tempo do filtro. Pela Tabela 1,
a1
H(f ) = . (3)
a1 + j2πf

(a) Pelo Teorema 17,


2a0 a1
SXY (f ) = H(f )SX (f ) = . (4)
[a1 + j2πf ] [a20 + (2πf )2 ]

(b) Novamente pelo Teorema 17,


SY (f ) = H ∗ (f )SXY (f ) = |H(f )|2 SX (f ) . (5)

Observe que,
|H(f )|2 = H(f )H ∗ (f )
a1 a1
=
(a1 + j2πf ) (a1 − j2πf )
a21
= 2 . (6)
a1 + (2πf )2
Assim,
SY (f ) = |H(f )|2 SX (f )
2a0 a21
= 2 . (7)
[a1 + (2πf )2 ] [a20 + (2πf )2 ]
suplemento de processamento de sinais (sps)   55

(c) Para encontrar


∞
a potência média na saída do filtro, podemos ou usar o cálculo básico e cal-
cular −∞ SY (f ) df diretamente ou podemos encontrar RY(t) como uma transformada inversa
de SY(f ). Usando frações parciais e a tabela de transformada de Fourier, o último método na
realidade tem menos álgebra. Em particular, um pouco de álgebra mostrará que
K0 K1
SY (f ) = + (8)
a20 + (2πf )2 a1 + (2πf )2

em que
2a0 a21 − 2a0 a21
K0 = , K1 = . (9)
a21 − a20 a21 − a20

Assim,
K0 2a20 K1 2a21
SY (f ) = 2 2
+ 2
. (10)
2a0 a0 + (2πf )2 2a1 a1 + (2πf )2

Consultando a Tabela 1, vemos que


K0 K1
RY (τ ) = a0 e− a0 |τ | + 2 a1 e− a1 |τ | (11)
2a20 2a1
Substituindo os valores de K0 e K1, obtemos
a21 e− a0 |τ | − a0 a1 e− a1 |τ |
RY (τ ) = . (12)
a21 − a20
A potência média do processo Y(t) é
a1 2
RY (0) = = . (13)
a1 + a0 3

Observe que o sinal de entrada tem potência média RX(0) = 1. Como o filtro RC tem uma largura
de banda de 3 dB de 10.000 rad/s e o sinal X(t) tem a maior parte de sua energia de sinal abaixo
de 5.000 rad/s, o sinal de saída tem quase tanta potência quanto a entrada.

Solução do Teste 9

Este teste implementa um exemplo das Equações (137) e (138)  para um sistema no qual filtramos
Y(t) = X(t) + N(t) para produzir uma estimativa linear ótima de X(t). A solução deste teste é ape-
nas encontrar o filtro Ĥ(f ) usando a Equação (137) e calcular o erro médio quadrático eL* usando a
Equação (138).

Comentário: Como o texto omitiu as derivações das Equações (137) e (138), observamos que o
Exemplo 13.24 mostrou que

RY (τ ) = RX (τ ) + RN (τ ), RY X (τ ) = RX (τ ). (1)

Tomando transformadas de Fourier, segue-se que

SY (f ) = SX (f ) + SN (f ) , SY X (f ) = SX (f ) . (2)

Agora, podemos prosseguir para o teste, com as derivações.


(a) Visto que mN = 0, RN(0) = Var[N] = 1. Isto implica
 ∞  B
RN (0) = SN (f ) df = N0 df = 2N0 B. (3)
−∞ −B
56   suplemento de processamento de sinais (sps)

Assim, N0 = 1/(2B). Como o processo de ruído N(t) tem potência constante RN(0) = 1, di-
minuir a largura de banda B de único lado aumenta a densidade espectral de potência do
ruído pelas frequências |f | < B.
(b) Visto que RX(t) = sinc(2Wt), onde W = 5.000 Hz, vemos pela Tabela 1 que
 
1 f
SX (f ) = 4 rect . (4)
10 104

A densidade espectral de potência do ruído pode ser escrita como


   
f 1 f
SN (f ) = N0 rect = rect , (5)
2B 2B 2B

Pela Equação (137), o filtro ótimo é



SX (f ) 1
rect 10f 4
Ĥ(f ) = = 1
104
f
 1 f
. (6)
SX (f ) + SN (f ) rect + 2B rect
104 104 2B

(c) Produzimos a saída X(t) passando o sinal de ruído Y(t) através do filtro Ĥ(f). Pela Equação
̂
(138), o erro médio quadrático da estimativa é
 ∞
SX (f ) SN (f )
e∗L = df
−∞ SX (f ) + SN (f )
 ∞ 1  
rect 10f 4 2B
1 f
rect 2B
= 104
1 f
 1 f
 df. (7)
−∞ 104 rect 104 + 2B rect 2B

Para avaliar a MSE eL*, precisamos saber se B ≤ W. Como o problema nos pede para encon-
trar o maior B possível, vamos supor que B ≤ W. Podemos voltar e considerar o caso B >
W mais tarde. Quando B ≤ W, a MSE é
 B 1 1 1
1
e∗L = 1
104 2B
1 df = 1
104
1 =
(8)
− B 104 + 2B 104
+ 2B 1 + 5,000
B

Para obter a MSE eL* ≤ 0,05 é preciso que B ≤ 5.000/19 = 263,16 Hz.
Embora isto conclua a solução do teste, o que está acontecendo pode não ser óbvio. A potência
de ruído é sempre Var[N] = 1 Watt, para todos os valores de B. Enquanto B diminui, a PSD SN(f )
torna-se cada vez mais alta, mas somente por uma largura de banda B que está diminuindo. Assim,
quando B diminui, o filtro Ĥ(f ) faz uma fenda cada vez mais profunda e estreita nas frequências
|f| ≤ B. Aqui estão dois exemplos do filtro H(f ).

1 1
H(f)

H(f)

0,5 0,5

0 0
−5000 −2000 0 2000 5000 −5000 −2000 0 2000 5000
f f
B = 500 B = 2500

Quando B encolhe, o filtro suprime menos do sinal de X(t). O resultado é que a MSE diminui. Por
fim, observamos que podemos escolher B com um valor muito grande e também alcançar uma MSE
eL* = 0,05. Em particular, quando B > W = 5000, SN(f ) = 1/2B pelas frequências |f | < W. Neste
caso, o filtro Wiener Ĥ(f ) é um filtro passa-baixas ideal (plano)
 1
 104 |f | < 5,000,
(9)
1 1
Ĥ(f ) = 104 + 2B
0 caso contrário.

suplemento de processamento de sinais (sps)   57

Assim, aumentar B espalha o 1 watt de potência constante de N(t) por mais largura de banda. O
filtro de Wiener remove o ruído que está fora da banda do sinal desejado. O erro médio quadrático é
 5000 1 1 1
1
e∗L = 1
104 2B
1 df = 1
2B
1 = B . (10)
− 5000 104 + 2B 104
+ 2B 5000
+1

Neste caso, B ≥ 9,5 × 104 garante eL* ≤ 0,05.

Solução do Teste 10

É muito simples encontrar SX(f) e SY(f). A única coisa a ter em mente é usar fftc para transformar
a autocorrelação RX[f ] na densidade espectral de potência SX(f). O programa em Matlab a seguir

%mquiz11.m
N=32;
%autocorrelação e PSD
rx=[2 4 2]; SX=fftc(rx,N);
stem(0:N-1,abs(sx));
xlabel(’n’);ylabel(’S_X(n/N)’);
%resposta de impulso/filtro: M=2
h2=0.5*[1 1]; H2=fft(h2,N);
SY2=SX.* ((abs(H2)).^2);
figure; stem(0:N-1,abs(SY2)); %PSD of Y for M=2
xlabel(’n’);ylabel(’S_{Y_2}(n/N)’);
%resposta de impulso/filtro: M=10
h10=0.1*ones(1,10); H10=fft(h10,N);
SY10=sx.*((abs(H10)).^2);
figure; stem(0:N-1,abs(SY10));
xlabel(’n’);ylabel(’S_{Y_{10}}(n/N)’);

gera e representa gráficos de SX(f), SY(n/N) para M = 2, e Sf(n/N) para M = 10 usando uma DFT
com N = 32 pontos.

10
SX(n/N)

0
0 5 10 15 20 25 30 35
n
10
S (n/N)

5
2
Y

0
0 5 10 15 20 25 30 35
n

10
(n/N)

5
10
Y
S

0
0 5 10 15 20 25 30 35
n
58   suplemento de processamento de sinais (sps)

Em relação a M = 2, quando M = 10, o filtro H(f) remove quase todos os componentes de alta fre-
quência de X(t). No contexto do Exemplo 26, o filtro de média móvel passa-baixas para M = 10 re-
move os componentes de alta frequência e resulta em uma saída de filtro que varia muito lentamente.
Como um aparte, observe que os vetores SX, SY2 e SY10 em mquiz11 devem ser todos vetores
com valor real. Porém, a precisão numérica finita do Matlab resulta em partes imaginárias minúscu-
las. Embora essas partes imaginárias não tenham significado computacional, elas tendem a confun-
dir a função stem. Logo, geramos gráficos de hastes com a magnitude de cada densidade espectral
de potência.

Soluções de Problemas

Solução do Problema 1.1

Para este problema, é mais fácil trabalhar com o operador de expectativa. A função de média da
saída é

E [Y (t)] = 2 + E [X(t)] = 2. (1)

A autocorrelação da saída é
RY (t, τ ) = E [(2 + X(t)) (2 + X(t + τ ))]
= E [4 + 2X(t) + 2X(t + τ ) + X(t)X(t + τ )]
= 4 + 2 E [X(t)] + 2 E [X(t + τ )] + E [X(t)X(t + τ )]
= 4 + RX (τ ). (2)

Vemos que RY(t, t) só depende da diferença de tempo t. Assim, Y(t) é estacionário no sentido
amplo.

Solução do Problema 1.3

Pelo Teorema 2, a média da saída é


 ∞  ∞
∞
µY = µ X h(t) dt = 4 e− t/a dt = − 4ae− t/a 0 = 4a. (1)
−∞ 0
Como mY = 1 = 4a, devemos ter a = 1/4.

Solução do Problema 2.1

(a) Observe que




1 1 1
Yi = hn Xi− n = Xi+1 + Xi + Xi− 1 . (1)
3 3 3
n=−∞
Combinando os coeficientes, vemos que

1/3 n = − 1, 0, 1,
hn = (2)
0 caso contrário

suplemento de processamento de sinais (sps)   59

(b) Pelo Teorema 5, a autocorrelação de saída é



∞ 

RY [n] = hi hj RX [n + i − j]
i=−∞ j=−∞

1 
1 1
= RX [n + i − j]
9 i=− 1 j=− 1
1
= RX [n + 2] + 2RX [n + 1] + 3RX [n]
9 
+ 2RX [n − 1] + RX [n − 2] . (3)

Substituindo em RX[n], o resultado é


 1/3 n = 0,

 2/9 |n| = 1,
RY [n] = (4)

 1/9 |n| = 2,


0 caso contrário.

Solução do Problema 2.3

(a) Pelo Teorema 5, o valor esperado da saída é




µW = µ Y hn = 2µY = 2. (1)
n=−∞
(b) O Teorema 5 também diz que a autocorrelação de saída é

∞ 

RW [n] = hi hj RY [n + i − j]
i=−∞ j=−∞


1 
1
= RY [n + i − j]
i=0 j=0

= RY [n − 1] + 2RY [n] + RY [n + 1] . (2)

Para n = –3.

RW [− 3] = RY [− 4] + 2RY [− 3] + RY [− 2] = RY [− 2] = 0,5. (3)

Seguindo o mesmo procedimento, é fácil mostrar que RW[n] é diferente de zero para |n| = 0,
1, 2. Especificamente,


 0,5 |n| = 3,



 |n| = 2,
3
RW [n] = 7,5 |n| = 1, (4)



 10 n = 0,


0 caso contrário.

(c) O segundo momento da saída é E[Wn2] = RW[0] = 10. A variância de Wn é
 

Var[Wn ] = E Wn2 − (E [Wn ])2 = 10 − 22 = 6.
(5)

(d) Esta parte não requer nenhuma probabilidade. Ela apenas verifica seu conhecimento de sis-
temas lineares e convolução. Há muita confusão, pois hn é usado para indicar tanto o filtro
que transforma Xn em Yn quanto o filtro que transforma Yn em Wn. Para evitar confusão,
60   suplemento de processamento de sinais (sps)

usaremos ĥn para indicar o filtro que transforma Xn em Yn. Usando a Equação (22) para
convolução de tempo discreto, podemos escrever

∞ 

Wn = hj Yn− j , Yn− j = ĥi Xn− j− i . (6)
j=−∞ i=−∞
Combinando essas equações, obtemos

∞ 

Wn = hj ĥi Xn− j− i . (7)
j=−∞ i=−∞
Para cada j, fazemos a substituição k = i + j, e depois revertemos a ordem de somatório
para obter
 ∞ 
∞ ∞ ∞ 
Wn = hj ĥk− j Xn− k = hj ĥk− j Xn− k . (8)
j=−∞ k=−∞ k=−∞ j=−∞
Assim, vemos que


gk = hj ĥk− j . (9)
j=−∞
Ou seja, o filtro gn é a convolução dos filtros hn̂ e hn.
No contexto do nosso problema em particular, o filtro hn̂ que transforma Xn em Yn é dado
no Exemplo 5. Os dois filtros são
       
ĥ = ĥ0 ĥ1 = 1/2 1/2 , h = h0 h 1 = 1 1 . (10)

Lembre-se de que hn = hn̂ = 0 para n < 0 ou n > 1. Pela Equação (9),


 1/2 k = 0,

1 k = 1,
gk = ĥk + ĥk− 1 = (11)

 1/2 k = 2,


0 caso contrário.

Solução do Problema 2.5

Começamos com o Teorema 5.



∞ 

RY [n] = hi hj RX [n + i − j]
i=−∞ j=−∞

= RX [n − 1] + 2RX [n] + RX [n + 1] . (1)

Primeiro, observamos que, para n ≤ –2 ou n ≥ 2,

RY [n] = RX [n − 1] + 2RX [n] + RX [n + 1] = 0. (2)

Isso sugere que RX[n] = 0 para |n| > 1. Além disso, temos os seguintes fatos:
RY [0] = RX [− 1] + 2RX [0] + RX [1] = 2, (3)
RY [− 1] = RX [− 2] + 2RX [− 1] + RX [0] = 1, (4)
RY [1] = RX [0] + 2RX [1] + RX [2] = 1. (5)
Uma solução simples para este conjunto de equações é RX[0] = 1 e RX[n] = 0 para n ≠ 0.
suplemento de processamento de sinais (sps)   61

Solução do Problema 2.7

Há uma dificuldade técnica com este problema, pois Xn não é definido para n < 0. Isso implica que
CX[n, k] não é definido para k < –n e assim CX[n, k] não pode ser completamente independente de
k. Quando n é grande, correspondente a um processo que esteve rodando por um longo tempo, essa
é uma questão técnica, e não uma preocupação prática. Em vez disso, encontraremos s– 2 tal que
CX[n, k] = CX[k] para todo n e k para os quais a função de covariância está definida. Para fazer isso,
precisamos expressar Xn em termos de Z0, Z1, . . . , Zn1. Fazemos isso da seguinte maneira:
Xn = cXn− 1 + Zn− 1
= c[cXn− 2 + Zn− 2 ] + Zn− 1
= c2 [cXn− 3 + Zn− 3 ] + cZn− 2 + Zn− 1
..
.
= cn X0 + cn− 1 Z0 + cn− 2 Z2 + · · · + Zn− 1

n− 1
= cn X0 + cn− 1− i Zi . (1)
i=0
Visto que E[Zi] = 0, a função média do processo Xn é

n− 1
E [Xn ] = cn E [X0 ] + cn− 1− i E [Zi ] = E [X0 ] . (2)
i=0
Assim, para que Xn seja um processo de média zero, é preciso que E[X0] = 0. A função de autocor-
relação pode ser escrita como
RX [n, k]
= E [Xn Xn+k ]
  

n− 1 1
n+k−
=E n
c X0 + c n− 1− i
Zi c n+k
X0 + c n+k− 1− j
Zj . (3)
i=0 j=0
Embora não seja afirmado no problema, vamos supor que X0 seja independente de Z0, Z1, . . . de
modo que E[X0Zi] = 0. Visto que E[Zi] = 0 e E[ZiZj] = 0 para i ≠ j, a maior parte dos termos cru-
zados será removida. Para k ≥ 0, a autocorrelação é simplificada para

n− 1
RX [n, k] = c2n+k Var[X0 ] + c2(n− 1)+k− 2i) σ̄ 2
i=0
1 − c2n
= c2n+k Var[X0 ] + σ̄ 2 ck . (4)
1 − c2
Como E[Xn] = 0, Var[X0] = RX[n, 0] = s2, podemos escrever, para k ≥ 0,
k
 
2 c σ̄ 2
RX [n, k] = σ̄ +c 2n+k
σ −
2
. (5)
1 − c2 1 − c2

62   suplemento de processamento de sinais (sps)

Para k < 0, temos


  

n− 1 1
n+k−
n n− 1− i n+k n+k− 1− j
RX [n, k] = E c X0 + c Zi c X0 + c Zj
i=0 j=0

1
n+k−
= c2n+k Var[X0 ] + c− k c2(n+k− 1− j) σ̄ 2
j=0

1 − c2(n+k)
= c2n+k σ 2 + σ̄ 2 c− k
1 − c2
 
σ̄ 2 − k σ̄ 2
= c + c 2n+k
σ 2
− . (6)
1 − c2 1 − c2
Vemos que RX[n, k] = s2c|k| escolhendo

σ̄ 2 = (1 − c2 )σ 2 . (7)

Solução do Problema 3.1

Visto que o processo Xn tem valor esperado E[Xn] = 0, sabemos que

CX (k) = RX (k) = 2−| k| . (1)

Assim, X = [X1 X2 X3] tem matriz de covariância


 0   
2 2− 1 2− 2 1 1/2 1/4
CX = 2− 1 20 2− 1  = 1/2 1 1/2. (2)
2− 2 2− 1 20 1/4 1/2 1

Pela Definição 8.12, a PDF de X é


 
1 1  −1
fX (x) = exp − x C X x . (3)
(2π)n/2 [det (CX )]1/2 2
Se estivermos usando o Matlab para cálculos, é melhor declarar o problema resolvido neste ponto.
Porém, se você gosta de álgebra, podemos escrever a PDF em termos das variáveis x1, x2 e x3. Para
fazer isso, descobrimos que a matriz de covariância inversa é
 
4/3 − 2/3 0
C−X1 = − 2/3 5/3 − 2/3. (4)
0 − 2/3 4/3
Um pouco de álgebra mostrará que det(CX) = 9/16 e que
1  −1 2x2 5x2 2x2 2x1 x2 2x2 x3
x CX x = 1 + 2 + 3 − − . (5)
2 3 6 3 3 3
Segue-se que
 
4 2x21 5x22 2x23 2x1 x2 2x2 x3
fX (x) = exp − − − + + . (6)
3(2π)3/2 3 6 3 3 3

Solução do Problema 3.3

A sequência Xn é passada pelo filtro


   
h = h 0 h 1 h 2 = 1 − 1 1 . (1)
suplemento de processamento de sinais (sps)   63

A sequência de saída é Yn. Seguindo o método da Equação (54), podemos escrever a saída Y = [Y1
Y2 Y3] como
 
    X− 1
Y1 h 2 h1 h0 0 0  
 X0 
Y =  Y 2  =  0 h2 h 1 h 0 0   X
 1
 (2)
Y3 0 0 h2 h1 h0  X2 
X3

Substituindo nos valores de filtro h = [h0 h1 h2] = [1 –1 1], temos


 
  X− 1
1 −1 1 0 0   X0 

Y = 0 1 − 1 1 0    X 1
.
 (3)
0 0 1 −1 1  X2 
   X
3
H
  
X
Como Xn tem função de autocovariância CX(k) = 2–|k|, X tem matriz de covariância
 
1 1/2 1/4 1/8 1/16
 1/2 1 1/2 1/4 1/8 
 
CX =   1/4 1/2 1 1/2 1/4  . (4)
 1/8 1/4 1/2 1 1/2 
1/16 1/8 1/4 1/2 1
Como Y = HX,
 
3/2 − 3/8 9/16
CY = HCX H = − 3/8 3/2 − 3/8 . (5)
9/16 − 3/8 3/2

Algum cálculo (de preferência pelo Matlab) mostrará que det(CY) = 675/256 e que
 
12 2 −4
1 
C−Y1 = 2 11 2 . (6)
15
−4 2 12

Um pouco de álgebra mostrará que
12y12 + 11y22 + 12y32 + 4y1 y2 + − 8y1 y3 + 4y2 y3
y C−Y1 y = . (7)
15
Isso implica que Y tem PDF
 
1 1  −1
fY (y) = exp − y CY y
(2π)3/2 [det (CY )]1/2 2
 
12y12 +11y22 +12y32 +4y1 y2 +− 8y1 y3 +4y2 y3
16 exp − 30
= √ . (8)
(2π)3/2 15 3
Esta solução é outra demonstração do motivo pelo qual a PDF de um vetor aleatório gaussiano de-
verá ser deixado em forma de vetor.

Comentário: Sabemos, pelo Teorema 5, que Yn é um processo gaussiano estacionário. Como re-
sultado, as variáveis aleatórias Y1, Y2 e Y3 são distribuídas identicamente e CY é uma matriz de
Toeplitz simétrica. Isso pode fazer com que se pense que a PDF fY(y) deverá ser simétrica nas
variáveis y1, y2 e y3. Porém, como Y2 está no meio de Y1 e Y3, a transformação oferecida por Y1 e
Y3 sobre Y2 é diferente da informação que Y1 e Y2 transmitem sobre Y3. Esse fato aparece como
assimetria em fY(y).
64   suplemento de processamento de sinais (sps)

Solução do Problema 4.1

(a) Como tanto Xn quanto Zn têm valor esperado zero, Xn̂ = aYn para a escolha ótima de a.
Poderíamos derivar o a ótimo a partir dos primeiros princípios, ou poderíamos aplicar nossa
fórmula estimadora de LMSE

X̂n = RXn Yn RY−n1 Yn . (1)

Neste caso, todos os termos são simplesmente escalares. Em particular,


1 3
RYn = Var[Yn ] = Var[Xn ] + Var[Zn ] = 1 + = (2)
2 2
e
 
RXn Yn = E [Xn Yn ] = E [Xn (Xn + Zn )] = E Xn2 = 1. (3)

Segue-se que
2
X̂n = Yn . (4)
3

(b) Pelos primeiros princípios, o erro médio quadrático é


 
e0 = E (X̂n − Xn )2
 2   2 
2 2
=E Yn − Xn =E (Xn + Zn ) − Xn . (5)
3 3

Simplificando e depois expandindo o quadrado, descobrimos que
 2 
1 2
e0 = E − Xn + Zn
3 3
   
1 2 4 4 2 1 4 1 1
= E Xn − Xn Zn + Zn = + = . (6)
9 9 9 9 9 2 3

(c) Visto que Xn̂ = (2/3)Xn + (2/3)Zn é a soma de variáveis aleatórias gaussianas independentes,
sabemos que X̂ é gaussiano. Além do mais,
n

  2
E X̂n = (E [Xn ] + E [Zn ]) = 0, (7)
3
4 4 2
Var[X̂n ] = Var[Xn ] + Var[Zn ] = . (8)
9 9 3
Visto que Xn̂ é gaussiano, ele tem PDF

1 3 − 3x2 /4
fX̂n (x) =  e − x2 /[2(2/3)]
= e . (9)
2π(2/3) 4π

(d) Visto que Xn, Zn, Yn e Xn são todos gaussianos em conjunto, a estimativa LMSE de Xn̂ é
̂
igual ao valor esperado condicional E[Xn Yn]. Ou seja, E[Xn Yn] = Xn̂ = 2Yn/3.
suplemento de processamento de sinais (sps)   65

Solução do Problema 4.3

(a)
α = CX [1] = Cov [Xn , Xn+1 ]

= ρXn ,Xn+1 Var [Xn ] Var [Xn+1 ]
= ρXn ,Xn+1 CX (0) = ρXn ,Xn+1. (1)

Assim, |α| ≤ 1.
(b) Aqui, podemos usar a fórmula estimadora de MMSE linear com a entrada escalar Yn.

X̂n = RXn Yn R−Yn1 Yn . (2)



Visto que Yn = Xn + Wn,
RXn Yn = E [Xn Yn ] = E [Xn (Xn + Wn )]
 
= E Xn2 + E [Xn ] E [Wn ] = CX [0] = 1 (3)

e
   
RYn = E Yn2 = E (Xn + Wn )2
 2  
= E Xn + 2 E [Xn Wn ] + E Wn2
= CX [0] + 0 + 1 = 2. (4)

Isto implica X̂n = Yn/2.
(c) Aqui, usamos a fórmula estimadora da MMSE linear com a entrada de vetor Yn.

X̂n = RXn Yn R−Y1n Yn . (5)

Visto que Yn = Xn + Wn e Yn = [Yn Yn–1],


RXn Yn = E [Xn Yn ]
  
= E Xn Yn Yn− 1
 
= E [Xn Yn ] E [Xn Yn− 1 ]
 
= (E [Xn2 ] + E [Xn ] E [Wn ]) (E [Xn Xn− 1 ] + E [Xn Wn− 1 ])
 
= RX [0] RX [1]
 
= 1 α . (6)

Além disso,
RYn = E [Yn Yn ]
  
X n + Wn  
=E (Xn + Wn ) (Xn− 1 + Wn− 1 )
Xn− 1 + Wn− 1
 
E [Xn2 ] + E [Wn2 ]  E [X
 n Xn−1 ] 
= 2 2
E [Xn− 1 Xn ] E Xn− 1 + E Wn− 1
 
2 α (7)
= .
α 2
Definindo os vetores Xn = [Xn Xn–1] e Wn = [Wn Wn–1], podemos simplificar o cálculo em
(7). Como Yn = Xn + Wn e Xn e Wn são independentes e têm valor esperado zero, temos
uma situação idêntica àquela da Equação (76). Seguindo as etapas que vêm após a Equação
(76), obtemos
RYn = RXn + RWn (8)
     
1 α 1 0 2 α
= + = .
α 1 0 1 α 2

66   suplemento de processamento de sinais (sps)

Não importa o modo como você calcula RYn, isto implica

X̂n = RXn Yn R−Y1n Yn


  
  1 2 −α Yn
= 1 α
4 − α2 − α 2 Yn− 1
2 − α2 α
= Yn + Yn− 1 . (9)
4 − α2 4 − α2
Observe que, à medida que a se aproxima de zero, a contribuição da amostra anterior Yn–1
vai para zero.

Solução do Problema 4.5

Este problema generaliza o Exemplo 14 porque – 0,9 é substituído pelo parâmetro c e a variân-
cia de ruído 0,2 é substituída por h2. Como só estamos determinando o filtro de primeira ordem
h = [h0 h1], é relativamente simples generalizar a solução do Exemplo 14 para os valores de parâ-
metro c e h2.
Com base ← − observação Y = [Yn–1 Yn], o Teorema 11 declara que a estimativa MMSE linear
na
de X = Xn é h  Y, em que


h = RXn Y R−Y1 = RXn Xn (RXn + RWn )− 1 . (1)

Pela Equação (80),


   
RXn Xn = RX [1] RX [0] = c 1 . (2)

Pelo enunciado do problema,
   2   
1 c η 0 1 + η2 c
R X n + RW n = + = . (3)
c 1 0 η2 c 1 + η2

Isso implica
 − 1
− 
←  1 + η2 c
h = c 1
c 1 + η2
 
  1 1 + η2 −c
= c 1
(1 + η 2 )2 − c2 −c 1 + η2
 
cη 2 1 + η 2 − c2
= . (4)
(1 + η 2 )2 − c2 (1 + η 2 )2 − c2
Para encontrar o erro médio quadrático desse previsor, relembramos que o Teorema 11 é apenas o
Teorema 12.6 expresso na terminologia dos filtros. Expressar a parte (c) do Teorema 12.6 em termos
do filtro de estimativa linear h, o erro médio quadrático do estimador é


e∗L = Var[Xn ] − h  RYn Xn


= Var[Xn ] − h  RXn Xn
 
←− c
= RX [0] − h
1
c η + η + 1 − c2
2 2 2
=1− . (5)
(1 + η 2 )2 − c2

Observe que sempre descobrimos que eL* < Var[Xn] = 1 simplesmente porque o estimador ótimo não
pode ser pior do que o estimador cego, que ignora a observação Yn.
suplemento de processamento de sinais (sps)   67

Solução do Problema 4.7

Este problema envolve tanto a estimativa linear quanto a previsão, pois estamos usando Yn–1, a ob-
servação com ruído de Xn–1 para estimar o valor futuro Xn. Assim, não podemos seguir as receitas
prontas do Teorema 9 ou do Teorema 11. Em vez disso, voltamos ao Teorema 12.3 para encontrar o
estimador linear do erro médio quadrático mínimo. Nesse teorema, Xn e Yn–1 desempenham os papéis
de X e Y. Ou seja, nossa estimativa X̂n de Xn é

X̂n = X̂L (Yn− 1 )


 1/2
Var[Xn ]
= ρXn ,Yn− 1 (Yn− 1 − E [Yn− 1 ]) + E [Xn ] . (1)
Var[Yn− 1 ]
Pela aplicação recursiva de Xn = cXn–1 + Zn–1, obtemos

n
X n = an X 0 + aj− 1 Zn− j . (2)
j=1
O valor esperado de Xn é

n
E [Xn ] = an E [X0 ] + aj− 1 E [Zn− j ] = 0. (3)
j=1

A variância de Xn é

n
Var[Xn ] = a2n Var[X0 ] + [aj− 1 ]2 Var[Zn− j ]
j=1

n
= a2n Var[X0 ] + σ 2 [a2 ]j− 1 . (4)
j=1

Visto que Var[X0] = s 2(1 – c2), obtemos
c2n σ 2 σ 2 (1 − c2n ) σ2
Var[Xn ] = + = . (5)
1 − c2 1 − c2 1 − c2
Observe que E[Yn–1] = d E[Xn–1] + E[Wn] = 0. A variância de Yn–1 é
Var[Yn− 1 ] = d2 Var[Xn− 1 ] + Var[Wn ]
d2 σ 2 (6)
= + η2.
1 − c2
Visto que Xn e Yn–1 têm média zero, a covariância de Xn e Yn–1 é
Cov [Xn , Yn− 1 ] = E [Xn Yn− 1 ]
= E [(cXn− 1 + Zn− 1 ) (dXn− 1 + Wn− 1 )] . (7)

Pelo enunciado do problema, descobrimos que


E[Xn− 1 Wn− 1 ] = 0 E[Xn− 1 ] E[Wn− 1 ] = 0,
E[Zn− 1 Xn− 1 ] = 0 E[Zn− 1 Wn− 1 ] = 0.

Logo, a covariância de Xn e Yn–1 é

Cov [Xn , Yn− 1 ] = cd Var[Xn− 1 ]. (8)

O coeficiente de correlação de Xn e Yn–1 é


Cov [Xn , Yn− 1 ]
ρXn ,Yn− 1 =  . (9)
Var[Xn ] Var[Yn− 1 ]

68   suplemento de processamento de sinais (sps)

Visto que E[Yn–1] e E[Xn] são zero, o previsor linear para Xn torna-se
 1/2
Var[Xn ]
X̂n = ρXn ,Yn− 1 Yn− 1
Var[Yn− 1 ]
Cov [Xn , Yn− 1 ]
= Yn− 1
Var[Yn− 1 ]
cd Var[Xn− 1 ]
= Yn− 1 . (10)
Var[Yn− 1 ]
Substituindo o resultado acima para Var[Xn], obtemos o previsor linear ótimo Xn dado Yn–1.
c 1
X̂n = Yn− 1 , (11)
d 1 + β (1 − c2 )
2

em que b2 = h 2/(d 2s 2). Pelo Teorema 12.3, o erro de estimativa médio quadrático na etapa n
 
e∗L (n) = E (Xn − X̂n )2
 1 + β2
= Var[Xn ] 1 − ρ2Xn ,Yn− 1 = σ 2 . (12)
1 + β 2 (1 − c2 )

Vemos que o erro de estimativa médio quadrático eL*(n) = eL*, uma constante para todo n. Além dis-
so, eL* é uma função crescente b.

Solução do Problema 5.1

Para usar a Tabela 1, escrevemos RX(t) em termos da autocorrelação


sin(πx)
sinc(x) = . (1)
πx
Em termos da função sinc(⋅), obtemos

RX (τ ) = 10 sinc(2000τ ) + 5 sinc(1000τ ). (2)

Pela Tabela 1,
   
10 f 5 f
SX (f ) = rect + rect . (3)
2,000 2000 1,000 1,000

Aqui está um gráfico da PSD:

0,012
0,01
0,008
SX(f)

0,006
0,004
0,002
0
−1500 −1000 −500 0 500 1000 1500
f
suplemento de processamento de sinais (sps)   69

Solução do Problema 6.1

Visto que a sequência aleatória Xn tem função de autocorrelação

RX [k] = δk + (0,1)|k| , (1)

podemos encontrar a PSD diretamente pela Tabela 3 com 0,1|k| correspondendo a a|k|. A tabela re-
sulta em
1 − (0,1)2
SX (φ) = 1 +
1 + (0,1)2 − 2(0,1) cos 2πφ
2 − 0,2 cos 2πφ (2)
= .
1,01 − 0,2 cos 2πφ

Solução do Problema 7.1

Primeiro, mostramos que SY X(f ) = SX Y(–f ). Pela definição da densidade espectral cruzada,
 ∞
SY X (f ) = RY X (τ )e− j2πf τ dτ. (1)
−∞
Fazer a substituição t = –t resulta em
 ∞
(2)

SY X (f ) = RY X (− τ  )ej2πf τ dτ  .
−∞
Pelo Teorema 13.14, RY X(–t) = RX Y(t). Isto implica
 ∞
RXY (τ  )e− j2π(− f )τ dτ  = SXY (− f ). (3)

SY X (f ) =
−∞
Para completar o problema, precisamos mostrar que SXY(–f ) = [SXY(f )]. Primeiro, observamos que,
como RX Y(t) tem valor real, [RXY(t)]* = RXY(t). Isto implica
 ∞
[SXY (f )]∗ = [RXY (τ )]∗ [e− j2πf τ ]∗ dτ
−∞
 ∞
= RXY (τ )e− j2π(− f )τ dτ
−∞

= SXY (− f ) . (4)

Solução do Problema 8.1

Considere que a = 1/RC. A solução para este problema é semelhante ao Exemplo 22.
(a) Pela Tabela 1, observamos que
2 · 104 1
SX (f ) = , H(f ) = . (1)
(2πf )2 + 104 a + j2πf

Pelo Teorema 16,


2 · 104
SY (f ) = |H(f )|2 SX (f ) = . (2)
[(2πf )2 + a2 ][(2πf )2 + 104 ]
70   suplemento de processamento de sinais (sps)

Para determinar RY(t), usamos uma forma de expansão em frações parciais para escrever
A B
SY (f ) = + . (3)
(2πf )2 + a2 (2πf )2 + 104

Observe que esse método funcionará somente se a  100. O mesmo método também foi usa-
do no Exemplo 22. Os valores de A e B podem ser encontrados por

2 · 104  − 2 · 104
A=  = 2 , (4)
2 4 
(2πf ) + 10 f = ja a − 104
 2π

2 · 104  2 · 104
B= 2 = . (5)
a + 104 f = j100 a2 − 104

Isso implica sobre a densidade espectral de potência da saída ser


− 104 /a 2a 1 200
SY (f ) = + . (6)
a2 − 104 (2πf )2 + a2 a2 − 104 (2πf )2 + 104

Visto que e–c|t| e 2c/((2πf)2+c2) são pares de transformada de Fourier para qualquer constante
c > 0, vemos que
− 104 /a − a|τ | 100
RY (τ ) = e + 2 e− 100|τ | . (7)
a − 10
2 4 a − 104
(b) Para determinar a = 1/(RC), usamos o fato de que
  − 104 /a 100
E Y 2 (t) = 100 = RY (0) = 2 + . (8)
a − 104 a2 − 104

Rearrumando, descobrimos que a precisa satisfazer

a3 − (104 + 1)a + 100 = 0. (9)

Este polinômio cúbico tem três raízes.


√ √
a = 100, a = − 50 + 2501, a = − 50 − 2501. (10)
Lembre-se de que a = 100 não é uma solução válida porque nossa expansão de SY(f ) não foi
válida para a = 100. Além disso,
√ exigimos que a > 0 a fim de tomar a transformada inversa
de SY(f ). Assim, a = − 50 + 2501 ≈
 0,01 e RC  100.

Solução do Problema 8.3

Visto que SY(f) = |H(f)|2 SX(f), primeiro encontramos


|H(f )|2 = H(f )H ∗ (f )

= a1 e− j2πf t1 + a2 e− j2πf t2 a1 ej2πf t1 + a2 ej2πf t2
 (1)
= a21 + a22 + a1 a2 e− j2πf (t2 − t1 ) + e− j2πf (t1 − t2 ) .

Segue-se que a densidade espectral de potência da saída é
SY (f ) = (a21 + a22 )SX (f )
+ a1 a2 SX (f ) e− j2πf (t2 − t1 ) + a1 a2 SX (f ) e− j2πf (t1 − t2 ) . (2)

Usando a Tabela 1, a autocorrelação da saída é


RY (τ ) = (a21 + a22 )RX (τ )
+ a1 a2 (RX (τ − (t1 − t2 )) + RX (τ + (t1 − t2 ))) . (3)
suplemento de processamento de sinais (sps)   71

Solução do Problema 8.5

(a) Pelo Teorema 13(b),


 
  ∞ 100
E X 2 (t) = SX (f ) df 10− 4 df = 0,02. (1)
−∞ − 100
(b) Pelo Teorema 17

10− 4 H(f ) |f | ≤ 100,
SXY (f ) = H(f )SX (f ) = (2)
0 caso contrário.

(c) Pelo Teorema 13.14,

RY X (τ ) = RXY (− τ ). (3)
Pela Tabela 1, se g(t) e G(f ) são um par de transformadas de Fourier, então g(–t) e G*(f )
são um par de transformadas de Fourier. Isso implica

10− 4 H ∗ (f ) |f | ≤ 100,

SY X (f ) = SXY (f ) = (4)
0 caso contrário.

(d) Pelo Teorema 17,
SY (f ) = H ∗ (f )SXY (f )
= |H(f )|2 SX (f )

10− 4 /[104 π 2 + (2πf )2 ] |f | ≤ 100, (5)
=
0 caso contrário.

(e) Pelo Teorema 13,

  ∞
E Y 2 (t) = SY (f ) df
−∞
 100
10− 4
= df
− 100 104 π 2
+ 4π 2 f 2
 100
2 df
= 8 2 . (6)
10 π 0 1 + (f /50)2

Fazendo a substituição, f = 50 tan u, temos df = 50 sec2 u du. Usando a identidade 1 +


tan2 u = sec2 , temos
 tan− 1 (2)
  100
E Y 2 (t) = 8 2 dθ
10 π 0
tan− 1 (2)
= = 1,12 × 10− 7 . (7)
106 π 2

Solução do Problema 8.7

(a) Visto que E[N(t)] = mN = 0, o valor esperado da saída é mY = mNH(0) = 0.


(b) A densidade espectral de potência da saída é
SY (f ) = |H(f )|2 SN (f ) = 10− 3 e− 2×10 (1)
6 |f |
.

72   suplemento de processamento de sinais (sps)

(c) A potência média é


 
  ∞ ∞
10− 3 e− 2×10 |f | df
6
E Y 2 (t) = SY (f ) df =
−∞ −∞
 ∞
= 2 × 10− 3 e− 2×10 f df
6

= 10− 3 . (2)

(d) Visto que N(t) é um processo gaussiano, o Teorema 3 diz que Y(t) é um processo gaussiano.
Assim, a variável aleatória Y(t) é gaussiana com
 
E [Y (t)] = 0, Var[Y (t)] = E Y 2 (t) = 10− 3 . (3)

Assim, podemos usar a Tabela 4.2 para calcular
 
Y (t) 0,01
P [Y (t) > 0,01] = P  >
Var[Y (t)] Var[Y (t)]
 
0,01
=1− Φ √
0,001
= 1 − Φ(0,32) = 0,3745. (4)

Solução do Problema 8.9

(a) Observe que H(f ) = 1. Isso implica SM̂ (f ) = SM(f ). Assim, a potência média de M̂ (t) é
 ∞  ∞
q̂ = SM̂ (f ) df = SM (f ) df = q. (1)
−∞ −∞
(b) A potência média do sinal da banda lateral superior é
   
E U 2 (t) = E M 2 (t) cos2 (2πfc t + Θ)
 
− E 2M (t)M̂ (t) cos(2πfc t + Θ) sen(2πfc t + Θ)
 
+ E M̂ 2 (t) sen2 (2πfc t + Θ) . (2)

Para encontrar o valor esperado do cosseno da fase aleatória, para um inteiro n ≠ 0, ava-
liamos
 2π
1
E [cos(2πfc t + nΘ)] = cos(2πfc t + nθ) dθ
0 2π
1
= sen(2πfc t + nθ)|2π
0
2nπ
1
= (sen(2πfc t + 2nπ) − sen(2πfc t)) = 0. (3)
2nπ
Etapas semelhantes mostrarão que, para qualquer inteiro n  0, o seno da fase aleatória
também possui valor esperado

E [sen(2πfc t + nΘ)] = 0. (4)

Usando a identidade trigonométrica cos2 f = (1 + cos 2f)/2, podemos mostrar


 
  1
E cos2 (2πfc t + Θ) = E (1 + cos(2π(2fc )t + 2Θ)) = 1/2. (5)
2
suplemento de processamento de sinais (sps)   73

De modo semelhante,
 
  1
E sen2 (2πfc t + Θ) = E (1 − cos(2π(2fc )t + 2Θ)) = 1/2. (6)
2
Além disso, a identidade 2 sen f cos f = sen 2f implica

E [2 sen(2πfc t + Θ) cos(2πfc t + Θ)] = E [cos(4πfc t + 2Θ)] = 0. (7)

Visto que M(t) e M̂ (t) são independentes de Θ, a potência média do sinal da banda lateral
superior é
     
E U 2 (t) = E M 2 (t) E cos2 (2πfc t + Θ)
   
+ E M̂ 2 (t) E sen2 (2πfc t + Θ)
 
− E M (t)M̂ (t) E [2 cos(2πfc t + Θ) sen(2πfc t + Θ)]

= q/2 + q/2 + 0 = q. (8)

Solução do Problema 9.1

O sistema descrito neste problema corresponde exatamente ao sistema no texto que resultou na
Equação (137).
(a) Pela Equação (137), o filtro linear ótimo é
SX (f )
Ĥ(f ) = . (1)
SX (f ) + SN (f )

Neste problema, RX(t) = sinc(2Wt), de modo que


 
1 f
SX (f ) = rect . (2)
2W 2W

Segue-se que o filtro ótimo é


1 f
  
rect 105 f
Ĥ(f ) = 2W
f

2W
= rect . (3)
1
rect + 10− 5 105 + 2W 2W
2W 2W
(b) Pela Equação (138), o erro médio quadrático mínimo é
 ∞  ∞
SX (f ) SN (f )
e∗L = df = Ĥ(f )SN (f ) df
−∞ SX (f ) + SN (f ) −∞
 W
105
= 5 10− 5 df
10 + 2W − W
2W
= 5 . (4)
10 + 2W
Segue-se que o erro médio quadrático satisfaz eL* ≤ 0,04 se e somente se W ≤ 2.083,3 Hz. O
que está ocorrendo neste problema é que o filtro ótimo é simplesmente um filtro passa-baixas
ideal com largura de banda W. Aumentar W aumenta a largura de banda do sinal e a largura
de banda do filtro Ĥ(f ). Isso permite que mais ruído passe pelo filtro e diminui a qualidade
de nosso estimador.
74   suplemento de processamento de sinais (sps)

Solução do Problema 10.1

Embora seja simples calcular os caminhos de amostra de Yn usando a resposta de filtro Yn = ½ Yn–1 +
½ Xn diretamente, os laços necessários tornam um programa lento. Uma solução usando vetores e
matrizes tende a rodar mais rapidamente. Pela resposta do filtro, podemos escrever
1
Y1 = X 1 , (1)
2
1 1
Y2 = X 1 + X2 , (2)
4 2
1 1 1
Y3 = X1 + X2 + X3 , (3)
8 4 2
..
.
1 1 1
Yn = X1 + n− 1 X2 + · · · + Xn . (4)
2n 2 2

Em notação de vetor, estas equações tornam-se


    
Y1 1/2 0 ··· 0 X1
 Y2   . ..   X 
   1/4 1/2 . . .   2
 ..  =  . ... ...   ..  . (5)
 .   .. 0  . 
Yn 1/2n · · · 1/4 1/2 Xn
        
Y H X
Quando X é uma coluna de variáveis aleatórias gaussianas iid (0, 1), o vetor coluna Y = HX
é um único caminho de amostra de Y1, . . ., Yn. Quando X é uma matriz n × m de variáveis
aleatórias gaussianas iid (0, 1), cada coluna de Y = HX é um caminho de amostra de Y1, . . .,
Yn. Neste caso, considere que a entrada de matriz Yi,j indique uma amostra Yi do caminho de
amostra j. As amostras Yi,1, Yi,2, . . ., Yi,m são amostras iid de Yi. Podemos estimar a média e
a variância de Yi usando a média amostral Mn(Yi) e variância amostral Vm(Yi) da Seção 10.4.
Estas estimativas são
1  1 
m m
Mn (Yi ) = Yij , V (Yi ) = (Yi,j − Mn (Yi ))2 . (6)
m j=1 m − 1 j=1

Este é o método usado pelo programa a seguir.

function ymv=yfilter(m);
%ymv(i) é a média e var (por m caminhos) de y(i),
%a saída do filtro de 11.2.6 e 11.10.1
X=randn(500,m);
H=toeplitz([(0.5).^(1:500)],[0.5 zeros(1,499)]);
Y=H*X;
yav=sum(Y,2)/m;
yavmat=yav*ones(1,m);
yvar=sum((Y-yavmat).^2,2)/(m-1);
ymv=[yav yvar];
suplemento de processamento de sinais (sps)   75

Os comandos ymv=yfilter(100);plot(ymv) gerarão um gráfico semelhante a este:

0,6
Média da amostra
0,4 Variância da amostra

0,2

−0,2

−0,4
0 50 100 150 200 250 300 350 400 450 500
n

Vemos que cada média amostral é pequena, na ordem de 0,1. Observe que E[Yi] = 0. Para m = 100
amostras, a média amostral tem variância 1/m = 0,01 e desvio padrão 0,1. Assim, pode-se esperar
que sejam observados valores de média amostral em torno de 0,1.
Além disso, pode-se mostrar (na solução do Problema 2.6, por exemplo) que quando i se torna
grande, Var[Yi] converge para 1/3. Assim, os resultados de nossa variância amostral também não
são surpreendentes.

Comentário: Embora, dentro de cada caminho de amostra, Yi e Yi+1 sejam bastante correlacio-
nados, as médias amostrais de Yi e Yi+1 não são muito correlacionadas quando uma grande quan-
tidade de caminhos amostrais tem a média calculada. O cálculo exato da covariância das médias
amostrais de Yi e Yi+1 pode ser um exercício interessante. As mesmas observações se aplicam à
variância amostral.

Solução do Problema 10.3

O programa cospaths.m gera caminhos de amostra gaussiana com a função de autocorrelação de-
sejada RX(k) = cos(0,04 * pi * k). Aqui está o código.

function x=cospaths(n,m);
%Gera m caminhos de amostra de tamanho n de um
%processo gaussiano com ACF R[k]=cos(0.04*pi*k)
k=0:n-1;
rx=cos(0.04*pi*k)’;
x=gaussvector(0,rx,m);

O programa é simples porque, se o segundo parâmetro de entrada de gaussvector for um vetor


rx de tamanho m, então rx é considerada como a primeira linha de uma matriz de covariância
simétrica de Toeplitz. Os comandos x=cospaths(100,10),plot(x) produzirão um gráfico
como este:

0
n
X

−1

−2
0 10 20 30 40 50 60 70 80 90 100
n
76   suplemento de processamento de sinais (sps)

Notamos que cada caminho de amostra do processo é uma sequência aleatória gaussiana. Porém,
também pode parecer, pelo gráfico, que cada caminho de amostra é uma senoide perfeita. Isso pode
parecer estranho se você estiver acostumado a ver processos gaussianos simplesmente como proces-
sos com ruído ou processos de movimento browniano flutuantes. Porém, neste caso, a amplitude e
a fase de cada caminho de amostra é aleatória, de modo que, pelo conjunto de funções de amostras
senoidais, cada amostra Xn é uma variável aleatória gaussiana (0, 1).
Por fim, para confirmar que cada caminho de amostra é uma senoide perfeita, em vez de apenas
semelhante a uma senoide, calculamos a DFT de cada caminho de amostra. Os comandos

>> x=cospaths(100,10);
>> X=fft(x);
>> stem((0:99)/100,abs(X));

produzirão um gráfico semelhante a este:

120
100
80
60
Xk

40
20
0
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
k/100

O gráfico apresentado consiste em dez gráficos de haste de magnitude de DFT com 100 pontos, um
para cada função de amostra gaussiana. Cada gráfico tem exatamente dois componentes diferentes de
zero nas frequências k/100 = 0,02 e (100 – k)/100 = 0,98 correspondentes a cada senoide de caminho
de amostra tendo frequência 0,02. Observe que a magnitude de cada componente de frequência 0,02
depende da magnitude do caminho da amostra senoidal correspondente.

Solução do Problema 10.5

A função lmsepredictor.m foi projetada de modo que, se a sequência Xn tiver uma função de
autocorrelação de duração finita, de modo que RX[k] = 0 para |k| ≥ m, mas o filtro LMSE de ordem
M – 1 para M ≥ m tiver que ser retornado, então o lmsepredictor preenche automaticamente o
vetor de autocorrelação rx com um número suficiente de zeros de modo que a saída seja o filtro de
ordem M – 1. Ao contrário, se rx especificar mais valores RX[k] do que o necessário, então a opera-
ção rx(1:M) extrai os M valores RX[0], . . . , RX[M – 1] que são necessários.
Porém, neste problema, RX[k] = (–0,9)|k| tem duração infinita. Quando chamamos
lmsepredictor(rx,N) para N ≥ 6 e passamos a representação truncada rx de comprimento 6
como um argumento, o resultado é que rx é incorretamente preenchido com zeros. A saída de filtro
resultante será o filtro LMSE para a resposta de filtro

(− 0,9)|k| |k| ≤ 5,
RX [k] = (1)
0 caso contrário.

em vez do filtro LMSE para a função de autocorrelação verdadeira. Em outras palavras, obtemos a
saída correta para N ≤ 5.
suplemento de processamento de sinais (sps)   77

Solução do Problema 10.7

Neste problema, generalizamos a solução do Problema 4.2 usando o Teorema 9 com k = 1 para a
ordem de filtro M > 2. O filtro previsor linear ótimo
 
h = h0 h1 · · · h M − 1 (1)

de Xn+1 dado
 
Xn = Xn− (M − 1) · · · Xn− 1 Xn (2)

é dado por
 
hM − 1
− 
← 
h =  ...  = R−X1n RXn Xn+1 , (3)
h0

em que RXn é dado pelo Teorema 6 e RXnXn+1 é dado pela Equação (65). Neste problema,
    
Xn− M +1 RX [M ]
 ..    .  (4)
RXn Xn+1 = E  .  Xn+1  =  ..  .
Xn RX [1]

Voltando ao Teorema 12.7, o erro médio quadrático é
 −
←  −

e∗L = E (Xn+1 − h  Xn )2 = Var[Xn+1 ] − h  RXn Xn+1 . (5)

Para M > 2, usamos a função onesteppredictor(r,M) do Matlab para realizar os cálculos.

function [h,e]=onesteppredictor(r,M);
%uso: h=onesteppredictor(r,M),
%entrada:r=[R_X(0) R_X(1) .. R_X(m-1)]
%assume R_X(n)==0 para n >=m
%saída=vetor h para previsor lmse
% xx=h’[X(n),X(n-1),..,X(n-M+1)] para X(n+1)
m=length(r);
r=[r(:);zeros(M-m+1,1)];%anexa zeros se precisar
RY=toeplitz(r(1:M));
RYX=r(M+1:-1:2);
h=flipud(RY\RYX);
e=r(1)-(flipud(h))’*RYX;

O código é bastante simples. Aqui estão dois exemplos só para mostrar que ele funciona.

>> [h2,e2]=onesteppredictor(r,2)
h2 =
0.8571
-0.1429
e2 =
0.4286
>> [h4,e4]=onesteppredictor(r,4)
h4 =
0.8000
0.0000
-0.0000
-0.2000
e4 =
0.4000
78   suplemento de processamento de sinais (sps)

O problema também pediu que calculássemos o erro médio quadrático como uma função da ordem
de filtro M. Aqui está um script e o gráfico resultante da MSE.

%onestepmse.m 0,44
r=1-0.25*(0:3); 0,42
ee=[ ]; 0,4
for M=2:10,
0,38

MSE
[h,e]=onesteppredictor(r,M);
ee=[ee,e]; 0,36
end 0,34
plot(2:10,ee,’-d’); 0,32
xlabel(’\itM’); 0,3
ylabel(’\it MSE’); 2 4 6 8 10
M

Solução do Problema 10.9

A geração dos caminhos de amostra Xn e Yn é relativamente simples. Para s = h = 1, a solução do


Problema 4.7 mostrou que o previsor linear ótimo Xn̂ (Yn–1) de Xn dado Yn−1 é
cd
X̂n = Yn− 1 . (1)
d2 + (1 − c2 )
A seguir, representamos graficamente os caminhos de Xn e Xn̂ . Para mostrar como os caminhos
de amostra são semelhantes para diferentes valores de c e d, construímos todos os caminhos de
amostra usando
√ a mesma sequência de amostras de ruído Wn e Zn. Além disso, dado c, escolhemos
X0 = X00 / 1 − c2 , em que X00 é uma variável aleatória gaussiana (0, 1) que é a mesma para todos
os caminhos de amostra. Para fazer isto, escrevemos uma função xpathplot(c,d,x00,z,w) que
constrói um caminho de amostra, dados os parâmetros c e d, e os vetores de ruído z e w. Um script
predictpaths.m simples chama xpathplot para gerar os caminhos de amostra solicitados. Aqui
estão os dois programas.

function [x,xhat]=xpaths(c,d,x00,z,w)
n=length(z);
n0=(0:(n-1))’; n1=(1:n)’;
vx=1/(1-c^2);
x0=sqrt(vx)*x00;
x=(c.^(n1)*x0)+...
toeplitz(c.^(n0),eye(1,n))*z;
y=d*[x0;x(1:n-1)]+w;
vy=((d^2)*vx) + 1;
xhat=((c*d*vx)/vy)*y;
plot(n1,x,’b-’,n1,xhat,’k:’);
axis([0 50 -3 3]);
xlabel(’\itn’); ylabel(’\itX_n’);
%predictpaths.m
w=randn(50,1);z=randn(50,1);
x00=randn(1);
xpaths(0.9,10,x00,z,w);
pause;
xpaths(0.9,1,x00,z,w);
pause;
xpaths(0.9,0.1,x00,z,w);
pause;
xpaths(0.6,10,x00,z,w);
pause;
xpaths(0.6,1,x00,z,w);
pause;
xpaths(0.6,0.1,x00,z,w);
suplemento de processamento de sinais (sps)   79

Alguns caminhos de amostra para Xn e X̂n para os parâmetros solicitados aparecem a seguir. Em
cada par, a previsão em única etapa Xn̂ é marcada com pontos.

2 2

0 0
Xn

Xn
−2 −2

0 10 20 30 40 50 0 10 20 30 40 50
n n
(a) c = 0,9, d = 10 (d) c = 0 ,6, d = 10

2 2

0 0
Xn

Xn

−2 −2

0 10 20 30 40 50 0 10 20 30 40 50
n n
(b) c = 0 .9, d = 1 (e) c = 0.6, d = 1

2 2

0 0
Xn

Xn

−2 −2

0 10 20 30 40 50 0 10 20 30 40 50
n n
(c) c = 0.9, d = 0.1 (f ) c = 0.6, d = 0 .1

O erro de estimativa de média quadrática na etapa n foi considerado como


d2 + 1
e∗L (n) = e∗L = σ 2 . (2)
d2 + (1 − c2 )
Vemos que o erro de estimativa médio quadrático é eL*(n) = eL*, uma constante para todo n. Além
disso, eL* é uma função decrescente de d. Nos gráficos de (a) a (c), vemos que o previsor rastreia Xn
não muito bem enquanto d diminui, pois diminuir d corresponde a diminuir a contribuição de Xn–1
para a medição Yn–1. Com efeito, o impacto da medição do ruído é aumentado. À medida que d di-
minui, o previsor coloca menos ênfase sobre a medição Yn e, em vez disso, faz previsões mais próxi-
mas de E[X] = 0. Ou seja, quando d é pequeno nos gráficos (c) e (f), o previsor permanece próximo
de zero. Com relação a c, o desempenho do previsor é mais difícil de entender. Na Equação (12), o
erro médio quadrático eL* é o produto de
σ2
Var[Xn ] = (3)
1 − c2
e
(d2 + 1)(1 − c2 )
1 − ρ2Xn Yn− 1 = . (4)
d2 + (1 − c2 )
Como uma função do aumento de c2, Var[Xn] aumenta enquanto 1 – r2Xn,Yn–1 diminui. Em geral, o
erro médio quadrático eL* é uma função crescente de c2. Porém, Var[X] é o erro médio quadrático
obtido usando um estimador cego que sempre prevê E[X], enquanto 1 – r2Xn,Yn–1 caracteriza a exten-
são a qual o previsor linear ótimo é melhor do que o previsor cego. Quando comparamos os gráficos
(a)-(c) com c = 0,9 com os gráficos (d)-(f) com c = 0,6, vemos a maior variação em Xn para um a
maior, mas nos dois casos o previsor funcionou bem quando d era grande.