Escolar Documentos
Profissional Documentos
Cultura Documentos
ALSUPLEMENT
ARPARAACOMPANHAR
Probabilidade e Processos
Estocásticos
Uma Introdução Amigável para Engenheiros
Eletricistas e de Computação
Terceira Edição
Introdução
Vamos começar descrevendo o relacionamento entre o processo estocástico na saída de um filtro li-
near para o processo estocástico na entrada do filtro. Considere um filtro linear invariante no tempo
(LTI) com resposta ao impulso h(t). Se a entrada for um sinal determinístico v(t), a saída, w(t), é
a convolução
∞ ∞
w(t) = h(u)v(t − u) du = h(t − u)v(u) du. (1)
−∞ −∞
Se as entradas possíveis no filtro forem x(t), as funções amostrais de um processo estocástico X(t),
então as saídas, y(t), são funções amostrais de outro processo estocástico, Y(t). Como y(t) é a con-
volução de x(t) e h(t), adotamos a seguinte notação para o relacionamento entre Y(t) e X(t).
∞ ∞
Y (t) = h(u)X(t − u) du = h(t − u)X(u) du. (2)
−∞ −∞
De modo semelhante, o valor esperado de Y(t) é a convolução de h(t) e E[X(t)].
Teorema 1
∞ ∞
E [Y (t)] = E h(u)X(t − u) du = h(u) E [X(t − u)] du.
−∞ −∞
Quando X(t) é estacionário no sentido amplo, usamos o Teorema 1 para derivar RY(t, t) e RXY(t, t)
como funções de h(t) e RX(t). Iremos observar que, quando X(t) é estacionário no sentido amplo,
Y(t) também o será.
Teorema 2
Se a saída de um filtro LTI com resposta ao impulso h(t) é um processo estacionário no sen-
tido amplo X(t), a saída Y(t) tem as seguintes propriedades:
(a) Y(t) é um processo estacionário no sentido amplo, com valor esperado
∞
µY = E [Y (t)] = µX h(u) du,
−∞
e função de autocorrelação
∞ ∞
RY (τ ) = h(u) h(v)RX (τ + u − v) dv du.
−∞ −∞
(b) X(t) e Y(t) são, em conjunto, estacionários no sentido amplo e possuem correlação
cruzada entre entrada e saída
∞
RXY (τ ) = h(u)RX (τ − u) du.
−∞
suplemento de processamento de sinais (sps) 3
(c) A autocorrelação de saída está relacionada com a correlação cruzada entre entrada e
saída por meio de
∞
RY (τ ) = h(− w)RXY (τ − w) dw.
−∞
Prova Retornamos ao Teorema 1 para lembrar que E[Y(t)] = −∞
∞
h(m) E[X(t – u)]du. Como E[X(t)] =
∞
mX para todo t, E[Y(t)] = −∞ h(u) mX du, que é independente de t. Em seguida, observamos que a
∞
Equação (2) implica Y(t + t) = −∞ h(v)X(t + t – u) dv. Assim,
RY (t, τ ) = E [Y (t)Y (t + τ )]
∞ ∞
=E h(u)X(t − u) du h(v)X(t + τ − v) dv
∞ −∞ ∞ −∞
∞
A substituição de w = –u leva a RY(t) = −∞h(–w)RXY(t – w)dw, para completar a derivada.
Exemplo 1
X(t), um processo estocástico estacionário no sentido amplo, com valor esperado μX = 10 volts, é
a entrada de um filtro invariante no tempo. A resposta ao impulso do filtro é
et/0,2 0 ≤ t ≤ 0,1 s,
h(t) = (7)
0 caso contrário.
Qual é o valor esperado do processo de saída do filtro Y(t)?
.................................................................................
4 suplemento de processamento de sinais (sps)
Exemplo 2
RW (τ ) = η0 δ(τ ) (9)
Na Seção 13.11, observamos que um ruído branco gaussiano W(t) é fisicamente impossível, pois
ele tem potência média E[W 2(t)] = h0d(0) = ∞. Porém, quando filtramos o ruído branco, a saída será
um processo com potência finita. No Exemplo 2, a saída do filtro de média móvel h(t) tem potência
média finita RY(0) = h0/T. Essa conclusão é generalizada no Problema 1.4.
O Teorema 2 fornece procedimentos matemáticos para derivar o valor esperado e a função de
autocorrelação do processo estocástico na saída de um filtro a partir das funções correspondentes
na entrada. Em geral, no entanto, é muito mais complicado determinar a PDF ou a PMF da saída
dada a função de probabilidade correspondente da entrada. Uma exceção ocorre quando a entrada
do filtro é um processo estocástico gaussiano. O teorema a seguir afirma que a saída também é um
processo estocástico gaussiano.
Teorema 3
Se um processo gaussiano estacionário X(t) é a entrada para um filtro LTI h(t), a saída Y(t) é
um processo gaussiano estacionário com valor esperado e autocorrelação dada pelo Teorema 2.
Apesar da prova do Teorema 3 estar além do escopo deste texto, podemos observar que ele é se-
melhante ao Teorema 8.11, o que mostra que uma transformação linear de variáveis aleatórias gaus-
sianas conjuntas produz variáveis aleatórias gaussianas conjuntas. Em particular, para um processo
de entrada gaussiana X(t), a integral de convolução da Equação (2) pode ser vista como o caso limite
de uma transformação linear de variáveis aleatórias gaussianas conjuntas. O Teorema 7 prova que, se
a entrada de um filtro de tempo discreto for gaussiana, a saída também é gaussiana.
Exemplo 3
Para o processo de média móvel de ruído branco Y(t) no Exemplo 2, considere que h0 = 10–15 W/Hz
e T = 10–3 s. Para um tempo qualquer t0, determine P[Y(t0) > 4 ⋅ 10–6].
.................................................................................
Aplicando os valores de parâmetro dados h = 10–15 e T = 10–3 à Equação (16), descobrimos que
10− 9 (10− 3 − | τ |) |τ | ≤ 10− 3
RY [τ ] = (17)
0 caso contrário.
Pelo Teorema 3, Y(t) é um processo gaussiano estacionário e, assim, Y(t0) é uma variável aleató-
ria gaussiana. Em particular, como E[Y(t0)] = 0, vemos pela Equação (17) que Y(t0) tem variância
Var[Y(t0)] = RY(0) = 10–12. Isso implica
Y (t ) 4 · 10 −6
P Y (t0 ) > 4 · 10− 6 = P
0
> (18)
Var[Y (t0 )] 10− 6
Teste 1
A entrada do filtro é X(t), um processo aleatório estacionário em sentido amplo com valor esperado
mX = 2 e autocorrelação RX(t) = d(t). Quais são o valor esperado e autocorrelação do processo de
saída Y(t)?
Uma forte tendência na eletrônica prática é usar um microcomputador especializado conhecido como
um processador de sinais digitais (DSP) para executar as operações de processamento de sinal.
Para usar um DSP como um filtro linear, é necessário converter o sinal de entrada x(t) em uma se-
quência de amostras x(nT), na qual n = . . ., –1, 0, 1 . . . e 1/T Hz é a taxa de amostragem. Quando
o sinal de tempo contínuo é um exemplo de função de um processo estocástico, X(t), a sequência
de amostras na entrada do processador de sinais digitais é um exemplo de função de uma sequência
aleatória Xn = X(nT). A função de autocorrelação da sequência aleatória Xn consiste em amostras
da função de autocorrelação do processo de tempo contínuo X(t).
Teorema 4
A sequência aleatória Xn é obtida amostrando o processo de tempo contínuo X(t) a uma taxa
de 1/Ts amostras por segundo. Se X(t) é um processo estacionário no sentido amplo com valor
esperado E[X(t)] = mX e autocorrelação RX(t), então Xn é uma sequência aleatória estacionária
no sentido amplo, com valor esperado E[Xn] = mX e função de autocorrelação
RX [k] = RX (kTs ).
Prova Visto que a taxa de amostragem é 1/Ts amostras por segundo, as variáveis aleatórias em Xn
são variáveis aleatórias em X(t) ocorrendo em intervalos de Ts segundos. Xn = X(nTs). Portanto,
E[Xn] = E[X(nTs)] = mX e
RX [k] = E [Xn Xn+k ] = E [X(nTs )X([n + k]Ts )] = RX (kTs ). (20)
Exemplo 4
Dada a função de autocorrelação RY[n] (t) na Equação (17), o Teorema 4 implica que
−4 10− 9 (10− 3 − 10− 4 |k|) |k10− 4 | ≤ 10− 3
RY [k] = RY (k10 ) =
0 caso contrário
−6
10 (1 − 0,1 |k|) |k| ≤ 10,
=
0 caso contrário. (21)
O DSP realiza filtragem linear de tempo discreto. A resposta ao impulso de um filtro de tempo
discreto é uma sequência hn, n = . . ., –1, 0, 1, . . . e a saída é uma sequência aleatória Yn, relacio-
nada com a entrada Xn pela convolução de tempo discreto,
∞
Yn = hi Xn− i . (22)
i=−∞
Correspondente ao Teorema 2 para processos de tempo contínuo, temos o teorema equivalente para
os processos de tempo discreto.
Teorema 5
Se a entrada de um filtro linear de tempo discreto invariante no tempo com resposta ao im-
pulso hn é uma sequência aleatória estacionária no sentido amplo, Xn, a saída Yn tem as pro-
priedades a seguir:
(a) Yn é uma sequência aleatória estacionária no sentido amplo com valor esperado
∞
µY = E [Yn ] = µX hn ,
n=−∞
e função de autocorrelação
∞
∞
RY [n] = hi hj RX [n + i − j] .
i=−∞ j=−∞
(b) Yn e Xn são estacionários conjuntos no sentido amplo, com correlação cruzada de en-
trada-saída
∞
RXY [n] = hi RX [n − i] .
i=−∞
Exemplo 5
µY = µX (h0 + h1 ) = µX = 1. (24)
Para obter Var[Yn], lembramos, pela Definição 13.16, que E[Yn2] = RY[0] = 3. Portanto, Var[Yn] =
E[Yn2] – mY2 = 2.
Observe, no Exemplo 5, que a saída do filtro é a média da amostra de entrada mais recente e a
amostra de entrada anterior. Por conseguinte, também poderíamos usar o Teorema 9.1 e Teorema
9.2 para encontrar o valor esperado e a variância do processo de saída.
O Teorema 5 apresenta as propriedades importantes dos filtros de tempo discreto de uma manei-
ra geral. Ao projetar e analisar filtros práticos, os engenheiros elétricos e de computação geralmente
limitam sua atenção aos filtros causais com a propriedade que hn = 0 para n < 0. Eles consideram
filtros em duas categorias:
• Filtros de resposta finita ao impulso (FIR) com hn = 0 para n ≥ M, em que M é um inteiro
positivo. Observe que M – 1 é chamado de ordem do filtro. A convolução de entrada-saída é
M −1
Yn = hi Xn− i . (27)
i=0
• Filtros de resposta infinita ao impulso (IIR), tais que, para qualquer inteiro positivo N,
hn 0 para pelo menos um valor de n > N. A concretização prática de um filtro IIR é recur-
siva. A saída de cada filtro é uma combinação linear de um número finito de amostras de en-
trada e um número finito de amostras de saída anteriores:
∞
M −1
N
Yn = hi Xn− i = ai Xn− i + bj Yn− j . (28)
i=0 i=0 j=1
Nesta fórmula, a0, a2, . . ., aM–1 são os coeficientes da seção adiante do filtro e b0, b2, . . ., bN
são os coeficientes da seção de retorno.
Exemplo 6
Por que o índice i na seção adiante de um filtro IIR começa em i = 0, enquanto o índice j da seção
de retorno começa em 1?
...........................................................................
Na seção adiante, a saída Yn depende da entrada atual Xn, bem como das entradas passadas.
Porém, na seção de retorno, o filtro na amostra n tem acesso apenas às saídas anteriores Yn–1,
Yn–2, . . . na produção de Yn.
suplemento de processamento de sinais (sps) 9
Exemplo 7
Uma sequência aleatória estacionária no sentido amplo Xn, com valor esperado mX = 0 e função
de autocorrelação RX[n] = s 2dn, percorre o filtro de média móvel de tempo discreto de ordem M – 1
1/M 0 ≤ n ≤ M − 1,
hn = (29)
0 caso contrário.
Ache a autocorrelação de saída RY[n].
...........................................................................
No Exemplo 5, encontramos a autocorrelação de saída diretamente pelo Teorema 5(a) porque o fil-
tro de média era simples de primeira ordem. Para um filtro de uma ordem M – 1 qualquer, primeiro
encontramos a correlação cruzada de entrada-saída RXY[k] e depois usamos o Teorema 5(c) para
encontrar RY[k]. Pelo Teorema 5(b), a correlação cruzada de entrada-saída é
σ2
M− 1
σ 2 /M k = 0, 1, . . . , M − 1,
RXY [k] = δk− i = (30)
M i=0 0 caso contrário.
Pelo Teorema 5(c), a autocorrelação de saída é
∞
1
0
RY [n] = h− i RXY [n − i] = RXY [n − i] . (31)
M
i=−∞ i=− (M − 1)
Para expressar RXY[n – i] como uma função de i, usamos a Equação (30) substituindo k em RXY[k]
por n – i, resultando em
σ 2 /M i = n − M + 1, n − M + 2, . . . , n,
RXY [n − i] = (32)
0 caso contrário.
Assim, se n < (M – 1) ou n – M + 1 > 0, então RXY [n – i] = 0 durante o intervalo –(M – 1) ≤ i ≤
M – 1. Para –(M – 1) ≤ n ≤ 0,
1
n
σ2 σ 2 (M + n)
RY [n] = = . (33)
M M M2
i=− (M − 1)
Para 0 ≤ n ≤ M – 1,
1
0
σ2 σ 2 (M − n)
RY [n] = = . (34)
M M M2
i=n− (M − 1)
Combinando esses casos, a autocorrelação de saída é a função triangular
σ 2 (M − | n|)/M 2 − (M − 1) ≤ n ≤ M − 1,
RY [n] = (35)
0 caso contrário.
Exemplo 8
Um integrador de tempo discreto com sequência de entrada estacionária no sentido amplo Xn tem
saída
Yn = Xn + 0,8Yn− 1 . (36)
Podemos continuar esse procedimento, substituindo valores sucessivos de Yk. Para a terceira eta-
pa, a substituição de Yn–2 resulta em
Exemplo 9
Continuando o Exemplo 8, suponha que a entrada estacionária no sentido amplo Xn com valor es-
perado mX = 0 e função de autocorrelação
1 n = 0,
RX [n] = 0,5 |n| = 1, (41)
0 |n| ≥ 2,
2
seja a entrada do integrador de primeira ordem hn. Determine o segundo momento, E[Y n], da
saída.
...........................................................................
Começamos expandindo o quadrado da Equação (36).
E Yn2 = E Xn2 + 2(0,8)Xn Yn− 1 + 0,82 Yn−2
1
2
= E Xn2 + 2(0,8) E [Xn Yn− 1 ] + 0,82 E Yn− 1 . (42)
2 2
Como Yn é estacionário no sentido amplo, E[Y n–1] = E[Y n]. Além do mais, como
vemos que
E [Xn Yn− 1 ] = E Xn (Xn− 1 + 0,8Xn− 2 + 0,82 Xn− 3 . . .)
∞
= 0,8i RX [i + 1] = RX [1] = 0,5. (44)
i=0
Exceto para o primeiro termo (i = 0), todos os termos na soma são zero, pois RX[n] = 0 para n > 1.
Portanto, pela Equação (42),
E Yn2 = E Xn2 + 2(0,8)(0,5) + 0,82 E Yn2 . (45)
2 2
Com E[Xn]= RX[0] = 1, E[Y n] = 1,8/(1 – 0,82) = 2,8125.
suplemento de processamento de sinais (sps) 11
Teste 2
A entrada de um diferenciador de tempo discreto de primeira ordem hn é Xn, uma sequência aleató-
ria Gaussiana estacionária no sentido amplo com mX = 0,5 e função de autocorrelação RX[k]. Dados
1 k = 0,
1 n = 0,
RX [k] = 0,5 |k| = 1, e hn = − 1 n = 1, (46)
0 caso contrário, 0 caso contrário,
determine as seguintes propriedades da sequência aleatória de saída Yn: o valor esperado mY, a au-
tocorrelação RY[n], a variância Var[Yn].
Teorema 6
A matriz RXn tem uma estrutura especial. Existem apenas M números diferentes entre os M2
elementos da matriz e cada diagonal de RXn consiste em elementos idênticos. Essa matriz está em
uma categoria conhecida como formas de Toeplitz. A estrutura de Toeplitz simplifica o cálculo da
inversa RXn–1.
Exemplo 10
A sequência estacionária no sentido amplo Xn tem autocorrelação RX[n], conforme dada no Exemplo
5. Determine a matriz de correlação de X33 = [X30 X31 X32 X33]9.
...........................................................................
Pelo Teorema 6, X33 tem comprimento M = 4 e matriz de correlação de Toeplitz
RX [0] RX [1] RX [2] RX [3] 4 2 0 0
RX [1] RX [0] RX [1] RX [2] 2 4 2 0
RX33 =
RX [2] RX [1] RX [0] RX [1] = 0 2 4 2 .
(48)
Representamos um filtro hn LTI FIR de ordem M – 1 pelo vetor linha
h = h 0 · · · h M − 1 . (49)
Com entrada Xn, a saída Yn no instante n, conforme dada pela convolução de entrada-saída da
Equação (27), pode ser expressa de modo conveniente em notação de vetor como
−
←
Y n = h X n (50)
←−
em que h = hM − 1 · · · h0 . Devido à equivalência do filtro hn e do vetor h9, é uma terminologia
comum referir-se a um vetor de filtro h9 simplesmente como um filtro FIR1. Conforme fizemos para o
vetor de sinal Xn, representamos o filtro FIR h com elementos em índice crescente de tempo. Porém,
conforme observamos na Equação (50), a convolução de tempo discreto com o filtro hn emprega o
vetor de filtro h com seus elementos em ordem invertida de tempo. Nesse caso, colocamos uma seta
−
←
para a esquerda sobre o h, como em h , para a versão de h com tempo invertido.
Exemplo 11
O filtro de média hn com ordem M – 1 dado no Exemplo 7 pode ser representado pelo vetor de
elementos
1
h= 1 1 ··· 1 . (51)
M
Para um filtro FIR h, normalmente se deseja processar um bloco de entradas representado pelo
vetor X = [X0 . . . XL–1]9. O vetor de saída Y é a convolução discreta de h e X. O n-ésimo elemento
de Y é Yn dado pela convolução de tempo discreto da Equação (27) ou, de modo equivalente, pela
Na verdade, é conveniente referir-se tanto a h9 quanto ao seu vetor coluna correspondente h como um filtro.
1
suplemento de processamento de sinais (sps) 13
Equação (50). Na implementação da convolução discreta dos vetores, é comum considerar X como
preenchido com zeros, de modo que Xi = 0 para i < 0 e para i > N – 1. Nesse caso, a convolução
discreta (50) resulta em
Y0 = h 0 X 0 , (52)
Y1 = h 1 X 0 + h 0 X 1 , (53)
e assim por diante. O vetor de saída Y está relacionado a X por Y = HX, onde
Y0 h0 X0
.. .. ... ..
. .
.
YM − 1 hM − 1 · · · h0 XM − 1
.
.. ... ... .
. .
.. = . . (54)
... ... ..
.
Y · · · h0
L− 1 hM − 1 XL− M
.. ... .. ..
. . .
YL+M − 2 hM − 1 XL− 1
Y H X
Assim como para processos de tempo contínuo, geralmente é difícil determinar a PMF ou a PDF
de uma saída de filtro isolada Yn ou da saída de vetor Y. Assim como para sistemas de tempo
contínuo, o caso especial de um processo de entrada gaussiano é um exemplo digno de nota.
Teorema 7
Considere que a entrada de um filtro FIR h = [h0 . . . hM–1]9 seja o vetor X = [X0 . . . XL–1]9,
consistindo em amostras de um processo gaussiano estacionário Xn com valor esperado m e
função de autocorrelação RX[k]. A saída Y = HX conforme dada pela Equação (54), é um
vetor aleatório gaussiano com valor esperado e matriz de covariância dados por
µY = HµX e CY = H(RX − µX µX )H
Prova O Teorema 8.7 verifica se X tem matriz de covariância CX = RX – mXm9X. O teorema atual,
então, é resultado imediato do Teorema 8.11.
Na Equação (54), observamos que as saídas da faixa do meio YM–1, . . ., YL–1 representam uma
resposta em estado estável. Para M – 1 ≤ i ≤ L – 1, cada Yi tem a forma Yi = h9Xi, em que
←−
h = hM − 1 · · · h0 (55)
e
Xi = Xi− M +1 Xi− M +2 · · · Xi . (56)
Por outro lado, as saídas iniciais Y0, . . ., YM–2 representam uma resposta transiente resultante da
suposição de que Xi = 0 para i < 0. De modo semelhante, YL, . . ., YL+M–2 são saídas transientes
que dependem de Xi = 0 para i > n. Essa saídas transientes são simplesmente o resultado do uso de
uma entrada de tamanho finito para computações práticas. O Teorema 7 é um resultado geral que
considera componentes transientes no cálculo do valor esperado E[Y] e matriz de covariância CY
através da estrutura da matriz H.
14 suplemento de processamento de sinais (sps)
Porém, um processo gaussiano estacionário Xn é definido para todas as instâncias de tempo n. Nesse
caso, na passagem de X
←n
por um filtro FIR h0, . . ., hM–1, cada saída Yn é dada pela Equação (50), que
repetimos aqui: Yn = h ‘Xn. Ou seja, cada Yn combina as M entradas mais recentes exatamente da
mesma maneira. Quando Xn é um processo estacionário, os vetores Xn são estatisticamente idênticos
para cada n. Essa observação leva ao teorema a seguir.
Teorema 8
Se a entrada para um filtro linear de tempo discreto hn é uma sequência aleatória gaussiana
estacionária Xn, a saída Yn é uma sequência aleatória gaussiana estacionária com valor es-
perado e autocorrelação dadas pelo Teorema 5.
Prova Como Xn é estacionária no sentido amplo, o Teorema 5 implica que Yn é uma sequência es-
tacionária no sentido amplo. Assim, basta mostrar que Yn é uma sequência aleatória gaussiana, pois
o Teorema 13.15 garantirá então que Yn é estacionária. Provamos essa afirmação somente para um
filtro FIR h = [h0 . . . hM–1]9. Ou seja, para cada conjunto de instâncias de tempo n1 < n2 < . . . <
nk, mostraremos que Y = [Yn1 Yn2 Ynk]9 é um vetor aleatório gaussiano. Para começar, definimos L
de modo que nk = n1 + L – 1. Em seguida, definimos os vetores X = [Xn1–M+1 Xn1–M+2 . . . Ynk]9 e
Ŷ = Ĥ X, em que
···
hM − 1 ··· h0
Ĥ = ..
.
..
. (57)
hM − 1 · · · h0
é uma matriz de Toeplitz L × (L + M – 1). Observamos que Y1̂ = Yn1, Ŷ2 = Yn1+1, . . ., ŶL = Ynk.
Assim, os elementos de Y são um subconjunto dos elementos de Ŷ e podemos definir uma matriz
de seleção k × L B tal que Y = BŶ. Observe que Bij = 1 se ni = n1 + j – 1, caso contrário Bij = 0.
Assim, Y = BHX e segue-se pelo Teorema 8.11 que Y é um vetor aleatório gaussiano.
Teste 3
A sequência aleatória gaussiana estacionária X0, X1, . . . com valor esperado E[Xn] = 0 e função de
covariância RX[n] = dn é a entrada de um filtro de média móvel h = (1/4)[1 1 1 1]9. A saída é Yn.
Determine a PDF de Y = [Y33 Y34 Y35]’.
A maioria dos telefones celulares contém microprocessadores de sinais digitais que realizam previsão
linear como parte de um algoritmo de compactação de voz. Em um previsor linear, uma forma de
onda de voz é considerada como uma função amostral do processo estocástico estacionário no sentido
amplo X(t). A forma de onda é amostrada a cada T segundos (normalmente, T = 1/8000 segundos)
para produzir a sequência aleatória Xn = X(nT). O problema de previsão é estimar uma amostra
de fala futura, Xn+k, usando N amostras de fala anteriores Xn–M+1, Xn–M+2, . . ., Xn. A necessidade de
minimizar o custo, a complexidade e o consumo de energia do previsor torna um filtro linear basea-
do em DSP uma escolha atraente.
suplemento de processamento de sinais (sps) 15
Na terminologia do Teorema 12.6, queremos formar uma estimativa linear da variável aleatória
X = Xn+k usando o vetor de observação aleatória Y = [Xn–M+1 . . . Xn]9. A solução geral para este
problema foi dada na Seção 12.4 na forma dos Teoremas 12.6 e 12.7. Quando a variável aleatória X
tem valor esperado zero, aprendemos pelo Teorema 12.6 que o estimador linear do erro médio qua-
drático mínimo de X, dado um vetor de observação Y, é
em que
Enfatizamos que esta é uma solução geral para a variável aleatória X e vetor de observação Y.
No contexto de uma sequência aleatória Xn, as Equações (59) e (60) podem resolver uma grande
variedade de problemas de estimativa e previsão com base em um vetor de observação Y deriva-
do do processo Xn. Quando X é um valor futuro do processo Xn, a solução é um previsor linear.
Quando X = Xn e Y é uma coleção de observações com ruído, a solução é um estimador linear. A
seguir, descrevemos alguns exemplos básicos de previsão e estimativa. Esses exemplos comparti-
lham o recurso comum de que o previsor ou estimador linear podem ser implementados como um
filtro linear de tempo discreto.
em que a9 = RXYRY–1. Seguindo a notação da Equação (50), a saída do filtro no instante n será
−
←
X̂L (Xn ) = h Xn . (63)
Comparando
←
as Equações (60) e (63), vemos que o previsor pode ser implementado na forma h
escolhendo h9 = a9 ou
−
←
h = a . (64)
Ou seja, o vetor de filtro ótimo h9 = [h0 . . . hM–1] é simplesmente o a9 revertido no tempo. Para com-
pletar a derivação do filtro de previsão ótimo, observamos que Y = Xn e que RY = RXn, conforme
dado pelo Teorema 6. A matriz de correlação cruzada RXY é
RXY = RXn+k Xn = E Xn+k Xn− M +1 · · · Xn− 1 Xn
= E Xn+k Xn− M +1 · · · Xn+k Xn− 1 Xn+k Xn
= RX [M + k − 1] · · · RX [k + 1] RX [k] . (65)
Resumimos essa conclusão no teorema a seguir. Um exemplo aparece em seguida.
16 suplemento de processamento de sinais (sps)
Teorema 9
Considere que Xn seja um processo aleatório estacionário no sentido amplo, com valor espera-
do E[Xn] = 0 e função de autocorrelação RX[k]. O filtro linear de erro médio quadrático mínimo
de ordem M – 1 para prever Xn+k no instante n é o filtro h tal que
−
←
h = RXn+k Xn R−X1n ,
em que RXn é dado pelo Teorema 6 e RXnXn+k é dado pela Equação (65).
Exemplo 12
Xn é uma sequência aleatória estacionária no sentido amplo com E[Xn] = 0 e função de autocor-
relação RX[k] = (–0,9)|k|. Para M = 2 amostras, determine h = [h0 h1]9, os coeficientes do previsor
linear ótimo de X = Xn+1, dado Y = [Xn–1 Xn]9. Qual é o previsor linear ótimo de Xn+1 dados Xn–1
e X n?
. . . . . . . . . . . . . . . .←. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
O filtro ótimo é h9 = h 9, em que a9 é dado pela Equação (60). Para M = 2, o vetor a9 = [a0 a1] deve
satisfazer a9RY = RXY. Pelo Teorema 6 e Equação (65),
RX [0] RX [1]
a0 a 1 = RX [2] RX [1] (66)
RX [1] RX [0]
ou
1 − 0,9
a 0 a1 = 0,81 − 0,9 . (67)
− 0,9 1
A solução para essas equações é a0 = 0 e a1 = –0,9. Portanto, o filtro de previsão linear ótimo é
h = h0 h1 = a1 a0 = − 0,9 0 . (68)
O previsor ideal ótimo de Xn+1, dados Xn–1 e Xn é
−
← Xn− 1
X̂n+1 = h Y = 0 − 0,9 = − 0,9Xn . (69)
Xn
Exemplo 13
Teorema 10
Se Xn tem função de autocorrelação RX[n] = b|n|RX [0], o previsor linear ótimo de Xn+k, dadas
as M amostras anteriores Xn–M+1, Xn–M+2, . . . , Xn é
X̂n+k = bk Xn
Pelo Teorema 6, vemos que RXY é a linha de ordem M de RY escalada por bk. Assim, a solução para
a9RY = RXY é um vetor a9 = [0 . . . 0 bk]. O erro médio quadrático é
e∗L = E (Xn+k − bk Xn )2 = RX [0] − 2bk RX [k] + b2k RX [0]
= RX [0] − 2b2k RX [0] + b2k RX [0]
= RX [0] (1 − b2k ). (73)
Quando bk está próximo de 1, Xn+k e Xn estão altamente correlacionados. Neste caso, a sequên-
cia varia lentamente e a estimativa bkXn será próxima de Xn e também próxima de Xn+k. Como b2k
também é próximo de 1, o erro médio quadrático e*L será próximo de zero. À medida que bk se torna
menor, Xn+k e Xn tornam-se menos correlacionados. Consequentemente, a sequência aleatória tem
uma variação muito maior. O previsor é incapaz de rastrear essa variação e o valor previsto aproxi-
ma-se de E[Xn+k] = 0. Ou seja, quando a observação nos diz pouco sobre o futuro, o previsor precisa
contar com um conhecimento prévio da sequência aleatória. Além disso, observamos para um valor
fixo de b que aumentar k reduz b2k e as estimativas são menos acuradas, ou seja, as previsões mais
para o futuro também serão.
Além do mais, o Teorema 10 declara que, para sequências aleatórias com funções de autocorrela-
ção na forma RX[k] = b|k|RX[0], Xn é a única variável aleatória que contribui para a previsão linear
ótima de Xn+1. Outra forma de declarar isso é que, no instante n + 1, toda a informação sobre o
histórico passado da sequência é resumida no valor de Xn. As sequências aleatórias de valor discreto
com essa propriedade são conhecidas como cadeias de Markov de tempo discreto. A análise dos mo-
delos de probabilidade das cadeias de Markov de tempo discreto pode ser encontrada no Suplemento
das Cadeias de Markov.
a reversão de tempo de a. Tudo o que resta é identificar RYn e RXYn. Na forma de vetor,
Xn = Xn− M +1 · · · Xn− 1 Xn , (74)
Wn = Wn− M +1 · · · Wn− 1 Wn , (75)
18 suplemento de processamento de sinais (sps)
Yn = Xn + Wn . (76)
Isso implica
RYn = E [Yn Y n ] = E [(Xn + Wn )(X n + W n )]
= E [Xn X n + Xn W n + Wn X n + Wn W n ] (77)
visto que E[XnW9n] = E[Xn] E[Wn] = 09. Assim, pelas Equações (74) e (79),
RXYn = RXn Xn = E Xn Xn− M +1 · · · Xn− 1 Xn
= RX [M − 1] · · · RX [1] RX [0] . (80)
Esses fatos são resumidos no teorema a seguir. Um exemplo pode ser visto a seguir.
Teorema 11
Exemplo 14
Isso implica
a = RXY R−Y1
1,2 − 0,9 − 1
= − 0,9 1 = − 0,2857 0,6190 . (83)
− 0,9 1,2
O filtro ótimo é h9 = a9 = [0,6190 –0,2857].
No Exemplo 14, o filtro de estimativa combina as observações para obter o benefício dual da mé-
dia das amostras com ruído, bem como a exploração da correlação de Xn–1 e Xn. Uma versão geral
do Exemplo 14 é examinada no Problema 4.6.
Teste 4
Xn é uma sequência aleatória estacionária no sentido amplo com E[Xn] = 0 e função de autocorrelação
(0,9)|n| + 0,1 n = 0,
RX [n] =
(0,9)|n| caso contrário. (84)
Para M = 2 amostras, determine h = [h0 h1]’, o filtro de previsão linear ótimo de Xn+1, dados Xn–1
e Xn. Qual é o erro médio quadrático do previsor linear ótimo?
rect(τ /T ) T sinc(f T )
1 f
sinc(2W τ ) rect( )
2W 2W
Observe que a é uma constante positiva e que as funcões rect e sinc são
definidas como
1 |x| < 1/2,
rect(x) =
0 caso contrário,
sen(πx)
sinc(x) = .
πx
Tabela 1 Pares de transformada de Fourier de sinais comuns.
Tabela 1 Pares de transformada de Fourier de sinais comuns.
Tabela Propriedades da
Tabela 22 Propriedades da transformada
transformada de
de Fourier.
Fourier.
Referimo-nos a SX(f) como a função de densidade, pois ela pode ser interpretada como a quanti-
dade de potência em X(t) no intervalo infinitesimal de frequências [f, f + df]. Fisicamente, SX(f) tem
unidades de watts/Hz = Joules. Conforme indicado no Teorema 13(b), a potência média de X(t) é
a integral de SX(f) por todas as frequências em –∞ < f < ∞.
Tanto a função de autocorrelação quanto a função de densidade espectral de potência transmitem
informações sobre a estrutura de tempo de X(t). O teorema de Wiener-Khintchine mostra que elas
transmitem a mesma informação.
Teorema 12 Wiener-Khintchine
Se X(t) é um processo estocástico estacionário no sentido amplo, RX(t) e SX(f ) são o par de
transformadas de Fourier
∞ ∞
SX (f ) = RX (τ )e− j2πf τ dτ, RX (τ ) = SX (f ) ej2πf τ df.
−∞ −∞
T
Prova Visto que x(t) tem valor real, XT∗ (f ) = x(t )ej2πf t dt. Como |XT(f)|2 = XT(f)XT*(f),
−T
T T
X(t)e− j2πf t dt
E |XT (f )|2 = E x(t )ej2πf t dt
−T −T
T T
E X(t)X(t ) e− j2πf (t− t ) dt dt
=
−T −T
T T
RX (t − t )e− j2πf (t− t ) dt dt . (86)
=
−T −T
22 suplemento de processamento de sinais (sps)
O teorema a seguir declara três propriedades importantes de SX(f).
Teorema 13
Para um processo aleatório estacionário no sentido amplo X(t), a densidade espectral de po-
tência SX(f) é uma função de valor real com as seguintes propriedades:
(a) SX (f ) ≥ 0 para todo f
∞
(b) SX (f ) df = E[X 2 (t)] = RX (0)
−∞
(c) SX (− f ) = SX (f )
Prova A primeira propriedade segue da Definição 2, na qual SX(f) é o valor esperado da média de
tempo de uma quantidade não negativa. A segunda propriedade segue substituindo t = 0 no Teorema
12 e referindo-se à Definição 1. Para provar a terceira propriedade, observamos que RX(t) = RX(–t)
implica
∞
SX (f ) = RX (− τ )e− j2πf τ dτ. (92)
−∞
Fazendo a substituição t' = – t, obtemos
∞
RX (τ )e− j2π(− f )τ dτ = SX (− f ) . (93)
SX (f ) =
−∞
suplemento de processamento de sinais (sps) 23
Exemplo 15
Um processo estacionário no sentido amplo X(t) tem função de autocorrelação RX(t) = Ae–b|t|, em que
b > 0. Derive a função de densidade espectral de potência SX(f) e calcule a potência média E[X2(t)].
...........................................................................
Para achar SX(f), usamos a Tabela 1, pois RX(t) tem a forma ae–a|t|.
2Ab
SX (f ) = . (94)
(2πf )2 + b2
A potência média é
∞
2Ab
2
E X (t) = RX (0) = Ae − b|0|
= df = A. (95)
−∞ (2πf )2 + b2
A Figura 1 apresenta três gráficos para cada um dos dois processos estocásticos na família
estudada no Exemplo 15: V(t) com RV(t) = e–0,5|t| e W(t) com RW(t) = e–2|t|. Para cada proces-
so, os três gráficos são a função de autocorrelação, a função de densidade espectral de potência
e uma função amostral. Para os dois processos, a potência média é A = 1 watt. Observe que
W(t) tem uma autocorrelação mais estreita (menor dependência entre dois valores do processo
com determinada separação de tempo) e uma densidade espectral de potência mais larga (mais
potência em frequências mais altas) do que V(t). A função amostral w(t) flutua mais rapida-
mente do que v(t).
1 1
RW(τ)
R (τ)
0,5 0,5
V
0 0
−3 −2 −1 0 1 2 3 −3 −2 −1 0 1 2 3
τ τ
4 4
S (f)
SV(f)
2 2
W
0 0
−1 −0,5 0 0,5 1 −1 −0,5 0 0,5 1
f f
2 2
W(t)
0 0
V(t)
−2 −2
0 1 2 3 4 0 1 2 3 4
t t
Os processos aleatórios V(t) e W(t) com funções de autocorrelação RV(t) = e–0,5|t| e RW(t) = e–2|t|
são exemplos do processo X(t) no Exemplo 15. Esses gráficos mostram RV(t) e RW(t), as funções de
densidade espectral de potência SV(f) e SW(f), e caminhos de amostra de V(t) e W(t).
Exemplo 16
Para o processo aleatório Y(t) do Exemplo 2, determine a densidade espectral de potência SY(f).
...........................................................................
Pela Definição 2 e a função de autocorrelação triangular RY(t) dada na Equação (16), podemos
escrever
0 T
η0
RY (τ ) = 2 (T + τ )e − j2πf τ
dτ + (T − τ )e − j2πf τ
dτ . (96)
T
−T 0
Com a substituição t9 = – t na integral da esquerda, obtemos
T T
η0 j2πf τ − j2πf τ
RY (τ ) = 2 (T − τ )e
dτ + (T − τ )e dτ
T 0 0
2η0 T
= 2 (T − τ ) cos(2πf τ ) dτ. (97)
T 0
Usando a integração por partes (Apêndice B, Fato Matemático B.10), u = T – t e dv = cos(2p f t)
dt, resultam em
T T
2η0 (T − τ ) sen(2πf τ ) sen(2πf τ )
RY (τ ) = 2 + dτ
T 2πf 0 0 2πf
2η0 (1 − cos(2πf T ))
= . (98)
(2πf T )2
Teste 5
Uma função amostral de uma sequência aleatória é uma lista ordenada de números. Cada número na
lista é um valor amostral de uma variável aleatória. A transformada de Fourier de tempo discreto
(DTFT) é uma representação espectral de um conjunto ordenado de números.
suplemento de processamento de sinais (sps) 25
A sequência {. . ., x–1, x0, x1, . . .} e a função X(f) são um par de transformadas de Fourier de
tempo discreto (DTFT) se
∞ 1/2
− j2πφn
X(φ) = xn e , xn = X(φ)ej2πφn dφ.
n=−∞ − 1/2
A Tabela 3 oferece uma tabela de transformadas de Fourier de tempo discreto comumente en-
contradas.
Note que f é uma frequência adimensional normalizada, com intervalo de –1/2 ≤ f ≤ 1/2 e X(f)
é periódica com período unitário. Esta propriedade reflete o fato de que uma lista de números em
si não possui nenhuma escala de tempo inerente. Quando a sequência aleatória Xn = X(nTs) con-
siste em amostras de um processo de tempo contínuo amostradas na frequência fs = 1/Ts Hz, a
frequência normalizada f corresponde à frequência f = ffs Hz. A faixa de frequência normalizada
–1/2 ≤ f ≤ 1/2 reflete a exigência do teorema da amostragem de Nyquist, em que a amostragem
de um sinal na taxa fs permite que o sinal amostrado descreva componentes de frequência no in-
tervalo –fs/2 ≤ f ≤ fs/2.
Observe que d[n] é o impulso discreto, u[n] é o degrau unitário discreto, e a é uma constante com
magnitude |a| < 1.
Exemplo 17
1 1 − e− j2πφM
H(φ) = . (101)
M 1 − e− j2πφ
Observamos anteriormente que muitas funções de tempo não possuem transformadas de Fourier.
De modo semelhante, a soma na Definição 3 não converge para funções amostrais de muitas sequên-
cias aleatórias. Para trabalhar com essas funções amostrais, nossa análise é semelhante àquela dos
processos de tempo contínuo. Definimos uma função amostral truncada que é idêntica a xn para –L ≤
n ≤ L e 0 em caso contrário. Usamos a notação XL(f) para a transformada de Fourier de tempo
discreto desta sequência:
L
XL (φ) = xn e− j2πφn . (102)
n=− L
A função de densidade espectral de potência da sequência aleatória Xn é o valor esperado |XL(f)|2/
(2N + 1).
As propriedades da função de densidade espectral de potência de uma sequência aleatória são se-
melhantes às propriedades da função de densidade espectral de potência de um processo estocástico
suplemento de processamento de sinais (sps) 27
de tempo contínuo. O teorema a seguir corresponde ao Teorema 13 e, além disso, descreve a perio-
dicidade de SX(f) para uma sequência aleatória.
Teorema 15
Para uma sequência aleatória estacionária no sentido amplo Xn, a densidade espectral de po-
tência SX(f) tem as seguintes propriedades:
(a) SX (φ) ≥ 0 para todo f,
1/2
(b) SX (φ) dφ = E[Xn2 ] = RX [0],
− 1/2
(c) SX (− φ) = SX (φ),
(d) para qualquer inteiro n, SX (φ + n) = SX (φ).
Exemplo 18
A sequência aleatória estacionária no sentido amplo Xn tem valor esperado zero e função de au-
tocorrelação
σ 2 (2 − | n|)/4 n = − 1, 0, 1,
RX [k] = (103)
0 caso contrário.
Derive a função de densidade espectral de potência de Xn.
...........................................................................
Aplicando o Teorema 14 e a Definição 3, temos
1
SX (φ) = RX [n] e− j2πnφ
n=− 1
(2 − 1) j2πφ 2 (2 − 1) − j2πφ
2
=σ e + + e
4 4 4
σ2 σ2
= + cos(2πφ). (104)
2 2
Exemplo 19
A sequência aleatória estacionária no sentido amplo Xn possui valor esperado zero e densidade
espectral de potência
1 1
SX (φ) = δ(φ − φ0 ) + δ(φ + φ0 ) (105)
2 2
em que 0 < f0 < 1/2. Qual é a autocorrelação RX[k]?
...........................................................................
Pelo Teorema 14, temos
1/2
RX [k] = (δ(φ − φ0 ) + δ(φ + φ0 )) ej2πφk dφ. (106)
− 1/2
28 suplemento de processamento de sinais (sps)
Teste 6
A sequência aleatória Xn tem função de densidade espectral de potência SX(f) = 10. Derive RX[k],
a função de autocorrelação de Xn.
Quando dois processos são estacionários conjuntos no sentido amplo, podemos estudar a correlação
cruzada no domínio de frequência.
Para os processos aleatórios estacionários conjuntos no sentido amplo X(t) e Y(t), a transfor-
mada de Fourier da correlação cruzada resulta na densidade espectral cruzada
∞
SXY (f ) = RXY (τ )e− j2πf τ dτ.
−∞
...........................................................................
Para as sequências aleatórias estacionárias conjuntas no sentido amplo Xn e Yn, a trans-
formada de Fourier de tempo discreto da correlação cruzada resulta na densidade espec-
tral cruzada
∞
SXY (φ) = RXY [k] e− j2πφk .
k=−∞
Exemplo 20
No Exemplo 13.24, estávamos interessados em X(t), mas poderíamos observar somente Y(t) =
X(t) + N(t), em que N(t) é um processo com ruído estacionário no sentido amplo com mN = 0. Nesse
caso, quando X(t) e N(t) são estacionários conjuntos no sentido amplo, descobrimos que
RY (τ ) = RX (τ ) + RXN (τ ) + RN X (τ ) + RN (τ ). (108)
Tomando a transformada de Fourier dos dois lados, obtemos a densidade espectral de potência da
observação Y(t).
SY (f ) = SX (f ) + SXN (f ) + SN X (f ) + SN (f ) . (109)
Exemplo 21
Continuando o Exemplo 20, suponha que N(t) e X(t) sejam independentes. Determine a autocor-
relação e a densidade espectral de potência da observação Y(t).
...........................................................................
Neste caso,
RY (τ ) = RX (τ ) + RN (τ ), (111)
SY (f ) = SX (f ) + SN (f ) . (112)
Teste 7
O processo aleatório Y(t) = X(t – t0) é uma versão adiada no tempo do processo estacionário no
sentido amplo X(t). Determine a densidade espectral cruzada SXY(t).
W (f ) = H(f )V (f ). (113)
em que as três funções da frequência são transformadas de Fourier de tempo discreto definidas na
Definição 3. Quando o filtro de tempo discreto contém seções adiante e de retorno, como na Equação
(28), a função de transferência é
H(f)
B
f
-f0 f0
Figura 2 O filtro passa-banda ideal H(f) com frequência central f0 e largura de banda B Hz.
em que A(f) e B(f) são as transformadas de Fourier de tempo discreto da seção adiante e da seção
de retorno, respectivamente.
No estudo de processos estocásticos, nossa principal representação no domínio de frequência do
processo de tempo contínuo X(t) é a função de densidade espectral de potência SX(f) na Definição
2, e nossa principal representação da sequência aleatória Xn é SX(f) na Definição 4. Quando X(t)
ou Xn é a entrada de um filtro linear com função de transferência H(f) ou H(f), o teorema a seguir
apresenta o relacionamento da função de densidade espectral de potência da saída do filtro para a
função correspondente do processo de entrada.
Teorema 16
Prova Referimo-nos ao Teorema 12 para lembrar que SY(f) é a transformada de Fourier de RY(t).
Depois, substituímos o Teorema 2(a) na definição da transformada de Fourier para obter
∞ ∞ ∞
SY (f ) = h(u)h(v)RX (τ + v − u) du dv e− j2πf τ dτ. (116)
−∞ −∞ −∞
Substituindo t' = t + v – u, obtemos
∞ ∞ ∞
h(u)e− j2πf u du RX (τ )e− j2πf τ dτ (117)
SY (f ) = h(v)ej2πf v dv
−∞ −∞ −∞
H(f ) H ∗ (f ) SX (f )
Assim, SY(f) = H(f)H (f)SX(f) = |H(f)| SX(f). A prova é semelhante para sequências aleatórias.
* 2
Agora, estamos prontos para justificar a interpretação de SX(f) como uma função de densidade.
Como mostra a Figura 2, suponha que H(f) seja um filtro passa-banda estreito, ideal, da largura de
banda B, centralizado na frequência f0. Ou seja,
suplemento de processamento de sinais (sps) 31
1 |f ± f0 | ≤ B/2,
H(f ) = (118)
0 caso contrário.
Nesse caso, passar o processo aleatório X(t) pelo filtro H(f) sempre produz uma forma de onda de
saída Y(t) que está na banda de passagem do filtro H(f). Como vimos, a densidade espectral de po-
tência da saída do filtro é
Exemplo 22
Um processo estacionário no sentido amplo X(t) com função de autocorrelação RX(t) = e–b|t| é a
entrada de um filtro RC com resposta ao impulso
(1/RC)e− t/RC t ≥ 0,
h(t) = (122)
0 caso contrário.
Supondo que b > 0 e b ≠ 1/RC, encontramos SY(f) e RY(t), a densidade espectral de potência e
autocorrelação da saída de filtro Y(t). Qual é a potência média do processo estocástico de saída?
...........................................................................
Por conveniência, considere que a = 1/RC. Como a resposta ao impulso tem a forma h(t) = ae–atu(t)
e RX(t) = e–b|t|, a Tabela 1 nos diz que
a 2b
H(f ) = , SX (f ) = . (123)
a + j2πf (2πf )2 + b2
Portanto,
a2
|H(f )|2 = (124)
(2πf )2 + a2
e, pelo Teorema 16, SY(f ) = |H(f )|2SX(f ). Usamos o método das frações parciais para escrever
2ba2
SY (f ) =
[(2πf )2 + a2 ][(2πf )2 + b2 ]
2ba2 /(b2 − a2 ) 2ba2 /(b2 − a2 )
= − . (125)
(2πf )2 + a2 (2πf )2 + b2
32 suplemento de processamento de sinais (sps)
Reconhecendo que, para qualquer constante c > 0, e–c|t| e 2c/((2πf )2 + c2) são pares de transformada
de Fourier, obtemos a autocorrelação de saída
ba a2
RY (τ ) = e− a|τ | − 2 e− b|τ | . (126)
b2 − a 2 b − a2
Pelo Teorema 13, obtemos a potência média
ba − a2 a
E Y 2 (t) = RY (0) = 2 = . (127)
b − a 2 (b + a)
Exemplo 23
Derive SY(f), a função da densidade espectral de potência da sequência de saída Yn. Qual é o va-
lor de E[Yn2]?
...........................................................................
A transformada de Fourier discreta de hn é
H(φ) = 1 − ej2πφ − e− j2πφ = 1 − 2 cos(2πφ). (130)
Portanto, pelo Teorema 16, temos
SY (φ) = |H(φ)|2 SX (φ) = [1 − 2 cos(2πφ)]2 [2 + 2 cos(2πφ)]
Aplicando a identidade cos3(x) = 0,75 cos(x) + 0,25 cos(3x), podemos simplificar esta fórmula para
obter
Exemplo 24
Relembramos que, no Exemplo 7, a sequência aleatória estacionária no sentido amplo Xn com va-
lor esperado mX = 0 e função de autocorrelação RX[n] = s2dn é passada pelo filtro de média móvel
de tempo discreto de ordem M – 1
1/M 0 ≤ n ≤ M − 1,
hn = (134)
0 caso contrário.
suplemento de processamento de sinais (sps) 33
Ache a densidade espectral de potência SY(f) para a saída do filtro de média móvel de tempo dis-
creto Yn.
...........................................................................
Usando o Teorema 16, SY(f) = |H(f)|2SX(f). Observamos que SX(f) = s2. No Exemplo 17, desco-
brimos que
1 1 − e− j2πφM
H(φ) = . (135)
M 1 − e− j2πφ
Como |H(f)|2 = H(f)H*(f), segue-se que
σ 2 1 − e− j2πφM 1 − ej2πφM
SY (φ) = H(φ)H ∗ (φ)SX (φ) =
M2 1 − e− j2πφ 1 − ej2πφ
σ 2
1 − cos(2πM φ)
= 2 . (136)
M 1 − cos(2πφ)
Teorema 17
...........................................................................
34 suplemento de processamento de sinais (sps)
Teste 8
Um processo estocástico estacionário no sentido amplo X(t) com valor esperado mX = 0 e função de
autocorrelação RX(t) = e–5000|t| é a entrada de um filtro RC com constante de tempo RC = 100 ms.
A saída do filtro é o processo estocástico Y(t).
(a) Derive SXY(f ), a função de densidade espectral de potência cruzada de X(t) e Y(t);
(b) Derive SY(f ), a função de densidade espectral de potência de Y(t).
2
(c) Qual é o valor de E[Y (t)], a potência média da saída do filtro?
Nesta seção, observamos uma função amostral de um processo estocástico de tempo contínuo esta-
cionário no sentido amplo Y(t) e projetamos um filtro linear para estimar uma função amostral de
outro processo estacionário no sentido amplo X(t). O filtro linear que minimiza o erro médio qua-
drático é conhecido como um filtro de Wiener. As propriedades de um filtro de Wiener são mais
bem representadas no domínio da frequência.
Teorema 18
X(t) e Y(t) são processos estocásticos estacionários com funções de densidade espectral de
potência SX(f) e SY(f), e função de densidade espectral cruzada SXY(f). X(t) é a saída de um
filtro linear com entrada Y(t) e função de transferência H(f). A função de transferência que
minimiza o erro médio quadrático E[(X(t) – X(t))2] é
SXY (f ) S (f ) > 0,
Y
Ĥ(f ) = SY (f )
0 caso contrário.
N(t) são processos estocásticos independentes. Segue-se que a função espectral de potência de Y(t)
é SY(f ) = SX(f ) + SN(f ), e a função de densidade espectral cruzada é SXY(f ) = SX(f ). Pelo Teorema
18, a função de transferência do filtro de estimativa ótimo é
SX (f )
Ĥ(f ) = , (137)
SX (f ) + SN (f )
Exemplo 25
Neste exemplo, o filtro de estimativa ótimo é um filtro passa-baixas ideal com uma resposta ao
impulso que tem valores diferentes de zero para todo de –∞ a ∞. Esse filtro não pode ser implemen-
tado no hardware prático. O projeto de filtros que minimizam o erro de estimativa médio quadrático
sob restrições práticas é abordado em textos mais avançados. A Equação (138) é um limite inferior
sobre o erro de estimativa para qualquer filtro prático.
Teste 9
4 4
Xn Xn
2 Yn 2 Yn
0 0
−2 −2
−4 −4
0 10 20 30 0 10 20 30
n n
M =2 M = 10
Figura 4 Caminhos amostrais da entrada Xn e saída Yn do filtro de média móvel de ordem M – 1 do
Exemplo 26.
Um receptor de rádio obtém Y(t) = X(t) + N(t), em que a interferência N(t) é um processo esta-
cionário no sentido amplo com mN = 0 e Var[N] = 1 watt. A função de densidade espectral de po-
tência de N(t) é SN(f ) = N0 para |f | ≤ B e SN(f ) = 0 para |f | > B. X(t) e N(t) são independentes.
(a) Qual é o relacionamento entre a densidade espectral de potência de ruído N0 e a largura de
banda de interferência B?
(b) Qual é a função de transferência do filtro de estimativa ótimo que processa Y(t) a fim de
estimar X(t)?
(c) Qual é o valor mínimo da largura de banda de interferência B Hz que resulta em um erro
médio quadrático mínimo eL* ≤ 0,05?
10 MATLAB
Os métodos de domínio de tempo, como a filtragem linear para uma sequência aleatória introduzida
na Seção 2, podem ser implementados diretamente usando as técnicas do Matlab para processamento
de matrizes e vetores. Em Matlab, o processamento em bloco é especialmente comum.
suplemento de processamento de sinais (sps) 37
Exemplo 26
Dada uma função de autocorrelação RX[k] e filtro hn, o Matlab também pode usar a convolução
e o Teorema 5 para calcular a autocorrelação de saída RY[k] e a correlação cruzada entrada-saída
RXY [k].
Exemplo 27
Para o processo aleatório Xn e filtro de suavização hn do Exemplo 5, use o Matlab para calcular
RY[k] e RXY[k].
...........................................................................
A solução, dada por smoothcorrelation.m, e saída correspondente são:
As funções RX[k], RXY[k] e RY[k] são representadas pelos vetores rx, rxy e ry. Pelo Teorema
5(c), a autocorrelação de saída ry é a convolução de RXY[k] com o filtro invertido no tempo h–n. No
Matlab, fliplr(h) reverte o tempo ou muda de estado do vetor linha h. Observe que os vetores
rx, rxy e ry não registram a hora inicial das funções correspondentes. Como rx e ry descre-
vem funções de autocorrelação, podemos deduzir que essas funções têm a origem como centro.
Porém, sem conhecimento do filtro hn e autocorrelação RX[k], não existe um modo de deduzir que
rxy(1) = RXY[–1].
38 suplemento de processamento de sinais (sps)
MATLAB torna mais fácil para implementar filtros lineares de estimativa e previsão. No exemplo
a seguir, podemos generalizar a solução do Exemplo 12 para encontrar o previsor linear de ordem N
para Xn+1 dadas M amostras prévias.
Exemplo 28
Para a sequência aleatória estacionária Xn com valor esperado mX = 0, escreva um programa Matlab
lmsepredictor.m para calcular o filtro previsor LMSE de ordem M – 1, h, para X = Xn+1, dada a
observação Xn = [Xn–M+1 . . . Xn]9.
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .←. . . . . . . . . . . . . . . . . .
Pelo Teorema 9, o vetor de filtro h expresso na forma invertida no tempo, é h = RXn–1 RXnXn+1. Nesta
solução, RXn é dado no Teorema 6 e RXnXn+1 aparece na Equação (65) com k = 1. A solução requer
que saibamos o conjunto de valores de autocorrelação {RX(0), . . ., RX(M)}. Existem várias maneiras
de implementar uma solução em Matlab. Uma maneira seria que lmsepredictor exigisse como
argumento um handle para uma função em Matlab que calcula RX(k). Escolhemos um método mais
simples e passamos um vetor rx igual a [RX(0) . . . RX(m – 1)]9. Se M ≥ m, então preenchemos rx
com zeros.
A função lmsepredictor.m supõe que RX(k) = 0 para k ≥ m. Se RX(k) tem uma cauda de
tamanho finito (RX(k) = (0,9)|k|, por exemplo), então o usuário precisa garantir que m > M; caso
contrário, os resultados serão imprecisos. Isso é examinado no Problema 10.5.
Nossa análise de domínio de frequência das sequências aleatórias empregou a transformada de Fourier
de tempo discreto (DTFT). Porém, a DTFT é uma função contínua da variável de frequência nor-
malizada f. Para os métodos de domínio de frequência no Matlab, empregamos a Transformada
Discreta de Fourier (DFT).
Comparando a Definição 6 para a DFT e a Definição 3 para a DTFT, vemos que, para um sinal
de tamanho finito x, a DFT avalia a DTFT X(f) em N frequências igualmente espaçadas,
n
φn = , n = 0, 1, . . . , N − 1, (144)
N
pelo intervalo completo de frequências normalizadas 0 ≤ f ≤ 1. Lembre-se de que a DTFT é simétri-
ca em torno de f = 0 e periódica com período 1. É comum observar a DTFT pelo intervalo –1/2 ≤
f ≤ 1/2. Ao contrário, o Matlab produz valores da DFT sobre 0 ≤ f ≤ 1. Quando L = N, as duas
transformadas coincidem sobre 0 ≤ f ≤ 1/2, enquanto a imagem da DFT sobre 1/2 < f ≤ 1 cor-
~ ~
responde a amostras da DTFT sobre –1/2 < f ≤ 0. Ou seja, X N/2 = X(–1/2), X N/2+1 = X(–1/2 +
1/N), e assim por diante.
Devido à estrutura especial da transformação da DFT, ela pode ser implementada com grande
eficiência como a “Transformada Rápida de Fourier” ou FFT. No Matlab, se x é um vetor de ta-
manho L, então X=fft(x) produz a DFT de L pontos de x. Além disso, X=fft(x,N) produz
a DFT de N pontos de x. Nesse caso, se L < N, então o Matlab preenche o vetor x com N – L
zeros. Porém, se L > N, então o Matlab retorna a DFT do truncamento de x aos seus primeiros
N elementos. Observe que isso é incoerente com a Definição 6 da DFT. Em geral, consideramos
L = N quando nos referimos a uma DFT de N pontos sem referência ao tamanho de dados L. Na
forma da FFT, a DFT é tanto eficiente quanto útil na representação de um processo aleatório no
domínio da frequência.
Exemplo 29
Nas Figuras 5, 7 e 8, vemos a simetria da imagem espelho tanto da DTFT quando da DFT
em torno da frequência f = 1/2. Esta é uma propriedade geral da DFT para sinais de valor real.
Explicamos essa propriedade para o filtro de suavização hn do Exemplo 29. Quando os elementos
de hn são reais, H(– f) = H*(f). Assim, |H(– f)| = |H(f)|, correspondendo à simetria da imagem
espelho para o espectro de magnitude em torno de f = 0. Além do mais, como a DTFT H(f) é
periódica com período unitário, H(f) = H(f – 1). Assim, H(f) pelo intervalo 1/2 ≤ f < 1 é idên-
tica a H(f) pelo intervalo –1/2 ≤ f < 0. Ou seja, em um gráfico da DTFT ou DFT, o lado direito
do gráfico correspondente às frequências normalizadas 1/2 ≤ f < 1 é o mesmo da imagem para fre-
40 suplemento de processamento de sinais (sps)
0,5
0
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
M = 2: smoothdft(2,32)
1
0,5
0
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
M = 10: smoothdft(10,32)
Figura 5 A magnitude da DTFT e a DFT de 32 pontos para o filtro de média móvel de ordem M – 1, hn,
do Exemplo 29.
quências negativas –1/2 ≤ f < 1. Combinando essa observação com a simetria de imagem espelho de
H(f) em torno de f = 0 resulta em simetria por imagem espelho em torno de f = 1/2. Assim, ao
interpretar um gráfico de DTFT ou DFT, baixas frequências são representadas pelos pontos próxi-
mos da borda esquerda e da borda direita do gráfico. Componentes de alta frequência são descritos
pelos pontos perto do meio do gráfico.
Quando L = N, podemos expressar a DFT como a transformação de matriz N × N
Como
X̃ = DFT(x) = F̃xé uma matriz quadrada N × N com uma estrutura especial, seu inverso existe e é dado por
1 ∗
F̃− 1 = F̃ . (148)
N
em que
X̃ = DFT(x) *
= F̃x é obtido tomando a conjugada complexa de cada
X̃ = entrada
DFT(x)de . Assim, dada a DFT X̃ =
= F̃x = DFT(x) =
x, podemos recuperar o sinal original x pela DFT inversa
X̃ = DFT(x) = F̃x
1 ∗
x = IDFT(X̃) = F̃ X̃. (149)
N
Exemplo 30
Escreva uma função F=dftmat(N) que retorna a matriz DFT de N pontos. Encontre a matriz de
DFT F para N = 4 e mostre numericamente que F–1 = (1/N)F*.
...........................................................................
Teorema 19
1 ∗
IDFT(X̃) = DFT(X̃∗ ) .
N
Assim, se x é um vetor de dados de comprimento L com L > N, então a DFT de N pontos produz
um vetor X̃ == DFT(x)
DFT(x) = deF̃x
comprimento N. Para o Matlab, X=fft(x,N) produz a DFT do trunca-
mento de x aos seus N primeiros valores. De qualquer forma, a IDFT definida pelaX̃matriz N×N
= DFT(x) = F̃x–1
ou, de modo equivalente, ifft, também retorna uma saída de comprimento N. Se L > N, a saída
das IDFT não pode ser a mesma que a entrada original x de comprimento L. No caso do Matlab,
ifft retorna a versão truncada do sinal original. Se L < N, então a DFT inversa retorna a entrada
x original preenchida com zeros até o comprimento N.
>> F=dftmat(4)
F =
1.00 1.00 1.00 1.00
1.00 0.00 - 1.00i -1.00 - 0.00i -0.00 + 1.00i
1.00 -1.00 - 0.00i 1.00 + 0.00i -1.00 - 0.00i
1.00 -0.00 + 1.00i -1.00 - 0.00i 0.00 - 1.00i
>> (1/4)*F*(conj(F))
ans =
1.00 -0.00 + 0.00i 0.00 + 0.00i 0.00 + 0.00i
-0.00 - 0.00i 1.00 -0.00 0.00 + 0.00i
0.00 - 0.00i -0.00 - 0.00i 1.00 + 0.00i -0.00 + 0.00i
0.00 - 0.00i 0.00 - 0.00i -0.00 - 0.00i 1.00
>>
Figura 6 A matriz DFT de 4 pontos para o Exemplo 30 conforme gerada por dftmat.m.
42 suplemento de processamento de sinais (sps)
A DFT também pode ser usada para transformar a autocorrelação discreta RX[n] na densidade espec-
tral de potência SX(f). Consideramos que RX[n] é o sinal com comprimento 2L – 1 dado pelo vetor
r = RX [− (L − 1)] RX [− L + 2] · · · RX [L − 1] . (153)
A PSD correspondente é
L− 1
SX (φ) = RX [k] e− j2πφk . (154)
k=− (L− 1)
Dado um vetor r, gostaríamos de gerar o vetor S = [S0 . . . SN–1]9 tal que Sn = SX(n/N). Uma com-
plicação é que a PSD dada pela Equação (154) é uma transformada bilateral, enquanto a DFT na
forma da Definição 6, ou a função fft do Matlab, é uma transformada unilateral. Para sinais de
único lado, as duas transformadas são iguais. Porém, para uma função de autocorrelação bilateral
RX[n], a diferença importa.
Embora o vetor r represente uma função de autocorrelação, ele pode ser visto simplesmente como
uma sequência de números, da mesma forma que qualquer outro sinal de tempo discreto. Visto dessa
~
forma, o Matlab pode usar fft para calcular a DFT R = DFT(r), onde
2
2L−
R̃n = RX [l − (L − 1)] e− j2π(n/N )l . (155)
l=0
Fazemos a substituição k = l 2 (L – 1) para escrever
L− 1
R̃n = RX [k] e− j2π(n/N )(k+L− 1)
k=− (L− 1)
Convolução Circular
Dado o sinal de tempo discreto xn como entrada de um filtro hn, sabemos que a saída yn é a convo-
lução de xn e hn. De modo equivalente, a convolução no domínio do tempo resulta na multiplicação
Y(f) = H(f)X(f) no domínio da frequência.
Quando xn é uma entrada de comprimento L dada pelo vetor x = [x0 . . . xL–1]9, e hn é o filtro
causal de ordem M – 1 h = [h0 . . . hM–1]9, a saída correspondente y tem comprimento L + M – 1.
Se escolhermos N ≥ L + M – 1, então as DFTs de N pontos de h, x e y têm a propriedade de que
Observamos que, para sinais de duração finita e filtros de ordem finita, a DFT pode ser usada quase
como uma substituta para a DTFT. As únicas diferenças observáveis são os deslocamentos de fase
que resultam da função fft, assumindo que todos os vetores de sinal r são indexados para começar
no instante n = 0. Para as sequências de comprimento L ≤ N, a DFT tanto oferece uma trans-
formação reversível no domínio da frequência quanto oferece amostras da DTFT nas frequências
fn = n/N.
Por outro lado, existem muitas aplicações envolvendo sequências aleatórias de duração infinita
para as quais gostaríamos de obter uma caracterização de domínio de frequência. Neste caso, só po-
demos aplicar a DFT a uma amostra de dados de comprimento finito x = [xi xi+1 . . . xi+L–1]9. Assim,
a DFT deveria ser usada com algum cuidado como uma aproximação ou substituto para a DTFT.
Primeiro, como vemos no exemplo a seguir, as amostras de frequência da DFT podem não combinar
exatamente com as frequências de pico de X(f).
Exemplo 31
Mesmo que seja escolhido um grande valor para N, a DFT provavelmente será uma aproxi-
mação fraca da DTFT se o comprimento de dados L escolhido for muito pequeno. Para entender
isso, vemos x como uma representação de vetor do sinal xkwL[k], em que wL[k] é uma função de
janela satisfazendo
1 k = 0, . . . , L − 1,
wL [k] = (159)
0 caso contrário.
Pela Equação (159), vemos que wL[k] é apenas uma versão em escala do filtro de média móvel hn
de ordem M – 1 no Exemplo 26. Em particular, para M = L, wL[k] = Lhk e a DTFT de wL[k] é
44 suplemento de processamento de sinais (sps)
15 10
10
5
5
0 0
0 0,2 0,4 0,6 0,8 1 0 0,2 0,4 0,6 0,8 1
WL(f) = LH(f). Assim, para L = M = 10, WL(f) será semelhante a H(f) no gráfico inferior da
Figura 5. A DTFT da multiplicação no domínio do tempo xkwL[k] resulta na convolução no domínio
da frequência de X(f) e WL(f). Assim, o uso da janela introduz componentes artificiais de alta fre-
quência associados às transições bruscas da função wL[k]. Em particular, se X(f) tem componentes
senoidais nas frequências f1 e f2, esses componentes de sinal não serão distinguíveis se |f1 − f2| <
1/L, não importa o tamanho escolhido para N.
Exemplo 32
10 10
5 5
0 0
0 0,2 0,4 0,6 0,8 1 0 0,2 0,4 0,6 0,8 1
L = 10 L = 20
Figura 8 A DFT de N = 20 pontos de xk = cos(2π(0,20)k) + cos(2π(0,25)k) para o tamanho de dados L.
Por outro lado, se L > N, podemos gerar um sinal encapsulado de comprimento N com a mes-
ma DFT. Em particular, se x tem comprimento L > N, expressamos x como a concatenação de
segmentos de comprimento N
x = [x1 x2 · · · xi ]. (161)
em que o último segmento xi pode ser preenchido com zeros para ter comprimento N. Nesse caso,
definimos o sinal encapsulado de comprimento N como x̂ = x1 + x2 + . . . + xi. Visto que ej2π(n/N)k
~
tem período N, pode-se mostrar que x e x̂ têm a mesma DFT. Se X = DFT(x) = DFT(x̂), então
~
IDFT(X) retornará o sinal encapsulado x̂. Assim, para preservar a reversibilidade da DFT, é desejá-
vel utilizar um registro de dados de comprimento L igual a N, o número de pontos na DFT.
Teste 10
O processo estacionário no sentido amplo Xn do Exemplo 5 percorre o filtro de média móvel de or-
dem M – 1. A saída é Yn. Use uma DFT de 32 pontos para desenhar um gráfico das funções de den-
sidade espectral de potência
(a) SX(f);
(b) SY(f) para M = 2;
(c) SY(f) para M = 10.
Use estes gráficos para interpretar os resultados do Exemplo 26.
Problemas
Dificuldade: Fácil Moderado Difícil Extremamente difícil
1.1 Considere que X(t) indique um processo estacionário no senti- 1.3 X(t), a entrada de um filtro linear invariante no tempo, é
do amplo com mX = 0 e autocorrelação RX(t). Considere que Y(t) = um processo estocástico estacionário no sentido amplo com valor
2 + X(t). O que é RY(t, t)? Y(t) é estacionário no sentido amplo? esperado mX = 4 volts. A saída do filtro Y(t) é um processo esto-
1.2 X(t), a entrada de um filtro linear invariante no tempo, é cástico estacionário no sentido amplo com valor esperado mY =
um processo aleatório estacionário no sentido amplo com valor 1 volt. A resposta ao impulso do filtro é
esperado mX = 3 volts. A resposta ao impulso do filtro é
e− t/a t ≥ 0,
1 − 106 t2 0 ≤ t ≤ 10− 3 s, h(t) =
h(t) = 0 caso contrário.
0 caso contrário.
Qual é o valor esperado do processo de saída Y(t)? Qual é o valor da constante de tempo a?
46 suplemento de processamento de sinais (sps)
1.4 Um sinal de ruído branco gaussiano W(t) com função de 1 n = 0,
autocorrelação RW(t) = h0d(t) é passado por um filtro LTI h(t). hn = − 1 n = 1,
Prove que a saída Y(t) tem potência média 0 caso contrário.
∞
A saída é a sequência aleatória Vn.
E Y 2 (t) = η0 h2 (u) du.
−∞
(a) Qual é o valor esperado da saída mV?
2.1 A sequência aleatória Xn é a entrada de um filtro de tem- (b) Qual é a função de autocorrelação da saída RV[n]?
po discreto. A saída é
(c) Qual é a variância da saída Var[Vn]?
Xn+1 + Xn + Xn− 1
Yn = . (d) Vn é uma função linear do processo de entrada original Xn
3
no Exemplo 5:
(a) Qual é a resposta ao impulso hn?
M −1
(b) Ache a autocorrelação da saída Yn quando Xn é uma sequên- Vn = fi Xn− i .
cia aleatória estacionária no sentido amplo com mX = 0 e i=0
autocorrelação
Qual é a resposta ao impulso fi do filtro combinado?
RX [n] =
1 n = 0, 2.5 O Exemplo 5 descreve um filtro de suavização de tempo
0 caso contrário.
discreto com resposta ao impulso
2.2 X(t) é um processo estacionário no sentido amplo com 1 n = 0, 1,
hn =
função de autocorrelação 0 caso contrário.
sen(2000πt) + sen(1000πt) Para um processo de entrada Xn estacionário no sentido amplo em
RX (τ ) = 10 .
2000πt particular, o processo de saída Yn é uma sequência aleatória esta-
O processo X(t) é amostrado na taxa 1/Ts = 4.000 Hz, resul- cionária no sentido amplo, com mY = 0 e função de autocorrelação
tando no processo de tempo discreto Xn. Qual é a função de
2 n = 0,
autocorrelação RX[k] de Xn? RY [n] = 1 |n| = 1,
2.3 A saída Yn do filtro de suavização no Exemplo 5 tem mY = 1 0 caso contrário.
e função de autocorrelação
Qual é a autocorrelação RX[n] da entrada Xn?
3 n = 0, 2.6 A entrada . . ., X–1, X0, X1, . . . e a saída . . ., Y–1, Y0, Y1,
2 |n| = 1,
RY [n] = . . . de um filtro digital obedecem a
0,5 |n| = 2,
0 caso contrário. 1
Yn = (Xn + Yn− 1 ) .
2
Yn é a entrada de outro filtro de suavização com resposta ao
impulso Considere que as entradas sejam uma sequência de variáveis
aleatórias iid com E[Xi] = mXi = 0 e Var[Xi] = s2. Ache as
1 n = 0, 1, seguintes propriedades da sequência de saída: E[Yi], Var[Yi],
hn =
0 caso contrário.
Cov[Yi+1, Yi]e rYi+1,Yi.
A saída desse segundo filtro de suavização é Wn. 2.7 Z0, Z1, . . . é uma sequência aleatória iid com E[Zn] = 0 e
(a) Qual é o valor de mW, o valor esperado da saída do segundo Var[Zn] = ŝ2. A sequência aleatória X0, X1, ... obedece a equa-
filtro? ção recursiva
Xn = cXn− 1 + Zn− 1 , n = 1, 2, . . . ,
(b) Qual é a função de autocorrelação de Wn?
(c) Qual é a variância de Wn? na qual c é uma constante satisfazendo |c| < 1. Determine ŝ2
tal que X0, X1, . . . seja uma sequência aleatória com E[Xn] =
(d) Wn é uma função linear do processo de entrada original Xn 0, tal que, para n ≥ 0 e n + k ≥ 0,
no Exemplo 5:
RX [n, k] = σ 2 c|k| .
M −1
Wn = gi Xn− i . 2.8 A sequência aleatória iid X0, X1, . . . das variáveis alea-
i=0
tórias normais padrão é a entrada de um filtro digital. Para uma
Qual é a resposta ao impulso gi do filtro combinado? constante a satisfazendo a |a| < 1, a saída do filtro é a sequência
aleatória Y0, Y1, . . . tal que Y0 = 0 e, para n > 1,
2.4 Considere que a sequência aleatória Yn no Problema 2.3
seja a entrada do diferenciador com resposta ao impulso, Yn = a (Xn + Yn− 1 ) .
suplemento de processamento de sinais (sps) 47
Determine E[Yi] e a autocorrelação RY[m,k] da sequência de saí- Para cada Xn transmitido, o receptor observa Yn = Xn + Wn, onde
da. A sequência aleatória Yn é estacionária no sentido amplo? os Wi são ruídos gaussianos iid (0, 1), independentes de todo Xj.
3.1 Xn é uma sequência gaussiana estacionária com valor (a) Quais valores de a são possíveis?
esperado E[Xn] = 0 e função de autocorrelação RX[k] = 2–|k|. (b) Com base na observação Yn, determine Xn̂ , a estimativa
Determine a PDF de X = [X1 X2 X3]. MMSE linear de Xn dado Yn.
3.2 Xn é uma sequência de variáveis aleatórias independentes (c) Com base na observação Yn = [Yn, Yn–1], determine X̃ n, a
tais que Xn = 0 para n < 0 enquanto, para n ≥ 0, cada Xn é uma estimativa MMSE linear de Xn dado Yn.
variável aleatória gaussiana (0, 1). Passar Xn pelo filtro h = [1
–1 1] resulta na saída Yn. Determine as PDFs de: 4.4 Xn é uma sequência estacionária aleatória no sentido am-
plo, com mX = 0 e função de autocorrelação
(a) Y3 = [Y1 Y2 Y3 ] ,
1,1 k = 0,
(b) Y2 = [Y1 Y2 ] . RX [k] = 1 − 0,25 |k| 1 ≤ |k| ≤ 4,
0 caso contrário.
3.3 O processo gaussiano estacionário Xn com valor esperado
E[Xn] = 0 e função de correlação RX[k] = 2–|k| é passado pelo Para M = 2 amostras, determine h = [h0 h1], os coeficientes
filtro linear h = [1 –1 1], resultando na saída Yn. Determine do previsor linear ótimo de Xn+1, dados Xn–1 e Xn. Qual é o erro
a PDF de Y = [Y3 Y4 Y5]. médio quadrático do previsor linear ótimo?
3.4 O processo gaussiano estacionário Xn com valor esperado 4.5 Considere que Xn seja uma sequência aleatória com valor
E[Xn] = 0 e função de autocorrelação RX[k] = 2–|k| é passado pelo esperado E[Xn] = 0 e função de autocorrelação
filtro linear h = [1 0 –1]. Para a saída do filtro Yn, determine
a PDF de Y = [Y3 Y4 Y5]. RX [k] = E [Xn Xn+k ] = c|k| ,
4.1 Considere que Xn seja uma sequência aleatória gaussiana em que |c| < 1. Observamos a sequência aleatória
estacionária no sentido amplo, com valor esperado E[Xn] e fun- Y n = Xn + Z n ,
ção de autocorrelação
em que Zn é uma sequência de ruído iid, independente de Xn,
RX [k] = E [Xn Xn+k ] = 2 −| k|
. com E[Zn] = 0 e Var[Zn] = h2. Determine a estimativa LMSE
de Xn dado Yn.
Observamos a sequência aleatória com ruído Yn = Xn + Zn, em
que Zn é uma sequência de ruído gaussiana iid, independente de 4.6 Continuando com o Problema 4.5, encontre o erro médio
Xn, com E[Zn] = 0 e Var[Zn] = 1/2. quadrático do filtro linear ótimo h = [h0 h1]’ com base em M =
2 amostras de Yn. Que valor de c minimiza o erro de estimativa
(a) Determine a estimativa LMSE X̂n de Xn dada apenas a ob- médio quadrático?
servação Yn. Observe que Xn̂ não pode usar as observações
anteriores Yn–1, Yn–2, . . . Ou seja, Xn̂ é a saída de um filtro 4.7 Suponha que Xn seja uma sequência aleatória satisfazendo
de ordem 0. Xn = cXn− 1 + Zn− 1 ,
(b) Qual é o erro médio quadrático e0 do estimador Xn̂ ? em que Z1, Z2, . . . é uma sequência aleatória iid com E[Zn] = 0
(c) Qual é a PDF f n(x) de Xn̂ ?
X̂
e Var[Zn] = s2 e c é uma constante satisfazendo a |c| < 1. Além
disso, por conveniência, consideramos que E[X0] = 0 e Var[X0] =
(d) Determine a expectativa condicional E[Xn|Yn].
s2/(1 – c2). Fazemos a seguinte medição de ruído
4.2 Xn é uma sequência aleatória estacionária no sentido am-
Yn− 1 = dXn− 1 + Wn− 1 ,
plo com mX = 0 e função de autocorrelação
em que W1, W2, . . . é uma sequência de ruído de medição iid
1 − 0,25 |k| |k| ≤ 4,
RX [k] =
0 caso contrário. com E[Wn] = 0 e Var[Wn] = h2, que é independente de Xn e Zn.
(a) Determine o previsor linear ótimo, Xn̂ (Yn–1), de Xn utili-
Para M = 2 amostras, determine h = [h0 h1], os coeficientes do zando a observação de ruído Yn–1.
filtro de previsão linear ótimo de Xn+1, dados Xn–1 e Xn. Qual é
o erro médio quadrático do previsor linear ótimo? (b) Determine o erro de estimativa médio quadrático
2
4.3 Um sistema de comunicação é usado para transmitir uma e∗L (n) = E Xn − X̂n (Yn− 1 ) .
sequência de variáveis aleatórias binárias X1, X2, ... tais que Xn ∈
{–1, 1} formam um processo estacionário no sentido amplo com 5.1 X(t) é um processo estacionário no sentido amplo com
E[Xn] = 0 e função de autocovariância: função de autocorrelação
sen(2000πτ ) + sen(1000πτ )
1 k = 0, RX (τ ) = 10 .
CX [k] = α k = 1, 2000πτ
0 caso contrário. Qual é a densidade espectral de potência de X(t)?
48 suplemento de processamento de sinais (sps)
5.2 X(t) é um processo estacionário no sentido amplo com é a entrada de um filtro com função de transferência
mX = 0 e Y(t) = X(at), em que a é uma constante diferente de
1 0 ≤ |f | ≤ 2,
zero. Determine RY(t) em termos de RX(t). Y(t) é estacionário H(f ) =
0 caso contrário.
no sentido amplo? Se for, determine a densidade espectral de
potência SY(f). Determine
6.1 Xn é uma sequência aleatória de tempo discreto estacio- (a) A potência média da entrada X(t).
nária no sentido amplo, com função de autocorrelação RX[k] tal (b) A densidade espectral de potência da saída SY(f).
que
(c) A potência média da saída Y(t).
RX [k] = δ[k] + (0,1)|k|
8.5 Um processo estacionário no sentido amplo X(t) com den-
para k = 0, ±1, ±2, . . ., e RX[k] = 0 caso contrário. Determine sidade espectral de potência
a densidade espectral de potência SX(f). −4
10 |f | ≤ 100,
7.1 Para processos estacionários conjuntos no sentido amplo SX (f ) =
0 caso contrário,
X(t) e Y(t), prove que a densidade espectral cruzada satisfaz
é a entrada de um filtro RC com resposta de frequência
SY X (f ) = SXY (− f ) = [SXY (f )]∗ .
1
H(f ) = .
8.1 Um processo estacionário no sentido amplo X(t) com fun- 100π + j2πf
ção de autocorrelação RX(t) = 100e–100|t| é a entrada de um filtro
A saída do filtro é o processo estocástico Y(t).
RC com resposta ao impulso
− t/RC (a) Qual é o valor de E[X2(t)]?
e t ≥ 0,
h(t) = (b) Qual é o valor de SXY(f )?
0 caso contrário.
(c) Qual é o valor de SYX(f )?
O processo de saída do filtro tem potência média E[Y2(t)] = 100.
(d) Qual é o valor de SY(f )?
(a) Determine a autocorrelação de saída RY(t).
(e) Qual é o valor de E[Y2(t)]?
(b) Qual é o valor de RC?
8.6 Um processo estocástico estacionário no sentido amplo
8.2 Considere que W(t) indica um processo gaussiano esta-
X(t) com função de autocorrelação RX(t) = e–4|t| é a entrada de
cionário no sentido amplo com mW = 0 e densidade espectral de
um filtro linear invariante no tempo com resposta ao impulso
potência SW(f) = 1. − 7t
e t ≥ 0,
(a) Qual é o valor de RW(t), a autocorrelação de W(t)? h(t) =
0 caso contrário.
(b) W(t) é a entrada de um filtro linear invariante no tempo
A saída do filtro é Y(t).
com resposta ao impulso
(a) Determine a densidade espectral cruzada SXY(f ).
1 |f | ≤ B/2
H(f ) =
0 caso contrário. (b) Determine a correlação cruzada RXY(t).
A saída do filtro é Y(t). Qual é a função de densidade es- 8.7 Um processo de ruído gaussiano branco N(t) com densi-
pectral de potência de Y(t)? dade espectral de potência de 10–15 W/Hz é a entrada do filtro
6
passa-baixas H(f) = 106e–10 |f|. Determine as seguinte proprieda-
(c) Qual é a potência média de Y(t)? des da saída Y(t):
(d) Qual é o valor esperado da saída do filtro? (a) O valor esperado mY.
8.3 O processo estacionário no sentido amplo X(t) com fun- (b) A densidade espectral de potência SY(f ).
ção de autocorrelação RX(t) e densidade espectral de potência
SX(f) é a entrada de um filtro de linha de retardo com tomadas (c) A potência média E[Y2(t)].
(d) P[Y(t) > 0,01].
H(f ) = a1 e− j2πf t1 + a2 e− j2πf t2 .
8.8 No Problema 13.11.3, descobrimos que passar um proces-
Determine a densidade espectral da potência de saída SY(f) e a
so de ruído branco estacionário por um integrador produzia um
autocorrelação de saída RY(t).
processo de saída não estacionário Y(t). Este exemplo infrin-
8.4 Um processo estacionário no sentido amplo X(t) com fun- ge o Teorema 2?
ção de autocorrelação
8.9 Considere que M(t) seja um processo aleatório estacionário
RX (τ ) = e− 4πτ . no sentido amplo com potência média E[M2(t)] = q e densidade
2
suplemento de processamento de sinais (sps) 49
espectral de potência SM(f ). A transformada de Hilbert de M(t) Observe que Y(t) = X(t) + N(t), em que N(t) é um processo
é M̂(t), um sinal obtido passando M(t) por um filtro linear in- estacionário no sentido amplo com função de densidade espec-
variante no tempo com resposta de frequência tral de potência SN(f) = 10–5. X(t) e N(t) são mutuamente in-
dependentes.
− j f ≥ 0,
H(f ) = − jsgn (f ) =
j f < 0. (a) Qual é a função de transferência do filtro linear ótimo para
estimar X(t), dado Y(t)?
(a) Determine a densidade espectral de potência SM̂(t) e a po-
tência média q ̂ = E[M̂ (t)];
2
(b) Qual é o erro médio quadrático do filtro de estimativa
(b) Em um sistema de comunicações de banda lateral única, o ótimo?
sinal da banda lateral superior é 10.1 Para o filtro digital do Problema 2.6, gere 100 caminhos
̂ cos(2pf t + )
U(t) = M(t) de amostra Y0, . . ., Y500 supondo que os Xi sejam variáveis ale-
c
– M̂(t) sen(2pfct + ), atórias gaussianas (0, 1) iid e Y(0) = 0. Estime o valor esperado
e a variância de Yn para n = 5, n = 50 e n = 500.
em que Θ tem uma PDF uniforme sobre [0, 2π), indepen-
dente de M(t) e M̂(t). Qual é a potência média E[U2(t)]? 10.2 No programa fftc.m, o vetor n simplesmente man-
tém os elementos 0, 1, ..., N – 1. Por que ele é definido
8.10 Como representado a seguir, um processo gaussiano de como n=reshape(0:(N-1),size(R)) em vez de apenas
ruído branco W(t) com densidade espectral de potência SW(f ) = n=0:N-1?
10–15 W/Hz é passado por um modulador de fase aleatória para
produzir V(t). O processo V(t) então percorre um filtro passa- 10.3 A sequência aleatória gaussiana estacionária Xn tem va-
baixas (L(f ) é um filtro passa-baixas de ganho unitário ideal e lor esperado E[Xn] = 0 e função de autocorrelação RX[k] =
largura de banda B) para criar Y(t). cos(0,04πk). Use gaussvector para gerar e desenhar 10 cami-
nhos de amostra na forma X0, . . ., X99. O que você parece ob-
V(t) servar? Confirme sua suspeita calculando a DFT de 100 pontos
W(t) + L( f ) Y(t) em cada caminho de amostra.
(d) Y(t) é um processo estacionário no sentido amplo? produz o vetor de coeficiente â correto?
(e) Qual é a potência média de Y(t)? 10.6 Para o processo de tempo discreto Xn no Problema 2.2,
calcule uma aproximação para a densidade espectral de potên-
9.1 X(t) é um processo estocástico estacionário no sentido cia determinando a DFT da função de autocorrelação truncada
amplo, com mX = 0 e função de autocorrelação
r = [r− 100 r− 99 · · · r100 ] ,
RX(t) = sen(2pWt)/(2pWt).
em que rk = RX[k]. Compare a saída da sua DFT com a DTFT
Observe que Y(t) = X(t) + N(t), em que N(t) é um processo SX(f).
estacionário no sentido amplo, com função de densidade espec-
tral de potência SN(f) = 10–5 tal que X(t) e N(t) sejam mutua- 10.7 Para a sequência aleatória Xn definida no Problema 4.2,
mente independentes. determine o filtro h = [h0 . . . hM–1]’ do previsor linear ótimo
de Xn+1, dados Xn–M+1, . . ., Xn–1, . . ., Xn. Qual é o erro mé-
(a) Qual é a função de transferência do filtro linear ótimo para dio quadrático eL*(M) do previsor linear ótimo de M tomadas?
estimar X(t) dado Y(t)? Represente eL*(M) graficamente como uma função de M para
(b) Qual é a largura de banda de sinal máxima W Hz que pro- M = 1, 2, . . ., 10.
duz um erro médio quadrático mínimo eL* ≤ 0,04?
10.8 Para uma sequência estacionária no sentido amplo Xn
9.2 X(t) é um processo estocástico estacionário no sentido com valor esperado zero, estenda lmsepredictor.m para uma
amplo, com mX = 0 e função de autocorrelação função
RX (τ ) = e− 5000|τ | . function h = kpredictor(rx,M,k)
50 suplemento de processamento de sinais (sps)
que produz o vetor de filtro h do previsor linear ótimo de k de- (c) c = 0,9, d = 0,1;
graus de Xn+k, dada a observação
(d) c = 0,6, d = 10;
Yn = [Xn− M +1 · · · Xn− 1 Xn ] .
(e) c = 0,6, d = 1;
10.9 Continuando com o Problema 4.7 do previsor de ruído, (f) c = 0,6, d = 0,1.
gere caminhos de amostra de Xn e Xn̂ para n = 0, 1, . . ., 50 com
os seguintes parâmetros. Em cada experimento, use h = s = 1. Use a análise do Problema
4.7 para interpretar seus resultados.
(a) c = 0,9, d = 10;
(b) c = 0,9, d = 1;
Soluções de Testes
Solução do Teste 1
Pelo Teorema 2,
∞ ∞
µY = µ X h(t)dt = 2 e− t dt = 2. (1)
−∞ 0
Visto que RX(t) = d(t), a função de autocorrelação da saída é
∞ ∞
RY (τ ) = h(u) h(v)δ(τ + u − v) dv du
−∞
∞
−∞
Logo,
1
RY (τ ) = e−| τ | . (5)
2
Solução do Teste 2
A autocorrelação da saída é
1
1
RY [n] = hi hj RX [n + i − j]
i=0 j=0
= 2RX [n] − RX [n − 1] − RX [n + 1]
1 n = 0, (2)
=
0 caso contrário.
Como mY = 0, a variância de Yn é Var[Yn] = E[Yn2] = RY[0] = 1.
Solução do Teste 3
Pelo Teorema 8, Y = [Y33 Y34 Y35] é um vetor aleatório gaussiano, pois Xn é um processo
∞ aleatório
gaussiano. Além do mais, pelo Teorema 5, cada Yn tem valor esperado E[Yn] = µX n=−∞ hn = 0.
Assim, E[Y] = 0. Para encontrar a PDF do vetor gaussiano Y, precisamos encontrar a matriz de
covariância CY, que é igual à matriz de correlação RY, pois Y tem valor esperado zero. Uma forma
de encontrar RY é observar que RY tem a estrutura de Toeplitz do Teorema 6 e usar o Teorema 5
para encontrar a função de autocorrelação
∞
∞
RY [n] = hi hj RX [n + i − j] . (1)
i=−∞ j=−∞
Apesar do fato de que RX[k] é um impulso, o uso da Equação (1) é surpreendentemente tedioso, pois
ainda precisamos somar por todo i e j de modo que n + i – j = 0.
Neste problema, é mais simples observar que Y = HX, em que
X = X30 X31 X32 X33 X34 X35 (2)
e
1 1 1 1 0 0
1
H= 0 1 1 1 1 0 . (3)
4
0 0 1 1 1 1
Segue-se (muito rapidamente, se você usar o Matlab para a inversão de matriz 3 × 3) que
7/12 − 1/2 1/12
C−Y1 = 16 − 1/2 1 − 1/2 . (5)
1/12 − 1/2 7/12
Assim, a PDF de Y é
1 1 −1
fY (y) = exp − y C Y y . (6)
(2π)3/2 [det (CY )]1/2 2
Um volume desagradável de álgebra mostrará que det(CY) = 3/1024 e que a PDF pode ser “sim-
plificada” para
16 exp − 8 12
7 2 2
y33 + y34 y − y33 y34 + 16 y33 y35 − y34 y35
7 2
+ 12
fY (y) = √35 . (7)
6π 3
52 suplemento de processamento de sinais (sps)
A Equação (7) mostra que um dos recursos mais interessantes da distribuição gaussiana multivaria-
da é que yCY– 1 y é uma representação bastante concisa dos termos cruzados no expoente de fY(y).
Solução do Teste 4
Este teste é resolvido usando o Teorema 9 para o caso de k = 1 e M = 2. Neste caso, Xn = [Xn–1 Xn] e
RX [0] RX [1] 1,1 0,9
RXn = E [Xn X n ] = = (1)
RX [1] RX [0] 0,9 1,1
e
RXn+1 Xn = E Xn+1 Xn− 1 Xn (2)
= RX [2] RX [1] = 0,81 0,9 .
O filtro MMSE linear de primeira ordem para prever Xn+1 no instante n é o filtro h tal que
−
←
h = RXn+1 Xn R−X1n
1,1 0,9 − 1 81 261
= 0,81 0,9 = . (3)
0,9 1,1 400 400
Segue-se que o filtro é h = [261/400 81/400] e o previsor MMSE linear é
81 261
X̂n+1 = Xn− 1 + Xn . (4)
400 400
Para encontrar o erro médio quadrático, uma abordagem é seguir o método do Exemplo 13 e calcu-
lar diretamente
e∗L = E (Xn+1 − X̂n+1 )2 . (5)
Este método é funcional para este problema simples, mas torna-se cada vez mais tedioso para filtros
de ordem mais alta. Em vez disso, podemos derivar o erro médio quadrático para um filtro de pre-
−
←
visão qualquer h. Como X̂n+1 = h Xn ,
2
−
←
e∗L = E Xn+1 − h Xn
−
← −
←
= E (Xn+1 − h Xn )(Xn+1 − h Xn )
−
← −
←
= E (Xn+1 − h Xn )(Xn+1 − Xn h ) (6)
Após alguma álgebra, obtemos
←− −
← ←−
e∗L = RX [0] − 2 h RXn Xn+1 + h RXn h . (7)
Com a substituição
−
←
h = R−X1n RXn Xn+1 , (8)
obtemos
e∗L = RX [0] − RXn Xn+1 R−X1n RXn Xn+1
−
←
= RX [0] − h RXn Xn+1 . (9)
−
←
Observe que este é basicamente o mesmo resultado do Teorema 12.6 com Y = Xn, X = Xn+1 e â = h .
É importante observar que o resultado é derivado de uma maneira muito mais simples na prova do
Teorema 12.6, usando a propriedade de ortogonalidade do estimador LMSE.
suplemento de processamento de sinais (sps) 53
Solução do Teste 5
S (f)
0,4 4 sin(2πW τ )
(3)
X
RX (τ ) = 10 sinc(2W τ ) = 10 .
0,2 2 2πW τ
0 0
(c) Para W = 10 Hz−15e W
−10= −5
1 kHZ,
0 aqui
5 estão
10 15 os gráficos
−1500−1000de SX(f0) e500
−500 (t). 1500
RX1000
f f
x 10
10 8
0,6 5 6 5
RX(τ)
RX(τ)
SX(f)
S (f)
0,4 4 0
X
0
0,2 2
−5
0 −5 0 −2 −1 0 1 2
−15−0,2−10 −0,1
−5 0 0 5 0,1
10 15 0,2 −1500−1000 −500 0 500
τ 1000 1500 −3
f τ f x 10
5 5
RX(τ)
RX(τ)
0 0
−5 −5
−0,2 −0,1 0 0,1 0,2 −2 −1 0 1 2
τ −3
τ x 10
Solução do Teste 6
Em um sistema amostrado, o impulso de tempo discreto d[n] tem uma transformada de Fourier dis-
creta plana. Ou seja, se RX[n] = 10d[n], então
∞
SX (φ) = 10δ[n]e− j2πφn = 10. (1)
n=−∞
Assim, RX[n] = 10d[n] (este teste está realmente fajuto).
54 suplemento de processamento de sinais (sps)
Solução do Teste 7
Vemos que RXY(t, t) = RXY(t) = RX(t – t0). Pela Tabela 1, relembramos a propriedade de que
g(t – t0) tem transformada de Fourier G(f)e–j2πft0. Assim, a transformada de Fourier de
Solução do Teste 8
Resolvemos este teste usando o Teorema 17. Primeiro, precisamos de alguns fatos preliminares.
Considere que a0 = 5.000, de modo que
1
RX (τ ) = a0 e− a0 |τ | . (1)
a0
Consultando com as transformadas de Fourier na Tabela 1, vemos que
1 2a20 2a0
SX (f ) = 2
= 2 . (2)
a0 a0 + (2πf )2 a0 + (2πf )2
O filtro RC tem resposta ao impulso h(t) = a1e–a1t u(t), em que u(t) é a função de degrau unitário e
a1 = 1/RC, em que RC = 10–4 é a constante de tempo do filtro. Pela Tabela 1,
a1
H(f ) = . (3)
a1 + j2πf
em que
2a0 a21 − 2a0 a21
K0 = , K1 = . (9)
a21 − a20 a21 − a20
Assim,
K0 2a20 K1 2a21
SY (f ) = 2 2
+ 2
. (10)
2a0 a0 + (2πf )2 2a1 a1 + (2πf )2
Observe que o sinal de entrada tem potência média RX(0) = 1. Como o filtro RC tem uma largura
de banda de 3 dB de 10.000 rad/s e o sinal X(t) tem a maior parte de sua energia de sinal abaixo
de 5.000 rad/s, o sinal de saída tem quase tanta potência quanto a entrada.
Solução do Teste 9
Este teste implementa um exemplo das Equações (137) e (138) para um sistema no qual filtramos
Y(t) = X(t) + N(t) para produzir uma estimativa linear ótima de X(t). A solução deste teste é ape-
nas encontrar o filtro Ĥ(f ) usando a Equação (137) e calcular o erro médio quadrático eL* usando a
Equação (138).
Comentário: Como o texto omitiu as derivações das Equações (137) e (138), observamos que o
Exemplo 13.24 mostrou que
RY (τ ) = RX (τ ) + RN (τ ), RY X (τ ) = RX (τ ). (1)
SY (f ) = SX (f ) + SN (f ) , SY X (f ) = SX (f ) . (2)
Assim, N0 = 1/(2B). Como o processo de ruído N(t) tem potência constante RN(0) = 1, di-
minuir a largura de banda B de único lado aumenta a densidade espectral de potência do
ruído pelas frequências |f | < B.
(b) Visto que RX(t) = sinc(2Wt), onde W = 5.000 Hz, vemos pela Tabela 1 que
1 f
SX (f ) = 4 rect . (4)
10 104
(c) Produzimos a saída X(t) passando o sinal de ruído Y(t) através do filtro Ĥ(f). Pela Equação
̂
(138), o erro médio quadrático da estimativa é
∞
SX (f ) SN (f )
e∗L = df
−∞ SX (f ) + SN (f )
∞ 1
rect 10f 4 2B
1 f
rect 2B
= 104
1 f
1 f
df. (7)
−∞ 104 rect 104 + 2B rect 2B
Para avaliar a MSE eL*, precisamos saber se B ≤ W. Como o problema nos pede para encon-
trar o maior B possível, vamos supor que B ≤ W. Podemos voltar e considerar o caso B >
W mais tarde. Quando B ≤ W, a MSE é
B 1 1 1
1
e∗L = 1
104 2B
1 df = 1
104
1 =
(8)
− B 104 + 2B 104
+ 2B 1 + 5,000
B
Para obter a MSE eL* ≤ 0,05 é preciso que B ≤ 5.000/19 = 263,16 Hz.
Embora isto conclua a solução do teste, o que está acontecendo pode não ser óbvio. A potência
de ruído é sempre Var[N] = 1 Watt, para todos os valores de B. Enquanto B diminui, a PSD SN(f )
torna-se cada vez mais alta, mas somente por uma largura de banda B que está diminuindo. Assim,
quando B diminui, o filtro Ĥ(f ) faz uma fenda cada vez mais profunda e estreita nas frequências
|f| ≤ B. Aqui estão dois exemplos do filtro H(f ).
1 1
H(f)
H(f)
0,5 0,5
0 0
−5000 −2000 0 2000 5000 −5000 −2000 0 2000 5000
f f
B = 500 B = 2500
Quando B encolhe, o filtro suprime menos do sinal de X(t). O resultado é que a MSE diminui. Por
fim, observamos que podemos escolher B com um valor muito grande e também alcançar uma MSE
eL* = 0,05. Em particular, quando B > W = 5000, SN(f ) = 1/2B pelas frequências |f | < W. Neste
caso, o filtro Wiener Ĥ(f ) é um filtro passa-baixas ideal (plano)
1
104 |f | < 5,000,
(9)
1 1
Ĥ(f ) = 104 + 2B
0 caso contrário.
suplemento de processamento de sinais (sps) 57
Assim, aumentar B espalha o 1 watt de potência constante de N(t) por mais largura de banda. O
filtro de Wiener remove o ruído que está fora da banda do sinal desejado. O erro médio quadrático é
5000 1 1 1
1
e∗L = 1
104 2B
1 df = 1
2B
1 = B . (10)
− 5000 104 + 2B 104
+ 2B 5000
+1
Solução do Teste 10
É muito simples encontrar SX(f) e SY(f). A única coisa a ter em mente é usar fftc para transformar
a autocorrelação RX[f ] na densidade espectral de potência SX(f). O programa em Matlab a seguir
%mquiz11.m
N=32;
%autocorrelação e PSD
rx=[2 4 2]; SX=fftc(rx,N);
stem(0:N-1,abs(sx));
xlabel(’n’);ylabel(’S_X(n/N)’);
%resposta de impulso/filtro: M=2
h2=0.5*[1 1]; H2=fft(h2,N);
SY2=SX.* ((abs(H2)).^2);
figure; stem(0:N-1,abs(SY2)); %PSD of Y for M=2
xlabel(’n’);ylabel(’S_{Y_2}(n/N)’);
%resposta de impulso/filtro: M=10
h10=0.1*ones(1,10); H10=fft(h10,N);
SY10=sx.*((abs(H10)).^2);
figure; stem(0:N-1,abs(SY10));
xlabel(’n’);ylabel(’S_{Y_{10}}(n/N)’);
gera e representa gráficos de SX(f), SY(n/N) para M = 2, e Sf(n/N) para M = 10 usando uma DFT
com N = 32 pontos.
10
SX(n/N)
0
0 5 10 15 20 25 30 35
n
10
S (n/N)
5
2
Y
0
0 5 10 15 20 25 30 35
n
10
(n/N)
5
10
Y
S
0
0 5 10 15 20 25 30 35
n
58 suplemento de processamento de sinais (sps)
Em relação a M = 2, quando M = 10, o filtro H(f) remove quase todos os componentes de alta fre-
quência de X(t). No contexto do Exemplo 26, o filtro de média móvel passa-baixas para M = 10 re-
move os componentes de alta frequência e resulta em uma saída de filtro que varia muito lentamente.
Como um aparte, observe que os vetores SX, SY2 e SY10 em mquiz11 devem ser todos vetores
com valor real. Porém, a precisão numérica finita do Matlab resulta em partes imaginárias minúscu-
las. Embora essas partes imaginárias não tenham significado computacional, elas tendem a confun-
dir a função stem. Logo, geramos gráficos de hastes com a magnitude de cada densidade espectral
de potência.
Soluções de Problemas
Para este problema, é mais fácil trabalhar com o operador de expectativa. A função de média da
saída é
A autocorrelação da saída é
RY (t, τ ) = E [(2 + X(t)) (2 + X(t + τ ))]
= E [4 + 2X(t) + 2X(t + τ ) + X(t)X(t + τ )]
= 4 + 2 E [X(t)] + 2 E [X(t + τ )] + E [X(t)X(t + τ )]
= 4 + RX (τ ). (2)
Vemos que RY(t, t) só depende da diferença de tempo t. Assim, Y(t) é estacionário no sentido
amplo.
1
1 1
= RX [n + i − j]
9 i=− 1 j=− 1
1
= RX [n + 2] + 2RX [n + 1] + 3RX [n]
9
+ 2RX [n − 1] + RX [n − 2] . (3)
Substituindo em RX[n], o resultado é
1/3 n = 0,
2/9 |n| = 1,
RY [n] = (4)
1/9 |n| = 2,
0 caso contrário.
1
1
= RY [n + i − j]
i=0 j=0
Para n = –3.
Seguindo o mesmo procedimento, é fácil mostrar que RW[n] é diferente de zero para |n| = 0,
1, 2. Especificamente,
0,5 |n| = 3,
|n| = 2,
3
RW [n] = 7,5 |n| = 1, (4)
10 n = 0,
0 caso contrário.
(c) O segundo momento da saída é E[Wn2] = RW[0] = 10. A variância de Wn é
Var[Wn ] = E Wn2 − (E [Wn ])2 = 10 − 22 = 6.
(5)
(d) Esta parte não requer nenhuma probabilidade. Ela apenas verifica seu conhecimento de sis-
temas lineares e convolução. Há muita confusão, pois hn é usado para indicar tanto o filtro
que transforma Xn em Yn quanto o filtro que transforma Yn em Wn. Para evitar confusão,
60 suplemento de processamento de sinais (sps)
usaremos ĥn para indicar o filtro que transforma Xn em Yn. Usando a Equação (22) para
convolução de tempo discreto, podemos escrever
∞
∞
Wn = hj Yn− j , Yn− j = ĥi Xn− j− i . (6)
j=−∞ i=−∞
Combinando essas equações, obtemos
∞
∞
Wn = hj ĥi Xn− j− i . (7)
j=−∞ i=−∞
Para cada j, fazemos a substituição k = i + j, e depois revertemos a ordem de somatório
para obter
∞
∞ ∞ ∞
Wn = hj ĥk− j Xn− k = hj ĥk− j Xn− k . (8)
j=−∞ k=−∞ k=−∞ j=−∞
Assim, vemos que
∞
gk = hj ĥk− j . (9)
j=−∞
Ou seja, o filtro gn é a convolução dos filtros hn̂ e hn.
No contexto do nosso problema em particular, o filtro hn̂ que transforma Xn em Yn é dado
no Exemplo 5. Os dois filtros são
ĥ = ĥ0 ĥ1 = 1/2 1/2 , h = h0 h 1 = 1 1 . (10)
Lembre-se de que hn = hn̂ = 0 para n < 0 ou n > 1. Pela Equação (9),
1/2 k = 0,
1 k = 1,
gk = ĥk + ĥk− 1 = (11)
1/2 k = 2,
0 caso contrário.
Isso sugere que RX[n] = 0 para |n| > 1. Além disso, temos os seguintes fatos:
RY [0] = RX [− 1] + 2RX [0] + RX [1] = 2, (3)
RY [− 1] = RX [− 2] + 2RX [− 1] + RX [0] = 1, (4)
RY [1] = RX [0] + 2RX [1] + RX [2] = 1. (5)
Uma solução simples para este conjunto de equações é RX[0] = 1 e RX[n] = 0 para n ≠ 0.
suplemento de processamento de sinais (sps) 61
Há uma dificuldade técnica com este problema, pois Xn não é definido para n < 0. Isso implica que
CX[n, k] não é definido para k < –n e assim CX[n, k] não pode ser completamente independente de
k. Quando n é grande, correspondente a um processo que esteve rodando por um longo tempo, essa
é uma questão técnica, e não uma preocupação prática. Em vez disso, encontraremos s– 2 tal que
CX[n, k] = CX[k] para todo n e k para os quais a função de covariância está definida. Para fazer isso,
precisamos expressar Xn em termos de Z0, Z1, . . . , Zn1. Fazemos isso da seguinte maneira:
Xn = cXn− 1 + Zn− 1
= c[cXn− 2 + Zn− 2 ] + Zn− 1
= c2 [cXn− 3 + Zn− 3 ] + cZn− 2 + Zn− 1
..
.
= cn X0 + cn− 1 Z0 + cn− 2 Z2 + · · · + Zn− 1
n− 1
= cn X0 + cn− 1− i Zi . (1)
i=0
Visto que E[Zi] = 0, a função média do processo Xn é
n− 1
E [Xn ] = cn E [X0 ] + cn− 1− i E [Zi ] = E [X0 ] . (2)
i=0
Assim, para que Xn seja um processo de média zero, é preciso que E[X0] = 0. A função de autocor-
relação pode ser escrita como
RX [n, k]
= E [Xn Xn+k ]
n− 1 1
n+k−
=E n
c X0 + c n− 1− i
Zi c n+k
X0 + c n+k− 1− j
Zj . (3)
i=0 j=0
Embora não seja afirmado no problema, vamos supor que X0 seja independente de Z0, Z1, . . . de
modo que E[X0Zi] = 0. Visto que E[Zi] = 0 e E[ZiZj] = 0 para i ≠ j, a maior parte dos termos cru-
zados será removida. Para k ≥ 0, a autocorrelação é simplificada para
n− 1
RX [n, k] = c2n+k Var[X0 ] + c2(n− 1)+k− 2i) σ̄ 2
i=0
1 − c2n
= c2n+k Var[X0 ] + σ̄ 2 ck . (4)
1 − c2
Como E[Xn] = 0, Var[X0] = RX[n, 0] = s2, podemos escrever, para k ≥ 0,
k
2 c σ̄ 2
RX [n, k] = σ̄ +c 2n+k
σ −
2
. (5)
1 − c2 1 − c2
62 suplemento de processamento de sinais (sps)
1
n+k−
= c2n+k Var[X0 ] + c− k c2(n+k− 1− j) σ̄ 2
j=0
1 − c2(n+k)
= c2n+k σ 2 + σ̄ 2 c− k
1 − c2
σ̄ 2 − k σ̄ 2
= c + c 2n+k
σ 2
− . (6)
1 − c2 1 − c2
Vemos que RX[n, k] = s2c|k| escolhendo
σ̄ 2 = (1 − c2 )σ 2 . (7)
A sequência de saída é Yn. Seguindo o método da Equação (54), podemos escrever a saída Y = [Y1
Y2 Y3] como
X− 1
Y1 h 2 h1 h0 0 0
X0
Y = Y 2 = 0 h2 h 1 h 0 0 X
1
(2)
Y3 0 0 h2 h1 h0 X2
X3
Comentário: Sabemos, pelo Teorema 5, que Yn é um processo gaussiano estacionário. Como re-
sultado, as variáveis aleatórias Y1, Y2 e Y3 são distribuídas identicamente e CY é uma matriz de
Toeplitz simétrica. Isso pode fazer com que se pense que a PDF fY(y) deverá ser simétrica nas
variáveis y1, y2 e y3. Porém, como Y2 está no meio de Y1 e Y3, a transformação oferecida por Y1 e
Y3 sobre Y2 é diferente da informação que Y1 e Y2 transmitem sobre Y3. Esse fato aparece como
assimetria em fY(y).
64 suplemento de processamento de sinais (sps)
(a) Como tanto Xn quanto Zn têm valor esperado zero, Xn̂ = aYn para a escolha ótima de a.
Poderíamos derivar o a ótimo a partir dos primeiros princípios, ou poderíamos aplicar nossa
fórmula estimadora de LMSE
Segue-se que
2
X̂n = Yn . (4)
3
(c) Visto que Xn̂ = (2/3)Xn + (2/3)Zn é a soma de variáveis aleatórias gaussianas independentes,
sabemos que X̂ é gaussiano. Além do mais,
n
2
E X̂n = (E [Xn ] + E [Zn ]) = 0, (7)
3
4 4 2
Var[X̂n ] = Var[Xn ] + Var[Zn ] = . (8)
9 9 3
Visto que Xn̂ é gaussiano, ele tem PDF
1 3 − 3x2 /4
fX̂n (x) = e − x2 /[2(2/3)]
= e . (9)
2π(2/3) 4π
(d) Visto que Xn, Zn, Yn e Xn são todos gaussianos em conjunto, a estimativa LMSE de Xn̂ é
̂
igual ao valor esperado condicional E[Xn Yn]. Ou seja, E[Xn Yn] = Xn̂ = 2Yn/3.
suplemento de processamento de sinais (sps) 65
(a)
α = CX [1] = Cov [Xn , Xn+1 ]
= ρXn ,Xn+1 Var [Xn ] Var [Xn+1 ]
= ρXn ,Xn+1 CX (0) = ρXn ,Xn+1. (1)
Assim, |α| ≤ 1.
(b) Aqui, podemos usar a fórmula estimadora de MMSE linear com a entrada escalar Yn.
Este problema generaliza o Exemplo 14 porque – 0,9 é substituído pelo parâmetro c e a variân-
cia de ruído 0,2 é substituída por h2. Como só estamos determinando o filtro de primeira ordem
h = [h0 h1], é relativamente simples generalizar a solução do Exemplo 14 para os valores de parâ-
metro c e h2.
Com base ← − observação Y = [Yn–1 Yn], o Teorema 11 declara que a estimativa MMSE linear
na
de X = Xn é h Y, em que
−
←
h = RXn Y R−Y1 = RXn Xn (RXn + RWn )− 1 . (1)
Observe que sempre descobrimos que eL* < Var[Xn] = 1 simplesmente porque o estimador ótimo não
pode ser pior do que o estimador cego, que ignora a observação Yn.
suplemento de processamento de sinais (sps) 67
Este problema envolve tanto a estimativa linear quanto a previsão, pois estamos usando Yn–1, a ob-
servação com ruído de Xn–1 para estimar o valor futuro Xn. Assim, não podemos seguir as receitas
prontas do Teorema 9 ou do Teorema 11. Em vez disso, voltamos ao Teorema 12.3 para encontrar o
estimador linear do erro médio quadrático mínimo. Nesse teorema, Xn e Yn–1 desempenham os papéis
de X e Y. Ou seja, nossa estimativa X̂n de Xn é
Visto que E[Yn–1] e E[Xn] são zero, o previsor linear para Xn torna-se
1/2
Var[Xn ]
X̂n = ρXn ,Yn− 1 Yn− 1
Var[Yn− 1 ]
Cov [Xn , Yn− 1 ]
= Yn− 1
Var[Yn− 1 ]
cd Var[Xn− 1 ]
= Yn− 1 . (10)
Var[Yn− 1 ]
Substituindo o resultado acima para Var[Xn], obtemos o previsor linear ótimo Xn dado Yn–1.
c 1
X̂n = Yn− 1 , (11)
d 1 + β (1 − c2 )
2
em que b2 = h 2/(d 2s 2). Pelo Teorema 12.3, o erro de estimativa médio quadrático na etapa n
e∗L (n) = E (Xn − X̂n )2
1 + β2
= Var[Xn ] 1 − ρ2Xn ,Yn− 1 = σ 2 . (12)
1 + β 2 (1 − c2 )
Vemos que o erro de estimativa médio quadrático eL*(n) = eL*, uma constante para todo n. Além dis-
so, eL* é uma função crescente b.
Pela Tabela 1,
10 f 5 f
SX (f ) = rect + rect . (3)
2,000 2000 1,000 1,000
Aqui está um gráfico da PSD:
0,012
0,01
0,008
SX(f)
0,006
0,004
0,002
0
−1500 −1000 −500 0 500 1000 1500
f
suplemento de processamento de sinais (sps) 69
podemos encontrar a PSD diretamente pela Tabela 3 com 0,1|k| correspondendo a a|k|. A tabela re-
sulta em
1 − (0,1)2
SX (φ) = 1 +
1 + (0,1)2 − 2(0,1) cos 2πφ
2 − 0,2 cos 2πφ (2)
= .
1,01 − 0,2 cos 2πφ
Primeiro, mostramos que SY X(f ) = SX Y(–f ). Pela definição da densidade espectral cruzada,
∞
SY X (f ) = RY X (τ )e− j2πf τ dτ. (1)
−∞
Fazer a substituição t = –t resulta em
∞
(2)
SY X (f ) = RY X (− τ )ej2πf τ dτ .
−∞
Pelo Teorema 13.14, RY X(–t) = RX Y(t). Isto implica
∞
RXY (τ )e− j2π(− f )τ dτ = SXY (− f ). (3)
SY X (f ) =
−∞
Para completar o problema, precisamos mostrar que SXY(–f ) = [SXY(f )]. Primeiro, observamos que,
como RX Y(t) tem valor real, [RXY(t)]* = RXY(t). Isto implica
∞
[SXY (f )]∗ = [RXY (τ )]∗ [e− j2πf τ ]∗ dτ
−∞
∞
= RXY (τ )e− j2π(− f )τ dτ
−∞
= SXY (− f ) . (4)
Considere que a = 1/RC. A solução para este problema é semelhante ao Exemplo 22.
(a) Pela Tabela 1, observamos que
2 · 104 1
SX (f ) = , H(f ) = . (1)
(2πf )2 + 104 a + j2πf
Para determinar RY(t), usamos uma forma de expansão em frações parciais para escrever
A B
SY (f ) = + . (3)
(2πf )2 + a2 (2πf )2 + 104
Observe que esse método funcionará somente se a 100. O mesmo método também foi usa-
do no Exemplo 22. Os valores de A e B podem ser encontrados por
2 · 104 − 2 · 104
A= = 2 , (4)
2 4
(2πf ) + 10 f = ja a − 104
2π
2 · 104 2 · 104
B= 2 = . (5)
a + 104 f = j100 a2 − 104
2π
Visto que e–c|t| e 2c/((2πf)2+c2) são pares de transformada de Fourier para qualquer constante
c > 0, vemos que
− 104 /a − a|τ | 100
RY (τ ) = e + 2 e− 100|τ | . (7)
a − 10
2 4 a − 104
(b) Para determinar a = 1/(RC), usamos o fato de que
− 104 /a 100
E Y 2 (t) = 100 = RY (0) = 2 + . (8)
a − 104 a2 − 104
RY X (τ ) = RXY (− τ ). (3)
Pela Tabela 1, se g(t) e G(f ) são um par de transformadas de Fourier, então g(–t) e G*(f )
são um par de transformadas de Fourier. Isso implica
10− 4 H ∗ (f ) |f | ≤ 100,
∗
SY X (f ) = SXY (f ) = (4)
0 caso contrário.
(d) Pelo Teorema 17,
SY (f ) = H ∗ (f )SXY (f )
= |H(f )|2 SX (f )
10− 4 /[104 π 2 + (2πf )2 ] |f | ≤ 100, (5)
=
0 caso contrário.
(e) Pelo Teorema 13,
∞
E Y 2 (t) = SY (f ) df
−∞
100
10− 4
= df
− 100 104 π 2
+ 4π 2 f 2
100
2 df
= 8 2 . (6)
10 π 0 1 + (f /50)2
= 10− 3 . (2)
(d) Visto que N(t) é um processo gaussiano, o Teorema 3 diz que Y(t) é um processo gaussiano.
Assim, a variável aleatória Y(t) é gaussiana com
E [Y (t)] = 0, Var[Y (t)] = E Y 2 (t) = 10− 3 . (3)
Assim, podemos usar a Tabela 4.2 para calcular
Y (t) 0,01
P [Y (t) > 0,01] = P >
Var[Y (t)] Var[Y (t)]
0,01
=1− Φ √
0,001
= 1 − Φ(0,32) = 0,3745. (4)
(a) Observe que H(f ) = 1. Isso implica SM̂ (f ) = SM(f ). Assim, a potência média de M̂ (t) é
∞ ∞
q̂ = SM̂ (f ) df = SM (f ) df = q. (1)
−∞ −∞
(b) A potência média do sinal da banda lateral superior é
E U 2 (t) = E M 2 (t) cos2 (2πfc t + Θ)
− E 2M (t)M̂ (t) cos(2πfc t + Θ) sen(2πfc t + Θ)
+ E M̂ 2 (t) sen2 (2πfc t + Θ) . (2)
Para encontrar o valor esperado do cosseno da fase aleatória, para um inteiro n ≠ 0, ava-
liamos
2π
1
E [cos(2πfc t + nΘ)] = cos(2πfc t + nθ) dθ
0 2π
1
= sen(2πfc t + nθ)|2π
0
2nπ
1
= (sen(2πfc t + 2nπ) − sen(2πfc t)) = 0. (3)
2nπ
Etapas semelhantes mostrarão que, para qualquer inteiro n 0, o seno da fase aleatória
também possui valor esperado
De modo semelhante,
1
E sen2 (2πfc t + Θ) = E (1 − cos(2π(2fc )t + 2Θ)) = 1/2. (6)
2
Além disso, a identidade 2 sen f cos f = sen 2f implica
Visto que M(t) e M̂ (t) são independentes de Θ, a potência média do sinal da banda lateral
superior é
E U 2 (t) = E M 2 (t) E cos2 (2πfc t + Θ)
+ E M̂ 2 (t) E sen2 (2πfc t + Θ)
− E M (t)M̂ (t) E [2 cos(2πfc t + Θ) sen(2πfc t + Θ)]
O sistema descrito neste problema corresponde exatamente ao sistema no texto que resultou na
Equação (137).
(a) Pela Equação (137), o filtro linear ótimo é
SX (f )
Ĥ(f ) = . (1)
SX (f ) + SN (f )
Embora seja simples calcular os caminhos de amostra de Yn usando a resposta de filtro Yn = ½ Yn–1 +
½ Xn diretamente, os laços necessários tornam um programa lento. Uma solução usando vetores e
matrizes tende a rodar mais rapidamente. Pela resposta do filtro, podemos escrever
1
Y1 = X 1 , (1)
2
1 1
Y2 = X 1 + X2 , (2)
4 2
1 1 1
Y3 = X1 + X2 + X3 , (3)
8 4 2
..
.
1 1 1
Yn = X1 + n− 1 X2 + · · · + Xn . (4)
2n 2 2
function ymv=yfilter(m);
%ymv(i) é a média e var (por m caminhos) de y(i),
%a saída do filtro de 11.2.6 e 11.10.1
X=randn(500,m);
H=toeplitz([(0.5).^(1:500)],[0.5 zeros(1,499)]);
Y=H*X;
yav=sum(Y,2)/m;
yavmat=yav*ones(1,m);
yvar=sum((Y-yavmat).^2,2)/(m-1);
ymv=[yav yvar];
suplemento de processamento de sinais (sps) 75
0,6
Média da amostra
0,4 Variância da amostra
0,2
−0,2
−0,4
0 50 100 150 200 250 300 350 400 450 500
n
Vemos que cada média amostral é pequena, na ordem de 0,1. Observe que E[Yi] = 0. Para m = 100
amostras, a média amostral tem variância 1/m = 0,01 e desvio padrão 0,1. Assim, pode-se esperar
que sejam observados valores de média amostral em torno de 0,1.
Além disso, pode-se mostrar (na solução do Problema 2.6, por exemplo) que quando i se torna
grande, Var[Yi] converge para 1/3. Assim, os resultados de nossa variância amostral também não
são surpreendentes.
Comentário: Embora, dentro de cada caminho de amostra, Yi e Yi+1 sejam bastante correlacio-
nados, as médias amostrais de Yi e Yi+1 não são muito correlacionadas quando uma grande quan-
tidade de caminhos amostrais tem a média calculada. O cálculo exato da covariância das médias
amostrais de Yi e Yi+1 pode ser um exercício interessante. As mesmas observações se aplicam à
variância amostral.
O programa cospaths.m gera caminhos de amostra gaussiana com a função de autocorrelação de-
sejada RX(k) = cos(0,04 * pi * k). Aqui está o código.
function x=cospaths(n,m);
%Gera m caminhos de amostra de tamanho n de um
%processo gaussiano com ACF R[k]=cos(0.04*pi*k)
k=0:n-1;
rx=cos(0.04*pi*k)’;
x=gaussvector(0,rx,m);
0
n
X
−1
−2
0 10 20 30 40 50 60 70 80 90 100
n
76 suplemento de processamento de sinais (sps)
Notamos que cada caminho de amostra do processo é uma sequência aleatória gaussiana. Porém,
também pode parecer, pelo gráfico, que cada caminho de amostra é uma senoide perfeita. Isso pode
parecer estranho se você estiver acostumado a ver processos gaussianos simplesmente como proces-
sos com ruído ou processos de movimento browniano flutuantes. Porém, neste caso, a amplitude e
a fase de cada caminho de amostra é aleatória, de modo que, pelo conjunto de funções de amostras
senoidais, cada amostra Xn é uma variável aleatória gaussiana (0, 1).
Por fim, para confirmar que cada caminho de amostra é uma senoide perfeita, em vez de apenas
semelhante a uma senoide, calculamos a DFT de cada caminho de amostra. Os comandos
>> x=cospaths(100,10);
>> X=fft(x);
>> stem((0:99)/100,abs(X));
120
100
80
60
Xk
40
20
0
0 0,1 0,2 0,3 0,4 0,5 0,6 0,7 0,8 0,9 1
k/100
O gráfico apresentado consiste em dez gráficos de haste de magnitude de DFT com 100 pontos, um
para cada função de amostra gaussiana. Cada gráfico tem exatamente dois componentes diferentes de
zero nas frequências k/100 = 0,02 e (100 – k)/100 = 0,98 correspondentes a cada senoide de caminho
de amostra tendo frequência 0,02. Observe que a magnitude de cada componente de frequência 0,02
depende da magnitude do caminho da amostra senoidal correspondente.
A função lmsepredictor.m foi projetada de modo que, se a sequência Xn tiver uma função de
autocorrelação de duração finita, de modo que RX[k] = 0 para |k| ≥ m, mas o filtro LMSE de ordem
M – 1 para M ≥ m tiver que ser retornado, então o lmsepredictor preenche automaticamente o
vetor de autocorrelação rx com um número suficiente de zeros de modo que a saída seja o filtro de
ordem M – 1. Ao contrário, se rx especificar mais valores RX[k] do que o necessário, então a opera-
ção rx(1:M) extrai os M valores RX[0], . . . , RX[M – 1] que são necessários.
Porém, neste problema, RX[k] = (–0,9)|k| tem duração infinita. Quando chamamos
lmsepredictor(rx,N) para N ≥ 6 e passamos a representação truncada rx de comprimento 6
como um argumento, o resultado é que rx é incorretamente preenchido com zeros. A saída de filtro
resultante será o filtro LMSE para a resposta de filtro
(− 0,9)|k| |k| ≤ 5,
RX [k] = (1)
0 caso contrário.
em vez do filtro LMSE para a função de autocorrelação verdadeira. Em outras palavras, obtemos a
saída correta para N ≤ 5.
suplemento de processamento de sinais (sps) 77
Neste problema, generalizamos a solução do Problema 4.2 usando o Teorema 9 com k = 1 para a
ordem de filtro M > 2. O filtro previsor linear ótimo
h = h0 h1 · · · h M − 1 (1)
de Xn+1 dado
Xn = Xn− (M − 1) · · · Xn− 1 Xn (2)
é dado por
hM − 1
−
←
h = ... = R−X1n RXn Xn+1 , (3)
h0
em que RXn é dado pelo Teorema 6 e RXnXn+1 é dado pela Equação (65). Neste problema,
Xn− M +1 RX [M ]
.. . (4)
RXn Xn+1 = E . Xn+1 = .. .
Xn RX [1]
Voltando ao Teorema 12.7, o erro médio quadrático é
−
← −
←
e∗L = E (Xn+1 − h Xn )2 = Var[Xn+1 ] − h RXn Xn+1 . (5)
Para M > 2, usamos a função onesteppredictor(r,M) do Matlab para realizar os cálculos.
function [h,e]=onesteppredictor(r,M);
%uso: h=onesteppredictor(r,M),
%entrada:r=[R_X(0) R_X(1) .. R_X(m-1)]
%assume R_X(n)==0 para n >=m
%saída=vetor h para previsor lmse
% xx=h’[X(n),X(n-1),..,X(n-M+1)] para X(n+1)
m=length(r);
r=[r(:);zeros(M-m+1,1)];%anexa zeros se precisar
RY=toeplitz(r(1:M));
RYX=r(M+1:-1:2);
h=flipud(RY\RYX);
e=r(1)-(flipud(h))’*RYX;
O código é bastante simples. Aqui estão dois exemplos só para mostrar que ele funciona.
>> [h2,e2]=onesteppredictor(r,2)
h2 =
0.8571
-0.1429
e2 =
0.4286
>> [h4,e4]=onesteppredictor(r,4)
h4 =
0.8000
0.0000
-0.0000
-0.2000
e4 =
0.4000
78 suplemento de processamento de sinais (sps)
O problema também pediu que calculássemos o erro médio quadrático como uma função da ordem
de filtro M. Aqui está um script e o gráfico resultante da MSE.
%onestepmse.m 0,44
r=1-0.25*(0:3); 0,42
ee=[ ]; 0,4
for M=2:10,
0,38
MSE
[h,e]=onesteppredictor(r,M);
ee=[ee,e]; 0,36
end 0,34
plot(2:10,ee,’-d’); 0,32
xlabel(’\itM’); 0,3
ylabel(’\it MSE’); 2 4 6 8 10
M
function [x,xhat]=xpaths(c,d,x00,z,w)
n=length(z);
n0=(0:(n-1))’; n1=(1:n)’;
vx=1/(1-c^2);
x0=sqrt(vx)*x00;
x=(c.^(n1)*x0)+...
toeplitz(c.^(n0),eye(1,n))*z;
y=d*[x0;x(1:n-1)]+w;
vy=((d^2)*vx) + 1;
xhat=((c*d*vx)/vy)*y;
plot(n1,x,’b-’,n1,xhat,’k:’);
axis([0 50 -3 3]);
xlabel(’\itn’); ylabel(’\itX_n’);
%predictpaths.m
w=randn(50,1);z=randn(50,1);
x00=randn(1);
xpaths(0.9,10,x00,z,w);
pause;
xpaths(0.9,1,x00,z,w);
pause;
xpaths(0.9,0.1,x00,z,w);
pause;
xpaths(0.6,10,x00,z,w);
pause;
xpaths(0.6,1,x00,z,w);
pause;
xpaths(0.6,0.1,x00,z,w);
suplemento de processamento de sinais (sps) 79
Alguns caminhos de amostra para Xn e X̂n para os parâmetros solicitados aparecem a seguir. Em
cada par, a previsão em única etapa Xn̂ é marcada com pontos.
2 2
0 0
Xn
Xn
−2 −2
0 10 20 30 40 50 0 10 20 30 40 50
n n
(a) c = 0,9, d = 10 (d) c = 0 ,6, d = 10
2 2
0 0
Xn
Xn
−2 −2
0 10 20 30 40 50 0 10 20 30 40 50
n n
(b) c = 0 .9, d = 1 (e) c = 0.6, d = 1
2 2
0 0
Xn
Xn
−2 −2
0 10 20 30 40 50 0 10 20 30 40 50
n n
(c) c = 0.9, d = 0.1 (f ) c = 0.6, d = 0 .1