Escolar Documentos
Profissional Documentos
Cultura Documentos
PROGRAMA DE PS-GRADUAO EM
ENGENHARIA ELTRICA
Florianpolis, SC
2011
Z79c
,,(,
! \~c! '
Prof. PIJ:ic
Coordenador do
Program ~~~~ ~
;.
Banea Examinadora:
/ /
/
r.
u
, m.
aduacrao em Engenharia Eletrica
/ / ~,
I-J..... ,---
~-1
\ 1\
~ _ )-- ~'- l/ ~-'1
Prof. Joao
AGRADECIMENTOS
Gostaria de deixar aqui meus sinceros agradecimentos a todos
que contriburam de alguma forma para a realizao deste trabalho, em
especial:
Ao meu orientador Prof. Rui Seara que, com sua pacincia,
dedicao e entusiasmo, me passou ensinamentos que guardarei para o
resto de minha vida.
Ao meu amigo e co-orientador Prof. Orlando Jos Tobias, que
infelizmente nos deixou de forma prematura, mas que certamente estar
para sempre nas nossas lembranas.
A toda minha famlia, em especial minha esposa e companheira
de todas as horas Nicole, pelo seu amor e dedicao a mim nos difceis
momentos em que minha sade esteve frgil, mas era preciso continuar.
Ao pessoal do LINSE, em especial ao Elton, pelas suas valorosas
contribuies na formatao final desta tese e de todos os artigos
submetidos no decorrer do curso.
Universidade Regional de Blumenau (FURB), pelo suporte
financeiro que viabilizou esta formao, em especial aos colegas do
departamento de Engenharia Eltrica e de Telecomunicaes, pelo
apoio e amizade em todas as horas.
Aos professores do programa de Ps-Graduao em Engenharia
Eltrica da UFSC, pela rica convivncia e pelos conhecimentos
transmitidos durante o primeiro ano do curso.
Aos professores membros da banca examinadora, por suas
contribuies para o aprimoramento deste trabalho.
A Deus, por me amparar nos momentos difceis e pela graa de
ter me permitido concluir este trabalho.
RESUMO
Este trabalho de pesquisa visa o estudo de algoritmos LMS de passo
varivel (VSSLMS) objetivando: classific-los segundo uma
nomenclatura unificada, realizar uma anlise estatstica dos mais
importantes algoritmos e desenvolver novas estratgias de ajuste do
passo de adaptao originando, com isso, novos algoritmos. Os
algoritmos VSSLMS tm grande importncia prtica, visto que
apresentam um melhor desempenho em relao aos de passo fixo,
permitindo a obteno simultnea de uma rpida convergncia com
menor desajuste. A literatura tcnica apresenta um grande nmero de
trabalhos que tratam de algoritmos VSSLMS. A classificao dos
principais algoritmos VSSLMS apresentada neste trabalho baseia-se no
estudo dos diferentes princpios de ajuste do passo de adaptao
utilizados. A partir desse estudo, uma modificao em um algoritmo
VSSLMS existente, baseado no gradiente do erro quadrtico, e dois
novos algoritmos VSSLMS, com base na autocorrelao do erro so
propostos, sendo um deles no-paramtrico e com elevada imunidade a
variaes no nvel do rudo de medio. Tambm, so desenvolvidos
modelos estocsticos de seis importantes algoritmos VSSLMS,
permitindo uma anlise mais aprofundada de cada estratgia e
fornecendo uma ferramenta de predio de desempenho de tais
algoritmos. Resultados de simulao numrica comparam o desempenho
das estratgias estudadas em um cenrio comum, comprovam o
desempenho dos novos algoritmos propostos e atestam a preciso dos
modelos desenvolvidos.
Palavras-chave: Algoritmos LMS de passo varivel. Anlise estatstica.
Classificao de algoritmos. Filtragem adaptativa. Imunidade ao rudo.
ABSTRACT
This research work discusses and studies variable step-size LMS
(VSSLMS) algorithms aiming to classify them according to a unified
nomenclature, to perform a statistical analysis of the most important
algorithms, and to develop new strategies for updating the step size,
resulting thereby in novel algorithms. The VSSLMS algorithms have
large practical importance, since they exhibit a better performance as
compared with those using fixed step size, allowing to obtain,
simultaneously, both higher convergence speed and smaller error
misadjustment. The open literature presents a large number of different
approaches for VSSLMS algorithms. The classification of VSSLMS
algorithms presented in this work is based on the study of different
principles for updating the step size. From this study, a modification of
an existing VSSLMS algorithm based on the squared error gradient, and
two new VSSLMS algorithms, based on the error autocorrelation, are
proposed, being one of them non-parametric and presenting high
immunity to variations of the measurement noise power. In addition,
stochastic models of six relevant VSSLMS algorithms are developed,
allowing a detailed analysis of each strategy and providing a useful tool
to predict the performance of such algorithms. Numerical simulation
results compare the performance of the VSSLMS algorithms studied
here in a common scenario, assess the performance of the new proposed
algorithms, as well as verify the accuracy of the developed models.
Keywords: Variable step-size LMS algorithms. Statistical analysis.
Algorithm classification. Adaptive filtering. Noise immunity.
Lista de Figuras
2.1. Diagrama em blocos de um esquema de identificao de
sistemas. ...................................................................................... 34
3.1. Comparao entre simulao (cinza) e modelo (preto) da
evoluo do passo de adaptao do algoritmo de Okello [18]
para sinal de entrada branco. ....................................................... 59
3.2. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do vetor w (n) do algoritmo de
Okello [18] para sinal de entrada branco. ................................... 60
3.3. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do EQM do algoritmo de Okello [18]
para sinal de entrada branco. ....................................................... 60
3.4. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do vetor gradiente estimado g(n) do
algoritmo de Okello [18] para sinal de entrada branco. .............. 61
3.5. Comparao entre simulao (cinza) e modelo (preto) da
evoluo do passo de adaptao do algoritmo de Okello [18]
para sinal de entrada correlacionado. .......................................... 62
3.6. Comparao entre simulao (cinza irreguar) e modelo
(preto) da evoluo do vetor w (n) do algoritmo de
Okello [18] para sinal de entrada correlacionado. ...................... 62
3.7. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do EQM do algoritmo de Okello [18]
para sinal de entrada correlacionado. .......................................... 63
3.8. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do vetor gradiente estimado g(n)
do algoritmo de Okello [18] para sinal de entrada
correlacionado. ............................................................................ 63
3.9. Evoluo de E[ 2 (n)] (cinza) e E 2 [(n)] (preto) para o
algoritmo de Okello. ................................................................... 64
3.10. Comparao entre simulao (cinza) e modelo (preto) da
evoluo do passo de adaptao do algoritmo de
Aboulnasr [28] para sinal de entrada branco. ........................... 69
Lista de Tabelas
SUMRIO
1. INTRODUO ............................................................................ 25
1.1 Objetivos do Trabalho ......................................................... 30
1.2 Organizao do Trabalho ................................................... 31
1.3 Publicaes da Tese ............................................................. 31
2. FUNDAMENTOS DO ALGORITMO LMS ............................. 33
2.1 Introduo ............................................................................ 33
2.2 Problema de Identificao de Sistemas .............................. 33
2.3 Algoritmo LMS .................................................................... 34
2.3.1 Derivao do Algoritmo LMS .................................... 35
2.3.2 Teoria da Independncia (TI)...................................... 37
2.3.3 Modelo Estocstico do Algoritmo LMS ..................... 38
2.3.4 Anlise de Estabilidade do Algoritmo LMS ............... 43
2.4 Algoritmo LMS Normalizado NLMS.............................. 45
2.5 Algoritmos VSSLMS ........................................................... 46
2.6 Concluses ............................................................................ 47
3. CLASSIFICAO E MODELAGEM DE
ALGORITMOS VSSLMS........................................................... 49
3.1 Introduo ............................................................................ 49
3.2 Aspectos Relevantes para a Modelagem de
Algoritmos VSSLMS ........................................................... 50
3.3 Algoritmos Baseados no Gradiente do Erro Quadrtico . 51
3.3.1 Algoritmo de Richards [13] ........................................ 52
3.3.2 Algoritmo de Mathews [14] ........................................ 53
3.3.3 Algoritmo de Wee Peng Ang [19] .............................. 53
3.3.4 Algoritmo de Farhang [16] ......................................... 54
3.3.5 Algoritmo de Okello [18]............................................ 55
3.3.6 Algoritmo de Shin [20] ............................................... 64
3.4 Algoritmos Baseados no Erro Quadrtico......................... 65
3.4.1 Algoritmo de Kwong [22] ........................................... 65
3.4.2 Algoritmo de Nakanishi [23] ...................................... 66
CAPTULO 1
Introduo
26
Captulo 1 Introduo
Captulo 1 Introduo
27
28
Captulo 1 Introduo
Captulo 1 Introduo
29
30
Captulo 1 Introduo
Captulo 1 Introduo
31
32
Captulo 1 Introduo
CAPTULO 2
Fundamentos do Algoritmo LMS
2.1 Introduo
(2.1)
2x ,
(n)
34
(2.2)
(n)
wo
x(n)
d(n)
+
w(n)
e(n)
y(n)
Algoritmo
Adaptativo
35
w
w (n)
w (n)
(2.3)
(2.4)
w
w (n)
(2.5)
(2.6)
(2.7)
36
(2.8)
p = E[x(n)d (n)]
(2.9)
(2.10)
(2.11)
(2.12)
37
0]
Execuo:
Para cada iterao n, calcule
x(n) = [ x(n) x(n 1)
x(n N + 1)]T
e( n ) = d ( n ) w T ( n ) x ( n )
w (n + 1) = w (n) + e(n)x(n)
38
(2.13)
(2.14)
(2.15)
39
(2.17)
(2.18)
(2.20)
(2.21)
(2.22)
Dessa forma, uma expresso para o sinal de erro quadrtico pode ser
encontrada pela determinao do quadrado de (2.22), resultando em
40
(2.23)
(2.24)
0
2
T
E[eo (n)] + E[ v (n)Rv (n)].
(2.25)
A expresso (2.25) descreve a evoluo do EQM. O primeiro
termo direita em (2.25) representa valor mnimo da funo custo e
obtido quando o vetor de coeficientes w (n) assume o valor de w o ,
tornando nulo o vetor de erro nos coeficientes. Nesse caso, o EQM
mnimo depende apenas da varincia do rudo aditivo. Portanto,
J min = E[eo2 (n)] = 2 .
(2.26)
(2.27)
41
(2.28)
(2.29)
(2.30)
(2.31)
(2.32)
v (n + 1) v T (n + 1)
= v (n) v T (n) [x(n)xT (n) v (n) v T (n)
+ v (n) v T (n)x(n)xT (n)] + 2 [x(n)xT (n) v (n) v T (n)x(n)xT (n)]
+ 2 eo2 (n)x(n)xT (n) + eo (n){[x(n) v T (n) x(n) v T (n)x(n)xT (n)]
+ [x(n) v T (n) x(n) v T (n)x(n)xT (n)]T }.
(2.33)
42
(2.35)
J ex () = J min
i
2(1
)
i =1
N
i
1
i =1 2(1 i )
(2.37)
Considerando
i = R
i =1
1, i, tem-se
i
tr(R ).
2(1
) 2
i =1
43
(2.38)
tr(R )
J ex () = J min 2
.
1 tr(R )
2
(2.39)
tr(R )
2
1.
(2.40)
J min tr(R ).
2
(2.41)
(2.42)
v (n + 1) = (I QQT ) v (n).
(2.43)
44
pr-multiplicando
(2.43)
por
QT
definindo
(2.44)
(2.45)
2
, k .
k
(2.47)
2
max
(2.48)
i
< 1.
i =1 2(1 i )
0<
(2.49)
45
0<<
(2.50)
w (n + 1) = w (n) +
x ( n) x( n)
x(n).
(2.51)
(n) =
(2.52)
x ( n) x( n)
e( n )
T
x ( n) x( n) +
x(n).
(2.53)
46
(2.54)
(2.55)
com
0
0
0 ( n )
0
1 (n)
0
0
2 ( n)
D(n) = 0
0
0
0
... N 1 (n)
...
...
...
0
0
0
(2.56)
47
2
.
3tr(R )
(2.57)
2.6 Concluses
Este captulo abordou os conceitos bsicos e fundamentais
relacionados ao algoritmo LMS, visando estabelecer uma base terica
adequada para este trabalho de pesquisa. Nele foi apresentada a
derivao do algoritmo LMS assim como seu modelo estocstico, tanto
para a evoluo do vetor de coeficientes quanto para a curva de
aprendizagem. Analisando o comportamento mdio do vetor de
coeficientes se observa que o algoritmo LMS apresenta (na mdia)
resultado similar ao do algoritmo steepest descent. Tambm
apresentada uma anlise de estabilidade do algoritmo LMS, visando
definir os valores limites do passo de adaptao que assegurem a
convergncia do algoritmo.
As caractersticas gerais dos algoritmos NLMS e VSSLMS foram
brevemente descritas. No prximo captulo, as principais estratgias de
ajuste do passo de adaptao varivel em algoritmos LMS so
apresentadas e classificadas.
48
CAPTULO 3
Classificao e Modelagem de Algoritmos VSSLMS
3.1 Introduo
Os algoritmos adaptativos de passo varivel tm grande
importncia prtica, visto que apresentam um melhor desempenho em
relao aos de passo fixo, por possibilitarem a obteno simultnea de
elevadas taxas de convergncia com um desajuste reduzido. Nesse
contexto, a literatura tcnica apresenta um grande nmero de algoritmos
com tal caracterstica, indicando ser essa uma linha de pesquisa bastante
ativa na rea de filtragem adaptativa.
Neste captulo, realizada uma breve descrio e uma
classificao dos principais algoritmos LMS de passo varivel
(VSSLMS), baseada na idia central de cada algoritmo [41]. Alm
disso, so desenvolvidos modelos estocsticos para trs algoritmos de
grande impacto. A classificao aqui proposta facilita o estudo dos
algoritmos VSSLMS, padronizando a nomenclatura das diversas
estratgias recentemente publicadas e possibilitando uma comparao
considerando um cenrio comum de aplicao. Para tal, so
estabelecidas oito categorias, conforme o critrio utilizado para ajuste
do passo de adaptao. Tais critrios podem ser baseados no(a):
Gradiente do erro quadrtico.
Erro quadrtico.
Autocorrelao do erro.
Valor absoluto do erro.
Normalizao do vetor de erros.
Ajuste proporcional aos valores absolutos do vetor de
coeficientes.
Teoria do passo timo.
Otimizao com restrio do rudo de medio.
Cada categoria aqui proposta brevemente discutida e um
resumo de cada algoritmo estudado apresentado. Para todos os
algoritmos estudados, o vetor de coeficientes do filtro ajustado seja
por (2.54) ou (2.55), conforme a utilizao de um passo de adaptao
comum ou passos individuais, respectivamente.
50
(3.1)
51
(3.2)
(3.3)
(3.4)
+ E[ 2 (n)]R2 .
52
w0
^
= 2e(n)x(n) .
( n) = g ( n) =
e 2 (n)
wN 1
(3.5)
Para obter o valor mdio do gradiente, utilizado um filtro autoregressivo, expresso como
E{gi (n + 1)} = E{gi (n)} + (1 )e(n) x(n i )
(3.6)
2
0
E [ g1 (n)]
D(n) =
0
0
2
E [ g N 1 (n)]
0
(3.7)
53
e 2 (n)
2 (n 1)
(3.8)
T e 2 (n) w (n)
.
2 w (n) (n 1)
(3.9)
(3.10)
i = 0,
, N 1. (3.11)
wi (n)
= i (n 1) + xi (n 1)e(n 1)
i (n 1)
(3.12)
54
(3.13)
(3.14)
(3.15)
(3.16)
i dado por
i =
o
i
(3.17)
55
e(n) xi (n) .
(n) = (n 1) + gi 2 (n)
(3.18)
(3.19)
i =0
com
onde gi (n) a estimativa do gradiente do erro quadrtico em relao ao
i-simo componente do vetor de coeficientes, sendo e parmetros
de controle do processo de adaptao.
A. Modelo estocstico
Uma anlise estatstica do algoritmo de Okello [45] proposta
neste trabalho de pesquisa e apresentada a seguir.
O ajuste do passo varivel, em (3.18), pode ser expresso em
termos do vetor gradiente g(n), obtido como
(n) = (n 1) + g T (n)g(n)
(3.20)
(3.21)
(3.22)
56
(3.23)
+ e 2 (n)xT (n)x(n).
(3.24)
(3.25)
Em (3.25), o termo E[e 2 (n)xT (n)x(n)] pode ser aproximado pelo uso
da TI por
E[e2 (n) xT (n)x(n)] E[e2 (n)]E[xT (n) x(n)]
J (n)tr(R )
(3.26)
(3.27)
Ento, para finalizar, E[g (n 1)] pode ser obtido, de forma recursiva,
tomando o valor esperado de ambos os lados de (3.21). Assim,
E[g(n)] = E[g (n 1)] + {p R E[w (n)]}.
(3.28)
57
(3.29)
2J ()tr(R )
(1 2 )
(3.30)
Passo de adaptao:
O valor final do passo de adaptao pode ser obtido substituindo
(3.30) em (3.22) para n , resultando em
() =
2J ()tr(R )
(1 2 )(1 )
(3.31)
Vetor de coeficientes:
Considerando que w (n) converge, seu valor final obtido de (3.2)
para n dado por
w () = w () + () [p Rw () ].
Agora, desenvolvendo (3.32)
(3.32)
58
()[p Rw () ] = 0
(3.33)
[p Rw () ] = 0
(3.34)
que resulta em
(3.35)
() J min
J ()
2 tr 2 (R ).
tr(R ) =
2
2
(1 )(1 )
Como J ex () = J () J min e
(3.36)
como
J ( ) =
2 tr 2 (R )
1
2
2(1 )(1 )
(3.37)
C. Resultados de simulao
Aqui so apresentados os resultados de simulao numrica,
verificando a preciso do modelo desenvolvido para o algoritmo de
Okello [18].
Considera-se um problema de identificao de sistema, utilizando
a planta dada por w o = [0,2 0,3 0,5 0,8 0,9] , para sinais de entrada
branco e correlacionado. Para ambos os casos, os sinais de entrada so
gaussianos com mdia zero e varincia 2x = 1, e a varincia do rudo
branco de medio 2 = 0, 01 (SNR = 20dB) . O sinal correlacionado
obtido por um processo AR(1), dado por x(n) = 0,6 x(n 1) + u (n)
59
0,025
0,020
0,015
0,010
0,005
100 200 300 400 500 600 700 800 900 1000
Iteraes
60
E[w(n)]
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
100 200 300 400 500 600 700 800 900 1000
Iteraes
EQM (dB)
-5
-10
-15
-20
-25
100 200 300 400 500 600 700 800 900 1000
Iteraes
61
50
40
E[g(n)]
30
20
10
0
-10
100 200 300 400 500 600 700 800 900 1000
Iteraes
62
0,040
0,035
0,030
0,025
0,020
0,015
0,010
0,005
0
100 200 300 400 500 600 700 800 900 1000
Iteraes
E[w(n)]
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
100 200 300 400 500 600 700 800 900 1000
Iteraes
63
10
5
EQM (dB)
0
-5
-10
-15
-20
-25
100 200 300 400 500 600 700 800 900 1000
Iteraes
E[g(n)]
40
30
20
10
0
-10
100 200 300 400 500 600 700 800 900 1000
Iteraes
64
E[ 2 (n)] e E 2[(n)]
1,5
X10
1,0
0,5
100 200 300 400 500 600 700 800 900 1000
Iteraes
e( n ) x ( n )
x T ( n) x ( n)
(3.38)
65
(n) =
p T (n)p(n)
p T (n)p(n) + c
(3.39)
(3.40)
66
e2 (n)
(3.41)
1
N 2x
(3.42)
x ( n) x( n) e ( n)
1
(3.43)
67
(3.45)
(3.46)
68
(3.47)
(3.48)
=0
n l 1
n l 2
2 j 12 tr[R 2K T (n l j + 1)] +
j =1
j =0
2 j +12 tr[R T2 K 2 (n l j )] .
(3.49)
69
0,020
0,018
0,016
0,014
0,012
0,010
0,008
0,006
0,004
0,002
0
100 200 300 400 500 600 700 800 900 1000
Iteraes
70
E[w(n)]
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
100 200 300 400 500 600 700 800 900 1000
Iteraes
EQM (dB)
-5
-10
-15
-20
-25
100 200 300 400 500 600 700 800 900 1000
Iteraes
71
0,035
0,030
0,025
0,020
0,015
0,010
0,005
0
100 200 300 400 500 600 700 800 900 1000
Iteraes
72
E[w(n)]
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
100 200 300 400 500 600 700 800 900 1000
Iteraes
EQM (dB)
0
-5
-10
-15
-20
-25
100
200
Iteraes
Figura 3.15. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do EQM do algoritmo de Aboulnasr [28] para sinal
de entrada correlacionado.
73
-3
1,2
X10
E[ 2 (n)] e E 2[(n)]
1,0
0,8
0,6
0,4
0,2
0
100 200 300 400 500 600 700 800 900 1000
Iteraes
74
e(n 1)
d (n 1)
max
(3.50)
com
(n 1),
1
(n) = (n 1),
(n),
(n) < (n 1)
1
(n) > (n 1)
caso contrrio
(3.51)
,
1
e( n )
( n) =
0,
se e(n) >
(3.52)
caso contrrio.
75
e( n )
n 1
e( n k )
(3.53)
k =0
e L ( n)
L 1
= e( n k ) .
2
(3.54)
k =0
e L ( n)
[ e(n) + (1 ) x(n) ]
(3.55)
(3.56)
76
w ( n) 1
N
+ (1 + ) wi (n)
(3.57)
N 1
wi (n) .
(3.58)
i =0
N 1
ki (n) .
(3.60)
i =0
D(n 1)
x (n)D(n 1)x(n) +
T
(3.61)
77
onde D(n) uma matriz diagonal obtida dos passos individuais dada
por
D(n) = diag{0 (n),..., N 1 (n)} .
(3.62)
Observa-se que quando = 1 o algoritmo IPNLMS idntico
ao algoritmo NLMS e para prximo de 1 o algoritmo se comporta
como o PNLMS.
3.9 Algoritmos Baseados na Teoria do Passo timo
Os algoritmos desta categoria so baseados no valor terico do
passo timo, o qual obtido pela minimizao do EQM em excesso
J ex (n) , com respeito ao passo varivel de adaptao. O valor terico do
passo timo de adaptao aquele que satisfaz
J ex (n)
= 0.
(n)
(3.63)
a (n)
b ( n)
(3.64)
(3.65)
(3.66)
78
(3.67)
(3.68)
(3.69)
w (n + 1) = w (n) f 2
(3.70)
w
e
(n + 1) = (n) +
79
(3.71)
2
= [e(n) 2 2 ] 2 (n) .
(3.73)
(3.74)
(3.75)
e
f
e
1
(n + 1) = (n) + { [e2 (n) 2 ] (n)}.
2
(3.77)
80
(n) = (1 ) n 1 k [e2 (k ) 2 ] .
2
k =0
(3.78)
f n 1
(1 )n 1 k [e2 (k ) 2 ] .
2 k =0
(3.79)
1
Fazendo = f , tem-se que
2
n 1
(n) = f + (1 ) n 1 k [e2 (k ) 2 ] .
(3.80)
k =0
(n) = (1 ) n 1 k [e2 (k ) 2 ]
(3.81)
k =0
(3.85)
Nota-se que (3.85) idntica expresso que descreve o valor
mdio do vetor de coeficientes para o algoritmo LMS convencional,
exceto pelo ltimo termo direita, onde E[(n)] pode ser escrito como
81
E[(n)]
n 1
n 1
k =0
k =0
= E[ (1 ) n 1 k (e2 (k ) 2 )] = (1 )n 1 k [ J (k ) J min ]
(3.86)
ou
E[(n)]
n 1
n 1
k =0
k =0
varivel
de
(3.87)
adaptao
E[(n)] = f +E[(n)].
(3.88)
E[ 2 (n)] = 2 (1 )2( n 1 k ) [ J 2 (k ) 2 J (k )2 + 4 ].
(3.90)
k =0
(3.91)
82
J ex ()
.
2
(3.94)
(3.95)
[2 f +f J ex ()] 2
() J min
tr(R ) =
tr(R )
2
4
(3.96)
resultando finalmente em
J ex () =
2 f 2 tr(R )
4 f 2 tr(R )
(3.97)
C. Resultados de simulao
Os resultados de simulao para o modelo estocstico do
algoritmo de Wei so aqui mostrados em dois exemplos. O cenrio
utilizado o mesmo descrito nos Exemplos 3.1 e 3.2. O primeiro
exemplo, considera um sinal de entrada branco e, o segundo, um sinal
de entrada correlacionado.
Exemplo 3.5: Neste exemplo, utilizado um sinal de entrada
branco. As Figuras 3.17, 3.18 e 3.19 mostram, respectivamente, a
evoluo do passo de adaptao, o vetor de coeficientes e o EQM,
comparando os resultados atravs de simulao de MC (200 realizaes
independentes) e pelo modelo proposto.
83
0,016
0,014
0,012
0,010
0,008
0,006
0,004
0,002
0
100 200 300 400 500 600 700 800 900 1000
Iteraes
E[w(n)]
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
100 200 300 400 500 600 700 800 900 1000
Iteraes
84
EQM (dB)
-5
-10
-15
-20
-25
100 200 300 400 500 600 700 800 900 1000
Iteraes
85
0,020
0,018
0,016
0,014
0,012
0,010
0,008
0,006
0,004
0,002
0
100 200 300 400 500 600 700 800 900 1000
Iteraes
E[w(n)]
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
100 200 300 400 500 600 700 800 900 1000
Iteraes
86
EQM (dB)
0
-5
-10
-15
-20
-25
100 200 300 400 500 600 700 800 900 1000
Iteraes
87
88
CAPTULO 4
Novos Algoritmos VSSLMS
4.1 Introduo
Com o propsito de se obter taxas elevadas de convergncia com
um desajuste reduzido, vrias estratgias para ajustar o valor do passo
de adaptao em algoritmos VSSLMS vm sendo propostas na
literatura. O objetivo deste captulo apresentar novas propostas de
algoritmos VSSLMS.
Os algoritmos baseados no gradiente ajustam o passo de
adaptao a partir do valor numrico do gradiente do erro quadrtico de
estimao. Em [17] apresentado um dos primeiros algoritmos
utilizando tal abordagem, denominado aqui algoritmo de Shan. Tal
algoritmo se mostra bastante simples e eficaz apresentando, porm, um
problema elementar de convergncia que ocorre quando o gradiente
mdio resultar em um valor negativo. Assim, com o objetivo de
contornar o problema verificado, aqui proposta uma modificao no
algoritmo de Shan e apresentado um modelo estocstico do algoritmo
modificado.
Neste captulo, tambm so propostos dois novos algoritmos
baseados na autocorrelao do erro. O primeiro deles, aqui denominado
algoritmo AP1, tem seu ajuste baseado na funo de autocorrelao do
erro considerando N lags. Essa caracterstica melhora o desempenho do
algoritmo quando comparado ao algoritmo de Aboulnasr [28],
aumentando a velocidade de convergncia na presena de rudo de
medio. Embora o algoritmo proposto AP1 represente uma evoluo
em relao ao algoritmo de Aboulnasr [28], ele ainda apresenta dois
principais problemas inerentes aos algoritmos VSSLMS. So eles: a
baixa imunidade a variaes no nvel de rudo de medio e a
necessidade de ajuste de parmetros, o que geralmente feito de forma
experimental. Com o objetivo de obter um algoritmo imune a variaes
no rudo de medio e que no necessite de ajuste de parmetros,
tambm proposto neste captulo um segundo algoritmo, baseado na
autocorrelao do erro, aqui denominado algoritmo AP2.
Neste captulo, so ainda apresentados os modelos estocsticos
dos trs algoritmos avaliados. Resultados de simulao comprovam o
desempenho dos trs algoritmos e verificam a preciso dos modelos
desenvolvidos.
90
(4.1)
com
x ( n) =
1
N
x( k )
(4.2)
k = n N +1
(4.4)
91
(4.5)
1
N
N 1
gi (n).
(4.6)
i =0
(4.7)
1
N
N 1
E[ gi (n)]
(4.8)
i =0
(4.9)
92
93
15
10
EQM (dB)
5
0
-5
-10
-15
-20
-25
100
200
300
400
500
600
400
500
600
Iteraes
(a)
15
10
EQM (dB)
5
0
-5
-10
-15
-20
-25
100
200
300
Iteraes
(b)
Figura 4.1. Evoluo do EQM. (a)
(b) Algoritmo modificado (proposto).
Algoritmo
original
[17].
94
0,016
0,014
0,012
0,010
0,008
0,006
0,004
0,002
0
100 200 300 400 500 600 700 800 900 1000
Iteraes
95
1,0
0,9
0,8
E[w(n)]
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
100 200 300 400 500 600 700 800 900 1000
Iteraes
EQM (dB)
-5
-10
-15
-20
-25
100 200 300 400 500 600 700 800 900 1000
Iteraes
96
0,020
0,018
0,016
0,014
0,012
0,010
0,008
0,006
0,004
0,002
0
100 200 300 400 500 600 700 800 900 1000
Iteraes
97
1,0
0,9
0,8
E[w(n)]
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
100 200 300 400 500 600 700 800 900 1000
Iteraes
EQM (dB)
0
-5
-10
-15
-20
-25
100 200 300 400 500 600 700 800 900 1000
Iteraes
98
3,5 X10
3,0
2,5
2,0
1,5
1,0
0,5
0
100 200 300 400 500 600 700 800 900 1000
Iteraes
99
(4.10)
i =1
(4.11)
(4.12)
(4.13)
=0
n l 1
=0
k =0
= (1 )
+
tr{RK iT (n l
k (4 + 2 {tr[RK (n l k i ) + RK (n l k )]}
i =1
k )]RK i (n l k )}).
(4.14)
100
101
Parmetros
= 0,97
Kwong[22]
= 7 106
= 0,97
= 0,99
Aboulnasr[28]
= 8 104
= 0,97
= 0,99
AP1
= 2 106
0,10
AP1
0,09
0,08
Aboulnasr [28]
0,07
0,06
0,05
Kwong [22]
0,04
0,03
0,02
0,01
0 0
10
101
102
103
104
Iteraes
102
E[w1 (n)]
4
Aboulnasr [28]
3
2
Kwong [22]
1
0 0
10
101
10 2
103
10 4
Iteraes
20
10
Kwong [22]
0
Aboulnasr [28]
-10
AP1
-20
-30
-40
0,5
1,0
1,5
2,0
Iteraes
2,5
3,0
3,5
10 4
103
30
20
10
Kwong [22]
Kwong [22]
Aboulnasr [28]
-10
Aboulnasr [28]
AP1
AP1
-20
-30
-40
0
0,5
1,0
1,5
2,0
Iteraes
2,5
3,0
3,5
10 4
104
Aboulnasr
Parmetros
= 0,97
= 1,1 105
= 0,97
= 0,99
= 1, 6 103
= 0,97
AP1
= 0,99
= 3 106
0,012
0,010
AP1
0,008
Aboulnasr [28]
0,006
Kwong [22]
0,004
0,002
0 0
10
101
102
103
104
Iteraes
105
6
AP1
5
E[w1(n)]
Aboulnasr [28]
Kwong [22]
3
2
1
0 0
10
101
10 2
103
104
Iteraes
15
10
5
Kwong [22]
Aboulnasr [28]
-5
AP1
-10
-15
-20
-25
-30
0,5
1,0
1,5
2,0
Iteraes
2,5
3,0
3,5
10 4
106
40
30
20
Kwong [22]
Kwong [22]
10
Aboulnasr [28]
Aboulnasr [28]
AP1
AP1
-10
-20
-30
0,5
1,0
1,5
2,0
Iteraes
2,5
3,0
3,5
10 4
107
0,030
0,025
0,020
0,015
0,010
0,005
0
200 400 600 800 1000 1200 1400 1600 1800 2000
Iteraes
E[w(n)]
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
100 200 300 400 500 600 700 800 900 1000
Iteraes
108
EQM (dB)
-5
-10
-15
-20
-25
100 200 300 400 500 600 700 800 900 1000
Iteraes
109
0,030
0,025
0,020
0,015
0,010
0,005
0
200 400 600 800 1000 1200 1400 1600 1800 2000
Iteraes
E[w(n)]
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
100 200 300 400 500 600 700 800 900 1000
Iteraes
110
EQM (dB)
0
-5
-10
-15
-20
-25
100 200 300 400 500 600 700 800 900 1000
Iteraes
X10
1,0
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
200 400 600 800 1000 1200 1400 1600 1800 2000
Iteraes
111
( n)
T
x ( n) x( n )
(4.15)
112
( n) =
p 2 (n)
q 2 ( n)
(4.16)
(4.17)
113
1
E[(n + 1)] E[(n)]E T
.
x ( n) x( n)
(4.18)
E[ p 2 (n)]
(4.19)
E[q 2 (n)]
E[(n)]
pode ser
E[(n)]
n 1
n 1
j =0
j =1
n 1
n 1 n 1
j =0
j = 0 k =0
j k
j =0
n 1
n 1 n 1
j =0
j =0 k =0
j k
(4.20)
114
n 1
n2
n 1
j =1
n 1 n 1
j =0
j =0 k = 0
jk
(4.21)
Observa-se desta anlise que o algoritmo proposto AP2 apresenta
maior imunidade a mudanas na varincia do rudo de medio, j que o
comportamento mdio da funo de controle do passo de adaptao
independe de 2 .
Esta proposta resolve dois grandes problemas que surgem no
projeto de filtros adaptativos utilizando algoritmos VSSLMS. O
primeiro a difcil tarefa de ajustar parmetros do algoritmo para uma
determinada aplicao prtica e o segundo diz respeito forte
dependncia da maioria dos algoritmos VSSLMS frente a mudanas na
varincia do rudo de medio. O algoritmo proposto AP2 no requer
qualquer ajuste de parmetros, mantendo muito bom desempenho
mesmo quando ocorrerem grandes mudanas na varincia do rudo de
medio.
4.4.2 Resultados de Simulao
Nesta seo, so apresentados resultados de simulao para
verificao de desempenho do algoritmo proposto AP2 nos quatro
primeiros exemplos e para avaliao da preciso do modelo estocstico
desenvolvido nos dois ltimos. Nos Exemplos 4.7, 4.8 e 4.9, as
simulaes numricas comparam o desempenho dos algoritmos de
Aboulnasr [28] e Benesty [25], com o algoritmo proposto AP2. Para tal,
simulaes de MC (mdia de 200 rodadas independentes) so realizadas
para um problema de identificao de sistemas, mostrando as curvas de
EQM em excesso e do passo de adaptao varivel (n) para todos os
algoritmos avaliados. Alm disso, para o algoritmo proposto AP2, o
comportamento mdio da funo de controle do passo (n) tambm
mostrado. No Exemplo 4.10, so comparados apenas os algoritmos noparamtricos, isto , o dado em [25] e AP2. Nesse exemplo, so
mostradas as evolues do EQM em excesso e (n), considerando uma
115
4.7:
Neste
exemplo
utiliza-se
2 = 0,001
116
-10
-20
-30
Aboulnasr [28]
Benesty [25]
-40
-50
AP2
-60
0,5
1,0
1,5
2,0
2,5
3,0
Iteraes
10 4
(a)
0,012
0,010
AP2
0,008
0,006
0,004
Benesty [25]
0,002
Aboulnasr [28]
0 0
10
101
102
Iteraes
(b)
103
104
117
1,0
p 2 (n )
E 2
q ( n)
0,9
0,8
E[ p 2 (n)]
E[ q 2 ( n)]
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0,5
1,0
1,5
2,0
2,5
3,0
3,5
4,0
4,5
5,0
Iteraes
3
0
1
(c)
Figura 4.24. Resultados de simulao para 2 = 0, 001 (SNR = 30dB).
exemplo,
utiliza-se
2 = 0, 0001
118
-10
-20
Aboulnasr [28]
-30
AP2
Benesty [25]
-40
-50
-60
0,5
1,0
1,5
2,0
2,5
3,0
Iteraes
10 4
(a)
0,012
0,010
AP2
0,008
0,006
0,004
Benesty [25]
0,002
Aboulnasr [28]
0 0
10
101
102
Iteraes
(b)
103
10 4
119
1,0
p 2 ( n)
E 2
q ( n)
0,9
0,8
E[ p 2 ( n)]
E[q 2 ( n)]
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0,5
1,0
1,5
2,0
2,5
3,0
Iteraes
3,5
4,0
4,5
5,0
3
0
1
(c)
Figura 4.25. Resultados de simulao para 2 = 0, 0001 (SNR = 40dB).
Exemplo
4.9:
Para
este
exemplo,
considera-se
= 0, 01 (SNR = 20dB) e os parmetros do algoritmo de Aboulansr
120
-10
Aboulnasr [28]
-20
-30
-40
Benesty [25]
-50
-60
AP2
0,5
1,0
1,5
2,0
2,5
3,0
Iteraes
10 4
(a)
0,012
0,010
AP2
Aboulnasr [28]
0,008
0,006
0,004
Benesty [25]
0,002
0 0
10
101
102
Iteraes
(b)
103
104
121
1,0
p 2 (n )
E 2
q ( n)
0,9
0,8
E[ p 2 ( n)]
E[q 2 ( n)]
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0,5
1,0
1,5
2,0
2,5
3,0
Iteraes
3,5
4,0
4,5
5,0
3
0
1
(c)
Figura 4.26. Resultados de simulao para 2 = 0, 01 (SNR = 20dB).
122
-10
-20
Benesty [25] com 2 = 0,0013
-30
-40
-50
-60
1,5
2,0
2,5
3,0
3,5
4,0
0,5
Iteraes
0
1
(a)
0,012
AP2 com
2 = 0, 001
0,010
0,008
AP2 com
2 = 0,0013
0,006
0,004
Benesty [25]
com 2 = 0, 001
0,002
4
0
1
0
1
0
1
1
0
1
0
1
Iterations
(b)
123
0,035
0,030
0,025
0,020
0,015
0,010
0,005
0
1000
2000
3000
4000
5000
6000
Iteraes
124
E[w(n)]
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
100 200 300 400 500 600 700 800 900 1000
Iteraes
125
0,035
0,030
0,025
0,020
0,015
0,010
0,005
0
1000
2000
3000
4000
5000
6000
Iteraes
126
E[w(n)]
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
100 200 300 400 500 600 700 800 900 1000
Iteraes
EQM (dB)
0
-5
-10
-15
-20
-25
100 200 300 400 500 600 700 800 900 1000
Iteraes
127
1,0
0,9
0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
1000
2000
3000
5000
6000
Iteraes
128
CAPTULO 5
Resultados Comparativos de Algoritmos VSSLMS
5.1 Introduo
130
considerando
u ( n)
um
rudo
branco
u2
Nmero de
Multiplicaes
Nmero
de
Divises
Nmero de
Somas e
Subtraes
Nmero de
Razes
Quadradas
2N+1
2N
2N+5
6N+1
3N+4
5N+3
8N+1
5N+3
7N+2
2N+4
2N+5
3N+6
1
0
0
0
N
0
2
0
1
0
3N+1
2N+2
2N+1
2N+2
3N
4N+1
3N+1
2N+1
2N+1
2N+2
0
0
0
0
0
0
0
0
0
0
3N+5
3N+1
2N+7
3N+6
3N+9
2N+3
2N+1
4N+4
3N+1
0
0
2
1
1
1
0
2N+2
3N+3
3N+1
2N
2N+1
3N+2
3N
0
0
0
0
0
0
0
6N+4
4N+3
3N+7
2N+6
1
1
2N+4
2N+4
0
0
131
15
10
Farhang [16]
Weepeng [19]
Mathews [14]
Shin [20]
Richards [13]
-5
-10
-15
-20
-25
-30
0,4
0,6
0,8
1,0
1,2
Iteraes
1,4
1,6
1,8
2,0
0,2
0
1
132
15
10
Farhang [16]
Mathews [14]
Weepeng [19]
Richards [13]
-5
Okello [18]
Shin [20]
-10
-15
-20
-25
-30
0,4
0,6
0,8
1,0
1,2
1,4
1,6
1,8
2,0
0,2
Iteraes
0
1
10
5
Nakanishi [23]
0
Costa [24]
-5
Benesty [25]
-10
Kwong [22]
-15
-20
-25
-30
0,4
0,6
0,8
1,0
1,2
Iteraes
1,4
1,6
1,8
2,0
0,2
0
1
133
20
15
10
Nakanishi [23]
Costa [24]
Nakanishi [23]
Kwong [22]
0
Costa [24]
-5
Benesty [25]
Benesty [25]
-10
Kwong [22]
-15
-20
-25
-30
0,4
0,6
0,8
1,0
1,2
1,4
1,6
1,8
2,0
0,2
0
1
Iteraes
Figura 5.4. EQM em excesso dos algoritmos baseados no erro
quadrtico considerando uma mudana abrupta no sistema a ser
identificado.
134
10
5
0
Aboulnasr [28]
-5
-10
AP1
-15
AP2
-20
-25
-30
0,4
0,6
0,8
1,0
1,2
1,4
1,6
1,8
2,0
0,2
Iteraes
0
1
15
10
5
0
-5
Aboulnasr [28]
Aboulnasr [28]
-10
AP2
-15
AP2
AP1
AP1
-20
-25
-30
0,4
0,6
0,8
1,0
1,2
Iteraes
1,4
1,6
1,8
2,0
0,2
0
1
135
15
10
Gollamudi [32]
5
0
-5
Kim [31]
-10
-15
-20
-25
-30
0,4
0,6
0,8
1,0
1,2
1,4
1,6
1,8
2,0
0,2
Iteraes
0
1
15
10
5
Gollamudi [32]
0
-5
Kim [31]
-10
-15
-20
-25
-30
0,4
0,6
0,8
1,0
1,2
Iteraes
1,4
1,6
1,8
2,0
0,2
0
1
136
10
Rohani [34]
5
0
-5
-10
-15
-20
-25
-30
0,4
0,6
0,8
1,0
1,2
1,4
1,6
1,8
2,0
0,2
0
1
Iteraes
Figura 5.9. Comportamento do EQM em excesso dos algoritmos
baseados no ajuste proporcional ao vetor w (n).
137
20
15
Rohani [34]
10
5
0
-5
-10
-15
-20
-25
-30
0,4
0,6
0,8
1,0
1,2
1,4
1,6
1,8
2,0
0,2
Iteraes
0
1
Yan-Bin [38]
5
0
Wei [37]
-5
Ramadan [33]
-10
-15
-20
-25
-30
0,4
0,6
0,8
1,0
1,2
Iteraes
1,4
1,6
1,8
2,0
0,2
0
1
138
20
15
Yan-Bin [38]
10
5
Wei [37]
0
-5
-10
Ramadan [33]
-15
-20
-25
-30
0,4
0,6
0,8
1,0
1,2
Iteraes
1,4
1,6
1,8
2,0
0,2
0
1
139
15
10
-5
-10
Wei [37]
Okello [18]
-15
-20
AP1
-25
-30
0,2
0,3
0,4
0,5
0,6
0,7
0,8
0,9
1,0
0,1
Iteraes
0
1
15
10
5
Kim [31]
Kwong [22]
0
-5
-10
Wei [37]
-15
Okello [18]
-20
-25
AP1
0,4
0,6
0,8
1,0
1,2
Iteraes
1,4
1,6
1,8
2,0
0,2
0
1
-30
0
140
5.4 Concluses
CAPTULO 6
Concluses e Comentrios Finais
142
143
144
Apndice A
(A.1)
k =0
(A.3)
= (1 )2 j + k {[(n k ) v T (n k )x(n k )]
j =0 k =0
146
Apndice A
n 1 n 1
p 2 (n) = (1 ) 2
j+k
j =0 k =0
(A.5)
Assumindo que (n), v (n) e x(n) sejam estatisticamente
independentes (TI) e tomando o valor esperado de ambos os lados de
(A.5), tem-se
Apndice A
147
n 1 n 1
E[p 2 (n)] = (1 )2
j+k
j =0 k =0
148
Apndice A
n 1 n 1
E[ p1 (n)] = (1 ) 2 j + k
j =0 k =0
E[ p2 (n)] = (1 )2 j + k E[ v T (n k )x(n k ) v T (n k 1)
j =0 k =0
Apndice A
149
{E[ p1 (n)]}k = j = (1 ) 2 2 j
j =0
{E[ p1 (n)]}k = j = (1 ) 2 2 j
j =0
+ 2 tr{E[x(n
(A.13)
Substituindo K (n) = E[ v (n) v T (n)] e R = E[x(n)xT (n)] em (A.13),
obtm-se
n 1
(A.14)
n 1
E[ p1 (n)]k = j 1 = (1 ) 2 2 j 1
j =1
150
Apndice A
{E[ p1 (n)]}k = j 1
n 1
(A.16)
E[ v (n j 1) v T (n j + 1)]} .
Substituindo K 2 (n) = E[ v(n) v T (n 2)] e R 2 = E[x(n)xT (n 2)] em
(A.16), obtm-se
n 1
Note que R 2 obtido sem invocar a TI, j que conforme tal hiptese
E[x(n)xT (n 2)] = 0.
Finalmente, considerando k = j + 1 em (A.8), tem-se
n2
{E[ p1 (n)]}k = j +1 = (1 ) 2 2 j +1
i =0
(A.19)
e substituindo K 2 (n) e R 2 em (A.19), chega-se a
Apndice A
151
n2
(A.20)
j =0
n 1
E[ p1 (n)] = (1 )2 2 j {4 + 2 tr[RK (n j 1) + RK (n)]}
j =0
n 1
j =1
2 j 12 tr[R 2 K T2 (n
n2
j + 1)] +
j =0
2 j +12 tr[R T2 K 2 (n
j )] .
(A.21)
152
Apndice A
E[ p2 (n)]
n 1 n 1
(A.24)
j =0 k =0
n 1
n2
j =1
j =0
(A.25)
j =0 k =0
n 1 n 1
E[ p2 (n)] e
E[p (n)] E[p1 (n)] . Com isso a expresso para E[ p (n)] pode ser
aproximada por
E[ p 2 (n)]
n 1
(1 ) 2 2 j {4 + 2 tr[RK (n j 1) + RK (n)])}
j =0
n 1
n2
j =1
j =0
(A.26)
Apndice B
Determinao de E[p(n)]
Escrevendo (4.10) em uma forma fechada, resulta em
n 1
k =0
i =1
n 1
k =0
i =1
(B.1)
ou ainda
p (n) = (1 ) k [e2 (n k )e2 (n k i )].
(B.2)
k =0
i =1
(B.3)
k =0
i =1
154
Apndice B
k =0
i =1
T
i =1
Apndice B
155
n 1
k =0
i =1
(B.7)
i =1
E[p1 (n)]
n 1
k =0
i =1
= (1 ) k (4 + 2 {E[tr{v T (n k i )x(n k i ) v T (n k i )
x(n k i )}] + E[tr{v T (n k )x(n k ) v T (n k )x(n k )}]}).
Aplicando agora a propriedade tr[ AB] = tr[BA] ,
n 1
(B.9)
E[p1 (n)] = (1 ) k (4
k =0
i =1
2
T
+{E[tr{x(n k i )x (n k
i) v (n k i ) v T (n k i)}]
(B.10)
k =0
i =1
156
Apndice B
Determina-se agora E[ p2 (n)] , utilizando o mesmo procedimento
k =0
i =0
= k E[ v T (n k )x(n k ) v T (n k )x(n k )
v T (n k i )x(n k i ) v T (n k i )x(n k i)]
n 1
k =0
i =0
= k E{tr[x(n k i )xT (n k i) v (n k i ) v T (n k )
x(n k )xT (n k ) v(n k ) v T (n k i )]}
n 1
k =0
i =0
n 1
k =0
n 1
i =0
N
k =0
i =0
= (1 ) k (4 + 2 {tr[RK (n k i ) + RK (n k )]}
k =0
i =1
T
tr{RK i (n k )RK i (n k )}).
(B.13)
Apndice C
Determinao de E[q 2 (n)]
Escrevendo (4.30) como segue:
n 1
q(n) = (1 ) k e2 (n k )
(C.1)
k =0
q 2 (n) = (1 )2 j + k e 2 (n k )e2 (n j ).
(C.2)
j =0 k =0
v T (n j )x(n j )]2 }.
(C.3)
Ento, expandindo (C.3), obtm-se
n 1 n 1
q 2 (n) = (1 ) 2
j =0 k =0
158
Apndice C
+ (n k )(n j ) v T (n k )x(n k ) v T (n j )x(n j )
+ (n k )(n j ) v T (n k )x(n k ) v T (n j )x(n j )
(n k ) v T (n k )x(n k ) v T (n j )x(n j ) v T (n j )x(n j )
+ (n j )(n j ) v T (n k )x(n k ) v T (n k )x(n k )
(n j ) v T (n j )x(n j ) v T (n k )x(n k ) v T (n k )x(n k )
(n j ) v T (n j )x(n j ) v T (n k )x(n k ) v T (n k )x(n k )
+ v T ( n k ) x( n k ) v T ( n k ) x( n k ) v T ( n j ) x( n j ) v T ( n j )
x(n j )]}.
(C.4)
E[q 2 (n)] = (1 )2
j+k
j =0 k =0
(C.5)
Apndice C
159
E[q1 (n)]
n 1 n 1
= (1 ) 2
j =0 k =0
(C.6)
E[q2 (n)] = (1 ) 2
j + k E[ v T ( n k ) x ( n k ) v T ( n k ) x ( n k )
j =0 k =0
(C.7)
Agora, primeiramente calculando E[q1 (n)] e considerando k = j
em (C.6), tem-se
{E[q1 (n)]}k = j
n 1
= (1 ) 2 2i {E[(n j ) 4 ]
(C.8)
j =0
(C.9)
Como os valores esperados em (C.9) so escalares, pode-se escrever
160
Apndice C
{E[q1 (n)]}k = j
n 1
(C.10)
Utilizando novamente a propriedade tr(AB) = tr(BA ) , tem-se
{E[q1 (n)]}k = j
n 1
(C.11)
j =0
{E[q1 (n)]} j k = (1 )2 j + k
j =0 k =0
(C.13)
= (1 ) 2
j + k (4 + 2 {E[tr{vT (n j )x(n j ) vT (n j )
j =0 k =0
(C.14)
Aplicando, novamente, a propriedade tr(AB) = tr(BA), obtm-se
Apndice C
161
{E[q1 (n)]} j k
n 1 n 1
= (1 ) 2
j =0 k =0
= (1 ) 2
j + k (4 + 2 {tr[RK (n j ) + RK (n k )]}).
(C.16)
j =0 k =0
n 1 n 1
+ j + k {4 + 2 tr[RK (n j ) + RK (n k )]}).
(C.17)
j =0 k =0
j k
= (1 ) 2
(C.18)
j =0 k =0
(1 ) 2
j =0 k =0
162
Apndice C
E[q2 (n)] (1 )2
j =0 k =0
n 1 n 1
j + k {4 + 2 tr[RK (n j ) + RK (n k )]})
(C.21)
j = 0] k = 0
jk
n 1 n 1
jk
E[q2 (n)] e
E[q 2 (n)] E[q1 (n)]. Com isso a expresso para E[q 2 (n)] pode ser
aproximada por
n 1
n 1 n 1
+ j + k {4 + 2 tr[RK (n j ) + RK (n k )]}).
j =0 k =0
j k
(C.22)
Referncias Bibliogrficas
[1] S. Haykin, Adaptive Filter Theory, 4th ed. Upper Saddle River,
NJ: Prentice Hall, 2002.
[2] J. V. Lopez, J. C. Sanchez, H. P. Meana, Adaptive echo
canceller using a modified LMS algorithm, in Proc. 2nd Int.
Conf. on Electrical and Electronics Engineering (ICEEE),
Mexico City, Mexico, Sep. 2005, pp. 93-96.
[3] B. Farhang-Boroujeny, Channel equalization via channel
identification: algorithms and simulation for rapidly fading HF
channels, IEEE Trans. Communications, vol. 44, no. 11,
pp. 1409-1412, Nov. 1996.
[4] S. M. Kuo and D. R. Morgan, Active noise control: a tutorial
review, Proc. of the IEEE, vol. 87, no. 6, pp. 943-973,
Jun. 1999.
[5] M. Mboup, M. Bonnet, and N. Bershad, LMS coupled adaptive
prediction and system identification: a statistical model and
transient mean analysis. IEEE Trans. Signal Process., vol. 42,
no. 10, pp. 2607-2615, Oct. 1994.
[6] B. Widrow and M. Hoff, Adaptive switching circuits, in Proc.
IRE Western Electronic Show and Convention, New York, USA,
Part.4, Aug. 1960, pp. 96-104.
[7] AL. M. Nelson, P. Axelrad, and D. M. Etter, Adaptive detection
of code delay and multipath in a simplified gps signal model,
Proc. 10th Int. Tec. Meet. Sat. Div. of the Instit. of Navigat.(ION
GPS), Kansas City, USA, vol. 1, Sep. 1997, pp. 569-580.
[8] H. Yang and Wen-Rong Wu, A novel adaptive code acquisition
using antenna array for DS/CDMA systems, in Proc. of IEEE
Int. Work. Small Antennas and Novel Metamaterials (IWAT),
Singapore, Mar. 2005, pp. 458-461.
[9] M. Shafiq, Internal model control structure using adaptive
inverse control strategy, ISA Trans., vol. 44, no. 3, pp. 353-362,
Jul. 2005.
164
Referncias Bibliogrficas
Referncias Bibliogrficas
165
166
Referncias Bibliogrficas
Referncias Bibliogrficas
167