Você está na página 1de 168

UNIVERSIDADE FEDERAL DE SANTA CATARINA

PROGRAMA DE PS-GRADUAO EM
ENGENHARIA ELTRICA

Jos Gil Fausto Zipf

CLASSIFICAO, ANLISE ESTATSTICA E NOVAS


ESTRATGIAS DE ALGORITMOS LMS DE PASSO VARIVEL

Tese submetida ao Programa de


Ps-graduao em Engenharia Eltrica,
rea de Concentrao Comunicaes e
Processamento
de
Sinais,
da
Universidade Federal de Santa
Catarina para a obteno do grau de
Doutor em Engenharia Eltrica
Orientador: Prof. Dr. Rui Seara
Co-orientador: Prof. Dr. Orlando Jos
Tobias

Florianpolis, SC
2011

Catalogao na fonte pela Biblioteca Universitria


da
Universidade Federal de Santa Catarina

Z79c

Zipf, Jos Gil Fausto


Classificao, anlise estatstica e novas estratgias de
algoritmos LMS de passo varivel [tese] / Jos Gil Fausto
Zipf ; orientador, Rui Seara. - Florianpolis, SC, 2011.
167 p.: grafs., tabs.
Tese (doutorado) - Universidade Federal de Santa Catarina,
Centro Tecnolgico. Programa de Ps-Graduao em Engenharia
Eltrica.
Inclui referncias
1. Engenharia eltrica. 2. Algoritmos - Classificao.
3. Estatstica -. Anlise. 4. Processamento de sinal adaptativo
- Teses. 5. Rudo - Teses. I. Seara, Rui. II. Universidade
Federal de Santa Catarina. Programa de Ps-Graduao em
Engenharia Eltrica. III. Ttulo.
CDU 621.3

CLASSIFICA<;Ao, ANALISE ESTATiSTICA E NOVAS


ESTRATEGIAS DE ALGORITMOS LMS DE PASSO V ARIAVEL

Jose Gil Fausto Zipf


' Esta Tese foi julgada adequada para a obtencao do Titulo de Doutor em
Engenharia Eletrica, na area de concentracao Comunicacoes e
Proeessamento de Sinais, e aprovada em sua forma final pelo Programa de
P6s Graduacao em Engen.h.. a;.Ia.E)'tri~a d~ Universidade Federal de Santa
/
C tanna. /
!

,,(,

! \~c! '

Prof. Rui Se ra,


Orien or

Prof. PIJ:ic
Coordenador do

Program ~~~~ ~
;.

Banea Examinadora:

/ /
/

r.

u
, m.
aduacrao em Engenharia Eletrica

/ / ~,

I-J..... ,---

Prof. Rui Seara, Dr.


Presidente

~-1
\ 1\
~ _ )-- ~'- l/ ~-'1

Prof. Joao

areos Tfavassos Romano, Dr.

Prof.' Hans Helmut Zurn, Ph.D.

Dedico este trabalho minha esposa


Nicole e a meus filhos Mariah, Pedro e
Bruno. Amo vocs mais do que tudo.

AGRADECIMENTOS
Gostaria de deixar aqui meus sinceros agradecimentos a todos
que contriburam de alguma forma para a realizao deste trabalho, em
especial:
Ao meu orientador Prof. Rui Seara que, com sua pacincia,
dedicao e entusiasmo, me passou ensinamentos que guardarei para o
resto de minha vida.
Ao meu amigo e co-orientador Prof. Orlando Jos Tobias, que
infelizmente nos deixou de forma prematura, mas que certamente estar
para sempre nas nossas lembranas.
A toda minha famlia, em especial minha esposa e companheira
de todas as horas Nicole, pelo seu amor e dedicao a mim nos difceis
momentos em que minha sade esteve frgil, mas era preciso continuar.
Ao pessoal do LINSE, em especial ao Elton, pelas suas valorosas
contribuies na formatao final desta tese e de todos os artigos
submetidos no decorrer do curso.
Universidade Regional de Blumenau (FURB), pelo suporte
financeiro que viabilizou esta formao, em especial aos colegas do
departamento de Engenharia Eltrica e de Telecomunicaes, pelo
apoio e amizade em todas as horas.
Aos professores do programa de Ps-Graduao em Engenharia
Eltrica da UFSC, pela rica convivncia e pelos conhecimentos
transmitidos durante o primeiro ano do curso.
Aos professores membros da banca examinadora, por suas
contribuies para o aprimoramento deste trabalho.
A Deus, por me amparar nos momentos difceis e pela graa de
ter me permitido concluir este trabalho.

RESUMO
Este trabalho de pesquisa visa o estudo de algoritmos LMS de passo
varivel (VSSLMS) objetivando: classific-los segundo uma
nomenclatura unificada, realizar uma anlise estatstica dos mais
importantes algoritmos e desenvolver novas estratgias de ajuste do
passo de adaptao originando, com isso, novos algoritmos. Os
algoritmos VSSLMS tm grande importncia prtica, visto que
apresentam um melhor desempenho em relao aos de passo fixo,
permitindo a obteno simultnea de uma rpida convergncia com
menor desajuste. A literatura tcnica apresenta um grande nmero de
trabalhos que tratam de algoritmos VSSLMS. A classificao dos
principais algoritmos VSSLMS apresentada neste trabalho baseia-se no
estudo dos diferentes princpios de ajuste do passo de adaptao
utilizados. A partir desse estudo, uma modificao em um algoritmo
VSSLMS existente, baseado no gradiente do erro quadrtico, e dois
novos algoritmos VSSLMS, com base na autocorrelao do erro so
propostos, sendo um deles no-paramtrico e com elevada imunidade a
variaes no nvel do rudo de medio. Tambm, so desenvolvidos
modelos estocsticos de seis importantes algoritmos VSSLMS,
permitindo uma anlise mais aprofundada de cada estratgia e
fornecendo uma ferramenta de predio de desempenho de tais
algoritmos. Resultados de simulao numrica comparam o desempenho
das estratgias estudadas em um cenrio comum, comprovam o
desempenho dos novos algoritmos propostos e atestam a preciso dos
modelos desenvolvidos.
Palavras-chave: Algoritmos LMS de passo varivel. Anlise estatstica.
Classificao de algoritmos. Filtragem adaptativa. Imunidade ao rudo.

ABSTRACT
This research work discusses and studies variable step-size LMS
(VSSLMS) algorithms aiming to classify them according to a unified
nomenclature, to perform a statistical analysis of the most important
algorithms, and to develop new strategies for updating the step size,
resulting thereby in novel algorithms. The VSSLMS algorithms have
large practical importance, since they exhibit a better performance as
compared with those using fixed step size, allowing to obtain,
simultaneously, both higher convergence speed and smaller error
misadjustment. The open literature presents a large number of different
approaches for VSSLMS algorithms. The classification of VSSLMS
algorithms presented in this work is based on the study of different
principles for updating the step size. From this study, a modification of
an existing VSSLMS algorithm based on the squared error gradient, and
two new VSSLMS algorithms, based on the error autocorrelation, are
proposed, being one of them non-parametric and presenting high
immunity to variations of the measurement noise power. In addition,
stochastic models of six relevant VSSLMS algorithms are developed,
allowing a detailed analysis of each strategy and providing a useful tool
to predict the performance of such algorithms. Numerical simulation
results compare the performance of the VSSLMS algorithms studied
here in a common scenario, assess the performance of the new proposed
algorithms, as well as verify the accuracy of the developed models.
Keywords: Variable step-size LMS algorithms. Statistical analysis.
Algorithm classification. Adaptive filtering. Noise immunity.

Lista de Figuras
2.1. Diagrama em blocos de um esquema de identificao de
sistemas. ...................................................................................... 34
3.1. Comparao entre simulao (cinza) e modelo (preto) da
evoluo do passo de adaptao do algoritmo de Okello [18]
para sinal de entrada branco. ....................................................... 59
3.2. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do vetor w (n) do algoritmo de
Okello [18] para sinal de entrada branco. ................................... 60
3.3. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do EQM do algoritmo de Okello [18]
para sinal de entrada branco. ....................................................... 60
3.4. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do vetor gradiente estimado g(n) do
algoritmo de Okello [18] para sinal de entrada branco. .............. 61
3.5. Comparao entre simulao (cinza) e modelo (preto) da
evoluo do passo de adaptao do algoritmo de Okello [18]
para sinal de entrada correlacionado. .......................................... 62
3.6. Comparao entre simulao (cinza irreguar) e modelo
(preto) da evoluo do vetor w (n) do algoritmo de
Okello [18] para sinal de entrada correlacionado. ...................... 62
3.7. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do EQM do algoritmo de Okello [18]
para sinal de entrada correlacionado. .......................................... 63
3.8. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do vetor gradiente estimado g(n)
do algoritmo de Okello [18] para sinal de entrada
correlacionado. ............................................................................ 63
3.9. Evoluo de E[ 2 (n)] (cinza) e E 2 [(n)] (preto) para o
algoritmo de Okello. ................................................................... 64
3.10. Comparao entre simulao (cinza) e modelo (preto) da
evoluo do passo de adaptao do algoritmo de
Aboulnasr [28] para sinal de entrada branco. ........................... 69

3.11. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do vetor w (n) do algoritmo de
Aboulnasr [28] para sinal de entrada branco............................. 70
3.12. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do EQM do algoritmo de
Aboulnasr [28] para sinal de entrada branco............................. 70
3.13. Comparao entre simulao (cinza) e modelo (preto)
da evoluo do passo de adaptao do algoritmo de
Aboulnasr [28] para sinal de entrada correlacionado. ............... 71
3.14. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do vetor w (n) do algoritmo de
Aboulnasr [28] para sinal de entrada correlacionado. ............... 72
3.15. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do EQM do algoritmo de
Aboulnasr [28] para sinal de entrada correlacionado. ............... 72
3.16. Evoluo de E[ 2 (n)] (cinza) e E 2 [(n)] (preto) para o
algoritmo de Aboulnasr [28]. .................................................... 73
3.17. Comparao entre simulao (cinza) e modelo (preto)
da evoluo do passo de adaptao do Algoritmo de
Wei [37] para sinal de entrada branco....................................... 83
3.18. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do vetor w (n) do algoritmo de
Wei [37] para sinal de entrada branco....................................... 83
3.19. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do EQM do algoritmo de Wei [37]
para sinal de entrada branco. ..................................................... 84
3.20. Comparao entre simulao (cinza) e modelo (preto) da
evoluo do passo de adaptao do Algoritmo de Wei
[37] para sinal de entrada correlacionado. ................................ 85
3.21. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do vetor w (n) do algoritmo de
Wei [37] para sinal de entrada correlacionado. ......................... 85
3.22. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do EQM do algoritmo de Wei [37]
para sinal de entrada correlacionado. ........................................ 86

4.1. Evoluo do EQM. (a) Algoritmo original [17].


(b) Algoritmo modificado (proposto).......................................... 93
4.2. Comparao entre simulao (cinza) e modelo (preto)
da evoluo do passo de adaptao do algoritmo de Shan
modificado [42] para sinal de entrada branco. ............................ 94
4.3. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do vetor w (n) do algoritmo de Shan
modificado [42] para sinal de entrada branco. ............................ 95
4.4. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do EQM do algoritmo de Shan
modificado [42] para sinal de entrada branco. ............................ 95
4.5. Comparao entre simulao (cinza) e modelo (preto) da
evoluo do passo de adaptao do algoritmo de Shan
modificado [42] para sinal de entrada correlacionado. ............... 96
4.6. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do vetor w (n) do algoritmo de Shan
modificado [42] para sinal de entrada correlacionado. ............... 97
4.7. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do EQM do algoritmo de Shan
modificado [42] para sinal de entrada correlacionado. ............... 97
4.8. Evoluo de E[ 2 (n)] (cinza) e E 2 [(n)] (preto) para o
algoritmo de Shan modificado [42]............................................. 98
4.9. Evoluo do passo varivel para sinal de entrada branco. ........ .101
4.10. Evoluo do coeficiente w1 (n) para sinal de entrada branco. .102

4.11. Comportamento do EQM em excesso para sinal de


entrada branco. ....................................................................... .102
4.12. Comportamento do EQM em excesso para sinal de entrada
branco considerando uma mudana abrupta no sistema a
ser identificado na iterao 20000. ......................................... .103
4.13. Evoluo do passo varivel para sinal de entrada
correlacionado. ....................................................................... .104
4.14. Evoluo do coeficiente w1 (n) para sinal de entrada
correlacionado. ....................................................................... .105

4.15. Comportamento do EQM em excesso para sinal de entrada


correlacionado. ....................................................................... .105
4.16. Comportamento do EQM em excesso para sinal de entrada
correlacionado considerando uma mudana abrupta no
sistema a ser identificado na iterao 20000. ......................... .106
4.17. Comparao entre simulao (cinza) e modelo (preto) da
evoluo do passo de adaptao do algoritmo proposto
AP1 para sinal de entrada branco. .......................................... .107
4.18. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do vetor w (n) do algoritmo proposto
AP1 para sinal de entrada branco. .......................................... .107
4.19. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do EQM do algoritmo proposto AP1
para sinal de entrada branco. .................................................. .108
4.20. Comparao entre simulao (cinza) e modelo (preto) da
evoluo do passo de adaptao do algoritmo proposto
AP1 para sinal de entrada correlacionado. ............................. .109
4.21. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do vetor w (n) do algoritmo proposto
AP1 para sinal de entrada correlacionado. ............................. .109
4.22. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do EQM do algoritmo proposto AP1
para sinal de entrada correlacionado. ..................................... .110
4.23. Evoluo de E[ 2 (n)] (cinza) e E 2 [(n)] (preto) para o
algoritmo proposto AP1. ........................................................ .110
4.24. Resultados de simulao para 2 = 0,001 (SNR = 30dB).
(a) Curva de EQM em excesso. (b) Evoluo do passo
varivel. (c) Evoluo da funo de controle (n) e sua
aproximao. .......................................................................... .117
4.25. Resultados de simulao para 2 = 0,0001 (SNR = 40dB).
(a) Curva de EQM em excesso. (b) Evoluo do passo
varivel. (c) Evoluo da funo de controle (n) e
sua aproximao. .................................................................... .119

4.26. Resultados de simulao para 2 = 0, 01 (SNR = 20dB).


(a) Curva de EQM em excesso. (b) Evoluo do passo
varivel. (c) Evoluo da funo de controle (n) e
sua aproximao. .................................................................... ..121
4.27. Resultados de simulao considerando dois nveis de
rudo 2 = 0,001 e 0, 0013, e algoritmo de Benesty [25]
operando com valor fixo de 2 = 0, 001. (a) Curva de
EQM em excesso. (b) Evoluo do passo varivel. ............... ..122
4.28. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do passo de adaptao do algoritmo
proposto AP2 para sinal de entrada branco. ........................... ..123
4.29. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do vetor w ( n) do algoritmo proposto
AP2 para sinal de entrada branco. .......................................... ..124
4.30. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do EQM do algoritmo proposto AP2
para sinal de entrada branco. .................................................. ..124
4.31. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do passo de adaptao do algoritmo
proposto AP2 para sinal de entrada correlacionado. .............. ..125
4.32. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do vetor w ( n) do algoritmo proposto
AP2 para sinal de entrada correlacionado. ............................. ..126
4.33. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do EQM do algoritmo proposto AP2
para sinal de entrada correlacionado. ..................................... ..126
4.34. Evoluo de E[ 2 (n)] (cinza) e E 2 [(n)] (preto) para o
algoritmo proposto AP2. ........................................................ ..127
5.1. Comportamento do EQM em excesso dos algoritmos
baseados no gradiente do erro quadrtico. ................................ ..131
5.2. EQM em excesso dos algoritmos baseados no gradiente
do erro quadrtico considerando uma mudana abrupta no
sistema a ser identificado. ......................................................... ..132

5.3. Comportamento do EQM em excesso dos algoritmos


baseados no erro quadrtico. ..................................................... .132
5.4. EQM em excesso dos algoritmos baseados no erro
quadrtico considerando uma mudana abrupta no sistema
a ser identificado. ...................................................................... .133
5.5. Comportamento do EQM em excesso dos algoritmos
baseados na autocorrelao do erro. ......................................... .134
5.6. EQM em excesso dos algoritmos baseados na autocorrelao
do erro considerando uma mudana abrupta no sistema a ser
identificado. .............................................................................. .134
5.7. Comportamento do EQM em excesso dos algoritmos
baseados no valor absoluto do erro. .......................................... .135
5.8. EQM em excesso dos algoritmos baseados no valor absoluto
do erro considerando uma mudana abrupta no sistema a ser
identificado. .............................................................................. .135
5.9. Comportamento do EQM em excesso dos algoritmos
baseados no ajuste proporcional ao vetor w (n). ...................... .136
5.10. EQM em excesso dos algoritmos baseados no ajuste
proporcional ao vetor w (n) considerando uma mudana
abrupta na planta. ................................................................... .137
5.11. Comportamento do EQM em excesso dos algoritmos
baseados na normalizao do vetor de erros, teoria do passo
timo e otimizao com restrio do rudo de medio. ........ .137
5.12. Comportamento do EQM em excesso dos algoritmos
baseados na normalizao do vetor de erros, teoria do
passo timo e otimizao com restrio do rudo de
medio considerando uma mudana abrupta na planta. ....... .138
5.13. Comparao do EQM em excesso dos algoritmos de
melhor desempenho. .............................................................. .139
5.14. Comparao do EQM em excesso dos algoritmos de melhor
desempenho
considerando uma mudana abrupta na planta. ........................ .139

Lista de Tabelas

2.1. Principais Passos do Algoritmo LMS ......................................... 37


4.1. Parmetros Usados para Simulao Sinal de Entrada
Branco ....................................................................................... .101
4.2. Parmetros Usados na Simulao Sinal de Entrada
Correlacionado .......................................................................... .104
5.1. Quadro Comparativo da Complexidade Computacional
de Algoritmos VSSLMS ........................................................... .130

SUMRIO
1. INTRODUO ............................................................................ 25
1.1 Objetivos do Trabalho ......................................................... 30
1.2 Organizao do Trabalho ................................................... 31
1.3 Publicaes da Tese ............................................................. 31
2. FUNDAMENTOS DO ALGORITMO LMS ............................. 33
2.1 Introduo ............................................................................ 33
2.2 Problema de Identificao de Sistemas .............................. 33
2.3 Algoritmo LMS .................................................................... 34
2.3.1 Derivao do Algoritmo LMS .................................... 35
2.3.2 Teoria da Independncia (TI)...................................... 37
2.3.3 Modelo Estocstico do Algoritmo LMS ..................... 38
2.3.4 Anlise de Estabilidade do Algoritmo LMS ............... 43
2.4 Algoritmo LMS Normalizado NLMS.............................. 45
2.5 Algoritmos VSSLMS ........................................................... 46
2.6 Concluses ............................................................................ 47
3. CLASSIFICAO E MODELAGEM DE
ALGORITMOS VSSLMS........................................................... 49
3.1 Introduo ............................................................................ 49
3.2 Aspectos Relevantes para a Modelagem de
Algoritmos VSSLMS ........................................................... 50
3.3 Algoritmos Baseados no Gradiente do Erro Quadrtico . 51
3.3.1 Algoritmo de Richards [13] ........................................ 52
3.3.2 Algoritmo de Mathews [14] ........................................ 53
3.3.3 Algoritmo de Wee Peng Ang [19] .............................. 53
3.3.4 Algoritmo de Farhang [16] ......................................... 54
3.3.5 Algoritmo de Okello [18]............................................ 55
3.3.6 Algoritmo de Shin [20] ............................................... 64
3.4 Algoritmos Baseados no Erro Quadrtico......................... 65
3.4.1 Algoritmo de Kwong [22] ........................................... 65
3.4.2 Algoritmo de Nakanishi [23] ...................................... 66

3.4.3 Algoritmo de Costa [24] .............................................. 66


3.4.4 Algoritmo de Benesty [25] .......................................... 66
3.5 Algoritmos Baseados na Autocorrelao do Erro ............. 67
3.5.1 Algoritmo de Aboulnasr [28]....................................... 68
3.6 Algoritmos Baseados no Valor Absoluto do Erro.............. 73
3.6.1 Algoritmo de Kim [31] ................................................ 73
3.6.2 Algoritmo de Gollamudi [32] ...................................... 74
3.7 Algoritmos Baseados na Normalizao do Vetor de
Erros ...................................................................................... 74
3.7.1 Algoritmo de Ramadan [33] ........................................ 75
3.8 Algoritmos Baseados nos Valores Absolutos do Vetor
de Coeficientes ...................................................................... 75
3.8.1 Algoritmo de Rohani [34] ............................................ 75
3.8.2 Algoritmo de Benesty (IPNLMS) [36] ........................ 76
3.9 Algoritmos Baseados na Teoria do Passo timo ............... 77
3.9.1 Algoritmo de Yan-Bin [38].......................................... 77
3.10 Algoritmos Baseados na Otimizao com Restrio
do Rudo de Medio ............................................................ 78
3.10.1 Algoritmo de Wei [37] ................................................ 78
3.11 Concluses ............................................................................. 86
4. NOVOS ALGORITMOS VSSLMS ............................................ 89
4.1 Introduo ............................................................................. 89
4.2 Algoritmo de Shan Modificado [42] .................................... 90
4.2.1 Modelo Estocstico para o Algoritmo de
Shan Modificado [42] .................................................. 91
4.2.2 Resultados de Simulao ............................................. 92
4.3 Algoritmo Proposto #1 (AP1) [29]....................................... 98
4.3.1 Modelo Estocstico para o Algoritmo AP1 ................. 99
4.3.2 Resultados de Simulao .......................................... .100
4.4 Algoritmo Proposto #2 (AP2) [30].................................... .111
4.4.1 Modelo Estocstico para o Algoritmo AP2 .............. .113
4.4.2 Resultados de Simulao .......................................... .114
4.5 Concluses .......................................................................... .127

5. RESULTADOS COMPARATIVOS DE ALGORITMOS


VSSLMS ..................................................................................... .129
5.1 Introduo .......................................................................... .129
5.2 Complexidade Computacional de Algoritmos
VSSLMS ............................................................................. .129
5.3 Resultados de Simulao Comparao dos
Algoritmos VSSLMS ......................................................... .129
5.3.1 Algoritmos Baseados no Gradiente do Erro
Quadrtico ................................................................. .131
5.3.2 Algoritmos Baseados no Erro Quadrtico................. .131
5.3.3 Algoritmos Baseados na Autocorrelao do Erro ..... .133
5.3.4 Algoritmos Baseados no Valor Absoluto do Erro..... .133
5.3.5 Algoritmos Baseados no Ajuste Proporcional aos
Valores Absolutos do Vetor de Coeficientes ............ .136
5.3.6 Algoritmos Baseados na Normalizao do Vetor
de Erros, na Teoria do Passo timo e na
Otimizao com Restrio do Rudo de Medio ..... .136
5.3.7 Comparao entre os Algoritmos de Melhor
Desempenho .............................................................. .138
5.4 Concluses .......................................................................... .140
6. CONCLUSES E COMENTRIOS FINAIS ........................ .141
APNDICE A .................................................................................. .145
APNDICE B .................................................................................. .153
APNDICE C .................................................................................. .157
REFERNCIAS BIBLIOGRFICAS .......................................... .163

CAPTULO 1
Introduo

Nas ltimas dcadas, a filtragem adaptativa vem se tornando um


tema de pesquisa cada vez mais relevante na rea de processamento
digital de sinais. Tal relevncia corroborada pela popularizao dos
processadores digitais de sinais de alto desempenho, que possibilitam a
implementao de diferentes estruturas de filtragem adaptativa para as
mais diversas aplicaes. Nos casos em que no se tem conhecimento a
priori das estatsticas dos sinais envolvidos no processo, o uso de filtros
lineares timos, denominados filtros de Wiener, se torna inadequado.
Isso devido impossibilidade de estimao tanto da matriz de
autocorrelao do sinal de entrada quanto do vetor de correlao
cruzada entre o sinal de entrada e o sinal desejado. Por outro lado, uma
soluo prtica pode ser viabilizada pela utilizao de filtros
adaptativos, cuja escolha tem se mostrado atrativa em uma vasta gama
de aplicaes, dentre as quais destacam-se cancelamento de eco [1], [2],
equalizao de canal [1], [3], cancelamento de rudo [1], [4], e
identificao de sistemas propriamente dita [1], [5].
A pesquisa em filtragem adaptativa vem despertando grande
interesse devido ao seu vasto campo de utilizao como tambm pela
contnua busca de novos mtodos que incorporem, simultaneamente, as
caractersticas mais desejveis em um filtro adaptativo: simplicidade de
implementao, traduzida por uma baixa complexidade computacional;
robustez a erros de quantizao quando implementado em processadores
com preciso finita; elevada imunidade a rudo; capacidade de aquisio
e rastreio, quando se opera em ambientes no estacionrios; alta
velocidade de convergncia; e adequada preciso e estabilidade em
regime permanente.Todo filtro adaptativo tem a ele associado um
algoritmo de adaptao que, atravs de um mecanismo de
aprendizagem, ajusta recursivamente seus coeficientes de forma a
minimizar uma determinada funo custo, usualmente o erro quadrtico
mdio (EQM). Com base em tal funo custo, o algoritmo faz com que
os coeficientes do filtro convirjam, iterativamente, para a soluo tima
no sentido mdio quadrtico do erro, (soluo de Wiener) [1]. Essa
convergncia pode ocorrer em ambientes estacionrios e noestacionrios, contanto que, neste ltimo caso, as estatsticas dos sinais

26

Captulo 1 Introduo

envolvidos variem de forma relativamente lenta ou pouco freqente,


possibilitando ao filtro adaptativo exercer sua capacidade de
rastreamento. O algoritmo mais utilizado em aplicaes prticas de
filtragem adaptativa o least-mean-square (LMS) [6]. Tal algoritmo
atualiza os coeficientes do filtro na direo do negativo do gradiente
instantneo do sinal de erro ao quadrado, sendo largamente utilizado em
comunicao digital [2], [3], sistemas de geoposicionamento [7],
identificao de sistemas [5], arranjos de antenas [8], cancelamento de
eco [2], controle adaptativo [9], sistemas ativos de supresso de
vibraes e rudos [10], dentre outras aplicaes de grande importncia
comercial e tecnolgica. A popularidade do algoritmo LMS devida,
principalmente, sua robustez numrica e baixa complexidade
computacional, caractersticas extremamente atrativas em aplicaes
prticas. Por outro lado, ele tem como principal desvantagem a forte
dependncia de sua velocidade de convergncia com o grau de
correlao do sinal de entrada. Sinais de entrada que apresentem uma
elevada disperso de autovalores de sua matriz de autocorrelao, como,
por exemplo, sinais de voz, podem acarretar sria degradao na
velocidade de convergncia do algoritmo [3].
Pertencente classe dos algoritmos baseados no gradiente
estocstico, o algoritmo LMS pode ser derivado a partir do mtodo
steepest descent, pela substituio do vetor gradiente real por uma
estimativa ruidosa, baseada em informaes instantneas do sistema,
visando sua convergncia (na mdia) para a soluo de Wiener. Dessa
forma, a utilizao do algoritmo LMS no requer conhecimento prvio
das estatsticas dos sinais envolvidos, como ocorre no algoritmo steepest
descent [11].
O algoritmo LMS convencional opera com passo de adaptao
fixo. O valor do passo de adaptao determinante para o desempenho
de convergncia do filtro adaptativo. Observa-se que quanto maior for o
valor do passo de adaptao, desde que dentro do limite de estabilidade,
maior ser a velocidade de convergncia do algoritmo, o que
desejvel; porm, maior ser tambm o erro em excesso em regime
permanente. J um valor de passo de adaptao reduzido proporciona
desajustes menores em regime permanente, ao preo de uma
convergncia mais lenta. Dessa forma, a escolha do valor do passo de
adaptao deve levar em conta o compromisso existente entre
velocidade de convergncia e desajuste em regime permanente.
Em aplicaes envolvendo o algoritmo LMS, usualmente
desejvel que o filtro adaptativo apresente simultaneamente alta

Captulo 1 Introduo

27

velocidade de convergncia e reduzido desajuste em regime


permanente. nesse contexto que os algoritmos LMS de passo varivel
(variable step-size LMS VSSLMS) so requeridos, visando ajustar
dinamicamente, durante o processo de convergncia, o valor do passo
de adaptao [12]-[40]. Assim, esses algoritmos usam um valor de passo
de adaptao elevado no incio do processo de convergncia, reduzindo
gradualmente o valor do passo (segundo algum critrio prestabelecido) at ser atingido o regime permanente. Dessa forma, vrias
estratgias de ajuste de passo vm sendo propostas na literatura, as quais
so baseadas em diferentes princpios, tais como gradiente do erro
quadrtico [12]-[21], erro quadrtico [22]-[27], autocorrelao do erro
[28]-[30], valor absoluto do erro [31], filtragem set-membership [32],
normalizao dos dados de erros [33], valores absolutos dos elementos
do vetor de coeficientes [34]-[36] e ainda outros mtodos menos
conhecidos [37]-[40]. Com isso, surge um problema decorrente da
quantidade de trabalhos neste tpico; nos quais, a grande maioria, no
apresenta uma padronizao que permita estabelecer comparaes de
desempenho frente a cenrios comuns de aplicao.
Como no h na literatura tcnica artigos que apresentem um
estudo com um nmero significativo de algoritmos VSSLMS, a escolha
do algoritmo de melhor desempenho em uma determinada aplicao
pode no ser uma tarefa trivial. Assim, este trabalho inicialmente
apresenta os principais algoritmos VSSLMS, estabelecendo uma
padronizao da nomenclatura utilizada e classificando-os em diferentes
categorias, segundo a idia central de cada algoritmo [41]. Um ponto
interessante a se destacar que todos os algoritmos so estudados
usando um mesmo cenrio, permitindo ento estabelecer uma
comparao de desempenho mais confortvel. Resultados de simulao
comparam todos os algoritmos estudados, considerando como aplicao
comum um problema de identificao de sistema.
Um certo nmero de algoritmos VSSLMS propostos na literatura
apresentam alguns problemas em sua operao, como o caso do aqui
denominado algoritmo de Shan [17], o qual se baseia no gradiente
mdio do erro quadrtico. Tal algoritmo se mostra bastante simples e
eficaz, apresentando, porm, um problema elementar de convergncia
que surge quando o gradiente mdio estimado tem valor negativo. Isso
leva o algoritmo LMS a exibir um comportamento inadequado. Assim,
tambm proposta neste trabalho uma modificao no algoritmo de
Shan [17], pela utilizao do valor absoluto do gradiente mdio
estimado como sendo uma medida mais confivel de distncia em

28

Captulo 1 Introduo

relao ao valor do erro quadrtico mnimo [42]. Essa alterao, ento,


contorna o problema de convergncia do referido algoritmo, como
tambm preserva sua simplicidade, esta ltima caracterizada por um
ligeiro aumento de complexidade computacional quando comparado ao
algoritmo LMS convencional.
Em algoritmos de passo varivel, tanto o mtodo de ajuste do
valor do passo quanto o desajuste do algoritmo so afetados pelo rudo
de medio. Em [22], introduzido um algoritmo VSSLMS baseado no
erro quadrtico instantneo. Esse algoritmo, denominado aqui algoritmo
de Kwong, apresenta um desempenho adequado para um grande nmero
de aplicaes prticas. No entanto, o processo de ajuste do passo de
adaptao, como tambm o desajuste do algoritmo so fortemente
afetados pelo rudo de medio. Em [28], ento proposta uma
modificao ao algoritmo de Kwong, originando o aqui denominado
algoritmo de Aboulnasr, que apresenta uma considervel melhora de
desempenho em ambientes fortemente contaminados por rudo. Tal
algoritmo baseado na medida de autocorrelao entre amostras
adjacentes [lag(1)] do sinal de erro. No entanto, em funo do grau de
correlao do sinal de entrada, podem ocorrer situaes em que a funo
de autocorrelao do sinal de erro lag(1) reduza excessivamente o passo
de adaptao, degradando, com isso, a velocidade de convergncia do
algoritmo. Assim, proposto neste trabalho um novo algoritmo
VSSLMS, baseado na funo de autocorrelao do erro considerando
diferentes atrasos. Esse algoritmo indicado para ambientes com baixa
razo sinal-rudo (SNR) [29], se apresentando como uma verso
melhorada do algoritmo de Aboulnasr [28], acelerando o seu processo
de convergncia. Nele, a idia bsica para ajustar o parmetro de passo
considerar as diversas funes de autocorrelao do sinal de erro
lag (1), lag (2), , lag (N ), com N denotando a ordem do filtro
adaptativo. importante ressaltar ainda que o uso de vrios lags
aumenta apenas marginalmente a complexidade computacional do
algoritmo. Atravs de simulaes numricas, verificado o desempenho
do algoritmo aqui proposto.
Embora o algoritmo proposto com N lags [29] represente uma
verso melhorada do algoritmo de Aboulnasr [28], ainda persiste um
problema comum maioria dos algoritmos VSSLMS, que a baixa
imunidade ao rudo de medio. Esse problema implica degradao de
desempenho dos algoritmos sempre que ocorram mudanas na varincia
do rudo de medio, a menos que sejam efetuados reajustes de
parmetros. Tal ao no uma tarefa trivial de ser realizada na prtica.

Captulo 1 Introduo

29

Neste trabalho, tambm proposto um novo algoritmo LMS


normalizado de passo varivel (VSS-NLMS), no-paramtrico, baseado
na autocorrelao do sinal de erro. O objetivo desse algoritmo
aumentar a imunidade ao rudo de medio do algoritmo de Aboulnasr
[28], sem a necessidade de ajuste de parmetros, mesmo em situaes
em que ocorrem alteraes na varincia desse rudo. No algoritmo
proposto tambm no h necessidade de conhecer o nvel de rudo a
priori, tal como exigido pelo algoritmo no-paramtrico proposto em
[25].
Observa-se ainda que a maioria dos trabalhos publicados nesta
rea no apresenta modelos estocsticos que possibilitem uma predio
de desempenho dos algoritmos em uma dada aplicao. A modelagem
estocstica em filtragem adaptativa visa descrever o comportamento
mdio das principais variveis envolvidas na operao de um algoritmo
adaptativo. Atravs dessa modelagem possvel predizer (na mdia) o
desempenho do algoritmo adaptativo em uma determinada condio de
operao. Alm disso, com o modelo do algoritmo em mos, pode-se
entender melhor o seu comportamento, assim como propor modificaes
que melhorem o desempenho dos algoritmos para certas condies e/ou
aplicaes.
Os modelos estocsticos permitem ainda uma anlise mais
aprofundada, estabelecendo relaes de causa e efeito entre os
parmetros de cada algoritmo e os ndices de desempenho relevantes
para os mais diferentes cenrios de aplicao. Especialmente, no caso de
algoritmos VSSLMS, a modelagem estocstica constitui-se em uma
poderosa ferramenta de auxlio ao projetista, permitindo a comparao
das diversas estratgias e fornecendo subsdios para a melhor escolha
em uma dada aplicao. Assim, a modelagem estocstica de algoritmos
VSSLMS tambm um assunto abordado neste trabalho de pesquisa.
So propostos modelos analticos para seis algoritmos VSSLMS, sendo
dois deles baseados no gradiente do erro quadrtico, um na otimizao
com restrio do rudo de medio e trs na autocorrelao do erro [42][45]. Tais modelos so desenvolvidos considerando algumas hipteses
simplificativas, uma vez que a anlise estatstica de algoritmos LMS,
especificamente os de passo varivel, requer um tratamento matemtico
bastante complexo. Na apresentao dos modelos desenvolvidos, as
hipteses simplificativas consideradas so devidamente ressaltadas e
justificadas. Simulaes numricas, comparando os resultados obtidos a
partir do mtodo de Monte Carlo e atravs dos modelos propostos,
permitem avaliar a qualidade das predies aqui obtidas.

30

Captulo 1 Introduo

Em resumo, este trabalho trata do estudo e da modelagem


estocstica de algoritmos VSSLMS. So estudadas, avaliadas e
classificadas as principais estratgias de ajuste do passo de adaptao de
algoritmos VSSLMS recentemente apresentadas na literatura e a
correo de um problema elementar de convergncia de um desses
algoritmos proposta. So apresentados tambm dois novos algoritmos
VSSLMS baseados na autocorrelao do erro, sendo que em um deles
no h necessidade de ajuste de parmetros. Como a maioria das
publicaes no apresenta os modelos estocsticos dos algoritmos, so
tambm realizadas anlises estatsticas de seis importantes algoritmos
VSSLMS, sendo dois desses algoritmos propostos neste trabalho de
pesquisa.
1.1 Objetivos do Trabalho

Os principais objetivos deste trabalho so:


i) Desenvolver novos algoritmos LMS de passo varivel visando
melhorar o desempenho de filtros adaptativos em diferentes aplicaes.
ii) Realizar a modelagem estocstica de algoritmos j existentes,
fornecendo com isso ferramentas de auxlio ao projeto de filtros
adaptativos considerando algoritmos LMS de passo varivel.
Como objetivos especficos, enumeramos:
i) Realizar uma reviso bibliogrfica e avaliar, atravs de simulao
numrica, as principais estratgias de diversos algoritmos VSSLMS j
publicados.
ii) Descrever cada algoritmo utilizando uma nomenclatura unificada.
iii) Estabelecer uma classificao dos algoritmos VSSLMS estudados.
iv) Propor novas estratgias de ajuste do passo de adaptao de
algoritmos VSSLMS.
v) Determinar modelos estocsticos para seis importantes algoritmos
VSSLMS, criando com isso uma ferramenta para predio do
desempenho de tais algoritmos.
vi) Realizar um estudo comparativo de algoritmos VSSLMS, utilizando
cenrios comuns de aplicao.

Captulo 1 Introduo

31

1.2 Organizao do Trabalho

Este trabalho est organizado em seis captulos. Neste Captulo 1,


so apresentados introduo, objetivos, organizao da tese e uma lista
de publicaes decorrentes deste trabalho de tese. Como base terica
deste trabalho de pesquisa, so apresentados no Captulo 2 os
fundamentos do algoritmo LMS, com nfase sua derivao e
modelagem estocstica. Tambm so brevemente discutidos o algoritmo
LMS normalizado (NLMS) e generalidades dos algoritmos VSSLMS.
No Captulo 3, apresentada uma classificao das principais
estratgias de algoritmos VSSLMS encontradas na literatura e so
propostos modelos estocsticos de trs algoritmos de grande
importncia. O Captulo 4 introduz os novos algoritmos VSSLMS
propostos neste trabalho de pesquisa. Nele uma modificao em um
algoritmo existente e dois novos algoritmos baseados na autocorrelao
do erro so discutidos. Tambm so apresentadas anlises estatsticas
dos algoritmos propostos. O Captulo 5 traz os resultados comparativos
das diversas estratgias de algoritmos VSSLMS em um cenrio comum
de aplicao. Finalmente, no Captulo 6, so destacados as concluses e
comentrios finais deste trabalho de tese.
1.3 Publicaes da Tese

Este trabalho de pesquisa originou as seguintes publicaes:


i) J. G. F. Zipf, O. J. Tobias, R. Seara, New insights on the noise
constrained LMS algorithm, in Proc. IEEE Int. Conf. Acoust.,
Speech and Signal Process. (ICASSP), Hawaii, USA, Apr. 2007,
pp. 1365-1368.
ii) J. G. F. Zipf, O. J. Tobias, R. Seara, Estudo e modelo
estocstico do algoritmo LMS restrito ao rudo de medio, in
Anais do XXV Simpsio Brasileiro de Telecomunicaes (SBrT),
Recife, PE, Brasil, Set. 2007, pp. 1-6.
iii) J. G. F. Zipf, O. J. Tobias, R. Seara, Modelo estocstico para o
algoritmo de Shan de passo varivel modificado, in Anais do
XXV Simpsio Brasileiro de Telecomunicaes (SBrT), Recife,
PE, Brasil, Set. 2007, pp. 1-6

32

Captulo 1 Introduo

iv) J. G. F. Zipf, O. J. Tobias, R. Seara, Estudo comparativo e


classificao de algoritmos LMS de passo varivel, in Anais do
XXV Simpsio Brasileiro de Telecomunicaes (SBrT), Recife,
PE, Brasil, Set. 2007, pp. 1-6.
v) J. G. F. Zipf, O. J. Tobias, R. Seara, A new VSSLMS algorithm
based on error autocorrelation, in Proc. Europ. Signal Process.
Conf. (EUSIPCO), Lausanne, Switzerland, Aug. 2008, pp. 1-5.
vi) J. G. F. Zipf, O. J. Tobias, R. Seara, Modelo estocstico do
algoritmo LMS de passo varivel baseado no gradiente do sinal
de erro quadrtico, in Anais do XXVI Simpsio Brasileiro de
Telecomunicaes (SBrT), Rio de Janeiro, RJ, Brasil, Set. 2008,
pp. 1-6.
vii) J. G. F. Zipf, O. J. Tobias, R. Seara, Algoritmo LMS de passo
varivel para ambientes com razo sinal rudo baixa, in Anais do
XXVI Simpsio Brasileiro de Telecomunicaes (SBrT), Rio de
Janeiro, RJ, Brasil, Set. 2008, pp. 1-6.
viii) J. G. F. Zipf, O. J. Tobias, R. Seara, Modelo analtico de um
algoritmo LMS de passo varivel baseado na autocorrelao do
sinal de erro, in Anais do XXVII Simpsio Brasileiro de
Telecomunicaes (SBrT), Blumenau, SC, Brasil, Set. 2009, pp.
1-6.
ix) J. G. F. Zipf, O. J. Tobias, R. Seara, Modelo estocstico do
algoritmo LMS de passo varivel baseado na autocorrelao do
erro com N lags, in Anais do XXVII Simpsio Brasileiro de
Telecomunicaes (SBrT), Blumenau, SC, Brasil, Set. 2009, pp.
1-6.
x) J. G. F. Zipf, O. J. Tobias, R. Seara, Non-parametric VSSNLMS algorithm with control parameter based on the error
correlation, in Proc. 7th International Telecommunications
Symposium (ITS), Manaus, AM, Brazil, Sep. 2010, pp. 1-6.

CAPTULO 2
Fundamentos do Algoritmo LMS
2.1 Introduo

Os algoritmos adaptativos baseados no gradiente estocstico, tal


como o LMS, apresentam caractersticas vantajosas como a sua
simplicidade e o fato de no necessitarem de conhecimento prvio a
respeito das estatsticas dos sinais envolvidos no processo [1]. Tais
vantagens, aliadas sua robustez a erros numricos, fazem do algoritmo
LMS um dos mais utilizados em aplicaes de filtragem adaptativa.
Este captulo trata dos conceitos bsicos relacionados ao
algoritmo LMS, objetivando fornecer uma base terica para o
desenvolvimento deste trabalho de pesquisa. Aqui discutida a
derivao do algoritmo LMS, considerando aplicao em um problema
de identificao de sistemas, assim como so apresentados uma anlise
de estabilidade e um modelo estocstico. Variaes do algoritmo LMS
convencional, tais como o LMS normalizado (NLMS) e o LMS de
passo varivel (VSSLMS) so tambm brevemente discutidas neste
captulo.
2.2 Problema de Identificao de Sistemas

Para estudar os algoritmos adaptativos, considerado um


problema de identificao de sistemas [1], cujo esquema est ilustrado
na Figura 2.1. Nessa figura, o sinal de sada do sistema desconhecido,
corrompido por rudo aditivo de medio, dado por
d (n) = w To x(n) + (n)

(2.1)

onde x(n) = [ x(n) x(n 1) x(n N + 1)]T denota o vetor de entrada,


sendo {x(n)} um processo Gaussiano estacionrio de mdia zero e
varincia

2x ,

(n)

um rudo de medio independente e

identicamente distribudo (i.i.d) com mdia zero e varincia 2 ,


w (n) = [ w(n) w(n 1)
w o = [ w0 w1
de erro

w(n N + 1)]T , o vetor de coeficientes e

wN 1 ]T , a planta do sistema a ser identificado. O sinal

34

Captulo 2 Fundamentos do Algoritmo LMS


e(n) = d (n) w T (n)x(n).

(2.2)

(n)
wo

x(n)

d(n)
+

w(n)

e(n)

y(n)

Algoritmo
Adaptativo

Figura 2.1. Diagrama em blocos de um esquema de identificao de


sistemas.

Nesta configurao, a utilizao do filtro adaptativo w (n) visa


obter uma estimativa de w o a partir de amostras dos sinais de entrada e
sada [1]. Tal estimativa obtida pela minimizao de uma funo
custo, que no caso do algoritmo LMS dada pelo erro quadrtico
instantneo. Cancelamento de eco acstico e de eco de linha,
proveniente de aplicaes em telefonia, so dois dos muitos exemplos
de um problema de identificao de sistemas [1], [5].
2.3 Algoritmo LMS
O algoritmo LMS [6] caracterizado por sua simplicidade e
robustez, sendo o algoritmo mais popular utilizado em filtragem
adaptativa. Nesse algoritmo, a adaptao do vetor de coeficientes w (n)
do filtro se d na direo do negativo do gradiente instantneo do sinal
de erro ao quadrado [com respeito a w (n)], obtendo-se, na mdia, a
convergncia para a soluo de Wiener [1].
Nesta seo, so apresentados a derivao do algoritmo LMS e o
seu modelo estocstico baseado na TI [1], sendo tambm discutidos
aspectos relacionados sua estabilidade.

Captulo 2 Fundamentos do Algoritmo LMS

35

2.3.1 Derivao do Algoritmo LMS


Na maioria das aplicaes prticas de filtragem adaptativa, as
estatsticas dos sinais envolvidos no so conhecidas a priori,
impossibilitando, com isso, a obteno em tempo real do vetor gradiente
exato a cada iterao. Assim, ao invs de atualizar o vetor de
coeficientes w (n) com base no verdadeiro gradiente da funo custo
definida por J w (n) = e2 (n), o algoritmo LMS utiliza uma aproximao
J (n), obtida a partir de dados
estocstica do vetor gradiente
w

instantneos disponveis no sistema. Dessa forma, o vetor gradiente do


sinal de erro ao quadrado em relao ao vetor de coeficientes escrito
como
2
J (n) = e (n) = 2e(n) e(n) .

w
w (n)
w (n)

(2.3)

Derivando ento (2.2) em relao ao vetor w (n), tem-se


e(n)
= x( n)
w (n)

(2.4)

substituindo (2.4) em (2.3), resulta em


2

J (n) = e (n) = 2e(n)x(n)

w
w (n)

(2.5)

e, finalmente, substituindo (2.2) em (2.5), chega-se expresso do


gradiente instantneo em funo do sinal de entrada, do sinal desejado e
do vetor de coeficientes do filtro, dada por
J (n) = 2[x(n)xT (n)w (n) d (n)x(n)].

(2.6)

Objetivando determinar o comportamento mdio do gradiente


estimado do sinal de erro ao quadrado, toma-se o valor esperado de
(2.6), resultando em
J (n)] = 2{E[x(n)xT (n)w (n)] E[d (n)x(n)]} .
E[
w

(2.7)

36

Captulo 2 Fundamentos do Algoritmo LMS

Definindo agora a matriz de autocorrelao R do sinal de


entrada e o vetor de correlao cruzada p entre o sinal de entrada e o
sinal desejado, dados por
R = E[x(n)xT (n)]

(2.8)

p = E[x(n)d (n)]

(2.9)

e usando a TI, (2.7) pode ser reescrita como


J (n)] = 2[Rw (n) p] = J (n).
E[
w
w

(2.10)

A expresso (2.10) corresponde ao gradiente exato do EQM,


usado para atualizao do vetor de coeficientes no algoritmo steepest
descent. Com isso, observa-se que, na mdia, o algoritmo LMS produz o
mesmo resultado do que o algoritmo steepest descent.
Como no algoritmo LMS o vetor w (n) atualizado na direo
J (n), dada por (2.5), a expresso
contrria estimativa do gradiente
w

recursiva de ajuste dos coeficientes do filtro obtida por


w (n + 1) = w (n) + 2e(n)x(n).

(2.11)

Substituindo 2 por , sem perda de generalidade, pode-se reescrever


(2.11) como
w (n + 1) = w (n) + e(n)x(n).

(2.12)

A expresso (2.12) realiza, ento, a atualizao do vetor de coeficientes


do filtro, sendo calculada a cada iterao, assumindo um valor inicial
w (0) . Um resumo da seqncia de passos do algoritmo LMS
apresentado na Tabela 2.1.

Captulo 2 Fundamentos do Algoritmo LMS

37

Tabela 2.1. Principais Passos do Algoritmo LMS


Definies de Projeto:
Ordem do filtro N
Passo de adaptao
Vetor de coeficientes inicial
w (0) = [ 0 0

0]

Execuo:
Para cada iterao n, calcule
x(n) = [ x(n) x(n 1)

x(n N + 1)]T

e( n ) = d ( n ) w T ( n ) x ( n )
w (n + 1) = w (n) + e(n)x(n)

2.3.2 Teoria da Independncia (TI)


Os modelos estocsticos do algoritmo LMS so derivados com
base na TI [1], na qual assumido que o vetor de entrada x(n) e o sinal
desejado d (n) satisfazem as seguintes condies:
i) Os vetores x(n), x(n 1), ..., x(1) constituem uma seqncia de
vetores estatisticamente independentes.
ii) Em um instante n, o vetor x(n) estatisticamente independente dos
valores passados do sinal desejado d (n 1), d ( n 2), ..., d (1).
iii) d (n) estatisticamente independente de seus valores passados
d (n 1), d (n 2), ..., d (1).
Observa-se que em uma estrutura de filtragem FIR com linha de
retardo, x(n) no pode ser estatisticamente independente de x(n 1),
ainda que {x(n)} seja rudo branco. Contudo, o uso da TI simplifica
sobremaneira a anlise estatstica de algoritmos adaptativos. Sem o uso
das suposies (i) a (iii), a anlise estatstica do algoritmo LMS se

38

Captulo 2 Fundamentos do Algoritmo LMS

tornaria bastante complexa. Resultados disponveis na literatura


respaldam o uso da TI, indicando que, na maioria dos casos de anlise
estatstica de filtros adaptativos, os modelos desenvolvidos com base na
TI seguem o comportamento mdio dos algoritmos, sobretudo quando o
passo de adaptao pequeno.
2.3.3 Modelo Estocstico do Algoritmo LMS
Apesar de ser um algoritmo bastante simples, a determinao de
um modelo estocstico para o algoritmo LMS no uma tarefa trivial.
Para determinar um modelo que descreva adequadamente o
comportamento mdio do algoritmo LMS, para o vetor de coeficientes e
curva de aprendizagem, quase sempre se recorre utilizao da TI [11].
Assim, com base nessa teoria e usando (2.12), verifica-se que o vetor de
coeficientes w (n) depende de:
i) Valores passados do vetor de entrada x(n 1), x(n 2), ... ; assim,
w (n) pode ser considerado estatisticamente independente de x(n).
ii) Valores passados do sinal desejado d (n 1), d (n 2), ... .; assim,
w (n) tambm considerado estatisticamente independente de d (n).
Estas suposies so utilizadas para simplificar a anlise de
algoritmo LMS, objetivando obter um modelo estocstico que descreva
o comportamento mdio do vetor de coeficientes e curva de
aprendizagem.
A. Modelo para o comportamento mdio do vetor de coeficientes
Este modelo descreve a evoluo do valor esperado do vetor de
coeficientes w (n), aqui para o caso do algoritmo LMS. Para determinlo, substitui-se (2.2) em (2.12), resultando em
w (n + 1) = w (n) + [d (n) xT (n)w (n)]x(n)
= w (n) + [d (n)x(n) x(n)xT (n)w (n)].

(2.13)

Agora, tomando o valor esperado em ambos os lados de (2.13)


E[w (n + 1)] = E[w (n)] + {E[d (n)x(n)] E[x(n)xT (n)w (n)]}

(2.14)

e utilizando a TI, tem-se


E[x(n)xT (n)w (n)] = E[x(n)xT (n)]E[w (n)].

(2.15)

Captulo 2 Fundamentos do Algoritmo LMS

39

Dessa forma, (2.14) ento reescrita como


E[w (n + 1)] = E[w (n)] + {E[d (n)x(n)] E[x(n)xT (n)]E[w (n)]}. (2.16)
Usando (2.8) e (2.9) em (2.16) finalmente chega-se a uma expresso que
descreve o comportamento mdio do vetor de coeficientes w (n) em
funo da matriz de autocorrelao R e do vetor de correlao cruzada
p. Assim,
E[w (n + 1)] = E[w (n)] + {[p RE[w (n)]}.

(2.17)

Algumas vezes interessante determinar o modelo descrito por


(2.17) em funo do vetor de erro nos coeficientes definido por
v ( n ) = w ( n) w o

(2.18)

onde w o a soluo de wiener do sistema a ser identificado (planta),


considerando que a ordem do sistema definida. Ento, isolando
w (n) em (2.18), substituindo a expresso resultante em (2.17) e
tomando o valor esperado de ambos os lados da expresso obtida, temse
(2.19)
E[ v(n + 1)] = (I R ) E[ v(n)] .
B. Curva de aprendizagem
A curva de aprendizagem descreve a evoluo do erro quadrtico
mdio do algoritmo LMS. Para determin-la, considera-se o sinal de
erro em funo do vetor de erro nos coeficientes dado por
e(n) = d (n) v T (n)x(n) w oT x(n).

(2.20)

Assumindo ordem do sistema conhecida e definindo eo (n) como


o mnimo erro de estimao, escrito por
eo (n) = (n) = d (n) w o T x(n)

(2.21)

e substituindo (2.21) em (2.20), resulta em


e(n) = eo (n) v T (n)x(n).

(2.22)

Dessa forma, uma expresso para o sinal de erro quadrtico pode ser
encontrada pela determinao do quadrado de (2.22), resultando em

40

Captulo 2 Fundamentos do Algoritmo LMS


e 2 (n) = eo2 (n) 2eo (n) v T (n)x(n) + v T (n)x(n) v T (n)x(n)
= eo2 (n) 2eo (n) v T (n)x(n) + v T (n)x(n)xT (n) v(n).

(2.23)

A curva de aprendizagem, denotada por J (n), descreve a


evoluo do EQM e pode ser obtida determinando-se o valor esperado
de (2.23). Assim,
J (n) = E[e2 (n)] = E[eo2 (n)] 2 E[eo (n) v T (n)x(n)]
+ E[ v T (n)x(n)xT (n) v (n)].

(2.24)

Considerando agora x(n) e v (n) independentes, decorrente do


uso da TI, e utilizando o princpio da ortogonalidade, (2.24) pode ser
reescrita como
J ( n)
= E[eo2 (n)] 2 E[eo (n)xT (n)]E[ v (n)] + E[ v T (n) E[x(n)xT (n)]v(n)]
= E[eo2 (n)] 2 E[eo (n)xT (n)] E[ v(n)] + E[ v T (n) E[x(n)xT (n)] v (n)]
=

0
2
T
E[eo (n)] + E[ v (n)Rv (n)].

(2.25)
A expresso (2.25) descreve a evoluo do EQM. O primeiro
termo direita em (2.25) representa valor mnimo da funo custo e
obtido quando o vetor de coeficientes w (n) assume o valor de w o ,
tornando nulo o vetor de erro nos coeficientes. Nesse caso, o EQM
mnimo depende apenas da varincia do rudo aditivo. Portanto,
J min = E[eo2 (n)] = 2 .

(2.26)

O ltimo termo direita de (2.25) corresponde ao EQM em


excesso J ex (n), definido como J (n) J min . A expresso para J ex (n),
convenientemente manipulada, resulta em
J ex (n) = E[ v T (n)Rv (n)]
= E{tr[ v T (n)Rv (n)]}
= E{tr[Rv(n) v T (n)]}
T

= tr{E[Rv (n) v (n)]}


= tr[RK (n)]

(2.27)

Captulo 2 Fundamentos do Algoritmo LMS

41

onde K (n) a matriz de correlao do vetor de erro nos coeficientes,


dada por E[ v (n) v T (n)] . Agora, substituindo (2.27) em (2.25), obtm-se
J (n) = J min + tr[RK (n)].

(2.28)

Observa-se que a expresso da curva de aprendizagem dada por


(2.28) depende da matriz K (n) . Para determinar ento K (n), substituise (2.18) em (2.12) de forma a se obter uma expresso recursiva para o
vetor de erro nos coeficientes. Assim,
v (n + 1) = v (n) + e(n)x(n)
= v(n) + [d (n)x(n) x(n)xT (n) v(n) x(n)xT (n)w o ].

(2.29)

Substituindo (2.21) em (2.29), tem-se


v (n + 1) = v (n) + [eo (n)x(n) x(n)xT (n) v(n)].

(2.30)

Calculando agora a transposta em ambos os lados de (2.30), obtm-se


v T (n + 1) = v T (n) + [eo (n)xT (n) v T (n)x(n)xT (n)]

(2.31)

com isso, o produto v (n + 1) v T (n + 1) pode ser determinado. Assim,


v (n + 1) v T (n + 1)
= v (n) v T (n) + v (n) v T (n)x(n)xT (n) + eo (n) v (n)xT (n)
x(n)xT (n) v(n) v T (n) + 2 x(n)xT (n) v (n) v T (n)x(n)xT (n)
2

(2.32)

eo (n)x(n)x (n) v (n)x (n) + eo (n)x(n) v (n)


2 eo (n)x(n) v T (n)x(n)xT (n) + 2 eo2 (n)x(n)xT (n).

Reagrupando os termos de (2.32), tem-se

v (n + 1) v T (n + 1)
= v (n) v T (n) [x(n)xT (n) v (n) v T (n)
+ v (n) v T (n)x(n)xT (n)] + 2 [x(n)xT (n) v (n) v T (n)x(n)xT (n)]
+ 2 eo2 (n)x(n)xT (n) + eo (n){[x(n) v T (n) x(n) v T (n)x(n)xT (n)]
+ [x(n) v T (n) x(n) v T (n)x(n)xT (n)]T }.
(2.33)

42

Captulo 2 Fundamentos do Algoritmo LMS

Determinando ento o valor esperado de ambos os lados de


(2.33) e com base na TI, obtm-se uma expresso recursiva descrevendo
a evoluo da matriz K (n). Assim,
K (n + 1) = E{v(n + 1) v (n + 1)T } = K (n) [RK (n) + K (n)R ]
+ 2 {Rtr[RK (n)] + 2RK (n)R} + 2 RJ w min .
(2.34)
Portanto, o comportamento da curva de aprendizagem do algoritmo
LMS descrito por (2.28) e (2.34).
C. Anlise em regime permanente do algoritmo LMS
Esta anlise objetiva a determinao do EQM em excesso e do
vetor de coeficientes do filtro adaptativo em regime permanente. Ento,
determinando o valor de (2.17) quando n e assumindo que o filtro
converge, tem-se
p Rw () = 0

(2.35)

tendo como nica soluo para o valor em regime permanente do vetor


de coeficientes
w () = R 1p = w o .
(2.36)
Note que, para o caso de identificao de sistemas, o vetor de
coeficientes do filtro w (n) converge para a soluo de Wiener, i.e., w o .
Como determinado em [1], o EQM em excesso final J ex ()
obtido pela seguinte expresso:
N

J ex () = J min

i
2(1
)
i =1
N

i
1
i =1 2(1 i )

(2.37)

onde i corresponde ao i-simo autovalor da matriz de autocorrelao


R do sinal de entrada.
N

Considerando

i = R

e valores do passo de adaptao

i =1

pequenos, de tal forma que i

1, i, tem-se

Captulo 2 Fundamentos do Algoritmo LMS


N

i
tr(R ).
2(1
) 2
i =1

43

(2.38)

Agora, substituindo (2.38) em (2.37), resulta em

tr(R )
J ex () = J min 2
.

1 tr(R )
2

(2.39)

Novamente, considerando que o passo de adaptao seja


pequeno, assume-se

tr(R )
2

1.

(2.40)

J min tr(R ).
2

(2.41)

Ento, (2.39) pode ser aproximada por


J ex ()

A expresso (2.41) determina, de forma aproximada, o valor final


do EQM em excesso em regime permanente, considerando valores
pequenos do passo de adaptao. Observa-se que tal resultado
linearmente dependente do valor do passo de adaptao.
2.3.4 Anlise de Estabilidade do Algoritmo LMS
Existem algumas abordagens para determinao dos valores
limites do passo de adaptao que garantem a convergncia do
algoritmo LMS [1], [11].
A primeira delas considera a decomposio da matriz de
autocorrelao do sinal de entrada dada por
R = QQ T

(2.42)

onde Q a matriz dos autovetores de R e uma matriz diagonal


contendo os autovalores de R. Ento, substituindo (2.18) e (2.42) em
(2.12), obtm-se

v (n + 1) = (I QQT ) v (n).

(2.43)

44

Captulo 2 Fundamentos do Algoritmo LMS


Agora,

pr-multiplicando

(2.43)

por

QT

definindo

v(n) = Q v (n) como a representao do vetor de erro nos coeficientes


na base dos autovetores da matriz R , (2.43) pode ser reescrita como
v(n + 1) = (I ) v(n).

(2.44)

Em (2.44), para cada elemento k do vetor v(n), tem-se a


seguinte equao recursiva:
vk (n + 1) = (1 k )vk (n)

(2.45)

que descreve o comportamento transitrio de cada elemento do vetor de


erro nos coeficientes, representado na base dos autovetores da matriz
R. O termo (1 k ) , em (2.45), chamado modo de convergncia. O
algoritmo LMS possui N modos de convergncia, sendo que o modo de
maior magnitude determinante na velocidade de convergncia do
algoritmo.
Assim, para que todos os componentes do vetor v (n) decaiam a
zero necessrio que
1 < (1 k ) < 1,
k .
(2.46)
Considerando ainda que k seja real e positivo, tem-se
0<<

2
, k .
k

(2.47)

Ento, tomando-se o pior caso, i.e., considerando o maior autovalor da


matriz R em (2.47), os limites do valor do passo para a convergncia
do algoritmo LMS restrito a
0<<

2
max

(2.48)

Adicionalmente, os limites de variao do passo de adaptao


que garantem a convergncia do algoritmo tambm podem ser obtidos
pela anlise do EQM em regime permanente. Analisando o
denominador de (2.37), conclui-se que, para operao estvel do
algoritmo, necessrio que
N

i
< 1.
i =1 2(1 i )

0<

(2.49)

Captulo 2 Fundamentos do Algoritmo LMS

45

Resultando, agora, em uma condio mais restritiva de estabilidade do


algoritmo LMS, dada por
2
.
3tr(R )

0<<

(2.50)

Portanto, para garantir a estabilidade do algoritmo LMS, adota-se


neste trabalho (2.50) como os limites permitidos de variao para o
passo de adaptao.

2.4 Algoritmo LMS Normalizado NLMS


Observa-se de (2.12) que variaes na potncia do sinal x(n)
podem causar variaes significativas no ajuste de w (n). Para evitar tal
inconveniente, includo no algoritmo LMS o termo xT (n)x(n) no
denominador da parcela de ajuste da equao de adaptao do vetor de
coeficientes. Assim,
e( n )

w (n + 1) = w (n) +

x ( n) x( n)

x(n).

(2.51)

Tal algoritmo denominado algoritmo LMS normalizado


(NLMS). Observa-se que o NLMS pode ser considerado um algoritmo
LMS com passo de adaptao varivel definido por

(n) =

(2.52)

x ( n) x( n)

onde (n) depende apenas do vetor de entrada x(n) e do parmetro de


controle de adaptao . A diferena do algoritmo NLMS para os
demais algoritmos VSSLMS abordados neste trabalho que, no NLMS,
o passo varivel no ajustado considerando qualquer varivel
relacionada ao processo de convergncia do algoritmo.
Para se evitar problemas de instabilidade quando xT (n)x(n) 0 ,
uma constante (parmetro de regularizao) de pequeno valor
includa em (2.51). Dessa forma, tem-se
w (n + 1) = w (n) +

e( n )
T

x ( n) x( n) +

x(n).

(2.53)

46

Captulo 2 Fundamentos do Algoritmo LMS

Em [46], so apresentados modelos estocsticos descrevendo o


comportamento mdio do algoritmo NLMS.
2.5 Algoritmos VSSLMS
O algoritmo LMS convencional considera um passo de adaptao
fixo. A escolha desse parmetro afeta sobremaneira o desempenho do
algoritmo. Assim, observa-se de (2.41) e (2.45) que um valor elevado do
passo de adaptao leva a uma velocidade de convergncia maior
associada tambm a um maior desajuste do algoritmo. Por outro lado,
um valor pequeno do passo de adaptao resulta em um menor desajuste
do algoritmo s custas de uma taxa de convergncia mais baixa. Para
obter alta velocidade de convergncia aliada a um reduzido desajuste,
so propostos na literatura um grande nmero de algoritmos VSSLMS
[12]-[40]. A idia central nesse tipo de algoritmo utilizar um valor de
passo de adaptao grande no incio do processo de convergncia
(respeitado o limite para estabilidade) e gradualmente (segundo algum
critrio dado) ir reduzindo o valor do passo medida que o regime
permanente se aproxime.
Nos algoritmos VSSLMS a equao de adaptao do vetor de
coeficientes opera com um passo varivel funo da varivel
independente n. Nesse caso, (2.12) redefinida como
w (n + 1) = w (n) + (n)e(n)x(n).

(2.54)

Algumas estratgias utilizam passos individuais de adaptao, um


para cada elemento do vetor de coeficientes. Assim, o passo de
adaptao (n) substitudo por uma matriz diagonal D(n), cuja
diagonal principal composta pelos passos individuais de adaptao.
Dessa forma, (2.54) modificada como segue:
w (n + 1) = w (n) + e(n)D(n)x(n)

(2.55)

com
0
0
0 ( n )
0
1 (n)
0

0
2 ( n)
D(n) = 0

0
0
0

... N 1 (n)

...
...
...

0
0
0

(2.56)

Captulo 2 Fundamentos do Algoritmo LMS

47

A utilizao de um ou mais passos variveis de adaptao pode


ento, nas mais diferentes aplicaes, levar a uma melhoria significativa
no desempenho do algoritmo LMS.
Ento, devido natureza dinmica do passo de adaptao
decorrente dos algoritmos VSSLMS, faz-se necessrio um controle
sobre a faixa de variao do passo, de modo a prevenir eventuais
problemas de instabilidade [47]. Nos algoritmos VSSLMS, a limitao
da variao do passo de adaptao para a garantia de estabilidade, tanto
para passo comum quanto para passos individuais, deve satisfazer a
seguinte desigualdade, adaptada de (2.50). Assim,
0 < (n) <

2
.
3tr(R )

(2.57)

2.6 Concluses
Este captulo abordou os conceitos bsicos e fundamentais
relacionados ao algoritmo LMS, visando estabelecer uma base terica
adequada para este trabalho de pesquisa. Nele foi apresentada a
derivao do algoritmo LMS assim como seu modelo estocstico, tanto
para a evoluo do vetor de coeficientes quanto para a curva de
aprendizagem. Analisando o comportamento mdio do vetor de
coeficientes se observa que o algoritmo LMS apresenta (na mdia)
resultado similar ao do algoritmo steepest descent. Tambm
apresentada uma anlise de estabilidade do algoritmo LMS, visando
definir os valores limites do passo de adaptao que assegurem a
convergncia do algoritmo.
As caractersticas gerais dos algoritmos NLMS e VSSLMS foram
brevemente descritas. No prximo captulo, as principais estratgias de
ajuste do passo de adaptao varivel em algoritmos LMS so
apresentadas e classificadas.

48

Captulo 2 Fundamentos do Algoritmo LMS

CAPTULO 3
Classificao e Modelagem de Algoritmos VSSLMS
3.1 Introduo
Os algoritmos adaptativos de passo varivel tm grande
importncia prtica, visto que apresentam um melhor desempenho em
relao aos de passo fixo, por possibilitarem a obteno simultnea de
elevadas taxas de convergncia com um desajuste reduzido. Nesse
contexto, a literatura tcnica apresenta um grande nmero de algoritmos
com tal caracterstica, indicando ser essa uma linha de pesquisa bastante
ativa na rea de filtragem adaptativa.
Neste captulo, realizada uma breve descrio e uma
classificao dos principais algoritmos LMS de passo varivel
(VSSLMS), baseada na idia central de cada algoritmo [41]. Alm
disso, so desenvolvidos modelos estocsticos para trs algoritmos de
grande impacto. A classificao aqui proposta facilita o estudo dos
algoritmos VSSLMS, padronizando a nomenclatura das diversas
estratgias recentemente publicadas e possibilitando uma comparao
considerando um cenrio comum de aplicao. Para tal, so
estabelecidas oito categorias, conforme o critrio utilizado para ajuste
do passo de adaptao. Tais critrios podem ser baseados no(a):
Gradiente do erro quadrtico.
Erro quadrtico.
Autocorrelao do erro.
Valor absoluto do erro.
Normalizao do vetor de erros.
Ajuste proporcional aos valores absolutos do vetor de
coeficientes.
Teoria do passo timo.
Otimizao com restrio do rudo de medio.
Cada categoria aqui proposta brevemente discutida e um
resumo de cada algoritmo estudado apresentado. Para todos os
algoritmos estudados, o vetor de coeficientes do filtro ajustado seja
por (2.54) ou (2.55), conforme a utilizao de um passo de adaptao
comum ou passos individuais, respectivamente.

50

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

Neste captulo tambm so apresentados modelos estocsticos de


trs algoritmos estudados. Os modelos estocsticos em filtragem
adaptativa objetivam a determinao do comportamento mdio das
principais variveis envolvidas na operao do algoritmo, possibilitando
com isso, a predio de seu desempenho em uma dada condio de
operao. Alm do mais, os modelos estocsticos permitem estabelecer
relaes de causa e efeito entre parmetros de cada algoritmo e seus
principais ndices de desempenho.
Especificamente no caso dos algoritmos VSSLMS, a modelagem
estocstica constitui-se em uma ferramenta fundamental, auxiliando no
processo de escolha de um determinado algoritmo para uma dada
aplicao. Como existe um grande nmero de estratgias usadas em
algoritmos VSSLMS, a escolha de um algoritmo se torna uma tarefa
bastante difcil quando no se dispe de modelos estocsticos para tais
algoritmos.
3.2 Aspectos Relevantes para a Modelagem de Algoritmos
VSSLMS
A modelagem estocstica de algoritmos VSSLMS proposta neste
trabalho, visa determinar o comportamento mdio do vetor de
coeficientes e/ou do vetor de erro nos coeficientes e a correspondente
curva de aprendizagem. Em alguns casos, tambm realizada uma
anlise em regime permanente.
Os modelos dos algoritmos VSSLMS aqui discutidos so
determinados considerando as seguintes hipteses simplificativas:
i) Teoria da Independncia (TI).
ii) O passo varivel (n) assumido independente de qualquer outro
sinal no sistema. Essa hiptese vlida sob condies de adaptao
lenta.
A determinao dos modelos estocsticos necessita do clculo
dos valores esperados do passo varivel E[(n)] e do quadrado do
passo varivel E[ 2 (n)] . Em alguns modelos, utiliza-se ainda uma
terceira hiptese, i.e.,
iii) E[ 2 (n)] = E 2 [(n)] .

(3.1)

A hiptese (iii), quando utilizada, devidamente verificada por


resultados de simulao.

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

51

Aps a determinao de E[(n)] e E[ 2 (n)] e considerando as


hipteses (i) e (ii), os modelos estocsticos para o comportamento
mdio do vetor de coeficientes podem ser obtidos considerando a
seguinte expresso:
E[w (n + 1)] = E[w (n)] + E[(n)]{p RE[w (n)]}

(3.2)

e para a curva de aprendizagem


J (n) = E[e2 (n)] = 2 + tr[RK (n)]

(3.3)

com a evoluo de K (n) dada por


K (n + 1) = K (n) E[(n)][RK (n) + K (n)R ]
+ E[ 2 (n)][Rtr(RK (n)) + 2RK (n)R ]

(3.4)

+ E[ 2 (n)]R2 .

Portanto, a diferena entre os modelos dos diversos algoritmos


VSSLMS se encontra na determinao dos valores esperados E[(n)] e
E[ 2 (n)] .
3.3 Algoritmos Baseados no Gradiente do Erro Quadrtico
Nesta categoria, so includos os algoritmos VSSLMS cujo ajuste
do passo de adaptao realizado de maneira proporcional ao gradiente
do valor quadrtico do erro de estimao. Alguns algoritmos
consideram o gradiente em relao ao vetor de coeficientes, enquanto
em outros utilizado o gradiente em relao ao passo varivel de
adaptao.
Os primeiros trabalhos que utilizaram essa abordagem
baseavam-se apenas nas trocas de sinais, observadas nos componentes
do gradiente do erro quadrtico a cada iterao [12]. Nesses algoritmos,
a freqncia com que essas trocas de sinais ocorrem usada como
medida de proximidade do ponto timo na superfcie de desempenho.
Posteriormente, foram propostos algoritmos que utilizavam o valor
numrico do gradiente para efetuar um ajuste proporcional do passo de
adaptao.
A idia central dos algoritmos dessa categoria que quanto maior
o valor do gradiente do erro quadrtico, maior a distncia do EQM
mnimo na superfcie de desempenho e, portanto, maior deve ser o passo

52

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

de adaptao para que a convergncia seja acelerada. Por outro lado,


quanto menor for o gradiente, menor deve ser o valor do passo de forma
a reduzir o desajuste em regime permanente. Em todos os casos,
utiliza-se uma estimativa do gradiente; sendo assim, a presena de rudo
afeta essa estimativa levando a um aumento do desajuste do algoritmo.
Os principais algoritmos includos nessa categoria so brevemente
discutidos a seguir.
3.3.1 Algoritmo de Richards [13]
Este algoritmo opera com passos individuais de adaptao,
considerando a potncia mdia do gradiente do sinal de erro ao
quadrado em relao ao vetor de coeficientes para o clculo do passo de
adaptao. Assim, a matriz diagonal de passos de adaptao obtida a
partir da potncia dos componentes da estimativa do vetor gradiente, o
qual dado por
e 2 (n)

w0
^
= 2e(n)x(n) .
( n) = g ( n) =

e 2 (n)

wN 1

(3.5)

Para obter o valor mdio do gradiente, utilizado um filtro autoregressivo, expresso como
E{gi (n + 1)} = E{gi (n)} + (1 )e(n) x(n i )

(3.6)

onde gi (n) representa o i-simo elemento do vetor gradiente estimado e


um parmetro que controla a seletividade do filtro.
Dessa forma, a matriz D(n) ento dada por
E 2 [ g 0 (n)]
0

2
0
E [ g1 (n)]

D(n) =

0
0

2
E [ g N 1 (n)]
0

onde um parmetro positivo de controle do passo de adaptao.

(3.7)

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

53

3.3.2 Algoritmo de Mathews [14]


A idia central deste algoritmo ajustar o passo de adaptao de
forma proporcional ao gradiente do sinal de erro ao quadrado em
relao aos passos anteriores. A equao de ajuste do passo de
adaptao
(n) = (n 1)

e 2 (n)
2 (n 1)

(3.8)

podendo ser alternativamente escrita como


(n) = (n 1)

T e 2 (n) w (n)
.
2 w (n) (n 1)

(3.9)

Aps a determinao das derivadas parciais, chega-se expresso


final de ajuste do passo comum de adaptao do algoritmo. Assim,
(n) = (n 1) + e(n)e(n 1)xT (n 1)x(n)

(3.10)

onde um parmetro positivo de controle do passo de adaptao. Na


abordagem de Mathews, tambm possvel utilizar passos individuais
para cada coeficiente do filtro, resultando na seguinte equao de ajuste:
i (n) = i (n 1) + e(n)e(n 1) xi (n) xi (n 1),

i = 0,

, N 1. (3.11)

O algoritmo de Mathews um dos mais representativos desta categoria,


uma vez que vrios algoritmos recentemente propostos so derivados a
partir de sua formulao inicial.
3.3.3 Algoritmo de Wee-Peng Ang [19]
Este algoritmo, baseado no algoritmo de Mathews, utiliza uma
w (n)
forma recursiva para determinao do termo
em (3.9),
(n 1)
utilizando um filtro auto-regressivo, dado por
i ( n) =

wi (n)
= i (n 1) + xi (n 1)e(n 1)
i (n 1)

(3.12)

onde um parmetro de controle de seletividade do filtro. Assim, a


equao de ajuste dos passos individuais de adaptao

54

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

i (n) = i (n 1) + e(n) xi (n)i (n)

(3.13)

onde um parmetro de ajuste do passo de adaptao do algoritmo.


Observa-se que o algoritmo de Wee-Peng realiza uma suavizao
da estimativa ruidosa do gradiente considerado no algoritmo de
Mathews, gerando em contrapartida um aumento de complexidade
computacional.
Note que o algoritmo de Mathews pode ser obtido a partir do
algoritmo de Wee-Peng Ang fazendo = 0 em (3.12). Neste ltimo
algoritmo, tambm possvel a utilizao de um passo comum de
adaptao, sendo que, nesse caso, as expresses de ajuste so dadas por
(n) = (n 1) + e(n 1)x(n 1)

(3.14)

(n) = (n 1) + e(n)xT (n) (n)

(3.15)

onde e so parmetros de controle positivos.


3.3.4 Algoritmo de Farhang [16]
Este algoritmo utiliza passos individuais de adaptao, os quais
so obtidos a partir de modificaes do algoritmo de Mathews. Nessa
abordagem, o valor do passo anterior de adaptao multiplicado pela
estimativa do gradiente do sinal de erro ao quadrado em relao ao
passo varivel de adaptao. Alm disso, so utilizados parmetros i
individuais para cada passo de adaptao, no lugar da constante
utilizada no algoritmo de Mathews. Esses parmetros controlam
individualmente a taxa de convergncia de cada passo de adaptao.
Dessa forma, a expresso de ajuste de cada passo de adaptao escrita
como

i (n + 1) = [1 + i e(n) xi (n)e(n 1) xi (n 1)] i (n)

(3.16)

onde o parmetro de controle i obtido atravs da normalizao de


uma constante o com respeito potncia mdia do gradiente. Assim,

i dado por
i =

o
i

(3.17)

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

55

onde o uma constante positiva e i denota o valor mdio de


2

e(n) xi (n) .

3.3.5 Algoritmo de Okello [18]


Neste algoritmo, o ajuste do passo varivel comum tambm
baseado na potncia da estimativa do gradiente do sinal de erro ao
quadrado em relao ao vetor de coeficientes. Dessa forma, a equao
de atualizao do passo varivel dada por
N 1

(n) = (n 1) + gi 2 (n)

(3.18)

gi (n) = gi (n 1) + e(n) xi (n)

(3.19)

i =0

com
onde gi (n) a estimativa do gradiente do erro quadrtico em relao ao
i-simo componente do vetor de coeficientes, sendo e parmetros
de controle do processo de adaptao.
A. Modelo estocstico
Uma anlise estatstica do algoritmo de Okello [45] proposta
neste trabalho de pesquisa e apresentada a seguir.
O ajuste do passo varivel, em (3.18), pode ser expresso em
termos do vetor gradiente g(n), obtido como

(n) = (n 1) + g T (n)g(n)

(3.20)

com o vetor gradiente dado por


g (n) = g(n 1) + e(n)x(n).

(3.21)

Agora, com o objetivo de se determinar E[(n)], toma-se o valor


esperado de ambos os lados de (3.20), resultando em
E[(n)] = E[(n 1)] + E[g T (n)g (n)].

(3.22)

Para resolver (3.22), o segundo termo no lado direito deve ser


determinado. Assim, utilizando (3.21), obtm-se

56

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS


g T (n) g(n) = 2 g T (n 1) g(n 1) + e(n) g T (n 1) x(n)

+ e(n) xT (n) g(n 1) + e 2 (n)xT (n)x(n).

(3.23)

Ento, rearranjando (3.23), tem-se


g T (n)g(n) = 2 g T (n 1)g (n 1) + 2e(n)g T (n 1)x(n)

+ e 2 (n)xT (n)x(n).

(3.24)

Finalmente, determinado o valor esperado de ambos os lados de (3.24),


E[g T (n)g (n)] pode ser obtido de forma recursiva por
E[g T (n)g (n)] = 2 E[g T (n 1)g (n 1)]

+ 2E[e(n)xT (n)g(n 1)] + E[e2 (n)xT (n)x(n)].

(3.25)

Em (3.25), o termo E[e 2 (n)xT (n)x(n)] pode ser aproximado pelo uso
da TI por
E[e2 (n) xT (n)x(n)] E[e2 (n)]E[xT (n) x(n)]
J (n)tr(R )

(3.26)

onde J (n) representa a curva de aprendizagem do algoritmo. O termo


E[e(n)xT (n)g (n 1)] obtido sob a condio de adaptao lenta,
resultando na seguinte aproximao:
E[e(n)xT (n)g(n 1)] E[e(n)xT (n)]E[g (n 1)]

{p R E[w(n)]}T E[g (n 1)].

(3.27)

Ento, para finalizar, E[g (n 1)] pode ser obtido, de forma recursiva,
tomando o valor esperado de ambos os lados de (3.21). Assim,
E[g(n)] = E[g (n 1)] + {p R E[w (n)]}.

(3.28)

Neste modelo, utilizou-se a suposio (3.1) para a determinao


de E[ 2 (n)] e obteno da curva de aprendizagem dada por (3.3).

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

57

B. Anlise em regime permanente


A anlise em regime permanente visa a determinao dos valores
das principais variveis envolvidas na operao de algoritmos VSSLMS
quando n . Essa anlise est disponvel na literatura para o
algoritmo de Mathews [14], sendo tambm desenvolvida neste trabalho
para os algoritmos de Okello [18] e Wei [37]. As anlises em regime
permanente apresentadas neste trabalho so elaboradas assumindo que o
passo de adaptao e o vetor de coeficientes convergem.
Para o algoritmo de Okello [18], so determinados a seguir os
valores em regime permanente da estimativa do vetor gradiente g(n),
do passo varivel (n), do vetor de coeficientes w (n) e do EQM.
Vetor gradiente:
Considere-se (3.28) para n , dessa forma
g () = g() + {p RE[w ()]}
p RE[w ()]
=
(1 )

(3.29)

onde w () o valor final do vetor de coeficientes.


Tomando (3.25) para n , tem-se
g T ( )g ( ) =

2J ()tr(R )
(1 2 )

(3.30)

Passo de adaptao:
O valor final do passo de adaptao pode ser obtido substituindo
(3.30) em (3.22) para n , resultando em
() =

2J ()tr(R )
(1 2 )(1 )

(3.31)

Vetor de coeficientes:
Considerando que w (n) converge, seu valor final obtido de (3.2)
para n dado por
w () = w () + () [p Rw () ].
Agora, desenvolvendo (3.32)

(3.32)

58

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

()[p Rw () ] = 0

(3.33)

[p Rw () ] = 0

(3.34)

que resulta em

tem-se finalmente como nica soluo


w () = R 1p.

(3.35)

Erro Quadrtico Mdio:


Considerando que o passo de adaptao varivel (n) converge
para () , pode-se utilizar (2.41), vlida para valores pequenos do
passo de adaptao, para a determinao do valor do EQM em regime
permanente. Assim,
J ex () =

() J min
J ()
2 tr 2 (R ).
tr(R ) =
2
2
(1 )(1 )

Como J ex () = J () J min e

(3.36)

J min = 2 , (3.36) pode ser reescrita

como
J ( ) =

2 tr 2 (R )
1
2
2(1 )(1 )

(3.37)

C. Resultados de simulao
Aqui so apresentados os resultados de simulao numrica,
verificando a preciso do modelo desenvolvido para o algoritmo de
Okello [18].
Considera-se um problema de identificao de sistema, utilizando
a planta dada por w o = [0,2 0,3 0,5 0,8 0,9] , para sinais de entrada
branco e correlacionado. Para ambos os casos, os sinais de entrada so
gaussianos com mdia zero e varincia 2x = 1, e a varincia do rudo
branco de medio 2 = 0, 01 (SNR = 20dB) . O sinal correlacionado
obtido por um processo AR(1), dado por x(n) = 0,6 x(n 1) + u (n)

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

59

com u (n) sendo um rudo branco gaussiano com u2 = 0,65 . Para o


caso de sinal correlacionado, a disperso dos autovalores da matriz de
autocorrelao do sinal de entrada = 9, 7 . Os parmetros dos
algoritmos so ajustados de maneira a se obter o mesmo EQM em
regime permanente (20 dB).
Dois exemplos apresentam os resultados de simulao para o
modelo estocstico do algoritmo de Okello [45]. O Exemplo 3.1
considera sinal de entrada branco e o Exemplo 3.2, um sinal de entrada
correlacionado.
Exemplo 3.1: Neste exemplo, usado sinal de entrada branco. As
Figuras 3.1, 3.2, 3.3 e 3.4 mostram, respectivamente, o comportamento
do passo de adaptao, do vetor de coeficientes, do EQM e do vetor
gradiente estimado. Uma comparao dos resultados obtidos atravs de
simulao de MC (200 realizaes independentes) e pelo modelo
proposto apresentada.

Passo de Adaptao, E[(n)]

0,025

0,020

0,015

0,010

0,005

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 3.1. Comparao entre simulao (cinza) e modelo (preto) da


evoluo do passo de adaptao do algoritmo de Okello [18] para sinal
de entrada branco.

60

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS


1,0
0,9
0,8

E[w(n)]

0,7
0,6
0,5
0,4
0,3
0,2
0,1
0

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 3.2. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do vetor w ( n) do algoritmo de Okello [18] para
sinal de entrada branco.
5
0

EQM (dB)

-5
-10
-15
-20
-25

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 3.3. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do EQM do algoritmo de Okello [18] para sinal de
entrada branco.

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

61

50
40

E[g(n)]

30
20
10
0
-10

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 3.4. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do vetor gradiente estimado g(n) do algoritmo de
Okello [18] para sinal de entrada branco.
Observa-se das Figuras 3.1 a 3.4 um casamento muito bom entre
os resultados obtidos a partir da simulao de MC e aqueles obtidos
pelo modelo proposto do algoritmo de Okello [18], para sinal de entrada
branco.
Exemplo 3.2: Neste exemplo, considerado um sinal de entrada
correlacionado. As Figuras 3.5, 3.6, 3.7 e 3.8 mostram, respectivamente,
o comportamento do passo de adaptao, vetor de coeficientes, EQM e
vetor gradiente estimado. Assim, possvel fazer uma comparao entre
os resultados obtidos atravs de simulao de MC (200 realizaes
independentes) e pelo modelo proposto. A Figura 3.9 verifica por
simulao a Aproximao (3.1), comparando as evolues de E[ 2 (n)]
com E 2 [(n)].

62

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

Passo de Adaptao, E[(n)]

0,040
0,035
0,030
0,025
0,020
0,015
0,010
0,005
0

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 3.5. Comparao entre simulao (cinza) e modelo (preto) da


evoluo do passo de adaptao do algoritmo de Okello [18] para sinal
de entrada correlacionado.
1,0
0,9
0,8

E[w(n)]

0,7
0,6
0,5
0,4
0,3
0,2
0,1
0

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 3.6. Comparao entre simulao (cinza irreguar) e modelo


(preto) da evoluo do vetor w ( n) do algoritmo de Okello [18] para
sinal de entrada correlacionado.

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

63

10
5

EQM (dB)

0
-5
-10
-15
-20
-25

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 3.7. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do EQM do algoritmo de Okello [18] para sinal de
entrada correlacionado.
70
60
50

E[g(n)]

40
30
20
10
0
-10

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 3.8. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do vetor gradiente estimado g(n) do algoritmo de
Okello [18] para sinal de entrada correlacionado.

64

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS


-3

E[ 2 (n)] e E 2[(n)]

1,5

X10

1,0

0,5

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 3.9. Evoluo de E[ 2 (n)] (cinza) e E 2 [(n)] (preto) para o


algoritmo de Okello.
Para o cenrio considerado, observa-se a partir das Figuras 3.5 a
3.8 um casamento muito bom entre os resultados de simulao e do
modelo proposto para o algoritmo de Okello [18], considerando um
sinal de entrada correlacionado. As aproximaes utilizadas no
desenvolvimento do modelo estatstico justificam os pequenos desvios
observados nas Figuras 3.5 a 3.8. Adicionalmente, a Figura 3.9 valida
por simulao a Aproximao (3.1) para uma condio de adaptao
lenta.
3.3.6 Algoritmo de Shin [20]
Esse algoritmo, semelhante ao algoritmo de Okello [18], utiliza
uma estimativa normalizada do vetor gradiente do sinal de erro ao
quadrado em relao ao vetor de coeficientes, obtida por
p(n) = p(n 1) + (1 )

e( n ) x ( n )
x T ( n) x ( n)

(3.38)

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

65

onde o parmetro controla a seletividade do filtro. O passo varivel


ento atualizado com base na seguinte expresso:

(n) =

p T (n)p(n)
p T (n)p(n) + c

(3.39)

onde e c so parmetros de ajuste do algoritmo.


O algoritmo de Shin (aqui resumido) um caso particular de um
algoritmo de projees afins de passo varivel [20].
3.4 Algoritmos Baseados no Erro Quadrtico
Os algoritmos desta categoria ajustam o passo utilizando o valor
do sinal de erro ao quadrado. Pela prpria natureza de tal ajuste, esses
algoritmos possuem, em geral, uma forte dependncia do rudo de
medio. Assim, as diferentes estratgias propostas para essa classe de
algoritmos buscam minimizar tal problema. Geralmente, o desempenho
dessa famlia de algoritmos afetado por ambientes com baixa razo
sinal-rudo.
3.4.1 Algoritmo de Kwong [22]
Neste algoritmo, o ajuste do passo de adaptao controlado pelo
sinal de erro ao quadrado, conforme a seguinte expresso:
(n + 1) = (n) + e 2 (n)

(3.40)

onde e so parmetros de controle de ajuste do passo.


O algoritmo de Kwong referncia para todas as demais
estratgias dessa categoria. A idia principal para fundamentar esse tipo
de algoritmo que um erro de predio grande leva a um aumento no
valor do passo, produzindo, assim, uma convergncia mais rpida. Por
outro lado, um valor reduzido de erro resulta em um valor de passo
menor e, conseqentemente, em um baixo desajuste.

66

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

3.4.2 Algoritmo de Nakanishi [23]


O ajuste do passo de adaptao desse algoritmo baseado no erro
quadrtico instantneo e na norma l [23] do vetor de erro quadrtico,
segundo a seguinte expresso:
e2 (n) max
(n) = 1

e2 (n)

(3.41)

onde e2 (n) max o maior valor de erro quadrtico entre a primeira e a


n-sima iterao, com e parmetros de ajuste do passo de
adaptao.
3.4.3 Algoritmo de Costa [24]
Determinado a partir de uma modificao no algoritmo de
Kwong, esse algoritmo baseado na seguinte equao de recorrncia:
(n) = (n 1) + [k xT (n)x(n) 1]e 2 (n), k =

1
N 2x

(3.42)

onde e so parmetros de ajuste do passo de adaptao.


A insero do fator [k xT (n)x(n) 1] em (3.40) para obter (3.42)
tem por objetivo reduzir a influncia do rudo de medio no ajuste do
passo de adaptao, observada no algoritmo de Kwong. A motivao
desse algoritmo pode ser melhor compreendida analisando seu modelo
analtico [24].
3.4.4 Algoritmo de Benesty [25]
Observa-se que a maioria dos algoritmos VSSLMS necessita do
ajuste de um ou mais parmetros para a sua operao. O ajuste destes
parmetros nem sempre uma tarefa fcil, sendo que na maioria dos
casos realizado de forma heurstica. Esse algoritmo, teoricamente, no
necessita do ajuste de parmetros para a sua correta operao. A
equao de atualizao do passo varivel
( n) =

x ( n) x( n) e ( n)
1

(3.43)

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

67

onde obtido atravs do conhecimento prvio ou a partir da


estimativa da varincia do rudo aditivo 2 . O parmetro e (n)
determinado atravs de uma estimativa da potncia do erro e2 (n) , dada
por
e2 (n) = e2 (n 1) + (1 )e 2 (n).
(3.44)
onde uma constante prxima, porm menor do que a unidade.
3.5 Algoritmos Baseados na Autocorrelao do Erro
Para esta classe de algoritmos, o valor do passo de adaptao
ajustado baseado na funo de autocorrelao do sinal de erro. Tal
medida se mostra um bom indicativo de proximidade do EQM mnimo.
Assim, com a utilizao da funo de autocorrelao do erro, o
algoritmo pode efetivamente realizar o ajuste do valor do passo de
adaptao, melhorando a sua robustez ao rudo de medio no
correlacionado (rudo branco).
3.5.1 Algoritmo de Aboulnasr [28]
Como principal representante desta categoria, considera-se neste
trabalho de pesquisa o algoritmo de Aboulnasr [28]. Para este algoritmo,
o passo de adaptao ajustado considerando o quadrado da estimativa
da autocorrelao entre e(n) e e(n 1), obtida atravs de um filtro
auto-regressivo, dado por
p (n) = p (n 1) + (1 )e(n)e(n 1)

(3.45)

onde um parmetro que controla a seletividade do filtro. A equao


utilizada para o ajuste do passo
(n + 1) = (n) + p 2 (n)

(3.46)

onde e so parmetros de controle do algoritmo.


A utilizao de p(n) na atualizao de (n) atende a dois
objetivos: a funo de autocorrelao do erro , em geral, uma medida
adequada da proximidade do ponto timo e, em segundo lugar, fornece

68

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

maior robustez ao rudo de medio no correlacionado, se comparada


funo erro quadrtico utilizada no algoritmo de Kwong [22].
A. Modelo estocstico
Aqui apresentada uma anlise estocstica do comportamento do
passo varivel de adaptao para o algoritmo de Aboulnasr [28]. Esta
anlise, desenvolvida neste trabalho de pesquisa, visa mostrar que tal
algoritmo fortemente dependente da varincia do rudo de medio.
Tal dependncia observada mesmo quando o rudo de medio uma
sequncia descorrelacionada (rudo branco).
Tomando o valor esperado de ambos os lados de (3.46), tem-se
E[(n + 1)] = E[(n)] + E[ p 2 (n)].

(3.47)

Assumindo agora (0) = 0 e conseqentemente E[(0)] = 0,


pode-se reescrever (3.47) como
n

E[(n + 1)] = E[ p 2 (n )].

(3.48)

=0

Para se obter E[(n + 1)] necessrio determinar uma expresso para


E[p 2 (n)]. Tal determinao feita no Apndice A.
Agora, substituindo (A.26) em (3.48), pode-se aproximar o
comportamento mdio do passo de adaptao por
E[(n + 1)]
n
n l 1
(1 )2 2 j {4 + 2 tr[RK (n l j 1) + RK (n l )])}
j =0
=0

n l 1

n l 2

2 j 12 tr[R 2K T (n l j + 1)] +
j =1

j =0

2 j +12 tr[R T2 K 2 (n l j )] .

(3.49)

A partir dessa expresso, pode-se verificar a dependncia do passo de


adaptao em relao varincia do rudo de medio para o algoritmo
proposto em [28]. observado tambm que quanto maior o valor da
varincia 2 , maior ser o valor do passo de adaptao. Assim, quando
qualquer alterao na potncia do rudo de medio ocorrer, uma

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

69

mudana no parmetro deve ser realizada, de forma a se obter um


apropriado desempenho do algoritmo. Para obteno da curva de
aprendizagem do algoritmo, considera-se a Aproximao (3.1).
B. Resultados de simulao
Dois exemplos apresentam os resultados de simulao para o
modelo estocstico do algoritmo de Aboulnasr [28]. O cenrio utilizado
o mesmo descrito nos Exemplos 3.1 e 3.2. O Exemplo 3.3 considera
sinal de entrada branco e o Exemplo 3.4, sinal de entrada
correlacionado.
Exemplo 3.3: Neste exemplo, considerado um sinal de entrada
branco. As Figuras 3.10, 3.11 e 3.12 mostram, respectivamente, o
comportamento do passo de adaptao, do vetor de coeficientes e do
EQM. Uma comparao dos resultados obtidos atravs de simulao de
MC (200 realizaes independentes) e pelo modelo proposto
apresentada.

0,020

Passo de Adaptao, E[(n)]

0,018
0,016
0,014
0,012
0,010
0,008
0,006
0,004
0,002
0

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 3.10. Comparao entre simulao (cinza) e modelo (preto) da


evoluo do passo de adaptao do algoritmo de Aboulnasr [28] para
sinal de entrada branco.

70

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS


1,0
0,9
0,8

E[w(n)]

0,7
0,6
0,5
0,4
0,3
0,2
0,1
0

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 3.11. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do vetor w ( n) do algoritmo de Aboulnasr [28] para
sinal de entrada branco.
5
0

EQM (dB)

-5
-10
-15
-20
-25

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 3.12. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do EQM do algoritmo de Aboulnasr [28] para sinal
de entrada branco.

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

71

Observa-se das Figuras 3.10 a 3.12 um casamento muito bom


entre os resultados obtidos a partir da simulao de MC e aqueles
obtidos pelo modelo proposto do algoritmo de Aboulnasr [28], para
sinal de entrada branco.
Exemplo 3.4: Neste exemplo, considerado um sinal de entrada
correlacionado. As Figuras 3.13, 3.14, e 3.15 mostram, respectivamente,
o comportamento do passo de adaptao, vetor de coeficientes e EQM,
possibilitando novamente uma comparao entre os resultados obtidos
atravs de simulao de MC (200 realizaes independentes) e pelo
modelo proposto. A Figura 3.16 verifica por simulao a Aproximao
(3.1), comparando as evolues de E[ 2 (n)] com E 2 [(n)].

Passo de Adaptao, E[(n)]

0,035
0,030
0,025
0,020
0,015
0,010
0,005
0

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 3.13. Comparao entre simulao (cinza) e modelo (preto) da


evoluo do passo de adaptao do algoritmo de Aboulnasr [28] para
sinal de entrada correlacionado.

72

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS


1,0
0,9
0,8

E[w(n)]

0,7
0,6
0,5
0,4
0,3
0,2
0,1
0

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 3.14. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do vetor w ( n) do algoritmo de Aboulnasr [28] para
sinal de entrada correlacionado.
10
5

EQM (dB)

0
-5
-10
-15
-20
-25

100

200

300 400 500 600 700 800 900 1000

Iteraes
Figura 3.15. Comparao entre simulao (cinza irregular) e modelo
(preto) da evoluo do EQM do algoritmo de Aboulnasr [28] para sinal
de entrada correlacionado.

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

73

-3

1,2

X10

E[ 2 (n)] e E 2[(n)]

1,0
0,8
0,6
0,4
0,2
0

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 3.16. Evoluo de E[ 2 (n)] (cinza) e E 2 [(n)] (preto) para o


algoritmo de Aboulnasr [28].
Para o cenrio considerado, se observa a partir das Figuras 3.13 a
3.15 um casamento muito bom entre os resultados de simulao e do
modelo proposto para o algoritmo de Aboulnasr [28], considerando um
sinal de entrada correlacionado. Algumas discrepncias observadas
entre modelo e simulao so devidas s aproximaes utilizadas na
determinao do modelo, especialmente no clculo de p 2 (n) (Apndice
A). A Figura 3.16 verifica a razoabilidade do uso da Aproximao (4.1).
3.6 Algoritmos Baseados no Valor Absoluto do Erro
Nesta categoria, o ajuste do passo varivel de adaptao do
algoritmo VSSLMS realizado com base no valor absoluto do sinal de
erro.
3.6.1 Algoritmo de Kim [31]
Neste algoritmo, o passo de adaptao ajustado de forma
proporcional ao valor absoluto do erro de estimao. A equao de
ajuste do passo de adaptao proposta leva em conta o valor absoluto do

74

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

sinal de erro normalizado em relao ao valor absoluto do sinal


desejado. Assim,
(n) =

e(n 1)
d (n 1)

max

(3.50)

com
(n 1),
1

(n) = (n 1),

(n),

(n) < (n 1)
1
(n) > (n 1)

caso contrrio

(3.51)

onde 0 < < 1 o fator de controle de convergncia do passo de


adaptao.
3.6.2 Algoritmo de Gollamudi [32]
Este algoritmo, baseado no valor absoluto do erro de adaptao,
realiza o ajuste do passo varivel de adaptao atravs de uma tcnica
de filtragem denominada set membership [32]. O objetivo dessa
filtragem estabelecer um valor limite para o valor absoluto do sinal de
erro, abaixo do qual assumido que o algoritmo convergiu. Para o
algoritmo de Gollamudi, a expresso de atualizao do passo varivel
dada por

,
1
e( n )
( n) =
0,

se e(n) >

(3.52)

caso contrrio.

O parmetro controla o ajuste do passo de adaptao e representa o


maior valor absoluto do sinal de erro aceitvel para o regime
permanente.

3.7 Algoritmos Baseados na Normalizao do Vetor de Erros


Nesta categoria, a atualizao do passo realizada utilizando a
norma do vetor de erro de estimao. O algoritmo de Ramadan [33],
descrito a seguir, o mais representativo dessa categoria.

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

75

3.7.1 Algoritmo de Ramadan [33]


Neste algoritmo, a estratgia de atualizao do passo depende de
uma normalizao de vetores de erros.Tais normas so determinadas a
partir de

e( n )

n 1

e( n k )

(3.53)

k =0

e L ( n)

L 1

= e( n k ) .
2

(3.54)

k =0

A expresso de ajuste do passo desse algoritmo ento dada por


( n) =

e L ( n)

[ e(n) + (1 ) x(n) ]

(3.55)

onde e so parmetros constantes positivos que controlam o


processo de adaptao. Uma constante de pequeno valor (parmetro
de regularizao) pode ser adicionada ao denominador de (3.55),
prevenindo a instabilidade do algoritmo para valores muito pequenos
desse denominador.

3.8 Algoritmos Baseados nos Valores Absolutos do Vetor de


Coeficientes

Nesta categoria, esto aqueles algoritmos cujo ajuste do valor do


passo individual de adaptao realizado de forma proporcional ao
valor absoluto de cada componente do vetor de coeficientes w (n). A
idia central aqui que, quanto maiores forem os valores das amostras
da resposta ao impulso do sistema a ser identificado, maior dever ser o
valor do correspondente passo de adaptao.
3.8.1 Algoritmo de Rohani [34]
Este o algoritmo mais simples desta categoria e utiliza passos
individuais de adaptao. A equao de atualizao dos passos
individuais i (n) dada por
i (n) = wi (n) +

(3.56)

76

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

onde e so constantes positivas. O parmetro usado como


valor inicial para o processo de ajuste uma vez que todos os coeficientes
do vetor w (n) so geralmente inicializados com valor zero.
3.8.2 Algoritmo de Benesty (IPNLMS) [36]
O algoritmo LMS normalizado proporcional (PNLMS)
apresentado em [35], com o objetivo de melhorar o desempenho do
algoritmo NLMS quando a resposta ao impulso da planta do tipo
esparsa. No processo de adaptao do PNLMS, o ajuste do passo de
adaptao proporcional ao valor do coeficiente. Entretanto, quando a
resposta ao impulso do sistema desconhecido do tipo dispersiva, este
algoritmo apresenta um desempenho inferior ao NLMS [36]. Para
contornar tal deficincia, em [36] proposta uma modificao do
algoritmo PNLMS padro, originando o algoritmo PNLMS melhorado
(IPNLMS). No algoritmo IPNLMS o ajuste dos passos individuais de
adaptao considera um fator de ponderao ki (n) dado por
ki (n) = (1 )

w ( n) 1
N

+ (1 + ) wi (n)

(3.57)

Com w (n) 1 definido como


w ( n) 1 =

N 1

wi (n) .

(3.58)

i =0

O ajuste do passo individual de adaptao 'i (n) ento


realizado com base nas seguintes expresses:
k ( n)
(3.59)
i (n) = i
k ( n) 1
onde k (n) 1 definido como
k ( n) 1 =

N 1

ki (n) .

(3.60)

i =0

A matriz de passos individuais D(n) ento obtida de:


D(n) =

D(n 1)
x (n)D(n 1)x(n) +
T

(3.61)

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

77

onde D(n) uma matriz diagonal obtida dos passos individuais dada
por
D(n) = diag{0 (n),..., N 1 (n)} .
(3.62)
Observa-se que quando = 1 o algoritmo IPNLMS idntico
ao algoritmo NLMS e para prximo de 1 o algoritmo se comporta
como o PNLMS.
3.9 Algoritmos Baseados na Teoria do Passo timo
Os algoritmos desta categoria so baseados no valor terico do
passo timo, o qual obtido pela minimizao do EQM em excesso
J ex (n) , com respeito ao passo varivel de adaptao. O valor terico do
passo timo de adaptao aquele que satisfaz
J ex (n)
= 0.
(n)

(3.63)

O objetivo dos algoritmos baseados no passo timo encontrar o


valor do passo de adaptao que, cada iterao, aproxime (3.63).
3.9.1 Algoritmo de Yan-Bin [38]
Em [38], proposto um algoritmo VSSLMS, baseado na teoria
do passo timo. Nele, a expresso de ajuste do passo de adaptao
obtida de forma a satisfazer (3.63), consideradas algumas aproximaes.
Para este algoritmo, em cada iterao, (n) atualizado por
( n) =

a (n)
b ( n)

(3.64)

onde a (n) e b(n) so obtidos recursivamente por


a(n) = (1 )a(n 1) + e2 (n 1)

(3.65)

b(n) = (1 )b(n 1) + [e2 (n)xT (n)x(n)].

(3.66)

As expresses (3.65) e (3.66) permitem a obteno do passo de


adaptao em (3.64) atravs de uma frmula iterativa que aproxima a
soluo de (3.63) [38].

78

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

3.10 Algoritmos Baseados na Otimizao com Restrio do Rudo


de Medio

Os algoritmos desta categoria buscam ajustar o passo do


algoritmo LMS segundo algum critrio de otimizao com restrio do
rudo de medio (NCLMS) [37].
3.10.1 Algoritmo de Wei [37]
Em algumas aplicaes prticas pode-se ter o conhecimento
prvio da potncia do rudo, ou ainda estim-la. Dessa forma, pode-se
utilizar tal conhecimento com o objetivo de melhorar o desempenho de
algoritmos adaptativos, sem aumentar significativamente a sua
complexidade computacional ou diminuir sua robustez.
Seja o erro quadrtico mdio (EQM) dado por
E[e2 (n)] = E{[d (n) w T x(n)]2 }.

(3.67)

Considere a minimizao de (3.67) em relao ao vetor w .


Assumindo o conhecimento prvio de 2 , pode-se transformar (3.67)
em um problema de otimizao com restries pela minimizao de
E[e2 (n)] sujeito a E[e2 (n)] = 2 [37]. Dessa forma, a nova
funo-custo agora dada por
1 (w, ) = E[e 2 (n)] + [ E[e 2 (n)] 2 ] .

(3.68)

Os valores crticos de (3.68) so w = w o com podendo assumir


qualquer valor. Para tentar se obter uma soluo nica, um termo com
uma penalidade adicional 2 (com > 0) subtrado de (3.68),
resultando na seguinte expresso:
2 (w , ) = E[e 2 (n)] + ( E[e 2 (n)] 2 ) 2 .

(3.69)

Agora, os nicos valores crticos de (3.69) so w = w o e = 0 . Na


minimizao de 2 (w , ) , (w, ) = (w o ,0) um ponto de sela de
2 (w , ) . Usando o algoritmo de Robbins-Monro [48], obtm-se as
seguintes relaes recursivas:

w (n + 1) = w (n) f 2
(3.70)
w
e

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

(n + 1) = (n) +

79

(3.71)

onde f e so os passos de adaptao do algoritmo NCLMS.


As derivadas parciais em (3.70) e (3.71) so determinadas como
segue:
2
= 2[1 + (n)] e(n)x(n)
(3.72)
w
e

2
= [e(n) 2 2 ] 2 (n) .

(3.73)

Ento, substituindo (3.72) e (3.73) em (3.70) e (3.71), obtm-se


w (n) = w (n) + 2f [1 + (n)]e(n)x(n)

(3.74)

(n + 1) = (n) + [e(n) 2 2 ] 2(n) .

(3.75)

e
f

e por , obtm-se as expresses


2
2
para o algoritmo NCLMS. Assim,
(n) = f [1 + (n)]
(3.76)

Substituindo agora f por

e
1
(n + 1) = (n) + { [e2 (n) 2 ] (n)}.
2

(3.77)

Note que (n) composto por dois termos, um constante f e outro


varivel (n) . Os parmetros 0 < < 1 e 0 < < 1 so constantes de
controle do algoritmo.
A. Modelo estocstico
Apresenta-se a seguir uma anlise estatstica do comportamento
do passo varivel de adaptao para o algoritmo de Wei. Tal anlise foi
desenvolvida neste trabalho de pesquisa.
Considerando (0) = 0 , (3.77) pode ser reescrita como

80

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS


n 1

(n) = (1 ) n 1 k [e2 (k ) 2 ] .
2
k =0

(3.78)

Ento, substituindo (3.78) em (3.76), obtm-se


( n) = f +

f n 1
(1 )n 1 k [e2 (k ) 2 ] .

2 k =0

(3.79)

1
Fazendo = f , tem-se que
2
n 1

(n) = f + (1 ) n 1 k [e2 (k ) 2 ] .

(3.80)

k =0

Definindo agora (n) como a parte varivel do passo de


adaptao
n 1

(n) = (1 ) n 1 k [e2 (k ) 2 ]

(3.81)

k =0

a expresso de atualizao do vetor de coeficientes escrita como


w (n + 1) = w (n) + (n)e(n)x(n) = w (n) + f e(n)x(n) + (n)e(n)x(n).
(3.82)
Tomando o valor esperado de ambos os lados de (3.82), tem-se
E[w (n + 1)] = E[w (n)] + f E[e(n)x(n)] + E[(n)e(n)x(n)]. (3.83)
Arranjando os termos de (3.83), obtm-se
E[w (n + 1)] = E[w (n)] + f {p RE[w (n)]} + E[(n)e(n)x(n)] (3.84)
LMS convencional

ou ainda, utilizando a hiptese (ii), tem-se


E[w (n + 1)] = E[w (n)] + f {p RE[w (n)]} + E[(n)]E[p RE[w (n)].
LMS convencional

(3.85)
Nota-se que (3.85) idntica expresso que descreve o valor
mdio do vetor de coeficientes para o algoritmo LMS convencional,
exceto pelo ltimo termo direita, onde E[(n)] pode ser escrito como

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

81

E[(n)]
n 1

n 1

k =0

k =0

= E[ (1 ) n 1 k (e2 (k ) 2 )] = (1 )n 1 k [ J (k ) J min ]

(3.86)

ou
E[(n)]
n 1

n 1

k =0

k =0

= E[ (1 ) n 1 k (e2 (k ) 2 )] = (1 ) n 1 k tr[RK (k )].


Assim, o valor esperado do passo
(n) = f + (n) pode ser obtido. Ento,

varivel

de

(3.87)

adaptao

E[(n)] = f +E[(n)].

(3.88)

Da mesma forma, o valor esperado do passo de adaptao ao


quadrado
E[ 2 (n)] = f 2 + 2f E[(n)] + E[ 2 (n)]
(3.89)
com
n 1

E[ 2 (n)] = 2 (1 )2( n 1 k ) [ J 2 (k ) 2 J (k )2 + 4 ].

(3.90)

k =0

B. Anlise em regime permanente


Realiza-se aqui uma anlise do valor em regime permanente para
o vetor w (n), passo varivel (n) e J (n) no algoritmo de Wei [37].
Vetor de coeficientes:
Considerando w (n) convergente e utilizando (3.85) quando
n , tem-se
w () = w () + f [p Rw ()] + () [p Rw () ].

(3.91)

Visto que f e () so positivos, a nica soluo de (3.91)


obtida para
(3.92)
[p Rw () ] = 0
resultando em
w () = R 1p .
(3.93)
A partir de (3.93), constata-se que o valor em regime permanente
do algoritmo NCLMS o mesmo que o do algoritmo LMS
convencional, convergindo para a soluo de Wiener.

82

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS


Passo de adaptao:
Calculando o valor de (n) em (3.77) para n , tem-se
( ) =

J ex ()
.
2

(3.94)

Determinando agora o valor de (n) em (3.76) para n e


utilizando (3.94), resulta em
1
() = f + f J ex ().
2

(3.95)

Erro quadrtico mdio em excesso:


Como, em regime permanente, o passo de adaptao converge
para um valor constante, utiliza-se aqui, novamente, (2.41) para a
determinao do valor do EQM em excesso em regime permanente.
Assim,
J ex () =

[2 f +f J ex ()] 2
() J min
tr(R ) =
tr(R )
2
4

(3.96)

resultando finalmente em
J ex () =

2 f 2 tr(R )
4 f 2 tr(R )

(3.97)

C. Resultados de simulao
Os resultados de simulao para o modelo estocstico do
algoritmo de Wei so aqui mostrados em dois exemplos. O cenrio
utilizado o mesmo descrito nos Exemplos 3.1 e 3.2. O primeiro
exemplo, considera um sinal de entrada branco e, o segundo, um sinal
de entrada correlacionado.
Exemplo 3.5: Neste exemplo, utilizado um sinal de entrada
branco. As Figuras 3.17, 3.18 e 3.19 mostram, respectivamente, a
evoluo do passo de adaptao, o vetor de coeficientes e o EQM,
comparando os resultados atravs de simulao de MC (200 realizaes
independentes) e pelo modelo proposto.

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

83

Passo de Adaptao, E[(n)]

0,016
0,014
0,012
0,010
0,008
0,006
0,004
0,002
0

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 3.17. Comparao entre simulao (cinza) e modelo (preto) da


evoluo do passo de adaptao do Algoritmo de Wei [37] para sinal de
entrada branco.
1,0
0,9
0,8

E[w(n)]

0,7
0,6
0,5
0,4
0,3
0,2
0,1
0

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 3.18. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do vetor w (n) do algoritmo de Wei [37] para sinal
de entrada branco.

84

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS


5
0

EQM (dB)

-5
-10
-15
-20
-25

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 3.19. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do EQM do algoritmo de Wei [37] para sinal de
entrada branco.

Observa-se nas Figuras 3.17, 3.18 e 3.19 um casamento muito


bom entre os resultados obtidos atravs de simulao de MC e pelo
modelo proposto, para o caso de sinal de entrada branco, no cenrio de
simulao considerado.
Exemplo 3.6: Este exemplo utiliza sinal de entrada
correlacionado. As Figuras 3.20, 3.21 e 3.22 mostram, respectivamente,
a evoluo do passo de adaptao, o vetor de coeficientes e o EQM,
comparando os resultados atravs de simulao de MC (200 realizaes
independentes) e pelo modelo proposto.

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

85

0,020

Passo de Adaptao, E[(n)]

0,018
0,016
0,014
0,012
0,010
0,008
0,006
0,004
0,002
0

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 3.20. Comparao entre simulao (cinza) e modelo (preto) da


evoluo do passo de adaptao do Algoritmo de Wei [37] para sinal de
entrada correlacionado.
1,0
0,9
0,8

E[w(n)]

0,7
0,6
0,5
0,4
0,3
0,2
0,1
0

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 3.21. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do vetor w (n) do algoritmo de Wei [37] para sinal
de entrada correlacionado.

86

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS


10
5

EQM (dB)

0
-5
-10
-15
-20
-25

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 3.22. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do EQM do algoritmo de Wei [37] para sinal de
entrada correlacionado.
Observa-se das Figuras 3.20, 3.21 e 3.22 um casamento muito
bom entre os resultados de simulao e aqueles obtidos atravs do
modelo desenvolvido, para um sinal de entrada correlacionado. As
pequenas discrepncias existentes na fase transiente observados nas
Figuras 3.20 e 3.21 so devidas s aproximaes consideradas no
desenvolvimento do modelo.
3.11 Concluses
Este captulo apresentou uma breve discusso de diversos
algoritmos VSSLMS encontrados na literatura tcnica levando em conta
suas principais especificidades. Foi proposta uma classificao desses
algoritmos, segundo o princpio de ajuste utilizado para o passo de
adaptao. No total, foram consideradas oito categorias reunindo 18
algoritmos VSSLMS. Cada algoritmo foi descrito atravs de uma
nomenclatura unificada, permitindo uma compreenso mais clara e
facilitando uma anlise comparativa das diversas estratgias utilizadas.

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

87

Tambm foram apresentados modelos estocsticos para predio


do comportamento mdio do vetor de coeficientes e da curva de
aprendizagem para trs dos algoritmos classificados. O
desenvolvimento de modelos estocsticos para algoritmos adaptativos
envolve um trabalho matemtico intenso e a elaborao de algumas
hipteses simplificativas. Neste captulo, foram abordadas tais
hipteses, alm de outros aspectos comuns para a modelagem de
algoritmos VSSLMS.
Pode-se concluir que existem grandes diferenas entre os
diversos algoritmos estudados. A escolha de um dado algoritmo
VSSLMS para uma determinada aplicao no uma tarefa trivial.
Portanto, de fundamental importncia o desenvolvimento de modelos
estocsticos que permitam uma anlise mais aprofundada do
comportamento de cada algoritmo considerando os diversos cenrios de
aplicao. Resultados de simulao apresentados nesta seo
comprovaram a preciso dos modelos estocsticos desenvolvidos.

88

Captulo 3 Classificao e Modelagem de Algoritmos VSSLMS

CAPTULO 4
Novos Algoritmos VSSLMS
4.1 Introduo
Com o propsito de se obter taxas elevadas de convergncia com
um desajuste reduzido, vrias estratgias para ajustar o valor do passo
de adaptao em algoritmos VSSLMS vm sendo propostas na
literatura. O objetivo deste captulo apresentar novas propostas de
algoritmos VSSLMS.
Os algoritmos baseados no gradiente ajustam o passo de
adaptao a partir do valor numrico do gradiente do erro quadrtico de
estimao. Em [17] apresentado um dos primeiros algoritmos
utilizando tal abordagem, denominado aqui algoritmo de Shan. Tal
algoritmo se mostra bastante simples e eficaz apresentando, porm, um
problema elementar de convergncia que ocorre quando o gradiente
mdio resultar em um valor negativo. Assim, com o objetivo de
contornar o problema verificado, aqui proposta uma modificao no
algoritmo de Shan e apresentado um modelo estocstico do algoritmo
modificado.
Neste captulo, tambm so propostos dois novos algoritmos
baseados na autocorrelao do erro. O primeiro deles, aqui denominado
algoritmo AP1, tem seu ajuste baseado na funo de autocorrelao do
erro considerando N lags. Essa caracterstica melhora o desempenho do
algoritmo quando comparado ao algoritmo de Aboulnasr [28],
aumentando a velocidade de convergncia na presena de rudo de
medio. Embora o algoritmo proposto AP1 represente uma evoluo
em relao ao algoritmo de Aboulnasr [28], ele ainda apresenta dois
principais problemas inerentes aos algoritmos VSSLMS. So eles: a
baixa imunidade a variaes no nvel de rudo de medio e a
necessidade de ajuste de parmetros, o que geralmente feito de forma
experimental. Com o objetivo de obter um algoritmo imune a variaes
no rudo de medio e que no necessite de ajuste de parmetros,
tambm proposto neste captulo um segundo algoritmo, baseado na
autocorrelao do erro, aqui denominado algoritmo AP2.
Neste captulo, so ainda apresentados os modelos estocsticos
dos trs algoritmos avaliados. Resultados de simulao comprovam o
desempenho dos trs algoritmos e verificam a preciso dos modelos
desenvolvidos.

90

Captulo 4 Novos Algoritmos VSSLMS

4.2 Algoritmo de Shan Modificado [42]


Nesta seo, apresentada uma soluo eficaz ao problema de
convergncia do algoritmo VSSLMS proposto em [17], assim como um
modelo estocstico para o comportamento mdio do vetor de
coeficientes e para a curva de aprendizagem do algoritmo adaptativo
modificado. A preciso do modelo analtico proposto verificada
atravs de resultados de simulao.
O algoritmo de Shan apresentado em [17] utiliza uma estimativa
do gradiente mdio do sinal de erro ao quadrado em funo do vetor de
coeficientes dada pela correlao mdia entre o sinal de erro de
adaptao e o sinal de entrada, obtida por
g (n) = g (n 1) + (1 )e(n) x (n)

(4.1)

com
x ( n) =

1
N

x( k )

(4.2)

k = n N +1

onde controla a estimao de g (n). O passo comum de adaptao


ento ajustado de forma proporcional ao valor do gradiente estimado.
Portanto,
( n ) = g ( n )
(4.3)
onde o fator uma constante positiva menor do que a unidade.
Observa-se de (4.3) que um valor negativo do gradiente mdio
resulta em um passo de adaptao negativo, sendo que este est limitado
a zero pela desigualdade dada em (2.57), levando o algoritmo LMS a ter
um comportamento inadequado. Neste trabalho, apresentada uma
modificao no algoritmo de Shan, utilizando o valor absoluto do
gradiente [42]. Dessa forma, (4.3) redefinida como
( n ) = g ( n ) .

(4.4)

Esta alterao supera os problemas de convergncia do algoritmo


de Shan, anteriormente mencionados, mantendo sua simplicidade,
originando apenas um pequeno aumento de complexidade
computacional em comparao ao LMS convencional.

Captulo 4 Novos Algoritmos VSSLMS

91

4.2.1 Modelo Estocstico para o Algoritmo de Shan Modificado [42]


Neste trabalho, tambm proposta uma anlise estatstica do
algoritmo de Shan modificado, a qual apresentada a seguir.
Seja a estimativa do vetor gradiente g (n) dada por
g (n) = g (n 1) + (1 )e(n)x(n) .

(4.5)

O gradiente mdio (ou correlao mdia entre o erro de


adaptao e o sinal de entrada), obtida em (4.1), pode ser reescrita como
g ( n) =

1
N

N 1

gi (n).

(4.6)

i =0

Em (4.6), gi (n) denota o i-simo componente do vetor g (n) .


Calculando o valor esperado em ambos os lados de (4.5), tem-se
E[g(n)] = E[g (n 1)] + (1 ){p RE[w (n)]}.

(4.7)

Obtm-se ento o valor esperado de (4.6), dado por


E[ g (n)] =

1
N

N 1

E[ gi (n)]

(4.8)

i =0

e, dessa forma, o valor esperado do passo de adaptao obtido


utilizando (4.8) e aproximando o valor esperado de (4.4) na forma
E[(n)] E[ g (n)] .

(4.9)

Nesse modelo, utilizou-se a hiptese dada em (3.1) para a determinao


de E[ 2 (n)] .

92

Captulo 4 Novos Algoritmos VSSLMS

4.2.2 Resultados de Simulao


Os resultados de simulao para o algoritmo de Shan modificado
so apresentados considerando trs exemplos. No Exemplo 4.1, o
comportamento do algoritmo com a modificao includa avaliado.
Nos Exemplos 4.2 e 4.3, a preciso do modelo estocstico desenvolvido
verificada para sinais de entrada branco e correlacionado,
respectivamente.
Exemplo 4.1: Neste exemplo considerado um problema de
identificao de sistema. A planta utilizada obtida a partir de uma
janela de Hanning com 9 coeficientes dada por w o = [ 0,000 0,1170
0,4132 0,7500 0,9698 0,7500 0,4132 0,1170 0,000 ]T . O sinal de
entrada utilizado correlacionado obtido de um processo AR(1), dado
por x(n) = 0, 4 x(n 1) + u (n) , onde u (n) um rudo branco Gaussiano
com varincia tal que 2x = 1 . A disperso dos autovalores da matriz de
autocorrelao do sinal de entrada = 5 . Tambm, introduzido um
rudo aditivo de medio com varincia 2 = 0, 01 (SNR = 20 dB). Os
resultados de simulao so obtidos atravs do mtodo de Monte Carlo
(MC), considerando uma mdia de 200 realizaes independentes. Na
iterao n = 300, provocada uma alterao na planta, mudando o sinal
de todos os seus coeficientes. Dessa forma, verificado o
comportamento dos algoritmos [Shan original [17] e Shan modificado
(proposto)] frente uma perturbao. Da Figura 4.1(a), observa-se que o
algoritmo original [17] no converge aps a referida alterao da planta,
visto que o gradiente mdio se torna negativo. Na Figura 4.1(b),
mostrado o comportamento do algoritmo proposto que inclui a
modificao de (4.3) para (4.4). O algoritmo proposto agora converge
sem quaisquer problemas.

Captulo 4 Novos Algoritmos VSSLMS

93

15
10

EQM (dB)

5
0
-5
-10
-15
-20
-25

100

200

300

400

500

600

400

500

600

Iteraes

(a)
15
10

EQM (dB)

5
0
-5
-10
-15
-20
-25

100

200

300

Iteraes

(b)
Figura 4.1. Evoluo do EQM. (a)
(b) Algoritmo modificado (proposto).

Algoritmo

original

[17].

94

Captulo 4 Novos Algoritmos VSSLMS

Exemplo 4.2: Neste exemplo, a preciso do modelo verificada


considerando um sinal de entrada branco e o mesmo cenrio descrito no
Exemplo 3.1. As evolues do passo de adaptao, do vetor de
coeficientes e do EQM podem ser observadas, respectivamente, nas
Figuras 4.2, 4.3 e 4.4. Uma comparao entre os resultados obtidos
atravs de simulao de MC (200 realizaes independentes) e pelo
modelo proposto apresentada.

Passo de Adaptao, E[(n)]

0,016
0,014
0,012
0,010
0,008
0,006
0,004
0,002
0

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 4.2. Comparao entre simulao (cinza) e modelo (preto) da


evoluo do passo de adaptao do algoritmo de Shan modificado [42]
para sinal de entrada branco.
Observa-se das Figuras 4.2, 4.3 e 4.4 um casamento muito bom
entre os resultados de simulao e do modelo para o algoritmo de Shan
modificado [42], tanto para a evoluo do passo de adaptao quanto
para o comportamento do vetor de coeficientes w (n), como tambm
para o EQM, considerando sinal de entrada branco.

Captulo 4 Novos Algoritmos VSSLMS

95

1,0
0,9
0,8

E[w(n)]

0,7
0,6
0,5
0,4
0,3
0,2
0,1
0

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 4.3. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do vetor w (n) do algoritmo de Shan modificado
[42] para sinal de entrada branco.
5
0

EQM (dB)

-5
-10
-15
-20
-25

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 4.4. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do EQM do algoritmo de Shan modificado [42] para
sinal de entrada branco.

96

Captulo 4 Novos Algoritmos VSSLMS

Exemplo 4.3: Neste exemplo, considerado um sinal de entrada


correlacionado, no mesmo cenrio descrito no Exemplo 3.2. As Figuras
4.5, 4.6 e 4.7 ilustram, respectivamente, o comportamento do passo de
adaptao, do vetor de coeficientes e do EQM, para o algoritmo de Shan
modificado [42], comparando os resultados obtidos atravs de
simulao de MC (200 realizaes independentes) e pelo modelo
proposto. Na Figura 4.8, verifica-se atravs de simulao a aproximao
(3.1), comparando os resultados de E[ 2 (n)] e E 2 [(n)] .

0,020

Passo de Adaptao, E[(n)]

0,018
0,016
0,014
0,012
0,010
0,008
0,006
0,004
0,002
0

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 4.5. Comparao entre simulao (cinza) e modelo (preto) da


evoluo do passo de adaptao do algoritmo de Shan modificado [42]
para sinal de entrada correlacionado.
Novamente, se observa a partir das Figuras 4.5, 4.6 e 4.7 um
casamento muito bom entre os resultados de simulao e do modelo
proposto para o algoritmo de Shan modificado [42], para um sinal de
entrada correlacionado. Observa-se tambm, que as aproximaes
utilizadas no modelo acarretam pequenos desajustes na fase transiente
das evolues mostradas nas Figuras 4.5 e 4.6. A Figura 4.8 apresenta a
validao por simulao da Aproximao (3.1).

Captulo 4 Novos Algoritmos VSSLMS

97

1,0
0,9
0,8

E[w(n)]

0,7
0,6
0,5
0,4
0,3
0,2
0,1
0

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 4.6. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do vetor w (n) do algoritmo de Shan modificado
[42] para sinal de entrada correlacionado.
10
5

EQM (dB)

0
-5
-10
-15
-20
-25

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 4.7. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do EQM do algoritmo de Shan modificado [42] para
sinal de entrada correlacionado.

98

Captulo 4 Novos Algoritmos VSSLMS


-4

3,5 X10

E[2 (n)] e E 2[(n)]

3,0
2,5
2,0
1,5
1,0
0,5
0

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 4.8. Evoluo de E[ 2 (n)] (cinza) e E 2 [(n)] (preto) para o


algoritmo de Shan modificado [42].

4.3 Algoritmo Proposto #1 (AP1) [29]


A utilizao da funo de autocorrelao entre e(n) e e(n 1)
considerada no algoritmo de Aboulnasr [28], aqui denominada lag(1),
pode, em algumas situaes, no ser o melhor indicador de aproximao
do erro mnimo. Dependendo da correlao do sinal de entrada e do tipo
de resposta ao impulso do sistema a ser identificado, a autocorrelao
entre e(n) e e(n 2) , e(n) e e(n 3) ou outro valor de atraso, pode
ser to ou mais significativa do que a autocorrelao lag(1), para medir
a proximidade do ponto timo. No algoritmo de Aboulnasr [28], podem
ocorrer situaes em que a funo de autocorrelao do sinal de erro
lag(1) reduza o passo de adaptao desnecessariamente, tornando o
processo de convergncia mais lento.
O algoritmo proposto neste trabalho, denominado algoritmo
proposto #1 (AP1) visa utilizar todas as possveis funes de
autocorrelao do sinal de erro lag (1), lag (2), , lag (N ), com N
denotando a ordem do filtro adaptativo. A utilizao de vrios lags
pouco aumenta a complexidade computacional do algoritmo. Alm

Captulo 4 Novos Algoritmos VSSLMS

99

disso, o processo de convergncia acelerado, mantendo-se uma boa


robustez do algoritmo com relao ao rudo branco de medio.
Ento seja p(n) o valor mdio da soma dos quadrados das
funes de autocorrelao entre e(n) e e(n 1), e(n 2), ..., e(n N )
estimado atravs de
N

p (n) = p (n 1) + (1 ) [e(n)e(n i)]2

(4.10)

i =1

a equao de adaptao do passo varivel ento dada por


(n + 1) = (n) + p (n)

(4.11)

onde 0 < < 1 controla a estimao de p (n), e e so os


parmetros da equao de atualizao do passo de adaptao.
4.3.1 Modelo Estocstico para o algoritmo AP1
Nesta seo, apresentado um modelo estocstico para o algoritmo
proposto AP1, desenvolvido neste trabalho de pesquisa.
Tomando o valor esperado de ambos os lados de (4.11), tem-se
E[(n + 1)] = E[(n)] + E[ p(n)].

(4.12)

Assumindo ento (0) = 0 e conseqentemente E[(0)] = 0,


pode-se reescrever (4.12) como
n

E[(n + 1)] = E[ p(n )].

(4.13)

=0

Para se obter E[(n + 1)] necessrio obter inicialmente


E[p (n)]. Tal determinao apresentada no Apndice B.
Ento, substituindo (B.13) em (4.13) obtm-se a expresso de
modelo para E[(n + 1)] para o algoritmo proposto AP1. Assim,
E[(n + 1)]
n

n l 1

=0

k =0

= (1 )
+

tr{RK iT (n l

k (4 + 2 {tr[RK (n l k i ) + RK (n l k )]}
i =1

k )]RK i (n l k )}).
(4.14)

100

Captulo 4 Novos Algoritmos VSSLMS

Observa-se atravs desse modelo, que apesar do algoritmo proposto


AP1 melhorar o desempenho em relao ao algoritmo de Aboulnasr, ele
ainda no capaz de obter imunidade a mudanas na varincia do rudo
de medio, visto que o comportamento mdio do passo de adaptao
depende fortemente de 2 .
4.3.2 Resultados de Simulao
Nesta seo, so apresentados os resultados de simulao
numrica comparando o desempenho do algoritmo AP1 com os
algoritmos de Kwong [22] e de Aboulnasr [28] (Exemplos 4.4 e 4.5) e
atestando a preciso do modelo estocstico desenvolvido (Exemplos 4.6
e 4.7).
Exemplo 4.4: Neste exemplo, um problema de identificao de
sistema considerado, usando o mesmo cenrio descrito em [28]. Os
resultados de simulao mostram o comportamento do passo de
adaptao, a evoluo de um coeficiente do vetor w (n) e o erro
quadrtico mdio (EQM) em excesso, definido por E{[e(n) (n)]2 } .
Tambm analisado o comportamento do algoritmo frente a uma
mudana abrupta no sistema a ser identificado. A planta considerada
possui 4 coeficientes, dada pelo vetor w o = [5 0 1 8]T . O sinal de
entrada branco 2x = 1 e a varincia do rudo de medio aditivo
2 = 1 , caracterizando uma SNR de 0dB. Resultados numricos

obtidos atravs de simulaes de Monte Carlo (MC) - 200 rodadas


independentes - comparam os algoritmos de Kwong [22] e Aboulnasr
[28] com o algoritmo proposto AP1. Para todos algoritmos, o passo
mximo de adaptao limitado em 0,1. As Figuras 4.9 a 4.11 mostram,
respectivamente, o comportamento do passo de adaptao, do
coeficiente w1 (n) e do EQM em excesso. Na Figura 4.12, o
comportamento do EQM em excesso analisado considerando uma
mudana abrupta nos parmetros da planta. Essa mudana obtida
multiplicando, na iterao 20000, todos os seus coeficientes por 1 .
Atravs dessas figuras, verifica-se um melhor desempenho do algoritmo
AP1, para o cenrio de simulao.

Captulo 4 Novos Algoritmos VSSLMS

101

Em todas as simulaes deste exemplo, os parmetros dos trs


algoritmos so ajustados conforme descrito na Tabela 4.1 visando obter
o mesmo EQM em excesso final igual a 33dB .

Tabela 4.1. Parmetros Usados para Simulao Sinal de Entrada


Branco
Algoritmo

Parmetros
= 0,97

Kwong[22]

= 7 106
= 0,97
= 0,99

Aboulnasr[28]

= 8 104
= 0,97
= 0,99

AP1

= 2 106

Passo de Adaptao, E[(n)]

0,10

AP1

0,09
0,08
Aboulnasr [28]

0,07
0,06
0,05

Kwong [22]

0,04
0,03
0,02
0,01
0 0
10

101

102

103

104

Iteraes

Figura 4.9. Evoluo do passo varivel para sinal de entrada branco.

102

Captulo 4 Novos Algoritmos VSSLMS


6
AP1
5

E[w1 (n)]

4
Aboulnasr [28]

3
2

Kwong [22]
1
0 0
10

101

10 2

103

10 4

Iteraes

Figura 4.10. Evoluo do coeficiente w1 (n) para sinal de entrada


branco.

20

EQM em Excesso (dB)

10
Kwong [22]
0

Aboulnasr [28]

-10

AP1

-20
-30
-40

0,5

1,0

1,5

2,0

Iteraes

2,5

3,0

3,5
10 4

Figura 4.11. Comportamento do EQM em excesso para sinal de entrada


branco.

Captulo 4 Novos Algoritmos VSSLMS

103

30

EQM em Excesso (dB)

20
10

Kwong [22]

Kwong [22]

Aboulnasr [28]

-10

Aboulnasr [28]

AP1

AP1

-20
-30
-40
0

0,5

1,0

1,5

2,0

Iteraes

2,5

3,0

3,5
10 4

Figura 4.12. Comportamento do EQM em excesso para sinal de entrada


branco considerando uma mudana abrupta no sistema a ser identificado
na iterao 20000.
Exemplo 4.5: Neste exemplo, utilizado o mesmo cenrio do
Exemplo 4.4, exceo do sinal de entrada que agora correlacionado,
obtido de um processo AR(1) dado por x(n) = 0,9 x(n 1) + u (n) com
2x = 5, 26, sendo u (n) rudo branco gaussiano com varincia u2 = 1. A
disperso dos autovalores da matriz de autocorrelao do sinal de
entrada = 57, 4. Novamente realizada uma comparao entre o
algoritmo proposto e os algoritmos de Kwong [22] e Aboulnasr [28].
Para todos os algoritmos, o passo mximo de adaptao limitado em
0,01. As Figuras 4.13 a 4.15 mostram, respectivamente, a evoluo do
passo de adaptao, do coeficiente w1 (n) e do EQM em excesso. Na
Figura 4.16, o comportamento do EQM em excesso mostrado
considerando uma mudana abrupta nos parmetros da planta. Essa
mudana novamente obtida multiplicando, na iterao 20000, todos os
seus coeficientes por 1 . Os resultados numricos obtidos comprovam
o melhor desempenho do algoritmo AP1 em comparao com os
algoritmos de Kwong [22] e Aboulnasr [28], no cenrio simulado.
Nas simulaes deste exemplo, os parmetros dos trs algoritmos
so ajustados de maneira a se obter o mesmo EQM em excesso final

104

Captulo 4 Novos Algoritmos VSSLMS

igual a 24 dB. A Tabela 4.2 mostra os valores dos parmetros


considerados na simulao para os algoritmos avaliados.
Tabela 4.2. Parmetros Usados na Simulao Sinal de Entrada
Correlacionado
Algoritmo
Kwong

Aboulnasr

Parmetros
= 0,97
= 1,1 105
= 0,97
= 0,99
= 1, 6 103
= 0,97

AP1

= 0,99
= 3 106

Passo de Adaptao, E[(n)]

0,012
0,010

AP1

0,008

Aboulnasr [28]

0,006

Kwong [22]

0,004
0,002
0 0
10

101

102

103

104

Iteraes

Figura 4.13. Evoluo do passo varivel para sinal de entrada


correlacionado.

Captulo 4 Novos Algoritmos VSSLMS

105

6
AP1
5

E[w1(n)]

Aboulnasr [28]
Kwong [22]

3
2
1
0 0
10

101

10 2

103

104

Iteraes

Figura 4.14. Evoluo do coeficiente w1 (n) para sinal de entrada


correlacionado.
20

EQM em Excesso (dB)

15
10
5

Kwong [22]

Aboulnasr [28]

-5
AP1

-10
-15
-20
-25
-30

0,5

1,0

1,5

2,0

Iteraes

2,5

3,0

3,5
10 4

Figura 4.15. Comportamento do EQM em excesso para sinal de entrada


correlacionado.

106

Captulo 4 Novos Algoritmos VSSLMS


50

EQM em Excesso (dB)

40
30
20
Kwong [22]

Kwong [22]

10

Aboulnasr [28]

Aboulnasr [28]
AP1

AP1
-10
-20
-30

0,5

1,0

1,5

2,0

Iteraes

2,5

3,0

3,5
10 4

Figura 4.16. Comportamento do EQM em excesso para sinal de entrada


correlacionado considerando uma mudana abrupta no sistema a ser
identificado na iterao 20000.
Exemplo 4.6: Neste exemplo, a preciso do modelo desenvolvido
para o algoritmo proposto AP1 verificada considerando um sinal de
entrada branco e o mesmo cenrio descrito no Exemplo 3.1. As Figuras
4.17, 4.18 e 4.19 mostram, respectivamente, o comportamento do passo
de adaptao, do vetor de coeficientes e do EQM. Uma comparao dos
resultados obtidos atravs de simulao de MC (200 realizaes
independentes) e pelo modelo proposto novamente apresentada.

Captulo 4 Novos Algoritmos VSSLMS

107

Passo de Adaptao, E[(n)]

0,030
0,025
0,020
0,015
0,010
0,005
0

200 400 600 800 1000 1200 1400 1600 1800 2000

Iteraes

Figura 4.17. Comparao entre simulao (cinza) e modelo (preto) da


evoluo do passo de adaptao do algoritmo proposto AP1 para sinal
de entrada branco.
1,0
0,9
0,8

E[w(n)]

0,7
0,6
0,5
0,4
0,3
0,2
0,1
0

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 4.18. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do vetor w (n) do algoritmo proposto AP1 para
sinal de entrada branco.

108

Captulo 4 Novos Algoritmos VSSLMS


5
0

EQM (dB)

-5
-10
-15
-20
-25

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 4.19. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do EQM do algoritmo proposto AP1 para sinal de
entrada branco.
Um casamento muito bom entre os resultados obtidos a partir da
simulao de MC e aqueles obtidos pelo modelo proposto do algoritmo
AP1 observada nas Figuras 4.17 a 4.19, considerando um sinal de
entrada branco.
Exemplo 4.7:. Aqui, a preciso do modelo desenvolvido para o
algoritmo proposto AP1 verificada considerando um sinal de entrada
correlacionado e o mesmo cenrio descrito no Exemplo 3.2. As Figuras
4.20, 4.21 e 4.22 mostram, respectivamente, o comportamento do passo
de adaptao, vetor de coeficientes e EQM. Com isso, possvel uma
comparao entre os resultados obtidos atravs de simulao de MC
(200 realizaes independentes) e pelo modelo proposto. A Figura 4.23
verifica por simulao a Aproximao (3.1), comparando as evolues
de E[ 2 (n)] e E 2 [(n)].

Captulo 4 Novos Algoritmos VSSLMS

109

Passo de Adaptao, E[(n)]

0,030
0,025
0,020
0,015
0,010
0,005
0

200 400 600 800 1000 1200 1400 1600 1800 2000

Iteraes

Figura 4.20. Comparao entre simulao (cinza) e modelo (preto) da


evoluo do passo de adaptao do algoritmo proposto AP1 para sinal
de entrada correlacionado.
1,0
0,9
0,8

E[w(n)]

0,7
0,6
0,5
0,4
0,3
0,2
0,1
0

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 4.21. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do vetor w (n) do algoritmo proposto AP1 para
sinal de entrada correlacionado.

110

Captulo 4 Novos Algoritmos VSSLMS


10
5

EQM (dB)

0
-5
-10
-15
-20
-25

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 4.22. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do EQM do algoritmo proposto AP1 para sinal de
entrada correlacionado.
-3

X10

1,0
0,9

E[2 (n)] e E 2[(n)]

0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0

200 400 600 800 1000 1200 1400 1600 1800 2000

Iteraes

Figura 4.23. Evoluo de E[ 2 (n)] (cinza) e E 2 [(n)] (preto) para o


algoritmo proposto AP1.

Captulo 4 Novos Algoritmos VSSLMS

111

Pode-se observar a partir das Figuras 4.20 a 4.22 um casamento


satisfatrio entre as curvas obtidas por simulao e pelo modelo
proposto para o algoritmo AP1, considerando um sinal de entrada
correlacionado. A utilizao de aproximaes utilizadas na obteno do
modelo estocstico do algoritmo AP1 responsvel pelos pequenos
desvios observados nas Figuras 4.20 a 4.22. A Figura 4.23 verifica por
simulao a Aproximao (3.1).
4.4 Algoritmo Proposto #2 (AP2) [30]
O Algoritmo de Aboulnasr [28] foi proposto com o objetivo de
obter um melhor desempenho em relao ao algoritmo de Kwong [22],
para ambientes de baixa razo sinal-rudo (SNR). No entanto, a exemplo
da maioria dos algoritmos VSSLMS, o algoritmo de Aboulnasr [28]
apresenta uma forte dependncia da flutuao do nvel do rudo de
medio, obrigando a ajustes de parmetros sempre que ocorrem
mudanas no nvel de rudo. Por outro lado, se os parmetros so
mantidos constantes, o seu desempenho significativamente afetado
frente a diferentes nveis de SNR. Alm disso, o ajuste de parmetros
usualmente realizado utilizando procedimentos experimentais (baseados
em tentativa e erro) revelando-se uma tarefa no trivial para a maioria
das aplicaes prticas.
Ento, com o objetivo de melhorar a imunidade do algoritmo em
relao a variaes tanto na potncia do rudo de medio quanto na
potncia do sinal de entrada, sem necessidade de ajuste de parmetros,
um novo algoritmo no-paramtrico VSS-NLMS aqui proposto. Esse
algoritmo [aqui denominado algoritmo proposto #2 (AP2)] tambm no
requer conhecimento prvio da varincia do rudo de medio, tal como
exigido pelo algoritmo no-paramtrico proposto em [25].
Para tal, consideramos a seguinte lei de ajuste do passo varivel:
(n + 1) =

( n)
T

x ( n) x( n )

(4.15)

onde (n) a funo de controle do passo de adaptao.


Para atingir os objetivos esperados, necessrio determinar uma
regra de variao para (n) que deve ser independente da varincia do
rudo de medio. Alm disso, como trata-se de um algoritmo NLMS,
(n) deve variar de 1 a zero conforme o algoritmo se aproxima do

112

Captulo 4 Novos Algoritmos VSSLMS

ponto timo, sem a necessidade de ajuste de parmetros. Para tal, (n)


definido como

( n) =

p 2 (n)
q 2 ( n)

(4.16)

com p (n) denotando uma estimativa da autocorrelao entre erros


adjacentes obtida como em (3.45), e q (n) o sinal de erro ao quadrado
suavizado, o qual dado por
q(n) = q (n 1) + (1 )e2 (n)

(4.17)

onde uma constante prxima da unidade similar quela usada para


obter p(n) em (3.45). Observe que aqui no um parmetro que
deve ser ajustado para cada condio de operao; ele uma constante
que deve ser prxima, porm menor, do que a unidade, por exemplo,
= 0,99. Por esta razo, o algoritmo proposto dito ser noparamtrico.
Com o objetivo de obter estimativas suavizadas de ambos p (n) e
q(n), utiliza-se filtros passa-baixas em (3.45) e (4.17). O uso de mdias
temporais dos sinais p(n) e q (n) melhora o desempenho do algoritmo,
reduzindo tanto o nvel de rudo quanto grandes flutuaes em tais
estimativas.
A regra de ajuste (4.16) atua da seguinte forma: como no incio
do processo de convergncia e(n) aproximadamente igual a e(n 1) ,
a correlao entre eles tende a E[e2 (n)], levando (n) 1 e, com isso,
acelerando o processo de convergncia. medida que o regime
permanente se aproxima, e(n) tende a ser cada vez mais
descorrelacionado, fazendo a correlao entre e(n) e e(n 1) tender
para zero. Por outro lado, o valor mdio final do sinal de erro ao
quadrado e2 (n) tende para a varincia do rudo de medio, fazendo
(n) 0 prximo de zero e reduzindo o desajuste final do algoritmo.
Na prxima seo, uma anlise estatstica desse algoritmo
apresentada confirmando sua eficcia quanto imunidade ao nvel (e
variaes) do rudo de medio.

Captulo 4 Novos Algoritmos VSSLMS

113

4.4.1 Modelo Estocstico para o Algoritmo AP2


O algoritmo proposto AP2, baseado na autocorrelao do sinal de
erro, foi idealizado para melhorar a imunidade frente a mudanas na
varincia do rudo de medio. Com o objetivo de confirmar
teoricamente a eficcia de tal algoritmo, uma anlise estatstica, visando
avaliar a dependncia do passo de adaptao varivel em relao ao
rudo de medio, apresentada.
Para obter o valor esperado de (4.15), o Princpio da Mdia (AP)
invocado, resultando em

1
E[(n + 1)] E[(n)]E T
.
x ( n) x( n)

(4.18)

As variveis p(n) e q (n) so, respectivamente, estimativas


suavizadas da autocorrelao do erro e do erro ao quadrado, obtidas
atravs de filtragem passa-baixas. Assume-se aqui que o processo de
adaptao lento. Com isso, pode-se utilizar a seguinte aproximao
para calcular o valor esperado E[(n)] :
E[(n)]

E[ p 2 (n)]

(4.19)

E[q 2 (n)]

onde E[ p 2 (n)] obtido por (A.26) e o valor esperado E[q 2 (n)]


determinado no Apndice C.
Assim, a partir da hiptese (4.19),
aproximadamente determinado por

E[(n)]

pode ser

E[(n)]
n 1

n 1

2 j {4 + 2 tr[RK (n j 1) + RK (n)])} + 2 j 12 tr[R 2 K T (n j + 1)]

j =0

j =1

n 1

n 1 n 1

j =0

j = 0 k =0
j k

2 j {34 + 62 tr[RK (n j )]} + j + k {4 + 2 tr[RK (n j ) + RK (n k )]}


n2

2 j +12 tr[RT K 2 (n j)]

j =0

n 1

n 1 n 1

j =0

j =0 k =0
j k

2 j {34 + 62 tr[RK (n j )]} + j + k {4 + 2 tr[RK (n j) + RK (n k )]}

(4.20)

114

Captulo 4 Novos Algoritmos VSSLMS


Assumindo ainda que 4 muito menor que os demais termos

em (4.20), E[(n)] pode ser finalmente dado por


E[(n)]
n 1

n 1

n2

2 j {tr[RK (n j 1) + RK (n)]) + 2 j 1tr[R 2K T (n j + 1)] + 2 j +1tr[R T K 2 (n j )]


j =0

n 1

j =1
n 1 n 1

j =0

2 j 6tr[RK (n j)] + j + k tr[RK (n j ) + RK (n k )]


j =0

j =0 k = 0
jk

(4.21)
Observa-se desta anlise que o algoritmo proposto AP2 apresenta
maior imunidade a mudanas na varincia do rudo de medio, j que o
comportamento mdio da funo de controle do passo de adaptao
independe de 2 .
Esta proposta resolve dois grandes problemas que surgem no
projeto de filtros adaptativos utilizando algoritmos VSSLMS. O
primeiro a difcil tarefa de ajustar parmetros do algoritmo para uma
determinada aplicao prtica e o segundo diz respeito forte
dependncia da maioria dos algoritmos VSSLMS frente a mudanas na
varincia do rudo de medio. O algoritmo proposto AP2 no requer
qualquer ajuste de parmetros, mantendo muito bom desempenho
mesmo quando ocorrerem grandes mudanas na varincia do rudo de
medio.
4.4.2 Resultados de Simulao
Nesta seo, so apresentados resultados de simulao para
verificao de desempenho do algoritmo proposto AP2 nos quatro
primeiros exemplos e para avaliao da preciso do modelo estocstico
desenvolvido nos dois ltimos. Nos Exemplos 4.7, 4.8 e 4.9, as
simulaes numricas comparam o desempenho dos algoritmos de
Aboulnasr [28] e Benesty [25], com o algoritmo proposto AP2. Para tal,
simulaes de MC (mdia de 200 rodadas independentes) so realizadas
para um problema de identificao de sistemas, mostrando as curvas de
EQM em excesso e do passo de adaptao varivel (n) para todos os
algoritmos avaliados. Alm disso, para o algoritmo proposto AP2, o
comportamento mdio da funo de controle do passo (n) tambm
mostrado. No Exemplo 4.10, so comparados apenas os algoritmos noparamtricos, isto , o dado em [25] e AP2. Nesse exemplo, so
mostradas as evolues do EQM em excesso e (n), considerando uma

Captulo 4 Novos Algoritmos VSSLMS

115

estimao imperfeita do nvel de rudo para o algoritmo no-paramtrico


dado em [25].
Nos quatro primeiros exemplos desta seo (Exemplos 4.7
4.10) utiliza-se uma planta com 32 coeficientes, obtida de uma funo
janela de Hanning, com ||w o || = 1. O sinal de entrada utilizado
gaussiano, de mdia zero, obtido de um processo AR(2) dado por
x(n) = 1,11x(n 1) 0,85 x(n 2) + u (n) , onde u (n) um rudo branco
gaussiano com varincia u2 . A varincia do sinal de entrada 2x = 1 e
a disperso dos autovalores da matriz de autocorrelao do sinal de
entrada = 404,8. O passo de adaptao limitado a um valor
mximo de 0, 01 para todos os algoritmos. J nos Exemplos 4.11 e 4.12,
que verificam a preciso do modelo estocstico desenvolvido, utiliza-se
o mesmo cenrio de simulao dos Exemplos 3.1 e 3.2.
Exemplo

4.7:

Neste

exemplo

utiliza-se

2 = 0,001

(SNR = 30dB) e o ajuste de parmetros para o algoritmo de Aboulnasr


[28] feito manualmente de forma a se obter o mesmo EQM em
excesso final do algoritmo proposto igual a 50dB. Para o algoritmo de
Benesty [25] necessrio estimar a potncia do rudo 2 , a qual aqui
assumida idntica ao valor real de 2 .
A Figura 4.24 ilustra os resultados obtidos do Exemplo 4.7. A
Figura 4.24(a) apresenta a evoluo do EQM em excesso comparando o
desempenho dos algoritmos de Aboulnasr [28], Benesty [25] com o
AP2. Dessa figura pode-se notar um desempenho similar entre os
algoritmos avaliados. O algoritmo de Benesty [25] atinge o regime
permanente antes, ao custo de um maior erro de desajuste. Na Figura
4.24(b), so apresentadas as curvas dos passos de adaptao dos trs
algoritmos. Observa-se que em todas as curvas o valor mximo
atingido. Em geral, todos algoritmos avaliados mostram o mesmo
comportamento do passo de adaptao varivel, exceto pelo fato de que
o algoritmo de Benesty [25] exibe um valor final do passo mais elevado,
implicando um maior desajuste [veja Figura 4.24(a)]. J a Figura 4.24(c)
ilustra o comportamento mdio da funo de controle de passo (n) e
seu valor aproximado por (4.19). Dessa figura observa-se que (n)
varia de 1 a zero (ou muito prximo de zero) medida que se aproxima
o ponto timo de convergncia e que (4.19) uma hiptese razovel
para obteno do modelo.

116

Captulo 4 Novos Algoritmos VSSLMS


0

EQM em Excesso (dB)

-10
-20
-30

Aboulnasr [28]

Benesty [25]

-40
-50
AP2
-60

0,5

1,0

1,5

2,0

2,5

3,0

Iteraes

10 4

(a)

Passo de Adaptao, E[(n)]

0,012
0,010

AP2

0,008
0,006
0,004
Benesty [25]
0,002
Aboulnasr [28]
0 0
10

101

102

Iteraes

(b)

103

104

Captulo 4 Novos Algoritmos VSSLMS

117

1,0

p 2 (n )
E 2

q ( n)

Funo de Controle do Passo

0,9
0,8

E[ p 2 (n)]
E[ q 2 ( n)]

0,7
0,6
0,5
0,4
0,3
0,2
0,1
0

0,5

1,0

1,5

2,0

2,5

3,0

3,5

4,0

4,5

5,0

Iteraes

3
0
1

(c)
Figura 4.24. Resultados de simulao para 2 = 0, 001 (SNR = 30dB).

(a) Curva de EQM em excesso. (b) Evoluo do passo varivel. (c)


Evoluo da funo de controle (n) e sua aproximao.
Exemplo 4.8: Neste

exemplo,

utiliza-se

2 = 0, 0001

(SNR = 40dB) e os parmetros do algoritmo de Aboulnasr [28] so


mantidos constantes, com os mesmos valores usados no Exemplo 4.8.
Para o algoritmo de Benesty [25] novamente assumido que 2 = 2 .
A Figura 4.25 apresenta os resultados obtidos para este exemplo.
As Figuras 4.25(a) e (b) ilustram, respectivamente, a evoluo do EQM
em excesso e do passo de adaptao para os trs algoritmos
considerados. Dessas figuras, nota-se que o algoritmo de Aboulnasr [28]
apresenta um maior EQM em excesso, causado por uma reduo
prematura do passo de adaptao, quando comparado, aos algoritmos
no-paramtricos ([25] e AP2), que apresentam desempenho superior
neste cenrio. Essa degradao de desempenho do algoritmo de
Aboulnasr [28] ocorre pela mudana do nvel de rudo sem o
correspondente reajuste de parmetros. Seguindo o mesmo padro da
Figura 4.24(c), a Figura 4.25(c) apresenta a evoluo de (n) e sua
aproximao para o algoritmo proposto.

118

Captulo 4 Novos Algoritmos VSSLMS


0

EQM em Excesso (dB)

-10
-20
Aboulnasr [28]

-30
AP2

Benesty [25]

-40
-50
-60

0,5

1,0

1,5

2,0

2,5

3,0

Iteraes

10 4

(a)

Passo de Adaptao, E[(n)]

0,012
0,010

AP2

0,008
0,006
0,004
Benesty [25]
0,002
Aboulnasr [28]
0 0
10

101

102

Iteraes

(b)

103

10 4

Captulo 4 Novos Algoritmos VSSLMS

119

1,0

p 2 ( n)
E 2

q ( n)

Funo de Controle do Passo

0,9
0,8

E[ p 2 ( n)]
E[q 2 ( n)]

0,7
0,6
0,5
0,4
0,3
0,2
0,1
0

0,5

1,0

1,5

2,0

2,5

3,0

Iteraes

3,5

4,0

4,5

5,0

3
0
1

(c)
Figura 4.25. Resultados de simulao para 2 = 0, 0001 (SNR = 40dB).

(a) Curva de EQM em excesso. (b) Evoluo do passo varivel. (c)


Evoluo da funo de controle (n) e sua aproximao.

Exemplo
4.9:
Para
este
exemplo,
considera-se
= 0, 01 (SNR = 20dB) e os parmetros do algoritmo de Aboulansr

permanecem constantes e iguais aos utilizados nos Exemplos 4.7 e 4.8.


Para o algoritmo de Benesty [25] novamente assumida estimao
perfeita do nvel de rudo, com 2 = 2 .
A Figura 4.26 ilustra os resultados obtidos neste exemplo. A
evoluo do EQM em excesso e o comportamento do passo varivel dos
trs algoritmos so mostrados, respectivamente, nas Figuras 4.26(a) e
(b). Observa-se dessas figuras que o algoritmo de Aboulnasr [28]
apresenta um maior EQM em excesso, causado por valores elevados do
passo de adaptao [trabalhando prximo ao limite de estabilidade, veja
Figura 4.26(b)], quando comparado aos algoritmos no-paramtricos
([25] e AP2]. Esse comportamento do algoritmo de Aboulnasr [28] se
deve ao aumento do nvel de rudo, sem o necessrio reajuste de seus
parmetros. Alm disso, observa-se ainda das Figuras 4.26(a) e (b) um
desempenho superior do algoritmo AP2 nesse cenrio. A Figura 4.26(c)

120

Captulo 4 Novos Algoritmos VSSLMS

apresenta a evoluo de (n) e seu valor aproximado por (4.19) para o


algoritmo AP2, apresentando o mesmo padro de curva observado nos
exemplos anteriores.
0

EQM em Excesso (dB)

-10

Aboulnasr [28]

-20
-30
-40
Benesty [25]

-50
-60

AP2

0,5

1,0

1,5

2,0

2,5

3,0

Iteraes

10 4

(a)

Passo de Adaptao, E[(n)]

0,012
0,010

AP2
Aboulnasr [28]

0,008
0,006
0,004

Benesty [25]
0,002
0 0
10

101

102

Iteraes

(b)

103

104

Captulo 4 Novos Algoritmos VSSLMS

121

1,0

p 2 (n )
E 2

q ( n)

Funo de Controle do Passo

0,9
0,8

E[ p 2 ( n)]
E[q 2 ( n)]

0,7
0,6
0,5
0,4
0,3
0,2
0,1
0

0,5

1,0

1,5

2,0

2,5

3,0

Iteraes

3,5

4,0

4,5

5,0

3
0
1

(c)
Figura 4.26. Resultados de simulao para 2 = 0, 01 (SNR = 20dB).

(a) Curva de EQM em excesso. (b) Evoluo do passo varivel. (c)


Evoluo da funo de controle (n) e sua aproximao.
Exemplo 4.10: Este exemplo compara o desempenho dos dois
algoritmos no-paramtricos ([25] e AP2), considerando um caso de
estimao imperfeita do nvel de rudo pelo algoritmo de [25]. Para tal,
dois cenrios de simulao so considerados levando em conta dois
valores diferentes de varincias do rudo 2 = 0, 001 e 0, 0013. Para
ambos cenrios o algortimo de Benesty [25] opera com um valor fixo de
2 = 0,001.
A Figura 4.27 ilustra os resultados obtidos neste exemplo. Nas
Figuras 4.27(a) e (b) so mostrados, respectivamente, a evoluo do
EQM em excesso e o comportamento do passo de adaptao, para
ambos algoritmos considerando os dois cenrios de simulao. Observase dessas figuras uma degradao de desempenho do algoritmo de
Benesty [25] quando a varincia do rudo aumentada em 30%, sem a
correspondente modificao de 2 . Por outro lado, o algoritmo AP2
apresenta praticamente o mesmo desempenho nos dois cenrios,
confirmando sua boa imunidade a variaes no nvel de rudo de
medio.

122

Captulo 4 Novos Algoritmos VSSLMS


0

EQM em excesso (dB)

-10
-20
Benesty [25] com 2 = 0,0013
-30

Benesty [25] com 2 = 0, 001

-40
-50
-60

AP2 com 2 = 0, 001


1,0

1,5

2,0

2,5

3,0

3,5

4,0

0,5

Iteraes

0
1

AP2 com 2 = 0, 0013

(a)

Passo de Adaptao, E[(n)]

0,012
AP2 com
2 = 0, 001

0,010
0,008

Benesty [25] com


2 = 0, 0013

AP2 com
2 = 0,0013

0,006
0,004

Benesty [25]
com 2 = 0, 001

0,002
4

0
1

0
1

0
1

1
0
1

0
1

Iterations
(b)

Figura 4.27. Resultados de simulao considerando dois nveis de rudo


2 = 0, 001 e 0, 0013, e algoritmo de Benesty [25] operando com valor

fixo de 2 = 0, 001. (a) Curva de EQM em excesso. (b) Evoluo do


passo varivel.

Captulo 4 Novos Algoritmos VSSLMS

123

Exemplo 4.11: Neste exemplo, a preciso do modelo


desenvolvido para o algoritmo proposto AP2 verificada considerando
um sinal de entrada branco e o mesmo cenrio descrito no Exemplo 3.1.
As Figuras 4.28, 4.29 e 4.30 mostram, respectivamente, o
comportamento do passo de adaptao, do vetor de coeficientes e do
EQM obtidos atravs de simulaes de MC (200 realizaes
independentes) e pelo modelo estocstico desenvolvido. Dessa forma,
possvel uma comparao das curvas e conseqente verificao da
preciso do modelo.

Passo de Adaptao, E[(n)]

0,035
0,030
0,025
0,020
0,015
0,010
0,005
0

1000

2000

3000

4000

5000

6000

Iteraes

Figura 4.28. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do passo de adaptao do algoritmo proposto AP2
para sinal de entrada branco.

124

Captulo 4 Novos Algoritmos VSSLMS


1,0
0,9
0,8

E[w(n)]

0,7
0,6
0,5
0,4
0,3
0,2
0,1
0

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 4.29. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do vetor w (n) do algoritmo proposto AP2 para
sinal de entrada branco.

Figura 4.30. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do EQM do algoritmo proposto AP2 para sinal de
entrada branco.

Captulo 4 Novos Algoritmos VSSLMS

125

Observa-se da Figura 4.28 um casamento apenas regular entre


simulao e modelo para a evoluo do passo de adaptao. Novamente,
as aproximaes utilizadas justificam os desvios observados nessa
curva, especialmente a hiptese de adaptao lenta, uma vez que o
algoritmo proposto AP2 opera sempre com alta velocidade de
convergncia. J nas Figuras 4.29 e 4.30 pode-se observar um
casamento muito bom entre os resultados obtidos a partir da simulao
de MC e aqueles obtidos pelo modelo proposto do algoritmo AP2, para
um sinal de entrada branco.
Exemplo 4.12: Neste exemplo, a preciso do modelo
desenvolvido para o algoritmo proposto AP2 verificada considerando
um sinal de entrada correlacionado e o mesmo cenrio descrito no
Exemplo 3.2. As Figuras 4.31, 4.32 e 4.33 mostram, respectivamente, o
comportamento do passo de adaptao, vetor de coeficientes e EQM
para o algoritmo proposto AP2 (modelo e simulao de MC). Assim,
novamente possvel uma comparao entre as curvas obtidas e uma
verificao da preciso do modelo. A Figura 4.34 verifica por simulao
a Aproximao (3.1), comparando as evolues de E[ 2 (n)] e
E 2 [(n)] .

Passo de Adaptao, E[(n)]

0,035
0,030
0,025
0,020
0,015
0,010
0,005
0

1000

2000

3000

4000

5000

6000

Iteraes

Figura 4.31. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do passo de adaptao do algoritmo proposto AP2
para sinal de entrada correlacionado.

126

Captulo 4 Novos Algoritmos VSSLMS


1,0
0,9
0,8

E[w(n)]

0,7
0,6
0,5
0,4
0,3
0,2
0,1
0

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 4.32. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do vetor w (n) do algoritmo proposto AP2 para
sinal de entrada correlacionado.
10
5

EQM (dB)

0
-5
-10
-15
-20
-25

100 200 300 400 500 600 700 800 900 1000

Iteraes

Figura 4.33. Comparao entre simulao (cinza irregular) e modelo


(preto) da evoluo do EQM do algoritmo proposto AP2 para sinal de
entrada correlacionado.

Captulo 4 Novos Algoritmos VSSLMS

127

1,0
0,9

E[2 (n)] e E 2[(n)]

0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0

1000

2000

3000

5000

6000

Iteraes

Figura 4.34. Evoluo de E[ 2 (n)] (cinza) e E 2 [(n)] (preto) para o


algoritmo proposto AP2.

Para o cenrio considerado, novamente se observa da Figura 4.31


um casamento apenas regular entre simulao de MC e modelo para a
evoluo do passo de adaptao, sendo a justificativa para esse desvio a
mesma j descrita no exemplo anterior. Em contrapartida, as Figuras
4.32 e 4.33 apresentam um casamento muito bom entre os resultados de
simulao e do modelo proposto para as evolues do vetor de
coeficientes e do EQM, respectivamente. Aqui, novamente a Figura
4.34 verifica atravs de simulao a aproximao (3.1), mostrando um
aceitvel casamento entre os resultados obtidos.
4.5 Concluses

Este captulo tratou de novos algoritmos VSSLMS. Foi


apresentada uma modificao do algoritmo LMS de passo varivel
proposto por Shan [17]. Tal modificao visou o aprimoramento desse
algoritmo com vistas sua estabilidade. Com a nova expresso de ajuste
do passo de adaptao, fruto da modificao, um modelo para o
algoritmo de Shan (modificado) determinado. Tambm foram
apresentados dois novos algoritmos baseados na autocorrelao do erro
(algoritmos AP1 e AP2). O algoritmo AP1 considera uma funo de

128

Captulo 4 Novos Algoritmos VSSLMS

autocorrelao com N lags, melhorando o desempenho do algoritmo de


Aboulnasr [28] na presena de rudo de medio. J o algoritmo AP2
apresenta elevada imunidade frente a variaes no nvel de rudo de
medio, alm de no requerer o ajuste de qualquer parmetro para sua
operao.
Modelos estocsticos para predio do comportamento mdio do
vetor de coeficientes e curva de aprendizagem foram apresentados para
os trs algoritmos desenvolvidos. A partir de simulaes numricas, foi
verificado o desempenho dos novos algoritmos e a preciso dos
modelos propostos, quando confrontados com resultados obtidos a partir
de simulaes de Monte Carlo.

CAPTULO 5
Resultados Comparativos de Algoritmos VSSLMS
5.1 Introduo

Este captulo apresenta uma comparao entre os principais


algoritmos VSSLMS publicados na literatura tcnica e discutidos no
Captulo 3, juntamente com os novos algoritmos propostos neste
trabalho de pesquisa, os quais foram apresentados no Captulo 4. Tal
comparao est baseada na anlise da complexidade computacional
dos algoritmos, bem como em resultados de simulao considerando um
cenrio comum de aplicao.
Os resultados de simulao so apresentados por categoria,
obedecendo a classificao proposta no Captulo 3. Alm disso, uma
comparao entre os algoritmos de melhor desempenho em cada
categoria tambm realizada.
5.2 Complexidade Computacional de Algoritmos VSSLMS

A grande maioria dos algoritmos VSSLMS estudados apresenta


apenas um pequeno aumento de complexidade computacional, quando
comparada ao LMS convencional. Em todos os algoritmos estudados, a
complexidade computacional da ordem O( N ).
A Tabela 5.1 apresenta um quadro comparativo da complexidade
computacional de todos os algoritmos estudados neste trabalho.
5.3 Resultados de Simulao Comparao dos Algoritmos
VSSLMS

Nesta seo, so apresentadas simulaes numricas visando uma


comparao de desempenho de todos os algoritmos VSSLMS
analisados neste trabalho. Para tanto, um problema de identificao de
sistema novamente considerado.
Exemplo 5.1: A planta utilizada obtida a partir de uma funo
janela de Hanning com 10 coeficientes, dada pelo vetor
w = [0,0000 0,1170 0, 4132 0,7500 0,9698 0,9698 0,7500 0,4132
0,1170 0,0000]T . O sinal de entrada utilizado correlacionado com
varincia 2x = 1, obtido a partir de um processo AR(1), dado por

130

Captulo 5 Resultados Comparativos de Algoritmos VSSLMS

x(n) = 0,6 x(n 1) + u (n),

considerando

u ( n)

um

rudo

branco

u2

= 0,65. A disperso dos autovalores da matriz de


gaussiano com
autocorrelao do sinal de entrada = 13, 2 . A varincia do rudo
aditivo 2 = 1 , caracterizando uma SNR de 0 dB. Para avaliar o
comportamento dos diversos algoritmos frente a uma mudana abrupta
na planta, realiza-se tambm uma simulao que modifica os parmetros
do sistema a ser identificado durante o processo de adaptao. Na
iterao n = 10000, a planta mudada para w o , alterando assim o
sinal de todos os coeficientes. Em todas as simulaes, os algoritmos
so ajustados para se obter o mesmo EQM em excesso.
Tabela 5.1. Quadro Comparativo da Complexidade Computacional de
Algoritmos VSSLMS
Algoritmo
LMS
Convencional
Shan Modificado
Richards
Mathews
Wee-Peng Ang
Farhang
Okello
Shin
Kwong
Nakanishi
Costa
Benesty(NoParam.)
Aboulnasr
AP1
AP2
Kim
Gollamudi
Ramadan
Rohani
Benesty
(IPNLMS)
Yan-Bin
Wei

Nmero de
Multiplicaes

Nmero
de
Divises

Nmero de
Somas e
Subtraes

Nmero de
Razes
Quadradas

2N+1

2N

2N+5
6N+1
3N+4
5N+3
8N+1
5N+3
7N+2
2N+4
2N+5
3N+6

1
0
0
0
N
0
2
0
1
0

3N+1
2N+2
2N+1
2N+2
3N
4N+1
3N+1
2N+1
2N+1
2N+2

0
0
0
0
0
0
0
0
0
0

3N+5

3N+1

2N+7
3N+6
3N+9
2N+3
2N+1
4N+4
3N+1

0
0
2
1
1
1
0

2N+2
3N+3
3N+1
2N
2N+1
3N+2
3N

0
0
0
0
0
0
0

6N+4

4N+3

3N+7
2N+6

1
1

2N+4
2N+4

0
0

Captulo 5 Resultados Comparativos de Algoritmos VSSLMS

131

5.3.1 Algoritmos Baseados no Gradiente do Erro Quadrtico


A Figura 5.1 mostra o comportamento do EQM em excesso para
os algoritmos da categoria gradiente do erro quadrtico. Na Figura 5.2, a
evoluo do EQM em excesso dos mesmos algoritmos analisada
considerando uma mudana abrupta dos parmetros do sistema
desconhecido atravs da multiplicao de todos os coeficientes da
planta por 1 na iterao 10000.
Observa-se, a partir das Figuras 5.1 e 5.2, o melhor desempenho
do algoritmo de Okello [18] para o cenrio de simulao considerado.
5.3.2 Algoritmos Baseados no Erro Quadrtico
A Figura 5.3 mostra o comportamento do EQM em excesso para
os algoritmos baseados no erro quadrtico. Na Figura 5.4, a evoluo do
EQM em excesso desses algoritmos analisada considerando uma
mudana abrupta dos parmetros do sistema desconhecido atravs da
multiplicao de todos os seus coeficientes por 1 na iterao 10000.
No cenrio considerado, o algoritmo de Kwong [22] que
apresenta o melhor desempenho, como mostram as Figuras 5.3 e 5.4.

EQM em excesso (dB)

15
10

Farhang [16]
Weepeng [19]

Mathews [14]
Shin [20]

Richards [13]
-5

Shan Modificado [42]


Okello [18]

-10
-15
-20
-25
-30

0,4

0,6

0,8

1,0

1,2

Iteraes

1,4

1,6

1,8

2,0

0,2

0
1

Figura 5.1. Comportamento do EQM em excesso dos algoritmos


baseados no gradiente do erro quadrtico.

132

Captulo 5 Resultados Comparativos de Algoritmos VSSLMS


20

EQM em excesso (dB)

15
10

Farhang [16]
Mathews [14]

Weepeng [19]
Richards [13]

Shan Modificado [42]

-5

Okello [18]
Shin [20]

-10
-15
-20
-25
-30

0,4

0,6

0,8

1,0

1,2

1,4

1,6

1,8

2,0

0,2

Iteraes

0
1

Figura 5.2. EQM em excesso dos algoritmos baseados no gradiente do


erro quadrtico considerando uma mudana abrupta no sistema a ser
identificado.
15

EQM em excesso (dB)

10
5
Nakanishi [23]
0
Costa [24]

-5

Benesty [25]

-10

Kwong [22]

-15
-20
-25
-30

0,4

0,6

0,8

1,0

1,2

Iteraes

1,4

1,6

1,8

2,0

0,2

0
1

Figura 5.3. Comportamento do EQM em excesso dos algoritmos


baseados no erro quadrtico.

Captulo 5 Resultados Comparativos de Algoritmos VSSLMS

133

20

EQM em excesso (dB)

15
10

Nakanishi [23]

Costa [24]

Nakanishi [23]

Kwong [22]

0
Costa [24]

-5

Benesty [25]

Benesty [25]

-10

Kwong [22]

-15
-20
-25
-30

0,4

0,6

0,8

1,0

1,2

1,4

1,6

1,8

2,0

0,2

0
1

Iteraes
Figura 5.4. EQM em excesso dos algoritmos baseados no erro
quadrtico considerando uma mudana abrupta no sistema a ser
identificado.

5.3.3 Algoritmos Baseados na Autocorrelao do Erro


A Figura 5.5 mostra a evoluo do EQM em excesso para os
algoritmos baseados na autocorrelao do erro. J a evoluo do EQM
considerando uma mudana abrupta dos parmetros do sistema
desconhecido, visualizada na Figura 5.6.
Observa-se das Figuras 5.5 e 5.6 o melhor desempenho do
algoritmo AP1 para o cenrio considerado.
5.3.4 Algoritmos Baseados no Valor Absoluto do Erro
Nesta seo, o comportamento do EQM em excesso para os
algoritmos baseados no valor absoluto do erro analisado. Tal
comportamento ilustrado na Figura 5.7. Quando provocada uma
mudana abrupta dos parmetros do sistema desconhecido, o EQM em
excesso comporta-se como mostrado na Figura 5.28. Observa-se nas
Figuras 5.7 e 5.8 que o algoritmo de Kim [31] mostra uma convergncia
mais rpida.

134

Captulo 5 Resultados Comparativos de Algoritmos VSSLMS


15

EQM em excesso (dB)

10
5
0
Aboulnasr [28]

-5
-10

AP1

-15

AP2

-20
-25
-30

0,4

0,6

0,8

1,0

1,2

1,4

1,6

1,8

2,0

0,2

Iteraes

0
1

Figura 5.5. Comportamento do EQM em excesso dos algoritmos


baseados na autocorrelao do erro.
20

EQM em excesso (dB)

15
10
5
0
-5

Aboulnasr [28]

Aboulnasr [28]

-10
AP2

-15

AP2
AP1

AP1

-20
-25
-30

0,4

0,6

0,8

1,0

1,2

Iteraes

1,4

1,6

1,8

2,0

0,2

0
1

Figura 5.6. EQM em excesso dos algoritmos baseados na


autocorrelao do erro considerando uma mudana abrupta no sistema a
ser identificado.

Captulo 5 Resultados Comparativos de Algoritmos VSSLMS

135

15

EQM em excesso (dB)

10
Gollamudi [32]

5
0
-5

Kim [31]

-10
-15
-20
-25
-30

0,4

0,6

0,8

1,0

1,2

1,4

1,6

1,8

2,0

0,2

Iteraes

0
1

Figura 5.7. Comportamento do EQM em excesso dos algoritmos


baseados no valor absoluto do erro.
20

EQM em excesso (dB)

15
10
5

Gollamudi [32]

0
-5

Kim [31]

-10
-15
-20
-25
-30

0,4

0,6

0,8

1,0

1,2

Iteraes

1,4

1,6

1,8

2,0

0,2

0
1

Figura 5.8. EQM em excesso dos algoritmos baseados no valor


absoluto do erro considerando uma mudana abrupta no sistema a ser
identificado.

136

Captulo 5 Resultados Comparativos de Algoritmos VSSLMS

5.3.5 Algoritmos Baseados no Ajuste Proporcional aos Valores


Absolutos do Vetor de Coeficientes
A Figura 5.9 mostra o comportamento do EQM em excesso para
os algoritmos baseados no ajuste proporcional aos valores absolutos do
vetor de coeficientes. Na Figura 5.10 a evoluo do EQM em excesso
mostrada considerando uma mudana abrupta da planta. Assim, no
cenrio considerado, o algoritmo de Benesty (IPNLMS) [36] apresenta
uma convergncia pouco mais rpida.
5.3.6 Algoritmos Baseados na Normalizao do Vetor de Erros, na
Teoria do Passo timo e na Otimizao com Restrio do Rudo
de Medio.
A Figura 5.11 mostra o comportamento do EQM em excesso para
os algoritmos baseados na normalizao do vetor de erros, na teoria do
passo timo e na otimizao com restrio do rudo de medio. Nessa
simulao, o algoritmo de Ramadan [33] converge aps a iterao
30000. Na Figura 5.12, a evoluo do EQM em excesso mostrada
considerando uma mudana abrupta da planta. Assim, no cenrio
considerado, o algoritmo de Wei [37] o que apresenta um melhor
desempenho.
15

EQM em excesso (dB)

10

Rohani [34]

5
0
-5
-10

Benesty (IPNLMS) [36]

-15
-20
-25
-30

0,4

0,6

0,8

1,0

1,2

1,4

1,6

1,8

2,0

0,2

0
1

Iteraes
Figura 5.9. Comportamento do EQM em excesso dos algoritmos
baseados no ajuste proporcional ao vetor w (n).

Captulo 5 Resultados Comparativos de Algoritmos VSSLMS

137

20

EQM em excesso (dB)

15
Rohani [34]

10

Benesty (IPNLMS) [36]

5
0
-5
-10
-15
-20
-25
-30

0,4

0,6

0,8

1,0

1,2

1,4

1,6

1,8

2,0

0,2

Iteraes

0
1

Figura 5.10. EQM em excesso dos algoritmos baseados no ajuste


proporcional ao vetor w (n) considerando uma mudana abrupta na
planta.
15
10

EQM em excesso (dB)

Yan-Bin [38]
5
0
Wei [37]
-5
Ramadan [33]

-10
-15
-20
-25
-30

0,4

0,6

0,8

1,0

1,2

Iteraes

1,4

1,6

1,8

2,0

0,2

0
1

Figura 5.11. Comportamento do EQM em excesso dos algoritmos


baseados na normalizao do vetor de erros, teoria do passo timo e
otimizao com restrio do rudo de medio.

138

Captulo 5 Resultados Comparativos de Algoritmos VSSLMS

5.3.7 Comparao entre os Algoritmos de Melhor Desempenho


A Figura 5.13 apresenta a evoluo do EQM em excesso dos
algoritmos que apresentaram melhor desempenho nas simulaes
realizadas nas Sees 5.3.1 a 5.3.6. Na Figura 5.14, a evoluo do EQM
em excesso desses algoritmos mostrada considerando uma mudana
abrupta da planta.
Observa-se das Figuras 5.13 e 5.14 um melhor desempenho dos
algoritmos de Okello [18], Wei [37] e do algoritmo AP1 .

20

EQM em excesso (dB)

15

Yan-Bin [38]

10
5
Wei [37]

0
-5
-10

Ramadan [33]

-15
-20
-25
-30

0,4

0,6

0,8

1,0

1,2

Iteraes

1,4

1,6

1,8

2,0

0,2

0
1

Figura 5.12. Comportamento do EQM em excesso dos algoritmos


baseados na normalizao do vetor de erros, teoria do passo timo e
otimizao com restrio do rudo de medio considerando uma
mudana abrupta na planta.

Captulo 5 Resultados Comparativos de Algoritmos VSSLMS

139

15
10

EQM em excesso (dB)

Benesty (IPNLMS) [36]


5
Kim [31]
0
Kwong [22]

-5
-10

Wei [37]

Okello [18]

-15
-20
AP1

-25
-30

0,2

0,3

0,4

0,5

0,6

0,7

0,8

0,9

1,0

0,1

Iteraes

0
1

Figura 5.13. Comparao do EQM em excesso dos algoritmos de


melhor desempenho.
20

EQM em excesso (dB)

15

Benesty (IPNLMS) [36]

10
5

Kim [31]
Kwong [22]

0
-5
-10

Wei [37]

-15

Okello [18]

-20
-25

AP1
0,4

0,6

0,8

1,0

1,2

Iteraes

1,4

1,6

1,8

2,0

0,2

0
1

-30
0

Figura 5.14. Comparao do EQM em excesso dos algoritmos de


melhor desempenho considerando uma mudana abrupta na planta.

140

Captulo 5 Resultados Comparativos de Algoritmos VSSLMS

5.4 Concluses

Este captulo apresentou uma breve comparao entre todos os


algoritmos VSSLMS considerados neste trabalho de pesquisa. Em
relao complexidade computacional observou-se que os algoritmos
propostos AP1 e AP2 apresentaram reduzido nmero de operaes,
quando comparados aos seus algoritmos antecessores. Resultados de
simulao verificaram o desempenho de todos algoritmos VSSLMS
avaliados em um cenrio comum de aplicao, utilizando como entrada
um sinal correlacionado. Desses resultados destaca-se o desempenho
muito bom do algoritmo AP1, embora o algoritmo AP2 tenha a
vantagem de no necessitar qualquer ajuste de parmetros e apresentar
melhor imunidade a variaes no nvel de rudo.

CAPTULO 6
Concluses e Comentrios Finais

O algoritmo LMS o mais utilizado em filtragem adaptativa, em


virtude da sua simplicidade e robustez. No algoritmo LMS
convencional, devido utilizao de um passo de adaptao fixo, no
possvel a obteno simultnea de uma rpida convergncia e um
reduzido desajuste em regime permanente. Com isso, diversos
algoritmos LMS de passo varivel (VSSLMS) vm sendo propostos
para contornar tal limitao. Este trabalho trata ento do estudo, da
modelagem estocstica e de novos algoritmos VSSLMS.
Com o objetivo de fornecer uma base terica ao estudo dos
algoritmos VSSLMS, o algoritmo LMS convencional foi brevemente
discutido no Captulo 2. Sua derivao foi apresentada assim como sua
modelagem estocstica desenvolvida luz da Teoria da Independncia.
Tambm, foram abordados aspectos relacionados estabilidade do
referido algoritmo com vistas a escolha do passo de adaptao. Esse
captulo ainda apresentou brevemente o algoritmo LMS normalizado e
uma introduo aos algoritmos VSSLMS.
No Captulo 3, dezoito importantes algoritmos VSSLMS
encontrados na literatura tcnica foram discutidos, sendo cada um deles
brevemente descrito, utilizando para tal uma nomenclatura unificada.
Tambm, foi sugerida uma classificao desses algoritmos segundo o
critrio utilizado para o ajuste do passo de adaptao, sendo ento
propostas oito categorias distintas. Tal classificao tem o propsito de
facilitar a escolha de um algoritmo VSSLMS para uma determinada
aplicao de filtragem adaptativa, assim como apresentar uma
compilao dos principais algoritmos da literatura tcnica. Dos dezoito
algoritmos VSSLMS discutidos no Captulo 3, somente trs possuam
modelos estocsticos recentemente publicados. A modelagem
estocstica de algoritmos VSSLMS possibilita a predio do
desempenho de tais algoritmos para uma dada condio de operao,
permitindo uma melhor compreenso de seu comportamento. O
Captulo 3 apresentou ainda modelos estocsticos de trs diferentes
algoritmos, considerados de grande importncia prtica. Resultados de
simulao comprovaram a preciso dos modelos desenvolvidos.
Um dos objetivos deste trabalho de pesquisa o desenvolvimento
de novos algoritmos VSSLMS, os quais foram apresentados no

142

Captulo 6 Concluses e Comentrios Finais

Captulo 4. Uma modificao em um algoritmo baseado no gradiente do


erro quadrtico foi proposta, resolvendo com isso um problema
elementar de convergncia desse algoritmo. Alm disso, dois novos
algoritmos baseados na autocorrelao do erro foram tambm
apresentados. O primeiro deles, denominado algoritmo AP1, utiliza a
funo de autocorrelao com N lags e foi concebido com o objetivo de
aumentar a velocidade de convergncia na presena de nveis elevados
de rudo de medio. J o segundo algoritmo, denominado AP2, utiliza
a autocorrelao do erro e o erro quadrtico no clculo de uma funo
de controle de passo aplicada a um algoritmo NLMS. Esse esquema
manteve a velocidade de convergncia do algoritmo agregando ainda
uma elevada imunidade a variaes no rudo de medio como tambm
robustez a variaes na potncia no sinal de entrada, alm de no ser
necessrio qualquer ajuste de parmetros. Com isso, o algoritmo AP2
contorna dois principais problemas envolvidos no projeto de filtros
adaptativos, utilizando algoritmos VSSLMS, que so a baixa imunidade
a mudanas no nvel de rudo alm da necessidade freqente de ajuste
de parmetros. O Captulo 4 apresentou tambm uma anlise estatstica
de cada novo algoritmo desenvolvido neste trabalho, originando trs
novos modelos estocsticos. Considerando as estratgias de ajuste dos
passos de adaptao dos algoritmos AP1 e AP2, baseadas na
autocorrelao do erro, o desenvolvimento de seus modelos estocsticos
exigiram um trabalho matemtico intenso, sendo que algumas
aproximaes foram utilizadas para viabilizar seus desenvolvimentos.
Tais aproximaes, quando utilizadas, foram devidamente justificadas.
Resultados de simulao numrica foram ainda apresentados no
Captulo 4, comprovando tanto a eficcia dos novos algoritmos
propostos quando comparados a algoritmos de referncia, quanto a
preciso dos modelos estocsticos desenvolvidos.
No Captulo 5, foram apresentados alguns resultados
comparativos entre todos os algoritmos VSSLMS estudados e discutidos
no Captulo 3, juntamente com os novos algoritmos propostos no
Captulo 4. Uma anlise de complexidade computacional demonstrou
que os novos algoritmos propostos apresentam um nmero menor de
operaes aritmticas, quando comparados maioria dos algoritmos
avaliados. O Captulo 5 traz ainda resultados de simulao numrica
comparando o desempenho de todos os algoritmos discutidos neste
trabalho, considerando um cenrio comum de aplicao. Desses
resultados, destaca-se o bom desempenho do algoritmo proposto AP1

Captulo 6 Concluses e Comentrios Finais

143

que apresentou a maior velocidade de convergncia dentre todos os


algoritmos avaliados.
Como proposta para trabalhos futuros, sugere-se o
desenvolvimento de novos algoritmos VSSLMS no-paramtricos para
utilizao em filtros adaptativos aplicados a sistemas com resposta ao
impulso esparsa. A obteno de novos modelos estocsticos de
algoritmos VSSLMS, sem o uso da suposio de independncia do
passo de adaptao, pode tambm constituir uma continuao deste
trabalho de pesquisa. Trabalhos futuros podem ainda considerar
ferramentas de anlise no-linear aplicadas aos algoritmos VSSLMS
para avaliao de suas caractersticas, tais como estabilidade e
convergncia. Novos trabalhos utilizando projees em espaos
vetoriais podem favorecer a compreenso e o estudo da velocidade de
convergncia e anlise de mnimos locais e/ou globais. Sugere-se ainda
a utilizao de ferramentas de anlise espectral dos algoritmos
propostos. Por fim, sugerida a aplicao prtica dos algoritmos aqui
desenvolvidos em ambientes reais, com a correspondente anlise de
comportamento de tais algoritmos frente a problemas, tais como
quantizao, operao em ponto flutuante ou ponto fixo, questes de
implementao em DSP, dentre outros.

144

Captulo 6 Concluses e Comentrios Finais

Apndice A

Determinao de E[p 2 (n)]


Escrevendo (3.45) em uma forma fechada, resulta em
n 1

p (n) = (1 ) k e(n k )e(n k 1).

(A.1)

k =0

Ento, elevando ao quadrado ambos os lados de (A.1), obtm-se


n 1 n 1

p 2 (n) = (1 )2 j + k e(n k )e(n k 1)e(n j )e(n j 1). (A.2)


j =0 k =0

Usando (2.22), pode-se escrever e(n) em funo de (n). Assim,


e(n) = (n) v T (n)x(n)

(A.3)

e substituindo (A.3) em (A.2), chega-se a


p 2 ( n)
n 1 n 1

= (1 )2 j + k {[(n k ) v T (n k )x(n k )]
j =0 k =0

[(n k 1) v T (n k 1)x(n k 1)]


[(n j ) v T (n j )x(n j )][(n j 1) v T (n j 1)x(n j 1)]}.
(A.4)

Agora, expandindo (A.4), obtm-se

146

Apndice A
n 1 n 1

p 2 (n) = (1 ) 2

j+k

j =0 k =0

{[(n k )(n k 1)(n j )(n j 1)


(n k )(n k 1)(n j ) v T (n j 1)x(n j 1)
(n k )(n k 1)(n j 1) v T (n j )x(n j )
+ (n k )(n k 1) v T (n j )x(n j ) v T (n j 1)x(n j 1)
(n k )(n j )(n j 1) v T (n k 1)x(n k 1)
+ (n k )(n j ) v T (n k 1)x(n k 1) v T (n j 1)x(n j 1)
+ (n k )(n j 1) v T (n k 1)x(n k 1) v T (n j )x(n j )
(n k ) v T (n k 1)x(n k 1) v T (n j )x(n j ) v T (n j 1)
x(n j 1) (n k 1)(n j )(n j 1) v T (n k )x(n k )
+ (n k 1)(n j ) v T (n k )x(n k ) v T (n j 1)x(n j 1)
+ (n k 1)(n j 1) v T (n k )x(n k ) v T (n j )x(n j )
(n k 1) v T (n k )x(n k ) v T (n j )x(n j ) v T (n j 1)
x(n j 1) + (n j )(n j 1) v T (n k )x(n k ) v T (n k 1)
x(n k 1) (n j ) v T (n j 1)x(n j 1) v T (n k )x(n k )
v T (n k 1)x(n k 1) (n j 1) v T (n j )x(n j ) v T (n k )
x(n k ) v T (n k 1)x(n k 1) + v T (n k )x(n k ) v T (n k 1)
x(n k 1) v T (n j )x(n j ) v T (n j 1)x(n j 1)]}.

(A.5)
Assumindo que (n), v (n) e x(n) sejam estatisticamente
independentes (TI) e tomando o valor esperado de ambos os lados de
(A.5), tem-se

Apndice A

147
n 1 n 1

E[p 2 (n)] = (1 )2

j+k

j =0 k =0

{[ E[(n k )(n k 1)(n j )(n j 1)]


+ E[(n k )(n k 1) v T (n j )x(n j ) v T (n j 1)x(n j 1)]
+ E[(n k )(n j ) v T (n k 1)x(n k 1) v T (n j 1)x(n j 1)]
+ E[(n k )(n j 1) v T (n k 1)x(n k 1) v T (n j )x(n j )]
+ E[(n k 1)(n j ) v T (n k )x(n k ) v T (n j 1)x(n j 1)]
+ E[(n k 1)(n j 1) v T (n k )x(n k ) v T (n j )x(n j )]
+ E[(n j )(n j 1) v T (n k )x(n k ) v T (n k 1)x(n k 1)]
+ E[ v T (n k )x(n k ) v T (n k 1)x(n k 1)
v T (n j )x(n j ) v T (n j 1)x(n j 1)]}.
(A.6)
Considerando ainda (n) rudo branco, (A.6) reduzida a
E[p 2 (n)]
n 1 n 1

= (1 ) 2 j + k {[ E[(n k )(n k 1)(n j )(n j 1)]


j =0 k =0

+ E[(n k )(n j ) v T (n k 1)x(n k 1) v T (n j 1)x(n j 1)]


+ E[(n k )(n j 1) v T (n k 1)x(n k 1) v T (n j )x(n j )]
+ E[(n k 1)(n j ) v T (n k )x(n k ) v T (n j 1)x(n j 1)]
+ E[(n k 1)(n j 1) v T (n k )x(n k ) v T (n j )x(n j )]
+ E[ v T (n k )x(n k ) v T (n k 1)x(n k 1)
v T (n j )x(n j ) v T (n j 1)x(n j 1)]}.
(A.7)
Ento, fazendo E[p 2 (n)] = E[ p1 (n)] + E[ p2 (n)], obtm-se

148

Apndice A
n 1 n 1

E[ p1 (n)] = (1 ) 2 j + k
j =0 k =0

{[ E[(n k )(n k 1)(n j )(n j 1)]


+ E[(n k )(n j ) v T (n k 1)x(n k 1) v T (n j 1)x(n j 1)]
+ E[(n k )(n j 1) v T (n k 1)x(n k 1) v T (n j )x(n j )]
+ E[(n k 1)(n j ) v T (n k )x(n k ) v T (n j 1)x(n j 1)]
+ E[(n k 1)(n j 1) v T (n k )x(n k ) v T (n j )x(n j )]}
(A.8)
e
n 1 n 1

E[ p2 (n)] = (1 )2 j + k E[ v T (n k )x(n k ) v T (n k 1)
j =0 k =0

x(n k 1) v T (n j )x(n j ) v T (n j 1)x(n j 1)].


(A.9)

Agora, primeiramente calculando E[ p1 (n)] e considerando k = j em


(A.8), tem-se
{E[ p1 (n)]}k = j
n 1

= (1 ) 2 2 j {[ E[(n j )(n j 1)(n j )(n j 1)]


i =0

+ E[(n j )(n j ) v T (n j 1)x(n j 1) v T (n j 1)x(n j 1)]


+ E[(n j 1)(n j 1) v T (n j )x(n j ) v T (n j )x(n j )]}.
(A.10)
Ento, considerando (n) gaussiano e usando o teorema de fatorao de
momentos gaussianos [1], (A.10) pode ser reescrita como
{E[ p1 (n)]}k = j
n 1

= (1 ) 2 2 j {[4 + 2 E[v T (n j 1)x(n j 1) v T (n j 1) (A.11)


i =0

x(n j 1)] + 2 E[ v T (n j )x(n j ) v T (n j )x(n j )]}.

Apndice A

149

Como os valores esperados em (A.11) so escalares, pode-se ainda


escrever
n 1

{E[ p1 (n)]}k = j = (1 ) 2 2 j
j =0

4 + 2 E{tr[ v T (n j 1)x(n j 1) v T (n j 1)x(n j 1)]} (A.12)

+2 E{tr[ v T (n j )x(n j ) v T (n j )x(n j )]} .

Ento, usando a propriedade tr[ AB] = tr[BA] , tem-se


n 1

{E[ p1 (n)]}k = j = (1 ) 2 2 j

j =0

+ 2 tr{E[x(n

j 1)xT (n j 1)]E[ v(n j 1) v T (n j 1)]}

+2 tr{E[x(n j )xT (n j )]E[ v (n i ) v T (n j )]} .

(A.13)
Substituindo K (n) = E[ v (n) v T (n)] e R = E[x(n)xT (n)] em (A.13),
obtm-se
n 1

{E[ p1 (n)]}k = j = (1 ) 2 2 j {(4 + 2 tr[RK (n j 1) + RK (n)]}.


j =0

Considerando, ento, k = j 1 em (A.8), tem-se

(A.14)

n 1

E[ p1 (n)]k = j 1 = (1 ) 2 2 j 1
j =1

{[ E[(n j + 1)(n j )(n j )(n j 1)]


+ E[(n j + 1)(n j ) v T (n j )x(n j ) v T (n j 1)x(n j 1)]
+ E[(n j )(n j ) v T (n j + 1)x(n j + 1) v T (n j 1)x(n j 1)]
+ E[(n j )(n j 1) v T (n j + 1)x(n j + 1) v T (n j )x(n j )]}.
(A.15)
Aplicando um procedimento similar ao utilizado para obter (A.13),
pode-se reescrever (A.15) como

150

Apndice A
{E[ p1 (n)]}k = j 1
n 1

= (1 ) 2 2 j 1 2 tr{E[x(n j + 1)xT (n j 1)]


j =1

(A.16)

E[ v (n j 1) v T (n j + 1)]} .
Substituindo K 2 (n) = E[ v(n) v T (n 2)] e R 2 = E[x(n)xT (n 2)] em
(A.16), obtm-se
n 1

{E[ p1 (n)]}k = j 1 = (1 ) 2 2 j 12 tr[R 2 K T2 (n j + 1)]. (A.17)


j =1

Note que R 2 obtido sem invocar a TI, j que conforme tal hiptese
E[x(n)xT (n 2)] = 0.
Finalmente, considerando k = j + 1 em (A.8), tem-se
n2

{E[ p1 (n)]}k = j +1 = (1 ) 2 2 j +1
i =0

{[ E[(n j 1)(n j 2)(n j )(n j 1)]


+ E[(n j 1)(n j ) v T (n j 2)x(n j 2) v T (n j 1)x(n j 1)]
+ E[(n j 1)(n j 1) v T (n j 2)x(n j 2) v T (n j )x(n j )]
+ E[(n j 2)(n j ) v T (n j 1)x(n j 1) v T (n j 1)x(n j 1)]
+ E[(n j 2)(n j 1) v T (n j 1)x(n j 1) v T (n j )x(n j )]}.
(A.18)
Novamente, aplicando um procedimento similar ao utilizado para obter
(A.13), pode-se reescrever (A.18) como
{E[ p1 (n)]}k = j +1
n2

= (1 ) 2 2 j +1 2 {trE[x(n j 2)xT (n j ) v (n j ) v T (n j 2)]}


j =0

(A.19)
e substituindo K 2 (n) e R 2 em (A.19), chega-se a

Apndice A

151
n2

{E[ p1 (n)]}k = j +1 = (1 ) 2 2 j +12 tr[R T2 K 2 (n j )]

(A.20)

j =0

Para as demais combinaes de j e k, todos os termos de (A.8)


so nulos. Ento E[ p1 (n)] pode ser obtido de

n 1
E[ p1 (n)] = (1 )2 2 j {4 + 2 tr[RK (n j 1) + RK (n)]}
j =0

n 1

j =1

2 j 12 tr[R 2 K T2 (n

n2

j + 1)] +

j =0

2 j +12 tr[R T2 K 2 (n

j )] .

(A.21)

Pode-se desde j observar a forte dependncia de E[ p1 (n)] em


relao a varincia do rudo aditivo 2 . Determina-se a seguir
E[ p2 (n)]. Aplicando o operador trao de matriz em (A.9) e utilizando a
propriedade tr[ AB] = tr[BA], obtm-se
E[ p2 (n)]
n 1 n 1

= (1 ) 2 j + k E{tr[x(n j )xT (n j 1) v(n j 1) v T (n k )


j =0 k =0

x(n k )xT (n k 1) v (n k 1) v T (n j )]}.


(A.22)
Fazendo agora a seguinte aproximao
E[ p2 (n)]
n 1 n 1

(1 ) 2 j + k tr{E[x(n j )xT (n j 1)]E[ v (n j 1) v T (n k )]


j =0 k =0

E[x(n k )xT (n k 1)]E[ v(n k 1) v T (n j )]}


(A.23)
e substituindo R1 = E[x(n)xT (n 1)] e K l (n) = E[ v (n) v T (n l )] em
(A.23), chega-se a

152

Apndice A

E[ p2 (n)]
n 1 n 1

(1 ) 2 j + k tr{R1K k j 1 (n j 1)]R1K j k 1 (n k 1)}.

(A.24)

j =0 k =0

Ento, E[p 2 (n)] pode ser completamente determinado pela


seguinte expresso:
E[ p 2 (n)] = E[ p1 (n)] + E[ p2 (n)]
n 1
= (1 )2 2 j {4 + 2 tr[RK (n j 1) + RK (n)]}
j =0

n 1

n2

j =1

j =0

+ 2 j 12 tr[R 2 K T2 (n j + 1)] + 2 j +12 tr[R T2 K 2 (n j )]

(A.25)

+ j + k tr{R1K k j 1 (n j 1)]R1K j k 1 (n k 1)} .

j =0 k =0

n 1 n 1

Como os elementos de K k j 1 e K j k 1 se tornam muito pequenos


medida que
2

j k aumenta, assume-se que E[p1 (n)]

E[ p2 (n)] e

E[p (n)] E[p1 (n)] . Com isso a expresso para E[ p (n)] pode ser
aproximada por
E[ p 2 (n)]
n 1
(1 ) 2 2 j {4 + 2 tr[RK (n j 1) + RK (n)])}
j =0

n 1
n2

+ 2 j 12 tr[R 2 K T2 (n j + 1)] + 2 j +12 tr[R T2 K 2 (n j )] .

j =1
j =0

(A.26)

Apndice B
Determinao de E[p(n)]
Escrevendo (4.10) em uma forma fechada, resulta em
n 1

k =0

i =1

n 1

k =0

i =1

p (n) = (1 ) k [e(n k )e(n k i )]2

(B.1)

ou ainda
p (n) = (1 ) k [e2 (n k )e2 (n k i )].

(B.2)

Agora, substituindo (A.3) em (B.2), obtm-se


n 1

k =0

i =1

p (n) = (1 ) k {[(n k ) v T (n k )x(n k )]2

(B.3)

[(n k i ) v T (n k i)x(n k i )]2 }.


Expandindo ento (B.3), resulta em
n 1

k =0

i =1

p (n) = (1 ) k [(n k )(n k )(n k i)(n k i )


(n k )(n k )(n k i) v T (n k i )x(n k i)
(n k )(n k )(n k i) v T (n k i )x(n k i)
+ (n k )(n k ) v T (n k i )x(n k i) v T (n k i )x(n k i )
(n k )(n k i )(n k i ) v T (n k )x(n k )
+ (n k )(n k i ) v T (n k )x(n k ) v T (n k i)x(n k i )
+ (n k )(n k i ) v T (n k )x(n k ) v T (n k i)x(n k i )
(n k ) v T (n k )x(n k ) v T (n k i)x(n k i ) v T (n k i )
x(n k i ) (n k )(n k i)(n k i ) v T (n k )x(n k )
+ (n k )(n k i ) v T (n k )x(n k ) v T (n k i)x(n k i )
+ (n k )(n k i ) v T (n k )x(n k ) v T (n k i)x(n k i )
(n k ) v T (n k )x(n k ) v T (n k i)x(n k i ) v T (n k i )

154

Apndice B

x(n k i ) + (n k i )(n k i ) v T (n k )x(n k ) v T (n k )


x(n k ) (n k i ) v T (n k i )x(n k i) v T (n k )x(n k )
v T (n k )x(n k ) (n k i ) v T (n k i )x(n k i) v T (n k )
x( n k ) v T ( n k ) x( n k ) + v T ( n k ) x( n k ) v T ( n k ) x( n k )
v T (n k i )x(n k i ) v T (n k i )x(n k i)].
(B.4)
Assumindo novamente (n),
v (n) e x(n) estatisticamente
independentes e tomando o valor esperado de (B.4), chega-se a
n 1

k =0

i =1
T

E[p (n)] = (1 ) k {E[(n k )(n k )(n k i )(n k i )]


+ E[(n k )(n k ) v (n k i )x(n k i ) v T (n k i )x(n k i )]
+2E[(n k )(n k i ) v T (n k )x(n k ) v T (n k i )x(n k i)]
+2 E[(n k )(n k i ) v T (n k )x(n k ) v T (n k i )x(n k i )]
+ E[(n k i )(n k i ) v T (n k )x(n k ) v T (n k )x(n k )]
+ E[ v T (n k )x(n k ) v T (n k )x(n k )
v T (n k i )x(n k i ) v T (n k i)x(n k i)]}.
(B.5)
Tomando agora E[ p (n)] = E[ p1 (n)] + E[ p2 (n)] , obtm-se
n 1

E[p1 (n)] = (1 ) k {E[(n k )(n k )(n k i)(n k i )]


k =0

i =1

+ E[(n k )(n k ) v (n k i )x(n k i ) v T (n k i )x(n k i )]


+2E[(n k )(n k i ) v T (n k )x(n k ) v T (n k i )x(n k i)]
+2 E[(n k )(n k i ) v T (n k )x(n k ) v T (n k i )x(n k i )]
+ E[(n k i )(n k i ) v T (n k )x(n k ) v T (n k )x(n k )]}
(B.6)
e

Apndice B

155
n 1

k =0

i =1

E[p2 (n)] = (1 ) k E[ v T (n k )x(n k ) v T (n k )x(n k )


T

(B.7)

v (n k i )x(n k i) v (n k i )x(n k i )].


Primeiramente determina-se E[p1 (n)]. Assumindo (n) rudo branco
em (B.6), resulta em
n 1

E[p1 (n)] = (1 ) k {[ E[(n k )(n k )(n k i )(n k i )]


k =0

i =1

+ E[(n k )(n k ) v (n k i )x(n k i) v T (n k i )x(n k i)]


+ E[(n k i )(n k i) v T (n k )x(n k ) v T (n k )x(n k )]}.
(B.8)
Agora, aplicando o teorema de fatorao de momentos gaussianos[1] e
levando em conta que os valores esperados em (B.8) so escalares, temse

E[p1 (n)]
n 1

k =0

i =1

= (1 ) k (4 + 2 {E[tr{v T (n k i )x(n k i ) v T (n k i )
x(n k i )}] + E[tr{v T (n k )x(n k ) v T (n k )x(n k )}]}).
Aplicando agora a propriedade tr[ AB] = tr[BA] ,
n 1

(B.9)

E[p1 (n)] = (1 ) k (4

k =0
i =1
2
T
+{E[tr{x(n k i )x (n k

i) v (n k i ) v T (n k i)}]

(B.10)

+ E[tr{x(n k )xT (n k ) v (n k ) v T (n k )}]})


e substituindo K (n) = E[ v (n) v T (n)] e R = E[x(n)xT (n)] em (B.10),
chega-se a
n 1

k =0

i =1

E[p1 (n)] = (1 ) k (4 + 2 {tr[RK (n k i ) + RK (n k )]}).


(B.11)

156

Apndice B
Determina-se agora E[ p2 (n)] , utilizando o mesmo procedimento

usado para o clculo de E[p1 (n)]. Assim,


E[ p2 (n)]
n 1

k =0

i =0

= k E[ v T (n k )x(n k ) v T (n k )x(n k )
v T (n k i )x(n k i ) v T (n k i )x(n k i)]
n 1

k =0

i =0

= k E{tr[x(n k i )xT (n k i) v (n k i ) v T (n k )
x(n k )xT (n k ) v(n k ) v T (n k i )]}

n 1

k =0

i =0

k tr{E[x(n k i)xT (n k i)]E[ v(n k i) vT (n k )]


E[x(n k )xT (n k )]E[ v(n k ) v T (n k i )]}

n 1

k =0
n 1

i =0
N

k =0

i =0

= k tr{RE[ v (n k i ) v T (n k )]RE[ v (n k ) v T (n k i )]}


= k tr{RK iT (n k )]RK i (n k )}.
(B.12)
Ento, E[p (n)] pode ser determinado por
E[p (n)] = E[ p1 (n)] + E[ p2 (n)]
n 1

= (1 ) k (4 + 2 {tr[RK (n k i ) + RK (n k )]}
k =0

i =1
T
tr{RK i (n k )RK i (n k )}).

(B.13)

Apndice C
Determinao de E[q 2 (n)]
Escrevendo (4.30) como segue:
n 1

q(n) = (1 ) k e2 (n k )

(C.1)

k =0

e elevando ao quadrado ambos os lados de (C.1), tem-se


n 1 n 1

q 2 (n) = (1 )2 j + k e 2 (n k )e2 (n j ).

(C.2)

j =0 k =0

Agora, substituindo (A.3) em (C.2), resulta em


n 1 n 1

q 2 (n) = (1 ) 2 j + k {[(n k ) v T (n k )x(n k )]2 [(n j )


j =0 k =0

v T (n j )x(n j )]2 }.

(C.3)
Ento, expandindo (C.3), obtm-se
n 1 n 1

q 2 (n) = (1 ) 2

j + k {[(n k )(n k )(n j )(n j )

j =0 k =0

(n k )(n k )(n j ) v T (n j )x(n j ) (n k )(n k )(n j )


v T (n j )x(n j ) + (n k )(n k ) v T (n j )x(n j ) v T (n j )
x(n j ) (n k )(n j )(n j ) v T (n k )x(n k )
+ (n k )(n j ) v T (n k )x(n k ) v T (n j )x(n j )
+ (n k )(n j ) v T (n k )x(n k ) v T (n j )x(n j )
(n k ) v T (n k )x(n k ) v T (n j )x(n j ) v T (n j )x(n j )
(n k )(n j )(n j ) v T (n k )x(n k )

158

Apndice C
+ (n k )(n j ) v T (n k )x(n k ) v T (n j )x(n j )
+ (n k )(n j ) v T (n k )x(n k ) v T (n j )x(n j )
(n k ) v T (n k )x(n k ) v T (n j )x(n j ) v T (n j )x(n j )
+ (n j )(n j ) v T (n k )x(n k ) v T (n k )x(n k )
(n j ) v T (n j )x(n j ) v T (n k )x(n k ) v T (n k )x(n k )
(n j ) v T (n j )x(n j ) v T (n k )x(n k ) v T (n k )x(n k )
+ v T ( n k ) x( n k ) v T ( n k ) x( n k ) v T ( n j ) x( n j ) v T ( n j )
x(n j )]}.
(C.4)

Assumindo, novamente, (n), v (n) e x(n) estatisticamente


independentes e tomando o valor esperado em ambos lados de (C.4),
tem-se
n 1 n 1

E[q 2 (n)] = (1 )2

j+k

j =0 k =0

{[ E[(n k )(n k )(n j )(n j )]


+ E[(n k )(n k ) v T (n j )x(n j ) v T (n j )x(n j )]
+2E[(n k )(n j ) v T (n k )x(n k ) v T (n j )x(n j )]
T

+2 E[(n k )(n j ) v (n k )x(n k ) v (n j )x(n j )]


+ E[(n j )(n j ) v T (n k )x(n k ) v T (n k )x(n k )]
+ E[ v T (n k )x(n k ) v T (n k )x(n k ) v T (n j )x(n j )
v T (n j )x(n j )]}.
Fazendo agora E[q 2 (n)] = E[q1 (n)] + E[q2 (n)], obtm-se

(C.5)

Apndice C

159

E[q1 (n)]
n 1 n 1

= (1 ) 2

j + k {[ E[(n k )(n k )(n j )(n j )]

j =0 k =0

+ E[(n k )(n k ) v T (n j )x(n j ) v T (n j )x(n j )]


T

(C.6)

+ 2E[(n k )(n j ) v (n k )x(n k ) v (n j )x(n j )]


+ 2 E[(n k )(n j ) v T (n k )x(n k ) v T (n j )x(n j )]
+ E[(n j )(n j ) v T (n k )x(n k ) v T (n k )x(n k )]}
e
n 1 n 1

E[q2 (n)] = (1 ) 2

j + k E[ v T ( n k ) x ( n k ) v T ( n k ) x ( n k )

j =0 k =0

v (n j )x(n j ) v T (n j )x(n j )].

(C.7)
Agora, primeiramente calculando E[q1 (n)] e considerando k = j
em (C.6), tem-se
{E[q1 (n)]}k = j
n 1

= (1 ) 2 2i {E[(n j ) 4 ]

(C.8)

j =0

+ 6 E[(n j )2 v T (n j )x(n j ) v T (n j )x(n j )]}.

Considerando agora o teorema de fatorao de momentos gaussianos


[1], (C.8) pode ser reescrita como
{E[q1 (n)]}k = j
n 1

= (1 ) 2 2 j {[34 + 62 E[v T (n j )x(n j ) v T (n j )x(n j )]}.


i =0

(C.9)
Como os valores esperados em (C.9) so escalares, pode-se escrever

160

Apndice C

{E[q1 (n)]}k = j
n 1

= (1 ) 2 2 j (34 + 62 E{tr[v T (n j )x(n j ) v T (n j )x(n j )]}).


j =0

(C.10)
Utilizando novamente a propriedade tr(AB) = tr(BA ) , tem-se
{E[q1 (n)]}k = j
n 1

= (1 ) 2 2 j ([34 + 62 E{tr[x(n j )xT (n j )}

(C.11)

j =0

E{tr[ v(n j ) v T (n j )]}).

Agora, calculando o valor esperado de (C.11), obtm-se


n 1

{E[q1 (n)]}k = j = (1 )2 2 j {34 + 62 tr[RK (n j )]} (C.12)


j =0

Considerando agora j k em (C.6), tem-se


n 1 n 1

{E[q1 (n)]} j k = (1 )2 j + k
j =0 k =0

{E[(n k )(n k )(n j )(n j )]

(C.13)

+ E[(n k )(n k ) v T (n j )x(n j ) v T (n j )x(n j )]


+ E[(n j )(n j ) v T (n k )x(n k ) v T (n k )x(n k )]}
Aplicando novamente o teorema de fatorao de momentos gaussianos
[1] e usando o operador trao, (C.13) pode ser reescrita como
{E[q1 (n)]} j k
n 1 n 1

= (1 ) 2

j + k (4 + 2 {E[tr{vT (n j )x(n j ) vT (n j )

j =0 k =0

x(n j )}] + E[tr{v T (n k )x(n k ) v T (n k )x(n k )}]}).

(C.14)
Aplicando, novamente, a propriedade tr(AB) = tr(BA), obtm-se

Apndice C

161

{E[q1 (n)]} j k
n 1 n 1

= (1 ) 2

j + k (4 + 2 {E[tr{x(n j )xT (n j ) v(n j )

j =0 k =0

v (n j )}] + E[tr{x(n k )xT (n k ) v (n k ) v T (n k )}]})


(C.15)
resultando em
{E[q1 (n)]} j k
n 1 n 1

= (1 ) 2

j + k (4 + 2 {tr[RK (n j ) + RK (n k )]}).

(C.16)

j =0 k =0

Assim, E[q1 (n)] pode ser obtido de


n 1

E[q1 (n)] = (1 ) 2 ( 2 j {34 + 62 tr[RK (n j )]}


j =0

n 1 n 1

+ j + k {4 + 2 tr[RK (n j ) + RK (n k )]}).

(C.17)

j =0 k =0
j k

Determina-se a seguir E[q2 (n)]. Aplicando o operador trao de


matriz em (C.7) e usando a propriedade tr(AB) = tr(BA), tem-se
E[q2 (n)]
n 1 n 1

= (1 ) 2

j + k E{tr[x(n j )xT (n j ) v(n j ) vT (n k )

(C.18)

j =0 k =0

x(n k )xT (n k ) v (n k ) v T (n j )]}.


Considerando agora a seguinte aproximao:
E[q2 (n)]
n 1 n 1

(1 ) 2

j + k tr{E[x(n j )xT (n j )]E[ v(n j ) vT (n k )]

j =0 k =0

E[x(n k )xT (n k )]E[ v (n k ) v T (n j )]}


(C.19)

162

Apndice C

e substituindo R e K l (n) em (C.19), tem-se


n 1 n 1

E[q2 (n)] (1 )2

j + k tr{RK k j (n j )]RK j k (n k )}. (C.20)

j =0 k =0

Ento, E[q 2 (n)] pode ser obtido por


E[q 2 (n)] = E[q1 (n)] + E[q2 (n)]
n 1

= (1 )2 ( 2i {34 + 62 tr[RK (n i )]}


i =0

n 1 n 1

j + k {4 + 2 tr[RK (n j ) + RK (n k )]})

(C.21)

j = 0] k = 0
jk
n 1 n 1

+ j + k tr{RK k j (n j )]RK j k (n k )})


j =0 k =0

Como os elementos de K k j e K j k se tornam muito pequenos


medida que

jk

aumenta, assume-se que E[q1 (n)]

E[q2 (n)] e

E[q 2 (n)] E[q1 (n)]. Com isso a expresso para E[q 2 (n)] pode ser
aproximada por
n 1

E[q 2 (n)] (1 )2 ( 2i {34 + 62 tr[RK (n i )]}


i =0

n 1 n 1

+ j + k {4 + 2 tr[RK (n j ) + RK (n k )]}).
j =0 k =0
j k

(C.22)

Referncias Bibliogrficas
[1] S. Haykin, Adaptive Filter Theory, 4th ed. Upper Saddle River,
NJ: Prentice Hall, 2002.
[2] J. V. Lopez, J. C. Sanchez, H. P. Meana, Adaptive echo
canceller using a modified LMS algorithm, in Proc. 2nd Int.
Conf. on Electrical and Electronics Engineering (ICEEE),
Mexico City, Mexico, Sep. 2005, pp. 93-96.
[3] B. Farhang-Boroujeny, Channel equalization via channel
identification: algorithms and simulation for rapidly fading HF
channels, IEEE Trans. Communications, vol. 44, no. 11,
pp. 1409-1412, Nov. 1996.
[4] S. M. Kuo and D. R. Morgan, Active noise control: a tutorial
review, Proc. of the IEEE, vol. 87, no. 6, pp. 943-973,
Jun. 1999.
[5] M. Mboup, M. Bonnet, and N. Bershad, LMS coupled adaptive
prediction and system identification: a statistical model and
transient mean analysis. IEEE Trans. Signal Process., vol. 42,
no. 10, pp. 2607-2615, Oct. 1994.
[6] B. Widrow and M. Hoff, Adaptive switching circuits, in Proc.
IRE Western Electronic Show and Convention, New York, USA,
Part.4, Aug. 1960, pp. 96-104.
[7] AL. M. Nelson, P. Axelrad, and D. M. Etter, Adaptive detection
of code delay and multipath in a simplified gps signal model,
Proc. 10th Int. Tec. Meet. Sat. Div. of the Instit. of Navigat.(ION
GPS), Kansas City, USA, vol. 1, Sep. 1997, pp. 569-580.
[8] H. Yang and Wen-Rong Wu, A novel adaptive code acquisition
using antenna array for DS/CDMA systems, in Proc. of IEEE
Int. Work. Small Antennas and Novel Metamaterials (IWAT),
Singapore, Mar. 2005, pp. 458-461.
[9] M. Shafiq, Internal model control structure using adaptive
inverse control strategy, ISA Trans., vol. 44, no. 3, pp. 353-362,
Jul. 2005.

164

Referncias Bibliogrficas

[10] J. Fei, G. Song, Adaptive feedforward model reference control


scheme for vibration suppression, Proc. IEEE Int. Symp.
Intelligent Control, Taipei, Taiwan, Sep. 2004, pp. 357-362.
[11]

A. H. Sayed, Fundamentals of Adaptive Filtering, Hoboken, NJ:


J. Wiley & Sons: IEEE Press, 2003.

[12] R. W. Harris, D. M. Chabries, and F. A. Bishop, A variable step


(VS) adaptive filter, IEEE Trans. Acoust., Speech, Signal
Process., vol. ASSP-34, no. 2, pp. 309-316, Apr. 1986.
[13] J. C. Richards, M. A. Webster, and J. C. Principe, A gradientbased variable step-size LMS algorithm, in Proc. IEEE
Southeastcon, Williamsburg, USA, vol. 2, Apr. 1991,
pp. 1083-1087.
[14] V. J. Mathews and Z. Xie, A stochastic gradient adaptive filter
with gradient adaptive step size, IEEE Trans. Signal Process.,
vol. 41, no. 6, pp. 2075-2087, Jun. 1993.
[15] A. I. Sulyman and A. Zerguine, Convergence and steady state
analysis of a variable step-size normalized LMS algorithm,
Proc. IEEE Int. Symp. Signal Processing and Its Applications
(ISSPA), Paris, France, vol. 2, Jul. 2003, pp. 591-594.
[16] B. Farhang-Boroujeny, Variable step size LMS algorithm New
developments and experiments, IEE Proceedings Vision,
Image, Signal Process., vol. 141, no. 5, pp. 311-317, Oct. 1994.
[17] T. J. Shan and T. Kailath, Adaptive algorithms with an
automatic gain control feature, IEEE Trans. Circuits Syst.,
vol. CAS-35, no. 1, pp. 122-127, Jan. 1988.
[18] J. Okello, Y. Itoh, Y. Fukui, I. Nakanishi, and M. Kobayashi, A
new modified variable step size for the LMS algorithm, in Proc.
IEEE Int. Symp. Circuits and Systems (ISCAS), Monterey, USA,
vol. 5, Jun. 1998, pp. 170-173.
[19] W. P. Ang and B. Farhang-Boroujeny, A new class of gradient
adaptive step-size LMS algorithms, IEEE Trans. Signal
Process., vol. 49, no. 4, pp. 805-810, Apr. 2001.
[20] H. C. Shin, A. H. Sayed and W. J. Song, Variable step-size
NLMS and affine projection algorithms, IEEE Signal Processing
Letters, vol. 11, no. 2, pp. 132-135, Feb. 2004.

Referncias Bibliogrficas

165

[21] Yun-Long Bi, Feng-Chang Lai, Yi-Zheng Ye, Gradient vector


driven variable step size least mean square algorithm, in Proc.
2nd International Asia Conference on Informatics in Control,
Mar. 2010.
[22] R. H. Kwong and E. W. Johnston, A variable step size LMS
algorithm, IEEE Trans. Signal Process., vol. 40, no. 7,
pp. 1633-1642, Jul. 1992.
[23] I. Nakanishi and Y. Fukui, A new adaptive convergence factor
algorithm with the constant damping parameter, IEICE Trans.
Fundamentals, vol. E78-A, no. 6, pp. 649-655, Jun. 1995.
[24] M. H. Costa and J. C. M. Bermudez, A robust variable step size
algorithm for LMS adaptive filters, in Proc. IEEE Int. Conf.
Acoust., Speech, Signal Process., Toulouse, France, vol. 3,
May 2006, pp. 93-96.
[25] J. Benesty, H. Rey, L. R. Vega, and S. Tressens, A
nonparametric VSS NLMS algorithm, IEEE Signal Processing
Letters, vol. 13, no. 10, pp. 581-584, Oct. 2006.
[26] Jeng-Kuang Hwang and Yuan-Ping Li. Variable step-size LMS
algorithm with a gradient-based weighted average, IEEE Signal
Processing Letters, vol. 16, no. 12, pp. 1043-1046, Dec. 2009.
[27] H. Takekawa, T. Shimamura, and S. A. Jimaa, An efficient and
effective variable step-size NLMS algorithm, in Proc. 42nd
ASILOMAR Conference on Signals, Systems and Computers,
Pacific Grove, USA, Oct. 2008.
[28] T. Aboulnasr and K. Mayyas, A robust variable step-size LMStype algorithm: analysis and simulations, IEEE Trans. Signal
Process., vol. 45, no. 3, pp. 631-639, Mar. 1997.
[29] J. G. F. Zipf, O. J. Tobias, R. Seara, A new VSSLMS algorithm
based on error autocorrelation, in Proc. Europ. Signal Process.
Conf. (EUSIPCO), Lausanne, Switzerland, Aug. 2008, pp. 1-5.
[30] J. G. F. Zipf, O. J. Tobias, R. Seara, Non-parametric
VSS-NLMS algorithm with control parameter based on the error
correlation, in Proc. 7th International Telecommunications
Symposium (ITS 2010), Manaus, AM, Brazil, Sep. 2010, pp. 1-6.

166

Referncias Bibliogrficas

[31] D. W. Kim, J. H. Hoi, Y. S. Choi, C. H. Jeon, and H. Y. Ko, A


VS-LMS algorithm using normalized absolute estimation error,
in Proc. IEEE Digital Signal Processing Applications
(TENCON), Perth, Australia, vol. 2, Nov. 1996, pp. 692-697.
[32] S. Gollamudi, S. Nagaraj, S. Kapoor, and Y. Huang, Setmembership filtering and a set-membership normalized LMS
algorithm with an adaptive step size, IEEE Signal Process. Lett.,
vol. 5, no. 5, pp. 111-114, May 1998.
[33] Z. Ramadan and A. Poularikas, A robust variable step-size LMS
algorithm using error-data normalization, in Proc. IEEE
Southeastcon, Huntsville, USA, Apr. 2005, pp. 219-224.
[34] B. Rohani and K. S. Chung, A modified LMS algorithm with
improved convergence, in Proc. IEEE Singapore Int. Conf.
Communication Systems, Singapore, Nov. 1994, pp. 845-849.
[35] D. L. Duttweiler, Proportionate normalized LMS adaptation in
echo cancellers, IEEE Trans. Speech Audio Process., vol. 8,
no. 5, pp. 508-518, Sep. 2000.
[36] J. Benesty and S. L. Gay, An improved PNLMS algorithm, in
Proc. IEEE Int. Conf. Acoust., Speech, Signal Process., Orlando,
USA, May 2002, pp. 1881-1884.
[37] Y. Wei and S. B. Gelfand, Noise-constrained least mean squares
algorithm, IEEE Trans. Signal Process., vol. 49, no. 9,
pp. 1961-1970, Sep. 2001.
[38] Q. Yan-bin, M. Fan-gang, and G. Lei, A new variable step size
LMS adaptive filtering algorithm, in Proc. IEEE Int. Symp.
Industrial Electronics, Vigo, Spain, Jun. 2007, pp. 1601-1605.
[39] L. R. Vega, H. Rey and J. Benesty, A New Robust Variable
Step-Size NLMS Algorithm, IEEE Trans. Signal Process.,
vol. 56, no. 5, pp. 1878-1893, May 2008.
[40] Li Xiao-bo, Fan Yang-yu and Peng Ke, A variable step-size
LMS adaptive filtering algorithm, in Proc. 5th Int. Conf.
Wireless Communications, Networking and Mobile Computing,
Beijing, China, Sep. 2009, pp. 2283-2286.

Referncias Bibliogrficas

167

[41] J. G. F. Zipf, O. J. Tobias, R. Seara, Estudo comparativo e


classificao de algoritmos LMS de passo varivel, in Anais do
XXV Simpsio Brasileiro de Telecomunicaes (SBrT), Recife,
PE, Brasil, Set. 2007, pp. 1-6.
[42] J. G. F. Zipf, O. J. Tobias, R. Seara, Modelo estocstico para o
algoritmo de Shan de passo varivel modificado, in Anais do
XXV Simpsio Brasileiro de Telecomunicaes (SBrT), Recife,
PE, Brasil, Set. 2007, pp. 1-6.
[43] J. G. F. Zipf, O. J. Tobias, R. Seara, New insights on the noise
constrained LMS algorithm, in Proc. IEEE Int. Conf. Acoust.,
Speech, Signal Process. (ICASSP), Hawaii, USA, Apr. 2007,
pp. 1365-1368.
[44] J. G. F. Zipf, O. J. Tobias, R. Seara, Estudo e modelo estocstico
do algoritmo LMS restrito ao rudo de medio, in Anais do XXV
Simpsio Brasileiro de Telecomunicaes (SBrT), Recife, PE,
Brasil, Set. 2007, pp. 1-6.
[45] J. G. F. Zipf, O. J. Tobias, R. Seara, Modelo estocstico do
algoritmo LMS de passo varivel baseado no gradiente do sinal
de erro quadrtico, in Anais do XXVI Simpsio Brasileiro de
Telecomunicaes (SBrT), Rio de Janeiro, RJ, Brasil, Set. 2008,
pp. 1-6.
[46] J. E. Kolodziej, O. J. Tobias, R. Seara, An improved stochastic
model of the NLMS algorithm for correlated input data, in Proc.
Europ. Signal Process. Conf. (EUSIPCO), Poznand, Poland,
Sep. 2007, pp. 360-364.
[47] S. B. Gelfand, Y. Wei, and J. V. Krogmeier, The stability of
variable step-size LMS algorithms, IEEE Trans. Signal Process.,
vol. 47, no. 12, pp. 3277-3288, Dec. 1999.
[48] H. Robbins and S. Monro, A stochastic approximation method,
Annals of Mathematical Statistics, vol. 22, no. 3, pp. 400-407,
Sep. 1951.

Você também pode gostar