Você está na página 1de 196

UNIVERSIDADE FEDERAL DO MARANHO

PR-REITORIA DE PS-GRADUAO
DEPARTAMENTO DE ENGENHARIA DE ELETRICIDADE
PROGRAMA DE PS-GRADUAO EM ENGENHARIA DE ELETRICIDADE

CSAR AUGUSTO SANTANA CASTELO BRANCO

ALGORITMOS ADAPTATIVOS LMS NORMALIZADOS


PROPORCIONAIS: PROPOSTA DE NOVOS ALGORITMOS PARA
IDENTIFICAO DE PLANTAS ESPARSAS

So Lus, MA
2016
ii

UNIVERSIDADE FEDERAL DO MARANHO


PR-REITORIA DE PS-GRADUAO
DEPARTAMENTO DE ENGENHARIA DA ELETRICIDADE
PROGRAMA DE PS-GRADUAO EM ENGENHARIA DE ELETRICIDADE

CSAR AUGUSTO SANTANA CASTELO BRANCO

ALGORITMOS ADAPTATIVOS LMS NORMALIZADOS


PROPORCIONAIS: PROPOSTA DE NOVOS ALGORITMOS PARA
IDENTIFICAO DE PLANTAS ESPARSAS

Dissertao submetida ao Programa


de Ps-Graduao em Engenharia de
Eletricidade da Universidade Federal
do Maranho para a obteno do grau
de Mestre em Engenharia Eltrica.

Orientador: Prof. Dr. Francisco das Chagas de Souza

So Lus, MA
2016
iii
iv

AGRADECIMENTOS
v

Agradeo primeiramente a Deus, digno de toda a honra, toda a glria, todo o


louvor e toda a adorao, por me permitir cursar a ps-graduao. Apesar de todas as
dificuldades que passei durante este perodo, senti o mover da sua mo, Pai, me ajudando,
protegendo, dando fora e cuidando de mim e de minha famlia. Agradeo tambm a meu
pai e minha me por todo o amor, cuidado, e sacrifcios que fizeram de bom grado para
que eu pudesse chegar at aqui e, quem sabe, poder honrar um pouco todo o seu esforo
para comigo. Deixo tambm um agradecimento especial minha noiva e companheira
insubstituvel, Julianna Santos Farias, pelo incentivo e apoio to necessrios nos
momentos mais difceis.
Presto tambm aqui um enorme agradecimento ao meu orientador, o Prof. Dr.
Francisco das Chagas de Souza, por sua pacincia, dedicao, compreenso e
ensinamentos valorosos que me fizeram evoluir como pesquisador e como pessoa. Com
certeza levarei comigo seus conselhos, dicas, opinies e explicaes pelo resto da minha
vida profissional.
Agradeo tambm Universidade Federal do Maranho, em especial ao Programa
de Ps-Graduao em Engenharia de Eletricidade, pela oportunidade de fazer parte da
sua histria e dar a minha pequena parcela de contribuio. Deixo tambm meu
agradecimento CAPES e ao CNPq pelo apoio financeiro no desenvolvimento do projeto
de pesquisa e na publicao e apresentao dos artigos cientficos aceitos.
vi

Dedico este trabalho a Raimundo Santana


Castelo Branco e Maria da Paixo Castelo
Branco, meus amados pais e verdadeiros
heris.
vii

RESUMO

Neste trabalho, novas metodologias para otimizar a escolha dos parmetros dos
algoritmos adaptativos LMS normalizados proporcionais (PNLMS) so propostas. As
abordagens propostas usam procedimentos baseados em dois mtodos de otimizao, a
saber, os mtodos da razo urea e da busca tabu. Tais procedimentos so empregados
para determinar os parmetros timos em cada iterao do processo de adaptao dos
algoritmos PNLMS e PNLMS melhorado (IPNLMS). A funo objetivo adotada pelos
procedimentos propostos baseada no erro de estimao a posteriori. O estudo de
desempenho realizado para avaliar o impacto dos parmetros dos algoritmos PNLMS e
IPNLMS no comportamento dos mesmos mostram que, com o auxlio de tcnicas de
otimizao para escolher adequadamente tais parmetros, o desempenho destes
algoritmos pode ser melhorado, em termos de velocidade de convergncia, para a
identificao de plantas com elevado grau de esparsidade. O principal objetivo das
metodologias propostas melhorar a distribuio da energia de ativao entre os
coeficientes dos algoritmos PNLMS e IPNLMS, usando valores de parmetros que levam
ao erro de estimao mnimo em cada iterao do processo de adaptao. Testes
numricos realizados (considerando diversos cenrios nos quais a resposta impulsiva da
planta esparsa) mostram que as metodologias propostas alcanam velocidades de
convergncia superiores s dos algoritmos PNLMS e IPNLMS, alm de outros algoritmos
da classe PNLMS, tais como o algoritmo IPNLMS com controle de esparsidade (SC-
IPNLMS).

Palavras-chave: Filtragem adaptativa, algoritmos adaptativos LMS normalizados


proporcionais, mtodos de otimizao, razo urea, busca tabu, identificao de plantas
esparsas.
viii

ABSTRACT

This work proposes new methodologies to optimize the choice of the parameters
of the proportionate normalized least-mean-square (PNLMS) adaptive algorithms. The
proposed approaches use procedures based on two optimization methods, namely, the
golden section and tabu search methods. Such procedures are applied to determine the
optimal parameters in each iteration of the adaptation process of the PNLMS and
improved PNLMS (IPNLMS) algorithms. The objective function for the proposed
procedures is based on the a posteriori estimation error. Performance studies carried out
to evaluate the impact of the PNLMS and IPNLMS parameters in the behavior of these
algorithms shows that, with the aid of optimization techniques to choose properly such
parameters, the performance of these algorithms may be improved in terms of
convergence speed for the identification of plants with high sparseness degree. The main
goal of the proposed methodologies is to improve the distribution of the adaptation energy
between the coefficients of the PNLMS and IPNLMS algorithms, using parameter values
that lead to the minimal estimation error of each iteration of the adaptation process.
Numerical tests performed (considering various scenarios in which the plant impulse
response is sparse) show that the proposed methodologies achieve convergence speeds
faster than the PNLMS and IPNLMS algorithms, and other algorithms of the PNLMS
class, such as the sparseness controlled IPNLMS (SC-IPNLMS) algorithm.

Keywords: Adaptive filtering, proportionate normalized leas-mean-square adaptive


algorithms, optimization methods, golden section, tabu search, sparse plant identification.
ix

LISTA DE FIGURAS

Figura 1.1. Esquema de Filtragem Adaptativa. ................................................................ 2


Figura 1.2. Exemplos de plantas esparsas. (a) Planta com esparsidade () = 0,9435.
(b) Planta com esparsidade () = 0,8703. .................................................................... 3
Figura 1.3. Resposta tpica de um caminho de eco de rede. ............................................. 4
Figura 1.4. Espectro de frequncias de um sinal de tenso tpico de um sistema eltrico
de potncia. ....................................................................................................................... 5
Figura 1.5. Exemplo de um canal de comunicao com mltiplos percursos. ................. 6
Figura 2.1. Aplicao de um filtro adaptativo em um problema de identificao de
sistemas........................................................................................................................... 13
Figura 2.2. Diagrama de blocos de um controlador auto-ajustvel ................................ 14
Figura 2.3. Esquema simplificado de um circuito de telefonia para uma conexo de longa
distncia .......................................................................................................................... 16
Figura 2.4. Filtro adaptativo empregado em um problema de cancelamento de eco de rede.
........................................................................................................................................ 17
Figura 2.5. Filtro adaptativo aplicado em um problema de cancelamento de eco acstico.
........................................................................................................................................ 18
Figura 2.6. Sistema de transmisso de dados com um equalizador de canais ................ 20
Figura 2.7. Sistema de transmisso de dados com equalizador adaptativo .................... 20
Figura 2.8. Diagrama de um problema de cancelamento de interferncia ..................... 21
Figura 2.9. Filtro adaptativo aplicado no cancelamento da interferncia causada por uma
fonte de alimentao de 60Hz em um sinal de EEG. ..................................................... 22
Figura 2.10. Sistema de controle ativo de rudo em um duto de exausto. .................... 23
Figura 2.11. Modelagem de um sistema dinmico de caracterizao matemtica
desconhecida. (a) Diagrama de blocos do sistema dinmico. (b) Modelagem do sistema
dinmico a partir de um CLA. ........................................................................................ 24
Figura 2.12. Diagrama de blocos de um filtro adaptativo transversal. ........................... 25
Figura 2.13. Filtro linear de tempo discreto empregado em um problema de estimao.
........................................................................................................................................ 30
Figura 2.14. Filtro transversal. ....................................................................................... 31
Figura 2.15. Filtro de Wiener transversal aplicado em um problema de identificao de
sistemas........................................................................................................................... 33
Figura 2.16. Superfcie de desempenho para o problema de identificao de sistemas da
Figura 2.15. ..................................................................................................................... 34
x

Figura 2.17. Diferena de operao entre (a) um filtro timo e (b) um filtro adaptativo.
........................................................................................................................................ 39
Figura 2.18. Filtro adaptativo transversal. ...................................................................... 41
Figura 3.1. Desalinhamento normalizado do algoritmo PNLMS padro para valores do
parmetro de proporcionalidade, , iguais a 0,001, 0,005, 0,01, 0,05, 0,1 e 0,5. ........ 52
Figura 3.2. Desalinhamento normalizado do algoritmo PNLMS padro para valores do
parmetro de proporcionalidade, , iguais a 103, 104 , 105, 106, 107 e 108 . ... 52
Figura 3.3. Ganho atribudo pelo algoritmo PNLMS padro aos coeficientes de um filtro
adaptativo conforme a magnitude (normalizada) dos mesmos, considerando valores do
parmetro de proporcionalidade, , iguais a 0,001, 0,1, 0,5 e 1,0. ............................... 53
Figura 3.4. Desalinhamento normalizado do algoritmo PNLMS padro para valores do
fator de ativao, (), iguais a 107 , 106, 105, 104 , 103 e 102. ...................... 54
Figura 3.5. Ganho atribudo pelo algoritmo PNLMS padro aos coeficientes de um filtro
conforme a magnitude (normalizada) dos mesmos, considerando valores de (), iguais
a 0,001, 0,1, 0,5 e 1,0. ................................................................................................... 55
Figura 3.6. Desempenho do algoritmo IPNLMS para a identificao da planta esparsa ,
considerando diversos valores para que vo de 1 a 0,99, e um parmetro de passo
igual a = 0,5. ............................................................................................................... 59
Figura 3.7. Ganho atribudo pelo algoritmo IPNLMS aos coeficientes de um filtro
conforme a magnitude (normalizada) dos mesmos, considerando valores de iguais a
0,9, 0,5, 0,0, 0,3, 0,7 e 1,0. ...................................................................................... 60
Figura 4.1. Exemplo de uma funo unimodal em um intervalo [, ].......................... 88
Figura 4.2. Reduo no tamanho do intervalo [, ] durante a execuo do mtodo da
razo urea. ..................................................................................................................... 90
Figura 4.3. Configurao de = 6 rainhas em um tabuleiro de tamanho 6 x 6. .......... 93
Figura 4.4. Permutao inicial para o problema da Figura 4.3. ...................................... 93
Figura 4.5. Movimento adotado para a criao das solues vizinhas. .......................... 93
Figura 4.6. Exemplo de criao do conjunto para o problema da Figura 4.3 usando
movimentos semelhantes ao da Figura 4.5. .................................................................... 94
Figura 4.7. Lista tabu para o problema da Figura 4.3. .................................................... 94
Figura 5.1. Comportamento do erro quadrtico a posteriori em dB, , em uma dada
iterao, , do processo de adaptao do algoritmo PNLMS para a identificao de uma
planta de esparsidade () = 0,9435, com = 0,5, = 0,01, e considerando vrios
valores de que vo de 109 a 0,5. (a) Iterao = 25. (b) Iterao = 50. (c) Iterao
= 100. ....................................................................................................................... 100
xi

Figura 5.2. Comportamento do erro quadrtico a posteriori em dB, (), em uma dada
iterao, , do processo de adaptao do algoritmo PNLMS para a identificao de uma
planta de esparsidade () = 0,9435, com = 0,5, e considerando vrios valores de
() que vo de 109 a 0,1. (a) Iterao = 25. (b) Iterao = 50. (c) Iterao =
100................................................................................................................................ 102
Figura 5.3. Comportamento do erro quadrtico a posteriori em dB, (), em uma dada
iterao, , do processo de adaptao do algoritmo PNLMS para a identificao de uma
planta de esparsidade () = 0,9435, com = 0,5, e considerando vrios valores de
que vo de 1,0 a 0,99. (a) Iterao = 25. (b) Iterao = 50. (c) Iterao = 100.
...................................................................................................................................... 104
Figura 5.4. Exemplo de adotado para o algoritmo TS-PNLMS. .......................... 109
Figura 5.5. Estrutura adotada pelo algoritmo TS-PNLMS para a lista tabu. ............. 110
Figura 5.6. Exemplo de um conjunto de solues vizinhas adotado para o algoritmo
TS-IPNLMS. ................................................................................................................ 117
Figura 5.7. Estrutura adotada para a lista tabu do algoritmo TS-IPNLMS. ................. 117
Figura 6.1. Comportamento dos algoritmos PNLMS, IPNLMS, GS-PNLMS e TS-
PNLMS considerando uma inverso nos coeficientes da planta em = 2000. (a)
Desalinhamento normalizado dos algoritmos PNLMS (com = 0,01 e = 0,05),
IPNLMS (com = 0,0), GS-PNLMS (com = 1015 , = 104 e = 103 ) e
TS-PNLMS (com = 1015 , = 6 e PT = 3). (b) Parmetro de proporcionalidade
timo, opt (), dos algoritmos GS-PNLMS e TS-PNLMS. (c) Quantidade de ciclos
para os mtodos da razo urea (GS-PNLMS) e da busca tabu (TS-PNLMS) atingirem
a convergncia. ............................................................................................................. 123
Figura 6.2. Comportamento dos coeficientes do algoritmo GS-PNLMS considerando
uma perturbao na planta esparsa em = 2000, quando mudada para . (a)
Coeficientes ativos. (b) Coeficientes inativos. ............................................................. 124
Figura 6.3. Comportamento dos coeficientes do algoritmo TS-PNLMS considerando
uma perturbao na planta esparsa em = 2000, quando mudada para . (a)
Coeficientes ativos. (b) Coeficientes inativos. ............................................................. 125
Figura 6.4. Comportamento dos coeficientes ativos 35 () e 85 () para os algoritmos
PNLMS, IPNLMS, GS-PNLMS e TS-PNLMS, considerando uma perturbao na
planta em = 2000, quando mudada para . (a) Coeficiente 35 () antes da
perturbao. (b) Coeficiente 35 () aps a perturbao. (c) Coeficiente 85 () antes da
perturbao. (d) Coeficiente 85 () aps a perturbao. ............................................ 127
Figura 6.5. Comportamento dos coeficientes inativos 2 () e 97 () para os algoritmos
PNLMS, IPNLMS, GS-PNLMS e TS-PNLMS, considerando uma perturbao na
planta em = 2000, quando mudada para . (a) Coeficiente 2 () antes da
perturbao. (b) Coeficiente 2 () aps a perturbao. (c) Coeficiente 97 () antes da
perturbao. (d) Coeficiente 97 () aps a perturbao. ............................................ 129
xii

Figura 6.6. Comportamento dos algoritmos PNLMS, IPNLMS, GS-PNLMS e TS-


PNLMS considerando um deslocamento de 12 amostras direita dos coeficientes da
planta em = 2000. (a) Desalinhamento normalizado dos algoritmos PNLMS (com
= 0,01 e = 0,05), IPNLMS (com = 0,0), GS-PNLMS (com = 1015 , =
104 e = 103 ) e TS-PNLMS (com = 1015 , = 6 e PT = 3). (b) Parmetro
de proporcionalidade timo, opt (), dos algoritmos GS-PNLMS e TS-PNLMS. (c)
Quantidade de ciclos para os mtodos da razo urea (GS-PNLMS) e da busca tabu
(TS-PNLMS) atingirem a convergncia. ................................................................... 132
Figura 6.7. Comportamento dos coeficientes do algoritmo GS-PNLMS considerando
uma perturbao na planta esparsa em = 2000, quando os coeficientes de so
deslocados de 12 amostras para a direita. (a) Coeficientes 1 (), 30 (), 35 () e
85 (). (b) Coeficientes 13 (), 42 (), 47 () e 97 (). ..................................... 133
Figura 6.8. Comportamento dos coeficientes do algoritmo TS-PNLMS considerando
uma perturbao na planta esparsa em = 2000, quando os coeficientes de so
deslocados de 12 amostras para a direita. (a) Coeficientes 1 (), 30 (), 35 () e
85 (). (b) Coeficientes 13 (), 42 (), 47 () e 97 (). ..................................... 134
Figura 6.9. Comportamento dos coeficientes 30 (), 42 (), 85 () e 97 () para os
algoritmos PNLMS, IPNLMS, GS-PNLMS e TS-PNLMS, aps o deslocamento de 12
amostras para a direita de , ocorrido no instante = 2000. (a) Coeficiente 30 (). (b)
Coeficiente 42 (). (c) Coeficiente 85 (). (d) Coeficiente 97 (). ........................ 136
Figura 6.10. Comportamento dos algoritmos PNLMS, IPNLMS, GS-PNLMS e TS-
PNLMS considerando um deslocamento de 12 amostras direita dos coeficientes da
planta em = 2000. (a) Desalinhamento normalizado dos algoritmos PNLMS (com
= 0,01 e = 0,05), IPNLMS (com = 0,0), GS-PNLMS (com = 1015 , =
104 e = 103 ) e TS-PNLMS (com = 1015 , = 6 e PT = 3). (b) Fator de
ativao timo, opt (), dos algoritmos GS-PNLMS e TS-PNLMS. (c) Quantidade de
ciclos para os mtodos da razo urea (GS-PNLMS) e da busca tabu (TS-PNLMS)
atingirem a convergncia. ............................................................................................. 139
Figura 6.11. Comportamento dos coeficientes do algoritmo GS-PNLMS considerando
uma perturbao na planta esparsa em = 2000, quando os coeficientes de so
deslocados de 12 amostras para a direita. (a) Coeficientes 1 (), 30 (), 35 () e
85 (). (b) Coeficientes 13 (), 42 (), 47 () e 97 (). ...................................... 140
Figura 6.12. Comportamento dos coeficientes do algoritmo TS-PNLMS considerando
uma perturbao na planta esparsa em = 2000, quando os coeficientes de so
deslocados de 12 amostras para a direita. (a) Coeficientes 1 (), 30 (), 35 () e
85 (). (b) Coeficientes 13 (), 42 (), 47 () e 97 (). ...................................... 141
Figura 6.13. Comportamento dos coeficientes 1 () 13 (), e 35 () e 47 () para os
algoritmos PNLMS, IPNLMS, GS-PNLMS e TS-PNLMS, aps o deslocamento de 12
xiii

amostras para a direita de , ocorrido no instante = 2000. (a) Coeficiente 1 (). (b)
Coeficiente 13 (). (c) Coeficiente 35 (). (d) Coeficiente 47 (). ........................ 143
Figura 6.14. Comportamento dos algoritmos PNLMS, IPNLMS, GS-PNLMS e TS-
PNLMS para a identificao de uma planta de esparsidade varivel, (). (a)
Desalinhamento normalizado dos algoritmos PNLMS (com PN = 1,6, = 0,01 e =
0,05), IPNLMS (com IPN = 1,6 e = 0,0), GS-PNLMS (com GS = 1,7, =
1015, = 104 e = 103 ) e TS-PNLMS (com TS = 0,3, = 1015 , = 6 e
PT = 3). (b) Fator de ativao timo, opt (), dos algoritmos GS-PNLMS e TS-
PNLMS. (c) Variao da esparsidade de (). (d) Quantidade de ciclos para os mtodos
da razo urea (GS-PNLMS) e da busca tabu (TS-PNLMS) atingirem a convergncia.
...................................................................................................................................... 146
Figura 6.15. Comportamento do coeficiente 30, a partir do instante = 1000, para
os algoritmos PNLMS, IPNLMS, GS-PNLMS e TS-PNLMS, considerando a
identificao de uma planta de esparsidade varivel, (). (a) Algoritmo PNLMS (b)
Algoritmo IPNLMS. (c) Algoritmo GS-PNLMS. (d) Algoritmo TS-PNLMS........ 148
Figura 6.16. Comportamento do coeficiente 97 (), a partir do instante = 1000, para
os algoritmos PNLMS, IPNLMS, GS-PNLMS e TS-PNLMS, considerando a
identificao de uma planta de esparsidade varivel, (). (a) Algoritmo PNLMS (b)
Algoritmo IPNLMS. (c) Algoritmo GS-PNLMS. (d) Algoritmo TS-PNLMS........ 150
Figura 6.17. Comportamento dos algoritmos IPNLMS, SC-IPNLMS e GS-IPNLMS,
considerando uma inverso nos coeficientes da planta em = 2000. (a)
Desalinhamento normalizado dos algoritmos IPNLMS (com = 0,0), SC-IPNLMS
(com = 0,0) e GS-IPNLMS (com = 103 ). (b) Parmetro de proporcionalidade
timo, opt (), do algoritmo GS-IPNLMS. (c) Quantidade de ciclos para o mtodo da
razo urea atingir a convergncia. .............................................................................. 153
Figura 6.18. Comportamento dos coeficientes do algoritmo GS-IPNLMS considerando
uma perturbao na planta esparsa em = 2000, quando mudada para . (a)
Coeficientes ativos. (b) Coeficientes inativos. ............................................................. 154
Figura 6.19. Comportamento dos coeficientes 30 () 35 (), e 47 () e 97 () para
os algoritmos IPNLMS, SC-IPNLMS e GS-IPNLMS, aps a inverso dos coeficientes
ativos de , ocorrida no instante = 2000. (a) Coeficiente 30 (). (b) Coeficiente
35 (). (c) Coeficiente 42 (). (d) Coeficiente 97 ()............................................. 156
Figura 6.20. Comportamento dos algoritmos IPNLMS, SC-IPNLMS e GS-IPNLMS para
a identificao de uma planta de esparsidade varivel, (). (a) Desalinhamento
normalizado dos algoritmos IPNLMS (com IPN = 1,5 e IPN = 0,0), SC-IPNLMS (com
SCIPN = 0,9 e SCIPN = 0,0) e GS-IPNLMS (com = 103 ). (b) Parmetro de
proporcionalidade timo, opt (), para o algoritmo GS-IPNLMS. (c) Variao no grau
de esparsidade de (). (d) Quantidade de ciclos para o mtodo da razo urea atingir a
convergncia. ................................................................................................................ 158
xiv

Figura 6.21. Comportamento dos coeficientes 13 (), 35 (), 85 () e 97 (), a partir


do instante = 500, para os algoritmos IPNLMS, SC-IPNLMS e GS-IPNLMS,
considerando a identificao de uma planta de esparsidade varivel, (). (a) Coeficiente
13 (). (b) Coeficiente 35 (). (c) Coeficiente 85 (). (d) Coeficiente 97 (). .... 160
Figura 6.22. Comportamento dos algoritmos IPNLMS, SC-IPNLMS e TS-IPNLMS
considerando um deslocamento de 12 amostras direita dos coeficientes da planta em
= 2000. (a) Desalinhamento normalizado dos algoritmos IPNLMS (com = 0,0), SC-
IPNLMS (com = 0,0) e TS-IPNLMS (com = 2,0, = +2,0, = 5 e PT = 3).
(b) Parmetro de proporcionalidade timo, opt (), para o algoritmo TS-IPNLMS. (c)
Quantidade de ciclos para o mtodo da busca tabu atingir a convergncia. ................ 163
Figura 6.23. Comportamento dos coeficientes do algoritmo TS-IPNLMS considerando
uma perturbao na planta esparsa em = 2000, quando os coeficientes de so
deslocados de 12 amostras para a direita. (a) Coeficientes 1 (), 30 (), 35 () e
85 (). (b) Coeficientes 13 (), 42 (), 47 () e 97 (). ..................................... 164
Figura 6.24. Comportamento dos coeficientes 1 () 13 (), e 35 () e 47 () para os
algoritmos IPNLMS, SC-IPNLMS e TS-IPNLMS, aps o deslocamento de 12 amostras
para a direita de , ocorrido no instante = 2000. (a) Coeficiente 1 (). (b) Coeficiente
13 (). (c) Coeficiente 35 (). (d) Coeficiente 47 ()............................................. 166
Figura 6.25. Comportamento dos algoritmos IPNLMS, SC-IPNLMS e TS-IPNLMS para
a identificao de uma planta de esparsidade varivel, (). (a) Desalinhamento
normalizado dos algoritmos IPNLMS (com IPN = 1,5 e IPN = 0,0), SC-IPNLMS (com
SCIPN = 0,9 e SCIPN = 0,0) e TS-IPNLMS (com = 2,0, = +2,0, = 5 e
PT = 3). (b) Parmetro de proporcionalidade timo, opt (), para o algoritmo TS-
IPNLMS. (c) Variao no grau de esparsidade de (). (d) Quantidade de ciclos para o
mtodo da razo urea atingir a convergncia.............................................................. 168
Figura 6.26. Comportamento dos coeficientes 30 (), 42 (), 85 () e 97 (), a partir
do instante = 500, para os algoritmos IPNLMS, SC-IPNLMS e TS-IPNLMS,
considerando a identificao de uma planta de esparsidade varivel, (). (a) Coeficiente
30 (). (b) Coeficiente 42 (). (c) Coeficiente 85 (). (d) Coeficiente 97 (). .... 170
xv

LISTA DE TABELAS

Tabela 3.1. Sumrio do algoritmo adaptativo PNLMS padro ...................................... 49


Tabela 3.2. Distribuies de ganho totais dos coeficientes ativos, e mdias dos ganhos
totais dos coeficientes inativos, considerando 2500 iteraes de identificao da planta
esparsa usando o algoritmo PNLMS padro e com assumindo diversos valores, que
vo de 0,001 a 0,5. ......................................................................................................... 53
Tabela 3.3. Distribuies de ganho totais dos coeficientes ativos e mdias dos ganhos
totais dos coeficientes inativos considerando 2000 iteraes de identificao da planta
esparsa usando o algoritmo PNLMS padro e com assumindo diversos valores, que
vo de 108 a 103 . ....................................................................................................... 54
Tabela 3.4. Distribuies de ganho totais dos coeficientes ativos e mdias dos ganhos
totais dos coeficientes inativos para 2000 iteraes de identificao da planta esparsa ,
usando o algoritmo PNLMS padro e com () assumindo diversos valores, que vo de
107 a 102. ................................................................................................................... 55
Tabela 3.5. Sumrio do algoritmo adaptativo IPNLMS. ................................................ 58
Tabela 3.6. Sumrio do algoritmo adaptativo PNLMS++. ............................................. 61
Tabela 3.7. Sumrio do algoritmo adaptativo IIPNLMS................................................ 63
Tabela 3.8. Sumrio do algoritmo adaptativo MPNLMS. .............................................. 64
Tabela 3.9. Sumrio dos algoritmos adaptativos SC-PNLMS e SC-MPNLMS. ........... 66
Tabela 3.10. Sumrio do algoritmo adaptativo SC-IPNLMS. ........................................ 67
Tabela 3.11. Sumrio do algoritmo adaptativo IAF-PNLMS. ....................................... 69
Tabela 5.1. Complexidade computacional dos algoritmos propostos. ......................... 120
xvi

LISTA DE SIGLAS

ADALINE - adaptive linear neuron ............................................................................... 40


CLA - combinador linear adaptativo .............................................................................. 23
EEG - eletroencefalograma ............................................................................................ 21
fGS-PNLMS - f-golden section proportionate normalized least-mean-square ............ 105
FIR - finite impulse response.......................................................................................... 23
fTS-PNLMS - f-tabu search proportionate normalized least-mean-square .................. 105
FXLMS - filtered-x least-mean-square........................................................................... 23
GS-IPNLMS - golden section improved proportionate normalized least-mean-square105
IAF-PNLMS - individual activation factors proportionate normalized least-mean-square
........................................................................................................................................ 56
IIPNLMS - improved improved proportionate normalized least-mean-square.............. 56
IPNLMS - improved proportionate normalized least-mean-square ................................. 6
ISI - intersymbol interference ......................................................................................... 19
KKT - Karush-Kuhn-Tucker .......................................................................................... 77
LMS - least-mean-square.................................................................................................. 2
MPNLMS - -law proportionate normalized least-mean-square ..................................... 7
MSE - mean square error ................................................................................................ 29
NLMS - normalized least-mean-square ............................................................................ 6
PNLMS - proportionate normalized least-mean-square ................................................... 6
PNLMS++ - proportionate normalized least-mean-square ++ ......................................... 7
RLS - recursive least squares.......................................................................................... 14
SC-IPNLMS - sparseness controlled improved proportionate normalized least-mean-
square ................................................................................................................................ 7
SC-MPNLMS - sparseness controlled -law proportionate normalized least-mean-square
........................................................................................................................................ 60
SC-PNLMS - sparseness controlled proportionate normalized least-mean-square.......... 7
SD - steepest descent ........................................................................................................ 9
STR - self tuning regulator ............................................................................................. 13
TS-IPNLMS - tabu search improved proportionate normalized least-mean-square .... 105
GS-PNLMS - -golden section proportionate normalized least-mean-square........... 105
TS-PNLMS - -tabu search proportionate normalized least-mean-square ................ 105
xvii

SUMRIO

Captulo 1 Introduo ................................................................................................. 1


1.1 Plantas Esparsas ..................................................................................................... 2
1.2 Problemas Envolvendo Plantas Esparsas ............................................................... 4
1.2.1 Cancelamento de Eco em Telecomunicaes .............................................. 4
1.2.2 Estimao de Harmnicas em Sistemas Eltricos de Potncia .................... 5
1.2.3 Estimao de Canais de Comunicao com Mltiplos Percursos ............... 6
1.3 Algoritmos Adaptativos LMS Normalizados Proporcionais ................................. 6
1.4 Motivaes para o Desenvolvimento de Algoritmos Adaptativos Proporcionais
com Otimizao de Parmetros ................................................................................... 8
1.5 Objetivos da Pesquisa ............................................................................................ 8
1.6 Trabalhos Publicados ............................................................................................. 9
1.7 Organizao da Dissertao ................................................................................... 9

Captulo 2 Filtragem Adaptativa ............................................................................. 11


2.1 Aplicaes dos Filtros Adaptativos ..................................................................... 12
2.1.1 Identificao de Sistemas .......................................................................... 12
2.1.2 Cancelamento de Eco em Telecomunicaes ............................................ 14
2.1.3 Equalizao de Canais de Comunicao ................................................... 18
2.1.4 Controle Ativo de Rudo ............................................................................ 21
2.2 Filtro Adaptativo Transversal .............................................................................. 23
2.3 Processos Estocsticos Estacionrios .................................................................. 26
2.4 Filtro de Wiener ................................................................................................... 29
2.5 Algoritmo de Descida mais ngreme ................................................................... 35
2.6 Algoritmo LMS.................................................................................................... 40
2.6.1 Derivao do Algoritmo LMS ................................................................... 40
2.6.2 Comparao entre os Algoritmos SD e LMS ............................................ 42
2.7 Algoritmo LMS Normalizado .............................................................................. 43
2.8 Medidas de Desempenho ..................................................................................... 46
2.8.1 Erro Quadrtico em dB .............................................................................. 46
2.8.2 Desalinhamento Normalizado em dB ........................................................ 46
xviii

Captulo 3 Algoritmos Adaptativos LMS Normalizados Proporcionais .............. 47


3.1 Estrutura Geral dos Algoritmos Adaptativos Proporcionais................................ 47
3.2 Algoritmo PNLMS .............................................................................................. 48
3.2.1 Anlise do Comportamento do Algoritmo PNLMS Padro ...................... 50
3.3 Algoritmo IPNLMS ............................................................................................. 56
3.3.1 Derivao do Algoritmo IPNLMS a partir do PNLMS Padro ................. 56
3.3.2 Anlise do Comportamento do Algoritmo IPNLMS ................................. 59
3.4 Outros Algoritmos da Classe PNLMS ................................................................. 60
3.4.1 Algoritmo PNLMS++ ................................................................................ 61
3.4.2 Algoritmo IIPNLMS .................................................................................. 62
3.4.3 Algoritmo MPNLMS ................................................................................. 64
3.4.4 Algoritmos SC-PNLMS, SC-IPNLMS e SC-MPNLMS ........................... 65
3.4.5 Algoritmo IAF-PNLMS............................................................................. 68

Captulo 4 Mtodos de Otimizao .......................................................................... 71


4.1 Caracterizao de um Problema de Otimizao .................................................. 72
4.1.1 Busca Unidimensional e Multidimensional ............................................... 73
4.2 Condies de Otimalidade ................................................................................... 74
4.2.1 Condies Necessrias de Otimalidade ..................................................... 75
4.2.2 Condies Suficientes de Otimalidade ...................................................... 76
4.2.3 Condies de Karush-Kuhn-Tucker .......................................................... 76
4.3 Mtodos de Otimizao Local ............................................................................. 79
4.3.1 Mtodo de Descida mais ngreme ............................................................. 80
4.3.2 Mtodo de Newton .................................................................................... 81
4.4 Mtodos de Otimizao Global ........................................................................... 82
4.4.1 Algoritmos Genticos ................................................................................ 83
4.4.2 Otimizao por Enxame de Partculas ....................................................... 85
4.5 Mtodos Empregados na Otimizao dos Algoritmos PNLMS e IPNLMS ........ 87
4.5.1 Mtodo da Razo urea ............................................................................ 88
4.5.2 Mtodo da Busca Tabu .............................................................................. 90

Captulo 5 Algoritmos Adaptativos Proporcionais com Escolha de Parmetros


baseada em Mtodos de Otimizao ........................................................................... 97
xix

5.1 Funo Objetivo Adotada .................................................................................... 97


5.1.1 Impacto do Parmetro de Proporcionalidade do Algoritmo PNLMS no
Comportamento do Erro a posteriori .................................................................. 98
5.1.2 Impacto do Fator de Ativao do Algoritmo PNLMS no Comportamento do
Erro a posteriori ................................................................................................ 100
5.1.2 Impacto do Parmetro de Proporcionalidade do Algoritmo IPNLMS sobre o
Erro a posteriori ................................................................................................ 102
5.2 Metodologias Propostas ..................................................................................... 104
5.2.1 Algoritmo PNLMS com Otimizao do Parmetro de Proporcionalidade
baseada no Mtodo da Razo urea ................................................................. 105
5.2.2 Algoritmo PNLMS com Otimizao do Fator de Ativao baseada no
Mtodo da Razo urea ................................................................................... 107
5.2.3 Algoritmo PNLMS com Otimizao do Parmetro de Proporcionalidade
baseada no Mtodo da Busca Tabu .................................................................. 109
5.2.4 Algoritmo PNLMS com Otimizao do Fator de Ativao baseada no
Mtodo da Busca Tabu ..................................................................................... 112
5.2.5 Algoritmo IPNLMS com Otimizao do Parmetro de Proporcionalidade
baseada no Mtodo da Razo urea ................................................................. 114
5.2.6 Algoritmo IPNLMS com Otimizao do Parmetro de Proporcionalidade
baseada no Mtodo da Busca Tabu .................................................................. 116
5.3 Complexidade Computacional dos Algoritmos Propostos ................................ 119

Captulo 6 Avaliao de Desempenho dos Algoritmos Propostos ....................... 121


6.1 Algoritmos GS-PNLMS e TS-PNLMS ........................................................ 121
6.1.1 Exemplo 1 ................................................................................................ 121
6.1.2 Exemplo 2 ................................................................................................ 130
6.2 Algoritmos GS-PNLMS e TS-PNLMS ......................................................... 136
6.2.1 Exemplo 3 ................................................................................................ 137
6.2.2 Exemplo 4 ................................................................................................ 143
6.3 Algoritmo GS-IPNLMS ..................................................................................... 151
6.3.1 Exemplo 5 ................................................................................................ 151
6.3.2 Exemplo 6 ................................................................................................ 156
6.4 TS-IPNLMS ....................................................................................................... 161
6.4.1 Exemplo 7 ................................................................................................ 161
xx

6.4.2 Exemplo 8 ................................................................................................ 166

Captulo 7 Concluso .............................................................................................. 171

REFERNCIAS ......................................................................................................... 173


1

Captulo 1

Introduo

Sistemas adaptativos podem ser definidos como aqueles cuja estrutura altervel ou
ajustvel. O objetivo destes ajustes melhorar o desempenho do sistema em relao a algum
critrio desejado e s caractersticas do ambiente no qual o sistema est inserido (Astrom &
Wittenmark, 1994). Dentre as caractersticas que tais sistemas podem assumir, tem-se a
adaptao automtica em ambientes que variam com o tempo, a possibilidade de serem
treinados para realizar tarefas especficas (filtragem, tomada de decises), a independncia de
procedimentos elaborados para sintetiz-los (geralmente necessrios aos sistemas no-
adaptativos) e a capacidade se autoprojetarem continuamente e de extrapolarem o seu padro
de comportamento para lidarem com novas situaes (Widrow & Stearns, 1985). Em
contrapartida, sistemas adaptativos mostram-se mais complexos e difceis de analisar do que
sistemas no-adaptativos. Isto deve-se a caracterstica no-linear dos parmetros dos sistemas
adaptativos, os quais so variantes no tempo. No entanto, este tipo de sistema pode apresentar-
se como uma alternativa eficaz para o controle de plantas cujas caractersticas so
desconhecidas ou variantes no tempo, ou mesmo plantas instveis ou sujeitas a perturbaes
internas (Ali, 2013) e (Widrow & Walach, 2007). Um exemplo de sistema que possui tais
caractersticas um filtro adaptativo (Farhang-Boroujeny, 2013).
O termo filtro pode ser usado para descrever um dispositivo fsico (hardware) ou
computacional (software) que coleta uma srie de dados aleatrios e processa-os segundo um
conjunto de regras pr-definidas para extrair informaes a respeito de uma varivel de
interesse (Haykin, 1996). Quando os parmetros de um filtro so capazes de alterarem seus
respectivos valores com o tempo, diz-se que o filtro adaptativo (Schilling & Harris, 2011).
Um filtro adaptativo deve operar em um esquema de filtragem adaptativa, semelhante ao
mostrado no exemplo da Figura 1.1. Neste esquema, filtro adaptativo produz, a partir de uma
dada entrada, (), e do vetor de coeficientes, (), uma sada, (), a qual comparada com
um dado sinal desejado, (), gerando um sinal de erro, (). Ento, o algoritmo adaptativo,
A, usado para modificar em cada instante de tempo, , o vetor de coeficientes, (), com o
intuito de tornar a sada do filtro adaptativo, (), uma boa estimativa do sinal desejado, ().
Para atingir tal objetivo, o algoritmo adaptativo, A, usa os dados de () e () em uma regra
de atualizao do vetor de coeficientes, (), que busca otimizar uma funo de custo
escolhida apropriadamente (Farhang-Boroujeny, 2013). Durante a captao das amostras do
sinal desejado, (), um rudo de medio, (), pode ser gerado. Este rudo interfere no
processo de filtragem dificultando a estimao de ().
2

Figura 1.1. Esquema de Filtragem Adaptativa.

Alguns problemas nos quais os filtros adaptativos so empregados envolvem plantas


esparsas, isto , plantas nas quais apenas uma pequena parcela de sua resposta impulsiva
formada por coeficientes ativos, ou seja, no-nulos (Su, Jin & Gu, 2012). Para garantir um bom
desempenho ao lidar com plantas esparsas, o filtro adaptativo pode fazer uso de algoritmos
adaptativos que levam em considerao as caractersticas deste tipo de planta. Os Algoritmos
adaptativos LMS (least-mean-square) normalizados proporcionais apresentam-se como
alternativas eficientes para este tipo de problema (Souza, Tobias, Seara & Morgan, 2010) e
(Wagner & Doroslovacky, 2011). Tais algoritmos so projetados para tirarem vantagem da
estrutura e do comportamento das plantas esparsas (Huang, Benesty & Chen, 2006). Com o
objetivo de situar o leitor a respeito da problemtica alvo deste trabalho, a seguir so
apresentados alguns conceitos bsicos envolvendo plantas esparsas e algoritmos adaptativos
LMS normalizados proporcionais.

1.1 Plantas Esparsas

O termo esparsidade est relacionado com uma caracterstica inerente a alguns vetores
e matrizes. Em particular, considere um dado vetor
= [1 2 3 ]T (1.1)
definido em um dado subespao de dimenso finita de . Este vetor dito esparso se a grande
maioria de seus elementos, , com = 1,2, , , nula. O sobrescrito T denota transposta de
um vetor ou matriz. A caracterstica esparsa de alguns sinais, plantas e ambientes tem sido
objeto de estudo de vrias reas do conhecimento (Luo & Semlyem, 1990), (Hoyer, 2004) e
(Starck, Murtagh & Fadili, 2010). Em especial, as plantas esparsas so encontradas em diversas
aplicaes, tais como estimao de harmnicas em sistemas eltricos de potncia (Abdollahi,
Zhang, Xue & Li, 2013), cancelamento de eco em telecomunicaes (Deng & Doroslovacky,
2006) e (Loganathan, Khong & Naylor, 2009), estimao de canais de comunicao
subaquticos (Pelekanakis & Chitre, 2013) e de canais de comunicao com mltiplos
percursos (Bajwa, Haupt, Sayeed & Nowak, 2010) e identificao de eventos ssmicos
(Gabarda & Cristbal, 2009). A ttulo de exemplo, a Figura 1.2 mostra a disposio dos
coeficientes de duas plantas consideradas esparsas. A Figura 1.2(a) refere-se a uma planta com
esparsidade () = 0,9435 e a Figura 1.2(b) a outra planta desta vez com esparsidade () =
0,8703. A medida de esparsidade dessas plantas foi calculada segundo a definio (Hoyer,
2004) e (Huang, Benesty & Chen, 2006)
3

1
() = (1 ) (1.2)
2
onde 1 e 2 so, respectivamente, a norma-1 e a norma-2 do vetor de coeficientes da
planta, . Tem-se tambm que 0 () 1. Quanto mais prximo () estiver de 1, mais
esparsa a planta considerada. A varivel representa a quantidade de coeficientes de . Cada
uma das plantas esparsas mostradas na Figura 1.2 possui = 100 coeficientes. A planta da
Figura 2(a) possui apenas quatro coeficientes ativos localizados nas posies {1, 30, 35, 85},
com suas respectivas magnitudes iguais a {0,1 , 1,0 , 0,5 , 0,1}. J a planta da Figura 2(b)
possui oito coeficientes ativos localizados nas posies {1, 15, 30, 41, 54, 66, 79, 85}, com suas
respectivas magnitudes iguais a {0,1 , 1,0 , 0,1 , 0,5 , 0,1 , 0,5 , 0,5 , 0,1}.

(a)

(b)
Figura 1.2. Exemplos de plantas esparsas com = 100 coeficientes. (a) Planta com esparsidade () = 0,9435.
(b) Planta com esparsidade () = 0,8703.
4

Para ilustrar a importncia dos conceitos apresentados at este ponto, a seguir so


mostrados alguns problemas que envolvem plantas e ambientes de caracterstica esparsa.

1.2 Problemas Envolvendo Plantas Esparsas

Nesta seo so mostradas trs aplicaes prticas onde as plantas esparsas so


encontradas, so eles: o cancelamento de eco em telecomunicaes, a estimao de harmnicas
em sistemas de energia eltrica e a estimao de canais de comunicao com mltiplos
percursos.

1.2.1 Cancelamento de Eco em Telecomunicaes

Os sistemas de comunicao sem fio tm se mostrado como uma ferramenta essencial


para os dias atuais devido flexibilidade e velocidade na transmisso de informaes
proporcionada. Porm, para o caso da telefonia mvel, por exemplo, a experincia dos usurios
pode ser prejudicada pela presena dos ecos acsticos. J para os sistemas de comunicao via
satlite, os caminhos percorridos pelos ecos da rede podem resultar em atrasos superiores a
meio segundo em relao ao sinal de voz original, dificultando a comunicao. A Figura 1.3
mostra a disposio dos coeficientes de um caminho de eco de rede, obtida a partir da
Recomendao ITU-T G.168, modelo #1 (ITU-T, 2015). Esta planta composta por 512
coeficientes e composta por duas regies inativas, com 224 coeficientes nulos cada, e por uma
regio ativa representada por 64 coeficientes centrais.

Figura 1.3. Resposta tpica de um caminho de eco de rede.

Segundo a definio de (1.2), o grau de esparsidade do caminho de eco de rede da Figura


1.3 () = 0,8969, que considerado elevado.
5

1.2.2 Estimao de Harmnicas em Sistemas Eltricos de Potncia

O espectro de frequncias de um sinal de um sistema eltrico de potncia tambm pode


ser considerado um ambiente com um alto grau de esparsidade. Isto deve-se ao fato de que
qualquer sinal transmitido pelo sistema (tenso ou corrente) formado por uma componente
fundamental e por componentes harmnicas e interharmnicas. A componente fundamental
detm a maior parte da energia do sinal e, consequentemente, sua amplitude no espectro
consideravelmente superior das demais. As componentes harmnicas esto localizadas em
frequncias mltiplas da fundamental. Uma vez que os sinais produzidos nas unidades
geradoras so senides, apenas harmnicas mpares esto presentes. Alm disso, para medio
em alta tenso, as interharmnicas podem ser desprezadas (Abdollahi, Zhang, Xue & Li, 2013).
A Figura 1.4 mostra o espectro de frequncias de um sinal de tenso tpico de um sistema
eltrico de potncia. Este sinal formado pela componente fundamental em 60Hz e por duas
componentes harmnicas (5 e 7 harmnica), alm de uma componente interharmnica
localizada na frequncia 415Hz. A resoluo deste espectro de frequncias de 1Hz e
considera-se uma faixa de frequncias que vai de 0 a 480Hz. As amplitudes das componentes
fundamental, harmnicas e interharmnicas esto em p.u. (per unit). Este sinal pode ser descrito
analiticamente por
() = cos(260) + 0,03 cos(2252) + 0,1 cos(2300) + 0,08 cos(2420) (1.3)

Figura 1.4. Espectro de frequncias de um sinal de tenso tpico de um sistema eltrico de potncia.

O grau de esparsidade desse espectro de frequncias igual a 0,995, segundo a definio


de (1.2).
6

1.2.3 Estimao de Canais de Comunicao com Mltiplos Percursos

Um sinal de rdio transmitido em um ambiente de disperso tpico sofre reflexes,


difraes dos objetos que compem tal ambiente. Dessa forma, o sinal chega ao receptor como
uma superposio de mltiplas cpias atrasadas, atenuadas e/ou com distores no ngulo de
fase em relao ao sinal original transmitido. Estas cpias so chamadas de componentes de
mltiplos percursos do sinal. Em razo deste fenmeno, sistemas de comunicao sem fio com
transmisso de dados em alta velocidade geralmente requerem um conhecimento da resposta
do canal pelo receptor (Bajwa, Haupt, Sayeed & Nowak, 2010). A Figura 1.5 mostra um
exemplo tpico de um canal de comunicao com mltiplos percursos, o qual usado em
sistemas de comunicao digital de alta velocidade (Al-Shabilli et. al, 2015). Este canal possui
tamanho igual a 32 coeficientes, porm apenas cinco deles so significativos. Os coeficientes
ativos deste canal possuem valores iguais a {0,58 , 0,84 , 0,31 , 0,22 , 0,75}, localizados nas
posies {2, 6, 14, 27, 0,75}, respectivamente.

Figura 1.5. Exemplo de um canal de comunicao com mltiplos percursos.

O grau de esparsidade deste canal igual a 0,7763, segundo a definio de (1.2).

1.3 Algoritmos Adaptativos LMS Normalizados Proporcionais

Algoritmos adaptativos clssicos, tais como o LMS e o LMS normalizado (NLMS


normalized LMS), apresentam desempenho pobre, em termos de velocidade de convergncia,
ao lidarem com plantas esparsas (Widrow & Stearns, 1985) e (Huang, Benesty & Chen, 2006).
Para solucionar este problema, foram desenvolvidos algoritmos que levam em considerao as
caractersticas das plantas esparsas, tais como os algoritmos NLMS proporcional (PNLMS
proportionate NLMS), PNLMS melhorado (IPNLMS improved PNLMS), e PNLMS com lei
7

(MPNLMS -law PNLMS). Estes algoritmos empregam uma filosofia proporcional de


adaptao, ou seja, distribuem os ganhos de adaptao proporcionalmente magnitude dos
coeficientes do filtro adaptativo, resultando em uma maior velocidade de convergncia para
plantas com alto grau de esparsidade (Duttweiler, 2000), (Benesty & Gay, 2002) e (Deng &
Doroslovacky, 2006).
O algoritmo PNLMS foi um dos primeiros algoritmos a empregar a filosofia
proporcional no processo de adaptao dos coeficientes do filtro adaptativo (Duttweiler, 2000).
No entanto, o desempenho deste algoritmo decai para plantas de esparsidade mdia ou baixa
(Benesty & Gay, 2002). Alm disso, a rpida velocidade inicial de convergncia deste algoritmo
no mantida em todo o processo de adaptao (Deng & Doroslovacky, 2006). Para tentar
contornar estes problemas, verses aprimoradas do algoritmo PNLMS foram desenvolvidas. O
algoritmo PNLMS++ apresenta-se como opo para plantas de esparsidade mdia, pois alterna,
em cada iterao do processo de adaptao, entre as regras de atualizao dos algoritmos NLMS
e PNLMS. Outra alternativa para este tipo de planta, e tambm para plantas de esparsidade
elevada, o algoritmo IPNLMS. Tal algoritmo foi desenvolvido a partir de modificaes na
estrutura do algoritmo PNLMS. O principal objetivo de tais modificaes explorar melhor a
filosofia proporcional advinda do algoritmo PNLMS e, consequentemente, alcanar um
desempenho superior no somente para plantas de alto grau de esparsidade, mas tambm para
plantas de esparsidade mdia. Isto se d pelo emprego de uma regra de distribuio dos ganhos
de adaptao baseada em uma combinao convexa, a qual pondera entre contribuies
relativas s regras de adaptao dos algoritmos NLMS e PNLMS. Porm, apesar do
desempenho satisfatrio para plantas de esparsidade mdia, o algoritmo IPNLMS no atinge a
mesma velocidade inicial de convergncia do algoritmo PNLMS para plantas altamente
esparsas (Deng & Doroslovacky, 2006). Alm disso, seu desempenho depende de uma
constante prpria deste algoritmo denominada parmetro de proporcionalidade. Resultados
experimentais demonstram que valores iguais a 0,0, 0,5 e 0,75 so boas escolhas para tal
parmetro (Loganathan, Khong & Naylor, 2009).
Dentre as principais verses aprimoradas dos algoritmos PNLMS e IPNLMS
desenvolvidas nos ltimos anos tem-se os algoritmos MPNLMS, IIPNLMS, SC-IPNLMS
(sparseness controlled PNLMS) e IAF-PNLMS (individual activation factors PNLMS). O
algoritmo IIPNLMS usa a mesma regra de adaptao do algoritmo IPNLMS, mas com o
emprego de dois parmetros de proporcionalidade. O algoritmo MPNLMS distribui os ganhos
de adaptao de forma proporcional ao logaritmo da magnitude dos coeficientes do filtro
adaptativo. J os algoritmos PNLMS com controle de esparsidade, a saber, os algoritmos SC-
PNLMS, SC-MPNLMS e SC-IPNLMS, empregam estimativas da esparsidade da planta em
suas respectivas regras de adaptao. Tais algoritmos so opes para plantas de esparsidade
varivel (Loganathan, 2011). O algoritmo IAF-PNLMS emprega fatores de ativao individuais
para cada coeficiente do filtro adaptativo. Tais fatores so concebidos de forma que seus valores
convirjam para as respectivas magnitudes dos coeficientes do filtro adaptativo. Outras
abordagens correlatas aos algoritmos adaptativos proporcionais incluem os algoritmos LMS
com atrao para zero (ZA-LMS zero attraction LMS), algoritmos LMS com restrio de
8

norma ( -LMS -norm constraint LMS), algoritmos LMS com esparsidade em bloco
induzida (BS-LMS block sparse LMS) e combinao convexa de filtros proporcionais (Chen,
Gu & Hero III, 2009), (Gu, Jin, & Mei, 2009), (Shi & Shi, 2010), (Jiang & Gu, 2015) e (Arenas-
Garca & Figueiras-Vidal, 2009).

1.4 Motivaes para o Desenvolvimento de Algoritmos Adaptativos Proporcionais com


Otimizao de Parmetros

O comportamento dos algoritmos PNLMS e IPNLMS depende de parmetros que


controlam a proporcionalidade e a inicializao, os quais mostram-se como sendo de difcil
ajuste (Jelfs, Mandic & Benesty, 2007). Os parmetros do algoritmo PNLMS, por exemplo,
afetam diretamente na adaptao dos coeficientes considerados inativos. Alm disso, uma das
principais funes destes parmetros evitar a estagnao dos coeficientes do filtro (Souza,
Tobias, Morgan & Seara, 2010). J para o algoritmo IPNLMS, a principal funo de seu
respectivo parmetro de proporcionalidade controlar as contribuies das parcelas
proporcional e no-proporcional, de forma a garantir uma regra de atualizao adequada ao
grau de esparsidade da planta considerada (Loganathan, Khong & Naylor, 2009). Porm, sabe-
se que a esparsidade de uma planta pode variar com fatores como temperatura e presso (Khong
& Naylor, 2006). Para o algoritmo PNLMS, valores inadequados para o parmetro de
porpocionalidade ou para o fator de ativao, podem tornar mais lenta a adaptao dos
coeficientes de menor magnitude. Alm disso, valores constantes para tais parmetros podem
comprometer o desempenho do algoritmo PNLMS quando da identificao de plantas de
esparsidade varivel no tempo. Analogamente, para o algoritmo IPNLMS, o uso de um valor
de parmetro de proporcionalidade constante pode comprometer o desempenho do IPNLMS ao
lidar com plantas com resposta impulsiva varivel. Alm disso, o valor desse parmetro deve
ser escolhido de acordo com o grau de esparsidade da planta. Dessa forma, um valor
inapropriado para tal parmetro pode degradar o desempenho do IPNLMS.
Assim, o ponto central para aprimorar o desempenho dos algoritmos adaptativos
proporcionais consiste em estabelecer valores adequados para os parmetros destes algoritmos,
uma vez que, conforme as anlises realizadas neste trabalho de pesquisa, tem-se que tais
parmetros impactam, durante todo o processo de adaptao, no comportamento dos referidos
algoritmos para a identificao de plantas esparsas. Dessa forma, neste trabalho so propostas
novas metodologias para otimizar a escolha dos parmetros dos algoritmos PNLMS e IPNLMS.
Para tanto, so empregados procedimentos baseados nos mtodos de otimizao da razo urea
e da busca tabu. Resultados de testes numricos mostram que os novos algoritmos propostos
alcanam velocidades de convergncia superiores, bem como resposta mais rpida a
perturbaes na planta, quando comparados com os algoritmos PNLMS e IPNLMS para a
identificao de plantas com elevado grau de esparsidade.

1.5 Objetivos da Pesquisa

Os objetivos pretendidos por este projeto de pesquisa esto listados a seguir:


9

Realizar anlises dos impactos dos parmetros dos algoritmos adaptativos LMS
normalizados proporcionais na velocidade de convergncia e na distribuio dos ganhos
de adaptao destes algoritmos.
Verificar a viabilidade do uso de metodologias para aprimorar o desempenho dos
algoritmos adaptativos proporcionais em termos de velocidade de convergncia.
Empregar procedimentos com requisitos computacionais reduzidos baseados em
mtodos de otimizao para otimizar a escolha dos parmetros dos algoritmos
adaptativos proporcionais para identificao de plantas esparsas.
Desenvolvimento de novos algoritmos adaptativos proporcionais com otimizao de
parmetros dedicados identificao de plantas de elevado grau de esparsidade.
Comparar o desempenho dos novos algoritmos desenvolvidos, em termos de velocidade
de convergncia, perturbaes ocorridas no vetor de coeficientes e variaes na
esparsidade da planta, com outros algoritmos clssicos dedicados identificao de
plantas esparsas.
A seguir, so mostrados os trabalhos publicados a partir deste projeto de pesquisa.

1.6 Trabalhos Publicados

Durante a execuo deste projeto de pesquisa, foram publicados e apresentados dois


artigos cientficos em fruns especializados, os quais esto listados a seguir:
1) Branco, C. A. S. C., Souza, F. C. (2016) Algoritmo IPNLMS com parmetro de
proporcionalidade timo. XXXIV Simpsio Brasileiro de Telecomunicaes e
Processamento de Sinais (SBrT 2016), Santarm-PA, Brasil, 30 de agosto a 02 de
setembro de 2011.
2) Branco, C. A. S. C., Souza, F. C. (2016) Algoritmo IPNLMS com otimizao do
parmetro de proporcionalidade baseada em busca tabu para identificao de plantas
esparsas. XXI Congresso Brasileiro de Automtica (CBA 2016), Vitria-ES, Brasil, 03
a 07 de outubro de 2016.

1.7 Organizao da Dissertao

Este trabalho de pesquisa est organizado da seguinte forma:


Captulo 2: apresenta alguns aspectos fundamentais da teoria de filtragem adaptativa,
com foco especial para os algoritmos adaptativos da classe LMS. Primeiramente, so
mostrados problemas prticos nos quais os filtros adaptativos so aplicados e a estrutura
de filtragem adotada pelos algoritmos adaptativos considerados neste trabalho. Em
seguida, so feitas breves discusses a respeito do funcionamento dos filtros lineares
timos, os quais deram origem aos filtros adaptativos. Por fim, so apresentados os
algoritmos de descida mais ngreme (SD steepest descent), LMS e NLMS.
10

Captulo 3: apresenta algoritmos adaptativos LMS normalizados proporcionais, os quais


foram concebidos para melhorar o desempenho dos filtros adaptativos para identificao
e controle de plantas esparsas. Inicialmente, mostrada estrutura dos algoritmos
PNLMS padro e IPNLMS, juntamente com uma anlise dos parmetros destes
algoritmos no comportamento dos mesmos para a identificao de plantas esparsas. Por
fim, so mostrados alguns dos principais algoritmos adaptativos proporcionais
desenvolvidos recentemente, os quais so derivaes dos algoritmos PNLMS e
IPNLMS.
Captulo 4: apresenta conceitos bsicos envolvendo problemas e mtodos de otimizao.
Tambm so apresentados os mtodos adotados por este trabalho de pesquisa para
otimizar a escolha dos parmetros dos algoritmos adaptativos proporcionais. So eles
os mtodos da razo urea e da busca tabu.
Captulo 5: neste captulo, so obtidos os novos algoritmos adaptativos proporcionais
propostos, os quais empregam mtodos de otimizao para determinar os valores
adequados dos parmetros dos algoritmos PNLMS e IPNLMS para a identificao de
plantas esparsas. Primeiramente, apresentada a funo objetivo a ser minimizada pelas
metodologias adotadas, juntamente com uma anlise do efeito dos parmetros dos
algoritmos PNLMS e IPNLMS no comportamento desta funo. Por fim, os novos
algoritmos PNLMS e IPNLMS propostos so obtidos.
Captulo 6: neste captulo, so apresentados os resultados obtidos com o emprego dos
algoritmos propostos em problemas de identificao de plantas esparsas. O desempenho
dos algoritmos propostos comparado com o dos algoritmos PNLMS, IPNLMS e SC-
IPNLMS em termos de velocidade de convergncia, resposta a perturbaes na planta,
alm de identificao de plantas de esparsidade varivel.
Captulo 7: apresenta as concluses deste trabalho de pesquisa, alm de indicar possveis
sugestes de trabalhos futuros.
11

Captulo 2

Filtragem Adaptativa

Filtros adaptativos so ferramentas fundamentais para a resoluo de vrios problemas


da rea de processamento de sinais. Dentre as aplicaes destes dispositivos pode-se citar a
identificao de sistemas, o cancelamento de eco em telecomunicaes, o controle ativo de
rudo, a equalizao de canais e a predio de entradas futuras. Em linhas gerais, o estudo destes
filtros consiste na anlise e no desenvolvimento de algoritmos adaptativos, os quais so
implementados em estruturas de filtragem dedicadas resoluo de determinados problemas
envolvendo processamento de sinais. Dependendo do tempo necessrio para atingir o objetivo
do processo de adaptao, alm do compromisso entre o esforo requerido e os recursos
computacionais disponveis, pode-se escolher entre uma variedade de algoritmos adaptativos e
de estruturas de filtro (Nascimento & Silva, 2014), (Farhang-Buroujeny, 2013) e (Sayed, 2003).
Os filtros podem ser classificados em lineares e no-lineares. A sada de um filtro linear
uma funo linear dos valores aplicados na entrada. Caso isto no ocorra, o filtro dito no-
linear. Como, na prtica, a maioria dos sinais envolvidos em problemas de filtragem linear
possuem certo grau de aleatoriedade, geralmente recorre-se a uma abordagem estatstica. Esta,
por sua vez, requer o conhecimento de alguns parmetros, tais como as funes de valor mdio
e de autocorrelao. Uma maneira eficiente de resolver este tipo de problema d-se a partir da
minimizao do valor quadrtico mdio do erro entre o sinal desejado e a sada do filtro. Quando
os sinais envolvidos no processo de filtragem so processos estocsticos estacionrios, a
soluo tima pode ser obtida a partir do filtro de Wiener. Tal soluo dita tima no sentido
mdio quadrtico. No entanto, a abordagem de Wiener requer conhecimento a priori das
propriedades estatsticas dos dados a serem processados, alm de ser inadequada para situaes
onde os sinais envolvidos no so processos estacionrios, onde o filtro precisa assumir um
carter variante no tempo.
Uma alternativa vivel para lidar com a no-estacionariedade, ou mesmo a falta de
conhecimento das propriedades estatsticas dos sinais envolvidos, so os filtros adaptativos.
Estes filtros foram desenvolvidos tendo como base a teoria de filtragem linear tima e
demonstram-se eficientes para aplicaes em tempo real (Haykin, 1996). Isto deve-se
capacidade destes dispositivos de se auto ajustarem s mudanas do ambiente no qual esto
inseridos. Tal capacidade reside no uso de um algoritmo adaptativo, o qual converge para a
soluo tima de Wiener para o caso estacionrio. Em contrapartida, para o caso no
estacionrio, este tipo de algoritmo possui uma caracterstica de rastreamento, a despeito das
variaes na estatstica dos sinais envolvidos. Vrios algoritmos adaptativos tm sido
desenvolvidos na literatura para a operao em filtros lineares adaptativos (Diniz, 2012). A
12

escolha do algoritmo mais adequado para uma determinada aplicao deve ser feita com base
em fatores tais como velocidade de convergncia, capacidade de rastreamento, robustez a
pequenas perturbaes, estrutura de implementao, dentre outros (Haykin, 1996).
Este captulo aborda alguns dos aspectos fundamentais da teoria dos filtros adaptativos,
com enfoque voltado para os algoritmos adaptativos da classe LMS. Primeiramente, so
mostrados alguns problemas prticos nos quais os filtros adaptativos so empregados. Em
seguida, apresentada uma estrutura chamada de filtro transversal, o qual usado na
implementao dos algoritmos adaptativos considerados neste trabalho. Logo aps, feita uma
breve discusso a respeito de processos estocsticos estacionrios, com o objetivo de apresentar
algumas funes e elementos estatsticos de interesse para a operao dos filtros lineares
timos, os quais deram origem aos filtros adaptativos. Posteriormente, so apresentados alguns
conceitos do filtro de Wiener, com o intuito de construir a base terica necessria para entender
o funcionamento dos filtros adaptativos. Por fim, so apresentados trs algoritmos. Os dois
primeiros so o algoritmo de descida mais ngreme (SD steepest descent) e a implementao
estocstica deste, a saber, o algoritmo LMS (Widrow & Stearns, 1985). J o terceiro uma
evoluo do algoritmo LMS, o qual chamado de LMS normalizado ou NLMS. Os algoritmos
adaptativos proporcionais, objeto de estudo deste trabalho, so derivaes do algoritmo NLMS.

2.1 Aplicaes dos Filtros Adaptativos

A natureza auto projetvel dos filtros adaptativos confere a estes dispositivos a


possibilidade de serem aplicados em vrios campos da cincia e engenharias (Nascimento &
Silva, 2012). Em outras palavras, a capacidade destes filtros de se ajustarem automaticamente
s mudanas do ambiente faz com que estes dispositivos desempenhem um papel relevante em
vrios problemas prticos. Dentre as reas nas quais os filtros adaptativos tm sido empregados
com sucesso pode-se citar o controle de processos, as telecomunicaes, a engenharia
biomdica, a sismologia, aplicaes envolvendo radar, sonar, dentre outras (Widrow & Stearns,
1985), (Sayed, 2003), (Adali & Haykin, 2010) e (Diniz, 2012). Embora distingam-se devido
natureza de cada problema, tais aplicaes possuem como caracterstica comum o uso de um
vetor de entrada e de uma sada desejada para computar um erro de estimao, o qual por sua
vez usado para ajustar os valores de um conjunto de parmetros variveis do filtro adaptativo.
Entretanto, a principal diferena entre as vrias aplicaes destes filtros reside na forma como
a sada desejada obtida (Haykin, 1996). Com o objetivo de mostrar a importncia dos filtros
adaptativos, esta seo apresenta quatro exemplos prticos de aplicao destes dispositivos. So
eles a identificao de sistemas, o cancelamento de eco em telecomunicaes, a equalizao de
canais de comunicao e o controle ativo de rudo.

2.1.1 Identificao de Sistemas

A Figura 2.1 mostra a aplicao de um filtro adaptativo na resoluo de um problema


de identificao de sistemas. Nesta figura, () o sinal de entrada da planta, () a sada
da planta (ou o sinal desejado), () a sada do filtro adaptativo, () o sinal de erro e ()
o rudo de medio. Os vetores () e () representam, respectivamente, as respostas
impulsivas da planta e do filtro adaptativo. Este ltimo, por sua vez, usa o algoritmo adaptativo,
13

A, o qual possui como entradas () e (), para modificar, a cada instante de tempo, , a
resposta impulsiva do filtro, (). O objetivo destas modificaes iterativas aproximar ()
de zero e, consequentemente, tornar () uma boa estimativa de ().

Figura 2.1. Aplicao de um filtro adaptativo em um problema de identificao de sistemas.

Neste tipo de aplicao escolhe-se, com o apoio de algum conhecimento a priori da


planta a ser identificada, (), um filtro adaptativo, (), com uma dada quantidade de
parmetros que podem ser ajustados pelo algoritmo adaptativo, A, de forma que a diferena
entre a sada da planta, (), e a do filtro adaptativo, (), seja minimizada.
A maioria dos sistemas de controle modernos realiza uma identificao on-line da planta
a ser controlada. O resultado desta identificao pode ser usado, por exemplo, em um
Controlador Auto-ajustvel (STR Self-Tuning Regulator), como o mostrado no exemplo da
Figura 2.2. Para este tipo de sistema de controle, necessrio que o modelo da planta seja
especificado. A varivel () representa o sinal de referncia. J as variveis () e () so,
respectivamente, a entrada e a sada da Planta. A identificao ou estimao on-line dos
parmetros da Planta realizada pelo Filtro Adaptativo, o qual usa o sinal de erro, (),
para ajustar os seus coeficientes com o objetivo de assimilar o comportamento da Planta. O
resultado da estimao ento enviado ao bloco denominado Projeto do Controlador, o qual
usa os dados dos parmetros estimados da Planta, alm das Especificaes da poltica de
controle adotada, para ajustar os parmetros do Controlador. Este ltimo, por sua vez, aplica
um sinal de entrada, (), na Planta com o objetivo fazer com que a sua sada, (), siga a
referncia, ().
Note, da Figura 2.2, que este tipo de sistema de controle possui dois laos de
realimentao. O primeiro o lao interno de realimentao unitria entre a planta e o
controlador. O outro o lao externo responsvel por ajustar os parmetros do controlador. O
termo auto-ajustvel foi usado para expressar a capacidade dos parmetros do controlador de
convergirem para o controlador que deveria ser projetado caso a dinmica da planta fosse
conhecida. Um resultado interessante do uso deste sistema de controle adaptativo que isto
pode ocorrer mesmo se a estrutura escolhida para estimar os parmetros da planta estiver
incorreta (Astrom & Wittenmark, 1994). Para realizar a estimao dos parmetros da planta
utiliza-se um esquema semelhante ao da Figura 2.1.
14

Figura 2.2. Diagrama de blocos de um controlador auto-ajustvel

Como exemplos de algoritmos adaptativos que podem ser empregados neste processo
de estimao, tem-se o de mnimos quadrados recursivo (RLS recursive least squares) e o
LMS. Pode-se escolher entre uma ampla variedade de modelos de planta e estruturas de
controlador. Tambm existem vrias tcnicas de projeto de controlador que podem ser usadas.

2.1.2 Cancelamento de Eco em Telecomunicaes

Raramente uma conversa entre dois usurios de um sistema de telecomunicaes


acontece sem eco. Um dado usurio A escuta o eco da prpria voz durante uma conversa com
um outro usurio B quando as ondas do sinal de voz de A, as quais so emitidas pelo
autofalante de B, sofrem reflexo nas paredes e demais objetos do ambiente onde B est e
so captadas pelo microfone deste ltimo (Nascimento & Silva, 2014). H tambm a
possibilidade de parte das ondas emitidas pelo autofalante de B serem captadas diretamente
pelo microfone sem que haja reflexo das mesmas. O usurio B tambm escuta o eco da
prpria voz quando algo semelhante ocorre do outro lado da linha, ou seja, onde o usurio A
est. Como exemplo, considere que B est se comunicando distncia com A a partir de
um telefone celular em modo viva-voz. Neste caso, as ondas de sinal de voz de A,
transmitidas pelo sistema, sero emitidas pelo autofalante do celular de B e iro se propagar
dentro do carro. Ento, estas ondas sofrero reflexes toda vez que encontrarem obstculos
dentro do carro, gerando um sinal de eco da voz de A. O microfone de B capta ento parte
deste eco, o qual ser transmitido pelo sistema de volta at A. Consequentemente, A
escutar o eco da prpria voz durante a conversa com B, caso o sistema no possua aparelhos
capazes de eliminar tal eco.
O exemplo do pargrafo anterior refere-se ocorrncia de um eco acstico. Contudo,
ecos tambm podem ser gerados dentro dos circuitos de telefonia. Neste caso, quando um sinal
transmitido encontra, em algum ponto, um desbalanceamento de impedncias, parte deste sinal
acaba sendo refletido, tornando-se em eco. O dano que tal eco pode causar operao do
15

sistema depende da potncia do sinal refletido, da distoro causada no espectro de frequncias


e do atraso em relao ao sinal original (Sondhi & Berkley, 1980). Quando a defasagem entre
o sinal original e o refletido seja pequena, o usurio do sistema no capaz de identificar o eco.
Porm, nesta situao, os efeitos causados pelo eco so percebidos na forma de distoro
espectral ou reverberao. Em particular, um tipo de eco praticamente instantneo, chamado de
tom lateral (sidetone), ocorre sempre que h acoplamento acstico entre a orelha do usurio e
o aparelho de telefone, ou seja, quando estes esto muito prximos ou mesmo em contato fsico.
O efeito deste eco sentido como uma leve vibrao do aparelho, resultante das mltiplas
reflexes das ondas sonoras no ouvido do usurio e no telefone. Por outro lado, ecos acsticos
ou de rede defasados de algumas centenas de milissegundos causam uma sensao de irritao
no usurio, impedindo que este consiga se comunicar corretamente, isto , sem balbuciar ou
interromper o raciocnio repetidas vezes. Este incmodo ocorre mesmo em situaes onde a
potncia do eco muito menor do que a do sinal original.
Ecos com defasagem suficiente para prejudicarem sistemas de telecomunicaes so
observados somente em conexes de longa distncia, tais como as de sistemas de comunicao
via satlite. Como um exemplo da magnitude que estas distncias podem alcanar, considere
um sistema que utiliza satlites geoestacionrios. Tais satlites ficam posicionados a cerca de
37 mil quilmetros acima da superfcie da terra. O caminho de ida e volta a ser percorrido por
um sinal de eco nesse sistema corresponde a quatro vezes esta distncia. Isto resulta em um
atraso de pelo menos 500 milissegundos em relao ao sinal de voz original (Sondhi, 2006).
Um esquema simplificado de um sistema telefnico de longa distncia mostrado na
Figura 2.3. Neste esquema, cada linha slida representa um circuito de dois fios. Cada telefone
(usurios A e B) conecta-se com a central de telefonia a partir de uma linha de comunicao
local composta por dois fios, denominada de linha de assinante (subscribers loop). Esta linha
usada para envio e recebimento de sinais de voz. O uso destas linhas com dois fios deve-se
primeiramente economia proporcionada com o uso de menos fios e dispositivos de
chaveamento. A outra vantagem desta prtica que, no caso de uma ligao local, basta
conectar diretamente na central as linhas dos dois assinantes envolvidos. Porm, para
comunicaes de longa distncia, so necessrias duas linhas distintas, 1 e 2 , uma para envio
e outra para recepo de dados, respectivamente.
Uma das razes desta prtica deve-se ao fato de que circuitos longos requerem o uso de
amplificadores, os quais so dispositivos unidirecionais. A outra razo econmica, uma vez
que chamadas de longa distncia devem ser multiplexadas. Diferentes chamadas usam pores
distintas da largura de banda de um dado canal de comunicao. A multiplexao, por sua vez,
requer que os sinais transmitidos em cada direo sejam enviados atravs de canais distintos.
Logo, quando tal separao de caminhos necessria, deve-se providenciar uma forma de
conectar os circuitos de dois fios dos assinantes ao circuito de quatro fios do sistema, o qual
formado por 1 e 2 .
16

Figura 2.3. Esquema simplificado de um circuito de telefonia para uma conexo de longa distncia
Fonte: Autor

O responsvel por executar tal tarefa o transformador diferencial ou transformador


hbrido ou, simplesmente, hbrido (hybrid). Como mostra a Figura 2.3, neste dispositivo onde
surgem os ecos da rede telefnica. Isto se d pelo desbalanceamento entre as impedncias da
linha do assinante e do circuito de quatro fios. Para tentar resolver este problema, cada hbrido
faz uso de uma impedncia de balanceamento, representada pelo bloco com a letra Z na
Figura 2.3. No entanto, um dado hbrido (o qual faz parte de um circuito de quatro fios)
responsvel por se conectar com um grupo de vrias linhas de assinante. Cada uma destas, por
sua vez, pode ser composta pelos mais comprimentos e tipos de materiais. Portanto,
praticamente impossvel balancear a impedncia Z de um mesmo hbrido a cada uma das
impedncias das suas respectivas linhas de assinante. Ento, conforme exposto anteriormente,
uma consequncia inevitvel deste desbalanceamento o eco de rede (tambm chamado de eco
de linha).
Os primeiros canceladores de eco foram idealizados na dcada de 1960 (Sondhi &
Presti, 1966) e (Sondhi, 1967). O princpio bsico de tais dispositivos consiste em produzir uma
rplica sinttica do sinal de eco para ento subtra-la do mesmo. Isto deve ser feito sem que a
comunicao entre os usurios seja interrompida. Se a resposta impulsiva do canal por onde o
eco se propaga possuir caracterstica linear, ento um filtro linear pode ser usado para produzir
uma rplica do sinal desejado e, portanto, este eco pode ser cancelado (Sondhi, 2006). Os filtros
empregados neste mtodo necessitam da injeo de sinais de teste na sua entrada para o
aprendizado dos mesmos. Isto deve ser feito de forma itermitente e durante as conversaes.
Como os caminhos de propagao dos ecos no so ambientes perfeitamente estacionrios, isto
, suas propriedades estatsticas no so totalmente invariantes com o tempo, foram
desenvolvidos os canceladores de eco adaptativos. Tais canceladores utilizam o prprio sinal
de voz do usurio como entrada do filtro (Sondhi, 1967) e (Kelly & Logan, 1970).
Concebido inicialmente como um dispositivo analgico (Sondhi & Presti, 1966), o
cancelador de eco s pde ser comercializado aps 1980, ano da primeira implementao deste
tipo de dispositivo em um circuito integrado (Duttweiler & Chen, 1980). A partir da a
capacidade de processamento dos canceladores de eco s aumentou. Este fato tambm
possibilitou o desenvolvimento e a implementao de algoritmos adaptativos de estrutura
17

simples e robusta tais como o LMS, o NLMS e o PNLMS. Em particular, o NLMS foi e continua
sendo o algoritmo mais usado em canceladores de eco de todo o mundo (Paleologu, Ciochina,
Benesty & Gay, 2015). Embora, na prtica, o algoritmo PNLMS demonstre possuir maior
velocidade de convergncia do que o NLMS, ainda no existe uma prova matemtica que
explique as razes de sua convergncia (Sondhi, 2006).
A Figura 2.4 mostra o diagrama de blocos de um filtro adaptativo empregado na
resoluo de um problema de cancelamento de eco de rede. Note que o filtro, (), usa como
entrada o sinal de voz de A, transmitido pela linha 1 , para gerar uma sada que por sua vez
subtrada do eco de A, o qual gerado no hbrido conectado a B e transportado pela linha
2 . O resultado dessa subtrao ento usado pelo algoritmo adaptativo para modificar os
coeficientes do filtro, (), de forma que a sua sada seja uma boa estimativa do eco de A e,
consequentemente, este eco possa ser devidamente cancelado.

Figura 2.4. Filtro adaptativo empregado em um problema de cancelamento de eco de rede.

Desde a dcada de 1990, um problema similar ao cancelamento de eco rede vem


ganhando bastante destaque. Trata-se do cancelamento de eco acstico. As principais
aplicaes dos canceladores de eco acstico so as teleconferncias e as comunicaes sem fio
em geral (Sondhi, 2006). Apesar das semelhanas entre estes dois problemas, existem algumas
diferenas de cunho prtico que diferenciam o cancelamento de eco acstico do de rede. A
primeira est no comprimento da resposta impulsiva dos caminhos de eco. Os caminhos de eco
acstico possuem respostas impulsivas com nmero de coeficientes superior aos de rede. Como
consequncia disto, tem-se que o cancelamento de eco acstico exige filtros de ordem superior
aos usados nos canceladores de eco de rede. Outra diferena est na variabilidade da resposta
do caminho de eco. Os caminhos de eco acstico demonstram-se mais sensveis s variaes
no ambiente (Loganathan, Khong & Naylor, 2009) e (Farhang-Boroujeny, 2013).
Claramente, o cancelamento de eco acstico tambm pode ser visto como um problema
de identificao de sistemas, como mostra o exemplo da Figura 2.5. Neste caso, () um sinal
de voz proveniente de um usurio de longa distncia do sistema de telecomunicaes. Este sinal
de voz ento recebido por um usurio local do sistema atravs de um dispositivo tal como um
18

telefone celular, por exemplo. Ento, o autofalante (AF) reproduz () que se propaga pelo
ambiente onde o usurio local est, gerando eco. Este ambiente tambm chamado de caminho
de eco e pode ser modelado por uma planta cuja resposta impulsiva (). Ento, o eco ()
captado e transmitido pelo microfone (MIC). Este eco deve ser cancelado para evitar que o
usurio de longa distncia escute sua prpria voz enquanto estiver conversando com o usurio
local. Note que o microfone tambm capta o rudo do ambiente onde o usurio local est, alm
da voz do mesmo. A composio destes sinais representada por (). O filtro adaptativo
() usado para modelar a resposta impulsiva () do ambiente que gera (). Uma rplica
() de () ento obtida e subtrada deste ltimo. Resultados de aplicaes de filtros
adaptativos como canceladores de eco acstico mostram que, para este tipo de problema, apenas
uma pequena parcela de () formada por coeficientes no-nulos (Loganathan, Khong &
Naylor, 2009).

Figura 2.5. Filtro adaptativo aplicado em um problema de cancelamento de eco acstico.

Os problemas de cancelamento de eco acstico e de rede tm sido, desde o final da


dcada de 1990, os principais motivadores para o desenvolvimento dos algoritmos adaptativos
proporcionais (Benesty, Paleologu & Ciochina, 2010). Isto se deve caracterstica esparsa dos
caminhos de eco. Algoritmos tais como o PNLMS, o IPNLMS, o MPNLMS, o SC-IPNLMS e
o SC-PNLMS foram concebidos com o intuito de aprimorar o desempenho dos filtros
adaptativos empregados na resoluo deste tipo de problema (Duttweiler, 2000), (Benesty &
Gay, 2002), Deng & Doroslovacky, 2006) e (Loganathan, Khong & Naylor, 2009). Outras
abordagens correlatas dedicadas, tais como os algoritmos da classe ZA-LMS, tambm foram
desenvolvidas na tentativa de resolver problemas envolvendo eco (Das & Chakraborty, 2014).

2.1.3 Equalizao de Canais de Comunicao

Outra aplicao de filtros adaptativos empregada em vrias reas da engenharia a


chamada modelagem inversa ou deconvoluo. Em particular, o uso de um filtro adaptativo
como uma espcie de modelo inverso de uma determinada planta de especial interesse do
19

ramo das telecomunicaes. Especificamente, o filtro usado neste tipo de aplicao tem como
funo eliminar as distores inseridas por um dado canal de comunicao nos dados
transmitidos pelo mesmo. O filtro empregado para realizar tal tarefa chamado de equalizador.
A transmisso digital de dados em alta velocidade pode causar distores nos smbolos
transmitidos por um canal de comunicao. Isto acontece em razo da caracterstica dispersiva
de alguns canais e das no-linearidades introduzidas pelos processos de modulao e
demodulao. O equalizador precisa ser rpido o bastante para garantir a comunicao eficiente
em tempo real. A Figura 2.6 mostra o diagrama de blocos de um sistema de transmisso de
dados equipado com um equalizador de canais. A funo de transferncia do canal, (),
representa a resposta combinada do prprio canal de comunicao, juntamente com os
dispositivos de emisso e recepo dos smbolos transmitidos, (). O rudo, (), pode
ocorrer devido ao aquecimento dos circuitos do canal e tambm pela interferncia decorrente
de possveis conversas transmitidas por canais vizinhos. Estas distores produzidas pelo canal
podem causar um fenmeno conhecido como interfernicia entre smbolos (ISI Intersymbol
Interference), resultando em uma queda de desempenho dos dispositivos de interpretao e
recepo dos smbolos. Idealmente, o equalizador deve possuir uma funo de transferncia,
(), igual ao inverso da do canal de comunicao, ou seja
1
() = (2.1)
()
de forma que
()() = 1. (2.2)
Contudo, note que um equalizador com uma funo de transferncia dada por (2.1) pode
ser no-causal caso () possua algum zero fora do crculo unitrio, || 1. Para solucionar
este problema, pode-se escolher um equalizador tal que
()() = (2.3)
onde um valor inteiro apropriadamente escolhido para o atraso. Logo, a sada do
equalizador, (), uma rplica atrasada dos smbolos transmitidos pelo canal, ou seja
() = ( ) . (2.4)
Note tambm que a escolha de um equalizador tal que () = /() pode levar a
um aumento na amplitude do rudo aditivo, (), nas frequncias onde a magnitude de ()
pequena. Portanto, a escolha de um equalizador, (), deve ser feita levando em considerao
o balano entre a reduo da ISI e a da magnitude do rudo na sada do equalizador (Farhang-
Boroujeny, 2013). O filtro de Wiener pode prover uma soluo que garanta tal balano. No
entanto, esta abordagem est limitada a um regime de estacionariedade dos dados envolvidos
(Haykin, 1996). Uma alternativa eficiente capaz de contornar este problema o uso de um
equalizador adaptativo.
20

Figura 2.6. Sistema de transmisso de dados com um equalizador de canais


Fonte: Autor

A Figura 2.7 mostra o diagrama de blocos de um sistema de transmisso de dados


equipado com um equalizador adaptativo. Note que este equalizador necessita de uma
sequncia inicial de treinamento (idealmente, uma rplica atrasada dos smbolos transmitidos
pelo canal) para a adaptao dos coeficientes do equalizador. Ento, antes da operao do
equalizador, necessrio que haja um perodo de inicializao, durante o qual o emissor envia
uma sequncia de smbolos de treinamento que j so conhecidos pelo receptor. Este perodo
chamado de modo de treino. Os smbolos de treinamento normalmente so especificados pelos
fabricantes dos dispositivos de envio e recepo de dados como parte de padres pr-
estabelecidos para os sistemas de comunicao. O objetivo desta padronizao garantir que
dispositivos de diferentes fabricantes possam se comunicar sem perda de qualidade (Farhang-
Boroujeny, 2013).

Figura 2.7. Sistema de transmisso de dados com equalizador adaptativo

Ao final do modo de treino, espera-se que os coeficientes do equalizador tenham


convergido para valores prximos dos timos. Assim, os smbolos detectados pelo interpretador
podem ser usados como o sinal desejado para o restante do processo de adaptao. Este segundo
modo de operao chamado de modo orientado por deciso ou simplesmente modo de
deciso. Tal modo funciona satisfatoriamente enquanto as variaes no canal forem
suficientemente pequenas de forma que o algoritmo adaptativo seja capaz de rastre-las.
Teoricamente, os smbolos gerados pelo emissor seriam a melhor escolha para o sinal desejado,
(), do equalizador adaptativo. Porm, na prtica, o este ltimo fica localizado juntamente
com o receptor, ou seja, h uma separao fsica entre o equalizador e a sua resposta ideal
desejada. Da a importncia da sequncia padronizada de treinamento para ajustar os
21

coeficientes do equalizador adaptativo e, consequentemente, garantir que o modo de deciso


opere satisfatoriamente (Haykin, 1996).

2.1.4 Controle Ativo de Rudo

Quando uma determinada situao requer a eliminao de um rudo presente em um


dado sinal, o qual constitudo por um sinal desejado e por este rudo, diz-se que o problema
em questo de cancelamento de interferncia. Em um problema geral de cancelamento de
interferncia, o qual mostrado no diagrama da Figura 2.8, tem-se acesso a um dado sinal,
(), chamado de entrada primria e que composto pela mistura de dois outros sinais. O
primeiro o sinal desejado, (), enquanto que o segundo a interferncia, (), que foi
adicionada a (). Deseja-se separar () de () ou, em outras palavras, eliminar ().
Embora no se tenha conhecimento completo a respeito dos sinais () e (), normalmente
dispe-se de alguma informao a respeito de () na forma de um dado sinal ou entrada de
referncia, (). Ento, um filtro adaptativo, (), pode ser usado para produzir, a partir de
(), uma estimativa, (), da interferncia, (). Esta estimativa ento subtrada da entrada
primria, (), para obter um sinal de erro, (). Este, por sua vez, utilizado pelo algoritmo
adaptativo para ajustar iterativamente os coeficientes do filtro adaptativo, (). O objetivo
destes ajustes aproximar () de (). Quando a estimativa, (), for uma rplica da
interferncia, (), o sinal de erro, (), ser igual ao sinal desejado, (). Por isso o nome
cancelamento de interferncia (Nascimento & Silva, 2014).

Figura 2.8. Diagrama de um problema de cancelamento de interferncia

Um exemplo clssico de cancelamento de interferncia pode ser encontrado em um


exame clnico neurofisiolgico chamado de eletroencefalograma (EEG). Este exame avalia o
funcionamento do crebro do paciente a partir da anlise da atividade eltrica cerebral
espontnea do mesmo, e indicado para diagnosticar os mais variados transtornos neurolgicos.
A Figura 2.9 mostra um diagrama simplificado de um EEG onde a prpria fonte de alimentao
do aparelho que realiza o exame contamina o sinal coletado com um rudo de frequncia 60Hz.
Como este rudo exerce influncia sob o paciente, o sinal aleatrio do EEG coletado pela
entrada primria juntamente com a interferncia, (), causada pela fonte de alimentao. Para
cancelar desta interferncia, toma-se amostras do sinal da fonte de rudo como a entrada de
22

referncia, (), de um filtro adaptativo, (). Este filtro, por sua vez, usa esta entrada e o
sinal de erro, (), para ajustar seus coeficientes de forma que a sua sada, (), seja uma
rplica do rudo, (), que contamina o sinal, (), colhido pelo eletrocardiograma. Ento,
() subtrado de () para que se possa isolar o sinal desejado, (), a partir do sinal
restaurado, (). Em outras palavras, se () for uma rplica de (), tem-se que () igual
a () (Hagan, Demuth, Beale & De Jess, 2015). Um sistema similar usado para eliminar a
interferncia presente em sinais de eletrocardiogramas (Widrow & Walach, 2007).

Figura 2.9. Filtro adaptativo aplicado no cancelamento da interferncia causada por uma fonte de alimentao de
60Hz em um sinal de EEG.

Outra aplicao de filtros adaptativos envolvendo cancelamento de interferncia o


chamado de controle ativo de rudo. Em particular, rudos de natureza acstica podem ocorrer
em vrios ambientes de natureza industrial. Nestes ambientes, geralmente esto presentes
mquinas rotativas de grande porte tais como exaustores, moinhos, correias transportadoras e
compressores de ar, alm de dutos exausto de gases e sistemas de ventilao. Tais
equipamentos esto entre as principais fontes de rudo do setor industrial primrio. Como
exemplo de aplicao de controle ativo de rudo neste tipo de ambiente, a Figura 2.10 mostra o
diagrama simplificado de um sistema de controle ativo de rudo em um duto de exausto de
gases. A fonte de rudo (possivelmente uma mquina rotativa) gera um rudo primrio que
captado pelo microfone de referncia. Este microfone funciona como entrada de referncia,
(), para o controlador ativo de rudo, o qual tambm usa dados do rudo secundrio, (),
captado pelo microfone de erro para produzir uma sada, (). Esta sada ento convertida
em uma onda acstica pelo autofalante de cancelamento. Tal onda usada para cancelar o rudo
primrio que se propaga pelo duto.
23

Figura 2.10. Sistema de controle ativo de rudo em um duto de exausto.


Fonte: Autor

Um algoritmo adaptativo amplamente empregado no controle ativo de rudo o LMS


de entrada filtrada (FXLMS filtered-x least-mean-square). Proposto por Dennis R. Morgan
em 1980, o algoritmo FXLMS recebeu este nome pelo fato de o sinal de referncia normalmente
ser descrito pela letra (Morgan, 1980) e (Widrow & Stearns, 1985), embora tal terminologia
no fosse usada pelo autor no momento da concepo do algoritmo FXLMS (Morgan, 2013).
Outras reas de aplicao de controle ativo de rudo a partir do algoritmo FXLMS incluem
engenharias automotiva e aeronutica, rudo de transformadores de potncia e de geradores de
grande porte, dentre outras (Nascimento & Silva, 2014).
Muitas aplicaes prticas de filtros adaptativos, juntamente com os algoritmos
adaptativos desenvolvidos para estas aplicaes, usam uma estrutura de filtro de resposta ao
impulso finita (FIR finite impulse response) chamada de filtro adaptativo transversal (Widrow
& Walach, 2007). Esta estrutura de filtro discutida a seguir em detalhes.

2.2 Filtro Adaptativo Transversal

Considere um sistema dinmico com entradas, (), com = 1,2, , , e uma sada,
(), mostrado na Figura 2.11(a), para o qual deseja-se determinar sua caracterizao
matemtica. Este sistema pode ser modelado na forma de um Combinador Linear Adaptativo
(CLA), o qual mostrado na Figura 2.11(b). Neste caso, o CLA possui um algoritmo adaptativo
que usa o erro, (), entre sua a sada, (), e a sada do sistema dinmico, (), para ajustar,
em cada instante de tempo, , os coeficientes, (), com = 1,2, , , com o objetivo de
minimizar a diferena entre () e () e, consequentemente, assimilar o comportamento do
sistema dinmico desconhecido. Note da Figura 2.11(b) que a sada do CLA, (), igual
soma das entradas, (), com = 1,2, , , ponderadas pelos seus respectivos coeficientes,
(), com = 1,2, , , ou seja

() = () ()
=1
24

= T ()() (2.5)
onde
() = [1 () 2 () ()]T (2.6)
e
() = [1 () 2 () ()]T (2.7)
so os vetores de entrada e de coeficientes do CLA, respectivamente. O sobrescrito T denota
transposta de um vetor ou matriz.

(a)

(b)
Figura 2.11. Modelagem de um sistema dinmico de caracterizao matemtica desconhecida. (a) Diagrama de
blocos do sistema dinmico. (b) Modelagem do sistema dinmico a partir de um CLA.
Fonte: Autor

A operao do CLA consiste na execuo contnua e sequencial de duas etapas. So


elas:
Filtragem: a partir de (2.5), computa-se a sada do CLA, (), e calcula-se o sinal de
erro, (), dado por
() = () (). (2.8)
Adaptao: o algoritmo adaptativo usado para atualizar do vetor de coeficientes do
CLA, (). Uma nova estimativa deste vetor, denotada por ( + 1), ento usada
25

para computar a nova sada, ( + 1), e calcular o novo valor do erro, ( + 1),
correspondentes etapa de filtragem da iterao seguinte, + 1.
Note que, exceto durante a etapa de adaptao, a sada do CLA uma combinao linear
de suas entradas. Porm, enquanto os coeficientes do CLA esto sendo atualizados, no intervalo
entre uma iterao e outra, tais coeficientes tornam-se dependentes dos dados de entrada e sada
do sistema dinmico e dos prprios parmetros do CLA. Isto uma consequncia direta da
aplicao do algoritmo adaptativo e confere uma caracterstica no-linear ao CLA, uma vez
que, durante a etapa de adaptao, o princpio da superposio no atendido (Haykin, 1996).
Um sistema adaptativo de estrutura semelhante do CLA o filtro adaptativo
transversal. O diagrama de blocos deste sistema mostrado na Figura 2.12. Tal filtro possui
apenas uma entrada, (), e uma sada, (). A varivel () a sada ou o sinal desejado. A
sada do filtro adaptativo transversal, (), dada pela combinao linear das amostras
atrasadas da entrada, (), ou seja

() = ( + 1) ()
=1
= T ()() (2.9)
onde
() = [() ( 1) ( 2) ( + 1)]T (2.10)
o vetor das amostras atrasadas da entrada ou, simplesmente, vetor de entrada. A varivel
representa a ordem do filtro.

Figura 2.12. Diagrama de blocos de um filtro adaptativo transversal.


26

O filtro adaptativo transversal um filtro FIR, ou seja, um sistema de tempo discreto


que possui, em um dado instante de tempo, , a seguinte funo de transferncia
() = 1 () + 2 () 1 + + () . (2.11)
Os filtros FIR possuem a caracterstica de serem sempre estveis, uma vez que os plos
destes filtros esto todos localizados na origem do plano . Alm disso, tais filtros podem ser
projetados para estimar com preciso respostas impulsivas arbitrrias se a ordem do filtro for
suficientemente grande. Em contrapartida, quanto maior a ordem requerida para o filtro FIR,
maiores sero os requisitos de memria e o esforo computacional necessrio (Schilling &
Harris, 2011). Isto pode prejudicar o desempenho do filtro em termos de velocidade de
convergncia e capacidade de rastreamento (Homer, Mareels & Hoang, 2006).
O filtro adaptativo transversal a estrutura mais comumente usada em implementao
de filtros adaptativos. Isto deve-se simplicidade das operaes que so efetuadas neste
dispositivo, que so basicamente adies e multiplicaes (Farhang-Boroujeny, 2013). Todos
os algoritmos adaptativos abordados neste trabalho consideram a estrutura de um filtro
adaptativo transversal.
A seguir, so apresentados alguns conceitos da base terica necessria para o
desenvolvimento dos algoritmos adaptativos LMS normalizados proporcionais, objeto de
estudo deste trabalho. Primeiramente feito um breve estudo a respeito de processos
estocsticos estacionrios. Logo aps, o filtro de Wiener apresentado. Posteriormente, os
algoritmos SD, LMS e NLMS so derivados e suas principais caractersticas so discutidas. Por
fim, so apresentadas duas medidas usualmente empregadas para avaliar o desempenho dos
algoritmos adaptativos, a saber, o desalinhamento normalizado em dB e o erro quadrtico
mdio.

2.3 Processos Estocsticos Estacionrios

A maioria dos sinais envolvidos em problemas reais de engenharia no podem ser


descritos a partir de uma anlise matemtica precisa. Em contrapartida, tais sinais podem ser
caracterizados de forma probabilstica, usando elementos de anlise estatstica, ou seja, podem
ser descritos como processos estocsticos. O termo processo estocstico pode ser usado para
definir a evoluo temporal de um dado fenmeno para o qual no possvel descrever seu
comportamento de maneira exata ou determinstica. Um processo estocstico pode ser
representado por uma funo do tempo definida em um dado intervalo de observao. Tal
funo, teoricamente, deve ser capaz de representar infinitas e distintas realizaes do mesmo
processo (Haykin, 1996). Exemplos de processos estocsticos incluem sinais de voz, de entrada
e sada de canais de comunicao, dados transmitidos por protocolos de redes industriais, dados
de fenmenos ssmicos, dentre outros.
Um tipo de processo de particular interesse da rea de filtragem adaptativa so os
processos estocsticos de tempo discreto. A evoluo temporal de tais processos dada em
instantes de tempo discretos e uniformemente espaados. Um processo estocstico de tempo
discreto, {()}, pode ser representado por uma sequncia
27

{(0), (1), (2), } (2.12)


de variveis aleatrias, (), indexadas pelo ndice temporal , com = 0, 1, 2, . Assume-
se que cada varivel aleatria uma funo contnua em qualquer instante de tempo, . A
sequncia dada por (2.12) denominada srie de tempo discreto ou simplesmente srie
temporal. Esta srie tambm pode ser escrita da forma
{(), ( 1), ( 2), , ( + 1)} (2.12)
contendo uma amostra de um dado sinal, (), coletada no instante de tempo , e outras 1
amostras deste mesmo sinal coletadas nos instantes 1, 2, , + 1. Tais amostras
podem assumir valores reais ou complexos. Diz-se que uma srie temporal um tipo particular
de realizao de um dado processo estocstico (Haykin, 1996).
Um processo estocstico dito estritamente estacionrio se suas propriedades
estatsticas so invariantes com o tempo. Em particular, para que um processo descrito por uma
srie temporal semelhante dada por (2.12) seja estritamente estacionrio, a funo de
densidade de probabilidade de cada uma das amostras colhidas nos instantes de a + 1
deve permanecer a mesma, independentemente dos valores de e (Farhang-Boroujeny,
2013). Porm, na prtica, geralmente no possvel determinar a funo densidade de
probabilidade de uma srie temporal arbitrria. Todavia, a partir das amostras de tal srie, pode-
se obter uma caracterizao parcial do processo. Para tal, necessrio especificar os momentos
de primeira e segunda ordem do processo. So eles, as funes de valor mdio, de
autocorrelao e de autocovarincia (Manolakis, Ingle & Kogon, 2005).
Seja um processo estocstico de tempo discreto, {()}, representado pela srie
temporal de (2.12). A funo de valor mdio ou, simplesmente, a mdia deste processo dada
por
() = E[()] (2.13)
onde E[] o operador valor esperado. J a funo de autocorrelao de {()} dada por
(, ) = E[() ( )] (2.14)
com = 0, 1, 2, , e o sobrescrito denotando conjugao complexa. A funo de
autocovarincia de {()} dada por

(, ) = E[(() ())(( ) ( )) ] (2.15)
com = 0, 1, 2, . Note que as funes de valor mdio, autocorrelao e autocovarincia,
dadas respectivamente por (2.13), (2.14) e (2.15), esto relacionadas da seguinte forma
(, ) = (, ) () ( ). (2.16)
Assim, para uma caracterizao parcial do processo, {()}, faz-se necessrio
especificar a funo de valor mdio, (), e a funo de autocorrelao, (, ) ou a
funo de autocovarincia, (, ), para vrios valores de e que forem de interesse. A
vantagem de tal caracterizao que a mesma pode ser feita a partir de amostras reais do
28

processo, alm de ser adequada para situaes nas quais so realizadas operaes lineares com
processos estocsticos (Haykin, 1996).
Caso o processo em questo for estritamente estacionrio, as funes definidas nas
equaes de (2.13) a (2.15) assumem formas mais simples. Em particular, a funo de valor
mdio torna-se uma constante, ou seja
() = , . (2.17)
J as funes de autocorrelao e autocovarincia tornam-se dependentes apenas da
diferena entre os instantes de observao e , ou seja, do valor de . Logo
(, ) = () (2.18)
e
(, ) = () (2.19)
onde, obviamente, a diferena ( ) = indica o valor de atraso (lag) entre as amostras.
Quando = 0, tem-se que (0) igual ao valor quadrtico mdio de ()
(0) = [|()|2 ] (2.20)
e () igual varincia de ()
(0) = 2 . (2.21)
Note que as equaes de (2.17) a (2.21) no so condies suficientes para definir se
um processo estocstico de tempo discreto, {()}, estritamente estacionrio ou no. No
entanto, se {()} atende estas condies, o mesmo dito estacionrio de 2 ordem ou
estacionrio no sentido geral (Manolakis, Ingle & Kogon, 2005). Um processo estritamente
estacionrio, {()}, tambm ser estacionrio no sentido geral se, e somente se
[|()|2 ] < , . (2.22)
A condio dada por (2.22) satisfeita pela maioria dos processos estocsticos
encontrados em problemas de engenharia (Haykin, 1996). Uma srie temporal dada por (2.12)
tambm pode ser representada pelo vetor de observao
() = [() ( 1) ( + 1)]T (2.23)
correspondente s amostras de uma realizao de {()}. A partir deste vetor, define-se a matriz
de autocorrelao, , de um processo estocstico estacionrio como sendo a expectativa
matemtica do produto externo do vetor de observao por ele mesmo, ou seja
= [()()H ] (2.24)
onde o sobrescrito H denota hermitiano, ou transposto e conjugado complexo, de um vetor ou
matriz. Caso os elementos do vetor () forem reais, a matriz pode ser reescrita da seguinte
forma
= [()()T ] (2.25)
que, na forma expandida, dada por
29

[()()] [()( + 1)]


[( 1)()] [( 1)( + 1)]
=[ ]. (2.26)

[( + 1)()] [( + 1)( + 1)]
Assumindo que {()} seja estritamente estacionrio, a matriz de (2.26) pode ser
reescrita da forma
(0) (1) ( 1)
(1) (0) ( 2)
=[ ] (2.27)

( + 1) ( + 2) (0)
onde (), com = + 1, , 1, 0, 1, , 1, a autocorrelao de (2.18) para um lag
igual a . A matriz possui um papel fundamental no projeto de filtros de tempo discreto.
importante notar que, para um processo estocstico estacionrio, a matriz possui algumas
propriedades que facilitam a anlise matemtica, tais como ser simtrica, toeplitz, positiva
semidefinida, dentre outras (Haykin, 1996).
Na prtica, a estimao das mdias (ou funes) estocsticas dadas pelas equaes de
(2.13) a (2.15) no vivel, uma vez que seriam necessrios dados de vrias realizaes (ou
vrias sries temporais) de um mesmo processo, mesmo se este ltimo for estacionrio. Como
na prtica dispe-se de apenas uma nica realizao do processo, uma alternativa vivel o uso
de mdias temporais para aproximar mdias estocsticas de interesse. A caracterstica de
mdias temporais serem capazes de igualar mdias estocsticas, para um dado processo
estocstico, chamada de ergodicidade. Em filtragem adaptativa linear sempre assumido que
os processos envolvidos so ergdicos no sentido restrito, ou seja, todas as funes estocsticas
so obtidas a partir de mdias temporais (Farhang-Boroujeny, 2013). A seguir apresentado
um tipo de filtro linear de desempenho satisfatrio para ambientes estacionrios chamado de
filtro de Wiener.

2.4 Filtro de Wiener

O filtro de Wiener parte integrante da classe dos filtros lineares timos (Haykin, 1996).
Os filtros adaptativos so derivados da teoria de filtragem de Wiener. Assim, alguns conceitos
envolvendo filtro de Wiener so essenciais para entender do funcionamento dos filtros
adaptativos (Farhang-Boroujeny, 2013). Conforme a teoria de Wiener, os coeficientes timos
de um filtro linear podem ser obtidos a partir da minimizao de uma dada funo de
desempenho chamada de erro quadrtico mdio (MSE mean square error). O clculo de tal
funo requer o conhecimento de certas funes estatsticas que no so possveis de obter em
aplicaes prticas. Este problema pode ser resolvido usando ergodicidade. O comportamento
do MSE para o filtro de Wiener apresentado a seguir em detalhes.
Considere o esquema de filtragem da Figura 2.13 onde um filtro linear de tempo
discreto, (), usado para estimar um sinal desejado, (), a partir do processamento de uma
dada entrada, (). Este filtro produz uma sada, (), a qual subtrada do sinal desejado,
30

(), gerando um erro de estimao, (). Obviamente, quanto mais prximo de zero o erro
de estimao, melhor o desempenho do filtro. Ento, uma abordagem adequada para a
determinao dos parmetros do filtro deve se basear na otimizao (ou minimizao) de uma
funo de custo que possua relao com o erro de estimao. Esta funo de custo pode tambm
ser chamada de superfcie de desempenho ou funo de desempenho (Farhang-Boroujeny,
2013). Tal funo deve ser matematicamente rastrevel, de forma que a anlise do filtro e o
desenvolvimento de algoritmos iterativos para ajustar os parmetros do filtro sejam possveis.
Alm disso, a funo de desempenho tambm deve possuir, preferencialmente, um nico ponto
timo (ou de mnimo), para que os parmetros timos do filtro possam ser determinados de
forma nica, ou seja, sem ambiguidades.

Figura 2.13. Filtro linear de tempo discreto empregado em um problema de estimao.

Devido sua estrutura, os filtros FIR apresentam um nico ponto timo (ou mnimo)
global caso a funo de desempenho seja escolhida apropriadamente. Para o filtro de Wiener,
toma-se o MSE dado por
= E[|()|2 ] (2.28)
onde E[] o operador valor esperado. A funo de desempenho de (2.28) possui uma estrutura
simples, alm de satisfazer os requisitos de rastreamento e de nico timo global. Em particular,
para um filtro FIR, um hiperparabolide com apenas um ponto de mnimo. Para verificar
esta afirmao, considere o filtro transversal mostrado na Figura 2.14. Tal filtro aplicado em
um problema de estimao de uma sada desejada, (), a partir do processamento de uma
entrada, (). O vetor de coeficientes deste filtro definido como sendo
= [1 2 ]T (2.29)
e o sinal de entrada, em um dado instante de tempo, , dado por
() = [() ( 1) ( + 1)]T (2.30)
onde o sobrescrito T denota transposta de um vetor ou matriz e a ordem do filtro. O sinal
desejado, (), e a entrada, (), so assumidos como sendo processos estocsticos
estacionrios. A sada, (), deste filtro dada por

() = ( + 1) (2.31)
=1

a qual tambm pode ser reescrita da forma vetorial


() = T
31

= T . (2.32)
O sinal de erro dado por
() = () ()
= () T
= () T . (2.33)

Figura 2.14. Filtro transversal.

Substituindo (2.33) em 2.28, obtm-se


= E[| 2 ()|] = E[(() T ())(() T ())]. (2.34)
Expandindo o lado direito de (2.34), tem-se que
= E[2 ()] T E[()()] E[() T ()] + T E[() T ()] (2.35)
uma vez que no uma varivel estatstica. Agora, considerando (2.25) e definindo o vetor
de correlao cruzada dado por
= E[()()]
= [1 2 ] (2.36)
tem-se que (2.35) pode ser reescrita como sendo
= E[ 2 ()] 2 T + T (2.37)
j que T = T e [() T ()] = T . Note que, se positiva definida, o lado direito de
(2.37) corresponde a uma curva convexa com apenas um ponto de mnimo. Em outras palavras,
se () e () so processos estocsticos estacionrios, (2.37) uma funo quadrtica do
vetor de coeficientes do filtro, , com apenas um mnimo global. Para determinar tal ponto,
32

necessrio resolver o sistema de equaes das derivadas parciais de em relao a cada


elemento de , ou seja

= 0, = 1,2, , (2.38)

que pode ser reescrita na forma vetorial
= (2.39)
sendo o operador gradiente dado por

T
= [ ] (2.40)
1 2
e o vetor nulo de ordem . Considerando (2.18), (2.36) e (2.37), e desenvolvendo o lado
esquerdo de (2.38), obtm-se


= 2 ( ) 2 , = 1,2, , (2.41)

=1

que pode ser reescrita na forma matricial


= 2 2 . (2.42)
Fazendo = , tem-se a equao para determinar os coeficientes timos do filtro de
Wiener dada por
opt = (2.43)

onde o subscrito opt usado para enfatizar que opt o vetor dos coeficientes timos do
filtro de Wiener. A equao (2.43) conhecida como equao de Wiener-Hopf e possui a
seguinte soluo
opt = 1 (2.44)

considerando que possui inversa.


Substituindo (2.43) e por opt em (2.37), obtm-se o mnimo MSE que pode ser
alcanado pelo filtro de Wiener dado por
min = E[ 2 ()] opt
T

= E[ 2 ()] opt
T
opt . (2.45)

O resultado de (2.45) obtido quando os coeficientes do filtro de Wiener so escolhidos


de acordo com a soluo de (2.43). Substituindo (2.43) em (2.45) obtm-se
min = E[ 2 ()] T 1 . (2.46)
Note de (2.46) que o valor mnimo para o MSE de um filtro de Wiener pode ser obtido
apenas de posse das propriedades estatsticas dos sinais envolvidos.
Diz-se que o filtro da Figura 2.14 um filtro de Wiener transversal se os coeficientes
do mesmo so determinados a partir da minimizao de (2.28). Note, da estrutura deste filtro,
33

que o mesmo um filtro FIR. Com o intuito de avaliar o comportamento do MSE para este tipo
de filtro, considere o problema de estimao da Figura 2.15 onde um filtro de Wiener
transversal, (), de ordem 2 usado para identificar uma planta que tambm um filtro de
ordem 2 e cuja funo de transferncia () = 1 + 2 1 . Considera-se que a entrada ()
um processo estacionrio branco de varincia unitria. O rudo aditivo de medio, (),
branco de varincia 2 = 0,1 e no-correlacionado com (). O objetivo deste problema
determinar os valores timos dos coeficientes do filtro de Wiener, 1 e 2 , tal que (2.28) seja
minimizada.

Figura 2.15. Filtro de Wiener transversal aplicado em um problema de identificao de sistemas.

Para determinar os valores timos de 1 e 2 , necessrio calcular e . Para tanto,


considera-se (2.18), (2.20), (2.26), (2.27) e (2.36) para obter
[ 2 ()] [()( 1)]
=[ ]
[( 1)()] [ 2 ()]
(0) (1)
=[ ]
(1) (0)
1 0
=[ ] (2.47)
0 1
uma vez que () branco e possui varincia unitria. Agora, para o clculo de , tem-se
E[()(() + 2( 1) + ())]
=[ ]
E[( 1)(() + 2( 1) + ())]
E[ 2 ()] + 2E[()( 1)] + E[()()]
=[ ]. (2.48)
E[()( 1)] + 2E[ 2 ( 1)] + E[( 1)()]
Como E[()( 1)] = E[()()] = E[( 1)()] = 0 e E[ 2 ()] =
2 (
E[ 1)] = 1, tem-se que
1 (2.48)
=[ ].
2
Similarmente, para a primeira parcela de (2.46), obtm-se
34

2 2
E [(() + ()) ] = E [(() + 2( 1) + ()) ]

= E[ 2 ()] + 4[ 2 ( 1)] + 2
= 5,1 (2.49)
Ento, sabendo que = [1 2 ]T, substitui-se (2.47), (2.48) e (2.49) em (2.37) para
obter
1 1 0 1
= 5,1 2[1 2 ] [ ] + [1 2 ] [ ][ ]
2 0 1 2
= 5,1 21 42 + 12 + 22
= 0,1 + 12 21 + 1 + 22 42 + 4
= 0,1 + (1 1)2 + (2 2)2 (2.50)
que um paraboloide com um ponto mnimo em min = [1 2]T , como mostra a Figura 2.16.

Figura 2.16. Superfcie de desempenho para o problema de identificao de sistemas da Figura 2.15.

Substituindo (2.47) e (2.48) em (2.44), obtm-se os valores timos de 1 e 2


1 0 1
opt = [ ][ ]
0 1 2
1 (2.51)
=[ ]
2
que correspondem ao ponto mnimo de (2.50). Agora, substitui-se (2.47), (2.48) e (2.49) em
(2.46) para obter
35

1 0 1
min = 5,1 [1 2] [ ][ ]
0 1 2
= 0,1 . (2.52)
que corresponde ao valor mnimo de (2.50), como mostra a Figura 2.16. Note do exemplo da
Figura 2.15 que o projeto de um filtro de Wiener pode ser feito a partir da soluo da equao
de Wiener-Hopf dada por (2.44), uma vez que a estatstica dos sinais envolvidos conhecida.
Esta soluo pode ser obtida a partir da minimizao do MSE dado por (2.28). Contudo, a
soluo de Wiener adequada apenas para ambientes estacionrios, ou seja, se as propriedades
estatsticas forem variantes com o tempo a soluo de (2.44) deixar de ser tima. Um mtodo
alternativo para encontrar opt consiste no uso de um algoritmo iterativo de busca. Este
algoritmo deve partir de um ponto inicial e mover-se progressivamente sobre a superfcie da
funo de desempenho atravs de passos orientados. Caso a funo de desempenho seja
convexa, tal como a de um filtro transversal, este processo de busca iterativa certamente
convergir para a soluo tima. A seguir, um mtodo iterativo baseado no gradiente de
apresentado. Este mtodo realiza uma busca sobre a funo de desempenho do filtro de Wiener
transversal usando o algoritmo SD.

2.5 Algoritmo de Descida mais ngreme

A determinao do vetor timo de coeficientes de um filtro a partir da minimizao de


uma dada funo de custo usando um algoritmo iterativo constitui um conceito fundamental
para o desenvolvimento de algoritmos adaptativos. Em particular, a ideia por trs do algoritmo
SD simples. Assumindo que a funo de desempenho seja convexa, parte-se de um ponto
inicial arbitrrio e adota-se pequenos passos sucessivos em direo ao ponto mnimo da funo.
Apesar de a convergncia ser garantida, este mtodo pode apresentar convergncia lenta para
filtros de Wiener transversais.
Para analisar o desempenho do algoritmo SD, considere o filtro de Wiener transversal
da Figura 2.14. O vetor de coeficientes timos, opt , pode ser obtido a partir da minimizao
de
= E[ 2 ()] (2.53)
uma vez que qualquer valor elevado ao quadrado sempre um nmero positivo e () o erro
de estimao do filtro dado por
() = () (). (2.54)
Sabe-se da seo anterior que pode ser expandida da forma
= E[ 2 ()] 2 T + T (2.55)
sendo a matriz de autocorrelao da entrada do filtro, (), e o vetor de correlao
cruzada entre a entrada e a sada desejada, (). A funo de desempenho de (2.55) uma
funo quadrtica de com um nico mnimo global que pode ser obtido pela soluo da
equao de Wiener-Hopf dada por (2.44), se e so conhecidos. O algoritmo SD pode ser
36

empregado partindo-se de uma estimativa inicial de opt e adotando-se o procedimento a


seguir.
1. Determine o gradiente da funo de desempenho em relao aos coeficientes do filtro
no ponto em questo;
2. Atualize a estimativa dos coeficientes do filtro tomando um passo na direo oposta do
vetor gradiente obtido no passo anterior;
3. Repita os passos 1 e 2 at que so seja mais observada uma mudana significativa nos
valores dos coeficientes do filtro.
A direo tomada no passo 2 corresponde de descida mais ngreme da funo de
desempenho no ponto considerado. Para implementar tal procedimento, assumindo que e
so conhecidos, usa-se o resultado de (2.42) dado por
= 2 2 (2.56)
onde o operador gradiente dado pelo vetor
T
= [ ] . (2.57)
1 2
Conforme o procedimento descrito acima, considere o vetor (), correspondente -
sima iterao. Este vetor pode ser atualizado usando a seguinte equao recursiva
( + 1) = () (2.58)
onde um escalar positivo chamado de parmetro de passo e denota o vetor gradiente
calculado na -sima iterao do algoritmo SD e no ponto (). Substituindo (2.56) em
(2.58) obtm-se
( + 1) = () 2[() ] (2.59)
que pode ser rearranjada da seguinte forma
( + 1) = ( 2)() + 2 (2.60)
onde a matriz identidade de ordem . Assim, substituindo (2.43) e subtraindo opt nos dois
lados de (2.60), tem-se
( + 1) opt = ( 2)() + 2opt opt

= ( 2)(() opt ). (2.61)


Agora, definindo o vetor
() = () opt (2.62)

e substituindo (2.62) em (2.61), obtm-se


( + 1) = ( 2)(). (2.63)
O resultado de (2.63) pode ser simplificado aplicando a seguinte transformao de
similaridade
37

= (2.64)
onde uma matriz diagonal composta pelos autovalores de , ou seja
= diag[1 2 ] (2.65)
e uma matriz cujas colunas so formadas pelos respectivos autovetores ortornormais de .
Logo, substituindo (2.64) em (2.63) tem-se
( + 1) = (T 2T )()
= ( 2)T (). (2.66)
Multiplicando esquerda ambos os lados de (2.66) por T e aplicando a seguinte
transformao
() = T () (2.67)
obtm-se
( + 1) = ( 2) () (2.68)
que a equao recursiva de atualizao dos coeficientes do filtro representada nos eixos ,
que equivalem a uma rotao dos eixos que, por sua vez, equivalem a um deslocamento da
origem do espao euclidiano -dimensional definido pelos eixos 1 , 2 , , . A equao
vetorial (2.68) pode ser separada em equaes escalares recursivas
( + 1) = (1 2 ) () , = 1,2, , . (2.69)
Ento, partindo de um conjunto de valores iniciais, 1 (0), 2 (0), , (0), tem-se, na
primeira iterao ( = 1)
(1) = (1 2 ) (0) , = 1,2, , (2.70)
enquanto que , na segunda iterao ( = 2), tem-se
(2) = (1 2 ) (1)
= (1 2 )(1 2 ) (0)
= (1 2 )2 (0), = 1,2, , . (2.71)
Logo, na -sima iterao tem-se
() = (1 2 ) (), = 1,2, , . (2.72)
Sabe-se de (2.62) e (2.67) que () converge para opt () se, e somente se, ()
converge para um vetor nulo. Porm, note de (2.72) que () converge para zero somente se
o parmetro de passo, , for escolhido tal que
|1 2 | < 1, = 1,2, , . (2.73)
Caso (2.73) seja satisfeita, os escalares (), com = 1,2, , , decaem
exponencialmente para zero de forma proporcional ao nmero de iteraes, . Portanto, quanto
38

maior o nmero de iteraes, , mais prximos de zero os escalares (), com = 1,2, , ,
esto. A inequao (2.73) descreve a condio necessria para a convergncia e estabilidade do
algoritmo SD. Tal inequao pode ser expandida da seguinte forma
1 < 1 2 < 1
ou
1
0<< , = 1,2, , . (2.74)

Como o parmetro o mesmo para todos os coeficientes do filtro, a convergncia
(ou estabilidade) do algoritmo SD garantida somente se
1
0<< (2.75)

onde max o maior autovalor da matriz . Note de (2.58) e (2.75) que deve sempre ser um
escalar positivo para garantir que a correo no vetor () seja feita na direo oposta
indicada por . Note tambm que o limite direita de (2.75) garante o decaimento
exponencial de (2.53) proporcionalmente quantidade de iteraes do algoritmo SD.
O comportamento transitrio do algoritmo SD pode ser descrito em termos do vetor de
coeficientes do filtro transversal, (). Note de (2.62) que
() = opt + ()
= opt + ()
1 ()
()
= opt + [1 2 ] [ 2 ]

()

= opt + () (2.76)
=1

sendo 1 , 2 , , os autovetores associados aos autovalores 1 , 2 , , da matriz de


autocorrelao, . Agora, substituindo (2.72) em (2.76), tem-se que

() = opt () + (0)(1 2 ) . (2.77)


=1

O resultado de (2.77) mostra que o comportamento transitrio do algoritmo SD para um


filtro transversal de ordem determinado por uma soma de termos exponenciais. Cada
termo controlado por um dos autovalores de . Cada autovalor, , determina um modo
particular de convergncia na direo definida pelo seu autovetor associado, . Cada modo,
por sua vez, opera independentemente dos demais.
Note que o algoritmo SD no um algoritmo adaptativo, pois depende unicamente dos
momentos de segunda ordem e . Alm disso, o ndice de iterao, , no possui relao
39

alguma com o tempo. Resumidamente, o algoritmo SD proporciona apenas uma soluo


iterativa para o problema de filtragem tima apresentado pelo filtro de Wiener e que possui
como soluo a equao de Wiener-Hopf de (2.43). Pode-se dizer que o algoritmo SD uma
verso idealizada dos algoritmos prticos (Manolakis, Ingle & Kogon, 2005). A exemplo de
ilustrao, a Figura 2.17 mostra as diferenas de operao entre (a) um filtro timo e (b) um
filtro adaptativo. O vetor de coeficientes, opt , de um filtro timo (tal como um filtro de
Wiener) constitudo por valores determinsticos obtidos a partir da soluo de (2.43). J o
filtro adaptativo um sistema variante no tempo que realiza a busca pelo vetor timo de
coeficientes, opt (), a cada instante de tempo, . Este tipo de filtro adequado para ambientes
no-estacionrios, ao contrrio dos filtros timos.

(a) (b)
Figura 2.17. Diferena de operao entre (a) um filtro timo e (b) um filtro adaptativo.

A anlise das equaes de (2.58) a (2.77) mostra que o desempenho do algoritmo SD


altamente dependente dos autovalores da matriz . Especificamente, a relao
max
() = (2.78)
min
onde min o menor autovalor de , fundamental na determinao do desempenho de
convergncia do algoritmo SD. Tal relao denominada disperso ou nmero de condio
(eigenvalue spread). Uma vez que max e min esto diretamente relacionados com a densidade
espectral do respectivo sinal, pode-se afirmar que o desempenho do algoritmo SD possui
relao direta com a densidade espectral do sinal de entrada do filtro. Quanto mais prximos
estiverem os valores de max e min , melhor ser o desempenho do algoritmo SD (Manolakis,
Ingle & Kogon, 2005) e (Farhang-Boroujeny, 2013).
A prxima seo apresenta um algoritmo adaptativo que foi derivado a partir do
algoritmo SD, a saber, o algoritmo LMS. Este algoritmo preserva algumas semelhanas
importantes com o algoritmo SD. Porm, a principal diferena entre estes dois algoritmos est
no fato de que o algoritmo SD usa valores determinsticos enquanto que o algoritmo LMS usa
valores aleatrios ou estocsticos. A derivao do algoritmo LMS a partir do algoritmo SD,
bem como suas principais caractersticas so discutidas a seguir em detalhes.
40

2.6 Algoritmo LMS

O algoritmo LMS o algoritmo adaptativo mais bsico e o mais amplamente empregado


em vrias aplicaes envolvendo filtragem adaptativa linear (Haykin, 1996) e (Manolakis, Ingle
& Kogon, 2005). Tal algoritmo consiste de uma implementao estocstica do algoritmo SD, e
foi introduzido por Bernard Widrow e Marcian Hoff em 1960 juntamente com a rede neural
ADALINE (ADAptive LInear NEuron). O algoritmo LMS uma tcnica simples e
computacionalmente eficaz de atualizao do vetor de coeficientes de um filtro adaptativo, uma
vez que usa, em sua regra de adaptao, uma estimativa do MSE baseada no erro quadrtico
instantneo dado por (Widrow & Hoff, 1960)
() = 2 ()
= [() () + ()]2 (2.79)
considerando um rudo aditivo de medio, (). Devido sua simplicidade e robustez a
variaes na estatstica dos sinais envolvidos, o algoritmo LMS tem sido objeto de estudo de
vrios pesquisadores ao redor do mundo. Ao longo das ltimas dcadas, vrias modificaes e
aprimoramentos deste algoritmo tm sido propostos. A seguir apresentada a derivao do
algoritmo LMS a partir do algoritmo SD.

2.6.1 Derivao do Algoritmo LMS

Considere que medidas precisas do gradiente de (2.56) pudessem ser obtidas em cada
iterao, , e que o parmetro de passo, , pudesse ser escolhido corretamente de acordo com
os autovalores de . Neste caso, o algoritmo SD poderia ser perfeitamente usado para encontrar
o vetor opt . Porm, na prtica, no se dispe de um conhecimento a priori de e , o que
torna impossvel obter medidas exatas de . Uma alternativa vivel o uso de um algoritmo
iterativo que dispensa o conhecimento estatstico dos sinais envolvidos, tal como o algoritmo
LMS. Este algoritmo um membro importante da famlia dos algoritmos de gradiente
estocstico. O termo gradiente estocstico usado para distinguir o algoritmo LMS do
algoritmo SD, uma vez que o primeiro usa um gradiente estocstico dado por (2.79) ao passo
que o ltimo usa um gradiente determinstico dado por (2.53) na busca iterativa pelos
coeficientes timos do filtro linear. Com base nesta informao, considere o filtro adaptativo
transversal de ordem mostrado na Figura 2.18. A sada deste filtro dada por

() = ( + 1) ()
=1

= T ()() (2.80)
onde os coeficientes do filtro so ajustados iterativamente de forma a minimizar erro de
estimao dado por
() = () () + () (2.81)
sendo () um rudo de medio.
41

Figura 2.18. Filtro adaptativo transversal.

Sabe-se de (2.58) que o algoritmo SD possui a seguinte regra de atualizao


( + 1) = () (2.82)
onde o operador dado por
T

= [ ] (2.83)
1 () 2 () ()
e
= E[ 2 ()]. (2.84)
Substituindo o MSE dado por (2.84) por uma estimativa baseada no erro quadrtico
instantneo dado por (2.79), obtm-se uma nova regra de atualizao
( + 1) = ()
= () 2 () (2.85)
onde
T
2 ()
2 () 2 () 2 ()
=[ ] . (2.86)
1 () 2 () ()
Para (), com = 1,2, , , obtm-se
2 () ()
= 2()
() ()
42

[() ()() + ()]


= 2()
()
= 2()( + 1). (2.87)
Logo, tem-se que
2 () = 2()() (2.88)
Agora, substituindo (2.88) em (2.85) obtm-se a regra de atualizao do algoritmo LMS
como sendo
( + 1) = () + 2()(). (2.89)
Note que (2.89) apresenta-se como um procedimento simples de adaptao recursiva
dos coeficientes do filtro adaptativo. A equao (2.89), juntamente com (2.80) e (2.81)
compem os passos a serem executados em cada iterao do processo de adaptao do
algoritmo LMS. A Tabela 2.1 contm um sumrio de execuo deste algoritmo aplicado em um
problema de identificao de uma planta ().

Tabela 2.1. Sumrio do algoritmo adaptativo LMS

1. Inicializao
(0) =
e parmetros
1
0<<
max
2. Obteno dos dados de entrada e sada
da planta
() = T ()()
e do filtro adaptativo
() = T ()().
3. Clculo do sinal de erro
() = () () + ().
4. Atualizao dos coeficientes do filtro
( + 1) = () + ()().

A seguir feita uma breve anlise comparativa entre os algoritmos SD e LMS.

2.6.2 Comparao entre os Algoritmos SD e LMS

Assim como o algoritmo SD, o desempenho do algoritmo LMS altamente dependente


da densidade espectral do sinal de entrada do filtro. Quando () possui um espectro plano (um
43

rudo branco, por exemplo), o algoritmo LMS converge rapidamente. Em outras palavras,
quanto mais prxima da unidade for a relao dada por (2.78), melhor ser o desempenho do
algoritmo LMS. Outra semelhana entre os algoritmos SD e LMS reside no parmetro de passo.
Note de (2.82) e (2.89) que o parmetro de passo, , do algoritmo LMS o mesmo usado pelo
algoritmo SD
1
0<< (2.90)

sendo max o maior autovalor de (Widrow & Stearns, 1985). Isto implica que, assim como
para o algoritmo SD, para garantir a convergncia e estabilidade do algoritmo LMS o parmetro
de passo, , deve ser escolhido de acordo com os limites de (2.90).
O algoritmo SD capaz de alcanar o vetor de coeficientes timos, opt , definido pela
equao de Wiener-Hopf, quanto maior for o nmero de iteraes, . Isto se d pelo uso de
medidas exatas do gradiente do MSE. J o algoritmo LMS, por sua vez, usa uma estimativa
ruidosa de . Consequentemente, o algoritmo LMS, aps vrias iteraes, resulta em um MSE
em regime, (), maior do que o MSE mnimo, min , da funo de desempenho do filtro de
Wiener. Outra diferena bsica entre os algoritmos SD e LMS reside na curva de aprendizagem
de cada algoritmo. Esta curva obtida traando o grfico da evoluo do MSE para o algoritmo
considerado em relao ao nmero de iteraes. Nota-se de (2.72) que a curva de aprendizagem
do algoritmo SD consiste de uma soma componentes exponenciais decrescentes bem definidas.
J para o algoritmo LMS, a curva de aprendizagem consiste de uma soma de exponenciais
decrescentes ruidosas. A amplitude do rudo pode ser reduzida a partir da escolha de um menor
valor para o parmetro de passo, (Haykin, 1996).
A partir do algoritmo LMS surgiram outros dedicados aos mais variados processos
(Paleologu, Ciochina, Benesty & Grant, 2015). O algoritmo LMS e suas derivaes
representam uma famlia padro de aplicaes envolvendo filtragem adaptativa (Jelfs, Mandic
& Benesty, 2007). A seguir apresentado um algoritmo LMS que usa um parmetro de passo
varivel obtido a partir de dados do vetor de entrada. Este algoritmo proposto no final da dcada
de 1960 e denominado algoritmo LMS normalizado ou NLMS (Nagumo & Noda, 1967) e
(Albert & Gardner Jr., 1967).

2.7 Algoritmo LMS Normalizado

O algoritmo NLMS particularmente til para operao em ambientes no-


estacionrios. Isto se d pelo uso de um parmetro de passo adaptativo que permite a adequao
do filtro a entradas de natureza estatstica variante. Este algoritmo pode ser visto como a soluo
para um problema de otimizao com restries (Goodwin & Sin, 1984) e (Haykin, 1996).
Especificamente, considere o seguinte problema:
Minimizar a diferena
() = ( + 1) () (2.91)
sujeito restrio
( + 1)() = (). (2.92)
44

Para resolver este problema de otimizao com restries usa-se o mtodo dos
multiplicadores de Lagrange (Bazaraa, Sherali & Shetty, 2006). Para tanto, primeiramente
obtm-se a norma-2 elevada ao quadrado de ()
()22 = T ()()
= [( + 1) ()]T [( + 1) ()]

= [ ( + 1) ()]2 . (2.93)
=1

Agora, reescrevendo (2.92), obtm-se


( + 1)( + 1) = () (2.94)
=1

Ento, a partir de (2.93) e (2.94), formula-se a funo de custo para o problema de


otimizao com restries dada por

() = [ ( + 1) ()]2 + [() ( + 1)( + 1)] (2.95)


=1 =1

onde um multiplicador de Lagrange. Para encontrar os valores timos de ( + 1), com


= 1,2, , , necessrio derivar a funo de custo () em relao a estes parmetros e
igualar os respectivos resultados a zero, ou seja
()
=0 (2.96)
( + 1)
que resulta em
2[ ( + 1) ()] ( + 1) = 0. (2.97)
Logo, de (2.97) tem-se que
2[( + 1) ()] = (). (2.98)
Agora, isola-se em (2.98) para obter
T ()() = 2[ T ()( + 1) T ()()]

2
[( + 1)] = 2 [ ( + 1)( + 1) ()( + 1)]
=1 =1 =1
2
= [ T ( + 1)() T ()()] (2.99)
()22
onde ()2 a norma-2 do vetor de entrada (). Aplicando a restrio (2.92) em (2.99),
tem-se
2
= [() T ()()] . (2.100)
()22
Aplicando a definio de erro de estimao, dada por (2.33), em (2.100), obtm-se
45

2
= (). (2.101)
()22
Ento, substituindo (2.101) em (2.98), tem-se que
() = ( + 1) ()
1
= ()(). (2.102)
()22
Para efetuar o controle sobre o ajuste dos coeficientes do vetor (), introduz-se um
parmetro de passo, , e reescreve-se (2.89) da seguinte forma

( + 1) = () + T ()() (2.103)
()() +
sendo que (2.103) corresponde regra de atualizao dos coeficientes do algoritmo NLMS, e
> 0 um parmetro de regularizao, responsvel por evitar diviso por zero e,
consequentemente, estabilizar a soluo. Note que, para este algoritmo, o parmetro de passo,
, sofre uma normalizao em relao norma-2 elevada ao quadrado do vetor de entrada,
(). A estabilidade (e convergncia) do algoritmo NLMS garantida para (Haykin, 1996)
0< < 2. (2.104)
A Tabela 2.2 contm um sumrio do algoritmo adaptativo NLMS.

Tabela 2.2. Sumrio do algoritmo adaptativo NLMS

1. Inicializao
(0) =
e parmetros
0<<2 ; >0
2. Obteno dos dados de entrada e sada
da planta
() = T ()()
e do filtro adaptativo
() = T ()()
3. Clculo do sinal de erro
() = () () + ()
4. Atualizao dos coeficientes do filtro adaptativo
1
() = T
()() +
( + 1) = () + ()()()

A varivel () o parmetro de passo adaptativo do algoritmo NLMS. Note que, ao


contrrio do algoritmo LMS, a escolha do parmetro de passo do algoritmo NLMS independe
46

dos autovalores da matriz de autocorrelao da entrada, . Analogamente ao caso do algoritmo


LMS, o algoritmo NLMS pode ser entendido como uma implementao estocstica de outro
algoritmo determinstico da mesma classe do algoritmo SD, a saber, o algoritmo de Newton
(Sayed, 2003) e (Manolakis, Ingle & Kogon, 2005). Note tambm, de (2.102) e (2.103), que o
algoritmo NLMS atualiza o vetor de coeficientes do filtro de tal forma que estimativa,
( + 1), da prxima iterao, + 1, exibe uma mudana mnima, no sentido da norma-2, em
relao estimativa, (), da iterao anterior, . O algoritmo NLMS possui uma taxa de
convergncia potencialmente mais rpida do que o algoritmo LMS original para sinais de
entrada correlacionados e no-correlacionados (Haykin, 1996).

2.8 Medidas de Desempenho

A seguir so apresentadas duas medidas de desempenho comumente empregadas na


avaliao dos algoritmos adaptativos para os mais variados problemas. Estas medidas sero
utilizadas para avaliar os algoritmos adaptativos desenvolvidos neste trabalho. So elas o erro
quadrtico e o desalinhamento normalizado em dB.

2.8.1 Erro Quadrtico em dB

Sabe-se da seo 2.4 que o MSE a funo objetivo usada pelos filtros lineares timos
e que o mesmo dado por (2.84). Por outro lado, os algoritmos da classe LMS buscam a
minimizao do erro quadrtico instantneo dado por (2.79). Neste trabalho, uma das medidas
de desempenho que sero empregadas na avaliao dos algoritmos adaptativos desenvolvidos
neste trabalho o erro quadrtico em dB dado por
dB = 10 log10 2 (). (2.105)
A outra medida de desempenho adotada neste trabalho o desalinhamento normalizado
em dB, o qual mostrado a seguir.

2.8.2 Desalinhamento Normalizado em dB

O desalinhamento normalizado em dB uma das medidas mais comumente usadas na


avaliao do desempenho de algoritmos adaptativos em problemas de identificao de sistemas
e cancelamento de eco (Paleologu, Benesty & Ciochina, 2010). Esta medida definida por
2
opt ()
2
() = 10 log10 ( 2 ). (2.106)
opt
2

Note de (2.106) que () depende unicamente do vetor de coeficientes timos, opt ,


que representa a resposta impulsiva da planta a ser identificada, e da estimativa atual, () do
vetor de coeficientes do filtro. Esta medida no aplicvel na prtica, uma vez que requer
conhecimento a priori da resposta impulsiva da planta verdadeira.
47

Captulo 3
A
Algoritmos Adaptativos LMS Normalizados
Proporcionais
Neste captulo so estudados algoritmos adaptativos LMS normalizados proporcionais.
Tais algoritmos foram desenvolvidos com o objetivo de melhorar o desempenho dos filtros
adaptativos para identificao e controle de plantas esparsas. Historicamente, algoritmos da
classe PNLMS encontram sua principal aplicao em problemas de cancelamento de eco
acstico e de rede, onde geralmente as plantas encontradas neste tipo de problema possuem alto
grau de esparsidade (Huang, Benesty & Chen, 2006), (Loganatham, Khong & Naylor, 2009) e
(Wagner & Doroslovacky, 2013). Especificamente, a presena de atrasos cada vez maiores nos
sistemas de comunicao modernos tem aumentado a necessidade por filtros adaptativos de
convergncia rpida para ambientes esparsos. Atualmente, alm de cancelamento de eco em
sistemas de telefonia, aplicaes dos algoritmos adaptativos proporcionais incluem
identificao de canais de comunicao subaquticos (Pelekanakis & Chitre, 2013),
transmisses televisivas terrestres em alta definio (Fan, He, Wang & Jiang, 2005), dentre
outras.
Inicialmente, apresentada a estrutura geral dos algoritmos adaptativos proporcionais.
Logo aps, os algoritmos PNLMS padro e IPNLMS so mostrados e o comportamento destes
algoritmos para a identificao de plantas esparsas discutido em detalhes. Por fim, so
mostrados os principais algoritmos adaptativos proporcionais desenvolvidos ao longo das
ltimas dcadas, os quais foram todos derivados dos algoritmos PNLMS e IPNLMS.

3.1 Estrutura Geral dos Algoritmos Adaptativos Proporcionais

Para os algoritmos adaptativos proporcionais, a regra geral de atualizao dos


coeficientes do filtro adaptativo dada por (Souza, Seara & Morgan, 2012)
()()()
( + 1) = () + T (3.1)
()() +
onde
() = [() ( 1) ( + 1)]T (3.2)
e
() = [1 () 2 () ()]T (3.3)
so, respectivamente, os vetores de entrada e de coeficientes do filtro adaptativo. As variveis
0 < < 2, > 0 e so, respectivamente, os parmetros de passo e de regularizao. A varivel
a quantidade de coeficientes do filtro. A matriz
() = diag[1 () 2 () ()] (3.4)
48

de ordem x responsvel pela distribuio dos ganhos individuais entre os coeficientes do


filtro adaptativo. A forma de distribuio desses ganhos varia de acordo com o algoritmo
considerado. O sinal de erro calculado por
() = () () + () (3.5)
onde () a sada desejada, () = T ()() a sada do filtro adaptativo e () um
rudo de medio de varincia 2 . A seguir apresentado o algoritmo PNLMS, o qual foi um
dos primeiros algoritmos adaptativos proporcionais desenvolvidos e tambm deu origem,
posteriormente, a outros algoritmos da mesma classe.

3.2 Algoritmo PNLMS

A necessidade de algoritmos adaptativos capazes de proporcionar velocidade de


convergncia rpida para plantas esparsas levou ao desenvolvimento do algoritmo PNLMS. Tal
algoritmo foi talvez o primeiro a empregar a filosofia proporcional de adaptao, explorando a
caracterstica esparsa presente em algumas plantas tais como os caminhos de eco de rede
(Wagner & Doroslovacky, 2011).
O algoritmo PNLMS atinge uma velocidade de convergncia significativamente
superior ao NLMS quando a planta a ser identificada esparsa. Isto ocorre sem que haja perda
de qualidade na estimao, porm h um acrscimo nos requisitos computacionais. O ganho
individual que controla o ajuste do i-simo coeficiente do algoritmo PNLMS padro obtido a
partir de (Duttweiler, 2000)
()
() =
(3.6)
=1 ()
onde
() = max[(), | ()|] (3.7)
e
() = max[, () ]. (3.8)
A funo de proporcionalidade () de (3.7) determina o valor do -simo ganho,
(), conforme a magnitude do respectivo -simo coeficiente, (). O fator de ativao
() de (3.8) influencia diretamente na adaptao dos coeficientes considerados inativos
(Souza, Tobias, Seara & Morgan, 2010). O parmetro de inicializao, , usado somente no
incio do processo de adaptao ( = 0), quando todos os coeficientes do filtro so nulos, ou
seja, (0) = . O parmetro de proporcionalidade, , evita a estagnao de um dado
coeficiente cuja magnitude, em um dado instante , seja muito menor do que a magnitude do
maior coeficiente (Souza, Tobias, Seara & Morgan, 2010). O fator () de (3.8) a norma
infinita do vetor de coeficientes do filtro adaptativo.
Diferentemente da regra geral dos algoritmos adaptativos proporcionais dada por (3.1),
a regra de atualizao dos coeficientes do algoritmo PNLMS original dada por (Duttweiler,
2000)
49

()()()
( + 1) = () + . (3.9)
T () +
Note que, em (3.9), a matriz () no est presente no denominador do termo de
correo dos coeficientes. Esta a nica diferena entre a regra proposta por Donald L.
Duttweiler e a regra padro dos algoritmos adaptativos proporcionais. A partir do algoritmo
PNLMS original obtm-se o algoritmo PNLMS padro, o qual descrito em detalhes na Tabela
3.1, considerando um problema de identificao de uma planta ().

Tabela 3.1. Sumrio do algoritmo adaptativo PNLMS padro

1. Inicializao
(0) =
e parmetros
0<<2 ; >0 ; >0 ; >0
2. Obteno dos dados de entrada e sada
da planta
() = T ()()
e do filtro adaptativo
() = T ()()
3. Clculo do sinal de erro
() = () () + ()
4. Fator de ativao
() = max[, () ]
5. Funo de proporcionalidade
() = max[(), | ()|] , = 1,2,3, ,
6. Ganho individual dos coeficientes do filtro adaptativo
()
() = , = 1,2,3, ,
=1 ()
7. Matriz de ganhos individuais ( x )
() = diag[1 () 2 () ()]
8. Atualizao dos coeficientes do filtro adaptativo
()()()
( + 1) = () +
T ()() +

Note que o algoritmo NLMS pode ser obtido a partir do PNLMS padro simplesmente
adotando
() = (3.10)
50

onde a matriz identidade. Para efeitos de anlise comparativa, o parmetro de regularizao


do algoritmo PNLMS deve ser escolhido como sendo (Huang, Benesty & Chen, 2006)
NLMS
PNLMS = . (3.11)

A seguir, feita uma anlise do comportamento do algoritmo PNLMS. Especificamente,
o efeito do parmetro de proporcionalidade, , e do fator de ativao, (), na velocidade de
convergncia e na distribuio dos ganhos do algoritmo PNLMS estudado.

3.2.1 Anlise do Comportamento do Algoritmo PNLMS Padro

Nesta seo estudado o comportamento do algoritmo PNLMS padro em relao ao


parmetro de proporcionalidade, , e ao fator de ativao, (). O objetivo de tal estudo
avaliar o impacto destes fatores na velocidade de convergncia e na distribuio dos ganhos do
algoritmo PNLMS padro, considerando um problema de identificao de plantas esparsas.
Antes de realizar este estudo, deve-se definir duas figuras de mrito. A primeira delas a
distribuio de ganho total dada por
1

= () (3.12)
=0

onde () o valor do ganho do i-simo coeficiente na n-sima iterao e o nmero total


de iteraes consideradas para o processo de adaptao do algoritmo em questo. A distribuio
de ganho total do i-simo coeficiente, , acumula os ganhos destinados a este coeficiente em
todas as iteraes do processo de adaptao. Por definio, um algoritmo adaptativo
proporcional deve distribuir os ganhos de adaptao proporcionalmente magnitude dos
coeficientes do filtro. Logo, quanto maior o valor de para os coeficientes ativos, mais
proporcional o algoritmo em questo. Outra figura de mrito considerada por esta anlise
a mdia dos ganhos totais atribudos aos coeficientes inativos dada por

inativos 1
mdio = (3.13)
ativos

onde ativos a quantidade de coeficientes ativos e o conjunto dos coeficientes ativos do


inativos
filtro. Analogamente distribuio de ganho total, quanto menor o valor de mdio , melhor
explorada ser a filosofia proporcional pelo algoritmo em questo.
Para avaliar o comportamento do algoritmo PNLMS padro em relao ao parmetro de
proporcionalidade, , e ao fator de ativao, (), considera-se simulaes de Monte Carlo
(mdia de 100 realizaes independentes) para um problema de identificao de sistemas. Os
valores das variveis avaliadas por uma simulao de Monte Carlo so obtidas a partir de
(Fishman, 1996), (Manolakis, Ingle & Kogon, 2005) e (Rubstein, 2008)
1 () + 2 () + + ()
E[()]

51


1
= () (3.14)

=1

onde E[] o operador valor esperado, () o valor da varivel avaliada, , na n-sima


iterao da r-sima realizao e o nmero de realizaes independentes consideradas pela
simulao de Monte Carlo. O cenrio de todas as simulaes consiste de uma planta esparsa
com = 100 coeficientes (Martin, Seathers, Williamson & Johnson, 2002). Os coeficientes
ativos (no-nulos) desta planta esto localizados nas posies {1, 30, 35, 85}, com seus
respectivos valores iguais a {0,1 , 1,0 , 0,5 , 0,1}. segundo a definio de (1.2), a medida de
esparsidade desta planta igual a () = 0,9435, onde = [1 2 ]T a resposta ao
impulso da planta a ser identificada. O sinal de entrada correlacionado, com mdia zero e
varincia unitria, obtido atravs de um processo autorregressivo de ordem 2, AR(2), dado por
() = 1 ( 1) + 2 ( 2) + () (3.15)
sendo 1 = 0,4, 2 = 0,4 e () um rudo branco com mdia zero e varincia 2 = 0,77.
A disperso da matriz de autocorelao da entrada () = 10. Cada elemento () da matriz
calculado a partir de (Haykin, 1996)
2 1 (22 1)1 2 2 (12 1)2
() = (3.16)
(2 1 )(1 2 + 1) (2 1 )(1 2 + 1)
onde o lag entre as amostras da entrada, 2 a varincia de () e
1
1,2 = (1 12 42 ). (3.17)
2
O rudo de medio, (), branco gaussiano com varincia 2 = 103 (SNR =
30dB). A Figura de mrito considerada para avaliar a velocidade de convergncia do algoritmo
PNLMS padro em relao a e () o desalinhamento normalizado em dB dado por (2.106).
Para avaliar a dependncia do algoritmo PNLMS padro em relao ao parmetro de
proporcionalidade, , curvas de desalinhamento so mostradas na Figura 3.1, considerando
2500 iteraes de identificao da planta esparsa , com assumindo cada um dos seguintes
valores: 0,001, 0,005, 0,01, 0,05, 0,1 e 0,5. Similarmente, a Figura 3.2 mostra o desempenho
do algoritmo PNLMS padro para 2000 iteraes de identificao da planta esparsa ,
considerando diversos valores de , que vo de 108 a 103.
Para as Figuras 3.1 e 3.2, considera-se um parmetro de passo igual a = 0,5 e um
parmetro de inicializao igual a = 0,01. Note, das curvas das Figuras 3.1 e 3.2, que o valor
do parmetro de proporcionalidade, , impacta diretamente na velocidade de convergncia
durante todo o processo de adaptao do algoritmo PNLMS padro.
52

Figura 3.1. Desalinhamento normalizado do algoritmo PNLMS padro para valores do parmetro de
proporcionalidade, , iguais a 0,001, 0,005, 0,01, 0,05, 0,1 e 0,5.

Figura 3.2. Desalinhamento normalizado do algoritmo PNLMS padro para valores do parmetro de
proporcionalidade, , iguais a 103 , 104 , 105 , 106 , 107 e 108 .

Os resultados mostrados nas Figuras 3.1 e 3.2 podem ser explicados pela anlise da
Figura 3.3, a qual mostra o ganho de adaptao atribudo ao -simo coeficiente em funo da
sua respectiva magnitude (normalizada) para vrios valores de , que vo de 0,001 a 1. As
magnitudes normalizadas dos coeficientes do filtro adaptativo so obtidas a partir de
| ()|
norm () = (3.18)
max[|()|]
53

onde norm () a magnitude normalizada do -simo coeficiente e max[] o operador valor


mximo. As curvas da Figura 3.3 mostram que, quanto maior o valor do parmetro , menos
proporcional a atualizao dos coeficientes do filtro. Logo, tem-se que o valor do parmetro
de proporcionalidade afeta diretamente os ganhos de adaptao () dos coeficientes (),
com = 1,2, , , do filtro adaptativo.

Figura 3.3. Ganho atribudo pelo algoritmo PNLMS padro aos coeficientes de um filtro adaptativo conforme a
magnitude (normalizada) dos mesmos, considerando valores do parmetro de proporcionalidade, , iguais a 0,001,
0,1, 0,5 e 1,0.

Os resultados das Figuras 3.1, 3.2 e 3.3 podem ser melhor observados atravs das
Tabelas 3.2 e 3.3, as quais mostram as distribuies de ganho totais dos coeficientes ativos,
alm das mdias dos ganhos totais dos coeficientes inativos, obtidas para os casos considerados
nas Figuras 3.1 e 3.2, respectivamente. Os valores destas Tabelas so obtidos a partir de (3.12)
e (3.13), sendo que ativos = 4 e = {1, 30, 35, 85}, conforme os dados da planta esparsa .
Note dos valores das Tabelas 3.2 e 3.3 que, quanto menor o valor de , maiores so os ganhos
destinados aos coeficientes ativos e menores so os ganhos destinados aos coeficientes inativos.

Tabela 3.2. Distribuies de ganho totais dos coeficientes ativos, e mdias dos ganhos totais dos coeficientes
inativos, considerando 2500 iteraes de identificao da planta esparsa usando o algoritmo PNLMS padro e
com assumindo diversos valores, que vo de 0,001 a 0,5.

Parmetros 1 30 35 85

= 0,001 157,5 1359,7 669,7 124,5 1,9


= 0,005 129,3 1129,4 555,0 102,2 6,1
= 0,01 104,2 927,7 454,7 83,2 9,7
= 0,05 42,1 380,5 184,0 33,8 19,3
= 0,1 25,7 218,6 104,2 22,2 22,2
= 0,5 25,1 49,1 24,8 24,8 24,7
54

Tabela 3.3. Distribuies de ganho totais dos coeficientes ativos e mdias dos ganhos totais dos coeficientes
inativos considerando 2000 iteraes de identificao da planta esparsa usando o algoritmo PNLMS padro e
com assumindo diversos valores, que vo de 108 a 103 .
inativos
Parmetros 1 30 35 85 mdio

= 108 147,9 1153,2 560,3 96,1 0,4


= 107 145,9 1152,1 561,5 97,5 0,4
= 106 144,8 1151,3 562,4 99,7 0,4
= 105 143,2 1147,0 560,1 101,3 0,5
= 104 139,7 1135,7 557,1 101,5 0,7
= 103 130,6 1080,5 530,6 96,8 1,7

Note, da Figura 3.3 e das Tabelas 3.2 e 3.3, que um valor pequeno de distribui melhor
os ganhos de adaptao entre os coeficientes do filtro quando a planta esparsa. Os resultados
mostrados nas Figuras 3.1, 3.2 e 3.3 e nas Tabelas 3.2 e 3.3 demonstram que um procedimento
para otimizar a escolha do parmetro pode melhorar o desempenho do algoritmo PNLMS
para a identificao de plantas esparsas.
Para avaliar a dependncia do algoritmo PNLMS padro em relao ao fator de ativao,
(), faz-se uma anlise semelhante realizada para o parmetro de proporcionalidade, . Para
tal, na Figura 3.4 so mostradas curvas de desalinhamento, considerando 2000 iteraes de
identificao da planta esparsa , com () assumindo os seguintes valores: 107, 106 , 105,
104, 103 e 102. Os parmetros de passo e de inicializao considerados so = 0,5 e =
0,01, respectivamente. Note, das curvas da Figura 3.4, que o valor do fator de ativao, (),
impacta diretamente na velocidade de convergncia do algoritmo PNLMS padro durante todo
o processo de adaptao.

Figura 3.4. Desalinhamento normalizado do algoritmo PNLMS padro para valores do fator de ativao, f(n),
iguais a 107 , 106 , 105 , 104 , 103 e 102 .
55

A Figura 3.5 mostra o ganho de adaptao atribudo ao -simo coeficiente em funo


da sua respectiva magnitude (normalizada) para vrios valores de (), que vo de 0,001 a 1.
As magnitudes normalizadas dos coeficientes do filtro adaptativo so obtidas a partir de (3.18).
As curvas da Figura 3.5 mostram que, quanto maior o valor do fator de ativao, (), menos
proporcional a atualizao dos coeficientes do filtro. Logo, tem-se que o valor de () afeta
diretamente os ganhos de adaptao () dos coeficientes (), com = 1,2, , , do filtro
adaptativo.

Figura 3.5. Ganho atribudo pelo algoritmo PNLMS padro aos coeficientes de um filtro conforme a magnitude
(normalizada) dos mesmos, considerando valores de (), iguais a 0,001, 0,1, 0,5 e 1,0.

Os resultados das Figuras 3.4 e 3.5 podem ser melhor observados atravs da Tabela 3.4,
a qual mostra as distribuies de ganho totais dos coeficientes ativos, alm das mdias dos
ganhos totais dos coeficientes inativos, obtidas para os casos considerados na Figuras 3.4. Os
valores da Tabela 3.4 so obtidos a partir de (3.12) e (3.13), sendo que ativos = 4 e =
{1, 30, 35, 85}, conforme os dados da planta esparsa . Note dos valores da Tabela 3.4 que,
assim como ocorre para o parmetro de proporcionalidade, quanto menor o valor do fator de
ativao, (), maiores so os ganhos destinados aos coeficientes ativos e menores so os
ganhos destinados aos coeficientes inativos.
Tabela 3.4. Distribuies de ganho totais dos coeficientes ativos e mdias dos ganhos totais dos coeficientes
inativos para 2000 iteraes de identificao da planta esparsa , usando o algoritmo PNLMS padro e com ()
assumindo diversos valores, que vo de 107 a 102 .
inativos
Parmetros 1 30 35 85 mdio

() = 107 143,1 1153,0 562,5 99,4 0,4


() = 106 140,6 1147,7 561,4 101,1 0,5
() = 105 135,2 1138,8 558,3 101,4 0,7
() = 104 117,5 1080,3 530,4 96,8 1,8
() = 103 73,2 735,9 360,9 64,6 7,9
() = 102 18,2 169,4 81,8 17,8 17,8
56

Note da Figura 3.5 e da Tabela 3.4 que um valor pequeno de () distribui melhor os
ganhos de adaptao entre os coeficientes do filtro quando a planta esparsa. Os resultados
mostrados nas Figuras 3.4 e 3.5 e na Tabela 3.4 demonstram que um procedimento para otimizar
a escolha de () pode melhorar o desempenho do algoritmo PNLMS para a identificao de
plantas esparsas.
Os resultados das Figuras de 3.1 a 3.5 e das Tabelas de 3.2 a 3.4 mostram que tanto o
parmetro de proporcionalidade, , quanto o fator de ativao, (), causam um impacto
semelhante no comportamento do algoritmo PNLMS padro. Isto pode ser explicado pela
anlise de (3.7) e (3.8), referentes funo de proporcionalidade, (), com = 1,2, , , e
ao fator de ativao, (), do algoritmo PNLMS padro, respectivamente. Note que o valor
atribudo para o parmetro de proporcionalidade, , impacta diretamente no valor do fator de
ativao, (). Este ltimo, por sua vez, impacta no valor da funo de proporcionalidade e,
consequentemente, no ganho de adaptao de cada coeficiente do filtro.
Apesar de atingir uma velocidade de convergncia superior dos algoritmos LMS e
NLMS ao lidar com plantas esparsas, o desempenho do algoritmo PNLMS decai para plantas
de esparsidade mdia ou com baixo grau de esparsidade (Benesty & Gay, 2002). Alm disso, a
rpida velocidade inicial de convergncia deste algoritmo no mantida em todo o processo de
adaptao (Deng & Doroslovacky, 2006). Para superar estes problemas, verses aprimoradas
do algoritmo PNLMS, tais como os algoritmos PNLMS++ (Gay, 1998), IPNLMS (Benesty &
Gay, 2002), MPNLMS (Deng & Doroslovacky, 2006), SC-PNLMS (Loganathan, Khong &
Naylor, 2008) e IAF-PNLMS (Souza, Tobias, Seara & Morgan, 2010), foram desenvolvidas. A
seguir, uma das mais importantes verses aprimoradas do algoritmo PNLMS descrito a seguir
em detalhes, a saber, o algoritmo IPNLMS.

3.3 Algoritmo IPNLMS

O algoritmo IPNLMS, assim como o algoritmo PNLMS, deu origem a outros algoritmos
adaptativos proporcionais, tais como o IIPNLMS (Cui, Naylor & Brown, 2004) e o SC-
IPNLMS (Khong & Naylor, 2006). Tal algoritmo foi construdo a partir de modificaes na
funo de proporcionalidade do PNLMS. O principal objetivo dessas modificaes foi tornar
mais suave a escolha do ganho de adaptao individual para cada coeficiente do filtro
adaptativo e, consequentemente, explorar melhor a filosofia proporcional originria do
algoritmo PNLMS (Benesty & Gay, 2002). Nesta seo so apresentadas a estrutura e as
principais caractersticas do algoritmo IPNLMS. Primeiramente, mostrado um procedimento
para derivar o algoritmo IPNLMS a partir do algoritmo PNLMS padro. Logo aps, feito um
estudo sobre o efeito do parmetro de proporcionalidade do algoritmo IPNLMS sobre o
comportamento do mesmo.

3.3.1 Derivao do Algoritmo IPNLMS a partir do PNLMS Padro

O algoritmo IPNLMS pode ser derivado a partir do PNLMS padro (Souza, 2012). Para
tal, em (3.8), substitui-se () por ()1 (norma-1 do vetor de coeficientes do filtro
adaptativo) e adota-se = 1/. Assim, tem-se um novo fator de ativao dado por
57

1
max[, ()1 ] , = 0
() = { . (3.19)
()1
, 1

Desta forma, para 1, a funo de proporcionalidade dada por (3.7) pode ser reescrita
como sendo
()1
() = max [ , | ()|] . (3.20)

Agora, para a funo de proporcionalidade dada por (3.20), uma mdia ponderada
usada no lugar do operador max[]. Logo, a nova funo de proporcionalidade (Benesty &
Gay, 2002)
()1
() = (1 ) + (1 + )| ()| (3.21)

onde 1 < 1 um fator de ponderao. Note que a primeira parcela do lado direito de
(3.21) comum a todos os coeficientes do filtro, enquanto que a segunda proporcional
magnitude do -simo coeficiente.
Agora, considerando (3.21), desenvolve-se o denominador de (3.6) para obter

()1
() = [(1 ) + (1 + )| ()|]

=1 =1

1
=[ ()1 ] + [(1 + ) | ()|]

=1 =1
(1 )
= ()1 + (1 + )()1

= (1 )()1 + (1 + )()1
= 2()1 . (3.22)
Ento, substituindo (3.21) e (3.22) em (3.6), obtm-se o ganho individual do algoritmo
IPNLMS como sendo
1 | ()|
() = (1 ) + (1 + ) (3.23)
2 2()1 +
onde > 0 um parmetro de regularizao usado para evitar diviso por zero. O fator
denominado parmetro de proporcionalidade do algoritmo IPNLMS.
O algoritmo IPNLMS usa a regra de atualizao dos coeficientes de (3.1), com os
elementos de () sendo calculados a partir de (3.23). A Tabela 3.5 contm o sumrio do
algoritmo IPNLMS.
58

Tabela 3.5. Sumrio do algoritmo adaptativo IPNLMS.

1. Inicializao
(0) =
e parmetros
0<<2
>0
1 < 1
>0
2. Obteno dos dados de entrada e sada
da planta
() = T ()()
e do filtro adaptativo
() = T ()()
3. Clculo do sinal de erro
() = () () + ()
4. Ganho individual dos coeficientes do filtro adaptativo
1 | ()|
() = (1 ) + (1 + ) , = 1,2,3, ,
2 2()1 +
5. Matriz de ganhos individuais ( x )
() = [1 () 2 () ()]
6. Atualizao dos coeficientes do filtro adaptativo
()()()
( + 1) = () +
T ()() +

Para efeitos de anlise comparativa, o parmetro de regularizao do algoritmo PNLMS


deve ser escolhido como sendo
1
IPNLMS = (3.24)
2 NLMS
Embora tambm possa ser apresentado como uma alternativa eficiente para plantas de
esparsidade mdia, o algoritmo IPNLMS no capaz de atingir a mesma velocidade inicial de
convergncia do PNLMS para plantas com resposta ao impulso altamente esparsas (Deng &
Doroslovacky, 2006). Alm disso, seu desempenho depende da escolha do parmetro de
proporcionalidade 1 < 1, o qual constante durante todo o processo de adaptao.
Resultados experimentais demonstram que 0.0, 0.5 e 0.75 so boas escolhas para tal
parmetro (Khong & Naylor, 2006). Note que, para = 1, o algoritmo IPNLMS reduz-se ao
algoritmo NLMS. Em contrapartida, para = 1, o IPNLMS comporta-se de forma semelhante
59

ao PNLMS (Wagner & Doroslovacky, 2013). A seguir, feito um estudo a respeito do efeito
do parmetro no desempenho do algoritmo IPNLMS.

3.3.2 Anlise do Comportamento do Algoritmo IPNLMS

Nesta seo estudado o efeito do parmetro de proporcionalidade, , no desempenho


do algoritmo adaptativo IPNLMS. Para tal, so realizadas simulaes de Monte Carlo (mdia
de 100 realizaes independentes) para um problema de identificao de sistemas. Os valores
das variveis avaliadas so obtidos a partir de (3.14). O cenrio de todas as simulaes o
mesmo considerado na subseo 3.2.1. A figura de mrito utilizada para avaliar o desempenho
do algoritmo IPNLMS o desalinhamento normalizado em dB dado por (2.106).
Para avaliar o impacto de no comportamento do algoritmo IPNLMS, a Figura 3.6
mostra curvas de desalinhamento para o problema de identificao da planta esparsa ,
considerando diversos valores para o parmetro , que vo de 1 at 0,99. O parmetro de
passo adotado = 0,5. Note das curvas da Figura 3.6 que o valor escolhido para o parmetro
de proporcionalidade impacta diretamente na velocidade de convergncia durante todo o
processo de adaptao do algoritmo IPNLMS.

Figura 3.6. Desempenho do algoritmo IPNLMS para a identificao da planta esparsa , considerando diversos
valores para que vo de 1 a 0,99, e um parmetro de passo igual a = 0,5.

A Figura 3.7 mostra o ganho de adaptao atribudo ao i-simo coeficiente em funo


da sua respectiva magnitude (normalizada), considerando valores de iguais a 0,9, 0,5,
0,0, 0,3, 0,7 e 0,99. As magnitudes normalizadas dos coeficientes do filtro adaptativo so
obtidas a partir de (3.18). As curvas da Figura 3.7 mostram que, quanto mais prximo de 1 for
o parmetro de proporcionalidade, mais proporcional a atualizao dos coeficientes do filtro.
60

Em contrapartida, para um valor de mais prximo de 1, mais plana ou igualitria a


distribuio dos ganhos de adaptao entre os coeficientes do filtro adaptativo, a despeito da
magnitude dos mesmos. Note tambm das curvas da Figura 3.7 que, independentemente do
valor escolhido para o parmetro de proporcionalidade, , o processo de adaptao ocorre sem
que ocorra estagnao dos coeficientes com magnitude muito inferior do maior coeficiente.

Figura 3.7. Ganho atribudo pelo algoritmo IPNLMS aos coeficientes de um filtro conforme a magnitude
(normalizada) dos mesmos, considerando valores de iguais a 0,9, 0,5, 0,0, 0,3, 0,7 e 0,99.

Os resultados mostrados nas Figuras 3.6 e 3.7 demonstram que um procedimento para
otimizar a escolha do parmetro de proporcionalidade, , pode melhorar o desempenho do
algoritmo IPNLMS para a identificao de plantas esparsas.
Sabe-se que fatores como temperatura e presso podem alterar a esparsidade de uma
planta (Loganathan, Khong & Naylor, 2009). Um valor de constante pode comprometer o
desempenho do algoritmo IPNLMS ao lidar com uma planta de esparsidade varivel. Alm
disso, o valor deste parmetro deve ser escolhido de acordo com o grau de esparsidade da planta.
Dessa forma, um valor inapropriado para tal parmetro pode degradar o desempenho do
IPNLMS. Para tentar contornar este problema, algoritmos tais como o IIPNLMS e o SC-
IPNLMS foram desenvolvidos. Estes e outros algoritmos derivados dos algoritmos PNLMS e
IPNLMS so mostrados na seo seguinte.

3.4 Outros Algoritmos da Classe PNLMS

Nesta seo so apresentados alguns dos algoritmos adaptativos proporcionais


derivados dos algoritmos PNLMS e IPNLMS. Tais algoritmos foram desenvolvidos com o
intuito de alcanar um desempenho superior ao dos algoritmos PNLMS e IPNLMS na
identificao e controle de plantas esparsas. So eles os algoritmos PNLMS++, IIPNLMS,
MPNLMS, SC-PNLMS, SC-IPNLMS, SC-MPNLMS e IAF-PNLMS.
61

3.4.1 Algoritmo PNLMS++

O algoritmo PNLMS++ foi introduzido por Steven L. Gay em 1998 e consiste de uma
combinao dos algoritmos PNLMS e NLMS (Gay, 1998). Especificamente, o algoritmo
PNLMS++ alterna, em cada iterao do processo de adaptao, entre as regras de adaptao
dos algoritmos PNLMS e NLMS. O sumrio do algoritmo PNLMS++ mostrado na Tabela
3.6.
Tabela 3.6. Sumrio do algoritmo adaptativo PNLMS++.

1. Inicializao
(0) =
e parmetros
0<<2 ; >0 ; >0 ; >0
2. Obteno dos dados de entrada e sada
da planta
() = T ()()
e do filtro adaptativo
() = T ()()
3. Clculo do sinal de erro
() = () () + ()
4. Se mpar:
a. Fator de ativao
() = max[, () ]
b. Funo de proporcionalidade
() = max[(), | ()|] , = 1,2,3, ,
c. Ganho individual dos coeficientes do filtro adaptativo
()
() = , = 1,2,3, ,
=1 ()
d. Matriz de ganhos individuais ( x )
() = diag[1 () 2 () ()]
Caso contrrio, ou seja, se par:
a. Matriz de ganhos individuais ( x )
() =
5. Atualizao dos coeficientes do filtro adaptativo
()()()
( + 1) = () +
T ()() +
62

A complexidade computacional e os requisitos de memria do algoritmo PNLMS++


correspondem, obviamente, s mesmas do algoritmo PNLMS (Gay, 1998). Uma
implementao alternativa do algoritmo PNLMS++ consiste em alternar, a cada iteraes,
entre as regras de atualizao dos algoritmos NLMS e PNLMS (Wagner & Doroslovacky,
2013).

3.4.2 Algoritmo IIPNLMS

O algoritmo IIPNLMS foi proposto em 2004 com o objetivo principal de aprimorar o


desempenho do algoritmo IPNLMS para problemas de cancelamento de eco de rede. Tal
algoritmo busca explorar a caracterstica esparsa dos caminhos de eco de rede, segmentando a
resposta impulsiva destas plantas em regies ativas e inativas (Cui, Naylor & Brown,
2004). Enquanto que, para o algoritmo IPNLMS, o parmetro de proporcionalidade, , o
mesmo para todos os coeficientes do filtro adaptativo, para o algoritmo IIPNLMS tem-se um
parmetro de proporcionalidade varivel definido por
1 , se () > IIPN max[()]
,IIPN () = { , = 1,2,3, , (3.25)
2 , se () < IIPN max[()]
onde
() = max[(), | ()|] , = 1,2,3, , (3.26)
e
() = max[, () ] (3.27)
so a funo de proporcionalidade e o fator de ativao do algoritmo PNLMS. Os possveis
valores que o parmetro de proporcionalidade varivel, ,IIPN (), do algoritmo IIPNLMS
esto limitados em 1 1,2 < 1. As variveis e so os parmetros de proporcionalidade
e de inicializao, respectivamente. O vetor
() = [1 () 2 () ()] (3.28)
o vetor das funes de proporcionalidade dos coeficientes do filtro adaptativo na -sima
iterao do processo de adaptao. A varivel IIPN usada para controlar a fronteira entre as
regies de coeficientes ativos e inativos. Os ganhos de adaptao do algoritmo IIPNLMS so
calculados a partir de
()
() = , = 1,2,3, , (3.29)
1
()
=1
onde
1 ,IIPN () 1 + ,IIPN ()
() = + () , = 1,2,3, , . (3.30)
2 2
O algoritmo IIPNLMS apresenta-se como uma combinao ponderada dos algoritmos
NLMS e PNLMS de forma que a parcela referente ao PNLMS exerce maior influncia na
adaptao dos coeficientes da regio inativa, enquanto que a parcela referente ao NLMS
63

responsvel, principalmente, pela convergncia dos coeficientes da regio ativa. A Tabela


3.7 contm o sumrio do algoritmo IIPNLMS.

Tabela 3.7. Sumrio do algoritmo adaptativo IIPNLMS.

1. Inicializao
(0) =
e parmetros
0<<2 ; >0 ; 1 1,2 < 1
2. Obteno dos dados de entrada e sada
da planta
() = T ()()
e do filtro adaptativo
() = T ()()
3. Clculo do sinal de erro
() = () () + ()
4. Fator de ativao
() = max[, () ]
5. Funo de proporcionalidade
() = max[(), | ()|] , = 1,2,3, ,
6. Parmetro de proporcionalidade varivel
, se () > IIPN max[()]
,IIPN () = { 1 , = 1,2,3, ,
2 , se () < IIPN max[()]
7. Ganho individual dos coeficientes do filtro adaptativo
1 ,IIPN () 1 + ,IIPN ()
() = + () , = 1,2,3, ,
2 2
()
() = , = 1,2,3, ,
1
=1 ()

8. Matriz de ganhos individuais ( x )
() = [1 () 2 () ()]
9. Atualizao dos coeficientes do filtro adaptativo
()()()
( + 1) = () +
T ()() +

A partir da abordagem proposta pelo algoritmo IIPNLMS, possvel explorar as


vantagens de ambos os algoritmos NLMS e PNLMS em relao s caractersticas especficas
de cada regio (Cui, Naylor & Brown, 2004). A seguir apresentado o algoritmo MPNLMS.
64

3.4.3 Algoritmo MPNLMS

O algoritmo MPNLMS foi desenvolvido em 2005 e possui uma regra de atualizao que
distribui os ganhos de adaptao de forma proporcional ao logaritmo da magnitude dos
coeficientes do filtro adaptativo (Deng & Doroslovacky, 2005) e (Deng & Doroslovacky,
2006). O fator de ativao e a funo de proporcionalidade do algoritmo MPNLMS so dados
respectivamente por
() = max[, ln(1 + |1 ()|) , ln(1 + |2 ()|) , , ln(1 + | ()|)] (3.31)
e
() = max[(), ln(1 + | ()|)] (3.32)
onde = 1, com sendo um nmero positivo e pequeno. O bias unitrio dos logaritmos de
(3.31) e (3.32) evita instabilidade durante o perodo de inicializao, ou seja, quando (0) =
(Loganathan, Khong & Naylor, 2009). O sumrio deste algoritmo mostrado na Tabela 3.8.

Tabela 3.8. Sumrio do algoritmo adaptativo MPNLMS.

1. Inicializao
(0) =
e parmetros
0<<2 ; >0 ; >0 ; >0
2. Obteno dos dados de entrada e sada
da planta
() = T ()()
e do filtro adaptativo
() = T ()()
3. Clculo do sinal de erro
() = () () + ()
4. Fator de ativao
() = max[, ln(1 + |1 ()|) , , ln(1 + | ()|)]
5. Funo de proporcionalidade
() = max[(), ln(1 + | ()|)] , = 1,2,3, ,
6. Ganho individual dos coeficientes do filtro adaptativo
()
() = , = 1,2,3, ,
=1 ()
7. Matriz de ganhos individuais ( x )
() = diag[1 () 2 () ()]
8. Atualizao dos coeficientes do filtro adaptativo
()()()
( + 1) = () +
T ()() +
65

A regra de atualizao do algoritmo MPNLMS baseia-se no princpio da determinao


dos ganhos de adaptao timos para cada coeficiente do filtro adaptativo (Deng &
Doroslovacky, 2005). Tal algoritmo pode ser visto como uma derivao do algoritmo SD
proporcional, uma vez busca manter a rpida velocidade inicial de convergncia do algoritmo
PNLMS durante todo o processo de adaptao (Deng & Doroslovacky, 2006). A velocidade de
convergncia uniforme uma caracterstica do algoritmo SD (Farhang-Boroujeny, 2013) e
(Haykin, 1996).

3.4.4 Algoritmos SC-PNLMS, SC-IPNLMS e SC-MPNLMS

Os algoritmos SC-PNLMS, SC-IPNLMS e SC-MPNLMS constituem uma classe de


algoritmos proporcionais de esparsidade controlada (sparseness-controlled proportionate
algorithms). Tais algoritmos foram desenvolvidos com o objetivo de aprimorar as
caractersticas de convergncia dos algoritmos PNLMS, IPNLMS e MPNLMS para plantas de
esparsidade varivel (Khong & Naylor, 2006), (Loganathan, Khong & Naylor, 2008) &
(Loganathan, Khong & Naylor, 2009).
Sabe-se, de (1.2), que o grau de esparsidade de uma planta pode ser medido conforme a
definio (Hoyer, 2004)
1
() = (1 ) (3.33)
2
onde o vetor de coeficientes da planta que deseja-se identificar. Como 0 () 1,
quanto mais prximo de zero for (), mais esparsa ser a planta em questo. J que no
conhecido durante o processo de adaptao, uma alternativa vivel consiste em usar uma
estimativa da esparsidade da planta baseada no vetor de coeficientes, (), do filtro adaptativo
()1
[()] = (1 ). (3.34)
()2
Os algoritmos SC-PNLMS, SC-IPNLMS e SC-MPNLMS so concebidos empregando
(3.34) nas regas de atualizao dos algoritmos PNLMS, IPNLMS e MPNLMS,
respectivamente. Para os algoritmos SC-PNLMS e SC-MPNLMS, [()] aplicada no
clculo do parmetro de proporcionalidade, , da seguinte forma
() = [()] (3.35)
onde uma constante positiva no-nula e () o parmetro de proporcionalidade da -
sima iterao do processo de adaptao do algoritmo SC-PNLMS ou SC-MPNLMS. A escolha
do fator impacta diretamente na velocidade de convergncia dos algoritmos SC-PNLMS e
SC-MPNLMS, uma vez que este fator influencia diretamente no valor do parmetro de
proporcionalidade, (). Resultados experimentais demonstram que 4,0, 6,0 e 8,0 so boas
escolhas para tal fator (Loganathan, Khong & Naylor, 2009).
Como geralmente tem-se (0) = , para os algoritmos SC-PNLMS e SC-MPNLMS, a
estimativa de esparsidade da planta dada por (3.34) s deve ser calculada para , de forma
66

a evitar instabilidade uma vez que (0)2 = 0. Assim, para os algoritmos SC-PNLMS e SC-
MPNLMS, tem-se (Loganathan, Khong & Naylor, 2009)
5
() = , < . (3.36)

O sumrio dos algoritmos SC-PNLMS e SC-MPNLMS mostrado na Tabela 3.9.

Tabela 3.9. Sumrio dos algoritmos adaptativos SC-PNLMS e SC-MPNLMS.

1. Inicializao
(0) =
e parmetros
0<<2 ; >0 ; >0 ; >0 ; >0
2. Dados de sada da planta e do filtro adaptativo
() = T ()() e () = T ()()
3. Clculo do sinal de erro
() = () () + ()
4. Estimativa do grau de esparsidade da planta
()1
[()] = (1 ),
()2
5. Parmetro de proporcionalidade
5
, <
() = {
[()] ,
6. Fator de ativao e funo de proporcionalidade
i) Para o algoritmo SC-PNLMS
() = () max[, () ]
() = max[(), | ()|] , = 1,2,3, ,
ii) Para o algoritmo SC-MPNLMS
() = () max[, ln(1 + |1 ()|) , , ln(1 + | ()|)]
() = max[(), ln(1 + | ()|)] , = 1,2,3, ,
7. Ganho individual dos coeficientes do filtro adaptativo
()
() = , = 1,2,3, ,
=1 ()
8. Matriz de ganhos individuais ( x )
() = diag[1 () 2 () ()]
9. Atualizao dos coeficientes do filtro adaptativo
()()()
( + 1) = () + T
()() +

O algoritmo SC-IPNLMS emprega [()] no clculo dos ganhos de adaptao


individuais do algoritmo IPNLMS (Khong & Naylor, 2006)
67

1 0,5[()] (1 SC ) 1 0,5[()] (1 + SC )| ()|


() = { } +{ } (3.37)
2 2()1 +
onde SC o parmetro de proporcionalidade do algoritmo SC-IPNLMS. Como resultado de
(3.36), tem-se que o algoritmo SC-IPNLMS varia a contribuio dos termos proporcional e
no-proporcional de acordo com a estimativa do grau de esparsidade da planta. Diferentemente
do algoritmo IPNLMS, o qual usa apenas um parmetro de proporcionalidade, , o qual
constante durante todo o processo de adaptao.
Analogamente ao caso dos algoritmos SC-PNLMS e SC-MPNLMS, para evitar
instabilidade na estimativa da esparsidade da planta durante o incio do processo de adaptao,
adota-se para o algoritmo SC-IPNLMS (Khong & Naylor, 2006)
(1 SC ) (1 + SC )| ()|
() = + , < . (3.38)
2 2()1 +
A Tabela 3.10 contm o sumrio do algoritmo SC-IPNLMS.

Tabela 3.10. Sumrio do algoritmo adaptativo SC-IPNLMS.

1. Inicializao e parmetros
(0) =
0<<2 ; > 0 ; 1 < 1 ; >0
2. Dados de sada da planta e do filtro adaptativo
() = T ()() e () = T ()()
3. Clculo do sinal de erro
() = () () + ()
4. Estimativa do grau de esparsidade da planta
()1
[()] = (1 ),
()2
5. Ganho individual dos coeficientes do filtro adaptativo ( = 1,2,3, , )
i) Para <
1 | ()|
() = (1 SC ) + (1 + SC )
2 2()1 +
ii) Para
1 0,5[()] (1 SC ) 1 0,5[()] (1 + SC )| ()|
() = { } +{ }
2 2()1 +
6. Matriz de ganhos individuais ( x )
() = [1 () 2 () ()]
7. Atualizao dos coeficientes do filtro adaptativo
()()()
( + 1) = () + T
()() +
68

A seguir, apresentado o algoritmo IAF-PNLMS.

3.4.5 Algoritmo IAF-PNLMS

Introduzido em 2010, o algoritmo IAF-PNLMS prope o emprego de fatores de ativao


individuais para cada coeficiente do filtro adaptativo (Souza, Tobias, Seara & Morgan, 2010).
Tais fatores so determinados da seguinte maneira
1 1
| ()| + ( 1), =
() = { 2 2 (3.39)
( 1), caso contrrio
com = 1,2, , e = 1,2,3, . A varivel () o fator de ativao do -simo coeficiente
do filtro na -sima iterao do processo de adaptao. Dessa forma, as funes de
proporcionalidade para o algoritmo IAF-PNLMS so calculadas a partir de
= max[ (), | ()|] , = 1,2,3, , . (3.40)
Note de (3.39) e (3.40) que o algoritmo IAF-PNLMS requer uma inicializao do vetor
() = [1 (), 2 (), , ()]T de fatores de ativao individuais dos coeficientes do filtro.
Normalmente, () inicializado com
(0) = , = 1,2, , (3.41)
onde uma constante pequena e positiva. Resultados experimentais demonstram que 102 /
uma boa escolha para tal constante (Souza, Tobias, Seara & Morgan, 2010).
O algoritmo IAF-PNLMS possui duas caractersticas interessantes que podem ser
observadas em (3.39) e (3.40). A primeira delas est relacionada memria dos fatores de
ativao individuais, a qual est associada aos valores dos respectivos coeficientes do filtro.
Note de (3.39) que o -simo fator de ativao, (), contm informao herdada da magnitude
do -simo coeficiente. A segunda diz respeito convergncia dos fatores de ativao
individuais. Para demonstrar tal caracterstica, assume-se convergncia e apresenta-se as
seguintes propriedades para o -simo fator de ativao, (), e para a -sima funo de
proporcionalidade, dados respectivamente por (3.39) e (3.40):
(P1) Se o -simo coeficiente, (), ativo, tem-se, no instante =
1 1
() = | ( 1)| + | ()| (3.42)
2 2
e
1
() = max { [| ( 1)| + | ()|], | ()|}. (3.43)
2
(P2) Se o -simo coeficiente, (), inativo, tem-se, no instante =
1 1 1
() = (0) + | ()| + | (2)| +
2 2 21
1 1
+ 2 | [( 1)]| + | ()| (3.44)
2 2
e
69

1 1 1
() = max {
(0) + | ()| + + | ()|, | ()|} (3.45)
2 2 2
Portanto, de P1) e P2) verifica-se que, conforme aumenta, | ( 1)|
| ()| e, consequentemente, () | ()|, para ambos coeficientes ativos e
inativos. Desta forma, tem-se que () proporcional a | ()|, independentemente se ()
for ativo ou inativo. Como resultado, tem-se para o algoritmo IAF-PNLMS que o -simo fator
de ativao, (), converge para a magnitude do respectivo coeficiente, | ()| (Souza,
Tobias, Seara & Morgan, 2010)
lim [ () | ()|] , = 1,2, , . (3.46)

Note de (3.45) que () sempre maior do que zero. Isto evita estagnao dos
coeficientes do filtro adaptativo durante o processo de adaptao. Apesar de proporcionar um
aumento na velocidade de convergncia geral do algoritmo PNLMS, o algoritmo IAF-PNLMS
provoca uma diminuio na velocidade de convergncia dos coeficientes de menor magnitude.
Isto se d pela transferncia dos de adaptao dos coeficientes inativos para os coeficientes
ativos que ocorre no algoritmo IAF-PNLMS (Wagner & Doroslovacky, 2013). O sumrio do
algoritmo IAF-PNLMS mostrado na Tabela 3.11.

Tabela 3.11. Sumrio do algoritmo adaptativo IAF-PNLMS.

1. Inicializao
(0) = ; (0) = ; (0) = , = 1,2, ,
e parmetros
0<<2 ; >0
2. Dados de sada da planta e do filtro adaptativo
() = T ()() e () = T ()()
3. Clculo do sinal de erro
() = () () + ()
4. Fatores de ativao individuais ( = 1,2, , )
1 1
| ()| + ( 1), =
() ={2 2
( 1), caso contrrio
5. Funo de proporcionalidade
= max[ (), | ()|] , = 1,2,3, ,
6. Ganho individual dos coeficientes do filtro adaptativo
()
() = , = 1,2,3, ,
=1 ()
7. Matriz de ganhos individuais ( x )
() = diag[1 () 2 () ()]
8. Atualizao dos coeficientes do filtro adaptativo
()()()
( + 1) = () + T
()() +
70

O principal objetivo do algoritmo IAF-PNLMS obter uma adaptao verdadeiramente


proporcional. Isto se d pelo emprego de fatores de ativao individuais, em contraste com o
algoritmo PNLMS, o qual possui ganhos de adaptao proporcionais apenas para os
coeficientes considerados ativos (vide Figuras 3.3 e 3.5).
71

Captulo 4

Mtodos de Otimizao

Frequentemente, profissionais de diversos ramos tais como engenheiros, gerentes de


fbrica, planejadores e pesquisadores em geral lidam com problemas que necessitam de algum
tipo de otimizao. Tais problemas podem envolver, por exemplo, planejamento e alocao de
recursos e mo de obra limitados para atingir um dado resultado, ou mesmo escolha da melhor
combinao de valores e parmetros que impactam na operao de um determinado dispositivo
ou processo (Bazaraa, Sherali & Shetty, 2006). Para solucionar este tipo de problema, foram
desenvolvidos mtodos de otimizao os quais so baseados nos mais diversos princpios
matemticos e filosofias de busca. O principal objetivo destes mtodos propor uma soluo
elegante e bem direcionada para o problema que se deseja solucionar. Em linhas gerais, os
mtodos de otimizao podem ser entendidos como ferramentas de conceptualizao e anlise
que buscam a soluo correta para um dado problema. Tais mtodos operam com base em uma
gama de princpios que definem uma metodologia de execuo (Luenberger & Ye, 2010).
Mtodos clssicos de otimizao empregam ferramentas de clculo diferencial e
conceitos envolvendo funes de uma ou vrias variveis. Exemplos de mtodos clssicos
incluem os baseados em gradiente e o mtodo de Newton. Tais mtodos so ditos de otimizao
local uma vez que, dependendo do ponto de partida e das direes de descida, podem levar a
busca para timos locais, ou seja, pontos de mximo ou de mnimo que no so necessariamente
os maximizadores ou minimizadores da funo objetivo (Luenberguer & Ye, 2008). Os
chamados mtodos de otimizao global empregam, em sua grande maioria, algoritmos de
busca inspirados em situaes encontradas na natureza. Exemplos de mtodos de busca global
incluem algoritmos genticos, otimizao por enxame de partculas (particle swarm
optimization), lgica fuzzy, busca tabu, dentre outros (Parlados, Du & Graham, 2013). Estes
mtodos realizam buscas com certo grau de aleatoriedade apoiadas por mecanismos e
estratgias de direcionamento que evitam estagnao em timos locais.
Este captulo tem o objetivo de apresentar alguns conceitos fundamentais envolvendo
teoria de otimizao, alm dos mtodos de otimizao empregados neste trabalho para otimizar
o desempenho dos algoritmos adaptativos proporcionais para a identificao de plantas
esparsas. Primeiramente, so mostradas as formas de modelagem e caracterizao de problemas
de otimizao. Logo aps, so discutidas as condies para identificao e verificao das
solues timas para um dado problema de otimizao, tambm chamadas de condies de
otimalidade. Posteriormente, so apresentados alguns dos principais mtodos de otimizao
local e global desenvolvidos nas ltimas dcadas. Por fim, os mtodos adotados por este
72

trabalho para otimizar a escolha dos parmetros dos algoritmos PNLMS e IPNLMS so
apresentados.

4.1 Caracterizao de um Problema de Otimizao

Problemas de otimizao podem ser representados por modelos matemticos


tipicamente constitudos por trs elementos:
1. Conjunto de variveis de deciso: contm os parmetros cujos respectivos valores levam
a uma dada soluo para o problema.
2. Funo de custo: uma funo das variveis de deciso do problema que se deseja
minimizar ou maximizar.
3. Restries: conjunto de funes que definem o espao de busca das possveis solues
para o problema. Solues obtidas a partir de valores de variveis de deciso que no
pertencem ao conjunto de restries devem ser descartadas.
A busca pela melhor soluo deve ento ser pautada pela determinao do minimizador
ou maximizador global da funo de custo.
Considere uma dada funo de custo, (), definida em , tal que um vetor
de componentes, ou seja, = [1 2 ]T . Um problema geral de otimizao pode ser
caracterizado por uma notao matemtica tal como
minimizar ()
sujeito a () 0, = 1,2, , (4.1)
() = 0, = 1,2, ,
onde o objetivo em (4.1) encontrar um vetor que minimize () e que satisfaa as
condies () 0, com = 1,2, , e () = 0, com = 1,2, , . O vetor formado
pelas variveis de deciso 1 , 2 , , e as funes , e so definidas em . As
inequaes () 0, com = 1,2, , , e as equaes as equaes () = 0, com =
1,2, , , so chamadas de restries de desigualdade e de igualdade, respectivamente. As
variveis e representam a quantidade de restries de desigualdade e igualdade,
respectivamente. Um problema que possua restries de igualdade ou de desigualdade (ou
ambas) dito de otimizao restrita ou com restries. Em contrapartida, um problema descrito
da forma
minimizar ()
sujeito a (4.2)
ou seja, sem restries de igualdade ou desigualdade, chamado de problema de otimizao
irrestrita (Luenberger & Ye, 2010). Um problema de otimizao restrita tambm pode ser
representado da forma
minimizar ()
sujeito a (4.3)
73

ou
= arg min () (4.4)

onde um subconjunto de . Tal conjunto, comumente chamado de regio factvel,


constitudo pela interseco entre as restries de igualdade e desigualdade. Cada elemento
chamado de soluo factvel. Obviamente, qualquer soluo deve ser descartada,
uma vez que no atende s restries do problema.
Uma das mais importantes caractersticas de um problema de otimizao est
relacionada com o carter do conjunto de solues factveis. Especificamente, problemas de
otimizao podem ser classificados como contnuos ou discretos. Problemas contnuos so
aqueles nos quais o conjunto possui infinitos elementos, ou seja, apresenta um carter
contnuo. Em contrapartida, problemas discretos so aqueles nos quais o conjunto possui um
nmero finito de elementos. Exemplos tpicos de problemas discretos so problemas de
otimizao combinatria, tais como planejamento de rotas, alocao tima de recursos e mo
de obra, dentre outros (Bertsekas, 1999).

4.1.1 Busca Unidimensional e Multidimensional

Outra caracterstica importante de problemas de otimizao est relacionada com a


quantidade de variveis de deciso. Especificamente, quando = 1, ou seja, quando o
conjunto de solues factveis, , constitudo por elementos do tipo , tem-se um
problema de otimizao unidimensional. Neste caso, a funo de custo, , e as restries ,
com = 1,2, , , e , com = 1,2, , , so todas definidas em . Uma alternativa para
resolver este tipo de problema o uso de mtodos iterativos de busca unidimensional, tambm
chamados de mtodos de busca linear. Tais mtodos de busca tm como ponto de partida uma
soluo candidata inicial, 0 , e a cada iterao, , com = 0,1,2, , gerada uma nova soluo
candidata tima do problema. A soluo candidata da prxima iterao, +1, depende da
soluo da iterao anterior, , e de informaes relacionadas com a funo de custo, . Podem
ser usados valores de em pontos especficos ou talvez a primeira e segunda derivadas ( e
, respectivamente) da funo de custo na busca por novas solues. Exemplos de mtodos
de busca unidimensional incluem os mtodos da razo urea, de Fibonacci, da bisseo, da
secante, dentre outros (Bazaraa, Sherali & Shetty, 2006) e (Luenberguer & Ye, 2010). Cada
mtodo possui critrios de convergncia prprios que definem quando a busca deve ser
interrompida.
Mtodos de busca linear so de particular interesse para o ramo da otimizao, pois
podem ser vistos como casos especiais de mtodos de otimizao multidimensional, os quais
so aplicados em problemas que possuem mais de uma varivel de deciso ( > 1). Alm
disso, um mtodo de busca unidimensional pode ser empregado como parte integrante de
mtodos de busca multidimensional (Chong & Zak, 2013). Em particular, algoritmos usados
por mtodos iterativos de busca multidimensional geralmente realizam uma busca linear em
cada iterao. Como exemplo, considere uma funo de custo , definida em , que se
74

deseja minimizar. O algoritmo usado por um mtodo de busca multidimensional para


determinao do minimizador de possui a forma
+1 = + (4.5)
onde o vetor chamado de direo de busca e > 0 o parmetro de passo. Dado um
ponto inicial, 0 , deve-se escolher de forma que a funo
() = ( + ) (4.6)
seja minimizada. Dessa forma, um mtodo de busca unidimensional, tal como o mtodo da
razo urea ou o mtodo da bisseo, usado para determinar o valor adequado para o
parmetro de passo, , de (4.5). Uma condio apropriada para tal escolha
(+1 ) < ( ). (4.7)
A seguir so discutidos os requisitos necessrios para que uma dada soluo possa ser
considerada uma minimizadora (ou maximizadora) local ou global de um problema de
otimizao. Tais requisitos so chamados de condies de otimalidade.

4.2 Condies de Otimalidade

Tendo posse do modelo matemtico para o problema que se deseja solucionar, verifica-
se que o termo otimizar consiste basicamente em encontrar o conjunto de valores para as
variveis de deciso que minimizam (ou maximizam) a funo de custo. Isto deve ocorrer sem
que nenhuma das restries de igualdade ou desigualdade do problema sejam violadas (Hagan,
Demuth, Beale & de Jesus, 2015). Porm, antes de realizar a busca pelo minimizador (ou
maximizador) da funo de custo, deve-se definir os requisitos que uma determinada soluo
candidata deve atender para ser considerada como tima. Para tal, considere uma funo de
custo, (), definida em , tal que . Diz-se que um mnimo local de
se existe > 0 tal que
( ) (), com < (4.8)
onde representa a norma euclidiana do vetor em questo. Analogamente, dito um
mximo local de se
( ) (), com < . (4.9)
O vetor dito mnimo global de se
( ) (), . (4.10)
Analogamente, dito mximo global de se
( ) (), . (4.11)
Em ambos os casos descritos em (4.10) e (4.11), denominado soluo tima do
problema. A funo de custo comumente chamada de funo objetivo (Bazaraa, Sherali &
Shetty, 2006). Em particular, se um mnimo local (ou global) de , tem-se tambm que
um mnimo local (ou global) de (Bertsekas, 1999). Para verificar se uma dada soluo
atende os requisitos de (4.8) e (4.9), pode-se fazer uso de ferramentas de clculo tais
75

com expanses em srie de Taylor e vetores gradiente. Ento, com o auxlio de tais ferramentas,
pode-se definir algumas condies que deve atender para ser considerada um timo local de
. Estas condies so apresentadas a seguir.

4.2.1 Condies Necessrias de Otimalidade

Caso a funo objetivo : seja duplamente diferencivel em, possvel usar


ferramentas como gradientes, expanses em srie de Taylor e matrizes Hessianas para verificar
se uma dada soluo candidata mais vantajosa em relao a outras localizadas em uma
vizinhana prxima. Especificamente, considerando pequenas variaes, , de um dado vetor
, tem-se que a variao no valor de funo objetivo em funo de pode ser estimada a
partir uma aproximao de primeira ordem dada por
( + ) ( ) ( )T (4.12)
onde o termo ( ) o vetor gradiente de calculado no ponto . A variao no valor de
funo objetivo em funo de tambm pode ser estimada a partir de uma aproximao de
segunda ordem dada por
1
( + ) ( ) ( )T + T 2 ( ) (4.13)
2
onde o termo 2 ( ) a matriz Hessiana de calculada no ponto . Caso seja um mnimo
local irrestrito de , a variao de primeira ordem dada por (4.12) no-negativa, ou seja

)T
( )
( = 0 . (4.14)

=1

Como arbitrrio, para que seja um minimizador local de , deve-se ter


( )
0 (4.15)

para = 1,2, , . Em outras palavras, a taxa de variao de em em qualquer direo
deve ser no-negativa. Logo, tem-se
( ) = 0 . (4.16)
O resultado de (4.16) corresponde condio de otimalidade necessria de primeira
ordem.
Considerando agora a aproximao de segunda ordem de (4.13), para que seja um
mnimo local irrestrito de , tambm deve-se ter uma variao no-negativa no valor de funo
objetivo em funo de , ou seja
1
( )T + T 2 ( ) 0 . (4.17)
2
Uma vez que, de (4.14) e (4.16), tem-se
( )T = 0 . (4.18)
76

Ento, (4.17) passa a ser constituda somente pela forma quadrtica


T 2 ( ) 0 . (4.19)
Logo, 2 ( ) deve ser positiva semidefinida em qualquer direo . Esta definio
corresponde condio de otimalidade necessria de segunda ordem.
Um candidato a mnimo local irrestrito, , de precisa atender as condies de
otimalidade descritas por (4.16) e (4.19). Porm, tais condies no so suficientes para que
seja realmente um mnimo local de . As condies suficientes de otimalidade so apresentadas
a seguir.

4.2.2 Condies Suficientes de Otimalidade

Considere um vetor que satisfaz a condio necessria de primeira ordem


( ) = 0 (4.20)
e que tambm satisfaz a condio necessria de segunda ordem da seguinte forma
T 2 ( ) > 0 (4.21)
ou seja, a Hessiana de positiva definida (ao invs de positiva semidefinida) em para
qualquer direo . Ento, tem-se que o valor de tende a crescer para pequenas trajetrias
partindo de . Logo, as condies descritas por (4.20) e (4.21) so suficientes para que seja
um minimizador local de .
Mnimos locais que no satisfazem (4.20) e (4.21) so chamados de singulares. Caso
contrrio, so chamados de no-singulares. A otimalidade de mnimos singulares no pode ser
verificada se no possuir carter convexo. Alm disso, o comportamento de mtodos de
otimizao clssicos na vizinhana deste tipo de mnimo tende a ser lento e possivelmente
errtico. Tais caractersticas fazem dos mnimos singulares os mais difceis de serem analisados
(Bertsekas, 1999).

4.2.3 Condies de Karush-Kuhn-Tucker

As condies necessrias e suficientes de otimalidade apresentadas nas subsees 4.2.1


e 4.2.2 so aplicveis a problemas gerais de otimizao no-linear irrestrita. Entretanto, para
problemas de otimizao com restries, uma soluo candidata a tima local (ou global) deve
atender a outra srie de requisitos (Chong & Zak, 2013). Para verificar tais condies, considere
o seguinte problema de otimizao restrita
minimizar ()
sujeito a () 0, = 1,2, , (4.22)
() = 0, = 1,2, ,
onde (), () 0, com = 1,2, , , e () = 0, com = 1,2, , , so a funo objetivo
e as restries de desigualdade e igualdade, respectivamente, todas definidas em . O
vetor pertence ao conjunto de solues factveis definido por
77

= { | () 0, = 1,2, , e () = 0, = 1,2, , } . (4.23)


Uma restrio de desigualdade, () 0, dita ativa no ponto se
( ) = 0 (4.24)
caso contrrio, () dita inativa em . Por conveno, uma restrio de igualdade () = 0
sempre considerada como sendo ativa para qualquer . O conjunto das restries de
desigualdade ativas em definido como
( ) { | ( ) = 0} . (4.25)
Diz-se que um ponto regular se os vetores ( ), com ( ), e ( ), com
= 1,2, , , so linearmente independentes.
A funo Lagrangeana (ou simplesmente o Lagrangeano) para o problema de (4.22)
dada por
(, , ) = () + T () + T () (4.26)
T T
onde = [1 2 ] e = [1 2 ] so vetores constitudos pelos multiplicadores de
T T
Lagrange, e () = [1 () 2 () ()] e () = [1 () 2 () ()] so vetores
contendo as restries de desigualdade e igualdade, respectivamente.
Com base nas definies de (4.24) a (4.26), pode-se estabelecer as condies Karush-
Kuhn-Tucker (KKT) necessrias de primeira ordem. Especificamente, considerando que (),
() e () sejam diferenciveis em , e que um ponto regular e um minimizador local
do problema dado por (4.22), ento existem e que satisfazem as seguintes
condies
( , , ) =

T ( ) = 0 (4.27)
( )
( ) =
onde (, , ) o vetor gradiente do Lagrangeano do problema em relao a . Pela
condio de complementaridade, T ( ) = 0, tem-se
= 0, ( ) < 0 (4.28)
ou seja, os operadores de Lagrange relacionados s restries de desigualdade inativas so
nulos. As condies KKT necessrias de primeira ordem dadas por (4.27) referem-se a um
problema de minimizao semelhante ao de (4.22). Para o caso de um problema de
maximizao dado por
maximizar ()
sujeito a () 0, = 1,2, , (4.29)
78

() = 0, = 1,2, ,
estas mesmas condies podem ser aplicadas se a funo objetivo, (), a ser maximizada for
multiplicada por 1.
Para definir as condies KKT necessrias de segunda ordem, considere a matriz

(, , ) = () + () + 2 ()
2 2 2 (4.30)
=1 =1

onde 2 () e 2 () so as matrizes Hessianas de () e (), respectivamente. Dessa


forma, considerando que (), () e () sejam duplamente diferenciveis em , e que
um ponto regular e um minimizador local do problema de minimizao dado por (4.22), ento
existem e tais que
( , , ) =
(4.31)
T ( ) = 0
e que, para todo definido em
( ) = { | ( )T = 0, ( )T = 0, ( )} (4.32)
tem-se
T 2 ( , , ) 0. (4.33)
As condies KKT necessrias de segunda ordem so dadas por (4.31) e (4.33).
Para definir as condies KKT suficientes de segunda ordem, considere o conjunto
( , ) = { | ( )T = 0, ( )T = 0, ( , )} (4.34)
onde
( , ) = { | ( ) = 0, > 0} . (4.35)
Note que
( , ) ( ). (4.36)
Logo, tem-se que
( ) ( , ). (4.37)
Dessa forma, considerando que (), () e () sejam duplamente diferenciveis em
, e que existam uma soluo factvel, , para o problema de minimizao dado por

(4.22), e vetores e tais que


( , , ) =
(4.38)
T ( ) = 0
79

e que, para todo ( , ), tenha-se


T 2 ( , , ) > 0 (4.39)
ento um minimizador local de (). Analogamente, considerando um problema de
maximizao semelhante ao de (4.29), tem-se que um maximizador local de () se
existirem e tais que
( , , ) =
(4.40)
T ( ) = 0
e que para todo ( , ) tenha-se
T 2 ( , , ) < 0 (4.41)
ou seja, se os multiplicadores de Lagrange referentes s restries de desigualdade forem no-
positivos e se 2 ( , , ) for negativa definida em ( , ).
Para que as condies de otimalidade apresentadas acima possam ser verificadas
necessrio que a funo objetivo e as restries sejam diferenciveis. Este requisito atendido
por funes de carter suave. Uma funo suave multiplamente diferencivel em qualquer
ponto de seu domnio. Tal caracterstica garante funo um comportamento previsvel, pelo
menos localmente, permitindo que algoritmos usados por mtodos de busca escolham
corretamente as direes de busca (Sun & Yuan, 2006). Tipicamente, fronteiras no-suaves do
conjunto de solues factveis podem ser descritas por um conjunto de restries suaves. Porm,
para alguns problemas cuja funo objetivo e restries possuem carter no-suave, tais como
alguns problemas de otimizao combinatria, no possvel realizar tais adaptaes.
Mtodos de otimizao clssicos, tais como o mtodo de descida mais ngreme (SD
steepest descent method) e o mtodo de Newton, operam satisfatoriamente em problemas cuja
funo objetivo e respectivas restries so suaves. Tais mtodos usam ferramentas de clculo
como derivadas e matrizes Hessianas, e podem ser entendidos como mtodos de busca local
(Chong & Zak, 2013). Em contrapartida, mtodos de busca aleatria direcionada e/ou
inspirados em situaes encontradas na natureza, tais como os algoritmos genticos, a busca
tabu e o recozimento simulado (simulated annealing), demonstram-se mais adequados para
lidar com problemas de natureza discreta ou cujas funes envolvidas so de carter no-suave.
Estes mtodos, frequentemente chamados de mtodos de otimizao global, usam apenas
valores de funo objetivo de diversos pontos pertencentes ou no ao conjunto de solues
factveis. A seguir, so apresentados alguns dos principais mtodos de busca local e global
empregados na resoluo de problemas de otimizao.

4.3 Mtodos de Otimizao Local

Mtodos clssicos de otimizao, tais como o mtodo SD e o mtodo de Newton, fazem


uso de algoritmos iterativos cujo objetivo minimizar uma funo objetivo : . A ideia
80

fundamental de tais algoritmos reside em realizar uma busca de descida iterativa (iterative
descent) que funciona de acordo com os seguintes passos:
1. A busca tem como ponto de partida uma estimativa inicial 0 .
2. A cada nova iterao, , gerado um novo vetor, , de forma que o valor de
decresa iterativamente, ou seja
(+1 ) < ( ), = 0,1,2, (4.42)
onde e +1 so as estimativas das iteraes anterior e atual, respectivamente. Desta forma,
a estimativa da soluo tima sucessivamente melhorada ao passo que caminha passo a
passo em direo a um ponto de mnimo. Um algoritmo de busca empregado por um mtodo
clssico de otimizao pode ser descrito por
+1 = + (4.43)
onde > 0 e so, respectivamente, o parmetro de passo e a direo de busca
adotados. O parmetro tipicamente escolhido com o auxlio de um mtodo de busca linear,
tal como o mtodo da razo urea ou o mtodo de Fibonacci, ou segundo um conjunto de
princpios que garantem estabilidade e convergncia do mtodo. A direo de busca, ,
adotada varia conforme o mtodo empregado (Bazaraa, Sherali & Shetty, 2006). Note que o
desempenho dos mtodos de busca local depende principalmente da estimativa inicial e da
direo de busca escolhida (Chong & Zak, 2013). Esta seo apresenta alguns dos principais
mtodos de otimizao local desenvolvidos nas ltimas dcadas. O primeiro deles o mtodo
SD.

4.3.1 Mtodo de Descida mais ngreme

O mtodo SD um dos mais simples e fundamentais mtodos de minimizao


empregado em problemas de otimizao irrestrita. Tambm comumente chamado de mtodo
do gradiente, este mtodo caracteriza-se principalmente por adotar o valor negativo do
gradiente da funo objetivo como direo de descida (Sun & Yuan, 2006).
O gradiente de uma funo, : , em um dado ponto, , dado por
()
1
()
() = 2 (4.44)

()
[ ]
onde ()/ a derivada parcial de em relao a , com = 1,2, , , pode ser definido
como sendo o vetor que indica a direo da mxima taxa de crescimento de a partir de .
Logo, a direo de mximo decrscimo de em ser (). Assim, o algoritmo que
descreve o mtodo SD pode ser descrito por
+1 = ( ) (4.45)
81

onde ( ) o vetor gradiente de na estimativa da iterao atual . Sabe-se que o mtodo


SD possui a seguinte propriedade (Chong & Zak, 2013):
(+1 ) < ( ) (4.46)
se
( ) . (4.47)
Ento, caso exista algum ponto tal que ( ) = , tem-se que satisfaz a condio
de otimalidade necessria de primeira ordem. Neste caso, +1 = . Logo, um critrio de
parada ou de convergncia para o algoritmo SD
(+1 ) = . (4.48)
Porm, em aplicaes prticas, a condio (4.48) no vivel pelo fato de que o
cmputo numrico do gradiente raramente ser igual a zero. Uma alternativa para a definio
de tal critrio pode ser dada por
|(+1 ) ( )| < (4.49)
onde > 0 um limiar previamente especificado, geralmente escolhido como sendo 0 <
1. Este limiar tambm comumente chamado de tolerncia. Outro critrio de convergncia
adequado dado por
+1 < . (4.50)
A seguir apresentado o mtodo de Newton.

4.3.2 Mtodo de Newton

O mtodo SD usa apenas derivadas de primeira ordem para minimizar a funo objetivo.
Porm, tal estratgia nem sempre a mais efetiva. Caso derivadas de ordem superior sejam
usadas, o mtodo de busca resultante pode alcanar um desempenho superior ao do mtodo SD
(Chong & Zak, 2013).
A ideia bsica do mtodo de Newton consiste em minimizar de forma iterativa a
aproximao quadrtica da funo objetivo em um dado ponto. Tal mtodo usa derivadas de
primeira e segunda ordem da funo objetivo e, caso o ponto inicial escolhido estiver prximo
de um minimizador local, o mtodo de Newton alcana de fato um desempenho superior ao do
mtodo SD (Bazaraa, Sherali & Shetty, 2006).
Considere uma funo objetivo (): . A aproximao quadrtica desta funo
em um dado ponto dada por
1
= ( ) + ( )( ) + ( )( )2 (4.51)
2
onde ( ) e ( ) so as derivadas de primeira e segunda ordem de em ,
respectivamente. Assim, toma-se +1 como sendo o ponto onde a derivada de igual a zero.
Logo, tem-se
82

( ) + ( )(+1 ) = 0 (4.52)
o que leva a
( )
+1 = . (4.53)
( )
O procedimento iterativo dado por (4.53) possui velocidade de convergncia superior
do mtodo SD. Para uma funo objetivo (): , a aproximao quadrtica de (4.51)
passa a ser
1
= ( ) + ( )( ) + 2 ( )( )2 . (4.54)
2
Aplicando a condio de otimalidade necessria de primeira ordem em (4.54), tem-se
=
= ( ) + 2 ( )( ). (4.55)
Assumindo que 2 ( ) seja positiva definida, tem-se que o mnimo de alcanado
em
+1 = [2 ( )]1 ( ). (4.56)
Inserindo um parmetro de passo, , no termo de correo de (4.56) obtm-se a regra
recursiva do mtodo de Newton
+1 = [2 ( )]1 ( ). (4.57)
Para o critrio de convergncia do mtodo de Newton, pode-se adotar as mesmas
condies para o mtodo SD dadas por (4.49) ou (4.50). Outro critrio de convergncia
aplicvel ao mtodo de Newton
(+1 ) < . (4.58)
Note que, para = 1, o mtodo de Newton encontra o mnimo global de uma funo
quadrtica positiva definida em uma nica iterao. O mtodo de Newton converge mais
rapidamente do que o mtodo SD. Porm, a carga computacional requerida pelo mtodo de
Newton significativamente superior ao do mtodo SD. Enquanto que o mtodo SD requer
apenas o clculo do gradiente, o mtodo de Newton tambm exige o cmputo da inversa da
matriz Hessiana da funo objetivo em cada iterao (Bertsekas, 1996).

4.4 Mtodos de Otimizao Global

Os mtodos de otimizao apresentados na seo anterior convergem, na melhor das


hipteses, para um timo local. Portanto, quando do uso de tais mtodos, desejvel que o
ponto de partida esteja prximo de um minimizador global. Alm disso, h a necessidade de
clculos de derivadas de primeira ou mesmo de segunda ordem. Da o porqu de serem
chamados de mtodos de otimizao local. Outra desvantagem de mtodos clssicos, tais como
o mtodo SD ou o de Newton, que estes no operam adequadamente quando perturbaes
aleatrias (tal como um rudo de medio) so impostas funo objetivo (Fogel, 1994).
83

Em contrapartida, os mtodos apresentados nessa seo so considerados de otimizao


global, uma vez que buscam percorrer todo o conjunto de solues factveis. Tais mtodos no
requerem clculo de derivadas j que s usam valores de funo objetivo. Como consequncia
disso, podem ser empregados em uma maior classe de problemas, incluindo otimizao
combinatria, problemas discretos e envolvendo funes de carter no-suave (Chong & Zak,
2013). Outra vantagem dos mtodos de otimizao global que estes tambm podem ser usados
como ferramentas para escolha adequada do ponto de partida de um mtodo de busca local. A
seguir so apresentados dois mtodos de otimizao cujas tcnicas de busca so inspiradas em
situaes encontradas na natureza. So eles, respectivamente, os algoritmos genticos e os
mtodos de otimizao por enxame de partculas.

4.4.1 Algoritmos Genticos

Evoluo natural um processo de otimizao baseado em populaes. Algoritmos


evolutivos vm sendo empregados em vrios problemas de engenharia e cincia da computao.
As primeiras ideias relacionadas com a computao evolutiva surgiram na dcada de 1950 com
a proposta de implementar o processo de evoluo natural em computador para resolver
problemas. A principal vantagem destes algoritmos reside no uso de uma representao
matemtica das variveis de interesse do sistema alvo. Isto confere robustez e flexibilidade para
lidar com problemas de auto grau de complexidade, seguindo um conjunto de procedimentos
genricos capazes de serem adaptados para atuar em vrios cenrios.
A computao evolutiva engloba uma famlia de algoritmos inspirados na teoria da
evoluo das espcies de Darwin. Historicamente, foram desenvolvidos independentemente
trs tipos de algoritmos evolutivos (Fogel, 1994) e (Back, 1996):
Algoritmos genticos: desenvolvidos por John Henry Holland no final da dcada de
1960, com o intuito de propor uma caracterizao matemtica para processos de
adaptao presentes em sistemas naturais, alm de desenvolver sistemas artificiais
computacionais com mecanismos semelhantes aos dos processos naturais (Holland,
1975).
Programao evolutiva: proposta inicialmente por Lawrence J. Fogel na dcada de 1960
como uma tcnica para criar inteligncia artificial a partir da evoluo de mquinas de
estado finito (Fogel, 1964).
Estratgias evolutivas: propostas por Schwefel e Rechenberg para solucionar problemas
de otimizao de parmetros (Schwefel, 1965) e (Rechenberg, 1973).
Os algoritmos genticos pertencem classe das tcnicas baseadas em inteligncia
artificial ou metaheursticas. Tais algoritmos baseiam-se na codificao gentica para simular
o processo de evoluo. A grande vantagem deste mtodo est na relativa simplicidade,
robustez, flexibilidade e capacidade de encontrar a soluo tima global. Isto se d pela
aplicao de procedimentos de busca aleatria direcionada com caractersticas no lineares e
com mltiplos picos e descontinuidades. Dessa forma, o espao de solues factveis
percorrido com certa aleatoriedade, porm com um objetivo bem definido. Graas a estas
84

peculiaridades, os algoritmos genticos evitam convergncia em timos locais. Sua


generalidade e simplicidade tambm lhes confere utilidade destacada na resoluo de
problemas onde outros mtodos de otimizao encontram dificuldades.
Todavia, a maior desvantagem dos algoritmos genticos o elevado tempo de
processamento. Por ser um mtodo aleatrio de base evolutiva (e a evoluo naturalmente um
processo lento), a demora para encontrar a soluo tima quase inevitvel. Uma codificao
eficiente das solues e a reduo do espao de busca podem ajudar a atenuar este problema.
Os algoritmos genticos tambm podem atuar em conjunto com outras tcnicas, formando um
algoritmo hbrido que proporcione uma maior eficincia computacional e robustez.
Um algoritmo gentico bsico construdo a partir de uma populao inicial aleatria e
da execuo iterativa de um ciclo composto por trs estgios:
Avaliao de cada indivduo da populao;
Seleo de indivduos para reproduo, e;
Manipulao gentica para criar uma nova populao.
Cada vez que este ciclo for completado, diz-se que uma gerao ocorreu. Cada um dos
indivduos avaliados durante o processo evolutivo tambm chamado de cromossomo (string).
Cada cromossomo possui genes em diferentes posies (locus) e cada gene contm informaes
acerca das caractersticas do indivduo. A relao entre essas caractersticas e o meio no qual
os indivduos esto inseridos medida pelo ndice de adaptao (fitness function). Tal ndice
est diretamente relacionado com a funo objetivo do problema.
Aps a criao da populao inicial aleatria e avaliao de seus respectivos indivduos,
ocorre a evoluo das populaes em geraes com a ajuda de trs operadores:
Reproduo: cpia de alguns indivduos para a gerao futura em razo do seu ndice
de adaptao.
Cruzamento: atua sobre um par de indivduos escolhidos aleatoriamente, combinando
suas caractersticas (tambm de forma aleatria) para formar um novo indivduo que
far parte da prxima gerao.
Mutao: modificao aleatria dos valores contidos nos genes, ou seja, das
caractersticas de um dado indivduo.
Cruzamento e mutao so os dois operadores fundamentais de um algoritmo gentico.
Enquanto que os cruzamentos aceleram o processo de evoluo, as mutaes produzem um tipo
de perturbao que pode levar o processo evolutivo a um melhor domnio de busca. O
percentual de cruzamentos e mutaes definido por ndices probabilsticos especficos de cada
operador. Apenas uma parcela dos indivduos de uma gerao escolhida para o cruzamento,
e tambm um pequeno nmero dos novos indivduos gerados sofre mutao.
Considere o seguinte problema de otimizao que deseja-se solucionar usando um
algoritmo gentico
maximizar ()
sujeito a (4.59)
85

onde : . Note que (4.59) corresponde a uma maximizao, j que este tipo de
problema mais conveniente para descrever o funcionamento dos algoritmos genticos (Chong
& Zak, 2013). Dessa forma, um algoritmo gentico para resolver (4.59) pode ser descrito da
seguinte forma:
1. Faa = 0. Determine um ndice de adaptao que possua relao direta com () e
gere uma populao inicial aleatria .
2. Avalie os indivduos de .
3. Se o critrio de convergncia (ou de parada) for satisfeito, finalize o algoritmo e retorne
a soluo tima, , a qual obtida a partir do indivduo mais bem adaptado. Caso
contrrio v para o passo 4.
4. Selecione um conjunto, , de indivduos de que passaro pelos processos de
reproduo, cruzamento e mutao para gerar +1.
5. Faa = + 1 e v para o passo 2.
importante salientar que os algoritmos genticos no trabalham diretamente com
parmetros do sistema, mas com uma codificao dos mesmos. Os objetos de anlise so um
conjunto ou uma populao de solues alternativas (no uma nica alternativa), que so
avaliadas cada uma pelo seu ndice de adaptao ao meio. As regras de busca no espao de
solues factveis so de carter probabilstico. A seguir apresentado o mtodo de otimizao
por enxame de partculas.

4.4.2 Otimizao por Enxame de Partculas

A otimizao por enxame de partculas um mtodo de busca aleatria baseado em


populaes. Este mtodo, o qual foi proposto por James Kennedy e Russel C. Eberhart em 1995,
inspirado em princpios de interao social (Kennedy & Eberhart, 1995). A busca pela soluo
tima baseada nas interaes entre indivduos pertencentes a um bando de pssaros ou
cardume de peixes. Tal ideia proveniente do trabalho desenvolvido por Craig Reynolds, cujo
objetivo era simular padres de movimento para animao computacional (Reynolds, 1987).
Baseados no modelo de Reynolds, Kennedy e Eberhart definiram trs componentes que
influenciam no deslocamento de uma partcula inserida em um enxame:
Componente de inrcia: preserva uma memria dos ltimos deslocamentos da partcula.
Previne mudanas drsticas de direo.
Componente cognitiva: ndice que quantifica desempenho da partcula no ciclo atual em
relao ao dos ciclos anteriores. Devido memria de experincias vivenciadas em
ciclos anteriores, as partculas so atradas para a melhor posio j visitada at o ciclo
atual.
Componente social: quantifica o desempenho de uma partcula em relao s demais do
enxame. Devido a esta componente, as partculas tambm so atradas pela melhor
posio encontrada por partculas vizinhas.
86

Cada partcula do enxame representa uma soluo candidata. Um enxame, por sua vez,
pode ser visto como uma populao de indivduos que se movem de maneira aparentemente
desorganizada. O mtodo de otimizao por enxame de partculas busca imitar o
comportamento de grupos de animais e insetos, tais como um enxame de abelhas ou uma
manada de gnus.
Considere o seguinte problema
minimizar ()
sujeito a (4.60)
onde : . Para resolver este problema atravs do mtodo de otimizao por enxame de
partculas, parte-se de uma populao inicial aleatria de pontos em . Ento, associa-se a
cada ponto nesta populao um vetor de velocidade. Dessa forma, cada ponto corresponde
posio de uma partcula, que est se movendo a uma determinada velocidade. Deve-se ento
avaliar a funo objetivo de cada ponto da populao para criar uma nova populao de pontos,
cada um com sua respectiva velocidade associada. A criao de novos pontos e velocidades se
d por meio de certas operaes que envolvem as relaes existentes entre as partculas do
enxame.
Cada partcula mantm memria da sua melhor posio j visitada (best-so-far
position). Esta posio um valor relacionado com () e representada por . Em
contrapartida, a melhor posio dentre as j visitadas por toda a populao chamada de melhor
global (global best) e representada por best . As partculas interagem entre si pela atualizao
de suas respectivas velocidades em relao melhor pessoal e melhor global. A velocidade
de cada partcula ponderada por um termo aleatrio, com nmeros aleatrios distintos sendo
gerados por velocidades em direo a best e best . Para o critrio de parada, pode-se finalizar
a busca aps atingir um nmero determinado de ciclos ou aps um determinado valor de funo
objetivo ser alcanado.
Considere o problema de minimizao de (4.60). Seja o tamanho da populao. A
posio da partcula , com 1 , representada por , e a sua velocidade
associada por . Seja tambm ,best a best da partcula . O algoritmo de busca usado
pelo mtodo de otimizao por enxame de partculas para solucionar (4.60) pode ser descrito
da seguinte forma:
1. Faa = 0. Gere e , com = 1,2, , , e faa
,best = (4.61)
e
best = arg min (). (4.62)
{
1 , , }

2. Gere sequncias aleatrias e com componentes uniformemente distribudas


no intervalo = [0, 1] e faa
+1 = + cog (,best ) + soc (best ) (4.63)
87

e
+1
= + +1 . (4.64)
3. Se existir +1
, com 1 , tal que
(+1
) < (best ) (4.65)
ento faa
best = +1
. (4.66)
4. Se o critrio de para for satisfeito, finalize a busca e retorne = best . Caso contrrio,
faa = + 1 e v para o passo 2.
As constantes cog , soc e so as componentes cognitiva, social e de inrcia,
respectivamente. Recomenda-se um valor prximo porm menor do que 1 para . As
componentes cog e soc estabelecem o quo bem direcionada uma partcula est em relao s
melhores posies. Valores recomendados para tais constantes so cog , soc 2 (Chong &
Zak, 2013). O operador corresponde multiplicao entre os elementos de duas matrizes
de mesma dimenso. Por exemplo, tomando-se duas matrizes e de ordem x , o resultado
de uma matriz com as mesmas dimenses de e , cujos elementos so dados por
, = , , , com 1 e 1 .
Os mtodos de otimizao por enxame de partculas vm sendo desenvolvidos desde o
trabalho proposto por Kennedy e Eberhart em 1995. Uma variante do algoritmo mostrado acima
foi proposta por Maurice Clerc em 1999, na qual as velocidades so atualizadas por (Clerc,
1999)
+1 = [ + cog (,best ) + soc (best )] (4.67)

onde chamado de fator de constrio, calculado a partir de


2
= (4.68)
|2 2 4|
sendo = cog + soc e > 4.
O mtodo de otimizao por enxame de partculas difere de outros mtodos de busca
aleatria, tais como o mtodo simplex e o de recozimento simulado, pelo fato de atualizar no
somente a soluo candidata a tima do problema, mas tambm uma populao de solues
candidatas, representadas pelas partculas do enxame.

4.5 Mtodos Empregados na Otimizao dos Algoritmos PNLMS e IPNLMS

Esta seo apresenta os dois mtodos de busca empregados por este trabalho para
otimizar a escolha de parmetros dos algoritmos PNLMS e IPNLMS. A saber, o mtodo da
razo urea e o mtodo da busca tabu.
88

4.5.1 Mtodo da Razo urea

Mtodos de otimizao clssicos buscam a minimizao da funo objetivo a partir de


uma direo de descida. Porm, alguns problemas envolvendo funes de carter no-linear ou
no-suave no podem ser resolvidos analiticamente. Alternativas para tais casos so mtodos
que buscam de forma inteligente o ponto de mnimo da funo objetivo. Uma classe de mtodos
que usam tal estratgia a dos mtodos de busca linear.
Busca linear ou unidimensional consiste em um processo para determinao do ponto
timo de uma curva. Isto equivale minimizao de uma funo de uma nica varivel.
Mtodos populares de busca linear incluem os de Fibonacci, da bisseo e da razo urea
(Bazaraa, Sherali & Shetty, 2006).

A relao de seo urea, dada pela constante = (5 + 1)/2 1.618, foi


considerada pelos gregos o valor mais esteticamente correto para a razo entre dois lados
adjacentes de um mesmo retngulo (Luenberguer & Ye, 2008). O mtodo da razo urea, o
qual baseado nesta constante, uma tcnica de otimizao linear que dispensa o clculo de
derivadas. O objetivo de tal mtodo minimizar (ou maximizar) uma funo objetivo unimodal,
ou seja, com apenas um nico ponto de mnimo (ou de mximo) em torno de um dado intervalo
de incerteza (Bazaraa, Sherali & Shetty, 2006). Este intervalo consiste de um conjunto de
solues factveis, onde sabido que o mesmo contm o minimizador (ou maximizador) da
funo objetivo. A Figura 4.1 mostra um exemplo de uma funo (): de carter
unimodal em um dado intervalo [, ] .

Figura 4.1. Exemplo de uma funo unimodal em um intervalo [, ].

Considere o seguinte problema de otimizao


minimizar ()
sujeito a [, ] (4.69)
com [, ] . O algoritmo empregado pelo o mtodo da razo urea para resolver (4.69)
descrito a seguir em detalhes:
89

1. Faa = 0. Inicialize o mtodo da razo urea com os limites e do intervalo de


incerteza [, ] e com a tolerncia, > 0, adotada para convergncia.
2. Faa = + 1 e calcule
1 = (1 ) + (4.70)
2 = + (1 ). (4.71)
3. Obtenha (1 ) e (2 ) a partir de 1 e 2 , respectivamente.
4. Se
|(1 ) (2 )| < (4.72)
v para o passo 6. Caso contrrio, v para o passo 5.
5. Se
(1 ) > (2 ) (4.73)
faa
=+1 (4.74)
= 11 (4.75)
1 = 1
2 (4.76)
2 = + (1 ) (4.77)
e retorne ao passo 3. Caso contrrio, faa
=+1 (4.78)
= 1
2 (4.79)
2 = 11 (4.80)
1 = + (1 ) (4.81)
e retorne ao passo 3.
6. Razo urea convergiu. Retornar
= 1 (4.82)
ou
= 2 . (4.83)
Sendo o minimizador de dentro do intervalo [, ]. As variveis 1 e 2 so os
candidatos a do ciclo do mtodo da razo urea.
Apesar da fcil implementao e rpida convergncia, para que o mtodo da razo urea
tenha desempenho satisfatrio necessrio que a funo objetivo seja unimodal, ou seja, possua
apenas um nico minimizador dentro do intervalo de incerteza. Outra caracterstica importante
deste mtodo est diretamente relacionada com o intervalo [, ], o qual diminui de tamanho a
90

cada ciclo. A Figura 4.2 mostra um exemplo de como este intervalo diminui do ciclo anterior,
, para o ciclo seguinte, + 1, de execuo do mtodo da razo urea.

Figura 4.2. Reduo no tamanho do intervalo [, ] durante a execuo do mtodo da razo urea.

Seja o tamanho inicial do intervalo de incerteza 1 = , para = 1, tem-se que o


tamanho de [, ] aps ciclos de execuo do mtodo razo urea dado por (Luenberguer
& Ye, 2008)
1 1
= ( ) 1 (4.84)

e de (4.84) tem-se que
+1 1
=

= 0,618. (4.85)
Portanto, de (4.85) conclui-se que o mtodo da razo urea converge linearmente para
o minimizador de em [, ], com uma taxa de convergncia igual a 1/ = 0,618. A seguir
apresentado o mtodo da busca tabu.

4.5.2 Mtodo da Busca Tabu

O mtodo da busca tabu, assim como os algoritmos genticos e o mtodo de otimizao


por enxame de partculas, uma metaheurstica que usa uma tcnica de busca local com
movimentos simples e mecanismos de memria que evitam a estagnao em timos locais
(Glover, 1989). Tendo suas origens no final da dcada de 70, sendo empregada em problemas
de engenharia da computao e de otimizao combinatria, o mtodo da busca tabu tem
ampliado seu ramo de aplicao nas ltimas dcadas, atingindo diversas reas de reas que vo
da microeletrnica aos sistemas eltricos de potncia (Glover, 1990), (Zuo, Murray & Smith,
2014) e (Junior, Cossi, Contreras & Mantovani, 2013). Exemplos mais recentes de aplicao
91

do mtodo da busca tabu incluem treinamento de redes neurais artificiais, projeto de filtros FIR
passa-baixas para implementao fsica (hardware), conformao de feixe em arranjos de
antenas adaptativas, dentre outros (Glover & Laguna, 1997), (Pham & Karaboga, 2000) e (Gao,
Dai, Yuen & Wang, 2016).
O termo tabu (ou taboo), segundo dicionrios internacionais, possui significado
semelhante a algo proibido de ser mencionado por seu carter sagrado, atribudo por
determinada crena (Laguna, 1994). Baseada nesta definio, a filosofia da busca tabu consiste
na diversificao do espao de busca, explorando uma gama de princpios pr-definidos. Para
tal, usa-se uma estrutura de memria flexvel capaz de aceitar movimentos que no tragam
necessariamente uma melhora direta. O objetivo prevenir repeties e explorar vrias regies
do espao de solues factveis, promovendo assim a evoluo na tomada de deciso a partir
do aprendizado adquirido com experincias passadas. Os componentes bsicos de uma busca
tabu so:
Vizinhana de possveis solues;
Movimentos adotados para a obteno de novas solues;
Mecanismos de memria, e;
Critrios de aspirao e convergncia.

O ponto de partida de toda busca tabu uma soluo inicial escolhida aleatoriamente.
Ento, a partir desta soluo inicial e dos movimentos adotados, cria-se um conjunto aleatrio
de solues vizinhas. Estas solues vizinhas so ento comparadas com a soluo inicial para
determinar a melhor soluo do ciclo atual da busca. Ento, inicia-se um novo ciclo e cria-se
um novo conjunto aleatrio de solues vizinhas a partir da melhor soluo do ciclo anterior.
As novas solues vizinhas so ento comparadas com a melhor soluo do ciclo anterior para
determinar a melhor do ciclo atual. Este processo se repete at que o critrio de convergncia
seja satisfeito.
A principal ferramenta usada pela busca tabu para evitar repeties um mecanismo de
memria de curto prazo denominado lista tabu. Nesta lista so armazenados movimentos
realizados recentemente, tornando-os proibidos de serem executados durante um dado intervalo
de ciclos denominado perodo tabu. Outra ferramenta chave o critrio de aspirao, o qual
anula a condio tabu de determinado movimento caso este leve a uma soluo com ganhos
significativos para a busca. Tal critrio pode se basear nos valores de funo objetivo das
solues j visitadas, em direes de busca definidas previamente ou durante a execuo da
busca, ou por influncia de regies do espao de solues factveis (Glover & Laguna, 1997).
Considere um problema de otimizao semelhante ao de (4.60). O algoritmo empregado
pelo mtodo da busca tabu para resolver este problema descrito a seguir em detalhes:
1. Faa = 0. Escolha uma soluo inicial aleatria 0 e calcule (0 ).
2. Faa = + 1. Gere um conjunto de solues vizinhas a partir de 1 e
verifique se cada soluo vizinha ( = 1, 2, , ) tabu.
92

3. Calcule ( ) ( = 1, 2, , ) e verifique se existem solues vizinhas , geradas a


partir de movimentos tabu, que satisfazem o critrio de aspirao.
4. Se existe ( = 1, 2, , ), tal que melhor do que 1 e no tabu
ou satisfaz o critrio de aspirao, faa
= . (4.86)
Caso contrrio, faa
= 1 . (4.87)
5. Atualize a lista tabu.
6. Se o critrio de convergncia satisfeito, v para o passo 7. Caso contrrio, retorne ao
passo 2.
7. Busca tabu convergiu. Retorne
= . (4.88)
Sendo a soluo tima do problema.
Para entender melhor o funcionamento do mtodo da busca tabu, pode-se recorrer a um
exemplo clssico de otimizao combinatria, tal como o problema das rainhas. Este
problema consiste na alocao de rainhas dispostas em um tabuleiro de xadrez de dimenso
x . Esta alocao deve ser feita de tal forma que nenhuma das rainhas seja capaz de capturar
outra com apenas um movimento, ou seja, sem que ocorram colises entre as rainhas do
tabuleiro (Laguna, 1994). Dessa forma, o problema das rainhas pode ser tratado como um
problema de permutao, onde a -sima rainha, Q , com = 1,2, , , est localizada na
posio correspondente -sima linha e ()-sima coluna. Ento, uma soluo candidata
pode ser representada por uma permutao do tipo
= {(1), (2), , ()} (4.89)
que especifica a posio exata das rainhas no tabuleiro de xadrez. Note que este tipo de
configurao evita que uma rainha tenha a chance de capturar outra localizada na mesma linha
ou na mesma coluna. Assim, o problema resume-se em minimizar o nmero total de colises
nas diagonais do tabuleiro. A Figura 4.3 mostra um tabuleiro de tamanho 6 x 6 para o qual a
disposio das rainhas (representadas por Q , com = 1,2, , ) corresponde permutao
= {4, 5, 1, 6, 2, 3}. Esta permutao tambm pode ser representada na forma de um vetor,
como mostrado na Figura 4.4. Cada elemento deste vetor contm um ndice de coluna do
tabuleiro referente posio de uma das rainhas. A numerao da Figura 4.4 significa que a
rainha Q1 est na coluna 4, a rainha Q2 est na coluna 5 e assim por diante. Note que, para a
configurao da Figura 4.3, tem-se um total de trs possveis colises entre as rainhas, conforme
a indicao das setas duplas. Especificamente, tem-se uma possvel coliso entre Q1 e Q2 , outra
entre Q2 e Q5 e outra entre Q5 e Q6 .
93

Figura 4.3. Configurao de = 6 rainhas em um tabuleiro de tamanho 6 x 6.

4 5 1 6 2 3

Figura 4.4. Permutao inicial para o problema da Figura 4.3.

Para solucionar o problema da Figura 4.3 usando o mtodo da busca tabu, toma-se o
vetor da Figura 4.4 como sendo a soluo inicial, 0 , e define-se um movimento para a criao
do conjunto de solues vizinhas, . Como o problema das rainhas pode ser tratado como
um problema de permutao, um movimento adequado consiste na troca entre os valores de
duas posies escolhidas aleatoriamente. A Figura 4.5 mostra um exemplo de execuo deste
movimento.

Figura 4.5. Movimento adotado para a criao das solues vizinhas.

Note que, no exemplo da Figura 4.5, as rainhas Q2 e Q5 so escolhidas aleatoriamente


para trocar de posio no tabuleiro, dando origem a uma soluo vizinha, , com 1
94

. Assim, o conjunto pode ser formado a partir de movimentos semelhantes ao da


Figura 4.5, conforme exemplo mostrado na Figura 4.6. Ento, em cada ciclo, , os elementos
de so comparados com a melhor soluo do ciclo anterior, 1 , em relao ao valor de
funo objetivo, ou seja, o nmero total de possveis colises que cada soluo candidata
possui.

Figura 4.6. Exemplo de criao do conjunto para o problema da Figura 4.3 usando movimentos semelhantes
ao da Figura 4.5.

Para prevenir repeties de movimentos realizados em um passado recente, os quais


podem resultar em solues j visitadas anteriormente, usa-se a lista tabu. Para o problema em
questo, pode-se construir uma estrutura semelhante a uma matriz triangular superior, para a
qual apenas os elementos acima da diagonal principal so relevantes. Tal estrutura mostrada
na Figura 4.7. Note que os nmeros armazenados dentro desta estrutura indicam o ltimo ciclo
em que determinado movimento possuir a condio de proibido ou tabu. Por exemplo, a
troca entre Q2 e Q5 permanece como tabu at o ciclo = 4. A quantidade de ciclos que um
movimento considerado tabu depende do valor do perodo tabu. Quando um dado
movimento deixar de ser tabu, o nmero que marca tal condio na lista tabu deve ser apagado
da mesma. Ento, considerando o exemplo da Figura 4.7, quando a busca atingir o ciclo = 5,
o nmero 4, que marca uma condio tabu para a troca entre Q2 e Q5 , deve ser apagado da
lista tabu.

Figura 4.7. Lista tabu para o problema da Figura 4.3.


95

Em relao ao critrio de aspirao, pode-se definir a seguinte condio: se uma


determinada soluo candidata do ciclo atual proveniente de um movimento tabu levar a um
nmero total de colises menor do que a da melhor soluo do ciclo anterior (alm de um
nmero total de colises menor do que as demais solues de ), ento esta soluo tem sua
condio tabu revogada e passa a vigorar como a melhor do ciclo atual. J para o critrio de
convergncia, pode-se parar a busca caso seja encontrada uma soluo para a qual o valor de
funo objetivo seja igual a zero, ou seja, no h coliso entre as rainhas. Outro critrio de
convergncia aplicvel consiste em parar a busca aps uma determinada quantidade de ciclos
ter sido alcanada.
Conforme os objetivos pretendidos e as caractersticas do problema, o mtodo busca
tabu ainda pode valer-se de outros recursos para aprimorar seu desempenho. Estratgias de
diversificao e intensificao, assim como outros mecanismos de memria alm da lista tabu,
so exemplos de tais recursos. Variaes no perodo tabu e no tamanho do conjunto so
perfeitamente aplicveis, bem como o uso de uma lista de solues candidatas proveniente de
execues anteriores da busca. Tais candidatos podem figurar em novas execues, com o
intuito de acelerar o processo de busca ou mesmo encontrar solues ainda melhores. Pode-se
tambm recorrer a outras estratgicas de cunho gentico, tais como primeiro de melhora,
aspirao plus, busca paralela, dentre outros (Glover & Laguna, 1997) e (Pham & Karaboga,
2000).
96
97

Captulo 5 A
A
Algoritmos Adaptativos Proporcionais com
Escolha de Parmetros baseada em
Mtodos de Otimizao
Neste captulo so propostas verses melhoradas dos algoritmos PNLMS e IPNLMS.
Nessas propostas considerado o uso de mtodos de otimizao para determinar os valores dos
parmetros dos algoritmos PNLMS e IPNLMS. Primeiramente, apresentada a funo objetivo
a ser minimizada pelas metodologias adotadas, juntamente com uma anlise do efeito dos
parmetros e () do algoritmo PNLMS, e do parmetro do algoritmo IPNLMS, no
comportamento da funo objetivo adotada. Ento, os algoritmos PNLMS e IPNLMS com
otimizao de parmetros propostos so obtidos.

5.1 Funo Objetivo Adotada

Com base na anlise do comportamento dos algoritmos PNLMS e IPNLMS realizada


no captulo 3, verifica-se que possvel aprimorar o desempenho destes algoritmos a partir da
escolha correta dos parmetros dos mesmos. Essa escolha pode ser feita com a ajuda de um
mtodo de otimizao. Porm, conforme visto no captulo 4, tais mtodos operam sob o
princpio da minimizao ou maximizao de uma funo de custo, tambm chamada de funo
objetivo. Conforme visto nos captulos 2 e 3, o principal objetivo de um algoritmo adaptativo
minimizar iterativamente o erro entre a sada desejada (ou da planta) e a sada do filtro. Ento,
uma funo objetivo baseada neste erro mostra-se uma escolha coerente. Em outras palavras,
quanto mais prximo de zero o erro, menor a diferena entre os coeficientes do filtro e os da
planta e, consequentemente, mais rpida a velocidade de convergncia do algoritmo
adaptativo.
Sabe-se do captulo 3 que em cada iterao dos algoritmos PNLMS e IPNLMS
calculado o valor do erro de estimao a priori dado por
() = () () + ()
= () ()() + () (5.1)
onde () e () so as sadas da planta e do filtro adaptativo, respectivamente. As variveis
(), () e () so os vetores de entrada e de coeficientes do filtro adaptativo, e o rudo
aditivo de medio, respectivamente. Sabe-se tambm do captulo 2 que o algoritmo NLMS foi
concebido na tentativa de aumentar a velocidade de convergncia do algoritmo LMS a partir da
98

minimizao do erro de estimao a posteriori dado por (Sayed, 2003) e (Nascimento & Silva,
2014)
() = () T ()( + 1) + () (5.2)
Note que a nica diferena entre (5.1) e (5.2) a estimativa dos coeficientes do filtro
adaptativo adotada para o clculo do erro. Ento, tem-se que (5.2) pode ser obtida a partir de
(5.1) apenas substituindo a estimativa anterior, (), pela estimativa atual, ( + 1), dos
coeficientes do filtro adaptativo. Logo, h uma relao direta entre os erros de estimao a
priori e a posteriori. Dessa forma, a funo objetivo adotada pelas metodologias propostas para
otimizar a escolha dos parmetros dos algoritmos PNLMS e IPNLMS
2
() = 10 log10 {[ ()] } (5.3)

onde () o erro quadrtico a posteriori em dB.


Assim, o problema de otimizao a ser solucionado pelos mtodos de otimizao
adotados em cada iterao do processo de adaptao do algoritmo PNLMS dado por
opt () = arg min () (5.4)
0<()<1

ou
opt () = arg min () (5.5)
0<()<1

sendo opt () [ou opt ()] o parmetro de proporcionalidade [ou o fator de ativao] timo
da -sima iterao do processo de adaptao do algoritmo PNLMS. Note, de (3.1), (3.6), (3.7)
e (3.8), que [ou ()] influencia diretamente no valor de ( + 1) e este, por sua vez,
impacta no valor de (5.3).
Analogamente, o problema de otimizao a ser solucionado pelos mtodos de
otimizao adotados em cada iterao do processo de adaptao do algoritmo IPNLMS
encontrar
opt () = arg min () (5.6)
1()<1

onde opt () o parmetro de proporcionalidade timo da -sima iterao do processo de


adaptao do algoritmo IPNLMS. Note novamente, de (3.1) e (3.23), que influencia
diretamente no valor de ( + 1) e este, por sua vez, impacta no valor de (5.3).
A seguir feita uma breve anlise do impacto dos parmetros e () do algoritmo
PNLMS, e do parmetro do algoritmo IPNLMS, sobre a funo objetivo adotada.

5.1.1 Impacto do Parmetro de Proporcionalidade do Algoritmo PNLMS no Comportamento


do Erro a posteriori

Para verificar o efeito de no comportamento de (5.3), so realizadas simulaes de


Monte Carlo (mdia de 100 realizaes independentes) para um problema de identificao de
sistemas. O cenrio das simulaes o mesmo apresentado na subseo 3.2.1.
99

Com o objetivo de ilustrar o impacto de em (5.3), a Figura 5.1 mostra exemplos do


comportamento do erro quadrtico a posteriori em dB nas iteraes (a) 25, (b) 50 e (c) 100 do
processo de adaptao do algoritmo PNLMS para vrios valores de , que vo de 109 a 0,5.
Os parmetros de passo e inicializao considerados so = 0,5 e = 0,01, respectivamente.

(a)

(b)
100

(c)
Figura 5.1. Comportamento do erro quadrtico a posteriori em dB, (), em uma dada iterao, , do processo
de adaptao do algoritmo PNLMS para a identificao de uma planta de esparsidade () = 0,9435, com =
0,5, = 0,01, e considerando vrios valores de que vo de 109 a 0,5. (a) Iterao = 25. (b) Iterao =
50. (c) Iterao = 100.

Note das curvas da Figura 5.1 que o valor do parmetro de proporcionalidade, , do


algoritmo PNLMS influencia diretamente no comportamento do erro de estimao a posteriori.
Ento, tem-se que a velocidade de convergncia do algoritmo PNLMS pode ser aprimorada
com o uso de um mtodo de otimizao para determinar opt () que solucione o problema de
(5.4). Note tambm, do comportamento unimodal das curvas da Figura 5.1, que o mtodo da
razo urea aplicvel para determinar opt ().

5.1.2 Impacto do Fator de Ativao do Algoritmo PNLMS no Comportamento do Erro a


posteriori

Similarmente anlise realizada na subseo anterior, o efeito de () no


comportamento de (5.3) tambm pode ser verificado a partir de simulaes de Monte Carlo
(mdia de 100 realizaes independentes), considerando um problema de identificao de
sistemas. Para tal, considera-se novamente o cenrio apresentado na subseo 3.2.1 para as
simulaes.
Com o intuito de mostrar o efeito de () em (5.3), a Figura 5.2 mostra exemplos do
comportamento do erro quadrtico a posteriori em dB nas iteraes (a) 25, (b) 50 e (c) 100 do
processo de adaptao do algoritmo PNLMS, considerando vrios valores de (), que vo de
109 a 0,1. O parmetro de passo considerado = 0,5.
101

(a)

(b)
102

(c)
Figura 5.2. Comportamento do erro quadrtico a posteriori em dB, (), em uma dada iterao, , do processo
de adaptao do algoritmo PNLMS para a identificao de uma planta de esparsidade () = 0,9435, com =
0,5, e considerando vrios valores de () que vo de 109 a 0,1. (a) Iterao = 25. (b) Iterao = 50. (c)
Iterao = 100.

Note das curvas da Figura 5.2 que o valor do fator de ativao, (), do algoritmo
PNLMS influencia diretamente no valor do erro de estimao a posteriori. Ento, tem-se que a
velocidade de convergncia do algoritmo PNLMS pode ser melhorada a partir do uso de um
mtodo de otimizao para determinar opt () que solucione o problema de (5.5). Note tambm
que o comportamento unimodal das curvas da Figura 5.2 torna o mtodo da razo urea
aplicvel para a determinao de opt ().

5.1.2 Impacto do Parmetro de Proporcionalidade do Algoritmo IPNLMS sobre o Erro a


posteriori

Similarmente anlise realizada nas subsees anteriores, o efeito de no


comportamento de (5.3) verificado a partir de simulaes de Monte Carlo (mdia de 100
realizaes independentes), considerando um problema de identificao de sistemas usando o
algoritmo IPNLMS. O cenrio das simulaes o mesmo apresentado na subseo 2.3.2.
Com o objetivo de ilustrar o impacto de em (5.3), a Figura 5.3 mostra exemplos do
comportamento do erro quadrtico a posteriori em dB nas iteraes (a) 25, (b) 50 e (c) 100 do
processo de adaptao do algoritmo PNLMS, considerando vrios valores de que vo de 1,0
a 0,99. O parmetro de passo considerado = 0,5.
103

(a)

(b)
104

(c)
Figura 5.3. Comportamento do erro quadrtico a posteriori em dB, (), em uma dada iterao, , do processo
de adaptao do algoritmo PNLMS para a identificao de uma planta de esparsidade () = 0,9435, com =
0,5, e considerando vrios valores de que vo de 1,0 a 0,99. (a) Iterao = 25. (b) Iterao = 50. (c)
Iterao = 100.

Note, da Figura 5.3, que o valor do parmetro de proporcionalidade, , do algoritmo


IPNLMS impacta diretamente no valor de (5.3). Ento, tem-se que a velocidade de
convergncia do algoritmo IPNLMS pode ser melhorada como emprego de um mtodo de
otimizao para determinar opt () que solucione o problema de (5.6). Note tambm que o
comportamento unimodal da curva da Figura 5.3 torna o mtodo da razo urea aplicvel para
resolver o problema de (5.6), em cada iterao, , do processo de adaptao do algoritmo
IPNLMS, a partir da escolha de opt ().
A seguir so apresentadas as metodologias propostas para otimizar a escolha dos
parmetros dos algoritmos PNLMS e IPNLMS.

5.2 Metodologias Propostas

O algoritmo PNLMS adota valores constantes para o parmetro de proporcionalidade,


, e para o fator de ativao, (), em sua respectiva regra de atualizao. Analogamente, o
algoritmo IPNLMS tambm emprega um parmetro constante durante todo o processo de
adaptao. Em oposio s regras de atualizao adotadas por estes algoritmos, as metodologias
propostas por este trabalho de pesquisa fazem uso de mtodos de otimizao para determinar
parmetros timos para cada iterao, , do processo de adaptao dos novos algoritmos
propostos. So eles:
Algoritmos GS-PNLMS (-golden section PNLMS) e GS-PNLMS (-golden section
PNLMS): ambos empregam o mtodo da razo urea para determinar o opt () [ou o
105

opt ()] que solucione (5.4) [ou (5.5)] em cada iterao, , do processo de adaptao
do algoritmo PNLMS.
Algoritmos TS-PNLMS (-tabu search PNLMS) e TS-PNLMS (-tabu search
PNLMS): ambos empregam o mtodo da busca tabu para determinar opt () [ou o
opt ()] que solucione (5.4) [ou (5.5)] em cada iterao, , do processo de adaptao
do algoritmo PNLMS.
Algoritmo GS-IPNLMS (golden section IPNLMS): usa o mtodo da razo urea para
determinar opt () que solucione (5.6) em cada iterao, , do processo de adaptao
do algoritmo IPNLMS.
Algoritmo TS-IPNLMS (tabu search IPNLMS): usa o mtodo da busca tabu para
determinar opt () que solucione (5.6) em cada iterao, , do processo de adaptao
do algoritmo IPNLMS.
Estes algoritmos so obtidos a seguir.

5.2.1 Algoritmo PNLMS com Otimizao do Parmetro de Proporcionalidade baseada no


Mtodo da Razo urea

O algoritmo GS-PNLMS usa o mtodo da razo urea para determinar o valor timo
do parmetro de proporcionalidade, , de cada iterao do processo de adaptao do algoritmo
PNLMS.
O algoritmo GS-PNLMS descrito a seguir em detalhes:

1. Inicialize o vetor de coeficientes do filtro adaptativo ( = 0)


(0) = . (5.7)
2. Obtenha os dados de entrada e sada da planta
() = T ()() (5.8)
e do filtro adaptativo
() = T ()(). (5.9)
3. Calcule o erro a priori
() = () () + (). (5.10)
4. Atualize o vetor de coeficientes do filtro adaptativo.
Nesta etapa, obtenha
opt () = arg min () (5.11)
0<()<1

onde
() = 10 log10 {[() T ()( + 1) + ()]2 }. (5.12)
106

Para tal, utilize o seguinte procedimento baseado no mtodo da razo urea:


I. Faa
=1 (5.13)
0<1 (5.14)
<<1 (5.15)
defina o valor da tolerncia, > 0, para a convergncia da razo urea e calcule
1 () = (1 ) + (5.16)
2 () = + (1 ). (5.17)
II. A partir de (3.1), (3.6), (3.7) e (3.8), obtenha 1 ( + 1) e 2 ( + 1) usando
1 () e 2 (), respectivamente.
III. A partir de (5.12), obtenha [1 ()] e [2 ()] usando 1 ( + 1) e 2 ( + 1),
respectivamente. Se
|[1 ()] [2 ()]| < (5.18)
v para V. Caso contrrio, v para IV.
IV. Se
[1 ()] > [2 ()] (5.19)
faa
=+1 (5.20)
= 11 () (5.21)
1 () = 21 () (5.22)
2 () = + (1 ) (5.23)
e retorne para II. Caso contrrio, faa
=+1 (5.24)
= 21 () (5.25)
2 () = 11 () (5.26)
1 () = (1 ) + (5.27)
e retorne para II.
V. Razo urea convergiu. Faa
opt () = 1 () (5.28)
ou
opt () = 2 (). (5.29)
107

Em seguida,obtenha ( + 1) usando
() = opt () max[, () ]. (5.30)

5. V para a iterao seguinte ( = + 1) e repita os passos 2, 3 e 4 at o fim do processo


de adaptao do algoritmo GS-PNLMS.

Sendo 1 () e 2 () candidatos a opt () do ciclo da razo urea.


A seguir, o algoritmo GS-PNLMS obtido.

5.2.2 Algoritmo PNLMS com Otimizao do Fator de Ativao baseada no Mtodo da Razo
urea

O algoritmo GS-PNLMS usa o mtodo da razo urea para determinar o valor timo
para o fator de ativao, (), em cada iterao do processo de adaptao do algoritmo
PNLMS.
O algoritmo GS-PNLMS descrito a seguir em detalhes:

1. Inicialize o vetor de coeficientes do filtro adaptativo ( = 0)


(0) = . (5.31)
2. Obtenha os dados de entrada e sada da planta
() = T ()() (5.32)
e do filtro adaptativo
() = T ()(). (5.33)
3. Calcule o erro a priori
() = () () + (). (5.34)
4. Atualize o vetor de coeficientes do filtro adaptativo.
Nesta etapa, obtenha
opt () = arg min () (5.35)
0<()<1

onde
() = 10 log10 {[() T ()( + 1) + ()]2 } . (5.36)
Para tal, utilize o seguinte procedimento baseado no mtodo da razo urea:
I. Faa
=1 (5.37)
0<1 (5.38)
108

<<1 (5.39)
defina o valor da tolerncia, > 0, para a convergncia da razo urea e calcule
1 () = (1 ) + (5.40)
2 () = + (1 ). (5.41)
II. A partir de (3.1), (3.6) e (3.7), obtenha 1 ( + 1) e 2 ( + 1) usando 1 () e
2 (), respectivamente.
III. A partir de (5.12), obtenha [1 ()] e [2 ()] usando 1 ( + 1) e 2 ( + 1),
respectivamente. Se
|[1 ()] [2 ()]| < (5.42)
v para V. Caso contrrio, v para IV.
IV. Se
[1 ()] > [2 ()] (5.43)
faa
=+1 (5.44)
= 11 () (5.45)
1 () = 21 () (5.46)
2 () = + (1 ) (5.47)
e retorne para II. Caso contrrio, faa
=+1 (5.48)
= 21 () (5.49)
2 () = 11 () (5.50)
1 () = (1 ) + (5.51)
e retorne para II.
V. Razo urea convergiu. Faa
opt () = 1 () (5.52)

ou
opt () = 2 (). (5.53)

Em seguida, calcule ( + 1) usando


() = max[opt (), | ()|] , = 1,2, , . (5.54)
5. V para a iterao seguinte ( = + 1) e repita os passos 2, 3 e 4 at o fim do processo
de adaptao do algoritmo GS-PNLMS.
109

Sendo 1 () e 2 () candidatos a opt () do ciclo da razo urea.


Note que o algoritmo GS-PNLMS no necessita de (3.8) e, consequentemente,
dispensa uso dos parmetros e do algoritmo PNLMS original.

5.2.3 Algoritmo PNLMS com Otimizao do Parmetro de Proporcionalidade baseada no


Mtodo da Busca Tabu

O algoritmo TS-PNLMS usa o mtodo da busca tabu para determinar opt () que
solucione (5.4) em cada iterao do processo de adaptao do algoritmo PNLMS. Para tal, faz-
se necessrio definir a forma dos elementos da busca tabu, tais como o conjunto de solues
vizinhas e a lista tabu, para o problema em questo. Estes elementos so descritos a seguir em
detalhes.
Para a busca tabu empregada pelo algoritmo TS-PNLMS, considere a melhor soluo
do ciclo atual, , como sendo (). O conjunto de solues vizinhas, , consiste de um vetor
de elementos , com = 1, 2, , , onde cada elemento um possvel valor para
(). A Figura 5.4 mostra um exemplo de formado por possveis ().

1 2 3
1
5 108 104 5 106 5 105 103

Figura 5.4. Exemplo de adotado para o algoritmo TS-PNLMS.

Em relao ao movimento adotado para criao das novas solues vizinhas, tem-se que
cada elemento de deve ser aleatoriamente escolhido de um conjunto , cujos elementos
pertencem a um intervalo [ , ] . Os limites deste intervalo so tais que
= 10 (5.55)

< (5.56)

e
= 5 104 (5.57)

onde > 0 um nmero inteiro.


Assim, os elementos , com = 1,2, , , onde o nmero de elementos
de , so obtidos a partir de
1 = (5.58)

= (5.59)

e, se par e < , tem-se


110

= 5 1 (5.60)

ou, se mpar e > 1, tem-se


= 2 1 . (5.61)

Note que . A soluo inicial, 0 (), tambm deve ser escolhida aleatoriamente
de , de forma que a melhor soluo do ciclo anterior, 1 (), e os elementos de possuam
sempre esta caracterstica comum. Para reduzir o custo computacional de cada ciclo, , da busca
tabu, adota-se
1
. (5.62)
2
A estrutura adotada para a lista tabu a de uma matriz de ordem 2 x (PT + 1), onde PT
o perodo tabu. Os movimentos tabu so registrados a partir do armazenamento de dois
valores em uma dada coluna, LT , da lista tabu. O primeiro deles o movimento realizado, ou
seja, a melhor soluo obtida no ciclo atual, (), escolhida aleatoriamente de , que deve
ser armazenado na primeira linha de LT . O segundo valor igual soma + PT e deve ser
armazenado na segunda linha de LT . A Figura 5.5 mostra a estrutura adotada para a lista tabu
pelo algoritmo TS-PNLMS. Neste exemplo, tem-se, no -simo ciclo da busca pelo opt ()
da -sima iterao do processo de adaptao do algoritmo TS-PNLMS, dois movimentos
tabu registrados. Especificamente, o movimento caracterizado pela escolha de = 5 109
(1 ) possui condio tabu at o ciclo = 3, conforme indicado pelos dados
armazenados da Coluna 1. Analogamente para os dados armazenados na Coluna 2. As Colunas
3 a PT + 1 esto disponveis para armazenar novos movimentos tabu.

Coluna 1 Coluna 2 Coluna 3 Coluna PT + 1


5 109 104 0 0
3 5 0 0

Figura 5.5. Estrutura adotada pelo algoritmo TS-PNLMS para a lista tabu.

Obviamente, um novo movimento s deve ser armazenado na lista tabu caso ocorra
mudana da melhor soluo encontrada do ciclo anterior, 1, para o ciclo atual, , ou seja,
se
[ ()] < [1 ()]. (5.63)
Note que, se um movimento deixa de ser considerado tabu em um dado ciclo da busca,
seu respectivo registro deve ser apagado da lista tabu.
Em relao ao critrio de aspirao adotado, considere uma dada soluo vizinha
criada a partir de um movimento tabu. Assim, se
111

[ ] < [ ], com 1 , e (5.64)


e
[ ] < [1 ()] (5.65)
ento tem sua condio tabu anulada e passa a vigorar como a melhor soluo do ciclo
atual , ou seja, () = .
Para o critrio de convergncia, considera-se que o mtodo da busca tabu convergiu se
uma mesma soluo permanecer como a melhor soluo atual durante trs ciclos consecutivos.
Em outras palavras, caso tenha-se no ciclo atual
() = 1 () = 2 () (5.66)
diz-se que o critrio de convergncia satisfeito, ou seja
opt () = (). (5.67)

O algoritmo TS-PNLMS descrito a seguir em detalhes:

1. Inicialize o vetor de coeficientes do filtro adaptativo ( = 0)


(0) = . (5.68)
2. Obtenha os dados de entrada e sada da planta
() = T ()() (5.69)
e do filtro adaptativo
() = T ()(). (5.70)
3. Calcule o erro a priori
() = () () + (). (5.71)
4. Atualize o vetor de coeficientes do filtro adaptativo.
Nesta etapa, obtenha
opt () = arg min () (5.72)
0<()<1

onde
() = 10 log10 {[() T ()( + 1) + ()]2 }. (5.73)
Para tal, utilize o seguinte procedimento baseado no mtodo da busca tabu:
I. Faa = 0, escolha uma soluo inicial aleatria, 0 () e, a partir de (5.73),
calcule [0 ()].
II. Faa = + 1, gere a partir de 1 () e verifique quais solues vizinhas,
, com = 1, 2, , , so tabu.
112

III. A partir de (5.73), calcule [ ], com = 1, 2, , .

IV. Se existe tal que


[ ] < [ ], com 1 , e (5.74)

e
[ ] < [1 ()] (5.75)
faa
() = . (5.76)
Caso contrrio, faa
() = 1 (). (5.77)
V. Atualize a lista tabu.
VI. Se o critrio de convergncia de (5.66) for satisfeito, v para VII. Caso contrrio,
retorne a II.
VII. Busca tabu convergiu. Retorne
opt () = () (5.78)

e, em seguida, calcule ( + 1) usando


() = opt () max[, () ]. (5.79)

5. V para a iterao seguinte ( = + 1) e repita os passos 2, 3 e 4 at o fim do processo


de adaptao do algoritmo TS-PNLMS.

A seguir, o algoritmo TS-PNLMS obtido.

5.2.4 Algoritmo PNLMS com Otimizao do Fator de Ativao baseada no Mtodo da Busca
Tabu

O algoritmo TS-PNLMS usa o mtodo da busca tabu para determinar opt () que
solucione (5.5) em cada iterao do processo de adaptao do algoritmo PNLMS. Os elementos
da busca tabu adotados para este algoritmo, tais como o conjunto de solues vizinhas, , a
lista tabu, e os critrios de aspirao e de convergncia, so os mesmos do algoritmo TS-
PNLMS, com algumas modificaes.
Ao invs de um conjunto , tem-se agora um conjunto , cujos elementos pertencem
a um intervalo [ , ] . Os limites deste intervalo so tais que
= 10 (5.80)

< (5.81)
e
113

= 104 (5.82)

sendo > 0 um nmero inteiro. Os elementos , com = 1,2, . . , , onde o total


de elementos de , so obtidos a partir de
1 = (5.83)

= (5.84)

e, se par e < , tem-se


= 5 1 (5.85)

ou, se mpar e > 1, tem-se


= 2 1 . (5.86)

Analogamente ao caso do algoritmo TS-PNLMS, para o algoritmo TS-PNLMS tem-


se que . A soluo inicial, 0 (), tambm deve ser escolhida aleatoriamente de , de
forma que a melhor soluo do ciclo anterior, 1 (), e os elementos de possuam sempre
esta caracterstica comum. Para reduzir o custo computacional de cada ciclo, , da busca tabu,
adota-se
1
. (5.87)
2
O algoritmo TS-PNLMS descrito a seguir em detalhes:

1. Inicialize o vetor de coeficientes do filtro adaptativo ( = 0)


(0) = . (5.88)
2. Obtenha os dados de entrada e sada da planta
() = T ()() (5.89)
e do filtro adaptativo
() = T ()(). (5.90)
3. Calcule o erro a priori
() = () () + (). (5.91)
4. Atualize o vetor de coeficientes do filtro adaptativo.
Nesta etapa, obtenha
opt () = arg min () (5.92)
0<()<1

onde
() = 10 log10 {[() T ()( + 1) + ()]2 }. (5.93)
114

Para tal, utilize o seguinte procedimento baseado no mtodo da busca tabu:


I. Faa = 0, escolha uma soluo inicial aleatria, 0 () e, a partir de (5.93),
calcule [ 0 ()].
II. Faa = + 1, gere a partir de 1 () e verifique quais solues vizinhas,
, com = 1, 2, , , so tabu.
III. A partir de (5.93), calcule [ ], com = 1, 2, , .

IV. Se existe tal que


[ ] < [ ], com 1 , e (5.94)

e
[ ] < [ 1 ()] (5.95)
faa
() = . (5.96)
Caso contrrio, faa
() = 1 (). (5.97)
V. Atualize a lista tabu.
VI. Se o critrio de convergncia dado por
() = 1 () = 2 () (5.98)
for satisfeito, v para VII. Caso contrrio, retorne a II.
VII. Busca tabu convergiu. Retorne
opt () = () (5.99)

e, em seguida, calcule ( + 1) usando


() = max[opt (), | ()|] , = 1,2, , . (5.100)

5. V para a iterao seguinte ( = + 1) e repita os passos 2, 3 e 4 at o fim do processo


de adaptao do algoritmo TS-PNLMS.

A seguir, o algoritmo GS-IPNLMS obtido.

5.2.5 Algoritmo IPNLMS com Otimizao do Parmetro de Proporcionalidade baseada no


Mtodo da Razo urea

O algoritmo GS-IPNLMS usa o mtodo da razo urea para determinar opt () que
solucione (5.6) em cada instante, , do processo de adaptao do algoritmo IPNLMS. Este
algoritmo pode ser executado conforme os seguintes passos:
115

1. Inicialize o vetor de coeficientes do filtro ( = 0)


(0) = . (5.101)
2. Obtenha os dados de entrada e sada da planta
() = T ()() (5.102)
e do filtro adaptativo
() = T ()(). (5.103)
3. Calcule o sinal de erro
() = () () + (). (5.104)
4. Atualize o vetor de coeficientes do filtro adaptativo.
Nesta etapa, obtenha
opt () = arg min () (5.105)
1()<1

onde
() = 10 log10 {[() ()( + 1) + ()]2 }. (5.106)
Para tal, utilize o seguinte procedimento baseado no mtodo da razo urea:
I. Faa
=1 (5.107)
= 1 (5.108)
= +1 (5.109)
defina a tolerncia para convergncia da razo urea e calcule
1 () = (1 ) + (5.110)
2 () = + (1 ) (5.111)
II. A partir de (3.1) e (3.23), obtenha 1 ( + 1) e 2 ( + 1) usando 1 () e 2 (),
respectivamente.
III. A partir de (5.106), obtenha [1 ()] e [2 ()] usando 1 ( + 1) e
2 ( + 1), respectivamente. Se
|[1 ()] [2 ()]| < (5.112)
V para V. Caso contrrio, v para IV.
IV. Se
[1 ()] > [2 ()] (5.113)
faa
116

=+1 (5.114)
= 11 () (5.115)
1 () = 21 () (5.116)
2 () = + (1 ) (5.117)
e retorne para II. Caso contrrio, faa
=+1 (5.118)
= 21 () (5.119)
2 () = 11 () (5.120)
1 () = (1 ) + (5.121)
e retorne para II.
V. Razo urea convergiu. Faa
opt () = 1 () (5.122)

ou
opt () = 2 (). (5.123)

Em seguida, calcule ( + 1) usando


1 | ()|
() = [1 opt ()] + [1 + opt ()] . (5.124)
2 2()1 +
com = 1,2, , .
5. V para a iterao seguinte ( = + 1) e repita os passos 2, 3 e 4 at o fim do processo
de adaptao do algoritmo GS-IPNLMS.

Sendo 1 () e 2 () candidatos a opt () no ciclo do mtodo da razo urea.


A seguir, o algoritmo TS-IPNLMS obtido.

5.2.6 Algoritmo IPNLMS com Otimizao do Parmetro de Proporcionalidade baseada no


Mtodo da Busca Tabu

O algoritmo TS-IPNLMS usa o mtodo da busca tabu para determinar opt () que
solucione (5.6) em cada iterao do processo de adaptao do algoritmo IPNLMS. Para tal, faz-
se necessrio definir as estruturas dos elementos integrantes da busca tabu, como o conjunto de
solues vizinhas, a lista tabu e o critrio de aspirao, para o problema em questo. Estes
elementos so descritos a seguir em detalhes.
Para a metodologia proposta, considere o conjunto das solues vizinhas, , e a melhor
soluo, (), do ciclo atual, , da busca tabu. O conjunto pode ser representado por um
vetor de elementos, cada um contendo um possvel valor para (). Assim, uma soluo
117

vizinha , com = 1, 2, , , um nmero decimal com casas decimais. Um


exemplo de , formado por possveis () com duas casas decimais cada ( = 2),
mostrado na Figura 5.6.

1 2 3
1
0,72 0,15 0,0 0,97 1,0

Figura 5.6. Exemplo de um conjunto de solues vizinhas adotado para o algoritmo TS-IPNLMS.

O movimento utilizado para criar as novas solues vizinhas consiste de uma soma
simples. Esta soma tem como parcelas a melhor soluo do ciclo anterior, 1 (), e um
nmero escolhido aleatoriamente de um conjunto de nmeros decimais, com casas
decimais cada, pertencentes ao intervalo [ , ] . Como exemplo, toma-se = 0,2,
= 0,2 e = 1. Ento, tem-se que = {0,2 , 0,1 , 0 , 0,1 , 0,2}. Considerando
1 () = 0,7, duas possveis novas solues vizinhas so
= 0,7 + 0,1 = 0,8 (5.125)
e
= 0,7 + (0,2) = 0,5 (5.126)
com 1 , .
A estrutura adotada para a lista tabu a de uma matriz de ordem 2 x (PT + 1), onde PT
o perodo tabu. Os movimentos tabu Os movimentos tabu so registrados a partir do
armazenamento de trs valores em uma dada coluna, LT , da lista tabu. Os dois primeiros
identificam o movimento realizado, ou seja, 1 () e o valor escolhido aleatoriamente de .
Estes valores so gravados na primeira e segunda linhas de LT , respectivamente. J o terceiro
valor corresponde soma + PT, e deve ser armazenado na terceira linha de LT . Se um
dado movimento deixa de ser considerado tabu em um ciclo da busca, seu respectivo
registro deve ser apagado da lista tabu. A Figura 5.7 mostra a estrutura adotada para a lista tabu
do algoritmo TS-IPNLMS. Neste exemplo, tem-se, no -simo ciclo da busca pelo opt () da
-sima iterao do processo de adaptao do algoritmo TS-IPNLMS, dois movimentos tabu
registrados. Especificamente, o movimento caracterizado pela soma de 1 () = +0,7 com
= 0,1 (1 ) possui condio tabu at o ciclo = 4, conforme indicado pelos
dados armazenados da Coluna 1. Analogamente para os dados armazenados na Coluna 2. As
Colunas 3 a PT + 1 esto disponveis para armazenar novos movimentos tabu.
Coluna 1 Coluna 2 Coluna 3 Coluna PT + 1
+0,7 0,3 0 0
0,1 +0,5 0 0
4 7 0 0

Figura 5.7. Estrutura adotada para a lista tabu do algoritmo TS-IPNLMS.


118

Em relao ao critrio de aspirao adotado, considere uma dada soluo vizinha


criada a partir de um movimento tabu. Assim, se
[ ] < [ ], com 1 , e (5.127)
e
[ ] < [ 1 ()] (5.128)
ento tem sua condio tabu anulada e passa a vigorar como a melhor soluo do ciclo
atual , ou seja, () = .
Para o critrio de convergncia, considera-se que o mtodo da busca tabu converge
quando uma mesma soluo permanece como a melhor soluo atual durante trs ciclos
consecutivos. Em outras palavras, caso tenha-se no ciclo atual a seguinte condio atendida
() = 1 () = 2 () (5.129)
diz-se que o critrio de convergncia satisfeito, ou seja
opt () = (). (5.130)
A seguir, o algoritmo TS-IPNLMS descrito em detalhes:

1. Inicialize o vetor de coeficientes do filtro ( = 0)


(0) = . (5.131)
2. Obtenha os dados de entrada e sada da planta
() = T ()() (5.132)
e do filtro adaptativo
() = T ()(). (5.133)
3. Calcule o sinal de erro
() = () () + (). (5.134)
4. Atualize dos coeficientes do filtro adaptativo.
Nesta etapa, obtenha
opt () = arg min () (5.135)
1()<1

onde
() = 10 log10 {[() T ()( + 1) + ()]2 }. (5.136)
Para tal, utilize o seguinte procedimento baseado no mtodo da busca tabu:
I. Faa = 0, escolha uma soluo inicial aleatria, 1 0 () < 1, e a partir de
(5.136), calcule [ 0 ()].
II. Faa = + 1, gere a partir de 1 () e verifique quais solues vizinhas
, com = 1, 2, , , so tabu.
119

III. A partir de (5.136), calcule [ ], com = 1, 2, , .


IV. Se existe tal que
[ ] < [ ], com 1 , e (5.137)
e
[ ] < [ 1 ()] (5.138)
faa
() = . (5.139)
Caso contrrio, faa
() = 1 (). (5.140)
V. Atualize a lista tabu.
VI. Se o critrio de convergncia de (5.129) for satisfeito, v para VII. Caso contrrio,
retorne a II.
VII. Busca tabu convergiu. Retorne
opt () = () (5.141)
e, em seguida, calcule ( + 1) usando
1 | ()|
() = [1 opt ()] + [1 + opt ()] . (5.142)
2 2()1 +
5. V para a iterao seguinte ( = + 1) e repita os passos 2, 3 e 4 at o fim do processo
de adaptao do algoritmo TS-IPNLMS.

A seguir, feita uma breve discusso a respeito da complexidade computacional dos


algoritmos propostos.

5.3 Complexidade Computacional dos Algoritmos Propostos

A complexidade computacional dos algoritmos propostos neste trabalho de pesquisa


est diretamente ligada aos mtodos de otimizao adotados, os quais so executados em cada
iterao do processo de adaptao. O algoritmo GS-PNLMS, por exemplo, requer
(4 + 2)G + 4 1 operaes de adio, (5 + 4)(G + 1) operaes de multiplicao,
( + 1)(G + 1) operaes de diviso e (2 + 1)G + 2 operaes de comparao a mais
do que o algoritmo PNLMS padro em cada iterao. A varivel G o total de ciclos do
mtodo da razo urea em uma dada iterao do algoritmo GS-IPNLMS. J o algoritmo TS-
IPNLMS requer (5 + 2)(T + 1) adies, (6 + 4)(T + 1) multiplicaes, ( +
2)(T + 1) divises e (2 + 1)T comparaes a mais do que o algoritmo IPNLMS
original. A varivel T o total de ciclos do mtodo da busca tabu executados em uma dada
iterao do algoritmo TS-IPNLMS. Por outro lado, os algoritmos GS-PNLMS e TS-PNLMS
no necessitam da determinao de max[, () ], resultando assim em uma economia
120

de operaes de comparao e uma operao de multiplicao, se comparado com os


algoritmos PNLMS e GS-PNLMS. A Tabela 5.1 mostra as complexidades computacionais
dos algoritmos NLMS, PNLMS, IPNLMS e dos algoritmos propostos neste trabalho.

Tabela 5.1. Complexidade computacional dos algoritmos propostos.

Algoritmo Adies Multiplicaes Divises Comparaes

NLMS 3 3 + 1 1 0
PNLMS 4 5 + 2 +1 2
IPNLMS 5 + 2 6 + 3 +2 0
GS-PNLMS (4 + 2)G + 7 (5 + 4)G + 10 ( + 1)G + 2 (2 + 1)G + 4
TS-PNLMS 4(T + 2) (5 + 3)T + 5 ( + 1)(T + 2) ( + 2)T + 5
GS-PNLMS (4 + 1)G + 8 (5 + 3)G + 8 ( + 1)(G + 2) ( + 1)G + 2
TS-PNLMS 4(T + 2) (5 + 2)T + 10 ( + 1)(T + 2) ( + 2)T + 2
GS-IPNLMS (4 + 5)G + 8 (5 + 6)G + 10 3G + 3 2G 1
TS-IPNLMS (5 + 2)T + 10 (6 + 4)T + 12 ( + 2)(T + 2) (2 + 1)T

No captulo seguinte, o desempenho dos novos algoritmos propostos avaliado.


121

Captulo 6 A
A
Avaliao de Desempenho dos Algoritmos
Propostos
Para avaliar o desempenho dos algoritmos propostos, simulaes de Monte Carlo
(mdia de 100 realizaes independentes) so realizadas, considerando um problema de
identificao de sistemas. Tais simulaes tm como objetivos comparar o desempenho dos
algoritmos propostos com o dos algoritmos PNLMS, IPNLMS e SC-PNLMS em termos de
velocidade de convergncia, resposta a perturbaes e rastreamento dos coeficientes da planta
a ser identificada. So considerados dois cenrios para a realizao das simulaes numricas.
O primeiro deles o mesmo especificado no Captulo 3 (veja subseo 3.2.1), consistindo de
uma planta esparsa, , de esparsidade () = 0,9435, com coeficientes ativos iguais a
{0,1 , 1,0 , 0,5 , 0,1} localizados nas posies {1, 30, 35, 85}, respectivamente. O segundo
consiste de uma planta de esparsidade varivel constituda a partir de dados da planta e de
um processo markoviano de 1 ordem (Loganathan, Habets & Naylor, 2010). Para a entrada,
(), considera-se o sinal correlacionado AR(2), com = 10, dado por (3.15). O desempenho
de cada um dos algoritmos propostos avaliado considerando exemplos comparativos
envolvendo a planta . Primeiramente, os algoritmos GS-PNLMS e TS-PNLMS so
avaliados. Logo aps, verificado o desempenho dos algoritmos GS-PNLMS e TS-PNLMS.
Por fim, avalia-se o desempenho dos algoritmos GS-IPNLMS e TS-IPNLMS.

6.1 Algoritmos GS-PNLMS e TS-PNLMS

Nesta seo, o desempenho dos algoritmos GS-PNLMS e TS-PNLMS comparado


com o dos algoritmos PNLMS e IPNLMS em termos da velocidade de convergncia. Para tal,
dois exemplos comparativos so considerados a seguir. O primeiro considera uma inverso nos
coeficientes da planta esparsa, , no instante = 2000. J o segundo considera um
deslocamento dos coeficientes de em = 2000.

6.1.1 Exemplo 1

Este exemplo tem o objetivo de comparar o desempenho dos algoritmos PNLMS,


IPNLMS, GS-PNLMS e TS-PNLMS em termos de velocidade de convergncia e resposta a
uma perturbao ocorrida no instante = 2000, quando o vetor de coeficientes da planta muda
de para . Esta inverso na resposta impulsiva da no altera o seu grau de esparsidade.
A Figura 6.1 mostra o desalinhamento normalizado em dB dos algoritmos considerados,
o comportamento do parmetro de proporcionalidade timo, opt (), para os algoritmos GS-
122

PNLMS e TS-PNLMS, e a quantidade de ciclos necessria para os mtodos da razo urea e


da busca tabu atingirem a convergncia em cada iterao do processo de adaptao dos
algoritmos GS-PNLMS e TS-PNLMS, respectivamente. J a Figura 6.2 mostra o
comportamento dos coeficientes ativos e inativos do algoritmo GS-PNLMS, enquanto que a
Figura 6.3 mostra o comportamento dos coeficientes ativos e inativos do algoritmo TS-
PNLMS. As Figuras 6.4 e 6.5 mostram o comportamento dos coeficientes 35 () e 85 (),
2 () e 97 (), respectivamente, antes e aps ocorrer a perturbao em , para os algoritmos
considerados. Adota-se um parmetro de passo igual a = 0,5 para os algoritmos considerados
neste exemplo, de forma que todos apresentem o mesmo valor de desalinhamento em regime.
Para o algoritmo PNLMS, considera-se = 0,01 e = 0,05, e para o algoritmo IPNLMS,
adota-se = 0,0 (Benesty & Gay, 2002), (Souza, Tobias, Seara & Morgan, 2010). Para o
algoritmo GS-PNLMS, considera-se = 1015 , = 104 e = 103 . J para o algoritmo
TS-PNLMS, adota-se = 1015 , = 6 e PT = 3.
Note das curvas da Figura 6.1(a) que os algoritmos GS-PNLMS e TS-PNLMS
alcanam velocidades de convergncia mais rpidas do que as dos algoritmos PNLMS e
IPNLMS, mesmo aps ocorrer a perturbao na planta. Note tambm, das curvas da Figura
6.1(b), que opt () apresenta comportamento semelhante para os algoritmos GS-PNLMS e
TS-PNLMS. Para o algoritmo GS-PNLMS, opt () inicia em 4,7 105 no instante = 1
e, em menos de 200 iteraes, estabiliza-se em torno de 5,9 105, mesmo aps a perturbao.
J para o algoritmo TS-PNLMS, aps iniciar em 5,0 107 no instante = 1, opt ()
estabiliza-se, em menos de 200 iteraes, em torno de 4,4 105, mesmo aps ocorrer a
inverso nos coeficientes da planta. Observe das curvas da Figura 6.1(c) que, aps = 100, os
mtodos da razo urea (algoritmo GS-PNLMS) e da busca tabu (algoritmo TS-PNLMS)
alcanam mdias inferiores a 2 e 5 ciclos, respectivamente, para atingir a convergncia em cada
iterao do processo de adaptao.

(a)
123

(b)

(c)

Figura 6.1. Comportamento dos algoritmos PNLMS, IPNLMS, GS-PNLMS e TS-PNLMS considerando uma
inverso nos coeficientes da planta em = 2000. (a) Desalinhamento normalizado dos algoritmos PNLMS
(com = 0,01 e = 0,05), IPNLMS (com = 0,0), GS-PNLMS (com = 1015 , = 104 e = 103 ) e
TS-PNLMS (com = 1015 , = 6 e PT = 3). (b) Parmetro de proporcionalidade timo, opt (), dos
algoritmos GS-PNLMS e TS-PNLMS. (c) Quantidade de ciclos para os mtodos da razo urea (GS-PNLMS)
e da busca tabu (TS-PNLMS) atingirem a convergncia.
124

(a)

(b)
Figura 6.2. Comportamento dos coeficientes do algoritmo GS-PNLMS considerando uma perturbao na planta
esparsa em = 2000, quando mudada para . (a) Coeficientes ativos. (b) Coeficientes inativos.
125

(a)

(b)

Figura 6.3. Comportamento dos coeficientes do algoritmo TS-PNLMS considerando uma perturbao na planta
esparsa em = 2000, quando mudada para . (a) Coeficientes ativos. (b) Coeficientes inativos.
126

(a)

(b)
127

(c)

(d)

Figura 6.4. Comportamento dos coeficientes ativos 35 () e 85 () para os algoritmos PNLMS, IPNLMS, GS-
PNLMS e TS-PNLMS, considerando uma perturbao na planta em = 2000, quando mudada para .
(a) Coeficiente 35 () antes da perturbao. (b) Coeficiente 35 () aps a perturbao. (c) Coeficiente 85 ()
antes da perturbao. (d) Coeficiente 85 () aps a perturbao.
128

(a)

(b)
129

(c)

(d)

Figura 6.5. Comportamento dos coeficientes inativos 2 () e 97 () para os algoritmos PNLMS, IPNLMS, GS-
PNLMS e TS-PNLMS, considerando uma perturbao na planta em = 2000, quando mudada para .
(a) Coeficiente 2 () antes da perturbao. (b) Coeficiente 2 () aps a perturbao. (c) Coeficiente 97 ()
antes da perturbao. (d) Coeficiente 97 () aps a perturbao.
130

Note das curvas das Figuras 6.2 e 6.3 que os coeficientes ativos e inativos dos algoritmos
GS-PNLMS e TS-PNLMS convergem rapidamente para os valores de referncia da planta
, mesmo aps ocorrer a perturbao. Note tambm, das curvas das Figuras 6.4 e 6.5, que os
algoritmos GS-PNLMS e TS-PNLMS demonstram capacidade de rastreamento superior
dos algoritmos PNLMS e IPNLMS, tanto para coeficientes ativos como inativos, mesmo aps
a inverso nos coeficientes de .

6.1.2 Exemplo 2

Neste exemplo, os algoritmos PNLMS, IPNLMS, GS-PNLMS e TS-PNLMS so


novamente comparados em termos de velocidade de convergncia e resposta a uma perturbao
que no altera o grau de esparsidade da planta. Desta vez, no instante = 2000, o vetor de
coeficientes de deslocado de 12 amostras para a direita, alterando-se, dessa forma, as
posies de todos os coeficientes ativos. Assim, os coeficientes ativos da planta esparsa , cujos
valores so iguais a {0,1 , 1,0 , 0,5 , 0,1}, so movidos das posies {1, 30, 35, 85} para as
posies {13, 42, 47, 97}, respectivamente. Os valores para os parmetros dos algoritmos
considerados so os mesmos do exemplo anterior.
A Figura 6.6 mostra o desalinhamento normalizado em dB dos algoritmos considerados,
o comportamento do parmetro de proporcionalidade timo, opt (), para os algoritmos GS-
PNLMS e TS-PNLMS, e a quantidade de ciclos necessria para os mtodos da razo urea e
da busca tabu atingirem a convergncia em cada iterao do processo de adaptao dos
algoritmos GS-PNLMS e TS-PNLMS, respectivamente. J as Figuras 6.7 e 6.8 mostram o
comportamento dos coeficientes 1 (), 13 (), 30 (), 42 (), 35 (), 47 (), 85 () e
97 () para os algoritmos GS-PNLMS e TS-PNLMS, respectivamente. A Figura 6.9 mostra
o comportamento dos coeficientes 30 (), 42 (), e 85 () e 97 () aps ocorrer a
perturbao em , para os algoritmos considerados.
Note das curvas da Figura 6.6(a) que os algoritmos GS-PNLMS e TS-PNLMS
alcanam novamente a mais rpida velocidade de convergncia, mesmo aps ocorrer o
deslocamento dos coeficientes da planta. Note tambm, das curvas da Figura 6.6(b) que opt ()
novamente apresenta comportamento semelhante para ambos os algoritmos GS-PNLMS e
TS-PNLMS. Para o algoritmo GS-PNLMS, opt () inicia em 4,6 105 no instante = 1
e, em menos de 200 iteraes, estabiliza-se em torno de 5,7 105, mesmo aps a perturbao.
J para o algoritmo TS-PNLMS, aps iniciar em 4,0 106 no instante = 1, opt ()
estabiliza-se, em menos de 200 iteraes, em torno de 4,5 105, mesmo aps ocorrer o
deslocamento nos coeficientes da planta. Observe das curvas da Figura 6.6(c) que, aps =
100, os mtodos da razo urea (algoritmo GS-PNLMS) e da busca tabu (algoritmo TS-
PNLMS) alcanam novamente mdias inferiores a 2 e 5 ciclos, respectivamente, para atingir a
convergncia em cada iterao do processo de adaptao.
131

(a)

(b)
132

(c)
Figura 6.6. Comportamento dos algoritmos PNLMS, IPNLMS, GS-PNLMS e TS-PNLMS considerando um
deslocamento de 12 amostras direita dos coeficientes da planta em = 2000. (a) Desalinhamento normalizado
dos algoritmos PNLMS (com = 0,01 e = 0,05), IPNLMS (com = 0,0), GS-PNLMS (com = 1015 ,
= 104 e = 103 ) e TS-PNLMS (com = 1015 , = 6 e PT = 3). (b) Parmetro de proporcionalidade
timo, opt (), dos algoritmos GS-PNLMS e TS-PNLMS. (c) Quantidade de ciclos para os mtodos da razo
urea (GS-PNLMS) e da busca tabu (TS-PNLMS) atingirem a convergncia.

(a)
133

(b)
Figura 6.7. Comportamento dos coeficientes do algoritmo GS-PNLMS considerando uma perturbao na planta
esparsa em = 2000, quando os coeficientes de so deslocados de 12 amostras para a direita. (a) Coeficientes
1 (), 30 (), 35 () e 85 (). (b) Coeficientes 13 (), 42 (), 47 () e 97 ().

(a)
134

(b)
Figura 6.8. Comportamento dos coeficientes do algoritmo TS-PNLMS considerando uma perturbao na planta
esparsa em = 2000, quando os coeficientes de so deslocados de 12 amostras para a direita. (a) Coeficientes
1 (), 30 (), 35 () e 85 (). (b) Coeficientes 13 (), 42 (), 47 () e 97 ().

(a)
135

(b)

(c)
136

(d)
Figura 6.9. Comportamento dos coeficientes 30 () 42 (), e 85 () e 97 () para os algoritmos PNLMS,
IPNLMS, GS-PNLMS e TS-PNLMS, aps o deslocamento de 12 amostras para a direita de , ocorrido no
instante = 2000. (a) Coeficiente 30 (). (b) Coeficiente 42 (). (c) Coeficiente 85 (). (d) Coeficiente
97 ().

Note, das curvas das Figuras 6.7 e 6.8 que, novamente, os coeficientes ativos e inativos
dos algoritmos GS-PNLMS e TS-PNLMS convergem rapidamente para os valores desejados
da planta , mesmo aps ocorrer a perturbao. Alm disso, tem-se que os coeficientes ativos
de maior magnitude como, por exemplo, 30 () antes de = 2000 e 42 () aps = 2000,
convergem mais rapidamente do que os coeficientes ativos de menor magnitude, como 1 ()
antes de = 2000 e 97 () aps = 2000. Note tambm, das curvas da Figura 6.9, que os
algoritmos GS-PNLMS e TS-PNLMS demonstram novamente maior capacidade de
rastreamento, tanto para coeficientes ativos como inativos, mesmo aps o deslocamento nos
coeficientes de .

6.2 Algoritmos GS-PNLMS e TS-PNLMS

Nesta seo, o desempenho dos algoritmos GS-PNLMS e TS-PNLMS comparado


com o dos algoritmos PNLMS e IPNLMS, em termos da velocidade de convergncia. Para tal,
dois exemplos comparativos so considerados a seguir. O primeiro considera um deslocamento
dos coeficientes da planta esparsa, , em = 2000. J o segundo considera uma planta de
esparsidade varivel no tempo obtida a partir de dados da planta e do uso de um processo
markoviano de primeira ordem (Loganathan, Habets & Naylor, 2010).
137

6.2.1 Exemplo 3

Este exemplo tem o objetivo de comparar o desempenho dos algoritmos PNLMS,


IPNLMS, GS-PNLMS e TS-PNLMS em termos de velocidade de convergncia e resposta a
uma perturbao ocorrida no instante = 2000, quando o vetor de coeficientes da planta
deslocado de 12 amostras para a direita, alterando as posies dos coeficientes ativos. Dessa
forma, os coeficientes ativos de , cujos valores so iguais a {0,1 , 1,0 , 0,5 , 0,1}, so movidos
das posies {1, 30, 35, 85} para as posies {13, 42, 47, 97}, respectivamente.
A Figura 6.10 mostra o desalinhamento normalizado em dB dos algoritmos
considerados, o comportamento do fator de ativao timo, opt (), para os algoritmos GS-
PNLMS e TS-PNLMS, e a quantidade de ciclos necessria para os mtodos da razo urea e
da busca tabu atingirem a convergncia em cada iterao do processo de adaptao dos
algoritmos GS-PNLMS e TS-PNLMS, respectivamente. J as Figuras 6.11 e 6.12 mostram
o comportamento dos coeficientes 1 (), 13 (), 30 (), 42 (), 35 (), 47 (), 85 () e
97 () para os algoritmos GS-PNLMS e TS-PNLMS, respectivamente. A Figura 6.13
mostra o comportamento dos coeficientes 1 (), 13 (), e 35 () e 47 () para os
algoritmos considerados aps ocorrer a perturbao em . Adota-se um parmetro de passo
igual a = 0,5 para os algoritmos considerados neste exemplo, de forma que todos apresentem
o mesmo valor de desalinhamento em regime. Para o algoritmo PNLMS, considera-se = 0,01
e = 0,05, e para o algoritmo IPNLMS, adota-se = 0,0 (Benesty & Gay, 2002) e (Souza,
Tobias, Seara & Morgan, 2010). Para o algoritmo GS-PNLMS, considera-se = 1015 , =
104 e = 103 . J para o algoritmo TS-PNLMS, adota-se = 1015 , = 6 e PT = 3.
Note, das curvas da Figura 6.10(a), que os algoritmos GS-PNLMS e TS-PNLMS
alcanam velocidades de convergncia mais rpidas do que as dos algoritmos PNLMS e
IPNLMS, mesmo aps ocorrer o deslocamento dos coeficientes da planta. Note tambm, das
curvas da Figura 6.10(b), que opt () apresenta comportamento semelhante para ambos os
algoritmos GS-PNLMS e TS-PNLMS. Para o algoritmo GS-PNLMS, aps iniciar em 5,9
105 no instante = 1, em menos de 200 iteraes, opt () estabiliza-se em torno de 5,6
105, mesmo aps a perturbao. J para o algoritmo TS-PNLMS, opt () inicia em 3,1
108 no instante = 1, e estabiliza-se, em menos de 200 iteraes, em torno de 4,6 105,
mesmo aps ocorrer o deslocamento nos coeficientes da planta. Observe das curvas da Figura
6.10(c) que, aps = 100, os mtodos da razo urea (algoritmo GS-PNLMS) e da busca
tabu (algoritmo TS-PNLMS) alcanam mdias inferiores a 2 e 5 ciclos, respectivamente, para
atingir a convergncia em cada iterao do processo de adaptao.
138

(a)

(b)
139

(c)
Figura 6.10. Comportamento dos algoritmos PNLMS, IPNLMS, GS-PNLMS e TS-PNLMS considerando um
deslocamento de 12 amostras direita dos coeficientes da planta em = 2000. (a) Desalinhamento normalizado
dos algoritmos PNLMS (com = 0,01 e = 0,05), IPNLMS (com = 0,0), GS-PNLMS (com = 1015 ,
= 104 e = 103 ) e TS-PNLMS (com = 1015 , = 6 e PT = 3). (b) Fator de ativao timo, opt (),
dos algoritmos GS-PNLMS e TS-PNLMS. (c) Quantidade de ciclos para os mtodos da razo urea (GS-
PNLMS) e da busca tabu (TS-PNLMS) atingirem a convergncia.

(a)
140

(b)
Figura 6.11. Comportamento dos coeficientes do algoritmo GS-PNLMS considerando uma perturbao na planta
esparsa em = 2000, quando os coeficientes de so deslocados de 12 amostras para a direita. (a) Coeficientes
1 (), 30 (), 35 () e 85 (). (b) Coeficientes 13 (), 42 (), 47 () e 97 ().

(a)
141

(b)
Figura 6.12. Comportamento dos coeficientes do algoritmo TS-PNLMS considerando uma perturbao na planta
esparsa em = 2000, quando os coeficientes de so deslocados de 12 amostras para a direita. (a) Coeficientes
1 (), 30 (), 35 () e 85 (). (b) Coeficientes 13 (), 42 (), 47 () e 97 ().

(a)
142

(b)

(c)
143

(d)
Figura 6.13. Comportamento dos coeficientes 1 () 13 (), e 35 () e 47 () para os algoritmos PNLMS,
IPNLMS, GS-PNLMS e TS-PNLMS, aps o deslocamento de 12 amostras para a direita de , ocorrido no
instante = 2000. (a) Coeficiente 1 (). (b) Coeficiente 13 (). (c) Coeficiente 35 (). (d) Coeficiente 47 ().

Note, das curvas das Figuras 6.11 e 6.12 que tanto os coeficientes ativos como os
coeficientes inativos dos algoritmos GS-PNLMS e TS-PNLMS convergem rapidamente para
os valores desejados da planta , mesmo aps ocorrer a perturbao. Alm disso, tem-se que
os coeficientes ativos de maior magnitude como, por exemplo, 35 () antes de = 2000 e
47 () aps = 2000, convergem mais rapidamente do que os coeficientes ativos de menor
magnitude, como 85 () antes de = 2000 e 13 () aps = 2000. Note tambm, das
curvas da Figura 6.13, que os algoritmos GS-PNLMS e TS-PNLMS apresentam maior
capacidade de rastreamento de coeficientes ativos e inativos do que os algoritmos PNLMS e
IPNLMS, mesmo aps ocorrer o deslocamento em .

6.2.2 Exemplo 4

Neste exemplo, a velocidade de convergncia dos algoritmos PNLMS, IPNLMS, GS-


PNLMS e TS-IPNLMS comparada considerando a identificao de uma planta com
esparsidade varivel no tempo. Para tal, utilizado o processo markoviano de primeira ordem
dado por (Loganathan, Habets & Naylor, 2010)

() = () + 1 2 () (6.1)
144

onde () uma sequncia aleatria de tamanho , formada a partir de uma


distribuio gaussiana de mdia zero e varincia v2 . O fator 0 < < 1 controla as
contribuies da memria e das inovaes referentes resposta impulsiva da planta
variante (). Note que, para = 1, tem-se uma planta invariante no tempo. Neste exemplo,
() inicializada (instante = 0) com os valores da planta esparsa , e considera-se v2 = 1
e = 1 107 .
A Figura 6.14 mostra o desalinhamento normalizado em dB dos algoritmos
considerados, o comportamento do fator de ativao timo, opt (), para os algoritmos GS-
PNLMS e TS-PNLMS, a variao no grau de esparsidade da planta (), e a quantidade de
ciclos necessria para os mtodos da razo urea e da busca tabu atingirem a convergncia em
cada iterao do processo de adaptao dos algoritmos GS-PNLMS e TS-PNLMS,
respectivamente. J as Figuras 6.15 e 6.16 mostram, a partir do instante = 1000, o
comportamento dos coeficientes 30 () e 97 (), respectivamente, para cada um dos
algoritmos considerados em relao aos valores correspondentes de (). Adota-se parmetros
de passo iguais a PN = IPN = 1,6, GS = 0,3 e TS = 1,7 para os algoritmos PNLMS,
IPNLMS, GS-PNLMS e TS-PNLMS, respectivamente, de forma que todos apresentem o
mesmo valor de desalinhamento em regime. Os demais parmetros adotados para os algoritmos
considerados so os mesmos do exemplo anterior, exceto que, para o algoritmo GS-PNLMS
considera-se agora = 101 .
Note, das curvas da Figura 6.10(a), que os algoritmos GS-PNLMS e TS-PNLMS
alcanam velocidades de convergncia mais rpidas do que as dos algoritmos PNLMS e
IPNLMS, mesmo ocorrendo uma reduo gradual da esparsidade da planta () de [()] =
0,9435 em = 0 para [()] = 0,7979 em = 2000, conforme a definio de (1.2). Alm
disso, tem-se que o algoritmo GS-PNLMS alcana a mais rpida velocidade de convergncia,
superando o desempenho do algoritmo TS-PNLMS. Note tambm, das curvas da Figura
6.10(b) que, para o algoritmo GS-PNLMS, opt () inicia em 3,7 103 no instante = 1 e,
em menos de 200 iteraes, estabiliza-se em torno de 5,6 103. J para o algoritmo TS-
PNLMS, aps iniciar em 2,1 103 no instante = 1, em menos de 200 iteraes, opt ()
mantm-se oscilando em torno de 1,1 103 . Observe das curvas da Figura 6.10(d) que o
mtodo da razo urea (algoritmo GS-PNLMS), a partir de = 13, necessita de apenas 1
ciclo para atingir a convergncia em cada iterao. J o mtodo da busca tabu (algoritmo TS-
PNLMS) alcana, aps = 100, uma mdia inferior a 5 ciclos para atingir a convergncia em
cada iterao do processo de adaptao.
145

(a)

(b)
146

(c)

(d)
Figura 6.14. Comportamento dos algoritmos PNLMS, IPNLMS, GS-PNLMS e TS-PNLMS para a identificao
de uma planta de esparsidade varivel, (). (a) Desalinhamento normalizado dos algoritmos PNLMS (com PN =
1,6, = 0,01 e = 0,05), IPNLMS (com IPN = 1,6 e = 0,0), GS-PNLMS (com GS = 1,7, = 1015 ,
= 104 e = 103 ) e TS-PNLMS (com TS = 0,3, = 1015 , = 6 e PT = 3). (b) Fator de ativao
timo, opt (), dos algoritmos GS-PNLMS e TS-PNLMS. (c) Variao da esparsidade de (). (d) Quantidade
de ciclos para os mtodos da razo urea (GS-PNLMS) e da busca tabu (TS-PNLMS) atingirem a convergncia.
147

(a)

(b)
148

(c)

(d)
Figura 6.15. Comportamento do coeficiente 30 (), a partir do instante = 1000, para os algoritmos PNLMS,
IPNLMS, GS-PNLMS e TS-PNLMS, considerando a identificao de uma planta de esparsidade varivel,
(). (a) Algoritmo PNLMS (b) Algoritmo IPNLMS. (c) Algoritmo GS-PNLMS. (d) Algoritmo TS-PNLMS.
149

(a)

(b)
150

(c)

(d)
Figura 6.16. Comportamento do coeficiente 97 (), a partir do instante = 1000, para os algoritmos PNLMS,
IPNLMS, GS-PNLMS e TS-PNLMS, considerando a identificao de uma planta de esparsidade varivel,
(). (a) Algoritmo PNLMS (b) Algoritmo IPNLMS. (c) Algoritmo GS-PNLMS. (d) Algoritmo TS-PNLMS.
151

Note, das curvas das Figuras 6.15 e 6.16 que, apesar da variao aleatria a cada iterao
nos valores dos coeficientes da planta de esparsidade varivel, (), os algoritmos GS-
PNLMS e TS-PNLMS conseguem manter os valores de seus coeficientes, tanto de maior
como de menor magnitude, prximos dos valores desejados.

6.3 Algoritmo GS-IPNLMS

Nesta seo, o desempenho do algoritmo GS-IPNLMS comparado com o dos


algoritmos IPNLMS e SC-IPNLMS, em termos de velocidade de convergncia e de resposta a
perturbaes na planta. Para tal, dois exemplos comparativos so considerados. O primeiro
exemplo considera uma inverso nos coeficientes da planta esparsa . J o segundo exemplo
considera a identificao da planta de esparsidade varivel () dada por (6.1).

6.3.1 Exemplo 5

Este exemplo tem como objetivo comparar o desempenho dos algoritmos IPNLMS, SC-
IPNLMS e GS-IPNLMS em termos de velocidade de convergncia e de resposta a uma
perturbao ocorrida na planta esparsa no instante = 2000, quando mudada para .
Esta inverso no altera o grau de esparsidade da planta.
A Figura 6.17 mostra o desalinhamento normalizado em dB dos algoritmos
considerados, o comportamento do parmetro de proporcionalidade timo, opt (), para o
algoritmo GS-IPNLMS, e a quantidade de ciclos necessria para o mtodo da razo urea
atingir a convergncia em cada iterao do processo de adaptao do algoritmo GS-IPNLMS.
J a Figura 6.18 mostra o comportamento dos coeficientes ativos e inativos para o algoritmo
GS-IPNLMS. A Figura 6.19 mostra o comportamento dos coeficientes 30 (), 35 (), 42 ()
e 97 () aps ocorrer a perturbao em , para os algoritmos considerados. Adota-se um
parmetro de passo igual a = 0,5 para os algoritmos considerados neste exemplo, de forma
que todos apresentem o mesmo valor de desalinhamento em regime. Para o algoritmo PNLMS,
considera-se = 0,01 e = 0,05, e para o algoritmo IPNLMS, adota-se = 0,0 (Benesty &
Gay, 2002) e (Souza, Tobias, Seara & Morgan, 2010). J para o algoritmo GS-IPNLMS,
considera-se = 103 .
Note das curvas da Figura 6.17(a) que o algoritmo GS-IPNLMS alcana a mais rpida
velocidade de convergncia entre os algoritmos considerados, mesmo aps ocorrer a
perturbao em . Note tambm, da Figura 6.17(b), que opt () inicia com o valor 0,230 no
instante = 1, muda para 0,984 em = 2 e, em menos de 100 iteraes, estabiliza-se em
torno de 0,965, mesmo aps a inverso nos coeficientes da planta . Observe da Figura 6.17(c)
que o mtodo da razo urea converge em apenas 1 ciclo na iterao = 1 e alcana, aps =
40, uma mdia inferior a 9 ciclos para atingir a convergncia em cada iterao do processo de
adaptao do algoritmo GS-IPNLMS.
152

(a)

(b)
153

(c)

Figura 6.17. Comportamento dos algoritmos IPNLMS, SC-IPNLMS e GS-IPNLMS, considerando uma inverso
nos coeficientes da planta em = 2000. (a) Desalinhamento normalizado dos algoritmos IPNLMS (com =
0,05), SC-IPNLMS (com = 0,0) e GS-IPNLMS (com = 103 ). (b) Parmetro de proporcionalidade timo,
opt (), do algoritmo GS-IPNLMS. (c) Quantidade de ciclos para o mtodo da razo urea atingir a convergncia.

(a)
154

(b)
Figura 6.18. Comportamento dos coeficientes do algoritmo GS-IPNLMS considerando uma perturbao na planta
esparsa em = 2000, quando mudada para . (a) Coeficientes ativos. (b) Coeficientes inativos.

(a)
155

(b)

(c)
156

(d)
Figura 6.19. Comportamento dos coeficientes 30 () 35 (), e 47 () e 97 () para os algoritmos IPNLMS,
SC-IPNLMS e GS-IPNLMS, aps a inverso dos coeficientes ativos de , ocorrida no instante = 2000. (a)
Coeficiente 30 (). (b) Coeficiente 35 (). (c) Coeficiente 42 (). (d) Coeficiente 97 ().

Note, das curvas da Figura 6.18, que os coeficientes ativos e inativos do algoritmo GS-
IPNLMS convergem rapidamente para os valores de referncia da planta , mesmo aps ocorrer
a perturbao. Alm disso, tem-se que os coeficientes ativos de maior magnitude, 30 () e
35 (), convergem mais rapidamente do que os coeficientes ativos de menor magnitude, 1 ()
e 85 (). Note tambm, das curvas da Figura 6.19, que o algoritmo GS-IPNLMS demonstra
capacidade de rastreamento de coeficientes ativos e inativos superior dos algoritmos IPNLMS
e SC-IPNLMS, mesmo aps a inverso nos coeficientes de .

6.3.2 Exemplo 6

Neste exemplo a velocidade de convergncia dos algoritmos IPNLMS, SC-IPNLMS e


GS-IPNLMS comparada considerando a identificao da planta de esparsidade varivel,
(), dada por (6.1). Dessa forma, () inicializada novamente com os dados da planta de
esparsidade () = 0,9435 do exemplo anterior, ou seja, (0) = . Alm disso, considera-se
tambm v2 = 1 e = 1 107 (Loganathan, Habets & Naylor, 2010).
A Figura 6.20 mostra o desalinhamento normalizado em dB dos algoritmos
considerados, o comportamento do parmetro de proporcionalidade timo, opt (), para o
algoritmo GS-IPNLMS, a variao na esparsidade de (), e a quantidade de ciclos necessria
para o mtodo da razo urea atingir a convergncia em cada iterao do processo de adaptao
do algoritmo GS-IPNLMS. J a Figura 6.21 mostra, a partir do instante = 500, o
comportamento dos coeficientes 13 (), 35 (), 85 () e 97 (), para cada um dos
algoritmos considerados em relao aos valores correspondentes de (). Os parmetros de
157

passo adotados para os algoritmos IPNLMS, SC-IPNLMS e GS-IPNLMS so IPN = 1,5,


SCIPN = 0,9 e GSIPN = 0,5, respectivamente, de forma que todos apresentem o mesmo
valor de desalinhamento em regime. Para os algoritmos IPNLMS e SC-IPNLMS tambm adota-
se IPN = SCIPN = 0,0, e para o algoritmo GS-IPNLMS considera-se = 101 .
Note das curvas da Figura 6.20(a) que o algoritmo GS-IPNLMS alcana mais uma vez
a maior velocidade de convergncia, mesmo ocorrendo uma reduo gradual na esparsidade da
planta (), de [()] = 0,9435 em = 0 para [()] = 0,8389 em = 1000, como
mostra a Figura 6.20(c). Note tambm, da Figura 6.20(b), que opt () inicia com o valor de
0,215 em = 1 e, logo na iterao seguinte, muda para 0,846, estabilizando-se em 0,520
aps 40 iteraes do processo de adaptao do algoritmo GS-IPNLMS. Observe da Figura
6.20(d) que, aps = 30, o mtodo da razo urea necessita de apenas 1 ciclo para atingir a
convergncia em cada iterao do processo de adaptao do algoritmo GS-IPNLMS.

(a)

(b)
158

(c)

(d)
Figura 6.20. Comportamento dos algoritmos IPNLMS, SC-IPNLMS e GS-IPNLMS para a identificao de uma
planta de esparsidade varivel, (). (a) Desalinhamento normalizado dos algoritmos IPNLMS (com IPN = 1,5
e IPN = 0,0), SC-IPNLMS (com SCIPN = 0,9 e SCIPN = 0,0) e GS-IPNLMS (com = 103 ). (b)
Parmetro de proporcionalidade timo, opt (), para o algoritmo GS-IPNLMS. (c) Variao no grau de
esparsidade de (). (d) Quantidade de ciclos para o mtodo da razo urea atingir a convergncia.
159

(a)

(b)
160

(c)

(d)
Figura 6.21. Comportamento dos coeficientes 13 (), 35 (), 85 () e 97 (), a partir do instante = 500,
para os algoritmos IPNLMS, SC-IPNLMS e GS-IPNLMS, considerando a identificao de uma planta de
esparsidade varivel, (). (a) Coeficiente 13 (). (b) Coeficiente 35 (). (c) Coeficiente 85 (). (d)
Coeficiente 97 ().

Note das curvas da Figura 6.21 que, apesar da variao aleatria a cada iterao nos
valores dos coeficientes da planta de esparsidade varivel, o algoritmo GS-IPNLMS consegue
161

manter os valores de seus coeficientes, tanto de maior como de menor magnitude, prximos
dos valores desejados de ().

6.4 TS-IPNLMS

Nesta seo, o desempenho do algoritmo TS-IPNLMS comparado com o dos


algoritmos IPNLMS e SC-IPNLMS em termos de velocidade de convergncia. Para tanto, dois
exemplos comparativos so mostrados a seguir. O primeiro considera um deslocamento nos
coeficientes da planta esparsa . J o segundo considera a identificao da planta de esparsidade
varivel, (), dada por (6.1). Para a execuo do mtodo da busca tabu, em todos os exemplos
considera-se = 2, = 2.0, = +2.0, = 5 e PT = 3.

6.4.1 Exemplo 7

Este exemplo tem o objetivo de comparar o desempenho dos algoritmos IPNLMS, SC-
IPNLMS e TS-IPNLMS, em termos de velocidade de convergncia e resposta a uma
perturbao ocorrida no instante = 2000, quando o vetor de coeficientes da planta
deslocado de 12 amostras para a direita, alterando as posies dos coeficientes ativos. Dessa
forma, os coeficientes ativos de , cujos valores so iguais a {0,1 , 1,0 , 0,5 , 0,1}, so movidos
das posies {1, 30, 35, 85} para as posies {13, 42, 47, 97}, respectivamente.
A Figura 6.22 mostra o desalinhamento normalizado em dB dos algoritmos
considerados, o comportamento do parmetro de proporcionalidade timo, opt (), para o
algoritmo TS-IPNLMS, e a quantidade de ciclos necessria para o mtodo da busca tabu atingir
a convergncia em cada iterao do processo de adaptao do algoritmo TS-IPNLMS,
respectivamente. J a Figura 6.23 mostra o comportamento dos coeficientes 1 (), 13 (),
30 (), 42 (), 35 (), 47 (), 85 () e 97 () para o algoritmo TS-IPNLMS. A Figura
6.24 mostra o comportamento dos coeficientes 1 (), 13 (), e 35 () e 47 () para os
algoritmos considerados aps ocorrer a perturbao em . Adota-se um parmetro de passo
igual a = 0,5 para os algoritmos considerados neste exemplo, de forma que todos apresentem
o mesmo valor de desalinhamento em regime. Para os algoritmos IPNLMS e SC-IPNLMS,
tambm considera-se = 0,0 (Benesty & Gay, 2002) e (Souza, Tobias, Seara & Morgan,
2010).
Note das curvas da Figura 6.22(a) que o algoritmo TS-IPNLMS alcana velocidade de
convergncia superior s dos algoritmos IPNLMS e SC-IPNLMS, mesmo aps ocorrer a
perturbao na planta. Note tambm, da Figura 6.22(b), que o opt () inicia com o valor
0,031 na primeira iterao ( = 1), muda para 0,940 na segunda iterao ( = 2) e, em
menos de 20 iteraes do processo de adaptao do algoritmo TS-IPNLMS, estabiliza-se em
torno de 0,944, mesmo aps o deslocamento dos coeficientes de . Observe da Figura 6.22(c)
que o mtodo da busca tabu alcana, em menos de 20 iteraes, uma mdia inferior a 7 ciclos
para atingir a convergncia em cada iterao do processo de adaptao do algoritmo TS-
IPNLMS.
162

(a)

(b)
163

(c)
Figura 6.22. Comportamento dos algoritmos IPNLMS, SC-IPNLMS e TS-IPNLMS considerando um
deslocamento de 12 amostras direita dos coeficientes da planta em = 2000. (a) Desalinhamento normalizado
dos algoritmos IPNLMS (com = 0,0), SC-IPNLMS (com = 0,0) e TS-IPNLMS (com = 2,0, =
+2,0, = 5 e PT = 3). (b) Parmetro de proporcionalidade timo, opt (), para o algoritmo TS-IPNLMS. (c)
Quantidade de ciclos para o mtodo da busca tabu atingir a convergncia.

(a)
164

(b)
Figura 6.23. Comportamento dos coeficientes do algoritmo TS-IPNLMS considerando uma perturbao na planta
esparsa em = 2000, quando os coeficientes de so deslocados de 12 amostras para a direita. (a) Coeficientes
1 (), 30 (), 35 () e 85 (). (b) Coeficientes 13 (), 42 (), 47 () e 97 ().

(a)
165

(b)

(c)
166

(d)
Figura 6.24. Comportamento dos coeficientes 1 () 13 (), e 35 () e 47 () para os algoritmos IPNLMS,
SC-IPNLMS e TS-IPNLMS, aps o deslocamento de 12 amostras para a direita de , ocorrido no instante =
2000. (a) Coeficiente 1 (). (b) Coeficiente 13 (). (c) Coeficiente 35 (). (d) Coeficiente 47 ().

Note, das curvas das Figuras 6.23 e 6.24 que os coeficientes ativos e inativos do
algoritmo TS-IPNLMS convergem rapidamente para os valores correspondentes da planta ,
mesmo aps ocorrer a perturbao. Alm disso, tem-se que os coeficientes ativos de maior
magnitude como, por exemplo, 35 () antes de = 2000 e 47 () aps = 2000,
convergem mais rapidamente do que os coeficientes ativos de menor magnitude, como 1 ()
antes de = 2000 e 13 () aps = 2000. Note tambm, das curvas da Figura 6.24, que o
algoritmo TS-IPNLMS demonstra capacidade de rastreamento de coeficientes superior dos
algoritmos IPNLMS e SC-IPNLMS, mesmo aps ocorrer o deslocamento em .

6.4.2 Exemplo 8

Neste exemplo, a velocidade de convergncia dos algoritmos IPNLMS, SC-IPNLMS e


TS-IPNLMS comparada considerando a identificao da planta de esparsidade varivel, (),
dada por (6.1). Dessa forma, () inicializada novamente com os dados da planta de
esparsidade () = 0,9435 do exemplo anterior, ou seja, (0) = . Alm disso, tambm
considera-se v2 = 1 e = 1 107 (Loganathan, Habets & Naylor, 2010).
A Figura 6.25 mostra o desalinhamento normalizado em dB dos algoritmos
considerados, o comportamento do parmetro de proporcionalidade timo, opt (), para o
algoritmo TS-IPNLMS, a variao na esparsidade de (), e a quantidade de ciclos necessria
para o mtodo da busca tabu atingir a convergncia em cada iterao do processo de adaptao
do algoritmo TS-IPNLMS. J a Figura 6.26 mostra, a partir do instante = 500, o
comportamento dos coeficientes 30 (), 42 (), 85 () e 97 (), para cada um dos
algoritmos considerados em relao aos valores correspondentes de (). Os parmetros de
passo adotados para os algoritmos IPNLMS, SC-IPNLMS e TS-IPNLMS so IPN = 1,5,
167

SCIPN = 0,9 e TSIPN = 0,5, respectivamente, de forma que todos apresentem o mesmo
valor de desalinhamento em regime. Para os algoritmos IPNLMS e SC-IPNLMS tambm adota-
se IPN = SCIPN = 0,0.
Note das curvas da Figura 6.25(a) que o algoritmo TS-IPNLMS alcana mais uma vez
a maior velocidade de convergncia, mesmo ocorrendo uma reduo gradual na esparsidade da
planta (), de [()] = 0,9435 em = 0 para [()] = 0,8389 em = 1000, como
mostra a Figura 6.20(c). Note tambm, da Figura 6.20(b), que opt () inicia com o valor de
0,215 em = 1 e, logo na iterao seguinte, muda para 0,846, estabilizando-se em 0,520
aps 40 iteraes do processo de adaptao do algoritmo TS-IPNLMS. Observe da Figura
6.20(d) que o mtodo da busca tabu alcana novamente, em menos de 20 iteraes, uma mdia
inferior a 7 ciclos para atingir a convergncia em cada iterao do processo de adaptao do
algoritmo TS-IPNLMS.

(a)

(b)
168

(c)

(d)
Figura 6.25. Comportamento dos algoritmos IPNLMS, SC-IPNLMS e TS-IPNLMS para a identificao de uma
planta de esparsidade varivel, (). (a) Desalinhamento normalizado dos algoritmos IPNLMS (com IPN = 1,5
e IPN = 0,0), SC-IPNLMS (com SCIPN = 0,9 e SCIPN = 0,0) e TS-IPNLMS (com TSIPN = 0,3 =
2,0, = +2,0, = 5 e PT = 3). (b) Parmetro de proporcionalidade timo, opt (), para o algoritmo TS-
IPNLMS. (c) Variao no grau de esparsidade de (). (d) Quantidade de ciclos para o mtodo da razo urea
atingir a convergncia.
169

(a)

(b)
170

(c)

(d)
Figura 6.26. Comportamento dos coeficientes 30 (), 42 (), 85 () e 97 (), a partir do instante = 500,
para os algoritmos IPNLMS, SC-IPNLMS e TS-IPNLMS, considerando a identificao de uma planta de
esparsidade varivel, (). (a) Coeficiente 30 (). (b) Coeficiente 42 (). (c) Coeficiente 85 (). (d)
Coeficiente 97 ().

Note das curvas da Figura 6.26 que, apesar da variao aleatria a cada iterao nos
valores dos coeficientes da planta de esparsidade varivel, o algoritmo TS-IPNLMS consegue
manter os valores de seus coeficientes, tanto de maior como de menor magnitude, prximos
dos valores correspondentes de ().
171

Captulo 7

Concluso

Filtros adaptativos possuem papel fundamental na resoluo de vrios problemas


envolvendo processamento de sinais, tais como identificao de sistemas, controle ativo de
rudo, a equalizao de canais de comunicao. O estudo destes dispositivos consiste
basicamente na anlise e desenvolvimento de algoritmos adaptativos, os quais so
implementados em estruturas de filtragem.
Diversas aplicaes de filtros adaptativos, tais como cancelamento de eco em
telecomunicaes, sistemas de transmisso de televiso digital e estimao de harmnicas em
sistemas eltricos de potncia, envolvem plantas cuja resposta impulsiva possui caracterstica
esparsa. Porm, algoritmos adaptativos clssicos, como o LMS e o NLMS, usam o mesmo
passo de adaptao para todos os coeficientes do filtro e, portanto, no levam em considerao
o grau de esparsidade das plantas a serem identificadas. Tais algoritmos apresentam
desempenho pobre, em termos de velocidade de convergncia, para a identificao de plantas
esparsas. Uma alternativa para lidar com este tipo de planta so os algoritmos adaptativos LMS
normalizados proporcionais, tais como os algoritmos PNLMS e IPNLMS.
Anlises realizadas para avaliar o efeito dos parmetros dos algoritmos PNLMS e
IPNLMS no comportamento dos mesmos indicam que o desempenho destes algoritmos pode
ser melhorado, em termos de velocidade de convergncia, a partir o uso de metodologias para
otimizar a escolha de tais parmetros. Dessa forma, neste trabalho de pesquisa so propostas
novas metodologias para otimizar a escolha dos parmetros dos algoritmos adaptativos PNLMS
e IPNLMS. Para tal, utiliza-se procedimentos baseados em dois mtodos de otimizao, a saber,
os mtodos da razo urea e da busca tabu.
Resultados de simulaes numricas demonstram que as abordagens propostas
apresentam desempenho superior, em termos de velocidade de convergncia e resposta a
perturbaes, em relao aos algoritmos PNLMS e IPNLMS originais para a identificao de
plantas esparsas. Os resultados obtidos mostram tambm que os valores escolhidos para os
parmetros dos algoritmos PNLMS e IPNLMS afetam diretamente a velocidade de
convergncia destes algoritmos durante todo o processo de adaptao.
Como proposta para trabalhos futuros, visando aumentar a velocidade de convergncia
e o desempenho em regime permanente, sugere-se o desenvolvimento de novos algoritmos da
classe PNLMS empregando um parmetro de passo varivel no tempo. Outras alternativas
incluem algoritmos PNLMS e IPNLMS com parmetros de passo ou fatores de ativao
individuais para cada coeficiente do filtro adaptativo e escolhidos de forma que a velocidade de
convergncia e o erro de regime permanente sejam aprimorados. A escolha dos valores timos
172

para os parmetros dos algoritmos tambm pode ser baseada em outras funes objetivo que
levem em considerao elementos tais como a estimativa do grau de esparsidade da planta ou
a memria relacionada com valores do erro de estimao de iteraes anteriores do processo de
adaptao.
173

REFERNCIAS
Abdohalli, A., Zhang., P., Xue, H. and Li, S. (2013) Enhanced Subspace-Least Mean Square for Fast and
Accurate Power System Measurement. IEEE Transactions on Power Delivery, Vol 28, No 1, pp. 383-
393.
Adali, T. and Haykin, S. (2010) Adaptive Signal Processing: Next Generation Solutions. Wiley & Sons, New
Jersey, USA.
Albert, A. E. and Gardner Jr., L. A. (1967) Stochastic Approximation and Non-Linear Regression. Cambridge,
MA: MIT Press.
Al-Shabilli, A., Taha, B., Elayan, H., Al-Ogaili, F., Alhalabi, L., Weruaga, L. and Jimaa, S. (2015) Sparse
NLMS Adaptive Algorithms for Multipath Wireless Channel Estimation. IEEE 11th International
Conference on Wireless and Mobile Computing, Networking and Communications (WiMob). December
2015.
Arenas-Garca, J. and Figueiras-Vidal, A. (2009) Adaptive Combination of Proportionate Filters for Sparse
Echo Cancellation. IEEE Transactions on Audio, Speech and Language Processing, Vol. 17, No. 6, pp.
1087-1098.
Bajwa, W. U., Haupt, J., Sayeed, A. M. and Nowak, R. (2010) Compressed Channel Sensing: A New
Approach to Estimating Sparse Multipath Channels (invited paper). Proceedings of IEEE, Vol. 98, No.
6, pp. 1058-1076.
Bazaraa, M. S., Sherali H. D. and Shetty, C. M. (2006). Nonlinear Programming: Theory and Algorithms. 3rd
ed. John Wiley & Sons.
Benesty, J. and Gay, S. L. (2002). An improved PNLMS algorithm. IEEE International Conference on
Acoustics, Speech and Signal Processing (ICASSP) 2002, Vol 2, pp. 1881-1884.
Chen, Y., Gu, Y. and Hero III, A. O. (2009). Sparse LMS for System Identification. IEEE International
Conference on Acoustics, Speech and Signal Processing (ICASSP), April 2010, Taipei, Taiwan, pp.
3125-3128.
Chong, E. K. and Zak, S. H. (2013) An Introduction to optimization 4th ed. Wiley and Sons.
Clerc, M. (1999) The swarm and the queen: Towards a deterministic and adaptive particle swarm optimization.
Congress of Evolutionary Computation, Washington, DC, July 1999, pp. 1951-1957.
Das J. C. (2001). Power System Analysis Short-Circuit Load Flow and Harmonics. Marcel Dekker Inc.,
New York, USA.
Das, B. K. and Chakraborty, M. (2014) Sparse Adaptive Filtering by an Adaptive Convex Combination of the
LMS and the ZA-LMS Algorithms. IEEE Transactions on Circuits and SystemsI: Regular Papers. Vol.
61, No. 5, pp. 1499-1507.
Dash, P. K., Krishnanand, K. R. and Padhee, M. (2001). Fast recursive GaussNewton adaptive filter for the
estimation of power system frequency and harmonics in a noisy environment. IET Generation,
Transmission & Distribution, Vol. 5, Issue 12, pp. 12771289.
Deng, H. and Doroslovacky, M. (2005) Improving Convergence of the PNLMS Algorithm for Sparse Impulse
Response Identification. IEEE Signal Processing Letters, Vol. 12, No. 3, pp. 181-184.
Deng, H., Doroslovacky, M. (2006). Proportionate Adaptive Algorithms for Network Echo Cancellation.
IEEE Transactions on Signal Processing, Vol 54, No 5, pp. 1794-1803.
Diniz, P. S. R. (2012) Adaptive Filtering: Algorithms and Practical Implementation 4th ed. Springer.
Duttweiler, D. (2000). Proportionate normalized least-mean-squares adaptation in echo cancelers. IEEE
Transactions on Speech and Audio Processing, Vol 8, No 5, pp.508-518.
Fan, L., He, C., Wang, D. and Jiang, L. (2005) Efficient Robust Adaptive Decision Feedback Equalizer for
Large Delay Sparse Channel. IEEE Transactions on Consumer Electronics, Vol. 51, Issue 2, pp. 449-456.
Farhang-Boroujeny, B. (2013). Adaptive Filters: theory and Applications 2nd ed. Wiley & Sons.
174

Filipski, P. S. and Labaj P. W. (1992). Evaluation of reactive power meters in the presence of high harmonic
distortion. IEEE Transactions on Power Delivery, vol. 7, no. 4, pp. 17931799.
Fishman, G. S. (1996) Monte Carlo: Concepts, Algorithms and Applications. Springer.
Fogel, D. B. (1994) An Introduction to Simulated Evolutionary Optimization. IEEE Transactions on Neural
Networks, Vol. 5, No. 1, pp. 3-14.
Fogel, L. J. (1962) Autonomous automata. Industrial Research, Vol. 4, pp. 14-19.
Fogel, L. J. (1964) On the organization of intellect. Doctoral Dissertation. ULCA.
Gabarda, S. and Cristbal, G. (2009) Detection of events in seismic time series by time-frequency methods.
IET Signal Processing, Vol. 4, Issue 4, pp. 413-420.
Gao, X., Dai, L., Chau, Y. and Wang, Z. (2016) Turbo-Like Beamforming based on Tabu Search Algorithm
for Millimeter-Wave Massive MIMO Systems. IEEE Transactions on Vehicular Technology, Vol. 65,
No. 7, pp. 5731-5737.
Gay, S. L. (1998). Na efficient, fast converging adaptive filter for network echo cancellation. XXXII Asilomar
Conference on Signals, Systems and Computers, Monterey, USA, Vol 1, pp. 394-398.
Glover, F. (1989). Tabu Search Part I. ORSA Journal on Computing, Vol 1, No 3, pp. 190-206
Glover, F. (1990). Tabu Search Part II. ORSA Journal on Computing, Vol 2, No 1, pp. 4-32.
Glover, F. and Laguna, M. (1997) Tabu Search. Springer, USA.
Goodwin, G. C. and Sin, K. S. (1984) Adaptive Filtering, Prediction and Control. Prentice-Hall, New Jersey,
USA.
Gu, Y., Jin, J. and Mei, S. (2009) 0 norm constraint LMS algorithm for sparse system estimation. IEEE Signal
Processing Letters, Vol. 16, No. 9, pp. 774-777.
Haykin, S. (2002) Adaptive Filter Theory 4th ed. Prentice Hall, New Jersey, EUA.
Holland, J. (1975). Adaptation in Natural and Artificial Systems. Ann Arbor: University of Michigan Press.
Homer, J., Mareels, I. and Hoang, C. (2006) Enhanced Detection Guided NLMS Estimation of Sparse FIR-
Modeled Signal Channels. IEEE transactions on Circuits and SystemsI: Regular Papers, Vol. 53, No. 8,
pp. 1783-1791.
Hoyer, P. O. (2004). Non-negative matrix factorization with sparseness constraints. Journal of Machine
Learning Research, vol. 5, pp. 14571469.
Huang, Y., Benesty, J. and Chen, J. (2006) Acoustic MIMO Signal Processing. Springer, New York, EUA.
Jiang, S. and Gu, Y. (2015) Block-sparsity-inducted adaptive filter for multiclustering system identification.
IEEE Transactions on Signal Processing, Vol. 63, No. 20, pp. 5318-5330.
Junior, B. R. P., Cossi, A. M., Contreras, J. and Mantovani, J. R. S. (2013). Multiobjective multistage
distribution system planning using tabu search. IET Generation, Transmission & Distribution, Vol 8,
Issue 1, pp. 35-45.
Kelly, J. L. and Logan, B. F. (1970) Self-adaptive echo canceler. U.S. Patent 3 500 000.
Kennedy, J. and Eberhart, R. C. (1995) Particle swarm optimization. IEEE International Conference on Neural
Networks, Vol. 4, pp. 1942-1948.
Khong, W. H. and Naylor, P. A. (2006) Efficient Use of Sparse Adaptive Filters. Asilomar Conference of
Signals and Systems Computation, October 2006, Pacific Grove, CA, pp. 1375-1379.
Kuslevic, M. D., Tomic, J. J. and Marcetic, D. P. (2009). Active Power Measurement Algorithm for Power
System Signals Under Non-Sinusoidal Conditions and Wide-Range Frequency Deviations. IET
Generation, Transmition & Distribution, Vol. 3, No. 1, pp. 5765.
Kusljevic, M. D. and Poljak, P. D. (2011). Simultaneous Reactive-Power and Frequency Estimations Using
Simple Recursive WLS Algorithm and Adaptive Filtering. IEEE Transactions on Instrumentation and
Measurement, Vol. 60, No. 12.
Laguna, M. (1994) A Guide to Implementing Tabu Search. Investigacin Operativa, Vol. 4, No. 1, pp. 5-25.
175

Li, Y., Gu, Y. and Tang, K. (2006). Parallel NLMS Filters with Stocastic Active Taps and Step-Sizes for
Sparse System Identification. IEEE International Conference on Acoustics, Speech and Signal Processing
(ICASSP) 2006, Tolouse, France, Vol 3, pp. 109-112.
Loganatham, P., Khong, A. W. H. and Naylor, P. A. (2009) A Class of Sparseness-Controlled Algorithms for
Echo Cancellation. IEEE Transactions on Audio, Speech and Language Processing, Vol. 17, No. 8, pp.
1591-1601.
Loganathan, P., Habets, E. A. P. and Naylor, P. A. (2010). Performance Analysis of IPNLMS for Identification
of Time-Varying Systems. IEEE International Conference on Acoustics Speech and Signal Processing
(ICASSP), Dallas, Texas, USA, March 2010, pp. 317-320.
Loganathan, P., Khong, A. W. H. and Naylor, P. A. (2008). A Sparesness Controlled Proportionate Algorithm
for Acoustic Echo Cancellation. European Signal Processing Conference (EUSIPCO) August 2008,
Lausanne, Switzerland.
Luenberger, D. G. and Ye Y. (2008) Linear and Nonlinear Programming. 3rd ed. Springer.
Machowski, J., Bialek, J. W. and Bumby, J. R. (2008). Power System Dynamics Stability and Control 2nd
ed. Wiley & Sons.
Manolakis, D.G., Ingle, V. K. and Kogon, S. M. (2005) Statistical and Adaptive Signal Processing: Spectral
Estimation, Signal Modeling, Adaptive Filtering and Array Processing. Artech House.
Martin, R. K., Seathers, W. A., Williamson, R. C. and Johnson, C. R. (2002) Exploiting Sparsity in Adaptive
Filters. IEEE Transactions on Signal Processing, Vol. 50, No. 8, pp. 1883-1894.
Morgan, D. R. (1980) An analysis of multiple correlation cancellation loops with a filter in the auxiliary path.
IEEE Transactions on Acoustics, Speech and Signal Processing, Vol. ASSP-28, pp. 454-467.
Morgan, D. R. (2013) History, Applications, and Subsequent Development of the FXLMS Algorithm [DSP
History]. IEEE Signal Processing Magazine, Vol. 30, Issue 3, pp. 172-176.
Nagumo, J. and Noda, A. (1967) A learning method for system identification. IEEE Transactions on
Automatic Control, Vol. 4, No. 3, pp. 282-287.
Nascimento, V. H. and Silva, M. T. M. (2014). Chapter 12 Adaptive Filters. Academic Press Library in
Signal Processing, Vol 1, pp. 619-671.
Paleologu, C., Benesty, J. and Ciochina, S. (2010) Sparse Adaptive Filters for Echo Cancellation. Morgan &
Claypool.
Patra, J. P. and Dash, P. K. (2012). Fast Frequency and Harmonic Estimation in Power Systems Using a new
Optimized Adaptive Filter. Springer-Velag Electrical Engineering 95, pp. 171-184.
Pelekanakis, K. and Chitre, M. (2013) New Sparse Adaptive Algorithms Based on the Natural Gradient and
the 0 -Norm. IEEE Journal of Oceanic Engineering, Vol. 38, No. 02, pp. 323-332.
Pelekanakis, K. and Chitre, M. (2013) new Sparse Adaptive Algorithms Based on the Natural Gradient and
the 0 -Norm. IEEE Journal of Oceanic Engineering, Vol. 38, No. 2, pp. 323-332.
Phadke, A., Thorp, J. and Adamiak, M. (1983). A new measurement technique for tracking voltage phasors,
local system frequency, and rate of change of frequency. IEEE Transactions on Power Application
Systems, vol. PAS-102, no. 5, pp. 10251038.
Pham, D. T. and Karaboga, D. (2000) Intelligent Optimization Techniques: Genetic Algorithms, Tabu Search,
Simulated Annealing and Neural Networks. Springer.
Rechenberg, I. (1973) Evolutionsstrategie: Optimerung technischer systeme nach prinzipien der biolgischen
evolution. Stuttgart: Frommann-Holzboog Verlag.
Reynolds, C. W. (1987) Flocks, herds and schools: A distributed behavioral model. ACM SIGGRAPH
Conference, pp. 25-34.
Routray, A., Pradhan, A. K. and Rao K. P. (2002). A novel Kalman filter for frequency estimation of distorted
signals in power system. IEEE Transactions on Instrumenation Measurement, Vol. 51, pp. 469479.
Rubstein, R. Y. (2008) Simulation and the Monte Carlo Method 2nd ed. W iley.
176

Sadiku, M. N. O. (2009). Monte Carlo Methods for Electromagnetics. CRC Press.


Sayed, H. A. (2003). Fundamentals of Adaptive Filtering. Wiley & Sons.
Schilling, R. J. and Harris, S. L. (2012) Fundamentals of Digital Signal Processing Using MATLAB 2nd
ed. Cengage Learning, Stamford, USA.
Schwefel, H.-P. (1965) Kybernetische evolution als strategie der experimentellen forchung in der
strmungstechnik. Diploma thesis, Thecnical University of Berlim.
Shi, K. and Shi, P. (2010) Convergence analysis of sparse LMS algorithms with 1 -norm penality based on
white input signal. Signal Processing, Vol. 90, No. 12, pp. 3289-3293.
Sondhi, M. M. (1967) An adaptive adaptive echo canceler. Bell Systems and Technology Journal, Vol. 46,
No. 3, pp. 497-511.
Sondhi, M. M. and Presti, A. J. (1966) A self-adaptive echo canceler. Bell Systems and Technology Journal,
Vol. 45, No. 12, pp. 1851-1854.
Souza, F. C. (2012). Algoritmos Adaptativos LMS Normalizados Proporcionais: Proposta de um Novo
Algoritmo e sua Modelagem Estocstica. Tese: Doutorado. Universidade Federal de Santa Catarina
(UFSC).
Souza, F. C., Tobias, O. J., Seara, R. and Morgan, D. R. (2010). A PNLMS Algorithm With Individual
Activation Factors. IEEE Transactions on Signal Processing, Vol 58, No 4, pp. 2036-2047.
Starck, J.-L., Murtagh, F. and Fadili, J. M. (2010) Sparse Image and Signal Processing Wavelets, Curvelets,
Morphological Diversity. Cambridge University Press, New York, USA.
Su, G., Jin, J. and Gu, Y. (2012) Performance Analysis of 0 Norm Constraint Least Mean Square Algorithm.
IEEE Transactions on Signal Processing, Vol. 60, No. 5, pp. 2223-2235.
Sun, W. and Yuan, Y-X. (2006) Optimization Theory and Methods: Nonlinear Programming. Springer.
Therrien, C. W. (1992). Discrete Random Signals and Statistical Signal Processing. Englewood Cliffs, NJ:
Prentice-Hall.
Wagner, K. and Doroslovacky, M. (2011) Proportionate-type Normalized Least Mean Square Algorithms
With Gain Allocation Motivated by Mean-Square-Error Minimization for White Input. IEEE
Transactions on Signal Processing, Vol. 59, No. 5, pp. 2410-2415.
Wagner, K. and Doroslovacky, M. (2013) Proportionate-type Normalized Least Mean Square Algorithms.
ISTE and Wiley & Sons.
Widrow B. and Walach, E. (2007) Adaptive Inverse Control: A Signal Processing Approach. IEEE Press.
Widrow, B. and Stearns, P. N. (1985) Adaptive Signal Processing. Prentice Hall, New Jersey, EUA.
Zhao, H. and Zhang, J. (2009). Aptively Combined FIR and Functional Link Artificial Neural Network
Equalizer for Nonlinear Communication Channel. IEEE Transactions on Neural Networks, Vol 20, No
4, pp. 665-674.
Zuo, X., Murray, C. C. and Smith, A. E. (2014). Solving an Extended Double Row Layout Problem Using
Multiobjective Tabu Search and Linear Programing. IEEE Transactions on Automation Science and
Engineering, Vol. 11, No 4, pp. 1122-1132.

Você também pode gostar