Você está na página 1de 55

UNIVERSIDADE REGIONAL DE BLUMENAU

CENTRO DE CIÊNCIAS TECNOLÓGICAS


MESTRADO EM ENGENHARIA ELÉTRICA

MARCOS GABRIEL CHAGAS LIMA

ALGORITMO DE PROJEÇÕES AFINS E PASSO VARIÁVEL COM BASE ERRO


QUADRÁTICO

BLUMENAU
2016
MARCOS GABRIEL CHAGAS LIMA

ALGORITMO DE PROJEÇÕES AFINS E PASSO VARIÁVEL COM BASE ERRO


QUADRÁTICO

Dissertação apresentada ao Programa de Pós-


Graduação em Engenharia Elétrica da
Universidade Regional de Blumenau, como
requisito parcial para a obtenção do grau de
Mestre em Engenharia Elétrica.
Orientador: José Gil Fausto Zipf

MARCOS GABRIEL CHAGAS LIMA

BLUMENAU
2016
Ficha Catalográfica elaborada pela
Biblioteca Universitária da FURB

L732a
Lima, Marcos Gabriel Chagas, 1989-
Algoritmo de projeções afins e passo variável com base erro quadrático / Marcos
Gabriel Chagas Lima. – Blumenau, 2016.
55 f. : il.

Orientador: Jose Gil Fausto Zipf.


Dissertação (Mestrado em Engenharia Elétrica) - Programa de Pós-Graduação em
Engenharia Elétrica, Centro de Ciências Tecnológicas, Universidade Regional de
Blumenau, Blumenau.
Bibliografia: f. 53-55.

1. Engenharia elétrica. 2. Algorítmos. 3. Telecomunicações. 4. Sistemas de


telecomunicação. I. Zipf, Jose Gil Fausto, 1967-. II. Universidade Regional de
Blumenau. Programa de Pós-Graduação em Engenharia Elétrica. III. Título.

CDD 621.382
ALGORITMO DE PROJEÇÕES AFINS E PASSO
VARIÁVEL COM BASE ERRO QUADRÁ TICO

Por

MARCOS GABRIEL CHAGAS LIMA

Esta Dissertação foi julgada adequada para obtenção do Título de Mestre em Engenharia
Elétrica, Área de Concentração Comunicações e Processamento de Sinais, Linha de
pesquisa em Eletromagnetismo Aplicado e Telecomunicações. e aprovada em sua forma
final pelo Programa de Põs-gr uação em Engenharia Elétrica da Universidade Regional
de Blumenau.

BANCAEXA~ADORA

BLUMENAU
1 de Agosto de 2016
Resumo da Dissertação submetida à Universidade Regional de Blumenau como parte dos
requisitos para a obtenção do grau de Mestre em Engenharia Elétrica.

ALGORITMO DE PROJEÇÕES AFINS E PASSO VARIÁVEL COM BASE ERRO


QUADRÁTICO

Marcos Gabriel Chagas Lima


2016

Orientador: Prof. José Gil Fausto Zipf, Dr.


Área de concentração: Telecomunicações
Palavras-chave: Algoritmo de Projeções Afins, Algoritmo VSSAP, Algoritmo VSSLMS,
filtragem adaptativa, identificação de sistemas.
Número de páginas: 54

RESUMO:

Este trabalho de pesquisa apresenta o desenvolvimento de um novo algoritmo de


projeções afins e passo variável (Variable Step-Size Affine Projection Algorithm - VSSAP). A
abordagem do novo algoritmo consiste no uso de uma técnica de atualização do passo variável
com base em projeções do erro quadrático. O algoritmo de projeções afins (Affine Projection
Algorithm - AP) convencional minimiza os problemas causados pela dispersão de autovalores
na matriz de autocorrelação. Já algoritmos de passo variável otimizam a operação dos filtros
adaptativos com o objetivo de alcançar, simultaneamente, velocidades de convergência maiores
e desajustes menores em regime permanente. O objetivo do algoritmo VSSAP apresentado
neste trabalho é unir estas características a um custo computacional aceitável. Resultados de
simulação comprovam a eficácia do algoritmo proposto para sinais de entrada correlacionados,
mantendo um reduzido incremento na complexidade computacional quando comparado ao
Algoritmo AP convencional.
Abstract of Thesis presented to Universidade Regional de Blumenau as a partial fulfillment
of the requirements for the degree of Master in Electrical Engineering..

VARIABLE STEP-SIZE AFFINE PROJECTION ALGORITHM BASED ON


SQUARED ERROR

Marcos Gabriel Chagas Lima


2016

Advisor: Prof. José Gil Fausto Zipf, Dr.


Area of Concentration: Telecommunication
Keywords: Affine Projection Algorithm, VSSAP Algorithm, VSSLMS Algorithm, adaptive
filtering, system identification.
Number of pages: 54

ABSTRACT:

This research work presents a new variable step-size affine projection algorithm
(VSSAP), which consists in the use of a variable step-size update technique based on squared
error projections. The traditional Affine Projection algorithm reduces the eigenvalues
dispersion of the autocorrelation matrix and the variable step-size algorithms optimizes
adaptive filters. Mainly, their objective is to, simultaneously, achieve higher convergence
speeds and reduced steady state misadjustments. The proposed VSSAP main goal is to provide
all this characteristics with a plausible computational cost as well. Our simulation outcome
confirms the proposed algorithm effectiveness for correlated input signals with a slightly
increment in the computational cost when compared to the conventional Affine Projection
Algorithm (AP).
SUMÁRIO

1 INTRODUÇÃO .......................................................................................................................... 9

1.1 Objetivos do Trabalho ............................................................................................... 12

1.2 Organização do Trabalho ........................................................................................... 13

1.3 Publicações da Dissertação ........................................................................................ 13

2 FUNDAMENTAÇÃO TEÓRICA........................................................................................14

2.1 Introdução .................................................................................................................. 14

2.2 Identificação de Sistemas [4], [5] .............................................................................. 14

2.3 Algoritmo LMS [1], [5] ............................................................................................. 16

2.3.1 Derivação do Algoritmo LMS [5] ...................................................................... 16

2.3.2 Teoria da Independência – TI [1] ....................................................................... 19

2.4 Algoritmo de Projeções Afins – AP [10 - 14] ........................................................... 19

2.4.1 Análise de Desempenho do Algoritmo de Projeções Afins [10] ........................ 26

2.5 Estratégias de Ajuste de Passo de Adaptação [5] ...................................................... 31

2.5.1 Algoritmos baseados no Erro Quadrático ........................................................... 32

2.6 Resumo ...................................................................................................................... 32

3 ALGORITMO PROPOSTO .................................................................................................34

3.1 Introdução.................................................................................................................. 34

3.2 Algoritmo VSSAP ........................................................................................................ 35

3.2.1 Padrão de Implementação do VSSAP ................................................................. 36

3.2.2 Comparação da Complexidade Computacional ................................................. 37

4 RESULTADOS COMPARATIVOS ...................................................................................40

4.1 Exemplos .................................................................................................................... 40

4.2 Conclusão ................................................................................................................... 48

5 CONSIDERAÇÕES FINAIS ................................................................................................50


LISTA DE FIGURAS

Figura 2.1 – Diagrama em blocos de um esquema de identificação de sistemas. .................... 15

Figura 2.2 – Verificação da condição de estabilidade. (a) EvTnEvn para N=64 e P=61,
estável; (b)EvTnEvn para N=64 e P=63, instável. [10]........................................................... 30

Figura 2.3 - Verificação da condição de estabilidade. (a) EQM para o caso 2.3(a); (b) EQM
para o caso 2.3 (b).................................................................................................................... 30

Figura 4.1 – EQM com entrada autoregressiva Gaussiana, a0 = 0,75, parâmetros dos
algoritmos VSSLMS, AP e VSSAP, N = 32, Para N = 32, PAP = 2, PVSSAP = 2, α = 0,30 e γ =
1. Simulação feita com 200 realizações.................................................................................... 41

Figura 4.2 – Convergência dos coeficientes dos filtros para Wo(1), Wo(7), Wo(13), Wo(17),
Wo(24). Para N = 32, PAP = 2 e PVSSAP = 2. ............................................................................. 42

Figura 4.3 – EQM com entrada autoregressiva Gaussiana, a0 = 0,75, parâmetros dos
algoritmos VSSLMS, AP e VSSAP, N = 32, PAP = 60, PVSSAP = 2, α = 0,30 e γ = 1. Simulação
feita com 200 realizações. ........................................................................................................ 43

Figura 4.4 – Convergência dos coeficientes dos filtros para Wo(1), Wo(7), Wo(13), Wo(17),
Wo(24). Para N = 32, PAP = 60 e PVSSAP = 2. ........................................................................... 44

Figura 4.5 – EQM com entrada autoregressiva Gaussiana, a0 = 0,85, a1 = -0,51, a2 = -0,23 e a3
= 0,31, parâmetros dos algoritmos VSSLMS, AP e VSSAP, N = 32, PAP = 8, PVSSAP = 2, α =
0,30 e γ = 1. Simulação feita com 200 realizações. .................................................................. 45

Figura 4.6 – Convergência dos coeficientes dos filtros para Wo(1), Wo(7), Wo(13), Wo(17),
Wo(24). Para N = 32, PAP = 8 e PVSSAP = 2. ............................................................................. 46

Figura 4.7 – EQM com entrada autoregressiva Gaussiana, a0 = 0,85, a1 = -0,51, a2 = -0,23 e a3
= 0,31, parâmetros dos algoritmos VSSLMS, AP e VSSAP, N = 32, PAP = 60, PVSSAP = 2, α =
0,30 e γ = 1. Simulação feita com 200 realizações. .................................................................. 47

Figura 4.8 – Convergência dos coeficientes dos filtros para Wo(1), Wo(7), Wo(13), Wo(17),
Wo(24). Para N = 32, PAP = 60 e PVSSAP = 2. ........................................................................... 48
LISTA DE TABELAS

Tabela 2.1 - Principais Passos do Algoritmo LMS .................................................................. 18

Tabela 2.2 – Padrão de Implementação do Algoritmo AP ....................................................... 25

Tabela 2.3 – Padrão de Implementação do Algoritmo AP para sinais AR .............................. 27

Tabela 3.1 – Padrão De Implementação do Algoritmo VSSAP Proposto ............................... 37

Tabela 3.2 - Quadro Comparativo da Complexidade Computacional dos Algoritmos LMS,


NLMS, VSSLMS, AP E VSSAP ............................................................................................. 39

Tabela 4.1 – Tabela Comparativa de Custo Computacional dos Algoritmos AP, VSSAP
Proposto e VSSLMS................................................................................................................. 42
9

1 INTRODUÇÃO

A partir da popularização de processadores de alto desempenho e baixo custo, a


filtragem adaptativa vem se tornando um tema de pesquisa cada vez mais comum no meio
acadêmico. Tais processadores possibilitam inúmeras implementações de diferentes
estruturas de filtragem adaptativa para uma grande diversidade de aplicações.
Em sua maioria, as aplicações práticas não proporcionam informações suficientes
das estatísticas dos sinais envolvidos no processo. Portanto, o uso de filtros lineares
ótimos, denominados filtros de Wiener, não é adequado, uma vez que impossibilita a
estimação da matriz de autocorrelação do sinal de entrada e o vetor de correlação cruzada
entre o sinal de entrada e o sinal desejado. Todavia, a aplicação de um sistema de filtragem
adaptativa é uma alternativa viável para diversas aplicações, das quais destacam-se os
sistemas de comunicação [1], cancelamento e controle ativo de ruído [1], [2], equalização
de canal [1], [3], e a identificação de sistemas [1], [4].
A busca por sistemas de filtragem adaptativa que demonstrem simultaneamente,
altas velocidades de convergência, baixo custo computacional, robustez a erros de
quantização, elevada imunidade a ruídos, capacidade de rastreamento e adequada
precisão em regime permanente é cada vez mais relevante para a área de processamento
digital de sinais.
Filtros adaptativos sempre estão associados a mecanismos de aprendizagem, que de
forma recursiva ajustam seus coeficientes com o objetivo de minimizar uma determinada
função custo, como por exemplo o erro quadrático médio (EQM). A partir desta função
custo, os coeficientes do filtro são atualizados de modo que convirjam, iterativamente,
para a solução ótima, denominada solução de Wiener [1]. A convergência do filtro pode
ocorrer tanto em ambientes estacionários, como em ambientes não-estacionários. A
convergência só ocorrerá em ambientes não-estacionários caso as estatísticas dos sinais
envolvidos variam de forma lenta ou pouco frequente, possibilitando assim que o filtro
adaptativo rastreie o sinal.
10

O algoritmo adaptativo least-mean-square (LMS) [1] é um algoritmo que atualiza


seus coeficientes na direção do negativo do gradiente instantâneo do sinal de erro ao
quadrado e é extremamente popular, pois apresenta características relevantes como:
robustez e baixa complexidade computacional. Sendo assim, tal algoritmo é muito
atrativo para aplicações práticas. Entretanto, possui uma forte dependência entre sua
velocidade de convergência e o grau de correlação do sinal de entrada. Portanto, para
sinais com elevada dispersão de autovalores de sua matriz de autocorrelação, como, por
exemplo, sinais de voz, pode apresentar séria degradação na velocidade de convergência
do algoritmo [3].
A operação convencional do algoritmo LMS se dá pela utilização de um passo de
adaptação fixo. O valor deste passo determina o comportamento do algoritmo, por
exemplo, quanto maior for o valor do passo de adaptação, desde que dentro do limite de
estabilidade, maior será a velocidade de convergência do algoritmo, o que é desejável;
porém, maior será também o erro em excesso em regime permanente. Já um valor de
passo de adaptação reduzido proporciona desajustes menores em regime permanente, ao
preço de uma convergência mais lenta. Dessa forma, a escolha do valor do passo de
adaptação deve levar em conta o compromisso existente entre velocidade de convergência
e desajuste em regime permanente [5]. Entretanto o algoritmo LMS puro apresenta uma
grande sensibilidade a potência do sinal de entrada, dificultando a escolha de um passo
de adaptação que garanta a estabilidade de operação do algoritmo.
Para resolver esse problema surge o algoritmo LMS normalizado (NLMS) que
normaliza o passo de adaptação pela norma euclidiana ao quadrado do vetor de sinal de
entrada. Tal procedimento reduz a sensibilidade do algoritmo a variações na potência do
sinal de entrada [6]. Além disso o algoritmo NLMS também reduz a degradação na
velocidade de convergência, causados por sinais de entrada com elevada dispersão de
autovalores na matriz de autocorrelação. Derivado diretamente do algoritmo NLMS, o
algoritmo de Projeções Afins (Affine Projection Algorithm - AP) é caracterizado por um
subespaço de projeções do algoritmo NLMS, que ao invés de atualizar o seu vetor de
pesos com base no sinal de entrada instantâneo, utiliza uma matriz de projeções do sinal
de entrada para atualizar o vetor de pesos [7]. A partir desta característica, o algoritmo
11

AP tem sua principal utilização em aplicações cujos sinais de entrada são fortemente
correlacionados, tais como: sistemas de comunicação [1], cancelamento e controle ativo
de ruído [1], [2], equalização de canal [1], [3], dentre outras.
O algoritmo AP apresenta uma forte dependência do seu custo computacional em
relação ao número de projeções utilizadas. Contudo, o número de projeções é um fator
preponderante para a velocidade de convergência do algoritmo, ou seja, para obtenção de
altas velocidades de convergência normalmente é necessária a utilização de um maior
número de projeções e, consequentemente, maior a complexidade computacional.
Além disso, o algoritmo AP tem seu passo de adaptação fixo e normalmente
definido de forma empírica. Quanto maior o valor do passo de adaptação, maior a
velocidade de convergência do algoritmo e maior também o desajuste em regime
permanente. Por outro lado, valores reduzidos do passo de adaptação geram desajustes
menores ao custo de uma reduzida velocidade de convergência [8]. Para que ambas
características estejam presentes no filtro adaptativo, é fundamental que haja uma
otimização do valor do passo durante o processo de filtragem adaptativa.
No caso do algoritmo LMS, para viabilizar simultaneamente estas características,
são aplicadas técnicas de passo variável originando os denominados algoritmos Variable
Step-Size LMS Algorithm - VSSLMS que possibilitam o ajuste do valor do passo de
adaptação. O principal objetivo desses algoritmos é iniciar seu processo de convergência
com um valor de passo de adaptação maior, para garantir maiores velocidades de
convergência e reduzir o valor do passo à medida que se aproximam do regime
permanente, garantindo um menor desajuste em regime. Apesar deste filtros adaptativos
apresentarem simultaneamente as características desejáveis, ainda mantêm a dependência
entre sua velocidade de convergência e o grau de correlação do sinal de entrada.
Considerando que o algoritmo AP convencional minimiza os problemas causados
pela dispersão de autovalores na matriz de autocorrelação e que algoritmos de passo
variável otimizam a operação dos filtros adaptativos, o presente trabalho trata do estudo
e desenvolvimento de um padrão de implementação do algoritmo de projeções afins com
passo variável (VSSAP). Os resultados obtidos serão comparados com outros algoritmos
12

já publicados por outros autores, afim de estabelecer o desempenho do algoritmo


proposto.
Neste trabalho, para o desenvolvimento do algoritmo VSSAP, será considerada
uma técnica de ajuste de passo de adaptação semelhante a proposta em [9], baseada no
erro quadrático de estimação.

1.1 Objetivos do Trabalho

Os objetivos deste trabalho estão divididos em objetivos gerais e específicos.

1.1.1 Objetivo geral

1.1.1.1 Desenvolver um algoritmo AP de passo variável baseado no erro


quadrático com o objetivo de melhorar o desempenho do filtro adaptativo
para diversas aplicações;

1.1.2 Objetivos específicos

1.2 Revisitar estudos feitos sobre algoritmos LMS e estratégias de passo


variável;
1.3 Analisar a melhor estratégia de passo variável para ser implementada;
1.4 Estudar e desenvolver um padrão de implementação para o algoritmo AP;
1.5 Propor uma estratégia de ajuste de passo de adaptação de algoritmos
VSSAP;
1.6 Realizar um estudo comparativo entre algoritmos VSSLMS, AP e VSSAP,
utilizando cenários comuns de aplicação.
13

1.7 Organização do Trabalho

O presente trabalho está organizado em 5 capítulos. O primeiro contém a introdução


dos temas discutidos, objetivos, organização da dissertação e publicações originadas deste
trabalho de pesquisa. No Capítulo 2, é apresentada a fundamentação teórica deste
trabalho, em que são tratados os fundamentos básicos da filtragem adaptativa, em
específico para algoritmos LMS e AP. Também são discutidas estratégias de ajuste de
passo de adaptação. Na sequência, no Capítulo 3, o algoritmo de projeções afins com
passo variável baseado no erro quadrático de estimação é exemplificado e justificado
através da base teórica e suas possíveis aplicações. Os resultados obtidos em simulações
são apresentados no Capítulo 4 com suas respectivas análises comparativas de
desempenho. Por fim o Capítulo 5 apresenta as considerações finais deste trabalho de
dissertação.

1.8 Publicações da Dissertação

Este trabalho de pesquisa originou a seguinte publicação:

I. M. G. Lima, J. G. F. Zipf e F. L. Perez, “Algoritmo de Projeções Afins e Passo


Variável Baseado no Erro Quadrático,” XXXIV Simpósio Brasileiro de
Telecomunicações – SBrT2016, Sep.,2016.
14

2 FUNDAMENTAÇÃO TEÓRICA

2.1 Introdução

Neste capítulo, são apresentados os conceitos básicos de algoritmos de muita


importância para filtragem adaptativa, são eles: o algoritmo LMS [1], [5], NLMS [1], [5],
[6], e o AP [1], [8], [10]. O primeiro, é um dos mais populares algoritmos, principalmente
pelo seu baixo custo computacional, robustez e capacidade de rastreamento. E por estes
motivos, vários autores têm estudado seu comportamento em diversas aplicações [11]. Já
o segundo nada mais é do que uma generalização do conhecido algoritmo NLMS. A partir
disso, cada atualização do vetor peso do algoritmo NLMS é visto como uma dimensão
projetada, ou seja, uma projeção afim [12].
Ambos algoritmos serão demonstrados neste trabalho considerando uma aplicação
para identificação de sistemas [1], [4]. A derivação do algoritmo LMS [5], a Teoria da
Independência (TI) [1], [5], também serão brevemente discutidas. Além disso, uma
análise de desempenho do algoritmo AP [10] e algumas estratégias de ajuste de passo de
adaptação [5] que serviram como base para a conformação da proposta do algoritmo
VSSAP [8] também são demonstradas.

2.2 Identificação de Sistemas

O problema de identificação de sistemas foi elencado para este estudo [1], [4].
Conforme a Figura 2.1 e a Equação 2.1, representa o sinal de saída de um sistema
desconhecido que é corrompido por um ruído aditivo de medição.

d  n   wT0 x  n     n  (2.1)
15

onde x  n   [ x  n  x  n  1  x  n  N  1]T denota o vetor de entrada, sendo x  n  um

processo Gaussiano estacionário de média zero e variância 𝜎𝑥2 com N representando o


número de coeficientes do filtro,   n  é um ruído de medição independente e

identicamente distribuído (i.i.d) com variância  2 e w 0 , a planta do sistema a ser

identificado. O sinal de erro é

e(n)  d (n)  x(n)T w(n). (2.2)

Figura 2.1 – Diagrama em blocos de um esquema de identificação de sistemas.

Com w  n  sendo a saída do filtro adaptativo. O objetivo do filtro adaptativo é obter

uma estimativa da resposta ao impulso w 0 do sistema desconhecido a partir das amostras


de sua entrada e saída [1]. Tal estimativa é obtida pela minimização de uma função custo,
no caso do algoritmo LMS o erro quadrático instantâneo. O cancelamento de eco acústico
e de eco linha, proveniente de aplicações em telefonia, são dois dos muitos exemplos do
uso de um problema de identificação de sistemas [1], [4].
16

2.3 Algoritmo LMS

Conforme já citado, o LMS é um algoritmo extremamente popular para filtragem


adaptativa, pela sua simplicidade e robustez. Este algoritmo é baseado em uma estimativa
do gradiente da função do erro ao quadrado, que, na média, converge para a solução de
Wiener.

2.3.2 Derivação do Algoritmo LMS

Como na maioria das aplicações práticas, o comportamento do sinal de entrada não


ˆ J  n  , não pode ser obtido com exatidão. Porém o
é conhecido, o vetor de gradiente,  w

algoritmo LMS permite a utilização de uma aproximação estocástica do vetor gradiente


a partir dos dados instantâneos do sistema. Com isso, o vetor gradiente do sinal do erro
ao quadrado pode ser descrito como

ˆ J  n   e²  n   2e  n  e  n 
 (2.3)
w  n  w  n 
w

Portanto, a derivada de (2.2) em relação ao vetor w  n  é

e  n 
 x  n  (2.4)
w  n 

que se substituída em (2.3), tem-se

ˆ J  n   e²  n   2e  n  x  n  .
 (2.5)
w  n 
w
17

Por fim, substitui-se 2.2 em 2.5, e obtém-se a expressão resultante do gradiente


instantâneo em função do sinal de entrada, do sinal desejado e do vetor de coeficientes
do filtro:
ˆ J  n   2  x  n  xT  n  w  n   d  n  x  n   .
 (2.6)
w  

Com o objetivo de determinar o comportamento médio da expressão 2.6, toma-se


o valor esperado de (2.6) e assim se obtém,

w     
ˆ J  n    2 E  x  n  xT  n  w  n    E  d  n  x  n   .
E  (2.7)

A partir da matriz de autocorrelação R do sinal de entrada e o vetor de correlação


cruzada p entre o sinal de entrada e o sinal desejado, dados respectivamente por

R  E  x  n  xT  n   (2.8)

e
p  E  x  n  d  n   , (2.9)

a expressão 2.7 pode ser reescrita, a partir da Teoria da Independência (TI) [1], como:

ˆ J  n    2  Rw  n   p   
E  ˆ J n. (2.10)
w    w

Com isso é possível observar que a expressão 2.10 corresponde exatamente ao vetor
gradiente do EQM, que é utilizado na atualização dos coeficientes no algoritmo steepest
descent [1]. Portanto, o algoritmo LMS traz aproximadamente os mesmos resultados que
o steepest descent.
Segundo a dinâmica de atualização de coeficientes no algoritmo LMS, que é
ˆ J  n  , a equação recursiva de atualização dos
contrária a estimativa do gradiente  w

coeficientes do filtro é
18

w  n  1  w  n   2 e  n  x  n  . (2.11)

E, substituindo 2𝜇 por 𝜇, sem que haja perda da generalidade, a expressão 2.11 pode ser
reescrita como

w  n  1  w  n    e  n  x  n  . (2.12)

O ajuste de coeficientes, então, é feito pela expressão 2.12 e é calculada a cada


iteração. A partir de um valor inicial w  0  , o vetor converge para a solução de Wiener a

partir da aproximação do EQM para um ponto ótimo na superfície de desempenho [1],


[5]. A tabela abaixo demonstra um resumo do algoritmo LMS.

Tabela 2.1 - Principais Passos do Algoritmo LMS

Definições do Projeto:

 Ordem do filtro N
 Passo de adaptação μ
 Vetor de coeficientes inicial

w  0    0 0 ...0
T

Execução:
Para cada iteração n, calcule

x  n    x  n  x  n  1  x  n  N  1 
T

e  n   d  n   wT  n  x  n 

w  n  1  w  n    e  n  x  n 
19

2.3.3 Teoria da Independência – TI

A modelagem estocástica de algoritmos LMS é, quase sempre, feita com base na


TI [1], teoria essa que assume que o valor de entrada 𝐱(𝑛) e o sinal desejado 𝑑(𝑛)
satisfazem as seguintes condições:

i. Os vetores 𝐱(𝑛), 𝐱(𝑛 − 1),..., 𝐱(l) constituem uma sequência de vetores


estatisticamente independentes;
ii. Em um instante n, o vetor 𝐱(𝑛) é estatisticamente independente dos valores
passados do sinal desejado 𝑑(𝑛 − 1), 𝑑(𝑛 − 2), ..., 𝑑(l);
iii. d(n) é estatisticamente independente de seus valores passados 𝑑(𝑛 − 1),
𝑑(𝑛 − 2), ..., 𝑑(l).

Em uma estrutura convencional de aplicação de filtros FIR, na qual se utiliza linha


de retardo, 𝐱(𝑛) não é estatisticamente independente de suas amostras passadas, mesmo
que seja um ruído branco. Entretanto, a aplicação da TI torna a análise de algoritmos
adaptativos consideravelmente mais simples, uma vez que se não consideradas as
suposições (i) e (iii), a análise estatística do algoritmo LMS se tornaria bastante complexa.
Mesmo que 𝐱(𝑛) não seja independente de 𝐱(𝑛 − 1), a literatura disponível mostra que
o uso da TI é plausível, já que o comportamento médio dos algoritmos é respeitado, ainda
mais quando o passo de adaptação é pequeno.

2.4 Algoritmo de Projeções Afins – AP

Originalmente o algoritmo de projeções afins (AP) foi desenvolvido para melhorar


a velocidade de convergência dos algoritmos baseados em gradientes, especialmente para
sinais de entrada com elevada dispersão dos autovalores da sua matriz de correlação, uma
vez que este caso é crítico para os algoritmos LMS convencionais.
20

Derivado diretamente do algoritmo NLMS, o algoritmo de Projeções Afins (AP) é


caracterizado por um subespaço de projeções do algoritmo NLMS, que ao invés de
atualizar o seu vetor de pesos com base no sinal de entrada instantâneo, utiliza uma matriz
de P projeções do sinal de entrada para atualizar o vetor de pesos.
A partir desta característica de atualização do vetor de pesos, o custo computacional
dos algoritmos AP depende fortemente da ordem de projeções P utilizada. A ordem de
projeções também está diretamente ligada a velocidade de convergência, portanto, altas
velocidades de convergência implicam em alto custo computacional.
Para determinarmos a função o vetor 𝐰(𝑛 + 1) ótimo, é necessário estabelecer um
problema de otimização, no qual se quer obter 𝐱 T (𝑛)𝐰(𝑛) = 𝑑(𝑛) e para isso se faz
necessário minimizar a norma euclidiana de ∆𝐰(𝑛) = 𝐰(𝑛 − 1) − 𝐰(𝑛), sujeita a P + 1
restrições. Para isso considera-se a formulação do algoritmo NLMS como um processo
de otimização com P + 1 restrições para os vetores de entrada

x  n  , x  n  1 ,, x  n  P  ,

todos de dimensão N > P.


Assim,

𝐱 T (𝑛)𝐰(𝑛) = 𝑑(𝑛) (2.13)

𝐱 T (𝑛 − 1)𝐰(𝑛) = 𝑑(𝑛 − 1)

𝐱 T (𝑛 − 𝑃)𝐰(𝑛) = 𝑑(𝑛 − 𝑃).

Onde o algoritmo NLMS corresponde a minimização do problema de otimização com


P=0. [10] Sendo x  n  um vetor que possui as últimas N amostras do vetor de entrada e

d  n  representa o sinal desejado, conforme a Figura 2.1.

Para a solução do problema de otimização é necessário realizar a definição do vetor


de erros modificado.
21

Inicialmente a matriz de observação de X  n  é definida.

 
X  n    x  n  x  n  1  x  n  P  1  , (2.14)
 

com X  n  sendo uma matriz formada por P + 1 vetores de entrada. O vetor do sinal
desejado, d  n  , definido por

d  n    d  n  d  n  P  1  .
T
(2.15)

O vetor erro, representado pela Equação 2.16

e  n   d  n   XT  n  w  n  , (2.16)

e, o vetor de erros a posteriori, e p  n  , definido por:

e p  n   d  n   XT  n  w  n  1 (2.17)

A partir destas definições o método dos multiplicadores de Lagrange [15] pode ser
aplicado para a resolução do problema de otimização. Assim, a função, f  w  n  1  ,

que deve ser minimizada é dada por:


22

f  w  n  1    w  n  1  w  n    w  n  1  w  n   ,
T
(2.18)

sujeita à restrição 𝐞𝒎 (𝑛) = 0.


Construindo a função Lagrangeana h  ,    f    λg   [15] para

minimização em função do vetor 𝐰(𝑛 + 1), obtém-se:

h  w  n  1   f  w  n  1   λ T e p  n  . (2.19)

O vetor 𝛌, que representa os multiplicadores de Lagrange [15], é dado por:

λ   12 ...P 1 
T
(2.20)

onde 𝜆𝑛 é o multiplicador de Lagrange para cada projeção do algoritmo, obedecendo a


restrição de P + 1 multiplicadores.
O primeiro passo é minimizar h  w  n  1  na direção w  n  1 , onde o valor do

multiplicador 𝛌 é fixado.
Fazendo:
h  w  n  1 
0 (2.21)
w  n  1

obtém-se,

f  w  n  1 
 2  w  n  1  w  n   (2.22)
w  n  1

e
23

e p  n  d  n   XT  n  w  n  1
  X  n  (2.23)
w  n  1 w  n  1

A partir desta minimização o ponto de mínimo da função definida pela função


Lagrangeana (2.19) é dado por:

h  w  n  1 
 2  w  n  1  w  n    X  n  λ  0 (2.24)
w  n  1

Logo, buscamos a solução do sistema abaixo:

a. 2  w  n  1  w  n    X  n  λ (2.25)

b. XT  n  w  n   d  n  (2.26)

Parte da solução é obrigar que as Equações 2.25 e 2.26 sejam colineares. Com o
objetivo de resolver o sistema acima, a Equação 2.25 deve ser multiplicada por 𝐗 𝑇

2XT  n  w  n  1  2XT  n  w  n   XT  n  X  n  λ . (2.27)

Simplificando 2.27, tem-se:

1
λ  2  XT  n  X  n   XT  n   w  n  1  w  n   . (2.28)

Substituindo 2.26 em 2.28, obtém-se:

1
λ  2  XT  n  X  n   d  n   XT  n  w  n   . (2.29)
24

Em 2.29 é possível observar que o princípio de operação do algoritmo é zerar o


erro a posteriori, e p .

A partir de 2.29, obtém-se o multiplicador de Lagrange 𝛌, dado por:

1
λ  2  XT  n  X  n   e  n  , (2.30)

e, substituindo 2.30 em 2.25, tem-se:

1
2  w  n  1  w  n    2 X  n   X T  n  X  n   e  n  , (2.31)

resolvendo 2.31, obtém-se

1
w  n  1  w  n   X  n   X  n  X  n  e  n 
T
(2.32)
 

A partir disso é possível observar a conformação do algoritmo de projeções afins,


entretanto ainda se faz necessário a inserção de uma constante de adaptação (𝜇) para que
o algoritmo fique completo (Justificar motivo / Impacto).

1
w  n  1  w  n    X  n   X  n  X  n  e  n 
T
(2.33)
 

O termo X  n  X  n 
T
apresenta uma multiplicação de matrizes, que se mal

condicionadas podem fazer com que existam problemas de convergência. Assim sendo,
se faz necessário o uso de um processo de regularização do algoritmo a partir da inserção
de uma matriz identidade, 𝐈, multiplicada por um épsilon, 𝜀 (número muito pequeno).

1 1
 XT  n  X  n     XT  n  X  n    I  (2.34)
25

Portanto, a função de pesos do algoritmo de projeções afins regularizado é dado


por

 
1
w  n  1  w  n    X  n   I  X  n  X  n  e n
T
(2.35)

Uma vez definidas as equações do algoritmo AP, um padrão de implementação para


o algoritmo AP é apresentado na Tabela 2.2.

Tabela 2.2 – Padrão de Implementação do Algoritmo AP

Definições do Projeto:

 Ordem do filtro N
 Ordem de projeções P
 Passo de adaptação μ
 Vetor de coeficientes inicial

w  0    00...0
T

Execução:
Para cada iteração n, calcule

x  n    x  n  x  n  1  x  n  N  1 
T

 
X  n    x  n  x  n  1  x  n  P  1 
 

e  n  d  n  X  n w n
T

 
1
w  n  1  w  n    X  n   I  X  n  X  n  e n
T
26

2.4.2 Análise de Desempenho do Algoritmo de Projeções Afins

Nesta seção do capítulo 2, será demonstrado um modelo analítico para que o


desempenho do algoritmo possa ser definido. Para analisar o caso geral, o modelo que
melhor demonstra o desempenho do algoritmo é para o caso de um processo
autoregressivo e um passo de adaptação unitário, dado por

P
x  n   ai x  n  i   η  n   X  n  a  η  n  (2.36)
i 1

e 𝛈(𝑛) é um vetor coluna de dimensão N composto por uma sequência gaussiana


branca aleatória

𝛈(𝑛) = [𝜂(𝑛) 𝜂(𝑛 − 1) … 𝜂(𝑛 − 𝑁 + 1)]. (2.37)

A estrutura de mínimo erro quadrático de a dado pelo vetor â  n 

1
â  n    X T  n  X  n   X T  n  X  n  (2.38)

em que XT  n  X  n  é assumido de posto P [10].

Portanto, para sinais de entrada autoregressivos (AR), o algoritmo AP pode ser


decomposto de acordo com a Tabela 2.3.
27

Tabela 2.3 – Padrão de Implementação do Algoritmo AP para sinais AR

 
1. X  n    x  n  x  n  1  x  n  P  
 

1
2. â  n    XT  n  X  n   XT  n  X  n 

3. Φ  n   x  n   X  n  â  n    I  Px  n   x  n 

e  n   d  n   x  n  w  n   x  n  wo  n   r  n   x  n  w  n 
T T T
4.

 Φ n 
5. w  n  1  w  n    T  e n
 Φ  n  Φ  n  

onde d  n   x  n  w o  n   r  n  é a saída desejada e r  n  é o vetor ruído aditivo do


T

canal, sendo este ruído estacionário, branco, gaussiano de variância  r2 , de média zero e
1
independente de η  n  e de w  n  . Assim, P  n   X  n   X T  n  X  n   X T  n  é a

matriz de projeção no subespaço formado pelas colunas da matriz de entrada X(n) .

2.4.2.1 Modelo Analítico para Entradas Autoregressivas [10]

A título de simplificação do trabalho matemático para a análise estatística são


consideradas as seguintes hipóteses:

1. O sinal de entrada x  n  é autoregressivo e gaussiano.

P
E  x  n    0 ; x  n   ai x  n  i   η  n   X  n  a  η  n 
i 1
28

2. O sinal desejado d  n   x  n  w o  n   r  n  , com 𝐫(𝑛) sendo um vetor


T

ruído branco, independente de qualquer outro sinal, de média zero, e


variância 𝜎𝑟2 .
3. Assume-se que o vetor η  n  e a matriz X  n  são estatisticamente

independentes para N>>P.


4. Assim como nos algoritmos NLMS e LMS, a dependência estatística entre
Φ  n  e w  n  pode ser desprezada.

2.4.2.2 Análise do Comportamento Médio dos Coeficientes – [10]

A partir do vetor erro dos coeficientes definido por v  n   w  n   w o , pode-se

avaliar o comportamento médio do algoritmo AP a partir do valor esperado da equação


de atualização do vetor de erro dos coeficientes em função da sequência filtrada do
ruído r  n  , deduzida em [10].

Φ  n  ΦT  n  Φ n
v  n  1  v  n   v n  ra  n  (2.39)
Φ T
n Φ  n Φ T
 n Φ  n

sendo,

P
ra  n   r  n   âi  n  r  n  i  (2.40)
i 1

e, levando em consideração a hipótese da independência entre o sinal descorrelacionado


de entrada Φ  n  e o vetor de coeficientes do filtro w  n  , temos
29

 Φ  n  ΦT  n  
  
 Φ n 

E  v  n  1  E v  n   E  T  E v  n   E  T ra  n   (2.41)
Φ n Φ n 
  Φ n Φ n
 

Entretanto, se desprezada a correlação entre Φ  n  e â  n  o valor do termo


 Φ n 

E T ra  n   pode ser considerado nulo. Assim,
Φ n Φ n
 

Φ  n Φ  n 
 
T

E  v  n  1  E v  n   E  T  E v  n  (2.42)
Φ  n Φ  n 
 

E, se considerados os denominadores como funções variáveis chi-quadradas e não


correlacionadas com os numeradores temos a seguinte aproximação para 𝐺 = 𝑁 − 𝑃 graus
de liberdade

   1 
E  v  n  1  I  2 R ΦΦ  E v  n   1   E v  n 
1
(2.43)
  Φ  G  2    G  2

Portanto, a estabilidade do algoritmo se dá pela expressão

1
1 1 G  N  P  3 (2.44)
G2

Esta condição de estabilidade pode ser analisada pelas figuras a seguir, nas quais
considerou-se uma identificação de sistemas como caso de estudo, onde o vetor w  n  é

aleatoriamente escolhido. [10]


30

Figura 2.2 – Verificação da condição de estabilidade. (a) 𝑬{𝐯 𝐓 (𝒏)}𝑬{𝐯(𝒏)} para N=64 e P=61, estável;
(b)𝑬{𝐯 𝑻 (𝒏)}𝑬{𝐯(𝒏)} para N=64 e P=63, instável. [10]

Já o modelo de comportamento médio do vetor de coeficientes do algoritmo AP


pode ser obtido se substituirmos 𝐯(𝑛) = 𝐰(𝑛) − 𝐰𝐨 em 2.44:

1 1
𝐸{𝐯(𝑛 + 1)} = [𝐈 − 𝜎2 (𝐺−2) 𝐑 𝚽𝚽 ] 𝐸{𝐰(𝑛)} + 𝜎2 (𝐺−2) 𝐑 𝚽𝚽 𝐰𝐨 (2.45)
𝚽 𝚽

Figura 2.3 - Verificação da condição de estabilidade. (a) EQM para o caso 2.3(a); (b) EQM para o caso 2.3 (b)
31

2.5 Estratégias de Ajuste de Passo de Adaptação

A proposta de ajuste do passo de adaptação é uma estratégia muito eficiente para a


redução de desajustes e a elevação das taxas de convergência, ou seja, há uma melhora
significativa no desempenho dos algoritmos em relação a utilização de passo fixo. A partir
disso, é natural que algoritmos de passo variável sejam objeto de muitas pesquisas na área
de filtragem adaptativa. Assim como existem diversas classes de filtros adaptativos,
também é comum a diversidade de técnicas de ajuste do passo de adaptação. Porém para
que seja possível comparar e estudar de forma coerente, estas técnicas são divididas
conforme os critérios utilizados para a adaptação do passo. Portanto a divisão de
categorias adotada é:

 Gradiente do erro quadrático.


 Erro quadrático.
 Autocorrelação do erro.
 Valor absoluto do erro.
 Normalização do vetor de erros.
 Ajuste proporcional aos valores absolutos do vetor de coeficientes.
 Teoria do passo ótimo.
 Otimização com restrição do ruído de medição.

Apesar de citadas, neste trabalho foi escolhida a categoria de Erro Quadrático para
elaborar o estudo e somente esta categoria será brevemente descrita, assim como a técnica
adotada. Entretanto, caso o leitor deste trabalho deseje, poderá encontrar uma descrição
mais profunda desta classificação em [5], capítulo 3.
32

2.5.1 Algoritmos baseados no Erro Quadrático

Nesta categoria, os algoritmos ajustam o passo utilizando o valor do sinal de erro


ao quadrado. Pela própria natureza de ajuste do passo, esses algoritmos possuem, em
geral, uma forte dependência do ruído de medição. Assim, as diferentes estratégias
propostas para essa classe de algoritmos buscam minimizar tal problema. Geralmente, o
desempenho dessa família de algoritmos é afetado por ambientes com baixa razão sinal-
ruído [5].

2.5.1.1 Algoritmo de VSSLMS [16]

O algoritmo de VSSLMS tem o ajuste do passo de adaptação diretamente


controlado pelo sinal de erro ao quadrado, conforme expressão abaixo:

  n  1    n    e²  n  (2.46)

onde α e γ são os parâmetros de controle de ajuste do passo.


Este algoritmo é tido como a referência para esta categoria, na qual o principal
fundamento de ajuste de passo de adaptação é proporcional ao erro de predição, ou seja,
um grande erro de predição leva ao aumento do valor do passo de adaptação. Por esta
razão, em caso pequenos valores do erro de predição, o passo também será reduzido a
valores menores. Isso demonstra que o controle sobre o valor do passo propicia o controle
sobre a velocidade de convergência e desajuste.

2.6 Resumo

Este capítulo exemplificou brevemente conceitos e fundamentos de filtragem


adaptativa, com foco em algoritmos LMS e AP, com o intuito de fornecer as informações
33

adequadas ao leitor deste trabalho. Foram vistos aspectos dos algoritmos LMS e AP, a
partir do algoritmo steepest descent, assim como modelos estocásticos. Também foram
brevemente descritas as classes de algoritmos adaptativos de passo variável e
demonstrado o algoritmo escolhido para o desenvolvimento deste trabalho.
34

3 ALGORITMO PROPOSTO

3.5 Introdução

Atualmente, na literatura disponível, tem-se observado uma busca por soluções de


filtragem adaptativa com maiores velocidades de convergência e ao mesmo tempo um
menor desajuste. Assim sendo, várias estratégias de ajuste no valor do passo de adaptação
para diversos algoritmos baseados em LMS vêm sendo propostas. Entretanto, ainda
existem poucos materiais desenvolvidos com foco em algoritmos AP de passo variável.
Porém com a popularização de processadores de alta capacidade computacional e baixo
custo, propostas de trabalho para algoritmos VSSAP vêm se tornando mais relevantes.
Considerando esse cenário de maior disponibilidade tecnológica, neste capítulo será
apresentada uma nova proposta de algoritmo VSSAP com ajuste de passo de adaptação
baseado no erro quadrático.
Os algoritmos de ajuste de passo de adaptação baseados no erro quadrático utilizam
valor do sinal de erro ao quadrado como um de seus parâmetros para ajuste do passo. Em
[9] é demonstrado a dedução do algoritmo de VSSLMS, algoritmo este é que tido como
referência para os baseados em erro quadrático. A aplicação deste algoritmo é bastante
simples e demonstra boa estabilidade desde que sejam considerados algumas restrições.
Para o algoritmo VSSAP foram consideradas as seguintes restrições de passo:

i. Passo de adaptação máximo: max  1 ;

ii. Passo de adaptação mínimo: 0  min  max ;

A partir destas considerações, o algoritmo proposto, VSSAP, tem seu ajuste


baseado no erro quadrático a partir do algoritmo de VSSLMS [9]. Apesar do uso do
algoritmo de projeções afins e evoluções no algoritmo de VSSLMS, o algoritmo ainda
apresenta alguns problemas característicos dos algoritmos LMS, como a baixa imunidade
a variações no nível de ruído e a necessidade de ajustes de parâmetros. Por fim, os
35

resultados obtidos serão apresentados como comprovação do desempenho do algoritmo


proposto, assim como a verificação da sua precisão.

3.6 Algoritmo VSSAP

Este trabalho de pesquisa foi realizado a partir dos resultados observados em


algoritmos VSSLMS apresentados em [5], e da literatura existente.
Para o desenvolvimento do algoritmo VSSAP proposto foi considerado o algoritmo
de VSSLMS, demonstrado em [9], que através dos parâmetros α e γ controla a atualização
do passo. Este algoritmo, baseado no erro quadrático de estimação, leva em consideração
os valores resultantes da função erro, ou seja, a partir de maiores erros de predição, maior
será o passo de adaptação, produzindo portanto, uma maior velocidade de convergência.
Entretanto, um menor valor do erro resulta em um passo menor, por isso, um menor
desajuste.
O algoritmo proposto neste trabalho visa a utilização de técnicas de passo variável
para obter uma velocidade de conversão superior a algoritmos VSSLMS, mantendo seu
baixo desajuste. Foi constatado que o uso de técnicas de passo variável propicia uma
menor sensibilidade ao número de projeções, consequentemente um maior controle sobre
a complexidade computacional.
Seja o mesmo caso de identificação de sistemas apresentado na Figura 2.1., o valor
instantâneo do erro ao quadrado 𝑒(𝑛) utilizado na Equação 2.46 é substituído pelo vetor
de erro denominado aqui de 𝐞(𝑛). Dessa forma, a equação de atualização do valor do
passo variável passa a ser calculada a partir da norma quadrática do vetor erro, ou seja,
𝐞(𝑛)𝑻 𝐞(𝑛).
Substituindo 𝑒 2 (𝑛) em (2.46) por 𝐞(𝑛)𝑻 𝐞(𝑛), a equação de adaptação do passo variável
obtida é
𝜇(𝑛 + 1) = 𝛼𝜇(𝑛) + 𝛾𝐞(𝑛)𝑻 𝐞(𝑛). (3.1)

Pode-se observar que os parâmetros de controle, α e γ, são mantidos.


36

3.6.1 Padrão de Implementação do VSSAP

Nesta seção a implementação do algoritmo VSSAP desenvolvido nesta pesquisa, é


apresentada. A implementação do VSSAP proposto partiu do princípio que o algoritmo
AP é um algoritmo de alta complexidade computacional.
Para resolver o problema de alta complexidade do algoritmo AP convencional é
considerada a aplicação da técnica de passo variável apresentada em [15] permitindo que
ao início da operação do filtro o valor do passo seja maior, resultando em maior
velocidade de convergência e, à medida que o filtro se aproxima do regime permanente,
o valor do passo é gradualmente reduzido, proporcionando um menor desajuste em
regime. A aplicação da estratégia de passo variável permite que o algoritmo VSSAP
melhore seu desempenho mesmo para um pequeno número de projeções. Com isso há
uma redução na complexidade computacional em relação a operação do algoritmo AP
convencional.
Assim, conforme modelos já discutidos e apresentados anteriormente neste trabalho
o resumo de implementação do algoritmo proposto é dado por
37

Tabela 3.1 – Padrão De Implementação do Algoritmo VSSAP Proposto

Definições do Projeto:

 Ordem do filtro N
 Ordem de projeções P
 Passo de adaptação μ
 Vetor de coeficientes inicial
w  n    00...0
T

Execução:
Para cada iteração n, calcule

x  n    x  n  x  n  1  x  n  N  1 
T

 
X  n    x  n  x  n  1  x  n  P  1 
 

d  n   wT0 X  n   η  n 

e  n  d  n  X  n w n
T

 
1
w  n  1  w  n    (n)X  n   I  X  n  X  n  e n
T

  n  1    n    e  n  e  n 
T

3.6.2 Comparação da Complexidade Computacional

Há uma grande diferença na complexidade dos algoritmos LMS e VSSLMS,


quando comparados aos algoritmos AP. Porém, para um baixo número de projeções, o
uso do algoritmo AP é justificável, desde que apresente desempenho significativamente
superior.
A complexidade computacional do algoritmo AP convencional é dada por
38

NM   P  1 P  3 N   P  1   P  1
3
(3.2)

NA   P  1 P  3 N   P  1   P  1 ,
3 2
(3.3)

sendo NM o número de multiplicações e NA o número de adições executadas pelo do


algoritmo AP convencional.
Com o incremento da estratégia de passo variável as equações de complexidade
computacional para o algoritmo VSSAP proposto são definidas por

NM VSSAP   P  1 P  3 N   P  1   P  1   P  3
3
(3.4)

NAVSSAP   P  1 P  3 N   P  1   P  1   P  1 ,
3 2
(3.5)

sendo NM VSSAP o número de multiplicações e NAVSSAP o número de adições executadas


pelo do algoritmo VSSAP proposto.
Portanto, a complexidade computacional dos algoritmos AP e VSSAP cresce
exponencialmente a medida que mais projeções P são necessárias.
Na Tabela 3.1 apresenta um quadro comparativo dos algoritmos estudados neste
trabalho.
39

Tabela 3.2 - Quadro Comparativo da Complexidade Computacional dos


Algoritmos LMS, NLMS, VSSLMS, AP E VSSAP

Algoritmo Número de Multiplicações Número de Adições


LMS 2N 1 2N

NLMS 3N  1 3N

 P  1 P  3 N   P  1   P  1  P  1 P  3 N   P  1   P  1
3 3 2
AP

VSSLMS 2N  4 2N 1

 P  1 P  3 N   P  1   P  1   P  3  P  1 P  3 N   P  1   P  1   P  1
3 3 2
VSSAP

Como é possível observar, a complexidade computacional dos algoritmos AP


convencional e algoritmo VSSAP proposto está diretamente relacionada ao número de
projeções utilizadas na execução do algoritmo. Sendo assim, se analisada a menor
dependência do número de projeções P do algoritmo VSSAP proposto, o custo
computacional da operação do algoritmo proposto é consideravelmente menor se
comparado ao algoritmo AP convencional. No capítulo 4 os resultados de simulação
atestam o desempenho do algoritmo proposto.
40

4 RESULTADOS DE SIMULAÇÃO

Neste capítulo serão apresentadas simulações de cenários para uma análise


comparativa dos algoritmos VSSLMS, AP e VSSAP. A análise comparativa se dará pela
correlação entre complexidade computacional e resultados de simulação numérica
considerando cenários de aplicação comum.
Os cenários são divididos em exemplos e cada um possui variações nos parâmetros
de simulação para que seja possível observar um maior número de aplicações e
comportamento dos algoritmos.

4.5 Exemplos

Exemplo 4.1.1. A planta utilizada é obtida a partir de uma janela de Hanning com 32
coeficientes. O sinal de entrada é um processo autoregressivo Gaussiano de primeira
ordem, AR(1), definido pela expressão x  n   0, 75 x  n  1  z  n  , com z  n  sendo uma

sequência de ruído branco e Gaussiano com variância  z2  0,01 . A razão sinal-ruído é


SNR = 20dB. As simulações executadas são para N = 32, sendo N o número de
coeficientes dos filtros adaptativos, P  2 e P  60 para o algoritmo AP e P  2 ,
  0,30 e   1 para o algoritmo VSSAP proposto. A dispersão dos autovalores da
matriz de autocorrelação do sinal de entrada é  =184,4 . Além disso foi estabelecido um
valor máximo para os passos de adaptação por questões de estabilidade. Para o VSSLMS
𝜇(𝑛) = 0,01 e para o VSSAP 𝜇(𝑛) = 0,9. Os resultados de simulação são obtidos através
do método de Monte Carlo (MC), considerando uma média de 200 realizações
independentes. Os comportamentos do algoritmo proposto são demonstrados nas Figuras
4.1 - 4.4 respectivamente. As figuras mostram os resultados comparativos e o
comportamento do erro quadrático médio (EQM) do algoritmo proposto.
41

Figura 4.1 – EQM com entrada autoregressiva Gaussiana, a0 = 0,75, parâmetros dos algoritmos VSSLMS, AP
e VSSAP, N = 32, Para N = 32, PAP = 2, PVSSAP = 2, α = 0,30 e γ = 1. Simulação feita com 200 realizações.

A Figura 4.1 demonstra principalmente a alta velocidade do algoritmo VSSAP


proposto frente ao algoritmo AP com o mesmo número de projeções P para um sinal de
entrada de baixa correlação.
42

Figura 4.2 – Convergência dos coeficientes dos filtros para Wo(1), Wo(7), Wo(13), Wo(17),
Wo(24). Para N = 32, PAP = 2 e PVSSAP = 2.

Na Figura 4.2 é ainda mais evidente a diferença de velocidade de convergência do


algoritmo VSSAP proposto se comparado ao algoritmo AP convencional.

Tabela 4.1 – Tabela Comparativa de Custo Computacional dos Algoritmos AP,


VSSAP Proposto e VSSLMS

Algoritmo Multiplicações Adições


AP (P = 2) 510 516
AP (P = 60) 350.018 353.678
VSSAP (P = 2) 515 519
VSSLMS 68 65

A Tabela 4.1 demonstra que o ganho em velocidade do algoritmo VSSAP proposto


exigiu apenas um pequeno incremento na complexidade computacional do algoritmo AP
convencional em relação ao algoritmo VSSAP proposto. Entretanto a menor necessidade
de projeções P resulta em um menor custo computacional na operação do algoritmo.
43

Figura 4.3 – EQM com entrada autoregressiva Gaussiana, a0 = 0,75, parâmetros dos algoritmos VSSLMS,
AP e VSSAP, N = 32, PAP = 60, PVSSAP = 2, α = 0,30 e γ = 1. Simulação feita com 200 realizações.

Já na Figura 4.3, é possível observar que a velocidade de convergência do algoritmo


VSSAP proposto, com P = 2 ainda se mantém superior ao algoritmo AP convencional
com P = 60, ou seja, mesmo para uma baixa complexidade computacional, se comparado
ao algoritmo AP convencional (Tabela 4.1), o algoritmo VSSAP proposto ainda
demonstra desempenho superior.
44

Figura 4.4 – Convergência dos coeficientes dos filtros para Wo(1), Wo(7), Wo(13), Wo(17),
Wo(24). Para N = 32, PAP = 60 e PVSSAP = 2.

A Figura 4.4, demonstra que o algoritmo proposto mantém o desajuste em regime


permanente em níveis bem semelhantes ao algoritmo AP convencional, com P = 60, para
o caso de um sinal de entrada AR(1).

Exemplo 4.1.2. A planta utilizada é obtida a partir de uma janela de Hanning com 32
coeficientes. O sinal de entrada é um processo autoregressivo Gaussiano de primeira
ordem, AR(1), definido pela expressão

x  n   0,90 x  n  1  0, 25 x  n  2   0,53x  n  3  0,31x  n  4   z  n  ,

com z  n  sendo uma sequência de ruído branco e Gaussiano com variância  z2  0,01 .

A razão sinal-ruído é SNR = 20dB. As simulações executadas são para N = 32, sendo N
o número de coeficientes dos filtros adaptativos, P  2 e P  60 para o algoritmo AP e
P  2 ,   0,30 e   1 para o algoritmo VSSAP proposto. A dispersão dos autovalores
45

da matriz de autocorrelação do sinal de entrada é  =3402 . Além disso foi estabelecido


um valor máximo para os passos de adaptação por questões de estabilidade. Para o
VSSLMS μ(n)=0,01 e para o VSSAP μ(n)=0,9. Os resultados de simulação são obtidos
através do método de Monte Carlo (MC), considerando uma média de 200 realizações
independentes. Os comportamentos do algoritmo proposto são demonstrados nas Figuras
4.5 - 4.8 respectivamente. As figuras mostram os resultados comparativos e o
comportamento do erro quadrático médio (EQM) do algoritmo proposto.

Figura 4.5 – EQM com entrada autoregressiva Gaussiana, a0 = 0,85, a1 = -0,51, a2 = -0,23 e a3 = 0,31,
parâmetros dos algoritmos VSSLMS, AP e VSSAP, N = 32, PAP = 8, PVSSAP = 2, α = 0,30 e γ = 1. Simulação feita
com 200 realizações.

Assim como no Exemplo 4.1, a Figura 4.5 demonstra alta velocidade do algoritmo
VSSAP proposto frente ao algoritmo AP com o mesmo número de projeções P. Porém
neste caso o sinal de entrada é um AR(4), ou seja, um sinal bastante correlacionado. Além
disso já é possível observar que há uma degradação na velocidade de convergência do
algoritmo VSSLMS, se comparado ao resultado obtido para um sinal de entrada AR(1),
enquanto o algoritmo VSSAP proposto não demonstrou nenhuma degradação.
46

Figura 4.6 – Convergência dos coeficientes dos filtros para Wo(1), Wo(7), Wo(13), Wo(17),
Wo(24). Para N = 32, PAP = 8 e PVSSAP = 2.

Na Figura 4.6, é possível observar com mais detalhes a degradação na velocidade


de convergência tanto do algoritmo VSSLMS quanto do algoritmo AP convencional.
47

Figura 4.7 – EQM com entrada autoregressiva Gaussiana, a0 = 0,85, a1 = -0,51, a2 = -0,23 e a3 = 0,31,
parâmetros dos algoritmos VSSLMS, AP e VSSAP, N = 32, PAP = 60, PVSSAP = 2, α = 0,30 e γ = 1.
Simulação feita com 200 realizações.

Mesmo para um sinal de entrada AR(4), o algoritmo VSSAP proposto, com P = 2,


teve desempenho superior comparado aos algoritmos VSSLMS e AP convencional, com
P = 60. A Figura 4.7, atesta que a velocidade de convergência não apresentou
degradações se comparada ao resultado obtido para um sinal de entrada AR(1).
48

Figura 4.8 – Convergência dos coeficientes dos filtros para Wo(1), Wo(7), Wo(13), Wo(17),
Wo(24). Para N = 32, PAP = 60 e PVSSAP = 2.

Na Figura 4.8, é possível observar que o desajuste em regime permanente do


algoritmo VSSAP proposto se mantém em melhores níveis se comparado ao desajuste do
algoritmo AP convencional.

4.2 Conclusão

Este capítulo apresentou gráficos comparativos entre os algoritmos VSSLMS, AP


e VSSAP proposto. Conforme esperado os algoritmos AP e VSSAP apresentam uma
complexidade computacional maior que o VSSLMS. Entretanto, como pode-se observar,
o algoritmo VSSAP apresentou uma velocidade de convergência superior mesmo para
um número baixo de projeções P. Além disso o algoritmo proposto demonstrou elevada
velocidade de convergência e nenhuma degradação mesmo para sinais de entrada
altamente correlacionados. Todos os resultados foram obtidos através de cenários comuns
de aplicação e sinais de entrada correlacionados de primeiro e quarto grau. Entre todos os
comparativos, o algoritmo VSSAP proposto teve maior destaque em aplicações para
sinais de entrada mais correlacionados.
49

Além disso, o algoritmo proposto demonstrou ter um desempenho superior a


execução de um algoritmo AP com 60 projeções. Portanto, o uso do algoritmo de passo
variável utilizado para o ajuste do passo no algoritmo VSSAP proposto diminuiu
drasticamente a relevância do número de projeções P. Isso pode ser traduzido em uma
menor complexidade computacional com alta velocidade de convergência.
50

5 CONSIDERAÇÕES FINAIS

Neste trabalho, foram estabelecidas as bases a partir do algoritmo AP convencional


e VSSLMS que permitiram o desenvolvimento do algoritmo VSSAP proposto,
vislumbrando aplicações para o caso de identificação de sistemas. O algoritmo VSSAP
proposto representa uma otimização do algoritmo AP convencional quanto a
sensibilidade ao número de projeções P e velocidade de convergência. Por este motivo o
desempenho obtido foi de grande relevância, uma vez que mesmo para sinais altamente
correlacionados o algoritmo VSSAP proposto manteve uma baixa complexidade
computacional e alta velocidade de convergência, se comparado ao algoritmo AP
convencional.
Com o objetivo de fornecer base teórica ao estudo de algoritmos AP e VSSAP, uma
breve discussão sobre os algoritmos LMS, VSSLMS e AP foi feita no Capítulo 2. Foram
apresentadas suas derivações a partir da Teoria da Independência. Aspectos de
desempenho do algoritmo AP convencional foram abordados com objetivo de esclarecer
o uso das projeções P e sua relação com a estabilidade do algoritmo. Também foram
brevemente descritas as classes de algoritmos adaptativos de passo variável e
demonstrado o algoritmo de passo variável escolhido como base para o desenvolvimento
deste trabalho.
No Capítulo 3, o algoritmo VSSAP foi proposto e demonstrado. Para isso, foi feita
uma breve discussão sobre o desenvolvimento de algoritmo VSSAP e sobre suas
principais características. Posteriormente, o algoritmo VSSAP proposto é explicado,
assim como a técnica de passo variável utilizada e o detalhamento das equações utilizadas
para a conformação do algoritmo. Além disso, um comparativo sobre a complexidade
computacional dos algoritmos LMS, NLMS, VSSLMS AP e VSSAP foi feita. Por fim os
resultados de simulação são apresentados.
Os resultados comparativos foram descritos no Capítulo 4. Para a comparação dos
algoritmos VSSLMS, AP e VSSAP foram estabelecidos 2 cenários de simulação com
sinais de entrada correlacionados de 1º e 4º grau respectivamente. Se comparado com o
algoritmo AP convencional o algoritmo VSSAP proposto demonstrou uma sensibilidade
51

muito baixa ao número de projeções, que pode ser traduzida em menor complexidade
computacional e maior velocidade de convergência. O resultado das simulações
demonstrou que o comportamento do VSSAP proposto com o mínimo de projeções (P=2)
é superior ao AP com 60 projeções (P=60). Em termos gerais, o algoritmo VSSAP
proposto demonstrou um comportamento estável e resultados animadores se comparados
ao dos algoritmos que foi derivado. Porém, é importante registrar que há muitas outras
possibilidades para trabalhos futuros como o desenvolvimento de um modelo estocástico
para o VSSAP proposto, além de estudos comparativos com novos algoritmos VSSAP
baseados em outras técnicas de passo variável.
52

REFERÊNCIAS

[1] S. Haykin, Adaptive Filter Theory 4th ed., Upper Saddler River, NJ: Prentice Hall, 2002.

[2] S. M. Kuo e D. R. Morgan, “Active noise control: a tutorial review,” Proc. of the IEEE, vol.
87, no. 6, pp. 943-973, Jun. 1999.

[3] B. Farhang-Boroujeny, “Channel equalization via channel identification: algorithms and


simulation for rapidly fading HF channels,” IEEE Trans. Communications, vol. 44, no. 11,
pp. 1409-1412, Nov. 1996.

[4] M. Mboup, M. Bonnet e N. Bershad, “LMS coupled adaptive prediction and system
identification: a statistical model and transient mean analysis.,” IEEE Trans. Signal
Process., vol. 42, no. 10, pp. 2607-2615, Oct. 1994.

[5] J. G. F. Zipf, Classificação, Análise Estatística e Novas Estratégias de Algoritmos de Passo


Variável, Florianópolis, 2011.

[6] E. V. Kuhn, “Modelagem Estocástica do Algoritmo NLMS: Revisão e Aprimoramentos,”


Florianópolis, 2012.

[7] H.-C. Shin, A. H. Sayed, Fellow e W.-J. Song, “Variable Step-Size NLMS and Affine
Projection Algorithms,” IEEE Signal Processing Letters, vol. 11, no. 2, pp. 132-135,
February 2004.

[8] M. G. Lima, J. G. F. Zipf e F. L. Perez, “Algoritmo de Projeções Afins e Passo Variável


Baseado no Erro Quadrático,” XXXIV SIMPÓSIO BRASILEIRO DE TELECOMUNICAÇÕES –
SBrT2016, 2016.

[9] R. H. Kwong, “A Variable Step Size LMS Algorithm,” IEEE TRANSACTIONS ON SIGNAL
PROCESSING, vol. 40, nº 7, pp. 1633-1642, 1992.

[10] S. J. M. d. Almeida, Análise Estatística do Comportamento de uma Classe de Algoritmos


de Projeções Afins, Florianópolis,SC, 2004.

[11] S. J. d. Almeida, M. H. Costa e J. C. M. Bermudez, “Comportamento do Algoritmo de


Projeções Afins com Filtragem de Ordem Insuficiente,” em XXV SIMPÓSIO BRASILEIRO DE
TELECOMUNICAÇÕES, Recife, PE, 2007.

[12] Tavathia, S. L. Gay e Sanjeev, “The Fast Affine Projection Algorithm,” Acoustics Research
Department - AT&T Bell Laboratories, 1995.
53

[13] M. S. Bazaraa, H. D. Sherall e C. M. Shetty, Nonlinear Programming - Theory and


Algorithms, 3ª ed., Wiley-Interscience, 1993.

[14] Johnston, R. H. Kwong e E. W., “A variable step size LMS algorithm,” IEEE Trans. Signal
Process., vol. 40, nº 7, pp. 1633-1642, 1992.

[15] A. H. Sayed, Fundamentals of adaptive Filtering, Hoboken, NJ: J. Wiley & Sons IEEE Press,
2003.

[16] J. V. Lopez, J. C. Sanchez e H. P. Meana, “Adaptive echo canceller using a modified LMS
algorithm,” Proc. 2nd Int. Conf. on Electrical and Electronics Engineering (ICEEE), pp. 93-
96, Sep. 2005.

[17] A. Gonzalez, M. Ferrer, F. Albu e M. d. Diego, “Affine Projection Algorithms: Evolution to


Smart and Fast Algorithms and Applications,” August 2012.

[18] C. Paleologu, J. Benesty e S. Ciochina, “A Variable Step-Size Affine Projection Algorithm


Designed for Acoustic Echo Cancellation,” IEEE Transactions on Audio, Speech and
Language Processing, vol. 16, no. 8, November 2008.

[19] J. G. F. Zipf, O. J. Tobias e R. Seara, “Analytical Model for a Variable Step-Size LMS
Algorithm Based on Error Correlation,” 2009.

[20] J. G. F. Zipf, O. J. Tobias e R. Seara, “Non-Parametric VSS-NLMS Algorithm With Control


Parameter Based on the Error Correlation,” 2010.

[21] J. G. F. Zipf e R. Seara, “A Robust Non-Parametric VSS-NLMS Algorithm Based on the Error
Autocorrelation,” May 2011.

[22] Ke, L. Xiao-bo, F. Yang-yu e Peng, “A variable step-size LMS adaptive filtering algorithm,”
em Proc. of the 5th Int. Conf. on Wireless communications, networking and mobile
computing., Beijing, China, IEEE, 2009, pp. 2283-2286.

[23] Gelfand, Y. Wei e S. B., “Noise-constrained least mean squares algorithm,” IEEE Trans.
Signal Process., vol. 49, nº 9, pp. 1961-1970, Setembro 2001.

[24] L. R. Vega, H. Rey e J. Benesty, “A New Robust Variable Step-Size NLMS,” IEEE
Transactions on Signal Process., vol. 56, nº 5, pp. 1878-1893, 2008.

[25] Park, C. H. Lee e PooGyeon, “Optimal Step-Size Affine Projection Algorithm,” IEEE SIGNAL
PROCESSING LETTERS, VOL. 19, NO. 7, July 2012.
54

[26] Q. Yan-bin, M. Fan-gang e G. Lei, “A new variable step size LMS adaptive filtering,” Proc.
IEEE Int. Symp. Industrial Electronics, pp. 1601-1605, 2007.

Você também pode gostar