Escolar Documentos
Profissional Documentos
Cultura Documentos
BLUMENAU
2016
MARCOS GABRIEL CHAGAS LIMA
BLUMENAU
2016
Ficha Catalográfica elaborada pela
Biblioteca Universitária da FURB
L732a
Lima, Marcos Gabriel Chagas, 1989-
Algoritmo de projeções afins e passo variável com base erro quadrático / Marcos
Gabriel Chagas Lima. – Blumenau, 2016.
55 f. : il.
CDD 621.382
ALGORITMO DE PROJEÇÕES AFINS E PASSO
VARIÁVEL COM BASE ERRO QUADRÁ TICO
Por
Esta Dissertação foi julgada adequada para obtenção do Título de Mestre em Engenharia
Elétrica, Área de Concentração Comunicações e Processamento de Sinais, Linha de
pesquisa em Eletromagnetismo Aplicado e Telecomunicações. e aprovada em sua forma
final pelo Programa de Põs-gr uação em Engenharia Elétrica da Universidade Regional
de Blumenau.
BANCAEXA~ADORA
BLUMENAU
1 de Agosto de 2016
Resumo da Dissertação submetida à Universidade Regional de Blumenau como parte dos
requisitos para a obtenção do grau de Mestre em Engenharia Elétrica.
RESUMO:
ABSTRACT:
This research work presents a new variable step-size affine projection algorithm
(VSSAP), which consists in the use of a variable step-size update technique based on squared
error projections. The traditional Affine Projection algorithm reduces the eigenvalues
dispersion of the autocorrelation matrix and the variable step-size algorithms optimizes
adaptive filters. Mainly, their objective is to, simultaneously, achieve higher convergence
speeds and reduced steady state misadjustments. The proposed VSSAP main goal is to provide
all this characteristics with a plausible computational cost as well. Our simulation outcome
confirms the proposed algorithm effectiveness for correlated input signals with a slightly
increment in the computational cost when compared to the conventional Affine Projection
Algorithm (AP).
SUMÁRIO
1 INTRODUÇÃO .......................................................................................................................... 9
2 FUNDAMENTAÇÃO TEÓRICA........................................................................................14
3.1 Introdução.................................................................................................................. 34
Figura 2.2 – Verificação da condição de estabilidade. (a) EvTnEvn para N=64 e P=61,
estável; (b)EvTnEvn para N=64 e P=63, instável. [10]........................................................... 30
Figura 2.3 - Verificação da condição de estabilidade. (a) EQM para o caso 2.3(a); (b) EQM
para o caso 2.3 (b).................................................................................................................... 30
Figura 4.1 – EQM com entrada autoregressiva Gaussiana, a0 = 0,75, parâmetros dos
algoritmos VSSLMS, AP e VSSAP, N = 32, Para N = 32, PAP = 2, PVSSAP = 2, α = 0,30 e γ =
1. Simulação feita com 200 realizações.................................................................................... 41
Figura 4.2 – Convergência dos coeficientes dos filtros para Wo(1), Wo(7), Wo(13), Wo(17),
Wo(24). Para N = 32, PAP = 2 e PVSSAP = 2. ............................................................................. 42
Figura 4.3 – EQM com entrada autoregressiva Gaussiana, a0 = 0,75, parâmetros dos
algoritmos VSSLMS, AP e VSSAP, N = 32, PAP = 60, PVSSAP = 2, α = 0,30 e γ = 1. Simulação
feita com 200 realizações. ........................................................................................................ 43
Figura 4.4 – Convergência dos coeficientes dos filtros para Wo(1), Wo(7), Wo(13), Wo(17),
Wo(24). Para N = 32, PAP = 60 e PVSSAP = 2. ........................................................................... 44
Figura 4.5 – EQM com entrada autoregressiva Gaussiana, a0 = 0,85, a1 = -0,51, a2 = -0,23 e a3
= 0,31, parâmetros dos algoritmos VSSLMS, AP e VSSAP, N = 32, PAP = 8, PVSSAP = 2, α =
0,30 e γ = 1. Simulação feita com 200 realizações. .................................................................. 45
Figura 4.6 – Convergência dos coeficientes dos filtros para Wo(1), Wo(7), Wo(13), Wo(17),
Wo(24). Para N = 32, PAP = 8 e PVSSAP = 2. ............................................................................. 46
Figura 4.7 – EQM com entrada autoregressiva Gaussiana, a0 = 0,85, a1 = -0,51, a2 = -0,23 e a3
= 0,31, parâmetros dos algoritmos VSSLMS, AP e VSSAP, N = 32, PAP = 60, PVSSAP = 2, α =
0,30 e γ = 1. Simulação feita com 200 realizações. .................................................................. 47
Figura 4.8 – Convergência dos coeficientes dos filtros para Wo(1), Wo(7), Wo(13), Wo(17),
Wo(24). Para N = 32, PAP = 60 e PVSSAP = 2. ........................................................................... 48
LISTA DE TABELAS
Tabela 4.1 – Tabela Comparativa de Custo Computacional dos Algoritmos AP, VSSAP
Proposto e VSSLMS................................................................................................................. 42
9
1 INTRODUÇÃO
AP tem sua principal utilização em aplicações cujos sinais de entrada são fortemente
correlacionados, tais como: sistemas de comunicação [1], cancelamento e controle ativo
de ruído [1], [2], equalização de canal [1], [3], dentre outras.
O algoritmo AP apresenta uma forte dependência do seu custo computacional em
relação ao número de projeções utilizadas. Contudo, o número de projeções é um fator
preponderante para a velocidade de convergência do algoritmo, ou seja, para obtenção de
altas velocidades de convergência normalmente é necessária a utilização de um maior
número de projeções e, consequentemente, maior a complexidade computacional.
Além disso, o algoritmo AP tem seu passo de adaptação fixo e normalmente
definido de forma empírica. Quanto maior o valor do passo de adaptação, maior a
velocidade de convergência do algoritmo e maior também o desajuste em regime
permanente. Por outro lado, valores reduzidos do passo de adaptação geram desajustes
menores ao custo de uma reduzida velocidade de convergência [8]. Para que ambas
características estejam presentes no filtro adaptativo, é fundamental que haja uma
otimização do valor do passo durante o processo de filtragem adaptativa.
No caso do algoritmo LMS, para viabilizar simultaneamente estas características,
são aplicadas técnicas de passo variável originando os denominados algoritmos Variable
Step-Size LMS Algorithm - VSSLMS que possibilitam o ajuste do valor do passo de
adaptação. O principal objetivo desses algoritmos é iniciar seu processo de convergência
com um valor de passo de adaptação maior, para garantir maiores velocidades de
convergência e reduzir o valor do passo à medida que se aproximam do regime
permanente, garantindo um menor desajuste em regime. Apesar deste filtros adaptativos
apresentarem simultaneamente as características desejáveis, ainda mantêm a dependência
entre sua velocidade de convergência e o grau de correlação do sinal de entrada.
Considerando que o algoritmo AP convencional minimiza os problemas causados
pela dispersão de autovalores na matriz de autocorrelação e que algoritmos de passo
variável otimizam a operação dos filtros adaptativos, o presente trabalho trata do estudo
e desenvolvimento de um padrão de implementação do algoritmo de projeções afins com
passo variável (VSSAP). Os resultados obtidos serão comparados com outros algoritmos
12
2 FUNDAMENTAÇÃO TEÓRICA
2.1 Introdução
O problema de identificação de sistemas foi elencado para este estudo [1], [4].
Conforme a Figura 2.1 e a Equação 2.1, representa o sinal de saída de um sistema
desconhecido que é corrompido por um ruído aditivo de medição.
d n wT0 x n n (2.1)
15
ˆ J n e² n 2e n e n
(2.3)
w n w n
w
e n
x n (2.4)
w n
ˆ J n e² n 2e n x n .
(2.5)
w n
w
17
w
ˆ J n 2 E x n xT n w n E d n x n .
E (2.7)
R E x n xT n (2.8)
e
p E x n d n , (2.9)
a expressão 2.7 pode ser reescrita, a partir da Teoria da Independência (TI) [1], como:
ˆ J n 2 Rw n p
E ˆ J n. (2.10)
w w
Com isso é possível observar que a expressão 2.10 corresponde exatamente ao vetor
gradiente do EQM, que é utilizado na atualização dos coeficientes no algoritmo steepest
descent [1]. Portanto, o algoritmo LMS traz aproximadamente os mesmos resultados que
o steepest descent.
Segundo a dinâmica de atualização de coeficientes no algoritmo LMS, que é
ˆ J n , a equação recursiva de atualização dos
contrária a estimativa do gradiente w
coeficientes do filtro é
18
w n 1 w n 2 e n x n . (2.11)
E, substituindo 2𝜇 por 𝜇, sem que haja perda da generalidade, a expressão 2.11 pode ser
reescrita como
w n 1 w n e n x n . (2.12)
Definições do Projeto:
Ordem do filtro N
Passo de adaptação μ
Vetor de coeficientes inicial
w 0 0 0 ...0
T
Execução:
Para cada iteração n, calcule
x n x n x n 1 x n N 1
T
e n d n wT n x n
w n 1 w n e n x n
19
x n , x n 1 ,, x n P ,
𝐱 T (𝑛 − 1)𝐰(𝑛) = 𝑑(𝑛 − 1)
X n x n x n 1 x n P 1 , (2.14)
com X n sendo uma matriz formada por P + 1 vetores de entrada. O vetor do sinal
desejado, d n , definido por
d n d n d n P 1 .
T
(2.15)
e n d n XT n w n , (2.16)
e p n d n XT n w n 1 (2.17)
A partir destas definições o método dos multiplicadores de Lagrange [15] pode ser
aplicado para a resolução do problema de otimização. Assim, a função, f w n 1 ,
f w n 1 w n 1 w n w n 1 w n ,
T
(2.18)
h w n 1 f w n 1 λ T e p n . (2.19)
λ 12 ...P 1
T
(2.20)
multiplicador 𝛌 é fixado.
Fazendo:
h w n 1
0 (2.21)
w n 1
obtém-se,
f w n 1
2 w n 1 w n (2.22)
w n 1
e
23
e p n d n XT n w n 1
X n (2.23)
w n 1 w n 1
h w n 1
2 w n 1 w n X n λ 0 (2.24)
w n 1
a. 2 w n 1 w n X n λ (2.25)
b. XT n w n d n (2.26)
Parte da solução é obrigar que as Equações 2.25 e 2.26 sejam colineares. Com o
objetivo de resolver o sistema acima, a Equação 2.25 deve ser multiplicada por 𝐗 𝑇
1
λ 2 XT n X n XT n w n 1 w n . (2.28)
1
λ 2 XT n X n d n XT n w n . (2.29)
24
1
λ 2 XT n X n e n , (2.30)
1
2 w n 1 w n 2 X n X T n X n e n , (2.31)
1
w n 1 w n X n X n X n e n
T
(2.32)
1
w n 1 w n X n X n X n e n
T
(2.33)
O termo X n X n
T
apresenta uma multiplicação de matrizes, que se mal
condicionadas podem fazer com que existam problemas de convergência. Assim sendo,
se faz necessário o uso de um processo de regularização do algoritmo a partir da inserção
de uma matriz identidade, 𝐈, multiplicada por um épsilon, 𝜀 (número muito pequeno).
1 1
XT n X n XT n X n I (2.34)
25
1
w n 1 w n X n I X n X n e n
T
(2.35)
Definições do Projeto:
Ordem do filtro N
Ordem de projeções P
Passo de adaptação μ
Vetor de coeficientes inicial
w 0 00...0
T
Execução:
Para cada iteração n, calcule
x n x n x n 1 x n N 1
T
X n x n x n 1 x n P 1
e n d n X n w n
T
1
w n 1 w n X n I X n X n e n
T
26
P
x n ai x n i η n X n a η n (2.36)
i 1
1
â n X T n X n X T n X n (2.38)
1. X n x n x n 1 x n P
1
2. â n XT n X n XT n X n
3. Φ n x n X n â n I Px n x n
e n d n x n w n x n wo n r n x n w n
T T T
4.
Φ n
5. w n 1 w n T e n
Φ n Φ n
canal, sendo este ruído estacionário, branco, gaussiano de variância r2 , de média zero e
1
independente de η n e de w n . Assim, P n X n X T n X n X T n é a
P
E x n 0 ; x n ai x n i η n X n a η n
i 1
28
Φ n ΦT n Φ n
v n 1 v n v n ra n (2.39)
Φ T
n Φ n Φ T
n Φ n
sendo,
P
ra n r n âi n r n i (2.40)
i 1
Φ n ΦT n
Φ n
E v n 1 E v n E T E v n E T ra n (2.41)
Φ n Φ n
Φ n Φ n
Φ n
E T ra n pode ser considerado nulo. Assim,
Φ n Φ n
Φ n Φ n
T
E v n 1 E v n E T E v n (2.42)
Φ n Φ n
1
E v n 1 I 2 R ΦΦ E v n 1 E v n
1
(2.43)
Φ G 2 G 2
1
1 1 G N P 3 (2.44)
G2
Esta condição de estabilidade pode ser analisada pelas figuras a seguir, nas quais
considerou-se uma identificação de sistemas como caso de estudo, onde o vetor w n é
Figura 2.2 – Verificação da condição de estabilidade. (a) 𝑬{𝐯 𝐓 (𝒏)}𝑬{𝐯(𝒏)} para N=64 e P=61, estável;
(b)𝑬{𝐯 𝑻 (𝒏)}𝑬{𝐯(𝒏)} para N=64 e P=63, instável. [10]
1 1
𝐸{𝐯(𝑛 + 1)} = [𝐈 − 𝜎2 (𝐺−2) 𝐑 𝚽𝚽 ] 𝐸{𝐰(𝑛)} + 𝜎2 (𝐺−2) 𝐑 𝚽𝚽 𝐰𝐨 (2.45)
𝚽 𝚽
Figura 2.3 - Verificação da condição de estabilidade. (a) EQM para o caso 2.3(a); (b) EQM para o caso 2.3 (b)
31
Apesar de citadas, neste trabalho foi escolhida a categoria de Erro Quadrático para
elaborar o estudo e somente esta categoria será brevemente descrita, assim como a técnica
adotada. Entretanto, caso o leitor deste trabalho deseje, poderá encontrar uma descrição
mais profunda desta classificação em [5], capítulo 3.
32
n 1 n e² n (2.46)
2.6 Resumo
adequadas ao leitor deste trabalho. Foram vistos aspectos dos algoritmos LMS e AP, a
partir do algoritmo steepest descent, assim como modelos estocásticos. Também foram
brevemente descritas as classes de algoritmos adaptativos de passo variável e
demonstrado o algoritmo escolhido para o desenvolvimento deste trabalho.
34
3 ALGORITMO PROPOSTO
3.5 Introdução
Definições do Projeto:
Ordem do filtro N
Ordem de projeções P
Passo de adaptação μ
Vetor de coeficientes inicial
w n 00...0
T
Execução:
Para cada iteração n, calcule
x n x n x n 1 x n N 1
T
X n x n x n 1 x n P 1
d n wT0 X n η n
e n d n X n w n
T
1
w n 1 w n (n)X n I X n X n e n
T
n 1 n e n e n
T
NM P 1 P 3 N P 1 P 1
3
(3.2)
NA P 1 P 3 N P 1 P 1 ,
3 2
(3.3)
NM VSSAP P 1 P 3 N P 1 P 1 P 3
3
(3.4)
NAVSSAP P 1 P 3 N P 1 P 1 P 1 ,
3 2
(3.5)
NLMS 3N 1 3N
P 1 P 3 N P 1 P 1 P 1 P 3 N P 1 P 1
3 3 2
AP
VSSLMS 2N 4 2N 1
P 1 P 3 N P 1 P 1 P 3 P 1 P 3 N P 1 P 1 P 1
3 3 2
VSSAP
4 RESULTADOS DE SIMULAÇÃO
4.5 Exemplos
Exemplo 4.1.1. A planta utilizada é obtida a partir de uma janela de Hanning com 32
coeficientes. O sinal de entrada é um processo autoregressivo Gaussiano de primeira
ordem, AR(1), definido pela expressão x n 0, 75 x n 1 z n , com z n sendo uma
Figura 4.1 – EQM com entrada autoregressiva Gaussiana, a0 = 0,75, parâmetros dos algoritmos VSSLMS, AP
e VSSAP, N = 32, Para N = 32, PAP = 2, PVSSAP = 2, α = 0,30 e γ = 1. Simulação feita com 200 realizações.
Figura 4.2 – Convergência dos coeficientes dos filtros para Wo(1), Wo(7), Wo(13), Wo(17),
Wo(24). Para N = 32, PAP = 2 e PVSSAP = 2.
Figura 4.3 – EQM com entrada autoregressiva Gaussiana, a0 = 0,75, parâmetros dos algoritmos VSSLMS,
AP e VSSAP, N = 32, PAP = 60, PVSSAP = 2, α = 0,30 e γ = 1. Simulação feita com 200 realizações.
Figura 4.4 – Convergência dos coeficientes dos filtros para Wo(1), Wo(7), Wo(13), Wo(17),
Wo(24). Para N = 32, PAP = 60 e PVSSAP = 2.
Exemplo 4.1.2. A planta utilizada é obtida a partir de uma janela de Hanning com 32
coeficientes. O sinal de entrada é um processo autoregressivo Gaussiano de primeira
ordem, AR(1), definido pela expressão
com z n sendo uma sequência de ruído branco e Gaussiano com variância z2 0,01 .
A razão sinal-ruído é SNR = 20dB. As simulações executadas são para N = 32, sendo N
o número de coeficientes dos filtros adaptativos, P 2 e P 60 para o algoritmo AP e
P 2 , 0,30 e 1 para o algoritmo VSSAP proposto. A dispersão dos autovalores
45
Figura 4.5 – EQM com entrada autoregressiva Gaussiana, a0 = 0,85, a1 = -0,51, a2 = -0,23 e a3 = 0,31,
parâmetros dos algoritmos VSSLMS, AP e VSSAP, N = 32, PAP = 8, PVSSAP = 2, α = 0,30 e γ = 1. Simulação feita
com 200 realizações.
Assim como no Exemplo 4.1, a Figura 4.5 demonstra alta velocidade do algoritmo
VSSAP proposto frente ao algoritmo AP com o mesmo número de projeções P. Porém
neste caso o sinal de entrada é um AR(4), ou seja, um sinal bastante correlacionado. Além
disso já é possível observar que há uma degradação na velocidade de convergência do
algoritmo VSSLMS, se comparado ao resultado obtido para um sinal de entrada AR(1),
enquanto o algoritmo VSSAP proposto não demonstrou nenhuma degradação.
46
Figura 4.6 – Convergência dos coeficientes dos filtros para Wo(1), Wo(7), Wo(13), Wo(17),
Wo(24). Para N = 32, PAP = 8 e PVSSAP = 2.
Figura 4.7 – EQM com entrada autoregressiva Gaussiana, a0 = 0,85, a1 = -0,51, a2 = -0,23 e a3 = 0,31,
parâmetros dos algoritmos VSSLMS, AP e VSSAP, N = 32, PAP = 60, PVSSAP = 2, α = 0,30 e γ = 1.
Simulação feita com 200 realizações.
Figura 4.8 – Convergência dos coeficientes dos filtros para Wo(1), Wo(7), Wo(13), Wo(17),
Wo(24). Para N = 32, PAP = 60 e PVSSAP = 2.
4.2 Conclusão
5 CONSIDERAÇÕES FINAIS
muito baixa ao número de projeções, que pode ser traduzida em menor complexidade
computacional e maior velocidade de convergência. O resultado das simulações
demonstrou que o comportamento do VSSAP proposto com o mínimo de projeções (P=2)
é superior ao AP com 60 projeções (P=60). Em termos gerais, o algoritmo VSSAP
proposto demonstrou um comportamento estável e resultados animadores se comparados
ao dos algoritmos que foi derivado. Porém, é importante registrar que há muitas outras
possibilidades para trabalhos futuros como o desenvolvimento de um modelo estocástico
para o VSSAP proposto, além de estudos comparativos com novos algoritmos VSSAP
baseados em outras técnicas de passo variável.
52
REFERÊNCIAS
[1] S. Haykin, Adaptive Filter Theory 4th ed., Upper Saddler River, NJ: Prentice Hall, 2002.
[2] S. M. Kuo e D. R. Morgan, “Active noise control: a tutorial review,” Proc. of the IEEE, vol.
87, no. 6, pp. 943-973, Jun. 1999.
[4] M. Mboup, M. Bonnet e N. Bershad, “LMS coupled adaptive prediction and system
identification: a statistical model and transient mean analysis.,” IEEE Trans. Signal
Process., vol. 42, no. 10, pp. 2607-2615, Oct. 1994.
[7] H.-C. Shin, A. H. Sayed, Fellow e W.-J. Song, “Variable Step-Size NLMS and Affine
Projection Algorithms,” IEEE Signal Processing Letters, vol. 11, no. 2, pp. 132-135,
February 2004.
[9] R. H. Kwong, “A Variable Step Size LMS Algorithm,” IEEE TRANSACTIONS ON SIGNAL
PROCESSING, vol. 40, nº 7, pp. 1633-1642, 1992.
[12] Tavathia, S. L. Gay e Sanjeev, “The Fast Affine Projection Algorithm,” Acoustics Research
Department - AT&T Bell Laboratories, 1995.
53
[14] Johnston, R. H. Kwong e E. W., “A variable step size LMS algorithm,” IEEE Trans. Signal
Process., vol. 40, nº 7, pp. 1633-1642, 1992.
[15] A. H. Sayed, Fundamentals of adaptive Filtering, Hoboken, NJ: J. Wiley & Sons IEEE Press,
2003.
[16] J. V. Lopez, J. C. Sanchez e H. P. Meana, “Adaptive echo canceller using a modified LMS
algorithm,” Proc. 2nd Int. Conf. on Electrical and Electronics Engineering (ICEEE), pp. 93-
96, Sep. 2005.
[19] J. G. F. Zipf, O. J. Tobias e R. Seara, “Analytical Model for a Variable Step-Size LMS
Algorithm Based on Error Correlation,” 2009.
[21] J. G. F. Zipf e R. Seara, “A Robust Non-Parametric VSS-NLMS Algorithm Based on the Error
Autocorrelation,” May 2011.
[22] Ke, L. Xiao-bo, F. Yang-yu e Peng, “A variable step-size LMS adaptive filtering algorithm,”
em Proc. of the 5th Int. Conf. on Wireless communications, networking and mobile
computing., Beijing, China, IEEE, 2009, pp. 2283-2286.
[23] Gelfand, Y. Wei e S. B., “Noise-constrained least mean squares algorithm,” IEEE Trans.
Signal Process., vol. 49, nº 9, pp. 1961-1970, Setembro 2001.
[24] L. R. Vega, H. Rey e J. Benesty, “A New Robust Variable Step-Size NLMS,” IEEE
Transactions on Signal Process., vol. 56, nº 5, pp. 1878-1893, 2008.
[25] Park, C. H. Lee e PooGyeon, “Optimal Step-Size Affine Projection Algorithm,” IEEE SIGNAL
PROCESSING LETTERS, VOL. 19, NO. 7, July 2012.
54
[26] Q. Yan-bin, M. Fan-gang e G. Lei, “A new variable step size LMS adaptive filtering,” Proc.
IEEE Int. Symp. Industrial Electronics, pp. 1601-1605, 2007.