Você está na página 1de 90

INSTRUMENTAÇÃO E PROCESSAMENTO DIGITAL DE SINAIS EM

DISPOSITIVOS AUDITIVOS

Marco Aurélio Nunes Pereira Filho

Projeto de Graduação apresentado ao Curso


de Engenharia Elétrica da Escola Politécnica,
Universidade Federal do Rio de Janeiro, como
parte dos requisitos necessários à obtenção do
tı́tulo de Engenheiro.

Orientador: Markus Vinı́cius Santos Lima

Rio de Janeiro
Maio de 2021
INSTRUMENTAÇÃO E PROCESSAMENTO DIGITAL DE SINAIS EM
DISPOSITIVOS AUDITIVOS

Marco Aurélio Nunes Pereira Filho

PROJETO DE GRADUAÇÃO SUBMETIDO AO CORPO DOCENTE DO


CURSO DE ENGENHARIA ELÉTRICA DA ESCOLA POLITÉCNICA
DA UNIVERSIDADE FEDERAL DO RIO DE JANEIRO COMO PARTE
DOS REQUISITOS NECESSÁRIOS PARA A OBTENÇÃO DO GRAU DE
ENGENHEIRO ELETRICISTA.

Examinado por:

Prof. Markus Vinı́cius Santos Lima, D.Sc.

Prof. Michel Pompeu Tcheou, D.Sc.

Prof. Tadeu Nagashima Ferreira, D.Sc.

RIO DE JANEIRO, RJ – BRASIL


MAIO DE 2021
Pereira Filho, Marco Aurélio Nunes
Instrumentação e processamento digital de sinais em
dispositivos auditivos/Marco Aurélio Nunes Pereira Filho.
– Rio de Janeiro: UFRJ/ Escola Politécnica, 2021.
XVI, 74 p.: il.; 29, 7cm.
Orientador: Markus Vinı́cius Santos Lima
Projeto de Graduação – UFRJ/ Escola Politécnica/
Curso de Engenharia Elétrica, 2021.
Referências Bibliográficas: p. 64 – 66.
1. Aparelhos auditivos. 2. Filtros espaciais. 3.
Filtros adaptativos. I. Lima, Markus Vinı́cius Santos. II.
Universidade Federal do Rio de Janeiro, Escola Politécnica,
Curso de Engenharia Elétrica. III. Tı́tulo.

iii
A todos que me acompanharam
nessa jornada.

iv
Agradecimentos

Ser engenheiro eletricista, aquele que, dentre diversas outra funções, faz com que
o dia continue iluminado mesmo após o Sol se pôr, é algo que nunca imaginei que
viria a me tornar durante os primeiros anos de minha vida, na cidade de Plácido de
Castro, no interior do estado do Acre. Foram muitos os acontecimentos e encontros
ao longo desses 24 anos que levaram até este momento. Esta dedicatória vai para
todos aqueles que, direta ou indiretamente, fizeram parte dessa história.
Dedico este trabalho a Deus, autor do meu destino, meu guia, socorro, Aquele
presente nos momentos de angústia e nos de vitória.
Agradeço ao Exército Brasileiro, que moldou o meu caráter e me ensinou os
conceitos de honra, força de vontade, determinação, disciplina, entre outros. Onde
aprendi que nossos sonhos são feitos em cima daquilo que realizamos e que nada na
vida tem graça se você não lutar para conquistar.
Deixo aqui meu mais sincero obrigado a todas as universidades das quais tive
a honra de ser aluno, em especial à UFRN, onde tudo começou. Também gostaria
de agradecer a dois professores muito importantes em minha formação, o professor
João Carlos Pádua, da UnB, por ter me ajudado a liberar todo meu potencial no
que diz respeito a arte da matemática, e o professor Markus Lima, da UFRJ, pelos
conselhos, por sempre ter acreditado em seus pupilos e por todos os anos em que
tive a honra de trabalhar ao seu lado, desde monitor até orientando.
Agradeço imensamente à minha namorada, Mariana Muniz, por todo apoio,
suporte e paciência dedicados a mim para que este trabalho fosse concluı́do o mais
rápido possı́vel. Não tenha dúvida que a defesa deste trabalho de conclusão de curso
é um passo importante para que fiquemos juntos para sempre.
Deixei o agradecimento mais significativo para o final, o que deve ser feito à
minha famı́lia, em especial à minha mãe, Margareth, por nunca ter medido esforços
para me dar o melhor que o mundo poderia oferecer, por sempre ter estado ao meu
lado mesmo quando eu, erroneamente, achava que o melhor era estar sozinho, todas
as partes boas do meu ser são graças a você!

v
Resumo do Projeto de Graduação apresentado à Escola Politécnica/ UFRJ como
parte dos requisitos necessários para a obtenção do grau de Engenheiro Eletricista.

INSTRUMENTAÇÃO E PROCESSAMENTO DIGITAL DE SINAIS EM


DISPOSITIVOS AUDITIVOS

Marco Aurélio Nunes Pereira Filho

Maio/2021

Orientador: Markus Vinı́cius Santos Lima


Curso: Engenharia Elétrica

Apresenta-se neste trabalho de conclusão de curso uma introdução ao funciona-


mento geral de um dispositivo auditivo e as etapas de processamento pelas quais um
sinal coletado pelo mesmo sofre. As técnicas descritas englobam desde o processo de
filtragem espacial (beamforming), onde sinais provenientes de direções interferidoras
são atenuados, até a etapa de filtragem adaptativa de ruı́do, onde um filtro adapta
seus coeficientes de modo a ser apto a seguir um dado sinal desejado. As técnicas
e algoritmos abordados ao longo do presente texto são empregadas em dispositivos
auditivos visando melhorar seu desempenho, promovendo uma melhor qualidade de
vida e integração social a seus usuários, portadores de deficiências auditivas.

vi
Abstract of Undergraduate Project presented to POLI/UFRJ as a partial fulfillment
of the requirements for the degree of Engineer.

INSTRUMENTATION AND DIGITAL SIGNAL PROCESSING FOR


HEARING-AIDS

Marco Aurélio Nunes Pereira Filho

May/2021

Advisor: Markus Vinı́cius Santos Lima


Course: Electrical Engineering

In this work of course conclusion, we present an introduction to the general func-


tioning of hearing-aid devices and the stages of processing in which a signal received
by it undergoes. The methods described range from spatial filtering (beamforming),
where signals from interfering directions are attenuated, to the stage of adaptive fil-
tering, where a filter adapts its coefficients in order to be able to track a given desired
signal. The techniques and algorithms discussed in the present text are employed
in hearing-aid devices aiming to improve their performance, promoting a better life
quality and social integration for their users, people with hearing disabilities.

vii
Sumário

Lista de Figuras x

Lista de Tabelas xii

Lista de Sı́mbolos xiii

Lista de Abreviaturas xvi

1 Introdução 1
1.1 Motivações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Composição e Estrutura do Trabalho . . . . . . . . . . . . . . . . . . 3
1.4 Notação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3

2 Introdução aos Dispositivos Auditivos 5


2.1 História . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.2 O ouvido humano e o som . . . . . . . . . . . . . . . . . . . . . . . . 7
2.2.1 Anatomia do ouvido humano . . . . . . . . . . . . . . . . . . 7
2.2.2 O funcionamento da audição . . . . . . . . . . . . . . . . . . . 7
2.3 Causas da perda auditiva . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.4 Dispositivos auditivos digitais . . . . . . . . . . . . . . . . . . . . . . 10

3 Filtragem Espacial e Estimação do Ângulo de Incidência 12


3.1 Filtragem espacial - Beamforming . . . . . . . . . . . . . . . . . . . . 12
3.1.1 Delay-and-sum beamforming . . . . . . . . . . . . . . . . . . . 12
3.1.2 Modelagem Matemática . . . . . . . . . . . . . . . . . . . . . 13
3.2 Estimação do ângulo de incidência . . . . . . . . . . . . . . . . . . . 16
3.2.1 Arranjo linear uniforme (ULA) . . . . . . . . . . . . . . . . . 17
3.2.2 A estimação do TDOA . . . . . . . . . . . . . . . . . . . . . . 18
3.2.3 O método da correlação cruzada . . . . . . . . . . . . . . . . . 20
3.3 Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.3.1 Beamforming delay-and-sum . . . . . . . . . . . . . . . . . . . 21

viii
3.3.2 TDOA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

4 Filtros Adaptativos e Realce de Voz 26


4.1 Explicação Básica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
4.2 Fundamentos de Filtragem Adaptativa . . . . . . . . . . . . . . . . . 27
4.2.1 Representação de sinais . . . . . . . . . . . . . . . . . . . . . . 29
4.2.2 Estrutura Transversal de Filtros Adaptativos . . . . . . . . . . 30
4.3 Algoritmos Adaptativos . . . . . . . . . . . . . . . . . . . . . . . . . 31
4.3.1 Filtro de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . 32
4.3.2 O Algoritmo LMS . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.3.3 O Algoritmo LMS Normalizado (NLMS) . . . . . . . . . . . . 36
4.3.4 O Algoritmo RLS . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.4 Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
4.4.1 Simulação utilizando o algoritmo LMS . . . . . . . . . . . . . 43
4.4.2 Simulação para o algoritmo NLMS . . . . . . . . . . . . . . . 45
4.4.3 Simulação para o algoritmo RLS . . . . . . . . . . . . . . . . . 48

5 Cancelador Adaptativo de Ruı́do 51


5.1 Primeiro Estágio - Beamformer Griffiths-Jim . . . . . . . . . . . . . . 52
5.2 Realce de voz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.3 Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.3.1 Resultados obtidos para ruı́dos com alta potência . . . . . . . 56
5.3.2 Resultados obtidos para ruı́dos com baixa potência e para múl-
tiplas fontes interferidoras . . . . . . . . . . . . . . . . . . . . 60

6 Conclusão 62

Referências Bibliográficas 64

A Conceitos básicos de Probabilidade e Estatı́stica 68


A.1 Variáveis Aleatórias . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
A.2 Distribuição de probabilidade . . . . . . . . . . . . . . . . . . . . . . 70
A.3 Valor Esperado, ou Média Estatı́stica, de uma Variável Aleatória . . . 72

B Demonstrações 73
B.1 Filtro de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

ix
Lista de Figuras

2.1 Chifre de animal adaptado para funcionar como um aparelho auditivo.


Esta figura foi gentilmente cedida por [4]. . . . . . . . . . . . . . . . . 5
2.2 Homem utilizando uma trompeta auditiva. Esta imagem foi gentil-
mente cedida por [6]. . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.3 Dispositivo auditivo analógico. Esta figura foi gentilmente cedida por
[8]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2.4 Dispositivo auditivo digital. Esta figura foi gentilmente cedida por [9]. 7
2.5 Composição do aparelho auditivo humano. Esta figura foi gentilmente
cedida por [12]. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
2.6 Células ciliadas. Esta figura foi gentilmente cedida por [14]. . . . . . . 9
2.7 Componentes de um dispositivo auditivo digital. . . . . . . . . . . . . 11

3.1 Etapas do processo de filtragem delay-and-sum assumindo que a fonte


sonora 1 é a de interesse, enquanto a fonte sonora 2 é a interferidora. 13
3.2 Um arranjo linear uniformemente distribuı́do. . . . . . . . . . . . . . 14
3.3 Ilustração da estimação da DOA. . . . . . . . . . . . . . . . . . . . . 17
3.4 Ilustração da estimação do TDOA. . . . . . . . . . . . . . . . . . . . 19
3.5 Cenário do experimento. . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.6 Sinal de interesse. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.7 Sinal captado pelo microfone no 3. . . . . . . . . . . . . . . . . . . . . 23
3.8 Comparação dos sinais. . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.9 Picos de correlação-cruzada. . . . . . . . . . . . . . . . . . . . . . . . 24

4.1 Estrutura básica de um filtro adaptativo. x(k) denota o sinal de


entrada, e(k) o sinal de erro e y(k), por fim, compõe o sinal de saı́da. 27
4.2 Sinal determinı́stico vs Sinal aleatório. . . . . . . . . . . . . . . . . . 30
4.3 Filtro Adaptativo Transversal. . . . . . . . . . . . . . . . . . . . . . . 31
4.4 Filtro adaptativo transversal de ordem N + 1. . . . . . . . . . . . . . 34
4.5 Curva de uma função convexa (forma de tigela). . . . . . . . . . . . . 37
4.6 Arquitetura utilizada nas simulações. . . . . . . . . . . . . . . . . . . 43
4.7 Convergência do algoritmo para µ = 0, 001. . . . . . . . . . . . . . . . 44

x
4.8 Curvas de aprendizado para o algoritmo LMS. . . . . . . . . . . . . . 45
4.9 Senoide descorrompida pela solução de Wiener e pelo filtro utilizando
LMS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.10 Convergência do algoritmo NLMS para µ = 0, 75. . . . . . . . . . . . 46
4.11 Comparação entre LMS e NLMS. . . . . . . . . . . . . . . . . . . . . 47
4.12 Curvas de aprendizado para diferentes µ. . . . . . . . . . . . . . . . . 48
4.13 Formas de onda da solução de Wiener vs das soluções implementadas. 49
4.14 Convergência para o algoritmo RLS. . . . . . . . . . . . . . . . . . . 49
4.15 Comparação entre os algoritmos adaptativos. . . . . . . . . . . . . . . 50

5.1 Cancelador adaptativo de ruı́do. . . . . . . . . . . . . . . . . . . . . . 51


5.2 Griffiths-Jim beamformer. . . . . . . . . . . . . . . . . . . . . . . . . 52
5.3 Sinais fora de coerência. . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.4 Sinais em coerência. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.5 Voz e ruı́do de referência. . . . . . . . . . . . . . . . . . . . . . . . . . 54
5.6 Arquitetura com VAD inserido. . . . . . . . . . . . . . . . . . . . . . 54
5.7 Segundo estágio do cancelador adaptativo de ruı́do. . . . . . . . . . . 55
5.8 Cancelador adaptativo de ruı́do. . . . . . . . . . . . . . . . . . . . . . 55
5.9 Arquitetura do cancelador adaptativo de ruı́do. . . . . . . . . . . . . 56
5.10 Arquitetura utilizada no experimento. . . . . . . . . . . . . . . . . . . 56
5.11 Correlação cruzada entre os sinais coletados pelos microfones. . . . . 57
5.12 Correlação cruzada entre o sinal de saı́da do filtro espacial e o sinal
coletado pelo microfone da trilha inferior. . . . . . . . . . . . . . . . . 57
5.13 Sinais antes e após o beamforming. . . . . . . . . . . . . . . . . . . . 58
5.14 Saı́da do VAD. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.15 Sinais de referência. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.16 Resultado do cancelador adaptativo de ruı́do. . . . . . . . . . . . . . 60
5.17 Cenário de simulação levando em conta múltiplas fontes emissoras. . . 61
5.18 Resultado obtido ao final do processamento do cancelador adaptativo
de ruı́do. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

A.1 Visualização de uma variável aleatória. É uma função que associa um


valor numérico para cada resultado do experimento. . . . . . . . . . . 69

xi
Lista de Tabelas

3.1 Atrasos em cada sensor, . . . . . . . . . . . . . . . . . . . . . . . . . 25

4.1 Comparação entre as diferentes soluções . . . . . . . . . . . . . . . . 48


4.2 Indicadores de performance. . . . . . . . . . . . . . . . . . . . . . . . 50

5.1 Primeiro coeficiente do filtro adaptativo. . . . . . . . . . . . . . . . . 60

A.1 Distribuição de probabilidade de um dado não viciado de 6 faces . . . 70

xii
Lista de Sı́mbolos

(·)T operador de transposição de uma matriz, p. 31

E(·) operador de esperança estatı́stica, p. 20

J(·) função custo, p. 32

M número de microfones que compõe o arranjo de sensores, p. 13

O(·) complexidade computacional, p. 41

Y (jω) componente resultante da filtragem espacial, p. 15

Ys (jω) componente resultante da filtragem espacial oriunda do sinal


de interesse, p. 15

Yv (jω) componente resultante da filtragem espacial oriunda dos sinais


interferidores, p. 15

αmn coeficiente de atenuação da onda ao se propagar da n-ésima


fonte de sinal até o m-ésimo microfone do arranjo de sensores,
p. 20

αm fator de atenuação da onda devido aos efeitos de propagação,


p. 19

η métrica empregada para medir a eficiência do filtro espacial, p.


23

γ constante usada para evitar singularidades, p. 38

R̂ valor estimado da matriz de autocorrelação, p. 4

p̂ valor estimado do vetor de correlação cruzada, p. 35

λ fator de esquecimento, p. 40

λmax maior autovalor da matriz de autocorrelação, p. 36

xiii
R matriz de autocorrelação, p. 3

RD matriz de correlação cruzada determinı́stica, p. 41

SD (k) inversa da matriz de correlação cruzada determinı́stica, p. 42

p vetor de correlação cruzada, p. 32

pD vetor de correlação cruzada determinı́stico, p. 41

s(k) representa o vetor em que cada elemento corresponde à par-


cela do sinal de interesse coletada por um dos microfones que
compõe o arranjo de sensores, p. 15

v(k) corresponde à parcela do(s) sinal(is) interferidor(es) em cada


um dos canais do arranjo de sensores, p. 15

w(k) vetor de coeficientes do filtro adaptativo, p. 31

wo solução de Wiener, p. 3

x(k) vetor de entrada do filtro adaptativo, p. 31

µ fator de aprendizagem estático, p. 35

µk fator de aprendizagem dinâmico, p. 38

ω frequência angular, p. 15

τ atraso de um microfone para seu adjacente, p. 14

τm atraso do m-ésimo microfone para o microfone de referência,


p. 15

θ ângulo de incidência da frente de onda com o arranjo de sen-


sores, p. 14

c velocidade de propagação do som no ar, p. 13

d distância entre dois microfones adjacentes do arranjo de senso-


res, p. 14

d(k) sinal desejado, p. 3

e(k) sinal de erro do filtro adaptativo, p. 29

e+ (k) erro à posteriori, p. 37

j unidade imaginária, p. 15

xiv
n(k) sinal de ruı́do, p. 43

nref (k) ruı́do de referência, p. 52

px(k) (y) função densidade de probabilidade, p. 32


CC
rxy (p) função de correlação cruzada entre duas funções x(k) e y(k),
p. 20

s(k) sinal da fonte de interesse, p. 18

vm (k) ruı́do aditivo do m-ésimo microfone do arranjo de sensores, p.


19

vref (k) voz de referência, p. 52

wi (k) valor do i-ésimo coeficiente do filtro adaptativo, p. 31

x(k) sinal de interesse do filtro adaptativo, p. 27

y(k) sinal de saı́da do filtro adaptativo, p. 27

xv
Lista de Abreviaturas

DOA Direction of Arrival, p. 16

ESPRIT Estimation of Signal Parameters Via Rotational Invariance, p.


16

FIR Finite-Duration Impulse Response, p. 29

GCC Generalized Cross-Correlation, p. 16

IEEE Institute of Electrical and Electronics Engineers, p. 26

IIR Infinite-Duration Impulse Response, p. 29

LMS Least Mean Square, p. 2

MSE Mean Square Error, p. 32

MUSIC Multiple Signal Classification, p. 16

NIHL Noise-Induced Hearing Loss, p. 9

NLMS Normalized Least Mean Square, p. 3

OMS Organização Mundial da Saúde, p. 1

PDF Probability Density Function, p. 32

PDS Processamento Digital de Sinais, p. 11

RLS Recursive Least Squares, p. 2

SNR Signal-to-Noise Ratio, p. 43

TD-LMS Transform-Domain Least Mean Square, p. 62

TDOA Time-Difference of Arrival, p. 3

ULA Uniform Linear Array, p. 13

VAD Voice Activity Detector, p. 54

WSS Wide Sense Stationary, p. 34

xvi
Capı́tulo 1

Introdução

1.1 Motivações
Segundo a Organização Mundial da Saúde (OMS), 466 milhões de pessoas sofrem
de deficiências auditivas atualmente, sendo 34 milhões crianças, e com a estimativa
de que até 2030 este número suba para 630 milhões [1]. O impacto de tal limitação
é visto tanto no emocional quanto no bem-estar daqueles acometidos, prejudicando
suas interações sociais e sua qualidade de vida em geral.
As causas desse elevado número de portadores de deficiências auditivas podem
ser vinculadas ao envelhecimento da população mundial como um todo, em virtude
das recentes e expressivas descobertas no campo da medicina, mas outros fatores
que justificam esse aumento são: o uso de maneira irregular de fones de ouvido, a
excessiva poluição sonora a qual boa parte da população dos grandes centros urbanos
está sujeita, a repetida exposição a sons de elevada intensidade no ambiente de
trabalho, tais quais os experimentados por trabalhadores de obras, músicos, DJs
etc.
Seres humanos são organismos altamente dependentes de seus sentidos. É através
deles que construı́mos nossa percepção de meio, sendo todos eles cruciais à sua
maneira para que possamos usufruir da vida em sua plenitude. Qualquer tipo de
deficiência sensorial pode levar à depressão, sobretudo a auditiva. Foi constatado que
11,4% dos pacientes com limitações auriculares sofrem de depressão grave, enquanto
19,4% apresentam um quadro moderado da doença [2].
Como tais perdas auditivas podem levar a inúmeros problemas, tanto fı́sicos
quanto psı́quicos, é crucial que a tecnologia envolvida em aparelhos auditivos es-
teja em constante evolução, uma vez que estes dispositivos desempenham um papel
chave na reabilitação e no tratamento desses pacientes. Atualmente, dispositivos au-
ditivos apresentam componentes que visam melhorar a qualidade do sinal recebido,
converter o sinal analógico captado pelo instrumento em digital, objetivando a im-

1
plementação e a execução de operações matemáticas, dentre outras funcionalidades.
Embora avanços significativos no campo de hearing aid tenham sido obtidos nos
últimos anos, ainda há muito espaço para melhorias e desenvolvimento de novas
tecnologias. Somado a isso, o fato das empresas produtoras de dispositivos audi-
tivos usualmente não divulgarem as tecnologias envolvidas na construção de seus
aparelhos bem como os resultados de suas pesquisas, visando manterem vantagens
comerciais competitivas, impulsiona estudos na área.

1.2 Objetivos
Este trabalho visa, através da utilização de técnicas de processamento de sinais,
tais como filtragem espacial e adaptativa, promover uma análise sobre o funciona-
mento geral de dispositivos auditivos digitais. Outro escopo constituinte do projeto
é representado pela implementação e análise de desempenho, em ambientes contro-
lados, de diferentes estruturas e algoritmos que se propõe a melhorar a qualidade
do sinal captado por um grupo de microfones omnidirecionais, semelhantemente ao
que é feito por um aparelho auditivo. As metas especı́ficas são:

ˆ Descrever os principais componentes eletrônicos e sensores que constituem um


dispositivo auditivo digital, a função especı́fica de cada um dos hardwares bem
como suas funcionalidades;

ˆ Aplicar técnicas de filtragem espacial, beamforming, visando atenuar os sinais


interferidores em um arranjo de microfones;

ˆ Estimar o ângulo de incidência de uma frente de onda em um conjunto de


microfones através do cálculo do atraso que o sinal entre eles apresenta;

ˆ Implementação de filtros adaptativos empregando técnicas de aprendizagem


baseadas tanto em métodos estatı́sticos (famı́lia LMS) quanto determinı́sticos
(famı́lia RLS) e aplicá-los com o objetivo de promover o realce de voz em sinais
corrompidos por ruı́do;

ˆ Variação de parâmetros especı́ficos dos filtros adaptativos implementados al-


mejando realizar uma análise comparativa entre os mesmos, através de indi-
cadores de desempenho, como velocidade de convergência, razão sinal-ruı́do
etc;

ˆ Implementação e análise de um cancelador adaptativo de ruı́do cuja arquite-


tura emprega módulos de filtragem espacial e adaptativa.

2
1.3 Composição e Estrutura do Trabalho
O presente projeto encontra-se estruturado da seguinte forma:

ˆ O capı́tulo 2 detalha o funcionamento de um dispositivo auditivo digital ge-


nérico, englobando os componentes de hardware envolvidos na constituição do
mesmo e suas contribuições individuais na arquitetura do aparelho como um
todo;

ˆ O capı́tulo 3 apresenta a fundamentação teórica básica no que diz respeito


a filtragem espacial, abordando a técnica mais utilizada ao se trabalhar com
esse modelo de filtro, o beamformer delay-and-sum. Este capı́tulo do texto
também descreve como foi obtido o valor estimado do ângulo de incidência de
um sinal receptor, através do cálculo de seu TDOA (do inglês, time-difference
of arrival );

ˆ O capı́tulo 4 aborda os fundamentos de filtragem adaptativa bem como o


funcionamento dos algoritmos adaptativos mais encontrados na literatura, o
LMS, o NLMS e o RLS, além de realizar uma análise comparativa entre eles;

ˆ No capı́tulo 5 é proposto um modelo de arquitetura de dispositivo auditivo, um


cancelador adaptativo de ruı́do, construı́do através da integração dos blocos
de processamento mencionados anteriormente, isto é, as etapas de filtragem
espacial e adaptativa;

ˆ No capı́tulo 6 são apresentadas as conclusões pertinentes e trabalhos futuros.

Todos os resultados obtidos e que serão apresentados ao longo deste trabalho


foram coletados via simulação computacional utilizando uma base de dados pré-
existente.

1.4 Notação
A notação utilizada ao longo deste trabalho segue as convenções especificadas a
seguir:

ˆ Matrizes são representadas por letras maiúsculas e em negrito, como a matriz


de autocorrelação R;

ˆ Assume-se que todos os vetores são do tipo coluna e representados por letras
minúsculas e em negrito, como o vetor de coeficientes da solução de Wiener
wo ;

3
ˆ Escalares são representados por letras minúsculas, por exemplo, o valor do
sinal desejado d(k) no instante k;

ˆ Elementos que denotam estimativas de outras grandezas apresentarão um


acento circunflexo sobre o sı́mbolo de sua respectiva variável. Exemplo: O
valor estimado da matriz de autocorrelação R é R̂.

4
Capı́tulo 2

Introdução aos Dispositivos Auditivos

2.1 História
A história dos aparelhos auditivos remete a centenas de anos atrás e tentativas
de corrigir problemas de audição existem desde o perı́odo em que o homem pôs a
mão atrás da orelha para tentar ouvir melhor.
Os primeiros dispositivos auditivos de que se tem registro datam do século XIII,
perı́odo em que aqueles acometidos por perdas auditivas utilizavam chifres de ani-
mais, como vacas e ovelhas, e os colocavam próximos ao ouvido. Apesar de não
amplificar o som, este equipamento promovia uma ligeira melhora na audição [3],
graças à maior área de captação oferecida pelo chifre.

Figura 2.1: Chifre de animal adaptado para funcionar como um aparelho auditivo.
Esta figura foi gentilmente cedida por [4].

Foi apenas cinco séculos depois, todavia, que uma evolução aos tradicionais chi-
fres de animais foi proposta, a trompeta auditiva [5], cujo princı́pio de funcionamento
também se baseava em aumentar a área coletora de som.
No século XIX, a invenção do telefone, combinada com as recentes descobertas no
campo do eletromagnetismo, abriu espaço para um nova era de aparelhos auditivos
[5]. As pessoas com capacidade auditiva reduzida observavam que conseguiam ouvir
melhor ao conversar no telefone do que pessoalmente. Thomas Edison, que por volta

5
Figura 2.2: Homem utilizando uma trompeta auditiva. Esta imagem foi gentilmente
cedida por [6].

do final da década de 1860 começava a experimentar problemas de audição, viu uma


oportunidade e inventou o transmissor telefônico a carbono para a Western Union
Telegraph, o qual amplificava o ganho do sinal em 15 dB [3].
No decorrer do século XX, os avanços tecnológicos, sobretudo na área da eletrô-
nica, possibilitaram o desenvolvimento de novos aparelhos auditivos, como dispositi-
vos auditivos movidos a válvulas (os quais possuı́am caixas grandes) [5]. A migração
para a forma de aparelho auditivo pequeno e compacto, que se ajusta a orelha, como
conhecemos hoje, só começou em 1948, quando a Bell Telephone Laboratories in-
ventou o primeiro transistor [7], o que possibilitou o desenvolvimento dos primeiros
dispositivos auditivos analógicos. Estes equipamentos convertiam ondas sonoras em
sinais elétricos e amplificavam a amplitude do sinal, tornando mais elevado o som
coletado.

Figura 2.3: Dispositivo auditivo analógico. Esta figura foi gentilmente cedida por
[8].

Ao final do século XX e começo do século XXI, os dispositivos auditivos passa-


ram a ser digitais [5], ou seja, dispositivos que convertem ondas sonoras em sinais
digitais, códigos numéricos, como os de um computador, o que facilita o tratamento
e processamento do sinal. Antes de nos adentrarmos na eletrônica e instrumenta-
ção envolvida em um dispositivo auditivo digital, é de suma importância ter um

6
entendimento sobre como funciona o aparelho auditivo humano.

Figura 2.4: Dispositivo auditivo digital. Esta figura foi gentilmente cedida por [9].

2.2 O ouvido humano e o som


Ouvir, ou percepção auditiva, refere-se à habilidade de perceber sons através de
vibrações [10], variações de pressão no meio externo, entre outros, sendo o ouvido
humano o responsável por nosso sentido auditivo.

2.2.1 Anatomia do ouvido humano


A maior parte do aparelho auditivo humano está concentrada no interior da
cabeça, sendo constituı́do por três partes distintas [11]:

ˆ Ouvido externo: responsável por captar as ondas de som do meio externo e


conduzi-las ao ouvido médio. É composto pelo pavilhão auditivo (orelha) e
pelo canal auditivo;

ˆ Ouvido médio: responsável por guiar o som do ouvido externo para o ouvido
interno. É constituı́do pela membrana timpânica, ou tı́mpano, e por três
ossı́culos, os três menores ossos do corpo humano, o martelo, a bigorna e o
estribo;

ˆ Ouvido interno: como o nome sugere, é a parte mais interna do ouvido. A


cóclea e pelos canais semicirculares que têm como finalidade a função auditiva
e de equilı́brio, respectivamente.

A Figura 2.5 ilustra a composição do aparelho auditivo humano.

2.2.2 O funcionamento da audição


O processo de ouvir é fruto de uma série de eventos que transformam as ondas
sonoras no meio externo em sinais elétricos. O nervo auditivo, em seguida, carrega
os impulso elétricos produzidos até o cérebro.

7
Figura 2.5: Composição do aparelho auditivo humano. Esta figura foi gentilmente
cedida por [12].

O processo de conversão do som de uma onda mecânica para um sinal elétrico


pode ser resumido pelas seguintes etapas [13]:

1. As ondas sonoras atingem o pavilhão auditivo e viajam por uma passagem


estreita, o canal auditivo, em direção à membrana timpânica;

2. O som então atinge o tı́mpano, uma pequena membrana em forma de tambor,


fazendo-a vibrar;

3. As vibrações do tı́mpano são transmitidas para os três pequenos ossos consti-


tuintes do ouvido médio, os quais começam a vibrar;

4. Estas vibrações são sentidas pela cóclea. É nela que a energia mecânica pre-
sente nas ondas sonoras é convertida em sinais elétricos capazes de serem
interpretados pelo cérebro. De maneira simplificada, a cóclea (do grego kokh-
lia, que significa caracol) é uma estrutura helicoidal preenchida por fluidos (os
fluidos cocleares) e que contém, em seu interior, células sensoriais chamadas
de células ciliadas. Uma vez que a cóclea é atingida pelas vibrações dos ossos
do ouvido médio, isso agita o fluido existente em seu interior, o que estimula
as células ciliadas, o agitar destas células faz com que pequenos poros existen-
tes nelas se abram, os quais liberam substâncias quı́micas que geram impulsos
elétricos que viajam até o cérebro pelo nervo auditivo, onde a informação é
decodificada em um som que possamos entender.

Em geral, para que o nosso sistema auditivo seja capaz de interpretar determi-
nado sinal sonoro, é necessário que a onda sonora tenha uma frequência mı́nima

8
Figura 2.6: Células ciliadas. Esta figura foi gentilmente cedida por [14].

de 20 vibrações por segundo e uma frequência máxima de 20.000 vibrações por se-
gundo. Diferentemente de outros animais altamente dependentes de ecolocalização,
como golfinhos, os quais conseguem ouvir sons em um intervalo de frequência que
varia entre 7-170.000 Hz, seres humanos, usualmente, têm sua audição limitada a
uma faixa de 20-20.000 Hz [15]. Sons com frequência inferiores a 20 Hz são chama-
dos de infrassônicos, enquanto que os que apresentam valores superiores a 20.000 Hz
recebem a classificação de ultrassônicos.

2.3 Causas da perda auditiva


São inúmeros os fatores que podem levar um ser humano a apresentar perdas
auditivas, tais como envelhecimento, condições genéticas, exposição constante a sons
de elevada intensidade, estilo de vida, doenças etc.
Em mamı́feros, células ciliadas, semelhantemente a nossos neurônios, não são
substituı́dos ao longo de nossa vida [16]. À medida que envelhecemos, essas células
sensoriais morrem e não são repostas, o que leva a uma redução da capacidade
auditiva. Tal fenômeno é conhecido como presbiacusia. Para homens, isso começa a
se manifestar a partir dos 25 anos, enquanto que aos 30 para mulheres.
Fora o envelhecimento natural, outro fator que funciona como catalisador para
a morte das células ciliadas é a chamada perda auditiva induzida (em inglês, noise-
induced hearing loss ou, simplesmente, NIHL), também conhecida como trauma
acústico, i.e., a exposição a sons de intensidade elevada. A exposição a esse sons
é a causa de aproximadamente metade dos casos de perda auditiva, acometendo
cerca de 5% da população mundial [17]. A maioria dos quadros de perda parcial da
percepção auricular não se deve ao envelhecimento, mas a lesões causadas por esse
tipo de som.

9
Fora as causas já apresentadas, outros agravantes que podem reduzir a capa-
cidade auditiva são hipertensão, diabetes e o uso de medicamentos agressivos ao
ouvido [18] [19].

2.4 Dispositivos auditivos digitais


Nos dias atuais, dispositivos auditivos se assemelham a microcomputadores loca-
lizados na(s) orelha(s) dos portadores de limitações auriculares. Apesar do tamanho
pequeno, cada aparelho auditivo apresenta um conjunto sofisticado de componentes
que, quando operando de maneira integrada, possibilitam uma melhora substancial
no processo de reabilitação auditiva de seus usuários.
Em essência, um dispositivo auditivo digital é composto por cinco componentes
principais:

ˆ Microfone;

ˆ Microchip;

ˆ Bateria;

ˆ Amplificador;

ˆ Receptor.

O microfone é um sensor responsável por captar as ondas sonoras presentes no


meio externo e convertê-las em sinais elétricos. Aparelhos auditivos podem possuir
mais de um microfone, os quais podem ser omnidirecionais, cujo ganho é igual em
todas as direções, e direcionais, os quais, em dispositivos auditivos, são projetos para
priorizar sons provenientes da direção frontal do ouvinte.
O microchip, muitas vezes referido como o “cérebro” do aparelho, é um pequeno
processador. Os sinais provenientes do microfone são encaminhados para um conver-
sor analógico-digital, onde o sinal será digitalizado, o que possibilita a manipulação
do sinal pelo microchip, onde toda etapa de processamento digital do sinal é re-
alizada. O sinal processado resultante é então encaminhado para um conversor
digital-analógico.
O amplificador recebe o sinal resultante do conversor digital-analógico e, como o
próprio o nome sugere, amplifica o sinal e o conduz para o receptor, o qual, por sua
vez, é responsável por converter o sinal elétrico tratado e amplificado em vibrações
que serão transmitidas para o ouvido.
Por último, a bateria alimenta todos os componentes do dispositivo auditivo. A
Figura 2.7 apresenta a integração entre os principais componentes de um dispositivo
auditivo digital genérico.

10
Figura 2.7: Componentes de um dispositivo auditivo digital.

O foco deste trabalho está no bloco de processamento digital de sinais (PDS),


por ser este o responsável por realizar o processamento do sinal coletado pelos mi-
crofones. Nos capı́tulos seguintes estudaremos 2 técnicas comumente empregadas
em aparelhos auditivos: o beamforming (também chamada de filtragem espacial) e
a filtragem adaptativa.

11
Capı́tulo 3

Filtragem Espacial e Estimação do


Ângulo de Incidência

3.1 Filtragem espacial - Beamforming


Beamforming nada mais é do que uma técnica de filtragem espacial. Diferente-
mente de um filtro temporal, como um filtro passa-baixas (que permite a passagem
de baixas frequências e tenta eliminar as componentes de alta frequência), um fil-
tro espacial visa permitir a passagem de sinais provenientes de certas direções de
interesse e mitiga os oriundos das direções interferidoras, algo que é feito através da
utilização de um arranjo de sensores. No contexto de aparelhos auditivos, os sinais
de interesse são sinais acústicos, principalmente voz, e portanto, os microfones são
os sensores utilizados.
No presente trabalho foi implementado um beamforming do tipo delay-and-sum,
que utiliza apenas informações sobre a distribuição espacial dos microfones no ar-
ranjo e as direções dos sinais desejado e interferidores.

3.1.1 Delay-and-sum beamforming


O beamforming do tipo delay-and-sum é assim chamado pois seu princı́pio de
funcionamento baseia-se em atrasar os sinais recebidos e depois somá-los coerente-
mente, de forma a ressaltar a componente de interesse.
As etapas do processo de filtragem do tipo delay-and-sum são descritas a seguir:

1. Os sons provenientes de cada fonte atingem os microfones percorrendo dife-


rentes caminhos e, consequentemente, em diferentes instantes de tempo;

2. Os sinais capturados pelos sensores têm formas de onda similares, mas com di-
ferentes atrasos. Os atrasos podem ser determinados a partir da velocidade do

12
som, da distância entre os microfones e da posição angular das fontes sonoras,
conforme será explicado na próxima subseção;

3. O sinal de cada microfone é atrasado de um certo delay de forma que as


componentes provenientes do sinal de interesse em todos os canais estejam em
fase, enquanto as componentes da fonte interferidora fiquem fora de fase;

4. Os sinais de todos os canais são somados e, finalmente, a componente resultante


é normalizada pelo número de microfones do arranjo. Como resultado, temos
um sinal na saı́da que é tão forte quanto o proveniente da fonte de interesse,
enquanto o sinal interferidor é bastante atenuado.

A Figura 3.1 ilustra as quatro etapas descritas previamente considerando um


arranjo composto por M = 4 microfones e a existência de 2 fontes sonoras: a fonte
de interesse (fonte 1, representada em vermelho) e a fonte interferidora (fonte 2,
representada em azul).

Figura 3.1: Etapas do processo de filtragem delay-and-sum assumindo que a fonte


sonora 1 é a de interesse, enquanto a fonte sonora 2 é a interferidora. Esta figura foi
gentilmente cedida por [20].

3.1.2 Modelagem Matemática


Considere um arranjo composto por M microfones distribuı́dos de maneira linear
e uniforme formando uma ULA (uniform linear array). Considere também uma
fonte muito distante do arranjo, localizada no far field (i.e., a distância entre a fonte
sonora e o arranjo é grande o suficiente para que se possa considerar que a frente
de onda sonora que atinge o arranjo é plana [21]), e que as ondas se propagam num
ambiente anecoico (livre de reflexões) a uma velocidade c (por exemplo, a velocidade

13
de propagação do som no ar c ≈ 340m/s). Assuma ainda que os microfones estão
separados por uma distância d e que o ângulo de incidência da onda com o arranjo
de microfones é dado pelo ângulo θ.
A Figura 3.2 retrata o cenário descrito acima. Considerando o primeiro sensor
da esquerda para direita como o microfone de referência, é possı́vel perceber que o
caminho que a onda percorre para atingir o microfone subsequente é maior que o
necessário para atingir o microfone de referência, e que a diferença de percurso pode
ser definida como

∆d = d senθ, (3.1)

onde θ denota o ângulo de incidência da onda em relação à linha normal ao arranjo.


Sendo conhecidos a velocidade de propagação do som c, a distância entre os sensores
do array d e o ângulo de incidência, é possı́vel determinar o atraso τ da onda de um
microfone para o seu adjacente da seguinte forma

∆d = c τ
∆d
τ=
c
d senθ
τ= . (3.2)
c

Normal ao
array

Frente de onda
incidente Defasamento
espacial

θ
48°

Linha do θ
48°

array Sensor d

Figura 3.2: Um arranjo linear uniformemente distribuı́do.

O atraso do m-ésimo microfone em relação ao sensor de referência é dado por


[22]
τm = (m − 1) τ, (3.3)

14
enquanto que o sinal resultante em cada canal, escrito de maneira vetorial, será

x(k) = [x1 (k) x2 (k) ... xM (k)]T


= s(k) + v(k), (3.4)

onde s(k) representa o vetor em que cada elemento corresponde à parcela do si-
nal de interesse coletada por um dos microfones que compõe o arranjo. Analoga-
mente, v(k) corresponde à parcela do(s) sinal(is) interferidor(es) em cada um dos
canais/microfones. Assim, a Equação (3.4) pode ser reescrita como
   
s(k) v1 (k)
s(k − τ )   v2 (k) 
   

x(k) =  ..  +  . .
  .  (3.5)
.   . 


s(k − (M − 1)τ ) vM (k)

Aplicando a transformada de Fourier, temos


   
S(jω) V1 (jω)
S(jω)e−jωτ   V2 (jω) 
   

X(jω) =  .. + . 
  .  (3.6)
.   . 


S(jω)e−jω(M −1)τ VM (jω)

X(jω) = S(jω) + V(jω). (3.7)

Como já mencionado, o beamformer do tipo delay-and-sum consiste em aplicar


um atraso à saı́da do m-ésimo microfone, somar os sinais de cada canal e normalizar
o resultado da soma pelo número de sensores do arranjo, fornecendo o sinal de
saı́da y(k). A transformada discreta de Fourier Y (jω) do sinal de saı́da y(k) pode
ser dividida em duas componentes Ys (jω), parcela oriunda do sinal de interesse, e
Yv (jω), contribuição dos sinais interferidores,

Y (jω) = Ys (jω) + Yv (jω), (3.8)

sendo Ys (jω) e Yv (jω), respectivamente:

M
1 X
Ys (jω) = Sm (jω)ejωτm , (3.9)
M m=1

M
1 X
Yv (jω) = Vm (jω)ejωτm , (3.10)
M m=1

onde τm = (m − 1) τ , e Sm (jω) e Vm (jω) correspondem ao m-ésimo elemento dos

15
vetores S(jω) e V(jω), respectivamente.
A Equação (3.9) resultará em uma componente de sinal de amplitude tão intensa
quanto a do sinal original, por conta de estarmos sincronizando o sinal de interesse
em cada um dos canais, somando-os e, em seguida, realizando a normalização pelo
número de microfones. Note que se todos os atrasos forem calculados corretamente,
o resultado desta média será o próprio sinal S(jω). Já a Equação (3.10), por sua
vez, nos levará a um sinal bastante atenuado, por conta das componentes dos sinais
interferidores não estarem em coerência, i.e., em fase.

3.2 Estimação do ângulo de incidência


Na seção anterior, discutimos como utilizar arranjos de microfones para reforçar
sinais oriundos de determinadas direções e atenuar os provenientes das demais atra-
vés do beamforming delay-and-sum. Vimos que uma das etapas mais importantes
deste método é a determinação dos atrasos das componentes de interesse existentes
em cada um dos canais do arranjo e, para a obtenção de tal informação, assumimos
o conhecimento da direção de origem do sinal de interesse à priori, um dado que não
nos é fornecido de antemão em aplicações em tempo real.
A estimação do ângulo de chegada de um sinal coletado a partir de um arranjo
de sensores é de fundamental importância para uma grande variedade de aplicações
tais como radares, sonares, comunicações wireless, geofı́sica, engenharia biomédica
e também para healthcare [22]. Faz-se necessário, portanto, o estudo de um método
que nos permita realizar uma estimativa da posição angular da fonte sonora. A
intuição por trás da técnica de processamento de sinais que discutiremos a seguir
baseia-se na ideia de que se é possı́vel determinar os delays a partir da direção de
origem das fontes de sinal, a recı́proca também deve ser verdadeira. O modelo em
questão é construı́do tendo como base uma série de hipóteses simplificadoras. São
elas [22]:

ˆ Assume-se que as fontes sonoras estejam no far field e são consideradas pon-
tuais (i.e., com dimensões desprezı́veis);

ˆ As fontes e os sensores do arranjo encontram-se no mesmo plano;

ˆ O meio de propagação é homogêneo (i.e., não dispersivo).

Tendo como base essas simplificações, pode-se, portanto, considerar que as ondas
incidentes sobre o arranjo são planas e que o único parâmetro capaz de caracterizar
a origem do sinal é o seu DOA (sua direção de chegada, do inglês, Direction Of
Arrival, também denominado ângulo de incidência).

16
A técnica utilizada para estimar a direção do sinal abordada no corrente capı́tulo
é chamada de GCC (correlação cruzada generalizada, do inglês, generalized cross-
correlation).

3.2.1 Arranjo linear uniforme (ULA)


Os métodos de estimação de DOA (e.g., correlação cruzada generalizada, MUSIC
e ESPRIT) utilizam a disposição da rede de sensores em relação ao sinal incidente.
A distribuição geométrica adotada foi um arranjo linear uniforme (Uniform Li-
near Array ou, simplesmente, ULA). A Figura 3.3 mostra tal disposição de sensores.
Nela, d representa a distância entre dois microfones consecutivos e θ é o ângulo de
incidência (DOA) de uma frente de onda incidente na rede.

Normal ao
array

Frente de onda
Defasamento plana incidente
espacial

θ48°

θ Linha do
48°

Sensor array
d

Figura 3.3: Ilustração da estimação da DOA.

Assume-se que os receptores do sinal são idênticos, alinhados e uniformemente


espaçados. Além disso, considera-se que a relação entre o comprimento de onda λ e
a distância d entre os sensores obedece a desigualdade

d
< 0, 5. (3.11)
λ

Esta condição é necessária para evitar o efeito aliasing na passagem do sinal pelos
sensores [23]. Para sinais de banda larga, a menos que o sinal possua uma forte
componente harmônica, o aliasing espacial pode ser desconsiderado [24]. Como já
dissemos, também assume-se que a frente de ondas que atinge o arranjo é plana, tal
condição é aproximadamente válida se a fonte pontual estiver na região de campo
distante (far field ) do arranjo. Para isto, é necessário que a distância r entre o
conjunto de sensores e o emissor de sinal obedeça a seguinte inequação:

2D2
r≥ , (3.12)
λ

17
onde D denota o comprimento do arranjo [25].
Com base nessas hipóteses simplificadoras, o modelo matemático empregado será
deduzido a seguir.
A normal à frente de onda faz um ângulo θ com a linha paralela aos microfones,
que é numericamente igual ao ângulo de incidência, e o sinal em cada canal constitui
uma versão atrasada (ou adiantada) do sinal recebido num dado sensor de referência.
Considere o sensor da direita na Figura 3.3 como o ponto de referência e assuma que o
espaçamento entre os elementos é dado por uma distância d que obedece a Equação
(3.11). O sinal coletado pelo segundo microfone possui um delay em relação ao
segundo dado pelo tempo necessário para a frente de onda percorrer d sen θ. Sendo
assim, a diferença temporal entre os dois sensores é dada por

τ = τ12 = d sen θ/c, (3.13)

onde c denota a velocidade de propagação do som no ar. Se o ângulo de incidência


varia entre -90o e 90o em relação à normal ao arranjo e se τ for conhecido, então θ
pode ser determinado de maneira única pela expressão
τc
θ = sen−1 . (3.14)
d
Considerando que o arranjo apresenta M sensores, o delay entre o m-ésimo microfone
e o de referência é dado por

(m − 1) d sen θ
τ1m = (3.15)
c
τ1m = (m − 1)τ,

onde 1 ≤ m ≤ M .
Note que, partindo das hipóteses simplificadoras já destacadas, para obter a
direção de origem do sinal recebido basta obtermos o atraso existente entre os sinais
captados por dois microfones adjacentes, esse atraso possui o nome de TDOA (do
inglês, time-difference of arrival ) [22].

3.2.2 A estimação do TDOA


A estimação do TDOA foca em obter a diferença de tempo entre os sinais rece-
bidos em cada um dos sensores que compõe o arranjo de microfones. Dependendo
do ambiente acústico em que se encontra o conjunto, há dois tipos de cenários a
serem considerados: o não reverberante (free field ), onde cada sensor recebe única
e diretamente o sinal emitido pela fonte emissora, e o cenário reverberante, em que
cada sensor tem a chance de receber uma grande quantidade de sinais refletidos em

18
adição ao emitido pela fonte. Como a simulação foi feita considerando o ambiente
de uma câmara anecoica, ou seja, sem reflexões, analisaremos apenas o cenário em
questão.
Suponha que tenhamos um arranjo de M microfones espaçados uniformemente
por uma distância d no espaço anecoico e que nele há apenas uma única fonte emis-
sora de sinal, como pode ser visto na Figura 3.4. O sinal da fonte s(k) é propagado
radialmente e sua intensidade decai em função da distância à fonte. Assumindo o
primeiro microfone como o microfone de referência, o sinal captado pelo m-ésimo
microfone, num instante k, é dado por:

ym (k) = αm s(k − t − τm1 ) + vm (k) (3.16)


= αm s[k − t − Fm (τ )] + vm (k)
= xm (k) + vm (k), m = 1, 2, ..., M,

onde:

αm : que varia de 0 a 1, é o fator de atenuação devido aos efeitos de


propagação;
s(k) : sinal da fonte;
t : tempo de propagação da fonte emissora ao microfone de referência;
vm (k) : ruı́do aditivo do m-ésimo sensor, o qual assume-se ser não correlacionado
com o sinal da fonte e com os ruı́dos dos demais elementos do arranjo;
τ : é o TDOA (também chamado de delay relativo), entre os sensores 1 e 2.

184 9 DOA and TDOA Estimation


Pl efro

Frente de onda
wa

s(k)
an nt
v

vN (k) xN (k) v2 (k) v1 (k) x1 (k)


x2 (k)

· · ·
yN (k) y2 (k) y1 (k)

Fig. 9.3. Illustration of the ideal free-field single-source model.


Figura 3.4: Ilustração da estimação do TDOA.
can be extended to the multiple-source situation. To illustrate this, we will
Fm (τ )the
τm1 = discuss é ophilosophy
TDOA entre os sensores 1 e m, sendo F1 (τ ) = 0 e F2 (τ ) = τ .
underlying multiple-source TDOA estimation.
Para m = 3, ..., M , a função Fm (τ ) depende não apenas de τ , mas também da

9.2 Problem Formulation and Signal Models


19
The TDOA estimation problem is concerned with the measurement of time
difference between the signals received at different microphones. Depending
on the surrounding acoustic environment, we consider two situations: the free-
geometria do arranjo. Para o nosso cenário, em que estamos trabalhando com uma
ULA, a função Fm (τ ) é dada pela equação

Fm (τ ) = (m − 1)τ, m = 1, ..., M. (3.17)

Ainda considerando um ambiente anecoico, para o caso em que temos não uma,
mas diversas fontes emissoras, o sinal recebido no m-ésimo microfone é dado por

N
X
ym (k) = αmn sn [k − tn − Fm (τn )] + vm (k) (3.18)
n=1

= xm (k) + vm (k),

onde:

N : refere-se ao número total de fontes no ambiente acústico;


αmn : para m = 1, 2, ..., M e n = 1, 2, ..., N , são os coeficientes de atenuação
devido aos efeitos de propagação;
sn (k) : para n = 1, 2, ..., N é o sinal da n-ésima fonte, os quais assumimos
serem mutualmente independentes uns dos outros;
tn : é o tempo de propagação da fonte n ao sensor de referência;
vm (k) : como já mencionado, constitui um ruı́do ativo no m-ésimo microfone;
τn : é o TDOA entre o primeiro e o segundo sensor devido ao sinal da
n-ésima fonte sonora;
Fm (τn ) : é o TDOA entre o primeiro e o m-ésimo elemento do arranjo para a
fonte n.

Nosso problema resume-se em estimar τ .

3.2.3 O método da correlação cruzada


Uma vez formulado o problema, é hora de abordarmos a técnica que nos permite
estimar o TDOA, o método da correlação cruzada.
Considere o espaço-livre com apenas dois microfones, i.e., M = 2. A função de
correlação cruzada entre os sinais y1 (k) e y2 (k), coletados pelos sensores, é dada por

ryCC
1 y2
(p) = E[y1 (k)y2 (k + p)]. (3.19)

Substituindo (3.16) em (3.19), obtemos

ryCC
1 y2
CC
(p) = α1 α2 rss CC
(p − τ ) + α1 rsv2
(p + t)+ (3.20)
α2 rsv1 (p − t − τ ) + rv1 v2 (p).

20
Assumindo que vm (k) é descorrelacionado com o sinal e com os ruı́dos dos demais
sensores, pode-se demonstrar que ryCC1 y2 (p)
atinge seu máximo para p = τ . Sendo
assim, podemos estimar o TDOA entre y1 (k) e y2 (k) como:

τ̂ CC = arg max ryCC


1 y2
(p). (3.21)
p

3.3 Resultados
3.3.1 Beamforming delay-and-sum
A fim de testar a eficiência do beamforming delay-and-sum e as vantagens de sua
utilização, foi realizada uma simulação computacional. O cenário de teste consistia
em:

ˆ Um arranjo do tipo ULA, composto por 5 microfones espaçados 5 cm entre si,


localizado em uma câmara anecoica;

ˆ Três sinais diferentes, sendo um de interesse e dois interferidores, no far field,


atingiam o arranjo a partir de direções distintas;

ˆ Foi adicionado à cada um dos sinais envolvidos um ruı́do branco gaussiano,


visando tornar o cenário de simulação o mais próximo de um ambiente real;

ˆ A direção de cada um dos sinais eram:

1. Sinal de interesse: -30o


2. Sinal interferidor 1: -10o
3. Sinal interferidor 2: 20o

O cenário em questão é ilustrado na Figura 3.5.


As formas de onda do sinal de interesse e do do sinal captado por um dos mi-
crofones do arranjo, que nada mais é do que a superposição dos sinais envolvidos,
podem ser vistas nas Figuras 3.6 e 3.7, respectivamente.
O efeito da filtragem espacial aplicada no presente trabalho pode ser visualizada
na Figura 3.8. Nela pode ser observado o sinal de interesse em azul, o sinal captado
pelo microfone em laranja e o sinal na saı́da do filtro em amarelo. Pode-se notar
facilmente que a semelhança entre os sinais amarelo e azul é muito maior que a dos
sinais laranja e azul, o que já era esperado. Como a caracterı́stica do beamforming
é a de reforçar o sinal proveniente de determinada direção, os sinais provenientes
das demais direções (sinais interferidores) são atenuados, possibilitando o direciona-
mento do feixe do arranjo no reforço dos sons da fonte sonora de interesse, como as
palavras ditas por uma determinada pessoa, por exemplo.

21
Figura 3.5: Cenário do experimento.

Desired Signal
3
Sinal de interesse

1
Amplitude (V)

-1

-2

-3
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Time (sec)

Figura 3.6: Sinal de interesse.

A métrica utilizada para analisar o desempenho do beamforming implementado


foi a proposta por [26]
I +N
η= , (3.22)
O−D
onde:
I : potência dos sinais interferidores;
N : potência do ruı́do;
O : potência do sinal após o beamforming;
D : potência do sinal de interesse.
Perceba que no pior cenário, em que o filtro espacial não realiza nenhuma fil-
tragem, temos O − D = I + N , ou seja, teremos o quociente da Equação (3.22)

22
Signal Received at Channel 3
3
Sinal captado pelo microfone

1
Amplitude (V)

-1

-2

-3
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Time (sec)

Figura 3.7: Sinal captado pelo microfone no 3.

Signal Comparisson
3
Sinal captado pelo microfone
Delay and sum
2 Sinal de interesse

1
Amplitude (V)

-1

-2

-3
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Time (sec)

Figura 3.8: Comparação dos sinais.

igual a 1. No cenário ideal, temos O = D e, dessa forma, o quociente tende ao


infinito. Na simulação, o ganho obtido ao aplicarmos o beamforming delay-and-sum
foi de 9.51dB, o que atesta a eficiência do filtro em atenuar a interferência de sinais
indesejados bem como de ruı́dos.

23
3.3.2 TDOA
Na primeira parte do experimento, visamos atestar a eficácia do filtro espacial.
No segundo momento da presente simulação teve-se como meta a estimação do ân-
gulo de incidência do sinal de interesse pelo método da correlação cruzada. Foi
assumido, na primeira etapa, que a direção de origem dos sinais era um valor co-
nhecido do problema, contudo, sabemos que em aplicações reais esse não é um dado
disponı́vel de antemão, o que torna necessária a implementação de algum algoritmo
que possibilite a um dispositivo auditivo conseguir estimar a direção dos sinais que
estão chegando até o mesmo.
A partir do que foi tratado nas seções anteriores, é possı́vel perceber que para
resolver o problema de estimação do ângulo chegada de um sinal basta:

1. Utilizar a função de correlação cruzada dada pela Equação (3.20);

2. Encontrar o valor de p que maximiza essa função, i.e., arg maxp ryCC
1 y2
(p), o qual
é numericamente igual ao TDOA do sinal;

3. Aplicar a Equação (3.14) para obter o ângulo de incidência da frente de onda.

Figura 3.9: Picos de correlação-cruzada.

Na Figura 3.9 é mostrado o gráfico da função ryCC


1 yn
(p), para m = 2, 3, 4, 5, sendo
a DOA igual a 60◦ , o que leva a um TDOA de aproximadamente 0,1274ms. Con-
sideramos que dispúnhamos de um arranjo contendo 5 microfones em ULA, como
na Figura 3.4, em um ambiente anecoico, i.e., livre de reflexões, o qual sofria a in-
cidência de uma onda de direção de chegada igual a 60◦ . Aplicando o método da

24
correlação cruzada, pode-se obter os atrasos em cada um dos sensores em relação ao
sinal captado no microfone de referência (microfone 1). Os valores obtidos podem
ser visualizados na Tabela 3.1. Note que o pico de cada curva é numericamente igual
a TDOA do sensor.

Tabela 3.1: Atrasos em cada sensor,

Microfone Delay (ms)


1 0
2 0.1297
3 0.2594
4 0.3891
5 0.5188

Utilizando a Equação (3.14), obtêm-se o ângulo calculado pelo método da corre-


lação cruzada, 61,88◦ . Ou seja, para esse valor, o erro relativo obtido é de 3, 13%.

25
Capı́tulo 4

Filtros Adaptativos e Realce de Voz

“Filtros adaptativos, os quais têm como meta transformar os sinais portadores de


informação em versões mais ‘limpas’ ou ‘melhoradas’, ajustam suas caracterı́sticas de
acordo com os sinais encontrados. Eles formam o exemplo mais simples de algoritmos
no campo de aprendizado de máquinas.”
— Philip A. Regalia, 2005
IEEE Control System Magazine, Agosto de 2005

4.1 Explicação Básica


A palavra “filtro” tem etimologia do latim medieval filtrum, pedaço de feltro pelo
qual costumava-se despejar lı́quidos com a intenção de reter/remover impurezas do
fluido. No contexto mais geral da palavra, entende-se por filtro algo que seleciona
o que passa por ele, deixando passar apenas o que não é filtrado. No contexto
de sinais e sistemas, filtros são comumente utilizados com o intuito de reter as
componentes de frequência que pertencem a uma determinada banda de frequências,
i.e., impedir sua passagem, ao passo que permite a das demais componentes com
pouca ou nenhuma distorção. Por exemplo, se fizermos uma analogia entre um filtro
passa-altas que recebe na entrada um sinal com componentes tanto de altas quanto
de baixas frequências e um pedaço de feltro sobre o qual é despejado a água de um rio
que contém resı́duos, as impurezas que ficam retidas no feltro seriam as componentes
de baixas frequências (uma vez que o objetivo de um filtro passa-altas, como o
próprio nome sugere, é permitir a passagem apenas de altas frequências), enquanto
que o lı́quido obtido após a passagem pelo feltro corresponderia às componentes de
altas frequências.
Frequentemente nos deparamos na literatura com filtros com coeficientes invari-
antes no tempo que apresentam estrutura e parâmetros internos constantes, os quais
podem ser analisados utilizando a teoria clássica de sistemas invariantes no tempo. O

26
projeto desse tipo de filtro necessita de algumas especificações prévias [27]. Quando
essas especificações prévias não estão disponı́veis ou não podem ser atingidas utili-
zando filtros invariantes no tempo, tais limitações podem ser facilmente contornada
utilizando uma estrutura um pouco diferente, onde os coeficientes não são constantes
ao longo do tempo, mas sim variantes, de modo que seus valores sejam atualizados
a cada amostra, sempre visando otimizar uma função de erro pré-estabelecida, i.e.,
um filtro com coeficientes adaptativos, também chamado de filtro adaptativo.
No presente trabalho, utilizaremos filtros adaptativos, como pode ser visto na
Figura 4.1, para transformar um certo sinal de entrada x(k) em um sinal de saı́da
y(k) que seja uma boa estimativa de um dado sinal desejado d(k). Pelo fato dessa
categoria de filtros possuir coeficientes variantes no tempo, o processo de ajustar
seus parâmetros (coeficientes) de modo a obter o melhor casamento possı́vel entre
o sinal desejado e o sinal de saı́da é feito através da otimização de uma função
de desempenho (performance function) bem definida. A função de desempenho
pode ser definida em um contexto tanto estatı́stico quanto determinı́stico [27]. Na
abordagem estatı́stica, a função de desempenho utilizada mais frequentemente é o
erro quadrático médio, onde o sinal de erro é a diferença entre os sinais desejado e
de saı́da do filtro adaptativo, enquanto que a abordagem determinı́stica é baseada
na minimização determinı́stica dos erros quadráticos a posteriori de saı́da [28].

Figura 4.1: Estrutura básica de um filtro adaptativo. x(k) denota o sinal de entrada,
e(k) o sinal de erro e y(k), por fim, compõe o sinal de saı́da.

4.2 Fundamentos de Filtragem Adaptativa


Quando estudamos filtros adaptativos é de fundamental importância entender
com clareza os termos adaptativo e filtro. A palavra “adaptativo”, no presente con-

27
texto, nos dá a ideia de um sistema que está tentando se ajustar com a finalidade
de responder a um determinado fenômeno [29]. Em outras palavras, o sistema tenta
ajustar seus parâmetros de modo a atender um critério pré-definido. Mais a frente
neste capı́tulo será visto como esse processo de adaptação ocorre, uma vez que um
conjunto de etapas deve ser feito de modo a obter os novos parâmetros corretamente.
Por fim, o sistema que sofre esse processo de adaptação é chamado de “filtro”. De-
pendendo do tempo necessário para que a meta do filtro adaptativo seja cumprida, o
que nós chamamos de tempo de convergência, da complexidade e dos dados disponı́-
veis para realizar o processo de adaptação, nós podemos ter uma série de algoritmos
e estruturas para os filtros adaptativos.
Filtros adaptativos são tipicamente empregados em situações onde o ambiente
está constantemente mudando, de tal maneira que um sistema invariante no tempo
não apresentaria desempenho adequado. Como eles são utilizados em aplicações em
tempo real, muitas vezes implementados em hardware alimentado por bateria, há
uma preocupação com a complexidade dos algoritmos, i.e., idealmente eles devem
realizar poucas operações aritméticas por amostra de entrada. Esses algoritmos
podem ser entendidos de duas maneiras complementares [29]:

ˆ A maneira mais intuitiva, que vem do próprio nome da estrutura: um fil-


tro ‘adaptativo’ utiliza informações provenientes do ambiente e do sinal que
está processando para otimizar sua tarefa já mencionada, minimizar o sinal
de uma determinada função de erro pré-definida. A informação proveniente
do ambiente pode ser adquirida em tempo real (na forma do chamado sinal
desejado) ou pode ser fornecida a priori, na forma de conhecimento prévio das
propriedades estatı́sticas do sinal de entrada (como na equalização blind [27]);

ˆ Por outro lado, podemos pensar num filtro adaptativo como um algoritmo que
visa separar uma mistura de dois sinais. O filtro, obviamente, deve ter alguma
informação sobre os sinais de modo a ser apto a separá-los; essa informação,
normalmente, é dada sob a forma de sinal de referência, correlacionado com
apenas um dos dois sinais da mistura, de modo a separar o sinal correlacionado
do não correlacionado.

Como previamente discutido, o projeto de filtros com coeficientes constante ne-


cessita de especificações pré-definidas. Entretanto, há situações em que essas espe-
cificações não estão disponı́veis, ou são variantes no tempo. A solução, nesse caso,
como já foi mencionado, é empregar filtros com coeficientes adaptativos. A estrutura
básica de um filtro adaptativo pode ser vista na Figura 4.1. Sendo:

ˆ k: representa o ı́ndice da iteração;

ˆ x(k): denota o sinal de entrada do filtro;

28
ˆ y(k): sinal de saı́da do filtro adaptativo;

ˆ e(k): sinal de erro, e(k) = d(k) − y(k). O sinal de erro é então utilizado para
constituir a função de desempenho (ou função objetivo), a qual é necessária
para que o algoritmo adaptativo determine corretamente os novos coeficientes
do filtro.

A especificação completa de um sistema adaptativo consiste em [27]:

ˆ Estrutura do filtro adaptativo: há uma gama de estruturas (ou realizações) de


filtros adaptativos. A escolha da estrutura influi diretamente na complexidade
computacional (quantidade de operações aritméticas por iteração) do processo
e também no montante de iterações necessárias para que seja atingido um nı́vel
de desempenho satisfatório. Basicamente, há duas categorias principais de
estruturas de filtros adaptativos, distinguidas uma da outra pela sua resposta
ao impulso: o filtro de resposta ao impulso com duração finita (finite-duration
impulse response, FIR) e o filtro com resposta ao impulso de duração infinita
(infinite-duration impulse response, IIR);

ˆ Algoritmo adaptativo: o algoritmo é o procedimento, a sequência de passos


utilizada para ajustar os coeficientes do filtro adaptativo visando minimizar
um determinado critério. A escolha do algoritmo adaptativo é de fundamental
importância, pois ela influencia em diversos aspectos do processo, dentre elas,
podemos citar: a complexidade computacional, a existência de soluções sub-
ótimas (i.e., a existência de mı́nimos locais) etc;

ˆ Aplicação: O tipo de aplicação é definido pela categoria de sinais captados


do ambiente e que serão utilizados como sinais desejado e de entrada. Al-
guns exemplos onde filtros adaptativos são empregados são: cancelamento de
eco, melhoria da qualidade do sinal, equalização de canais de comunicação,
cancelamento de ruı́do.

4.2.1 Representação de sinais


Nesta seção, o objetivo é fazer uma breve revisão sobre sinais de tempo discreto
determinı́sticos e aleatórios. Estamos interessados apenas nas definições e proprie-
dades essenciais para o bom entendimento do processo de filtragem adaptativa.

Sinal Determinı́stico

Um sinal determinı́stico é um sinal sobre o qual não existe nenhuma incerteza


com respeito a seu valor em qualquer instante de tempo. Em outras palavras, um

29
sinal de tempo discreto determinı́stico é caracterizado por uma função matemática
bem definida. Um exemplo de sinal determinı́stico seria

x(k) = A e−αk cos(ωk + θ), (4.1)

onde A denota uma constante.

Sinal Aleatório

Um sinal aleatório é um sinal sobre o qual há incertezas associadas ao seu valor
em qualquer instante de tempo, como, por exemplo, em um ruı́do branco. São sinais
que apresentam incertezas quanto a sua ocorrência, não podendo ser representados
por uma função matemática e sim através de suas caracterı́sticas estatı́sticas (média,
variância, autocorrelação, entre outros). Pelo fato de boa parte dos sons que atingem
nossos ouvidos no dia a dia serem sinais aleatórios, daremos uma atenção especial a
este tipo de sinal.

(a) Sinal determinı́stico (b) Realização de um sinal aleatório.

Figura 4.2: Sinal determinı́stico vs Sinal aleatório.

Na natureza, somos frequentemente forçados a trabalhar com sinais cujas formas


de onda não são precisamente conhecidas a cada instante de tempo, i.e., um processo
aleatório, que nada mais é que um conjunto de variáveis aleatórias. Alguns exemplos
de variáveis aleatórias poderiam incluir o resultado de se jogar um dado, o naipe
de uma carta retirada ao acaso de um baralho ou o valor de determinadas ações
num momento especı́fico. Em tais casos, mesmo sem conhecer o valor exato do
sinal, ainda podemos obter informações úteis sobre o processo de interesse usando
ferramentas matemáticas, mais especificamente, uma abordagem estatı́stica.

4.2.2 Estrutura Transversal de Filtros Adaptativos


A estrutura utilizada mais frequentemente na implementação de filtros adapta-
tivos é a chamada estrutura transversal, a qual pode ser vista na Figura 4.3. Nela, o
filtro adaptativo possui uma única entrada x(k) e uma saı́da y(k). A sequência d(k)
designa o sinal desejado. A saı́da y(k) é gerada através da combinação linear das
amostras atrasadas da sequência de entrada x(k), de acordo com a Equação (4.2)

30
Figura 4.3: Filtro Adaptativo Transversal.

N
X
y(k) = wi (k) x(k − i), (4.2)
i=0

onde wi (k) denotam os coeficientes (ou pesos) do filtro adaptativo. Representando


wi (k) e x(k − i), ∀i ∈ {0, 1, ..., N }, sob a forma de vetores, podemos reescrever a
Equação (4.2) da seguinte forma
   
w0 (k) x(k)
w1 (k) x(k − 1)
   
   
w(k) =  ..  ∈ RN +1 , x(k) =  ..  ∈ RN +1 , (4.3)
. .
   
   
wN (k) x(k − N )

y(k) = wT (k)x(k). (4.4)

Na Equação (4.3), o vetor x(k) é um vetor de entrada composto pelo valor da


entrada atual e das entradas passadas. Os coeficientes do filtro adaptativo formam o
vetor w(k); o ı́ndice k está sendo usado para ressaltar que esses coeficientes variam
ao longo das iterações (equivalente ao tempo discreto neste trabalho). A forma como
esses coeficientes serão adaptados ao longo do tempo é o assunto da próxima seção.

4.3 Algoritmos Adaptativos


Existem vários algoritmos adaptativos, dentre eles, os mais frequentemente en-
contrados na literatura e utilizados são [27]:

ˆ Least Mean Square (LMS);

31
ˆ Normalized Least Mean Square (NLMS);

ˆ Recursive Least Squares (RLS).

Antes de abordarmos cada um deles individualmente é de fundamental impor-


tância ter conhecimento sobre o filtro que motivou o desenvolvimento de boa parte
desses algoritmos, o filtro de Wiener.

4.3.1 Filtro de Wiener


Como já mencionado, nosso principal interesse é filtrar um sinal de interesse x(k),
de tal forma que o resultado do processo de filtragem y(k) seja uma boa aproximação
de um dado sinal desejado d(k). O sinal de erro e(k) representa a diferença entre
d(k) e y(k).
Primeiramente, antes de falarmos de um filtro “ótimo” que estima d(k) a partir
de x(k), nós precisamos ter uma maneira de quantificar a performance do filtro, seu
desempenho, o quão bem ele está executando o que foi solicitado. Sempre que fala-
mos que uma determinada solução é “ótima”, ela é ótima em relação a algum critério
pré-estabelecido. Uma função, chamada de função objetivo (também chamada de
função custo ou função de desempenho), é utilizada para medir o desempenho do
filtro, e ela pode apresentar diferentes formas.
Uma das funções objetivo mais frequentemente utilizadas é a função erro qua-
drático médio ou, simplesmente, MSE (do inglês Mean Square Error )

J[e(k)] = ξ(k) = E[e2 (k)] = E[d2 (k) − 2d(k)y(k) + y 2 (k)], (4.5)

onde J[·] simboliza a função objetivo e E[·] representa a média estatı́stica ou valor
esperado, definida pela equação
Z ∞
E[x(k)] = y px(k) (y)dy, (4.6)
−∞

sendo que px(k) (y) é a função densidade de probabilidade (PDF, do inglês probability
density function) de x(k) no ponto y [27]. O filtro linear ótimo segundo o critério
MSE é chamado de filtro de Wiener.
Os coeficientes do filtro de Wiener são calculados pela equação

wo = R−1 p, (4.7)

onde p e R representam, respectivamente, a correlação-cruzada entre d(k) e x(k) e

32
a matriz de autocorrelação do vetor x(k), dados por

p = E[d(k)x(k)], (4.8)
R = E[x(k)xT (k)]. (4.9)

O filtro de Wiener, todavia, tem pouca utilidade prática, visto que:

ˆ Requer a matriz de autocorrelação R e o vetor de correlação cruzada p, que não


são conhecidos a priori. As equações para o cálculo desses valores necessitam de
conhecimentos ou estimativas estatı́sticas, para isso seriam necessárias várias
realizações do experimento, quando, na prática, só temos uma realização;

ˆ Necessita de uma inversão matricial que é computacionalmente dispendiosa.


Hoje em dia existem hardwares que conseguem fazer inversão de matrizes
de maneira bastante rápida, mas na época em que Norbert Wiener fez sua
publicação a respeito do filtro que viria a receber seu nome, em 1949, não
haviam componentes que conseguissem realizar inversão de matrizes de ordem
elevada de maneira suficientemente rápida;

ˆ Se os sinais não forem estacionários, então R e p variam no tempo e wo tem


de ser repetidamente calculado.

Por essas complicações, nas décadas seguintes à sua publicação, foram desenvol-
vidos algoritmos visando objetivo similar ao do filtro de Wiener, porém com menor
complexidade computacional e de implementação mais fácil.

4.3.2 O Algoritmo LMS


O algoritmo LMS foi desenvolvido em 1960 pelo professor da universidade de
Stanford, Bernard Widrow, em conjunto com seu então alundo de doutorado Mar-
cian Hoff (este sendo também um dos inventores do microprocessador [30]), visando
fazer adaptações à teoria do filtro de Wiener com o intuito de torná-lo mais prá-
tico para aplicações cotidianas e, segundo [31], até hoje é o algoritmo de filtragem
adaptativa mais utilizado, o que pode ser explicado devido à sua simplicidade com-
putacional, comportamento estável e robustez. Em seu artigo que menciona toda a
linha de raciocı́nio que o levou ao desenvolvimento do algoritmo [32], ele cita, em
uma tradução literal:

“Eu possuı́a familiaridade com a teoria do filtro de Wiener, tanto na


forma contı́nua quanto discreta. Para o projeto de um filtro de Wiener,
você precisa conhecer a função de autocorrelação do sinal de entrada e a
função de correlação cruzada entre os sinais de entrada e desejado. Isso

33
é ótimo quando você está fazendo deveres de casa, mas o que você pode
fazer na prática quando ninguém te fornece as estatı́sticas de entrada?
Tudo que você tem são os sinais de entrada.”

A Figura 4.4 mostra um filtro transversal adaptativo. A entrada do filtro x(k), o


sinal desejado d(k) e a saı́da do filtro y(k) são assumidos serem sequências reais. Os
coeficientes do filtro w0 (k), w1 (k), ..., wN (k) são selecionados de modo a minimizar
uma função de erro.

N
X
y(k) = wi (k)x(k − i) (4.10)
i=0

= wT (k)x(k), (4.11)

e(k) = d(k) − y(k). (4.12)

No caso do filtro de Wiener, como já mencionado, o critério adotado para estimar
o desempenho da estrutura empregada é o erro quadrático médio (MSE)

J(k) = E[e2 (k)]. (4.13)

Figura 4.4: Filtro adaptativo transversal de ordem N + 1.

Na seção 4.3.1, apresentamos a solução, para um filtro com estrutura transversal,


dos coeficientes que minimizam o MSE. A solução ótima (Wiener) é dada por

wo = R−1 p, (4.14)

onde R = E[xT (k)x(k)] e p = E[d(k)x(k)], considerando d(k) e x(k) WSS (do


inglês Wide Sense Stationary).
Como o próprio Widrow destacou, há um problema para a obtenção desses pa-
râmetros estatı́sticos; seriam necessárias diversas realizações do experimento e, na
maioria das aplicações, só temos uma realização, especialmente em aplicações em
tempo real, como no caso de aparelhos auditivos. A ideia de Widrow foi considerar
não o valor exato da matriz de autocorrelação e do vetor de correlação-cruzada, mas

34
sim estimativas das mesmas, obtidas levando em consideração os dados disponı́veis.
Se temos disponı́vel apenas uma realização do experimento, nada mais natural as-
sumir que E[d(k)x(k)], ou seja, que o valor esperado do produto d(k)x(k) seja o
próprio valor desse produto, i.e.,

p̂(k) = d(k)x(k). (4.15)

Analogamente, para a matriz de autocorrelação R, temos a seguinte estimativa

R̂(k) = x(k)xT (k). (4.16)

Usando essas estimativas, é possı́vel construir um algoritmo do tipo gradiente


descendente (gradient descent ou steepest descent) que busque a solução do filtro de
Wiener da seguinte forma

w(k + 1) = w(k) − µĝw (k) (4.17)


= w(k) − µ 2(−p̂(k) + R̂(k)x(k)), (4.18)

para k = 0, 1, 2, ... e onde ĝw (k) representa a estimativa do gradiente da função


objetivo pelo critério do erro quadrático médio (MSE) em relação aos coeficientes
do filtro e µ denota a taxa de aprendizagem.
O gradiente resultante é dado por

∂ ξˆ
ĝw (k) =
∂w
ˆ + 2R̂(k)w
= −2p(k)
= −2d(k)x(k) + 2x(k)xT (k)w(k)
= −2x(k)(d(k) − xT (k)w(k))
= −2x(k)(d(k) − y(k))
= −2x(k)e(k)
= −2e(k)x(k). (4.19)

Substituindo (4.19) em (4.17), obtemos

w(k + 1) = w(k) + 2µe(k)x(k), (4.20)

onde, para que a convergência seja garantida, o coeficiente µ deve estar dentro do
intervalo [27]
1
0<µ< , (4.21)
λmax

35
sendo que λmax representa o maior autovalor da matriz de autocorrelação R.
O algoritmo resultante, baseado na técnica de gradiente descendente, é chamado
de Least Mean Square ou, simplesmente, LMS [27].

Algoritmo 1 Least Mean Square (LMS)


1: Inicialização
2: x(0) = w(0) = [0 0 ... 0]T
3: Faça para k ≥ 0
4: e(k) = d(k) − wT (k)x(k)
5: w(k + 1) = w(k) + 2µe(k)x(k)

Para entender por que o LMS nos leva para a solução de Wiener, é preciso
analisar nossa função objetivo, a função erro quadrático médio (MSE).

ξ(k) = E[e2 (k)]


= E[(d(k) − wT (k)x(k))2 ]
N
X
= E[(d(k) − wi (k)x(k − i))2 ]
i=0

= E[(d(k) − (w0 (k)x(k) + w1 x(k − 1) + ... + wN x(k − N )))2 ]. (4.22)

É muito simples perceber pela Equação (4.22) que a função erro quadrático
médico é uma função de 2a ordem dos coeficientes do filtro, consequentemente, a
curva da nossa função MSE pode ser vista como um paraboloide multidimensional
(uma tigela) com um único valor mı́nimo, i.e., porque o MSE é uma função convexa.
Pelo fato da função objetivo em análise possuir apenas um mı́nimo, se escolhermos
o valor µ dentro do intervalo já mencionado na desigualdade (4.21), teremos certeza
garantida de convergência do LMS, ou seja, o algoritmo nos levará para o mı́nimo
global da função objetivo, para os coeficientes de Wiener.

4.3.3 O Algoritmo LMS Normalizado (NLMS)


O algoritmo LMS é um dos algoritmos mais utilizados na área de filtragem adap-
tativa até os dias atuais, mas há uma série de outros algoritmos adaptativos deri-
vados dele que visam acelerar o tempo de convergência ou reduzir a complexidade
computacional que o mesmo apresenta.
Nesse sentido, uma das derivações mais populares do LMS é sua versão norma-
lizada, o Normalized Least Mean Square (NLMS). A ideia do algoritmo NLMS para
acelerar seu tempo de convergência em relação ao LMS tradicional é utilizar um
fator de aprendizagem µ variável, alterando seu valor da seguinte maneira:

36
Figura 4.5: Curva de uma função convexa (forma de tigela).

ˆ Se estivermos distantes do mı́nimo, utilizamos µ maiores para darmos passos


mais largos em direção ao mı́nimo;

ˆ Se estivermos próximos do mı́nimo, utilizamos µ menores para darmos passos


mais curtos, evitando, dessa forma, com que desviemos do valor mı́nimo da
função objetivo.

Equações de atualização:

LMS: w(k + 1) = x(k) + 2µe(k)x(k) , µ constante (4.23)


NLMS: w(k + 1) = x(k) + 2µ(k)e(k)x(k), µ variável (4.24)

Sabemos que o sinal de erro e(k) é expresso da seguinte maneira

e(k) = d(k) − y(k) (4.25)


= d(k) − wT (k)x(k). (4.26)

Definindo o erro à posteriori, e+ (k), i.e., o erro obtido após a atualização dos
coeficientes do filtro adaptativo, como sendo

e+ (k) = d(k) − wT (k + 1)x(k), (4.27)

substituindo (4.24) em (4.27) e fazendo µk = µ(k), temos

e+ (k) = d(k) − (w(k) + 2µk e(k)x(k))T x(k)

37
= d(k) − wT (k)x(k) − 2µk e(k)xT (k)x(k)
= (d(k) − wT (k)x(k)) − 2µk e(k)xT (k)x(k)
= e(k) − 2µk e(k)xT (k)x(k)
= (1 − 2µk xT (k)x(k))e(k). (4.28)

Desejamos otimizar o erro a posteriori, visando acelerar a convergência do algo-


ritmo. Minimizando (e+ (k))2 em relação ao fator de aprendizagem µk ,
 2 
(e+ (k))2 = 1 − 4µk xT (k)x(k) + 4µk 2 xT (k)x(k) e(k) (4.29)

∂(e+ (k))2 2
= −4xT (k)x(k) + 8µk xT (k)x(k) (4.30)
∂µk
2
0 = −4xT (k)x(k) + 8µk xT (k)x(k)
1
µk = . (4.31)
2 xT (k) x(k)

Substituindo (4.31) em (4.24), obtemos

x(k)
w(k + 1) = w(k) + e(k). (4.32)
xT (k)x(k)

A equação de atualização do algoritmo NLMS resultante é

µn
w(k + 1) = w(k) + T
e(k)x(k), (4.33)
γ+ x (k)x(k)

onde o parâmetro µn , fator de convergência, é uma constante adicionada visando


controlar o desajustamento causado pelo fato de todas as derivações serem feitas
considerando valores instantâneos do erro quadrático e não o MSE. O fator γ, por
sua vez, é uma constante muito pequena adicionada ao denominador apenas para
evitar eventuais singularidades (divisões por zero). Para convergência garantida, µn
deve pertencer ao intervalo [27]

0 < µn ≤ 1. (4.34)

O algoritmo baseado na abordagem apresentada é chamado de Normalized Least


Mean Square (NLMS) [27].

38
Algoritmo 2 Normalized Least Mean Square (NLMS)
1: Inicialização
2: x(0) = w(0) = [0 0 ... 0]T
3: Escolher µn dentro do intervalo 0 < µn ≤ 1
4: γ = pequena constante
5: Faça, para k ≥ 0
6: e(k) = d(k) − wT (k)x(k)
µn
7: w(k + 1) = w(k) + T
e(k)x(k)
γ + x (k)x(k)

4.3.4 O Algoritmo RLS


O problema de projetar um filtro com o intuito de estimar um determinado sinal a
partir de um outro sinal pode ser abordado tanto do ponto de vista estatı́stico quanto
determinı́stico [31]. O filtro de Wiener e suas versões adaptativas (LMS e NLMS)
se enquadram no contexto estatı́stico, uma vez que são baseados na minimização
do erro quadrático médio (MSE). Na presente seção, trataremos de um algoritmo
que se encaixa na segunda abordagem mencionada (i.e., determinı́stica), o algoritmo
RLS (do inglês recursive least-squares), baseado no método dos mı́nimos quadrados.
Enquanto nos algoritmos mencionados anteriormente, a função objetivo era

ξ(k) = E[e2 (k)], (4.35)

no algoritmo RLS teremos uma nova função custo, uma função determinı́stica, defi-
nida da seguinte maneira

k
X
ξ(k) = λk−i e2 (i) (4.36)
i=0
k
X 2
λk−i d(i) − xT (i)w(k)

=
i=0
k
X 2
λk−i d(i) − xT (i)w(k) .

= (4.37)
i=0

Intuição

A intuição por trás da função objetivo do algoritmo RLS pode ser obtida
expandindo-se o somatório da Equação (4.37). Fazendo isso, obtemos
2 2
ξ(k) = λk d(0) − xT (0)w(k) + λk−1 d(1) − xT (1)w(k) +
 
2
... + d(k) − xT (k)w(k) .

(4.38)

39
Para simplificar a explicação, suponha que λ = 1, dessa forma temos
2  2
ξ(k) = d(0) − xT (0)w(k) + d(1) − xT (1)w(k) +

2
... + d(k) − xT (k)w(k)

(4.39)
k
X 2
d(i) − xT (i)w(k) .

= (4.40)
i=0

Na função objetivo do algoritmo RLS, calculamos o erro atual, e(k) = d(k) −


xT (k)w(k), idealmente, desejamos que essa diferença seja zero, caso ela não seja, a
função objetivo é penalizada com o quadrado dessa diferença. Essa análise, todavia,
não é feita somente para a amostra atual (k-ésima amostra), mas também para as
amostras coletadas previamente, ou seja, levando em conta todos os erros a priori,
ε(i) = d(i) − xT (i)w(k), i.e., os erros que terı́amos nas amostras passadas caso
os coeficientes do filtro fossem os da amostra atual. A soma do quadrado de todos
esses erros constitui a função objetivo do RLS. Se analisarmos com calma a Equação
(4.40), podemos refiná-la um pouco mais, pois, não seria ideal que o erro a priori
da iteração 0 seja penalizado igualmente ao erro da iteração k − 2, é totalmente
natural pensarmos que erros mais “antigos” não devam ser tão penalizados na função
objetivo, por essa razão, adicionamos pesos ao quadrado desses erros, esses pesos
são representados pela função ρk (i) = λk−i .

k
X 2
ρk (i) d(i) − xT (i)w(k)

ξ(k) = (4.41)
i=0
k
X 2
λk−i d(i) − xT (i)w(k) ,

= (4.42)
i=0

onde 0  λ ≤ 1.
Perceba que agora, quanto mais recente for a amostra, maior será sua contribui-
ção na função custo, e quanto mais antiga, menor. Pelo fator que desempenha, o
coeficiente λ é chamado de fator de esquecimento.

Algoritmo

De forma a obter os coeficientes w(k) que minimizam a função ξ(k), derivamos


a função em relação a w e a igualamos o resultado a zero.

k
∂ξ ∂ X k−i  2
= λ d(i) − xT (i)w(k)
∂w ∂w i=0

40
k
X ∂ n k−i  T
2 o
= λ d(i) − x (i)w(k)
i=0
∂w
k
X
λk−i x(i) d(i) − xT (i)w(k) .
 
= −2 (4.43)
i=0

Igualando a derivada a zero, obtemos

k iT
X
k−i
 T
 h
−2 λ x(i) d(i) − x (i)w(k) = 0 . . . 0 (4.44)
i=0
k
X k
X
k−i
− λ x(i)d(i) + λk−i x(i)xT (i)w(k) = 0
i=0 i=0
" k
# k
X X
k−i T
λ x(i)x (i) w(k) = λk−i x(i)d(i)
i=0 i=0
" k #−1 k
X X
k−i T
w(k) = λ x(i)x (i) λk−i x(i)d(i)
i=0 i=0

w(k) = R−1
D (k)pD (k), (4.45)

onde RD e pD , chamados, respectivamente, de matriz de correlação cruzada deter-


minı́stica do sinal de entrada x(k) e vetor de correlação cruzada determinı́stico entre
os sinais desejado d(k) e de entrada são:

k
k X
pD (k) = λk−i x(i)d(i). (4.47)
X
k−i T
RD (k) = λ x(i)x (i), (4.46)
i=0
i=0

O grande problema que nosso algoritmo apresenta, neste momento, se deve ao


fato de termos uma inversão matricial, o que faz com que sua complexidade computa-
cional seja O[N 3 ]. Para as aplicações de nosso interesse, i.e., em aparelhos auditivos,
que, na maioria dos casos, apresentam hardwares alimentados por bateria, operações
com complexidade tão grande devem ser evitadas. Para contornar esse empecilho
causado pela inversão matricial, a calculamos de uma maneira recursiva, utilizando
informação já conhecida.

k
X
RD (k) = λk−i x(i)xT (i)
i=0
k−1
X
= λk−i x(i)xT (i) + x(k)xT (k)
i=0

41
k−1
X
= λ(k−1)−i λx(i)xT (i) + x(k)xT (k)
i=0
Xk−1
=λ λ(k−1)−i x(i)xT (i) + x(k)xT (k)
i=0

= λRD (k − 1) + x(k)xT (k). (4.48)

Fazendo procedimento semelhante para pD (k), obtemos

pD (k) = λpD (k − 1) + d(k)x(k). (4.49)

Utilizando a fórmula de Sherman-Morrison [33], a Equação (4.48) vira

−1 λ−1 R−1 T −1 −1
D (k − 1)x(k)x (k)λ RD (k − 1)
[RD (k)] =λ −1
R−1 − 1) −
D (k
1 + xT (k)λ−1 R−1
D (k − 1)x(k)

R−1 T −1
 
1 −1 D (k − 1)x(k)x (k)RD (k − 1)
= RD (k − 1) − . (4.50)
λ λ + xT (k)R−1
D (k − 1)x(k)

Visando compactar a equação, faremos

R−1
D (k) = SD (k). (4.51)

Substituindo (4.51) em (4.50), obtemos

SD (k − 1)x(k)xT (k)SD (k − 1)
 
1
SD (k) = SD (k − 1) − . (4.52)
λ λ + xT (k)SD x(k)

Em posse das simplificações feitas, podemos descrever o algoritmo RLS conven-


cional [27].

Algoritmo 3 Conventional Recursive Least Square (RLS)


1: Inicialização
2: SD (−1) = δI
3: Onde δ pode ser o inverso da potência estimada do sinal de entrada
4: pD (−1) = x(−1) = [0 0 ... 0]T
5: Faça para k ≥ 0:
SD (k − 1)x(k)xT (k)SD (k − 1)

1
6: SD (k) = SD (k − 1) −
λ λ + xT (k)SD x(k)
7: pD (k) = λpD (k − 1) + d(k)x(k)
8: w(k) = SD (k)pD (k)
9: Caso necessário, calcule:
10: y(k) = wT (k)x(k)
11: e(k) = d(k) − y(k)

42
4.4 Resultados
Esta seção dedica-se a apresentar os resultados obtidos ao implementar, em am-
biente computacional simulando um cenário livre de reflexões, os filtros adaptativos
e algoritmos apresentados no decorrer deste capı́tulo. Para as simulações feitas, a
fim de mensurar o desempenho da estrutura de filtro bem como dos algoritmos adap-
tativos apresentados previamente, foi utilizado o diagrama de blocos que pode ser
visto na Figura 4.6. Perceba que, nesta arquitetura, os sinais de ruı́do n1 (k) e n2 (k)
são correlacionados entre si, uma vez que n2 (k) é o resultado do processamento de
n1 (k) por um filtro AR (autorregressivo) de primeira ordem.
Na simulação foram inseridas componentes de ruı́do no sinal desejado e de refe-
rência, gerados a partir de um ruı́do gaussiano branco com SNRdB = 10 dB, visando
simular um cenário que sofre de forte interferência.

v(k) d(k) = v(k) + n1(k)


+

n1(k) n2(k) y(k) -


Filtro
AR(1) e(k)
Adaptativo

Algoritmo
Adaptativo

Figura 4.6: Arquitetura utilizada nas simulações.

4.4.1 Simulação utilizando o algoritmo LMS


O algoritmo LMS, por apresentar um tamanho de passo µ fixo, apresenta uma
convergência bem mais lenta que sua versão normalizada NLMS, pois este possui
passo variável, o que tende a otimizar o número de amostras necessárias para que o
algoritmo atinja seu valor ótimo para um dado valor de MSE.
A Figura 4.7 constitui o resultado obtido para o primeiro cenário de simulação,
onde, para um sinal desejado constituı́do por voz v(k) acrescida de ruı́do n1 (k),
adotou-se um passo de convergência consideravelmente pequeno (0,001), a fim de
analisar o aprendizado do filtro ao longo do tempo. É possı́vel notar que, para as
primeiras amostras, o sinal de erro acompanha o de entrada, ao passo que, ao final
do experimento, o sinal de erro rastreia o de interesse, ao eliminar o ruı́do em sua
quase totalidade.
A fim de se analisar a convergência para os diferentes valores de passo de algo-
ritmo, fixou-se o número de coeficientes do filtro em 32. É importante ressaltar que,

43
Cancelamento de Ruído pelo Algoritmo LMS
1.5
Sinal Corrompido
Resultado do Cancelamento de Ruído
Sinal de Interesse
1
Valor do Sinal

0.5

-0.5

-1
0 0.5 1 1.5 2 2.5 3 3.5 4
Amostra 4
10

Figura 4.7: Convergência do algoritmo para µ = 0, 001.

para o algoritmo LMS, faz-se necessária a escolha adequada do passo de convergên-


cia µ, cujo intervalo deve estar dentro do limite estabelecido pela Equação (4.21), o
que limita os valores que podem ser escolhidos a números muito pequenos. A Figura
4.8 apresenta as curvas de aprendizada obtidas para o algoritmo LMS para os casos
em que temos os seguintes valores de µ: 0,001, 0,008, 0,025 e 0,05.
Note que para um valor de passo extremamente pequeno, como para µ = 0, 001,
a convergência para a solução ótima tende a ser muito lenta, tendo em vista que
o algoritmo dá pequenos passos em direção ao valor mı́nimo da superfı́cie MSE. É
possı́vel perceber que para valores de µ inferiores ao limite superior estabelecido pela
Equação (4.8), quanto maior o passo, mais rápida tende a ser a convergência inicial
do algoritmo. Porém, perceba que para µ = 0, 025, a partir de um determinado
instante, seus valores de MSE tornam-se superiores aos de µ = 0, 008, isso ocorre pelo
fato de que, para passos grandes, o algoritmo tende a oscilar em torno do mı́nimo da
função objetivo, apresentando uma variância maior em torno da solução de Wiener
do que teria para um step menor. Para o caso em que µ = 0, 05, temos o cenário
em que a condição da Equação (4.21) não é obedecida, o que leva à divergência do
algoritmo LMS.
Ainda para o mesmo diagrama de blocos, considerando agora um segundo cenário
de simulação, dessa vez para um sinal desejado composto por

v(k) = sin(750k),

44
Performance para o MSE
101
= 0.001
= 0.008
= 0.025
= 0.05
100
MSE

10-1

10-2

10-3
0 200 400 600 800 1000 1200 1400 1600 1800 2000
Amostra

Figura 4.8: Curvas de aprendizado para o algoritmo LMS.

acrescido de ruı́do, a solução de Wiener para estes dados de entrada e considerando


um filtro de ordem 6 assume os valores:

wo (k) = [1, 0001 0, 3060 0, 1050 0, 0482 0, 1360 0, 0959 0, 0477]T . (4.53)

No experimento realizado, assumindo o mesmo valor de passo utilizado no primeiro


cenário de teste, o vetor de coeficientes do filtro, na última iteração do algoritmo,
foi

w(k) = [0, 8644 0, 1198 − 0, 0020 − 0, 0046 0, 0680 0, 0214 0, 0292]T . (4.54)

A Figura 4.9 mostra, para este caso, as soluções geradas pelos filtros de Wiener
e pelo filtro adaptativo utilizando o algoritmo LMS.

4.4.2 Simulação para o algoritmo NLMS


Os mesmos cenários de simulação utilizados na análise do algoritmo LMS foram
considerados para fazer a avaliação de sua versão normalizada, o NLMS. Conside-
rando o caso em que o sinal desejado é constituı́do pela voz de um determinado
falante, corrompida por um ruı́do branco gaussiano, podemos observar a forma de
onda obtida em uma das realizações do experimento, ao final de todas as etapas de
processamento, na Figura 4.10.
Pode-se perceber que o mesmo apresenta uma convergência bem mais rápida do

45
2
Sinal descorrompido pela solução de Wiener
Sinal descorrompido pelo LMS
1.5

0.5
Amplitude

-0.5

-1

-1.5

-2
900 910 920 930 940 950 960 970 980 990 1000
Amostras

Figura 4.9: Senoide descorrompida pela solução de Wiener e pelo filtro utilizando
LMS.

Cancelamento de Ruído pelo Algoritmo NLMS


1.5
Sinal Corrompido
Resultado do Cancelamento de Ruído
Sinal de Interesse
1
Valor do Sinal

0.5

-0.5

-1
0 0.5 1 1.5 2 2.5 3 3.5 4
Amostra 104

Figura 4.10: Convergência do algoritmo NLMS para µ = 0, 75.

que quando comparado à sua versão não normalizada, o que deve-se principalmente
ao fato deste último apresentar passo de convergência estático, ou seja, cujo valor
permanece constante ao longo de todo experimento, enquanto que o NLMS possui

46
passo dinâmico, cujo valor varia ao longo das iterações, otimizando o número de
amostras necessárias a se chegar ao valor ótimo. Pela Figura 4.11 é possı́vel perceber
que o sinal de erro do algoritmo NLMS rastreia o sinal de interesse já nas primeiras
amostras, ao passo que o LMS leva uma quantidade maior de iterações.

Comparação entre LMS e NLMS


1.5
Sinal Corrompido
Resultado do Cancelamento de Ruído - LMS
Resultado do Cancelamento de Ruído - LMS
1 Sinal de Interesse
Valor do Sinal

0.5

-0.5

-1
0 0.5 1 1.5 2 2.5 3 3.5 4
Amostra 4
10

Figura 4.11: Comparação entre LMS e NLMS.

Valor ressaltar que, assim como para o LMS, para valores de passo pequenos, a
convergência para a solução ótima ocorre de maneira mais lenta. Uma das vantagens
de se utilizar o NLMS é o maior leque de valores de fatores de convergência µn que
podem ser empregados, uma vez que, para convergência garantida, o valor adotado
deve obedecer a Equação (4.34).
Visando analisar a convergência do algoritmo para diferentes passos iniciais, no-
vamente fixou-se o número de coeficientes do filtro em 32. Como mencionado pre-
viamente, o algoritmo NLMS não apresenta as mesmas restrições de tamanho de
passo que sua contraparte não normalizada, o que possibilita o emprego de µ’s mais
elevados e, consequentemente, acelerando a convergência do método empregado. A
Figura 4.8 apresenta as curvas de aprendizado para diferentes valores de passo.
Considerando o cenário quando o sinal de entrada é dado por d(k) = sin(750k)+
n1 (k), a solução de Wiener bem como a obtida ao final da realização do experimento
empregando o algoritmo LMS e NLMS podem ser vistas na Tabela 4.1, enquanto a
Figura 4.13 mostra as suas respectivas formas de onda.

47
Performance para o MSE
101
= 0.008
= 0.05
= 0.25
= 0.85
100
MSE

10-1

10-2

10-3
0 200 400 600 800 1000 1200 1400 1600 1800 2000
Amostra

Figura 4.12: Curvas de aprendizado para diferentes µ.

Coeficiente wo WLM S WN LM S
w0 1,001 0,8644 0,9690
w1 0,3060 0,1198 0,2661
w2 0,1050 -0,0020 0,1226
w3 0,0482 -0,0046 0,1074
w4 0,1360 0,0680 0,2210
w5 0,0959 0,0214 0,1914
w6 0,0477 0,0292 0,1127

Tabela 4.1: Comparação entre as diferentes soluções

4.4.3 Simulação para o algoritmo RLS


Algoritmos da famı́lia LMS representam os algoritmos adaptativos mais simples
e de fácil implementação, enquanto que os do tipo RLS são conhecidos por seu
excelente desempenho, oferecendo uma convergência mais rápida e uma diferença
menor entre o sinal de erro do filtro e o sinal de interesse quando comparado aos do
gênero LMS, ao custo de uma maior complexidade computacional.
O algoritmo RLS, dentre todos os que foram testados, foi o que apresentou melhor
desempenho, tanto em termos de convergência quanto em cancelamento de ruı́do.
O sinal de erro do filtro rastreia o sinal de interesse desde as iterações iniciais do
experimento, como pode ser visto na Figura 4.14.
Comparando os resultados obtidos com os coletados previamente fica nı́tido ser
o método mais rápido e com melhor desempenho. A Tabela 4.2 apresenta as SNR’s
obtidas para as diferentes simulações realizadas.

48
2
Sinal descorrompido pela solução de Wiener
1.5 Sinal descorrompido pelo LMS
Sinal descorrompido pelo NLMS

0.5
Amplitude

-0.5

-1

-1.5

-2
900 910 920 930 940 950 960 970 980 990 1000
Amostras

Figura 4.13: Formas de onda da solução de Wiener vs das soluções implementadas.

Cancelamento de Ruído pelo Algoritmo RLS


1.5
Sinal Corrompido
Resultado do Cancelamento de Ruído
Sinal de Interesse
1
Valor do Sinal

0.5

-0.5

-1
0 0.5 1 1.5 2 2.5 3 3.5 4
Amostra 104

Figura 4.14: Convergência para o algoritmo RLS.

49
|Pvoz − Perro |
Algoritmo SN RdB (%)
Pvoz
LMS 3.5771 15,06
NLMS 5.8255 9,02
RLS 6.7841 0,37

Tabela 4.2: Indicadores de performance.

Comparação entre os algoritmos


1.5
Sinal Corrompido
Resultado do Cancelamento de Ruído - LMS
Resultado do Cancelamento de Ruído - NLMS
1 Resultado do Cancelamento de Ruído - RLS
Sinal de Interesse
Valor do Sinal

0.5

-0.5

-1
0 0.5 1 1.5 2 2.5 3 3.5 4
Amostra 104

Figura 4.15: Comparação entre os algoritmos adaptativos.

50
Capı́tulo 5

Cancelador Adaptativo de Ruı́do

Como mencionado nos capı́tulos anteriores, um filtro adaptativo pode ser en-
tendido como um sistema que visa separar uma mistura de dois sinais, d(k) =
v(k) + n(k), sendo v(k) o sinal de interesse e n(k) o sinal de ruı́do. Para tal, é
necessário que o filtro tenha alguma informação sobre esses sinais de modo a ser
apto a entender o que deve e o que não deve ser removido. Esta informação é dada
sob a forma do sinal de entrada x(k), o qual deve ser correlacionado com o sinal que
desejamos atenuar e descorrelacionado com o sinal de interesse.
Em todos os experimentos realizados ao longo do Capı́tulo 4, assumimos que o
sinal de entrada era correlacionado com o sinal que desejávamos eliminar, de modo
que à medida que o filtro convergia era possı́vel perceber uma redução na intensidade
do mesmo e, consequentemente, o sinal de interesse era realçado. Ou seja, assumimos
que já dispúnhamos de um sinal correlacionado com o sinal interferidor à priori, algo
que na prática não ocorre, o que torna necessário a elaboração de que gere um sinal
de entrada correlacionado com o sinal interferidor. Visando contornar tal problema,
foi implementada a arquitetura de cancelador adaptativo de ruı́do proposta por [34],
a qual pode ser vista na Figura 5.1.

Voz de + Sinal
+ Referência Resultante
Delay Delay

Microfone +
Principal -

+
Ruído de
Filtro - Referência Filtro
Adaptativo Adaptativo

Microfone

Primeiro Segundo
Estágio Estágio

Figura 5.1: Cancelador adaptativo de ruı́do.

É possı́vel perceber que o diagrama de blocos em questão é constituı́do por dois


estágios principais, os quais serão detalhadamente explicados nas seções a seguir.

51
5.1 Primeiro Estágio - Beamformer Griffiths-Jim
O primeiro estágio da arquitetura implementada corresponde a um beamformer
Griffiths-Jim [35]. É possı́vel perceber que o mesmo é constituı́do por um arranjo
composto por dois microfones, sendo que um dos canais apresenta um beamformer do
tipo delay-and-sum, enquanto o outro apresenta um filtro adaptativo. Seu objetivo é
fazer com que ao final desta etapa de processamento tenhamos dois sinais, um sinal
constituı́do majoritariamente por ruı́do e uma quase total ausência de voz (sinal este
que referenciaremos pelo nome de ruı́do de referência nref (k)) e o outro composto
majoritariamente por voz (voz de referência vref (k)), fornecendo, dessa forma, dois
sinais onde as componentes de ruı́do estão correlacionadas entre si.

Voz de
s2(k) + Referência
Delay

Microfone +
Principal

+
Ruído de
s1(k) Filtro - Referência
Adaptativo

Microfone

Figura 5.2: Griffiths-Jim beamformer.

A função do filtro espacial é deixar em coerência (i.e., alinhar temporalmente) a


componente de interesse no sinal de ambos os canais, como visto na Figura 5.4. Isso
é feito através da obtenção do valor máximo da função de correlação cruzada entre
os dois canais, a qual corresponde ao atraso que deve ser aplicado de modo a deixar
as parcelas desejadas em coerência. Ao promovermos seu alinhamento temporal,
estamos fortalecendo a correlação cruzada existente entre os sinais coletados pelo
par de microfones, além de atenuarmos a componente de ruı́do graças ao efeito
atenuador que as componentes fora de coerência sofrem no beamforming delay-and-
sum, conforme explicado no Capı́tulo 3. O valor do delay que deve ser empregado é
facilmente obtido através da Equação (5.1)

τ̂ CC = arg max rsCC


1 s2
(p), (5.1)
p

sendo s1 (k) e s2 (k) os sinais coletados em cada um dos microfones que compõe o
arranjo.
O objetivo de se utilizar o filtro adaptativo no beamformer de Griffths-Jim, por
sua vez, é promover uma equalização das amplitudes da componente de interesse, as
quais, dependendo da distância entre os microfones, podem sofrer atenuação devido

52
Figura 5.3: Sinais fora de coerência.

Figura 5.4: Sinais em coerência.

a propagação da frente de onda no meio. Isto é fundamental para que o ruı́do de


referência tenha pouca ou nenhuma componente do sinal de interesse, forçando a
descorrelação entre esses sinais.
Nesta arquitetura, o sinal na saı́da do beamforming nos fornece o sinal voz de
referência, enquanto que sua subtração da saı́da do filtro adaptativo nos fornece o
ruı́do de referência, conforme ilustrado pela Figura 5.5. Pelo fato de muitas vezes,
em situações cotidianas, existirem trechos de silêncio (em que há ausência de voz),

53
Voz de
Referência
+
s2(k) = v(k - T) + n2(k) s2(k+T) ? v(k) + 0.5*n2(k + T) vref(k) ? 2*v(k) + n1(k) + 0.5*n2(k + T)
Delay

Microfone +
Principal

Ruído de
Referência
+
s1(k) = v(k) + n1(k)
Filtro y(k) ? v(k) + n1(k) - nref(k) ? 0.5*n2(k + T) - n1(k)
Adaptativo

Microfone

Figura 5.5: Voz e ruı́do de referência.

foi inserido um VAD (do inglês voice activity detector ) à arquitetura, visando fazer
com o que o filtro adaptativo só adapte seus coeficientes quando na presença da
componente de interesse, evitando assim que o filtro aprenda a componente não
desejada (ruı́do). O diagrama de blocos com a inserção do VAD pode ser visto na
Figura 5.6.

Voz de
+ Referência
Delay

Microfone +
Principal

+
Ruído de
Filtro - Referência
Adaptativo

Microfone

VAD VAD On/Off

Figura 5.6: Arquitetura com VAD inserido.

5.2 Realce de voz


O segundo estágio de processamento do cancelador adaptativo de ruı́do corres-
ponde a um diagrama tradicional de filtro adaptativo para realce de sinal, como
pode ser visto na Figura 5.7. Ele apresenta na trilha superior um bloco atrasador e
na trilha inferior um filtro adaptativo.
A função do atrasador, semelhantemente ao que ocorre no beamformer Griffiths-
Jim, é promover o alinhamento temporal, mas nesse caso, a componente que dese-
jamos deixar em coerência é a parcela indesejada, a de ruı́do. Em um dos canais
temos majoritariamente voz e em outro temos ruı́do em sua maioria. Ao deixarmos

54
Voz de
+ Saída
referência
Delay

Ruído de
referência Filtro
Adaptativo

Figura 5.7: Segundo estágio do cancelador adaptativo de ruı́do.

os sinais de ruı́do presentes em ambos os canais em fase, fortalecemos a correlação


cruzada existente entre eles, propiciando um cenário mais adequado para o filtro
adaptativo, pelo fato das parcelas interferidoras obtidas ao final do primeiro estágio
estarem correlacionadas, e fazendo com que ele seja capaz de melhorar a qualidade
do sinal de voz de referência ao atenuar a intensidade do ruı́do presente na amostra
de áudio.
Nesse estágio de processamento, o VAD também foi utilizado por conta de even-
tuais janelas ausentes de fala que o sinais possam apresentar, a Figura 5.8 apresenta
a arquitetura completa do cancelador adaptativo.

+ +
Delay Delay

+ -

Filtro Filtro
Adaptativo Adaptativo
-

VAD
VAD On/Off

Figura 5.8: Cancelador adaptativo de ruı́do.

5.3 Resultados
O cenário de simulação considerado para análise do modelo implementado foi
constituı́do por um arranjo de dois microfones separados de 3 cm entre si e com um
ângulo de incidência em relação à normal ao arranjo de 20o . A etapa de realce de
sinal via filtragem adaptativa foi feita utilizando um filtro de ordem 30 empregando
o algoritmo NLMS com um valor de passo igual a 0, 65.
Pelo fato da distância entre os dois microfones ser muito pequena, inferior a 5
cm, foi removido do diagrama de blocos o filtro adaptativo cuja função era equalizar

55
a amplitude das componentes de interesse dos sinais em ambos os canais, tendo em
vista que, para essa distância e as frequências de operação em análise, não haveria
redução de amplitude a nı́veis que justificassem sua presença. A arquitetura final
utilizada no experimento pode ser vista na Figura 5.10, note que o VAD presente
no primeiro estágio da arquitetura da Figura 5.9 foi removido.
+ +
v(k - T) + n2(k) vref(k)
Delay Delay

+ -

+
v(k) + n1(k) Filtro nref(k) Filtro
Adaptativo Adaptativo
-

VAD
VAD On/Off

Figura 5.9: Arquitetura do cancelador adaptativo de ruı́do.

+ +
v(k - T) + n2(k) vref(k)
Delay Delay

+ -

+
v(k) + n1(k) nref(k) Filtro
Adaptativo
-

VAD On/Off
VAD

Figura 5.10: Arquitetura utilizada no experimento.

5.3.1 Resultados obtidos para ruı́dos com alta potência


Neste cenário de simulação, o qual pode ser visto na Figura 5.10, cada microfone
do arranjo era atingido em instantes de tempo diferentes por uma fonte sonora
localizada no espaço, que somados a ruı́dos térmicos, eletromagnéticos, entre outros
intrı́nsecos aos sensores, constituı́ram o sinal em cada um dos canais. Estes sinais
interferidores encontravam-se apenas 10 dB abaixo da potência do sinal de interesse,
ou seja, está sendo considerada uma situação com forte presença da componente de
ruı́do, algo que não costuma acontecer na prática. No entanto, para fins didáticos é
de interesse avaliar o comportamento da arquitetura nesta situação.

Beamforming

A Figura 5.11 mostra o gráfico da função de correlação cruzada entre os sinais


coletados pelos dois microfones do arranjo. A amostra em que ocorre o pico de
correlação cruzada entre os canais corresponde ao quanto temos de atrasar o sinal
em um dos canais de modo que eles fiquem coerentes. Comparando este gráfico

56
de correlação cruzada com o que pode ser visto na Figura 5.12, em que o mesmo
gráfico foi obtido após a etapa de filtragem espacial, é possı́vel notar que o pico de
correlação após o delay-and-sum se dá na origem, atestando a coerência entre as
componentes de interesse.

Figura 5.11: Correlação cruzada entre os sinais coletados pelos microfones.

Figura 5.12: Correlação cruzada entre o sinal de saı́da do filtro espacial e o sinal
coletado pelo microfone da trilha inferior.

A Figura 5.13 mostra o sinal obtido após o beamforming delay-and-sum, é possı́vel

57
notar uma convergência em direção ao sinal de interesse, tendo em vista que as
componentes de ruı́do foram atenuadas na etapa de beamforming por estarem fora
de fase, diferentemente da parcela de interesse. A atenuação observada neste cenário
é mais fraca que as obtidas no Capı́tulo 3, isso ocorre pelo fato de que na simulação
feita previamente, em que foi tratado esse tema especı́fico, o número de microfones
utilizados no arranjo era de 5 sensores, enquanto que na simulação em questão foram
apenas 2, sendo que a qualidade do beamforming é diretamente proporcional ao
número de sensores empregados. Foi empregado um número reduzido de microfones
na arquitetura proposta por ela ter o intuito de modelar um aparelho auditivo que,
usualmente, são instrumentos pequenos e que possuem limitações fı́sicas de espaço.

Figura 5.13: Sinais antes e após o beamforming.

Realce de voz

Como já discutido previamente, os sinais de referência, tanto de voz quanto de


ruı́do, são obtidos a partir do sinal coletado na saı́da do filtro adaptativo, o primeiro
é dado pela soma dos sinais em ambos os canais, enquanto o segundo por sua sub-
tração. Como as componentes de interesse entre esses dois canais estão em coerência
e as parcelas de ruı́do não, ao realizar a operação de soma mencionada, temos um
sinal composto majoritariamente por voz, enquanto que realizar a subtração leva
ao cancelamento da mesma, nos deixando apenas com a parcela ruidosa. A Figura
5.13 mostra o sinal voz de referência em comparação com o sinal de interesse e o
sinal coletado pelo microfone em que se localiza o filtro espacial, note que o sinal
de voz de referência apresenta um ligeiro realce, o que já era esperado, tendo em
vista que pelo fato do beamforming delay-and-sum deixar em coerência as parcelas
de interesse para, em seguida, somá-las e normalizá-las, ele fortalece a componente

58
de interesse, ao passo que atenua as componentes de ruı́do. A Figura 5.14 mostra a
saı́da do VAD implementado, perceba que os instantes em que o sinal de áudio, em
amarelo, apresenta trechos de silêncio (i.e., trechos em que sua constituição é dada
majoritariamente por ruı́do) são os momentos em que as intensidades mais baixas
são registradas, e que os instantes em que elas ocorrem condizem perfeitamente com
as probabilidades de presença de voz registradas pelo VAD, sinal em azul.

Figura 5.14: Saı́da do VAD.

Figura 5.15: Sinais de referência.

A Figura 5.15 mostra o resultado obtido ao final de todas as etapas de processa-


mento. Nela é possı́vel notar uma ligeira atenuação do ruı́do, os resultados, contudo,
não são mais expressivos por limitações da arquitetura. Se assumirmos que o filtro
adaptativo é constituı́do por dois coeficientes (ordem 1), caso o ruı́do n1 (k) seja
mais potente que n2 (k), o primeiro coeficiente do filtro (neste caso, o mais relevante
devido a forte correlação cruzada existente entre os sinais de voz e ruı́do de referên-
cia na origem) tenderá a -1, visando deixar em fase a parcela de n1 (k) presente em

59
nref (k) com a presente em vref (k), porém, ao fazer isso acabamos aproximadamente
dobrando a componente n2 (k). O mesmo efeito ocorre quando n2 (k) é o mais forte,
porém, nesse caso, o primeiro coeficiente do filtro tenderá a 1, almejando fazer com
as que as parcelas referentes à n2 (k) em ambos os sinais de referência permaneçam
temporalmente alinhadas, contudo, isso vem ao custo de uma intensificação do valor
de n1 (k), a Tabela 5.1 apresenta os resultados obtidos. Podemos concluir, portanto,
que o presente cancelador adaptativo de ruı́do apresenta a limitação de fortalecer
o ruı́do de menor potência ao atenuar o de maior. Contudo, vale a pena relembrar
que, em situações práticas, os ruı́dos aditivos costumam ter potência muito inferior
a do sinal de interesse, diferentemente dos valores empregados nesta seção, de forma
que esta limitação da estrutura tende a não impactar muito o resultado final.

Figura 5.16: Resultado do cancelador adaptativo de ruı́do.

SNRdB n1 SNRdB n2 1o coeficiente


15 10 -0.9753
10 15 0.9667

Tabela 5.1: Primeiro coeficiente do filtro adaptativo.

5.3.2 Resultados obtidos para ruı́dos com baixa potência e para


múltiplas fontes interferidoras
Como dito previamente, na seção 5.3.1, a estrutura do cancelador foi avaliada
considerando SNRs muito baixas com a finalidade de ilustrar uma limitação da
arquitetura. Valores de SNR dessa magnitude tipicamente não devem acontecer na
prática; do contrário seria extremamente desagradável utilizar tal aparelho auditivo.
Assim, o objetivo desta seção é levar em consideração um cenário mais próximo da
realidade, i.e., considerando múltiplas fontes interferidoras e que o ruı́do aditivo nos
microfones tem potência bem inferior à do sinal de interesse.

60
O cenário empregado no experimento pode ser visto na Figura 5.17. Nele foram
somados ruı́dos aditivos com potência 40 dB inferior à do sinal de interesse na saı́da
de cada microfone. Enquanto na simulação anterior tı́nhamos apenas a fonte de
interesse, nesta há a presença de mais duas fontes interferidoras cujas frentes de
onda faziam ângulos de 42o e 90o em relação à normal do conjunto de sensores,
respectivamente. Todas os demais parâmetros desta simulação seguem os mesmos
valores do cenário contemplado na seção anterior.

Figura 5.17: Cenário de simulação levando em conta múltiplas fontes emissoras.

O resultado obtido após a passagem do sinal pelo cancelador adaptativo de ruı́do


neste cenário foi bem mais expressivo do que o visto previamente. Apesar da arqui-
tetura apresentar a limitação de que ao tentar eliminar o ruı́do de maior potência
acaba por intensificar o de menor, esta não se mostrou ser um fator tão prejudicial
no resultado final pelo fato das SNRs em cada canal serem bastante altas, 40 dB. A
Figura 5.18 apresenta os resultados obtidos, pode-se notar ganhos bem mais expres-
sivos do que os vistos para o caso em que as razões sinal-ruı́do eram mais baixas e
atestar a eficácia da estrutura na redução da intensidade dos sinais interferidores e
o consequente realce da componente de interesse do sinal.

Figura 5.18: Resultado obtido ao final do processamento do cancelador adaptativo


de ruı́do.

61
Capı́tulo 6

Conclusão

Ao longo do presente trabalho foram realizados estudos sobre as principais com-


ponentes constituintes de um dispositivo auditivo digital, dando foco principalmente
à componente microchip, onde toda etapa de processamento digital do sinal é reali-
zada pelo aparelho.
Na sequência, foram implementadas técnicas de filtragem espacial e estimação
do ângulo de incidência. Visando atenuar a intensidade dos sinais interferidores,
foi implementado um beamforming do tipo delay-and-sum, cujo princı́pio básico de
funcionamento baseia-se em aplicar atrasos especı́ficos em cada canal do arranjo de
microfones com o intuito de deixar as componentes de interesse do sinal coletado em
coerência, e as indesejadas fora de fase, para, em seguida, somar o sinal proveniente
de cada canal e normalizar o resultado pelo número total de sensores envolvidos
na composição do arranjo. Dessa forma, ao final, teremos um sinal tão intenso
quanto o da fonte de interesse emissora e com as componentes indesejadas fortemente
atenuadas. Os resultados obtidos apontaram um ganho de 9, 51dB para a métrica
utilizada [26]. O desempenho dessa técnica é diretamente relacionado com o número
de microfones envolvidos, tendo em vista que quanto maior seu número, mais forte
será atenuação sofrida pelas componentes indesejadas na etapa de normalização.
A próxima etapa foi estimar a direção do ângulo de incidência do sinal que atinge
o arranjo de microfones, tendo em vista que, num dispositivo auditivo, essa não é
uma informação conhecida à priori. Para encontrar o TDOA da frente de onda (e,
consequentemente, sua DOA), foi utilizado o método da correlação cruzada, o qual
tem como princı́pio fundamental obter o atraso p que maximiza a função

ryCC
1 y2
(p) = E[y1 (k)y2 (k + p)]. (6.1)

Foram analisados diferentes algoritmos adaptativos baseados tanto em técnicas


estatı́sticas (LMS e NLMS), os quais são métodos de busca da solução ótima de
Wiener, e determinı́sticas (RLS), que calculam os coeficientes do filtro adaptativo

62
de forma recursiva. Analisando os resultados obtidos para as simulações feitas nessa
seção, à medida que o passo do algoritmo é aumentado a velocidade de convergência
também aumenta. Contudo, esse aumento deve estar limitado dentro dos limites
que garantem a convergência do algoritmo.
Todas as etapas de processamento descritas anteriormente (filtragem espacial,
estimação do ângulo de incidência, realce de voz utilizando filtros adaptativos) foram
integradas em um cancelador adaptativo de ruı́do de dois canais. Como em situações
práticas, não temos de antemão um sinal correlacionado com a componente de ruı́do
do sinal coletado por um dispositivo auditivo, para que o filtro seja capaz de realizar
seu cancelamento torna-se necessário a utilização de uma arquitetura que nos forneça
tal sinal. Ao implementar a arquitetura de cancelador adaptativo de ruı́do proposta
por [36] em um cenário onde os ruı́dos apresentam alta potência foi constada um
ligeiro realce ao final de todas etapas de processamento, contudo, a arquitetura
apresenta uma limitação que ao tentar eliminar o ruı́do de maior potência, acaba por
intensificar o de menor. Esta limitação, porém, não mostrou-se ser tão prejudicial
em cenários de simulação que se aproximam de cenários práticos, onde as SNRs
costumam ser bastante elevadas.
Tendo em vista os resultados obtidos no presente trabalho, pode-se citar como
futuras pesquisas:

ˆ Implementação do Frost beamforming [37] [36] visando realizar uma análise


comparativa com o desempenho obtido para o beamforming delay-and-sum;

ˆ Realizar a estimação do ângulo de incidência da frente de onda incidente uti-


lizando técnicas como o algoritmo ROOT-MUSIC [36];

ˆ Análise de outros algoritmos adaptativos visando o cancelamento de ruı́do;

ˆ Elaboração de uma arquitetura de cancelador adaptativo de ruı́do capaz de


corrigir as limitações observadas na arquitetura da estrutura empregada neste
trabalho.

63
Referências Bibliográficas

[1] “Deafness and hearing loss”. https://www.who.int/news-room/fact-sheets/


detail/deafness-and-hearing-loss. Accessado: 10-08-2019 às 13:06h.

[2] LI, C.-M., ZHANG, X., HOFFMAN, H. J., et al. “Hearing impairment associated
with depression in US adults, National Health and Nutrition Examination
Survey 2005-2010”, JAMA otolaryngology–head & neck surgery, v. 140,
n. 4, pp. 293–302, 2014.

[3] VALENTINUZZI, M. E. “Hearing Aid History: From Ear Trumpets to Digital


Technology”, IEEE pulse, v. 11, n. 5, pp. 33–36, 2020.

[4] Disponı́vel em https://phisick.com/item/rams-horn-antique-ear-


trumpet/. Acessado: 24-02-2021 às 16:37.

[5] PACKER, L. “Hearing aid history: From ear trumpets to digital technology”.
https://www.healthyhearing.com/report/47717-Digital-hearing-
aid-history#:~:text=Ear%20trumpets%20were%20invented%
20in,rams%20as%20primitive%20hearing%20devices.&text=They%
20didn’t%20amplify%20sound,narrow%20tube%20into%20the%20ear,
2016. Acessado: 08-02-2021 às 16:28h.

[6] “Rams Horn Antique Ear trumpet”. https://www.towersaudiology.com/


hearing-health/hearing-loss-myths/. Acessado: 24-02-2021 às 16:45.

[7] RIORDAN, M. “The lost history of the transistor”, IEEE spectrum, v. 41, n. 5,
pp. 44–46, 2004.

[8] “Sengdong Hearing Amplifier Behind The Ear for Elders”. https:
//jamaica.desertcart.com/products/190094352-sengdong-hearing-
amplifier-behind-the-ear-for-elders-rechargeable-and-clear-
voice-1-pack. Acessado: 24-02-2021 às 17:01h.

[9] “Nieuwe Oticon Opn— maakt directionaliteit achterhaald en tilt spraakvers-


taanbaarheid naar een hoger niveau”. https://www.optitrade.nl/
retailgroep/nieuws-inspiratie/nieuwe-oticon-opn-maakt-

64
directionaliteit-achterhaald-en-tilt-spraakverstaanbaarheid-
naar-een-hoger-niveau/, 2016. Acessado: 24-02-2021 às 17:08h.

[10] PLACK, C. J. The sense of hearing. Routledge, 2018.

[11] MOEDA, F. M. S. F. D. S. Patologia do ouvido e dos seios perinasais nos


desportos aquáticos. Tese de Doutorado, 2019.

[12] “Afinal, como funciona a audição humana?” https://


blog.audiumbrasil.com.br/como-funciona-a-audicao-humana/,
2017. Acessado: 24-02-2021 às 17:13h.

[13] PALMER, A. “How the Ear Works and Why Loud Sounds Cause Hearing
Loss”. In: Audio Engineering Society Conference: UK 18th Conference:
Live Sound. Audio Engineering Society, 2003.

[14] PUIU, T. “Deafness cured by gene therapy”. https://www.zmescience.com/


medicine/genetic/deafness-cured-by-gene-therapy/, 2011. Aces-
sado: 24-02-2021 às 17:17h.

[15] ELERT, G. “The physics factbook”, Retrieved, v. 2, pp. 2009, 2000.

[16] GROVES, A. K. “The challenge of hair cell regeneration”, Experimental Biology


and Medicine, v. 235, n. 4, pp. 434–446, 2010.

[17] OISHI, N., SCHACHT, J. “Emerging treatments for noise-induced hearing


loss”, Expert opinion on emerging drugs, v. 16, n. 2, pp. 235–245, 2011.

[18] WORRALL, L. E., HICKSON, L. “Communication disability in aging: From


prevention to intervention”, 2003.

[19] AKINPELU, O. V., MUJICA-MOTA, M., DANIEL, S. J. “Is type 2 diabetes


mellitus associated with alterations in hearing? A systematic review and
meta-analysis”, The Laryngoscope, v. 124, n. 3, pp. 767–776, 2014.

[20] LOHMANN, C. “How does Delay-And-Sum-Beamforming in the Time Domain


(TDBF) work?” Disponı́vel em https://www.linkedin.com/pulse/
how-does-delay-and-sum-beamforming-time-domain-tdbf-work-
lohmann/, 2017. Acessado: 08-02-2021 às 20:35h.

[21] RAPPAPORT, T. S., OTHERS. Wireless communications: principles and


practice, v. 2. prentice hall PTR New Jersey, 1996.

[22] BENESTY, J. Fundamentals of signal enhancement and array signal processing.


John Wiley & Sons Singapore Pte. Ltd, 2018.

65
[23] STOICA, P. Spectral Analysis of Signals. Prentice Hall, 2005.

[24] DMOCHOWSKI, J., BENESTY, J., AFFÈS, S. “On spatial aliasing in mi-
crophone arrays”, IEEE Transactions on Signal Processing, v. 57, n. 4,
pp. 1383–1395, 2008.

[25] BALANIS, C. A. Antenna theory: analysis and design. John wiley & sons,
2016.

[26] “Acoustic Beamforming Using a Microphone Array”. https://


www.mathworks.com/help/phased/ug/acoustic-beamforming-using-
a-microphone-array.html. Acessado: 23-02-2021 às 16:28h.

[27] DINIZ, P. S. R. Adaptive Filtering: Algorithms and Practical Implementation.


Berlin, Heidelberg, Springer-Verlag, 2007. ISBN: 0387312749.

[28] CASTOLDI, F. T. “Desenvolvimento de Algoritmos Adaptativos Usando a


Descrição de Distúrbio Mı́nimo com Restrições”, Rio de Janeiro, UFRJ,
Mestrado, 2007.

[29] THEODORIDIS, S. Academic Press Library in Signal Processing, Volume 1:


Signal Processing Theory and Machine Learning. Academic Press, 2013.

[30] DUMITRAS, A., MOSCHYTZ, G. “The First Microprocessor: An Interview


with Marcian (Ted) Hoff, Jr.” IEEE Signal Processing Magazine, v. 23,
n. 1, pp. 77–96, 2006.

[31] FARHANG-BOROUJENY, B. Adaptive filters: theory and applications. John


Wiley & Sons, 2013.

[32] WIDROW, B. “Thinking about thinking: the discovery of the LMS algorithm”,
IEEE Signal Processing Magazine, v. 22, n. 1, pp. 100–106, 2005.

[33] PRESS, W. H. “Numerical recipes: The art of scientific computing”. 2007.

[34] VANDEN BERGHE, J., WOUTERS, J. “An adaptive noise canceller for he-
aring aids using two nearby microphones”, The Journal of the Acoustical
Society of America, v. 103, n. 6, pp. 3621–3626, 1998.

[35] GRIFFITHS, L., JIM, C. “An alternative approach to linearly constrained


adaptive beamforming”, IEEE Transactions on antennas and propagation,
v. 30, n. 1, pp. 27–34, 1982.

[36] VAN TREES, H. L. Optimum array processing: Part IV of detection, estima-


tion, and modulation theory. John Wiley & Sons, 2004.

66
[37] FROST, O. L. “An algorithm for linearly constrained adaptive array proces-
sing”, Proceedings of the IEEE, v. 60, n. 8, pp. 926–935, 1972.

67
Apêndice A

Conceitos básicos de Probabilidade e


Estatı́stica

A.1 Variáveis Aleatórias


Nesta seção, daremos uma ideia intuitiva sobre o que é uma variável aleatória,
algo que, a princı́pio, pode soar um pouco confuso, pelo fato de que gostarı́amos de
pensar nelas como sendo uma variável tradicional. Uma variável aleatória X é uma
função que mapeia o resultado de um processo aleatório (como jogar uma moeda,
um dado, o volume de água que irá chover no dia de amanhã etc) em números
reais, ou seja, nós estamos quantizando os resultados. Dado um experimento e um
conjunto de resultados possı́veis (o espaço amostral), uma variável aleatória associa
um determinado número para cada resultado. Considere o exemplo de jogar uma
moeda não viciada, podemos definir nossa variável aleatória como sendo

1, se obtivermos ‘cara’
X= . (A.1)
0, se obtivermos ‘coroa’

Nós poderı́amos fazer essa definição como bem entendêssemos, poderı́amos definir
X = 100, caso obtivéssemos cara, e X = 703, caso contrário, e ainda assim X seria
uma variável aleatória. Não seria a maneira mais intuitiva de defini-la, mas ainda
assim seria uma random variable. Note que nós pegamos um processo aleatório
(jogar uma moeda) e mapeamos seus resultados (cara ou coroa) em números (1 e
0), nós quantizamos os resultados desse processo. Outro exemplo bastante comum
seria o rolar de um dado, digamos de seis faces.

68



 1, se tivermos apenas 1 ponto na face do dado virada para cima



2, se tivermos 2 pontos na face do dado virada para cima
X= . (A.2)

 ..




6, se tivermos 6 pontos na face do dado virada para cima

Variável aleatória X
Espaço Amostral

X Eixo dos no reais

Figura A.1: Visualização de uma variável aleatória. É uma função que associa um
valor numérico para cada resultado do experimento.

A questão natural que pode surgir é: “Qual a vantagem que esse tipo de variável
apresenta ?”. A maneira mais simples e intuitiva é pensar que, ao quantizar os resul-
tados desses processos aleatórios, podemos aplicar noções matemáticas sobre eles,
a notação matemática é simplificada, entre outros. Diferentemente de uma variável
tradicional, em uma variável aleatória nós nunca podemos prever com certeza o valor
exato de X, apenas ter uma noção probabilı́stica dos valores que pode assumir.
Há uma séria de conceitos básicos relacionados à variáveis aleatórias, as quais
podem ser vistas resumidamente abaixo:

Principais propriedades relacionadas à variáveis aleatórias


Partindo de um modelo probabilı́stico de um experimento:

ˆ Uma variável aleatória é uma função real dos possı́veis resultados de um


experimento;

ˆ Uma função de uma variável aleatória retorna outra variável aleatória;

ˆ Nós podemos associar a cada variável aleatória certas medidas de interesse,


tais como a média e a variância;

ˆ Uma variável aleatória pode ser condicionada a um evento ou a outra


variável aleatória.

Uma variável aleatória pode ser discreta ou contı́nua:

ˆ Uma variável aleatória discreta pode assumir um número finito/contável de

69
valores ou um número infinito contável de valores (por exemplo, suponha que
X deve pertencer ao conjunto dos números inteiros positivos, i.e., X ∈ Z+ );

ˆ Uma variável aleatória contı́nua pode assumir um número infinito de valores


dentro de um intervalo.

Estaremos mais interessados no estudo de variáveis aleatórias contı́nuas, tendo em


vistas que a amplitude de sinais aleatórios pode assumir infinitos valores.

A.2 Distribuição de probabilidade


Como já mencionamos, sinais aleatórios não apresentam uma descrição precisa de
suas formas de onda em cada realização, no entanto, é possı́vel caracterizá-los através
de medidas estatı́sticas ou modelos estatı́sticos. Uma das ferramentas necessárias
para caracterização sinais aleatórios é o conceito de distribuição de probabilidade.
Uma vez definida a variável aleatória, existe interesse no cálculo dos valores das
probabilidades correspondentes. O conjunto das variáveis e das probabilidades cor-
respondentes é denominado distribuição de probabilidade. Ou seja, uma distribuição
de probabilidade é uma função que associa a cada possı́vel ocorrência de uma va-
riável aleatória uma probabilidade. Se tomarmos, novamente, como exemplo o rolar
de uma dado (não-viciado) de 6 faces, temos:

Resultado do
Evento
o 1 ponto 2 pontos 3 pontos 4 pontos 5 pontos 6 pontos
(n de faces para
cima)
Variável
Aleatória 1 2 3 4 5 6
(X)
Probabilidade 1/6 1/6 1/6 1/6 1/6 1/6

Tabela A.1: Distribuição de probabilidade de um dado não viciado de 6 faces

No exemplo da Tabela A.1 só haviam 6 cenários possı́veis, dessa forma foi bas-
tante simples representar toda distribuição de probabilidade da variável aleatória
X sob a forma de uma tabela. Em diversos cenários, no entanto, o número de
resultados possı́veis pode ser muito extenso ou mesmo infinito, de tal forma que
representá-la utilizando uma tabela não seria a melhor abordagem. Para contornar
esse problema, utilizamos funções matemáticas, as quais nos permitem definir uma
distribuição de probabilidade de maneira sucinta.
As funções que descrevem distribuições de probabilidade para variáveis aleatórias
discretas são denominadas função massa de probabilidade (probability mass function,

70
PMF), enquanto que para as variáveis contı́nuas são chamadas de função densidade
de probabilidade (probability density function, PDF).

ˆ Função massa de probabilidade (PMF): suponha que X : S → A para A ⊆ R


é uma variável aleatória discreta definida em um espaço amostral S. A função
massa de probabilidade fX : A → [0, 1] para X é definida como

fX (x) = P r(X = x) = P ({s ∈ S : X(s) = x}). (A.3)

Pensar em probabilidade como massa nos ajuda a entender uma das proprie-
dades da PMF, visto que a probabilidade total de todos os resultados possı́veis
x se conserva assim como a massa fı́sica.
X
fX (x) = 1. (A.4)
x∈A

ˆ Função densidade de probabilidade (PDF): em teoria da probabilidade, a fun-


ção densidade de probabilidade (PDF), ou densidade de uma variável aleatória
contı́nua, é uma função que descreve a probabilidade relativa de uma variá-
vel aleatória tomar um valor dado. Enquanto que a probabilidade absoluta
de que uma variável aleatória contı́nua assuma determinado valor é 0 (uma
vez que X pode assumir um número infinito de valores), nós podemos esti-
mar a probabilidade de uma variável aleatória “cair” dentro de um intervalo
especı́fico.
Se uma variável aleatória tem densidade dada por fX (x) então o intervalo
infinitesimal [x, x + dx] tem probabilidade f (x) dx. Formalmente, a função
densidade de probabilidade, denotada por fX (x) de uma variável contı́nua X
é a função que satisfaz
Z b
FX (x) = P [a ≤ X ≤ b] = fX (x) dx. (A.5)
a

Se desejarmos saber a probabilidade de X ser menor igual a determinado valor


x, basta fazermos
Z x
FX (x) = P (X ≤ x) = f (u) du. (A.6)
−∞

Nessa última equação, a função FX (x) é chamada de função distribuição acu-


mulada (CDF, do inglês Cumulative Distribution Function). A CDF FX (x)
de uma variável aleatória X é determinada pela probabilidade de X ser me-

71
nor que o igual a um determinado valor x. P (ε) denota a probabilidade de
ocorrência do evento ε.

A.3 Valor Esperado, ou Média Estatı́stica, de uma Va-


riável Aleatória
Valor esperado é um conceito desenvolvido no século XVII com o intuito de
analisar jogos de azar e responder perguntais como:
ˆ Quanto um apostador ganha, ou perde, se ele repetidamente jogar um deter-
minado jogo?

ˆ Quanto ele pode esperar ganhar, ou perder, realizando uma determinada


aposta?
Se os resultados possı́veis do jogo (ou aposta) e suas probabilidades associadas forem
descritas por variáveis aleatórias, então essas perguntas podem ser respondidas atra-
vés do cálculo do valor esperado. O valor esperado é a soma ponderada dos possı́veis
valores que uma variável aleatória pode assumir. Por exemplo, se um jogador joga
um determinado jogo e apresenta probabilidade de 50% de ganhar $2.00, bem como
50% de chance de perder $1, 00, o valor esperado do jogo será

($2, 00) (1/2) + (−$1, 00) (1/2) = $0, 50.

Isso significa que, em média, a cada vez que o jogo for jogado, o apostador ganha
$0, 50. Para uma variável aleatória discreta X com valores possı́veis x1 , x2 , x3 , ... e
com suas probabilidades representadas pela função p(xi ), o valor esperado calcula-se
pela série
X∞
E[X] = xi p(xi ), (A.7)
i=1

desde que a série seja convergente. Se escrevermos a equação acima deixando evi-
dente a utilização da função massa de probabilidade, a equação pode ser reescrita
como ∞
X
E[X] = xi fX (xi ). (A.8)
i=1

De maneira análoga, mas com as devidas alterações feitas, para uma variável alea-
tória contı́nua X, calcula-se da seguinte maneira
Z ∞
µX = E[X] = x fX (x)dx, (A.9)
−∞

onde µX representa a média estatı́stica da variável aleatória X.

72
Apêndice B

Demonstrações

B.1 Filtro de Wiener


Nesta seção é feita dedução da equação dos coeficientes do filtro de Wiener.

ξ(k) = E[e2 (k)]


= E[(d(k) − y(k))2 ]
= E[d2 (k) − 2d(k)y(k) + y 2 (k)]
= E[d2 (k)] − 2E[d(k)y(k)] + E[y 2 (k)]
Fazendo y(k) = wT (k)x(k)
2
= E[d2 (k)] − 2E[d(k)wT (k)x(k)] + E[ wT (k)x(k) ]
= E[d2 (k)] − 2E[d(k)wT (k)x(k)] + E[ wT (k)x(k)wT (k)x(k) ]


Uma vez que wT (k)x(k) é uma esclar, podemos afirmar que: wT (k)x(k) = xT (k)w(k).
= E[d2 (k)] − 2E[d(k)wT (k)x(k)] + E[ wT (k)x(k)xT (k)w(k) ]


Assumindo que estamos em abiente estacionário, i.e., w constante


= E[d2 (k)] − 2wT E[d(k)x(k)] + wT E[xxT ]w
= E[d2 (k)] − 2wT p + wT Rw,

onde o vetor p denota a correlação-cruzada entre d(k) e x(k) e R simboliza a matriz


de autocorrelação do vetor x(k). Nosso objetivo é obter w que minimiza ξ, para
isso é necessário derivar ξ em relação a x e igualar a expressão resultante a zero.

 T
∂ξ ∂ξ ∂ξ ∂ξ
= ...
∂w ∂w0 ∂w1 ∂wN

= (E[d2 (k)] − 2wT p + wT Rw)
∂w

73
∂wT p ∂wT Rw
= −2 +
∂w ∂w
= −2p + (R + RT )w

Como R = RT .

= −2p + 2Rw (B.1)

∂ξ
Como a solução ótima wo é a que faz com que = 0, temos
∂w

0 = −2p + 2Rwo
Rwo = p
wo = .R−1 p (B.2)

74

Você também pode gostar