Escolar Documentos
Profissional Documentos
Cultura Documentos
DISPOSITIVOS AUDITIVOS
Rio de Janeiro
Maio de 2021
INSTRUMENTAÇÃO E PROCESSAMENTO DIGITAL DE SINAIS EM
DISPOSITIVOS AUDITIVOS
Examinado por:
iii
A todos que me acompanharam
nessa jornada.
iv
Agradecimentos
Ser engenheiro eletricista, aquele que, dentre diversas outra funções, faz com que
o dia continue iluminado mesmo após o Sol se pôr, é algo que nunca imaginei que
viria a me tornar durante os primeiros anos de minha vida, na cidade de Plácido de
Castro, no interior do estado do Acre. Foram muitos os acontecimentos e encontros
ao longo desses 24 anos que levaram até este momento. Esta dedicatória vai para
todos aqueles que, direta ou indiretamente, fizeram parte dessa história.
Dedico este trabalho a Deus, autor do meu destino, meu guia, socorro, Aquele
presente nos momentos de angústia e nos de vitória.
Agradeço ao Exército Brasileiro, que moldou o meu caráter e me ensinou os
conceitos de honra, força de vontade, determinação, disciplina, entre outros. Onde
aprendi que nossos sonhos são feitos em cima daquilo que realizamos e que nada na
vida tem graça se você não lutar para conquistar.
Deixo aqui meu mais sincero obrigado a todas as universidades das quais tive
a honra de ser aluno, em especial à UFRN, onde tudo começou. Também gostaria
de agradecer a dois professores muito importantes em minha formação, o professor
João Carlos Pádua, da UnB, por ter me ajudado a liberar todo meu potencial no
que diz respeito a arte da matemática, e o professor Markus Lima, da UFRJ, pelos
conselhos, por sempre ter acreditado em seus pupilos e por todos os anos em que
tive a honra de trabalhar ao seu lado, desde monitor até orientando.
Agradeço imensamente à minha namorada, Mariana Muniz, por todo apoio,
suporte e paciência dedicados a mim para que este trabalho fosse concluı́do o mais
rápido possı́vel. Não tenha dúvida que a defesa deste trabalho de conclusão de curso
é um passo importante para que fiquemos juntos para sempre.
Deixei o agradecimento mais significativo para o final, o que deve ser feito à
minha famı́lia, em especial à minha mãe, Margareth, por nunca ter medido esforços
para me dar o melhor que o mundo poderia oferecer, por sempre ter estado ao meu
lado mesmo quando eu, erroneamente, achava que o melhor era estar sozinho, todas
as partes boas do meu ser são graças a você!
v
Resumo do Projeto de Graduação apresentado à Escola Politécnica/ UFRJ como
parte dos requisitos necessários para a obtenção do grau de Engenheiro Eletricista.
Maio/2021
vi
Abstract of Undergraduate Project presented to POLI/UFRJ as a partial fulfillment
of the requirements for the degree of Engineer.
May/2021
vii
Sumário
Lista de Figuras x
1 Introdução 1
1.1 Motivações . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3 Composição e Estrutura do Trabalho . . . . . . . . . . . . . . . . . . 3
1.4 Notação . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
viii
3.3.2 TDOA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
6 Conclusão 62
Referências Bibliográficas 64
B Demonstrações 73
B.1 Filtro de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
ix
Lista de Figuras
x
4.8 Curvas de aprendizado para o algoritmo LMS. . . . . . . . . . . . . . 45
4.9 Senoide descorrompida pela solução de Wiener e pelo filtro utilizando
LMS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
4.10 Convergência do algoritmo NLMS para µ = 0, 75. . . . . . . . . . . . 46
4.11 Comparação entre LMS e NLMS. . . . . . . . . . . . . . . . . . . . . 47
4.12 Curvas de aprendizado para diferentes µ. . . . . . . . . . . . . . . . . 48
4.13 Formas de onda da solução de Wiener vs das soluções implementadas. 49
4.14 Convergência para o algoritmo RLS. . . . . . . . . . . . . . . . . . . 49
4.15 Comparação entre os algoritmos adaptativos. . . . . . . . . . . . . . . 50
xi
Lista de Tabelas
xii
Lista de Sı́mbolos
λ fator de esquecimento, p. 40
xiii
R matriz de autocorrelação, p. 3
wo solução de Wiener, p. 3
ω frequência angular, p. 15
j unidade imaginária, p. 15
xiv
n(k) sinal de ruı́do, p. 43
xv
Lista de Abreviaturas
xvi
Capı́tulo 1
Introdução
1.1 Motivações
Segundo a Organização Mundial da Saúde (OMS), 466 milhões de pessoas sofrem
de deficiências auditivas atualmente, sendo 34 milhões crianças, e com a estimativa
de que até 2030 este número suba para 630 milhões [1]. O impacto de tal limitação
é visto tanto no emocional quanto no bem-estar daqueles acometidos, prejudicando
suas interações sociais e sua qualidade de vida em geral.
As causas desse elevado número de portadores de deficiências auditivas podem
ser vinculadas ao envelhecimento da população mundial como um todo, em virtude
das recentes e expressivas descobertas no campo da medicina, mas outros fatores
que justificam esse aumento são: o uso de maneira irregular de fones de ouvido, a
excessiva poluição sonora a qual boa parte da população dos grandes centros urbanos
está sujeita, a repetida exposição a sons de elevada intensidade no ambiente de
trabalho, tais quais os experimentados por trabalhadores de obras, músicos, DJs
etc.
Seres humanos são organismos altamente dependentes de seus sentidos. É através
deles que construı́mos nossa percepção de meio, sendo todos eles cruciais à sua
maneira para que possamos usufruir da vida em sua plenitude. Qualquer tipo de
deficiência sensorial pode levar à depressão, sobretudo a auditiva. Foi constatado que
11,4% dos pacientes com limitações auriculares sofrem de depressão grave, enquanto
19,4% apresentam um quadro moderado da doença [2].
Como tais perdas auditivas podem levar a inúmeros problemas, tanto fı́sicos
quanto psı́quicos, é crucial que a tecnologia envolvida em aparelhos auditivos es-
teja em constante evolução, uma vez que estes dispositivos desempenham um papel
chave na reabilitação e no tratamento desses pacientes. Atualmente, dispositivos au-
ditivos apresentam componentes que visam melhorar a qualidade do sinal recebido,
converter o sinal analógico captado pelo instrumento em digital, objetivando a im-
1
plementação e a execução de operações matemáticas, dentre outras funcionalidades.
Embora avanços significativos no campo de hearing aid tenham sido obtidos nos
últimos anos, ainda há muito espaço para melhorias e desenvolvimento de novas
tecnologias. Somado a isso, o fato das empresas produtoras de dispositivos audi-
tivos usualmente não divulgarem as tecnologias envolvidas na construção de seus
aparelhos bem como os resultados de suas pesquisas, visando manterem vantagens
comerciais competitivas, impulsiona estudos na área.
1.2 Objetivos
Este trabalho visa, através da utilização de técnicas de processamento de sinais,
tais como filtragem espacial e adaptativa, promover uma análise sobre o funciona-
mento geral de dispositivos auditivos digitais. Outro escopo constituinte do projeto
é representado pela implementação e análise de desempenho, em ambientes contro-
lados, de diferentes estruturas e algoritmos que se propõe a melhorar a qualidade
do sinal captado por um grupo de microfones omnidirecionais, semelhantemente ao
que é feito por um aparelho auditivo. As metas especı́ficas são:
2
1.3 Composição e Estrutura do Trabalho
O presente projeto encontra-se estruturado da seguinte forma:
1.4 Notação
A notação utilizada ao longo deste trabalho segue as convenções especificadas a
seguir:
Assume-se que todos os vetores são do tipo coluna e representados por letras
minúsculas e em negrito, como o vetor de coeficientes da solução de Wiener
wo ;
3
Escalares são representados por letras minúsculas, por exemplo, o valor do
sinal desejado d(k) no instante k;
4
Capı́tulo 2
2.1 História
A história dos aparelhos auditivos remete a centenas de anos atrás e tentativas
de corrigir problemas de audição existem desde o perı́odo em que o homem pôs a
mão atrás da orelha para tentar ouvir melhor.
Os primeiros dispositivos auditivos de que se tem registro datam do século XIII,
perı́odo em que aqueles acometidos por perdas auditivas utilizavam chifres de ani-
mais, como vacas e ovelhas, e os colocavam próximos ao ouvido. Apesar de não
amplificar o som, este equipamento promovia uma ligeira melhora na audição [3],
graças à maior área de captação oferecida pelo chifre.
Figura 2.1: Chifre de animal adaptado para funcionar como um aparelho auditivo.
Esta figura foi gentilmente cedida por [4].
Foi apenas cinco séculos depois, todavia, que uma evolução aos tradicionais chi-
fres de animais foi proposta, a trompeta auditiva [5], cujo princı́pio de funcionamento
também se baseava em aumentar a área coletora de som.
No século XIX, a invenção do telefone, combinada com as recentes descobertas no
campo do eletromagnetismo, abriu espaço para um nova era de aparelhos auditivos
[5]. As pessoas com capacidade auditiva reduzida observavam que conseguiam ouvir
melhor ao conversar no telefone do que pessoalmente. Thomas Edison, que por volta
5
Figura 2.2: Homem utilizando uma trompeta auditiva. Esta imagem foi gentilmente
cedida por [6].
Figura 2.3: Dispositivo auditivo analógico. Esta figura foi gentilmente cedida por
[8].
6
entendimento sobre como funciona o aparelho auditivo humano.
Figura 2.4: Dispositivo auditivo digital. Esta figura foi gentilmente cedida por [9].
Ouvido médio: responsável por guiar o som do ouvido externo para o ouvido
interno. É constituı́do pela membrana timpânica, ou tı́mpano, e por três
ossı́culos, os três menores ossos do corpo humano, o martelo, a bigorna e o
estribo;
7
Figura 2.5: Composição do aparelho auditivo humano. Esta figura foi gentilmente
cedida por [12].
4. Estas vibrações são sentidas pela cóclea. É nela que a energia mecânica pre-
sente nas ondas sonoras é convertida em sinais elétricos capazes de serem
interpretados pelo cérebro. De maneira simplificada, a cóclea (do grego kokh-
lia, que significa caracol) é uma estrutura helicoidal preenchida por fluidos (os
fluidos cocleares) e que contém, em seu interior, células sensoriais chamadas
de células ciliadas. Uma vez que a cóclea é atingida pelas vibrações dos ossos
do ouvido médio, isso agita o fluido existente em seu interior, o que estimula
as células ciliadas, o agitar destas células faz com que pequenos poros existen-
tes nelas se abram, os quais liberam substâncias quı́micas que geram impulsos
elétricos que viajam até o cérebro pelo nervo auditivo, onde a informação é
decodificada em um som que possamos entender.
Em geral, para que o nosso sistema auditivo seja capaz de interpretar determi-
nado sinal sonoro, é necessário que a onda sonora tenha uma frequência mı́nima
8
Figura 2.6: Células ciliadas. Esta figura foi gentilmente cedida por [14].
de 20 vibrações por segundo e uma frequência máxima de 20.000 vibrações por se-
gundo. Diferentemente de outros animais altamente dependentes de ecolocalização,
como golfinhos, os quais conseguem ouvir sons em um intervalo de frequência que
varia entre 7-170.000 Hz, seres humanos, usualmente, têm sua audição limitada a
uma faixa de 20-20.000 Hz [15]. Sons com frequência inferiores a 20 Hz são chama-
dos de infrassônicos, enquanto que os que apresentam valores superiores a 20.000 Hz
recebem a classificação de ultrassônicos.
9
Fora as causas já apresentadas, outros agravantes que podem reduzir a capa-
cidade auditiva são hipertensão, diabetes e o uso de medicamentos agressivos ao
ouvido [18] [19].
Microfone;
Microchip;
Bateria;
Amplificador;
Receptor.
10
Figura 2.7: Componentes de um dispositivo auditivo digital.
11
Capı́tulo 3
2. Os sinais capturados pelos sensores têm formas de onda similares, mas com di-
ferentes atrasos. Os atrasos podem ser determinados a partir da velocidade do
12
som, da distância entre os microfones e da posição angular das fontes sonoras,
conforme será explicado na próxima subseção;
13
de propagação do som no ar c ≈ 340m/s). Assuma ainda que os microfones estão
separados por uma distância d e que o ângulo de incidência da onda com o arranjo
de microfones é dado pelo ângulo θ.
A Figura 3.2 retrata o cenário descrito acima. Considerando o primeiro sensor
da esquerda para direita como o microfone de referência, é possı́vel perceber que o
caminho que a onda percorre para atingir o microfone subsequente é maior que o
necessário para atingir o microfone de referência, e que a diferença de percurso pode
ser definida como
∆d = d senθ, (3.1)
∆d = c τ
∆d
τ=
c
d senθ
τ= . (3.2)
c
Normal ao
array
Frente de onda
incidente Defasamento
espacial
θ
48°
Linha do θ
48°
array Sensor d
14
enquanto que o sinal resultante em cada canal, escrito de maneira vetorial, será
onde s(k) representa o vetor em que cada elemento corresponde à parcela do si-
nal de interesse coletada por um dos microfones que compõe o arranjo. Analoga-
mente, v(k) corresponde à parcela do(s) sinal(is) interferidor(es) em cada um dos
canais/microfones. Assim, a Equação (3.4) pode ser reescrita como
s(k) v1 (k)
s(k − τ ) v2 (k)
x(k) = .. + . .
. (3.5)
. .
s(k − (M − 1)τ ) vM (k)
M
1 X
Ys (jω) = Sm (jω)ejωτm , (3.9)
M m=1
M
1 X
Yv (jω) = Vm (jω)ejωτm , (3.10)
M m=1
15
vetores S(jω) e V(jω), respectivamente.
A Equação (3.9) resultará em uma componente de sinal de amplitude tão intensa
quanto a do sinal original, por conta de estarmos sincronizando o sinal de interesse
em cada um dos canais, somando-os e, em seguida, realizando a normalização pelo
número de microfones. Note que se todos os atrasos forem calculados corretamente,
o resultado desta média será o próprio sinal S(jω). Já a Equação (3.10), por sua
vez, nos levará a um sinal bastante atenuado, por conta das componentes dos sinais
interferidores não estarem em coerência, i.e., em fase.
Assume-se que as fontes sonoras estejam no far field e são consideradas pon-
tuais (i.e., com dimensões desprezı́veis);
Tendo como base essas simplificações, pode-se, portanto, considerar que as ondas
incidentes sobre o arranjo são planas e que o único parâmetro capaz de caracterizar
a origem do sinal é o seu DOA (sua direção de chegada, do inglês, Direction Of
Arrival, também denominado ângulo de incidência).
16
A técnica utilizada para estimar a direção do sinal abordada no corrente capı́tulo
é chamada de GCC (correlação cruzada generalizada, do inglês, generalized cross-
correlation).
Normal ao
array
Frente de onda
Defasamento plana incidente
espacial
θ48°
θ Linha do
48°
Sensor array
d
d
< 0, 5. (3.11)
λ
Esta condição é necessária para evitar o efeito aliasing na passagem do sinal pelos
sensores [23]. Para sinais de banda larga, a menos que o sinal possua uma forte
componente harmônica, o aliasing espacial pode ser desconsiderado [24]. Como já
dissemos, também assume-se que a frente de ondas que atinge o arranjo é plana, tal
condição é aproximadamente válida se a fonte pontual estiver na região de campo
distante (far field ) do arranjo. Para isto, é necessário que a distância r entre o
conjunto de sensores e o emissor de sinal obedeça a seguinte inequação:
2D2
r≥ , (3.12)
λ
17
onde D denota o comprimento do arranjo [25].
Com base nessas hipóteses simplificadoras, o modelo matemático empregado será
deduzido a seguir.
A normal à frente de onda faz um ângulo θ com a linha paralela aos microfones,
que é numericamente igual ao ângulo de incidência, e o sinal em cada canal constitui
uma versão atrasada (ou adiantada) do sinal recebido num dado sensor de referência.
Considere o sensor da direita na Figura 3.3 como o ponto de referência e assuma que o
espaçamento entre os elementos é dado por uma distância d que obedece a Equação
(3.11). O sinal coletado pelo segundo microfone possui um delay em relação ao
segundo dado pelo tempo necessário para a frente de onda percorrer d sen θ. Sendo
assim, a diferença temporal entre os dois sensores é dada por
(m − 1) d sen θ
τ1m = (3.15)
c
τ1m = (m − 1)τ,
onde 1 ≤ m ≤ M .
Note que, partindo das hipóteses simplificadoras já destacadas, para obter a
direção de origem do sinal recebido basta obtermos o atraso existente entre os sinais
captados por dois microfones adjacentes, esse atraso possui o nome de TDOA (do
inglês, time-difference of arrival ) [22].
18
adição ao emitido pela fonte. Como a simulação foi feita considerando o ambiente
de uma câmara anecoica, ou seja, sem reflexões, analisaremos apenas o cenário em
questão.
Suponha que tenhamos um arranjo de M microfones espaçados uniformemente
por uma distância d no espaço anecoico e que nele há apenas uma única fonte emis-
sora de sinal, como pode ser visto na Figura 3.4. O sinal da fonte s(k) é propagado
radialmente e sua intensidade decai em função da distância à fonte. Assumindo o
primeiro microfone como o microfone de referência, o sinal captado pelo m-ésimo
microfone, num instante k, é dado por:
onde:
Frente de onda
wa
s(k)
an nt
v
· · ·
yN (k) y2 (k) y1 (k)
Ainda considerando um ambiente anecoico, para o caso em que temos não uma,
mas diversas fontes emissoras, o sinal recebido no m-ésimo microfone é dado por
N
X
ym (k) = αmn sn [k − tn − Fm (τn )] + vm (k) (3.18)
n=1
= xm (k) + vm (k),
onde:
ryCC
1 y2
(p) = E[y1 (k)y2 (k + p)]. (3.19)
ryCC
1 y2
CC
(p) = α1 α2 rss CC
(p − τ ) + α1 rsv2
(p + t)+ (3.20)
α2 rsv1 (p − t − τ ) + rv1 v2 (p).
20
Assumindo que vm (k) é descorrelacionado com o sinal e com os ruı́dos dos demais
sensores, pode-se demonstrar que ryCC1 y2 (p)
atinge seu máximo para p = τ . Sendo
assim, podemos estimar o TDOA entre y1 (k) e y2 (k) como:
3.3 Resultados
3.3.1 Beamforming delay-and-sum
A fim de testar a eficiência do beamforming delay-and-sum e as vantagens de sua
utilização, foi realizada uma simulação computacional. O cenário de teste consistia
em:
21
Figura 3.5: Cenário do experimento.
Desired Signal
3
Sinal de interesse
1
Amplitude (V)
-1
-2
-3
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Time (sec)
22
Signal Received at Channel 3
3
Sinal captado pelo microfone
1
Amplitude (V)
-1
-2
-3
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Time (sec)
Signal Comparisson
3
Sinal captado pelo microfone
Delay and sum
2 Sinal de interesse
1
Amplitude (V)
-1
-2
-3
0 0.5 1 1.5 2 2.5 3 3.5 4 4.5 5
Time (sec)
23
3.3.2 TDOA
Na primeira parte do experimento, visamos atestar a eficácia do filtro espacial.
No segundo momento da presente simulação teve-se como meta a estimação do ân-
gulo de incidência do sinal de interesse pelo método da correlação cruzada. Foi
assumido, na primeira etapa, que a direção de origem dos sinais era um valor co-
nhecido do problema, contudo, sabemos que em aplicações reais esse não é um dado
disponı́vel de antemão, o que torna necessária a implementação de algum algoritmo
que possibilite a um dispositivo auditivo conseguir estimar a direção dos sinais que
estão chegando até o mesmo.
A partir do que foi tratado nas seções anteriores, é possı́vel perceber que para
resolver o problema de estimação do ângulo chegada de um sinal basta:
2. Encontrar o valor de p que maximiza essa função, i.e., arg maxp ryCC
1 y2
(p), o qual
é numericamente igual ao TDOA do sinal;
24
correlação cruzada, pode-se obter os atrasos em cada um dos sensores em relação ao
sinal captado no microfone de referência (microfone 1). Os valores obtidos podem
ser visualizados na Tabela 3.1. Note que o pico de cada curva é numericamente igual
a TDOA do sensor.
25
Capı́tulo 4
26
projeto desse tipo de filtro necessita de algumas especificações prévias [27]. Quando
essas especificações prévias não estão disponı́veis ou não podem ser atingidas utili-
zando filtros invariantes no tempo, tais limitações podem ser facilmente contornada
utilizando uma estrutura um pouco diferente, onde os coeficientes não são constantes
ao longo do tempo, mas sim variantes, de modo que seus valores sejam atualizados
a cada amostra, sempre visando otimizar uma função de erro pré-estabelecida, i.e.,
um filtro com coeficientes adaptativos, também chamado de filtro adaptativo.
No presente trabalho, utilizaremos filtros adaptativos, como pode ser visto na
Figura 4.1, para transformar um certo sinal de entrada x(k) em um sinal de saı́da
y(k) que seja uma boa estimativa de um dado sinal desejado d(k). Pelo fato dessa
categoria de filtros possuir coeficientes variantes no tempo, o processo de ajustar
seus parâmetros (coeficientes) de modo a obter o melhor casamento possı́vel entre
o sinal desejado e o sinal de saı́da é feito através da otimização de uma função
de desempenho (performance function) bem definida. A função de desempenho
pode ser definida em um contexto tanto estatı́stico quanto determinı́stico [27]. Na
abordagem estatı́stica, a função de desempenho utilizada mais frequentemente é o
erro quadrático médio, onde o sinal de erro é a diferença entre os sinais desejado e
de saı́da do filtro adaptativo, enquanto que a abordagem determinı́stica é baseada
na minimização determinı́stica dos erros quadráticos a posteriori de saı́da [28].
Figura 4.1: Estrutura básica de um filtro adaptativo. x(k) denota o sinal de entrada,
e(k) o sinal de erro e y(k), por fim, compõe o sinal de saı́da.
27
texto, nos dá a ideia de um sistema que está tentando se ajustar com a finalidade
de responder a um determinado fenômeno [29]. Em outras palavras, o sistema tenta
ajustar seus parâmetros de modo a atender um critério pré-definido. Mais a frente
neste capı́tulo será visto como esse processo de adaptação ocorre, uma vez que um
conjunto de etapas deve ser feito de modo a obter os novos parâmetros corretamente.
Por fim, o sistema que sofre esse processo de adaptação é chamado de “filtro”. De-
pendendo do tempo necessário para que a meta do filtro adaptativo seja cumprida, o
que nós chamamos de tempo de convergência, da complexidade e dos dados disponı́-
veis para realizar o processo de adaptação, nós podemos ter uma série de algoritmos
e estruturas para os filtros adaptativos.
Filtros adaptativos são tipicamente empregados em situações onde o ambiente
está constantemente mudando, de tal maneira que um sistema invariante no tempo
não apresentaria desempenho adequado. Como eles são utilizados em aplicações em
tempo real, muitas vezes implementados em hardware alimentado por bateria, há
uma preocupação com a complexidade dos algoritmos, i.e., idealmente eles devem
realizar poucas operações aritméticas por amostra de entrada. Esses algoritmos
podem ser entendidos de duas maneiras complementares [29]:
Por outro lado, podemos pensar num filtro adaptativo como um algoritmo que
visa separar uma mistura de dois sinais. O filtro, obviamente, deve ter alguma
informação sobre os sinais de modo a ser apto a separá-los; essa informação,
normalmente, é dada sob a forma de sinal de referência, correlacionado com
apenas um dos dois sinais da mistura, de modo a separar o sinal correlacionado
do não correlacionado.
28
y(k): sinal de saı́da do filtro adaptativo;
e(k): sinal de erro, e(k) = d(k) − y(k). O sinal de erro é então utilizado para
constituir a função de desempenho (ou função objetivo), a qual é necessária
para que o algoritmo adaptativo determine corretamente os novos coeficientes
do filtro.
Sinal Determinı́stico
29
sinal de tempo discreto determinı́stico é caracterizado por uma função matemática
bem definida. Um exemplo de sinal determinı́stico seria
Sinal Aleatório
Um sinal aleatório é um sinal sobre o qual há incertezas associadas ao seu valor
em qualquer instante de tempo, como, por exemplo, em um ruı́do branco. São sinais
que apresentam incertezas quanto a sua ocorrência, não podendo ser representados
por uma função matemática e sim através de suas caracterı́sticas estatı́sticas (média,
variância, autocorrelação, entre outros). Pelo fato de boa parte dos sons que atingem
nossos ouvidos no dia a dia serem sinais aleatórios, daremos uma atenção especial a
este tipo de sinal.
30
Figura 4.3: Filtro Adaptativo Transversal.
N
X
y(k) = wi (k) x(k − i), (4.2)
i=0
31
Normalized Least Mean Square (NLMS);
onde J[·] simboliza a função objetivo e E[·] representa a média estatı́stica ou valor
esperado, definida pela equação
Z ∞
E[x(k)] = y px(k) (y)dy, (4.6)
−∞
sendo que px(k) (y) é a função densidade de probabilidade (PDF, do inglês probability
density function) de x(k) no ponto y [27]. O filtro linear ótimo segundo o critério
MSE é chamado de filtro de Wiener.
Os coeficientes do filtro de Wiener são calculados pela equação
wo = R−1 p, (4.7)
32
a matriz de autocorrelação do vetor x(k), dados por
p = E[d(k)x(k)], (4.8)
R = E[x(k)xT (k)]. (4.9)
Por essas complicações, nas décadas seguintes à sua publicação, foram desenvol-
vidos algoritmos visando objetivo similar ao do filtro de Wiener, porém com menor
complexidade computacional e de implementação mais fácil.
33
é ótimo quando você está fazendo deveres de casa, mas o que você pode
fazer na prática quando ninguém te fornece as estatı́sticas de entrada?
Tudo que você tem são os sinais de entrada.”
N
X
y(k) = wi (k)x(k − i) (4.10)
i=0
= wT (k)x(k), (4.11)
No caso do filtro de Wiener, como já mencionado, o critério adotado para estimar
o desempenho da estrutura empregada é o erro quadrático médio (MSE)
wo = R−1 p, (4.14)
34
sim estimativas das mesmas, obtidas levando em consideração os dados disponı́veis.
Se temos disponı́vel apenas uma realização do experimento, nada mais natural as-
sumir que E[d(k)x(k)], ou seja, que o valor esperado do produto d(k)x(k) seja o
próprio valor desse produto, i.e.,
∂ ξˆ
ĝw (k) =
∂w
ˆ + 2R̂(k)w
= −2p(k)
= −2d(k)x(k) + 2x(k)xT (k)w(k)
= −2x(k)(d(k) − xT (k)w(k))
= −2x(k)(d(k) − y(k))
= −2x(k)e(k)
= −2e(k)x(k). (4.19)
onde, para que a convergência seja garantida, o coeficiente µ deve estar dentro do
intervalo [27]
1
0<µ< , (4.21)
λmax
35
sendo que λmax representa o maior autovalor da matriz de autocorrelação R.
O algoritmo resultante, baseado na técnica de gradiente descendente, é chamado
de Least Mean Square ou, simplesmente, LMS [27].
Para entender por que o LMS nos leva para a solução de Wiener, é preciso
analisar nossa função objetivo, a função erro quadrático médio (MSE).
É muito simples perceber pela Equação (4.22) que a função erro quadrático
médico é uma função de 2a ordem dos coeficientes do filtro, consequentemente, a
curva da nossa função MSE pode ser vista como um paraboloide multidimensional
(uma tigela) com um único valor mı́nimo, i.e., porque o MSE é uma função convexa.
Pelo fato da função objetivo em análise possuir apenas um mı́nimo, se escolhermos
o valor µ dentro do intervalo já mencionado na desigualdade (4.21), teremos certeza
garantida de convergência do LMS, ou seja, o algoritmo nos levará para o mı́nimo
global da função objetivo, para os coeficientes de Wiener.
36
Figura 4.5: Curva de uma função convexa (forma de tigela).
Equações de atualização:
Definindo o erro à posteriori, e+ (k), i.e., o erro obtido após a atualização dos
coeficientes do filtro adaptativo, como sendo
37
= d(k) − wT (k)x(k) − 2µk e(k)xT (k)x(k)
= (d(k) − wT (k)x(k)) − 2µk e(k)xT (k)x(k)
= e(k) − 2µk e(k)xT (k)x(k)
= (1 − 2µk xT (k)x(k))e(k). (4.28)
∂(e+ (k))2 2
= −4xT (k)x(k) + 8µk xT (k)x(k) (4.30)
∂µk
2
0 = −4xT (k)x(k) + 8µk xT (k)x(k)
1
µk = . (4.31)
2 xT (k) x(k)
x(k)
w(k + 1) = w(k) + e(k). (4.32)
xT (k)x(k)
µn
w(k + 1) = w(k) + T
e(k)x(k), (4.33)
γ+ x (k)x(k)
0 < µn ≤ 1. (4.34)
38
Algoritmo 2 Normalized Least Mean Square (NLMS)
1: Inicialização
2: x(0) = w(0) = [0 0 ... 0]T
3: Escolher µn dentro do intervalo 0 < µn ≤ 1
4: γ = pequena constante
5: Faça, para k ≥ 0
6: e(k) = d(k) − wT (k)x(k)
µn
7: w(k + 1) = w(k) + T
e(k)x(k)
γ + x (k)x(k)
no algoritmo RLS teremos uma nova função custo, uma função determinı́stica, defi-
nida da seguinte maneira
k
X
ξ(k) = λk−i e2 (i) (4.36)
i=0
k
X 2
λk−i d(i) − xT (i)w(k)
=
i=0
k
X 2
λk−i d(i) − xT (i)w(k) .
= (4.37)
i=0
Intuição
A intuição por trás da função objetivo do algoritmo RLS pode ser obtida
expandindo-se o somatório da Equação (4.37). Fazendo isso, obtemos
2 2
ξ(k) = λk d(0) − xT (0)w(k) + λk−1 d(1) − xT (1)w(k) +
2
... + d(k) − xT (k)w(k) .
(4.38)
39
Para simplificar a explicação, suponha que λ = 1, dessa forma temos
2 2
ξ(k) = d(0) − xT (0)w(k) + d(1) − xT (1)w(k) +
2
... + d(k) − xT (k)w(k)
(4.39)
k
X 2
d(i) − xT (i)w(k) .
= (4.40)
i=0
k
X 2
ρk (i) d(i) − xT (i)w(k)
ξ(k) = (4.41)
i=0
k
X 2
λk−i d(i) − xT (i)w(k) ,
= (4.42)
i=0
onde 0 λ ≤ 1.
Perceba que agora, quanto mais recente for a amostra, maior será sua contribui-
ção na função custo, e quanto mais antiga, menor. Pelo fator que desempenha, o
coeficiente λ é chamado de fator de esquecimento.
Algoritmo
k
∂ξ ∂ X k−i 2
= λ d(i) − xT (i)w(k)
∂w ∂w i=0
40
k
X ∂ n k−i T
2 o
= λ d(i) − x (i)w(k)
i=0
∂w
k
X
λk−i x(i) d(i) − xT (i)w(k) .
= −2 (4.43)
i=0
k iT
X
k−i
T
h
−2 λ x(i) d(i) − x (i)w(k) = 0 . . . 0 (4.44)
i=0
k
X k
X
k−i
− λ x(i)d(i) + λk−i x(i)xT (i)w(k) = 0
i=0 i=0
" k
# k
X X
k−i T
λ x(i)x (i) w(k) = λk−i x(i)d(i)
i=0 i=0
" k #−1 k
X X
k−i T
w(k) = λ x(i)x (i) λk−i x(i)d(i)
i=0 i=0
w(k) = R−1
D (k)pD (k), (4.45)
k
k X
pD (k) = λk−i x(i)d(i). (4.47)
X
k−i T
RD (k) = λ x(i)x (i), (4.46)
i=0
i=0
k
X
RD (k) = λk−i x(i)xT (i)
i=0
k−1
X
= λk−i x(i)xT (i) + x(k)xT (k)
i=0
41
k−1
X
= λ(k−1)−i λx(i)xT (i) + x(k)xT (k)
i=0
Xk−1
=λ λ(k−1)−i x(i)xT (i) + x(k)xT (k)
i=0
−1 λ−1 R−1 T −1 −1
D (k − 1)x(k)x (k)λ RD (k − 1)
[RD (k)] =λ −1
R−1 − 1) −
D (k
1 + xT (k)λ−1 R−1
D (k − 1)x(k)
R−1 T −1
1 −1 D (k − 1)x(k)x (k)RD (k − 1)
= RD (k − 1) − . (4.50)
λ λ + xT (k)R−1
D (k − 1)x(k)
R−1
D (k) = SD (k). (4.51)
SD (k − 1)x(k)xT (k)SD (k − 1)
1
SD (k) = SD (k − 1) − . (4.52)
λ λ + xT (k)SD x(k)
42
4.4 Resultados
Esta seção dedica-se a apresentar os resultados obtidos ao implementar, em am-
biente computacional simulando um cenário livre de reflexões, os filtros adaptativos
e algoritmos apresentados no decorrer deste capı́tulo. Para as simulações feitas, a
fim de mensurar o desempenho da estrutura de filtro bem como dos algoritmos adap-
tativos apresentados previamente, foi utilizado o diagrama de blocos que pode ser
visto na Figura 4.6. Perceba que, nesta arquitetura, os sinais de ruı́do n1 (k) e n2 (k)
são correlacionados entre si, uma vez que n2 (k) é o resultado do processamento de
n1 (k) por um filtro AR (autorregressivo) de primeira ordem.
Na simulação foram inseridas componentes de ruı́do no sinal desejado e de refe-
rência, gerados a partir de um ruı́do gaussiano branco com SNRdB = 10 dB, visando
simular um cenário que sofre de forte interferência.
Algoritmo
Adaptativo
43
Cancelamento de Ruído pelo Algoritmo LMS
1.5
Sinal Corrompido
Resultado do Cancelamento de Ruído
Sinal de Interesse
1
Valor do Sinal
0.5
-0.5
-1
0 0.5 1 1.5 2 2.5 3 3.5 4
Amostra 4
10
v(k) = sin(750k),
44
Performance para o MSE
101
= 0.001
= 0.008
= 0.025
= 0.05
100
MSE
10-1
10-2
10-3
0 200 400 600 800 1000 1200 1400 1600 1800 2000
Amostra
wo (k) = [1, 0001 0, 3060 0, 1050 0, 0482 0, 1360 0, 0959 0, 0477]T . (4.53)
w(k) = [0, 8644 0, 1198 − 0, 0020 − 0, 0046 0, 0680 0, 0214 0, 0292]T . (4.54)
A Figura 4.9 mostra, para este caso, as soluções geradas pelos filtros de Wiener
e pelo filtro adaptativo utilizando o algoritmo LMS.
45
2
Sinal descorrompido pela solução de Wiener
Sinal descorrompido pelo LMS
1.5
0.5
Amplitude
-0.5
-1
-1.5
-2
900 910 920 930 940 950 960 970 980 990 1000
Amostras
Figura 4.9: Senoide descorrompida pela solução de Wiener e pelo filtro utilizando
LMS.
0.5
-0.5
-1
0 0.5 1 1.5 2 2.5 3 3.5 4
Amostra 104
que quando comparado à sua versão não normalizada, o que deve-se principalmente
ao fato deste último apresentar passo de convergência estático, ou seja, cujo valor
permanece constante ao longo de todo experimento, enquanto que o NLMS possui
46
passo dinâmico, cujo valor varia ao longo das iterações, otimizando o número de
amostras necessárias a se chegar ao valor ótimo. Pela Figura 4.11 é possı́vel perceber
que o sinal de erro do algoritmo NLMS rastreia o sinal de interesse já nas primeiras
amostras, ao passo que o LMS leva uma quantidade maior de iterações.
0.5
-0.5
-1
0 0.5 1 1.5 2 2.5 3 3.5 4
Amostra 4
10
Valor ressaltar que, assim como para o LMS, para valores de passo pequenos, a
convergência para a solução ótima ocorre de maneira mais lenta. Uma das vantagens
de se utilizar o NLMS é o maior leque de valores de fatores de convergência µn que
podem ser empregados, uma vez que, para convergência garantida, o valor adotado
deve obedecer a Equação (4.34).
Visando analisar a convergência do algoritmo para diferentes passos iniciais, no-
vamente fixou-se o número de coeficientes do filtro em 32. Como mencionado pre-
viamente, o algoritmo NLMS não apresenta as mesmas restrições de tamanho de
passo que sua contraparte não normalizada, o que possibilita o emprego de µ’s mais
elevados e, consequentemente, acelerando a convergência do método empregado. A
Figura 4.8 apresenta as curvas de aprendizado para diferentes valores de passo.
Considerando o cenário quando o sinal de entrada é dado por d(k) = sin(750k)+
n1 (k), a solução de Wiener bem como a obtida ao final da realização do experimento
empregando o algoritmo LMS e NLMS podem ser vistas na Tabela 4.1, enquanto a
Figura 4.13 mostra as suas respectivas formas de onda.
47
Performance para o MSE
101
= 0.008
= 0.05
= 0.25
= 0.85
100
MSE
10-1
10-2
10-3
0 200 400 600 800 1000 1200 1400 1600 1800 2000
Amostra
Coeficiente wo WLM S WN LM S
w0 1,001 0,8644 0,9690
w1 0,3060 0,1198 0,2661
w2 0,1050 -0,0020 0,1226
w3 0,0482 -0,0046 0,1074
w4 0,1360 0,0680 0,2210
w5 0,0959 0,0214 0,1914
w6 0,0477 0,0292 0,1127
48
2
Sinal descorrompido pela solução de Wiener
1.5 Sinal descorrompido pelo LMS
Sinal descorrompido pelo NLMS
0.5
Amplitude
-0.5
-1
-1.5
-2
900 910 920 930 940 950 960 970 980 990 1000
Amostras
0.5
-0.5
-1
0 0.5 1 1.5 2 2.5 3 3.5 4
Amostra 104
49
|Pvoz − Perro |
Algoritmo SN RdB (%)
Pvoz
LMS 3.5771 15,06
NLMS 5.8255 9,02
RLS 6.7841 0,37
0.5
-0.5
-1
0 0.5 1 1.5 2 2.5 3 3.5 4
Amostra 104
50
Capı́tulo 5
Como mencionado nos capı́tulos anteriores, um filtro adaptativo pode ser en-
tendido como um sistema que visa separar uma mistura de dois sinais, d(k) =
v(k) + n(k), sendo v(k) o sinal de interesse e n(k) o sinal de ruı́do. Para tal, é
necessário que o filtro tenha alguma informação sobre esses sinais de modo a ser
apto a entender o que deve e o que não deve ser removido. Esta informação é dada
sob a forma do sinal de entrada x(k), o qual deve ser correlacionado com o sinal que
desejamos atenuar e descorrelacionado com o sinal de interesse.
Em todos os experimentos realizados ao longo do Capı́tulo 4, assumimos que o
sinal de entrada era correlacionado com o sinal que desejávamos eliminar, de modo
que à medida que o filtro convergia era possı́vel perceber uma redução na intensidade
do mesmo e, consequentemente, o sinal de interesse era realçado. Ou seja, assumimos
que já dispúnhamos de um sinal correlacionado com o sinal interferidor à priori, algo
que na prática não ocorre, o que torna necessário a elaboração de que gere um sinal
de entrada correlacionado com o sinal interferidor. Visando contornar tal problema,
foi implementada a arquitetura de cancelador adaptativo de ruı́do proposta por [34],
a qual pode ser vista na Figura 5.1.
Voz de + Sinal
+ Referência Resultante
Delay Delay
Microfone +
Principal -
+
Ruído de
Filtro - Referência Filtro
Adaptativo Adaptativo
Microfone
Primeiro Segundo
Estágio Estágio
51
5.1 Primeiro Estágio - Beamformer Griffiths-Jim
O primeiro estágio da arquitetura implementada corresponde a um beamformer
Griffiths-Jim [35]. É possı́vel perceber que o mesmo é constituı́do por um arranjo
composto por dois microfones, sendo que um dos canais apresenta um beamformer do
tipo delay-and-sum, enquanto o outro apresenta um filtro adaptativo. Seu objetivo é
fazer com que ao final desta etapa de processamento tenhamos dois sinais, um sinal
constituı́do majoritariamente por ruı́do e uma quase total ausência de voz (sinal este
que referenciaremos pelo nome de ruı́do de referência nref (k)) e o outro composto
majoritariamente por voz (voz de referência vref (k)), fornecendo, dessa forma, dois
sinais onde as componentes de ruı́do estão correlacionadas entre si.
Voz de
s2(k) + Referência
Delay
Microfone +
Principal
+
Ruído de
s1(k) Filtro - Referência
Adaptativo
Microfone
sendo s1 (k) e s2 (k) os sinais coletados em cada um dos microfones que compõe o
arranjo.
O objetivo de se utilizar o filtro adaptativo no beamformer de Griffths-Jim, por
sua vez, é promover uma equalização das amplitudes da componente de interesse, as
quais, dependendo da distância entre os microfones, podem sofrer atenuação devido
52
Figura 5.3: Sinais fora de coerência.
53
Voz de
Referência
+
s2(k) = v(k - T) + n2(k) s2(k+T) ? v(k) + 0.5*n2(k + T) vref(k) ? 2*v(k) + n1(k) + 0.5*n2(k + T)
Delay
Microfone +
Principal
Ruído de
Referência
+
s1(k) = v(k) + n1(k)
Filtro y(k) ? v(k) + n1(k) - nref(k) ? 0.5*n2(k + T) - n1(k)
Adaptativo
Microfone
foi inserido um VAD (do inglês voice activity detector ) à arquitetura, visando fazer
com o que o filtro adaptativo só adapte seus coeficientes quando na presença da
componente de interesse, evitando assim que o filtro aprenda a componente não
desejada (ruı́do). O diagrama de blocos com a inserção do VAD pode ser visto na
Figura 5.6.
Voz de
+ Referência
Delay
Microfone +
Principal
+
Ruído de
Filtro - Referência
Adaptativo
Microfone
54
Voz de
+ Saída
referência
Delay
Ruído de
referência Filtro
Adaptativo
+ +
Delay Delay
+ -
Filtro Filtro
Adaptativo Adaptativo
-
VAD
VAD On/Off
5.3 Resultados
O cenário de simulação considerado para análise do modelo implementado foi
constituı́do por um arranjo de dois microfones separados de 3 cm entre si e com um
ângulo de incidência em relação à normal ao arranjo de 20o . A etapa de realce de
sinal via filtragem adaptativa foi feita utilizando um filtro de ordem 30 empregando
o algoritmo NLMS com um valor de passo igual a 0, 65.
Pelo fato da distância entre os dois microfones ser muito pequena, inferior a 5
cm, foi removido do diagrama de blocos o filtro adaptativo cuja função era equalizar
55
a amplitude das componentes de interesse dos sinais em ambos os canais, tendo em
vista que, para essa distância e as frequências de operação em análise, não haveria
redução de amplitude a nı́veis que justificassem sua presença. A arquitetura final
utilizada no experimento pode ser vista na Figura 5.10, note que o VAD presente
no primeiro estágio da arquitetura da Figura 5.9 foi removido.
+ +
v(k - T) + n2(k) vref(k)
Delay Delay
+ -
+
v(k) + n1(k) Filtro nref(k) Filtro
Adaptativo Adaptativo
-
VAD
VAD On/Off
+ +
v(k - T) + n2(k) vref(k)
Delay Delay
+ -
+
v(k) + n1(k) nref(k) Filtro
Adaptativo
-
VAD On/Off
VAD
Beamforming
56
de correlação cruzada com o que pode ser visto na Figura 5.12, em que o mesmo
gráfico foi obtido após a etapa de filtragem espacial, é possı́vel notar que o pico de
correlação após o delay-and-sum se dá na origem, atestando a coerência entre as
componentes de interesse.
Figura 5.12: Correlação cruzada entre o sinal de saı́da do filtro espacial e o sinal
coletado pelo microfone da trilha inferior.
57
notar uma convergência em direção ao sinal de interesse, tendo em vista que as
componentes de ruı́do foram atenuadas na etapa de beamforming por estarem fora
de fase, diferentemente da parcela de interesse. A atenuação observada neste cenário
é mais fraca que as obtidas no Capı́tulo 3, isso ocorre pelo fato de que na simulação
feita previamente, em que foi tratado esse tema especı́fico, o número de microfones
utilizados no arranjo era de 5 sensores, enquanto que na simulação em questão foram
apenas 2, sendo que a qualidade do beamforming é diretamente proporcional ao
número de sensores empregados. Foi empregado um número reduzido de microfones
na arquitetura proposta por ela ter o intuito de modelar um aparelho auditivo que,
usualmente, são instrumentos pequenos e que possuem limitações fı́sicas de espaço.
Realce de voz
58
de interesse, ao passo que atenua as componentes de ruı́do. A Figura 5.14 mostra a
saı́da do VAD implementado, perceba que os instantes em que o sinal de áudio, em
amarelo, apresenta trechos de silêncio (i.e., trechos em que sua constituição é dada
majoritariamente por ruı́do) são os momentos em que as intensidades mais baixas
são registradas, e que os instantes em que elas ocorrem condizem perfeitamente com
as probabilidades de presença de voz registradas pelo VAD, sinal em azul.
59
nref (k) com a presente em vref (k), porém, ao fazer isso acabamos aproximadamente
dobrando a componente n2 (k). O mesmo efeito ocorre quando n2 (k) é o mais forte,
porém, nesse caso, o primeiro coeficiente do filtro tenderá a 1, almejando fazer com
as que as parcelas referentes à n2 (k) em ambos os sinais de referência permaneçam
temporalmente alinhadas, contudo, isso vem ao custo de uma intensificação do valor
de n1 (k), a Tabela 5.1 apresenta os resultados obtidos. Podemos concluir, portanto,
que o presente cancelador adaptativo de ruı́do apresenta a limitação de fortalecer
o ruı́do de menor potência ao atenuar o de maior. Contudo, vale a pena relembrar
que, em situações práticas, os ruı́dos aditivos costumam ter potência muito inferior
a do sinal de interesse, diferentemente dos valores empregados nesta seção, de forma
que esta limitação da estrutura tende a não impactar muito o resultado final.
60
O cenário empregado no experimento pode ser visto na Figura 5.17. Nele foram
somados ruı́dos aditivos com potência 40 dB inferior à do sinal de interesse na saı́da
de cada microfone. Enquanto na simulação anterior tı́nhamos apenas a fonte de
interesse, nesta há a presença de mais duas fontes interferidoras cujas frentes de
onda faziam ângulos de 42o e 90o em relação à normal do conjunto de sensores,
respectivamente. Todas os demais parâmetros desta simulação seguem os mesmos
valores do cenário contemplado na seção anterior.
61
Capı́tulo 6
Conclusão
ryCC
1 y2
(p) = E[y1 (k)y2 (k + p)]. (6.1)
62
de forma recursiva. Analisando os resultados obtidos para as simulações feitas nessa
seção, à medida que o passo do algoritmo é aumentado a velocidade de convergência
também aumenta. Contudo, esse aumento deve estar limitado dentro dos limites
que garantem a convergência do algoritmo.
Todas as etapas de processamento descritas anteriormente (filtragem espacial,
estimação do ângulo de incidência, realce de voz utilizando filtros adaptativos) foram
integradas em um cancelador adaptativo de ruı́do de dois canais. Como em situações
práticas, não temos de antemão um sinal correlacionado com a componente de ruı́do
do sinal coletado por um dispositivo auditivo, para que o filtro seja capaz de realizar
seu cancelamento torna-se necessário a utilização de uma arquitetura que nos forneça
tal sinal. Ao implementar a arquitetura de cancelador adaptativo de ruı́do proposta
por [36] em um cenário onde os ruı́dos apresentam alta potência foi constada um
ligeiro realce ao final de todas etapas de processamento, contudo, a arquitetura
apresenta uma limitação que ao tentar eliminar o ruı́do de maior potência, acaba por
intensificar o de menor. Esta limitação, porém, não mostrou-se ser tão prejudicial
em cenários de simulação que se aproximam de cenários práticos, onde as SNRs
costumam ser bastante elevadas.
Tendo em vista os resultados obtidos no presente trabalho, pode-se citar como
futuras pesquisas:
63
Referências Bibliográficas
[2] LI, C.-M., ZHANG, X., HOFFMAN, H. J., et al. “Hearing impairment associated
with depression in US adults, National Health and Nutrition Examination
Survey 2005-2010”, JAMA otolaryngology–head & neck surgery, v. 140,
n. 4, pp. 293–302, 2014.
[5] PACKER, L. “Hearing aid history: From ear trumpets to digital technology”.
https://www.healthyhearing.com/report/47717-Digital-hearing-
aid-history#:~:text=Ear%20trumpets%20were%20invented%
20in,rams%20as%20primitive%20hearing%20devices.&text=They%
20didn’t%20amplify%20sound,narrow%20tube%20into%20the%20ear,
2016. Acessado: 08-02-2021 às 16:28h.
[7] RIORDAN, M. “The lost history of the transistor”, IEEE spectrum, v. 41, n. 5,
pp. 44–46, 2004.
[8] “Sengdong Hearing Amplifier Behind The Ear for Elders”. https:
//jamaica.desertcart.com/products/190094352-sengdong-hearing-
amplifier-behind-the-ear-for-elders-rechargeable-and-clear-
voice-1-pack. Acessado: 24-02-2021 às 17:01h.
64
directionaliteit-achterhaald-en-tilt-spraakverstaanbaarheid-
naar-een-hoger-niveau/, 2016. Acessado: 24-02-2021 às 17:08h.
[13] PALMER, A. “How the Ear Works and Why Loud Sounds Cause Hearing
Loss”. In: Audio Engineering Society Conference: UK 18th Conference:
Live Sound. Audio Engineering Society, 2003.
65
[23] STOICA, P. Spectral Analysis of Signals. Prentice Hall, 2005.
[24] DMOCHOWSKI, J., BENESTY, J., AFFÈS, S. “On spatial aliasing in mi-
crophone arrays”, IEEE Transactions on Signal Processing, v. 57, n. 4,
pp. 1383–1395, 2008.
[25] BALANIS, C. A. Antenna theory: analysis and design. John wiley & sons,
2016.
[32] WIDROW, B. “Thinking about thinking: the discovery of the LMS algorithm”,
IEEE Signal Processing Magazine, v. 22, n. 1, pp. 100–106, 2005.
[34] VANDEN BERGHE, J., WOUTERS, J. “An adaptive noise canceller for he-
aring aids using two nearby microphones”, The Journal of the Acoustical
Society of America, v. 103, n. 6, pp. 3621–3626, 1998.
66
[37] FROST, O. L. “An algorithm for linearly constrained adaptive array proces-
sing”, Proceedings of the IEEE, v. 60, n. 8, pp. 926–935, 1972.
67
Apêndice A
Nós poderı́amos fazer essa definição como bem entendêssemos, poderı́amos definir
X = 100, caso obtivéssemos cara, e X = 703, caso contrário, e ainda assim X seria
uma variável aleatória. Não seria a maneira mais intuitiva de defini-la, mas ainda
assim seria uma random variable. Note que nós pegamos um processo aleatório
(jogar uma moeda) e mapeamos seus resultados (cara ou coroa) em números (1 e
0), nós quantizamos os resultados desse processo. Outro exemplo bastante comum
seria o rolar de um dado, digamos de seis faces.
68
1, se tivermos apenas 1 ponto na face do dado virada para cima
2, se tivermos 2 pontos na face do dado virada para cima
X= . (A.2)
..
6, se tivermos 6 pontos na face do dado virada para cima
Variável aleatória X
Espaço Amostral
Ω
Figura A.1: Visualização de uma variável aleatória. É uma função que associa um
valor numérico para cada resultado do experimento.
A questão natural que pode surgir é: “Qual a vantagem que esse tipo de variável
apresenta ?”. A maneira mais simples e intuitiva é pensar que, ao quantizar os resul-
tados desses processos aleatórios, podemos aplicar noções matemáticas sobre eles,
a notação matemática é simplificada, entre outros. Diferentemente de uma variável
tradicional, em uma variável aleatória nós nunca podemos prever com certeza o valor
exato de X, apenas ter uma noção probabilı́stica dos valores que pode assumir.
Há uma séria de conceitos básicos relacionados à variáveis aleatórias, as quais
podem ser vistas resumidamente abaixo:
69
valores ou um número infinito contável de valores (por exemplo, suponha que
X deve pertencer ao conjunto dos números inteiros positivos, i.e., X ∈ Z+ );
Resultado do
Evento
o 1 ponto 2 pontos 3 pontos 4 pontos 5 pontos 6 pontos
(n de faces para
cima)
Variável
Aleatória 1 2 3 4 5 6
(X)
Probabilidade 1/6 1/6 1/6 1/6 1/6 1/6
No exemplo da Tabela A.1 só haviam 6 cenários possı́veis, dessa forma foi bas-
tante simples representar toda distribuição de probabilidade da variável aleatória
X sob a forma de uma tabela. Em diversos cenários, no entanto, o número de
resultados possı́veis pode ser muito extenso ou mesmo infinito, de tal forma que
representá-la utilizando uma tabela não seria a melhor abordagem. Para contornar
esse problema, utilizamos funções matemáticas, as quais nos permitem definir uma
distribuição de probabilidade de maneira sucinta.
As funções que descrevem distribuições de probabilidade para variáveis aleatórias
discretas são denominadas função massa de probabilidade (probability mass function,
70
PMF), enquanto que para as variáveis contı́nuas são chamadas de função densidade
de probabilidade (probability density function, PDF).
Pensar em probabilidade como massa nos ajuda a entender uma das proprie-
dades da PMF, visto que a probabilidade total de todos os resultados possı́veis
x se conserva assim como a massa fı́sica.
X
fX (x) = 1. (A.4)
x∈A
71
nor que o igual a um determinado valor x. P (ε) denota a probabilidade de
ocorrência do evento ε.
Isso significa que, em média, a cada vez que o jogo for jogado, o apostador ganha
$0, 50. Para uma variável aleatória discreta X com valores possı́veis x1 , x2 , x3 , ... e
com suas probabilidades representadas pela função p(xi ), o valor esperado calcula-se
pela série
X∞
E[X] = xi p(xi ), (A.7)
i=1
desde que a série seja convergente. Se escrevermos a equação acima deixando evi-
dente a utilização da função massa de probabilidade, a equação pode ser reescrita
como ∞
X
E[X] = xi fX (xi ). (A.8)
i=1
De maneira análoga, mas com as devidas alterações feitas, para uma variável alea-
tória contı́nua X, calcula-se da seguinte maneira
Z ∞
µX = E[X] = x fX (x)dx, (A.9)
−∞
72
Apêndice B
Demonstrações
Uma vez que wT (k)x(k) é uma esclar, podemos afirmar que: wT (k)x(k) = xT (k)w(k).
= E[d2 (k)] − 2E[d(k)wT (k)x(k)] + E[ wT (k)x(k)xT (k)w(k) ]
T
∂ξ ∂ξ ∂ξ ∂ξ
= ...
∂w ∂w0 ∂w1 ∂wN
∂
= (E[d2 (k)] − 2wT p + wT Rw)
∂w
73
∂wT p ∂wT Rw
= −2 +
∂w ∂w
= −2p + (R + RT )w
Como R = RT .
∂ξ
Como a solução ótima wo é a que faz com que = 0, temos
∂w
0 = −2p + 2Rwo
Rwo = p
wo = .R−1 p (B.2)
74