Escolar Documentos
Profissional Documentos
Cultura Documentos
Contínuos no Tempo
1
Introdução
Sabe-se que:
3
Sinais Contínuos no Tempo
Os sinais podem ser classificados segundo as características da
variável (independente) tempo e dos valores que ela assume.
x1 (t ) cos t x2 (t ) e
t
t
4
Sinais Discretos no Tempo
Sinais discretos no tempo são definidos apenas em intervalos
específicos. Na prática, estes intervalos são iguais. Ex.:
tn
x(tn ) e , n 0, 1, 2, ...
o índice ‘n’ dos instantes de tempo é a variável independente e o
valor do sinal se torna uma função de uma variável inteira (i.e.
uma sequência de números). Um sinal discreto no tempo pode ser
representado por uma sequência de números reais ou complexos.
6
Frequência em sinais contínuos e discretos no tempo
A frequência é relacionada a uma oscilação harmônica periódica
descrita por funções senoidais
7
Sinais determinísticos e aleatórios
O processamento e análise matemática de sinais requerem a
disponibilidade de uma descrição matemática do sinal, normalmente
chamada de modelagem do sinal, o que leva a outra classificação
importante dos sinais.
Qualquer sinal que possa ser descrita por uma expressão matemática
explícita única é chamado de determinístico. Este termo é usado para
enfatizar que o fato de que todos os valores passados, presentes e futuros
do sinal podem ser conhecidos precisamente, sem grau de incerteza.
8
exemplos de sinais aleatórios
Sinais de informação.
x(t)
9
Definição de um processo aleatório
10
Modelagem de um Processo Aleatório (ou Estocástico)
O conceito de processo estocástico constitui uma extensão da noção de
variável aleatória e permite modelar uma classe de sinais cujo
comportamento ao longo do tempo é não determinístico. A interpretação
deste modelo pode fazer-se com base na figura. A ideia básica é a de que
cada sinal ou função amostra daquela classe ocorre de acordo com os
resultados de um modelo experimental probabilístico. Com efeito, um
processo estocástico não é mais do que um conjunto de sinais x(t;ξi),
chamados de ‘funções amostra’, onde é um dos resultados elementares
de um fenômeno físico completamente caracterizado pelo conjunto ζ de
todos os resultados experimentais diretos.
11
em resumo:
Variável aleatória:
Processo aleatório:
12
Caracterização de um processo aleatório
Observe que no instante t1 não existe um
X(x,t) valor único para x(t1) .
x1 x2 xn
Portanto, xt1 é uma variável aleatória
x1(t) caracterizada por uma função densidade
t de probabilidade p(xt1).
t i = 1, 2, ... n
13
Processos estacionários
14
Médias estatísticas para um processo aleatório
15
Estatísticas de primeira ordem
x
E X m ti m
ti p xti dxti
Observe que:
16
Mas, se o processo for estacionário, uma única pdf [p(x)], é suficiente para
descrevê-lo. Assim:
x
E Xm m
px dx
mX EX x px dx x
E X2 2
px dx
17
Estatísticas de segunda ordem
Considere duas variáveis aleatórias xt1 e xt2, definidas nos instantes t1 e t2.
x t1 ,t 2 E X t1 , X t 2 x t 1 xt 2 p xt1 , xt 2 dxt1dxt 2
18
Quando o processo é estacionário tem-se que:
x(0) = E[X2]
19
OBS:
x(t)
t
m x E X xt
x t1 ,t 2 x rx
Em geral, parâmetros tais como: valor dc, valor rms, potência média, são
relacionados com um processo ergódico.
xy t1 ,t 2 E X t1 ,Yt 2 x t1 y t 2 p xt1 , yt 2 dxt1dyt 2
25
Processos aleatórios independentes
pxt1, xt 2 , ... x tn , y t'1, yt' 2 , ... y t' m pxt1, ... x tn . p yt'1, ... y t' m
26
Densidade Espectral de potência
x F x e j 2 F d e x x F e j 2F dF
27
No instante = 0
x 0
x F dF E X 2 0
Observações:
Assim:
28
Significado físico da função de autocorrelação
x1(t)
t
x2(t)
t
t1 t2 x()
sinais lentos
sinais rápidos
29
Propriedades dos processos estacionários
Para = 0:
x 0 E X 2
x 0 | x |
30
Propriedades da função de correlação cruzada
31
Resumo
Não estacionário.
32
O modelo de processo ergódico é muito utilizado na prática, pois na
maioria das vezes tem-se disponível uma única função amostra do
sinal.
Parâmetros importantes:
Função de autocorrelação,
33
Sinais aleatórios
discretos no tempo
34
Médias Estatísticas
Uma vez que recordamos a teoria de probabilidade e algumas de suas
ramificações, definimos o comportamento médio de um experimento
aleatório. O valor esperado ou média de uma variável aleatória X é definido
por:
m X t EX t x p X (t ) x dx (1)
Onde o operador E denota a esperança estatística. Ou seja, a média mX
situa o centro de gravidade da área sob a curva de densidade de
probabilidade da variável aleatória x.
Função de uma variável aleatória
Seja X uma variável aleatória, e seja g(X) uma função de valor real definida
sobre a reta real. Se Y for definida como:
Y g( X ) (2)
Y é também uma variável aleatória.
35
Função de uma variável aleatória (cont.)
EY y p y dy
Y
A equação (3) pode ser vista como uma generalização do conceito de valor
esperado para uma função arbitrária g(X) de uma variável aleatória X.
36
Exemplo 1
Variável aleatória cossenoidal
Seja Y g ( X ) cos( X )
Onde X é uma variável aleatória uniformemente distribuída no intervalo
(-, ), ou seja
1
, x
p X x 2
0, caso contrário
37
Momentos
Para o caso específico de g(X) = Xn, utilizando-se a eq. (3), obtemos o n-
ésimo momento da distribuição de probabilidade da variável aleatória X, ou
seja,
x
Eg X n n
p X x dx (4)
Os mais importantes momentos de X são os dois primeiros.
x m
E X m X p X x dx
n n
X (6)
38
Momentos
Para n=1, o momento central é zero, enquanto para n=2 o segundo
momento central é conhecido como variância da variável aleatória X:
x m
varX E X m X p X x dx
2 2
X (7)
39
Momentos
A ‘desigualdade de Chebyshev’ afirma que para qualquer número e positivo,
temos:
X2
P X m X e 2 (8)
e
É uma descrição parcial de sua distribuição de probabilidade.
A partir das eqs. (5) e (7) a variância e o valor quadrático médio, E|X 2|, são
relacionados por:
X2 E X 2 2m X X m X2 E X 2 2m X E X m X2 E X 2 m X2 (9)
x
E g X2 2
p X x dx (5)
x m
varX E X m X p X x dx
2 2
X (7)
40
Função característica
Outra média estatística importante, a função característica FX(n) da pdf de
uma variável aleatória x, é definida como a esperança da função
exponencial complexa [exp(jnX)], como mostrado:
F X ( ) Eexp jX p x exp jx dx
X (10 )
F exp jx d
1
p X ( x) (11)
2
X
Essa relação pode ser utilizada para avaliar a pdf da variável aleatória X a
partir de sua função característica FX(n). 41
Exemplo 2
Variável aleatória Guassiana
1 x m X 2
p X ( x) exp , x (12 )
2 X 2 X
2
dn
F ( ) j n
x n
p X x dx
d n X
0 42
Exemplo 2 (cont.)
A integral do lado direito desta relação
dn
F ( ) j n
x n
p X x dx
d n X
0
E X j
n n dn
d n
F X 0 (13)
A função característica de uma variável aleatória Gaussiana X de média mX
e variância X2 é dada por
1 2 2
F X exp jm X X (14 )
2
As eq. (13) e (14) mostram que os momentos de ordem mais alta da variável
aleatória Gaussiana são unicamente determinados pela média e pela
variância.
43
Momentos conjuntos
Seja o par de variáveis X e Y. Um conjunto de médias estatísticas
importantes são os momentos conjuntos, também chamados de valores
esperados de XiYk, onde i e k podem assumir qualquer valor inteiro positivo.
Assim:
EX Y
i k
x y i k
p X ,Y x, y dx dy (15)
é chamado de covariância de X e Y.
44
Momentos conjuntos
Sendo mX=E[X] e mY=E[Y], podemos expandir a eq. (16) para obter:
cov[ XY ] E[ XY ] m X mY (17)
A covariância de X e Y, normalizada ao produto dos desvios padrão XY, é
chamada de coeficiente de correlação de X e Y:
covXY
(18)
XY
Dizemos que duas variáveis aleatórias X e Y são descorrelacionadas se e
somente se sua covariância for zero, ou seja, E[XY]=0.
45
Processos aleatórios
Sinais aleatórios apresentam duas propriedades:
46
Processos aleatórios
Seja um experimento aleatório especificado pelos resultados i de algum
espaço amostral , pelos eventos definidos no espaço amostral e pelas
probabilidades destes eventos.
X (t , i ) T t T (19)
47
Processos aleatórios
A figura ilustra o conjunto de funções amostrais. A partir dela, observamos
que para um tempo fixo tk, dentro de um intervalo de observação, o conjunto
de números
x1 t k , x2 t k , ..., xn t k X tk , 1 , X tk , 2 , ..., X tk , n
constitui uma variável aleatória.
48
Processos aleatórios
Para simplificar, a prática é suprimir o i e simplesmente utilizar o X(t) para
denotar um processo aleatório.
49
Processos aleatórios
X(x,t)
x1 x2 xn
x1(t)
t
x2(t)
t
x3(t)
t
xn(t)
t
t1 t2 tn
50
Funções de média, correlação e covariância
m X t EX t x p X (t ) x dx (20 )
51
Funções de média, correlação e covariância
52
Autocorrelação
Função de autocorrelação do processo X(t) é definida como a esperança do
produto de duas variáveis aleatórias X(t1) e X(t2), obtidas pela observação
de X(t) nos tempos t1 e t2, respectivamente (ou seja, x1 e x2,
respectivamente):
RX t1 , t 2 EX t1 X t 2 x 1 x2 p X (t1 ), X (t2 ) x1 , x2 dx1 dx2 (23)
54
Propriedades das funções de autocorrelação
A função de autocorrelação é uma função par, isto é:
x k x k (26)
x 0 | x k | (30)
Importância física da autocorrelação
A função RX() descreve a interdependência de duas variáveis aleatórias
obtidas observando-se o processo aleatório X9t) em instantes separados
entre si de segundos.
Rx()
sinais lentos
sinais rápidos
56
Importância física da autocorrelação (cont.)
Define-se o tempo de descorrelação 0 como o tempo necessário para que
a magnitude da função de autocorrelação até um certo valor, 1% por
exemplo, de seu valor máximo.
57
Funções de correlação cruzada
Seja o caso mais geral de dois processos aleatórios X(t) e Y(t) com funções
de autocorrelação RX(t,u) e RY(t,u), respectivamente.
58
Processos ergódicos
As esperanças de um processo estocástico X(t) são médias ao longo do processo.
Ex.: para uma função amostral x(t), a média temporal sobre um período de observação 2T
é 1
T
m x ,T
2T x(t )dt
T
(46)
Para muitos processos de interesse, as médias temporais e as médias conjuntas são iguais,
uma propriedade conhecidad como ergodicidade.
Quando uma média conjunta é requerida, podemos estimá-la utilizando uma média
temporal. Assim, consideramos que os processos aleatórios são ergódicos.
59
Densidade Espectral de Potência
Quando analisamos sinais determinísticos no domínio do tempo, observá-
los também no domínio da frequência é importante.
60
Densidade Espectral de Potência
A densidade espectral de potência SX(f) e a autocorrelação RX() formam o
par
S X ( f ) RX ( ) exp j 2f d (54)
RX ( ) S X ( f ) exp j 2f df (55)
61
Introdução
X(x,n)
x1 x2 xn variáveis aleatórias
x1(n) nos instantes
n n1, n2, ...
x2(n)
x3(n)
xn(n)
n
n1 n2 nn
62
Introdução
Se X(n) é um processo aleatório, então xi(1), xi(2), ... xi(n) são variáveis
aleatórias.
63
Caracterização de um processo aleatório discreto no tempo
Função de autocorrelação,
64
Momentos
x
E X m n m
n p xn dxn
m = 1 : valor médio,
65
Valor médio
m x E X n x np xn dxn
Propriedades:
EaX n aEX n
66
Sequência de autocorrelação
Definição:
x n , m E X n , X m x x n mp xn , xm dxn dxm
Sequência de autocovariância
c x n , m EX n mx n , X m mx m
Seja k = n – m
Variância ( potência ac ):
cx 0 x 0
x(k)
2x mx2
sinais lentos
sinais rápidos
68
Densidade Espectral de Potência
x 0 E X
2
1/ 2
x f
k
x k e j 2 fk e x k x f e j 2fk df
1 / 2
69
Observações:
1/ 2
x ( 0) ( f )df
1 / 2
x
70
Médias temporais para um par discreto no tempo
71
Definições para processos aleatórios discretos ergódicos
Valor Médio:
xn
1
xn mx lim
N 2N 1
nN
Sequência de autocorrelação:
N
rx k lim x* n xn k
1
N 2N 1
nN
Variância:
72
Estimativa das médias temporais
isto é, N é finito.
73
Define-se as seguintes medidas:
Variância do estimador:
varˆ E ˆ 2 E 2 ˆ
74
Estimativa do valor médio de um sinal
N 1
xn
1
m̂x Estimador para o valor médio
N n 0
1 N 1 1 N 1
E m̂ x E
N
n 0
xn
N
Exn m
n 0
x
75
Variância do estimador:
1
N 1 N 1 N 1 N 1
N n 0 m 0 N n 0 m 0
N 1 N 1
2 E x n 2 E xn E xm
1 2 1
N n 0 N n 0 m n
1
N
2
E x n
N
N 1 2
mx
2 tende a zero
varm̂ x E x 2 n
1 N 1
m x2 m x2 x conforme
N N N N
76
Resumindo: o estimador do valor médio é definido como:
N 1
xn
1
m̂x
N n 0
Em que:
Bm̂x Em̂x mx 0
O estimador é consistente
77
Estimativa da variância de um sinal:
N 1
xn m̂
1
ˆx
2
x
2
N n 0
N 1
xn m̂x
1
ˆ x
2 2
N 1 n 0
78
Variância do estimador:
varv
1
N
E v 2 E 2 v onde : v
ˆ 2x
N 1
xn m̂x 2
1
ˆ 2x
N 1 n 0
79
Estimativa da função de autocorrelação:
Primeiro modo:
N 1|k|
r̂x k x* n xn k
1
N n 0
Admitindo mx = 0
N| k |
Er̂x k x k
N
varr̂x k 2x l x l k x l k
1
N l
80
Para valores de k, próximos de N, o estimador é altamente
polarizado.
" Bias" B x k 0
k
N
Portanto para polarização baixa os valores de k devem ser pequenos
quando comparados com N.
varr̂x k 0
81
Estimativa da função de autocorrelação:
N 1|k|
r̂x k x* n xn k
1
Segundo modo:
N| k | n 0
Admitindo mx = 0
Er̂x k x k
l l k l k
varr̂x k
N 2
N | k | 2
l
x x x
82
Exemplo: Função de autocorrelação do ruído branco gaussiano com
valor médio zero e variância igual a 1.
3
2
1
x k 2x k 0
-1
-2
-3
0 50 100 150 200 250
polarizada não-polarizada
1.2 1
0.8
0.5
0.6
0.4
0
0.2
-0.2 -0.5
-200 -100 0 100 200 -200 -100 0 100 200
83
Exemplo: Função de autocorrelação de um trecho de um sinal de voz
1
0.5
-0.5
-1
0 50 100 150 200 250
polarizada
0.2
0.1
-0.1
-0.2
-200 -100 0 100 200
não polarizada
0.2
0.1
-0.1
-0.2
-200 -100 0 100 200
84
Resumo
85
Resumo
Parâmetros importantes:
86