Escolar Documentos
Profissional Documentos
Cultura Documentos
¶ ³
V El Proceso Estocástico o aleatorio es un Modelo probabilístico o matemático, forma-
µ
Procesos Estocásticos ´
do por la colección completa de todas las Variables Aleatorias X(t) : {X(t)}
Para t fijo, las VAs X(t) pueden ser discretas o continuas, cada una con su propia
Un objetivo básico del análisis estadístico de sistemas de comunicación es la caracteri- distribución marginal y una determinada relación entre X(t1) y X(t2 ).
zación de señales aleatorias o estocásticas: señales de sonido, de televisión, comuni-
Estas variables aleatorias son el modelo de una señal en cada instante t: la señal no es fija,
caciones digitales, ruido eléctrico, etc.
sino que puede tomar una serie de valores, de acuerdo con una determinada distribución
¥ Dos características fundamentales: de probabilidad.
• Las señales son función del tiempo, definido en algún intervalo o conjunto discreto.
¥ En función de cómo observemos el tiempo, en intervalos o en instantes concretos, o
• Las señales son aleatorias: antes de realizar el experimento y observarlas es imposible
de cómo son los valores numéricos de la onda, podemos distinguir procesos en tiempo
predecir exactamente la forma de la onda.
continuo o discreto, y enteros (o de conteo) o reales.
=⇒ El objetivo de la asignación de probabilidades ahora no son valores numéricos (en-
teros, reales, etc.) si no que son funciones del tiempo: Procesos Estocásticos: ¥ EJEMPLOS: Procesos en tiempo continuo.
• El espacio muestral son funciones del tiempo, t ∈ T, dentro de un determinado conjunto:
1. Electrocardiogramas: ruido aleatorio causado por el rebote de los ultrasonidos.
X(t)
2
⇒ A ∈ {1, 2, . . . , 6} y Pr[A = i] = 16 , ∀i, y ⇒ A ∼ U {1, 6}, uniforme discreta con p = 16 . X(t)
1
0 5 10 15 20 25 30
t
Se define el proceso estocástico
-1
-2
X(t) = A cos tω
-3
El proceso X(t) depende del valor de la VA A y por tanto es aleatorio o estocástico. ¥ Si A = 3, X(t) = 3 cos(tπ/10), t = 0, 1, . . . , 30, ω = π/10
Para un valor concreto de t, to , el valor de proceso Xto depende tanto del suceso recogido
3
en A, como del instante to en el que se observa el proceso:
2
1 X(t)
Pr[X(to ) = i cos to ω] = , i = 1, . . . , 6. 1
6
0
En este caso además depende de ω. 5 10 15
t
20 25 30
-1
-2
-3
1.5
1
X(t)
0.5
0 5 10 15 20 25 30
t
-0.5
-1
-1.5
Tema 6. Procesos Estocásticos 5 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 6 Estadística. Ing. Telecom.
Procesos estocásticos en tiempo discreto: secuencia Xt de variables aleatorias con EJEMPLO: Proceso de Bernoulli: Se tira una moneda al aire y se define:
un índice t:
½
. . . , X−2, X−1, X0 , X1 , X2 , . . . 1, si sale cara en la tirada t, p
X(t)=
−1, si sale cruz en la tirada t, q = 1 − p
• El índice t es discreto; generalmente es tiempo, pero podría ser también otra dimensión,
como espacio. Proceso discreto. En cada instante t depende de una variable aleatoria diferente.
¥ EJEMPLOS. -0.5
-1
X(t)0.5
0 2 4 6 8 10 12 14 16 18 20
t
-0.5
-1
Dado un proceso estocástico, se pueden crear otros procesos transformando X(t) por
medio de alguna operación matemática. Una operación muy útil es el filtrado lineal.
Y (t) = 12 Y (t − 1) + X(t).
1
X(t)
0.5
0 2 4 6 8 10 12 14 16 18 20
t
-0.5
-1
-1.5
Tema 6. Procesos Estocásticos 7 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 8 Estadística. Ing. Telecom.
¶ ³
Dos visiones alternativas de los procesos:
1. Como para cualquier otra variable aleatoria, es un mecanismo que nos da una se- Propiedades
cuencia de valores numéricos cuando ocurre un suceso aleatorio: µ ´
² ¯
1 1
X(t)0.5 X(t)0.5
¥ Distribuciones marginales:
± °
0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 20
t t
-0.5 -0.5
X(t)
0.5
y su función de densidad de probabilidad (VA continuas)
0 1 2 3 4 5 d
t ft (x) = fX(t)(x) = F (x),
dx X(t)
-0.5
² ¯
EJEMPLOS: Procesos Normales
¥ Distribuciones conjuntas:
± °
¥ Ruido Blanco Normal: X(t) ∼ N(0, 1), independientes unos de otros para todo t
Para analizar las propiedades del proceso estocástico, además de las distribuciones de ca-
(IID).
da variable por separado, hay que definir las distribuciones conjuntas que indican cómo
se relacionan grupos de VA.
2
0 1 2 3 4 5 6
t
FX(t1),X(t2),...,X(tn )(x1 ,x2 ,...,xn) = Pr[X(t1 )≤x1 ,X(t2 )≤x2 ,...,X(tn ) ≤xn ], -1
-2
y la correspondiente función de densidad o probabilidad.
¥ Dependiendo de la forma de esas distribuciones conjuntas, se puede formar tipos muy ¥ Si X(t) = X ∼ N (0, 1), la misma VA para todo t, entonces cada VA por separado sigue
diferentes de procesos estocásticos. siendo Normal como antes, pero las realizaciones del proceso son iguales a una constante.
estacionario. 1
⇒ Si FX(t1) (x) es igual para todo t1, con n = 1 entonces X(t) es estacionario, de 0 1 2 3
t
4 5
primer orden. -1
⇒ Si FX(t1),X(t2) (x) es igual para todo t1 , t2, con n = 2 entonces X(t) es estacionario, -2
de segundo orden.
¶ ³
EJEMPLO: Procesos de Poisson
² ¯
que cuenta el número de sucesos que ocurren bajo estas condiciones: ¥ Medidas características marginales
± °
• El número de sucesos en cualquier intervalo de tiempo es independiente del número
en otros intervalos no superpuestos. Como un proceso estocástico en tiempo discreto es una secuencia indexada de VAs, se
puede calcular la media o esperanza de cada una de ellas, y formar la secuencia
• La probabilidad de que ocurra un suceso en un intervalo de longitud t es aproxi-
madamente λt cuando t → 0.
mX (t) = E[X(t)], t = . . . , −1, 0, 1, . . .
• La probabilidad de que ocurran 2 ó más sucesos en un intervalo de longitud t tiende
a cero cuando t → 0.
que es la media del proceso.
λ representa el número medio de sucesos por unidad de tiempo (o longitud, etc.).
Calculando la varianza de cada VA, se obtiene la varianza del proceso:
La función de probabilidad el proceso es
σ 2X (t) =Var[X(t)] = E[(X(t) − mX (t))2 ], t = . . . , −1, 0, 1, . . .
(tλ)j e−tλ
PN (t)(j) = ,
j!
Ambas son en general funciones de t y representan el valor medio y la oscilación media
y el tiempo entre sucesos T se distribuye exponencialmente, alrededor de ese valor para cada t.
Creciente en el tiempo, no estacionario:
Estas dos medidas dependen sólo de las distribuciones univariantes, pero también es im-
portante definir conceptos sobre la distribución conjunta de más de una variable.
10
0 5 10 15 20 25 30
t
Tema 6. Procesos Estocásticos 13 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 14 Estadística. Ing. Telecom.
² ¯
EJEMPLO: Procesos Armónicos. Amplitud aleatoria.
¥ Medidas características conjuntas
± °
Muy usados en procesamiento de señales de radar y sonar.
La autocovarianza se define como la covarianza entre dos VAs del mismo proceso en el
1
instante k y en el instante `, A ∼ U (1, 6), p = 6 y se define el proceso estocástico con ω fijo,
RX (k, `) =Cov[X(k), X(`)] = E[(X(k)−mX (k))(X(`)−mX (`))], k, ` = 0, ±1, . . . X(t) = A cos tω.
y la autocorrelación es
• Media del proceso
¥ Estacionariedad débil (de segundo orden): Si ω = 2π, entonces X(t) = 1, ∀t, y mX (t) = 3.5 y σ2X (t) = 0.
µ ´
es decir, las medidas características (momentos) de primer orden (media) son constantes,
las de segundo orden (autocovarianzas) sólo dependen de la distancia entre los dos puntos
considerados, k − `, y no del valor de k, o de `.
• Varianza:
• Autocovarianza:
RX (k, `) = Cov[Xk , X`] = Cov[A sin(kω + φ), A sin(`ω + φ)]
= A2E[sin(kω + φ) sin(`ω + φ)]
A2
= E[cos((k − `)ω) − cos((k + `)ω + 2φ)]
2
A2 A2
= cos((k − `)ω) − E[cos((k + `)ω + 2φ)]
2 2 | {z }
=0
2
A
= cos((k − `)ω),
2
y fijando t = k = ` se obtiene que
A2 A2
σ 2X (t) = RX (t, t) = cos((t − t)ω) = .
2 2
Tema 6. Procesos Estocásticos 17 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 18 Estadística. Ing. Telecom.
Son aquellos para los que cualquier colección de VAs se distribuye conjuntamente como
una Normal multivariante.
N(t) = Número de sucesos ocurridos hasta el instante t,
0
Si X = (X1 , X2 , . . . , Xn ) es un vector de n VAs conjuntamente Normal tiene función de
densidad de probabilidad igual a con parámetro λ,
½ ¾ (tλ)j e−tλ
−n/2 −1/2 1 0 −1 PN (t)(j) = .
fX(x) = (2π) |ΣX | exp − (x − mX ) ΣX (x − mX ) , j!
2
• Media del proceso:
donde
mN (t) = E[N(t)] = λt.
• mX = (m1 , m2 , . . . , mn )0 es el vector que contiene las medias de X,
• Varianza:
mk = E[Xk ] = mX (t), σ 2N (t) = Var[N (t)] = λt.
• ΣX es una matriz simétrica, definida positiva con elementos σk` iguales a las covarianzas Como es un proceso creciente podemos escribir, r > s,
entre Xk y X` ,
N(r) = N(s) + N(s, r)
σ k` = E[(Xk − mk )(X` − m` )] = RX (k, `),
y |ΣX| es el determinante de ΣX. donde N (s, r) es el número de sucesos que ocurren entre el instante s y el r, y por tanto
son independientes de los que ocurrió anteriormente en el proceso.
Los procesos Normales están totalmente definidos mediante su vector de medias y su
matriz de covarianzas: • Autocovarianza, r > s:
⇒ Estacionariedad estricta y débil son equivalentes. γ N (r, s) = Cov[N (r), N(s)] = Cov[N (s) + N(s, r), N (s)]
⇒ Estacionariedad débil de segundo orden implica estacionariedad débil de todos los = Cov[N (s), N(s)] + Cov[N(s, r), N (s)] = λs
órdenes. | {z } | {z }
=Var[N(s)] =0, por independencia
γ N (r, s) λs p
ρN (r, s) = =√ = s/r.
σ N (r)σ N (s) λs λr
Si s ≈ r ⇒ ρN (r, s) ≈ 1.
EJEMPLO: Paseo aleatorio: valores discretos EJEMPLO: Paseo aleatorio: valores continuos
¥ Versión discreta: Se supone que una partícula, empezando en el origen, se mueve una ¥ Versión continua: Si se supone que los movimientos laterales tienen distribución normal,
unidad en cada periodo, a la derecha o a la izquierda. Los movimientos son indepen- entonces
dientes unos de otros; hacia la derecha tienen probabilidad p y hacia la izquierda q = p−1. P
Xt = tj=1 ²j ,
X(t) es el número de unidades hacia la derecha (positivas) que se ha movido la partícula
después de t periodos de tiempo. X(t) ∈ {−t, 1 − t, . . . , −1, 0, 1, . . . , t − 1, t}. donde ²j ∼ N(0, 1), independientes unos de otros.
• Función de Probabilidad: sea Y ∼ B(t, p). Cuando X(t) = k, entonces debe haber
(t + k)/2 movimientos a la derecha y (t − k)/2 movimientos a la izquierda. Entonces o
8
o
oo o o o o
X(t) = k ⇔ si Y = (t + k)/2, y por tanto o
o
6
oo o
oo o
· ¸ µ ¶ o
o
t+k t o
4
o
X_t
o
PX(t) [k] = Pr Y = = p(t+k)/2 q (t−k)/2. o oo
oo o o
2 (t + k)/2 o o o
2
oo o
oo oo oo o o
oo o o o
o o
De otra forma, Y = (t + X(t))/2 ó X(t) = 2Y − t, donde Y ∼ B(t, p). Por tanto
0
o
0 10 20 30 40 50
mX (t) = E[X(t)] = E[2Y − t] = 2tp − t = t(2p − 1) tiempo
j=1
o o o o
o o o o
-2
o o
• Varianza, por independencia de los ²j ,
X_t
o o o
-4
t
X t
X
o o o o o
o o o o o σ 2X (t) = Var[Xt ] = Var[²j ] = 1 = t.
-6
o o o o j=1 j=1
o o
-8
0 5 10 15 20 25 30
tiempo Para r > s,
r
X
1
El caso más interesante es cuando p = q = 2 y los movimientos son equiprobables. Xr = Xs + Xs+1,r , Xs+1,r = ²j
Entonces mX (t) = 0 y σ2X (t) = t y se puede demostrar como con el Proceso de Poisson j=s+1
que la autocovarianza, r > s, es en ese caso donde Xs y Xs+1,r son independientes por que los ²’s que los forman lo son.
γ N (r, s) = Cov[X(r), X(s)] = s • Autocovarianza, r > s:
y la autocorrelación, r > s: RX (r, s) = Cov[Xr , Xs ] = Cov[Xs + Xs+1,r , Xs ]
γ N (r, s) s p = Cov[Xs , Xs ] + Cov[Xs+1,r , Xs ] = s
ρN (r, s) = = √ = s/r. | {z } | {z }
σN (r)σ N (s) sr =Var[Xs ] =0, por independencia
Tema 6. Procesos Estocásticos 21 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 22 Estadística. Ing. Telecom.
RX (r, s) s p Es un proceso Normal en tiempo continuo, de tal forma que los incrementos entre dos
ρX (r, s) = = √ = s/r.
σ X (r)σ X (s) sr puntos se distribuyen de forma normal, con varianza proporcional a la longitud del in-
tervalo e independientemente de lo que ocurre en otros segmentos.
Si s ≈ r ⇒ ρN (r, s) ≈ 1. Para r > s ≥ 0
Si s es fijo y r → ∞ ⇒ ρN (r, s) → 0: aproximadamente incorrelados (también independi-
X(r) − X(s) ∼ N(0, σ 2 (r − s)) ,
entes) porque la porción común, Ns , es cada vez menor comparado con el proceso hasta
el instante s, cada vez más lejano.
suponiendo que X(0) = 0 y E[X(t)] = 0. En particular Var[X(t)] = σ 2t, t ≥ 0.
⇒ Este es un ejemplo de Proceso de Incrementos Independientes: lo que ocurre
en un segmento de tiempo es independiente de lo que ocurre en otro segmento no super-
puesto.
5
Si definimos ∇ al operador diferencia, tal que
0
X_t
∇X − t = Xt − Xt−1 ,
-5
V ∇Xt = ²t , un proceso Normal independiente.
-10
0 50 100 150 200
tiempo
² ¯
3. Interpretación física: RX (τ ) mide el grado de independencia (lineal) entre dos
¥ Propiedades de la Función de Autocorrelación. Procesos Estacionarios
± ° VAs observando el proceso X(t) en instantes separados por τ periodos. Si el pro-
ceso X(t) cambia muy rápidamente en el tiempo, entonces RX (τ ) decrecerá muy
rápidamente desde su máximo en τ = 0 :
RX (τ ) = RX (t + τ , τ ) =Cov[X(t + τ ), X(t)] todo τ
1.2
1
1. La función de autocorrelación es par:
0.8
R_X(t)
RX (τ ) = RX (−τ ). 0.6
0.4
R_X(t) 0.5
por tanto,
£ ¤ £ ¤
E X(t + τ )2 ± 2E [X(t + τ )X(t)] + E X(t)2 ≥ 0. -10 -5 0 5
t
10
-0.5
Suponiendo que el proceso tiene media cero, µX (t) = 0, todo t, entonces RX (τ ) =
E[X(t + τ )X(t)] = E[X(t), X(t − τ )], -1
RX (0) ± RX (τ ) ≥ 0,
y por tanto
−RX (0) ≤ RX (τ ) ≤ RX (0).
Tema 6. Procesos Estocásticos 25 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 26 Estadística. Ing. Telecom.
EJEMPLO: Onda binaria aleatoria: Haciendo una media de todos los posibles valores de td, se obtiene que
2. Los impulsos no están sincronizados: el punto inicial td del primer impulso completo
1.5
puede ocurrir con igual probabilidad en cualquier instante entre 0 y T segundos: td
es una observación de una VA uniforme Td, entre [0, T ] : R_X(t) 1
½ 1
0.5
T: 0 ≤ td ≤ T
fTd (td) = .
0: − -4 -2 0 2
t
4
• Si |t1 − t2| > T, entonces las VAs X(t1) y X(t2 ) ocurren en diferentes intervalos,
y por lo tanto son independientes: RX (t1 − t2 ) = 0.
• Si |t1 −t2| ≤ T, entonces las VAs X(t1 ) y X(t2 ) ocurren en el mismo intervalo si y
sólo si el desfase td satisface que td < T −|t1 −t2 | (y por tanto serán idénticas); si
no, también estarán en impulsos diferentes (y serán independientes). Entonces
obtenemos la siguiente esperanza condicional:
½ 2
A : td < T − |t1 − t2 |
E [X(t1 )X(t2 )|td] = .
0: −
Tema 6. Procesos Estocásticos 27 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 28 Estadística. Ing. Telecom.
² ¯
EJEMPLO: Procesos con Cuadratura Modulada:
¥ Función de Autocorrelación Cruzada
± °
Dado un proceso estacionario en sentido débil X(t) de media cero,
Definición dados dos procesos X(t), Y (t),
X1 (t) = X(t) cos(ωt + φ)
RXY (t, t0 ) = RXY (t0 , t) = Cov[X(t), Y (t0 )] = Cov[Y (t0 ), X(t)]. X2 (t) = X(t) sin(ωt + φ)
lo que demuestra que las VAs obtenidas por la observación de procesos con cuadratura
modulada X1 (t) y X2 (t) son ortogonales entre sí.
Tema 6. Procesos Estocásticos 29 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 30 Estadística. Ing. Telecom.
¶ ³
¥ Función de autocorrelación de un proceso filtrado.
Transmisión de procesos estocásticos a través de filtros lineales
µ ´ Suponiendo que µY (t) = 0 para todo
Un proceso estocástico X(t) es el input de un filtro lineal invariante con función de RY (t, t0 ) = Cov[Y (t), Y (t0 )]
respuesta a impulsos h(t), produciendo un nuevo proceso estocástico Y (t) como output ·Z ∞ Z ∞ ¸
del sistema: = E h(τ )X(t − τ )dτ h(τ 0 )X(t0 − τ 0)dτ 0 ,
−∞ −∞
Z ∞
Y (t) = h(τ )X(t − τ )dτ y si E[X(t)2] < ∞, se obtiene que
−∞
Z ∞Z ∞
RY (t, t0 ) = h(τ )h(τ 0 )E [X(t − τ )X(t0 − τ 0 )] dτ dτ 0
En general es difícil describir las propiedades probabilísticas del output, aunque se conoz- −∞ −∞
Z ∞ Z ∞
can perfectamente las del input.
= h(τ )h(τ 0 )RX (t − τ , t0 − τ 0 )dτ dτ 0 .
Por esta razón, nos limitaremos a estudiar las propiedades en el dominio del tiempo [fre- −∞ −∞
cuencia] de la relación input-output determinada por el filtro en términos de las funciones
de media y autocorrelación del output Y (t) en términos del input X(t), suponiendo que • Si además X(t) es estacionario en sentido débil, RX es sólo función de la diferencia
X(t) es un proceso estacionario en sentido débil. entre los instantes considerados, u = t − t0
Z ∞Z ∞
¥ Media: ·Z ¸
∞ RY (u) = h(τ )h(τ 0 )RX (u − τ + τ 0 )dτ dτ 0 .
−∞ −∞
µY (t) = E [Y (t)] = E h(τ )X(t − τ )dτ ,
−∞
Por tanto, con este resultado y el anterior sobre la media de Y (t), el resultado de filtrar
si E [X(t)] existe y el sistema es estable, entonces se puede intercambiar la esperanza y con un filtro lineal invariante un proceso estacionario en s.débil es otro proceso esta-
la integral, y se obtiene que cionario en s. débil.
Z ∞
µY (t) = E [Y (t)] = h(τ )E [X(t − τ )] dτ La varianza del proceso filtrado (o ECM del proceso si µY = 0) es igual a una constante:
−∞ Z Z
Z ∞ ∞ ∞
¶ ³
¥ Esta ecuación establece que la varianza del output de un filtro lineal estable invariante
Función de Densidad Espectral
µ ´
en respuesta a un proceso estocástico estacionario (en s.d.) es igual a la integral sobre
todas las frecuencias de la función de densidad espectral del proceso input multiplicado
Hasta ahora hemos estudiado procesos estocásticos y sistemas lineales en el dominio del
por la magnitud al cuadrado de la función de transferencia del filtro.
tiempo. Ahora vamos a utilizar ideas en el dominio de las frecuencias. En particular
queremos obtener en primer lugar el equivalente frecuencial de la fórmula (1) que de- ¥ Interpretación física de la densidad espectral.
scribe la varianza de un proceso. Suponemos que un proceso estacionario (s.d.) X(t) es filtrado a través de un filtro ideal
de banda estrecha, con amplitud de respuesta centrada en la frecuencia fc ,
La función de respuesta a impulsos de un filtro lineal invariante es igual a la Transformada
Inversa de Fourier de la función de transferencia del sistema: ½
1 : |f ± fc | < 12 ∆f
Z ∞ |H(f )| = ,
0 : |f ± fc | < 12 ∆f
h(τ ) = H(f ) exp(i2πf τ )df.
−∞
σ2Y = 0
H(f ) exp(i2πf τ )df h(τ )RX (τ − τ )dτ dτ0 0
−∞ −∞ −∞
Z ∞ Z ∞Z ∞ |H(f)|
0 0 0
= H(f ) h(τ )RX (τ − τ ) exp(i2πf τ )dτ dτ df.
−∞ −∞ −∞
0
Si cambiamos de variable u = τ 0 − τ ,
Z ∞ ·Z ∞ ¸ ·Z ∞ ¸
2 0 0 0 donde ∆f es la anchura de banda del filtro. Por tanto si ∆f es pequeño comparado con
σY = H(f ) exp(i2πf τ )h(τ )dτ RX (u) exp(−i2πf u)du df,
−∞ la frecuencia central fc , tenemos que la varianza del output del filtro será
| −∞ {z } −∞
=H(f )∗
σ2Y := (2∆f ) SX (fc ).
donde H(f )∗ es la función compleja conjugada de H(f ). Por tanto
Por lo tanto, como el filtro sólo pasa aquellos componentes del input con frecuencia
Z ∞ ·Z ∞ ¸
en una banda muy estrecha alrededor de fc , SX (f ) representa la densidad de varianza
σ 2Y = |H(f )|2 RX (u) exp(−i2πf u)du df,
−∞ −∞
(comparada con la varianza total) que lleva el proceso input X(t) en la frecuencia f.
| {z }
=SX (f)
Z ∞
σ 2Y := |H(f )|2 SX (f )df.
−∞
Tema 6. Procesos Estocásticos 33 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 34 Estadística. Ing. Telecom.
² ¯
EJEMPLO: Sinusoide con Fase Aleatoria (cont.), con ω = 2πfc ,
¥ Propiedades de la Función de Densidad Espectral
± °
La densidad espectral y la función de autocorrelación satisfacen el siguiente par de trans- X(t) = A cos(2πfc t + φ),
formadas de Fourier,
Z ∞ donde φ ∼ U (−π, π), con función de autocorrelación
SX (f ) = RX (u) exp(−i2πf u)du
−∞ A2
Z ∞ RX (τ ) = cos ωτ .
2
RX (u) = SX (f ) exp(i2πf u)df.
−∞ Tomando la transformada de Fourier de ambos lados de esta ecuación,
A2
1. La varianza del proceso se obtiene como la integral de la función de densidad SX (f ) = [δ(f − fc ) + δ(f + fc )] ,
4
Z ∞
se obtiene la función de densidad espectral, compuesta por un par de funciones delta
σ 2X = RX (0) = SX (f )df.
−∞ ponderados por el factor A2 /4 y localizadas en ±fc .
SX (f ) = SX (−f ), -2 0
f
2
4. La función de densidad espectral (normalizada por la varianza del proceso) tiene las
propiedades de la función de densidad de probabilidad.
5. La función de densidad espectral de un proceso en tiempo continuo está definida
para todo f ∈ (−∞, ∞).
¶ ³
EJEMPLO: Onda aleatoria binaria (cont.) con función de autocovarianza:
Procesos Gaussianos: tiempo continuo.
( ³ ´ µ ´
= A2 1 − |τT | , |τ | < T.
RX (τ ) = Muy importantes desde un punto de vista teórico y práctico: la distribución del proceso
= 0 |τ | ≥ T.
en cualquier conjunto finito de puntos es Normal Multivariante (más alguna condición
La función de densidad espectral viene dada por técnica).
Z ∞ µ ¶ La propiedad más importante de un Proceso Gaussiano es que cualquier funcional lineal
2 |τ |
SX (f ) = A 1− exp(−i2πf τ )dτ
−∞ T Z T
2
sin (f T ) Y = g(t)X(t)dt
= A2 . 0
(f T )2
tiene distribución Normal o Gaussiana, definida por su función de media y su función de
1
autocovarianza (o alternativamente su función de densidad espectral).
0.8 Además en este caso:
0.6
S(f) • estacionariedad en sentido estricto y en sentido débil coinciden (de segundo orden).
0.4
• incorrelación e independencia coinciden.
0.2
-6 -4 -2 0 2 4 6
f
1
RY (τ ) = RX (τ ) cos(2πfc τ ),
2
y función de densidad espectral
1
SY (f ) = [SX (f − fc ) + SX (f + fc )] ,
4
que es igual a la función de densidad espectral del proceso X(t) trasladada fc unidades
a derecha e izquierda y dividida por 4.
Tema 6. Procesos Estocásticos 37 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 38 Estadística. Ing. Telecom.
² ¯
El número de electrones N(t) emitido en el intervalo (0, t) es un proceso estocástico dis-
Ruido
± °
creto, cuyo valor se incrementa en una unidad cada vez que se emite un electrón.
El ruido son ondas indeseadas que dificultan la transmisión y procesamiento de señales Suponiendo que la tasa media de emisión de electrones (por unidad de tiempo) es λ, el
en sistemas de información al enmascarar la información que se desea transmitir. número de electrones emitidos en el periodo (t, t + to ) tiene distribución Poisson:
Las propiedades de los diferentes de tipos de ruido se pueden caracterizar de diferentes ν = N(t + to) − N(t) ∼ P (λto ).
formas. En general se usarán las funciones de autocovarianza y de densidad espectral.
Además existen diferentes modelos (diferentes procesos estocásticos) que se denominan • Media de X(t):
Z ∞
ruido, con diferentes distribuciones. Los más importantes ejemplos de ruidos o fluctua-
µX = λ h(t)dt.
ciones espontáneas en circuitos eléctricos son el ruido termal (thermal noise) y el shot −∞
noise. Además existe un tipo general de ruido que incluye muchos otros ejemplos: el
ruido blanco. • Autocovarianza de X(t):
² ¯ Z ∞
¥ Shot Noise RX (τ ) = λ h(t)h(t + τ )dt.
± ° −∞
En cualquier sistema eléctrico, físico, etc, aparece ruido por la naturaleza discreta de
² ¯
todos los fenómenos, por ej. emisión de electrones, etc..
¥ Ruido Termal
EJEMPLO: en los fotodetectores se genera un impulso cada vez que se emite un electrón ± °
debido a la incidencia de luz de alguna fuente de intensidad constante. Los electrones se Ruido eléctrico generado por el movimiento aleatorio de los electrones en un conductor.
emiten aleatoriamente en instantes τ k , −∞ < k < ∞. Se supone que la emisión aleatoria
de electrones va a durar durante un largo periodo de tiempo.
Por tanto, el flujo a través del fotodetector se puede modelar como una suma infinita de
los impulsos,
X∞
X(t) = h(t − τ k )
k=−∞
² ¯
EJEMPLO: Ruido blanco con un filtro low-pass ideal
¥ Ruido Blanco
± °
Se supone que en ruido blanco Gaussiano w(t) de media zero y densidad espectral N0 /2
El tipo de ruido que aparece en sistemas de comunicaciones se analiza mediante un modelo se aplica a un filtro low pass (paso bajo) ideal de ancho de banda B y de amplitud de
idealizado denominado ruido blanco, cuya función de densidad espectral es independiente
respuesta igual a 1. La densidad espectral del ruido n(t) que aparece en el output del
de la frecuencia operativa (es constante).
sistema es ½ N
2 −B < f < B
0
El nombre proviene de que la luz blanca contiene igual proporción de todas las frecuen- Sn (t) =
cias dentro de la banda de luz visible en el espectro electromagnético: 0, |f | > B.
N0
SW (f ) = .
2
1
N0
RW (τ ) = δ(τ ),
2 0
N0
es decir, una función delta ponderada por el factor 2 , que ocurre en τ = 0, y por tanto Mientras que la función de autocorrelación es
es cero en τ 6= 0. Z ∞
N0
RN (τ ) = exp(i2πf τ )df
V Dos observaciones de ruido blanco, no importa cómo sean de próximas, siempre es- −∞ 2
tarán incorreladas. Si el proceso es Gaussiano, además serán independientes. En este sin 2πτ B
= N0 .
sentido el Ruido Blanco Gaussiano es el paradigma de la aleatoriedad. 2πτ
¥ En sentido estricto, el ruido blanco tiene potencia (varianza) infinita, y por tanto no es 1
físicamente realizable. Sin embargo el ruido blanco tiene propiedades matemáticas muy
0.8
simples que le hacen muy útil para el análisis estadístico.
0.6
¥ La utilidad del proceso ruido blanco es paralela a la de la función impulso o delta en R_N(t)
0.4
análisis de sistemas lineales: el efecto de ambos sólo se ve después de pasar a través de
0.2
un sistema de banda finita. Por tanto, siempre que la anchura de banda de un proceso de
ruido en el input de un sistema sea significativamente mayor que la del mismo sistema, -3 -2 -1 0 1
t
2 3
entonces podemos modelizar dicho ruido como ruido blanco. -0.2
Sea el proceso estocástico X(t) definido como un componente sinusoidal más un ruido
blanco Gaussiano de media cero y densidad espectral N0 /2,
X(t) = A cos (2πfc t + Θ) + W (t),
donde Θ ∼ U [-π, π], independiente de W (t) para todo t.
¥ Función de autocorrelación:
A2 N0
RX (τ ) = cos (2πfc τ ) + δ(τ ).
2 2
Para |τ | > 0, RX tiene la misma forma sinusoidal como el componente de señal en
X(t) : esto permite concluir que es posible identificar una señal mirando a la función de
autocorrelación del proceso compuesto X(t), que contiene ruido blanco, si en la práctica
somos capaces de estimar/aproximar RX (t) a partir de una secuencia de observaciones
de X(t) : Problema de la Ergodicidad. Esto se puede realizar de dos formas:
• Medias sobre diferentes realizaciones de X(t), xi (t), i = 1, . . . , n, de tal forma que
fijando un valor de t, computamos
n
1X
R̂x(τ , T ) = xi (t)xi (t + τ )dt
n i=1
• Medias temporales a partir de una sola realización de X(t), x(t), donde el intervalo o
ventana de observación es: t ∈ [−T, T ]
Z T
1 1
R̂x (τ , T ) = x(t + τ )x(t)dt ≈ x(τ ) ? x(−τ ).
2T −T 2T
si sabemos que EX(t) = 0. Si esto se desconoce, habrá que restar de todas la observa-
ciones, la media muestral de la secuencia,
n
1X
µ̂X = X(i).
T i=1