Você está na página 1de 21

Tema 6. Procesos Estocásticos 1 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 2 Estadística. Ing. Telecom.

¶ ³
V El Proceso Estocástico o aleatorio es un Modelo probabilístico o matemático, forma-

µ
Procesos Estocásticos ´
do por la colección completa de todas las Variables Aleatorias X(t) : {X(t)}

Para t fijo, las VAs X(t) pueden ser discretas o continuas, cada una con su propia
Un objetivo básico del análisis estadístico de sistemas de comunicación es la caracteri- distribución marginal y una determinada relación entre X(t1) y X(t2 ).
zación de señales aleatorias o estocásticas: señales de sonido, de televisión, comuni-
Estas variables aleatorias son el modelo de una señal en cada instante t: la señal no es fija,
caciones digitales, ruido eléctrico, etc.
sino que puede tomar una serie de valores, de acuerdo con una determinada distribución
¥ Dos características fundamentales: de probabilidad.
• Las señales son función del tiempo, definido en algún intervalo o conjunto discreto.
¥ En función de cómo observemos el tiempo, en intervalos o en instantes concretos, o
• Las señales son aleatorias: antes de realizar el experimento y observarlas es imposible
de cómo son los valores numéricos de la onda, podemos distinguir procesos en tiempo
predecir exactamente la forma de la onda.
continuo o discreto, y enteros (o de conteo) o reales.
=⇒ El objetivo de la asignación de probabilidades ahora no son valores numéricos (en-
teros, reales, etc.) si no que son funciones del tiempo: Procesos Estocásticos: ¥ EJEMPLOS: Procesos en tiempo continuo.
• El espacio muestral son funciones del tiempo, t ∈ T, dentro de un determinado conjunto:
1. Electrocardiogramas: ruido aleatorio causado por el rebote de los ultrasonidos.

{X(t, s)} 2. Canal de comunicaciones: ruido electromagnético.


3. Señales de sonido a(s), observadas posiblemente con ruido aleatorio.
• junto con una regla que asigna probabilidades a los eventos s ∈ S asociados a cada 4. Señal de FM con ruido:
función en particular. µ Z t ¶
X(t) = cos 2πfc t + 2πkf a(s)ds ,
1 1 1 0

X(t)0.5 X(t)0.5 X(t)0.5

donde fc es la frecuencia del carrier, kf es la ganancia de sensibilidad y a(s) es la


0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 20
t t t

-0.5 -0.5 -0.5


señal de sonido que queremos transmitir. Incluso si no hay ruido, X(t) es aleatoria
-1 -1 -1
porque a(s) lo es.
···
Cada función de t es una realización del proceso. 5. Ocupación de un buffer en un router de una red de comunicaciones, X(t) = 1, 2, . . . .
Dado un suceso s1, para un instante de tiempo t1 , observaremos un sólo número:
6. Utilización de una conexión, U (t) = {0, 1}.
x(t1 , s1).

Generalmente sólo mostraremos que X(·, ·) es función de t,

X(t)

y por tanto, cuando escribimos x(t), es que ha ocurrido un determinado suceso s.


Tema 6. Procesos Estocásticos 3 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 4 Estadística. Ing. Telecom.

EJEMPLO: Proceso en tiempo continuo: ¥ Si A = 1, X(t) = cos tπ/10, t = 0, 1, . . . , 50, ω = π/10

Transmisión de una onda de frecuencia constante y amplitud aleatoria en fun-


ción del resultado A de tirar un dado. 3

2
⇒ A ∈ {1, 2, . . . , 6} y Pr[A = i] = 16 , ∀i, y ⇒ A ∼ U {1, 6}, uniforme discreta con p = 16 . X(t)
1

0 5 10 15 20 25 30
t
Se define el proceso estocástico
-1

-2
X(t) = A cos tω
-3

creado por la VA A, donde ω es constante.

El proceso X(t) depende del valor de la VA A y por tanto es aleatorio o estocástico. ¥ Si A = 3, X(t) = 3 cos(tπ/10), t = 0, 1, . . . , 30, ω = π/10

Para un valor concreto de t, to , el valor de proceso Xto depende tanto del suceso recogido
3
en A, como del instante to en el que se observa el proceso:
2
1 X(t)
Pr[X(to ) = i cos to ω] = , i = 1, . . . , 6. 1
6
0
En este caso además depende de ω. 5 10 15
t
20 25 30

-1

-2

-3

¥ También es posible cambiar la frecuencia: si A = 1, X(t) = cos(tπ/5), ω = π/5

1.5

1
X(t)
0.5

0 5 10 15 20 25 30
t
-0.5

-1

-1.5
Tema 6. Procesos Estocásticos 5 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 6 Estadística. Ing. Telecom.

Procesos estocásticos en tiempo discreto: secuencia Xt de variables aleatorias con EJEMPLO: Proceso de Bernoulli: Se tira una moneda al aire y se define:
un índice t:
½
. . . , X−2, X−1, X0 , X1 , X2 , . . . 1, si sale cara en la tirada t, p
X(t)=
−1, si sale cruz en la tirada t, q = 1 − p

• El índice t es discreto; generalmente es tiempo, pero podría ser también otra dimensión,
como espacio. Proceso discreto. En cada instante t depende de una variable aleatoria diferente.

• Cuando es continuo, es posible que sólo se pueda observar en distintos instantes de


X(t)0.5
tiempo, cada segundo, minuto, etc: tasa de muestreo ("sampling").
0 2 4 6 8 10 12 14 16 18 20
t

¥ EJEMPLOS. -0.5

-1

1. Tasa de transmisión f tp del fichero n, Xn = 1, 2, . . .


Si la moneda está cargada, p 6= 12 , también afecta al proceso estocástico. Si p > q:
2. Señales de sonido muestreadas en tiempo discreto, con diferentes tasas de compre-
sión. 1

X(t)0.5

0 2 4 6 8 10 12 14 16 18 20
t

-0.5

-1

Dado un proceso estocástico, se pueden crear otros procesos transformando X(t) por
medio de alguna operación matemática. Una operación muy útil es el filtrado lineal.

EJEMPLO: dado el proceso de Bernoulli se puede crear el proceso Y (t) me-


diante:

Y (t) = 12 Y (t − 1) + X(t).

1
X(t)
0.5

0 2 4 6 8 10 12 14 16 18 20
t
-0.5

-1

-1.5
Tema 6. Procesos Estocásticos 7 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 8 Estadística. Ing. Telecom.

¶ ³
Dos visiones alternativas de los procesos:

1. Como para cualquier otra variable aleatoria, es un mecanismo que nos da una se- Propiedades
cuencia de valores numéricos cuando ocurre un suceso aleatorio: µ ´

² ¯
1 1

X(t)0.5 X(t)0.5

¥ Distribuciones marginales:
± °
0 2 4 6 8 10 12 14 16 18 20 0 2 4 6 8 10 12 14 16 18 20
t t

-0.5 -0.5

-1 -1 Si se ve el proceso estocástico como una colección de VA


Suceso 1: Suceso 2:
2. Por otro lado, para cada t, el proceso es una variable aleatoria que puede tomar X(t1 ), X(t2 ), X(t3 ), . . .
diferentes valores con una determinada distribución de probabilidad y que puede
se define la función de distribución de probabilidad de cada una de ellas,
estudiarse como cualquier VA.

Ft (x) = FX(t)(x) = Pr[X(t) ≤ x],


1

X(t)
0.5
y su función de densidad de probabilidad (VA continuas)

0 1 2 3 4 5 d
t ft (x) = fX(t)(x) = F (x),
dx X(t)
-0.5

-1 o de función de probabilidad (VA discretas)

Pt (x) = PX(t) (x) = Pr[X(t) = x].


Tema 6. Procesos Estocásticos 9 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 10 Estadística. Ing. Telecom.

² ¯
EJEMPLOS: Procesos Normales
¥ Distribuciones conjuntas:
± °
¥ Ruido Blanco Normal: X(t) ∼ N(0, 1), independientes unos de otros para todo t
Para analizar las propiedades del proceso estocástico, además de las distribuciones de ca-
(IID).
da variable por separado, hay que definir las distribuciones conjuntas que indican cómo
se relacionan grupos de VA.
2

=⇒ Se necesitan distribuciones conjuntas o multivariantes para cualquier colección de


VAs Xt(1), Xt(2), . . . , Xt(n), 1

0 1 2 3 4 5 6
t

FX(t1),X(t2),...,X(tn )(x1 ,x2 ,...,xn) = Pr[X(t1 )≤x1 ,X(t2 )≤x2 ,...,X(tn ) ≤xn ], -1

-2
y la correspondiente función de densidad o probabilidad.

¥ Dependiendo de la forma de esas distribuciones conjuntas, se puede formar tipos muy ¥ Si X(t) = X ∼ N (0, 1), la misma VA para todo t, entonces cada VA por separado sigue
diferentes de procesos estocásticos. siendo Normal como antes, pero las realizaciones del proceso son iguales a una constante.

⇒ Si FX(t1),X(t2 ),...,X(tn)(x) es igual para todo t1, t2 , . . . , tn y todo n entonces X(t) es 2

estacionario. 1

⇒ Si FX(t1) (x) es igual para todo t1, con n = 1 entonces X(t) es estacionario, de 0 1 2 3
t
4 5

primer orden. -1

⇒ Si FX(t1),X(t2) (x) es igual para todo t1 , t2, con n = 2 entonces X(t) es estacionario, -2

de segundo orden.

En general esta propiedad se denomina Estacionariedad estricta o fuerte,


para distinguirla de la estacionariedad débil, que sólo atiende a que determinadas carac-
terísticas de FX(t1),X(t2 ),...,X(tn)(x) permanezcan constantes en el tiempo.
Tema 6. Procesos Estocásticos 11 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 12 Estadística. Ing. Telecom.

¶ ³
EJEMPLO: Procesos de Poisson

Proceso discreto en tiempo continuo Media, autocovarianza, autocorrelación


µ ´

N(t) = Número de sucesos ocurridos hasta el instante t,

² ¯
que cuenta el número de sucesos que ocurren bajo estas condiciones: ¥ Medidas características marginales
± °
• El número de sucesos en cualquier intervalo de tiempo es independiente del número
en otros intervalos no superpuestos. Como un proceso estocástico en tiempo discreto es una secuencia indexada de VAs, se
puede calcular la media o esperanza de cada una de ellas, y formar la secuencia
• La probabilidad de que ocurra un suceso en un intervalo de longitud t es aproxi-
madamente λt cuando t → 0.
mX (t) = E[X(t)], t = . . . , −1, 0, 1, . . .
• La probabilidad de que ocurran 2 ó más sucesos en un intervalo de longitud t tiende
a cero cuando t → 0.
que es la media del proceso.
λ representa el número medio de sucesos por unidad de tiempo (o longitud, etc.).
Calculando la varianza de cada VA, se obtiene la varianza del proceso:
La función de probabilidad el proceso es
σ 2X (t) =Var[X(t)] = E[(X(t) − mX (t))2 ], t = . . . , −1, 0, 1, . . .
(tλ)j e−tλ
PN (t)(j) = ,
j!
Ambas son en general funciones de t y representan el valor medio y la oscilación media
y el tiempo entre sucesos T se distribuye exponencialmente, alrededor de ese valor para cada t.
Creciente en el tiempo, no estacionario:
Estas dos medidas dependen sólo de las distribuciones univariantes, pero también es im-
portante definir conceptos sobre la distribución conjunta de más de una variable.
10

0 5 10 15 20 25 30
t
Tema 6. Procesos Estocásticos 13 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 14 Estadística. Ing. Telecom.

² ¯
EJEMPLO: Procesos Armónicos. Amplitud aleatoria.
¥ Medidas características conjuntas
± °
Muy usados en procesamiento de señales de radar y sonar.
La autocovarianza se define como la covarianza entre dos VAs del mismo proceso en el
1
instante k y en el instante `, A ∼ U (1, 6), p = 6 y se define el proceso estocástico con ω fijo,

RX (k, `) =Cov[X(k), X(`)] = E[(X(k)−mX (k))(X(`)−mX (`))], k, ` = 0, ±1, . . . X(t) = A cos tω.

y la autocorrelación es
• Media del proceso

Cov[X(k), X(`)] RX (k, `) 1+6


ρX (k, `) = p = , k, ` = . . . , −1, 0, 1, . . . mX (t) = E[X(t)] = E[A cos tω] = cos tωE[A] = cos tω · = 3.5 cos tω.
Var[X(k)]Var[X(`)] σ X (k)σ X (`) 2
• Varianza
Cuando k = `, entonces la autocovarianza es igual a la varianza, σ 2X (t) = Var[X(t)] = Var[A cos tω] = cos2 tωVar[A]
µ 2 ¶
RX (k, k) = σ 2X (k) k = . . . , −1, 0, 1, . . . 2 1 + · · · + 62
= cos tω · − 3.5 = 2.917 cos2 tω.
2
2
y la autocorrelación es igual a uno,
• Autocovarianza
ρX (k, k) = 1 k = . . . , −1, 0, 1, . . .
RX (k, `) = Cov[Xk , X` ] = Cov[A cos kω, A cos `ω] = cos kω cos `ωCov[A, A]
= cos kω cos `ωVar[A] = 2.917 cos kω cos `ω.
Como en el caso de VAs, la covarianza y la correlación proporcionan información sobre
el grado de dependencia lineal entre dos VAs: descripción parcial del proceso. La media y la varianza dependen de t, mientras que la autocovarianza depende de k y de `.

6 ` entonces las variables están incorre-


Por ejemplo si RX (k, `) = 0, para k = V X(t) no es estacionario en sentido débil.
ladas y el conocimiento de una no ayuda en la predicción/estimación de la ¥ Es posible que σ 2X (t) = 0 cuando tω = π/2 mod π, ya que entonces cos2 tω = 0, y en
otra mediante estimadores lineales.
ese caso la VA X(t) es una constante igual a 0.
¶ ³

¥ Estacionariedad débil (de segundo orden): Si ω = 2π, entonces X(t) = 1, ∀t, y mX (t) = 3.5 y σ2X (t) = 0.
µ ´

mX (k) = mX , RX (k, `) = RX (k − `, 0), k, ` = . . . , −1, 0, 1, . . .

es decir, las medidas características (momentos) de primer orden (media) son constantes,
las de segundo orden (autocovarianzas) sólo dependen de la distancia entre los dos puntos
considerados, k − `, y no del valor de k, o de `.

Además σ 2X (t) = RX (t, t) = RX (0, 0) = σ 2X , y por tanto la varianza también es constante,


si lo es la autocovarianza en el sentido anterior.
Tema 6. Procesos Estocásticos 15 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 16 Estadística. Ing. Telecom.

EJEMPLO: Procesos Armónicos. Fase aleatoria. Estacionariedad débil:


Ej. sinusoide (real) con fase aleatoria,
⇒ En el último ejemplo la media mX (t) y la varianza σ2X (t) son constantes que no
dependen de t, mientras que la autocovarianza sólo depende de k − `, y por tanto se
X(t) = A sin(tω + φ), obtiene que
RX (k, `) = RX (k − `, 0).
donde A y ω son constantes fijas y φ es una VA Uniforme U [−π, π] con función de ⇒ Por tanto las medidas características -momentos- de primer y segundo orden no de-
densidad de probabilidad penden del origen y son invariantes ante cambios en el tiempo: (estacionariedad débil -de
½ segundo orden).
(2π)−1 : −π ≤ α ≤ π
fφ (α) = .
0: −
⇒ Generalmente la estacionariedad débil de segundo orden se asocia a procesos Gaus-
sianos, con distribución normal definida por la función de media y de covarianza.
• Media del proceso:
⇒ Estacionariedad estricta ⇒ estacionariedad débil (del mismo orden).
mX (t) = E[X(t)] = E[A sin(tω + φ)] = AE[sin(tω + φ)]
Z π Z ⇒ Estacionariedad débil 6⇒ estacionariedad estricta (del mismo orden).
A π
= A fφ (α) sin(tω + α)dα = sin(tω + α)dα = 0.
−π 2π −π

• Varianza:

σ2X (t) = Var[X(t)] = E[(X(t) − mX (t))2 ] = E[X(t)]


Z π Z
A2 π
= A2 fφ(α) sin2 (tω + α)dα = sin2(tω + α)dα.
−π 2π −π

• Autocovarianza:
RX (k, `) = Cov[Xk , X`] = Cov[A sin(kω + φ), A sin(`ω + φ)]
= A2E[sin(kω + φ) sin(`ω + φ)]
A2
= E[cos((k − `)ω) − cos((k + `)ω + 2φ)]
2
A2 A2
= cos((k − `)ω) − E[cos((k + `)ω + 2φ)]
2 2 | {z }
=0
2
A
= cos((k − `)ω),
2
y fijando t = k = ` se obtiene que

A2 A2
σ 2X (t) = RX (t, t) = cos((t − t)ω) = .
2 2
Tema 6. Procesos Estocásticos 17 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 18 Estadística. Ing. Telecom.

EJEMPLO: Procesos Normales o Gaussianos: tiempo discreto EJEMPLO: Procesos de Poisson

Son aquellos para los que cualquier colección de VAs se distribuye conjuntamente como
una Normal multivariante.
N(t) = Número de sucesos ocurridos hasta el instante t,
0
Si X = (X1 , X2 , . . . , Xn ) es un vector de n VAs conjuntamente Normal tiene función de
densidad de probabilidad igual a con parámetro λ,
½ ¾ (tλ)j e−tλ
−n/2 −1/2 1 0 −1 PN (t)(j) = .
fX(x) = (2π) |ΣX | exp − (x − mX ) ΣX (x − mX ) , j!
2
• Media del proceso:
donde
mN (t) = E[N(t)] = λt.
• mX = (m1 , m2 , . . . , mn )0 es el vector que contiene las medias de X,
• Varianza:
mk = E[Xk ] = mX (t), σ 2N (t) = Var[N (t)] = λt.

• ΣX es una matriz simétrica, definida positiva con elementos σk` iguales a las covarianzas Como es un proceso creciente podemos escribir, r > s,
entre Xk y X` ,
N(r) = N(s) + N(s, r)
σ k` = E[(Xk − mk )(X` − m` )] = RX (k, `),
y |ΣX| es el determinante de ΣX. donde N (s, r) es el número de sucesos que ocurren entre el instante s y el r, y por tanto
son independientes de los que ocurrió anteriormente en el proceso.
Los procesos Normales están totalmente definidos mediante su vector de medias y su
matriz de covarianzas: • Autocovarianza, r > s:

⇒ Estacionariedad estricta y débil son equivalentes. γ N (r, s) = Cov[N (r), N(s)] = Cov[N (s) + N(s, r), N (s)]
⇒ Estacionariedad débil de segundo orden implica estacionariedad débil de todos los = Cov[N (s), N(s)] + Cov[N(s, r), N (s)] = λs
órdenes. | {z } | {z }
=Var[N(s)] =0, por independencia

De gran importancia teórica y empírica.


• Autocorrelación, r > s:

γ N (r, s) λs p
ρN (r, s) = =√ = s/r.
σ N (r)σ N (s) λs λr

Si s ≈ r ⇒ ρN (r, s) ≈ 1.

Si s es fijo y r → ∞ ⇒ ρN (r, s) = 0: aproximadamente incorrelados (también indepen-


dientes) porque la porción común, N (s), es cada vez menor comparado con el proceso
hasta el instante s, cada vez más lejano.
Tema 6. Procesos Estocásticos 19 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 20 Estadística. Ing. Telecom.

EJEMPLO: Paseo aleatorio: valores discretos EJEMPLO: Paseo aleatorio: valores continuos

¥ Versión discreta: Se supone que una partícula, empezando en el origen, se mueve una ¥ Versión continua: Si se supone que los movimientos laterales tienen distribución normal,
unidad en cada periodo, a la derecha o a la izquierda. Los movimientos son indepen- entonces
dientes unos de otros; hacia la derecha tienen probabilidad p y hacia la izquierda q = p−1. P
Xt = tj=1 ²j ,
X(t) es el número de unidades hacia la derecha (positivas) que se ha movido la partícula
después de t periodos de tiempo. X(t) ∈ {−t, 1 − t, . . . , −1, 0, 1, . . . , t − 1, t}. donde ²j ∼ N(0, 1), independientes unos de otros.
• Función de Probabilidad: sea Y ∼ B(t, p). Cuando X(t) = k, entonces debe haber
(t + k)/2 movimientos a la derecha y (t − k)/2 movimientos a la izquierda. Entonces o

8
o
oo o o o o
X(t) = k ⇔ si Y = (t + k)/2, y por tanto o
o

6
oo o
oo o
· ¸ µ ¶ o
o
t+k t o

4
o

X_t
o
PX(t) [k] = Pr Y = = p(t+k)/2 q (t−k)/2. o oo
oo o o
2 (t + k)/2 o o o

2
oo o
oo oo oo o o
oo o o o
o o
De otra forma, Y = (t + X(t))/2 ó X(t) = 2Y − t, donde Y ∼ B(t, p). Por tanto

0
o
0 10 20 30 40 50
mX (t) = E[X(t)] = E[2Y − t] = 2tp − t = t(2p − 1) tiempo

σ 2X (t) = Var[X(t)] = Var[2Y − t] = 4Var[Y ] = 4tp(1 − p). • Media del proceso:


t
X
mX (t) = E[Xt ] = E[²j ] = 0.
o
0

j=1
o o o o
o o o o
-2

o o
• Varianza, por independencia de los ²j ,
X_t

o o o
-4

t
X t
X
o o o o o
o o o o o σ 2X (t) = Var[Xt ] = Var[²j ] = 1 = t.
-6

o o o o j=1 j=1
o o
-8

0 5 10 15 20 25 30
tiempo Para r > s,
r
X
1
El caso más interesante es cuando p = q = 2 y los movimientos son equiprobables. Xr = Xs + Xs+1,r , Xs+1,r = ²j
Entonces mX (t) = 0 y σ2X (t) = t y se puede demostrar como con el Proceso de Poisson j=s+1
que la autocovarianza, r > s, es en ese caso donde Xs y Xs+1,r son independientes por que los ²’s que los forman lo son.
γ N (r, s) = Cov[X(r), X(s)] = s • Autocovarianza, r > s:
y la autocorrelación, r > s: RX (r, s) = Cov[Xr , Xs ] = Cov[Xs + Xs+1,r , Xs ]
γ N (r, s) s p = Cov[Xs , Xs ] + Cov[Xs+1,r , Xs ] = s
ρN (r, s) = = √ = s/r. | {z } | {z }
σN (r)σ N (s) sr =Var[Xs ] =0, por independencia
Tema 6. Procesos Estocásticos 21 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 22 Estadística. Ing. Telecom.

• Autocorrelación, r > s: EJEMPLO: Proceso de Wiener o Movimiento Browniano: t continuo

RX (r, s) s p Es un proceso Normal en tiempo continuo, de tal forma que los incrementos entre dos
ρX (r, s) = = √ = s/r.
σ X (r)σ X (s) sr puntos se distribuyen de forma normal, con varianza proporcional a la longitud del in-
tervalo e independientemente de lo que ocurre en otros segmentos.
Si s ≈ r ⇒ ρN (r, s) ≈ 1. Para r > s ≥ 0
Si s es fijo y r → ∞ ⇒ ρN (r, s) → 0: aproximadamente incorrelados (también independi-
X(r) − X(s) ∼ N(0, σ 2 (r − s)) ,
entes) porque la porción común, Ns , es cada vez menor comparado con el proceso hasta
el instante s, cada vez más lejano.
suponiendo que X(0) = 0 y E[X(t)] = 0. En particular Var[X(t)] = σ 2t, t ≥ 0.
⇒ Este es un ejemplo de Proceso de Incrementos Independientes: lo que ocurre
en un segmento de tiempo es independiente de lo que ocurre en otro segmento no super-
puesto.

5
Si definimos ∇ al operador diferencia, tal que

0
X_t
∇X − t = Xt − Xt−1 ,

-5
V ∇Xt = ²t , un proceso Normal independiente.

-10
0 50 100 150 200
tiempo

Muy importante en física, finanzas, con multitud de aplicaciones.


Tema 6. Procesos Estocásticos 23 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 24 Estadística. Ing. Telecom.

² ¯
3. Interpretación física: RX (τ ) mide el grado de independencia (lineal) entre dos
¥ Propiedades de la Función de Autocorrelación. Procesos Estacionarios
± ° VAs observando el proceso X(t) en instantes separados por τ periodos. Si el pro-
ceso X(t) cambia muy rápidamente en el tiempo, entonces RX (τ ) decrecerá muy
rápidamente desde su máximo en τ = 0 :
RX (τ ) = RX (t + τ , τ ) =Cov[X(t + τ ), X(t)] todo τ

1.2

1
1. La función de autocorrelación es par:
0.8
R_X(t)
RX (τ ) = RX (−τ ). 0.6

0.4

Por lo tanto una definición equivalente es 0.2

-0.2 -0.1 0 0.1 0.2


t

RX (τ ) = RX (t, t − τ ) =Cov[X(t), X(t − τ )] todo τ


EJEMPLO: Proceso Armónico:
X(t) = A sin (tω + φ) , φ ∼ U [−π, π]
2. La autocorrelación tiene un máximo en τ = 0, 2
A
RX (τ ) = cos (τ ω) ,
|RX (τ )| ≤ RX (0). 2
Entonces para ω = 1, A = 1, RX (τ ) es
Prueba: la siguiente VA no negativa tiene esperanza no negativa
h i
E (X(t + τ ) ± X(t))2 ≥ 0, 1

R_X(t) 0.5

por tanto,
£ ¤ £ ¤
E X(t + τ )2 ± 2E [X(t + τ )X(t)] + E X(t)2 ≥ 0. -10 -5 0 5
t
10

-0.5
Suponiendo que el proceso tiene media cero, µX (t) = 0, todo t, entonces RX (τ ) =
E[X(t + τ )X(t)] = E[X(t), X(t − τ )], -1

RX (0) ± RX (τ ) ≥ 0,

y por tanto
−RX (0) ≤ RX (τ ) ≤ RX (0).
Tema 6. Procesos Estocásticos 25 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 26 Estadística. Ing. Telecom.

EJEMPLO: Onda binaria aleatoria: Haciendo una media de todos los posibles valores de td, se obtiene que

RX (t1 − t2 ) = E [E [X(t1 )X(t2)|td ]] por ley esperanzas iteradas


1
Z T
X(t) 0.5 = E [X(t1 )X(t2 )|td] fTd (td)dtd def. de E respecto a td
0
Z T −|t1 −t2 |
-5 0 5 10 15 1
A2 dtd
t
= sustituyendo el valor de E[ · |td]
-0.5 0 T
µ ¶
|t1 − t2 |
-1
= A2 1 − , |t1 − t2 | < T.
T

1. Los símbolos 1 y 0 se representan por impulsos de amplitud +A y −A vols, respec-


tivamente, con duración de T segundos.
2

2. Los impulsos no están sincronizados: el punto inicial td del primer impulso completo
1.5
puede ocurrir con igual probabilidad en cualquier instante entre 0 y T segundos: td
es una observación de una VA uniforme Td, entre [0, T ] : R_X(t) 1

½ 1
0.5

T: 0 ≤ td ≤ T
fTd (td) = .
0: − -4 -2 0 2
t
4

3. Durante cualquier intervalo (n − 1)T < t − td < nT, n entero, la presencia de un 0


o un 1 está determinada por tiradas independientes de una moneda equilibrada (C
ó X).

4. La función de autocorrelación entre X(t1 ) y X(t2 ) vendrá dada por el siguiente


razonamiento:

• Si |t1 − t2| > T, entonces las VAs X(t1) y X(t2 ) ocurren en diferentes intervalos,
y por lo tanto son independientes: RX (t1 − t2 ) = 0.
• Si |t1 −t2| ≤ T, entonces las VAs X(t1 ) y X(t2 ) ocurren en el mismo intervalo si y
sólo si el desfase td satisface que td < T −|t1 −t2 | (y por tanto serán idénticas); si
no, también estarán en impulsos diferentes (y serán independientes). Entonces
obtenemos la siguiente esperanza condicional:
½ 2
A : td < T − |t1 − t2 |
E [X(t1 )X(t2 )|td] = .
0: −
Tema 6. Procesos Estocásticos 27 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 28 Estadística. Ing. Telecom.

² ¯
EJEMPLO: Procesos con Cuadratura Modulada:
¥ Función de Autocorrelación Cruzada
± °
Dado un proceso estacionario en sentido débil X(t) de media cero,
Definición dados dos procesos X(t), Y (t),
X1 (t) = X(t) cos(ωt + φ)
RXY (t, t0 ) = RXY (t0 , t) = Cov[X(t), Y (t0 )] = Cov[Y (t0 ), X(t)]. X2 (t) = X(t) sin(ωt + φ)

donde ω es la frecuencia de transmisión y la variable aleatoria φ tiene distribución uni-


Las propiedades de los dos procesos X(t), Y (t), se pueden describir en forma de matriz: forme en el intervalo [0, 2π]. φ es independiente de X(t).

· ¸ La función de correlación cruzada entre X1 (t) y X2 (t) es


0 RX (t, t0 ) RXY (t, t0 )
Γ(t, t ) =
RY X (t, t0 ) RY (t, t0 ) R12(τ ) = E[X1 (t)X2 (t − τ )]
= E[X(t) cos(ωt + φ)X(t − τ ) sin(ω(t − τ ) + φ)]
Si X(t), Y (t), son estacionarios en sentido débil, y además lo son conjuntamente, entonces = E[X(t)X(t − τ )]E[cos(ωt + φ) sin(ω(t − τ ) + φ)] por indep. de X(t) y φ
para τ = t − t0 1
· ¸ = RX (τ )E[sin(4ωt − 2ωτ + 2φ) − sin(ωτ )]
RX (τ ) RXY (τ ) 2
Γ(t, t0 ) = Γ(τ ) = .
RY X (τ ) RY (τ ) 1
= − RX (τ ) sin(ωτ ) por esperanza respecto a φ ∼ U [0, 2π].
2
¥ La función de autocorrelación cruzada en general NO es par, pero satisface:
Si τ = 0, entonces
RXY (τ ) = RY X (−τ ).
R12 (0) = E[X1 (t)X2 (t)]
1
= − RX (0) sin(0)
2
= 0,

lo que demuestra que las VAs obtenidas por la observación de procesos con cuadratura
modulada X1 (t) y X2 (t) son ortogonales entre sí.
Tema 6. Procesos Estocásticos 29 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 30 Estadística. Ing. Telecom.

¶ ³
¥ Función de autocorrelación de un proceso filtrado.
Transmisión de procesos estocásticos a través de filtros lineales
µ ´ Suponiendo que µY (t) = 0 para todo

Un proceso estocástico X(t) es el input de un filtro lineal invariante con función de RY (t, t0 ) = Cov[Y (t), Y (t0 )]
respuesta a impulsos h(t), produciendo un nuevo proceso estocástico Y (t) como output ·Z ∞ Z ∞ ¸
del sistema: = E h(τ )X(t − τ )dτ h(τ 0 )X(t0 − τ 0)dτ 0 ,
−∞ −∞
Z ∞
Y (t) = h(τ )X(t − τ )dτ y si E[X(t)2] < ∞, se obtiene que
−∞
Z ∞Z ∞
RY (t, t0 ) = h(τ )h(τ 0 )E [X(t − τ )X(t0 − τ 0 )] dτ dτ 0
En general es difícil describir las propiedades probabilísticas del output, aunque se conoz- −∞ −∞
Z ∞ Z ∞
can perfectamente las del input.
= h(τ )h(τ 0 )RX (t − τ , t0 − τ 0 )dτ dτ 0 .
Por esta razón, nos limitaremos a estudiar las propiedades en el dominio del tiempo [fre- −∞ −∞
cuencia] de la relación input-output determinada por el filtro en términos de las funciones
de media y autocorrelación del output Y (t) en términos del input X(t), suponiendo que • Si además X(t) es estacionario en sentido débil, RX es sólo función de la diferencia
X(t) es un proceso estacionario en sentido débil. entre los instantes considerados, u = t − t0
Z ∞Z ∞
¥ Media: ·Z ¸
∞ RY (u) = h(τ )h(τ 0 )RX (u − τ + τ 0 )dτ dτ 0 .
−∞ −∞
µY (t) = E [Y (t)] = E h(τ )X(t − τ )dτ ,
−∞
Por tanto, con este resultado y el anterior sobre la media de Y (t), el resultado de filtrar
si E [X(t)] existe y el sistema es estable, entonces se puede intercambiar la esperanza y con un filtro lineal invariante un proceso estacionario en s.débil es otro proceso esta-
la integral, y se obtiene que cionario en s. débil.
Z ∞
µY (t) = E [Y (t)] = h(τ )E [X(t − τ )] dτ La varianza del proceso filtrado (o ECM del proceso si µY = 0) es igual a una constante:
−∞ Z Z
Z ∞ ∞ ∞

= h(τ )µX (t − τ )dτ . σ 2Y = RY (0) = h(τ )h(τ 0 )RX (τ − τ 0 )dτ dτ 0 . (1)


−∞ −∞ −∞

• Si X(t) es estacionario en sentido débil, entonces µX (t − τ ) = µX es constante,


también lo será µY (t) = µY y por tanto
Z ∞
µY = µX h(τ )dτ = µX H(0)
−∞

donde H(0) es la respuesta del sistema en la frecuencia 0: la media depende solamente


las características del filtro en la frecuencia 0, que es lo esperado.
Tema 6. Procesos Estocásticos 31 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 32 Estadística. Ing. Telecom.

¶ ³
¥ Esta ecuación establece que la varianza del output de un filtro lineal estable invariante
Función de Densidad Espectral
µ ´
en respuesta a un proceso estocástico estacionario (en s.d.) es igual a la integral sobre
todas las frecuencias de la función de densidad espectral del proceso input multiplicado
Hasta ahora hemos estudiado procesos estocásticos y sistemas lineales en el dominio del
por la magnitud al cuadrado de la función de transferencia del filtro.
tiempo. Ahora vamos a utilizar ideas en el dominio de las frecuencias. En particular
queremos obtener en primer lugar el equivalente frecuencial de la fórmula (1) que de- ¥ Interpretación física de la densidad espectral.
scribe la varianza de un proceso. Suponemos que un proceso estacionario (s.d.) X(t) es filtrado a través de un filtro ideal
de banda estrecha, con amplitud de respuesta centrada en la frecuencia fc ,
La función de respuesta a impulsos de un filtro lineal invariante es igual a la Transformada
Inversa de Fourier de la función de transferencia del sistema: ½
1 : |f ± fc | < 12 ∆f
Z ∞ |H(f )| = ,
0 : |f ± fc | < 12 ∆f
h(τ ) = H(f ) exp(i2πf τ )df.
−∞

Si sustituimos esta expresión en (1) se obtiene que


Z ∞ Z ∞ ·Z ∞ ¸ 1

σ2Y = 0
H(f ) exp(i2πf τ )df h(τ )RX (τ − τ )dτ dτ0 0
−∞ −∞ −∞
Z ∞ Z ∞Z ∞ |H(f)|

0 0 0
= H(f ) h(τ )RX (τ − τ ) exp(i2πf τ )dτ dτ df.
−∞ −∞ −∞

0
Si cambiamos de variable u = τ 0 − τ ,
Z ∞ ·Z ∞ ¸ ·Z ∞ ¸
2 0 0 0 donde ∆f es la anchura de banda del filtro. Por tanto si ∆f es pequeño comparado con
σY = H(f ) exp(i2πf τ )h(τ )dτ RX (u) exp(−i2πf u)du df,
−∞ la frecuencia central fc , tenemos que la varianza del output del filtro será
| −∞ {z } −∞
=H(f )∗
σ2Y := (2∆f ) SX (fc ).
donde H(f )∗ es la función compleja conjugada de H(f ). Por tanto
Por lo tanto, como el filtro sólo pasa aquellos componentes del input con frecuencia
Z ∞ ·Z ∞ ¸
en una banda muy estrecha alrededor de fc , SX (f ) representa la densidad de varianza
σ 2Y = |H(f )|2 RX (u) exp(−i2πf u)du df,
−∞ −∞
(comparada con la varianza total) que lleva el proceso input X(t) en la frecuencia f.
| {z }
=SX (f)

donde SX (f ) es la Transformada de Fourier de la función de autocorrelación RX (u),


denominada Función de Densidad Espectral o Espectro (de potencia). Finalmente

Z ∞
σ 2Y := |H(f )|2 SX (f )df.
−∞
Tema 6. Procesos Estocásticos 33 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 34 Estadística. Ing. Telecom.

² ¯
EJEMPLO: Sinusoide con Fase Aleatoria (cont.), con ω = 2πfc ,
¥ Propiedades de la Función de Densidad Espectral
± °
La densidad espectral y la función de autocorrelación satisfacen el siguiente par de trans- X(t) = A cos(2πfc t + φ),
formadas de Fourier,
Z ∞ donde φ ∼ U (−π, π), con función de autocorrelación
SX (f ) = RX (u) exp(−i2πf u)du
−∞ A2
Z ∞ RX (τ ) = cos ωτ .
2
RX (u) = SX (f ) exp(i2πf u)df.
−∞ Tomando la transformada de Fourier de ambos lados de esta ecuación,

A2
1. La varianza del proceso se obtiene como la integral de la función de densidad SX (f ) = [δ(f − fc ) + δ(f + fc )] ,
4
Z ∞
se obtiene la función de densidad espectral, compuesta por un par de funciones delta
σ 2X = RX (0) = SX (f )df.
−∞ ponderados por el factor A2 /4 y localizadas en ±fc .

2. La densidad espectral de un proceso estacionario s.d. es siempre no negativa,


2
SX (f ) ≥ 0, para todo f.
S(f)

3. La densidad espectral es siempre una función par de la frecuencia

SX (f ) = SX (−f ), -2 0
f
2

ya que RX (u) lo es.

4. La función de densidad espectral (normalizada por la varianza del proceso) tiene las
propiedades de la función de densidad de probabilidad.
5. La función de densidad espectral de un proceso en tiempo continuo está definida
para todo f ∈ (−∞, ∞).

6. Para procesos en tiempo discreto, la función de densidad espectral está definida


sólo para f ∈ (− 12 , 12 ), ya que al muestrear el proceso no podemos observar ciclos
más rápidos de un cambio cada dos periodos (con frecuencia f = 12 ).
Tema 6. Procesos Estocásticos 35 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 36 Estadística. Ing. Telecom.

¶ ³
EJEMPLO: Onda aleatoria binaria (cont.) con función de autocovarianza:
Procesos Gaussianos: tiempo continuo.
( ³ ´ µ ´
= A2 1 − |τT | , |τ | < T.
RX (τ ) = Muy importantes desde un punto de vista teórico y práctico: la distribución del proceso
= 0 |τ | ≥ T.
en cualquier conjunto finito de puntos es Normal Multivariante (más alguna condición
La función de densidad espectral viene dada por técnica).
Z ∞ µ ¶ La propiedad más importante de un Proceso Gaussiano es que cualquier funcional lineal
2 |τ |
SX (f ) = A 1− exp(−i2πf τ )dτ
−∞ T Z T
2
sin (f T ) Y = g(t)X(t)dt
= A2 . 0
(f T )2
tiene distribución Normal o Gaussiana, definida por su función de media y su función de
1
autocovarianza (o alternativamente su función de densidad espectral).
0.8 Además en este caso:
0.6
S(f) • estacionariedad en sentido estricto y en sentido débil coinciden (de segundo orden).
0.4
• incorrelación e independencia coinciden.
0.2

-6 -4 -2 0 2 4 6
f

EJEMPLO: Combinación de un proceso estocástico con un sinusoide.

Y (t) = X(t) cos(2πfc + φ),

donde φ ∼ U (0, 2π), independiente de X(t), con función de autocorrelación

1
RY (τ ) = RX (τ ) cos(2πfc τ ),
2
y función de densidad espectral

1
SY (f ) = [SX (f − fc ) + SX (f + fc )] ,
4
que es igual a la función de densidad espectral del proceso X(t) trasladada fc unidades
a derecha e izquierda y dividida por 4.
Tema 6. Procesos Estocásticos 37 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 38 Estadística. Ing. Telecom.

² ¯
El número de electrones N(t) emitido en el intervalo (0, t) es un proceso estocástico dis-
Ruido
± °
creto, cuyo valor se incrementa en una unidad cada vez que se emite un electrón.

El ruido son ondas indeseadas que dificultan la transmisión y procesamiento de señales Suponiendo que la tasa media de emisión de electrones (por unidad de tiempo) es λ, el
en sistemas de información al enmascarar la información que se desea transmitir. número de electrones emitidos en el periodo (t, t + to ) tiene distribución Poisson:
Las propiedades de los diferentes de tipos de ruido se pueden caracterizar de diferentes ν = N(t + to) − N(t) ∼ P (λto ).
formas. En general se usarán las funciones de autocovarianza y de densidad espectral.

Además existen diferentes modelos (diferentes procesos estocásticos) que se denominan • Media de X(t):
Z ∞
ruido, con diferentes distribuciones. Los más importantes ejemplos de ruidos o fluctua-
µX = λ h(t)dt.
ciones espontáneas en circuitos eléctricos son el ruido termal (thermal noise) y el shot −∞
noise. Además existe un tipo general de ruido que incluye muchos otros ejemplos: el
ruido blanco. • Autocovarianza de X(t):
² ¯ Z ∞
¥ Shot Noise RX (τ ) = λ h(t)h(t + τ )dt.
± ° −∞

En cualquier sistema eléctrico, físico, etc, aparece ruido por la naturaleza discreta de
² ¯
todos los fenómenos, por ej. emisión de electrones, etc..
¥ Ruido Termal
EJEMPLO: en los fotodetectores se genera un impulso cada vez que se emite un electrón ± °

debido a la incidencia de luz de alguna fuente de intensidad constante. Los electrones se Ruido eléctrico generado por el movimiento aleatorio de los electrones en un conductor.
emiten aleatoriamente en instantes τ k , −∞ < k < ∞. Se supone que la emisión aleatoria
de electrones va a durar durante un largo periodo de tiempo.

Por tanto, el flujo a través del fotodetector se puede modelar como una suma infinita de
los impulsos,
X∞
X(t) = h(t − τ k )
k=−∞

donde h(t−τ k ) es el impulso generado en τ k . X(t) es un proceso estacionario denominado


Shot Noise.
Tema 6. Procesos Estocásticos 39 Estadística. Ing. Telecom. Tema 6. Procesos Estocásticos 40 Estadística. Ing. Telecom.

² ¯
EJEMPLO: Ruido blanco con un filtro low-pass ideal
¥ Ruido Blanco
± °
Se supone que en ruido blanco Gaussiano w(t) de media zero y densidad espectral N0 /2
El tipo de ruido que aparece en sistemas de comunicaciones se analiza mediante un modelo se aplica a un filtro low pass (paso bajo) ideal de ancho de banda B y de amplitud de
idealizado denominado ruido blanco, cuya función de densidad espectral es independiente
respuesta igual a 1. La densidad espectral del ruido n(t) que aparece en el output del
de la frecuencia operativa (es constante).
sistema es ½ N
2 −B < f < B
0
El nombre proviene de que la luz blanca contiene igual proporción de todas las frecuen- Sn (t) =
cias dentro de la banda de luz visible en el espectro electromagnético: 0, |f | > B.

N0
SW (f ) = .
2
1

El parámetro N0 está relacionado input del receptor del sistema de comunicación.


S_N(f)
• La función de autocovarianza es el inverso de la anterior f. de densidad espectral,

N0
RW (τ ) = δ(τ ),
2 0

N0
es decir, una función delta ponderada por el factor 2 , que ocurre en τ = 0, y por tanto Mientras que la función de autocorrelación es
es cero en τ 6= 0. Z ∞
N0
RN (τ ) = exp(i2πf τ )df
V Dos observaciones de ruido blanco, no importa cómo sean de próximas, siempre es- −∞ 2
tarán incorreladas. Si el proceso es Gaussiano, además serán independientes. En este sin 2πτ B
= N0 .
sentido el Ruido Blanco Gaussiano es el paradigma de la aleatoriedad. 2πτ

¥ En sentido estricto, el ruido blanco tiene potencia (varianza) infinita, y por tanto no es 1
físicamente realizable. Sin embargo el ruido blanco tiene propiedades matemáticas muy
0.8
simples que le hacen muy útil para el análisis estadístico.
0.6
¥ La utilidad del proceso ruido blanco es paralela a la de la función impulso o delta en R_N(t)
0.4
análisis de sistemas lineales: el efecto de ambos sólo se ve después de pasar a través de
0.2
un sistema de banda finita. Por tanto, siempre que la anchura de banda de un proceso de
ruido en el input de un sistema sea significativamente mayor que la del mismo sistema, -3 -2 -1 0 1
t
2 3
entonces podemos modelizar dicho ruido como ruido blanco. -0.2

• La función de autocorrelación tiene un máximo igual a N0 B en τ = 0 y pasa a través


del cero en τ = ±k/2B, donde k = 1, 2, 3, . . .
• Como w(t) era Gaussiano, el output n(t) también es Gaussiano.
• Si n(t) se muestrea con tasa de 2B veces por segundo, observando el gráfico de Sn (f ),
vemos que las muestras obtenidas son Gaussianas incorreladas, y por tanto independi-
entes.
Tema 6. Procesos Estocásticos 41 Estadística. Ing. Telecom.

EJEMPLO: Sinusoide más ruido blanco Gaussiano

Sea el proceso estocástico X(t) definido como un componente sinusoidal más un ruido
blanco Gaussiano de media cero y densidad espectral N0 /2,
X(t) = A cos (2πfc t + Θ) + W (t),
donde Θ ∼ U [-π, π], independiente de W (t) para todo t.

¥ Función de autocorrelación:
A2 N0
RX (τ ) = cos (2πfc τ ) + δ(τ ).
2 2
Para |τ | > 0, RX tiene la misma forma sinusoidal como el componente de señal en
X(t) : esto permite concluir que es posible identificar una señal mirando a la función de
autocorrelación del proceso compuesto X(t), que contiene ruido blanco, si en la práctica
somos capaces de estimar/aproximar RX (t) a partir de una secuencia de observaciones
de X(t) : Problema de la Ergodicidad. Esto se puede realizar de dos formas:
• Medias sobre diferentes realizaciones de X(t), xi (t), i = 1, . . . , n, de tal forma que
fijando un valor de t, computamos
n
1X
R̂x(τ , T ) = xi (t)xi (t + τ )dt
n i=1

• Medias temporales a partir de una sola realización de X(t), x(t), donde el intervalo o
ventana de observación es: t ∈ [−T, T ]
Z T
1 1
R̂x (τ , T ) = x(t + τ )x(t)dt ≈ x(τ ) ? x(−τ ).
2T −T 2T

V Dada una secuencia de observaciones en intervalos equidistantes X(1), X(2), . . . , X(T ),


se definen las autocovarianzas muestrales
T −|τ |
1 X
R̂x(τ , T ) = X(i)X(i + |τ |)
T i=1

si sabemos que EX(t) = 0. Si esto se desconoce, habrá que restar de todas la observa-
ciones, la media muestral de la secuencia,
n
1X
µ̂X = X(i).
T i=1

Você também pode gostar