Você está na página 1de 18

Tema 1.

Procesos Estocasticos
Febrero 2006
1. Medidas de Probabilidad y -algebras
Denicion Sea el conjunto = . Una coleccion F de subconjuntos de se llama -algebra
de conjuntos si:
i) F.
ii) Si A F entonces A
c
F.
iii) Si A
1
, A
2
, ... F entonces

n=1
A
n
F.
Denicion Sea = y F una -algebra en . La pareja (, F) se llama espacio medible. .
Si (, F) es un espacio medible y G F es una -algebra en , G se llama una sub-algebra de
F.
Proposicion Si es una coleccion de subconjuntos de , entonces existe una -algebra minimal
que contiene a . Dicha -algebra la denotamos por () y la llamamos -algebra generada por
.
Denicion Sea (, F) un espacio medible. Una medida sobre (, F) es una funcion denida
sobre F con valores en R {} tal que:
i) (A) 0 para todo A F.
ii) () = 0.
iii) para toda sucesion E
1
, E
2
, ... de conjuntos dos a dos disjuntos de F:

_

_
n=1
E
n
_
=

n=1
(E
n
)
La terna (, F, ) se llama espacio de medida
Denicion Se dice que la medida es nita si () < .
Si () = 1, se llama medida de probabilidad.
Denicion Sea (, F) un espacio medible y P una medida de probabilidad sobre (, F).
La terna (, F, P) se llama espacio de probabilidad.
De la denicion de medida de probabilidad se deducen entre otras, las siguientes propiedades:
1
(i) P() = 0.
(ii) P(A
c
) = 1 P(A) para todo A F.
(iii) P(A B) = P(A) +P(B) para todo A, B F con A B = .
(iv) P(A B) = P(A) +P(B) P(A B) para todo A, B F.
(v) Si A, B F y A B entonces P(A) P(B).
(vi) Si A
1
, A
2
, . . . F y A
1
A
2
. . . Entonces P (

n
A
n
) = lm
n
P(A
n
).
(vii) Si B
1
, B
2
, . . . F y B
1
B
2
. . . entonces P (

n
B
n
) = lm
n
P(B
n
).
Denicion Sea (, F, P) un espacio de probabilidad, A
1
, A
2
, ... F. Denimos
i)
lmsup A
n
:=

n=1

_
k=n
A
k
esto es, lmsup A
n
si y solo si para todo n, se tiene que A
k
para alg un k n.
ii)
lminf A
n
:=

_
n=1

k=n
A
k
esto es, lminf A
n
si y solo si existe tal que A
k
para todo k n.
Denicion Sea (, F, P) un espacio de probabilidad. Una familia (A
i
)
iI
de elementos de F
se dice independiente si para cada subconjunto no vaco y nito de I con elementos i
1
, . . . , i
n
se tiene que:
P
_
A
i
1

A
i
2

. . .

A
i
n
_
= P(A
i
1
) . . . P(A
i
n
)
2. Lema de Borel - Cantelli
Lema (Borel-Cantelli) Sea (, F, P) un espacio de probabilidad A
1
, A
2
, . . . F.
i) Si

n=1
P(A
n
) < entonces P(lmsup A
n
) = 0
ii) Sea (A
n
)
nN
una sucesion de eventos independientes. Si

n=1
P(A
n
) = entonces
P(lmsup A
n
) = 1
Demostracion
a)
P(lmsup A
n
) P(

_
k=1
A
k
)

n=1
P(A
n
) n 0
2
b)
1 P(lmsup A
n
) = 1 P(lminf A
c
n
)
= 1 P(

_
n=1

k=n
A
c
k
) = 1 lm
n
P(

k=n
A
c
k
)
Veamos que P(

k=n
A
c
k
) = 0 Tenemos
0 P(
N

k=n
A
c
k
) =
N

k=n
P(A
c
k
) =
N

k=n
[1 P(A
k
)]
Como para todo 0 x 1 se satisface
1 x e
x
Entonces
N

k=n
[1 P(A
k
)]
N

k=n
e
P(A
k
)
= e

N
k=n
P(A
k
)

N 0
Por lo tanto, P(lmsup A
n
) = 1
En resumen: Si (A
n
)
nN
es una sucesion de eventos independientes entonces
P(lmsup
n
A
n
) = 0

n=1
P(A
n
) < +
3. Probabilidad Condicional, Variables Aleatorias y sus
Distribuciones
Denicion Si P(B) > 0 entonces la probabilidad condicional de A dado B esta denida
como sigue:
P(A | B) :=
P(A B)
P(B)
Denicion Sea (, F, P) un espacio de probabilidad. A F con P(A) = 0 se llama evento
nulo
Denicion Un espacio de probabilidad (, F, P) se dice completo si todos los subconjuntos
de conjuntos nulos son elementos de F.
Denicion Una variable aleatoria real (v.a real) es una funcion X : R tal que {
: X() x} F para cualquier real x.
Si G es una sub--algebra de F y { : X() x} G para cualquier real x entonces X se
llama v.a. G-medible
Denicion Sea (, F, P) un espacio de probabilidad y X una v.a real. La medida P
X
sobre (R, B) denida por P
X
(B) := P(X B) con B B se llama distribucion de la variable
aleatoria X
3
Denicion La funcion de distribucion de una v.a real X es la funcion F : R [0, 1] dada
por F(x) = P(X x)
Observacion La distribucion de una v.a real X esta determinada de manera unica por su
funcion de distribucion
Denicion Una v.a real X se dice discreta si el conjunto de posibles valores de X es contable.
Una v.a real X se dice continua si existe una funcion Riemann integrable f(x), llamada
funcion de densidad, tal que
P(X B) =
_
B
f(x)dx B B
La distribucion conjunta F de dos v.a X y Y esta denida por
F(x, y) = P(X x, Y y)
Las v.a X y Y se dicen independientes si
F(x, y) = P(X x).P(Y y)
Las v.a reales X y Y se dicen conjuntamente continuas si existe una funcion f(x, y), llamada
funcion de densidad de probabilidad conjunta, de X y Y tal que:
P(X A, Y B) =
_
A
_
B
f(x, y)dydx A, B B
El valor esperado o media de la v.a X, denotado por E[X], se dene por:
E[X] =
_

xdF(x)
siempre y cuando la anterior integral de Riemann-Stieltjes exista.
Si X y Y son variables aleatorias con funciones de distribucion F
X
y F
Y
respectivamente,
entonces la funcion de distribucion de su suma Z = X + Y es la convolucion de F
X
y F
Y
denida por:
F
Z
() = (F
X
F
Y
) () :=
_

F
X
( y)dF
Y
(y) =
_

F
Y
( x)dF
X
(x)
Si las variables aleatorias X y Y son independientes y tienen funciones de densidad f
X
y
f
Y
respectivamente, entonces la funcion de densidad de su suma Z = X +Y es la convolucion
de f
X
y f
Y
denida como:
f
Z
() = (f
X
f
Y
) () :=
_

f
X
( y)f
Y
(y)dy =
_

f
Y
( x)f
X
(x)dx
4
4. Esperanza Condicional
Denicion: Si X y Y son v.a discretas, la probabilidad condicional de X dado Y = y, se
dene para todo y con P(Y = y) > 0 como:
P(X = x | Y = y) =
P(X = x, Y = y)
P(Y = y)
La funcion de distribucion condicional de X dado Y = y esta denida por:
F(x | y) = P(X x | Y = y)
y la esperanza condicional de X dado que Y = y se dene como:
E(X | Y = y) =

x
xP(X = x|Y = y)
Denicion: Si X y Y tienen funcion de densidad de probabilidad conjunta f(x,y), la funcion
de densidad condicional de X dado Y = y, esta denida para todos los y con f
Y
(y) > 0 por:
f
X|Y
(x | y) =
f(x, y)
f
Y
(y)
donde f
Y
(y) =
_

f(x, y)dx es la funcion de densidad marginal de Y


La funcion de distribucion condicional de X, dado Y = y, esta denida por:
F
X|Y
(x | y) = P(X x | Y = y) =
_
x

f
X|Y
(x | y)dx
La esperanza condicional de X dado Y = y, esta dada por:
E(X|Y = y) =
_

xf
X|Y
(x | y)dx
Denicion: Sean X y Y v.a reales y h una funcion tal que h(X) es una variable aleatoria. La
variable aleatoria E(h(X) | Y ) denida por
E(h(X) | Y ) : R E(h(X) | Y = Y ())
se llama valor esperado condicionado de h(X) dado Y
Denicion: Sea X una variable aleatoria real denida sobre (, F, P) y sea B F con
P(B) > 0. La esperanza condicional de X dado B se dene por:
E(X | B) =
E(X
B
X)
P(B)
siempre que exista el valor esperado del lado derecho.
Denicion: Sea Y una v.a denida sobre el espacio de probabilidad (, F, P) con E[Y ] <
.
5
Sea una sub--algebra de F. La esperanza condicional de Y dado , denotada por E(Y | ),
es una v.a -medible tal que:
E ([Y E(Y | )] 1
G
) = 0 G
donde 1
G
es la indicadora de G.
Observacion: Si Y, X
1
, X
2
, . . . son variables aleatorias reales entonces E(Y | X
1
, X
2
, . . .)
denota E(Y | (X
1
, X
2
, . . .)) donde (X
1
, X
2
, . . .) denota la menor -algebra con respecto a la
cual X
1
, X
2
, . . . son medibles.
La esperanza condicional satisface entre otras las siguientes condiciones:
(1) E[E(Y | X)] = E[Y ].
(2) E[E(Y | X).g(X)] = E[Y g(X)] para cualquier funcion g.
(3) E[aY +bZ | X] = aE[Y | X] + bE[Z | X] para todos a, b R.
(4) E[Y | X] 0 si Y 0
(5) E[1 | X] = 1
(6) Si X y Y son independientes entonces E[Y | X] = E[Y ]
(7) E[Y g(X) | X] = g(X).E[Y | X] para cualquier funcion apropiada g.
(8) E[E(Y | X, Z) | X] = E[Y | X] = E[E(Y | X) | X, Z].
Observacion: La esperanza condicional tiene una aplicacion muy util en la teora Bayesiana
de la estadstica. Un problema clasico en esta teora se obtiene cuando se observan datos X =
(X
1
, X, 2, . . . , X
n
) cuya distribucion esta determinada por el valor de una variable aleatoria
la cual tiene una distribucion especca llamada distribucion a priori. Con base en los valores
de los datos X el problema que interesa es estimar el valor desconocido de un estimador de
puede ser cualquier funcion d(X) de los datos. En la teora Bayesiana se busca escoger d(X)
de tal forma que se minimice el valor esperado condicional del cuadrado de la distancia entre
el estimador y el parametro, esto es, se busca que E[( d(X))
2
| X] se minimice.
Puesto que condicionado sobre X se tiene que d(X) es constante y, como para cualquier
variable aleatoria W, E[(W c)
2
] es minimo cuando c = EW, entonces se concluye que el
estimador que minimiza E[(d(X)
2
| X)], llamado estimador de Bayes, esta dado por d(X) =
E[ | X].
5. Procesos Estocasticos
Denicion: Un proceso estocastico es una familia de variables aleatorias X = {X
t
, t T}
denidas sobre un espacio de probabilidad com un (, F, P) y con valores en un espacio medible
(S, A) llamado espacio de estados. El conjunto de parametros T se llama dominio de denicion
del proceso.
Denicion: Sea X = {X
t
, t T} un proceso estocastico
6
i) Decimos que X es real si las v.a. X
t
son de valor real para todo t T.
ii) Decimos que X es complejo si las v.a. X
t
son de valor complejo para todo t T.
iii) Si T = N
o
= {0, 1, 2, . . .} entonces el proceso se llama Proceso estocastico con parametro
de tiempo discreto.
iv) Si T es un intervalo de la recta real entonces el proceso se denomina proceso con parametro
de tiempo continuo.
v) Si T R
n
con n > 1 entonces el proceso se denomina campo aleatorio.
Sea X = {X
t
, t T} un proceso estocastico y sea jo. La funcion t X
t
() se llama
trayectoria del proceso estocastico X.
Denicion: Sea X = {X
t
, t T} un proceso estocastico real y {t
1
, t
2
, . . . , t
n
} T donde
t
1
< t
2
< . . . < t
n
entonces
F
t
1
...t
n
(x
1
, . . . , x
n
) := P(X
t
1
x
1
, . . . , X
t
n
x
n
)
Se llama funcion de distribucion (marginal) nito dimensional del proceso
Denicion: Sean X = {X
t
, t T} y Y = {Y
t
, t T} dos procesos estocasticos denidos
sobre el mismo espacio de probabilidad (, F, P), decimos:
i) X y Y son iguales si X
t
() = Y
t
() para todos t T y .
ii) X y Y son estocasticamente equivalentes si P(X
t
= Y
t
) = 1 t T.
iii) X y Y son estocasticamente equivalentes en el sentido amplio si para cada n = 1, 2, . . . y
{t
1
, . . . , t
n
} T y {B
1
, . . . , B
n
} B se satisface:
P(X
t
1
B
1
, X
t
2
B
2
, , X
t
n
B
n
) = P(Y
t
1
B
1
, Y
t
2
B
2
, , Y
t
n
B
n
)
Es claro que ii) implica iii) (Porque?)
iv) X y Y se dicen indistinguibles si casi todas sus trayectorias coinciden, esto es P(X
t
=
Y
t
, t T) = 1.
Denicion: Sea X = {X
t
, t T} un proceso estocastico sobre (, F, P). Cualquier otro
proceso estocastico Y = {Y
t
, t T} sobre el mismo espacio de probabilidad, equivalente a X,
se llama una version de X.
Denicion: Sea X = {X
t
, t T} un proceso estocastico. Decimos que el proceso es C`adl`ag
si cada una de sus trayectorias es continua a derecha y tienen lmite a la izquierda.
Teorema: Sean X = {X
t
, t T} y Y = {Y
t
, t T} dos procesos estocasticos, estocastica-
mente equivalentes y ambos continuos a derecha entonces los procesos son indistinguibles.
7
6. Construccion de Kolmogorov
Sea X = {X
t
, t T} un proceso estocastico real sobre (, F, P). El proceso determina una
familia de funciones de distribucion marginales, a saber:
F
t
1
,...,t
n
(x
1
, . . . , x
n
) = P(X
t
1
x
1
, . . . , X
t
n
x
n
)
Esa familia satisface las siguientes condiciones (llamadas condiciones de consistencia):
(i) F
t
k
1
,...,t
k
n
(x
k
1
, . . . , x
k
n
) = F
t
1
,...,t
n
(x
1
, . . . , x
n
) para cualquier permutacion k
1
, . . . , k
n
de
1, 2, . . . , n.
(ii) Para cualquier 1 k n y x
1
, . . . , x
k
R se satisface:
F
t
1
,...,t
k
(x
1
, . . . , x
k
) = F
t
1
,...,t
n
(x
1
, . . . , x
k
, , . . . , )
Surge pues de manera natural la siguiente pregunta: dada una familia consistente de funciones
de distribucion, existe un proceso estocastico tal que esas distribuciones sean sus distribuciones
nito dimensionales? La respuesta es si y esta dada por:
Teorema de Consistencia de Kolmogorov : Supongase que
* {F
t
1
,...,t
n
: t
j
[0, +), j = 1, 2, . . . , n; n = 1, 2, . . .}
es un sistema consistente de funciones de distribucion entonces existe un proceso estocastico
X = {X
t
, t [0, +)} de valor real cuyas distribuciones nito dimensionales estan dadas por
(*)
7. Procesos con Incrementos Independientes
Hay una razon muy importante, no tecnica, para incluir -algebras en el estudio de los
procesos estocasticos y es obtener informacion. Puesto que el caracter temporal del proceso
estocastico sugiere un uido en el tiempo podemos hablar acerca del pasado, presente y futuro,
y preguntarnos que tanto puede saber un observador del proceso, acerca de este en el presente
comparado con lo que saba en el pasado o lo que podra saber en el futuro. Es por esto que
vamos a equipar nuestro espacio (, F) con una ltracion.
Denicion: Sea (, F) un espacio medible. Una ltracion en (, F) es una familia no-
decreciente {F
t
, t 0} de sub--algebras de F.
Nota: Dado un proceso estocastico (X
t
)
t0
denido sobre (, F, P) se tiene que F
X
t
:=
(X
s
, 0 s t), t 0 es una ltracion en (, F).
La ltracion {F
X
t
}
t
se llama ltracion canonica con respecto a (X
t
)
t
.
Denicion: El proceso estocastico X = (X
t
)
t0
es adaptado a la ltracion {F
t
}
t0
si para
cada t 0, X
t
es una v.a. F
t
-medible.
Observacion Todo proceso X es adaptado a la ltracion canonica {F
X
t
}.
Denicion: El proceso estocastico real (X
t
)
t0
se llama proceso de movimiento Browniano
unidimensional si satisface las siguientes condiciones:
8
i) Para cualquier subconjunto nito {t
0
, . . . , t
n
} [0, +) con 0 t
0
< t
1
< . . . < t
n
se
tiene que los incrementos X
t
0
, X
t
1
X
t
0
, . . . , X
t
n
X
t
n1
son v.a. independientes.
ii) La distribucion de probabilidad de X
t
2
X
t
1
, t
2
> t
1
, depende solamente de t
2
t
1
.
iii) P (X
t
X
s
x) = [2 (t s)]
1/2
_
x

exp [u
2
/2 (t s)] du
con t > s y una constante positiva.
Nota 1 Si suponemos X
0
= 0 entonces EX
t
= 0 y V arX
t
= t.
Nota 2 Es facil demostrar que si 0 < t
1
< t
2
< . . . < t
n
< t entonces la distribucion
condicional de X
t
cuando los valores de X
t
1
, X
t
2
, . . . , X
t
n
son conocidos esta dada por:
P (X
t
x | X
t
1
= x
1
, . . . , X
t
n
= x
n
) = [2 (t t
n
)]
1/2
_
xx
n

exp
_
u
2
/2 (t t
n
)

du
Denicion: El proceso estocastico real {N
t
, t 0} se llama proceso de conteo si N
t
representa
el n umero total de eventos que ocurren hasta el tiempo t. Por lo tanto, un proceso de conteo
(N
t0
) debe satisfacer:
i) N
t
0
ii) N
t
es de valor entero
iii) N
s
N
t
si s < t
iv) Para s < t, N
t
N
s
es igual al n umero de eventos que ocurren en el intervalo de tiempo
(s, t].
Uno de los procesos de conteo mas importantes es el llamado Proceso de Poisson.
Denicion: El proceso de conteo {X
t
, t 0} se llama proceso de Poisson con tasa o
intensidad > 0 si:
i) X
0
= 0
ii) El n umero de eventos que ocurren en intervalos de tiempo no superpuestos son indepen-
dientes
iii) La distribucion del n umero de eventos que ocurren en cualquier intervalo de tiempo
depende solo de la longitud del intervalo
iv) P(X
h
= 1) = h +o(h), h 0
v) P(X
h
2) = o(h), h 0
Nota Si {X
t
, t 0} es un proceso de Poisson con intensidad > 0 entonces X
t
= P(t).
Los procesos Browniano y de Poisson son ejemplos de procesos estocasticos con incrementos
estacionarios e independientes.
Denicion: Decimos que el proceso estocastico real {X
t
, t 0} tiene incrementos in-
dependientes si para cualquier subconjunto nito {t
0
, . . . , t
n
} [0, +) y cualquier n, con
9
0 t
0
< t
1
< . . . < t
n
los incrementos X
t
0
, X
t
1
X
t
0
, X
t
2
X
t
1
, . . . , X
t
n
X
t
n1
son variables
aleatorias independientes.
Observacion Si el conjunto de ndices es discreto, digamos T = {0, 1, 2, . . .} entonces un
proceso con incrementos independientes es una sucesion de variables aleatorias independientes
Z
0
= X
0
; Z
1
= X
1
X
0
; . . . , Z
n
= X
n
X
n1
, . . . con n = 1, 2, . . .
Denicion: Decimos que el proceso estocastico real {X
t
, t 0} tiene incrementos esta-
cionarios si la distribucion de los incrementos X
t+h
X
t
depende solo de la longitud h del
intervalo. Es decir, si {X
t
, t 0} tiene incrementos estacionarios entonces
X
t
2
+h
X
t
1
+h
= X
t
2
X
t
1
t
1
< t
2
; h > 0
8. Procesos Estacionarios
Denicion: Sea {X
t
}
tT
un proceso estocastico, tiene funcion de media y funcion de vari-
anzas:
m(t) = E[X
t
]
2
(t) = v(X
t
) t T
funcion de covarianza:
c(s, t) = cov(X
s
, X
t
) s, t T
Denicion: Un proceso estocastico {X
t
}
tT
, siendo T = Z o T = R es proceso estacionario
(en sentido estricto o de primer orden o fuertemente estacionario) si h T y para todos
t
1
< t
2
< . . . < t
k
arbitrarios la distribucion conjunta de (X
t
1
, X
t
2
, ..., X
t
k
) es la misma que la
distribucion conjunta de (X
t
1
+h
, X
t
2
+h
, ..., X
t
k
+h
). Es decir, si efectuamos una misma traslacion
sobre todos los ndices, la distribucion nito dimensional correspondiente no vara.
Ejemplo {X
n
} sucesion de variables aleatorias independientes e igualmente distribuidas es
proceso estacionario de primer orden.
Denicion: {X
t
}
tT
es proceso estacionario en covarianza (o debilmente estacionario o
estacionario de segundo orden) si t T, se tiene que m(t) = m y c(t, t +h) = cov(X
t
, X
t+h
) =
(h) < h T, esto es, tiene funcion media constante y funcion de covarianza dependiente
solo del retardo h.
Observacion La varianza de un proceso estacionario en covarianza es constante, esto es:
(0) = var[X
t
] t T.
Proposicion Si {Z
t
}
tT
es proceso gaussiano (distribuciones conjuntas son normales mul-
tivariantes) estacionario en covarianza, entonces es estrictamente estacionario.
Denicion Para {X
t
}
tT
proceso estacionario en covarianza se dene (h) como la funcion
de autocovarianza del proceso y la funcion (h) =
(h)
(0)
, con h T se dene como la funcion de
autocorrelacion (funcion de autocovarianza estandarizada).
Proposicion Sea {X
t
}
tT
proceso estacionario en covarianza. Entonces se verica:
1. (0) = 1.
2. |(h)| 1, h T.
3. (h) = (h) h T.
10
Demostracion
1. Trivial
2. Como (h) es el coeciente de correlacion lineal entre las variables aleatorias X
t
y X
t+h
t, h
T
3. Miembro izquierdo
cov(X
t
, X
t+h
)
(0)
=
cov(X
t+h
, X
t
)
(0)
Miembro derecho
cov(X
t+h
, X
t
)
(0)
9. Ejemplos
1. Proceso de Ruido Blanco: Sea {
n
}
nN
una sucesion de variables aleatorias incor-
reladas de media cero y varianza constante
2

. Su funcion de autocovarianza es:


(h) = cov(X
n
, X
n+h
) = 0si h = 0 y (0) = var[X
n
] =
2

es por tanto estacionario en covarianza y su funcion de autocorrelacion


(h) =
_
1 h = 0
0 h = 0
luego es estacionario en covarianza.
Si el proceso es gaussiano entonces es estrictamente estacionario
2. Proceso autorregresivo de orden 1: AR(1) Sea {X
n
}
nZ
denido por
X
n
= aX
n1
+
n
{
n
}
nZ
sucesion ruido blanco, se observa que:
a) El proceso autorregresivo se obtiene como combinacion lineal de ruidos blancos:
X
n
= a(aX
n2
+
n1
) +
n
= a
2
X
n2
+a
n1
+
n
= . . . =

j=0
a
j

nj
Ademas:
var[X
n
] =

j=0
a
2j
var[
nj
] =
2

j=0
a
2j
b) Si a = 1 el proceso es un paseo aleatorio y para |a| = 1 el proceso no es estacionario
ya que var[X
n
] = siendo E[X
n
] = 0 n Z
11
c) Para |a| < 1 se tiene E[X
n
] = 0, y la funcion de autocovarianza es
(h) = cov(X
n
, X
n+h
) = E[X
n
X
n+h
]
= E
__

j=0
a
j

nj
_
.
_

k=0
a
k

n+hk
__
por ser {
n
} incorreladas
=
2

j=0
a
j
a
h+j
= a
h

j=0
a
2j
= a
h

1
1 a
2
es estacionario y la funcion de autocorrelacion resulta ser:
(h) =
(h)
(0)
= a
h
h Z
3. Proceso media movil de orden m: MA (m) A partir de {
n
}
nZ
, sucesion de variables
aleatorias incorreladas de media y varianza
2
< y de las constantes arbitrarias
a
1
, . . . , a
m
R se construye el proceso media movil de orden m:
X
n
= a
1

n
+a
2

n1
+. . . +a
m

n(m1)
Con E[X
n
] = ;
m

i=1
a
i
, y V ar[X
n
] =
2
m

i=1
a
2
i
Veamos que el proceso es estacionario en covarianza, sin perdida de generalidad, lo
demostraremos para el proceso centrado construido a partir de las variables centradas

i
=
i
.

X
n
= X
n

i=1
a
i
=
m

i=1
a
i

n(i1)
(h) = cov(

X
n
,

X
n+h
)
= E
__
m

j=1

n(j1)
a
j
__
m

i=1

n+h(i1)
a
i
__
=
_

2
(a
1
a
1+h
+a
2
a
2+h
+... +a
m
a
m+h
) =
2

m
j=1
a
j
.a
j+h
si h m1
0 si h m
en todo caso la autocovarianza solo depende de h.
Ejercicio: Demostrar que todo proceso de Incrementos Independientes centrado es esta-
cionario en covarianza.
4. Polinomios Trigonometricos A partir de las variables aleatorias A, B incorreladas con
media 0 y varianza 1, se considera la expresi on trigonometrica del movimiento oscilatorio
con amplitudes aleatorias:
X
n
= Acos(n) +Bsin(n) n Z
12
con jo, y ademas [0, ]. Entonces E[X
n
] = 0
Dado que E[AB] = 0, la funcion de autocovarianza verica:
(h) = c(X
n
, X
n+h
) = E[X
n
.X
n+h
]
= E[A
2
cos(n). cos((n +h) +B
2
sin(n). sin((n +h))]
= cos(n). cos((n +h)) + sin(n). sin((n +h))
= cos((n) (n +h)) = cos(h)
= cos(h) <
Si A, B N(0, 1) entonces {X
n
} es ademas un proceso fuertemente estacionario.
Proposicion Sean A
0
, A
1
, . . . A
m
y B
0
, B
1
, . . . , B
m
variables aleatorias incorreladas con media
cero y varianza de A
i
y de B
i
com un e igual a
2
i
, vericando
2
=
2
0
+ . . . +
2
m
, y sean
w
0
, w
1
, . . . w
m
frecuencias en [0, ], entonces el proceso
X
n
=
m

k=0
(A
k
cos(nw
k
) +B
k
sin(nw
k
), n Z
Es estacionario en covarianza.
Demostracion
Por ser incorreladas {A
k
} y {B
k
} se verica E[A
i
B
j
] = 0, E[A
i
A
j
] = E[B
i
B
j
] = 0 para
j = i. Entonces
(h) = E[X
n
.X
n+h
]
= E
__
m

k=0
(A
k
cos nw
k
+B
k
sin nw
k
)
_
.
_
m

j=0
A
j
cos(n +h)w
j
+B
j
sin(n +h)w
j
__
=
m

k=0

2
k
cos hw
k
Mas a un, si introducimos el vector de probabilidad {p
k
}
k=1...m
denido por p
k
=

2
k

2
:
(h) =
2
m

k=1
p
k
cos(hw
k
), h Z
y p
k
se puede interpretar como la contribucion de frecuencia w
k
a la covarianza; generalizando
la frecuencia a todos los valores continuos contenidos en [0, ] y considerando la funcion de
distribucion sobre w, F(w):
(h) =
2
_

0
cos(hw) dF(w)
esta extension, en general, es posible a procesos estacionarios en covarianza.
Caso particular: w U(0, ), entonces:
(h) =
2
1

_

0
cos(hw) dw =
_

2
si h = 0
0 si h = 0
lo cual reduce el proceso a una sucesion de variables aleatorias incorreladas e identicamente
distribuidas con varianza
2
y centradas (ver ejemplo 1, Ruido Blanco).
13
10. Representacion espectral de la funcion de covarianza
Sin perdida de generalidad puede reescalarse el proceso estacionario en covarianza para
conseguir varianza uno, con lo cual
(h) = (h) = c(X
n
, X
n+h
) h Z
Denicion: Una funcion a valores reales f(x), con x Z se llama semidenida positiva si para
todos k = 1, 2, . . . y para todos
1
, . . . ,
k
R, se cumple que:
k

i=1
k

j=1

j
f(i j) 0
Teorema (Caracterizacion de la funcion de autocovarianza) Sea (h), con h Z entonces los
siguientes apartados son equivalentes
1. (h) es la funcion de covarianza de un proceso estacionario en covarianza, a valores reales
con media cero y varianza uno.
2. (0) = 1, (h) = (h) h Z y (h) es semidenida positiva.
3. Existe una distribucion de probabilidad simetrica sobre [, ], sea F tal que:
(h) =
_

cos(hw) dF(w) h = 0, 1 . . .
Demostracion
1 2]
Si {X
n
} tiene media cero y varianza uno entonces
(0) = E[X
2
n
] = 1 (h) = E[X
n
X
n+h
] = E[X
n+h
X
n
] = (h)
Para ver que (h) es semidenida positiva, sea
1
, . . . ,
k
dados, entonces
0 E
_
|
k

i=1

i
X
n+i
|
2
_
= E
__
k

i=1

i
X
n+i
__
k

j=1

j
X
n+j
__
= E
_
k

i=1
k

j=1

j
X
n+i
X
n+j
_
=
k

i=1
k

j=1

j
(i j)
entonces queda demostrada la primera implicacion (1 2).
2 1
Sea (h) una funcion que verica las propiedades del primer apartado y sea a
ij
= (i j),
entonces para k = 1, 2, . . ., la matriz A = ||a
ij
||
i,j=1...k
es simetrica y semidenida positiva,
entonces para cada k la matriz A obtenida representa la matriz de covarianzas de una variable
aleatoria k-normal centrada. Este procedimiento describe consistentemente la distribucion de
cualquier conjunto nito de variables del proceso {X
n
}
nZ
.
14
Se demuestra que la funcion de covarianza de este proceso es la (h) de partida, se prueba
as que para cualquier funcion que verica las propiedades del segundo apartado, existe al menos
un proceso estacionario en covarianza que tiene precisamente esa funcion como autocovarianza.
3 2
Sea (h) =
_

cos(hw) dF(w) = E[cos(hw)], siendo w, una variable aleatoria simetrica con


funcion de distribucion F, en el intervalo [, ], se verica que (0) = 1, ya que cos hw =
cos(hw), entonces (h) = (h). Veamos que (h) es semidenida positiva
k

i=1
k

j=1

j
(i j) =
k

i=1
k

j=1

j
E[cos(i j)w]
= E
_
k

i=1
k

j=1

j
cos(iw jw)
_
= E
_
_

i=1

i
cos(iw)

2
+

i=1

i
sin(iw)

2
_
_
0
luego 3 2.
2 3
A partir de la denicion de (h) semidenida positiva, con
j
= cos(jw) se tiene que:
0
n

i=1
n

j=1
(i j) cos(iw) cos(jw)
con n jo, analogamente con
i
= sin(iw) se tiene que:
0
n

i=1
n

j=1
(i j) sin(iw) sin(jw)
de donde
0
1
2n
n

i=1
n

j=1
(i j) cos(i j)w
=
1
2n
n1

h=n+1
(n |h|)(h) cos(hw)
Deniendo
f
n
(w) =
1
2n
n1

h=n+1
(n |h|)(h) cos(hw) ; w
entonces f
n
(w) 0 y ademas
_

f
n
(w)dw =
1
2n
n1

h=n+1
(n |h|)
__

cos(hw)dw
_
.(h)
=
1
2n
n,2(0) = 1
15
luego f
n
(w) es funcion de densidad n [, ] y ademas es simetrica ya que
f
n
(w) = f
n
(w) w [, ]
Veamos nalmente la caracterizacion de (h), sea F
n
la funcion de distribucion correspondiente
a la funcion de densidad f
n
, entonces
_

cos(hw) dF
n
(w) =
_

cos(hw)f
n
(w) dw
=
_

cos(hw)
_
1
2n
n1

k=n+1
(n |k|) cos(kw) (k)
_
dw
=
n1

k=n+1
_
1
|k|
n
_
1
2
__

cos(hw) cos(kw) dw
_
(k)
=
n1

k=n+1
_
1
|k|
n
_

hk
(h) =
_
1
|h|
n
_
(h)
Aplicando el lema de Helly-Bray a la familia de funciones de distribucion F
n
considerada,
existe una subfamilia F
n
k
que converge a una cierta funcion de distribucion F, esto es para
toda funcion acotada a(h):
lm
k
_

a(w) dF
nk
(w) =
_

a(w) dF(w)
siendo a(h) = cos(hw) se tiene
_

cos(hw)dF(w) = lm
k
_

cos(hw)dF
nk
(w)
= lm
k
_
1
|h|
n
k
_
(h) = (h) h Z
lo cual concluye la prueba del teorema.
De acuerdo con el resultado 3 obtenido, la funcion de covarianza de un proceso estacionario
en covarianza (h) se determina mediante la transformada coseno de Fourier-Stieltjes de la
funcion de distribucion espectral F(w). Si F(w) es diferenciable, con funcion de densidad es-
pectral:
F(w) =
dF(w)
dw
w
Entonces
(h) =
_

cos(hw)f(w) dw
11. Apendice: Funcion Generatriz
Denida para variables aleatorias con valores en N( Z
+
U{0})
G
X
(s) =

k=0
p
k
s
k
= E[s
X
] X N
16
siendo: p
k
= Prob{X = k}
Observacion: G(s) esta denida para |s| 1 y es innitamente diferenciable para |s| < 1
ya que p
k
0 k y p
k
= 1.
Propiedades
1. G(s) determina unvocamente la Funcion de Distribucion (Ley de Levy)
2. Si {X
i
}
1...n
son variables aleatorias independientes con valores en N, se verica
G

n
i=1
X
i
(s) =
n

i=1
G
X
i
(s)
Demostracion:
G

n
i=1
X
i
(s) = E
_
n

s
1
Xi
_
= E
_
s
X1
...s
Xn

=
n

i=1
E
_
s
Xi

=
n

i=1
G
Xi
(s)
3. Los momentos de la variable aleatoria X se obtienen por diferenciacion sucesiva de G
X
(s)
G
(r+1)
X
(1) = E[X(X 1) . . . (X r)]
E[X] = G

x
(1)
E[X
2
] = G

x
(1) + G

x
(1)
Ejercicio: Calcular la esperanza matematica y la varianza de una SUMA ALEATORIA de
variables aleatorias independientes, enteras no negativas.
Sean N, X
1
, X
2
, . . . variables aleatorias independientes con valores en N, siendo {X
i
} vari-
ables aleatorias igualmente distribuidas y sea Z = X
1
+ . . . + X
N
la variable aleatoria suma
con un n umero aleatorio de terminos.
Sean G
N
(s) y G(s) respectivamente funciones generatrices de N y X
i
.
G
Z
(s) = E[s
Z
] = E
_
s

N
Xi
_
= E
_
E
_
s

N
Xi
/N
__
=

n=0
E
_
S
X
1
+...+X
n
/N = n

.Prob{N = n}
=

n=0
E
_
S
X
1
+...+X
n
/N = n

.Prob{N = n}
(por la independencia de x
i
)
=

n=0
G(s)
n
.Prob{N = n} = E
_
G(s)
N

= G
N
(G(s))
Entonces: (por la Regla de la cadena)
G

Z
(s) = G

N
(G(s)).G

(s) G

z
(s) = G

N
(G(s)).(G

(s))
2
+G

N
(G(s)).G

(s)
para s = 1
G

Z
(1) = E[Z] = E[N].E[X] G

Z
(1) = G

N
(1).(E[X])
2
+E[N].G

(1)
17
Observacion. Si las v.a. X
i
son NO DISCRETAS, entonces
Z
(S) = G
N
((s)) siendo la
funcion caracterstica.
Ejemplo Si N es una variable aleatoria geometrica de parametro (p), su funcion generatriz
es
G
(s)
z
=
pG
x
(s)
1 (1 p)G
x
(s)
Ejemplo: El n umero de usuarios que se conectan a un servidor en un cierto perodo de tiempo
sigue una distribucion de Poisson (); cada conexion utiliza con probabilidad (p) una cierta
aplicacion. Hallar la distribucion y los momentos del n umero de utilizaciones de la aplicacion
en este perodo.
Solucion
Sean:
N Poisson () (n umero de usuarios)
X Bernoulli (p) (utilizacion de la aplicacion)
Las respectivas funciones generatrices son:
G
N
(s) = e
(s1)
y G
X
(s) = ps +q
Denimos Z = X
1
+. . . +X
N
, entonces:
G
Z
(s) = G
N
(G
X
(s)) = e
(ps+q1)
= e
p(s1)
se concluye que Z Poisson (p), con:
E[Z] = E[N].E[X] = .p y V ar[Z] = .p
2
+.p.q
18

Você também pode gostar