Você está na página 1de 14

Tema 1.

Introduccin a los procesos estocsticos


Procesos Estocsticos Mster en Tcnicas Estadsticas

Rosa M. Crujeiras

ndice
1. Denicin y conceptos bsicos 1.1. Medidas caractersticas de procesos . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2. Tipos bsicos de procesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Proceso de Poisson 2.1. Procesos de renovacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 3 5 6 7 7 7 8 10 . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 10 11 12 13 13 14 14

2.2. Procesos de Poisson no homogneos . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Procesos de Poisson compuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Introduccin al Movimiento Browniano 4. Apndice 4.1. Conceptos bsicos de probabilidad

4.2. Variables aleatorias. Densidad y distribucin. . . . . . . . . . . . . . . . . . . . . . . 4.3. Medidas caractersticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4. Independencia de sucesos. Probabilidad condicionada . . . . . . . . . . . . . . . . . 4.5. Algunas desigualdades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6. Convergencia de variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7. Leyes de los grandes nmeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.8. Teorema Central del Lmite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

Tema 1. Introduccin a los procesos estocsticos

1. Denicin y conceptos bsicos


Un proceso estocstico es un modelo probabilstico para un sistema que evoluciona de manera aleatoria, que recoge las diferentes situaciones en las que puede encontrarse el sistema (espacio de estados) y los instantes de observacin o medicin considerados (espacio de parmetros). Formalmente, un proceso estocstico se puede denir como sigue: Denicin 1.1. Un proceso estocstico es una familia de variables aleatorias {Xt , t T } denidas sobre un espacio de probabilidad (, A, P). El valor de Xt indicar el estado en que se encuentra el sistema en el momento t T . Si el espacio de parmetros T = N = {0, 1, 2, . . . }, diremos que el proceso tiene espacio de parmetros discreto, mientras que si T = R, el espacio de parmetros ser continuo. Algunos ejemplos de procesos estocsticos son las series temporales, que normalmente tiene espacio de parmetros discreto T = {t0 , t1 , . . . , tN } o continuo, T = R+ o bien T = (a, b) R. Si T Rd , con d > 1, el proceso se denomina campo aleatorio. En el caso de T R2 , estaremos ante procesos espaciales. Denicin 1.2. Para cada , la aplicacin Xt ( ) se denomina trayectoria del proceso. Por tanto, una observacin del proceso Xt ( ) ser una trayectoria. Al conjunto de todas las posibles trayectorias del proceso se le denomina espacio muestral. En general, lo que observaremos sern trayectorias parciales, es decir, Xt ( ) con t = {t1 , t2 , . . . , tn }. Para el estudio de tcnicas estadsticas para el anlisis de procesos estocsticos es necesario conocer previamente de qu manera podemos caracterizar los procesos. En el caso de una variable aleatoria, su comportamiento puede ser caracterizado a travs de su funcin de distribucin. Para un vector aleatorio con n componentes, su comportamiento se puede caracterizar con la funcin de distribucin conjunta (ndimensional). Este concepto se puede generalizar al caso de los procesos estocsticos. Denicin 1.3. Consideremos {Xt , t T } un proceso estocstico y sea {t1 , . . . , tn } T una coleccin de instantes con t1 < t2 < . . . < tn . Se dene la distribucin nitio dimensional de orden

n del proceso como: Ft1 ,...,tn (x1 , . . . , xn ) = P(Xt1 x1 , . . . , Xtn xn ).


La distribuciones nito dimensionales tambin se denominan distribuciones marginales del proceso. Adems, en el caso de que el espacio de parmetros T = {t1 , . . . , tn } sea nito, conociendo

Ft1 ,...,tn , ya quedara explicado el comportamiento del proceso, pero si T no es nito, se necesita
una familia consistente de distribuciones. Consideremos una familia de medidas de probabilidad en Rn

{Pt1 ,...,tn ,t1 < . . . < tn , n 1, ti T }


R. Crujeiras 2 Mster en Tcnicas Estadsticas

Tema 1. Introduccin a los procesos estocsticos

con la siguiente familia de distribuciones asociada:

Ft1 ,...,tn (x1 , . . . , xn ) = P(X1 x1 , . . . , Xn xn ).


Denicin 1.4. La familia de distribuciones {Fn Ft1 ,...,tn , n N} es consistente si verica: a) Para cualquier k1 , . . . , kn permutacin de los ndices 1, 2 . . . , n:

Ftk1 ,...,tkn (xk1 , . . . , xkn ) = Ft1 ,...,tn (x1 , . . . , xn ).


b) Para cualquier 1 k n y cualquiera valores x1 , . . . , xn R:

Ft1 ,...,tk (x1 , . . . , xk ) = Ft1 ,...,tn (x1 , . . . , xk , , . . . , ).


Adems, para el caso de procesos estocsticos con espacio de parmetros T discreto, se verica el siguiente resultado: Teorema 1.5. Si {Ft1 ,...,tn } es una familia consistente de distribuciones, entonces existe un proceso estocstico {Xt , t T } denido en (, A, P) que tiene Ft1 ,...,tn como distribucin nito dimensional. Si las distribuciones nito dimensionales del proceso pertenecen a la familia de distribuciones Normales, se dice que el proceso es gaussiano. La mayor parte de la literatura estadstica sobre campos aleatorios (y series de tiempo) se basan en el supuesto de que los procesos analizados son gaussianos.

1.1.

Medidas caractersticas de procesos

Consideremos {Xt , t T } un proceso estocstico. Se denen la media y la covarianza del proceso como:

X (t) = E(Xt ),

t T, t, s T.

X (s, t) = Cov(Xs , Xt ) = E [(Xs X (s))(Xt X (t))] ,


Por tanto, la varianza del proceso es:
2 X (t) = Var(Xt ) = X (t, t).

Denicin 1.6. Un proceso estocstico {Xt , t T } se dice que es estacionario en sentido estricto (fuertemente estacionario) si para cualquier coleccin de instantes t1 < t2 < . . . < tk , y para cualquier h tal que t1 + h, . . . , tk + h T , la distribucin conjunta de (Xt1 , Xt2 . . . , Xtk ) es la misma que la de (Xt1 +h , Xt2 +h , . . . , Xtn +h ). R. Crujeiras 3 Mster en Tcnicas Estadsticas

Tema 1. Introduccin a los procesos estocsticos

Es decir, los procesos fuertemente estacionarios tiene distribuciones invariantes por traslaciones.

Ejercicio. Demostrar que cualquier sucesin de variables aleatorias independientes e idnticamente distribudas es fuertemente estacionario.

Denicin 1.7. Un proceso estocstico {Xt , t T } se dice que es estacionario de segundo orden (dbilmente estacionario) si t T se verica: i) X (t) = , para todo t T . ii) X (s, t) = Cov(Xs , Xt ) = (s t) < , para todo s, t T . La primera condicin implica que la media se mantiene constante. La segunda condicin establece que la covarianza del proceso depende nicamente de la diferencia entre los momentos en que observamos el proceso (en el caso de las series de tiempo, esta diferencia se denomina retardo). Adems, si un proceso es estacionario de segundo orden, tambin su varianza se mantiene constante puesto que
2 . Var(Xt ) = X (t, t) = (0) = X

Denicin 1.8. Sea {Xt , t T } un proceso estocstico estacionario de segundo orden y denotemos por X (h) la funcin de covarianza del proceso. Se dene la funcin de autocorrelacin como

X (h) =

X (h) , X (0)

h T 1.

La funcin de autocorrelacin verica las siguientes propiedades (Ejercicio. Demostracin): a) X (0) = 1. b) |X (h)| 1, h T . c) X (h) = (h), h T . Ejemplo 1. Consideremos un proceso {Xt , t T } tales que las variables aleatorias Xt son independientes con distribucin N (0, 2 ). Este es un proceso Gaussiano con media y covarianza:

X (t) = E(Xt ) = 0,

X (s, t) =

2 s = t, 0 s = t.

Ejercicio. Simula con R trayectorias de un rudo blanco y de un rudo rosa. En la Figura 1 se presentan dos trayectorias de procesos gaussianos. Uno es ruido blanco y el otro es un proceso heterocedstico.
1

Se entiende que h = t s, con t, s T .

R. Crujeiras

Mster en Tcnicas Estadsticas

Tema 1. Introduccin a los procesos estocsticos

Trayectorias
2 2 0 1 0 1

100

200

300

400

500

Figura 1: Trayectorias de dos procesos Gaussianos. Negro: rudo blanco. Azul: rudo heterocedstico.

1.2.

Tipos bsicos de procesos

Recordemos qeu, para un determinado instante t, Xt representa el estado del proceso en dicho instante. Segn el tipo de valores que pueda tomar cada Xt , tendremos procesos con espacio de estados discreto y continuo. Atendiendo a esta clasicacin de los estados, y a los distintos tipos de espacios de parmetros que podemos encontrar, en el Cuadro 1 se muestra un esquema bsico de clasicacin de procesos, con algunos ejemplos importantes que estudiaremos a lo largo del curso. Sin embargo, estos no son los nicos tipos de procesos estocsticos, y recientemente han surgido los procesos estocsticos funcionales (espacio de estados funcional o tambin espacio de parmetros funcional). Espacio discreto Tiempo discreto Cadena de Markov Proceso de Poisson Tiempo continuo Cadena de Markov en tiempo continuo Cuadro 1: Clasicacin de procesos y ejemplos, segn tiempo y espacio de estados. Proceso continuo Espacio continuo Sucesin de variables aleatorias continuas

R. Crujeiras

Mster en Tcnicas Estadsticas

Tema 1. Introduccin a los procesos estocsticos

En los siguientes temas nos centraremos en el estudio de las Cadenas de Markov (en tiempo discreto y continuo) y de los Procesos de Poisson. A modo de ejemplo, presentaremos algunos caractersticas de los procesos de Poisson y de procesos derivados, que pueden resultar de utilidad para los trabajos prcticos.

2. Proceso de Poisson
Un variable aleatoria Y se dice que sigue una distribucin Exponencial de parmetro > 0 si su densidad es:

f (y ) = ey I{y 0},
donde I{} es la funcin indicadora. La correspondiente funcin de distribucin viene dada por

F (y ) = 1 ey .
Con esta parametrizacin de la densidad, tenemos que E(Y ) = 1 y Var(Y ) = 2 . La distribucin exponencial no tiene memoria, es decir: para cualquier s, t 0:

P(T > s + t|T > s) = P(T > t).

(2.1)

Ejercicio. Demuestra la propiedad de falta de memoria de la distribucin Exponencial (ecuacion (2.1)).

El Proceso de Poisson con tasa o intensidad es un proceso estocstico {Nt , t 0} que se caracteriza por las siguientes propiedades: i) N0 = 0 ii) Fijados t1 . . . tn , los incrementos Nt2 Nt1 ,. . .,Ntn Ntn1 son variables aleatorias independientes. iii) Fijados dos instantes s < t, el incremento Nt Ns tiene distribucin de Poisson de parmetro

(t s). Es decir: P(Nt Ns = k) = k (t s)k e(ts) , k! k = 0, 1, 2, . . .

Con las condiciones (i)-(iii) quedan caracterizadas las distribuciones nito dimensionales (o marginales) de {Nt , t 0}.

R. Crujeiras

Mster en Tcnicas Estadsticas

Tema 1. Introduccin a los procesos estocsticos

2.1.

Procesos de renovacin

La suposicin de que los tiempos entre eventos sigue una distribucin Exponencial puede no resultar realista en muchas aplicaciones, por lo que ser de utilidad denir una clase de procesos que tienen al de Poisson como caso particular. Esta clase ms general de procesos se denominan Procesos de renovacin.

Supongamos el siguiente ejemplo: tenemos una bombilla que se funde y es reemplazada inmediatamente por un encargado. Denotemos por ti el tiempo de vida de la bombilla i-sima y supongamos que P(ti t) = F (t), donde F es una funcin de distribucin con F (0) = 0. Si comenzamos con una bombilla (nmero 1) en un instante 0 y cada bombilla es reemplazada cuando se funde, entonces Tn = t1 + . . . + tn denota el tiempo al que la nsima bombilla se funde y

N (t) = m ax{n : Tn t}
es el nmero de bombillas que se han reemplazado en el instante t. El caso particular en que los tiempos entre incidencias siguen una distribucin F Exp() da lugar a un Proceso de Poisson

N (t) con media t.

2.2.

Procesos de Poisson no homogneos

Adems de la falta de realismo que conlleva el suponer una distribucin Exponencial para los tiempos entre eventos, otro inconveniente viene de suponer que el proceso es homogneo, en el sentido de que la tasa de ocurrencia de eventos se mantiene constante. Esta suposicin se puede relajar deniendo {N (t), t 0} un Proceso de Poisson no homogneo con intensidad (t) si verica: i) N (0) = 0. ii) N (t) N (s) Pois(
t s (r )dr ),

para todo 0 s < t.

iii) {N (t), t 0} tiene incrementos independientes.

2.3.

Procesos de Poisson compuestos

Sea N (t) un proceso de Poisson y asociemos a cada evento o incidencia i una variable Yi (por ejemplo, Yi puede denotar el coste de una reparacin). Consideremos el proceso S (t) tal que S (0) = 0 y

S (t) = Y1 + . . . + YN (t) S (t) representa el coste acumulado en el tiempo t y es un Proceso de Poisson compuesto. Este
tipo de procesos son comunes en teora de riesgos (ciencias actuariales). R. Crujeiras 7 Mster en Tcnicas Estadsticas

Tema 1. Introduccin a los procesos estocsticos

3. Introduccin al Movimiento Browniano


A comienzos del siglo XIX, Robert Brown observ el complejo y errtico comportamiento de granos de polen en suspensin en un lquido. Posteriormente se descubri que tal movimiento se produca por una nmero extremadamente grande de colisiones del polen con las molculas del lquido. En los aos 20, Wiener introdujo el modelo matemtico para el movimiento basndose en la teora de los procesos estocsticos. As, la posicin de una partcula en un instante t 0 es un vector tridimensional B (t) que vericar las propiedades que denimos a continuacin.
Movimiento Browniano Movimiento Browniano 2D

0.4

0.2

0.0

1 0.2 0.4 0.6 0.0 0.2 0.4 0.6 0.8 1.0 30 10 20 10

10

20

0 1

10

15

Time

Figura 2: Trayectorias de un Movimiento Browniano en una y dos dimensiones.

R. Crujeiras

Mster en Tcnicas Estadsticas

Tema 1. Introduccin a los procesos estocsticos

Denicin 3.1. Un proceso estocstico {Bt , t 0} se denomina movimiento Browniano (o proceso de Wiener) si verica: i) B0 = 0 ii) Para todo 0 t1 . . . tn , los incrementos Btn Btn1 , . . . , Bt2 Bt1 son variables aleatorias independientes. iii) Si 0 s < t, el incremento Bt Bs tiene distribucin N (0, t s). El movimiento Browniano es un proceso Gaussiano, ya que la distribucin del vector aleatorio

(Bt1 , . . . , Btn ) para 0 < t1 < . . . < tn es Normal, ya que este vector se puede obtener como transformacin lineal de (Bt1 , Bt2 Bt1 , . . . , Btn Btn1 ) que tiene distribucin Normal (sus componentes son Normales independientes).

La funcin de medias y de covarianza vienen dadas por:

E(Bt ) = 0,

t,
si

Cov(Bs , Bt ) = m n(s, t),

s t.

El movimiento Browniano tiene la propiedad de autosimilaridad. Es decir, para cualquier a 0, el proceso:

{a1/2 Bat , t 0}
es tambin un movimiento Browniano. A partir del Movimiento Browniano, se denen otros procesos como: - Puente Browniano: B (t) tB (1), para 0 t 1. - Proceso de Ornstein-Uhlenbeck: et B (e2t ), para < t < . - Proceso de It:
t 0 (t)dt

t 0 (t)dB (t),

para 0 t.

R. Crujeiras

Mster en Tcnicas Estadsticas

Tema 1. Introduccin a los procesos estocsticos

4. Apndice
4.1. Conceptos bsicos de probabilidad

Un espacio de probabilidad asociado a un experimento aleatorio es un triple de la forma (, A, P), donde: i) es el espacio muestral (el espacio de todos los posibles resultados del experimento). ii) A es la lgebra generada por los sucesos de , que verica: - A. - Si A A, entonces A A. - Si A1 , . . . , An A, entonces n i=1 Ai A. iii) P es una funcin que a cada A A le asocia un nmero P(A) que: - 0 P(A) 1. - P() = 1. - Para cualquier conjunto A1 , . . . , An tales que Ai Aj = si i = j , se verica: P(n i=1 Ai ) =
n i=1 P(Ai ).

Los elementos en A se denominan sucesos y P es una medida de probabilidad. Adems, se puede deducir que: - P(A B ) = P(A) + P(B ) P(A B ) - P(A) = 1 P(A) - A B P(A) P(B )

4.2.

Variables aleatorias. Densidad y distribucin.

Una variable aleatoria es una funcin medible X : R. Es decir, para cualquier conjunto de Borel

B R, la imagen inversa verica que X 1 (B ) F . Si denotamos por B la lgebra de Borel en R, una variable aleatoria X induce una medida de probabilidad sobre R, dada por PX = P X 1 ,
es decir:

PX (B ) = P(X 1 (B )) = P({ : X ( ) B }).


Una variable aleatoria X tiene densidad fX si fX es una funcin non negativa sobre R, medible con respecto a la lgebra de Borel y tal que:
b

P(a < X < b) =


a

fX (x)dx,
10

a < b.
Mster en Tcnicas Estadsticas

R. Crujeiras

Tema 1. Introduccin a los procesos estocsticos

Si una variable aleatoria X admite unha funcin de densidad, entonces X es absolutamente con-

= 1. Diremos que una variable aleatoria X es discreta si toma un nmero nito (o innito numerable) de valores, denotados por xk . En ese caso, podemos
tinua. Adems, tenemos que denir una funcin de masa de probabilidad:

fX (x)dx

pk = P(X = xk ).
Se dene la funcin de distribucin de una variable aleatoria X como:

FX : R [0, 1] x FX (x) = P(X x) = PX ((, x])


Las funciones de distribucin son no decrecientes, continuas por la derecha y verican:
x

l m FX (x) = 0,

l m FX (x) = 1.

Adems, si la variable aleatoria X es absolutamente continua con densidad fX , entonces se verica que:
x

FX (x) =

fX (y )dy,

FX (x) = fX (x).

4.3.

Medidas caractersticas

La esperanza matemtica o valor esperado de una variable aleatoria X se dene como la integral de X con respecto a la medida de probabilidad en el espacio donde est denida. Es decir:

E(X ) =

X ( )dP( ).

La esperanza matemtica tambin se puede escribir en trminos de la funcin de distribucin, de tal manera que la integral se escribe sobre R:

E(X ) =
R

xdFX (x). xfX (x)dx, mientras que para k xk pk . En general, si g : R R es

En el caso de variables absolutamente continuas se tiene E(X ) = variables discretas con valores xk , la esperanza ser E(X ) =

una funcin Borel-medible y E(|g (X )|) < , se puede calcular la esperanza de la transformacin g(X ):

E(g(X )) =

g(X ( ))dP( ) =

g(x)dPX (x).

Una variable aleatoria X se dice que tiene momento de orden p 1 nito si E(|X |p ) < . El momento de orden p viene dado por mp = E(X p ).

R. Crujeiras

11

Mster en Tcnicas Estadsticas

Tema 1. Introduccin a los procesos estocsticos

La varianza de una variable aleatoria X se dene como:


2 X = Var(X ) = E((X E(X ))2 ) = E(X 2 ) E2 (X ),

suponiendo que E(X 2 ) < (momento de orden 2 nito).

Si X e Y son variables dos variables aleatorias con momento de orde 2 nito, entonces se dene la covarianza entre X e Y como: Cov(X, Y ) = E [(X E(X ))(Y E(Y ))] = E(XY ) E(X )E(Y ). La funcin caracterstica de una variable aleatoria X se dene como:

X (t) = E(eitX ).
Los momentos de una variable aleatoria se pueden calcular a partir de las derivadas de su funcin caracterstica, evaluadas en t = 0:

mp =

1 (p) (t) ip X

t=0

4.4.

Independencia de sucesos. Probabilidad condicionada

Dos sucesos A, B F son independientes si:

P(A B ) = P(A)P(B )
La probabilidad de un suceso A condicionada a otra suceso B , con P(B ) > 0 se dene como:

P(A|B ) =

P(A B ) . P(B )

Entonces, A y B son independientes si y slo si P(A|B ) = P(A), suponiendo que B tenga probabilidad no nula. La probabilidad condicionada dene una nueva medida de probabilidad en la

lgebra F concentrada en B . La esperanza matemtica de una variable aleatoria X con respecto a la probabilidad condicional (esperanza condicional) es:

E(X |B ) =

1 E(X 1B ), P(B )

donde 1{} es la funcin indicadora, que en este caso restringe X al conjunto B . Si dos variables X e Y son independientes y tienen media nita, entonces su producto tambin tiene media nita y viene dada por:

E(XY ) = E(X )E(Y ),


y por tanto, su covarianza sera nula.

R. Crujeiras

12

Mster en Tcnicas Estadsticas

Tema 1. Introduccin a los procesos estocsticos

4.5.

Algunas desigualdades
Desigualdad de Tchebychev: si > 0,

P(|X | > )
Desigualdad de Schwartz:

1 E(|X |p ) p

E(XY )
Desigualdad de Hlder:

E(X 2 )(Y 2 )

E(XY ) (E(|X |p ))1/p (E(|Y |q ))1/q


Desigualdad de Jensen: si X tiene esperanza nita y : R R es una funcin convexa tal que (X ) tiene esperanza nita, entonces:

(E(X )) E((X )).


Como caso particular de la desigualdad de Jensen tenemos (x) = |x|p con p 1: |E(X )|p

E(|X |p ).

4.6.

Convergencia de variables aleatorias


Convergencia casi seguro (almos surely, a.s.). Una sucesin de variables aleatorias Xn converge casi seguro a una variable aleatoria X , Xn X si
n a.s.

l m Xn ( ) = X ( )

para todo / D , donde P(D ) = 0. Convergencia en probabilidad. Una sucesin de variables aleatorias Xn converge en probabilidad a una variable aleatoria X , Xn X si
n P

l m P(|Xn X | > ) = 0,

> 0.

Convergencia en media de orden r 1.


n d

l m E(|Xn X |r ) = 0.

Convergencia en distribucin: Xn X si:


n

l m FXn (x) = F (x)

para todo punto x donde FX es continua. R. Crujeiras 13 Mster en Tcnicas Estadsticas

Tema 1. Introduccin a los procesos estocsticos

Se tienen las siguientes relaciones entre los distintos tipos de convergencia: La convergencia en media de orden r implica la convergencia en probabilidad. Aplicando la desigualdad de Tchebychev, se tiene que:

P(|Xn X | > )

1 E(|Xn X |p ). p

La convergencia casi seguro implica la convergencia en probabilidad. La convergencia en probabilidad implica la convergencia casi seguro de una subsucesin de variables. La convergencia casi seguro implica la convergencia en media de orden r 1 si las variables

Xn son acotadas en valor absoluto por una variable no negativa Y con momento de orden r
nito (aplicacin del teorema de convergencia dominada). La convergencia en probabilidad implica la convergencia en distribucin. Si hay convergencia en distribucin a una constante, entonces tambin se da la convergencia en probabilidad.

4.7.

Leyes de los grandes nmeros

Sea {Xn , n 1} una sucesin de variables aleatorias independientes e idnticamente distribuidas tales que = E(X1 ) < . Entonces:

X1 + . . . + Xn a.s. . n

4.8.

Teorema Central del Lmite

Sea {Xn , n 1} una sucesin de variables aleatorias independientes e idnticamente distribuidas


2 ) < . Si denotamos por = E(X ) y 2 = Var(X ) entonces: tales que E(X1 1 1 n i=1 Xi

N (0, 1.)

R. Crujeiras

14

Mster en Tcnicas Estadsticas

Você também pode gostar