Escolar Documentos
Profissional Documentos
Cultura Documentos
Rosa M. Crujeiras
ndice
1. Denicin y conceptos bsicos 1.1. Medidas caractersticas de procesos . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2. Tipos bsicos de procesos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Proceso de Poisson 2.1. Procesos de renovacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2 3 5 6 7 7 7 8 10 . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 10 11 12 13 13 14 14
2.2. Procesos de Poisson no homogneos . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Procesos de Poisson compuestos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3. Introduccin al Movimiento Browniano 4. Apndice 4.1. Conceptos bsicos de probabilidad
4.2. Variables aleatorias. Densidad y distribucin. . . . . . . . . . . . . . . . . . . . . . . 4.3. Medidas caractersticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4. Independencia de sucesos. Probabilidad condicionada . . . . . . . . . . . . . . . . . 4.5. Algunas desigualdades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.6. Convergencia de variables aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . 4.7. Leyes de los grandes nmeros . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.8. Teorema Central del Lmite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
Ft1 ,...,tn , ya quedara explicado el comportamiento del proceso, pero si T no es nito, se necesita
una familia consistente de distribuciones. Consideremos una familia de medidas de probabilidad en Rn
1.1.
Consideremos {Xt , t T } un proceso estocstico. Se denen la media y la covarianza del proceso como:
X (t) = E(Xt ),
t T, t, s T.
Denicin 1.6. Un proceso estocstico {Xt , t T } se dice que es estacionario en sentido estricto (fuertemente estacionario) si para cualquier coleccin de instantes t1 < t2 < . . . < tk , y para cualquier h tal que t1 + h, . . . , tk + h T , la distribucin conjunta de (Xt1 , Xt2 . . . , Xtk ) es la misma que la de (Xt1 +h , Xt2 +h , . . . , Xtn +h ). R. Crujeiras 3 Mster en Tcnicas Estadsticas
Es decir, los procesos fuertemente estacionarios tiene distribuciones invariantes por traslaciones.
Ejercicio. Demostrar que cualquier sucesin de variables aleatorias independientes e idnticamente distribudas es fuertemente estacionario.
Denicin 1.7. Un proceso estocstico {Xt , t T } se dice que es estacionario de segundo orden (dbilmente estacionario) si t T se verica: i) X (t) = , para todo t T . ii) X (s, t) = Cov(Xs , Xt ) = (s t) < , para todo s, t T . La primera condicin implica que la media se mantiene constante. La segunda condicin establece que la covarianza del proceso depende nicamente de la diferencia entre los momentos en que observamos el proceso (en el caso de las series de tiempo, esta diferencia se denomina retardo). Adems, si un proceso es estacionario de segundo orden, tambin su varianza se mantiene constante puesto que
2 . Var(Xt ) = X (t, t) = (0) = X
Denicin 1.8. Sea {Xt , t T } un proceso estocstico estacionario de segundo orden y denotemos por X (h) la funcin de covarianza del proceso. Se dene la funcin de autocorrelacin como
X (h) =
X (h) , X (0)
h T 1.
La funcin de autocorrelacin verica las siguientes propiedades (Ejercicio. Demostracin): a) X (0) = 1. b) |X (h)| 1, h T . c) X (h) = (h), h T . Ejemplo 1. Consideremos un proceso {Xt , t T } tales que las variables aleatorias Xt son independientes con distribucin N (0, 2 ). Este es un proceso Gaussiano con media y covarianza:
X (t) = E(Xt ) = 0,
X (s, t) =
2 s = t, 0 s = t.
Ejercicio. Simula con R trayectorias de un rudo blanco y de un rudo rosa. En la Figura 1 se presentan dos trayectorias de procesos gaussianos. Uno es ruido blanco y el otro es un proceso heterocedstico.
1
R. Crujeiras
Trayectorias
2 2 0 1 0 1
100
200
300
400
500
Figura 1: Trayectorias de dos procesos Gaussianos. Negro: rudo blanco. Azul: rudo heterocedstico.
1.2.
Recordemos qeu, para un determinado instante t, Xt representa el estado del proceso en dicho instante. Segn el tipo de valores que pueda tomar cada Xt , tendremos procesos con espacio de estados discreto y continuo. Atendiendo a esta clasicacin de los estados, y a los distintos tipos de espacios de parmetros que podemos encontrar, en el Cuadro 1 se muestra un esquema bsico de clasicacin de procesos, con algunos ejemplos importantes que estudiaremos a lo largo del curso. Sin embargo, estos no son los nicos tipos de procesos estocsticos, y recientemente han surgido los procesos estocsticos funcionales (espacio de estados funcional o tambin espacio de parmetros funcional). Espacio discreto Tiempo discreto Cadena de Markov Proceso de Poisson Tiempo continuo Cadena de Markov en tiempo continuo Cuadro 1: Clasicacin de procesos y ejemplos, segn tiempo y espacio de estados. Proceso continuo Espacio continuo Sucesin de variables aleatorias continuas
R. Crujeiras
En los siguientes temas nos centraremos en el estudio de las Cadenas de Markov (en tiempo discreto y continuo) y de los Procesos de Poisson. A modo de ejemplo, presentaremos algunos caractersticas de los procesos de Poisson y de procesos derivados, que pueden resultar de utilidad para los trabajos prcticos.
2. Proceso de Poisson
Un variable aleatoria Y se dice que sigue una distribucin Exponencial de parmetro > 0 si su densidad es:
f (y ) = ey I{y 0},
donde I{} es la funcin indicadora. La correspondiente funcin de distribucin viene dada por
F (y ) = 1 ey .
Con esta parametrizacin de la densidad, tenemos que E(Y ) = 1 y Var(Y ) = 2 . La distribucin exponencial no tiene memoria, es decir: para cualquier s, t 0:
(2.1)
El Proceso de Poisson con tasa o intensidad es un proceso estocstico {Nt , t 0} que se caracteriza por las siguientes propiedades: i) N0 = 0 ii) Fijados t1 . . . tn , los incrementos Nt2 Nt1 ,. . .,Ntn Ntn1 son variables aleatorias independientes. iii) Fijados dos instantes s < t, el incremento Nt Ns tiene distribucin de Poisson de parmetro
Con las condiciones (i)-(iii) quedan caracterizadas las distribuciones nito dimensionales (o marginales) de {Nt , t 0}.
R. Crujeiras
2.1.
Procesos de renovacin
La suposicin de que los tiempos entre eventos sigue una distribucin Exponencial puede no resultar realista en muchas aplicaciones, por lo que ser de utilidad denir una clase de procesos que tienen al de Poisson como caso particular. Esta clase ms general de procesos se denominan Procesos de renovacin.
Supongamos el siguiente ejemplo: tenemos una bombilla que se funde y es reemplazada inmediatamente por un encargado. Denotemos por ti el tiempo de vida de la bombilla i-sima y supongamos que P(ti t) = F (t), donde F es una funcin de distribucin con F (0) = 0. Si comenzamos con una bombilla (nmero 1) en un instante 0 y cada bombilla es reemplazada cuando se funde, entonces Tn = t1 + . . . + tn denota el tiempo al que la nsima bombilla se funde y
N (t) = m ax{n : Tn t}
es el nmero de bombillas que se han reemplazado en el instante t. El caso particular en que los tiempos entre incidencias siguen una distribucin F Exp() da lugar a un Proceso de Poisson
2.2.
Adems de la falta de realismo que conlleva el suponer una distribucin Exponencial para los tiempos entre eventos, otro inconveniente viene de suponer que el proceso es homogneo, en el sentido de que la tasa de ocurrencia de eventos se mantiene constante. Esta suposicin se puede relajar deniendo {N (t), t 0} un Proceso de Poisson no homogneo con intensidad (t) si verica: i) N (0) = 0. ii) N (t) N (s) Pois(
t s (r )dr ),
2.3.
Sea N (t) un proceso de Poisson y asociemos a cada evento o incidencia i una variable Yi (por ejemplo, Yi puede denotar el coste de una reparacin). Consideremos el proceso S (t) tal que S (0) = 0 y
S (t) = Y1 + . . . + YN (t) S (t) representa el coste acumulado en el tiempo t y es un Proceso de Poisson compuesto. Este
tipo de procesos son comunes en teora de riesgos (ciencias actuariales). R. Crujeiras 7 Mster en Tcnicas Estadsticas
0.4
0.2
0.0
10
20
0 1
10
15
Time
R. Crujeiras
Denicin 3.1. Un proceso estocstico {Bt , t 0} se denomina movimiento Browniano (o proceso de Wiener) si verica: i) B0 = 0 ii) Para todo 0 t1 . . . tn , los incrementos Btn Btn1 , . . . , Bt2 Bt1 son variables aleatorias independientes. iii) Si 0 s < t, el incremento Bt Bs tiene distribucin N (0, t s). El movimiento Browniano es un proceso Gaussiano, ya que la distribucin del vector aleatorio
(Bt1 , . . . , Btn ) para 0 < t1 < . . . < tn es Normal, ya que este vector se puede obtener como transformacin lineal de (Bt1 , Bt2 Bt1 , . . . , Btn Btn1 ) que tiene distribucin Normal (sus componentes son Normales independientes).
E(Bt ) = 0,
t,
si
s t.
{a1/2 Bat , t 0}
es tambin un movimiento Browniano. A partir del Movimiento Browniano, se denen otros procesos como: - Puente Browniano: B (t) tB (1), para 0 t 1. - Proceso de Ornstein-Uhlenbeck: et B (e2t ), para < t < . - Proceso de It:
t 0 (t)dt
t 0 (t)dB (t),
para 0 t.
R. Crujeiras
4. Apndice
4.1. Conceptos bsicos de probabilidad
Un espacio de probabilidad asociado a un experimento aleatorio es un triple de la forma (, A, P), donde: i) es el espacio muestral (el espacio de todos los posibles resultados del experimento). ii) A es la lgebra generada por los sucesos de , que verica: - A. - Si A A, entonces A A. - Si A1 , . . . , An A, entonces n i=1 Ai A. iii) P es una funcin que a cada A A le asocia un nmero P(A) que: - 0 P(A) 1. - P() = 1. - Para cualquier conjunto A1 , . . . , An tales que Ai Aj = si i = j , se verica: P(n i=1 Ai ) =
n i=1 P(Ai ).
Los elementos en A se denominan sucesos y P es una medida de probabilidad. Adems, se puede deducir que: - P(A B ) = P(A) + P(B ) P(A B ) - P(A) = 1 P(A) - A B P(A) P(B )
4.2.
Una variable aleatoria es una funcin medible X : R. Es decir, para cualquier conjunto de Borel
B R, la imagen inversa verica que X 1 (B ) F . Si denotamos por B la lgebra de Borel en R, una variable aleatoria X induce una medida de probabilidad sobre R, dada por PX = P X 1 ,
es decir:
fX (x)dx,
10
a < b.
Mster en Tcnicas Estadsticas
R. Crujeiras
Si una variable aleatoria X admite unha funcin de densidad, entonces X es absolutamente con-
= 1. Diremos que una variable aleatoria X es discreta si toma un nmero nito (o innito numerable) de valores, denotados por xk . En ese caso, podemos
tinua. Adems, tenemos que denir una funcin de masa de probabilidad:
fX (x)dx
pk = P(X = xk ).
Se dene la funcin de distribucin de una variable aleatoria X como:
l m FX (x) = 0,
l m FX (x) = 1.
Adems, si la variable aleatoria X es absolutamente continua con densidad fX , entonces se verica que:
x
FX (x) =
fX (y )dy,
FX (x) = fX (x).
4.3.
Medidas caractersticas
La esperanza matemtica o valor esperado de una variable aleatoria X se dene como la integral de X con respecto a la medida de probabilidad en el espacio donde est denida. Es decir:
E(X ) =
X ( )dP( ).
La esperanza matemtica tambin se puede escribir en trminos de la funcin de distribucin, de tal manera que la integral se escribe sobre R:
E(X ) =
R
En el caso de variables absolutamente continuas se tiene E(X ) = variables discretas con valores xk , la esperanza ser E(X ) =
una funcin Borel-medible y E(|g (X )|) < , se puede calcular la esperanza de la transformacin g(X ):
E(g(X )) =
g(X ( ))dP( ) =
g(x)dPX (x).
Una variable aleatoria X se dice que tiene momento de orden p 1 nito si E(|X |p ) < . El momento de orden p viene dado por mp = E(X p ).
R. Crujeiras
11
Si X e Y son variables dos variables aleatorias con momento de orde 2 nito, entonces se dene la covarianza entre X e Y como: Cov(X, Y ) = E [(X E(X ))(Y E(Y ))] = E(XY ) E(X )E(Y ). La funcin caracterstica de una variable aleatoria X se dene como:
X (t) = E(eitX ).
Los momentos de una variable aleatoria se pueden calcular a partir de las derivadas de su funcin caracterstica, evaluadas en t = 0:
mp =
1 (p) (t) ip X
t=0
4.4.
P(A B ) = P(A)P(B )
La probabilidad de un suceso A condicionada a otra suceso B , con P(B ) > 0 se dene como:
P(A|B ) =
P(A B ) . P(B )
Entonces, A y B son independientes si y slo si P(A|B ) = P(A), suponiendo que B tenga probabilidad no nula. La probabilidad condicionada dene una nueva medida de probabilidad en la
lgebra F concentrada en B . La esperanza matemtica de una variable aleatoria X con respecto a la probabilidad condicional (esperanza condicional) es:
E(X |B ) =
1 E(X 1B ), P(B )
donde 1{} es la funcin indicadora, que en este caso restringe X al conjunto B . Si dos variables X e Y son independientes y tienen media nita, entonces su producto tambin tiene media nita y viene dada por:
R. Crujeiras
12
4.5.
Algunas desigualdades
Desigualdad de Tchebychev: si > 0,
P(|X | > )
Desigualdad de Schwartz:
1 E(|X |p ) p
E(XY )
Desigualdad de Hlder:
E(X 2 )(Y 2 )
E(|X |p ).
4.6.
l m Xn ( ) = X ( )
para todo / D , donde P(D ) = 0. Convergencia en probabilidad. Una sucesin de variables aleatorias Xn converge en probabilidad a una variable aleatoria X , Xn X si
n P
l m P(|Xn X | > ) = 0,
> 0.
l m E(|Xn X |r ) = 0.
Se tienen las siguientes relaciones entre los distintos tipos de convergencia: La convergencia en media de orden r implica la convergencia en probabilidad. Aplicando la desigualdad de Tchebychev, se tiene que:
P(|Xn X | > )
1 E(|Xn X |p ). p
La convergencia casi seguro implica la convergencia en probabilidad. La convergencia en probabilidad implica la convergencia casi seguro de una subsucesin de variables. La convergencia casi seguro implica la convergencia en media de orden r 1 si las variables
Xn son acotadas en valor absoluto por una variable no negativa Y con momento de orden r
nito (aplicacin del teorema de convergencia dominada). La convergencia en probabilidad implica la convergencia en distribucin. Si hay convergencia en distribucin a una constante, entonces tambin se da la convergencia en probabilidad.
4.7.
Sea {Xn , n 1} una sucesin de variables aleatorias independientes e idnticamente distribuidas tales que = E(X1 ) < . Entonces:
X1 + . . . + Xn a.s. . n
4.8.
N (0, 1.)
R. Crujeiras
14