Escolar Documentos
Profissional Documentos
Cultura Documentos
Mogens Bladt
20/01/2004
Indice
1. Modelos en seguros
3. Ordenando riesgos
4. Procesos de Poisson
13
6. Teora de Renovaci
on
15
7. Ecuaciones de renovaci
on
17
8. Procesos de renovaci
on retrasados y estacionarios
21
9. Procesos de renovaci
on terminales
24
25
11.Martingalas
35
39
13.Cambio de medida
42
14.Aproximaci
on de Cram
erLundberg
46
48
16.Cadenas de Markov
55
67
75
80
20.Hacia modelos m
as realistas
83
2
21.Distribuciones subexponenciales
89
1.
Modelos en seguros
Rt = u + pt
Xn .
n=0
2.
Definici
on 2.1 Una funcion de utilidad es una funcion u : [a, b] IR creciente y concava para algunos constante a > b.
Funciones de utilidad tratan de medir la percepcion de riqueza como complemento a la escala lineal monetaria. Por ejemplo una perdida de $1000 no
es lo mismo para rico y pobre. El concepto de funcion de utilidad tambien
puede explicar como es posible que ambos partes en un trato de seguro (entre
aseguradora y asegurado) aparentemente ganan con dicho contrato.
Considera un riesgo X con Rfuncion de distribucion F y densidad f . La
perdida esperada es de IEX = 0 xf (x)dx. Si la persona que esta expuesto
al riesgo X tiene capital W , entonces la utilidad esperada es de
IE(u(W X)) =
3.
Ordenando riesgos
Definici
on 3.1 Sean {Xt }tT y {Xt0 }tT dos procesos estocasticos definidos
sobre el mismo espacio de probabilidad (, F, IP). Se dice que el par (Xt , Xt0 )
D
es un acoplamiento si Xt = Xt0 t T , donde T es un conjunto de ndice
(normalmente T = IN, T = IR o T = IR+ ).
Definici
on 3.2 Sean X1 , X2 dos variables aleatorios que representan riesgos
(perdidas potenciales) y que tienen funciones de distribucion respectivamente
D
X1 X2
1, X
2 ) de (X1 , X2 ) tal que X
1 X
2
si y solo si existe un acoplamiento (X
1 () X
2 ().
puntualmente, i.e. : X
1 X
2 puntualmente. Entonces {X
2
Demostraci
on. Supongamos que X
1 x} y por lo tanto F2 (x) F1 (x) implicando por definicion que
x} {X
D
X 1 X2 .
D
X1 Y1 y X2 Y2 = X1 + X2 Y1 + Y2 .
1 , Y1 ) y (X
2 , Y2 ) de (X1 , Y2 ) y (X2 , Y2 ) respectivaToma dos acoplamientos (X
1 + X
2 Y1 + Y2 y
mente tal que X1 Y1 y X2 Y2 . Entonoces es claro que X
D
D
como X1 +X2 = X
1 + X2 y Y1 +Y2 = Y1 + Y2 entonces (X1 + X2 , Y1 + Y2 ) es un
D
1 +X
2 Y1 +Y2 .
acoplamiento de (X1 +X2 , Y1 +Y2 ) y se obtiene otra vez que X
Ahora supongamos que tenemos dos procesos de riesgo Rt1 y Rt2 con los
mismos tiempos de arribo pero con distribuciones de los tama
nos de los
reclamaciones B1 y B2 respectivamente, donde B2 es mas riesgoso que B1 .
Sean X1 , ..., Xn , ... las reclamaciones que corresponden a Rt1 y Y1 , ..., Yn , ... las
D
1 < 0|R
1 = u)
= IP( nf R
t
t
0t<
2 < 0|R
2 = u)
IP( nf R
t
t
0t<
= (u).
Hemos demostrado el siguiente
D
Z
0
2 (x)dx
B
Z
0
1 (x)dx =
B
Z
0
2 (x) B
1 (x)dx
B
Se dice que B1 B2 si
Z
x
1 (y)dy
B
Z
x
2 (y)dy
B
x.
4.
Procesos de Poisson
Se considera los tiempos de arribo de las reclamaciones 0 < S1 < S2 < ...
y sea N (t) el n
umero de reclamaciones en (0, t], i.e.
N (t) = sup{n IN|Sn t} =
X
n=0
1{Sn t}.
Entonces {N (t)}t0 es un proceso estocastico y se refiere a este tipo de proceso como un proceso de conteo. Tambien vamos a usar la notacion
N (A) =
1{Sn A}
n=0
o(h)
h
=0
Definici
on 4.3 N = {N (t)}t0 es un proceso de Poisson con intensidad
> 0 si
(i) N tiene incrementos independientes y estacionarios.
(ii) IP(N (h) = 0) = 1 h + o(h).
(iii) IP(N (h) = 1) = h + o(h).
Sigue automaticamente que IP(N (h) 2) = o(h). En lo que sigue se usara
notacion como IP(N (t, t + dt) = 1) = dt significando IP(N (t, t + h) = 1) =
h + o(h) cuando h 0. Defina T1 = S1 , T2 = S2 S1 , ...., Tn = Sn Sn1 , ...
los tiempos entre llegadas.
Teorema 4.1 Las siguiente propiedades son equivalentes:
(i) {N (t)}t0 es un proceso de Poisson con intensidad .
(ii){N (t)}t0 tiene incrementos independientes y N (t) Po(t) para todo
t.
9
n=0
p0n (t)z n
G(z, t) =
t
n=0
n=0
= G(z, t) + zG(z, t)
= (z )G(z, t).
La condicion inicial es G(z, 0) = IE(z N (0)) = 1 dando la solucion
G(z, t) = exp((z )t).
Esto es justamente el funcion generador IE(z N ) de una variable Poisson con
parametro t (checa lo). Entonces N (t) es Poisson con parametro t. Este
implica (ii) (los incrementos independientes sigue por suposicion de (i)).
(ii) = (iii): Primero demostramos que {N (t)}t0 tiene incrementos estacionarios. Como N (t + h) Po((t + h)) tenemos
e(z)(t+h) = IE z N (t+h)
10
dando
k=1
n1
Y
(tk sk )
k=1
Ahora,
Z tn
ex dx =
sn
1 sn
(e
etn )
dando
n
n1
Y
Z tn
k=1
sn
(tk sk )
Z t1
s1
...
Z tn1 Z tn
sn1
sn
eyn dyn
Para calcular la densidad de (T1 , T2 , ..., Tn ) hacemos una transformacion estandar. Nota que si g : (S1 , S2 , ..., Sn ) (S1 , S2 S1 , ..., Sn Sn1 ) entonces
g es una transformacion lineal dado que
1
0
0 0 ... 0
1 1
0 0 ... 0
0 1 1 0 ... 0
0
0 1 1 ... 0
.
.
. . ... .
0
0
0 0 ... 1
0
0
0
0
.
1
S1
S2
S3
S4
.
Sn
S1
S2 S1
S3 S2
S4 S3
.
Sn Sn1
T 1 =
1
1
1
1
.
1
0
1
1
1
.
1
0
0
1
1
.
1
0
0
0
1
.
1
...
...
...
...
...
...
0
0
0
0
.
1
0
0
0
0
.
1
El denominador es 1, y
f(T1 ,...,Tn ) (x1 , ..., xn ) = f(S1 ,...,Sn ) (x1 , x1 + x2 , ...., x1 + ... + xn )
para todo x1 , x2 , ..., xn 0. Insertando obtenemos
f(T1 ,...,Tn ) (x1 , ..., xn ) = n exp((x1 + ... + xn )) =
n
Y
exk
k=1
Z h
0
Z h
= heh
= h(1 h + o(h))
= h + o(h).
Los incrementos estacionarios es obvio porque la distribucion exponencial no
tiene memoria. Los incrementos independientes sigue por parte de la falta de
memoria y por parte por independencia de los variables T1 , T2 , .... Q.E.D.
5.
Teorema 5.1 (Desminucion) Sea {N (t)}t0 un proceso de Poisson con intensidad . Sea S1 , S2 , ... los tiempos de arribos del proceso. Construye un
nuevo proceso de la siguiente forma. Con probabilidad p el arribo a tiempo
Si sea un arribo del nuevo proceso tambien y con probabilidad 1 p el arribo
sera eliminada. El proceso de conteo que resulta es un Procesos de Poisson
con intensidad p.
Demostraci
on. La probabilidad de un arribo del nuevo proceso en [t, t+dt)
es de pdt.
Q.E.D.
Teorema 5.2 (Superposicion) Sean {M (t)}t0 y {N (t)}t0 dos procesos de
Poisson independientes con intensidades and . Entonces el proceso {M (t)+
N (t)}t0 es un proceso de Poisson con intensidad + .
Demostraci
on. Los arribos del proceso {M (t) + N (t)}t0 es la union de los
arribos de cada proceso. La probabilidad que hay un arribo en [t, t + dt) es la
probabilidad que hay un arribo en {M (t)}t0 o en {N (t)}t0 las probabilidades de las cuales son dt y dt respectivamente. La probabilidad que hay arribos en ambos procesos durante [t, t+dt) es de dt dt = (dt)2 = o(dt) = 0.
Entonces la probabilidad de un arribo es de dt + dt. Un argumento similar
aplica al caso de ning
un arribo y mas que dos arribos. Finalmente es claro que
{M (t) + N (t)}t0 tiene incrementos independientes y estacionarias. Q.E.D.
13
Q.E.D.
Teorema 5.4 (Aleatoriedad II) Considere un proceso de Poisson con intensidad . Condicionalmente de N (t) = n, los tiempos de arribo son independientes y uniformemente distribuidos sobre [0, t].
Demostraci
on. Aqu utilisamos la propiedad que los tiempos entre arribos
son independientes y exponencialmente distribuidos. Sea 0 < s1 < s2 < .... <
sn < t. Entonces
IP(S1 (s1 , s1 + ds1 ], ..., Sn (sn , sn + dsn ]|N (t) = n) =
IP(S1 (s1 , s1 + ds1 ], ..., Sn (sn , sn + dsn ], Sn+1 > t)
IP(N (t) = n)
IP(S1 (s1 , s1 + ds1 ], ..., Sn Sn1 (sn sn1 , sn sn1 + dsn ], Sn+1 Sn > t sn )
=
IP(N (t) = n)
s1
(s2 s1 )
(sn sn1 )
e
e
e
ds1 ds2 dsn e(tsn )
=
n
(t) t
e
n!
n!
= n ds1 ds2 dsn .
t
Ahora, 1/t es la densidad de una distribucion uniformemente distribuido sobre [0, t , as que 1/tn es la densidad simultaneo de n variables independientes
14
y uniformes sobre [0, t]. Dado n variables aleatorios uniformes, hay n! maneras distintos de seleccionarlas, y solamente uno de ellos los selecciona en
orden creciente. Todas la ordenes son igual de probables as que n!/tn es
la densidad de is the n variables uniformes ordenados en orden creciente.
Q.E.D.
El resultado anterior se puede utilisar para simular un proceso de Poisson.
Supongamos que qeuremos simular un proceso de Poisson con intensidad
sobre el intervalo [0, t]. Entonces podemos seguir los siguiente dos pasos.
1. Genera n
umero n Po(t).
2 Genera n
umeros uniformes u1 , u2 , ..., un sobre [0, t].
Entonces los puntos u1 , u2 , ..., un son puntos de arribo en un proceso de Poisson con intensidad .
6.
Teora de Renovaci
on
nIP(N (t) = n)
n0
=
=
X
n1
nIP(N (t) = n)
IP(N (t) n)
n=1
15
=
=
X
n=1
IP(Sn t)
F n (t).
n=1
(n+m)
Z t
F m (t x)dF n (x)
0
m
(t)F n (t)
F (mr+k) (t)
F (r+((m1)r+k)) (t)
F r (t)F ((m1)r+k) (t)
...
[F r (t)]m F k (t).
F n (t)
n=1
16
X
r
X
F (mr+k) (t)
m=0 k=1
r
X
k
k=1
m=0
F (t)
[F r (t)]m < .
Q.E.D.
7.
Ecuaciones de renovaci
on
Z
0
Z t
0
[1 + U (t x)] f (x)dx
= F (t) +
Z t
U (t x)f (x)dx
= F (t) +
Z t
U (t x)dF (x)
= F (t) + F U (t),
donde f es la densidad de T1 . Entonces U satisface la ecuacion
U = F + F U.
Este es un ejemplo de una ecuacion de renovacion. El argumento utilzando
el condicional en T1 se conoce como un argumento de renovacion.
En general una ecuacion de renovacion es una ecuacion de la forma
A(t) = a(t) +
Z t
Teorema 7.1 Sea a(t) una funcion acotada sobre intervalos acotadas. Entonces hay una y sola una solucion A(t) que esta acotada sobre intervalos
acotadas a la ecuacion
A(t) = a(t) +
Z t
Z t
Demostraci
on. Primero demostramos que A(t) = a(t) +
esta acotada sobre intervalos acotadas. Este sigue de
sup A(t) =
0tT
sup
a(t) +
Z t
sup a(t) +
Z T
0
0tT
0tT
Rt
sup a(t) (1 + U (T )) ,
0tT
a (t)
n=1
= a(t) + F a(t) +
= a(t) + F a(t) +
X
n=2
a (t)
!
n=1
= a(t) + F A(t).
Al final demostramos unicidad. Supongamos que exista otra solucion B(t) que
esta acotada sobre intervalos acotados. Entonces B satisface B = a + F B.
Restando
|A(t) B(t)| = |a(t) + F A(t) a(t) F B(t)|
18
= |F (A B)(t)|
= ...
= |F n (A B)(t)|
Z t
Z 0
xdF (x) +
Z t
= IE(T1 ) +
Z t
Z t
0
= IE(T1 ) (1 + U (t)) ,
i.e. hemos demostrado que
Teorema 7.2
IE(SN (t)+1 ) = IE(T1 ) (1 + U (t)) .
Con este teorema podemos calcular el comportamiento en el lmite de U (t).
19
lm
Demostraci
on. Como t < SN (t)+1 tenemos
t < IE(SN (t)+1 ) = (1 + U (t))
dando
U (t)
1 1
>
t
t
y por lo tanto
U (t)
1
.
t
t
Tic
Ti si Ti c
c si Ti > c
Ahora considere el proceso de renovacion que tiene los Tic s como tiempos
entre arribos. Llamamos a N c (t) el proceso de conteo correspondiente. Como
los Ti s son acotados por c podemos obtener la desigualdad opuesta SN c (t)+1
t + c dando
t + c IE(SN c (t)+1 ) = c (1 + U c (t)),
donde c es la media de Tic y U c la funcion de renovacion correspondiente al
proceso de renovacion acotado. Primero,
c
Z
0
IP(Tic
> x)dx =
Z c
0
IP(Xic
> x)dx =
Z c
(1 F (x))dx,
t
20
c
1 .
c
Tomando lmite,
lm sup
t
1
U (t)
c.
t
Pero
lm c = c
lm
c
Z c
U (t)
1
lm c .
c
t
(1 F (x))dx =
(1 F (x))dx =
por lo tanto
lm sup
t
1
U (t)
.
t
8.
Q.E.D.
Procesos de renovaci
on retrasados y estacionarios
Este situacion ocurre cuando el tiempo hasta el primer arribo tiene una
distribucion distinto a los demas. Un puede considerar esta situacion como el
instante en que llega uno para observar al proceso de renovacion no coincide
con un arribo, y uno llega tarde. Entonces el primer arribo va tener una
distribucion distinto a los demas salvo en el caso donde los tiempos entre
arribos tiene una distribucion exponencial.
Sea T1 G y T2 , T3 , ... F . Se supone que todas las variables Ti son
independientes. Sea S0 = 0 y Sn = T1 + ... + Tn . Sea N (t) el n
umero de
arribos del proceso retrasado en [0, t],
UD (t) = IE(N (t))
y a U reservamos para ser la funcion de renovacion del proceso noretrasado
correspondiente, i.e.
U (t) =
n=1
21
F n (t).
Z
0
Z t
0
Z t
= G(t) +
Z t
U (t x)dG(x)
= G(t) +
Z t
Z t
UD (t x)dF (x).
Z t
0
UD (t x)dF (x)
Z t
c (t y)F (dy)
22
o
G(t) = ct
Z t
c (t y)F (dy).
c (t y)F (dy) = [c (t
y)F (y)]t0
+c
Z t
F (y)dy
se obtenga que
G(t) = c
Z t
(1 F (y))dy.
G(t) =
1Zt
(1 F (x))dx.
0
1
uD (t),
23
9.
Procesos de renovaci
on terminales
Z x
Q.E.D.
24
10.
Rt = u + pt
Yj ,
j=0
donde {N (t)} es un proceso de Poisson con intensidad y Yj s son reclamaciones i.i.d. con distribucion com
un F . Tomamos Y0 = 0 as que si N (t) = 0
no se restan reclamaciones.
Estamos interesados en la probabilidad de ruina,
(u) = IP( nf Rt < 0 | R0 = u).
0t<
St = u Rt =
Yj pt.
j=0
Entonces
(u) = IP(sup St > u).
t>0
Sea + = + (1) = nf{t > 0|St > 0} el primer tiempo {St } cruzara 0.
Obviamente St solamente puede cruzar el nivel cero en cuando llega una
reclamacion. La cantidad que St supera cero es de S+ . La distribucion de S+
es defectuosa porque + puede ser infinta (si la tendencia de St es negativo).
Sea G+ la funcion de distribucion de S+ :
G+ (x) = IP(S+ x, + < ), ||G+ || = IP(+ < ).
Iniciando desde S+ , las llegadas siguen siendo en proceso de Poisson y las
reclamaciones siguen siendo i.i.d. F . Ahora consideramos la primera vez
que St cruzara nivel S+ . Formalmente sea + (n) = nf{t > + (n 1)|St >
S+ (n1) }. Entonces {S+ (n+1) S+ (n) }n1 es un proceso de renovacion (posiblemente terminal) con distribucion de tiempos entre llegadas G+ .
25
St
u
S+
t
+
Gn
+ (x).
n=0
por H
= x dH(x) (lo
cual es igual a 1 H(x) en el caso que H no es defectuosa).
Teorema 10.1 La probabilidad de ruina (u) satisface la siguiente ecuacion
de renovacion
+ (u) + G+ (u).
(u) = G
Demostraci
on. La probabilidad de ruina es igual a IP(M > u). Ahora si
M > u es porque uno de los S+ (n) > u. Distinguimos entre si es S+ que es
26
Z u
Z0u
0
Su := St Stu = Su .
Demostraci
on.
Su = St Stu
N (t)
N (tu)
Yj pt
j=0
Yj p(t u)
j=0
N (u)
D
Yj pu
j=0
= Su .
Q.E.D.
Definici
on 10.1
R+ (A) = IE
Z +
0
I{St A}dt.
27
Demostraci
on. Primero notamos que
R+ (A) = IE
Z
0
Z
0
IP(St A, + > t) =
=
=
=
=
=
IP(St A, Su 0, 0 u t)
IP(St A, Su 0, 0 u t)
IP(St A, St Stu
0, 0 u t)
IP(St A, St Stu 0, 0 u t)
IP(St A, St Stu 0, 0 u t)
IP(St A, St Su 0, 0 u t)
Entonces
R+ (A) =
Z
0
= IE
Z
0
I{St A, St Su 0, 0 u t}dt.
por G(A)
= A dG(x) = IP(Yn A).
+ es la restriccion de R+ F a (0, ).
Lema 10.3 G
+ (A) = IP(S+ A, + < ) y
Demostraci
on. Estamos interesados en G
por lo tanto estudiar el evento {S+ A} para A (0, ). Dado {Su }0u<t ,
St esta conocido y una reclamacion Y contribuyera al evento {S+ A} si
hay un salto a tiempo
t tal que St +Y A. Como St es fijo, la probabilidad
R
es de I{t + } I{x A St }dF (x) = I{t + }F (A St ). Como el
28
proceso de arribo es Poisson, la probabilidad que hay una llegada en [t, t+dt)
es de dt.
+ (A) = IP(S+ A, + < )
G
=
Z
0
= IE
Z
0
= IE
Z
0
= IE
Z +
0
dt
g(y)dR+ (t) = IE
Z +
0
g(St )dt.
Z +
0
g(St )dt =
Z 0
g+ (x) = (1 F (x)).
p
Demostraci
on.
G+ (x + dx) G+ (x) =
Z 0
1
(F (x + dx y) F (x y))I{y < 0} dy
p
Z0
=
IP(Y (x y, x + dx y])dy
p
Z0
=
f (x y)dx dy
p
29
Z
f (u)du dx
p x
=
(1 F (x))dx,
p
Q.E.D.
< 1.
Demostraci
on. La densidad de g+ del proceso escalonado ascendiendo esta
dado por
g+ (x) = (1 F (x)) = ex = ex .
p
p
Entonces
Z
g+ (x)dx = .
||G+ || =
0
n
g+
(x).
n=1
X
n=1
30
n
g+
(u)
= (1 )
()n
n=1
= (1 )eu
un1 u
e
(n 1)!
(u)n1
n=1 (n 1)!
= (1 )eu eu
= ( )e( p )u .
p
Entonces
(u) = IP(M > u) =
Z
u
fM (s)ds = e(/p)u .
Q.E.D.
es
Z u+ps
Sustituyendo t = u + ps,
Z(u) =
tu
p
Z t
1
Z(t x)dF (x) dt
p
Z up pt Z t
=
e e
Z(t x)dF (x)dt
p u
0
dando
u
e p Z(u) =
Z pt Z t
e
Z(t x)dF (x)dt.
p u
0
31
u
p
up Z u
0
Z (u) Z(u) = e
Z(u x)dF (x).
p
p
0
Entonces
Z 0 (u)
o
Z
Z(u x)dF (x)
Z(u) =
p
p 0
Z
Z (u) = Z(u)
Z(u x)dF (x)
p
p 0
0
resultando en
Z(t) Z(0) =
Z t
0
Z tZ
Z(u)du
Z(u x)dF (x)du.
p
p 0 0
Defina
( R ty
h(y) =
Z(u)du si y < t
.
0
si y t
Entonces
Z(t) Z(0) =
=
=
=
=
=
=
=
Z tZ
1[0,u] (x)Z(u x)dF (x)du
h(0)
p
p 0 0
Z Z t
Z(u x)dudF (x) (Fubini)
h(0)
p
p 0 x
Z
h(x)dF (x)
h(0)
p
p 0
Z
h(x)F 0 (x)dx
h(0)
p
p 0
Z
h(0) +
h(x)F 0 (x)dx (F = 1 F )
p
p 0
Z
[h(x)F ]0
h (x)F (x)dx
h(0) +
p
p
0
Z 0
h (x)F (x)dx
p 0
Zt
Z(t x)(1 F (x)dx.
p 0
32
Entonces
Z(t) = Z(0) +
Z t
0
Z(t x) (1 F (x))dx.
p
Q.E.D.
Rt = u + pt
Yi
i=1
tenemos que
N (t)
Yi
IE(Rt ) = u + pt IE
i=1
= u + pt
= u + pt
X
n=0
IE
n
X
i=1
nIP(N (t) = n)
n=1
= u + pt t
= u + (p )t
as que Rt tiene pendiente positivo si p > 0, i.e. < 1.
El coeficiente o carga de seguridad esta definido por
=
p
1
= 1.
Entonces cuando < 1, > 0 y para poder hacer negocio rentable tenemos
que tener > 0.
Ejemplo 10.1 En seguro de vida se maneja procesos de riesgo con sumas
de riesgos negativos. Considere un seguro de anualidades que pagan una pensiones de tasa p a los asegurados. En cuanto se fallece uno de los asegurados,
la esperanza de lo que hubiera pagado la compa
na si no se hubiera muerto
el asegurado se puede considerar como una reclamacion negativo. Entonces
el proceso de riesgo es de
N (t)
Rt = u pt
X
i=1
33
Yi ,
donde Y1 , Y2 , ... son negativos F y p > 0. Sea (u) otra vez la probabilidad
ruina para este proceso. Como solamente puede haber ruina cuando no se
muere un asegurado, i.e. entre arribos, se sigue por los incrementos independientes y estacionarias del proceso que (u) = (u x)(x). Efectivamente,
hay ruina si y solo i el proceso de de riesgo Rt va desde u a x eventualmente
y luego desde x a cero eventualmente. La probabilidad de lo primero es de
(u x) y por lo u
ltimo de (x). Entonces
(u) = eru
para alg
un r > 0. Para calcular r, consideramos la probabilidad de supervivencia Z(u) = 1 (u). Condicionando en si hay un arribo en [0, dt) o no se
obtenga
Z(u + pdt) = (1 dt)Z(u) + dt
Z 0
0
Z(u z)dF (z).
Z (u) = Z(u) +
p
p
Sabemos que la forma de la solucion es de Z(u) = 1 ert . Entonces
re
ru
Z0
ru
= (1 e ) +
(1 er(uz) dF (z)
p
p
resultando en
Z 0
rp
erz dF (z)
= 1
o
Z 0
r(p)
=
erz dF (z) 1.
R0
erz dF (z) y
r(p)
34
11.
Martingalas
entonces {Xn }nIN converge c.s. a un limite integrable X , i.e. IE|X | < .
Si
sup IE(Xn2 ) <
n1
35
Definici
on 11.2 Un tiempo de paro con respecto a la filtracion Fn es una
variable aleatoria tomando valores en IN {} tal que { = n} Fn para
todo n.
Teorema 11.2 (Teorema de paro opcional)
Si {Xn }nIN es una martingala y un tiempo de paro acotada, entonces
IE(X ) = IE(X0 ).
Demostraci
on. n0 para alguna constante. Entonces
n0
X
IEX = IE
1{ = n}Xn
n=0
=
=
=
=
n0
X
n=0
n0
X
n=0
n0
X
n=0
n0
X
IE (1{ = n}Xn )
IE (IE(Xn0 |Fn )1{ = n})
IE (IE(1{ = n}Xn0 |Fn ))
IE (1{ = n}Xn0 )
n=0
= IE(Xn0 )
= IE(X0 )
Q.E.D.
Teorema 11.3 Si {Xn }nIN es una martingala y un tiempo de paro lo cual
es finito c.s. y tal que
1. IE|X | <
2. lmn IE (Xn 1{ n}) = 0.
Entonces
IE(X ) = IE(X0 ).
36
Demostraci
on. Defina n = mn(, n) = n. Entonces n son tiempos
de paro acotados (por n). Entonces por Teorema 11.2 IE(Xn ) = IE(X0 ).
|X 1{ n}| esta dominado por |X | el cual es integrable por 1. Entonces por convergencia dominada y porque es finito c.s. tenemos que
lmn IE(X 1{ n}) = IE(X ). Entonces
IE(X0 ) =
=
=
lm IE(Xn )
= IE(X )
por 2. y lo anterior.
Q.E.D.
X
k=0
X
k=0
X
k=0
IE (Zk 1{ k})
IE (IE (Zk 1{ k}|Fk1 ))
IE (1{ k}IE (Zk |Fk1 ))
CIP( k)
k=0
= C
k=0
Entonces IE(W ) < y por lo tanto IE(|X |) < . Ademas como la suma
converge los terminos IE(Zk 1{ k}) 0 cuando k . Pero
|IE(Xk 1{ > k})|
Q.E.D.
=
=
12.
Demostraci
on. Usamos el teorema de paro opcional para el tiempo de
paro acotada (u) T para un T fijo. Como S0 = u R0 = 0 es claro que
exp(S0 ) = 1 y por paro opcional entonces
1 = IE eS (u)T .
Ahora
IE eS (u)T
Q.E.D.
Nt
X
Yi pt,
i=0
40
IE(e
Nt
X
) = IE exp (
!!
Yi pt)s
i=0
= e
pst
Nt
X
IE exp (
!!
Yi )s
i=0
= epst
n=0
(t) t
e
FY (s)n
n!
n=0
= exp(pst t + FY (s)t)
= exp((s)t),
= epst
IE eSt+u |Ft
= eSt IE e(St+u St )
= eSt IE eSu
= eSt ,
como
Nt+u
St+u St =
Yi p(t + u) (
i=0
Nt
X
i=0
Yi pt)
Nu
X
Yi pu = Su .
i=0
1) ps.
s
IE e
(u)
| (u) < =
e e
dx =
e( p )x ex dx =
Entonces
(u) =
13.
p
.
u
e .
p
Cambio de medida
F (dx) =
Z
A
f (x)dx, IE (g(X)) =
Z
0
g(x)f (x)dx
Entonces
IE (g(X)) =
Z
0
g(x)f (x)dx =
g(x)
f (x)
f (x)dx.
f (x)
La u
ltima igualdad vale siempre y cuando f (x) 6= 0 cuando f (x) 6= 0. Se
dice que las distribuciones f y f son equivalentes. Tenemos la relacion
!
f (X)
.
IE (g(X)) = IE g(X)
f (X)
(2)
Z
Z0
esx F (dx)
ex() esx F (dx)
= log(e()
e(+s)x F (dx))
= (s + ) ().
Ahora consideramos
(s) = ps + FY (s)
el cual sabemos es la funcion generador de cumulantes de S1 (ponga t = 1
arriba). La pregunta es si para un existen y funcion de distribucion de
G tal que
(s) .
(s) = ps + G
Defina
ex
= F (), G (dx) =
FY (dx).
FY ()
43
Notamos que
(s) =
G
=
Z
0
esx G (dx)
esx
ex
FY (dx)
FY ()
FY ( + s)
.
FY ()
Entonces
ps + G (s) = ps FY () + FY ( + s)
= p(s + ) + FY (s + ) p + FY ()
= (s + ) ()
= (s).
Para t 6= 1 tambien funciona la propuesta arriba como solo hay que multiplicar todas las ecuaciones (ambos lados) con t.
Sea Ft = (Su : u t) la algebra generado por {St } y para una medida
sea (T ) la restriccion de la medida a la algebra FT . Definimos IP la
medida de probabilidad equivalentemente a F como
(T )
dP
= exp(ST T ()).
dP (T )
Si = es igual a la constante de ajuste entonces escribimos IPL y IEL
en cambio de IP y IE para resaltar que se trata del exponente de Lundberg
y igualmente para L .
Ahora considere t fijo. Entonces por (2),
IE eSt +t()
(t)
dP
= IE eSt +t() (t)
dIP
(3)
(4)
44
= IE 1{u T }
dIP(T )
(T )
dIP
= IE 1{u T } eST +T ()
= IE 1{u T } eSu +u ()
(5)
lm IE 1{u T } eSu +u ()
La funcion generador de cumulante es convexa y cero en cero. El exponente de Lundberg es positiva y () = 0 por definicion. Entonces 0 () > 0
necesariamente y por lo tanto
IEL (S1 ) = 0L (0) = 0 () > 0
porque L (s) = (s + ) (). Entonces {St }t0 tiene tendencia positiva
bajo IPL y por lo tanto la probabilidad de ruina bajo IPL es uno, i.e.
IPL ( (u) < ) = 1.
Entonces
(u) = IP( (u) < )
14.
Aproximaci
on de Cram
erLundberg
p
.
FY0 () p
Demostraci
on. Seg
un (6) es suficiente que demostrar que
C = lm IEL (exp((u))).
u
(L)
(L)
+
(1 G+ (x)),
(L)
x 1
(L)
G+ (x)
(L)
dx
x 1
(L)
G+ (x)
(L)
dx =
=
1
(L)
+
1
(L)
+
"
1
(L)
ex (1 G+ (x))
Z
0
(L)
(1 ex )G+ (dx).
46
Z
0
1 x (L)
e G+ (dx)
Z
A
(L)
ex dG+ (x)
Ahora
(L)
ex dG+ (x),
i.e.
(L)
G+ (A)
Z
A
(L)
(L)
(L)
g+ (x) = ex (1 F (x)) = ex g+ (x).
p
Entonces
Z
0
(L)
(1 ex )G+ (dx) = 1
= 1
(1 F (x))dx
p
Y
p
Z
0
Z
0
(L)
xdG+ (x)
xex (1 FY (x))dx
p
Z x
=
xe FY (x)dx
p 0
0
=
(),
p
donde FY (x) = 1 F (x) y con fY (x) = FY0 (x) tenemos que
() =
Z
0
ex FY (x)dx
47
"
1 x
e FY (x)
=
FY () 1
=
.
Entonces
0 () =
Z
0
1 x
e fY (x)dx
FY0 () (FY () 1)
.
2
Usando 0 = () = FY () p o F () 1 =
0
() =
Entonces
(L)
+ =
FY0 ()
0
FY ()
p
FY () 1
p
as que
1 pY
p
=
.
C=
F () 1
FY0 () p
p Y
Q.E.D.
15.
48
`
X
j=1
Ti
X
k v k .
k=0
` X
j=1 k=0
` X
j=1 k=0
49
y
IE(
Ti
X
k v k ) = IE(
k=0
1{Ti i}k v k )
k=0
=
=
=
X
k=0
X
k=0
k v k IP(Ti k)
k v k IP(T0 k + i|T0 i)
k v k pi (k).
k=0
j=1 k=0
k v k pi (k).
k=0
` X
j=1 k=0
` X
X
j=1 k=0
` X
X
j=1 k=n
` X
j=1 k=n
` X
j=1 k=n
=
=
=
=
=
IP(T0 k + i|T0 i)
IP(T0 n + i|T0 i)
IP(T0 k + i)
IP(T0 n + i)
IP(T0 k + i|T0 n + i)
IP(T0 i + n + k n|T0 n + i)
pi+n (k n).
Entonces
IE(bJi ,Ti +1 v
Ti +1
|Ti n) =
` X
j=1 k=n
` X
X
j=1 k=0
Similarmente,
IE
Ti
X
k v pi (k)|Ti
= IE
!
k
k v 1{k Ti }|Ti n
k=0
k=0
=
=
=
=
=
X
k=0
X
k=n
X
k=n
X
k=n
k v k IP(Ti k|Ti n)
k v k IP(T0 k + i|T0 n + i)
k v k IP(T0 n + i + k n|T0 n + i)
k v k pi+n (k n)
k+n v k+n pi+n (k).
k=0
Entonces
n = v n IE(Xi |Ti n)
=
` X
j=1 k=0
X
k=0
51
Ahora considere
` X
j=1 k=0
!
k
k=0
` X
j=1 k=0
k=0
` X
j=1 k=0
k=0
`
XX
j=1 k=1
k=1
= n
`
X
j=1
Entonces
n + n = n+1 vpi+n (1) +
`
X
bj,n+1 vqj,i+n .
j=1
`
X
bj,n+1 vqj,i+n
j=1
`
X
bj,n+1 vqj,i+n
j=1
`
X
j=1
52
bj,n+1 vqj,i+n
= n+1 v n n+1 v
`
X
qj,i+n +
j=1
= n+1 v n +
`
X
`
X
bj,n+1 vqj,i+n
j=1
j=1
s
= m
+ nr ,
P`
j=1 (bj,n+1
Xi =
Yki v k ,
k=0
donde
Yki
0
si k Ti + 1
r
= k + (bJi ,k+1 k+1 )v si k = Ti
kr
si 0 k Ti 1
Demostraci
on.
Xi = bJi ,Ti +1 v
Ti +1
= bJi ,Ti +1 v Ti +1
= bJi ,Ti +1 v Ti +1
= bJi ,Ti +1 v Ti +1
Ti
X
k v k
k=0
Ti
X
(ks + kr )v k
k=0
Ti
X
((k+1 v k ) + kr )v k
k=0
Ti
X
(k+1 v k+1 k v k )
k=0
Ti
X
kr v k
k=0
= bJi ,Ti +1 v Ti +1 + 0 Ti +1 v Ti +1
Ti
X
kr v k .
k=0
Ti +1
+ Ti +1 v
Ti +1
Ti
X
kr v k
k=0
Pn
k=0
Yk y Fn = ({Yi = j, Ti = k}j=1,...,`,k=0,...,n ).
53
Q.E.D.
Teorema 15.2 Si IE(Xi ) = 0, entonces {Sn }n0 es una {Fn }n0 martingala.
Demostraci
on. Sn+1 = Sn + Yn+1 as que IE(Sn+1 |Fn ) = IE(Yn+1 |Fn ) +
IE(Sn |Fn ) = IE(Yn+1 |Fn ) + Sn . Basta demostrar que IE(Yn+1 |Fn ) = 0. Es
claro por definicion de Yn+1 que este solamente es nocero si n + 1 Ti .
Por otro lado como todas las valores , by son deterministas entonces Fn es
equivalente a conocer Ti . Hay dos posibilidades: Ti n + 1 o Ti n. En el
u
ltimo de los casos la esperanza condicional de Yn+1 sera cero. Entonces
IE(Yn+1 |Fn ) = IE(I{Ti n + 1}Yn+1 |Fn )
= I{Ti n + 1}IE(Yn+1 |Fn )
= I{Ti n + 1}IE(Yn+1 |Ti n + 1).
h
r
IE(Yn+1 |Ti n + 1) = IE ( n+1
+ (bJ,n+1 n+2 )v I{Ti = n + 1}|Ti n + 1
r
n+1
IP(Ti n + 2|Ti n + 1)
r
= n+1
IP(Ti = n + 1|Ti n + 1) + IE(bJ,n+1 n+2 )vI{Ti = n + 1}|Ti n + 1)
r
n+1 IP(Ti n + 2|Ti n + 1)
r
= IE((bJ,n+1 n+2 )vI{Ti = n + 1}|Ti n + 1) n+1
Ahora,
IE((bJ,n+1 n+2 )vI{Ti = n+1}|Ti n+1) = IE((bJ,n+1 n+2 )vI{Ti < n+2}|Ti n+1)
as que sumando sobre las diferentes posibilidades de Ji ,
IE((bJ,n+1 n+2 )vI{Ti < n + 2}|Ti n + 1)
= IE(
`
X
j=1
`
X
j=1
`
X
j=1
=
=
`
X
(bj,n+1
j=1
r
n+1
.
n+2 )vqj,i+n+1
Q.E.D.
54
cov(Yk , Yn ) =
pm (k)
P
`
j=1 (bj,k+1
y
var(Xi ) =
si n = k
si n =
6 k
v 2k var(Yk ).
k=0
Demostraci
on. Por definicion de Sn , Yn = Sn Sn1 donde Sn es una
martingala. Entonces cov(Yk , Yn ) = cov(Sk Sk1 , Sn Sn1 ). Pero si k > n
entonces condicionando en Fn y Fn1 ,
cov(Sk Sk1 , Sn Sn1 ) = IE(Sk Sn ) IE(Sk Sn1 ) IE(Sk1 Sn ) + IE(Sk1 Sn1 )
2
2
= IE(Sn2 ) IE(Sn1
) IE(Sn2 ) + IE(Sn1
)
= 0.
Las resultados restantes siguen directamente de la definicion de Yn . Q.E.D.
16.
Cadenas de Markov
Demostraci
on.
IP(X0 = i0 , X1 = i1 , ..., Xn = in )
= IP(Xn = in |Xn1 = in1 , ..., X0 = i0 )IP(Xn1 = in1 , ..., X0 = i0 )
= IP(Xn = in |Xn1 = in1 )IP(Xn1 = in1 , ..., X0 = i0 )
= pin1 in IP(Xn1 = in1 , ..., X0 = i0 )
= ...
= pin1 in pin2 in1 ...pi0 i1 IP(X0 = i0 ).
Q.E.D.
Sea Fn = (X0 .X1 , ..., Xn ) la algebra generado por la cadena y sea
F = (X0 , X1 , ....). Entonces
Teorema 16.2 {Xn }n0 es una cadena de Markov si y solo si
IE(f (Xn , Xn+1 , ...)|Fn ) = IE(f (X0 , X1 , ...)|X0 = Xn )
para cualquiera funcion medible y acotada f : E E ... IR.
Q
Demostraci
on. Para el caso si, toma f (X0 , X1 , ...) = j 1{Xj =ij } . El caso
solo si sigue de un argumento estandar en teora de la medida: el teorema
Q
vale para funciones de la forma f (X0 , X1 , ...) = j 1{Xj =ij } por definicion
de la propiedad de Markov. Usando que la esperanza es un operador lineal,
tambien el teoremas vale para funciones simples. Luego aproxima una funcion
f no-negativa acotada por funciones simples crecientes y usa convergencia
monotona. Para cualquier funcion f medible y acodata escribelo como f =
f+ f .
Q.E.D.
Ejemplo 16.1 Muchas procesos de Markov se pueden construir de la siguiente forma
Xn+1 = f (Xn , Zn+1 )
donde X0 es independiente de {Zn } y este ultimo es un ruido blando (i.e.
Z1 , Z2 , ... son i.i.d.). En dado caso el proceso sera una cadena de Markov
(ejercicio!).
Q.E.D.
56
Definici
on 16.2 Un tiempo de paro para la cadena de Markov {Xn }n0 es
una variable aleatoria tomando valores en IN {+} tal que { = n} Fn
para todo n.
La informacion F esta definido como
A F
A { = n} Fn n IN {+}.
IE (h(X0 , X1 , ....)|X0 = X )
Z
A
h(X , X +1 , ...)dP =
(A { = n}) .
n=0
Pero
Z
A{ =n}
h(X , X +1 , ...)dP =
=
Z
A{ =n}
Z
A{ =n}
Z
A{ =n}
Z
A{ =n}
57
Definici
on 16.3
Ti = nf{n 1|Xn = i}
Ni =
1{Xj =i}
j=1
XX
j1
...
j2
jn1
m=1
(m)
pii
= .
58
Q.E.D.
Demostraci
on. Defina
Tin = nf{n > Tin1 |Xn = i}, Ti1 = Ti
los tiempos de visitas sucesivos al estado i. Entonces
IPi (Tik+1 < ) = IPi (Tik+1 < , Tik < )
(medible)
(Markov fuerte)
(XTik = i)
Si i es recurrente entonces IPi (Tik+1 < ) = 1 para todo k, i.e. Tik <
IP-c.s. para todo k. Como
Ni = sup{k IN|Tik < }
entonces Ni = IPc.s. Es claro que si Ni = c.s. entonces IEi Ni = .
Sin embargo necesitamos verificar la expresion
IEi Ni =
X
(m)
pii .
m=1
I{Xn = i}
n=1
=
=
X
n=1
IPi (Xn = i)
(n)
pii .
n=1
X
n=0
X
n=1
n=1
< .
Q.E.D.
Corolario 16.1 Lo siguiente es equivalente:
1. i es transitorio.
2. Ni < IP c.s.
3. IE(Ni ) =
(m)
m=1
pii
< .
(n)
(m)
X
(n)
X
(n2 ) (n) (n1 )
n=1
n=1
pjj
= ,
Una cadena de Markov irreducible tiene la propiedad que todos sus estados
son recurrentes o transitorios. En dichos casos lo llamamos respectivamente
recurrente y transitorio.
Definici
on 16.7 Un vector = (i )iE es una medida estacionaria de la
cadena de Markov {Xn }n0 si
1. i 0 i E.
2. 6= 0.
3. i < .
4. P = .
Aqu inciso 4. es el importante: si la distribucion es de a tiempo n, entonces
a tiempo n + 1 tambien lo es.
Teorema 16.6 Sea i algun estado recurrente. Entonces se puede definir una
medida estacionaria de la siguiente forma
j = IEi
TX
i 1
I{Xn = j},
n=0
i.e. el n
umero esperado de visitas al estado j entre dos visitas consecutivas
al estado i.
Demostraci
on.
j = IEi
TX
i 1
n=0
Ti
X
= IEi
= IEi
n=1
I{Xn = j}
n=1
=
=
X
n=1
n=1
61
=
=
=
X
n=1
X
n=1
(Markov)
n=1
i
= IE
kE
kE
kE
X
X
n=1 kE
X
kE
pkj
n=1
pkj k ,
kE
X
kE
62
(m)
(m)
k pki j pji ,
(m)
(m)
k pki j pji .
kE
n=0
Demostraci
on. Sigue del teorema de Beppo-Levi.
Q.E.D.
(i)
n=0
63
pk` p`j .
`E
.
(IPk (Xn = j, Ti > n))k,jE = P
n , i.e. IPi (Xn = j, Ti >
Entonces IPi (Xn = j, Ti > n) es el elemento ij de P
n ej , donde e0 es el vector de fila que tiene 1 en plazo i y cero en
n) = e0i P
i
otros. De Corolario 16.3 sigue
(i)
n.
P
n=0
j = ij + P
j
= 0 por construccion de P
y ij = 0 en otros
porque si i = j entonces P
j
= j por ser estacionaria. Entonces
casos, y P
j
= e0i + P
= e0i + e0i + P
) + P
2
= e0i (I + P
= ...
= e0i
N
X
n + P
N +1 ,
P
n=0
P n
donde I es la matriz de identidad. Como n P
converge (es igual a una
n
0 cuando n y por lo tanto N ,
probabilidad), tenemos que P
e0i
N
X
n + P
N +1 e0
P
i
n=0
n = (i) .
P
n=0
Q.E.D.
64
Demostraci
on. Si la cadena es recurrente positiva,
| (i) | =
X (i)
j =
X
j
IEi
TX
i 1
n=0
y luego
= (i) /| (i) |
por unicidad hasta multiplicacion con un constante.
65
Q.E.D.
X X
I{Xn = k} =
kE n=0
I{Xn = k} = .
n=0
Entonces k es recurrente. Entonces todos los estados son recurrente por irreductibilidad. Entonces existe una medida estacionaria. Como la masa total
de un n
umero finito es finito entonces
| (i) | = IEi Ti <
por lo tanto i es recurrente positiva. Entonces la cadena es recurrente positiva.
Q.E.D.
Definici
on 16.9 El periodo de un estado recurrente i, d(i), es el n
umero
entero mas grande tal que
IPi (Ti Ld(i) ) = 1
donde Ld = {d, 2d, 3d, 4d, ...}. Si un estado tiene periodo uno se dice que el
estado es aperiodico.
Teorema 16.7 Periodicidad es una propiedad de clase, es decir, si i y j
pertenece al mismo clase de recurrencia, entonces tienen el mismo periodo.
Demostraci
on. Sea i un estado recurrente con periodo d(i). Sea j otro
estado en la misma clase de recurrencia. Entonces i j y por lo tanto existe
(n)
(m)
m, n > 0 tal que pij > 0 y pji > 0. Entonces
(n+m)
pii
X (n) (m)
(n) (m)
kE
66
(p)
pii
17.
Definici
on 17.1 Un proceso de Markov {Xt }t0 (t IR) sobre un espacio
de estados finito E es un proceso estocastico con la propiedad que
IP(Xtn = in |Xtn1 = in1 , ..., Xt1 = i1 , X(0) = i0 ) = IP(Xtn = in |Xtn1 = in1 ).
El proceso de Markov es homogeneo en tiempo si ademas IP(Xt+h = j|Xt ) =
Pij (h) solamente depende de h. Llamamos pij (h) sus probabilidades de transicion y la matriz P (h) = {pij (h)}i,jE su matriz de transicion.
Teorema 17.1 Chapman-Kolmogorov:
P (s + t) = P (s)P (t).
Demostraci
on. Por la ley de la probabilidad total y la propiedad de Markov:
pij (t + s) = IP(Xt+s = j|X0 = i)
X
=
IP(Xt+s = j, Xs = k|X0 = i)
k
Q.E.D.
Sea Ft = (Xs : s t).
67
Definici
on 17.2 Una variable aleatoria nonegativa es un tiempo de paro
para {Xt }t0 si { t} Ft para todo t. La algebra F consiste en
conjuntos medibles A tal que
A { t} Ft t 0.
Se nota sin demostracion:
Teorema 17.2 Cualquier proceso de Markov de salto {Xt }t0 tiene la propiedad fuerte de Markov, i.e.
IP(Xt+h1 = i1 , ..., Xt+hn = in |F ) = IP(Xh1 = i1 , ..., Xhn = in |X0 = X ).
Muchas veces esta definido en terminos de valores de Xt tal que X es
determinista. Por ejemplo podra ser la primera vez Xt entra al estado i.
En este caso X = i y X0 = X es simplemente el evento X0 = i.
Sea S0 = 0 < S1 < S2 < ... los tiempos de salto. Las diferencias Tn =
Sn+1 Sn son los tiempos de ocupacion en los estados entre saltos. Hay que
notar con cuidado la notacion usado: T0 es el tiempo hasta el primer salto,
T1 es el tiempo entre el primer y segundo salto etc. Finalmente sean Y0 , Y1 , ...
la secuencia de estados visitados, i.e. Yi = X(Si ). En caso que existiera
un ultimo Sn , e.g. en caso de absorcion en alg
un estado, entonces se defina
Tn = Tn+1 = ... = y Yn = Yn+1 = .... = i si X(Sn ) = i.
Es claro que las trayectorias de Xt se pueden reconstruir usando el conocimiento de {(Yn , Tn )}n0 . Entonces la distribucion simultanea de (Yn , Tn ) es
de interes principal. Sea
pn = IPi (Yk = ik , Tk1 > tk , k = 1, ..., n).
Teorema 17.3 Existen n
umeros i 0 y una matriz de transicion Q tal
que
pn =
n
Y
k=1
Demostraci
on. Defina f (t) = IPi (T0 > t). Entonces
f (t + s) =
=
=
=
=
=
= IEi I{Yk = ik , Tk1 > tk , k = 1, ..., n 1}IPi (Yn = in , Tn1 > tn |FSn1 )
= IPin1 (Y1 = in , T0 > tn )pn1 (medible y Markov fuerte)
= qin1 in exp(in1 tn )pn1 ,
y ell resultado sigue por induccion.
Q.E.D.
n
Y
exp(ik1 tk ),
k=1
69
R=
1
Yn .
n=0
Teorema 17.4
R < () <
IPi c.s i.
Demostraci
on. Si Yn = i entonces Tn exp(i ) 1
i exp(1). Ahora
() = lm Sn =
n
Tn
n=0
as que
()|Yn
1
Yn V n ,
n=0
X
n=0
1
Yn
= IE(
1
Yn Vn |{Yn }) = IE(()|{Yn }),
n=0
as que si R < entonces () < . Por otro lado, si () < entonces usando el Teorema de las 3 series de Kolmogorov (el cual dice que
70
una serie aleatoria converge si y solo si las series de los medios, varianzas y
probabilidades de diferencias convergen) nos da en particular que
IE(1
Yn Vn ) < ,
n=0
Q.E.D.
Corolario 17.2 Los siguiente criterios son suficientes para que IP(() <
) = 0.
(i) supi i < .
(ii) E es finito.
(iii) Yn es recurrente.
Demostraci
on. Si el proceso es explosivo entonces () < y por lo
P
1
tanto R =
n=0 Yn < implicando Yn , lo cual es imposible si
supn n < . Si E es finito entonces supn n < trivialmente. Si {Yn } es recurrente entonces {Yn } es recurrente y i aparecera infinitamente frecuente
P
1
en {Yn }, lo cual hace n imposible y por lo tanto R =
n=0 Yn =
necesariamente.
Q.E.D.
Se supone en lo siguiente que i > 0 para todod i y que la cadena de
Markov {Yn } tiene matriz de transicion Q = {qij }. En particular, qii = 0 por
definicion de Yn .
Definici
on 17.3 La matriz de intensidad de {Xt }t0 (o generador infinitesimal) = {ij }i,jE esta definido por
ij = i qij , i 6= j,
ii =
ij = i .
j6=i
Se nota que los elementos en las filas de suman a cero. Como los tiempos de ocupacion en estado i son exponenciales exp(i ), la probabilidad que
habra un salto del estado i en el intervalo [t, t + dt) es de i dt (o formalmente
i h + o(h), donde o(h) es una funcion tal que o(h)/h 0 cuando h 0).
Condicionalmente que habra en salto en [t, t + dt) y Xt = i (limite por
la izquierda), la probabilidad que el siguiente estado es j es de qij . Entonces la probabilidad de un salto del estado i al estado j en [t, t + dt) es de
i dtqij = ij dt.
71
d t
P = P t = P t .
dt
Demostraci
on. Condicionando en el tiempo del primer arribo T0 ,
ptij = IP(Xt = j|X0 = i)
= IPi (T0 > t)ij +
= ei t ij +
Z t
0
= ei t ij +
Z t
0
i ei s
qij pts
kj ds
k6=i
X (u)
i (tu)
i e
pkj du
k6=i
Z t
ei u
ki pukj du .
k6=i
Z t
X
d t
i t
e i u
ki pukj du
pij = i e
ij +
dt
0
k6=i
+ei t ei t
ki ptkj
k6=i
= i ptij +
ik ptkj
k6=i
ii ptij
ik ptkj
k6=i
ik ptkj
72
La otra ecuacion es mas difcil de demostrar en general y lo haremos solamente sujeto a la restriccion que las intensidades son acotados, i.e. supi i < .
Recuerden que
phij = ij h + o(h)
cuando h 0, y cuando i = j,
phii = 1 i h + o(h).
Entonces
pij ij
ij cuando h 0.
h
Se necesita que la expresion arriba este uniformemente acotado en i, j y h.
Primero,
0 psij probabilidad que hay un arribo en [0, s]
=
Z s
0
= i
i
i ei u du
Z s
ei u du
Z s
1du
= i s
lo cual implica que
0
psij
i sup j .
s
j
Similarmente,
0 1 psii la prob. de un salto en [0, s]
i s
implicando lo mismo como arriba. Entonces por convergencia dominada
ps+h
psij
ij
h
1 X s h
p p psij
h k ik kj
h
s pkj
pik
73
psik kj
kj
h
implicando que
d t
P = P t .
dt
Q.E.D.
Corolario 17.3 Si E es finito, entonces
P t = exp(t) =
n tn
.
n=0 n!
Demostraci
on. Sigue de teora estandar de ecuaciones diferenciales y de
0
P = I.
Q.E.D.
La clasificacion de estados en procesos de saltos es como sigue.
Teorema 17.6 Lo siguiente es equivalente:
(i) {Yn }nE es irreducible.
(ii) i, j t > 0 : ptij > 0.
(iii) i, j t > 0 : ptij > 0.
Demostraci
on. (iii) = (ii) = (i) es obvio. Falta demostrar (i) =
(iii). Toma i, j E. Entonces i, j comunican (con respecto a {Yn }) y por
lo tanto existe un camino de i a j, digamos i, i1 , i2 , ..., in , j tal que qii1 > 0,
qi1 i2 > 0,...,qin j > 0. Ahora la probabilidad
ptij prob. de irse i i1 ... in j en tiempo t.
La expresion a la mano derecha es una convolucion de exponenciales (gama)
la cual tiene una densidad estrictamente positiva en todos sus puntos y lo
cual entonces implica que ptij > 0 para todo t > 0.
Definici
on 17.4 {Xt }t0 es irreducible si existe un t > tal que ptij > 0 para
todo i, j E.
Entonces {Xt }t0 es irreducible si y solo si {Yn } es irreducible o si y solo si
ptij > 0 para todo t > 0.
Recurrencia y transitoriedad se base en las propiedades correspondientes
de {Yn }.
Definici
on 17.5 {Xt } es recurrente (transitorio) si {Yn } es recurrente (transitorio).
74
18.
T t
0 0
exp(x) =
Demostraci
on. Para n 1 tenemos que
n
T n T n
0
0
75
n xn
exp(x) =
n=0 n!
n xn
n=1 n!
!
(T x)n
(T x)n
X
n!
n!
= I p+1 +
0
0
n=1
= I p+1 +
exp(T x) I p (exp(T x) I p )e
0
0
= I p+1 +
=
Q.E.D.
Teorema 18.1 Sea PH(, T ). Entonces
(i) IP( > x) = eT x e.
(ii) tiene densidad f dado por
f (x) = eT x t.
Demostraci
on. (i) > s si y solo si Xs {1, 2, ..., p}. Por la ley de la
probabilidad total,
IP( > s) = IP (Xs {1, 2, ..., p})
=
p
X
IP (Xs = j)
j=1
p
XX
jE i=1
i exp(T s)ij
i,jE
= eT s e.
76
p X
p
X
i pxij tj dx
i=1 j=1
= eT x tdx.
Q.E.D.
Corolario 18.1 La funcion de distribucion F de PH(, T ) esta dado
por
F (x) = 1 eT x e.
Teorema 18.2 T es invertible estados 1, 2, ..., p son transitorios
Demostraci
on. Sea ai la probabilidad de absorcion eventual iniciando desde el estado i. Condicionando en la primera transicion,
ai = qi,p+1 +
qi a .
6=i
Entonces,
ai =
ti X ti
a
tii 6=i tii
o
ai tii = ti +
ti a ,
6=i
es decir,
X
ti a + ti = 0.
X
T n tn
= ye.
yeT t e = y
n=0 n!
Se puede suponer sin perder generalidad que ye > 0, de lo contrario reemplaza y con y. Entonces y exp(T t)e > 0 y
u = lm eT t e
t
satisface
yu = lm yeT t e = ye > 0.
t
Demostraci
on. De las ecuaciones diferenciales de Kolmogorov y de la
restriccion de P t a los estados 1, ..., p es de exp(T t) es claro que
d Tt
e = T exp(T t).
dt
Q.E.D.
Corolario 18.3 El nesimo momento de X PH(, T ) es n!(1)n T 1 e.
78
p
X
i,j=1
p
X
i P xij tj dx
i exp(x)ij tj dx
i,j=1
= e(T +t )x tdx.
Q.E.D.
Si el proceso de renovacion es retrasado este corresponde a el primer
distribucion inicial de las distribuciones tipo fase es diferente que los demas.
79
Q.E.D.
19.
Nt
X
Un
n=0
Nt
X
Un t.
n=0
80
Sea + = + (1) = nf{t 0|St > 0}. Cuando St > 0 por primera vez, este
obviamente pasa en un momento que viene una reclamacion. Este reclamacion, como las demas reclamaciones, esta generado por un proceso de Markov
subyacente, llamalo {Mt }. Iniciando el proceso desde nivel S(+ ) (limite por
la izquierda) y corriendo en sentido vertical, el proceso subyacente cruzara
nivel cero a tiempo S(+ ) . Al cruzar nivel cero el proceso subyacente Mt se
encuentra en uno de los fases (estados) 1, 2, ..., d. Defina
i = IP(MS(+ ) = i),
i.e. la probabilidad que al cruzar el nivel 0 el proceso Mt lo hara en estado i.
Defina
+ (n + 1) = nf{t 0|St > S+ (n) }.
+ (n) es la nesima vez que St llegara a un nuevo nivel maximo global.
La distribucion del exceso S+ (n+1) S+ (n) es obviamente PH(, T ) y
el proceso escalonado ascendiente entonces forma un proceso de renovacion
propio y defectuosa (si St tiene pendiente negativo) con distribucion entre
llegadas PH(, T ). Ruina pasara si y solo si la vida del proceso de renovacion rebasara nivel u lo cual es equivalente con el proceso de renovacion se
encuentra en uno de los estados 1, 2, ..., d a tiempo u. La probabilidad de lo
ultimo es de
exp((T + t)u)e
lo cual tambien es la probabilidad de ruina. Entonces todo lo que se necesita
es de calcular la distribucion defectuosa = (i )i=1,2...,d .
Teorema 19.1 La probabilidad de ruina esta dado por
(u) = + e(T +t + )u e
donde + = T 1 .
Demostraci
on. Un proceso subyacente cruzara nivel cero en estado j por
primera vez a tiempo t si y solo si t u y si el proceso subyacente pasara de
alg
un estado inicial i al estado j durante tiempo St . La probabilidad que
en [t, t + dt) habra una llegada es de dt. Entonces por la ley de probabilidad
total,
j =
Z
0
IE
" d
X
S
i pij t I{+
i=1
81
t} dt
=
=
d
X
i=1
d
X
Z
0
i IE
St
IE pij
Z +
St
pij
i=1
I{t + } dt
dt
R+ (A) = IE
I{St A}dt .
Z 0
f (y)R+ (dy) = IE
f (St )dt .
Entonces
i =
=
=
=
d
X
i=1
d
X
i=1
d
X
i=1
d
X
i IE
Z +
i IE
i
i
i=1
Z +
St
Z 0
Z
0
d
X
pij
dt
St
pij
dt
py
ij R+ (dy)
pyij R+ (dy)
!
i pyij
R+ (dy)
i=1
d
X
i=1
d
X
i=1
82
i pyij R+ (dy)
i pyij dy
resultando en
=
eT y dy = T 1 .
Q.E.D.
20.
Hacia modelos m
as realistas
Z t
0
p(Ru )du
Nt
X
Ui
n=0
j=1
d
X
j=1
Ahora considere el evento Ac que no hay llegadas en [0, dt) lo cual pasa con
probabilidad 1dt. Entonces la reserva ha crecido a nivel u+p(u)dt durante
el tiempo dt. Condicionando en el estado en que se cruce el nivel u + p(u)dt
obtenemos con
i (u, Ac ) = i (u|Ac )IP(Ac )
= (1 dt)
d
X
j=1
84
j=1
d
X
j=1
= i (u) +
d
X
j (u)p(u)tji dt +
j=1
0
+i (u)p(u)dt.
d
X
d
j (u)p(u)tj dti (u)
j=1
j=1
Entonces
i (u, A ) = i (u) +
i0 (u)p(u)dt
+ i (u)
p
X
p
j=1 j (u)p(u)tj dt dt
j=1
d
X
j (u)p(u)tji dt.
j=1
i0 (u)p(u) = i + i (u)
d
X
j (u)p(u)tj +
d
X
j (u)p(u)tji .
j=1
j=1
p (r) =
p(r) r < v
rv
85
IP(+v
Q.E.D.
d
X
j=1
d
X
j (t)tj dt i (u t)
j=1
d
X
j (t)i (u t)tj +
j=1
d
X
j (t)tji .
j=1
87
88
21.
Distribuciones subexponenciales
Proposici
on 21.1 Sea B una distribucion sobre (0, ) y sean X1 , X2 B
independientes. Entonces
B 2 (x)
B(x)
2,
f (x)
g(x)
= 1.
Demostraci
on. Para (a),
IP(max(X1 , X2 ) > x) = IP(X1 > x X2 > x)
= IP(X1 > x) + IP(X2 > x) IP(X1 > x, X2 > x)
2 2B(x).
= 2B(x)
B(x)
Para (b) notamos que X1 , X2 0 implica que
{max X1 , X2 > x} {X1 + X2 > x},
y por lo tanto
IP(max X1 , X2 > x) IP(X1 + X2 > x) = B 2 (x).
Entonces
IP(max X1 , X2 > x)
B 2 (x)
B(x)
B(x)
y
B 2 (x)
IP(max X1 , X2 > x)
lm inf
lm inf
x
x
B(x)
B(x)
IP(max X1 , X2 > x)
= lm
x
B(x)
= 2,
donde usamos (a) en los u
ltimos dos pasos.
89
Q.E.D.
Definici
on 21.1 Una distribucion B sobre (0, ) es subexponencial (B
S) si
B 2 (x)
2 x .
B(x)
Entonces si B S, IP(max(X1 , X2 ) > x) B 2 (x), es decir si X1 + X2 es
grande es porque uno de los X1 o X2 sean grandes.
Definici
on 21.2 L(x) es de variacion lenta si
L(tx)
1
L(x)
x .
Definici
on 21.3 L(x)
es de variacion regular si
L(x)
L(x)
= ,
x
donde > 0 y L es de variacion lenta.
Proposici
on 21.2 Si B(x) es de variacion regular, entonces B S.
Demostraci
on. Como B es de variacion regular, existe una funcion L de
variacion lenta tal que B(x) = L(x)/x para una > 0. Tome 0 < < 12 .
Entonces
X1 + X2 > x
(X1 > (1 )x X2 > (1 )x) (X1 > x X2 > x) .
Efectivamente, si ninguna Xi > (1 )x y si no ambos Xi > x, digamos
X1 x, entonces X1 + X2 x + (1 )x = x lo cual es contradiccion.
Entonces
IP(X1 + X2 > x) IP((X1 > (1 )x X2 > (1 )x) (X1 > x X2 > x))
2IP(X1 > (1 )x) + IP(X1 > x, X2 > x)
= 2B((1 )x) + B(x)2 .
Entonces
B 2 (x)
2B((1 )x) + B(x)2
.
B(x)
B(x)
90
B 2 (x)
2B((1 )x) + B(x)2
lm sup
x
B(x)
B(x)
=
L((1)x)
2 ((1)x)
lm sup
L(x)/x
B(x)
B(x) .
+
B(x)
L(x)/(x)
L(x)/x
1 L(x)
=
L(x)
1
x .
B 2 (x)
((1)x)
2
lm sup
L(x)/x
x
B(x)
2
L((1 )x)
=
lm sup
(1 ) x
L(x)
2
.
=
(1 )
Este vale para todo : 0 < < 12 . Ahora deja 0. Entonces se concluye
que
B 2 (x)
lm sup
2.
x
B(x)
Como cualquiera distribucion sobre (0, ) satisface
lm inf
x
B 2 (x)
2
B(x)
91
Q.E.D.
Proposici
on 21.3 Si B S entonces
B(x y)
1
B(x)
uniformemente y [0, y0 ] para cualquier y0 fijo.
Demostraci
on. Primero notamos la siguiente identidad
B (n+1) (x)
1 B (n+1) (x)
=
B(x)
B(x)
B(x) + B(x) B (n+1) (x)
=
B(x)
B(x) B (n+1) (x)
= 1+
B(x)
Z x
1 B n (x)
= 1+
B(dz).
B(x z)
0
(7)
Para n = 2 esto es
Z x
B 2 (x)
1 B(x z)
= 1+
B(dz)
B(x)
B(x)
0
Z y
Z x
1 B(x z)
1 B(x z)
= 1+
B(dz) +
B(dz).
B(x)
B(x)
0
y
Z y
1 B(x z)
B(dz)
B(dz) = B(y).
B(x)
0
De manera similar,
1 B(x y)
1 B(x z)
z (y, x]
B(x)
B(x)
lo cual implica que
Z x
y
1 B(x z)
1 B(x y) Z x
B(x y)
B(dz) =
(B(x) B(y)).
B(x)
B(x)
B(x)
y
92
Entonces
B 2 (x)
B(x y)
1 + B(y) +
(B(x) B(y)).
B(x)
B(x)
B 2 (x)
B(x y)
lm sup
1 + B(y) + lm sup
(B(x) B(y))
x
x
B(x)
B(x)
B(x y)
1 + B(y) + lm sup
lm sup(B(x) B(y))
x
x
B(x)
> 1 + B(y) + 1 B(y) = 2
lo cual es contradiccion con B S.
Por otro lado, B(xy) B(x) 0 < y < x por lo tanto B(xy)/B(x)
1 y de ah
B(x y)
1 y > 0.
lm inf
x
B(x)
Entonces el limite existe y es igual a 1. Para demostrar uniformidad, tome
un y0 > 0. Entonces
1
B(x y)
B(x y0 )
y [0, y0 ]
B(x)
B(x)
1
B(x)
B(x)
y[0,y0 ]
1 sup
cuando x .
Q.E.D.
1
2
cuando x .
.
2
Para (b),
IP(X1 y|X1 + X2 > x) =
=
=
IP(X1 y, X1 + X2 > x)
B 2 (x)
IP(X1 y, X1 + X2 > x)
2B(x)
1 Zy
IP(X2 > x z)B(dz)
2B(x) 0
1 Zy
B(x z)B(dz)
2B(x) 0
94
1 Z y B(x z)
B(dz)
=
2 0
B(x)
1
1Z y
B(dz) = B(y).
2 0
2
Q.E.D.
Proposici
on 21.5 Si B S, entonces
n 1 :
B n (x)
n
B(x)
cuando
x .
Demostraci
on. El resultado vale para n = 2. Usando induccion, supongamos que el resultado vale para n. Hay que demostrar que vale para n + 1.
Ahora
B n (x)
n, x
B(x)
es por definicion lo mismo que
> 0y : x y
B n (x)
B(x)
.
B n (x)
B(x)
< porque
converge. Segundo nota que B(x z) 1 por ser una probabilidad. Entonces
Z x
xy
Z x
1 B n (x z) B(x z)
1 B n (v)
B(dz)
sup
B(x z)
B(x)
B(v)
xy v0
95
B(x z)
B(dz)
B(x)
1 B n (v) Z x B(x z)
B(dz)
B(v)
B(x)
xy
!
1
1 B n (v) Z x
B(dz)
B(v)
xy B(x)
!
1 B n (v) B(x) B(x y)
B(v)
B(x)
!
n
1 B (v) B(x)1 + 1 B(x y)
B(v)
B(x)
!
!
n
B(x y) B(x)
1 B (v)
B(v)
B(x)
B(x)
!
= sup
v0
sup
v0
= sup
v0
= sup
v0
= sup
v0
0
porque B(x y)/B(x) 1 cuando x . Ahora evaluamos el primer
integral. Cuando z [0, x y] entonces x z [y, x] y entonces x z y.
Entonces
B n (x z)
n
B(x z)
o equivalentemente
B n (x z)
= n + o(1).
B(x z)
Entonces
Z xy
B(x z)
1 B n (x z) B(x z)
B(dz) = (n + o(1))
B(dz)
B(x z)
B(x)
B(x)
0
Z x
Z x
B(x z)
B(x z)
B(dz)
B(dz)
= (n + o(1))
B(x)
B(x)
xy
0
Z x
1 Zx
B(x z)
= (n + o(1))
(1 B(x z))B(dz)
B(dz)
B(x) 0
B(x)
xy
!
B(x) B 2 (x) Z x B(x z)
B(dz) .
= (n + o(1))
B(x)
B(x)
xy
Z xy
0
La expression
B(x) B 2 (x)
B 2 (x) B(x)
=
21=1
B(x)
B(x)
96
cuando x . El integral,
Z x
xy
Z x
1
B(x z)
B(dz)
B(dz)
B(x)
xy B(x)
B(x) B(x y)
=
B(x)
B(x y)
10
=
B(x)
cuando x . Entonces
B (n+1) (x)
= 1 + (n + o(1)) + o(1) = n + 1 + o(1).
B(x)
Q.E.D.
Lema 21.1 Si B S y > 0, entonces K = K constante tal que B n (x)
K(1 + )n B(x) para todo x y n.
Demostraci
on. Dado > 0. Como
B 2 (x)
B(x) B 2 (x)
=
121=1
B(x)
B(x)
cuando x , existe un T 0 tal que
xT
B(x) B 2 (x)
1 + .
B(x)
n = sup
Entonces
B (n+1) (x)
B(x)
x0
!
Z x
1 B n (x z)
B(dz)
= sup 1 +
B(x)
0
x0
n+1 = sup
97
1 B n (x z)
B(dz)
B(x)
x0 0
Z x
Z x
1 B n (x z)
1 + sup
B(dz) + sup
B(x)
xT 0
x>T 0
Z x
Z x
n
1 B (x z)
1 + sup
B(dz) + sup
B(x)
xT 0
x>T 0
Z x
Z x
n
1 B (x z)
1 + sup
B(dz) + sup
B(T )
xT 0
x>T 0
Z x
n
B (x) B(x z)
1 + A + sup
B(dz)
B(x)
x>T 0 B(x z)
Z x
B(x z)
1 + A + n sup
B(dz)
B(x)
x>T 0
B(x) B 2 (x)
1 + A + n sup
B(x)
x>T
1 + A + n (1 + ).
= 1 + sup
Z x
1 B n (x z)
B(dz)
B(x)
B n (x) B(x z)
B(dz)
B(x z) B(x)
B n (x) B(x z)
B(dz)
B(x z) B(x)
Iterando,
n+1
=
=
=
=
1 + A + n (1 + )
1 + A + (1 + A + n1 (1 + ))(1 + )
(1 + A) + (1 + A)(1 + ) + n1 (1 + )2
...
(1 + A)(1 + (1 + ) + ... + (1 + )n1 ) + n(n1) (1 + )n
1 (1 + )n
(1 + A)
+ (1 + )n
(1 = 1)
1 (1 + )
(1 + )n
1+A
((1 + )n 1) +
(1 + A)(1 + )n + (1 + )n 1 + A
(1 + A + )(1 + )n 1 + A
n
(1 + A + + A)(1 + )
1+A
(1 + A)(1 + )n+1
98
1+A
(1 + )n+1 .
Q.E.D.
Gn (u)
IP(K = n)
n=0 G(u)
nIP(K = n)
n=0
= IE(K)
por convergencia dominada (domine
n) < ).
Gn (u)
G(u)
z n IP(K =
Q.E.D.
n=0
(u)
B 0 (u)
1
.
Demostraci
on. La formula de PollaczeckKhinchine dice que si el maximo
del proceso de superavit es M , entonces
(u) = IP(M > u) = (1 )
n B n 0 (u).
n=0
99