Você está na página 1de 99

Teora de Riesgo I

Mogens Bladt
20/01/2004

Indice
1. Modelos en seguros

2. Razones mutuos para asegurar

3. Ordenando riesgos

4. Procesos de Poisson

5. Propiedades del proceso de Poisson

13

6. Teora de Renovaci
on

15

7. Ecuaciones de renovaci
on

17

8. Procesos de renovaci
on retrasados y estacionarios

21

9. Procesos de renovaci
on terminales

24

10.Procesos escalonados y el modelo Cram


er-Lundberg

25

11.Martingalas

35

12.Coeficiente de ajuste y desigualdad de Lundberg

39

13.Cambio de medida

42

14.Aproximaci
on de Cram
erLundberg

46

15.Seguro de vida: Teorema de Hattendorff

48

16.Cadenas de Markov

55

17.Procesos de Markov de saltos

67

18.Distribuciones tipo fase

75

19.Reclamaciones tipo fase

80

20.Hacia modelos m
as realistas

83
2

21.Distribuciones subexponenciales

89

1.

Modelos en seguros

Un seguro es un contrato donde la aseguradora se compromete a cubrir


ciertos gastos contingentes (reclamaciones). Ejemplos: seguros de vida, donde
se paga una cierta cantidad en caso de fallecimiento del asegurado; seguros
de bienes contra robo; seguros contra incendios; seguros contra desastres
naturales. Por este servicio, la aseguradora cobra una prima al asegurado.
Un seguro es un contrato que puede ser deseado por ambos partes: el
asegurado igual como la compa
na aseguradora. La compa
na por su parte
trata de establecer un portafolio grande de clientes similares y de este manera
puede medir con gran certeza el riesgo involucrado por la ley de los grandes
n
umeros. La aseguradora cobrara una cantidad encima del riesgo esperado
que tiene cubrir gastos de administracion, ganancias y una cierta cantidad
sera destinado a un fondo (reserva) que tiene que cubrir gastos (in)esperados
que proviene por la aleatoriedad del n
umero de reclamaciones que llegan y de
sus cantidades. Entonces la aseguradora esta cobrando una cantidad encima
del riesgo esperado y la razon por lo cual todava puede ser deseable para un
cliente comprar este contrato se base en un argumento involucrando funciones
de utilidad: clientes son adversos a riesgos grandes y por lo tanto prefieren
pagar una cantidad adicional que la prima esperada por evitar este riesgo.
Por ley, la reserva de una aseguradora debe cumplir con ciertos criterios
mnimos. Este requisito regulador tiene como proposito de mantener solvente
las empresas y de este forma minimizar el riesgo de incumplimiento. Tecnicamente la reserva, para un cierto portafolio, debe mantenerse arriba de un
cierto nivel C. Supondremos que la reserva actual es u C. sea Rt la reserva
a tiempo t. Entonces R0 = u C. En un portafolio grande los asegurados
firmen contrato en diferentes fechas y se puede suponer que estos fechas son
uniformemente distribuido sobre el a
no. Entonces la cantidad de primas que
proviene de un intervalo I (e.g. un mes) es proporcional al tama
no de este intervalo. Con otras palabras, se puede suponer que el ingreso total por
las primas durante el a
no sigue una linea recta. Por otro lado vienen reclamaciones y es com
un de suponer que los reclamaciones que provienen del
mismo portafolio se comportan de manera similar y independiente, es decir
los reclamaciones X1 , X2 , ... son i.i.d. con distribucion com
un F . El n
umero
de de reclamaciones que hayan llegado a un tiempo t, N (t), es de principal
interes. Si se piensa que todos los ingresos proveniente de primas entra en el
fondo de reservas (este se puede suponer sin perder generalidad reduciendo
las primas reales con el porcentaje que se destina a la reserva) y si todos
4

los reclamaciones seran pagados por la reserva, entonces el desarrollo de la


reserva se puede escribir como
N (t)

Rt = u + pt

Xn .

n=0

Se refiere a la reserva destinado a resistir las variaciones aleatorias somo la


reserva de riesgo. Si el proceso {N (t)} es un proceso de Poisson se refiere
al modelo como de Cramer-Lundberg. Si {N (t)} es un proceso de renovacion el modelo es conocido como de Sparre-Andersen. Varios modelos tratan
de extender el desarrollo de Rt a situaciones mas realistas: (1) primas que
dependen de la reserva (2) Arribo de diferentes tipos. En el caso (1), por
razones de competencia, primas decrecen con reservas crecientes y al reves,
reservas bajos seran com
unmente complementados por un aumento en las
primas. Tambien inversion (por ejemplo deposito de la reserva en una cuenta!) causa efectos de interes y el incremento en la reserva ya no es lineal pero
mas bien exponencial entre reclamaciones.
Uno de los principales metas en la teora de riesgo es el estudio de solvencia
lo cual se hace a traves de la probabilidad que Rt crucera nivel C. Ajustando
la reserva inicial este problema se reduce a estudiar la probabilidad de ruina,
i.e.
(u, T ) = IP( nf Rt < 0|R0 = u)
0tT

(u) = IP(nf Rt < 0|R0 = u)


t0

Al primero se refiere a la probabilidad de ruina de horizonte finito (antes


que T ) y al ultimo como la probabilidad de ruina de horizonte infinito o
simplemente como la probabilidad de ruina. En lo que sigue se desarrollan
modelos clasicos y mas recientes para el desarrollo de la reserva de riesgo
as como el analisis de los diferentes tipos de arribo y las distribuciones de
las reclamaciones.

2.

Razones mutuos para asegurar

Definici
on 2.1 Una funcion de utilidad es una funcion u : [a, b] IR creciente y concava para algunos constante a > b.

Funciones de utilidad tratan de medir la percepcion de riqueza como complemento a la escala lineal monetaria. Por ejemplo una perdida de $1000 no
es lo mismo para rico y pobre. El concepto de funcion de utilidad tambien
puede explicar como es posible que ambos partes en un trato de seguro (entre
aseguradora y asegurado) aparentemente ganan con dicho contrato.
Considera un riesgo X con Rfuncion de distribucion F y densidad f . La
perdida esperada es de IEX = 0 xf (x)dx. Si la persona que esta expuesto
al riesgo X tiene capital W , entonces la utilidad esperada es de
IE(u(W X)) =

u(W x)f (x)dx.

Supongo una compa


na de seguros ofrece un seguro contra el riesgo X por
una prima P . Entonces la persona debera aceptar el trato con el seguro
(siendo adverso al riesgo) si
u(W P )

u(W x)f (x)dx.

Usando la desigualdad de Jensen y notando que x u(W x) sigue siendo


concava,
IE(u(W X)) =

u(W x)f (x)dx u(IE(W X)) = u(W IE(X)).

Entonces una prima de P = IE(X) es aceptable y en general este desigualdad


es estricta tal que primas mayores de IE(X), hasta un cierto limite, tambien
son aceptables.

3.

Ordenando riesgos

Definici
on 3.1 Sean {Xt }tT y {Xt0 }tT dos procesos estocasticos definidos
sobre el mismo espacio de probabilidad (, F, IP). Se dice que el par (Xt , Xt0 )
D
es un acoplamiento si Xt = Xt0 t T , donde T es un conjunto de ndice
(normalmente T = IN, T = IR o T = IR+ ).
Definici
on 3.2 Sean X1 , X2 dos variables aleatorios que representan riesgos
(perdidas potenciales) y que tienen funciones de distribucion respectivamente
D

F1 y F2 . Se dice que X2 es mas riesgoso que X1 , y se escribe X1 X2 , si


F2 (x) F1 (x) para todo x.
6

Se nota que X1 X2 si F1 (x) F2 (x), donde F (x) = 1 F (x) es la cola de


la distribucion.
Teorema 3.1
D

X1 X2
1, X
2 ) de (X1 , X2 ) tal que X
1 X
2
si y solo si existe un acoplamiento (X
1 () X
2 ().
puntualmente, i.e. : X
1 X
2 puntualmente. Entonces {X
2
Demostraci
on. Supongamos que X
1 x} y por lo tanto F2 (x) F1 (x) implicando por definicion que
x} {X
D

X 1 X2 .
D

Por otro lado si supongamos que X1 X2 , entonces F2 (x) u =


F1 (x) u y luego {x : F2 (x) u} {x : F1 (x) u}. Tomando nfimos
sobre x, se obtengan inversas (posiblemente generalizadas) F11 (u) F21 (u).
1 = F11 (U ) y X
2 = F21 (U ). Entonces
Ahora toma U uniforme y defina X
D
D
1, X
2 ) es un acoplamiento de (X1 , X2 ) (aqu el
X1 = X
que (X
1 y X2 = X2 as
1
conjunto de indice es de T = {1, 2} solamente) y con la propiedad que X
2 puntualmente.
X
Q.E.D.
La ventaja de usar acoplamientos se puede ilustrar en el siguiente ejemplo.
Supongamos que queremos demostrar la siguiente propiedad de dominacion
estocastica:
D

X1 Y1 y X2 Y2 = X1 + X2 Y1 + Y2 .
1 , Y1 ) y (X
2 , Y2 ) de (X1 , Y2 ) y (X2 , Y2 ) respectivaToma dos acoplamientos (X

1 + X
2 Y1 + Y2 y
mente tal que X1 Y1 y X2 Y2 . Entonoces es claro que X
D
D


como X1 +X2 = X
1 + X2 y Y1 +Y2 = Y1 + Y2 entonces (X1 + X2 , Y1 + Y2 ) es un
D
1 +X
2 Y1 +Y2 .
acoplamiento de (X1 +X2 , Y1 +Y2 ) y se obtiene otra vez que X
Ahora supongamos que tenemos dos procesos de riesgo Rt1 y Rt2 con los
mismos tiempos de arribo pero con distribuciones de los tama
nos de los
reclamaciones B1 y B2 respectivamente, donde B2 es mas riesgoso que B1 .
Sean X1 , ..., Xn , ... las reclamaciones que corresponden a Rt1 y Y1 , ..., Yn , ... las
D

reclamaciones correspondiente a Rt2 . Entonces Xi Yi para todo i, y existe

i Yi puntualmente. Entonces tambien R


1 R
2
un acoplamiento tal que X
t
t
D
ti =
Rti , i = 1, 2. Entonces tambien,
puntualmente y R
1 (u) = IP( nf Rt1 < 0|Rt1 = u)
0t<

1 < 0|R
1 = u)
= IP( nf R
t
t
0t<

2 < 0|R
2 = u)
IP( nf R
t
t
0t<

= IP( nf Rt2 < 0|Rt2 = u)


0t<

= (u).
Hemos demostrado el siguiente
D

Teorema 3.2 Si B1 B2 entonces 1 (u) 2 (u).


D

La ordenacion de no es adecuado para comparar distribuciones con el


D
2 (x) B
1 (x), i.e. B
2 (x) B
1 (x)
mismo promedio. Si B1 B2 , entonces B
0 x. Si B1 y B2 tienen el mismo promedio entonces
0==

Z
0

2 (x)dx
B

Z
0

1 (x)dx =
B

Z
0

2 (x) B
1 (x)dx
B

implicando que B1 (x) = B2 (x) c.s.


Para la comparacion de distribuciones diferentes que tienen el mismo
promedio se usara otros criterios tal como la ordenacion creciente convexo
(ic, stoploss) o la ordenacion convexo (c).
ic

Se dice que B1 B2 si
Z
x

1 (y)dy
B

Z
x

2 (y)dy
B

x.

Evidentemente ordenacion estocastico implica ordenacion stoploss, mientras


lo opuesto no es el caso.

4.

Procesos de Poisson

Se considera los tiempos de arribo de las reclamaciones 0 < S1 < S2 < ...
y sea N (t) el n
umero de reclamaciones en (0, t], i.e.
N (t) = sup{n IN|Sn t} =

X
n=0

1{Sn t}.

Entonces {N (t)}t0 es un proceso estocastico y se refiere a este tipo de proceso como un proceso de conteo. Tambien vamos a usar la notacion

N (A) =

1{Sn A}

n=0

para cualquier conjunto medible A.


Definici
on 4.1 {N (t)}t0 tiene incrementos independientes si para todo n
IN y todo 0 < s1 < s2 < ... < sn los variables aleatorias N (s1 ), N (s2 )
N (s1 ), ..., N (sn ) N (sn1 ) son independientes.
Definici
on 4.2 {N (t)}t0 tiene incrementos estacionarios si para todo n
IN, 0 < s1 < s2 < ... < sn y h 0 la distribucion de
(N (s1 + h), N (s2 + h) N (s1 + h), ..., N (sn + h) N (sn1 + h))
no depende de h.
Usando la notacion com
un que o(h) es una funcion tal que lmh0
se defina

o(h)
h

=0

Definici
on 4.3 N = {N (t)}t0 es un proceso de Poisson con intensidad
> 0 si
(i) N tiene incrementos independientes y estacionarios.
(ii) IP(N (h) = 0) = 1 h + o(h).
(iii) IP(N (h) = 1) = h + o(h).
Sigue automaticamente que IP(N (h) 2) = o(h). En lo que sigue se usara
notacion como IP(N (t, t + dt) = 1) = dt significando IP(N (t, t + h) = 1) =
h + o(h) cuando h 0. Defina T1 = S1 , T2 = S2 S1 , ...., Tn = Sn Sn1 , ...
los tiempos entre llegadas.
Teorema 4.1 Las siguiente propiedades son equivalentes:
(i) {N (t)}t0 es un proceso de Poisson con intensidad .
(ii){N (t)}t0 tiene incrementos independientes y N (t) Po(t) para todo
t.
9

(iii) T1 , T2 , .... son i.i.d. exp().


Demostraci
on.
(i) = (ii): Defina pn (t) = IP(N (t) = n). Entonces
pn (t + dt) = IP(N (t + dt) = n)
= IE (IP(N (t + dt) = n|N (t)))
= pn1 (t)dt + pn (t)(1 dt)
implicando que
p0n (t) = pn (t) + pn1 (t).
Defina G(z, t) =
y

n=0

pn (t)z n para z compleja. Entonces G(z, t) = IE(z N (t) )

p0n (t)z n
G(z, t) =
t
n=0

(pn (t) + pn1 (t)) z n

n=0

= G(z, t) + zG(z, t)
= (z )G(z, t).
La condicion inicial es G(z, 0) = IE(z N (0)) = 1 dando la solucion
G(z, t) = exp((z )t).
Esto es justamente el funcion generador IE(z N ) de una variable Poisson con
parametro t (checa lo). Entonces N (t) es Poisson con parametro t. Este
implica (ii) (los incrementos independientes sigue por suposicion de (i)).
(ii) = (iii): Primero demostramos que {N (t)}t0 tiene incrementos estacionarios. Como N (t + h) Po((t + h)) tenemos


e(z)(t+h) = IE z N (t+h)

= IE z N (t+h)N (h) z N (h)




= IE z N (t+h)N (h) IE z N (h)


= IE z N (t+h)N (h) e(z)h

10

dando


IE z N (t+h)N (h) = e(z)t


as que N (t + h) N (h) Po(t). Entonces la distribucion de N (t + h)
N (h) no depende de h. Por incrementos independientes sigue entonces los
incrementos estacionarios.
Proximamente calculamos la densidad en conjunta f de los tiempos entre
llegadas. Tome t0 = 0 s1 < t1 s2 < t2 s3 < t3 ... sn < tn .
Entonces
IP(sk < Sk < tk , k = 1, ..., n)
= IP(N (tk1 , sk ) = 0, N (sk , tk ) = 1, k = 1, ..., n 1,
N (tn1 , sn ) = 0, N (sn , tn ) 1).
Este sigue porque el evento Sn [sn , tn ] no excluye que tambien Sn+1 o
mas llegadas tambien estaran en este mismo intervalo. Este fenomeno, sin
embargo, no pasara en los n 1 anteriores como el siguiente llegada esta
colocada en el siguiente intervalo ajeno de los anteriores.
Usando N (a, b) = N (b) N (a) y los incrementos independientes y estacionarios,
IP(sk < Sk tk , k = 1, ..., n)
n1
Y

= (1 e(tn sn ) )e(sn tn1 )

(tk sk )e(tk sk ) e(sk tk1 )

k=1

= (esn etn )n1

n1
Y

(tk sk )

k=1

Ahora,
Z tn

ex dx =

sn

1 sn
(e
etn )

dando
n

IP(sk < Sk tk , k = 1, ..., n) =


=

n1
Y

Z tn

k=1

sn

(tk sk )

Z t1
s1

...

Z tn1 Z tn
sn1

sn

eyn dyn

n eyn dyn dyn1 ...dy1 .

Entonces la densidad en conjunto de (S1 , ..., Sn ) esta dado por


(

f(S1 ,...,Sn ) (y1 , ...., yn ) =

n exp(yn ) si 0 y1 < y2 < ... < yn


0
otros
11

Para calcular la densidad de (T1 , T2 , ..., Tn ) hacemos una transformacion estandar. Nota que si g : (S1 , S2 , ..., Sn ) (S1 , S2 S1 , ..., Sn Sn1 ) entonces
g es una transformacion lineal dado que

1
0
0 0 ... 0
1 1
0 0 ... 0
0 1 1 0 ... 0
0
0 1 1 ... 0
.
.
. . ... .
0
0
0 0 ... 1

0
0
0
0
.
1

S1
S2
S3
S4
.
Sn

S1
S2 S1
S3 S2
S4 S3
.
Sn Sn1

El Jacobiano de g es la matriz arriba (llamala T ) cuya inversa esta dado por

T 1 =

1
1
1
1
.
1

0
1
1
1
.
1

0
0
1
1
.
1

0
0
0
1
.
1

...
...
...
...
...
...

0
0
0
0
.
1

0
0
0
0
.
1

El determinante det(T 1 ) = 1 y el teorema de transformacion dice que


f(T1 ,...,Tn ) (x1 , ..., xn ) =

f(S1 ,....,Sn ) (g 1 (x1 , ..., xn ))


.
Jg (g 1 (x1 , ..., xn ))

El denominador es 1, y
f(T1 ,...,Tn ) (x1 , ..., xn ) = f(S1 ,...,Sn ) (x1 , x1 + x2 , ...., x1 + ... + xn )
para todo x1 , x2 , ..., xn 0. Insertando obtenemos
f(T1 ,...,Tn ) (x1 , ..., xn ) = n exp((x1 + ... + xn )) =

n
Y

exk

k=1

lo cual es un producto de densidades exponenciales. Entonces los T1 , T2 , ...


son i.i.d. exp().
(iii) = (i): Si T1 exp() entonces IP(T > h) = exp(h) = 1 h + o(h)
por expansion de Taylor, pero esto es igual a IP(N (h) = 0). Similarmente,
IP(N (0, h) = 1) = IP(T1 h, T1 + T2 > h)
12

Z h
0

Z h

ex IP(T2 > h x)dx


ex e(hx) dx

= heh
= h(1 h + o(h))
= h + o(h).
Los incrementos estacionarios es obvio porque la distribucion exponencial no
tiene memoria. Los incrementos independientes sigue por parte de la falta de
memoria y por parte por independencia de los variables T1 , T2 , .... Q.E.D.

5.

Propiedades del proceso de Poisson

Teorema 5.1 (Desminucion) Sea {N (t)}t0 un proceso de Poisson con intensidad . Sea S1 , S2 , ... los tiempos de arribos del proceso. Construye un
nuevo proceso de la siguiente forma. Con probabilidad p el arribo a tiempo
Si sea un arribo del nuevo proceso tambien y con probabilidad 1 p el arribo
sera eliminada. El proceso de conteo que resulta es un Procesos de Poisson
con intensidad p.
Demostraci
on. La probabilidad de un arribo del nuevo proceso en [t, t+dt)
es de pdt.
Q.E.D.
Teorema 5.2 (Superposicion) Sean {M (t)}t0 y {N (t)}t0 dos procesos de
Poisson independientes con intensidades and . Entonces el proceso {M (t)+
N (t)}t0 es un proceso de Poisson con intensidad + .
Demostraci
on. Los arribos del proceso {M (t) + N (t)}t0 es la union de los
arribos de cada proceso. La probabilidad que hay un arribo en [t, t + dt) es la
probabilidad que hay un arribo en {M (t)}t0 o en {N (t)}t0 las probabilidades de las cuales son dt y dt respectivamente. La probabilidad que hay arribos en ambos procesos durante [t, t+dt) es de dt dt = (dt)2 = o(dt) = 0.
Entonces la probabilidad de un arribo es de dt + dt. Un argumento similar
aplica al caso de ning
un arribo y mas que dos arribos. Finalmente es claro que
{M (t) + N (t)}t0 tiene incrementos independientes y estacionarias. Q.E.D.

13

Teorema 5.3 (Aleatoriedad I) Si s < t entonces la distribucion condicional


de N (s) dado N (t) = n es binomial bin(n, st ).
Demostraci
on. Por la propiedad de los incrementos independientes y estacionarios,
IP(N (s) = m, N (t) = n)
IP(N (t) = n)
IP(N (s) = m)IP(N ((s, t]) = n m)
=
IP(N (t) = n)
IP(N (s) = m)IP(N (t s) = n m)
=
IP(N (t) = n)
!  

s m
s nm
n
.
=
1
m
t
t

IP(N (s) = m|N (t) = n) =

Q.E.D.
Teorema 5.4 (Aleatoriedad II) Considere un proceso de Poisson con intensidad . Condicionalmente de N (t) = n, los tiempos de arribo son independientes y uniformemente distribuidos sobre [0, t].
Demostraci
on. Aqu utilisamos la propiedad que los tiempos entre arribos
son independientes y exponencialmente distribuidos. Sea 0 < s1 < s2 < .... <
sn < t. Entonces
IP(S1 (s1 , s1 + ds1 ], ..., Sn (sn , sn + dsn ]|N (t) = n) =
IP(S1 (s1 , s1 + ds1 ], ..., Sn (sn , sn + dsn ], Sn+1 > t)
IP(N (t) = n)
IP(S1 (s1 , s1 + ds1 ], ..., Sn Sn1 (sn sn1 , sn sn1 + dsn ], Sn+1 Sn > t sn )
=
IP(N (t) = n)
s1
(s2 s1 )
(sn sn1 )
e
e
e
ds1 ds2 dsn e(tsn )
=
n
(t) t
e
n!
n!
= n ds1 ds2 dsn .
t
Ahora, 1/t es la densidad de una distribucion uniformemente distribuido sobre [0, t , as que 1/tn es la densidad simultaneo de n variables independientes
14

y uniformes sobre [0, t]. Dado n variables aleatorios uniformes, hay n! maneras distintos de seleccionarlas, y solamente uno de ellos los selecciona en
orden creciente. Todas la ordenes son igual de probables as que n!/tn es
la densidad de is the n variables uniformes ordenados en orden creciente.
Q.E.D.
El resultado anterior se puede utilisar para simular un proceso de Poisson.
Supongamos que qeuremos simular un proceso de Poisson con intensidad
sobre el intervalo [0, t]. Entonces podemos seguir los siguiente dos pasos.
1. Genera n
umero n Po(t).
2 Genera n
umeros uniformes u1 , u2 , ..., un sobre [0, t].
Entonces los puntos u1 , u2 , ..., un son puntos de arribo en un proceso de Poisson con intensidad .

6.

Teora de Renovaci
on

Considere T1 , T2 , ... i.i.d. F . Se supone que F (0) = 0, i.e. las variables


aleatorias Ti son estrictamente positivas. Se Sn = T1 + ... + Tn . Se interpreta
a los Ti s como la distribucion entre arribos y consecuentemente los Si s son
los tiempos de los arribos. Defina el proceso de conteo {Nt }t0
N (t) = sup{n IN|Sn t},
i.e. N (t) es el n
umero de arribos hasta tiempo t.
Defina la funcion de renovacion U (t) = IE(N (t)). Existe la siguiente relacion importante
N (t) n si y solo si Sn t.
(1)
Aplicando (1) a U (t)
U (t) =

nIP(N (t) = n)

n0

=
=

X
n1

nIP(N (t) = n)
IP(N (t) n)

n=1

15

=
=

X
n=1

IP(Sn t)
F n (t).

n=1

donde denota la operacion de convolucion y F 2 = F F , F n = F F (n1) .


La funcion de renovacion es el n
umero esperado de llegadas hasta tiempo
0
t. Su derivado u(t) = U (t) se llama la densidad de renovacion y tiene la
siguiente interpretacion: u(t)dt es la probabilidad de una llegada en [t, t+dt).
Para ver esto, se nota que u(t)dt = U (t + dt) U (t) = IE(N [t, t + dt))
y como pueden haber maximo una llegada en [t, t + dt) (las distribuciones
son absolutamente continuas as que atomos no son posibles) tenemos que
u(t)dt = IP(una llegada en [t, t+dt)). La densidad de renovacion se interpreta
como la tasa de renovacion a tiempo t.
Teorema 6.1 U (t) < para todo t > 0.
Demostraci
on. Primero nota que F (n+m) = F n F m . Entonces
F

(n+m)

Z t

F m (t x)dF n (x)

0
m

(t)F n (t)

Sea n = m r + k para alg


un r fijo. Entonces
F n (t) =
=

F (mr+k) (t)
F (r+((m1)r+k)) (t)
F r (t)F ((m1)r+k) (t)
...
[F r (t)]m F k (t).

Como las variables Ti son estrictamente positivas se puede escoger un r IN


tal que IP(T1 + ... + Tr > t) > 0. De hecho, si el suporte de la distribucion
de F es todo (0, ) entonces r = 1 basta. Si el suporte es finito, entonces se
puede necesitar varios Ti s para poder llegar a t. En conclusion exista r tal
que F r (t) < 1. Entonces
U (t) =

F n (t)

n=1

16

X
r
X

F (mr+k) (t)

m=0 k=1
r
X
k

k=1

m=0

F (t)

[F r (t)]m < .
Q.E.D.

Se nota como consecuencia inmediata que F n (t) 0 cuando n .

7.

Ecuaciones de renovaci
on

Considere la funcion de renovacion U . Condicionando en el tiempo del


primer arribo T1 = x nos da
U (t) = IE(N (t))
=

Z
0

Z t
0

IE(N (t)|T1 = x)f (x)dx

IE(N (t)|T1 = x)f (x)dx

[1 + U (t x)] f (x)dx

= F (t) +

Z t

U (t x)f (x)dx

= F (t) +

Z t

U (t x)dF (x)

= F (t) + F U (t),
donde f es la densidad de T1 . Entonces U satisface la ecuacion
U = F + F U.
Este es un ejemplo de una ecuacion de renovacion. El argumento utilzando
el condicional en T1 se conoce como un argumento de renovacion.
En general una ecuacion de renovacion es una ecuacion de la forma
A(t) = a(t) +

Z t

A(t x)dF (x),

donde a es una funcion conocido y la solucion A es la funcion de interes.


17

Teorema 7.1 Sea a(t) una funcion acotada sobre intervalos acotadas. Entonces hay una y sola una solucion A(t) que esta acotada sobre intervalos
acotadas a la ecuacion
A(t) = a(t) +

Z t

A(t x)dF (x),

y la solucion esta dada por


A(t) = a(t) +

Z t

a(t x)dU (x).

Demostraci
on. Primero demostramos que A(t) = a(t) +
esta acotada sobre intervalos acotadas. Este sigue de


sup A(t) =
0tT

sup

a(t) +

Z t

sup a(t) +

Z T
0

0tT

a(t x)dU (x)

a(t x)dU (x)

0tT

Rt

sup a(s)dU (x)


0sT

sup a(t) (1 + U (T )) ,
0tT

y como U (T ) < sigue el resultado. Ahora demostramos que la solucion


propuesta efectivamente satisface la ecuacion de renovacion.
A(t) = a(t) + U a(t)
= a(t) +

a (t)

n=1

= a(t) + F a(t) +
= a(t) + F a(t) +

X
n=2

a (t)
!

n=1

= a(t) + F A(t).
Al final demostramos unicidad. Supongamos que exista otra solucion B(t) que
esta acotada sobre intervalos acotados. Entonces B satisface B = a + F B.
Restando
|A(t) B(t)| = |a(t) + F A(t) a(t) F B(t)|
18

= |F (A B)(t)|
= ...
= |F n (A B)(t)|
Z t

(A B)(t x)dF n (x)

Z 0

|A(t x) B(t x)| dF n (x)

sup |A B|(s)F n (t),


0st

y como A y B son acotados sobre intervalos acotados y F n (t) 0 sigue que


A = B.
Q.E.D.
Una aplicacion bonita del teorema arriba es lo siguiente. Queremos calcular IE(SN (t)+1 ), i.e. el tiempo esperado hasta el primer arribo despues de
tiempo t. Primero aplicamos un argumento de renovacion para establecer la
ecuacion. Sea A(t) = IE(SN (t)+1 ). Condicionado en T1 = x tenemos las siguiente dos posibilidades. Si x > t, entonces no hay arribos hasta tiempo t,
y SN (t)+1 = S1 sera el primer arribo por lo tanto SN (t)+1 = x en este caso. Si
X t, entonces IE(SN (t)+1 |T1 = x) = a + A(t x). Entonces
A(t) =

xdF (x) +

Z t

(x + A(t x))dF (x)

= IE(T1 ) +

Z t

A(t x)dF (x).

e Este es una ecuacion de renovacion con a(t) = IE(T1 ) constante y por lo


tanto acotado. Entonces A(t) esta dado por
A(t) = IE(T1 ) +

Z t
0

IE(T1 )dU (x)

= IE(T1 ) (1 + U (t)) ,
i.e. hemos demostrado que
Teorema 7.2
IE(SN (t)+1 ) = IE(T1 ) (1 + U (t)) .
Con este teorema podemos calcular el comportamiento en el lmite de U (t).

19

Teorema 7.3 Si {N (t)}t0 es un proceso de renovacion con tiempos entre


arribos que tienen una esperanza finito, entonces
1
U (t)
= .
t
t

lm

Demostraci
on. Como t < SN (t)+1 tenemos
t < IE(SN (t)+1 ) = (1 + U (t))
dando

U (t)
1 1
>
t
t

y por lo tanto
U (t)
1
.
t
t

Para establecer la desigualad opuesta, usamos un truco de acotamiento de


los tiempos entre arribos. Sean Ti los tiempos originales entre arribos y sean
lm inf

Tic

Ti si Ti c
c si Ti > c

Ahora considere el proceso de renovacion que tiene los Tic s como tiempos
entre arribos. Llamamos a N c (t) el proceso de conteo correspondiente. Como
los Ti s son acotados por c podemos obtener la desigualdad opuesta SN c (t)+1
t + c dando
t + c IE(SN c (t)+1 ) = c (1 + U c (t)),
donde c es la media de Tic y U c la funcion de renovacion correspondiente al
proceso de renovacion acotado. Primero,
c

Z
0

IP(Tic

> x)dx =

Z c
0

IP(Xic

> x)dx =

Z c

(1 F (x))dx,

donde Ti F es la funcion de distribucion. Por otro lado, Tic Ti por lo


tanto N c (t) N (t) para todo t > 0 y entonces U c (t) U (t). Concluimos
que
t + c c (1 + U c (t)) c (1 + U (t)).
lo cual es lo mismo que
U (t)
1
1
c+
t

t
20

c
1 .
c

Tomando lmite,
lm sup
t

1
U (t)
c.
t

Este es valido para todo c, entonces tambien en el lmite


lm sup
t

Pero
lm c = c
lm
c

Z c

U (t)
1
lm c .
c
t

(1 F (x))dx =

(1 F (x))dx =

por lo tanto
lm sup
t

1
U (t)
.
t

Entonces el lmite de U (t)/t existe es igual a 1/.

8.

Q.E.D.

Procesos de renovaci
on retrasados y estacionarios

Este situacion ocurre cuando el tiempo hasta el primer arribo tiene una
distribucion distinto a los demas. Un puede considerar esta situacion como el
instante en que llega uno para observar al proceso de renovacion no coincide
con un arribo, y uno llega tarde. Entonces el primer arribo va tener una
distribucion distinto a los demas salvo en el caso donde los tiempos entre
arribos tiene una distribucion exponencial.
Sea T1 G y T2 , T3 , ... F . Se supone que todas las variables Ti son
independientes. Sea S0 = 0 y Sn = T1 + ... + Tn . Sea N (t) el n
umero de
arribos del proceso retrasado en [0, t],
UD (t) = IE(N (t))
y a U reservamos para ser la funcion de renovacion del proceso noretrasado
correspondiente, i.e.
U (t) =

n=1

21

F n (t).

Aplicamos la tecnica de condicionar en el tiempo del primer arribo otra vez,


UD (t) = IE(N (t))
=

Z
0

Z t
0

Z t

IE(N (t)|T1 = x)dG(x)

IE(N (t)|T1 = x)dG(x)


(1 + U (t x))dG(x)

= G(t) +

Z t

U (t x)dG(x)

= G(t) +

Z t

G(t x)dU (x) (G U = U G).

Este es justamente la forma de una solucion a la ecuacion de renovacion


UD (t) = G(t) +

Z t

UD (t x)dF (x).

De interes particular es el caso de procesos de renovacion estacionarios.


Aqu se supone que iniciamos de observar el proceso de renovacion despues
de un tiempo infinito. Si el proceso ha corrido tiempo infinito cuando pasa
cero, cual es la distribucion pare el primer arribo que vamos a observar?
Formalmente definimos,
Definici
on 8.1 Un proceso de renovacion es estacionario si {N (t + s)
D
N (t)} = {N (s)}.
Considere un proceso de renovacion estacionario. Entonces UD (t) = ct. Para
ver esto simplemente nota que en particular tenemos que (tomando esperanzas) UD (t + s) UD (t) = UD (s), i.e. UD (t + s) = UD (t) + UD (s) implicando
la forma deseada.
Ahora
UD (t) = G(t) +

Z t
0

UD (t x)dF (x)

Entonces UD (t) = ct si y solo si


ct = G(t) +

Z t

c (t y)F (dy)

22

o
G(t) = ct

Z t

c (t y)F (dy).

Integrando por partes


Z t

c (t y)F (dy) = [c (t

y)F (y)]t0

+c

Z t

F (y)dy

se obtenga que
G(t) = c

Z t

(1 F (y))dy.

Si G no tiene defecto (tiene masa uno), G() = 1, entonces c 0 (1


R
R
D
F (y))dy = 1. Pero 0 (1 F (y))dy = 0 IP(X > y)dy = , donde X = F .
Entonces c = 1 . Entonces
R

G(t) =

1Zt
(1 F (x))dx.
0

Sigue que para cualquier proceso estacionario tenemos que


IE(N (t, t + h)) = UD (t + h) UD (t) = (t + h)/ t/ = h/.
El derivado de UD (t) esta dado por
UD0 (t) =

1
uD (t),

donde se refiere a uD (t) como la densidad de renovacion. La densidad de


renovacion tiene la siguiente interpretacion.
uD (t)dt = UD (t + dt) UD (t) = IP(arribo en [t, t + dt)).
Para el caso estacionario tenemos entonces que la probabilidad de un arribo
en [t, t + dt) es de (1/)dt, i.e. no depende del tiempo t.
Considere el tiempo de espera residual a tiempo t, Rt = SN (t)+1 t, lo cual
es el tiempo desde t hasta la siguiente llegada. Si el proceso es estacionario
entonces 1 dt = u(t)dt = IP(llegada en [t, t + dt)) = IP(Rt dt), entonces Rt
no depende de t. Como R0 G por definicion, entonces para un proceso de
renovacion estacionario Rt G para todo t.

23

9.

Procesos de renovaci
on terminales

Frecuentemente se encuentran procesos de renovacion que solamente tienen un n


umero finito de renovaciones. Por razones obvios los vamos a llamar procesos de renovacion terminales. Formalmente este pasara si alguno
Sn = , lo cual es equivalente a Tn = . Tal situacion ocurre si la distribucion entre llegadas es defectuosa, i.e. ||F || = lmt F (t) < 1, en dado caso
debe de existir un atomo en el punto +.
Definici
on 9.1 Un proceso de renovacion es terminal si ||F || < 1. El tiempo
de vida de un proceso de renovacion terminal M esta definido por
M = sup{Sn | Sn < }.
Teorema 9.1 Para un proceso de renovacion no retrasado y terminal con
funcion de renovacion U (t) tenemos que
IP(M x) = (1 ||F ||)U (x).
Demostraci
on. Defina Z(x) = IP(M x) para x 0. Condiciona en T1 .
Si T1 = +, lo cual pasara con probabilidad 1 ||F ||, entonces M = 0 y por
lo tanto IP(M x) = 1 para todo x 0. Si T1 < entonces condicionando
en T1 = s < , M x si y solo si el proceso de renovacion que iniciara a
tiempo s tiene una vida menor o igual a xs, lo cual pasara con probabilidad
Z(x s). Entonces
Z(x) = (1 ||F ||) 1 +

Z x

Z(x s)dF (s)

Este es una ecuacion de renovacion con z(x) = 1 ||F || constante y


por lo tanto acotada. Por Teorema 7.1 y notando que este teorema tambien
vale para distribuciones defectuosas, concluimos que la u
nica solucion a este
ecuacion, Z(x), esta dado por
Z(x) = U (1 ||F ||)(x)
= (1 ||F ||)U (x).
porque 1 ||F || es constante.

Q.E.D.

24

10.

Procesos escalonados y el modelo Cram


erLundberg

Considere el proceso de riesgo Rt :


N (t)

Rt = u + pt

Yj ,

j=0

donde {N (t)} es un proceso de Poisson con intensidad y Yj s son reclamaciones i.i.d. con distribucion com
un F . Tomamos Y0 = 0 as que si N (t) = 0
no se restan reclamaciones.
Estamos interesados en la probabilidad de ruina,
(u) = IP( nf Rt < 0 | R0 = u).
0t<

En cambio de Rt vamos a considerar el proceso de superavit de reclamaciones


(Ingles: claim surplus)
N (t)

St = u Rt =

Yj pt.

j=0

Entonces
(u) = IP(sup St > u).
t>0

Sea + = + (1) = nf{t > 0|St > 0} el primer tiempo {St } cruzara 0.
Obviamente St solamente puede cruzar el nivel cero en cuando llega una
reclamacion. La cantidad que St supera cero es de S+ . La distribucion de S+
es defectuosa porque + puede ser infinta (si la tendencia de St es negativo).
Sea G+ la funcion de distribucion de S+ :
G+ (x) = IP(S+ x, + < ), ||G+ || = IP(+ < ).
Iniciando desde S+ , las llegadas siguen siendo en proceso de Poisson y las
reclamaciones siguen siendo i.i.d. F . Ahora consideramos la primera vez
que St cruzara nivel S+ . Formalmente sea + (n) = nf{t > + (n 1)|St >
S+ (n1) }. Entonces {S+ (n+1) S+ (n) }n1 es un proceso de renovacion (posiblemente terminal) con distribucion de tiempos entre llegadas G+ .

25

St

u
S+
t
+

Figura 1: El proceso de superavit


Se supone que ||G+ || < 1. Entonces el proceso es terminal con tiempo de
vida M = sup0t< St dado por
IP(M x) = (1 ||G+ ||)

Gn
+ (x).

n=0

Este formula es conocido como la formula de PollaczekKhinchine. Notamos


que ruina ocurre si y solo si M u. Entonces se puede calcular la probabilidad de ruina usando G+ lo cual sera la siguiente tarea. Primero demostramos
que la probabilidad de ruina satisface una ecuacion de renovacion.
Si H es una funcion de distribucion, posiblemente defectuosa,
denotamos
R
la funcion de supervivencia correspondiente, i.e. H(x)

por H
= x dH(x) (lo
cual es igual a 1 H(x) en el caso que H no es defectuosa).
Teorema 10.1 La probabilidad de ruina (u) satisface la siguiente ecuacion
de renovacion
+ (u) + G+ (u).
(u) = G
Demostraci
on. La probabilidad de ruina es igual a IP(M > u). Ahora si
M > u es porque uno de los S+ (n) > u. Distinguimos entre si es S+ que es
26

mayor que u o uno de los otros.


(u) = IP(M > u)
= IP(S+ > u, + < ) + IP(S+ u, + < , M > u)
+ (u) + IP(S+ u, + < , M > u)
= G
+ (u) +
= G
+ (u) +
= G

Z u
Z0u
0

IP(M > u, + < |S+ = x)dG+ (x)


(u x)dG+ (x)
Q.E.D.

Ahora seguimos el analisis convencional para calcular la probabilidad de


ruina.
Lema 10.1 For any t > 0,
D

Su := St Stu = Su .
Demostraci
on.
Su = St Stu

N (t)

N (tu)

Yj pt

j=0

Yj p(t u)

j=0

N (u)
D

Yj pu

j=0

= Su .
Q.E.D.
Definici
on 10.1
R+ (A) = IE

Z +
0

I{St A}dt.

Lema 10.2 R+ () es 1/p veces la medida de Lebesgue restringido a (, 0)


.

27

Demostraci
on. Primero notamos que
R+ (A) = IE

Z
0

I{St A, + > t}dt =

Z
0

IP(St A, + > t)dt.

Por Lema 10.1 y usando que Su = St Stu


tenemos

IP(St A, + > t) =
=
=
=
=
=

IP(St A, Su 0, 0 u t)
IP(St A, Su 0, 0 u t)

IP(St A, St Stu
0, 0 u t)

IP(St A, St Stu 0, 0 u t)
IP(St A, St Stu 0, 0 u t)
IP(St A, St Su 0, 0 u t)

Entonces
R+ (A) =

Z
0

= IE

IP(St A, St Stu 0, 0 u t)dt

Z
0

I{St A, St Su 0, 0 u t}dt.

Entonces R+ (A) es el tiempo esperado que St se encuentra en A y a valores


mnimo. Como St (Rt tiene tendencia positiva porque ||G+ || < 1) y
St es continua fuera de saltos, entonces eventualmente St pasara por todos
puntos en A. El pendiente de St fuera de saltos es de p y pasara por A p
veces mas rapido como si fuera 1.
Q.E.D.
Corolario 10.1 R+ (dy) = p1 I{y < 0}dy.
Para unaRfuncion de distribucion G se defina la medida correspondiente

por G(A)
= A dG(x) = IP(Yn A).
+ es la restriccion de R+ F a (0, ).
Lema 10.3 G
+ (A) = IP(S+ A, + < ) y
Demostraci
on. Estamos interesados en G
por lo tanto estudiar el evento {S+ A} para A (0, ). Dado {Su }0u<t ,
St esta conocido y una reclamacion Y contribuyera al evento {S+ A} si
hay un salto a tiempo
t tal que St +Y A. Como St es fijo, la probabilidad
R
es de I{t + } I{x A St }dF (x) = I{t + }F (A St ). Como el
28

proceso de arribo es Poisson, la probabilidad que hay una llegada en [t, t+dt)
es de dt.
+ (A) = IP(S+ A, + < )
G
=

Z
0

= IE

Z
0

= IE

Z
0

= IE

IE IE I{t + }F (A St )|{Su }0u<t

Z +
0



dt

I{+ t}F (A St )dt


I{+ > t}F (A St )dt
F (A St )dt.
R

Recuerda que R+ (A) = IE 0 + I{St A}dt y entonces aproximando con


funciones simples tenemos que para cualquiera funcion medible g 0,
Z 0

g(y)dR+ (t) = IE

Z +
0

g(St )dt.

Defina g(y) = F (A y) (no cual es una funcion medible nonegativo). Entonces


+ (A) = IE
G

Z +
0

g(St )dt =

Z 0

g(y)dR+ (y) = R+ F (A).


Q.E.D.

Teorema 10.2 Sea = /p < 1, donde = IE(Y ), Y F es el tama


no
esperado de los reclamaciones. Entonces G+ es defectuoso con densidad (defectuoso)

g+ (x) = (1 F (x)).
p
Demostraci
on.
G+ (x + dx) G+ (x) =

Z 0

1
(F (x + dx y) F (x y))I{y < 0} dy
p

Z0
=
IP(Y (x y, x + dx y])dy
p
Z0
=
f (x y)dx dy
p
29

Z
f (u)du dx
p x

=
(1 F (x))dx,
p

donde f es la densidad (F es absolutamente continua).

Q.E.D.

Por la formula de PollaczekKhinchine el problema de como calcular la


probabilidad de ruina ha sido resuelto. Sin embargo hay un caso particular
clasico cuando las reclamaciones son i.i.d. con distribucion com
un exp() y
que resulta en una formula cerrada:
Teorema 10.3 Si las reclamaciones son i.i.d. exp() entonces
(u) = exp(( /p)u),
donde =

< 1.

Demostraci
on. La densidad de g+ del proceso escalonado ascendiendo esta
dado por

g+ (x) = (1 F (x)) = ex = ex .
p
p
Entonces
Z
g+ (x)dx = .
||G+ || =
0

Entonces g+ es una distribucion exponencial defectuosa. La convolucion de


n exponenciales defectuosas resulta en una Erlang (Gama) defectuosa con
densidad
xn1 x
n
g+
(x) = ()n
e .
(n 1)!
Diferenciacion de la formula de PollaczekKhinchine formula implica que la
densidad de M , fM (u), esta dado por
fM (x) = (1 )

n
g+
(x).

n=1

Aplicando esta formula


fM (u) = (1 )

X
n=1

30

n
g+
(u)

= (1 )

()n

n=1

= (1 )eu

un1 u
e
(n 1)!

(u)n1
n=1 (n 1)!

= (1 )eu eu

= ( )e( p )u .
p
Entonces
(u) = IP(M > u) =

Z
u

fM (s)ds = e(/p)u .
Q.E.D.

Otro caso particular es la probabilidad ruina cuando la reserva inicial es


cero. Aqu
(0) = 1 (1 ||G+ ||) = .
Teorema 10.4 La probabilidad de supervivencia Z(u) = 1 (u) satisface
la siguiente ecuacion de renovacion (defectuosa):
Zt
Z(t u)(1 F (u)du.
Z(t) = Z(0) +
p 0
Demostraci
on. Condiciona en el tiempo del primer arribo s y del tama
no
de la reclamacion correspondiente,
Z(u) =

es

Z u+ps

Z(u + ps x)dF (x)ds.

Sustituyendo t = u + ps,
Z(u) =

tu
p

Z t

1
Z(t x)dF (x) dt
p

Z up pt Z t
=
e e
Z(t x)dF (x)dt
p u
0
dando
u

e p Z(u) =

Z pt Z t
e
Z(t x)dF (x)dt.
p u
0

31

De aqu se ve que u Z(u) es diferenciable y derivando ambos lados con


respecto a u se obtenga
e

u
p

up Z u
0
Z (u) Z(u) = e
Z(u x)dF (x).
p
p
0

Entonces
Z 0 (u)
o

Z
Z(u x)dF (x)
Z(u) =
p
p 0

Z
Z (u) = Z(u)
Z(u x)dF (x)
p
p 0
0

resultando en
Z(t) Z(0) =

Z t
0

Z tZ

Z(u)du
Z(u x)dF (x)du.
p
p 0 0

Defina

( R ty

h(y) =

Z(u)du si y < t
.
0
si y t

Entonces
Z(t) Z(0) =
=
=
=
=
=
=
=

Z tZ
1[0,u] (x)Z(u x)dF (x)du
h(0)
p
p 0 0

Z Z t
Z(u x)dudF (x) (Fubini)
h(0)
p
p 0 x

Z
h(x)dF (x)
h(0)
p
p 0

Z
h(x)F 0 (x)dx
h(0)
p
p 0

Z
h(0) +
h(x)F 0 (x)dx (F = 1 F )
p
p 0


Z

[h(x)F ]0
h (x)F (x)dx
h(0) +
p
p
0
Z 0

h (x)F (x)dx
p 0
Zt
Z(t x)(1 F (x)dx.
p 0
32

Entonces
Z(t) = Z(0) +

Z t
0

Z(t x) (1 F (x))dx.
p
Q.E.D.

Exploramos lo que significa para el proceso de riesgo mismo que < 1.


Como
N (t)

Rt = u + pt

Yi

i=1

tenemos que
N (t)

Yi

IE(Rt ) = u + pt IE

i=1

= u + pt
= u + pt

X
n=0

IE

n
X

Yi |N (t) = n IP(N (t) = n)

i=1

nIP(N (t) = n)

n=1

= u + pt t
= u + (p )t
as que Rt tiene pendiente positivo si p > 0, i.e. < 1.
El coeficiente o carga de seguridad esta definido por
=

p
1
= 1.

Entonces cuando < 1, > 0 y para poder hacer negocio rentable tenemos
que tener > 0.
Ejemplo 10.1 En seguro de vida se maneja procesos de riesgo con sumas
de riesgos negativos. Considere un seguro de anualidades que pagan una pensiones de tasa p a los asegurados. En cuanto se fallece uno de los asegurados,
la esperanza de lo que hubiera pagado la compa
na si no se hubiera muerto
el asegurado se puede considerar como una reclamacion negativo. Entonces
el proceso de riesgo es de
N (t)

Rt = u pt

X
i=1

33

Yi ,

donde Y1 , Y2 , ... son negativos F y p > 0. Sea (u) otra vez la probabilidad
ruina para este proceso. Como solamente puede haber ruina cuando no se
muere un asegurado, i.e. entre arribos, se sigue por los incrementos independientes y estacionarias del proceso que (u) = (u x)(x). Efectivamente,
hay ruina si y solo i el proceso de de riesgo Rt va desde u a x eventualmente
y luego desde x a cero eventualmente. La probabilidad de lo primero es de
(u x) y por lo u
ltimo de (x). Entonces
(u) = eru
para alg
un r > 0. Para calcular r, consideramos la probabilidad de supervivencia Z(u) = 1 (u). Condicionando en si hay un arribo en [0, dt) o no se
obtenga
Z(u + pdt) = (1 dt)Z(u) + dt

Z 0

Z(u z)dF (z).

Expansion de Taylor de Z nos da Z(u + pdt) = Z(u) + Z 0 (u)pdt. Insertando


y resolviendo resulta en
Z0

0
Z(u z)dF (z).
Z (u) = Z(u) +
p
p
Sabemos que la forma de la solucion es de Z(u) = 1 ert . Entonces
re

ru

Z0
ru
= (1 e ) +
(1 er(uz) dF (z)
p
p

resultando en
Z 0
rp
erz dF (z)
= 1

o
Z 0
r(p)
=
erz dF (z) 1.

El integral es la funcion generadora de momentos mF (r) =


se tiene que resolver la ecuacion

R0

erz dF (z) y

r(p)

al cual se refiere a la ecuacion de Lundberg. Sobre este mas en adelante.


Al menos vale la pena mencionar en este momento que para el argumento
arriba funcione se necesita el mF exista lo cual solamente es el caso para
distribuciones con colas ligeras.
mF (r) 1 =

34

11.

Martingalas

En esta seccion presentamos las definiciones y resultados fundamentales


de martingalas lo cual se va utilizar en varios ocasiones en el resto del curso.
Primero consideramos el caso de tiempo discreto.
Sea {Xn }nIN un proceso estocastico y sea Fn algebras crecientes tal
que Xn es Fn medible. Por ejemplo Fn = (X0 , X1 , ..., Xn ) en muchos casos.
{Fn }nIN se llama una filtracion.
Definici
on 11.1 {Xn }nIN es una {Fn }martingala si IE|Xn | < para todo
n IN y
IE(Xn+1 |Fn ) = Xn c.s.
para todo n IN.
Similarmente {Xn }nIN se llama una sub-(super-)martingala si en cambio de
igualdad tenemos desigualdad ().
Obviamente si {Xn }nIN es una martingala entonces IE(Xn+k |Fn ) = Xn
para todo k, n IN por la ley iterativa de esperanzas condicionales.
Teorema 11.1 (Teorema de convergencias)
Si {Xn }nIN es una submartingala tal que
sup IE(Xn+ ) <
n1

entonces {Xn }nIN converge c.s. a un limite integrable X , i.e. IE|X | < .
Si
sup IE(Xn2 ) <
n1

entonces {Xn }nIN converge a X en L1 y X L2 .


Si {Xn }nIN es una supermartingala positiva entonces {Xn }nIN es una
submartingala (negativa). Ademas como
Xn IE(Xn+1 |Fn ) 0
entonces {Xn }nIN y por lo tanto {Xn }nIN esta acotada uniformemente y
por lo tanto converge c.s. seg
un el teorema arriba.

35

Definici
on 11.2 Un tiempo de paro con respecto a la filtracion Fn es una
variable aleatoria tomando valores en IN {} tal que { = n} Fn para
todo n.
Teorema 11.2 (Teorema de paro opcional)
Si {Xn }nIN es una martingala y un tiempo de paro acotada, entonces
IE(X ) = IE(X0 ).
Demostraci
on. n0 para alguna constante. Entonces
n0
X

IEX = IE

1{ = n}Xn

n=0

=
=
=
=

n0
X
n=0
n0
X
n=0
n0
X
n=0
n0
X

IE (1{ = n}Xn )
IE (IE(Xn0 |Fn )1{ = n})
IE (IE(1{ = n}Xn0 |Fn ))
IE (1{ = n}Xn0 )

n=0

= IE(Xn0 )
= IE(X0 )
Q.E.D.
Teorema 11.3 Si {Xn }nIN es una martingala y un tiempo de paro lo cual
es finito c.s. y tal que
1. IE|X | <
2. lmn IE (Xn 1{ n}) = 0.
Entonces
IE(X ) = IE(X0 ).

36

Demostraci
on. Defina n = mn(, n) = n. Entonces n son tiempos
de paro acotados (por n). Entonces por Teorema 11.2 IE(Xn ) = IE(X0 ).
|X 1{ n}| esta dominado por |X | el cual es integrable por 1. Entonces por convergencia dominada y porque es finito c.s. tenemos que
lmn IE(X 1{ n}) = IE(X ). Entonces
IE(X0 ) =
=
=

lm IE(Xn )

lm (IE(Xn 1{ n}) + IE(Xn 1{ > n}))

lm IE(X 1{ n}) + lm IE(Xn 1{ > n})

= IE(X )
por 2. y lo anterior.

Q.E.D.

Teorema 11.4 Si {Xn }nIN es una martingala y un tiempo de tal que


1. IE < .
2. IE (|Xn+1 Xn ||Fn ) C < para alg
un constante C y para todo n < .
Entonces
IE(X ) = IE(X0 ).
Demostraci
on. Defina Z0 = |X0 |, Zn = |Xn Xn1 | para n 1 y
W = Z0 + Z1 + ... + Z .
Como X = X0 + X1 X0 + ... + X X 1 tenemos que |X | W . Ademas,
IE(W ) =
=
=

X
k=0

X
k=0

X
k=0

IE (Zk 1{ k})
IE (IE (Zk 1{ k}|Fk1 ))
IE (1{ k}IE (Zk |Fk1 ))
CIP( k)

k=0

= C

(IP( = k) + IP( > k))

k=0

= C(1 + IE( )).


37

Entonces IE(W ) < y por lo tanto IE(|X |) < . Ademas como la suma
converge los terminos IE(Zk 1{ k}) 0 cuando k . Pero
|IE(Xk 1{ > k})|

IE(|Xk |1{ > k})


IE(|Xk |1{ k})
IE(W 1{ k})
0

cuando k . Entonces aplica Teorema 11.3.

Q.E.D.

Ahora se considera una caminata aleatoria {Sn }nIN , i.e.


Sn = X1 + ... + Xn
donde los Xi s son i.i.d. tal que IE|Xi | < . Sea Fn = (X0 , X1 , ..., Xn )
entonces {Sn nIE(X1 )}nIN es una Fn martingala. Esto es facil de ver como
IE(Sn+1 (n + 1)IE(X1 )|Fn ) = IE(Xn+1 + Sn (n + 1)IE(X1 )|Fn )
= IE(Xn+1 |Fn ) + Sn (n + 1)IE(X1 )
= Sn nIE(X1 ).
Teorema 11.5 (Wald)
Si es un tiempo de paro para la caminata aleatoria arriba tal que IE( ) < ,
entonces
IE(S ) = IE( )IE(X1 ).
Demostraci
on. Aplicamos Teorema 11.4. Defina Yn = Sn nIE(X1 ). Entonces IE(Yn ) = 0 y
IE(|Yn+1 Yn ||Fn ) =

=
=

IE(|Xn+1 IE(X1 )||Fn )


IE(|Xn+1 ||Fn ) + IE(|X1 |)
IE(|Xn+1 |) + IE(|X1 |)
2IE(|X1 |) < .

Entonces IE(Y ) = IE(Y0 ) = 0 pero Y = S IE(X1 ) por lo tanto IE(S ) =


IE( )IE(X1 ).
Q.E.D.
La teora de martingalas en tiempo continua es un poco mas elaborada
aunque de punto de vista matematico no contiene ideas novedosas sino mas
38

bien usara las mismas como hemos desarrollado en tiempo discreta. En lo


siguiente mencionamos definiciones y resultados correspondientes a los de la
teora discreta.
Sea {Xt }t0 un proceso estocastico en tiempo continua. Un filtracion
{Ft }t0 es una familia creciente de algebras. El proceso {Xt }t0 es una
{Ft }t0 martingala si y solo si
IE(Xt+s |Ft ) = Xs
y si ademas IE(|Xt |) < para todo t 0 y si Xt es Ft medible. Definiciones
de sub- y supermartingala es similar.
Un tiempo de paro esta definida de manera parecida como en tiempo
discreta, nada mas que la expresion { = x} ya no tendra sentido. En cambio
se defina el tiempo de paro como un variable aleatorio tal que { t} Ft
para todo t.
Tenemos teoremas de paro opcional tambien en tiempo continua
Teorema 11.6 Si {Xt }t0 es una martingala y un tiempo de paro acotado,
entonces
IE(X ) = IE(X0 ).
Teorema 11.7 Si {Xt }t0 es una martingala y es un tiempo de paro finita
con IE(|X |) < y lmt IE(|Xt |1{ > t}) = 0 entonces
IEX = IEX0 .

12.

Coeficiente de ajuste y desigualdad de


Lundberg

Primero consideramos un proceso de superavit general: St = uRt donde


Rt es el desarrollo de la reserva de una aseguradora en terminos generales.
Sea (u) = nf{t 0 : St > u} el tiempo de ruina y sea (u) = S (u) u la
severidad de ruina (la cantidad que Rt esta por abajo de cero en el momento
de ruina).
Teorema 12.1 Supongamos que existe un > 0 tal que {exp(St )}t0 es
una martingala y que St tiene tendencia negativa St cuando t .
Entonces


1
= exp(u)IE e(u) | (u) < .
(u)
39

Demostraci
on. Usamos el teorema de paro opcional para el tiempo de
paro acotada (u) T para un T fijo. Como S0 = u R0 = 0 es claro que
exp(S0 ) = 1 y por paro opcional entonces


1 = IE eS (u)T .
Ahora


IE eS (u)T

= IE eS (u)T 1{ (u) T } + IE eS (u)T 1{ (u) > T }




= IE eS (u) 1{ (u) T } + IE eST 1{ (u) > T } .


En el segundo termino eST 1{ (u) > T } eST y por suposicion de martingala eST es integrable
y St  por suposicion. Entonces por convergen
cia dominada IE eST 1{ (u) > T } 0 cuando T . El primer termino


converge obviamente a IE eS (u) 1{ (u) < } cuando t . Entonces




1 = IE eS (u) 1{ (u) < } .


Insertando S (u) = u + (u),
1 = eu IE(e(u) 1{ (u) < }) = eu IE(e(u) | (u) < )IP( (u) < )
lo cual tenamos que demostrar.

Q.E.D.

Teorema 12.2 (Desigualdad de Lundberg)


Bajo las condiciones del teorema arriba,
(u) eu .
Demostraci
on. Como (u) 0 por definicion entonces IE(e(u) | (u) <
) 1.
Q.E.D.
Ahora consideramos el caso particular del modelo de CramerLundberg.
Aqu
St =

Nt
X

Yi pt,

i=0

40

donde Nt es un proceso de Poisson con tasa . El funcion generador de


momentos de St esta dado por
sSt

IE(e

Nt
X

) = IE exp (

!!

Yi pt)s

i=0

= e

pst

Nt
X

IE exp (

!!

Yi )s

i=0

= epst

IE e(Y1 +...+Yn )s IP(Nt = n)

n=0

(t) t
e
FY (s)n
n!
n=0
= exp(pst t + FY (s)t)
= exp((s)t),
= epst

donde FY (s) = IE(esY ) es el funcion generador de momentos de Y F y


(s) = FY (s) ps.
Estamos interesados en la ecuacion de Lundberg (s) = 0 por la siguiente
razon. Si > 0 es tal que () = 0 entonces IE(eSt ) = 1 (en particular eSt
es integrable) y


IE eSt+u |Ft

= IE e(St+u St +St ) |Ft




= eSt IE e(St+u St ) |Ft




= eSt IE e(St+u St )


= eSt IE eSu

= eSt ,
como
Nt+u

St+u St =

Yi p(t + u) (

i=0

Nt
X
i=0

Yi pt)

Nu
X

Yi pu = Su .

i=0

Entonces {eSt } es una martingala. Si p > entonces la tendencia a


tambien es un hecho. Entonces las condiciones del Teorema 12.1 estan satisfechos. La solucion a la ecuacion de Lundberg entonces resulta en cumplir
las condiciones de la en teoremas arriba y por lo tanto es de importancia.
La solucion se conoce como el coeficiente de ajuste (de Lundberg).
41

Ejemplo 12.1 Un caso particular y clasico (sin embargo poco realista) es


cuando las reclamaciones son i.i.d. y exponenciales con parametro . Entonces
= 1 y la condicion del negocio es de < p. La ecuacion de Lundberg es
0 = (s) = FY (s) ps = (

1) ps.
s

Soluciones son s = 0 y s = p . Como < p entonces = p > 0. Cuando


las reclamaciones son exponenciales entonces (u) tienen una distribucion
exponencial con parametro por la propiedad de falta de memoria, y por lo
tanto


IE e

(u)

| (u) < =

e e

dx =

e( p )x ex dx =

Entonces
(u) =

13.

p
.

u
e .
p

Cambio de medida

Hemos considerado el funcion generador de momentos para St


IE(esSt ) = exp(pst t + FY (s)t) = exp((s)t).
Entonces (s) = log IE(esS1 ). En general se defina la funcion generador de
cumulantes para una variable aleatoria X con funcion de distribucion F como
(s) = log IE(esX ).
Si () esta bien definido podemos definir
F (dx) = exp (x ()) F (dx).
Es claro que F defina una funcion de distribucion tambien como
Z
0

F (dx) =

ex() F (dx) = e() e() = 1.

En terminos de densidades podemos escribir


f (x) = exp (x ()) f (x).
42

Sea IP y IE la medida de probabilidad y esperanzas definido por


IP (A) =

Z
A

f (x)dx, IE (g(X)) =

Z
0

g(x)f (x)dx

Entonces
IE (g(X)) =

Z
0

g(x)f (x)dx =

g(x)

f (x)
f (x)dx.
f (x)

La u
ltima igualdad vale siempre y cuando f (x) 6= 0 cuando f (x) 6= 0. Se
dice que las distribuciones f y f son equivalentes. Tenemos la relacion
!

f (X)
.
IE (g(X)) = IE g(X)
f (X)

(2)

Se usa frecuentemente la notacion


f (x)
dIP
(x) =
.
dIP
f (x)
Se dice que {F } es una familia exponencial generado por F . La funcion
generador de cumulantes de F esta dado por
(s) = log IE esX
= log
= log

Z
Z0

esx F (dx)
ex() esx F (dx)

= log(e()

e(+s)x F (dx))

= (s + ) ().
Ahora consideramos
(s) = ps + FY (s)
el cual sabemos es la funcion generador de cumulantes de S1 (ponga t = 1
arriba). La pregunta es si para un existen y funcion de distribucion de
G tal que
(s) .
(s) = ps + G
Defina

ex
= F (), G (dx) =
FY (dx).
FY ()
43

Notamos que
(s) =
G
=

Z
0

esx G (dx)
esx

ex
FY (dx)
FY ()

FY ( + s)
.
FY ()

Entonces
ps + G (s) = ps FY () + FY ( + s)


= p(s + ) + FY (s + ) p + FY ()
= (s + ) ()
= (s).
Para t 6= 1 tambien funciona la propuesta arriba como solo hay que multiplicar todas las ecuaciones (ambos lados) con t.
Sea Ft = (Su : u t) la algebra generado por {St } y para una medida
sea (T ) la restriccion de la medida a la algebra FT . Definimos IP la
medida de probabilidad equivalentemente a F como
(T )

dP
= exp(ST T ()).
dP (T )
Si = es igual a la constante de ajuste entonces escribimos IPL y IEL
en cambio de IP y IE para resaltar que se trata del exponente de Lundberg
y igualmente para L .
Ahora considere t fijo. Entonces por (2),

IE eSt +t()

(t)

dP
= IE eSt +t() (t)
dIP


= IE eSt +t() eSt t()


= 1.

(3)

Luego, con u = nf{t > 0|Rt < 0}


IP(u T ) = IE(1{u T }

(4)
44

= IE 1{u T }

dIP(T )

(T )

dIP

= IE 1{u T } eST +T ()


= IE IE 1{u T } eST +T () |Fu




= IE 1{u T } IE eST +T () |Fu




= IE 1{u T } IE e(ST Su +Su )+(T u +u) )() |Fu






= IE 1{u T } eSu +u () IE e(ST Su )+(T u )() |Fu




= IE 1{u T } eSu +u ()



(5)

porque dado Fu , u se considere como un constante y como ST St ST t


el resultado sigue de (3) en la esperanza interior. Dejando T obtenemos
(u) = IP(u < )
=

lm IE 1{u T } eSu +u ()

= IE 1{u <} eSu +u ()

La funcion generador de cumulante es convexa y cero en cero. El exponente de Lundberg es positiva y () = 0 por definicion. Entonces 0 () > 0
necesariamente y por lo tanto
IEL (S1 ) = 0L (0) = 0 () > 0
porque L (s) = (s + ) (). Entonces {St }t0 tiene tendencia positiva
bajo IPL y por lo tanto la probabilidad de ruina bajo IPL es uno, i.e.
IPL ( (u) < ) = 1.
Entonces
(u) = IP( (u) < )


= IEL exp(S (u) )1{u <} .


Por otro lado, (u) = S (u) u o S (u) = u + (u) y porque IPL (u < ) = 1,
tenemos que
(u) = eu IEL (exp((u))) .
(6)
45

14.

Aproximaci
on de Cram
erLundberg

Teorema 14.1 (Aproximacion de CramerLundberg)


(u) Ceu
donde
C=

p
.
FY0 () p

Demostraci
on. Seg
un (6) es suficiente que demostrar que
C = lm IEL (exp((u))).
u

Recuerden se que (u) = S (u) u y (u) = nf{t 0 : St > u}. Bajo


IPL el proceso escalonada ascendiente definido usando St es un proceso de
renovacion nodefectuoso y propio. Entonces (u) tiene limite cuando u
, (), cuya densidad esta dado por
f() (x) =

(L)

(L)
+

(1 G+ (x)),

(L)

donde G+ es la funcion de distribucion de proceso escalonada ascendiente


(L)
bajo IPL y + es su promedio.
Como x exp(x) es una funcion acotada y continua, entonces por
definicion de convergencia en distribucion,
IEL (exp((u))) C = IEL (exp(())) cuando u .
Por otro lado,
C = IEL (exp(()))
=

x 1

(L)

G+ (x)
(L)

dx

Integracion parcial nos da


Z
0

x 1

(L)

G+ (x)
(L)

dx =
=

1
(L)

+
1

(L)
+

"

1
(L)
ex (1 G+ (x))

Z
0

(L)

(1 ex )G+ (dx).

46

Z
0

1 x (L)
e G+ (dx)

Con un argumento parecido al (5) (+ es Fu medible y repite el argumento)


se concluye que


IP(S+ A) = IEL exp(S+ )1{S+ A}


=

Z
A

(L)

ex dG+ (x)

Ahora


IEL exp(S+ )1{S+ A}

(L)

ex dG+ (x),

i.e.
(L)
G+ (A)

Z
A

(L)

(L)

ex g+ (x)dx o G+ (dx) = g+ (x) = ex g+ (x)dx.

Usando Teorema 10 tenemos que dG+ (x) = g+ (x) = p (1 F (x)) y por lo


tanto

(L)
g+ (x) = ex (1 F (x)) = ex g+ (x).
p
Entonces
Z
0

(L)

(1 ex )G+ (dx) = 1

= 1

(1 F (x))dx
p

Y
p

Por otro lado,


(L)
+

Z
0

Z
0

(L)

xdG+ (x)

xex (1 FY (x))dx
p

Z x
=
xe FY (x)dx
p 0
0
=
(),
p
donde FY (x) = 1 F (x) y con fY (x) = FY0 (x) tenemos que
() =

Z
0

ex FY (x)dx
47

"

1 x
e FY (x)
=

FY () 1
=
.

Entonces
0 () =

Z
0

1 x
e fY (x)dx

FY0 () (FY () 1)
.
2

Usando 0 = () = FY () p o F () 1 =
0

() =
Entonces
(L)

+ =

FY0 ()

0
FY ()
p

FY () 1
p

as que
1 pY
p
=
.
C=
F () 1
FY0 () p
p Y
Q.E.D.

15.

Seguro de vida: Teorema de Hattendorff

Sea J0 una variable aleatoria que defina una causa de fallecimiento. En


seguros de vida se puede diferenciar los pagos por fallecimiento seg
un tipo.
Un ejemplo es J0 = 1 si el decremento esta causado por enfermedad o causas
naturales, J0 = 2 si por accidente y J0 = 3 si por accidente colectivo. La
aseguradora pagara la cantidad de bjk al final del a
no k si el fallecimiento
paso en este a
no por causa j. Para regresar a nuestro ejemplo bjk podra ser
b1k = K, b2k = 2K y b3k = 3K independientemente de k. Alternativamente
las cantidades podran ser ajustados por inflacion o inversiones. Se supone que
las cantidades bjk , sin embargo, son constantes (deterministas) y se supone
que los diferentes tipos de causas son 1, 2, ..., `. Se pagan primas anuales
1 , 2 , ... al principio de cada a
no.

48

Sea T0 la vida total del asegurado. Sea


qji (m) = IP(J0 = j, T0 < m + i|T0 i)
la probabilidad que el asegurado fallece dentro de m a
nos por causa j dado
que ya sobrevivio los primeros i a
nos. Defina Ji la causa de fallecimiento si
el asegurado tiene i a
nos (o si ha renovado durante i a
nos) y sea Ti el tiempo
de vida residual a partir de los i a
nos. Entonces
qji (m) = IP(Ji = j, Ti < m + i).
Cuando m = 1 escribimos qji (m) = qji . Defina
pi (m) = 1

`
X

qji (m) = IP(T0 m + i|T0 i)

j=1

la probabilidad que el asegurado sobrevive al menos m a


nos mas. La probabilidad que el asegurado fallece de cause j en exactamente m a
nos sera
IP(Ji = j, Ti = m) = IP(Ji = j, T0 = m + i|T0 i)
= IP(Ji = j, T0 m + i, T0 < m + i + 1|T0 i)
= IP(Ji = j, T0 < m + i + 1|T0 m + i, T0 i)IP(T0 m + i|T0 i)
= IP(Ji = j, T0 < m + i + 1|T0 m + i)IP(T0 m + i|T0 i)
= pi (m)qj,m+i .
Sea v (0, 1) el factor de descuento anual. El valor presente a tiempo i
que la asegurador tiene que pagar es de bJi ,Ti +1 v Ti +1 como pagan al final del
a
no. Como las primas se pagan al principios de los a
nos, el valor presente de
PTi
k
todos los primas son k=0 k v . Entonces a tiempo i la perdida total de la
asegurador es de
Xi = bJi ,Ti +1 v Ti +1

Ti
X

k v k .

k=0

Introducimos el principio de equivalencia. Las primas i son primas netas si


IE(Xi ) = 0. Primero notamos que
IE(bJi ,Ti +1 v Ti +1 ) =

` X

bj,k+1 v k+1 IP(Ji = j, Ti = k)

j=1 k=0

` X

bj,k+1 v k+1 pi (k)qj,i+k

j=1 k=0

49

y
IE(

Ti
X

k v k ) = IE(

k=0

1{Ti i}k v k )

k=0

=
=
=

X
k=0

X
k=0

k v k IP(Ti k)
k v k IP(T0 k + i|T0 i)
k v k pi (k).

k=0

Entonces la condicion para que las primas son primas netas es de


` X

bj,k+1 v k+1 pi (k)qj,i+k (1) =

j=1 k=0

k v k pi (k).

k=0

Defina n = v n IE(Xi |Ti n) (y por razones de notacion no especificamos la


dependencia de n de i). n se llama la reserva de la prima neta o la reserva
prospectiva en seguros de vida. Se nota que el monto es el valor presente a
tiempo n, tomando tiempo i como referencia (tiempo cero). Como arriba,
IE(bJi ,Ti +1 v Ti +1 |Ti n) =

` X

bj,k+1 v k+1 IP(Ji = j, Ti = k|Ti n)

j=1 k=0

` X
X

bj,k+1 v k+1 IP(Ji = j, Ti = k, Ti n)/IP(Ti n)

j=1 k=0

` X
X

bj,k+1 v k+1 IP(Ji = j, Ti = k)/IP(Ti n)

j=1 k=n

` X

bj,k+1 v k+1 IP(Ji = j, Ti = k)/IP(T0 n + i|T0 i)

j=1 k=n

` X

bj,k+1 v k+1 pi (k)qj,i+k /pi (n).

j=1 k=n

Ahora para k n tenemos


pi (k)
IP(Ti k)
=
pi (n)
IP(Ti n)
50

=
=
=
=
=

IP(T0 k + i|T0 i)
IP(T0 n + i|T0 i)
IP(T0 k + i)
IP(T0 n + i)
IP(T0 k + i|T0 n + i)
IP(T0 i + n + k n|T0 n + i)
pi+n (k n).

Entonces
IE(bJi ,Ti +1 v

Ti +1

|Ti n) =

` X

bj,k+1 v k+1 pi+n (k n)qj,i+n+k

j=1 k=n

` X
X

bj,n+k+1 v n+k+1 pi+n (k)qj,i+n+k .

j=1 k=0

Similarmente,

IE

Ti
X

k v pi (k)|Ti

= IE

!
k

k v 1{k Ti }|Ti n

k=0

k=0

=
=
=
=
=

X
k=0

X
k=n

X
k=n

X
k=n

k v k IP(Ti k|Ti n)
k v k IP(T0 k + i|T0 n + i)
k v k IP(T0 n + i + k n|T0 n + i)
k v k pi+n (k n)
k+n v k+n pi+n (k).

k=0

Entonces
n = v n IE(Xi |Ti n)
=

` X

bj,n+k+1 v k+1 pi+n (k)qj,i+n+k

j=1 k=0

X
k=0

51

k+n v k pi+n (k).

Ahora considere

vpi+n (1)n+1 = vpi+n (1)

` X

bj,n+k+2 v k+1 pi+n+1 (k)qj,i+n+k+1

j=1 k=0

!
k

k+n+1 v pi+n+1 (k)

k=0
` X

bj,n+k+2 v k+2 pi+n (1)pi+n+1 (k)qj,i+n+k+1

j=1 k=0

k+n+1 v k+1 pi+n (1)pi+n+1 (k)

k=0

` X

bj,n+k+2 v k+2 pi+n (k + 1)qj,i+n+k+1

j=1 k=0

k+n+1 v k+1 pi+n (k + 1)

k=0

`
XX

bj,n+k+1 v k+1 pi+n (k)qj,i+n+k

j=1 k=1

k+n v k pi+n (k)

k=1

= n

`
X

bj,n+1 vpi+n (0)qj,i+n + n .

j=1

Entonces
n + n = n+1 vpi+n (1) +

`
X

bj,n+1 vqj,i+n .

j=1

De este ecuacion sigue que


n = n+1 vpi+n (1) n +

`
X

bj,n+1 vqj,i+n

j=1

= n+1 v(1 (1 pi+n (1))) n +

`
X

bj,n+1 vqj,i+n

j=1

= n+1 v n n+1 v(1 pi+n (1)) +

`
X
j=1

52

bj,n+1 vqj,i+n

= n+1 v n n+1 v

`
X

qj,i+n +

j=1

= n+1 v n +

`
X

`
X

bj,n+1 vqj,i+n

j=1

(bj,n+1 n+1 )vqj,i+n

j=1
s
= m
+ nr ,

donde ns = n+1 v n es la prima de ahorros y nr =


n+1 )vqj,i+n es la prima de riesgo.

P`

j=1 (bj,n+1

Teorema 15.1 Si IE(Xi ) = 0 entonces

Xi =

Yki v k ,

k=0

donde
Yki

0
si k Ti + 1
r
= k + (bJi ,k+1 k+1 )v si k = Ti

kr
si 0 k Ti 1

Demostraci
on.
Xi = bJi ,Ti +1 v

Ti +1

= bJi ,Ti +1 v Ti +1
= bJi ,Ti +1 v Ti +1
= bJi ,Ti +1 v Ti +1

Ti
X

k v k

k=0
Ti
X

(ks + kr )v k

k=0
Ti
X

((k+1 v k ) + kr )v k

k=0
Ti
X

(k+1 v k+1 k v k )

k=0

Ti
X

kr v k

k=0

= bJi ,Ti +1 v Ti +1 + 0 Ti +1 v Ti +1

Ti
X

kr v k .

k=0

Como 0 = IE(Xi ) = 0 entonces


Xi = bJi ,Ti +1 v

Ti +1

+ Ti +1 v

Ti +1

Ti
X

kr v k

k=0

lo cual es equivalente a la sumatorio arriba.


Defina Sn =

Pn

k=0

Yk y Fn = ({Yi = j, Ti = k}j=1,...,`,k=0,...,n ).
53

Q.E.D.

Teorema 15.2 Si IE(Xi ) = 0, entonces {Sn }n0 es una {Fn }n0 martingala.
Demostraci
on. Sn+1 = Sn + Yn+1 as que IE(Sn+1 |Fn ) = IE(Yn+1 |Fn ) +
IE(Sn |Fn ) = IE(Yn+1 |Fn ) + Sn . Basta demostrar que IE(Yn+1 |Fn ) = 0. Es
claro por definicion de Yn+1 que este solamente es nocero si n + 1 Ti .
Por otro lado como todas las valores , by son deterministas entonces Fn es
equivalente a conocer Ti . Hay dos posibilidades: Ti n + 1 o Ti n. En el
u
ltimo de los casos la esperanza condicional de Yn+1 sera cero. Entonces
IE(Yn+1 |Fn ) = IE(I{Ti n + 1}Yn+1 |Fn )
= I{Ti n + 1}IE(Yn+1 |Fn )
= I{Ti n + 1}IE(Yn+1 |Ti n + 1).
 h

r
IE(Yn+1 |Ti n + 1) = IE ( n+1
+ (bJ,n+1 n+2 )v I{Ti = n + 1}|Ti n + 1

r
n+1
IP(Ti n + 2|Ti n + 1)
r
= n+1
IP(Ti = n + 1|Ti n + 1) + IE(bJ,n+1 n+2 )vI{Ti = n + 1}|Ti n + 1)
r
n+1 IP(Ti n + 2|Ti n + 1)
r
= IE((bJ,n+1 n+2 )vI{Ti = n + 1}|Ti n + 1) n+1

Ahora,
IE((bJ,n+1 n+2 )vI{Ti = n+1}|Ti n+1) = IE((bJ,n+1 n+2 )vI{Ti < n+2}|Ti n+1)
as que sumando sobre las diferentes posibilidades de Ji ,
IE((bJ,n+1 n+2 )vI{Ti < n + 2}|Ti n + 1)
= IE(

`
X

(bj,n+1 n+2 )vI{Ji = j, Ti < n + 2}|Ti n + 1)

j=1

`
X

(bj,n+1 n+2 )vIP(Ji = j, Ti < n + 2|Ti n + 1)

j=1

`
X

(bj,n+1 n+2 )vIP(Ji = j, T0 < i + n + 2|T0 i + n + 1)

j=1

=
=

`
X

(bj,n+1
j=1
r
n+1
.

n+2 )vqj,i+n+1

Entonces IE(Yn+1 |Fn ) = 0.

Q.E.D.

54

Teorema 15.3 (Hattendorff ) Si IE(Xi ) = 0 entonces


(

cov(Yk , Yn ) =

pm (k)

P

`
j=1 (bj,k+1

y
var(Xi ) =

k+1 )2 v 2 qj,m+k (kr )2


0

si n = k
si n =
6 k

v 2k var(Yk ).

k=0

Demostraci
on. Por definicion de Sn , Yn = Sn Sn1 donde Sn es una
martingala. Entonces cov(Yk , Yn ) = cov(Sk Sk1 , Sn Sn1 ). Pero si k > n
entonces condicionando en Fn y Fn1 ,
cov(Sk Sk1 , Sn Sn1 ) = IE(Sk Sn ) IE(Sk Sn1 ) IE(Sk1 Sn ) + IE(Sk1 Sn1 )
2
2
= IE(Sn2 ) IE(Sn1
) IE(Sn2 ) + IE(Sn1
)
= 0.
Las resultados restantes siguen directamente de la definicion de Yn . Q.E.D.

16.

Cadenas de Markov

Sea {Xn }n0 un proceso estocastico en tiempo discreto definido sobre un


espacio de probabilidad (, F, IP) y tomando valores en un conjunto discreto
E (posiblemente finito).
Definici
on 16.1 {Xn } es una cadena de Markov si y solo si
IP(Xn+m = in+m , ...., Xn+1 = in+1 |Xn = in , ..., X0 = i0 )
= IP(Xn+m = in+m , ...., Xn+1 = in+1 |Xn = in )
para todo n, m IN, i1 , ..., in+m E. Ademas, {Xn }n0 es homogeneo en
tiempo si IP(Xn+1 = j|Xn = i) no depende de n. En caso afirmativo se
denota dicho probabilidad pij y se dice que es la probabilidad de transicion
del estado i al estado j.
Teorema 16.1 {Xn }n0 es una cadena de Markov homogeneo en tiempo si
y solo si para todo n IN,
IP(X0 = i0 , X1 = i1 , ..., Xn = in ) = IP(X0 = i0 )pi1 i2 pi2 i3 ...pin1 in .
55

Demostraci
on.
IP(X0 = i0 , X1 = i1 , ..., Xn = in )
= IP(Xn = in |Xn1 = in1 , ..., X0 = i0 )IP(Xn1 = in1 , ..., X0 = i0 )
= IP(Xn = in |Xn1 = in1 )IP(Xn1 = in1 , ..., X0 = i0 )
= pin1 in IP(Xn1 = in1 , ..., X0 = i0 )
= ...
= pin1 in pin2 in1 ...pi0 i1 IP(X0 = i0 ).
Q.E.D.
Sea Fn = (X0 .X1 , ..., Xn ) la algebra generado por la cadena y sea
F = (X0 , X1 , ....). Entonces
Teorema 16.2 {Xn }n0 es una cadena de Markov si y solo si
IE(f (Xn , Xn+1 , ...)|Fn ) = IE(f (X0 , X1 , ...)|X0 = Xn )
para cualquiera funcion medible y acotada f : E E ... IR.
Q

Demostraci
on. Para el caso si, toma f (X0 , X1 , ...) = j 1{Xj =ij } . El caso
solo si sigue de un argumento estandar en teora de la medida: el teorema
Q
vale para funciones de la forma f (X0 , X1 , ...) = j 1{Xj =ij } por definicion
de la propiedad de Markov. Usando que la esperanza es un operador lineal,
tambien el teoremas vale para funciones simples. Luego aproxima una funcion
f no-negativa acotada por funciones simples crecientes y usa convergencia
monotona. Para cualquier funcion f medible y acodata escribelo como f =
f+ f .
Q.E.D.
Ejemplo 16.1 Muchas procesos de Markov se pueden construir de la siguiente forma
Xn+1 = f (Xn , Zn+1 )
donde X0 es independiente de {Zn } y este ultimo es un ruido blando (i.e.
Z1 , Z2 , ... son i.i.d.). En dado caso el proceso sera una cadena de Markov
(ejercicio!).
Q.E.D.

56

Definici
on 16.2 Un tiempo de paro para la cadena de Markov {Xn }n0 es
una variable aleatoria tomando valores en IN {+} tal que { = n} Fn
para todo n.
La informacion F esta definido como
A F

A { = n} Fn n IN {+}.

Proximamente demostramos la propiedad fuerte de Markov.


Teorema 16.3 Sea un tiempo de paro y sea h : E E ... IR una
funcion medible. Entonces sobre { < },
IE (h(X , X +1 , ...)|F ) = IE (h(X0 , X1 , ....)|X0 = X ) .
Demostraci
on.
demostrar que

Por definicion de la esperanza condicional tenemos que


is F medible

IE (h(X0 , X1 , ....)|X0 = X )
Z
A

h(X , X +1 , ...)dP =

IE (h(X0 , X1 , ....)|X0 = X ) dP A F { < }.

La parte medible es obvio. Ademas como A F , entonces A{ = n} Fn


para todo n, y como solamente estamos donde { < }, entonces
A=

(A { = n}) .

n=0

Pero
Z
A{ =n}

h(X , X +1 , ...)dP =
=

Z
A{ =n}

Z
A{ =n}

Z
A{ =n}

Z
A{ =n}

Sumando sobre n demuestra el resultado.

57

h(Xn , Xn+1 , ...)dP


IE (h(Xn , Xn+1 , ...)|Fn )) dP
IE (h(X0 , X1 , ...)|X0 = Xn )) dP
IE (h(X0 , X1 , ....)|X0 = X ) .
Q.E.D.

Definici
on 16.3
Ti = nf{n 1|Xn = i}

Ni =

1{Xj =i}

j=1

Ti es el tiempo hasta la cadena por primera vez entra al estado i, y Ni es


el n
umero de visitas al estado i despues de tiempo 1. Se usara la siguiente
notacion
IPi () = IP(|X0 = i), IEi () = IE(|X0 = i).
Definici
on 16.4 Un estado i de la cadena de Markov {Xn } es recurrente si
IPi (Ti < ) = 1. En caso contrario lo llamamos transitorio.
Definici
on 16.5 La matriz de transicion esta definido como P = {pij }i,jE .
(n)

Teorema 16.4 La matriz P n = {pij }i,jE es la matriz de transicion de la


cadena de Markov {Xkn }k0 .
Demostraci
on. Hay que demostrar que
(n)

pij = IP(Xn = j|X0 = i).


Este sigue por la ley de la probabilidad total:
IP(Xn = j|X0 = i) =

XX
j1

...

j2

pij1 pj1 j2 ...pjn2 jn1 pjn1 j

jn1

lo cual es la expresion del elemento ij de P n .


Teorema 16.5 Sea i un estado fijo. Lo siguiente es equivalente:
1. i is recurrente.
2. Ni = IPc.s.
3. IE(Ni ) =

m=1

(m)

pii

= .

58

Q.E.D.

Demostraci
on. Defina
Tin = nf{n > Tin1 |Xn = i}, Ti1 = Ti
los tiempos de visitas sucesivos al estado i. Entonces
IPi (Tik+1 < ) = IPi (Tik+1 < , Tik < )


= IEi IPi (Tik+1 < , Tik < |FTik )




= IEi I{Tik < }IPi (Tik+1 < |FTik )




(medible)

= IEi I{Tik < }IPXT k (Ti1 < )

(Markov fuerte)

= IEi I{Tik < }IPi (Ti1 < )




= IPi (Ti1 < )IPi Tik <


= ...
= IPi (Ti1 < )k+1

(XTik = i)

Si i es recurrente entonces IPi (Tik+1 < ) = 1 para todo k, i.e. Tik <
IP-c.s. para todo k. Como
Ni = sup{k IN|Tik < }
entonces Ni = IPc.s. Es claro que si Ni = c.s. entonces IEi Ni = .
Sin embargo necesitamos verificar la expresion
IEi Ni =

X
(m)

pii .

m=1

Este sigue directamente desde

IEi (Ni ) = IEi

I{Xn = i}

n=1

=
=

X
n=1

IPi (Xn = i)
(n)

pii .

n=1

Finalmente demostramos que 3. implica 1. o lo cual es lo mismo, que la


negacion de 1. implica la negacion de 3. Supongamos que i es transitorio.
59

Entonces IPi (Ti < ) < 1 y por lo tanto


IEi (Ni ) =
=
=

X
n=0

X
n=1

IPi (Ni > n)


IPi (Tin < )
IPi (Ti < )n

n=1

< .
Q.E.D.
Corolario 16.1 Lo siguiente es equivalente:
1. i es transitorio.
2. Ni < IP c.s.
3. IE(Ni ) =

(m)

m=1

pii

< .

Defina la relacion de equivalencia:


ij

(n)

(m)

n, m : pij > 0 y pji > 0.

Se dice que i y j comunican si i j. Si i es recurrente y i j entonces j es


recurrente. Para ver esto, tomamos n1 , n2 tal que pnij1 > 0 y pnji2 > 0. Entonces
IEj Nj =

X
(n)

X
(n2 ) (n) (n1 )

n=1

n=1

pjj

pji pii pij

= ,

donde la desigualdad proviene del hecho que la mano derecha solamente es


una de muchas maneras de irse de j a j en tiempo n + n1 + n2 . Recurrencia
entonces sigue del Teorema 16.5.
El espacio de estados ahora sera partido en clases de equivalencia R1 , R2 , ....
de los estados recurrentes que comunican y los estados transitorios,
E = T R1 R2 ....
Definici
on 16.6 Una cadena de Markov es irreducible si todos sus estados
comunican.
60

Una cadena de Markov irreducible tiene la propiedad que todos sus estados
son recurrentes o transitorios. En dichos casos lo llamamos respectivamente
recurrente y transitorio.
Definici
on 16.7 Un vector = (i )iE es una medida estacionaria de la
cadena de Markov {Xn }n0 si
1. i 0 i E.
2. 6= 0.
3. i < .
4. P = .
Aqu inciso 4. es el importante: si la distribucion es de a tiempo n, entonces
a tiempo n + 1 tambien lo es.
Teorema 16.6 Sea i algun estado recurrente. Entonces se puede definir una
medida estacionaria de la siguiente forma
j = IEi

TX
i 1

I{Xn = j},

n=0

i.e. el n
umero esperado de visitas al estado j entre dos visitas consecutivas
al estado i.
Demostraci
on.
j = IEi

TX
i 1
n=0
Ti
X

= IEi
= IEi

n=1

I{Xn = j}

I{Xn = j} (X0 = XTi = i)


I{Xn = j, Ti n}

n=1

=
=

X
n=1

IEi (I{Xn = j, Ti n})


IP (Xn = j, Ti > n 1)

n=1

61

=
=
=

X
n=1

X
n=1

IEi (IP (Xn = j, Ti > n 1|Fn1 ))


IEi (I{Ti > n 1}IP (Xn = j|Fn1 )) (medible)


IEi I{Ti > n 1}pXn1 j

(Markov)

n=1

Para seguir lo mas facil es definir


i () = IPi (|Ti > n 1)
IP
y la esperanza correspondiente
i () = IE(|Ti > n 1).
IE
Entonces


IEi I{Ti > n 1}pXn1 j

i (pXn1 j )IP(Ti > n 1)


= IE

i
= IE

1{Xn1 = k}pXn1 j IP(Ti > n 1)

kE

i (Xn1 = k)IP(Ti > n 1)


pkj IP

kE

pkj IPi (Xn1 = k, Ti > n 1).

kE

Insertando en la expresion arriba,


j =

X
X

pkj IPi (Xn1 = k, Ti > n 1)

n=1 kE

X
kE

pkj

IPi (Xn1 = k, Ti > n 1)

n=1

pkj k ,

kE

por definicion de j . Entonces = P . Si j no pertenece a la misma clase de


recurrencia como i, entonces j = 0 < . Si j pertenece a la misma clase de
(m)
recurrencia como i, entonces i j y existe un m tal que pji > 0. Entonces,
como = P = ... = P m ,
> 1 = i =

X
kE

62

(m)

(m)

k pki j pji ,

de donde se concluye que j < . Tambien es claro que 6= 0 y k 0 para


todo k E.
Q.E.D.
Corolario 16.2 Si una cadena de Markov es irreducible y recurrente entonces para cualquier medida estacionaria, , tenemos que i > 0 para todo
i E.
Demostraci
on. Este sigue de = P m donde m sera seleccionada de tal
(m)
forma que pji > 0, y como
i =

(m)

(m)

k pki j pji .

kE

Una medida estacionaria cumple con 6= 0, y se puede seleccionar un estado


j tal que j > 0. Este por la desigualdad arriba entonces implica i > 0 para
cualquier otro i E.
Q.E.D.
Sea (i) la medida estacionaria definido arriba. Se refiere a este medida
estacionaria como la medida estacionaria canonica. Se usara el exponente (i)
para indicar que esta definido con respecto al estado recurrente i.
Corolario 16.3
(i)
j

IPi (Xn = j, Ti > n).

n=0

Demostraci
on. Sigue del teorema de Beppo-Levi.

Q.E.D.
(i)

Lema 16.1 Sea estacionaria con i = 1. Entonces k = k for all k E.


Demostraci
on. Se recuerda que
(i)
j

IPi (Xn = j, Ti > n).

n=0

Ahora, IPk (Xn = j, Ti > n) es la probabilidad de irse de k a j sin regresar al


estado i. Este la probabilidad de tab
u. Supongamos que j 6= k. Para n = 1 la
probabilidad de tab
u es simplemente la probabilidad de transicion normal.
Para n = 2,
X
IPk (Xn = j, Ti > n) =
pik pkj .
k6=i

63

como la matriz de transicion P con la columna i reemplazado


Si definimos P
con ceros, entonces
IPk (Xn = j, Ti > n) =

pk` p`j .

`E

Por induccion es claro que


n

.
(IPk (Xn = j, Ti > n))k,jE = P
n , i.e. IPi (Xn = j, Ti >
Entonces IPi (Xn = j, Ti > n) es el elemento ij de P
n ej , donde e0 es el vector de fila que tiene 1 en plazo i y cero en
n) = e0i P
i
otros. De Corolario 16.3 sigue
(i)

(i) = (j )jE = e0i

n.
P

n=0

Como es estacionaria con i = 1 tenemos




j = ij + P



j

= 0 por construccion de P
y ij = 0 en otros
porque si i = j entonces P
j


= j por ser estacionaria. Entonces
casos, y P
j

= e0i + P


= e0i + e0i + P
) + P
2
= e0i (I + P
= ...
= e0i

N
X

n + P
N +1 ,
P

n=0

P n
donde I es la matriz de identidad. Como n P
converge (es igual a una
n
0 cuando n y por lo tanto N ,
probabilidad), tenemos que P

e0i

N
X

n + P
N +1 e0
P
i

n=0

n = (i) .
P

n=0

Q.E.D.

64

Corolario 16.4 Si una cadena es irreducible y recurrente, entonces existe


una medida estacionaria. Todos las medidas estacionarias son proporcionales.
Demostraci
on. Si es estacionaria con i = c, entonces = /c es
(i)
estacionaria con i = i y por lo tanto = (i) , i.e. = c (i) .
Q.E.D.
Definici
on 16.8 Un estado i recurrente es recurrente positiva si IEi (Ti ) <
y recurrente nula si IEi (Ti ) = .
Corolario 16.5 En una cadena recurrente o todos estados son recurrente
positiva o recurrente nula.
Demostraci
on. Como todas medidas estacionarias son proporcionales a
P (j)
P (j)
(j)
, j E, entonces | (j) | = k k es finito o infinito. Como k k = IEj Tj
es lo mismo que decir que todos estados son recurrentes positiva o recurrentes
nula .
Q.E.D.
El teorema anterior demuestra que la recurrencia positiva y recurrencia
nula son propiedades de clase.
Para cadenas irreducible y recurrentes siempre existen medidas estacionarias y son u
nicos hasta multiplicacion con un constante. El problema de
cuando existe una distribucion estacionaria es el problema de cuando se puede normalizar una medida estacionaria.
Corolario 16.6 Si la cadena es irreducible y recurrente positiva existe una
u
nica distribucion estacionaria dado por
TX
i 1
1
1
IEi
I{Xn = j} =
.
j =
IEi Ti
IEj Tj
n=0

Demostraci
on. Si la cadena es recurrente positiva,
| (i) | =

X (i)

j =

X
j

IEi

TX
i 1

I{Xn = j} = IEi Ti <

n=0

y luego
= (i) /| (i) |
por unicidad hasta multiplicacion con un constante.

65

Q.E.D.

Corolario 16.7 Un cadena irreducible sobre un espacio de estados finito es


recurrente positiva.
Demostraci
on. Es claro que

X X

I{Xn = k} =

kE n=0

y como |E| < existe un k E tal que

I{Xn = k} = .

n=0

Entonces k es recurrente. Entonces todos los estados son recurrente por irreductibilidad. Entonces existe una medida estacionaria. Como la masa total
de un n
umero finito es finito entonces
| (i) | = IEi Ti <
por lo tanto i es recurrente positiva. Entonces la cadena es recurrente positiva.
Q.E.D.
Definici
on 16.9 El periodo de un estado recurrente i, d(i), es el n
umero
entero mas grande tal que
IPi (Ti Ld(i) ) = 1
donde Ld = {d, 2d, 3d, 4d, ...}. Si un estado tiene periodo uno se dice que el
estado es aperiodico.
Teorema 16.7 Periodicidad es una propiedad de clase, es decir, si i y j
pertenece al mismo clase de recurrencia, entonces tienen el mismo periodo.
Demostraci
on. Sea i un estado recurrente con periodo d(i). Sea j otro
estado en la misma clase de recurrencia. Entonces i j y por lo tanto existe
(n)
(m)
m, n > 0 tal que pij > 0 y pji > 0. Entonces
(n+m)

pii

X (n) (m)

(n) (m)

pik pki pij pji > 0

kE

66

(p)

y por lo tanto n + m Ld(i) . Ahora toma p: pjj > 0. Entonces


(m+m+p)

pii

(n) (p) (m)

pij pjj pji > 0

y luego tambien n + m + p Ld(i) . Entonces n + m Ld(i) y n + m + p


Ld(i) implicando que p Ld(i) . Entonces d(j) d(i). Por simetra, tambien
d(i) d(j).
Q.E.D.

17.

Procesos de Markov de saltos

Definici
on 17.1 Un proceso de Markov {Xt }t0 (t IR) sobre un espacio
de estados finito E es un proceso estocastico con la propiedad que
IP(Xtn = in |Xtn1 = in1 , ..., Xt1 = i1 , X(0) = i0 ) = IP(Xtn = in |Xtn1 = in1 ).
El proceso de Markov es homogeneo en tiempo si ademas IP(Xt+h = j|Xt ) =
Pij (h) solamente depende de h. Llamamos pij (h) sus probabilidades de transicion y la matriz P (h) = {pij (h)}i,jE su matriz de transicion.
Teorema 17.1 Chapman-Kolmogorov:
P (s + t) = P (s)P (t).
Demostraci
on. Por la ley de la probabilidad total y la propiedad de Markov:
pij (t + s) = IP(Xt+s = j|X0 = i)
X
=
IP(Xt+s = j, Xs = k|X0 = i)
k

IP(Xt+s = j|Xs = k, X0 = i)IP(Xs = k|X0 = i)

IP(Xt+s = j|Xs = k)IP(Xs = k|X0 = i)

pik (s)pkj (t).

Q.E.D.
Sea Ft = (Xs : s t).
67

Definici
on 17.2 Una variable aleatoria nonegativa es un tiempo de paro
para {Xt }t0 si { t} Ft para todo t. La algebra F consiste en
conjuntos medibles A tal que
A { t} Ft t 0.
Se nota sin demostracion:
Teorema 17.2 Cualquier proceso de Markov de salto {Xt }t0 tiene la propiedad fuerte de Markov, i.e.
IP(Xt+h1 = i1 , ..., Xt+hn = in |F ) = IP(Xh1 = i1 , ..., Xhn = in |X0 = X ).
Muchas veces esta definido en terminos de valores de Xt tal que X es
determinista. Por ejemplo podra ser la primera vez Xt entra al estado i.
En este caso X = i y X0 = X es simplemente el evento X0 = i.
Sea S0 = 0 < S1 < S2 < ... los tiempos de salto. Las diferencias Tn =
Sn+1 Sn son los tiempos de ocupacion en los estados entre saltos. Hay que
notar con cuidado la notacion usado: T0 es el tiempo hasta el primer salto,
T1 es el tiempo entre el primer y segundo salto etc. Finalmente sean Y0 , Y1 , ...
la secuencia de estados visitados, i.e. Yi = X(Si ). En caso que existiera
un ultimo Sn , e.g. en caso de absorcion en alg
un estado, entonces se defina
Tn = Tn+1 = ... = y Yn = Yn+1 = .... = i si X(Sn ) = i.
Es claro que las trayectorias de Xt se pueden reconstruir usando el conocimiento de {(Yn , Tn )}n0 . Entonces la distribucion simultanea de (Yn , Tn ) es
de interes principal. Sea
pn = IPi (Yk = ik , Tk1 > tk , k = 1, ..., n).
Teorema 17.3 Existen n
umeros i 0 y una matriz de transicion Q tal
que
pn =

n
Y

qik1 ik exp((ik1 )tk ).

k=1

Demostraci
on. Defina f (t) = IPi (T0 > t). Entonces
f (t + s) =
=
=
=
=
=

IPi (T0 > t + s)


IEi (IPi (T0 > t + s|Ft ))
IEi (IPi (T0 > t + s, T0 > t|Ft ))
IEi (I{T0 > t}IPi (T0 > t + s|Ft )) (medible)
IEi (I{T0 > t}IPi (T0 > s)) (Markov y Xt = i)
f (t)f (s).
68

Como f es nocreciente (es una probabilidad de cola) entonces f es de la


forma
f (t) = exp(i t)
para alg
un i 0. Proximamente
IPi (Y1 = j, T0 > t) = IEi (IPi (Y1 = j, T0 > t|Ft ))
= IEi (I{T0 > t}IPi (Y1 = j))
= qij exp(i t),
donde qij = IPi (Y1 = j).
La formula general sigue de induccion y la propiedad fuerte de Markov.
Supongamos que la formula pm es valido para m = n 1. Entonces
pn = IPi (Yk = ik , Tk1 > tk , k = 1, ..., n)
= IPi (Yn = in , Tn > tn , Yk = ik , Tk1 > tk , k = 1, ..., n 1)


= IEi IPi (Yn = in , Tn > tn , Yk = ik , Tk1 > tk , k = 1, ..., n 1|FSn1 )




= IEi I{Yk = ik , Tk1 > tk , k = 1, ..., n 1}IPi (Yn = in , Tn1 > tn |FSn1 )
= IPin1 (Y1 = in , T0 > tn )pn1 (medible y Markov fuerte)
= qin1 in exp(in1 tn )pn1 ,
y ell resultado sigue por induccion.

Q.E.D.

Corolario 17.1 (i) {Yn } es una cadena de Markov.


(ii) Existen n
umeros i tal que {T` } son condicionalmente independientes
con T` exp(Y` ).
Demostraci
on. (i) Arriba. Para (ii) se nota que
IPi (T0 > t0 , ..., Tn1 > tn1 |Y1 = i1 , ..., Yn = in )
IPi (T0 > t0 , ..., Tn1 > tn1 , Y1 = i1 , ..., Yn = in )
=
IPi (Y1 = i1 , ..., Yn = in )
Qn
k=1 qik1 ik exp(ik1 tk )
=
(i0 = i)
Qn
k=1 qik1 ik
=

n
Y

exp(ik1 tk ),

k=1

69

implicando la independencia condicional y las distribuciones exponenciales.


Q.E.D.
Hemos demostrado que si {Xt } es un proceso de Markov de saltos entonces
existen constantes i 0 y probabilidades qij con las propiedades de arriba.
Lo opuesto tambien es cierto pero no vamos a embarcar la demostracion el
cual principalmente es un ejercicio en el uso del teorema de existencia de
Kolmogorov.
Sea
Sn = T0 + ... + Tn1 , S0 = 0
el tiempo del nesima transicion y sea
() = sup Sn = lm Sn .
n

Si () < se dice que el proceso de Markov es explosivo, lo cual es una


propiedad no deseable la cual se descartara imponiendo condiciones adicionales sobre la estructura del proceso. Sea

R=

1
Yn .

n=0

Teorema 17.4
R < () <

IPi c.s i.

Demostraci
on. Si Yn = i entonces Tn exp(i ) 1
i exp(1). Ahora
() = lm Sn =
n

Tn

n=0

as que
()|Yn

1
Yn V n ,

n=0

donde {Vn } son i.i.d. exp(1). Tambien,


R=

X
n=0

1
Yn

= IE(

1
Yn Vn |{Yn }) = IE(()|{Yn }),

n=0

as que si R < entonces () < . Por otro lado, si () < entonces usando el Teorema de las 3 series de Kolmogorov (el cual dice que
70

una serie aleatoria converge si y solo si las series de los medios, varianzas y
probabilidades de diferencias convergen) nos da en particular que

IE(1
Yn Vn ) < ,

n=0

pero este expresion es exactamente R. Entonces R < .

Q.E.D.

Corolario 17.2 Los siguiente criterios son suficientes para que IP(() <
) = 0.
(i) supi i < .
(ii) E es finito.
(iii) Yn es recurrente.
Demostraci
on. Si el proceso es explosivo entonces () < y por lo
P
1
tanto R =
n=0 Yn < implicando Yn , lo cual es imposible si
supn n < . Si E es finito entonces supn n < trivialmente. Si {Yn } es recurrente entonces {Yn } es recurrente y i aparecera infinitamente frecuente
P
1
en {Yn }, lo cual hace n imposible y por lo tanto R =
n=0 Yn =
necesariamente.
Q.E.D.
Se supone en lo siguiente que i > 0 para todod i y que la cadena de
Markov {Yn } tiene matriz de transicion Q = {qij }. En particular, qii = 0 por
definicion de Yn .
Definici
on 17.3 La matriz de intensidad de {Xt }t0 (o generador infinitesimal) = {ij }i,jE esta definido por
ij = i qij , i 6= j,

ii =

ij = i .

j6=i

Se nota que los elementos en las filas de suman a cero. Como los tiempos de ocupacion en estado i son exponenciales exp(i ), la probabilidad que
habra un salto del estado i en el intervalo [t, t + dt) es de i dt (o formalmente
i h + o(h), donde o(h) es una funcion tal que o(h)/h 0 cuando h 0).
Condicionalmente que habra en salto en [t, t + dt) y Xt = i (limite por
la izquierda), la probabilidad que el siguiente estado es j es de qij . Entonces la probabilidad de un salto del estado i al estado j en [t, t + dt) es de
i dtqij = ij dt.
71

Teorema 17.5 (Ecuaciones diferenciales de Kolmogorov)


Si P t = {pij (t)} denotan las probabilidades de transicion del proceso de Markov de saltos,
pij (t) = IPi (Xt = j) = IP(Xs+t = j|Xs = i),
entonces

d t
P = P t = P t .
dt

Demostraci
on. Condicionando en el tiempo del primer arribo T0 ,
ptij = IP(Xt = j|X0 = i)
= IPi (T0 > t)ij +
= ei t ij +

Z t
0

= ei t ij +

Z t
0

i ei s

qij pts
kj ds

k6=i

X (u)
i (tu)

i e

pkj du

k6=i

Z t

ei u

ki pukj du .

k6=i

El integrante es acotada sobre [0, T ] y por lo tanto concluimos que t ptij


es diferenciable. Entonces

Z t
X
d t
i t
e i u
ki pukj du
pij = i e
ij +
dt
0
k6=i

+ei t ei t

ki ptkj

k6=i

= i ptij +

ik ptkj

k6=i

ii ptij

ik ptkj

k6=i

ik ptkj

lo cual es lo mismo que


d t
P = P t .
dt

72

La otra ecuacion es mas difcil de demostrar en general y lo haremos solamente sujeto a la restriccion que las intensidades son acotados, i.e. supi i < .
Recuerden que
phij = ij h + o(h)
cuando h 0, y cuando i = j,
phii = 1 i h + o(h).
Entonces

pij ij
ij cuando h 0.
h
Se necesita que la expresion arriba este uniformemente acotado en i, j y h.
Primero,
0 psij probabilidad que hay un arribo en [0, s]
=

Z s
0

= i
i

i ei u du

Z s

ei u du

Z s

1du

= i s
lo cual implica que
0

psij
i sup j .
s
j

Similarmente,
0 1 psii la prob. de un salto en [0, s]
i s
implicando lo mismo como arriba. Entonces por convergencia dominada
ps+h
psij
ij
h

1 X s h
p p psij
h k ik kj

h
s pkj
pik

73

psik kj

kj
h

implicando que
d t
P = P t .
dt
Q.E.D.
Corolario 17.3 Si E es finito, entonces
P t = exp(t) =

n tn
.
n=0 n!

Demostraci
on. Sigue de teora estandar de ecuaciones diferenciales y de
0
P = I.
Q.E.D.
La clasificacion de estados en procesos de saltos es como sigue.
Teorema 17.6 Lo siguiente es equivalente:
(i) {Yn }nE es irreducible.
(ii) i, j t > 0 : ptij > 0.
(iii) i, j t > 0 : ptij > 0.
Demostraci
on. (iii) = (ii) = (i) es obvio. Falta demostrar (i) =
(iii). Toma i, j E. Entonces i, j comunican (con respecto a {Yn }) y por
lo tanto existe un camino de i a j, digamos i, i1 , i2 , ..., in , j tal que qii1 > 0,
qi1 i2 > 0,...,qin j > 0. Ahora la probabilidad
ptij prob. de irse i i1 ... in j en tiempo t.
La expresion a la mano derecha es una convolucion de exponenciales (gama)
la cual tiene una densidad estrictamente positiva en todos sus puntos y lo
cual entonces implica que ptij > 0 para todo t > 0.
Definici
on 17.4 {Xt }t0 es irreducible si existe un t > tal que ptij > 0 para
todo i, j E.
Entonces {Xt }t0 es irreducible si y solo si {Yn } es irreducible o si y solo si
ptij > 0 para todo t > 0.
Recurrencia y transitoriedad se base en las propiedades correspondientes
de {Yn }.
Definici
on 17.5 {Xt } es recurrente (transitorio) si {Yn } es recurrente (transitorio).
74

18.

Distribuciones tipo fase

Consideramos un proceso de Markov con espacio de estados E = {1, 2, ...., p, p+


1} tal que estados 1, 2, ..., p son transitorios y estado p+1 es absorbente. Esto
significa que la matriz de intensidad de {Xt } es de la forma
=

T t
0 0

donde T es una matriz p p, t es un vector de columna de dimension p y


0 es un vector de fila de dimension p. Como los elementos de las filas en
suman a cero, entonces t = T e, donde e el vector de columna de dimension
p cuyo elementos todos son 1. Supongamos que
i = IP(X0 = i), i = 1, ..., p, IP(X0 = p + 1) = 0,
y defina vector de fila de dimension p = (1 , ...., p ). Se refiere a como
la distribucion inicial, T como matriz de subintensidad y a t como el vector
de tasas (intensidades) de salida.
Definici
on 18.1 Una distribucion tipo fase con representacion (, T ) es la
distribucion del tiempo de paro = nf{t 0|Xt = p + 1} para un proceso de
Markov de saltos {Xt } con espacio de estados E = {1, 2, ..., p, p + 1} y donde
estados 1, 2, ..., p son estados transitorios y el estados p + 1 es absorbente. Se
escribe PH(, T ).
Ejemplo 18.1 Ejemplos.
Lema 18.1
exp(T x) e exp(T x)e
0
1

exp(x) =

Demostraci
on. Para n 1 tenemos que
n

T n T n
0
0

75

usando que t = T e. Entonces, si I n sea la matriz de identidad de dimension


n n, tenemos que

n xn
exp(x) =
n=0 n!

n xn
n=1 n!
!

(T x)n
(T x)n
X

n!
n!
= I p+1 +
0
0
n=1

= I p+1 +

exp(T x) I p (exp(T x) I p )e
0
0

= I p+1 +
=

exp(T x) e exp(T x)e


0
1

Q.E.D.
Teorema 18.1 Sea PH(, T ). Entonces
(i) IP( > x) = eT x e.
(ii) tiene densidad f dado por
f (x) = eT x t.
Demostraci
on. (i) > s si y solo si Xs {1, 2, ..., p}. Por la ley de la
probabilidad total,
IP( > s) = IP (Xs {1, 2, ..., p})
=

p
X

IP (Xs = j)

j=1

p
XX

IP(Xs = j|X0 = i)IP(X0 = i)

jE i=1

i exp(T s)ij

i,jE

= eT s e.
76

(ii) f (x)dx es la probabilidad que [x, x + dx) por definicion de densidad


como derivado de la funcion de distribucion. Por la ley de la probabilidad
total otra vez,
f (x)dx = prob. de salida al estado absorbente en [x, x + dx)
=

p X
p
X

i pxij tj dx

i=1 j=1

= eT x tdx.
Q.E.D.
Corolario 18.1 La funcion de distribucion F de PH(, T ) esta dado
por
F (x) = 1 eT x e.
Teorema 18.2 T es invertible estados 1, 2, ..., p son transitorios
Demostraci
on. Sea ai la probabilidad de absorcion eventual iniciando desde el estado i. Condicionando en la primera transicion,
ai = qi,p+1 +

qi a .

6=i

Entonces,
ai =

ti X ti

a
tii 6=i tii

o
ai tii = ti +

ti a ,

6=i

es decir,
X

ti a + ti = 0.

En notacion vectorial esto es


T a + t = 0.
Si T es invertible, entonces
a = T 1 t = T 1 T e = e.
77

Entonces ai = 1 para todo i lo cual es lo mismo que absorcion eventual es


cierta y por lo tanto estados 1, 2, ..., p son transitorios.
Supongamos al reves que 1, 2, ..., p son transitorios, i.e. que ai = 1 para
todo i. Supongamos, al contrario, que T es singular. Entonces existe un y
tal que
yT = 0.
Esto es porque existe una solucion no-cero a los combinaciones lineales igual
a cero, porque de lo contrario serian linealmente independientes y la matriz
invertible. Entonces

X
T n tn
= ye.
yeT t e = y
n=0 n!
Se puede suponer sin perder generalidad que ye > 0, de lo contrario reemplaza y con y. Entonces y exp(T t)e > 0 y
u = lm eT t e
t

satisface

yu = lm yeT t e = ye > 0.
t

Entonces u 6= 0. Entonces existe un i tal que ui > 0 o 1 ui < 1. Pero 1 ui


es la probabilidad de absorcion eventual. Entonces T singular implica que
existe un i tal que ai = 1 ui < 1. Tomando la negacion, si todo ai = 1,
entonces T es invertible.
Q.E.D.
Corolario 18.2
Z

exp(T x)dx = T 1 exp(T x).

Demostraci
on. De las ecuaciones diferenciales de Kolmogorov y de la
restriccion de P t a los estados 1, ..., p es de exp(T t) es claro que
d Tt
e = T exp(T t).
dt
Q.E.D.
Corolario 18.3 El nesimo momento de X PH(, T ) es n!(1)n T 1 e.

78

Corolario 18.4 El transformado de Laplace LX (s) = IE(exp(sX) de X


PH(, T ) esta dado por
LX (s) = (sI T )1 t.
Ahora considera un proceso de renovacion propio {Nt }t0 y donde los tiempos
entre llegadas son i.i.d PH(, T ).
Teorema 18.3 La densidad de renovacion u(x) esta dado por
u(x) = e(T +t )x t.
Demostraci
on. Considere el proceso de Markov que origina juntando todos
los pedazos de procesos proveniente de los procesos que generan las distribuciones tipo fase. Entonces el espacio de estados es de {1, 2, ..., p}. Habra dos
maneras diferentes en hacer una transicion de un estado i a j. La primera
es dentro de un proceso que genera la distribucion tipo fase y la otra es saliendo del estado i y iniciando el nuevo proceso para la siguiente distribucion
tipo fase en estado j. Si se la matriz de intensidad del proceso de Markov
juntado, entonces
ij dt = tij dt + ti dt j
o
= T + t.
Entonces
u(x)dx = prob. de un arribo en [x, x + dx)
=
=

p
X
i,j=1
p
X

i P xij tj dx
i exp(x)ij tj dx

i,j=1

= e(T +t )x tdx.
Q.E.D.
Si el proceso de renovacion es retrasado este corresponde a el primer
distribucion inicial de las distribuciones tipo fase es diferente que los demas.

79

Teorema 18.4 Sea Y0 PH(, T ) y independiente de Y1 , Y2 , .... i.i.d.


PH(, T ) las tiempos entre llegadas en un proceso de renovacion retrasado.
Entonces la densidad de renovacion esta dado por
u(x) = e(T +t )x t.
Demostraci
on. Ejercicio!

Q.E.D.

Todava considerando el proceso de renovacion retrasado, defina


(t) = SN (t)+1 t
el tiempo desde t hasta el siguiente arribo.
Teorema 18.5
(u) PH( exp((T + t)u), T ).
Demostraci
on. Solamente nota que la distribucion del proceso juntado a
tiempo u es de exp((T + t)u).
Q.E.D.

19.

Reclamaciones tipo fase

Considera un proceso de riesgo


Rt = u + pt

Nt
X

Un

n=0

donde Nt es un proceso de Poisson con intensidad , las reclamaciones


P
U1 , U2 , ... son i.i.d. PH(, T ) de dimension d y se entiende que 0n=0 Un =
0. Se supone sin perder generalidad que p = 1 (si no lo es se puede reemplazar
con p = 1 y con /p.
Se considera el proceso de superavit de reclamaciones en cambio
St = u Rt =

Nt
X

Un t.

n=0

La probabilidad de ruina se puede escribir como


(u) = IP(sup St > u).
t0

80

Sea + = + (1) = nf{t 0|St > 0}. Cuando St > 0 por primera vez, este
obviamente pasa en un momento que viene una reclamacion. Este reclamacion, como las demas reclamaciones, esta generado por un proceso de Markov
subyacente, llamalo {Mt }. Iniciando el proceso desde nivel S(+ ) (limite por
la izquierda) y corriendo en sentido vertical, el proceso subyacente cruzara
nivel cero a tiempo S(+ ) . Al cruzar nivel cero el proceso subyacente Mt se
encuentra en uno de los fases (estados) 1, 2, ..., d. Defina
i = IP(MS(+ ) = i),
i.e. la probabilidad que al cruzar el nivel 0 el proceso Mt lo hara en estado i.
Defina
+ (n + 1) = nf{t 0|St > S+ (n) }.
+ (n) es la nesima vez que St llegara a un nuevo nivel maximo global.
La distribucion del exceso S+ (n+1) S+ (n) es obviamente PH(, T ) y
el proceso escalonado ascendiente entonces forma un proceso de renovacion
propio y defectuosa (si St tiene pendiente negativo) con distribucion entre
llegadas PH(, T ). Ruina pasara si y solo si la vida del proceso de renovacion rebasara nivel u lo cual es equivalente con el proceso de renovacion se
encuentra en uno de los estados 1, 2, ..., d a tiempo u. La probabilidad de lo
ultimo es de
exp((T + t)u)e
lo cual tambien es la probabilidad de ruina. Entonces todo lo que se necesita
es de calcular la distribucion defectuosa = (i )i=1,2...,d .
Teorema 19.1 La probabilidad de ruina esta dado por
(u) = + e(T +t + )u e
donde + = T 1 .
Demostraci
on. Un proceso subyacente cruzara nivel cero en estado j por
primera vez a tiempo t si y solo si t u y si el proceso subyacente pasara de
alg
un estado inicial i al estado j durante tiempo St . La probabilidad que
en [t, t + dt) habra una llegada es de dt. Entonces por la ley de probabilidad
total,
j =

Z
0

IE

" d
X

S
i pij t I{+

i=1

81

t} dt

=
=

d
X
i=1
d
X

Z
0

i IE

St

IE pij

Z +
St

pij

i=1

I{t + } dt


dt

Defina pre+ medida de ocupacion


Z +

R+ (A) = IE

I{St A}dt .

Nota que R+ esta concentrado sobre IR = (, 0). Es estandar en teora


de la medida que para cualquier funcion medible nonegativo tenemos
Z +

Z 0

f (y)R+ (dy) = IE

f (St )dt .

Entonces
i =
=
=
=

d
X
i=1
d
X
i=1
d
X
i=1
d
X

i IE

Z +

i IE
i
i

i=1

Z +
St

Z 0

Z
0
d
X

pij

dt


St
pij
dt

py
ij R+ (dy)
pyij R+ (dy)
!

i pyij

R+ (dy)

i=1

donde la primera ecuacion resulta por la probabilidad de un arribo justamente


a tiempo t es cero. Seg
un Lema 10.2, R+ (dy) = (dy) donde es la medida
de Lebesgue restringido a (, 0). Entonces
j =
=

d
X

i=1

d
X

i=1

82

i pyij R+ (dy)
i pyij dy

Figura 2: Ejemplo de la evolucion de un proceso de superavit de reclamaciones.


A tiempo + (1) habr
a una reclamacion que cruzara nivel cero. El desarrollo del
proceso subyacente esta ilustrado teniendo dos estados transitorios.

resultando en
=

eT y dy = T 1 .

Q.E.D.

20.

Hacia modelos m
as realistas

Considere un modelo de riesgo Rt donde


d
Rt = p(Rt )
dt
entre reclamaciones. Ademas supone que las reclamaciones llegan seg
un un
proceso de Poisson con intensidad > 0, Nt , y que las reclamaciones U1 , U2 , ...
83

son i.i.d. PH(, T ) de dimension d. Entonces


Rt = u +

Z t
0

p(Ru )du

Nt
X

Ui

n=0

con la convencion que U0 = 0.


Sea + = nf{t > 0|Rt < u} el primer tiempo que Rt sea menor que su
nivel inicial u. Este pasa evidentemente al tiempo de una llegada de reclamacion. Las reclamaciones estan generados por procesos de Markov y se puede
pensar que un proceso de Markov inicia a nivel R(+ ) y corre hacia abajo
verticalmente (vea dibujo). Este proceso cruza nivel u en alg
un estado i. Sea
i (u) la probabilidad que se cruza el nivel u en el estado i dado que R0 = u.
En el intervalo [0, dt) hay una llegada con probabilidad dt. Condicionalmente en el evento A de una llegada en [0, dt), el proceso cruzara nivel u en
estado i con probabilidad
d
X

j (ji + tji p(u)dt + tj p(u)dt i (u)),

j=1

donde tji p(u)dt es la probabilidad de hay un salto de j a i durante p(u)dt,


1+tii p(u)dt es la probabilidad que no habra saltos durante p(u)dt y tj p(u)dt es
la probabilidad que el proceso de Markov que genera la reclamacion termina
durante p(u)dt. Multiplicando esta probabilidad condicional con la marginal
dt tenemos con notacion obvio
i (u, A) = i (u|A)IP(A)
=

d
X

j (ji + tji p(u)dt + tj p(u)dt i (u))dt = i dt.

j=1

Ahora considere el evento Ac que no hay llegadas en [0, dt) lo cual pasa con
probabilidad 1dt. Entonces la reserva ha crecido a nivel u+p(u)dt durante
el tiempo dt. Condicionando en el estado en que se cruce el nivel u + p(u)dt
obtenemos con
i (u, Ac ) = i (u|Ac )IP(Ac )
= (1 dt)

d
X

j (u + p(u)dt) (ji + p(u)dttji + p(u)dt tj i (u)) .

j=1

84

Use la expansion j (u + p(u)dt) = j (u) + p(u)dt j0 (u)dt. Entonces


d
X

j (u + p(u)dt) (ji + p(u)dttji + p(u)dt tj i (u))

j=1

d
X

(j (u) + j0 (u)p(u)dt) (ji + p(u)dttji + p(u)dt tj i (u))

j=1

= i (u) +

d
X

j (u)p(u)tji dt +

j=1
0
+i (u)p(u)dt.

d
X

d
j (u)p(u)tj dti (u)
j=1

j=1

Entonces

i (u, A ) = i (u) +

i0 (u)p(u)dt

+ i (u)

p
X
p

j=1 j (u)p(u)tj dt dt

j=1

d
X

j (u)p(u)tji dt.

j=1

Usando que i (u) = i (u, A) + i (u, Ac ) obtenemos

i0 (u)p(u) = i + i (u)

d
X

j (u)p(u)tj +

d
X

j (u)p(u)tji .

j=1

j=1

Para resolver este sistema de ecuaciones diferenciales en practica se necesita


condiciones iniciales. Para este fin definimos
(
v

p (r) =

p(r) r < v
rv

para un rho y se considere el proceso de riesgo Rtv que tiene la funcion de


prima pv . El proceso Rtv es lineal arriba del nivel v y por lo tanto se conoce
la condicion inicial para iv (u) en el punto u = v, iv (v) = T 1 /.
Teorema 20.1 Sea tal que Rtv tiene pendiente hacia +. Entonces para
cualquier u fijo tenemos que i (u) = lmv iv (u).
Demostraci
on. Sea A el evento que el proceso de Markov cruza nivel u en
estado i y sea Bv el evento
Bv = {+ < , sup Rt > v}.
t+

85

Entonces IP(Bv ) 0 cuando v como es una probabilidad de cola.


Sea IPv las probabilidades correspondientes considerando el proceso Rtv en
cambio de Rt .
Es claro que
i (u) iv (u) = IP(A) IPv (A)
= IP(A Bv ) + IPv (A Bv ) IPv (A Bv ) IP(A Bvc ).
Tambien es inmediato que IP(A Bv ), IPv (A Bv ) 0 cuando v .
Entonces basta demostrar que IPv (A Bvc ) IP(A Bvc ). Ahora, Bvc = {+ =
+} {sup0t+ Rt v} y entonces A Bvc = {sup0t+ Rt v} A.
Entonces para v > u,
IPv (A Bvc ) = IP(+v < , sup Rtv v|R0v = u)
0t+

IP(+v

< , sup Rt v|R0 = u).


0t+

Como ambos Rtv y Rt tienen pendiente hacia +, la probabilidad que el


proceso se crucera nivel u desde el nivel v converge a 0 cuando v . Si
IPv (+ < ) es diferente que IP(+ < ) es porque la probabilidad que uno
de los procesos vaya de v a u es mayor que el para el otro (porque abajo de v
coinciden los dos procesos). Pero cuando v la probabilidad que se vaya
de v a u converge a 0 por lo tanto
IPv (+ < ) IP(+ < )
cuando v .

Q.E.D.

Ahora juntemos los procesos escalonados decreciente a un proceso de


Markov nohomogeneo It , vease Figura 4 . Sea i (t) = IP(It = i). Entonces
i (0) = i (u) y
i (t + dt) =

d
X

j (t)(ij + tji dt) +

j=1

d
X

j (t)tj dt i (u t)

j=1

Haciendo la expansion i (t + dt) = i (t) + 0i (t)dt tenemos


0i (t) =

d
X

j (t)i (u t)tj +

j=1

d
X

j (t)tji .

j=1

La probabilidad de ruina se calcula resolviendo estos ecuaciones diferenciales


P
acoplados usando que (u) = dj=1 j (u).
86

Figura 3: Proceso de riesgo de reserva

87

Figura 4: Definicion del proceso It escalonado

88

21.

Distribuciones subexponenciales

Proposici
on 21.1 Sea B una distribucion sobre (0, ) y sean X1 , X2 B
independientes. Entonces

(a) IP(max(X1 , X2 ) > x) 2B(x),


(b) lm inf x

B 2 (x)

B(x)

2,

donde f (x) g(x) lmx

f (x)
g(x)

= 1.

Demostraci
on. Para (a),
IP(max(X1 , X2 ) > x) = IP(X1 > x X2 > x)
= IP(X1 > x) + IP(X2 > x) IP(X1 > x, X2 > x)

2 2B(x).

= 2B(x)
B(x)
Para (b) notamos que X1 , X2 0 implica que
{max X1 , X2 > x} {X1 + X2 > x},
y por lo tanto
IP(max X1 , X2 > x) IP(X1 + X2 > x) = B 2 (x).
Entonces

IP(max X1 , X2 > x)
B 2 (x)

B(x)
B(x)

y
B 2 (x)
IP(max X1 , X2 > x)
lm inf
lm inf

x
x
B(x)
B(x)
IP(max X1 , X2 > x)
= lm

x
B(x)
= 2,
donde usamos (a) en los u
ltimos dos pasos.

89

Q.E.D.

Definici
on 21.1 Una distribucion B sobre (0, ) es subexponencial (B
S) si
B 2 (x)
2 x .

B(x)
Entonces si B S, IP(max(X1 , X2 ) > x) B 2 (x), es decir si X1 + X2 es
grande es porque uno de los X1 o X2 sean grandes.
Definici
on 21.2 L(x) es de variacion lenta si
L(tx)
1
L(x)

x .

Definici
on 21.3 L(x)
es de variacion regular si
L(x)

L(x)
= ,
x
donde > 0 y L es de variacion lenta.
Proposici
on 21.2 Si B(x) es de variacion regular, entonces B S.
Demostraci
on. Como B es de variacion regular, existe una funcion L de
variacion lenta tal que B(x) = L(x)/x para una > 0. Tome 0 < < 12 .
Entonces
X1 + X2 > x
(X1 > (1 )x X2 > (1 )x) (X1 > x X2 > x) .
Efectivamente, si ninguna Xi > (1 )x y si no ambos Xi > x, digamos
X1 x, entonces X1 + X2 x + (1 )x = x lo cual es contradiccion.
Entonces
IP(X1 + X2 > x) IP((X1 > (1 )x X2 > (1 )x) (X1 > x X2 > x))
2IP(X1 > (1 )x) + IP(X1 > x, X2 > x)
= 2B((1 )x) + B(x)2 .
Entonces

B 2 (x)
2B((1 )x) + B(x)2

.
B(x)
B(x)
90

Tomando limsup y utilizando que B es de variacion regular,


lm sup
x

B 2 (x)
2B((1 )x) + B(x)2
lm sup
x
B(x)
B(x)
=

L((1)x)
2 ((1)x)
lm sup

L(x)/x

B(x)
B(x) .
+
B(x)

Como B(x) = L(x)/x tenemos que


B(x)
B(x)

L(x)/(x)
L(x)/x
1 L(x)
=
L(x)
1
x .

Como B(x) 0 cuando x entonces el segundo termino converge a


cero. Entonces
L((1)x)

B 2 (x)
((1)x)
2
lm sup
L(x)/x
x
B(x)
2
L((1 )x)
=
lm sup

(1 ) x
L(x)
2
.
=
(1 )
Este vale para todo : 0 < < 12 . Ahora deja 0. Entonces se concluye
que
B 2 (x)
lm sup
2.
x
B(x)
Como cualquiera distribucion sobre (0, ) satisface
lm inf
x

B 2 (x)
2
B(x)

se concluye que el limite existe y es igual a 2, i.e. B S.

91

Q.E.D.

Proposici
on 21.3 Si B S entonces
B(x y)
1
B(x)
uniformemente y [0, y0 ] para cualquier y0 fijo.
Demostraci
on. Primero notamos la siguiente identidad
B (n+1) (x)
1 B (n+1) (x)
=
B(x)
B(x)
B(x) + B(x) B (n+1) (x)
=
B(x)
B(x) B (n+1) (x)
= 1+
B(x)
Z x
1 B n (x)
= 1+
B(dz).
B(x z)
0

(7)

Para n = 2 esto es
Z x
B 2 (x)
1 B(x z)
= 1+
B(dz)
B(x)
B(x)
0
Z y
Z x
1 B(x z)
1 B(x z)
= 1+
B(dz) +
B(dz).
B(x)
B(x)
0
y

Como B(x) es decreciente, 1 B(x z) = B(x z) B(x) as que


Z y
0

Z y
1 B(x z)
B(dz)
B(dz) = B(y).
B(x)
0

De manera similar,
1 B(x y)
1 B(x z)

z (y, x]
B(x)
B(x)
lo cual implica que
Z x
y

1 B(x z)
1 B(x y) Z x
B(x y)

B(dz) =
(B(x) B(y)).
B(x)
B(x)
B(x)
y
92

Entonces

B 2 (x)
B(x y)
1 + B(y) +
(B(x) B(y)).
B(x)
B(x)

Proximamente demostramos que lm supx B(x y)/B(x) 1. Supongamos lo contrario. Entonces


!

B 2 (x)
B(x y)
lm sup
1 + B(y) + lm sup
(B(x) B(y))
x
x
B(x)
B(x)
B(x y)
1 + B(y) + lm sup
lm sup(B(x) B(y))
x
x
B(x)
> 1 + B(y) + 1 B(y) = 2
lo cual es contradiccion con B S.
Por otro lado, B(xy) B(x) 0 < y < x por lo tanto B(xy)/B(x)
1 y de ah
B(x y)
1 y > 0.
lm inf
x
B(x)
Entonces el limite existe y es igual a 1. Para demostrar uniformidad, tome
un y0 > 0. Entonces
1

B(x y)
B(x y0 )

y [0, y0 ]
B(x)
B(x)

de lo cual sigue que


B(x y)
B(x y0 )

1
B(x)
B(x)
y[0,y0 ]

1 sup
cuando x .

Q.E.D.

Corolario 21.1 Si B S entonces


ex B(x) x  > 0

es la funcion generador de momentos de b.


y B()
=  > 0 donde B
Demostraci
on. Dado  > 0, tome : 0 < < . De la Proposicion (21.3)
tenemos que
B(n 1)
1 n .
B(n)
93

Entonces para n suficientemente grande tenemos


B(n 1)
e .
B(n)
Este implica que B(n 1)e B(n) para todo n suficientemente grande. Se
puede iterar hacia arriba pero no hacia abajo como solamente el resultado es
cierto a partir de un cierto nivel. Se concluye que B(n) C1 en para alg
un
C1 > 0 (el cual no es igual a B(0) por el comentario anterior). Entonces
tambien existe C2 > 0 tal que B(x) C2 ex . Este implica los resultados
arriba.
Q.E.D.
Proposici
on 21.4 Sea B inS y X1 , X2 B independientes. Entonces
(a) IP(X1 > x|X1 + X2 > x)

1
2

cuando x .

(b) IP(X1 y|X1 + X2 > x) 12 B(y) cuando x


Demostraci
on. (a)
IP(X1 > x, X1 + X2 > x)
IP(X1 + X2 > x)
IP(X1 > x)
=
IP(X1 + X2 > x)
B(x)
=
B 2 (x)
1

.
2

IP(X1 > x|X1 + X2 > x) =

Para (b),
IP(X1 y|X1 + X2 > x) =

=
=

IP(X1 y, X1 + X2 > x)
B 2 (x)
IP(X1 y, X1 + X2 > x)
2B(x)
1 Zy
IP(X2 > x z)B(dz)
2B(x) 0
1 Zy
B(x z)B(dz)
2B(x) 0
94

1 Z y B(x z)
B(dz)
=
2 0
B(x)
1
1Z y
B(dz) = B(y).

2 0
2
Q.E.D.
Proposici
on 21.5 Si B S, entonces
n 1 :

B n (x)
n
B(x)

cuando

x .

Demostraci
on. El resultado vale para n = 2. Usando induccion, supongamos que el resultado vale para n. Hay que demostrar que vale para n + 1.
Ahora
B n (x)
n, x
B(x)
es por definicion lo mismo que
 > 0y : x y


B n (x)


B(x)

.

Dado  > 0. Tome y como arriba. Entonces por la identidad (7)


Z x
1 B n (x z)
B (n+1) (x)
= 1+
B(dz)
B(x)
B(x)
0
Z x
1 B n (x z) B(x z)
= 1+
B(dz)
B(x z)
B(x)
0
Z xy
1 B n (x z) B(x z)
= 1+
B(dz)
B(x z)
B(x)
0
Z x
1 B n (x z) B(x z)
+
B(dz)
B(x z)
B(x)
xy

Evaluamos el segundo integral. Primero nota que supu0

B n (x)
B(x)

< porque

converge. Segundo nota que B(x z) 1 por ser una probabilidad. Entonces
Z x
xy

Z x
1 B n (x z) B(x z)
1 B n (v)
B(dz)
sup
B(x z)
B(x)
B(v)
xy v0

95

B(x z)
B(dz)
B(x)

1 B n (v) Z x B(x z)
B(dz)
B(v)
B(x)
xy
!
1
1 B n (v) Z x
B(dz)
B(v)
xy B(x)
!
1 B n (v) B(x) B(x y)
B(v)
B(x)
!
n
1 B (v) B(x)1 + 1 B(x y)
B(v)
B(x)
!
!
n
B(x y) B(x)
1 B (v)

B(v)
B(x)
B(x)
!

= sup
v0

sup
v0

= sup
v0

= sup
v0

= sup
v0

0
porque B(x y)/B(x) 1 cuando x . Ahora evaluamos el primer
integral. Cuando z [0, x y] entonces x z [y, x] y entonces x z y.
Entonces



B n (x z)

n



B(x z)
o equivalentemente
B n (x z)
= n + o(1).
B(x z)
Entonces
Z xy
B(x z)
1 B n (x z) B(x z)
B(dz) = (n + o(1))
B(dz)
B(x z)
B(x)
B(x)
0
Z x
Z x
B(x z)
B(x z)
B(dz)
B(dz)
= (n + o(1))
B(x)
B(x)
xy
0
Z x
1 Zx
B(x z)
= (n + o(1))
(1 B(x z))B(dz)
B(dz)
B(x) 0
B(x)
xy
!
B(x) B 2 (x) Z x B(x z)

B(dz) .
= (n + o(1))
B(x)
B(x)
xy

Z xy
0

La expression
B(x) B 2 (x)
B 2 (x) B(x)
=
21=1
B(x)
B(x)
96

cuando x . El integral,
Z x
xy

Z x
1
B(x z)
B(dz)
B(dz)
B(x)
xy B(x)
B(x) B(x y)
=
B(x)
B(x y)
10
=
B(x)

cuando x . Entonces
B (n+1) (x)
= 1 + (n + o(1)) + o(1) = n + 1 + o(1).
B(x)
Q.E.D.
Lema 21.1 Si B S y > 0, entonces K = K constante tal que B n (x)
K(1 + )n B(x) para todo x y n.
Demostraci
on. Dado > 0. Como
B 2 (x)
B(x) B 2 (x)
=
121=1
B(x)
B(x)
cuando x , existe un T 0 tal que
xT

B(x) B 2 (x)
1 + .
B(x)

Ahora tome tal T . Defina A = B(T )1 y


B n (x)
.
xgeq0 B(x)

n = sup
Entonces

B (n+1) (x)
B(x)
x0
!
Z x
1 B n (x z)
B(dz)
= sup 1 +
B(x)
0
x0

n+1 = sup

97

1 B n (x z)
B(dz)
B(x)
x0 0
Z x
Z x
1 B n (x z)
1 + sup
B(dz) + sup
B(x)
xT 0
x>T 0
Z x
Z x
n
1 B (x z)
1 + sup
B(dz) + sup
B(x)
xT 0
x>T 0
Z x
Z x
n
1 B (x z)
1 + sup
B(dz) + sup
B(T )
xT 0
x>T 0
Z x
n
B (x) B(x z)
1 + A + sup
B(dz)
B(x)
x>T 0 B(x z)
Z x
B(x z)
1 + A + n sup
B(dz)
B(x)
x>T 0
B(x) B 2 (x)
1 + A + n sup
B(x)
x>T
1 + A + n (1 + ).

= 1 + sup

Z x

1 B n (x z)
B(dz)
B(x)
B n (x) B(x z)
B(dz)
B(x z) B(x)
B n (x) B(x z)
B(dz)
B(x z) B(x)

Iterando,
n+1

=
=
=
=

1 + A + n (1 + )
1 + A + (1 + A + n1 (1 + ))(1 + )
(1 + A) + (1 + A)(1 + ) + n1 (1 + )2
...
(1 + A)(1 + (1 + ) + ... + (1 + )n1 ) + n(n1) (1 + )n
1 (1 + )n
(1 + A)
+ (1 + )n
(1 = 1)
1 (1 + )
(1 + )n
1+A
((1 + )n 1) +

(1 + A)(1 + )n + (1 + )n 1 + A

(1 + A + )(1 + )n 1 + A

n
(1 + A + + A)(1 + )
1+A

(1 + A)(1 + )n+1

98

1+A
(1 + )n+1 .

Q.E.D.

Lema 21.2 Sean Y1 , Y2 , ... i.i.d. G S y sea K una variable aleatoria


tomando valores de n
umeros enteros tal que IEz N para alguna z > 1. Entonces
IP(Y1 + ... + YK > u) IE(K)G(u).
un Lema 21
Demostraci
on. Seg
un Proposicion 21.5, Gn (x) nG(x) y seg
n
n
existe un D < tal que G (x) Dz G(x) para todo x. Entonces
IP(Y1 + ... + YK > u)
G(u)

Gn (u)
IP(K = n)
n=0 G(u)

nIP(K = n)

n=0

= IE(K)
por convergencia dominada (domine
n) < ).

Gn (u)
G(u)

con Dz n como IEz K =

z n IP(K =
Q.E.D.

n=0

Ahora consideramos un modelo compuesto


de Poisson con reclamaciones
Ru
con distribucion B. Defina B0 (u) = 0 B(x)/B dx. Esto es la distribucion
estacionaria del exceso en un proceso de renovacion con distribucion entre
llegadas B. Sea = B < 1.
Proposici
on 21.6 Si B0 S, entonces la probabilidad de ruina

(u)
B 0 (u)
1
.
Demostraci
on. La formula de PollaczeckKhinchine dice que si el maximo
del proceso de superavit es M , entonces
(u) = IP(M > u) = (1 )

n B n 0 (u).

n=0

Esto es lo miso que M tiene distribucion Y1 +...+YK donde Yi B0 y K tienen


una distribucion geometrica con parametro . La esperanza de K geom()
es de /(1 ) y evidentemente IEz K < . Entonces el resultado sigue de
Lema 21.2.
Q.E.D.

99

Você também pode gostar