Você está na página 1de 23

Processos Estocsticos

Mestrado em Cincias Actuariais


Alexandra Bugalho de Moura

/h

81,9(56,'$'(
( ' 8$ 5 ' 2
021'/$1(


)$&('UHDOL]D
Agosto 2017 6HPLQiULRVRE
,QFOXVLYDQRSD

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 1 / 23


Outline

Outline

1 Cadeias de Markov a tempo discreto


Aplicao a sistemas de bonus-malus no seguro automvel
Modelao. Estimao e simulao

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 2 / 23


Cadeias de Markov a tempo discreto

Teoremas limite: distribuio estacionria

Observaes
P2 = (P) P = ; ; Pn = ;
Distribuio-limite:
(k)
j = lim Pij j S
n

Distribuio estacionria (independente do estado inicial):

lim Pr {Xn = i} i S
n

Pode no existir o lim. @ distr. estacionria;


Pode existir o lim. mas no d.prob. @ distr. estacionria;
Se existe distr.-limite, existe distr. estacionria e coincidem ;
Pode existir distr. estacionria e no existir distr.-limite.

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 3 / 23


Cadeias de Markov a tempo discreto

Teoremas limite: distribuio estacionria

Exemplo

     
0 1 1 0 0 1
P= P2 = P3 =
1 0 0 1 1 0

P no tem distribuio limite:



(n) 1 i = 1, 2 n par
Pii = @ dist.lim.
0 i = 1, 2 n impar

Mas P tem distribuio estacionria:

Pr {Xn = 1} = Pr {Xn = 1|X0 = 1}Pr {X0 = 1} + Pr {Xn = 1|X0 = 2}Pr {X0 = 2}


(n) 1 (n) 1
= P11 + P21 = 1/2
2 2
Pr {Xn = 2} = 1/2
   
  0 1 1/2
1/2 1/2 =
| {z } 1 0 1/2

| {z } | {z }
P

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 4 / 23


Cadeias de Markov a tempo discreto

Teoremas limite: distribuio estacionria

Teorema: distribuio limite


Se P regular, ento a distribuio limite independente do estado inicial e dada por

P = P
k k = 1

Neste caso
lim Pijn = j
n

Ou seja
1 2 N

1 2 N
P n n+
.. .. ..

. . .
| {z }
todas as linhas so iguais a

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 5 / 23


Cadeias de Markov a tempo discreto

Teorema-limite fundamental das cadeias de Markov

Relembrar
Considerem-se, para um estado recorrente i:
a probabilidade do 1o retorno a i em n passos
(n)
fii = Pr {Ri = n|X0 = i}

o tempo (n) da 1a chegada a i

Ri = min{n 1; Xn = i}

Relembre-se o tempo mdio para retornar ao estado i:



(n)
X
mi = E [Ri |X0 = i] = nfii
n=1

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 6 / 23


Cadeias de Markov a tempo discreto

Teorema-limite fundamental das cadeias de Markov

Teorema
(n) (n) (0) (0)
Sejam, uma cadeia de Markov recorrente, irredutvel e aperidica, Pii , fii (Pii = 1, e fii = 0).
Ento,
(n) (n) 1
i = lim Pii = lim Pji = , i, j S .
n n mi

Observaes
k representa a probabilidade do processo estar no estado j, depois de estar a operar h
muito tempo
k representa a fraco de tempo, no longo prazo, que o processo passa no estado j
Se mi < , > 0 e o estado i recorrente positivo.
Se mi = , = 0 e o estado i recorrente nulo.

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 7 / 23


Cadeias de Markov a tempo discreto

Teoremas limite: distribuio estacionria

Observaes
A velocidade de convergncia depende da matriz P
Teoricamente os resultados so valido para um nmero infinito de passos, mas a distribuio
limite pode ser atingida num nmero finito de passos

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 8 / 23


Cadeias de Markov a tempo discreto

Teoremas limite: distribuio estacionria

Notas
(n)
Se C for uma classe recorrente, Pij = 0, i C , j
/ C , a submatriz associada ||Pij|| i, j C
matriz de prob.s de transio e a cadeia associada irredutvel e recorrente.
O teorema-limite aplica-se a toda a classe recorrente aperidica.

Teorema
Se uma classe for recorrente positiva aperidica, ento o seguinte sistema de equaes determina
univocamente a distribuio (0 , 1 , . . . ):

(n)
X
j = lim Pjj = k Pkj j = 0, 1, = P
n
k=0

X
k = 1
k=0

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 9 / 23


Cadeias de Markov a tempo discreto Aplicao a sistemas de bonus-malus no seguro automvel

Aplicao a sistemas de bonus-malus no seguro automvel

Exemplo Bonus-malus
Regras: 4 nveis de desconto, transies semelhantes ao anterior, mas com 2 ou 1 nveis se no ano
anterior teve ou no sinistros.
0: 0% desconto;
1: 25% desconto;
2: 40% desconto;
3: 60% desconto.
O processo semi-Markov. O Estado 2 precisa de ser dividido:
2+ : 25% desconto;

2 : 40% desconto.

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 10 / 23


Cadeias de Markov a tempo discreto Aplicao a sistemas de bonus-malus no seguro automvel

Aplicao a sistemas de bonus-malus no seguro automvel

Exemplo Bonus-malus

1/4 3/4 0 0 0

1/4 0 3/4 0 0
P= 0 1/4 0 0 3/4 .

1/4 0 0 0 3/4
0 0 0 1/4 3/4
A probabilidade de obter desconto de 60% no ano n + 3, dado que detm 25% em n :
(3)
P1,3 = P 3

2,5
= 27/64

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 11 / 23


Cadeias de Markov a tempo discreto Aplicao a sistemas de bonus-malus no seguro automvel

Aplicao a sistemas de bonus-malus no seguro automvel

Exemplo: Modelo 3, Bonus-malus, Centeno [2003]


Seguro automvel obrigatrio, contra terceiros:
30% desconto, sem sinistros em 2 anos seguidos.
15% agravamento, 1 indemnizao
30% agravamento, 2 indemnizaes
45% agravamento, 3 indemnizaes
100% agravamento, 4 indemnizaes
> 4 sinistros, caso a caso...
Diretamente, o sistema no Markoviano, h que dividir classes...

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 12 / 23


Cadeias de Markov a tempo discreto Aplicao a sistemas de bonus-malus no seguro automvel

Aplicao a sistemas de bonus-malus no seguro automvel

Exemplo: Modelo 3, Bonus-malus, Centeno [2003]


C1 Aplices com 30% bonus
C2 Aplices sem bonus nem malus no 2o ano consecutivo
C3 Aplices sem bonus nem malus no 1o ano
C4 Aplices com 15% mais e sem sinistros no ano
C5 Aplices com 15% mais e sinistro no ano
C6 Aplices com 30% mais e sem sinistro no ano
C7 Aplices com 30% mais e sinistros no ano
C8 Aplices com 45% mais e sem sinistros no ano
C9 Aplices com 45% mais e sinistros no ano
C10 Aplices com 100% mais e sem sinistros no ano
C11 Aplices com 100% mais e sinistros no ano.
Agora de Markov.

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 13 / 23


Cadeias de Markov a tempo discreto Aplicao a sistemas de bonus-malus no seguro automvel

Aplicao a sistemas de bonus-malus no seguro automvel

Exemplo: Modelo 3, Bonus-malus, Centeno [2003]


Vector de prmios (ndices, %)

b = (70, 100, 100, 115, 115, 130, 130, 145, 145, 200, 200)

Matriz das regras de transio T :

1 2 3 4 5 6 7 8 9 10 11
1 {0} {1} {2} {3} {4, ...}
2 {0} {1} {2} {3} {4, ...}
3 {0} {1} {2} {3} {4, ...}
4 {0} {1} {2} {3, ...}
5 {0} {1} {2} {3, ...}
6 {0} {1} {2, ...}
7 {0} {1} {2, ...}
8 {0} {1, ...}
9 {0} {1, ...}
10 {0} {1, ...}
11 {0} {1, ...}

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 14 / 23


Cadeias de Markov a tempo discreto Aplicao a sistemas de bonus-malus no seguro automvel

Aplicao a sistemas de bonus-malus no seguro automvel

Exemplo: Modelo 3, Bonus-malus, Centeno [2003]


Se o nmero de indemnizaes for de Poisson(), P,

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 15 / 23


Cadeias de Markov a tempo discreto Aplicao a sistemas de bonus-malus no seguro automvel

Aplicao a sistemas de bonus-malus no seguro automvel

Cadeias no irredutveis
A cadeia no irredutvel. Classe de Estados {C2 , C3 } transitrios. Classe
{C1 , C4 , C5 , C6 , C7 , C8, C9 , C10 , C11 } classe de estados recorrente positivos e aperidicos. Re-
ordernar estados  
P1,(,) P3,(,)
P, =
0 P2,,
P1,, : Matriz de transio dentro de {C2 , C3 }
P3,, : Matriz de transio entre {C2 , C3 } e {C1 , C4 , C5 , C6 , C7 , C8, C9 , C10 , C11 }
P2,, : Matriz de transio entre {C1 , C4 , C5 , C6 , C7 , C8, C9 , C10 , C11 }.

0 P1,(,) P3,(,) + P3,(,) P2,(,)


 
P2, = 2 ;
0 P2,(,)

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 16 / 23


Cadeias de Markov a tempo discreto Aplicao a sistemas de bonus-malus no seguro automvel

Aplicao a sistemas de bonus-malus no seguro automvel

Cadeias no irredutveis

   2
0 0 0 0
P21,, = =
0 0 a 0
" #
P1,(,) P3,(,) + P3,(,) P2,(,) Pn2

0
Pn, = n
2,(,)
0 P2,(,)

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 17 / 23


Cadeias de Markov a tempo discreto Aplicao a sistemas de bonus-malus no seguro automvel

Aplicao a sistemas de bonus-malus no seguro automvel


Exemplo: Modelo 3, Bonus-malus, Centeno [2003]
No nosso exemplo

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 18 / 23


Cadeias de Markov a tempo discreto Aplicao a sistemas de bonus-malus no seguro automvel

Aplicao a sistemas de bonus-malus no seguro automvel

Cadeias no irredutveis
Retomar " #
P1,(,) P3,(,) + P3,(,) P2,(,) Pn2

0
Pn, = 2,(,)
0 Pn2,(,)

Calculando o limite
" #
P1,(,) P3,(,) + P3,(,) P2,(,) lim Pn2

0
lim Pn, = 2,(,)
n 0 limn Pn2,(,)

P
2,(,) = lim Pn2 and P
2,(,) = P2,(,) P2,(,)
n 2,(,)
or 0 = P2 (I P2 )

Pn, tende para uma matriz com todas as linhas iguais, da forma
h i
Pn, 0 | P
2,(,)

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 19 / 23


Cadeias de Markov a tempo discreto Aplicao a sistemas de bonus-malus no seguro automvel

Aplicao a sistemas de bonus-malus no seguro automvel

Exemplo: Modelo 3, Bonus-malus, Centeno [2003]


Com = 0.1, temos P
2,(,)
=

0.81873 0.067032 0.074082 0.014905 0.016473  0.0032584


0.0036011 91126 104 10071 103

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 20 / 23


Cadeias de Markov a tempo discreto Aplicao a sistemas de bonus-malus no seguro automvel

Aplicao a sistemas de bonus-malus no seguro automvel

Exerccio
Considere um sistema de Bonus-Malus com os nveis de desconto de 0%, 25%, 40% e 50% do
prmio inicial total e as seguintes regras:
Todos os segurados comeam no nvel 0%
Se no houver indemnizaes durante o ano corrente, ento o segurado sobe um nvel, ou
permanece no nvel de desconto mximo
Se houver uma indemnizao o segurado desce um nvel ou permanece no nvel de desconto
mnimo
Se houverem duas ou mais indemenizaes no ano, o segurado desce dois nveis ou
permanece no nvel de desconto mnimo
Assuma que a probabilidade de no ter indemnizaes 0.9 e a probabilidade de ter uma indem-
nizao 0.05.

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 21 / 23


Cadeias de Markov a tempo discreto Aplicao a sistemas de bonus-malus no seguro automvel

Aplicao a sistemas de bonus-malus no seguro automvel

Exerccio
1 Descreva o modelo como uma cadeia de Markov
2 Determine a probabilidade de um segurado ter o desconto mximo no ano n + 3, sabendo
que tem o desconto mximo no ano 3
3 Determine o prmio esperado no terceiro ano de um segurado cujo o prmio a priori 500
4 Determine, no longo prazo, a percentagem de aplices em cada nvel de desconto.
5 Qual a durao mdia entre visitas ao nvel de desconto 0?
6 Determine, para um segurado escolhido ao acaso, o prmio mdio no longo prazo, com
percentagem do prmio a priori
7 Usando a anlise baseada no primeiro passo, escreva o sistema de equaes que permite
calcular o nmero mdio de anos que um segurado que entrou agora na companhia leva a
chegar, pela primeira vez, ao nvel de desconto mximo.

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 22 / 23


Cadeias de Markov a tempo discreto Modelao. Estimao e simulao

Modelao. Estimao e simulao

Estimao
Depois de determinado o espao de estados, o modelo de Markov precisa de estimar as probabilidade
de transio. Sejam (x1 , x2 , ..., xn ) as observaes, definir
ni : No de vezes tal que xt = i, 1 t n 1;
nij : No de vezes tal que xt = i e xt+1 = j, 1 t n 1.
nij
Ento, Pij = ni
. Nij |Ni _ Binomial(Ni ; Pij ).

Simulao
A Simulao de cadeias de Markov homogneas bastante simples, j que do histrico apenas
precisamos da ltima realizao. Ou seja, conhecemos a distribuio condicionada de Xt+1 dado
Xt (f.p. condicionada), apenas geramos nmeros aleatrios com essa distribuio.

Alexandra Bugalho de Moura Processos Estocstico, UEM Agosto 2017 23 / 23