Escolar Documentos
Profissional Documentos
Cultura Documentos
PEDRO FERNANDEZ
main
2014/10/23
page 1
Pedro J. Fernandez
IMPA
Outubro 2014
main
2014/10/23
page 2
Pedro J. Fernandez
main
2014/10/23
page 3
INDICE
Apendice 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
Apendice 3 (Martingalas) . . . . . . . . . . . . . . . . . . . . . 75
Apendice 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
Apendice 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
Referencias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
main
2014/10/23
page 1
Fig. 1.1
t e usualmente interpretado como o tempo, mas poderia ser uma distancia
a um ponto fixo, um volume, etc.
Suponhamos para sermos mais concretos que ao tempo 0 observamos
uma partcula (de um gas por exemplo) na origem de coordenadas de
um sistema de coordenadas tridimendionais. Suponhamos que para cada
instante de tempo t 0 registramos o valor da primeira das coordenadas.
Obteramos um grafico como o da Figura 1.2.
main
2014/10/23
page 2
Fig. 1.2
Xt0 e entao o valor da primeira coordenada no instante de tempo t0 .
Este fenomeno foi observado pelo botanico ingles Robert Brown em 1827
e estudado posteriormente por A. Einstein, N. Wiener, P. Levy, etc.
Estudaremos ele com cuidado no Captulo 4.
Consideremos agora o fenomeno que consiste em contar o numero
de partculas emitidas por uma substancia radioativa num intervalo de
tempo [0, t], t 0. Uma realizacao tpicadeste experimento esta re-
presentada na Figura 1.3.
Fig. 1.3
Xt0 indica o numero de partculas (2) emitidas pela substancia ate o
tempo t0 . Um grafico semelhante seria obtido se o fenomeno obser-
main
2014/10/23
page 3
L(Xs Xt ) = L(Xs Xt ).
sao independentes.
main
2014/10/23
page 5
(z1 , z1 + z2 , z1 + z2 + z3 , . . . , z1 + z2 + + zn ).
Yu = a + bu + dXc(uu0 ) u u0 0
p 1
P |Xt t EX1 | t var X1 1 2
main
2014/10/23
page 7
Fig. 1.4
Exerccio 3. Seja {Pt }0<t , > 0, um semigrupo de probabilida-
des sobre R1 . Provar que existe um unico semigrupo sobre (0, +),
{Qt }t>0 , tal que t com 0 < t , Qt = Pt .
main
2014/10/23
page 8
Cadeias de Markov
(por inducao)
0 1
0 p q
1 q p
onde o elemento i, j da matriz indica a probabilidade de transmitir j
quando o verdadeiro dgito e i.
Exemplo 2.1.2 - Consideremos um jogador que ganha ou perde uma
unidade com probabilidades p e q respectivamente. Vamos supor que o
seu capital inicial e x e que o seu adversario tem um capital de a x
(a x, e portanto o capital total e a). O jogo continua ate que um dos
jogadores fique arruinado, ou seja, ate que o primeiro jogador aumente
seu capital ate a ou perde x.
A matriz de transicao desta cadeia e a seguinte
0 1 2 a
0
1 0 0 0
1 q 0 p 0
2 0 q 0 p 0
P = ..
.
q 0 q
a1
a 0 0 1
R M P
R 0, 95 0, 05 6
M0, 10 0, 70 0, 20
P 0 0, 30 0, 70
main
2014/10/23
page 11
R M P
R 0, 855 0, 045 0 0, 10
M 0, 09 0, 63 0, 18 0, 10
P 0 0, 27 0, 63 0, 10
0 0 0 1
Fig. 2.1.1
Esta cadeia de Markov esta descrita pela matriz de transicao:
main
2014/10/23
page 12
P L 0 1 2 3
P 1 0 0 0 0 0
L 0
1 0 0 0 0
0 0, 3 0 0, 6 0, 1 0 0
P = .
1 0, 2 0
0, 2 0, 5 0, 1 0
2 0, 1 0 0, 2 0, 5 0, 4 0, 1
3 0, 1 0, 1 0, 1 0, 1 0, 2 0, 4
P (0, j) = g(j)
P (i, j) = g(j i + 1), i 1, j i 1
P P
P [X0 = i, X1 = k, X2 = j] pi pik pkj
kE kE
= =
pi pi
X
= pik kj = P (2) (i, j).
kE
Demonstracao:
X
P [Xn = j] = P [Xn = j | X0 = i]P [X0 = i]
{i:iE,pi >0}
X X
= pi P (n) (i, j) = pi P (n) (i, j).
{i:iE,pi >0} iE
b) f : E R (f 0 ou limitada), entao i E
X
E i f (Xn ) = P (n) (i, j) f (j).
jE
P
c) E i f (Xn+m ) = kE P (n) (i, k) E k f (Xn ).
Demonstracao: So vamos provar c).
X
E i f (Xn+m ) = E i f (j) I[X0 =i,X1 =i1 ,...,Xm k,Xm+n =j] =
i1 ,i2 ,...,im1 ,k,j
X
= f (j)P i [X0 = i, . . . , Xm+n = j] =
i1 ,i2 ,...,k,j
P [X0 =i,X1 =i1 ,...,Xm =k]>0
X 1
= f (j) P [X0 = i, . . . , Xm = k]
pi
i1 ,i2 ,...,k,j
P [X0 =i,X1 =i1 ,...,Xm =k]>0
P [Xm+n = j | X0 = i, . . . , Xm = k] =
X 1
= f (j) P [X0 = i, . . . , Xm = k]P (n) (k, j) =
pi
i1 ,i2 ,...,k,j
X X 1 X
f (j)P (n) (k, j) =
= P [X0 = i, . . . , Xm = k]
pi
k i1 ,i2 ,...,im1 j
| {z } | {z }
P i [Xm =k] =E k f (Xn )
X
= P (m) (i, k)E k f (Xn ).
k
main
2014/10/23
page 17
P
Se i e recorrente P (s) (i, i) = e portanto esquerdo e tambem
s=0
o que prova o resultado.
Definicao 2.3.5. Um estado i E e chamado absorvente se P (i, i) = 1.
Portanto H ii = 1 e i = 1.
Definicao 2.3.6. Se i i entao o maximo divisor comum (m.d.c.) de
{n : n > 0, P (n) (i, i) > 0} e chamado perodo do estado i.
Proposicao 2.3.3. Se i j entao, perodo de i = perodo de j.
Demonstracao: Escolhamos a e b tais que P (a) (i, j) > 0 e P (b) (j, i) >
0. Temos tambem que
P (a+m+b) (i, i) P (a) (i, j)P (m) (j, j)P (b) (j, i).
Se P (m) (j, j) > 0 entao P (2m) (j, j) > 0 e P (a+m+b) (i, i) > 0 e
P (a+2m+b) (i, i)> 0.
Portanto o perodo de i divide a (a + m + b) e (a + 2m + b) e con-
sequentemente a sua diferenca ou seja m. Quer dizer o perodo de i
divide qualquer numero m tal que P (m) (j, j) > 0. Portanto o perodo de
i divide o perodo de j. Como i e j podem ser trocados neste argumento
o resultado fica provado.
Uma consequencia deste resultado e que o perodo e uma propriedade
de classe. Podemos falar do perodo de uma classe como o perodo de
qualquer um dos estados que compoem a classe.
A notacao m n(d) significa que m n e divisvel por d. Seja i E
e seja I a classe a que i pertence; I com perodo d. Temos
main
2014/10/23
page 19
e X
P (nk) (i, r) (1 )k .
rT
Ou seja P i [X k i
nk T ] (1) . Como com P -probabilidade 1 [Xnk+
T ] [Xnk T ], 0 n, resulta que P i [Xnk+ T ] (1 )k ,
0 < n. Quando k o membro direito converge a 0, o que prova
a proposicao.
Corolario 2.4.1. Se i e j sao estados transitorios entao P (n) (i, j) 0
geometricamente. E dizer que existem c > 0 e 0 < r < 1 tal que
P (n) (i, j) crn .
Demonstracao: Pela proposicao anterior temos que
P (nk+) (i, j) (1 )k i T, j T.
Seja m = nk + . Temos
m m 1 1 m
P (m) (i, j) 1 m 1 n = (1 )1/n .
(1 )
1
Definindo c = e r = (1 )1/n temos o corolario.
1
Corolario 2.4.2. Uma cadeia de Markov finita tem pelo menos um
estado recorrente.
main
2014/10/23
page 22
Chamaremos assim, uma cadeia que tem como espaco de estados algum
dos conjuntos {0, 1, 2, . . . , r} ou {0, 1, . . . } e como matriz de transicao a
dada por
qi j = i 1
P (i, j) = ri j = i
pi j = i + 1
onde pi + ri + qi = 1, q0 = 0, e no caso de E ser finito pr = 0. Supomos
tambem que pi > 0 e qi > 0, 0 < i < r.
Para a e b E, a < b, definimos
Como rj = 1 pj qj temos
qj
u(j + 1) u(j) = [u(j) u(j 1)], a < j < b
pj
qj qj1
= [u(j 1) u(j 2)] = =
pj pj1
qj qj1 qa+1
= [u(a + 1) u(a)].
pj pj1 pq+1
q1 q2 qi
Chamando i = , 0 = 1, temos que
p 1 p2 pi
j
(I) u(j + 1) u(j) = [u(a + 1) u(a)], a j < b.
a
Somando sobre j entre a e b 1 temos
b1
!
u(a + 1) u(a) X
u(b) u(a) = i
| {z } a
1 i=a
main
2014/10/23
page 23
ou seja
u(a + 1) u(a) 1
= b1
a P
i
i=a
Substituindo em (I) temos
j
u(j + 1) u(j) = b1 , a j < b.
P
i
i=a
Portanto
b1
P
j
j=i
u(i) = b1
= P i [a < b ].
P
j
j=a
P
Se a cadeia e recorrente P 1 [0 < ] = 1 e portanto i = .
i=0
P
Reciprocamente, se i = 1, P 1 [0 < ] = 1 e P 0 [0 < ] = P (0, 0)+
i=0
P (0, 1), P 1 [0 < ] = P (0, 0) + P (0, 1) = 1.
Portanto 0 e um estado recorrente e entao toda a cadeia e recorrente.
Resumindo, a cadeia e recorrente se e somente se
X q1 q2 . . . qi
= .
p 1 p2 . . . pi
i=1
X
= P 1 [0 < ] = P (1, 0) + P (1, k)P k [0 < ]
k=1
X
= P (1, 0) + P (1, k) k .
k=1
X
P 1 [0 n + 1] = P (1, 0) + P (1, k)P k (0 n) =
k=1
X
= P (1, 0) + P (1, k)(P 1 (0 n))k =
k=1
X
= 0 + k (P 1 (0 n))k .
k=1
Ou seja
P 1 (0 n + 1) = (P 1 (0 n)), n 0.
P 1 (0 n + 1) = (P 1 (0 n)) (0 ) = 0 .
e
X
P 1 [0 < ] = P (0, 0) + P (0, k)P k [0 < ].
k=1
P k [0 < ] = k
e
X
0
= P [0 < ] = g(0) + g(k) k = ().
k=1
main
2014/10/23
page 27
ou seja
X
1
(I) P [0 n + 1] = g(0) = g(k)P k [0 n], n 0.
k=1
ou em notacao matricial
P = .
E facil ver que tambem P (n) = . (Ver Exerccio 2.8.)
Se a distribuicao inicial de uma cadeia e uma distribuicao esta-
cionaria, entao a cadeia e um processo estacionario (Exerccio 2.9).
Se e uma idstribuicao estacionaria e lim P (n) (i, j) = j i, entao
n
e a unica distribuicao estacionaria. (Exerccio 2.10.)
Vamos agora estudar um exemplo. Seja {Xn }n0 uma cadeia de
nascimento e morte sobr4e E = {0, 1, 2,
dots} tal que pi > 0 se i 0 e qi > 0 para i 1. Vamos resolver o
sistema:
r0 p0 0 0 ... 0 0
q 1 r1 p1 . . . 0
(0 , 1 , . . . ) = 1
0 q2 r2 p2 . . . 0 ..
0 0 q 3 r3 p3 . . . 0 .
Resulta
0 r 0 + 1 q 1 = 0
q 1 1 p 0 0 = 0
qi+1 i+1 pi i = 0, i0
e portanto,
pi
i+1 = i .
qi+1
Desta relacao resulta que
p0 p1 pi1
i = 0 , i 1.
q q q
| 1 2{z i }
ai
main
2014/10/23
page 29
P
Como {i }iE tem que ser uma distribuicao sobre E a soma i deve
iE
ser igual a 1. Temos que
X
X
X
i = 0 + a i 0 = 0 1 + ai .
i0 i=1 i=1
Tambem
(m)
E i I{j} (X0 ) + E i nj E i nj
ou seja
(m)
ij + Nij Nij < .
(m)
Nij
Portanto 0.
m
(m)
Nij (m)
nj
Note que = Ei m .
m
Seja agora j recorrente com tempo medio de recorrencia j = E j (j ).
Temos o seguinte
Teorema 2.6.1.
(m)
nj I[ ]
a) j (q.t.p. P i , i)
m j
(m)
Nij Hij
b)
m j
(Se j o quociente e definido como sendo 0).
Nao demonstraremos este Teorema; uma demonstracao pode ser encon-
trada em [6] e em forma mais completa em [1] ou [8].
As duas partes a) e b) sao intuitivamente muito razoaveis. Se ao longo
de uma trajetoria alcancamos o estado j (j < ) voltaremos a visitar j
em intervalos de tempo de comprimento medio j . Portanto a proporcao
1
de tempo que a cadeia esta no estado j e A parte b) decorre de a)
j
tomando esperancas.
Enunciamos agora uma serie de proposicoes; sua demonstracao e
deixada como exerccio.
Hij
lim P (n) (i, j) =
n j )
a) g(1) = 1
b) g(0) = 1
c) g(0) > 0, g(1) > 0 e g(0) + g(1) = 1
d) g(0) = 0 e g(1) < 1.
m1
X
i
P [0 = m] = P i [i1 = k] P i1 [0 = m k].
k=1
P i [0 n] P i [i1 n] P i1 [0 n], i 2.
q i
Prove que para p q, P i [0 ] = , i 1.
p
Exerccio 2.6. Considere uma cadeia irredutvel sobre os inteiros nao
qi 1 2
negativos, tal que = , i 1. Prove que e transitoria. Prove
pi i+1
que
i 6 1 1
P [0 < ] = 1 2 1 + + + 2 .
4 i
P 1 2
Sugestao: 2
= .
k=1 k 6
Exerccio 2.7. Seja uma probabilidade concentrada nos inteiros e tal
que
({1, 2, . . . }) > 0, ({1, 2, . . . }) > 0
e se F = {k : ({k}) > 0} entao m.e.d. (F ) = 1.
Seja {Xi }i=1,2,... uma sequencia de r.a.i.i.d. com distribuicao , e Sn =
Pn
Xi , S0 = 0, a cadeia de Markov das somas parciais. Provar que esta
i=1 P
cadeia e irredutvel. Provar que se m = ({k}) existe e m 6= 0, entao
k
a cadeia e transitoria.
(Sugestao: usar a lei forte dos grandes numeros).
Provar que se m = 0 e {k : ({k}) > 0} e finito entao a cadeia e
transitoria.
Exerccio 2.8. Provar que se e uma distribuicao estacionaria, entao
n 1, P (n) = .
q
Chamando = r temos que esta probabilidade e igual (dividindo por
p
ra )
1 r(ax)
> 1 r(ax) .
1 r1
Desta desigualdade resulta que se o capital do oponente (a x) e grande
a probabilidade de ruina esta perto de 1.
main
2014/10/23
page 36
(I B)1 = I + B + B 2 +
main
2014/10/23
page 37
Demonstracao: Temos
(I B)(I + B + B 2 + + B n1 ) = I B n .
|I B| |I + B + B 2 + + B n+1 | 6= 0
de onde |I B| =
6 0, ou seja I B tem inversa. Multiplicando por
(I B)1 temos
I + B + B 2 + + B n1 = (I B)1 (I B n ).
(I B)1 = I + B + B 2 +
X
X
i
E (n2j ) = E i I{j} (Xn1 )I{j} (Xn2 ) =
n1 =0 n2 =0
X X
= P i Xn1 = j, Xn2 = j .
n1 =0 n2 =0
Portanto
X
X X
X
P i Xn1 = j, Xn2 = j C 2 rn1 n2 =
n1 =0 n2 =0 n1 =0 n2 =0
2
X
n1 rn1 +1
=C (n1 + 1)r + =
1r
n1 =0
X
2 n1 1 X n1 +1
X
n1
=C n1 r + r + r =
1r
n1 =0 n1 =0 n1 =0
2 r r 1 r 2 2r 1
=C + + =C + <
1r 1r 1r 1r 1r 1r
< .
Primeiro termo
E i n2j I[X1 T ] = E i E i n2j I[X1 T ] | X1 =
X
= E i I[X1 T ] E X1 n2j = E i I[X1 =r] E r n2j =
rT
X
r
= P (i, r)E n2j .
rT
Segundo termo
Terceiro termo
X
E i I{j} (X0 )I[X1 T ] = Sij P (i, r).
rT
Temos entao
X X
E i (n2j ) = P (i, r)E r n2j + 2Sij P (i, r)N (r, j)+
rT rT
X
+ Sij P (i, r) +Sij P i [X1 T c ] =
rT
| {z }
P i [X1 T ]
X X
= P (i, r)E r (n2j ) + 2Sij P (i, r)N (r, j) + Sij .
rT rT
Em notacao matricial
Portanto
||E i (n2j )|| = (I B)1 [2(BC)D + I]
BC = B[I + B + B 2 + B 3 + ] = B + B 2 + =
= C I.
Tambem temos que (C I)D = CD I. Portanto
||E i (n2j )|| = C[2(CD I) + I]
Agora
Ou seja
D(i, j) = P (i, j) + (BD)(i, j)
ou em notgacao matricial
D = A + BD.
Portanto
D BD = (I B)D = A
e
D = (I B)1 A = CA.
main
2014/10/23
page 42
portanto
Como pj > 0
e
X(j )pj + M (1 pj ) X(j ) + M (1 ).
Teorema 3.2.1. Seja {Xn }n=0,1,... uma cadeia de Markov com matriz de
transicao P . Se existe d inteiro, > 0, e j E tal que min P (d) (i, j)
iE
> 0, entao para toda funcao f definida sobre E, E i f (Xn ) converge a
uma constante que e independente do estado inicial i.
Demonstracao: Consideremos primeiro o caso d = 1. Vamos definir
Mn = max E i f (Xn ) e mn = min E i f (Xn ) para n 1. Resulta que
iE iE
mn e uma sucessao crescente e Mn e uma sucessao decrescente. Vamos
verificar so a afirmacao ferente a mn
X X
mn+1 = E i f (Xn+1 ) = pik E k f (Xn ) pik mn = mn .
kE kE
Portanto
M1 m1 M (1 ) m(1 ) = (M m)(1 ).
Agora, X
E i f (X2 ) = pik E k f (X1 ).
kE
e, portanto
M2 m2 (1 ) max E k f (X1 ) min E k f (X1 )
kE kE
(1 )(1 )(N m) = (1 2 )(M m).
Logicamente, j 0 e
X X
1 = lim P i [Xn = j] = j .
n
jE jE
AP (m) (1 , 2 , , n ) = .
n
Demonstracao:
n
X n
X
(n)
ai P (i, j) a i j = j .
i=1 i=1
P (n+1) = P (n) P,
n
A = AP = AP (n) = lim AP (n) = .
n
= P i [j = 1] + E i j I[j >1] =
= P (i, j) + E i j I[j >1] =
= P (i, j) + E i [(j 1 ) + 1]I[j >1] =
= P (i, j) + P i [j > 1] + E i I[j >1] E i (j i | X0 , X1 ) =
X
= 1 + E i I[j >1] E X1 (j ) = 1 + P (i, r)E r (j ).
rE
r6=j
(n) !2
nj
Ei j 0.
n n
(n)
Em outras palavras nj converge em L2 a j . Uma consequencia desta
propriedade e que converge em L1 , e em probabilidade.
Demonstracao:
(n) !2 n
!2
i
nj i1X
E j =E (I{j} (Xk ) j ) =
n n
k=1
( n n )
1 i XX
= 2E (I{j} (Xk ) j )(I{j} (X ) j ) =
n
k=1 =1
n n
1 XX i
= 2 E I{j} (Xk ) j I{j} (X j ) .
n
k=1 =1
Agora
E i I{j} (Xk ) j I{j} (X j ) =
= E i I{j} (Xk )I{j} (X ) j P (k) (i, j) j P () (i, j) + j2 =
Se u = k e v = |k | temos
Agora
#{s : s = k , k = 1, 2, . . . , n; = 1, 2, . . . , n} = n (k ) + 1 n,
e
#{s : |k | = s; k = 1, 2, . . . , n; = 1, 2, . . . , n} 2n.
Temos entao que
(n) !2 n n
i
nj 1 X X k |k| k k
E j c r + r + r + r + c r
n n2
k=1 =1
n n n n
1 X s X X
s
X
2c n r + 2n n r +c rs =
n
s=0 s=0 s=0 s=0
P
cn s
r |1 + 2 + 1 + 1 + c|
s=0
= 0.
n2 n
P n = a1 P n1 + a2 P n2 + + am P nm
onde
ami
ai = , i = 1, 2, . . . , m
am
main
2014/10/23
page 48
e
|P I| = am P m + am1 P m1 + + a0 = 0.
Exerccio 3.4. Nas condicoes do Teorema 3.2.1, provar que se P (n) (i, j) =
(n)
j + ij , existe c > 0 e 0 < r < 1 tal que
(n)
|cij | c rn
Se 0 d
Msd+ msd+ (1 )s (M m).
n
Definindo n = sd + temos s = e
d
n
Mn mn (1 ) d (1 ) d (M m).
Como 1 temos
d
1
Mm mn (M m)[(1 )1/d ]n .
1
main
2014/10/23
page 49
1 n
Em nosso caso M m 1. Chamando c = e r = (1 ) d temos
1
o resultado.
Exerccio 3.5. Provar que toda cadeia de Markov finita tem pelo menos
um estado recorrente positivo.
Exerccio 3.6. Provar que a propriedade de um estado ser recorrente
positivo, e uma propriedade de classe.
Exerccio 3.7. Seja {Xn }n=0,1,2,... uma cadeia de Markov finita com
matriz de probabilidades de transicao P . Seja R(i, j) uma certa re-
n1
P
compensa associada a transicao i j. Seja V (n) = R(Xk , Xk+1 ) a
k=0
recompensa total depois de n transicoes.
(n)
Se Vi = E i V (n) , provar que
(n)
X (n1)
Vi = Pij (Eij + Vj ), i E, n = 1, 2, . . .
jE
Exerccio 3.8. Seja {Xn }n=0,1,... uma cadeia de Markov finita com
distribuicao estacionaria com todos seus elementos positivos. Provar
que esta cadeia e irredutvel, aperiodica e recorrente positiva.
main
2014/10/23
page 50
Cadeias de Markov
e Parametro Contnuo
Portanto
X
Pt+s (i, j) = P i (Xt+s = j) = P i (Xt = k, Xt+s = j) =
kE
X
= Pt (i, k)Ps (k, j).
kE
Ou em notacao matricial
Pt+s = Pt Ps .
Agora
P i (1 > t, Xt = j) = ij e(i)t .
Portanto Pt (i, j) satisfaz a seguinte equacao integral
P i (Xt = j) = ij e(i)t +
Z t X
+ (i)e(i)s Qik Pts (k, s) ds.
0 k6=i
Pi (Xt = j) = ij e(i)t +
Z t X
(i)t
+ (i)e e(i)s Qik Ps (k, j) ds.
0 k6=i
Em particular
X
P0 (i, j) = (i)P0 (i, j) + (i) Qik P0 (k, j) =
k6=i
X
= (i)ij + (i) Qik kj =
k6=i
= (i)ij + (i)Qij .
Portanto X
q(i, j) = (i) = q(i, i).
j6=i
ou em notacao matricial
Pt = A Pt , t 0.
Para t = 0, temos
X
Pt (i, j) = Pt (i, k)P0 (k, j).
kE
Em notacao matricial
Pt = Pt A, t 0.
4.3 Exemplos
Se j > i temos
Z t
Pij (t) = e(ts) Pij1 (s) ds.
0
Seja j = i + 1. Entao
Z t Z t
(ts) s
Pii+s (t) = e e ds = et ds = t et .
0 0
Seja j = i + 2. Temos
Z t
Pii+2 = e(ts) (s)es ds =
0
Z t Z t
2 t 2 t
= e s ds = e s ds =
0 0
2 t2 t (t)2
= e = et
2 2
Por inducao se j > i
et (t)ji
Pij (t) =
(j 1)!
Note-se que Pij (t) = P0(ji) (t), t 0; e que se X0 = i entao L(Xt 1) =
Poisson (t). Em geral se 0 s < t, L(Xt Ss ) = Poisson (t s).
Com efeito,
X
P i (Xt Xs = k) = P i (Xs = , Xt = + k) =
=0
X
= P i (Xs = )P (Xts = + k) =
=0
X
= P i (Xs = )Pts (0, k) = Pts (0, k) =
=0
[(t s)]k e(ts)
= P 0 (Xts = k) =
k!
main
2014/10/23
page 57
Seja {Xt }t0 uma cadeia de Markov a parametro contnuo com espaco
de estados E.
Seja 1 o tempo do primeiro pulo (1 = + se a trajetoria e cons-
tante). Seja para i E
i () = min{t : t 1 () e Xt () = i}.
Se 1 () = + ou t 1 (), Xt () 6= i, definimos i () = +.
i () indica o tempo da primeira visita ao estado i depois do primeiro
pulo. Suponhamso que i e nao absorvente ((i) > 0). Dizemos entao
que i e recorrente (resp. transitorio) se P i [i < ] = 1 (resp. P i [i <
] < 1). Uma cadeia sera chamada recorrente (resp. transitoria) se
todos os seus estados sao recorrentes (resp. transitorios).
Se para todo par i, j E
P i [j < ] > 0
Em notacao matricial
(I) Pt = , t 0 ( = transposta de ).
Pt = 0.
(II) A = 0
Pode ser provado que a relacao (II) e valida se e somente se (I) e valida.
Um estado i e chamado recorrente positivo (resp. recorrente nulo) se
i = E i , i < (resp. i = E i , i = +). Como anteriormente um
processo e chamado recorrente positivo (resp. recorrente nulo) se todos
os seus estados sao recorrentes positivos (resp. recorrente nulo). Para
uma cadeia irredutvel, todos os estados sao do mesmo tipo. Tambem
toda distribuicao estacionaria esta concentrada nos estados recorrentes
positivos e portanto, um processo que e transitorio ou recorrente nulo
nao tem distribuicao estacionaria. Uma cadeia irredutvel recorrente
positiva tem uma unica distribuicao estacionaria, dada por
1
i = , i E.
(i)(i)
Esta idnetidade e bem razoavel, porque em um intervalo de tempo t
t
grande, o processo faz visitas ao estado i. Em cada visita ele demora
i
main
2014/10/23
page 59
1 t
em media Portanto o total de tempo que passa no estado i e
(i) i (i)
1
em proporcao
i (i)
Para toda cadeia irredutvel e recorrente positiva com distribuicao
estacionaria {i }iE
lim Pt (i, j) = j .
t
(I) 1 1 0 0
e
i1 i1 + i (i i ) + i+1 i+1 = 0, i 1
i+1 i+1 i i = i i i1 i1 .
main
2014/10/23
page 60
i+1 i+1 = i i , i 1
e portanto
i
i+1 = i , i 0.
i+1
Desta equacao resulta que
0 1 . . . i1
(II) i = 0 , i 1.
1 2 . . . i
Chamando
1
i = 0 . . . i1
i1
1 . . . i
A equacao (II) fica entao
i = i 0 , i 0.
P
Se i , ou seja
i=0
X 0 . . . i1
(III) <
1 . . . i
i=1
(k)
b) P (Xk = min(X1 , . . . , Xn )) = n
P
(i)
i=1
P
c) P [Xi = Xj ] = 0.
i6=j
Outros Processos
Estocasticos
Fig. 5.1.1
Este fenomeno foi observado por um botanico ingles, Robert Brown
em 1827, e estudado matematicamente por A. Einstein em 1905, e poste-
riormente por matematicos como N. Wiener e P. Levy. Este expermento
aleatorio e chamado de Movimento Browniano ou Processo de Wiener.
Seja = { : : [0, +) R1 a contnua}.
Seja Xt () = (t), t 0, e seja A a menor -algebra, tal que todas
as funcoes Xt resultem mensuraveis.
Enunciamos sem demonstracao o seguinte teorema.
Teorema 5.1.1 (Existencia do Movimento Browniano). Existe uma
probabilidade P sobre A tal que o processo estocastico {Xt }t0 tem (com
relacao a P ) as seguintes propriedades:
1) t 0, L(Xt ) = N (0, t)
2) n, 0 t0 < t1 < < tn as variaveis
Xt0 , Xt1 , . . . , Xtn Xtn1
sao independentes.
Vamos agora enunciar e esbocar as demonstracoes de varias impor-
tantes propriedades deste processo.
Comecamos pelo chamado Princpio da reflexao, ferramenta utilssima
na demonstracao dos outros resultados.
Princpio da Reflexao. Definimos para cada t 0,
Mt () max Xu ().
0u1
main
2014/10/23
page 64
Fig. 5.1.2
pertence a A [Xt < ] e reciprocamente. E portanto mais ou menos
natural esperar que a probabilidade dos dois eventos que aparecem no
membro direito da identidade (I) sejam iguais. Temos portanto
a) h(0) = 0.
b) Existe {tn }n=1,2,... e {tn }n=1,2,... duas sequencias tais que tn > 0,
tn > 0, tn 0, tn 0, h(tn ) (tn ) e h(yn ) (tn ) com
0 < < 1.
main
2014/10/23
page 65
1
Seja Bn = { : u, 0 < u < , Xu () u } com /2 < < 1.
n
1
Temos t, 0 < t < , Bn |Mt t ] e portanto
n
Z +
t
t t
Xt
1/2 t
P (Bn ) P |Mt t ] = 2P |Xt t ] = 2P t =2 f1 (x).
t t1/2
1
Bn = { : t, 0 < t < , Xt () = 0}
n
T
P (Bn ) = 1 e portanto P Bn = 1 o que prova o resultado.
n=1
Seja agora h : (0, 1[ R uma funcao contnua, nao-negativa. Consi-
deremos o evento
Entao Z
2 /2t
1 se t3/2 eh h(t)dt <
1
P (A) =
Z
2 /2t
0 se
t3/2 eh h(t)dt =
1
main
2014/10/23
page 67
Corolario 5.1.1. Se h(t) = (1 + ) 2t log log t entao
(
1 se > 0
P (A) =
0 se < 0
Seja {Xt }tT um processo estocastico tal que t T , EXt2 < . Defi-
nimos entao a funcao (t) = EXt , t T , e a funcao
onde s e t pertencem a T .
e chamada funcao valor medio e K funcao de covarianca.
Seja agora {Xt }tT um processo com incrementos independentes
cov X0 = 0.
Temos para 0 s t
K(s, t) = var(Xst ).
e em geral
K(s, t) = (s t) var(X1 ).
Sabemos tambem que para um processo deste tipo
K(s, t) = f (s t).
(I) (u) = eiu m1/2(i u) , u = (u1 , . . . , un ) .
1 0 ... 0
Xt 1
Xt 1 1 1
... 0
Xt 2 Xt 1
.. 1 1 1 . . .
. = .. .
.. .
X .
tn
Xtn Xtn1
1 ... 1
Como Xt1 , Xt2 Xt1 , . . . , Xtn Xtn1 sao v.a. independentes e normais
e Xt1 , . . . , Xtn e obtido como uma transformacao linear dessas variaveis
resulta que L(Xt1 , . . . , Xtn ) e normal em Rn .
Vamos construir agora outro importante exemplo de processo gaus-
siano.
Seja {Xt }t0 movimento browniano e g : R1 R1 uma funcao posi-
tiva, estritamente crescente e tal que g(0) = 1.
1
Seja Yt = p Xag(t) , a > 0, t R1 . Este novo processo es-
g(t)
tocastico com espaco parametrico T = R1 tem as seguintes proprieda-
des:
1
EYt = 0, var Yt = var Xag(t) = a.
g(t)
1
Xt 1 g(t1 ) Xag(t1 )
.. .. .
.
. = . .
Xt n
1 Xag(tn )
g(tn )
s
ag(t) g(t)
=p =a
g(t)g(t + h) g(t + h)
Seja Yt = Z(1)Xt .
O processo Yt e chamado frequentemente sinal de telegrafo aleatorio.
Uma trajetoria tpica esta representada na seguinte figura
Provar:
a) O processo Yt e estacionario;
b) Provar que para este processo
K(s, t) = e2|ts| .
APENDICE 1
E i (f : n | X0 , X1 , . . . , Xn ) = E Xn (f )
J = {A : A [ = n] [X0 , X1 , . . . , Xn ], n}.
APENDICE 2
P i [A] = P i i A , i < =
= E i E i I[i A ] I[i <] [i ] =
74 Apendice 2
Demonstracao:
X
X
Nii = k P i [ni = k] = k P i [ni = k] =
k=0 k=1
X
X
X
= P i [ni = m] = P i [ni k] =
k=1 m=k k=1
X k1
= H ii .
k=1
APENDICE 3
Martingalas
76 Apendice 3
X () = X () ().
1) E|X | < ;
Z
2) lim Xn = 0
n [ >]
entao
E(X ) = E(X0 ).
n
P
Seja Xn = i , X0 = 0. {Xn , [1 , . . . , n }.n 0} e uma martin-
o=1
gala. Seja M , N inteiros positivos e o tempo de parada que indica a
main
2014/10/23
page 77
Apendice 3 77
0 = EX0 = EX M p N q N (1 p) = (M + N )p N.
N M
Portanto p = eq=
M +N M +N
Este resultado pode ser aplicado ao Exemplo 2.1.2 (p = q = 1/2)
dando como probabilidade de ruina do jogador com capital inicial x,
ax 1x q Xn
= Se p 6= q entao e uma martingala.
a a p
APENDICE 4
|F (x)| 2K 0 x 1; F (1) = 0
e
F (x + y) = F (x) + F (y) x > 0 e y > 0.
Vamos provar que F 0. Temos se x1 > 0, x2 > 0, . . . , xn > 0 que
n
X n1
X
F xi = F xi + F (xn ) =
i=1 i=1
n2
X
=F xi ) + F (xn1 ) + F (xn ) = =
i=1
n
X
= F (xi ).
i=1
g(x + y) = g(x)g(y) x 0, y 0.
Apendice 4 79
tal que g(x0 ) > 0. Vamos provar que entao g > 0. Temos primeiro que
n 1, g(nx0 ) = [g(x0 )]n > 0; ou seja sobre a sequencia nx0 , g > 0.
Vamos provar agora que se g(u) > 0 entao g(x) > 0, 0 < x u. Isto
decorre da identidade
Portanto g > 0. Seja entao f (x) = log g(x). Se 0 < x < 1 temos
0 < g(1) = g(x)g(1 x) g(x)K.
g(1)
Portanto g(x) K, x, 0 < x < 1. Desta desigualdade
K
resulta que f (x) = log g(x) e limitada no intervalo (0, 1]. Portanto
pelo Lema 1 f (x) = f (1)x ou seja, log g(x) = [log(g(1))]x e portanto
g(x) = e[log(g(1))]x .
APENDICE 5
= (, U , )
= (, e U , )
Apendice 5 81
REFERENCIAS