Escolar Documentos
Profissional Documentos
Cultura Documentos
Parte I
Mtodos Matemticos 1A - Cadeias de Markov
Definies e Notaes
Definio 1:
Um Processo de Markov {X
t
} um processo estocstico
que, dado o valor X
t
, os valores de X
s
para s>t no so influenciados
pelos valores de X
u
, u<t.
Uma Cadeia de Markov Discreta no Tempo um Processo de
Markov cujo espao de estados um conjunto finito ou contvel, e
cujo ndice temporal do conjunto T = 0,1,2,...
Em termos formais, a Propriedade de Markov :
Pr{X
n+1
=j / X
0
=i
0
, X
1
=i
1
,..., X
n-1
=i
n-1
, X
n
=i} = Pr{X
n+1
=j / X
n
=i}, (1)
para todos os pontos no tempo n e todos os estados i
0
,..., i
n-1
, i, j.
Mtodos Matemticos 1A - Cadeias de Markov
Notao:
O espao de estados da Cadeia de Markov indexado por inteiros
no negativos: {0,1,2,...};
X
n
est no estado i se X
n
=i.
Definio 2:
A probabilidade de X
n+1
estar no estado j dado que X
n
est
no estado i chamada probabilidade de transio de um passo e
denotada por P
ij
n,n+1
. Isto :
P
ij
n,n+1
= Pr{X
n+1
=j / X
n
=i}. (2)
Esta notao enfatiza que, em geral, as probabilidades de
transio so funes no somente dos estados inicial e final, mas
tambm do tempo de transio.
Mtodos Matemticos 1A - Cadeias de Markov
Quando as probabilidades de transio em um passo so
independentes da varivel do tempo n, dizemos que a Cadeia de
Markov tem probabilidades de transio estacionrias.
Ento P
ij
n,n+1
= P
ij
independente de n e P
ij
a probabilidade
condicional que o valor do estado transite de i a j em uma tentativa.
Pode-se visualizar as quantidades P
ij
de forma matricial, num
arranjo quadrtico infinito:
Mtodos Matemticos 1A - Cadeias de Markov
E chamamos
P =
Matriz de Markov ou Matriz de Probabilidades de Transio. As
probabilidades P
ij
satisfazem as condies:
P
ij
0, para i, j = 0,1,2,... (3)
= 1, para i = 0,1,2,... (4)
Proposio 1: Um Processo de Markov est completamente
definido quando sua matriz de probabilidades de transio e seu
estado inicial X
0
(ou, mais genericamente, a distribuio de
probabilidade de X
0
) esto especificados.
0 j
ij
P
ij
P
Mtodos Matemticos 1A - Cadeias de Markov
Prova:
Seja Pr{X
0
=i} = p
i0
. suficiente mostrar como calcular as
quantidades
Pr{X
0
=i
0
, X
1
=i
1
, X
2
=i
2
,..., X
n
=i
n
}, (5)
uma vez que qualquer probabilidade envolvendo X
j1
,..., X
jk
, para
j
1
<...< j
k
, pode ser obtida, de acordo com a lei da probabilidade
total, somando os termos da forma (5).
Pela definio de probabilidade condicional, temos:
Pr{X
0
=i
0
, X
1
=i
1
, X
2
=i
2
,..., X
n
=i
n
} =
Pr{X
0
=i
0
, X
1
=i
1
, X
2
=i
2
,..., X
n-1
=i
n-1
} . Pr{X
n
=i
n
/ X
0
=i
o
, X
1
=i
1
, X
2
=i
2
,
..., X
n-1
=i
n-1
}. (6)
Mtodos Matemticos 1A - Cadeias de Markov
Agora, pela definio de Processo de Markov:
Pr{X
n
=i
n
/ X
0
=i
0
, X
1
=i
1
, X
2
=i
2
,..., X
n-1
=i
n-1
}= Pr{X
n
=i
n
/ X
n-1
=i
n-1
} = P
in-1,in
.
(7)
Substituindo (7) em (6), temos:
Pr{X
0
=i
0
, X
1
=i
1
, X
2
=i
2
,..., X
n
=i
n
} = Pr{X
0
=i
0
, X
1
=i
1
, X
2
=i
2
,..., X
n-1
=i
n-1
}. P
in-1,in
.
Ento, por induo, (5) torna-se:
Pr{X
0
=i
0
, X
1
=i
1
, X
2
=i
2
,..., X
n
=i
n
} = p
i0
P
i0,i1
... P
in-1,in-2
P
in-1,in
. (8)
Observa-se, ento, que todas as probabilidades de dimenso finita podem
ser obtidas a partir das probabilidades de transio e da distribuio
inicial. O processo , portanto, definido por essas quantidades.
Mtodos Matemticos 1A - Cadeias de Markov
A propriedade de Markov expressa em (1) equivalente a:
Pr{X
n+1
=j
1
,..., X
n+m
=j
m
/ X
0
=i
0
,..., X
n
=i
n
} =
Pr{X
n+1
=j
1
,..., X
n+m
=j
m
/ X
n
=i
n
}, (9)
para todos os pontos no tempo n, m e todos os estados
i
0
,..., i
n
, j
1
,..., j
m
. Em outras palavras, uma vez (9)
estabelecido para o valor m=1, tambm vlido para todos
os m>1.
Mtodos Matemticos 1A - Cadeias de Markov
Matrizes de Probabilidade de Transio de
uma Cadeia de Markov
A anlise de uma Cadeia de Markov caracteriza-se
principalmente pelo clculo das probabilidades de transies em n
passos. Fundamentais, portanto, so as matrizes de probabilidades
de transio em n passos,
P
(n)
= ,
onde P
ij
(n)
denota a probabilidade que o processo v do estado i
para o estado j em n transies.
Formalmente,
P
ij
(n)
= Pr{X
m+n
=j / X
m
=i}. (10)
n) (
ij
P
Mtodos Matemticos 1A - Cadeias de Markov
Consideramos este processo homogneo, ou seja, dependente
apenas da diferena [m - (m+n)], e possuindo probabilidades de
transio estacionrias.
Teorema 1: As probabilidades de transio em n passos de uma
Cadeia de Markov satisfazem:
P
ij
(n)
= P
ik
P
kj
(n-1)
(11)
onde definimos P
ij
(0)
= .
Pela iterao desta frmula, obtemos:
P
(n)
= P X P X ... X P = P
n
. (12)
0 k
'
j i se , 0
j i se , 1
4 4 4 3 4 4 4 2 1
vezes n
Mtodos Matemticos 1A - Cadeias de Markov
Prova: O evento de ir do estado i para o estado j em n transies
pode ser realizado por caminhos mutuamente exclusivos, indo para
um estado intermedirio k (k= 0,1,...), na primeira transio, e
ento ir do estado k ao estado j nas (n-1) transies restantes. Por
conta da propriedade de Markov, a probabilidade da segunda
transio P
kj
(n-1)
(da primeira transio obviamente P
ik
). Usando
a Lei da Probabilidade Total:
P
ij
(n)
= Pr{X
n
=j / X
0
=i} = Pr{X
n
=j, X
n
=k / X
0
=i}
= Pr{X
1
=k / X
0
=i} . Pr{X
n
=j / X
0
=i, X
1
=k}
= P
ik
P
kj
(n-1)
0 k
0 k
0 k
Mtodos Matemticos 1A - Cadeias de Markov
Se a probabilidade do processo estar inicialmente no estado j p
j
,
isto , a lei de distribuio de X
0
Pr{X
0
=j)=p
j
, ento a
probabilidade do processo estar no estado k no tempo n :
p
k
= p
j
P
jk
(n)
= Pr{X
n
=k} (13)
Alguns Modelos de Cadeias de Markov
Modelo de Inventrio
Uma mercadoria armazenada a fim de satisfazer uma
demanda continuada. A reposio do estoque se d ao final de
perodos n=0,1,2,... e a demanda durante um perodo n uma
varivel aleatria
n
cuja funo distribuio independente do
perodo de tempo:
0 j
Mtodos Matemticos 1A - Cadeias de Markov
Pr{
n
=k} = a
k
, para k = 0,1,2,... (14)
onde a
k
0 e a
k
= 1.
.
O nvel do estoque examinado ao final de cada perodo. A
poltica de reposio determinada especificando dois nmeros
crticos no negativos, s e S>s, cuja interpretao :
I) Se a quantidade do estoque no final do perodo no maior que
s, ento uma quantidade de mercadoria suficiente para aumentar o
estoque at o nvel S providenciada;
II) Se, entretanto, o estoque disponvel est em excesso de s, ento
nenhuma reposio de estoque realizada.
0 k
Mtodos Matemticos 1A - Cadeias de Markov
Seja X
n
a quantidade disponvel ao final do perodo n antes da
rearmazenagem. Os estados do processo {X
n
} consistem dos
possveis valores da quantidade em estoque:
S, S-1,..., 1, 0, -1, -2,...
onde um valor negativo interpretado como uma demanda no
atendida que ser satisfeita imediatamente aps o re-estoque.
O nvel do estoque em dois perodos consecutivos esto
relacionados por:
X
n+1
= (15)
onde
n
a quantidade demandada no n-simo perodo,
determinada para seguir a lei das probabilidades (14).
'
<
+
+
s X se , - S
S X s se , - X
n 1 n
n 1 n n
'
<
+
+
s i se , j} - S Pr{
S i s se , j} - i Pr{
1 n
1 n
0 k
Mtodos Matemticos 1A - Cadeias de Markov
Tambm consideramos que
1
,
2
,... so variveis aleatrias
independentes. O estado do sistema no incio de cada perodo
definido pelo nmero de clientes esperando na fila por
atendimento. Se o estado atual i, ento, depois de um lapso de um
perodo, o estado :
j = (18)
onde o nmero de novos clientes que chegaram no perodo,
enquanto um nico cliente foi atendido.
Em termos de variveis aleatrias do processo, (18) pode ser
formalmente expressa como:
X
n+1
=(X
n
-1)
+
+
n,
onde Y
+
=max(Y,0).
'
+
0 i se ,
1 i se , 1 - i
b a
a
b a
b
b a
a
b a
b
+ +
+ +
n
n
limP
Mtodos Matemticos 1A - Cadeias de Markov
Para um exemplo numrico, suponha que os itens produzidos por
um trabalhador estejam sendo separados em defeituosos ou no, e
que, devido qualidade da matria prima, um item est com defeito
ou no depende em parte de se ou no o item anterior estava
defeituoso. Seja X
n
a qualidade do n-simo item, com X
n
=0
significando bom e X
n
=1 significando defeituoso. Suponha que X
n
caracteriza uma Cadeia de Markov cuja matriz de transio :
P = .
Observe que itens defeituosos tendem a aparecer em grupos na
sada deste sistema.
Aps execuo longa, a probabilidade que um item produzido por
este sistema esteja defeituoso dado por = 0,077.
88 , 0 12 , 0
01 , 0 99 , 0
b a
a
+
Mtodos Matemticos 1A - Cadeias de Markov
Passeio Aleatrio Unidimensional
Um deslocamento aleatrio unidimensional uma Cadeia
de Markov cujo espao de estados um subconjunto finito ou
infinito a, a+1,...,b de inteiros, no qual a partcula, se est no estado
i, pode em uma nica transio permanecer em i ou mover-se para
um dos estados vizinhos i-1, i+1. Se o espao de estados tomado
como os inteiros no negativos, a matriz de transio de um
deslocamento aleatrio tem a seguinte forma:
P =
M M M M M M M
L L
L M M M M M M M
L L
L L
L L
0 p r q 0 0 0
0 0 0 0 r q 0
0 0 0 0 p r q
0 0 0 0 0 p r
i i i
2 2
1 1 1
0 0
Mtodos Matemticos 1A - Cadeias de Markov
Onde p
i
>0, q
i
>0, r
i
0 e p
i
+q
i
+r
i
=1, i= 1,2,... (i1), p
0
0, r
0
0,
p
0
+r
0
=1. Especificamente, se X
n
=i, ento, para i1,
Pr{X
n+1
=i+1 / X
n
=i} = p
i
,
Pr{X
n+1
=i-1 / X
n
=i} = q
i
e
Pr{X
n+1
=i / X
n
=i} = r
i
,
com a modificaes bvias valendo para i=0.
O Conceito de Convergncia em
Cadeias de Markov
Mtodos Matemticos 1A - Cadeias de Markov
Apresentao
Matrizes de Transio de Probabilidades
Regulares;
Distribuio Limite;
Classificao dos Estados;
Teorema Bsico do Limite em cadeia de Markov
Distribuio Estacionria.
Mtodos Matemticos 1A - Cadeias de Markov
Matrizes de Transio de
Probabilidade Regulares
Suponha que uma matriz de transio de
probabilidade P=||P
ij
|| em um nmero finito
de estados chamados de 0, 1, ..., N, tem a
propriedade que quando elevada a potncia
k, a matriz P
k
tem todos os seus elementos
estritamente positivos. Esta matriz ou a
correspondente Cadeia de Markov
chamada de regular.
Mtodos Matemticos 1A - Cadeias de Markov
O fato mais importante relacionado a Cadeias
de Markov regulares que existe uma
distribuio de probabilidades limites
=(
0
,
1
,...,
N
) onde
j
>0 para todo j=0,1,...,N
e
j
j
=1 e que esta distribuio independe do
estado inicial. Formalmente, temos a
convergncia:
N j i X j X
N j P
j n
n
j
n
ij
n
,..., 1 , 0 para 0 } | Pr{ lim
}, {X Markov de cadeia de termos em ou
,..., 1 , 0 para 0 lim
0
n
) (
>
>
N
k
k
N
k
kj k j
N j P
0
0
. 1
,..., 1 , 0 ,
Mtodos Matemticos 1A - Cadeias de Markov
Prova:
Visto que a cadeia de Markov regular
ento temos uma distribuio limite
j
>0
para todo j=0,1,...,N e
j
j
=1. Escreva P
n
como o produto de matrizes P
n-1
P na forma:
Agora faamos n. Ento, temos
P
ij
(n)
j
enquanto P
jk
(n-1)
k
e a equao
se torna:
j
=
k
P
kj
como queramos.
N
k
kj
n
ik
n
ij
N j P P P
0
) 1 ( ) (
,..., 1 , 0 ,
Mtodos Matemticos 1A - Cadeias de Markov
Resta-nos provar que a soluo nica.
Suponha que x
0
,x
1
,...,x
N
resolve, ento:
Temos que mostrar que x
j
=
j .
Multipliquemos a primeira equao por P
jl
e
somemos para todos os js ento:
N
k
k
N
k
kj k j
x
N j P x x
0
0
. 1
,..., 1 , 0 ,
Mtodos Matemticos 1A - Cadeias de Markov
N
j
N
k
N
k
kl k jl kj k
N
j
jl j
P x P P x P x
0 0 0
) 2 (
0
Mas, sabemos que:
N ,..., , l para , P x x
P x x
N
k
) (
kl k l
N
j
jl j l
1 0
: a leva nos anterior equao a ento
0
2
0
N l x x
N
k
l k l
,..., 1 , 0 para ,
0
. . .
. . .
. . .
. . .
. . .
. . .
P
Mtodos Matemticos 1A - Cadeias de Markov
Observe que temos uma equao redundante,
eliminando uma delas chegaremos ao resultado:
104
31
8
5
65
5
2
1
0
1
0
1
0
. 1
1 ,..., 1 , 0 ,
N
k
k
N
k
kj k j
N j P
Mtodos Matemticos 1A - Cadeias de Markov
1. somam
colunas as pois ,
1 1 1
e , 1
N
1
Mas
1
0
1 - N
0 k
N
j
jk
N
P
N N
Mtodos Matemticos 1A - Cadeias de Markov
Interpretao da Distribuio
Limite
Existem duas interpretaes para essa
distribuio:
1) Aps o processo est sendo executado por
um longo perodo a probabilidade de
encontrarmos a cadeia em um dado estado j
j
.
2)
j
significa a frao mdia do tempo em que
a cadeia se encontra no estado j.
Mtodos Matemticos 1A - Cadeias de Markov
Aplicaes
Geralmente um fenmeno que no
naturalmente um processo de Markov pode
ser modelado como um incluindo parte da
histria passada em cada estado.
Suponha, por exemplo, que o clima em
qualquer dia depende do clima nos dois dias
anteriores. Especificamente, suponha que se
hoje e ontem o clima foi ensolarado ento
amanh o clima ser ensolarado com
probabilidade 0,8.
Mtodos Matemticos 1A - Cadeias de Markov
Se foi ensolarado hoje e chuvoso ontem, ento
amanh ser ensolarado com probabilidade 0,6. Se
foi chuvoso hoje mas ensolarado ontem, ento
amanh ser ensolarado com probabilidade 0,4. E
se os dois ltimos dias foram chuvosos, ento
amanh ser ensolarado com probabilidade 0,1.
Ento, definiremos os estados assim:
0-Ensolarado nos ltimos dois dias.
1-Ensolarado ontem, mas chuvoso hoje.
2-Chuvoso ontem, mas ensolarado hoje.
3-Chuvoso nos dois ltimos dias.
Mtodos Matemticos 1A - Cadeias de Markov
Logo, a matriz transio de probabilidade
ser:
Resolvendo o sistema de equaes para a
distribuio limite obteremos:
1
1
1
1
]
1
9 . 0 1 . 0 0 0
0 0 4 . 0 6 . 0
6 . 0 4 . 0 0 0
0 0 2 . 0 8 . 0
P
Mtodos Matemticos 1A - Cadeias de Markov
11
6
e
11
1
,
11
1
,
11
3
3 2 1 0
Ento a probabilidade de estarmos em um dia
ensolarado de:
0
+
2
, ou seja, de 4/11.
Mtodos Matemticos 1A - Cadeias de Markov
Classificao dos Estados
Nem todas as cadeias de Markov so
regulares. Vamos considerar alguns
exemplos:
Como a cadeia de Markov permanece no
estado inicial, existe uma distribuio limite
que depende obviamente do estado inicial.
1
]
1
1 0
0 1
P
Mtodos Matemticos 1A - Cadeias de Markov
A cadeia de Markov cuja matriz de transio
dada por:
oscila deterministicamente entre os dois
estados. Ento ela peridica e portanto no
existe distribuio limite pois no h
convergncia de P
(n)
quando n.
1
]
1
0 1
1 0
P
Mtodos Matemticos 1A - Cadeias de Markov
A cadeia de Markov cuja matriz de transio dada
por:
1
]
1
1
1
1
]
1
,
_
,
_
1
]
1
1 0
1 0
lim
: quando limite o e
1 0
2
1
1
2
1
: por dada ento ,
1 0
2 / 1 2 / 1
n
n
n n
n
n
P
n P
P P
Aqui o estado 0 transitrio, aps o processo iniciar no
estado 0 existe uma probabilidade de nunca mais
retornar a ele.
Mtodos Matemticos 1A - Cadeias de Markov
Cadeias de Markov Irredutveis
Um estado j dito ser acessvel a um estado
i se P
ij
(n)
>0 para algum n0.
Dois estados i e j so ditos comunicveis se
cada um deles for acessvel ao outro e
escrevemos: ij. Ento, se dois estados i e
j no so comunicveis: P
ij
(n)=
0 ou P
ji
(n)
=0
para todos n 0.
Mtodos Matemticos 1A - Cadeias de Markov
O conceito de comunicao uma relao
de equivalncia, ou seja satisfaz as
seguintes propriedades:
1) ii (reflexividade);
2) Se ij, ento ji (simetria) e
3) Se ij e jk ento ik (transitividade).
Podemos agora particionar nossa totalidade
de estados em classes de equivalncia.
Os estados em uma mesma classe de equivalncia
so aqueles que se comunicam entre si.
Mtodos Matemticos 1A - Cadeias de Markov
possvel, comearmos em uma classe de
equivalncia e entrar em uma outra, contudo
no possvel retornar a classe original,
caso contrrio as duas classes sero uma s.
Definimos como cadeia de Markov
irredutvel aquela que tem somente uma
classe de equivalncia. Em outras palavras,
uma cadeia de Markov irredutvel se todos
os seus estados se comunicam entre si. Por
exemplo considere a seguinte matriz de
transio de probabilidade:
Mtodos Matemticos 1A - Cadeias de Markov
1
]
1
1
1
1
1
1
1
]
1
2
1
0
0
0 1 0 0 0
2 / 1 0 2 / 1 0 0
0 1 0 0 0
0 0 0 4 / 3 4 / 1
0 0 0 2 / 1 2 / 1
P
P
P
Mtodos Matemticos 1A - Cadeias de Markov
Periodicidade de uma Cadeia de
Markov
Definimos o perodo de um estado i (d(i))
como sendo o mximo divisor comum de
todos os inteiros n1 para o qual P
ij
(n)
>0.
(Se P
ij
(n)
=0 para todo n1 defina d(i)=0).
Se um estado i tem P
ii
>0, ento este estado
tem perodo igual a 1. Uma cadeia de
Markov com perodo 1 chamada de no
peridica.
Mtodos Matemticos 1A - Cadeias de Markov
Vamos agora enunciar trs propriedades do
perodo de um estado:
1) Se ij, ento d(i)=d(j);
2) Se um estado i tem perodo d(i), ento
existe um inteiro N dependendo de i que
para todos os inteiros nN:
Isto assegura que um retorno para o estado i
ocorre para todo mltiplo do perodo d(i)
suficientemente grande.
0
)) ( (
>
i nd
ii
P
Mtodos Matemticos 1A - Cadeias de Markov
grande. mente suficiente positivo) inteiro (um
todo para 0 ento , 0 Se 3)
)) ( ( ) (
n
P P
i nd m
ji
m
ji
> >
+
Mtodos Matemticos 1A - Cadeias de Markov
Estados Recorrentes e Transitrios
Definimos:
Ou seja, f
ii
(n)
a probabilidade que
comeando em um estado i a primeira vez
que a cadeia retorne para o estado i ocorra
na ensima transio
} | 1 ,..., 2 , 1 , , Pr{
0
) (
i X n v i X i X f
v n
n
ii
Mtodos Matemticos 1A - Cadeias de Markov
Seja a probabilidade da cadeia iniciando em
um estado i retornar ao estado i em algum
tempo f
ii
:
Definimos um estado como recorrente se
f
ii
=1. Por outro lado, se um estado no for
recorrente ele dito ser transitrio.
N
n
n
ii
N
N
n
n
ii ii
f f f
0
) (
0
) (
lim
Mtodos Matemticos 1A - Cadeias de Markov
Considere ento um estado transitrio,
ento a probabilidade do processo retornar a
este estado pelo menos k vezes, pela
propriedade do processo de Markov, (f
ii
)
k
.
Seja M uma varivel aleatria que conta o
nmero de vezes que o processo retorna
para o estado i. Ento M tem uma
distribuio geomtrica na qual:
.
1
]
e 1,2,... k para , ) ( } | Pr{
0
0
ii
ii
k
ii
f
f
i E[M|X
f i X k M
Mtodos Matemticos 1A - Cadeias de Markov
Teorema 2: Um estado i dito ser
recorrente se e somente se:
Prova: Suponha que o estado i transitrio
ento por definio f
ii
<1 e seja M a VA que
conta o nmero total de retornos ao estado i.
Ento podemos escrever M em termos de
VAs indicadoras como:
1
) (
n
n
ii
P
Mtodos Matemticos 1A - Cadeias de Markov
queramos. como
] | { 1 [ ] | [
: Logo
io. transitr i quando ] | [ vimos como Mas
. se 1
se 0
} { 1
onde }, { 1
1
) (
1
0 0
0
1
>
<
'
n
n
ii
n
n
n
n
n
n
n
P i X i X E i X M E
i X M E
i X
i X
i X
i X M
Mtodos Matemticos 1A - Cadeias de Markov
Corolrio 1: Se ij e se i recorrente,
ento j recorrente.
Prova:
Como ij ento existe m,n1 de modo que:
Seja v>0. Ento temos que:
0 e 0
) ( ) (
> >
m
ji
n
ij
P P
Mtodos Matemticos 1A - Cadeias de Markov
+ +
+ +
0
) (
0
) (
0
) ( ) ( ) (
0 0
) ( ) ( ) ( ) (
0 0
) ( ) ( ) ( ) ( ) ( ) ( ) (
diverge. tambm que temos diverge, Como
: Somando
v
v
jj
v
v
ii
v
v
ii
n
ij
m
ji
v v
n
ij
v
ii
m
ji
v m n
jj
l l
n
ij
v
ii
m
ji
n
il
v
il
m
jl
v n m
jj
P P
P P P P P P P
P P P P P P P
Mtodos Matemticos 1A - Cadeias de Markov
O Teorema Bsico do Limite das
Cadeias de Markov
Seja i um estado recorrente e definimos
ento a VA R
i
=min{n1;X
n
=i}. A durao
mdia entre visitas ao estado i :
1
) (
0
] | [
n
n
ii i i
nf i X R E m
Mtodos Matemticos 1A - Cadeias de Markov
Enunciando de forma mais formal o
teorema, temos:
(a) Considere uma cadeia de Markov
recorrente irredutvel no peridica.
Seja P
ii
(n)
a probabilidade de retornarmos
ao estado i na n-sima transio dado que o
estado inicial i. Seja f
ii
(n)
a probabilidade
do primeiro retorno ao estado i na n-sima
transio, onde f
ii
(0)
=0. Ento:
i
n
n
ii
n
ii
n
m
nf
P
1 1
lim
0
) (
) (
Mtodos Matemticos 1A - Cadeias de Markov
(b) Sobre as mesmas condies de (a):
Obs.: Se estivermos trabalhando em uma
classe recorrente C. Ento uma vez em C
no possvel sair de C. Este teorema
tambm vlido para a sub-matriz ||P
ij
||,
i,jC de qualquer classe recorrente no
peridica.
. estados os todos para lim lim
) ( ) (
j P P
n
ii
n
n
ji
n
i
ij i j i
i
i
j
i
ij i j
n
jj
n
P
m
P P
Mtodos Matemticos 1A - Cadeias de Markov
Qualquer conjunto (
i
)
i=0
satisfazendo (*)
chamado de uma distribuio estacionria
da cadeia de Markov. O termo estacionrio
deriva da propriedade de que uma cadeia de
Markov iniciando de acordo com uma
distribuio estacionria vai seguir est
distribuio para todos os demais pontos do
tempo. Formalmente, se Pr{X
0
=i}=
i
ento
Pr{X
n
=i}=
i
para todo n=1,2,3,...Vamos
checar isso para o caso n=1, o caso geral
segue por induo:
Mtodos Matemticos 1A - Cadeias de Markov
onde a ltima igualdade vlida porque
uma distribuio estacionria.
i
k
ki k
k
P
k X i X k X i X
0
0
0 1 0 1
} | Pr{ } Pr{ } Pr{`
Mtodos Matemticos 1A - Cadeias de Markov
Quando o estado inicial selecionado de
acordo com a distribuio estacionria, a
distribuio conjunta de (X
n
,X
n+1
) dada
por:
Quando uma distribuio limite existe, ela
sempre uma distribuio estacionria. Mas
pode existir uma distribuio estacionria
que no seja distribuio limite.
.
} | Pr{ } Pr{ } , Pr{
1 1
ij i
n n n n n
P
i X j X i X j X i X
+ +
Mtodos Matemticos 1A - Cadeias de Markov
Por exemplo seja a cadeia de Markov
peridica (portanto sem distribuio limite)
dada por:
). 2 / 1 , 2 / 1 (
0 1
1 0
) 2 / 1 , 2 / 1 (
: pois ia estacionr o distribui uma (1/2,1/2) mas
0 1
1 0
1
]
1
1
]
1