Escolar Documentos
Profissional Documentos
Cultura Documentos
p 00 p 01 .
[
P=[ P ij ]= p10
.
p 11
.
.
p NN ]
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Matriz probabilidade de transição
Linhas correspondem aos estados iniciais, X(n) e
as colunas aos estados finais, X(n+1).
P00 =P {X (n+1)=0/ X (n)=0}=0
X(n+1) P01=P {X (n+1)=1/ X (n)=0}=0.3
P02=P {X (n+1)=2/ X (n)=0}=0.7
P10=P {X (n+1)=0/ X (n)=1}=0.9
0 1 2
P11=P {X (n+1)=1/ X (n)=1}=0.1
0 .3 .7
[ ]
0 P12=P {X (n+1)=2/ X (n)=1}=0
X(n) 1 .9 .1 0 P20=P {X (n+1)=0/ X (n)=2}=0.4
P21=P {X (n+1)=1/ X (n)=2}=0.3
2 .4 .3 .3
P22=P {X (n+1)=2/ X (n)=2}=0.3
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Matriz probabilidade de transição
É estocástica, i.e,
∞
P ij ⩾0, ∑ p ij=1 ∀ i , j ∈S
j=0
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Matriz probabilidade de transição
Pode ser representada graficamente por um Diagrama
de Transição de Estados ou diagrama de transição
Usado para visualizar a dinâmica da CMTD
Composto por:
Nó → representada um estado.
Arco → representa uma transição entre estados.
.3 .9
.2 .3 .5 .2 .45
[
P= .1 0 .9
.55 .0 .45 ] 1
.1
2 3
.55
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Matriz probabilidade de transição
Questões
Se a CMTD está no estado 3 no tempo 17, qual é a
probabilidade dela ir para o estado 1 no tempo 18?
Resp.: p31 = 0.55
Se a CMTD está no estado 2 no tempo 9, qual é a
probabilidade dela ir para o estado 3 no tempo 10?
Resp.: p23 = 0.9 .5
.3 .9 .45
.2
1 2 3
.1
.55
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Comportamento probabilístico da cadeia de
Markov
É completamente descrito pela probabilidade inicial e
pelas probabilidades de transição
Seja {Xn, n≥0} uma CMTD homogênea no tempo e
espaço de estado S = {1,2,…,N}, com matriz de
probabilidade de transição P e distribuição inicial
π={π1,π2,…,πN}, onde:
π i=P { X 0 =i }, 1⩽i⩽N
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Comportamento probabilístico da cadeia de
Markov
Como temos interesse na distribuição transiente, ou
seja, em P{Xn = j} ∀ j∈S, n≥0, temos:
N
P { X n = j }=∑ P {X n = j∣X 0=i }P {X 0 =i }
i=1
N
P { X n = j }=∑ πi P {X n= j∣X 0 =i }
i=1
Define-se
1
0 se i≠ j p =P {X 1= j∣X 0 =i }= pij
0
p=
ij
1 { se i= j
ij
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Probabilidade de transição de n-passos
Equação de Chapman-komolgorov
Possíveis Estados
∞ . .
n
p =∑ p p
ij
m
ik
n−m
kj i . k
. j
k=1 . .
0 m n
Linha do Tempo
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Probabilidade de transição de n-passos
Equação de Chapman-komolgorov
Ex.: pij2=p{x2=j|x0=i} é a probabilidade de estar no
estado j após o segundo passo, dado que o
processo estava no estado i, inicialmente. O
interesse está em se determinar essas
probabilidades a partir das probabilidades de
transição pij de 1 passo que são conhecidas. Para
esse fim, considere o trajeto que o processo pode n
∞
m n−m
percorrer para ir do estado i ao estado j em 2 p = ∑ pik p kj
ij
passos. Suponha que k seja o estado k=1
∞
2 1 2−1
(possivelmente j) que o processo alcança no 1º pij = ∑ pik p kj
passo. Então, para esse trajeto, a probabilidade de ir k=1
do estado i p/ k e de k p/ j, em exatamente 2 passos,
é: passo
pik p kj=P {X 1 =k∣X 0 =i }P {X 2= j∣X 1=k } 1º passo k 2º j
i
pik p kj=P {X 2= j ; X 1 =k∣X 0 =i }
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Probabilidade de transição de n-passos
Na forma matricial
n n m n−m
P =[ P ]=P P
ij
n (1)
(n−1) 1 n−1 2 n−2 n
P =P P =P P =P P =…=P
n m n−m
P =P P
i1 (n)
π = P {X (n)= j∣X (0)=i 1 }P {X (0)=i1 }+
j
Na forma matricial,
n
π (n)=π(0) P
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Exemplo
Seja a CMTD abaixo. Compute π(3), para uma
distribuição de probabilidade inicial de [0.2 0.3 0.5].
.2 .3 .5
[
P= .1 0 .9
.55 .0 .45 ]
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Solução
3
π(3)=π(0) P
3
.2 .3 .5
[
π(3)=[0.2 0.3 0.5] .1 0 .9
.55 0 .45
π(3)=[0.3626 0.1207 0.5167]
]
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Classificação de estados
Seja {X(n), n=0,1,2,...} uma cadeia de Markov;
Se existe um inteiro n≥0 tal que pnij>0, então o
estado j pode ser alcançado a partir do estado i,
ou j é acessível a partir de i, ou i pode atingir j.
Notação: i→j
Qualquer estado é alcançado a partir de si mesmo,
isto é, pii = 1
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Classificação de estados
Se i→j e j→i, então existe os inteiros m≥0 e n≥0 tal
que pmij>0 e pnji>0.
Diz-se então que i e j se comunicam (i↔j)
Se i↔j e j↔k, então i↔k
Prova: Se pmij>0 e pnjk>0, então a partir da equação de
Chapman-Kolmogorov
∞
m+n m n m n
p ik =∑ p p ⩾ p p >0
il lk ij jk
l=0
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Classificação de estados
Exemplo: Um jogador tem um R$1,00 e a cada vez
que joga ganha R$1,00 com probabilidade p>0 ou
perde R$1,00 com probabilidade 1-p. O jogo termina
quando o jogador acumula R$3,00 ou R$0,00. Este
jogo é uma Cadeia de Markov cujos estados
representam a quantia esperada de dinheiro que o
jogador possui a cada vez que joga. O espaço de
estados é E = { 0 1 2 3 } e a matriz de transição P é
dada por:
Cadeia de Markov
0 1 2 3
CMTD 0 1 0 0 0
Classificação de estados
Exemplo:
P= 1
2
3
[ 1− p
0
0
0
1− p
0
p
0
0
0
p
1
]
Nesta Cadeia de Markov, o estado 2, por exemplo,
não é alcançável a partir do estado 3. Isto pode ser
observado a partir do contexto, uma vez que se o
jogador alcançar o estado 3, este nunca deixará este
estado, o que implica que p32(n)=0 para todo n≥0.
Entretanto, o estado 3 é alcançável a partir do
estado 2, uma vez que p23(1)>0 .
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Classificação de estados
Dois estados que se comunicam são ditos pertencer a
uma mesma classe.
O conceito de comunicação divide o espaço de estados
em uma certa quantidade de classes separadas
Um CM é chamada de irredutível se existe apenas uma
classe , i.e., todos os estados se comunicam.
Um estado j é chamado de absorvente se ele forma
consigo próprio uma classe.
Se o estado j é absorvente então pjj=1.
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Classificação de estados
O estado i tem período d(i), se d(i) é o maior divisor
comum de n≥1 tal que pnii>0.
Se d(i)=1, o estado i é aperiódico.
Se d(i)≥2, o estado i é periódico.
Nota: se i↔j; então d(i) = d(j).
Se um dos estados de uma CMTD irredutível é
aperiódico, então todos os estados também são e
com o mesmo período e a cadeia é dita aperiódica;
caso contrário, ela é periódica com período d.
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Classificação de estados
Seja a probabilidade da primeira passagem
É a probabilidade da cadeia começando em i
atingir o estado j pela primeira vez no tempo n
n
f =P {X (n)= j , X (r )≠ j , r=1,2,. .. , n−1∣X (0)=i}∀ i , j
ij
∞
n
Ele será transiente se: ∑ p <∞ii
n=1
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Classificação de estados
Teorema: recorrência é uma propriedade de classe;
i.e., se o estado i é recorrente e i↔j, então j é
recorrente.
Notas:
(1) Transiência é uma propriedade de classe
Se o estado i é transiente e i↔j, então j é
transiente.
(2) Todos os estados em uma CM finita
irredutível são recorrentes.
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Classificação de estados
Os estados recorrentes podem ser classificados
em:
∞
n
Recorrente positivo (não nulo): μ i= ∑ nf <∞
ii
n=1
∞
n
Recorrente nulo μ i=∑ nf =∞ii
n=1
C1 P1 0 … 0
P= C 2
⋮
T [ ⋮
. P2 0
⋱ ⋮
R1 R2 … Q
]
P1, P2,..., são as matrizes probabilidade de transição para as classes
recorrentes C1, C2,...
Q é uma matriz quadrada que contêm as transições entre todos estados
transientes para T;
R1, R2,... são matrizes, não necessariamente quadradas, contendo as
transições dos estados transientes para as classes recorrentes C1, C2.
Cadeia de Markov a Tempo Discreto
Classificação de estados
Estado
Transiente Recorrente
Positivos Nulos
Periódico Aperiódico
Periódico Aperiódico
Cadeia de Markov a Tempo Discreto
Resumo de Classificações de estados e Cadeias
Conjunto Nenhum estado, a não ser algum pertencente ao conjunto, pode ser alcançado de
Fechado qualquer estado pertencente ao conjunto.
Estado Uma vez que se entra neste estado, nunca mais o deixa.
Absorvente
Estado Uma vez que se entra neste estado, um eventual retorno é assegurado.
Recorrente
Estado O estado que pode somente ser alcançado nos passos m, 2m, 3m,..., onde m é
Periódico um inteiro > 1.
Estado Um eventual retorno ao estado não está assegurado.
Transiente
Estado Uma vez que se entrou neste estado, um retorno ao estado é assegurado dentro
Ergódico de um número finito de passos, porém o estado não é periódico e pode voltar
antes de qualquer passo n.
Cadeia Cada estado pode ser alcançado a partir de qualquer outro estado (todos os
Irredutível estados são comunicantes).
Cadeia A Cadeia contém um ou mais conjuntos fechados e o processo poderá
Absorvente eventualmente ser absorvido em um dos conjuntos fechados.
Cadeia Todos os estados são recorrentes e aperiódicos.
Ergódica
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Probabilidade Limite
Se o estado j é recorrente e aperiódico, então
1n
lim p → μjj
n→∞ j
n 1 1
lim p → μ = ∞ =0
jj
n→∞ j
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Probabilidade Limite
Se o estado j é recorrente e periódico com período
d(j), então
nd( j) d ( j)
lim p jj → μ
n→ ∞ j
n f ij
p → μ , n→∞
ij j
Interpretação: a cadeia inicia no estado i, visita o
estado j com probabilidade fnij (1ª passagem) e
retornará a j infinitamente com probabilidade fnjj
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Probabilidade Limite
Teorema: se uma cadeia de Markov é recorrente
positiva e aperiódica, então existe a probabilidade
limite (para um n muito grande) com as seguintes
características:
n
lim p =π ( j)>0 (i , j=0,1,. ..)
ij
n→ ∞
Na forma matricial
π 0 π 1 … π max
n→∞
[
lim P = π 0 π 1 … π max
n
⋮ ⋮ ⋮ ⋮
π 0 π 1 … π max ]
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Probabilidade Limite
Interpretação:
Comportamento da cadeia ao longo prazo n→∞, ou
proporção de tempo que a cadeia gasta em um estado,
a longo prazo.
C1 P1 0 . . . 0
C2
P= .
T
.
Cm [ . P2
.
0 0
0 0
R1 R2
.
0
. . Pm
. . Rm
0
0
0
Q
]
. = P 0
[ ]
R Q
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Probabilidade Limite
Cadeia de Markov Finita
Comportamento limite
Para os estados pertencentes ao mesmo conjunto recorrente.
n ∞ 1
lim p = p =π ( j)= μ
ij ij
n→∞ j
(i , j∈C k ; k=1,2,. .. , m)
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Probabilidade Limite
Cadeia de Markov Finita
Comportamento limite
– Para os estados i ∈T (transiente) e j ∈C k (k =1,2,. .. , m)
(recorrente).
n f ij
∞
lim p = p = μ
ij ij
n→∞ j
(i∈T , j ∈C k ; k=1,2,. .. , m)
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Probabilidade Limite
Cadeia de Markov Finita
Comportamento limite n ∞
Para os estados transientes
lim pij = pij =0
n→∞
(i , j∈T )
Para os estados i∈C k (k =1,2,... , m) (recorrente) e j ∈T
(transiente).
n ∞
lim p = p =0
ij ij
n→ ∞
(i∈C k , k=1,2,. .. , m ; j ∈T )
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Probabilidade Limite
Cadeia de Markov Finita
Cômpute de fij
Teorema: Para uma CM finita, a probabilidade de transição
eventual fij de um estado i ∈T para j ∈C k (k =1,2,. .. , m)
satisfaz:
f ij = ∑ p il +∑ p il p lj , (i∈T , j ∈C k )
l ∈C k l ∈T
[ f ij ]= R k 1+Q [ f ij ]
−1
[f ij ]=[ I −Q ] R k 1
Exercícios
Cadeia de Markov a Tempo Discreto
●
Seja a CMTD abaixo. Compute π(3), para uma
distribuição de probabilidade inicial de π(0)=[0.2 0.3. 0.5].
Solução
P=
[ 0.1 0 0.9
0.55 0 0.45 ]
π(n)=π(0) P n
3
π(3)=π(0) P
3
0.2 0.3 0.5
[
π(3)=[0.2 0.3 0.5] 0.1 0
0.55 0
π(3)=[0.3626 0.1207 0.5167]
0.9
0.45 ]
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Classificação de estados
Exemplo
0 1 2 1 1 1
0 1 0 0
P= 1
2 [ ]
0 1 0
0 0 1 0 1 2
0 1 2
1 Solução
1
1 0 0
[ ]
0
P= 1 0 1/ 2 1/2
0 1/2 1/3
1 1/3 1/3 1/3
Solução:
1/3
1↔2; 2→0
2
Existem 2 classes {0} – absorvente – e {1, 2}
transiente, logo a CMTD não é irredutível 1/3
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Classifique a CMTD abaixo
1 5 6
2
0
3
4
7 8
Solução:
0 1 0 1
[ ]
0 Solução
P= 1 0 0 1
2 1 0 0 0 1
Solução:
•
A cadeia é irredutível, 1
•
0→1, 1→2 e 2→0.
• P300=P600=P900=...=1
2
•
O período d(0)=3. Além disso,
d(0)=d(1)=d(2)=3
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Classifique a CMTD abaixo
4 5 6
2
0
7 8
Solução:
{π 2=0.8 π1 +0.7 π2
π 1 +π2=1
[π1 π 2 ]=[0.2727 0.7273]
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Achar a distribuição limite para a cadeia abaixo
Comparando com P(n) 0.2 0.8
P= [
0.3 0.7 ]
0.28 0.72
2
P= [
0.27 0.73 ]
[π1 π 2 ]=[0.2727 0.7273] P3= 0.272 0.728
[ ]
0.273 0.727
P 4= 0.2728 0.7272
[ ]
0.2727 0.7273
P5= 0.2727 0.7273
[ ]
0.2727 0.7273
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Achar a distribuição limite para a cadeia abaixo
.2 .3 .5
[
P= .1 0 .9
.55 .0 .45 ]
π=π P , ∑ π=1 ;
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Achar a distribuição limite para a cadeia abaixo
.2 .3 .5 π1 π 2 +π 3=1
[
P= .1 0 .9
.55 .0 .45
π=π P , ∑ π=1
] π 1=0.2 π1 +0.1 π2 +0.55 π3
{
π 2 =0.3 π1
π 3 =0.5 π1 +0.9 π 2 +0.45 π3
π1 + 0.3 π1 +1.4 π 1=1
π1 =0.3704
π2 =0.3×0.3704=0.111
π 1 π 2 +π3 =1
.2 .3 .5 π1 =0.2 π 1 +0.1 π 2 +0.55 π3 π3 =1.4×0.3704=0.5186
[ ]
[π1 π2 π3 ]=[π1 π2 π3 ] .1 0 .9 π =0.2 π +0.03 π +0.55 π π=[0.3704 0.111 0.5186]
1 1
.55 .0 .45 π −0.23 π =0.55 π
1 1
1
3
3
{π2 =0.3 π1
π3 =0.5 π 1 +0.9 π 2 +0.45 π3
π1 π 2 +π3 =1
Cadeia de Markov a Tempo Discreto
Consideremos que Santarém tenha três helipontos (Rio Tapajós Shopping
(1), Shopping Paraíso (2) e Aeroporto Wilson Fonseca (3)) e um único
helicóptero, que recolhe o passageiro de um dos heliportos e os leva até um
outro heliporto, onde aguardam até que apareça outro passageiro. Um
único passageiro (um grupo com o mesmo destino) é atendido de cada vez.
A) Se o helicóptero está no Aeroporto Wilson Fonseca, qual é a probabilidade de que
ele volte após 3 viagens?
B) Em um longo período de tempo, qual a fração de viagem se destinam ao Rio Tapajós
Shopping?
C) Se o helicóptero está no Shopping Paraíso, quantas viagens, em média, irão ocorrer
até que ele volte ao Shopping Paraíso?
1
1/2 1/2
1/3 2/3
1/3
2 3
1/3 1/3
Cadeia de Markov a Tempo Discreto
Solução
A) A probabilidade de que o helicóptero volte após 3 viagens
é .203
1 2 3
1 0 1/2 1/ 2
[
P= 2 1/3 1/3 1/3
3 2/3 1/3 0 ]
1 2 3
1 .222 .416 .361
3
[
P = 2 .314 .388 .296
3 .444 .351 .203 ]
Cadeia de Markov a Tempo Discreto
Solução
n
B) Utilizando a equação lim p =π ( j)>0 (i , j=0,1,. ..)
ij
temos: n→ ∞
1 2 3
1 1 1/2 1/ 2
[
P= 2 1/3 1/3 1/3
3 2/3 1/3 0 ] Resp.: Em um longo período
de tempo, a fração de viagens
que se destinam ao Rio
1 2 3 Tapajós Shopping é de 0,322.
1 .322 .387 .29
n
[
P = 2 .322 .387 .29
3 .322 .387 .29 ]
Cadeia de Markov a Tempo Discreto
Solução
n 1
C) Utilizando a equação lim p → μ ; Assim temos:
jj
n→∞ j
[
P = 2 .322 .387 .29
3 .322 .387 .29 ] que o helicóptero volte ao
Shopping Paraíso é 2,583.
n 1 1
lim p → μ =
22 =2,583
n→∞ 2 0.387
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
Achar a distribuição limite para a cadeia abaixo
0 0 0 0 1 0 0
[ ]
0 0 1/3 1/3 0 0 1/3
0 0 1/2 0 0 1/2 0
P= 0 0 0 1 0 0 0
1/2 0 0 0 1/2 0 0
0 0 3/ 4 0 0 1/ 4 0
0 1/2 0 0 1/2 0 0
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
3/4 1/2
1 1/4 1/2 1/2
3 5 2 4 0
1/2 1/2 1
1/3
1/3
1/3
1 6
1/2
Cadeia de Markov
Cadeia de Markov a Tempo Discreto
C2 C3
C1
3/4 1/2
1 1/4 1/2 1/2
3 5 2 4 0
1/2 1/2 1
1/3
1/3
1/3
1 6 T
1/2
Cadeia de Markov a Tempo Discreto
3/4 1/2
1/2
1/4 1/2
1 3 5 2 4 0
1/2 1
1/3 1/2
1/3
1/3
3→0 1 6
1/2
5→1
2→2
4→3
0→4 3/4
1/2 1/2
6→5 1/4 1/2
1 0 1 2 3 4
1→6
1/2 1
1/3 1/2
1/3
1/3
6 5
1/2
Cadeia de Markov a Tempo Discreto
[ ]
0 1/4 3/4 0 0 0 0
0 1/2 1/2 0 0 0 0
P= 0 0 0 1/2 1/2 0 0
0 0 0 1 0 0 0
0 0 0 1/2 0 0 1/2
1/3 0 1/3 0 0 1/3 0
Cadeia de Markov a Tempo Discreto
1
[ I −Q ]= [
−1/3
−1/2
1 ] −1
[ I −Q] R 2 .1=
f 51 f 52 6/5 3/5 0 0 1 1/5
6 5 3/5
[ ][= ][ ][ ] [ ]
f 61 f 62 2/5 6 /5 0 1/3 1
=
2/5
,( j=1,2)
−1
[ I −Q ] = /
[
2/ 5 6/5 ] −1
[ I −Q] R 3 .1=
f 53 f 54 6/5 3/5 1/2 0 1 3/5
[ ][
f 63 f 64
= ][
2/5 6/5 0 ][ ] [ ]
=
0 1 1/5
,( j=3,4)
Cadeia de Markov a Tempo Discreto
[ ][ ]
∞
p50
p∞60
=
f 50 /μ 0
f 60 /μ 0
=
1
2/5
1
=
[]
1/5
2/5 [ ]
1 5 1 5
[ p∞51
p∞61
p∞52
p∞62
=
f 51 /μ 1
][
f 61 /μ1
3 3 3
f 52 /μ 2
]
f 62 /μ 2
=
[ ]
/
5 2
2 5
/
5 2
/
5 3
2 5
/
5 3
=
2/25 3/25
[
4 /25 6/25 ]
[ p∞53
p∞63
p∞54
p∞64 ] =
[ ]
/
5 2
1 3
/
5 2
5
1
5
/3
/3
=[ 2/ 5 1/5
2 /15 1/15 ]
,( j=3,4)
Cadeia de Markov a Tempo Discreto
Assim,
1 0 0 0 0 0 0
[ ]
0 2/5 3/5 0 0 0 0
0 2/5 3/5 0 0 0 0
∞ n
P =lim P = 0 0 0 2/3 1/3 0 0
n→∞
0 0 0 2/3 1/3 0 0
1/5 2/25 3/25 2/5 1/5 0 0
2/5 4 /25 6/25 2/15 1/15 0 0
Note que 4
∞
∑p ij =1,(i=0,1,2,3,4,5,6)
j=0
Cadeia de Markov a Tempo Discreto
¹https://leandrocruvinel.medium.com/cadeias-de-markov-com-python-ef27b3f21fc7
Cadeia de Markov a Tempo Discreto
Solução:
Supondo que essa semana seja a semana 1 e a semana
seguinte seja a semana 2, tem-se:
Grupo na
Pepsi Coca
semana atual
Logo, é provável que 66% das
Pepsi 0.7 0.3 0.4
pessoas no grupo tomem Coca
na semana seguinte. Coca 0.1 0.9 0.6
Cadeia de Markov a Tempo Discreto
Solução:
O resultado é obtido da multiplicação da matriz de
probabilidade pelo vetor de porcentagens do grupo na semana
atual:
Grupo na Grupo na
Pepsi Coca
semana atual semana seguinte
Pepsi 0.7 0.3 0.4 0.34
Coca 0.1 0.9 0.6 0.66
Grupo na Grupo na
Pepsi Coca semana semana
atual seguinte
Pepsi 0.7 0.3 0.4 0.34
Coca 0.1 0.9 0.6 0.66
Cadeia de Markov a Tempo Discreto
Descubra com estará a preferência dos usuários na 10ª
semana.
Resolva:
Grupo na
Pepsi Coca
semana atual
Pepsi 0.7 0.3 0.4
Coca 0.1 0.9 0.6
Cadeia de Markov a Tempo Discreto
Solução em Python
Solução:
Grupo na Grupo na
Pepsi Coca semana semana
atual seguinte
Pepsi 0.7 0.3 0.4 0.34
Coca 0.1 0.9 0.6 0.66
π=π P
P= 0.7 0.3 ,
[ ] π=[0.4 0.6]
0.1 0.9
10
0.7 0.3
π=[0.4 0.6] [ 0.1 0.9 ]
π=[0.25 0.75]
Avaliação de Desempenho
Cadeia de Markov a Tempo Contínuo
Cadeia de Markov a Tempo Contínuo
Definição
O processo estocástico {X(t), t≥0} é uma CMTC se
para todo 0 ≤ t1 < t2 < ... < tn < t
Definição
Para todo t, s ≥ 0
pij (t )= pij (0 , t)=P {X (u+t)= j∣X (u)=i}=
P {X (t)= j∣X (0)=i}, ∀ u∈T
Definição
Seja
π i (0)=P {X (0)=i},
Definição
Então
π j (t )=P {X (t )= j}=∑ P {X (t )= j , X (0)=i}
i
Definição
Onde, P(t), a matriz probabilidade de transição é dada
por:
p00 (t ) p01 (t ) .
[
P(t )=[ P ij (t )]= p10 (t) p11 (t) .
. . . ]
Propriedades:
0⩽ pij (t )⩽1
A última condição estabelece,
simplesmente, que se o
processo está no estado i em
∑ pij (t )=1
j
qualquer dado tempo, estará
pij (0)= 1, se i= j =P(0)= I
também no estado i, zero
unidades de tempo mais tarde. {0, se i≠ j
Cadeia de Markov a Tempo Contínuo
Gerador Infinitesinal
A matriz cujas entradas são as taxas de transição
entre os estados da cadeia
q00 q 01 .
[
Q=[qij ]= q10 q11 .
. . . ]
Onde
dpij (t )
q ij =
dt | t =0
Cadeia de Markov a Tempo Contínuo
Gerador Infinitesimal
Interpretação
qii é a taxa total de saída do estado i
qij é a taxa no qual a cadeia se move de i para j
Distribuição Limite
Forma matricial
0=π Q
Condição de normalização
∑ πi=1
i
Propriedades:
Independente do tempo;
Independente das condições iniciais;
Estritamente positivo.
Condição para existência do estado de equilíbrio:
Irredutível, homogênea e finita
Estados recorrentes positivos
Cadeia de Markov a Tempo Contínuo
Uniformização
Construir uma CMTD a partir de uma CMTC
A solução do estado de equilíbrio é a mesma para
ambas cadeias
Q
P= + I
q
q>max i , j|q ij|
Cadeia de Markov a Tempo Contínuo
Cadeia de Markov
Matriz de Transição – P – (probabilidades)
Comportamento Limite (estado de equilíbrio)
Tempo Discreto
(CMTD)
π=π P , ∑ π j =1
∀ j∈I
CM
Gerador Infinitesimal – Q - (taxas)
Comportamento Limite (estado de equilíbrio)
Tempo Contínuo
(CMTC)
Q π=0, ∑ π j =1
∀ j∈I
Estudo de Caso
2,0
2μv
λv
μd
1,0 1,1
μv λv μv
λv
λd
0,0 0,1
μd
Estudo de Caso
Pv= ∑ π(v , d )
v +d=N
Estudo de Caso
Pd= ∑ π(v , d)
v+d⩾Kd
Estudo de Caso
μv λv μv
λv
λd
0,0 0,1
μd
Estudo de Caso
2μv
λv
μd
1,0 1,1
μv λv μv
λv
λd
0,0 0,1
μd
Bloqueio de dados
Estudo de Caso
Questão 1
O modelo a seguir descreve um buffer de requisições de
impressão. O buffer faz o gerenciamento de duas
impressoras: laser e deskjet. Este buffer recebe, em
média, uma requisição a cada 5 minutos (12 requisições
por hora). A impressora laser leva em média 2 segundos
(1800 folhas por hora) para imprimir uma folha, enquanto
a impressora deskjet imprime uma folha em 5 segundos
(720 folhas por hora). Um pedido de impressão pode ser
atendido tanto pela laser como pela deskjet, respeitando
a razão de que para cada hora trabalhada pela
impressora deskjet, a impressora laser trabalha por 4
horas.
Exercício
Questão 1
12 12 12
0 1 2 3
1800 1800 1800
12 12 12
4 5 6 7
Questão 1
Os estados 0, 1, 2 e 3 representam o número de requisições
no buffer (0, 1, 2 e 3 requisições respectivamente) que estão
sendo atendidas pela impressora laser. Em contra partida, os
estados 4, 5, 6 e 7 representam o número de requisições no
buffer (0, 1, 2 e 3 requisições respectivamente) que estão
sendo atendidas pela impressora deskjet.
Com base no modelo, construa o gerador infinitesimal da
CMTC.
Exercício
Resposta
Etapa 1: Preenche-se os elementos não diagonais do
gerador infinitesimal, utilizando as taxas de ocorrência da
transição de um estado para outro.
0 1 2 3 4 5 6 7
0 12 0.25
[ ]
1 1800 12 0.25
2 1800 12 0.25
3 1800 0.25
Q=
4 1 12
5 1 720 12
6 1 720 12
7 1 720
Exercício
Resposta
Etapa 2: Preenche-se os elementos diagonais (ajuste
diagonal das taxas de ocorrência das transições entre os
estados) do gerador infinitesimal. Como a soma de cada
linha do gerador infinitesimal deve ser igual a zero, o mesmo
fica da seguinte maneira após o ajuste da diagonal:
0 1 2 3 4 5 6 7
0 −12.25 12 0.25
[ ]
1 1800 −1812.25 12 0.25
2 1800 −1812.25 12 0.25
3 1800 −1812.25 0.25
Q=
4 1 −13 12
5 1 720 −733 12
6 1 720 −733 12
7 1 720 −721
Exercício
Resposta
Etapa 3: Preenche-se os elementos nulos do gerador
infinitesimal. Logo, tem-se o gerador infinitesimal do modelo
0 1 2 3 4 5 6 7
0 −12.25 12 0 0 0.25 0 0 0
[ ]
1 1800 −1812.25 12 0 0 0.25 0 0
2 0 1800 −1812.25 12 0 0 0.25 0
3 0 0 1800 −1812.25 0 0 0 0.25
Q=
4 1 0 0 0 −13 12 0 0
5 0 1 0 0 720 −733 12 0
6 0 0 1 0 0 720 −733 12
7 0 0 0 1 0 0 720 −721
Referência Bibliográfica