Escolar Documentos
Profissional Documentos
Cultura Documentos
estados da cadeia.
que C1 = i1 e, conseqüentemente uma vez que pi0 ,i1 > 0 , há uma probabilidade
positiva de C2 = i2 . Continuando esse argumento, há uma probabilidade positiva de
que Cn = in , de modo que P (Cn = in |C0 = i0 ) > 0. Da mesma forma, se
P (Cn = in |C0 = i0 ) > 0 , então deve existir uma caminhada de n passos de i0 a in .
(2) (n)
Para concluir o exemplo da Figura III.1, p
1,3
= p1,2 p2,3 > 0 . Por outro lado, p
5,3
= 0
para todo n ≥ 1.
(n)
Pode-se demonstrar que y é acessível desde x se, e somente se, px,y > 0, para algum
n ≥ 1. Também é possível mostrar que se y for acessível de x e se z for acessível de
y, então z é acessível desde x. Isto implica que esta propriedade dos estados é
transitiva e, assim, se
leg.ufpr.br/~lucambio/CM/CMIII.html 1/24
29/08/2023, 10:57 Decomposição do espaço de estados
Exemplo III.1.
> Google^1000
A 5 - dimensional discrete Markov Chain with following states
2 3 4 5
The transition matrix (by rows) is defined as follows
1 2 3 4 5
1 0.1052632 0.1578947 0.2210526 0.2421053 0.2736842
2 0.1052632 0.1578947 0.2210526 0.2421053 0.2736842
3 0.1052632 0.1578947 0.2210526 0.2421053 0.2736842
4 0.1052632 0.1578947 0.2210526 0.2421053 0.2736842
5 0.1052632 0.1578947 0.2210526 0.2421053 0.2736842
leg.ufpr.br/~lucambio/CM/CMIII.html 2/24
29/08/2023, 10:57 Decomposição do espaço de estados
Teorema III.1
Demonstração.
vemos que Px (Ty = n) > 0 para algum inteiro positivo n. Seja n0 o menor de tais
inteiros positivos, isto é, seja
(n 0 )
Segue das expressões acima que px,y > 0 e
(m)
px,y = 0, 1 ≤ m < n0 ⋅
(m)
Dado que px,y > 0, podemos encontrar estados y1 , ⋯ , yn 0 −1 tais que
Suponha que, ao contrário disso, ρy,x < 1. Então, se a cadeia partir de y tem
probabilidade positiva 1 − ρy,x de nunca atingir x. Mais ao ponto, uma Cadeia de
Markov partindo do estado x tem a probabilidade positiva px,y
1
⋯ py
n −1
,y (1 − ρy,x ) de
0
(n 1 )
Dado que ρy,x = 1, existe um inteiro positivo n1 tal que γy,x > 0. Agora
(n 1 +n+n 0 )
py,y = Py (Cn 1 +n+n 0 = y)
≥ Py (Cn 1 = x, Cn 1 +n = x, Cn 1 +n+n 0 = y)
(n 1 ) (n) (n 0 )
= py,x px,x px,y ⋅
Portanto,
∞ ∞
(n) (n 1 +n+n 0 )
E y (N (y)) ≥ ∑ py,y = ∑ py,y
∞
(n 1 ) (n 0 ) (n) (n 1 ) (n 0 )
≥ py,x px,y ∑ px,x = py,x px,y E x (N (x)) = ∞,
n=1
leg.ufpr.br/~lucambio/CM/CMIII.html 3/24
29/08/2023, 10:57 Decomposição do espaço de estados
ρx,y = 0, x ∈ F e y ∉ F⋅
(n)
px,y = 0, x ∈ F, y ∉ F e n ≥ 1⋅
px,y = 0, x ∈ F e y ∉ F,
(2)
px,y = ∑ px,z pz,y = ∑ px,z pz,y = 0,
z∈S z∈F
(n)
e a condição px,y = 0, x ∈ F , y ∉ F , n ≥ 1 se cumpre por indução. Significa que, se
F for um conjunto de estados fechados, então a Cadeia de Markov começando em F ,
estará em F o tempo todo com probabilidade um. Se a é um estado absorvente então
o conjunto {a} é fechado.
é transiente.
Teorema III.2
(a) ρx,y = 1,
(b) Px (N (y) = ∞) = 1,
(c) E x (N (y)) = ∞,
para todo x, y ∈ F .
Demonstração.
Uma Cadeia de Markov irredutível é uma cadeia cujo espaço de estados é irredutível,
ou seja, uma cadeia em que cada estado se comunica de volta consigo e também com
todos os outros estados. Tal Cadeia de Markov é necessariamente quer uma cadeia
transiente ou uma cadeia recorrente. O Teorema III.2 implica, em particular, que uma
Cadeia de Markov irredutível recorrente visita todos seus estados infinitas vezes com
probabilidade um.
Teorema III.3
Demonstração.
Sabemos, pelo Teorema II.10 que se S é finito contém pelo menos um estado
recorrente. O mesmo argumento mostra que qualquer conjunto finito de estados
contém, ao menos, um estado recorrente. Seja agora F finito irredutível fechado.
Sabemos que todo estado em F é transiente ou todo estado em F é recorrente e que
F tem, ao menos, um estado recorrente. Segue então que todo estado em F é
recorrente.
Faremos um resumo dos resultados até agora para Cadeias de Markov com espaço de
estados finito. O Teorema III.3 nos disse que se a cadeia for irredutível ela deve ser
recorrente. Se a cadeia não for irredutível, podemos utilizar os Teoremas III.1 e III.3
para identificar quais estados são recorrentes e quais são transientes. Com o exemplo
a seguir mostramos o procedimento de identificação de estados recorrentes e
transientes de duas formas: de maneira teórica e também de maneira numérica.
Exemplo III.2.
1 0 0 0 0 0
⎛ ⎞
1 1 1
⎜ 0 0 0 ⎟
⎜ 4 2 4 ⎟
⎜ 1 2 1 1
⎟
⎜ 0 0 ⎟
⎜ 5 5 5 5 ⎟
P = ⎜ ⎟⋅
1 1 1
⎜ 0 0 0 ⎟
⎜ 6 3 2 ⎟
⎜ ⎟
⎜ 0 1 1 ⎟
0 0 0
⎜ 2 2 ⎟
⎝ 1 3 ⎠
0 0 0 0
4 4
leg.ufpr.br/~lucambio/CM/CMIII.html 5/24
29/08/2023, 10:57 Decomposição do espaço de estados
Como primeiro passo no estudo, vamos determinar por inspeção quais estados se
comunicam com quais outros. Isto pode ser realizado indicando a matriz da
seguinte forma:
+ 0 0 0 0 0
⎛ ⎞
⎜+ + + + + +⎟
⎜ ⎟
⎜+ + + + + +⎟
P = ⎜ ⎟⋅
⎜ ⎟
⎜ 0 0 0 + + +⎟
⎜ ⎟
⎜ 0 0 0 + + +⎟
⎝ ⎠
0 0 0 + + +
p = 0 mas
2,0
(2) 1 1 1
p = p2,1 p1,0 = × == > 0,
2,0
5 4 20
Neste exemplo, o primeiro tabalho foi identificar quais estados se comunicam. Isto
pode ser realizado utilizando as linhas de comando a seguir:
> library(markovchain)
> Estados = c("0", "1", "2", "3", "4", "5")
> Prob.T=matrix(c(1,0,0,0,0,0,
+ 1/4,1/2,1/4,0,0,0,
+ 0,1/5,2/5,1/5,0,1/5,
+ 0,0,0,1/6,1/3,1/2,
+ 0,0,0,1/2,0,1/2,
+ 0,0,0,1/4,0,3/4), nrow = 6, ncol = 6,byrow=T, dimnames=list(Estados,Estados))
> ProbT = new("markovchain", states=Estados, transitionMatrix=Prob.T, name="Exemplo III.2")
> ProbT
Exemplo III.2
A 6 - dimensional discrete Markov Chain defined by the following states:
0, 1, 2, 3, 4, 5
The transition matrix (by rows) is defined as follows:
0 1 2 3 4 5
0 1.00 0.0 0.00 0.0000000 0.0000000 0.00
1 0.25 0.5 0.25 0.0000000 0.0000000 0.00
2 0.00 0.2 0.40 0.2000000 0.0000000 0.20
3 0.00 0.0 0.00 0.1666667 0.3333333 0.50
4 0.00 0.0 0.00 0.5000000 0.0000000 0.50
leg.ufpr.br/~lucambio/CM/CMIII.html 6/24
29/08/2023, 10:57 Decomposição do espaço de estados
> is.accessible(ProbT)
0 1 2 3 4 5
0 TRUE FALSE FALSE FALSE FALSE FALSE
1 TRUE TRUE TRUE TRUE TRUE TRUE
2 TRUE TRUE TRUE TRUE TRUE TRUE
3 FALSE FALSE FALSE TRUE TRUE TRUE
4 FALSE FALSE FALSE TRUE TRUE TRUE
5 FALSE FALSE FALSE TRUE TRUE TRUE
Uma outra forma de identificar quais estados são transientes e quais recorrentes é
calculando uma potência elevada da matriz de transição, por exemplo
1 0 0 0 0 0
⎛ ⎞
> library(markovchain)
> estados = c("0","1","2","3","4","5")
> Prob.T=matrix(c(1,0,0,0,0,0,1/4,1/2,1/4,0,0,0,0,1/5,2/5,1/5,0,1/5,
0,0,0,1/6,1/3,1/2,0,0,0,1/2,0,1/2,0,0,0,1/4,0,3/4),
nrow=6,ncol=6,byrow=T, dimnames=list(estados,estados))
> ProbT = new("markovchain", states=estados, transitionMatrix=Prob.T, name="Exemplo 24")
> transientStates(ProbT)
[1] "1" "2"
leg.ufpr.br/~lucambio/CM/CMIII.html 7/24
29/08/2023, 10:57 Decomposição do espaço de estados
> steadyStates(ProbT)
0 1 2 3 4 5
[1,] 0.2303939 4.092618e-16 2.756485e-16 0.1924015 0.06413384 0.5130707
[2,] 1.0000000 0.000000e+00 0.000000e+00 0.0000000 0.00000000 0.0000000
Na primeira linha, onde aparecer um valor zero ou próximo de zero significa que o
estado correspondente não é recorrente. Ou seja, identificamos que os estados 0, 3, 4
e 5 são recorrentes.
Teorema III.4
Demonstração.
irredutível.
leg.ufpr.br/~lucambio/CM/CMIII.html 8/24
29/08/2023, 10:57 Decomposição do espaço de estados
Desde que a cadeia continue permanentemente em F, uma vez que atinge este
conjunto, chamamos de ρx,F a probabilidade que uma cadeia a partir de x seja
absorvida pelo conjunto F. Logico que ρx,F = 1 , x ∈ F e ρx,F = 0 se x for um estado
recorrente que não esteja em F. Ele não é tão claro como calcular ρx,F para x ∈ ST ,o
conjunto de estados transientes.
Para entender por que este é o caso, observemos que, se a cadeia partir de x, pode
entrar em F apenas entrando em C no tempo 1 ou por estar em ST no tempo 1 e
entrando em F em algum momento futuro. O primeiro evento tem probabilidade
∑
y∈F
px,y e o último evento tem probabilidade ∑
y∈S T
px,y ρy,F . Assim
y∈F y∈S T
A equação acima se cumpre sempre que ST seja finito ou infinito, mas está longe de
ser claro como a resolver para as incógnitas ρ , x ∈ ST quando ST é infinito. Uma
x,F
dificuldade adicional ao fato de ST ser infinto acontece quando a equação acima não
necessariamente tem solução única. Afortunadamente esta dificuldade não acontece
quando ST é finito.
Teorema III.5
Suponhamos que o conjunto dos estados transientes ST seja finito e que F seja o
conjunto fechado irredutível dos estados recorrentes da cadeia. Então, o sistema de
equações
leg.ufpr.br/~lucambio/CM/CMIII.html 9/24
29/08/2023, 10:57 Decomposição do espaço de estados
y∈F y∈S T
f (x) = ρx,F , x ∈ ST ⋅
Demonstração.
z∈F z∈S T
(2)
f (y) = Px (TF ≤ 2) + ∑ px,y f (y)⋅
y∈S T
(n)
f (y) = Px (TF ≤ n) + ∑ px,y f (y), x ∈ ST ⋅
y∈S T
(n)
lim px,y = 0, x ∈ S e y ∈ ST ⋅
n→∞
como desejado.
Da matriz de transição no Exemplo III.2, temos que ρ1,0 e ρ2,0 são determinados
pelas equações
leg.ufpr.br/~lucambio/CM/CMIII.html 10/24
29/08/2023, 10:57 Decomposição do espaço de estados
1 1 1 1 2
ρ1,0 = + ρ1,0 + ρ2,0 e ρ2,0 = ρ1,0 + ρ2,0 ⋅
4 2 4 5 5
5
e ρ2,{3,4,5} =
4
5
.
Teorema III.6
∑ ρx, = 1, x ∈ ST ,
F
i
i=1
Demonstração.
∞ ∞
i=1 i=1
Dado que existe somente um número finito de estados transientes e cada estado
transiente é visitado somente um número finito de vezes, a probabilidade
P x (T S < ∞) de que um estado recorrente acabará por ser atingido é 1, portanto a
R
afirmação se verifica.
ρx,y = ρx,F , x ∈ ST e y ∈ F⋅
2 4
ρ1,3 = ρ1,4 = ρ1,5 = ρ1,{3,4,5} = e ρ2,3 = ρ2,4 = ρ2,5 = ρ2,{3,4,5} = ,
5 5
leg.ufpr.br/~lucambio/CM/CMIII.html 11/24
29/08/2023, 10:57 Decomposição do espaço de estados
0 1 2 3 4
0 1 0 0 0 0
⎛ ⎞
1 ⎜ 1/2 0 1/2 0 0 ⎟
⎜ ⎟
P = 2 ⎜ 0 1/2 0 1/2 0 ⎟⋅
⎜ ⎟
⎜ ⎟
3 ⎜ 0 0 1/2 0 1/2 ⎟
⎝ ⎠
4 0 0 0 0 1
leg.ufpr.br/~lucambio/CM/CMIII.html 12/24
29/08/2023, 10:57 Decomposição do espaço de estados
A pergunta mais óbvia que pode ser feita sobre a cadeia é: Qual é a probabilidade de
que o processo vai eventualmente atingir um estado absorvente? Outras questões
interessantes incluem: (a) Qual é a probabilidade de que o processo vai acabar em um
determinado estado absorvente? (b) Em média, quanto tempo será necessário para
que o processo seja absorvido? (c) Em média, quantas vezes o processo estará, em
cada estado transiente? As respostas a todas estas questões dependem, em geral, no
estado a partir do qual o processo é iniciado, bem como as probabilidades de
transição.
O seguinte exemplo têm como base o artigo de Sox, H., Blatt, M., Higgins, M. e
Marton, K. de 1988 publicado na Medical Decision Making, Butterworth Publishing,
Boston nas páginas 191 a 193.
A C R W D
C ⎜ 0 0 0.995 0 0.005 ⎟
⎜ ⎟
P = ⎜ ⎟
R ⎜ 0 0 0.09 0.90 0.01 ⎟ ⋅
⎜ ⎟
W ⎜ 0 0 0 0.99 0.01 ⎟
⎝ ⎠
D 0 0 0 0 1
Observemos que o estado D é absorvente. Uma vez que o paciente chega a este
estado é impossível sair. Para entendermos as consequências da estratégia a
longo prazo vamos encontrar várias potências da matriz de transição. Assim
leg.ufpr.br/~lucambio/CM/CMIII.html 13/24
29/08/2023, 10:57 Decomposição do espaço de estados
A C R W D
C ⎜ 0 0 0 0.93 0.07 ⎟
⎜ ⎟
8 ⎜ ⎟
P = R 0 0 0 0.92 0.08 ⎟ ⋅
⎜
⎜ ⎟
W ⎜ 0 0 0 0.92 0.08 ⎟
⎝ ⎠
D 0 0 0 0 1
A C R W D
C ⎜ 0 0 0 0.73 0.27 ⎟
⎜ ⎟
32
= ⎜ ⎟
P R ⎜ 0 0 0 0.72 0.28 ⎟ ⋅
⎜ ⎟
W ⎜ 0 0 0 0.72 0.28 ⎟
⎝ ⎠
D 0 0 0 0 1
Forma canônica
T ransiente Absorvente
T ransiente Q R
P = ( )⋅
Absorvente 0 I
leg.ufpr.br/~lucambio/CM/CMIII.html 14/24
29/08/2023, 10:57 Decomposição do espaço de estados
(n)
Sabemos que px,y é a probabilidade do processo estar no estado y após n passos,
quando iniciou-se no estado x. Um procedimento de álgebra matricial mostra que P
n
é da forma
T ransiente Absorvente
n ∗
n
T ransiente Q R
P = ( )⋅
Absorvente 0 I
n
lim Q = 0⋅
n→∞
Demonstração.
> library(markovchain)
> estados = c("A","C","R","W","D")
> Prob.T=matrix(c(0.95,0.04,0,0,0.01,0,0,0.995,0,0.005,
0,0,0.09,0.90,0.01,0,0,0,0.99,0.01,0,0,0,0,1),
nrow=5,ncol=5,byrow=T, dimnames=list(estados,estados))
> ProbT = new("markovchain", states=estados, transitionMatrix=Prob.T,
name="Gestão de cálculos biliares")
> ProbT
Gestão de cálculos biliares
leg.ufpr.br/~lucambio/CM/CMIII.html 15/24
29/08/2023, 10:57 Decomposição do espaço de estados
> canonicForm(ProbT)
Gestão de cálculos biliares
A 5 - dimensional discrete Markov Chain defined by the following states:
D, A, C, R, W
The transition matrix (by rows) is defined as follows:
D A C R W
D 1.000 0.00 0.00 0.000 0.00
A 0.010 0.95 0.04 0.000 0.00
C 0.005 0.00 0.00 0.995 0.00
R 0.010 0.00 0.00 0.090 0.90
W 0.010 0.00 0.00 0.000 0.99
A C R W
> canonicForm(ProbT)^800
Gestão de cálculos biliares^800
A 5 - dimensional discrete Markov Chain with following states
D A C R W
The transition matrix (by rows) is defined as follows
D A C R W
D 1.0000000 0.000000e+00 0.000000e+00 0.000000e+00 0.0000000000
A 0.9996762 1.509678e-18 6.356538e-20 7.354366e-20 0.0003238497
C 0.9996762 0.000000e+00 0.000000e+00 0.000000e+00 0.0003238497
R 0.9996778 0.000000e+00 0.000000e+00 0.000000e+00 0.0003222224
W 0.9996778 0.000000e+00 0.000000e+00 0.000000e+00 0.0003222224
Matriz fundamental
−1 2
(I − Q) = I + Q + Q + ⋯⋅
Demonstração.
2 n n+1
(I − Q)(I + Q + Q + ⋯ + Q ) = I − Q ⋅
2 n −1 n+1
I + Q + Q + ⋯ + Q = (I − Q) (I − Q )⋅
−1 2
(I − Q) = I + Q + Q + ⋯⋅
k
P (1
1y (k) = 1) = qx,y
k
P (1
1y (k) = 0) = 1 − qx,y ,
onde qx,y
k
é o (x, y)-ésimo elemento da matriz Q
k
. Estas equações valem tambéém
para k = 0, desde que Q
0
= I. Portanto, dado que 1
1y (k) assume somente os valores
0 ou 1, 1y (k)) = qx,y .
E(1
k
O número esperado de vezes que a cadeia está no estado y, nos primeiros n passos,
uma vez que se inicia no estado x, é claramente
0 1 n
E(1
1y (0) + 1
1y (1) + ⋯ + 1
1y (n)) = qx,y + qx,y + ⋯ + qx,y ⋅
0 1 −1
E(1
1y (0) + 1
1y (1) + ⋯ ) = qx,y + qx,y + ⋯ = (I − Q)x,y ⋅
1 2 3 0 4
1 0 1/2 0 1/2 0
⎛ ⎞
2 ⎜ 1/2 0 1/2 0 0 ⎟
⎜ ⎟
P = 3 ⎜ 0 1/2 0 0 1/2
⎟⋅
⎜ ⎟
⎜ ⎟
0 ⎜ 0 0 0 1 0 ⎟
⎝ ⎠
4 0 0 0 0 1
0 1/2 0
⎛ ⎞
Q = ⎜ 1/2 0 1/2 ⎟ ,
⎝ ⎠
0 1/2 0
e que
1 −1/2 0
⎛ ⎞
I − Q = ⎜ −1/2 1 −1/2 ⎟ ⋅
⎝ ⎠
0 −1/2 1
Calculando (I − Q)
−1
, obtemos
1 2 3
1 3/2 1 1/2
⎛ ⎞
−1
(I − Q) = 2 ⎜ 1 2 1 ⎟⋅
⎝ ⎠
3 1/2 1 3/2
Esta é mais uma situação de cadeias na qual não exitem estados transientes.
leg.ufpr.br/~lucambio/CM/CMIII.html 18/24
29/08/2023, 10:57 Decomposição do espaço de estados
que cada cadeia regular é ergódica. Por outro lado, uma cadeia ergódica não é
necessariamente regular, como mostram os seguintes exemplos.
Exemplo III.9.
0 1
0 0 1
P = ( )⋅
1 1 0
1 0 0 1
100 101
P = ( ) e P = ( )⋅
0 1 1 0
Um exemplo mais interessante do que este de Cadeia de Markov não regular ergódica
é fornecido pelo modelo Ehrenfest.
Exemplo III.10.
0 1 2 3 4
0 1 0 0 0
0 ⎛ ⎞
1 3
⎜ 0 0 0 ⎟
1
⎜ 4 4
⎟
⎜ 1 1 ⎟
P = 2 ⎜ 0 0 0 ⎟⋅
2 2
⎜ ⎟
⎜ 3 1 ⎟
3
⎜ 0 0 0 ⎟
4 4
4 ⎝ ⎠
0 0 0 1 0
0 1 2 3 4 0 1 2 3 4
1 6 1 1 1
0 0 0 0 0
⎛ 8 8 8 ⎞ ⎛ 2 2 ⎞
0 0
1 1 1 6 1
⎜ 0 0 0 ⎟ ⎜ 0 0 ⎟
1 ⎜ 2 2 ⎟ 1 ⎜ 8 8 8⎟
⎜ ⎟ ⎜ ⎟
100 6 101
P = ⎜ 1 0 0
1 ⎟
P = ⎜ 0 1
0
1
0 ⎟⋅
2 2
⎜ 8 8 8 ⎟ ⎜ 2 2 ⎟
⎜ ⎟ ⎜ ⎟
1 1 6
3 ⎜ 0 0 0 ⎟ 3 ⎜ 1 0 0
1 ⎟
⎜ 2 2 ⎟ ⎜ 8 8 8 ⎟
4 1 6 1 4 ⎝ 1 1 ⎠
⎝ 0 0 ⎠ 0 0 0
8 8 8 2 2
Qualquer matriz de transição que não tem zeros determina uma cadeia de Markov
regular. No entanto, é possível que uma Cadeia de Markov regular tenha zeros na
matriz de transição. Vejamos o seguinte exemplo.
leg.ufpr.br/~lucambio/CM/CMIII.html 19/24
29/08/2023, 10:57 Decomposição do espaço de estados
De acordo com Kemeny, J.G., Snell, J.L and Thompson, G.L. (1974).
Introduction to Finite Mathematics, 3rd ed. Englewood Cliffs, NJ: Prentice-
Hall., a Terra de Oz é um excelente lugar para morar por muitas coisas, mas
não por um bom tempo por causa do tempo.
Eles nunca tem dois dias agradáveis seguidos. Se eles têm um bom dia B , eles
são tão propensos a ter neve N quanto chuva C no dia seguinte. Se tiverem
neve ou chuva, tem possibilidade meio de ter o mesmo no dia seguinte. Se não
houver mudança de neve ou chuva, tem apenas metade de probabilidade de uma
mudança para um bom dia. Com esta informação, formamos a matriz de transição
da Cadeia de Markov como segue:
C B N
1 1 1
C 2 4 4
⎛ ⎞
1 1
P = B ⎜ 0 ⎟⋅
2 2
⎝ ⎠
1 1 1
N
4 4 2
1 0
P = ( )
1 1
2 2
Teorema III.9.
m1 ≥ m0 e
M 1 − m 1 ≤ (1 − 2ϵ)(M 0 − m 0 )⋅
Demonstração.
Seja x
x
′
o vetor obtido de x substituindo uma das componentes m0 por M0 . Então
x
x ≤ x
x
′
. Cada componente de Γx x é da forma
′
a ⋅ m 0 + (1 − a) ⋅ M 0 = M 0 − a(M 0 − m 0 ),
leg.ufpr.br/~lucambio/CM/CMIII.html 20/24
29/08/2023, 10:57 Decomposição do espaço de estados
M 0 − ϵ(M 0 − m 0 )⋅
Dado que x
x ≤ x
x
′
, temos que
M 1 ≤ M 0 − ϵ(M 0 − m 0 )⋅
−m 1 ≤ −m 0 − ϵ(−m 0 + M 0 )⋅
M 1 − m1 ≤ M 0 − m 0 − 2ϵ(M 0 − m 0 )
= (1 − 2ϵ)(M 0 − m 0 )⋅
Devemos observar que ϵ, o menor valor de P , é sempre menor ou igual a 1/2. Este
teorema nos fornece uma forma mais simples da demonstração do seguinte teorema
fundamental para Cadeias de Markov regulares.
n
lim P = W,
n→∞
onde W é uma matriz com todas as linhas iguais ao mesmo vetor w. O vector w é
um vector de probabilidades estritamente positivo, isto é, as componentes são
todas positivas e somam um.
Demonstração.
Primeiro vamos assumir que a matriz Γ não tem zeros. Seja ϵ o menor valor em P .
Seja agora ρj um vetor coluna com 1 na j-ésima componente e zeros nas outras.
Sejam Mn e mn os valores máximos e mínimos dos vetores P
n
ρj . Dado que
ρj , temos do Teorema 24 que M 1 ≥ M 2 ≥ M 3 ≥ ⋯,
n n−1
Γ ρj = Γ ⋅ Γ
m1 ≤ m2 ≤ m3 ≤ ⋯ e
n
dn ≤ (1 − 2ϵ) d0 ⋅
somas das linhas de P n são sempre 1, o mesmo vale para o limite.Isto completa a
demonstração no caso da matriz assumir somente valores positivos. Considerar agora
leg.ufpr.br/~lucambio/CM/CMIII.html 21/24
29/08/2023, 10:57 Decomposição do espaço de estados
o caso seguinte em que somente é assumida ser regular. Seja N, tal que tenha
N
P P
⎝ ⎠⎝ ⎠ ⎝ ⎠ ⎝ ⎠
1/3 1/2 1/6 3 1/3 ⋅ 1 + 1/2 ⋅ 2 + 1/6 ⋅ 3 11/6
mínimos aumentos de 1 a 11/6. Na prova mostramos que, como nós fazemos mais e
mais desta média para obter P
n
ρ,
ρ a diferença entre o máximo e mínimo tende a 0
quando n → ∞. Isto significa que P
n
ρ
ρ tende a um vector constante. O elemento
(n)
de , é a probabilidade de que o processo esteja no estado após
n
(i, j) P p j n
i,j
Exemplo III.12.
C B N
Assim, para este grau de precisão, a probabilidade de chuva seis dias depois
de um dia de chuva é a mesma que a probabilidade de chuva seis dias depois de
um dia agradável ou seis dias depois de um dia de neve. O Teorema III.10
prevê que, para grandes valores de n , as linhas de P vão se aproximar de um n
vetor comum. É interessante que isso ocorra tão cedo neste exemplo.
Teorema III.11.
leg.ufpr.br/~lucambio/CM/CMIII.html 22/24
29/08/2023, 10:57 Decomposição do espaço de estados
n
W = lim P ,
n→∞
(a) w
wP = w
w e qualquer vetor linha ν
ν tal que ν ν,
νP = ν é múltiplo de w.
w
Demonstração.
Note-se que uma consequência imediata deste teorema é o fato de que existe apenas
um único vetor de probabilidades ν , tal que a ν P = ν .
III.4 Exercícios
então px,y = 0.
se comunica com z.
4. Considere uma cadeia de Markov nos números inteiros não negativos de modo
que, começando no estado x, a cadeia passe ao estado x + 1 com
probabilidade p, 0 < p < 1 e vá para o estado 0 com probabilidade 1 − p.
leg.ufpr.br/~lucambio/CM/CMIII.html 23/24
29/08/2023, 10:57 Decomposição do espaço de estados
y 2d−y
2d x x
px,y = ( )( ) (1 − ) ⋅
y 2d 2d
leg.ufpr.br/~lucambio/CM/CMIII.html 24/24