Escolar Documentos
Profissional Documentos
Cultura Documentos
CADEIAS DE MARKOV
1
PROCESSOS ESTOCÁSTICOS
2
PROCESSOS ESTOCÁSTICOS
3
PROCESSOS ESTOCÁSTICOS
caracterização dos M + 1
0, 1, ..., M
estados do processo
4
PROCESSOS ESTOCÁSTICOS
Classificação
Discreto Xt: enumerável ou finito
Estado
Contínuo Xt: caso contrário
Exemplos:
Estado discreto e tempo contínuo: número de pessoas em um
supermercado em um determinado instante.
Estado contínuo e tempo discreto: perda associada ao corte de padrões
de corte diária.
Estado discreto e tempo discreto: número de peças vendidas por dia.
5
CADEIAS DE MARKOV
6
CADEIAS DE MARKOV
7
CADEIAS DE MARKOV
(0)
para n = 0, pij é exatamente P{X0 = j / X0 = i} que é 1 se i = j
e 0 se i j
(1)
para n = 1, pij é a probabilidade de transição (em um passo)
8
CADEIAS DE MARKOV
9
CADEIAS DE MARKOV
- É quadrada
- Os elementos da matriz são probabilidades, isto é, 0 ≤ pij ≤1
- A soma dos elementos de uma linha deve ser igual a 1
10
PROCESSOS ESTOCÁSTICOS
11
PROCESSOS ESTOCÁSTICOS
12
CADEIAS DE MARKOV
13
CADEIAS DE MARKOV
14
CADEIAS DE MARKOV
15
CADEIAS DE MARKOV
Continuando...
16
CADEIAS DE MARKOV
Exemplo 2: jogador
Um jogador tem $1,00 e cada vez que joga ganha $1,00 com
probabilidade p > 0 ou perde $1,00 com probabilidade 1 – p. O
jogo termina quando o jogador acumula $3,00 ou $0,00. Este jogo
é uma Cadeia de Markov cujos estados representam a quantia
esperada de dinheiro que o jogador possui a cada vez que joga. O
espaço de estados é E = {0 1 2 3} e a matriz de transição P é
dada por:
1 0 0 0
1 p 0 p 0
P=
0 1 p 0 p
0 0 0 1
17
EQUAÇÕES DE CHAPMAN-KOLMOGOROV
(n )
Probabilidades de transição em n passos, pij
úteis quando o processo está no estado i é
desejada a probabilidade de que o processo estará
no estado j depois de n passos
Equações de Chapman-Kolmogorov
método para calcular probabilidades de transição em n passos
M
pij( n ) p (v ) ( n v )
ik p kj , para todo i, j , n e 0 v n
k 0
18
EQUAÇÕES DE CHAPMAN-KOLMOGOROV
Casos especiais
M
v=1 pij( n) pik pkj(n1)
k 0
para todo i, j, n
M
v=n–1 pij( n) pikn1 pkj
k 0
Probabilidades de Probabilidades de
transição em n transição em um
passos passo
19
EQUAÇÕES DE CHAPMAN-KOLMOGOROV
M
n=2 pij( 2) p ik pkj , para todo i, j
k 0
probabilidades de transição em
um passo
P(2) P(2) = PP = P2
Generalizando
P(n) = P P P = Pn = PPn-1 = Pn-1P
P(n) = Pn
20
EQUAÇÕES DE CHAPMAN-KOLMOGOROV
( 2)
p10 = 0,283 dado que existe uma câmera em estoque no final da
semana, a probabilidade de que não haverá câmera em estoque duas
semanas depois, é de 0,283
21
EQUAÇÕES DE CHAPMAN-KOLMOGOROV
22
PROCESSO MARKOVIANO – Exemplo 3 – uso da terra
O estado no ano de 1997 da ocupação da terra em uma cidade de 70 quilômetros
quadrados de área é:
Estado da ocupação da terra
I Uso residencial 30%
II Uso comercial 20%
III Uso industrial 50%
(1) = (0) P = [0,30 0,20 0,50] 0,8 0,1 0,1 = [0,26 0,22 0,52]
0,1 0,7 0,2
Prob. estado para 2000
0,0 0,1 0,9
23
CLASSIFICAÇÃO DOS ESTADOS DE UMA
CADEIA DE MARKOV
24
CLASSIFICAÇÃO DOS ESTADOS DE UMA
CADEIA DE MARKOV
25
CLASSIFICAÇÃO DOS ESTADOS DE UMA
CADEIA DE MARKOV
26
CLASSIFICAÇÃO DOS ESTADOS DE UMA
CADEIA DE MARKOV
27
CLASSIFICAÇÃO DOS ESTADOS DE UMA
CADEIA DE MARKOV
Recorrente
Todos os estados em uma classe ou
Transiente
28
CLASSIFICAÇÃO DOS ESTADOS DE UMA
CADEIA DE MARKOV
Propriedades de periodicidade
Período do estado i
(n )
inteiro t (t >1) tal que pii = 0 para todos os valores de n com exceção
de t, 2t, 3t, ... e t é o maior inteiro com esta propriedade
Estado i retorno a este estado é possível somente em t, 2t, ...
Se o estado i em uma classe tem período t, então todos os estados nesta classe
têm período t
período do estado 2 = 2 (estado 2 está na mesma classe que o estado 1)
29
CLASSIFICAÇÃO DOS ESTADOS DE UMA
CADEIA DE MARKOV
30
CLASSIFICAÇÃO DOS ESTADOS
Estado Periódico Pode ser alcançado nos tempos t, 2t, 3t, (t > 1)
31
CLASSIFICAÇÃO DE ESTADOS – CADEIAS DE MARKOV
Estado Acessível
Exemplo 2 do jogador: Um jogador tem $1,00 e cada vez que joga ganha $1,00
com probabilidade p>0 ou perde $1,00 com probabilidade 1 – p. O jogo termina
quando o jogador acumula $3,00 ou $0,00. Este jogo é uma Cadeia de Markov
cujos estados representam a quantia esperada de dinheiro que o jogador possui a
cada vez que joga. O espaço de estados é E = {0 1 2 3} e a matriz de transição
P é dada por:
1 0 0 0
1 p 0 p 0 p: ganha $1,00
P
0 1 p 0 p
1 – p: perde $1,00
0 0 0 1
(n)
Estado 2 não é acessível a partir do estado 3 p32 0
(1)
Estado 3 é acessível a partir do estado 2 p 23 0
Estados Comunicantes
Estados 2 e 3 do exemplo acima não são comunicantes
32
CLASSIFICAÇÃO DE ESTADOS – CADEIAS DE MARKOV
33
CLASSIFICAÇÃO DE ESTADOS – CADEIAS DE MARKOV
34
CLASSIFICAÇÃO DE ESTADOS – CADEIAS DE MARKOV
Estado Periódico
Exemplo 2 – jogador: Um jogador tem $1,00 e cada vez que joga ganha $1,00
com probabilidade p>0 ou perde $1,00 com probabilidade 1 – p. O jogo termina
quando o jogador acumula $3,00 ou $0,00. Este jogo é uma Cadeia de Markov
cujos estados representam a quantia esperada de dinheiro que o jogador possui a
cada vez que joga. O espaço de estados é E = {0 1 2 3} e a matriz de transição
P é dada por:
1 0 0 0
1 p 0 p 0 p: ganha $1,00
P
0 1 p 0 p
1 – p: perde $1,00
0 0 0 1
35
TEMPO DE PRIMEIRA PASSAGEM
36
TEMPO DE PRIMEIRA PASSAGEM
X0 = 3 X1 = 2 X2 = 1 X3 = 0 X4 = 3 X5 = 1
37
TEMPO DE PRIMEIRA PASSAGEM
recursivamente
f ij( 2) pij( 2) f ij(1) p jj
probabilidades de transição
em um passo
f ij( n ) pij( n ) f ij(1) p ( n 1) f ij(2) p ( n 2) f ij( n-1) p jj
jj jj
38
TEMPO DE PRIMEIRA PASSAGEM
39
TEMPO DE PRIMEIRA PASSAGEM
(n )
Embora calcular f ij para todo n possa ser difícil, é relativamente simples
obter o tempo de primeira passagem esperado do estado i para o estado j
se f ij( n ) 1
n 1
ij
(n)
nf ij se f ij( n ) 1
n 1 n 1
(n)
Sempre que f ij 1 ij unicamente satisfaz a equação
n 1
ij 1 pik kj
k j
40
TEMPO DE PRIMEIRA PASSAGEM
41
PROPRIEDADES DE EQUILÍBRIO DAS CADEIAS DE MARKOV
Probabilidades de Equilíbrio
n = 1 P(1) = 0 ,080 0 ,184 0,368 0,368 n = 2 P(2) = 0,249 0,286 0,300 0,165
0 ,632 0 ,368 0,283 0,252 0,233 0,233
0 0
0 ,264 0 ,368 0,368 0 0,351 0,319 0,233 0,097
0 ,080 0 ,184 0,368 0,368 0,249 0,286 0,300 0,165
n = 4 P(4) = 0 ,289 0,286 0,261 0 ,164 n = 8 P(8) = 0,286 0,285 0,264 0,166
0 ,282 0,285 0 ,268 0 ,166 0,286 0,285 0,264 0,166
0 ,284 0,283 0 ,263 0 ,171 0,286 0,285 0,264 0,166
0 ,289 0,286 0,261 0 ,164 0,286 0,285 0,264 0,166
42
PROPRIEDADES DE EQUILÍBRIO DAS CADEIAS DE MARKOV
43
PROPRIEDADES DE EQUILÍBRIO DAS CADEIAS DE MARKOV
M M+2 equações
j i pij para j 0,1, , M
M+1 variáveis
i 0
M
1
j uma equação
j 0
redundante
44
PROPRIEDADES DE EQUILÍBRIO DAS CADEIAS DE MARKOV
Probabilidades de equilíbrio:
45
PROPRIEDADES DE EQUILÍBRIO DAS CADEIAS DE MARKOV
46
PROPRIEDADES DE EQUILÍBRIO DAS CADEIAS DE MARKOV
()
P() = 0 1 2 3 0 ,286 0 ,285 0 ,264 0 ,166
()
0 1 2 3 0 ,286 0 ,285 0 ,264 0 ,166
( ) 0 1 2 3 0 ,286 0 ,285 0 ,264 0 ,166
()
0 1 2 3 0 ,286 0 ,285 0 ,264 0 ,166
j estado transiente
lim pij( n ) 0 , para todo i
n
47
CUSTO MÉDIO ESPERADO POR UNIDADE DE TEMPO
Exemplo 5: considere P
0 1
P= se o processo começa no estado 0 no tempo 0
1 0
estará no estado 0 nos tempos 2, 4, 6,
estará no estado 1 nos tempos 1, 3, 5,
(n)
p00 1 se n é par (n)
lim p00 não existe
(n) n
p00 0 se n é ímpar
48
CUSTO MÉDIO ESPERADO POR UNIDADE DE TEMPO
1 n
mas lim pij( k ) j sempre existe
n n
k 1 Cadeia de Markov irredutível
importante para calcular custo médio a longo período por unidade de tempo
49
CUSTO MÉDIO ESPERADO POR UNIDADE DE TEMPO
0 se Xt = 0
1 n M
2 se Xt = 1
lim E C ( X t ) j C( j)
C( X t ) n n
8 se Xt = 2 t 1 j 0
50
REFERÊNCIA
51