Escolar Documentos
Profissional Documentos
Cultura Documentos
Instituto de Matemática
cadeias de Markov
Aplicações básicas de processos estocásticos e cadeias de Markov 2
Sumário
Resumo .............................................................................................................. 4
sistema.................................................................................... 69
Resumo
custos da empresa.
determinada população.
1 Fundamentação Teórica
Por uma questão de otimização, consideraremos que os princípios
processos estocásticos.
processo estocástico.
contínuo.
valores reais.
Aplicações básicas de processos estocásticos e cadeias de Markov 6
independentes se, para todo 𝑡0 < 𝑡1 < 𝑡2 < ⋯ < 𝑡𝑛 , as variáveis aleatórias
𝑋(𝑡1 ) − 𝑋(𝑡0 ), 𝑋(𝑡2 ) − 𝑋(𝑡1 ), … , 𝑋(𝑡𝑛 ) − 𝑋(𝑡𝑛−1 ) são independentes, assim como
estocástico é dito markoviano se, uma vez conhecido o estado atual do processo,
𝑋(𝑡0 ) = 𝑙, 𝑙 ∈ 𝑆,
0≤𝑣≤𝑧
(𝑣,
𝑃𝑖,𝑛 𝑧) = 𝑃[𝑋(𝑧) = 𝑛 |𝑋(𝑣) = 𝑖], 𝑐𝑜𝑚 { 𝑣, 𝑧 ∈ 𝑇 ,
𝑖, 𝑛 ∈ 𝑆
Note que
𝑃(𝑆𝑛+1 = 𝑖𝑛+1 , 𝑆𝑛 = 𝑖𝑛 , … , 𝑆1 = 𝑖1 )
𝑃[𝑆𝑛+1 = 𝑖𝑛+1|𝑆𝑛 = 𝑖𝑛 , … , 𝑆1 = 𝑖1 ] =
𝑃(𝑆𝑛 = 𝑖𝑛 , 𝑆𝑛−1 = 𝑖𝑛−1 , … , 𝑆1 = 𝑖1 )
e, como 𝑋𝑛 é tal que seus incrementos são independentes, podemos, sem perda
= 𝑃(𝑆𝑛+1 = 𝑖𝑛+1 | 𝑆𝑛 = 𝑖𝑛 ). ∎
se 0 ≤ 𝑢𝑖 ≤ 1 ∀ 𝑖 = 1, … , 𝑛 e ∑𝑛𝑖=1 𝑢𝑖 = 1.
𝑉
𝑈= .
∑𝑛𝑖=1 𝑣𝑖
primeira ordem
𝑢𝑘+1 = 𝑇 𝑢𝑘 ,
0 ≤ 𝑡𝑖,𝑗 ≤ 1 𝑒 ∑ 𝑡1,𝑗 = 1.
𝑗=1
vetores de probabilidades.
𝑇
𝑇. 𝑢𝑘 = 𝑢𝑘+1 = (∑𝑛𝑖=1 𝑢𝑖 . 𝑡𝑖,1 , ∑𝑛𝑖=1 𝑢𝑖 . 𝑡𝑖,2 , ∑𝑛𝑖=1 𝑢𝑖 . 𝑡𝑖,3 , … , ∑𝑛𝑖=1 𝑢𝑖 . 𝑡𝑖,𝑛 ) e, portanto,
(∑𝑛𝑗=1 𝑢𝑗 ). (∑𝑛𝑗=1 𝑡1,𝑗 ). (∑𝑛𝑗=1 𝑡2,𝑗 ) … (∑𝑛𝑗=1 𝑡𝑛,𝑗 ) = 1.1.1 … 1 = 1, visto que a soma de
“matriz regular”, visto que esta definição foi utilizada para definir matrizes com
fatoração L.U.
para o outro em "𝑘" passos. É, portanto, fácil verificar a definição de uma matriz
para algum 𝑘 ≥ 1.
então:
tomamrmos, clado, 𝑃 ∈ 𝑀2𝑥2 ). Quanto menor |𝜆2 | for, mais rápida será a
convergência do processo.
∑ 𝑚𝑖,𝑗 = 1.
𝑖=1
Aplicações básicas de processos estocásticos e cadeias de Markov 11
entradas não são todas iguais, sendo 𝑣𝑘 a entrada de menor valor de 𝑣, isto é,
(𝑣𝑘 < 𝑣𝑘 ) e, então, se M tem uma ou mais entradas nulas, mas 𝑀𝑘 tem todas as
tais que seu módulo é menor que 1. Para tal, recorreremos ao Gerschgorin Circle
Aplicações básicas de processos estocásticos e cadeias de Markov 12
Theorem 10.34. Seja o disco 𝐷𝑖 centrado em 𝑚𝑖,𝑖 tal que seu raio seja 𝑟𝑖 = 𝑠𝑖 −
𝑚𝑖,𝑖 = 1 − 𝑚𝑖,𝑖 , logo, o disco está estritamente contido no disco aberto de raio
unitário |𝑧| < 1, exceto nas fronteiras onde |𝑧| = 1. O teorema do Círculo implica
aproximadamente, 10% dos transportes que partem de em São Paulo vão para
Aplicações básicas de processos estocásticos e cadeias de Markov 13
Brasília e 30% para Belo Horizonte. 30% dos transportes que partem de Brasília
foram para São Paulo e outros 30% para Belo Horizonte, enquanto mercadorias
que embaracaram em Belo Horizonte foram para São Paulo em 40% das vezes
transição
Paulo, “2” representa Brasília e “3” representam os Belo Horizonte. Vale lembrar
𝑇𝑣 = 𝑣 ,
𝑇𝑣 − 𝑣 = 0 ,
(𝑇 − 𝐼)𝑣 = 0 .
Aplicações básicas de processos estocásticos e cadeias de Markov 14
Paulo, 23% em Brasília e 30% em Belo Horizonte. Isto pode ser facilmente
A potência
1−𝑎 𝑎 𝑛
𝑃𝑛 = ( )
𝑏 1−𝑏
0.
Note que a matriz P tem dois autovetores 𝑣1 = (1,1)𝑇 e 𝑣2 = (−𝑎, 𝑏)𝑇 , com
coluna e, ainda,se
𝑥 𝑦 1 𝑥 −𝑦
𝑀=( ) 𝑀−1 = det(𝑀) . ( ),
𝑧 𝑤 −𝑧 𝑤
isto é,
𝑏 𝑎
1 −𝑎 𝜆 0
𝑃=( ).( 1 ).( 𝑎 + 𝑏 𝑎 + 𝑏).
1 𝑏 0 𝜆2 1 1
−
𝑎+𝑏 𝑎+𝑏
𝜆1𝑛 0
𝐷𝑛 = ( ),
0 𝜆𝑛2
portanto,
𝑏 𝑎
1 −𝑎 1 0
𝑃𝑛 = ( ).( ).( 𝑎 + 𝑏 𝑎 + 𝑏)
1 𝑏 0 𝜆𝑛2 1 1
−
𝑎+𝑏 𝑎+𝑏
𝑛
𝑛 𝑏+𝑎𝜆2 𝑛 𝑎(1−𝜆𝑛
2)
𝑃(𝑍𝑛 = 0 |𝑍0 = 0) = 𝑝0,0 = e 𝑃(𝑍𝑛 = 1 |𝑍0 = 0) = 𝑝1,0 = ,
𝑎+𝑏 𝑎+𝑏
𝑛 𝑛
bem como as probabilidades 𝑃(𝑍𝑛 = 0 |𝑍0 = 1) = 𝑝0,1 e 𝑃(𝑍𝑛 = 1|𝑍1 = 1) = 𝑝1,1 .
convergência será mais rápida conforme |1 − (𝑎 + 𝑏)| se torna cada vez menor.
𝑏
lim 𝑃(𝑍𝑛 = 0 |𝑍0 = 0) = lim 𝑃(𝑍𝑛 = 1 |𝑍0 = 0) = .
𝑛→∞ 𝑛→∞ 𝑎+𝑏
𝑏 𝑎
𝜋 = [𝜋0 , 𝜋1 ] ≔ [ ; ]
𝑎+𝑏 𝑎+𝑏
é a distribuição limite, conforme n tende ao infinito, dado que (𝑎, 𝑏) ≠ (1,1). Não
𝑏
estar no estado “0” se torna próxima a 𝑎+𝑏.
1 1−𝑎 𝑎 1
𝜋𝑃 = . (𝑏, 𝑎). ( )= . (𝑏, 𝑎) = 𝜋,
𝑎+𝑏 𝑏 1−𝑏 𝑎+𝑏
1 1
Como exemplo, temos que a distribuição 𝜋 = (2 , 2) é notoriamente
0 1
𝑃=( )
1 0
1 2
enquanto se tomássemos 𝜋 = (3 , 3), a afirmação não seria verdadeira.
𝑏 𝑎
𝑃𝑛 = ( ) = 𝑃,
𝑏 𝑎
e, como consequência,
1 0
( ) , 𝑛 = 2𝑘
𝑃𝑛 = { 0 1 ,
0 1
( ) , 𝑛 = 2𝑘 + 1
1 0
outro.
𝑛 ≥ 1.
Aplicações básicas de processos estocásticos e cadeias de Markov 18
𝑛
𝑛 ≥ 0, onde 𝑝𝑖,𝑗 é uma entrada da matriz de probabilidades 𝑃𝑛 . Para dizermos
estado 𝑦, isto é, é possível que 𝑗 → 𝑖, mesmo que 𝑝𝑖,𝑗 = 0, visto que esta
𝑛
condição não garante que 𝑝𝑖,𝑗 = 0 para todos os valores 𝑛.
se comunicam e tal relação será denotada por 𝑥 ↔ 𝑦. Neste caso, dizemos que
0
𝑃𝑖,𝑖 = 𝑃(𝑍0 = 𝑖 |𝑍0 = 𝑖) = 1
o estado 𝑖.
comunica com o estado 𝑗 e este, por sua vez, se comunica com o estado 𝑧, então
Definição: Seja uma cadeia de Markov (𝑍𝑛 )𝑛∈ℕ , com espaço de estados S. Um
transitório.
se, uma vez que o processo entre neste estado, pode ser que o processo nunca
voltará, em algum momento, a este estado. Note que, uma vez que o estado será
probabilidade 𝑝𝑗,𝑗 .
𝑚−1
𝑝𝑖,𝑗 . 𝑝𝑗,𝑗 . (1 − 𝑝𝑗,𝑗 ), 𝑠𝑒 𝑚 ≥ 1
𝑃(𝑅𝑗 = 𝑚 |𝑍0 = 𝑖) = { .
1 − 𝑝𝑖,𝑗 , 𝑠𝑒 𝑚 = 0
0, 𝑠𝑒 𝑝𝑖,𝑖 = 1
𝑃(𝑅𝑖 < ∞|𝑍0 = 𝑖) = { ,
1, 𝑠𝑒 𝑝𝑖,𝑖 < 1
1, 𝑠𝑒 𝑝𝑖,𝑖 = 1
𝑃(𝑅𝑖 = ∞|𝑍0 = 𝑖) = { .
0, 𝑠𝑒 𝑝𝑖,𝑖 < 1
e, também,
∞ ∞
𝑚−1
𝐸[𝑅𝑗 |𝑍0 = 𝑖] = ∑ 𝑚. 𝑃(𝑅𝑗 = 𝑚 |𝑍0 = 𝑖) = (1 − 𝑝𝑗,𝑗 ). 𝑝𝑖,𝑗 . ∑ 𝑚(𝑝𝑗,𝑗 )
𝑚=0 𝑚=1
𝑝𝑖,𝑗
= .
1 − 𝑝𝑗,𝑗
𝑘
Corolário 1.6.2: Se definirmos 𝑄𝑖,𝑖 a probabilidade de, partindo do estado 𝑖, o
𝑘
lim 𝑄𝑖,𝑖 = lim 𝑃𝑖𝑘 = 1,
𝑘→∞ 𝑘→∞
𝑛
Proposição: O estado 𝑖 é recorrente se, e somente se, ∑∞
𝑛=1 𝑝𝑖,𝑖 = ∞. Isto implica
𝑛
que, se ∑∞
𝑛=1 𝑝𝑖,𝑖 < ∞ o estado é transitório.
𝔼 [∑ 1{𝑍𝑛=𝑗} | 𝑍0 = 𝑖 ]
𝑛=1
∞ ∞ ∞
𝑛
= ∑ 𝔼[1{𝑍𝑛=𝑗} |𝑍0 = 𝑖] = ∑ ℙ(𝑍𝑛 = 𝑗 |𝑍0 = 𝑖) = ∑ 𝑝𝑖,𝑗 .
𝑛=1 𝑛=0 𝑛=1
𝑛
ii) Se 𝑖 é transitório, então ∑∞
𝑛=1 𝑝𝑖,𝑖 < ∞.∎
em que 𝜇𝑖 = 1.
Aplicações básicas de processos estocásticos e cadeias de Markov 22
e, portanto,
𝑇𝑖𝑟 é, no mínimo, um, isto é, 𝜇𝑖 (𝑖) ≥ 1, enquanto ℎ𝑖 (𝑖) = 0, 𝑖 ∈ 𝕊. Por outro lado,
Note que, para 𝑖 = 𝑗, o tempo médio de retorno 𝜇𝑗 (𝑗) pode ser computado
∞ ∞
𝑛
=∑ 𝑛𝑓0,0 = 1 − 𝑎 + 𝑎𝑏 ∑ 𝑛(1 − 𝑏)𝑛−2
𝑛=0 𝑛=2
∞ ∞
𝑎+𝑏
= ,
𝑏
0 , 𝑠𝑒 𝑛 = 0
𝑛
onde 𝑓0,0 = ℙ(𝑇0𝑟 = 𝑛 |𝑍0 = 0) = { 1 − 𝑎 , 𝑠𝑒 𝑛 = 1,
𝑎𝑏(1 − 𝑏)𝑛−2 , 𝑠𝑒 𝑛 ≥ 2
1 𝑎+𝑏
𝜇1 (0) = 𝑒 𝜇1 (1) = .
𝑎 𝑎
𝑎 𝑏
𝑝𝑖,𝑗 > 0 𝑒 𝑝𝑖,𝑗 > 0.
Portanto, ∀ 𝑛 ≥ 𝑎 + 𝑏 temos:
𝑃(𝑍𝑛 = 𝑗 |𝑍0 = 𝑗)
𝑎 𝑛−𝑎−𝑏 𝑏
= 𝑝𝑖,𝑗 . 𝑝𝑖,𝑖 . 𝑝𝑗,𝑖 .
∞
𝑎 𝑏 𝑛
= 𝑝𝑖,𝑗 . 𝑝𝑗,𝑖 . ∑ 𝑝𝑖,𝑖 =∞
𝑛=0
assumido 𝑖 recorrente. ∎
0 ∀ 𝑛 ∈ ℕ.
E, então,
Aplicações básicas de processos estocásticos e cadeias de Markov 25
𝑛
∑ lim 𝑝𝑖,𝑗 = 0.
𝑛→∞
𝑗∈𝐶
𝑛
lim ∑ 𝑝𝑖,𝑗 = 0.
𝑛→∞
𝑗∈𝐶
𝑛
Mas, por outro lado, ∑𝑗∈𝐶 𝑝𝑖,𝑗 = 𝑃 (𝑍𝑛 ∈ 𝐶 |𝑍𝑜 = 𝑖). Desde que a classe é fechada,
temos que a soma das probabilidades deve ser igual a 1, o que contradiz,
proposição:
Proposição: Toda cadeia com espaço de estados finito deve ter pelo menos
um estado recorrente.
𝑝
Prova: Pelo corolário 1.6.1, temos que 𝐸[𝑅𝑗 |𝑍0 = 𝑖] = 1−𝑝𝑖,𝑗 ∀ 𝑖, 𝑗 ∈ 𝑆. Se
𝑗,𝑗
∞
𝑛
𝐸[𝑅𝑗 |𝑍0 = 𝑖] = ∑ 𝑝𝑖,𝑗 <∞,
𝑛=1
𝑛
o que implica, necessariamente, que lim 𝑝𝑖,𝑗 = 0 para todos os estados
𝑛→∞
𝑛 𝑛
0 = ∑ lim 𝑝𝑖,𝑗 = lim ∑ 𝑝𝑖,𝑗 = lim 1 = 1.
𝑛→∞ 𝑛→∞ 𝑛→∞
𝑗∈𝑆 𝑗∈𝑆
estado 𝑖 ∈ 𝑆 recorrente. ∎
4 e jamais retorna.
sempre que o processo move-se a partir de um deles para o outro, este irá
em 2, jamais o deixará.
estado 2.
1.7 Periodicidade
Definição: Um estado é dito periódico, com período 𝑡 se um retorno a este
Note, ainda, que se { 𝑛 ≥ 1 ∶ [𝑃𝑛 ]𝑖,𝑖 > 0} contém dois números distintos
primos entre sí, o estado 𝑖 também é definido como aperíodico, dado que o
M.D.C. é 1.
Definição: Uma cadeia de Markov é dita ser aperiódica se todos os seus estados
recorrente.
aperiódica, existe um 𝑏 que depende de 𝑗 tal que [𝑃𝑚 ]𝑗,𝑗 é estritamente positiva
Aplicações básicas de processos estocásticos e cadeias de Markov 28
[𝑃𝑎+𝑚 ]𝑖,𝑗 ≥ [𝑃𝑎 ]𝑖,𝑗 . [𝑃𝑚 ]𝑗,𝑗 , portanto, [𝑃𝑎+𝑚 ]𝑖,𝑗 > 0 ∀𝑚 ≥ 𝑏. Agora, seja 𝑘 a maior
finito e, portanto, [𝑃𝑘 ]𝑖,𝑗 > 0 e, como consequência direta, 𝑃 é regular e a prova
está concluída. ∎
lim 𝑃𝑛 𝑣0 = 𝑞,
𝑛→∞
para qualquer escolha inicial do vetor de probablidades 𝑣0 . O que pode ser dito,
período 𝑑 > 1 ?
Prova: Para a ida, vamos usar um resultado importante da Teoria dos Números:
seguintes propriedades:
ii) Se 𝑟, 𝑠 ∈ 𝑇, então 𝑟 + 𝑠 ∈ 𝑇.
concluímos que existe um 𝑡𝑖 ∈ 𝑇(𝑖) tal que 𝑡 ≥ 𝑡𝑖 implica 𝑡 ∈ 𝑇(𝑖). Como a cadeia
é irredutível, para qualquer 𝑗 ∈ 𝑆, existe um 𝑟 = 𝑟(𝑖, 𝑗) tal que [𝑃𝑟 ]𝑖,𝑗 > 0, logo,
onde 𝑡𝑥′ ≔ 𝑡𝑖 + max 𝑟(𝑖, 𝑗), tem-se que [𝑃𝑡 ]𝑖,𝑗 > 0 ∀ 𝑗 ∈ 𝑃. Se definirmos 𝑟0 ≔
𝑗∈𝑆
Aplicações básicas de processos estocásticos e cadeias de Markov 29
max 𝑡𝑖′ , então, para todo 𝑟 ≥ 𝑟0 e para todos 𝑖, 𝑗 ∈ 𝑆, temos que [𝑃𝑟 ]𝑖,𝑗 > 0 e,
𝑖∈𝑆
então, P é regular.
que [𝑃𝑟 ]𝑖,𝑗 > 0 e, como consequência, [𝑃𝑟+1 ]𝑖,𝑗 > 0, o que implica que o período
1 𝑛+1
lim (𝑃 + ⋯ + 𝑃𝑛+𝑑 )𝑣0 = 𝑞.
𝑛→∞ 𝑑
Isto é, em outras palavras, o teorema garante que, para o caso de uma cadeia
Definição: Uma cadeia de Markov é dita ter uma distribuição limite se os limites
𝑏 𝑎
(𝜋0 , 𝜋1 ) = ( , ),
𝑎+𝑏 𝑎+𝑏
𝑎+𝑏 𝑎+𝑏
(𝜇0 (0), 𝜇1 (1)) = ( , ).
𝑏 𝑎
consequência de um resultado mais geral que mostra que quanto mais tempo,
prazo.
1
lim P(𝑍𝑛 = 𝑖 |𝑍0 = 𝑗) = , 𝑖, 𝑗 ∈ 𝕊,
𝑛→∞ 𝜇𝑖 (𝑖)
onde
tal que
∑ 𝜋𝑖 = 1
𝑖∈𝕊
significa que
𝜋 = 𝜋𝑃.
que a cadeia voltará a esta distribuição após um número infinito de passos. Por
outro lado, para atingir a distribuição limitante, a cadeia poderia ter iniciado em
temos que
Aplicações básicas de processos estocásticos e cadeias de Markov 32
𝜋0 ⋯ 𝜋𝑁
lim 𝑃 = [ ⋮
𝑛 ⋱ ⋮ ].
𝑛→∞
𝜋0 ⋯ 𝜋𝑁
invariante por P.
de espaços 𝕊 finito, o que mostra, portanto, que 𝜋 = 𝜋𝑃, isto é, conclui a prova
distribuição limite
1
𝜋𝑖 ≔ lim 𝑃(𝑍𝑛 = 𝑖 |𝑍0 = 𝑗) = lim [𝑃𝑛 ]𝑗,𝑖 = , 𝑖, 𝑗 ∈ 𝕊,
𝑛→∞ 𝑛→∞ 𝜇𝑖 (𝑖)
1
onde a distribuição estacionária (𝜋𝑖 )𝑖∈𝕊 = (𝜇 (𝑖)) é unicamente determinada
𝑖 𝑖∈𝕊
sábado à noite a loja faz o pedido de câmeras para o fornecedor, que realizará
dada por
𝜋0 .
se a cadeia de Markov for ergódica e irredutível, o que, por sua vez, implica na
𝑀
∑ 𝜋𝑗 = 1 , 𝑝𝑎𝑟𝑎 𝑗 = 0,1,2, … , 𝑀.
𝑗=0
que a solução é
Vale ressaltar que lim 𝑃𝑛 só pode ser obtido desta maneira porque a cadeia é
𝑛→∞
idênticas.
as linhas não sejam idênticas. O seguinte exemplo deixa claro essa importância:
1 0 0
𝑃=[ 0 1 0 ].
0.3 0.2 0.5
𝑀
∑ 𝜋𝑗 = 1 , 𝑝𝑎𝑟𝑎 𝑗 = 0,1,2, … , 𝑀,
𝑗=0
temos que:
𝜋0 = 𝜋0 + 𝜋2 . 0,3
𝜋1 = 𝜋1 + 𝜋2 . 0.2
𝜋2 = 𝜋2 . 0,5 .
{1 = 𝜋0 + 𝜋1 + 𝜋2
de lim 𝑃𝑛 não são iguais e, por isso, os valores de 𝜋0 e 𝜋1 não são determinados
𝑛→∞
unicamente. Esse fato ocorreu devido a esta cadeia de Markov não ser
irredutível.
ℙ[𝑍1 = 𝑛 + 1 |𝑍𝑛 = 𝑛] = 𝜆𝑛
ℙ[𝑍1 = 𝑛 − 1 |𝑍𝑛 = 𝑛] = 1 − 𝜆𝑛 = 𝜇𝑛
ℙ[𝑍1 = 𝑘 |𝑍𝑛 = 𝑛] = 0, ∀ 𝑘 ≠ 𝑛 − 1, 𝑛 + 1.
válidas:
𝑜(Δt)
𝑐) mais de um evento é desprezível e igual a 𝑜(Δt), onde lim =
Δt→∞ Δt
0.
reescrita como
intervalos disjuntos [0, 𝑡)𝑒 (𝑡, 𝑡 + Δt), verifica-se que o sistema está no estado
mutuamente excludentes:
Aplicações básicas de processos estocásticos e cadeias de Markov 38
E, ainda,
= 𝑃𝑛 (𝑡) − 𝜆𝑛 ΔtPn (𝑡) − 𝜇𝑛 ΔtPn (𝑡) + 𝑃𝑛−1 (𝑡)𝜆𝑛−1 Δt + Pn+1 (𝑡)𝜇𝑛+1 Δt + o(Δt) ∀ 𝑛 ≥ 1
E, ainda,
Aplicações básicas de processos estocásticos e cadeias de Markov 39
equações, obtêm-se:
e, também,
𝑑
𝑃 (𝑡) = 𝜆𝑛 𝑃𝑛 (𝑡) − 𝜇𝑛 𝑃𝑛 (𝑡) + 𝜆𝑛−1 𝑃𝑛−1 (𝑡) + 𝜇𝑛−1 𝑃𝑛−1 (𝑡) ∀𝑛 ≥ 1
𝑑𝑡 𝑛
𝑑
𝑃 (𝑡) = −𝜆0 𝑃0 (𝑡) + 𝜇1 𝑃1 (𝑡),
𝑑𝑡 𝑛
𝑑
𝑃 (𝑡) = 0 ∀𝑛, ∀𝑡 > 𝑡 ′ .
𝑑𝑡 𝑛
equações algébricas
0 = −𝜆0 𝑃0 + 𝜇1 𝑃1 . (1.9.7)
e, usando recorrência,
Aplicações básicas de processos estocásticos e cadeias de Markov 40
= 𝜆0 𝑃0 − 𝜇1 𝑃1 . (1.9.8)
𝜆𝑛−1 𝑃𝑛−1 − 𝜇𝑛 𝑃𝑛 = 0 ∀𝑛 ≥ 1,
então,
1
𝑃0 = , (1.9.11)
𝜆𝑖 − 1
1 + ∑𝑛≥1 ∏𝑛𝑖=1 𝜇𝑖
morte.
𝜆0 𝑃0 = 𝜇1 𝑃1 .
Aplicações básicas de processos estocásticos e cadeias de Markov 41
𝜆 ∀𝑛 e as taxas de morte 𝜇𝑛 = 0 ∀𝑛 ≥ 1.
𝑜(Δt)
onde lim = 0.
Δt→0 Δt
𝑑
𝑃 (𝑡) = −𝜆[𝑃𝑛 (𝑡) − 𝑃𝑛−1 (𝑡)] ∀𝑛 ≥ 1
𝑑𝑡 𝑛
𝑑
𝑃 (𝑡) = −𝜆𝑃0 (𝑡) , (1.10.3)
𝑑𝑡 0
𝑃0 (𝑡) = 𝑒 −𝜆𝑡 .
(𝜆𝑡)2 𝑒 −𝜆𝑡
𝑃2 (𝑡) =
2!
(𝜆𝑡)3 𝑒 −𝜆𝑡
𝑃3 (𝑡) =
3!
(𝜆𝑡)𝑛 𝑒 −𝜆𝑡
𝑃𝑛 (𝑡) = ∀𝑛 ≥ 0.
𝑛!
𝔼[𝑁(𝑡)] = 𝜆𝑡.
2.0 Aplicações
individuais dos jogadores para determinar uma estratégia ao longo dos jogos.
Este capítulo mostra como uma cadeias de Markov poderia ser usada para
os outros 24 estados são transientes, pois sempre que uma bola fora acontece,
probabilidades de ocorrerem outs por conta das ações dos batedores. Para
pelas bases, isto é, bases roubadas, wild pitches e bolas passadas não são
consideradas. Ainda assim, erros humanos dos jogadores em campo não são
Aplicações básicas de processos estocásticos e cadeias de Markov 45
run, um walk (avançar para a primeira base sem atingir a bola), um hit batsman
out. O modelo não assume duplas ou triplas jogadas e sacrifícios, apesar de ser
excluídos.
transição
A matriz de transição 28 x 28 da cadeia de Markov tem a forma canônica:
𝐼4 𝑆
𝑃=[ ],
𝑂 𝑄
onde 𝐼4 é uma matriz identidade 4x4, porque os únicos estados recorrentes são
(com 0, 1 ou 2 outs) para o estado absorvente (com 3 outs). Note que a única
𝑆 = [𝑂 𝑂 𝑋],
onde
𝑋= 0 𝑝0 𝑝0 𝑝0 0 0 0 0 1:3
0 0 0 0 𝑝0 𝑝0 𝑝0 0 2:3
0 0 0 0 0 0 0 𝑝0 3:3
para o estado de absorção com 3 outs. (Como exemplo, as colunas 2,3 e 4 listam
uma das três bases). A matriz subestocástica Q é formada por blocos 8x8, da
forma:
0 1 2
𝐴 𝑂 𝑂 0
𝑄 = [𝐵 𝐴 𝑂 ] 1
𝑂 𝐵 𝐴 2
As linhas e colunas de Q representam o número de outs. Os quatro blocos
matriz S.
outs aumenta. Neste caso, a configuração dos corredores nas bases não muda
𝐵 = 𝑝0 𝐼,
de outs: 0, 1 ou 2.
Aplicações básicas de processos estocásticos e cadeias de Markov 48
𝑝2 0 𝑝2 𝑝2 0 0 𝑝2 0 2:k
𝑋= 𝑝3 𝑝3 𝑝3 𝑝3 𝑝3 𝑝3 𝑝3 𝑝3 3:k
0 𝑝2 0 0 𝑝2 𝑝2 0 𝑝2 23:k
separadamente.
Exemplo:
de 2002. Pelas duas primeiras colunas, temos 612 walks ou hit batsman, então,
612
𝑝𝑊 = 6107 = 0,1002. Das 6107 vezes que um jogador foi para a batida, conseguiu
959
um single em 959, portanto, 𝑝1 = 6107 = 0,1507. Cálculos similares nos trarão os
valores de 𝑝2 , 𝑝3 , 𝑝𝐻 𝑒 𝑝0.
pelos Braves durante um half-inning. Primeiro, observe que, uma vez que três
𝑅 = 𝐵 − 𝐿 − 3.
𝐼4 𝑆
𝑃=[ ].
𝑂 𝑄
0,3520
0,3309
[ ].
0,2365
0,0805
2002.
Aplicações básicas de processos estocásticos e cadeias de Markov 51
de corredores na base é
A cadeia de Markov prevê, portanto, que os Braves terão, em média, 0,4594 runs
2
conquistados por inning. Em 1443 3 innings, o número total de runs conquistados
esperados é
O número real de runs conquistados pelos Braves em 2002 foi 636, portanto, o
como fizemos.
destes sites é melhor, mais importante, ou, de maneira mais criteriosa, mais
relevante e, portanto, este deveria ser aquele que aparece no topo da lista de
usuário ao realizar a busca. Pelo diagrama abaixo, percebemos que o site B tem
dois links, isto é, existem dois sites que redirecionariam diretamente ao site B, e,
relevância de um site pelo número de links que levam a ele, poderíamos, pois,
entender este processo como a eleição do melhor site por meio de ums istema
de votos.
sites, teríamos
site votos
A 1
B 2
C 2
associado ao autovalor 1.
Por esta análise, concluímos que o site C é o mais relevante, pois a probabilidade
3 5 1 1 1 5
Logo, 𝑉 = (𝑋1 , 4 𝑋1 , 4 𝑋1 ) e, tomando 𝑋1 = 3, temos 𝑉 = (3 , 4 , 2).
É facil ver que, na realidade, a tratativa para sites que contém um botão
optássemos por criar um site APENAS com o botão “Home”? Neste caso, o
Neste caso, é fácil ver que P não é regular e resolveremos o problema do ponto
.
Aplicações básicas de processos estocásticos e cadeias de Markov 57
1
Na prática, seria como se o site estivesse colocando a probabilidade de saltar
𝑛
Esse esquema é interpretado da seguinte maneira: o site A tem 3 links para seu
próprio site e um link direcionado ao C, enquanto este, por sua vez, tem ao todo
outro para o D.
A antes de conhecer B ou D?
Aplicações básicas de processos estocásticos e cadeias de Markov 58
antes de conhecer B ou D?
..
3 1
𝑄 = [4 4],
1 1
4 2
assim,
1 1
−
(𝐼 − 𝑄) = [ 4 4],
1 1
−
4 2
e, portanto,
(𝐼 − 𝑄)−1 = [8 4
] = 𝑁.
4 4
8 4 1
𝑡 = 𝑁𝐶 = [ ] [ ] = (12,8).
4 4 1
Aplicações básicas de processos estocásticos e cadeias de Markov 59
Assim, o número esperado de sites que o usuário visite antes de conhecer o site
1 1
0 0
8 4 1 1
𝐵 = 𝑁𝑅 = [ ][ ] = [2 2].
4 4 1 1
8 8
2 2
1
Deste modo, a probabilidade do usuário acessar o site B, saindo do site A, é 2.
mais coisas. Como, por exemplo, se um site A voltado à música tem um link para
outro site B que, por sua vez, é voltado à matemática, este link de A para B é
quase desprezível, pois estes sites não possuem a mesma base. Os conteúdos
colocar o endereço do site, que o Google atribiu uma nota em uma escala de 0
PageRank.
Aplicações básicas de processos estocásticos e cadeias de Markov 60
condições externas àquelas previstas nos dados iniciais não poderão interferir,
situação contrária.
1. 50% dos filhos de médicos se tornam médicos na vida adulta, 30% se tornam
e 40% advogados.
1. 30% dos filhos de médicos se tornam médicos na vida adulta, 30% se tornam
e 15% advogados.
𝑛 → ∞ e, portanto,
Aplicações básicas de processos estocásticos e cadeias de Markov 62
probabilidades 𝑢𝐴∗ e 𝑢𝐵∗ que, por sua vez, são obtidos como solução do sistema
𝑢𝐴∗ = (0.307087,0.393701,0.299213),
𝑢𝐵∗ = (0.241803,0.405738,0.352459),
isto é, a longo prazo, o número de médicos na cidade A será maior que o número
espera em diversas formas de filas. Tal teoria busca definir maneiras de lidar
situações reais. Fogliatti e Mattos (2007) definem um Sistema com Fila como
em termos de fluxo.
por várias décadas aos conceitos modernos dessa teoria. Já no ano de 1917,
documentada.
computadores.
atravessar uma rua sem sinal; Everett (1953), para o problema de escoamento
usuários que estao na fila são selecionados para serem atendidos. Os tipos
1. FIFO (first in - first out ): os usuários são atendidos na ordem das chegadas.
serão vistos.
filas e foi proposta por Kendall (1953). Considera-se a forma A/B/C/D/E, onde A
FIFO.
morte.
Aplicações básicas de processos estocásticos e cadeias de Markov 66
caracterizado por:
distribuições exponenciais;
mesmos ao sistema.
𝜆𝑛 = 𝜆 ∀𝑛 ≥ 0,
𝜇𝑛 = 𝜇 ∀𝑛 ≥ 1.
𝑃𝑛 (𝑡) = 𝑃𝑛 ∀𝑛 ≥ 0.
temos que
𝜆𝑛
𝑃𝑛 = 𝑛 𝑃0 ∀𝑛 ≥ 1,
𝜇
e
Aplicações básicas de processos estocásticos e cadeias de Markov 67
∞ −1
𝜆 𝑛
𝑃0 = [ ∑ ( ) ] ,
𝜇
𝑛=0
𝜆
onde a soma geométrica só converge se 𝜇 < 1. Neste caso, temos que
𝜆
𝑃0 = 1 − .
𝜇
𝜆
O parâmetro 𝜌 = 𝜇 é denominado taxa de utilização do sistema que, substituindo
𝑃𝑛 = 𝜌𝑛 (1 − 𝜌), ∀𝑛 ≥ 0,
dado por
𝜌
𝑊= .
1−𝜌
𝐿 = 𝔼[𝑁] = ∑ 𝑛𝑃𝑛 .
𝑛=0
∞ ∞ ∞
𝑛 𝑛−1
𝑑𝜌𝑛
𝐿 = (1 − 𝜌) ∑ 𝑛𝜌 = (1 − 𝜌)𝜌 ∑ 𝑛𝜌 = (1 − 𝜌)𝜌 ∑ .
𝑑𝜌
𝑛=0 𝑛=1 𝑛=1
∞ ∞
𝑑𝜌𝑛 𝑑
∑ = (∑ 𝜌𝑛 ),
𝑑𝜌 𝑑𝜌
𝑛=1 𝑛=0
dessa forma,
∞
𝑑 𝑑 1 1
𝐿 = (1 − 𝜌)𝜌 (∑ 𝜌𝑛 ) = (1 − 𝜌)𝜌 ( ) = (1 − 𝜌)𝜌 ( ),
𝑑𝜌 𝑑𝜌 1 − 𝜌 (1 − 𝜌)2
𝑛=0
fila
Seja 𝑁𝑞 a variável aleatória discreta que representa o número de usuários
𝑁 − 1, ∀𝑁 ≥ 1,
𝑁𝑞 = {
0, 𝑁 = 0,
de onde
∞ ∞ ∞
𝜌 𝜌 − 𝜌 + 𝜌2 𝜌2
= −1+1−𝜌 = = .
1−𝜌 1−𝜌 1−𝜌
Aplicações básicas de processos estocásticos e cadeias de Markov 69
𝑃(𝑁 ≥ 𝑘) = ∑ 𝑃𝑛 = ∑ 𝜌𝑛 (1 − 𝜌) = (1 − 𝜌) ∑ 𝜌𝑘+1
𝑛=𝑘 𝑛=𝑘 𝑘=0
∞
1
= (1 − 𝜌)𝜌 ∑ 𝜌𝑖 = (1 − 𝜌)𝜌𝑘
𝑘
,
1−𝜌
𝑖=0
𝑃(𝑁 ≥ 𝑘) = 𝜌𝑘 .
unidades que se encontram à sua frente e do tempo que essas unidades levam
0. Então,
𝑊𝑞 (𝑡) = 𝑃(𝑇𝑞 ≤ 𝑡)
e, para 𝑡 > 0,
∞
Seja 𝑇(𝑛) a variável aleatória contínua que representa a soma dos tempos
𝑇(𝑛) segue uma distribuição de Erlang com parâmetros 𝑛 𝑒 𝜇. Então, para todo
𝑡 > 0,
∞
∞ 𝑡
𝜇(𝜇𝑥)𝑛−1 −𝜇𝑥
= (1 − 𝜌) + ∑[𝜌𝑛 (1 − 𝜌)] (∫ 𝑒 𝑑𝑥)
0 (𝑛 − 1)!
𝑛=1
𝑡 ∞
−𝜇𝑥
(𝜆𝑥)𝑛−1
= (1 − 𝜌) + 𝜌(1 − 𝜌) ∫ (𝜇𝑒 ∑ ) 𝑑𝑥
0 (𝑛 − 1)!
𝑛=1
𝑡
𝑥
= (1 − 𝜌) + 𝜌(1 − 𝜌)𝜇 ∫ 𝑒 −(𝜇−𝜆) 𝑑𝑥.
0
𝑊𝑞 (𝑡) = (1 − 𝜌) + 𝜌 − 𝜌𝑒 −(𝜇−𝜆)𝑡
𝑡
1 − 𝜌𝑒 −(𝜇−𝜆) .
determinada variável aleatória pode ser obtida como a derivada de sua função
1 1
𝔼[𝑇] = =
𝜇(1 − 𝜌) 𝜇 − 𝜆
∞
𝑊𝑞 = 𝔼[𝑇𝑞 ] = ∫ 𝑡𝜔𝑞 (𝑡) 𝑑𝑡
0
∞
𝑡
= ∫ 𝑡𝜌(𝜇 − 𝜆)𝑒 −(𝜇−𝜆) 𝑑𝑡
0
Aplicações básicas de processos estocásticos e cadeias de Markov 72
𝜆 𝜌
= = .
𝜇(𝜇 − 𝜆) 𝜇 − 𝜆
1 𝜆 1 1
𝑊 = 𝑊𝑞 + = + = .
𝜇 𝜇(𝜇 − 𝜆) 𝜇 𝜇 − 𝜆
𝑡
𝑃(𝑇𝑞 > 𝑡) = 1 − 𝑊𝑞 (𝑡) = 𝜌𝑒 −(𝜇−𝜆) .
𝜆𝑛 = 𝜆 ∀𝑛 ≥ 0
e
Aplicações básicas de processos estocásticos e cadeias de Markov 73
𝑛𝜇 , 𝑠𝑒 1 ≤ 𝑛 < 𝑐,
𝜇𝑛 = {
𝑐𝜇 , 𝑠𝑒 𝑛 ≥ 𝑐.
𝜆
Denotando 𝑟 = 𝜇, a taxa de utilização do sistema é dada por
𝑟 𝜆
𝜌= = .
𝑐 𝑐𝜇
𝑃0 𝑟 𝑛
, 𝑠𝑒 1 ≤ 𝑛 < 𝑐,
𝑃𝑛 = { 𝑛! ,
𝑃0 𝑟 𝑛
, 𝑠𝑒 𝑛 ≥ 𝑐
𝑐 𝑛−𝑐 𝑐!
𝑐−1 ∞
𝑟𝑛 𝑟𝑐
= 𝑃0 (∑ + ∑ 𝜌𝑖 ).
𝑛! 𝑐!
𝑛=0 𝑖=0
∞ 𝑐−1
𝑟𝑛 𝑟𝑐 1
∑ 𝑃𝑛 = 𝑃0 [(∑ ) + . ]
𝑛! 𝑐! 1 − 𝜌
𝑛=0 𝑛=0
𝑐−1
𝑟𝑛 𝑐𝑟 𝑐
= 𝑃0 [(∑ + )].
𝑛! 𝑐! (𝑐 − 𝑟)
𝑛=0
Como ∑∞
𝑛=0 𝑃𝑛 = 1, então
𝑐−1 −1
𝑟𝑛 𝑐𝑟 𝑐
𝑃0 = (∑ + ) .
𝑛! 𝑐! (𝑐 − 𝑟)
𝑛=0
∞
𝑃0 𝑟 𝑐+1 (𝑛 − 𝑐)𝑟 𝑛−𝑐−1
= .∑
𝑐! 𝑐 𝑐 𝑛−𝑐−1
𝑛=𝑐
∞
𝑃0 𝑟 𝑐+1 𝜕 𝑟 𝑛
= . 𝑟 ∑( )
𝑐! 𝑐 𝜕 ( ) 𝑐
𝑐 𝑛=0
1
𝜕( 𝑟)
𝑃0 𝑟 𝑐+1 1−𝑐
= . 𝑟
𝑐! 𝑐 𝜕 (𝑐 )
𝑃0 𝑟 𝑐+1 1 𝑃0 𝑐𝑟 𝑐+1
= . = .
𝑐! 𝑐 𝑟 2 𝑐! (𝑐 − 𝑟)2
(1 − 𝑐 )
𝑟 𝑐+1 𝑐
Número médio de usuários no sistema: 𝐿 = 𝑟 + [𝑐!(𝑐−𝑟)2] 𝑃0 .
𝑟𝑐𝜇
Tempo médio de espera na fila: 𝑊𝑞 = (𝑐−1)!(𝑐𝜇−𝜆)2 𝑃0 .
1 𝑟𝑐𝜇
Tempo médio de permanência no sistema: 𝑊 = 𝜇 + [(𝑐−1)!(𝑐𝜇−𝜆)2 ] 𝑃0 .
ou seja,
𝑐−1 𝑐−1
𝑟𝑛
𝑃(𝑇𝑞 = 0) = 𝑃(𝑁 ≤ 𝑐 − 1) = ∑ 𝑃𝑛 = 𝑃0 ∑ .
𝑛!
𝑛=0 𝑛=0
𝑃0 𝑐𝑟 𝑐
𝑊𝑞 (0) = 𝑃(𝑇𝑞 = 0) = 1 − .
𝑐! (𝑐 − 𝑟)
então, dado que os tempos de serviço são exponenciais com taxa 𝜇, 𝑇(𝑛) segue
𝑊𝑞 (𝑡) = 𝑃(𝑇𝑞 ≤ 𝑡) ,
o que implica
∞
∞ ∞
𝑟𝑛
𝜇𝑐(𝜇𝑐𝑥)𝑛−𝑐 −𝜇𝑐𝑥
= 𝑊𝑞 (0) + 𝑃0 ∑ 𝑛−𝑐 ∫ 𝑒 𝑑𝑥
𝑐 𝑐! 0 (𝑛 − 𝑐)!
𝑛=𝑐
∞ ∞
𝑃0 𝑟 𝑐 (𝜇𝑟𝑥)𝑛−𝑐
= 𝑊𝑞 (0) + ∫ 𝜇𝑒 −𝜇𝑐𝑥 ∑ 𝑑𝑥
(𝑐 − 1)! 0 (𝑛 − 𝑐)!
𝑛=𝑐
Aplicações básicas de processos estocásticos e cadeias de Markov 76
𝑡
𝑃0 𝑟 𝑐
= 𝑊𝑞 (0) + ∫ 𝜇𝑒 −𝜇(𝑐−𝑟)𝑥 𝑑𝑥
(𝑐 − 1)! 0
𝑃0 𝑟 𝑐 1 − 𝑒 −𝜇(𝑐−𝑟)𝑡 𝑃0 𝑟 𝑐
= 𝑊𝑞 (0) + . = 1− 𝑒 −(𝑐𝜇−𝜆)𝑡 .
(𝑐 − 1)! 𝑐−𝑟 𝑐! (1 − 𝜌)
uma Instituição de ensino, onde observamos, por dois dias, o fluxo de pessoas
que seria a data-limite para inscrição num programa específico e outro, sem
atendimento, o que nos leva a consideraro modelo com dois postos de serviço.
fechamento poderia ficar esperando para ser atendido e, além disso, a casa
lotérica, tendo uma fila única, atende primeiro quem chega primeiro (modelo
Poisson
Aplicações básicas de processos estocásticos e cadeias de Markov 77
(𝑂𝑖 −𝑂𝑒 )2
apresentadas na Tabela 1, no intuito de calcular-se a estatística 𝑋 2 = e
𝑂𝑒
2
compará-la com o quantil de uma 𝑋2;95% .
Tabela 1:
2
Tivemos que 𝑋 2 = 0,99136 < 𝑋1;95% = 5,991, logo, aceitamos a hipótese
Uma vez que foi estabelecido o modelo de fila que será utilizado, bem
probabilidade de formação de fila é baixa. Outro ponto que vale a pena ser
da teoria apresentada.
Tabela 2:
Aplicações básicas de processos estocásticos e cadeias de Markov 78
3.0 Conclusão
pode-se dizer que foi possível solidifcar alguns conceitos importantes vistos
matemática , que é fundamental para aqueles que queiram fazer uma pós-
Referências
[1] LAY, David C. Linear Algebra and It’s Applications. University Of Maryland –
2013.
[3] OLVER, Peter J and SHAKIBAN, Chehrzad. Applied Linear Algebra. Pearson.
2006.
California. 1996.
Venezuelana. 2004.
UEPB.