Escolar Documentos
Profissional Documentos
Cultura Documentos
Notas de Aula
PROCESSOS ESTOCASTICOS I
ÍNDICE
1. Processos estocásticos
1.1. Definições
Variável Aleatória
É uma função escalar que, para cada resultado do espaço amostral de um experimento
aleatório, associa um número real x( ) :
X
1 x(1 )
x( 2 )
2
x ( i )
i
→ x( ) X
Vetor Aleatório
É uma função vetorial que, para cada resultado do espaço amostral de um experimento
aleatório, associa um vetor n-dimensional ~
x ( ) n . Assim, a cada elemento do espaço
amostral está associado não a um único valor x = X(), como no caso da uma variável
aleatória (vide Figura 1.1), mas sim a um vetor ~
x ( ) n , conforme mostrado na
1 ~
x (1 ) = {x1 (1 ), x2 (1 ), ,...xn (1 )}
2 ~
x ( 2 ) = {x1 ( 2 ), x2 ( 2 ), ,...xn ( 2 )}
~
x (i ) = {x1 (i ), x2 (i ), ,...xn (i )}
i
→ ~
x ( ) X
x(t,1)
t
1 0 T
x(t,2)
2
i t
0 T
x(t,i)
t
0 T
Figura 1.3 - Representação esquemática de um processo estocástico.
Assim, temos:
x : → F
(1.1) (1.1)
→ x(t , ), t
Observe que x(t , ) depende de duas variáveis: t, que é o instante de tempo para o qual se
=> fixar t, e avaliar os diversos valores que se poderia observar para x neste mesmo instante
de tempo, dependendo do resultado do experimento aleatório.
Para facilitar a notação, o processo estocástico x(t , ) será denotado, daqui por diante,
simplesmente por x(t).
Com esta notação, pode-se definir um processo estocástico como sendo “uma seqüência de
variáveis aleatórias” x(t), uma para cada valor de t. Para este processo, define-se:
• t: Parâmetro que indica em que instante o valor da variável aleatória deve ser avaliado;
• Acompanhamento do peso de uma pessoa que está fazendo uma dieta, com medições no
início de cada dia;
• Processo estocástico com espaço de estados discreto ou contínuo, conforme x seja uma
v.a. discreta ou contínua, respectivamente.
Como vimos anteriormente, ao se fixar o parâmetro t, o valor x(t) é uma variável aleatória, e
o processo estocástico pode ser visto como um conjunto de v.a., um para cada instante de
tempo t.
Desta forma, é possível estudar o comportamento e tentar descrever as v.a. x(t), para t=t1,
t2,...etc. Por exemplo, pode-se querer determinar:
p x (t ) ( x), x X
(1.2) ou para qualquer valor de tT (1.2)
f ( x), x X ,
x (t )
Pode-se, por exemplo, verificar se um P.E. é estacionário, ou seja, as características das v.a.
x(t) (distribuição de probabilidades, valor médio, variância) não variam conforme o valor
do parâmetro t.
Algumas propriedades dos P.E. serão estudadas com mais detalhes no curso de Processos
Estocásticos II, onde. são referenciados com o nome “séries temporais”, pelo fato do
parâmetro t quase sempre representar o tempo.
Dois tipos importantes de processo estocástico será estudado nesse curso: as cadeias de
Markov e a Teoria das Filas.
2. Cadeias de markov
Exemplos:
• Passeio aleatório, onde uma partícula se desloca em uma reta, dando passos para a frente
ou para trás, conforme o resultado do lançamento de uma moeda;
Estados: {0,1,2,3...}
Uma cadeia de Markov é um tipo especial de processo estocástico, que possui a seguinte
propriedade básica:
“as características desse processo no futuro não dependem do passado, apenas do estado
presente do sistema”
Ou seja, “a probabilidade da cadeia se situar no estado j no próximo instante t+1 depende tão
somente do estado do sistema no instante atual t, independentemente do caminho percorrido
pelo sistema até chegar a esse estado”
será uma cadeia de Markov se a seguinte proposição for verdade, para qualquer estado j e
instante n:
onde it indica o estado da cadeia para o instante t (ou seja, corresponde ao valor observado
As seguintes probabilidades podem ser obtidas a partir do estudo de uma cadeia de Markov:
E
Propriedade: p
j =1
t
i, j = 1, i, t
estado j no próximo instante ou passo t+1, dado que o sistema se encontra no estado i no
instante atual.
Definição. Uma cadeia de Markov será dita estacionária se ela tiver probabilidades de
transição estacionárias, ou seja:
A expressão (2.2) indica que, em uma cadeia de Markov estacionária, essa probabilidade não
depende do instante de tempo n, e pode ser denotada simplesmente por pij
• jogo de moeda;
Definição. Considere uma cadeia de Markov estacionária com E estados possíveis. A matriz
de transição PEE:=P[i,j],i=1,...E, j=1,...E indica as probabilidades de transição em um espaço de
tempo dessa cadeia. Ou seja, o elemento da linha i e coluna j dessa matriz, denotado por pij,
corresponde à probabilidade do sistema passar do estado i em determinado instante para o
estado j no instante seguinte:
K
(2.4) pij = 1, i
j =1
(2.4)
já que, uma vez no estado i no instante n, o sistema deve obrigatoriamente ir para um outro
estado j ou permanecer no próprio estado i no próximo instante de tempo.
É possível que, em uma cadeia de Markov, algumas das probabilidades de transição sejam
nulas. Portanto, para visualizar melhor as possibilidades de transição dessa cadeia, é
importante desenhar o diagrama de estados dessa cadeia, conforme mostra a Figura 2.1, que
representa o diagrama de estados da cadeia de Markov descrita pela matriz de transição da eq.
(2.5).
p11
p12
1 2
p21
3 4
p43
p44
Figura 2.1 - Diagrama de estados de uma cadeia de Markov com 4 estados indicada
pela matriz de transição (2.5).
p{ X t + 2 = 2 X t = 1} = P{ X t + 2 = 2 X t +1 = 1} P{ X t +1 = 1 X t = 1} +
P{ X t + 2 = 2 X t +1 = 2} P{ X t +1 = 2 X t = 1} +
(3.1) (3.1)
P{ X t + 2 = 2 X t +1 = 3} P{ X t +1 = 3 X t = 1} =
= p12 p11 + p22 p12 + p32 p13
A expressão (3.1) deixa claro que há três formas de se passar do estado 1 no instante t para o
estado 2 no instante t+2:
• Permanecer no estado 1 em t+1 (com probabilidade p11), e depois passar para o estado 2
em t+2 (com probabilidade p12). A probabilidade desses dois eventos acontecerem será o
produto p12p11;
• Passar para o estado 2 em t+1 (com probabilidade p12), e depois permanecer no estado 2
em t+2 (com probabilidade p22). A probabilidade desses dois eventos acontecerem será o
produto p22p12;
• Passar para o estado 3 em t+1 (com probabilidade p13), e depois passar para o estado 2 em
t+2 (com probabilidade p32). A probabilidade desses dois eventos acontecerem será o
produto p32p13.
Como essas três formas acima são mutuamente excludentes, decorre então que a
probabilidade desejada será p12 p11 + p22 p12 + p32 p13 . Mas o que isso significa
matricialmente? Como mostra a Figura 3.2, essa expressão corresponde à multiplicação dos
elementos da segunda coluna da matriz P pelos elementos da primeira linha da matriz, ou
seja, é o elemento (1,2) da matriz P2.
p{ X t +3 = 2 X t = 1} = P{ X t +3 = 2 X t + 2 = 1} P{ X t + 2 = 1 X t = 1} +
P{ X t +3 = 2 X t + 2 = 2} P{ X t + 2 = 2 X t = 1} +
(3.2) (3.2)
P{ X t +3 = 2 X t + 2 = 3} P{ X t + 2 = 3 X t = 1} =
= p12 p112 + p22 p122 + p32 p132
que corresponde à multiplicação da primeira linha da matriz P pela segunda coluna da matriz
P2 (de forma semelhante à mostrada na Figura 3.2), correspondendo ao elemento (1,2) da
matriz P3. Teremos então que:
(1)
( 2)
(3.4) := , (3.4)
...
( E )
onde (i ) = P{ X 0 = i} .
Qual a probabilidade do sistema estar em cada estado em t+k, sabendo-se que no instante t o
sistema pode estar em qualquer um dos estados, de acordo com o vetor de probabilidades ?
Estas probabilidades serão dadas por:
E
P{ X t + k = j} = p[ X t + k = j X t = i ] =
i =1
E
(3.5) = (i ) P k [i, j ] = (3.5)
i =1
P k ( j ),
Considere uma função f(i) que, a cada estado i, associa um valor f(i), que pode ser
considerado como um retorno (lucro, por exemplo) que ocorre quando o sistema está no
estado i. Pode-se então definir um vetor de retornos f:
f (1)
f (2)
(4.1) f := (4.1)
...
f ( E )
P k f (i0 ),
(1)
( 2)
(4.3) := , (4.3)
...
( E )
onde (i ) = P{ X 0 = i} .
E E
E[ f ( X t + k )] = f (i ) (i0 ) p[ X t + k = i X t = io ] =
(4.4) i =1 i0 =1 (4.4)
= P k f ,
A seguir, iremos estudar com mais detalhes a estrutura da matriz de transição P. Com isso,
pode-se entender o comportamento observado por alguns estados (ou conjuntos de estados)
ao longo da vida útil da cadeia.
Em uma cadeia de Markov, cada estado estará obrigatoriamente em uma (e somente uma) das
duas categorias a seguir:
• Estado recorrente: é um estado que, uma vez atingido, será sempre visitado (mesmo
que de vez em quando) ao longo da vida útil da cadeia. Em outras palavras, o número de
vezes em que o sistema retornará a esse estado, se a cadeia evoluir indefinidamente no
tempo iniciando-se nesse estado, é igual a ;
• Estado transiente: é um estado que, uma vez atingido, pode voltar a ser atingido
novamente no futuro, mas em algum momento no futuro (não interessa quando), ele
nunca mais será atingido novamente.
Existe um caso especial de estado recorrente que é o estado absorvente, que será visto mais
adiante.
A identificação dos estados recorrentes e transientes de uma cadeia é feita observando-se sua
matriz de transição e o seu diagrama de estados. Será útil também definir os seguintes
conjuntos de estados:
(5.1) P(i, j ) = 1, i C.
jC
(5.1)
Definição. Diz-se que dois estados i e j se comunicam entre si (ou seja, são comunicantes) se
é possível de alguma forma, passar do estado i para o estado j, e vice-versa (a comunicação
deve ser recíproca).
No diagrama de estados de uma cadeia de Markov, um conjunto fechado é aquele que, uma
vez envolvido, não apresentará nenhum arco saindo do conjunto. E, em particular, será
irredutível se é possível, a partir de qualquer nó desse conjunto, se atingir qualquer outro nó
nesse conjunto.
• Estados recorrentes: são todos os estados que pertencem a algum conjunto irredutível;
• Estados transientes: são os estados que não pertencem a nenhum conjunto irredutível.
A partir de um estado inicial, a cadeia de Markov apresentará determinada evolução, que será
aleatória visto que as transições são ditadas pelas probabilidades. Dependendo da condição
inicial da cadeia, temos que:
Ao atingir um conjunto irredutível, este pode ter apenas um estado, que será então um estado
absorvente. Portanto, a cadeia permanecerá para sempre neste mesmo estado.
Uma vez atingido um conjunto irredutível, a cadeia irá ficar transitando para sempre entre os
estados desse conjunto, atingindo cada um deles uma determinada proporção (percentual) de
vezes. É possível calcular esses percentuais de tempo em que a cadeia permanecerá, em
média, em cada estado. Estes percentuais são denominados probabilidades em regime
permanente da cadeia, calculados da forma a seguir.
P =
(6.1) (6.1)
i = 1
iE
Se a cadeia de Markov como um todo não for irredutível, não se pode resolver o sistema (6.1)
para a matriz completa.
Entretanto, pode-se mostrar que a matriz de transição de qualquer cadeia de Markov pode
ser rearranjada em submatrizes, da seguinte forma:
P1
P2
(6.2) P = (6.2)
PS
B1 B2 ... BS Q
Os estados remanescentes são transientes, cuja sub matriz de probabilidade entre si é dada
por Q, e as submatrizes Bi indicam as probabilidades de transição que fazem a cadeia “cair”
em cada subonjunto irredutível i.
( s ) P s = ( s )
(6.3) , s = 1,...S (6.1)
i = 1
iCi
Onde (s) corresponde ao vetor que contém as probabilidades permanentes apenas dos estados
que pertencem ao conjunto irredutível s.