Escolar Documentos
Profissional Documentos
Cultura Documentos
Ciências Actuariais
Tema:
Processos Estocásticos
Discentes:
Docente:
Beira
Junho de 2021
Índice
1. Introdução.............................................................................................................................2
1.2. Objectivos:........................................................................................................................2
1.3. Problematização................................................................................................................3
1.4. Justificativa.......................................................................................................................3
3.1. Conclusão............................................................................................................................10
1.2. Objectivos:
1.2.1. Objectivo Geral
Compreender aspectos relacionados com a cadeia de Markov em tempo continuo.
1.3. Problematização
Torna-se necessário estudar os processos estocástico com vista a se ter noção de conhecimentos
da natureza do tempo e do espaço em matérias ligadas a probabilidades.
1.4. Justificativa
O presente trabalho, constitui um tópico recomendado pelo docente da cadeira de processos
estocástico no âmbito de estudo de casos concretos em grupo para fins de avaliação.
CAPITULO II: ENQUADRAMENTO TEORICO
2.1. Processos Estocásticos
Segundo Hillier e Lieberman (2013), um processo estocástico pode ser definido como um
conjunto de variáveis aleatórias (variável que apresenta um comportamento aleatório) ordenadas
Xt sendo que t é o índice que representa a variação do tempo, que pertence a um conjunto
T { X :t T }t ∈.
Um Processo Estocástico é definido como uma colecção de variáveis randómicas ( X (t))
indexadas por um parâmetro t pertencente a um conjunto T . Frequentemente T é tomado para ser
o conjunto dos inteiros não-negativos (porém, outros conjuntos são perfeitamente possíveis) e
X ( t) representa uma característica mensurável de interesse no tempo t. Exemplificando, X (t )
pode representar o nível de estoque de um produto no fim da semana t.
Exemplos:
1. Número de usuários em uma fila de banco em um determinado
instante: Estado Discreto e Tempo Contínuo.
2. Índice pluviométrico diário: Estado Contínuo e Tempo Discreto.
3. Número de dias chuvosos: Estado Discreto e Tempo Discreto.
Existem vários "tipos" de Processos Estocásticos, porém, nestas notas de aula
será apenas abordado um tipo de Processo Estocástico denominado Processo
Markoviano.
Conceito 2.
Processos de Markov de tempo contínuo são similares aos processos de Markov de tempo
discreto excepto pelo fato de que as transições entre estados podem ocorrer em qualquer instante
de tempo. O conjunto que denota o espaço de estados do processo, a exemplo dos processos de
Markov estudados anteriormente, é discreto, podendo ser finito ou infinito.
Com o objectivo de caracterizar precisamente os processos Markovianos de tempo contínuo,
buscaremos a seguir estabelecer formalmente as relações que regem seu comportamento. As
cadeias de Markov em tempo contínuo podem ser descritas de modo semelhante àquela em
tempo discreto, divergindo-se no fato de que as transições podem ocorrer em qualquer instante
de tempo (KARLIN e TAYLOR, 1998).
De acordo com Alves e Delgado (1997), nas cadeias de Markov em tempo contínuo é
importante considerar o tempo em que o processo permanece em cada estado, diferentemente da
cadeia de Markov em tempo discreto. Esse tempo é aleatório, podendo ser representado por τi ,
ou seja, o tempo que o processo permanece no estado i . Portanto, para que uma cadeia de
Markov de tempo contínuo esteja completamente definida, precisamos conhecer os estados que
compõem o espaço de estados discreto E, o parâmetro que representa a distribuição de cada
variável τi , que definiremos como ϑ i , e as probabilidades de transição para outro estado j , que
já conhecemos e podemos denotar como Pij.
A variável ϑ i, de acordo com Alves e Delgado (1997), é o número esperado de vezes em que o
processo sairá do estado i pela unidade de tempo que ele permaneceu no estadoi .
(F) (P)
( F) 0.6677 0.3323
P 16= [
( P) 0.6644 0.3356 ]
∑ π j=1
j
Subtraindo πj pij a ambos os membros das equações (1) do sistema, elas podem ser re-escritas da
seguinte forma π j (1− pjj )=å i 1 j π i pij ,tendo a seguinte interpretação:
Por outras palavras, a distribuição da variável aleatória “tempo de permanência num dado
estado” é independente do tempo que o processo tenha já passado nesse estado (propriedade da
ausência de memória). Como a única distribuição contínua que goza desta propriedade é a
distribuição exponencial, concluímos que ti tem distribuição exponencial.
Suponhamos que a variável aleatória ti ³ 0 tem distribuição exponencial com parâmetro
(taxa) mi. Então a função distribuição é dada por Fti(t)=P {ti £ t }=1−e – t mi t ³ . O valor
esperado é E [ti]=1/mi e a variância é V [ti]=1/mi 2, verificando-se sempre que a média é igual
ao desvio padrão, sendo ambos iguais ao inverso do parâmetro.
A distribuição exponencial goza de duas propriedades muito importantes no estudo das cadeias
de Markov em tempo contínuo, as quais serão apresentadas sem qualquer demonstração. Uma,
que foi já referida é a propriedade da “ausência de memória”, segundo a qual
P {ti>t + s∨ti >s }=P {ti>t }, s,t ³ 0.
A outra diz-nos que se avariável aleatória tminfor o mínimo de diferentes variáveis aleatórias
independentes (t 1 , t 2 , … ,tN ), cada qual com distribuição exponencial de parâmetro
mi (i=1 ,… , N ), então tmin tem também distribuição exponencial, sendo o parâmetro dado por:
m=∑ mi.
i
Representação
Uma Cadeia de Markov em tempo contínuo fica completamente definida se conhecermos
os estados X ={0 , 1 ,2 , … , s }, o parâmetro mi da distribuição (exponencial) de cada variável ti
(tempo de permanência em cada estado i) e as probabilidades de o processo transitar para o
estado j , dado que saiu do estadoi( pij). Em alternativa a conhecer os parâmetros mi e as
probabilidades pij , basta conhecer as taxas de transição entre os estados, mij .
A interpretação intuitiva de mi e de mijé de que se trata de taxas de transição.
Concretamente, mié a taxa de transição para fora do estado i, significando que mi é o número
esperado de vezes que o processo sai do estado i por unidade de tempo passado no estado i.
Assim, mi é o inverso do tempo médio de permanência no estadoi, ou seja, E [ti]=1/mi. De
modo semelhante, mijé a taxa de transição do estado i para o estado significando isto que mij é o
número esperado de vezes que o processo efectua uma transição de i para j por unidade de tempo
passado no estado i. Existem duas formas de representação: graficamente, através do “diagrama
de transições”, ou através de uma matriz quadrada U que contem as taxas de transição. Num
diagrama de transições cada estado é representado por um vértice, e cada arco orientado ligando
dois vértices representa uma transição possível entre dois estados,
sendo o coeficiente associado ao arco a respectiva taxa.
Na matriz U, cada linha i representa o estado actual e cada coluna j representa o estado
futuro (a ordem dos estados actuais deve ser igual à dos estados futuros, respectivamente, nas
linhas e nas colunas de U).
Deste modo, o elemento mij da matriz representa a taxa de transição do estado i para o estado j.
As taxas de transição mij são dadas por mij=mi pij (i ¹ j) , e portanto verifica-se que
∑ j ¹mij =mi ∑ j ¹ pij=mi .
j j
McGraw-Hill.
Kleinrock, Leonard (1975), Queueing Systems (Vol. I: Theory), John Wiley & Sons.