Escolar Documentos
Profissional Documentos
Cultura Documentos
Discente:
Docente:
Beira 2022
0
UNIVERSIDADE ZAMBEZE
estocásticos.
Discente:
Docente:
1
Dr. Dinis Simbe
Beira 2022
Índice
1. Introdução.................................................................................................................4
1.1. Objetivos................................................................................................................5
2.1. Metodologia...........................................................................................................5
2
1. Introdução
No presente trabalho iremos abordar sobre cadeias de Markov, também Cadeias
Notáveis de Markov. Onde iremos trazer conceitos, propriedades, matriz entre
outros.
3
1.1. Objetivos
2.1. Metodologia
A metodologia estuda os métodos que são caminhos para se chegar ao
alcance de determinados resultados pré-estabelecidos, Portanto Para
elaboração deste trabalho recorremos ao método de pesquisa
bibliográfica.
4
2.2. Fundamentação teórica
3. CONCEITO
5
As probabilidades condicionais na tabela 2, em termos informais, podem ser
entendidas como:
Fica
de I para III ⇒ a probabilidade do estado ser III após 5 anos, dado que o
t=1993, fica
t=1993, fica
Os valores da tabela 2 podem ser então dispostos em uma matriz P, denominada Matriz
de Transição:
denominado
6
3.2. Cadeias de Markov
Exemplo: dado acima é então uma Cadeia de Markov porque o espaço de estados é
discreto. Quando o tempo é discreto, a Cadeia de Markov é dita ser uma Cadeia de
Markov em Tempo Discreto. Neste caso, tem-se:
7
e
8
Seja a probabilidade de transição do estado i para o estado j de passo n, pode-se
escrever que:
∀ i = 1,0 ,...,M
∀ j = 1,0 ,...,M
9
O vetor probabilidade de estado π para o exemplo da câmera no tempo 0 é:
10
Estados Recorrentes e Transientes:
Um estado é dito ser Transiente (Temporário, Efêmero, Transitório) se, entrando neste
estado, o processo pode nunca retornar novamente para este estado. Portanto, o estado i
é transiente se e somente se existe um estado j (j ≠ i) que é alcançável a partir do estado
i mas não vice-versa, isto é, o estado i não é alcançável a partir do estado j. Assim, se o
estado i é transiente e o processo visita este estado, há uma probabilidade positiva que o
processo irá mover-se para o estado j e assim nunca irá retornar para o estado i.
Consequentemente, um estado transiente será visitado somente um número finito de
vezes. Um estado é dito ser Recorrente se entrando neste estado, o processo
definitivamente irá retornar para este estado. Portanto, um estado é recorrente, se e
somente se, não é transiente. Uma vez que o estado recorrente será "revisitado" após
cada visita (não necessariamente no próximo passo do processo), este será visitado
infinitamente para o processo em tempo infinito. Um estado é dito ser Absorvente se
entrando neste estado, o processo nunca irá deixar este estado. Portanto, um estado i é
absorvente se e somente se Com isso, pode-se afirmar que um estado
absorvente é um caso especial de um estado recorrente. Em uma Cadeia de Markov, um
conjunto C de estados é dito ser um Conjunto Fechado se o processo ao entrar em um
desses estados de C, este irá permanecer nos estados de C indefinidamente, ou seja, C é
um conjunto tal que nenhum estado fora de C é alcançável a partir de qualquer estado de
C. Com isso, pode-se afirmar que C é um conjunto formado por estados recorrentes. Em
11
e nunca mais irá retornar para este estado. Os estados 0 e 1 são recorrentes. Através de P
percebe que se o processo começar a partir de um desses dois estados, este nunca
deixará estes dois estados. Além disto, sempre quando o processo move-se a partir de
um destes estados para o outro, este irá retornar para o estado original eventualmente. O
estado 2 é um estado absorvente, pois, uma vez que o processo entra no estado 2, este
nunca mais o deixará. Os estados 0, 1 e 2 formam um conjunto fechado C, uma vez que
se o processo entrar em um destes estados, nunca os deixará. Os estados 0 e 1 formam
um conjunto fechado mínimo, bem como o estado 2.
divisor comum). Isto implica que sempre quando n não é divisível por t.
Exemplo:
12
Se há dois números consecutivos s e s + 1 tal que o processo pode estar no estado i nos
tempos s e s + 1, o estado é dito ter período 1 e é chamado estado Aperiódico. Como a
recorrência é uma classe de propriedade, a periodicidade também é uma classe de
propriedade. Assim, se um estado i em uma classe tem período t, todos os estados nesta
classe têm período t.
5. Distribuição Estacionária.
13
Seja { C n } Uma cadeia de Markov com espaço S e matriz de probabilidade de transição
P=(px.y). se π (x) , com x ∈ S satisfaz que é formada de números não negativos que
somam um e se
Nesta seção vamos determinar qual Cadeia de Markov tem distribuição estacionária,
quando esta distribuição é única e quando o limite acima se cumpre.
Exemplo:
No caso uma cadeia de markov com estados S={ 0,1 } e matriz de transição
se p+q¿0, esta cadeia tem uma única distribuição estacionaria π , dada por
14
Podemos mostrar também que se 0¿p+q¿2, a expressão no limite acima é valida.
x F caso contrário
6. Cadeia aperiódica
Uma condição suficiente simples para uma Cadeia de Markov irredutível ser aperiódica
é que px,x>0 para algum x∈S.
A proposição mostra que os estados de uma cadeia de Markov irredutível têm todos o
mesmo período, d, que é chamado de período da cadeia de Markov. A cadeia é dita
aperiódica se seu período for d = 1. Para uma cadeia de Markov irredutível ser
aperiódica, é suficiente (mas não necessário) que pii> 0 para algum i. Por exemplo, o
gráfico de transição da figura 3 define uma cadeia de Markov irredutível e aperiódica.
15
Os Processos de Nascimento-Morte são processos estocásticos muito utilizados na
descrição de Sistemas de Filas de Espera, dada a sua particular estrutura: as transições
de um qualquer estado só são possíveis para estados “vizinhos” (i.e., de um estado i para
os estados i+1 ou i-1). Adotando-se um espaço de estados X ={0, 1, …} e considerando
que cada estado representa um certo “nível de população” (exemplo: número de clientes
numa loja, número de mensagens num coletor de chamadas, número de produtos a
processar, etc.), tais transições podem ser facilmente interpretadas. A transição do
estado i para o estado i+1 será um “nascimento” (por exemplo, chegada de um cliente),
uma vez que significa um aumento do “nível da população”. Enquanto a transição do
estado i para o estado i-1 será uma “morte” (por exemplo, partida de um cliente), por
significar um decréscimo do “nível da população.
Sendo assim:
16
6.2. Teoria de filas
A teoria das filas envolve o estudo matemático das “filas”, ou filas de espera. Filas
podem existir na forma de pessoas ou objetos esperando algum tipo de serviço ou
podem existir num sentido mais abstrato, ou seja, não tão visível, como uma “fila” de
navios esperando para atracar em um porto.
Nas redes abertas há fluxo de fregueses entrando e saindo do sistema. Por outro lado,
há redes fechadas nas quais o número de usuários permanece inalterado, isto é, não há
movimentação de usuários para dentro ou para fora do sistema. Um serviço de
manutenção de máquinas pode ser visto como uma rede fechada onde M máquinas se
alternam entre os centros de manutenção e de operação. Dessas definições básicas,
ramificam-se um sem número de outros modelos de filas adequados às varias áreas,
sempre na busca de melhor representar a realidade.
Figura acima - O Processo de Fila Básico Em aplicações, o estudo dos modelos de filas
tem como objetivo a melhoria de desempenho do sistema, entendida, entre outros
17
aspectos, como melhor utilização dos recursos de serviço disponíveis, menor tempo de
espera e mais rapidez no atendimento.
O pioneiro neste estudo foi A. K. Erlang que, no começo do século, como engenheiro
da companhia dinamarquesa de telefones, estudou o problema de congestionamento das
linhas. A Telefonia permaneceu a principal aplicação de teoria das filas até por volta de
1950. A partir daí, um grande número de áreas tem utilizado essa ferramenta e a vasta
literatura é o melhor indicador dessa expansão.
Algumas das características básicas de uma fila como: chegadas, serviço de disciplina
de atendimento e capacidade de espera serão descritas a seguir. (a) Chegadas O
processo de chegada (arrival process) é a descrição de como os usuários procuram o
serviço. Se eles chegam a intervalos fixos de tempo, o processo de chegadas é dito
constante ou determinístico. Por outro lado, se as chegadas são aleatórias no tempo, elas
formam um processo estocástico e é necessário descrever suas propriedades
probabilísticas.
18
7.1. Considerações finais
Uma cadeia de Markov é denominada irredutível (ou ergódica) caso qualquer estado
possa ser transformado em qualquer outro estado, não necessariamente em um único
passo. Uma cadeia de Markov com matriz de transição P é regular caso exista um
número inteiro positivo n tal que todos os elementos da matriz potência P n sejam
estritamente positivos.
19
7.2. Referencias Bibliográficas
PROCESSOS_ESTOCASTICOS_E_TEORIA_DE_FILAS.pdf
20