Escolar Documentos
Profissional Documentos
Cultura Documentos
ŽůĞƟŵ/ŶĨŽƌŵĂƟǀŽĚĂhŶŝǀĞƌƐŝĚĂĚĞĚƵĂƌĚŽ
81,9(56,'$'(
( ' 8$ 5 ' 2
021'/$1(
ĚŝĕĆŽŶǑ͗ϵϱ ď
)$&('UHDOL]DS
Fevereiro 2022
6HPLQiULRVREU
,QFOXVLYDQRSD
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 1 / 153
Funcionamento
Índice
1 Noções gerais
Breve revisão de teoria de probabilidades
Noções gerais
Especificação
Classificação
Exemplos de Processos Estocásticos
3 Processos de Poisson
Distribuições Associadas
Processo de Poisson não homogéneo
Índice
Aula 1
Relembrar
σ-Álgebra
Coleção F de subconjuntos de Ω tal que:
1 ∅∈F
2 A ∈ F sse Ac ∈ F
3 n An ∈ F para quaisquer A1 , A2 , . . . ∈ F
S
Medida de Probabilidade
Função
P : F −→ [0, 1]
tal que
∞
!
[ X
P(∅) = 0 e P An = P(An )
n n=1
Relembrar
Variável Aleatória
Função mensurável
X : Ω −→ R
Ser mensurável significa que a imagem inversa de qualquer conjunto aberto é um evento, ou
equivalentemente:
X −1 (]a, b[) ∈ F , ∀a < b
X (Ω) = {x1 , x2 , . . .}
Exemplos:
n!
Binomial {0, . . . , n} n, p P(X = k) = p k (1 − p)n−k
(n − k)!k!
λk
Poisson {0, 1, 2, 3, . . .} λ P(X = k) = e −λ , λ>0
k!
r + k − 1
Binomial Negativa {0, 1, 2, 3, . . .} r, p P(X = k) = p k (1 − p)r , λ>0
k
P(X = x) = Fx (x) − FX (x − ) = 0
2
1
−1 x−µ
Normal R µ, σ fX (x) = √ e 2 σ , σ > 0, µ ∈ R
σ 2π
1 1 2
Normal standard R - fX (x) = √ e − 2 x , σ > 0, µ ∈ R
2π
1 −x
Exponencial [0, +∞[ θ fX (x) = e θ, θ > 0, x 60
θ
1 x α−1 − x
Gamma [0, +∞[ θ, α fX (x) = e θ, θ > 0, x 60
Γ(α) θα
Valor Esperado
v.a. discreta
X
E (X ) = xn P(X = xn )
n
v.a. contínua
Z ∞
E (X ) = x fX (x)dx
−∞
Caso multivariado
Independência
Duas v.a. X e Y são independentes sse
Probabilidade condicionada
Caso discreto
P(X = x, Y = y )
P(X = x|Y = y ) = se P(Y = y ) > 0
P(Y = y )
Caso contínuo
fX ,Y (x, y )
fX |Y (x) = se fY (y ) > 0
fY (y )
Independência
Duas v.a. X e Y são independentes sse
1
Z
E (X |A) = X dP
P(A) A
Exemplo
Considere 2 moedas de 20 e 50 cêtimos. Lançam-se as moedas ao ar e somam-se os montantes das
moedas que ficaram com a face voltada para cima. Esse montante é o valor da variável aleatória X .
Seja A o evento de uma (e uma só) moeda ficar com a face voltada para cima. Calcule E (X |A).
Note-se que A = {EF , FE } (E simboliza escudo e F face). Então X (EF ) = 50 e X (FE ) = 20.
Note-se ainda que P(A) = 1/2 e P(X = 50) = P(X = 20) = 1/4. Logo
1 1 1
E (X |A) = 50 × + 20 × = 35
1/2 4 4
Seja Y uma v.a. tal que Y (Ω) = {y1 , y2 , . . .} e que P(Y = yi ) > 0, yi , i = 1, 2, . . ..
Pretendemos condicionar uma v.a. X dado a v.a. Y .
Como não sabemos a priori qual dos eventos Ai = {Y = yi }, i = 1, 2, . . . pode ocorrer, é
necessário considerar todas as esperanças condicionais
E (X |Y = y1 ), E (X |Y = y2 ), . . .
Definição
A esperança condicional de X dado Y é a função E (X |Y ) : Ω −→ R tal que
E (X |Y )(ω) = E (X |An ) se ω ∈ {Y = yi }
Uma vez que E (X |Y ) é constante nos eventos {Y = yn }, podemos definir de forma análoga a
esperança condicional de X dado Y como
E (X |Y = y1 ), y = y1
E (X |Y = y2 ), y = y2
E (X |Y = y ) : R −→ R tal que E (X |Y = y ) =
..
.
Exemplo (continuação)
Considere-se o exemplo anterior e a v.a. Y que retorna o montante da primeira moeda, de 20
cêntimos, caso esta se encontre de face voltada para cima:
Logo
25, y =0
E (X |Y = y ) =
45, y = 20
onde (relembre-se)
P(X = xn , Y = y )
PX |Y (xn |y ) = P(X = xn |Y = y ) =
P(Y = y )
Logo
X P(X = xn , Y = y )
E [X |Y = yn ] = xn
n
P(Y = y )
fX ,Y (x, y )
fX |Y (x) =
fY (y )
Definição
A esperança condicional de X dado Y é
Z +∞
E (X |Y = y ) = x fX |Y (x) dx
−∞
Processos Estocásticos
Motivação
Muitas vezes os sistemas que consideramos evoluem no tempo, estando interessados no seu com-
portamento dinâmico. Essa evolução temporal é muitas vezes de natureza aleatória:
o comprimento de uma fila de espera
a temperatura diária
a proporção de estudantes que passa a Estatística ao longo do tempo
o número de sinistros numa carteira de seguro automóvel ao longo do tempo
{X (t, ω); t ∈ T } .
Ou seja
Um processo estocástico {X (t)}t∈T é uma coleção de vairáveis aleatórias Xt : Ω −→ R
indexadas por um parâmetro t ∈ T ⊂ R
Processo Estocástico
Trajetória
Definicão
Uma trajectória ou uma realização de um processo estocástico {X (t) t ∈ T } é uma afectação, a
cada t ∈ T , de um valor possível de X (t).
Série temporal
O conjunto formado pelos sucessivos valores de uma trajectória de um processo estocástico refe-
rentes a um período limitado de tempo chama-se série temporal. Quando a trajectória é observada
durante o período T = {1, 2, ..., n} diz-se que se está perante uma sucessão cronológica ou série
temporal
Exemplos
Processo de Bernoulli
Seja uma sucessão infinita de provas de Bernoulli, o intervalo de tempo entre cada prova é igual à
unidade, a primeira prova realiza-se no instante 0. T = {0, 1, 2, . . .}, o resultado de cada prova
Exemplos
Processo Binomial
Observação de um fluxo de impulsos de Bernoulli ("1"ou "0") independentes, nos instantes t =
0, 1, 2, . . .. Pretende-se realizar a contagem do número de impulsos verificados até ao instante de
amostragem t.
1 presença de impulso em t
Z (t) =
0 ausência de impulso em t
O resultado da contagem para cada t
t
X
X (t) = Z (s) ∼ Binomial(t + 1; p)
s=0
Exemplos
Z (t), t = 1, 2, . . . é uma sucessão de v.a. i.i.d.. A partícula realiza um passeio aleatório caracteri-
zado pelo processo {X (t); t = 0, 1, 2, . . .}.
Exemplos
Sn = Sn−1 + Xn
Especificação
De ordem n:
Especificação
Para um conjunto arbitrário, mas finito, de valores de t ∈ T , t1 , t2 , . . . , tn , as correspondentes
variáveis aleatórias, X (t1 ), X (t2 ), . . . , X (tn ), possuem função de distribuição conjunta,
F (x1 , x2 , . . . , xn ; t1 , t2 , . . . , tn ) (1)
Especificação
PE identicamente distribuídos
Dois processos estocásticos (PE) X = {Xt : t ∈ T } e Y = {Yt : t ∈ T } dizem-se identicamente
distrubuídos sse tiverem a mesma lei temporal, i.e., a mesma famlia de funções de distribuição de
probabilidade conjuntas, ou seja
FX (t1 ),X (t2 ),...,X (tn ) = FY (t1 ),Y (t2 ),...,Y (tn )
Classificação
Definição
Processo estocástico em tempo discreto: T é contável
Processo estocástico em tempo contínuo: T é contínuo
Definição
Processo estocástico discreto: S é contável
Processo estocástico contínuo: S é contínuo
Exemplo
Processo em tempo contínuo com mudança em instantes discretos: Sistema de pensões com
opção de reforma entre as idades de 60-65 anos
Classificação
Processos estacionários
Estationaridade estrita:
d
(Xt1 , . . . , Xtn ) = Xh+t1 , . . . , Xh+tn
Classificação
são independentes.
Num processo com incrementos independentes, a lei de probabilidade para X (t) e
X (t) − X (s), para todo t e s, especifica o processo.
Classificação
Processo de Markov
Verifica a Propriedade de Markov:
P[a < Xt 6 b|X (t1 ) = x1 , X (t2 ) = x2 . . . , X (tn ) = xn ] = P[a < Xt 6 b|X (tn ) = xn ]
Processo de contagem
Processo estocástico, em tempo discreto ou contínuo, com espaço de estados S = {0, 1, 2, . . .} e
com a propriedade
X (t) é função não decrescente de t
Processo de Poisson
{Nt ; t ≥ 0}. Processo de Contagem, com X (0) = 0, com incrementos independentes, estacionários,
e propriedade de Markov, tal que
e −λt (λt)k
P(X (t) = k) = , k = 0, 1, 2, 3, . . .
k!
Ruído Branco
Processo constituído por uma sequência de v.a.’s independentes: {Xi }∞
i=1 .
Não tem (necessariamente) incrementos independentes.
A propriedade de Markov é trivial (por independência).
Se forem i.i.d. o processo é estacionário.
Passeio aleatório
{Xn ; n = 1, 2, . . . } com
n
X
Xn = Yi
i=1
em que {Yi }∞
i=1 uma sequência de v.a.’s i.i.d.
Movimento Browniano
{Xt ; t ≥ 0}, S e T contínuos, com incrementos independentes, estacionários, e propriedade de
Markov.
Aplicações em Finanças e Ciências Atuariais.
Cadeia de Markov
Uma Cadeia de Markov é um processo de Markov com espaço de estados discreto.
Equação de Chapman-Kolmogorov
Em cadeias homogéneas:
(1) (n)
Pijn,n+1 = Pij = Pij e Pijs,s+n = Pij
Equação de Chapman-Kolmogorov
Equação de Chapman-Kolmogorov
∞
Pijm,n = Pikm,l Pkj
l,n
X
∀(i, j), m < l < n.
k=0
Especificação
A cadeia fica completamente determinada quando se conhece Pijn,n+1 e a f .p. de X0 ,
pk = P{X0 = k}, i = 0, 1, 2, , . . .
P{X0 = i0 , X1 = i1 , . . . , Xn = in } =
Cadeias homogéneas
Pij ≥ 0 i, j = 0, 1, 2, . . .
∞
X
Pij = 1 i = 0, 1, 2, . . .
j=0
Equação de Chapman-Kolmogorov
Teorema
Da equação de Chapman-Kolmogorov temos
∞
(n) (n−1)
X
Pij = Pik Pkj ∀(i, j)
k=0
Ou seja
Exemplo
0% 30% 60%
0% 1/4 3/4 0
Exemplo
0 1/2 1/2
P= 1/2 0 1/2
1/2 1/2 0
1 1 1 1 3 3 3 5 5
2 4 4 4 8 8 8 16 16
2 1 1 1 ;P 3 = 3 1 3 ;P 4 = 5 3 5
P =
4 2 4 8 4 8 16 8 16
1 1 1 3 3 1 5 5 3
4 4 2 8 8 4 16 16 8
5 11 11 171 341 341
16 32 32 512 1024 1024
P5
11 5 11
10 341 171 341
=
32 16 32
;P =
1024 512 1024
11 11 5 341 341 171
32 32 16 1024 1024 512
Exemplo
0 1 2 3
0 1 0 0 0
1 P10 P11 P12 P13
P= .
2 P20 P21 P22 P23
3 0 0 0 1
Algumas questões que podemos colocar (e que podemos calcular usando a análise baseada no
primeiro passo)
Qual a probabilidade da cadeia ser absorvida no estado 0, sabendo que se partiu do estado 1?
Qual o número médio de passos (quanto tempo leva, em média) até a cadeia ser absorvida,
sabendo que se partiu do estado 1?
Qual o número médio de visitas ao estado 2 antes da cadeia ser absorvida?
Exemplo (cont.)
0 1 2 3
0 1 0 0 0
1 P10 P11 P12 P13
P= .
2 P20 P21 P22 P23
3 0 0 0 1
Estados absorventes: 0, 3
(n)
Estados transientes (limn→∞ Pij = 0): 1, 2
Sejam
T = min{n ≥ 0 : Xn = 0 ou Xn = 3},
P(XT = 0|X1 = 0) = 1
P(XT = 0|X1 = 1) = u1
P(XT = 0|X1 = 2) = u2
P(XT = 0|X1 = 3) = 0
Exemplo (cont.)
Analogamente, usando o teorema das probabilidades totais para a esperança condicional, após o
primeiro passo:
3
X
vi = E (T |X0 = i) = 1 + E (T |X0 = i, X1 = k)P(X1 = k|X0 = i)
k=0
3
X 3
X
= 1+ E (T |X1 = k)P(X1 = k|X0 = i) = 1 + vk Pik
k=0 k=0
v1 = 1 + P11 v1 + P12 v2 ,
v2 = 1 + P21 v1 + P22 v2 .
Estado acessível
(n)
O estado j é accessível a partir de i se Pij > 0, para algum n ≥ 0: i → j.
Estados comunicantes
Os estados i e j são comunicantes se i ←→ j.
(n) (n)
Se não, ou Pij = 0, ∀n, ou Pji = 0, ∀n.
Teorema
O conceito de estados comunicantes (i ←→ j) define uma relação de equivalência (reflexiva,
transitiva e simétrica).
Classes fechada
Classe de comunicação, C , tal que não é possível sair da classe:
Pij = 0, ∀i ∈ C , i ∈
/C
Exemplo
1 2 3 4 5
1 1/2 1/2 0 0 0
2 1/4 3/4 0 0 0
P= 3 0 0 0 1 0 .
4 0 0 1/2 0 1/2
5 0 0 0 1 0
As classes C1 = {1, 2} e C2 = {3, 4, 5} são duas classes fechadas.
Exemplo
1 2 3 4 5 6
1 1/2 1/2 0 0 0 0
2 1/4 3/4 0 0 0 0
3 1/4 1/4 1/4 1/4 0 0
P= .
4 1/4 0 1/4 1/4 0 0
5 0 0 0 0 1/2 1/2
6 0 0 0 0 1/2 1/2
As classes C1 = {1, 2} e C2 = {5, 6} são duas classes fechadas, a classe C3 = {3, 4} é uma classe
aberta.
Exemplo
Seja S = {0, 1, 2, 3, . . . , a − 2, a − 1, a} tal que
As classes C1 = {0} e C2 = {a} são duas classes fechadas (os estados 0 e a são estados absorven-
tes), a classe C3 = {1, 2, . . . , a − 1, a − 2} é uma classe aberta.
Cadeia irredutível
Um cadeia de Markov é irredutível se S é a única classe fechada não vazia que existe.
Período do estado i
(n)
d(i) = mdc{n ≥ 1 : Pii > 0}
(n)
Se Pii = 0, ∀n > 1, então d(i) = 0.
Estado aperiódico
Se d(i) = (0), 1, estado i é aperiódico
Se d(i) ≥ 2, periódico.
Cadeia aperiódica
Uma cadeia é aperiódica se todos os estados são aperiódicos.
Teorema
Dois estados comunicantes têm o mesmo período:
i ←→ j =⇒ d(i) = d(j)
(n)
fii : Probabilidade do primeiro retorno ao estado i se dar em n passos
(n)
fii = P(Xn = i e Xk 6= i, k = 1, 2, . . . , n − 1|X0 = i)
Esta probabilidade pode ser calculada de forma recursiva
n
(n) (k) (n−k)
X
Pii = fii Pii , ∀n > 1
k=0
(0)
Assumimos fii =0
(n)
fij : Probabilidade da primeira visita ao estado j, vindo de i, se dar em n passos
(0)
Assumimos fii =0
(n)
fij = P(Xn = j e Xk 6= i, k = 1, 2, . . . , n − 1|X0 = i)
Também pode ser calculada de forma recursiva:
n
(n) (k) (n−k)
X
Pij = fij Pjj , ∀n > 1
k=0
fii
∞
(n)
X
fii = fii
n=1
Estado recorrente
Se fii = 1, estado i é recorrente ou persistente.
Se fii < 1, estado i é não recorrente, transitório ou transiente.
Proposição
O estado i é recorrente sse
∞
(n)
X
Pii =∞
n=1
Teorema
Se i comunica com j e i é recorrente, então j também é recorrente:
i ←→ j e i é recorrente =⇒ j é recorrente
(n)
Se i é transiente, então fii não é uma distribuição
(n)
Se i é recoreente, então fii é uma distribuição
Estado ergódico
Estado recorrente positivo e aperiódico.
Estado absorvente
Pii = 1
Teorema
Seja S o conjunto dos estados de uma cadeia de Markov.
Se S é finito então
Pelo menos um estado é recorrente
Todos os estados recorrentes são recorrentes positivos
Teorema
As classes recorrentes são classes fechadas.
Em cadeias finitas, todas as classes fechadas irredutíveis são classes recorrentes
Cadeias regulares
Uma cadeia de Markov diz-se regular se P é regular, ou seja:
número finito de estados;
(n)
existe k tal que Pij > 0 ∀(i, j), para n > k
Ou seja,
Uma cadeia é regular se nalgum ponto do tempo todos os elementos da matriz de
probabilidade de transição são positivos.
Teorema
Se P é finita, irredutível e aperiódica, então P é regular.
Exemplo
0 1/2 1/2
P = 1/2 0 1/2
1/2 1/2 0
1 1 1 1 3 3 3 5 5
2 4 4 4 8 8 8 16 16
2 1 1 1 ;P 3 = 3 1 3 ;P 4 = 5 3 5
P =
4 2 4 8 4 8 16 8 16
1 1 1 3 3 1 5 5 3
4 4 2 8 8 4 16 16 8
5 11 11 171 341 341
16 32 32 512 1024 1024
P5
11 5 11
10 341 171 341
=
32 16 32
;P =
1024 512 1024
11 11 5 341 341 171
32 32 16 1024 1024 512
Exemplo (cont.)
P 100 =
211 275 100 038 038 233 582 783 867 563 422 550 200 076 076 467 165 567 735 125 422 550 200 076 076 467 165 567 735 1
633 825 300 114 114 700 748 351 602 688 1267 650 600 228 229 401 496 703 205 376 1267 650 600 228 229 401 496 703 205
422 550 200 076 076 467 165 567 735 125 211 275 100 038 038 233 582 783 867 563 422 550 200 076 076 467 165 567 735 1
1267 650 600 228 229 401 496 703 205 376 633 825 300 114 114 700 748 351 602 688 1267 650 600 228 229 401 496 703 205
422 550 200 076 076 467 165 567 735 125 422 550 200 076 076 467 165 567 735 125 211 275 100 038 038 233 582 783 867 5
1267 650 600 228 229 401 496 703 205 376 1267 650 600 228 229 401 496 703 205 376 633 825 300 114 114 700 748 351 602 6
Exemplo
Seja uma cadeia de Markov, com a seguinte matriz de transição:
0 1 2 3 4 5 6
0 0.9 0.1 0 0 0 0 0
1 0.9 0 0.1 0 0 0 0
2 0.9 0 0 0.1 0 0 0
P= 3 0.9 0 0 0 0.1 0 0
4 0.9 0 0 0 0 0.1 0
5 0.9 0 0 0 0 0 0.1
6 0.9 0 0 0 0 0 0.1
Exemplo (cont.)
Longo prazo:
9.0 × 10−6 1.0 × 10−6
.9 .0 9 .00 9 .000 9 .0000 9
.9 .0 9 .00 9 .000 9 .0000 9 9.0 × 10−6 1.0 × 10−6
9.0 × 10−6 1.0 × 10−6
.9 .0 9 .00 9 .000 9 .0000 9
8
9.0 × 10−6 1.0 × 10−6
P =
.9 .0 9 .00 9 .000 9 .0000 9
.9 .0 9 .00 9 .000 9 .0000 9 9.0 × 10−6 1.0 × 10−6
.9 .0 9 .00 9 .000 9 .0000 9 9.0 × 10−6 1.0 × 10−6
.9 .0 9 .00 9 .000 9 .0000 9 9.0 × 10−6 1.0 × 10−6
Teoremas limite
Distribuição limite
N
(n)
X
π = (π0 , π1 , ..., πN ) tal que πj = lim Pij >0 e πj = 1, πj > 0
n→∞
j=1
Distribuição estacionária
N
X
π = (π0 , π1 , ..., πN ) tal que π = πP e πj = 1, πj > 0
j=1
π é o vetor próprio esquerdo correspondenteao valor próprio 1, normalizado por forma a ser
PN
uma função de probabilidade k=0 πk = 1
N
X
πj = πk Pkj ∀j = 0, 1, · · · , N ⇔ π = πP
k=0
com
N
X
πk = 1 e πk > 0, ∀k ∈ S
k=0
Teoremas limite
Exemplo
Considere novamente a matriz
0 1/2 1/2
P = 1/2 0 1/2
1/2 1/2 0
P é regular e computacionalmente verifica-se
resolvendo a equação
1/2π2 + 1/2π3
= π1
πP = π ⇐⇒ 1/2π1 + 1/2π3 = π2
1/2π1 + 1/2π2 = π3
Observações
πP2 = (πP) P = π; · · · ; πPn = π;
Exemplo
0 1 1 0 0 1
P= → P2 = → P3 = ···
1 0 0 1 1 0
1 i = 1, 2
(n) n par
Pii = ⇒ @ dist.lim.
0 i = 1, 2 n impar
0 1
1/2 1/2 = 1/2 1/2
| {z } 1 0 | {z }
π π
| {z }
P
Neste caso
lim Pijn = πj
n→∞
Ou seja
π1 π2 · · · πN
π1 π2 · · · πN
P n −→n→+∞
.. .. ..
. . .
| {z }
todas as linhas são iguais a π
Relembrar
Considerem-se, para um estado recorrente i:
a probabilidade do 1o retorno a i em n passos
(n)
fii = Pr {Ri = n|X0 = i}
Ri = min{n ≥ 1; Xn = i}
Teorema
Sejam,
uma cadeia de Markov recorrente, irredutível e aperiódica,
(n) (n) (0) (0)
Pii , fii (Pii = 1, e fii = 0)
Então,
(n) (n) 1
πi = lim Pii = lim Pji = , ∀i, j ∈ S .
n→∞ n→∞ mi
Observações
πk representa a probabilidade do processo estar no estado k, depois de estar a operar há
muito tempo
πk representa a fração de tempo, no longo prazo, que o processo passa no estado k
Em cadeias recorrentes, irredutíveis e aperiódicas
se mi < ∞, π > 0 e o estado i é recorrente positivo.
se mi = ∞, π = 0 e o estado i é recorrente é recorrente nulo.
Observações
A velocidade de convergência depende da matriz P
Teoricamente os resultados são validos para um número infinito de passos, mas a distribuição
limite pode ser atingida num número finito de passos
Exemplo Bonus-malus
4 níveis de desconto
0: 0% desconto;
1: 25% desconto;
2: 40% desconto;
3: 60% desconto.
Regras: Se tiver uma ou mais indemnizações no anterior, desce um nível. Se não tiver indemniza-
ções durante dois anos, sobe um nível.
O processo não é Markov (depende de dois anos para trás, e não apenas do último ano). O processo
é semi-Markov (não é Markov, mas pode ser transformado num processo Markov). Os estados 0, 1
e 2 têm que ser divididos.
Mais uma vez, diretamente o sistema não é Markoviano, há que dividir classes...
b = (70, 100, 100, 115, 115, 130, 130, 145, 145, 200, 200)
1 2 3 4 5 6 7 8 9 10 11
1 {0} {1} {2} {3} {4, ...}
2 {0} {1} {2} {3} {4, ...}
3 {0} {1} {2} {3} {4, ...}
4 {0} {1} {2} {3, ...}
5 {0} {1} {2} {3, ...}
6 {0} {1} {2, ...}
7 {0} {1} {2, ...}
8 {0} {1, ...}
9 {0} {1, ...}
10 {0} {1, ...}
11 {0} {1, ...}
2
0 0 0 0
P21,∆,λ = =
0 0 a 0
" #
0 P1,(∆,λ) P3,(∆,λ) + P3,(∆,λ) P2,(∆,λ) Pn−2
Pn∆,λ = 2,(∆,λ)
0 Pn2,(∆,λ)
Calculando o limite
" #
0 P1,(∆,λ) P3,(∆,λ) + P3,(∆,λ) P2,(∆,λ) lim Pn−2
lim Pn∆,λ = 2,(∆,λ)
n→∞ 0 limn→∞ Pn2,(∆,λ)
P∞
2,(∆,λ) = lim Pn−2 and P∞ ∞
2,(∆,λ) = P2,(∆,λ) P2,(∆,λ)
n→∞ 2,(∆,λ)
or 0 = P∞2 (I − P2 )
Pn∆,λ tende para uma matriz com todas as linhas iguais, da forma
h i
Pn∆,λ → 0 | P∞
2,(∆,λ)
Exercício
Considere um sistema de Bonus-Malus com os níveis de desconto de 0%, 25%, 40% e 50% do
prémio inicial total e as seguintes regras:
Todos os segurados começam no nível 0%
Se não houver indemnizações durante o ano corrente, então o segurado sobe um nível, ou
permanece no nível de desconto máximo
Se houver uma indemnização o segurado desce um nível ou permanece no nível de desconto
mínimo
Se houverem duas ou mais indemenizações no ano, o segurado desce dois níveis ou
permanece no nível de desconto mínimo
Assuma que a probabilidade de não ter indemnizações é 0.9 e a probabilidade de ter uma indem-
nização é 0.05.
Exercício
1 Descreva o modelo como uma cadeia de Markov
2 Determine a probabilidade de um segurado ter o desconto máximo no ano n + 3, sabendo
que tem o desconto máximo no ano n
3 Determine o prémio esperado no terceiro ano de um segurado cujo o prémio a priori é 500
4 Determine, no longo prazo, a percentagem de apólices em cada nível de desconto.
5 Qual é a duração média entre visitas ao nível de desconto 0?
6 Determine, para um segurado escolhido ao acaso, o prémio médio no longo prazo, com
prémio a priori de 500
7 Usando a análise baseada no primeiro passo, escreva o sistema de equações que permite
calcular o número médio de anos que um segurado que entrou agora na companhia leva a
chegar, pela primeira vez, ao nível de desconto máximo.
Estimação
Depois de determinado o espaço de estados, o modelo de Markov precisa de estimar as probabilidade
de transição. Sejam (x1 , x2 , ..., xn ) as observações, definir
ni : No de vezes tal que xt = i, 1 ≤ t ≤ n − 1;
nij : No de vezes tal que xt = i e xt+1 = j, 1 ≤ t ≤ n − 1.
nij
Então, P̂ij = ni
. Nij |Ni _ Binomial(Ni ; Pij ).
Simulação
A Simulação de cadeias de Markov homogéneas é bastante simples, já que do histórico apenas
precisamos da última realização. Ou seja, conhecemos a distribuição condicionada de Xt+1 dado
Xt (f.p. condicionada), apenas geramos números aleatórios com essa distribuição.
Processos de contagem
Processos de contagem
Um processo estocástico é um processo de contagem {N(t); t ≥ 0} se N(t) é o número de
acontecimentos em (0, t].
Probabilidade de transição
Num processo de contagem de Markov:
Probabilidade do número de eventos entre s e t ser n, sabendo que o número de eventos até
s é k, com s < t.
Trata-se de uma probabilidade de transição (probabilidade condicional)
Processos de contagem
Distribuição marginal de Nt
Assumindo N0 = 0
pn (t) = P(Nt = n) = p0,n (0, t)
depender apenas do tamanho do intervalo (t − s), s < t, então o processo diz-se homogéneo
Processos de contagem
Casos particulares
λk (t) = λk : processo de nascimento homogéneo
λk (t) = λ: processo de Poisson homogéneo
λk (t) = λ(t): processo de Poisson não homogéneo
Processos de Poisson
Postulados
Os postulados anteriores podem ser escritos da seguinte forma:
(i) Seja t0 = 0 < t1 < · · · < tm . As v.a.’s N ((0, t1 ]) , N ((t1 , t2 ]) , . . . , N ((tm−1 , tm ]), são
independentes
d
(ii) ∀t ≥ 0, h > 0, N ((t, t + h]) = N ((0, h]) ≡ N(h)
(iii) ∃ const. λ > 0:
o(h)
Pr [N ((t, t + h]) = 1] = λh + o(h), qdo h → 0+ limh→0+ =0
h
Processos de Poisson
Processos de Poisson
Processos de Poisson
Teorema
Se {Nt }t>0 é um processo de Poisson, então a variável Nt tem distribuição de Poisson com média
λ t, ∀t > 0:
e −λt (λt)n
Nt ∼ Poisson(λt) ⇐⇒ P(Nt = n) =
n!
Observações
Note-se que, então,
Processos de Poisson
E (Nt ) = λt
Var (Nt ) = λt
Cov (N(s), N(t)) = λ min(s, t)
Tempo de espera
Tk = Wk+1 − Wk
Representa
o tempo entre os eventos k e k + 1
o tempo de permanência (tempo de espera) do processo no estado k
Teorema
O tempo entre chegadas sucessivas T0 , T1 , . . . , Tk , . . . são variáveis i.i.d (independentes e identi-
camente distribuídas), com distribuição exponencial de média 1/λ:
1
Tk ∼i.i.d. Exp
λ
Ou seja
Teorema
Tem-se
k−1
X
Wk = Ti
i=0
1
Logo Wk tem distribuição Gamma (soma de exponenciais i.i.d.): Wk ∼ Gamma k, :
λ
+∞ n−1
X (λt)i e −λt X (λt)i e −λt
P(Wk 6 t) = P(Nt > k) = =1−
i=k
i! i=0
i!
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 100 / 153
Processos de Poisson Distribuições Associadas
Processo de Poisson
Exercício
Seja Nt o número de indemnizações de um cliente até ao instante t. Considere o ano como unidade
de medida e λ = 0.1.
Qual a probabilidade do cliente não ter nenhuma indemnização no primeiro semestre?
Qual a probabilidade do cliente ter uma indemnização em dois anos?
Qual a probabilidade do tempo entre a segunda e a terceira indemnização ser superior a um
ano?
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 101 / 153
Processos de Poisson Distribuições Associadas
Teorema
Sejam s < t e k 6 n. Então
n! s k t − s n−k
P(N(s) = k|N(t) = n) =
k!(n − k)! t t
Ou seja s
N(s)|N(t) = n ∼ Binomial n, p =
t
Teorema
Analogamente, dados dois Processos de Poisson independentes {N1 (t)}t>0 , com intensidade λ1 ,
e {N2 (t)}t>0 , com intensidade λ2 , tem-se
k n−k
n! λ1 λ2
P(N1 (t) = k|N1 (t) + N2 (t) = n) =
k!(n − k)! λ1 + λ2 λ1 + λ2
Ou seja
λ1
N1 (t)|N1 (t) + N2 (t) = n ∼ Binomial n, p =
λ1 + λ2
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 102 / 153
Processos de Poisson Distribuições Associadas
Teorema
Seja {N(t)}t>0 um processo de Poisson. Então
s
P(W1 6 s|N(t) = 1) =
t
Ou seja, sabendo que até t ocorreu um evento (esse evento ocorreu em W1 = s ∈ (0, t]), então
W1 |N(t) = 1 ∼ Uniforme(0, t)
Se soubermos que houve uma ocorrência no intervalo (0, t], o instante s em que ocorreu é uni-
formemente distribuído no intervalo (0, t], i.e., qualquer instante no intervalo (0, t] é igualmente
provável para a ocorrência do evento.
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 103 / 153
Processos de Poisson Distribuições Associadas
Exercícios
Exercício
Seja {Nt }t>t um processo de Poisson homogéneo com intensidade λ. Seja Wn o instante do
n-ésimo evento. Determine
E (W3 )
E (W3 |N(1) = 2)
E [N(5) − N(2)|N(1) = 3]
Se λ = 1, determine P(W3 > 2)
Exercício
As indemnizações numa carteira de apólices ocorrem de acordo com um processo de Poisson de
média 10 indemnizações por dia.
Mostre que o tempo até à primeira indemnização tem distribuição exponencial e indique a
sua média.
Calcule a probabilidade de que ocorram pelo menos 20 indemnizações nos primeiros 2 dias
sabendo que ocorreram exatamente 8 indemnizações no primeiro dia
Calcule a probabilidade de que ocorram exatamente 10 indemnizações no primeiro dia,
sabendo que ocorreram 20 indemnizações nos três primeiros dias
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 104 / 153
Processos de Poisson Processo de Poisson não homogéneo
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 105 / 153
Processos de Poisson Processo de Poisson não homogéneo
Teorema
Num processo de Poisson não homogéneo, o número de eventos que ocorrem no intervalo (s, s + t]
tem distribuição de Poisson em que parâmetro é o integral (média) da intensidade, λ(t), nesse
intervalo: Z s+t
m(s, s + t) = λ(u) du
s
Ou seja
N(t) − N(s) ∼ Poisson (m(s, s + t))
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 106 / 153
Processos de Poisson Processo de Poisson não homogéneo
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 107 / 153
Processos de Poisson Processo de Poisson não homogéneo
Exemplo
O número de pessoas que entram numa dada loja segue um processo de Poisson com intensidade
0, 0<t<8
2, 8 < t < 12
1
t
λ(t) = 2+ 20 + , 12 < t < 14
2 2
4, 14 < t < 18
6, 18 < t < 24
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 108 / 153
Processos de Poisson Processo de Poisson não homogéneo
Exemplo
Suponha que a procura de um produto numa loja entre as 9h e as 13h segue um processo de
Poisson de intensidade:
2t, 06t<1
λ(t) = 2, 16t<2
4 − t, 26t<4
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 109 / 153
Processos de Poisson Processo de Poisson não homogéneo
Processo de Poisson
Exercício
As chegadas do autocarro número 1 formam um processo de Poisson de taxa 1 autocarro por hora
e as chegadas do autocarro número 7 formam um processo de Poisson independente de taxa 7
autocarros por hora.
Qual é a probabilidade que passem exatamente 3 autocarros numa hora?
Exercício
Uma loja abre às 8h. Das 8h às 10h os clientes chegam a uma taxa de Poisson de 4 por hora.
Entre as 10h e as 12h chegam a uma taxa de Poisson de 8 por hora. Das 12h às 14h a taxa de
chegada aumenta linearmente das 8 por hora para 10 por hora. Das 14h às 17h a taxa de chegada
diminui linearmente das 10 por hora para as 4 por hora.
Calcule a distribuição de probabilidade do número de clientes que entra na loja num dia.
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 110 / 153
Processos de Markov homogéneos em tempo contínuo Definições
e −λt (λt)(j−i)
pij (t) =
(j − i)!
A única diferença relativamente às cadeias de Markov em tempo discreto, é que o tempo não
é medido em unidades de tempo (passos), mas em tempo contínuo
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 111 / 153
Processos de Markov homogéneos em tempo contínuo Definições
Observações
Para um processo de Markov homogéneo em tempo contínuo, {X (t)}t>0 , dada a sua evolução
até qualquer instante s, a descrição probabilística do seu comportamento para todos os instantes
futuros depende apenas do estado “corrente” X (s) = i, e não da história passada do processo (nem
do instante s)
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 112 / 153
Processos de Markov homogéneos em tempo contínuo Definições
Observações
Uma vez que num intervalo de tamanho zero não podemos alterar o estado:
1,
i =j
pij (0) = δij =
0, i 6= j
ou seja P(0) = I .
Note-se que, para cada t fixo, a matriz P(t) é uma matriz estocástica:
X
Pij (t) > 0, ∀i, j ∈ S e Pij (t) = 1, ∀i ∈ S
j∈S
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 113 / 153
Processos de Markov homogéneos em tempo contínuo Equações de Chapman-Kolmogorov
Equações de Chapman-Kolmogorov
Equações de Chapman-Kolmogorov
X
Pij (s + t) = Pik (s)Pkj (t), t, s > 0, ∀i, j ∈ S
k∈S
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 114 / 153
Processos de Markov homogéneos em tempo contínuo Intensidades de transição e matriz geradora
Intensidades de transição
Intensidade de transição
A taxa de transição, ou intensidade de transição, ou força de transição, ou intensidade do salto, de
i para j é dada por
qij = pij0 (0), ∀i, j ∈ S,
Exemplo
Determine as intensidades de transição do processo de Poisson
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 115 / 153
Processos de Markov homogéneos em tempo contínuo Intensidades de transição e matriz geradora
Intensidades de transição
Intensidades de transição
Para todo t, h > 0 tem-se
ou seja
1 + qij h + o(h),
i =j
pij (h) =
qij h + o(h), i 6= j
Como pij (h) = 1 e pii (h) = 1 + qii h, então
P
j∈S
X X
qii = − qij e qij = 0
j6=i j∈S
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 116 / 153
Processos de Markov homogéneos em tempo contínuo Intensidades de transição e matriz geradora
Intensidades de transição
Observações
qij não são probabilidades
qij é a taxa de transição instantânea do processo do estado i para o estado j
Q = [qij ]i,j∈S
Com X
qij = 0, ∀i
j∈S
X
qii = − qij
j6=i
0 6 qij < ∞, ∀i 6= j
0 6 qii < ∞, ∀i
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 117 / 153
Processos de Markov homogéneos em tempo contínuo Intensidades de transição e matriz geradora
Matriz geradora
Observações
é possível construir a matriz (de probabilidade) de transição a partir da matriz geradora (de
intensidades)
A matriz de intensidades especifica a lei de probabilidade do processo
Exemplos
Construa a matriz geradora do processo de Poisson.
Construa a matriz geradora de um processo de nascimento
Construa a matriz geradora de um processo de nascimento e morte
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 118 / 153
Processos de Markov homogéneos em tempo contínuo Intensidades de transição e matriz geradora
Exemplos
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 119 / 153
Processos de Markov homogéneos em tempo contínuo Intensidades de transição e matriz geradora
Exempo
Exemplo
Processo com 2 estados. Grafo e Matriz geradora:
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 120 / 153
Processos de Markov homogéneos em tempo contínuo Equações diferenciais
Equações diferenciais
Em forma matricial:
P 0 (t)
= P(t)Q
P(0) = I
Em forma matricial:
P 0 (t)
= QP(t)
P(0) = I
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 121 / 153
Processos de Markov homogéneos em tempo contínuo Equações diferenciais
Equações diferenciais
d
P01 (t) = P00 (t)µ01 + P01 (t)µ11 = 0, 01P00 (t) − 0, 10P01 (t)
dt
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 122 / 153
Processos de Markov homogéneos em tempo contínuo Aplicações
Aplicações
Modelo saúde-doença-morte
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 123 / 153
Processos de Markov homogéneos em tempo contínuo Aplicações
Aplicações
Exemplo
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 124 / 153
Processos de Markov homogéneos em tempo contínuo Aplicações
Tempos de espera
Tempos de espera
Tempo de espera até sair do estado inicial:
Teorema
O tempo de espera num dado estado i ∈ S, Ti , de um processo de Markov homogéneo em tempo
1
contínuo com matriz de taxa de transição Q, tem distribuição exponencial com média :
−qii
1
Ti ∼ Exp
−qii
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 125 / 153
Processos de Markov homogéneos em tempo contínuo Aplicações
Tempos de espera
Notação
Probabilidade do processo permanecer no estado i durante o intervalo de tamanho t:
Note-se que
pii (t) 6= pii (t)
Tempo de espera
1
Dado que Ti ∼ Exp , então
−qii
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 126 / 153
Processos de Markov homogéneos em tempo contínuo Aplicações
Teorema
A probabilidade do processo ir para o estado j quando sai do estado i é dada por
qij
pij =
−qii
Teorema
Seja mi o tempo esperado para o processo chegar ao estado k sabendo que se encontra no
estado i.
Então mi pode ser calculado usando a fórmula recursiva:
1 X qij
mi = + mj
−qii j6=k,i
−qii
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 127 / 153
Processos de Markov homogéneos em tempo contínuo Aplicações
Exemplo
(unidade de tempo: anos)
Qual a probabilidade de ficar doente pela primeira vez apenas ao fim de 3 anos?
Qual a probabilidade de uma pessoa estar doente durante um ano?
Qual a probabilidade de uma pessoa saudável ficar doente?
Qual o tempo médio que uma pessoa doente leva a sair desse estado (−1/qSS )?
Qual o tempo esperado de vida de uma pessoa saudável (mH )? E de uma pessoa doente
(mS )? E de uma pessoa com doença terminar (mT )?
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 128 / 153
Processos de Markov homogéneos em tempo contínuo contínuo
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 129 / 153
Processos de Markov homogéneos em tempo contínuo contínuo
tal que
qij
∗
pij = , se j 6= i
−qii
se qii < 0
pii∗ 0
=
0, se j 6= i
∗
pij =
se qii = 0
pii∗ 1
=
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 130 / 153
Processos de Markov homogéneos em tempo contínuo contínuo
Exemplo
(unidade de tempo: anos)
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 131 / 153
Processos de Markov homogéneos em tempo contínuo Classificação dos estados
Estados acessíveis
O estado j diz-se acessível a partir do estado i, para uma cadeia de Markov homogénea em tempo
contínuo, se
P(X (s) = j|X (0) = i) = pij (s) > 0, para algum s > 0
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 132 / 153
Processos de Markov homogéneos em tempo contínuo Classificação dos estados
Cadeia irredutível
Uma cadeia de Markov em tempo contínuo irredutível é uma cadeia irredutível se existir
apenas uma classe de comunicação (todos os estados comunicam)
Uma cadeia de Markov em tempo contínuo irredutível é uma cadeia irredutível sse a cadeia
discreta dos saltos é irredutível
Q diz-se irredutível se P ∗ for irredutível
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 133 / 153
Processos de Markov homogéneos em tempo contínuo Classificação dos estados
Estado recorrente
O estado i diz-se recorrente se, com probabilidade 1, a cadeia volta a revisitar o estado i.
Caso contrário o estado diz-se transiente
Um estado i é recorrente (transiente) para uma cadeia de Markov em tempo contínuo sse for
recorrente (transiente) para a cadeia de Markov discreta dos saltos
Recorrência positiva e nula podem diferir na cadeia em tempo contínuo ou tempo discreto
(se o número de estados for infinito)
Periodicidade
Não existem problemas de periodicidade para a cadeia de Markov em tempo contínuo (para
tempo contínuo não faz sentido falar em periodicidade)
Mas o conceito de periodicidade existe para a cadeia de Markov dos saltos, em tempo
discreto
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 134 / 153
Processos de Markov homogéneos em tempo contínuo Classificação dos estados
Exemplo
Considere o processo de Markov em tempo contínuo com a seguinte matriz geradora:
−4 1 0 0 3
2 −6 3 1 0
Q= 0 0 −5 5 0
0 0 4 −4 0
0 0 0 0 0
1 Classifique os estados
2 Calcule a probabilidade de que o processo seja absorvido no estado 5, tendo começado no
estado 1
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 135 / 153
Processos de Markov homogéneos em tempo contínuo Distribuição estacionária
Distribuição estacionária
Distribuição estacionária
Dada uma cadeia de Markov em tempo contínuo, uma distribuição de probabilidade em S
X
πj > 0, ∀j ∈ S e πj = 1
j∈S
π P(t) = π
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 136 / 153
Processos de Markov homogéneos em tempo contínuo Distribuição estacionária
Distribuição estacionária
Teorema
A distribuição π é estacionária sse
πQ = 0
Teorema
Seja S a única classe fechada (cadeia irredutível). Então, das duas uma:
1) Existe uma única distribuição estacionária e
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 137 / 153
Processos de Markov homogéneos em tempo contínuo Distribuição estacionária
Exemplo
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 138 / 153
Processos de Markov homogéneos em tempo contínuo Distribuição estacionária
Exercício
Os condutores que chegam a um centro de inspecão automóvel esperam, em média, 15min para
serem atendidos. Quando são atendidos, levam em média 20min pela avaliação do problema. Após
a avalição, os automóveis podem não precisar de qualquer arranjo ou precisar de arranjos ligeiros ou
arranjos significativos. O tempo médio de espera por arranjos ligeiros é de 30min, enquanto o tempo
médio de espera por arranjos significativos é 180min. Admita que a percentagem de automóveis
sem qualquer problema é 80%, a percentagem de automóveis com necessidade de reparações ligeiras
é 15% e a percentagem de automóveis com necessidade de arranjos significativos ´r 5%.
Quais as hipótese que têm que ser consideradas por forma a resolver o problema como uma
cadeia de Markov?
Assumindo essas hipóteses, determine a matriz geradora.
Use as equações diferenciais de Kolmogorov para obter pWM (t) e pWA (t)
Mostre que pWA (t) = 4e −t/20 − 4e −t/15 (com t medido em minutos).
Obtenha uma expressão para pWM (t)
Seja Ti o tempo de espera (em minutos) até que um automóvel vá para casa, dado que o
processo está no estado i
Justifique que TW = 15 + TA
Obtenha expressões para TA , TM e Ts
Calcule TW
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 139 / 153
Movimento Browniano. Espaço estados contínuo Definições básicas
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 140 / 153
Movimento Browniano. Espaço estados contínuo Definições básicas
Movimento Browniano
O movimento Browniano com coeficiente de difusão σ 2 > 0 é um processo estocástico
{B(t)}t>0 , com B(0) = 0, tal que
B(t) tem incrementos independentes:
B(t1 ) − B(t0 ), . . . , B(tn ) − B(tn−1 ) são independentes para 0 = t0 < t1 < · · · < tn
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 141 / 153
Movimento Browniano. Espaço estados contínuo Definições básicas
Martingala
Uma martingala é um processo estocástico em que o valor esperado do próximo valor na sequência
é igual ao valor presente observado, mesmo sabendo todos os outros anteriores:
Movimento Browniano
O movimento Browniano {B(t)}t>0 é uma martingala:
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 142 / 153
Movimento Browniano. Espaço estados contínuo Definições básicas
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 143 / 153
Movimento Browniano. Espaço estados contínuo Definições básicas
σ=1
Tem-se
Se {B(t)}t>0 é movimento Browniano standard, então
{σB(t)}t>0
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 144 / 153
Movimento Browniano. Espaço estados contínuo Definições básicas
Algumas propriedades
1)
y −x
P(B(t + s) 6 y |B(s) = x) = Φ √
σ t
2) Supondo 0 6 s < t
Cov (B(s), B(t)) = σ 2 s
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 145 / 153
Movimento Browniano. Espaço estados contínuo Definições básicas
Princípio da reflexão
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 146 / 153
Movimento Browniano. Espaço estados contínuo Definições básicas
Neste processo não se pode aplicar o princípio da reflexão, porque o movimento não é
simétrico em relaçao à origem.
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 147 / 153
Movimento Browniano. Espaço estados contínuo Definições básicas
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 148 / 153
Movimento Browniano. Espaço estados contínuo Definições básicas
Movimento Browniano
Exemplo
Suponha que o preço de um ativo financeiro é bem descrito por um movimento Browniano
com deriva µ = 0.1 e coeficiente de difusão σ 2 = 4.
Um acionista compra uma unidade ao preço de 100 u.m. e irá vendê-la se
o preço atingir o valor 110 u.m ou
o preço descer para 95 u.m.
Qual é a probabilidade de que venda a ganhar?
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 149 / 153
Movimento Browniano. Espaço estados contínuo Definições básicas
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 150 / 153
Movimento Browniano. Espaço estados contínuo Definições básicas
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 151 / 153
Movimento Browniano. Espaço estados contínuo Definições básicas
Então
1−2 α2
1−A
X (T ) σ
P =B = 1−2 α2 1−2 α2
X (0) B σ −A σ
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 152 / 153
Movimento Browniano. Espaço estados contínuo Definições básicas
Exemplo
Suponha que o preço de um ativo é bem descrito por um movimento Browniano geométrico
com deriva α = 1/10 e coeficiente de difusão σ 2 = 4.
Um especulador compra ao preço de 100 $ e vende se o preço
subir a $ 110
descer a $ 95
Qual a probabilidade de vender em lucro?
Alexandra Bugalho de Moura Processos Estocástico, UEM Fevereiro 2022 153 / 153