Você está na página 1de 2

1a Lista de Exerccios - Processos Estoc

asticos I

(marco/2015)

(
)
(1) Sejam Z1 e Z2 v.a.s independentes e identicamente distribudas, com distribuicao comum N 0, 2 . Seja uma
constante real e considere o processo estocastico {X (t) , t R} definido por X (t) = Z1 cos t + Z2 sent, t R.
(a) Determine a func
ao media X (t) = E (X (t)) e a funcao covariancia KX (t, s) = cov (X (t) , X (s)) .
(b) Verifique que o processo e estacionario no sentido amplo.
(c) Verifique que o processo e Gaussiano.
(2) Sejam X1 , X2 , . . . v.a.s discretas independentes e identicamente distribudas com EX1 = 0. Considere o processo
n

das somas parciais Sn =


Xj , n 1. Mostre que:
j=1

(a) E (Sn+1 | S1 , . . . , Sn ) = Sn q.c., isto e, {Sn , n 1} e uma martingale a tempo discreto.


(b) {Sn , n 1} satisfaz a propriedade de Markov.
(3) Seja {Xn ; n = 0, 1, . . .} um processo estocastico a valores discretos com incrementos independentes. Prove que
{Xn ; n = 0, 1, . . .} e uma cadeia de Markov.
(4) Considere uma sequencia de jogadas independentes de um dado honesto. Seja Xn o maximo dos resultados em n
jogadas. Encontre a matriz de transic
ao da cadeia de Markov {Xn }n1 .
(5) Considere uma sequencia de jogadas independentes de uma moeda viciada tal que P (cara) = p. Para n 2,
defina
{
1 , se as jogadas n 1 e n resultaram caras
Xn =
0 , caso contrario.
Mostre que {Xn }n2 n
ao e uma cadeia de Markov.
(6) Considere certa peca de um equipamento que esta em uso no momento. Quando a peca falha, e imediatamente
substituda por uma outra identica. Quando esta outra falha, e tambem substituda, e assim sucessivamente. Seja pk
a probabilidade que uma nova peca dure por k unidades de tempo, k = 1, 2, . . ..
(a) Seja Xn o tempo de vida restante da peca em uso no tempo n. Verifique que {Xn }n0 e uma cadeia de Markov
e determine suas probabilidades de transic
ao.
(b) Seja Yn a idade da peca em uso no tempo n. Verifique que {Yn }n0 e uma cadeia de Markov e determine suas
probabilidades de transic
ao.
(7) Considere a cadeia de Markov com espaco de estados S = {0, 1, 2, ...} e

1/2 1/2 0
0
0 ....
1/2 0
1/2
0
0 ....

1/2
0
0
1/2
0
....
P =

:
..
..
.. .. ....
:
..
..
.. .. ....

matriz de transicao:

Calcule f00 e f11 .


(8) Classifique os

0.2
1
(a) P =
0
0

0.5
0

(c) P =
0.3
0
0

(e) P =

0
0
0.8
0
0
0
0

estados das cadeias de Markov


com as seguintes matrizes
de transicao:

0
0 0.4 0.6 0
0 0 0.8
0 0.2 0 0.5 0.3

0 0 0
(b) P = 0.5 0 0.5 0
0

1 0 0
0
0
1
0
0
0 1 0
03
0 0.5 0 0.2

0.8 0
0
0
0 0.2 0

0
0
0 0.5 0
0
0
0
1
0
0

0.6 0
0 0.4
0
0
0
0.1 0 0.9 0

0 0.7 0
0
0
0 0.5 0
0 0.5
(d) P = 0

0 0.3 0
0
1
0
0
0 0.7 0
0

0
1
0
0
0
0
1
0
0
0
0
0 0.5 0
0
0 0.5 0

0
0
1
0
0
0
0
0
0 1 0
0
0 0
0
0
1
0
0
0
0
0

0.2 0 0 0.4 0.4 0

0
0
0
0.5
0
0.5
0
0

0 0 0 0.2 0 0

1
0
0
0
0
0
0
0

0 0 0
0
1 0 (f ) P =
0
1
0
0
0
0
0
0

0 1 0
0
0 0

0.3 0.7 0
0
0
0
0
0

0 0 0.7 0 0.3 0
0.2 0.4 0
0 0.1 0 0.1 0.2
0 0 0
0
0 1
0
0 0.3 0
0 0.4 0 0.3
1

(9) Sejam {ak }k0 uma sequencia de n


umeros positivos e {Xn } uma cadeia de Markov com probabilidades de
transi
c
a

o
dadas
por
P
=
a
e
P
=
1 ak , 0 < ak < 1, k = 0, 1, . . . . Mostre que a cadeia e transiente se, e so
k0
k
k,k+1

se,
ak < .
k

(10) Seja {Xn }n0 uma cadeia de Markov com espaco de estados S = {0, 1, 2 . . .} e probabilidades de transicao dadas
por
k+1
1
Pk,0 =
e Pk,k+1 =
, k = 0, 1, . . . .
k+2
k+2
Determine se a cadeia e recorrente positiva, recorrente nula ou transiente. Se for recorrente positiva, determine sua
distribuicao estacionaria.
(11) (Cadeia de nascimento e morte) Considere uma cadeia de Markov com espaco de estados S = {0, 1, 2, . . .} e
probabilidades de transic
ao Pi,i+1 = pi , Pi,i1 = qi e Pi,i = ri , onde pi + qi + ri = 1, q0 = 0, pi > 0, ri 0, para i 0
e qi > 0 para i 1.
(a) Se pi qi , para i 1, mostre que a cadeia e recorrente.
(b) Se
pi =

i+2
2 (i + 1)

e qi =

i
2 (i + 1)

para i 0,

mostre que a cadeia e transiente. Tambem calcule: Pi (a < b ) para a < i < b e fi0 , i > 0, onde j = inf {n : n 1, Xn = j}
(c) Se p0 = 1, pi = p > 0, i 1 e qi = q = 1 p, i 1, encontre condicoes que garantam a existencia de uma
distribuicao estacionaria para a cadeia e determine esta distribuicao.
(12) Seja {j , j S} uma distribuic
ao estacionaria de uma cadeia de Markov com espaco de estados S. Se i, j S
sao dois estados arbitrarios tais que i > 0 e i j, mostre que j > 0.
(13) Considere duas urnas com 2N bolas, das quais N sao vermelhas e N sao verdes. Inicia-se um experimento com
N bolas em cada urna. A cada passo uma bola e escolhida aleatoriamente de cada urna e as bolas escolhidas sao
permutadas nas urnas opostas. Sejam X0 o n
umero inicial de bolas vermelhas na urna I e Xn , n 1, o n
umero de
bolas vermelhas na urna I depois da nesima troca. Encontre a distribuicao estacionaria da cadeia {Xn , n 0}.
(14)(a) Se uma cadeia de Markov possui duas distribuicoes estacionarias distintas 0 e 1 , mostre que a cadeia possui
infinitas distribuic
oes estacionarias distintas.
(b) Mostre que: se uma cadeia de Markov possui mais de uma classe fechada recorrente positiva, entao a cadeia
possui infinitas distribuic
oes estacionarias distintas e nao e ergodica.
(15) Considere as cadeias de Markov com matrizes de transicao dadas no exerccio (8).
(a) Verifique se elas sao ergodicas.
(b) Se forem ergodicas, determine as respectivas distribuicoes de equilbrio.

Você também pode gostar