Escolar Documentos
Profissional Documentos
Cultura Documentos
en Tiempo Discreto
Fabian Mancilla
U. de Santiago de Chile
fabian.mancillac@usach.cl
Propiedad markoviana
Se dice que el proceso {Xn ; n N} cumple con la propiedad markoviana de
primer orden si
Propiedad de estacionariedad
El proceso {Xn ; n N} cumple con la propiedad de estacionariedad si la
probabilidad de transicion en una etapa pij = P (Xn+1 = j/Xn = i) depende solo
de i y de j, pero no de n.
cara sello
cara p11 p12
! 1/2 1/2
P = =
sello p21 p22 1/2 1/2
1
2
1 cara sello
1
2 2
1
2
El siguiente resultado establece una clase de ecuaciones las cuales entregan una
generalizacion del resultado del ejemplo anterior.
Ecuaciones de Chapman-Kolmogorov
X
Para todo 0 < r < n se tiene pij (n) = pik (r)pkj (n r).
k
donde P (1) = P .
Observacion: Si un proceso consta solo de dos estados, entonces
p11 (n) p12 (n)
P (n) =
p21 (n) p22 (n)
0,4
0,6 A B 0,8
0,2
P = U D U 1
donde
D es matriz diagonal que contiene los valores propios de P .
U corresponde a la matriz cuyas columnas son los vectores propios de P .
P n = U Dn U 1
donde N = #Xk
pj (n) = P (Xn = j)
X
= P (Xn = j/X0 = i)P (X0 = i)
i
X
= pij (n)pi (0)
i
Fk (i, j) = P (T (i, j) = k)
Para k = 2 tenemos,
X
= P (X1 6= j, X2 = j/X0 = i, X1 = m)P (X1 = m/X0 = i)
m6=j
X
= P (X1 6= j, X2 = j/X1 = m)pim
m6=j
X X
= F1 (m, j)pim = F2 (i, j) = pim F1 (m, j)
m6=j m6=j
X
= P (X1 6= j, X2 6= j, X3 = j/X0 = i, X1 = m)P (X1 = m/X0 = i)
m6=j
X
= P (X1 6= j, X2 6= j, X3 = j/X1 = m)pim
m6=j
X X
= F2 (m, j)pim = F3 (i, j) = pim F2 (m, j)
m6=j m6=j
X
En general, Fk (i, j) = pim Fk1 (m, j).
m6=j
F1 (i, j) = pij
X
Fk (i, j) = pim Fk1 (m, j)
m6=j
Tiempos de Retorno
Se denomina tiempo de retorno al estado i a la variable aleatoria T (i, i) = Ti . Por
lo tanto, la probabilidad de retorno en k etapas al estado i es Fk (i, i).
Ejemplos:
1 En el problema anterior de la partcula, Cual son las probabilidades de
retornar alguna vez al estado A y al estado B?
2 Dada la siguiente matriz de transicion correspondiente a una cadena de
Markov dibuje el grafo asociado y calcule F3 (1, 2) y F4 (3, 1).
0,4 0,2 0,3 0,1
0,1 0,9 0 0
P = 0 0,5 0,5 0
1
2 2
3
1 2
1 1
2 4
1
2
3
4
3
4
1
2
1
2
Si una cadena de Markov tiene una sola clase de estados, se dira que es
irreducible.
Estados periodicos
Un estado es periodico si, partiendo de ese estado, solo es posible volver a el en
un numero de etapas que sea multiplo de un cierto numero entero mayor a uno.
En otras palabras, el estado j es periodico si existe n 1 tal que Fk (j, j) > 0
solo para valores de k en el conjunto {n, 2n, 3n, 4n . . .}.
El perodo d del estado j corresponde al maximo comun divisor de los k para los
cuales Fk (j, j) > 0.
Si d > 0 diremos que el estado es periodico con perodo d
Si d = 1 diremos que el estado es aperiodico.
1
2
1
2
4
3
En la medida que esto ocurra, podemos concluir que, pasado mucho tiempo, la
distribucion de probabilidades del proceso no cambia de una etapa a otra.
El valor del lmite puede o no depender del vector de probabilidades inicial f (0) .
En el caso que el lmite exista y su valor no dependa de f (0) , diremos que el
proceso tiene distribucion estacionaria. Bajo esta situacion, las condiciones
iniciales del sistema tienden a ser irrelevantes para efectos de su comportamiento
en el largo plazo.
lm pjj (n) = 0
n
F (i, j)
lm pij (n) = 0
n E(T (i, j))
lm pij (n) = 0
n
Distribucion Estacionaria
1 Existe una distribucion estacionaria tal que j > 0 para todo j si y solo si
la cadena de Markov es irreducible, con estados recurrentes positivos
aperiodicos.
2 Consideremos una cadena de Markov con espacio de estados S tal que
S = C T , en que C es una clase de estados recurrentes positivos y T es
un conjunto de una o mas clases de estados transientes. Entonces existe una
distribucion estacionaria . Ademas, j > 0 para todo j C y j para todo
j T.
T = T P
X
i = 1
i 0
P (Yi = k) = ak .