Escolar Documentos
Profissional Documentos
Cultura Documentos
1.
1/ 4
0
P
1/ 4
1/ 4
1/ 4 1/ 2 0
1/ 4 1/ 2 1/ 4
1/ 4 1/ 4 1/ 4
1/ 4 0 1/ 2
con S = {1, 2, 3, 4}, donde los estados 1 y 2 representan una buena produccin y los
estados 3 y 4 una mala. Es decir, si se pasa de cualquiera de los estados 1 y 2 a
cualquiera de los estados 3 y 4, la produccin decay. Si por el contrario se pasa de
cualquiera de los estados 3 y 4 a los estados 1 y 2; la produccin mejor.
Los estados se pueden determinar midiendo el tiempo de produccin, el costo de
produccin, el nmero de trabajadores que se requieren y el nmero de accidentes.
a) Determina la proporcin de tiempo que el proceso de produccin pasar en cada
estado a la larga.
1
1
1
v ( 1 )= v ( 1 ) + v ( 3 ) + v ( 4 )
4
4
4
1
1
1
1
v ( 2 )= v ( 1 ) + v ( 2 ) + v ( 3 ) + v ( 4 )
4
4
4
4
1
1
1
v ( 3 )= v ( 1 ) + v ( 2 ) + v ( 3 )
2
2
4
1
1
1
v ( 4 )= v ( 2 ) + v ( 3 ) + v ( 4 )
4
4
2
Vector resultante
v ( 1 ) +v ( 2 ) +v ( 3 ) +v ( 4 )=1
Obtenemos:
v ( 1 )=
3
1
7
13
, v ( 2 )= , v ( 3 ) = , v ( 4 )=
16
4
24
48
Proporciones de tiempo
Vector resultante:
Procesos Estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto
=v=
El
43.75
El
56.55
0
p
0
0 1 p
1 p 0
p
0
0
P= 0 1 p 0
p
0
0
0 1 p 0
p
p
0
0 1 p 0
v ( 1 )= pv ( 2 ) + ( 1p ) v ( 5 )
v ( 2 )=( 1 p ) v ( 1 ) + pv ( 3 )
v ( 3 )= (1p ) v ( 2 ) + pv ( 4 )
v ( 4 )=( 1p ) v ( 3 )+ pv ( 5 )
v ( 5 )=( 1p ) v ( 4 ) + pv (1 )
v ( 1 ) +v ( 2 ) +v ( 3 ) +v ( 4 ) +v ( 5 )=1
Proporciones de tiempo
Procesos Estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto
Vector resultante:
=v=
( 15 , 15 , 15 , 15 , 15 )
El
20
0
0
0.95 0.05
0
0.9
0.1
0
P
0
0
0.875 0.125
0
0
0
1
a) Determinar la proporcin de tiempo que la pieza pasa en cada estado a la larga.
1
v (3)
4
v ( 1 ) +v ( 2 ) +v ( 3 ) +v ( 4 )=1
Procesos Estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto
v ( 1 )=0.51282 v ( 2 )=0.25641, v ( 3 )=0.20513, v ( 4 )=0.02564
Vector resultante:
b) Supongamos que una pieza descompuesta requiere tres das para su reposicin
por una nueva. Para incorporar esto a la cadena de Markov agrega dos estados (5
y 6) y modifica adecuadamente la matriz de transicin.
S= {1,2,3,4,5,6 }
Dnde:
1=Nuevo
2=menor deterioro
3=mayor deterioro
4=descompuesta
5=da y medio
6=da y medio
Solucin:
Procesos Estocsticos
Unidad 2. Cadenas de Markov a tiempo discreto
.05 .05
0 0
.9 .875
0
.9
.1
0
.05
.95
P=
0
0 .875 .125 .1
09
1
0
0 0 .875
1