Escolar Documentos
Profissional Documentos
Cultura Documentos
CURSO:
INVESTIGACIÓN DE ÓPERACIONES II
TERCERA UNIDAD
M0DULO:
CADENAS DE MARKOV
NVO.CHIMBOTE - 2012
Modulo Cadenas de Markov – Tercera Unidad UNS
OBJETIVOS DE APRENDIZAJE
1. Cómo reconocer una cadena de Harkov
2. Cómo describir una cadena de Harkov usando una matriz de transición o un
diagrama de estados
3. Cómo calcular las probabilidades de estado transitorio
4. Cómo calcular la probabilidades de estado estable usando el método de la suma de
flujos o el método de las ecuaciones matriciales
5. Cómo aplicar análisis de Harkov a comercialización, a contabilidad y a planeación
de personal
SEMANA 12
INTRODUCCIÓN, CADENAS DE MARKOV, PROBABILIDADES DE TRANSICIÓN,
DIAGRAMA DE ESTADOS
Introducción
Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que ocurra un
evento depende del evento inmediato anterior. En efecto, se podría decir que, las cadenas
de este tipo tienen memoria, es decir “Recuerdan” el ultimo evento y esto condiciona las
posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue a las
cadenas de Markov de las series de eventos independientes, como tirar una moneda al aire
o un dado, es decir, el resultado del último evento no influye en el resultado de un nuevo
evento.
manojo de cartas. Lo mismo es cierto para el pócker, cuando se juegan abiertas algunas
cartas. Nadie apostaría a una carta cuando otro jugador la tiene.
En los negocios, las cadenas de Markov se han utilizado para analizar los patrones de
compra de los consumidores, para pronosticar las concesiones por deudores morosos, para
planear las necesidades de personal y para analizar el reemplazo de equipo. Aunque no es
una herramienta que se use mucho, el análisis de Markov puede proporcionar información
importante cuando es aplicable a una de las situaciones antes mencionada..
Es importante indicar que se analizara por separado la teoría y las aplicaciones, pues estas
últimas son muy variadas. En este sentido, el análisis de Markov es similar a la
programación lineal (PL), aunque no se usa tanto. La tarea más difícil es reconocer cuándo
puede aplicarse. La característica más importante que hay que buscar es la memoria de un
evento a otro.
Estado Movimiento
Generador:
Si
Evento generado
E7 E1 E4 E6 Ei
t1 t2 t3 t4 t5 Tiempo
Figura 1
Generador de Markov
En esta sección se presentan dos formas fáciles de exponer las probabilidades de transición.
p31
p33
S1 S3
p13
p42
P44
S2 S4
p24
Figura 2
Un diagrama de estados
Una forma para describir una cadena de Markov es con un diagrama de estados, como el
que se muestra en la figura 2. En ésta se ilustra un sistema de Markov con cuatro estados
posibles: S1, S2, S3 y S4. La probabilidad condicional o de transición de moverse de un
estado a otro se indica en el diagrama. Para simplificar la notación se usan subíndices para
el estado actual y el siguiente. Es decir, p14 = P( S4 / S1). Las flechas muestran las
trayectorias de transición que son posibles. Nótese que no aparecen algunas trayectorias
como la de S2 a S3. Su ausencia significa que esas trayectorias tienen probabilidad de
ocurrencia igual a cero.
Otro método para exhibir las probabilidades de transición es usar una matriz de transición.
La matriz de transición para el ejemplo del diagrama de estados se muestra en la tabla 1.
Nótese que, como existen cuatro estados posibles, se necesitan 4 x 4 = 16 probabilidades.
También nótese que cada renglón de la matriz suma 1. Esto se debe a que el sistema debe
hacer una transición.
A:
S1 S2 S3 S4 Total
De: S1 0 p12 p13 0 1
S2 p21 0 0 p24 1
Tabla 1
Una matriz de Transición
Las probabilidades de transición son datos para el análisis. Se deben conocer, no existe
manera de derivarlas. En algunas aplicaciones esto puede ser una limitación.
0.75
A:
S1 S2
S1
0.25 0.25
S2 0.25 0.75
S2
Figura 3
0.75
Un ejemplo de dos estados
Para comenzar un análisis de transición, se deben conocer el estado actual. Supóngase que
se está comenzando y que hay 75 % de posibilidades de estar en el estado 1 y 25 % de estar
en el estado 2. Esto define el estado actual en forma probabilista. ¿Cuál es la probabilidad
de estar en el estado 1 al día siguiente? Si se comienza en el estado 1 hay 75 % de
posibilidades de seguir ahí. Si se comienza en el estado 2, sólo hay 25 % de cambiar el
estado 1. Así:
Como solo hay dos estados, entonces P ( S2) = 0.375 o sea 1-P(S1) 1-0625 = 0.375
Después de dos días:
Este método para hacer cálculos puede representarse por un diagrama de árbol, como se
muestra en la figura 4. Como puede observarse, la copiadora no es muy segura. Los
resultados de los primeros cuatro días son:
P( S1) P( S2 )
Inicio 0.75 0.25
1 0.625 0.375
2 0.5625 0.4375
3 0.53125 0.46875
4 0.515625 0.484375
Tabla Nº 02
Figura 4
Diagrama de árbol
En los sistemas con más estados, los cálculos se vuelven mas largos, pero el procedimiento
es el mismo. Considérese el sistema de tres estados que se muestra en la figura 5.
Supóngase que el sistema se encuentra en el estado S1. En el diagrama puede observarse
que para el siguiente ciclo:
Figura 5
Un ejemplo de tres estados
Por supuesto, como el sistema se debe encontrar en algún estado, solo es necesario calcular
dos de estas probabilidades y la tercera puede encontrarse con la siguiente relación:
Inicio P( S1) P( S2 ) P( S3 )
1 0.4 0.3 0.3
2 0.22 0.45 0.33
3 0.166 0.53 0.304
4 0.15 0.565 0.285
5 0.145 0.58 0.275
Tabla Nº 03
Ejercicio de Práctica 01
Dada la cadena de Harkov siguiente:
A
S1 S2
De S1 0.6 0.4
S2 0.2 0.8
SEMANA 13
El proceso de Markov tiene varios órdenes, y el primero depende de los resultados del
último acontecimiento (selecciones de marcas por los clientes en ese período), y no de
cualquier comportamiento previo de compras para la probabilidad del acontecimiento
siguiente (selecciones de los clientes para el próximo período). Un análisis de Markov de
segundo orden supone que las selecciones de marcas específicas para el próximo período
dependerán de las selecciones de marcas hechas por los clientes durante los dos períodos
anteriores. De modo semejante, un proceso de Markov de tercer orden, estudia las
preferencias de los clientes durante los tres últimos períodos, a fin de pronosticar su
comportamiento durante el período siguiente hacia determinadas marcas.
Revisando un ejemplo cualquiera, supónga que las participaciones del mercado de las
marcas Á, B, C y D, son ahora de 22, 30, 25 y 23 por ciento, respectivamente, para el
A B C D
A .796 .133 .000 .040 .22 .2242
B .091 .767 .109 .060 .30 = .2912
X
C .046 .017 .891 .040 .25 .2472
D .0.067 .083 .000 .860 .23 .2374
1.0 1.0 1.0 1.0 1.0 1.0
0 x .25 = 0
Después de obtener la solución para el segundo período, lo que requiere que se tengan en
cuenta las participaciones iniciales del mercado y las probabilidades de transición, la
determinación del tercer período puede hacerse de dos modos. El primer método es una
continuación del enfoque que ya hemos expresado, o sea la multiplicación de la matriz
original de probabilidades de transición por las participaciones de las marcas en el segundo
período, lo que da los resultados del tercer período. Esas dos matrices, y la de las
participaciones de mercado para el tercer período, son las siguientes:
A B C D
A .796 .133 .000 .040 .2224 .2267
B .091 .767 .109 .060 .2912 = .2849
X
C .046 .017 .891 .040 .2472 .2450
D .0.067 .083 .000 .860 .2374 .2434
1.0 1.0 1.0 1.0 1.0 1.0
Primer método
Este método tiene la ventaja de que pueden observarse los cambios que ocurren de un
período a otro. Sin embargo, la administración puede necesitar las participaciones de
mercado de su propia marca para ciertos períodos específicos en el futuro, y en ese caso
será preferible el segundo método. Básicamente este método eleva la matriz de
probabilidades de transición a una potencia que representa el número de períodos futuros.
Por ejemplo, en el problema, las participaciones probables de mercado para el tercer
período, se calculan como sigue:
A B C D 2
A .796 .133 .000 .040 .22 .2267
B .091 .767 .109 .060 .30 = .2850
X
C .046 .017 .891 .040 .25 .2449
D .0.067 .083 .000 .860 .23 .2434
1.0 1.0 1.0 1.0 1.0 1.0
Segundo método
A B C D A B C D
A .796 .133 .000 .040 .796 .133 .000 .040
B .091 .767 .109 .060 .091 .767 .109 .060
X
C .046 .017 .891 .040 .046 .017 .891 .040
D .067 .083 .000 .860 .067 .083 .000 .860
A B C D
A .6484 .2112 .0145 .0742
= B .1513 .6072 .1808 .1056
C .0818 .0376 .7957 .0729
D .1185 .1440 .0090 .7473
.0121
. 133 .091
0
0 .046
.0027
. 040 .067
La porción de los clientes originales de A que ésta retiene (la suma de los cálculos
originales de la marca A) = .6484
A B C D
A .6484 .2112 .0145 .0742 .22 .2267
B .1513 .6072 .1808 .1056 .30 = .2849
X
C .0818 .0376 .7957 .0729 .25 .2450
D ..1185 .1440 .0090 .7473 .23 .2434
1.0 1.0 1.0 1.0 1.0 1.0
La elevación de una matriz a una potencia mucho más alta no es tarea fácil. Sin embargo,
hay programas de computadoras para efectuar esos cálculos con rapidez y precisión.
Trabajo: Construir un programa de computadora para elevar una matriz a una potencia n.
SEMANA 14
Tabla Nº 02 página 07
Se sabe que, las cadenas de Markov poseen una propiedad notable en cuanto a que tienden
a aproximarse a lo que se llama estado estable. Considérense los dos ejemplos anteriores
de análisis de transición. En el sistema de dos estados, P(S 1) resultó ser 0.75 al principio y
después 0.625, 0.567, 0.531 y 0.516. Estas probabilidades se mueven hacia un límite. En
forma análoga, en el sistema de tres estados puede observarse que P(S2), por ejemplo,
adquiere los valores 0.3, 0.45, 0.53, 0.565 y 0.58. Después de unos cuantos ciclos nada
más, las probabilidades de estado comienzan a asentarse o estabilizarse. Cuando una cadena
de Markov ha llegado lo suficientemente lejos como para estar cerca de estos límites, se
dice que ha alcanzado un estado estable. Además, estos límites son los mismos,
independientemente del punto de partida del sistema.
Es importante hacer notar que la existencia de una condición de estado estable es una
propiedad adicional de las cadenas de Markov. De ninguna manera afecta las
probabilidades de transición o la dependencia de cada estado en el estado anterior. Los
límites de estado estable se refieren sólo al porcentaje de tiempo a largo plazo que el
sistema se encontrará en cada estado particular.
En la mayoría de las aplicaciones el estado estable tiene una gran importancia, esto puede
apreciarse más adelante. En esta sección se describen dos métodos para determinar estos
límites y se presenta una aplicación a comercialización.
Este método está basado en el concepto de que todo lo que entra debe salir. El diagrama de
estados se usa para presentar los flujos. En la figura 6 se muestra de nuevo el ejemplo
anterior de dos estados. Para cada estado puede escribirse una ecuación tal que para el
estado k se cumpla:
p ik P ( S ) pik P( S k )
toda _ i k
i
toda _ i k
0.75
S1
Figura 6
0.25 0.25 Un ejemplo de dos estados
S2
0.75
p ik P ( S ) p21P ( S 2 ) 0.25 P ( S 2 )
toda _ i k
i
toda _ i k
Para los flujos que salen, se suman las probabilidades de transición a todos los otros
estados. En este caso sólo hay una, 0.25. Así, la ecuación para S1 es
De igual manera, el flujo hacia adentro para el estado S2 es 0.25 P(S1) y el flujo hacia
afuera es 0.25P(S2). Esto da para S2
El hecho de que estas dos ecuaciones sean iguales es una coincidencia. Pero no son
independientes; así, se necesita una relación más:
P(Sl) = P(S2) = 1
Esto proporciona tres ecuaciones con dos incógnitas que pueden resolverse por eliminación.
El resultado es
Figura Nº 07
Ejemplo con tres estados
Ordenando las ecuaciones, para poner todo junto se tienen cuatro ecuaciones:
0.15P(S2) - 0.35P(S3) = 0
1.17P(S2) + 1.17P(S3) = 1
1.17P(S2) - 1.17P(S3) = 1
1.67P(S2) = 1
1.17(0.6) + 1.17P(S3) = 1
P(S3) = 0.26
Según los resultados obtenidos en el análisis de transición, puede observarse que el sistema
estaba cerca de estos límites después de sólo cinco ciclos.
Las compras de los consumidores están influidas por la publicidad, el precio y muchos
otros factores. Con frecuencia un factor clave es la última compra del consumidor. Si, por
ejemplo, alguien compra un refrigerador marca Y, y le da buen servicio, quedará
predispuesto a comprar otro refrigerador marca Y. De hecho, una investigación de mercado
puede determinar el grado de lealtad a la marca encuestando a los consumidores. En
términos de una cadena de Markov, los resultados de la investigación son las probabilidades
de transición de seguir con la marca o de cambiar.
¿Qué información puede obtenerse con el análisis de Markov? Con el análisis de transición
puede descubrirse qué tan probable es que un cliente cambie después de cierto número de
ciclos. Pero el análisis de estado estable es el más útil. ¿Qué interpretación se daría al
promedio a largo plazo de estar en cualquiera de los estados? ¡La de porcentajes de mer-
cado! El promedio a la larga del estado A es el porcentaje de mercado que puede esperar
recibir la marca A. Así, conociendo el grado de lealtad a la marca entre los clientes puede
predecirse el porcentaje de mercado para el producto o servicio.
P(A) = 0.6
P(B) = 0.4
0.8
A:
Marca A Marca B
A
0.3 0.2
Marca B 0.3 0.7
0.7
Figura 8
Cambio de Marca
La marca A capturará a la larga el 60 % del mercado y las otras marcas tendrán el 40%.
Esta información puede ser útil en muchas formas. Una de ellas es al evaluar las diferentes
estrategias de publicidad. Esta publicidad puede estar dirigida a los clientes actuales en un
esfuerzo para incrementar la lealtad a la marca. De otra manera, puede dirigirse a los
compradores de otras marcas con el fin de persuadirlos para cambiar. ¿Cómo debe
asignarse un presupuesto de publicidad entre estas dos alternativas? El análisis de Markov
puede proporcionar una respuesta si se dispone de cierta información adicional. Por
ejemplo, si cada incremento se un punto porcentual en el mercado aumenta las ganancias en
S/. 50 000 nuevos soles, el presupuesto de publicidad es S/. 100 000 y esto podría aumentar
la lealtad a la marca a 85% o incrementar el cambio a la marca a un 35%; el problema
puede resolverse de la siguiente manera, teniendo en cuenta la siguiente información en la
tabla Nº 04: La Publicidad altera la Matriz
a) Anuncios dirigidos a los clientes de la
A:
Marca A
Marca A
De:
Marca A 0.8 0.2
P(A) = 0.75
P(B) = 0.25
P(A) = 0.64
P(B) = 0.36
CONDICIONES DE EQUILIBRIO
Solo puede haber una condición de equilibrio si ninguno de los competidores altera la
matriz de probabilidades de transición. Es razonable suponer que podría llegarse en el
futuro a un estado de equilibrio, con respecto a las participaciones de mercado. El
intercambio de clientes en términos de retención, ganancias o pérdidas, seria estático en el
momento en que se lograra el equilibrio. En términos de mercadotecnia, ¿cuales son las
participaciones de mercado finales o de equilibrio?
A B C
A .85 0 0
B .10 .80 .25
C .05 .20 .75
1 1 1
Es evidente que al final, B y C se apoderaran de todos los clientes de A, porque A pierde .10
a favor de B y .05 a favor de C. Sin embargo, lo que es mas importante, A no gana clientes
de B o de C. Otro tipo de equilibrio que puede ocurrir es la condición en que A nunca
pierde ninguno de sus clientes.
A B C
A 1.0 .10 .05
B 0 .80 .05
C 0 .10 .90
1 1 1
Como A no sufre perdidas de Mercado, solo es cuestión de tiempo para que tenga todos los
clientes de B y C, a lo que se llama sumidero o Cuenca de un Estado, porque al final una
empresa obtiene toda la clientela. En el primer ejemplo esto se llama sumidero o Cuenca de
dos Estados, porque al final, dos empresas comparten toda la clientela del Mercado.
El ejemplo mas común es aquel en que ninguna empresa obtiene toda la clientela, ósea que
en un total de tres empresas, ni una ni dos de ellas se apoderaría de todo el Mercado.
SEMANA 15