Você está na página 1de 2

Análisis de Markov.

Definición.
El análisis de Markov, llamado así por los estudios realizados por el ruso Andréi
Andréyevich Márkov entre 1906 y 1907, sobre la secuencia de los experimentos
conectados en cadena y la necesidad de descubrir matemáticamente los
fenómenos físicos. La teoría de Markov se desarrolló en las décadas de 1930 y 1940
por A.N. Kolmagoron, W. Feller, W. Doeblin, P. Levy, J.L. Doob y otros.
El análisis de Markov es una forma de analizar el movimiento actual de alguna
variable, a fin de pronosticar el movimiento futuro de la misma. Este método ha
comenzado a usarse en los últimos años como instrumento de investigaciones de
mercadotecnia, para examinar y pronosticar el comportamiento de los clientes
desde el punto de vista de su lealtad a una marca y de sus formas de cambio a otras
marcas, la aplicación de esta técnica, ya no solo se limita a la mercadotecnia, sino
que su campo de acción se ha podido aplicar en diversos campos.
Cadenas de Markov.
Una cadena de Markov es una serie de eventos, en la cual la probabilidad de que
ocurra un evento depende del evento inmediato anterior. En efecto, las cadenas de
este tipo tienen memoria, "Recuerdan" el último evento y esto condiciona las
posibilidades de los eventos futuros. Esta dependencia del evento anterior distingue
a las cadenas de Markov de las series de eventos independientes, como tirar una
moneda al aire o un dado. En los negocios, las cadenas de Markov se han utilizado
para analizar los patrones de compra, los deudores morosos, para planear las
necesidades de personal y para analizar el reemplazo de equipo.
El análisis de Markov, llamado así en honor de un matemático ruso que desarrollo
el método en 1907, permite encontrar la probabilidad de que un sistema se
encuentre en un estado en particular en un momento dado. Algo más importante
aún, es que permite encontrar el promedio a la larga o las probabilidades de estado
estable para cada estado. Con esta información se puede predecir el
comportamiento del sistema a través del tiempo. La tarea más difícil es reconocer
cuándo puede aplicarse. La característica más importante que hay que buscar en la
memoria de un evento a otro.
Las cadenas de Márkov son una herramienta para analizar el comportamiento y el
gobierno de determinados tipos de procesos estocásticos, esto es, procesos que
evolucionan de forma no determinística a lo largo del tiempo en torno a un conjunto
de estados.
Una cadena de Márkov, por tanto, representa un sistema que varía un estado a lo
largo del tiempo, siendo cada cambio una transición del sistema. Dichos cambios
no están predeterminados, aunque sí lo está la probabilidad del próximo estado en
función de los estados anteriores, probabilidad que es constante a lo largo del
tiempo (sistema homogéneo en el tiempo). Eventualmente, es una transición, el
nuevo estado puede ser el mismo que el anterior y es posible que exista la
posibilidad de influir en las probabilidades de transición actuando adecuadamente
sobre el sistema (decisión).
¿Cómo se utiliza en la toma de decisiones?
Las cadenas de Markov (MLN, por su siglas en inglés Markov Logic Networks)
proporcionan un sistema muy útil para crear e implementar un proceso de toma de
decisiones que sopese posibles escenarios y se utilice para predecir con mayor
exactitud comportamientos futuros. Las MLNs tienen muchas aplicaciones en el
mundo real, destacando su uso en negocios, política, finanzas, deportes, salud,
genética, física, economía y un largo etc.
El proceso de decisión de Markov es un proceso de control estocástico en tiempo
discreto, muy útil para la toma de decisiones en escenarios donde los resultados
son en parte azar y en parte decisiones previas. Los procesos de Markov pueden
ayudar a hacer predicciones para el futuro, basándose en datos actuales, datos
pasados y probables condiciones futuras.
Referencia bibliográfica.
Jáuregui Perla. (2013, noviembre 25). Análisis de Márkov. Recuperado de
https://www.gestiopolis.com/analisis-de-markov/

http://www.ingenieria.unam.mx/javica1/ingsistemas2/Simulacion/Cadenas_de_Mar
kov.htm
http://www.bigdatahispano.org/noticias/cadenas-de-markov-para-tomar-mejores-
decisiones/

Você também pode gostar