Você está na página 1de 8

APLICACIONES DE LA CADENA DE MARKOV

JENNIFER MARTINEZ GONZALEZ


MARÍA ALEJANDRA LAMBIS GUERRA
JUAN MASS

TUTOR
ING. JORGE MARIO LOPEZ

UNIVERSIDAD DE CÓRDOBA
FACULTAD DE INGENIERIA
PROGRAMA DE INGENIERÍA INDUSTRIAL
MONTERÍA-CÓRDOBA
2018
INDICE

Contenido
INTRODUCCION ..............................................................................................................................3
1. OBJETIVOS ...............................................................................................................................4
1.1 OBJETIVO GENERAL .....................................................................................................4
1.2 OBJETIVO ESPECIFICO ................................................................................................4
2. CADENA DE MARKOV ...........................................................................................................5
3. CADENA DE MARKOV DE TIEMPO CONTINUO ..............................................................5
3.1 APLICACIÓN DE LAS CADENAS DE MARKOV EN TIEMPO CONTINUO .........5
4. CONCLUSIÓN ...........................................................................................................................6
5. BIBLIOGRAFIA .........................................................................................................................7
6. ANEXOS .....................................................................................................................................8
INTRODUCCION

En la actualmente, se podría afirmar que Las Cadenas de Markov son de gran


relevancia dentro de diferentes campos, esto se debe a la importancia de sus
observaciones y estudios; Las cadenas de Markov se definen como los modelos de
probabilidad en procesos que evolucionan en el tiempo de una manera
probabilística, dichos procesos se son llamados procesos estocásticos, los cuales
pueden definir cómo podemos obtener unas probabilidades de ocurrencia en el
futuro, teniendo en cuenta el estado en el que nos encontramos en la actualidad.
Es decir las cadenas de Markov son procesos de corta memoria en el sentido de
que solo “recuerdan” el último estado visitado para decidir cuál será el próximo,
eesta dependencia del evento anterior distingue a las cadenas de Markov de las
series de eventos independientes.
A diferencia de las cadenas de Markov en tiempo discreto (n = 0, 1, 2,3…, y se
deducían numerosas propiedades), las que se dan en tiempo continuo, podemos
considerar un tiempo t ≥ 0. En tiempo continuo es complicado definir la distribución
condicionada.
A continuación se estudiaran las cadenas de Markov en tiempo continuo y se
conocerán aplicaciones de este proceso; en los negocios, las cadenas de Markov
se han utilizado para analizar los patrones de compra, los deudores morosos, para
planear las necesidades de personal y para analizar el reemplazo de equipo.
1. OBJETIVOS

1.1 OBJETIVO GENERAL


- Reconocer el nivel de importancia que tiene el estudio de las
características de las cadenas de Markov, tomando como ejemplo
algunas aplicaciones.

1.2 OBJETIVO ESPECIFICO


- Consultar Información de gran importancia acerca de las cadenas de
Markov en tiempo continuo, con el fin de reconocer de qué forma este
método es aplicable a la vida cotidiana.
2. CADENA DE MARKOV
Sea Xi una variable aleatoria que caracteriza el estado del sistema en puntos
discretos En el tiempo t 5 1, 2… . La familia de variables aleatorias {Xi} forma un
proceso estocástico que tiene la siguiente propiedad esencial:
𝑆𝑒 𝑑𝑖𝑐𝑒 𝑞𝑢𝑒 𝑢𝑛 𝑝𝑟𝑜𝑐𝑒𝑠𝑜 𝑒𝑠𝑡𝑜𝑐á𝑠𝑡𝑖𝑐𝑜 {𝑋𝑡}𝑡𝑖𝑒𝑛𝑒 𝑙𝑎 𝑝𝑟𝑜𝑝𝑖𝑒𝑑𝑎𝑑 𝑚𝑎𝑟𝑘𝑜𝑣𝑖𝑎𝑛𝑎 𝑠𝑖
𝑃{𝑋𝑡11 5 𝑗|𝑋0 5 𝑘0, 𝑋1 5 𝑘1, . . . , 𝑋𝑡– 1 5 𝑘𝑡– 1, 𝑋𝑡 5 𝑖}5 𝑃{𝑋𝑡11 5 𝑗|𝑋𝑡 5 𝑖}, 𝑝𝑎 𝑟𝑎 𝑡 5 0, 1, . ..
𝑦 𝑡𝑜𝑑𝑎 𝑠𝑢𝑐𝑒𝑠𝑖ó𝑛 𝑖, 𝑗, 𝑘0, 𝑘1, . . . , 𝑘𝑡– 1.
En palabras, esta propiedad markoviana establece que la probabilidad condicional
de cualquier “evento” futuro dados cualquier “evento” pasado y el estado actual Xt
5 i, es independiente de los eventos pasados y sólo depende del estado actual del
proceso

3. CADENA DE MARKOV DE TIEMPO CONTINUO

En las cadenas de Markov en tiempo discreto, utilizábamos como índice un tiempo


discreto n = 0, 1, 2 y se deducían numerosas propiedades. Las nociones de
cadenas de Markov se puede extender a un tiempo continuo t ≥ 0.
En tiempo continuo es complicado definir la distribución condicionada, dados
todos los valores Xr para r ≤ s, por lo que decimos en su lugar que Xt, t ≥ 0, es una
cadena de Markov si para cualquier 0 ≤ s0 < s1 <... < sn < s y posibles estados
i 0 , ... , in, i, j se tiene que:
P (Xt+s = j | Xs = i, Xsn = in , . . . , Xs0 = i0 ) = P (Xt = j | X0 = i)
Es decir, dado el estado actual, el resto del pasado es irrelevante para predecir el
futuro. En la definición se observa que la probabilidad de ir desde i en el tiempo s
hasta j en el tiempo s + t solo depende de t, esto es, de las diferencias de tiempos.

3.1 APLICACIÓN DE LAS CADENAS DE MARKOV EN TIEMPO CONTINUO


4. CONCLUSIÓN

Diariamente se presentan situaciones que permiten el uso de cadenas de Markov,


dichas situaciones se pueden convertir en problemas que llegan a ser muy
complicados y hacen que el modelo de la cadena se trasforme según el asunto,
pues dado el caso, no se trabaja igual un problema que describe una cadena de
Markov de tiempo discreto a cómo se maneja uno que describa una de tiempo
continuo. Las cadenas de Markov en tiempo continuo son aquellas en las que el
tiempo no se encuentra definido en un intervalo, es decir, no es discreto, situaciones
como la consulta con un asesor de caja en un banco, describen este tipo de cadena,
por tanto se puede concluir entonces que este tipo de modelos pueden ser de gran
importancia al momento de resolver este tipo de situaciones tanto en la vida
cotidiana como en la vida laboral.
5. BIBLIOGRAFIA

 Investigación de operaciones, 9na. Edición - Hamdy A. Taha - FL -Taha H.


Investigación de Operaciones. Alfaomega

 Introducción a la investigación de operaciones - 9Edi- Hillier - Hillier y


Lieberman Introducción a la Investigación de Operaciones

 http://campus.fi.uba.ar/pluginfile.php/63215/mod_resource/content/0/Markov
_y_Colas/Apunte_Markov.pdf.

 https://solemio.wikispaces.com/file/view/gudoprocesos.pdf
6. ANEXOS

Você também pode gostar