Você está na página 1de 9

Anlisis de productividad con cadenas de Markov en lnea

de produccin
Ortega Franco Oscar Alberto Carlos Alberto Gonzales Chan
Instituto tecnolgico de Mexicali
Carrera Ing. Mecnica
Introduccin.
En la industria se ha venido viendo como
analizar la productividad de sus lneas de
trabajo para analizar la informacin de
esta forma detectar los procesos que se
estn realizando mal para corregirlos.
Para los anlisis de productividad de las
industrias existen muchos modelos [1-4]
uno de estos es el mtodo de Kurosawa,
en el cual su objetivo es medir la
productividad de la empresa, ayudar
analizar el pasado y a planificar nuevas
actividades de mejoramiento, este
mtodo es uno de los ms prcticos para
medir la productividad de la empresas,
solamente que se enfoca ms en la
productividad de los trabajadores que la
del proceso en si [5]. Otro modelo para la
productividad seria el modelo integral de
productividad, este parte de la evaluacin
de los segmentos estratgicos y de las
propuestas de valor con los que la
empresa participa en cada segmento,
para definir si estos son los adecuados o
reorientarlos, en caso de ser necesario.
De esta manera se concibe la
productividad
desde
la
estrategia,
buscando los mejores niveles de
desempeo en el mercado, para permitir
que toda la empresa trabaje en la
consecucin de objetivos empresariales,
encadenando para ello todos sus
procesos. El Modelo Integral determina el
nivel de operacin ptimo de la empresa,

para visualizar los recursos sobrantes o


faltantes y tomar acciones para su
consecucin o para su ptima utilizacin
[6]. Para la mejora de la productividad
tambin se pueden seguir modelos como
el de David Sumanth. El objetivo del
siguiente modelo es el de prestar a las
empresas una herramienta que les
permita determinar el estado actual de
productividad, indicando cuales de los
insumos tangibles o medibles de la
empresa son los ms representativos y
sobre cules de ellos se deben enfatizar
las estrategias de mejoramiento de la
productividad. El modelo se sustenta
sobre la base terica del modelo de
productividad total operativo (MPT)
desarrollado por David J. Sumanth, el
cual est compuesto por cuatro grandes
fases a saber: medicin, evaluacin,
planeacin
y
mejoramiento,
que
componen el ciclo de mejoramiento de la
productividad [5]. El modelo en el cual
nosotros basamos nuestra investigacin
es el de las cadenas de Markov, recibe su
nombre del matemtico ruso Andri
Markov (1856-1922), que lo introdujo en
1907. En la teora de la probabilidad, se
conoce como cadena de Markov o
modelo de Markov a un tipo especial de
proceso estocstico discreto en el que la
probabilidad de que ocurra un evento
depende
solamente
del
evento
inmediatamente
anterior.
Esta
caracterstica de falta de memoria recibe

el nombre de propiedad de Markov [2]. En


este trabajo nos apoyamos para obtener
los resultados planteados de evaluacin
de la productividad de las cadenas de
Markov absorbentes [2-4, 11-15].
2.- Procesos de Markov
Las cadenas de Markov fueron
introducidas por el matemtico ruso
Andrey Markov alrededor de 1905. Su
intencin era crear un modelo
probabilstico para analizar la frecuencia
con la que aparecen las vocales en
poemas y textos literarios [1-3]. El xito
del modelo propuesto por Markov radica
en que es lo suficientemente complejo
como para describir ciertas
caractersticas no triviales de algunos
sistemas, pero al mismo tiempo es lo
suficientemente sencillo para ser
analizado matemticamente. Las
cadenas de Markov pueden aplicarse a
una amplia gama de fenmenos
cientficos y sociales, y se cuenta con una
teora matemtica extensa al respecto.
En este captulo presentaremos una
introduccin a algunos aspectos bsicos
de este modelo [15].
Algunas situaciones empresariales se
pueden modelar describiendo clases o
estados separados, de manera que el
sistema est en un solo estado cada vez
y que el cambio entre estados sea
probabilstica. Los procesos de Markov se
pueden analizar para encontrar el
comportamiento futuro a corto y a largo
plazo, una vez que se ha especificado el
proceso [4].
2.1.- Definicin
Los procesos de Markov o Cadena de
Markov son procesos estocsticos que
son tiles al estudiar la evolucin de
ciertos sistemas en ensayos repetidos.
Los ensayos son frecuentemente
periodos sucesivos en los que no se

puede determinar certidumbre del estado


o resultado del sistema en cualquier lapso
o intervalo de tiempo determinado. Se
utilizan probabilidades de transicin para
describir la forma en que el sistema hace
transiciones de un periodo al siguiente.
Por ello se habla de la probabilidad de
que el sistema se encuentre en un estado
especfico en un periodo dado, que se
encontraba en un estado en el periodo
anterior.
2.2.- Principio de Markov: Cuando una
probabilidad condicional depende
nicamente del suceso inmediatamente
anterior, cumple con el Principio de
Markov de Primer Orden, es decir.

Caractersticas de los Procesos de


Markov de Primer Orden:
Se pueden usar como modelo de un
proceso fsico o econmico que tenga las
siguientes propiedades:
a) Que la probabilidad cumpla con el
principio de Markov.
b) Existencia de un nmero finito de
estados.
c) Las pij son constante con respecto al
tiempo perodo.
d) Ensayos en perodos iguales.
Si un suceso depende de otro adems
del inmediatamente anterior, este es un
proceso de Markov de mayor orden. Por
ejemplo, Un proceso de segundo orden
describe un proceso en el cual el suceso
depende de los dos sucesos anteriores.
Los procesos de Markov tambin se les
llaman Cadenas de Markov.
2.3.- Probabilidad de transicin
Una forma para describir una cadena de
Markov es con un diagrama de estados,
como el que se muestra en la Figura No.
1. En sta se ilustran sistema de Markov
con cuatro estados posibles: S1, S2, S3 y

S4. La probabilidad condicional o de


transicin de moverse de un estado a
otrose indica en el diagrama. Para simplifi
car la notacin se utilizansubndices para
el estado actual y el siguiente. Es decir,
P14 = P (S4/S1).Las flechas muestran las
trayectorias de la transicin como son
posibles.
Ntese que no aparecen algunas
trayectorias como la de S2 a S3. Su
ausencia significa que estas trayectorias
tienen probabilidad de ocurrencia igual
que cero.

2.5.- Estados Absorbentes


Es aquel estado que tiene una
probabilidad de ser abandonado igual a
cero, es decir. Una vez en l es imposible
dejarlo. Esto quiere decir: Si i es un
estado absorbente si se cumple que pij
=0 si i j y pii =1.
Una cadena de Markov es Absorbente: Si
se cumple:
a) Tiene por lo menos un estado
Absorbente.
b) Es posible ir de cada estado no
absorbente hasta por lo menos un estado
absorbente. No es necesario efectuar
esta transicin en un paso; ni es
necesario tener la posibilidad de alcanzar
cada estado absorbente a partir de
cualquier estado no absorbente.
2.6.- Anlisis de las cadenas de
Markov Absorbentes

FIGURA No. 1

2.4.- Matriz de transicin


Esquematizar el caso anterior a travs
de una matriz, se puede ver a
continuacin, ntese que como existen
cuatro estados posibles, se necesitan 4x4
=16 probabilidades

Ahora que se sabe como presentar


los datos, qu puede hacerse? Un
anlisis til es pronosticar el estado del
sistema despus de 1, 2,3 o ms
perodos. Esto se llama anlisis de
transicin, debido a que es a corto plazo
y est enfocado a perodos cortos.

A partir del anlisis de estas cadenas, es


posible determinar los siguientes datos:
1) El nmero esperado de pasos antes de
que el proceso sea absorbido.
2) El nmero esperado de veces que el
proceso est en cualquier estado dado no
absorbente.
3) La probabilidad de absorcin por
cualquier estado absorbente dado.
El primer paso del anlisis es construir
una submatriz H de P formada de
estados no absorbentes a estados no
absorbentes. Luego H da las
probabilidades de ir desde cualquier
estado no absorbente hasta otro estado
no absorbente en un paso exactamente,
H 2 da las probabilidades de ir desde
cualquier estado no absorbente hasta
otro estado no absorbente en dos pasos
exactamente. H 3 da informacin similar
para tres pasos, etc. Por lo tanto, H n da
esta misma informacin para n pasos.
Para hallar el nmero esperado de pasos

antes que el proceso sea absorbido,


consiste en calcular el nmero esperado
de veces que el proceso puede estar en
cada estado no absorbente y sumarlos.
Esto totalizara el nmero de pasos antes
de que el proceso fuera absorbido y por
consiguiente el nmero esperado de
pasos hacia la absorcin. Luego:
I+H+H2+H3+ .. = (I-H)-1 =Q Por
consiguiente Q representa el nmero
esperado de perodos que el sistema
estar en cada estado no absorbente
antes de la absorcin, por lo tanto la
suma de cada fila de Q representa el
promedio de perodos que transcurren
antes de ir a un estado absorbente. Para
hallar la probabilidad de absorcin por
cualquier estado absorbente dado, se
emplea una lgica similar en el anlisis.
Se construye una submatriz G de P
formada de estados no absorbente a
estados absorbentes y representa la
probabilidad de ir de un estado no
absorbente a un estado absorbente en un
paso exactamente, H.G representa la
probabilidad de ir de un estado no
absorbente a un estado absorbente en
dos pasos exactamente y as
sucesivamente. Por lo tanto
G+H.G+H2 .G+..... = (I+H+H2+H3+
..).G = (I-H)-1.G = Q.G =R, Y esta
matriz representa la proporcin
probabilidad en que un estado no
absorbente pasa a un estado absorbente.
3.- Aplicacin.
Se analizar la lnea de produccin Mil 4
de fetasa por medio de cadenas de
Markov estados absorbentes [2,3] para
determinar cuan productiva es dicha
lnea. Esta lnea conlleva varios procesos
descritos a continuacin:
Desembobinador: Su funcin principal es
alimentar la mquina de acero para sus
operaciones.

MRB: el material con defecto es


segregado de la lnea de produccin para
analizar y regresar a la lnea y/o enviar a
SCRAP.
SCRAP: El material segregado que no
pasa la inspeccin se manda como
desperdicio.
Acumulador: Su funcin es acumular el
acero enviado desde el desembobinador
para dar un tiempo determinado y
alimentar forming.
Forming: Dar forma (tubular) a la placa de
acero enviado desde el acumulador.
Soldadura por alta frecuencia: Unir los
extremos de la cintilla para generar
tubulares.
Tina de enfriamiento: Su funcin principal
es enfriar el material que llega desde
soldadura.
SIZING: Su funcin es dar un perfil
(circular, cuadrado o rectangular). Este
consta de un conjunto de dados que es
con lo se da forma al tubular.
Cabezas turcas: Su funcin es controlar
el pandea miento generado por los
procedimientos anteriores.
Guillotina: Su funcin principal es cortar el
tubular a la medida adecuada. Esta parte
consta de un motor elctrico (trifsico) y
un disco de corte.
MRB: El material segregado es llevado a
la mesa de recuperacin para dar una
medida adecuada.
SCRAP: El material que no cumple con
las especificaciones es mandado como
desperdicio.

18.27
8856
4
1944
37683.50477.73
Guillotina

0
0
0
0
100
48480
Cabezas turcas

0
0
0
0
100
48480
Sinzing

0
0
0
100
Tina de enfriamiento
48480

0
0
0
0
100
Soldadura por alta frec
4uenc
8480ia

0
0
0
0
48480
Forming

100

0
0
0
0
100
48480
Acumulador

0.67
324.8
11
5335.2
88.32
Desembobinador 42820

%
Ft

Ft

Ft

SCRAP
MRB
En produccion
operacion

Aplicando cadenas de Markov estados


absorbentes analizaremos la lnea de
produccin Mil 4 el da 24/09/2015:

Como se puede apreciar en la siguiente


tabla los valores expresados en Ft
lineales de tubulares y sus porcentajes de
MRB y SCRAP son representados en la
siguiente matriz de transicin P donde
Scrap es un estado absorbente [2-5, 1115] y P es producto terminado.

SC2= es el scrap generado en la salida


del material.
P= Producto terminado
En la siguiente sub matriz se logra
observar la submatriz N, I, A, O.

Dnde:
D= Desembobinador.
SC1= es el scrap segregado por las
cintillas en mal estado.
A= Acumulador.
F= Forming.
SF= Soldadura por alta frecuencia.
T= Tina de enfriamiento.
Z= Sinzing.
C= Cabezas turcas.
G= Guillotina.

A continuacin se proceder a restar la


matriz de transicin por la de estados
absorbentes [11,13].

Y usando la funcin inversa el resultado


siguiente es:

As como los errores de calibracin en


set up y durante todo el proceso.

Con los resultados de la matriz ((I-N)^1)*A determinamos que la lnea de


produccin es un 0.8097 productiva.
4.- Anlisis de resultados.
Con base en los resultados obtenidos se
determina que la lnea de produccin es
80.97 productiva mientras que el otro
20.03% se queda en SCRAP y MRB
mostrando as que los errores ms
comunes son por insertar material en mal
estado como se muestra a continuacin.

5.- Conclusin.
Al realizar este anlisis con cadenas de
Markov se pudo observar que las
variaciones de la productividad varan
segn la produccin en el da, si se tuvo
que hacer un set up, si la materia prima
se encontraba en mal estado, el error
humano al momento de calibrar la
mquina, dicho esto tambin se logr
obtener la productividad de dicha lnea de
produccin que es de 80.97 % productiva,
sin embargo todo lo ya mencionado
anterior mente afecta a la productividad
directamente.
En
conclusin
la
productividad del da 24/09/2015 se

puede comparar con otros das con


menor produccin para tener un
porcentaje ms acercado a la realidad,
adems de un estudio de confiabilidad
para ver que margen de error tiene este
mtodo y que tan acertado es.
6.- Referencias.
[1] Hamady A. Taha (1995) proceso de
decisin de Markov, departamento de
ingeniera industrial Universidad de
Arkansas, Fayatteville
(3
edicin),
Investigacion de operaciones, (798-823).
[2] Hamady A. Taha (2012). Cadenas de
Markov. Departamento de ingeniera
industrial Universidad de Arkansas,
Fayatteville (9 edicin), Investigacion de
operaciones (571-592). ISBN: 978-6070796-6.
[3] A.A. Markov (1971). Extension of the
limit theorems of probability theory to a
sum of variables connected in a chain
(volume 1). R. Howard. Dynamica
Probabilistic Systems.
[4] Caba Villalobos, Naim Jess
Chamorro Altahona, Oswaldo Ricardo
(2006-08-31). Toma de Decisiones a
Travs
de
la
Investigacin
de
Operaciones. Caba Villalobos, Naim
Jess.
[5] Jimnez Rojas (2001). Modelo de
productividad de David Sumanth aplicado
a una empresa del sector de maquinaria
no elctrica. Ciencia, Investigacin,
academia y desarrollo. Pgs. 81 a 87.
[6] lvaro Jimnez Rojas, Adwin Eduardo
Delgado, German Gaona Villote. Modelo
de productividad de David Sumanth
aplicado a una empresa del sector de
maquinaria
no
elctrica.
Revista
Internacional de Ciencias no lineales y
Numrica.

[7] Jutta Bikowski, Jan van der Kruk,


Johan A. Huisman, Harry Vereecken
Instituto de Qumica y Dinmica de la
Geosfera Agrosphere, ICG 4 Centro de
Investigacin
de
Jlich, Alemania.
Inversin y anlisis de sensibilidad de los
datos de GPR con dispersin de gua de
ondas usando Markov Chain Monte
simulacin Carlo.
[8] Vitor V. Lopes, Teresa Scholz, Ana
Estanqueiro, Augusto P. Novais Sistemas
de
Energa
Modelado
y
Unidad
Optimizacin Ocano, Viento y Solar
Unidad de Sistemas de Energa
[9] Sadegh Abedi, Naser Hmidi, Morteza
Mosakhani Departamento de Gestin
Universidad Islmica Azad, rama Qazvin.
El uso de Markov Chain y simulacin para
el anlisis y Lneas de sistemas de
produccin con optimizacin de diseo
restricciones.
[10] Jos Eduardo Medina Fernndez de
Soto (2010). Modelo Integral de
Productividad, aspectos importantes para
su implementacin. Prodgal.
[11] Tcnicas e instrumentos de medicin
de la productividad y la calidad.
http://observatoriodelacapacitacion.stps.g
ob.mx/oc/PDF
%5CPublicaciones_completas(Productivi
dad)
%5C18_Tecnicas_e_instrumentos_de_m
edicion_de_calidad-product.pdf.
[12]
Procesos
de
Markov.
http://www.enj.org/wiki/images/2/28/Proce
sos_Markov.pdf.
[13] D.R. Universidad TecMilenio
http://cursos.tecmilenio.edu.mx/cursos/at8
q3ozr5p/prof/hg/hg04003/anexos/explica1
0.htm

[14] Matemticas finitas resumen del


tema:
sistemas
Markov
http://www.zweigmedia.com/MundoReal/S
ummary6b.html

semestre. reas de inters; Produccin,


Mantenimiento industrial, diseo e
investigacin.

[15] Barranquilla, Atlntico, Colombia


Estudiante de Ingeniera Industria,
Investigacion
de
operaciones.
http://invop2.blogspot.mx/2011/06/cadena
s-de-markov-con-estados.html.
7.- Biografa.
Carlos Alberto Gonzales Chan. Mexicali
B.C. Ing. Mecnica, Sptimo semestre.
reas
de
inters;
Mantenimiento
Industrial y Diseo.

Ortega Franco Oscar Alberto. Mexicali


B.C. Carrera de ing. Mecnica, sptimo

Você também pode gostar