Você está na página 1de 149

  SIMULACIÓN

 
 
Introducción a la Simulación
 

 
 
 
 

   
 
 

 
 
 
 

 
 
 

 
 
 
 

 
 
 
   
 

• SIMULACIÓN  DE  SISTEMAS  DE  INVENTARIOS  


 
 
1. Índice  
1. Introducción  
2. ¿Qué  es  simulación?  
2.1. Terminología  básica  
2.2. Tipos  de  modelos  de  simulación  
3. Pasos  de  un  estudio  de  simulación  
Simulación  manual  de  sistemas  de  colas  
 

2. Introducción  
El   propósito   del   presente   documento   es   presentar   a   los   estudiantes   la   definición   de  
simulación  de  eventos  discretos,  como  herramienta  esencial  para  el  soporte  en  el  proceso  de  
toma  de  decisiones  dentro  de  las  organizaciones.  Con  el  objetivo  de  presentar  esta  definición  
se  mostrará  la  terminología  general  usada  en  este  ámbito,  así  como  los  tipos  de  simulación.  
 
Por  otra  parte,  teniendo  en  cuenta  que  el  objetivo  general  del  módulo  es  que  los  estudiantes  
desarrollen  las  capacidades  necesarias  para  llevar  a  cabo  un  estudio  completo  de  simulación,  
en  esta  unidad,  se  presentará,  paso  a  paso,  cuáles  son  las  actividades  que  deben  realizarse  
para  lograr  un  estudio  exitoso.  

Finalmente,  se  presentará  al  estudiante  el  primer  acercamiento  al  proceso  de  simulación,  a  
través   de   un   tema   conocido   como   simulación   manual,   en   la   cual   se   verán   involucrados   los  
conceptos   antes   presentados,   así   como   la   aparición   de   algunas   medidas   de   desempeño  
básicas   que   posteriormente   permitirán   realizar   un   análisis   completo   de   la   situación   actual   de  
la  organización.  
 
3. Metodología  
 
La   cartilla   presentará,   de   forma   estructurada,   los   conceptos   básicos   para   dar   inicio   a   la  
presentación  de  lo  que  es  la  Simulación  de  eventos  discretos.  
 
Esto   se   hará   presentando   conceptos   generales   de   sistemas   y   modelaje   para   construir   de  
forma   lógica,   el   concepto   completo   de   lo   que   es   la   simulación   como   herramienta   que   da  
soporte   y   permite   argumentar   las   decisiones   que   se   toman   con   respecto   a   algún   tema   en  
específico.  
 
Habiendo  definido  lo  que  es  la  simulación,  se  presentarán  algunos  términos  básicos  propios  
de   la   materia,   que   se   utilizarán   con   frecuencia   a   lo   largo   del   proceso   de   aprendizaje.   Así  

 
2   [ POLITÉCNICO GANCOLOMBIANO]
 

mismo,   se   explicará   al   estudiante   la   metodología   para   llevar   a   cabo   un   proceso   de  


simulación.  
 
Finalmente,  se  hará  un  primer  acercamiento  a  la  herramienta  de  forma  manual  para  que  este  
reconozca  los  conceptos  expuestos  inicialmente.  
 
4. Mapa  conceptual  del  módulo  
 
 
Simulación  de  eventos  
  discretos  
 
 
  Introducción  
Modelos  
Análisis  de  entrada  
Verificación    y  
Análisis  de  salida  
estadísticos   validación  
 
 
  Inferencia  
Principios   Histogramas  
  estadística  
Comparación  y  
  evaluación  de  
alternativas  
 
  Clasificación   Distribucion  de  
probabilidad  
Pruebas  de  bondad  
de  ajuste  
 
 
  Terminología  
  Números  y  
variables  aleatorias  
 
 
 
5. Objetivo  General  
 
Al   finalizar   el   módulo,   los   estudiantes   sabrán   cuáles   son   los   conceptos   básicos   de   la  
simulación  de  eventos  discretos,  así  como  sus    aplicaciones  en  sistemas  reales  como  líneas  de  
espera,  procesos  productivos  y  procesos  logísticos  
Al  finalizar  la  primera  semana  de  aprendizaje:  

1. El   estudiante   identificará   los   conceptos   fundamentales   de   la   simulación   de   eventos  


discretos.  
2. El  estudiante  aprenderá  los  pasos  a  seguir  para  realizar  un  estudio  de  simulación.  

El   estudiante   realizará   simulaciones   manuales   con   diferentes   características   y   calculará   las  


medidas  de  desempeño  asociadas  
 
 
 

 
[ SIMULACIÓN ] 3
 

6. Desarrollo  temático  
 
6.1  Componente  motivacional  
Actualmente,  con  el  ánimo  de  minimizar  los  costos  en  los  procesos  de  toma  de  decisiones,  
las  organizaciones  han  desarrollado  metodologías  más  cuidadosas  en  las  que  se  disminuye  el  
riesgo   de   realización,   pero   que   de   igual   manera,   constituyen   un   soporte   real   a   decisiones  
tomadas  al  interior  de  la  compañía.  
 
Por  ejemplo,  si  cierta  compañía  se  encuentra  analizando  la  posibilidad  de  modificar  la  forma  
en   que   está   dispuesta   su   línea   de   producción,   porque   considera   que,   actualmente,     es  
ineficiente  y  la  tasa  de  unidades  producidas  por  unidad  de  tiempo  no  es  suficiente,  existen  
dos  formas  de  tomar  la  decisión  de  realizar  el  cambio:  
 
1. Hacer   un   experimento   directamente   sobre   la   línea   de   producción,   es   decir,   realizar   las  
modificaciones   sobre   el   sistema,   donde   se   mueva   la   maquinaria,   se   realice   ajustes  
necesarios  y    pruebas.  
2. Hacer  un  experimento  sobre  un  modelo  que  represente  la  línea  de  producción,  es  decir,  
donde   se   realicen   las   modificaciones   en   un   modelo   computarizado,   en   el   cual   no   se   deba  
mover  la  maquinaria  y  tampoco,  los  ajustes  directos.  
 
Si   después   de   realizar   el   experimento   se   demuestra   que   el   cambio   propuesto   no   es   válido  
porque  no  se  logra  aumentar  la  tasa  de  producción,  es  evidente  que  con  la  opción  número  
uno,  la  inversión  y  el  tiempo  de  prueba  del  experimento  es  mucho  mayor  que  con  la  opción  
número  dos.  
 
A   partir   de   lo   anterior,   resulta   relevante   que   el   egresado   del   Politécnico   Grancolombiano  
desarrolle   todas   las   habilidades   necesarias   para   emplear   herramientas   de   vanguardia   que  
permitan  a  las  compañías  ser  más  competitivas  dentro  del  mercado,  cualquiera  sea  el  campo  
en  el  que  se  desenvuelva.  
 
6.2  Recomendaciones  académicas  

Dentro   de   las   recomendaciones   generales   que   debe   seguir   el   estudiante   para   lograr   un  
excelente   desempeño   en   el   desarrollo   del   módulo,   está   realizar   la   evaluación   diagnóstica   del  
módulo,   pues   esta   le   permitirá   identificar   cuáles   son   sus   fortalezas   y   acrecentarlas   y,   por  
supuesto,  cuáles  son  sus  debilidades  para  enfrentarlas  y  mejorarlas.  
Por  otra  parte,  con  el  objetivo  de  tener  una  excelente  comunicación,  el  estudiante  deberá:  

• Aprovechar  el  chat  semanal  en  el  cual  se  tendrá  un  encuentro  sincrónico  con  el  tutor.  
• Presentar  sus  dudas  a  través  de  mensajes  personalizados  para  el  tutor.  
• Realizar   los   ejercicios   de   los   talleres   propuestos,   los   cuales   permitirán   reforzar   los  
conceptos  presentados  en  las  cartillas.  

 
4   [ POLITÉCNICO GANCOLOMBIANO]
 

Por   otra   parte,   el   estudiante   debe   tener   presente   que   la   educación   virtual   es   un   proceso  
autónomo  en  gran  medida,  por  lo  cual  exige  un  nivel  de  compromiso  verdadero,    recuerden  
que   1   hora   de   educación   presencial   es   equivalente   a   3   horas   de   educación   virtual,   revisan  
semana   a   semana   las   actividades   recomendadas,   así   como   las   fechas   para   entregas   del  
proyecto,  realización  de  quices,  parciales  y  examen  final,  y  por  supuesto,  la  participación  en  
los  foros  obligatorios  de  discusión.  
 
6.3    Desarrollo  de  cada  una  de  las  unidades  temáticas  
 
1.INTRODUCCIÓN  

El   modelamiento   es   el   arte   de   diseñar   una   representación   simplificada   de   un   sistema   real,  


con  el  propósito  de  predecir  su  comportamiento  futuro  a  través  del  análisis  de  sus  medidas  
de   desempeño.   Dicha   representación   es   un   modelo.   Los   modelos   son   utilizados   para  
capturar   ciertos   aspectos   del   comportamiento   del   sistema   –   los   que   son   de   interés   para   el  
analista-­‐  y  de  esta  manera,  adquirir  un  mayor  entendimiento  de  su  funcionamiento.  
 
El   modelaje   requiere   dos   competencias   fundamentales:   abstracción   y   simplificación.   Estas  
habilidades  deben  ser  aplicadas  teniendo  en  cuenta  el  contexto  en  el  cual  se  desenvuelve  la  
situación   o   el   sistema   de   interés.   Es   decir,   si   cada   elemento   del   sistema   en   estudio   se  
reprodujera   en   un   modelo   tan   detallado   en   el   orden   de   minuto   a   minuto,   su   costo   sería  
equivalente  al  costo  del  sistema  real,  lo  que  implicaría  que  el  modelaje  fuese  una  alternativa  
poco   atractiva   o   nada   viable.   Por   lo   tanto,   cabe   aclarar   cuáles   son   las   circunstancias   en   las  
que   hay   motivaciones   para   recurrir   a   la   metodología   del   modelaje   de   sistemas.   Tales  
motivaciones  se  resumen  a  continuación:  

• Evaluar  el  desempeño  de  un  sistema  bajo  condiciones  usuales  e  inusuales.  Un  modelo  
se  puede  convertir  en  una  necesidad,  si  la  operación  rutinaria  de  un  sistema  real  bajo  
análisis,  no  puede  ser  interrumpida  sin  generar  consecuencias  severas  (por  ejemplo,  
intentar   implementar   una   modificación   a   una   línea   de   producción,   cuando   se   está  
tratando  de  cumplir  fechas  de  entrega  muy  próximas).  
• Predecir  el  desempeño  de  sistemas  experimentales.  Cuando  el  sistema  de  interés  aún  
no   existe,   la   construcción   del   modelo   es   mucho   más   económica   y   segura   que   la  
construcción  del  sistema  real  o  incluso,  de  su  prototipo.  
• Evaluar   múltiples   alternativas   de   diseño.   Este   caso   está   relacionado   con   el   anterior,  
solo   que   la   motivación   económica   es   mucho   mayor.   Los   resultados   del   desempeño  
potencial  del  sistema  son  evaluados  junto  con  indicadores  de  costo-­‐beneficio.  

Los  modelos  pueden  tener  varias  tipificaciones,  entre  ellas  se  encuentran:  

• Modelos   físicos:   corresponden   a   objetos   físicos   simplificados   o   a   escala   (por   ejemplo,  


aviones  a  escala  o  maquetas).  

 
[ SIMULACIÓN ] 5
 

• Modelos   analíticos:   es   un   conjunto   de   ecuaciones   o   relaciones   entre   variables   de   tipo  


matemático.  

Un   modelo   de   simulación,   objeto   principal   de   este   curso,   es   un   caso   especial   de   los   modelos  
de   tipo   analítico.   Mientras   que   los   modelos   enteramente   matemáticos   se   enfocan   en   la  
obtención  de  soluciones  óptimas  del  problema  a  través  de  procedimientos  algorítmicos,  los  
modelos   de   simulación   buscan   soluciones   aproximadas   a   instancias   muestrales   específicas  
del   sistema   en   estudio.   Para   aclarar   esta   diferencia,   supóngase   que   se   desea   estudiar   una  
línea  de  producción,  la  cual,  conceptualmente,  se  puede  modelar  como  un  sistema  de  colas.  
El   enfoque   matemático   crearía   un   modelo   analítico   de   colas,   representado   a   través   de  
sistemas  de  ecuaciones,  variables  de  decisión  y  técnicas  matemáticas  de  optimización  donde    
se   encuentran   las   soluciones   al   problema   planteado.   El   modelo   de   simulación   crearía   una  
representación   computacional   del   sistema   de   colas   y   la   correría   un   número   de   veces  
suficiente,   de   tal   forma   que   los   resultados   permitan   afirmar   que   el   modelo   es   una   fiel  
representación  (muestra)  del  sistema  en  estudio.  
 

Sistema  
Experimentar  
directamente   Experimentar  con  un  modelo  

Pueden  ser   Modelo  físico   Modelo  matemático  


muy  costosos  

No  siempre  son  
sencillas  de   Analítico   Simulación  
obtener  
 
Figura  1.  Formas  de  estudiar  un  sistema  

 
2. ¿QUÉ  ES  SIMULACIÓN?  

Simular   es   imitar   la   operación   de   un   proceso   o   sistema   real.   Implica   la   generación   de   una  


historia   “artificial”   del   sistema   para   observar   cómo   se   realizan   inferencias   de   las  
características   y   desempeños   del   sistema   en   estudio.   Con   base   en   esta   definición   y   en   lo  
explicado  en  párrafos  anteriores,  se  puede  afirmar  que  la  simulación  debe  utilizarse  con  los  
siguientes  propósitos:  
 

 
6   [ POLITÉCNICO GANCOLOMBIANO]
 

• Estudiar  y  experimentar  con  las  interacciones  de  un  sistema  complejo.  


• Observar  el  efecto  de  las  alteraciones  al  sistema  en  el  modelo.  
• Tener  conocimiento  del  comportamiento  del  sistema  
• Experimentar  nuevas  políticas  o  nuevos  diseños  antes  de  su  implementación.  
• Determinar  requerimientos  de  capacidad.  
• Entrenar  y  aprender.    

Sin   embargo,   debe   tenerse   presentes   aquellas   circunstancias   en   las   cuales   no   sería  
conveniente  la  aplicación  de  la  simulación  como  metodología  de  estudio  de  los  sistemas,  a  
saber:  

• El  problema  puede  resolverse  por  sentido  común.  


• El  problema  puede  ser  abordado  y  resuelto  analíticamente.  
• Es  más  fácil  realizar  experimentación  directa.  
• No  hay  tiempo  o  recursos    para  realizar  los  estudios.  
• No  hay  datos  disponibles.  

Dentro  de  las  áreas  de  aplicación  más  relevantes  de  la  simulación  se  pueden  enumerar:  

• Industria  manufacturera  
• Construcción  y  administración  de  proyectos  
• Industria  militar  
• Logística,  cadena  de  abastecimiento  y  distribución  
• Transporte  
• Procesos  de  negocio  
• Servicios  de  salud  
• Redes  de  telecomunicaciones  
• Análisis  de  call  centers  

Terminología  básica:  

 Sistema:   grupo   de   objetos   que   relacionados   entre   sí   ordenadamente,   contribuyen   al  


cumplimiento  de  determinado  objetivo,  por  ejemplo,  una  línea  de  producción,  una  oficina  
bancaria,  etc.  
 Entidad:   un   objeto   de   interés   en   el   sistema,   por   ejemplo,   una   pieza   de   la   línea   de  
producción.  
 Atributo:  un  rasgo  o  característica  de  la  entidad.  
 Estado   del   sistema:  conjunto  de  variables  necesarias  para  describir  el  sistema  en  cualquier  
momento.  
 Evento:  suceso  que  puede  cambiar  el  estado  del  sistema.  
 Recurso:  objeto  del  sistema  que  transforma  o  presta  servicio  a  la  entidad.  
 Sistema   discreto:   aquel   donde   la   variable   de   estado   cambia   en   un   conjunto   discreto   de  
puntos   en   el   tiempo,   por   ejemplo,   el   número   de   clientes   disminuye   en   una   oficina  

 
[ SIMULACIÓN ] 7
 

bancaria  si  un  cliente  ya  termina  su  transacción  y  sale  de  la  instalación  en  el  instante  t.  Por  
lo  tanto,  dicha  oficina  podría  considerarse  un  sistema  discreto.  
 Sistema  continuo:  aquel  donde  la  variable  de  estado  cambia  continuamente  en  el  tiempo,  
por  ejemplo,  el  nivel  de  agua  de  una  represa.  

 
Tipos  de  Modelos  de  Simulación  

1. Según  la  naturaleza  de  los  parámetros:  


 Determinísticos:  los  datos  de  entrada  son  conocidos  con  plena  certeza.  
 Estocásticos:   los   datos   tienen   un   grado   de   incertidumbre   tal,   que   deben   ser  
manejados  como  variables  aleatorias.  
2. Según  el  carácter  evolutivo  del  modelo:  
 Estáticos:  el  modelo  evoluciona  sin  tener  en  cuenta  los  cambios  que  genera  el  paso  
del  tiempo  (Simulación  Monte  Carlo).  
 Dinámicos:  las  variables  de  estado  cambian  en  la  medida  que  el  tiempo  transcurre.  
3. Según  el  tipo  de  variable  de  estado:  
 Discretos:  la  variable  de  estado  cambia  en  un  conjunto  discreto  de  puntos.  
 Continuos:  la  variable  de  estado  cambia  continuamente  en  el  tiempo.  

Cabe  aclarar  que,  según  esta  tipificación,  el  enfoque  de  este  módulo  está  encaminado  hacia  
el   diseño   y   construcción   de   modelos   estocásticos,   dinámicos   y   discretos,   características  
fundamentales  del  paradigma  de  la  Simulación  de  Eventos  Discretos.  
 

3. PASOS  DE  UN  ESTUDIO  DE  SIMULACIÓN  

Como   se   mencionó   inicialmente,   el   modelaje,   incluido   el   de   simulación,   es   una   actividad  


complicada   que   combina   arte   y   ciencia.   Sin   embargo,   desde   una   óptica   más   general,   el  
proceso   para   llevar   a   cabo   un   estudio   de   simulación   se   puede   resumir   en   los   siguientes  
pasos:  

• Formulación   del   problema.   Este   primer   paso   consiste,   esencialmente,   en   el   análisis   del  
sistema  y  definición  del  problema  a  resolver.    
• Fijación  de  los  objetivos.  En  esta  fase  se  define  el  alcance  del  estudio  y  las  fronteras  del  
problema   que   va   a   ser   abordado.   Es   decir,   se   determina   cuáles   instancias   del  
problema  se  van  a  estudiar  para  hallar  soluciones.  
• Conceptualización   del   modelo.   En   esta   etapa   se   incluyen   actividades   tales   como   la  
identificación  de  los  parámetros  de  entrada,  las  medidas  de  desempeño  de  interés  y  
el  establecimiento  de  las  relaciones  entre  los  parámetros  y  variables.  La  información,  
aquí,  se  puede  representar  en  diagramas  de  flujo  o  árboles  jerárquicos.  
• Recolección   de   información.   Es   una   de   las   fases   más   importantes   y   críticas   del   estudio,  
ya  que  producto  de  esta  etapa    aparece  la  estimación  de  los  parámetros  de  entrada  
del  modelo,  y  dependiendo  de  la  calidad  de  la  información  recogida,  aparece  el  éxito  

 
8   [ POLITÉCNICO GANCOLOMBIANO]
 

de   los   resultados   del   modelo.   En   esta   fase,   el   analista   hace   presunciones   sobre   las  
distribuciones   de   probabilidad   de   los   datos   recolectados   y   luego,   a   través   de   pruebas  
de  hipótesis,  corrobora  o  rechaza  los  supuestos  planteados.  
• Construcción   del   modelo.   Una   vez   el   problema   ha   sido   analizado   y   la   información  
procesada,   se   procede   a   construir   el   modelo   e   implementarlo   en   un   programa  
computacional.  Este  programa  puede  ser  un  lenguaje  de  programación  general  (C++,  
Visual   Basic,   Java,   entre   otros),   o   un   software   especializado   de   simulación   (Arena,  
Promodel,  ExtendSim,  entre  otros).  
• Verificación   del   modelo.   El   propósito   de   esta   fase   consiste   en   asegurarse   que   el  
modelo   está   diseñado   y   construido   correctamente.   Esta   verificación   es   una   labor  
delicada   de   inspección   y   radica   en   la   comparación   del   código   de   modelo   con   la  
especificación  del  mismo.  
• Validación   del   modelo.   La   validación   examina   el   grado   de   ajuste   del   modelo   con   los  
datos   empíricos   del   sistema.   Es   decir,   compara   el   desempeño   del   modelo   con   la  
información  real  arrojada  por  el  sistema  en  estudio.  
• Diseño  de  experimentos.  Una  vez  validado  y  calibrado  el  modelo,  el  analista  procede  
con  la  planeación  y  el  diseño  de  las  experimentaciones  que  se  llevarán  a  cabo  sobre  el  
modelo   de   simulación.   En   esta   etapa   se   definen   los   distintos   escenarios   en   los   cuales,  
se  va  a  analizar  el  desempeño  del  modelo,  así  como  el  número  de  réplicas  o  corridas  
que  se  ejecutarán  con  el  propósito  de  garantizar  la  confiabilidad  del  estudio.  
• Corridas   y   análisis   de   resultados.   En   esta   fase   se   ejecutan   las   corridas   oficiales   del  
modelo,   cuyos   resultados   serán   el   objeto   de   análisis,   de   naturaleza   estadística  
principalmente.   Una   actividad   típica   de   esta   fase   consiste   en   la   determinación   de   la  
mejor   alternativa   mediante   la   comparación   de   los   desempeños   de   todas   las  
alternativas  estudiadas.  

 
 

 
[ SIMULACIÓN ] 9
 

 
Figura  2.  Pasos  de  un  estudio  de  simulación  

 
4. SIMULACIÓN  DE  SISTEMAS  DE  COLAS  

Un  sistema  de  colas,  desde  su  concepción  más  simple,  se  puede  describir  como  un  sistema  al  
cual   los   clientes   llegan   cada   intervalo   de   tiempo   y   se   unen   a   una   línea   de   espera   en   busca   de  
ser  atendidos  por  medio  de  un  servidor;  tan  pronto  finaliza  el  servicio,  el  cliente  abandona  el  
sistema.  Esta  descripción  simplificada  se  puede  ver  representada  en  la  siguiente  gráfica:  
 

 
10   [ POLITÉCNICO GANCOLOMBIANO]
 

 
 

 
Servidor
Fila de client es
Población de client es pot enciales
 
Figura  3.  Sistema  simple  de  colas  
 
Los   elementos   claves   de   este   tipo   de   sistemas   son   los   clientes   y   los   servidores.   El   término  
cliente  puede  referirse  a  personas,  máquinas,  camiones,  piezas,  aviones,  correos  electrónicos,  
pedidos,  llamadas,  etc.  El  término  servidor  puede  hacer  referencia  a  recepcionistas,  cajeros,  
mecánicos,   enfermeras,   médicos,   etc.   En   resumen,   el   cliente   es   la   entidad   u   objeto   que  
requiere  un  servicio  o  una  transformación;  esta  transformación  es  ejecutada  por  el  servidor.  
 
El   sistema   es   alimentado   desde   una   población   infinita   de   clientes   potenciales.   Esto   quiere  
decir  que  si  una  unidad  deja  la  población  y  se  une  a  la  fila  de  clientes,  no  hay  cambio  en  la  
tasa   de   llegadas   de   las   otras   unidades   que   vayan   a   requerir   el   servicio.   Las   llegadas   de   los  
clientes   ocurren   una   a   la   vez   y   de   forma   aleatoria;   se   unen   a   la   cola   en   espera   de   que  
eventualmente   sean   atendidos.   El   tiempo   de   servicio   o   de   proceso,   que   es   el   tiempo   que  
demora   el   servidor   en   procesar   o   atender   un   cliente,   también   tiene   un   comportamiento  
aleatorio  de  acuerdo  a  una  distribución  de  probabilidad.  La  capacidad  del  sistema  se  asume  
infinita,  lo  que  implica  que  el  número  de  clientes  puede  ser  cualquier  cantidad.  Finalmente,  
los  clientes  son  atendidos  en  orden  de  llegada,  lo  que  quiere  decir  que  el  sistema  tiene  una  
disciplina  FIFO  (First  In  First  Out)  o  primeros  en  llegar,  primeros  en  salir.  
 
Ahora  bien,  es  necesario  aterrizar  los  conceptos  estudiados  anteriormente,  relacionados  con  
el  estado  del  sistema  y  eventos:  

-­‐ El  estado  del  sistema  se  representa  a  través  de  las  variables  de  estado.  Estas  variables,  
para   el   caso   específico   del   sistema   simple   de   colas,   corresponden   al   número   de  
unidades  en  el  sistema  y  el  estado  del  servidor,  ocupado  o  desocupado.    
-­‐ Un   evento   es   un   conjunto   de   circunstancias   que   provocan   cambios   en   el   estado   del  
sistema.   Para   este   ejemplo,   solo   hay   dos   posibles   eventos   que   pueden   afectar   tales  
cambios:  la  entrada  de  una  unidad  al  sistema  (evento   de   llegada)  y  la  finalización  un  
servicio  (evento  de  salida).  

 
[ SIMULACIÓN ] 11
 

Cuando   se   ha   completado   el   servicio   de   un   cliente,   la   simulación   se   ejecuta   tal   como   se  


muestra  en  el  siguiente  diagrama  de  flujo:  
 

 
Figura  4.  Diagrama  de  flujo  del  servicio  completado  
 
Por  otra  parte,  cuando  un  cliente  entra  al  sistema,  la  simulación  se  ejecuta  siguiendo  la  lógica  
mostrada  en  el  siguiente  diagrama  
 

 
 
Figura  5.  Diagrama  de  flujo  del  evento  de  llegada  
 
A   esta   altura   surge   la   siguiente   pregunta:   ¿cómo   pueden   estos   eventos   descritos  
anteriormente  ocurrir  en  tiempo  simulado?  
 
La   simulación   de   los   sistemas   de   colas   requiere   generalmente   la   utilización   de   una   lista   de  
eventos   para   determinar   qué   ocurrirá   después   de   que   este   se   presente.   La   lista   de   eventos  
lleva  el  registro  de  los  instantes  de  tiempo  futuros  en  los  cuales  pueden  ocurrir  los  eventos.  
Estos   tiempos   hacen   referencia   a   los   tiempos   de   llegada   de   los   clientes   y   al   tiempo   de  
servicio.  Como  se  mencionó  anteriormente,  estos  tiempos  son  de  carácter  aleatorio,  por  lo  
que  deben  ser  caracterizados  a  través  de  distribuciones  de  probabilidad.    
 

 
12   [ POLITÉCNICO GANCOLOMBIANO]
 

Para   representar   esta   incertidumbre   en   los   tiempos   de   ocurrencia   de   los   eventos,   la  


simulación   utiliza   la   generación   de   números   aleatorios.   Los   números   aleatorios   están  
distribuidos   uniforme   e   independientemente   en   el   intervalo   [0,1],   lo   que   quiere   decir   que  
todos  y  cada  uno  de  los  números  reales  que  se  encuentre  en  ese  intervalo  tienen  la  misma  
probabilidad   de   ser   generados.   Existen   múltiples   formas   de   generar   números   aleatorios,  
desde  el  lanzamiento  de  un  dado  (generaría  números  aleatorios  uniformes  de  1  a  6)  hasta  la  
aplicación  de  paquetes  computacionales,  como  el  caso  de  la  función  ALEATORIO()  de  Excel  ®.  
 
En  el  siguiente  ejemplo,  se  aplicarán  los  conceptos  de  lista  de  eventos  y  números  aleatorios  
para  realizar  una  simulación  manual  de  un  sistema  simple  de  colas.  
 
Ejemplo  
Se  tiene  una  caja  de  pago  en  un  supermercado  y  se  quiere  simular  su  operación.  Para  generar  
de  manera  aleatoria  los  tiempos  entre  llegadas  de  los  clientes  y  los  tiempos  de  servicio,  se  
lanza  un  dado  para  cada  cliente.  Supóngase  que  se  va  a  simular  el  servicio  a  seis  clientes  y  
que  los  tiempos  generados  mediante  el  dado  fueron  los  siguientes:  
 
Cliente   Tiempo  entre  llegadas  (minutos)   Tiempo  de  servicio  (minutos)  
1   -­‐   2  
2   2   1  
3   4   3  
4   1   2  
5   2   1  
6   6   4  
 
Obsérvese  que  los  números  generados  están  en  el  intervalo  [0,6].  Si  se  asume  que  el  dado  no  
está  cargado,  entonces  se  puede  afirmar  que  la  probabilidad  de  que  salga  cualquier  número  
en  el  dado  después  de  un  lanzamiento,  es  de  tipo  uniforme.  
 
Cabe   resaltar,   también,   que   en   lo   que   respecta   a   los   tiempos   de   llegadas,   lo   realmente  
aleatorio  a  registrar  es  el  tiempo  que  transcurre  entre  la  llegada  de  dos  clientes  consecutivos.  
Es   decir,   cuando   ocurre   la   llegada   de   un   cliente   al   sistema,   no   se   sabe   con   certeza   en   qué  
instante   llegará   el   siguiente   cliente   y   así   sucesivamente.   Por   eso,   en   la   tabla   anterior,   se  
enuncia   la   columna   Tiempo   entre   llegadas,   y   el   primer   cliente   no   tiene   dicho   tiempo  
precisamente  por  ser  el  primero  y  no  tiene  punto  de  referencia.  En  este  caso,  para  efectos  de  
la  simulación,  se  asume  que  el  primer  cliente  llega  en  el  instante  de  tiempo  cero.  Con  base  en  
lo  anterior,  la  lista  de  eventos  se  puede  resumir  en  la  siguiente  tabla  de  simulación  manual.  
 
Cliente   Tiempo   Tiempo   Hora   de   Hora   Tiempo   en   Hora  
entre   de   llegada   inicio   cola   finalización  
llegadas   servicio   servicio   servicio  
1   -­‐   2   0   0      

 
[ SIMULACIÓN ] 13
 

2   2   1   2        
3   4   3   6        
4   1   2   7        
5   2   1   9        
6   6   4   15        
 
Esta   primera   tabla   corresponde   a   las   condiciones   de   arranque   de   la   simulación.   Obsérvese  
que  la  hora  de  llegada  puede  calcularse  desde  ya  para  todos  los  clientes.  
 
Cliente   Tiempo   Tiempo   Hora   de   Hora   Tiempo   en   Hora  
entre   de   llegada   inicio   cola   finalización  
llegadas   servicio   servicio   servicio  
1   -­‐   2   0   0   0   2  
2   2   1   2   2   0   3  
3   4   3   6   6   0   9  
4   1   2   7   9   2   11  
5   2   1   9   11   2   12  
6   6   4   15   15   0   19  
 
Las  columnas  sombreadas  corresponden  a  la  hora  registrada  por  el  reloj  de  la  simulación.  Por  
ejemplo,  el  primer  cliente  llega  en  el  minuto  t  =  0;  como  es  el  primero  en  llegar,  no  hay  nadie  
delante   de   él,   por   lo   tanto   no   debe   hacer   cola   y   por   ende,   su   servicio   empieza  
inmediatamente,   es   decir,   también   en   el   minuto   t   =   0.   (Debido   a   que   la   hora   de   llegada   es  
igual   a   la   hora   de   inicio   del   servicio,   el   tiempo   en   cola   es   igual   a   cero).   Como   el   tiempo   de  
servicio  simulado  es  de  2  minutos,  entonces  el  servicio  del  primer  cliente  finaliza  en  el  minuto  
t  =  2.  
 
¿Qué  ocurre  ahora  para  el  cliente  número  2?  Obsérvese  primero  que  la  hora  de  llegada  es  la  
suma   acumulada   de   la   columna   de   los   tiempos   entre   llegadas.   Es   decir,   el   segundo   cliente  
llega   2   minutos   después   que   el   primero,   o   sea,   en   el   minuto   t   =   2;   el   tercer   cliente   llega   4  
minutos   después   que   el   segundo   cliente,   o   sea,   en   el   minuto   t   =   6;   y   así   sucesivamente.   El  
segundo   cliente   llega   en   t   =   2   minutos.   Lo   que   debe   corroborarse,   según   los   diagramas   de  
flujo   arriba   descritos,   es   comprobar   que   el   servidor   no   esté   ocupado   para   que   inicie   el  
servicio.  La  mejor  forma  de  hacer  esta  comprobación  es  verificar  la  hora  de  finalización  del  
servicio   del   cliente   anterior.   En   este   caso,   el   primer   cliente   termina   su   servicio   en   t   =   2,   y  
justamente   en   ese   instante   arriba   el   segundo   cliente,   también   en   t   =   2;   luego   su   servicio  
arranca   inmediatamente,   pues   el   servidor   recién   se   desocupó   y   no   debe   hacer   fila.   Dado   que  
el   tiempo   de   servicio   simulado   es   de   1   minuto,   entonces   el   servicio   del   segundo   cliente  
termina  en  el  minuto  t  =  3.  
 
¿Qué  pasa  con  el  cliente  4?  Este  cliente  arriba  en  el  minuto  t  =  7.  En  este  instante,  se  puede  
corroborar  que  el  servidor  se  encuentra  ocupado,  pues  se  tiene  registrado  que  el  servicio  del  

 
14   [ POLITÉCNICO GANCOLOMBIANO]
 

cliente   3   finalizará   en   el   minuto   t   =   9.   Esto   implica   que   el   cuarto   cliente   debe   esperar   2  
minutos  a  que  el  servidor  finalice  el  servicio  con  el  cliente  número  3.  Por  lo  tanto,  tan  pronto  
el  servidor  despache  al  cliente  tres  en  el  minuto  t  =  9,  inicia  el  servicio  del  cliente  4,  y  dado  
que  el  tiempo  simulado  de  servicio  es  de  dos  minutos,  la  finalización  del  servicio  será  en  el  
minuto  t  =  11.  Se  debe  hacer  un  análisis  similar  para  el  cliente  5,  pues  también  tiene  que  hacer  
cola.  
 
Cabe   aclarar   que   la   tabla   se   debe   llenar   en   la   medida   que   van   ocurriendo   los   eventos,  
generalmente  en  la  medida  en  que  los  clientes  van  llegando  y  van  saliendo.  Es  decir,  no  es  
posible  determinar,  por  ejemplo,  la  hora  de  finalización  del  cliente  5,  sino  se  sabe  siquiera  a  
qué   horas   terminó   el   servicio   del   cliente   4.   (La   tabla   se   diligencia   fila   por   fila,   no   por  
columnas)  
 
Con   los   resultados   de   esta   tabla,   se   pueden   calcular   las   estadísticas   para   la   medición     del  
desempeño   del   sistema,   lo   cual   es   uno   de     los   propósitos   principales   de   la   simulación.  
Algunos  de  estos  indicadores  se  detallan  a  continuación:  
 

 Tiempo  promedio  de  espera  

 
!"#$%&  !"!#$  !"  !"#$
!" =    
!"#$%  !"  !ú!"#$  !"  !"#$%&$'
4
!" = = 0,66  !"#$%&'  
6
 

 Probabilidad  de  que  un  cliente  haga  cola  


 
!ú!"#$  !"  !"#$%&$'  !"#  !"#!$%$&'
! ! =    
!"#$%  !"  !ú!"#$  !"  !"#$%&$'
2
!(!) = = 0,33 = 33,33%  
6
 

 Tiempo  promedio  de  servicio  

 
!"#$%&  !"!#$  !"  !"#$%&%'!
!" =  
!"#$%  !"  !ú!"#$  !"  !"#$%&$'
13
!" = = 2,16  !"#$%&'  
6
 

 
[ SIMULACIÓN ] 15
 

 Tiempo  promedio  entre  arribos  


!"#$%  !"  !"#$%&'  !"#$!  !""#$%&
!"#$%&  !"#$%&'#  !"#$!  !""#$%& =  
!ú!"#$  !"  !"#$%&$' − 1
15
!"#$%&  !"#$%&'#  !"#$!  !""#$%& = = 3  !"#$%&'  
5
 

 Tiempo  promedio  en  el  sistema  

 
! = !" + !" = 2,83  !"#$%&'  

 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

 
16   [ POLITÉCNICO GANCOLOMBIANO]
  SIMULACIÓN
 
 
Modelos estadísticos en simulación
 

 
 
 
 

   
 
 

 
 
 
 

 
 
 

 
 
 
 

 
 
 
   
 

• MODELOS  ESTADÍSTICOS  EN  SIMULACIÓN  


 

1. Índice  
1. Introducción  
2. Valor  esperado  de  una  variable  aleatoria  
2.1. Variables  discretas  
2.2. Variables  continuas  
3. Medidas  de  dispersión  
3.1. Variables  discretas  
3.2. Variables  continuas  
4. Distribuciones  de  probabilidad  discreta  
5. Procesos  de  Poisson  
Distribuciones  de  probabilidad  continua  
 

2. Introducción  
El  propósito  del  presente  documento  es  presentar  a  los  estudiantes  los  conceptos  básicos  de  
estadística   necesarios   para   desarrollar   una   simulación   de   eventos   discretos.   La   estadística  
será  una  herramienta  esencial  para  el  soporte  de  la  construcción  del  modelo,  tanto  al  inicio  
como  al  final  del  análisis  de  resultados.    
 
Por  otra  parte,  teniendo  en  cuenta  que  el  objetivo  general  del  módulo  es  que  los  estudiantes  
desarrollen  las  capacidades  necesarias  para  llevar  a  cabo  un  estudio  completo  de  simulación,  
en   esta   unidad,   se   hará   un   repaso   de   las   principales   funciones   de   probabilidad,   tanto  
continuas  y  discretas,  que  se  emplean  frecuentemente  en  la  construcción  de  estos  tipos  de  
modelo.  

Finalmente,  se  presentará  al  estudiante  una  serie  de  ejercicios  relacionados,  para  reforzar  los  
conocimientos  adquiridos  en  el  desarrollo  del  módulo.  
 
3. Objetivo  general  
Al   finalizar   el   módulo,   los   estudiantes   sabrán   cuáles   son   los   conceptos   básicos   de   estadística  
relacionados   con   la   simulación   de   eventos   discretos,   así   como,   las   principales   funciones   de  
probabilidad  discretas  y  continuas  aplicadas  en  la  construcción  de  este  tipo  de  modelos.  
Al  finalizar  la  primera  semana  de  aprendizaje:  

1. El   estudiante   identificará   los   conceptos   fundamentales   de   los   modelos   estadísticos  


aplicados  a  la  simulación.  
2. El   estudiante   reconocerá   las   distintas   funciones   de   probabilidad   discreta   utilizadas   en  
simulación  de  eventos  discretos.  

 
2   [ POLITÉCNICO GANCOLOMBIANO]
 

El  estudiante  reconocerá  las  distintas  funciones  de  probabilidad  continuas  utilizadas  en  
simulación  de  eventos  discretos.  
 
4. Desarrollo  temático  
   
4.1  Recomendaciones  académicas  

Se  recomienda  al  estudiante  realizar  la  lectura  de  la  cartilla,  en  la  cual,  se  encuentra  toda  la  
información   relevante   que   se   evaluará   en   la   semana.   Adicional,   se   recomienda   revisar   las  
teleconferencias,  así  como  las  video  diapositivas,  pues  estas  son  un  medio  que  puede  aclarar  
las  dudas  generadas  con  la  lectura  o  también  dar  soporte  a  los  temas  expuestos  en  la  misma.  

Finalmente,  se  recomienda  al  estudiante  realizar  los  ejercicios  planteados  y  sugeridos  por  el  
tutor,  ya  que  estos,  a  pesar  de  no  tener  un  valor  porcentual  en  la  nota,  si  harán  que  su  
formación  sea  completa  y  pueda  ser  reforzada  de  forma  práctica.  
 
4.2    Desarrollo  de  cada  una  de  las  unidades  temáticas  
 
1. Introducción  

A   continuación,   se   verán   los   conceptos   básicos   relacionados   con   los   modelos   estadísticos  
que  sirven  de  soporte  para  un  estudio  en  simulación  de  eventos  discretos.  
 
Los   conceptos   que   se   trabajarán   en   este   apartado   son   los   relacionados   con   materias   de  
estadística  y  probabilidad,  que  muy  seguramente  el  lector  ya  ha  cursado,  sin  embargo,  con  el  
objetivo   de   tener   una   metodología   completa,   se   presentarán   nuevamente   los   conceptos,  
pero  relacionados  directamente  a  la  herramienta  de  simulación.  
 
Dentro   del   contenido   desarrollado   en   la   cartilla,   el   estudiante   podrá   encontrar   información   y  
ejemplos  específicos  relacionados  con  los  siguientes  temas:  

 Valor  esperado  de  una  variable  aleatoria  


 Medidas  de  dispersión  para  una  variable  aleatoria  
 Distribuciones  de  probabilidad  discretas  
 Distribuciones  de  probabilidad  continuas  

El   objetivo   de   realizar   la   revisión   de   estos   temas   es   que   para   efectuar   un   proceso   de  


simulación,   los   datos   de   entrada   que   alimentan   el   modelo   siempre   estarán   descritos   por   una  
función   de   probabilidad,   conocida   con   el   objetivo   de   modelar   su   aleatoriedad   y  
comportamiento  propio.  Por  otra  parte,  en  cuanto  a  lo  que  se  refiere  a  los  valores  esperados  
y  medidas  de  dispersión,  estos  serán  relevantes  para  que  el  estudiante  realice  el  análisis  de  
los  resultados  arrojados  por  el  modelo  propuesto  a  partir  de  estas  medidas  básicas.  
 

 
[ SIMULACIÓN ] 3
 

Será   el   análisis   estadístico,   entonces,   un   elemento   fundamental   que   siempre   deberá  


acompañar  cualquier  modelo  de  simulación,  ya  que  ambos  se  complementan,  así  el  primero  
dará  soporte  a  los  resultados  encontrados  por  el  segundo.  

2. Valor  esperado  de  una  variable  aleatorio  

Ejemplo  introductorio  
 
Sea  X  una  variable  aleatoria  (VA)  que  define  el  número  de  hijos  en  una  familia  colombiana.  
¿Cuál  es  el  número  esperado  de  hijos  en  una  familia  colombiana  cualquiera?  
 
Para   responder   a   esta   pregunta   se   necesita   conocer   la   distribución   de   probabilidad   de   la  
variable   aleatoria.   Suponga   que   a   partir   de   un   estudio   hecho   por   el   DANE,   se   tiene   la  
siguiente  información:  
 
Número  de  hijos   Proporción  de  familias  
0   5/30  
1   15/30  
2   9/30  
3   1/30  
 
De   la   anterior   tabla   se   puede   afirmar,   por   ejemplo,   que   el   5/30   ó   16,66%   de   las   familias   no  
tienen   hijos,   el   50%   ó   15/30   tienen   un   solo   hijo,   y   así   sucesivamente.   Esta   tabla   es   la  
distribución   de   probabilidad   de   la   VA   denominada   el   número   de   hijos   en   una   familia  
colombiana.  El  posible  número  de  hijos  que  puede  tener  cualquier  familia  es  el  rango  de  la  
variable,  definido  así:  
 
! ! = 0,1,2,3  
 
La  proporción  de  familias  que  tienen  su  número  respectivo  de  hijos  representan  la  función  de  
distribución  de  probabilidad  de  la  variable,  definida  así:  
 
5 15 9 1
g X =   , , ,  
30 30 30 30
 
Luego,  si  se  requiere  obtener  el  valor  esperado  de  hijos  en  una  familia  colombiana  cualquiera  
seleccionada  al  azar,  basta  con  calcular  la  media  ponderada  así:  
 
5 15 9 1
E X =  0 ∗ +  1 ∗ +2∗ +3∗ = 1,2  hijos  
30 30 30 30
 
En  resumen,  se  tiene  que  para  calcular  el  valor  esperado  de  una  variable  aleatoria,  se  tiene:  
 

 
4   [ POLITÉCNICO GANCOLOMBIANO]
 

2.1  Variable  aleatoria  discreta  


Si  X  es  una  VA  discreta  con  rango  R(X),  entonces  el  valor  esperado  se  define  como  
 
E X = X! g(X)!  
!
2.2  Variable  aleatoria  continua  
Si  X  es  una  VA  continua  con  rango  R(X),  entonces  el  valor  esperado  se  define  como  
 
 
E X = X ∗ f X dX  
!(!)
 
Ejemplo  variable  aleatoria  continua  
 
Sea  X  una  VA  continua  definida  con  la  siguiente  función  de  distribución  de  probabilidad:  
 
!
!" ! = ; 0 ≤ ! ≤ 2  
2
 

 
 
! !
! 1
! ! = ! ∙ !" = ! ! !"  
! 2 2 !
! !
1 !
! ! = ∙    
2 3 !
8
! ! =  
6
 

3. Medidas  de  dispersión  

Sea   X   una   VA   discreta   o   continua.   La   varianza   y   la   desviación   estándar   de   la   VA   se   definen  


como  

 
[ SIMULACIÓN ] 5
 

 
!"#  ! = !(! − ! ! )! =   !!!  
!! =   !"#  !  
 
De  acuerdo  con  esta  definición,  la  varianza  se  puede  calcular  a  través  de  la  expresión:  
 
3.1  Variable  aleatoria  discreta  
 
!"#  ! =   ! !! (!! − !)!  
 
3.2  Variable  aleatoria  continua  
 
 
!"#  ! =   ! ! (! − !)! !"  
!(!)
 

4. Funciones  de  distribuciones  de  probabilidad  discretas:  

A   continuación,   se   describen   las   distribuciones   de   probabilidad   discretas   más   utilizadas   en  


simulación  de  eventos  discretos.    
 
4.1  Distribución  de  Bernoulli  
Es  la  más  elemental  de  las  distribuciones  discretas.  Se  dice  que  un  experimento  aleatorio  es  
un  experimento  de  Bernoulli,  si  su  espacio  muestral  o  el  rango  que  puede  tomar  la  variable  
consta  de  sólo  dos  elementos,  es  decir   éxito, fracaso , falso, verdadero ,  etc.  
 
Si  X!  es   la   variable   asociada   al   experimento   aleatorio   de   Bernoulli,   y   está   definida   por  
X! E = 1, X! F = 0,  entonces:  
 
Rango   X! = 0,1  
P X! = 1 = p,      P X! = 0 = 1 − p  
 
Por  tanto,  su  función  de  probabilidad  está  dada  por:  
 
g X = p! (1 − p)!!!  
 
Su  media  y  varianza  están  dadas  respectivamente  por:  
 
E X = p  
Var  X = p(1 − p)  
 
 

 
6   [ POLITÉCNICO GANCOLOMBIANO]
 

4.2  Distribución  geométrica  


Si  se  realizan,  sucesivamente,  experimentos  independientes  de  Bernoulli  de  parámetro  p,  a  la  
variable  aleatoria  X  =  número  de  ensayos  hasta  obtener  el  primer  éxito,  se  le  conoce  como  
una  VA  con  distribución  geométrica,  cuya  función  de  distribución  de  probabilidad  está  dada  
por  
 
g X = (1 − p)!!! p = !(! = !)  
 
Su  media  y  varianza  están  dadas  por  
 
1
E X =  
p
1−p
Var  X = !  
p

 
Figura  1.  Time  between  event.  Fuente:  Statit  Solutions  Group  
 
 
4.3  Distribución  binomial  
Si   se   hacen   N   experimentos   independientes,   cuyo   resultado   en   cada   ensayo   puede   ser  
únicamente  ÉXITO  (con  probabilidad  p)  o  FRACASO  (con  probabilidad  1-­‐p),  a  la  VA  X:  número  
de  éxitos  en  los  N  ensayos,  se  le  conoce  como  la  VA  Binomial,  y  su  función  de  distribución  de  
probabilidad  se  le  conoce  como  Distribución  Binomial  de  parámetros  N,  p:  
 
N !
g X = p (1 − p)!!! = P(X = k)  
k
 
Su  media  y  varianza,  están  dadas  respectivamente  por:  

 
[ SIMULACIÓN ] 7
 

 
E X = Np  
Var  X = Npq  
Ejemplo  
 
Un  banco  sabe  que  en  su  tarjeta  de  crédito  el  30%  de  los  clientes  quedan  con  sobrecupo  en  
los  cortes  mensuales.  Si  se  elige  una  muestra  aleatoria  de  10  clientes  de  dicha  tarjeta:  
 
a.  ¿Cuál  es  la  probabilidad  de  que  cuatro  exactamente  tengan  sobrecupo?  
b.  ¿Cuántos  clientes  se  esperarían  que  tengan  sobrecupo?  
c.  ¿Cuál  es  la  probabilidad  de  que  ocho  o  más  de  ellos  tengan  sobrecupo?  
 
a.  P X = 4 =   !" !
0,3! 0,7!  
 
b.  E X = 10 ∗ 0,3 = 3  
 
c.  P X ≥ 8 = P X = 8 + P X = 9 + P(X = 10)  
 
4.4  Distribución  binomial  negativa  
Consideremos   el   mismo   tipo   de   experimento   que   se   utilizó   en   la   definición   de   la   VA   X   con  
distribución   geométrica,   y   definamos   la   VA   Xp  como  el  número  de  ensayos  hasta  obtener  el  
r-­‐ésimo   éxito.   Se   dice   que   dicha   VA   tiene   una   distribución   de   Pascal   (también   es   llamada  
Binomial  Negativa)  de  parámetro  r,  r  ≥  1.  Es  claro  que  la  VA  así  definida  es  una  generalización  
natural  de  la  VA  geométrica  mediante  las  siguientes  expresiones:  
 
!−1 !
! ! = ! (1 − !)!!! = ! ! = !      ! ≥ !  
!−1
 
Su  media  y  varianza  están  dadas  por  
 
!
! ! =  
!
!(1 − !)
!"#  ! =  
!!
 
Ahora  bien,  una  vez  revisados  los  conceptos  de  variables  aleatorias  discretas  relevantes,  es  
importante   conocer   uno   de   los   conceptos   dentro   de   la   simulación   que   representa   una  
transición  entre  las  variables  discretas  y  las  variables  continuas,  esto  es  el  Procesos  Poisson  
(distribución   discreta)   y   las   distribuciones   de   probabilidad   continuas   más   aplicadas   en  
simulación.  
 

 
8   [ POLITÉCNICO GANCOLOMBIANO]
 

5. Proceso  de  Poisson  

Ejemplo  introductorio  
 
En  cierta  oficina  se  quiere  analizar  un  experimento  aleatorio  que  consiste  en  observar  cómo  
se   comportan   las   llegadas   de   los   clientes   con   respecto   al   tiempo,   en   el   sentido   de   ver   la  
llegada  de  un  cliente  como  un  evento  puntual  (el  instante  en  que  llega  el  cliente)  que  tiene  
lugar  a  lo  largo  de  tiempo.  El  tiempo  lo  podemos  representar  a  través  de  la  recta  real  y  las  
llegadas  como  puntos  de  dicha  recta,  así:  
 

 
 
Respecto   a   dicho   proceso   (el   experimento   aleatorio),   se   puede   definir   la   VA   Xp   para   un  
intervalo  de  tiempo  de  longitud  t  como:  
Xp(t)  =  número  de  arribos  (llegadas)    en  el  intervalo  de  tiempo  de  longitud  t.  
 
Sea   t   un   intervalo   de   tiempo   dado,   arbitrario   pero   fijo,   y   se   quiere   examinar   la   VA   definida  
anteriormente  y  deducir  su  distribución,  es  decir:  
 
! !! = !; !, ! = ! ℎ!"!  !"#$%#&!'%!  !  !!"#$%$&  !"  !"  !"#$%&'()  !  
 
Se  divide  el  intervalo  de  magnitud  t  en  N  intervalos  de  magnitud  t/N,  de  tal  manera  que  t/N  
sea  tan  pequeño  como  sea  necesario  para  cumplir  los  supuestos  del  modelo.  
 
El  evento  B  de  “que  hayan    exactamente  n  llegadas  del  proceso  en  el  intervalo  de  tiempo  t”,  
es   equivalente   al   evento   de   obtener   exactamente   n   éxitos   en   los   N   experimentos  
independientes  de  Bernoulli  que  consisten  en  observar,  si  hay  o  no,  una  llegada  del  proceso  
en  el  intervalo  de  tiempo  de  longitud  t/N.  
 
La  probabilidad  de  tener  éxito  (que  haya  una  llegada)  en  cada  uno  de  estos  experimentos    de  
!
Bernoulli  es  ! = ! ! .  
Es   decir,   se   tienen   N   experimentos   independientes   de   Bernoulli,   donde   la   probabilidad   del  
evento  B  está  dada  por  
!"
! ! = !(!! = !; !; )  
!
 
Tomando  el  límite  de  esta  expresión  cuando  N  tiende  a  infinito,  se  obtiene:  
 

 
[ SIMULACIÓN ] 9
 

!" ! !!"
! ! ! = ! = !! ! , !; !, ! = ! , ! = 0, 1, 2, ….  
!!
 
El  número  de  eventos  que  suceden  hasta  el  tiempo  t  se  distribuyen  de  manera  Poisson  con  
parámetro  λ.  
 
Este  tipo  de  procesos  cumple  con  los  supuestos  de  estacionariedad:  
 

- El  valor  esperado  de  las  variables  aleatorias  no  depende  del  tiempo.  
- Las  varianzas  tampoco  dependen  del  tiempo  y  son  finitas.  

 
El   tiempo   entre   eventos   es   independiente   e   idénticamente,   distribuido   como   una   variable  
aleatoria  exponencial  con  media  1/λ.  Esta  propiedad  es  de  suma  importancia  para  el  modelaje  
de  procesos  en  simulación,  ya  que  buena  parte  de  los  modelos  teóricos  y  empíricos  asumen  
las  entradas  a  un  sistema  con  tiempos  exponenciales,  lo  que  quiere  decir  que  dichas  llegadas  
se  comportan  como  Procesos  de  Poisson.  
 

6. Distribuciones  de  probabilidad  continuas  

A  continuación,  se  presentarán  las  distribuciones  de  probabilidad  continuas  más  empleadas  
en  el  modelaje  de  sistemas  a  través  de  la  simulación  de  eventos  discretos,  aunque  existe  otro  
tipo   de   distribuciones   que   también   pueden   emplearse,   aquí   solo   presentaremos   las   más  
relevantes.  
 
6.1  Distribución  exponencial  
Considérese   un   Proceso   de   Poisson   de   parámetro   λ   observado   a   partir   de   un   instante   t0,   y  
defínase  la  VA  continua  XE  como  
 
XE  =  tiempo  que  transcurre  entre  el  instante  t0  y  la  próxima  llegada  del  proceso  
 
La  función  de  distribución  acumulada,  F(X)  de  la  VA  XE    estará  dada  por:  
 
!!! !; ! = ! !! ≤ ! = 1 − ! !! > !  
!!! !; ! = ! !! ≤ ! = 1 − !(ℎ!"!  0  !!"#$%$&  !"  !"  !"#$%&  !  
!" ! !!"
!!! !; ! = ! !! ≤ ! = 1 − !  
0!
!!! !; ! = ! !! ≤ ! = 1 − ! !!"  
 
Por  lo  tanto,  la  función  de  distribución  acumulada  de  la  VA  exponencial  se  expresa  como  

 
10   [ POLITÉCNICO GANCOLOMBIANO]
 

!!! !; ! = ! !! ≤ ! = 1 − ! !!"  ! > 0  


 
Se   sabe   que   la   función   de   distribución   de   probabilidad   de   una   VA   continua   se   obtiene  
calculando  la  derivada  de  la  función  de  distribución  acumulada.  Por  lo  tanto,  dicha  función,  
fXE(t;  λ)  se  expresa  com  
 
!!! !; ! = !! !!"  ! > 0  
 
Su  media  y  varianza  están  dadas  por  
1
! ! =  
!
1
!"#  ! = !  
!
 

 
Figura  2.  Distribución  exponencial.  Fuente:  Statit  Solutions  Group  
 
 
Ejemplo  
Suponga   que   la   vida   útil   de   una   lámpara   industrial,   en   miles   de   horas,   se   distribuye  
exponencialmente  con  tasa  de  falla  λ=1/3  (una  falla  cada  3000  horas,  en  promedio).    
 
La  probabilidad  de  que  la  lámpara  dure  más  de  esta  vida  útil  está  dada  por  
 
! ! > 3 = 1 − ! ! ≤ 3  
 

 
[ SIMULACIÓN ] 11
 

En   Excel,   se   busca   la   función   DISTR.EXP,   con   parámetros:   X=3;   λ=1/3;   Acumulado   =   1.   El  


resultado  de  esta  función  sería  de  0,632;  luego  la  probabilidad  de  que  la  lámpara  dure  más  
que  la  vida  útil  diseñada  es  de  1-­‐0,632  =  0,368.  
 
6.2  Distribución  uniforme  
Una   VA   X   se   distribuye,   uniformemente,   en   el   intervalo   (a,   b)   si   su   función   de   distribución   de  
probabilidad  está  dada  por  
 
1
! ! = ! − ! ,          ! ≤ ! ≤ !  
0,                                  !. !. !.
 

 
 
La  función  de  distribución  acumulada  está  dada  por  
 
0                                        ! < !    
!!!
F(X)  =   !!!                        ! ≤ ! < !  
1                                      ! ≥ !      
 
Su  media  y  varianza,  están  dadas  respectivamente  por  
 
!+!
! ! =  
2
(! − !)!
!"#  ! =  
12
 
La  distribución  uniforme  juega  un  papel  importante  en  simulación.  Los  números  aleatorios,  
distribuidos   uniformemente   entre   0   y   1,   proveen   los   medios   básicos   para   generar   eventos  
aleatorios.   Estos   números   aleatorios   se   usan   para   generar   muestras   de   variables   aleatorias  
de  otras  distribuciones  de  probabilidad.  

 
12   [ POLITÉCNICO GANCOLOMBIANO]
 

6.3  Distribución  Normal  


Considérese   la   VA   binomial   XB,   definida   por   el   lanzamiento   de   una   moneda   15   veces.   Si   se  
grafica  la  probabilidad  de  obtener  0,1,2,…,15  caras,  se  obtiene  la  siguiente  gráfica  

 
Se   puede   demostrar,   en   efecto,   que   si   se   realizan   N   experimentos   independientes   de  
Bernoulli  de  parámetro  p,  para  un  valor  de  N  suficientemente  grande,  se  obtiene:  
 

 
 
La   aproximación   anterior   dio   lugar   a   la   definición   de   una   VA   continua   conocida   como   la  
distribución  Normal  de  parámetros  µ  y  σ,  cuya  función  de  probabilidad  está  dada  por  

 
 
Esta   expresión   no   se   puede   evaluar   mediante   métodos   numéricos   tradicionales;   de   hecho  
estos  métodos  se  podrían  aplicar  pero  la  integral  debería  evaluarse  para  cada  par  (µ,  σ).  Sin  
embargo,  una  transformación  de  variables,  z  =  (x-­‐  µ)/  σ,  permite  la  evaluación  de  esa  integral,  
independiente  de  dichos  valores.  
 
Si  !~! !, ! , !"#  ! = (! − !)/!,  para  obtener:  
 
  ⎛ x − µ ⎞
  F ( x) = P( X ≤ x ) = P⎜ Z ≤ ⎟
  ⎝ σ ⎠
  ( x−µ ) / σ 1 −z2 / 2 z 1 −t 2 / 2
= e dz donde Φ( z ) = ∫ e dt
  ∫
−∞

−∞

 
( x−µ ) / σ
  = φ ( z )dz = Φ ( xσ− µ )
 

− ∞

 
La   función   Φ(z)   es   la   función   de   distribución   de   probabilidad   de   una   VA   normal   con   media  
cero  y  varianza  1.  A  esta  distribución  se  le  conoce  como  la  distribución  normal  estándar,  y  ha  
sido   tabulada   en   distintos   formatos   para   una   mejor   comprensión   y   resolución   de   situaciones  
que  involucren  VA  normales.  

 
[ SIMULACIÓN ] 13
 

Dentro   de   los   recursos   adicionales   encontrará   la   tabla   donde   se   resumen   los   valores   que  
toma  la  distribución  normal  estándar.  
 
Ejemplo  
El  tiempo  requerido  en  horas  para  cargar  un  container  se  distribuye  normalmente  con  media  
=   12     y   varianza   =   4.   La   probabilidad   de   que   el   container   se   cargue   en   menos   de   10   horas,  
estaría  dada  por  
 
 

⎛ 10 − 12 ⎞
F (10) = Φ⎜ ⎟ = Φ(−1) = 0.1587
⎝ 2 ⎠

 
 
 
 
 
 
   
 
 
 
 

 
14   [ POLITÉCNICO GANCOLOMBIANO]
  SIMULACIÒN
 
 
Análisis de datos de Entrada
 

 
 
 
 

 
 
 

 
 
 
 

 
 
 

 
 
 
 

 
 
 
   
 

• ANÁLISIS  DE  DATOS  DE  ENTRADA  


 

1. Índice  
1. Introducción  
2. Identificación  gráfica  de  distribuciones  de  probabilidad  adecuadas  
2.1. Histogramas  
2.2. Q-­‐Q  Plot  
2.3. P-­‐P  Plot  
3. Pruebas  de  bondad  de  ajuste  
3.1. Prueba  Chi  Cuadrado  
3.2. Prueba  Kolmogorov-­‐Smirnov  
Interpretación  P-­‐Value  
 

2. Introducción  
El  propósito  del  presente  documento  es  presentar  a  los  estudiantes  las  herramientas  gráficas  
y  analíticas  para  llevar  a  cabo  un  correcto  análisis  de  los  datos  de  entrada,  donde  se  tenga  
muy  presente  que  son  estos  los  que  alimentarán  el  modelo  de  simulación  a  construir  y,  que  
por   lo   tanto,   tendrán   una   alta   influencia   en   los   resultados   que   se   reporten   después   de   haber  
corrido  la  simulación.  
Por  otra  parte,  teniendo  en  cuenta  que  el  objetivo  general  del  módulo  es  que  los  estudiantes  
desarrollen  las  capacidades  necesarias  para  llevar  a  cabo  un  estudio  completo  de  simulación,  
en   esta   unidad   se   presentarán   las   herramientas   fundamentales   para   realizar   el   análisis   de  
entrada,   así   como   herramientas   computacionales   que   permite   su   realización   casi   de   forma  
automática.  

Finalmente,  se  presentará  al  estudiante  una  serie  de  ejercicios  relacionados  para  reforzar  los  
conocimientos  adquiridos  en  el  desarrollo  del  módulo.  
 
3. Objetivo  general  
Al   finalizar   el   módulo,   los   estudiantes   sabrán   cuáles   son   las   herramientas   gráficas   para   llevar  
a   cabo   un   análisis   de   datos   de   entrada,   así   como   sabrán   emplear,   de   forma   adecuada,   las  
pruebas  analíticas  para  alimentar  el  modelo  de  simulación  que  se  esté  construyendo.  
 
Al  finalizar  la  tercera  semana  de  aprendizaje:  

1. El  estudiante  entenderá  la  importancia  de  realizar  un  análisis  de  datos  de  entrada.  
2. El  estudiante  conocerá  las  distintas  metodologías  para  ejecutar  un  correcto  análisis  de  
la  información  de  entrada.  

 
2   [ POLITÉCNICO GRANCOLOMBIANO]
 

3. El   estudiante   podrá   realizar   un   análisis   de   entrada   donde   emplee   herramientas  


computacionales  adecuadas.  

 
4. Desarrollo  temático  
 
4.1  Recomendaciones  académicas  

Se  recomienda  al  estudiante  realizar  la  lectura  de  la  cartilla,  en  la  que  se  encuentra  toda  la  
información  relevante  que  se  evaluará  en  la  semana.  Adicional,  se  recomienda  al  estudiante  
revisar   las   teleconferencias,   así   como   las   video   -­‐diapositivas,   pues   estas   son   un   medio   para  
aclarar  las  dudas  generadas  con  la  lectura  y  dar  soporte  a  los  temas  expuestos  en  la  misma.  

Finalmente,  se  recomienda  al  estudiante  realizar  los  ejercicios  planteados  y  sugeridos  por  el  
tutor,  ya  que  estos,  a  pesar  de  no  tener  un  valor  porcentual  en  la  nota,  si  harán  que  su  
formación  sea  completa  y  pueda  ser  reforzada  de  forma  práctica.  
 
4.2    Desarrollo  de  cada  una  de  las  unidades  temáticas  
 
1. Introducción  

La   recolección   de   datos   y   el   procesamiento   de   la   información   son   una   de   las   tareas   más  


grandes  y  difíciles  en  los  problemas  reales.  Incluso,  aún  cuando  hay  información  disponible,  
rara   vez   los   datos   vienen   o   están   grabados   en   un   formato   que   sea   útil   y   aplicable  
directamente  en  un  modelo  de  simulación.  
 
El   término   “GIGO”   o   “garbage-­‐in-­‐garbage-­‐out”   (si   entra   basura,   sale   basura)   es   un   concepto  
básico  en  ciencias  de  la  computación  y  se  aplica,  sin  problema,  en  el  área  de  simulación  de  
sistemas  discretos.    Aún  cuando  la  estructura  del  modelo  sea  válida  y  robusta,  si  los  datos  de  
entrada   han   sido   recolectados   de   manera   inapropiada,     analizados   de   manera   imprecisa   o  
simplemente   no   son   representativos,   los   datos   de   salida   o   resultados   del   modelo   serán  
inservibles   para   tomar   buenas   decisiones,   derivándose   en   pérdidas   costosas   para   la  
organización.  
 
Para   llevar   a   cabo   un   correcto   análisis   de   datos   de   entrada   y   recolectar   datos   que   no   sean  
“basura”,  se  recomienda  lo  siguiente:  

• Planeación:  observación  del  sistema  actual  y  situaciones  atípicas,  etc.  


• Análisis  de  los  datos  a  medida  que  son  recolectados.  Revisar  su  pertinencia.  
• Verificar  homogeneidad  en  los  diferentes  grupos  de  datos.  
• Revisar  la  relación  entre  variables.  
• Revisar  autocorrelación.  
• Diferenciar  claramente  entre  datos  de  entrada  y  de  salida.  

 
[ SIMULACIÓN ] 3
 

2. Identificación  gráfica  de  distribuciones  de  probabilidad  adecuadas  

En   esta   sección   se   describirán   métodos   para   seleccionar   familias   de   distribuciones   de  


probabilidad  cuando  los  datos  están  disponibles.  Básicamente,  la  identificación  gráfica,  como  
su  nombre  lo  indica,  permite  visualizar  la  forma  de  una  distribución  como  punto  de  partida  
para   realizar   una   primera   aproximación   de   al   tipo   de   distribución   que   siguen   los   datos  
recolectados  para  la  construcción  del  modelo  de  simulación.  
 

2.1. Histogramas  

Una   distribución   de   frecuencias   o   un   histograma   es   útil   para   identificar   la   forma   de   una  


distribución.  Un  histograma  se  construye  bajo  la  siguiente  metodología:  

1. Dividir  el  rango  de  datos  en  intervalos,  generalmente  de  igual  amplitud  
2. Marcar  el  eje  horizontal  del  gráfico  para  conformar  los  intervalos  
3. Encontrar  la  frecuencia  de  ocurrencias  dentro  de  cada  intervalo  
4. Marcar  en  el  eje  vertical  del  gráfico  el  total  de  ocurrencias  de  cada  intervalo  

El   número   de   intervalos   depende   del   número   de   observaciones   y   de   la   dispersión   de   los  


datos.   Generalmente,   en   la   práctica   s   establece   que   el   número   de   intervalos   es  
aproximadamente   igual   a   la   raíz   cuadrada   del   tamaño   de   la   muestra   que   se   utiliza   para   el  
análisis.   Si   los   intervalos   son   muy   anchos,   el   histograma   no   mostrará   claramente   un  
comportamiento  visible  de  la  información.  
 
El  histograma  para  datos  continuos  corresponde  a  la  función  de  densidad  de  la  distribución  
teórica   de   los   dato,   mientras   que   para   datos   discretos,   la   forma   del   histograma   debería  
parecerse  a  la  función  de  masa  de  la  distribución  teórica.  
 
Sin   embargo,   debe   tenerse   en   cuenta   que   un   histograma   tan   sólo   da   una   idea   de   cómo   se  
distribuyen  los  datos,  más  no  es  la  única  herramienta  de  identificación  de  los  mismos.  
 

 
4   [ POLITÉCNICO GRANCOLOMBIANO]
 

 
 

2.2. Q-­‐Q  Plot  (Diagramas  Cuantil  –  Cuantil)  

Al  igual  que  los  histogramas,  los  gráficos  Cuantil  –  Cuantil  o  Q-­‐Q  plot  dan  una  idea  gráfica  del  
posible  comportamiento  que  pueden  seguir  los  datos  de  entrada  que  se  estén  analizando.    
 
La   diferencia   principal   de   un   histograma   y   un   Q-­‐Q   plot   es   que   los   segundos   no   muestran  
propiamente   el   comportamiento   de   la   distribución,   si   no   que   muestra   la   relación   de   los  
cuantiles   de   la   distribución   que   se   sospecha   siguen   los   datos   con   la   distribución   real,   y   a  
partir  de  dicha  relación  es  posible  realizar  conclusiones.  
 
Estrictamente  hablando,  un  cuantil  se  define  de  la  siguiente  manera:  
 
Sea  X  es  una  variable  aleatoria  (VA)  con  función  acumulada  de  probabilidad  Fx(x),  entonces  
el  q-­‐cuantil  de  X  es  aquel  valor  !    tal  que  ! ! = ! ! ≤ ! = !.    Luego,  ! = ! !! (!).  
 
Ahora   bien,   al   partir   de   este   concepto,   se   presenta   a   continuación   el   algoritmo  
(metodología)  a  desarrollar  para  obtener  los  cuantiles  y,  por  lo  tanto,  la  gráfica  que  propone  
la  herramienta  debe  realizarse:  

1. Si   se   tiene   una   muestra   de   n   datos   de   X,   estos   deben   ordenarse   de   menor   a   mayor,   y  


denotarlos   como   yj,   donde   j   es   el   orden   que   tiene   el   dato   dentro   del   conjunto,   es  
decir,  j  =  1  para  el  menor  dato  y  j  =  n  para  el  mayor.    
2. Asignar  una  probabilidad  de  ocurrencia  a  cada  uno  de  los  datos  recolectados,  dicha  
probabilidad  es  asignada  de  acuerdo  a  la  expresión  (j-­‐0.5)/n  
3. Basado   en   el   hecho   de   que   yj   es   una   estimación   del   cuantil   (j-­‐0.5)/n   de   X   calculado   en  
el  paso  anterior,  debe  calcularse  la  función  inversa  de  la  distribución  que  se  sospecha  
siguen  los  datos.  En  otras  palabras:  

 
[ SIMULACIÓN ] 5
 

! − 0.5
!! ≅ ! !!  
!
!!!.!
4. Graficar  yj  v.s.  ! !! !
 

 
Supóngase   que   se   ha   escogido   una   distribución   con   función   F   como   una   posible  
representación   de   la   distribución   de   X.   Si   F   es   un   miembro   de   una   familia   apropiada   de  
distribuciones,  entonces  la  gráfica  de  yj  versus  F-­‐1  será  aproximadamente  una  línea  recta.  
 
Ejemplo  
Se   tienen   los   siguientes   diez   datos   y   se   sospecha   que   siguen   una   distribución   normal   con  
media  =  100  y  desviación  estándar  =  13  
 
105   91   103   83   71  
120   100   135   123   9
0  
 
Con   base   en   la   metodología   anterior,   el   primer   paso   consiste   en   ordenarlos   de   menor   a  
mayor,  así:  
 
j   Yj  
1   71  
2   83  
3   90  
4   91  
5   100  
6   103  
7   105  
8   120  
9   123  
10   135  
 
El  segundo  paso  es  asignarle  una  probabilidad  de  acuerdo  a  la  expresión  (j-­‐0.5)/n:  
 
j   Yj   Probabilidad  
1   71   0,05  
2   83   0,15  
3   90   0,25  
4   91   0,35  
5   100   0,45  

 
6   [ POLITÉCNICO GRANCOLOMBIANO]
 

6   103   0,55  
7   105   0,65  
8   120   0,75  
9   123   0,85  
10   135   0,95  
 
El  tercer  paso  es  calcular  la  función  inversa  para  cada  una  de  las  probabilidades  asignadas  en  
el   paso   anterior.   Como   en   este   caso   se   sospecha   que   los   datos   siguen   una   distribución  
normal   con   media   =   100   y   desviación   estándar   =   13,   debe   calcularse   la   inversa   de   una  
distribución  normal.  
 
Probabilid Función  
j   Yj   ad   inversa  
1   71   0,05   78,616903  
2   83   0,15   86,526366  
3   90   0,25   91,231633  
4   91   0,35   94,990834  
5   100   0,45   98,366402  
6   103   0,55   101,633598  
7   105   0,65   105,009166  
8   120   0,75   108,768367  
9   123   0,85   113,473634  
10   135   0,95   121,383097  
 
Nota:   si   por   ejemplo,   se   hubiese   dicho   que   se   sospechaba   que   los   datos   seguían   una  
distribución  exponencial,  los  pasos  1  y  2  se  debían  haber  realizado  de  la  misma  forma,  pero  
en  el  paso  tres  debería  haberse  calculado  la  inversa  de  una  distribución  exponencial  y  no  de  
la  normal,  es  decir,  la  función  inversa  se  calcula  con  base  en  la  distribución  de  probabilidad  
que  se  sospecha  siguen  los  datos.  

 
[ SIMULACIÓN ] 7
 

140

120

100

80

60

40

20

0
0 20 40 60 80 100 120 140 160
 
 
La   columna   denominada   Probabilidad,   corresponde   al   cálculo   del   cuantil   respectivo.   Por  
!!!/!
ejemplo,  para  j  =  1,  al  reemplazar  en  la  expresión   ! ,  da  como  resultado  0,05,  para  n  =  10.  
La   columna   de   Función   Inversa,   se   puede   calcular   utilizando   Excel,   mediante   la   función  
DISTR.NORM.INV,  con  parámetros:  media  =  100;  desviación  estándar  =  13;  probabilidad  =  la  
recién  calculada  para  cada  uno  de  los  datos.  
 
Cabe   anotar   que   la   decisión   de   aceptar   o   rechazar   la   hipótesis   es   subjetiva,   por   cuanto   la  
apreciación   de   la   gráfica   y   el   ajuste   de   los   puntos   a   una   línea   recta   parten   de   simple  
observación.  
 

2.3. P-­‐P  Plot  (Diagramas  probabilidad  –  probabilidad)  

Al   igual   que   con   el   diagrama   Q-­‐Q,   el   diagrama   P-­‐P   permite   evaluar   un   conjunto   de   datos  
mediante  la  comparación  de  una  distribución  teórica  de  probabilidad.  Su  principal  diferencia  
con   respecto   al   diagrama   anteriormente   descrito,   radica   en   que   los   valores   a   contrastar  
corresponden   al   cuantil   calculado   versus   la   función   de   distribución   acumulada.   Si   los   datos  
corresponden   a   la   distribución   teórica   que   se   está   probando,   la   nube   de   puntos   debe  
aproximarse  a  una  línea  recta.  
 
Ahora   bien,   a   partir   de   lo   anterior,   se   presenta,   a   continuación,   el   algoritmo   (metodología)   a  
desarrollar  para  obtener  los  percentiles  y,  por  lo  tanto,  la  gráfica  que  propone  la  herramienta  
debe  realizarse:  

1. Si   se   tiene   una   muestra   de   n   datos   de   X,   estos   deben   ordenarse   de   menor   a   mayor,   y  


denotarlos   como   yj,   donde   j   es   el   orden   que   tiene   el   dato   dentro   del   conjunto,   es  
decir,  j  =  1  para  el  menor  dato  y  j  =  n  para  el  mayor.    

 
8   [ POLITÉCNICO GRANCOLOMBIANO]
 

2. Asignar  una  probabilidad  de  ocurrencia  a  cada  uno  de  los  datos  recolectados,  dicha  
probabilidad  es  asignada  de  acuerdo  a  la  expresión  (j-­‐0.5)/n  
3. Calcular   la   probabilidad   “real”   de   que   se   de   cada   uno   de   los   valores   de   los   datos   que  
se  recolectaron.  En  otras  palabras:  

!! !!  
!!!.!
4. Graficar   !
 v.s.  !! !!  
 

Ejemplo  
Se   tienen   los   siguientes   diez   datos,   y   se   sospecha   que   siguen   una   distribución   normal   con  
media  =  100  y  desviación  estándar  =  13  
 
105   91   103   83   71  
120   100   135   123   9
0  
 
Con   base   en   la   metodología   anterior,   el   primer   paso   consiste   en   ordenarlos   de   menor   a  
mayor,  así:  
 
j   Yj  
1   71  
2   83  
3   90  
4   91  
5   100  
6   103  
7   105  
8   120  
9   123  
10   135  
 
El  segundo  paso  es  asignarle  una  probabilidad  de  acuerdo  a  la  expresión  (j-­‐0.5)/n:  
 
j   Yj   Probabilidad  
1   71   0,05  
2   83   0,15  
3   90   0,25  
4   91   0,35  
5   100   0,45  
6   103   0,55  

 
[ SIMULACIÓN ] 9
 

7   105   0,65  
8   120   0,75  
9   123   0,85  
10   135   0,95  
 
El   tercer   paso   es   calcular   la   probabilidad   real   para   cada   uno   de   los   valores   de   los   datos  
ordenados  en  el  paso  1.  Como  en  este  caso  se  sospecha  que  los  datos  siguen  una  distribución  
normal  con  media  =  100  y  desviación  estándar  =  13,  debe  calcularse  la  probabilidad  de  los  yj  
con  esta  distribución.  
 
Probabilida
j   Yj   d   Acumulada  
1   71   0,05   0,01284821  
0,0954888
2   83   0,15   5  
3   90   0,25   0,22087816  
0,2443720
4   91   0,35   6  
5   100   0,45   0,5  
6   103   0,55   0,59125296  
7   105   0,65   0,6497388  
8   120   0,75   0,9380321  
9   123   0,85   0,96157231  
0,9964520
10   135   0,95   3  
 
Nota:   si   por   ejemplo   se   hubiese   dicho   que   se   sospechaba   que   los   datos   seguían   una  
distribución  exponencial,  los  pasos  1  y  2  se  debían  haber  realizado  de  la  misma  forma,  pero  
en  el  paso  tres  debería  haberse  calculado  la  probabilidad  con  una  distribución  exponencial  y  
no   de   la   normal,   es   decir,   la   probabilidad   se   calcula   con   base   en   la   distribución   de  
probabilidad  que  se  sospecha  siguen  los  datos.  
 

 
10   [ POLITÉCNICO GRANCOLOMBIANO]
 

1,2

0,8

0,6

0,4

0,2

0
0 0,2 0,4 0,6 0,8 1
 
 

3. Pruebas  de  bondad  de  ajuste  

Las  pruebas  de  bondad  de  ajuste  son  pruebas  de  hipótesis  que  permiten  evaluar  la  idoneidad  
de   un   conjunto   de   datos,   dada   una   distribución   teórica   de   probabilidad   donde   se   podrían  
ajustar.   Como   toda   prueba   de   hipótesis,   esta   comienza   con   el   enunciado   de   la   hipótesis   nula  
y   alternativa.   La   hipótesis   nula   afirma   que   la   variable   aleatoria   que   describe   el   conjunto   de  
datos,   se   distribuye   según   la   función   de   probabilidad   propuesta,   mientras   que   la   hipótesis  
alternativa  contradice  tal  afirmación.  
 
Nota:  Las  pruebas  de  hipótesis  corresponden  a  procesos  de  toma  de  decisión  estadísticos.  El  
modelador  formula  dos  hipótesis  complementarias,  llamadas  la  hipótesis  nula  (denotada  por  
H0)   y   la   hipótesis   alternativa   (denotada   por   H1).   Generalmente,   una   decisión   se   asocia   a   la  
hipótesis   nula,   la   cual   puede   ser   aceptada   o   rechazada.   Consecuentemente,   se   pueden  
generar  dos  tipos  de  error:  

- Error  tipo  I:  Rechazar  H0  erróneamente  


- Error  tipo  II:  aceptar  H0    erróneamente  

El  objetivo  de  las  pruebas  de  hipótesis  es  rechazar  (o  aceptar  H0)  de  tal  manera  que  si    H0    es  
en  realidad  verdadera,  entonces  la  probabilidad  de  rechazarla  erróneamente  (error  tipo  I),  
no   exceda   un   valor   de   probabilidad   previamente   definido,   α,   el   cual   es   llamado   nivel   de  
confianza  o  nivel  de  significancia.  Mientras  más  pequeño  es  α,  más  alta  es  la  confianza  en  la  
decisión  de  rechazo  correspondiente.    
 
 
 

 
[ SIMULACIÓN ] 11
 

3.1. Prueba  Chi  Cuadrado  

Para  realizar  esta  prueba  se  disponen  los  datos  en  una  tabla  de  frecuencias.  Para  cada  valor  o  
intervalo   de   valores   se   indica   la   frecuencia   absoluta   observada   (Oi).   A   continuación,   y  
suponiendo  que  la  hipótesis  nula  es  cierta,  se  calculan  para  cada  valor  o  intervalo  de  valores,  
la  frecuencia  esperada  (Ei=n·∙pi,  donde  n  es  el  tamaño  de  la  muestra  y  pi  la  probabilidad  del  i-­‐
ésimo  valor  o  intervalo  de  valores  según  la  hipótesis  nula).    
 
Para  emplear  esta  metodología  que  es  analíticamente  más  confiable  que  los  histogramas  o  
gráficos  P-­‐P  y  Q-­‐Q,  es  necesario  calcular  un  estadístico  de  prueba.  Dicho  estadístico  se  calcula  
con  base  en  la  frecuencia  observada  y  frecuencia  esperada,  así:  
 
!
!! − !! !
!=  
!!
!!!
 

Este   estadístico   tiene   una   distribución   Chi-­‐cuadrado   con   k-­‐1   grados   de   libertad   si   n   es  
suficientemente  grande,  es  decir,  si  todas  las  frecuencias  esperadas  son  mayores  que  5.    
Si   existe   concordancia   perfecta   entre   las   frecuencias   observadas   y   las   esperadas,   el  
estadístico  tomará  un  valor  igual  a  0;  por  el  contrario,  si  existe  una  gran  discrepancia  entre  
estas  frecuencias,  el  estadístico  tomará  un  valor  grande  y,  en  consecuencia,  se  rechazará  la  
hipótesis   nula.   Así   pues,   la   región   crítica   estará   situada   en   el   extremo   superior   de   la  
distribución  Chi-­‐cuadrado  con  k-­‐1  grados  de  libertad.  

Ejemplo  
La   distribución   de   los   ingresos   anuales   en   dólares   de   una   muestra   de   100   familias,   que  
habitan  en  cierta  población  presentó  los  siguientes  resultados:  
 
Ingresos  anuales  en  miles  de   Frecuencia  Observada  
dólares   (Oi)  
40  ≤  x  ≤  60   12  
60  <  x  ≤  80   8  
80  <x  ≤  100   25  
100  <x  ≤  120   30  
120  <x  ≤  140   25  
 
Puede   admitirse   que   los   ingresos   de   las   familias   que   habitan   en   dicha   población   sigue   una  
distribución  uniforme  en  el  intervalo  [40.000  –  140.000]  con  un  nivel  de  significancia  del  5%.  
 
Dado  que  ya  se  tienen  las  frecuencias  observadas,  el  siguiente  paso  es  calcular  la  frecuencia  
esperada   Ei,   se   debe   que   esta   siempre   será   igual   a   pi·∙n,   donde   n   es   el   número   total   de  

 
12   [ POLITÉCNICO GRANCOLOMBIANO]
 

observaciones   y   pi   es   la   probabilidad   de   la   clase   estimada   con   base   en   la   función   de  


distribución  de  probabilidad  que  se  sospecha  tienen  los  datos.  
 
Dado  que  se  sospecha  que  los  datos  siguen  una  distribución  uniforme  [40  –  140],  el  cálculo  
de   la   probabilidad   pi   debería   realizarse   con   la   función   de   densidad   acumulada   de   una  
uniforme  que  como  habíamos  visto  en  la  semana  2  del  curso  es  igual  a:  
 
!−!
!! ! =  
!−!
 
Para  la  primera  clase  pi,  sería  entonces:  
 
! 40 < ! ≤ 60 = ! ! ≤ 60 − ! ! ≤ 40  
 
60 − 40 40 − 40
! 40 < ! ≤ 60 = −  
140 − 40 140 − 40
 
! 40 < ! ≤ 60 = 0,2 − 0  
 
! 40 < ! ≤ 60 = 0,2  
 
Entonces  Ei  sería  0,2*100  =20  
 
Nota:   Dado   que   se   sospechaba   que   los   datos   seguían   una   distribución   uniforme,   la  
probabilidad   fue   calculada   con   la   función   de   densidad   acumulada   de   la   uniforme,   si   por   el  
contrario   se   hubiese   sospechado   que   los   datos   seguían   una   distribución   exponencial,   la  
probabilidad   debería   haber   sido   calculada   con   la   función   de   densidad   acumulada   de   la  
exponencial,   si   se   hubiese   sospechado   que   los   datos   seguían   una   distribución   Poisson,  
entonces  debía  haberse  calculado  la  probabilidad  con  la  función  de  densidad  de  una  Poisson,  
etc…  
 
Este   procedimiento   se   repite   para   cada   una   de   las   clases,   donde   se   obtiene   los   siguientes  
resultados:  
 
Ingresos  anuales   Frecuencia   Probabilida Frecuencia  
en  miles  de   Observada   d   Esperada  (Ei)  
dólares   (Oi)  
40  ≤  x  ≤  60   12   0,2   20  
60  <  x  ≤  80   8   0,2   20  
80  <x  ≤  100   25   0,2   20  
100  <x  ≤  120   30   0,2   20  
120  <x  ≤  140   25   0,2   20  

 
[ SIMULACIÓN ] 13
 

 
Al  tener  los  valores  de  la  frecuencia  observada  y  de  la  frecuencia  esperada,  es  posible  realizar  
el  cálculo  del  estadístico  recordando  que  este  es  igual  a  
 
!
!! − !! !
!=  
!!
!!!
 
Se  obtienen,  entonces,  los  siguientes  resultados:  
 
Ingresos  anuales   Frecuencia   Probabilida Frecuencia   (Oi-­‐Ei)2/Ei  
en  miles  de   Observada   d   Esperada  (Ei)  
dólares   (Oi)  
40  ≤  x  ≤  60   12   0,2   20   3.2  
60  <  x  ≤  80   8   0,2   20   7.2  
80  <x  ≤  100   25   0,2   20   1.25  
100  <x  ≤  120   30   0,2   20   5  
120  <x  ≤  140   25   0,2   20   1.25  
  Y  =   17.9  
 
Una   vez   obtenido   el   estadístico,   este   deberá   compararse   con   el   valor   Chi2   de   la   tabla   Chi2.  
Para  calcular  este  valor,  recuerde  que  debe  tenerse  presente  el  nivel  de  significancia  con  que  
se  realizó  la  prueba  y  los  grados  de  libertad.  
 
Para   este   ejemplo   en   específico   se   sugirió   que   alfa   fuera   igual   a   0.05   y   los   grados   de   libertad  
siempre  serán  iguales  al  número  de  clases  menos  1,  es  decir,  que  para  el  ejercicio  los  grados  
de  libertad  serían  df  =  5-­‐1  =  4  
 
Al  observar  la  tabla  de  la  Chi2  ,  apreciamos  que  el  resultado  es:  
 

 
 
Finalmente,  para  concluir,  si  se  rechaza  o  no  la  hipótesis  de  que  la  distribución  de  los  ingresos  
anuales  de  dichas  familias  siguen  una  distribución  entre  [40.000  –  140.000],  se  deben  
comparar  los  valores  del  estadístico  calculado  Y  y  los  de  la  tabla  Chi2,  así:  

 
14   [ POLITÉCNICO GRANCOLOMBIANO]
 

- Si  el  estadístico  Y  es  menor  al  valor  en  tabla  de  la  Chi2,  entonces  no  se  rechaza  la  
hipótesis  nula  de  lo  contrario  se  rechaza  

 
Para  este  ejemplo  en  particular,  dado  que  Y  =  17.9  no  es  menor  a  9.48,  entonces  se  debe  
rechazar  la  hipótesis  nula  y,  por  lo  tanto,  se  concluye  que  el  ingreso  anual  de  las  familias  no  
sigue  una  distribución  uniforme  ente  [40.000  –  140.000].  
 

3.2. Prueba  Kolmogorov-­‐Smirnov  

En   esta   prueba   se   pretende   medir   la   mayor   desviación   entre   la   función   de   distribución  


teórica   y   la   empírica.   Esta   desviación   se   compara   con   el   valor   crítico   respectivo,   según   la  
tabla  asociada  a  este  tipo  de  prueba.  Una  ventaja  de  esta  prueba  consiste  en  que  funciona  
muy  bien  para  cualquier  tamaño  de  muestra,  incluso  para  conjuntos  de  datos  muy  pequeños.  
 
El  algoritmo  para  ejecutar  esta  prueba  es  como  sigue:  
 
  1.    Ordenar  los  datos  de  manera  ascendente  
  2.    Calcular  F  (X)  para  cada  uno  de  los  datos  
  3.    Calcular  las  siguientes  desviaciones  
 
!
!! = !"# − ! !  
!
!−1
!! = !"# ! ! −  
!
 
  4.    Estimar  el  estadístico  de  la  prueba  dado  por  ! = max !! , !! .  
5.     Determinar   el   valor   crítico  !!  de   la   tabla,   para   un   nivel   de   significancia   α   y   un   tamaño   de  
muestra  N.  
6.     Si   el   estadístico   de   la   prueba   es   mayor   que   el   valor   crítico   de   la   tabla,   entonces   se  
rechaza  la  hipótesis.  
 
Ejemplo  
Se  tomaron  mediciones  de  tiempo  de  un  proceso  crítico  en  una  línea  de  producción,    donde  
se  tiene  la  siguiente  información  (en  segundos):  
 
17,3   19,6   10,7   11,3   17,8  
16,1   18,0   17,6   18,7   14,5  
 

 
[ SIMULACIÓN ] 15
 

Se  quiere  comprobar  la  hipótesis  de  que  este  tiempo  sigue  una  distribución  uniforme  con  
parámetros  (10,  20)  segundos,  con  un  nivel  de  confianza  del  95%.  
 
De   manera   similar   a   la   elaboración   de   los   diagramas   Q-­‐Q   y   P-­‐P,   resulta   bastante   útil   la  
elaboración  de  una  tabla  para  completar  la  prueba.  
 

 
 
D+  =  0,07  
D-­‐    =  0,33  
 
Entonces,   el   estadístico   de   la   prueba   corresponde   a   0,33.   Se   procede   ahora   a   consultar   la  
tabla  de  valores  críticos  de  la  prueba  Kolmogorov-­‐Smirnov,  la  cual  se  muestra  a  continuación:  
 

 
 
Se  puede  observar  que  el  valor  crítico  equivale  a  0,40925,  para  un  tamaño  de  muestra  n  =  10,  
y   un   nivel   de   significancia   del   5%.   Como   este   valor   es   mayor   al   estadístico   de   la   prueba,   no  

 
16   [ POLITÉCNICO GRANCOLOMBIANO]
 

existe   suficiente   evidencia   estadística   para   rechazar   la   hipótesis   de   que   los   datos   se  
distribuyen  uniformemente.  
 

4. Interpretación  P-­‐Value  

Otra   forma   de   determinar   si   se   rechaza   o   no   una   hipótesis   sin   emplear   directamente   los  
estimadores,  es  a  través  del  concepto  de  P-­‐value  (esta  metodología  es  la  que  suelen  emplear  
la  gran  mayoría  de  software  estadísticos  capaces  de  realizar  análisis  de  entrada).  
 
El  P-­‐Value  corresponde  al  área  superior  derecha  a  partir  del  estadístico  de  prueba,  es  decir,  
es   la   probabilidad   acumulada   que   existe   después   del   estadístico   de   prueba.   Por   ejemplo,  
para   el   caso   de   la   prueba   Chi2   realizada   en   el   ejemplo,   podemos   ver   que   el   p-­‐value  
corresponde  al  área  amarilla  +  área  azul:  
 

 
 
Con  base  en  este  análisis,  las  conclusiones  se  tomarían  así:  
 

Si  el  p-­‐value  es  menor  que  el  nivel  de  significancia,  entonces  se  debe  rechazar  la  hipótesis  
nula,  de  lo  contrario  no  se  rechaza.  

 
[ SIMULACIÓN ] 17
  SIMULACIÓN
 
 
Modelos de Líneas de Espera
 

 
 
 
 

 
 
 

 
 
 
 

 
 
 

 
 
 
 

 
 
 
   
 

• MODELO  DE  LÍNEAS  DE  ESPERA  


 

1. Índice  
1. Introducción  
2. Características  de  los  sistemas  de  colas  
2.1. Notación  de  Kendall  
2.2. Nomenclatura  básica  
3. Ley  de  Little  
4. Sistemas  de  Colas  Markovianas  
4.1. M/M/1  
4.2. M/M/c  
4.3. M/M/c/k  
5. Sistemas  de  Colas  No  Markovianas  
5.1. G/G/1  
G/G/k  
 

2. Introducción  
El   propósito   del   presente   documento   es   presentar   a   los   estudiantes   un   repaso   de   los  
conceptos   básicos   de   los   modelos   de   líneas   de   espera   o   teoría   de   colas,   para   desarrollar  
sobre   unas   bases   teóricas,   modelos   de   simulación   de   eventos   discretos,   que   permitan  
analizar   los   sistemas,   especialmente,   aquellos   que   resultan   complejos   y,   que   por   lo   tanto,  
pueden  ser  estudiados,  más  fácilmente,  a  través  de  la  simulación.  
 
Por  otra  parte,  teniendo  en  cuenta  que  el  objetivo  general  del  módulo  es  que  los  estudiantes  
desarrollen  las  capacidades  necesarias  para  llevar  a  cabo  un  estudio  completo  de  simulación,  
en   esta   unidad,   se   presentarán   diferentes   modelos   para   realizar   en   Arena®,   para   así   afianzar  
las  habilidades,  que  como  analista,  se  debe  desarrollar.  

Finalmente,  se  presentará  una  serie  de  ejercicios  relacionados  para  reforzar  los  
conocimientos  adquiridos  en  el  desarrollo  del  módulo.  
 
3. Objetivo  General.  
Al  finalizar  el  módulo,  los  estudiantes  sabrán  cuáles  son  los  principales  sistemas  de  colas  y  
cómo  el  análisis  de  las  diferentes  medidas  de  desempeño  presentes  en  los  mismos,  se  
encuentran  estrechamente  relacionados  con  la  simulación  de  eventos  discretos.  
Al  finalizar  la  segunda  semana  de  aprendizaje:  

1. El  estudiante  identificará  las  características  principales  de  un  sistema  de  colas.  

 
2   [ POLITÉCNICO GRANCOLOMBIANO]
 

2. El   estudiante   reconocerá   cuales   son   los   diferentes   sistemas   de   colas   que   se   pueden  
resolver  de  forma  analítica  y  a  través  de  simulación  de  eventos  discretos.  
3. El  estudiante  sabrá  calcular  diferentes  medidas  de  desempeño  sobre  los  sistemas  de  
colas  y  reconocerá  la  utilidad  de  la  simulación  de  eventos  discretos  para  la  estimación  
de  dichos  indicadores.  

4. Desarrollo  temático  
 
4.1  Recomendaciones  académicas  

Se  recomienda  al  estudiante  realizar  la  lectura  de  la  cartilla,  en  la  cual  se  encuentra  toda  la  
información   relevante   que   se   evaluará   en   la   semana.   Adicional,   se   recomienda   revisar   las  
teleconferencias,   así   como   las   video   diapositivas,   pues   estas   son   un   medio   que   pueden  
aclarar  las  dudas  generadas  con  la  lectura,  o  también  dar  soporte  a  los  temas  expuestos  en  la  
misma.  
 
Finalmente,  se  recomienda  al  estudiante  realizar  los  ejercicios  planteados  y  sugeridos  por  el  
tutor,   ya   que   estos,   a   pesar   de   no   tener   un   valor   porcentual   en   la   nota,sí   harán   que   la  
formación  sea  completa  y  pueda  ser  reforzada  de  forma  práctica.  
 

4.2    Desarrollo  de  cada  una  de  las  unidades  temáticas  


 

1. Introducción  

La  teoría  de  colas  es  un  campo  de  estudio  de  la  investigación  de  operaciones,  que  se  encarga  
de  estudiar  las  esperas.    
 
Teniendo  en  cuenta  esto,  debemos  pensar  que:  

• Como  clientes  no  queremos  esperar  


• Los  gestores  de  los  servicios  no  quieren  que  esperemos  
• Entonces,  ¿por  qué  hay  que  esperar?  

La  respuesta  es  casi  siempre  simple,  en  algún  momento,  la  capacidad  de  servicio  ha  sido  (o  
es)   menor   que   la   capacidad   demandada.   Generalmente,   esta   limitación   se   puede   eliminar  
invirtiendo  en  elementos  que  aumenten  la  capacidad.  ¿Invertir?  ¿Cuánto?  
 
La   teoría   de   colas   intenta   responder   a   estas   preguntas   mediante   los   análisis   matemáticos  
detallados.  
 
Ahora  bien,  ¿por  qué  hay  cola?,  matemáticamente  podemos  explicarlo  así:  
 

 
[ SIMULACIÓN ] 3
 

Supongamos   que     estamos   estudiando   el   comportamiento   de   un   banco.   Llamemos   N(t)   al  


número  de  personas  que  han  llegado  hasta  el  instante  t.    Denotaremos  como  An  el  tiempo  
entre  el  instante  de  llegada  del  cliente  nésimo  y  el  del  (n-­‐1)-­‐ésimo.    
 
Según  esto  definimos  λ  como:  
1
!=  
![!! ]
 
De  manera  alternativa  la  tasa  de  arribos  puede  definirse  como:  
!(!)
! = lim  
!→! !
 
Finalmente,  sabiendo  que  μ  es  la  tasa  de  atención  al  usuario,  podemos  concluir  que  si  λ  >  μ  
entonces   los   clientes   se   acumularán   a   una   tasa   (λ   -­‐   μ),   lo   cual   conducirá   a   un   crecimiento   sin  
límite  de  la  cola.  De  manera  contraria,  si  λ  <  μ,  debe  tenerse  en  cuenta  que  también  habrá  
cola,   pero   esta   vez   no   será   infinita,   si   no   que   por   el   contrario,   cambiará   de   tamaño  
constantemente.  
 

2. Características  de  los  sistemas  de  colas  

Con  el  objetivo  de  poder  realizar  un  análisis  de  los  sistemas  de  líneas  de  espera  o  cola,  se  han  
identificado   unas   características   relevantes   en   los   mismos,   a   continuación,   el   gráfico  
presenta  de  forma  esquemática  dichas  características:  
 

 
4   [ POLITÉCNICO GRANCOLOMBIANO]
 

 
1. Patrón  de  llegada  de  los  clientes  
• Generalmente  la  llegada  es  estocástica  (depende  de  cierta  V.A).  
• Hay  que  tener  en  cuenta  la  impaciencia  de  los  clientes.  
• Si  patrón  el  de  llegada  no  varía  con  el  tiempo  se  dice  estacionario.  
 
2. Patrones  de  servicio  
• Asignación  de  funciones  de  probabilidad  
• Variabilidad  de  acuerdo  al  número  de  clientes  en  cola  (patrones  de  servicio  
dependientes)  
 
3. Disciplina  de  la  cola  
• FIFO:  el  primero  que  entra  es  el  primero  que  sale.  
• LIFO:  el  último  que  entra  es  el  primero  que  sale.  
• Reglas  de  prioridad,  como  el  Triage  empleado  por  urgencias  en  los  hospitales.  

4. Capacidad  del  sistema  


• Limitación  respecto  al  número  de  clientes  que  pueden  esperar  en  cola  
• Simplificación  en  el  modelaje  de  la  impaciencia  de  los  clientes  

5. Número  de  canales  de  servicio  

 
6. Etapas  de  servicio  
 

 
 
 
 
 
 

 
[ SIMULACIÓN ] 5
 

2.1. Notación  de  Kendall  

La   notación   de   Kendall   fue   propuesta   con   el   objetivo   de   resumir   las   características   de   los  
sistemas  de  colas,  específicamente  aquellos  que  se  caracterizan  porque  sus  servidores  se  
encuentran  dispuestos  de  forma  paralela.  
 
Dicha   notación   consta   de   6   componentes   1/2/3/4/5/6.   El   primero,   hace   referencia   al   tipo  
de   distribución   de   probabilidad   que   siguen   los   tiempos   entre   arribos,   el   segundo,   a   la  
distribución  de  probabilidad  que  siguen  los  tiempo  de  servicio,  el  tercero,  al  número  de  
servidores  del  sistema,  el  cuarto,  a  la  disciplina  del  servicio,  el  quinto,  a  la  capacidad  de  la  
cola  y  el  sexto,  al  tamaño  de  la  población.  
 
Como   mínimo   para   describir   un   sistema   de   colas,   se   requiere   de   por   lo   menos   de   los   tres  
primeros   componentes.   Los   dos   primeros   componentes,   a   su   vez,   tienen   una   notación  
característica:  
 
Si  en  la  posición  1  o  2  aparece  una  letra  D,  se  dice  que  el  tiempo  entre  arribos  o  de  servicio,  
respectivamente,   es   determinístico,   por   el   contrario,   si   aparece   una   M,   se   dice   que   el  
tiempo   entre   arribos   o   servicio   es   exponencial,   si   aparece   una   letra   G,   se   dice   que   el  
tiempo  entre  arribos  o  servicio  es  general,  es  decir,  que  sigue  una  distribución  diferente  a  
la  exponencial  o  a  la  Erlang.  
 
Por  ejemplo,  la  notación  M/M/1  indicaría  que  el  sistema  tiene  un  tiempo  entre  arribos  que  
se   distribuye   exponencial,   un   tiempo   de   servicio   que   también   se   distribuye   exponencial   y  
que  el  número  de  servidores  en  paralelo  es  1.  
 

2.2. Nomenclatura  básica  

Con  el  objetivo  de  que  el  análisis  de  sistemas  de  líneas  de  espera  sea  unificado  (que  todos  
hablemos  el  mismo  idioma),  se  ha  definido  la  siguiente  nomenclatura  básica:  
 
 
!: !"#"  !"  !""#$%&  !"  !"#  !"#$%&$'  !"  !"!#$%&  (!!"#$%$&/!"#. !"#$%&)  
!: !"#"  !"  !"#$%&%'   !"#$%&%'! !"#. !"#$%&  
!: !"#$%&  !"  !"#$%&'#"!  !"  !"#"$%$&  
!! : !"#$%&  !"#$%&'#  !"  !"#$%&%'  
!! : !"#$%&  !"#$%&'#  !"  !"#$  
!: !"#$%&  !"#$%&'#  !"  !"  !" !"#$  
!! : !"#$%&  !"#$%&'#  !"  !"#$%&%!'  !"  !"#$%&%'  
!! : !"#$%&  !"#$%&'#  !"  !"#$%&%!'  !"  !"#$  
!: !"#$%&  !"#$%&'#  !"  !"#$%&%!'  !"  !"  !"!#$%&  
!: !"#  !"  !"#$#%&'#ó!  !"#  !"!#$%&  

 
6   [ POLITÉCNICO GRANCOLOMBIANO]
 

!! : !"#$%$&'&(%(  !"  !"#  ℎ!"!#  !  !"#$%&$'  !"  !"#$%&  !"#$%&!  


!! : !"#$%$&'&(%(  !"  !"#  !"  !"#$%&'#  !"#!  !"#$%&!  !"  !"# !"  !"#$%&!  
 

3. Ley  de  Little  

La  ley  de  Little  es  una  ecuación  que  establece  la  relación  entre  la  tasa  de  arribos  (que  es  un  
parámetro),  el  número  promedio  de  clientes  (medida  de  desempeño)  y  el  tiempo  promedio  
(medida  de  desempeño).  
 
Gracias  a  esta  relación  es  posible  estimar  las  diferentes  medidas  de  desempeño  del  sistema  y,  
por  lo  tanto,  evaluar  que  tan  bien  o  que  tan  mal  está  funcionando.  
 
Con  base  en  lo  anterior,  la  ley  de  Little  se  define  como:  
 
! = !"  
!! = !!!  
!! = !!!  
Adicional  a  esta  ley,  siempre  se  va  a  cumplir  las  siguientes  relaciones:  
! = !! + !!  
! = !! + !!  
!! = 1/!  

4. Sistemas  de  Colas  Markovianas  


Los  sistemas  de  colas  markovianas  se  caracterizan  porque  tanto  sus  tiempos  de  servicio  
como   sus   tiempos   entre   arribos   siguen   una   distribución   exponencial,   a   continuación   se  
presenta   el   resumen   del   cálculo   de   las   medidas   de   desempeño   para   los   sistemas   más  
relevantes  dentro  de  esta  clasificación.  
 
Debe  recordarse  que  para  poder  realizar  un  análisis  de  una  línea  de  espera  esta  deberá  
encontrarse  en  estado  estable.  
 
4.1. M/M/1  

Con  base  en  la  notación  de  Kendall,  se  sabe  que  el  sistema  aquí  expuesto  se  caracteriza  
por   tener   tiempo   entre   arribos   exponenciales,   tiempo   de   servicio   exponencial   y   un   único  
servidor.    
 
La  condición  de  estabilidad  para  este  sistema  está  dada  por:  
 
!
! < ! = < 1  
!
 

 
[ SIMULACIÓN ] 7
 

Las  medidas  de  desempeño  para  este  sistema  son:  


 
Número  promedio  de   Número  promedio  de   Número  promedio  de  
entidades  en  servicio   entidades  en  cola   entidades  en  el  sistema  
! !! !
!! =   !! =   !=  
! !(! − !) !−!
Tiempo  promedio  de  
Tiempo  promedio  de   Tiempo  promedio  de  
una  entidad  en  el  
una  entidad  en  servicio   una  entidad  en  cola  
sistema  
1 ! 1
!! =   !! =   !=  
! !(! − !) !−!
 
Nota:   Recuerde   que   estas   medidas   de   desempeño   también   pueden   calcularse   con   base  
en  las  relaciones  establecidas  en  el  apartado  referente  a  la  Ley  de  Little.  
 
Por  otra  parte  la  tasa  de  utilización  del  sistema  estará  dada  por:  
!
! =  
!
4.2. M/M/c  

Con  base  en  la  notación  de  Kendall,  se  sabe  que  el  sistema  aquí  expuesto  se  caracteriza  
por   tener   tiempo   entre   arribos   exponenciales,   tiempo   de   servicio   exponencial   y   c  
servidores.    
 
La  condición  de  estabilidad  para  este  sistema  está  dada  por:  
 
! < !"  
 
La  probabilidad  de  que  hayan  0  entidades  en  el  sistema  está  dado  por:  
 
1
!! =  
!/! ! !/! !
!!!
+
!!! !! !
!! 1 − !"
 
La  probabilidad  de  que  hayan  n  entidades  en  el  sistema  está  dada  por:  
 

 
8   [ POLITÉCNICO GRANCOLOMBIANO]
 

!!
!                1 ≤ ! ≤ !
!! ! ! !
!! =  
!!
!                      ! ≥ !
! !!! !! ! ! !
 
Las  medidas  de  desempeño  para  este  sistema  son:  
 
Número  promedio  de   Número  promedio  de   Número  promedio  de  
entidades  en  servicio   entidades  en  cola   entidades  en  el  sistema  
! !/! ! !
!! =   !! = !     ! = !! + !!  
! !! 1 − ! ! !
Tiempo  promedio  de  
Tiempo  promedio  de   Tiempo  promedio  de  
una  entidad  en  el  
una  entidad  en  servicio   una  entidad  en  cola  
sistema  
1 !/! !  
!! =   !! = !!   ! = !! + !!  
! !! !" 1 − ! !

 
Nota:   Recuerde   que   estas   medidas   de   desempeño   también   pueden   calcularse   con   base  
en  las  relaciones  establecidas  en  el  apartado  referente  a  la  Ley  de  Little.  
 
Por  otra  parte  la  tasa  de  utilización  del  sistema  estará  dada  por:  
!
! =  
!"
4.3. M/M/c/k  

Con  base  en  la  notación  de  Kendall,  se  sabe  que  el  sistema  aquí  expuesto  se  caracteriza  
por   tener   tiempo   entre   arribos   exponenciales,   tiempo   de   servicio   exponencial,   c  
servidores  y  una  capacidad  para  k  entidades.  
 
La  condición  de  estabilidad  para  este  sistema  está  dada  por:  
 
! < !"  
 
La  probabilidad  de  que  hayan  0  entidades  en  el  sistema  está  dado  por:  
 

 
[ SIMULACIÓN ] 9
 

1
       ! ≠ 1
!!! ! ! ! ! ! ! 1 − !/!" !!!!!
!!! !! + !! 1 − !/!"
!! = 1  
       ! = 1
! ! ! ! ! !
!!!
!!! !! + !! !−!+1
 
La  probabilidad  de  que  hayan  n  entidades  en  el  sistema  está  dada  por:  
 
!!
!                      1 ≤ ! ≤ !
!! ! ! !
!! =  
!!
!            ! ≤  ! ≤ !
! !!! !! ! ! !
 
Las  medidas  de  desempeño  para  este  sistema  son:  
 
Número  promedio  de   Número  promedio  de  
 
entidades  en  servicio   entidades  en  el  sistema  
! !
!! = (1 − !! )     ! = !! + (1 − !! )  
! !
Tiempo  promedio  de  
Tiempo  promedio  de   Tiempo  promedio  de  
una  entidad  en  el  
una  entidad  en  servicio   una  entidad  en  cola  
sistema  
1 ! 1 !
!! =   !! = −   !=  
! !(1 − !! ) ! !(1 − !! )
 

Número  promedio  de  entidades  en  cola  

!!
!! !/! ! !
= !
[1 − !!!!!!
!! 1 − !
− 1 − ! ! − ! + 1 !!!! ]    
 
Nota:   Recuerde   que   estas   medidas   de   desempeño   también   pueden   calcularse   con   base  
en  las  relaciones  establecidas  en  el  apartado  referente  a  la  Ley  de  Little.  
 
Por  otra  parte  la  tasa  de  utilización  del  sistema  estará  dada  por:  
!
! =  
!"

 
10   [ POLITÉCNICO GRANCOLOMBIANO]
 

5. Sistemas  de  Colas  No  Markovianas  


Los   sistemas   de   colas   no   markovianas   se   caracterizan   porque   tanto   sus   tiempos   entre  
arribos   como   sus   tiempos   de   servicio   no   son   exponenciales,   para   solucionar   este  
problema  se  tienen  en  cuenta  algunos  aspectos  relevantes:  
• Se  emplean  aproximaciones  
• Se   emplean   formulas   exactas,   pero   estas   solo   aplican   para   colas   M/G/1,   G/M/1,  
M/G/∞  
• Se  emplea  SIMULACIÓN.  La  simulación  tiene  la  enorme  ventaja  de  permitir  incluir  
hasta   el   más   mínimo   detalle   de   un   sistema   real   y   representar   virtualmente  
cualquier  distribución  
 
5.1. G/G/1  
 
Las  aproximaciones  analíticas  que  se  tienen  para  este  tipo  de  sistemas  son:  
 

!!! + !!! ! 1
!! = −  
2) 1−!!

Donde    
!
! =  
!
!! : !"  !"  !"#$%!%#&'#  !"  !"#$"%$&$'"'  !"  !"#  !""#$%&  
!! : !"  !"  !"#$%!%#&'#  !"  !"#$"%$&$'"'  !"#  !"#$%&%'  
 
Recuerde   que   el   coeficiente   de   variabilidad   de   una   variable   aleatoria   cualquiera   se   define  
como:  
 
!!
!! =  
![!]
Observe  que  multiplicando  ambos  lados  de  la  ecuación  por  lambda  y  usando  la  ley  de  Little  la  
formula  anterior  es  equivalente  a:  
!!! + !!! !!
!! = −  
2 1−!
 
Nota:   Recuerde   que   estas   medidas   de   desempeño   también   pueden   calcularse   con   base   en  
las  relaciones  establecidas  en  el  apartado  referente  a  la  Ley  de  Little.  

 
5.2. G/G/k  
Para  este  tipo  de  sistemas  se  emplea  la  aproximación  de  Cunnen  –  Allen  la  cual  establece  
lo  siguiente:      

 
[ SIMULACIÓN ] 11
 

 
!!! + !!!
!! ≈ − !!,!/!/!  
2
 

Donde  !!,!/!/!  es   el   número   promedio   en   cola   que   se   obtendría   si   las   distribuciones   del  
tiempo  entre  arribos  y  del  tiempo  de  servicio  son  exponenciales  
La   anterior   aproximación   nos   dice   que   el   tiempo   en   cola   se   puede   estimar   pretendiendo   que  
el   sistema   es   markoviano   y   luego   aplicando   un   factor   de   corrección   que   depende   de   la  
varianza  de  las  distribuciones  involucradas  
 
   
 
 
 

 
 
 
 

 
 
 

 
 
 
 

 
 
 

 
12   [ POLITÉCNICO GRANCOLOMBIANO]
SIMULACIÓN
Generación de números y variables aleatorias
• GENERACIÓN DE NÚMEROS Y VARIABLES
ALEATORIAS

1. Índice
1. Introducción
2. Propiedades de los números aleatorios
3. Técnicas de generación de números aleatorios
3.1. Método Lineal de Congruencias
4. Pruebas para números aleatorios
4.1. Prueba de Uniformidad
4.2. Prueba de Independencia
5. Generación de variables aleatorias
5.1. Variables uniformes
5.2. Variables exponenciales
5.3. Variables triangulares
Variables continuas empíricas

2. Introducción
El propósito del presente documento es mostrar a los estudiantes las diferentes técnicas
para generar números aleatorios de forma analítica (sin apoyo de software especializado) y
las técnicas apropiadas para transformar esos números, en variables aleatorias con una
distribución de probabilidad y parámetros definidos.

Por otra parte, en esta unidad se describen los diferentes modelos para realizar en Arena®,
con el fin de cumplir el objetivo general del módulo, el cual radica en que los estudiantes
desarrollen las habilidades necesarias para llevar a cabo un estudio completo de simulación.

Finalmente, se presentará una serie de ejercicios relacionados con las temáticas para
reforzar los conocimientos adquiridos en el desarrollo del módulo.

3. Objetivo general
Al finalizar el módulo, los estudiantes sabrán cuáles son los principales métodos para generar
números aleatorios y transformarlos en variables con una distribución de probabilidad
definida, de igual forma, reconocerán cómo estas técnicas están estrechamente relacionadas
con la simulación de eventos discretos.

2 [ POLITÉCNICO GRANCOLOMBIANO]
Al finalizar la segunda semana de aprendizaje:

1. El estudiante aprenderá a generar números aleatorios a través de la técnica del


método lineal de congruencias
2. El estudiante identificará cuándo un conjunto de números aleatorios cumple con las
pruebas de uniformidad e independencia; para ello, aprenderá a realizar dichas
pruebas.
3. El estudiante sabrá como transformar un número aleatorio en una variable aleatoria
específica con los parámetros deseados.

4. Desarrollo temático

4.1 Recomendaciones académicas

Se recomienda al estudiante realizar la lectura de la cartilla, en la cual se encuentra toda la


información relevante que se evaluará en la semana. Adicional, se invita a revisar las
teleconferencias y las video-diapositivas, pues estas son un medio para aclarar las dudas
generadas con la lectura y dar soporte a los temas expuestos.

Finalmente, se recomienda al estudiante realizar los ejercicios planteados y sugeridos por el


tutor, ya que estos, a pesar de no tener un valor porcentual en la nota, harán que la
formación sea completa y fortalecida de forma práctica.

4.2 Desarrollo de cada una de las unidades temáticas

1. Introducción

La generación de números y variables aleatorias es un tema relevante y fundamental en la


simulación de eventos discretos, pues se debe tener claro, cómo da este proceso, en tanto,
la simulación considera que los eventos son aleatorios o estocásticos.

En la presente cartilla se darán a los estudiantes las diferentes herramientas para generar
números aleatorios de forma analítica, sin la ayuda de ningún tipo de software y las
herramientas adicionales para transformar dichos números aleatorios, en variables aleatorias
que sigan una distribución probabilística definida.

Dentro de los conceptos básicos relacionados a esta temática, el estudiante estudiará las
principales distribuciones de probabilidad y los parámetros que la caracterizan, pues esto es
fundamental para la transformación de los números aleatorios en variables aleatorias.

[ SIMULACIÓN ] 3
2. Propiedades de los números aleatorios

Para que un conjunto de números pueda ser clasificado como aleatorios deben tener dos
propiedades estadísticas fundamentales:

- Uniformidad: se refiere a que todo número tiene la misma probabilidad de ser


escogido o generado (espacio equiprobable).
- Independencia: la elección de un número no depende de la elección de otro.

Ejemplo

Imagine que a usted le presentan los siguientes números:

2-4-6-8-10-12-14-16
Puede notar dos cosas:

- La probabilidad de que el número 1 o el número 3 o el número 7 esté en ese conjunto


es cero, por lo tanto, la primera propiedad no se está cumpliendo, pues la
probabilidad de que apareciera cualquier número debería ser la misma para todos
ellos.
- Si cree que el siguiente número que debe aparecer en la secuencia es 18, es correcto;
acertó porque los números anteriores, le dieron una idea de cuáles serían los
siguientes que aparecerían, por lo tanto, la propiedad de independencia tampoco se
cumple, pues los números que aparecieron en la secuencia están afectando a los
números que podrían aparecer más adelante.

3. Técnicas de generación de números aleatorios

Con base en las propiedades anteriores, la idea es generar una secuencia de números entre
cero y 1 [0,1] que imiten los comportamientos mencionados. Para lograr esto, normalmente,
se emplean funciones deterministas a través de generadores que deben cumplir las
siguientes características:

- Secuencias no correlacionadas. Esta característica hace referencia a la propiedad de


independencia que deben tener los números aleatorios.
- Tener un periodo largo, es decir, que con la función determinista que maneje el
generador, se puedan formar una gran cantidad de números antes de que se repita un
número generado previamente. Las secuencias no deberían repetirse, sin embargo,
en la práctica, una repetición debe ocurrir después de un gran conjunto de números
generados.
- Uniformidad, esta es la misma propiedad.
- Eficiencia, es decir, la función determinista generadora de números debe ser muy
rápida y no requerir de cálculos complejos para formar los números aleatorios.

4 [ POLITÉCNICO GRANCOLOMBIANO]
3.1. Método lineal de congruencias

Esta es una de las rutinas más comunes para generar números aleatorios entre cero y uno.
Para generar dichos números, primero es necesario generar enteros a través de la siguiente
relación recursiva:

𝑋𝑖+1 = (𝑎𝑋𝑖 + 𝑐) 𝑚𝑜𝑑𝑢𝑙𝑜 𝑚 ∀𝑖 = 0, 1, 2, 3, … , 𝑛

Donde:
𝑋0 = 𝑢𝑛 𝑣𝑎𝑙𝑜𝑟 𝑖𝑛𝑖𝑐𝑖𝑎𝑙 𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑜 𝑐𝑜𝑛 𝑒𝑙 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑆𝑒𝑚𝑖𝑙𝑙𝑎
𝑚 = 𝑢𝑛 𝑣𝑎𝑙𝑜𝑟 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑜 𝑐𝑜𝑚𝑜 𝑚ó𝑑𝑢𝑙𝑜
𝑚𝑜𝑑𝑢𝑙𝑜 = 𝑒𝑠 𝑙𝑎 𝑜𝑝𝑒𝑟𝑎𝑐𝑖ó𝑛 𝑚𝑜𝑑𝑢𝑙𝑜, 𝑙𝑎 𝑐𝑢𝑎𝑙 𝑑𝑒𝑣𝑢𝑒𝑙𝑣𝑒 𝑒𝑙 𝑟𝑒𝑠𝑖𝑑𝑢𝑜 𝑑𝑒 𝑢𝑛𝑎 𝑑𝑖𝑣𝑖𝑠𝑖ó𝑛
𝑎 = 𝑢𝑛 𝑣𝑎𝑙𝑜𝑟 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑜 𝑐𝑜𝑚𝑜 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝑚𝑢𝑙𝑡𝑖𝑝𝑙𝑖𝑐𝑎𝑡𝑖𝑣𝑎
𝑐 = 𝑢𝑛 𝑣𝑎𝑙𝑜𝑟 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑜 𝑐𝑜𝑚𝑜 𝑖𝑛𝑐𝑟𝑒𝑚𝑒𝑛𝑡𝑜

Ahora bien vale la pena aclarar que la escogencia de todos estos parámetros a, c, m, X0
afecta directamente las propiedades estadísticas (uniformidad e independencia) y
además la longitud del ciclo (periodo)

Finalmente, para convertir los enteros generados con la relación recursiva presentada
anteriormente en números aleatorios entre cero y uno, basta con dividirlos entre el
módulo m.

Ejemplo

Dados los siguientes parámetros:

𝑋0 = 27
𝑚 = 100
𝑎 = 17
𝑐 = 43

Emplee el método lineal de congruencias para generar números aleatorios.

Solución:

𝑋𝑖+1 = (𝑎𝑋𝑖 + 𝑐) 𝑚𝑜𝑑𝑢𝑙𝑜 𝑚

𝑋0 = 27
𝑋0+1 = 𝑋1 = (17 ∗ 27 + 43)𝑚𝑜𝑑𝑢𝑙𝑜 100 = 502 𝑚𝑜𝑑𝑢𝑙𝑜 100 = 2
𝑋1+1 = 𝑋2 = (17 ∗ 2 + 43)𝑚𝑜𝑑𝑢𝑙𝑜 100 = 77 𝑚𝑜𝑑𝑢𝑙𝑜 100 = 77
𝑋2+1 = 𝑋3 = (17 ∗ 77 + 43)𝑚𝑜𝑑𝑢𝑙𝑜 100 = 1352 𝑚𝑜𝑑𝑢𝑙𝑜 100 = 52

[ SIMULACIÓN ] 5
𝑋3+1 = 𝑋1 = (17 ∗ 52 + 43)𝑚𝑜𝑑𝑢𝑙𝑜 100 = 927 𝑚𝑜𝑑𝑢𝑙𝑜 100 = 27

Dado que ya se repitió el primer número, la secuencia para y no se generan más enteros,
pues si lo hiciéramos se volvería a repetir la secuencia, 2, 77, 52,….

Ahora bien, recordemos que los números deben ser entre cero y uno, para ello, de
acuerdo al método, se dividen los enteros calculados (X), nuevamente, entre la constante
m (que para este caso es 100). De acuerdo a esto, tenemos:

27
𝑅0 = = 0,27
100

2
𝑅1 = = 0,02
100
77
𝑅2 = = 0,77
100

52
𝑅3 = = 0,52
100

Y de esta forma se obtienen los números aleatorios (R) deseados.

Pruebas para números aleatorios


Las pruebas para números aleatorios deben realizarse para comprobar que los números
generados con la función determinista cumplen con las propiedades de uniformidad e
independencia, las cuales son claves para asegurar que un conjunto de números si es
aleatorio. A continuación, se presentan dichas pruebas:

3.2. Prueba de uniformidad


Esta prueba, también conocida como prueba de frecuencia, plantea una tentativa de
hipótesis específica:

𝐻0 : 𝑅𝑖 ~𝑈[0,1]
𝐻1 : 𝑅𝑖 ≁ 𝑈[0,1]

Con un nivel de significancia α definido (se recomiendan valores entre el 5% y el 10%).

Esta prueba ya se había estudiado en la semana 3 del módulo con el nombre prueba
Chí – cuadrado, la única diferencia es que la de uniformidad siempre probará que los
números sigan una distribución uniforme entre cero y uno.

6 [ POLITÉCNICO GRANCOLOMBIANO]
Se recomienda para esta prueba que se generen 4 clases, la primera que contenga
los números entre 0.00 y 0.25, la segunda, entre 0.25 y 0.50, la tercera, entre 0.50 y
0.75 y la última, entre 0,75 y 1.00

3.3. Prueba de Independencia


Esta prueba, también conocida como de autocorrelación, plantea una tentativa de
hipótesis específica:

𝐻0 : 𝑅𝑖 ~𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠
𝐻1 : 𝑅𝑖 ≁ 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠

Con un nivel de significancia α definido (se recomiendan valores entre el 5% y el 10%).

A diferencia de la prueba anterior, esta no se ha estudiado, por ello, a continuación,


se presentará la metodología básica para llevarla a cabo:

El primer paso es plantear las hipótesis:

𝐻0 : 𝜌𝑖𝑚 = 0
𝐻1 : 𝜌𝑖𝑚 ≠ 0

El segundo paso es calcular la correlación de los datos:

𝑀
1
𝜌̂𝑖𝑚 = [∑ 𝑅𝑖+𝑘𝑚 𝑅𝑖+(𝑘+1)𝑚 ] − 0.25
𝑀+1
𝑘=0

El tercer paso es calcular la desviación de las correlaciones:

√13𝑀 + 7
𝜎𝜌̂𝑖𝑚 =
12(𝑀 + 1)
El cuarto paso es calcular un estadístico de prueba, tal como se hace con la prueba
chi-cuadrado. En el caso de esta prueba, el estadístico está dado por la expresión:
𝜌̂𝑖𝑚
𝑍0 =
𝜎𝜌̂𝑖𝑚

El último paso es concluir de acuerdo a lo siguiente:

[ SIMULACIÓN ] 7
Si el valor del estadístico está entre la zona blanca, no se rechaza la hipótesis nula y,
por tanto, se concluye que el conjunto de números aleatorios cumple con la
propiedad de independencia. Por otra parte, si el valor del estadístico cae en
cualquiera de las dos zonas achuradas, se rechaza la hipótesis nula y se concluye que
los números aleatorios no cumplen con la propiedad de independencia.

Ejemplo

Considere el siguiente conjunto de números aleatorios:

0,12 0,01 0,23 0,28 0,89 0,31 0,64 0,28 0,83 0,93
0,99 0,15 0,33 0,35 0,91 0,41 0,6 0,27 0,75 0,88
0,68 0,49 0,05 0,43 0,95 0,58 0,19 0,36 0,69 0,87

Se quiere aplicar una prueba de independencia (autocorrelación) de orden 5 para los


números a partir de la tercera observación, donde se use un nivel de significancia del
5%.

De acuerdo a la metodología presentada anteriormente, tenemos:

𝑖 = 3 porque el enunciado exige que se realice a partir de la tercera observación,


aunque podría haber sido de la primera, de la segunda, de la cuarta, etc.

𝑚 = 5 porque el enunciado exige que sea de orden 5, es decir que se realice la prueba
para cada 5 observaciones.

𝛼 = 5% porque el enunciado especifica que se realice la prueba con este nivel de


significancia.

8 [ POLITÉCNICO GRANCOLOMBIANO]
Para calcular la autocorrelación de los datos, debemos definir los términos de la
sumatoria. De acuerdo a esto, tenemos:

0,12 0,01 0,23 0,28 0,89 0,31 0,64 0,28 0,83 0,93
0,99 0,15 0,33 0,35 0,91 0,41 0,6 0,27 0,75 0,88
0,68 0,49 0,05 0,43 0,95 0,58 0,19 0,36 0,69 0,87

Se arrancó en la tercera observación y se continúa con las observaciones cada 5


periodos, entonces los términos son:

1 (0.23 ∗ 0,28) + (0.28 ∗ 0.33) + (0.33 ∗ 0.27)


𝜌̂𝑖𝑚 = [ ] − 0.25
𝑀+1 +(0.27 ∗ 0.05) + (0.05 ∗ 0.36)

Y dado que dentro de la sumatoria tenemos 5 términos, pero dicha sumatoria


arranca en cero, podemos afirmar que M es igual a 4.

1 (0.23 ∗ 0,28) + (0.28 ∗ 0.33) + (0.33 ∗ 0.27)


𝜌̂𝑖𝑚 = [ ] − 0.25
4+1 +(0.27 ∗ 0.05) + (0.05 ∗ 0.36)

𝜌̂𝑖𝑚 = −0.1945

Calcular la desviación entonces es igual a:

√13(4) + 7
𝜎𝜌̂𝑖𝑚 =
12(4 + 1)

𝜎𝜌̂𝑖𝑚 = 0.128

Una vez obtenidos estos dos valores, es posible calcular el estadístico:

−0.1945
𝑍0 = = −1.516
0.128

Dado que α = 5%, se debe buscar el valor en 𝑧0.05/2 en la tabla de la distribución


normal. Al hacerlo, tenemos que:
𝑧0.025 = 1.96

[ SIMULACIÓN ] 9
Al graficar

Dado que Z0 cae en la zona blanca, se puede concluir que no hay evidencia estadística
para rechazar la hipótesis de independencia, es decir, los números aleatorios si
cumplen con la propiedad.

4. Generación de variables aleatorias

Para que el modelamiento de un sistema tome forma, se deben definir correctamente (como
lo hemos visto a lo largo de estas 4 semanas):

- Variables aleatorias que rijan ciertos comportamientos del sistema (por ejemplo, los
tiempos de arribo, los tiempos de servicio, las fallas de los recursos, etc.).
- Procesos estocásticos para modelar variación de entradas en el tiempo (tal cual como
los ejemplos de Arena manejados, en los que nada se asume determinístico, sino que
por el contrario, todo tiene variabilidad).

Con base en lo anterior, es posible definir métodos para que a partir de muestras de números
aleatorios se puedan generar variables aleatorias que permitan describir diferentes procesos
estocásticos.

A continuación, se presenta la metodología general para transformar un número entre 0 y 1


en una variable aleatoria:

10 [ POLITÉCNICO GRANCOLOMBIANO]
Generación de
números Transformación
Aleatorios {Xi}
X=f(U)
{Ui}

Algoritmo

Independiente del tipo de variable que se quiera obtener (uniforme, exponencial, triangular),
el algoritmo que debe aplicarse es el mismo y es el siguiente:

1. Calcular la función acumulada de probabilidad de la variable aleatoria X.


2. Igualar dicha función de probabilidad acumulada con el número aleatorio F(X) = R.
3. Resolver la ecuación para X en términos de R (despejar X).
4. Reemplazar por los valores numéricos y obtener la distribución deseada.

4.1. Variables uniformes

Ejemplo
Suponga que se tienen los siguientes números aleatorios:

0,12 0,01 0,23 0,28 0,89

Transformarlos en una variable aleatoria con distribución uniforme y parámetros mínimo:


6 y máximo:16

De acuerdo a lo anterior y siguiendo el algoritmo presentado, piden una variable


distribuida uniformemente U[6,16]:

1. Función acumulada de la distribución uniforme:


𝑋−𝑎
𝐹(𝑋) =
𝑏−𝑎

[ SIMULACIÓN ] 11
2. Igualar la función con el aleatorio:
𝑋−𝑎
=𝑅
𝑏−𝑎
3. Despejar X:
𝑋 = 𝑎 + (𝑏 − 𝑎)𝑅
4. Resolver:

7,2 6,1 8,3 8,8 14,9

4.2. Variables exponenciales

Ejemplo
Suponga que se tienen los siguientes números aleatorios:

0,12 0,01 0,23 0,28 0,89

Transformarlos en una variable aleatoria con distribución exponencial con parámetro


lambda:0,05

De acuerdo a lo anterior y siguiendo el algoritmo presentado, piden una variable


distribuida exponencialmente Exp[λ=0,05]:

1. Función acumulada de la distribución uniforme:


𝐹(𝑋) = 1 − 𝑒 −𝜆𝑥
2. Igualar la función con el aleatorio:
1 − 𝑒 −𝜆𝑥 𝑅
3. Despejar X:
−1
𝑋= ln(1 − 𝑅)
𝜆
4. Resolver:

2,55 0,2 5,23 6,57 44,1

4.3. Variables triangulares

Ejemplo

Suponga que se tienen los siguientes números aleatorios:

0,12 0,01 0,23 0,28 0,89

12 [ POLITÉCNICO GRANCOLOMBIANO]
Transformarlos en una variable aleatoria con distribución triangular con parámetros
mínimo: 3, más probable: 8, máximo: 14

De acuerdo a lo anterior y siguiendo el algoritmo presentado, piden una variable


distribuida exponencialmente Tria[3, 8, 14]:

1. Función acumulada de la distribución triangular:


𝐹(𝑥)
0 𝑥<𝑎
(𝑥 − 𝑎)2
𝑎≤𝑥<𝑏
(𝑏 − 𝑎)(𝑐 − 𝑎)
=
(𝑐 − 𝑥)2
1− 𝑏≤𝑥<𝑐
(𝑐 − 𝑎)(𝑐 − 𝑏)
{ 1 𝑥≥𝑐

La función acumulada de la triangular está definida en dos


rangos diferentes, por lo tanto, al igualar la función debe tenerse
especial cuidado en verificar cuál de las dos funciones debe emplearse.

2. Igualar la función con el aleatorio:

(𝑥 − 𝑎)2 𝑏−𝑎
=𝑅 0≤𝑅<
(𝑏 − 𝑎)(𝑐 − 𝑎) 𝑐− 𝑎
(𝑐 − 𝑥)2 𝑏−𝑎
1− =𝑅 ≤𝑅<1
(𝑐 − 𝑎)(𝑐 − 𝑏) 𝑐−𝑎

3. Despejar X:
𝑏−𝑎
𝑎 + √(𝑏 − 𝑎)(𝑐 − 𝑎)𝑅 0≤𝑅<
𝑋={ 𝑐−𝑎
𝑏−𝑎
𝑐 − √(𝑐 − 𝑎)(𝑐 − 𝑏)(1 − 𝑅) ≤𝑅<1
𝑐−𝑎
4. Resolver:

4,90 3,55 5,63 5,90 11,31

[ SIMULACIÓN ] 13
4.4. Variables continuas empíricas

Cuando las distribuciones teóricas (como las vistas anteriormente) no son aplicables se debe
emplear distribuciones empíricas. DE esa forma, el algoritmo cambia. A continuación, se
explicará, a través de un ejemplo, la metodología que debe seguirse.

Ejemplo

Suponga que se toman los tiempos de reparación de 100 componentes electrónicos:

xi-1 <x≤ xi Frecuencia


1,00 <x≤ 1,50 25,00
1,50 <x≤ 2,00 23,00
2,00 <x≤ 2,30 32,00
2,30 <x≤ 3,00 20,00

Calcular la frecuencia relativa a cada una de las clases (recuerde que la frecuencia relativa
simplemente es la frecuencia de la clase dividida en el número total de datos):

Frecuencia
xi-1 <x≤ xi Frecuencia
Relativa
1,00 <x≤ 1,50 25,00 0,25
1,50 <x≤ 2,00 23,00 0,23
2,00 <x≤ 2,30 32,00 0,32
2,30 <x≤ 3,00 20,00 0,20

Calcule la frecuencia acumulada (ci) de las clases:

Frecuencia Frecuencia
Frecuencia
xi-1 <x≤ xi Relativa Acumulada
(f)
(f/n) (ci)
1,00 <x≤ 1,50 25,00 0,25 0,25
1,50 <x≤ 2,00 23,00 0,23 0,48
2,00 <x≤ 2,30 32,00 0,32 0,80
2,30 <x≤ 3,00 20,00 0,20 1,00

Una vez calculada la frecuencia acumulada, halle la pendiente de los datos (ai), dicha
pendiente se calcula de acuerdo a la siguiente expresión:

14 [ POLITÉCNICO GRANCOLOMBIANO]
𝑥𝑖 − 𝑥𝑖−1
𝑎𝑖 =
(𝑓/𝑛)

Frecuencia Frecuencia
Frecuencia
xi-1 <x≤ xi Relativa Acumulada Pendiente
(f)
(f/n) (ci) (ai)
1,00 <x≤ 1,50 25,00 0,25 0,25 2,00
1,50 <x≤ 2,00 23,00 0,23 0,48 2,17
2,00 <x≤ 2,30 32,00 0,32 0,80 0,94
2,30 <x≤ 3,00 20,00 0,20 1,00 3,50

Una vez se han calculado todas estas medidas, es posible realizar la interpolación
necesaria de acuerdo a la expresión:

𝑋 = 𝑥𝑖−1 + 𝑎𝑖 (𝑅 − 𝑐𝑖−1 )
Cuando:
𝑐𝑖−1 < 𝑅 ≤ 𝑐𝑖

Si por ejemplo el aleatorio es R = 0.85, el valor de la variable sería:

𝑐𝑖−1 < 𝑅 ≤ 𝑐𝑖

𝑐3 < 𝑅 ≤ 𝑐4

0.80 < 0.85 ≤ 1

Por lo tanto i = 4. Reemplazando en la expresión:

𝑋 = 𝑥𝑖−1 + 𝑎𝑖 (𝑅 − 𝑐𝑖−1 )

𝑋 = 𝑥3 + 𝑎4 (𝑅 − 𝑐3 )

𝑋 = 2.30 + 3.50(0.85 − 0,80)

𝑋 = 2.475

Si por ejemplo el aleatorio hubiese sido R = 0.36, el valor de la variable sería:

𝑐𝑖−1 < 𝑅 ≤ 𝑐𝑖

𝑐1 < 𝑅 ≤ 𝑐2

[ SIMULACIÓN ] 15
0.25 < 0.36 ≤ 0.48

Por lo tanto i = 2. Reemplazando en la expresión:

𝑋 = 𝑥𝑖−1 + 𝑎𝑖 (𝑅 − 𝑐𝑖−1 )

𝑋 = 𝑥1 + 𝑎2 (𝑅 − 𝑐1 )

𝑋 = 1.50 + 2.17(0.36 − 0,25)

𝑋 = 1.738
Si se trabaja con muchos números aleatorios, se puede encontrar una gráfica como la
siguiente:

16 [ POLITÉCNICO GRANCOLOMBIANO]
POLITÉCNICO GRANCOLOMBIANO
DEPARTAMENTO DE INGENIERÍA INDUSTRIAL
Simulación de Eventos Discretos
Ejercicios Arena

1. Don Pepe tiene un depósito, en este se manejan dos marcas de gaseosa (Coca-Cola y Pepsi)
pero solo un tamaño de bebida, botellas de 350 mL. Por tratarse de un cliente muy importante,
los camiones de reparto pasan todos los dı́as (Lunes a sábado, Don Pepe no abre los domingos)
y le dejan a Don Pepe 10 canastas de gaseosa de cada marca (una canasta consta de 30 botellas)
y siempre son recibidas en el depósito en la mañana a primera hora. Los clientes de Don Pepe
tienen gustos muy diferentes pero él ha establecido que, en promedio, la mitad de sus clientes
consumen Coca-Cola y la otra mitad Pepsi. Además, el número de botellas que compra cada
cliente varı́a entre 1 y 3 botellas con base en las siguientes distribuciones:

Coca-Cola Pepsi
Demanda Probabilidad Demanda Probabilidad
1 0.3 1 0.5
2 0.4 2 0.2
3 0.3 3 0.3

Si un cliente llega al depósito de Don Pepe y no hay la cantidad de botellas que demanda se
irá a buscar su pedido a otro sitio. Don Pepe abre de lunes a sábado de 8:00 am a 8:00 pm y
estima que en ese horario llegan a la tienda, en promedio, 60 clientes cada hora.
(a) Construya un modelo de simulación que re presente la situación actual y que le permita a
Don Pepe estimar la proporción de ventas perdidas que tiene diariamente en su negocio.
(b) Si se desea cambiar el tamaño del pedido que es dejado diariamente en el deposito por
los camiones repartidores,¿Cuál serı́a el número adecuado de canastas de gaseosa de cada
marca que se deben comprar diariamente para que las ventas perdidas no superen el 5%?

1
2. La compañı́a Mapple tiene una lı́nea de ensamble a donde arriban dos partes diferentes para
su proceso. Las partes del tipo 1 arriban con tiempos entre llegadas siguiendo una distribución
lognormal con una media de 11.5 horas y una desviación estándar de 2 horas. Estas partes
esperan en una cola, designada sólo para partes tipo 1, hasta que un operario esté disponible
para procesarlas (sólo hay un operario en toda la lı́nea de ensamble) y el tiempo de proceso
siguen una distribución triangular con parámetros 5, 6 y 8 horas. Las partes del tipo 2 llegan
con tiempos entre llegadas siguiendo una distribución exponencial con media de 15 horas. Estas
partes esperan en una segunda cola designada sólo para partes tipo 2, hasta que el operario esté
disponible para procesarlas. Los tiempos de proceso de las partes tipo 2 siguen una distribución
triangular con parámetros 3, 7 y 8 horas.
Después de ser procesadas por el operario todas las partes (tipo 1 y tipo 2) se envı́an a una
máquina automática que procesa cualquier tipo de parte con un tiempo que sigue una dis-
tribución triangular con parámetros 4, 6 y 8 horas. Una vez las partes son procesadas por
la máquina salen del sistema. Suponga que los tiempos de transferencia de las partes son
insignificantes.
Anime su modelo, incluyendo el uso de diferentes imágenes para los diferentes tipos de partes
y emplee diferentes imágenes para los estados recursos (ocupado y desocupado) . Ejecute la
simulación por 5000 horas y determine:
(a) El tiempo promedio de todas las partes (incluya partes tipo 1 y tipo 2).

(a)
(b) El tiempo promedio de las partes tipo 1.

(b)
(c) El tiempo promedio de las partes tipo 2.

(c)
(d) El número promedio de partes en el sistema.

(d)
(e) El número promedio de partes en cada una de las filas.

(e)

(e)

(e)

2
  SIMULACIÓN
 

 
Análisis de Salida
 

 
 

• ANÁLISIS  DE  SALIDA  


 

1. Índice  
1. ¿Qué  es  análisis  de  salida?  
2. Tipos  de  simulación  
3. Variabilidad  en  los  sistemas  estocásticos  de  simulación  
4. Estimación  puntual  
5. Estimación  de  intervalos  de  confianza  
6. Estimación  de  intervalos  con  precisión  específica  
 

2. Introducción  
El   propósito   del   presente   documento   es     explicar   a   los   estudiantes   los   diferentes   tipos   de  
simulación  que  se  pueden  modelar  y  las  características  de  cada  uno  de  ellos.  Concretamente,  
se   enseñarán   los   sistemas   con   terminación   o   sistemas   transientes   y   los   sistemas   sin  
terminación  o  sistemas  de  estado  estable.  
 
Adicionalmente,   se   explicarán   las   principales   técnicas   estadísticas   necesarias   para   llevar   a  
cabo   un   correcto   análisis   de   salida,   particularmente,   aquella   empleada   para   estimar   el  
número  de  replicaciones  de  una  simulación  cuando  se  quiere  lograr  una  precisión  específica.  
Por  otra  parte,  teniendo  en  cuenta  que  el  objetivo  general  del  módulo  es  que  los  estudiantes  
desarrollen  las  capacidades  necesarias  para  llevar  a  cabo  un  estudio  completo  de  simulación,  
en  esta  unidad,  se  presentarán  los  diferentes  modelos  para  realizar  en  Arena®.  

Finalmente,   se   presentará   al   estudiante   una   serie   de   ejercicios   para   reforzar   los  


conocimientos  adquiridos  en  el  desarrollo  del  módulo.  
 
3. Objetivo  general  
Al  finalizar  el  módulo,  los  estudiantes  sabrán  cuáles  son  los  tipos  de  sistemas  de  simulación  y  
sus   características   principales.   De   igual   forma,   reconocerán   cómo   se   realiza   la   estimación   del  
número  de  replicas  para  obtener  el  nivel  de  precisión  deseado.  
 
Al  finalizar  la  segunda  semana  de  aprendizaje:  
 
1. El  estudiante  distinguirá  las  simulaciones  transientes  y  de  estado  estable.  
 
2. El  estudiante  conocerá  la  variabilidad  inherente  de  los  modelos  estocásticos.  
 
3. El   estudiante   profundizará   en   las   distintas   metodologías   para   la   estimación   de  
medidas  de  desempeño,  especialmente,  en  el  cálculo  del  número  de  réplicas.    

 
2 [ POLITÉCNICO GRANCOLOMBIANO]
 

4. Desarrollo  temático  
 
4.1  Recomendaciones  académicas  
 
Se  recomienda  al  estudiante  realizar  la  lectura  de  la  cartilla,  en  la  cual  se  encuentra  toda  la  
información   relevante   que   se   evaluará   en   la   semana.   Adicional,   se   invita   a   revisar   las  
teleconferencias   y   las   video-­‐diapositivas,   pues   estas   son   un   medio   para   aclarar   las   dudas  
generadas  con  la  lectura  y  dar  soporte  a  los  temas  expuestos.  
 
Finalmente,  se  recomienda  al  estudiante  realizar  los  ejercicios  planteados  y  sugeridos  por  el  
tutor,   ya   que   estos,   a   pesar   de   no   tener   un   valor   porcentual   en   la   nota,     harán   que   la  
formación  sea  completa  y  fortalecida  de  forma  práctica.  
 

4.2    Desarrollo  de  cada  una  de  las  unidades  temáticas  


 

1. ¿Qué  es  análisis  de  salida?  


Es   la   etapa   de   estudio   de   simulación   en   la   que   se   realiza   el   análisis   de   las   variables   de  
desempeño,  es  decir,  el  análisis  de  los  diferentes  resultados  obtenidos  por  la  simulación.  
 
Este  análisis  debe  realizarse  siempre,  ya  que  en  la  medida  que  las  entradas  del  sistema,  
datos  que  alimentan  al  modelo,  son  aleatorios,  las  salidas  también  lo  son;  por  ello,  todo  
deberá  estar  debidamente  justificado  y  argumentado  por  la  estadística.  
 
Finalmente,   el   propósito   especial   del   análisis   de   salida   es   asegurar,   en   cierta   medida,   que  
el   estimador   de   la   variable   de   desempeño   que   se   está   evaluando,   efectivamente,  
corresponde  al  valor  real  que  debería  tomar  dicho  parámetro.  En  otras  palabras:  
 
-­‐ Si  !  es   el   parámetro   que   mide   el   desempeño   del   sistema,   la   precisión   del   estimador  !  
(resultado  de  un  conjunto  de  experimentos  de  simulación)  se  puede  medir  usando:  
 El  error  estándar  de  !  
 La  anchura  del  intervalo  de  confianza  para  !  
 
Con  base  en  lo  anterior,  mediante  el  análisis  estadístico  se  desea:  
-­‐ Estimar  el  error  estadístico  y/o  intervalo  de  confianza.  
-­‐ Encontrar  el  número  de  observaciones  (replicas)  necesarias  para  lograr  una  precisión  
deseada.  
 
Para  lo  anterior,  es  necesario  tener  claridad  en  dos  situaciones  que  pueden  presentarse:  
-­‐ Autocorrelación    
-­‐ Influencia  de  condiciones  iniciales  

 
[ SIMULACIÓN ] 3
 

 
2. Tipos  de  Simulación  
Cuando  se  analizan  los  datos  de  entrada,  es  decir,  cuando  se  estiman  las  medidas  descritas  
en  el  apartado  anterior,  es  necesario  hacer  una  distinción  entre  los  modelos  que  corren  por  
una   cantidad   corta   de   tiempo   y   aquellos   que   corren   de   manera   indefinida   o   por   un   lapso  
largo  de  tiempo.  
 
De   acuerdo   a   estas   distinciones,   los   tipos   de   simulación   pueden   clasificarse   en   dos  
grandes  grupos  a  saber:  
 
-­‐ Simulación  con  Terminación  (Transiente)  
 Corre   por   un   periodo   específico   de   tiempo   TE,   donde   E   es   el   evento   que  
termina  la  simulación.  
 La  longitud  de  la  simulación  debe  estar  bien  definida  y  debe  ser  finita.  
  Ejemplo  Banks:  un  banco  abre  sus  puertas  a  las  8:30  am  (tiempo  0)  sin  clientes  
y   8   de   los   11   cajeros   trabajan   (condiciones   iniciales).   Se   cierra   a   las   4:30   pm  
(Tiempo  TE  =  480  minutos).  
 
-­‐ Simulación  sin  terminación  
 Corre  continuamente  o,  por  lo  menos,  por  un  periodo  muy  largo  de  tiempo.  
 Las  condiciones  iniciales  deben  ser  especificadas  por  el  analista.  
 Corre  por  un  periodo  de  tiempo  TE  especificado  por  el  analista.  
 El  objetivo  es  estudiar  las  propiedades  del  sistema  en  el  largo  plazo.  
 Propiedades   que   no   deben   ser   influenciadas   por   las   condiciones   iniciales   del  
modelo  (en  teoría  no  influyen,  en  la  práctica  sí).  
 Ejemplo  Banks:  líneas  de  ensamble,  centros  de  llamadas,  salas  de  urgencias.  
 
La  escogencia  del  tipo  de  simulación  depende  del  objetivo  del  estudio  y  
del  tipo  de  sistema.El  análisis  de  salida  es  distinto  en  cada  caso.  
 
3. Variabilidad  en  los  sistemas  estocásticos  de  simulación  
Los  resultados  de  un  modelo  son  un  conjunto  de  variables  aleatorias,  pues  los  datos  de  
entrada  también  son  variables  de  este  tipo.  
 
Ejemplo:    
 
Imagine  un  sistema  M/G/1  con  las  siguientes  características:  
 
-­‐ Tasa  de  llegadas  Poisson  de  un  cliente  cada  10  minutos  
-­‐ Tiempo  de  servicio  Normal  con  (μ=  9.5,  σ  =1.75)  
-­‐ El   indicador   de   desempeño   que   se   quiere   evaluar   es:   Longitud   media   de   la   cola   Lq  
(Número  promedio  de  entidades  en  la  cola)  

 
4 [ POLITÉCNICO GRANCOLOMBIANO]
 

 
Ahora  que  se  conocen  las  características  del  sistema  a  evaluar,  suponga  que  se  corre  un  
modelo  por  5000  minutos  y  que  se  toman  las  siguientes  acciones:  
 
-­‐ Se  divide  el  intervalo  de  tiempo  (5000  minutos)  en  5  sub-­‐intervalos  de  1000  minutos    
-­‐ Se  recopila  el  número  de  clientes  en  cola  (Lq)  desde  el  instante    (j-­‐1)1000    a    j(1000).    
 
De  acuerdo  a  las  condiciones  anteriores,  se  obtendrá  una  tabla  de  la  siguiente  forma:  
 
 Intervalo  j   Long.  Intervalo   Yij  
1   [0,  1000)   3.61  
2   (1000,  2000]   3.21  
3   (2000,  3000]   2.18  
4   (3000,  4000]   6.92  
5   (4000,  5000]   2.82  
Total   [0,  5000]   3.75  
 
En  esta  tabla  se  resume  el  valor  de  la  medida  de  desempeño  Lq,  para  una  única  réplica  (si  
hubiésemos   corrido   el   modelo   en   Arena®,   la   respuesta   que   habríamos   obtenido   en   el  
reporte  es  la  que  aparece  como  Total  e  igual  a  3.75).    
 
Imagine  ahora,  que  en  lugar  de  hacer  una  réplica  (como  lo  hemos  hecho  hasta  ahora  en  el  
curso)   se   realizan   réplicas   diferentes   (imagine   que   esto   es   como   correr   varias   veces   un  
mismo   experimento),   y   por   lo   tanto   se   encontrarán   resultados   diferentes   en   cada  
experimento,  a  partir  de  lo  anterior,  se    obtendría  una  tabla  como  la  siguiente:  
 
   
    Réplica  
Intervalo  j   Long.   Y1j   Y2j   Y3j  
Intervalo  
1   [0,  1000)   3.61   2.91   7.67  
2   (1000,  2000]   3.21   9.00   19.53  
3   (2000,  3000]   2.18   16.15   20.36  
4   (3000,  4000]   6.92   24.53   8.11  
5   (4000,  5000]   2.82   25.19   12.62  
Total   [0,  5000]   Y1.  =  3.75   Y2.  =  15.56   Y3.  =  13.66  
 
A  partir  de  esta  tabla  es  posible  identificar  dos  aspectos  relevantes:  
 
-­‐ La   variabilidad   inherente   que   existe   dentro   de   la   misma   replicación   (note   que   a   pesar  
de   que   los   intervalos   de   tiempo   presentan   igual   longitud,   cada   1000   minutos,   el  

 
[ SIMULACIÓN ] 5
 

resultado  de  la  medida  de  desempeño  es  diferente  intervalo  a  intervalo),  por  ejemplo,  
para  la  réplica  2  en  el  primer  intervalo,  la  medida  de  desempeño  toma  el  valor  2.91  y  
en  el  segundo  intervalo,  toma  un  valor  de  9.00.  
 
-­‐ La   variabilidad   entre   las   replicaciones   (note   que   a   pesar   de   que   se   está   haciendo   el  
experimento  sobre  las  mismas  condiciones  del  sistema,  los  resultados  para  el  mismo  
intervalo   de   cada   réplica   es   diferente),   por   ejemplo,   para   el   primer   intervalo   de   la  
réplica  uno,  el  valor  de  la  medida  de  desempeño  es  3.61,  mientras  que  para  el  mismo  
intervalo,  pero  para  la  segunda  réplica,  el  valor  es  2.91,  y  para  la  tercera  réplica  el  valor  
es  7.67.  
 

Con  base  en  estos  dos  aspectos,  se  puede  concluir  que:  
 
-­‐ El   promedio   de   la   medida   de   desempeño   (!)   a   través   de   las   3   replicas   (!! . !! . !! .)  
puede  tomarse  como  observaciones  independientes.  
-­‐ Pero  promedios  dentro  de  cada  réplica  (!!!  !!"  … !!" )  NO  
 
Esta  conclusión  es  fundamental  porque  si  tuviésemos  solo  los  resultados  de  una  réplica,  
estimar   un   intervalo   de   confianza,   dado   que   los   datos   no   son   independientes,   podría  
resultar   difícil,   pues   se   perdería   la   propiedad   de   independencia   y,   por   tanto,   podría  
suceder  que  los  datos  presentaran  correlación  y  sería  imposible  estimar  dicho  parámetro.  
 
4. Estimación  puntual  
Teniendo  en  cuenta  las  consideraciones  anteriores,  imagine  una  corrida  de  un  modelo  de  
simulación   por   un   periodo   de   tiempo   t.   El   tamaño   de   muestra,   n,   puede   ser   una   cantidad  
fija,  o  puede  ser  una  variable  aleatoria.  Un  objetivo  común  en  la  simulación  es  estimar  la  
media,  la  cual  puede  ser  discreta  o  continua:  
 
 
⎛ 1 n ⎞
  θ = E ⎜ ∑ Yi ⎟, discreto
  ⎝ n i =1 ⎠
 
⎛ 1 TE ⎞
  φ = E ⎜⎜ Y (t )dt ⎟⎟, continuo Y (t ),0 ≤ t ≤ TE
  ⎝ TE 0
∫ ⎠
 
Aquí,   el   método   utilizado   es   el   de   las   réplicas   independientes,   es   decir,   la   simulación   se  
repite   un   total   de   R   veces,   donde   cada   corrida   usa   un   conjunto   distinto   de   números  
aleatorios,  con  condiciones  iniciales  independientes  entre  corridas.    
 
 
 

 
6 [ POLITÉCNICO GRANCOLOMBIANO]
 

5. Estimación  de  intervalos  de  confianza  


Sabiendo,  entonces,  que  los  resultados  pueden  ser  considerados  como  independientes,  
se   puede   asegurar,   en   cierta   medida,   (al   tener   muchas   observaciones)   que   las  
observaciones   están   distribuidas   normalmente   o   tienen   una   distribución  
aproximadamente  normal,  y  tal  como  lo  habíamos  visto  al  inicio  del  módulo,  se  cumple  
que:  
 
 
 
S
  Y.. ± tα / 2, R −1
  R
 
De  lo  anterior,  se  puede  concluir  que:  
-­‐ Entre   más   réplicas   se   realicen,   más   se   disminuye   el   posible   error   que   pueda   existir  
entre   el   estimador   (!. ..)   y   el   parámetro   real   del   sistema   (!),   al   convergir   a   cero,   a  
medida   que   R   tiende   a   infinito   (recuerde   que   R   indica   el   número   de   réplicas,  
experimentos,  que  se  realizan  sobre  el  sistema  que  se  está  evaluando).  
-­‐ Recuerde,  finalmente,  que  el  intervalo  de  confianza  es  una  medida  de  error.  
 
6. Estimación  de  intervalos  con  precisión  específica  
La   precisión   de   un   estimador   puntual   depende   de   las   características   de   su   distribución  
muestral.   Si,   por   ejemplo,   la   distribución   muestral   es   aproximadamente   normal,  
entonces,  con  una  alta  probabilidad  (alrededor  del  95%),  el  estimador  puntual  caerá  en  un  
intervalo   de   amplitud   de   dos   errores   estándar.   Como   es   improbable   que   el   estimador  
puntual   sea   totalmente   acertado,   usualmente,   se   utiliza   un   rango   de   valores   en   el   que  
este  puede  caer.  Para  ello  están  los  intervalos  de  confianza.    
 
La   longitud   media   H   (half   widht)   de   un   intervalo   de   confianza   100(1–   α)%   con   media  !,  
basado  en  la  distribución  t-­‐student,  está  dada  por  la  expresión:  
 
S
H = tα / 2, R −1
R
R es el   #  de   réplicas S2 es la  varianza
muestral  
 
 
Para   poder   realizar   este   cálculo   se   asume   que   se   ha   observado   una   muestra   inicial   de  
tamaño  R0.  La  cual  será  útil  para  estimar  el  valor  inicial  de  S.  
 
Para  encontrar  la  precisión  deseada  debe  hallarse  un  tamaño  de  réplicas    R  mayor  a  R0,  
que  satisfaga  el  error  deseado:  

 
[ SIMULACIÓN ] 7
 

 
!
! = !!,!!! ≤ !  
! !
Al  despejar  R  (el  número  de  réplicas  que  queremos  determinar  para  lograr  la  precisión  ε  
deseada),  tenemos  la  siguiente  expresión:  
2
  ⎛ tα / 2, R −1S 0 ⎞
  R ≥ ⎜⎜ ⎟⎟
  ⎝ ε ⎠
 
 
El   problema   es   que   R   se   encuentra   a   ambos   lados   de   la   ecuación,   pero   dado   que   se  
cuenta   con   un   número   suficientemente   grande   de   observaciones   es   posible   realizar   el  
siguiente  cambio:  
  2
  ⎛ zα / 2 S 0 ⎞
 
R ≥ ⎜ ⎟ , zα / 2 es la distribuci ón normal estándar
⎝ ε ⎠
 
 
 
Con  este  primer  estimador  de  R  es  posible  hallar  el  R  que  cumpla  con  la  ecuación  original.  
 
Ejemplo  
 
Se   quiere   estimar   la   utilización   de   un   servidor   con   una   precisión   de   ±0.04   puntos   con   una  
probabilidad   de   0.95.   Se   tomó   una   muestra   inicial   R0   =   4.   Un   estimado   inicial   de   la  
varianza  muestral  es  0.00518.  
 
El  criterio  de  error  es  de  ε  =  0.04  y  el  nivel  de  confianza  es  de  1-­‐α  =  0.95,  por  lo  tanto,  el  
tamaño  de  la  muestra  (número  de  replicaciones  necesarias)  debe  ser  de  por  lo  menos:  
 
  2
⎛ z 0.025 S 0 ⎞ 1.96 2 * 0.00518
  ⎜ ⎟ = = 12.14 = 13
  ⎝ ε ⎠ 0.04 2
 
 
Teniendo   esta   cota   inferior,   se   debe   hallar   el   valor   de   R   que   cumpla   con   la   desigualdad  
original,  es  decir:  
 

• Iteración  1:  (R=13)  

  2
  ⎛ t 0,025,13−1 S 0 ⎞ 2.18 2 * 0.00518
⎜⎜ ⎟⎟ = 2
= 15.39
⎝ ε ⎠ 0.04

 
8 [ POLITÉCNICO GRANCOLOMBIANO]
 

 
 

Dado  que  13  no  es  mayor  a  15.39,  continúo  iterando  


 

• Iteración  2:  (R=14)  

 
  2
  ⎛ t 0,025,14−1 S 0 ⎞ 2.16 2 * 0.00518
⎜⎜ ⎟⎟ = 2
= 15.1
  ε 0.04
⎝ ⎠
 
 
Dado  que  14  no  es  mayor  a  15.1,  continúo  iterando  
 

 
 
 
 
 
• Iteración  3:  (R=15)  

 
2
  ⎛ t 0,025,15−1S 0 ⎞ 2.14 2 * 0.00518
  ⎜⎜ ⎟⎟ = = 14.83
  ⎝ ε ⎠ 0.04 2
 
 
Dado  que  15  si  es  mayor  a  14.83,  el  algoritmo  se  detiene  y  se  concluye  que  el  número  
de  réplicas  necesarias  para  lograr  una  precisión  de  0,04  es  15  réplicas,  y  que  dado  que  
se  realizaron  inicialmente  4,  deben  realizarse  11  más.  

 
[ SIMULACIÓN ] 9
Simulación de Eventos 
Simulación de Eventos
Discretos

Análisis de Salida
Agenda
• ¿Qué es el Análisis de Salida?
• Ti
Tipos de Simulación
d Si l ió
• Variabilidad de los sistemas estocásticos de simulación
• Estimación Puntual
Estimación Puntual
• Estimación con intervalos de confianza
• Análisis de salida para Simulaciones Transientes – Con Terminación
• Intervalos de confianza con precisión específica (recordar)
¿Qué es el análisis de salida?
¿Qué es el análisis de salida?
• Puede definirse como la etapa en el proceso de estudio de un sistema en
l que se estima
la ti su desempeño.
d ñ

• En la medida en que hay entradas aleatorias al modelo, hay salidas


aleatorias (RIRO), he aquí la necesidad del análisis estadístico.

• Propósito:
– Si θ es el parámetro que mide el desempeño del sistema, la precisión
del estimador ˆ (resultado de un conjunto de experimentos de
simulación) se puede medir usando:
• El error estándar de ˆ.
• La anchura del intervalo de confianza para θ.
¿Qué es el análisis de salida?
¿Qué es el análisis de salida?
• Se quiere, mediante análisis estadístico:
– Estimar el error estadístico y/o el intervalo de confianza.
– Encontrar el número de observaciones necesarias para lograr una
precisión deseada.

• Situaciones a tener en cuenta:


– Autocorrelación.
– Influencia de condiciones iniciales. (inventario en la semana 1 y
backorders pueden influir en el desempeño de la semana 2)
Tipos de Simulación
Tipos de Simulación
Simulación con Terminación (Transiente)
– Corre por un periodo específico de tiempo TE, donde E es el evento
específico que termina la simulación.
– La
L longitud
l it d de
d la
l simulación
i l ió debe
d b estar
t bien
bi definida
d fi id y debe
d b ser finita.
fi it
– Ej Banks: Un banco abre sus puertas a las 8:30 am (tiempo 0) sin clientes
y 8 de los 11 cajeros trabajando (condiciones iniciales), y cierra a las 4:30
pm (Tiempo TE = 480 minutos).
Tipos de Simulación
Tipos de Simulación
Simulación sin Terminación
– Corre continuamente, o por lo menos por un periodo muy largo de
tiempo.
– Las
L condiciones
di i i i i l deben
iniciales d b ser especificadas
ifi d por ell analista.
li t
– Corre por un periodo de tiempo TE especificado por el analista.
– El objetivo es estudiar las propiedades del sistema en el largo plazo.
Propiedades que no deben ser influenciadas por las condiciones iniciales
del modelo (en teoría no influyen, en la práctica sí).
– Ej Banks:
B k Líneas
Lí d ensamble,
de bl centros
t de d llamadas,
ll d salasl de
d urgencias.
i

La escogencia del tipo de simulación depende del objetivo del estudio y 
del tipo de sistema.
El análisis de salida es distinto en cada caso.
Variabilidad de los sistemas
estocásticos de simulación
• Al considerar variables aleatorias de entrada, los modelos consisten de una o 
más variables aleatorias de interés.

Un sistema M/G/1 con las siguientes características:
– Tasa de llegadas Poisson de 0.1 cliente por minuto; 
Tiempo de servicio Normal(= 9.5, 
Tiempo de servicio  Normal( 9 5 =1 1.75).
75)
– Desempeño del sistema: Número de entidades promedio en cola, LQ(t).
– Suponga que se corre una única simulación por 5,000 minutos
• Divida el intervalo [0, 5000) en 5 subintervalos iguales de 1000 
minutos.
• El número promedio de entidades en cola en cada intervalo (Yj) es:
El número promedio de entidades en cola en cada intervalo (Yj) es:
1 j ( 1000 )

1000 ( j  1 ) 1000
Yj  L Q ( t ) dt , j  1,...., 5
Variabilidad de los sistemas
estocásticos de simulación
Replicación
Tiempo promedio en  Intervalo (minutos) (Lote) Batch, j 1, Y1j 2, Y2j 3, Y3j
cola para los lotes en  [0, 1000) 1 3,61 2,91 7,67
[1000, 2000) 2 3,21 9,00 19,53
tres replicaciones
tres replicaciones  [2000, 3000) 3 2,18 16,15 20,36
independientes [3000, 4000) 4 6,92 24,53 8,11
[4000, 5000) 5 2,82 25,19 12,62
[0, 5000) 3,75 15,56 13,66

A partir de la anterior tabla se puede observar la variabilidad inherente entre 
las replicaciones y dentro de cada replicación
las replicaciones y dentro de cada replicación.

p p Y1 , Y2 , Y3 , p


El promedio a través de las 3 replicaciones                  , puede tomarse como 
observaciones independientes,  pero promedios dentro de cada replicación, 
Y11, …, Y15, no.
Estimación estadística de medidas 
de desempeño
Considere la estimación de un parámetro de desempeño, 
d l ó d á d d  (ó 
(ó ).
)

– Datos discretos
Datos discretos en el tiempo: [Y ] con media ordinaria: 
en el tiempo: [Y1, YY2, …, YYn], con media ordinaria: 

– Datos continuos en el tiempo: {Y(t), 0  t  TE} con media: 


Estimación Puntual
Estimación Puntual
Datos discretos en el tiempo
Datos discretos en el tiempo
• El estimador de  calculado  a partir de los datos [Y1, Y2, …, Yn] se define 
como: n
1
ˆ  
Yi (discrete‐time, tally etc.)
n i 1

• Si el estimador es insesgado E (ˆ)  


Si el estimador es insesgado

Datos continuos en el tiempo
• En este caso el estimador está dado por:

1 TE
ˆ 
TE 
0
Y (t )dt (Continuous‐time, time‐persistent)
Estimación con Intervalos de 
Confianza
• Si las
l observaciones
b i Yi están
tá distribuidos
di t ib id normalmente
l t o tienen
ti una
distribución aproximadamente normal entonces, como lo habíamos visto:

S 1 R
Y..  t / 2, R 1 con S 
2

R  1 i 1
(Yi.  Y.. ) 2
R
• Entre más replicaciones se haga más se disminuye el error entre Y.. y θ,
convergiendo a 0 a medida que R tiende a infinito.

• Tenga en cuenta que el intervalo de confianza es una medida de ERROR.


Intervalo de Predicción
Intervalo de Predicción
• Si se quisiese dar un estimado del tiempo de ciclo promedio para un día
particular se podría optar por nuestro estimador,
particular, estimador pero debe tenerse en
cuenta que es poco probable que sea exacto.

• Los intervalos de predicción están diseñados para ser lo suficientemente


anchos como para contener el tiempo de ciclo promedio en un día particular.

• El intervalo está dado por: 1/ 2


 1
Y..  t / 2, R 1S 1  
 R
• A diferencia de un intervalo de confianza a medida que el número de
infinito la longitud del intervalo tiende a   z / 2
replicaciones tiende a infinito,

• Tenga
g en cuenta q
que el intervalo de p
predicción es una medida de RIESGO.
Simulaciones Transientes – Con
Terminación
• El propósito común en simulación es estimar
1 n 
  E   Yi , para salidas discretas
 n i 1 
 1 TE 
 E 

 TE

0

Y (t )dt , para salidas continuas Y (t ),0  t  TE

• Para lograr esto generalmente se usa el método de replicaciones


independientes, en el que la simulación se repite R veces, cada una usando
condiciones iniciales independientes y diferentes conjuntos de números
aleatorios.
Simulaciones Transientes – Con
Terminación
• Es preciso distinguir entre datos obtenidos al interior de una replicación y 
Es preciso distinguir entre datos obtenidos al interior de una replicación y
datos obtenidos a través de replicaciones 
(within‐replication ‐ across‐replication ).

• Across‐replication data  independientes (números aleatorios diferentes) e
id i
identicamente distribuidos (mismo modelo).
di ib id ( i d l )

• Within‐replication
Within data  No tiene las mismas propiedades.
replication data  No tiene las mismas propiedades.
Estimación de IC con precisión
específica
• Recuerde que la longitud media H de un intervalo de confianza de 100(1 – )%
para la media , basado en la distribución t, está dado por:
S
H  t / 2, R 1 R es el número de replicaciones y 
R l ú d li i
R S es la desviación muestral.

• Asuma que se ha
A h observado
b d una muestra inicial
i i i l de
d tamaño
ñ R0 (independiente).
(i d di )
Esta muestra se usará para obtener un estimado inicial de S02

• Para encontrar la precisión deseada debe hallarse un tamaño de replicas R≥ R0


que satisfaga (ε es el error deseado):

S
H  t / 2, R 1 
R
Estimación de IC con precisión
específica
• Resolviendo la desigualdad para R tenemos:
2
t S  PROBLEMA: R está en ambos 
R    / 2, R 1 0 
   lados de la desigualdad

• Dado que t/2, R 1  z/2


/2 R‐1 /2 entonces un estimado inicial de R está dado por:

2
z S 
R    / 2 0  , donde z / 2 correspond e a normal estándar.
  
• Con este estimado de R (cota inferior), se halla el R que cumpla con la
desigualdad original.
original
Ejemplo
Se quiere estimar la utilización de un servidor con una precisión de ±0.04 puntos 
con una probabilidad de 0.95.  Se tomó una muestra inicial R0=4. Un estimado 
inicial de la varianza muestral es 0.00518.

El criterio de error es de = 0.04 y el nivel de confianza es de 1‐ = 0.95, por lo 


tanto, el tamaño de la muestra (número de replicaciones necesarias) debe ser de 
por lo menos:
2
 0.025 0  1.96 * 0.00518
2
z S
    12.14
  
2
0.04
Teniendo esta cota inferior se debe hallar el valor de R que cumpla con la 
desigualdad original
R 13 14 15
t 0.025, R-1 2.18 2.16 2.14
t / 2, R1S 0 /  2 15 39
15.39 15 1
15.1 14 83
14.83

Dado que R=15 es el menor entero que cumple la desigualdad original, deben 
realizarce R ‐ R0 = 11 replicaciones adicionales.
Simulación de Eventos 
Simulación de Eventos
Discretos

Análisis de Salida II
Agenda
• Análisis de salida para Simulaciones en Estado Estable
• Sesgo en la inicialización –
S l i i i li ió Periodo de calentamiento
P i d d l i
• Estimación del error (para los intervalos de confianza)
• Método de Replicación
Método de Replicación
• Longitud de la Corrida
• Agrupación en una corrida (Batch Means for interval estimations)
Simulaciones en Estado Estable
• En este caso nos interesan las estadísticas a largo plazo por lo cual es muy
i
importante
t t tener
t en cuenta
t que las
l condiciones
di i i i i l pueden
iniciales d influir
i fl i en
éstas.

• El horizonte de tiempo puede ser potencialmente infinito ya que


consideramos sistemas sin terminación. La condición de terminación está
sujeta al analista.
analista

• El sesgo en los estimadores puntuales se debe principalmente a las


condiciones iniciales.

• TTeniendo
i d esto t en cuenta,
t debería
d b í haber
h b un periodo
i d de
d calentamiento
l t i t en
donde se permita que el sistema llegue a un estado estable para recolectar
las estadísticas que son de interés.
¿Qué se puede hacer?
• Inicialice la simulación en un estado que sea más representativo de las
condiciones
di i en ell largo
l plazo.
l

• Si el sistema existe,, recolecte datos a p


partir de la observación y úselos p
para
especificar condiciones iniciales más cercanas a las típicas.

• Si el sistema se puede simplificar lo suficiente como para que sea


matemáticamente tratable, Ej. Modelos de colas, resuelva el modelo
simplificado y use las solución como condiciones de inicialización.
Sesgo en la Inicialización
Periodo de Calentamiento
Divida cada simulación en dos fases:
fases
• Una fase de inicialización (periodo de calentamiento), del tiempo 0 al
tiempo T0.

• Una fase de recolección de datos, desde T0 hasta el tiempo de parada T0+TE.

• ¿Cómo escoger T0?:


– Después de T0, el modelo debe ser aproximadamente representativo
del estado estable del sistema.
sistema

• El sistema ha logrado su estado estable luego la distribución de


probabilidad (de estado) es bastante cercana a la distribución de estado
estable.
Ejemplo
• Considere de nuevo el ejemplo de la cola M/G/1 donde se realiza un total 
de 10 replicaciones:
de 10 replicaciones:
– Cada replicación comienza con 0 entidades y servidor libre.
– La longitud de cada replicación es de  T0+TE = 15,000 minutos.
– Variable de desempeño: Longitud de la cola, L
bl d d ñ dd l l Q(t, r)
( ) (en el tiempo t
( l d l
de la
r‐ésima replicación).
– Otra vez intervalos de 1,000 minutos, de los cuales se obtiene los 
promedios de lote (batch means).

• Normalmente se promediarían las medias dentro
Normalmente se promediarían las medias dentro de cada replicación, pero 
de cada replicación, pero
como el objetivo es identificar la tendencia en los datos debida a las 
condiciones de inicialización (cuándo cesan), se promediarán los promedios 
p (
de lotes a través de las replicaciones (ensemble averages).
g )
1 R
Y. j   Yrj
R r 1
Ejemplo
“Ensemble averages”, Y . j , versus 1000j, para j = 1,2, …,15.

Sesgo debido a los 
Sesgo debido a los
parámetros de 
inicalización
Ejemplo
Ahora, ¿qué pasa se quito algunas de las observaciones que me están creando el 
sesgo? (borrando d de las n observaciones – promedios acumulados)

n
1
Y.. (n, d ) 
nd
Y
j  d 1
.j
Estimación del error
(
(para llos IC)
Si {Y1, …, Yn} no son estadísticamente independientes, entonces S2/n es un
estimador sesgado de la verdadera varianza (Var (ˆ) ).
• Pasa casi siempre que {Y1, …, Yn} es una secuencia de observaciones de una
p
única replicación ((secuencia autocorrelacionada,, series de tiempo).
p )

Dado que el estimador puntual de la media muestral es Y  i 1 Yi / n , entonces


n

n n
1
Var (Y )  2
n
  cov(Y , Y )
i 1 j 1
i j

• La varianza de Y es casi imposible de estimar.


• Obtener un estimado de esta varianza es muy difícil ya que las covarianzas
pueden ser diferentes en general. Por fortuna, para sistemas con estado
estable, si se supera la etapa transiente, la variable de desempeño será un
proceso de covarianza estacionaria.
Estimación del error
(
(para llos IC)
• Para una serie de tiempo con covarianza estacionaria, {Y
Para una serie de tiempo con covarianza estacionaria, {Y1, …, Y
, …, Yn}:
– Autocovarianza (Lag‐k):  k  cov(Y1 , Y1 k )  cov(Yi , Yi  k )
k
– Autocorrelación (Lag k) :  k  2
(Lag‐k) :

• Si la serie de tiempo es un proceso de covarianza estacionaria, entonces la 
varianza de Y después del álgebra se puede escribir como
varianza de       después del álgebra  se puede escribir como
2  n 1
 k 
V (Y ) 
n 
1  2  1    k 
k 1  n 
c
• A partir de este resultado podemos escribir el valor     esperado del estimador 
d l
de la varianza como:
i
 S2  n / c 1
E    BV (Y ), donde B 
 n  n 1
Autocorrelación
En un gráfico, la autocorrelación positiva se caracteriza porque las observaciones 
positivas a partir de la media tienden a ser seguidas por una observación positiva 
a partir de la media y viceversa. 

a) Serie de tiempo estacionaria Y
Serie de tiempo estacionaria Yi
con autocorrelación positiva.

b) Serie de tiempo Yi con 
autocorrelación negativa
autocorrelación negativa.

c) Serie de tiempo no estacionaria
Método de Replicación
• Si el sesgo de la inicialización en el estimador puntual ha sido reducido a un
nivel insignificante, entonces el método de replicaciones independientes
puede ser usado para estimar la variabilidad del estimador puntual y así
construir el intervalo de confianza.

• Si, por el contrario, el sesgo permanece y un número muy grande de


replicaciones son necesarias para reducir la variabilidad, el intervalo de
confianza resultante puede ser equivocado. ¿Por qué sucede esto?
– El sesgo no está siendo afectado por el número de replicaciones sino por
el incremento del periodo de calentamiento To.

• Si se decide eliminar d observaciones del total (n) en una replicación, el


estimador puntual de θ es: 1 n
Y.. (n, d ) 
nd
Y
j  d 1
.j
Método de Replicación
Para el cálculo de este estimador, las observaciones {Yrj , r = 1, ..., R; j = 1, …, n} se
d i
derivan d uno de
de d los
l siguientes
i i casos:

– CASO 1: Yrjj es una observación particular dentro de la replicación r.


r

– CASO 2: Yrjj es un promedio de un lote de observaciones discretas dentro


de la replicación r.

– CASO 3: Yrj es un promedio de un lote de observaciones continuas dentro


de la replicación r (como en el ejemplo visto de la cola M/G/1).
Método de Replicación
Cada replicación se considera como una muestra particular para la estimación de
θ Para la replicación r
θ.
n
1
Yr . (n, d ) 
nd
Y
j  d 1
rjj

es la media muestral de todas las observaciones en la replicación r. Como todas


la replicaciones usan diferentes números aleatorios,
aleatorios dichas muestras
particulares son independientes e idénticamente distribuidas – constituyen una
muestra aleatoria de una población con media desconocida:

1 R
E[Y.. (n, d )]  n,d  Y.. (n, d )  Yr. (n, d )
R r 1
Método de Replicación
• Si d y n son suficientemente grandes entonces:
– n,d
n d ~ 

– Y.. (n, d ) es aproximadamente un estimador insesgado de 

• Para estimar el error estándar de Y.. (n, d )

1 R 1  R 2 2 S
S 
2

R  1 r 1
(Yr .  Y.. ) 
2
  Yr .  RY.. 
R  1  r 1 
y e.s.(Y.. ) 
R
• Finalmente el intervalo de confianza del 100(1‐α)%                

S S
Y ..  t / 2, R 1    Y ..  t / 2, R 1
R R
Método de Replicación
• Longitud de cada replicación (n) a partir del punto de borrado (d): 
( d) > 10d
(n ‐ d) 10d

• Número de replicaciones debe ser tantas como el tiempo lo permita.


Número de replicaciones debe ser tantas como el tiempo lo permita.

• Para un número fijo (tamaño de muestra n), mientras menos datos se 
borren:
– Mayor sesgo.
– Menor varianza
Menor varianza

Reducción  Incremento
del Cambio por en la
sesgo varianza
Longitud de la Corrida
Suponga que se quiere estimar la medida de desempeño , con una precisión 
Suponga que se quiere estimar la medida de desempeño , con una precisión

de         y una confiabilidad del 100(1‐ )%.

• Incrementar el número de replicaciones (ya visto).

• Incrementar la longitud de la replicación


Incrementar la longitud de la replicación
Longitud de la Corrida
Aproximación:
• Incremente la longitud de la replicación de (T
I l l i dd l li ió d (T0+TTE) a (R/R
) (R/R0)(T0+TTE), y
)
• No tome en cuenta los datos correspondientes al tiempo (R/R0)T0.
– Ventaja: cualquier sesgo residual en el estimador puntual debe ser 
Ventaja: cualquier sesgo residual en el estimador puntual debe ser
fuertemente reducido.
– Sin embargo, es necesario haber guardado el estado del modelo en el 
ti
tiempo T
T0+TTE .
Agrupación en una Corrida
• Usando una sola replicación MUY larga:

– Problema: los datos son dependientes luego el estimador es segado.

– Solución: AGRUPACIÓN (batch means).
S l ió AGRUPACIÓN (b h )

• Batch means: divida los datos resultantes de la replicación 1
Batch means: divida los datos resultantes de la replicación 1 (después del 
(después del
periodo de calentamiento apropiado) en lotes grandes y trate las medias de 
dichos lotes como independientes.
Agrupación en una Corrida
• ti l ti {Y(t) T0 t 
Un proceso continuo en el tiempo, {Y(t), T
U t  T0+TE}:
}
– k lotes de tamaño m = TE /k. Media de cada lote:

1 jmj
Yj   Y (t  T0 )dt
m ( j 1) m

• Un proceso discreto en el tiempo, {Yi, i = d+1,d+2, …, n}:
– k lotes de tamaño m = (n – d)/k. Medias de cada lote:
jm
1
Yj   Yi  d
m i ( j 1) m 1
Agrupación en una Corrida
Y1 , ..., Yd , Yd 1 , ..., Yd  m , Yd  m 1 , ..., Yd  2 m , ... , Yd  ( k 1) m 1 , ..., Yd  km
Borrado Y1 Y2 Yk

La varianza de la media muestral se calcula como:


La varianza de la media muestral se calcula como:
2 k
Y j  Y 2  k
Y j2  kY 2
 
S 1

k k j 1
k 1 j 1
k (k  1)
Simulación de Eventos 
Simulación de Eventos
Discretos

Comparación y Evaluación de Alternativas
Agenda
• Comparación de dos sistemas
– Muestras independientes
M i d di
– Muestras Correlacionadas (Números Aleatorios en Común CRN)

• Comparación de Múltiples (más de dos) sistemas
– Método de Bonferroni.
Comparación de dos sistemas
Comparación de dos sistemas
• Objetivo: Comparar dos posibles diseños de un mismo sistema.
Objetivo: Comparar dos posibles diseños de un mismo sistema.

• El método de replicación es utilizado para analizar las salidas de los dos 
modelos.

• La medida de  desempeño del sistema i es denotada por i (i = 1,2).


La medida de desempeño del sistema i es denotada por  (i = 1 2)

• Se debe obtener un intervalo para la diferencia de las medias 1 – 2.

3
Comparación de dos sistemas
Comparación de dos sistemas
• Para cada replica r del sistema i, se obtiene un estimado Yir de la medida de 
desempeño i .
desempeño 

• Asumiendo que los estimadores Yir son insesgados, se tiene:
1 = E(Y1r ),  r = 1, … , R1;        2 = E(Y2r ),  r = 1, … , R2

• Construyendo el intervalo de confianza para 1 – 2 se puede concluir:


Construyendo el intervalo de confianza para  se puede concluir:
– Si el intervalo está totalmente a la izquierda de 0, existe fuerte 
evidencia estadística para la hipótesis 1 – 2 < 0 (1 < 2 ).

– Si el intervalo está totalmente a la derecha de 0, existe fuerte evidencia 
estadística para la hipótesis 1 – 2 > 0 (1 > 2 ).

– Si el intervalo contiene a 0, no existe fuerte evidencia estadística para 
q j q
concluir que un sistema es mejor que el otro.

4
Comparación de dos sistemas
Comparación de dos sistemas
• Un intervalo de confianza de 100(1 )% para 1 – 2 siempre toma la
100(1‐)%
forma de:

Y.1  Y.2  t / 2, s.e.((Y.1  Y.2 )


Donde Y.i es la media muestral de la medida de desempeño del sistema i
sobre todas las replicas y  corresponde a los grados de libertad

• Existen 3 técnicas diferentes para calcular el anterior intervalo de


confianza. En todas ellas se asume que los datos se comportan siguiendo
una distribución normal.

5
Comparación de dos sistemas
Comparación de dos sistemas
Significancia estadística vs.
vs Significancia práctica

• Significancia estadística: ¿Es la diferencia observada Y.1  Y.2 más grande


que la variabilidad en Y.1  Y.2 ?

• Significancia práctica: ¿Es la verdadera diferencia 1 – 2 lo


suficientemente grande como para afectar la decisión a tomar?

• Los intervalos de confianza no responden la pregunta de la significancia


práctica directamente, pero pueden acotar la diferencia real en u rango.

6
Muestras Independientes con 
Varianzas Iguales
• Se utilizan conjuntos diferentes e independientes de números para simular
los dos sistemas.
– Todas las observaciones del sistema simulado 1 son estadisticamente
i d
independientes
di t ded todas
t d las
l observaciones
b i d l sistema
del it simulado
i l d 2.2

• La varianza de la media muestral , Y.i , is:

V Y.i   i2
 
V Y.i 
Ri

Ri
, i  1,2

• Y para muestras independientes:


 12  22
     
V Y.1  Y.2  V Y.1  V Y.2 
R1

R2

7
Muestras Independientes con 
Varianzas Iguales
• que    ((aprox)
Si es razonable asumir q p ) o si R1 = R2, un intervalo de
confianza para las dos muestras se puede construir usando una
distribución t
– El estimador puntual de la diferencia es:
Y.1  Y.2
– Y la varianza muestral del sistema i, es:
R R

 
i i


1 2 1
S i2  Yri  Y.i  Yri 2  RiY.i 2
Ri  1 r 1 Ri  1 r 1
– El estimador de 2 es:
( R1  1) S12  ( R2  1) S 22
S 
2
p , donde   R  R -2 grados de libertad
R1  R2  2 1 2
– El intervalo
i t l esta
t dado
d d por:
Y.1  Y.2  t / 2, s.e.(Y.1  Y.2 ) con s.e.Y.1  Y.2   S p
1 1

R1 R2

8
Muestras Independientes con 
Varianzas Diferentes
Si el supuesto de igualdad de varianzas no se cumple, un intervalo de
confianza de, aproximadamente, 100(1‐)% puede ser calculado por:


s.e. Y.1  Y.2   S12 S 22

R1 R2
Con grados de libertad dados por:

S2
/ R1  S 22 / R2 
2


S   
1
, redondeado al entero superior.
superior
1
2

/ R1 / R1  1  S / R2 / R2  1
2 2
2 
2

Un mínimo de R1 > 7 y R2 > 7 replicas es recomendado.

9
Muestras Correlacionadas (CRN)
Muestras Correlacionadas (CRN)
• Para cada réplica, los mismos números aleatorios son utilizados para
simular
i l losl dos
d sistemas.
it
– Par cada réplica r, los dos estimados, Yr1 y Yr2, están correlacionados.
– Sin embargo, conjuntos independientes de números son utilizados en
diferentes réplicas, así los pares (Yr1 ,Ys2) son mutualmente
independientes.

• La idea es inducir una correlación positiva entre Y.1  Y.2 (para cada r) para
reducir la varianza del estimador puntual Y.1  Y.2 .
 12  22 2 12 1 2
V Y.1  Y.2   V Y.1   V Y.2   2 covY.1 , Y.2    
R R R
12 es positivo
– Note que la varianza de Y.1  Y.2 proveniente del uso de CRN es menor
que la proveniente de muestras independientes.

10
Muestras Correlacionadas (CRN)
Muestras Correlacionadas (CRN)
• El estimador basado en CRN es más precisa, por lo tanto se consigue un 
El estimador basado en CRN es más precisa, por lo tanto se consigue un
intervalo de confianza mas estrecho para la diferencia

• D  Y.1  Y.2
La varianza muestral de las diferencias                     es:

1  R 2 2
S 
2
D
1 R
 Dr  D 2
   Dr  RD 
R  1 r 1 R  1  r 1 
1 R
donde Dr  Yr1-Y
Yr 2 y D   Dr , con grados de libertad   R - 1
R r 1
• Y el error estándar es:
 
s.e.( D )  s.e. Y.1  Y.2 
SD
R

11
Muestras Correlacionadas (CRN)
Muestras Correlacionadas (CRN)
No es tan simple como usar la misma semilla para el generador de números
aleatorios:

• Los números aleatorios deben ser utilizados para el mismo propósito en los
dos modelos.

• Ej, si el i‐ésimo número aleatorio es utilizado para generar en tiempo de


servicio del quinto cliente en el modelo 1, el i‐ésimo número aleatorio
d b á ser utilizado
deberá tili d para generar en tiempo
ti d servicio
de i i del
d l quinto
i t cliente
li t
en el modelo 2.

12
Ej
Ejemplo
l
Inspección de seguridad para vehículos
p g p
• La estación realiza 3 tareas: (1) Revisión de frenos, (2) Revisión de luces, (3) 
Revisión de la dirección.
• Arribo de vehículos: Poisson con tasa = 9.5/hora.
Arribo de vehículos: Poisson con tasa = 9 5/hora
• Sistema actual:
– Tres operarios en paralelo (cada uno realiza las tres tareas en cada 
vehículo)
hí l )
– Los tiempos de servicio para las tres tareas están normalmente 
distribuidos con medias 6.5, 6.0 y 5.5 minutos, respectivamente.
• Sistema Alternativo:
– Cada operario se especializa en una tarea específica, así cada vehículo 
pasa por las tres estaciones en serie.
pasa por las tres estaciones en serie.
– El tiempo de servicio para cada tarea decrece en 10%
• La medida de desempeño es el tiempo total de un vehículo en el sistema.

13
Ej
Ejemplo
l
• Comparando los dos sistemas con R = R1 = R2 =10 se obtiene:
– Muestras independiente:
Y.1  Y.2  5.4 minutes

con   17, t 0.05,17  2.11, S12  118.0 y S 22  244.3, CI : -18.1  θ1-θ2  7.3

– CRN sin sincronización:
CRN sin sincronización:
Y.1  Y.2  1.9 minutes
con   9, t 0.05,9,  2.26, S D2  208.9, CI : - 12.3  1 -  2  8.5

– CRN con sincronización :
Y.1  Y.2  0.4 minutes
i t

con   9, t 0.05,9  2.26, S D2  1.7, CI : - 0.50  1 -  2  1.30

14
CRN con precisión específica
CRN con precisión específica
• error en el valor estimado de 1 – 2 debe ser menor que 
El error en el valor estimado de 
El debe ser menor que .
• Se debe determinar el número de réplicas R tal que el “half‐width” del 
intervalo de confianza sea:
 
H  t / 2, s.e. Y.1  Y.2  
• Ejemplo:
= 10 con un IC del 95% (con CRN sincronizados):0.4  0.9 minutos
– R0 = 10,  con un IC del 95% (con CRN sincronizados): 
– Suponga que  = 0.5 minutos, para que tenga significancia práctica.
t / 2, R 1  t / 2, R0 1
– Dado que                               , una estimación conservadora de R es:
2
 t / 2, R0 1S D 
R   

  
– Así, se necesitan 35 réplicas (25 adicionales).

15
Comparación de Múltiples 
Sistemas
• Para comparar K alternativas de diseño de un sistema.
– La comparación se basa en alguna medida de desempeño específica i,
del sistema i,i para i = 1,
1 2,
2 …, K.
K

• El procedimiento es clasificado como:


– Procedimientos de tamaño de muestra fijo: El tamaño de muestra es
predeterminado es utilizado en pruebas de hipótesis e IC.
– Muestreo Secuencial (multistage): se realizan réplicas hasta que un
estimador con una precisión específica es alcanzada o hasta que una de
las alternativas es seleccionada.

16
Comparación de Múltiples 
Sistemas
Métodos de comparación:

• Estimación de cada parámetro i.


Estimación de cada parámetro
• Comparación de cada medida de desempeño i, contra un parámetro de 
control 1.
• Comparaciones por pares, i, ‐ i, para todo i diferente de j
• Selección del mejor i.

17
Método de Bonferroni
Método de Bonferroni
• Para hacer afirmaciones sobre varios parámetros simultáneamente, (donde
todas las afirmaciones son ciertas simultáneamente).
• Desigualdad de Bonferroni :
C
P (Todas las afirmacion es S i sean ciertas, i  1, ...,C )  1    j  1   E
j 1

Error total, es un límite superior par la 
probabilidad de equivocarse al rechazar H0

– El j corresponde al ancho del j‐ésimo


j ésimo IC.
IC
• La desigualdad se mantiene sin importar si se utilizan muestras
independientes o CRN.
• El ancho de cada uno de los IC aumenta cuando aumenta el número de
comparaciones.

18
Método de Bonferroni
Método de Bonferroni
• Debería ser usado únicamente cuando se hace un número pequeño de
comparaciones.
– Límite máximo de comparaciones (empírico): 20

• 3 posibles aplicaciones (Suponga que se tienen K sistemas):


100(1 j)% para el parámetro i.
– CI para cada sistema: Construir IC del 100(1‐
Número de comparaciones K.
– Comparar alternativas contra el sistema actual: Construir IC del
100(1‐ j)% para la diferencia i‐1 (i = 2,3, …K). Número de
comparaciones K‐1.
– Comparaciones por pares: Para cada pareja de sistemas, construir IC del
100(1‐ j)% para la diferencia i‐j. Número de comparaciones
K(K – 1)/2.

19
  SIMULACIÓN
 
 
Verificación y validación de modelos de
 
simulación
 
 
 
 

 
 
 

 
 
 
 

 
 
 

 
 
 
 

 
 
 
   
 

• VERIFICACIÓN  Y  VALIDACIÓN  DE  MODELOS  DE  


SIMULACIÓN  
 

Una   de   las   tareas   más   difíciles   que   enfrenta   quien   construye   modelos   de   cualquier   tipo,   y  
especialmente   los   de   simulación,   consiste   en   verificar   y   validar   el   modelo   construido.   A  
continuación,   se   observarán   los   factores   a   tener   en   cuenta   para   realizar   estos   procesos   de  
revisión   de   la   mejor   manera   posible   con   el   fin   de   garantizar   la   robustez   y   completitud   del  
modelo.  
 
ASPECTOS  GENERALES  
La   meta   del   proceso   de   validación   consiste   en   producir   un   modelo   que   represente   el  
comportamiento   real   del   sistema,   lo   suficientemente   cerca   para   propósitos   de   toma   de  
decisiones.  De  esta  forma,  se  incrementa  la  credibilidad  del  modelo  a  un  nivel  aceptable  de  
confiabilidad.   Sin   embargo,   la   validación   no   debe   ser   abordada   como   un   conjunto   aislado   de  
procedimientos  que  sigue  el  desarrollo  de  modelo,  sino  más  bien  como  una  parte  integral  de  
la   construcción   de   este.   Conceptualmente,   la   verificación   y   validación   tienen   los   siguientes  
componentes:  
 
- La   verificación   está   relacionada   con   la   construcción   correcta   del   modelo.   Aquí,   se  
realiza   la   comparación   del   modelo   conceptual   con   la   representación   computacional  
que  implementa  esa  concepción.  En  este  proceso  deben  responderse  preguntas  tales  
como:  ¿está  el  modelo  implementado  correctamente  en  el  programa  de  simulación?  
¿están   correctamente   representados   los   parámetros   de   entrada   y   la   estructura   lógica  
del  modelo?  
- La  validación  se  relaciona  con  la  construcción  del  modelo  apropiado  para  el  sistema  
en   estudio.   Aquí,   se   confirma   que   un   modelo   es   una   representación   precisa   del  
sistema   real.   La   validación   se   configura   a   través   de   la   calibración   del   modelo,   un  
proceso  iterativo  de  comparar  el  modelo  con  el  comportamiento  del  sistema.  
 
 
En   el   siguiente   diagrama   se   puede   resumir   el   proceso   de   construcción,   verificación   y  
validación  del  modelo  de  simulación:  

 
2   [ POLITÉCNICO GRANCOLOMBIANO]
 

 
Figura  1.  Proceso  de  construcción,  verificación  y  validación  del  modelo.  
Fuente:  BANKS,  Jerry.  Discrete  Event  Systems  Simulation.  
 
VERIFICACIÓN  DE  MODELOS  DE  SIMULACIÓN  
 
El   propósito   principal   de   la   verificación   es   asegurar   que   el   modelo   conceptual   esté  
reflejado  correctamente  en  el  modelo  computacional.  El  modelo  conceptual,  a  menudo,  
implica  cierto  grado  de  abstracción  de  las  operaciones  del  sistema  o  cierta  simplificación  
del   funcionamiento   real.   Algunas   sugerencias   a   tener   en   cuenta   para   la   ejecución   de   este  
proceso:  
 
- Tener   el   modelo   computacional   revisado   por   alguien   aparte   del   desarrollador,  
preferiblemente  un  experto  en  el  software  de  simulación  que  se  está  aplicando.  
- Realizar   un   diagrama   de   flujo   que   incluye   cada   posible   acción   que   el   sistema   puede  
hacer  cuando  un  evento  ocurre.  
- Examinar   cuidadosamente   las   salidas   del   modelo   para   una   serie   diferente   de  
parámetros  de  entrada  (sensatez  del  modelo).  
- Imprimir  los  parámetros  de  entrada  junto  con  los  resultados  y  asegurarse  de  que  no  
cambiaron  repentinamente.  
 
Con   respecto   a   la   definición   de   la   sensatez   del   modelo,   imaginemos,   primero,   que   se   está  
modelando   una   red   de   líneas   de   espera.   Aunque   el   tiempo   de   respuesta   es   un   indicador  
principal   de   este   sistema,   se   debe   recopilar   otras   estadísticas   aparte   de   este   tiempo,   por  
ejemplo,  la  cantidad  actual  de  entidades  en  el  sistema  y  el  número  de  entidades  atendidas.  
 

 
[ SIMULACIÓN] 3
 

Si  la  cantidad  actual  de  entidades  crece  de  forma  cercanamente  lineal,  de  la  misma  manera  
que   se   incrementa   el   tiempo   de   la   corrida,   es   probable   que   la   cola   esté   inestable.   Si   las  
entidades   atendidas   son   iguales   a   cero,   esto   indica   que   no   han   entrado   clientes   al   sistema;   o  
si  las  entidades  atendidas  son  iguales  o  cercanas  a  1,  puede  indicar  que  un  recurso  no  se  ha  
podido  liberar  y,  por  tanto,  ha  quedado  atrapado  en  un  servicio  con  un  solo  cliente.  
 
VALIDACIÓN  Y  CALIBRACIÓN  
Los   procesos   de   verificación   y   validación,   aunque   son   conceptualmente   distintos,   son  
realizados  de  manera  simultánea  por  el  modelador.  La  validación  es  el  proceso  de  comparar  
el   comportamiento   del   modelo   con   el   comportamiento   del   sistema.   La   calibración   es   el  
proceso  iterativo  de  comparar  los  comportamientos  y  la  realización  sistemática  de  los  ajustes  
al   modelo.   La   siguiente   gráfica   muestra   la   relación   que   tiene   la   calibración   del   modelo   con   el  
proceso  general  de  validación.  
 

 
Figura  2.  Proceso  iterativo  de  calibración.  
Fuente:  BANKS,  Jerry.  Discrete  Event  Systems  Simulation.  
 
Naylor   y   Finger   formularon   una   metodología   de   tres   pasos   que   ha   sido   ampliamente  
aplicada  para  soportar  el  proceso  de  validación:  
 
- Construir   un   modelo   con   validez   comprobada.   Los   usuarios   potenciales   del   modelo  
deben  estar  involucrados  en  la  construcción  del  modelo,  desde  su  conceptualización  
hasta   su   implementación,   para   asegurar   un   alto   grado   de   realismo   a   través   de  
supuestos   razonables   y   datos   confiables.   Otra   forma   de   comprobar   la   validez   es   a  
través  de  análisis  de  sensibilidad.  
- Validar   los   supuestos   del   modelo.   Los   supuestos   de   un   modelo   pueden   clasificarse   en  
dos  grupos:  estructurales  y  de  datos.  Los  estructurales  implican  cuestionamiento  de  
cómo   funciona   el   sistema   y   esto   involucra   simplificaciones   y   abstracciones.   Los  
supuestos   de   los   datos   se   basan   en   la   recolección   de   información   confiable   y   el  
análisis  estadístico  apropiado.  

 
4   [ POLITÉCNICO GRANCOLOMBIANO]
 

- Validar   las   transformaciones   de   entradas-­‐salidas.   Esto   implica   que   un   cambio   en   la  


información   de   entrada   debe   estar   razonablemente   relacionado   con   sus   resultados.  
Por  ejemplo,  si  se  está  modelando  un  sistema  que  está  muy  cerca  de  la  congestión  o  
colapso,  si  se  agregan  más  recursos,  lo  más  probable  es  que  dicho  nivel  de  ocupación  
se  reduzca.  
 
A  propósito  de  este  último  paso,  el  cual  es  en  realidad  el  que  resume  la  finalidad  principal  
del   proceso   de   validación,   un   elemento   muy   importante   a   resaltar   es   que   los   datos  
sistema  real  son  absolutamente  necesarios  para  las  comparaciones  a  las  que  haya  lugar.  
Para  aterrizar  mejor  este  concepto,  obsérvese  el  siguiente  ejemplo.  
 
Ejemplo:  
 
Se  está  estudiando  el  servicio  que  ofrece  un  banco  que  consiste  en  cajeros  automáticos  
sin   bajarse   del   carro   (sistemas   drive-­‐in).   Para   llevar   a   cabo   el   proceso   de   validación,   se   ha  
recolectado   información   de   salida   (desempeño)   del   sistema   real,   en   el   mismo   periodo   en  
que  fueron  recolectados  los  datos  de  entrada  al  mismo  sistema  (tiempos  entre  llegadas,  
etc.)  Supóngase  que  a  raíz  de  la  observación  del  sistema,  se  pudo  concluir    que  el  tiempo  
que  gasta  un  cliente  esperando  y  procesando  su  transacción  en  el  cajero  tiene  un  valor  
promedio  de  4,3  minutos.  Por  otro  lado,  el  modelador  tiene  previsto  realizar  6  corridas  
independientes  donde  va  a  centrar  su  atención  en  el  tiempo  total  de  la  transacción  que  
va   a   arrojar   el   modelo   en   cada   una   de   las   corridas.   Los   resultados   se   resumen   a  
continuación:  
 
Corrida   Tiempo  transacción  en  minutos  (Y)  
1   2,79  
2   1,12  
3   2,24  
4   3,45  
5   3,13  
6   2,38  
 
El   test   de   validación   consistirá   en   comparar   los   resultados   del   sistema   (Z   =   4,3)   con   los  
resultados  del  modelo  (promedio  de  Y).  Esto  se  hace  formalmente  a  través  de  una  prueba  de  
hipótesis  donde:  
 
H0:  E(Y)  es  igual  a  4,3  minutos  
H1:  E(Y)  distinto  de  4,3  minutos  
 
Si   Ho   no   es   rechazado,   entonces   no   habrá   razón   para   considerar   el   modelo   inválido.   En   el  
caso  contrario,  donde  la  hipótesis  nula  sea  rechazada,  el  modelado  deberá  buscar  maneras  
de  mejorar  la  robustez  del  modelo.  

 
[ SIMULACIÓN] 5
 

 
Primero,  debe  establecerse  el  nivel  de  significancia,  α  =  0,05.  
Luego  se  calcula  la  media  y  desviación  muestral  sobre  las  seis  observaciones  
 
  1 n S=
1 n
(Y2i − Y2 ) 2 = 0.81 minutes
 
Y = ∑ Yi = 2.51 minutos n − 1

n i =1 i =1

Ahora  se  aplican  los  criterios  de  la  prueba  t  de  dos  colas,  cuyo  estadístico  se  calcula  así:  
 
  Y − µ0 2.51 − 4.3
t0 = 2 = = 5.24
  S/ n 0.82 / 6
 
 
El  valor  crítico  de  t  para  esta  prueba,  con  un  nivel  de  significancia  de  α/2  =  0,025  y  con  n  –  1  
grados  de  libertad  =  5  grados,  es  igual  a  2,571  
 

 
 
Dado  que  el  estadístico  de  la  prueba  es  mayor  al  valor  crítico,  se  rechaza  Ho,  y  se  concluye  
que   el   modelo   es   inadecuado   para   predecir   el   tiempo   que   un   cliente   demora   en   hacer   la  
transacción.   Por   lo   tanto,   el   modelador   deberá   revisar   los   supuestos   que   utilizó   y   la  
confiabilidad  de  los  datos  obtenidos.  
 
Generalmente,   es   muy   difícil   o   muy   costoso,   o   consume   mucho   tiempo   utilizar   todas   las  
técnicas   de   validación   posibles   para   cada   modelo   desarrollado.   Es   una   parte   fundamental   de  
la   tarea   del   modelado   escoger   aquellas   técnicas   que   sean   las   más   apropiadas   para   el   caso,  
con  el  fin  de  asegurar  la  precisión  y  credibilidad  del  modelo.  

 
6   [ POLITÉCNICO GRANCOLOMBIANO]

Você também pode gostar