Escolar Documentos
Profissional Documentos
Cultura Documentos
Introducción a la Simulación
2. Introducción
El
propósito
del
presente
documento
es
presentar
a
los
estudiantes
la
definición
de
simulación
de
eventos
discretos,
como
herramienta
esencial
para
el
soporte
en
el
proceso
de
toma
de
decisiones
dentro
de
las
organizaciones.
Con
el
objetivo
de
presentar
esta
definición
se
mostrará
la
terminología
general
usada
en
este
ámbito,
así
como
los
tipos
de
simulación.
Por
otra
parte,
teniendo
en
cuenta
que
el
objetivo
general
del
módulo
es
que
los
estudiantes
desarrollen
las
capacidades
necesarias
para
llevar
a
cabo
un
estudio
completo
de
simulación,
en
esta
unidad,
se
presentará,
paso
a
paso,
cuáles
son
las
actividades
que
deben
realizarse
para
lograr
un
estudio
exitoso.
Finalmente,
se
presentará
al
estudiante
el
primer
acercamiento
al
proceso
de
simulación,
a
través
de
un
tema
conocido
como
simulación
manual,
en
la
cual
se
verán
involucrados
los
conceptos
antes
presentados,
así
como
la
aparición
de
algunas
medidas
de
desempeño
básicas
que
posteriormente
permitirán
realizar
un
análisis
completo
de
la
situación
actual
de
la
organización.
3. Metodología
La
cartilla
presentará,
de
forma
estructurada,
los
conceptos
básicos
para
dar
inicio
a
la
presentación
de
lo
que
es
la
Simulación
de
eventos
discretos.
Esto
se
hará
presentando
conceptos
generales
de
sistemas
y
modelaje
para
construir
de
forma
lógica,
el
concepto
completo
de
lo
que
es
la
simulación
como
herramienta
que
da
soporte
y
permite
argumentar
las
decisiones
que
se
toman
con
respecto
a
algún
tema
en
específico.
Habiendo
definido
lo
que
es
la
simulación,
se
presentarán
algunos
términos
básicos
propios
de
la
materia,
que
se
utilizarán
con
frecuencia
a
lo
largo
del
proceso
de
aprendizaje.
Así
2
[ POLITÉCNICO GANCOLOMBIANO]
[ SIMULACIÓN ] 3
6. Desarrollo
temático
6.1
Componente
motivacional
Actualmente,
con
el
ánimo
de
minimizar
los
costos
en
los
procesos
de
toma
de
decisiones,
las
organizaciones
han
desarrollado
metodologías
más
cuidadosas
en
las
que
se
disminuye
el
riesgo
de
realización,
pero
que
de
igual
manera,
constituyen
un
soporte
real
a
decisiones
tomadas
al
interior
de
la
compañía.
Por
ejemplo,
si
cierta
compañía
se
encuentra
analizando
la
posibilidad
de
modificar
la
forma
en
que
está
dispuesta
su
línea
de
producción,
porque
considera
que,
actualmente,
es
ineficiente
y
la
tasa
de
unidades
producidas
por
unidad
de
tiempo
no
es
suficiente,
existen
dos
formas
de
tomar
la
decisión
de
realizar
el
cambio:
1. Hacer
un
experimento
directamente
sobre
la
línea
de
producción,
es
decir,
realizar
las
modificaciones
sobre
el
sistema,
donde
se
mueva
la
maquinaria,
se
realice
ajustes
necesarios
y
pruebas.
2. Hacer
un
experimento
sobre
un
modelo
que
represente
la
línea
de
producción,
es
decir,
donde
se
realicen
las
modificaciones
en
un
modelo
computarizado,
en
el
cual
no
se
deba
mover
la
maquinaria
y
tampoco,
los
ajustes
directos.
Si
después
de
realizar
el
experimento
se
demuestra
que
el
cambio
propuesto
no
es
válido
porque
no
se
logra
aumentar
la
tasa
de
producción,
es
evidente
que
con
la
opción
número
uno,
la
inversión
y
el
tiempo
de
prueba
del
experimento
es
mucho
mayor
que
con
la
opción
número
dos.
A
partir
de
lo
anterior,
resulta
relevante
que
el
egresado
del
Politécnico
Grancolombiano
desarrolle
todas
las
habilidades
necesarias
para
emplear
herramientas
de
vanguardia
que
permitan
a
las
compañías
ser
más
competitivas
dentro
del
mercado,
cualquiera
sea
el
campo
en
el
que
se
desenvuelva.
6.2
Recomendaciones
académicas
Dentro
de
las
recomendaciones
generales
que
debe
seguir
el
estudiante
para
lograr
un
excelente
desempeño
en
el
desarrollo
del
módulo,
está
realizar
la
evaluación
diagnóstica
del
módulo,
pues
esta
le
permitirá
identificar
cuáles
son
sus
fortalezas
y
acrecentarlas
y,
por
supuesto,
cuáles
son
sus
debilidades
para
enfrentarlas
y
mejorarlas.
Por
otra
parte,
con
el
objetivo
de
tener
una
excelente
comunicación,
el
estudiante
deberá:
• Aprovechar
el
chat
semanal
en
el
cual
se
tendrá
un
encuentro
sincrónico
con
el
tutor.
• Presentar
sus
dudas
a
través
de
mensajes
personalizados
para
el
tutor.
• Realizar
los
ejercicios
de
los
talleres
propuestos,
los
cuales
permitirán
reforzar
los
conceptos
presentados
en
las
cartillas.
4
[ POLITÉCNICO GANCOLOMBIANO]
Por
otra
parte,
el
estudiante
debe
tener
presente
que
la
educación
virtual
es
un
proceso
autónomo
en
gran
medida,
por
lo
cual
exige
un
nivel
de
compromiso
verdadero,
recuerden
que
1
hora
de
educación
presencial
es
equivalente
a
3
horas
de
educación
virtual,
revisan
semana
a
semana
las
actividades
recomendadas,
así
como
las
fechas
para
entregas
del
proyecto,
realización
de
quices,
parciales
y
examen
final,
y
por
supuesto,
la
participación
en
los
foros
obligatorios
de
discusión.
6.3
Desarrollo
de
cada
una
de
las
unidades
temáticas
1.INTRODUCCIÓN
• Evaluar
el
desempeño
de
un
sistema
bajo
condiciones
usuales
e
inusuales.
Un
modelo
se
puede
convertir
en
una
necesidad,
si
la
operación
rutinaria
de
un
sistema
real
bajo
análisis,
no
puede
ser
interrumpida
sin
generar
consecuencias
severas
(por
ejemplo,
intentar
implementar
una
modificación
a
una
línea
de
producción,
cuando
se
está
tratando
de
cumplir
fechas
de
entrega
muy
próximas).
• Predecir
el
desempeño
de
sistemas
experimentales.
Cuando
el
sistema
de
interés
aún
no
existe,
la
construcción
del
modelo
es
mucho
más
económica
y
segura
que
la
construcción
del
sistema
real
o
incluso,
de
su
prototipo.
• Evaluar
múltiples
alternativas
de
diseño.
Este
caso
está
relacionado
con
el
anterior,
solo
que
la
motivación
económica
es
mucho
mayor.
Los
resultados
del
desempeño
potencial
del
sistema
son
evaluados
junto
con
indicadores
de
costo-‐beneficio.
Los modelos pueden tener varias tipificaciones, entre ellas se encuentran:
[ SIMULACIÓN ] 5
Un
modelo
de
simulación,
objeto
principal
de
este
curso,
es
un
caso
especial
de
los
modelos
de
tipo
analítico.
Mientras
que
los
modelos
enteramente
matemáticos
se
enfocan
en
la
obtención
de
soluciones
óptimas
del
problema
a
través
de
procedimientos
algorítmicos,
los
modelos
de
simulación
buscan
soluciones
aproximadas
a
instancias
muestrales
específicas
del
sistema
en
estudio.
Para
aclarar
esta
diferencia,
supóngase
que
se
desea
estudiar
una
línea
de
producción,
la
cual,
conceptualmente,
se
puede
modelar
como
un
sistema
de
colas.
El
enfoque
matemático
crearía
un
modelo
analítico
de
colas,
representado
a
través
de
sistemas
de
ecuaciones,
variables
de
decisión
y
técnicas
matemáticas
de
optimización
donde
se
encuentran
las
soluciones
al
problema
planteado.
El
modelo
de
simulación
crearía
una
representación
computacional
del
sistema
de
colas
y
la
correría
un
número
de
veces
suficiente,
de
tal
forma
que
los
resultados
permitan
afirmar
que
el
modelo
es
una
fiel
representación
(muestra)
del
sistema
en
estudio.
Sistema
Experimentar
directamente
Experimentar
con
un
modelo
No
siempre
son
sencillas
de
Analítico
Simulación
obtener
Figura
1.
Formas
de
estudiar
un
sistema
2. ¿QUÉ
ES
SIMULACIÓN?
6
[ POLITÉCNICO GANCOLOMBIANO]
Sin
embargo,
debe
tenerse
presentes
aquellas
circunstancias
en
las
cuales
no
sería
conveniente
la
aplicación
de
la
simulación
como
metodología
de
estudio
de
los
sistemas,
a
saber:
Dentro de las áreas de aplicación más relevantes de la simulación se pueden enumerar:
• Industria
manufacturera
• Construcción
y
administración
de
proyectos
• Industria
militar
• Logística,
cadena
de
abastecimiento
y
distribución
• Transporte
• Procesos
de
negocio
• Servicios
de
salud
• Redes
de
telecomunicaciones
• Análisis
de
call
centers
Terminología básica:
[ SIMULACIÓN ] 7
bancaria
si
un
cliente
ya
termina
su
transacción
y
sale
de
la
instalación
en
el
instante
t.
Por
lo
tanto,
dicha
oficina
podría
considerarse
un
sistema
discreto.
Sistema
continuo:
aquel
donde
la
variable
de
estado
cambia
continuamente
en
el
tiempo,
por
ejemplo,
el
nivel
de
agua
de
una
represa.
Tipos
de
Modelos
de
Simulación
Cabe
aclarar
que,
según
esta
tipificación,
el
enfoque
de
este
módulo
está
encaminado
hacia
el
diseño
y
construcción
de
modelos
estocásticos,
dinámicos
y
discretos,
características
fundamentales
del
paradigma
de
la
Simulación
de
Eventos
Discretos.
• Formulación
del
problema.
Este
primer
paso
consiste,
esencialmente,
en
el
análisis
del
sistema
y
definición
del
problema
a
resolver.
• Fijación
de
los
objetivos.
En
esta
fase
se
define
el
alcance
del
estudio
y
las
fronteras
del
problema
que
va
a
ser
abordado.
Es
decir,
se
determina
cuáles
instancias
del
problema
se
van
a
estudiar
para
hallar
soluciones.
• Conceptualización
del
modelo.
En
esta
etapa
se
incluyen
actividades
tales
como
la
identificación
de
los
parámetros
de
entrada,
las
medidas
de
desempeño
de
interés
y
el
establecimiento
de
las
relaciones
entre
los
parámetros
y
variables.
La
información,
aquí,
se
puede
representar
en
diagramas
de
flujo
o
árboles
jerárquicos.
• Recolección
de
información.
Es
una
de
las
fases
más
importantes
y
críticas
del
estudio,
ya
que
producto
de
esta
etapa
aparece
la
estimación
de
los
parámetros
de
entrada
del
modelo,
y
dependiendo
de
la
calidad
de
la
información
recogida,
aparece
el
éxito
8
[ POLITÉCNICO GANCOLOMBIANO]
de
los
resultados
del
modelo.
En
esta
fase,
el
analista
hace
presunciones
sobre
las
distribuciones
de
probabilidad
de
los
datos
recolectados
y
luego,
a
través
de
pruebas
de
hipótesis,
corrobora
o
rechaza
los
supuestos
planteados.
• Construcción
del
modelo.
Una
vez
el
problema
ha
sido
analizado
y
la
información
procesada,
se
procede
a
construir
el
modelo
e
implementarlo
en
un
programa
computacional.
Este
programa
puede
ser
un
lenguaje
de
programación
general
(C++,
Visual
Basic,
Java,
entre
otros),
o
un
software
especializado
de
simulación
(Arena,
Promodel,
ExtendSim,
entre
otros).
• Verificación
del
modelo.
El
propósito
de
esta
fase
consiste
en
asegurarse
que
el
modelo
está
diseñado
y
construido
correctamente.
Esta
verificación
es
una
labor
delicada
de
inspección
y
radica
en
la
comparación
del
código
de
modelo
con
la
especificación
del
mismo.
• Validación
del
modelo.
La
validación
examina
el
grado
de
ajuste
del
modelo
con
los
datos
empíricos
del
sistema.
Es
decir,
compara
el
desempeño
del
modelo
con
la
información
real
arrojada
por
el
sistema
en
estudio.
• Diseño
de
experimentos.
Una
vez
validado
y
calibrado
el
modelo,
el
analista
procede
con
la
planeación
y
el
diseño
de
las
experimentaciones
que
se
llevarán
a
cabo
sobre
el
modelo
de
simulación.
En
esta
etapa
se
definen
los
distintos
escenarios
en
los
cuales,
se
va
a
analizar
el
desempeño
del
modelo,
así
como
el
número
de
réplicas
o
corridas
que
se
ejecutarán
con
el
propósito
de
garantizar
la
confiabilidad
del
estudio.
• Corridas
y
análisis
de
resultados.
En
esta
fase
se
ejecutan
las
corridas
oficiales
del
modelo,
cuyos
resultados
serán
el
objeto
de
análisis,
de
naturaleza
estadística
principalmente.
Una
actividad
típica
de
esta
fase
consiste
en
la
determinación
de
la
mejor
alternativa
mediante
la
comparación
de
los
desempeños
de
todas
las
alternativas
estudiadas.
[ SIMULACIÓN ] 9
Figura
2.
Pasos
de
un
estudio
de
simulación
4. SIMULACIÓN
DE
SISTEMAS
DE
COLAS
Un
sistema
de
colas,
desde
su
concepción
más
simple,
se
puede
describir
como
un
sistema
al
cual
los
clientes
llegan
cada
intervalo
de
tiempo
y
se
unen
a
una
línea
de
espera
en
busca
de
ser
atendidos
por
medio
de
un
servidor;
tan
pronto
finaliza
el
servicio,
el
cliente
abandona
el
sistema.
Esta
descripción
simplificada
se
puede
ver
representada
en
la
siguiente
gráfica:
10
[ POLITÉCNICO GANCOLOMBIANO]
Servidor
Fila de client es
Población de client es pot enciales
Figura
3.
Sistema
simple
de
colas
Los
elementos
claves
de
este
tipo
de
sistemas
son
los
clientes
y
los
servidores.
El
término
cliente
puede
referirse
a
personas,
máquinas,
camiones,
piezas,
aviones,
correos
electrónicos,
pedidos,
llamadas,
etc.
El
término
servidor
puede
hacer
referencia
a
recepcionistas,
cajeros,
mecánicos,
enfermeras,
médicos,
etc.
En
resumen,
el
cliente
es
la
entidad
u
objeto
que
requiere
un
servicio
o
una
transformación;
esta
transformación
es
ejecutada
por
el
servidor.
El
sistema
es
alimentado
desde
una
población
infinita
de
clientes
potenciales.
Esto
quiere
decir
que
si
una
unidad
deja
la
población
y
se
une
a
la
fila
de
clientes,
no
hay
cambio
en
la
tasa
de
llegadas
de
las
otras
unidades
que
vayan
a
requerir
el
servicio.
Las
llegadas
de
los
clientes
ocurren
una
a
la
vez
y
de
forma
aleatoria;
se
unen
a
la
cola
en
espera
de
que
eventualmente
sean
atendidos.
El
tiempo
de
servicio
o
de
proceso,
que
es
el
tiempo
que
demora
el
servidor
en
procesar
o
atender
un
cliente,
también
tiene
un
comportamiento
aleatorio
de
acuerdo
a
una
distribución
de
probabilidad.
La
capacidad
del
sistema
se
asume
infinita,
lo
que
implica
que
el
número
de
clientes
puede
ser
cualquier
cantidad.
Finalmente,
los
clientes
son
atendidos
en
orden
de
llegada,
lo
que
quiere
decir
que
el
sistema
tiene
una
disciplina
FIFO
(First
In
First
Out)
o
primeros
en
llegar,
primeros
en
salir.
Ahora
bien,
es
necesario
aterrizar
los
conceptos
estudiados
anteriormente,
relacionados
con
el
estado
del
sistema
y
eventos:
-‐ El
estado
del
sistema
se
representa
a
través
de
las
variables
de
estado.
Estas
variables,
para
el
caso
específico
del
sistema
simple
de
colas,
corresponden
al
número
de
unidades
en
el
sistema
y
el
estado
del
servidor,
ocupado
o
desocupado.
-‐ Un
evento
es
un
conjunto
de
circunstancias
que
provocan
cambios
en
el
estado
del
sistema.
Para
este
ejemplo,
solo
hay
dos
posibles
eventos
que
pueden
afectar
tales
cambios:
la
entrada
de
una
unidad
al
sistema
(evento
de
llegada)
y
la
finalización
un
servicio
(evento
de
salida).
[ SIMULACIÓN ] 11
Figura
4.
Diagrama
de
flujo
del
servicio
completado
Por
otra
parte,
cuando
un
cliente
entra
al
sistema,
la
simulación
se
ejecuta
siguiendo
la
lógica
mostrada
en
el
siguiente
diagrama
Figura
5.
Diagrama
de
flujo
del
evento
de
llegada
A
esta
altura
surge
la
siguiente
pregunta:
¿cómo
pueden
estos
eventos
descritos
anteriormente
ocurrir
en
tiempo
simulado?
La
simulación
de
los
sistemas
de
colas
requiere
generalmente
la
utilización
de
una
lista
de
eventos
para
determinar
qué
ocurrirá
después
de
que
este
se
presente.
La
lista
de
eventos
lleva
el
registro
de
los
instantes
de
tiempo
futuros
en
los
cuales
pueden
ocurrir
los
eventos.
Estos
tiempos
hacen
referencia
a
los
tiempos
de
llegada
de
los
clientes
y
al
tiempo
de
servicio.
Como
se
mencionó
anteriormente,
estos
tiempos
son
de
carácter
aleatorio,
por
lo
que
deben
ser
caracterizados
a
través
de
distribuciones
de
probabilidad.
12
[ POLITÉCNICO GANCOLOMBIANO]
[ SIMULACIÓN ] 13
2
2
1
2
3
4
3
6
4
1
2
7
5
2
1
9
6
6
4
15
Esta
primera
tabla
corresponde
a
las
condiciones
de
arranque
de
la
simulación.
Obsérvese
que
la
hora
de
llegada
puede
calcularse
desde
ya
para
todos
los
clientes.
Cliente
Tiempo
Tiempo
Hora
de
Hora
Tiempo
en
Hora
entre
de
llegada
inicio
cola
finalización
llegadas
servicio
servicio
servicio
1
-‐
2
0
0
0
2
2
2
1
2
2
0
3
3
4
3
6
6
0
9
4
1
2
7
9
2
11
5
2
1
9
11
2
12
6
6
4
15
15
0
19
Las
columnas
sombreadas
corresponden
a
la
hora
registrada
por
el
reloj
de
la
simulación.
Por
ejemplo,
el
primer
cliente
llega
en
el
minuto
t
=
0;
como
es
el
primero
en
llegar,
no
hay
nadie
delante
de
él,
por
lo
tanto
no
debe
hacer
cola
y
por
ende,
su
servicio
empieza
inmediatamente,
es
decir,
también
en
el
minuto
t
=
0.
(Debido
a
que
la
hora
de
llegada
es
igual
a
la
hora
de
inicio
del
servicio,
el
tiempo
en
cola
es
igual
a
cero).
Como
el
tiempo
de
servicio
simulado
es
de
2
minutos,
entonces
el
servicio
del
primer
cliente
finaliza
en
el
minuto
t
=
2.
¿Qué
ocurre
ahora
para
el
cliente
número
2?
Obsérvese
primero
que
la
hora
de
llegada
es
la
suma
acumulada
de
la
columna
de
los
tiempos
entre
llegadas.
Es
decir,
el
segundo
cliente
llega
2
minutos
después
que
el
primero,
o
sea,
en
el
minuto
t
=
2;
el
tercer
cliente
llega
4
minutos
después
que
el
segundo
cliente,
o
sea,
en
el
minuto
t
=
6;
y
así
sucesivamente.
El
segundo
cliente
llega
en
t
=
2
minutos.
Lo
que
debe
corroborarse,
según
los
diagramas
de
flujo
arriba
descritos,
es
comprobar
que
el
servidor
no
esté
ocupado
para
que
inicie
el
servicio.
La
mejor
forma
de
hacer
esta
comprobación
es
verificar
la
hora
de
finalización
del
servicio
del
cliente
anterior.
En
este
caso,
el
primer
cliente
termina
su
servicio
en
t
=
2,
y
justamente
en
ese
instante
arriba
el
segundo
cliente,
también
en
t
=
2;
luego
su
servicio
arranca
inmediatamente,
pues
el
servidor
recién
se
desocupó
y
no
debe
hacer
fila.
Dado
que
el
tiempo
de
servicio
simulado
es
de
1
minuto,
entonces
el
servicio
del
segundo
cliente
termina
en
el
minuto
t
=
3.
¿Qué
pasa
con
el
cliente
4?
Este
cliente
arriba
en
el
minuto
t
=
7.
En
este
instante,
se
puede
corroborar
que
el
servidor
se
encuentra
ocupado,
pues
se
tiene
registrado
que
el
servicio
del
14
[ POLITÉCNICO GANCOLOMBIANO]
cliente
3
finalizará
en
el
minuto
t
=
9.
Esto
implica
que
el
cuarto
cliente
debe
esperar
2
minutos
a
que
el
servidor
finalice
el
servicio
con
el
cliente
número
3.
Por
lo
tanto,
tan
pronto
el
servidor
despache
al
cliente
tres
en
el
minuto
t
=
9,
inicia
el
servicio
del
cliente
4,
y
dado
que
el
tiempo
simulado
de
servicio
es
de
dos
minutos,
la
finalización
del
servicio
será
en
el
minuto
t
=
11.
Se
debe
hacer
un
análisis
similar
para
el
cliente
5,
pues
también
tiene
que
hacer
cola.
Cabe
aclarar
que
la
tabla
se
debe
llenar
en
la
medida
que
van
ocurriendo
los
eventos,
generalmente
en
la
medida
en
que
los
clientes
van
llegando
y
van
saliendo.
Es
decir,
no
es
posible
determinar,
por
ejemplo,
la
hora
de
finalización
del
cliente
5,
sino
se
sabe
siquiera
a
qué
horas
terminó
el
servicio
del
cliente
4.
(La
tabla
se
diligencia
fila
por
fila,
no
por
columnas)
Con
los
resultados
de
esta
tabla,
se
pueden
calcular
las
estadísticas
para
la
medición
del
desempeño
del
sistema,
lo
cual
es
uno
de
los
propósitos
principales
de
la
simulación.
Algunos
de
estos
indicadores
se
detallan
a
continuación:
!"#$%& !"!#$ !" !"#$
!" =
!"#$% !" !ú!"#$ !" !"#$%&$'
4
!" = = 0,66 !"#$%&'
6
!"#$%& !"!#$ !" !"#$%&%'!
!" =
!"#$% !" !ú!"#$ !" !"#$%&$'
13
!" = = 2,16 !"#$%&'
6
[ SIMULACIÓN ] 15
! = !" + !" = 2,83 !"#$%&'
16
[ POLITÉCNICO GANCOLOMBIANO]
SIMULACIÓN
Modelos estadísticos en simulación
1. Índice
1. Introducción
2. Valor
esperado
de
una
variable
aleatoria
2.1. Variables
discretas
2.2. Variables
continuas
3. Medidas
de
dispersión
3.1. Variables
discretas
3.2. Variables
continuas
4. Distribuciones
de
probabilidad
discreta
5. Procesos
de
Poisson
Distribuciones
de
probabilidad
continua
2. Introducción
El
propósito
del
presente
documento
es
presentar
a
los
estudiantes
los
conceptos
básicos
de
estadística
necesarios
para
desarrollar
una
simulación
de
eventos
discretos.
La
estadística
será
una
herramienta
esencial
para
el
soporte
de
la
construcción
del
modelo,
tanto
al
inicio
como
al
final
del
análisis
de
resultados.
Por
otra
parte,
teniendo
en
cuenta
que
el
objetivo
general
del
módulo
es
que
los
estudiantes
desarrollen
las
capacidades
necesarias
para
llevar
a
cabo
un
estudio
completo
de
simulación,
en
esta
unidad,
se
hará
un
repaso
de
las
principales
funciones
de
probabilidad,
tanto
continuas
y
discretas,
que
se
emplean
frecuentemente
en
la
construcción
de
estos
tipos
de
modelo.
Finalmente,
se
presentará
al
estudiante
una
serie
de
ejercicios
relacionados,
para
reforzar
los
conocimientos
adquiridos
en
el
desarrollo
del
módulo.
3. Objetivo
general
Al
finalizar
el
módulo,
los
estudiantes
sabrán
cuáles
son
los
conceptos
básicos
de
estadística
relacionados
con
la
simulación
de
eventos
discretos,
así
como,
las
principales
funciones
de
probabilidad
discretas
y
continuas
aplicadas
en
la
construcción
de
este
tipo
de
modelos.
Al
finalizar
la
primera
semana
de
aprendizaje:
2
[ POLITÉCNICO GANCOLOMBIANO]
El
estudiante
reconocerá
las
distintas
funciones
de
probabilidad
continuas
utilizadas
en
simulación
de
eventos
discretos.
4. Desarrollo
temático
4.1
Recomendaciones
académicas
Se
recomienda
al
estudiante
realizar
la
lectura
de
la
cartilla,
en
la
cual,
se
encuentra
toda
la
información
relevante
que
se
evaluará
en
la
semana.
Adicional,
se
recomienda
revisar
las
teleconferencias,
así
como
las
video
diapositivas,
pues
estas
son
un
medio
que
puede
aclarar
las
dudas
generadas
con
la
lectura
o
también
dar
soporte
a
los
temas
expuestos
en
la
misma.
Finalmente,
se
recomienda
al
estudiante
realizar
los
ejercicios
planteados
y
sugeridos
por
el
tutor,
ya
que
estos,
a
pesar
de
no
tener
un
valor
porcentual
en
la
nota,
si
harán
que
su
formación
sea
completa
y
pueda
ser
reforzada
de
forma
práctica.
4.2
Desarrollo
de
cada
una
de
las
unidades
temáticas
1. Introducción
A
continuación,
se
verán
los
conceptos
básicos
relacionados
con
los
modelos
estadísticos
que
sirven
de
soporte
para
un
estudio
en
simulación
de
eventos
discretos.
Los
conceptos
que
se
trabajarán
en
este
apartado
son
los
relacionados
con
materias
de
estadística
y
probabilidad,
que
muy
seguramente
el
lector
ya
ha
cursado,
sin
embargo,
con
el
objetivo
de
tener
una
metodología
completa,
se
presentarán
nuevamente
los
conceptos,
pero
relacionados
directamente
a
la
herramienta
de
simulación.
Dentro
del
contenido
desarrollado
en
la
cartilla,
el
estudiante
podrá
encontrar
información
y
ejemplos
específicos
relacionados
con
los
siguientes
temas:
[ SIMULACIÓN ] 3
Ejemplo
introductorio
Sea
X
una
variable
aleatoria
(VA)
que
define
el
número
de
hijos
en
una
familia
colombiana.
¿Cuál
es
el
número
esperado
de
hijos
en
una
familia
colombiana
cualquiera?
Para
responder
a
esta
pregunta
se
necesita
conocer
la
distribución
de
probabilidad
de
la
variable
aleatoria.
Suponga
que
a
partir
de
un
estudio
hecho
por
el
DANE,
se
tiene
la
siguiente
información:
Número
de
hijos
Proporción
de
familias
0
5/30
1
15/30
2
9/30
3
1/30
De
la
anterior
tabla
se
puede
afirmar,
por
ejemplo,
que
el
5/30
ó
16,66%
de
las
familias
no
tienen
hijos,
el
50%
ó
15/30
tienen
un
solo
hijo,
y
así
sucesivamente.
Esta
tabla
es
la
distribución
de
probabilidad
de
la
VA
denominada
el
número
de
hijos
en
una
familia
colombiana.
El
posible
número
de
hijos
que
puede
tener
cualquier
familia
es
el
rango
de
la
variable,
definido
así:
! ! = 0,1,2,3
La
proporción
de
familias
que
tienen
su
número
respectivo
de
hijos
representan
la
función
de
distribución
de
probabilidad
de
la
variable,
definida
así:
5 15 9 1
g X = , , ,
30 30 30 30
Luego,
si
se
requiere
obtener
el
valor
esperado
de
hijos
en
una
familia
colombiana
cualquiera
seleccionada
al
azar,
basta
con
calcular
la
media
ponderada
así:
5 15 9 1
E X = 0 ∗ + 1 ∗ +2∗ +3∗ = 1,2 hijos
30 30 30 30
En
resumen,
se
tiene
que
para
calcular
el
valor
esperado
de
una
variable
aleatoria,
se
tiene:
4
[ POLITÉCNICO GANCOLOMBIANO]
! !
! 1
! ! = ! ∙ !" = ! ! !"
! 2 2 !
! !
1 !
! ! = ∙
2 3 !
8
! ! =
6
[ SIMULACIÓN ] 5
!"# ! = !(! − ! ! )! = !!!
!! = !"# !
De
acuerdo
con
esta
definición,
la
varianza
se
puede
calcular
a
través
de
la
expresión:
3.1
Variable
aleatoria
discreta
!"# ! = ! !! (!! − !)!
3.2
Variable
aleatoria
continua
!"# ! = ! ! (! − !)! !"
!(!)
6
[ POLITÉCNICO GANCOLOMBIANO]
Figura
1.
Time
between
event.
Fuente:
Statit
Solutions
Group
4.3
Distribución
binomial
Si
se
hacen
N
experimentos
independientes,
cuyo
resultado
en
cada
ensayo
puede
ser
únicamente
ÉXITO
(con
probabilidad
p)
o
FRACASO
(con
probabilidad
1-‐p),
a
la
VA
X:
número
de
éxitos
en
los
N
ensayos,
se
le
conoce
como
la
VA
Binomial,
y
su
función
de
distribución
de
probabilidad
se
le
conoce
como
Distribución
Binomial
de
parámetros
N,
p:
N !
g X = p (1 − p)!!! = P(X = k)
k
Su
media
y
varianza,
están
dadas
respectivamente
por:
[ SIMULACIÓN ] 7
E X = Np
Var X = Npq
Ejemplo
Un
banco
sabe
que
en
su
tarjeta
de
crédito
el
30%
de
los
clientes
quedan
con
sobrecupo
en
los
cortes
mensuales.
Si
se
elige
una
muestra
aleatoria
de
10
clientes
de
dicha
tarjeta:
a.
¿Cuál
es
la
probabilidad
de
que
cuatro
exactamente
tengan
sobrecupo?
b.
¿Cuántos
clientes
se
esperarían
que
tengan
sobrecupo?
c.
¿Cuál
es
la
probabilidad
de
que
ocho
o
más
de
ellos
tengan
sobrecupo?
a.
P X = 4 = !" !
0,3! 0,7!
b.
E X = 10 ∗ 0,3 = 3
c.
P X ≥ 8 = P X = 8 + P X = 9 + P(X = 10)
4.4
Distribución
binomial
negativa
Consideremos
el
mismo
tipo
de
experimento
que
se
utilizó
en
la
definición
de
la
VA
X
con
distribución
geométrica,
y
definamos
la
VA
Xp
como
el
número
de
ensayos
hasta
obtener
el
r-‐ésimo
éxito.
Se
dice
que
dicha
VA
tiene
una
distribución
de
Pascal
(también
es
llamada
Binomial
Negativa)
de
parámetro
r,
r
≥
1.
Es
claro
que
la
VA
así
definida
es
una
generalización
natural
de
la
VA
geométrica
mediante
las
siguientes
expresiones:
!−1 !
! ! = ! (1 − !)!!! = ! ! = ! ! ≥ !
!−1
Su
media
y
varianza
están
dadas
por
!
! ! =
!
!(1 − !)
!"# ! =
!!
Ahora
bien,
una
vez
revisados
los
conceptos
de
variables
aleatorias
discretas
relevantes,
es
importante
conocer
uno
de
los
conceptos
dentro
de
la
simulación
que
representa
una
transición
entre
las
variables
discretas
y
las
variables
continuas,
esto
es
el
Procesos
Poisson
(distribución
discreta)
y
las
distribuciones
de
probabilidad
continuas
más
aplicadas
en
simulación.
8
[ POLITÉCNICO GANCOLOMBIANO]
Ejemplo
introductorio
En
cierta
oficina
se
quiere
analizar
un
experimento
aleatorio
que
consiste
en
observar
cómo
se
comportan
las
llegadas
de
los
clientes
con
respecto
al
tiempo,
en
el
sentido
de
ver
la
llegada
de
un
cliente
como
un
evento
puntual
(el
instante
en
que
llega
el
cliente)
que
tiene
lugar
a
lo
largo
de
tiempo.
El
tiempo
lo
podemos
representar
a
través
de
la
recta
real
y
las
llegadas
como
puntos
de
dicha
recta,
así:
Respecto
a
dicho
proceso
(el
experimento
aleatorio),
se
puede
definir
la
VA
Xp
para
un
intervalo
de
tiempo
de
longitud
t
como:
Xp(t)
=
número
de
arribos
(llegadas)
en
el
intervalo
de
tiempo
de
longitud
t.
Sea
t
un
intervalo
de
tiempo
dado,
arbitrario
pero
fijo,
y
se
quiere
examinar
la
VA
definida
anteriormente
y
deducir
su
distribución,
es
decir:
! !! = !; !, ! = ! ℎ!"! !"#$%#&!'%! ! !!"#$%$& !" !" !"#$%&'() !
Se
divide
el
intervalo
de
magnitud
t
en
N
intervalos
de
magnitud
t/N,
de
tal
manera
que
t/N
sea
tan
pequeño
como
sea
necesario
para
cumplir
los
supuestos
del
modelo.
El
evento
B
de
“que
hayan
exactamente
n
llegadas
del
proceso
en
el
intervalo
de
tiempo
t”,
es
equivalente
al
evento
de
obtener
exactamente
n
éxitos
en
los
N
experimentos
independientes
de
Bernoulli
que
consisten
en
observar,
si
hay
o
no,
una
llegada
del
proceso
en
el
intervalo
de
tiempo
de
longitud
t/N.
La
probabilidad
de
tener
éxito
(que
haya
una
llegada)
en
cada
uno
de
estos
experimentos
de
!
Bernoulli
es
! = ! ! .
Es
decir,
se
tienen
N
experimentos
independientes
de
Bernoulli,
donde
la
probabilidad
del
evento
B
está
dada
por
!"
! ! = !(!! = !; !; )
!
Tomando
el
límite
de
esta
expresión
cuando
N
tiende
a
infinito,
se
obtiene:
[ SIMULACIÓN ] 9
!" ! !!"
! ! ! = ! = !! ! , !; !, ! = ! , ! = 0, 1, 2, ….
!!
El
número
de
eventos
que
suceden
hasta
el
tiempo
t
se
distribuyen
de
manera
Poisson
con
parámetro
λ.
Este
tipo
de
procesos
cumple
con
los
supuestos
de
estacionariedad:
- El
valor
esperado
de
las
variables
aleatorias
no
depende
del
tiempo.
- Las
varianzas
tampoco
dependen
del
tiempo
y
son
finitas.
El
tiempo
entre
eventos
es
independiente
e
idénticamente,
distribuido
como
una
variable
aleatoria
exponencial
con
media
1/λ.
Esta
propiedad
es
de
suma
importancia
para
el
modelaje
de
procesos
en
simulación,
ya
que
buena
parte
de
los
modelos
teóricos
y
empíricos
asumen
las
entradas
a
un
sistema
con
tiempos
exponenciales,
lo
que
quiere
decir
que
dichas
llegadas
se
comportan
como
Procesos
de
Poisson.
A
continuación,
se
presentarán
las
distribuciones
de
probabilidad
continuas
más
empleadas
en
el
modelaje
de
sistemas
a
través
de
la
simulación
de
eventos
discretos,
aunque
existe
otro
tipo
de
distribuciones
que
también
pueden
emplearse,
aquí
solo
presentaremos
las
más
relevantes.
6.1
Distribución
exponencial
Considérese
un
Proceso
de
Poisson
de
parámetro
λ
observado
a
partir
de
un
instante
t0,
y
defínase
la
VA
continua
XE
como
XE
=
tiempo
que
transcurre
entre
el
instante
t0
y
la
próxima
llegada
del
proceso
La
función
de
distribución
acumulada,
F(X)
de
la
VA
XE
estará
dada
por:
!!! !; ! = ! !! ≤ ! = 1 − ! !! > !
!!! !; ! = ! !! ≤ ! = 1 − !(ℎ!"! 0 !!"#$%$& !" !" !"#$%& !
!" ! !!"
!!! !; ! = ! !! ≤ ! = 1 − !
0!
!!! !; ! = ! !! ≤ ! = 1 − ! !!"
Por
lo
tanto,
la
función
de
distribución
acumulada
de
la
VA
exponencial
se
expresa
como
10
[ POLITÉCNICO GANCOLOMBIANO]
Figura
2.
Distribución
exponencial.
Fuente:
Statit
Solutions
Group
Ejemplo
Suponga
que
la
vida
útil
de
una
lámpara
industrial,
en
miles
de
horas,
se
distribuye
exponencialmente
con
tasa
de
falla
λ=1/3
(una
falla
cada
3000
horas,
en
promedio).
La
probabilidad
de
que
la
lámpara
dure
más
de
esta
vida
útil
está
dada
por
! ! > 3 = 1 − ! ! ≤ 3
[ SIMULACIÓN ] 11
La
función
de
distribución
acumulada
está
dada
por
0 ! < !
!!!
F(X)
=
!!! ! ≤ ! < !
1 ! ≥ !
Su
media
y
varianza,
están
dadas
respectivamente
por
!+!
! ! =
2
(! − !)!
!"# ! =
12
La
distribución
uniforme
juega
un
papel
importante
en
simulación.
Los
números
aleatorios,
distribuidos
uniformemente
entre
0
y
1,
proveen
los
medios
básicos
para
generar
eventos
aleatorios.
Estos
números
aleatorios
se
usan
para
generar
muestras
de
variables
aleatorias
de
otras
distribuciones
de
probabilidad.
12
[ POLITÉCNICO GANCOLOMBIANO]
Se
puede
demostrar,
en
efecto,
que
si
se
realizan
N
experimentos
independientes
de
Bernoulli
de
parámetro
p,
para
un
valor
de
N
suficientemente
grande,
se
obtiene:
La
aproximación
anterior
dio
lugar
a
la
definición
de
una
VA
continua
conocida
como
la
distribución
Normal
de
parámetros
µ
y
σ,
cuya
función
de
probabilidad
está
dada
por
Esta
expresión
no
se
puede
evaluar
mediante
métodos
numéricos
tradicionales;
de
hecho
estos
métodos
se
podrían
aplicar
pero
la
integral
debería
evaluarse
para
cada
par
(µ,
σ).
Sin
embargo,
una
transformación
de
variables,
z
=
(x-‐
µ)/
σ,
permite
la
evaluación
de
esa
integral,
independiente
de
dichos
valores.
Si
!~! !, ! , !"# ! = (! − !)/!,
para
obtener:
⎛ x − µ ⎞
F ( x) = P( X ≤ x ) = P⎜ Z ≤ ⎟
⎝ σ ⎠
( x−µ ) / σ 1 −z2 / 2 z 1 −t 2 / 2
= e dz donde Φ( z ) = ∫ e dt
∫
−∞
2π
−∞
2π
( x−µ ) / σ
= φ ( z )dz = Φ ( xσ− µ )
∫
− ∞
La
función
Φ(z)
es
la
función
de
distribución
de
probabilidad
de
una
VA
normal
con
media
cero
y
varianza
1.
A
esta
distribución
se
le
conoce
como
la
distribución
normal
estándar,
y
ha
sido
tabulada
en
distintos
formatos
para
una
mejor
comprensión
y
resolución
de
situaciones
que
involucren
VA
normales.
[ SIMULACIÓN ] 13
Dentro
de
los
recursos
adicionales
encontrará
la
tabla
donde
se
resumen
los
valores
que
toma
la
distribución
normal
estándar.
Ejemplo
El
tiempo
requerido
en
horas
para
cargar
un
container
se
distribuye
normalmente
con
media
=
12
y
varianza
=
4.
La
probabilidad
de
que
el
container
se
cargue
en
menos
de
10
horas,
estaría
dada
por
⎛ 10 − 12 ⎞
F (10) = Φ⎜ ⎟ = Φ(−1) = 0.1587
⎝ 2 ⎠
14
[ POLITÉCNICO GANCOLOMBIANO]
SIMULACIÒN
Análisis de datos de Entrada
1. Índice
1. Introducción
2. Identificación
gráfica
de
distribuciones
de
probabilidad
adecuadas
2.1. Histogramas
2.2. Q-‐Q
Plot
2.3. P-‐P
Plot
3. Pruebas
de
bondad
de
ajuste
3.1. Prueba
Chi
Cuadrado
3.2. Prueba
Kolmogorov-‐Smirnov
Interpretación
P-‐Value
2. Introducción
El
propósito
del
presente
documento
es
presentar
a
los
estudiantes
las
herramientas
gráficas
y
analíticas
para
llevar
a
cabo
un
correcto
análisis
de
los
datos
de
entrada,
donde
se
tenga
muy
presente
que
son
estos
los
que
alimentarán
el
modelo
de
simulación
a
construir
y,
que
por
lo
tanto,
tendrán
una
alta
influencia
en
los
resultados
que
se
reporten
después
de
haber
corrido
la
simulación.
Por
otra
parte,
teniendo
en
cuenta
que
el
objetivo
general
del
módulo
es
que
los
estudiantes
desarrollen
las
capacidades
necesarias
para
llevar
a
cabo
un
estudio
completo
de
simulación,
en
esta
unidad
se
presentarán
las
herramientas
fundamentales
para
realizar
el
análisis
de
entrada,
así
como
herramientas
computacionales
que
permite
su
realización
casi
de
forma
automática.
Finalmente,
se
presentará
al
estudiante
una
serie
de
ejercicios
relacionados
para
reforzar
los
conocimientos
adquiridos
en
el
desarrollo
del
módulo.
3. Objetivo
general
Al
finalizar
el
módulo,
los
estudiantes
sabrán
cuáles
son
las
herramientas
gráficas
para
llevar
a
cabo
un
análisis
de
datos
de
entrada,
así
como
sabrán
emplear,
de
forma
adecuada,
las
pruebas
analíticas
para
alimentar
el
modelo
de
simulación
que
se
esté
construyendo.
Al
finalizar
la
tercera
semana
de
aprendizaje:
1. El
estudiante
entenderá
la
importancia
de
realizar
un
análisis
de
datos
de
entrada.
2. El
estudiante
conocerá
las
distintas
metodologías
para
ejecutar
un
correcto
análisis
de
la
información
de
entrada.
2
[ POLITÉCNICO GRANCOLOMBIANO]
4. Desarrollo
temático
4.1
Recomendaciones
académicas
Se
recomienda
al
estudiante
realizar
la
lectura
de
la
cartilla,
en
la
que
se
encuentra
toda
la
información
relevante
que
se
evaluará
en
la
semana.
Adicional,
se
recomienda
al
estudiante
revisar
las
teleconferencias,
así
como
las
video
-‐diapositivas,
pues
estas
son
un
medio
para
aclarar
las
dudas
generadas
con
la
lectura
y
dar
soporte
a
los
temas
expuestos
en
la
misma.
Finalmente,
se
recomienda
al
estudiante
realizar
los
ejercicios
planteados
y
sugeridos
por
el
tutor,
ya
que
estos,
a
pesar
de
no
tener
un
valor
porcentual
en
la
nota,
si
harán
que
su
formación
sea
completa
y
pueda
ser
reforzada
de
forma
práctica.
4.2
Desarrollo
de
cada
una
de
las
unidades
temáticas
1. Introducción
[ SIMULACIÓN ] 3
2.1. Histogramas
1. Dividir
el
rango
de
datos
en
intervalos,
generalmente
de
igual
amplitud
2. Marcar
el
eje
horizontal
del
gráfico
para
conformar
los
intervalos
3. Encontrar
la
frecuencia
de
ocurrencias
dentro
de
cada
intervalo
4. Marcar
en
el
eje
vertical
del
gráfico
el
total
de
ocurrencias
de
cada
intervalo
4
[ POLITÉCNICO GRANCOLOMBIANO]
Al
igual
que
los
histogramas,
los
gráficos
Cuantil
–
Cuantil
o
Q-‐Q
plot
dan
una
idea
gráfica
del
posible
comportamiento
que
pueden
seguir
los
datos
de
entrada
que
se
estén
analizando.
La
diferencia
principal
de
un
histograma
y
un
Q-‐Q
plot
es
que
los
segundos
no
muestran
propiamente
el
comportamiento
de
la
distribución,
si
no
que
muestra
la
relación
de
los
cuantiles
de
la
distribución
que
se
sospecha
siguen
los
datos
con
la
distribución
real,
y
a
partir
de
dicha
relación
es
posible
realizar
conclusiones.
Estrictamente
hablando,
un
cuantil
se
define
de
la
siguiente
manera:
Sea
X
es
una
variable
aleatoria
(VA)
con
función
acumulada
de
probabilidad
Fx(x),
entonces
el
q-‐cuantil
de
X
es
aquel
valor
!
tal
que
! ! = ! ! ≤ ! = !.
Luego,
! = ! !! (!).
Ahora
bien,
al
partir
de
este
concepto,
se
presenta
a
continuación
el
algoritmo
(metodología)
a
desarrollar
para
obtener
los
cuantiles
y,
por
lo
tanto,
la
gráfica
que
propone
la
herramienta
debe
realizarse:
[ SIMULACIÓN ] 5
! − 0.5
!! ≅ ! !!
!
!!!.!
4. Graficar
yj
v.s.
! !! !
Supóngase
que
se
ha
escogido
una
distribución
con
función
F
como
una
posible
representación
de
la
distribución
de
X.
Si
F
es
un
miembro
de
una
familia
apropiada
de
distribuciones,
entonces
la
gráfica
de
yj
versus
F-‐1
será
aproximadamente
una
línea
recta.
Ejemplo
Se
tienen
los
siguientes
diez
datos
y
se
sospecha
que
siguen
una
distribución
normal
con
media
=
100
y
desviación
estándar
=
13
105
91
103
83
71
120
100
135
123
9
0
Con
base
en
la
metodología
anterior,
el
primer
paso
consiste
en
ordenarlos
de
menor
a
mayor,
así:
j
Yj
1
71
2
83
3
90
4
91
5
100
6
103
7
105
8
120
9
123
10
135
El
segundo
paso
es
asignarle
una
probabilidad
de
acuerdo
a
la
expresión
(j-‐0.5)/n:
j
Yj
Probabilidad
1
71
0,05
2
83
0,15
3
90
0,25
4
91
0,35
5
100
0,45
6
[ POLITÉCNICO GRANCOLOMBIANO]
6
103
0,55
7
105
0,65
8
120
0,75
9
123
0,85
10
135
0,95
El
tercer
paso
es
calcular
la
función
inversa
para
cada
una
de
las
probabilidades
asignadas
en
el
paso
anterior.
Como
en
este
caso
se
sospecha
que
los
datos
siguen
una
distribución
normal
con
media
=
100
y
desviación
estándar
=
13,
debe
calcularse
la
inversa
de
una
distribución
normal.
Probabilid Función
j
Yj
ad
inversa
1
71
0,05
78,616903
2
83
0,15
86,526366
3
90
0,25
91,231633
4
91
0,35
94,990834
5
100
0,45
98,366402
6
103
0,55
101,633598
7
105
0,65
105,009166
8
120
0,75
108,768367
9
123
0,85
113,473634
10
135
0,95
121,383097
Nota:
si
por
ejemplo,
se
hubiese
dicho
que
se
sospechaba
que
los
datos
seguían
una
distribución
exponencial,
los
pasos
1
y
2
se
debían
haber
realizado
de
la
misma
forma,
pero
en
el
paso
tres
debería
haberse
calculado
la
inversa
de
una
distribución
exponencial
y
no
de
la
normal,
es
decir,
la
función
inversa
se
calcula
con
base
en
la
distribución
de
probabilidad
que
se
sospecha
siguen
los
datos.
[ SIMULACIÓN ] 7
140
120
100
80
60
40
20
0
0 20 40 60 80 100 120 140 160
La
columna
denominada
Probabilidad,
corresponde
al
cálculo
del
cuantil
respectivo.
Por
!!!/!
ejemplo,
para
j
=
1,
al
reemplazar
en
la
expresión
! ,
da
como
resultado
0,05,
para
n
=
10.
La
columna
de
Función
Inversa,
se
puede
calcular
utilizando
Excel,
mediante
la
función
DISTR.NORM.INV,
con
parámetros:
media
=
100;
desviación
estándar
=
13;
probabilidad
=
la
recién
calculada
para
cada
uno
de
los
datos.
Cabe
anotar
que
la
decisión
de
aceptar
o
rechazar
la
hipótesis
es
subjetiva,
por
cuanto
la
apreciación
de
la
gráfica
y
el
ajuste
de
los
puntos
a
una
línea
recta
parten
de
simple
observación.
Al
igual
que
con
el
diagrama
Q-‐Q,
el
diagrama
P-‐P
permite
evaluar
un
conjunto
de
datos
mediante
la
comparación
de
una
distribución
teórica
de
probabilidad.
Su
principal
diferencia
con
respecto
al
diagrama
anteriormente
descrito,
radica
en
que
los
valores
a
contrastar
corresponden
al
cuantil
calculado
versus
la
función
de
distribución
acumulada.
Si
los
datos
corresponden
a
la
distribución
teórica
que
se
está
probando,
la
nube
de
puntos
debe
aproximarse
a
una
línea
recta.
Ahora
bien,
a
partir
de
lo
anterior,
se
presenta,
a
continuación,
el
algoritmo
(metodología)
a
desarrollar
para
obtener
los
percentiles
y,
por
lo
tanto,
la
gráfica
que
propone
la
herramienta
debe
realizarse:
8
[ POLITÉCNICO GRANCOLOMBIANO]
2. Asignar
una
probabilidad
de
ocurrencia
a
cada
uno
de
los
datos
recolectados,
dicha
probabilidad
es
asignada
de
acuerdo
a
la
expresión
(j-‐0.5)/n
3. Calcular
la
probabilidad
“real”
de
que
se
de
cada
uno
de
los
valores
de
los
datos
que
se
recolectaron.
En
otras
palabras:
!! !!
!!!.!
4. Graficar
!
v.s.
!! !!
Ejemplo
Se
tienen
los
siguientes
diez
datos,
y
se
sospecha
que
siguen
una
distribución
normal
con
media
=
100
y
desviación
estándar
=
13
105
91
103
83
71
120
100
135
123
9
0
Con
base
en
la
metodología
anterior,
el
primer
paso
consiste
en
ordenarlos
de
menor
a
mayor,
así:
j
Yj
1
71
2
83
3
90
4
91
5
100
6
103
7
105
8
120
9
123
10
135
El
segundo
paso
es
asignarle
una
probabilidad
de
acuerdo
a
la
expresión
(j-‐0.5)/n:
j
Yj
Probabilidad
1
71
0,05
2
83
0,15
3
90
0,25
4
91
0,35
5
100
0,45
6
103
0,55
[ SIMULACIÓN ] 9
7
105
0,65
8
120
0,75
9
123
0,85
10
135
0,95
El
tercer
paso
es
calcular
la
probabilidad
real
para
cada
uno
de
los
valores
de
los
datos
ordenados
en
el
paso
1.
Como
en
este
caso
se
sospecha
que
los
datos
siguen
una
distribución
normal
con
media
=
100
y
desviación
estándar
=
13,
debe
calcularse
la
probabilidad
de
los
yj
con
esta
distribución.
Probabilida
j
Yj
d
Acumulada
1
71
0,05
0,01284821
0,0954888
2
83
0,15
5
3
90
0,25
0,22087816
0,2443720
4
91
0,35
6
5
100
0,45
0,5
6
103
0,55
0,59125296
7
105
0,65
0,6497388
8
120
0,75
0,9380321
9
123
0,85
0,96157231
0,9964520
10
135
0,95
3
Nota:
si
por
ejemplo
se
hubiese
dicho
que
se
sospechaba
que
los
datos
seguían
una
distribución
exponencial,
los
pasos
1
y
2
se
debían
haber
realizado
de
la
misma
forma,
pero
en
el
paso
tres
debería
haberse
calculado
la
probabilidad
con
una
distribución
exponencial
y
no
de
la
normal,
es
decir,
la
probabilidad
se
calcula
con
base
en
la
distribución
de
probabilidad
que
se
sospecha
siguen
los
datos.
10
[ POLITÉCNICO GRANCOLOMBIANO]
1,2
0,8
0,6
0,4
0,2
0
0 0,2 0,4 0,6 0,8 1
Las
pruebas
de
bondad
de
ajuste
son
pruebas
de
hipótesis
que
permiten
evaluar
la
idoneidad
de
un
conjunto
de
datos,
dada
una
distribución
teórica
de
probabilidad
donde
se
podrían
ajustar.
Como
toda
prueba
de
hipótesis,
esta
comienza
con
el
enunciado
de
la
hipótesis
nula
y
alternativa.
La
hipótesis
nula
afirma
que
la
variable
aleatoria
que
describe
el
conjunto
de
datos,
se
distribuye
según
la
función
de
probabilidad
propuesta,
mientras
que
la
hipótesis
alternativa
contradice
tal
afirmación.
Nota:
Las
pruebas
de
hipótesis
corresponden
a
procesos
de
toma
de
decisión
estadísticos.
El
modelador
formula
dos
hipótesis
complementarias,
llamadas
la
hipótesis
nula
(denotada
por
H0)
y
la
hipótesis
alternativa
(denotada
por
H1).
Generalmente,
una
decisión
se
asocia
a
la
hipótesis
nula,
la
cual
puede
ser
aceptada
o
rechazada.
Consecuentemente,
se
pueden
generar
dos
tipos
de
error:
El
objetivo
de
las
pruebas
de
hipótesis
es
rechazar
(o
aceptar
H0)
de
tal
manera
que
si
H0
es
en
realidad
verdadera,
entonces
la
probabilidad
de
rechazarla
erróneamente
(error
tipo
I),
no
exceda
un
valor
de
probabilidad
previamente
definido,
α,
el
cual
es
llamado
nivel
de
confianza
o
nivel
de
significancia.
Mientras
más
pequeño
es
α,
más
alta
es
la
confianza
en
la
decisión
de
rechazo
correspondiente.
[ SIMULACIÓN ] 11
Para
realizar
esta
prueba
se
disponen
los
datos
en
una
tabla
de
frecuencias.
Para
cada
valor
o
intervalo
de
valores
se
indica
la
frecuencia
absoluta
observada
(Oi).
A
continuación,
y
suponiendo
que
la
hipótesis
nula
es
cierta,
se
calculan
para
cada
valor
o
intervalo
de
valores,
la
frecuencia
esperada
(Ei=n·∙pi,
donde
n
es
el
tamaño
de
la
muestra
y
pi
la
probabilidad
del
i-‐
ésimo
valor
o
intervalo
de
valores
según
la
hipótesis
nula).
Para
emplear
esta
metodología
que
es
analíticamente
más
confiable
que
los
histogramas
o
gráficos
P-‐P
y
Q-‐Q,
es
necesario
calcular
un
estadístico
de
prueba.
Dicho
estadístico
se
calcula
con
base
en
la
frecuencia
observada
y
frecuencia
esperada,
así:
!
!! − !! !
!=
!!
!!!
Este
estadístico
tiene
una
distribución
Chi-‐cuadrado
con
k-‐1
grados
de
libertad
si
n
es
suficientemente
grande,
es
decir,
si
todas
las
frecuencias
esperadas
son
mayores
que
5.
Si
existe
concordancia
perfecta
entre
las
frecuencias
observadas
y
las
esperadas,
el
estadístico
tomará
un
valor
igual
a
0;
por
el
contrario,
si
existe
una
gran
discrepancia
entre
estas
frecuencias,
el
estadístico
tomará
un
valor
grande
y,
en
consecuencia,
se
rechazará
la
hipótesis
nula.
Así
pues,
la
región
crítica
estará
situada
en
el
extremo
superior
de
la
distribución
Chi-‐cuadrado
con
k-‐1
grados
de
libertad.
Ejemplo
La
distribución
de
los
ingresos
anuales
en
dólares
de
una
muestra
de
100
familias,
que
habitan
en
cierta
población
presentó
los
siguientes
resultados:
Ingresos
anuales
en
miles
de
Frecuencia
Observada
dólares
(Oi)
40
≤
x
≤
60
12
60
<
x
≤
80
8
80
<x
≤
100
25
100
<x
≤
120
30
120
<x
≤
140
25
Puede
admitirse
que
los
ingresos
de
las
familias
que
habitan
en
dicha
población
sigue
una
distribución
uniforme
en
el
intervalo
[40.000
–
140.000]
con
un
nivel
de
significancia
del
5%.
Dado
que
ya
se
tienen
las
frecuencias
observadas,
el
siguiente
paso
es
calcular
la
frecuencia
esperada
Ei,
se
debe
que
esta
siempre
será
igual
a
pi·∙n,
donde
n
es
el
número
total
de
12
[ POLITÉCNICO GRANCOLOMBIANO]
[ SIMULACIÓN ] 13
Al
tener
los
valores
de
la
frecuencia
observada
y
de
la
frecuencia
esperada,
es
posible
realizar
el
cálculo
del
estadístico
recordando
que
este
es
igual
a
!
!! − !! !
!=
!!
!!!
Se
obtienen,
entonces,
los
siguientes
resultados:
Ingresos
anuales
Frecuencia
Probabilida Frecuencia
(Oi-‐Ei)2/Ei
en
miles
de
Observada
d
Esperada
(Ei)
dólares
(Oi)
40
≤
x
≤
60
12
0,2
20
3.2
60
<
x
≤
80
8
0,2
20
7.2
80
<x
≤
100
25
0,2
20
1.25
100
<x
≤
120
30
0,2
20
5
120
<x
≤
140
25
0,2
20
1.25
Y
=
17.9
Una
vez
obtenido
el
estadístico,
este
deberá
compararse
con
el
valor
Chi2
de
la
tabla
Chi2.
Para
calcular
este
valor,
recuerde
que
debe
tenerse
presente
el
nivel
de
significancia
con
que
se
realizó
la
prueba
y
los
grados
de
libertad.
Para
este
ejemplo
en
específico
se
sugirió
que
alfa
fuera
igual
a
0.05
y
los
grados
de
libertad
siempre
serán
iguales
al
número
de
clases
menos
1,
es
decir,
que
para
el
ejercicio
los
grados
de
libertad
serían
df
=
5-‐1
=
4
Al
observar
la
tabla
de
la
Chi2
,
apreciamos
que
el
resultado
es:
Finalmente,
para
concluir,
si
se
rechaza
o
no
la
hipótesis
de
que
la
distribución
de
los
ingresos
anuales
de
dichas
familias
siguen
una
distribución
entre
[40.000
–
140.000],
se
deben
comparar
los
valores
del
estadístico
calculado
Y
y
los
de
la
tabla
Chi2,
así:
14
[ POLITÉCNICO GRANCOLOMBIANO]
- Si
el
estadístico
Y
es
menor
al
valor
en
tabla
de
la
Chi2,
entonces
no
se
rechaza
la
hipótesis
nula
de
lo
contrario
se
rechaza
Para
este
ejemplo
en
particular,
dado
que
Y
=
17.9
no
es
menor
a
9.48,
entonces
se
debe
rechazar
la
hipótesis
nula
y,
por
lo
tanto,
se
concluye
que
el
ingreso
anual
de
las
familias
no
sigue
una
distribución
uniforme
ente
[40.000
–
140.000].
[ SIMULACIÓN ] 15
Se
quiere
comprobar
la
hipótesis
de
que
este
tiempo
sigue
una
distribución
uniforme
con
parámetros
(10,
20)
segundos,
con
un
nivel
de
confianza
del
95%.
De
manera
similar
a
la
elaboración
de
los
diagramas
Q-‐Q
y
P-‐P,
resulta
bastante
útil
la
elaboración
de
una
tabla
para
completar
la
prueba.
D+
=
0,07
D-‐
=
0,33
Entonces,
el
estadístico
de
la
prueba
corresponde
a
0,33.
Se
procede
ahora
a
consultar
la
tabla
de
valores
críticos
de
la
prueba
Kolmogorov-‐Smirnov,
la
cual
se
muestra
a
continuación:
Se
puede
observar
que
el
valor
crítico
equivale
a
0,40925,
para
un
tamaño
de
muestra
n
=
10,
y
un
nivel
de
significancia
del
5%.
Como
este
valor
es
mayor
al
estadístico
de
la
prueba,
no
16
[ POLITÉCNICO GRANCOLOMBIANO]
existe
suficiente
evidencia
estadística
para
rechazar
la
hipótesis
de
que
los
datos
se
distribuyen
uniformemente.
4. Interpretación P-‐Value
Otra
forma
de
determinar
si
se
rechaza
o
no
una
hipótesis
sin
emplear
directamente
los
estimadores,
es
a
través
del
concepto
de
P-‐value
(esta
metodología
es
la
que
suelen
emplear
la
gran
mayoría
de
software
estadísticos
capaces
de
realizar
análisis
de
entrada).
El
P-‐Value
corresponde
al
área
superior
derecha
a
partir
del
estadístico
de
prueba,
es
decir,
es
la
probabilidad
acumulada
que
existe
después
del
estadístico
de
prueba.
Por
ejemplo,
para
el
caso
de
la
prueba
Chi2
realizada
en
el
ejemplo,
podemos
ver
que
el
p-‐value
corresponde
al
área
amarilla
+
área
azul:
Con
base
en
este
análisis,
las
conclusiones
se
tomarían
así:
Si
el
p-‐value
es
menor
que
el
nivel
de
significancia,
entonces
se
debe
rechazar
la
hipótesis
nula,
de
lo
contrario
no
se
rechaza.
[ SIMULACIÓN ] 17
SIMULACIÓN
Modelos de Líneas de Espera
1. Índice
1. Introducción
2. Características
de
los
sistemas
de
colas
2.1. Notación
de
Kendall
2.2. Nomenclatura
básica
3. Ley
de
Little
4. Sistemas
de
Colas
Markovianas
4.1. M/M/1
4.2. M/M/c
4.3. M/M/c/k
5. Sistemas
de
Colas
No
Markovianas
5.1. G/G/1
G/G/k
2. Introducción
El
propósito
del
presente
documento
es
presentar
a
los
estudiantes
un
repaso
de
los
conceptos
básicos
de
los
modelos
de
líneas
de
espera
o
teoría
de
colas,
para
desarrollar
sobre
unas
bases
teóricas,
modelos
de
simulación
de
eventos
discretos,
que
permitan
analizar
los
sistemas,
especialmente,
aquellos
que
resultan
complejos
y,
que
por
lo
tanto,
pueden
ser
estudiados,
más
fácilmente,
a
través
de
la
simulación.
Por
otra
parte,
teniendo
en
cuenta
que
el
objetivo
general
del
módulo
es
que
los
estudiantes
desarrollen
las
capacidades
necesarias
para
llevar
a
cabo
un
estudio
completo
de
simulación,
en
esta
unidad,
se
presentarán
diferentes
modelos
para
realizar
en
Arena®,
para
así
afianzar
las
habilidades,
que
como
analista,
se
debe
desarrollar.
Finalmente,
se
presentará
una
serie
de
ejercicios
relacionados
para
reforzar
los
conocimientos
adquiridos
en
el
desarrollo
del
módulo.
3. Objetivo
General.
Al
finalizar
el
módulo,
los
estudiantes
sabrán
cuáles
son
los
principales
sistemas
de
colas
y
cómo
el
análisis
de
las
diferentes
medidas
de
desempeño
presentes
en
los
mismos,
se
encuentran
estrechamente
relacionados
con
la
simulación
de
eventos
discretos.
Al
finalizar
la
segunda
semana
de
aprendizaje:
1. El estudiante identificará las características principales de un sistema de colas.
2
[ POLITÉCNICO GRANCOLOMBIANO]
2. El
estudiante
reconocerá
cuales
son
los
diferentes
sistemas
de
colas
que
se
pueden
resolver
de
forma
analítica
y
a
través
de
simulación
de
eventos
discretos.
3. El
estudiante
sabrá
calcular
diferentes
medidas
de
desempeño
sobre
los
sistemas
de
colas
y
reconocerá
la
utilidad
de
la
simulación
de
eventos
discretos
para
la
estimación
de
dichos
indicadores.
4. Desarrollo
temático
4.1
Recomendaciones
académicas
Se
recomienda
al
estudiante
realizar
la
lectura
de
la
cartilla,
en
la
cual
se
encuentra
toda
la
información
relevante
que
se
evaluará
en
la
semana.
Adicional,
se
recomienda
revisar
las
teleconferencias,
así
como
las
video
diapositivas,
pues
estas
son
un
medio
que
pueden
aclarar
las
dudas
generadas
con
la
lectura,
o
también
dar
soporte
a
los
temas
expuestos
en
la
misma.
Finalmente,
se
recomienda
al
estudiante
realizar
los
ejercicios
planteados
y
sugeridos
por
el
tutor,
ya
que
estos,
a
pesar
de
no
tener
un
valor
porcentual
en
la
nota,sí
harán
que
la
formación
sea
completa
y
pueda
ser
reforzada
de
forma
práctica.
1. Introducción
La
teoría
de
colas
es
un
campo
de
estudio
de
la
investigación
de
operaciones,
que
se
encarga
de
estudiar
las
esperas.
Teniendo
en
cuenta
esto,
debemos
pensar
que:
La
respuesta
es
casi
siempre
simple,
en
algún
momento,
la
capacidad
de
servicio
ha
sido
(o
es)
menor
que
la
capacidad
demandada.
Generalmente,
esta
limitación
se
puede
eliminar
invirtiendo
en
elementos
que
aumenten
la
capacidad.
¿Invertir?
¿Cuánto?
La
teoría
de
colas
intenta
responder
a
estas
preguntas
mediante
los
análisis
matemáticos
detallados.
Ahora
bien,
¿por
qué
hay
cola?,
matemáticamente
podemos
explicarlo
así:
[ SIMULACIÓN ] 3
Con
el
objetivo
de
poder
realizar
un
análisis
de
los
sistemas
de
líneas
de
espera
o
cola,
se
han
identificado
unas
características
relevantes
en
los
mismos,
a
continuación,
el
gráfico
presenta
de
forma
esquemática
dichas
características:
4
[ POLITÉCNICO GRANCOLOMBIANO]
1. Patrón
de
llegada
de
los
clientes
• Generalmente
la
llegada
es
estocástica
(depende
de
cierta
V.A).
• Hay
que
tener
en
cuenta
la
impaciencia
de
los
clientes.
• Si
patrón
el
de
llegada
no
varía
con
el
tiempo
se
dice
estacionario.
2. Patrones
de
servicio
• Asignación
de
funciones
de
probabilidad
• Variabilidad
de
acuerdo
al
número
de
clientes
en
cola
(patrones
de
servicio
dependientes)
3. Disciplina
de
la
cola
• FIFO:
el
primero
que
entra
es
el
primero
que
sale.
• LIFO:
el
último
que
entra
es
el
primero
que
sale.
• Reglas
de
prioridad,
como
el
Triage
empleado
por
urgencias
en
los
hospitales.
6. Etapas
de
servicio
[ SIMULACIÓN ] 5
La
notación
de
Kendall
fue
propuesta
con
el
objetivo
de
resumir
las
características
de
los
sistemas
de
colas,
específicamente
aquellos
que
se
caracterizan
porque
sus
servidores
se
encuentran
dispuestos
de
forma
paralela.
Dicha
notación
consta
de
6
componentes
1/2/3/4/5/6.
El
primero,
hace
referencia
al
tipo
de
distribución
de
probabilidad
que
siguen
los
tiempos
entre
arribos,
el
segundo,
a
la
distribución
de
probabilidad
que
siguen
los
tiempo
de
servicio,
el
tercero,
al
número
de
servidores
del
sistema,
el
cuarto,
a
la
disciplina
del
servicio,
el
quinto,
a
la
capacidad
de
la
cola
y
el
sexto,
al
tamaño
de
la
población.
Como
mínimo
para
describir
un
sistema
de
colas,
se
requiere
de
por
lo
menos
de
los
tres
primeros
componentes.
Los
dos
primeros
componentes,
a
su
vez,
tienen
una
notación
característica:
Si
en
la
posición
1
o
2
aparece
una
letra
D,
se
dice
que
el
tiempo
entre
arribos
o
de
servicio,
respectivamente,
es
determinístico,
por
el
contrario,
si
aparece
una
M,
se
dice
que
el
tiempo
entre
arribos
o
servicio
es
exponencial,
si
aparece
una
letra
G,
se
dice
que
el
tiempo
entre
arribos
o
servicio
es
general,
es
decir,
que
sigue
una
distribución
diferente
a
la
exponencial
o
a
la
Erlang.
Por
ejemplo,
la
notación
M/M/1
indicaría
que
el
sistema
tiene
un
tiempo
entre
arribos
que
se
distribuye
exponencial,
un
tiempo
de
servicio
que
también
se
distribuye
exponencial
y
que
el
número
de
servidores
en
paralelo
es
1.
Con
el
objetivo
de
que
el
análisis
de
sistemas
de
líneas
de
espera
sea
unificado
(que
todos
hablemos
el
mismo
idioma),
se
ha
definido
la
siguiente
nomenclatura
básica:
!: !"#" !" !""#$%& !" !"# !"#$%&$' !" !"!#$%& (!!"#$%$&/!"#. !"#$%&)
!: !"#" !" !"#$%&%' !"#$%&%'! !"#. !"#$%&
!: !"#$%& !" !"#$%&'#"! !" !"#"$%$&
!! : !"#$%& !"#$%&'# !" !"#$%&%'
!! : !"#$%& !"#$%&'# !" !"#$
!: !"#$%& !"#$%&'# !" !" !" !"#$
!! : !"#$%& !"#$%&'# !" !"#$%&%!' !" !"#$%&%'
!! : !"#$%& !"#$%&'# !" !"#$%&%!' !" !"#$
!: !"#$%& !"#$%&'# !" !"#$%&%!' !" !" !"!#$%&
!: !"# !" !"#$#%&'#ó! !"# !"!#$%&
6
[ POLITÉCNICO GRANCOLOMBIANO]
La
ley
de
Little
es
una
ecuación
que
establece
la
relación
entre
la
tasa
de
arribos
(que
es
un
parámetro),
el
número
promedio
de
clientes
(medida
de
desempeño)
y
el
tiempo
promedio
(medida
de
desempeño).
Gracias
a
esta
relación
es
posible
estimar
las
diferentes
medidas
de
desempeño
del
sistema
y,
por
lo
tanto,
evaluar
que
tan
bien
o
que
tan
mal
está
funcionando.
Con
base
en
lo
anterior,
la
ley
de
Little
se
define
como:
! = !"
!! = !!!
!! = !!!
Adicional
a
esta
ley,
siempre
se
va
a
cumplir
las
siguientes
relaciones:
! = !! + !!
! = !! + !!
!! = 1/!
Con
base
en
la
notación
de
Kendall,
se
sabe
que
el
sistema
aquí
expuesto
se
caracteriza
por
tener
tiempo
entre
arribos
exponenciales,
tiempo
de
servicio
exponencial
y
un
único
servidor.
La
condición
de
estabilidad
para
este
sistema
está
dada
por:
!
! < ! = < 1
!
[ SIMULACIÓN ] 7
Con
base
en
la
notación
de
Kendall,
se
sabe
que
el
sistema
aquí
expuesto
se
caracteriza
por
tener
tiempo
entre
arribos
exponenciales,
tiempo
de
servicio
exponencial
y
c
servidores.
La
condición
de
estabilidad
para
este
sistema
está
dada
por:
! < !"
La
probabilidad
de
que
hayan
0
entidades
en
el
sistema
está
dado
por:
1
!! =
!/! ! !/! !
!!!
+
!!! !! !
!! 1 − !"
La
probabilidad
de
que
hayan
n
entidades
en
el
sistema
está
dada
por:
8
[ POLITÉCNICO GRANCOLOMBIANO]
!!
! 1 ≤ ! ≤ !
!! ! ! !
!! =
!!
! ! ≥ !
! !!! !! ! ! !
Las
medidas
de
desempeño
para
este
sistema
son:
Número
promedio
de
Número
promedio
de
Número
promedio
de
entidades
en
servicio
entidades
en
cola
entidades
en
el
sistema
! !/! ! !
!! =
!! = !
! = !! + !!
! !! 1 − ! ! !
Tiempo
promedio
de
Tiempo
promedio
de
Tiempo
promedio
de
una
entidad
en
el
una
entidad
en
servicio
una
entidad
en
cola
sistema
1 !/! !
!! =
!! = !!
! = !! + !!
! !! !" 1 − ! !
Nota:
Recuerde
que
estas
medidas
de
desempeño
también
pueden
calcularse
con
base
en
las
relaciones
establecidas
en
el
apartado
referente
a
la
Ley
de
Little.
Por
otra
parte
la
tasa
de
utilización
del
sistema
estará
dada
por:
!
! =
!"
4.3. M/M/c/k
Con
base
en
la
notación
de
Kendall,
se
sabe
que
el
sistema
aquí
expuesto
se
caracteriza
por
tener
tiempo
entre
arribos
exponenciales,
tiempo
de
servicio
exponencial,
c
servidores
y
una
capacidad
para
k
entidades.
La
condición
de
estabilidad
para
este
sistema
está
dada
por:
! < !"
La
probabilidad
de
que
hayan
0
entidades
en
el
sistema
está
dado
por:
[ SIMULACIÓN ] 9
1
! ≠ 1
!!! ! ! ! ! ! ! 1 − !/!" !!!!!
!!! !! + !! 1 − !/!"
!! = 1
! = 1
! ! ! ! ! !
!!!
!!! !! + !! !−!+1
La
probabilidad
de
que
hayan
n
entidades
en
el
sistema
está
dada
por:
!!
! 1 ≤ ! ≤ !
!! ! ! !
!! =
!!
! ! ≤ ! ≤ !
! !!! !! ! ! !
Las
medidas
de
desempeño
para
este
sistema
son:
Número
promedio
de
Número
promedio
de
entidades
en
servicio
entidades
en
el
sistema
! !
!! = (1 − !! )
! = !! + (1 − !! )
! !
Tiempo
promedio
de
Tiempo
promedio
de
Tiempo
promedio
de
una
entidad
en
el
una
entidad
en
servicio
una
entidad
en
cola
sistema
1 ! 1 !
!! =
!! = −
!=
! !(1 − !! ) ! !(1 − !! )
!!
!! !/! ! !
= !
[1 − !!!!!!
!! 1 − !
− 1 − ! ! − ! + 1 !!!! ]
Nota:
Recuerde
que
estas
medidas
de
desempeño
también
pueden
calcularse
con
base
en
las
relaciones
establecidas
en
el
apartado
referente
a
la
Ley
de
Little.
Por
otra
parte
la
tasa
de
utilización
del
sistema
estará
dada
por:
!
! =
!"
10
[ POLITÉCNICO GRANCOLOMBIANO]
!!! + !!! ! 1
!! = −
2) 1−!!
Donde
!
! =
!
!! : !" !" !"#$%!%#&'# !" !"#$"%$&$'"' !" !"# !""#$%&
!! : !" !" !"#$%!%#&'# !" !"#$"%$&$'"' !"# !"#$%&%'
Recuerde
que
el
coeficiente
de
variabilidad
de
una
variable
aleatoria
cualquiera
se
define
como:
!!
!! =
![!]
Observe
que
multiplicando
ambos
lados
de
la
ecuación
por
lambda
y
usando
la
ley
de
Little
la
formula
anterior
es
equivalente
a:
!!! + !!! !!
!! = −
2 1−!
Nota:
Recuerde
que
estas
medidas
de
desempeño
también
pueden
calcularse
con
base
en
las
relaciones
establecidas
en
el
apartado
referente
a
la
Ley
de
Little.
5.2. G/G/k
Para
este
tipo
de
sistemas
se
emplea
la
aproximación
de
Cunnen
–
Allen
la
cual
establece
lo
siguiente:
[ SIMULACIÓN ] 11
!!! + !!!
!! ≈ − !!,!/!/!
2
Donde
!!,!/!/!
es
el
número
promedio
en
cola
que
se
obtendría
si
las
distribuciones
del
tiempo
entre
arribos
y
del
tiempo
de
servicio
son
exponenciales
La
anterior
aproximación
nos
dice
que
el
tiempo
en
cola
se
puede
estimar
pretendiendo
que
el
sistema
es
markoviano
y
luego
aplicando
un
factor
de
corrección
que
depende
de
la
varianza
de
las
distribuciones
involucradas
12
[ POLITÉCNICO GRANCOLOMBIANO]
SIMULACIÓN
Generación de números y variables aleatorias
• GENERACIÓN DE NÚMEROS Y VARIABLES
ALEATORIAS
1. Índice
1. Introducción
2. Propiedades de los números aleatorios
3. Técnicas de generación de números aleatorios
3.1. Método Lineal de Congruencias
4. Pruebas para números aleatorios
4.1. Prueba de Uniformidad
4.2. Prueba de Independencia
5. Generación de variables aleatorias
5.1. Variables uniformes
5.2. Variables exponenciales
5.3. Variables triangulares
Variables continuas empíricas
2. Introducción
El propósito del presente documento es mostrar a los estudiantes las diferentes técnicas
para generar números aleatorios de forma analítica (sin apoyo de software especializado) y
las técnicas apropiadas para transformar esos números, en variables aleatorias con una
distribución de probabilidad y parámetros definidos.
Por otra parte, en esta unidad se describen los diferentes modelos para realizar en Arena®,
con el fin de cumplir el objetivo general del módulo, el cual radica en que los estudiantes
desarrollen las habilidades necesarias para llevar a cabo un estudio completo de simulación.
Finalmente, se presentará una serie de ejercicios relacionados con las temáticas para
reforzar los conocimientos adquiridos en el desarrollo del módulo.
3. Objetivo general
Al finalizar el módulo, los estudiantes sabrán cuáles son los principales métodos para generar
números aleatorios y transformarlos en variables con una distribución de probabilidad
definida, de igual forma, reconocerán cómo estas técnicas están estrechamente relacionadas
con la simulación de eventos discretos.
2 [ POLITÉCNICO GRANCOLOMBIANO]
Al finalizar la segunda semana de aprendizaje:
4. Desarrollo temático
1. Introducción
En la presente cartilla se darán a los estudiantes las diferentes herramientas para generar
números aleatorios de forma analítica, sin la ayuda de ningún tipo de software y las
herramientas adicionales para transformar dichos números aleatorios, en variables aleatorias
que sigan una distribución probabilística definida.
Dentro de los conceptos básicos relacionados a esta temática, el estudiante estudiará las
principales distribuciones de probabilidad y los parámetros que la caracterizan, pues esto es
fundamental para la transformación de los números aleatorios en variables aleatorias.
[ SIMULACIÓN ] 3
2. Propiedades de los números aleatorios
Para que un conjunto de números pueda ser clasificado como aleatorios deben tener dos
propiedades estadísticas fundamentales:
Ejemplo
2-4-6-8-10-12-14-16
Puede notar dos cosas:
Con base en las propiedades anteriores, la idea es generar una secuencia de números entre
cero y 1 [0,1] que imiten los comportamientos mencionados. Para lograr esto, normalmente,
se emplean funciones deterministas a través de generadores que deben cumplir las
siguientes características:
4 [ POLITÉCNICO GRANCOLOMBIANO]
3.1. Método lineal de congruencias
Esta es una de las rutinas más comunes para generar números aleatorios entre cero y uno.
Para generar dichos números, primero es necesario generar enteros a través de la siguiente
relación recursiva:
Donde:
𝑋0 = 𝑢𝑛 𝑣𝑎𝑙𝑜𝑟 𝑖𝑛𝑖𝑐𝑖𝑎𝑙 𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑜 𝑐𝑜𝑛 𝑒𝑙 𝑛𝑜𝑚𝑏𝑟𝑒 𝑑𝑒 𝑆𝑒𝑚𝑖𝑙𝑙𝑎
𝑚 = 𝑢𝑛 𝑣𝑎𝑙𝑜𝑟 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑜 𝑐𝑜𝑚𝑜 𝑚ó𝑑𝑢𝑙𝑜
𝑚𝑜𝑑𝑢𝑙𝑜 = 𝑒𝑠 𝑙𝑎 𝑜𝑝𝑒𝑟𝑎𝑐𝑖ó𝑛 𝑚𝑜𝑑𝑢𝑙𝑜, 𝑙𝑎 𝑐𝑢𝑎𝑙 𝑑𝑒𝑣𝑢𝑒𝑙𝑣𝑒 𝑒𝑙 𝑟𝑒𝑠𝑖𝑑𝑢𝑜 𝑑𝑒 𝑢𝑛𝑎 𝑑𝑖𝑣𝑖𝑠𝑖ó𝑛
𝑎 = 𝑢𝑛 𝑣𝑎𝑙𝑜𝑟 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑜 𝑐𝑜𝑚𝑜 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝑚𝑢𝑙𝑡𝑖𝑝𝑙𝑖𝑐𝑎𝑡𝑖𝑣𝑎
𝑐 = 𝑢𝑛 𝑣𝑎𝑙𝑜𝑟 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒 𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑜 𝑐𝑜𝑚𝑜 𝑖𝑛𝑐𝑟𝑒𝑚𝑒𝑛𝑡𝑜
Ahora bien vale la pena aclarar que la escogencia de todos estos parámetros a, c, m, X0
afecta directamente las propiedades estadísticas (uniformidad e independencia) y
además la longitud del ciclo (periodo)
Finalmente, para convertir los enteros generados con la relación recursiva presentada
anteriormente en números aleatorios entre cero y uno, basta con dividirlos entre el
módulo m.
Ejemplo
𝑋0 = 27
𝑚 = 100
𝑎 = 17
𝑐 = 43
Solución:
𝑋0 = 27
𝑋0+1 = 𝑋1 = (17 ∗ 27 + 43)𝑚𝑜𝑑𝑢𝑙𝑜 100 = 502 𝑚𝑜𝑑𝑢𝑙𝑜 100 = 2
𝑋1+1 = 𝑋2 = (17 ∗ 2 + 43)𝑚𝑜𝑑𝑢𝑙𝑜 100 = 77 𝑚𝑜𝑑𝑢𝑙𝑜 100 = 77
𝑋2+1 = 𝑋3 = (17 ∗ 77 + 43)𝑚𝑜𝑑𝑢𝑙𝑜 100 = 1352 𝑚𝑜𝑑𝑢𝑙𝑜 100 = 52
[ SIMULACIÓN ] 5
𝑋3+1 = 𝑋1 = (17 ∗ 52 + 43)𝑚𝑜𝑑𝑢𝑙𝑜 100 = 927 𝑚𝑜𝑑𝑢𝑙𝑜 100 = 27
Dado que ya se repitió el primer número, la secuencia para y no se generan más enteros,
pues si lo hiciéramos se volvería a repetir la secuencia, 2, 77, 52,….
Ahora bien, recordemos que los números deben ser entre cero y uno, para ello, de
acuerdo al método, se dividen los enteros calculados (X), nuevamente, entre la constante
m (que para este caso es 100). De acuerdo a esto, tenemos:
27
𝑅0 = = 0,27
100
2
𝑅1 = = 0,02
100
77
𝑅2 = = 0,77
100
52
𝑅3 = = 0,52
100
𝐻0 : 𝑅𝑖 ~𝑈[0,1]
𝐻1 : 𝑅𝑖 ≁ 𝑈[0,1]
Esta prueba ya se había estudiado en la semana 3 del módulo con el nombre prueba
Chí – cuadrado, la única diferencia es que la de uniformidad siempre probará que los
números sigan una distribución uniforme entre cero y uno.
6 [ POLITÉCNICO GRANCOLOMBIANO]
Se recomienda para esta prueba que se generen 4 clases, la primera que contenga
los números entre 0.00 y 0.25, la segunda, entre 0.25 y 0.50, la tercera, entre 0.50 y
0.75 y la última, entre 0,75 y 1.00
𝐻0 : 𝑅𝑖 ~𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠
𝐻1 : 𝑅𝑖 ≁ 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠
𝐻0 : 𝜌𝑖𝑚 = 0
𝐻1 : 𝜌𝑖𝑚 ≠ 0
𝑀
1
𝜌̂𝑖𝑚 = [∑ 𝑅𝑖+𝑘𝑚 𝑅𝑖+(𝑘+1)𝑚 ] − 0.25
𝑀+1
𝑘=0
√13𝑀 + 7
𝜎𝜌̂𝑖𝑚 =
12(𝑀 + 1)
El cuarto paso es calcular un estadístico de prueba, tal como se hace con la prueba
chi-cuadrado. En el caso de esta prueba, el estadístico está dado por la expresión:
𝜌̂𝑖𝑚
𝑍0 =
𝜎𝜌̂𝑖𝑚
[ SIMULACIÓN ] 7
Si el valor del estadístico está entre la zona blanca, no se rechaza la hipótesis nula y,
por tanto, se concluye que el conjunto de números aleatorios cumple con la
propiedad de independencia. Por otra parte, si el valor del estadístico cae en
cualquiera de las dos zonas achuradas, se rechaza la hipótesis nula y se concluye que
los números aleatorios no cumplen con la propiedad de independencia.
Ejemplo
0,12 0,01 0,23 0,28 0,89 0,31 0,64 0,28 0,83 0,93
0,99 0,15 0,33 0,35 0,91 0,41 0,6 0,27 0,75 0,88
0,68 0,49 0,05 0,43 0,95 0,58 0,19 0,36 0,69 0,87
𝑚 = 5 porque el enunciado exige que sea de orden 5, es decir que se realice la prueba
para cada 5 observaciones.
8 [ POLITÉCNICO GRANCOLOMBIANO]
Para calcular la autocorrelación de los datos, debemos definir los términos de la
sumatoria. De acuerdo a esto, tenemos:
0,12 0,01 0,23 0,28 0,89 0,31 0,64 0,28 0,83 0,93
0,99 0,15 0,33 0,35 0,91 0,41 0,6 0,27 0,75 0,88
0,68 0,49 0,05 0,43 0,95 0,58 0,19 0,36 0,69 0,87
𝜌̂𝑖𝑚 = −0.1945
√13(4) + 7
𝜎𝜌̂𝑖𝑚 =
12(4 + 1)
𝜎𝜌̂𝑖𝑚 = 0.128
−0.1945
𝑍0 = = −1.516
0.128
[ SIMULACIÓN ] 9
Al graficar
Dado que Z0 cae en la zona blanca, se puede concluir que no hay evidencia estadística
para rechazar la hipótesis de independencia, es decir, los números aleatorios si
cumplen con la propiedad.
Para que el modelamiento de un sistema tome forma, se deben definir correctamente (como
lo hemos visto a lo largo de estas 4 semanas):
- Variables aleatorias que rijan ciertos comportamientos del sistema (por ejemplo, los
tiempos de arribo, los tiempos de servicio, las fallas de los recursos, etc.).
- Procesos estocásticos para modelar variación de entradas en el tiempo (tal cual como
los ejemplos de Arena manejados, en los que nada se asume determinístico, sino que
por el contrario, todo tiene variabilidad).
Con base en lo anterior, es posible definir métodos para que a partir de muestras de números
aleatorios se puedan generar variables aleatorias que permitan describir diferentes procesos
estocásticos.
10 [ POLITÉCNICO GRANCOLOMBIANO]
Generación de
números Transformación
Aleatorios {Xi}
X=f(U)
{Ui}
Algoritmo
Independiente del tipo de variable que se quiera obtener (uniforme, exponencial, triangular),
el algoritmo que debe aplicarse es el mismo y es el siguiente:
Ejemplo
Suponga que se tienen los siguientes números aleatorios:
[ SIMULACIÓN ] 11
2. Igualar la función con el aleatorio:
𝑋−𝑎
=𝑅
𝑏−𝑎
3. Despejar X:
𝑋 = 𝑎 + (𝑏 − 𝑎)𝑅
4. Resolver:
Ejemplo
Suponga que se tienen los siguientes números aleatorios:
Ejemplo
12 [ POLITÉCNICO GRANCOLOMBIANO]
Transformarlos en una variable aleatoria con distribución triangular con parámetros
mínimo: 3, más probable: 8, máximo: 14
(𝑥 − 𝑎)2 𝑏−𝑎
=𝑅 0≤𝑅<
(𝑏 − 𝑎)(𝑐 − 𝑎) 𝑐− 𝑎
(𝑐 − 𝑥)2 𝑏−𝑎
1− =𝑅 ≤𝑅<1
(𝑐 − 𝑎)(𝑐 − 𝑏) 𝑐−𝑎
3. Despejar X:
𝑏−𝑎
𝑎 + √(𝑏 − 𝑎)(𝑐 − 𝑎)𝑅 0≤𝑅<
𝑋={ 𝑐−𝑎
𝑏−𝑎
𝑐 − √(𝑐 − 𝑎)(𝑐 − 𝑏)(1 − 𝑅) ≤𝑅<1
𝑐−𝑎
4. Resolver:
[ SIMULACIÓN ] 13
4.4. Variables continuas empíricas
Cuando las distribuciones teóricas (como las vistas anteriormente) no son aplicables se debe
emplear distribuciones empíricas. DE esa forma, el algoritmo cambia. A continuación, se
explicará, a través de un ejemplo, la metodología que debe seguirse.
Ejemplo
Calcular la frecuencia relativa a cada una de las clases (recuerde que la frecuencia relativa
simplemente es la frecuencia de la clase dividida en el número total de datos):
Frecuencia
xi-1 <x≤ xi Frecuencia
Relativa
1,00 <x≤ 1,50 25,00 0,25
1,50 <x≤ 2,00 23,00 0,23
2,00 <x≤ 2,30 32,00 0,32
2,30 <x≤ 3,00 20,00 0,20
Frecuencia Frecuencia
Frecuencia
xi-1 <x≤ xi Relativa Acumulada
(f)
(f/n) (ci)
1,00 <x≤ 1,50 25,00 0,25 0,25
1,50 <x≤ 2,00 23,00 0,23 0,48
2,00 <x≤ 2,30 32,00 0,32 0,80
2,30 <x≤ 3,00 20,00 0,20 1,00
Una vez calculada la frecuencia acumulada, halle la pendiente de los datos (ai), dicha
pendiente se calcula de acuerdo a la siguiente expresión:
14 [ POLITÉCNICO GRANCOLOMBIANO]
𝑥𝑖 − 𝑥𝑖−1
𝑎𝑖 =
(𝑓/𝑛)
Frecuencia Frecuencia
Frecuencia
xi-1 <x≤ xi Relativa Acumulada Pendiente
(f)
(f/n) (ci) (ai)
1,00 <x≤ 1,50 25,00 0,25 0,25 2,00
1,50 <x≤ 2,00 23,00 0,23 0,48 2,17
2,00 <x≤ 2,30 32,00 0,32 0,80 0,94
2,30 <x≤ 3,00 20,00 0,20 1,00 3,50
Una vez se han calculado todas estas medidas, es posible realizar la interpolación
necesaria de acuerdo a la expresión:
𝑋 = 𝑥𝑖−1 + 𝑎𝑖 (𝑅 − 𝑐𝑖−1 )
Cuando:
𝑐𝑖−1 < 𝑅 ≤ 𝑐𝑖
𝑐𝑖−1 < 𝑅 ≤ 𝑐𝑖
𝑐3 < 𝑅 ≤ 𝑐4
𝑋 = 𝑥𝑖−1 + 𝑎𝑖 (𝑅 − 𝑐𝑖−1 )
𝑋 = 𝑥3 + 𝑎4 (𝑅 − 𝑐3 )
𝑋 = 2.475
𝑐𝑖−1 < 𝑅 ≤ 𝑐𝑖
𝑐1 < 𝑅 ≤ 𝑐2
[ SIMULACIÓN ] 15
0.25 < 0.36 ≤ 0.48
𝑋 = 𝑥𝑖−1 + 𝑎𝑖 (𝑅 − 𝑐𝑖−1 )
𝑋 = 𝑥1 + 𝑎2 (𝑅 − 𝑐1 )
𝑋 = 1.738
Si se trabaja con muchos números aleatorios, se puede encontrar una gráfica como la
siguiente:
16 [ POLITÉCNICO GRANCOLOMBIANO]
POLITÉCNICO GRANCOLOMBIANO
DEPARTAMENTO DE INGENIERÍA INDUSTRIAL
Simulación de Eventos Discretos
Ejercicios Arena
1. Don Pepe tiene un depósito, en este se manejan dos marcas de gaseosa (Coca-Cola y Pepsi)
pero solo un tamaño de bebida, botellas de 350 mL. Por tratarse de un cliente muy importante,
los camiones de reparto pasan todos los dı́as (Lunes a sábado, Don Pepe no abre los domingos)
y le dejan a Don Pepe 10 canastas de gaseosa de cada marca (una canasta consta de 30 botellas)
y siempre son recibidas en el depósito en la mañana a primera hora. Los clientes de Don Pepe
tienen gustos muy diferentes pero él ha establecido que, en promedio, la mitad de sus clientes
consumen Coca-Cola y la otra mitad Pepsi. Además, el número de botellas que compra cada
cliente varı́a entre 1 y 3 botellas con base en las siguientes distribuciones:
Coca-Cola Pepsi
Demanda Probabilidad Demanda Probabilidad
1 0.3 1 0.5
2 0.4 2 0.2
3 0.3 3 0.3
Si un cliente llega al depósito de Don Pepe y no hay la cantidad de botellas que demanda se
irá a buscar su pedido a otro sitio. Don Pepe abre de lunes a sábado de 8:00 am a 8:00 pm y
estima que en ese horario llegan a la tienda, en promedio, 60 clientes cada hora.
(a) Construya un modelo de simulación que re presente la situación actual y que le permita a
Don Pepe estimar la proporción de ventas perdidas que tiene diariamente en su negocio.
(b) Si se desea cambiar el tamaño del pedido que es dejado diariamente en el deposito por
los camiones repartidores,¿Cuál serı́a el número adecuado de canastas de gaseosa de cada
marca que se deben comprar diariamente para que las ventas perdidas no superen el 5%?
1
2. La compañı́a Mapple tiene una lı́nea de ensamble a donde arriban dos partes diferentes para
su proceso. Las partes del tipo 1 arriban con tiempos entre llegadas siguiendo una distribución
lognormal con una media de 11.5 horas y una desviación estándar de 2 horas. Estas partes
esperan en una cola, designada sólo para partes tipo 1, hasta que un operario esté disponible
para procesarlas (sólo hay un operario en toda la lı́nea de ensamble) y el tiempo de proceso
siguen una distribución triangular con parámetros 5, 6 y 8 horas. Las partes del tipo 2 llegan
con tiempos entre llegadas siguiendo una distribución exponencial con media de 15 horas. Estas
partes esperan en una segunda cola designada sólo para partes tipo 2, hasta que el operario esté
disponible para procesarlas. Los tiempos de proceso de las partes tipo 2 siguen una distribución
triangular con parámetros 3, 7 y 8 horas.
Después de ser procesadas por el operario todas las partes (tipo 1 y tipo 2) se envı́an a una
máquina automática que procesa cualquier tipo de parte con un tiempo que sigue una dis-
tribución triangular con parámetros 4, 6 y 8 horas. Una vez las partes son procesadas por
la máquina salen del sistema. Suponga que los tiempos de transferencia de las partes son
insignificantes.
Anime su modelo, incluyendo el uso de diferentes imágenes para los diferentes tipos de partes
y emplee diferentes imágenes para los estados recursos (ocupado y desocupado) . Ejecute la
simulación por 5000 horas y determine:
(a) El tiempo promedio de todas las partes (incluya partes tipo 1 y tipo 2).
(a)
(b) El tiempo promedio de las partes tipo 1.
(b)
(c) El tiempo promedio de las partes tipo 2.
(c)
(d) El número promedio de partes en el sistema.
(d)
(e) El número promedio de partes en cada una de las filas.
(e)
(e)
(e)
2
SIMULACIÓN
Análisis de Salida
1. Índice
1. ¿Qué
es
análisis
de
salida?
2. Tipos
de
simulación
3. Variabilidad
en
los
sistemas
estocásticos
de
simulación
4. Estimación
puntual
5. Estimación
de
intervalos
de
confianza
6. Estimación
de
intervalos
con
precisión
específica
2. Introducción
El
propósito
del
presente
documento
es
explicar
a
los
estudiantes
los
diferentes
tipos
de
simulación
que
se
pueden
modelar
y
las
características
de
cada
uno
de
ellos.
Concretamente,
se
enseñarán
los
sistemas
con
terminación
o
sistemas
transientes
y
los
sistemas
sin
terminación
o
sistemas
de
estado
estable.
Adicionalmente,
se
explicarán
las
principales
técnicas
estadísticas
necesarias
para
llevar
a
cabo
un
correcto
análisis
de
salida,
particularmente,
aquella
empleada
para
estimar
el
número
de
replicaciones
de
una
simulación
cuando
se
quiere
lograr
una
precisión
específica.
Por
otra
parte,
teniendo
en
cuenta
que
el
objetivo
general
del
módulo
es
que
los
estudiantes
desarrollen
las
capacidades
necesarias
para
llevar
a
cabo
un
estudio
completo
de
simulación,
en
esta
unidad,
se
presentarán
los
diferentes
modelos
para
realizar
en
Arena®.
2 [ POLITÉCNICO GRANCOLOMBIANO]
4. Desarrollo
temático
4.1
Recomendaciones
académicas
Se
recomienda
al
estudiante
realizar
la
lectura
de
la
cartilla,
en
la
cual
se
encuentra
toda
la
información
relevante
que
se
evaluará
en
la
semana.
Adicional,
se
invita
a
revisar
las
teleconferencias
y
las
video-‐diapositivas,
pues
estas
son
un
medio
para
aclarar
las
dudas
generadas
con
la
lectura
y
dar
soporte
a
los
temas
expuestos.
Finalmente,
se
recomienda
al
estudiante
realizar
los
ejercicios
planteados
y
sugeridos
por
el
tutor,
ya
que
estos,
a
pesar
de
no
tener
un
valor
porcentual
en
la
nota,
harán
que
la
formación
sea
completa
y
fortalecida
de
forma
práctica.
[ SIMULACIÓN ] 3
2. Tipos
de
Simulación
Cuando
se
analizan
los
datos
de
entrada,
es
decir,
cuando
se
estiman
las
medidas
descritas
en
el
apartado
anterior,
es
necesario
hacer
una
distinción
entre
los
modelos
que
corren
por
una
cantidad
corta
de
tiempo
y
aquellos
que
corren
de
manera
indefinida
o
por
un
lapso
largo
de
tiempo.
De
acuerdo
a
estas
distinciones,
los
tipos
de
simulación
pueden
clasificarse
en
dos
grandes
grupos
a
saber:
-‐ Simulación
con
Terminación
(Transiente)
Corre
por
un
periodo
específico
de
tiempo
TE,
donde
E
es
el
evento
que
termina
la
simulación.
La
longitud
de
la
simulación
debe
estar
bien
definida
y
debe
ser
finita.
Ejemplo
Banks:
un
banco
abre
sus
puertas
a
las
8:30
am
(tiempo
0)
sin
clientes
y
8
de
los
11
cajeros
trabajan
(condiciones
iniciales).
Se
cierra
a
las
4:30
pm
(Tiempo
TE
=
480
minutos).
-‐ Simulación
sin
terminación
Corre
continuamente
o,
por
lo
menos,
por
un
periodo
muy
largo
de
tiempo.
Las
condiciones
iniciales
deben
ser
especificadas
por
el
analista.
Corre
por
un
periodo
de
tiempo
TE
especificado
por
el
analista.
El
objetivo
es
estudiar
las
propiedades
del
sistema
en
el
largo
plazo.
Propiedades
que
no
deben
ser
influenciadas
por
las
condiciones
iniciales
del
modelo
(en
teoría
no
influyen,
en
la
práctica
sí).
Ejemplo
Banks:
líneas
de
ensamble,
centros
de
llamadas,
salas
de
urgencias.
La
escogencia
del
tipo
de
simulación
depende
del
objetivo
del
estudio
y
del
tipo
de
sistema.El
análisis
de
salida
es
distinto
en
cada
caso.
3. Variabilidad
en
los
sistemas
estocásticos
de
simulación
Los
resultados
de
un
modelo
son
un
conjunto
de
variables
aleatorias,
pues
los
datos
de
entrada
también
son
variables
de
este
tipo.
Ejemplo:
Imagine
un
sistema
M/G/1
con
las
siguientes
características:
-‐ Tasa
de
llegadas
Poisson
de
un
cliente
cada
10
minutos
-‐ Tiempo
de
servicio
Normal
con
(μ=
9.5,
σ
=1.75)
-‐ El
indicador
de
desempeño
que
se
quiere
evaluar
es:
Longitud
media
de
la
cola
Lq
(Número
promedio
de
entidades
en
la
cola)
4 [ POLITÉCNICO GRANCOLOMBIANO]
Ahora
que
se
conocen
las
características
del
sistema
a
evaluar,
suponga
que
se
corre
un
modelo
por
5000
minutos
y
que
se
toman
las
siguientes
acciones:
-‐ Se
divide
el
intervalo
de
tiempo
(5000
minutos)
en
5
sub-‐intervalos
de
1000
minutos
-‐ Se
recopila
el
número
de
clientes
en
cola
(Lq)
desde
el
instante
(j-‐1)1000
a
j(1000).
De
acuerdo
a
las
condiciones
anteriores,
se
obtendrá
una
tabla
de
la
siguiente
forma:
Intervalo
j
Long.
Intervalo
Yij
1
[0,
1000)
3.61
2
(1000,
2000]
3.21
3
(2000,
3000]
2.18
4
(3000,
4000]
6.92
5
(4000,
5000]
2.82
Total
[0,
5000]
3.75
En
esta
tabla
se
resume
el
valor
de
la
medida
de
desempeño
Lq,
para
una
única
réplica
(si
hubiésemos
corrido
el
modelo
en
Arena®,
la
respuesta
que
habríamos
obtenido
en
el
reporte
es
la
que
aparece
como
Total
e
igual
a
3.75).
Imagine
ahora,
que
en
lugar
de
hacer
una
réplica
(como
lo
hemos
hecho
hasta
ahora
en
el
curso)
se
realizan
réplicas
diferentes
(imagine
que
esto
es
como
correr
varias
veces
un
mismo
experimento),
y
por
lo
tanto
se
encontrarán
resultados
diferentes
en
cada
experimento,
a
partir
de
lo
anterior,
se
obtendría
una
tabla
como
la
siguiente:
Réplica
Intervalo
j
Long.
Y1j
Y2j
Y3j
Intervalo
1
[0,
1000)
3.61
2.91
7.67
2
(1000,
2000]
3.21
9.00
19.53
3
(2000,
3000]
2.18
16.15
20.36
4
(3000,
4000]
6.92
24.53
8.11
5
(4000,
5000]
2.82
25.19
12.62
Total
[0,
5000]
Y1.
=
3.75
Y2.
=
15.56
Y3.
=
13.66
A
partir
de
esta
tabla
es
posible
identificar
dos
aspectos
relevantes:
-‐ La
variabilidad
inherente
que
existe
dentro
de
la
misma
replicación
(note
que
a
pesar
de
que
los
intervalos
de
tiempo
presentan
igual
longitud,
cada
1000
minutos,
el
[ SIMULACIÓN ] 5
resultado
de
la
medida
de
desempeño
es
diferente
intervalo
a
intervalo),
por
ejemplo,
para
la
réplica
2
en
el
primer
intervalo,
la
medida
de
desempeño
toma
el
valor
2.91
y
en
el
segundo
intervalo,
toma
un
valor
de
9.00.
-‐ La
variabilidad
entre
las
replicaciones
(note
que
a
pesar
de
que
se
está
haciendo
el
experimento
sobre
las
mismas
condiciones
del
sistema,
los
resultados
para
el
mismo
intervalo
de
cada
réplica
es
diferente),
por
ejemplo,
para
el
primer
intervalo
de
la
réplica
uno,
el
valor
de
la
medida
de
desempeño
es
3.61,
mientras
que
para
el
mismo
intervalo,
pero
para
la
segunda
réplica,
el
valor
es
2.91,
y
para
la
tercera
réplica
el
valor
es
7.67.
Con
base
en
estos
dos
aspectos,
se
puede
concluir
que:
-‐ El
promedio
de
la
medida
de
desempeño
(!)
a
través
de
las
3
replicas
(!! . !! . !! .)
puede
tomarse
como
observaciones
independientes.
-‐ Pero
promedios
dentro
de
cada
réplica
(!!! !!" … !!" )
NO
Esta
conclusión
es
fundamental
porque
si
tuviésemos
solo
los
resultados
de
una
réplica,
estimar
un
intervalo
de
confianza,
dado
que
los
datos
no
son
independientes,
podría
resultar
difícil,
pues
se
perdería
la
propiedad
de
independencia
y,
por
tanto,
podría
suceder
que
los
datos
presentaran
correlación
y
sería
imposible
estimar
dicho
parámetro.
4. Estimación
puntual
Teniendo
en
cuenta
las
consideraciones
anteriores,
imagine
una
corrida
de
un
modelo
de
simulación
por
un
periodo
de
tiempo
t.
El
tamaño
de
muestra,
n,
puede
ser
una
cantidad
fija,
o
puede
ser
una
variable
aleatoria.
Un
objetivo
común
en
la
simulación
es
estimar
la
media,
la
cual
puede
ser
discreta
o
continua:
⎛ 1 n ⎞
θ = E ⎜ ∑ Yi ⎟, discreto
⎝ n i =1 ⎠
⎛ 1 TE ⎞
φ = E ⎜⎜ Y (t )dt ⎟⎟, continuo Y (t ),0 ≤ t ≤ TE
⎝ TE 0
∫ ⎠
Aquí,
el
método
utilizado
es
el
de
las
réplicas
independientes,
es
decir,
la
simulación
se
repite
un
total
de
R
veces,
donde
cada
corrida
usa
un
conjunto
distinto
de
números
aleatorios,
con
condiciones
iniciales
independientes
entre
corridas.
6 [ POLITÉCNICO GRANCOLOMBIANO]
[ SIMULACIÓN ] 7
!
! = !!,!!! ≤ !
! !
Al
despejar
R
(el
número
de
réplicas
que
queremos
determinar
para
lograr
la
precisión
ε
deseada),
tenemos
la
siguiente
expresión:
2
⎛ tα / 2, R −1S 0 ⎞
R ≥ ⎜⎜ ⎟⎟
⎝ ε ⎠
El
problema
es
que
R
se
encuentra
a
ambos
lados
de
la
ecuación,
pero
dado
que
se
cuenta
con
un
número
suficientemente
grande
de
observaciones
es
posible
realizar
el
siguiente
cambio:
2
⎛ zα / 2 S 0 ⎞
R ≥ ⎜ ⎟ , zα / 2 es la distribuci ón normal estándar
⎝ ε ⎠
Con
este
primer
estimador
de
R
es
posible
hallar
el
R
que
cumpla
con
la
ecuación
original.
Ejemplo
Se
quiere
estimar
la
utilización
de
un
servidor
con
una
precisión
de
±0.04
puntos
con
una
probabilidad
de
0.95.
Se
tomó
una
muestra
inicial
R0
=
4.
Un
estimado
inicial
de
la
varianza
muestral
es
0.00518.
El
criterio
de
error
es
de
ε
=
0.04
y
el
nivel
de
confianza
es
de
1-‐α
=
0.95,
por
lo
tanto,
el
tamaño
de
la
muestra
(número
de
replicaciones
necesarias)
debe
ser
de
por
lo
menos:
2
⎛ z 0.025 S 0 ⎞ 1.96 2 * 0.00518
⎜ ⎟ = = 12.14 = 13
⎝ ε ⎠ 0.04 2
Teniendo
esta
cota
inferior,
se
debe
hallar
el
valor
de
R
que
cumpla
con
la
desigualdad
original,
es
decir:
2
⎛ t 0,025,13−1 S 0 ⎞ 2.18 2 * 0.00518
⎜⎜ ⎟⎟ = 2
= 15.39
⎝ ε ⎠ 0.04
8 [ POLITÉCNICO GRANCOLOMBIANO]
2
⎛ t 0,025,14−1 S 0 ⎞ 2.16 2 * 0.00518
⎜⎜ ⎟⎟ = 2
= 15.1
ε 0.04
⎝ ⎠
Dado
que
14
no
es
mayor
a
15.1,
continúo
iterando
• Iteración
3:
(R=15)
2
⎛ t 0,025,15−1S 0 ⎞ 2.14 2 * 0.00518
⎜⎜ ⎟⎟ = = 14.83
⎝ ε ⎠ 0.04 2
Dado
que
15
si
es
mayor
a
14.83,
el
algoritmo
se
detiene
y
se
concluye
que
el
número
de
réplicas
necesarias
para
lograr
una
precisión
de
0,04
es
15
réplicas,
y
que
dado
que
se
realizaron
inicialmente
4,
deben
realizarse
11
más.
[ SIMULACIÓN ] 9
Simulación de Eventos
Simulación de Eventos
Discretos
Análisis de Salida
Agenda
• ¿Qué es el Análisis de Salida?
• Ti
Tipos de Simulación
d Si l ió
• Variabilidad de los sistemas estocásticos de simulación
• Estimación Puntual
Estimación Puntual
• Estimación con intervalos de confianza
• Análisis de salida para Simulaciones Transientes – Con Terminación
• Intervalos de confianza con precisión específica (recordar)
¿Qué es el análisis de salida?
¿Qué es el análisis de salida?
• Puede definirse como la etapa en el proceso de estudio de un sistema en
l que se estima
la ti su desempeño.
d ñ
• Propósito:
– Si θ es el parámetro que mide el desempeño del sistema, la precisión
del estimador ˆ (resultado de un conjunto de experimentos de
simulación) se puede medir usando:
• El error estándar de ˆ.
• La anchura del intervalo de confianza para θ.
¿Qué es el análisis de salida?
¿Qué es el análisis de salida?
• Se quiere, mediante análisis estadístico:
– Estimar el error estadístico y/o el intervalo de confianza.
– Encontrar el número de observaciones necesarias para lograr una
precisión deseada.
La escogencia del tipo de simulación depende del objetivo del estudio y
del tipo de sistema.
El análisis de salida es distinto en cada caso.
Variabilidad de los sistemas
estocásticos de simulación
• Al considerar variables aleatorias de entrada, los modelos consisten de una o
más variables aleatorias de interés.
Un sistema M/G/1 con las siguientes características:
– Tasa de llegadas Poisson de 0.1 cliente por minuto;
Tiempo de servicio Normal(= 9.5,
Tiempo de servicio Normal( 9 5 =1 1.75).
75)
– Desempeño del sistema: Número de entidades promedio en cola, LQ(t).
– Suponga que se corre una única simulación por 5,000 minutos
• Divida el intervalo [0, 5000) en 5 subintervalos iguales de 1000
minutos.
• El número promedio de entidades en cola en cada intervalo (Yj) es:
El número promedio de entidades en cola en cada intervalo (Yj) es:
1 j ( 1000 )
1000 ( j 1 ) 1000
Yj L Q ( t ) dt , j 1,...., 5
Variabilidad de los sistemas
estocásticos de simulación
Replicación
Tiempo promedio en Intervalo (minutos) (Lote) Batch, j 1, Y1j 2, Y2j 3, Y3j
cola para los lotes en [0, 1000) 1 3,61 2,91 7,67
[1000, 2000) 2 3,21 9,00 19,53
tres replicaciones
tres replicaciones [2000, 3000) 3 2,18 16,15 20,36
independientes [3000, 4000) 4 6,92 24,53 8,11
[4000, 5000) 5 2,82 25,19 12,62
[0, 5000) 3,75 15,56 13,66
A partir de la anterior tabla se puede observar la variabilidad inherente entre
las replicaciones y dentro de cada replicación
las replicaciones y dentro de cada replicación.
– Datos discretos
Datos discretos en el tiempo: [Y ] con media ordinaria:
en el tiempo: [Y1, YY2, …, YYn], con media ordinaria:
Datos continuos en el tiempo
• En este caso el estimador está dado por:
1 TE
ˆ
TE
0
Y (t )dt (Continuous‐time, time‐persistent)
Estimación con Intervalos de
Confianza
• Si las
l observaciones
b i Yi están
tá distribuidos
di t ib id normalmente
l t o tienen
ti una
distribución aproximadamente normal entonces, como lo habíamos visto:
S 1 R
Y.. t / 2, R 1 con S
2
R 1 i 1
(Yi. Y.. ) 2
R
• Entre más replicaciones se haga más se disminuye el error entre Y.. y θ,
convergiendo a 0 a medida que R tiende a infinito.
• Tenga
g en cuenta q
que el intervalo de p
predicción es una medida de RIESGO.
Simulaciones Transientes – Con
Terminación
• El propósito común en simulación es estimar
1 n
E Yi , para salidas discretas
n i 1
1 TE
E
TE
0
Y (t )dt , para salidas continuas Y (t ),0 t TE
• Across‐replication data independientes (números aleatorios diferentes) e
id i
identicamente distribuidos (mismo modelo).
di ib id ( i d l )
• Within‐replication
Within data No tiene las mismas propiedades.
replication data No tiene las mismas propiedades.
Estimación de IC con precisión
específica
• Recuerde que la longitud media H de un intervalo de confianza de 100(1 – )%
para la media , basado en la distribución t, está dado por:
S
H t / 2, R 1 R es el número de replicaciones y
R l ú d li i
R S es la desviación muestral.
• Asuma que se ha
A h observado
b d una muestra inicial
i i i l de
d tamaño
ñ R0 (independiente).
(i d di )
Esta muestra se usará para obtener un estimado inicial de S02
S
H t / 2, R 1
R
Estimación de IC con precisión
específica
• Resolviendo la desigualdad para R tenemos:
2
t S PROBLEMA: R está en ambos
R / 2, R 1 0
lados de la desigualdad
2
z S
R / 2 0 , donde z / 2 correspond e a normal estándar.
• Con este estimado de R (cota inferior), se halla el R que cumpla con la
desigualdad original.
original
Ejemplo
Se quiere estimar la utilización de un servidor con una precisión de ±0.04 puntos
con una probabilidad de 0.95. Se tomó una muestra inicial R0=4. Un estimado
inicial de la varianza muestral es 0.00518.
Dado que R=15 es el menor entero que cumple la desigualdad original, deben
realizarce R ‐ R0 = 11 replicaciones adicionales.
Simulación de Eventos
Simulación de Eventos
Discretos
Análisis de Salida II
Agenda
• Análisis de salida para Simulaciones en Estado Estable
• Sesgo en la inicialización –
S l i i i li ió Periodo de calentamiento
P i d d l i
• Estimación del error (para los intervalos de confianza)
• Método de Replicación
Método de Replicación
• Longitud de la Corrida
• Agrupación en una corrida (Batch Means for interval estimations)
Simulaciones en Estado Estable
• En este caso nos interesan las estadísticas a largo plazo por lo cual es muy
i
importante
t t tener
t en cuenta
t que las
l condiciones
di i i i i l pueden
iniciales d influir
i fl i en
éstas.
• TTeniendo
i d esto t en cuenta,
t debería
d b í haber
h b un periodo
i d de
d calentamiento
l t i t en
donde se permita que el sistema llegue a un estado estable para recolectar
las estadísticas que son de interés.
¿Qué se puede hacer?
• Inicialice la simulación en un estado que sea más representativo de las
condiciones
di i en ell largo
l plazo.
l
• Normalmente se promediarían las medias dentro
Normalmente se promediarían las medias dentro de cada replicación, pero
de cada replicación, pero
como el objetivo es identificar la tendencia en los datos debida a las
condiciones de inicialización (cuándo cesan), se promediarán los promedios
p (
de lotes a través de las replicaciones (ensemble averages).
g )
1 R
Y. j Yrj
R r 1
Ejemplo
“Ensemble averages”, Y . j , versus 1000j, para j = 1,2, …,15.
Sesgo debido a los
Sesgo debido a los
parámetros de
inicalización
Ejemplo
Ahora, ¿qué pasa se quito algunas de las observaciones que me están creando el
sesgo? (borrando d de las n observaciones – promedios acumulados)
n
1
Y.. (n, d )
nd
Y
j d 1
.j
Estimación del error
(
(para llos IC)
Si {Y1, …, Yn} no son estadísticamente independientes, entonces S2/n es un
estimador sesgado de la verdadera varianza (Var (ˆ) ).
• Pasa casi siempre que {Y1, …, Yn} es una secuencia de observaciones de una
p
única replicación ((secuencia autocorrelacionada,, series de tiempo).
p )
n n
1
Var (Y ) 2
n
cov(Y , Y )
i 1 j 1
i j
a) Serie de tiempo estacionaria Y
Serie de tiempo estacionaria Yi
con autocorrelación positiva.
b) Serie de tiempo Yi con
autocorrelación negativa
autocorrelación negativa.
c) Serie de tiempo no estacionaria
Método de Replicación
• Si el sesgo de la inicialización en el estimador puntual ha sido reducido a un
nivel insignificante, entonces el método de replicaciones independientes
puede ser usado para estimar la variabilidad del estimador puntual y así
construir el intervalo de confianza.
1 R
E[Y.. (n, d )] n,d Y.. (n, d ) Yr. (n, d )
R r 1
Método de Replicación
• Si d y n son suficientemente grandes entonces:
– n,d
n d ~
1 R 1 R 2 2 S
S
2
R 1 r 1
(Yr . Y.. )
2
Yr . RY..
R 1 r 1
y e.s.(Y.. )
R
• Finalmente el intervalo de confianza del 100(1‐α)%
S S
Y .. t / 2, R 1 Y .. t / 2, R 1
R R
Método de Replicación
• Longitud de cada replicación (n) a partir del punto de borrado (d):
( d) > 10d
(n ‐ d) 10d
• Para un número fijo (tamaño de muestra n), mientras menos datos se
borren:
– Mayor sesgo.
– Menor varianza
Menor varianza
Reducción Incremento
del Cambio por en la
sesgo varianza
Longitud de la Corrida
Suponga que se quiere estimar la medida de desempeño , con una precisión
Suponga que se quiere estimar la medida de desempeño , con una precisión
de y una confiabilidad del 100(1‐ )%.
• Incrementar el número de replicaciones (ya visto).
– Problema: los datos son dependientes luego el estimador es segado.
– Solución: AGRUPACIÓN (batch means).
S l ió AGRUPACIÓN (b h )
• Batch means: divida los datos resultantes de la replicación 1
Batch means: divida los datos resultantes de la replicación 1 (después del
(después del
periodo de calentamiento apropiado) en lotes grandes y trate las medias de
dichos lotes como independientes.
Agrupación en una Corrida
• ti l ti {Y(t) T0 t
Un proceso continuo en el tiempo, {Y(t), T
U t T0+TE}:
}
– k lotes de tamaño m = TE /k. Media de cada lote:
1 jmj
Yj Y (t T0 )dt
m ( j 1) m
• Un proceso discreto en el tiempo, {Yi, i = d+1,d+2, …, n}:
– k lotes de tamaño m = (n – d)/k. Medias de cada lote:
jm
1
Yj Yi d
m i ( j 1) m 1
Agrupación en una Corrida
Y1 , ..., Yd , Yd 1 , ..., Yd m , Yd m 1 , ..., Yd 2 m , ... , Yd ( k 1) m 1 , ..., Yd km
Borrado Y1 Y2 Yk
Comparación y Evaluación de Alternativas
Agenda
• Comparación de dos sistemas
– Muestras independientes
M i d di
– Muestras Correlacionadas (Números Aleatorios en Común CRN)
• Comparación de Múltiples (más de dos) sistemas
– Método de Bonferroni.
Comparación de dos sistemas
Comparación de dos sistemas
• Objetivo: Comparar dos posibles diseños de un mismo sistema.
Objetivo: Comparar dos posibles diseños de un mismo sistema.
• El método de replicación es utilizado para analizar las salidas de los dos
modelos.
• Se debe obtener un intervalo para la diferencia de las medias 1 – 2.
3
Comparación de dos sistemas
Comparación de dos sistemas
• Para cada replica r del sistema i, se obtiene un estimado Yir de la medida de
desempeño i .
desempeño
• Asumiendo que los estimadores Yir son insesgados, se tiene:
1 = E(Y1r ), r = 1, … , R1; 2 = E(Y2r ), r = 1, … , R2
– Si el intervalo está totalmente a la derecha de 0, existe fuerte evidencia
estadística para la hipótesis 1 – 2 > 0 (1 > 2 ).
– Si el intervalo contiene a 0, no existe fuerte evidencia estadística para
q j q
concluir que un sistema es mejor que el otro.
4
Comparación de dos sistemas
Comparación de dos sistemas
• Un intervalo de confianza de 100(1 )% para 1 – 2 siempre toma la
100(1‐)%
forma de:
5
Comparación de dos sistemas
Comparación de dos sistemas
Significancia estadística vs.
vs Significancia práctica
6
Muestras Independientes con
Varianzas Iguales
• Se utilizan conjuntos diferentes e independientes de números para simular
los dos sistemas.
– Todas las observaciones del sistema simulado 1 son estadisticamente
i d
independientes
di t ded todas
t d las
l observaciones
b i d l sistema
del it simulado
i l d 2.2
V Y.i i2
V Y.i
Ri
Ri
, i 1,2
7
Muestras Independientes con
Varianzas Iguales
• que ((aprox)
Si es razonable asumir q p ) o si R1 = R2, un intervalo de
confianza para las dos muestras se puede construir usando una
distribución t
– El estimador puntual de la diferencia es:
Y.1 Y.2
– Y la varianza muestral del sistema i, es:
R R
i i
1 2 1
S i2 Yri Y.i Yri 2 RiY.i 2
Ri 1 r 1 Ri 1 r 1
– El estimador de 2 es:
( R1 1) S12 ( R2 1) S 22
S
2
p , donde R R -2 grados de libertad
R1 R2 2 1 2
– El intervalo
i t l esta
t dado
d d por:
Y.1 Y.2 t / 2, s.e.(Y.1 Y.2 ) con s.e.Y.1 Y.2 S p
1 1
R1 R2
8
Muestras Independientes con
Varianzas Diferentes
Si el supuesto de igualdad de varianzas no se cumple, un intervalo de
confianza de, aproximadamente, 100(1‐)% puede ser calculado por:
s.e. Y.1 Y.2 S12 S 22
R1 R2
Con grados de libertad dados por:
S2
/ R1 S 22 / R2
2
S
1
, redondeado al entero superior.
superior
1
2
/ R1 / R1 1 S / R2 / R2 1
2 2
2
2
9
Muestras Correlacionadas (CRN)
Muestras Correlacionadas (CRN)
• Para cada réplica, los mismos números aleatorios son utilizados para
simular
i l losl dos
d sistemas.
it
– Par cada réplica r, los dos estimados, Yr1 y Yr2, están correlacionados.
– Sin embargo, conjuntos independientes de números son utilizados en
diferentes réplicas, así los pares (Yr1 ,Ys2) son mutualmente
independientes.
• La idea es inducir una correlación positiva entre Y.1 Y.2 (para cada r) para
reducir la varianza del estimador puntual Y.1 Y.2 .
12 22 2 12 1 2
V Y.1 Y.2 V Y.1 V Y.2 2 covY.1 , Y.2
R R R
12 es positivo
– Note que la varianza de Y.1 Y.2 proveniente del uso de CRN es menor
que la proveniente de muestras independientes.
10
Muestras Correlacionadas (CRN)
Muestras Correlacionadas (CRN)
• El estimador basado en CRN es más precisa, por lo tanto se consigue un
El estimador basado en CRN es más precisa, por lo tanto se consigue un
intervalo de confianza mas estrecho para la diferencia
• D Y.1 Y.2
La varianza muestral de las diferencias es:
1 R 2 2
S
2
D
1 R
Dr D 2
Dr RD
R 1 r 1 R 1 r 1
1 R
donde Dr Yr1-Y
Yr 2 y D Dr , con grados de libertad R - 1
R r 1
• Y el error estándar es:
s.e.( D ) s.e. Y.1 Y.2
SD
R
11
Muestras Correlacionadas (CRN)
Muestras Correlacionadas (CRN)
No es tan simple como usar la misma semilla para el generador de números
aleatorios:
• Los números aleatorios deben ser utilizados para el mismo propósito en los
dos modelos.
12
Ej
Ejemplo
l
Inspección de seguridad para vehículos
p g p
• La estación realiza 3 tareas: (1) Revisión de frenos, (2) Revisión de luces, (3)
Revisión de la dirección.
• Arribo de vehículos: Poisson con tasa = 9.5/hora.
Arribo de vehículos: Poisson con tasa = 9 5/hora
• Sistema actual:
– Tres operarios en paralelo (cada uno realiza las tres tareas en cada
vehículo)
hí l )
– Los tiempos de servicio para las tres tareas están normalmente
distribuidos con medias 6.5, 6.0 y 5.5 minutos, respectivamente.
• Sistema Alternativo:
– Cada operario se especializa en una tarea específica, así cada vehículo
pasa por las tres estaciones en serie.
pasa por las tres estaciones en serie.
– El tiempo de servicio para cada tarea decrece en 10%
• La medida de desempeño es el tiempo total de un vehículo en el sistema.
13
Ej
Ejemplo
l
• Comparando los dos sistemas con R = R1 = R2 =10 se obtiene:
– Muestras independiente:
Y.1 Y.2 5.4 minutes
con 17, t 0.05,17 2.11, S12 118.0 y S 22 244.3, CI : -18.1 θ1-θ2 7.3
– CRN sin sincronización:
CRN sin sincronización:
Y.1 Y.2 1.9 minutes
con 9, t 0.05,9, 2.26, S D2 208.9, CI : - 12.3 1 - 2 8.5
– CRN con sincronización :
Y.1 Y.2 0.4 minutes
i t
14
CRN con precisión específica
CRN con precisión específica
• error en el valor estimado de 1 – 2 debe ser menor que
El error en el valor estimado de
El debe ser menor que .
• Se debe determinar el número de réplicas R tal que el “half‐width” del
intervalo de confianza sea:
H t / 2, s.e. Y.1 Y.2
• Ejemplo:
= 10 con un IC del 95% (con CRN sincronizados):0.4 0.9 minutos
– R0 = 10, con un IC del 95% (con CRN sincronizados):
– Suponga que = 0.5 minutos, para que tenga significancia práctica.
t / 2, R 1 t / 2, R0 1
– Dado que , una estimación conservadora de R es:
2
t / 2, R0 1S D
R
– Así, se necesitan 35 réplicas (25 adicionales).
15
Comparación de Múltiples
Sistemas
• Para comparar K alternativas de diseño de un sistema.
– La comparación se basa en alguna medida de desempeño específica i,
del sistema i,i para i = 1,
1 2,
2 …, K.
K
16
Comparación de Múltiples
Sistemas
Métodos de comparación:
17
Método de Bonferroni
Método de Bonferroni
• Para hacer afirmaciones sobre varios parámetros simultáneamente, (donde
todas las afirmaciones son ciertas simultáneamente).
• Desigualdad de Bonferroni :
C
P (Todas las afirmacion es S i sean ciertas, i 1, ...,C ) 1 j 1 E
j 1
Error total, es un límite superior par la
probabilidad de equivocarse al rechazar H0
18
Método de Bonferroni
Método de Bonferroni
• Debería ser usado únicamente cuando se hace un número pequeño de
comparaciones.
– Límite máximo de comparaciones (empírico): 20
19
SIMULACIÓN
Verificación y validación de modelos de
simulación
Una
de
las
tareas
más
difíciles
que
enfrenta
quien
construye
modelos
de
cualquier
tipo,
y
especialmente
los
de
simulación,
consiste
en
verificar
y
validar
el
modelo
construido.
A
continuación,
se
observarán
los
factores
a
tener
en
cuenta
para
realizar
estos
procesos
de
revisión
de
la
mejor
manera
posible
con
el
fin
de
garantizar
la
robustez
y
completitud
del
modelo.
ASPECTOS
GENERALES
La
meta
del
proceso
de
validación
consiste
en
producir
un
modelo
que
represente
el
comportamiento
real
del
sistema,
lo
suficientemente
cerca
para
propósitos
de
toma
de
decisiones.
De
esta
forma,
se
incrementa
la
credibilidad
del
modelo
a
un
nivel
aceptable
de
confiabilidad.
Sin
embargo,
la
validación
no
debe
ser
abordada
como
un
conjunto
aislado
de
procedimientos
que
sigue
el
desarrollo
de
modelo,
sino
más
bien
como
una
parte
integral
de
la
construcción
de
este.
Conceptualmente,
la
verificación
y
validación
tienen
los
siguientes
componentes:
- La
verificación
está
relacionada
con
la
construcción
correcta
del
modelo.
Aquí,
se
realiza
la
comparación
del
modelo
conceptual
con
la
representación
computacional
que
implementa
esa
concepción.
En
este
proceso
deben
responderse
preguntas
tales
como:
¿está
el
modelo
implementado
correctamente
en
el
programa
de
simulación?
¿están
correctamente
representados
los
parámetros
de
entrada
y
la
estructura
lógica
del
modelo?
- La
validación
se
relaciona
con
la
construcción
del
modelo
apropiado
para
el
sistema
en
estudio.
Aquí,
se
confirma
que
un
modelo
es
una
representación
precisa
del
sistema
real.
La
validación
se
configura
a
través
de
la
calibración
del
modelo,
un
proceso
iterativo
de
comparar
el
modelo
con
el
comportamiento
del
sistema.
En
el
siguiente
diagrama
se
puede
resumir
el
proceso
de
construcción,
verificación
y
validación
del
modelo
de
simulación:
2
[ POLITÉCNICO GRANCOLOMBIANO]
Figura
1.
Proceso
de
construcción,
verificación
y
validación
del
modelo.
Fuente:
BANKS,
Jerry.
Discrete
Event
Systems
Simulation.
VERIFICACIÓN
DE
MODELOS
DE
SIMULACIÓN
El
propósito
principal
de
la
verificación
es
asegurar
que
el
modelo
conceptual
esté
reflejado
correctamente
en
el
modelo
computacional.
El
modelo
conceptual,
a
menudo,
implica
cierto
grado
de
abstracción
de
las
operaciones
del
sistema
o
cierta
simplificación
del
funcionamiento
real.
Algunas
sugerencias
a
tener
en
cuenta
para
la
ejecución
de
este
proceso:
- Tener
el
modelo
computacional
revisado
por
alguien
aparte
del
desarrollador,
preferiblemente
un
experto
en
el
software
de
simulación
que
se
está
aplicando.
- Realizar
un
diagrama
de
flujo
que
incluye
cada
posible
acción
que
el
sistema
puede
hacer
cuando
un
evento
ocurre.
- Examinar
cuidadosamente
las
salidas
del
modelo
para
una
serie
diferente
de
parámetros
de
entrada
(sensatez
del
modelo).
- Imprimir
los
parámetros
de
entrada
junto
con
los
resultados
y
asegurarse
de
que
no
cambiaron
repentinamente.
Con
respecto
a
la
definición
de
la
sensatez
del
modelo,
imaginemos,
primero,
que
se
está
modelando
una
red
de
líneas
de
espera.
Aunque
el
tiempo
de
respuesta
es
un
indicador
principal
de
este
sistema,
se
debe
recopilar
otras
estadísticas
aparte
de
este
tiempo,
por
ejemplo,
la
cantidad
actual
de
entidades
en
el
sistema
y
el
número
de
entidades
atendidas.
[ SIMULACIÓN] 3
Si
la
cantidad
actual
de
entidades
crece
de
forma
cercanamente
lineal,
de
la
misma
manera
que
se
incrementa
el
tiempo
de
la
corrida,
es
probable
que
la
cola
esté
inestable.
Si
las
entidades
atendidas
son
iguales
a
cero,
esto
indica
que
no
han
entrado
clientes
al
sistema;
o
si
las
entidades
atendidas
son
iguales
o
cercanas
a
1,
puede
indicar
que
un
recurso
no
se
ha
podido
liberar
y,
por
tanto,
ha
quedado
atrapado
en
un
servicio
con
un
solo
cliente.
VALIDACIÓN
Y
CALIBRACIÓN
Los
procesos
de
verificación
y
validación,
aunque
son
conceptualmente
distintos,
son
realizados
de
manera
simultánea
por
el
modelador.
La
validación
es
el
proceso
de
comparar
el
comportamiento
del
modelo
con
el
comportamiento
del
sistema.
La
calibración
es
el
proceso
iterativo
de
comparar
los
comportamientos
y
la
realización
sistemática
de
los
ajustes
al
modelo.
La
siguiente
gráfica
muestra
la
relación
que
tiene
la
calibración
del
modelo
con
el
proceso
general
de
validación.
Figura
2.
Proceso
iterativo
de
calibración.
Fuente:
BANKS,
Jerry.
Discrete
Event
Systems
Simulation.
Naylor
y
Finger
formularon
una
metodología
de
tres
pasos
que
ha
sido
ampliamente
aplicada
para
soportar
el
proceso
de
validación:
- Construir
un
modelo
con
validez
comprobada.
Los
usuarios
potenciales
del
modelo
deben
estar
involucrados
en
la
construcción
del
modelo,
desde
su
conceptualización
hasta
su
implementación,
para
asegurar
un
alto
grado
de
realismo
a
través
de
supuestos
razonables
y
datos
confiables.
Otra
forma
de
comprobar
la
validez
es
a
través
de
análisis
de
sensibilidad.
- Validar
los
supuestos
del
modelo.
Los
supuestos
de
un
modelo
pueden
clasificarse
en
dos
grupos:
estructurales
y
de
datos.
Los
estructurales
implican
cuestionamiento
de
cómo
funciona
el
sistema
y
esto
involucra
simplificaciones
y
abstracciones.
Los
supuestos
de
los
datos
se
basan
en
la
recolección
de
información
confiable
y
el
análisis
estadístico
apropiado.
4
[ POLITÉCNICO GRANCOLOMBIANO]
[ SIMULACIÓN] 5
Primero,
debe
establecerse
el
nivel
de
significancia,
α
=
0,05.
Luego
se
calcula
la
media
y
desviación
muestral
sobre
las
seis
observaciones
1 n S=
1 n
(Y2i − Y2 ) 2 = 0.81 minutes
Y = ∑ Yi = 2.51 minutos n − 1
∑
n i =1 i =1
Ahora
se
aplican
los
criterios
de
la
prueba
t
de
dos
colas,
cuyo
estadístico
se
calcula
así:
Y − µ0 2.51 − 4.3
t0 = 2 = = 5.24
S/ n 0.82 / 6
El
valor
crítico
de
t
para
esta
prueba,
con
un
nivel
de
significancia
de
α/2
=
0,025
y
con
n
–
1
grados
de
libertad
=
5
grados,
es
igual
a
2,571
Dado
que
el
estadístico
de
la
prueba
es
mayor
al
valor
crítico,
se
rechaza
Ho,
y
se
concluye
que
el
modelo
es
inadecuado
para
predecir
el
tiempo
que
un
cliente
demora
en
hacer
la
transacción.
Por
lo
tanto,
el
modelador
deberá
revisar
los
supuestos
que
utilizó
y
la
confiabilidad
de
los
datos
obtenidos.
Generalmente,
es
muy
difícil
o
muy
costoso,
o
consume
mucho
tiempo
utilizar
todas
las
técnicas
de
validación
posibles
para
cada
modelo
desarrollado.
Es
una
parte
fundamental
de
la
tarea
del
modelado
escoger
aquellas
técnicas
que
sean
las
más
apropiadas
para
el
caso,
con
el
fin
de
asegurar
la
precisión
y
credibilidad
del
modelo.
6
[ POLITÉCNICO GRANCOLOMBIANO]