Você está na página 1de 21

Simulación de Eventos 

Simulación de Eventos
Discretos

Análisis de Salida II
Agenda
• Análisis de salida para Simulaciones en Estado Estable
• Sesgo en la inicialización –
S l i i i li ió Periodo de calentamiento
P i d d l i
• Estimación del error (para los intervalos de confianza)
• Método de Replicación
Método de Replicación
• Longitud de la Corrida
• Agrupación en una corrida (Batch Means for interval estimations)
Simulaciones en Estado Estable
• En este caso nos interesan las estadísticas a largo plazo por lo cual es muy
i
importante
t t tener
t en cuenta
t que las
l condiciones
di i i i i l pueden
iniciales d influir
i fl i en
éstas.

• El horizonte de tiempo puede ser potencialmente infinito ya que


consideramos sistemas sin terminación. La condición de terminación está
sujeta al analista.
analista

• El sesgo en los estimadores puntuales se debe principalmente a las


condiciones iniciales.

• TTeniendo
i d esto t en cuenta,
t debería
d b í haber
h b un periodo
i d de
d calentamiento
l t i t en
donde se permita que el sistema llegue a un estado estable para recolectar
las estadísticas que son de interés.
¿Qué se puede hacer?
• Inicialice la simulación en un estado que sea más representativo de las
condiciones
di i en ell largo
l plazo.
l

• Si el sistema existe,, recolecte datos a p


partir de la observación y úselos p
para
especificar condiciones iniciales más cercanas a las típicas.

• Si el sistema se puede simplificar lo suficiente como para que sea


matemáticamente tratable, Ej. Modelos de colas, resuelva el modelo
simplificado y use las solución como condiciones de inicialización.
Sesgo en la Inicialización
Periodo de Calentamiento
Divida cada simulación en dos fases:
fases
• Una fase de inicialización (periodo de calentamiento), del tiempo 0 al
tiempo T0.

• Una fase de recolección de datos, desde T0 hasta el tiempo de parada T0+TE.

• ¿Cómo escoger T0?:


– Después de T0, el modelo debe ser aproximadamente representativo
del estado estable del sistema.
sistema

• El sistema ha logrado su estado estable luego la distribución de


probabilidad (de estado) es bastante cercana a la distribución de estado
estable.
Ejemplo
• Considere de nuevo el ejemplo de la cola M/G/1 donde se realiza un total 
de 10 replicaciones:
de 10 replicaciones:
– Cada replicación comienza con 0 entidades y servidor libre.
– La longitud de cada replicación es de  T0+TE = 15,000 minutos.
– Variable de desempeño: Longitud de la cola, L
bl d d ñ dd l l Q(t, r)
( ) (en el tiempo t
( l d l
de la
r‐ésima replicación).
– Otra vez intervalos de 1,000 minutos, de los cuales se obtiene los 
promedios de lote (batch means).

• Normalmente se promediarían las medias dentro
Normalmente se promediarían las medias dentro de cada replicación, pero 
de cada replicación, pero
como el objetivo es identificar la tendencia en los datos debida a las 
condiciones de inicialización (cuándo cesan), se promediarán los promedios 
p (
de lotes a través de las replicaciones (ensemble averages).
g )
1 R
Y. j   Yrj
R r 1
Ejemplo
“Ensemble averages”, Y . j , versus 1000j, para j = 1,2, …,15.

Sesgo debido a los 
Sesgo debido a los
parámetros de 
inicalización
Ejemplo
Ahora, ¿qué pasa se quito algunas de las observaciones que me están creando el 
sesgo? (borrando d de las n observaciones – promedios acumulados)

n
1
Y.. (n, d ) 
nd
Y
j  d 1
.j
Estimación del error
(
(para llos IC)
Si {Y1, …, Yn} no son estadísticamente independientes, entonces S2/n es un
estimador sesgado de la verdadera varianza (Var (ˆ) ).
• Pasa casi siempre que {Y1, …, Yn} es una secuencia de observaciones de una
p
única replicación ((secuencia autocorrelacionada,, series de tiempo).
p )

Dado que el estimador puntual de la media muestral es Y  i 1 Yi / n , entonces


n

n n
1
Var (Y )  2
n
  cov(Y , Y )
i 1 j 1
i j

• La varianza de Y es casi imposible de estimar.


• Obtener un estimado de esta varianza es muy difícil ya que las covarianzas
pueden ser diferentes en general. Por fortuna, para sistemas con estado
estable, si se supera la etapa transiente, la variable de desempeño será un
proceso de covarianza estacionaria.
Estimación del error
(
(para llos IC)
• Para una serie de tiempo con covarianza estacionaria, {Y
Para una serie de tiempo con covarianza estacionaria, {Y1, …, Y
, …, Yn}:
– Autocovarianza (Lag‐k):  k  cov(Y1 , Y1 k )  cov(Yi , Yi  k )
k
– Autocorrelación (Lag k) :  k  2
(Lag‐k) :

• Si la serie de tiempo es un proceso de covarianza estacionaria, entonces la 
varianza de Y después del álgebra se puede escribir como
varianza de       después del álgebra  se puede escribir como
2  n 1
 k 
V (Y ) 
n 
1  2  1    k 
k 1  n 
c
• A partir de este resultado podemos escribir el valor     esperado del estimador 
d l
de la varianza como:
i
 S2  n / c 1
E    BV (Y ), donde B 
 n  n 1
Autocorrelación
En un gráfico, la autocorrelación positiva se caracteriza porque las observaciones 
positivas a partir de la media tienden a ser seguidas por una observación positiva 
a partir de la media y viceversa. 

a) Serie de tiempo estacionaria Y
Serie de tiempo estacionaria Yi
con autocorrelación positiva.

b) Serie de tiempo Yi con 
autocorrelación negativa
autocorrelación negativa.

c) Serie de tiempo no estacionaria
Método de Replicación
• Si el sesgo de la inicialización en el estimador puntual ha sido reducido a un
nivel insignificante, entonces el método de replicaciones independientes
puede ser usado para estimar la variabilidad del estimador puntual y así
construir el intervalo de confianza.

• Si, por el contrario, el sesgo permanece y un número muy grande de


replicaciones son necesarias para reducir la variabilidad, el intervalo de
confianza resultante puede ser equivocado. ¿Por qué sucede esto?
– El sesgo no está siendo afectado por el número de replicaciones sino por
el incremento del periodo de calentamiento To.

• Si se decide eliminar d observaciones del total (n) en una replicación, el


estimador puntual de θ es: 1 n
Y.. (n, d ) 
nd
Y
j  d 1
.j
Método de Replicación
Para el cálculo de este estimador, las observaciones {Yrj , r = 1, ..., R; j = 1, …, n} se
d i
derivan d uno de
de d los
l siguientes
i i casos:

– CASO 1: Yrjj es una observación particular dentro de la replicación r.


r

– CASO 2: Yrjj es un promedio de un lote de observaciones discretas dentro


de la replicación r.

– CASO 3: Yrj es un promedio de un lote de observaciones continuas dentro


de la replicación r (como en el ejemplo visto de la cola M/G/1).
Método de Replicación
Cada replicación se considera como una muestra particular para la estimación de
θ Para la replicación r
θ.
n
1
Yr . (n, d ) 
nd
Y
j  d 1
rjj

es la media muestral de todas las observaciones en la replicación r. Como todas


la replicaciones usan diferentes números aleatorios,
aleatorios dichas muestras
particulares son independientes e idénticamente distribuidas – constituyen una
muestra aleatoria de una población con media desconocida:

1 R
E[Y.. (n, d )]  n,d  Y.. (n, d )  Yr. (n, d )
R r 1
Método de Replicación
• Si d y n son suficientemente grandes entonces:
– n,d
n d ~ 

– Y.. (n, d ) es aproximadamente un estimador insesgado de 

• Para estimar el error estándar de Y.. (n, d )

1 R 1  R 2 2 S
S 
2

R  1 r 1
(Yr .  Y.. ) 
2
  Yr .  RY.. 
R  1  r 1 
y e.s.(Y.. ) 
R
• Finalmente el intervalo de confianza del 100(1‐α)%                

S S
Y ..  t / 2, R 1    Y ..  t / 2, R 1
R R
Método de Replicación
• Longitud de cada replicación (n) a partir del punto de borrado (d): 
( d) > 10d
(n ‐ d) 10d

• Número de replicaciones debe ser tantas como el tiempo lo permita.


Número de replicaciones debe ser tantas como el tiempo lo permita.

• Para un número fijo (tamaño de muestra n), mientras menos datos se 
borren:
– Mayor sesgo.
– Menor varianza
Menor varianza

Reducción  Incremento
del Cambio por en la
sesgo varianza
Longitud de la Corrida
Suponga que se quiere estimar la medida de desempeño , con una precisión 
Suponga que se quiere estimar la medida de desempeño , con una precisión

de         y una confiabilidad del 100(1‐ )%.

• Incrementar el número de replicaciones (ya visto).

• Incrementar la longitud de la replicación


Incrementar la longitud de la replicación
Longitud de la Corrida
Aproximación:
• Incremente la longitud de la replicación de (T
I l l i dd l li ió d (T0+TTE) a (R/R
) (R/R0)(T0+TTE), y
)
• No tome en cuenta los datos correspondientes al tiempo (R/R0)T0.
– Ventaja: cualquier sesgo residual en el estimador puntual debe ser 
Ventaja: cualquier sesgo residual en el estimador puntual debe ser
fuertemente reducido.
– Sin embargo, es necesario haber guardado el estado del modelo en el 
ti
tiempo T
T0+TTE .
Agrupación en una Corrida
• Usando una sola replicación MUY larga:

– Problema: los datos son dependientes luego el estimador es segado.

– Solución: AGRUPACIÓN (batch means).
S l ió AGRUPACIÓN (b h )

• Batch means: divida los datos resultantes de la replicación 1
Batch means: divida los datos resultantes de la replicación 1 (después del 
(después del
periodo de calentamiento apropiado) en lotes grandes y trate las medias de 
dichos lotes como independientes.
Agrupación en una Corrida
• ti l ti {Y(t) T0 t 
Un proceso continuo en el tiempo, {Y(t), T
U t  T0+TE}:
}
– k lotes de tamaño m = TE /k. Media de cada lote:

1 jmj
Yj   Y (t  T0 )dt
m ( j 1) m

• Un proceso discreto en el tiempo, {Yi, i = d+1,d+2, …, n}:
– k lotes de tamaño m = (n – d)/k. Medias de cada lote:
jm
1
Yj   Yi  d
m i ( j 1) m 1
Agrupación en una Corrida
Y1 , ..., Yd , Yd 1 , ..., Yd  m , Yd  m 1 , ..., Yd  2 m , ... , Yd  ( k 1) m 1 , ..., Yd  km
Borrado Y1 Y2 Yk

La varianza de la media muestral se calcula como:


La varianza de la media muestral se calcula como:
2 k
Y j  Y 2  k
Y j2  kY 2
 
S 1

k k j 1
k 1 j 1
k (k  1)

Você também pode gostar