Escolar Documentos
Profissional Documentos
Cultura Documentos
INTRODUCCION
La simulación es el proceso de duplicar el comportamiento de una propuesta existente
o propuesta sistema. De esta manera los proyectos pueden ser evaluados para juzgar si
su desempeño sería adecuado o no antes de realizar las inversiones. De forma similar,
las políticas operativas se pueden probar antes de que se implementen con control real
situaciones Se cree que la simulación es la herramienta más poderosa para estudiar
sistemas complejos.
Donde Ri son variables enteras y a, b y d son constantes enteras positivas que depende
de las propiedades de la computadora. La palabra "módulo" denota que la variable a la
izquierda de esta palabra se divide por la variable a la derecha (en este caso d) y al resto
se le asigna el valor Ri. El deseado distribuido uniformemente número aleatorio se
obtiene como Ri/re. El valor inicial de la variable (R0) en Eq anterior se llama la semilla.
Las propiedades de los números generados dependen de los valores de las constantes
a, b y d, sus relaciones y la computadora utilizada.
El valor de la constante a debe ser lo suficientemente alto; los valores bajos no pueden
ceder Buenos resultados. Las constantes byd no deberían tener ningún factor común. Lo
positivo los enteros R0, a, b y d se eligen de manera que d> 0, a <d, y b <d.
En la generación de computadora, la secuencia de números aleatorios se repite después
de una cierto retraso y se desea que la duración de este ciclo sea lo más larga posible.
Este retraso aumenta a medida que aumenta d y, por lo tanto, un gran valor de d debe
ser elegido. Normalmente, d se establece igual a la longitud de la palabra (la cantidad
de bits retenidos) como una unidad) de la computadora; un valor típico es 231 - 1. Es
importante asegurarse de que la duración del ciclo es más que los números que se
necesitan para el estudio.
Ejemplo 11.2 Generar variables aleatorias que siguen una distribución exponencial con
el parámetro λ = 2.3.
Solución La función de distribución acumulativa de una distribución exponencial es
FX (x) = 1 - e-λx
Su inversa se puede escribir como
x = FX-1 [r] = -ln (1 - r) / λ (11.3)
Como (1 - r) está distribuido uniformemente, este puede ser reemplazado por r, que
también es distribuido uniformemente. Por lo tanto, variables aleatorias distribuidas
exponencialmente con la propiedad deseada puede ser generada por
x = -ln (r) /2.3
Si el primer número aleatorio distribuido uniformemente r1 = 0.89, el correspondiente
número aleatorio r1 = 0.89
variate x1 será
x1 = -ln (0.89) /2.3 = 0.05067
Ejemplo 11.3 Generar variables aleatorias que siguen la siguiente probabilidad función
de densidad: fX (x) = 3/5 + x3 , 0 ≤ x ≤ 1
Solución La función de densidad dada se puede descomponer como
fX (x) = 3/5 f1 (x) + 2/5 f2 (x)
dónde
f1 (x) = 1 y F1 (x) = x, 0 ≤ x ≤ 1
f2 (x) = (5/2) x3 y F2 (x) = (5/8) x4 , 0 ≤ x ≤ 1
Para la primera función, F1 (x) = x = u2 o variate x = F1 -1 (u2) = u2. Para el segundo
función, F2 (x) = (5/8) x4 = u2 o variable x = F2 -1 (u2) = (8u2 / 5) 0.25. Tenga en cuenta
que aquí los pesos son 3/5 y 2/5 y suman a la unidad. Ahora dos uniformemente
números distribuidos son generados. Deje que estos números sean 0.538 y 0.181. Como
u1 = 0.538 es menor que 3/5, u2 se usa para generar la variable siguiendo F1 (x). Por lo
tanto, Variable aleatoria x1 = F1 -1 (u2) = 0,181 En el segundo intento, permita que los
números distribuidos uniformemente sean 0.722 y 0.361. Como u1 es mayor que 3/5,
u2 se usa para generar la variable siguiendo F2 (x). Por lo tanto, Variable aleatoria x2 =
F2 -1 (u2) = (8 × 0.361 / 5) 0.25 = 0.87
2.3.3. Método basado en funciones
Para algunas distribuciones, las variables aleatorias se pueden expresar como funciones
de otras variables aleatorias que se pueden generar fácilmente. Esta propiedad puede
ser explotada para la generación de variables aleatorias. Por ejemplo, la distribución
gamma es nada más que la suma de las distribuciones exponenciales. Por lo tanto, si una
variable Z sigue una distribución gamma con parámetros (k, λ), entonces uno puede
escribir
Donde X1i, X2i, ... + Xki son k variables aleatorias independientes distribuidas de forma
independiente con el parámetro λ. El procedimiento para generar una distribución
aleatoria gamma Variable siguiendo este método consiste en generar variables
aleatorias que siguen distribuciones exponenciales que tienen el parámetro λ. Ahora, k
tales variantes son agregado para obtener una variante distribuida gamma.
Ejemplo 11.4 Generar variables aleatorias distribuidas por gamma con parámetros
(4, 0.8) usando el método basado en función.
Solución El método de transformación inversa se puede utilizar para generar
exponencialmente varianzas aleatorias distribuidas. Primero generamos un aleatorio
distribuido uniformemente número u en el rango [0, 1]. Utilizándolo, una variable
aleatoria que sigue al la distribución exponencial con el parámetro λ puede obtenerse
x = -ln (u) / λ (11.7)
Deje que los primeros cuatro números aleatorios uniformemente distribuidos u1, ..., u4
sean 0.5371,
0.1814, 0.6193 y 0.1319. La distribución aleatoria exponencial correspondiente las
variables con el parámetro 0.8 (vea el Ejemplo 11.2) serán 0.777, 2.134, 0.599 y
2.532. Por lo tanto, la variable distribuida gamma con el parámetro (4, 0.8) será
(11.8)
Recuerde que la suma de dos variables independientes distribuidas por gamma con
parámetros (λ, k1) y (λ, k2) es una variante distribuida gamma con parámetros (λ, k1 +
k2).
La media de estas variables distribuidas de forma logarítmica normal será mx (ln) = exp
(mx + σx2/2) y la varianza será σ 2x (ln) = exp (2mx + σ 2x) [exp (σ2x) - 1]. Si el objetivo
es generar variables aleatorias distribuidas de forma logarítmica normal con media mx
(ln) y varianza σ2x (ln) luego estos se pueden obtener de la siguiente manera. Primero,
genere variables aleatorias distribuidas normalmente con media y varianza como
La precisión de esta aproximación es 0.0032 para | x | <2 y 0.0038 para 2 <| x | <3, y la
probabilidad de que x esté fuera | x | > 4.91 es menor que 10-6 (Salas 1993). Otra
aproximación (Salas 1993) para la distribución normal basada en ecuaciones
polinómicas es
Se puede ver que este proceso es básicamente un método de transformación inversa, pero
también requiere una búsqueda numérica para llegar a la variante deseada. Sin embargo,
este método puede no ser el enfoque más eficiente para generar una variable aleatoria
discreta.
Ejemplo 11.6 Genere variables aleatorias que siguen una distribución binomial con
parámetros (5.0, 0.4).
Ahora se genera un número aleatorio distribuido uniformemente. Déjalo ser u = 0.5. Dado
que FX(1) < u ≤ FX(2), la variante requerida x = 2. Bajo ciertas circunstancias, la
distribución binomial se puede aproximar por la distribución normal y esta propiedad se
puede usar en la generación de datos (ver Capítulo 5).
Ejemplo 11.7 Genere variables aleatorias que siguen una distribución de Poisson con el
parámetro λ = 4.
Para i = 0,
Ahora se genera un número aleatorio distribuido uniformemente. Déjalo ser u = 0.6. Dado
que FX(3) < u ≤ FX(4), el número requerido x = 3. Para la distribución de Poisson, cuando
el parámetro λ es grande (λ> 10), la distribución puede ser aproximada por la distribución
normal, N (λ - 0.5, √λ) (Rubinstein 1981). Esta propiedad se puede utilizar para generar
números aleatorios distribuidos por Poisson cuando λ es grande. Un método general que
se puede usar para generar cualquier variable aleatoria discreta que tenga un rango finito
de valores es el método de alias. Aunque es algo complejo, este es un método general y
eficiente. El método ha sido descrito por Kronmal y Peterson (1979).
Considere un conjunto de n variables aleatorias X1, X2, ..., Xn. Estas variables pueden ser
independientes o dependientes. Si las variables aleatorias son independientes, la
distribución de probabilidad conjunta se puede obtener multiplicando sus funciones de
distribución de probabilidad marginal:
Aquí fxi (xi) es la función de distribución de probabilidad marginal de Xi. Si las variables
aleatorias son dependientes, entonces su función de distribución de probabilidad conjunta
se convierte
Donde fxi (xi | x1, …, xn) es la condicional PDF de Xi, dado X1 =x1, X2=x2, …, Xi-1=xi-1.
La distribución acumulativa conjunta es
La ecuación 11.20 proporciona una base para generar variables aleatorias distribuidas
conjuntamente. Suponga que se han generado números aleatorios distribuidos
uniformemente. Ahora, un valor de la variable X1 puede ser generado por la
transformación inversa usando Eq. 11.2. Con este valor de X1 y la forma inversa de la
función de distribución acumulativa condicional FX2 (x2 | x1), el valor de la variable
aleatoria X2 puede obtenerse a partir de
Ejemplo 11.8 Genere números que sigan una distribución normal bivariada con
parámetros (3.9, 1.6) y (4.5, 2.2). El coeficiente de correlación (ρ) entre los números es
0.65.
Solución Deje que los medios de las dos distribuciones sean dados por mx y my y las
desviaciones estándar por σx y σy. Su función de densidad de probabilidad conjunta se
puede escribir como
Generamos otro número uniformemente distribuido, que resulta ser 0.43. Tratar esto
como probabilidad da el valor de z como -0,18. Por lo tanto, el valor de Y será
Abramowitz y Stegun (1965) han dado una fórmula aproximada para calcular las
variables normales estándar dada la probabilidad de excedencia sin uso de una tabla, con
un error de aproximación menor a 4.5×10-4. Deje que P represente la probabilidad de no
coincidencia y Q la probabilidad de excedencia: Q = 1 - P. Calcule W por
Durante las últimas décadas, las técnicas de Monte Carlo se han aplicado a una amplia
gama de problemas en recursos hídricos, como la estimación de la precipitación media
areal (Shih y Hamrick 1975), hidrología del agua superficial (p. Ej., Labadie et al., 1987)
y problemas de aguas subterráneas (p. ej., Jones 1990). En esta sección, se presentan
varios ejemplos de la vida real para ilustrar la técnica de simulación Monte Carlo y sus
puntos fuertes.
Conociendo los valores de μx, σx, ρx y γx para los datos históricos, podemos encontrar los
valores de a, μy, σy y ρy para y. Primero, usando Eq. 11.30 tenemos
La solución de cuál es
Ahora, de la ecuación 11.29, obtenemos
Que da a=111×106m3.
Ahora, al usar estas propiedades, los flujos en el dominio de registro son generados por
Donde ti son variables aleatorias distribuidas normalmente con media cero y desviación
estándar de la unidad. Los flujos sintéticos en el dominio real se obtienen mediante la
transformación
Este procedimiento se utilizó para generar 500 trazas de entradas, cada una de 100 años,
que es la vida útil de un depósito de almacenamiento típico. Un procedimiento simple
para determinar la capacidad de almacenamiento requerida es el algoritmo de picos
secuencial (ver Jain y Singh 2003). En el presente caso, la capacidad de almacenamiento
se obtuvo para un calado igual a 0,7 veces las entradas medias. Estas estimaciones se
muestran en la figura 11-3. El almacenamiento promedio fue de 125×106m3, y la
desviación estándar de los valores de almacenamiento fue de 46×106m3. Es interesante
observar que los valores máximos y mínimos de almacenamiento fueron 363x106 y
13×106m3. Claramente, la decisión sobre el tamaño del reservorio después de dicho
análisis será una decisión mucho mejor que solo el uso de los datos disponibles (y
generalmente de muestra pequeña).
Figura 11-3 Variación de los valores de almacenamiento para las diversas ejecuciones
de simulación.
Al usar este modelo, se generaron los datos de entrada durante 1,000 años. La operación
fue simulada por 1,000 años siguiendo la política de operación lineal estándar dada por
la ecuación. 11.34 y suponiendo un contenido de yacimiento inicial de 500×106m3. Como
resultado, se producen las liberaciones del yacimiento y el almacenamiento de fin de año
para estos 1,000 años. A partir de esta información, se puede calcular la probabilidad de
diferentes rangos de liberación, como se muestra en la Tabla E11-10a.
Deje que los beneficios anuales de la publicación en diferentes rangos (bi) sean los que
figuran en la segunda fila de esta tabla. Por lo tanto, el beneficio anual esperado (B) del
embalse se puede calcular como
Donde Ri es la probabilidad de liberación en el rango i. Por lo tanto,
Una vez que se ha formulado un modelo para la generación de datos y la operación del
sistema, se puede aprovechar su poder para evaluar la sensibilidad de varios parámetros
del sistema, como las propiedades de entrada o el nivel de demandas. Uno puede tomar
tiradas repetidas del sistema para analizar cómo cambiarán los beneficios esperados si la
correlación de las entradas fue diferente o si la magnitud de las demandas objetivo cambia
(suponiendo que el beneficio de los diferentes flujos permanezca constante, aunque esto
también se puede estudiar si es suficiente datos estaban disponibles). La Tabla E11-10b
proporciona los resultados de algunas ejecuciones de sensibilidad. En esta tabla, el
término ejecución base se refiere a la ejecución con los parámetros del sistema dados. En
las ejecuciones de sensibilidad, un parámetro se cambia a la vez y se calculan la
probabilidad de liberación y los beneficios esperados.
Y el PDF
El método regular de momentos es válido solo cuando a> - 1/3, lo que limita su aplicación
práctica. En segundo lugar, su estimación del parámetro de forma (a) depende únicamente
de la asimetría de la muestra, que en realidad podría ser muy diferente de la asimetría de
la población. Siguiendo a Quandt (1966), una versión modificada de este método (MM1)
implica la reestructuración de la Ec. 11.41 en términos de alguna propiedad conocida de
los datos. En esta modificación, Eq. 11.37 es reemplazado por E[F(x1)] = F(x1), que rinde
Eliminando b y c por sustitución de Eq. 11.40 y Eq. 11.41 en la ecuación 11.42, uno
obtiene una expresión para la estimación de a:
Los estimadores de momentos ponderados por probabilidad (PWM) para GPD3 se dan
(Hosking y Wallis 1987) como
Donde el cuarto momento ponderado por la probabilidad, Wr, está dado por
Las ecuaciones de máxima verosimilitud (ML) de Eq. 11.38 se dan (Moharram et al.,
1993) como
2. No todos los estimadores funcionan bien en todos los rangos de población, por lo que
debe seleccionarse un rango donde se puedan aplicar todos los estimadores.
Afortunadamente, en la vida real los datos encontrados más comúnmente se encuentran
dentro del rango considerado en este estudio.
Aunque las formas estandarizadas de sesgo, error estándar y error cuadrático medio se
usan comúnmente en la práctica de ingeniería (Kuczera 1982a, b), el rendimiento de los
estimadores de parámetros se evaluó utilizando sus estadísticas bien definidas. Estos
índices de rendimiento se definieron, respectivamente, como
Tabla E11-11 Casos de población de GPD3 considerados en el experimento de
muestreo.
11.6.3.5 Robustez
Kuczera (1982a, b) definió un estimador robusto como aquel que es resistente y eficiente
en un amplio rango de fluctuaciones de la población. Si un estimador se desempeña de
manera constante sin un deterioro indebido en el RMSE y el sesgo, entonces se puede
esperar que tenga un mejor rendimiento que otros estimadores competitivos en
condiciones de población diferentes de aquellas en las que se basaron las conclusiones.
Dos criterios para identificar un estimador resistente son min-max y RMSE promedio
mínimo (Kuczera 1982b). Con base en este criterio min-max, el estimador preferido es
aquel cuyo RMSE máximo para todos los casos de población es mínimo. El criterio de
promedio mínimo es seleccionar el estimador cuyo promedio de RMSE sobre los casos
de prueba es mínimo.
La Tabla 11-1 muestra los resultados del sesgo en los parámetros. Para el parámetro de
forma (a), para tamaños de muestra pequeños (n ≤ 50), RME y MM1 mostraron menos
sesgo, particularmente para aumentar los valores de población de a, para tamaños de
muestra más pequeños (n ≤ 20). Los métodos basados en momentos tendieron a estimar
a sin responder a los cambios en b y c. A MLE no le fue bien para tamaños de muestra
pequeños, pero mejoró consistentemente mientras que su sesgo aumentó con el aumento
de los valores de población de a. PWM mostró menos sesgo para a>0. A partir de los
resultados sesgados de las 20 poblaciones, concluimos que para aumentar los tamaños de
muestra (n ≥ 50) PWM y MLE sería aceptable. Para el parámetro de escala (b), RME y
MM1 respondieron linealmente al cambio en los valores de población de b. MM1 se
desempeñó mejor para todos los tamaños de muestra y casos de población. Para tamaños
de muestra más grandes (n ≥ 100), todos los estimadores, excepto RME, que tenían un
sesgo mayor para a<0, mostraron un sesgo absoluto comparable. Para el parámetro de
ubicación (c), todos los métodos, excepto MLE, mostraron un sesgo negativo. La razón
del sesgo positivo de MLE está enraizada en el procedimiento de solución adoptado para
MLE. Otro hallazgo importante en este sentido es que el sesgo en c fue dictado solo por
los valores poblacionales de a y b.
La Tabla 11-2 resume el error cuadrático medio en los resultados de las estimaciones de
los parámetros. MM1 tuvo un buen rendimiento solo para c, pero para otros parámetros
mostró un patrón similar al de RME. PWM demostró una mejora constante para todos los
casos poblacionales a medida que aumentaba el tamaño de la muestra. A MLE no le fue
bien cuando n≤20; sin embargo, a medida que el tamaño de la muestra aumentó, superó
a otros métodos. Con el aumento de la población a, MLE exhibió una mejora constante
en RMSE para a y b. RME y MM1 no respondieron a los cambios en las poblaciones c y
b al estimar el parámetro a, como lo indicaron los resultados del sesgo antes.
Tabla 11-1 Sesgo en los parámetros de GDP3 para espacios abarcados por a = (-0.1, -
0.05, 0.0, 0.05, 0.1), b = 0.50, c = 1.0.
Tabla 11-2 RMSE en los parámetros de GPD3 para espacio abarcado por a = (0.1, 0.05,
0.0, 0.05, 0.1), b = 0.50, c = 1.0.
Tabla 11-3 Sesgo en los cuantiles de GPD3 para espacio abarcado por a = (-0.1, -0.05,
0.0, 0.05, 0.1), b = 0.50, c = 1.0.
Tabla 11-4 RMSE en los parámetros de GPD3 para espacio abarcado por a = (-0.1, -
0.05, 0.0, 0.05, 0.1), b = 0.50, c = 1.0.
Cuando a> 0 y tamaño de muestra n ≤ 20. A medida que aumentó el tamaño de la muestra
(n ≥ 50), MM1 se comportó comparativamente mejor que RME en todos los rangos. RME
y MM1 tendieron a subestimar aún más los cuantiles con el aumento de la población c
para un valor dado de b para P ≤ 0.995. Sin embargo, para P = 0.999, la tendencia se
revirtió. En general, al aumentar b, el sesgo absoluto de estos métodos aumentó para
tamaños de muestra n≥10. PWM y MLE superaron a los otros métodos en términos del
valor absoluto del sesgo para todos los tamaños de muestra y rangos de cuantiles. PWM
y MLE respondieron positivamente en términos de sesgo tanto para b y c cuando uno fue
variado manteniendo el otro constante.
11.6.3.12 Resumen
Se realizó una evaluación del rendimiento relativo de cuatro métodos para estimar
parámetros y cuantiles del GPD de tres parámetros mediante la simulación de Monte
Carlo. La generación de una gran cantidad de datos de muestra y su análisis permitieron
una comparación de los diversos métodos de estimación de parámetros. No se encontró
que ningún método sea preferible a otro para todos los casos de población considerados.
En general, se encontró que el método PWM funcionaba de manera consistente. Cuando
una opción clara de un método en particular está en duda, PWM puede ser el método más
confiable y debe ser el preferido.
Ejemplo 11.12 Los datos de flujo máximo anual para un río en América del Sur durante
10 años se ordenan en orden descendente en la Tabla E11-12a. Los resultados de un
estudio detallado mostraron que la distribución GEV PWM se ajusta a los datos de la
región. La siguiente fórmula regional fue desarrollada para la región:
Y los estimadores de PWM están relacionados con estadísticas de datos por las siguientes
relaciones:
Los parámetros GEV que utilizan estos momentos L se pueden calcular de la siguiente
manera:
Usando estos parámetros calculados, computamos las inundaciones para varios períodos
de retorno como se muestra en la Tabla E11-12c.
De manera similar, se realizaron dos repeticiones más del procedimiento. Los resultados
para la segunda replicación se muestran en la Tabla E11-12d.
Ahora, los L-momentos son
Los parámetros GEV que utilizan estos momentos L se pueden calcular de la siguiente
manera:
Las inundaciones (los flujos) para varios períodos de retorno para esta replicación se
muestran en la Tabla E11-12e.
Para la tercera replicación, los datos se enumeran en la Tabla E11-12f.
Tabla E11-12c
Tabla E11-12d
Tabla E11-12e
Tabla E11-12f
Los parámetros GEV que utilizan estos momentos L se pueden calcular de la siguiente
manera:
Las inundaciones (los flujos) para varios períodos de retorno para esta replicación se
muestran en la Tabla E11-12g.
Ahora analizamos los datos observados (Tabla E11-12h).
Aquí obtenemos
Con L-momentos
Y relaciones de momento L
Tabla E11-12g
Tabla E11-12h
Los parámetros GEV que utilizan estos momentos L se pueden calcular de la siguiente
manera:
Las inundaciones (los flujos) para varios períodos de retorno para esta replicación se
muestran en la Tabla E11-12i.
Las inundaciones (los flujos) para los diversos períodos de retorno calculados utilizando
los datos observados y generados se resumen en la Tabla E11-12j.
Aquí, se han mostrado los resultados de solo unas pocas repeticiones. Cuando se hicieron
10,000 réplicas, el sesgo para T = 1,000 años fue casi 11%. Por lo tanto, la distribución
de GEV puede considerarse un modelo robusto para la región.
Tabla E11-12i
Tabla E11-12j
COMCLUSIONES
donde X es una variable aleatoria cuyo PDF hx (x) se define sobre a ≤ x ≤ b. Ahora F
puede ser calculado por el método de Monte Carlo como
Se han desarrollado varias técnicas de reducción de varianza para obtener una alta
precisión en los resultados de la simulación de Monte Carlo sin tener que aumentar
sustancialmente el tamaño de muestra requerido. Algunas de estas técnicas son:
1. Variadas antitéticas (Hammersley y Morton 1956)
2. Muestreo correlacionado (Rubinstein 1981)
3. Muestreo de hipercubo latino (Pebesma y Heuvelink 1999)
4. Muestreo de importancia
5. Muestreo estratificado (Cochran 1972)
6. Variaciones de control
Estos se describen a continuación.
11.8.1 Técnica de variaciones antitéticas
Supongamos que dos estimadores imparciales α1 y α2 de un parámetro a han sido puteado
Los dos estimadores pueden promediarse para obtener otro estimador de α2 como:
Se puede obtener un valor negativo de cov (α1 (U1), α2 (U2)) generando U1 y U2, que
se correlacionan negativamente. Un enfoque simple que produce variables aleatorias
uniformes negativamente correlacionadas y exige un cálculo mínimo es establecer U1 =
1- U2.
donde A = (a1 a2, .... am) es un conjunto de parámetros para el diseño A. Del mismo
modo, el rendimiento de otro diseño B será:
donde B = (b1, b2, ... bm) es un conjunto de parámetros para el diseño B. Ahora, la
diferencia en el rendimiento de los dos diseños es
Dado que tanto ZA como ZB implican los mismos números aleatorios, estos pueden estar
altamente correlacionados. Por lo tanto, el método de muestreo correlacionado se puede
utilizar de manera efectiva para estimar las propiedades estadísticas de Z. Deje que el
valor medio de estos sea Z. La varianza de Z viene dada por
Para las variables básicas correlacionadas, existen varios procedimientos para generar una
muestra estratificada. Uno de los métodos populares es el método de muestreo exacto.
Para el caso de dos variables básicas dependientes, la distribución marginal de una de las
variables básicas se puede estratificar y muestrear como en LHS, y el valor apareado de
la variable básica codependiente se puede muestrear aleatoriamente a partir de la
distribución condicional usando el valor de la primera variable básica Estos pares
permanecen juntos en la asignación aleatoria a las ejecuciones del modelo. Para básico
dependiente de N
Varios paquetes de computadora que contienen rutinas para los métodos de Monte Carlo
y LHS se informan en la literatura. La Agencia de Protección Ambiental de EE. UU.
Ha aprobado algunos paquetes de computadora para LHS y están disponibles a
través de la Biblioteca de Modelos de Exposición de la EPA. Monte Carlo y LHS se
han aplicado al modelo de contaminación de aguas subterráneas y evaluación de
confiabilidad de estructuras de ingeniería civil.
La teoría del muestreo estratificado examina los problemas de cómo dividir la población
en estratos, cuántos estratos debería haber y cómo deberían determinarse los dominios de
los estratos. Cochran (1972) describió la técnica con mayor detalle.
11.8.6 Variaciones de control
A veces, la exactitud de la estimación puede mejorarse mediante el uso de un estimador
indirecto. Deje Z ser un estimador directo e Y un estimador indirecto. Dejar
En ese caso, el estimador indirecto Y es más preciso que el estimador directo Z. El valor
de a se puede seleccionar para obtener la reducción máxima en la varianza
Los parámetros de los modelos hidrológicos matemáticos se estiman utilizando los datos
disponibles del sistema real. Muchas veces, puede haber grandes incertidumbres en los
valores de los parámetros si no hay suficientes datos disponibles. Dos métodos
estadísticos no paramétricos, a saber, los métodos de jackknife y bootstrap, que no hacen
suposiciones sobre la normalidad, son especialmente útiles en tales casos. Aunque estos
métodos requieren grandes cálculos, los cálculos son manejables. Estos métodos se
discuten a continuación.
Ejemplo 11.13 Se pidió a veinte estudiantes que midieran el nivel del agua del río
Narmada en un sitio de medición. Los valores medidos (en metros) son 290.940, 290.870,
291.010, 290.950, 291.070, 291.110, 291.090, 290.640, 290.680, 290.750,
290.890,290.580,290.750,291.120,290.630,290.890,290.610,290.870,291.060, y
291.070. Determine la precisión de la media de estas medidas usando el método de
jackknife.
Solución Hay 20 valores diferentes de la etapa de agua del río Narmada. La media u de
estas 20 medidas de la etapa del río es 290.879 m. Siguiendo el paso 2 de el método
jackknife, 20 valores de la etapa media del río se calcularon ignorando una observación
a la vez. Estos valores medios ui (en metros) son 290.928, 290.985, 291.030, 291.086,
291.132, 291.183, 291.236, 291.313, 291.363, 291.412, 291.457,
291.526.291.570.291.603, 291.682, 291, 721, 291, 788, 291.827, 291.869 y 291.922.
Los métodos jackknife y bootstrap se pueden usar para calcular la varianza de cualquier
estadística (por ejemplo, media, desviación estándar y sesgo) que se determina a partir
de los datos de muestra.
CONCLUSION
Para las integraciones que implican dimensiones múltiples, el método de Monte Carlo es
una técnica de integración numérica adecuada, Se han desarrollado varias técnicas de
reducción de varianza para obtener una alta precisión en los resultados de la simulación
de Monte Carlo sin tener que aumentar sustancialmente el tamaño de muestra requerido.
Algunas de estas técnicas son: