Escolar Documentos
Profissional Documentos
Cultura Documentos
https://ingenieriademinaswil.blogspot.com/
ÍNDICE
Págs.
Capítulos
1 INTRODUCCIÓN 1
2 CONCEPTOS BÁSICOS 3
3 ANÁLISIS ESTRUCTURAL 9
4 KRIGING 31
ii
4.8.4 Kriging con mediana suavizada 47
4.8.5 Kriging Residual 49
4.9 Kriging Indicador 51
4.9.1 La Función Indicador 52
4.9.2 Variograma Indicador 54
4.9.3 Estimación de la función de distribución de probabilidad acumulativa 55
4.10 Kriging logarítmico 57
5 GEOSTADISTICA MULTIVARIADA 59
5.1 Introducción 59
5.2 Definiciones de los momentos cruzados de segundo orden 59
5.3 Propiedades de los momentos cruzados de segundo orden 60
5.4 Cokriging en el caso estacionario 60
5.5 Cokriging en el caso de funciones aleatorias intrínsecas 63
5.6 Cokriging en el caso no estacionario 64
5.7 Estimación de los momentos cruzados de segundo orden 65
5.8 Modelación de los momentos cruzados de segundo orden 66
5.9 Modelo de corregionalización lineal 68
5.10 Análisis estructural multivariado 69
5.11 Validación del modelo de semivariograma cruzado 71
5.12 Ejemplos de Aplicaciones del Cokriging 71
5.12.1 El caso de dos variables correlacionadas 71
5.12.2 Estimación de combinaciones lineales de variables 73
5.12.3 El problema de variables pobremente muestreadas 75
5.13 Modelo de correlación intrínseco 76
5.14 Análisis de Componentes Principales basado en el Modelo Lineal de 79
Corregionalización
5.15 Dificultades y Aspectos Prácticos del Cokriging 80
5.16 Algunos métodos alternativos al Cokriging 80
5.16.1 Kriging combinado con Regresión Lineal 80
5.16.2 Kriging con una Deriva Externa 81
5.17 Kriging Factorial 82
5.18 Esquema General del Análisis de Corregionalización 85
5.19 Manejo de procesos espacio-temporales 86
6 SIMULACIÓN CONDICIONAL 88
6.1 Introducción 88
6.2 Objetivos de la simulación 89
6.3 Condicionamiento 90
6.4 ¿ Simulación o estimación ? 91
6.5 La teoría de la simulación condicional 92
6.6 Métodos de simulación de funciones aleatorias más conocidos 94
6.7 Métodos del tipo Gaussiano 95
6.8 Método matricial 96
6.9 Método espectral 98
6.10 Método de bandas rotantes 101
6.11 Métodos secuenciales 103
6.12 Métodos del tipo Recocido Simulado 104
Anexos
A CONCEPTOS BÁSICOS DE ESTADÍSTICA 106
iii
A.2 Estadística multivariada 116
A.3 Regresión lineal y mínimos cuadrados 122
iv
CAPITULO 1: INTRODUCCION
Muchos autores se han esforzado para darle una definición, las que giran bajo el concepto de
variables regionalizadas introducido por Matheron 1965, el cual enfatiza dos aspectos
contradictorios: el aleatorio (que tiene en cuenta las irregularidades locales) y el estructural (que
refleja las tendencias a larga escala). Chilès (1999, p. 2) la define como “la aplicación de los
métodos probabilísticos a las variables regionalizadas”. Olea (1999 p. 1) la considera como “un
conjunto de técnicas que se auxilian de la caracterización espacial de los atributos, empleando
modelos primarios aleatorios, de manera similar a las series temporales”. Quizás, la definición
más acertada es “la ciencia que estudia las variables regionalizadas”, dada por Le Loc’h (2005).
Una caracterización bastante aceptable es presentada por Dubois (1998); él destaca el papel del
análisis espacial o temporal del fenómeno estudiado.
Un aspecto distintivo de esta ciencia es que asume que los valores de las variables regionalizadas
están correlacionados unos con otros, el estudio de dicha correlación se conoce como “análisis
estructural”. Los pasos básicos de la geoestadística como técnica son:
* Análisis exploratorio de los datos
* Análisis estructural (cálculo y modelado de los variogramas)
* Predicción (kriging o simulación)
La mayoría de los autores resaltan en sus publicaciones los conceptos:
* Variable regionalizada * Anisotropía
* Función aleatoria (FA) * Drift
* Hipótesis estacionaria e intrínseca * Efecto proporcional
* Función de Covarianza espacial
* Variograma, experimental y modelos admisibles.
* Efecto soporte y el soporte de una variable regionalizada.
* Efecto información
* Regularización
Los Autores
1.2 Origen, definición y objeto de estudio
En los años 60, Matheron acuñó el término de Geoestadística. Reconocido como el padre de esta
disciplina, Matheron formalizó y generalizó matemáticamente un conjunto de técnicas
desarrolladas pashor D. G. Krige (1941) que explotaban la correlación espacial para hacer
predicciones en la evaluación de reservas de las minas de oro en Sudáfrica. Él definió a la
Geoestadística como "la aplicación del formalismo de las funciones aleatorias al reconocimiento
y estimación de fenómenos naturales" (Matheron, 1962). Si bien más adelante nos detendremos
en el concepto de una función aleatoria, baste decir de momento que puede visualizarse como la
asociación de una variable aleatoria a cada punto del espacio. La geoestadística es una rama de la
estadística aplicada que se especializa en el análisis y la modelación de la variabilidad espacial en
ciencias de la tierra. Su objeto de estudio es el análisis y la predicción de fenómenos en espacio
y/o tiempo, tales como: ley de metales, porosidades, concentraciones de un contaminante, etc.
Aunque el prefijo geo- es usualmente asociado con geología, sin embargo la geoestadística tiene
sus orígenes en la minería.
1.3 Etapas del análisis geoestadístico
Actualmente, la geoestadística es un conjunto de técnicas usadas para analizar y predecir valores
de una propiedad distribuida en espacio o tiempo. En contraposición con la estadística clásica o
convencional, tales valores no se consideran independientes, por el contrario se suponen de
manera implícita que están correlacionados unos con otros, es decir que existe una dependencia
espacial. Intuitivamente esto indica que mientras más cercanos estén situados dos puntos están
más correlacionados y mientras más separados hay menos relación entre estos.
El proceso de estimación y modelación de la función que describe la correlación espacial es
conocido como “análisis estructural”. Una vez realizado el análisis estructural, la predicción de
valores en puntos no muestrales se puede hacer aplicando la técnica de interpolación "kriging" o
simulándolos a través de “simulaciones condicionales”.
En resumen, a grosso modo un análisis geoestadístico está compuesto por tres etapas: (a) el
análisis exploratorio de los datos, (b) el análisis estructural y (c) las predicciones (kriging o
simulaciones) La primera etapa, conocida como análisis exploratorio de datos, está basada en
técnicas estadísticas convencionales que nos permiten obtener todo un conjunto de información,
desconocida a priori sobre la muestra bajo estudio, que es imprescindible para realizar
“correctamente” cualquier análisis estadístico y en particular un análisis geoestadístico.
1.4 La Geoestadística, su posición y su relación con respecto a otras ramas de la estadística.
Muchos de las ideas de las geoestadística han sido inspiradas en su hermana menor: las series
cronológicas o series de tiempo. Se puede advertir que los objetivos del Análisis de Series de
Tiempo son similares a los de la Geoestadística. Mientras que el Análisis de Series Temporales
está orientado al estudio de procesos unidimensionales con datos muéstrales uniformemente
distribuidos, la Geoestadística se ocupa del estudio de fenómenos con datos distribuidos de forma
arbitraria en el espacio y tiempo, por lo que la metodología de ésta última tiene un carácter mucho
más general. En un marco más amplio, la geoestadística es una disciplina que pertenece a la
estadística espacial.
1.5 Campos de aplicación
La geoestadística ha sido ampliamente aplicada en diversas ramas de las ciencias aplicadas y en
las ingenierías, entre otras tenemos: petróleo, minería, pesca, geofísica marina, hidrogeología,
medio ambiente, estudios forestales, salud pública, ingeniería civil, procesamiento de imágenes,
cartografía, finanzas, ciencias de materiales, meteorología, edafología, etc.
Martín A. Díaz Viera
Una definición más rigurosa matemáticamente equivalente consistiría en decir que una
variable regionalizada es una variable aleatoria z definida en un punto del espacio x .
Donde en el caso más general x es un punto en el espacio tridimensional, es decir
x = ( x1 , x2 , x3 ) .
aleatoria Z ( x ) .
variable regionalizada Z ′ .
3
Martín A. Díaz Viera
{Z ( x ) , Z ( x ) ,..., Z ( x )}
1 2 n se caracteriza por su función de distribución de probabilidad n-
variada:
FZ ( x1 ),Z ( x2 ),...,Z ( xn ) ( z1 , z2 ,..., zn ) = Pr Z ( x1 ) ≤ z1 , Z ( x 2 ) ≤ z2 ,..., Z ( x n ) ≤ zn (2.1)
lineal resulta suficiente estimar los momentos hasta de segundo orden, no obstante en la
mayoría de los casos la información disponible no permite inferir momentos de orden
superior.
Momentos de la distribución de Z ( x )
m ( x ) = E Z ( x ) (2.2)
i) La varianza de Z ( x )
σ 2 ( x ) = Var Z ( x ) = E {Z ( x ) − m ( x )}
2
(2.3)
{
C ( x i , x j ) = E {Z ( x i ) − m ( x i )} Z ( x j ) − m ( x j )
} (2.4)
4
Martín A. Díaz Viera
2γ ( xi , x j ) = Var Z ( xi ) − Z ( x j ) (2.5)
γ ( xi , x j ) = {
E Z ( xi ) − Z ( x j )
1
2
}
2
(2.6)
Se debe notar que tanto la varianza como el variograma son siempre positivos, mientras que
la covarianza puede tomar valores negativos.
{Z ( x ) , Z ( x ) ,..., Z ( x )} es
distribución Ec.(2.1) es invariante a cualquier traslación respecto a un vector h o lo que es
Puesto que, como se planteó anteriormente, usualmente se trabaja sólo con los momentos
hasta de segundo orden resulta práctico limitar la hipótesis de estacionaridad a estos
primeros momentos.
Se dice que una función aleatoria es estacionaria de segundo orden si se cumple que:
5
Martín A. Díaz Viera
E Z ( x ) = m; ∀ x (2.7)
C ( h ) ≡ C ( x + h, x ) = E Z ( x + h ) Z ( x ) − m 2 (2.8)
σ 2 = C ( 0 ) = Var Z ( x ) (2.9)
Así mismo bajo esta hipótesis el semivariograma también es estacionario y se cumple que:
γ ( h ) ≡ γ ( x + h, x ) = E {Z ( x + h ) − Z ( x )}
1
2
2
(2.10)
γ ( h) = C ( 0) − C ( h)
Además existe una relación directa entre el semivariograma y la función de covarianza
(2.11)
En este caso resulta suficiente usar una de las dos funciones para caracterizar la
dependencia espacial.
Existen funciones aleatorias Z ( x ) que representan a fenómenos físicos que muestran una
capacidad casi ilimitada de variación, por lo que para estas funciones no están definidas la
Z ( x + h ) − Z ( x ) tienen una varianza finita. En otras palabras, esto quiere decir que las
varianza ni la covarianza. Sin embargo existen casos en que sus incrementos o diferencias
6
Martín A. Díaz Viera
E Z ( x + h ) − Z ( x ) = 0 (2.12)
Es evidente que una función aleatoria estacionaria de segundo orden es siempre intrínseca.
Lo contrario no se cumple. A las funciones que cumplen con la hipótesis intrínseca se les
considera como débilmente estacionarias.
Las funciones aleatorias no estacionarias son aquellas cuya esperanza matemática depende
de x :
E Z ( x ) = m ( x ) (2.14)
Z ( x) = m ( x) + R ( x) (2.15)
γ ( x + h, x ) = γ R ( h ) +
1
{ m ( x + h ) − m ( x )}
2
(2.16)
2
7
Martín A. Díaz Viera
γ (h) = γ R (h) + ( m1 ⋅ h )
1 2
(2.17)
2
pero crece con el cuadrado de h , lo cual puede servir de indicador para la detección de la
existencia de tendencia.
8
Martín A. Díaz Viera
Z ( x)
El semivariograma, conocido tambien como variograma, es la herramienta central de
la geoestadística. Dada una variable regionalizada que cumpla la Hipótesis
γ ( h ) = 12 Var Z ( x ) − Z ( x + h ) = 12 E {Z ( x ) − Z ( x + h )}
Intrínseca entonces existe la función semivarianza y se define como sigue:
2
(3.1)
par de valores Z ( x ) y Z ( x + h ) .
conocido como "lag", el cual denota la separación en distancia y dirección de cualquier
9
Martín A. Díaz Viera
∑ Z ( x
N ( h)
γ (h) = 2 N ( h)
+ h ) − Z ( x i )
2
1
(3.2)
i =1
i
Debido a que γ ( h ) es esencialmente una media muestral, tiene todas las desventajas
- Es un estimador no paramétrico.
- Es óptimo cuando se dispone de una malla regular de muestreo que sea representativa y
la distribución sea normal. En estas condiciones el sesgo es el mínimo posible.
- Desviaciones en la distribución.
- Heterocedasticidad.
10
Martín A. Díaz Viera
Se dice que los datos son heterocedásticos, si el diagrama del valor medio m contra la
desviación estándar σ , calculadas en vecindades móviles, muestra que la dispersión de
los valores (medidos por σ ) está relacionada con su magnitud (medida por m ). Por la
tanto, por ser el semivariograma una medida de la dispersión, su magnitud está ligada a
la magnitud de los valores de los datos. Cuando se da este tipo de fenómeno, se dice
que existe un efecto proporcional.
- Desviaciones en el muestreo.
11
Martín A. Díaz Viera
γ ( h ) = ( 0.457 + 0.494 N ( h ) )
−1
(
∑ Z ( xi + h ) − Z ( xi ) )
( )
4
N ( h ) i =1
N h
1 1 1
* 2
(3.3)
2
Para el cómputo del semivariograma es necesario tener en cuenta algunas reglas prácticas
que permiten elevar la eficiencia y la calidad de la estimación, independientemente del
tipo de estimador que se utilice.
12
Martín A. Díaz Viera
- El largo de los intervalos debe ser elegido de forma tal que el número de pares en cada
intervalo sea lo suficientemente grande para que el estimado del semivariograma
sea relativamente estable. Se considera que entre 30 y 50 pares satisfacen este
requerimiento.
- Los valores estimados para cada intervalo se deben graficar contra la distancia
promedio de todos los pares que se encuentran dentro de dicho intervalo.
En sentido amplio se considera por su forma que hay dos tipos principales de
semivariogramas. En el primer tipo, la semivarianza se incrementa con el
incremento del valor absoluto del intervalo |h| hasta alcanzar un valor máximo a partir
del cuál se mantiene relativamente constante y oscila alrededor del mismo. Estos
semivariogramas son conocidos como de tipo transitivo. El valor del intervalo a partir del
cual el semivariograma no se incrementa es conocido como alcance o rango (radio de
correlación) y marca el límite de la dependencia espacial de la propiedad. La varianza
13
Martín A. Díaz Viera
Una variable con este tipo de semivariograma no sólo cumple la hipótesis intrínseca, sino
también es estacionaria de segundo orden. Esto significa que su valor esperado es
constante
E Z ( x ) = m; ∀x (3.4)
C ( h ) = Cov Z ( x + h ) , Z ( x )
y la función de covarianza existe y está definida por
γ ( h) = C ( 0) − C ( h)
autocorrelación como sigue:
(3.6)
ρ ( h ) = C ( h ) C ( 0) = 1 − γ ( h) C ( 0) (3.7)
de la función aleatoria Z ( x ) .
necesariamente se anula.
14
Martín A. Díaz Viera
Y = ∑ λi Z ( xi )
n
(3.8)
i =1
Var [Y ] = ∑∑ λi λ j C ( x i , x j )
n n
(3.9)
i =1 j =1
15
Martín A. Díaz Viera
C ( x1 , x1 ) C ( x1 , x 2 ) ... C ( x1 , x n )
C ( x 2 , x1 ) C ( x 2 , x 2 ) ... C ( x 2 , x n )
(3.10)
C ( x n , x1 ) C ( x n , x 2 ) ... C ( x n , x n )
... ... ... ...
debe ser definida positiva, es decir, el determinante y todos sus menores principales son
C ( x i , x j ) = Cov Z ( x i ) , Z ( x j ) ; i, j = 1,..., n.
positivos o cero. Aquí las covarianzas están definidas como
Var [Y ] = C ( 0 ) ∑ λi ∑ λ j − ∑∑ λi λ jγ ( x i , x j )
n n n n
(3.11)
i =1 j =1 i =1 j =1
i =1
i
Var [Y ] = −∑∑ λi λ jγ ( x i , x j )
n n
(3.12)
i =1 j =1
negativa semidefinida.
16
Martín A. Díaz Viera
γ ( h)
lim =0 (3.13)
h →∞ h 2
Cuando no se satisface esta condición puede ser un indicador de que la función aleatoria no
sea estacionaria.
origen, es decir γ ( 0 ) = 0 .
Por otro lado de la definición de semivariograma se infiere que éste debe anularse en el
Las funciones que cumplen las condiciones anteriores son conocidas como modelos
autorizados del semivariograma.
El hecho de probar si una función dada es aceptable o no, está relacionado con el
examen de su Transformada de Fourier. Christakos [1984] obtuvo las condiciones que
el espectro de la función debe reunir para ser un modelo autorizado.
Como una propiedad importante se debe destacar que cualquier combinación lineal de
modelos autorizados es un modelo autorizado.
17
Martín A. Díaz Viera
En una dimensión los bloques son simplemente líneas. Supongamos que estos son de
longitud a y la distancia entre sus centros es h. Su solapamiento es entonces a−h, el cual,
cuando se expresa como una proporción de a es 1-(h/a), siendo h ≤ a.
ρ (h) = 1− h a (3.14)
S ( h a ) para 0 ≤ h ≤ a
γ (h) =
S h>a
(3.15)
para
Modelo Circular
h h 2
A= cos −1 − a − h 2 ; para h ≤ a
a2
a 2
(3.16)
2
Expresado como una fracción del área del disco obtenemos la función de
( )
autocorrelación
2 −1 h h 2
ρ ( h) = cos − 1− h
π a a a
(3.17)
y el semivariograma
18
Martín A. Díaz Viera
( )
2 −1 h
2
− − − para 0 ≤ h ≤ a
a
2h
γ (h) = π a πa
S 1 cos 1 h
S
(3.18)
para h>a
gradiente=4S/(πa)
Modelo Esférico
3h 1 h
ρ ( h) = 1 − +
3
2a 2 a
(3.20)
y el semivariograma
S h h 3
3 − para 0 ≤ h ≤ a
γ (h) = 2 a a
(3.21)
S para h>a
gradiente=3S/(2a)
Debe señalarse que el modelo esférico es apropiado para el caso de tres dimensiones
aunque se puede aplicar para casos de una y dos dimensiones. Lo inverso no se cumple.
El modelo circular sólo es apropiado para una y dos dimensiones. El lineal solamente
para el caso unidimensional. Esto se debe a que solamente en estos casos estos modelos
son funciones condicionalmente negativas semidefinidas.
19
Martín A. Díaz Viera
Modelo Exponencial
−
γ (h) = S 1 − e r h≥0
h
para (3.22)
gradiente = S/r
Modelo Gaussiano
γ (h) = S 1 − e r para h ≥ 0
2
(3.23)
donde r es un parámetro no lineal que determina la escala espacial de la variación,
como en el caso exponencial. El rango efectivo se considera a = 3r , que corresponde al
valor 0.95S del variograma.
20
Martín A. Díaz Viera
sin(h)
γ (h) = S 1 − h>0
h
para (3.24)
Este puede ser usado para representar procesos regularmente continuos y que muestran
un comportamiento periódico, el cual es frecuentemente encontrado, donde existe una
sucesión de zonas ricas y pobres. Es un modelo negativo definido en tres dimensiones.
γ (h) = S (1 − cos(h) )
Otra alternativa es:
para h≥0 (3.25)
Modelo Potencia
Z ( x) − Z ( x + h) = ε
movimiento Browniano en una dimensión, en el cual:
(3.26)
es una variable aleatoria gaussiana, espacialmente independiente.
Su semivariograma es:
21
Martín A. Díaz Viera
D = 2 − (θ 2 ) (3.28)
Con frecuencia notamos que muchos semivariogramas aparentan ser de varianza nugget
pura. Esto ocurre porque toda la varianza está dentro de un intervalo de muestreo mas
pequeño.
γ (h) = S (1 − δ (h) )
Formalmente se puede definir como sigue:
(3.30)
Se define como:
γ (h) = k log(h) (3.31)
22
Martín A. Díaz Viera
Combinación de modelos
aleatorias independientes Yi ( x ) ,
Z ( x ) = ∑ λiYi ( x )
n
(3.32)
i =1
γ ( h ) = ∑ λi2γ i ( h )
n
(3.33)
i =1
C ( h ) = ∑ λi2Ci ( h )
n
(3.34)
i =1
Yi ( x ) .
decir
Z ( x ) = ∏ Yi ( x )
n
(3.35)
i =1
C ( h ) = ∏ Ci ( h )
n
(3.36)
i =1
23
Martín A. Díaz Viera
γ ( h ) = ∏ Ci ( 0 ) − ∏ Ci ( h )
n n
(3.37)
i =1 i =1
A partir de estas dos propiedades se pueden encontrar modelos mas complejos mediante la
combinación de los modelos simples antes estudiados.
γ ( h) = γ 0 ( h) + γ 1 (h) + γ 2 ( h)
Por ejemplo:
(3.39)
γ 0 (h) = S0 (1 − δ (h) )
donde
(3.40)
S h h 3
1 3 − ; h ≤ a1
γ 1 (h) = 2 a1 a1
(3.41)
S1 ; h > a1
24
Martín A. Díaz Viera
S h h 3
2 3 − ; h ≤ a2
γ 2 (h) = 2 a2 a2
(3.42)
S2 ; h > a2
Esta función puede ser aplicada como un factor al argumento h de la función semivarianzas
en el caso de los modelos transitivos o al gradiente en los modelos no acotados.
En caso de anisotropía si se desea diseñar una red óptima de muestreo se debe hacer en
forma rectangular haciendo coincidir los lados con las direcciones de los ejes
25
Martín A. Díaz Viera
principales y las longitudes de los mismos deben estar en la proporción λ, donde el lado
menor le correspondería a la dirección del eje B.
Algunos geoestadísticos ajustan los modelos de forma visual, pero esta práctica no es
fiable y es preferible usar algún procedimiento estadístico para estos fines. Con
frecuencia es usada la aproximación por Mínimos Cuadrados.
Asume que los residuos están normalmente distribuidos y son independientes y que las
semivarianzas estimadas poseen igual varianza.
Se evitan muchos de los problemas de los MCO, pero requiere de la inversión de grandes
matrices, lo que hace el procedimiento muy complicado.
γ (h j ) − γ (h j ,τ )
W (τ , γ k ) = ∑
2
k
Var γ (h j )
(3.44)
j =1
donde
26
Martín A. Díaz Viera
y estos son actualizados en cada iteración del proceso cuando γ(hj, τ) es reestimada.
Teóricamente esta forma de ponderación debe dar mejor convergencia y en la práctica se
ha encontrado que así es.
27
Martín A. Díaz Viera
residual de los cuadrados de las diferencias entre los valores experimentales γ * ( hi ) y los
a) ∑
1 n
n i =1
{ Z ( x i ) − Z * ( x i )} cercano a 0.
28
Martín A. Díaz Viera
∑
1 n
{ Z ( x i ) − Z * ( x i )}
2
b) pequeño.
n i =1
1 n Z ( x i ) − Z ( x i )
c) ∑
* 2
n i =1 σi
cercano a 1.
e) La correlación muestral de Z ( x i ) , {Z ( x ) − Z * ( x )}
i i σ i es cercana a cero.
Mediante el histograma de los errores normalizados se compila una lista con los puntos
que poseen grandes errores. Esto es útil para la identificación de valores atípicos
(outliers), datos sospechosos o anomalías de otra naturaleza.
El procedimiento de leave one out es un caso particular del método conocido como
para validarlo. Es decir, se estimarían como en el método anterior los valores empleando
29
Martín A. Díaz Viera
30
Martín A. Díaz Viera
CAPITULO 4: KRIGING.
El kriging es un término que ha sido acuñado para designar al "mejor estimador lineal
insesgado" de un punto y al mejor promedio lineal móvil ponderado de un bloque.
Este nombre apareció alrededor de 1960 para nombrar una técnica creada en Francia por
Matheron a partir de los trabajos de D. G. Krige quién fue probablemente el primero
que hizo uso de la correlación espacial y del mejor estimador lineal insesgado en el
campo de la evaluación de yacimientos minerales.
El kriging es una técnica de estimación local que ofrece el mejor estimador lineal
insesgado de una característica desconocida que se estudia. La limitación a la clase de
estimadores lineales es bastante natural ya que esto significa que solamente se requiere
el conocimiento del momento de segundo orden de la función aleatoria (la covarianza
o el variograma) y que en general en la práctica es posible inferir a partir de una
realización de la misma.
- un valor esperado,
E Z ( x ) = m; ∀x (4.1)
31
Martín A. Díaz Viera
C ( h ) = E Z ( x + h ) Z ( x ) − m 2 (4.2)
- un variograma
donde al menos uno de estos dos momentos de segundo orden se supone conocido.
considera intrínseca.
casi puntuales, en otros casos son los valores medios ZVi ( x i ) definidos en los soportes
i
Vi centrados en los puntos xi , donde los n soportes pueden ser todos diferentes.
ZVi ( x i ) = V1i ∫ Z ( x ) d x
Vi
Es bueno destacar que bajo la hipótesis de estacionaridad el valor esperado de cada uno de
estos datos es E Z ( x i ) = m, ∀i .
32
Martín A. Díaz Viera
Z * ( x k ) = ∑ λi Z ( x i ) ,
n
i =1
donde Z k* = Z * ( x k ) .
Los n coeficientes λi son calculados de manera tal que el estimador sea insesgado y que
- La condición de insesgadez.
Para obtener un valor esperado del error igual a cero resulta suficiente imponer la
condición:
E Z k* = E ∑ λi Z ( x i ) = m;
n
i =1
(4.4)
∑ λ E Z ( x ) = E Z
n
*
(4.5)
i =1
i i k
33
Martín A. Díaz Viera
entonces
∑λ m = m
n
(4.6)
i =1
i
y finalmente
∑λ =1
n
(4.7)
i =1
i
F = σ e2 − 2 µ ∑ λi − 1
n
i =1
(4.8)
donde
σ e2 - es la varianza de la estimación,
µ - un multiplicador de Lagrange.
σ e2 = Var Z k − Z k* = E ( Z k − Z k* )
2
(4.9)
34
Martín A. Díaz Viera
desarrollando obtenemos
σ e2 = σ Z2 − 2∑ λiσ Z Z + ∑∑ λi λ jσ Z Z
n n n
(4.12)
i =1 i =1 j =1
k k i i j
∑
∂ F
∂λ = − σ + λ jσ Zi Z j − 2 µ = 0, i = 1,..., n
n
i
2 2
j =1
Z k Zi
∂µ ∑
∂ F = λ −1 = 0
n
(4.13)
i =1
i
∑ λ jσ Zi Z j − µ = σ Z k Zi , i = 1,..., n
n
j =1
n
∑
λ =1
(4.14)
i =1
i
El sistema de ecuaciones así obtenido sirve para el cálculo del Kriging Puntual. Y la
varianza del error de la estimación se puede calcular de una manera más simple si se
sustituye el valor de µ:
σ e2 = σ Z2 − ∑ λiσ Z Z + µ
n
(4.15)
i =1
k k i
35
Martín A. Díaz Viera
σ 11 σ 12 ... σ 1n 1 λ1 σ k1
σ ... σ 2 n 1 λ2 σ k 2
21 σ 22
... ... ... ... ... = ...
... (4.16)
σ n1 σ n 2 ... σ nn 1| λn σ kn
1 1 ... 1 0 − µ 1
donde σ ij = σ Zi Z j
Nótese que bajo la hipótesis intrínseca las covarianzas pueden ser reemplazados por las
semivarianzas, usando la expresión:
σ ij = σ 2 − γ ij (4.17)
donde
σ 2 = C( 0) , es la varianza total o a priori de la muestra.
0 γ 12 ... γ 1n 1 λ1 γ k1
γ ... γ 2 n 1 λ2 γ k 2
21 0
... ... ... ... ... ... = ...
(4.18)
γ n1 γ n 2 ... 0 1| λn γ kn
1 1 ... 1 0 µ 1
36
Martín A. Díaz Viera
σ e2 = ∑ λiγ ki + µ
n
(4.19)
i =1
Estas últimas expresiones resultan ser la formulación del Kriging más común puesto que se
aplica en el caso cuando la variable regionalizada cumple la hipótesis intrínseca la cual es
una condición menos exigente que la estacionaridad de segundo orden.
- no lineales:
Disyuntivo
Indicador
Probabilístico
- paramétrico:
37
Martín A. Díaz Viera
Multigaussiano
Disyuntivo
Lognormal
- no paramétrico:
Simple
Ordinario
Universal
Residual
Indicador
Probabilístico
Sistema de ecuaciones:
∑ λ jσ ij = σ i 0 , i = 1,..., n
n
j =1
' '
∑
λ = m ( x ) − λ m ( x )
(4.20)
n
i =1
0 0 i i
Estimador:
Z 0* = λ0 + ∑ λi Z ( x i )
n
(4.21)
i =1
Varianza de la estimación:
38
Martín A. Díaz Viera
donde
m( x i ) = E Z ( x i ) es el valor esperado en el punto xi,
Requisitos:
Z ( x) .
4.6.2 Kriging lineal con valor esperado estacionario pero desconocido: Kriging
Ordinario
Sistema de ecuaciones:
∑ λ jσ ij − µ = σ 0i , i = 1,..., n
n
j =1
n
∑
λ =1
(4.23)
i =1
i
Estimador:
Z 0* = ∑ λi Z ( xi )
n
(4.24)
i =1
Varianza de la estimación:
39
Martín A. Díaz Viera
σ K2 = σ 00 − ∑ λiσ i 0 + µ
n
(4.25)
i =1
O
Requisitos:
Z ( x) .
Sistema de ecuaciones:
∑ j ij ∑ µlφl ( x i ) = σ 0i , i = 1,..., n
n
λ σ −
L
j =1
n
l =1
∑
λ φ ( x ) = φ ( x ), l = 1,..., L
(4.26)
i =1
i l i l 0
Estimador:
Z 0* = ∑ λi Z ( x i )
n
(4.27)
i =1
Varianza de la estimación:
σ K2 = σ 00 − ∑ λiσ i 0 + ∑ µlφl ( x 0 )
n L
(4.28)
i =1 l =1
U
Requisitos :
40
Martín A. Díaz Viera
ZV*k = ∑ λi Z ( x i )
n
(4.29)
i =1
En las ecuaciones del Kriging puntual el vector del miembro derecho las semivarianzas γ ij
son reemplazadas por las semivarianzas promedios con respecto al bloque Vk que se
expresan como:
γ V ,i = ∫ γ ( x − x )d x
1
i (4.30)
k
Ak VK
41
Martín A. Díaz Viera
0 γ 12 ... γ 1n 1 λ1 γ Vk ,1
γ ... γ 2 n 1 λ2 γ Vk ,2
21 0
... ... ... ... ... ... = ...
(4.31)
γ n1 γ n 2 ... 0 1| λn γ Vk ,n
1 1 ... 1 0 µ 1
σ V2 = ∑ λiγ V ,i + µ − γ V ,V
n
(4.32)
i =1
k k k k
donde
42
Martín A. Díaz Viera
o deriva.
Han sido propuestas dos vías del kriging en presencia de deriva no constante :
El primer método es conocido como Kriging Universal (Matheron 1969), mientras que
el segundo es el de las Funciones Aleatorias Intrínsecas de orden k (Matheron 1973).
En este método deben ser conocidos a priori el orden k del polinomio que mejor describe o
explica la tendencia y la función de semivarianzas o variograma γ de la función aleatoria
Z ( x ) sin tendencia.
43
Martín A. Díaz Viera
Matheron señaló (1971) que tales estimadores son sesgados y que a menos que el
variograma de los residuos sea conocido, digamos que a partir de su estimación en una
dirección donde no se perciba la deriva, el kriging universal tiene serias
dificultades operacionales.
Como ya se ha visto el kriging universal puede ser expresado de manera muy simple. El
cuales son estacionarios o al menos intrínsecos. Esto significa que la deriva tiene que ser
estimada a partir de los valores muestrales. Aquí comienzan las dificultades.
Debido a que este estimador tiene que ser no sesgado y de varianza mínima uno obtiene
un conjunto de ecuaciones para calcular los coeficientes de la deriva expresada como un
polinomio. Pero para reducir las ecuaciones que dan este estimador óptimo es necesario
conocer el variograma de la función aleatoria, lo cual es precisamente el último
propósito del estudio. Sin embargo, un estimador no sesgado simple es valido y puede
ser derivado a partir de los métodos de mínimos cuadrados del análisis de superficie de
tendencia.
residuos estimados γ R* ( h ) pero Matheron (1969) ha mostrado que tal variograma difiere
Nosotros somos ahora capaces de calcular un variograma experimental de los
44
Martín A. Díaz Viera
Se puede ver que en la estimación del variograma es donde está la clave del problema. No
hay solución directa conocida, uno puede solo hacer un conjunto de suposiciones y
tratar de verificarlos mediante el método de prueba y error, por lo que entonces el
Kriging Universal se transforma en un procedimiento heurístico.
• Los coeficientes del polinomio de la deriva son estimados haciendo una suposición
del tipo del variograma γ R ( h ) .
• Con los coeficiente de la deriva podemos obtener los residuos R ( x i ) en los puntos
muestrales xi .
Si el ajuste es razonable (no existen pruebas aún para la bondad de ajuste) la vecindad
tomada, el tipo de deriva y el variograma supuestos son correctos. En caso contrario, uno
de los parámetros del procedimiento es cambiado y el proceso comienza otra vez. El
45
Martín A. Díaz Viera
algoritmo es simple, pero desde el punto de vista práctico puede consumir una gran
cantidad de tiempo y no ofrece ninguna garantía de que exista convergencia.
Otro criterio que permitiría discriminar en qué medida son correctos o no los supuestos del
procedimiento podría ser el empleo del método de validación cruzada (ver sección 3.del
modelo (combinación de variograma y deriva) que se obtiene en cada paso. En este sentido
Z ( xi ) − Z * ( xi )
una elección razonable sería tomar el modelo que arroje el mejor resultado en términos de
los estadígrafos (valor medio y desviación estándar) de los errores
producto de la validación cruzada de los valores estimados Z * ( x i ) con los valores reales
Z ( x i ) de la muestra.
c) el orden k de las diferencias tiene que ser adivinado (se toma usualmente 2).
d) los efectos de frontera conducen a una reducción drástica de aquellos puntos que
pueden ser estimados por este método.
46
Martín A. Díaz Viera
El enfoque de trabajo propuesto es dejar que la posición espacial de los datos determine la
escala de variación (la deriva es a gran escala). Esto concuerda con el análisis
exploratorio de datos, en que las decisiones sobre el modelo se basan más en lo que se
ve que en lo que pudiera haberse visto.
Se puede ajustar con exactitud una superficie a través de los puntos observados, pero
hay poco poder predictivo en este enfoque. Se quiere extraer la deriva aparente y tratar de
modelar el resto mediante estacionaridad débil.
Los residuos son tomados como datos originales y se realiza el mismo proceso :
47
Martín A. Díaz Viera
y así sucesivamente.
Cressie (1984) sugirió que el ajuste φij en la localización (i,j) sea obtenido mediante la
mediana de los valores observados:
φij = a + ri + cj
donde :
ri - efecto fila, cj - efecto columna, Rij - residuos.
48
Martín A. Díaz Viera
La hipótesis principal del kriging residual propuesto por Gambolati y Volpi (1978 y 1979)
consiste en considerar conocido el orden de la deriva o tendencia m(x), la cual se estima
usando mínimos cuadrados ordinarios m*(x), y a partir de ésta se obtienen los residuos R(x)
a los que se le aplica el kriging ordinario.
49
Martín A. Díaz Viera
directo.
Existen otras modificaciones, como la de Samper (1986), propuestas al método del kriging
residual que consisten esencialmente en estimar la matriz de covarianzas no a partir del
variograma muestral, sino directamente a partir de los residuos. Para efectos prácticos, estas
modificaciones pueden convertir al procedimiento en impracticable. Incluso, en la mayoría
de los casos resulta suficiente la estimación con mínimos cuadrados ordinarios, obviando
los pasos 6-10 del algoritmo anterior.
50
Martín A. Díaz Viera
La mayor diferencia entre estos dos tipos de estimadores está en el estimado de las
variables y en los tipos de datos usados. Una variable aleatoria puede ser definida en
cada y cualquier locación xi dentro de la región de interés. El conjunto de estas variables
aleatorias determina una función aleatoria. Como un conjunto de variables aleatorias,
Debido a que los datos son de sólo una realización y porque cualquier propiedad de la
función aleatoria no puede ser inferida a partir de una realización simple sin un modelo,
un supuesto de estacionaridad debe ser incluido en el modelo para permitir la
inferencia de las propiedades de la función aleatoria. El tipo de estacionaridad invocada
h , que es:
FZ ( x1 ), Z ( x2 ) ( z1 , z2 ) = Fx , x + h ( z1 , z2 ) = Fh ( z1 , z2 ) (4.34)
51
Martín A. Díaz Viera
magnitud del vector h que separa a estas variables aleatorias y no depende de las
localizaciones particulares: x1 = x y x 2 = x + h .
A x∈∫A
φ ( A, zc ) =
1
i ( x, zc ) d x (4.35)
donde
φ ( A, zc ) - es la distribución espacial de valores puntuales dentro de la región A para
un valor umbral zc , es decir la proporción de valores dentro de la región A menores que
1, si Z ( x) ≤ zc
i ( x, zc ) =
0, si Z ( x) > zc
(4.36)
52
Martín A. Díaz Viera
A x∈∫A
Φ ( A, zc ) = I ( x, zc ) d x
1
(4.37)
donde
I ( x, zc ) - es la función indicador aleatoria definida como:
1, si Z ( x) ≤ zc
I ( x, zc ) =
0, si Z ( x ) > zc
(4.38)
1 1
E [ Φ ( A, zc ) ] = E ∫ I ( x, zc ) d x = ∫ E [ I ( x, zc ) ] d x
A x∈A A x∈A
(4.39)
E [ Φ ( A, zc ) ] =
A x∈∫A
{(1) Pr [ Z ( x) ≤ zc ] + (0) Pr [ Z ( x) > zc ]}d x
1
(4.40)
E [ Φ ( A, zc ) ] = Pr [ Z ( x) ≤ zc ] = FZ ( zc ) (4.41)
donde
FZ ( zc ) - función de distribución acumulativa univariada de Z estacionaria.
La función de distribución espacial φ ( A, zc ) puede ser vista como una realización de una
indicador en los puntos muestrales i ( x, zc ) , será la misma con sólo dos valores 0 y 1. Si
el valor observado es menor que el valor de corte, el valor indicador será 1, en caso
contrario, este será 0. Claramente, la variable indicador i ( x, zc ) , cambiará con el
53
Martín A. Díaz Viera
incremento del valor de corte. Más muestras tienen valores menores que el valor de corte,
por lo tanto mas variables indicador tienen el valor 1.
CI ( h, zc ) = E [ I ( x, zc ), I ( x + h, zc ) ] − { E [ I ( x, zc ) ]} =
b) función de covarianzas
2
= Fx , x + h ( zc , zc ) − { FZ ( zc )}
2
(4.43)
Var [ I ( x, zc )] = C ( 0, zc ) = FZ ( zc ) [1 − FZ ( zc )]
c) varianza
(4.44)
d) y la función de dsemivarianzas
γ I ( h, zc ) = CI ( 0, zc ) − CI ( h, zc ) = FZ ( zc ) − Fx , x + h ( zc , zc ) (4.45)
i ( x, zc ) = 1, ∀Z ≥ Z max
γ I (h, zc ) = 0, ∀Z ≥ Z max
(4.46)
0 ≤ CI ( h, zc ) ≤ 0.25
La función aleatoria indicador siempre posee varianza finita y acotada en el intervalo
(4.47)
Por lo tanto el variograma indicador γ I (h, zc ) siempre alcanza una meseta S ( zc ) que
FZ ( zM ) = 0.5 .
b) S ( zc ) es una función decreciente en el intervalo ( zM , ∞ ) ,
54
Martín A. Díaz Viera
Los variogramas de indicador γ I (h, zc ) son estimados para cada valor de corte dado zc , de
El propósito de transformar los datos originales mediante las variables indicador es para
usar las variables indicador para estimar la función de probabilidad acumulativa
FZ ( zc ) . Las funciones de probabilidad estimadas φ * ( A, zc ) se obtienen mediante
valores, dentro de cualquier área A, de una variable Z ( x ) , menores que el valor de corte
combinaciones lineales de la función indicador. Esta función es la proporción exacta de
como la probabilidad de que un parámetro estimado sea menor que el valor de corte.
φ * ( A, zc ) = ∑ λα ( zc )i ( xα , zc )
n
(4.50)
α =1
con la condición para el no sesgo,
∑ λα ( z ) = 1
n
(4.51)
α=1
c
55
Martín A. Díaz Viera
El kriging simple puede ser aplicado para hallar los pesos λα usando las variables
indicador i ( x, zc ) y el variograma indicador.
σ KI ( A, zc ) = ∑ λα ( zc )γ I ( xα , A, zc ) − γ I ( A, A, zc )
n
2
(4.52)
α =1
donde
A ∫A
γ I ( xα , A, zc ) = γ I ( xα − x, zc )d x
1
(4.53)
A2 ∫A ∫A
y
γ I ( A, A, zc ) =
γ I ( x − y, zc )d xd y
1
(4.54)
Para cada región, φ * ( A, zc ) es una función del valor de corte zc . Si es aplicada una serie
de valores de corte, será obtenida una serie de estimados. Con el incremento del valor de
corte, φ * ( A, zc ) se incrementa, debido a que el porcentaje de los puntos con valores
a) φ * ( A,−∞ ) = 0, y φ * ( A,+∞ ) = 1,
b) 0 ≤ φ * ( A, zc ) ≤ 1 ∀ A, zc
c) φ * ( A, zc ) no es decreciente, es decir
φ * ( A, zc ) ≤ φ * ( A, zc' ) si zc ≤ zc'
56
Martín A. Díaz Viera
Las ecuaciones del Kriging indicador se resuelven en la práctica para un número finito N ,
usualmente menor que 10, de valores de corte zc . Si la estimación de cada valor de
cumple esta condición se requiere realizar una transformación sobre Z ( x ) de manera tal
que siga una distribución normal. Por fortuna los estimadores asociados a la distribución
normal son bastante robustos, es decir que su propiedad de optimalidad no se ve
fuertemente afectada en el caso en que la distribución se aleje ligeramente de la normal.
57
Martín A. Díaz Viera
3.- Aplicar las ecuaciones del Kriging a la variable Y para obtener Y * y Var [Y − Y *] .
~
Existen las siguientes dificultades según Journel y Huijbregts (1978). En la práctica Z no
siempre satisface la condición de sesgo nulo, ya que puede diferir fuertemente de la media
obtenida a partir de las valores observados de Z. Para evitar esta dificultad se propone el
estimador
1 2
Z = K exp Y * + σ KY
(4.57)
2
~
donde K se determina imponiendo que la media aritmética de los valores estimados de Z
coincida con el valor esperado mZ .
58
Martín A. Díaz Viera
5.1 Introducción.
Las aplicaciones que han recibido una mayor atención en la geoestadística de minas son los
casos donde dos o más variables están muestreadas, pero una está menos muestreada que
las otras o existe la presencia de errores de muestreo.
{
Cij ( h ) = E Z i ( x + h ) − mi Z j ( x ) − m j } (5.1)
γ ij ( h ) =
1
{ }
E Z i ( x + h ) − Z i ( x ) Z j ( x + h ) − Z j ( x )
2
(5.2)
59
Martín A. Díaz Viera
γ ij ( h ) = γ ij ( −h )
modo que se cumple que:
(5.3)
γ ij ( h ) = γ ji ( h )
y
(5.4)
En el caso en que la covarianza cruzada Cij ( h ) sea simétrica, entonces resulta ésta
equivalente al semivariograma cruzado.
γ ij ( h ) = Cij ( 0 ) − Cij ( h )
Por lo que si consideramos el caso simétrico esta expresión se reduce a:
(5.7)
Cij ( 0 )
ρij =
Cii ( 0 ) C jj ( 0 )
(5.8)
60
Martín A. Díaz Viera
{Zi }i =1
n
Esto quiere decir que son funciones estacionarias de segundo orden
conjuntamente.
Z i* ( x ) = ∑∑ λijk Z j ( x k )
m n
(5.11)
k =1 j =1
( x ) = ∑ Γ k Z ( x k );
convierte en:
Γ k = λijk
m
*
Z donde (5.12)
k =1
Para que Z
*
( x) sea un estimador no sesgado de Z ( x ) se debe cumplir que:
∑Γ =I
m
(5.13)
k =1
k
1, i = j
k
(5.14)
k =1
ij ij
∑ {
Var Z *j ( x ) − Z j ( x ) = E Z ( x ) − Z ( x ) Z ( x ) − Z ( x ) }
Se toma que la varianza de la estimación sea:
n T
* *
(5.15)
j =1
61
Martín A. Díaz Viera
∑ Γ j C ( xi − x j ) + µ = C ( x i − x )
m
j =1
m
∑
Γ = I,
(5.16)
i = 1,..., m
k =1
k
KΛ = D (5.18)
C ( x1 − x1 ) ... C ( x1 − x m )
Donde
I
K =
...
C ( x m − x1 ) ... C ( x m − x m )
... ... ...
I
(5.19)
I ... I 0
Γ1 C ( x1 − x )
...
Λ = , D=
Γ C ( x m − x )
...
m
(5.20)
µ
I
= Tr C ( 0 ) − Tr ∑ Γ j C ( x − x j ) − Tr µ
y la varianza total de la estimación puede ser escrita como:
σ CK
m
2
(5.21)
j =1
σ CK = C jj ( 0 ) − ∑∑ λ C ( x − x ) − µ
n m
2 k
(5.22)
i =1 k =1
j ij ij k jj
62
Martín A. Díaz Viera
Observaciones prácticas:
( )
- A pesar de la asimetría de C x − y , la matriz de coeficientes K es simétrica.
- Todas las entradas son invertibles (excepto 0 ) de forma tal que puede ser reducida a una
matriz triangular mediante la operación con matrices de menor dimensión y así simplificar
( )
el cómputo.
- Si C x − y tiene forma diagonal, es decir, las componentes no están
correlacionadas entonces el sistema se convierte en n sistemas de ecuaciones
independientes separadas.
Como con el Kriging de una variable es más simple usar covariogramas que covarianzas
cruzadas, pero esto no siempre es posible; la hipótesis intrínseca análoga es:
i) E Z i ( x + h ) − Z i ( x ) = 0 , ∀ i=1,…, n
{ }
Si i) se cumple entonces la matriz de semivarianzas cruzadas puede ser escrita como:
γ ( h ) = γ ij ( h ) = E Z ( x + h ) − Z ( x ) Z ( x + h ) − Z ( x )
1 T
(5.23)
( )
2
γ ( x1 − x1 ) ... γ ( x1 − x m ) I Γ1 γ ( x − x1 )
... ...
=
( m 1 ) ... γ ( x m − x m ) I m γ ( x − x m )
γ x − x Γ
... ... ... ...
(5.24)
0 µ
I ... I I
La varianza de la estimación se expresa como:
63
Martín A. Díaz Viera
γ ( x − x1 )
σ CK = Tr Γ1 ... Γ m µ
γ ( x − xm )
...
2
(5.25)
I
E Z ( x ) = BF ( x )
Entonces se asume que:
(5.26)
donde B = bij , una matriz de n × p .
BF ( x ) = ∑ Γ j BF ( x j )
m
(5.27)
j =1
1, i = i0 , j = j0
B = bij ; donde bij =
0, en otro caso
y escribiendo Fl ( x j ) = f l ( x j )I entonces la expresión anterior se convierte
∑Γ Fl ( x j ) = Fl ( x); l = 1,..., p
m
(5.28)
j =1
j
64
Martín A. Díaz Viera
∑ Γ j C ( xi − x j ) + ∑ µl Fl ( x ) = C ( xi − x )
m p
j =1
m
l =1
Γ F ( x ) = F ( x ) ; l =1,...,p i =1,...,m
∑
(5.29)
j =1
j l j l
C ( x1 − x1 ) ... C ( x1 − x n ) ... Fp ( x1 )
En forma matricial
F1 ( x1 )
...
... ... ... ... ...
C ( x n − x1 ) C ( x n − x n ) F 1 ( x n ) ... Fp ( x n )
W=
...
F1 ( x1 ) 0
(5.30)
... F 1( xn ) 0 ...
...
Fp ( x1 ) 0
... ... ... ... ...
... Fp ( x n ) 0 ...
Γ1 C ( x1 − x)
...
Γ
...
C ( x n − x )
X = µ , H = F ( x)
1
n
(5.31)
1
...
...
Fp ( x)
µ p
WX =H (5.32)
∑ Γi C ( x − xi ) − Tr ∑ Fl ( x) µ
La varianza de la estimación puede ser escrita como:
σ CKU = Tr C (0) − Tr
m p
2
(5.33)
l =1
l
i =1
γ ( h) = ∑ [ Zi ( x k + h) − Zi ( x k )] Z j ( x k + h) − Z j ( x k )
* 1 N (h)
a una distancia h = h .
65
Martín A. Díaz Viera
El cual es una generalización del estimador del semivariograma simple y por lo tanto
adolece de los mismos problemas y limitaciones.
Es una práctica muy común ajustar modelos desarrollados para una variable como son:
esférico, exponencial, etc, al semivariograma cruzado, aunque en este caso no se pueda
asegurar que estos modelos sean válidos.
Myers (1984), propuso una metodología para el ajuste de los semivariogramas cruzados, la
cual consiste en definir para cada par de variables Z i ( x) y Z j ( x) una nueva variable como
una combinación lineal de éstas, es decir:
Z ij+ ( x) = aZ i ( x) + bZ j ( x) (5.35)
{ }
cuyo semivariograma viene dado por:
γ ij+ (h) = E aZ i ( x + h) + bZ j ( x + h) − aZ i ( x) − bZ j ( x)
1 2
2
= a 2γ ii (h) + b 2γ jj ( h) + 2abγ ij (h)
(5.36)
entonces
γ ij (h) = γ ij+ (h) − a 2γ ii (h) − b 2γ jj (h)
1
(5.37)
2ab
Z ij− ( x) = aZ i ( x) − bZ j ( x) (5.38)
{ }
su semivariograma está dado por:
2
= a 2γ ii (h) + b 2γ jj ( h) − 2abγ ij (h)
(5.39)
y por lo tanto
γ ij (h) = − γ ij− (h) − a 2γ ii (h) − b 2γ jj (h)
1
(5.40)
2ab
66
Martín A. Díaz Viera
consiste en modelar los 4 semivariogramas simples: γ ii (h), γ jj (h), γ ij+ (h) y γ ij− (h) ,
Entonces el procedimiento más adecuado para modelar el semivariograma cruzado
comprobar que satisfagan las tres expresiones anteriores y además que se cumpla la
desigualdad de Cauchy-Schwartz:
muestrales para Zi, Zj , Zi+Zj y Zi−Zj. Para cada miembro de la cuarteta se selecciona uno
En resumen, para modelar el variograma cruzado hay que calcular los variogramas
modelo para γ ij (h) se determina como una combinación de éstos usando la expresión
de los modelos estándar tales como: esférico, exponencial, gaussiano, etc., entonces el
uno de los modelos ajustados a γ ii (h), γ jj (h), γ ij+ (h) y γ ij− (h) ,de manera tal que ésta sea
caso en que no se cumpla esta condición última se deben realizar modificaciones a cada
satisfecha.
La condición que se requiere para que el modelo sea válido es la análoga al caso
∑∑ Γi C ( xi − x j )Γ j ≥ 0
univariado, es decir
T
(5.43)
−∑∑ Γi γ ( x i − x j )Γ j ≥ 0, si ∑Γ
semivarianzas
=0
T
(5.44)
∑ aiγ i ( h )
usando combinaciones lineales de modelos autorizados, es decir:
(5.45)
i
67
Martín A. Díaz Viera
∑ Aiγ i ( h )
Por lo que la alternativa análoga al caso univariado es:
(5.46)
i
γ 1 ( h ) ,..., γ m ( h ) son modelos simples de variogramas válidos. Esto se conoce como modelo
es un modelo válido, donde A1 ,..., Am son matrices de coeficientes positivas definidas y
de corregionalización lineal.
C ( h ) = ∑V k ρk ( h )
multivariado de funciones de covarianzas anidadas
S
(5.47)
k =0
Z ( x ) = ∑ Ak Y k ( x )
S
(5.48)
k =0
Z i ( x ) = ∑∑ aijk Y jk ( x ); i = 1,.., n
S p
(5.49)
k = 0 j =1
Una vía para determinar los coeficientes del modelo de corregionalización lineal (MCL), a
partir de un modelo multivariado de funciones de covarianzas anidadas es mediante la
aplicación del método de componentes principales basado en la descomposición en valores
propios de las matrices de corregionalización V k .
68
Martín A. Díaz Viera
Por definición, una matriz V k es positiva semidefinida (Golub y Van Loan, 1989) si
b V k b ≥ 0, ∀b
T
(5.50)
donde b es un vector cualquiera. Cuando una matriz es positiva semidefinida sus valores
propios y los determinantes de ella y de todos sus menores principales son no negativos.
C ( h ) = ∑ V k ρ k ( h ) ⇔ Cij ( h ) = ∑ σ ijk ρ k ( h )
S S
(5.51)
k =0 k =0
γ ( h ) = ∑ V k γ k ( h ) ⇔ γ ij ( h ) = ∑ σ ijk γ k ( h )
en términos de las covarianzas o equivalentemente
S S
(5.52)
k =0 k =0
El nombre de modelo lineal de corregionalización se origina del hecho de que las matrices
de covarianzas o semivarianzas de las Ecs. (5.51) y (5.52) se obtienen considerando la
transformación lineal de funciones aleatorias Ec.(5.48).
69
Martín A. Díaz Viera
Una condición suficiente para que el modelo de corregionalización lineal sea válido
consiste en que todas las matrices de corregionalización V k sean positivas semidefinidas.
Z1 ( x ) y Z 2 ( x ) , es
Un ejemplo de modelo de corregionalización lineal en el caso de dos funciones aleatorias
σ 11k > 0 y σ 22
k
> 0, ∀k = 0,..., S
σ 12k ≤ σ 11k σ 22 , ∀k = 0,..., S
k
(5.55)
a) Si σ ijk > 0 entonces σ iik > 0 y σ kjj > 0 . Es decir, si una estructura γ k ( h ) hace
deseable que sea cuanto más tres), según las consideraciones siguientes:
70
Martín A. Díaz Viera
b) Si σ iik > 0 y σ kjj > 0 no implica nada sobre σ ijk . Es decir, si una estructura
contrario es falso
3. Comprobar que todos los determinantes de los menores de orden dos son no
negativos.
4. Verificar que todas las matrices de corregionalización V k sean positivas
semidefinidas, en caso contrario hacer los cambios necesarios hasta satisfacer la
condición o volver al paso 2.
Goulard (1989) y Goulard y Voltz (1992), propusieron un algoritmo iterativo para el ajuste
de los coeficientes mediante mínimos cuadrados bajo restricciones de positividad.
criterios convencionales de la validación cruzada para una variable (error medio, error
cuadrático medio, etc,...)
Supongamos que tenemos dos variables que son estacionarias de segundo orden, entonces
se cumple que:
71
Martín A. Díaz Viera
C12 ( x − y ) = E Z1 ( x) Z 2 ( y ) (5.57)
Z ( x) = ∑ Γ k Z ( x k )
n
*
(5.58)
k =1
Z i* ( x) = ∑∑ λijk Z j ( x k ), i = 1, 2
n 2
(5.59)
k =1 j =1
∑Γ
λ11k λ12k
donde Γ k = k k
=I,
n
λ21 λ22
, I - matriz identidad.
k =1
k
0, i ≠ j
∑ λ = δ =
n
1, i = j
k
(5.60)
k =1
ij ij
C11 ( x − y ) C12 ( x − y )
C ( x − y) =
C21 ( x − y ) C22 ( x − y )
(5.61)
...
22 1
... ... ...
K = C11 ( x n − x1 ) C12 ( x n − x1 ) C ( x − xn ) C12 ( x n − x n ) 1 0 (5.62)
C ( x − x ) C ( x − x ) ... 11 n
C22 ( x n − x n ) 0 1
21 n 1 1 C21 ( x n − x n )
1 0 1 0
22 n
0 1 0
0 0
1 0 0
...
72
Martín A. Díaz Viera
µ 21 µ 22 0 1
KΛ = D (5.64)
σ CK = C jj (0) − ∑∑ C ( x − x k )λijk − µ jj
2 n
2
(5.65)
i =1 k =1
j ij
Otro enfoque consiste en estimar cada variable y luego construir la combinación lineal.
Este puede ser llevado a cabo mediante la estimación de cada variable por separado o
mediante la estimación conjunta por Cokriging. La diferencia de estos métodos se refleja
en las varianzas de la estimación.
a) Estimación directa.
73
Martín A. Díaz Viera
{ }
la función aleatoria W ( x) y no a las componentes por separado, resulta útil relacionarlo
con los variogramas separados.
γ W (h) = E A Z ( x + h) − A Z ( x)
1 2
{ }
T T
= AE [ Z ( x + h) − Z ( x) ][ Z ( x + h) − Z ( x) ] A
2
1 T T
(5.66)
2
= Aγ (h) A
1 T
W * ( x 0 ) = ∑ λ jW ( x j ), ∑λ
El estimador puede ser expresado como:
=1
n n
(5.67)
j =1 j =1
j
σ KD = ∑ γ W ( x 0 − x j )λ j − µ
n
2
(5.68)
j =1
= ∑ Aγ ( x 0 − x j )λ j A − µ
o puede ser expresada equivalentemente como
σ KD
2 1 n T
(5.69)
2 j =1
b) Estimación conjunta.
W ** ( x 0 ) = A Z ( x 0 ) = ∑ A Γ j Z ( x j )
expresar como:
n
T * T
(5.70)
j =1
Una condición suficiente para que coincidan ambos estimadores es que se cumpla:
λ j A = Γ j A , ∀j
T T
(5.71)
= ∑ Aγ ( x 0 − x j )Γ j A − Aµ AT
La varianza de la estimación está dada por
σ KC
n
2 T
(5.72)
j =1
74
Martín A. Díaz Viera
c) Comentarios generales
En contraste con los problemas donde el interés es estimar varias funciones aleatorias
simultáneamente mediante el uso del estimador Cokriging para todas las variables en
todas las ubicaciones muestrales, pocas veces los datos muestrales en otras variables es
usado para mejorar la estimación de la variable primaria o más comúnmente para
compensar muestras perdidas de la variable primaria.
Deseamos estimar Z1 ( x1 ) usando todos los datos disponibles suponiendo que γ (h) es
conocido.
El estimador lineal del cokriging Z1* ( x1 ) puede ser escrito en la forma usual:
Z 1 ( x1 ) = ∑ Γ k Z ( x k )
n
* 1
(5.73)
k =1
75
Martín A. Díaz Viera
λ11k
donde Γ k = ... y se requiere que λ111 = 0. La condición de universalidad está dada por:
1
λ1km
1
0
∑ Γk =
n
...
1
(5.74)
k =1
0
C ( h) = V ρ ( h) (5.75)
donde V es la matriz de covarianzas cruzadas en h = 0 , es decir
σ ij = Cij ( 0 ) = Cov {Zi ( x ) , Z j ( x )} = E ( Z i ( x ) − mi ) ( Z j ( x ) − m j )
y ρ ( h ) es la función de correlación directa.
(5.76)
Cij ( h )
ρij ( h ) =
Cii ( h ) C jj ( h )
(5.77)
Cij ( h ) = σ ij ρ ( h )
entonces resulta que el coeficiente de correlación entre dos funciones aleatorias Z i ( x ) y
(5.78)
76
Martín A. Díaz Viera
y no depende de la escala espacial. Por este motivo, el modelo propuesto es conocido como
modelo de correlación intrínseco.
γ ij ( h )
ccij ( h ) =
γ ii ( h ) γ jj ( h )
(5.80)
Z ( x ) = AY ( x )
El modelo lineal asociado al modelo de correlación intrínseco se escribe como:
(5.81)
o equivalentemente
Z i ( x ) = ∑ aijY j ( x )
p
(5.82)
77
Martín A. Díaz Viera
Sean λ1 ≥ λ2 ≥ ... ≥ λn > 0 los valores propios y q1 , q 2 ,..., q n los correspondientes vectores
propios asociados de la matriz V , donde se cumple que q i q j = δ ij . Las mayores varianzas
T
σ Z2 = Tr V = ∑ σ ii = ∑ λ j
n p
(5.83)
i =1 j =1
por los que se escogen las primeras p componentes ordenadas de mayor a menor en orden
decreciente del por ciento de la varianza total que explican.
Z i ( x ) = ∑ λ j qijY j ( x )
y por lo tanto la Ec.(5.82) se transforma en
p
(5.86)
donde qij es la componente i del vector propio q j y λ j es el valor propio asociado a éste.
j
Y ( x) = Q Z ( x)
Las componentes se relacionan con las variables originales mediante
T
(5.87)
Yj ( x ) = q j Z ( x) = ∑ qij Zi ( x );
o puede escribirse escalado con varianza unitaria
j = 1,.., p
1 T 1 n
λj λ j i =1
(5.88)
YY = BZY = BZ ( BZ ) = BZ Z B
T T T T T
(5.89)
E YY = BE Z Z B
aplicando el operador valor esperado a ambos miembros se obtiene
T T T
(5.90)
D = BV B
T
(5.91)
78
Martín A. Díaz Viera
ΛQ = Q V
T T
(5.93)
Una vez conocidos los valores de las componentes Y j ( x ) en los puntos de medición
usando Ec.(5.88), se puede estimar sus valores en cualquier otro punto usando Kriging
Los valores estimados de las componentes principales Y jk* ( x ) son obtenidos mediante la
aplicación de Cokriging y pueden ser graficados como mapas.
79
Martín A. Díaz Viera
La mayoría de los problemas encontrados en la práctica del Cokriging son los mismos
que los encontrados en la práctica del Kriging pero quizás magnificados por el
número de variables incorporadas, por una parte, exigiendo un tiempo de cálculo
considerable en la modelación de los semivariogramas cruzados mediante la modelación y
validación de múltiples semivariogramas y por otra en la estimación de las variables
debido al aumento de la complejidad de los sistemas de ecuaciones a resolver.
Z ( x ) = aY ( x ) + b (5.94)
Entonces podemos estimar a Z en los m-l puntos restantes a través de Y usando el modelo
de regresión lineal anteriormente obtenido como sigue:
Zˆ ( x j ) = aY ( x j ) + b, j = l + 1,..., m (5.95)
y las varianzas de los errores de la predicción por regresión están dadas por
1
σ 2j = σ e2 + N
(Y j − Y ) , j = l + 1,..., m
2
N
∑ ( Yi − Y )
(5.96)
2
i =1
80
Martín A. Díaz Viera
donde Y = ∑ Yi , σ e2 = ∑ ( Z i − aY j − b ) ,
N
1 1 N
N − 2 i =1
2
N i =1
Con los l datos originales de Z se estima el variograma y usando todos los m datos se
realiza mediante Kriging su estimación espacial.
Para su aplicación se requiere que el valor esperado de una variable Z sea una función
lineal conocida dependiente de otra variable Y, como sigue:
E Z ( x i ) Y ( x i ) = c1Y ( x i ) + c2 (5.97)
donde c1 y c2 son dos constantes, que no se requieren conocer.
Además se necesita que la segunda variable Y haya sido muestreada en un gran número de
puntos y que ofrezca una información bastante buena acerca de la estructura de correlación
de la primera variable Z.
Z * ( x k ) = ∑ λi Z ( x i )
N
(5.98)
i =1
E Z * ( x k ) − Z ( x k ) Y ( x k ) = 0
sesgo nulo
(5.99)
{ }
y varianza del error mínima
min E Z * ( x k ) − Z ( x k ) Y ( x k ) = 0
2
(5.100)
obtenemos:
∑ λ jγ ij + µ1 + µ 2Y ( x i ) = γ ik , i = 1,..., N
N
j =1
N
∑ λ j = 1
j =1
(5.101)
∑ λ jY ( x j ) = Y ( x k )
N
j =1
81
Martín A. Díaz Viera
σ e2 = Var Z * ( x k ) − Z ( x k ) Y ( x k ) = ∑ λiγ ik + µ1 + µ 2Y ( x k )
N
(5.102)
i =1
mediante:
R ( x i ) = Z ( x i ) − c1Y ( x i ) − c2 (5.103)
C ( h ) = ∑ D ge ( h )
Ne
e
(5.104)
e =1
Cij ( h ) = ∑ Dije g e ( h )
o equivalentemente
Ne
(5.105)
son matrices n × n positivas definidas que en principio deben ser conocidas. Esta
descomposición obedece a su vexz a la descomposición de cada variable Zi ( x ) como la
suma de una serie de factores Fi e ( x ) , es decir
Z i ( x ) = ∑ Fi e ( x ) + mi ( x )
Ne
(5.106)
82
Martín A. Díaz Viera
D e g ( h ) , si e = e′
E Fi e ( x + h ) Fi e′ ( x ) = ij e
0, si e ≠ e′
(5.107)
Fi e ( x ) = ∑ aijeY je ( x )
m
(5.108)
j =1
D = Ae Ae , e = 1,..., N e
e T
(5.109)
Z i ( x ) = ∑∑ aijeY je ( x ); i = 1,.., n
Ne m
(5.110)
e =1 j =1
Las componentes Yke ( x ) pueden estimarse mediante Kriging ordinario a partir de los datos
de las variables originales Zi ( x ) , es decir
donde los coeficientes del Kriging λiαe se obtienen como es habitual imponiendo la
condición de sesgo nulo y que sea mínima la varianza del error de la estimación.
N
∑
λ e = 0,
(5.112)
iβ α = 1,..., N
β =1
83
Martín A. Díaz Viera
2
i =1 j =1 α =1 β =1 i =1 α =1
ik
Esta separación o filtrado se realiza tradicionalmente usando análisis espectral en dos o más
dimensiones, pero usando el Kriging Factorial es posible e incluso ventajoso obtener la
determinación espacial de las componentes que se deseen directamente. Ya que los
métodos espectrales tienen ciertas limitaciones como son:
84
Martín A. Díaz Viera
γ ii ( h ) y cruzadas γ ij ( h ) para la
funciones de semivarianzas simples
Se ajusta un Modelo de
NO
C ( h ) = ∑V k ρk ( h )
Corregionalización Lineal (MCL)
¿Existe correlación S
Intrínseca?
k =0
SI
C ( h) = V ρ ( h)
Intrínseca (MCI) (ACP) de las matrices V k
Z ( x) Y ( x)
Análisis de Componentes Se obtienen las transformaciones
Principales (ACP ) de la matriz V
85
Martín A. Díaz Viera
temporales que pueden ser caracterizados mediante funciones aleatorias Z ( x, t ) que varían
Por lo anteriormente planteado resulta conveniente definir procesos estocásticos espacio-
{Z ( x , t ) , Z ( x , t ) ,..., Z ( x , t )}
covarianza dependen del punto x j . Es decir, se definen M funciones aleatorias
1 2 M correlacionadas cuya estimación puede hacerse
mediante Cokriging y resulta eficiente cuando M N , (Solow y Gorelick, 1986 ).
86
Martín A. Díaz Viera
87
Martín A. Díaz Viera
6.1 Introducción
función aleatoria Z ( x ) . Esta función aleatoria Z ( x ) puede ser caracterizada por una
mismas propiedades estadísticas que se esperan que posea la función aleatoria Z ( x ) . Pero
cuando más lo que podemos hacer es inferirlas a través de una sola realización o muestra de
aleatoria.
simula, pero en la mayoría de los casos nos tenemos que conformar con que al menos
muestra de Z ( x ) .
posean los mismos momentos de primer y segundo orden que inferimos a partir de una
fenómeno regionalizado Z ( x ) .
88
Martín A. Díaz Viera
una función aleatoria Z ( x ) son con frecuencia insuficientes debido a múltiples factores,
Las estimaciones espaciales de un fenómeno regionalizado que se pueda describir mediante
función aleatoria Z ( x ) .
pero sobre todo debido a la carencia de suficiente información (mediciones) acerca de la
Una idea simple es simular esta realidad en base a un modelo, por lo que la realidad y
la simulación son variables diferentes de un mismo fenómeno.
probabilidad o por sus dos primeros momentos, los cuales son estimados a partir de
datos experimentales.
89
Martín A. Díaz Viera
realización Z S ( x ) de aleatoria Z ( x ) .
segundo orden solamente (covarianza o variograma). Una simulación entonces consiste
en obtener otra esta función Las dos
6.3 Condicionamiento
Existe un número infinito de realizaciones que cumplen con la condición de que sus valores
Z SC ( xi ) ≡ Z M ( xi ) ; i = 1,..., n
simulados coinciden con los valores experimentales, es decir
respecto a las características de los datos reales {Z ( x ) , i = 1,..., n} los cuales no son
suficiente de datos muestran una tendencia local entonces la simulación condicional que
está basada incluso en un modelo estacionario reflejará la tendencia local en la misma zona.
90
Martín A. Díaz Viera
Los fenómenos simulados tienen los mismos valores experimentales en las localizaciones
muestrales y tienen las mismas medidas de dispersión (al menos hasta de orden 2) que
el depósito real.
Z * ( x ) el cual es tan cercano como sea posible del valor real desconocido Z ( x ) .
min E {Z * ( x ) − Z ( x )}
ii.) y que la varianza el error sea mínima
2
(6.3)
x
91
Martín A. Díaz Viera
debe estar condicionada a los datos experimentales o sea que en los puntos
experimentales los valores simulados deben coincidir con los valores observados.
Z SC ( xi ) ≡ Z M ( xi ) ; i = 1,..., n (6.4)
desconocido
Z ( x ) = Z K* ( x ) + {Z ( x ) − Z K* ( x )} (6.5)
92
Martín A. Díaz Viera
( )
E Z K* y {Z ( x ) − Z K* ( x )} = 0;
valores interpolados
∀ x, y (6.6)
Z SC ( x ) = Z K* ( x ) + {Z S ( x ) − Z SK
*
( x )} (6.7)
E Z SC ( x ) = E Z ( x )
entonces
(6.9)
kriging de la simulación Z S ( x ) − Z SK
*
( x) es isomorfo al error verdadero
93
Martín A. Díaz Viera
Esto se obtiene del hecho que en los puntos de observación los valores
Z K* ( xi ) = Z M ( xi ) y Z SK ( xi ) = Z S ( xi ) ∀ xi , i = 1,..., n
interpolados por Kriging son iguales a los valores medidos
*
(6.10)
94
Martín A. Díaz Viera
En la tabla anterior se resumen las tres características antes mencionadas de los métodos de
simulación que revisaremos a continuación con cierto detalle.
En el caso de los métodos del tipo Gaussiano haremos un paréntesis, y nos detendremos
brevemente en ellos antes de abordar en detalle cada uno de los métodos en específico ya
que requieren de un tratamiento especial.
sea Gaussiana.
La primera condición necesaria para que una función aleatoria posea una distribución
FY ( y p ) = FZ ( z p ) = p; ∀p ∈ [ 0,1] (6.11)
y = FY −1 ( FZ ( z ) )
y por lo tanto la transformación que se requiere sería
(6.12)
valores:
z (1) ≤ z (2) ≤ ... ≤ z ( n ) (6.13)
95
Martín A. Díaz Viera
Aleatoria Z ( x )
Datos muestrales de la Función
¿ Distribución Si
Gaussiana ?
No
Transformación Gaussiana
Análisis Estructural:
Obtención del variograma
Simulación Gaussiana
Si
¿ Condicional ?
No
Condicionamiento: Kriging
de la F.A. original Z SC ( x )
Simulación Condicional
96
Martín A. Díaz Viera
y ( k ) = G −1 ( k n )
correspondiente sería
(6.14)
A este tipo de transformación se le conoce como anamorfosis.
Pero esto aún sería insuficiente puesto que se requeriría verificar la normalidad al menos de
la distribución bivariada. Aunque en muchos casos para fines prácticos no se lleva tan lejos
el análisis y se toma la decisión de considerar a la distribución gaussiana o por el contrario
se rechaza esa hipótesis y se elige otro método de simulación no gaussiano.
m ( x ) = E Z ( x ) (6.15)
97
Martín A. Díaz Viera
{ }
C ( xi , x j ) = E {Z ( xi ) − m ( xi )} Z ( x j ) − m ( x j )
como:
(6.16)
E [ Z ] = {m ( x1 ) , m ( x 2 ) ,..., m ( x n )} ≡ m
T
(6.17)
{ }
Var [ Z ] = C ( xi , x j ) ≡ C (6.18)
MM =C
T
(6.19)
ZS = m+ Mε (6.20)
E [ε ] = 0 y Var [ε ] = I
con valor medio cero y varianza unitaria, es decir:
(6.21)
C = LL
T
(6.22)
donde L es una matriz n × n triangular inferior (todos los elementos por encima de la
98
Martín A. Díaz Viera
Es bueno hacer notar que usualmente el vector ε se toma como realizaciones de variables
aleatorias con distribución gaussiana y por lo tanto esto implica que Z S es una realización
Para que la simulación sea condicional basta con tomar al vector de valores esperados m
*
igual a la estimación por kriging Z y a C como la matriz de covarianza de dicha
estimación, resultando:
Z SC = Z + M ε
*
(6.25)
Este método clásico fue introducido en aplicaciones geoestadísticas por Davis (1987), y es
aplicable hasta límite que sea factible la descomposición de Cholesky, es decir, hasta unos
cuanto cientos de puntos simulados.
99
Martín A. Díaz Viera
σ 2 = C (0)
depende de x , es decir
(6.27)
de segundo orden, más aun C ( h ) es una función positiva definida si y solo si existe su
C ( h) = ∫ cos (ω h ) dF (ω )
+∞
(6.28)
∫ C ( h ) dh < ∞ , entonces
probabilidad.
+∞
Cuando se cumple que dF (ω ) = f (ω )dω , lo cual es posible si
−∞
ZN ( x) ≡ σ (2 / N ) ∑ cos (ω x + φ )
N
12
(6.29)
i =1
i i
100
Martín A. Díaz Viera
E Z N ( x ) = ∑ ∫ ∫ cos (ω x + φ ) f (ω ) dφ dω = 0
N +∞ π
( 2 N )1 2
2πσ (6.30)
i =1 −∞ −
y función de covarianzas C ( h )
π
= 2σ E cos (ω k x + φk ) cos (ω k ( x + h ) + φk )
k =1 l =1
2
(6.31)
∫ cos (ω h ) f (ω )dω = C ( h )
+∞
=
−∞
lim Z N ( x ) → Z ( x ) ; ∀x ∈ [ a, b ] (6.32)
N →∞
Z ( x ) , para x ∈
Este método se puede generalizar fácilmente para el caso de varias dimensiones cuando
3
y también puede ser aplicado para simular procesos aleatorios
101
Martín A. Díaz Viera
unidimensional, estacionaria de segundo orden Y ( xL1 ) definida sobre dicha línea L1 , con
3
Considere una línea L1 en el espacio tridimensional y una función aleatoria
102
Martín A. Díaz Viera
Z1 ( x ) ≡ Y ( xL1 ) ; ∀x ∈ 3
(6.33)
Esta función aleatoria es estacionaria de segundo orden, con valor esperado cero y función
procede asignando el valor simulado y ( xL1 ) en el punto xL1 de la línea L1 a todos los
puntos que se encuentran dentro de una banda centrada en el plano xL1 = const. ,
zi ( x ) ≡ y ( xLi ) ;
simulaciones unidimensionales:
∀x ∈ 3
(6.35)
Y finalmente a cada punto del espacio tridimensional x ∈ 3
se le asigna el siguiente valor
a partir de las simulaciones unidimensionales
zS ( x ) =∑ zi ( x ); ∀x ∈ 3
1 N
(6.36)
N i =1
Esta realización de la función aleatoria tridimensional es estacionaria de segundo orden con
valor medio cero y función de covarianzas:
E Z S ( x ) Z S ( x + h ) = CS ( h )
la cual, cuando N tiende al ∞ , tiende a la función de covarianzas isotrópica C ( h ) .
(6.37)
103
Martín A. Díaz Viera
simulada en cada una de las N líneas se obtiene a partir de la primera usando la expresión
C (1) ( r ) =
d
dr
{ }
rC (3) ( r ) (6.38)
Sin embargo no existe unas expresión directa para obtener la C (1) ( h ) a partir de la función
Es uno de los métodos mas eficientes para producir simulaciones en varias dimensiones
puesto que reduce su complejidad al orden de las simulaciones en una dimensión. Como
dificultades prácticas se le debe apuntar que requiere del conocimiento o del cálculo de
C (1) ( h ) y de un algoritmo de simulación en una dimensión que reproduzca esta función de
104
Martín A. Díaz Viera
modelo del semivariograma basado en los datos transformados y cada vez que se
obtienen los valores estimado son transformados hacia atrás a su escala original. Su
dificultad principal estriba en el grado de conocimiento que se posea de la función
distribución de probabilidad, lo cual puede ser suplido en parte por la experiencia previa
sobre la naturaleza del fenómeno que se simula. Hay programas, como el de GSLIB que
permite extrapolar valores de la FDP, usando modelos potencia, hiperbólico y lineal.
Los umbrales yi son elegidos de manera que concuerden con las proporciones pi de los
indicadores
yi = G −1 ∑ p j
i
j =1
(6.40)
manera que los variogramas teóricos de los indicadores deducidos a partir de las relaciones
(6.41) o (6.42) se ajusten bien a los variogramas muestrales.
ρ ( h)
z 2 du
C ( h; z ) =
2π ∫ exp −
1
1+ u 1− u2
(6.41)
0
χ n −1 ( y ) χ n −1 ( y′ )
C yy′ ( h ) = g ( y ) g ( y′ ) ∑
o
ρ (h)
∞
n
(6.42)
n =1 n
105
Martín A. Díaz Viera
indicador.
106
Martín A. Díaz Viera
Y ( x ) = (Y1 ( x ) , Y2 ( x ) ,..., Yp ( x ) )
vector de p gaussianas:
(6.43)
El método computacional inicia con una imagen aleatoria y requiere de los datos
observados y del modelo del variograma a reproducir.
Durante su ejecución el algoritmo intenta modificar la imagen inicial de manera tal que
reproduzca el variograma y al mismo tiempo mantenga la misma distribución de
probabilidad de los datos observados.
107
Martín A. Díaz Viera
1) Crea imagen inicial asignando a cada nodo de las malla de simulación valores de
manera aleatoria generados a partir de la función distribución de probabilidad
(FDP) suministrada por el usuario. Cuando el nodo de la malla de simulación
coincide con el nodo de una observación o es cercano a éste con cierto error de
tolerancia, se le asigna el valor observado a éste. Este imagen inicial así obtenida no
tiene que reflejar ningún modelo de variograma específico.
2) En una segunda etapa el algoritmo intenta reproducir el variograma modelo
intercambiando valores en los nodos de la malla de simulación elegidos de manera
γ * ( hi ) − γ ( hi )
FO1 = ∑
2
i γ ( hi )
(6.44)
Para evitar caer en un mínimo local, son aceptados algunos intercambios que incrementan
el valor de la función objetivo, es decir la aceptación del intercambio es probabilística. Se
espera que para un número elevado de iteraciones la función objetivo tienda al mínimo
global y consecuentemente los valores simulados posean una estructura espacial cercana al
variograma de los datos observados.
Una alternativa a la función objetivo arriba propuesta puede incluir restricciones y tener la
FO2 = w1 ∑ γ * ( hi ) − γ ( hi ) + w2 ∑ µ *j − µ j
siguiente forma:
2 2
(6.45)
i j
108
Martín A. Díaz Viera
109
Martín A. Díaz Viera
- Variable Aleatoria (V.A.): Es una variable Z (propiedad) que puede tomar una serie
de valores o realizaciones (zi, i=1,...,N) con un conjunto dado de probabilidad de
ocurrencia (pi, i=1,...,N)
∑p =1
N
2.-
i =1
i
∑ p ∈ [0,1]
1.- VA discreta, se conoce como histograma acumulativo
F ( zi ) = (A.1)
z j ≤ zi
j
F ( z ) = Pr {Z ≤ z} ∈ [ 0,1]
(acumulativa) y se define como:
(A.2)
1.- F( −∞ ) = 0
106
Martín A. Díaz Viera
2.- F( +∞ ) = 1
3.- Pr{Z > z} = 1 − F ( z )
f ( z) =
dF ( z )
(A.3)
dz
cuando esta existe.
2.- VA discreta es el histograma.
1.- f ( −∞ ) = f ( +∞ ) = 0
∫ f ( z )dz = 1
+∞
2.-
−∞
3.- F ( z1 ) = ∫ f ( z )dz
z1
−∞
5.- f(z) ≥0
F ( z p ) = p ∈ [ 0,1]
El percentil de una distribución F(z) es el valor zp de la V.A. tal que:
(A.4)
107
Martín A. Díaz Viera
M = F −1 (0.5) (A.6)
Cuartiles
p=0.25 (primer cuartil o inferior)
z0.25 = F −1 (0.25) (A.7)
p=0.75 (tercer cuartil o superior)
z0.75 = F −1 (0.75) (A.8)
[ z0.25 , z0.75 ]
Rango o intervalo intercuartil (IR)
(A.9)
Es el valor más probable que puede tomar la VA. Se conoce también como valor medio o
media.
1.- VA discreta
m = E [ Z ] = ∑ pi zi
N
(A.10)
i =1
2.- VA continua
m = E [Z ] = ∫ zdF ( z ) = ∫ zf ( z )dz
+∞ +∞
(A.11)
−∞ −∞
como:
1.- VA discreta
E ϕ ( Z ) = ∑ piϕ ( zi )
N
(A.12)
i =1
108
Martín A. Díaz Viera
2.- VA continua
E ϕ ( Z ) = ∫ ϕ ( z ) dF ( z ) = ∫ ϕ ( z ) f ( z )dz
+∞ +∞
(A.13)
−∞ −∞
E ∑ ak Z k = ∑ ak E {Z k }
k k1
(A.14)
∫ z r dF ( z ) = ∫ z r f ( z )dz
+∞ +∞
mr = E Z r = (A.16)
−∞ −∞
µ r = E ( Z − m ) = ∫ ( z − m) dF ( z ) = ∫ ( z − m ) f ( z )dz
+∞ +∞
r r r
(A.17)
−∞ −∞
σ 2 = Var [ Z ] = E ( Z − m ) ≥ 0
2
(A.18)
σ 2 = E ( Z − m ) = E Z 2 − 2mZ + m 2
2
= E Z − 2mE [ Z ] + m 2 = E Z 2 − m 2
(A.19)
2
109
Martín A. Díaz Viera
1.- VA discreta
Var [ Z ] = ∑ pi ( zi − m )
N
2
(A.20)
i =1
2.- VA continua
Var [ Z ] = ∫ ( z − m) dF ( z ) = ∫ ( z − m ) f ( z )dz
+∞ +∞
2 2
(A.21)
−∞ −∞
- Desviación Estándar σ
σ = Var [ Z ] (A.22)
MAD = E { Z − M }
- Desviación absoluta media alrededor de la mediana
(A.25)
- Signo de Simetría
cuando >0, ⇒ m > M y se dice que hay asimetría positiva
Sign ( m − M ) =
cuando <0, ⇒ m < M y se dice que hay asimetría negativa
(A.26)
Ver figura 1.
110
Martín A. Díaz Viera
- Estimadores muestrales
- Valor medio(media)
El promedio es un estimador insesgado del valor medio de la población
m* = z = ∑z
N
1
(A.29)
i =1
i
N
- Varianza
(σ 2 ) = S 2 = 1 N
∑
N − 1 i =1
( zi − z )
* 2
(A.30)
111
Martín A. Díaz Viera
z2
g0 ( z ) = exp −
1
2π 2
(A.32)
La correspondiente FDP no tiene una expresión analítica, pero está bien tabulada:
G0 ( z ) = ∫ g (u )du
z
0 (A.33)
−∞
y correspondientemente
∫ g (u )du = G
z−m
G( z) =
z
σ
0 (A.34)
−∞
Una de las razones de la popularidad de la distribución gaussiana se debe a los teoremas del
límite central que dice:
Si n VAs Z i independientes tienen la misma FDP y media cero, entonces la variable
aleatoria
112
Martín A. Díaz Viera
logarítmicos.
ln y − α
Pr {Y ≤ y} = FY ( y ) = G0
β
(A.39)
Y su correspondiente fdp es
ln y − α
fY ( y ) = FY' ( y ) = g0
1
βy β
(A.40)
m
La fdp lognormal tiene asimetría positiva.
i =1
distribuidas cuando n es grande. Usando el teorema del límite central, tenemos que
Y = ∏ Yi ⇒ ln Y = ∑ ln Yi → Normal cuando n → ∞
n n
(A.42)
i =1 i =1
113
Martín A. Díaz Viera
ˆ = E [θ ] = m
mΘˆ = E Θ θ (A.43)
E eΘˆ = E Θ − E [θ ] = 0
ˆ − θ = E Θ
ˆ
(A.44)
Def: Se considera el estimador más eficiente a aquel que tiene la menor varianza de todos
los estimadores insesgados posibles de un parámetro θ de una población
Estimador puntual:
114
Martín A. Díaz Viera
z= ∑z
N
1
(A.45)
i =1
i
N
E Z = m (A.46)
Var Z = σ 2 / N (A.47)
Intervalo de estimación:
σZ =σZ / N .
Sabemos que una VA Z S con una distribución normal estándar se encuentra en el intervalo
Z − mZ
donde Z S =
σZ / N
Z − mZ
Pr −1.96 < < 1.96 = 0.95
σZ / N
(A.49)
1.96σ Z 1.96σ Z
Pr Z − < mZ < Z + = 0.95
N
(A.50)
N
1.96σ Z 1.96σ Z
donde Z − < mZ < Z + intervalo de confianza para 95 %.
N N
Generalizando, tenemos que un intervalo de confianza para la media con una probabilidad
de (1-α)100% para N>30 esta dado por
zα / 2σ Z z σ
z− < mZ < z + α / 2 Z (A.51)
N N
donde Pr {− zα / 2 < Z < zα / 2 } = 1 − α .
115
Martín A. Díaz Viera
(σ Z )
*
correspondientes, resultando
zα / 2 (σ Z ) zα / 2 (σ Z )
m − < mZ < m +
* *
* *
Z Z (A.52)
N N
FZ1 , Z2 ,..., Zn ( z1 , z2 ,..., zn ) = FZ1 ( z1 ) ⋅ FZ2 ( z2 ) FZ n ( zn ) , entonces se dice que las variables
de las funciones de distribución de probabilidad marginales correspondientes, es decir,
116
Martín A. Díaz Viera
dzn (A.55)
−∞ −∞ −∞
variada o conjunta.
De manera análoga al caso de una variable aleatoria se pueden definir los momentos de la
función de distribución n-variada. En particular, nos interesa estudiar el caso bivariado.
117
Martín A. Díaz Viera
FXY ( x, y ) = ∫∫
x y
donde f XY ( x, y ) =
d 2 FXY ( x, y )
es la función de densidad de probabilidad (fdp)
dxdy
bivariada.
El grado de dependencia entre las dos variables aleatorias X y Y puede ser caracterizado
por el diagrama de dispersión alrededor de cualquier línea de regresión.
Semivariograma
El momento de inercia del diagrama de dispersión con respecto a una línea de 45o de
pendiente, permite caracterizar la carencia de dependencia, ver Fig. 2.
γ XY = ∑ [ di ] = ∑[ x − y ]
N N
1 2 1 2
(A.58)
i =1 i =1
i i
N 2N
donde N es el número de pares (xi, yi).
Este momento de inercia se conoce como semivariograma. Mientras mayor sea el valor del
semivariograma más dispersos estarán los valores en el diagrama de dispersión y menor
será la dependencia entre las dos variables aleatorias X y Y .
118
Martín A. Díaz Viera
xi − yi
di
( xi , yi )
yi
45 x
xi
Se define como:
1.- VA discreta
mXY = E { XY } = ∑∑ pij xi y j
N M
(A.59)
i =1 j =1
2.- VA continua
mˆ XY = ∑ xi yi
N
(A.61)
i =1
119
Martín A. Díaz Viera
Covarianza centrada
Cov ( X , Y ) = E {( X − mX )(Y − mY )}
∫ ∫ ( x − mX )( y − mY ) f XY ( x, y ) dxdy
+∞ +∞
=
(A.62)
−∞ −∞
σ XY = Cov ( X , Y ) = E {( X − mX )(Y − mY )} = E { XY } − mX mY
Se puede designar como
(A.63)
Y se estima como:
σˆ XY = ∑ ( x − m )( y − m ) = N ∑ x y − m
N N
1 1
mY (A.64)
i =1 i =1
i X i Y i i X
N
En el caso particular cuando X = Y la autocovarianza es la varianza de X
{
σ X2 = Var { X } = Cov { X , X } = E [ X − mX ] ≥ 0
2
} (A.65)
Y no están correlacionadas.
Coeficiente de correlación
Cov { X , Y }
Se define como:
∈ [ −1,1]
σ XY
ρ XY = =
σ XσY Var { X }Var {Y }
(A.66)
120
Martín A. Díaz Viera
puede afirmar que no puede ser descrita su dependencia mediante un modelo lineal. Para el
caso en que X y Y posean una distribución normal bidimensional si es cierto el recíproco.
2γ XY = ∑[ x − y ]
N
1 2
(A.68)
i =1
i i
N
entonces
∑ ∑ ∑x y −m
1
2γ XY = xi2 − mX2 + yi2 − mY2 − 2 mY + ( mX − mY ) (A.69)
N N N
1 1
N
2
i =1 i =1 i =1
i i X
N N
y por lo tanto
2γ XY = σ X2 + σ Y2 − 2σ XY + ( mX − mY ) ≥ 0
2
(A.70)
Si ↑ γ XY ⇒ ↓ σ XY y viceversa.
X − mX Y − mY
Si tomamos las variables X y Y estandarizadas: X ′ = y Y′ =
σX σY
, donde
correlación ρ XY
X − mX Y − mY
σ X ′Y ′ = E = ρ XY
σ X σ Y
(A.71)
121
Martín A. Díaz Viera
m = b0 + b1 X 1 + b2 X 2 + ... + bp −1 X p −1 = b ⋅ X (A.74)
0 1 2 p −1
( b , b , b ,..., b ) de manera que sea mínima la suma de los cuadrados de los errores:
experimentos, el problema que se plantea es la estimación de los parámetros
0 1 2 p −1
Se = ∑ ei
n
2
(A.75)
i =1
Y = (Y1 , Y2 ,..., Yn )
Usando notación matricial:
b = ( b0 , b1 , b2 ,..., bp −1 )
(A.76)
(A.77)
1 X 11 ... X 1 p
1 X ... X 2 p
X=
21
(A.78)
...
1 X n1 ... X np
122
Martín A. Díaz Viera
E [e ] = 0,
El vector de errores posee esperanza matemática nula y una matriz de covarianzas:
(A.79)
σ 2 Ce , (A.80)
( )
entonces el estimador de b por mínimos cuadrados ordinarios está dado por:
b = X X
* T −1 T
X Y (A.81)
Se = Y Y − b X Xb
T *T T *
(A.82)
S2 =
1
n− p
Se (A.83)
( )
Y la matriz de covarianzas de b está dada por:
Cb = σ 2 X X
T −1
(A.84)
( )
Si los errores ei no son independientes, entonces el estimador de b está dado por:
−1
b = X Ce X
* T −1 T −1
X Ce Y (A.85)
( ) ( Y − Xb )
donde la suma de los cuadrados de los errores Se es:
Se = Y − Xb
* T −1 *
Ce (A.86)
( )
Y la matriz de covarianzas de b está dada por:
−1
Cb = σ 2 X Ce X
T −1
(A.87)
123
Martín A. Díaz Viera
Alcance (range): Para el modelo esférico, la distancia en la que el modelo alcanza el valor
máximo, o sill (meseta). Para los modelos gausianos y exponencial, que se aproximan a la
meseta asintóticamente. Se usa el término alcance para designar el alcance ‘práctico’ o
‘efectivo’ donde la porción alcanza aproximadamente el 95 % del máximo. El modelo
Nugget tiene una meseta con un rango de cero; el modelo lineal usa ‘meseta/alcance’
simplemente para definir la pendiente.
Deriva (drift): El valor esperado de una función aleatoria puede ser constante o depender de
las coordenadas de la posición. La deriva es una característica de la función aleatoria y no
de los datos.
124
Martín A. Díaz Viera
Función Aleatoria: Puede ser vista como una colección de variables aleatorias que
dependen de la posición.
125
Martín A. Díaz Viera
Kriging de bloques: Estimación del valor de un bloque a partir de los valores de una
muestra continua usando Kriging. El área de un bloque es un arreglo de aproximadamente
2x2, 3x3, ó 4x4 puntos con centro en cada nodo de la malla especificada. Se dice que se
obtiene un valor suavizado de la estimación.
Kriging Ordinario: Es un tipo de Kriging que asume que la media local no está
necesariamente cercana a la media de la población, y que usa solamente para el estimado la
muestra para la vecindad local. Es el método usado mas comúnmente por su robustez.
Kriging Puntual: Estimación del valor de un punto de los valores de la muestra cercana
usando kriging. El estimado para un punto será casi similar al estimado por un bloque
relativamente cercano centrado en el punto, pero la desviación estándar del kriging
calculada será alta. Cuando el punto del Kriging coincide con el lugar de la muestra, el
estimado tendrá un valor igual al de la muestra.
Kriging Simple: Variedad de kriging que asume que las medias locales son relativamente
constantes e iguales a la media de la población, la que es bien conocida. La media de la
población es usada como un factor en cada estimado local, con todas las muestras en la
misma vecindad. No es un método muy usado.
Kriging: Método de interpolación del valor medio ponderado donde los pesos asignados a
las muestras minimizan la varianza del error, la que se calcula como una función del
modelo de variograma y localizaciones de las muestras relacionadas unas con las otras, y
del punto o bloque que está siendo estimado.
126
Martín A. Díaz Viera
Meseta (sill): Límite superior de cualquier modelo de variograma acotado, al que tiende
asintóticamente para grandes distancias. Para el modelo lineal, la relación ‘sill/rango’ se usa
para definir la pendiente.
Modelo Esférico: Es una de las funciones autorizadas que es usada frecuentemente como
modelo de variograma, en combinación con el modelo Nugget.
Modelo Lineal: Es una de las funciones autorizadas que es usada frecuentemente como
modelo de variograma, en combinación con el modelo Nugget.
Modelos de variograma anidado: Aquel que es la suma de dos o mas modelos tales como
Nugget, esférico, etc. Agregando el componente Nugget a uno de los otros modelos se
obtiene el modelo anidado mas común, aunque muy pocas veces se usan combinaciones
muy complejas.
127
Martín A. Díaz Viera
Soporte: El término es usado en ambos sentidos: matemático y físico. Con frecuencia los
128
Martín A. Díaz Viera
variogramas relativos son usados en Kriging, la desviación estándar del Kriging resultante
representa fracciones decimales de los valores estimados.
Vecindad de búsqueda: Es el área elíptica centrada en un punto o bloque que está siendo
analizado por el Kriging. Solamente las muestras dentro de la elipse serán usadas para el
cálculo de la estimación por Kriging.
129
Título original: Geoestadística
Esta es una obra académica. Los nombres, lugares y datos que aparecen en ella son fruto de la
investigación y recopilación de datos de los autores de páginas web, bibliotecas de consulta y
opiniones de autores reconocidos. Cabe aclarar que las opiniones de los autores de consulta no se
están tomando como propiedad intelectual de los autores de esta monografía, se agradece a los
lectores que tomen esto en cuenta
Universidad Católica de Trujillo Benedicto VXI apoya la protección del copyright. El copyright
estimula la creatividad, defiende la diversidad en el ámbito de las ideas y el conocimiento,
promueve la libre expresión y favorece una cultura viva. Gracias por leer una edición autorizada
de esta monografía y por respetar las leyes del copyright al no reproducir ni distribuir ninguna
parte de esta obra por ningún medio sin permiso. Al hacerlo está respaldando a los autores y
permitiendo que se continúe publicando documentos para todos los lectores.
Composición digital: Grupo Académico de Planeamiento Minero 2013 – I – UCT – Asesor: Ing.
Henry Contreras