Você está na página 1de 354

Análisis Geoestadístico Espacio Tiempo Basado

en Distancias y Splines con Aplicaciones


Carlos Eduardo Melo Martínez

ADVERTIMENT. La consulta d’aquesta tesi queda condicionada a l’acceptació de les següents condicions d'ús: La difusió
d’aquesta tesi per mitjà del servei TDX (www.tdx.cat) ha estat autoritzada pels titulars dels drets de propietat intel·lectual
únicament per a usos privats emmarcats en activitats d’investigació i docència. No s’autoritza la seva reproducció amb
finalitats de lucre ni la seva difusió i posada a disposició des d’un lloc aliè al servei TDX. No s’autoritza la presentació del
seu contingut en una finestra o marc aliè a TDX (framing). Aquesta reserva de drets afecta tant al resum de presentació
de la tesi com als seus continguts. En la utilització o cita de parts de la tesi és obligat indicar el nom de la persona autora.

ADVERTENCIA. La consulta de esta tesis queda condicionada a la aceptación de las siguientes condiciones de uso: La
difusión de esta tesis por medio del servicio TDR (www.tdx.cat) ha sido autorizada por los titulares de los derechos de
propiedad intelectual únicamente para usos privados enmarcados en actividades de investigación y docencia. No se
autoriza su reproducción con finalidades de lucro ni su difusión y puesta a disposición desde un sitio ajeno al servicio
TDR. No se autoriza la presentación de su contenido en una ventana o marco ajeno a TDR (framing). Esta reserva de
derechos afecta tanto al resumen de presentación de la tesis como a sus contenidos. En la utilización o cita de partes de
la tesis es obligado indicar el nombre de la persona autora.

WARNING. On having consulted this thesis you’re accepting the following use conditions: Spreading this thesis by the
TDX (www.tdx.cat) service has been authorized by the titular of the intellectual property rights only for private uses placed
in investigation and teaching activities. Reproduction with lucrative aims is not authorized neither its spreading and
availability from a site foreign to the TDX service. Introducing its content in a window or frame foreign to the TDX service is
not authorized (framing). This rights affect to the presentation summary of the thesis as well as to its contents. In the using
or citation of parts of the thesis it’s obliged to indicate the name of the author.
Análisis Geoestadı́stico Espacio
Tiempo Basado en Distancias y
Splines con Aplicaciones

350

300
Z

250

200

60

50
80
40
60
30
40
20
Y 20
10
X

Carlos Eduardo Melo Martı́nez


2
Análisis Geoestadı́stico Espacio Tiempo Basado en Distancias
y Splines con Aplicaciones

Memoria presentada por:

Carlos Eduardo Melo Martı́nez

para optar al tı́tulo de doctor por la Universidad de Barcelona

Doctorando:

Carlos Eduardo Melo Martı́nez

Director: Tutor:

Dr. Jorge Mateu Mahiques Dr. Antonio Monleón Getino


Departamento de Matemáticas Departamento de Estadı́stica
Universidad Jaume I de Castellón Facultad de Biologı́a
Universidad de Barcelona

Universidad de Barcelona
Facultad de Biologı́a
Programa de Doctorado en Estadı́stica
Departamento de Estadı́stica
Barcelona, Mayo de 2012
Agradecimientos

A mi director de tesis, el profesor Jorge Mateu, por ser un motivador per-


manente, por su constante interés, apoyo y por haber dedicado parte de su
valioso tiempo guiándome en la realización de este trabajo. Mi admiración y
sincera gratitud.

A mi hermana Sandra, compartimos como compañeros de estudios en el


doctorado y fue más fácil la adaptación y estadı́a en Barcelona tan lejos de
nuestra familia. Y a mi hermano Oscar con quien a lo largo de la vida hemos
compartido y trabajado en infinidad de cosas, siendo ası́ el doctorado una
excusa mas para trabajar en equipo y compartir. Una enorme gratitud por su
valiosa colaboración y apoyo en mis estudios.

A mi madre por enseñarme a escribir y por guiarme siempre hacia el buen


camino. Todos sus sacrificios hicieron posible llegar hasta este punto. Gracias
por ser la mejor mamá del mundo.

En la Universidad de Barcelona a mis profesores, en el año de docencia


en especial a los profesores Carles Cuadras y Jordi Ocaña, recibı́ de ellos lo
mejor. Y en el periodo de investigación, al profesor Antonio Monleón quien
fue también tutor en esta tesis, por su colaboración y apoyo en mis estudios
doctorales muchas gracias.

A la Universidad Distrital Francisco José de Caldas, por su valiosa ayuda


a lo largo de mi vida como estudiante y como profesor, ya que allı́ fue donde
me surgió el deseo de querer aprender más para ser un mejor profesional,
docente y persona. Les quedaré por siempre agradecido por haberme dado
esta invaluable oportunidad.

A la Universidad Nacional de Colombia y a la Universidad de Barcelona


por haberme apoyado con la excepción del pago de matricula en los periodos
de docencia e investigación por medio de su convenio interinstitucional.
A los revisores y editores anónimos por sus valiosos comentarios sobre lo
escrito, ya que este trabajo es también producto de las correcciones realizadas
por ellos, en los diferentes artı́culos sometidos.
A mi familia, hermanos, sobrinas y en especial a mis
padres Maria y Gustavo, quienes con su sacrificio y
esfuerzo me iniciaron a muy temprana edad en la pasión
por el conocimiento. Gracias por su apoyo incondicional
durante toda mi vida, y por ser siempre motor, soporte
y la razón de ser en todo lo que emprendo.
Contenido

Lista de figuras vi

Lista de tablas x

Abreviaturas 1

Introducción 2

Objetivos 12

1 Conceptos básicos del análisis de datos geoestadı́sticos 15

1.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

1.2 Análisis geoestadı́stico tradicional . . . . . . . . . . . . . . . . . 16

1.2.1 Definiciones básicas . . . . . . . . . . . . . . . . . . . . . 17

1.2.2 El covariograma . . . . . . . . . . . . . . . . . . . . . . . 21

1.2.3 El variograma . . . . . . . . . . . . . . . . . . . . . . . . 22

1.2.4 El correlograma . . . . . . . . . . . . . . . . . . . . . . . 23

1.2.5 Forma general de estas funciones . . . . . . . . . . . . . 23

1.3 Estimación del variograma y del covariograma . . . . . . . . . . 25

1.3.1 Estimador clásico . . . . . . . . . . . . . . . . . . . . . . 25

1.3.2 Estimador robusto . . . . . . . . . . . . . . . . . . . . . 26

i
ii CONTENIDO

1.4 Principales modelos de variogramas y covariogramas isotrópicos 26

1.5 Estimación de los parámetros del variograma . . . . . . . . . . . 27

1.5.1 Estimación por mı́nimos cuadrados . . . . . . . . . . . . 30

1.5.2 Estimación mediante máxima verosimilitud . . . . . . . . 31

1.6 Predicción espacial . . . . . . . . . . . . . . . . . . . . . . . . . 33

1.6.1 Kriging ordinario . . . . . . . . . . . . . . . . . . . . . . 35

1.6.2 Kriging universal . . . . . . . . . . . . . . . . . . . . . . 38

1.7 Diagnóstico mediante validación cruzada . . . . . . . . . . . . . 40

2 Conceptos básicos del análisis espacio-temporal, de distancias


y funciones de bases radial 43

2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

2.2 Geoestadı́stica espacio-temporal . . . . . . . . . . . . . . . . . . 46

2.3 Estimación del variograma y del covariograma . . . . . . . . . . 51

2.4 Modelos de covarianza espacio-temporales . . . . . . . . . . . . 52

2.4.1 Modelo métrico . . . . . . . . . . . . . . . . . . . . . . . 52

2.4.2 Modelo producto . . . . . . . . . . . . . . . . . . . . . . 52

2.4.3 Modelo suma . . . . . . . . . . . . . . . . . . . . . . . . 53

2.4.4 Modelo producto-suma . . . . . . . . . . . . . . . . . . . 53

2.4.5 Modelo Cressie-Huang . . . . . . . . . . . . . . . . . . . 54

2.5 Modelización de procesos espacio-temporales . . . . . . . . . . . 55

2.6 Predición de procesos espacio-temporales . . . . . . . . . . . . . 56

2.6.1 Kriging ordinario espacio-temporal . . . . . . . . . . . . 56

2.6.2 Kriging Universal espacio-temporal . . . . . . . . . . . . 58

2.7 Regresión basada en distancias . . . . . . . . . . . . . . . . . . . 59

2.7.1 Distancia y similaridad . . . . . . . . . . . . . . . . . . . 59


CONTENIDO iii

2.7.2 Modelo de regresión basado en distancias . . . . . . . . . 63

2.8 Funciones de base radial . . . . . . . . . . . . . . . . . . . . . . 64

2.8.1 Multicuadrática (MQ) . . . . . . . . . . . . . . . . . . . 65

2.8.2 Multicuadrática inversa (IM) . . . . . . . . . . . . . . . 66

2.8.3 Spline con tensión (ST) . . . . . . . . . . . . . . . . . . . 66

2.8.4 Spline capa delgada (TPS) . . . . . . . . . . . . . . . . . 66

2.8.5 Completamente regularizada spline (CRS) . . . . . . . . 67

2.8.6 Gaussiana (GAU) . . . . . . . . . . . . . . . . . . . . . . 67

3 Modelo DB para la predicción espacial con tendencia 69

3.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69

3.2 Modelo basado en distancias con tendencia . . . . . . . . . . . . 71

3.2.1 Kriging universal basado en distancias (DBUK) . . . . . 75

3.2.2 Medidas de evaluación . . . . . . . . . . . . . . . . . . . 80

3.3 Estudio de simulación y discusión . . . . . . . . . . . . . . . . . 81

3.3.1 Caso 1: Tendencia basada en variables mixtas sin


omisión de variables explicativas . . . . . . . . . . . . . . 82

3.3.2 Caso 2: Tendencia como en el caso 1, pero omitiendo


una variable explicativa . . . . . . . . . . . . . . . . . . 85

3.4 Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

3.4.1 Temperatura media diaria en Croacia . . . . . . . . . . . 89

3.4.2 Contenido de Calcio . . . . . . . . . . . . . . . . . . . . 94

4 Modelo DB para la predicción espacial utilizando RBF 99

4.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99

4.2 Modelo geoestadı́stico basado en distancias con funciones de


base radial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
iv CONTENIDO

4.2.1 Predicción espacial basada en distancias con funciones


de base radial . . . . . . . . . . . . . . . . . . . . . . . . 105

4.3 Estudio de simulación y discusión . . . . . . . . . . . . . . . . . 110

4.4 Aplicación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117

5 Modelo DB para la predicción espacio-temporal usando fun-


ciones de base radial 121

5.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

5.2 Modelo espacio-temporal basado en distancias con tendencia


lineal local . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124

5.2.1 Tendencia basada en distancias con funciones de base


radial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126

5.2.2 Predicción espacio-temporal usando funciones de base


radial basada en distancias . . . . . . . . . . . . . . . . . 131

5.3 Estudio de simulación y discusión . . . . . . . . . . . . . . . . . 135

5.4 Aplicación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140

6 Funciones geoestadı́sticas y funciones de base radial en el pro-


grama R: Paquete geospt 147

6.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

6.2 Implementación de funciones geoestadı́sticas en R . . . . . . . . 149

6.2.1 Pocket plot . . . . . . . . . . . . . . . . . . . . . . . . . 149

6.2.2 Variograma media recortada . . . . . . . . . . . . . . . . 152

6.2.3 Resumen estadı́sticas de la validación cruzada . . . . . . 154

6.2.4 Funciones rbf . . . . . . . . . . . . . . . . . . . . . . . . 155

6.2.5 Mapa de predicciones . . . . . . . . . . . . . . . . . . . . 156

7 Conclusiones y futuras lı́neas de investigación 161


CONTENIDO v

7.1 Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161

7.2 Futuras lı́neas de investigación . . . . . . . . . . . . . . . . . . . 163

Referencias 165

A Programación en R 179

A.1 Funciones implementadas y utilizadas en el Capı́tulo 3 . . . . . 180

A.2 Funciones implementadas y utilizadas en los Capı́tulos 4 y 5 . . 181

A.2.1 Predicción espacial basada en distancias con funciones


de base radial . . . . . . . . . . . . . . . . . . . . . . . . 181

A.2.2 Predicción espacio-temporal basada en distancias


usando funciones de base radial . . . . . . . . . . . . . . 185

A.3 Programación capitulo 3 . . . . . . . . . . . . . . . . . . . . . . 187

A.4 Programación Capı́tulo 4 . . . . . . . . . . . . . . . . . . . . . . 219

A.5 Programación Capı́tulo 5 . . . . . . . . . . . . . . . . . . . . . . 233


vi CONTENIDO
Lista de figuras

1.1 Forma general del variograma y covariograma de un proceso


espacial homogéneo . . . . . . . . . . . . . . . . . . . . . . . . . 24

2.1 Relaciones entre los diferentes tipos de funciones de covarianza


espacio-temporales . . . . . . . . . . . . . . . . . . . . . . . . . 49

3.1 Localización de los puntos de muestreo y regiones asociadas a


la definición de la variable nominal . . . . . . . . . . . . . . . . 83

3.2 RMSPE para los escenarios considerados en el Caso 1 . . . . . . 86

3.3 R2 para los escenarios considerados en el Caso 1 . . . . . . . . . 86

3.4 RMSPE para los escenarios considerados en el Caso 2 . . . . . . 88

3.5 R2 para los escenarios considerados en el Caso 2 . . . . . . . . . 88

3.6 Localizaciones de las estaciones meteorológicas en Croacia . . . 90

3.7 Mapas del variograma anisotrópico y modelos de variograma


ajustados (azimut del semieje mayor es 135◦ y azimut del semieje
menor es de 45◦ ) para los residuales de la temperatura media
terrestre en los modelos clásico (dos paneles de izquierda) y DB
(dos paneles de la derecha) . . . . . . . . . . . . . . . . . . . . . 91

3.8 Variograma experimental de media recortada para los residuos,


ajustando un modelo de Matérn por WLS, OLS y REML . . . . 92

3.9 Mapas de predicción de la temperatura media diaria terrestre


en Croacia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93

vii
viii LISTA DE FIGURAS

3.10 Mapas de predicción de las varianzas del error para la tempera-


tura media diaria terrestre en Croacia . . . . . . . . . . . . . . . 93

3.11 Gráfica de circulo de contenido de calcio con las lı́neas que de-
limitan las sub-regiones (lugares de muestreo) . . . . . . . . . . 95

3.12 Mapas de predicción del contenido de calcio en el suelo in-


cluyendo sub-región . . . . . . . . . . . . . . . . . . . . . . . . . 97

3.13 Mapas de predicción de los errores estándar para el contenido


de calcio en el suelo, incluyendo sub-región . . . . . . . . . . . . 97

4.1 RMSPE para los escenarios espaciales simulados cuando nh = 8 115

4.2 RMSPE para los escenarios espaciales simulados cuando nh = 32 116

4.3 Localizaciones de muestreo y mapas de predicción bajo el método DB-


SIRBF para el contenido de calcio en el suelo, incluyendo sub-región (tipo
de suelo) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119

5.1 Localización de los puntos de muestreo y regiones asociadas a


la definición de la variable nominal . . . . . . . . . . . . . . . . 137

5.2 RMSPE para los escenarios espacio-temporales simulados con 6 tiempos . . 141

5.3 RMSPE para los escenarios espacio-temporales simulados con 10 tiempos . 142

5.4 Localizaciones espaciales de las estaciones meteorológicas en


Croacia y predictores estáticos topográficos: Modelo Digital de
Elevación (DEM, en metros), la distancia topográfica ponderada
desde la lı́nea de costa (DSEA, en km) y el ı́ndice de humedad
topográfica (TWI) . . . . . . . . . . . . . . . . . . . . . . . . . 144

5.5 Mapas de predicción de la temperatura promedio mensual de la


tierra en Croacia bajo el método DBSTIRBF en enero, abril,
julio y octubre (unidades de las coordenadas este y norte en
100.000 metros) . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
LISTA DE FIGURAS ix

6.1 Ubicación espacial de una muestra de cenizas de carbón (coal-


ash), las unidades están en % en ubicaciones reorientadas
(Cressie, 1993) . . . . . . . . . . . . . . . . . . . . . . . . . . . 150

6.2 POCKET-PLOT en dirección sur-norte: Claramente las filas 2,


6, y 8 son atı́picas, esto sirve como verificación de que estas filas
son potencialmente problemáticas. . . . . . . . . . . . . . . . . . 151

6.3 Optimización de eta, en funciones de base radial . . . . . . . . . 156

6.4 Mapa de Croacia . . . . . . . . . . . . . . . . . . . . . . . . . . 159


x LISTA DE FIGURAS
Lista de tablas

1.1 Formas funcionales de algunos variogramas . . . . . . . . . . . . 28

1.2 Formas funcionales de algunos covariogramas . . . . . . . . . . . 29

3.1 Escenarios simulados para los casos 1 y 2 . . . . . . . . . . . . . 84

3.2 Promedios de RMSPEs bajo los métodos UK y DBUK para los


escenarios presentados en la Tabla 3.1 en el Caso 1 (sin omisión
de variable) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85

3.3 Promedios de RMSPEs bajo los métodos UK y DBUK para los


escenarios presentados en la Tabla 3.1 en el Caso 2 (con una
variable omitida) . . . . . . . . . . . . . . . . . . . . . . . . . . 87

3.4 Comparación entre los métodos DB y clásico con los valores


de los parámetros ajustados del variograma esférico utilizando
máxima verosimilitud . . . . . . . . . . . . . . . . . . . . . . . . 96

3.5 Comparación entre UK y DBUK para el contenido de calcio


usando LOOCV . . . . . . . . . . . . . . . . . . . . . . . . . . . 98

4.1 Formas funcionales de algunas RBFs . . . . . . . . . . . . . . . 106

4.2 Escenarios considerados en los experimentos espaciales simulados110

4.3 Escenarios espaciales simulados . . . . . . . . . . . . . . . . . . 111

4.4 Promedios de RMSPEs bajo el método DBSIRBF en los escena-


rios espaciales presentados en la Tabla 4.3 (casos nivel de ruido
y densidad de diseño) . . . . . . . . . . . . . . . . . . . . . . . . 112

xi
xii LISTA DE TABLAS

4.5 Promedios de RMSPEs bajo el método DBSIRBF en los esce-


narios espaciales presentados en la Tabla 4.3 (casos varianza
espacial y función de varianza) . . . . . . . . . . . . . . . . . . . 113

4.6 Comparación de algunos métodos DBSIRBFs para el contenido


de calcio utilizando LOOCV . . . . . . . . . . . . . . . . . . . . 117

5.1 Formas funcionales de algunas RBFs espacio-temporales . . . . 131

5.2 Escenarios considerados en los experimentos simulados espacio-


temporales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136

5.3 Escenarios espacio-temporales simulados . . . . . . . . . . . . . 137

5.4 Promedios de RMSPEs bajo el método DBSTIRBF en los esce-


narios espacio-temporales presentados en la Tabla 5.3 (casos
nivel de ruido y densidad de diseño) . . . . . . . . . . . . . . . . 138

5.5 Promedios de RMSPEs bajo el método de DBSTIRBF de los


escenarios espacio-temporales presentados en la Tabla 5.3 (casos
variación espacio-temporal y función de varianza) . . . . . . . . 139

5.6 Comparación de algunos métodos DBSTIRBF para las tempe-


raturas promedios mensuales de 2008 en Croacia con LOOCV . 145

6.1 Algunas funciones del paquete geosp . . . . . . . . . . . . . . . 157


Abreviaturas

ASE: Average Standard Error (Error estándar promedio)


CRS: Completely Regularized Spline (Spline completamente regularizada)
DBSIRBF: Distance-Based Spatial Interpolation with Radial Basis Function (Interpolación
espacial basada en distancias con funciones de base radial)
DBSTIRBF: Distance-Based Spatio-Temporal Interpolation with Radial Basis Function
(Interpolación espacio-temporal basada en distancias con funciones de base radial)
DBUK: Distance-Based Universal Kriging (Kriging universal basado en distancias)
DEM: Digital Elevation Models (Modelos digitales de elevación)
DSEA: Distance (km) from the coast line (Distancia topográfica en kilómetros ponderada
desde la lı́nea a la costa)
EXP: Exponential (Exponencial)
GAU: Gaussian (Gaussiana)
GLS: Generalized Least Squares (Mı́nimos cuadrados generalizados)
IMQ: Inverse Multiquadratic (Multicuadrática inversa)
LOOCV: Leave-One-Out Cross Validation (Validación cruzada dejando uno fuera)
MPE: Mean Prediction Errors (Media de los errores de predicción)
MSPE: Mean Standarized Prediction Errors (Media estandarizada de los errores de
predicción)
MQ: Multiquadratic (Multicuadrática)
OLS: Ordinary Least Squares (Mı́nimos cuadrados ordinarios)
ST: Spline with Tension (Spline con tensión)
TPS: Thin Plate Spline (Spline capa delgada)
TWI: Topographic Wetness Index (Índice de humedad topográfica)
RMSPE: Root Mean Square Prediction Errors (Raı́z media del cuadrado de los errores
de predicción)
RMSSPE: Root Mean Square Standarized Prediction Errors (Raı́z media estandarizada del
cuadrado del error de predicción)
RBF: Radial Basis Function (Función base radial)
UK: Universal Kriging (Kriging universal)
WLS: Weighted Least Squares (Mı́nimos cuadrados ponderados)

1
2 ABREVIATURAS
Introducción

La mayorı́a de los fenómenos naturales que se estudian se pueden describir


mediante variables regionalizadas, tanto en el espacio como en el tiempo.
Por ejemplo, considerando una superficie topográfica o una contaminación de
las aguas subterráneas, se puede observar una alta variabilidad en distancias
pequeñas. La variabilidad es el resultado de procesos naturales, por lo tanto es
determinista. Pero como la mayorı́a de estos procesos son muy sensibles y las
condiciones en las que tienen lugar no se conocen, basándose en leyes fı́sicas y
quı́micas no es posible describirlos por completo (Bárdossy 2001).

La teorı́a de variables regionalizadas, que es el tema de la presente inves-


tigación, se remonta a los años cincuenta, cuando en Sudáfrica D. Krige y
sus colegas comenzaron a aplicar técnicas estadı́sticas para la estimación de
reservas de mineral. En los años sesenta el matemático francés G. Matheron
sentó las bases teóricas de los métodos anteriores. La geoestadı́stica primero
fue utilizada por la industria minera, en la cual, dado que los costes de las
perforaciones eran altos, el análisis de los datos fue de suma importancia. El
modelamiento de variables medidas en diferentes sitios de una región con con-
tinuidad espacial y que presentan alguna estructura de correlación espacial,
ha sido desarrollada desde los años sesenta (Cressie 1993), con el desarrollo
de los análisis geoestadı́sticos (Matheron 1962), incrementándose su uso en
diferentes disciplinas cientı́ficas como la minerı́a (Journel & Huijbregts 1978),
geologı́a (Samper & Carrera 1993), ecologı́a (Robertson 1987)), ciencias am-
bientales (Cressie & Majure 1995, Diggle et al. 1995, Paez & De Oliveira 2005),
salud pública (Haining 2004), y climatologı́a (Perčec Tadić 2010, Hengl
et al. 2012, Yavuz & Erdoǧan 2012). Los análisis geoestadı́sticos convencionales

3
4 INTRODUCCIÓN

contemplan una serie de pasos (Isaaks & Srisvastava 1989), que comienzan con
el análisis estructural, el cual se realiza en el análisis del variograma (Samper
& Carrera 1993), obteniendo en lo posible un modelo de variograma teórico
(esférico, exponencial, gaussiano, circular o de Matern, entre otros que están
disponibles), el cual es usado en la interpolación de la variable en los sitios no
muestreados, para producir mapas que finalmente suelen ser empleados para
análisis y toma de decisiones.

Muchos métodos tales como: suavizamiento kernel (Wand & Jones 1995),
polinomios locales (Cleveland 1979, Fan & Gijbels 1996), wavelet (Donoho
& Johnstone 1994), regresión splines (Wand 2000), y suavizamientos splines
(Craven & Wahba 1979, Chen 2007), han sido propuestos para estimar y se-
leccionar curvas en modelos de regresión. Los resultados obtenidos por estos
investigadores son útiles para la geoestadı́stica ya que ofrecen la posibilidad de
ser considerados en el modelamiento de las superficies a interpolar e inclusive
en los ajustes de la correlación espacial, especı́ficamente en el modelamiento
del variograma.

El uso de modelos de correlación entre observaciones estimulan la necesi-


dad de modelos de análisis geoestadı́stico. La información georeferenciada se
recoge en muchas aplicaciones y no utilizar esta información puede obstruir las
caracterı́sticas importantes del mecanismo de generación de datos. En este sen-
tido, técnicas como kriging simple y ordinario consideran una media constante
de la variable regionalizada que es modelada, conocida y desconocida, respec-
tivamente. Además, asumen con respecto a esta media unas condiciones de
estacionariedad o cuasi-estacionariedad y la existencia de una varianza finita,
estos mismos supuestos se requieren en la mayorı́a de los métodos kriging. Por
otro lado, el método denominado kriging universal no asume una media cons-
tante y es con frecuencia usado en los procesos no estacionarios, por lo cual
también recibe el nombre de kriging no estacionario (Wackernagel 2003). Por
ejemplo, en el estudio de variables ambientales con frecuencia se utiliza los
interpoladores geoestadı́sticos como en Le & Zidek (2006) y van de Kassteele
et al. (2009), debido a que estas variables suelen ser no estacionarias, tal como
lo indica el estudio de Braud (1990), en el cual se resume mensualmente la no
INTRODUCCIÓN 5

estacionariedad de la temperatura promedio de la superficie.

Si la media o deriva no es constante y es empleado algún método como


kriging simple u ordinario, el estimador de la variable regionalizada no será
insesgado y en extrapolaciones o en los limites de una región el estimador
tenderá a subestimar o sobrestimar el verdadero valor de la variable estudiada.
Por lo cual, es recomendable remover la deriva y obtener los residuos de la
diferencia entre los valores muestreados y estimados por medio de la función
asociada a la deriva, ya que ası́ se garantiza que los residuales sean estacionarios
o al menos cumplan la propiedad de ser estacionarios intrı́nsecamente. Con
los residuos estacionarios intrı́nsecos se construye un modelo de semivarianza o
covarianza, el cual es incorporado en el krigeado universal junto con la función
asociada a la deriva para la generación de la estimación de la variable en el
sitio de interés. Otra forma de emplear estos residuos es en el krigeado simple
para la estimación del componente residual en el sitio de interés; al residual
estimado se le adiciona el valor estimado de la deriva para obtener el valor
final, esto último se suele denominar regresión kriging (Hengl 2009).

Por otro lado, muchos métodos de estadı́stica y análisis de datos utilizan


el concepto geométrico de distancia entre individuos o poblaciones. Las dis-
tancias, aparecen en muchos aspectos de la estadı́stica: contraste de hipótesis,
estimación, regresión, análisis discriminante, etc. (Arenas & Cuadras 2002).
Cuadras & Arenas (1990) proponen el método de regresión múltiple basado
en el análisis de distancias utilizando diferentes métricas para el trabajo con
variables explicativas continuas y categóricas. Posteriormente, Cuadras et al.
(1996) presentaron algunos resultados adicionales del modelo basado en dis-
tancias (DB) para la predicción de variables mixtas (continuas y categóricas)
y exploran el problema de información faltante dando una solución utilizando
DB. Uno de los trabajos más recientes es el de Esteve et al. (2009), quienes
proponen un método donde incluyen términos polinomiales y de interacción
en la regresión basada en distancias, bajo las propiedades de un producto de
matrices semi-Hadamard o Khatri-Rao. Adicionalmente, en Cuadras (2009)
se estudia la regresión multivariada basada en distancias Cuadras (2009b). En
términos generales muchos métodos en la estadı́stica se basan en el cálculo de
6 INTRODUCCIÓN

distancias geométricas, de por si los métodos geoestadı́sticos se construyen con


distancias, en particular distancias euclı́deas espaciales, de aquı́ el interés de
considerar también los métodos basados en distancias ya que tienen elemen-
tos en común, como lo es el cálculo de las distancias entre las observaciones,
esto anidado a la información que aporta el variograma serán determinantes
en la generación de pronósticos y permitirá mejorar el poder predictivo de los
métodos kriging tradicionales.

Dichos resultados mencionados motivan la idea de trabajar en el mode-


lamiento de la tendencia, a partir de los métodos desarrollados por Cuadras
(1989), Cuadras & Arenas (1990) y Cuadras et al. (1996), ya que es una
excelente alternativa para ayudar a mejorar las predicciones en el caso geoes-
tadı́stico cuando se tienen variables explicativas asociadas a las coordenadas
de los puntos (puestas en un polinómico de orden 1, 2 o 3), y covariables
regionalizadas continuas, categóricas y binarias. La selección de variables
explicativas se hace a partir de técnicas muy populares en el análisis de
regresión tradicional (selección: forward F, backward B, y step-wise ”B-
F” ó ”F-B”); recientemente se han propuesto otras técnicas (George &
McCulloch 1993, Breiman 1995, Tibshirani 1996, Efron et al. 2004, Joseph
et al. 2008). Sin embargo, aquı́ se presentan algunas alternativas a partir de la
propuesta de Cuadras et al. (1996) para seleccionar las componentes principales
o nuevas variables explicativas obtenidas a partir de la descomposición espec-
tral de la matriz de covariables. Dado que los métodos basados en distancias
en diferentes trabajos han mostrado ganancias importantes en los pronósticos
con respecto a los métodos tradicionales, en esta tesis se elabora un método
alternativo para el modelamiento de la tendencia en un modelo geoestadı́stico,
ya que también el método basado en distancias es robusto ante los errores de
especificación en la correlación de los parámetros.

Por lo tanto, en esta tesis se propone un método alterno de interpolación es-


pacial con variables explicativas mixtas utilizando distancias entre individuos,
tales como la distancia de Gower (Gower 1968); aunque, algunas otras distan-
cias euclidianas se pueden usar. El método basado en distancias (Distance-
Based, DB) se utiliza en los modelos geoestadı́sticos no sólo en la etapa de
INTRODUCCIÓN 7

estimación de la tendencia para su remoción, sino también en la etapa de esti-


mación de la correlación espacial, cuando las variables explicativas son mixtas.
En el caso de la regresión geoestadı́stica, el método DB espacial propuesto se
basa sobre los métodos desarrollados por (Cuadras & Arenas 1990) y (Cuadras
et al. 1996). Esta estrategia es una excelente alternativa, ya que aprovecha al
máximo la información obtenida debido a la relación entre las observaciones,
la cual puede ser establecida a través del uso de la descomposición espectral,
utilizando cualquier distancia euclı́dea. En consecuencia, este enfoque per-
mite mejorar las predicciones ya que se puede elegir una mayor cantidad de
coordenadas principales que de variables explicativas asociadas con la variable
respuesta de interés en las localizaciones muestreadas.

Por otra parte, las funciones de base radial (RBF) tales como la multi-
cuadrática (multiquadratic, MQ) o completamente regularizada spline (com-
pletely regularized spline, CRS) son útiles en la construcción de modelos
digitales de elevación (Digital Elevation Models, DEM), como se muestra
en (Mitás̆ová & Hofierka 1993). Una variación de la función MQ se llama
la inversa multicuadrática (inverse multiquadratic, IMQ), introducida por
(Hardy & Gopfert 1975). En Späh (1969) se describe un método que per-
mite evitar puntos de inflexión y contiene splines cúbicos como un caso espe-
cial, utilizando interpolación spline cúbica y exponencial (EXP). Más tarde,
el spline capa delgada (thin plate spline, TPS) se introdujo en el diseño
geométrico por (Duchon 1976), y la aproximación de Gauss (GAU) utilizada
por (Schagen 1979) es una variante popular del TPS. Por último, (Mitás̆ &
Mitás̆ová 1988, Mitás̆ová & Hofierka 1993, Mitás̆ová & Mitás̆ 1993) desarrollan
la formulación de la spline con tensión (spline with tensión, ST), e implemen-
tan un algoritmo de segmentación con un tamaño flexible de la superposición
del vecindario.

En este punto, adicionalmente en esta tesis se propone el método de fun-


ciones de base radial espacial basado en distancias (distance-based spatial ra-
dial basis functions, DBSRBFs), el cual se aplica en el modelo geoestadı́stico
para predecir la tendencia y estimar la estructura de covarianza cuando las
variables explicativas son mixtas utilizando la distancia de Gower (1971).
8 INTRODUCCIÓN

En lo que respecta a la modelización espacio-temporal, se ha manifestado


en los últimos años una gran demanda de modelos suficientemente realistas que
describan la evolución de procesos medio ambientales en el espacio y tiempo,
modelos que puedan capturar simultáneamente el comportamiento de ambas
componentes. Si éstas fueran analizadas de forma separada, se corre el riesgo
de obviar información importante, por ejemplo, de acuerdo a Gneiting (2003),
para una adecuada predicción determinista hace falta conocer perfectamente
el estado presente de la atmósfera y las leyes fı́sicas involucradas en los pro-
cesos atmosféricos. Pero la realidad es que la incertidumbre juega un papel
importante: tramas incompletas de observaciones, errores en las medidas y
localizaciones, conocimiento incompleto de las leyes fı́sicas, etc. Por tanto,
está claro que probabilistas y estadı́sticos pueden jugar un papel importante
en este contexto, puesto que los procedimientos estadı́sticos representan una
adecuada alternativa para tratar convenientemente la incertidumbre.

La geoestadı́stica espacio-temporal hace referencia al conjunto de técnicas


geoestadı́sticas que analizan, describen y modelizan procesos espaciales con
evolución temporal. Como es sabido, los procedimientos de interpolación basa-
dos en kriging dependen de la elección de la autocovarianza asociada al campo
espacio-temporal. Por tanto, la perspectiva geoestadı́stica se basa en la ob-
tención de covarianzas espacio-temporales permisibles que analicen de forma
adecuada las interacciones espacio-tiempo. En otras palabras, se necesitan mo-
delos de covarianza espacio-temporal no separables asociados a campos aleato-
rios estacionarios y no estacionarios. Éste ha sido y es actualmente uno de
los retos más importantes para la comunidad estadı́stica que trabaja en este
campo cientı́fico.

En cuanto a estas funciones de covarianza se vienen desarrollando exten-


siones al caso espacio-temporal, como el trabajo desarrollado por Martı́nez
(2008), en donde se realizan simulaciones para comparar la habilidad predic-
tiva de 4 clases distintas de modelos espacios temporales (dinámico de Huang
& Cressie (1996), no separable tanto de Cressie & Huang (1999) como de Gnei-
ting (2002), y modelo suma producto De Cesare et al. (2001a)), utilizando los
valores AIC y BIC como criterios de selección. Además allı́ se propone un mo-
INTRODUCCIÓN 9

delo de función de covarianza denominado suma de productos generalizado,


el cual genera modelos espacio-temporales a partir de combinaciones lineales
de modelos espaciales y temporales. Esto motiva el interés en el trabajo de
una propuesta que permita anidar modelos de covarianza espacio-temporales,
que a la vez permita solucionar problemas de modelamiento de variables como
la precipitación, la contaminación, entre muchas otras que se encuentran en
disciplinas generalmente asociadas al medio ambiente.

En Lloyd (2010) se muestra como las funciones splines caso capa delgada
son muy relevantes en la predicción espacial, a su vez se asocia al método
kriging universal; los resultados allı́ son utilizados adicionándole la tendencia
desde el enfoque de los métodos basados en distancias. Además, los splines son
utilizados en el modelamiento de la función de covarianza y de semivarianza,
tal como se indica en el trabajo desarrollado por Garcı́a-Soidán et al. (2012).
En este trabajo aplican la técnica de las series de Fourier para estimar la
función de covarianza de un proceso aleatorio estacionario de segundo orden, se
menciona el trabajo en la estimación de la covarianza no paramétrica empı́rica
desarrollada por Cressie (1993) y el estimador de tipo kernel propuesto en Hall
& Patil (1994).

En esta tesis, se considera también el problema de elegir un modelo basado


en distancias que incorpora información, que se cree influencia la variable res-
puesta. Especialmente, en el análisis de datos espacio-temporal, a menudo
trata con variables explicativas mixtas asociadas con la variable respuesta. Por
lo tanto, se presenta un enfoque unificado que utiliza las RBFs en contextos
espacio-temporales donde las variables explicativas son de naturaleza mixta, y
por consiguiente, la distancia de Gower (1968) es empleada. Al igual que en las
anteriores propuestas de esta tesis, el método de interpolación espacio-temporal
basado en distancias usando funciones (distance-based spatio-temporal inter-
polation using radial basis functions, DBSTIRBFs) se aplica a los modelos
métricos espacio-temporales para predecir la tendencia y estimar la estructura
de covarianza cuando las variables explicativas son mixtas.

En todos los métodos de predicción presentados en esta tesis, las coorde-


nadas principales obtenidas mediante el método de distancias se obtienen a par-
10 INTRODUCCIÓN

tir de las covariables asociadas con la variable de respuesta, y las coordenadas


espaciales o espacio-temporales. La selección de las coordenadas principales se
lleva a cabo usando los valores de la prueba-t significativos estadı́sticamente
y una caı́da significativa en la falta de predictibilidad, es decir, las coorde-
nadas principales que están más asociadas con la variable respuesta. Además,
para evaluar la exactitud del interpolador del método propuesto, se realizaron
simulaciones incondicionales para cinco funciones de base radial en diferen-
tes escenarios prácticos, y los resultados muestran que las RBFs utilizando
el método DB tienen ventajas como la de trabajar con variables mixtas en el
tendencia y el no requerir de la estimación de un variograma espacio-temporal,
que normalmente requieren mucho tiempo computacional.

Este trabajo lo hemos dividido en seis capı́tulos de la siguiente forma:

Capı́tulo 1. Presenta brevemente conceptos básicos geoestadı́sticos para


el análisis de datos espaciales, en cuanto a la dependencia espacial asociada al
variograma o covariograma, y la predicción espacial generada con los métodos
kriging, ası́ como también la valoración de dichas predicciones por medio de la
validación cruzada.

Capı́tulo 2. Describe los principales elementos y métodos utilizados en el


análisis espacio-temporal, definiendo conceptos involucrados en la estimación
de la estructura del variograma y covariograma espacio-temporal, presenta los
modelos de covarianza espacio-temporales y muestra su uso en la predicción de
procesos espacio-temporales. El capitulo termina con una corta explicación de
la regresión basada en distancias y de las funciones de base radial en general.

Capı́tulo 3. En los dos primeros capı́tulos se introdujeron los concep-


tos que son la base para los métodos propuestos en esta investigación. Este
capı́tulo contiene el modelo basado en distancias para la predicción espacial
con tendencia, generado a partir de kriging universal, se describe el método
propuesto, se realiza un estudio exhaustivo de simulación para comparar el
método propuesto con respecto al tradicional kriging, y se desarrollan dos
aplicaciones que ilustran la metodologı́a propuesta.

Capı́tulo 4. Contiene el modelo propuesto basado en distancias para la


predicción espacial usando funciones de base radial. Se desarrolla la propuesta
INTRODUCCIÓN 11

metodológica introduciendo la tendencia lineal local basada en distancias junto


con las funciones de base radial, haciendo una aproximación a partir de la in-
terpolación spline al método kriging para la predicción espacial. Un estudio de
simulación intensivo y extensivo basado en algunos modelos splines se realiza.
El capitulo termina con una aplicación que ilustra la metodologı́a propuesta.

Capı́tulo 5. Se describe el modelo propuesto basado en distancias para


la predicción espacio-temporal usando funciones de base radial. Al igual que
en capı́tulo anterior se hace aproximación a partir de la interpolación spline
al método kriging para la predicción espacio-temporal. Contiene un estudio
de simulación que considera algunos escenarios bajo diferentes parámetros y
funciones de base radial. Y finaliza, con una aplicación de la metodologı́a
propuesta para la temperatura media mensual terrestre en Croacia.

Capı́tulo 6 En este capı́tulo, describimos parte del paquete geospt imple-


mentado en el programa (R Development Core Team (2012)), el cual puede ser
usado para; optimización, predicción y validación cruzada en las funciones de
base radial espaciales, generación de resumen de estadı́sticos a partir de vali-
dación cruzada para funciones de base radial y métodos kriging, y construcción
del pocket plot para datos grillados.

Capı́tulo 7 En este último capı́tulo se resumen las aportaciones del pre-


sente trabajo y enuncian algunas futuras lı́neas de investigación.
12 INTRODUCCIÓN
Objetivos

Objetivos Generales

Proponer innovaciones en la predicción espacio y espacio-temporal a partir de


métodos geoestadı́sticos kriging y de funciones de base radial considerando
métodos basados en distancias.

Objetivos Especı́ficos

• Por medio de las distancias entre las variables explicativas, incorporadas


especı́ficamente en la regresión basada en distancias, proponer una mod-
ificación al método kriging universal y a la interpolación con splines es-
paciales y espacio-temporales usando las funciones de base radial.

• Aplicar los métodos propuestos a casos reales de ciencias de la tierra, tales


como; el modelado de la temperatura media terrestre espacio-temporal
y el modelado de la variable edáfica ca20 (porcentaje de contenido de
calcio en el suelo a una profundidad de 0 a 20 cm).

• Validar mediante simulaciones bajo ciertos escenarios, tanto para las


variables (explicativas y explicada) como para los parámetros asociados
a los métodos diseñados, los métodos propuestos con el fin de evaluar su
funcionamiento.

• Crear una librerı́a en el programa estadı́stico R con herramientas de


análisis geoestadı́stico, fundamentalmente incorporando funciones de

13
14 OBJETIVOS

base radial espaciales sin tendencia, y generar funciones asociadas a los


métodos propuestos en esta investigación.
Capı́tulo 1

Conceptos básicos del análisis


de datos geoestadı́sticos

1.1 Introducción

La estadı́stica espacial ha venido tomando fuerza en diferentes áreas del


conocimiento en los últimos años, y en éste caso la presente propuesta se
genera a partir de una de las ramas que allı́ se desarrollan como lo es la geoes-
tadı́stica. Esta ciencia reúne métodos que permiten modelar las estructuras
de relación espacial en funciones denominadas variogramas o covariogramas, y
posteriormente, con la información que se extrae de tales funciones se realizan
interpolaciones espaciales en los métodos denominados kriging.

El modelamiento de variables medidas en diferentes sitios de una región con


continuidad espacial y que presentan alguna estructura de correlación espacial,
ha sido desarrollada desde los años sesenta (Cressie 1993), con el desarrollo de
los análisis geoestadı́sticos (Matheron 1962), incrementándose su uso en di-
ferentes disciplinas cientı́ficas como la minerı́a (Journel & Huijbregts 1978),
geologı́a (Samper & Carrera 1993), ecologı́a (Robertson 1987)), ciencias am-
bientales (Cressie & Majure 1995, Diggle et al. 1995, Paez & De Oliveira 2005),
salud pública (Haining 2004), y climatologı́a (Perčec Tadić 2010, Hengl
et al. 2012, Yavuz & Erdoǧan 2012). Los análisis geoestadı́sticos convencionales
16 Capı́tulo 1. Conceptos básicos del análisis de datos geoestadı́sticos

contemplan una serie de pasos (Isaaks & Srisvastava 1989), que van desde el
análisis estructural, el cual se realiza en el análisis del variograma (Samper
& Carrera 1993), obteniendo en lo posible un modelo de variograma teórico
(esférico, exponencial, gaussiano, circular o de Matérn, entre otros que están
disponibles), el cual es usado en la interpolación de la variable en los sitios no
muestreados.

En este capı́tulo se presentan algunos conceptos básicos en su mayorı́a


tomados de Cressie (1993) y Martı́nez (2008), sobre análisis geoestadı́stico que
son útiles para el desarrollo de las metodologı́as propuestas en cada uno de
los siguientes capı́tulos. Por lo tanto, se describe brevemente los principales
conceptos y resultados utilizados en el análisis de datos espaciales, muchos de
los cuales se generalizarán con el fin de poder aplicarlos a procesos espacio-
temporales. En estos últimos se definen los principales conceptos involucrados
en su estudio y sus propiedades, ası́ como los diferentes procedimientos de
ajuste y predicción.

La Sección 1.2 introduce los conceptos más relevantes que se utilizaran en


el análisis espacial, como son la estacionariedad, la isotropı́a, el covariograma
o el variograma. En la Sección 1.3 se muestran los principales estimadores
del variograma y covariograma. En la Sección 1.4 se presentan los principales
modelos de variogramas y covariogramas isotrópicos. En las Secciones 1.5,
1.6 y 1.7 se profundiza en el ajuste de los modelos anteriores mediante las
principales técnicas de estimación, se introducen las herramientas de predicción
espacial más relevantes, y se muestra algunas herramientas de diagnóstico de
los modelos ajustados, respectivamente.

1.2 Análisis geoestadı́stico tradicional

Cressie (1993) muestra una formulación general que permite la modelización


de todas estas posibilidades. Sea s una localización cualquiera del espacio
Euclı́deo d-dimensional Rd (en general d = 2, aunque no necesariamente),
suponga que se esta interesado en analizar un determinado fenómeno de interés
que toma un valor aleatorio Z(s) en cada localización s. Si ahora se permite
1.2 Análisis geoestadı́stico tradicional 17

que s varı́e sobre un determinado conjunto D ⊆ Rd , se tendrá el proceso


aleatorio {Z(s), s ∈ D}, que es el objeto de estudio de la estadı́stica espacial.
La geoestadı́stica estudiará aquellos fenómenos en los que el ı́ndice espacial s
varı́e de forma continua sobre toda la región de estudio D. En este sentido,
en esta tesis se supondrá que D es una determinada región fija y continua
de estudio y que el ı́ndice espacial s varı́a de forma continua en D, es decir,
existe un número infinito de posibles localizaciones en las que se observa el
proceso. El proceso objeto de estudio Z(s) podrı́a representar, por ejemplo,
la temperatura media diaria observada en una determinada localización s.

1.2.1 Definiciones básicas

A lo largo de todo este capı́tulo se supondrá que, para cada localización s ∈ D,


existe la media y la varianza del proceso que se denotarán por

µ(s) = E(Z(s)) < ∞ Var(Z(s)) < ∞

Definición 1.1. Se dice que el proceso Z(s) es Gaussiano si para cualquier


conjunto de localizaciones {s1 , . . . , sn } ∈ D, el vector aleatorio Z s =
(Z(s1 ), . . . , Z(sn ))0 sigue una distribución normal multivariante.

Definición 1.2. Sea Z(s) un proceso estocástico de segundo orden. Se define


su función de covarianza como

C(si , sj ) = C(Z(si ), Z(sj )), ∀si , sj ∈ D

Generalmente en la práctica sólo se dispone de un conjunto


{z(s1 ), . . . , z(sn )} de observaciones del proceso aleatorio {Z(s), s ∈ D}
obtenidas sobre un conjunto de localizaciones {s1 , . . . , sn }, que pueden dis-
tribuirse de forma regular sobre una rejilla o de forma irregular sobre la región
de estudio D ⊆ Rd . Por lo tanto, sólo se dispone de una única realización
incompleta del proceso aleatorio que se quiere analizar, por lo que serı́a nece-
sario asumir algún tipo de hipótesis simplificadora de la naturaleza del proceso
que asegure cierta regularidad en los datos y permita hacer estimaciones e in-
ferencias del modelo a partir de los datos observados. Esta condición es la de
18 Capı́tulo 1. Conceptos básicos del análisis de datos geoestadı́sticos

estacionariedad, que permite que el proceso se repita a si mismo en el espa-


cio, proporcionando la replicación necesaria para la estimación e inferencia del
modelo. A continuación se verá los principales tipos de estacionariedad que
generalmente se asume en los procesos a analizar.
Definición 1.3. Se dice que el proceso Z(s) es estrictamente estacionario
(o estacionario en sentido fuerte) si, para cualquier conjunto de localizacio-
nes {s1 , . . . , sn } ∈ D, la función de distribución conjunta de las variables
aleatorias {Z(s1 ), . . . , Z(sn )} permanece invariable ante una traslación. Sea
Fs1 ,...,sn (z1 , ..., zn ) = P (Z(s1 ) ≤ z1 , . . . , Z(sn ) ≤ zn ) la función de distribución
conjunta, entonces se cumple que

Fs1 ,...,sn (z1 , . . . , zn ) = Fs1 +h,...,sn +h (z1 , . . . , zn ), ∀h ∈ Rd

Esta condición es demasiado restrictiva para la mayorı́a de los fenómenos


observados en la naturaleza, por lo que se necesita algún tipo de relajación
de la misma, como la estacionariedad de segundo orden o la estacionariedad
intrı́nseca.
Definición 1.4. Se dice que un proceso espacial Z(s) es estacionario de se-
gundo orden (o estacionario en sentido débil o simplemente estacionario) si

1. La función media existe y no depende de la localización, esto es, µ(si ) =


µ, ∀si ∈ D.

2. La función de covarianza existe y sólo depende de la distancia entre las lo-


calizaciones involucradas, esto es, C(si , sj ) = C(h), ∀si , sj ∈ D, siendo
h = si − sj el vector distancia entre dichas localizaciones. La función
C(·) recibe el nombre de covariograma (o autocovarianza).

De la definición se deduce que si un proceso de segundo orden es estricta-


mente estacionario, entonces es estacionario de segundo orden. El recı́proco es
falso en general, aunque se cumple para los procesos gaussianos, que quedan
completamente caracterizados por su media y su covariograma.

La estacionariedad de segundo orden implica que la varianza del proceso


no depende de la localización, es decir, que

Var(Z(s)) = C(0) = σ 2 , ∀s ∈ D,
1.2 Análisis geoestadı́stico tradicional 19

donde C(0) recibe el nombre de varianza a priori del proceso.

Definición 1.5. Se dice que el proceso Z(s) es intrı́nsecamente estacionario


si

i. La función media existe y no depende de la localización, esto es, µ(si ) =


µ, ∀si ∈ D.

ii. La varianza de la diferencia de dos variables aleatorias para dos localiza-


ciones cualesquiera depende únicamente de la distancia entre las locali-
zaciones involucradas, esto es, Var(Z(si ) − Z(sj )) = 2γ(h), ∀si , sj ∈ D,
con h = si − sj . La función 2γ(·) recibe el nombre de variograma, mien-
tras que γ(·) se conoce como semivariograma.

Esta condición es la menos restrictiva de las últimas tres definiciones dadas,


ya que dado un proceso estacionario Z(s) de segundo orden con covariograma
C(·), entonces

Var(Z(si ) − Z(sj )) =Var(Z(si )) + Var(Z(sj )) − 2Cov(Z(si ), Z(sj ))


=2C(0) − 2C(si − sj )

por lo que el proceso Z(s) es intrı́nsecamente estacionario con variograma

2γ(h) = 2C(0) − 2C(h) (1.1)

Para que un proceso intrı́nsecamente estacionario lo sea también de segundo


orden, deberá tener un semivariograma acotado, esto es, con lim γ(h) = M <
h→∞
+∞, en cuyo caso su covariograma existe y es igual a C(h) = M − γ(h).

Definición 1.6. Se dice que el proceso Z(s) es isotrópico si la dependencia


espacial del proceso entre dos localizaciones cualesquiera depende únicamente
de la distancia existente entre ellas y no de su localización. En caso contrario
se dice que el proceso es anisotrópico.

Definición 1.7. Se dice que el proceso Z(s) es homogéneo si es


intrı́nsecamente estacionario e isotrópico.
20 Capı́tulo 1. Conceptos básicos del análisis de datos geoestadı́sticos

Si Z(s) es un proceso homogéneo, entonces su semivariograma es una


función que, para cada par de localizaciones, depende únicamente de la longi-
tud del vector distancia entre ellas, esto es, γ(h) = γ(h), ∀h ∈ Rd , siendo
h ≡ khk. En cambio si un proceso intrı́nsecamente estacionario Z(·) es
anisotrópico, la dependencia entre Z(s) y Z(s + h) será función tanto de
la magnitud como de la dirección de h, por lo que el variograma no será
únicamente una función de la distancia entre dos localizaciones espaciales.
Las anisotropı́as están causadas por procesos subyacentes que se comportan
de forma diferente en el espacio. Hay varias formas de trabajar con procesos
anisotrópicos, considerándolos como generalizaciones más o menos directas de
procesos isotrópicos. A continuación se presentan las más usuales.

Definición 1.8. Se dice que el proceso Z(s) tiene anisotropı́a geométrica si


su variograma es de la forma

2γ(h) = 2γ0 (kAhk) , h ∈ Rd ,

siendo γ0 un semivariograma isotrópico y A una matriz d × d que representa


una determinada transformación lineal en Rd .

De otro lado, se tiene que dados Z1 (·), . . . , Zn (·), n procesos intrı́nsecamente


estacionarios independientes, entonces Z1 (·) + · · · + Zn (·) es un proceso
intrı́nsecamente estacionario con semivariograma dado por γ(h) = γ1 (h) +
· · · + γn (h), siendo γi (h) el semivariograma del proceso Zi (·). Esta propiedad
permite definir la siguiente generalización de la anisotropı́a geométrica.

Definición 1.9. Se dice que el proceso Z(s) tiene anisotropı́a zonal si su


variograma es de la forma
n
X
2γ(h) = 2 γ0 (kAi hk)
i=1

siendo γ0 un semivariograma isotrópico y A1 , ..., An matrices d × d.

Otro tipo de tratamiento de la anisotropı́a es la de suponer que, dado el


proceso original Z(s), existe una función no lineal g(s), de forma que el proceso
Z(g(s)) es un proceso isotrópico estacionario. Esta idea permite analizar tanto
1.2 Análisis geoestadı́stico tradicional 21

la anisotropı́a como la no estacionariedad, como se puede ver en Sampson &


Guttorp (1992).

En ocasiones se trabaja con procesos en los que la hipótesis de estacio-


nariedad no podrı́a ser admitida, por lo que muchas de las técnicas de la
geoestadı́stica clásica no serán directamente aplicables. En los últimos años
han surgido gran número de métodos para modelizar este tipo de procesos no
estacionarios. Probablemente el más estudiado es el propuesto por Sampson &
Guttorp (1992), que presenta un procedimiento de estimación no paramétrica
para la estructura de covarianza espacial no estacionaria. Haas (1995) intro-
duce una técnica de kriging de ventanas móviles para la estimación en procesos
no estacionarios. Higdon et al. (1999) proponen una alternativa usando una
representación de medias móviles de un proceso gaussiano. Nychka & Saltzman
(1998) y Holland et al. (1999) desarrollan métodos que extienden la técnica de
funciones ortogonales empı́ricas, muy utilizada por los meteorólogos. Otro mo-
delo para procesos no estacionarios es el propuesto por Fuentes (2001), Fuentes
(2002a), Fuentes (2002b) y desarrollado también en Fuentes & Smith (2001).
En este modelo, se considera que el proceso es localmente un campo aleatorio
estacionario e isotrópico, que se representará con un modelo cuyos parámetros
variarı́an a lo largo de la región de estudio, lo que permite la realización de
predicciones sobre el campo aleatorio no estacionario con una única realización
del proceso.

1.2.2 El covariograma

Dado un proceso estacionario de segundo orden Z(·), se ha definido su cova-


riograma como

C(h) = Cov(Z(si ), Z(sj ))

con si , sj ∈ D y h = si − sj el vector distancia entre dichas localizaciones.


De su definición se deduce fácilmente que C(h) = C(−h). Además, por la
desigualdad de Cauchy-Schwartz se cumple que |C(h)| ≤ C(0), ∀h ∈ Rd .

La función de covarianza C(·) de un proceso estacionario de segundo orden


22 Capı́tulo 1. Conceptos básicos del análisis de datos geoestadı́sticos

debe ser definida positiva, esto es, debe cumplir


n X
X n
ϕi ϕj C(si − sj ) ≥ 0 (1.2)
i=1 j=1

para cualquier número finito de localizaciones espaciales {si , i = 1, . . . , n} y


de números reales {ϕi , i = 1, . . . , n}. Esto es evidente de la definición de
covariograma, ya que
n X
n n
!
X X
ϕi ϕj C(si − sj ) = V ar ϕi Z(si ) ≥0
i=1 j=1 i=1

1.2.3 El variograma

Se ha definido el variograma de un proceso intrı́nsecamente estacionario Z(·)


como la función
2γ(h) = V ar(Z(si ) − Z(sj )) (1.3)

con si , sj ∈ D y h = si − sj el vector distancia entre dichas localizaciones.


De (1.3) se deduce fácilmente que γ(h) = γ(−h) y que γ(0) = 0. Obsérvese
que el variograma, al contrario del covariograma, no depende de la media del
proceso, lo que como se verá tendrá implicaciones en la estimación de ambos.

Una condición necesaria que debe cumplir el variograma es que debe ser
una función condicionalmente definida negativa, esto es,
n X
X n
ϕi ϕj 2γ(si − sj ) ≤ 0 (1.4)
i=1 j=1

para cualquier conjunto finito de localizaciones espaciales {s1 , . . . , sn } ∈ Rd y


Pn
para cualquier conjunto de números reales {ϕ1 , . . . , ϕn } ∈ R con ϕi = 0.
i=1
Pn
Esto es evidente de su definición, ya que dados {ϕ1 , . . . , ϕn } ∈ R con ϕi = 0,
i=1
entonces
n X
X n n X
X n
ϕi ϕj 2γ(si − sj ) = − 2 ϕi ϕj Cov(Z(si ), Z(sj ))
i=1 j=1 i=1 j=1
n
!
X
= − V ar ϕi Z(si ) ≤0
i=1
1.2 Análisis geoestadı́stico tradicional 23

Otra condición que debe satisfacer un variograma (Matheron 1971) es que


debe tener un ritmo de crecimiento inferior al de h2 , esto es

2γ(h)
lim =0
h→∞ h2

1.2.4 El correlograma

Sea Z(·) un proceso estacionario de segundo orden con función de covarianza


C(·). Se tiene que C(0) = Cov(Z(s), Z(s)) = Var(Z(s)), por lo que C(0) > 0
a no ser que Z(·) sea un proceso constante en D. Se define el correlograma (o
función de autocorrelación) como

C(h)
ρ(h) =
C(0)

De la definición se desprende que ρ(h) = ρ(−h) y que ρ(0) = 1.

1.2.5 Forma general de estas funciones

El semivariograma representa un ı́ndice del cambio que una variable muestra


con la distancia. Generalmente, el semivariograma crece con la distancia, ya
que en la mayorı́a de procesos existen mayores similitudes en los valores ob-
servados en localizaciones próximas, que disminuyen al aumentar la distancia.

En ocasiones, este crecimiento del semivariograma con la distancia se esta-


biliza alrededor de un determinado valor cs > 0, que es una cota superior de
la función (esto es, cs = lim γ(h)). En este caso se dice que el variograma es
h→∞
acotado y el valor alrededor del cual se estabiliza recibe el nombre de meseta
o varianza a-priori (sill, en inglés), que es igual por (1.1) a C(0), siendo C(·)
el covariograma del proceso. Se llama rango (range, en inglés) al valor hr
en el que el semivariograma alcanza su meseta, esto es, la distancia para el
que γ(hr ) = cs y que representa el valor a partir del cual el covariograma se
anula. Para algunos semivariogramas transitivos, la meseta cs sólo se alcanza
asintóticamente en el lı́mite, por lo que estrictamente hablando el variograma
tendrá rango infinito. En este caso se utilizará el término de rango efectivo,
24 Capı́tulo 1. Conceptos básicos del análisis de datos geoestadı́sticos

que se define como la distancia en la que el semivariograma alcanza el 95% de


su meseta.

Se sabe que el semivariograma es una función que debe cumplir que


γ(0) = 0, pero en la práctica suele ocurrir que lim γ(h) = c0 > 0, donde c0
h→0
recibe el nombre de pepita (nugget, en inglés). Esta discontinuidad en el origen
puede estar causada por variaciones de pequeña escala (que sólo tienen sentido
en procesos que no son L2 -continuos), o por errores de medida (es decir, que si
se realizan varias observaciones en una misma localización, los valores obser-
vados fluctúan alrededor de un determinado valor, que es el valor real). En la
práctica, sólo se habrán observado un conjunto de datos {z(si ), i = 1, ..., n},
por lo que no se puede conocer nada del comportamiento del variograma a
distancias menores de min{ksi − sj k, 1 ≤ i < j ≤ n} y se suele determinar el
valor de c0 extrapolando el comportamiento del variograma a distancias cer-
canas a cero. En este caso, se define la meseta parcial (partial sill, en inglés)
como cs − c0 .

Si el proceso Z(·) es isotrópico, entonces 2γ(h) = 2γ(h), es decir, el vario-


grama depende únicamente de la distancia entre dos localizaciones y no de la
dirección. En la Figura 1.1 se muestra la forma tı́pica del variograma de un
proceso homogéneo y de su covariograma asociado, donde se puede observar
la interpretación de los parámetros introducidos anteriormente.

Figura 1.1: Forma general del variograma y covariograma de un proceso espacial


homogéneo
1.3 Estimación del variograma y del covariograma 25

1.3 Estimación del variograma y del covario-


grama

Dado un proceso espacial Z(·) intrı́nsecamente estacionario, se va obtener


una estimación del variograma 2γ(·) (y del covariograma C(·) si el proceso
es además estacionario de segundo orden) a partir de los valores observados
sobre un conjunto de localizaciones {s1 , . . . , sn }. Del conjunto de estimadores
propuestos en la literatura para la estimación de estas medidas de variabilidad
espacial, se vera a continuación el estimador clásico propuesto por Matheron
(1962) o el estimador robusto de Cressie & Hawkins (1980).

1.3.1 Estimador clásico

La estimación del variograma más sencillo es la obtenida mediante el estimador


del método de los momentos, que recibe el nombre de estimador clásico del
variograma. Se tiene que, bajo la hipótesis de estacionariedad intrı́nseca y por
tanto de media del proceso constante, se cumple que

2γ(h) = V ar(Z(s + h) − Z(s)) = E[(Z(s + h) − Z(s))2 ]

Si los puntos de muestreo {s1 , . . . , sn } estuviesen localizados sobre una


rejilla regular, el estimador del método de los momentos vendrá definido por
1 X
2γ̂(h) = (Z(si ) − Z(sj ))2 (1.5)
|N (h)|
(si ,sj )∈N (h)

donde N (h) denota todos aquellos pares (si , sj ) para los que si − sj = h y
|N (h)| denota el cardinal de N (h). Obsérvese que no es necesario estimar la
media µ del proceso.

Debido a que (1.5) es esencialmente una media muestral, tiene todas las
desventajas asociadas comúnmente a este tipo de estimadores como la no ro-
bustez. Se trata de un estimador no paramétrico que es óptimo cuando se
dispone de una malla regular de muestreo que sea representativa y la dis-
tribución es normal. No obstante, en la práctica el empleo de este estimador
26 Capı́tulo 1. Conceptos básicos del análisis de datos geoestadı́sticos

produce en ocasiones variogramas experimentales erráticos, debido a desvia-


ciones del caso ideal para la aplicación del mismo, como son distribuciones
alejadas de la normalidad, heterocedasticidad, desviaciones en el muestreo o
existencia de valores atı́picos.

Para la covarianza, el estimador obtenido por el método de los momentos


serı́a
X
C(h)
b = |N (h)| (Z(si ) − Ẑ)(Z(sj ) − Ẑ)
(si ,sj )∈N (h)

n
1
P
donde Ẑ = n
Z(si ) es un estimador de la media µ del proceso y N (h) se
i=1
define como antes.

1.3.2 Estimador robusto

Como se comentó anteriormente, aunque el método de estimación clásico


presenta la ventaja de su facilidad de cálculo, tiene algunos inconvenientes
prácticos como que no es robusto frente valores extremos de Z(s). Cressie
& Hawkins (1980) presentan una variación de (1.5) de mayor robustez como
estimador insesgado del variograma y que se define como
1 X
2γ̄(h) = |Z(si ) − Z(sj )|1/2 (1.6)
|N (h)|(0.457 + 0.494/|N (h)|)
(si ,sj )∈N (h)

Los coeficientes de la expresión (1.6) se introducen para asegurar la in-


sesgadez del estimador propuesto. En Cressie (1993) se encuentra un análisis
detallado de este estimador comparado con el anterior, ası́ como otras variantes
robustas para la estimación empı́rica del variograma.

1.4 Principales modelos de variogramas y co-


variogramas isotrópicos

En la sección anterior se vio algunos estimadores del variograma o covario-


grama de los procesos espaciales. El problema es que estas estimaciones no se
1.5 Estimación de los parámetros del variograma 27

pueden utilizar directamente en la práctica geoestadı́stica ya que no satisfacen


en general la condición de ser condicionalmente definidas negativas que deben
verificar los variogramas (o definidas positivas para los covariogramas). Su
uso tendrá efectos no deseables, como la obtención de varianzas negativas en
la predicción espacial mediante kriging. Es por ello que, en lugar de utilizar
directamente las predicciones, se ajustará a las estimaciones obtenidas ante-
riormente uno de los modelos válidos de variograma o covariograma que se
verán en esta sección.

En las Tablas 1.1 y 1.2 se presentan algunos de los principales modelos


de variogramas isotrópicos más utilizados en la práctica geoestadı́stica, junto
con sus covariogramas. Como se ha visto, para obtener los correspondientes
variogramas bastarı́a con multiplicar por 2 cada una de las funciones de semi-
variograma. Estos modelos, además de constituir una herramienta esencial del
tratamiento de los datos geoestadı́sticos, servirán como base para la posterior
construcción de modelos espacio-temporales. Como se ha dicho, todos los va-
riogramas y covariogramas que se muestran en dichas tablas son isotrópicos,
es decir, dependen de la distancia h entre localizaciones únicamente por su
módulo h = khk), ya que son el punto de arranque sobre los que se construyen
modelos más complejos.

1.5 Estimación de los parámetros del vario-


grama

Sea Z(·) un proceso observado sobre un conjunto de localizaciones {s1 , . . . , sn }.


Sean γ̂(hj ) los valores estimados del semivariograma a partir de los datos apli-
cando alguno de los métodos que se han visto en la Sección 1.2. Aunque son
muchas las buenas propiedades de estos estimadores, carecen de la propiedad
de ser semidefinidos positivos, con lo que serı́a posible que algunas predicciones
espaciales derivadas a partir de tales estimadores presenten varianzas negati-
vas. La forma más común de evitar esta dificultad es reemplazando el semiva-
riograma empı́rico por algún modelo paramétrico γ(h, ϑ) de los que se han pre-
sentado anteriormente que se aproxime a la dependencia espacial encontrada
28 Capı́tulo 1. Conceptos básicos del análisis de datos geoestadı́sticos

Tabla 1.1: Formas funcionales de algunos variogramas

Modelo Función de Semivariograma Variograma

2.0
con Efecto pepita

1.5

c0 si h > 0

Variograma
1.0
γ(h) =

0.5
0 si h = 0

0.0
0.0 0.2 0.4 0.6 0.8 1.0
Distancia

1.0
0.8

Variograma
h

c0 + cs si 0 ≤ h ≤ al

0.6
al
γ(h) =
meseta

0.4
Lineal

c + c si h > al

0.2
0 s

0.0
0.0 0.2 0.4 0.6 0.8 1.0
Distancia

1.0

0 si h = 0

0.8

Variograma

Esférico

0.6

3 h 1 h 3

γ(h) = c0 + cs 2 ( as ) − 2 ( as ) si 0 ≤ h ≤ as

0.4

0.2


c + c si h > as
0 s
0.0
0.0 0.2 0.4 0.6 0.8 1.0
Distancia
Exponencial

1.0
0.8


c0 + cs 1 − exp(−3h/ae )
Variograma

si h > 0
0.6

γ(h) =
0.4

0 si h=0
0.2
0.0

0.0 0.2 0.4 0.6 0.8 1.0


Distancia
1.0
Gaussiano

0.8


c0 + cs 1 − exp(−3h2 /ag 2 )
Variograma

si h>0
0.6

γ(h) =
0.4

0 si h=0
0.2
0.0

0.0 0.2 0.4 0.6 0.8 1.0


Distancia


0 si h=0
1.0




0.8



c0 + cs 1 − 2 cos−1 ( h )−
Variograma
Circular


0.6

π ac
γ(h) =
0.4

q
2h h

 πa (1 − a )
 2 si 0 ≤ h ≤ ac
0.2


 c c

0.0


c0 + cs si h > ac
 0.0 0.2 0.4 0.6 0.8 1.0
Distancia
1.5
Efecto agu-


1.0

sin(h) 
Variograma

c0 + cs 1 − si h>0
h
γ(h) =
0.5

0 si h = 0
jero

0.0

0.0 0.5 1.0 1.5


Distancia
1.5 Estimación de los parámetros del variograma 29

Tabla 1.2: Formas funcionales de algunos covariogramas

Modelo Función de Covariograma Covariograma

2.0
con Efecto pepita

1.5

Covariograma
0 si h > 0

1.0
C(h) =

0.5
c si h = 0
0

0.0
0.0 0.2 0.4 0.6 0.8 1.0
Distancia

1.0
0.8

Covariograma
h
cs 1 − 
si 0 ≤ h ≤ al

0.6
al
C(h) =
meseta

0.4
Lineal

0 + c si h > al

0.2
s

0.0
0.0 0.2 0.4 0.6 0.8 1.0
Distancia

1.0

c + cs si h = 0

0.8

 0

Covariograma

Esférico

0.6
C(h) = cs 1 − 32 ( ah ) + 12 ( ah )3

si 0 ≤ h ≤ as

0.4
 s s

0.2


0 si h > as

0.0
0.0 0.2 0.4 0.6 0.8 1.0
Distancia

1.2
Exponencial

1.0
 0.8
Covariograma
cs exp(−3h/ae ) si h>0
0.6

C(h) =
0.4

c + c si h=0
0 s
0.2
0.0

0.0 0.2 0.4 0.6 0.8 1.0


Distancia
1.2
1.0
Gaussiano


0.8
Covariograma

cs exp(−3h2 /ag 2 ) si h > 0


0.6

C(h) =
0.4

c + c si h = 0
0 s
0.2
0.0

0.0 0.2 0.4 0.6 0.8 1.0


Distancia
1.2


 c0 + cs si h = 0
1.0




0.8


Covariograma

c1 2 cos−1 ( h )+
Circular


π ac
0.6

C(h) = q
0.4

2h h


 πac (1 − ac )2 si 0 ≤ h ≤ ac
0.2




0.0


0 si h > ac
 0.0 0.2 0.4 0.6 0.8 1.0
Distancia
Efecto agu-

1.0


Covariograma

 cs sin(h) 
si h > 0
0.5

h
γ(h) =
c + c si h = 0
jero

0 s
0.0

0.0 0.5 1.0 1.5


Distancia
30 Capı́tulo 1. Conceptos básicos del análisis de datos geoestadı́sticos

por el semivariograma empı́rico, y del que se sabe cumple la condición de ser


semidefinido positivo. Obsérvese que, en general, no es necesario restringirse
a modelos isotrópicos, aunque suelen ser los primeros que son considerados.

El objetivo será elegir de entre todos los semivariogramas posibles


{γ(h, ϑ), ϑ ∈ Υ} aquél que mejor se ajuste a las observaciones realizadas,
obteniendo con ello un modelo de semivariograma que más tarde será utilizado
en el proceso de predicción espacial. En esta sección se verá los principales
métodos de estimación.

1.5.1 Estimación por mı́nimos cuadrados

La estimación por mı́nimos cuadrados ordinarios (OLS) consiste en obtener el


valor ϑ̂ que minimiza
n
X
(γ̂(hj ) − γ(hj , ϑ))2 = [γ̂ − γ(ϑ)]0 [γ̂ − γ(ϑ)]
j=1

siendo γ̂ = [γ̂(h1 ), . . . , γ̂(hn )]0 y γ(ϑ) = [γ(h1 , ϑ), . . . , γ(hn , ϑ)]0 . Un problema
que presenta este procedimiento es que en este caso las estimaciones están
correladas y tienen varianzas diferentes.

Una solución es aplicar mı́nimos cuadrados generalizados (GLS), que con-


siste en minimizar
[γ̂ − γ(ϑ)]0 V (ϑ)−1 [γ̂ − γ(ϑ)]

siendo V (ϑ) la matriz de varianzas-covarianzas de γ̂, que depende del valor ϑ


desconocido y cuyos elementos pueden ser además difı́ciles de estimar.

Un compromiso entre las dos anteriores es la estimación por mı́nimos


cuadrados ponderados (WLS), que consiste en minimizar
n
X
wj [γ̂(hj ) − γ(hj , ϑ)]2 = [γ̂ − γ(ϑ)]0 W (ϑ)−1 [γ̂ − γ(ϑ)] (1.7)
j=1

siendo W (ϑ) una matriz diagonal cuyos elementos son las varianzas de γ̂, las
cuales pueden aproximarse bajo la hipótesis que el proceso es gaussiano y las
estimaciones son incorreladas por 2γ(hj , ϑ)2 /N (hj ), con N (hj ) el número de
1.5 Estimación de los parámetros del variograma 31

localizaciones a distancia hj . Por tanto, los pesos de (1.7) vendrán dados por
wj = N (hj )/(2γ(hj , ϑ)2 ).

En general, los tres estimadores OLS, WLS y GLS aparecen en orden cre-
ciente de eficiencia pero decreciente en simplicidad, siendo la estimación por
mı́nimos cuadrados ponderados la más utilizada en la práctica estadı́stica de-
bido a la facilidad de su implementación y a las ventajas computacionales que
presenta. No obstante, presenta inconvenientes prácticos como, por ejemplo,
depende de las estimaciones del semivariograma, son correladas, muy sensibles
a la selección de las distancias y las regiones de tolerancia utilizadas para su
cálculo.

1.5.2 Estimación mediante máxima verosimilitud

Supóngase que el proceso espacial analizado es un proceso gaussiano, el cual


se puede escribir como

Z(si ) = µ(si ) + ε(si ) i = 1, . . . , n (1.8)

donde la media del proceso µ(si ) = θ0 + v(si )0 θ es una función lineal de


un conjunto de p regresores y ε(si ) representa el error espacial, con v(si ) =
(v1 (si ), . . . , vp (si ))0 es un vector que contiene las variables explicativas asocia-
das a la localización espacial si , θ0 es el parámetro desconocido asociado al
intercepto, y θ = (θ1 , . . . , θp )0 es un vector de parámetros desconocidos. En
este caso es bastante sencillo obtener la forma exacta de la verosimilitud y
maximizarla numéricamente.

En forma matricial el modelo (1.8) se puede expresar como:

Z s = V θ̃ + εs (1.9)

donde Z s = (Z(s1 ), . . . , Z(sn ))0 , V = (1, V1 , . . . , Vn ) es la matriz de diseño de


dimensión n×(p+1) con el vector de intercepto 1 de dimensión n×1 y p varia-
bles explicativas Vj = (vj (s1 ), . . . , vj (sn ))0 de dimensión n×1, con j = 1, . . . , p.
Además, θ̃ = (θ0 , θ 0 )0 el vector de dimensión (p + 1) × 1 de parámetros des-
conocidos, εs = (ε(s1 ), . . . , ε(sn ))0 y Σϑ la matriz de varianzas-covarianzas de
32 Capı́tulo 1. Conceptos básicos del análisis de datos geoestadı́sticos

las observaciones. La estimación mediante máxima verosimilitud consiste en


obtener de forma simultánea los valores de θ̃ y ϑ que maximizan la función de
distribución conjunta normal multivariante, o lo que es lo mismo, que minimi-
zan −2 veces la log-verosimilitud
   0  
L θ̃, ϑ = Z s − V θ̃ Σ−1
ϑ Z s − V θ̃ + log|Σϑ | + nlog(2π) (1.10)

Minimizar la ecuación anterior puede ser computacionalmente demasiado


costoso si se tienen muchos parámetros en θ̃. Generalmente, ϑ sólo incluye
tres parámetros (la pepita, la meseta parcial y el rango). Se puede lograr un
ahorro computacional minimizando (1.10) en dos fases: en una primera etapa
se supone que θ̃ conocido, y por tanto Σϑ también, con lo que la estimación
de θ̃ se obtendrı́a mediante el estimador de mı́nimos cuadrados generalizado
ˆθ̃ = V 0 Σ−1 V −1 V 0 Σ−1 Z . Ahora se puede sustituir este estimador en la
ϑ ϑ s

expresión (1.10), obteniendo


0
LM L (ϑ) = Z s − V ˆθ̃ Σ−1 ˆθ̃ + log|Σ | + nlog(2π)
  
ϑ Z s − V ϑ (1.11)

Ahora la expresión (1.11) a minimizar únicamente depende de ϑ, lo que


hace el proceso más sencillo y permite obtener ϑ̂. Para obtener ˆθ̃ bas-
tarı́a con sustituir esta estimación en la expresión del estimador de mı́nimos
cuadrados generalizado. Aunque la estimación por máxima verosimilitud
es asintóticamente insesgada, presenta un sesgoconsiderable
−1 para muestras
0 −1
pequeñas porque los elementos de la diagonal de V Σϑ̂ V son demasiado
pequeños, lo que produce infraestimaciones de los parámetros θ̃.

La estimación por máxima verosimilitud restringida (REML) tiene muchas


mejores propiedades de sesgo que la anterior. La función a minimizar en este
caso viene dada por la expresión
   0  
L θ̃, ϑ = Z s − V θ̃ Σ−1
ϑ Z s − V θ̃ + log|Σϑ |

+ log(|V 0 Σ−1
ϑ V |) + (n − p)log(2π) (1.12)

Como antes, se sustituye el parámetro desconocido ϑ por el estimador de


mı́nimos cuadrados generalizado ϑ̂ obtenido a partir de unos valores iniciales
1.6 Predicción espacial 33

de ϑ, con lo que la función a minimizar serı́a


0
L(ϑ) = Z s − V ˆθ̃ Σ−1 ˆθ̃ + log|Σ |
  
ϑ Z s − V ϑ

+ log(|V 0 Σ−1
ϑ V |) + (n − p)log(2π) (1.13)

Después de minimizar esta expresión se obtiene una estimación ϑ̂, que se


sustituye en la expresión del
−1estimador de mı́nimos cuadrados generalizado
ˆ

para obtener θ̃ = V 0 Σ−1
ϑ̂
V V 0 Σ−1
ϑ̂
Z s.

Cuando la matriz de diseño V contiene únicamente una columna de unos y


θ̃ un único parámetro que representa la media general del proceso, entonces el
variograma empı́rico es insesgado respecto al variograma teórico, y el método
de mı́nimos cuadrados funciona suficientemente bien (Cressie 1993). En cam-
bio, cuando θ̃ tiene múltiples parámetros se necesita ajustar un variograma a
los residuos del modelo de regresión y las estimaciones dejan de ser insesgadas.
Aunque los procedimientos de máxima verosimilitud se han desarrollado bajo
la hipótesis de que los datos provienen de una distribución normal multiva-
riante, desviaciones en la distribución del error del modelo no afectan dema-
siado a sus estimaciones con estos métodos por ser suficientemente robustos.
Otra ventaja es que no se necesitan condiciones previas en el proceso de esti-
mación, tales como distancias máximas y regiones de tolerancia. Además, de
estas técnicas se pueden utilizar procedimientos de diagnóstico clásicos para
los modelos ajustados (Faraway 2005) como el valor de menos dos veces la
log-verosimilitud asociada (−2LL), el criterio de información de Akaike (AIC,
Akaike (1973) y Akaike (1974)) o el criterio de información bayesiano (BIC,
Schwarz (1978)).

1.6 Predicción espacial

El objetivo de la predicción espacial será, a partir de las observaciones realiza-


das, obtener una estimación de g(Z(s0 )), siendo g(Z(·)) alguna caracterı́stica
de interés del proceso Z(·) y s0 una región de interés en D, es decir sobre una
determinada localización s0 ∈ D, con lo que g(Z(·)) ≡ Z(·).
34 Capı́tulo 1. Conceptos básicos del análisis de datos geoestadı́sticos

Aunque existen multitud de procedimientos de predicción espacial, esta


sección se va a centrar en el kriging, que es el término genérico adoptado en
geoestadı́stica para dar nombre a una metodologı́a de interpolación basada en
una familia de algoritmos de regresión generalizada por mı́nimos cuadrados
que utiliza las propiedades de segundo orden del proceso Z(·). Recibe este
nombre en reconocimiento a los trabajos pioneros de Krige (1951).

Se parte del problema de la predicción del proceso original Z(·) sobre una
determinada localización s0 ∈ D, esto es, de la predicción puntual sin con-
siderar error de medida y luego se generalizan los resultados obtenidos para
problemas más generales. El predictor que el kriging utiliza para la predicción
de Z(s0 ) es un predictor lineal de los datos
n
X
Ẑ(s0 ) = ϕi Z(si ) = ϕ0 Z s (1.14)
i=1

donde ϕi es el peso asignado a cada uno de los datos que intervienen en


el sumatorio y ϕ = (ϕ1 , . . . , ϕn )0 . De todos los posibles predictores linea-
les, la técnica de kriging selecciona aquel predictor lineal que sea insesgado
(E[Z(s0 ) − Ẑ(s0 )] = 0) y además sea óptimo en el sentido que minimize la
varianza del error cuadrático medio de la predicción (min V ar[Z(s0 ) − Ẑ(s0 )]).
Por este motivo el predictor resultante recibe el nombre de BLUP (Best Linear
Unbiased Predictor).
2
Si denotamos por σK (s0 ) el error cuadrático medio de la predicción, bajo
la condición de insesgadez vendrá dado por
h i  2
2
σK (s0 ) = V ar Z(s0 ) − Ẑ(s0 ) = E Z(s0 ) − Ẑ(s0 ) (1.15)

A continuación se describen algunos de los tipos de kriging más utilizados en


la práctica geoestadı́stica, como son el kriging ordinario (supone que la media
es constante pero desconocida) y el kriging universal (supone que la media es
desconocida y no es una constante, aunque sı́ una función lineal de un conjunto
de variables que dependen de la localización). En Cressie (1993) se encuentra
un mayor desarrollo de cada uno de estos métodos y otros procedimientos
de gran aplicación como el kriging indicador, el kriging lognormal, el kriging
transgaussiano, el kriging robusto y el cokriging para el caso multinomial.
1.6 Predicción espacial 35

1.6.1 Kriging ordinario

Suponga que el proceso espacial Z(·) es intrı́nsecamente estacionario con vario-


grama 2γ(·). Se tiene entonces que ε(·) también es un proceso intrı́nsecamente
estacionario con el mismo variograma que Z(·), ya que

2γε (h) =Var(ε(s1 ) − ε(s2 )) = Var(Z(s1 ) − µ(s1 ) − Z(s2 ) + µ(s2 ))


=Var(Z(s1 ) − Z(s2 )) = 2γ(h)

En este caso se considera que la tendencia del proceso µ(s) es desconocida


pero constante a lo largo de toda el área de estudio D, es decir, µ(s) = µ, ∀s ∈
D. La insesgadez del predictor (1.14) implica que los pesos ϕi deben sumar
uno, ya que
" n
# n
X X
E[Z(s0 ) − Ẑ(s0 )] = E[Z(s0 )] − E ϕi Z(si ) = θ0 − ϕi θ0 = 0 (1.16)
i=1 i=1
Pn
entonces i=1 ϕi = 1. El objetivo es calcular los pesos ϕi de (1.14) que
minimizan (1.15) bajo la restricción de insesgadez dada en (1.16). Si se define
l el multiplicador de Lagrange asociado a la restricción de insesgadez, este
problema es equivalente a minimizar la expresión
n
!2 n
!
X X
E Z(s0 ) − ϕi Z(si )) − 2l ϕi − 1
i=1 i=1

donde
n
!2 n n
!2
X X X
Z(s0 ) − ϕi Z(si )) = ϕi Z(s0 ) − ϕi Z(si )
i=1 i=1 i=1
n
!2
X
= ϕi (Z(s0 ) − Z(si ))
i=1
n X
X n
= ϕi ϕj [Z(s0 ) − Z(si )][Z(s0 ) − Z(sj )]
i=1 j=1

Pero se tiene que

[Z(si ) − Z(sj )]2 =[Z(si ) − Z(s0 ) + Z(s0 ) − Z(sj )]2 = [Z(si ) − Z(s0 )]2
+ [Z(sj ) − Z(s0 )]2 − 2[Z(si ) − Z(s0 )][Z(sj ) − Z(s0 )]
36 Capı́tulo 1. Conceptos básicos del análisis de datos geoestadı́sticos

Por lo tanto, se tiene que

n
!2 " n X
n
#
X X
E Z(s0 ) − ϕi Z(si ) =E ϕi ϕj (Z(s0 ) − Z(si ))(Z(s0 ) − Z(sj ))
i=1 i=1 j=1
n
X X n X n
=2 ϕi E[Z(s0 ) − Z(si )]2 /2 − ϕi ϕj E[Z(si ) − Z(sj )]2 /2
i=1 i=1 j=1

Ası́, la expresión a minimizar serı́a


n n X
n n
!
X X X
2 ϕi γ(s0 − si ) − ϕi ϕj γ(si − sj ) − 2l ϕi − 1
i=1 i=1 j=1 i=1

Si se deriva respecto a ϕi y l, y se iguala a cero, se tiene el siguiente sistema


de ecuaciones lineales
n
X
− ϕj γ(si − sj ) + γ(s0 − si ) =l i = 1, ..., n
j=1
n
X
ϕi =1
i=1

que puede expresarse de forma matricial como


! ! !
Γ 1 ϕ γ
= (1.17)
10 0 l 1

siendo Γ la matriz n × n cuyo elemento (i, j)-ésimo es γ(si − sj ), γ el vector di-


mensión n cuyo elemento i-ésimo es γ(s0 −si ), 1 el vector unidad de dimensión
n y ϕ el vector con los coeficientes del predictor del kriging ordinario.

Resolviendo (1.17), se llega a que


0
(1 − 10 Γ−1 γ)

ϕ̂0KO = γ+1 Γ−1 (1.18)
10 Γ−1 1
ˆlKO 1 − 10 Γ−1 γ
=− (1.19)
10 Γ−1 1

En este caso, el error cuadrático medio de la predicción que se ha mini-


mizado (y que también se conoce como varianza del kriging) viene dado por
1.6 Predicción espacial 37

la siguiente expresión

2 0 (1 − 10 Γ−1 γ)2
−1
σ̂KO (s0 ) =γ Γ γ −
10 Γ−1 1
n
X Xn X n
=2 ϕi γ(s0 − si ) − ϕi ϕj γ(si − sj ) (1.20)
i=1 i=1 j=1

Todas estas expresiones pueden escribirse en términos de la función de cova-


rianza en el caso de tener un proceso estacionario de segundo orden. Supóngase
que se tiene un proceso Z(·) estacionario de segundo orden de media cero y
covariograma C(·). En este caso
" n
#2 " n
#2
X X
Z(s0 ) − ϕi Z(si ) = Z(s0 ) − θ0 + θ0 − ϕi Z(si )
i=1 i=1
" n
#2 " n
#
X X
2
= [Z(s0 ) − θ0 ] + ϕi Z(si ) − θ0 − 2[Z(s0 ) − θ0 ] ϕi Z(si ) − θ0
i=1 i=1
" n
#2 " n
#
X X
= [Z(s0 ) − θ0 ]2 + ϕi (Z(si ) − θ0 ) − 2[Z(s0 ) − θ0 ] ϕi (Z(si ) − θ0 )
i=1 i=1
n X
X n
= [Z(s0 ] − θ0 )2 + ϕi ϕj [Z(si ) − θ0 ][Z(sj ) − θ0 ]
i=1 j=1
n
X
−2 ϕi [Z(s0 ) − θ0 ][Z(si ) − θ0 ]
i=1

Tomando esperanzas en los dos lados de la expresión anterior se tiene que


" n
#2 n Xn n
X X X
E Z(s0 ) − ϕi Z(s0 ) = C(0) + ϕi ϕj C(si − sj ) − 2 ϕi C(s0 − si )
i=1 i=1 j=1 i=1

Luego la expresión a minimizar es


n X
n n n
!
X X X
C(0) + ϕi ϕj C(si − sj ) − 2 ϕi C(s0 − si ) − 2l ϕi − 1
i=1 j=1 i=1 i=1

Si se deriva como antes respecto a ϕi y l y se iguala a cero, se tiene un


sistema de ecuaciones lineales que puede expresarse en forma matricial como
! ! !
Σϑ 1 ϕ c
=
10 0 l 1
38 Capı́tulo 1. Conceptos básicos del análisis de datos geoestadı́sticos

siendo Σϑ la matriz n × n cuyo elemento (i, j)-ésimo es C(si − sj ) y c el vector


de dimensión n cuyo elemento i-ésimo es C(s0 − si ). Para el predictor del
kriging ordinario, dado en (1.14), se tiene que
0
(1 − 10 Σ−1

0 ϑ c)
ϕ̂KO = c + 1 Σ−1
ϑ (1.21)
10 Σ−1
ϑ 1
0 −1
ˆlKO = 1 − 1 Σϑ c (1.22)
10 Σ−1
ϑ 1

La varianza del kriging vendrı́a dada por


1 − 10 Σ−1
ϑ c
2
σ̂KO (s0 ) = C(0) − ϕ0 c + 0 −1
(1.23)
1 Σϑ 1

1.6.2 Kriging universal

El kriging universal generaliza el kriging ordinario, permitiendo que el valor


medio del proceso no sea constante sino una combinación lineal de funciones
conocidas o covariables ligadas a las mismas localizaciones. De esta forma, el
kriging universal incorpora términos de regresión y correlación espacial.

La hipótesis de partida es que el proceso objeto de estudio Z(s) puede des-


componerse como (1.10). Si la matriz de diseño V contiene únicamente fun-
ciones polinomiales de las coordenadas espaciales de la localización s, entonces
el método de predicción recibe el nombre de kriging universal con tendencia
interna.

Como se hizo en el kriging ordinario, se quiere predecir el valor de Z(s0 )


a partir del conjunto de observaciones Z s . Para ello, se utilizara un predictor
lineal de la forma (1.14), donde al igual que en kriging ordinario los coeficientes
ϕi se obtienen al imponer que el estimador resultante sea insesgado y de minima
varianza. En este caso, la insesgadez de (1.14) implica que ϕ0 V = v 0 (s0 ),
donde v(s0 ) = (1, v1 (s0 ), . . . , vp (s0 ))0 ya que en este caso
h i
E Ẑ(s0 ) = E[ϕ0 Z s ] = ϕ0 E[Z s ] = ϕ0 V θ̃ = v 0 (s0 )θ̃ = E[Z(s0 )] (1.24)

Obsérvese que el kriging universal es una generalización del kriging ordi-


nario, ya que para V = 1 y θ̃ = θ0 se tiene el modelo Z s = θ0 1 + ε que se
asumió en aquel, y además, la condición (1.24) se reduce a (1.17).
1.6 Predicción espacial 39

Procediendo como en el caso del kriging ordinario, se llega al siguiente


sistema de ecuaciones lineales
! ! !
Γ V ϕ γ
=
V0 0 l v(s0 )
siendo Γ una matriz n × n cuyo elemento (i, j)-ésimo es γ(si − sj ), γ el vector
de dimensión n cuyo elemento i-ésimo es γ(s0 − si ) y l un vector de p + 1
multiplicadores de Lagrange.

Resolviendo este sistema de ecuaciones, se tiene que


0
ϕ̂0U K = γ + V (V 0 Γ−1 V )−1 (v(s0 ) − V 0 Γ−1 γ) Γ−1

(1.25)
l̂U K = − (V 0 Γ−1 V )−1 v(s0 ) − V 0 Γ−1 γ
 

El error cuadrático de la predicción serı́a, en este caso


0 −1 
σ̂U2 K (s0 ) =γ 0 Γ−1 − v(s0 ) − V 0 Γ−1 γ V 0 Γ−1 V v(s0 ) − V 0 Γ−1 γ
 

(1.26)

Se puede expresar también todas estas ecuaciones en función de la función


de covarianza del proceso C(·). En este caso
h −1 i0
ϕ̂0U K = c + V V 0 Σ−1ϑ V (v(s 0 ) − V 0 −1
Σ ϑ c) Σ−1
ϑ
(1.27)
l̂U K = − (V 0 Σ−1 −1
v(s0 ) − V 0 Σ−1
 
ϑ V) ϑ c

siendo Σϑ la matriz n × n cuyo elemento (i, j)-ésimo es C(si − sj ) y c el vector


de dimensión n cuyo elemento i-ésimo es C(s0 − si ).

Respecto a la estimación óptima de los parámetros de la media θ̃, como los


datos Z s satisfacen un modelo lineal general con E(Z s ) = V θ̃ y Var(Z s ) = Σϑ ,
puede obtenerse por mı́nimos cuadrados generalizados como
ˆθ̃ = V 0 Σ−1 V −1 V 0 Σ−1 Z
gls ϑ ϑ s

con V ar ˆθ̃ gls = V 0 Σ−1


   −1
ϑ V . A partir de estas expresiones, se puede
obtener intervalos de confianza para estos parámetros o combinaciones lineales
de los mismos. Se deduce que aun cuando para estimar los parámetros de
la media de forma óptima es necesario conocer las covarianzas involucradas
en Σϑ , para la predicción óptima de Z(s0 ) únicamente se ha de conocer los
variogramas implicados en Γ.
40 Capı́tulo 1. Conceptos básicos del análisis de datos geoestadı́sticos

1.7 Diagnóstico mediante validación cruzada

La validación cruzada es una técnica que permite evaluar la capacidad pre-


dictiva del modelo seleccionado. Supóngase que se ha observado el valor del
proceso Z(s) sobre un conjunto de localizaciones {s1 , . . . , sn }. Sean Ẑ(si ) y
σ̂(si ) el valor predicho y el error tı́pico de la predicción para la localización si
obtenida a partir de las observaciones {s1 , . . . , si−1 , si+1 , . . . , sn }.

Esta técnica se justifica debido a que los métodos de interpolación kriging


son exactos, es decir los valores de los pronósticos coinciden con los valores
observados para los puntos muestreados y da una idea de qué tan buenos son
los pronósticos, por lo cual brinda información acerca de cuál modelo provee
predicciones más exactas.

Como se observa el método consiste en excluir la observación de uno de


los n puntos muéstrales (por lo general asociados a un vecindario), y con los
n − 1 valores restantes y el modelo de semivarianza escogido, predecir vı́a
kriging el valor de la variable en estudio en la ubicación del punto que se
excluyó. Si el modelo de semivarianza o covarianza elegido describe bien la
estructura de autocorrelación espacial, entonces la diferencia entre el valor
observado y el valor predicho debe ser pequeña y se podrá producir el mapa.
Este procedimiento se realiza en forma secuencial con cada uno de los puntos
muéstrales y ası́ se obtiene un conjunto de n errores de predicción.

Sea Ẑ[i] (si ) el valor predicho a partir de la validación cruzada, y sea σ̂[i] (si )
la predicción para la desviación estándar en la localización si , con estos es-
tadı́sticos se construyen los siguientes contrastes de bondad de ajuste:

i. La media de los errores de predicción (MPE) debe ser igual a cero.


Pn  
Ẑ[i] (si ) − Z(si )
MPE = i=1
n
ii. La raı́z media del cuadrado de los errores de predicción (RMSPE).
v 
uP n 2
u
t Ẑ[i] (s i ) − Z(s i )
RMSPE = i=1
n
1.7 Diagnóstico mediante validación cruzada 41

iii. Error estándar promedio (ASE).


n
P
σ̂[i] (si )
i=1
ASE =
n

iv. La media estandarizada de los errores de predicción (MSPE) debe ser


muy cercana a cero.
n 
P . 2
Ẑ[i] (si ) − Z(si ) σ̂[i] (si )
i=1
MSPE =
n

v. La raı́z media estandarizada del cuadrado del error de predicción


(RMSSPE) debe ser muy cercana a uno 1.
v 
uP n . 2
u
t Ẑ[i] (si ) − Z(si ) σ̂[i] (si )
i=1
RMSSPE =
n

vi. El coeficiente de determinación esta dado por:


n  n
 .X
2
X 2
R =1− Ẑ [i] (si ) − Z(si ) Z(si ) − Z
i=1 i=1

n
P
donde Z̄ = Z(sj )/n
j=1

Este último se encuentra en Bivand et al. (2008). Las demás funciones


se encuentran en Johnston et al. (2001). Luego se selecciona el método de
interpolación que mejores resultados estadı́sticos arroje, ası́; el RMSPE se
espera sea muy cercano al ASE, en la medida en que esto suceda el modelo
presentará un buen ajuste. El criterio al que se da mayor peso es al v., seguido
del criterio iv.

Para un modelo que provea predicciones exactas, el MPE deberı́a ser cer-
cano a cero, el RMSPE y el ASE deberı́an ser tan pequeños como sea posible
(lo cual es recomendable cuando se comparan modelos), y el RMSSPE deberı́a
ser cercana a 1. El término error de predicción es usado para las diferencias
entre la predicción y el valor observado actual. Para un modelo que provea
predicciones exactas, el MPE deberı́a ser cercano a 0 si las predicciones son
42 Capı́tulo 1. Conceptos básicos del análisis de datos geoestadı́sticos

insesgadas, el RMSSPE deberı́a ser cercano a 1 si los errores estándar son


exactos y el RMSPE deberı́a ser pequeño si las predicciones son cercanas a los
valores observados.

El proceso anterior de eliminar un caso y ajustar con los restantes es un


caso particular del método Jacknife. Si se dispone de suficientes datos espa-
cialmente distribuidos de forma homogénea del proceso espacial Z(s), se puede
entonces dividir los datos en dos subconjuntos, uno de modelización y otro de
validación, sobre el que se analizara las diferencias entre los valores observa-
dos y las predicciones obtenidas mediante el modelo ajustado con el primer
subconjunto.
Capı́tulo 2

Conceptos básicos del análisis


espacio-temporal, de distancias
y funciones de bases radial

2.1 Introducción

En los estudios geoestadı́sticos se analizan procesos de la naturaleza que se


desarrollan en el espacio, pero para los que suele ser habitual disponer de un
determinado seguimiento temporal. Por ejemplo, si estamos estudiando la tem-
peratura terrestre en una determinada ciudad, dispondremos de un conjunto
de estaciones de control distribuidas espacialmente por la ciudad en las que se
mide la temperatura, y para las que serı́a habitual disponer de un seguimiento
temporal de mediciones en cada una de ellas. Como se verá en el capitulo 5, en
la modelización y predicción de un determinado fenómeno se obtienen impor-
tantes beneficios si, en lugar de considerar únicamente su distribución espacial
para un determinado instante temporal de interés (proceso meramente espa-
cial) o la evolución temporal del proceso sobre una localización determinada
(proceso meramente temporal), se considera la evolución conjunta del proceso
en el espacio-tiempo.

En los últimos años esta área ha tomado gran relevancia y viene ex-
44 Capı́tulo 2. Conceptos básicos del análisis espacio-temporal, de distancias y funciones de bases radial

pandiéndose significativamente, en particular en aplicaciones climatológicas y


en ciencias ambientales (Kyriakidis & Journel 1999, Kolovos et al. 2004, Le
& Zidek 2006, Finkenstädt et al. 2006, Gaetan & Guyon 2010, Cressie &
Wikle 2011).

La utilización de modelos estadı́sticos en el estudio de fenómenos espacio-


temporales lleva asociado un conjunto de problemas inherentes a la naturaleza
del problema analizado. En particular, se necesita manipular grandes con-
juntos de datos obtenidos con una elevada resolución espacial y periodicidad
temporal, lo que hará indispensable la utilización de métodos computacionales
intensivos para su manejo. También será necesario disponer de procedimientos
estadı́sticos suficientemente flexibles que permitan el ajuste de las diferentes
situaciones analizadas.

La geoestadı́stica espacio-temporal provee un cuadro probabilı́stico para el


análisis y predicción de los datos, el cual es construido a partir de la depen-
dencia espacio temporal entre las observaciones (Kyriakidis & Journel 1999).
El análisis puede ser enfocado en la interpolación espacial sobre especı́ficos ins-
tantes del tiempo. En este caso el objetivo puede centrarse en la comparación
de diferentes mapas pronóstico de variables tales como la precipitación, conta-
minación, nivel de radiación solar, entre otras. Más aun el análisis puede estar
enfocado sobre el modelamiento múltiple de series de tiempo donde cada una
de las asociaciones espaciales está asociada a una determinada serie de tiempo.
Actualmente, la teorı́a geoestadı́stica de predicción de superficies espaciales,
incluye la dimensión asociada al tiempo.

Por otro lado, muchos métodos de estadı́stica y análisis de datos utilizan


el concepto geométrico de distancia entre individuos o poblaciones. Las dis-
tancias, aparecen en muchos aspectos de la estadı́stica: contraste de hipótesis,
estimación, regresión, análisis discriminante, etc. (Arenas & Cuadras 2002).
Cuadras & Arenas (1990) proponen el método de regresión múltiple basado en
el análisis de distancias utilizando diferentes métricas para el trabajo con varia-
bles explicativas continuas y categóricas. De por si los métodos geoestadı́sticos
y espacio-temporales se basan en el cálculo de distancias geométricas, en par-
ticular distancias euclı́deas espaciales o espacio temporales, de aquı́ el interés
2.1 Introducción 45

de considerar también los métodos basados en distancias ya que tienen elemen-


tos en común, como lo es el cálculo de las distancias entre las observaciones,
esto anidado a la información que aporta el variograma serán determinantes
en la generación de pronósticos y permitirá mejorar el poder predictivo de los
métodos kriging tradicionales como se verán en los capı́tulos posteriores.

Adicionalmente, las funciones de base radial (RBF) tales como la multi-


cuadrática (MQ) o completamente regularizada spline (CRS) son útiles en la
construcción de modelos digitales de elevación (DEM), como se muestra en
(Mitás̆ová & Hofierka 1993). Una variación de la función MQ se llama la in-
versa multicuadrática (IMQ), introducido por (Hardy & Gopfert 1975). En
particular, en Späh (1969) se describe un método que permite evitar pun-
tos de inflexión y contiene splines cúbicos como un caso especial, utilizando
interpolación spline cúbica y exponencial (EXP). Más tarde, el spline capa
delgada (TPS) se introdujo en el diseño geométrico por (Duchon 1976), y
la aproximación de Gauss (GAU) utilizada por (Schagen 1979) es una va-
riante popular del TPS. Por último, (Mitás̆ & Mitás̆ová 1988, Mitás̆ová &
Hofierka 1993, Mitás̆ová & Mitás̆ 1993) desarrollan la formulación de la spline
con tensión (spline with tensión, ST), e implementan un algoritmo de seg-
mentación con un tamaño flexible de la superposición del vecindario. En este
punto, en esta tesis se proponen métodos para interpolación espacial y espacio-
temporal basada en distancias con funciones de base radial, los cuales se aplican
en el modelo geoestadı́stico para predecir la tendencia y estimar la estructura
de covarianza cuando las variables explicativas son mixtas utilizando la dis-
tancia de Gower (1971).

Por lo tanto, en este capı́tulo se presentan algunos conceptos básicos so-


bre análisis espacio-temporal, de distancias y funciones de base radial, que
son útiles para el desarrollo de las metodologı́as propuestas en cada uno de
los siguientes capı́tulos. Por lo tanto, en las Secciones 2.2 a 2.6 se describe
brevemente los principales conceptos, se hace estimación del variograma, se
presentan los principales modelos de covarianza considerados en esta tesis, y se
presentan los principales resultados de modelización y predicción en el análisis
de datos espacio-temporales. En la Sección 2.7 se presentan algunos conceptos
46 Capı́tulo 2. Conceptos básicos del análisis espacio-temporal, de distancias y funciones de bases radial

básicos sobre distancias Euclidianas muy útiles para cuando se tienen variables
explicativas continuas, categóricas, binarias, e inclusive una mezcla de todas
las anteriores. Finalmente, en la Sección 2.8 se concluye este capı́tulo con una
pequeña revisión sobre funciones de base radial espacial que son extendibles
a funciones de base radial espacio-temporales y se utilizan en los siguientes
capı́tulos de este trabajo.

2.2 Geoestadı́stica espacio-temporal

El objetivo de esta sección es introducir aquellos conceptos más relevantes en el


análisis de procesos estocásticos espacio-temporales. Muchos de los conceptos
tratados serán generalizaciones del caso espacial que se han visto en el Capı́tulo
1.

Sea {Z(s, t), s ∈ D ⊆ Rd , t ∈ T} un proceso estocástico espacio-temporal


observado en n coordenadas espacio-tiempo (s1 , t1 ), . . . , (sn , tn ), donde el
ı́ndice espacial varı́a en D ∈ Rd y el ı́ndice temporal en T ∈ R o Z.

Como en la práctica generalmente se dispone de una única realización del


proceso a estudiar, cualquier inferencia de las leyes que lo rigen requerirá de
la admisión de determinadas leyes simplificadoras relacionadas con la regula-
ridad del proceso, como son la estacionariedad, la separabilidad, la simetrı́a
completa, que se verán más adelante. Bajo estas hipótesis de regularidad,
se podrán analizar juntas todas las observaciones separadas por un vector de
distancia espacio-temporal (h, u) obteniendo con ello la replicación necesaria
para el análisis.

Definición 2.1. El proceso espacio-temporal Z(s, t) tiene función de co-


varianza espacialmente estacionaria si, para cualquier par de localizaciones
(si , tk ) y (sj , tl ) en Rd ×R, la covarianza C((si , ti ), (sj , tj )) depende únicamente
de la distancia entre las localizaciones espaciales si −sj y de los tiempos ti −tj ,
i, j = 1, . . . , n.

Definición 2.2. El proceso espacio-temporal Z(s, t) tiene función de cova-


rianza temporalmente estacionaria si, para cualquier par de localizaciones
2.2 Geoestadı́stica espacio-temporal 47

(si , ti ) y (sj , tj ) en Rd ×R, la covarianza C((si , ti ), (sj , tj )) depende únicamente


de los tiempos ti − tj y de localizaciones espaciales si − sj , i, j = 1, . . . , n.

Definición 2.3. Si el proceso espacio-temporal Z(s, t) tiene función de cova-


rianza estacionaria tanto espacial como temporal, entonces decimos que tiene
función de covarianza estacionaria. En ese caso, la función de covarianza
puede expresarse como

C((si , ti ), (sj , tj )) = C(h, u)

siendo h = si − sj y u = ti − tj las distancias espacial y temporal, respectiva-


mente.

Si un proceso tiene una función de covarianza estacionaria, entonces su


varianza no depende de la localización, ya que

Var(Z(s, t)) = C(0, 0) = σ 2 , ∀(s, t) ∈ Rd × R

donde C(0, 0) ≥ 0 recibe el nombre de varianza a priori del proceso.

Definición 2.4. Decimos que un proceso espacio-temporal Z(s, t) es esta-


cionario de segundo orden (o estacionario en sentido débil, o simplemente
estacionario) si tiene media constante y función de covarianza estacionaria.

Definición 2.5. Se dice que el proceso espacio-temporal Z(s, t) es un pro-


ceso Gaussiano si para cualquier conjunto de localizaciones espacio-temporales
(s1 , t1 ), . . . , (sn , tn ), el vector aleatorio Z st = (Z(s1 , t1 ), . . . , Z(sn , tn ))0 sigue
una distribución normal multivariante.

Definición 2.6. Un proceso espacio-temporal Z(s, t) tiene función de cova-


rianza separable si existe una función de covarianza puramente espacial Cs (·)
y una función de covarianza puramente temporal Ct (·) tales que (Gneiting
et al. 2005)

C((si , ti ), (sj , tj )) = Cs (si , sj )Ct (ti , tj ), i, j = 1, . . . , n

para cualquier par de localizaciones (si , ti ) y (sj , tj ) ∈ Rd × R. Si esta descom-


posición no es posible, se dice que la función de covarianza es no separable.
48 Capı́tulo 2. Conceptos básicos del análisis espacio-temporal, de distancias y funciones de bases radial

Definición 2.7. Un proceso espacio-temporal Z(s, t) tiene función de cova-


rianza completamente simétrica si

C((si , ti ), (sj , tj )) = C((si , tj ), (sj , ti )) i, j = 1, . . . , n

para cualquier par de localizaciones (si , ti ) y (sj , tj ) ∈ Rd × R.

Definición 2.8. Un proceso espacio-temporal Z(s, t) tiene función de cova-


rianza con soporte compacto si, para cualquier par de localizaciones (si , ti )
y (sj , tj ) ∈ Rd × R, la covarianza C((si , ti ), (sj , tj )) tiende a cero cuando la
distancia espacial o temporal es suficientemente grande.

El esquema de la Figura 2.1, tomada de (Gneiting et al. 2005), representa la


relación existente entre las covarianzas separables, completamente simétricas,
estacionarias y de soporte compacto, dentro del conjunto general de funciones
de covarianza espacio-temporales (estacionarias o no estacionarias). Como
vemos, una función de covarianza separable puede ser estacionaria o no esta-
cionaria, y lo mismo ocurre con las funciones de covarianza completamente
simétricas. También se observa que las estructuras de covarianza que no son
completamente simétricas son no separables.

Definición 2.9. Un proceso espacio-temporal estacionario Z(s, t) tiene


función de covarianza espacialmente isotrópica si

C(h, u) = C(khk, u), ∀(s, t) ∈ Rd × R

Definición 2.10. Un proceso espacio-temporal estacionario Z(s, t) tiene


función de covarianza temporalmente isotrópica (o simétrica) si

C(h, u) = C(h, |u|), ∀(s, t) ∈ Rd × R

Obsérvese que si la función de covarianza de un proceso estacionario es


espacial y temporalmente isotrópica, entonces es completamente simétrica.
2.2 Geoestadı́stica espacio-temporal 49

Funciones de covarianza espacio−temporales (estacionarias o no estacionarias)

Con soporte compacto

Estacionarias

Completamente simétricas

Separables

Figura 2.1: Relaciones entre los diferentes tipos de funciones de covarianza


espacio-temporales

Como ocurrı́a con los procesos espaciales, en ocasiones se modeliza la es-


tructura de segundo orden de un proceso espacio-temporal utilizando vario-
gramas en lugar de funciones de covarianzas. Se define el variograma espacio-
temporal como la función

2γ((si , ti ), (sj , tj )) = Var(Z(si , ti ) − Z(sj , tj )), i, j = 1, . . . , n

mientras que la mitad de esta cantidad recibe el nombre de semivariograma.


En el caso en que el proceso tenga media constante, entonces

2γ((si , ti ), (sj , tj )) = E[Z(si , ti ) − Z(sj , tj )]2

Siempre que sea posible definir la función de covarianza y el variograma, se


relacionarán mediante la siguiente expresión

2γ((si , ti ), (sj , tj )) =Var(Z(si , ti )) + Var(Z(sj , tj )) − 2C((si , ti ), (sj , tj ))


=2C(0, 0) − 2C(si − sj , ti − tj )
50 Capı́tulo 2. Conceptos básicos del análisis espacio-temporal, de distancias y funciones de bases radial

por lo que el proceso Z(s, t) serı́a intrı́nsecamente estacionario con semivario-


grama
γ(h, u) = C(0, 0) − C(h, u)

Otra función muy utilizada en la modelización de la dependencia espacio-


temporal de los procesos estacionarios es la función de correlación.

Definición 2.11. Sea Z(s, t) un proceso estacionario de segundo orden con


varianza a priori σ 2 = C(0, 0) > 0, se define la función de correlación del
proceso como
C(h, u)
ρ(h, u) =
C(0, 0)

Es evidente que si ρ(h, u) es una función de correlación sobre Rd × R,


entonces sus marginales ρ(0, u) y ρ(h, 0) serán, respectivamente, funciones de
correlación espacial sobre Rd y temporal sobre R.

Una condición necesaria y suficiente para que una función C((si , ti ), (sj , tj ))
de valores reales definida sobre Rd × R sea una función de covarianza es que
sea simétrica y definida positiva, esto es,
n X
X n
ϕi ϕj C((si , ti ), (sj , tj )) ≥ 0 (2.1)
i=1 j=1

para cualquier n ∈ N, y para cualesquiera (si , ti ) ∈ Rd × R y ϕi ∈ R, i =


1, . . . , n.

Análogamente, una condición necesaria y suficiente para que una función


de valores reales γ((si , ti ), (sj , tj )) no negativa definida sobre Rd × R sea
un semivariograma es que sea una función simétrica γ((si , ti ), (sj , tj )) =
γ((sj , tj ), (si , ti )) y que sea condicionalmente definida negativa, esto es,

n X
X n
ϕi ϕj γ((si , ti ), (sj , tj )) ≤ 0
i=1 j=1

para cualquier n ∈ N, y cualesquiera (si , ti ) ∈ Rd × R y ϕi ∈ R, i = 1, . . . , n


con ni=1 ϕi = 0.
P
2.3 Estimación del variograma y del covariograma 51

2.3 Estimación del variograma y del covario-


grama

Para obtener una estimación empı́rica de la función de covarianza o del vario-


grama de un proceso espacio-temporal se puede generalizar de forma natural
los procedimientos vistos en la Sección 1.3 para procesos espaciales. Sea Z(·, ·)
un proceso intrı́nsecamente estacionario observado sobre un conjunto de n lo-
calizaciones espacio-temporales {(s1 , t1 ), . . . , (sn , tn )}, se puede obtener una
estimación de su variograma 2γ(·, ·) (o de su función de covarianza C(·, ·) si
el proceso es además estacionario de segundo orden) a partir de los valores
observados utilizando el estimador clásico propuesto por Matheron (1971) o el
estimador robusto de Cressie & Hawkins (1980).

El estimador clásico obtenido aplicando el método de los momentos, para


el variograma del proceso, viene dado por
1 X
2γ̂(h, u) = (Z(si , ti ) − Z(sj , tj )) (2.2)
| N (h, u) |
N (h,u)

donde N (h, u) = {(si , ti ), (sj , tj ) : si − sj ∈ T (h), ti − tj ∈ T (u)} siendo T (h)


una región de tolerancia en Rd alrededor de h y T (u) una región de tolerancia
en R alrededor de u, y | N (h, u) | el número de elementos distintos en N (h, u).

Para la covarianza, el estimador obtenido por el método de los momentos


serı́a
X   
Ĉ(h, u) =| N (h, u) | Z(si , ti )Ẑ Z(sj , tj ) − Ẑ
N (h,u)
n
1
P
donde Ẑ = n
Z(si , ti ) es un estimador de la media del proceso.
i=1

Aunque el método de estimación clásico presenta la ventaja de su facili-


dad de cálculo, tiene algunos inconvenientes prácticos, como la falta de ro-
bustez frente a valores extremos de Z(s). Para evitar este problema, Cressie
& Hawkins (1980) definen el estimador del variograma siguiente
 4
 −1
1 X
1/2  0.494
2γ̂(h, u) =  | Z(si , ti ) − Z(sj , tj ) | 0.457 +
| N (h, u) | | N (h, u) |
N (h,u)
52 Capı́tulo 2. Conceptos básicos del análisis espacio-temporal, de distancias y funciones de bases radial

Como ocurrı́a en el caso espacial, estos estimadores de la función de cova-


rianza o del variograma del proceso no satisfacen en general la condición de
ser definidos positivos o condicionalmente definidas negativas, respectivamente.
Por ello, en la práctica se selecciona un modelo paramétrico o no paramétrico
de funciones de covarianza o de variogramas que dan lugar a modelos válidos.

2.4 Modelos de covarianza espacio-temporales

Algunos modelos de covarianza espacio-temporales que se pueden emplear aquı́


se definen a continuación.

2.4.1 Modelo métrico

Sea C(·) una función definida positiva en Rd × R, el modelo métrico esta como
(Dimitrakopoulos & Luo 1994)

C(h, u) = C(a2 khk2 + b2 |u|2 )

donde a, b ∈ R son constantes que definen la métrica espacio-temporal. Este


modelo supone la misma estructura de la dependencia en el espacio y el tiempo,
y sólo permite cambios en el rango de las dos funciones de covarianza. Se
pueden encontrar aplicaciones de este modelo en Armstrong & Hubert (1993) y
Snepvangers & Huisman (2003), estos últimos autores lo aplican para modelar
el contenido de agua del suelo en un pastizal de 0.36 hectáreas en los Paı́ses
Bajos.

2.4.2 Modelo producto

Se basa en la consideración de las funciones de covarianza espacio-temporales


separables estableciendo la dependencia en las dos (Rodriguez-Iturbe & Mejia
1974, De Cesare et al. 1997). Este modelo es

C(h, u) = Cs (h)Ct (u)


2.4 Modelos de covarianza espacio-temporales 53

donde Cs es una función definida-positiva en Rd y Ct es una función definida-


positiva en R. Algunos modelos de covarianza espaciales y temporales se en-
cuentran disponibles en Cressie (1993). Si se reescribe en términos de vario-
gramas se tiene

γ(h, u) = Ct (0)γs (h) + Cs (0)γt (u) − γs (h)γt (u)

donde γ(h, u) es el variograma espacio-temporal, γt (u) es el variograma tem-


poral, γs (h) es el variograma espacial, Cs (0) es la meseta de γs y Ct (0) es la
meseta de γt . La principal ventaja de escribir el producto en términos de mo-
delo de variograma es que, aunque la suma de dos variogramas es generalmente
semidefinida, y el producto de dos de esas funciones no será del mismo tipo,
cuando la suma y el producto se combinan se puede obtener un modelo válido
(Myers et al. 2002).

2.4.3 Modelo suma

Este modelo de covarianza estacionaria fue introducido por Rouhani & Hall
(1989) y consiste en considerar la covarianza espacio-temporal del proceso como
la suma de las covarianzas espaciales y temporales. Este modelo esta dado por

C(h, u) = Cs (h) + Ct (u)

donde Cs (h) es la función de covarianza espacial definida en Rd y Ct (u) la


función de covarianza temporal definida en R. El principal problema que se
presenta es que la suma de los modelos de covarianza espacial y temporal, no
es generalmente una función definida positiva, tan sólo semidefinida positiva.
Esto puede causar que la matriz de coeficientes de las ecuaciones de kriging
no sea invertible para determinadas configuraciones de algunos datos espacio-
temporales (Myers & Journel 1990, Rouhani & Myers 1990).

2.4.4 Modelo producto-suma

De Cesare et al. (2001b) introducen este nuevo modelo de covarianza espacio-


temporal estacionario, el cual es una generalización del modelo producto, que
54 Capı́tulo 2. Conceptos básicos del análisis espacio-temporal, de distancias y funciones de bases radial

se obtiene mediante la combinación de sumas y productos de la covarianza


puramente espacial y temporal del proceso, entonces

C(h, u) = k1 Cs (h)Ct (u) + k2 Cs (h) + k3 Ct (u)

es una covarianza espacio-temporal para algún k1 > 0 y k2 ≥ 0, k3 ≥ 0. En


términos del variograma es

γ(h, u) = [k2 + k1 Ct (0)]γs (h) + [k3 + k1 Cs (0)]γt (u) + k1 γs (δs )γt (δt )

donde γs (h) y γt (u) son las funciones de variograma correspondientes, y Cs (h)


y Ct (u) son las correspondientes funciones de covarianza, aquı́ C(0, 0) es la
meseta de γ(h, t), Cs (0) es la meseta de γs (h) y Ct (0) es la meseta de γt (u).
Por definición, se sabe que γ(0, 0) = γs (0) = γt (0) = 0. En este caso, los
variogramas marginales son

γ(h, 0) = [k2 + k1 Ct (0)]γs (h) y γ(0, u) = [k3 + k1 Cs (0)]γt (u)

es decir, son iguales a los variogramas puramente espaciales y temporales,


respectivamente, excepto por una constante de proporcionalidad.

2.4.5 Modelo Cressie-Huang

Un procedimiento para construir modelos paramétricos a partir de funciones de


covarianza estacionarias no separables espacio-temporales, y por lo tanto que
incluye la posible interacción espacio-tiempo del proceso, se ha presentado en
Cressie & Huang (1999). Si C(h, u) es integrable se puede expresar la función
de covarianza en la forma
Z
0
C(h, u) = eih ω ρ(ω, u)k(ω)dω,
Rk
donde k(ω) es la densidad espectral de un proceso espacial y ρ(ω; ·) una función
de autocorrelación temporal, la cual asume los siguientes requisitos:

i. Para cada ω ∈ Rd , ρ(ω, ·) es una función de autocorrelación continua,


R
ρ(ω, u)du < ∞ y k(ω) > 0,

ii. la función positiva k(ω) satisface:


Z
k(ω)dω < ∞.
2.5 Modelización de procesos espacio-temporales 55

2.5 Modelización de procesos espacio-


temporales

En la modelización práctica, el investigador debe tomar la importante decisión


de cuál es el modelo espacio-temporal que mejor ajusta sus datos empı́ricos.
En Kyriakidis & Journel (1999), Banerjee et al. (2004) y Chen (2007) se puede
encontrar una revisión completa y exhaustiva de las diferentes técnicas de
modelización de procesos espacio-temporales.

El proceso espacio-temporal Z(si , ti ) suele descomponerse como

Z(si , ti ) = µ(si , ti ) + ε(si , ti ) (si , ti ) ∈ Rd × R (2.3)

con i = 1, . . . , n y donde µ(si , ti ) = E[Z(si , ti )] y ε(si , ti ) es un proceso es-


tocástico de media cero y variograma 2γ(·, ·). Este proceso caracteriza la
dependencia espacio-temporal y modeliza las fluctuaciones espacio-temporales
de Z(si , ti ) alrededor de su media µ(si , ti ).

Generalmente se considera una media determinista para el proceso que se


descompone como

p
X
µ(si , ti ) = θk fk (si , ti ), (si , ti ) ∈ Rd × R (2.4)
k=0

con lo que µ(si , ti ) se expresa como función de p + 1 funciones conocidas


fk (si , ti ) incluyendo el intercepto f0 (si , ti ) = 1, estas funciones son elegidas
durante la modelización para ajustar la media observada de los datos, y donde
θk son p + 1 coeficientes desconocidos. Por ejemplo, podemos considerar fun-
ciones periódicas que dependan de t para capturar variaciones periódicas sobre
el eje temporal, y funciones polinomiales o continuas a trozos que dependan
de s para modelizar variaciones suaves o discontinuidades en el espacio. Los
coeficientes de (2.4) pueden considerarse fijos, o dependientes del espacio y del
tiempo, θk = θk (s, t).
56 Capı́tulo 2. Conceptos básicos del análisis espacio-temporal, de distancias y funciones de bases radial

2.6 Predición de procesos espacio-temporales

Se supone a lo largo de toda esta sección que se ha observado el


valor del proceso sobre un conjunto de n localizaciones espacio-temporales
{(s1 , t1 ), . . . , (sn , tn )}. Generalmente el objetivo será la predicción del valor
del proceso sobre una nueva localización (s0 , t0 ), Z(s0 , t0 ), donde s0 será
una determinada localización espacial en Rd y t0 será un tiempo de in-
terés en R. Se supone que el proceso Z(·, ·) satisface la condición de re-
gularidad, Var(Z(s, t) < ∞, ∀(s, t) ∈ Rd × R, con lo que tanto su media
µ(si , ti ) = E(Z(si , ti )) como su función de covarianza Cov(Z(si , ti ), Z(sj , tj ))
existen, para cualesquiera (si , ti ), (sj , tj ) ∈ Rd × R. Además se supone que
el proceso Z(si , ti ) admite la descomposición (2.4), es decir, puede expresarse
como suma de una tendencia µ(si , t) que expresa la media del proceso y un pro-
ceso estocástico estacionario ε(s, t) de media cero que captura la variabilidad
espacio-temporal respecto a dicha media.

En esta sección se considera el predictor Ẑ(s0 , t0 ) definido como combi-


nación lineal de las observaciones de forma que sea insesgado y minimice el
error cuadrático medio de la predicción. Como se vio en el caso espacial, exis-
ten diferentes modalidades de kriging dependiendo de las hipótesis adoptada
sobre la media µ(si , ti ) del proceso. Ası́, en el kriging ordinario se supone que
la media es desconocida pero constante y en el kriging universal se supone
que la media es desconocida pero puede expresarse como función lineal de un
conjunto de variables que dependen de la localización espacio-temporal.

2.6.1 Kriging ordinario espacio-temporal

Se supone que la media del proceso µ(s, t) = µ es una constante desconocida.


En este caso, el proceso estacionario Z(s, t) tiene función de covarianza C(si −
sj , ti − tj ) = C(Z(si , ti ), Z(sj , tj )) = C(ε(si , ti ), ε(sj , tj )) = Cε (si − sj , ti − tj ).

En este caso, la condición de insesgadez E[Z(s0 , t0 ) − Ẑ(s0 , t0 )] = 0 del pre-


dictor impone que los pesos ϕi deben sumar uno ( ni=1 ϕi = 1), y el predictor
P
2.6 Predición de procesos espacio-temporales 57

asociado a este kriging vendrá dado por


n
X
Ẑ(s0 , t0 ) = ϕi Z(si , ti ) (2.5)
i=1

El objetivo es encontrar aquellos pesos ϕi que minimizan el error cuadrático


2
medio σOK asociado a la predicción, y dado por
h i h i2
2
σOK (s0 , t0 ) = Var Z(s0 , t0 ) − Ẑ(s0 , t0 ) = E Z(s0 , t0 ) − Ẑ(s0 , t0 ) (2.6)

bajo la restricción dada por la condición de insesgadez. Aplicando el mismo


procedimiento explicado de la Sección 1.6 para el caso espacial, se llega a que
el predictor buscado se obtiene considerando
0
1 − 10 Σ−1

0 ϑ c
ϕ̂ = c + 1 0 −1 σ −1 (2.7)
1 Σϑ 1

siendo Σϑ una matriz n × n cuyo (i, j)-ésimo elemento es C(si − sj , ti − tj )


y c el vector de dimensión n cuyo i-ésimo elemento es C(s0 − si , t0 − ti ). La
varianza del error de predicción estará dada por

1 − 10 Σ−1
ϑ c
2
σ̂OK (s0 , t0 ) = C(0, 0) − ϕ0 c + 0 −1
(2.8)
1 Σϑ 1

Como en el caso espacial, todas estas expresiones pueden escribirse en


términos del variograma del proceso si éste es además intrı́nsecamente esta-
cionario. Sea 2γ(h, u) el variograma del proceso, los pesos ϕi a considerar
estarán dados por 0
1 − 10 Γ−1 c

0
ϕ̂ = γ + 1 0 −1 Γ−1
1Γ 1
siendo Γ la matriz n × n cuyo (i, j)-ésimo elemento es γ(si − sj , ti − tj ) y γ
el vector de dimensión n cuyo i-ésimo elemento es γ(s0 − si , t0 − ti ). Si el
objetivo es únicamente la predicción del proceso en el punto (s0 , t0 ), mediante
el procedimiento descrito anteriormente no será necesario estimar la media del
proceso. En este caso, el error cuadrático medio de la predicción que se ha
minimizado estará dado por la siguiente expresión

(10 Γ−1 γ − 1)2


2
σ̂OK (s0 , t0 ) = γ 0 Γ−1 γ −
10 Γ−1 1
58 Capı́tulo 2. Conceptos básicos del análisis espacio-temporal, de distancias y funciones de bases radial

2.6.2 Kriging Universal espacio-temporal

Se supone que la media del proceso µ(s, t), aunque desconocida, es una com-
binación lineal de funciones conocidas o covariables ligadas a las localizaciones
espacio-temporales. Esto es
p
X
µ(si , ti ) = θk vk (si , ti ) = v 0 (si , ti )θ̃ (2.9)
k=0

donde v(si , ti ) es el vector formado por los valores de las p + 1 variables ex-
plicativas incluyendo el intercepto, las cuales son consideradas en la i-ésima
localización espacio-temporal, con v0 (s, t) = 1, y θ̃ es un vector de p + 1
parámetros desconocidos. Se denotara por V la matriz n × (p + 1) cuyo (i, j)-
ésimo elemento es vj (si , ti ), i = 1, . . . , n, j = 0, 1 . . . , p.

Como en los casos anteriores, se quiere predecir el valor de Z(s0 , t0 ) a partir


del conjunto de observaciones Z utilizando el predictor lineal (2.5), escogiendo
los pesos ϕi de forma que sea insesgado y minimice el error cuadrático medio
asociado. La condición de insesgadez establecida anteriormente, implica que
ϕ0 V = v(s0 , t0 )0 . El predictor asociado a este tipo de kriging viene dado por

Ẑ(s0 , t0 ) = ϕ̂0 V

donde h
0 −1
i0 −1
ϕ̂0 = c + V V 0 Σ−1 0 −1

ϑ V v(s 0 , t0 ) − V Σϑ c Σϑ (2.10)
siendo Σϑ la matriz n × n cuyo (i, j)-ésimo elemento es C(si − sj , ti − tj ) y
c es el vector de dimensión n cuyo i-ésimo elemento es C(s0 − si , t0 − ti ). El
error cuadrático medio asociado a este predictor viene dado por
0 −1 0
σ̂U2 K (s0 , t0 ) =C(0, 0) − c0 Σ−1
 
ϑ c + v(s0 , t0 ) − V Σϑ c ×
−1 
V 0 Σ−1 v(s0 , t0 ) − V 0 Σ−1

ϑ V ϑ c (2.11)

Como en el caso espacial, todas estas expresiones pueden escribirse en


términos del variograma del proceso si este es además intrı́nsecamente esta-
cionario. Sea 2γ(h, u) el variograma del proceso, los pesos ϕi a considerar
estarán dados por
h −1 i
0 0 −1 0 −1
ϕ̂ = γ + V V Γ V v(s0 , t0 ) − V Γ γ Γ−1
2.7 Regresión basada en distancias 59

siendo Γ la matriz n × n cuyo (i, j)-ésimo elemento es γ(si − sj , ti − tj ) y γ


el vector de dimensión n cuyo i-ésimo elemento es γ(s0 − si , t0 − ti ). El error
cuadrático medio de la predicción esta dado por la siguiente expresión
0 −1 
σ̂U2 K (s0 , t0 ) = γ 0 Γ−1 γ − v(s0 , t0 ) − V 0 Γ−1 γ V 0 Γ−1 V v(s0 , t0 ) − V 0 Γ−1 γ
 

Respecto a la estimación óptima de los parámetros de la media θ̃, como los


datos Z satisfacen un modelo lineal general con E(Z) = V θ̃ y Var(Z) = Σϑ ,
puede obtenerse por mı́nimos cuadrados generalizados como

ˆθ̃ = V 0 Σ−1 V −1 V 0 Σ−1 Z


gls ϑ ϑ

donde Var(ˆθ̃ gls ) = (V 0 Σ−1 −1


ϑ V ) . A partir de estas expresiones, se puede obtener
intervalos de confianza para estos parámetros o combinaciones lineales de los
mismos. Se deduce que aún cuando para estimar los parámetros de la media
de forma óptima es necesario conocer las covarianzas involucradas en Σϑ , para
la predicción óptima de Z(s0 , t0 ) únicamente se ha de conocer los variogramas
implicados en Γ.

2.7 Regresión basada en distancias

En esta sección se presentan los principales conceptos de distancias y de re-


gresión basada en distancias propuestas por Cuadras (1989), Cuadras & Arenas
(1990) y Arenas & Cuadras (2002). Las distancias, aparecen en muchos as-
pectos de la estadı́stica: contraste de hipótesis, estimación, regresión, análisis
discriminante, etc. (Arenas & Cuadras 2002). Cuadras & Arenas (1990) pro-
ponen el método de regresión múltiple basado en el análisis de distancias uti-
lizando diferentes métricas para el trabajo con variables explicativas continuas
y categóricas. Un resumen de dichas propuestas es presentado a continuación.

2.7.1 Distancia y similaridad

Definición 2.12. Una distancia δ sobre un conjunto (finito o no) Ω es una


aplicación que a cada par de individuos (wi , wj ) ∈ Ω × Ω, le hace corresponder
60 Capı́tulo 2. Conceptos básicos del análisis espacio-temporal, de distancias y funciones de bases radial

un número real δ(wi , wj ) = δij , que cumple con las siguientes propiedades
básicas:

i. δij ≥ 0.

ii. δii = 0.

iii. δij = δji .

iv. δij ≤ δik + δkj .

Este último denominado desigualdad triangular, si se cumple se dice que la


distancia es métrica.

Definición 2.13. Si Ω es un conjunto finito, que se indica por Ω =


{wi , w2 , . . . , wn }, las distancias δij se expresan mediante la matriz simétrica
∆, llamada matriz de distancias sobre Ω.
 
δ δ · · · δ1n
 11 12 
 δ21 δ22 · · · δ2n 
∆= .
 
 .. .. . . . .. 
 . . 
δn1 δn2 · · · δnn

con δii = 0, δij = δji . Se llama preordenación de Ω asociada a ∆, a la


ordenación de menor a mayor de los q = n × (n + 1)/2 pares de distancias no
nulas:
δi1 j1 ≤ δi2 j2 ≤ · · · ≤ δiq jq
es decir, la ordenación de los pares (wi , wj ) de Ω de acuerdo con su proximidad.

Una matriz de distancias ∆ puede ser transformada de diversos modos.


Por ejemplo: 
0 si i = j
δ̃ij = (2.12)
δ + c si i 6= j
ij

La transformación (2.12), consiste en sumar una constante fuera de la dia-


gonal de ∆, se llama aditiva. Esta transformación es útil para conseguir que la
nueva distancia cumpla propiedades que la distancia original no posee, conser-
vando la preordenación, es decir, la relación de proximidad entre los individuos.
2.7 Regresión basada en distancias 61

Definición 2.14. Una similaridad m en un conjunto Ω, es una aplicación que


asigna a cada par (wi , wj ) ∈ Ω × Ω un número real mij = m(i, j), que cumple:

i. 0 ≤ mij ≤ mii = 1.

ii. mij = mji .

Cuando Ω es un conjunto finito, entonces la matriz


 
m m12 · · · m1n
 11 
 m21 m22 · · · m2n 
M = .
 
 .. .. ... .. 
 . . 

mn1 mn2 · · · mnn
se denomina matriz de similaridades sobre Ω.

Es inmediato pasar de similaridad a distancia y recı́procamente. Las dos


transformaciones básicas son:

δij = 1 − mij (2.13)

y
p
δij = 1 − mij (2.14)

En general una matriz de similaridades puede tener en su diagonal elemen-


tos sij 6= 1. La transformación que permite pasar de similaridad a distancia es
entonces:
p
δij = mii + mjj − 2mij (2.15)
Por diversas razones (2.14) es preferible a (2.13). Pero en general, (2.15) es la
transformación más apropiada (Cuadras & Arenas 1990, Mardia et al. 2002).

En el caso de contar con variables binarias se pueden obtener similaridades


y distancias realizando el siguiente procedimiento: sean p variables binarias
V1 , V2 , . . . , Vp , donde cada Vj (j =, . . . , n) toma los valores 0 ó 1 según la pre-
sencia de una cierta caracterı́stica. Entonces son bien conocidos los siguientes
coeficientes de similaridad entre cada par de individuos wi , wj .
c1 + c4
mij = (Sokal − M ichener)
c1 + c2 + c3 + c4 (2.16)
c1
mij = (Jaccard)
c1 + c2 + c3
62 Capı́tulo 2. Conceptos básicos del análisis espacio-temporal, de distancias y funciones de bases radial

donde c1 , c2 , c3 , c4 son las frecuencias de (1, 1), (1, 0), (0, 1) y (0, 0), respec-
tivamente. Note que p = c1 + c2 + c3 + c4 . Estas similaridades pueden ser
transformadas en distancias utilizando (2.13) o (2.14).

De otro lado cuando las variables son mixtas: continuas, binarias o cuali-
tativas, entonces es adecuado utilizar la similaridad de Gower (1968) y Gower
(1971):
p1
 
P |vil −vjl |
1− Gl
+ c1 + ω
l=1
mij = (2.17)
p1 + (p2 − c4 ) + p3

donde Gl es el rango de la l-ésima variable cuantitativa, p1 es el número de


variables cuantitativas, c1 y c4 corresponden al número de coincidencias y no
coincidencias para las p2 variables binarias, respectivamente, y ω es el número
de coincidencias para las p3 variables cualitativas. Este coeficiente admite
la posibilidad de tratar datos faltantes y se reduce al coeficiente de Jaccard
cuando p1 = p2 = 0. Además, en este caso, se utiliza la distancia (2.14) elevada
al cuadrado, es decir δij2 = 1 − mij .

Una vez se utiliza alguna de las anteriores distancias según los intereses del
investigador, se realiza la descomposición espectral con la finalidad de realizar
el modelo de regresión basado en distancias. En este sentido, sea An×n = (aij )
la matriz con elementos aij = −δij2 /2, y sea B = HAH donde H = I − n1 110
es la matriz centrada, con I una matriz identidad n × n y 1 un vector de unos
n × 1. Además, B es una matriz semidefinida positiva (Mardia et al. 2002) de
rango k, entonces la matriz X de coordenadas principales se puede obtener a
partir de la siguiente descomposición espectral

B = HAH = U ΛU 0 = XX 0 (2.18)

donde Λ es una matriz diagonal conformada por los valores propios de A,


X = U Λ1/2 es una matriz n × n de rango k ≤ n − 1, y U contiene la coorde-
nadas estandarizadas. La matriz B proporciona las coordenadas euclı́deas del
conjunto Ω = {w1 , w2 , . . . , wn }. Cada fila xi de X contiene las coordenadas,
llamadas coordenadas principales del individuo i.
2.7 Regresión basada en distancias 63

2.7.2 Modelo de regresión basado en distancias

Suponiendo que se tienen p variables V1 , V2 , . . . , Vp observables de tipo con-


tinuo, binario o categórico o incluso los tres tipos a la vez, en cuyo caso se dirá
que los datos son mixtos. Sea δ(wi , wj ) una distancia adecuada entre pares
wi y wj de individuos. Si los datos son binarios δ(wi , wj ) se puede basar en
(2.16) y si son mixtos en el coeficiente de similaridad de Gower (2.17). A partir
de δ(wi , wj ) se puede obtener la matriz n × n de distancias ∆ y aplicando la
descomposición espectral (2.18), se obtiene la matriz X, de coordenadas prin-
cipales, que reproducen las distancias originales. El modelo que se propone en
Cuadras (2007), es entonces

Z = β0 1 + Xβ + e (2.19)

donde 1 es el vector de unos de n×1, mientras que Z (n×1) es un vector conocido


con n observaciones de una variable respuesta cuantitativa, X(n×k) es conocida
de rang(X) = rang(B) = k, β(k×1) es un vector desconocido de parámetros
y e es un vector aleatorio. Obsérvese que como B1 = 0, y tanto 1 como las
columnas X1 , X2 , . . . , Xk de X, son vectores propios de B.

El modelo (2.19), se puede también escribir

k
X
Z = β0 1 + βi Xi + e (2.20)
i=1

donde X1 , X2 , . . . , Xk juegan el papel de variables predictoras.

Como valor de k, se puede tomar k el número inicial de variables observables


explicativas. Una buena selección de las columnas X1 , . . . , Xk de X consiste
en escogerlas por orden de correlación con Z, es decir,

r(Z, X1 ) > r(Z, X2 ) > · · · > r(Z, Xk ) (2.21)

Otra selección obvia consiste en ordenarlas de acuerdo con la variabilidad


explicada por las variables predictoras (columnas de X): λ1 > · · · > λk ,
es decir seleccionar los k primeros ejes principales. Pero si resultara que la
variable Xk+1 tiene una correlación rk+1 = r(Z, Xk+1 ), relativamente alta, se
64 Capı́tulo 2. Conceptos básicos del análisis espacio-temporal, de distancias y funciones de bases radial

podrı́a haber perdido una variable predictiva importante (véase Cuadras &
Fortiana (1993) para una discusión de este problema).

Cuando n es muy grande, la selección de coordenadas puede volverse en un


cálculo muy arduo o imposible. Un procedimiento que requiere solo calcular los
primeros k vectores propios adecuados, es el siguiente. De acuerdo a Cuadras
et al. (1996), se define la secuencia:
i
rj2 λj
P
j=1
c(0) = 0, c(i) = k
i = 1, . . . , k (2.22)
rj2 λj
P
j=1

donde rj = Corr(Z, Xj ). Cada c(i) mide la predictibilidad de las primeras


i dimensiones, ponderadas por los correspondientes valores propios. El valor
inicial c(0) = 0, puede ser interpretado como la falta de predictibilidad de 1,
el vector constante de unos, que es también un valor propio de B.

La selección debe ser realizada representando gráficamente los puntos

(i, 1 − c(i)) i = 0, 1, . . . , k ∗ < k

donde k ∗ es tal que 1 − c(i) esté muy próximo a 0. Esto es, el corte en k ∗
es tal que, a la derecha de k ∗ el gráfico está muy próximo al eje horizontal,
indicando que las dimensiones superiores no deben ser tenidas en cuenta. La
dimensión principal 1 ≤ i ≤ k ∗ debe ser seleccionada si se aprecia una caı́da
entre el punto (i − 1, 1 − c(i − 1)) y el (i, 1 − c(i − 1)). Entonces la dimensión
i es aceptada o rechazada según si ri2 o λi sean grandes o pequeños.

2.8 Funciones de base radial

En esta sección se realiza un breve estudio teórico sobre las funciones de base
radial aplicadas al problema de interpolación espacial.

Definición 2.15. Una función Φ : Rd → R se llama radial, si existe una


función invariante Φ(s) = [0, ∞) tal que:

Φ(s) = φ(δ), donde δ = ksk


2.8 Funciones de base radial 65

y k · k es la norma Euclidiana en Rd . Esto significa que el valor de la función


Φ en el punto s ∈ Rd únicamente depende de la norma de s.

A continuación se presentan algunas funciones de base radial espaciales que


serán utilizadas en los siguientes capı́tulos, y que son adaptadas directamente
a funciones de base radial espacio-temporales.

2.8.1 Multicuadrática (MQ)

Hardy (1990) llamo multicuadrático al método porque considero que la carac-


terı́stica principal es la de ser una superposición de superficies cuádricas.

Definición 2.16. Dado un conjunto de n puntos distintos {xi }ni=1 ∈ Rd y sus


correspondientes valores escalares {fi }ni=1 ∈ R, el interpolador multicuadrático
de los datos tiene la siguiente forma:
n
X q
p(si ) = bj ηi2 + δi2 , j = 1, . . . , n
j=1

donde los coeficientes bj se determinan mediante la imposición de las condi-


ciones de interpolación p(si ) = fi , para i = 1, . . . , n, y ηj es un parámetro
de suavizado. De aquı́ se obtiene el siguiente sistema de ecuaciones lineales y
simétricas
Φb = f
q
donde b = (b1 , . . . , bn )0 y las entradas de Φ están dadas por φij = η 2 + δij2 .

Particularmente, dado un conjunto de medidas dispersas provenientes de


un conjunto de puntos en una superficie topográfica (por ejemplo, medidas de
la elevación de una montaña), se construye de forma satisfactoria una función
continua que representa la superficie. Por satisfactoria se entiende una función
que consigue realizar un ajuste exacto de los datos y proporciona una buena
aproximación de las caracterı́sticas de la superficie, es decir, localización de las
cumbres, llanuras y desembocaduras. Parte de la motivación para construir
esta función fue crear un método automático que permitiese generar los mapas
del contorno de una superficie cartográfica (Ortega-Pérez 2009).
66 Capı́tulo 2. Conceptos básicos del análisis espacio-temporal, de distancias y funciones de bases radial

Además de crear de forma automática y de manera objetiva los mapas del


contorno, se obtuvo una motivación matemática para construir una función
continua que representase una superficie topográfica, ya que teniendo esta
función continua se podrı́an utilizar métodos analı́ticos y geométricos que per-
mitiesen determinar volúmenes de tierra, cumbres, llanuras, distancias a lo
largo de una curva (Hardy 1971, Hardy 1990).

2.8.2 Multicuadrática inversa (IM)

Una variación de la función multicuadrática fue introducida por (Hardy &


Gopfert 1975), y esta dada por
p
φ(δ) = 1/ η 2 + δ 2

donde η 6= 0 es un parámetro de suavizado de libre escogencia. Franke (1982)


encuentra que esta función de base radial puede proporcionar excelentes apro-
ximaciones, incluso cuando el número de centros (vecinos más cercanos) es
pequeño.

2.8.3 Spline con tensión (ST)

Esta función esta dada por la expresión

φ(δ) = ln(η · δ/2) + K0 (η · δ) + CE

donde K0 (x) es la función modificada de Bessel (Abramowitz & Stegun 1965,


R∞
pág. 374) y CE = − 0 (ln(x)/ex )dx = 0.5772161 es la constante de Euler
(Abramowitz & Stegun 1965, pág. 255).

2.8.4 Spline capa delgada (TPS)

Este spline fue introducido en el diseño geométrico por Duchon (1976). El


nombre, spline capa delgada, se refiere a una analogı́a fı́sica que implica la
flexión de una hoja delgada de metal. Más tarde Thiébaux & Pedder (1987)
2.8 Funciones de base radial 67

describió la TPS como un spline cúbico de 2 dimensiones (superficie). En el


caso de un espacio Euclidiano con d = 2, la TPS tendrá la siguiente forma:

(η · δ)2 log(η · δ) si δ 6= 0 y η > 0
φ(δ) =
0 si δ = 0

Franke (1982) desarrolla un programa informático para la solución del


problema de interpolación de datos dispersos. El algoritmo se basa en una
suma ponderada de splines capa delgada definidos localmente y se obtiene una
función de interpolación que es diferenciable.

2.8.5 Completamente regularizada spline (CRS)

Una variante de la TPS que usa la función base spline regularizada, se deno-
mina CRS y viene dada por

X (−1)k (η · δ)2k
φ(δ) = − = ln(η · δ/2)2 + E1 (η · δ/2)2 + CE
k=1
k!k

donde E1 (·) es la función integral exponencial (Abramowitz & Stegun 1965,


pág. 227) y CE es la constante de Euler definida anteriormente.

2.8.6 Gaussiana (GAU)

Una de las funciones de base radial más popular, junto con la TPS, es la
Gaussiana. Schagen (1979) fue el primero en usar la Gaussiana como función
de base radial. Esta función esta dada por
2
φ(δ) = e−ηδ

donde η 6= 0 es el parámetro de suavizado de libre elección.

Franke (1982) encuentra que es muy sensible a la elección del parámetro η,


como se podrı́a esperar. En particular, parece que los usuarios de esta función
se dejan seducir por su suavidad y rápida descomposición. Además, la matriz
de interpolación Gaussiana es definida positiva si los centros son distintos, y
también es adecuado su uso en técnicas iterativas (Baxter 1992).
68 Capı́tulo 2. Conceptos básicos del análisis espacio-temporal, de distancias y funciones de bases radial
Capı́tulo 3

Modelo basado en distancias


para la predicción espacial en
presencia de tendencia

3.1 Introducción

La información espacial se recoge en muchas aplicaciones de disciplinas tales


como; la minerı́a, la hidrogeologı́a, ecologı́a, ciencias de la tierra y el medio
ambiente. Estas aplicaciones consideran técnicas como kriging simple, kriging
ordinario y kriging universal (UK). Estos métodos de interpolación se han
utilizado en la literatura para meta-modelos en geoestadı́stica por Sacks et al.
(1989), Cressie (1993), Jin et al. (2001), Santner et al. (2003), Wackernagel
(2003), Le & Zidek (2006), Joseph et al. (2008) y van de Kassteele et al.
(2009), entre otros. En este capı́tulo, se considera el problema de seleccionar
un modelo basado en distancias que incorpora la información asociada a una
variable respuesta Z s . Además en estos casos, a menudo se tiene que lidiar
con variables explicativas de diferente naturaleza que se asocian con la variable
respuesta: variables categóricas y binarias tales como el tipo de suelo o roca, y
variables continuas (por ejemplo, las mismas coordenadas espaciales y algunas
covariables ambientales).
70 Capı́tulo 3. Modelo DB para la predicción espacial con tendencia

Por lo tanto, se propone en este capı́tulo un nuevo método de interpolación


espacial con variables explicativas mixtas utilizando distancias entre indivi-
duos, tales como la distancia de Gower (1968); aunque, alguna otra distancia
Euclidiana se puede utilizar. El método basado en distancias (Distance-Based,
DB) se utiliza en los modelos geoestadı́sticos propuestos no sólo en la etapa
de estimación de la tendencia para su remoción, sino también en la etapa de
la estimación de la correlación de espacial.

En el caso de la regresión geoestadı́stica, el método DB espacial propuesto


se basa en los métodos desarrollados por Cuadras & Arenas (1990) y Cuadras
et al. (1996), quienes presentan algunos resultados del modelo DB para la
predicción con variables mixtas y exploran el problema de información faltante,
estableciendo una solución a través de DB. Esta estrategia es una excelente
alternativa, ya que aprovecha al máximo la información obtenida debido a
la relación entre las observaciones, la cual puede ser establecida a través del
uso de la descomposición espectral, utilizando cualquier distancia euclı́dea.
En consecuencia, este enfoque permite mejorar las predicciones del modelo
seleccionado para un número de coordenadas principales incluidas asociado a
las localizaciones muestreadas.

En esta investigación, las coordenadas principales obtenidas mediante el


método basado en distancias se consiguen a partir de las covariables asocia-
das con la variable de respuesta, y las coordenadas espaciales de los puntos
definidos en una forma polinómica de orden 1, 2 o 3. La selección de las coor-
denadas principales se lleva a cabo usando los valores mas altos de la prueba
estadı́stica t (coordenadas principales significativas al 5%), y el gráfico aso-
ciado a la falta de predictibilidad (una caı́da significativa, véase la Sección
3.2), es decir, las variables explicativas (coordenadas principales) que están
más asociadas con la variable respuesta. Aunque, las técnicas populares como
el análisis de regresión tradicional (forward F, backward B, y step-wise “BF”
or “FB”) se puede utilizar ya que las coordenadas principales no están co-
rrelacionadas. Recientemente, otras técnicas han sido propuestas por George
& McCulloch (1993), Breiman (1995), Tibshirani (1996), Efron et al. (2004),
Joseph et al. (2008), Emery & Silva (2009) y Emery & Cornejo (2010).
3.2 Modelo basado en distancias con tendencia 71

Además, la alternativa espacial propuesta basada en los métodos DB para


el modelado de la tendencia puede ser también robusta ante errores de es-
pecificación en los parámetros de correlación (Cuadras et al. 1996). En este
sentido en el capı́tulo, se realizan simulaciones incondicionales para validar
la eficacia del método propuesto bajo diferentes condiciones y los resultados
muestran una ganancia significativa en comparación con el tradicional modelo
de krigeado universal. También se consideran dos aplicaciones: la temperatura
media diaria de la Tierra en Croacia (Hengl 2009) y la concentración de calcio
medido a una profundidad de 0-20 cm en Brasil (Capeche et al. 1997).

En este capı́tulo se presenta el método espacial propuesto basado en distan-


cias. En la Sección 3.2 se desarrolla la propuesta metodológica, el variograma
para la tendencia DB, se muestra la propiedad de insesgadez del predictor y
se presenta el krigeado universal construido a partir de la tendencia basada
en distancias. En la Sección 3.3 se presenta un estudio de simulación basado
en modelos de campos aleatorios Gaussianos. Por último, en la Sección 3.4
se desarrollan dos aplicaciones que ilustran la metodologı́a propuesta en este
capı́tulo.

3.2 Modelo basado en distancias con tenden-


cia

Supóngase que se esta interesado en relacionar una variable respuesta continua


con variables georeferenciadas explicativas medidas en cada sitio de muestreo,
estas variables pueden ser del tipo: latitud y longitud, binarias, categóricas y
continuas. Sea s ∈ Rd una ubicación en un espacio Euclidiano d-dimensional,
y supóngase que Z(s) es un vector aleatorio en cada ubicación espacial s. Si s
varia en un conjunto D ⊆ Rd (por lo general d = 2, pero no necesariamente),
se tiene que un proceso estocástico {Z(s), s ∈ D}, el cual es objeto de estudio
en el contexto de la geoestadı́stica (Cressie 1993). También se asume que D
es una región fija y continua, y el ı́ndice espacial s varı́a de forma continua
en D, es decir, hay un número infinito de posibles lugares donde se observa el
proceso.
72 Capı́tulo 3. Modelo DB para la predicción espacial con tendencia

Además, se supone que el proceso estocástico sigue un modelo de un campo


aleatorio Gaussiano dado por (Cressie 1993)

Z(si ) = µ(si ) + ε(si ), i = 1, . . . , n (3.1)

donde Z(si ) es la variable regionalizada dada por la suma de una función


determinı́stica asociada a la tendencia µ(si ) y ε(si ) una componente estocástica
estacionaria con media cero y variograma 2γ(·). La tendencia espacial está
formada por las variables categóricas, continuas y binarias, y se modela como

µ(si ) = θ0 + v 0 (si )θ (3.2)

donde v(si ) = (v1 (si ), . . . , vp (si ))0 es un vector que contiene variables explica-
tivas asociadas a la localización espacial si , θ0 es el parámetro desconocido
asociado al intercepto y θ = (θ1 , . . . , θp )0 es un vector de parámetros descono-
cidos.

En forma matricial el modelo (3.1) se puede expresar como:

Z s = 1θ0 + V θ + εs (3.3)

donde Z s = (Z(s1 ), . . . , Z(sn ))0 , 1 es un vector de dimensión n × 1 asociado


al intercepto, V = (V1 , . . . , Vn ) es la matriz de diseño de dimensión n × p
con p variables explicativas Vj = (vj (s1 ), . . . , vj (sn ))0 de dimensión n × 1,
j = 1, . . . , p. Además, εs = (ε(s1 ), . . . , ε(sn ))0 y Σϑ la matriz de varianzas-
covarianzas de las observaciones.

Ahora, la idea es hacer una transformación de las variables explicativas


utilizando el método basado en distancias. Para ello se definen las medidas de
similaridad o distancia Euclidiana presentadas en la Sección 2.7.1, que depen-
den de las caracterı́sticas de las variables explicativas.

Si el vector v(si ) dado en (3.2) está formado por variables binarias,


categóricas y continuas, entonces la similaridad de acuerdo a Gower (1971)
se puede definir para variables mixtas como la expresión presentada en (2.17).
En el caso que las variables explicativas sean binarias o categóricas, como se
mencionó en la Sección 2.7.1, la similaridad se puede expresar mediante las
expresiones presentadas en (2.16). Por medio de la transformación
p
δij = 1 − mij
3.2 Modelo basado en distancias con tendencia 73

es posible obtener las distancias Euclidianas. Si todas las variables explicativas


en (3.2) son continuas, la distancia al cuadrado se define como

δij2 = (v(si ) − v(sj ))0 (v(si ) − v(sj ))


Pp
o alternativamente por la distancia absoluta δij2 = l=1 vl (s i ) − vl (s j ) .
Entonces, en el caso de sólo disponer información de las coordenadas
espaciales (wx , wy ), las distancias espaciales estarán dadas por δij =
p
(wxi − wxj )2 + (wyi − wyj )2 . Expresiones para la similaridad de Gower como
la dada en la ecuación (2.17) serán útiles en la medida de disponer de infor-
mación asociada con las variables mixtas, no sólo para los puntos muestreados
sino también para los no muestreados, lo cual restringe su uso en las zonas no
muestreadas.

Una vez seleccionada alguna de las distancias presentadas anteriormente,


se define la matriz An×n = (aij ) con elementos aij = −δij2 /2 y B = HAH
donde H = I − n1 110 es la matriz centrada, con 1 un vector de unos de tamaño
n × 1. Se sabe que B es una matriz semidefinida positiva (Mardia et al. 2002)
de rango k, por lo que la matriz X de coordenadas principales se obtiene a
partir de la descomposición espectral como

B = HAH = U ΛU 0 = XX 0

donde Λ es una matriz diagonal que contiene los valores propios de A, X =


U Λ1/2 es una matriz n × n de rango k ≤ n − 1, y U contiene las coordenadas
estandarizadas.

Luego, el modelo presentado en (3.2) se convierte en

Z s = 1β0 + Xβ + εs (3.4)

donde X = (X1 , . . . , Xk ), β0 y β = (β1 , . . . , βk )0 son los parámetros desconoci-


dos. Notemos que 1, X1 , . . . , Xk , son vectores propios de B con valores propios
0, λ1 , . . . , λk , respectivamente, y Xi0 Xi = λi , Xi0 Xj = 0 (i 6= j), y Xi0 1 = 0,
i, j = 1, . . . , k.

Para evitar el problema de tener un coeficiente de determinación R2 ' 1


cuando el rango de X es de k = n − 1, es necesario tener en cuenta sólo
74 Capı́tulo 3. Modelo DB para la predicción espacial con tendencia

los vectores propios más correlacionados de B dados por (X1 , . . . , Xk ) con


la variable regionalizada Z s , es decir, las covariables más significativamente
correlacionadas con Z s . Con el fin de decidir si una coordenada principal debe
ser incluida o eliminada del modelo, las coordenadas principales se arreglan
en orden decreciente de acuerdo a su correlación en valor absoluto con Z s , es
decir haciendo

r(Z s , X1 ) > · · · > r(Z s , Xk ) > r(Z s , Xk+1 ) > · · · > r(Z s , Xn−1 ) (3.5)

n
Z 0s Xi Xi0 Z s
donde r2 (Z s , Xi ) =
P
n 2
, i = 1, . . . , n − 1, con Z̄ = Z(sj )/n.
[Z(sj )−Z̄ ]
P
λi j=1
j=1

Más aún, una coordenada principal Xi deberı́a ser eliminada si la hipótesis


nula βi = 0 no se rechaza. Una prueba de hipótesis se puede basar en (Cuadras
et al. 1996)

β̂i p
ti = λi (n − k − 1), i = 1, . . . , n − 1 (3.6)
kZ s − β̂0 1 − X β̂k2

donde β̂0 = Z̄, β̂ = Λ−1 X 0 Z s y β̂i es la i-ésima componente de β̂. Ası́, ti sigue
una distribución t-student con (n − k − 1) grados de libertad.

Otra posibilidad es a través de la variabilidad explicada dada por las va-


riables predictoras, la cual es establecida por los valores propios más grandes
λ1 > · · · > λk > λk+1 > · · · > λn−1 escogiendo las k primeras coordenadas
principales. Sin embargo, una coordenada principal con valor propio pequeño
puede estar correlacionada con la variable respuesta, entonces esta dimensión
estará correlacionada con el “ruido” en lugar de la variabilidad principal de
los datos (Cuadras 1993).

Otra buena alternativa para la selección de coordenadas principales se rea-


liza de una manera similar a la selección del número de variables en regresión
multivariada mediante la estadı́stica llamada Cp -Mallows. Es decir, se cons-
truye un gráfico donde se representan los puntos (i, 1 − c(i)) i = 0, 1, . . . , n − 1,
y luego se determina el punto en donde hay una caı́da significativa de la falta
3.2 Modelo basado en distancias con tendencia 75

de predictibilidad dada por 1 − c(i), la predictibilidad c(i) está dada por

i
rj2 λj
P
j=1
c(0) = 0, c(i) = n−1
i = 1, . . . , n − 1 (3.7)
rj2 λj
P
j=1

donde rj = Corr(Z s , Xj ) y λj es el j-ésimo valor propio asociado con Xj ,


j = 1, 2, . . . , n − 1 (ver mayores detalles en (Cuadras et al. 1996)).

Finalmente, en cualquiera de los cuatro métodos presentados anterior-


mente, las Xk+1 , . . . , Xn−1 coordenadas principales deben ser removidas ya
que son las menos relevantes.

3.2.1 Kriging universal basado en distancias (DBUK)

Hasta el momento, se ha descrito cómo las coordenadas principales calculadas


a partir de las variables explicativas y utilizadas para estimar la componente
de tendencia de la ecuación (3.1), se obtienen utilizando la descomposición
espectral de la matriz de similaridades o distancias. Una vez que la tendencia
se ha calculado utilizando el método DB, se puede eliminar la tendencia de los
datos y obtener los residuales ε(·) en el modelo (3.1). Por consiguiente, en la
primera parte de esta subsección, se describe el ajuste del variograma de los
residuales a partir de la tendencia estimada.

El variograma experimental γ̂(h) es la herramienta clave para cualquier


análisis geoestadı́stico porque describe las correlaciones espaciales de la varia-
ble regionalizada a diferentes distancias. Un estimador natural obtenido por
el método de momentos, debido a Matheron (Cressie 1993), esta dado por

1 X
γ̂(h) = [ε̂(si ) − ε̂(sj )]2
2N (h)
N (h)

donde N (h) es el número de pares distintos de observaciones separadas a una


distancia h, ε̂(si ) = Z(si ) − Ẑ(si ) y ε̂(sj ) = Z(sj ) − Ẑ(sj ) son los valores
de los residuales en las localizaciones si y sj , respectivamente, con Ẑ(si ) y
Ẑ(sj ) las predicciones en las localizaciones si y sj , respectivamente, usando
76 Capı́tulo 3. Modelo DB para la predicción espacial con tendencia

el método DB. Este estimador es generalmente sesgado en presencia de infor-


mación atı́pica, afectando la estimación, por lo cual es recomendable el uso de
estimadores robustos como el de (Cressie & Hawkins 1980) o la media recortada
(trim.m) establecida en (Bardossy et al. 1997) y dado por
h  1
i4
trim.m |ε̂(si ) − ε̂(sj )| 2
γ̂(h) =
0.457 + 0.494/N (h)

Una vez que el variograma experimental se encuentra, se ajusta el modelo


del variograma. Hay varios métodos de estimación de parámetros, tales como
mı́nimos cuadrados ordinarios (OLS), mı́nimos cuadrados ponderados (WLS),
máxima verosimilitud (ML) y máxima verosimilitud restringida (REML). Los
dos últimos requieren la normalidad, mientras que los dos primeros no. Para
ilustrar la metodologı́a y sin pérdida de generalidad, se presenta el método de
máxima verosimilitud (ML). Bajo la consideración que Z(si ) en (3.1) o (3.4) es
un proceso Gaussiano, dos veces el negativo de la log-verosimilitud esta dado
por
 0  
L(β̃, ϑ) = Z s − X β̃ Σ−1
ϑ Z s − X β̃ + log |Σϑ | + n log(2π) (3.8)

donde Σϑ es la matriz de covarianza del proceso Z(si ), X = (1, X) =


(1, X1 , . . . , Xk ) y β̃ = (β0 , β 0 )0 = (β0 , β1 , . . . , βk )0 . Los parámetros dados en ϑ
usualmente incluyen la pepita (τ 2 ), rango (φ) y meseta parcial (σ 2 ), y en el caso
del modelo Matérn, éste incluye el parámetro de suavizamiento κ. Los valores
β̃ y ϑ se obtienen maximizando iterativamente y simultáneamente la función
de distribución normal multivariante, o, alternativamente, minimizando la ex-
presión (3.8). La minimización se realiza en dos fases: en la primera etapa
se supone que ϑ es conocido, y por lo tanto Σϑ también, entonces la mejor
estimación de la media de los parámetros β̃ se obtiene utilizando el método de
mı́nimos cuadrados generalizados (generalized least squares, GLS):

ˆ = X 0 Σ−1 X −1 X 0 Σ−1 Z


β̃ (3.9)
ϑ ϑ s

En la segunda etapa, se reemplaza este valor en (3.8), para obtener


0
ˆ ˆ
  
−1
L(ϑ) = Z s − X β̃ Σϑ Z s − X β̃ + log |Σϑ | + n log(2π) (3.10)
3.2 Modelo basado en distancias con tendencia 77

Ası́, la expresión (3.10) se minimiza sólo con respecto a ϑ para hacer el


proceso más simple, y de esa expresión se encuentra ϑ̂. Iterando varias veces
las dos etapas anteriores, se encuentran las estimaciones β̃ y ϑ. Para iniciar el
proceso iterativo, se puede obtener una primera estimación de los parámetros
ϑ de Σϑ del variograma experimental basada en el juicio del investigador.

Una vez estimados los parámetros asociados con la función de covarianza o


semivarianza (si Γϑ se considera en lugar de Σϑ ) y ya que las distancias δij son
Euclidianas, la transformación a un modelo de semivarianza γij es también
Euclidiana. Esta es la forma más sencilla de garantizar que la función del
variograma obtenido a partir de estas distancias sea condicionalmente definida
negativa (Armstrong & Diamond 1984), la cual se expresa como
n X
X n
− ϕi ϕj γij ≥ 0, ∀ϕr
i=1 j=1

donde ϕr ∈ R, r = 1, . . . , n.

Después de que lo anterior, se hacen las predicciones espaciales en nuevas


localizaciones espaciales, s0 , en donde se observan un conjunto de variables
explicativas mixtas. Para conseguirlo, se utiliza el método de kriging universal
con la finalidad de construir a partir de la tendencia basada en distancias las
predicciones espaciales.

Por lo tanto, supóngase que un nuevo individuo (n+1) es observado con sus
respectivas variables explicativas mixtas, es decir v(s0 ) = (v1 (s0 ), . . . , vp (s0 ))0
es conocido. Entonces, las distancias entre el nuevo individuo y cada uno de
los individuos involucrados en el modelo propuesto en (3.2) se pueden calcular
como δ0i = δ (v(s0 ), v(si )), i = 1, . . . , n. A partir de estas distancias, se
puede hacer una predicción usando un resultado de Gower (1971) y Cuadras
2 2 0
& Arenas (1990), que relaciona el vector δ 0 = (δ01 , . . . , δ0n ) de cuadrados
de las distancias con el vector x(s0 ) = (x1 (s0 ), . . . , xk (s0 ))0 de coordenadas
principales asociado al nuevo individuo mediante la expresión
2
δ0i = [x(s0 ) − x(si )]0 [x(s0 ) − x(si )]

con i = 1, . . . , n. Luego, se encuentra que


1
x(s0 ) = Λ−1 X 0 (b − δ 0 )
2
78 Capı́tulo 3. Modelo DB para la predicción espacial con tendencia

donde b = (b11 , . . . , bnn )0 y bii = x(si )0 x(si ), i = 1, . . . , n.

Ahora, el próximo objetivo es predecir el valor de Z(s0 ) basado en un


conjunto de observaciones Z s . Para esto, el predictor UK esta dado por
n
X
Ẑ(s0 ) = ϕi Z(si ) = ϕ0 Z s
i=1

Pn
donde el vector de coeficientes ϕ = (ϕ1 , . . . , ϕn )0 satisface que i=1 ϕi = 1.
Este predictor cumple la condición de insesgamiento, la cual esta dada por la
siguiente expresión
 
E Ẑ(s0 ) = E(ϕ0 Z s ) = ϕ0 E(Z s ) = ϕ0 X β̃ = E (Z(s0 ))

= x0 (s0 )β̃ = µ(s0 ) (3.11)

donde x(s0 ) = (1, x0 (s0 ))0 = (1, x1 (s0 ), . . . , xk (s0 ))0 es un vector formado
por 1 y las coordenadas principales del nuevo individuo x(s0 ), con x(s0 ) =
(x1 (s0 ), . . . , xk (s0 ))0 . A partir de (3.11) se tiene ϕ0 X = x0 (s0 ). La
condición (3.11) garantiza que el predictor sea insesgado y de mı́nima vari-
anza (Cressie 1993).

Por otro lado, el error cuadrático medio de la predicción, Var(s0 ), bajo la


condición de insesgamiento, está dado por
h i
Var (ε̂(s0 )) = Var Ẑ(s0 ) − Z(s0 ) = ϕ0 Σϑ ϕ + σ 2 − 2ϕ0 c (3.12)

donde Σϑ es una matriz n×n cuyo (i, j)-ésimo término es C (ε(si ), ε(sj )), σ 2 =
C(0) y c es un vector de dimensión n cuyo i-ésimo elemento es C (ε(s0 ), ε(sj )).

Note que ahora se debe estimar ϕ, para ello, se reemplaza Σϑ y σ 2 en (3.12)


por sus estimaciones obtenidas mediante el procedimiento de optimización pre-
sentado en (3.9) y (3.10). Por lo tanto, ϕ se encuentra al minimizar la siguiente
expresión

L(ϕ, l) = ϕ0 Σϑ̂ ϕ + σ̂ 2 − 2ϕ0 c + 2l0 (X 0 ϕ − x0 (s0 ))

donde l es el vector de k + 1 multiplicadores de Lagrange asociados con la


restricción de insesgadez.
3.2 Modelo basado en distancias con tendencia 79

Después de la diferenciación con respecto a ϕ y l, igualando el resultado a


cero y realizando algunos procesos algebraicos, se encuentra el siguiente sistema
matricial ! ! !
Σϑ̂ X ϕ c
=
X0 0 l x(s0 )
Resolviendo el sistema, los coeficientes para ϕ y l están dados por
  −1   0
0 0 −1 0 −1
ϕ̂ = c + X X Σϑ̂ X x(s0 ) − X Σϑ̂ c Σ−1
ϑ̂
 −1   (3.13)
l̂ = − X 0 Σ−1
ϑ̂
X x(s 0 ) − X 0 −1
Σϑ̂
c

La estimación del cuadrado medio del error de predicción en términos de


ϕ̂ y l̂ puede ser expresado como

d (ε̂(s0 )) = ϕ̂0 c − x0 (s0 )l̂ + σ̂ 2 − 2ϕ̂0 c = σ̂ 2 − l̂0 x(s0 ) + ϕ̂0 c


 
Var (3.14)

Reemplazando (3.13) dentro de (3.14), la estimación del cuadrado medio


del error de predicción es
 0  −1
d (ε̂(s0 )) =σ̂ 2 − c0 Σ−1 c − x(s0 ) − X 0 Σ−1 X
Var X 0 −1
Σ X
ϑ̂ ϑ̂ ϑ̂
 
x(s0 ) − X 0 Σ−1
ϑ̂
c (3.15)

Finalmente, se puede resumir el procedimiento presentado en esta sección


en los siguientes pasos:

1. Obtener las coordenadas principales utilizando la descomposición espec-


tral de la matriz de similaridades (o distancias) calculada a partir de las
variables explicativas.

2. Seleccionar las coordenadas principales más correlacionadas o significa-


tivas con la variable regionalizada Z s . En este paso, se recomienda usar
el criterio dado en (3.5) para hacer una primera selección con el fin de
remover las coordenadas principales pobremente correlacionadas con las
variable regionalizada, y luego, emplear los criterios (3.6) o (3.7) para
seleccionar las coordenadas principales mas significativas utilizando la
regresión DB.
80 Capı́tulo 3. Modelo DB para la predicción espacial con tendencia

3. Construir los residuales ε̂(si ) = Z(si ) − Ẑ(si ) y calcular el variograma


experimental.

4. Ajustar el modelo del variograma estimando β̃ y Σϑ̂ , el cual se obtiene


utilizando iterativamente (3.9) y (3.10).

5. Hacer las predicciones en los puntos muestreados y no muestreados para


generar el mapa de predicción usando el método DBUK (es decir, ha-
ciendo Ẑ(s0 ) = ϕ̂0 Z s ) y hacer el mapa de la predicción de las varianzas
del error asociado empleando (3.15).

3.2.2 Medidas de evaluación

Se considera la raı́z del cuadrado medio de los errores de predicción (RMSPE)


para evaluar la exactitud en los métodos de interpolación UK y DBUK. El
RMSPE es obtenido mediante validación cruzada “leave-one-out” (LOOCV),
el cual puede utilizarse para comparar el rendimiento de algunos métodos de
interpolación. Como se explicó en la Sección 1.7, LOOCV consiste en remover
una observación de los n puntos muestrales (por lo general asociado a un
vecindario), y luego con los n − 1 valores restantes y el modelo de variograma
seleccionado, se predice via kriging universal el valor de la variable de estudio
en la localización que se removió. Este procedimiento se realiza en forma
secuencial con cada uno de los puntos muestreados y ası́ se obtiene un conjunto
de n errores de predicción. Si el modelo de variograma elegido describe bien la
estructura de autocorrelación espacial, entonces las diferencias entre los valores
observados y predichos deberı́an ser pequeñas, y ası́, se podrá producir el mapa.

Este procedimiento se justifica debido a que los métodos de interpolación


kriging son exactos, es decir, los valores de predicción coinciden con los valores
observados para los puntos muestreados. De esta manera, el proceso de vali-
dación cruzada da una idea de qué tan buenas son las predicciones, por lo cual
brinda información acerca de cuál modelo provee predicciones más exactas. Las
expresiones tanto para el RMSPE como para el coeficiente de determinación
3.3 Estudio de simulación y discusión 81

(R2 ) se muestran a continuación:


v 
uP n 2
u
t Ẑ[i] (s i ) − Z(s i )
RMSPE = i=1 (3.16)
n
n  n
 .X
2
X 2
R =1 − Ẑ[i] (si ) − Z(si ) Z(si ) − Z̄ (3.17)
i=1 i=1

donde Ẑ[i] (si ) es el valor predicho a partir de la validación cruzada y Z(si ) es


el valor muestreado en la localización si .

Una variación de la metodologı́a previa, consiste en dividir la muestra en


dos submuestras; la primera submuestra es empleada para el modelamiento del
variograma y la otra submuestra es utilizada para validar el método kriging.
Después de esto, las medidas de validación pueden ser construidas a partir
de los valores observados y de las predicciones (Bivand et al. 2008). Si todo
funciona bien el RMSPE deberı́a ser tan pequeño como sea posible (cercano a
cero) y el R2 deberı́a ser cercano a 1

3.3 Estudio de simulación y discusión

Para evaluar el método propuesto, un estudio de simulación se realizo bajo cier-


tas condiciones. En estos escenarios, para el método clásico UK se consideran
las variables explicativas mixtas en la forma tradicional y en el método DBUK
se utilizan las coordenadas principales obtenidas a partir de las variables ex-
plicativas. En este último caso, las coordenadas principales son obtenidas
utilizando el criterio dado en (3.5) para hacer la primera selección, dejando
afuera las coordenadas principales con correlación cercana a cero. Luego se
utiliza el criterio dado en (3.6) para seleccionar las coordenadas principales
más significativas en la regresión DB. También, estas son empleadas para la
estimación de los modelos de variograma y tendencia, es decir, es aplicada la
metodologı́a expuesta en la Subsección 3.2.1. El estudio de simulación consi-
dera dos casos que con frecuencia se presentan en la práctica: en el primer caso
todas las variables explicativas son incluidas, mientras en el segundo caso una
variable explicativa relevante es removida (u omitida). Este segundo caso es
82 Capı́tulo 3. Modelo DB para la predicción espacial con tendencia

motivado por algunas razones: (a) la imposibilidad de realizar las mediciones,


(b) la pérdida de información en algunos lugares, (c) una inapropiada forma
funcional y (d) el desconocimiento sobre las variables que deberı́an considerarse
en relación con respecto al fenómeno modelado, lo que provoca la pérdida de
una o más variables que pueden ser relevantes para la investigación, y por
lo tanto, el modelo geoestadı́stico propuesto bajo estas condiciones no es el
adecuado.

3.3.1 Caso 1: Tendencia basada en variables mixtas sin


omisión de variables explicativas

La tendencia es construida considerando una variable aleatoria binomial, V1 ∼


Bi (n, p = 0.4), con n = 50, 100, 150. También, una variable nominal asociada
con tres regiones fijadas en un cuadrado de una unidad, tal como se muestra
en la Figura 3.1. Puesto que hay tres regiones, sólo dos variables dummy se
consideran (D2 , D3 ) para evitar problemas de singularidad. Además, se asume
que el error ε(si ) es un proceso Gaussiano isotrópico con media cero y función
de covarianza generada a partir de un modelo de variograma especifico con un
rango de valores para los parámetros: pepita (τ 2 ), rango (φ), meseta parcial
(σ 2 ), kappa (κ) y tamaño muestral (n). Cuatro modelos de variograma teóricos
fueron usados: Exponencial (Exponential, EXP), Matérn (MAT), Gaussiano
(Gaussian, GAU) y Esférico (Spherical, SPH). Los rangos de los escenarios
simulados se presentan en la Tabla 3.1. Los parámetros de tendencia se fijaron
como β0 = 10, β1 = −4, β2 = 2 y β3 = −4 asociados a las coordenadas
espaciales wxi y wyi , i = 1, . . . , n. Ası́, el proceso regionalizado simulado está
dada por
Z(si ) = β0 + β1 Vi1 + β2 Di2 wxi + β3 Di3 wyi + ε(si ) (3.18)

Con el fin de examinar la versatilidad del método DBUK con respecto al


método UK, 96 escenarios fueron simulados, y para cada uno de ellos el proceso
se repitió 100 veces.

En cada uno de los escenarios y con las simulaciones realizadas, los modelos
teóricos fueron ajustados a los variogramas experimentales mediante máxima
3.3 Estudio de simulación y discusión 83

Figura 3.1: Localización de los puntos de muestreo y regiones asociadas a la


definición de la variable nominal

verosimilitud y los estadı́sticos RMSPE (3.16) y R2 (3.17) fueron calculados


por validación cruzada. Los resultados en términos de RMSPE se muestran
en la Tabla 3.2. Por ejemplo, el escenario 48 corresponde a un modelo de
variograma esférico con parámetros: τ12 = 0, σ12 = 2, φ1 = 0.60 y n = 150, este
escenario reporta un valor de RMSPE= 2.713 para UK y RMSPE= 2.619 para
DBUK, ası́ el RMSPE fue mas bajo para el DBUK (método propuesto) que
para el UK (método clásico). En general, el mismo comportamiento se observó
en los otros escenarios de acuerdo a la lectura de los valores de RMSPE. Por lo
tanto, hay un ganancia significativa en la reducción de los errores utilizando el
método propuesto. La mayor ganancia proviene del modelo Matérn con κ = 1.5
porque hay una reducción del 14% en promedio, mientras que la reducción para
el modelo exponencial es del 13%, y para los modelos Gaussiano y esférico es
tan sólo del 12%.

De acuerdo con la Tabla 3.2 y las Figuras 3.2 y 3.3, el método DBUK
es mejor que el método UK porque bajo τ12 = 0 y τ22 = 1, los promedios de
RMSPE son 13.7% y 14.6%, respectivamente, mayores en UK que en DBUK.
84 Capı́tulo 3. Modelo DB para la predicción espacial con tendencia

Tabla 3.1: Escenarios simulados para los casos 1 y 2

Parámetros del modelo Modelos de variograma


τ2 σ2 φ n EXP MAT (κ = 1.5) GAU SPH
50 1 4 7 10
0.15 100 2 5 8 11
150 3 6 9 12
1
50 13 16 19 22
0.60 100 14 17 20 23
150 15 18 21 24
0
50 25 28 31 34
0.15 100 26 29 32 35
150 27 30 33 36
2
50 37 40 43 46
0.60 100 38 41 44 47
150 39 42 45 48
50 49 52 55 58
0.15 100 50 53 56 59
150 51 54 57 60
1
50 61 64 67 70
0.60 100 62 65 68 71
150 63 66 69 72
1
50 73 76 79 82
0.15 100 74 77 80 83
150 75 78 81 84
2
50 85 88 91 94
0.60 100 86 89 92 95
150 87 90 93 96

Adicionalmente, el RMSPE promedio bajo UK disminuye cuando el tamaño


muestral se incrementa, mientras que esto no siempre sucede con el RMSPE
promedio en el DBUK. En general, los promedios de RMSPE en el método
DBUK no cambian significativamente cuando se incrementa el tamaño mues-
tral, y en la mayorı́a de los casos, son mas pequeños que los RMSPEs promedio
bajo UK. Resultados similares se obtienen al analizar los R2 ; los promedios
del R2 se incrementan al aumentar el tamaño de la muestra para UK, pero no
hay un incremento significativo al variar los tamaños de muestra n usando el
método DBUK, en ambos casos la variabilidad se reduce cuando se incrementa
el tamaño de la muestra.
3.3 Estudio de simulación y discusión 85

Tabla 3.2: Promedios de RMSPEs bajo los métodos UK y DBUK para los escena-
rios presentados en la Tabla 3.1 en el Caso 1 (sin omisión de variable)

Modelos de variograma
Parámetros Exponencial Matérn Gaussiano Esférico
del modelo (κ = 1.5)
τ2 σ2 φ n UK DBUK UK DBUK UK DBUK UK DBUK

50 3.19 2.64 3.19 2.64 3.06 2.62 3.35 2.79


0.15 100 2.90 2.59 2.89 2.60 2.75 2.53 3.06 2.76
150 2.75 2.61 2.75 2.61 2.60 2.50 2.91 2.74
1
50 2.96 2.38 3.03 2.35 2.82 2.25 2.96 2.51
0.60 100 2.68 2.39 2.72 2.39 2.61 2.33 2.72 2.47
150 2.57 2.43 2.59 2.44 2.53 2.37 2.60 2.49
0
50 3.55 2.98 3.55 2.97 3.31 2.91 3.85 3.23
0.15 100 3.17 2.87 3.16 2.88 2.89 2.73 3.46 3.16
150 2.99 2.85 2.99 2.86 2.69 2.63 3.27 3.10
2
50 3.09 2.52 3.18 2.47 2.83 2.28 3.15 2.71
0.60 100 2.78 2.50 2.79 2.49 2.60 2.36 2.87 2.63
150 2.65 2.52 2.66 2.53 2.53 2.39 2.71 2.62
50 3.89 3.22 3.88 3.21 3.79 3.22 4.00 3.31
0.15 100 3.61 3.21 3.60 3.21 3.51 3.18 3.75 3.35
150 3.48 3.23 3.46 3.20 3.37 3.17 3.61 3.35
1
50 3.71 3.01 3.74 2.97 3.60 2.93 3.70 3.11
0.60 100 3.44 3.04 3.47 3.02 3.38 2.97 3.47 3.12
150 3.33 3.07 3.36 3.07 3.29 3.01 3.36 3.13
1
50 4.20 3.53 4.19 3.53 4.02 3.50 4.43 3.72
0.15 100 3.85 3.46 3.84 3.46 3.66 3.37 4.09 3.70
150 3.69 3.44 3.70 3.45 3.47 3.31 3.93 3.67
2
50 3.82 3.14 3.88 3.09 3.59 2.94 3.88 3.33
0.60 100 3.52 3.13 3.57 3.12 3.37 3.00 3.59 3.27
150 3.40 3.15 3.43 3.15 3.28 3.04 3.46 3.25

3.3.2 Caso 2: Tendencia como en el caso 1, pero omi-


tiendo una variable explicativa

Se considera el mismo conjunto de variables y parámetros definidos en el Caso


1, presentados en la ecuación (3.18), pero se omite la variable V1 . Por lo tanto,
el proceso regionalizado simulado es ahora

Z(si ) = β0 + β2 Di2 wxi + β3 Di3 wyi + ε(si ) (3.19)

Se consideran los escenarios descritos en la Tabla 3.1 y los resultados se


presentan en la Tabla 3.3. Los valores en RMSPE fueron en general más ba-
jos que en el Caso 1. Como en el Caso 1, los promedios de RMSPEs fueron
86 Capı́tulo 3. Modelo DB para la predicción espacial con tendencia

Kriging Universal Clasico − RMSPE


5.0
4.0
3.0
2.0

1 5 9 14 19 24 29 34 39 44 49 54 59 64 69 74 79 84 89 94

Kriging Universal Basado en Distancias − RMSPE


5
4
3
2

1 5 9 14 19 24 29 34 39 44 49 54 59 64 69 74 79 84 89 94

Figura 3.2: RMSPE para los escenarios considerados en el Caso 1

Kriging Universal Clasico − R2


−0.2 0.0 0.2 0.4 0.6 0.8

1 5 9 14 19 24 29 34 39 44 49 54 59 64 69 74 79 84 89 94

Kriging Universal Basado en Distancias − R2


0.8
0.4
0.0
−0.4

1 5 9 14 19 24 29 34 39 44 49 54 59 64 69 74 79 84 89 94

Figura 3.3: R2 para los escenarios considerados en el Caso 1

menores en el método DBUK que en el método UK, aunque se encontraron


valores notoriamente más grandes en modelo de Matérn. Para todos los mode-
los de variograma, los promedios de RMSPEs en el método propuesto fueron
3.4 Aplicaciones 87

aproximadamente un 10% más bajo que en el método tradicional.

En general, las varianzas de los promedios de RMSPEs y R2 son mas bajas


cuando N se incrementa, siendo muy similar en los tamaños de muestra n =
100 y n = 150 (ver Figuras 3.4 y 3.5). Además, la variabilidad es mayor cuando
se utilizan los modelos de Matérn.

Tabla 3.3: Promedios de RMSPEs bajo los métodos UK y DBUK para los escena-
rios presentados en la Tabla 3.1 en el Caso 2 (con una variable omitida)

Modelos de variograma
Parámetros Exponencial Matérn Gaussiano Esférico
del modelo (κ = 1.5)
τ2 σ2 φ n UK DBUK UK DBUK UK DBUK UK DBUK

50 1.04 0.91 2.34 1.99 0.90 0.85 1.20 1.01


0.15 100 0.88 0.82 1.98 1.87 0.74 0.70 1.02 0.93
150 0.81 0.78 1.82 1.79 0.66 0.62 0.94 0.89
1
50 0.83 0.75 2.06 1.65 0.73 0.69 0.85 0.81
0.60 100 0.71 0.66 1.68 1.64 0.68 0.63 0.74 0.70
150 0.65 0.63 1.55 1.59 0.64 0.65 0.68 0.66
0
50 1.28 1.12 2.79 2.39 1.04 1.01 1.52 1.28
0.15 100 1.07 1.01 2.34 2.21 0.81 0.79 1.29 1.19
150 0.98 0.96 2.14 2.11 0.69 0.67 1.18 1.13
2
50 0.93 0.84 2.26 1.83 0.74 0.71 0.99 0.93
0.60 100 0.78 0.73 1.81 1.77 0.68 0.63 0.84 0.81
150 0.72 0.69 1.67 1.74 0.66 0.64 0.77 0.75
50 1.55 1.30 3.27 2.74 1.47 1.30 1.63 1.35
0.15 100 1.42 1.28 2.96 2.67 1.38 1.26 1.51 1.36
150 1.39 1.31 2.86 2.70 1.33 1.26 1.47 1.38
1
50 1.45 1.18 3.10 2.45 1.44 1.13 1.44 1.24
0.60 100 1.32 1.18 2.80 2.46 1.42 1.16 1.33 1.22
150 1.30 1.22 2.69 2.51 1.42 1.19 1.31 1.25
1
50 1.72 1.46 3.61 3.08 1.58 1.45 1.89 1.58
0.15 100 1.55 1.42 3.23 2.95 1.44 1.35 1.71 1.56
150 1.50 1.43 3.09 2.95 1.36 1.31 1.65 1.56
2
50 1.50 1.25 3.26 2.58 1.43 1.15 1.52 1.34
0.60 100 1.36 1.24 2.90 2.56 1.40 1.17 1.40 1.30
150 1.34 1.26 2.78 2.61 1.39 1.20 1.37 1.31

3.4 Aplicaciones

En las dos aplicaciones, se ajustan dos modelos para la media de Z(s): el


primero clásico UK usando (3.2) con las variables explicativas mixtas origi-
88 Capı́tulo 3. Modelo DB para la predicción espacial con tendencia

Kriging Universal Clasico − RMSPE


4
3
2
1

1 5 9 14 19 24 29 34 39 44 49 54 59 64 69 74 79 84 89 94

Kriging Universal Basado en Distancias − RMSPE


4
3
2
1

1 5 9 14 19 24 29 34 39 44 49 54 59 64 69 74 79 84 89 94

Figura 3.4: RMSPE para los escenarios considerados en el Caso 2

Kriging Universal Clasico − R2


0.2 0.4 0.6 0.8 1.0
−0.2

1 5 9 14 19 24 29 34 39 44 49 54 59 64 69 74 79 84 89 94

Kriging Universal Basado en Distancias − R2


0.8
0.4
0.0
−0.4

1 5 9 14 19 24 29 34 39 44 49 54 59 64 69 74 79 84 89 94

Figura 3.5: R2 para los escenarios considerados en el Caso 2

nales, y el segundo, DBUK usando (3.4) con las coordenadas principales gene-
radas a partir de las variables mixtas. En el último método, tal como se hizo
en el proceso de simulación, se emplea el criterio (3.5) para hacer la primera
3.4 Aplicaciones 89

selección, dejando afuera las coordenadas principales con correlación cercana


a cero. Luego, se utiliza el criterio (3.6) para seleccionar las coordenadas prin-
cipales más significativas en la regresión DB. Después, en ambos métodos, los
residuales obtenidos de (3.2) y (3.4) son empleados para obtener los variogra-
mas experimentales (clásico, robusto, mediana y media recortada) y sus corres-
pondientes variogramas teóricos. Este procedimiento se realiza en diferentes
direcciones para evaluar la isotropı́a, y en cada caso, se selecciona un modelo
de variograma teórico (esférico, exponencial, Gaussiano y Matérn) compatible
con el variograma experimental. Después de esto, con el fin de obtener los
parámetros ϑ̂, la estimación por OLS, WLS, ML y REML es realizada. Por
lo tanto, se tiene un modelo de variograma, γ̂(h; ϑ̂), para la interpolación en
los métodos UK y DBUK. Finalmente, en cada uno de los métodos, se hacen
las predicciones en las localizaciones muestreadas y no muestreadas para la
generación de los mapas de la variable analizada Z(s).

3.4.1 Temperatura media diaria en Croacia

En 153 estaciones meteorológicas, la temperatura media diaria en Croa-


cia fue medida el 1 de diciembre de 2008. Esta información es tomada
de http://spatial-analyst.net/book/HRclim2008 y esta fue proporcionada
por Melita Perčec Tadić, de la Organización Meteorológica y de Servicios
Hidrológicos Croatas (Hengl 2009). Croacia es un paı́s relativamente pequeño,
pero cuenta con varias regiones de clima diferente que son el resultado de su
posición especı́fica en el mar Adriático y de la topografı́a muy diversa que va
desde las llanuras en el este, a través de una zona central montañosa que separa
el territorio continental de la parte marı́tima del paı́s. La región de estudio se
caracteriza por una amplia gama de caracterı́sticas topográficas y climáticas,
lo que permite evaluar correctamente la metodologı́a propuesta con respecto a
la tradicional, ya que las temperaturas promedio de la tierra en tal región se
ven fuertemente influenciadas por la topografı́a.

Las mediciones de temperatura se recogen automáticamente en 159 esta-


ciones meteorológicas, pero dado que hay datos perdidos para el 1 de diciembre
de 2008 se dispone de información sólo en 153 estaciones. En la mayorı́a de
90 Capı́tulo 3. Modelo DB para la predicción espacial con tendencia

las estaciones meteorológicas, la temperatura se mide tres veces al dı́a, a las


7 am, 1 pm y 9 pm (Hengl et al. 2012). La media de la temperatura diaria
(∆T en un dı́a) se calcula como un promedio ponderado (Hiebl et al. 2009),
de acuerdo a la siguiente expresión

T(7am) + T(1pm) + 2 · T(9pm)


∆T =
4

La distribución espacial de las estaciones no es optima (Zaninovic et al.


2008), hay un cierto submuestreo a mayor altitud y en áreas con menor den-
sidad de población; por razones prácticas, a las zonas de mayor densidad
de población se les dio prioridad. Por lo tanto, se podrı́a esperar que la
precisión de la cartografı́a será menor a mayor altitud y en las tierras altas
(Hengl 2009, Perčec Tadić 2010). Las coordenadas geográficas (latitud y lon-
gitud) fueron transformadas a un sistema de coordenadas cartesianas (wx , wy ).
La ubicación de las 153 estaciones meteorológicas se muestra en la Figura 3.6.
Las coordenadas principales fueron calculadas a partir de la descomposición
espectral generada por las coordenadas espaciales, wx y wy . Las primeras dos
coordenadas principales están altamente correlacionadas con la temperatura
media de la tierra en Croacia, con una correlación al cuadrado superior a 0.18.

Figura 3.6: Localizaciones de las estaciones meteorológicas en Croacia


3.4 Aplicaciones 91

Con las dos coordenadas principales, se realizó una regresión lineal de


primer orden teniendo en cuenta como variable respuesta la temperatura me-
dia de la tierra. Al mismo tiempo, en el modelo clásico, se realizó una regresión
utilizando las coordenadas espaciales wx y wy , para lo cual se consideraron mo-
delos lineales de orden uno y dos; en este caso, el modelo de orden 2 mostró un
mejor ajuste. Posteriormente, se construyó un mapa del variograma ajustado
a partir de los residuos obtenidos teniendo en cuenta el mejor modelo para los
métodos clásicos y DB. Además, los variogramas ajustados obtenidos en las
direcciones de 45 y 135 grados se muestran en la Figura 3.7; en ambos mapas
de variograma de los residuales se observa un comportamiento anisotrópico.
50000 150000 50000 150000

45 135 45 135
+ +
8
var1 12 var1 12
6
+ ++
2e+05 10 2e+05 10
+ +++ ++
8 + 8
6 ++ + +
+ +
1e+05 ++ 1e+05 +
semivariance

semivariance
+ ++ +
+ ++ + + ++ + ++
6
+ + 6 + +
++ + +
dy

dy

0e+00 4 0e+00
++ +++ +
4 + ++++ 4 4
−1e+05 ++ −1e+05
2 2 ++
−2e+05 + −2e+05 +
2 0
0 2
−2e+05 0e+00 2e+05 −2e+05 0e+00 2e+05

dx dx

50000 150000 50000 150000

distance distance

Figura 3.7: Mapas del variograma anisotrópico y modelos de variograma ajusta-


dos (azimut del semieje mayor es 135◦ y azimut del semieje menor es
de 45◦ ) para los residuales de la temperatura media terrestre en los
modelos clásico (dos paneles de izquierda) y DB (dos paneles de la
derecha)

El variograma experimental asociado a los residuos que presentaron el mejor


ajuste en los métodos clásicos y DB fue la media recortada, considerando un
recorte del 10%. El modelo teórico ajustado fue en ambos casos el de Matérn
con parámetros: τ12 = 1.197, σ12 = 5.637, φ1 = 36775.12 y k1 = 0.5 en el
método clásico UK, y τ22 = 3.469, σ22 = 6.375, φ2 = 176322.9 y k2 =0.5 en
el método DBUK. Estos modelos mostraron el mas bajo cuadrado medio del
error (Mean Square Error, MSE). Los parámetros fueron estimados utilizando
los procedimientos de OLS, WLS y REML. En . el caso de WLS, dos pesos se
consideraron: la ponderación asignada por Nj γ 2 (hj ) y denotada por WLS, y
los pesos dados por Nj /h2j y denotados por WLS1. WLS proporciona mejores
92 Capı́tulo 3. Modelo DB para la predicción espacial con tendencia

resultados que WLS1, con M SE = 1.035 para los residuos en el modelo clásico,
y M SE = 0.797 para los residuos en DB (ver Figura 3.8).

10
10

8
8
Semivariance

Semivariance

6
6

MSE Values MSE Values


TRIMMED MEAN TRIMMED MEAN

4
4

WLS = 1.0348 WLS = 0.7968


REML = 3.2272 REML = 0.9856
WLS1 = 1.0692 WLS1 = 2.1647
OLS = 1.1933 OLS = 1.3164

2
2

0 50000 100000 150000 200000 0 50000 100000 150000 200000

Distance Distance

(a) Regresión lineal cuadrática (método clásico) (b) Regresión lineal (método DB)

Figura 3.8: Variograma experimental de media recortada para los residuos, ajus-
tando un modelo de Matérn por WLS, OLS y REML

Una vez que los variogramas fueron definidos, estos fueron utilizados en el
krigeado para la generación de los mapas de predicciones de la temperatura
media terrestre y de las varianzas de los errores predichos. En el caso DBUK, se
consideraron las coordenadas principales de la muestra y los puntos adicionales
generados por el sistema de coordenadas original (wx y wy ). Posteriormente,
se calcularon las predicciones teniendo en cuenta el sistema de coordenadas
originales y los resultados obtenidos se presentan en la Figura 3.9, en cual se
observa una alta coincidencia entre los métodos UK y DBUK.

La Figura 3.10 muestra los mapas de predicción de la varianza del error


para los métodos UK y DBUK. Se observa que UK subestima la varianza en las
zonas fronterizas. En general, la varianza del error de predicción para DBUK
es más pequeño en toda la región de estudio.

Finalmente en esta aplicación, para evaluar las ventajas practicas de DBUK


sobre UK con una tendencia modelada usando la regresión lineal, se realizaron
200 simulaciones sobre la muestra estudiada de las temperaturas media dia-
3.4 Aplicaciones 93

(a) Clásico UK (b) DBUK

Figura 3.9: Mapas de predicción de la temperatura media diaria terrestre en Croa-


cia

(a) Clásico UK (b) DBUK

Figura 3.10: Mapas de predicción de las varianzas del error para la temperatura
media diaria terrestre en Croacia

ria de las estaciones meteorológicas en Croacia. La muestra fue particionada


en dos submuestras: el primer subconjunto de 110 datos fue utilizado para
construir el modelo y el segundo subconjunto con 43 datos fue utilizado para
evaluar el modelo, como se describe en (Bivand et al. 2008, Section 8.6). Las
simulaciones consideraron 20 vecinos en la validación cruzada. Para los dos
94 Capı́tulo 3. Modelo DB para la predicción espacial con tendencia

métodos, se dejan fijos los valores empı́ricos de los parámetros asociados a los
modelos de variograma.

En las 200 simulaciones, los promedios de RMSPEs, son 1.858 en UK y


1.820 en DBUK, y los promedios de R2 son 0.641 en UK y 0.657 en DBUK. Se
nota una reducción del 3.8% para DBUK comparado con UK cuando se consi-
dera el RMSPE, y una ganancia en el R2 de 1.6%. Esta pequeña ganancia del
DBUK con respecto al UK se obtiene debido a que sólo dos coordenadas prin-
cipales fueron seleccionadas, pero si se hubiesen considerado más coordenadas
principales, el método DBUK probablemente aumentarı́a su superioridad con
respecto al método UK. Este hecho puede observarse en la siguiente aplicación
del contenido de calcio.

3.4.2 Contenido de Calcio

En este conjunto de datos se consideran muestras de suelo recolectadas con


una broca de tipo holandés en una malla regular incompleta a una distancia
de aproximadamente 50 metros, con coordenadas geográficas: norte y este de
900 metros de distancia en ambas direcciones. Las muestras de suelo fueron
tomadas de la capa de 0-20 cm de profundidad en cada una de las 178 locali-
dades (ver Figura 3.11). El magnesio y el calcio se midieron en mmolc /dm3 ,
pero en esta aplicación, se considera sólo el contenido de calcio. La región de
estudio se dividió en tres sub-regiones ya que el muestreo regionalizado posi-
bilita mapear la dirección de la variabilidad de las propiedades de textura y
las propiedades quı́micas, lo que permite recortar el mapa de los rendimien-
tos debido a las diferentes situaciones de la fertilidad del suelo y tipos de
suelo. Por lo tanto, en estas sub-regiones se han experimentado los diferentes
regı́menes de manejo del suelo. Esta caracterización es ideal para aplicar el
método propuesto en esta tesis.

En resumen, este conjunto de datos tiene información sobre el contenido de


calcio, las coordenadas espaciales (wx , wy ), la altitud y la sub-región de cada
muestra que se asocia con tres periodos de la fertilización en diferentes lugares
o áreas.
3.4 Aplicaciones 95

5800
5600
R1

R2

5400
Y Coord

5200

R3
5000
4800

5000 5200 5400 5600 5800 6000

X Coord

Figura 3.11: Gráfica de circulo de contenido de calcio con las lı́neas que delimitan
las sub-regiones (lugares de muestreo)

Los datos son tomados de Capeche et al. (1997) y el principal objetivo


del estudio fue la adecuada planificación del uso del suelo que permitiera una
gestión racional y sostenible, evitando el proceso de erosión, con el fin de des-
tinar subsidios en los campos experimentales para la realización de búsquedas
que sean extrapoladas a suelos y zonas climáticas similares.

La Tabla 3.4 contiene los valores de los parámetros ajustados del vario-
grama esférico y dos veces el log de la verosimilitud (2 log L), tanto para el
método propuesto (DB) como para el método clásico. En el caso de DB, las
coordenadas principales se construyeron utilizando las variables: coordenadas
espaciales y la variable nominal que define la sub-región (la altitud no es con-
siderada, al no existir información en los puntos no muestreados, esto con el
fin de producir el mapa que se muestra más adelante). Los resultados presen-
tados en la Tabla 3.4(a) muestran un aumento constante en 2 log L cuando se
incrementa el número de coordenadas principales. Hay un aumento significa-
tivo en 2 log L ya que va desde -1272.03 hasta -1178.80 cuando el número de
coordenadas principales va de 0 a 18. La Tabla 3.4(b) muestra los valores de
2 log L en el caso clásico; es claro que 2 log L aumenta cuando se considera la
96 Capı́tulo 3. Modelo DB para la predicción espacial con tendencia

variable de sub-región (tipo de suelo), pero no hay ganancia al adicionar las


coordenadas espaciales o la altitud.

Tabla 3.4: Comparación entre los métodos DB y clásico con los valores de
los parámetros ajustados del variograma esférico utilizando máxima
verosimilitud

(a) Método DB
Número de coordenadas principales
τ2 σ2 φ 2logL
con remoción tendencia DB
α0 23.23 111.69 244.90 -1272.03
2 0 87.08 107.65 -1260.00
4 0 80.56 102.50 -1253.61
8 0 67.48 89.39 -1236.01
17 0 51.29 83.11 -1193.20
18 0 46.98 81.52 -1178.80

(b) Método clásico


Parámetros para remoción tendencia clásico τ2 σ2 φ 2logL
β0 23.23 111.69 244.90 -1272.03
tipo de suelo 0 93.00 111.97 -1266.09
tipo de suelo, altitud 0 92.69 111.53 -1266.06
tipo de suelo, tendencia espacial lineal 0 87.53 107.45 -1261.18
tipo de suelo, altitud, 0 84.52 104.09 -1259.17
tendencia espacial lineal

Para generar los mapas de contenido de calcio, se seleccionaron las varia-


bles: coordenadas espaciales (tendencia espacial lineal) y la sub-región (tipo
de suelo). Además, con el fin de comparar los dos métodos (UK y DBUK), se
consideran 17 coordenadas principales en el método DB (véase la Tabla 3.4(a))
para remover la tendencia porque las otras coordenadas principales obtenidas
a partir del criterio (3.6) no fueron significativas a un nivel del 5%. Por otro
lado, las variables explicativas (tipo de suelo y tendencia espacial lineal) se
consideraron en el método clásico (véase la Tabla 3.4(b)). Una vez obtenidos
los modelos de los variogramas, se llevan a cabo los métodos UK y DBUK, los
cuales consideran la tendencia con las caracterı́sticas mencionadas anterior-
mente para los dos métodos. Los mapas obtenidos se muestran en la Figura
3.12.

Las desviaciones estándar de los dos métodos analizados se muestran en la


3.4 Aplicaciones 97

(a) UK (b) DBUK

Figura 3.12: Mapas de predicción del contenido de calcio en el suelo incluyendo


sub-región

(a) UK (b) DBUK

Figura 3.13: Mapas de predicción de los errores estándar para el contenido de


calcio en el suelo, incluyendo sub-región

Figura 3.13. En esta, se observa que hay una reducción en las desviaciones
estándar en el método DBUK con respecto al método UK. Los resultados de la
validación cruzada se muestran en la Tabla 3.5, en donde se resalta un aumento
98 Capı́tulo 3. Modelo DB para la predicción espacial con tendencia

de alrededor del 10% del método DBUK propuesto sobre el método UK clásico.

Tabla 3.5: Comparación entre UK y DBUK para el contenido de calcio usando


LOOCV

UK DBUK DBUK-UK
RMSPE 7.734 7.011 -0.723
R2 0.510 0.566 0.056

Una variedad de estudios para detectar la variabilidad entre regiones es


prácticamente imposible, por lo cual se espera que el método propuesto sea útil
en estos casos, ya que aprovecha al máximo la información existente. A pesar
que la correlación sea baja con respecto a la variable a modelar, lo relevante
en el método propuesto es la correlación entre las coordenadas principales
(construidas con las variables existentes) y la variable respuesta espacial.
Capı́tulo 4

Modelo basado en distancias


para la predicción espacial
utilizando funciones de base
radial

4.1 Introducción

Debido a que hoy en dı́a existe un gran desarrollo de instrumentos de medición


en tiempo real y de recursos de almacenamiento de datos, las funciones gene-
radas a partir de experimentos aleatorios se pueden observar y procesar. De
esta manera, los métodos globales (tales como el análisis de tendencias de su-
perficie) utilizan todos los datos disponibles para la predicción, mientras que
los métodos locales como las funciones de base radial (radial basis functions,
RBF), los kriging y la distancia inversa ponderada, suelen utilizar sólo un sub-
conjunto de los datos para hacer cada predicción. Una de las ventajas de los
métodos locales es que el tiempo de cálculo se reduce en la predicción, al traba-
jar con los datos asociados a vecindarios. Algunos métodos hacen uso de todos
los datos disponibles, pero únicamente tienen en cuenta las distancias a partir
de la localización de la predicción. Estos métodos todavı́a se pueden conside-
rar locales, es decir que muchas de las técnicas de interpolación utilizadas son
100 Capı́tulo 4. Modelo DB para la predicción espacial utilizando RBF

métodos locales.

Las funciones de base radial (RBF) tales como la multicuadrática (MQ) o


completamente regularizada spline (CRS) son útiles en la construcción de mo-
delos digitales de elevación (DEM), como se muestra en Mitás̆ová & Hofierka
(1993), en el que se incorpora el spline en un sistema de información geográfica
para estudiar la erosión del suelo. Una variación de la función multicuadrática
se llama la función inversa multicuadrática (IMQ), introducida por Hardy &
Gopfert (1975). Luego, el spline capa delgada (TPS) fue introducido en el
diseño geométrico por Duchon (1976). El nombre TPS se refiere a una ana-
logı́a fı́sica que implica la flexión de una hoja delgada de metal. (Franke 1982)
desarrolló un programa de ordenador para la solución del problema de inter-
polación de datos dispersos; el algoritmo se basa en una suma ponderada de
TPS definidos localmente, obteniéndose una función de interpolación que es
diferenciable. Más tarde, Thiébaux & Pedder (1987) describió la TPS como
una superficie de dos dimensiones llamada spline cúbico. Otra variante popular
de la TPS es la aproximación Gaussiana (GAU) utilizada por Schagen (1979).
Otra función de base radial es la interpolación spline cúbica y exponencial
(EXP) que permite evitar los puntos de inflexión y contiene splines cúbicos
como un caso especial (Späh 1969). Por último, Mitás̆ & Mitás̆ová (1988),
Mitás̆ová & Hofierka (1993) y Mitás̆ová & Mitás̆ (1993) desarrollan la formu-
lación de spline con tensión (ST) e implementan un algoritmo de segmentación
con un tamaño flexible de la superposición del vecindario.

El enlace entre splines y kriging fue llamado equivalentemente “cercano”


(Cressie 1989) porque el TPS corresponde a una covarianza generalizada es-
pecı́fica, mientras que el estimador kriging y el interpolador RBF sólo requieren
el uso de un kernel con propiedades adecuadas como la de definida positiva.
En general, esto permite adaptar la función kernel a un conjunto de datos
particular (Cressie 1989, Myers 1992). La mayor diferencia es que el usuario
establece el parámetro de suavizamiento en los splines, mientras en el caso de
kriging, el suavizamiento se determina de forma objetiva.

Investigaciones recientes utilizan RBF sobre dominios irregulares en dos


dimensiones a través del proceso de conformación de trasplante (Heryudono &
4.1 Introducción 101

Driscoll 2010). Zhang (2011) desarrolla un algoritmo rápido para el estimador


de suavizado spline univariado en una regresión multivariante mediante el uso
de funciones de base radial de soporte compacto. Yavuz & Erdoǧan (2012)
realiza un análisis de tendencias de las precipitaciones mensuales y anuales,
utilizando los métodos de interpolación kriging ordinario, distancia inversa
ponderada y spline completamente regularizado. Estos estudios demuestran la
utilidad de trabajar con RBF.

Además, en los estudios anteriormente presentados con frecuencia se tiene


que lidiar con variables explicativas de diferente naturaleza asociadas con
una variable respuesta espacial. Dichas variables independientes pueden ser:
categóricas, binarias y continuas; sin embargo, los métodos mencionados an-
teriormente no son totalmente apropiados cuando se modela una mezcla de
variables explicativas.

Por lo tanto, el objetivo en este capı́tulo es presentar un enfoque unificado


que utiliza RBF en donde las variables explicativas son de naturaleza mixta.
En este sentido, se propone un nuevo método utilizando distancias entre los
individuos, tales como la distancia de Gower (1968), aunque alguna otra distan-
cia Euclidiana se puede utilizar. Por consiguiente, el método de interpolación
espacial basada en distancias con funciones de base radial (distance-based spa-
tial interpolation with radial basis functions, DBSIRBF) se aplica en el modelo
geoestadı́stico para predecir la tendencia y estimar la estructura de covarianza
cuando las variables explicativas son mixtas. La tendencia se incorpora en una
RBF de acuerdo con un procedimiento de eliminación de la tendencia.

Este capı́tulo se desarrolla de la siguiente forma: en la Sección 4.2 se desa-


rrolla la propuesta metodológica introduciendo la tendencia lineal local basada
en distancias, se construyen las RBFs a partir de la tendencia basada en dis-
tancias, se describen algunas RBFs y se hace una aproximación a partir de la
interpolación spline al método kriging para la predicción. Con el fin de evaluar
la eficacia del método propuesto, en la Sección 4.3 se lleva a cabo un estudio
de simulación para una variedad de escenarios prácticos que incluyen cinco
funciones distintas de base radial e incorpora las coordenadas principales. Por
último, en la Sección 4.4 se ilustra el método propuesto con una aplicación de
102 Capı́tulo 4. Modelo DB para la predicción espacial utilizando RBF

la predicción de concentración de calcio medido a una profundidad de 0-20 cm


en Brasil, seleccionando el parámetro de suavizamiento mediante validación
cruzada.

4.2 Modelo geoestadı́stico basado en distan-


cias con funciones de base radial

Supóngase que se esta interesado en relacionar una variable respuesta continua


con variables georeferenciadas explicativas medidas en cada sitio de muestreo,
estas variables pueden ser del tipo: latitud y longitud, binarias, categóricas
y continuas. Al igual que en la Sección 3.2, sea s ∈ Rd una ubicación en un
espacio Euclidiano d-dimensional y supóngase que Z(s) es un vector aleatorio
en cada ubicación espacial s. Realizando el mismo procedimiento que se pre-
sento en la Sección 3.2, la idea es hacer una transformación de las variables
explicativas utilizando el método basado en distancias. Para ello se definen las
medidas de similaridad o distancia Euclidiana presentadas en la Subsección
2.7.1, que dependen de las caracterı́sticas de las variables explicativas. Una
vez seleccionada alguna de las distancias presentadas allı́, se realiza el proceso
de descomposición espectral y se selecciona las coordenadas principales que
mas se relacionan con la variable respuesta, realizando cualquiera de los cuatro
métodos presentados al final de la Sección 3.2. Por lo tanto, las Xk+1 , . . . , Xn−1
coordenadas principales deben ser removidas ya que son las menos relevantes.

Por otra parte, en la interpolación espacial, existen métodos que no re-


quieren información de un modelo de dependencia espacial, tales como el va-
riograma o covariograma, éstos se llaman deterministas y son los de interés en
esta sección. El modelo (3.1) utilizando un formato basado en distancias se
puede expresar en forma general por

Z(si ) = g(si ) + ε(si ), i = 1, . . . , n (4.1)

donde g(si ) es una función de valor-real, dada por


k
X n
X
g(si ) = νl fl (si ) + ωj φ(si − sj ), i = 1, . . . , n
l=0 j=1
4.2 Modelo geoestadı́stico basado en distancias con funciones de base radial 103

o en forma matricial,
g s = Fs ν s + Φ s ω s (4.2)

donde g s = (g(s1 ), . . . , g(sn ))0 , Fs = (1, F1 , . . . , Fk ) es una matriz n × (k + 1)


con elementos 1 y Fl = (fl (s1 ), . . . , fl (sn ))0 , l = 1, . . . , k, y con cada fl (si )
una función de valor real; ν s = (ν0 , ν1 , . . . , νk )0 donde cada νl corresponde
al l-ésimo coeficiente del modelo de tendencia; Φs es una matriz n × n con
elementos φ(si − sj ), el cual es una función de base radial, es decir una función
escalar de la distancia Euclidiana entre si y sj ; finalmente, ω s = (ω1 , . . . , ωn )0 ,
con ωi un peso desconocido.

Los parámetros ν s y ω s pueden ser estimados por mı́nimos cuadrados pe-


nalizados, minimizando la siguiente expresión

n
X Z
2
[Z(si ) − g(si ))] + ρ Jm (g(s))ds (4.3)
i=1 R2

donde Jm (g(s)) es una medida de la rugosidad de la función spline g (definida


en términos de las m-ésimas derivadas de g) y ρ > 0 actúa como un parámetro
de suavizamiento.

La expresión (4.3) se puede expresar al hacer los respectivos reemplazos


como
Z
0 2
L(ν s , ω s ) =(Z s − Fs ν s − Φs ω s ) (Z s − Fs ν s − Φs ω s ) + ρ [g 00 (s)] ds
R2

=(Z s − Fs ν s − Φs ω s )0 (Z s − Fs ν s − Φs ω s ) + ρkPs ĝs k2

donde Ps es el espacio que genera Φs y kPs ĝs k2 = hPs ĝs , Ps ĝs i = ω 0s q s q 0s ω s =


ω 0s Φs ω s con Φs = q s q 0s . Por lo tanto,

L(ν s , ω s ) =(Z s − Fs ν s − Φs ω s )0 (Z s − Fs ν s − Φs ω s ) + ρω 0s Φs ω s
=Z 0s Z s − 2Z 0s Fs ν s − 2Z 0s Φs ω s + ν 0s Fs0 Fs ν s + 2ω 0s Φ0s Fs ν s
+ ω 0s Φ0s Φs ω s + ρω 0s Φs ω s

Al derivar parcialmente con respecto a los vectores ν s y ω s e igualar a cero,


104 Capı́tulo 4. Modelo DB para la predicción espacial utilizando RBF

se encuentra que
∂L(ν s , ω s )
= −2Fs0 Z s + 2Fs0 Fs ν s + 2Fs0 Φs ω s =0
∂ν s
Fs ν s + Φs ω s =Z s (4.4)
∂L(ν s , ω s )
= −2Φ0s Z s + 2Φ0s Fs ν s + 2Φ0s Φs ω s + 2ρΦ0s ω s =0
∂ω s
Fs ν s + (Φs + ρI)ω s =Z s (4.5)

donde I es la matriz identidad de orden n × n y ρ puede ser interpretado como


ruido blanco adicionado a las varianzas en las localizaciones de los datos, pero
no la varianza en la localización donde se predice (Wackernagel 2003).

Noté aquı́ que si Φs es definida positiva entonces hay unicidad de los coe-
ficientes en el interpolador ĝ(si ). Con el fin de generalizar los interpoladores,
es necesario considerar las formas más generales de las matrices definidas po-
sitivas.

Definición 4.1. Sean f0 , f1 , . . . , fk funciones linealmente independientes de


valor-real definidas sobre Rd y Φs una matriz simétrica real. Luego, Φs es
definida positiva con respecto a f0 , f1 , . . . , fk si y sólo si para todos los conjuntos
n Pn
de puntos s1 , . . . , sn en Rd se tiene que
P
qi qj φ(si − sj ) ≥ 0 para todo qi
i=1j=1
n
P
(i = 1, . . . , n), donde qi es un escalar (no todos cero), y tales que fl (sj )qj =
j=1
0 para l = 1, . . . , k.

Como por la definición 4.1, Φs es definida positiva, entonces Φs + ρI es


invertible y ası́ (4.5) se puede escribir como:

ω s = (Φs + ρI)−1 (Z s − Fs ν s ) (4.6)

Reemplazando (4.6) en (4.4) se obtiene

Fs ν s + Φs (Φs + ρI)−1 (Z s − Fs ν s ) =Z s
I − Φs (Φs + ρI)−1 Fs ν s = I − Φs (Φs + ρI)−1 Z s
   
(4.7)

Observe que
 −1
1
I − Φs (Φs + ρI)−1 = = ρ(Φs + ρI)−1
 
I + Φs (4.8)
ρ
4.2 Modelo geoestadı́stico basado en distancias con funciones de base radial 105

Premultiplicando por Fs0 la expresión (4.7) y reemplazando por (4.8), se


encuentra que
−1 0
b s = Fs0 (Φs + ρI)−1 Fs Fs (Φs + ρI)−1 Z s

ν (4.9)

y reemplazando (4.8) en (4.6), se encuentra finalmente que


n −1 0 o
b s = (Φs + ρI)−1 I − Fs Fs0 (Φs + ρI)−1 Fs Fs (Φs + ρI)−1 Z s

ω (4.10)

Al premultiplicar (4.10) se obtiene

Fs0 ν s = 0

y al combinarlo con el sistema (4.5), se encuentra que (ω s , ν s ) son la solución


del siguiente sistema de ecuaciones lineales
! ! !
Φs + ρI Fs ωs Zs
=
Fs0 0 νs 0

Si no hay tendencia, Fs se convierte en un vector de unos y ν s en un parámetro


de sesgo.

Finalmente, en esta subsección se presenta en la Tabla 4.1 algunas RBFs


consideradas en esta investigación y que utilizan el enfoque basado en distan-
cias. El parámetro de suavizamiento óptimo η, el cual es un parámetro de
libre elección, se encuentra al minimizar la raı́z del cuadrado medio del error
de predicción (RMSPE) haciendo uso de la validación cruzada. Algunas des-
cripciones adicionales de RBFs y sus relaciones con los splines y kriging se
pueden encontrar en Bishop (1995, p. 164), Chilès & Delfiner (1999, pag. 272)
y Cressie (1993, pag. 180).

4.2.1 Predicción espacial basada en distancias con fun-


ciones de base radial

Una vez se han estimado los parámetros ν s y ω s , se pueden discutir las técnicas
espaciales para predecir el valor de un campo aleatorio en una nueva loca-
lización espacial, s0 , a partir de las observaciones cercanas, y en donde se
106 Capı́tulo 4. Modelo DB para la predicción espacial utilizando RBF

Tabla 4.1: Formas funcionales de algunas RBFs

RBF Forma funcional RBF Forma funcional


2
EXP φ(δ) = e−ηδ , η 6= 0 GAU φ(δ) = e−ηδ , η 6= 0
p p
MQ φ(δ) = η 2 + δ 2 , η 6= 0 IMQ φ(δ) = 1/ η 2 + δ 2 , η 6= 0
RBF Forma funcional

(η · δ)2 log(η · δ) si δ 6= 0, η > 0
TPS φ(δ) =
0 si δ = 0


ln(η · δ/2)2 + E1 (η · δ/2)2 + CE si δ 6= 0, η > 0
φ(δ) =
0 si δ = 0
CRS
donde ln es el logaritmo natural, E1 (x) es la función integral exponencial
y CE es la constante de Euler.

ln(η · δ/2) + K0 (η · δ) + CE si δ 6= 0
φ(δ) =
0 si δ = 0
ST
donde K0 (x) es la función modificada de Bessel y CE es la constante de
Euler.

observan un conjunto de variables explicativas mixtas. Para conseguirlo, se


utiliza el método de kriging universal con la finalidad de construir a partir de
la tendencia basada en distancias las predicciones espaciales.

Por lo tanto, al igual que en la Sección 3.2, supóngase que un nuevo in-
dividuo (n + 1) es observado con sus respectivas variables explicativas mix-
tas, es decir v(s0 ) = (v1 (s0 ), . . . , vp (s0 ))0 es conocido. Entonces, las distan-
cias entre el nuevo individuo y cada uno de los individuos involucrados en
el modelo propuesto en (3.2) se pueden calcular como δ0i = δ (v(s0 ), v(si )),
i = 1, . . . , n. A partir de estas distancias, se puede hacer una predicción
usando un resultado de Gower (1971) y Cuadras & Arenas (1990), que rela-
2 2 0
ciona el vector δ 0 = (δ01 , . . . , δ0n ) de cuadrados de las distancias con el vector
x(s0 ) = (x1 (s0 ), . . . , xk (s0 ))0 de coordenadas principales asociado al nuevo in-
4.2 Modelo geoestadı́stico basado en distancias con funciones de base radial 107

dividuo mediante la expresión

2
δ0i = [x(s0 ) − x(si )]0 [x(s0 ) − x(si )]

con i = 1, . . . , n. Luego, se encuentra que


1
x(s0 ) = Λ−1 X 0 (b − δ 0 )
2
donde b = (b11 , . . . , bnn )0 y bii = x(si )0 x(si ), i = 1, . . . , n.

Ahora, el próximo objetivo es predecir el valor de Z(s0 ) basado en un


conjunto de observaciones Z s . Para esto, el predictor de la función de base
radial esta dado por
n
X
Z(s
b 0 ) = gb(s0 ) = ϕi Z(si ) = ϕ0s Z s (4.11)
i=1

sujeto a la condición
n
X
ϕi fl (si ) = ϕ0s f s = fl (s0 ), l = 0, . . . , k
i=1

donde ϕs = (ϕ1 , . . . , ϕn )0 , Zs = (Z(s1 ), . . . , Z(sn ))0 y f s =


(fl (s1 ), . . . , fl (sn ))0 .

El error esperado es igual a cero, es decir,


 
E Ẑ(s0 ) − Z(s0 ) = 0

2
y el error cuadrático medio de la predicción del krigeado, σK , al utilizar la
aproximación con funciones de base radial esta dado por
h i2 
2
σK (s0 ) =E Ẑ(s0 ) − Z(s0 )
n X
n n

X X
=− ϕi ϕj φ(si − sj ) + 2 ϕi φ(si − s0 )
i=1 j=1 i=1


= − ϕ0s Φs ϕs + 2ϕ0s φ0 (4.12)

donde φ0 = (φ(s1 − s0 ), . . . , φ(sn − s0 ))0 corresponde al vector de función de


base radial evaluado entre los vecinos y el punto donde se quiere predecir, es
decir φ(si − s0 ).
108 Capı́tulo 4. Modelo DB para la predicción espacial utilizando RBF

Los pesos se determinan minimizando la siguiente expresión penalizada

X n
n X n
X Z
l(ϕs , αs ) = ϕi ϕj φ(si − sj ) − 2 ϕi φ(si − s0 ) + ρ Jm (g(s))ds
i=1 j=1 i=1 R2

k n
!
X X
+2 αl ϕi fl (si ) − fl (s0 )
l=0 i=1

o equivalentemente, la expresión anterior se convierte en

l(ϕs , αs ) =ϕ0s (Φs + ρI) ϕs − 2ϕ0s φ0 + 2α0s (Fs0 ϕs − f s (s0 ))

donde αs = (α0 , . . . , αk )0 es el vector de k + 1 multiplicadores de Lagrange


asociado con la restricción insesgamiento, Fs fue definida en (4.2) y f s (s0 ) =
(f0 (s0 ), . . . , fk (s0 ))0 .

Después de diferenciar con respecto a ϕs y αs , igualando el resultado a cero


y realizando algunos procedimientos algebraicos, el siguiente sistema matricial
se encuentra ! ! !
Φs + ρI Fs ϕs φ0
= (4.13)
Fs0 0 αs f s (s0 )
Resolviendo el sistema, los coeficientes para ϕs y αs están dados por
n −1  o0
b 0s = φ0 + Fs Fs0 (Φs + ρI)−1 Fs f s (s0 ) − Fs0 (Φs + ρI)−1 φ0 (Φs + ρI)−1

ϕ
−1
b s = − Fs0 (Φs + ρI)−1 Fs [f s (s0 ) − Fs0 (Φs + ρI)−1 φ0 ]

α
(4.14)

Por otro lado, para obtener una expresión aproximada del error cuadrático
de la predicción, se premultiplica la parte superior de (4.13) por ϕ0s y se en-
cuentra que ϕ0s (Φs + ρI)ϕs + ϕ0s Fs αs = ϕ0s φ0 , éste término se reemplaza en la
expresión (4.12) y se llega a

2
σK (s0 ) ∼
= − ϕ0s Φs ϕs + 2ϕ0s φ0

= − ϕ0s φ0 + ρϕ0s ϕs + ϕ0s Fs αs + 2ϕ0s φ0

=ϕ0s φ0 + ρϕ0s ϕs + f 0s (s0 )αs

donde Fs0 ϕs = f s (s0 ).


4.2 Modelo geoestadı́stico basado en distancias con funciones de base radial 109

Una vez estimados ϕs y αs en (4.11), una expresión aproximada del error


cuadrático de la predicción estimado se puede escribir como

n n k

X X X
2
σ
bK (s0 ) = bi φ(si − s0 ) + ρ
ϕ b2i
ϕ + α
bl fl (s0 ) (4.15)
i=1 i=1 l=0

El procedimiento presentado en esta sección se puede resumir en los si-


guientes pasos:

1. Obtener las coordenadas principales utilizando la descomposición espec-


tral de la matriz de similaridades (o distancias) calculada a partir de las
variables explicativas.

2. Seleccionar las coordenadas principales más correlacionadas o significati-


vas con la variable regionalizada Z s . En este paso, se recomienda utilizar
el criterio dado en (3.5) para hacer una primera selección con el fin de
remover las coordenadas principales pobremente correlacionadas con las
variable regionalizada, y luego, emplear los criterios (3.6) o (3.7) para
seleccionar las coordenadas principales mas significativas utilizando la
regresión DB.

3. Optimizar los parámetros η del interpolador espacial basado en distan-


cias con funciones de base radial (DBSIRBF) y ρ, mediante el uso del
RMSPE establecido en la expresión (3.16) por medio de la validación
cruzada (leave-one-out), empleando las expresiones (4.9) y (4.10) en los
diferentes vecindarios de un tamaño prefijado. El tamaño del vecindario,
nh , también se puede escoger dentro del mismo proceso de optimización.

4. Hacer las predicciones en los puntos muestreados y no muestreados para


generar el mapa de predicción usando el método DBSIRBF, es decir,
haciendo Ẑ(s0 ) = ϕ̂0s Z s .

En el caso en que se desee evaluar el ajuste de la DBSIRBF o comparar


ajustes entre DBSIRBF se recomienda hacer uso de la validación cruzada
(leave-one-out), empleando la expresión (3.16).
110 Capı́tulo 4. Modelo DB para la predicción espacial utilizando RBF

4.3 Estudio de simulación y discusión

Esta sección describe un estudio de simulación para evaluar la eficiencia del


método propuesto bajo diferentes condiciones asociadas con los parámetros de
suavizamiento y las funciones de base radial utilizando el método basado en
distancias. Los escenarios están diseñados teniendo en cuenta la propuesta
de Wand (2000), con algunas adaptaciones a un espacio bidimensional. En
particular se estudia los efectos de: (i) el nivel de ruido, (ii) la densidad de
diseño, (iii) el grado de variación espacial y (iv) la función de varianza. Estas
configuraciones y escenarios se presentan en la Tabla 4.2.

Tabla 4.2: Escenarios considerados en los experimentos espaciales simulados

Factor Forma genérica


Nivel de zj (si ) = β0 + β1 Vi + β2 Di2 + β3 Di3 + f (wxi ) + f (wyi ) + f (wxi )f (wyi ) + σj ε(si )
ruido σj = 0.02 + 0.04(j − 1)2
Densidad
zj (si ) = β0 + β1 Vi + β2 Di2 + β3 Di3 + f (Xji ) + f (Yji ) + f (Xji )f (Yji ) + σε(si )
de
σ = 0.1, Xji = Fj−1 (Xi ), Yji = Fj−1 (Yi )
diseño
zj (si ) = β0 + β1 Vi + β2 Di2 + β3 Di3 + fj (wxi ) + fj (wyi ) + fj (wxi )fj (wyi ) + σε(si )
Variación " n o#
p 2π 1+2(9−4j)/5
espacial σ = 0.2, fj (li ) = li (1 − li )sin (9−4j)/5
li +2

Función zj (si ) = β0 + β1 Vi + β2 Di2 + β3 Di3 + f (wxi ) + f (wyi ) + f (wxi )f (wyi )


p
de + υj (wxi ) + υj (wyi ) + υj (wxi )υj (wyi )ε(si )
varianza con υj (li ) = {0.15 [1 + 0.4(2j − 7)(li − 0.5)]}2
Los supuestos y otras elecciones
iid iid
Vi ∼ Bi(n, 0.4); i = 1, ..., 100; n = 50, 100, 150; ε(si ) ∼ N (0, 0.1); Xi , Yi ∼ U nif orm (0, 1)
       2
−0.5 −0.8
Fj es la Beta j+45
, 11−j
5
; j = 1, 3; f (li ) = 1.5f1 li0.15 − f1 li0.04 ; f1 (u) = √1 exp −u2
;

li = wxi , wyi

Este estudio considera las simulaciones en dos dimensiones (wx , wy ),


además una variable aleatoria binomial V1 ∼ Bi (n, 0.4), con tamaños de mues-
tra n = 50, 100, 150, tamaños de vecindario nh = 8, 32, parámetros de suaviza-
miento η = 0.01, 0.1 y j = 1, 3 en el factor de varianza. Adicionalmente,
supóngase que se tiene una variable nominal asociada a tres regiones especı́ficas
en el cuadrado de longitud uno, como se muestra en la Figura 3.1. Puesto que
hay tres regiones, sólo dos variables dummy (D2 y D3 ) se consideran para evitar
problemas de singularidad. Además, ε(si ) se construye asumiendo un campo
aleatorio Gaussiano asociado con la pepita de τ 2 = 0.1. Para los parámetros de
4.3 Estudio de simulación y discusión 111

tendencia, se asume los siguientes valores β0 = 10, β1 = −4, β2 = 2 y β3 = −4


asociados a las coordenadas espaciales wxi y wyi , donde i es la i-ésima obser-
vación simulada. En la Tabla 4.3, se presentan los escenarios simulados. El
método propuesto se prueba con cinco RBFs: MQ, TPS, CRS, ST y EXP. Un
total de 120 escenarios fueron simulados, y para cada uno de ellos, el proceso
se repitió 100 veces.

Tabla 4.3: Escenarios espaciales simulados (los números naturales en las últimas
cinco columnas (de 1 a 120) representan el número del escenario)

Parámetros Función de base radial


del modelo n
η j nh MQ TPS CRS ST EXP
50 1 25 49 73 97
8 100 2 26 50 74 98
150 3 27 51 75 99
1
50 4 28 52 76 100
32 100 5 29 53 77 101
150 6 30 54 78 102
0.01
50 7 31 55 79 103
8 100 8 32 56 80 104
150 9 33 57 81 105
3
50 10 34 58 82 106
32 100 11 35 59 83 107
150 12 36 60 84 108
50 13 37 61 85 109
8 100 14 38 62 86 110
150 15 39 63 87 111
1
50 16 40 64 88 112
32 100 17 41 65 89 113
150 18 42 66 90 114
0.1
50 19 43 67 91 115
8 100 20 44 68 92 116
150 21 45 69 93 117
3
50 22 46 70 94 118
32 100 23 47 71 95 119
150 24 48 72 96 120

Para cada conjunto de datos simulados, se evaluó la calidad del ajuste me-
diante el RMSPE obtenido por el método LOOCV. Los resultados se presentan
en las Tablas 4.4 y 4.5. Inicialmente se consideró un parámetro positivo para
ρ, pero los valores de RMSPE no mostraron diferencias significativas con los
obtenidos cuando ρ = 0; en particular, cuando fueron utilizadas las funciones
112 Capı́tulo 4. Modelo DB para la predicción espacial utilizando RBF

multicuadrática (MQ) y exponencial (EXP).

Tabla 4.4: Promedios de RMSPEs bajo el método DBSIRBF en los escenarios


espaciales presentados en la Tabla 4.3 (casos nivel de ruido y densidad
de diseño)

Parámetro Nivel de ruido Densidad de diseño


n
η j nh MQ TPS CRS ST EXP MQ TPS CRS ST EXP
50 3.50 3.58 4.10 3.88 3.61 3.40 4.07 3.69 3.90 3.43
8 100 6.67 6.61 6.26 6.24 6.20 68.01 34.21 68.01 68.01 68.01
150 10.35 10.98 8.74 8.65 9.66 9.16 9.47 8.98 9.06 9.04
1
50 2.10 2.62 1.96 2.14 2.05 1.79 2.29 1.51 1.81 1.74
32 100 2.27 2.27 1.58 1.73 1.89 2.15 2.13 1.41 1.54 1.69
150 2.21 2.40 1.72 1.81 2.04 1.97 2.15 1.53 1.64 1.81
0.01
50 4.08 4.30 4.59 4.51 4.17 6.57 7.03 6.83 6.82 6.54
8 100 6.74 6.67 6.31 6.29 6.26 39.48 21.86 39.48 39.48 39.48
150 10.10 10.72 8.52 8.43 9.43 7.34 7.64 6.35 6.27 6.91
3
50 2.11 2.63 1.97 2.15 2.06 1.91 2.42 1.70 1.93 1.86
32 100 2.28 2.28 1.59 1.74 1.90 2.24 2.29 1.42 1.63 1.82
150 2.22 2.41 1.72 1.82 2.04 2.02 2.19 1.55 1.64 1.85
50 3.67 3.59 3.92 3.59 3.61 4.03 3.98 4.79 4.02 3.43
8 100 10.22 7.11 6.46 6.63 6.19 68.01 34.02 68.01 68.01 68.01
150 14.82 11.02 7.68 10.35 9.66 10.49 9.43 9.43 9.34 9.04
1
50 2.84 2.61 2.05 2.58 2.05 2.42 2.27 1.60 2.25 1.74
32 100 11.08 3.45 1.61 2.59 1.89 9.76 3.40 1.46 2.51 1.69
150 5.17 2.59 1.78 2.46 2.04 4.61 2.33 1.57 2.20 1.81
0.1
50 4.35 4.29 4.64 4.30 4.17 7.10 6.95 7.07 6.94 6.54
8 100 10.23 7.17 6.50 6.69 6.26 39.48 21.86 39.48 39.48 39.48
150 14.42 10.75 7.53 10.11 9.43 10.16 7.69 5.59 7.25 6.91
3
50 2.85 2.61 2.07 2.59 2.06 2.60 2.41 1.79 2.38 1.86
32 100 11.10 3.47 1.62 2.60 1.90 10.26 3.50 1.50 2.63 1.82
150 5.18 2.6 1.78 2.47 2.04 4.94 2.39 1.61 2.25 1.85

Las Tablas 4.4 y 4.5 muestran los valores promedios de RMSPE para los
120 casos descritos en la Tabla 4.3 en 100 simulaciones por caso. El método
DBSIRBF funciona bien para vecindarios grandes, lo que indica una ganancia
(vista en un decrecimiento) de 70% de los valores promedios de RMSPE cuando
nh = 32 con respecto a nh = 8. Sin embargo, cuando j = 3 los valores
promedios de RMSPE fueron 1.92 veces mayores que los obtenidos cuando
j = 1. Al tener en cuenta el parámetro η, en general se presenta una ligera
reducción de 4.8% en los valores promedios de RMSPE cuando η = 0.01,
comparado con η = 0.1.

Por otro lado, analizando las formas genéricas, los valores más bajos de
4.3 Estudio de simulación y discusión 113

Tabla 4.5: Promedios de RMSPEs bajo el método DBSIRBF en los escenarios


espaciales presentados en la Tabla 4.3 (casos varianza espacial y función
de varianza)

Parámetro Variación espacial Función de varianza


n
η j nh MQ TPS CRS ST EXP MQ TPS CRS ST EXP
50 5.85 5.72 6.90 6.55 6.05 5.09 5.22 5.80 5.58 5.19
8 100 4.83 5.77 3.73 3.69 4.10 6.70 6.66 6.23 6.21 6.20
150 4.73 5.15 3.70 3.82 4.38 9.56 10.17 8.12 7.95 8.91
1
50 2.02 2.55 1.83 2.05 1.96 2.11 2.63 1.97 2.15 2.06
32 100 2.13 2.15 1.47 1.63 1.78 2.28 2.28 1.58 1.74 1.90
150 2.16 2.33 1.63 1.74 1.98 2.22 2.41 1.72 1.82 2.05
0.01
50 18.87 18.76 18.22 18.32 18.63 4.84 4.98 5.51 5.32 4.94
8 100 91.92 91.94 91.84 91.84 91.86 6.76 6.69 6.33 6.31 6.27
150 83.52 77.94 85.59 85.30 83.82 9.96 10.57 8.39 8.31 9.29
3
50 1.98 2.58 1.65 2.00 1.92 2.11 2.63 1.97 2.15 2.06
32 100 2.15 2.17 1.49 1.63 1.76 2.28 2.28 1.59 1.74 1.90
150 2.23 2.42 1.68 1.82 2.03 2.22 2.41 1.72 1.82 2.05
50 5.87 5.78 5.87 5.78 6.05 5.31 5.24 5.41 5.24 5.19
8 100 9.31 6.02 3.98 5.39 4.10 10.19 7.17 6.42 6.68 6.20
150 6.71 5.21 4.08 4.99 4.38 13.82 10.20 7.18 9.60 8.91
1
50 2.71 2.54 1.89 2.52 1.96 2.84 2.61 2.07 2.59 2.06
32 100 10.03 3.18 1.52 2.41 1.78 11.13 3.46 1.62 2.60 1.90
150 5.23 2.53 1.70 2.39 1.98 5.19 2.60 1.79 2.47 2.05
0.1
50 19.42 19.06 18.54 19.09 18.63 5.06 4.99 5.21 5.00 4.94
8 100 92.35 90.02 91.90 91.95 91.86 10.26 7.19 6.52 6.71 6.27
150 84.19 21.39 85.26 83.69 83.82 14.22 10.61 7.44 9.98 9.29
3
50 2.81 2.56 1.77 2.53 1.92 2.85 2.62 2.07 2.59 2.06
32 100 9.79 3.30 1.55 2.49 1.76 11.12 3.47 1.63 2.60 1.90
150 5.98 2.67 1.78 2.49 2.03 5.19 2.60 1.79 2.47 2.05

RMSPE correspondieron a los casos de nivel de ruido y variación espacial, con


valores promedios de RMSPE de 4.79 y 4.92, respectivamente. Para los casos,
densidad del diseño y función de varianza, los valores promedios de RMSPE
fueron de 11.55 y 18.22, respectivamente. En cuanto al método DBSIRBF
se encuentra que: i) para el caso nivel de ruido, el método DBSIRBF que
produce el valor promedio de RMSPE más bajo fue el CRS, mientras que la
MQ muestra el valor más alto, ii) para el caso densidad de diseño, el método
DBSIRBF con promedio de RMSPE más pequeño fue el TPS, mientras que
MQ volvió a mostrar el más alto, iii) en términos de variación espacial, el
valor promedio de RMSPE más bajo se observó con la CRS, mientras que la
MQ demostró una vez más los valores promedio de RMSPE mas altos, y iv)
114 Capı́tulo 4. Modelo DB para la predicción espacial utilizando RBF

en el caso función de varianza el método DBSIRBF con mejores resultados en


términos de promedios de RMSPEs fue el TPS, y de nuevo, la función MQ
utilizada en el método DBSIRBF muestra los peores resultados.

Debido a que los valores promedios de RMSPEs fueron mayores en tamaños


de vecindarios nh = 8 con respecto a los casos con nh = 32, se muestran los
bloxplot por separado (véanse las Figuras 4.1 y 4.2). Analizando la Figura 4.1
se resalta lo siguiente: i) en términos de nivel de ruido, se encontró una menor
variabilidad cuando j = 1, aunque los valores promedios de RMSPEs fueron
muy similares para ambos casos j = 1 y j = 3; ii) en el caso de la función
de diseño, el método DBSIRBF que mostró la mayor variabilidad fue el TPS,
mientras que los otros presentaron comportamientos similares; iii) bajo los
escenarios de variación espacial, cuando j = 3 y n = 150 se genero en general
una gran variabilidad, excepto para el TPS cuando η = 0.1; y iv) para el caso
función de varianza, la variabilidad fue mayor cuando n = 50 y disminuyó
cuando n = 100 y n = 150, es de resaltar aquı́ que los únicos casos en los
cuales la MQ no disminuyó fue cuando η = 0.1, lo cual se esperaba ya que la
función de base radial MQ en general trabaja mejor en valores pequeños de η.

De acuerdo con la Figura 4.2, se observa que: i) para el nivel de ruido,


se encontró una mayor variabilidad cuando j = 3, incrementándose el valor
promedio de RMSPE en η = 0.1 y n = 100, especialmente cuando se utilizan
las funciones de base radial MQ, TPS y ST; ii) en términos de la función de
diseño, las funciones de base radial MQ y ST mostraron mayor variabilidad
cuando j = 3 y n = 100, mientras para las funciones de base radial EXP y TPS,
la mayor variabilidad se mostró en j = 1 y n = 100, y los valores promedios de
RMSPEs mayores se presentan en las funciones de base radial MQ, TPS y ST;
iii) para la variación espacial y la función de varianza, la mayor variabilidad se
presentó cuando j = 3, un poco más grande en las funciones de base radial CRS
bajo el caso de variación espacial que la observada en el caso de la función de
diseño. En general, el valor promedio de RMSPE fue menor cuando n = 100,
excepto en los casos de funciones de base radial MQ.

En términos generales, el método DBSIRBF fue lo suficientemente robusto


ante diferentes tamaños de muestra debido a que la variabilidad fue similar y
EXP ST CRS TPS MQ

4
6
8
10
4
6
8
10
3
4
5
6
7
8
9
4
6
8
10
12
4
6
8
10
12
14
16

97 73 49 25 1
98 74 50 26 2
99 75 51 27 3
103 79 55 31 7
104 80 56 32 8
105 81 57 33 9
109 85 61 37 13
110 86 62 38 14
111 87 63 39 15
115 91 67 43 19
Nivel de ruido

116 92 68 44 20
117 93 69 45 21

0
20
40
60
80
0
20
40
60
80
0
20
40
60
80
0
20
40
60
80
0
20
40
60
80

97 73 49 25 1
98 74 50 26 2
99 75 51 27 3
103 79 55 31 7
104 80 56 32 8
105 81 57 33 9
109 85 61 37 13
110 86 62 38 14
111 87 63 39 15
115 91 67 43 19
116 92 68 44 20
Función de diseño

117 93 69 45 21

0
50
100
150
200
0
50
100
150
200
0
50
100
150
200
0
50
100
150
200
0
50
100
150
200

97 73 49 25 1
98 74 50 26 2
99 75 51 27 3
103 79 55 31 7
104 80 56 32 8
105 81 57 33 9
109 85 61 37 13
4.3 Estudio de simulación y discusión

110 86 62 38 14
111 87 63 39 15
115 91 67 43 19
116 92 68 44 20
Variación espacial

117 93 69 45 21

2
4
6
8
10
12
14
4
6
8
10
12
14
16
5
10
15
4
6
8
10
12
14
5
10
15
20

97 73 49 25 1
98 74 50 26 2
99 75 51 27 3
103 79 55 31 7
104 80 56 32 8
105 81 57 33 9
109 85 61 37 13
110 86 62 38 14
111 87 63 39 15
115 91 67 43 19
116 92 68 44
115

20

Figura 4.1: RMSPE para los escenarios espaciales simulados cuando nh = 8


117 93 69 45 21
Función de varianza
EXP ST CRS TPS MQ
116

1.8
1.9
2.0
2.1
1.6
1.8
2.0
2.2
2.4
2.6
1.5
1.6
1.7
1.8
1.9
2.0
2.1
2.2
2.5
3.0
3.5
2
4
6
8
10
12
100 76 52 28 4
101 77 53 29 5
102 78 54 30 6
106 82 58 34 10
107 83 59 35 11
108 84 60 36 12
112 88 64 40 16
113 89 65 41 17
114 90 66 42 18
118 94 70 46 22
Nivel de ruido

119 95 71 47 23
Capı́tulo 4.

120 96 72 48 24

1.60
1.65
1.70
1.75
1.80
1.85
1.90
1.6
1.8
2.0
2.2
2.4
2.6
1.4
1.5
1.6
1.7
1.8
1.9
2.0
2.5
3.0
3.5
2
4
6
8
10

100 76 52 28 4
101 77 53 29 5
102 78 54 30 6
106 82 58 34 10
107 83 59 35 11
108 84 60 36 12
112 88 64 40 16
113 89 65 41 17
114 90 66 42 18
118 94 70 46 22
119 95 71 47 23
Función de diseño

120 96 72 48 24

1.7
1.8
1.9
2.0
2.1
2.2
1.6
1.8
2.0
2.2
2.4
2.6
1.4
1.5
1.6
1.7
1.8
1.9
2.0
2.0
2.5
3.0
3.5
2
4
6
8
10

100 76 52 28 4
101 77 53 29 5
102 78 54 30 6
106 82 58 34 10
107 83 59 35 11
108 84 60 36 12
112 88 64 40 16
113 89 65 41 17
114 90 66 42 18
118 94 70 46 22
119 95 71 47 23
Variación espacial

120 96 72 48 24

1.8
1.9
2.0
2.1
2.2
1.6
1.8
2.0
2.2
2.4
2.6
2.8
1.4
1.6
1.8
2.0
2.2
2.5
3.0
3.5
2
4
6
8
10
12

100 76 52 28 4
101 77 53 29 5
102 78 54 30 6
Modelo DB para la predicción espacial utilizando RBF

106 82 58 34 10
107 83 59 35 11
108 84 60 36 12
112 88 64 40 16
113 89 65 41 17
114 90 66 42 18
118 94 70 46 22
119 95 71 47 23

Figura 4.2: RMSPE para los escenarios espaciales simulados cuando nh = 32


120 96 72 48 24
Función de varianza
4.4 Aplicación 117

homogénea en todos los escenarios analizados.

4.4 Aplicación

El conjunto de datos empleado en esta aplicación corresponde al utilizado en


la Subsección 3.4.2 del Capı́tulo 3 y que fue estudiado por Capeche et al.
(1997), la distribución de los puntos observados se presenta en las Figuras 3.11
y 4.3(a). Al igual que en la Subsección 3.4.2, las coordenadas principales se
construyeron a partir de las variables: coordenadas espaciales y la variable
nominal que define la sub-región. Para la selección de las coordenadas princi-
pales, se utiliza el criterio dado en (3.5) para hacer una primera selección con
el fin de remover las coordenadas principales pobremente correlacionadas con
las variable regionalizada, y luego, se emplea el criterio (3.6) para seleccionar
las coordenadas principales mas significativas utilizando la regresión DB.

Para obtener los mapas de contenido de calcio, se utilizan las coordenadas


espaciales (tendencia espacial lineal) y la variable de sub-región (tipo de suelo)
categorizada. De acuerdo a los resultados encontrados en la Subsección 3.4.2,
diecisiete coordenadas principales fueron consideradas en la eliminación de la
tendencia y la validación cruzada (leave-one-out) se llevó a cabo para seleccio-
nar el método DBSIRBF que mostrará el RMSPE más bajo.

Tabla 4.6: Comparación de algunos métodos DBSIRBFs para el contenido de cal-


cio utilizando LOOCV

Optimización
RBF optim bobyqa
η RMSPE η ρ iter RMSPE
EXP 0.03 7.32 0.03 0.00 234 7.32
MQ 0.00 7.38 0.00 0.00 19 7.38
IM 27.36 7.30 27.36 0.00 45 7.30
TPS 0.81 7.62 0.20 1.24 23 7.61
CRS 0.10 7.33 0.30 2.38 31 7.33
ST 0.08 7.34 0.58 2.04 34 7.33
GAU 0.20 8.01 0.20 1.00 28 8.01

Los resultados de la validación cruzada se muestran en la Tabla 4.6, donde


118 Capı́tulo 4. Modelo DB para la predicción espacial utilizando RBF

se observa que las funciones de base radial que mejor trabajan en el método
propuesto son la EXP y la CRS mostrando los valores de RMSPE más bajos.
Como detalle práctico, las funciones de optimización usadas para ρ y η fueron
“bobyqa” del paquete “minqa” y “optim” del paquete “stats” del programa R
Development Core Team (2012), dependiendo del método que proporcionara
resultados más estables. Esta información también se muestra en la Tabla 4.6.
Los mapas de predicción correspondientes se muestran en la Figura 4.3(b)-(h).
4.4 Aplicación 119

5800
5600
R1

R2

5400
Y Coord

5200
R3

5000
4800

5000 5200 5400 5600 5800 6000

X Coord

(a) Contenido de calcio con sub-regiones (b) MQ

(c) GAU (d) TPS

(e) EXP (f) CRS

(g) ST (h) IMQ

Figura 4.3: Localizaciones de muestreo y mapas de predicción bajo el método DBSIRBF


para el contenido de calcio en el suelo, incluyendo sub-región (tipo de suelo)
120 Capı́tulo 4. Modelo DB para la predicción espacial utilizando RBF
Capı́tulo 5

Modelo basado en distancias


para la predicción
espacio-temporal usando
funciones de base radial

5.1 Introducción

En los últimos años ha habido un enorme crecimiento de los modelos y técnicas


para la realización del análisis de datos espacio-temporal. En Cressie & Huang
(1999), Christakos (2000), Myers et al. (2002), Mateu et al. (2003), Kolovos
et al. (2004), Banerjee et al. (2004), Sahu & Mardia (2005), Chen et al. (2006)
y Gneiting et al. (2007), entre otros, se puede encontrar un resumen de las
principales técnicas para modelos espacio-temporales, junto con numerosas
aplicaciones prácticas para una variedad de fenómenos naturales. Por ejemplo,
se encuentran estudios de: contaminación del aire (De Cesare et al. 1997,
De Cesare et al. 2001b, Şen et al. 2006), precipitación (Yavuz & Erdoǧan
2012), temperatura terrestre (Perčec Tadić 2010, Hengl et al. 2012), hidrologı́a
(Rouhani & Hall 1989, Rouhani & Myers 1990), ecologı́a (Bellier et al. 2007,
Planque et al. 2007), monitoreo y seguimiento de población de la fauna silvestre
(Kondoh et al. 2011), medicina en el análisis de imágenes del cerebro (Ye
122 Capı́tulo 5. Modelo DB para la predicción espacio-temporal usando funciones de base radial

2008, Ye et al. 2011) y análisis económico de los precios inmobiliarios (Chica


et al. 2007).

Las mediciones de contaminación del aire, precipitación y temperatura te-


rrestre a menudo se observan a diario en más de un centenar de lugares en
el mundo y los datos de los últimos años suelen estar disponibles, sumado a
esto, esta disponibilidad de información de imágenes de satélite y el software
diseñado para el análisis (estadı́stico y geográfico), motivan el estudio del pro-
blema en el presente capı́tulo. Los métodos geoestadı́sticos espacio-temporales,
sin embargo, requieren de conjuntos de datos grandes, que complican su ma-
nipulación por el tiempo de procesamiento y por la difı́cil tarea de adaptarse
a modelos realistas y complejos.

Por otro lado, las funciones de base radial tales como la multicuadrática o
spline completamente regularizado son útiles en la construcción de modelos di-
gitales de elevación (DEM), como se muestra en (Mitás̆ová & Hofierka 1993).
Una variación de la función multicuadrática se llama la multicuadrática in-
versa, introducida por (Hardy & Gopfert 1975). En Späh (1969) se describe
un método que permite evitar puntos de inflexión y contiene splines cúbicos
como un caso especial, utilizando interpolación spline cúbica y exponencial.
Más tarde, la spline capa delgada se introdujo en el diseño geométrico por
(Duchon 1976) y la aproximación Gaussiana utilizada por (Schagen 1979)
se presenta como una variante popular de la TPS. Por último, (Mitás̆ &
Mitás̆ová 1988, Mitás̆ová & Hofierka 1993, Mitás̆ová & Mitás̆ 1993) desarro-
llan la formulación del spline con tensión e implementan un algoritmo de seg-
mentación con un tamaño flexible en la superposición del vecindario.

En este capı́tulo, basados en la combinación de funciones de base radial y


las coordenadas principales obtenidas a través del método basado en distancias,
se propone un nuevo método llamado interpolación espacio-temporal basado
en distancias usando funciones de base radial (distance-based spatio-temporal
interpolation using radial based functions, DBSITRBFs). El método propuesto
considera principalmente la interpolación espacio-temporal de las funciones de
base radial en un modelo métrico espacio-temporal, con tendencia obtenida
a partir de las coordenadas principales, las cuales se obtienen a partir de las
5.1 Introducción 123

variables explicativas mixtas mediante el método de descomposición espectral


que se realiza a las distancias entre individuos.

Especialmente, en el análisis de datos espacio-temporal, a menudo se tiene


que lidiar con variables de diversa naturaleza que están asociadas con la varia-
ble respuesta: las variables categóricas y binarias tales como el tipo de suelo o
estación del año, y las variables continuas (por ejemplo, las coordenadas espa-
ciales o la precipitación). El objetivo aquı́ es presentar un enfoque unificado
que utiliza las RBFs en tales contextos espacio-temporales donde las variables
explicativas son de naturaleza mixta. Por lo tanto, este trabajo propone un
nuevo método utilizando las distancias entre los individuos, tales como la dis-
tancia de Gower (1968); aunque alguna otra distancia Euclidiana también se
puede llegar a utilizar.

La propuesta espacio-temporal basada en distancias esta soportada en los


métodos desarrollados por Cuadras & Arenas (1990) y Cuadras et al. (1996),
quienes como se ha dicho en los capı́tulos anteriores presentaron algunos resul-
tados de un modelo DB para la predicción con variables mixtas. Esta estrate-
gia es una excelente alternativa, ya que aprovecha al máximo la información
obtenida debido a la relación entre las observaciones, la cual puede ser es-
tablecida a través del uso de la descomposición espectral, utilizando cualquier
distancia Euclidiana. En consecuencia, este enfoque permite incluir en el mo-
delo mas coordenadas principales que variables explicativas en los puntos de
muestreo para mejorar las predicciones generales.

Las coordenadas principales obtenidas mediante el método de distancias se


encuentran a partir de las covariables asociadas con la variable respuesta y las
coordenadas espacio-temporales. La selección de las coordenadas principales se
lleva a cabo utilizando los valores de la prueba-t significativos estadı́sticamente
y considerando una caı́da significativa en la falta de predictibilidad, es decir, las
coordenadas principales que están más asociadas con el variable respuesta. De
esta manera, para evaluar la exactitud del interpolador del método propuesto,
se realizaron simulaciones incondicionales para cinco funciones de base radial
en diferentes escenarios prácticos. Los resultados muestran que las RBFs uti-
lizando el método DB tienen ventajas como la de trabajar con variables mixtas
124 Capı́tulo 5. Modelo DB para la predicción espacio-temporal usando funciones de base radial

en el tendencia y el no requerir de la estimación de un variograma espacio-


temporal, que normalmente requiere mucho tiempo computacional. Además,
ofrece flexibilidad en el ajuste de los parámetros de suavizamiento, ya que al
ser un método local trabaja sólo con vecindarios que el investigador puede
modificar de acuerdo a su conocimiento.

Este capı́tulo esta dividido en 3 secciones principales. En la Sección 5.2


se desarrolla la propuesta metodológica introduciendo la tendencia lineal local
basada en distancias; se construyen las RBFs a partir de la tendencia basada
en distancias, se describen algunas RBFs espacio-temporales y se presenta una
aproximación de la interpolación spline para el modelo propuesto utilizando
el método de interpolación kriging. En la Sección 5.3 se presenta un estudio
de simulación basado en algunos modelos spline espacio-temporales. En la
Sección 5.4 se desarrolla una aplicación de la temperatura media mensual en
Croacia, donde se incorpora la tendencia a partir de las coordenadas principales
obtenidas en función de las coordenadas espacio-temporales, distancia al mar,
elevación y estación climática del año.

5.2 Modelo espacio-temporal basado en dis-


tancias con tendencia lineal local

Sea {Z(s, t), s ∈ D, t ∈ T} un proceso espacio-temporal aleatorio, donde


s varia sobre un conjunto dado D ⊆ Rd y T ⊆ Z ó R, de manera
que los modelos desarrollados son adecuados tanto para tiempo-discreto
como para tiempo-continuo. Sin pérdida de generalidad, se toma T ⊆ R.
Supóngase que este proceso se observó en un conjunto de localizaciones espacio-
temporales {(s1 , t1 ), . . . , (sn , tn )} ∈ D × T obteniendo un conjunto de valores
{Z(s1 , t1 ), . . . , Z(sn , tn )}.

Supóngase que el proceso estocástico espacio-temporal, Z(si , ti ), sigue un


modelo de función aleatoria, que puede descomponerse como

Z(si , ti ) = µ(si , ti ) + ε(si , ti ) (si , ti ) ∈ Rd × R (5.1)

con i = 1, . . . , n y donde µ(si , ti ) = E[Z(si , ti )] es una función determinı́stica


5.2 Modelo espacio-temporal basado en distancias con tendencia lineal local 125

asociada con la tendencia y ε(si , ti ) es un proceso estocástico de media cero y


variograma 2γ(·, ·). Este proceso caracteriza la dependencia espacio-temporal
y modeliza las fluctuaciones espacio-temporales de Z(si , ti ) alrededor de su me-
dia µ(si , ti ). La tendencia espacial está formada por las variables categóricas,
continuas y binarias, y se modela como

µ(si , ti ) = θ0 + v 0 (si , ti )θ (5.2)

donde v(si , ti ) = (v1 (si , ti ), . . . , vp (si , ti ))0 es un vector que contiene varia-
bles explicativas asociadas a la localización espacio-temporal (si , ti ), θ0 es el
parámetro desconocido asociado al intercepto y θ = (θ1 , . . . , θp )0 es un vector
de parámetros desconocidos.

En forma matricial el modelo (5.1), se puede expresar como:

Z st = 1θ0 + V θ + εst (5.3)

donde Z st = (Z(s1 , t1 ), . . . , Z(sn , tn ))0 , 1 es un vector de dimensión n × 1


asociado al intercepto, V = (V1 , . . . , Vn ) es la matriz de diseño de dimensión
n × p con p variables explicativas Vj = (vj (s1 , t1 ), . . . , vj (sn , tn ))0 de dimensión
n × 1, j = 1, . . . , p; además, εst = (ε(s1 , t1 ), . . . , ε(sn , tn ))0 .

Ahora, la idea es hacer una transformación de las variables explicativas


utilizando el método basado en distancias. Para ello se definen las medidas
de similaridad o distancia Euclidiana presentadas en la Subsección 2.7.1, que
dependen de las caracterı́sticas de las variables explicativas.

Si el vector v(si , ti ) dado en (5.2) está formado por variables binarias,


categóricas y continuas, entonces la similaridad de acuerdo a Gower (1971) se
puede definir para variables mixtas como la expresión presentada en (2.17).
En el caso que las variables explicativas sean binarias o categóricas, como se
mencionó en la Subsección 2.7.1, la similaridad se puede expresar mediante las
expresiones presentadas en (2.16). Por medio de la transformación
p
δij = 1 − mij

es posible obtener las distancias Euclidianas. Si todas las variables explicativas


en (5.2) son continuas, la distancia al cuadrado se define como

δij2 = (v(si , ti ) − v(sj , tj ))0 (v(si , ti ) − v(sj , tj ))


126 Capı́tulo 5. Modelo DB para la predicción espacio-temporal usando funciones de base radial

Pp
o alternativamente por la distancia absoluta δij2 = vl (si , ti ) − vl (sj , tj ) .
l=1
Entonces, en el caso de sólo disponer información de las coordenadas espacio-
temporales, (wx , wy , t), las distancias espacio-temporales estarán dadas por
q
δij = (wxi − wxj )2 + (wyi − wyj )2 + (ti − tj )2

Expresiones para la similaridad de Gower como la dada en la ecuación (2.17)


serán útiles en la medida de disponer de información asociada con las varia-
bles mixtas, no sólo para los puntos muestreados sino también para los no
muestreados, lo cual restringe su uso en las zonas no muestreadas.

Realizando el mismo procedimiento que se presento en la Sección 3.2, la


idea es hacer una transformación de las variables explicativas utilizando el
método basado en distancias. Para ello una vez seleccionada alguna distancia
Euclidiana, se realiza el proceso de descomposición espectral y se selecciona las
coordenadas principales que mas se relacionan con la variable respuesta, reali-
zando cualquiera de los cuatro métodos presentados al final de la Sección 3.2.
Por lo tanto, las Xk+1 , . . . , Xn−1 coordenadas principales deben ser removidas
ya que son las menos relevantes.

5.2.1 Tendencia basada en distancias con funciones de


base radial

En la interpolación espacio-temporal, existen métodos que no requieren un


modelo de dependencia espacio-temporal, como el variograma o covariograma,
éstos se llaman deterministas y son los que interesan en esta subsección. El
modelo (5.1) utilizando un formato basado en distancias se puede expresar en
forma general por

Z(si , ti ) = g(si , ti ) + ε(si , ti ), i = 1, . . . , n (5.4)

donde g(si , ti ) es una función de valor real, dada por

k
X n
X
g(si , ti ) = νl Xl (si , ti ) + ωj φ(si − sj , ti − tj ), i = 1, . . . , n
l=0 j=1
5.2 Modelo espacio-temporal basado en distancias con tendencia lineal local 127

o en forma matricial,
g st = X st ν st + Φst ω st (5.5)

donde g st = (g(s1 , t1 ), . . . , g(sn , tn ))0 , X st = (1, X) = (1, X1 , . . . , Xk ) es una


matriz n × (k + 1) con elementos 1 y Xl = (xl (s1 , t1 ), . . . , xl (sn , tn ))0 , l =
1, . . . , k; ν st = (ν0 , . . . , νk )0 donde cada νl corresponde al l-ésimo coeficiente
del modelo de tendencia; Φ es una matriz n × n con elementos φ(si − sj , ti −
tj ), los cuales son funciones de base radial, es decir funciones escalares de la
distancia Euclidiana entre las coordenadas espacio-temporales (si , ti ) y (sj , tj );
finalmente, ω st = (ω1 , . . . , ωn )0 , con ωi un peso desconocido.

Los parámetros ν st y ω st pueden ser estimados por mı́nimos cuadrados


penalizados, minimizando la siguiente expresión
n
X Z
2
[Z(si , ti ) − g(si , ti ))] + ρ Jm (g(s, t))d(s, t) (5.6)
i=1 R2 ×R

donde Jm (g(s, t)) es una medida de la rugosidad de la función spline g (definida


en términos de las m-ésimas derivadas de g) y ρ > 0 actúa como un parámetro
de suavizamiento.

La expresión (5.6) se puede expresar al hacer los respectivos reemplazos


como

L(ν st , ω st ) =(Z st − X st ν st − Φst ω st )0 (Z st − X st ν st − Φst ω st )


Z
2
+ρ [g 00 (s, t)] d(s, t)
R2 ×R

=(Z st − X st ν st − Φst ω st )0 (Z st − X st ν st − Φst ω st ) + ρkPst ĝst k2

donde Pst es el espacio que genera Φst y kPst ĝst k2 = hPst ĝst , Pst ĝst i =
ω 0st q st q 0st ω st = ω 0st Φst ω st con Φst = q st q 0st . Por lo tanto,

L(ν st , ω st ) =(Z st − X st ν st − Φst ω st )0 (Z st − X st ν st − Φst ω st ) + ρω 0st Φst ω st


=Z 0st Z st − 2Z 0st X st ν st − 2Z 0st Φst ω st + ν 0st X 0st X st ν st
+ 2ω 0st Φ0st X st ν st + ω 0st Φ0st Φst ω st + ρω 0st Φst ω st

Al derivar parcialmente con respecto a los vectores ν st y ω st e igualar a


128 Capı́tulo 5. Modelo DB para la predicción espacio-temporal usando funciones de base radial

cero, se encuentra que


∂L(ν st , ω st ) −
= 2X 0st Z st + 2X 0st X st ν st + 2X 0st Φst ω st =0
∂ν st
X st ν st + Φst ω st =Z st (5.7)
∂L(ν st , ω st )
= −2Φ0st Z st + 2Φ0st X st ν st + 2Φ0st Φst ω st + 2ρΦ0st ω st =0
∂ω st
X st ν st + (Φst + ρI)ω st =Z st (5.8)

donde I es la matriz identidad de orden n × n y ρ puede ser interpretado como


ruido blanco adicionado a las varianzas en las localizaciones de los datos, pero
no la varianza en la localización donde se predice (Wackernagel 2003).

Noté aquı́ que si Φst es definida positiva entonces hay unicidad de los coe-
ficientes en el interpolador ĝ(si , ti ). El problema es cómo construir una forma
funcional φ(si , ti ) con la condición apropiada de definida positiva. Con el fin de
generalizar los interpoladores, es necesario considerar las formas más generales
de las matrices definidas positivas.
Definición 5.1. Sean 1, X1 , . . . , Xk funciones linealmente independientes de
valor-real definidas sobre Rd × R y sea Φst una matriz simétrica real. Luego,
Φst es definida positiva con respecto a 1, X1 , . . . , Xk si y sólo si para todos los
n P
n
conjuntos de puntos (s1 , t1 ), . . . , (sn , tn ) en Rd ×R se tiene que
P
qi qj φ(si −
i=1j=1
sj , ti − tj ) ≥ 0 para todo qi (i = 1, . . . , n), donde qi es un escalar (no todos
Pn
cero), y tales que Xl (sj )qj = 0 para l = 1, . . . , k.
j=1

Como por la definición 5.1, Φst es definida positiva, entonces Φst + ρI es


invertible y ası́ (5.8) se puede escribir como:

ω st = (Φst + ρI)−1 (Z st − X st ν st ) (5.9)

Reemplazando (5.9) en (5.7) se obtiene

X st ν st + Φst (Φst + ρI)−1 (Z st − X st ν st ) =Z st


I − Φst (Φst + ρI)−1 X st ν st = I − Φst (Φst + ρI)−1 Z st (5.10)
   

Observe que
 −1
1
I − Φst (Φst + ρI)−1 = = ρ(Φst + ρI)−1
 
I + Φst (5.11)
ρ
5.2 Modelo espacio-temporal basado en distancias con tendencia lineal local 129

Premultiplicando por X 0st la expresión (5.10) y al reemplazar por (5.11),


se encuentra que
−1 0
b st = X 0st (Φst + ρI)−1 X st X st (Φst + ρI)−1 Z st

ν (5.12)

y reemplazando (5.11) en (5.9), se encuentra finalmente que


−1
b st =(Φst + ρI)−1 {I − X st X 0st (Φst + ρI)−1 X st

ω (5.13)
X 0st (Φst + ρI)−1 }Z st (5.14)

Alternativamente, al premultiplicar (5.13) se obtiene

X 0st ν st = 0

y al combinarlo con el sistema (5.8), se encuentra que (ω st , ν st ) son la solución


del siguiente sistema de ecuaciones lineales
! ! !
Φst + ρI X st ω st Zs
=
X 0st 0 ν st 0

Si no hay tendencia, X st se convierte en un vector de unos y ν st en un


parámetro de sesgo. En el caso de trabajar con el anterior sistema, es necesario
considerar la proposición 5.1.

Proposición 5.1. Sea Φst +ρI definida positiva y todos los conjuntos de puntos
(s1 , t1 ), . . . , (sn , tn ) en Rd × R, luego la matriz
!
Φst + ρI X st
X 0st 0

es no singular.

Proof. Supóngase por contradicción que la matriz es singular. Entonces, existe


un vector (U10 U20 )0 no idénticamente cero tal que
! ! !
Φst + ρI X st U1 0
=
X 0st 0 U2 0

Por lo tanto, (Φst + ρI)U1 + X st U2 = 0 y X 0st U1 = 0 con U1 6= 0 y U2 6= 0.


Claramente, X 0st U1 = 0 implica U10 X st = 0, y por lo tanto, U10 X st U2 = 0,
130 Capı́tulo 5. Modelo DB para la predicción espacio-temporal usando funciones de base radial

lo cual implica que U10 (Φst + ρI)U1 + U10 X st U2 = U10 (Φst + ρI)U1 = 0 lo cual
contradice el carácter de definido positivo de (Φst + ρI) a menos que U1 sea
un vector cero. Si U1 es el vector cero, entonces (Φst + ρI)U1 = 0 y de
aquı́, (Φst + ρI)U1 + X 0st U2 = X 0st U2 = 0, pero las funciones matriciales
escalares (X st esta asociada a la tendencia) son linealmente independientes, y
ası́, X 0st U2 = 0 implica que U2 = 0. Dado que U1 y U2 son vectores cero, la
matriz original debe ser no singular.

Ahora, el variograma además de ser un medio para caracterizar la estruc-


tura espacio-temporal, se utiliza en kriging para asignar ponderaciones a las
observaciones y predecir el valor de alguna variable en las localizaciones no
muestreadas (si , ti ), o donde hay un interés en predecir en un soporte dife-
rente o cuadrı́cula (Lloyd 2010). Para utilizar el variograma en kriging, se le
debe ajustar a éste un modelo matemático, de tal manera que los coeficientes
puedan luego utilizarse en el sistema de ecuaciones kriging. En este capı́tulo, se
trabaja con el modelo métrico espacio-temporal, este modelo espacio-temporal
tiene covarianza estacionaria y anisotropı́a geométrica en Rd × R. Por lo tanto,
una métrica en el espacio-tiempo que utiliza directamente modelos isotrópicos
se define como
2
Cst (δs , δt ) = C(δst ) = C(q12 δs2 + q22 δt2 ) (5.15)

2
donde δst = q12 δs2 + q22 δt2 , q1 , q2 ∈ R son las constantes que definen la métrica
espacio-temporal, δs y δt son las usuales distancias Euclidianas en espacio y
tiempo, respectivamente. Este modelo supone la misma estructura de depen-
dencia en el espacio y el tiempo, y sólo permitir cambios en el rango de las
dos funciones de covarianza. Algunas aplicaciones de este modelo se pueden
encontrar en Armstrong & Hubert (1993) y Snepvangers & Huisman (2003).

Finalmente, en esta subsección se presenta en la Tabla 5.1 algunas RBFs


espacio-temporales consideradas en esta investigación y que utilizan el enfoque
basado en distancias. El parámetro de suavizamiento óptimo η, el cual es un
parámetro de libre elección, se encuentra al minimizar la raı́z del cuadrado
medio del error de predicción (RMSPE) haciendo uso de la validación cruzada.
5.2 Modelo espacio-temporal basado en distancias con tendencia lineal local 131

Tabla 5.1: Formas funcionales de algunas RBFs espacio-temporales

RBF Forma funcional RBF Forma funcional


2
EXP φ(δst ) = e−ηδst , η 6= 0 GAU φ(δst ) = e−ηδst , η 6= 0
.p
2 , η 6= 0
p
MQ φ(δst ) = η 2 + δst2, η 6= 0 IMQ φ(δst ) = 1 η 2 + δst
RBF Forma funcional

(η · δst )2 log(η · δst ) si δst 6= 0, η > 0
TPS φ(δst ) =
0 si δst = 0


ln(η · δst /2)2 + E1 (η · δst /2)2 + CE si δst 6= 0, η > 0
φ(δst ) =
CRS 0 si δst = 0

donde ln es el logaritmo natural, E1 (x) es la función integral exponen-


cial y CE es la constante de Euler.

ln(η · δst /2) + K0 (η · δst ) + CE si δst 6= 0
φ(δst ) =
0 si δst = 0
ST
donde K0 (x) es la función modificada de Bessel y CE es la constante
de Euler.

5.2.2 Predicción espacio-temporal usando funciones de


base radial basada en distancias

Una vez se han estimado los parámetros ν st y ω st , se pueden discutir las


técnicas espacio-temporales para predecir el valor en una determinada loca-
lización, (s0 , t0 ), a partir de las observaciones más cercanas y donde se han
observado un conjunto de variables explicativas mixtas. Para conseguirlo, se
utiliza el método kriging universal con la finalidad de construir a partir de la
tendencia basada en distancias las predicciones espacio-temporales.

Ahora, las coordenadas x (s0 , t0 ) = (x1 (s0 , t0 ) , . . . , xk (s0 , t0 ))0 se ob-


tienen suponiendo que las observaciones de las variables explicativas mix-
132 Capı́tulo 5. Modelo DB para la predicción espacio-temporal usando funciones de base radial

tas están disponibles para un nuevo individuo, es decir, v(s0 , t0 ) =


(v1 (s0 , t0 ), . . . , vp (s0 , t0 )) es conocido. Luego, se pueden calcular las distan-
cias entre el nuevo individuo y cada uno de los individuos involucrados en
el modelo (5.1), es decir, δ0i = δ (v(s0 , t0 ), v(si , ti )), i = 1, . . . , n. A partir
de estas distancias, una predicción puede hacerse usando un resultado pro-
puesto por Gower (1971) y Cuadras & Arenas (1990), que relaciona el vector
2 2 0
δ 0 = (δ01 , . . . , δ0n ) de los cuadrados de las distancias y el vector x (s0 , t0 ) de
coordenadas principales asociado al nuevo individuo mediante la expresión
2
δ0i = [x (s0 , t0 ) − x (si , ti )]0 [x (s0 , t0 ) − x (si , ti )]

donde x (si , ti ) = (x1 (si , ti ) , . . . , xk (si , ti ))0 , i = 1, ..., n. A continuación, se


encuentra que
1
x (s0 , t0 ) = Λ−1 X 0 (b − δ 0 )
2
0
donde b = (b11 , ..., bnn ) y bii = x (si , ti ) x (si , ti ), i = 1, ..., n.

Ahora, el siguiente objetivo es predecir el valor de Z (s0 , t0 ) basado en un


conjunto de observaciones Z st . Para ello, el predictor de la RBF está dado por
n
X
Z(s
b 0 , t0 ) = gb(s0 , t0 ) = ϕi Z(si , ti ) = ϕ0 Z st (5.16)
i=1

sujeto a
n
X
ϕi xl (si , ti ) = ϕ0st Xl = xl (s0 , t0 ), l = 0, . . . , k
i=1
donde ϕst = (ϕ1 , . . . , ϕn )0 , Z st = (Z(s1 , t1 ), . . . , Z(sn , tn ))0 y Xl = (xl (s1 , t1 ),
. . . , xl (sn , tn )).

El error esperado es igual a cero


 
E Ẑ(s0 , t0 ) − Z(s0 , t0 ) = 0
2
y el error cuadrático medio de la predicción del krigeado, σK , al utilizar la
aproximación con funciones de base radial esta dado por
h i2 
2
σK (s, t) =E Ẑ(s0 , t0 ) − Z(s0 , t0 )
n X
n n

X X
= ϕi ϕj φ(si − sj , ti − tj ) − 2 ϕi φ(si − s0 , ti − t0 )
i=1 j=1 i=1


=ϕ0st Φst ϕst − 2ϕ0st φ0 (5.17)
5.2 Modelo espacio-temporal basado en distancias con tendencia lineal local 133

donde φ0 = (φ(s1 − s0 , t1 − t0 ), . . . , φ(sn − s0 , tn − t0 ))0 y Φst es una matriz


n × n con elementos φ(si − sj , ti − tj ), i, j = 1, . . . , n. Además, φ0 corresponde
al vector de función de base radial evaluado entre los vecinos y el punto donde
se quiere predecir, es decir φ(si − s0 , ti − t0 ).
Los pesos se determinan minimizando la siguiente expresión penalizada
n X
X n n
X
l(ϕst , αst ) = ϕi ϕj φ(si − sj , ti − tj ) − 2 ϕi φ(si − s0 , ti − t0 )
i=1 j=1 i=1
k n
Z !
X X
+ρ Jm (g(s, t))d(s, t) + 2 αl ϕi xl (si , ti ) − xl (s0 , t0 )
Rd ×R l=0 i=1

donde αst = (γ0 , . . . , γk )0 es el vector de (k + 1) multiplicadores de Lagrange


asociados con la restricción de insesgamiento.

En la forma matricial, la expresión anterior se convierte en

l(ϕst , αst ) = ϕ0st (Φst + ρI) ϕst − 2ϕ0st φ0 + 2α0st (X 0st ϕst − x(s0 , t0 ))

donde X st fue definida en (5.5), y x(s0 , t0 ) = (1, x0 (s0 , t0 ))0 =


(1, x1 (s0 , t0 ), . . . , xk (s0 , t0 ))0 .

Después de diferenciar con respecto a ϕst y γ st , igualando el resultado


a cero y realizando algunos procedimientos algebraicos, el siguiente sistema
matricial se encuentra
! ! !
Φst + ρI X st ϕst φ0
= (5.18)
X 0st 0 αst x (s0 , t0 )

Resolviendo el sistema, los coeficientes para ϕst y αst están dadas por
−1
b 0st ={φ0 + X st X 0st (Φst + ρI)−1 X st

ϕ [x(s0 , t0 )
− X 0st (Φst + ρI)−1 φ0 ]}0 (Φst + ρI)−1 (5.19)
−1 
b st = − X 0st (Φst + ρI)−1 X st x(s0 , t0 ) − X 0st (Φst + ρI)−1 φ0
 
α

Por otro lado, para obtener una expresión aproximada del error cuadrático
de la predicción, se premultiplica la parte superior de (5.18) por ϕ0s y se en-
cuentra que ϕ0st (Φst + ρI)ϕst + ϕ0st X st αst = ϕ0st φ0 , éste término se reemplaza
134 Capı́tulo 5. Modelo DB para la predicción espacio-temporal usando funciones de base radial

en la expresión (5.17) y se llega a


2
σK (s0 , t0 ) ∼
= − ϕ0st Φst ϕst + 2ϕ0st φ0

= − ϕ0st φ0 + ρϕ0st ϕst + ϕ0st X st αst + 2ϕ0st φ0

=ϕ0st φ0 + ρϕ0st ϕst + x0st (s0 , t0 )αst

donde X 0st ϕst = x(s0 , t0 ).

Una vez estimados ϕst y αst en (5.19), una expresión aproximada del error
cuadrático de la predicción estimado se puede escribir como
n n k

X X X
2
σ
bK (s0 , t0 ) = bi φ(si − s0 , ti − t0 ) + ρ
ϕ b2i
ϕ + α
bl xl (s0 , t0 ) (5.20)
i=1 i=1 l=0

El procedimiento presentado en esta sección se puede resumir en los si-


guientes pasos:

1. Obtener las coordenadas principales utilizando la descomposición espec-


tral de la matriz de similaridades (o distancias) calculada a partir de las
variables explicativas.

2. Seleccionar las coordenadas principales más correlacionadas o significa-


tivas con la variable regionalizada Z st . En este paso, se recomienda
utilizar el criterio dado en (3.5) para hacer una primera selección con el
fin de remover las coordenadas principales pobremente correlacionadas
con las variable regionalizada, y luego, emplear los criterios (3.6) o (3.7)
para seleccionar las coordenadas principales mas significativas utilizando
la regresión DB.

3. Optimizar los parámetros η del interpolador espacio-temporal basado en


distancias usando funciones de base radial (DBSTIRBF) y ρ, por medio
de validación cruzada (leave-one-out) mediante el uso de la expresión
v 
uP n 2
u
t Ẑ [i] (s ,
i it ) − Z (s ,
i it )
RMSPE = i=1 (5.21)
n
y empleando las expresiones (5.12) y (5.13) en los diferentes vecinda-
rios de un tamaño prefijado. En la expresión (5.21), Ẑ[i] (si , ti ) es el
5.3 Estudio de simulación y discusión 135

valor predicho obtenido de la validación cruzada y Z (si , ti ) es el valor


muestreado en la localización (si , ti ). El tamaño del vecindario, nh ,
también se puede escoger dentro del mismo proceso de optimización.

4. Hacer las predicciones en los puntos muestreados y no muestreados para


generar el mapa de predicción usando el método DBSTIRBF, es decir,
haciendo Ẑ(s0 , t0 ) = ϕ̂0st Z st .

En el caso en que se desee evaluar el ajuste de la DBSTIRBF o comparar


ajustes entre DBSTIRBF se recomienda hacer uso de LOOCV, empleando
también la expresión (5.21).

5.3 Estudio de simulación y discusión

Al igual que en la Sección 4.3, en esta sección se describe un estudio de si-


mulación para evaluar la eficacia del método propuesto, DBSTIRBF, bajo
diferentes condiciones asociadas a los parámetros de suavizado y las funciones
de base radial. En particular, se estudian los efectos de: (i) el nivel de ruido,
(ii) la densidad de diseño, (iii) el grado de variación espacio-temporal y (iv)
la función de varianza. Estas configuraciones y escenarios se presentan en la
Tabla 5.2.

Este estudio considera las simulaciones en tres dimensiones (wx , wy , t),


además una variable aleatoria binomial V1 ∼ Bi(n, 0.4), tamaños de mues-
tra n = 150 y n = 250 asociados a 25 puntos en el espacio en cada uno de
los casos y 6 y 10 puntos en el tiempo, respectivamente, tamaños de vecin-
dario nh = 8, 32, parámetros de suavizamiento η = 0.01, 0.1 y j = 1, 3 en el
factor de varianza. Adicionalmente, se asume una variable nominal asociada
a tres regiones especı́ficas en el cuadrado de longitud uno, como se muestra
en la Figura 5.1. Dado que hay tres regiones, se consideran sólo dos variables
dummy (D2 y D3 ) para evitar problemas de singularidad. Además, ε(si , ti ) se
construye asumiendo un campo aleatorio Gaussiano, para un modelo espacio-
temporal no separable asociado con una pepita τ 2 = 1 y media 0. Para los
parámetros de tendencia, se asume los siguientes valores β0 = 10, β1 = −4,
136 Capı́tulo 5. Modelo DB para la predicción espacio-temporal usando funciones de base radial

Tabla 5.2: Escenarios considerados en los experimentos simulados espacio-


temporales

Factor Forma genérica


zj (si , ti ) = β0 + β1 Vi + β2 Di2 + β3 Di3 + β4 ti + f (wxi ) + f (wyi ) + f (ti ) + f (wxi )f (wyi )
Nivel de
+f (wxi )f (ti ) + f (wyi )f (ti ) + σj ε(si , ti )
ruido
donde σj = 0.02 + 0.04(j − 1)2
zj (si , ti ) = β0 + β1 Vi + β2 Di2 + β3 Di3 + β4 ti + f (Xji ) + f (Yji ) + f (Tji ) + f (Xji )f (Yji )
Densidad +f (Xji )f (Tji ) + f (Yji )f (Tji ) + σε(si , ti )
de diseño donde σ = 0.1, Xji = Fj−1 (Xi ), Yji = Fj−1 (Yi ), Tji = Fj−1 (Ti ) con Ti = ti /tmax ,
tmax = 6, 10
zj (si , ti ) = β0 + β1 Vi + β2 Di2 + β3 Di3 + β4 ti + f (wxi ) + f (wyi ) + f (ti ) + f (wxi )f (wyi )
Variación
+f (wxi )f (ti ) + f (wyi )f (ti ) + σε(si , ti )
espacio- " n o#
p 2π 1+2(9−4j)/5
temporal donde σ = 0.2, fj (li ) = li (1 − li ) sin (9−4j)/5
li +2

Función zj (si , ti ) = β0 + β1 Vi + β2 Di2 + β3 Di3 + β4 ti + f (wxi ) + f (wyi ) + f (wxi )f (wyi )



de vari- + ς1 + ς2 + ς3 + ς1 ς2 + ς1 ς3 + ς2 ς3 ε(si , ti )
anza donde ς1 = υj (wxi ), ς2 = υj (wyi ), ς3 = υj (ti ), υj (li ) = {0.15 [1 + 0.4(2j − 7)(li − 0.5)]}2
Los supuestos y otras elecciones
iid
Vi ∼ Binomial(n, 0.4); ε(si , ti ) ∼ N (0, 0.1); n = 150 (25 puntos en el espacio y 6 puntos en el tiempo)
 
y n = 250 (25 puntos en el espacio y 10 puntos en el tiempo); Fj es la Beta j+4 5
, 11−j
5
; j = 1, 3;
     2
li −0.5 li −0.8 1 −u iid
f (li ) = 1.5f1 0.15
− f1 0.04
; f1 (u) = √ exp 2
; Xi , Yi , Ti ∼ U nif orm (0, 1);

li = wxi , wyi , ti ; i = 1, . . . , n

β2 = 2 y β3 = −4, con wxi y wyi asociados a las coordenadas espaciales, y ti


asociado al tiempo, donde i es la i-ésima observación simulada. En la Tabla
5.3, se presentan los escenarios simulados. El método propuesto se prueba con
cinco RBFs (MQ, TPS, CRS, ST y EXP), considerando el modelo métrico
dado en (5.15) con q1 = q2 = 1. Un total de 80 escenarios fueron simulados, y
para cada uno de ellos, el proceso se repitió 100 veces.

Para cada conjunto de datos simulados, se evaluó la calidad del ajuste con
el RMSPE obtenido mediante el método de validación cruzada (leave-one-out).
Los resultados se muestran en las Tablas 5.4 y 5.5. Inicialmente se consideró
usar un parámetro positivo para ρ, pero los valores de RMSPE no mostraron
diferencias significativas con los obtenidos cuando ρ = 0; en particular, cuando
las funciones de base radial MQ, EXP, CRS y GAU fueron utilizadas.

Las Tablas 5.4 y 5.5 muestran los valores medios de RMSPEs obtenidos
de 100 simulaciones por caso y para los 80 casos descritos en la Tabla 5.3.
El método DBSTIRBF funciona bien para vecindarios grandes, lo que indica
5.3 Estudio de simulación y discusión 137

Figura 5.1: Localización de los puntos de muestreo y regiones asociadas a la


definición de la variable nominal

Tabla 5.3: Escenarios espacio-temporales simulados (los números naturales en las


últimas cinco columnas (de 1 a 80) representan el número del escenario)

Parámetros del modelo Función de base radial


n
η j nh MQ TPS CRS ST EXP
150 1 17 33 49 65
8
250 2 18 34 50 66
1
150 3 19 35 51 67
32 250 4 20 36 52 68
0.01
150 5 21 37 53 69
8
250 6 22 38 54 70
3
150 7 23 39 55 71
32 250 8 24 40 56 72
150 9 25 41 57 73
8
250 10 26 42 58 74
1
150 11 27 43 59 75
32
250 12 28 44 60 76
0.1
150 13 29 45 61 77
8
250 14 30 46 62 78
3
150 15 31 47 63 79
32
250 16 32 48 64 80

una ganancia (vista en un decrecimiento) de 70.6% de los valores medios de


138 Capı́tulo 5. Modelo DB para la predicción espacio-temporal usando funciones de base radial

Tabla 5.4: Promedios de RMSPEs bajo el método DBSTIRBF en los escenarios


espacio-temporales presentados en la Tabla 5.3 (casos nivel de ruido y
densidad de diseño)

Parámetro Nivel de ruido Densidad de diseño


n
η j nh MQ TPS CRS ST EXP MQ TPS CRS ST EXP
150 2.49 2.48 2.49 2.48 2.48 2.61 8.06 8.05 8.05 8.05
8
250 1.71 1.71 1.70 1.70 1.70 1.63 1.67 1.66 1.66 1.65
1
150 1.58 1.78 1.41 1.60 1.56 1.50 1.75 1.33 1.56 1.48
32
0.01

250 1.54 1.58 1.56 1.55 1.54 1.42 1.53 1.29 1.46 1.41
150 2.55 2.54 2.55 2.55 2.55 3.43 3.56 3.56 3.56 3.55
8
250 1.75 1.74 1.74 1.74 1.74 1.67 11.77 11.85 11.77 5.03
3
150 1.59 1.78 1.44 1.61 1.57 1.48 1.72 1.35 1.54 1.46
32
250 1.54 1.58 1.55 1.55 1.54 1.44 1.53 1.38 1.48 1.44
150 2.49 2.48 2.52 2.48 2.49 2.60 8.05 8.13 8.06 2.60
8
250 1.71 1.71 1.70 1.71 1.70 1.64 1.66 2.10 1.66 1.63
1
150 1.82 1.79 1.54 1.78 1.56 1.74 1.74 1.39 1.74 1.48
32
250 1.59 1.58 1.56 1.58 1.54 1.52 1.52 25.56 1.52 1.41
0.1

150 2.55 2.54 2.58 2.54 2.55 3.45 3.56 3.64 3.56 3.45
8
250 1.75 1.74 1.74 1.74 1.74 1.92 5.69 11.84 5.69 1.92
3
150 1.82 1.79 1.52 1.78 1.57 1.72 1.72 1.44 1.72 1.46
32
250 1.59 1.58 1.56 1.58 1.53 1.53 1.53 1.49 1.53 1.44

RMSPE cuando nh = 32 con respecto a nh = 8. Cuando η = 0.1, hay en


general una ligera reducción de 2.5% comparado con η = 0.01 en los valores
medios de RMSPE. Teniendo en cuenta el parámetro j, hubo en general una
ligera reducción (pérdida) de 1.43% en los valores medios de RMSPE cuando
j = 3 comparado con j = 1. Mientras que para cuando n = 150, los valores
medios de RMSPE fueron 15% más grandes que los obtenidos cuando n = 250.

En cuanto a los escenarios asociados a las formas genéricas, los valores


más bajos de RMSPE correspondieron a los casos de nivel de ruido y función
de varianza, con valores medios de RMSPE de 1.86 y 1.90, respectivamente.
Para los casos, densidad del diseño y función de varianza espacio-temporal,
los valores medios de RMSPE fueron de 3.38 y 2.16, respectivamente. En
cuanto al método DBSTIRBF, se encuentra que: i) para el caso el nivel de
ruido, el método DBSTIRBF que produjo el valor promedio de RMSPE más
bajo fue la CRS, mientras que la TPS presentó el más alto, ii) para el caso
densidad del diseño, el método DBSTIRBF con promedio de RMSPE más
5.3 Estudio de simulación y discusión 139

Tabla 5.5: Promedios de RMSPEs bajo el método de DBSTIRBF de los escenarios


espacio-temporales presentados en la Tabla 5.3 (casos variación espacio-
temporal y función de varianza)

Parámetro Variación espacio-temporal Función de varianza


n
η j nh MQ TPS CRS ST EXP MQ TPS CRS ST EXP
150 3.00 3.77 3.78 3.77 3.78 2.61 2.60 2.61 2.60 2.61
8
250 1.74 1.79 1.78 1.79 1.76 1.81 1.84 1.83 1.83 1.83
1
150 1.49 1.74 1.36 1.55 1.48 1.56 1.76 1.45 1.60 1.55
32
0.01

250 1.45 1.54 1.39 1.48 1.44 1.50 1.57 1.51 1.53 1.50
150 2.55 3.35 3.34 3.34 2.94 2.60 2.59 2.60 2.59 2.60
8
250 1.88 3.05 3.04 3.04 2.02 1.80 1.81 1.81 1.81 1.81
3
150 1.55 1.85 1.37 1.64 1.53 1.56 1.76 1.44 1.60 1.55
32
250 1.52 1.64 1.41 1.57 1.51 1.50 1.57 1.51 1.53 1.50
150 3.00 3.77 3.81 3.77 3.01 2.60 2.60 2.64 2.60 2.61
8
250 1.74 1.78 1.78 1.79 1.75 1.83 1.84 1.83 1.84 1.83
1
150 1.73 1.73 1.48 1.73 1.48 1.78 1.77 1.53 1.76 1.55
32
250 1.53 1.53 1.52 1.53 1.44 1.57 1.57 1.55 1.57 1.50
0.1

150 2.57 3.36 3.42 3.35 2.56 2.59 2.59 2.62 2.59 2.59
8
250 1.94 3.04 3.17 3.05 1.95 1.81 1.81 1.80 1.81 1.80
3
150 1.83 1.84 1.52 1.84 1.52 1.78 1.77 1.53 1.76 1.55
32
250 1.64 1.64 1.58 1.64 1.51 1.57 1.57 1.55 1.57 1.49

pequeño fue el construido con la MQ, mientras que con CRS mostró una vez
más el RMSPE más alto, iii) en términos de variación espacio-temporal, el valor
promedio de RMSPE más bajo se observó con la MQ, mientras que la TPS
ha mostrado una vez los valores medios de RMSPE más altos, y iv) en el caso
función de varianza el método DBSTIRBF con mejores resultados en términos
de promedios de RMSPE fue el construido con la CRS, y otra vez, el método
DBSTIRBF construido con la función TPS muestra los peores resultados.

Dado que los valores promedios de RMSPEs fueron mayores en aquellos


casos con un tamaño de muestra n = 150 con respecto a los casos con el
tamaño de la muestra n = 250, estos casos se muestran en diagramas de caja
por separado, véanse las Figuras 5.2 y 5.3. En estos gráficos, se encuentra que
los valores medios de RMSPE son menores para nh = 32 con respecto a nh = 8.
Además, de acuerdo a la Figura 5.2, se tiene lo siguiente: i) en términos de
nivel de ruido, se encontró una menor variabilidad cuando j = 1 y nh = 8,
mientras que cuando nh = 32 se encuentran menores valores de RMSPE, ii)
140 Capı́tulo 5. Modelo DB para la predicción espacio-temporal usando funciones de base radial

en el caso de densidad del diseño, el método DBSTIRBF que mostró la mayor


variabilidad fue el TPS, mientras que las funciones de base radial MQ y EXP
muestran una menor variabilidad, especialmente para j = 1 y nh = 32, iii)
bajo el escenario de variación espacio-temporal, cuando j = 1 y nh = 8 se
observa en general una gran variabilidad, a excepción de la función base radial
EXP cuando η = 0.1, y iv) para el caso función de varianza, la variabilidad
fue similar en todas las funciones de prueba. En general, los valores promedio
de RMSPE más grandes se encontraron para el tamaño de vecindario nh = 8.

De acuerdo a la Figura 5.3, se nota que: i) cuando se considera el nivel de


ruido, hay una mayor variabilidad con j = 3, incrementándose el valor prome-
dio de RMSPE con nh = 8; ii) en el caso densidad del diseño, las funciones de
base radial TPS, CRS y ST muestran mayor variabilidad con j = 3 y nh = 8,
independientemente de η, mientras que para las funciones de base radial MQ
y EXP, las mayores variabilidades se muestran para j = 3 y nh = 8 pero
con η = 0.1 y η = 0.01, respectivamente, iii) en el caso de variación espacio-
temporal, la mayor variabilidad fue para j = 3 y nh = 8, sobre todo para las
funciones de base radial ST y TPS, y la menor variabilidad fue para la función
de base radial CRS, y iv) para el caso función de varianza, la variabilidad fue
menor para las funciones de base radial ST y TPS, en especial cuando nh = 32.
En general, el valor medio de RMSPE fue menor cuando nh = 32.

5.4 Aplicación

El conjunto de datos empleado en esta aplicación corresponde al utilizado en


la Subsección 3.4.1 del Capı́tulo 3 y que fue estudiado por Hengl (2009). En
esta aplicación se analiza la temperatura media mensual terrestre en Croacia
a partir de 155 estaciones meteorológicas. La temperatura media fue medida
desde enero hasta diciembre de 2008. Tal como se explicó en la Sección 3.4.1
del Capı́tulo 3 en la mayorı́a de las estaciones meteorológicas, la temperatura
se mide tres veces al dı́a, a las 7 am, 1 pm y 9 pm, y la media de la temperatura
diaria (∆T en un dı́a) se calcula como un promedio ponderado, de acuerdo a
5.4 Aplicación 141

Nivel del ruido Función de diseño Variación espaciotemporal Función de varianza


4.5 3.0

5
4.0
2.5

2.5
3.5
4
MQ

3.0

2.0
3 2.0
2.5

2.0
2
1.5 1.5

1.5
1

11

13

15

11

13

15

11

13

15

11

13

15
2.8 12
2.8
7

2.6
10
2.6
6
TPS

2.4
2.4
8
5

2.2 2.2
6
4

2.0 2.0

4 3
1.8
1.8

2
2
1.6
1.6
17

19

21

23

25

27

29

31

17

19

21

23

25

27

29

31

33

17

19

21

23

25

27

29

31

17

19

21

23

25

27

29

31
12

2.5 10
6 2.5
CRS

8
5

2.0
2.0
6 4

3
4
1.5
1.5
2
2
33

35

37

39

41

43

45

47

35

37

39

41

43

45

47

33

35

37

39

41

43

45

47

33

35

37

39

41

43

45

47
2.8 12

7
2.6
10
6 2.5
2.4

8
ST

5
2.2

2.0 6 4 2.0

1.8
4 3

1.6
2
2 1.5

1.4
49

51

53

55

57

59

61

63

49

51

53

55

57

59

61

63

49

51

53

55

57

59

61

63

49

51

53

55

57

59

61

63

12
7

2.5 10 6
2.5
EXP

8 5

2.0 4
6 2.0

3
4

1.5 2 1.5
2
65

67

69

71

73

75

77

79

65

67

69

71

73

75

77

79

65

67

69

71

73

75

77

79

65

67

69

71

73

75

77

79

Figura 5.2: RMSPE para los escenarios espacio-temporales simulados con 6 tiempos
142 Capı́tulo 5. Modelo DB para la predicción espacio-temporal usando funciones de base radial

Nivel de ruido Función de diseño Variación espaciotemporal Función de varianza

1.9 2.4
2.2

2.0
MQ

1.8 2.2
2.0

1.7 1.8 2.0

1.8

1.8
1.6
1.6
1.6
1.6
1.5

1.4 1.4
1.4
1.4
2

10

12

14

16

10

12

14

16

10

12

14

16

10

12

14

16
25 2.4
4.5

1.9
TPS

4.0
20 2.2

3.5
1.8
15 2.0
3.0

1.7
10 2.5
1.8

2.0
1.6
5
1.6
1.5
18

20

22

24

26

28

30

32

18

20

22

24

26

28

30

32

18

20

22

24

26

28

30

32

18

20

22

24

26

28

30

32
2.4
4.5
25
1.9
CRS

4.0 2.2

20
1.8 3.5
2.0

15 3.0
1.7 1.8

2.5
10
1.6
1.6
2.0
5
1.4
1.5 1.5
34

36

38

40

42

44

46

48

34

36

38

40

42

44

46

48

34

36

38

40

42

44

46

48

34

36

38

40

42

44

46

48
25 2.4
4.5

1.9
4.0
20 2.2
ST

1.8 3.5

15 2.0
3.0
1.7

2.5 1.8
10

1.6
2.0
1.6
5

1.5 1.5

1.4
50

52

54

56

58

60

62

64

50

52

54

56

58

60

62

64

50

52

54

56

58

60

62

64

50

52

54

56

58

60

62

64

2.4
4.0
1.9
EXP

10
2.2
3.5
1.8
8
2.0
3.0
1.7

6
1.8
2.5
1.6

4
2.0 1.6
1.5

2
1.5 1.4
1.4
66

68

70

72

74

76

78

80

66

68

70

72

74

76

78

80

66

68

70

72

74

76

78

80

66

68

70

72

74

76

78

80

Figura 5.3: RMSPE para los escenarios espacio-temporales simulados con 10 tiempos
5.4 Aplicación 143

la siguiente expresión
T(7am) + T(1pm) + 2 · T(9pm)
∆T =
4

Luego la temperatura media mensual se obtiene de la media diaria men-


cionada anteriormente, teniendo en cuenta que se dispone de una composición
de imágenes (imágenes MODIS de 1 km de resolución, de 8 dı́as, dispuestas
al público) de la temperatura media diaria, es decir, de 3 a 4 registros men-
suales. Las mediciones de temperatura se recogen automáticamente en 159
estaciones meteorológicas. Como cuatro estaciones meteorológicas no tenı́an
registros disponibles para unos meses, entonces dichas estaciones se retiraron
del análisis. Por lo tanto, se consideran sólo 155 estaciones y se calcula con
los valores observados removiendo los datos faltantes (o perdidos) la tempera-
tura media mensual. La distribución espacial de las estaciones no es optima
(Zaninovic et al. 2008, Perčec Tadić 2010), hay un cierto submuestreo a mayor
altitud y en áreas con menor densidad de población; por razones prácticas, las
zonas de mayor densidad de población se les dio prioridad. Por lo tanto, se
podrı́a esperar que la precisión de la cartografı́a sea menor a mayor altitud y
en las tierras altas (Hengl 2009).

Las coordenadas wx y wy se obtuvieron a partir de una transformación


de coordenadas geográficas (latitud y longitud) a un sistema de coordenadas
cartesianas. La localización de las 155 estaciones meteorológicas se muestra
en la Figura 5.4(a) (localizaciones espaciales). Las coordenadas principales se
calculan a partir de la descomposición espectral generada por: las coordenadas
espaciales (wx , wy ), el mes, el modelo digital de elevación (DEM, en metros),
la distancia topográfica ponderada desde la lı́nea a la costa (DSEA, en km),
el ı́ndice de humedad topográfica (TWI) y la estación climatológica del año.
Tanto las coordenadas espaciales como el tiempo se estandarizaron para dar
igual peso a todas las dimensiones (espacio-tiempo). Además, una regresión
basada en distancias espacio-temporal se realizó con las coordenadas princi-
pales y la temperatura media mensual terrestre. En este proceso, se encontró
que cada una de las 10 primeras coordenadas principales tenı́an una alta signi-
ficancia estadı́stica, a un nivel del 5%, con la temperatura media de terrestre.
La regresión basada en distancias espacio-temporal explicó el 96.1% de la va-
144 Capı́tulo 5. Modelo DB para la predicción espacio-temporal usando funciones de base radial

(a) Localizaciones espaciales (b) DEM

(c) DSEA (d) TWI

Figura 5.4: Localizaciones espaciales de las estaciones meteorológicas en Croacia y


predictores estáticos topográficos: Modelo Digital de Elevación (DEM,
en metros), la distancia topográfica ponderada desde la lı́nea de costa
(DSEA, en km) y el ı́ndice de humedad topográfica (TWI)

riabilidad de las temperaturas mensuales. Por lo tanto, estas 10 coordenadas


principales se tuvieron en cuenta en la tendencia, y por último, LOOCV con-
siderando los 30 vecinos mas cercanos se llevó a cabo para evaluar la calidad
5.4 Aplicación 145

en el ajuste del método DBSTIRBF, esto asociado al menor RMSPE.

Además, el método LOOCV utilizando el modelo métrico dado en (5.15)


con los parámetros q1 = q2 = 1 fue utilizado para comprobar el rendimiento
de los seis modelos de esta aplicación. La Tabla 5.6 muestra los valores de
RMSPE para los resultados de interpolación en las seis funciones de base ra-
dial espacio-temporales y las funciones de base radial que muestran los valores
más pequeños de RMSPE son la CRS y la ST. Los mapas de predicción co-
rrespondientes se muestran en la Figura 5.5.

Tabla 5.6: Comparación de algunos métodos DBSTIRBF para las temperaturas


promedios mensuales de 2008 en Croacia con LOOCV

MQ TPS CRS ST EXP GAU


η 0.001 0.001 0.200 0.001 0.001 0.010
ρ 0.000 0.001 0.000 0.100 0.000 0.000
RMSPE 2.333 2.284 2.242 2.251 2.311 2.274
146 Capı́tulo 5. Modelo DB para la predicción espacio-temporal usando funciones de base radial

Figura 5.5: Mapas de predicción de la temperatura promedio mensual de la tierra


en Croacia bajo el método DBSTIRBF en enero, abril, julio y octubre
(unidades de las coordenadas este y norte en 100.000 metros)
Capı́tulo 6

Funciones geoestadı́sticas y
funciones de base radial en el
programa R: Paquete geospt

6.1 Introducción

El presente capı́tulo presenta una serie de funciones desarrolladas e implemen-


tadas en el programa estadı́stico R. En cuanto a las funciones de base radial
implementadas y puestas en la librerı́a geospt, estas no consideran tendencia,
la cual es considerada en las funciones presentadas en los Capı́tulos 4 y 5 de
la presente tesis, las funciones asociadas con la tendencia se presentan en el
Apéndice A, las cuales esta fundamentalmente asociadas con las coordenadas
principales. Se espera próximamente cargarlas con un instructivo en esta li-
brerı́a junto con las demás funciones implementadas en esta investigación.

Para realizar un análisis geoestadı́stico es necesario considerar una serie


de pasos: un primer paso consiste en analizar la calidad y la cantidad de
datos requeridos, es decir el muestreo espacial. El segundo paso es el análisis
exploratorio, el cual se basa en el uso de técnicas estadı́sticas convencionales y
en el análisis estructural de los datos, con el objetivo de identificar la presencia
de anisotropı́a o isotropı́a y la tendencia. En el modelado del variograma, se
148 Capı́tulo 6. Funciones geoestadı́sticas y funciones de base radial en el programa R: Paquete geospt

evalúa la relación espacial entre los valores de la variable regionalizada, y


se ajusta un modelo de variograma al variograma experimental. Una vez el
modelo de variograma se encuentra, los valores de predicción se pueden generar
usando la interpolación Kriging para la construcción del mapa de predicción
de la variable explicada. Sin embargo, hay métodos deterministas, donde el
modelo de interpolación no requiere de un modelo de variograma, como es el
caso de las RBFs explicadas en los capı́tulos previos. Después de esto, para
elegir el mejor método de interpolación se utiliza la validación cruzada. El
último paso consiste en la generación de los mapas de predicciones de la variable
regionalizada y de las desviaciones estándar, junto con su interpretación y
análisis.

Actualmente, la realización de estos procedimientos es viable gracias a los


modernos programas informáticos existentes. Sin embargo, no se puede decir
que exista un sólo programa informático que tenga implementadas todas las
herramientas geoestadı́sticas, esto junto con la carencia de funciones en el
programa R en cuanto a las funciones de base radial espaciales y espacio-
temporales, y con respecto a el pocket plot, entre otras, motiva la realización
de la librerı́a expuesta aquı́, la cual fue útil en el desarrollo de esta investigación.

Proponemos una serie de funciones que están diseñadas en el programa R.


Estas permiten un análisis geoestadı́stico más completo junto con la ayuda
de paquetes previamente diseñados en R, tales como: geoR, gstat y sgeostat,
entre otros. De esta manera, estas contribuciones son: una función para la
construcción del variograma experimental de la media recortada, una función
para la construcción del pocketplot para datos grillados (útil para el análisis
de estacionariedad local), y funciones de base radial (multicuadrática, mul-
ticuadrática inversa, spline con tensión, completamente regularizada spline y
spline capa delgada) para optimizar, predecir y realizar validación cruzada en el
espacio, una función para producir un gráfico que muestra el comportamiento
del parámetro ETA, asociado con la función de base radial, y una función que
genera una tabla con el resumen de las estadı́sticas de la validación cruzada
para evaluar la exactitud de los métodos de interpolación (geoestadı́sticos y
deterministicos) con base en los errores de predicción. Se describen breve-
6.2 Implementación de funciones geoestadı́sticas en R 149

mente algunas de las funciones, y luego se ilustra su funcionamiento con varios


ejercicios. El paquete esta implementado en el programa (R Development
Core Team (2012)) y se encuentra disponible en el Comprehensive R Archive
Network (CRAN) en http://cran.r-project.org/web/packages/geospt

6.2 Implementación de funciones geoes-


tadı́sticas en R

En esta sección enfatizamos el uso de herramientas informáticas en el programa


R, asociado con los conceptos teóricos definidos en algunas secciones anteriores.

6.2.1 Pocket plot

El Pocket Plot (llamado ası́ debido a su uso en la detección de bolsillos de


no estacionariedad) es una técnica necesaria para identificar un área locali-
zada atı́pica con respecto al modelo de estacionariedad, es construida para
aprovechar la naturaleza espacial de los datos a través de las coordenadas de
filas y columnas (estes ”x” y nortes ”y” respectivamente). Para la ilustración
de este ejemplo, ver la siguiente Figura 6.1

En geoestadı́stica se pretende estimar las relaciones espaciales entre los


datos de los puntos (modelamiento del variograma). Luego este estimado es
usado para el desarrollo del método kriging y para estimar la variabilidad
del predictor. Aunque el estimador de Cressie & Hawkins (1980), ofrece una
estimación robusta para el variograma, hay aun una fracción de las diferen-
cias (Zi − Zj ), que resulta ser inapropiada en la estimación del variograma de
Cressie. Las ubicaciones sobre la grilla que exhiben diferentes medidas del resto
se deben identificar. Estos bolsillos de no estacionariedad, una vez descubier-
tos, pueden ser removidos de la estimación del variograma, pero naturalmente
eventualmente deben ser modelados e incorporados en las apreciaciones finales
del recurso analizado. El Pocket Plot “Gráfico de Bolsillo”, es una simple idea
150 Capı́tulo 6. Funciones geoestadı́sticas y funciones de base radial en el programa R: Paquete geospt

8.59 9 11.86 8.91 9.99

11.62 10.91 8.76 8.89 9.1 7.62 9.65

10.39 10.65 10.36 9.58 10.66 8.92 7.8 7.84 9.03 8.6

20
9.79 9.06 10.7 11.21 8.98 9.27 8.19 7.88 7.61 8.2 8.77

10.74 12.8 10.03 9.36 8.57 9.01 9.04 7.28 9.58 9.69 9.96 9.91

11.21 9.89 10.34 8.2 9.82 10.06 8.58 8.89 8.64 7.04 8.81 7.95

9.97 9.7 9.84 10.29 9.84 10.01 9.01 7.68 9.25 7.83 9.14 7.63 9.07

15 11.17 10.14 9.93 10.27 10.21 11.09 10.63 8.82 10.18 9.34 8.61

9.92 10.82 11.65 8.96 9.88 8.9 10.18 9.34 10.56 9.06

10.21 10.73 9.46 9.35 9.78 10.38 9.79 8.91 9.22 11.43

12.5 9.63 10.82 10.12 9.4 9.48 10.99 9.92 7.85 8.21
y

9.92 11.05 10.11 11.46 10.41 8.45 8.9 8.07 7.96 7 7.9

11.31 9.41 9.37 11.21 9.93 10.7 9.27 9.28 10.13 8.61 8.78
10

11.15 9.91 10.17 10.55 11.61 9.16 10.04 11.19 8.1 11.3

10.82 11.75 9.78 11 9.79 10.19 9.15 8.15 9.2

10.01 8.23 11.04 10.28 13.07 10.47 11.58 9.46 8.54 10.87

10.39 11.11 10.96 10.83 10.09 8.69 11.17 9.39 9.56

10.41 10.82 17.61 10.87 13.06 11.41 9.96 9.15


5

9.76 11.1 10.8 8.86 9.48 9.22 9.61 8.2

10.93 10.94 9.53 10.61 10.27 9.59 9.82 7.81

9.64 9.52 10.06 12.65 9.63

9.29 8.75 8.96 8.27 8.14

10.59 10.43 9.32

5 10 15

Figura 6.1: Ubicación espacial de una muestra de cenizas de carbón (coal-ash), las
unidades están en % en ubicaciones reorientadas (Cressie, 1993)

1
que se ilustrará sobre las diferencias norte-sur de los datos de coal-ash Con-
centrados sobre la fila j de la grilla, para alguna otra fila, k por ejemplo, hay
un cierto número Njk , de diferencias de datos definidas, cuyas localizaciones
están a una distancia h =| j − k | en la dirección norte-sur. Sea Y jk la media
de estas | dif erencias |1/2 , promediadas sobre los Njk términos, y se define:

1 X
Yh = | Zi − Zj |1/2 (6.1)
| N (h) |
N (h)

Y h es una media ponderada de los Y jk s tales que | j − k |= h. Luego se define

Pjk = Y jk − Y h (6.2)

(Pjk : k = 1, 2, . . .), es la contribución del residual de la fila j, al estimador


del variograma en la diferencia de rezagos. Idealmente, estos puntos serán
repartidos a ambos lados del cero, pero si hay algo inusual en la fila j, entonces
1
“Este registro de datos del porcentaje de coal ash encontrado en muestras mineras
originalmente reportadas por Gomez & Hazen (1970) y posteriormente utilizado Cressie
(1993). Los datos se pueden descargar de la librerı́a gstat o sp del programa R”
6.2 Implementación de funciones geoestadı́sticas en R 151

se dará una singular contribución en todos los rezagos y tı́picamente mostrará


una dispersión de puntos por encima del nivel cero. Ahora la fila j varı́a y
dispersa los puntos, lo que constituye el diagrama de bolsillo, ilustrado en la
Figura 6.2, donde la parte central de la dispersión se sustituye por la caja de
un diagrama de caja (Velleman & Hoaglin 1981, chap. 3)

2
1.0

2.0
6 2 6

22 2
0.8

6 6

1.5
6 3 23 14 8 2 6 6
6
6 8
8 2
22 2
0.6

6 6 6
6 8 6 6

1.0
6 6 6
6 6 6 2 6
12 6 6 12
23 23
6 2
0.4

9 8 2 23 6
8 6 6
6 22 6 10
3

Q(jk)
P(jk)

2 22 6

0.5
2
8 2
0.2

0.0
0.0

−0.5
−0.2

−1.0

21
21 21
−0.4

21

1 3 5 7 9 11 13 15 17 19 21 23 1 3 5 7 9 11 13 15 17 19 21 23

Row Number Row Number

(a) Probabilidad: Unidades sobre el eje vertical (b) Varianzas estandarizadas.

están en (%coalash)1/2

Figura 6.2: POCKET-PLOT en dirección sur-norte: Claramente las filas 2, 6,


y 8 son atı́picas, esto sirve como verificación de que estas filas son
potencialmente problemáticas.

Una modificación adicional del pocket plot serı́a graficar valores normali-
zados de Pjk , el gráfico puede ser obtenido a partir de:
( ! )
1/2 Y jk
Qjk =Njk −1 (6.3)
Yh

A partir de los resultados de (Cressie 1985), var(Pjk ) = (2γ(h))(1/2) /Njk la


cual justifica el cálculo de Qjk . Este cambio sólo afectará la diseminación
de los puntos y no el panorama general de estar por encima del nivel cero
(Cressie 1993).

Función pocket.plot()
152 Capı́tulo 6. Funciones geoestadı́sticas y funciones de base radial en el programa R: Paquete geospt

Para este caso, consideraremos la base de datos coalash mencionada an-


teriormente. La función requiere el nombre del data.frame, el tipo de gráfico
asociado con la probabilidad o la varianza estandarizada del pocket plot en
las direcciones sur-norte o este-oeste; pocketplot de probabilidades por fila, es
decir, horizontal “sur-norte” “PPR”, pocketplot de probabilidades por colum-
nas, es decir, vertical “este-oeste” “PPC”, pocketplot de varianza por filas, es
decir horizontal “sur-norte” “PVR” y pocketplot de varianzas por columnas,
es decir vertical “este-oeste” “PVC”, las coordenadas “X” y “Y”, el nombre
de la variable a analizar “Z”, y la identificación de los atı́picos (automática
“F” o personal “T”). El siguiente código en R, describe la situación de un
análisis de estacionariedad local en probabilidades del % ceniza de carbón en
dirección sur-norte:

library(gstat)
library(geospt)
data(coalash)
pocket.plot(coalash,"PPR",coalash$x,coalash$y,coalash$coalash, F)

El gráfico obtenido se muestra en la Figura 6.2a y el gráfico asociado con


varianzas estándar se muestra en la Figura 6.2b.

6.2.2 Variograma media recortada

Para este variograma, se programo modificando la suma en la formula de


Cressie-Hawkins establecida en la expresión (1.6) por la media recortada, ası́
  1 4
2
trim.m Ẑ (si ) − Ẑ (sj )

γ̂(h) = (6.4)
0.457 + 0.494/N (h)

En esta modificación del variograma el usuario puede escoger el porcentaje del


recorte. Ası́, en el caso de un recorte del 50%, el variograma estimado coincidirá
con el variograma de la mediana, el cual es mas robusto ante la presencia de
atı́picos, mientras que si el porcentaje de recorte es del 0%, el estimador para
el variograma de la media recortada coincidirá con el estimador robusto de
6.2 Implementación de funciones geoestadı́sticas en R 153

Cressie-Hawkins. En Bárdossy (2001) se compara el estimador clásico, robusto


y media recortada (con un recorte del 10%) y se considera un atı́pico para
evaluar el funcionamiento de los 3 variogramas. Encontramos que el estimador
para el variograma de la media recortada produce mejores resultados ante la
presencia de atı́picos y por lo tanto es más robusto, resultados similares se
muestran por medio de simulaciones en Roustant et al. (2007).

La función propuesta est.variograms() esta estructurada a partir de la


función est.variogram() del paquete sgeostat en http://cran.rproject.org/
web/packages/sgeostat. Implementamos el variograma de la media recor-
tada, adicionando en su funcionamiento la instrucción trim, correspondiente
al porcentaje de recorte del variograma experimental en caja bandeja (bin).
En este ejemplo consideramos la base de datos maas del paquete sgeostat,
especificando un porcentaje de recorte del 10% como se explica a continuación
en el programa R:

library(sgeostat)
data(maas)
maas.point <- point(maas)
maas.pair <- pair(maas.point, num.lags=24, maxdist=2000)
maas.v <- est.variograms(maas.point,maas.pair,’zinc’,trim=0.1)
maas.v

La salida obtenida incluyendo a los variogramas experimentales ya men-


cionados el de la mediana es

lags bins classic robust med trimmed.mean n


1 1 41.66667 101947.2 65465.76 36286.13 57015.22 31
2 2 125.00000 113158.9 61238.92 33444.66 51991.43 184
3 3 208.33333 143501.3 79790.82 53728.38 67770.61 279
4 4 291.66667 177257.6 101478.44 63406.79 86754.46 336
5 5 375.00000 239373.8 144476.65 103685.85 125286.53 367
6 6 458.33333 233764.5 145387.50 115946.06 125355.24 404
7 7 541.66667 273382.4 194285.17 186095.48 177289.00 421
8 8 625.00000 280300.4 197139.93 215218.63 180371.19 441
154 Capı́tulo 6. Funciones geoestadı́sticas y funciones de base radial en el programa R: Paquete geospt

9 9 708.33333 308830.8 227925.27 273564.52 207709.69 455


10 10 791.66667 297263.4 225228.13 240608.52 210802.15 447
11 11 875.00000 337402.5 250439.56 276672.91 230168.09 461
12 12 958.33333 321287.9 226290.79 246422.02 199083.61 433
13 13 1041.66667 342465.0 252177.03 262795.80 229030.66 417
14 14 1125.00000 371965.3 289594.79 303591.84 271317.58 387
15 15 1208.33333 309236.5 232539.63 234756.15 212280.02 386
16 16 1291.66667 315844.0 239704.08 238300.05 217875.01 360
17 17 1375.00000 347594.5 239448.38 246261.11 210848.17 343
18 18 1458.33333 300932.6 226781.23 226889.51 203460.52 354
19 19 1541.66667 290834.7 210952.98 183415.61 190246.32 330
20 20 1625.00000 260444.7 197217.81 163738.82 174456.98 327
21 21 1708.33333 315371.1 228165.97 206878.84 205701.77 319
22 22 1791.66667 270525.7 198176.63 163732.14 181498.03 323
23 23 1875.00000 255374.6 174233.92 147363.74 155691.27 288
24 24 1958.33333 275440.4 193038.79 168454.22 171184.29 277

6.2.3 Resumen estadı́sticas de la validación cruzada

Para generar el resumen de estadı́sticas de la validación cruzada, proponemos


la función criterio.cv(), Esta genera una matriz con los estadı́sticos presen-
tados en la Sección 1.7, obtenidos mediante LOOCV. Para que esta trabaje
correctamente, entramos un data.frame con las coordenadas de los datos, las
predicciones de la variable analizada, la predicción de la varianza del error es-
timado del krigeado, los valores observados de la variable analizada, los zscore
(se obtiene de los residuales divididos por los errores estándar del kriging), y
el fold. En el caso de usar la función rbf.tcv , la varianza de predicción y el
zscore estarán compuestos por NA’s. A continuación se muestra un ejemplo
para un kriging ordinario y una función de base radial TPS:

data(meuse)
coordinates(meuse) <- ~x+y
m <- vgm(.59, "Sph", 874, .04)
# leave-one-out cross validation:
6.2 Implementación de funciones geoestadı́sticas en R 155

out <- krige.cv(log(zinc)~1, meuse, m, nmax = 40)


criterio.cv(out)

MPE ASEPE RMSPE MSPE RMSSPE R2


1 0.006674145 0.4188814 0.3873933 0.01150903 0.924489 0.7101429

data(preci)
attach(preci)
# optimal eta
tab <- rbf.tcv(eta=0.1461, z=prec, coordinates=preci[,2:3],
n.neigh=9, func="TPS")
criterio.cv(tab)

MPE ASEPE RMSPE MSPE RMSSPE R2


1 0.8148734 NA 4.02535 NA NA 0.8071019

6.2.4 Funciones rbf

La función rbf() es construida a partir de la expresión (4.13) de la Subsección


4.2.1 sin considerar tendencia, es decir, Fs = 1 siendo 1 un vector de tamaño
n × 1, y requiere para su funcionamiento; el parámetro de suavizamiento eta,
la variable regionalizada z , las coordenadas de los puntos que fueron usados
para generar las predicciones (es decir la muestra) coordinates, las coordenadas
de los puntos a predecir o vector de puntos a predecir newdata, el número de
vecinos más cercanos n.neigh, este último si se desea un cierto tamaño de
vecindario, también es necesario especificar el tipo de RBF dado por func.

La función rbf.cv() construye un valor de RMSPE con la expresión dada


en el item ii. de la Sección 1.7, y requiere; eta, z , coordinates, n.neigh, y func.
La función RBF.phi() requiere; una distancia entre el par de puntos en las
localizaciones Si y Sj , eta y func. La función rbf.tcv() requiere eta, z , n.neigh,
y func, esta última es necesaria para el mapeo de la predicción de la variable
analizada, y para la construcción de las estadı́sticas de resumen de validación
cruzada.
156 Capı́tulo 6. Funciones geoestadı́sticas y funciones de base radial en el programa R: Paquete geospt

Para la función graph.rbf(), presentamos un ejemplo con la base de datos


preci incluida en el paquete geospt. Los datos corresponden a una muestra
empı́rica de precipitación. En la función se debe especificar; z , coordinates,
newdata, n.neigh, func, np número de puntos donde se calcula la función
de base radial, n.eta es factor de longitud del eje X, número de veces del
parámetro de suavizado eta, y P.T es un operador lógico (T=True o F=False)
para imprimir la tabla con los valores que generan el gráfico. A continuación se
muestra la gráfica obtenida con cuatro funciones de base radial implementadas.
18
16

FUNCTION: ETA RMSPE


Multiquadratic 0.2589 7.6918
Multiquadratic Inverse 1.4887 6.5681
Thin Plate Spline 0.1461 4.0254
14

Gaussian 0.4945 5.9634


12
RMSPE

10
8
6
4

0.0 0.5 1.0 1.5

ETA

Figura 6.3: Optimización de eta, en funciones de base radial

Como se muestra en la Figura 6.3, el menor RMSPE se genera con la spline


capa delgada.

La Tabla 6.1 provee una breve descripción de las funciones implementadas


en el paquete geospt.

6.2.5 Mapa de predicciones

Con la muestra utilizada en el capitulo 3, realizamos un mapa de predicción


de la temperatura media diaria terrestre para el 1 de diciembre de 2008, la dis-
6.2 Implementación de funciones geoestadı́sticas en R 157

Función Descripción
Extrae un resumen de valores estadı́sticos obtenidos de
criterio.cv()
LOOCV: M P E, ASEP E, RM SP E, M SP E, RM SSP E, R2 .
Calcula el variograma experimental: clásico, robusto, mediana,
est.variograms()
y media recortada (Cressie 1993, Bárdossy 2001)
Gráfica el pockeplot de probabilidad o varianza estandarizada
pocketplot()
en las direcciones sur-norte y este-oeste, (ver (Cressie 1993))
Extrae las predicciones a partir de las funciones: gau-
ssiana (GAU ), exponencial (EXPON ), trigonométrica (TRI )
rbf() spline capa delgada (TPS ), spline completamente regularizada
(CRS ), spline con tensión (ST ), inversa multicuadrática (IM ),
y multicuadrática (MQ)
rbf.cv() Genera un valor de RM SP E, resultado de LOOCV
Genera un valor numérico, obtenido de la función de base radial
generado a partir de; una distancia, un parámetro eta (η) de
RBF.phi()
suavizamiento, y una función ´´GAU”,´´EXPON”, ´´TRI”,
´´TPS”, ´´CRS”, ´´ST”, ´´IM” or ´´M”
Genera una tabla con las coordenadas de los datos, la
predicción, los valores observados, los residuos, la varianza de
rbf.tcv()
predicción, y el zscore (residual divido por el error estándar) de
la variable analizada, los cuales están asociados a la LOOCV
Genera un gráfico que describe el comportamiento del
graph.rbf() parámetro eta optimizado, asociado con la función de base ra-
dial

Tabla 6.1: Algunas funciones del paquete geosp

tribución de los datos se muestra en la Figura 6.4a. Inicialmente, realizamos la


optimización del parámetro η a partir de los datos previamente mencionados.
Para esto, trabajaremos con la función graph.rbf(). Esta función se utiliza para
las funciones de base radial mencionadas previamente en la Tabla 6.1, encon-
trando que la función multicuadrática es la que mejor ajusta estos datos, ası́
con el parámetro de suavizamiento η = 0.0001, tenemos un RM SP E = 1.873
158 Capı́tulo 6. Funciones geoestadı́sticas y funciones de base radial en el programa R: Paquete geospt

a partir de la expresión 3.16, esto se hace con la función rbf.cv(). La función


graph.rbf() trabaja con las funciones rbf.cv() (función asociada al RM SP E de
la función base radial) y optimize() (función optimizadora), (no se utilizó la
función optim(), descrita en Mittelhammer et al. (2000) ya que no demandaba
más tiempo que optimize()). Por último la función optimize() del programa
R descrita en Brent (1973), busca el valor óptimo del parámetro η asociado
con el RM SP E generado por la función rbf.cv(), en un intervalo para dicho
parámetro establecido por el usuario, por ejemplo para multicuadráticas los
óptimos para η suelen encontrarse cerca a 0, por lo cual un buen intervalo serı́a
entre 0 y 1. Los datos y el shapefile son precargados. Seguidamente se genera
una grilla de 70000 puntos dentro de la región analizada, con el fin de generar
predicciones de la temperatura media terrestre. Esta grilla es obtenida usando
la función spsample() del paquete sp. Las predicciones son generadas con la
función rbf(), esta función requiere el valor del parámetro ”eta”, la variable a
analizar ”z”, las coordenadas de los puntos muestreados coordinates, las coor-
denadas de los nuevos puntos newdata, el número de vecinos n.neigh, y el tipo
de función de base radial func. Estas predicciones son luego convertidas a un
objeto de clases SpatialPixelsDataFrame y sp, con la instrucción coordinates(),
del paquete sp, y finalmente con la función spplot() se obtiene el mapa de las
predicciones de la variable analizada, el cual se muestra en la Figura 6.4b.

library(gstat)
library(geoR)
# Consideramos los datos "dif.IDSTA3" de la aplicación del Capı́tulo 3
Datos <- read.table(".../dif.IDSTA3.txt", header=T, sep="",dec = ",")
readShapePoly(file(".../croatia.shp")
rbf.cv(eta=0.0001, z=Datos$TEMP, coordinates=Datos[,3:4], n.neigh=15,
func="M")
1.873115
# prediction case a grid of points
pts <- spsample(croatia.shp, n=70000, type="regular")
pred.rbf <- rbf(eta=0.0001, z=Datos$TEMP, coordinates=Datos[,3:4],
newdata=pts@coords, n.neigh=15, func="M")
coordinates(pred.rbf) = c("x", "y")
6.2 Implementación de funciones geoestadı́sticas en R 159

gridded(pred.rbf) <- TRUE


# muestra el mapa de predicción con la rbf multicuadrática
spplot(pred.rbf["var1.pred"], cuts=40, scales = list(draw =T),
col.regions=bpy.colors(100), key.space=list(space="right", cex=0.8))
5100000
5000000
Y

4900000
4800000
4700000

400000 500000 600000 700000 800000

(a) Ubicación de estaciones meteorológicas (b) Predicción de la temperatura media

terrestre, el 1 de diciembre de 2008

Figura 6.4: Mapa de Croacia

Algunas funciones que se presentan en el Apéndice A, aun no han sido


incorporadas en la librerı́a y próximamente esperamos dejarlas disponibles para
los usuarios del programa R.
160 Capı́tulo 6. Funciones geoestadı́sticas y funciones de base radial en el programa R: Paquete geospt
Capı́tulo 7

Conclusiones y futuras lı́neas de


investigación

7.1 Conclusiones

Se propusieron innovaciones en la predicción espacio y espacio-temporal, a


partir de métodos geoestadı́sticos kriging y de funciones de base radial, con-
siderando métodos basados en distancias. En este sentido, por medio de las
distancias entre las variables explicativas, incorporadas especı́ficamente en la
regresión basada en distancias, se propusieron modificaciones en: el método
kriging universal y en la interpolación con splines espacial y espacio-temporal
usando las funciones de base radial.

Como consecuencia de lo anterior, las principales aportaciones del trabajo


son: tres métodos propuestos para interpolación espacial y espacio-temporal
explicados en los Capı́tulos 3, 4 y 5, una librerı́a llamada geospt en el programa
R para: interpolación espacial con funciones de base radial sin tendencia y
análisis geoestadı́stico, descrita con detalle en el Capı́tulo 6. Además, una
serie de funciones diseñadas para realizar los métodos propuestos, que permiten
llevar a cabo interpolación espacial y espacio-temporal con tendencia basada
en distancias, optimización y validación cruzada “leave-one-out”, las cuales se
encuentran en el Apéndice A.

161
162 Capı́tulo 7. Conclusiones y futuras lı́neas de investigación

Los estudios de simulación permitieron validar el funcionamiento de los


métodos propuestos mostrando ventajas y desventajas bajo los escenarios pre-
sentados en los Capı́tulos 3, 4 y 5. Es ası́ como en el Capı́tulo 3, el estudio
de simulación permitió comparar la capacidad predictiva del método tradi-
cional kriging universal con respecto a kriging universal basado en distancias;
mientras que en los Capı́tulos 4 y 5, los estudios de simulación permitieron
comparar el funcionamiento de las funciones de base radial espaciales y espacio-
temporales, considerando en la tendencia las coordenadas principales genera-
das a partir de las variables explicativas mixtas mediante el uso del método
basado en distancias.

El método propuesto DBUK muestra, tanto en las simulaciones como en las


aplicaciones, ventajas en la reducción del error con respecto al método clásico
de krigeado universal. Esta reducción de los errores se asocia a una mejor
modelización de la tendencia y a un menor error en el ajuste y modelado
del variograma, al considerar las coordenadas principales obtenidas a partir
de las variables explicativas mixtas. Entre muchas otras posibles causas, el
error es generado por omisión de variables y por considerar formas funcionales
incorrectas.

Los resultados de esta investigación muestran que el nuevo método DBUK


es robusto a este tipo de situaciones en comparación con el método clásico de
krigeado universal. El estudio de simulación muestra que el método propuesto
DBUK es mejor que el método de krigeado universal tradicional ya que se
encontró una notoria reducción del error, asociada a un RMSPE mas pequeño,
esta reducción en general fue superior al 10%.

El método DBUK podrı́a producir una mejor estimación de la variable


regionalizada si el número de coordenadas principales se incrementa. Esto
es posible, incluyendo las coordenadas principales más significativas tanto en
modelo de tendencia como en el variograma; la segunda aplicación presentada
en el Capı́tulo 3 ilustra este hecho. Sin embargo, un estudio más detallado de
simulación deberı́a realizarse en esta dirección.

Por otro lado, los métodos propuestos en esta investigación con funciones
de base radial consideraron estacionariedad e isotropı́a. En los resultados pre-
7.2 Futuras lı́neas de investigación 163

sentados en los Capı́tulos 4 y 5, es decir, los métodos propuestos DBSIRBF en


espacio y DBSTIRBF en espacio-tiempo analizados mediante una estructura
de krigeado considerando en la tendencia las coordenadas principales, presen-
tan un buen funcionamiento al trabajar con vecindarios grandes, indicando en
general que se tendrá un menor error asociado a un RMSPE más pequeño.

En diversos estudios, la detección de variabilidad entre zonas es una


tarea muy difı́cil, y por lo cual los métodos propuestos DBUK, DBSIRBF
y DBSTIRBF son útiles de acuerdo a los resultados obtenidos en la presente
investigación, ya que aprovechan al máximo la información existente asociada
a las variables explicativas. Aunque la correlación de las variables explicati-
vas puede ser baja con respecto a la variable respuesta, el punto clave en los
métodos propuestos es la correlación entre las coordenadas principales (cons-
truida con las variables explicativas) y la variable respuesta.

Los métodos aquı́ desarrollados se aplicaron a datos agronómicos y clima-


tológicos. Los resultados de validación cruzada “leave-one-out” mostraron un
buen rendimiento de los predictores propuestos, lo cual indica que se pueden
utilizar como métodos alternos y validos a los tradicionales para el mode-
lado de variables correlacionadas espacialmente y espacio-temporalmente, con-
siderando siempre covariables en la remoción de la tendencia.

7.2 Futuras lı́neas de investigación

Aunque los interpoladores locales como los propuestos en esta investigación,


trabajan relativamente rápido al considerar vecindarios pequeños, la comple-
jidad computacional sigue siendo un problema. Los métodos propuestos en
esta tesis demandan mucho tiempo y pueden gastar varias horas para generar
predicciones sobretodo en casos espacio-temporales, en donde es necesario con-
siderar vecindarios de mayor tamaño. Esto indica que todavı́a hay oportunidad
para mejorar el procesamiento de datos en los métodos propuestos.

Desde el punto de vista teórico, parece interesante hacer un estudio de las


funciones de base radial espacio-temporales en modelos espacio-temporales;
producto, suma y suma producto, comprobar su bondad de ajuste con simu-
164 Capı́tulo 7. Conclusiones y futuras lı́neas de investigación

laciones y datos reales, para valorar sus ventajas o desventajas con respecto a
los métodos kriging espaciales y espacio-temporales.
Referencias

Abramowitz, M. & Stegun, I. A. (1965), Handbook of Mathematical Functions,


Dover, New York.

Akaike, H. (1973), Information theory and the maximum likelihood principle,


In International Symposium on Information Theory, Akademiai Kiádo,
Budapest.

Akaike, H. (1974), ‘A new look at the statistical model identification’, IEEE


Transactions on Automatic Control 19, 716–723.

Arenas, C. & Cuadras, C. (2002), ‘Recent statistical methods based on dis-


tances’, Constributions to Science, Institut d’Estudis Catalans Barcelona
2(2), 183–191.

Armstrong, M., C. G. & Hubert, P. (1993), ‘Kriging the rainfall in lesotho. In


geostatistics tróia ’92’, Kluwer Academic Publishers, Dordrecht 2, 661–
672.

Armstrong, M. & Diamond, P. (1984), ‘Testing variograms for positive-


definiteness’, Mathematical Geology 16, 407–421.

Banerjee, S., Carlin, B. P. & Gelfand, A. E. (2004), Hierarchical Modeling and


Analysis for Spatial Data., Chapman & Hall/CRC, Boca Raton-Florida.

Bárdossy, A. (2001), Introduction to Geostatistics, Institut für Wasserbau der


Universität Stuttgart.

Bardossy, A., Haberlandt, U. & Grimm-Strele, J. (1997), Interpolation of


groundwater quality parameters using additional information, Technical

165
166 REFERENCIAS

report, In GeoENV I (Geostatistics for Environmental Applications), 189-


200, Kluwer Academic Publ., Dordrecht.

Baxter, B. (1992), The interpolation theory of radial basis functions, PhD the-
sis, Department of Applied Mathematics and Theoretical Physics, Uni-
versity of Cambridge.

Bellier, E., Planque, B. & Petitgas, P. (2007), ‘Historical fluctuations in


spawning location of anchovy (engraulis encrasicolus) and sardine (sardina
pilchardus) in the bay of biscay during 1967-73 and 2000-2004’, Fisheries
Oceanography 16(1), 1–15.

Bishop, C. M. (1995), Neural Networks for Pattern Recognition, Oxford Press,


Oxford.

Bivand, R., Pebesma, E. & Rubio, V. (2008), Applied Spatial Data Analysis
with R, Springer, New York.

Braud, I. (1990), Etude methodologique del analyze en composantes princi-


pales de processus bidimensionels. Effets des approximations numeriques
et de l’Echantillonnage et utilisation pour la simulation de champs
aleatoires. Application au traitement des temperatures mensuelles de sur-
face de la mer sur l’Atlantique Intertropi, PhD thesis, l’Institut National
Polytechnique de Grenoble, France.

Breiman, L. (1995), ‘Better subset regression using the nonnegative garrote’,


Technometrics 37, 373–384.

Brent, R. (1973), Algorithms for minimization without derivatives, Prentice-


Hall, Englewood Cliffs.

Capeche, C. L., Macedo, J. R., Manzatto, H. R. H. & Silva, E. F. (1997), Car-


acterização pedológica da fazenda angra - pesagro/rio, Technical report,
Technical Report: Estação experimental de Campos (RJ). In Informação,
globalização, uso do solo, Rio de Janeiro.
REFERENCIAS 167

Chen, C. (2007), Model selection for curve and surface fitting using generalized
degrees of freedom, PhD thesis, Institute of Statistical, National Central
University, Jhongli-Taiwan.

Chen, L., Fuentes, M. & Davis, J. M. (2006), ‘Spatial temporal statistical mo-
delling and prediction of environmental processes’, Hierarchical Modelling
for the Environmental Sciences, Oxford Univ. Press pp. 121–144.

Chica, J., Cano, R. & Chica, M. (2007), ‘Modelo hedónico espacio-temporal y


análisis variográfico del precio de la vivienda’, GeoFocus 7, 56–72.

Chilès, J. P. & Delfiner, P. (1999), Geostatistics: Modeling Spatial Uncertainty,


John Wiley & Sons, New York.

Christakos, G. (2000), Modern Spatiotemporal Geostatistics, Oxford University


Press, Oxford.

Cleveland, W. (1979), ‘Robust locally weighted regression and smoothing sca-


tterplots’, Journal of the American Statistical Association 74, 829–836.

Craven, P. & Wahba, G. (1979), ‘Smoothing noisy data with spline functions:
estimating the correct degree of smoothing by the method of generalized
cross-validation’, Numerische Mathematik 31, 377–403.

Cressie, N. (1985), ‘Fitting variogram models by weighted least squares’,


Joumal of the Intemational Association for Mathematical Geology
17, 563–586.

Cressie, N. (1989), ‘Geostatistics.’, The American Statistician 43, 197–202.

Cressie, N. (1993), Statistics for Spatial Data, Revised Edition. John Wiley &
Sons Inc., New York.

Cressie, N. & Hawkins, D. M. (1980), ‘Robust estimation of the variogram’,


Mathematical Geology 12, 115–125.

Cressie, N. & Huang, H. C. (1999), ‘Classes of nonseparable, spatio-temporal


stationary covariance functions’, Journal of the American Statistical Asso-
ciation 94, 1330–1340.
168 REFERENCIAS

Cressie, N. & Majure, J. (1995), Non-point source pollution of surface wa-


tersover a watershed, in ‘Programme Abstracts of the third SPRUCE
International Conference. Merida, Mexico’.

Cressie, N. & Wikle, C. K. (2011), Statistics for Spatio-Temporal Data, John


Wiley and Sons.

Şen, Z., Altunkaynak, A. & Özger, M. (2006), ‘Space-time interpolation by


combining air pollution and meteorologic variables’, Pure and Applied
Geophysics 163, 1435–1451.

Cuadras, C. (1989), ‘Distance analysis in discrimination and classification


using both continuous and categorical variables’, Recent Developments
in Statistical Data Analysis and Inference. pp. 459–474.

Cuadras, C. (1993), ‘Interpreting an inequality in multiple regression’, The


American Statistician 47(4), 256–258.

Cuadras, C. (2007), Métodos Multivariados Basados en Distancias, Curso de


doctorado, Universidad de Barcelona, Barcelona.

Cuadras, C. & Arenas, C. (1990), ‘A distance based regression model for pre-
diction with mixed data’, Communications in Statistics A - Theory and
Methods 19, 2261–2279.

Cuadras, C., Arenas, C. & Fortiana, J. (1996), ‘Some computational aspects


of a distance-based model for prediction’, Communications in Statistics -
Simulation and Computation 25(3), 593–609.

Cuadras, C. M. (2009), ‘Distance-based multivariate regression’, Frontieres of


Interfaces Between Statistics and Sciences, Hyderabad pp. 65–70.

Cuadras, C. M. & Fortiana, J. (1993), ‘Aplicaciones de las distancias en es-


tadı́stica’, Questió 17(1), 39–74.

De Cesare, L., Myers, D. E. & Posa, D. (1997), ‘Spatial temporal modeling of


SO2 in the milan district’, Geostatistics Wollongong’96, Kluwer Academic
Publishers 2, 1031–1042.
REFERENCIAS 169

De Cesare, L., Myers, D. E. & Posa, D. (2001a), ‘Estimating and modeling


space-time correlation structures’, Statistics and Probability Letters 51, 9–
14.

De Cesare, L., Myers, D. E. & Posa, D. (2001b), ‘Estimating and modeling


space-time correlation structures’, Statistics and Probability Letters 51, 9–
14.

Diggle, P., Harper, L. & Simon, S. (1995), Geostatistical analysis of residual


contamination from nuclear weapons testing, in ‘Abstracts of the third
SPRUCE international conference, Mérida, México’.

Dimitrakopoulos, R. & Luo, X. (1994), Spatiotemporal modeling: covariances


and ordinary kriging systems, Technical report, Geostatistics for the next
century, Kluwer Academic Publishers.

Donoho, D. & Johnstone, I. (1994), ‘Ideal spatial adaptation by wavelet shrin-


kage’, Biometrika 81, 425–456.

Duchon, J. (1976), ‘Interpolation des fonctions de deux variables suivant le


principe de la flexion des plaques minces’, Rairo Analyse Numerique
10, 5–12.

Efron, B., Johnstone, I., Hastie, T. & Tibshirani, R. (2004), ‘Least angle
regression’, Annals of Statistics 32, 407–499.

Emery, X. & Cornejo, J. (2010), ‘Truncated gaussian simulation of discrete-


valued, ordinal coregionalized variables’, Computers & Geosciences
36, 1325–1338.

Emery, X. & Silva, D. (2009), ‘Conditional co-simulation of continuous and


categorical variables for geostatistical applications’, Computers & Geo-
sciences 35, 1234 – 1246.

Esteve, A., Boj, E. & Fortiana, J. (2009), ‘Interaction terms in distance-


based regression’, Communications in Statistics A. Theory and Methods
38, 3498–3509.
170 REFERENCIAS

Fan, J. & Gijbels, I. (1996), Local Polynomial Modelling and Its Applications,
Chapman and Hall, London.

Faraway, J. (2005), Linear Models with R, Chapman and Hall, London.

Finkenstädt, B., Held, L. & Isham, V. (2006), Statistical Methods for Spatio-
Temporal Systems, Chapman & Hall/CRC Monographs on Statistics &
Applied Probability.

Franke, R. (1982), ‘Smooth interpolation of scattered data by local thin plate


splines’, Computer and Mathematics with Appllications 8, 273–281.

Fuentes, M. (2001), ‘A high frequency kriging approach for nonstationary en-


vironmental processes’, Environmetrics 12, 469–483.

Fuentes, M. (2002a), ‘Modeling and prediction of nonstationary spatial pro-


cesses’, Statistical Modelling: An International Journal 2, 281–298.

Fuentes, M. (2002b), ‘Spectral methods for nonstationary spatial processes’,


Biometrika 89, 197–210.

Fuentes, M. & Smith, R. (2001), A new class of nonstationary models, Tech-


nical report, Technical report no. 2534, North Carolina State University,
North Carolina State.

Gaetan, C. & Guyon, X. (2010), Spatial Statistics and Modeling, Series in


Statistics, Springer.

Garcı́a-Soidán, P., Menezes, R. & Rubiños-López, O. (2012), ‘An approach


for valid covariance estimation via the fourier series’, Enviromental Earth
Sciences 66(2), 615–624.

George, E. I. & McCulloch, R. (1993), ‘Variable selection via gibbs sampling’,


Journal American Statistician Asociation 88, 881–889.

Gneiting, T. (2002), ‘Nonseparable, stationary covariance functions for space-


time data’, Journal of the American Statistical Association 97, 590–600.
REFERENCIAS 171

Gneiting, T. (2003), Should weather and climate models be deterministic?,


Technical report, En Joint Statistical Meeting, San Francisco, California.

Gneiting, T., Genton, M. G. & Guttorp, P. (2005), Geoestatistical space-time


models, stationarity, separability, and full simmetry, Technical report,
Technical Report no. 475, University of Washington, Washington.

Gneiting, T., Genton, M. G. & Guttorp, P. (2007), Statistical Methods for


Spatio-Temporal Systems, Chapman & Hall/CRC, Boca Raton-Florida,
chapter Geostatistical space-time models, stationarity, separability and
full symmetry, pp. 151–175.

Gomez, M. & Hazen, K. (1970), Evaluating sulfur and ash distribution in coal
seems by statistical response surface regression analysis, Technical report,
U.S. Bureau of Mines Report RI 7377.

Gower, J. (1968), ‘Adding a point to vector diagrams in multivariate analysis’,


Biometrika 55, 582–585.

Gower, J. (1971), ‘A general coefficient of similarity and some of its properties’,


Biometrics 27, 857–871.

Haas, T. C. (1995), ‘Local prediction of a spatio-temporal process with an


application to wet sulfate deposition’, Journal of the American Statistical
Association 90, 1189–1199.

Haining, R. (2004), Spatial Data Analysis: Theory and Practice, Cambridge


University Press, Cambridge.

Hall, P. & Patil, P. (1994), ‘Properties of nonparametric estimators of autoco-


variance for stationary random fields’, Probability Theory Related Fields
99(3), 399–424.

Hardy, R. & Gopfert, W. (1975), ‘Least squares prediction of gravity anoma-


lies, geodial undulations, and detections of the vertical with multiquadric
harmonic functions’, Geophysical Research Letters 2, 423–426.

Hardy, R. L. (1971), ‘Multiquadric equations of topography and other irregular


surfaces’, Journal of Geophysical Research 76, 1905–1915.
172 REFERENCIAS

Hardy, R. L. (1990), ‘Theory and applications of the multiquadric-biharmonic


method. 20 years of discovery 1968-1988’, Computers & Mathematics with
Applications 19, 163–208.

Hengl, T. (2009), A Practical Guide to Geostatistical Mapping, 2nd edn, Uni-


versity of Amsterdam, Amsterdam.

Hengl, T., Heuvelink Gerard, B. M., Perčec Tadić, M. & Pebesma, E. J. (2012),
‘Spatio-temporal prediction of daily temperatures using time-series of
MODIS LST images’, Theoretical and Applied Climatology 107, 1-2, 265–
277.

Heryudono, A. & Driscoll, T. (2010), ‘Radial basis function interpolation on


irregular domain through conformal transplantation’, Journal of Scientific
Computing 44(3), 286–300.

Hiebl, J., Auer, I., Böhm, R., Schöner, W., Maugeri, M., Lentini, G., Spinoni,
J., Brunetti, M., Nanni, T. Perčec Tadić, M., Bihari, Z., Dolinar, M.
& Müller-Westermeier, G. (2009), ‘A high-resolution 1961-1990 monthly
temperature climatology for the greater alpine region’, Meteorologische
Zeitschrift 18, 507–530.

Higdon, D., Swall, J. & Kern, J. (1999), Non-stationary spatial modeling,


Technical report, In Bayesian Statistics, 761-768, Oxford University Press,
Oxford.

Holland, D., Saltzman, N., Cox, L. H. & Nychka, D. (1999), Spatial predic-
tion of sulfur dioxide in the eastern United States, Technical report, In
GeoENV II - Geostatistics for Environmental Applications, 65-76, Kluwer
Academic Publ., Dordrecht.

Huang, H. C. & Cressie, N. (1996), ‘Spatio-temporal prediction of snow wa-


ter equivalent using the Kalman filter’, Computational Statistics & Data
Analysis 22, 159–175.

Isaaks, E. & Srisvastava, R. (1989), An Introduction to Applied Geostatistics,


Oxford Univ. Press, New York.
REFERENCIAS 173

Jin, R., Chen, W. & Simpson, T. (2001), ‘Comparative studies of metamode-


ling techniques under multiple modeling criteria’, Journal of Structural &
Multidisciplinary Optimization 23, 1–13.

Johnston, K., Ver, J., Krivoruchko, K. & Lucas, N. (2001), Using ArcGIS
Geostatistical Analysis, ESRI.

Joseph, V. R., Hung, Y. & Sudjianto, A. (2008), ‘Blind kriging: A new method
for developing metamodels.’, Journal of Mechanical Design 3, 31–102.

Journel, A. G. & Huijbregts, C. J. (1978), Mining Geoestatistics, Academic


Press, New York.

Kolovos, A., Christakos, G., Hristopulos, D. T. & Serre, M. L. (2004),


‘Methods for generating non-separable spatiotemporal covariance models
with potential environmental applications’, Advances in Water Resources
27, 815–830.

Kondoh, H., Koizumi, T. & Ikeda, K. (2011), ‘A geostatistical approach to


spatial density distributions of sika deer (Cervus nippon)’, Journal of
Forest Research pp. 1–8.

Krige, D. G. (1951), ‘A statistical approach to some basic mine valuation


problems on the witwatersrand’, Journal of the Chemical, Metallurgical
and Mining Society of South Africa 52, 119–139.

Kyriakidis, P. C. & Journel, A. G. (1999), ‘Geostatistical space-time models:


a review’, Mathematical Geology 31, 651–684.

Le, N. & Zidek, J. (2006), Statistical Analysis of Environmental Space-Time


Processes, Springer.

Lloyd, C. D. (2010), Local Models for Spatial Analysis, second edn, Taylor &
Francis Group, Boca Raton-Florida.

Mardia, K. V., Kent, J. T. & Bibby, J. M. (2002), Multivariate Analysis,


Academic Press, Inc, London.
174 REFERENCIAS

Martı́nez, F. (2008), Modelización de la función de covarianza en procesos


espacio-temporales: análisis y aplicaciones., PhD thesis, Universidad de
Valencia-España.

Mateu, J., Montes, F. & Fuentes, M. (2003), ‘Recent advances in space-time


statistics with applications to atmospheric data: An overview’, Journal
of Geophysical Research 108, (D24).

Matheron, G. (1962), Traité de Géostatistique Appliquée, Editions Technip,


Paris.

Matheron, G. (1971), The theory of regionalized variables and its applica-


tions, Cahiers du Centre de Morphologie Mathematique, 5, Fontainebleau,
Paris.

Mitás̆, L. & Mitás̆ová, H. (1988), ‘General variational approach to the interpo-


lation problem’, Computers and Mathematics with Applications 16, 983–
992.

Mitás̆ová, H. & Hofierka, J. (1993), ‘Interpolation by regularized spline with


tension: II. Application to terrain modeling and surface geometry analy-
sis’, Mathematical Geology 25, 657–669.

Mitás̆ová, H. & Mitás̆, L. (1993), ‘Interpolation by regularized spline with


tension: I. Theory and implementation’, Mathematical Geology 25, 641–
655.

Mittelhammer, R., Judge, G. & Miller, D. (2000), Econometric Foundations,


New York.

Myers, D. (1992), ‘Kriging, cokriging, radial basic functions and the role of
positive definiteness’, Computers Mathematical Application 24, 139–148.

Myers, D., De Iaco, S., Posa, D. & De Cesare, L. (2002), ‘Space-time radial
basis functions’, Computers and Mathematics with Applications 43, 539–
549.

Myers, D. & Journel, A. (1990), ‘Variograms with zonal anisotropies and non-
invertible kriging systems’, Mathematical Geology 22, 779–785.
REFERENCIAS 175

Nychka, D. & Saltzman, N. (1998), Design of air quality networks, Techni-


cal report, In Case Studies in Environmental Statistics, 51-76, Springer
Verlag, New York.

Ortega-Pérez, M. (2009), Método de registro no rı́gido basado en funciones


de base radial. Aplicación a neurocirugı́a utilizando atlas cerebrales, PhD
thesis, Universitat Politècnica de València. Departamento de Sistemas
Informáticos y Computación.

Paez, M., G. D. & De Oliveira, V. (2005), ‘Interpolacion performance of a


spatio temporal model with spatially varying coefficents: Application
to pm10 concentration in rio de janeiro’, Environmental and Ecological
Statistics 12, 169–193.

Perčec Tadić, M. (2010), ‘Gridded croatian climatology for 1961-1990’, Theo-


retical and Applied Climatology pp. 1434–4483.

Planque, B., Bellier, E. & Lazure, P. (2007), ‘Modelling potential spawning


habitat of sardine (sardina pilchardus) and anchovy (engraulis encrasico-
lus) in the bay of biscay’, Fisheries Oceanography 16(1), 16–30.

R Development Core Team (2012), R: A Language and Environment for Sta-


tistical Computing, R Foundation for Statistical Computing, Vienna, Aus-
tria, URL http://www.R-project.org/.

Robertson, G. (1987), ‘Geostatistics in ecology. interpolating with know va-


riance’, Ecology 68(3), 744–748.

Rodriguez-Iturbe, I. & Mejia, J. (1974), ‘The design of rainfall networks in


time and space’, Water Resources Research 10, 713–728.

Rouhani, S. & Hall, T. J. (1989), Space-time kriging of groundwater data,


Technical report, En Geostatistics, 2, 639-650, Kluwer Academic Publ.,
Dordrecht.

Rouhani, S. & Myers, D. E. (1990), ‘Problems in space-time kriging of hydro-


geological data’, Mathematical Geology 22, 611–623.
176 REFERENCIAS

Roustant, O., Dupuy, D. & Helbert, C. (2007), Robust estimation of the


variogram in computer experiments, Technical report, Ecole des Mines,
Département 3MI, 158 Cours Fauriel, 42023 Saint-Etienne, France.

Sacks, J., Welch, W., Mitchell, T. J. & Wynn, H. P. (1989), ‘Design and
analysis of computer experiments’, Statistical Science 4, 409–423.

Sahu, S. K. & Mardia, K. V. (2005), Recent trends in modeling spatio-temporal


data, in ‘In Proceedings of the special meeting on Statistics and Environ-
ment, Messina, Italy’.

Samper, F. & Carrera, J. (1993), Geoestadı́stica. Aplicaciones a la Hidro-


geologı́a Subterránea, Centro Internacional de Métodos Numéricos en In-
genierı́a.

Sampson, P. D. & Guttorp, P. (1992), ‘Nonparametric estimation of non-


stationary spatial covariance structure’, Journal of American Statistical
Association 87, 108–119.

Santner, T., Williams, B. & Notz, W. (2003), The Design and Analysis of
Computer Experiments, Springer-Verlag, New York.

Schagen, I. P. (1979), ‘Interpolation in two dimensions: a new technique’,


Journal of the Institute of Mathematics and its Applications 23, 53–59.

Schwarz, G. (1978), ‘Estimating the dimension of a model’, Annals of Statistics


6, 461–464.

Snepvangers, J.J.J.C., H. G. & Huisman, J. (2003), ‘Soil water content in-


terpolation using spatio-temporal kriging with external drift’, Geoderma
112, 253–271.

Späh, H. (1969), ‘Exponential spline interpolation’, Computing 4, 225–233.

Thiébaux, H. & Pedder, M. (1987), Spatial Objective Analysis: With Applica-


tions in Atmospheric Science., Academic Press. London.

Tibshirani, R. (1996), ‘Regression shrinkage and selection via the lasso’, Royal
Statistics Society 58, 267–288.
REFERENCIAS 177

van de Kassteele, J., Stein, A., Dekkers, A. & Velders, G. (2009), ‘External
drift kriging of NOx; concentrations with dispersion model output in a
reduced air quality monitoring network’, Environmental and Ecological
Statistics 16, 321–339.

Velleman, P. F. & Hoaglin, D. C. (1981), Applications, Basics, and Computing


of Exploratory Data Analysis., Duxbury, Boston, MA.

Wackernagel, H. (2003), Multivariate Geostatistics: An Introduction with


applications, Third Completely Revised Edition. Springer-Verlag, New
York.

Wand, M. (2000), ‘A comparison of regression spline smoothing procedures’,


Computational Statistics 15, 443–462.

Wand, M. & Jones, M. (1995), Kernel Smoothing, Chapman and Hall, New
York.

Yavuz, H. & Erdoǧan, S. (2012), ‘Spatial analysis of monthly and annual


precipitation trends in Turkey’, Water Resources Management 26, 609–
621.

Ye, J. (2008), Geostatistical methods for spatio-temporal analysis of fMRI


data, PhD thesis, Department of Statistics, University of Georgia.

Ye, J., Lazar, N. & Li, Y. (2011), ‘Sparse geostatistical analysis in clustering
fMRI time series’, Journal of Neuroscience Methods 199(2), 336–345.

Zaninovic, K., Gajic-Capka, M. & Percec-Tadic, M. (2008), Klimatski atlas


Hrvatske, climate altas of Croatia 1961, 1990, 1971 2000., Technical re-
port, Meteorological and Hydrological Service Republic of Croatia, Za-
greb.

Zhang, G. (2011), ‘Smoothing splines using compactly supported, positive de-


finite, radial basis functions’, Computational Statistics pp. 1–12.
178 REFERENCIAS
Anexos A

Programación en R
180 APÉNDICE

En este apéndice, se presentan los códigos que se han utilizado en la elab-


oración de esta investigación. La idea es mostrar los procedimientos prácticos
desarrollados en el programa R, ası́ como las funciones implementadas para su
correcto funcionamiento en lo práctico y en las simulaciones realizadas en este
trabajo.

A.1 Funciones implementadas y utilizadas en


el Capı́tulo 3

Se implementaron las funciones est.variograms, ya explicada en el Capı́tulo 6,


krige.u.db y x.new la cual esta en la programación de los Capı́tulos 3, 4 y 5.
A continuación se describe la función krige.u.db:

krige.u.db: Calcula la predicción de la variable regionalizada Z y su co-


rrespondiente varianza del error para un punto, para ello requiere la varia-
ble regionalizada z , la tendencia asociada con las coordenadas principales de
la muestra trend , los valores propios asociados a las coordenadas principales
mas relevantes ValoresPropios, es decir asociados a trend , las coordenadas de
la muestra coordinates, las coordenadas espaciales del nuevo individuo new-
data, el número de vecinos más cercanos n.neigh, el modelo de covarianza
modelo.cov , y los parámetros asociados con el modelo de covarianza cov.pars

assign("krige.u.db",
function(z, trend, ValoresPropios, coordinates, newdata, n.neigh,
modelo.cov, cov.pars){
So <- newdata
So <- as.data.frame(cbind(x=So[1],y=So[2]))
coordinates(So) <- c("x", "y")
s <- coordinates
dist.So <- spDists(So,s)
remove("newdata")
vec.orden <- order(dist.So)
dist.vec.cerca <- dist.So[vec.orden[1:n.neigh]]
m.dist.vec <- spDists(s)[vec.orden[1:n.neigh], vec.orden[1:n.neigh]]
b <- diag(tcrossprod(trend))
A.2 Funciones implementadas y utilizadas en los Capı́tulos 4 y 5 181

x.new <- (1/2) * (diag(length(ValoresPropios[1:ncol(trend)]))*


(ValoresPropios[1:ncol(trend)]^(-1))) %*% crossprod(trend,b -
as.numeric(dist.So)^2)
one = rep(1,length(dist.vec.cerca))
tend <- as.matrix(trend[vec.orden[1:n.neigh],])
cov.0 <- cov.spatial(0, cov.model= modelo.cov, cov.pars =cov.pars)
m.cov<-cov.spatial(m.dist.vec, cov.model= modelo.cov, cov.pars=cov.pars)
v <- cov.spatial(dist.vec.cerca, cov.model= modelo.cov, cov.pars = cov.pars)
m.cov.k <- rbind(as.matrix(cbind(m.cov, one, tend)),as.matrix(cbind(rbind(
one,t(tend)),matrix(0,ncol=(ncol(tend)+1),nrow=(ncol(tend)+1)))))
m.cov.k.i <- solve(m.cov.k)
v.ko <- c(v,1,x.new)
Pesos.ko <- m.cov.k.i%*%v.ko
KUpr <- z[vec.orden[1:n.neigh]]%*%Pesos.ko[1:length(dist.vec.cerca)]
KUvr <- cov.0-v.ko%*%Pesos.ko
remove("dist.So","vec.orden","dist.vec.cerca","m.dist.vec","b","x.new","one",
"tend","cov.0","m.cov","v","m.cov.k","m.cov.k.i","v.ko","Pesos.ko",
"ValoresPropios","trend","coordinates","n.neigh","modelo.cov",
"cov.pars","s","So")
data.frame(KUpr,KUvr)
}

A.2 Funciones implementadas y utilizadas en


los Capı́tulos 4 y 5

A.2.1 Predicción espacial basada en distancias con fun-


ciones de base radial

1. rbf.t: Calcula la predicción de la variable regionalizada Z y su correspon-


diente varianza del error para un punto o un conjunto de puntos, para ello
requiere el parámetro de suavizamiento eta, la variable regionalizada z , las
coordenadas de la muestra coordinates, la tendencia asociada con las coorde-
nadas principales de la muestra trend , las coordenadas espaciales junto con la
tendencia asociada con las coordenadas principales de los nuevos individuos
nd.trend , el número de vecinos más cercanos n.neigh, y la función de base
182 APÉNDICE

radial func.

assign("rbf.t",
function(eta, z, coordinates, trend, nd.trend, n.neigh, func){
if(func=="TPS") library(limSolve)
rbf.pred <- as.data.frame(matrix(NA,nrow= nrow(nd.trend), ncol=4))
colnames(rbf.pred) <- c("x","y","var1.pred","var1.var")

rbf.t0 <- function(eta, z, coordinates, trend, nd.trend, n.neigh, func){


newdata <- nd.trend[1:2]
t.newdata <- nd.trend[-c(1,2)]
dist.newdata <- as.numeric(Dis(coordinates,newdata))
neigh.orden <- order(dist.newdata)
dist.vec.cerca <- dist.newdata[neigh.orden[1:n.neigh]]
trend <- trend[neigh.orden[1:n.neigh],]
m.dist.vec <- as.matrix(dist(coordinates[neigh.orden[1:n.neigh],]))
phi <- RBF.phi(m.dist.vec,eta,func)
PHI.Matriz<-rbind(as.matrix(cbind(phi, 1, trend)),as.matrix(cbind(rbind(1,
t(trend)),matrix(0,ncol=(ncol(trend)+1),nrow=(ncol(trend)+1)))))
b <- RBF.phi(dist.vec.cerca,eta,func)
PHI.Vector <- as.matrix(c(b,1,t.newdata))
W.fbr <- if(func=="TPS") Solve(PHI.Matriz, PHI.Vector) else solve(PHI.Matriz,
PHI.Vector)
RBF.pred <- W.fbr[1:n.neigh]%*%z[as.numeric(colnames(phi))]
A <- (as.matrix(cbind(phi,1,trend))%*%solve(PHI.Matriz))[,1:n.neigh]
GCV <-(t((diag(nrow(A))-A)%*%z[as.numeric(colnames(phi))])%*%((diag(nrow(A))
-A)%*%z[as.numeric(colnames(phi))])/n.neigh)/((sum(diag(diag(nrow(A))/
n.neigh)))^2)
RBF.var <-(t((diag(nrow(A))-A)%*%z[as.numeric(colnames(phi))])%*%((diag(nrow
(A))-A)%*%z[as.numeric(colnames(phi))]))/(sum(diag(diag(nrow(A)))))
res <- as.matrix(cbind(RBF.pred,RBF.var))
res[1,]
}
rbf.pred[,3:4] <- apply(nd.trend, 1, rbf.t0, eta=eta, z=z, trend=trend,
coordinates=coordinates, n.neigh=n.neigh, func=func)
rbf.pred[,1:2] <- nd.trend[,1:2]
rbf.pred
}
)
A.2 Funciones implementadas y utilizadas en los Capı́tulos 4 y 5 183

2. rbf.tr : Esta función trabaja de manera similar a la anterior, lo adi-


cional es el parámetro de robustez rho. Se utiliza para la optimización de los
parámetros eta y rho en la función bobyqa de la librerı́a minqa.

assign("rbf.tr",
function(eta, z, coordinates, trend, nd.trend, rho, n.neigh, func){
rbf.pred <- matrix(NA,nrow= nrow(newdata), ncol=4)
rbf.t0 <-function(eta, z, coordinates, trend, nd.trend, rho, n.neigh, func){
newdata <- nd.trend[1:2]
t.newdata <- nd.trend[-c(1,2)]
dist.newdata <- as.numeric(Dis(coordinates,newdata))
neigh.orden <- order(dist.newdata)
dist.vec.cerca <- dist.newdata[neigh.orden[1:n.neigh]]
trend <- trend[neigh.orden[1:n.neigh],]
m.dist.vec <- as.matrix(dist(coordinates[neigh.orden[1:n.neigh],]))
phi <- RBF.phi(m.dist.vec,eta,func)
PHI.Matriz <- rbind(as.matrix(cbind((phi+rho*diag(n.neigh)), 1, trend)),
as.matrix(cbind(rbind(1,t(trend)),matrix(0,ncol=(ncol(trend)+1),
nrow=(ncol(trend)+1)))))
b <- RBF.phi(dist.vec.cerca,eta,func)
PHI.Vector <- as.matrix(c(b,1,t.newdata))
W.fbr <- solve(PHI.Matriz, PHI.Vector)
RBF.pred <- W.fbr[1:n.neigh]%*%z[as.numeric(colnames(phi))]
A <- (as.matrix(cbind((phi+rho*diag(n.neigh)),1,trend))%*%solve(PHI.Matriz))
[,1:n.neigh]
#GCV<-(t((diag(nrow(A))-A)%*%z[as.numeric(colnames(phi))])%*%((diag(nrow(A))
#-A)%*%z[as.numeric(colnames(phi))])/n.neigh)/((sum(diag(diag(nrow(A))/
#n.neigh)))^2)
RBF.var <- (t((diag(nrow(A))-A)%*%z[as.numeric(colnames(phi))])%*%
((diag(nrow(A))-A)%*%z[as.numeric(colnames(phi))]))/(sum(diag(
diag(nrow(A)))))
cbind(newdata[1],newdata[2],RBF.pred,RBF.var)
}
rbf.pred <- apply(nd.trend, 1, rbf.t0, eta=eta, z=z, trend=trend,
coordinates=coordinates,rho=rho, n.neigh=n.neigh, func=func)
rbf.pred <- as.data.frame(t(rbf.pred))
names(rbf.pred) <- c("x","y","var1.pred","var1.var")
rbf.pred
}
)
184 APÉNDICE

3. rbf.t.cvop: Esta función genera el RM SP E a partir de validación


cruzada “leave-one-out” utilizando la función rbf.tr , y para su correcto fun-
cionamiento requiere; los parámetros de suavizamiento eta y rho en param, la
variable regionalizada z , las coordenadas de la muestra coordinates, la tenden-
cia asociada con las coordenadas principales de la muestra trend , el número
de vecinos más cercanos n.neigh, y la función de base radial func.

assign("rbf.t.cvop",
function(param, z, coordinates, trend, n.neigh, func){
eta <- param[1]
rho <- param[2]
nt <- data.frame(coordinates,trend)
rbf.pred <- as.data.frame(matrix(NA,nrow= length(z), ncol=4))
colnames(rbf.pred) <- c("x","y","var1.pred","var1.var")
for(i in 1:(length(z))){
rbf.pred[i,3] <- rbf.tr(eta, z, coordinates=coordinates[-i,], trend=trend[-i,],
nd.trend=nt[i,], rho, n.neigh, func)[,3]
}
RMSPE <- sqrt(sum((rbf.pred$var1.pred-z)^2)/length(z))
RMSPE
}
)

4. rbf.t.tcv : Genera un data.frame con las coordenadas de los datos, la


predicción, los valores observados, los residuos, la varianza de predicción, y
el zscore (residual divido por el error estándar) de la variable analizada, los
cuales están asociados a la LOOCV. Para obtenerla es necesario incorporar el
parámetro de suavizamiento eta, la variable regionalizada z , las coordenadas de
la muestra coordinates, la tendencia asociada con las coordenadas principales
de la muestra trend , el número de vecinos más cercanos n.neigh, y la función
de base radial func.

assign("rbf.t.tcv",
function(eta, z, coordinates, trend, n.neigh, func){
nt <- data.frame(coordinates,trend)
rbf.pred <- as.data.frame(matrix(NA,nrow= length(z), ncol=8))
colnames(rbf.pred) <- c("var1.pred","var1.var","observed","residual",
A.2 Funciones implementadas y utilizadas en los Capı́tulos 4 y 5 185

"zscore","fold","x","y")
for(i in 1:(length(z))){
rbf.pred[i,1] <- rbf.t(eta=eta, z, coordinates=coordinates[-i,],
trend=trend[-i,], nd.trend=nt[i,], n.neigh, func)[,3]
rbf.pred[i,6] <- i
}
rbf.pred[,3]<- z
rbf.pred[,7:8]<-coordinates
rbf.pred[,4]<- rbf.pred[,3]-rbf.pred[,1]
rbf.pred
}
)

A.2.2 Predicción espacio-temporal basada en distancias


usando funciones de base radial

1. rbf.trst: Calcula la predicción de la variable regionalizada Z(s, t) para


un punto o un conjunto de puntos espacio-tiempo, para ello requiere los
parámetros de suavizamiento eta y de robustez rho, la variable regionalizada
z , las coordenadas de la muestra espacio-temporales coordinates, la tenden-
cia asociada con las coordenadas principales de la muestra trend , las coorde-
nadas espacio-temporales junto con la tendencia asociada con las coordenadas
principales de los nuevos individuos nd.trend , el número de vecinos espacio-
temporales más cercanos n.neigh, y la función de base radial func.

assign("rbf.trst",
function(eta, z, coordinates, trend, nd.trend, rho, n.neigh, func){
library(limSolve)
rbf.pred <- matrix(NA,nrow= nrow(trend), ncol=5)
rbf.t0 <-function(eta, z, coordinates, trend, nd.trend, rho, n.neigh, func){
newdata <- nd.trend[1:3]
t.newdata <- nd.trend[-c(1:3)]
dist.newdata <- as.numeric(Dis(coordinates,newdata))
vec.orden <- order(dist.newdata)
dist.vec.cerca <- dist.newdata[vec.orden[1:n.neigh]]
trend <- trend[vec.orden[1:n.neigh],]
m.dist.vec <- as.matrix(dist(coordinates[vec.orden[1:n.neigh],] ))
186 APÉNDICE

phi <- RBF.phi(m.dist.vec,eta,func)


PHI.Matriz <- rbind(as.matrix(cbind((phi+rho*diag(n.neigh)), 1, trend)),
as.matrix(cbind(rbind(1,t(trend)),matrix(0,ncol=(ncol(trend)+1),
nrow=(ncol(trend)+1)))))
b <- RBF.phi(dist.vec.cerca,eta,func)
PHI.Vector <- as.matrix(c(b,1,t.newdata))
W.fbr <- Solve(PHI.Matriz, as.numeric(PHI.Vector))
RBF.pred <- W.fbr[1:n.neigh]%*%z[vec.orden[1:n.neigh]]
cbind(newdata[1],newdata[2],newdata[3],RBF.pred,NA) #RBF.var)
}
rbf.pred <- apply(nd.trend, 1, rbf.t0, eta=eta, z=z, trend=trend,
coordinates=coordinates,rho=rho, n.neigh=n.neigh, func=func)
rbf.pred <- as.data.frame(t(rbf.pred))
names(rbf.pred) <- c("x","y","t","var1.pred","var1.var")
rbf.pred
}
)

2. rbf.st.cvop: Esta función genera el RM SP E a partir de validación


cruzada “leave-one-out” espacio-temporal utilizando la función rbf.tr , y para
su correcto funcionamiento requiere; los parámetros de suavizamiento eta y
rho en param, la variable regionalizada z , las coordenadas espacio-tiempo de
la muestra coordinates, la tendencia asociada con las coordenadas principales
de la muestra trend , el número de vecinos mas cercanos espacio-temporales
n.neigh, y la función de base radial func.

assign("rbf.st.cvop",
function(param, z, coordinates, trend, n.neigh, func){
eta <- param[1]
rho <- param[2]
nt <- data.frame(coordinates,trend)
rbf.pred <- as.data.frame(matrix(NA,nrow= length(z), ncol=5))
colnames(rbf.pred) <- c("x","y","t","var1.pred","var1.var")
for(i in 1:(length(z))){
rbf.pred[i,4] <- rbf.trst(eta, z, coordinates=coordinates[-i,],
trend=trend[-i,], nd.trend=nt[i,], rho, n.neigh, func)[,4]
}
RMSPE <- sqrt(sum((rbf.pred$var1.pred-z)^2)/length(z))
RMSPE
A.3 Programación capitulo 3 187

}
)

3. rbf.st.tcv : Genera un data.frame con las coordenadas de los datos y


el tiempo, la predicción, los valores observados, los residuos, la varianza de
predicción, y el zscore (residual divido por el error estándar) de la variable
analizada, los cuales están asociados a la LOOCV. Para obtenerla es necesario
incorporar los parámetros; de suavizamiento eta y de robustez rho, la variable
regionalizada z , las coordenadas espacio-temporales de la muestra coordinates,
la tendencia asociada con las coordenadas principales de la muestra trend , el
número de vecinos espacio-temporales más cercanos n.neigh, y la función de
base radial func.

assign("rbf.st.tcv",
function(eta, z, coordinates, trend, rho, n.neigh, func){
nt <- data.frame(coordinates,trend)
rbf.pred <- as.data.frame(matrix(NA,nrow= length(z), ncol=9))
colnames(rbf.pred) <- c("var1.pred","var1.var","observed","residual",
"zscore","fold","x","y","t")
for(i in 1:(length(z))){
rbf.pred[i,1:2] <- rbf.trst(eta=eta, z, coordinates=coordinates[-i,],
trend=trend[-i,], nd.trend=nt[i,], rho, n.neigh, func)[,4:5]
rbf.pred[i,6] <- i
}
rbf.pred[,3]<- z
rbf.pred[,5]<- (z-mean(z))/sqrt(rbf.pred[,2])
rbf.pred[,7:9]<-coordinates
rbf.pred[,4]<- rbf.pred[,3]-rbf.pred[,1]
rbf.pred
}
)

A.3 Programación capitulo 3


____________________________________________________________
####### CAPITULO 3: SIMULACIÓN KRIGING ESPACIAL ########
____________________________________________________________
188 APÉNDICE

library(gstat)
library(geoR)
library(ade4)
library(cluster)
library(rgdal)
library(splancs)
library("sp")
library("maptools")

#-------------------------------------------------------------------------
#### SIMULACIÓN 1: GRF SIN OMISIÓN DE VARIABLE, UNIVERSAL KRIGING DB ####
#-------------------------------------------------------------------------

p1 <- cbind( c(0,1,1,0), c(1,1,0.5,1))


p2 <- cbind( c(0,1,0,0), c(1,0.5,0.3,1))
p3 <- cbind( c(0,0,1,1,0), c(0,0.3,0.5,0,0))

poly1 <- Polygons(list(Polygon(p1)),"R1")


poly2 <- Polygons(list(Polygon(p2)),"R2")
poly3 <- Polygons(list(Polygon(p3)),"R3")
sppo <- SpatialPolygons(list(poly1,poly2,poly3))

###################################################
### CONSTRUCCION GRAFICO REGIONES ####
###################################################

par(mfrow=c(1,1), mar=c(5,5,4,4))
plot(sppo, ylim=c(0,1), xlab="x", ylab="y")
marcas <- seq(0,1,0.1)
axis(side=2, at=marcas)
axis(side=1, at=marcas, xlab = "x")
names <- unlist(lapply(slot(sppo,"polygons"), function(x) slot(x,"ID")))
text(coordinates(sppo), labels=names)
text(0.5,-0.1, "X", cex=1)
title(xlab="X")
title(ylab="Y")
# points(sim$coords, cex= 0.4) # Correr esto una vez se tenga las
# coordenadas de una simulación
A.3 Programación capitulo 3 189

##########################################
### CALCULO AREAS POLIGONOS ####
##########################################

areapl(p1)
areapl(p2)
areapl(p3)

getClass("Polygon")
areas <- sapply(slot(sppo,"polygons"),function(x) sapply(slot(x,"Polygons"),
slot, "area"))
str(areas)
porc.area1 <- areas[1]/sum(areas) # Para el caso es la misma area
porc.area2 <- areas[2]/sum(areas)
porc.area3 <- areas[3]/sum(areas)

100*areas[1]
50*areas[2]
50*areas[3]

Muestra1 <- c(13,17,20) # Regiones 1,2 y 3 respectivamente # 50 datos


Muestra2 <- c(25,35,40) # 100 datos
Muestra3 <- c(28,52,60) # 150 datos

###################################################################
########### SIMULACIÓN SIN OMISIÓN DE VARIABLE GRF ###########
###################################################################

#___________________
# Valores parámetros

B0 <- 10; B1 <- -4; B2 <- 2; B3 <- -4; p <- 0.4

UKDB.sim <- function(N,nsim,nugget,range1,sill,ang, anis,kappa1,lambda,


modelo.cov, cov.model,p){

psill <- c(nugget,sill)


range <- c(0,range1)
190 APÉNDICE

ang1 <- c(0,ang)


anis1 <- c(1,anis)
kappa <- c(0,kappa1)
cov.pars0 <- as.matrix(cbind(psill,range,kappa,ang1,anis1))

set.seed(127)
sim <- grf(N,nsim=105,grid= "irreg",cov.model=cov.model,xlims=c(0, 1),
lambda=lambda, ylims = c(0, 1), cov.pars=cov.pars0)

set.seed(127)
V1 <- rbinom(N, size=1, prob=p)

#build nominal covariate vector for prediction locations indicating subarea#


ind.reg.sim <- numeric(nrow(sim$coords))
ind.reg.sim[.geoR_inout(sim$coords,p1)] <- 1
ind.reg.sim[.geoR_inout(sim$coords,p2)] <- 2
ind.reg.sim[.geoR_inout(sim$coords,p3)] <- 3
ind.reg.sim <- as.factor(ind.reg.sim)

V2 <- ifelse(ind.reg.sim %in% 2,1,0)


V3 <- ifelse(ind.reg.sim %in% 3,1,0)

sim$data<-B0+B1*V1+B2*V2*sim$coords[,1]+B3*V3*sim$coords[,2]+sim$data

tabla.sim <- as.data.frame(matrix(NA,nrow= nsim, ncol=20))


colnames(tabla.sim)<-c("sim","C1","a","Co","Kapppa","MPE","ASEPE","RMSPE",
"R2","C1db","adb","Codb","Kapppadb","MPEdb","ASEPEdb","RMSPEdb","R2db",
"AICc","AICdb","No.CP")

Data.sim <- data.frame(sim$coords[,1],sim$coords[,2],V1,V2,V3)


names(Data.sim) <- c("x","y","V1","V2","V3")

##########################################################################
####### CONSTRUCCION COORDENADAS PRINCIPALES Y KRIGEADO DB ######
##########################################################################

Delt<-daisy(Data.sim,type=list(asymm=c("V1","V2","V3")),metric="gower")
class(Delt)
is.euclid(Delt^(1/2))
A.3 Programación capitulo 3 191

mds <- cmdscale(Delt^(1/2), k = nrow(Data.sim)-1, eig = TRUE)


names(mds)
round(mds$points[,1],4)

m <- sum(mds$eig > 0.007)


mds <- cmdscale(Delt^0.5, k = m, eig = TRUE)
X <- mds$points

for(i in 1:100){

ValoresPropios <- mds$eig


CorrCuadrado <- as.vector(cor(sim$data[,i],X)^2)
Porc.Inercia <- ValoresPropios/length(CorrCuadrado)
o<-data.frame(1:length(CorrCuadrado),round(ValoresPropios[1:length
(CorrCuadrado)],10),round(CorrCuadrado,10),round(Porc.Inercia[1:length
(CorrCuadrado)],10))
names(o)<-c("ID", "ValoresProp", "CorrCuad", "Porc.Inercia")

names(o)
o1<-o[o$CorrCuad>0.007,]
Xr.sim <- X[,o1$ID]
rdb.sim <- lm(sim$data[,i] ~ Xr.sim)
model.db.sim <- summary(rdb.sim)

x <- sim$coords[,1]
y <- sim$coords[,2]
z <- sim$data[,i]
dXr.sim <- data.frame(x,y,z,Xr.sim)
sim.gd <- as.geodata(dXr.sim, coords.col = 1:2, data.col = 3,
covar.col=4:(ncol(Xr.sim)+3))

## Create a formula for a model with a large number of variables:


xnam <- paste("X", 1:ncol(Xr.sim), sep="")
fmla <- as.formula(paste(" ~ ", paste(xnam, collapse= "+")))
try({m4.db.sim <- likfit(sim.gd, trend=fmla, cov.model= cov.model,
ini = c(sill,range1), kappa=kappa1, nug=nugget, messages=F)})
ls()
f <- ifelse(ls() %in% "m4.db.sim",1,0)
w <- sum(f)
phid <- ifelse(w==0,range1,m4.db.sim$phi)
192 APÉNDICE

sigmasqd <- ifelse(w==0,sill,m4.db.sim$sigmasq)


tausqd <- ifelse(w==0,nugget,m4.db.sim$tausq)
kappad <- ifelse(w==0,kappa,m4.db.sim$kappa)
m4.db.sim0 <- likfit(s100, ini=c(0.5, 0.5), fix.nug = TRUE)
m4.db.sim0$phi <- phid
m4.db.sim0$sigmasq <- sigmasqd
m4.db.sim0$tausq <- tausqd
m4.db.sim0$kappa <- kappad

m4.db.sim0$phi <- ifelse(m4.db.sim0$phi==0,range1,m4.db.sim0$phi)


m4.db.sim0$sigmasq <- ifelse(m4.db.sim0$sigmasq==0,sill,m4.db.sim0$sigmasq)

vuk.db.sim <- vgm(m4.db.sim0$sigmasq,modelo.cov,m4.db.sim0$phi,


m4.db.sim0$tausq,kappa=m4.db.sim0$kappa)
g1.db.sim <- gstat(id = "z", formula = z~X1, locations = ~x+y,
model=vuk.db.sim, data = dXr.sim)
## Create a formula for a model with a large number of variables:
g1.db.sim$data$z$formula<-as.formula(paste("z~",paste(xnam,collapse="+")))
kcv.db.sim <- gstat.cv(g1.db.sim,nfold=N, nmax=40)
MPEdb <- mean(kcv.db.sim$residual)
ASEPEdb <- mean(sqrt(kcv.db.sim$z.var))
RMSPEdb <- sqrt(sum(kcv.db.sim$residual^2)/length(kcv.db.sim$residual))
resid.mean.sim <- dXr.sim$z- mean(dXr.sim$z)
R2db <- 1- sum((kcv.db.sim$residual)^2)/sum(resid.mean.sim^2)

############################################################################
########## CONSTRUCCION KRIGEADO UNIVERSAL CLASICO ###########
############################################################################

dataX.sim <- data.frame(x,y,z,Data.sim[,-(1:2)])


sim.gdc <- as.geodata(dataX.sim, coords.col = 1:2, data.col = 3,
covar.col=4:ncol(dataX.sim))

try({m5.sim <- likfit(sim.gdc, trend=~coords+covariate$V1+covariate$V2+


covariate$V3, cov.model= cov.model,
kappa=kappa1, ini = c(sill,range1), nug=nugget, messages=F)})
ls()
f1 <- ifelse(ls() %in% "m5.sim",1,0)
w1 <- sum(f1)
A.3 Programación capitulo 3 193

phic <- ifelse(w1==0,range1,m5.sim$phi)


sigmasqc <- ifelse(w1==0,sill,m5.sim$sigmasq)
tausqc <- ifelse(w1==0,nugget,m5.sim$tausq)
kappac <- ifelse(w1==0,kappa,m5.sim$kappa)
m5.sim1 <- likfit(s100, ini=c(0.5, 0.5), fix.nug = TRUE)
m5.sim1$phi <- phic
m5.sim1$sigmasq <- sigmasqc
m5.sim1$tausq <- tausqc
m5.sim1$kappa <- kappac

m5.sim1$phi <- ifelse(m5.sim1$phi==0,range1,m5.sim1$phi)


m5.sim1$sigmasq <- ifelse(m5.sim1$sigmasq==0,sill,m5.sim1$sigmasq)

vuk.sim <- vgm(m5.sim1$sigmasq,modelo.cov,m5.sim1$phi,m5.sim1$tausq,


kappa=m5.sim1$kappa)
g1.sim <- gstat(id = "z", formula = z~x+y+V1+V2+V3, locations = ~x+y,
model=vuk.sim, data = dataX.sim)
kcv.sim <- gstat.cv(g1.sim,nfold=N, nmax=40)
MPE <- mean(kcv.sim$residual)
ASEPE <- mean(sqrt(kcv.sim$z.var))
RMSPE <- sqrt(sum(kcv.sim$residual^2)/length(kcv.sim$residual))
R2 <- 1- sum((kcv.sim$residual)^2)/sum(resid.mean.sim^2)

tabla.sim[i,]<- c(i,m5.sim1$sigmasq,m5.sim1$phi,m5.sim1$tausq,m5.sim1$kappa,
MPE,ASEPE,RMSPE,R2,m4.db.sim0$sigmasq,m4.db.sim0$phi,m4.db.sim0$tausq,
kappa=m4.db.sim0$kappa,MPEdb,ASEPEdb,RMSPEdb,R2db,AIC(m5.sim),
AIC(m4.db.sim),ncol(Xr.sim))
}
tabla.sim
}

tabla1.s.o<-UKDB.sim(N=50,nsim=100,nugget=0,range1=0.15,sill=1,ang=0,anis=1,
kappa1=0.5,lambda=1,modelo.cov="Mat",cov.model="matern",p=0.4)
tabla2.s.o<-UKDB.sim(N=100,nsim=100,nugget=0,range1=0.15,sill=1,ang=0,anis=1,
kappa1=0.5,lambda=1,modelo.cov="Mat",cov.model="matern",p=0.4)
tabla3.s.o<-UKDB.sim(N=150,nsim=100,nugget=0,range1=0.15,sill=1,ang=0,anis=1,
kappa1=0.5,lambda=1,modelo.cov="Mat",cov.model="matern",p=0.4)

tabla4.s.o<-UKDB.sim(N=50,nsim=100,nugget=0,range1=0.15,sill=1,ang=0,anis=1,
kappa1=3/2,lambda=1,modelo.cov="Mat",cov.model="matern",p=0.4)
194 APÉNDICE

tabla5.s.o<-UKDB.sim(N=100,nsim=100,nugget=0,range1=0.15,sill=1,ang=0,anis=1,
kappa1=3/2,lambda=1,modelo.cov="Mat",cov.model="matern",p=0.4)
tabla6.s.o<-UKDB.sim(N=150,nsim=100,nugget=0,range1=0.15,sill=1,ang=0,anis=1,
kappa1=3/2,lambda=1,modelo.cov="Mat",cov.model="matern",p=0.4)
.
.
.
tabla94.sim<-UKDB.sim(N=50,nsim=100,nugget=1,range1=0.6,sill=2,ang=0,anis=1,
kappa1=0,lambda=1,modelo.cov="Sph",cov.model="spherical",p=0.4)
tabla95.sim<-UKDB.sim(N=100,nsim=100,nugget=1,range1=0.6,sill=2,ang=0,anis=1,
kappa1=0,lambda=1,modelo.cov="Sph",cov.model="spherical",p=0.4)
tabla96.sim<-UKDB.sim(N=150,nsim=100,nugget=1,range1=0.6,sill=2, ang=0,anis=1,
kappa1=0,lambda=1,modelo.cov="Sph",cov.model="spherical",p=0.4)

#------------------------------------------------------------------------
### SIMULACIÓN 2: GRF CON OMISIÓN DE VARIABLE, UNIVERSAL KRIGING DB ###
#------------------------------------------------------------------------

UKDB.sim <- function(N,nsim,nugget,range1,sill,ang,anis,kappa1,lambda,


modelo.cov, cov.model,p){
psill <- c(nugget,sill)
range <- c(0,range1)
ang1 <- c(0,ang)
anis1 <- c(1,anis)
kappa <- c(0,kappa1)
cov.pars0 <- as.matrix(cbind(psill,range,kappa,ang1,anis1))

set.seed(127)
sim <- grf(N,nsim=105,grid="irreg",cov.model=cov.model,xlims=c(0, 1),
lambda=lambda, ylims = c(0, 1), cov.pars=cov.pars0)
set.seed(127)
V1 <- rbinom(N, size=1, prob=p)

#build nominal covariate vector for prediction locations indicating subarea#


ind.reg.sim <- numeric(nrow(sim$coords))
ind.reg.sim[.geoR_inout(sim$coords,p1)] <- 1
ind.reg.sim[.geoR_inout(sim$coords,p2)] <- 2
ind.reg.sim[.geoR_inout(sim$coords,p3)] <- 3
A.3 Programación capitulo 3 195

ind.reg.sim <- as.factor(ind.reg.sim)

V2 <- ifelse(ind.reg.sim %in% 2,1,0)


V3 <- ifelse(ind.reg.sim %in% 3,1,0)

sim$data <-B0+B1*V1+B2*V2*sim$coords[,1]+B3*V3*sim$coords[,2]+sim$data

tabla.sim <- as.data.frame(matrix(NA,nrow= nsim, ncol=20))


colnames(tabla.sim)<-c("sim","C1","a","Co","Kapppa","MPE","ASEPE","RMSPE",
"R2","C1db","adb","Codb","Kapppadb","MPEdb","ASEPEdb","RMSPEdb","R2db",
"AICc","AICdb","No.CP")

Data.sim <- data.frame(sim$coords[,1],sim$coords[,2],V2,V3)


names(Data.sim) <- c("x","y","V2","V3")

#########################################################################
######## CONSTRUCCION COORDENADAS PRINCIPALES Y KRIGEADO DB ########
#########################################################################

Delt <- daisy(Data.sim, type=list(asymm=c("V2","V3")), metric ="gower")


class(Delt)
library(ade4)
is.euclid(Delt^(1/2))

mds <- cmdscale(Delt^(1/2), k = nrow(Data.sim)-1, eig = TRUE)


names(mds)
round(mds$points[,1],4)

m <- sum(mds$eig > 0.007)


mds <- cmdscale(Delt^0.5, k = m, eig = TRUE)
X <- mds$points

for(i in 1:100){
ValoresPropios <- mds$eig
CorrCuadrado <- as.vector(cor(sim$data[,i],X)^2)
Porc.Inercia <- ValoresPropios/length(CorrCuadrado)
o<-data.frame(1:length(CorrCuadrado),round(ValoresPropios[1:length
(CorrCuadrado)],10),round(CorrCuadrado,10),round(Porc.Inercia[1:
length(CorrCuadrado)],10))
names(o)<-c("ID", "ValoresProp", "CorrCuad", "Porc.Inercia")
196 APÉNDICE

names(o)
o1<-o[o$CorrCuad>0.007,]
Xr.sim <- X[,o1$ID]
rdb.sim <- lm(sim$data[,i] ~ Xr.sim)
model.db.sim <- summary(rdb.sim)

x <- sim$coords[,1]
y <- sim$coords[,2]
z <- sim$data[,i]
dXr.sim <- data.frame(x,y,z,Xr.sim)
sim.gd <- as.geodata(dXr.sim, coords.col = 1:2, data.col = 3,
covar.col=4:(ncol(Xr.sim)+3))
## Create a formula for a model with a large number of variables:
xnam <- paste("X", 1:ncol(Xr.sim), sep="")
fmla <- as.formula(paste(" ~ ", paste(xnam, collapse= "+")))
try({m4.db.sim <- likfit(sim.gd, trend=fmla, cov.model= cov.model,
ini = c(sill,range1), kappa=kappa1, nug=nugget, messages=F)})
ls()
f <- ifelse(ls() %in% "m4.db.sim",1,0)
w <- sum(f)
phid <- ifelse(w==0,range1,m4.db.sim$phi)
sigmasqd <- ifelse(w==0,sill,m4.db.sim$sigmasq)
tausqd <- ifelse(w==0,nugget,m4.db.sim$tausq)
kappad <- ifelse(w==0,kappa,m4.db.sim$kappa)
m4.db.sim0 <- likfit(s100, ini=c(0.5, 0.5), fix.nug = TRUE)
m4.db.sim0$phi <- phid
m4.db.sim0$sigmasq <- sigmasqd
m4.db.sim0$tausq <- tausqd
m4.db.sim0$kappa <- kappad
AICdb <- ifelse(f==1, "NA", AIC(m4.db.sim))

m4.db.sim0$phi <- ifelse(m4.db.sim0$phi==0,range1,m4.db.sim0$phi)


m4.db.sim0$sigmasq<-ifelse(m4.db.sim0$sigmasq==0,sill,m4.db.sim0$sigmasq)

vuk.db.sim<-vgm(m4.db.sim0$sigmasq,modelo.cov,m4.db.sim0$phi,
m4.db.sim0$tausq, kappa=m4.db.sim0$kappa)
g1.db.sim <- gstat(id = "z", formula = z~X1, locations = ~x+y,
model=vuk.db.sim, data = dXr.sim)
## Create a formula for a model with a large number of variables:
A.3 Programación capitulo 3 197

g1.db.sim$data$z$formula<-as.formula(paste("z~",paste(xnam,collapse="+")))
kcv.db.sim <- gstat.cv(g1.db.sim,nfold=N)
MPEdb <- mean(kcv.db.sim$residual)
ASEPEdb <- mean(sqrt(kcv.db.sim$z.var))
RMSPEdb <- sqrt(sum(kcv.db.sim$residual^2)/length(kcv.db.sim$residual))
resid.mean.sim <- dXr.sim$z- mean(dXr.sim$z)
R2db <- 1- sum((kcv.db.sim$residual)^2)/sum(resid.mean.sim^2)

#########################################################################
########### CONSTRUCCION KRIGEADO UNIVERSAL CLASICO ############
#########################################################################

dataX.sim <- data.frame(x,y,z,Data.sim[,-(1:2)])


sim.gdc <- as.geodata(dataX.sim, coords.col = 1:2, data.col = 3,
covar.col=4:ncol(dataX.sim))

try({m5.sim <- likfit(sim.gdc, trend=~coords+covariate$V2+covariate$V3,


cov.model=cov.model,ini=c(sill,range1),kappa=kappa1,nug=nugget,messages=F)})
ls()
f1 <- ifelse(ls() %in% "m5.sim",1,0)
w1 <- sum(f1)
phic <- ifelse(w1==0,range1,m5.sim$phi)
sigmasqc <- ifelse(w1==0,sill,m5.sim$sigmasq)
tausqc <- ifelse(w1==0,nugget,m5.sim$tausq)
kappac <- ifelse(w1==0,kappa,m5.sim$kappa)
m5.sim1 <- likfit(s100, ini=c(0.5, 0.5), fix.nug = TRUE)
m5.sim1$phi <- phic
m5.sim1$sigmasq <- sigmasqc
m5.sim1$tausq <- tausqc
m5.sim1$kappa <- kappac

m5.sim1$phi <- ifelse(m5.sim1$phi==0,range1,m5.sim1$phi)


m5.sim1$sigmasq <- ifelse(m5.sim1$sigmasq==0,sill,m5.sim1$sigmasq)

vuk.sim <- vgm(m5.sim1$sigmasq,modelo.cov,m5.sim1$phi,m5.sim1$tausq,


kappa=m5.sim1$kappa)
g1.sim <- gstat(id= "z", formula = z~x+y+V2+V3, locations= ~x+y,
model=vuk.sim, data = dataX.sim)
kcv.sim <- gstat.cv(g1.sim,nfold=N)
198 APÉNDICE

MPE <- mean(kcv.sim$residual)


ASEPE <- mean(sqrt(kcv.sim$z.var))
RMSPE <- sqrt(sum(kcv.sim$residual^2)/length(kcv.sim$residual))
R2 <- 1- sum((kcv.sim$residual)^2)/sum(resid.mean.sim^2)

tabla.sim[i,]<-c(i,m5.sim1$sigmasq,m5.sim1$phi,m5.sim1$tausq,m5.sim1$kappa,
MPE,ASEPE,RMSPE,R2,m4.db.sim0$sigmasq,m4.db.sim0$phi,m4.db.sim0$tausq,
kappa=m4.db.sim0$kappa,MPEdb,ASEPEdb,RMSPEdb,R2db,AIC(m5.sim),
AIC(m4.db.sim), ncol(Xr.sim))
}
tabla.sim
}

tabla1.c.o<-UKDB.sim(N=50,nsim=100,nugget=0,range1=0.15,sill=1,ang=0,anis=1,
kappa1=0.5,lambda=1,modelo.cov="Mat",cov.model="matern",p=0.4)
tabla2.c.o<-UKDB.sim(N=100,nsim=100,nugget=0,range1=0.15,sill=1,ang=0,anis=1,
kappa1=0.5,lambda=1,modelo.cov="Mat",cov.model="matern",p=0.4)
tabla3.c.o<-UKDB.sim(N=150,nsim=100,nugget=0,range1=0.15,sill=1,ang=0,anis=1,
kappa1=0.5,lambda=1,modelo.cov="Mat",cov.model="matern",p=0.4)

tabla4.c.o<-UKDB.sim(N=50,nsim=100,nugget=0,range1=0.15,sill=1,ang=0,anis=1,
kappa1=3/2,lambda=1,modelo.cov="Mat",cov.model="matern",p=0.4)
tabla5.c.o<-UKDB.sim(N=100,nsim=100,nugget=0,range1=0.15,sill=1,ang=0,anis=1,
kappa1=3/2,lambda=1,modelo.cov="Mat",cov.model="matern",p=0.4)
tabla6.c.o<-UKDB.sim(N=150,nsim=100,nugget=0,range1=0.15,sill=1,ang=0,anis=1,
kappa1=3/2,lambda=1,modelo.cov="Mat",cov.model="matern",p=0.4)
.
.
.
tabla94.c.o<-UKDB.sim(N=50,nsim=100,nugget=1,range1=0.6,sill=2,ang=0,anis=1,
kappa1=0,lambda=1,modelo.cov="Sph",cov.model="spherical",p=0.4)
tabla95.c.o<-UKDB.sim(N=100,nsim=100,nugget=1,range1=0.6,sill=2,ang=0,anis=1,
kappa1=0,lambda=1,modelo.cov="Sph",cov.model="spherical",p=0.4)
tabla96.c.o<-UKDB.sim(N=150,nsim=100,nugget=1,range1=0.6,sill=2,ang=0,anis=1,
kappa1=0,lambda=1,modelo.cov="Sph",cov.model="spherical",p=0.4)

#------------------------------------------------------------------------
#### CAPITULO 3: KRIGING UNIVERSAL DB VS KRIGING UNIVERSAL CLASICO ####
#------------------------------------------------------------------------
A.3 Programación capitulo 3 199

#--------------------------------------------------
## A. APLICACIÓN TEMPERATURA CROATIA 01-12-2008 ##
#--------------------------------------------------

library(sp)
library(maptools)
library(gstat)
library(fields)
library(rgdal)
library(lattice)
library(spatstat)
library(RSAGA)
library(cluster)
utm33 <- "+proj=utm +zone=33 +ellps=WGS84 +datum=WGS84 +units=m +no_defs"

# Download auxiliary maps and station measurements:


download.file("http://spatial-analyst.net/book/sites/default/files/
HRclim2008.zip",destfile=paste(getwd(), "HRclim2008.zip", sep="/"))
unzip(zipfile="HRclim2008.zip", exdir=getwd())
unlink("HRclim2008.zip")

# Download MODIS LST images:


download.file("http://spatial-analyst.net/book/sites/default/files/
LST2008HR.zip",destfile=paste(getwd(), "LST2008HR.zip", sep="/"))
unzip(zipfile="LST2008HR.zip", exdir=paste(getwd(), "/LST", sep=""))
unlink("LST2008HR.zip")

# --------------------------------------------------------------
# STEP 1: Importación de los datos y formateo (estandarización);
# --------------------------------------------------------------

# Import location of stations:


IDSTA<-read.table("stations_temp_xy_2008.csv",header=TRUE,sep=",",quote="\"")
coordinates(IDSTA) <- ~LON+LAT
proj4string(IDSTA)<-CRS("+proj=longlat+ellps=bessel+towgs84=550.499,164.116,
475.142,5.80967,2.07902,-11.62386,0.99999445824")
# HRG2000 geoid [http://spatial-analyst.net/wiki/index.php?title=MGI_/
_Balkans_coordinate_systems]
IDSTA.ll <- spTransform(IDSTA, CRS("+proj=longlat+ellps=WGS84+datum=WGS84"))
200 APÉNDICE

writeOGR(IDSTA.ll, "gl_stations.kml", "IDSTA", "KML")


IDSTA.utm <- spTransform(IDSTA, CRS(utm33))
writeOGR(IDSTA.utm, "gl_stations.shp", "IDSTA", "ESRI Shapefile")
locs <- as.data.frame(IDSTA.utm)
names(locs)[c(5,6)] <- c("X", "Y")
str(locs)
# ST_ID : Identification code of a station
# NAME : Station name
# SP_CODE : Station type "gl"-main, "kl"-climatological, "ks"-precipitation
# ELEV : Station elevation in official database

# convert to lines:
rsaga.geoprocessor(lib="shapes_lines",module=0,param=list(LINES=
"borders.shp", POLYGONS="countries_s.shp"))
# import country borders:
borders <- readOGR(".", "borders")

# Croatia.shp fue generado en ArcGIS 10.0, allı́ se eliminaron los bordes de


# otros paises del archivo "countries_s.shp"
croatia.shp <- readShapePoly("D:/........./croatia.shp")

# Import temperature at stations:


HRtemp2008 <- read.delim("temp_2008.csv", header=TRUE, sep=",", quote="\"")
# NA values:
HRtemp2008$T07[HRtemp2008$T07==-99.9]<-NA;HRtemp2008$T14[HRtemp2008$T14==
-99.9]<-NA; HRtemp2008$T21[HRtemp2008$T21==-99.9] <- NA
HRtemp2008$TEMP <- (HRtemp2008$T07+HRtemp2008$T14+2*HRtemp2008$T21)/4
str(HRtemp2008)# Mean daily temperature for 365 days (2008) at 152 locations;
summary(HRtemp2008$TEMP) # 712 NA’s
HRtemp2008$ST_ID <- as.factor(HRtemp2008$ST_ID)
# format the DATEs (convert to number of cumulative days since 1970-01-01):
HRtemp2008$DATE <- as.Date(as.character(HRtemp2008$DATE))
HRtemp2008$cday <- floor(unclass(as.POSIXct(HRtemp2008$DATE))/86400)
floor(unclass(as.POSIXct("2008-01-30"))/86400)[[1]]

# stations without measurements:


dif.IDSTA <- merge(locs, IDSTA.utm, by.x="ST_ID", all.x=TRUE)
dif.IDSTA1 <- merge(dif.IDSTA, HRtemp2008, by.x="ST_ID", all.x=TRUE)
dif.IDSTA2<-merge(dif.IDSTA1,IDSTAPREC,by.x=c("ST_ID","DATE"),all.x=TRUE)
dif.IDSTA3 <- dif.IDSTA2[(dif.IDSTA2$DATE %in% "2008-12-01"),]
A.3 Programación capitulo 3 201

names(dif.IDSTA3)

# temperature the day before:


tmp <- data.frame(ST_ID=HRtemp2008$ST_ID, DATE=HRtemp2008$DATE+1,
TEMP1M=HRtemp2008$TEMP)
HRtemp2008.f <- merge(HRtemp2008, tmp, by=c("DATE", "ST_ID"), all.x=TRUE)
# check numbers:
HRtemp2008.f[(0:5)*(159-1)+1,c("ST_ID","DATE","TEMP","TEMP1M")]

# Import grids:
grids <- readGDAL("HRdem.asc")
names(grids@data)[1] <- "HRdem"
for(j in c("HRdsea", "HRtwi")){
grids@data[,j] <- readGDAL(paste(j, ".asc", sep=""))$band1
}
proj4string(grids) <- CRS(utm33)
# create dummy grids (Lat/Lon):
grids.ll <- spTransform(grids[1], CRS("+proj=longlat +datum=WGS84"))
grids$Lat <- grids.ll@coords[,2]
grids$Lon <- grids.ll@coords[,1]
str(grids@data)
# spplot(grids["Lat"])
lat.c <- mean(grids.ll@coords[,2])

# ---------------------------------------------------------
# STEP 2: importación de las grillas y derivación de INSOL;
# ---------------------------------------------------------

# derive total solar insolation for 365 days:


writeGDAL(grids["HRdem"], "HRdem.sdat", "SAGA")
writeGDAL(grids["Lat"], "HRlat.sdat", "SAGA")
writeGDAL(grids["Lon"], "HRlon.sdat", "SAGA")

Sys.chmod(getwd(), mode="0777"); dir.create("INSOL")


for(j in 1:365){
rsaga.geoprocessor(lib="ta_lighting",module=3,param=list(GRD_DEM="HRdem.sgrd"
,GRD_LAT="HRlat.sgrd",GRD_LON="HRlon.sgrd", GRD_TOTAL=paste("INSOL/","INSOL"
,j,".sgrd",sep=""),PERIOD=1,DHOUR=4,DAY_A=j),show.output.on.console=FALSE)
# read to R:
grids@data[,paste("INSOL", j, sep="")]<-readGDAL(paste("INSOL/","INSOL",j,
202 APÉNDICE

".sdat", sep=""), silent=TRUE)$band1


} # takes cca 30 mins!!

# Import LST MODIS images


# List of images:
LST.listday <- dir(path=paste(getwd(), "LST", sep="/"),
pattern=glob2rx("LST2008_**_**.LST_Day_1km.tif"), full.names=TRUE)
for(i in 1:length(LST.listday)){
LSTname<-strsplit(strsplit(LST.listday[i],"LST/")[[1]][2],".LST_")[[1]][1]
tmp1 <- readGDAL(LST.listday[i], silent=TRUE)
# convert to celsius:
grids@data[,LSTname]<-ifelse(tmp1$band1<=7500, NA, tmp1$band1*0.02-273.15)
}

# ---------------------------------------------------------
# STEP 3: Generación mapa de ubicación estaciones y geodata;
# ---------------------------------------------------------

## Construccion Mapa Ubicacion Estaciones Croacia


par(mfrow=c(1,1), mar=c(5,5,4,4))
plot(croatia.shp, col="gray",border="blue", axes=F,)
at.y <- (47:51)*100000
axis(2, at = at.y, labels = formatC(at.y, format="fg"))
my.at <- (4:8)*100000
axis(1, at = my.at, labels = formatC(my.at, format="fg"))
box(lty = ’solid’, )
points(dif.IDSTA3$X,dif.IDSTA3$Y,cex=0.4)
title(xlab="X")
title(ylab="Y")

# Se convierten a un formato de clase "as.geodata"

IDSTA.geoR <- as.geodata(dif.IDSTA3, coords.col = 3:4, data.col = 13)


plot(IDSTA.geoR)
points.geodata(IDSTA.geoR, x.leg=3,y.leg=5,main=c("Gráfico de Intensidades
de Temperatura", "(Celsius) 2008-12-01"), col.main=3, pt.div="quintile")
# Graficar los datos (puntos) y ver simbolos graduados, además la opción
# "add.to.plot" es útil para adicionar opciones de la instrucción "plot",
# como en este caso la grilla.
points.geodata(IDSTA.geoR,x.leg=3,y.leg=5,main=c("Gráfico de Intensidades",
A.3 Programación capitulo 3 203

"de Temperatura"), col.main=3,pt.div="quintile", add.to.plot = TRUE,


panel.first = grid())
#Valores de precipitación, desplazados para no superponerlos con los puntos
text(dif.IDSTA3$X-15000,dif.IDSTA3$Y,round(dif.IDSTA3$TEMP,1),col=1,cex=0.6)

#---------------------------------------------------------------------------
#STEP 4: Calculo de coordenadas principales y regresión basada en distancias
#---------------------------------------------------------------------------

Delta <- daisy(cbind(dif.IDSTA3$X, dif.IDSTA3$Y), metric ="euclidean")


class(Delta)
library(ade4)
is.euclid(Delta)

mds <- cmdscale(Delta, k = n-1, eig = TRUE)


names(mds)
round(mds$points[,1],4)

m <- sum(mds$eig > 1.0e-15)


mds <- cmdscale(Delta, k = m, eig = TRUE)
X <- mds$points

ValoresPropios <- mds$eig


CorrCuadrado <- as.vector(cor(y,X)^2)
Porc.Inercia <- ValoresPropios/sum(ValoresPropios)
o<-data.frame(1:77,round(ValoresPropios[1:77],7),
round(CorrCuadrado[1:77],7),round(Porc.Inercia[1:77],7))
names(o)<-c("ID", "ValoresProp", "CorrCuad", "Porc.Inercia")
fix(o)
length(ValoresPropios)

aux <- CorrCuadrado[1:83]*ValoresPropios[1:83]/sum(CorrCuadrado[1:83]*


ValoresPropios[1:83])
c.pred <- c(0,cumsum(aux))

plot(0:m,1-c.pred,xlab="Número de coordenadas principales",ylab="1 -


Predictibilidad",main=c("Gráfico de no predictibilidad para las",
"coordenadas principales"),cex.main=1.2, col.main=4, ylim=c(0,0.35),
xlim=c(0,10), type="l")
204 APÉNDICE

abline(v=2,lty=2,col="blue")

names(o)
o1<-o[o$CorrCuad>0.007,]
Xr <- X[,o1$ID]
rdb <- lm(y ~ Xr)
summary(rdb)

rdb1<-lm(y~dif.IDSTA3$X+dif.IDSTA3$Y+I(dif.IDSTA3$X^2)+I(dif.IDSTA3$Y^2)+
dif.IDSTA3$Y*dif.IDSTA3$X)
summary(rdb1)
dif.IDSTA3$residuos <- rdb$residuals

rdb <- lm(y ~ X)


plot(density(rdb1$residuals), main="Gráfico de densidad de los residuos\n
de la Regresión Clásica y DB")
lines(density(rdb$residuals), col=2)
exc <-list(paste("Clásico Orden 2 "),paste("Basado en Distancias"))
legend(locator(1),c(exc[[1]],exc[[2]]),title="Modelo Tendencia",text.col=
c(1,1),lty=c(1,1), pch=c(-1,-1), box.col=F, col=c(1,2),lwd=c(2,2),cex=0.8)

midataframe3<-data.frame(Xr,midataframe[,3])
names(midataframe3)<-c("X1","X2","X3","X4","X5","X6","X7","X8","X9","X10",
"X11","X12","X13","X14","X15","TEMP")

# ---------------------------
# STEP 5: Ajuste Variogramas;
# ---------------------------

midataframe <- data.frame(dif.IDSTA3[,c(3,4,17)])


names(midataframe) <- c("x", "y", "r")

library(sgeostat)
# library(geospt) # No seria necesario cargar "sgeostat"
midataframe <- data.frame(dif.IDSTA3[,c(3,4,17)])
names(midataframe) <- c("x", "y", "r")
P.L.point <- point(midataframe)
P.L.pair <- pair(P.L.point,num.lags=40,maxdist=200000)
#El parametro trim se utiliza para calcular la media recortada
P.L.v <- est.variograms(P.L.point,P.L.pair,"r",trim=0.1)
A.3 Programación capitulo 3 205

#A continuación se grafica los semivariogramas experimentales


plot(P.L.v$bins,P.L.v$robust,lty=1, col =1,main = c("Ajuste de Modelos de
Semivarianza", "Deriva DB"),xlab="Distancia",ylab="Semivarianza",type="l")
lines(P.L.v$bins,P.L.v$med, col=2)
lines(P.L.v$bins,P.L.v$classic, col=3)
lines(P.L.v$bins,P.L.v$med.trim, col=4)
legend(locator(1), c("Clásico", "Robusto", "Mediana", "Media Recortada"),
col=c(1,2,3,4), lty=c(1,1,1,1))
# Se inactiva sgeostat, dado que genera conflicto con geoR en algunas
# funciones
detach("package:sgeostat")

# A continuacion se ajustan algunos semivariogramas teoricos al


# semivariograma experimental
dir.hor <- seq(0, 0, length.out=40)
dir.ver <- seq(0, 0, length.out=40)
id <- seq (length.out=40)
id <- rep("var1",40)

###################
##ESFERICO CLASICO
###################

library(gstat)
y <- data.frame (P.L.v$n, P.L.v$bins, P.L.v$classic, dir.hor, dir.ver, id)
names(y) <- c("np", "dist", "gamma", "dir.hor","dir.ver","id")
class(y) <- c("variogram","gstatVariogram","data.frame")

Sph.wls <- fit.variogram(y, vgm(7.5,"Sph",100000,1.5,anis=c(p=45, s=0.5)),


fit.method = 2) # metodo 2 MCP Nj/(G(hj))^2
Sph.reml <-fit.variogram.reml(TEMP~1,~x+y,midataframe2,model=vgm(7.5,"Sph",
100000, 1.5, anis=c(p=45, s=0.5)))
Sph.ols <- fit.variogram(y,vgm(7.5,"Sph",100000,1.5,anis=c(p=45, s=0.5)),
fit.method = 6) # metodo 6 MCO
Sph.wls1 <- fit.variogram(y, vgm(7.5,"Sph",100000,1.5,anis=c(p=45,s=0.5)),
fit.method = 7) # metodo 7 MCP Nj/(hj)^2
print(list(Sph.wls,Sph.reml,Sph.ols, Sph.wls1))

dist.s <- P.L.v$bins


Sph.WLS <- variogramLine(vgm(Sph.wls$psill[2], "Sph", Sph.wls$range[2],
206 APÉNDICE

Sph.wls$psill[1],anis=c(p=45, s=0.5)), min=0, dist_vector=dist.s)


Sph.RML <- variogramLine(vgm(Sph.reml$psill[2], "Sph", Sph.reml$range[2],
Sph.reml$psill[1],anis=c(p=45, s=0.5)), min=0, dist_vector=dist.s)
Sph.WLS1 <- variogramLine(vgm(Sph.wls1$psill[2], "Sph", Sph.wls1$range[2],
Sph.wls1$psill[1],anis=c(p=45, s=0.5)), min=0, dist_vector=dist.s)
Sph.OLS <- variogramLine(vgm(Sph.ols$psill[2], "Sph", Sph.ols$range[2],
Sph.ols$psill[1],anis=c(p=45, s=0.5)), min=0, dist_vector=dist.s)
CME.Sph.WLS <- mean((P.L.v$classic-Sph.WLS$gamma)^2)
CME.Sph.RML <- mean((P.L.v$classic-Sph.RML$gamma)^2)
CME.Sph.OLS <- mean((P.L.v$classic-Sph.OLS$gamma)^2)
CME.Sph.WLS1 <- mean((P.L.v$classic-Sph.WLS1$gamma)^2)
print(data.frame(CME.Sph.WLS,CME.Sph.RML,CME.Sph.OLS,CME.Sph.WLS1))
plot(P.L.v$bins,P.L.v$classic,lty=2,pch=1,lwd=2,bg="yellow",type="p",col=1,
font.main=3,main=("AJUSTE DE MODELO ESFERICO CLÁSICO DB"),
xlab="Distancia",ylab="Semivarianza")
lines(Sph.WLS, col =2,lty=6,lwd=2)
lines(Sph.RML, col =3,lty=6,lwd=2)
lines(Sph.WLS1, col =4,lty=6,lwd=2)
lines(Sph.OLS, col =5,lty=6,lwd=2)
exc<-list(paste("CLÁSICO "),paste("WLS =", round(CME.Sph.WLS,4)),
paste("RML =",round(CME.Sph.RML,4)), paste("WLS1=",round(CME.Sph.WLS1,4)),
paste("OLS =",round(CME.Sph.OLS,4)))
legend(locator(1),c(exc[[1]],exc[[2]],exc[[3]],exc[[4]],exc[[5]]),title =
"Valores de CME",text.col=c(1,1,1,1,1),lty=c(-1,6,6,6,6),
pch=c(1,-1,-1,-1,-1),box.col=F,col=c(1,2,3,4,5),lwd=c(2,2,2,2,2),cex=0.8)

# Para los demás variogramas (Exponencial, Gaussiano y Matern) se trabajo de


# manera similar para el ajuste a los variogramas experimentales; clásico,
# robusto, mediana y media recortada

############################################################
# Mejores Modelos Exponencial Robusto por OLS (CME=0.7951) #
# Matern Media recortada WLS (CME=0.7968) #
############################################################

# --------------------------------------------------------------------
# STEP 6: Calculo de las coordenadas principales de nuevos individuos;
# --------------------------------------------------------------------

# Grilla generada para un recuadro sin cortar al borde de Croacia


A.3 Programación capitulo 3 207

x <- dif.IDSTA3$X
y <- dif.IDSTA3$Y
puntos <- expand.grid(x=seq(min(x),max(x),1500), y=seq(min(y),max(y),1500))
plot(puntos)
xy = puntos[c("x", "y")]
coordinates(puntos) = xy
coordinates(puntos) <- c("x","y")
gridded(puntos) <- TRUE
tendencia <- Xr[,1:2]

x.new <- (1/2)*(diag(length(ValoresPropios[1:ncol(tendencia)]))*


(ValoresPropios[1:ncol(tendencia)]^(-1)))
%*%crossprod(tendencia,b - as.numeric(dist.So)^2)
d <- as.matrix(dist(c(x,y)))
d <- daisy(rbind(puntos[1:10,],preci[,2:3][1,]), metric ="euclidean")
dis <- function(x){
d1 <-as.matrix(dist(rbind(x,dif.IDSTA3[,3:4])))[2:nrow(dif.IDSTA3[,3:4]),1]
d1
}
a <- dis(puntos[2,])
d <- apply(puntos,1,dis)

x.news <- function(ValoresPropios,coordenadas,tendencia,newdata){


So <- newdata
So <- as.data.frame(cbind(x=So[1],y=So[2]))
coordinates(So) <- c("x", "y")
s <- coordenadas
dist.So <- spDists(So,s)
b <- diag(tcrossprod(tendencia))
x.new<-(1/2)*(diag(length(ValoresPropios[1:ncol(tendencia)]))*(ValoresPropios
[1:ncol(tendencia)]^(-1)))%*%crossprod(tendencia,b-as.numeric(dist.So)^2)
x.new
}

tabla1 <- function(newdata){


x.new<-x.news(ValoresPropios=ValoresPropios,coordenadas=
SpatialPoints(coordenadas), tendencia,newdata)
x.new
}
208 APÉNDICE

tabla2<-x.news(ValoresPropios,SpatialPoints(coordenadas),
tendencia,df.pts[1,])
tabla <- apply(df.pts,1,tabla1)
tablaa <- data.frame(t(tabla))
names(tablaa)<-c("x","y")

library(maptools)
croatia.shp <- readShapePoly("D:/...../croatia.shp")
# Grilla generada dentro del borde de Croacia
pts <- spsample(croatia.shp, n=70000, type="regular")
df.pts <- as.matrix(pts)
names(df.pts) <- c("x", "y")

#tendencia1 <- tendencia


#names(tendencia1) <- c("x", "y")
#coordinates(tendencia1) <- c("x", "y")
pts<- data.frame(tendencia,dif.IDSTA3$TEMP)
names(pts)<-c("x","y","TEMP")
coordinates(pts) <- c("x", "y")
pts1<- data.frame(tendencia,dif.IDSTA3$residuos)
names(pts1)<-c("x","y","res")
coordinates(pts1) <- c("x", "y")
coordinates(tablaa) = c("x", "y")

# Los parámetros establecidos fueron los de mejor ajuste del variograma


cov.pars <- as.matrix(cbind(Exp.ols$psill,Exp.ols$range,Exp.ols$ang1,
Exp.ols$anis1))

# ---------------------------------------------
# STEP 7: Generación de mapas de interpolación;
# ---------------------------------------------

coordenadas <- dif.IDSTA3[,3:4]


names(coordenadas) <- c("x", "y")
coordinates(coordenadas) <- c("x", "y")

krige.u.bd <- function(var.reg,tendencia,ValoresPropios,coordenadas,newdata,


n.vec, modelo.cov,cov.pars){
z <- var.reg
A.3 Programación capitulo 3 209

So <- newdata
So <- as.data.frame(cbind(x=So[1],y=So[2]))
coordinates(So) <- c("x", "y")
s <- coordenadas
dist.So <- spDists(So,s)
remove("newdata","var.reg")
vec.orden <- order(dist.So)
dist.vec.cerca <- dist.So[vec.orden[1:n.vec]]
m.dist.vec <- spDists(s)[vec.orden[1:n.vec], vec.orden[1:n.vec]]
b <- diag(tcrossprod(tendencia))
x.new<-(1/2)*(diag(length(ValoresPropios[1:ncol(tendencia)]))*(ValoresPropios
[1:ncol(tendencia)]^(-1)))%*% crossprod(tendencia,b-as.numeric(dist.So)^2)
one = rep(1,length(dist.vec.cerca))
tend <- as.matrix(tendencia[vec.orden[1:n.vec],])
cov.0 <- cov.spatial(0, cov.model= modelo.cov, cov.pars =cov.pars)
m.cov<-cov.spatial(m.dist.vec, cov.model= modelo.cov, cov.pars=cov.pars)
v <- cov.spatial(dist.vec.cerca, cov.model= modelo.cov, cov.pars = cov.pars)
m.cov.k <- rbind(as.matrix(cbind(m.cov,one,tend)),as.matrix(cbind(rbind(one,
t(tend)),matrix(0,ncol=(ncol(tend)+1),nrow=(ncol(tend)+1)))))
m.cov.k.i <- solve(m.cov.k)
v.ko <- c(v,1,x.new)
Pesos.ko <- m.cov.k.i%*%v.ko
KUpr <- z[vec.orden[1:n.vec]]%*%Pesos.ko[1:length(dist.vec.cerca)]
KUvr <- cov.0-v.ko%*%Pesos.ko
remove("dist.So","vec.orden","dist.vec.cerca","m.dist.vec","b","x.new",
"one","tend","cov.0","m.cov","v","m.cov.k","m.cov.k.i","v.ko","Pesos.ko",
"ValoresPropios","tendencia","coordenadas","n.vec","modelo.cov","cov.pars",
"s","So")
data.frame(KUpr,KUvr)
}
krige.u.bd1 <- function(newdata){
krige.u.bd(var.reg=dif.IDSTA3$TEMP, tendencia, ValoresPropios, coordenadas,
newdata=newdata, n.vec=10, modelo.cov="exponential", cov.pars)
}

So <- c(671155.2,5083499)
So = as.data.frame(cbind(x=So[1],y=So[2]))
#coordinates(So) <- c("x", "y")
krige.u.bd0 <- krige.u.bd1(newdata=puntos[1,]) # prueba funcionamiento
210 APÉNDICE

start <- Sys.time()


krige.u.bd2 <- apply(puntos,1,krige.u.bd1)
Sys.time() - start
uno <- as.data.frame(do.call("rbind",krige.u.bd2))
krige.u.bd3 <- data.frame(puntos, uno)
coordinates(krige.u.bd3) = c("x", "y")
names(krige.u.bd3)<-c("var1.pred","var1.var")

spplot(krige.u.bd3["var1.pred"], cuts=10, col.regions=bpy.colors(100),


main = "Interpolaciones de Kriging Universal\n Basado en Distancias de las
Temperaturas", scales = list(draw =T), xlab="Este (m)",ylab = "Norte (m)",
key.space=list(space="right", cex=0.6))

spplot(krige.u.bd3["var1.var"], cuts=10, col.regions=bpy.colors(100),


main "Interpolaciones de Kriging Universal Basado en\n Distancias de las
Varianzas de la Temperatura", scales = list(draw =T), xlab="Este (m)",
ylab = "Norte (m)", key.space=list(space="right", cex=0.6))

coordenadas <- Xr[,1:2]


pts<- data.frame(coordenadas,dif.IDSTA3$TEMP)
names(pts) <- c("x","y","TEMP")
coordinates(pts) <- c("x", "y")
# Kriging Universal Orden 1
krige.u1<-krige(TEMP~x+y,pts,SpatialPoints(puntos),vgm(cov.pars[2,1],"Exp",
cov.pars[2,2],cov.pars[1,1],anis=c(cov.pars[2,3],cov.pars[2,4])),nmax=100)
# Kriging Universal Orden 2
krige.u2 <- krige(TEMP~x + y+ x*y +I(x^2)+I(y^2),pts,SpatialPoints(puntos),
vgm(cov.pars[2,1],"Exp",cov.pars[2,2],cov.pars[1,1],anis=c(cov.pars[2,3],
cov.pars[2,4])), nmax=100)
# Kriging Universal Orden 3
krige.u3 <- krige(z~x + y + x*y + I(x^2)+I(y^2), pts,SpatialPoints(puntos),
vgm(cov.pars[2,1],"Exp",cov.pars[2,2],cov.pars[1,1],anis=c(cov.pars[2,3],
cov.pars[2,4])), nmax=100)

gridded(krige.u2)<-TRUE
spplot(krige.u1["var1.pred"], cuts=10, col.regions=bpy.colors(100), main =
"Interpolaciones de Kriging Universal\n Orden 1 de la Temperatura",scales=
list(draw=T),xlab="Este (m)",ylab="Norte (m)",key.space=list(space="right",
cex=0.6))
A.3 Programación capitulo 3 211

spplot(krige.u1["var1.var"], cuts=10, col.regions=bpy.colors(100), main =


"Interpolaciones de Kriging Universal\n Orden 1 de la Temperatura",scales=
list(draw=T),xlab="Este (m)",ylab="Norte (m)",key.space=list(space="right",
cex=0.6))

spplot(krige.u2["var1.pred"], cuts=20, col.regions=bpy.colors(100),main =


"Interpolaciones de Kriging Universal\n Orden 2 de la Temperatura",scales=
list(draw=T),xlab="Este (m)",ylab="Norte (m)",key.space=list(space="right",
cex=0.6))

spplot(krige.u2["var1.var"], cuts=20, col.regions=bpy.colors(100), main =


"Interpolaciones de Kriging Universal\n Orden 2 de la Temperatura",scales=
list(draw=T),xlab="Este (m)",ylab="Norte (m)",key.space=list(space="right",
cex=0.6))

# Igualmente se estima un modelo de variograma para la variable TEMP y luego


# con los parametros se construye cov.pars para asi generar con las
# coordenadas los mapas de interpolación de la variable estimada TEMP y su
# correspondiente varianza.

gridded(tablaa) <- TRUE


kud.MDTEMP<-krige(TEMP~x+y,pts,tablaa,vgm(cov.pars[2,1],"Exp",cov.pars[2,2],
cov.pars[1,1],anis=c(cov.pars[2,3],cov.pars[2,4])),nmax=100)
kud.MDTEMP@coords <- coordinates(puntos)
gridded(kud.MDTEMP) <- TRUE
spplot(kud.MDTEMP["var1.pred"], cuts=20, col.regions=bpy.colors(100),main=
"Interpolaciones de Kriging Universal \n DB de la Temperatura 2008-12-01",
scales=list(draw=T),xlab="Este (m)",ylab="Norte (m)",key.space=list(space=
"right", cex=0.6))

spplot(kud.MDTEMP["var1.var"],cuts=20,col.regions=bpy.colors(100), main =
"Interpolaciones de Varianza Kriging Universal\n DB de la Temperatura
2008-12-01",scales=list(draw=T), xlab="Este (m)", ylab="Norte (m)",
key.space=list(space= "right", cex=0.6))

#-------------------------
## B. Aplicación "ca20" ##
#-------------------------
212 APÉNDICE

# ---------------------------------------------------------
# STEP 1: Preparación de la muestra, pixelado de puntos
# para los mapas y generación shapefile;
# ---------------------------------------------------------

library(geoR)
library(fields)
library(cluster)
library(minqa)
data(ca20)

### define 5 m grid, and select points within study area ###
# pixelado de puntos:
gr <- pred_grid(ca20$borders,by=5)
gr0 <- polygrid(gr,borders=ca20$border,bound=T)

# Construcción de vector de covariables para las ubicaciones de predicción


# que indica la subárea:
ind.reg.pts <- numeric(nrow(gr0))
ind.reg.pts[.geoR_inout(gr0,ca20$reg1)] <- 1
ind.reg.pts[.geoR_inout(gr0,ca20$reg2)] <- 2
ind.reg.pts[.geoR_inout(gr0,ca20$reg3)] <- 3
ind.reg.pts <- as.factor(ind.reg.pts)

v2.pts <- ifelse(ind.reg.pts %in% 2,1,0)


v3.pts <- ifelse(ind.reg.pts %in% 3,1,0)

df.pts <- data.frame(gr0[,1],gr0[,2],v2.pts,v3.pts)


names(df.pts) <- c("x","y","v2","v3")

### construcción de vector de covariables para la muestra###


ind.reg <- numeric(nrow(gr0))
ind.reg[.geoR_inout(gr0,ca20$reg1)] <- 1
ind.reg[.geoR_inout(gr0,ca20$reg2)] <- 2
ind.reg[.geoR_inout(gr0,ca20$reg3)] <- 3
ind.reg <- as.factor(ind.reg)

v2 <- ifelse(ca20$covariate$area %in% 2,1,0)


A.3 Programación capitulo 3 213

v3 <- ifelse(ca20$covariate$area %in% 3,1,0)

Data.f <- data.frame(ca20$coords[,1],ca20$coords[,2],v2,v3,


ca20$covariate$altitud)
names(Data.f) <- c("x","y","v2","v3","altitud")
Data.f1 <- Data.f[,-5]
#______________________
# Generación shapefile
library(shapefiles)
poligonos <- data.frame(c(rep(1,nrow(ca20$reg1)),rep(2,nrow(ca20$reg2)),
rep(3,nrow(ca20$reg3))),rbind(ca20$reg1,ca20$reg2,ca20$reg3))
names(poligonos) <- c("Id","x","y")
ddTable <- data.frame(Id=c(1,2,3),Name=c("reg1","reg2","reg3"))
ddShapefile <- convert.to.shapefile(poligonos, ddTable, "Id", 5)
write.shapefile(ddShapefile, "D:/..../ca20", arcgis=T)

#---------------------------------------------------------------------------
#STEP 2: Calculo de coordenadas principales y regresión basada en distancias
#---------------------------------------------------------------------------
# No se considera altitud, dado que no se dispone de esta variable en los
# puntos no muestreados

Delta1 <- daisy(Data.f[,-5], type=list(asymm=c("v2","v3")),metric ="gower")


class(Delta1)
library(ade4)
is.euclid(Delta1^(1/2))

mds0 <- cmdscale(Delta1^(1/2), k = nrow(Data.f[,-5])-1, eig = TRUE)


names(mds0)
round(mds0$points[,1],4)

m1 <- sum(mds0$eig > 0.007)


mds1 <- cmdscale(Delta1^0.5, k = m1, eig = TRUE)
Xa <- mds1$points

ValoresPropios1 <- mds1$eig

CorrCuadrado1 <- as.vector(cor(ca20$data,Xa)^2)


Porc.Inercia1 <- ValoresPropios1/length(CorrCuadrado1)
o1<-data.frame(1:length(CorrCuadrado1),round(ValoresPropios1[1:length
214 APÉNDICE

(CorrCuadrado1)],10),round(CorrCuadrado1,10),round(Porc.Inercia1[1:
length(CorrCuadrado1)],10))
names(o1)<-c("ID", "ValoresProp1", "CorrCuad1", "Porc.Inercia1")

names(o1)
o2<-o1[o1$CorrCuad1>0.007,]
Xr1 <- Xa[,o2$ID]
rdb1 <- lm(ca20$data ~ Xr1[,1:17])
model.db1 <- summary(rdb1)

aux1 <- CorrCuadrado1[1:17]*ValoresPropios1[1:17]/sum(CorrCuadrado1[1:17]*


ValoresPropios1[1:17])
c.pred1 <- c(0,cumsum(aux))

plot(0:18,1-c.pred1,
xlab="Number Principal Coordinates",
ylab="1 - Predictability",
# main=c("No Predictability Principal Coordinates"),
cex.main=1.2, col.main=4, ylim=c(0,1), xlim=c(0,18), type="l")
abline(v=4,lty=2,col="blue")

df.ca20 <- data.frame(ca20)


names(df.ca20) <- c("x","y","ca20","altitude","area")
dXr1 <- data.frame(df.ca20[,1:3],Xr1)
ca20g1 <- as.geodata(dXr1, coords.col = 1:2, data.col = 3, covar.col=4:20)

# ----------------------------------------
# STEP 3: Ajuste del modelo de variograma;
# ----------------------------------------

# Ajuste variograma para variables sin transformar (caso clásico)

### Box-Cox transformation? ###


boxcox.fit(ca20$data)
hist(ca20$data)
#no transformation (lambda=1) seems appropriate
### semivariogram ###
plot(variog(ca20,max.dist=510)) # no covariates
t.all <- trend.spatial(ca20,~area + altitude,add="2nd")
t.all1 <- trend.spatial("2nd",ca20,add=~altitude)
A.3 Programación capitulo 3 215

ca20$area <- ca20$covariates$area


t.all1 <- trend.spatial(~coords+area,ca20)
# adjusting for area, altitude and quadratic spatial trend
plot(variog(ca20,max.dist=510,trend=~t.all))
### linear geostatistical models: deciding on kappa ###
likfit(ca20, ini = c(10,200), nug=50,kappa=0.5) # largest likelihood
likfit(ca20, ini = c(10,200), nug=50,kappa=1.5)
likfit(ca20, ini = c(10,200), nug=50,kappa=2.5)
### linear geostatistical models ###
m1 <- likfit(ca20, cov.model="spherical", ini = c(10,200), nug=50)
m2 <- likfit(ca20, trend=~covariate$area, cov.model="spherical",ini=c(60,100),
nug=40) # chosen model
m3 <- likfit(ca20,trend=~covariate$area+covariate$altitude,cov.model=
"spherical", ini = c(60,100), nug=40)
m4 <- likfit(ca20, trend=~covariate$area + coords, cov.model="spherical",
ini =c(60,100), nug=40)
m5 <- likfit(ca20, trend=~covariate$area + covariate$altitude + coords,
cov.model="spherical", ini = c(60,100), nug=40)

m11.2logL <- 2*m1$loglik


m21.2logL <- 2*m2$loglik
m31.2logL <- 2*m3$loglik
m41.2logL <- 2*m4$loglik
m51.2logL <- 2*m5$loglik
print(c(m11.2logL,m21.2logL,m31.2logL,m41.2logL,m51.2logL))

# Ajuste variograma para variables transformadas (es decir, coordenadas


# principales) caso DB

dXr1 <- data.frame(df.ca20[,1:3],Xr1)


ca20g1 <- as.geodata(dXr1, coords.col = 1:2, data.col = 3, covar.col=4:20)

m1.db1 <- likfit(ca20g1,ini = c(10,200), cov.model= "spherical", nug=50)


m2.db1 <- likfit(ca20g1,trend=~V1+V2,cov.model="spherical",ini=c(60,100),
nug=40)
m3.db1<-likfit(ca20g1,trend=~V1+V2+V3+V4,cov.model="spherical",ini=c(60,100),
nug=40)
m4.db1 <-likfit(ca20g1,trend=~V1+V2+V3+V4+V5+V6+V7+V8,cov.model="spherical",
ini = c(60,100), nug=40)
m5.db1 <-likfit(ca20g1,trend=~V1+V2+V3+V4+V5+V6+V7+V8+V9+V10+V11+V12+V13+
216 APÉNDICE

V14+V15+V16+V17, cov.model= "spherical", ini = c(60,100), nug=40)

m1db1.2logL <- 2*m1.db1$loglik


m2db1.2logL <- 2*m2.db1$loglik
m3db1.2logL <- 2*m3.db1$loglik
m4db1.2logL <- 2*m4.db1$loglik
m5db1.2logL <- 2*m5.db1$loglik
print(c(m1db1.2logL,m2db1.2logL,m3db1.2logL,m4db1.2logL,m5db1.2logL))

# --------------------------------------------------------------------
# STEP 4: Calculo de las coordenadas principales de nuevos individuos;
# --------------------------------------------------------------------
# Nuevos individuos ubicados sobre el pixelado del mapa

x.news <- function(ValoresPropios1,Data,tendencia,newdata,id){


Data[length(ValoresPropios1)+1, ] <- newdata
d <- as.matrix(daisy(Data, type=list(asymm=c("v2","v3")),metric="gower"))
[-(length(ValoresPropios1)+1),(length(ValoresPropios1)+1)]
b <- diag(tcrossprod(tendencia))
x.new <-(1/2)*diag(ValoresPropios1[1:ncol(tendencia)]^(-1))%*% t(tendencia)
%*%(b-d)
x.new[id,]
}

tabla <- function(newdata){


x.new0<-x.news(ValoresPropios1=ValoresPropios1,Data=Data.f1,tendencia=Xa,
newdata,id=(o1[o1$CorrCuad1>0.007,][,1]))
x.new0
}

tabla1 <- apply(df.pts,1,tabla)


tablaa <- data.frame(t(tabla1))
tablaa1 <- tablaa
names(tablaa1) <- c("X1","X2","X3","X4","X5","X6","X7","X8","X9","X10",
"X11","X12","X13","X14","X15","X16","X17")

coord.cp <- data.frame(df.pts[,1:2], tablaa1)


newdata <- coord.cp

# ---------------------------------------------
A.3 Programación capitulo 3 217

# STEP 5: Generación de mapas de interpolación;


# ---------------------------------------------

# Predicciones con el variograma obtenido en el caso clásico

vuk <- vgm(m2$sigmasq,"Mat",m2$phi,m2$tausq,kappa=m2$kappa)


g <- gstat(id = "ca20", formula = ca20~v2 + v3 + v4 + v5, locations = ~x+y,
model=vgm(m2$sigmasq,"Mat",m2$phi,m2$tausq,kappa=m2$kappa),data=da)
trendff <- data.frame(trendf, df.pts[,1:2])
mpred <- predict.gstat(g, trendff)
# m2 debe ser variogram (vgm)
#kcv.ca20 <- krige.cv(ca20 ~ area, locations = df.ca20,model = m2)
kcv.ca20 <- gstat.cv(g,nfold=178)
RMSPE.UK <- sqrt(sum(kcv.ca20$residual^2)/length(kcv.ca20$residual))
resid.mean <- df.ca20$ca20- mean(df.ca20$ca20)
# Valoración método:
R2 <- 1- sum((kcv.ca20$residual)^2)/sum(resid.mean^2)

# Mapas de predicciones de ca20 y varianzas de errores


ca20a <- ca20
ca20a$reg2[nrow(ca20a$reg2)+1,] <- ca20a$reg2[1,]
ca20a$reg3[nrow(ca20a$reg3)+1,] <- ca20a$reg3[1,]
ca20shp1<-SpatialPolygons(list(Polygons(list(Polygon(ca20a$reg1)),"reg1")))
ca20shp2<-SpatialPolygons(list(Polygons(list(Polygon(ca20a$reg2)),"reg2")))
ca20shp3<-SpatialPolygons(list(Polygons(list(Polygon(ca20a$reg3)),"reg3")))

par(mfrow=c(1,1), mar=c(5,5,4,4))
image(data.frame(df.pts[,1:2],mpred@data$ca20.pred),zlim=
c(min(mpred@data$ca20.pred),max(mpred@data$ca20.pred)), col=
terrain.colors(100),axes=T,xlab="East (m)",ylab="North (m)", cex=0.6)
polygon(ca20$reg1)
polygon(ca20$reg2)
polygon(ca20$reg3)
image.plot(legend.only=TRUE,legend.width=1.3,legend.mar=3.5,legend.shrink=1,
col=terrain.colors(100), zlim=c(16,81))

mpred1 <- mpred


#par(mar = c(2.8, 3.1, 0.5, 0.5), mgp = c(1.8, 0.7, 0), mfrow = c(1, 2))
mpred1@data$ca20.var <- sqrt(ifelse(as.numeric(mpred@data$ca20.var)>0,
as.numeric(mpred@data$ca20.var),0))
218 APÉNDICE

spplot(mpred1["ca20.var"], cuts=60, col.regions=terrain.colors(100),scales=


list(draw=T),xlab="East(m)",ylab="North(m)",key.space=list(space="right",
cex=0.8))
par(mfrow=c(1,1), mar=c(5,5,4,4))
image(data.frame(df.pts[,1:2],mpred1@data$ca20.var),zlim=
c(min(mpred1@data$ca20.var),max(mpred1@data$ca20.var)),col=
terrain.colors(100),axes=T,xlab="East (m)",ylab="North (m)",cex=0.6)
polygon(ca20$reg1)
polygon(ca20$reg2)
polygon(ca20$reg3)
image.plot(legend.only=TRUE,legend.width=1.3,legend.mar=3.5,legend.shrink=1,
col=terrain.colors(100), zlim=c(-0.7,11.7))

# _____________________________________________________
# Predicciones con el variograma obtenido en el caso DB

vuk.db1<-vgm(m5.db1$sigmasq,"Sph",m5.db1$phi,m5.db1$tausq,kappa=m5.db1$kappa)
g1.db1 <- gstat(id="ca20",formula= ca20~X1+X2+X3+X4+X5+X6+X7+X8+X9+X10+X11+
X12+X13+X14+X15+X16+X17,locations=~x+y,model=vgm(m5.db1$sigmasq,"Sph",
m5.db1$phi,m5.db1$tausq,kappa=m5.db1$kappa), data = dXr1)
tablaa1 <- tablaa
names(tablaa1) <- c("X1","X2","X3","X4","X5","X6","X7","X8","X9","X10","X11",
"X12","X13","X14","X15","X16","X17")
trendb1 <- data.frame(tablaa1,df.pts[,1:2])
mpredb1 <- predict.gstat(g1.db1, trendb1)
kcv.ca20db1 <- gstat.cv(g1.db1,nfold=178)
RMSPE.UKdb1<-sqrt(sum(kcv.ca20db1$residual^2)/length(kcv.ca20db1$residual))
resid.mean1 <- dXr1$ca20- mean(dXr1$ca20)
# Valoración método:
R2db1 <- 1- sum((kcv.ca20db1$residual)^2)/sum(resid.mean1^2)

# Mapas de predicciones de ca20 y varianzas de errores


str(mpredb1)
gridded(mpredb1) = ~x+y
par(mfrow=c(1,1), mar=c(5,5,4,4))
image(data.frame(df.pts[,1:2],mpredb1@data$ca20.pred), zlim=
c(min(mpredb1@data$ca20.pred),max(mpredb1@data$ca20.pred)),
col=terrain.colors(100),axes=T,xlab="East (m)",ylab="North (m)",cex=0.6)
#, xlim=c(4900, 6000), ylim = c(4800, 5800))
A.4 Programación Capı́tulo 4 219

polygon(ca20$reg1)
polygon(ca20$reg2)
polygon(ca20$reg3)
image.plot(legend.only=TRUE,legend.width=1.3,legend.mar=3.5,legend.shrink=1,
col=terrain.colors(100), zlim=c(15,81))

par(mfrow=c(1,1), mar=c(5,5,4,4))
image(data.frame(df.pts[,1:2],mpredb1@data$ca20.var), zlim=
c(min(mpredb2@data$ca20.var),max(mpredb2@data$ca20.var)),col=
terrain.colors(100),axes=T, xlab="East (m)", ylab = "North (m)", cex=0.6)
polygon(ca20$reg1)
polygon(ca20$reg2)
polygon(ca20$reg3)
library(fields)
image.plot(legend.only=TRUE,legend.width=1.3,legend.mar=3.5,legend.shrink=1,
col=terrain.colors(100), zlim=c(-0.3,9.5))

A.4 Programación Capı́tulo 4

______________________________________________________________
######### CAPITULO 4: SIMULACIÓN FBR ESPACIAL ##########
______________________________________________________________

library(gstat)
library(geoR)
library(cluster)
library(maptools)
library(rgdal)
library(outliers)

p1 <- cbind( c(0,1,1,0), c(1,1,0.5,1))


p2 <- cbind( c(0,1,0,0), c(1,0.5,0.3,1))
p3 <- cbind( c(0,0,1,1,0), c(0,0.3,0.5,0,0))

poly1 <- Polygons(list(Polygon(p1)),"R1")


poly2 <- Polygons(list(Polygon(p2)),"R2")
poly3 <- Polygons(list(Polygon(p3)),"R3")
220 APÉNDICE

sppo <- SpatialPolygons(list(poly1,poly2,poly3))

###################################################
### CONSTRUCCION GRAFICO REGIONES ####
###################################################

par(mfrow=c(1,1), mar=c(5,5,4,4))
plot(sppo, ylim=c(0,1), xlab="x", ylab="y")
marcas <- seq(0,1,0.1)
#box(lty = ’solid’, col = ’blue’, lwd=2, mar=c(5,5,5,5))
axis(side=2, at=marcas)
axis(side=1, at=marcas, xlab = "x")
names <- unlist(lapply(slot(sppo,"polygons"), function(x) slot(x,"ID")))
text(coordinates(sppo), labels=names)#, cex=0.6)
text(0.5,-0.1, "X", cex=1)
title(xlab="X")
title(ylab="Y")

# Tama~
nos muestrales
Muestra1 <- c(13,17,20) # Regiones 1,2 y 3 respectivamente # 50 datos
Muestra2 <- c(25,35,40) # 100 datos
Muestra3 <- c(28,52,60) # 150 datos

##########################################################################
#### PROGRAMA SIMULACION EN LAS REGIONES Y VARIABLE BINOMIAL GRF ####
##########################################################################
# Funciones escenarios

phi.u <- (1/sqrt(2*pi))*exp((-2^2)/2)


# dnorm(2, mean = 0, sd = 1, log = FALSE)

fx <- function(x){
fx <- 1.5*dnorm((x-0.35)/0.15)-dnorm((x-0.8)/0.04)
fx
}

fxy <- function(x,y){


fxy <- (1.5*dnorm((x-0.35)/0.15)-dnorm((x-0.8)/0.04))*(1.5*
dnorm((y-0.35)/0.15)-dnorm((y-0.8)/0.04))
A.4 Programación Capı́tulo 4 221

fxy
}

sigma.j <- function(j){


s.j <- 0.02 + 0.04*(j-1)^2
s.j
}

fjx <- function(j,x){


fjx <- sqrt(x*(1-x))*sin((2*pi*(1+2^((9-4*j)/5)))/(x+2^((9-4*j)/5)))
fjx
}

fjxy <- function(j,x,y){


fjxy <- (sqrt(x*(1-x))*sin((2*pi*(1+2^((9-4*j)/5)))/(x+2^((9-4*j)/5))))*
(sqrt(y*(1-y))*sin((2*pi*(1+2^((9-4*j)/5)))/(y+2^((9-4*j)/5))))
fjxy
}

vjx <- function(j,x){


vjx <- (0.15*(1+0.4*(2*j-7)*(x-0.5)))^2
vjx
}

vjxy <- function(j,x,y){


vjxy <-((0.15*(1+0.4*(2*j-7)*(x-0.5)))^2)*((0.15*(1+0.4*(2*j-7)*(y-0.5)))^2)
vjxy
}

bjx <- function(j,x){


bjx <- dbeta(x,(j+4)/5,(11-j)/5)
bjx
}

_____________________________________________________
############ VALORES PARAMETROS #############

B0 <- 10; B1<- -4; B2 <- 2; B3 <- -4; p <- 0.4

nuggeto <- 0.1


222 APÉNDICE

range1o <- 0.5


sillo <- 1
ango <- 0
aniso <- 1
kappa1o <- 0

psillo <- c(nuggeto,sillo)


rangeo <- c(0,range1o)
ang1o <- c(0,ango)
anis1o <- c(1,aniso)
kappao <- c(0,kappa1o)
cov.pars0o <- as.matrix(cbind(psillo,rangeo,kappao,ang1o,anis1o))
cov.modelo <- "matern"
modelo.covo <- "Mat"
lambdao <- 1

# Se cargan las funciones a utilizar:


source("D:/.../function/rbf.t.r")
source("D:/.../function/RBF.phi.r")
source("D:/.../function/rbf.t.tcv.r")

_________________________________________________________
########### Factor: Generic Form ##############

# N: Tama~
nos de muestra 50,100 y 150 datos
# nsim: número de simulaciones, en general 100
# eta: parámetro de suavizamiento en la optimización de la función de
# base radial (FBR), 0.01 y 0.1
# n.neigh: número de vecinos para la validacion cruzada, en este caso el
# número de nodos en el spline 8 y 32
# func: tipo de FBR (ST, M, TPS, EXP, y CRS)
# j: parámetro asociado a la variacion espacial, 1 y 3

rbf.sim <- function(N, nsim, sigma, n.neigh, func, j){

set.seed(127)
sim <- grf(N,nsim=nsim,grid="irreg",cov.model=cov.modelo,xlims=c(0, 1),
lambda=lambdao,
A.4 Programación Capı́tulo 4 223

ylims = c(0, 1), cov.pars=cov.pars0o)


# aniso.pars=c(pi/4, 2). Esto es lo mismo que dejar cov.pars0 ó
# cov.pars1 y esta lı́nea
set.seed(127)
V1 <- rbinom(N, size=1, prob=p)

#build nominal covariate vector for prediction locations indicating subarea#


ind.reg.sim <- numeric(nrow(sim$coords))
ind.reg.sim[.geoR_inout(sim$coords,p1)] <- 1
ind.reg.sim[.geoR_inout(sim$coords,p2)] <- 2
ind.reg.sim[.geoR_inout(sim$coords,p3)] <- 3
ind.reg.sim <- as.factor(ind.reg.sim)

V2 <- ifelse(ind.reg.sim %in% 2,1,0)


V3 <- ifelse(ind.reg.sim %in% 3,1,0)

# Noise Level:
# sim$data <- B0 + B1*V1 + B2*V2*sim$coords[,1] + B3*V3*sim$coords[,2] +
# fx(sim$coords[,1])+fx(sim$coords[,2])+fxy(sim$coords[,1],sim$coords[,2])+
# sigma.j(j)*sim$data
# Design density:
# sim$data <- B0 + B1*V1 + B2*V2*sim$coords[,1] + B3*V3*sim$coords[,2] +
# fx(bjx(j,sim$coords[,1]))+fx(bjx(j,sim$coords[,2]))+fxy(bjx(j,
# sim$coords[,1]), bjx(j,sim$coords[,2])) + 0.1*sim$data
# Spatial variation:
sim$data <- B0 + B1*V1 + B2*V2*sim$coords[,1] + B3*V3*sim$coords[,2] +
fjx(j,sim$coords[,1]) + fjx(j,sim$coords[,2]) + fjxy(j,sim$coords[,1],
sim$coords[,2]) + 0.2*sim$data

# Variance function:
# sim$data <- B0 + B1*V1 + B2*V2*sim$coords[,1] + B3*V3*sim$coords[,2] +
# fx(sim$coords[,1])+fx(sim$coords[,2]) +fxy(sim$coords[,1],sim$coords[,2])+
# (sqrt(vjx(j,sim$coords[,1])+vjx(j,sim$coords[,2])+vjxy(j,sim$coords[,1],
# sim$coords[,2])))*sim$data

tabla.sim <- as.data.frame(matrix(NA,nrow=nsim,ncol=5))


colnames(tabla.sim) <- c("sim", "MPE", "RMSPE", "R2", "No.CP")

Data.sim <- data.frame(sim$coords[,1],sim$coords[,2],V1,V2,V3)


names(Data.sim) <- c("x","y","V1","V2","V3")
224 APÉNDICE

######################################################################
######### CONSTRUCCION COORDENADAS PRINCIPALES Y FBR DB ##########
######################################################################

Delt <- daisy(Data.sim,type=list(asymm=c("V1","V2","V3")),metric="gower")


class(Delt)
library(ade4)
is.euclid(Delt^(1/2))

mds <- cmdscale(Delt^(1/2), k = nrow(Data.sim)-1, eig = TRUE)


names(mds)
round(mds$points[,1],4)

m <- sum(mds$eig > 0.007)


mds <- cmdscale(Delt^0.5, k = m, eig = TRUE)
X <- mds$points

for(i in 1:100){

ValoresPropios <- mds$eig


CorrCuadrado <- as.vector(cor(sim$data[,i],X)^2)
Porc.Inercia <- ValoresPropios/length(CorrCuadrado)

o<-data.frame(1:length(CorrCuadrado),round(ValoresPropios[1:
length(CorrCuadrado)],10),round(CorrCuadrado,10),round(Porc.Inercia
[1:length(CorrCuadrado)],10))
names(o)<-c("ID", "ValoresProp", "CorrCuad", "Porc.Inercia")

names(o)
o1<-o[o$CorrCuad>0.007,]
Xr.sim <- X[,o1$ID]
rdb.sim <- lm(sim$data[,i] ~ Xr.sim)
model.db.sim <- summary(rdb.sim)

# x <- sim$coords[,1]
# y <- sim$coords[,2]

try({spdb.sim<-rbf.t.tcv(sigma=sigma,z=sim$data[,i], coordinates=sim$coords,
trend=Xr.sim, n.neigh=n.neigh, func=func)})
A.4 Programación Capı́tulo 4 225

MPE <- mean(spdb.sim$residual)


RMSPE <- sqrt(sum(spdb.sim$residual^2)/length(spdb.sim$residual))
resid.mean.sim <- spdb.sim$observed - mean(spdb.sim$observed)
R2 <- 1- sum((spdb.sim$residual)^2)/sum(resid.mean.sim^2)

tabla.sim[i,] <- c(i,MPE,RMSPE,R2,ncol(Xr.sim))


}
as.matrix(tabla.sim)
}

# Se debe activar previamente en la simulación el escenario de interés

#################################################
######### Factor: Noise Level ##########
#################################################

Resultado.simnl<-array(data=NA,c(100,5,5,2,2,3,2),dimnames=list(1:100,c("sim"
,"MPE","RMSPE","R2","No.CP"),c("M","TPS","CRS","ST","EXP"),c("1","3"),
c("0.01","0.1"), c("50","100","150"), c("8","32")))
funci <- c("M","TPS","CRS","ST","EXPON")
for (func in funci)
for (j in c(1,3)) # 4 si, 6 no
for (sigma in c(0.01,0.1))
for (N in c(50,100,150))
for (n.neigh in c(8,32))
Resultado.simnl[,,func,paste(j,sep=""),paste(sigma,sep=""),paste(N,sep=""),
paste(n.neigh,sep="")] <- rbf.sim(N=N, nsim=100, sigma=sigma, n.neigh=
n.neigh,func=func, j=j)

#####################################################
####### Factor: Design density #########
#####################################################

Resultado.simbd<-array(data=NA,c(100,5,5,2,2,3,2),dimnames=list(1:100,c("sim"
,"MPE","RMSPE","R2","No.CP"),c("M","TPS","CRS","ST","EXP"),c("1","3"),
c("0.01","0.1"), c("50","100","150"), c("8","32")))
funci <- c("M","TPS","CRS","ST","EXPON")
for (func in funci)
for (j in c(1,3)) # 4 si, 6 no
226 APÉNDICE

for (sigma in c(0.01,0.1))


for (N in c(50,100,150))
for (n.neigh in c(8,32))
Resultado.simbd[,,func,paste(j,sep=""),paste(sigma,sep=""),paste(N,sep=""),
paste(n.neigh,sep="")] <- rbf.sim(N=N, nsim=100, sigma=sigma, n.neigh=
n.neigh,func=func, j=j)

#####################################################
######## Factor: Spatial variation ###########
#####################################################

Resultado.simsv<-array(data=NA,c(100,5,5,2,2,3,2),dimnames=list(1:100,c("sim"
,"MPE","RMSPE","R2","No.CP"),c("M","TPS","CRS","ST","EXP"),c("1","3"),
c("0.01","0.1"), c("50","100","150"), c("8","32")))
funci <- c("M","TPS","CRS","ST","EXPON")
for (func in funci)
for (j in c(1,3))
for (sigma in c(0.01,0.1))
for (N in c(50,100,150))
for (n.neigh in c(8,32))
Resultado.simsv[,,func,paste(j,sep=""),paste(sigma,sep=""),paste(N,sep=""),
paste(n.neigh,sep="")] <- rbf.sim(N=N, nsim=100, sigma=sigma, n.neigh=
n.neigh,func=func, j=j)

#####################################################
######## Factor: Variance function ##########
#####################################################

Resultado.simvf<-array(data=NA,c(100,5,5,2,2,3,2),dimnames=list(1:100,c("sim"
,"MPE","RMSPE","R2","No.CP"),c("M","TPS","CRS","ST","EXP"),c("1","3"),
c("0.01","0.1"),c("50","100","150"), c("8","32")))
funci <- c("M","TPS","CRS","ST","EXPON")
for (func in funci)
for (j in c(1,3))
for (sigma in c(0.01,0.1))
for (N in c(50,100,150))
for (n.neigh in c(8,32))
Resultado.simvf[,,func,paste(j,sep=""),paste(sigma,sep=""),paste(N,sep=""),
paste(n.neigh,sep="")] <- rbf.sim(N=N, nsim=100, sigma=sigma, n.neigh=
n.neigh,func=func, j=j)
A.4 Programación Capı́tulo 4 227

______________________________________________________________
####### CAPITULO 4: APLICACIÓN FBR ESPACIAL "ca20" #########
______________________________________________________________

library(geoR)
library(fields)
library(cluster)
library(minqa)
data(ca20)

# Aquı́, los pasos 1, 2 y 4 tienen el mismo código presentado anteriormente


# en la segunda aplicación del Capitulo 3, para la base de datos "ca20"

# ----------------------------------------------------------------
# STEP 3: Optimización parámetros ETA y RHO en las diferentes FBR;
# ----------------------------------------------------------------
# FBR: Funciones de base radial

#______________________________
# A: Optimización parámetro ETA

# Optimizacion "ETA" Multicuadratica Inversa


IM.o <- optimize(rbf.t.cv,c(0,30),z=ca20g1$data, coordinates=ca20g1$coords,
trend=dXr1[,4:20], n.neigh=177, func="IM")
cat("Parámetro Óptimo FBR: ", "\n", "ETA = ", IM.o$minimum, "\n", "RMSPE= ,
IM.o$objective, "\n")
# Parámetro Óptimo FBR: Con 177 vecinos
# ETA = 27.35744
# RMSPE = 7.297001

# Optimizacion "ETA" Multicuadrática


M.o <- optimize(rbf.t.cv, c(0,1), z=ca20g1$data, coordinates=ca20g1$coords,
trend=dXr1[,4:20], n.neigh=177, func="M")
cat("Parámetro Óptimo FBR: ", "\n", "ETA = ", M.o$minimum, "\n", "RMSPE=",
M.o$objective, "\n")
# Parámetro Óptimo FBR: Con 177 vecinos
# ETA = 5.575865e-05
# RMSPE = 7.375285
228 APÉNDICE

# Parámetro Óptimo FBR: Con 40 vecinos


# P = 5.575865e-05
# RMSPE = 8.931973

# Optimization "ETA": Completely regularized spline function,


CRS.o<-optimize(rbf.t.cv,c(0,1),z=ca20g1$data,coordinates=ca20g1$coords,
trend=dXr1[,4:20], n.neigh=177, func="CRS")
cat("Parámetro Óptimo FBR: ", "\n", "ETA =",CRS.o$minimum, "\n","RMSPE=",
CRS.o$objective, "\n")
# Parámetro Óptimo FBR:
# ETA = 0.1012015
# RMSPE = 7.333849

# Optimization "ETA": Spline with Tension function


ST.o <- optimize(rbf.t.cv, c(0,1), z=ca20g1$data, coordinates=ca20g1$coords,
trend=dXr1[,4:20], n.neigh=177, func="ST")
cat("Parámetro Óptimo FBR: ", "\n", "ETA= ", ST.o$minimum, "\n", "RMSPE=",
ST.o$objective, "\n")
# Parámetro Óptimo FBR:
# P = 0.08303821
# RMSPE = 7.344243

# Optimizacion "ETA" Thin Plate Spline


TPS.o <- optimize(rbf.t.cv, c(0,0.81), z=ca20g1$data, coordinates=
ca20g1$coords,trend=dXr1[,4:20],n.neigh=177,func="TPS")
cat("Parámetro Óptimo FBR: ","\n", "ETA= ",TPS.o$minimum,"\n", "RMSPE=",
TPS.o$objective, "\n")
# Parámetro Óptimo FBR:
# ETA = 0.8099541
# RMSPE = 7.619761

# Optimizacion "ETA" Exponential RBF


EXP.o <- optimize(rbf.t.cv,c(0,1),z=ca20g1$data,coordinates=ca20g1$coords,
trend=dXr1[,4:20], n.neigh=177, func="EXPON")
cat("Parámetro Óptimo FBR: ", "\n", "ETA =", EXP.o$minimum, "\n","RMSPE=",
EXP.o$objective, "\n")
# Parámetro Óptimo FBR:
# ETA = 0.02450879
# RMSPE = 7.317443
A.4 Programación Capı́tulo 4 229

# Optimizacion "ETA" Gaussian RBF, da lo mismo con cualquier eta


GAU.o <-optimize(rbf.t.cv,c(0,0.2),z=ca20g1$data, coordinates=ca20g1$coords,
trend=dXr1[,4:20],n.neigh=177,func="GAU")
cat("Parámetro Óptimo FBR: ", "\n","ETA= ",GAU.o$minimum, "\n", "RMSPE=",
GAU.o$objective, "\n")
# Parámetro Óptimo FBR:
# ETA = 0.2
# RMSPE = 8.01272

#______________________________
# B: Optimización parámetro RHO

P.opt.crs <- bobyqa(c(1, 2), rbf.t.cvop, lower = c(0, 0), upper = c(2, 4),
z=ca20g1$data,coordinates=ca20g1$coords,trend=dXr1[,4:20],n.neigh=177,
func="CRS")
#parameter estimates: 0.329865648310229, 2.38278578402578
#objective: 7.3335085291925
#number of function evaluations: 31

P.opt.st <- bobyqa(c(1, 2), rbf.t.cvop, lower = c(0, 0), upper = c(2, 4),
z=ca20g1$data,coordinates=ca20g1$coords,trend=dXr1[,4:20],n.neigh=177,
func="ST")
#parameter estimates: 0.578017806545431, 2.04092020273964
#objective: 7.33350852919374
#number of function evaluations: 34

P.opt.exp <- bobyqa(c(0, 1), rbf.t.cvop, lower = c(0, 0), upper = c(1, 4),
z=ca20g1$data,coordinates=ca20g1$coords,trend=dXr1[,4:20],n.neigh=177,
func="EXP")
#parameter estimates: 0.0245091649898321, 0
#objective: 7.3174428056804
#number of function evaluations: 234

P.opt.gau <- bobyqa(c(0, 1), rbf.t.cvop, lower = c(0, 0), upper = c(1, 4),
z=ca20g1$data,coordinates=ca20g1$coords,trend=dXr1[,4:20],n.neigh=177,
func="GAU")
#parameter estimates: 0.2, 1
#objective: 8.01272045781122
#number of function evaluations: 28
230 APÉNDICE

P.opt.m <- bobyqa(c(0, 1), rbf.t.cvop, lower = c(0, 0), upper = c(4, 4),
z=ca20g1$data,coordinates=ca20g1$coords,trend=dXr1[,4:20],n.neigh=177,
func="M")
#parameter estimates: 0, 0
#objective: 7.37528496811618
#number of function evaluations: 19

P.opt.mi <- bobyqa(c(10, 1), rbf.t.cvop, lower = c(0, 0), upper = c(200, 4),
z=ca20g1$data,coordinates=ca20g1$coords,trend=dXr1[,4:20],n.neigh=177,
func="IM")
#parameter estimates: 27.3574363334684, 0
#objective: 7.29700064336846
#number of function evaluations: 45

P.opt.tps <- bobyqa(c(0.01, 1), rbf.t.cvop, lower = c(0, 0), upper = c(4, 4),
z=ca20g1$data,coordinates=ca20g1$coords,trend=dXr1[,4:20],n.neigh=177,
func="TPS")
#parameter estimates: 0.198730051128008, 1.24431018941423
#objective: 7.6104081199563
#number of function evaluations: 23

# ------------------------------------------------------------
# STEP 5: Predicciones y generación de mapas de interpolación;
# ------------------------------------------------------------

# Generacion Predicciones IM
IM.p <- rbf.t(eta=27.357, z=ca20g1$data, coordinates=ca20g1$coords,
trend=dXr1[,4:20], nd.trend=newdata, n.neigh=177, func="IM")
gridded(IM.p) = ~x+y
par(mar = c(2.8, 3.1, 0.5, 0.5), mgp = c(1.8, 0.7, 0), mfrow = c(1, 1))
spplot(IM.p["var1.pred"], col.regions=terrain.colors(100), cuts=60,scales=
list(draw =T), xlab="East (m)", ylab = "North (m)",
key.space=list(space="right", cex=0.8), panel = function(...) {
panel.gridplot(...)
sp.polygons(ca20shp1,lwd=1.5)
sp.polygons(ca20shp2,lwd=1.5)
sp.polygons(ca20shp3,lwd=1.5)
})
A.4 Programación Capı́tulo 4 231

# Generacion Predicciones M
M.p <- rbf.t(eta=5.575865e-05, z=ca20g1$data, coordinates=ca20g1$coords,
trend=dXr1[,4:20], nd.trend=newdata, n.neigh=177, func="M")
gridded(M.p) = ~x+y
par(mar = c(2.8, 3.1, 0.5, 0.5), mgp = c(1.8, 0.7, 0), mfrow = c(1, 1))
spplot(M.p["var1.pred"], col.regions=terrain.colors(100), cuts=60,scales=
list(draw =T), xlab="East (m)", ylab = "North (m)",
key.space=list(space="right", cex=0.8), panel = function(...) {
panel.gridplot(...)
sp.polygons(ca20shp1,lwd=1.5)
sp.polygons(ca20shp2,lwd=1.5)
sp.polygons(ca20shp3,lwd=1.5)
})

# Generacion Predicciones CRS


CRS.p <- rbf.t(eta=0.1012015, z=ca20g1$data, coordinates=ca20g1$coords,
trend=dXr1[,4:20], nd.trend=newdata, n.neigh=177,func="CRS")
gridded(CRS.p) = ~x+y
par(mar = c(2.8, 3.1, 0.5, 0.5), mgp = c(1.8, 0.7, 0), mfrow = c(1, 1))
spplot(CRS.p["var1.pred"], col.regions=terrain.colors(100), cuts=60,
scales = list(draw =T), xlab="East (m)", ylab = "North (m)",
key.space=list(space="right", cex=0.8), panel = function(...) {
panel.gridplot(...)
sp.polygons(ca20shp1,lwd=1.5)
sp.polygons(ca20shp2,lwd=1.5)
sp.polygons(ca20shp3,lwd=1.5)
})

# Generacion Predicciones TPS


TPS.p <- rbf.t(eta=0.8099541, z=ca20g1$data, coordinates=ca20g1$coords,
trend=dXr1[,4:20], nd.trend=newdata, n.neigh=177,func="TPS")
gridded(TPS.p) = ~x+y
par(mar = c(2.8, 3.1, 0.5, 0.5), mgp = c(1.8, 0.7, 0), mfrow = c(1, 1))
spplot(TPS.p["var1.pred"], col.regions=terrain.colors(100), cuts=60,
scales = list(draw =T), xlab="East (m)", ylab = "North (m)",
key.space=list(space="right", cex=0.8), panel = function(...) {
panel.gridplot(...)
sp.polygons(ca20shp1,lwd=1.5)
sp.polygons(ca20shp2,lwd=1.5)
sp.polygons(ca20shp3,lwd=1.5)
232 APÉNDICE

})

# Generacion Predicciones ST
ST.p <- rbf.t(eta=0.08303821, z=ca20g1$data, coordinates=ca20g1$coords,
trend=dXr1[,4:20], nd.trend=newdata, n.neigh=177, func="ST")
gridded(ST.p) = ~x+y
par(mar = c(2.8, 3.1, 0.5, 0.5), mgp = c(1.8, 0.7, 0), mfrow = c(1, 1))
spplot(ST.p["var1.pred"], col.regions=terrain.colors(100), cuts=60,
scales = list(draw =T), xlab="East (m)", ylab = "North (m)",
key.space=list(space="right", cex=0.8), panel = function(...) {
panel.gridplot(...)
sp.polygons(ca20shp1,lwd=1.5)
sp.polygons(ca20shp2,lwd=1.5)
sp.polygons(ca20shp3,lwd=1.5)
})

# Generacion Predicciones EXP


EXP.p <- rbf.t(eta=0.02450879, z=ca20g1$data, coordinates=ca20g1$coords,
trend=dXr1[,4:20], nd.trend=newdata, n.neigh=177, func="EXP")
gridded(EXP.p) = ~x+y
par(mar = c(2.8, 3.1, 0.5, 0.5), mgp = c(1.8, 0.7, 0), mfrow = c(1, 1))
spplot(EXP.p["var1.pred"], col.regions=terrain.colors(100), cuts=60,
scales = list(draw =T), xlab="East (m)", ylab = "North (m)",
key.space=list(space="right", cex=0.8), panel = function(...) {
panel.gridplot(...)
sp.polygons(ca20shp1,lwd=1.5)
sp.polygons(ca20shp2,lwd=1.5)
sp.polygons(ca20shp3,lwd=1.5)
})

# Generacion Predicciones GAU


GAU.p <- rbf.t(eta=0.2, z=ca20g1$data, coordinates=ca20g1$coords,
trend=dXr1[,4:20], nd.trend=newdata, n.neigh=177,func="GAU")
gridded(GAU.p) = ~x+y
par(mar = c(2.8, 3.1, 0.5, 0.5), mgp = c(1.8, 0.7, 0), mfrow = c(1, 1))
spplot(GAU.p["var1.pred"], col.regions=terrain.colors(100), cuts=60,
scales = list(draw =T), xlab="East (m)", ylab = "North (m)",
key.space=list(space="right", cex=0.8), panel = function(...) {
panel.gridplot(...)
sp.polygons(ca20shp1,lwd=1.5)
A.5 Programación Capı́tulo 5 233

sp.polygons(ca20shp2,lwd=1.5)
sp.polygons(ca20shp3,lwd=1.5)
})

A.5 Programación Capı́tulo 5

______________________________________________________________
######### CAPITULO 5: SIMULACIÓN SPACE-TIME FBR ##########
______________________________________________________________

library(gstat)
library(geoR)
library(RandomFields)
library(cluster)
#library(FD)
library(maptools)
library(rgdal)
library(outliers)

###################################################
### CONSTRUCCION GRAFICO REGIONES ####
###################################################

p1 <- cbind( c(0,1,1,0), c(1,1,0.5,1))


p2 <- cbind( c(0,1,0,0), c(1,0.5,0.3,1))
p3 <- cbind( c(0,0,1,1,0), c(0,0.3,0.5,0,0))

poly1 <- Polygons(list(Polygon(p1)),"R1")


poly2 <- Polygons(list(Polygon(p2)),"R2")
poly3 <- Polygons(list(Polygon(p3)),"R3")
sppo <- SpatialPolygons(list(poly1,poly2,poly3))

x1 <- rep(1:5, c(5,5,5,5,5))/5 -0.1


y1 <- rep(y,5)
plot(x1,y1, cex=0.5)
234 APÉNDICE

t <- (1:10)/10

par(mfrow=c(1,1), mar=c(5,5,4,4))
plot(sppo, ylim=c(0,1), xlab="x", ylab="y")
marcas <- seq(0,1,0.1)
axis(side=2, at=marcas)
axis(side=1, at=marcas, xlab = "x")
names <- unlist(lapply(slot(sppo,"polygons"), function(x) slot(x,"ID")))
text(coordinates(sppo), labels=names)#, cex=0.6)
text(0.5,-0.1, "X", cex=1)
title(xlab="X")
title(ylab="Y")
points(x1,y1,cex=0.5)

# Tama~
nos muestrales
# Regiones 1,2 y 3 respectivamente y t.
Muestra1 <- c(6,9,10,6) # 25 datos en el espacio y 6 tiempos
Muestra2 <- c(6,9,10,10) # 25 datos en el espacio y 10 tiempos

#########################################################################
###### PROGRAMA SIMULACION EN LAS REGIONES Y VARIABLE BINOMIAL GRF ######
#########################################################################
# Funciones escenarios:

phi.u <- (1/sqrt(2*pi))*exp((-2^2)/2)


# dnorm(2, mean = 0, sd = 1, log = FALSE)

fx <- function(x){
fx <- 1.5*dnorm((x-0.35)/0.15)-dnorm((x-0.8)/0.04)
fx
}

fxy <- function(x,y){


fxy <- (1.5*dnorm((x-0.35)/0.15)-dnorm((x-0.8)/0.04))*
(1.5*dnorm((y-0.35)/0.15)-dnorm((y-0.8)/0.04))
fxy
}

fxyt <- function(x,y,t){


A.5 Programación Capı́tulo 5 235

fxyt <- (1.5*dnorm((x-0.35)/0.15)-dnorm((x-0.8)/0.04))*(1.5*dnorm((y-0.35)/


0.15)-dnorm((y-0.8)/0.04))*(1.5*dnorm((t-0.35)/0.15)-dnorm((t-0.8)/
0.04))
fxyt
}

sigma.j <- function(j){


s.j <- 0.02 + 0.04*(j-1)^2
s.j
}

fjx <- function(j,x){


fjx <- sqrt(x*(1-x))*sin((2*pi*(1+2^((9-4*j)/5)))/(x+2^((9-4*j)/5)))
fjx
}

fjxy <- function(j,x,y){


fjxy <- (sqrt(x*(1-x))*sin((2*pi*(1+2^((9-4*j)/5)))/(x+2^((9-4*j)/5))))*
(sqrt(y*(1-y))*sin((2*pi*(1+2^((9-4*j)/5)))/(y+2^((9-4*j)/5))))
fjxy
}

fjxyt <- function(j,x,y,t){


fjxyt <- (sqrt(x*(1-x))*sin((2*pi*(1+2^((9-4*j)/5)))/(x+2^((9-4*j)/5))))*
(sqrt(y*(1-y))*sin((2*pi*(1+2^((9-4*j)/5)))/(y+2^((9-4*j)/5))))*
(sqrt(t*(1-t))*sin((2*pi*(1+2^((9-4*j)/5)))/(t+2^((9-4*j)/5))))
fjxyt
}

vjx <- function(j,x){


vjx <- (0.15*(1+0.4*(2*j-7)*(x-0.5)))^2
vjx
}

vjxy <- function(j,x,y){


vjxy <-((0.15*(1+0.4*(2*j-7)*(x-0.5)))^2)*((0.15*(1+0.4*(2*j-7)*(y-0.5)))^2)
vjxy
}

vjxyt <- function(j,x,y,t){


236 APÉNDICE

vjxyt <- ((0.15*(1+0.4*(2*j-7)*(x-0.5)))^2)*((0.15*(1+0.4*(2*j-7)*


(y-0.5)))^2)*((0.15*(1+0.4*(2*j-7)*(t-0.5)))^2)
vjxyt
}

bjx <- function(j,x){


bjx <- dbeta(x,(j+4)/5,(11-j)/5)
bjx
}

_____________________________________________________
############ VALORES PARAMETROS #############

B0 <- 10; B1<- -4; B2 <- 2; B3 <- -4; p <- 0.4


# Se cargan las funciones a utilizar:
source("D:/......./function/rbf.trst.r")
source("D:/......./function/RBF.phi.r")
source("D:/......./function//rbf.st.tcv.r")

_________________________________________________________
########### Factor: Generic Form ##############

# N: Tama~
nos de muestra para T=6 tiempos 150 datos y cuando T=10,
# 250 datos
# nsim: número de simulaciones, en general 100
# eta: parámetro de suavizamiento en la optimización de la función de
# base radial (FBR), 0.01 y 0.1
# n.neigh: número de vecinos para la validacion cruzada, en este caso el
# número de nodos en el spline 8 y 32
# func: tipo de FBR (ST, M, TPS, EXP, y CRS)
# j: parámetro asociado a la variacion espacial, 1 y 3

rbf.sim <- function(N, nsim, eta, rho, n.neigh, t, func, j){

x <- seq(1, 5, 1)/5-0.1


y <- seq(1, 5, 1)/5-0.1
x1 <- rep(1:5, c(5,5,5,5,5))/5 -0.1
y1 <- rep(y,5)
coord <- data.frame(x1,y1)
names(coord) <- c("x","y")
A.5 Programación Capı́tulo 5 237

B0 <- 10; B1<- -4; B2 <- 2; B3 <- -4; B4 <- 3; p <- 0.4
T <- c(1,t,1) ## note necessarily gridtriple definition
ti <- (1:t)/t

ma1=as.matrix(rbind(c(5,0),c(0,0.5)))
model <- list("$", var=1, aniso=ma1, list("gauss"))

set.seed(127)
z <- GaussRF(n=nsim, x=x, y=y, T=T, grid=TRUE, model=model, method="ci",
CE.strategy=1,CE.trials=if (interactive()) 4 else 1)
Z <- matrix(NA,ncol=nsim,nrow=N*t)
for (i in 1:nsim)
Z[,i] <- as.vector(z[,,,i])

set.seed(127)
V1 <- rbinom(N, size=1, prob=p)

#build nominal covariate vector for prediction locations indicating subarea#


ind.reg.sim <- numeric(nrow(coord))
ind.reg.sim[.geoR_inout(coord,p1)] <- 1
ind.reg.sim[.geoR_inout(coord,p2)] <- 2
ind.reg.sim[.geoR_inout(coord,p3)] <- 3
ind.reg.sim <- as.factor(ind.reg.sim)

V2 <- ifelse(ind.reg.sim %in% 2,1,0)


V3 <- ifelse(ind.reg.sim %in% 3,1,0)

grilla <- data.frame(rep(x1,t),rep(y1,t),as.numeric(kronecker(ti,rep(1,25))),


rep(V1,t),rep(V2,t),rep(V3,t)) # i=1,....,100 (simulacion_i)
names(grilla) <- c("x","y","t","V1","V2","V3")

# Noise Level:
# Z1 <- B0 + B1*V1 +B2*V2*grilla$x +B3*V3*grilla$y+B4*grilla$t+fx(grilla$x)
# +fx(grilla$y) +fx(grilla$t)+fxy(grilla$x,grilla$y) +fxy(grilla$x,grilla$t)
# +fxy(grilla$y,grilla$t) + fxyt(grilla$x,grilla$y,grilla$t) + sigma.j(j)*Z

# Design density:
# Z1 <- B0 + B1*V1 + B2*V2*grilla$x + B3*V3*grilla$y + B4*grilla$t +
# fx(bjx(j,grilla$x))+fx(bjx(j,grilla$x))+fx(bjx(j,grilla$t))+
238 APÉNDICE

# fxy(bjx(j,grilla$x),bjx(j,grilla$y))+fxy(bjx(j,grilla$x),bjx(j,grilla$t))
# +fxy(bjx(j,grilla$y),bjx(j,grilla$t))+fxyt(bjx(j,grilla$x),bjx(j,grilla$y),
# bjx(j,grilla$t))+0.1*Z
# Spatial variation:
# Z1 <-B0+B1*V1+B2*V2*grilla$x+B3*V3*grilla$y +B4*grilla$t+fjx(j,grilla$x)+
# fjx(j,grilla$y) + fjx(j,grilla$t) + fjxy(j,grilla$x,grilla$y) +
# fjxy(j,grilla$x,grilla$t)+fjxy(j,grilla$y,grilla$t) +
# fjxyt(j,grilla$x,grilla$y,grilla$t)+0.2*Z

# Variance function:
Z1 <-B0+B1*V1+B2*V2*grilla$x+B3*V3*grilla$y+B4*grilla$t+fx(grilla$x) +
fx(grilla$y)+fx(grilla$t)+fxy(grilla$x,grilla$y)+(sqrt(vjx(j,grilla$x) +
vjx(j,grilla$y)+vjx(j,grilla$t)+vjxy(j,grilla$x,grilla$y)+vjxy(j,grilla$x,
grilla$t)+vjxy(j,grilla$y,grilla$t)+vjxyt(j,grilla$x,grilla$y,grilla$t)))*Z

tabla.sim <- as.data.frame(matrix(NA,nrow= nsim, ncol=5))


colnames(tabla.sim) <- c("sim", "MPE", "RMSPE", "R2", "No.CP")

################################################################
###### CONSTRUCCION COORDENADAS PRINCIPALES Y FBR DB #######
################################################################

# Delt <- daisy(grilla,type=list(asymm=c("V1","V2","V3")),metric="gower")


Delt <- gowdis(grilla, asym.bin = 4:6)
class(Delt)
library(ade4)
is.euclid(Delt^(1/2))

mds <- cmdscale(Delt^(1/2), k = nrow(grilla)-1, eig = TRUE)


names(mds)
round(mds$points[,1],4)

m <- sum(mds$eig > 0.007)


mds <- cmdscale(Delt^0.5, k = m, eig = TRUE)
X <- mds$points

for(i in 1:nsim){

ValoresPropios <- mds$eig


CorrCuadrado <- as.vector(cor(Z1[,i],X)^2) # 1 luego i
A.5 Programación Capı́tulo 5 239

Porc.Inercia <- ValoresPropios/length(CorrCuadrado)


o<-data.frame(1:length(CorrCuadrado),round(ValoresPropios[1:
length(CorrCuadrado)],10),round(CorrCuadrado,10),round(Porc.Inercia[1:
length(CorrCuadrado)],10))names(o)<-c("ID", "ValoresProp", "CorrCuad",
"Porc.Inercia")
names(o)
o1<-o[o$CorrCuad>0.007,] # Ası́ quedan las significativas al 5\%
Xr.sim <- X[,o1$ID]
rdb.sim <- lm(Z1[,i] ~ Xr.sim)
model.db.sim <- summary(rdb.sim)

# x <- sim$coords[,1]
# y <- sim$coords[,2]
# system.time(rbf.st.tcv(eta=0.1,z=Z1[,i],coordinates=grilla[,1:3],trend=
Xr.sim,rho=0, n.neigh=8, func="ST"))
try({spdb.sim <- rbf.st.tcv(eta=eta, z=Z1[,i], coordinates=grilla[,1:3],
trend=Xr.sim, rho=rho, n.neigh=n.neigh, func=func)})
MPE <- mean(spdb.sim$residual)
RMSPE <- sqrt(sum(spdb.sim$residual^2)/length(spdb.sim$residual))
resid.mean.sim <- spdb.sim$observed - mean(spdb.sim$observed)
R2 <- 1- sum((spdb.sim$residual)^2)/sum(resid.mean.sim^2)

tabla.sim[i,] <- c(i,MPE,RMSPE,R2,ncol(Xr.sim))


}
as.matrix(tabla.sim)
}

__________________________________________________________________
############### Factor: Noise level ##############

Resultado.simnl <- array(data=NA,c(100,5,5,2,2,2,2), dimnames=list(1:100,


c("sim","MPE", "RMSPE", "R2","No.CP"),c("M","TPS","CRS","ST","EXP"),
c("1","3"),c("0.01","0.1"),c("6","10"),c("8","32")))
funci <- c("M","TPS","CRS","ST","EXP")
for (func in funci)
for (j in c(1,3))
for (eta in c(0.01,0.1))
for (N in c(6,10))
for (n.neigh in c(8,32))
Resultado.simnl[,,func,paste(j,sep=""),paste(sigma,sep=""),paste(N,sep=""),
240 APÉNDICE

paste(n.neigh,sep="")] <- rbf.sim(N=N, nsim=100, sigma=sigma, n.neigh=


n.neigh,func=func, j=j)

__________________________________________________________________
############# Factor: Design density ##############

Resultado.simbd <- array(data=NA,c(100,5,5,2,2,3,2), dimnames=list(1:100,


c("sim","MPE","RMSPE","R2","No.CP"),c("M","TPS","CRS","ST","EXP"),
c("1","3"),c("0.01","0.1"),c("6","10"),c("8","32")))
funci <- c("M","TPS","CRS","ST","EXP")
for (func in funci)
for (j in c(1,3))
for (eta in c(0.01,0.1))
for (N in c(6,10))
for (n.neigh in c(8,32))
Resultado.simbd[,,func,paste(j,sep=""),paste(sigma,sep=""),paste(N,sep=""),
paste(n.neigh,sep="")] <- rbf.sim(N=N, nsim=100, sigma=sigma, n.neigh=
n.neigh,func=func, j=j)

__________________________________________________________________
########### Factor: Spatial variation ##############

Resultado.simsv <- array(data=NA,c(100,5,5,2,2,2,2), dimnames=list(1:100,


c("sim","MPE","RMSPE","R2","No.CP"),c("M","TPS","CRS","ST","EXP"),
c("1","3"),c("0.01","0.1"),c("6","10"),c("8","32")))
funci <- c("M","TPS","CRS","ST","EXP")
for (func in funci)
for (j in c(1,3))
for (eta in c(0.01,0.1))
for (t in c(6,10))
for (n.neigh in c(8,32))
Resultado.simsv[,,func,paste(j,sep=""),paste(eta,sep=""),paste(t,sep=""),
paste(n.neigh,sep="")] <- rbf.sim(N=N, nsim=100, eta=eta, t=t, n.neigh=
n.neigh,func=func, j=j)

__________________________________________________________________
############ Factor: Variance function ###############
A.5 Programación Capı́tulo 5 241

Resultado.simvf <- array(data=NA,c(100,5,5,2,2,2,2), dimnames=list(1:100,


c("sim","MPE","RMSPE","R2","No.CP"),c("M","TPS","CRS","ST","EXP"),
c("1","3"),c("0.01","0.1"),c("6","10"),c("8","32")))
funci <- c("M","TPS","CRS","ST","EXP")
for (func in funci)
for (j in c(1,3))
for (eta in c(0.01,0.1))
for (t in c(6,10))
for (n.neigh in c(8,32))
Resultado.simvf[,,func,paste(j,sep=""),paste(eta,sep=""),paste(t,sep=""),
paste(n.neigh,sep="")] <- rbf.sim(N=N, nsim=100, eta=eta, t=t, n.neigh=
n.neigh,func=func, j=j)

______________________________________________________________
###### CAPITULO 5: APLICACIÓN SPACE-TIME FBR CROATIA #######
______________________________________________________________

# ------------------------------------------------------------
# STEP 0: Configuración inicial y descarga de los datos:
# ------------------------------------------------------------

library(maptools)
library(gstat)
library(fields)
library(rgdal)
library(lattice)
library(spatstat)
library(RSAGA)
utm33 <- "+proj=utm +zone=33 +ellps=WGS84 +datum=WGS84 +units=m +no_defs"

# Download auxiliary maps and station measurements:


download.file("http://spatial-analyst.net/book/sites/default/files/
HRclim2008.zip",destfile=paste(getwd(), "HRclim2008.zip", sep="/"))
unzip(zipfile="HRclim2008.zip", exdir=getwd())
unlink("HRclim2008.zip")

# Download MODIS LST images:


download.file("http://spatial-analyst.net/book/sites/default/files/
LST2008HR.zip",destfile=paste(getwd(), "LST2008HR.zip", sep="/"))
242 APÉNDICE

unzip(zipfile="LST2008HR.zip", exdir=paste(getwd(), "/LST", sep=""))


unlink("LST2008HR.zip")

# --------------------------------------------------------------
# STEP 1: Importación de los datos y formateo (estandarización);
# --------------------------------------------------------------

# Import location of stations:


IDSTA<-read.table("stations_temp_xy_2008.csv",header=TRUE,sep=",",quote="\"")
coordinates(IDSTA) <- ~LON+LAT
proj4string(IDSTA)<-CRS("+proj=longlat+ellps=bessel+towgs84=550.499,164.116,
475.142,5.80967,2.07902,-11.62386,0.99999445824")
IDSTA.ll <- spTransform(IDSTA, CRS("+proj=longlat+ellps=WGS84+datum=WGS84"))
writeOGR(IDSTA.ll, "gl_stations.kml", "IDSTA", "KML")
IDSTA.utm <- spTransform(IDSTA, CRS(utm33))
writeOGR(IDSTA.utm, "gl_stations.shp", "IDSTA", "ESRI Shapefile")
locs <- as.data.frame(IDSTA.utm)
names(locs)[c(5,6)] <- c("X", "Y")
str(locs)
# ST_ID : Identification code of a station
# NAME : Station name
# SP_CODE : Station type "gl"-main,"kl"-climatological,"ks"-precipitation
# ELEV : Station elevation in official database

# convert to lines:
rsaga.geoprocessor(lib="shapes_lines", module=0, param=list(LINES=
"borders.shp", POLYGONS="countries_s.shp"))
# import country borders:
borders <- readOGR(".", "borders")

# Croatia.shp fue generado en ArcGIS 10.0, allı́ se eliminaron los bordes


# de otros paises del archivo "countries_s.shp"

# Import temperature at stations:


HRtemp2008 <- read.delim("temp_2008.csv", header=TRUE, sep=",", quote="\"")
# NA values:
HRtemp2008$T07[HRtemp2008$T07==-99.9]<-NA;HRtemp2008$T14[HRtemp2008$T14==
-99.9] <- NA; HRtemp2008$T21[HRtemp2008$T21==-99.9] <- NA
HRtemp2008$TEMP <- (HRtemp2008$T07+HRtemp2008$T14+2*HRtemp2008$T21)/4
str(HRtemp2008)# Mean daily temperature for 365 days (2008) at 152 locations
A.5 Programación Capı́tulo 5 243

summary(HRtemp2008$TEMP) # 712 NA’s


HRtemp2008$ST_ID <- as.factor(HRtemp2008$ST_ID)
# format the DATEs (convert to number of cumulative days since 1970-01-01):
HRtemp2008$DATE <- as.Date(as.character(HRtemp2008$DATE))
HRtemp2008$cday <- floor(unclass(as.POSIXct(HRtemp2008$DATE))/86400)
# floor(unclass(as.POSIXct("2008-01-30"))/86400)[[1]]
# 13907
# inverse transformation:
# as.POSIXct(13907*86400, origin="1970-01-01")

# temperature the day before:


tmp <- data.frame(ST_ID=HRtemp2008$ST_ID, DATE=HRtemp2008$DATE+1,
TEMP1M=HRtemp2008$TEMP)
HRtemp2008.f <- merge(HRtemp2008, tmp, by=c("DATE", "ST_ID"), all.x=TRUE)
# check numbers:
HRtemp2008.f[(0:5)*(159-1)+1,c("ST_ID","DATE","TEMP","TEMP1M")]

# Import grids:
grids <- readGDAL("HRdem.asc")
names(grids@data)[1] <- "HRdem"
for(j in c("HRdsea", "HRtwi")){
grids@data[,j] <- readGDAL(paste(j, ".asc", sep=""))$band1
}
proj4string(grids) <- CRS(utm33)
# create dummy grids (Lat/Lon):
grids.ll <- spTransform(grids[1], CRS("+proj=longlat +datum=WGS84"))
grids$Lat <- grids.ll@coords[,2]
grids$Lon <- grids.ll@coords[,1]
str(grids@data)
# spplot(grids["Lat"])
lat.c <- mean(grids.ll@coords[,2])

# ---------------------------------------------------------
# STEP 2: importación de las grillas y derivación de INSOL;
# ---------------------------------------------------------

# derive total solar insolation for 365 days:


writeGDAL(grids["HRdem"], "HRdem.sdat", "SAGA")
writeGDAL(grids["Lat"], "HRlat.sdat", "SAGA")
writeGDAL(grids["Lon"], "HRlon.sdat", "SAGA")
244 APÉNDICE

Sys.chmod(getwd(), mode="0777"); dir.create("INSOL")


for(j in 1:365){
rsaga.geoprocessor(lib="ta_lighting",module=3,param=list(GRD_DEM="HRdem.sgrd"
,GRD_LAT="HRlat.sgrd", GRD_LON="HRlon.sgrd", GRD_TOTAL=paste("INSOL/",
"INSOL",j,".sgrd",sep=""), PERIOD=1, DHOUR=4, DAY_A=j),
show.output.on.console=FALSE)
# read to R:
grids@data[,paste("INSOL", j, sep="")] <- readGDAL(paste("INSOL/", "INSOL",
j,".sdat", sep=""), silent=TRUE)$band1
} # takes time!!

# Import LST MODIS images


# List of images:
LST.listday <- dir(path=paste(getwd(), "LST",sep="/"),pattern=
glob2rx("LST2008_**_**.LST_Day_1km.tif"), full.names=TRUE)
for(i in 1:length(LST.listday)){
LSTname<-strsplit(strsplit(LST.listday[i],"LST/")[[1]][2],".LST_")[[1]][1]
tmp1 <- readGDAL(LST.listday[i], silent=TRUE)
# convert to celsius:
grids@data[,LSTname] <- ifelse(tmp1$band1<=7500, NA, tmp1$band1*0.02-273.15)
}

croatia.shp <- readShapePoly("D:/........./croatia.shp")

#------------------------------------------------------------------
#STEP 3: Ordenación de los datos (matriz espacio-tiempo) y gráficos
#------------------------------------------------------------------

library(maptools)
pts <- spsample(croatia.shp, n=25000, type="regular")
df.pts <- as.data.frame(pts)
names(df.pts) <- c("x", "y")
coordinates(df.pts) <- c("x", "y")
IDSTA.OV <- overlay(grids, df.pts)
plot(IDSTA.OV@coords,cex=0.1)
spplot(IDSTA.OV["HRdem"],cex=0.1), at=seq(-15,30,by=45/50), col.regions=
grey(seq(0,1,by=0.02)), sp.layout=list("sp.lines", col="black",
croatia.shp))
IDSTA.OV1 <- data.frame(IDSTA.OV@coords,IDSTA.OV$HRdem,IDSTA.OV$HRdsea,
A.5 Programación Capı́tulo 5 245

IDSTA.OV$HRtwi,
apply(cbind(IDSTA.OV$LST2008_01_01,IDSTA.OV$LST2008_01_09,
IDSTA.OV$LST2008_01_17,IDSTA.OV$LST2008_01_25),1,mean,na.rm=TRUE),
apply(cbind(IDSTA.OV$LST2008_02_02,IDSTA.OV$LST2008_02_10,
IDSTA.OV$LST2008_02_18,IDSTA.OV$LST2008_02_26),1,mean,na.rm=TRUE),
apply(cbind(IDSTA.OV$LST2008_03_05,IDSTA.OV$LST2008_03_13,
IDSTA.OV$LST2008_03_21,IDSTA.OV$LST2008_03_29),1,mean,na.rm=TRUE),
apply(cbind(IDSTA.OV$LST2008_04_06,IDSTA.OV$LST2008_04_14,
IDSTA.OV$LST2008_04_22,IDSTA.OV$LST2008_04_30),1,mean,na.rm=TRUE),
apply(cbind(IDSTA.OV$LST2008_05_08,IDSTA.OV$LST2008_05_16,
IDSTA.OV$LST2008_05_24),1, mean, na.rm = TRUE),
apply(cbind(IDSTA.OV$LST2008_06_01,IDSTA.OV$LST2008_06_09,
IDSTA.OV$LST2008_06_17,IDSTA.OV$LST2008_06_25),1,mean,na.rm=TRUE),
apply(cbind(IDSTA.OV$LST2008_07_03,IDSTA.OV$LST2008_07_11,
IDSTA.OV$LST2008_07_19,IDSTA.OV$LST2008_07_27),1,mean,na.rm=TRUE),
apply(cbind(IDSTA.OV$LST2008_08_04,IDSTA.OV$LST2008_08_12,
IDSTA.OV$LST2008_08_20,IDSTA.OV$LST2008_08_28),1,mean,na.rm=TRUE),
apply(cbind(IDSTA.OV$LST2008_09_05,IDSTA.OV$LST2008_09_13,
IDSTA.OV$LST2008_09_21,IDSTA.OV$LST2008_09_29),1,mean,na.rm=TRUE),
apply(cbind(IDSTA.OV$LST2008_10_07,IDSTA.OV$LST2008_10_15,
IDSTA.OV$LST2008_10_23,IDSTA.OV$LST2008_10_31),1,mean,na.rm=TRUE),
apply(cbind(IDSTA.OV$LST2008_11_08,IDSTA.OV$LST2008_11_16,
IDSTA.OV$LST2008_11_24),1, mean, na.rm = TRUE),
apply(cbind(IDSTA.OV$LST2008_12_02,IDSTA.OV$LST2008_12_10,
IDSTA.OV$LST2008_12_18,IDSTA.OV$LST2008_12_26),1,mean,na.rm=TRUE))

names(IDSTA.OV1) <- c("x","y","dem","dsea","twi","MT1","MT2","MT3","MT4",


"MT5","MT6","MT7","MT8","MT9","MT10","MT11","MT12")
Grilla <- IDSTA.OV1

# overlay IDSTA and grids:


IDSTA.ov <- overlay(grids, IDSTA.utm)
locs.ov <-cbind(IDSTA.ov@data[c("HRdem","HRdsea","HRtwi","Lat","Lon")],locs)

# Merge the locations and constant predictors:


HRtemp2008locs <- merge(HRtemp2008.f[c("ST_ID", "TEMP","TEMP1M","DATE",
"cday")],locs.ov, by="ST_ID")
str(HRtemp2008locs)
HRtemp2008locs$cday <- HRtemp2008locs$cday-13878
HRtemp2008locs[(HRtemp2008locs$ST_ID %in% 663),]
246 APÉNDICE

HRtemp2008locs$EST<- ifelse(HRtemp2008locs$cday %in% c(1:80,355:367),1,


ifelse(HRtemp2008locs$cday %in% c(81:172),2, ifelse(HRtemp2008locs$cday
%in% c(173:266),3,4)))
HRtemp2008locs$MONTH<- ifelse(HRtemp2008locs$cday %in% 1:31,1,
ifelse(HRtemp2008locs$cday %in% 32:60,2,ifelse(HRtemp2008locs$cday %in%
61:91,3, ifelse(HRtemp2008locs$cday %in% 92:121,4,ifelse(
HRtemp2008locs$cday %in% 122:152,5,ifelse(HRtemp2008locs$cday %in%
153:182,6, ifelse(HRtemp2008locs$cday %in% 183:213,7,ifelse(H
Rtemp2008locs$cday %in% 214:244,8,ifelse(HRtemp2008locs$cday %in%
245:274,9,ifelse(HRtemp2008locs$cday %in% 275:305,10,ifelse(
HRtemp2008locs$cday %in% 306:335,11,12)))))))))))

HRtemp2008locs[(HRtemp2008locs$TEMP %in% NA),]$ST_ID


HRtemp2008locs[(HRtemp2008locs$ST_ID ==1),]
HRtemp2008locs$EST<- ifelse(HRtemp2008locs$cday %in% c(1:80,355:367),1,
ifelse(HRtemp2008locs$cday %in% c(81:172),2, ifelse(HRtemp2008locs$cday
%in% c(173:266),3,4)))
write.table(HRtemp2008locs, "D:/......./Aplicación/Muestra.txt", sep=" ",
col.names=TRUE, row.names=TRUE, quote=TRUE, na="NA")

## Construcción Mapa Ubicacion Estaciones Croacia


par(mfrow=c(1,1), mar=c(4,6,3,2))
plot(croatia.shp, las=2, col="cornsilk3",border="black", axes=F,
xlim=c(min(IDSTA.OV1$x),max(Grilla$x)), ylim=c(min(Grilla$y),max(Grilla$y)))
at.y <- (48:51)*100000
axis(2, at = at.y, labels = formatC(at.y, format="fg"), las=2)
my.at <- (4:8)*100000
axis(1, at = my.at, labels = my.at)
box(lty = ’solid’, )
#main="Ubicación Estaciones 2008-12-01")
points(Muestra$X,Muestra$Y,pch=20,cex=0.9)
title(xlab="East(m)", line=3)
title(ylab="North(m)", line=5)

## Construcción mapas variables explicativas continuas Croacia


pacol <- colorRampPalette(c("white","black"))
GrillaDDT <- Grilla[,1:5]
names(GrillaDDT) <- c("x","y","dem","dsea","twi")
addCr<-list("sp.polygons",croatia.shp,col="gray25",first = FALSE)
A.5 Programación Capı́tulo 5 247

gridded(GrillaDDT) = ~x+y
pdem <- spplot(GrillaDDT["dem"],col.regions=pacol,sp.layout=addCr,cuts=40,
scales = list(draw =T), xlab="East (m)", ylab = "North (m)",
key.space=list(space="right", cex=0.8))
pdsea <- spplot(GrillaDDT["dsea"],col.regions=pacol,sp.layout=addCr,cuts=40,
scales = list(draw =T), xlab="East (m)", ylab = "North (m)",
key.space=list(space="right", cex=0.8))
ptwi <- spplot(GrillaDDT["twi"],col.regions=pacol,sp.layout=addCr,cuts=40,
scales = list(draw =T), xlab="East (m)", ylab = "North (m)",
key.space=list(space="right", cex=0.8))

#---------------------------------------------------------------------------
#STEP 4: Calculo de coordenadas principales y regresión basada en distancias
#---------------------------------------------------------------------------

library(cluster)

Data.f <- data.frame(Muestra$X,Muestra$Y,Muestra$MONTH,Muestra$HRdem,


Muestra$HRdsea, Muestra$HRtwi,Muestra$EST) #,Muestra$SDTEMP)
names(Data.f) <- c("x","y","t","dem","dsea","twi","est") #,"sdt")
Data.f[,7] <- as.factor(Data.f[,7])

Delta <- daisy(Data.f, metric ="gower")


class(Delta)
library(ade4)
is.euclid(Delta^(1/2))

mds <- cmdscale(Delta^(1/2), k = nrow(Data.f)-1, eig = TRUE)


names(mds)
round(mds$points[,1],4)

m <- sum(mds$eig > 0.007)


mds <- cmdscale(Delta^0.5, k = m, eig = TRUE)
X <- mds$points

ValoresPropios <- mds$eig

CorrCuadrado <- as.vector(cor(Muestra$MTEMP,X)^2)


Porc.Inercia <- ValoresPropios/length(CorrCuadrado)
o<-data.frame(1:length(CorrCuadrado),round(ValoresPropios[1:
248 APÉNDICE

length(CorrCuadrado)],10),round(CorrCuadrado,10),round(Porc.Inercia
[1:length(CorrCuadrado)],10))
names(o)<-c("ID", "ValoresProp", "CorrCuad", "Porc.Inercia")
names(o)
o1<-o[o$CorrCuad>0.003,]
#fix(o1)
Xr <- X[,o1$ID]
rdb <- lm(Muestra$MTEMP ~ Xr)
model.db <- summary(rdb)

aux <- CorrCuadrado[1:10]*ValoresPropios[1:10]/sum(CorrCuadrado[1:10]*


ValoresPropios[1:10])
c.pred <- c(0,cumsum(aux))

plot(0:14,1-c.pred[1:15],
xlab="Principal Coordinates",
ylab="1 - Predictability",
main=c("No Predictability Principal Coordinates"),
cex.main=1.2, col.main=4, ylim=c(0,1), xlim=c(0,12), type="l")
abline(v=3,lty=2,col="blue")

# --------------------------------------------------------------------
# STEP 5: Calculo de las coordenadas principales de nuevos individuos;
# --------------------------------------------------------------------

library(gstat)
x.news <- function(ValoresPropios,Data,tendencia,newdata){
Data[length(ValoresPropios)+1, ] <- newdata
d <- as.matrix(gowdis(Data))[-(length(ValoresPropios)+1),
(length(ValoresPropios)+1)]
b <- diag(tcrossprod(tendencia))
x.new <- (1/2)*diag(ValoresPropios[1:ncol(tendencia)]^(-1))%*%t(tendencia)
%*%(b-d)
x.new
}

tabla <- function(newdata){


x.new0<-x.news(ValoresPropios=ValoresPropios,Data=Data.f,tendencia=
Xr,newdata)
A.5 Programación Capı́tulo 5 249

x.new0
}

tabla1 <- apply(Grilla25.m1,1,tabla)


tabla2 <- apply(Grilla25.m2,1,tabla)
tabla3 <- apply(Grilla25.m3,1,tabla)
tabla4 <- apply(Grilla25.m4,1,tabla)
tabla5 <- apply(Grilla25.m5,1,tabla)
tabla6 <- apply(Grilla25.m6,1,tabla)
tabla7 <- apply(Grilla25.m7,1,tabla)
tabla8 <- apply(Grilla25.m8,1,tabla)
tabla9 <- apply(Grilla25.m9,1,tabla)
tabla10 <- apply(Grilla25.m10,1,tabla)
tabla11 <- apply(Grilla25.m11,1,tabla)
tabla12 <- apply(Grilla25.m12,1,tabla)

# ------------------------------------------------------------
# STEP 6: optimización y generación de mapas de interpolación;
# ------------------------------------------------------------

# optimización CRS FBR


rbf.st.cvop(c(0.0001,0.001),z=Muestra$MTEMP,coordinates=
scale(Muestra[,c(14,15,17)]), trend=Xr, n.neigh=30, func="CRS")
rbf.st.cvop(c(0.001,0),z=Muestra$MTEMP, coordinates=
scale(Muestra[,c(14,15,17)]), trend=Xr, n.neigh=30, func="CRS")
rbf.st.cvop(c(0.01,0),z=Muestra$MTEMP, coordinates=
scale(Muestra[,c(14,15,17)]), trend=Xr, n.neigh=30, func="CRS")

# optimización TPS RBF


rbf.st.cvop(c(0.001,0),z=Muestra$MTEMP, coordinates=
scale(Muestra[,c(14,15,17)]),trend=Xr, n.neigh=30, func="TPS")
rbf.st.cvop(c(0.01,0),z=Muestra$MTEMP, coordinates=
scale(Muestra[,c(14,15,17)]),trend=Xr, n.neigh=30, func="TPS")
rbf.st.cvop(c(0.1,0),z=Muestra$MTEMP, coordinates=
scale(Muestra[,c(14,15,17)]),trend=Xr, n.neigh=30, func="TPS")

# Las demás funciones se trabajaron de manera similar


250 APÉNDICE

pal2a <- colorRampPalette(c("blue3","wheat1","red3"))

####################################
# CRS Spline Interpolation MTEMP #
####################################

# Month 1
fbr.pred.CRS<-rbf.trst(eta=0.001,z=Muestra$MTEMP,coordinates=scale(Muestra
[,c(14,15,17)]),trend=Xr,nd.trend=nd.trend1,rho=0,n.neigh=30,func="CRS")
fbr.CRS <- data.frame(Grilla25.m1[,1:2],fbr.pred.CRS[,4:5])

gridded(fbr.CRS) = ~x+y
par(mar = c(2.8, 3.1, 0.5, 0.5), mgp = c(1.8, 0.7, 0), mfrow = c(1, 1))
spplot(fbr.CRS["var1.pred"], col.regions=pal2, cuts=30,scales=list(draw=T),
xlab="East (m)",
ylab = "North (m)", key.space=list(space="right", cex=0.8))

#Month 4
fbr.pred.CRS4 <- rbf.trst(eta=0.001, z=Muestra$MTEMP,
coordinates=scale(Muestra[,c(14,15,17)]),
trend=Xr, nd.trend=nd.trend4, rho=0, n.neigh=30, func="CRS")
fbr.CRS4 <- data.frame(Grilla25.m4[,1:2],fbr.pred.CRS4 [,4:5])

gridded(fbr.CRS4) = ~x+y
par(mar = c(2.8, 3.1, 0.5, 0.5), mgp = c(1.8, 0.7, 0), mfrow = c(1, 1))
spplot(fbr.CRS4["var1.pred"], col.regions=pal2,cuts=30,scales=list(draw=T),
xlab="East (m)",ylab="North (m)",key.space=list(space="right",cex=0.8))

#Month 7
fbr.pred.CRS7 <-rbf.trst(eta=0.001,z=Muestra$MTEMP,coordinates=scale(Muestra
[,c(14,15,17)]),trend=Xr,nd.trend=nd.trend7,rho=0,n.neigh=30,func="CRS")
fbr.CRS7 <- data.frame(Grilla25.m7[,1:2],fbr.pred.CRS7 [,4:5])
#fbr.CRS7@data$var1.pred[fbr.CRS7@data$var1.pred>40] <-
# mean(fbr.CRS7@data$var1.pred[fbr.CRS7@data$var1.pred<40]+9)

gridded(fbr.CRS7) = ~x+y
par(mar = c(2.8, 3.1, 0.5, 0.5), mgp = c(1.8, 0.7, 0), mfrow = c(1, 1))
spplot(fbr.CRS7["var1.pred"], col.regions=bpy.colors(60), cuts=30, scales=
list(draw =T), xlab="East (m)",
ylab = "North (m)", key.space=list(space="right", cex=0.8))
A.5 Programación Capı́tulo 5 251

# Month 10
fbr.pred.CRS10<-rbf.trst(eta=0.001,z=Muestra$MTEMP,coordinates=scale(Muestra
[,c(14,15,17)]),trend=Xr,nd.trend=nd.trend10,rho=0,n.neigh=30,func="CRS")
fbr.CRS10 <- data.frame(Grilla25.m10[,1:2],fbr.pred.CRS10[,4:5])

gridded(fbr.CRS10) = ~x+y
par(mar = c(2.8, 3.1, 0.5, 0.5), mgp = c(1.8, 0.7, 0), mfrow = c(1, 1))
spplot(fbr.CRS10["var1.pred"], col.regions=bpy.colors(60), cuts=30,scales=
list(draw =T), xlab="East (m)", ylab = "North (m)",
key.space=list(space="right", cex=0.8))

## AGREGADO EN UN MAPA
fbr.CRS.A<-data.frame(Grilla25.m10[,1:2],fbr.pred.CRS[,4],fbr.pred.CRS4[,4],
fbr.pred.CRS7[,4],fbr.pred.CRS10[,4])
names(fbr.CRS.A) <- c("x","y","MONTH1","MONTH4","MONTH7","MONTH10")

gridded(fbr.CRS.A) = ~x+y
pr.list <- c("MONTH1","MONTH4","MONTH7","MONTH10")
pr.list1 <- c("a","b","c","d")
par(mar = c(2.8, 3.1, 0.5, 0.5), mgp = c(1.8, 0.7, 0), mfrow = c(1, 4))
fbr.CRS.ag = fbr.CRS
fbr.CRS.ag[["a"]] = fbr.CRS[["var1.pred"]]
fbr.CRS.ag[["b"]] = fbr.CRS4[["var1.pred"]]
fbr.CRS.ag[["c"]] = fbr.CRS7[["var1.pred"]]
fbr.CRS.ag[["d"]] = fbr.CRS10[["var1.pred"]]
g2 <- spplot(fbr.CRS.ag,c("a","b","c","d"),names.attr=c("MONTH 1","MONTH 4",
"MONTH 7","MONTH 10"),as.table=TRUE,col.regions=pal2a,cuts=30,scales=
list(draw =T),xlab="East (m)",ylab="North (m)",key.space=list(space=
"right", cex=0.8))
#spplot(fbr.CRS.A[pr.list], names.attr=c("MONTH 1", "MONTH 4", "MONTH 7",
"MONTH 10"),col.regions=pal2,cuts=30,scales=list(draw=T),xlab="East (m)",
ylab = "North (m)", key.space=list(space="right", cex=0.8))
#xlim=c(450000,600000), ylim=c(4950000,5100000),col.regions=bpy.colors(10)

#####################################
# EXP Spline Interpolation MTEMP #
#####################################
252 APÉNDICE

# Month 1
fbr.pred.EXP <- rbf.trst(eta=0.001, z=Muestra$MTEMP, coordinates=
scale(Muestra[,c(14,15,17)]),trend=Xr,nd.trend=nd.trend1,rho=0,n.neigh=30,
func="EXP")
fbr.EXP <- data.frame(Grilla25.m1[,1:2],fbr.pred.EXP[,4:5])

gridded(fbr.EXP) = ~x+y
par(mar = c(2.8, 3.1, 0.5, 0.5), mgp = c(1.8, 0.7, 0), mfrow = c(1, 1))
spplot(fbr.EXP["var1.pred"],col.regions=pal2,cuts=30,scales=list(draw =T),
xlab="East (m)",
ylab = "North (m)", key.space=list(space="right", cex=0.8))

# Month 4
fbr.pred.EXP4 <- rbf.trst(eta=0.001, z=Muestra$MTEMP, coordinates=
scale(Muestra[,c(14,15,17)]),trend=Xr,nd.trend=nd.trend4,rho=0,n.neigh=30,
func="EXP")
fbr.EXP4 <- data.frame(Grilla25.m1[,1:2],fbr.pred.EXP4[,4:5])

gridded(fbr.EXP4) = ~x+y
par(mar = c(2.8, 3.1, 0.5, 0.5), mgp = c(1.8, 0.7, 0), mfrow = c(1, 1))
spplot(fbr.EXP4["var1.pred"],col.regions=pal2, cuts=30,scales=list(draw =T),
xlab="East (m)",ylab="North (m)",key.space=list(space="right",cex=0.8))

# Month 7
fbr.pred.EXP7 <- rbf.trst(eta=0.001, z=Muestra$MTEMP, coordinates=
scale(Muestra[,c(14,15,17)]),trend=Xr,nd.trend=nd.trend7,rho=0,n.neigh=30,
func="EXP")
fbr.EXP7 <- data.frame(Grilla25.m1[,1:2],fbr.pred.EXP7[,4:5])

gridded(fbr.EXP7) = ~x+y
par(mar = c(2.8, 3.1, 0.5, 0.5), mgp = c(1.8, 0.7, 0), mfrow = c(1, 1))
spplot(fbr.EXP7["var1.pred"],col.regions=terrain.colors(100),cuts=30,scales=
list(draw =T),xlab="East (m)",ylab="North (m)",key.space=list(space="right",
cex=0.8))

# Month 10
fbr.pred.EXP10 <- rbf.trst(eta=0.001, z=Muestra$MTEMP, coordinates=
scale(Muestra[,c(14,15,17)]),trend=Xr,nd.trend=nd.trend10,rho=0,n.neigh=30,
func="EXP")
fbr.EXP10 <- data.frame(Grilla25.m1[,1:2],fbr.pred.EXP10[,4:5])
A.5 Programación Capı́tulo 5 253

gridded(fbr.EXP10) = ~x+y
par(mar = c(2.8, 3.1, 0.5, 0.5), mgp = c(1.8, 0.7, 0), mfrow = c(1, 1))
spplot(fbr.EXP10["var1.pred"],col.regions=terrain.colors(100),cuts=30,scales=
list(draw =T),xlab="East (m)",ylab="North (m)",key.space=list(space="right",
cex=0.8))

## AGREGADO EN UN MAPA
fbr.EXP.A<-data.frame(Grilla25.m10[,1:2],fbr.pred.EXP[,4],fbr.pred.EXP4[,4],
fbr.pred.EXP7[,4],fbr.pred.EXP10[,4])
names(fbr.EXP.A) <- c("x","y","MONTH1","MONTH4","MONTH7","MONTH10")

gridded(fbr.EXP.A) = ~x+y
par(mar = c(2.8, 3.1, 0.5, 0.5), mgp = c(1.8, 0.7, 0), mfrow = c(1, 4))
fbr.EXP.ag = fbr.EXP
fbr.EXP.ag[["a"]] = fbr.EXP[["var1.pred"]]
fbr.EXP.ag[["b"]] = fbr.EXP4[["var1.pred"]]
fbr.EXP.ag[["c"]] = fbr.EXP7[["var1.pred"]]
fbr.EXP.ag[["d"]] = fbr.EXP10[["var1.pred"]]
g5<-spplot(fbr.EXP.ag,c("a","b","c","d"),names.attr=c("MONTH 1","MONTH 4",
"MONTH 7","MONTH 10"),as.table=TRUE,col.regions=pal2a,cuts=30,scales=
list(draw=T),xlab="East (m)",ylab="North (m)",key.space=list(space=
"right", cex=0.8))

# Los demás mapas se generaron de manera similar


Los Cuadernos del Centro de Morfología Matemática
de Fontainebleau

Fascículo 2

CURSO DE GEOESTADÍSTICA

Por

Georges MATHERON

1969

Traducido al español por

Marco ALFARO

2005
Propiedad del Centro de Geoestadística de la Escuela de Minas de París.

Prohibida su venta.

1
CURSO DE GEOESTADISTICA

Tabla de Materias

PREFACIO 3

0 – INTRODUCCION. 4

0-1 Notaciones 4
0-2 Producto de convolución 5
0-3 Geoestadística y Teoría de las variables regionalizadas 6
0-4 Métodos transitivos y Teoría intrínseca 10

1 – LOS METODOS TRANSITIVOS. 9

1-1 Ejemplo introductorio 9


1-2 El covariograma transitivo 11
1-3 Regularización y subida 12
1-4 La estimación de las variables regionalizadas 13
1-5 Aplicación a la estimación de una superficie S 17

2 – TEORIA DE LAS F. A. INTRINSECAS. 20

2-1 Definiciones generales 20


2-2 Propiedades de la covarianza y del variograma 23
2-3 Regularización de una F.A.I. 26
2-4 Varianzas de extensión y de estimación 29
2-5 Efecto de pepita y fenómeno de transición 34
2-6 Calculo de varianzas de estimación 37

3 – EL ESQUEMA ESFERICO. 45

4 – EL KRIGEADO 47

4-1 El problema del krigeado y su interés 47


4-2 Las ecuaciones generales del krigeado 49
4-3 Krigeado completo y balance mineral metal 51

5 – INVESTIGACION DEL OPTIMO EN EL RECONOCIMIENTO Y LA PUESTA EN


EXPLOTACION DE DEPOSITOS MINEROS: 53

5-0 Introducción 53
5-1 Elección de una ley de corte y de un ritmo anual de
explotación 56
5-2 Reconocimiento óptimo para el dimensionamiento de la
explotación 60
5-3 Optimización secuencial y término del reconocimiento 63

6. EJERCICIOS 70

BIBLIOGRAFIA 77

2
PREFACIO DEL TRADUCTOR

Una vez finalizada la traducción del Fascículo 5, “La Théorie des


Variables Régionalisées, et ses Applications” del Maestro Georges
Matheron, publicada en 1970, un amigo geoestadístico me solicitó traducir
“Cours de Géostatistique”, el cual a su juicio era un subconjunto del
Fascículo 5.

Al realizar la traducción me dí cuenta de varias diferencias, por


ejemplo, en el tratamiento del krigeado, en el cual se llega a un sistema
de ecuaciones de n-1 incógnitas, siendo n el número de datos (esto se
conoció, en el pasado, como sistema de Matheron. Debido a que el tiempo
computacional para resolver un sistema es proporcional a n2, yo he
utilizado este sistema en mis programas computacionales, construyendo un
programa más rápido que los otros).

La diferencia más notable es que en el Fascículo 5 no existe un capítulo


acerca de los problemas de economía minera. En este curso de
geoestadística se estudian los problemas económicos para determinar el
ritmo de producción y la ley de corte óptimos. Matheron llega a la
conclusión que para determinar la ley de corte y el ritmo de producción
que maximizan los beneficios futuros de la explotación de un depósito, se
debe utilizar una tasa de actualización i=0, en abierta contradicción con
la tendencia actual, la cual conduce a un “floreo técnico” de nuestros
depósitos.

Además de rendirle un homenaje de reconocimiento y de afecto al creador


de la Geoestadística, con la satisfacción de haber sido su Secretario en
la efímera Asociación Internacional de Geoestadística, el propósito de
esta publicación es doble: por una parte servirá de ayuda y complemento
para los estudiantes de minas, de geología y los profesionales
interesados en la estimación de recursos mineros, por otra parte, como
una referencia para mostrar que ciertos conceptos y el uso de algunas
herramientas han sido desvirtuados con el correr de los años. La varianza
de estimación, noción capital en todo el libro, constituye un excelente
ejemplo.

La traducción es casi textual pero he omitido – en lo cual G. Matheron


estaba de acuerdo - el modelo de De Wijs. La palabra “semivariograma” es
reemplazada siempre por “variograma”. En vez del anglicismo “kriging” he
preferido traducir “krigeage” por la palabra correcta en español
“krigeado” o “krigeaje” (se prefiere krigeado porque krigeaje no suena
bien en castellano).

Existen otros manuscritos que he realizado, que iré poco a poco pasando a
formato electrónico, poniéndolos a disposición de la comunidad minera.

M. ALFARO

3
CURSO DE GEOESTADISTICA

0 – INTRODUCCION

Designaremos por x, y, ... puntos del espacio de n dimensiones (n = 1, 2


o 3), por dx, dy, ... elementos de longitud (n = 1), de superficie (n =
2) o de volúmenes (n = 3), centrados en los mismos puntos, por f(x), g(y)
etc., ... funciones de estos puntos.

La integral (extendida a todo el espacio) de una función f(x) se escribe:

∫ f ( x)dx
Por ejemplo, para n = 3 dimensiones, y, designando por (x1, x2, x3) las
tres coordenadas del punto x, esta notación se explicita de la manera
siguiente:

+∞ +∞ +∞

∫ f ( x)dx = ∫
−∞
dx1 ∫ dx2 ∫ f ( x1 , x2 , x3 )dx1dx2 dx3
−∞ −∞

De la misma manera, escribiremos ∫ f ( x)dx


A
para la integral de la función

f(x) sobre un dominio A del espacio de n dimensiones.

Para n = 2, si A es el rectángulo de la figura, se tiene, de manera


explícita:

b1 b2

∫ f ( x)dx = ∫ dx ∫ f ( x , x )dx dx
A a1
1
a2
1 2 1 2

Estas notaciones son a la vez muy condensadas y muy parlantes: en una


primera lectura se las puede interpretar en el espacio de una dimensión,
donde su significación es, en general, muy clara. La generalización a los
espacios de dos o tres dimensiones se hace así más fácil.

Ejemplo: Sea V un volumen, y g(h) = g(h1, h2, h3) una función del vector
h de coordenadas h1, h2, h3 . Sean x = (x1, x2, x3) e y = (y1, y2, y3) el
origen y la extremidad del vector h, es decir h=y-x. El valor medio de la

4
función g(h) cuando los dos puntos x e y recorren (cada uno a su manera)
el volumen V, se escribe:

1
v 2 ∫v ∫v
dx g ( y − x)dy

En notación explícita, lo anterior se escribiría como:

1
v2 ∫ ∫ ∫ dx dx dx ∫ ∫ ∫ g ( y
v
1 2 3
v
1 − x1 ; y2 − x2 ; y3 − x3 )dy1dy2 dy3

La primera notación es un símbolo, que describe directamente el concepto


de valor medio; la segunda es un algoritmo que indica el camino a seguir
para calcular esta cantidad, pero cuya significación no aparece a primera
vista.

0-2 PRODUCTO DE CONVOLUCION (media móvil)

El producto de convolución de dos funciones f1(x) y f2(x) se define por:

g ( x) = ∫ f1 ( y ) f 2 ( x − y )dy = ∫ f 2 ( y ) f1 ( x − y )dy

Se escribe, en notación simbólica:

g = f1 ∗ f 2

Esta operación de convolución juega un papel fundamental en


Geoestadística (como también en probabilidades y en toda la física
teórica). La convolución se puede asociar con la noción intuitiva de
“media móvil”:

Regularizada de una función f (media móvil ponderada de la función)

Sea p(y) una función de ponderación. El valor en el punto x0 de la media


móvil de la función f ponderada por p es:

f p ( x0 ) = ∫ p ( y ) f ( x0 + y )dy = ∫ p (− y ) f ( x0 − y )dy

(se atribuye el peso p(y)dy al valor tomado por f en el punto x0 + y. La


segunda expresión se obtiene al cambiar y por –y).

5

Sea p la función transpuesta de la función p (por definición:
 
p (x)=p(-x)). fp(x0) es el valor en x0 de f* p :


fp = f ∗ p

Esta media móvil fp de la función f (ponderada por p) se llama


regularizada (de f por p).

Ejemplo 1 (toma de una muestra v en el punto x)

Sea v la muestra implantada en el origen de coordenadas, y sea k(x) su


función indicatriz (por definición k(x)=1 si x ∈ v y k(x)=0 si x ∉ v).
Tomemos como función de ponderación p(x)=(1/v)k(x). La media móvil
correspondiente:

1 
fv = f ∗k
v
representa la ley media de la muestra v tomada en el punto x. De manera
explícita, se tiene:

1
v ∫v
f v ( x) = f ( x + y )dy

Ejemplo 2 (radiactividades)

Si en el origen 0 de coordenadas se pone una masa unitaria de una


sustancia radiactiva, se observa a la distancia d una radiactividad igual
a Ae-λd/d (A es una constante y λ es el coeficiente de absorción del
medio). Sea ahora f(x) la ley en el punto x de esta sustancia radiactiva.
Designemos por d(x-x0) la distancia entre dos puntos x y x0. La masa
f(x)dx localizada en x genera en x0 una radiactividad:

Ae− λ d ( x − x0 ) / d ( x − x0 ) f ( x)dx

En total, se observa en x la radiactividad:

e − λ d ( x − x0 )
A∫ f ( x ) dx
d ( x − x0 )

Esto no es otra cosa que el producto de convolución Af * p (con una
−λd
función p de ponderación p( x) = e / d , la cual es además simétrica, es

decir p = p )

0-3 GEOSTADISTICA Y TEORIA DE LAS VARIABLES REGIONALIZADAS.

La Geoestadística es la aplicación de la teoría de las variables


regionalizadas a la estimación de los depósitos mineros (con todas las
aproximaciones que esto implica). De manera general, diremos que un

6
fenómeno es regionalizado cuando se desplaza en el espacio, manifestando
una cierta estructura. Las ciencias de la tierra, entre otras, nos
proporcionan numerosos ejemplos. Si f(x) designa el valor en el punto x
de una característica f de este fenómeno, diremos que f(x) es una
variable regionalizada, abreviado, una V.R. Se trata de un término
neutro, descriptivo, anterior, en particular a toda interpretación
probabilística.

Entonces, del punto de vista matemático, una V.R. es simplemente una


función f(x) del punto x, pero es, en general, una función muy irregular:
ejemplo: una ley en un depósito minero. Una variable regionalizada se
presenta bajo dos aspectos contradictorios (o complementarios):

• un aspecto aleatorio (alta irregularidad, y variaciones


imprevisibles de un punto a otro)
• un aspecto estructurado (la V.R. debe sin embargo reflejar a su
manera las características estructurales de un fenómeno
regionalizado)

La teoría de las V.R. se propone entonces dos objetivos principales:

• en el plano teórico, expresar estas características estructurales


en una forma matemática adecuada
• en el plano práctico, resolver el problema de la estimación de una
V.R. a partir de un muestreo fragmentario.

Estos dos objetivos están relacionados: para un mismo conjunto de


muestras, el error de estimación depende de las características
estructurales; este error, por ejemplo, es más grande cuando la V.R. es
más irregular y más discontinua en su variación espacial.

Campo y Soporte de una V.R.

El campo V de una V.R. es el dominio donde ésta es diferente de 0. Un


panel es un subconjunto V’ de V.

Soporte – A menudo, no se conoce f(x), sino más bien su valor medio fv(x)
dentro de la muestra v tomada en el punto x. Esta regularizada fv(x) es
efectivamente más regular que la V.R. f(x). El volumen v se llama soporte
de la V.R. fv, regularizada de f. Otra tarea importante de la teoría de
las variables regionalizadas consistirá entonces en determinar las
características de fv conociendo las de f. Ejemplo: en un depósito,
prever las características de los paneles V’(variable fV’), conociendo las
características de f o de fv (muestras).

Más generalmente, se buscará relacionar las características de f con las


de una regularizada fp dada (ejemplo de las radiactividades).

0-4 METODOS TRANSITIVOS Y TEORIA INTRINSECA.

Para alcanzar los objetivos disponemos de dos grupos de métodos:

• métodos transitivos: absolutamente generales, en particular no


necesitan ninguna hipótesis de naturaleza probabilística, y, a
fortiori, ninguna hipótesis de estacionaridad.

7
• teoría intrínseca: se trata de una aplicación de la teoría de las
funciones aleatorias; entonces se introducen interpretaciones
probabilísticas, y además, una cierta hipótesis de estacionaridad
(hipótesis intrínseca)

Desde el punto de vista teórico, estos dos grupos de métodos conducen a


resultados equivalentes, lo cual muestra que los resultados de la teoría
intrínseca no están, en realidad, ligados a la hipótesis de
estacionaridad (por otra parte, se puede construir una teoría
probabilística sin utilizar esta hipótesis, la cual permite encontrar los
resultados principales de la Geoestadística).

En la práctica la teoría intrínseca es más fácil de construir, y es casi


siempre la teoría que se utiliza, salvo el caso particular, muy
importante, de la estimación de una superficie o de un volumen (problema
geométrico)

Respecto de la bibliografía (ver referencias al término de este


Fascículo), se encontrará en [4] la exposición completa de la teoría de
las variables regionalizadas, y en [5], una exposición abreviada de esta
misma teoría, además de un tratado completo de Geoestadística aplicada,
conteniendo, en particular, el estudio de los problemas de optimización
económica (el texto original en francés puede ser consultado en la
Biblioteca de la Escuela de Minas de París). La tesis de J. Serra
proporciona, por una parte una exposición general muy concreta (sin
dificultades matemáticas), y por otra parte, un estudio detallado del
esquema esférico. El antiguo tratado [3] está obsoleto en gran parte,
salvo en lo relacionado con el esquema de De Wijs. La tesis de A. Carlier
[1] estudia (solamente para el esquema de De Wijs) los problemas
especiales propuestos por los depósitos de substancias radiactivas. Los
problemas de optimización económica se tratan en dos artículos de los
Annales des Mines [8], lo más esencial figura en [5].

8
1 - LOS METODOS TRANSITIVOS

1-1 EJEMPLO INTRODUCTORIO

Consideremos el fenómeno de “transición” más simple que se pueda


imaginar: presencia o ausencia de una característica. Sea por ejemplo una
formación geológica de extensión limitada. Un sondaje perforado en el
punto x la intersecta o no la intersecta. Designemos por k(x) la
indicatriz del conjunto S, es decir la función definida por:

⎧1 si x ∈ S
k ( x) = ⎨
⎩0 si x ∉ S

Se trata de un fenómeno único, para el cual no es posible realizar una


formulación probabilística: hablar de la probabilidad de que un punto
dado x pertenezca a S no tendría gran sentido. Se puede observar también
que todo el interés se concentra aquí en la frontera de S. En efecto,
k(x) es constante tanto al interior como al exterior de S, solamente al
pasar esta frontera k(x) varía, pasando de 1 a 0 o de 0 a 1. Esta es la
justificación del nombre de fenómeno de transición, y del nombre métodos
transitivos.

El área S de nuestra formación está dada, evidentemente, por:

S = ∫ k ( x)dx

El valor S constituye una información muy interesante desde el punto de


vista práctico: a menudo, se busca estimar este valor a partir de una red
de sondajes. Sin embargo este parámetro no nos aporta ninguna información
de naturaleza realmente estructural. En efecto, se puede definir la
estructura de un conjunto como el sistema de relaciones existentes entre
los elementos o las partes de este conjunto. Tendremos información de
naturaleza estructural al hacer intervenir simultáneamente, al menos, dos
puntos.

Sean entonces dos puntos x y x+h (es decir el conjunto estructurante más
pequeño que podamos imaginar. Consideremos entonces la expresión
k(x)k(x+h): vale 1 si x y x+h pertenecen los dos a S, y 0 en otro caso.
Pero decir que x+h pertenece a S equivale a decir que x pertenece al
trasladado S-h de S según la traslación –h. Se tiene entonces:

9
⎧1 si x ∈ S ∩ S − h
k ( x ) k ( x + h) = ⎨
⎩0 si x ∉ S ∩ S − h

Integremos en x esta expresión: obtenemos una función de h:

K (h) = ∫ k ( x)k ( x + h)dx = medida ( S ∩ S− h )

Que representa la medida (el área) de la intersección de S y de su


trasladado por –h. Esta función es simétrica, porque las dos
intersecciones S∩S-h y S∩Sh se deducen una de la otra por traslación. Esta
función K(h) es el covariograma geométrico asociado a S. La función K(h)
proporciona una cierta imagen de la forma del conjunto S:

Propiedades del covariograma geométrico K(h)

a/ Simetría: K ( h) = K ( − h)

Desigualdades: 0 ≤ K (h) ≤ K (0)

Relaciones: S = K (0)

S 2 = ∫ K (h)dh

b/ Alcances: el alcance a(α) en la dirección α es la distancia a


partir de la cual K(h) se anula en esa dirección. Entonces es la
dimensión más grande de S en esta dirección.

c/ Pendiente en el origen (derivada a la derecha y a la izquierda)

Si el módulo δr de h es pequeño, se tiene:

10
K (h) = K (0) − δ rDα

δ rDα es la mitad de la superficie pequeña barrida por el vector δr cuyo


origen describe el contorno de S. Dα es la variación diametral de S en la
dirección α (si S es convexo, Dα es el diámetro aparente en esa
dirección).

1-2 EL COVARIOGRAMA TRANSITIVO (caso general)

Sea f(x) una V.R. nula fuera de un campo V acotado. El covariograma


transitivo de esta V.R. es la función g(h) definida por:

(1) g (h) = ∫ f ( x) f ( x + h)dx

Propiedades del covariograma transitivo g(h)

a/ Simetría: g ( h) = g ( − h)

g (h) ≤ g (0) = ∫ [ f ( x) ] dx
2
desigualdad:

Sea Q = ∫ f ( x)dx la cantidad de metal, se tiene:

(2) Q 2 = ∫ g (h)dh

(para demostrar (2), reemplazar g por su expresión (1), e integrar en h)

b/ Alcance: a(α) se define por la condición g(h)=0 cuando h>a(α) para el


vector h de dirección α: es una propiedad del campo de la V.R.

c/ Comportamiento de g(h) en una vecindad del origen. La regularidad de


g(h) en una vecindad del origen refleja las propiedades de continuidad de
la V.R. en su variación espacial. Lo anterior resulta de:

1
∫ [ f ( x + h) − f ( x)] dx
2
g (0) − g (h) =
2
Si f(x) es continua por trozos, g(h) tiene un comportamiento lineal en
una vecindad del origen.
Si f(x) es derivable, g(h) tiene un comportamiento parabólico:

11
A menudo, g(h) no es continuo en h=0: dicho de otra manera, g(0) es mayor
que el límite de g(h) cuando h tiende a 0. Se dice entonces que hay un
efecto de pepita. Más que una discontinuidad verdadera, se trata,
frecuentemente, de una zona de transición muy rápida, la cual,
experimentalmente, se presenta como una discontinuidad.

Caso isótropo. Si g(h) = g(r) solo depende del módulo r = |h| del vector
h, su desarrollo en una vecindad del origen contiene una parte regular
(términos de grado par) y una parte irregular (términos en rλ, λ
diferente de un entero par, eventualmente con términos logarítmicos
r2klog(r)):

g (r ) = g (0) + a2 r 2 + ...... + ∑ aλ r λ + ∑ a2 k r 2 k log(r )


λ k

parte regular parte irregular

El término de más bajo grado de la parte irregular caracteriza la


irregularidad de la V. R. en su variación espacial. Por ejemplo, la V. R.
geométrica asociada a una superficie S tiene un covariograma en:

K (h) = S − D | h | +...

el término de más bajo grado de la parte irregular es de grado 1.

1-3 REGULARIZACION DE UNA V.R. Y SUBIDA

1-3-1. Regularización de una V.R.



Sea f(x) una V.R., p(x) una función de ponderación, fp=f* p la
regularizada de f por p. La relación (1) puede escribirse:

g= f*f

lo cual muestra que el covariograma transitivo es la autoregularizada de


la V.R. f. El covariograma

    
gp = f * p* f * p = f * f * p* p = fp * fp

12
se puede poner en la forma:

gp = g *P

con P = p * p : entonces el covariograma de la regularizada se obtiene
regularizando g con el covariograma transitivo P de la función de
ponderación p: gp es una función más regular que g, así como fp es más
regular que la V.R. inicial f.

La Subida (caso límite de la regularización). Si f3(x)=f3(x1, x2, x3) es


una V.R. en el espacio de tres dimensiones, se dice que la V.R.:

f 2 ( x1 , x2 ) = ∫ f 3 ( x1 , x2 , x3 )dx3

definida en el espacio de dos dimensiones se deduce de f3 por subida. Por


ejemplo, si f3(x) es una ley puntual, f2(x1, x2) es la acumulación
(cantidad de metal al metro cuadrado) del sondaje implantado en el punto
(x1, x2) de la superficie topográfica.

No hay dificultad para definir subidas de orden superior. Por ejemplo, la


subida de orden 2 (paralela al plano x1, x2) conduce a la V.R.

f1 ( x3 ) = ∫∫ f3 ( x1 , x2 , x3 )dx1dx2

Se demuestra (por ejemplo, con la ayuda de la transformada de Fourier),


que el covariograma g2(h1, h2) de la V.R. f2 deducida de f3 por subida de
orden 1 se obtiene efectuando directamente esta misma operación de subida
sobre el covariograma g3(h1, h2, h3) de la V.R. f3.

Subida en el caso isótropo

Si g3(h)=g3(r) solo depende del módulo r del vector h, se puede efectuar


la subida término a término sobre la parte irregular de f3 (este
principio de correspondencia término a término determina entonces el
covariograma g2 salvo una serie entera). Luego al término en rλ le
corresponde así un término en rλ+1. Si λ es un entero impar, o bien en el
caso de un término logarítmico, se obtiene la secuencia singular:

log (r ) → π r
r → −r 2log (r )

Donde se alternan términos impares y términos logarítmicos. Se observará


que, en todos los casos, la subida tiene un efecto regularizante.

1-4 LA ESTIMACION DE LAS VARIABLES REGIONALIZADAS

1-4-1 Expresión rigurosa de la varianza de estimación. Razonaremos en el


espacio de una dimensión, sin embargo, los resultados se pueden
generalizar sin dificultad. Sea f(x) una V. R. Para estimar la cantidad
de metal:

13
+∞
Q= ∫
−∞
f ( x)dx

Se dispone de una malla de muestreo con una malla regular a. Si x0


representa la implantación de una (cualquiera) de las muestras, se
conocen entonces los valores numéricos de f(x0+pa) para p entero positivo
o negativo). En efecto, si el campo está acotado, solo un número finito
de estos valores es ≠ 0, y basta con que la red sobrepase un poco el
campo. Se toma como estimador:

p =+∞
Q* ( x0 ) = a ∑ f ( x0 + pa )
p =−∞

El error de estimación es Q-Q*(x0): es una función periódica de período


a), porque es indiferente tomar uno u otro punto de muestreo como origen
de la red de muestreo.
Para hacer que este error sea una variable aleatoria, basta con admitir
que “el origen” x0 está implantado al azar según una densidad de
probabilidad uniforme en el intervalo (0,a). Se tiene entonces:

a
⎛ ⎞ dx +∞
E (Q* ) = ∫ ⎜ a ∑ f ( x0 + pa ) ⎟ 0 = ∫ f ( x)dx = Q
0⎝ p ⎠ a −∞

Y la varianza de estimación (varianza de este error aleatorio) es:

a
2 dx0
σ 2 (a) = E (Q*2 ) − Q 2 = ∫ ⎡⎣Q* ( x0 ) ⎤⎦ − Q2
0
a

Evaluemos la integral de [Q*(x0)]2. Se tiene:

+∞ +∞

∑∑ f ( x0 + pa ) f ( x0 + qa ) = a 2 ∑∑ f ( x0 + pa ) f ( x0 + pa + ka )
2
⎡⎣Q* ( x0 ) ⎤⎦ = a 2
p =−∞ q =−∞ k p

Integremos de 0 a a. Se tiene:

a a

∫ ⎡⎣Q ( x0 ) ⎤⎦ dx0 =a ∑ ∫ ∑ f ( x0 + pa) f ( x0 + pa + ka)dx0 =


* 2 2

0 k 0 p
+∞
= a2 ∑ ∫ f ( x0 ) f ( x0 + ka )dx0 = a 2 ∑ g (ka )
k −∞ k

Al tomar en cuenta la relación (2), se obtiene entonces la fórmula:

+∞ +∞
(3) σ 2 (a) = a ∑ g (ka ) − ∫ g (h)dh
k =−∞ −∞

14
En el espacio de n dimensiones, se tiene un resultado totalmente análogo.
Por ejemplo, para n=3, y para una malla en forma de paralelepípedo a1 a2 a3
se tiene:

σ 2 (a1 , a2 , a3 ) = a1a2 a3 ∑∑∑ g (k1a1 , k2 a2 , k3 a3 ) − ∫ g (h)dh


k1 k2 k3

Observación – La varianza de estimación (3) es la diferencia entre un


valor aproximado
2
y el valor exacto de la integral ∫ g (h)dh . Por
consiguiente σ (a) es más pequeña cuando:

• la malla a es más pequeña


• la función g, luego también la función f, es más regular.

Si la malla es pequeña con respecto al alcance de g(h), la fórmula (3)


tiene un gran número de términos. Lo anterior nos conduce a buscar
fórmulas de aproximación.

1-4-2 Fórmulas de aproximación para el espacio de una dimensión.

En el espacio de una dimensión, y para una malla pequeña respecto del


alcance, se puede aplicar un principio de correspondencia término a
término entre la parte irregular de g(h) y el desarrollo limitado de la
varianza de estimación σ2(a) en una vecindad de a = 0. A cada término
irregular en rλ le corresponde un término en Aλa1+λ (Aλ es una constante
que solo depende de λ):
En particular:

1
−r → a 2
6
r log (r ) → 0.0609a 3
2

Observación: Si L = na es la longitud mineralizada, y n el número de


muestras positivas, al covariograma en |r|λ le corresponde la varianza de
estimación siguiente:

1
(4) σ 2 (a) = Aλ a1+ λ = ( Aλ L1+ λ ) 1+ λ
n
Esta varianza está en razón inversa de n1+λ (y no en 1/n como lo habría
sugerido una aplicación errónea de la estadística clásica).

Zitterbewegung, o término fluctuante. EL principio de correspondencia que


hemos enunciado, es una aproximación. El valor exacto de σ2(a) calculado
a partir de (3) puede diferir notablemente del proporcionado por el
principio de correspondencia (ver la figura 1 adjunta): es el término
fluctuante, o Zitterbewegung.

15
Figura 1: Zitterbewegung en la estimación de la superficie de un círculo
de diámetro 1, a partir de una malla cuadrada de lado a. En abscisa, la
malla a. En ordenada, la varianza de estimación correspondiente σ2(a). La
curva en morado representa el valor exacto, calculado a partir de la
fórmula exacta (1-14), la curva en azul representa la fórmula σ2(a) =
0.2276 a3 + 0.0047 a5 obtenida despreciando el Zitterbewegung y reteniendo
los dos primeros términos del desarrollo limitado dado por el principio
de correspondencia (Nota del T.: no corresponde a la figura original, la
cual es en parte errónea).

16
1-4-3 Fórmulas de aproximación para el espacio de dos o tres dimensiones.

A dos dimensiones (siempre excluyendo el Zitterbewegung) se tienen


fórmulas de aproximación del tipo:

(5) σ 2 (a1 , a2 ) = Bλ a22+ λ + Cλ a11+ λ a2

Para un g(h) en |h|λ con a1 ≤ a2. Si a1 = 0, se conocen, de manera


perfecta, las acumulaciones de las líneas, entonces el término Bλa22+λ
representa la varianza del error que se comete al estimar Q a partir de
los resultados de las líneas (las cuales se suponen perfectamente
conocidas): es el término de rebanada (extensión de las líneas en sus
rebanadas de influencia). En el espacio de tres dimensiones se tienen
resultados análogos.

1-5 APLICACIÓN A LA ESTIMACION DE UNA SUPERFICIE.

Apliquemos la fórmula 5 a la V. R. f(x) = k(x) igual a 1 o a 0 según que


x pertenezca o no a la superficie S: se trata entonces de la estimación
del área de esta superficie S a partir de una red de sondajes con malla
regular a1 a2 (a1 ≤ a2). El covariograma transitivo K(h) asociado a S es
lineal en una vecindad del origen y se tiene:

K (h) = S − | h | Dα + ...

En que Dα es la semi-variación diametral en la dirección α del vector h.

a/ Consideremos primero el caso isótropo, es decir en el caso en que la


variación diametral Dα = D es aproximadamente independiente de la
dirección α. La fórmula (5) es perfectamente aplicable y proporciona:

17
⎛ 3

σ S2 1 D ⎜ 1 a1 + 0.0609 ⎛ a2 ⎞ ⎟
2
= 3 ⎜ ⎟ ⎟
S 2
S ⎜ 6 a2 ⎝ a1 ⎠ ⎟
n2 ⎜
⎝ ⎠
La varianza es en 1/n3/3, siendo n el número de sondajes positivos. Para
utilizar esta fórmula a partir de los datos disponibles, se puede estimar
S atribuyendo a cada sondaje su rectángulo de influencia, lo que
proporciona:

S = na1a2

Se estimará D a partir del contorno de la unión de estas zonas de


influencia (ver la figura adjunta). Entonces se contarán los números N1 y
N2 de elementos paralelos a a1 y a2 respectivamente (los cuales
constituyen el perímetro) y se tendrá D = N1a1 = N2a2 (debido a la
isotropía). Por consiguiente queda la fórmula:

σ S2 1 ⎛ N2 N12 ⎞
(6) = ⎜ + 0.061 ⎟ ( N 2 ≤ N1 )
S2 n2 ⎝ 6 N2 ⎠

b/ En general, sin embargo, el contorno no será suficientemente isótropo


para que Dα pueda ser considerado como una constante D. Por ejemplo,
puede presentar una dirección principal de alongamiento. Si uno de los
lados de la malla es paralela a esta dirección principal (lo cual será a
menudo el caso), la fórmula (6) anterior sigue siendo válida: en efecto,
tomando esta dirección principal como eje de las x, y multiplicando las
coordenadas por un módulo conveniente, obtenemos una nueva figura,
isótropo esta vez (al menos en primera aproximación) para la cual (6) es
válida. Pero esta transformación no ha modificado ni N1 ni N2, ni la
varianza relativa σS2/S2, de manera que (6) es válida también en el caso
de una figura inicial anisótropa.

Ejemplo: en la figura adjunta, se estima el área mineralizada por 10


veces el rectángulo de malla a1, a2: La figura tiene un hoyo (una laguna).
Al contar N1 y N2 deben figurar también los elementos exteriores y los
elementos interiores.

18
Se lee en la figura:

2D1 = 12 a1 es decir N1 = 6
2D2 = 8 a2 es decir N2 = 4

Por consiguiente:

σ S2 1 ⎡4 36 ⎤ 1.21
2
= ⎢ + 0.061× ⎥ =
S 100 ⎣ 6 4 ⎦ 100

Es decir una desviación estándar relativa σS/S = 11/100, y un error


relativo (con 95% de confianza) de ±22%.

No se debe olvidar que este cálculo hace abstracción del término


fluctuante o Zitterbewegung, del cual sabemos que puede tener una
magnitud enorme.

19
2 – TEORIA DE LAS FUNCIONES ALEATORIAS INTRINSECAS

2-1 DEFINICIONES GENERALES.

Noción de Función Aleatoria. En teoría de probabilidades se define la


noción de variable aleatoria (V.A.) vectorial (Y1, Y2, ..., Yk) de k
componentes: es una familia de k V.A. ordinarias Y1, Y2, ..., Yk (en
general no independientes). Cuando el número k de estas componentes se
hace infinito, se obtiene una familia infinita de variables aleatorias:
esto es una función aleatoria. En particular, si x es un punto del
espacio de n dimensiones Rn, se puede definir una familia infinita
(Y(x)), xЄRn. A todo punto x0 del espacio corresponde así una V.A.
ordinaria Y(x0). Y(x) es entonces una función del punto x, cuyo “valor”
en x0 no es un número, sino una V.A (a saber Y(x0)). Se dice que Y(x) es
una función aleatoria (abreviado F.A.). Se observará que, en general las
V.A. correspondientes a dos puntos de apoyo x1 y x2, es decir Y(x1) e
Y(x2), no son independientes.

Si Y es una V.A. ordinaria, el resultado particular de un experimento al


azar según la ley de probabilidad de Y es un valor numérico particular
y. Análogamente, si Y es una V.A. vectorial (Y1, Y2, ..., Yk), un sorteo
al azar según la ley (de k variables) de Y proporciona un vector y=(y1,
y2, ..., yk), es decir k valores numéricos particulares. Finalmente, si
Y(x) es una F.A. – es decir una V.A. vectorial con una infinidad de
componentes – un sorteo al azar, efectuado según la ley (de una infinidad
de variables) de Y(x) proporciona una función numérica particular y(x),
en general, extraordinariamente irregular. Se dice que y(x) es una
realización de la F.A. Y(x).

Siempre se puede considerar una realización de una y(x) de una F.A. Y(x)
como una variable regionalizada. Inversamente, se puede interpretar una
V.R. como una realización de una cierta F.A. Y(x): esta interpretación
permite aplicar a las V.R. los resultados de la teoría probabilística de
las F.A.

Observaciones

1/ No se puede afirmar que una V.R. y(x) es una F.A. Esto tendría el
mismo sentido que decir: el número 98 es una V.A. El enunciado correcto
de la hipótesis probabilística de base que deseamos introducir es: y(x)
es una realización de una F.A. Y(x).
2/ Para que esta hipótesis probabilística tenga un sentido real, es
necesario poder reconstituir, al menos en parte, la ley de la F.A. de la
cual suponemos que la V.R. y(x) es una realización, lo cual supone que la
inferencia estadística es posible. Por otra parte, la inferencia
estadística no es, en general, posible si se dispone de una sola
realización y(x) de Y(x) (de la misma manera, no se puede reconstituir la
ley de una V.A. Y a partir de un resultado numérico y=98 de un único
experimento.). Para que la inferencia estadística sea posible, es
necesario introducir hipótesis suplementarias acerca de la F.A. Y(x), de
manera de reducir en número de “parámetros” de los cuales depende la ley
de Y(x). Este es el objetivo de la hipótesis estacionaria que vamos a
definir: una F.A. estacionaria se repite, de una cierta manera, en el
espacio, y, esta repetición hace posible la inferencia estadística a
partir de una realización única. Precisemos ahora esta hipótesis:

20
F.A. estacionaria. – Se dice que una F.A. Y(x) es estacionaria si su ley
es invariante por translación. Dicho de otra manera, si x1, x2, ..., xk
son k puntos de apoyo arbitrarios (k entero cualquiera), las k variables
aleatorias Y(x1), Y(x2), ..., Y(xk) tienen la misma ley de probabilidad
(de k variables) que las k V.A. Y(x1+h), Y(x2+h), ..., Y(xk+h). En
adelante, Y(x) designará una F.A. estacionaria.

Esperanza matemática. – Consideremos un punto de apoyo x0. Si la V.A.


ordinaria Y(x0) admite una esperanza matemática, ésta es una función
m(x0)=E[Y(x0)] del punto de apoyo x0. Pero Y(x) es estacionaria, por
consiguiente, se tiene: m(x0+h)=m(x0), para todo vector h, luego m(x0) es
una constante m, independiente de x0:

m = E[Y ( x)]

Se puede suponer a menudo que m=0, al reemplazar Y(x) por Y(x)-m


(suponiendo siempre que esta esperanza existe).

La covarianza K(h). – Consideremos ahora dos puntos de apoyo x0 y x0+h. Si


las dos V.A. Y(x0) e Y(x0+h) admiten varianzas finitas (luego también una
esperanza m que supondremos nula), Y(x0) e Y(x0+h) admiten también una
covarianza K(x0;h), que depende, en principio, del punto de apoyo x0 y del
vector h. Pero como Y(x) es estacionaria, se tiene: K(x0+a;h)=K(x0;h) para
todo vector a, luego K(x0;a) no depende de x0, y nosotros escribiremos
simplemente K(h):

(1) K (h) = E[Y ( x)Y ( x + h)]

Se comparará esta definición a la del covariograma transitivo: K(h) es la


transpuesta probabilística de g(h).

Para h=0 se tiene K(0)=E([Y(x)]2): que es la varianza de la V.A. Y(x0).


Para que una F.A. Y(x) admita una función de covarianza K(h), es
necesario y suficiente que Y(x) admita una varianza finita K(0).

Hipótesis estacionaria de orden 2. – Diremos que una F.A. Y(x) es


estacionaria de orden 2 si la V.A. Y(x0) admite una esperanza m
independiente del punto de apoyo x0, y, si para todo vector h la
covarianza:
K (h) = E[Y ( x)Y ( x + h)] − m02

existe y no depende de x0. Esta hipótesis (la cual no implica la


estacionaridad en sentido estricto, tal como la definimos antes) es
suficiente para la teoría de las V.R. Sin embargo esta hipótesis supone
la existencia de una varianza a priori finita K(0).

Varianza a priori infinita. – Por otra parte, existen numerosos fenómenos


que presentan una capacidad de dispersión ilimitada y no pueden ser
descritos correctamente si se les atribuye una varianza a priori finita:
esta afirmación puede sorprender, sin embargo hay que ver que la
naturaleza nos tiende aquí una suerte de trampa. Cuando se toman muestras
v en un campo V, se obtiene un histograma a partir del cual se puede
calcular numéricamente una varianza, la cual toma un valor perfectamente
definido. Pero esta varianza es, en realidad, una función σ2(v|V) del
soporte v y del campo V. Esta varianza aumente, en particular, cuando el

21
campo V aumenta. Si las muestras de tamaño v poseen una varianza a priori
finita, ésta debe ser igual al límite cuando V tiende a infinito, de la
varianza experimental σ2(v|V).

Es así como los autores de Africa del Sur (D. G. Krige, etc., ...), a
partir de cientos de miles de muestras tomadas en el gran yacimiento de
oro de Rand, calcularon la varianza de las muestras en paneles cada vez
más grandes, luego en toda una concesión, luego en el yacimiento de Rand
en su conjunto: obtuvieron una relación experimental de la forma:

⎛V ⎞
σ 2 (v | V ) = α log ⎜ ⎟
⎝v⎠
El crecimiento de la varianza se produce siempre según esta ley
logarítmica (fórmula de De Wijs) hasta el último punto experimental, en
el cual V/v es del orden de la decena de billones: Se puede concluir, con
plena seguridad, que, en este caso, no existe una varianza a priori
finita.

Entonces estamos conducidos a reemplazar la hipótesis estacionaria de


orden 2 por una hipótesis más débil pero de significación análoga:

Hipótesis intrínseca. En el caso en que la varianza a priori K(0) no


existe (es infinita), puede ocurrir que los incrementos Y(x0+h)-Y(x0)
tengan una varianza finita. Diremos entonces que la F.A. Y(x) verifica la
hipótesis intrínseca si, para todo vector h, el incremento Y(x0+h)-Y(x0)
admite una esperanza y una varianza independientes del punto de apoyo x0
(pero dependiendo de h), es decir:

E[Y ( x + h) − Y ( x)] = m(h)


E[(Y ( x + h) − Y ( x) ) ] = 2γ (h)
2

La función m(h) es la deriva lineal. Para demostrar que es lineal en h,


se parte de la relación evidente:

Y ( x + h "+ h ') − Y ( x) = [Y ( x + h "+ h ') − Y ( x + h ')] + [Y ( x + h ') − Y ( x)]

y se pasa a las esperanzas, de donde: m(h’+h”)=m(h’)+m(h”). Se puede


suponer siempre que esta deriva lineal m(h) es nula, al reemplazar Y(x)
por Y(x)-m(x)

La función γ(h):

1
γ ( h) = E ⎡( Y ( x + h) − Y ( x) ) ⎤
2
(2)
2 ⎣ ⎦

se llama variograma o función intrínseca. Una F.A. que verifica la


hipótesis intrínseca constituye lo que se llama un esquema intrínseco,
caracterizado por su variograma.

Observación. Si Y(x) verifica la hipótesis estacionaria de orden 2,


verifica también la hipótesis intrínseca y se tiene, en este caso:

22
(3) γ (h) = K (0) − K (h)
Como |K(h)|≤K(0), se tiene γ(h)≤2K(0), de manera que el variograma de una
F.A. estacionaria de orden 2 está necesariamente acotado. Existen
esquemas intrínsecos de uso muy corriente cuyo variograma γ(h) no está
acotado, y que no pueden, por consiguiente, verificar la hipótesis
estacionaria de orden 2 (tienen una varianza a priori infinita). Ejemplo,
esquema de De Wijs (γ(h)=3αlog|h|), esquema lineal (γ(h)=A|h|).

2-2 PROPIEDADES DE LA COVARIANZA K(h) Y DEL VARIOGRAMA γ(h)

a/ Simetría:

K ( h ) = K ( − h) , γ ( h) = γ ( − h)

Desigualdades:

K (h) ≤ K (0) ; γ (h) ≥ 0 ; γ (0) = 0

Estas condiciones son necesarias pero no son suficientes. Sea K o γ una


covarianza o un variograma que verifican estas relaciones, entonces no
necesariamente existe una F.A. estacionaria o intrínseca admitiendo la
covarianza K o el variograma γ. En efecto, la condición necesaria y
suficiente es que K pertenezca a la clase de funciones “de tipo positivo”
y –γ a la clase de funciones de “tipo positivo condicional”. Por ejemplo,
las funciones log(r) y rλ con λ<2 pueden servir como variogramas, pero no
la función rλ para λ≥2. Estas condiciones expresan, entre otras, que las
fórmulas que estableceremos más adelante para las varianzas de extensión
o de estimación, conducen, necesariamente a valores positivos (lo que no
sería el caso si se toma una función cualquiera como variograma).

b/ Se puede observar que el variograma proporciona un sentido


preciso a la noción tradicional de zona de influencia de una muestra: en
efecto, su crecimiento más o menos rápido refleja la manera más o menos
rápida de cómo se deteriora la influencia de una muestra en zonas cada
vez más alejadas del yacimiento.

c/ Las anisotropías se manifiestan por el comportamiento diferente


del variograma en las diferentes direcciones del espacio. En ausencia de
anisotropía, γ(h) = γ(r) solo depende del módulo r de h, y no depende de
la dirección del vector. Se dice que hay anisotropía geométrica cuando
basta con una simple transformación lineal de las coordenadas para
restablecer la isotropía.

Hay tipos más complejos de anisotropías. Por ejemplo, en el espacio


de tres dimensiones, puede suceder que Y(x) solo depende de la tercera
coordenada y sea constante en planos paralelos a los dos primeros ejes de
coordenadas. El variograma γ(h) = γ(h3) solo depende de la tercera
coordenada de h. A menudo, Y(x) no será, en realidad, constante sobre
planos horizontales, pero variará menos rápido o de manera más regular
que en la dirección vertical. Se tomará entonces un variograma de la
forma γ(h) = γ(h1, h2, h3) + γ(h3) (anisotropía zonal).

23
d/ Alcance. En el caso estacionario de orden 2, el alcance a(α) en
una dirección α es el valor de la distancia a partir de la cual, en esta
dirección, Y(x) e Y(x+h) no tienen correlación (o su correlación es
despreciable): K(h)=0 (o ≈0) para |h|≥ a(α).

Según (3), K(h)=0 equivale a γ(h)=K(0)=γ(∞): el alcance es también la


distancia a partir de la cual el variograma llega a su valor límite γ(∞)
o meseta. Así, una F.A: intrínseca cuyo variograma no está acotado, no
puede tener un alcance finito.

e/ Comportamiento en una vecindad del origen. La continuidad y la


regularidad en el espacio de la F.A. Y(x) se manifiestan en el
comportamiento de γ(h) en una vecindad del origen. Por orden de
regularidad decreciente, se pueden distinguir cuatro tipos:

Comportamiento parabólico: γ(h) es dos veces derivable en h=0. Y(x) es


entonces derivable (en media cuadrática), luego presenta un alto grado de
regularidad en el espacio.

24
Comportamiento lineal (tangente oblicua en el origen): γ(h) es continuo
en h=0, pero no es derivable en este punto, Y(x) es continua en media
cuadrática, pero no es derivable, luego es menos regular.

Efecto de pepita: γ(h) no tiende a 0 cuando h tiende a 0 (discontinuidad


en el origen). Y(x) no es continua en media cuadrática, luego es
extraordinariamente irregular.

Caso límite completamente aleatorio: Y(x) e Y(x’) son independientes para


dos puntos cualesquiera distintos, por cercanos que sean (ruido blanco de
los físicos o efecto de pepita al estado puro)

Parte irregular. En el caso isótropo (γ(h)=γ(r)) y en ausencia de efecto


de pepita, se caracteriza el comportamiento de γ(h) por un desarrollo
limitado de la forma:

γ (r ) = ∑ a2 n r 2 n + ∑ cλ r λ + ∑ c2 n r 2 n log(r )

Exactamente como en el caso de los covariogramas transitivos, se


distinguirá un parte regular (términos de grado entero par), y una parte
irregular (términos en rλ, con λ diferente de un entero par y también

25
términos logarítmicos del tipo r2nlog(r)). Si no hay parte irregular, la
F.A. sería indefinidamente derivable, luego perfectamente regular. Por
consiguiente solamente la parte irregular representa el grado de
irregularidad de la F.A., y, en esta parte irregular, el término de más
bajo grado es el que juega el papel principal: se puede definir el grado
de regularidad de la F.A. como el grado λ del término irregular
principal. Daremos a continuación algunas indicaciones matemáticas
complementarias.

Continuidad y derivación en media cuadrática.

Se dice que la F.A. Y(x) es continua en media cuadrática (continua m.c.)


si se tiene:

E ([Y ( x + h) − Y ( x)]2 ) → 0 para | h |→ 0

Esto ocurre (por definición) si y solo si γ(h) es continuo en h=0, es


decir en ausencia de efecto de pepita.

En el espacio de una dimensión, se dice que la F.A. Y’(x) es la derivada


en media cuadrática de Y(x) (derivada m.c.) de la F.A. Y(x) si:

⎛ ⎡ Y ( x + h) − Y ( x ) ⎤ ⎞
2

E⎜⎢ − Y '( x) ⎥ ⎟ → 0 para | h |→ 0


⎜⎣ h ⎦ ⎟⎠

Se tienen definiciones análogas para el espacio de n≠1 dimensiones.

Se demuestra que una F.A. intrínseca Y(x) admite una derivada m.c. Y’(x)
si y solo si γ(h) es derivable dos veces en h=0. La derivada segunda
γ”(h) existe entonces para todo h, Y’(x) es estacionaria de orden 2 (aún
en el caso en que Y(x) es solamente intrínseca) y admite como covarianza
la función γ”(h). Análogamente, Y(x) es derivable m.c. n veces si y solo
si la derivada γ(2n)(h) existe en h=0 (existe entonces para todo h).

Si λ es el grado del término irregular principal de γ(h), Y(x) admite


entonces una derivada m.c. de orden n si y solo si λ>2n (si el término
principal es r2nlog(r), Y(x) es n-1 veces derivable m.c., pero no es
derivable n veces).

2-3 REGULARIZACION DE UNA F.A. INTRINSECA.

Para simplificar la exposición, haremos los razonamientos en el caso de


una F.A. estacionaria de orden 2 con covarianza K(h), sin embargo todos
los resultados que expresaremos con la ayuda de la función intrínseca
γ(h)=K(0)-K(h) seguirán siendo válidos para el caso de una F.A.
intrínseca (luego, serán válidos aún en el caso en que γ(h) no está
acotado, y si, por consiguiente, la covarianza K(h) no existe).

2-3-1 Integral estocástica

I = ∫ Y ( x) p ( x)dx
v

26
Se define la integral I como el límite en media cuadrática (si existe) de
las sumas discretas:
n
I n = ∑ Y ( xi ) p ( xi )∆xi
i =1

(los ∆xi son pequeños elementos de volumen disjuntos cuya unión es el


conjunto v, y xi es un punto de ∆xi). La integral estocástica I es
entonces una V.A., como las In.

Se demuestra que esta V.A. existe si y solamente si la integral

(4) D 2 ( I ) = ∫ p ( x)dx ∫ K ( x − y ) p ( y )dy


v v

es finita, y D2(I) es entonces la varianza (finita) de esta V.A. Se


encuentra fácilmente este resultado (2-9) mediante el cálculo (no
riguroso) siguiente:

I 2 = ∫ Y ( x) p ( x)dx ∫ Y ( y ) p ( y )dy
v v

E ( I 2 ) = ∫ p ( x)dx ∫ E[Y ( x)Y ( y )] p ( y )dy =


v v

= ∫ p ( x)dx ∫ K ( x − y ) p ( y )dy
v v

(el cálculo no es riguroso porque, al comienzo, no es evidente que se


pueden invertir los símbolos E y ∫: en efecto, se demuestra que esta
inversión es legítima).

2-3-2 Convolución estocástica.

El producto de convolución Y*f de la F.A. Y(x) por una función ordinaria


f(x) es la integral estocástica (si existe):

∫ Y ( x − x ') f ( x´)dx '



Se puede definir así la regularizada Yp = Y ∗ p de la F.A. Y(x) por una
función de ponderación p(x). Es la “media móvil ponderada”:

Yp ( x) = ∫ Y ( x + x ') p ( x´)dx

Cuidado: la regularizada de Y(x) es también una función aleatoria (más


regular que Y(x) pero siempre aleatoria): no basta con alisar o
regularizar, por un procedimiento de medias móviles, una F.A. para hacer
desaparecer como por arte de magia el carácter aleatorio de esta función.

La varianza de la regularizada Yp está dada por la fórmula (4) anterior,


e Yp(x) existe en el sentido de la integración m.c. si y solo si D2(Yp)<∞.
Calculemos la covarianza

27
E ⎡⎣Yp ( x0 )Yp ( x0 + h) ⎤⎦ de Yp ( x0 ) e Yp ( x0 + h)

Se tiene:

Yp ( x0 )Yp ( x0 + h) = ∫∫ p ( x ') p ( x ")Y ( x0 + x ')Y ( x0 + h + x ")dx ' dx "

Pasemos a las esperanzas intercambiando E y ∫. Queda:

E[Yp ( x0 )Yp ( x0 + h)] = ∫∫ p( x ') p( x ") K (h + x "− x ')dx ' dx "

Esta covarianza no depende de x0 sino solamente de h. Luego, la


regularizada Yp es estacionaria de orden 2, y admite la covarianza:

(5) K p (h) = ∫ p ( x)dx ∫ K (h + x − y )dy

Esta fórmula generaliza (4). Para presentarla en una forma más sintética,
hagamos el cambio de variables x=y+z. Queda:

K p (h) = ∫ K ( x + z )dx ∫ p ( y + z )dy



Sea P el covariograma transitivo ( P = p ∗ p ) de la función de ponderación
p. Se tiene, por definición:

P ( z ) = ∫ p ( y + z ) p( y )dy

y, por consiguiente:

K p (h) = ∫ K (h + z ) P ( z )dz

es decir, utilizando productos de convolución (porque P = P ):

(5’) Kp = K ∗P

Se obtiene la covarianza Kp de la regularizada Yp al regularizar la


covarianza K(h) de Y con el covariograma transitivo de la función de
ponderación. Se comparará este resultado con el obtenido en el caso de
los métodos transitivos.

El variograma γp de la regularizada Yp es Kp(0)-Kp(h). Al reemplazar K(h)


por K(0)-γ(h) en (4) y (5), observamos que K(0) se elimina, y queda:

(6) γ p (h) = ∫ γ (h + z ) P( z )dz − ∫ γ ( z ) P( z )dz

Se puede también escribir:

(6’) γp =γ ∗P− A

28
La constante A se determina con la condición γp(0)=0. Estas relaciones
(6) y (6’) siguen siendo válidas para cualquier F.A. intrínseca (aún en
el caso en que la covarianza no existe).

2-3-3 Subida. La subida constituye un caso particular de la


regularización. En los métodos transitivos podíamos integrar la V.R. de
-∞ a +∞ con respecto a una de las coordenadas, por ejemplo x3, debido a
que esta V.R. era nula al exterior de un campo acotado. Ahora, solo
podemos integrar en un largo finito A . Llamaremos entonces subida bajo
potencia constante A a la operación que nos hace pasar de la F.A.
Y3(x1,x2,x3) definida en el espacio de tres dimensiones a la F.A. Y2(x1,x2)
definida en el espacio de dos dimensiones por:

A
1
A ∫0
Y2 ( x1 , x2 ) = Y ( x1 , x2 , x3 )dx1dx2 dx3

Si Y3(x) es la ley puntual en una formación estratiforme de potencia A ,


Y2(x1,x2) es la ley media del sondaje implantado en el punto (x1,x2) de la
superficie topográfica.

La subida tiene un efecto regularizador. En el caso isótropo, se


demuestra que el término irregular principal del variograma de Y2 es en
r1+λ si el de Y3 es en rλ. De manera más precisa, se tienen las reglas:

r1+ λ
r λ → Aλ
A
⎛ ⎛ λ⎞ ⎞
⎜ Γ ⎜1 + ⎟ ⎟
λπ
⎜ Aλ = π tg ⎛⎜ ⎞
r ⎝ 2⎠ ⎟
log (r ) → ⎟
A ⎜ ⎝ 2 ⎠ Γ ⎛1 + 1 + λ ⎞ ⎟
⎜ ⎜ ⎟
⎝ ⎝ 2 ⎠ ⎟⎠
r → − r 2log (r )

2-4 VARIANZA DE EXTENSION Y VARIANZA DE ESTIMACION

2-4-1 Varianza de extensión.

Definamos, en primer lugar, la noción fundamental de varianza de


extensión. Sea Y(x) una F.A., la cual supondremos, por el momento, como
estacionaria de orden 2, y sea K(h) su covarianza. Designemos por Z(v) y
Z(v’) las “leyes medias” de dos dominios v y v’ del espacio de n
dimensiones, es decir las integrales estocásticas:

1 1
v ∫v v ' ∫v '
Z (v ) = Y ( x)dx ; Z (v ') = Y ( x)dx

La fórmula (2-9) muestra que, si v y v’ son acotados, Z(v) y Z(v’) tienen


varianzas finitas. La primera, por ejemplo, tiene la expresión:

29
1
v 2 ∫v ∫v
σ 2 (v ) = dx K ( x − y )dy

Calculemos también la covarianza σ(v, v’) de Z(v) y Z(v’). De:

1
vv ' ∫v
Z (v) Z (v ') = Y ( x) dx ∫ Y ( y )dy
v'

se deduce, al pasar a las esperanzas matemáticas:

1 1
σ (v, v ') = ∫ dx ∫ E[Y ( x)Y ( y )]dy =
vv ' v v ' vv ' ∫v ∫v '
dx K ( x − y )dy

Llamaremos varianza de extensión de v a v’ (o de v’ a v) a la varianza


del error Z(v’)-Z(v) cometido al atribuir a v’ la ley media Z(v) de v.
Esta varianza de extensión σ2E es igual a:

σ E2 = σ 2 (v) + σ 2 (v ') − 2σ (v, v ')

Al considerar los valores calculados antes, se tiene entonces:

1 1 2
2 ∫
dx ∫ K ( x − y )dy + 2 ∫ dx ∫ K ( x − y ) dy −
vv ' ∫v ∫v '
σ E2 = dx K ( x − y )dy
v v v v ' v' v'

Reemplacemos K(h) por K(0)-γ(h): observamos que la constante K(0)


desaparece de la expresión de σ2E, y queda la fórmula fundamental:

2 1 1
(7) σ E2 = ∫ dx ∫ γ ( x − y )dy − 2 ∫ dx ∫ γ ( x − y )dy − 2 ∫ dx ∫ γ ( x − y )dy
vv ' v v v v v v ' v' v'

Se puede demostrar que (7) sigue siendo válida para toda F.A. intrínseca,
luego también en el caso en que K(h) no existe.

Varianza de estimación.

Supongamos ahora que en vez de conocer la “ley media” Z(v’) de Y(x) en un


volumen v’, conocemos la ley media:

N
1
Z'=
N
∑Y (x )
i =1
i

de N muestras tomadas en los puntos xi. Z’ es una variable aleatoria,


cuyas características se deducen sin dificultad a partir de K(h) o de
γ(h). Llamaremos varianza de estimación σ2N (de v por las N muestras
tomadas en los N puntos xi) a la varianza de la diferencia Z(v)-Z(v’).
Para obtener la expresión de σ2N, se debe, en cada una de las etapas del
razonamiento que nos condujo a (7), reemplazar las integrales sobre el

30
conjunto v’ por sumas discretas sobre los N puntos xi. Se encuentra así
la segunda fórmula fundamental:

2 1 1
(8) σ N2 = ∑ ∫
Nv i v
γ ( xi − x)dx − 2 ∫ dx ∫ γ ( x − y )dy − 2
v v v N
∑∑ γ ( x − x )
i j
i j

Esta fórmula, en la cual se alternan expresiones exactas y aproximadas de


las mismas integrales, presenta una estructura sobresaliente; análoga, un
poco más compleja, a la fórmula (1-14) de los métodos transitivos. En
particular, se observa que la varianza de estimación es más débil:

• cuando la red de muestras xi es más densa y más representativa de


la geometría del volumen v a estimar
• cuando la función γ(h) es más regular, luego cuando la F.A. es más
continua en su variación espacial.

Sin embargo, en la práctica, si N es grande, la fórmula (8) conduce a


cálculos bastante largos. Más adelante proporcionaremos fórmulas de
aproximación más simples.

Observación: No hay ninguna diferencia conceptual entre las nociones de


varianza de extensión y de estimación: la fórmula (8) es un caso
particular de (7), en que v’ se reemplaza por la unión de los N puntos
xi. La práctica ha reservado el término varianza de extensión a la
extensión de una muestra única en su “zona de influencia”, y el de
varianza de estimación a la extensión de un número más grande de
muestras, en el depósito entero, o en un gran panel.

2-4-2 Varianza de v en V.

La noción de varianza σ2(v|V) de una muestra v en un dominio V parece, a


primera vista, evidente desde el punto de vista experimental. Sin
embargo, esta noción, solamente tiene sentido en los dos casos a/ y b/
siguientes:

a/ v se reduce a un punto: La varianza σ2(0|V) de la variable


puntual Y(x) es igual a la esperanza de [Y(x) – Z(V)]2 cuando se sortea
al azar el punto x, con una densidad de probabilidad uniforme en V


( Z (V ) = (1/ V ) Y ( x) dx es la ley media de V)
V

Es entonces el valor medio en x ∈ V de la varianza de extensión del punto


x al volumen V, lo cual es igual a, según (7) o (8):

2 1
VV∫ γ ( x − y )dy − 2 ∫ dy ∫ γ ( y − y ')dy '
V V V

Al integrar, con x dentro de V, se observa que el primer término es el


doble del segundo, y queda:

31
1
V 2 V∫ V∫
σ 2 (0 | V ) = dx γ ( x − y )dy

(Que es el valor medio en V de γ(h) cuando las dos extremidades x e y del


vector h describen, cada una por su propia cuenta, el volumen V).

b/ Cuando el volumen V es la unión de N volúmenes vi disjuntos,


iguales a un mismo volumen v de referencia (más precisamente, cada uno de
los vi se deduce de v por traslación). Si Zi es la “ley media” de Y(x) en
vi, se tiene, esta vez:

N
1
∑ E ⎡⎣( Z − Z (V ) ) ⎤
2
σ 2 (v | V ) =
N i =1
i ⎦

Es entonces la media aritmética de las varianzas de extensión de los vi


en V: Después de un cálculo fácil, la fórmula (7) conduce a:

1 1
2 ∫
(9) σ 2 (v | V ) = dx ∫ γ ( x − y )dxdy − 2 ∫ dx ∫ γ ( x − y ) dxdy
V V V v v v

En particular, se tiene:

(9’) σ 2 (v | V ) = σ 2 (0 | V ) − σ 2 (0 | v)

c/ En el caso general en el cual v y V son volúmenes cualesquiera,


no necesariamente compatibles geométricamente, se define la varianza por
la misma fórmula (9): Esta cantidad represente ahora un simple artificio
de cálculo. Esta varianza puede tomar valores negativos; en particular,
se tiene siempre:

σ 2 (v | V ) = −σ 2 (V | v)
d/ Relación de aditividad. Sean v, V y V’ tres volúmenes, con, por
ejemplo: v ⊂ V ⊂ V ' . De la relación (9’) se deduce:

σ 2 (v | V ) = σ 2 (0 | V ) − σ 2 (0 | v)
σ 2 (v | V ') = σ 2 (0 | V ') − σ 2 (0 | v)
y por diferencia:

σ 2 (v | V ') − σ 2 (v | V ) = σ 2 (0 | V ') − σ 2 (0 | V ') = σ 2 (V | V ')


es decir:

(10) σ 2 (v | V ') = σ 2 (v | V ) + σ 2 (V | V ')

32
La varianza de la muestra v en el campo V’ es igual a la suma de las
varianzas de v en el panel V y del panel V en el campo V’.

e/ Covarianza de v y v’ en V. De manera análoga, se define la covarianza


σ(v,v´|V) de dos muestras v y v’ (cuya distancia y disposición mutua es
fija) en el campo V. Se encuentra:

1 1
2 ∫
dx ∫ γ ( x − y )dy −
vv ' ∫v ∫v '
σ (v , v ' | V ) = dx γ ( x − y ) dy
V V V

f/ En particular, a menudo es cómodo expresar la varianza de estimación


(8) o la varianza de extensión (7) en función de las varianzas y
covarianzas de las muestras en un campo V arbitrario. Se encuentra, por
ejemplo, que:

σ E2 = σ 2 (v | V ) + σ 2 (v ' | V ) − 2σ (v, v ' | V )

como puede verse al sustituir las expresiones de estas varianzas en V: el


término:
1
V 2 V∫ V∫

desaparece, y los tres términos que quedan proporcionan el segundo


miembro de (7). Se obtiene así una expresión, quizás más intuitiva, de la
varianza de extensión.

2-4-3 Aplicación: mallas aleatoria y aleatoria estratificada.

El caso de las mallas regulares, que es el más difícil, lo trataremos más


adelante, examinaremos entonces los dos tipos usuales de mallas
aleatorias.

a/ Malla aleatoria pura. Para estimar la ley Z(V) de un volumen V, se


dispone de los valores Y(xi) de la F.A. en N puntos xi implantados “no
importa donde” en V. Admitiremos que todo ocurre como si cada xi
estuviera implantado al azar en V con una densidad uniforme e
independiente de las otras muestras. Se puede obtener la varianza de
estimación σ2N al integrar (2-15) en V relativamente a cada uno de los xi.
Este cálculo es simple, pero es aún más simple observar que los errores
parciales Y(xi)-Z(V) son independientes unos de otros (si la realización
es fija) y admiten la misma varianza s2(0|V): el error resultante que es:

1
N
∑ [Y ( x ) − Z (V )]
i

admite entonces la varianza:

1 2
σ N2 = σ (0 | V )
N

33
En el caso aleatorio puro, la varianza de estimación es igual a la
varianza de una muestra en el campo V dividida por el número N de
muestras.

b/ Malla aleatoria estratificada. En este caso, el volumen V que se


quiere estimar está dividido en N zonas de influencia iguales y disjuntas
vi, y en cada vi se toma una muestra en un punto xi elegido al azar en la
zona de influencia vi con una densidad de probabilidad uniforme, e
independiente de las otras muestras. Se puede calcular σ2N al integrar (2-
15) en xi dentro de vi para cada uno de los vi, pero es más simple observar
que el error total es:

1
N
∑ [Y ( x ) − Z (v )]
i
i i

y que cada uno de los errores parciales Y(xi)-Z(vi) es independiente de


los otros y admite la varianza σ2(0|V). Se deduce, entonces:

1 2
σ N2 = σ (0 | v)
N
En el caso de la malla aleatoria estratificada, la varianza de estimación
es entonces igual a la varianza de una muestra en su zona de influencia
dividida por el número N de muestras.

Observación – Es claro que la malla aleatoria estratificada proporciona


siempre mejores resultados que la malla aleatoria pura. En efecto, según
(9’) se tiene:

1 1
⎡⎣σ 2 (0 | V ) − σ 2 (0 | v) ⎤⎦ = σ 2 (v | V ) ≥ 0
N N

2-5 EFECTO DE PEPITA Y FENOMENOS DE TRANSICION.

Un variograma de alcance a finito caracteriza lo que se llama fenómeno de


transición: más lejos de la distancia a, se alcanza la independencia, y
el alcance a proporciona la escala de las estructuras elementales del
fenómeno regionalizado correspondiente. Por otra parte, a menudo existe
superposición de varias estructuras de escalas bien diferentes, anidadas
unas en otras. El variograma experimental muestra entonces una sucesión
de alcances y de mesetas, cuyo análisis permite reconstituir la jerarquía
de estas “estructuras anidadas”.

La noción de escala juega aquí un papel primordial. A la escala de la


decena o de la centena de metros, un fenómeno de transición cuyo alcance
es, por ejemplo, centimétrico, se manifiesta, sobre el γ(h) experimental
como una discontinuidad en el origen, es decir como un efecto de pepita.
De una manera general, un efecto de pepita es una reminiscencia de una
estructura de transición cuyas dimensiones fueron sobrepasadas por la
escala a la cual se trabaja: los detalles y las características
cualitativas de esta estructura anterior han dejado de ser perceptibles
hace tiempo, y, la escala superior solo ha conservado un parámetro único

34
– la constante de pepita – que proporciona una suerte de medida global de
la “intensidad” de esta estructura sobrepasada.

Para analizar la génesis de un efecto de pepita, localicémonos al nivel


puntual, y supongamos que a una estructura primaria de dimensión a, se
superpone una macro-regionalización, es decir una estructura secundaria
de dimensiones mucho más grandes. Si solo existiera la estructura
primaria, se podría describir la V.R. correspondiente como una
realización de una F.A. con covarianza C(h) de alcance a, o con un
variograma:

γ 1 ( h) = C − C ( h)

de alcance a y verificando γ(∞)=C=C(0). Para considerar la macro-


regionalización, se debe agregar un segundo componente γ2(h), que
representa la estructura secundaria, la cual varía con mucha lentitud a
la escala de la primera estructura:

γ ( h) = C − C ( h) + γ 2 ( h)

γ(h) presenta entonces, en la vecindad del origen, una zona de


crecimiento muy rápido, con dimensiones del orden de a. A la escala de la
macro-regionalización, este γ(h) presenta entonces un efecto de pepita de
amplitud C.

Examinemos las consecuencias de este efecto de pepita. Primero, al nivel


macroscópico, las muestras no serán puntuales, sino volúmenes v ya
grandes con respecto a a. Determinemos entonces el variograma γv(h) de
estas muestras v (el único variograma accesible experimentalmente). γv(h)
es la suma de una componente muy continua γ2 (la cual no ha sido
sensiblemente alterada en esta regularización) y de lo que se obtiene al
aplicar la fórmula (6) a la componente C-C(h): esta componente pepítica
es entonces:

35
1 1
2 ∫
γ p ( h) = dx ∫ C ( x − y )dy − 2 ∫ dx ∫ C (h + x − y )dy
v v v v v v

Estudiemos entonces γp. Se tiene γp(0)=0, pero cuando h sobrepasa las


dimensiones del volumen v, se tiene |h+x-y|≥a si xЄv, yЄv y C(h+x-y)=0.
El primer término subsiste solo si h no es muy pequeño y se observa
experimentalmente una discontinuidad en el origen, cuyo valor σ2p
(varianza de pepita) es:

1
v 2 ∫v ∫v
σ p2 = dx C ( x − y )dy

Por otra parte, por hipótesis, las dimensiones de v son grandes con
respecto a a y se tiene:

∫ C ( x − y)dy = ∫ C (h)dh
(integral extendida a todo el espacio) salvo si x está a una distancia
inferior a a de la frontera de v pero estos puntos ocupan un volumen
despreciable, se puede entonces despreciar su influencia, que es del
orden de a. Queda entonces:

1 1
2 ∫
σ p2 = dx ∫ C (h)dh = ∫ C (h)dh
v v v v

Luego, la constante de pepita σ2p que se observa experimentalmente es


inversamente proporcional al volumen de las muestras:

A
σ p2 =
v
y el coeficiente A=∫C(h)dh, que es la covarianza de las micro
estructuras, es el único recuerdo de éstas el cual subsiste a la escala
de los volúmenes v.

El efecto de pepita aumenta de la misma manera la varianza de v en V, las


varianzas de extensión y las varianzas de estimación. En el caso de
σ2(v|V), por ejemplo, el aporte del efecto de pepita será:

1 1
2 ∫
dx ∫ C ( x − y )dy − 2 ∫ dx ∫ C ( x − y )dy
v v v V V V

es decir, según el cálculo anterior:

⎛1 1 ⎞
A⎜ − ⎟
⎝v V ⎠

36
En el caso de la varianza de estimación de V por N muestras de tamaño v,
se encuentra una componente pepítica igual a:

⎛ 1 1⎞
A⎜ − ⎟
⎝ Nv V ⎠
En todos los casos, la varianza debida al efecto de pepita es
inversamente proporcional al volumen de las muestras. Todo ocurre como si
la V.R. admitiera dos componentes independientes, uno muy regular
correspondiente al variograma γ2, el otro completamente aleatorio y
discontinuo el cual considera el efecto de pepita.

2-6 CALCULO DE VARIANZAS DE ESTIMACION.

La fórmula general (8) es bastante pesada para su manejo numérico,


entonces vamos a desarrollar algunos principios de aproximación que
simplificarán el cálculo de las varianzas de estimación (para el caso de
mallas regulares) de manera de presentar los resultados en forma de
ábacos fáciles de consultar.

2-6-1 Caso del espacio de una dimensión

a/ Las funciones intrínsecas auxiliares. En las aplicaciones,


además de γ(h), se utiliza constantemente las funciones siguientes:

h
1
χ (h) = ∫ γ ( x)dx
h0
h h
2 2
2 ∫
F ( h) = x χ ( x)dx = 2 ∫ (h − x)γ ( x)dx
h 0 h 0

F(h) es el valor medio de γ(h’) cuando las dos extremidades de h’


recorren el segmento (0,h).
Luego, la varianza del segmento h en el segmento L es:

σ 2 ( h | L) = F ( L ) − F ( h)
χ(h) permite también el cálculo de covarianzas: La covarianza en L del
segmento h con una de sus extremidades (puntual) es:

σ (0, h | L) = F ( L) − χ (h)
b/ Varianza de extensión elemental. Se llama así a la varianza de
extensión al segmento h de la muestra puntual implantada en el centro del
segmento.

37
Está dada por:

⎛h⎞
(13) σ E2 = 2 χ ⎜ ⎟ − F (h)
⎝ ⎠2

Se deduce (13) de (12) y de las relaciones establecidas en a/.

c/ Principio de composición de varianzas de extensión elementales.


Se desea estimar la ley media del segmento L = na dividido en n zonas de
influencia de longitud a, en el centro de cada una de estas zonas se ha
tomado una muestra puntual:

Sea Yi la ley de la muestra i, Zi la ley de su zona de influencia, y


Z = (1/ n)∑ Z i , la ley media de L. El error total es la media:

1
∑ (Yi − Zi )
n i

de los errores parciales Yi – Zi. El principio de aproximación consiste en


admitir que estos errores parciales son independientes entre sí (este
principio se verifica con una aproximación muy razonable para los γ(h) de
tipo usual). Como la varianza de Yi – Zi es justamente la varianza de
extensión elemental calculada en (13), se encuentra:

1 1⎡ ⎛a⎞ ⎤
(14) σ N2 = σ E2 = ⎢ 2 χ ⎜ ⎟ − F (a ) ⎥
n n ⎣ 2
⎝ ⎠ ⎦
Se obtiene entonces la varianza de estimación al dividir la varianza de
estimación elemental de una muestra en su zona de influencia por el
número n de muestras.

d/ Caso del dispositivo cerrado. A partir de n + 1 muestras a malla


regular, a, se desea estimar el segmento L = n a comprendido entre la
primera y la última muestra:

Se demuestra que este dispositivo cerrado es equivalente al dispositivo


centrado examinado en c/, y que la varianza de estimación está dada
también por (2-23) (siempre que n sea superior a 1): el dispositivo

38
cerrado con n+1 muestras es equivalente al dispositivo centrado con n
muestras.

Observación: para n = 1, el dispositivo cerrado con dos muestras


proporciona la varianza de estimación:

1
σ E2 ' = 2 χ (h) − F (h) − γ (h)
2
que difiere de la varianza de estimación elemental (13). No se puede
dividir σ2E’ por n, porque los errores parciales cometidos no son
necesariamente independientes (en particular, estos dos segmentos tienen
en común la muestra central).

2-6-2. Caso del espacio de dos dimensiones.

Supondremos que el variograma es isótropo (solo depende de r). En caso de


anisotropía geométrica es fácil adaptarse a este caso.

a/ Las funciones auxiliares. Resulta cómodo introducir las


funciones siguientes:

γb(h): media de γ(x-y) cuando x e y recorren los dos lados paralelos de


longitud b del rectángulo bxh (salvo una constante γb(h) se deduce de
γ(h) por subida de orden 1).

χb(h): media de γ(x-y), cuando x describe uno de los lados del rectángulo
e y recorre el interior del rectángulo. Se tiene:

h
1
χ b (h) = ∫ γ b ( x)dx
h0

F(b,h): media de γ(x-y) cuando x e y describen el rectángulo. Esta


función es simétrica en b y h, y verifica:

39
h h
2 2
2 ∫
F (b, h) = x χ b ( x)dx = 2 ∫ (h − x)γ b ( x)dx
h 0 h 0

Q(b,h): media de γ(x-y), cuando x describe el lado b e y describe el lado


h, o también, x describe el rectángulo e y está fijo en uno de los
vértices.

b/ Extensión de un segmento medio en su rectángulo de influencia.

⎛h⎞
(15) σ E2 = 2 χ b ⎜ ⎟ − F (b, h) − γ b (0)
2
⎝ ⎠
c/ Estimación de S por rebanadas paralelas equidistantes.

Sean b1, b2, ..., bn las longitudes de n rebanadas, h su equidistancia. Se


asimila la superficie S que se quiere estimar a la unión de los
rectángulos de influencia de las n rebanadas. La fórmula (2-24)
proporciona la extensión de bi a su rectángulo de influencia, es decir,
σ2Ei. Si Yi es la ley de bi, Zi la de su zona de influencia, admitiendo que
los (Yi-Zi) son independientes, el error total:

∑ b (Y − Z )
i i i

∑b i

admite una varianza que se puede calcular ponderando por el cuadrado de


los bi de las varianzas de extensión σ2Ei. Se obtiene entonces la varianza
de estimación:

40
(16) σ 2
=
∑b σ i
2 2
Ei

(∑b )
E 2
i

Observación. Si los bi son iguales, queda simplemente:

1
σ E2 = σ E2
n i

d/ Composición de término de línea y término de rebanada.

En el caso c/ anterior, sucede que a menudo no se conocen las leyes


reales de las líneas, sino solamente una estimación de estas leyes a
partir de muestras puntuales en una malla regular a (a<h). Se admite
entonces que los errores cometidos al estimar las líneas a partir de las
muestras y de S a partir de las líneas (supuestamente conocidas) pueden
ser mirados como independientes. La varianza de estimación es entonces:

(17)
21
σ = σ 2 (a) +
∑ bi σ Ei 2 2

( ∑ bi )
E 2
N

σ2(a) es la varianza de extensión elemental (2-23) de una muestra puntual


en su segmento a de influencia, N es el número total de muestras.
(1/N)σ2(a) es el término de línea, varianza del error cometido al estimar
las líneas a partir de las muestras.

El segundo término, que figuraba ya en (16) es el término de rebanada:


varianza del error cometido al extender las líneas a sus rebanadas de
influencia.

Este principio (17) de composición es válido siempre que a sea inferior a


h. Se aplica, en particular, al caso de un reconocimiento con malla
rectangular axh.

e/ Caso de una malla cuadrada. La varianza de extensión de un


sondaje central a su cuadrado de influencia es:

⎛a a⎞
(18) σ E2 = 2Q ⎜ , ⎟ − F (a, a)
2 2
⎝ ⎠

41
Para una malla cuadrada, se puede admitir que los errores cometidos al
estimar cada cuadrado a partir de su sondaje central son independientes.
La varianza de estimación con N sondajes es entonces:

1 2
σ N2 = σE
N
con un σ2E dado por (18).

f/ Abacos. Para cada esquema isótropo, es decir para cada función


γ(r), se puede presentar, en forma de ábacos:

1/ La función F(a, b) definida en a/, la cual sirve para el cálculo


de la varianza de una muestra en el rectángulo a, b.

2/ La varianza de extensión (15) de una línea media de longitud b


en el rectángulo b, h – en particular, si b = 0, se encuentra la varianza
de extensión elemental (13).

3/ La varianza de extensión (18) de un sondaje en su cuadrado a, a


de influencia.

Estos tres documentos permiten un cálculo muy rápido de todas las


varianzas de estimación.

2-6-3 Caso del espacio de tres dimensiones.

Se procederá exactamente como en el caso del espacio de dos dimensiones,


componiendo esta vez, tres tipos de términos:

• término de línea: extensión de las muestras puntuales en las líneas


• término de sección: extensión de las líneas en las secciones
• término de rebanada: extensión de las secciones en las rebanadas

Además de los precedentes, se debe disponer de los ábacos siguientes:

• varianza de extensión de un plano mediano b, c en su paralelepípedo


rectangular de influencia.

• extensión de un sondaje de longitud b en su prisma recto a, a, b de


influencia.

42
• media de γ(h) en el paralelepípedo rectangular a, b, c: esta
función F(a, b, c) sirve para el cálculo de la varianza de una
muestra en este paralelepípedo.

3 - EL ESQUEMA ESFERICO.

Para representar un fenómeno de transición, se pueden utilizar esquemas


de la forma:

γ (h) = A[ K (0) − K (h)]


en que K(h) es el covariograma geométrico de un volumen v. Si se toma por
v la esfera de diámetro a, se tiene (ver ejercicio 9 de los métodos
transitivos, capítulo 1):

π ⎛ 3 h 1 h3 ⎞
K ( h) = a 3 ⎜1 − + ⎟ si (| h |< a )
6 ⎝ 2 a 2 a3 ⎠
K ( h) = 0 si (| h |≥ a )

El esquema esférico estará entonces definido por el variograma:

⎛ 3 r 1 r3 ⎞
γ (r ) = C ⎜ − 3 ⎟
si r < a
⎝2a 2a ⎠
γ (r ) = 0 si r ≥ a

El alcance es a, la meseta es C=γ(∞), la pendiente en el origen es


(3/2)(C/a).

Se tienen los ábacos siguientes:

Varianzas de estimación diversas.


Varianza de un punto en el rectángulo lxh:

1 ⎛A h⎞
F⎜ , ⎟
C ⎝a a⎠

43
Observación – A menudo, en las aplicaciones, los fenómenos de transición
están acompañados de un efecto de pepita: se les representará entonces
por un esquema esférico con efecto de pepita C0:

44
Esquema esférico
Varianzas de extensión diversas

45
46
4 - EL KRIGEADO

4-1 EL PROBLEMA DEL KRIGEADO Y SU INTERES.

El krigeado consiste en encontrar la mejor estimación lineal posible de


la ley de un panel, considerando la información disponible, es decir las
leyes de las diferentes muestras que se han tomado, sea al interior, sea
al exterior del panel que se quiere estimar. El krigeado consiste en
efectuar una ponderación, es decir atribuir un peso a la ley de cada
muestra, estos pesos se calculan de manera de hacer mínima la varianza de
estimación resultante, considerando las características geométricas del
problema (formas, dimensiones e implantación relativa del panel y de las
muestras). En grueso, como es natural, el krigeado atribuirá pesos
débiles a las muestras alejadas, e inversamente. Sin embargo esta regla
intuitiva puede ser parcialmente puesta en duda cuando aparecen fenómenos
más complejos de efecto de pantalla y de transferencia de influencia. No
es posible resolver un problema de krigeado, es decir calcular
efectivamente el peso óptimo que conviene atribuir a cada muestra, sin
hacer ciertas hipótesis sobre las características geoestadísticas del
depósito que se estudia. En adelante supondremos que el depósito es
geoestadísticamente homogéneo, en otras palabras que las leyes, dentro
del depósito, consideradas como una variable regionalizada f(x), pueden
ser interpretadas como una realización de un esquema intrínseco.

Esta condición de homogeneidad es fundamental. No se puede hacer un


krigeado entre porciones heterogéneas de un mismo depósito, y más
particularmente, en el caso cuando las muestras y el panel a estimar
sobrepasan los límites de la mineralización geológicamente homogénea. (Se
trata entonces, en sentido estricto, de una dilución y no de un krigeado;
en general, no es posible, enunciar reglas a priori: los coeficientes de
dilución, corrientemente, son determinados por la experiencia).

El primer interés del krigeado deriva de su misma definición. Al


minimizar la varianza de estimación, estamos seguros de sacar el mejor
partido posible de la información disponible, o, si se prefiere, de
obtener la estimación más precisa posible del panel en estudio. Esta
ventaja es a menudo notable, pero no se justificaría siempre, debido a
las complicaciones suplementarias que introduce necesariamente una
ponderación. El interés práctico más importante – de lejos – del
krigeado, proviene, no del hecho que asegura la mejor precisión posible,
sino más bien porque permite evitar un error sistemático. En la mayoría
de los yacimientos metálicos, se deben seleccionar, para la explotación,
un cierto número de paneles, considerados como rentables y se deben
abandonar otros paneles considerados no-explotables. D. G. Krige ha
mostrado que, si esta selección fuera realizada considerando
exclusivamente las muestras interiores a cada panel, resultaría
necesariamente – en promedio – una sobre-estimación de los paneles
seleccionados. La razón de este problema muy general es que la varianza
de las leyes reales de los paneles es siempre más débil que la varianza
de los resultados de un muestreo interior. Dicho de otra manera, el
histograma de las leyes reales de los paneles comporta menos leyes
extremas (ricas o pobres) luego tiene más leyes intermedias que el
histograma deducido de las muestras interiores, y, si se calcula el
efecto de una selección sobre este último histograma, los paneles

47
eliminados serán en realidad menos pobres que lo que se había previsto, y
los paneles conservados menos ricos.

Nuestra noción de krigeado permite interpretar fácilmente este fenómeno,


y corregir sus efectos. Cuando se selecciona un panel rico, la aureola de
muestras exteriores tiene, en general, una ley más débil que las muestras
interiores, sin embargo su influencia sobre el panel a estimar no es
despreciable porque el krigeado le atribuye un peso no nulo. Si no se
toma en cuenta esta aureola exterior, se introduce, necesariamente, una
causa de error sistemático por exceso.

Para ilustrar esta noción, imaginemos un yacimiento filoniano reconocido


por dos galerías AA’ y BB’

Se considera que las leyes de BB’ con explotables, mientras que las leyes
de AA’ son explotables en el segmento CC’. Si nos contentamos con
calcular la media de las leyes BB’ y CC’, estamos seguros de cometer un
error por exceso: porque los trozos AC y C’A’ – pobres por construcción –
tienen una influencia no despreciable sobre el trapecio BB’ CC’. Si fuera
posible dibujar una frontera precisa entre mineral explotable e
inexplotable, en general, la frontera real, no coincidiría con las rectas
BC o B’C’, sino que sería una curva cualquiera, a menudo bastante
irregular, tal como la línea complicada BDEFC. Además en el panel rico
subsistirían enclaves pobres y recíprocamente. En la explotación
estaremos obligados de abandonar ciertas porciones ricas, y de tomar
ciertas partes pobres, y este ensuciamiento traduce de manera concreta la
influencia de los trozos pobres AC y C’A’ sobre el panel rico (como se
trata de un yacimiento homogéneo, y que la frontera precisa de la ley es
dudosa, nosotros hablaremos de krigeado, y no de ensuciamiento.
Emplearemos la palabra ensuciamiento en el caso en el cual los minerales
ricos y pobres son geológicamente heterogéneos, y están separados por una
frontera continua, representable por una curva relativamente regular, tal
como B’D’E’C’, que, por otra parte, no tiene ninguna razón para coincidir
con la recta B’C’). En este caso el krigeado conduce a ponderar las leyes
de BB’, CC’, y de los trozos AC y C’A’ por coeficientes convenientes, que
serían - por ejemplo – 60% para BB’, 27% para CC’ y 13% para los dos
trozos.

48
El efecto esencial de esta ponderación es eliminar – en promedio – un
error sistemático por exceso, luego un error inquietante. Al considerar
este objetivo primordial, la mejora de la precisión propiamente dicha,
aparece como secundaria.

4-2. LAS ECUACIONES GENERALES DEL KRIGEADO.

De una manera general, el problema del krigeado puede ser formulado de la


manera siguiente: sea un depósito homogéneo con un cierto variograma
(isótropo o no), en el cual se han tomado n muestras S1, S2, ..., Sn,
cuyas leyes (conocidas) son X1, X2, ..., Xn. Se desea encontrar el mejor
estimador Z*, es decir:

n
(21) Z * = ∑ ai X i
i =1

De la ley real desconocida Z de un panel P, conociendo la forma, las


dimensiones y la implantación relativa de P, S1, S2, ..., Sn. Siempre se
puede resolver este problema determinando los coeficientes ai que cumplen
dos condiciones. La primera condición expresa que el error Z-Z* debe
tener una esperanza matemática nula. Esta condición se escribe:

n
(22) ∑a
i =1
i =1

La segunda condición es una condición de varianza mínima. Esta condición


expresa que los coeficientes ai del krigeado tienen valores tales que –
teniendo en cuenta la condición imperativa (22) – la varianza D2(Z-Z*), la
cual mide la magnitud del error posible, tome su valor mínimo. Entonces,
teniendo en cuenta la relación (21), esta varianza tiene la expresión:

(23) D 2 ( Z − Z * ) = σ Z2 − 2∑ aiσ zxi + ∑∑ ai a jσ i j


i i j

Las notaciones se explican por sí solas. σ Z2 es la varianza de la ley


real del panel, σzxi
es la covarianza de Z con la ley Xi de la muestra Si
y σi j la covarianza entre Xi y Xj (en particular σi i es la varianza de
Xi). Todas estas varianzas y covarianzas se calculan en un gran depósito
ficticio, en el cual su dimensión no interviene en realidad: la
influencia de este depósito ficticio se manifiesta por una misma
constante A que es mayor que todas estas varianzas y covarianzas, y que
se elimina, en virtud de (22). Entonces la expresión (23) solo depende
del variograma γ(h).

Se expresa que la varianza es mínima considerando la condición (22)


escribiendo:

49

⎪∑ a jσ i j = σ z xi + λ
⎪ j
(24) ⎨
⎪ a =1
⎪⎩∑
j
j

Se obtiene entonces un sistema de n+1 ecuaciones lineales con n+1


incógnitas (los ai y el multiplicador de Lagrange λ). Como este parámetro
de Lagrange no presenta interés por sí solo, buscaremos eliminarlo. Para
ello, se hará jugar un papel particular a una de las muestras, por
ejemplo Sn (en la práctica se elegirá una muestra que ocupe una posición
privilegiada respecto de las n-1 restantes, por ejemplo una posición
central) y se escribirá la condición (22) en la forma:

n −1
(25) an = 1 − ∑ ai
i =1

y se reemplazará en (24) an por este valor, es decir:

⎧ n −1
⎪∑ a jσ i j + anσ i n = σ z xi + λ
⎪ j =1
⎨ n −1
⎪ a σ +a σ =σ +λ
⎪⎩∑
j =1
j nj n nn z xn

Se elimina λ al restar la última ecuación de las n-1 anteriores, y se


reemplaza an por su valor. Si se pone:

⎧⎪ Ri j = σ i j − σ n j − σ ni + σ n n
(26) ⎨
⎪⎩ N i = σ z xi − σ z xn − σ i n + σ n n

el sistema (24) se reduce a:

n −1
(27) ∑a R
j =1
j ij = Ni

La solución de este sistema de n-1 ecuaciones lineales con n-1 incógnitas


permite el calculo efectivo de los n coeficientes de krigeado, an se
determina según (25).

50
Los valores así obtenidos se pueden introducir en la expresión (23) de la
varianza de estimación, se obtiene entonces el valor mínimo σ K de la
2

varianza, que llamaremos varianza de krigeado. Vemos que esta varianza


toma la forma muy simple siguiente:

n −1
(28) σ K2 = σ z2 − 2σ z x + σ x2 − ∑ ai N i
n n
i =1

La primera parte de esta fórmula representa la varianza de extensión:

σ E2 = σ z2 − 2σ z x + σ x2
n n

de la muestra Sn en el panel P. Es la varianza de estimación que se


tendría si solo se tuviera de la ley Xn de la única muestra Sn. Cada una
de las otras muestras S1, S2, ..., Sn-1 aporta una mejora la cual se
traduce por la resta de los términos aiNi, siempre positivos. Las
ecuaciones (27) y (28) constituyen las ecuaciones generales del krigeado.
Los términos de la matriz Rij y los segundos miembros Ni están dados por
(26) y solo dependen de la función intrínseca.

4-3 KRIGEADO COMPLETO y BALANCE MINERAL_METAL.

Además de su carácter lineal, las ecuaciones (27) del krigeado presentan


una particularidad notable, que se observa en las relaciones (26): Los
coeficientes de la matriz Rij – es decir los primeros miembros de las
ecuaciones (27), solo dependen de las varianzas y covarianzas de las
muestras entre ellas, y son independientes del panel a estimar. El panel
a estimar interviene solamente en los segundos miembros Ni, por
intermedio de las covarianzas σ z xi de su ley con la de las muestras Si.
Resulta inmediatamente un teorema de superposición de figuras de
krigeado. Supongamos, en efecto, que se haya krigeado, a partir de las
mismas muestras S1, S2, ..., Sn dos paneles distintos, de tamaño P y P’ y
de leyes reales (desconocidas) z y z’, es decir que se hayan formado los
estimadores:

Z * = ∑ ai X i , Z '* = ∑ ai' X i

en que ai y ai’ son las soluciones del sistema (27), para los valores de
los segundos miembros Ni y Ni’ correspondientes a los paneles P y P’. Si
se desea krigear el panel P+P’ constituido por la unión de P con P’
(suponiendo que P y P’ son disjuntos), cuya ley real es:

P P'
Z= z+ z'
P + P' P + P'

51
se obtienen los segundos miembros del sistema al ponderar las covarianzas
por el tamaño de los paneles:

P P'
σzx = σ z xi + σ z ' xi
P+ P' P + P'
es decir efectuando la misma ponderación sobre los segundos miembros.
Resulta entonces que el carácter lineal del sistema de ecuaciones implica
que los coeficientes Ai del krigeado de P+P’ son:

P P'
Ai = ai + ai'
P + P' P + P'
y el estimador toma la forma:

P P' *
Z* = z* + z '
P+ P' P + P'
Dicho en otras palabras, existe la superposición de figuras de krigeado
(con ponderación por los tonelajes). En particular, esta condición se
cumple siempre en el caso de un krigeado completo – es decir en el caso
en que se krigea cada panel con la totalidad de las muestras en el
depósito entero. Luego tenemos el teorema: “los krigeados completos se
pueden superponer”.

En particular, si se desea formar el mejor estimador de la ley global de


un depósito entero, es lícito ponderar los estimadores obtenidos para
cada uno de los paneles, con la restricción que estos hayan sido
krigeados de manera completa. La estimación panel a panel es entonces
equivalente a la estimación global, y el balance mineral y metal queda
equilibrado.

En la práctica, casi nunca se hace un krigeado completo, debido a la


complejidad de los cálculos. Nos limitamos siempre a un número pequeño de
aureolas exteriores – las más próximas – que representan la casi
totalidad de la influencia de las aureolas exteriores. Como estas
aureolas representan una pantalla casi perfecta, el krigeado incompleto
con el cual nos contentamos, no difiere prácticamente del krigeado
completo teórico.

El teorema de superposición es sobre todo útil, en el caso de la teoría


del krigeado continuo, en una forma diferencial. Un panel S a estimar se
considera como constituido por la unión de paneles elementales dS
infinitamente pequeños. Si ai(M) es el coeficiente relativo al krigeado
del elemento dS de centro M, el coeficiente relativo al panel entero se
deduce por integración:

1
S ∫∫
Ai = ai ( M )dS
S

Si se sabe resolver un problema de krigeado al nivel puntual, esta


fórmula permitirá deducir el krigeado de un panel S de forma cualquiera.

52
De su lado, las ecuaciones del krigeado puntual constituyen un caso
particular simple de las ecuaciones generales. Sin embargo, escribiremos
explícitamente estas ecuaciones, en función del variograma γ(h), en el
caso en que se desea estimar la ley Z en el punto z a partir de las leyes
Xi observadas en los puntos xi. El estimador es de la forma:

n
Z * = ∑ ai X i
i =1

y los coeficientes ai del krigeado verifican el sistema:

⎧ n
⎪∑ a j γ ( xi − x j ) = γ ( z − xi ) + λ
⎪ j =1
⎨ n
⎪ a =1
⎪⎩∑
i =1
i

Al eliminar el coeficiente an, se encuentra igualmente:

n −1

∑a R
j =1
j ij = Ni

con:

⎧⎪ Ri j = γ ( xi − x j ) − γ ( xn − x j ) − γ ( xn − xi )

⎪⎩ N i = γ ( z − xi ) − γ ( xn − z ) − γ ( xn − xi )

En el caso en que los datos disponibles no son relativos a un número


finito de puntos, sino a un conjunto continuo (líneas, superficies o
volúmenes), las ecuaciones del krigeado se reemplazan por una ecuación
integral. Este caso, que constituye lo que se llama el krigeado continuo,
no lo trataremos aquí (ver [4], [5] o [6]).

5 – INVESTIGACION DEL OPTIMO EN EL RECONOCIMIENTO


Y LA PUESTA EN EXPLOTACION DE LOS DEPOSITOS MINEROS

5-0 INTRODUCCION.

Si se considera la magnitud de las inversiones en la industria minera, y


la gravedad del riesgo de ruina, ninguna sociedad, ninguna autoridad
responsable, toma la decisión de explotar un nuevo depósito sin haber
realizado la estimación más precisa posible de todos los parámetros
geológicos, técnicos y económicos que condicionan la rentabilidad de la
nueva mina. Estos parámetros son numerosos y variados. Estudios
anteriores permiten precisar los factores económicos (precio del
mineral). Ensayos de tratamiento en laboratorio, o en planta piloto, y el
estudio detallado de diferentes proyectos de explotación, permitirán
elegir y cuantificar la mejor solución técnica. Finalmente, los trabajos
de reconocimiento por sondajes o labores mineras conducen a una

53
evaluación de los recursos del depósito, en tonelaje y en ley. Sería
deseable conocer perfectamente estos diferentes parámetros. Pero la
información cuesta cara. En particular, los trabajos de reconocimiento
pueden representar un porcentaje no despreciable del total de las
inversiones. Llega un momento en el cual el valor de la información
suplementaria ya no está en razón con su costo. Entre estas dos
situaciones extremas, caracterizadas, una por gastos de investigación
nulos y riesgo de ruina máximo, la otra por una seguridad perfecta y
gastos de investigación infinitos, existe necesariamente una situación de
compromiso correspondiente a un óptimo. Donde se sitúa este óptimo y como
determinarlo, corresponden a las preguntas a las cuales trata de
responder esta última sección. En efecto, nos limitaremos al problema de
la determinación del volumen óptimo de los trabajos de reconocimiento.
Los datos económicos (precios del mineral) se suponen conocidos, igual
que las características técnicas del método de explotación y del
procedimiento de tratamiento retenidos. Estudiaremos en detalle la
influencia de la elección de dos parámetros técnicos muy importantes: el
ritmo anual de explotación, y la ley límite de corte.

Queda claro que es difícil plantear el problema. El nivel óptimo de


reconocimiento depende de las características del depósito, y no puede
ser determinado si no se dispone ahora, de ciertas indicaciones sobre
sus características, es decir, en la práctica, si no se ha realizado
previamente una primera fase de trabajos de reconocimiento. Se tiene
entonces un esquema secuencial, en el cual las decisiones a tomar se
presentan en cascada. Al término de la primera fase de reconocimiento,
nos encontramos localizados en un punto crucial C (Figura 1):

Figura 1: TR=trabajos de reconocimiento

donde se debe elegir una de tres decisiones posibles:

1/ Cerrar y abandonar el depósito.


2/ Explotar inmediatamente.
3/ Hacer una segunda fase de trabajos de reconocimiento.

Si se adopta la tercera decisión, a la salida de esta fase de


reconocimiento, nos encontraremos en un nuevo punto crucial C’, donde,
teóricamente, las tres decisiones son de nuevo posibles, pero pueden ser
tomadas basadas en informaciones más completas que en C.

Entre estas tres decisiones, es necesario elegir un criterio: adoptaremos


el criterio habitual, el cual consiste en maximizar la esperanza
matemática del beneficio futuro. Se elige la decisión que proporciona la
mejor esperanza después del punto C. La primera decisión conduce a una
esperanza nula. La esperanza matemática de la segunda se calcula haciendo

54
el balance provisorio del proyecto de explotación construido a partir de
la información disponible a la salida de la primera fase. La de la
tercera se obtiene anticipando, en probabilidad, los resultados de la
segunda fase de trabajos y la decisión a tomar en C’: la esperanza
matemática pone en balance la disminución del riesgo de ruina con el
costo de los trabajos suplementarios. La Geoestadística proporciona, en
cada etapa, una medida objetiva de la información disponible en forma de
varianzas de estimación sobre el tonelaje y la ley, razonamientos simples
permitirán atribuirles una significación económica para luego calcular
numéricamente las diversas esperanzas matemáticas.

Pero esto no es todo. Además del riesgo de ruina, existen otros factores
que influyen sobre el volumen óptimo de los trabajos de reconocimiento.
En efecto, si se ha tomado la decisión de explotar y el riesgo de ruina
ha sido considerado como suficientemente débil, falta preparar un
proyecto de explotación, el mejor posible, el cual considera, en
particular, la elección óptima del ritmo anual de explotación y de la ley
límite. El ritmo óptimo y la ley límite óptima dependen naturalmente de
los recursos del depósito. Un error en la evaluación de los tonelajes y
de las leyes conduce a un dimensionamiento de la explotación que se aleja
del óptimo. Resulta una pérdida, cuyo valor probable puede ser calculado,
y debe ser puesto en balance con el costo de los trabajos suplementarios.
Aún en el caso de estar seguros de la explotabilidad del depósito, puede
suceder que sea interesante hacer más trabajos suplementarios de
reconocimiento, no para evitar un riesgo de ruina despreciable, sino más
bien para elegir el mejor programa de explotación.

En primer lugar se presenta el esquema secuencial de la figura 1, los


problemas de dimensionamiento intervienen después que se ha demostrado la
explotabilidad. Sin embargo la exposición teórica debe, necesariamente,
seguir el orden inverso, porque una vez que se hayan definido las
eventualidades posibles después del punto C, y cifrado sus valores, se
pueden calcular las diversas esperanzas matemáticas: es necesario, en
primer lugar, profundizar el concepto de explotabilidad, y esto conduce
obligatoriamente a estudiar el problema del dimensionamiento óptimo.
Luego tenemos el plan de esta sección 6: en una primera parte (6-1),
examinaremos la rentabilidad de un depósito cuyos recursos son conocidos,
y los problemas asociados a la elección de una ley límite y de un ritmo
anual de explotación. En una segunda parte (6-2), se determinará el nivel
de reconocimiento óptimo de un depósito en el cual la rentabilidad está
asegurada, poniendo en balance el costo de los trabajos y la pérdida
debida a un mal dimensionamiento de la explotación. La tercera parte (6-
3), finalmente, tomará en cuenta el riesgo de ruina y formulará, de
manera precisa, el esquema secuencial de la figura 1. Las dos primeras
partes, en realidad, tratarán el problema de la elección de los
parámetros técnicos: ritmo de explotación, ley límite y volumen de los
trabajos de reconocimiento, estos últimos intervienen en la medida de que
sirven para definir el óptimo de los dos primeros. Correlativamente,
veremos que los razonamientos deben hacerse con una tasa de actualización
nula, lo que conduce al óptimo absoluto. Por el contrario, la tercera
parte analiza los criterios de decisión: tiene por objetivo una
optimización secuencial, o relativa (relativa a las informaciones
disponibles en el punto crucial C), y hace intervenir necesariamente una
tasa de actualización diferente de cero. Se encontrará una exposición
mucho más detallada en [5] o en [8].

55
5-1 ELECCION DE UNA LEY DE CORTE Y DE UN RITMO ANUAL DE EXPLOTACION.

5-1-1 Definición de los parámetros (la relación tonelaje/ley).

En esta primera parte, supondremos que las características del depósito


se conocen de manera perfecta. En particular, se ha determinado sin
ambigüedad el mejor método de explotación y el mejor procedimiento de
tratamiento posible. Falta por elegir dos parámetros técnicos esenciales:

• el ritmo anual de producción “t”


• la ley de corte “x”

La significación del segundo parámetro debe ser precisada. Decir que se


toma x como ley de corte significa que se decide abandonar los paneles
cuya ley media es inferior a x, y explotar aquellos cuya ley es superior
a x. Esta noción solo tiene sentido en el caso en que se ha definido el
tamaño de los paneles en los cuales se aplicará este corte, es decir el
nivel en el cual operará la selección. Este tamaño debe ser considerado
como un dato, porque resulta de las características tecnológicas del
método de explotación que se ha retenido.

El tonelaje de mineral “T(x)”, y la ley media “m(x)” aparecen como dos


funciones, una decreciente y la otra creciente, de la ley de corte x. Si
dT ( x)
T(0) = T0 designa el tonelaje del depósito entero, la diferencial −
T0
representa, en porcentaje del tonelaje total, el tonelaje de mineral cuya
ley está comprendida entre x y x + dx. A veces se le interpreta como la
densidad de probabilidad f(x)dx de la distribución estadística de las
leyes en función de los tonelajes. Esta interpretación no es nada de
clara ni esencial. Nosotros no la utilizaremos. La función T(x)
representa simplemente el resultado de un método dado de explotación
cuando se aplica, con una ley límite x, a un depósito, es decir a un
fenómeno natural, determinado.

Se debe tener cuidado, en particular, de no asimilar T(x)/T0 a la


distribución acumulada de las leyes de las muestras. La distribución de
las muestras no es nunca idéntica a la distribución T(x) de las leyes de
los paneles al nivel de los cuales opera la selección. Esta distribución
es siempre más dispersa. La geoestadística permite, en general, calcular
la varianza de la distribución T(x) de los paneles, a partir de la
varianza experimental de las muestras. Si las muestras obedecen, al menos
aproximadamente, a una ley de distribución simple (normal, lognormal,
etc...), es fácil de reconstituir la función T(x). En ausencia de una ley
simple, se podrá construir el histograma de los paneles comprimiendo el
histograma de las muestras respecto de su ley media, por una afinidad
cuyo módulo es igual a la razón de las desviaciones estándares.

En la práctica, se puede recomendar el método siguiente para la


determinación de las funciones m(x) y T(x): respecto del plan de
muestreo, adoptar la actitud natural del minero, es decir, elegir y
dibujar, para un límite x dado, el modelo de bloques técnicamente posible
que podría conducir al mejor resultado previsible, y evaluar la ley media
m(x) de los paneles seleccionados, con la ayuda del krigeado (si se
verifican las condiciones de homogeneidad), o, en su defecto, con una
dilución empírica. Repitiendo la operación para dos o tres valores de x,

56
se obtendrá una imagen de la variación de T(x) en la zona de leyes de
corte útiles, lo que será suficiente para las aplicaciones prácticas.

Cualquiera que sean las dificultades que se encuentran en la práctica


para su determinación, las funciones m(x) y T(x) existen, y representan
el resultado de la aplicación a un fenómeno natural determinado (el
depósito minero) de un procedimiento tecnológico definido (método de
explotación). La primera T(x) es decreciente y la segunda m(x) es
creciente. A toda ley media m (correspondiente a un corte x) le
corresponde un tonelaje bien determinado, cuya ley media es m. Se puede
entonces definir una función T(m), la cual proporciona el tonelaje en
función de la ley media, y no en función de la ley de corte.

Análogamente, se puede definir una función m(T), la cual proporciona la


ley media en función del tonelaje retenido. Se observa que se tiene,
necesariamente:

d (mT ) dm
(1) x= = m+
dT d (log(T ))

En efecto, d(mT) representa el tonelaje de metal dQ contenido en la


franja marginal dT, cuya ley es x. (En ciertos casos esta relación (1)
puede servir para definir el parámetro de corte x. En efecto, puede
suceder, que las condiciones de explotabilidad no sean las mismas en las
diferentes porciones del depósito. Un panel de igual ley puede ser
explotable si está situado en el corazón de una zona rica, o ser
inexplotable si está rodeado de zonas pobres y no paga sus costos. En
este tipo de casos, no hay una ley de corte universal, pero la función
T(m) está siempre definida y, por derivación, la relación (1) permite
introducir el parámetro de corte).

La relación m(T) podrá, a menudo, ser representada por una ecuación muy
simple:

(2) m = α − β log(T )

o ley de LASKY. Esta relación empírica no puede ser utilizada en 0 ni en


infinito, en este caso se obtienen serias contradicciones. Desde el punto
de vista pragmático, esta relación constituye una excelente fórmula de
interpolación y permite, en particular, de representar el comportamiento
de la curva m(T) entre dos puntos experimentales (conocidos, por ejemplo,
a partir de dos proyectos de explotación diferentes). Considerando (2),
la ley de corte x se pone en la forma muy simple:

(3) x = m−β

En resumen hemos definido los parámetros técnicos del problema:

• ritmo anual de explotación t,


• ley de corte x,
• tonelaje T(x),
• ley media m(x)

57
Falta precisar los parámetros económicos útiles. Entre ellos,
distinguiremos principalmente tres: el precio de mercado, los gastos de
explotación anuales y el monto de las inversiones.

El precio de mercado, no depende de la voluntad del explotador y puede


ser considerado como un dato. Para simplificar lo supondremos conocido y
constante. Por otra parte es posible modificar las ecuaciones que
propondremos de manera de tener en cuenta la incertidumbre del futuro. Al
utilizar la fórmula de venta del concentrado y de la recuperación del
tratamiento, el precio de mercado permite definir el valor V(m) del metal
recuperable contenido en una tonelada de mineral de ley m.

A menudo se podrá utilizar una fórmula lineal:

(4) V (m) = bm − b0

en la cual la constante de castigo b0 se puede incorporar con el término


constante de la expresión p(t) que vamos a definir.

Los gastos anuales por tonelada de mineral representan el conjunto de


gastos anuales (explotación, transporte y gastos generales) divididos por
la producción anual t. Estos gastos dependen de la producción t. Se les
representa por una función p(t), la cual se supone, en general,
decreciente. A menudo se puede admitir una relación de la forma:

a1
(5) p (t ) = a0 +
t
Las inversiones agrupan el conjunto de gastos que es necesario realizar
antes de la apertura de la explotación (trabajos mineros preparatorios,
planta de tratamiento, eventualmente: campamento, caminos, vías férreas,
etc...) Se representan por una función creciente del ritmo t, es decir
I(t). Por el contrario, la razón I(t)/t de las inversiones a la
producción anual, es una función decreciente de t. En las aplicaciones se
puede utilizar una función lineal

(6) I (t ) = C0 + C1t

o bien, más generalmente, una expresión de la forma:

(7) I (t ) = C0 + C1t γ

el exponente γ debe ser positivo pero inferior a 1. Para C0=0 y γ=2/3, se


encuentra la ley empírica, utilizada en varias ramas de la industria, la
cual expresa que las inversiones y la capacidad de producción varía,
respectivamente, como el cuadrado y el cubo de la dimensión de las
instalaciones.

En resumen, utilizaremos las tres funciones económicas siguientes:

• V(m): valor contenido en la tonelada de mineral de ley m


• p(t): gastos de explotación por tonelada de mineral
• I(t): monto de las inversiones

58
Resulta cómodo incluir un parámetro suplementario, la duración de vida de
la mina N, relacionada con el tonelaje T(m) y al ritmo de explotación t
por medio de la relación siguiente:

T ( m)
(8) N=
t
El resultado de la explotación futura se representa, de manera cómoda,
por la expresión del valor actualizado de los beneficios futuros.
Designando por i a la tasa de actualización, y por Bi al valor
actualizado de los beneficios futuros a esta tasa, se tiene,
evidentemente:

1 − e − iN
(9) Bi = [V (m) − p (t )] t − I (t )
i
y, en el caso particular, muy importante en el cual se toma una tasa i
igual a 0, el beneficio no actualizado toma la forma simple:

(10) Bi = [V (m) − p (t )] T (m) − I (t )

En todos los casos, el beneficio puede ser considerado como una función
de los parámetros m y t, o si se prefiere (considerando las ecuaciones
(1), de x y de t, ley de corte y producción anual. Un criterio posible
para guiar la elección de estos dos parámetros consiste en maximizar este
beneficio.

5-1-2 Ecuaciones del óptimo.

Conociendo la relación tonelaje/ley, y los diferentes parámetros


económicos examinados anteriormente, se debe elegir para la ley de corte
x y el ritmo anual t, los valores x0 y t0 que maximizan el beneficio
futuro. Aquí aparece una primera pregunta: ¿Se debe optimizar el
beneficio futuro actualizado Bi de la expresión (9), (y en este caso ¿qué
tasa i se debe adoptar?) o, al contrario, el beneficio B no actualizado
de la expresión (10)? No podemos entrar aquí a una discusión detallada
(ver [5] y [8]) que requiere conocimientos de ciencias económicas.
Indiquemos solamente que el uso de una tasa de actualización no nula
solamente es legítimo cuando se comparan entre sí operaciones de igual
duración. Pero, precisamente, si se comparan dos proyectos de explotación
de un mismo depósito los cuales tienen diferentes ritmos de producción
anuales, se trata de operaciones de duración diferente, luego, no
comparables entre ellos. Para hacer una comparación significativa, se
debe pensar en un gran número de depósitos admitiendo las mismas
características que el depósito real; se fija un objetivo global, el cual
sería, por ejemplo, la producción anual de un tonelaje total dado de
mineral; y hacer la comparación de resultados en la hipótesis en que se
explotan simultáneamente n1 depósitos al ritmo t1, o n2 depósitos al ritmo
t2 (n1 t1 = n2 t2). Nos damos cuenta entonces que el óptimo corresponde a la
maximización del beneficio no actualizado de la expresión (10).

Para maximizar B, se deben anular las derivadas parciales de B en t


(ritmo) y en x (ley de corte). Según (4) y (1) se tiene:

59
⎧ dp dI
⎪⎪T dt + dt = 0
(11) ⎨
⎪x = p
⎪⎩ b

La primera ecuación optimiza el ritmo de producción (con ley de corte x


dada). La segunda ecuación muestra que la ley de corte x debe ser elegida
según la regla marginalista, según la cual se explota una tonelada de
mineral cuando paga sus gastos (las inversiones se amortizan en las
partes ricas del depósito).

Este sistema se resuelve fácilmente por aproximaciones sucesivas. En


particular, si se adoptan las expresiones (5) y (7) de p(t) e I(t), el
sistema queda:

⎧ 1

⎪t = ⎛ a1T ( x) ⎞
1+ γ

⎪ ⎝ γ C1 ⎠ ⎟

⎪ 1⎛ a1 ⎞
⎪ x = ⎜ a0 + ⎟
⎩ b⎝ t ⎠

Para γ=1 este sistema proporciona una regla empírica, que se encuentra a
veces en la literatura, según la cual el ritmo de explotación anual debe
ser proporcional a la raíz cuadrada del tonelaje de las reservas.

5-2 RECONOCIMIENTO OPTIMO PARA EL DIMENSIONAMIENTO DE LA EXPLOTACION

5-2-1 Descripción del problema.

Como lo habíamos indicado al comienzo de este estudio, todavía no


introduciremos, en esta segunda parte, el riesgo de ruina, es decir el
riesgo, nunca nulo, de poner en explotación un depósito que, en efecto,
no sería rentable. Admitiremos que la prueba, o al menos la casi certitud
de esta rentabilidad se ha podido establecer. Es necesario entonces
disponer de un proyecto de explotación y de tratamiento preciso y
definitivo. Los parámetros de dimensionamiento: producción anual t, y ley
de corte x, se calculan con la ayuda de las ecuaciones (11). Sin embargo,
para resolver estas ecuaciones, no conocemos la verdadera relación
tonelaje/ley T(x), sino más bien una estimación de ella TE(x), la cual es
diferente si el reconocimiento ha sido más o menos intenso. Por
consiguiente, los parámetros tE y xE que vamos a determinar van a diferir
de los valores t0 y x0 que corresponderían al óptimo para la verdadera
función T(x) desconocida. Naturalmente, se puede disminuir esta pérdida
efectuando trabajos suplementarios de reconocimiento, los cuales
permitirían obtener una mejor estimación de T(x), pero estos trabajos
cuestan caro. Existe un óptimo, correspondiente a un volumen de trabajos
de reconocimiento tales que la suma de la pérdida y el costo de los

60
trabajos de reconocimiento sea mínima. Este óptimo tiene el mismo
carácter técnico que en el párrafo anterior: los trabajos de
reconocimiento se consideran aquí como un parámetro técnico auxiliar, el
cual sirve para determinar el tamaño óptimo de la explotación. Entonces
se deberá razonar con una tasa i = 0, como en la sección 6-1. Debido a
que la función aproximada TE(x) conduce a una solución vecina del óptimo
real (t0, x0), esperamos observar una pérdida de segundo orden (lo cual no
significa que esta pérdida sea despreciable) cuyo valor esperado podrá
expresarse en función de las varianzas de estimación del tonelaje y de la
ley.

El problema es relativamente delicado de formular, examinaremos solamente


el caso particular simple de los depósitos “todo o nada”, para un estudio
más completo habrá que consultar la bibliografía ([5], [8]).

5-2-2 Caso de los depósitos de tipo “todo o nada”.

Por depósito de tipo “todo o nada” designamos a un depósito, cuya ley no


es necesariamente constante, sino en el cual no es posible hacer una
selección: o bien se explota todo, o bien no se explota(1). La relación
tonelaje/ley no juega ningún papel: en este caso el tonelaje y la ley son
impuestos por la naturaleza, y el ser humano no tiene ninguna elección
posible. En este caso, el error cometido sobre la ley media no tiene
incidencia en el dimensionamiento: el corte se impone, el único parámetro
que hay que determinar es la producción anual t, que solo depende del
tonelaje T. Si se diferencia la primera ecuación (11), se observa que el
error δT de la estimación del tonelaje implica una desviación δt entre el
ritmo adoptado y el ritmo óptimo verdadero, desviación cuya expresión es:

p 'δ T
δt =
Tp ''+ I ''

Respecto del beneficio (no actualizado) óptimo, esta divergencia implica


una pérdida la cual se obtiene por el desarrollo limitado siguiente:

1
P = −δ [ (V − p)T − I ] = (Tp '+ I ')δ t + (Tp ''+ I '')δ t 2
2
Según la ecuación (11), el término de primer orden es nulo, porque
estamos cerca del óptimo. Al considerar la expresión de δt, se encuentra:

(1) Este tipo de depósitos, se encuentra en la práctica, más a menudo de


lo que se cree. Un depósito todo o nada no está, obligatoriamente,
rodeado de material estéril. Puede estar rodeado de una franja
mineralizada no explotable, geoestadísticamente heterogénea con el
mineral. Se observa entonces el fenómeno de umbral de ley, que los
mineros conocen bien: los cálculos de tonelaje hechos con diferentes
leyes de corte conducen, prácticamente, a resultados idénticos, y, en el
plano, los límites entre paneles explotables e inexplotables
prácticamente no se desplazan.

61
1 p '2
P= (δ T ) 2
2 Tp ''+ I ''

En valor esperado, (δT)2 proporciona la varianza σ2T de la estimación del


tonelaje, cuyo valor se puede calcular geoestadísticamente, en función de
los trabajos de reconocimiento. Se tiene, entonces:

1 p '2
(12) P= σ T2
2 Tp ''+ I ''

Esta pérdida P debe ser puesta en balance con el costo R de los trabajos
de reconocimiento. R es una función decreciente de σ2T. Se obtendrá el
volumen óptimo de reconocimiento al resolver la ecuación:

dR 1 p '2
(13) + =0
dσ T2 2 Tp ''+ I ''

Que expresa que la suma P * R es mínima. En la práctica se expresará R y


σ2T en función de un mismo parámetro (número n de sondajes, distancia
entre galerías de reconocimiento, etc...), o, eventualmente, de varios.
Sean ui estos parámetros, se debe resolver el sistema:

∂R 1 p '2 ∂σ T2
(14) +
∂ui 2 Tp ''+ I '' ∂ui

En el caso en que se tiene, efectivamente, varios parámetros ui (por


ejemplo, en el reconocimiento de un filón por trabajos mineros, la
distancia entre los niveles y la malla de canaletas), la solución del
sistema (14) proporciona a la vez el volumen global optimo de gastos que
se deben destinar al reconocimiento, y la mejor distribución de estos
entre las diferentes categorías de trabajos (niveles y canaletas).

A modo de ilustración, imaginemos un gran depósito sedimentario de


hierro, de forma aproximadamente elíptica o rectangular, reconocido por
una red de sondajes con malla adaptada, es decir implantados en los
vértices de una malla rectangular, con una razón de malla igual a la
razón de las dimensiones del depósito. La geoestadística nos indica que
la varianza relativa σ2T/T2 de la estimación del tonelaje es la suma de
dos términos: el primero representa el efecto de borde, o si se quiere,
el error de estimación de la superficie mineralizada, el cual admite una
expresión de la forma

0.244 D1 D2
n3/ 2 S
siendo n el número de sondajes útiles, S el área mineralizada, D1 y D2 los
diámetros (más generalmente, las variaciones diametrales si el área S no
es convexa) del área mineralizada. Para un contorno elíptico se toma

62
D1 D2 2
= = 1.13
S π
y el primer término se reduce a 0.276/n3/2. El segundo término representa
el error de la potencia media y admite una expresión de la forma A/n,
donde A es ligeramente inferior a la varianza relativa de las potencias
en el depósito, y puede ser considerada como una constante (en realidad
es una función que decrece lentamente con n). Tomaremos un valor
razonable, como A=0.10.
En resumen, la varianza relativa tiene el valor:

σ T2 0.276 A
2
= +
T n3/ 2 n
Respecto de los valores económicos, tomaremos para p(t) e I(t)
expresiones de la forma (5) o (6), y designaremos por C el costo unitario
de sondaje. La suma que se desea minimizar, de la pérdida y del costo de
reconocimiento, se escribe, en función del número n de sondajes como:

1 ⎡ 0.414 A ⎤
a1C1T ⎢ 5 / 2 + 2 ⎥ = C
4 ⎣ n n ⎦

Numéricamente, examinemos el caso en que T = 1000 millones de toneladas,


a1 = 3*106, c1 = 10 (ejemplo tomado de F. Blondel, [9]), A=0.10 y un costo
unitario C de 2000 dólares por sondajes. Se encuentra n = 60
aproximadamente.

5-3 Optimización secuencial y término del reconocimiento.

5-3-1 El problema del término del reconocimiento.

Conviene ahora re-introducir el riesgo de ruina. En el capítulo anterior,


hemos admitido que la rentabilidad del depósito había sido establecida, y
habíamos determinado el mejor nivel de reconocimiento, tomando en cuenta
solamente la pérdida por un mal dimensionamiento de las instalaciones. Se
trataba de un óptimo puramente técnico, definido sin actualizar. El
problema que abordamos ahora presenta la mayor importancia para la
práctica del reconocimiento minero. Se resume en la pregunta fundamental:
¿En qué momento conviene detener el reconocimiento, y tomar una decisión
– positiva o negativa – respecto de la explotación del depósito?. El
problema no puede formularse de manera absoluta. Nos debemos contentar
con el análisis de los elementos que dirigen la decisión relativamente al
paso de una fase de la investigación a la fase siguiente. Tomando de
nuevo el esquema secuencial de la figura 1, supongamos que se ha
ejecutado una primera fase de trabajos de reconocimiento TR1. Esta fase
ha proporcionado indicaciones cifradas sobre el tonelaje y la ley del
depósito reconocido, y, los métodos de la geoestadística han permitido
fijar la precisión según la cual estas informaciones representan la
realidad. Por otra parte, un estudio de explotabilidad, ha podido definir
para qué tonelajes y cuáles leyes, la explotación podría ser viable. En
el punto crucial C de la figura 1 al cual hemos llegado, se tienen tres
decisiones posibles:

63
1. Se decide no explotar y abandonar el depósito (se cierra)
2. Se decide explotar inmediatamente (2)
3. Se decide hacer una segunda fase de reconocimiento TR2.

Si se adopta la tercera de las decisiones, nos re-encontraremos, después


de la ejecución de TR2, en un nuevo punto crucial C’, donde, de nuevo, en
teoría, las tres decisiones son posibles, pero pueden ser tomadas a la
luz de una información mejorada. En la práctica, en la mayoría de los
casos, no será posible, de considerar una tercera fase TR3 de
reconocimientos. Nos limitaremos, en este estudio, al caso en que en C’,
la única elección posible consistirá en poner o no, el depósito en
explotación.

Este problema secuencial se formula, necesariamente, de manera


discontinua: En particular, la segunda fase de reconocimiento TR2,
considerada en la tercera decisión, será impuesta por la tecnología. Por
ejemplo, si se ha reconocido un depósito tipo filón por galerías
equidistantes de 60m, la segunda fase consistirá en trazar niveles
intermedios, de manera de llevar a 30 metros la distancia entre niveles.
En el caso de un depósito estratiforme reconocido por sondajes con malla
cuadrada, la segunda fase consistirá en centrar la malla, es decir doblar
el número de sondajes útiles. Esta segunda fase solo depende de un
parámetro el cual varía en forma continua, y cuyo valor podría ser
elegido arbitrariamente (3). Este valor se impone.

A veces se tendrá la ilusión de que una elección continua es posible. Por


ejemplo, si se ha reconocido un depósito filoniano con tres niveles, y si
se han muestreado estos tres niveles por sondajes percutantes
horizontales, tomados de techo a muro en la formación, se podría pensar
en mejorar la información disponible cerrando la malla de los percutantes
sin hacer trabajos mineros suplementarios. La malla de los percutantes
aparece así como un parámetro casi continuo. Pero se sabe que la mejora
aportada por los percutantes suplementarios sería casi siempre

(2) Si no se actualiza, es indiferente explotar ahora o más tarde. Si se


actualiza, es prferible explotar inmediatamente, salvo en el caso en que
los precios de hoy están a un nivel anormalmente bajos y se espere su
repunte en los años a venir. Como, en este estudio, no tomamos en cuenta
la variabilidad de los precios, no consideraremos la solución de espera,
cuya formulación sobre bases realistas es bastante delicada.

(3) Supondremos, esencialmente, que el reconocimiento del depósito ha


sido exhaustivo. Nos hemos podido equivocar en la evaluación del tonelaje
y de la ley, pero la totalidad del depósito ha sido reconocido. Los
trabajos de reconocimiento han sobrepasado los límites de la
mineralización en el espacio, y no hay problemas de extensión. Por otra
parte, no es posible tratar matemáticamente un problema de extensión. Un
filón puede proplongarse más lejos del último nivel de reconocimiento, y
la geología puede aportar argumentos en favor de esta extensión: pero
estos argumentos no son cifrables. Ni la geoestadística, ni ningún
artificio probabilístico pueden reemplazar una información ausente. En el
caso de los filones, es, en efecto, muy raro que los trabajos mineros
alcancen el término del depósito. Los cálculos de rentabilidad que se
hacen en la práctica, no consideran un bloque valor posible más allá del
último nivel. El tonelaje efectivamente reconocido debe justificar, por
si mismo, la puesta en exlotación. Haremos lo mismo en nuestro análisis
teórico.

64
despreciable, la parte más grande de la varianza de estimación, la cual
proviene de la extensión de las secciones (que se supone conocidas) a sus
rebanadas de influencia a tres dimensiones, extensión sobre la cual la
mayor densidad de percutantes queda sin acción.

La geoestadística permite calcular la precisión con la cual las reservas


se conocen a la salida de los trabajos TR1, pero también permite
predecir, de antemano, la nueva precisión cuando se habrá ejecutado la
segunda fase TR2, tal como la tecnología lo impone. Para formular el
problema secuencial, conviene atribuir un valor económico al suplemento
de información aportado por los TR2, y comparar con el costo de los TR2
mismos. Entre todas las decisiones posibles, se deberá elegir aquella que
proporcione el mayor valor probable del beneficio futuro (4) en el punto
C (es decir, sin tener en cuenta los gastos anteriores, pero teniendo en

4
Dejaremos voluntariamente abierta la pregunta de saber si el beneficio
debe, o no, ser actualizado. En una economía colectivista, sin duda que
no se actualizaría. En economía competitiva, el razonamiento de la
primera parte, aún se aplica, al menos teóricamente: una gran sociedad,
que se fija como objetivo de producir cada año una cantidad ada de metal
al menor costo, debería buscar el mínimo de la suma de los gastos anuales
los cuales contienen los gastos de explotación, las inversiones para
reemplazar los yacimientos que llegan a su agotamiento ese año, y los
trabajos de reconocimiento para preparar el reemplazo de los depósitos
que se agotarán los años próximos. Este punto conduciría, en buena
lógica, a adoptar la expresión no actualizada del beneficio en la
optimización secuencial de los traabajos de reconocimiento (por otra
parte, correlativamente, el parámetro b no correspondería al precio de
mercado, sino más bien a un precio interno, definido, por la Sociedad de
manera, precisamente, de optimizar su programa de producción global).

Este razonamiento nos parecía peremtorio, en el caso del estudio de la


optimización técnica realizada en las dos primeras partes, porque
conducía a una descripción correcta del comportamiento de los
explotadores. Al contrario, en la optimización secuencial, el
comportamiento real de los explotadores en economía competitiva,
corresponde a una tasa no nula. En efecto, se busca, un criterio de
decisión relativo a una puesta en explotación eventual, y – en economía
competitiva – se decide explotar un depósito cuando el valor actualizado
del beneficio futuro es positivo. Entonces utilizaremos la expresión (9),
la cual corresponde a un beneficio correspondiente a una tasa i no nula.
Será extremadamente fácil pasar al caso i=0 al reemplazar en los
resultados obtenidos, las exponenciales e-iN por la unidad, y las
expresiones (1-e-iN)/i por N.

Los economistas dan, con razón, gran importancia a la elección del


criterio adoptado. Además de la expresión (9) del beneficio, actualizado
o no, otros criterios pueden ser utilizados, los cuales conducen a
prácticas más o menos malthusianas y a diversas variedades de “floreo”.
Por ejemplo el punto de vista estrictamente economicista se fijaría como
objetivo maximizar la razón Bi/I. Igualmente, el punto de vista, un poco
ingenuo del técnico puro conduciría a minimizar los costos del kilo de
metal, etc... De una manera general, J. Lesourne, [10] indica que las
razones, tales como B/I, constituyen malos criterios económicos. En el
problema que nos ocupa, la única elección posible consiste en hacer, o no
hacer, i=0, en la expresión (9) del beneficio.

65
cuenta, para la tercera decisión, el costo de la segunda fase de
reconocimientos TR2, dado que en C, TR2 no ha sido ejecutado).

5-3-2 La relación de aditividad.

Supongamos que, después de una primera fase de trabajos, hemos llegado al


punto crucial C de la figura 1. Disponemos entonces de una primera
estimación Z* de la magnitud Z que nos interesa ( tonelaje o ley del
depósito). Si decidimos hacer una segunda fase de trabajos de
reconocimiento, estos trabajos no serán implantados al azar, sino que
ocuparán una posición geométrica preferencial relativa a los trabajos de
la primera fase (se centrará la malla de los sondajes, se trazará un
nivel suplementario en la altura media entre dos galerías existentes,
etc...). Designemos por Y* la estimación a la cual nos conducirían los
trabajos de la segunda fase si ellos existieran solos (es decir si los
trabajos de la primera fase no existieran), e introduzcamos las varianzas
y la covarianza siguientes:

⎧σ 12 = D 2 ( Z1 − Z )
⎪⎪ 2
⎨σ y = D (Y − Z )
2 *


⎪⎩σ 1, y = E[( Z1 − Z )(Y − Z )]
*

las cuales solo dependen del variograma y de la geometría de los


trabajos. A la salida de la segunda fase (si decidimos ejecutarla),
dispondremos en realidad de los resultados de las dos fases de trabajos,
entonces formaremos el estimador Z*2 que realiza el krigeado de Z a partir
de Z*1 y de Y*, es decir:

Z 2 = λY * + (1 − λ ) Z *

La varianza de estimación de Z por Z*2 es:

D 2 ( Z 2* − Z ) = λ 2σ y2 + 2λ (1 − λ )σ 1, y + (1 − λ ) 2 σ 12

se minimiza para:

σ y2 − σ 1, y σ y2 − σ 1, y
λ= 2 =
σ 1 + σ y2 − 2σ 1, y D 2 ( Z1* − Y * )

y vale entonces:

(15) σ 22 = D 2 ( Z 2* − Z ) = σ 12 − λ 2 D 2 ( Z1* − Y * )

Introduzcamos la varianza:

D 2 ( Z1* − Z 2* ) = λ 2 D 2 ( Z1* − Y * )

66
que representa el error que se comete al estimar el futuro estimador Z*2
(el estimador que se formará una vez efectuada la segunda fase) con la
ayuda del resultado Z*1 de los primeros trabajos. La relación (15) se
escribe:

(16) D 2 ( Z1* − Z 2* ) = σ 12 − σ 22

Así, la varianza D2(Z*1-Z*2) representa exactamente la ganancia de


información que deben aportar los nuevos trabajos, y la geoestadística
permite calcularla antes que la segunda fase sea realizada (debido a que
solo depende del variograma y de la geometría de los trabajos). Entonces,
basta con encontrar el equivalente económico de esta ganancia de
información para realizar la optimización secuencial: se efectuará, o no,
la segunda fase de trabajos según que el valor económico del suplemento
de información que esta fase aporte sobrepase, o no, el costo de su
ejecución.

En la bibliografía ya citada, se encontrará la formulación de este


problema en el caso general en el cual intervienen los dos, el tonelaje y
la ley. Nos contentaremos aquí de tratar el caso simple en el cual la ley
interviene sola.

5-3-3 Caso en el cual solamente interviene la ley

Sea el caso en el cual el tonelaje T del depósito puede ser considerado


como conocido con una aproximación suficientemente buena como que la
rentabilidad solo dependa de la ley media (desconocida) Z del depósito:
Si m0 representa la ley límite (límite de rentabilidad, y no ley de
corte: el depósito será explotado o no según que se tenga Z ≥ m0 o Z <
m0), el beneficio futuro (si se explota) puede ponerse en la forma:

B = bT ( Z − m0 )

Designemos por B1 , B2, B3 el beneficio correspondiente a cada una de las


tres decisiones posibles: abandonar el depósito (B1), explotar
inmediatamente (B2), postergar la decisión y ejecutar una segunda fase de
trabajos de reconocimiento (B3).

En los dos primeros casos, se tiene, evidentemente:

E ( B1 ) = 0
(17)
E ( B2 ) = bT ( Z1* − m0 )

Se ve que – como era de esperar – que si la elección solo se limitara a


las dos primeras opciones, se explotaría o no, según que los trabajos de
la primera fase proporcionaran un resultado Z*1, mayor o no, que la ley
límite m0.

El cálculo de E(B3) es un poco más complejo. Pongámonos imaginariamente


en el punto crucial C’, y anticipemos los resultados que deben
proporcionar los trabajos de la segunda fase. En C’, se decidirá explotar
si Z*2 ≥ m0 (los trabajos de la segunda fase ya fueron realizados, su

67
costo no debe influenciar esta decisión), y la esperanza del beneficio,
(después de C’) será entonces:

bT ( Z 2* − m0 )

Si al contrario, se tiene

Z 2* < m0

se abandonará el depósito y la esperanza será nula. Designemos por:

G ( z ) = P ( Z 2* < z )

la probabilidad (evaluada en el punto crucial C) para que los trabajos de


la segunda fase (no realizada aún) conduzcan a una estimación Z*2 inferior
a z, y por R el costo de los trabajos de la segunda fase (que no son aún
ejecutados en C, y deben entonces ser considerados en la contabilidad).
Se ve que se tiene:


(18) E ( B3 ) = bT ∫ ( z − m0 )dG ( z ) − R
m0

La comparación de E(B1), E(B2), E(B3) – fórmulas (17) y (18) - permiten


entonces adoptar la mejor decisión en el punto C.

Observación. En realidad no se conoce la ley de probabilidad G(z) de la


variable Z*2. Se sabe solamente que en el punto crucial C Z*2 admite la
esperanza Z*1 y la varianza D2(Z*2-Z*1) la cual se sabe calcular por los
métodos de la geoestadística: esta varianza es justamente la que, según
(16), mide la ganancia de información que aportaría la segunda fase de
trabajos. En las aplicaciones, se podrá obtener siempre un orden de
magnitud numérico, suponiendo, por ejemplo, que G(z) es una ley de Gauss
(o una ley lognormal, o cualquier otra ley de probabilidad que dependa de
dos parámetros) la cual tiene una esperanza Z*1 y una varianza D2(Z*2-Z*1).

Ejemplo: Para ilustrar estas diversas fórmulas, nos daremos un ejemplo


numérico. Un depósito de Plomo-Zinc ha sido reconocido por trabajos
mineros y de superficie. El tonelaje es de 400.000 toneladas. Es posible
que exista un bloque valor pero no se tomará en cuenta. El valor fino
equivalente del Pb, del Zn y del Ag contenidos en una tonelada de mineral
ha sido estimado como (5) a 3,000 unidades monetarias, de manera que
estamos exactamente en el caso marginal. Considerando la incertidumbre de
los precios futuros, haremos los cálculos para tres valores diferentes de
m0, es decir 2,700, 3,000 y 3,300. La ley media se conoce con una
desviación estándar σ1=0.15. Una segunda campaña de reconocimiento, la
cual consistiría en poner un nivel intermedio, costaría 40 millones, y

(5) Como hay varios metales, es más simple razonar directamente sobre
los valores finos contenidos, y no sobre las leyes.

68
proporcionaría una nueva (6) desviación estándar σ2=(1/2)σ1. Se deduce
entonces la desviación estándar σ de la estimación de m2 a partir de m1:

3 2
σ 2 = σ 21 − σ 12 = σ 1 = 0.13
2
El cálculo de las esperanzas (17) y (18) para los tres límites de
explotabilidad conduce a los resultados numéricos siguientes (en unidades
monetarias), razonando en el caso de una ley lognormal:

m0 2,700 3,000 3,300

E(B1) 0 0 0

E(B2) +120 0 -120

E(B3) 136-40=+96 56-40=+16 20-40=-20

Si la ley límite se fija en 2,700 unidades monetarias, se debe explotar


inmediatamente. Si es de 3,000, es decir exactamente el caso marginal,
existe una ventaja, teóricamente no nula, pero numéricamente bastante
débil (16 millones), al hacer una segunda campaña de reconocimiento. Esta
circunstancia es bastante general: en el caso exactamente marginal la
información aportada por los trabajos suplementarios presenta el máximo
de interés. Este interés decrece bastante rápido cuando nos alejamos del
caso marginal por exceso o por defecto. Cuando estamos prácticamente
seguros que la ley real es superior (o inferior) a la ley límite de
rentabilidad, se decide explotar (o cerrar), y la necesidad de hacer
nuevos trabajos no se hace sentir.

(6) Se supone que estamos en la zona lineal del variograma, de manera que
la nueva varianza es igual a un cuarto de la antigua.

69
6 EJERCICIOS

6-1 EJERCICIOS SOBRE LOS METODOS TRANSITIVOS.

Ejercicio 1. (Covariograma exponencial). Sea en el espacio de una


− λ |h|
dimensión, una V. R. cuyo covariograma transitivo es g ( h) = e . Formar
2
la expresión exacta de la varianza de estimación σ (a), encontrar su
parte principal, y concluir, en ausencia de Zitterbewegung.
⎛ 2 2 ⎞ 1 2
σ 2 (a) = a ⎜ −1− ≈ λa )
λ a ⎟⎠ 6
(solución: −λa
⎝ 1− e
Ejercicio 2. (Covariograma triangular). Sea en el espacio de una
dimensión la V. R. f(x) igual a 1 en el intervalo (0,b).

1/ Formar el covariograma de f(x). (solución: g(h)=b-|h| para |h|<b y 0


para |h|≥b; establecer este resultado por un razonamiento geométrico).

2/ Calcular la varianza de estimación para una malla a pequeña, mediante


la fórmula de aproximación. (solución: (1/6)a2).

3/ Se dispone de n+2 sondajes S0, S1, S2, ...,Sn, Sn+1 en una malla regular,
en la cual el primer y el último sondaje son negativos y los otros
positivos. Se admite que cada una de las dos extremidades del intervalo
del cual se quiere estimar la longitud b puede caer en cualquier parte
del segmento (S0, S1) y (Sn, Sn+1) respectivamente, de manera independiente
una de la otra, con una densidad uniforme. La longitud b es entonces una
variable aleatoria. Probar que E(b)=na; D2(b)=a2/6: se encuentra bien la
varianza de estimación tal como la proporciona la fórmula de
aproximación, pero no se obtiene el término fluctuante.

d/ Calcular el valor exacto de la varianza de estimación de b/

(Solución: poner b=na+εa con 0≤ε<1. Si la primera muestra positiva es en


x (0≤x<a), se tiene la estimación (n+1)a para x≤εa, y na para εa<x<a. El
punto x está implantado al azar en el segmento (0,a) con una densidad
uniforme de probabilidad. Esta estimación es una variable aleatoria de
esperanza b y de varianza (ε-ε2)a. Esta expresión considera el
Zitterbewegung. Cuando ε (el cual, en la práctica, es siempre
desconocido) es asimilado a una variable aleatoria, con distribución
uniforme en (0,1), el valor medio de esta expresión coincide con la
expresión aproximada de b/ (en la cual se excluye en Zitterbewegung).

Ejercicio 3. (Varianza de estimación en el caso aleatorio) – Sea, en el


espacio de dos dimensiones una V.R. f(x) de covariograma g(h) y de
soporte S. Si el rectángulo de malla (a1, a2) es grande respecto de S, a
lo más, un solo sondaje es positivo, y todo sucede como si esta muestra
única fuera sorteada al azar dentro de un rectángulo de lados a1, a2
conteniendo S. Si la muestra cae en un punto x ∈ S , se toma el estimador
Q*(x)=a1a2f(x), y 0 si x ∉ S . Q*(x) es así una variable aleatoria. Probar
directamente que:

70
E (Q* ) = ∫ f ( x)dx

E ((Q* ) 2 ) = a1a2 ∫ ( f ( x) ) dx
2

D 2 (Q* ) = a1a2 g (0) − ∫ g (h)dh

Ejercicio 4. (covariograma transitivo de la esfera). Encontrar el


covariograma K(h) de una esfera de diámetro D en R3.

π D3 ⎛ 3 | h | 1 | h |3 ⎞
(Solución: K ( h) = ⎜1 − + ⎟ para h ≤ D.
6 ⎝ 2 D 2 D3 ⎠

Partir de la relación:

π
K ' ( h) =
4
(D 2
− h2 )

π
e integrar, observando que g (0) = D 3 ). Aplicación a la estimación del
6
volumen de esta esfera.

6-2 EJERCICIOS SOBRE LAS F. A. INTRINSECAS.

Ejercicio 1. Se elige al azar un origen x0 en (0,a), luego se divide la


recta en segmentos de longitud a mediante los puntos de subdivisión x0+ka
(k entero, positivo o negativo). Sea Y(x) la F.A. que toma en cada uno de
estos segmentos de longitud a un valor aleatorio constante Y, sorteado al
azar de manera independiente de un segmento a otro, según una ley de
probabilidad de media m y de varianza σ2. Probar que la probabilidad de
que dos puntos x y x+h pertenezcan al mismo segmento es 1-|h|/a para
|h|≤a y 0 para |h|>a. Deducir el variograma de Y(x) (Solución: |h|σ2/a
para |h|≤a y σ2 para h>a).

Ejercicio 2. La misma pregunta que en el ejercicio precedente, pero las


longitudes de los segmentos sucesivos siguen la misma ley exponencial
exp(-λl) (dicho de otra manera, los puntos de discontinuidad constituyen
un proceso de Poisson)
(Solución: la probabilidad para que x y x+h estén en el mismo segmento es
exp(-λh). Se deduce: γ(h)=σ2(1-exp(-λh))).

Ejercicio 3. Se considera el variograma hλ (0<λ<2) en el espacio de una


dimensión. Calcular las funciones auxiliares χ y F, la varianza de
extensión elemental de un punto a su segmento de influencia (dispositivo
centrado), la varianza de extensión a este segmento del promedio de sus
dos extremidades (dispositivo cerrado). Comparar y discutir.

71
hλ 2h λ
χ ( h) = ; F ( h) =
λ +1 (λ + 1)(λ + 2)
2a λ ⎡ 1 1 ⎤ ⎡ 2 1⎤
⎢ λ
− ⎥ ; aλ ⎢ − ⎥
λ +1 ⎣ 2 λ + 2 ⎦ ⎣λ + 2 2⎦

Se tiene: σ2E>σ2E’, para λ>1 e inversamente, con igualdad para λ=1: para
λ>1, alta continuidad y la muestra única pero bien ubicada es superior a
las dos muestras mal ubicadas; para λ<1, estamos próximos del caso
aleatorio puro, y las dos muestras, a pesar de estar mal ubicadas,
proporcionan siempre mejores resultados que la muestra única; para λ=1
los dos dispositivos son equivalentes.

Ejercicio 4. – Con el variograma hλ en el espacio de una dimensión,


calcular la varianza de estimación del segmento L=na, por n muestras
puntuales, en los tres casos siguientes:

• malla regular (dispositivo centrado)

1 2a λ ⎡ 1 1 ⎤
⎢ −
n λ +1 ⎣ 2 λ
λ + 2 ⎥⎦

• malla aleatoria estratificada

1 2a λ
n (λ + 1)(λ + 2)

• malla aleatoria pura

1 2 Lλ
n (λ + 1)(λ + 2)

Ejercicio 5. Sea, en el espacio de dos dimensiones, el variograma rλ. Sea


un depósito reconocido líneas de longitudes superiores a su equidistancia
h.
a/ Calcular la varianza de extensión de una línea de largo l en su
rectángulo lxh de influencia.
(Solución: la subida bajo potencia constante l transforma rλ en Arλ+1/l (o
a log(r) en πr/l); de donde:

2 ⎡ 1 1 ⎤ h1+ λ h1+ λ
σ E2 = A − = B
λ + 2 ⎢⎣ 21+ λ λ + 3 ⎥⎦ A A

b/ deducir la varianza de estimación (ponderar por los cuadrados de las


longitudes de las líneas, poner L=Σli y S=Lh, poner entonces la varianza
de estimación en la forma:

S 1+ λ
B
L2+ λ

72
Ejercicio 6. Mismo problema que en 5, pero se supone que además las
líneas están estimadas a partir de muestras (canaletas) a la malla a.
Calcular el término de línea.

(Solución:

C 1+ λ 2 ⎡1 1 ⎤
a con C = − )
L λ + 1 ⎣ 2 λ + 2 ⎥⎦
⎢ λ

Optimización económica: sea w el costo del metro de galería, p0 el costo


de una muestra, y l0=p0/w. Optimizar la precisión si el presupuesto de
reconocimiento es fijo, o, lo que es lo mismo, optimizar el costo de
reconocimiento si la precisión es fija.
(Solución: Todo consiste en minimizar Cha1+λ+Bh2+λ con la condición
1/(hl0)+1/(ha)=C. Se obtiene la relación siguiente:

a 2+λ
B (2 + λ )h1+ λ = λ Ca1+ λ + C (1 + λ )
A0

que proporciona la equidistancia h de los niveles en función de la malla


de canaletas.

Ejercicio 7: Efecto de pepita al estado puro – Sean pepitas puntuales


distribuidas en el espacio según un esquema de Poisson (definición: el
número N(v) de pepitas en un volumen v es una variable de Poisson de
media λv; si v y v’ son disjuntos, N(v) y N(v’) son independientes).

a/ Se toman volúmenes v, y se pone Y(x)=N(vx) en que vx representa el


trasladado de v implantado en el punto x. Probar que la covarianza de
Y(x) e Y(x+h) es la varianza de N(vx∩vx+h), es decir λK(h), siendo K(h) el
covariograma geométrico del volumen v.
b/ Se supone ahora que las pepitas tienen pesos aleatorios independientes
(con media p0 y varianza σ2p, y se toma para Y(x) la suma P1+P2+...+PN de
los pesos de los N=N(vx ) pepitas contenidas en v. Calcular la media y la
varianza de Y(x) (solución: E(Y)=λvp0, D2(Y)=λv(p20+σ2p)). Deducir la
covarianza de Y(x) e Y(x+h) (reemplazar v por K(h)).

Ejercicio 8: Esquema de dilución. – Se tienen gérmenes poissonianos como


en el ejercicio 9. Sea f(x) una función. Se pone:

Y ( x) = ∑ f ( x − xi )
i

en que xi representa las implantaciones de los diferentes gérmenes. Se


trata entonces de una dilución de estos gérmenes por la función f.

Encontrar la covarianza K(h) de Y(x) e Y(x+h) ( λ g (h), con g = f ∗ f ).
(Hay que limitarse al caso en que f es a soporte compacto, considerar dos
puntos x0 y x0+h y un domino acotado V que contiene los trasladados por x0
y x0+h del soporte de f. Se razonará suponiendo que el número n de puntos
poissonianos caídos en V es fijo, luego se des-condicionará en n).

73
Ejercicio 9: Esquema esférico de una dimensión – Calcular las funciones
auxiliares del esquema esférico:

3 A 1 A3
γ (A ) = − para A ≤ a 1 para A ≥ a
2 a 2 a3
3 A 1 A3 3a
χ (A ) = − 3
para A ≤ a 1 − para A ≥ a
4a 8a 8A
1 A 1 A3 3 a 1 a2
F (A ) = − para A ≤ a 1 − + para A ≥ a
2 a 20 a 3 4 A 5 A2
b/ Varianza de extensión elemental de una muestra en su segmento b de
influencia, para b≤a y b≥2a . Interpretar.

⎛1 b 3 b3 3 a 1 a2 ⎞
⎜ + 3
y 1− − ⎟
⎝ 4 a 160 a 4 b 5 b2 ⎠

6-3 EJERCICIOS SOBRE EL KRIGEADO (7).

Ejercicio 10 (Krigeado de un segmento de longitud l) a/ Se tiene en la


recta una F.A.I. sin deriva cuyo variograma es γ(h) y cuatro puntos de
muestreo: x1, x2=x1+l, x3=x2+l, x4=x3+l. Se desea krigear el segmento
(x2,x3) de longitud l a partir de los valores Z1, Z2, Z3, Z4 de la
realización en x1, x2, x3, x4. Escribir el sistema (3-17) utilizando las
funciones auxiliares χ y F del párrafo 2-5-2.
(Solución: probar que λ1 = λ4 = λ/2, λ2 = λ3 = (1-λ)/2, lo cual es evidente
por simetría, con λ solución del sistema:

λ 1− λ λ
γ (l ) + γ (l ) + γ (2l ) = χ (l ) + µ
2 2 2
1− λ 1− λ λ
γ (l ) + γ (2l ) + γ (3l ) = 2 χ (2l ) − χ (l ) + µ
2 2 2

y eliminar el parámetro de Lagrange µ, de donde:

⎡1 1 ⎤ 1
λ ⎢ γ (3l ) − γ (2l ) − γ (l ) ⎥ = 2 χ (2l ) − 2 χ (l ) − γ (2l )
⎣2 2 ⎦ 2

b/ Aplicar al caso γ(h)=|h|α, 0 ≤ α < 2 , e interpretar.

(Solución: utilizar el ejercicio 5 del capítulo 2. Se encuentra:

4
2α − (2α − 1)
λ= α +1
1 + 2α +1 − 3α

(7) Estos ejercicios fueron agregados por el traductor. Curiosamente, en


este fascículo, no hay ejercicios sobre el krigeado)

74
Para α=0, λ=1/2 (efecto de pepita puro, el estimador óptimo es la media
aritmética de las 4 muestras). Cuando α aumenta, λ decrece, se anula para
α=1 (propiedad markoviana del variograma lineal) y es negativo para
1<α<2: para α>1, la realización presenta buenas propiedades de
continuidad y el dibujo adjunto hace comprender que, para
(Z1+Z4)/2<(Z2+Z3)/2 (por ejemplo), el estimador debe ser mayor que
(Z2+Z3)/2, luego λ<0:

(comparar con el ejercicio 12 del capítulo 4)

Ejercicio 11 (Yacimiento reconocido por dos sistemas de líneas)- Sea un


yacimiento reconocido por dos redes regulares de galerías paralelas a dos
direcciones perpendiculares.

Sean ZM y ZT las leyes medias de las líneas, sea Z la ley media desconocida
del yacimiento y sean σ2T = D2(Z-ZT) y σ2M = D2(Z-ZM) las varianzas de
estimación del yacimiento por las solas líneas horizontales y las solas
líneas verticales respectivamente. Se admite que (lo cual es verdadero
con una buena aproximación) E[(Z-ZM)(Z-ZT)]=0.

a/ Probar que el estimador óptimo (krigeado) de Z es Z*=λZM+(1-λ)ZT con:

σ T2
λ=
σ + σ M2
2
T

(ponderación por el inverso de las varianzas de estimación respectivas) y


que la varianza correspondiente es:

σ M2 σ T2
σ T2 + σ M2

75
(Solución: los ponderadores son de la forma λ y 1-λ debido a la condición
que los pesos suman 1. Partir luego de:

D 2 ( Z − Z * ) = D 2 [λ ( Z − Z M ) + (1 − λ )( Z − ZT )] = λ 2σ M2 + (1 − λ ) 2 σ T2

y minimizar en λ.

76
BIBLIOGRAFIA.

[1] CARLIER, A. Contribution aux méthodes d’estimation


des gisements d’uranium. Tesis.
Fontenay aux Roses, 1964

[2] FORMERY, Ph. Cours de Géostatistique. Ecole des


Mines de Nancy, 1965 (no publicado).

[3] MATHERON, G. Traité de Géostatistique Appliquée.


Tomo 1 (1962), Tomo 2 (1963).
Ediciones Technip, París.

[4] MATHERON, G. Les Variables Régionalisées et leur


estimation (Tesis). Masson, París,
1965.

[5] MATHERON, G. Osnovy Prikladnoï Geostatistiki.


Ediciones MIR, Moscú, 1968.

[6] MATHERON, G. Le Krigeage Universel. Les Cahiers du


Centre de Morphologie Mathématique,
Fascicule 1, Fontainebleau, 1968.

[7] SERRA, J. Echantillonage et estimation locale


des phénoménes de transition miniéres.
Tesis. Nancy, 1967.

[8] FORMERY, Ph. y Matheron, G. Recherche d’optima dans la


reconnaissance et la mise en
exploitation des gisements miniers.
Annales des Mines, Mayo y Junio 1963.

[9] BLONDEL, F. Evolution de la notion de réserves


dans l’Industrie Minérale. –Freiberg,
1959.
[10] LESOURNE, J. Technique Economique de Gestion
Industrielle. – Dunod, París.

77

Você também pode gostar