Você está na página 1de 333

INSTITUTO POLITCNICO NACIONAL

CENTRO DE INVESTIGACIN EN COMPUTACIN

MEDICIN DE LA PREDICTIBILIDAD DE SERIES


DE TIEMPO: UN ESTUDIO EXPERIMENTAL

Tesis que para obtener el grado de:

Doctor en Ciencias de la Computacin


presenta el:

M. en C. Ernesto Francisco Bautista Thompson


Director de Tesis
Dr. Jess Guillermo Figueroa Nazuno

Mxico, D. F., Abril 2005

Dedicatoria
Le dedico esta tesis a mis Padres Ernesto y Rosita, primero
por todos los buenos valores que me inculcaron y me
prepararon para salir adelante en la vida, y segundo por todo
el sacrificio y esfuerzo en darme una educacin y permitirme
seguir mi bsqueda de conocimientos apoyndome
incondicionalmente en los buenos y malos ratos del difcil
camino de un estudiante de postgrado. Sin su apoyo, esta
tesis que es la culminacin de mi larga jornada de estudios no
hubiese sido posible. Ahora iniciare una nueva jornada,
donde tengo la seguridad que les seguir dando
satisfacciones y alegras, gracias por todo su amor.
A mi amor y luz Fabiola, gracias por todo tu amor y apoyo
incondicional, has trado un nuevo sentido a mi vida, gracias
por ser como eres.
A la familia Arias-Thompson, a la ta Ada por apoyarme de
muchas formas durante tantos aos en esta enorme Ciudad
de Mxico, va tambin por el to Santiago (q. e. p. d.) siempre
recuerdo con afecto sus sabrosas platicas de sobremesa.
A mis amigos de siempre: Adrin Arturo, Luis Eduardo,
Carlos, Manuel, Marco, Martn y Vctor, por escucharme
siempre en los buenos y malos ratos de mis estudios de
postgrado, y por todos los buenos momentos que hemos
pasado juntos.

Agradecimientos
Agradezco a mi Asesor el Dr. Jess Figueroa Nazuno por
estos cuatro aos de fructfera colaboracin, el compartir sus
conocimientos conmigo y sobre todo su amistad.
A todos los compaeros del grupo de investigacin presentes
y pasados, de cada uno aprend algo valioso.
A todos los compaeros del grupo con los que colabore y
cuyas contribuciones ayudaron a construir la presente tesis,
muchas gracias!
Agradezco en forma especial a mi amigo y colega Hugo
Jimnez Hernndez por brindarme su amistad y apoyo
incondicional, gracias por todo!
A los miembros de mi comit de tesis por todas sus valiosas
sugerencias y comentarios que enriquecieron la presente
tesis, gracias!
Agradezco al Centro de Investigacin en Computacin del
Instituto Politcnico Nacional, por el apoyo recibido en todos
los aspectos y en especial de parte de todo su personal que
facilitan a los estudiantes el diario trabajo, y por su esfuerzo
en la formacin de nuevos investigadores en computacin
que nuestra querida patria tanto necesita.
Finalmente, le agradezco al Instituto Politcnico Nacional el
apoyo recibido para la realizacin de mis estudios, tanto en lo
acadmico como en lo econmico mediante la Beca
Institucional del IPN.

Resumen
En este trabajo se presenta un estudio experimental sobre la
predictibilidad de series de tiempo. Se caracterizan series de tiempo
de orgenes diversos y se evalan con una metodologa estndar
diferentes modelos de prediccin y tambin de modelado. Se
construyen mtricas para medir la predictibilidad de series de tiempo y
la capacidad de los modelos para la prediccin o el modelado. Se
investiga la relacin de la predictibilidad con respecto al
comportamiento dinmico de las series de tiempo, su relacin con las
estructuras que dicho comportamiento genera en las series de tiempo
y la relacin de los parmetros dinmicos con los que se calcula la
predictibilidad, con los modelos para prediccin o modelado. Los
resultados muestran que hay una relacin no lineal entre la
predictibilidad y el comportamiento dinmico de las series de tiempo; y
que existe una relacin entre la estructura de las series de tiempo y su
predictibilidad, expresada por medio de patrones de estructura
bsicos. En cuanto a los modelos, no se encontraron patrones
comunes de respuesta con respecto a los diferentes parmetros que
caracterizan la dinmica de las series. Finalmente, explotando las
diferencias entre los modelos para predecir a las series de tiempo, se
desarrollaron y evaluaron con xito dos nuevas tcnicas para la
combinacin de modelos de prediccin: GABoost y CombFEC, que
permiten la mejora de los resultados de la prediccin de series de
tiempo.

Abstract
In this work a experimental study about the time series predictability is
presented. Time Series from different origins are characterized, and
different models for forecasting and modeling are evaluated with a
standard methodology. Metrics for the measurement of time series
predictability, and for the measurement of model capability for
forecasting and modeling are constructed. An investigation is done
about the relationship between the predictability and the dynamical
behavior of time series, the relationship between the structures
generated by this behavior and the predictability, and the relationship
between the dynamical parameters used to calculate the predictability
and the models used in forecasting or modeling. The results show that
there is a non linear relationship between the predictability and the
dynamical behavior of the time series, and there is a relationship
between the structure of time series and its predictability, expressed
through basic structural patterns. About the models, no common
patterns of response related with the different parameters that
characterize a time series were found. Finally, exploiting the
differences between the models for time series forecasting, two new
techniques for model combination: GABoost and CombFEC, were
developed and evaluated successfully, these techniques allows the
improvement of the time series forecasting results.

Contenido
I

Conceptos Fundamentales

1 Introduccin

1.1

Motivacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.2

Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1.3

Contribucin Original de la Tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

1.4

Que no se Estudia en este Trabajo (Acotacin de la Tesis Doctoral) . . . . . . . 14

1.5

Desarrollo de la Tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2 Marco Conceptual de la Prediccin de Series de Tiempo


2.1

18

Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

2.2 Sistemas de Origen Natural y Artificial . . . . . . . . . . . . . . . . . . . . . . . . 20


2.3

Series de Tiempo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21

2.4

El Problema de Prediccin de Series de Tiempo . . . . . . . . . . . . . . . . . . . 24

2.5

El Modelo de Prediccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25

2.6

Limitaciones de los Modelos y del Proceso de Prediccin . . . . . . . . . . . . . . 25

2.7

Predictibilidad de Series de Tiempo . . . . . . . . . . . . . . . . . . . . . . . . . 26

2.8

Patrones de Predictibilidad en Series de Tiempo . . . . . . . . . . . . . . . . . . 27

3 La Predictibilidad de Series de Tiempo: Estado del Arte

29

3.1

Antecedentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

3.2

Estado del Arte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

3.3

Discusin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

4 Tcnicas para el Anlisis de Series de Tiempo

38

4.1

Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

4.2

Estadsticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39

4.3

4.2.1

Anlisis Estadstico Clsico . . . . . . . . . . . . . . . . . . . . . . . . . . 39

4.2.2

Anlisis Estadstico Moderno . . . . . . . . . . . . . . . . . . . . . . . . . 41

Anlisis de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
4.3.1

4.4

Anlisis Espectral Singular (SSA) . . . . . . . . . . . . . . . . . . . . . . . . . . . 45


4.4.1

4.5

4.6

Anlisis de Componentes Principales . . . . . . . . . . . . . . . . . . . . . 46

Teora de Sistemas Dinmicos No Lineales . . . . . . . . . . . . . . . . . . . . . . 48


4.5.1

Exponentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

4.5.2

Dimensiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

4.5.3

Anlisis de Mapas de Recurrencia (VRA) . . . . . . . . . . . . . . . . . . 52

Teora de la Informacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
4.6.1

4.7

Frecuencia Dominante . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

Entropas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57

Teora de la Computacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
4.7.1

Complejidad Relativa LZ . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

4.7.2

Anlisis de Gramticas (Reglas de Produccin) . . . . . . . . . . . . . . . 59

5 Tcnicas de Prediccin y de Modelado de Series de Tiempo

61

5.1

Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61

5.2

Tcnicas de Prediccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

5.3

5.2.1

Tcnicas Estadsticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

5.2.2

Tcnicas de Inteligencia Artificial . . . . . . . . . . . . . . . . . . . . . . . 63

5.2.3

Tcnicas de Teora de Sistemas Dinmicos No Lineales . . . . . . . . . . . 68

Tcnicas de Modelado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
5.3.1

Tcnicas Estadsticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70

5.3.2

Tcnicas de Inteligencia Artificial . . . . . . . . . . . . . . . . . . . . . . . 72

5.3.3

Tcnicas de Teora de Sistemas Dinmicos No Lineales . . . . . . . . . . . 79

6 Tcnicas para el Anlisis de Conjuntos de Datos Multivariados

II

81

6.1

Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81

6.2

Mapas Auto Organizados (SOM y GHSOM) . . . . . . . . . . . . . . . . . . . . . 82


6.2.1

SOM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82

6.2.2

GHSOM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

6.3

Anlisis con Escalamiento Multidimensional (MDS) . . . . . . . . . . . . . . . . . 86

6.4

Anlisis de Correlacin Bivariada . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

Predictibilidad de Series de Tiempo

94

7 Clculo de Parmetros de las Series de Tiempo

95

7.1

Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 95

7.2

Descripcin del Conjunto Experimental de Series de Tiempo . . . . . . . . . . . . 95

7.3

Parmetros de las Series de Tiempo . . . . . . . . . . . . . . . . . . . . . . . . . 101

7.4

Datos Experimentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 121

7.5

Discusin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122

8 Evaluacin de Tcnicas de Prediccin y de Modelado de Series de Tiempo 123


8.1

Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

8.2

Mtodo Experimental . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124

8.3

Resultados Experimentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130

8.4

8.3.1

Tcnicas de Prediccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130

8.3.2

Tcnicas de Modelado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137

Discusin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144

9 Mtricas de la Predictibilidad de Series de Tiempo y Coeficientes de Capacidad para Prediccin y Modelado

149

9.1

Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149

9.2

Mtricas de la Predictibilidad de Series de Tiempo . . . . . . . . . . . . . . . . . 150


9.2.1

Ortogonalidad de los Parmetros . . . . . . . . . . . . . . . . . . . . . . . 150

9.2.2

Mtrica Coeficiente de Complejidad de Prediccin (CCOP) . . . . . . . . 156

9.3

9.2.3

Mtrica de Predictibilidad con 9 Parmetros (CDP1) . . . . . . . . . . . . 158

9.2.4

Mtrica de Predictibilidad con 14 Parmetros (CDP2) . . . . . . . . . . . 163

Comparacin de las Mtricas de Predictibilidad . . . . . . . . . . . . . . . . . . . 166


9.3.1

ndice de Dificultad de Modelado (IDM) . . . . . . . . . . . . . . . . . . . 166

9.3.2

Comportamiento de las Mtricas . . . . . . . . . . . . . . . . . . . . . . . 170

9.3.3

Anlisis de Correlacin de las Mtricas . . . . . . . . . . . . . . . . . . . . 176

9.4

Coeficientes de Capacidad de Prediccin y de Modelado . . . . . . . . . . . . . . 178

9.5

Discusin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182

10 Relaciones de la Predictibilidad de Series de Tiempo

183

10.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183


10.2 Agrupamiento de Series de Tiempo en base a Parmetros de Predictibilidad . . . 184
10.3 Relacin Predictibilidad-Estructura de Series de Tiempo . . . . . . . . . . . . . . 187
10.4 Relacin entre las Caractersticas de los Modelos con su Capacidad de Prediccin
o de Modelado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
10.5 Relacin Parmetros de Predictibilidad-Modelos de Prediccin y Modelado . . . 204
10.6 Discusin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219

III

Combinacin de Predictores

223

11 Combinacin de Predictores: Mejorando la Prediccin de las Series de Tiempo224


11.1 Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 224
11.2 Tcnicas Clsicas de Combinacin de Predictores . . . . . . . . . . . . . . . . . . 225
11.3 GABoost: Bsqueda de Pesos con Algoritmo Gentico Cannico para Minimizacin del Error de Prediccin RMSE . . . . . . . . . . . . . . . . . . . . . . . 227
11.3.1 El Algoritmo Boosting . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227
11.3.2 Descripcin del Algoritmo de la Tcnica GABoost . . . . . . . . . . . . . 229
11.3.3 Tcnicas y Series para la Evaluacin de GABoost . . . . . . . . . . . . . . 230
11.3.4 Resultados Experimentales . . . . . . . . . . . . . . . . . . . . . . . . . . 232
11.4 CombFEC: Combinacin de Predictores con una Funcin de Pesos de Error y
Correlacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
6

11.4.1 La Funcin de Pesos de Error y Correlacin . . . . . . . . . . . . . . . . . 249


11.4.2 Descripcin del Algoritmo de la Tcnica CombFEC . . . . . . . . . . . . 250
11.4.3 Resultados Experimentales . . . . . . . . . . . . . . . . . . . . . . . . . . 250
11.5 Discusin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264

IV

Conclusiones

269

12 Conclusiones y Lneas de Trabajo Futuro

270

12.1 Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270


12.2 Lneas de Trabajo Futuro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
13 Apndices

276

13.1 Trabajos Derivados de la Tesis (Artculos, Ponencias, Posters, Seminarios) . . . . 276


13.1.1 Listado de Artculos, Ponencias y Posters . . . . . . . . . . . . . . . . . . 276
13.1.2 Seminarios por Invitacin . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
13.2 Gua sobre las Metodologas Experimentales para la Ca racterizacin de las Series
de Tiempo y de las Tcnicas de Prediccin y Modelado . . . . . . . . . . . . . . 286
13.2.1 Caracterizacin de la Predictibilidad de Series de Tiempo . . . . . . . . . 289
13.2.2 Evaluacin de la Capacidad de Tcnicas para la Prediccin o el Mo delado293
13.3 Anlisis de Gramticas (Pendiente de la Curva como una Medida de Predictibilidad) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 296
13.4 Visualizando los Parmetros Dinmicos de las Series de Tiempo . . . . . . . . . . 300
13.5 Sobre la No Universalidad de los Modelos de Prediccin . . . . . . . . . . . . . . 302
13.6 Comentario sobre los Teoremas No Free Lunch . . . . . . . . . . . . . . . . . . . 309

Parte I

Conceptos Fundamentales

Captulo 1

Introduccin
1.1

Motivacin

Desde los tiempos de Isaac Newton cuando logro formalizar matemticamente el conocimiento
emprico producto de las observaciones experimentales de fenmenos astronmicos, algunas de
ellas sintetizadas en las leyes postuladas por Johannes Kepler, y construir su obra cumbre
Philosophiae Naturalis Principia Mathematica, la prediccin de la dinmica de los sistemas
basndose en la construccin de modelos matemticos, ha sido el camino a seguir en la bsqueda
de entender a los sistemas de la ms diversa naturaleza. Sin embargo, desde el inicio de este
triunfo del ingenio humano se encontraron dificultades tales como la imposibilidad de resolver
el problema de tres cuerpos en interaccin en forma analtica, es decir, se tenia la expresin
matemtica pero no la posibilidad de resolverla en forma exacta, a lo largo de la historia al tratar
de estudiar sistemas cada vez de mayor complejidad, nuevas limitantes han surgido a los mtodos
tradicionales para construir y modelar los sistemas, y nuestra capacidad de predecir la dinmica
de ellos se ha visto limitada, lo que ha motivado el surgimiento de mtodos no tradicionales
para modelar y predecir la dinmica de un sistema, como son los modelos algortmicos los cuales
permiten el anlisis de la dinmica a partir de datos experimentales del sistema, sin necesidad
de construir y resolver un modelo matemtico sobre dicho sistema [1, 2].
El modelado y prediccin de la dinmica de un sistema (de origen natural o artificial) se
encuentra limitado en muchos casos por la dificultad experimental para obtener informacin de
la totalidad de los grados de libertad (variables independientes) que describen dicha dinmica,
9

as como por la dificultad para construir y resolver un sistema de ecuaciones diferenciales no


lineales acopladas que la modelen [3]. En consecuencia, para el estudio de la dinmica del
sistema es necesario recurrir a la bsqueda de metodologas que permitan a partir del anlisis
de informacin parcial, la reconstruccin de su dinmica sin recurrir a modelos fenomenolgicos
basados en la construccin de sistemas de ecuaciones diferenciales. Las tcnicas de anlisis que
estudian los conjuntos de datos conocidos (Series de Tiempo) sobre una o varias variables de un
sistema, son el primer paso para la determinacin de las caractersticas de la dinmica del mismo
y para la seleccin o desarrollo del modelo de prediccin de la serie de tiempo. Hay diferentes
tcnicas de caracterizacin de las series de tiempo, por ejemplo: el anlisis de Fourier y el anlisis
estadstico, cada una de ellas proporciona informacin sobre un aspecto del comportamiento
de las series de tiempo. En la literatura se encuentran pocos trabajos en los cuales se realicen
estudios sistemticos de conjuntos de series de tiempo y adems se exploten diferentes tcnicas
de anlisis que se complementan para caracterizar a las series [4, 5, 6, 7, 8], es posible que en
conjunto los parmetros encontrados, no solo proporcionen una mejor caracterizacin sobre el
comportamiento de las series sino tambin sobre la predictibilidad de las mismas [9, 10]. En
la presente tesis se utilizan los modelos algortmicos para el estudio de la predictibilidad de
series de tiempo, y de esta forma identificar que informacin hay en las series de tiempo, y que
capacidad se tiene para extraer dicha informacin e inferir relaciones a partir de la misma. El
medir y caracterizar la predictibilidad de las series de tiempo contribuye a entender el proceso
de prediccin de la dinmica de los sistemas.
Los modelos de prediccin (predictores), se basan en asumir una relacin entre el dato
predicho y los datos anteriores conocidos (Auto Regresin), an cuando la forma de construir el
modelo puede ser diferente: Estadstica [11, 12], Teora de Sistemas Dinmicos No Lineales (Reconstruccin en el Espacio Fase) [3, 13, 14], Inteligencia Artificial (Redes Neuronales, Support
Vector Machines, etc.) [15, 16, 17, 18, 19, 20]. Existen reportadas en la literatura especializada
el desarrollo de diferentes tcnicas de prediccin y modelado [17, 21, 22, 23, 24, 25, 26], donde se
aplican diversas mtricas para cuantificar el error de la prediccin o del modelado y se utilizan
diferentes series de tiempo en la evaluacin de las tcnicas, dichas series son aquellas para las
que generalmente el modelo fue desarrollado ex-profeso [14, 24, 27, 28]. En la literatura no
se reportan los fracasos de las tcnicas de prediccin, los cuales tambin son importantes para

10

entender mejor las limitaciones de las tcnicas evaluadas. An cuando hay diversos trabajos
de investigacin y reportes de competencias, donde se presenta la comparacin de diferentes
modelos de prediccin [14, 24, 27, 28, 29, 30, 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42], en
dichos trabajos se encuentra que presentan una o ms de las siguientes limitaciones:
Uso de un grupo pequeo de series de tiempo para evaluar los modelos o incluso de una
sola serie de tiempo.
Uso de diferentes mtricas de error de prediccin.
Muchas de las series usadas son especficas de un sistema en particular, por ejemplo de
tipo econmico o financiero.
Comparacin de modelos del mismo origen.
Se busca evaluar nicamente el rendimiento (i.e. el error de prediccin) de los modelos,
pero no su capacidad de prediccin.
No se considera la existencia de relaciones entre las caractersticas de las series de tiempo
y el tipo de modelo de prediccin.
Todo lo anterior, indica la falta de metodologas estndares para la evaluacin y comparacin
de las tcnicas de prediccin y modelado.
An cuando se han desarrollado diferentes tcnicas de prediccin, se conoce muy poco sobre
las relaciones entre los modelos de prediccin de series de tiempo y las caractersticas de las
series, lo anterior es consecuencia del avance del conocimiento sobre prediccin de series de
tiempo en extensin pero no en profundidad.
Al intentar predecir el comportamiento de una variable del sistema con datos conocidos sobre
su dinmica (Serie de Tiempo) se tiene la limitante de la confiabilidad de la prediccin, es decir
hasta que rango de tiempo (Horizonte de Prediccin) el error de la prediccin es aceptable para
el tipo de informacin que se est prediciendo. El error en la prediccin o en el modelado,
no puede ser ignorado, y tampoco es posible eliminarlo del todo, pero si es posible tratar de
minimizar su efecto en los resultados de la prediccin. Una de las estrategias ms exitosas
para mejorar el resultado de una prediccin es la combinacin de predictores, en la literatura
11

existen numerosos trabajos sobre este tema [29, 43, 44, 45, 46, 47, 48, 49, 50, 51, 52, 53, 54], la
estrategia de combinacin consiste en la optimizacin de la relacin entre el bias y la varianza
del conjunto de datos predichos [11]. A pesar de los muchos trabajos sobre combinacin de
modelos de prediccin, es importante continuar con el desarrollo de nuevas tcnicas, ya que
ningn predictor individual o combinado es capaz de predecir toda la variedad de series de
tiempo, es decir no hay modelos de prediccin universales [55, 56]. Al explotar por medio de la
combinacin de los predictores, las diferentes capacidades de los modelos, es posible extender
el horizonte de prediccin para las series de tiempo al mejorar la prediccin resultante.
En la Figura 1-1, se presentan en forma esquemtica los problemas mencionados en esta
seccin y que son motivo de estudio de esta tesis doctoral.

1.2

Objetivos

Los motivos enunciados en la seccin anterior, son la base para el desarrollo de los objetivos
con los cuales esta tesis doctoral se propone contribuir al estudio del problema de prediccin
de series de tiempo en dos temas bsicos: la predictibilidad de las series de tiempo y la
mejora de la prediccin basndose en la combinacin de modelos de prediccin. A
continuacin se enuncian los objetivos de este trabajo:
Medir la predictibilidad de las series de tiempo construyendo mtricas basadas en un
conjunto de parmetros dinmicos de las series.
Desarrollo de una metodologa experimental para la evaluacin y comparacin de la capacidad de prediccin (o de modelado) de diferentes tcnicas.
Los dos objetivos anteriores son la base para el desarrollo de un estudio experimental
sobre la predictibilidad de series de tiempo.
Desarrollo de nuevos mtodos para mejorar la prediccin de una serie de tiempo, por medio
de la combinacin de predictores, haciendo uso de analogas de tcnicas de aprendizaje
de mquina (Machine Learning) tales como: Bagging y Boosting, adems de las basadas
en fundamentos estadsticos bsicos.

12

SERIES DE TIEMPO:
Sistemas Naturales (Series de
Tiempo de Observaciones
Experimentales)
Sistemas Artificiales (Series de
Tiempo de Observaciones
Experimentales)
Modelos Computacionales y
Matemticos (Series Generadas
Numricamente)

Prediccin y
Modelado de Series
de Tiempo:
Problema de
Reduccin del Error
de la Prediccin

Combinacin de
Modelos de
Prediccin

Anlisis de Series de
Tiempo:
Problema de Medir la
Predictibilidad
de las Series

Caracterizacin de las Series de


Tiempo.
Evaluacin de las Series de Tiempo con
diferentes Tcnicas de Prediccin

1.-No hay Predictores Universales


2.- Relaciones no lineales entre caractersticas de las series de tiempo y la capacidad de los
modelos para predecir.
3.-Error de Prediccin: Limitaciones inherentes a la simplificacin mediante el modelado y a las
caractersticas del sistema (e. g. caos).

Figura 1-1: Problemas desarrollados en la tesis doctoral

13

1.3

Contribucin Original de la Tesis

Las contribuciones originales al estudio de la prediccin de series de tiempo son las siguientes:
Estudio en forma global de un conjunto de series de tiempo de diferentes orgenes.
Identificacin de los parmetros ms significativos para la caracterizacin de la predictibi
lidad de series de tiempo.
Desarrollo de una (s) mtrica (s) de predictibilidad en base no a una sola caracterstica (de
origen computacional, de teora de sistemas dinmicos no lineales, etc.) sino considerando
a todo un conjunto de parmetros de las series de tiempo.
Estudios comparativos para tcnicas de modelado y para tcnicas de prediccin basados
en modelos y teoras diferentes por medio de una metodologa experimental estandarizada.
Desarrollo de mtricas de capacidad de prediccin y modelado.
Identificacin de la forma en que se agrupan las series de tiempo con relacin a los parme
tros con los que se determina su predictibilidad.
Estudio de las relaciones entre la estructura de las series de tiempo y su predictibilidad.
Estudio de las relaciones entre la dinmica de las series de tiempo y su predictibilidad.
Estudio de las relaciones entre los parmetros de las series de tiempo y los modelos.
Desarrollo de tcnicas para mejorar la prediccin en series de tiempo, utilizando ideas de
Machine Learning (Boosting), Estadstica y Algoritmo Gentico; para la combinacin de
predictores no lineales basados en Redes Neuronales y Teora de Sistemas Dinmicos No
Lineales.

1.4

Que no se Estudia en este Trabajo (Acotacin de la Tesis


Doctoral)

Se presenta a continuacin una serie de puntos que no se estudian en la presente tesis doctoral,
y que permiten acotar los temas de estudio de la misma:
14

Anlisis de series de tiempo con diferentes regmenes de comportamiento (no estaciona


rias).
Anlisis de series multivariadas.
Desarrollo de un modelo formal estricto (analtico) del problema de prediccin de series
de tiempo.
Anlisis de semejanzas morfolgicas entre series de tiempo para su aplicacin en la extraccin de reglas de modelado.
Anlisis fino de los parmetros que caracterizan a las series de tiempo.
Anlisis (caracterizacin y parametrizacin) de casos particulares de series de tiempo y
su relacin con su sistema de origen.
Mtodos de extraccin de reglas para el modelado de una serie de tiempo.
Desarrollo de tcnicas de prediccin y modelado.

1.5

Desarrollo de la Tesis

En la Figura 1-2, se presenta el diagrama del contenido de la tesis y como se relacionan los
diferentes captulos, los cuales pertenecen a alguna de las cuatro partes temticas en que se
divide la presente tesis. El captulo 2, presenta el marco conceptual a partir del cul se desarrolla
este trabajo. El captulo 3, presenta una revisin del estado del arte sobre la predictibilidad
de series de tiempo. El captulo 4, se describen las tcnicas de anlisis de series de tiempo
empleadas en este trabajo. El captulo 5, describe las tcnicas de prediccin y modelado que
fueron evaluadas. El captulo 6, describe las tcnicas de anlisis de datos usadas en el estudio
de los resultados experimentales. Los captulos 7 y 8 presentan respectivamente, los resultados
experimentales de caracterizar las series de tiempo y de evaluar las tcnicas de prediccin y
modelado. El captulo 9, presenta el desarrollo y evaluacin de las mtricas de predictibilidad
y capacidad de prediccin y modelado. El captulo 10, presenta los resultados del estudio de
las relaciones de la predictibilidad de series de tiempo. El captulo 11, presenta el desarrollo
y evaluacin de dos tcnicas para la combinacin de predictores. Finalmente el captulo 12,
15

presenta las conclusiones de esta tesis y posibles lneas de trabajo futuro. Adicionalmente,
se tiene el captulo 13 que presenta los siguientes apndices: "trabajos derivados de la tesis
(artculos, ponencias, posters, seminarios)", "gua sobre las metodologas experimentales para
la caracterizacin de las series de tiempo y de las tcnicas de prediccin y modelado", "anlisis
de gramticas (pendiente de la curva como una medida de predictibilidad)", "visualizando los
parmetros dinmicos de las series de tiempo", "sobre la no universalidad de los modelos de
prediccin" y "comentario sobre los teoremas no free lunch".

16

Tesis Doctoral:
Medicin de la Predictibilidad de Series de Tiempo: Un Estudio Experimental
Resumen

Captulo 1 Introduccin
Motivacin
Objetivos
Contribucin Original de la Tesis
Que no se Estudia en este Trabajo (Acotacin de la
Tesis Doctoral)
Desarrollo de la Tesis
Captulo 2 Marco
Conceptual de la
Prediccin de Series
de Tiempo
Introduccin
Sistemas de Origen
Natural y Artificial
Series de Tiempo
El Problema de
Prediccin de Series
de Tiempo
El Modelo de
Prediccin
Limitaciones de los
Modelos y del Proceso
de Prediccin
Predictibilidad de
Series de Tiempo
Patrones de
Predictibilidad en
Series de Tiempo

Captulo 9 Mtricas de la
Predictibilidad de Series
de Tiempo y Coeficientes
de Capacidad para
Prediccin y Modelado
Introduccin
Mtricas de la
Predictibilidad de Series de
Tiempo
Comparacin de las
Mtricas de Predictibilidad
Coeficientes de Capacidad
de Prediccin y de
Modelado
Discusin

Captulo 3 La
Predictibilidad de Series
de Tiempo: Estado del
Arte
Antecedentes
Estado del Arte
Discusin

Captulo 4 Tcnicas para


el Anlisis de Series de
Tiempo
Introduccin
Estadsticas
Anlisis de Fourier
Anlisis Espectral Singular
Teora de Sistemas
Dinmicos No Lineales
Teora de la Informacin
Teora de la Computacin

Captulo 7 Clculo de
Parmetros de las Series
de Tiempo
Introduccin
Descripcin del Conjunto
Experimental de Series de
Tiempo
Parmetros de las Series
de Tiempo
Datos Experimentales
Discusin

Captulo 12 Conclusiones
y Lneas de Trabajo
Futuro
Conclusiones
Lneas de Trabajo Futuro

Captulo 11 Combinacin
de Predictores :
Mejorando la Prediccin
de las Series de Tiempo
Introduccin
Tcnicas Clsicas de
Combinacin de
Predictores
GABoost: Busqueda de
Pesos con Algoritmo
Gentico Cannico para
Minimizacin del Error de
Prediccin RMSE
CombFEC: Combinacin
de Predictores con una
Funcin de Pesos de Error
y Correlacin
Discusin

Figura 1-2: Diagrama del contenido de la tesis


17

Captulo 6 Tcnicas
para el Anlisis de
Conjuntos de Datos
Multivariados
Introduccin
Mapas Auto
Organizados (SOM y
GHSOM)
Anlisis con
Escalamiento
Multidimensional
(MDS)
Anlisis de
Correlacin Bivariada

Captulo 8 Evaluacin de
Tcnicas de Prediccin y
de Modelado de Series de
Tiempo
Introduccin
Mtodo Experimental
Resultados Experimentales
Discusin

Captulo 10 Relaciones de la
Predictibilidad de Series de Tiempo
Introduccin
Agrupamiento de Series de Tiempo en
base a Parmetros de Predictibilidad
Relacin Predictibilidad-Estructura de
Series de Tiempo
Relacin entre las Caractersticas de los
Modelos con su Capacidad de
Prediccin o de Modelado
Relacin Parmetros de PredictibilidadModelos de Prediccin y Modelado
Discusin

Captulo 13 Apndices
Trabajos Derivados de la Tesis (Artculos,
Ponencias, Posters, Seminarios)
Gua sobre las Metodologas Experimentales
para la Caracterizacin de las Series de
Tiempo y de las Tcnicas de Prediccin y
Modelado
Anlisis de Gramticas (Pendiente de la Curva
como una Medida de Predictibilidad)
Visualizando los Parmetros Dinmicos de las
Series de Tiempo
Sobre la No Universalidad de los Modelos de
Prediccin
Comentario sobre los Teoremas No Free Lunch

Captulo 5 Tcnicas de
Prediccin y de Modelado
de Series de Tiempo
Introduccin
Tcnicas de Prediccin
Tcnicas de Modelado

Captulo 2

Marco Conceptual de la Prediccin


de Series de Tiempo
2.1

Introduccin

La dinmica de un sistema (de origen natural o artificial) puede estudiarse con series de tiempo,
una serie de tiempo es un conjunto de datos obtenidos a partir de una observacin experimental
del sistema, o mediante el clculo numrico de las ecuaciones de movimiento (en el caso particular que sea posible calcular su solucin). Las series de tiempo contienen informacin sobre
las variables independientes de un sistema (grados de libertad) que determinan su dinmica,
la extraccin de esta informacin es un problema que se estudia mediante el anlisis (caracterizacin), prediccin y modelado de las series de tiempo. La caracterizacin de las series de
tiempo tiene como objetivo la extraccin de la mayor cantidad de informacin sobre el comportamiento de la serie es decir, sobre la dinmica del sistema representado, y as identificar
o construir la mejor o mejores tcnicas que puedan predecir o en su caso modelar la dinmica
del sistema expresada por la serie de tiempo. Las tcnicas de prediccin y modelado buscan
extraer la mayor cantidad de informacin (proceso de aprendizaje) sobre la dinmica de la serie
de tiempo, para construir modelos que reproduzcan (modelado) o extrapolen (prediccin) el
comportamiento de la serie.
En este trabajo doctoral se busca generar conocimiento sobre el problema de prediccin
de series de tiempo, no con la construccin de tcnicas, algoritmos o mtodos particulares
18

Tcnicas de Anlisis de
Series de Tiempo

Tcnicas de Prediccin y Modelado

Experimentos
Computacionales

Series de
Tiempo

Mtricas

Estudio de la Predictibilidad
de Series de Tiempo

Anlisis de Datos Experimentales


con Tcnicas de Reconocimiento de Patrones

Estructura de
Series de Tiempo

Dinmica de
Series de Tiempo

Modelos de
Series de Tiempo

Comportamiento de la
Predictibilidad
Combinacin de Modelos

Figura 2-1: Metodologa experimental para el estudio de la predictibilidad de series de tiempo


para la prediccin de algunas series especficas, sino mediante un estudio mas general sobre la
predictibilidad de las series de tiempo y las relaciones entre series con diferentes caractersticas
y diferentes tcnicas de prediccin y modelado. Para realizar dicho estudio, se hace uso de una
metodologa que incluye experimentos computacionales, el desarrollo de una mtrica para medir
la predictibilidad y el anlisis mediante la comparacin, clasificacin, jerarquizacin, etc. del
conjunto de datos generados por los experimentos; con la informacin obtenida de esta forma
se construye una base de conocimiento sobre la predictibilidad de series de tiempo en relacin
con la dinmica y estructura de las series de tiempo y los modelos de prediccin, adems de
desarrollarse mtodos para combinar modelos de prediccin y as mejorar la prediccin de series
de tiempo. La metodologa general descrita arriba para el estudio de la predictibilidad de series
de tiempo se ilustra en la Figura 2-1.
El marco conceptual que proporciona las bases para el desarrollo del estudio sobre la predictibilidad de series de tiempo, descrito anteriormente, se define en las siguientes secciones.

19

2.2

Sistemas de Origen Natural y Artificial

En la naturaleza existen sistemas que llamamos de origen natural tales como los de tipo biolgico
por ejemplo: sistemas de un organismo multicelular (sistema nervioso, sistema celular, sistema
inmunolgico), sistemas de tipo bioqumico (el metabolismo), sistemas de tipo ecolgico (ecosistemas, cadenas alimenticias). Otros sistemas de origen natural son de tipo fsico: dinmica
atmosfrica, dinmica de los ocanos, etc. Por otro lado, existen sistemas de origen artificial
es decir creados por el hombre por ejemplo: sistemas de tipo socioeconmico (la guerra, el
comercio, la economa de un pas), sistemas de tipo cultural (Internet) [57]. Los sistemas anteriores son estudiados de forma experimental, los experimentos sobre estos sistemas generan gran
cantidad de informacin expresada como secuencias de datos que llamaremos series de tiempo
(las cuales se definen formalmente ms adelante), a las series de tiempo generadas mediante
mediciones experimentales las clasificamos como series naturales.
Otra forma de generar series de tiempo, es a partir del estudio de la dinmica de sistemas
generados a partir de experimentos computacionales como por ejemplo autmatas celulares [58],
o partculas bajo la influencia de un potencial [14]. Tambin es posible obtener series de tiempo
a partir de la solucin numrica de expresiones matemticas de modelos fsicos (como en el
caso del sistema de ecuaciones diferenciales de Lorenz) [59] o de construcciones matemticas
abstractas como el Problema de Collatz en Teora de Nmeros [60, 61]. A las series de tiempo
cuyo origen son sistemas artificiales generados con simulaciones por computadora o sobre la base
de la solucin de expresiones matemticas las clasificamos como series de tiempo sintticas.
La Tabla 2.1 presenta ejemplos de sistemas que generan series de tiempo naturales y sintticas.

20

(2.1)
Origen del Sistema

Tipo de Sistema

Sistema

Natural

Biolgico

Nervioso

Natural

Biolgico

Inmunolgico

Natural

Biolgico

Metabolismo

Natural

Fsico

El clima

Natural

Fsico

El Oceano

Natural

Qumico

Reacciones Qumicas

Artificial

Cultural

Internet

Artificial

Social

La guerra

Artificial

Social

El comercio

Artificial

Matemtico

Mapas Discretos

Artificial

Computacional

Automatas Celulares

En esta tesis doctoral se estudia a las Series de Tiempo, las cuales representan el comportamiento dinmico (en general en el tiempo) de variables experimentales de sistemas de origen
natural o artificial.

2.3

Series de Tiempo

Al estudiar la dinmica de un sistema mediante un experimento se seleccionan un subconjunto


de variables del sistema las cuales son observadas y dichas observaciones se representan por
conjuntos de datos en el tiempo (Series de Tiempo). Una serie de tiempo es una proyeccin en
R1 de la trayectoria de la dinmica del sistema en el espacio fase de m dimensiones Rm (grados
de libertad del sistema).
La serie de tiempo es una estructura de informacin a partir de la cual es posible recuperar el
conocimiento necesario para reconstruir la trayectoria dinmica del sistema (al menos en forma
parcial ), lo anterior fue demostrado matemticamente por Whitney (1936), quien demostr la
existencia de una funcin invertible que posibilita la transformacin de la serie de tiempo
de un espacio euclidiano R1 a una trayectoria en el espacio real euclidiano Rp (con p m)
21

dicha trayectoria tiene una correspondencia biunvoca con la trayectoria original de la dinmica
del sistema en el espacio Rm de m dimensiones [62]. Posteriormente Takens (1980), propuso
y demostr un teorema para la reconstruccin de la trayectoria del atractor en el espacio
fase a partir del embebido de la serie de tiempo [63]. La Figura 2-2 ilustra el proceso de la
reconstruccin de la trayectoria de un atractor, la cual representa la dinmica de un sistema, a
partir de una serie de tiempo. En dicha figura, se ilustra como a la trayectoria original de la
dinmica del sistema en el espacio Rm y que es representada por el funcional F , le corresponde
la serie de tiempo en el espacio R2 (considerando en forma explicita a la variable tiempo t)
donde ahora la dinmica del sistema se representa por una aproximacin al funcional original
denominado F 0 , dado que por el teorema debido a Whitney, se sabe que existe la funcin
invertible que permite la conexin entre la trayectoria original y la reconstruida a partir de
la serie de tiempo, entonces es posible reconstruir, aplicando la idea del embebido a la serie
original (teorema de Takens), la trayectoria original del sistema en un espacio de dimensin Rp
y de esta forma recuperar la informacin sobre la dinmica del sistema que se encuentra oculta
dentro de la serie de tiempo.
A partir de las ideas anteriores se construye la siguiente definicin formal para las series de
tiempo:
Definicin 1 Sea ST = {x(1), x(2), x(3), x(4), ...., x(t), ...., x(N )} una secuencia de datos experimentales para un intervalo de tiempo T = N, de una variable u observable x(t) de un
sistema de origen natural o artificial S, al conjunto ST se le denomina Serie de Tiempo.
En la presente tesis doctoral, se considera el estudio de un conjunto de series de tiempo {STi }
cuyos orgenes son observables de diferentes sistemas (naturales y artificiales), para estudiar
dicho conjunto se hace abstraccin de sus sistemas de origen, en el sentido de que no son
los sistemas que las originaron lo que se estudia en esta tesis, sino las series de tiempo como
estructuras de informacin. Dichas estructuras, poseen un conjunto de caractersticas comunes
cuantificables (parmetros) que permiten su estudio y comparacin.

22

Figura 2-2: Reconstruccin de la trayectoria dinmica de un sistema a partir de una serie de


tiempo

23

2.4

El Problema de Prediccin de Series de Tiempo

Al estudiar un sistema se busca modelar la dinmica del mismo y como fin ltimo realizar
predicciones sobre dicha dinmica, para lograr lo anterior se desarrollan experimentos con los
que se obtiene informacin sobre el comportamiento de algunas de las variables del sistema y con
dicha informacin se trata de inferir las relaciones causales entre dichas variables que permitan
desarrollar un modelo aproximado del sistema. Si dicho modelo es soluble analtica o numricamente entonces es posible modelar al sistema y proponer predicciones sobre su dinmica. Sin
embargo, las limitaciones experimentales para obtener la informacin sobre las variables de un
sistema y / o las limitaciones de las matemticas para resolver los modelos que se proponen, no
permiten tener la suficiente informacin para desarrollar modelos solubles de la dinmica del
sistema en todos los casos. En el caso de que se tenga la observacin experimental de una o ms
variables del sistema, pero no exista un modelo soluble del sistema, es posible construir otro
tipo de modelo el cual reproduzca el comportamiento del observable u observables (representado
por una o varias series de tiempo) de tal forma que se pueda realizar una prediccin sobre la
dinmica observada. Es importante aclarar que estos modelos no tienen una relacin directa
con la dinmica del sistema de donde se obtuvo experimentalmente la serie de tiempo, de hecho
el relacionar el modelo de comportamiento de una serie de tiempo con la dinmica del sistema
es un problema abierto [3]. A continuacin se presenta la definicin formal del problema de
prediccin de series de tiempo.
Definicin 2 Sea F (x1 (t) , x2 (t) , ...xk (t)) el funcional que describe en forma completa la
dinmica del sistema S, dicho funcional no es conocido en forma explicita.
Definicin 3 Sea F 0 una aproximacin al funcional F , que modela la dinmica del sistema
S pero cuya forma analtica o no es conocida en forma completa o no es soluble en forma
numrica.
Definicin 4 Dado un sistema S para el cual se tiene una aproximacin F 0 al funcional F ,
cuya forma analtica no se conoce en forma completa o no es soluble numricamente, pero se
tiene una serie de tiempo ST para un intervalo de tiempo T , sobre la variable x(t) del sistema
S, entonces es posible construir un modelo P que permita predecir el comportamiento de dicha
variable para un tiempo t > T .
24

2.5

El Modelo de Prediccin

La construccin del modelo de prediccin es la parte central del estudio de series de tiempo,
la mayora de los modelos de prediccin se basan en la Auto Regresin propuesta por Yule en
1927 [15], representada por la siguiente ecuacin,

yb(k) =

p
X
i=1

ai y(k i) e(k)

(2.2)

donde yb(k) es la prediccin del valor que corresponde al tiempo k, a partir de la combinacin

lineal de los p valores anteriores de la forma y(k i), mas un termino de error e(k); con
modificaciones este modelo ha sido base de tcnicas de prediccin desarrolladas en Estadstica
[11, 12], Teora de Sistemas Dinmicos No Lineales [3, 13, 14] y Redes Neuronales [15, 16, 17, 18];
en menor cantidad se han desarrollado otros mtodos para resolver el problema de prediccin
por ejemplo con Estadstica Bayesiana [64].
En la literatura se habla de la construccin de modelos, mtodos, algoritmos o tcnicas de
prediccin, y muchas veces no se separa con claridad a las tcnicas que estrictamente modelan
una serie de tiempo (interpolacin de puntos de la serie) y a las tcnicas que adems de modelar
la serie la predicen (extrapolacin de puntos), en esta tesis doctoral, se hace una clara diferencia
entre las tcnicas que modelan y aquellas que predicen, ya que el verdadero reto es predecir el
comportamiento de la serie de tiempo considerando que se posee informacin incompleta sobre
el sistema, y existen limitaciones inherentes a los modelos y al proceso de prediccin mismo
(ver siguiente seccin).

2.6

Limitaciones de los Modelos y del Proceso de Prediccin

Los modelos actuales de prediccin de series de tiempo poseen la siguiente limitante en su


capacidad de predecir: son modelos construidos especficamente para series de tiempo parti
culares y entonces no son generalizables o en otras palabras no existen predictores universales.
Los modelos son aproximados lo cual introduce un error en la prediccin de la serie de tiempo,
el cual se define en este trabajo como Error de Modelado.
Por otra parte las caractersticas de la dinmica de las series de tiempo tambin influyen

25

en la dificultad para ser predichas por las tcnicas o mtodos de prediccin (predictibilidad
de la serie), algunas series de tiempo poseen cierto grado de caos, el cual introduce un error
que crece en forma exponencial, por otra parte si poseen aleatoriedad la suposicin de ciertas
tcnicas basadas en auto regresin de que hay memoria entre los datos, no es valida, este tipo
de error lo definimos como un error debido a las caractersticas de las series, es un error de tipo
sistemtico sobre el cual no se tiene control [65], a este error se le define como Error Intrnseco
en el presente trabajo.
Por ltimo el error experimental (en el caso de series de tiempo derivadas de observaciones
experimentales), introduce un error en forma de ruido [3, 66, 67], que se define en este trabajo
como Error de Medicin.
Este conjunto de limitaciones, introduce un Error de la Prediccin definido como:

Eprediccion = Emod elado + Eintrn sec o + Emedicion

(2.3)

el cual no es posible eliminar en su totalidad pero si disminuirlo. El error de la prediccin


y la forma en que ste se expande limita el alcance de la misma (horizonte de la prediccin) al
disminuir su intervalo de confianza.

2.7

Predictibilidad de Series de Tiempo

Una serie de tiempo contiene informacin sobre la dinmica de un sistema, la cual en principio es
posible recuperar dada la existencia de una funcin invertible como se mencion en la seccin
2.3, sin embargo la existencia de dicha funcin no garantiza a priori que sea posible modelar
la dinmica de una serie de tiempo y en consecuencia predecir su comportamiento futuro,
ya que los modelos de prediccin poseen limitaciones para modelar dicha dinmica, como se
mencion en la seccin 2.6. Para lograr una mejor comprensin del problema de prediccin
de series de tiempo, es necesario caracterizar dicho proceso, para ello se estudia la predictibi
lidad de las series de tiempo usando diferentes parmetros que relacionan la dinmica de las
series de tiempo con la predictibilidad de las mismas, los parmetros proporcionan informacin
sobre las series de tiempo desde diferentes facetas (i. e. multiplican la informacin sobre su
dinmica): Estadstica, Sistemas Dinmicos No Lineales, Teora de la Informacin y Teora
26

de la Computacin; para cuantificar la predictibilidad se combinan los diferentes parmetros


para determinar mediante un valor escalar la predictibilidad de las series de tiempo, de esta
forma es posible: ordenar, comparar, discriminar, clasificar y jerarquizar la informacin sobre
la predictibilidad y as generar estructuras conceptuales que aporten nuevo conocimiento [68,
69, 70, 71]; entonces como parte del marco conceptual de este trabajo se asume la si guiente
hiptesis: es posible construir una mtrica a la que se le denomina predictibilidad o en el caso de
su relacin inversa dificultad de prediccin, a partir de un conjunto de parmetros experimentales
que caracterizan a las series de tiempo; dicha mtrica permite medir la dificultad que la serie de
tiempo posee para ser predicha por un modelo. Esta mtrica es independiente de la existencia
o no, de un modelo capaz de predecir a una serie de tiempo. Solamente depende de un conjunto
de parmetros que caracterizan a la serie de tiempo y en consecuencia de la dinmica que dicha
serie representa. A partir de los conceptos anteriores se define formalmente a la mtrica de
predictibilidad:
Definicin 5 Sea CST = {c1 , c2 , ..., cq } un conjunto de parmetros que caracterizan al conjunto
de las series de tiempo {STi }, entonces es posible construir una mtrica de predictibilidad Mpred
para las series de tiempo de la forma: Mpred = F(Cst ), donde F : Rq R.

2.8

Patrones de Predictibilidad en Series de Tiempo

Las limitaciones de los modelos de prediccin para las series de tiempo, motivan la bsqueda
e identificacin de Patrones de Predictibilidad que ayuden a un mejor entendimiento de la
dinmica del proceso de prediccin de series de tiempo. Estos patrones se expresan en forma de
clases y relaciones derivadas del anlisis de las series de tiempo y de las tcnicas (o modelos) de
prediccin. Un patrn es un concepto local, el cul es vlido para un subconjunto de variables
o datos o ambos [72]. La definicin formal de las ideas anteriores es la siguiente:
Definicin 6 Sea DST el conjunto de datos que contienen informacin sobre un conjunto {STi }
de series de tiempo.
Definicin 7 Sea Pj el modelo de prediccin j esimo, entonces se define a CP = {Pj (STi )}
como un conjunto de modelos de prediccin para las series de tiempo.
27

Definicin 8 Sea DP el conjunto de datos que contienen informacin sobre un conjunto CP


de modelos de prediccin.
Definicin 9 Un Patrn de Predictibilidad es una Regla Local de la forma r = T (DST DP )
donde T es una transformacin que aplica sobre el conjunto interseccin de los conjuntos de
datos DST y DP .

28

Captulo 3

La Predictibilidad de Series de
Tiempo: Estado del Arte
3.1

Antecedentes

Las bases formales del anlisis de series de tiempo se deben a los trabajos de Euler (1707-1783),
dAlembert (1717-1783), Lagrange (1736-1813) y Fourier (1768-1830) que desarrollaron la idea
de la descomposicin de una seal en componentes harmnicas [73]. Los primeros anlisis de
series de tiempo, se atribuyen a la comunidad astronmica la cual aplic el anlisis de Fourier a
seales de origen astronmico, el objetivo era la bsqueda de periodicidades en los datos (datos
de actividad solar: manchas solares, datos de ndices de luminosidad en estrellas variables).
Los primeros mtodos datan de 1772 y 1778, cuando Lagrange sugiri mtodos para identificar
periodicidades ocultas, Buijs-Ballot propuso procedimientos computacionales para el anlisis
estadstico de datos astronmicos en 1847. Sin embargo, es Sir Arthur Schuster a quien se puede
considerar el iniciador de los mtodos modernos de anlisis de series de tiempo en el dominio
de la frecuencia, con su propuesta en 1889 del anlisis de periodogramas, de la mano de los
desarrollos analticos en los 1890s, la bsqueda de mecanismos de clculo automatizados llevo
a la construccin de dispositivos tales como los analizadores armnicos de Henrici-Conradi y de
Michelson-Stratton, que an cuando tuvieron un xito limitado, nos recuerdan la importancia
del desarrollo de la computadora para el clculo numrico intensivo requerido en el anlisis de
seales [73]. El siguiente gran desarrollo en el estudio de las series de tiempo, tuvo lugar en
29

el dominio del tiempo, por medio de dos artculos, uno en 1927 por Yule [74], y otro en 1937
por Slutsky [75]. En dichos trabajos, se rechaza la hiptesis determinista con componentes
harmnicas para analizar y modelar las series de tiempo, en favor de modelos basados en
causalidad aleatoria, el modelo de auto regresin y el modelo de promedio mvil, se originan
respectivamente a partir de dichos trabajos. Los trabajos de Kolmogorov (1941) y Wiener (1930
y 1950) completaron los fundamentos de la construccin de los predictores lineales para seales
estadsticamente estacionarias iniciados por Yule [76, 77, 78]. En 1965 el estudio de series de
tiempo basado en el anlisis de Fourier (dominio de la frecuencia) alcanzo su madurez, con
el desarrollo por parte de Cooley y Tukey del algoritmo de la transformada rpida de Fourier
(FFT), que redujo considerablemente el esfuerzo para calcular el periodograma de una seal [79].
Por otra parte, en el dominio del tiempo, Box y Jenkins, publicaron en 1976 el libro titulado:
Time-series Analysis, Forecasting and Control, en el cual desarrollaron una metodologa en el
dominio de tiempo mediante la combinacin de diferentes temticas y presentando aplicaciones
en prediccin y control, por primera vez mostraron al gran pblico en una forma unificada el
alcance del estudio de series de tiempo, presentando casos como la prediccin del nmero de
pasajeros en una aerolnea o el anlisis del proceso de combustin en una caldera de gas. Por
ltimo, adaptaron la metodologa de anlisis para su uso mediante la computadora [80]. En la
dcada de 1980s nuevos desarrollos matemticos, en algoritmos y en poder de cmputo abren
la posibilidad de estudiar series de tiempo que presentan comportamiento catico, an cuando
el estudio de sistemas caticos se remonta a Poincar a fines del siglo XIX [81], se tuvo que
esperar al desarrollo de las computadoras y el desarrollo de algoritmos para estudiar los sistemas
caticos a detalle en forma no slo analtica sino tambin experimental. Los trabajos de Whitney
(1936) y posteriormente de Takens (1980) dieron las bases formales de la reconstruccin en el
espacio fase de la dinmica de un sistema a partir de una serie de tiempo (observable de dicha
dinmica) [62, 63].
Los avances anteriores han permitido el desarrollo tanto de tcnicas de anlisis de series de
tiempo como de tcnicas de prediccin, sin embargo muy poco se ha avanzando para entender
los mecanismos del proceso de prediccin de series de tiempo, en particular en la comprensin
de la predictibilidad de las series de tiempo, en la siguiente seccin se hace una revisin de los
trabajos publicados al respecto en la literatura especializada.

30

3.2

Estado del Arte

En la literatura especializada hay pocos trabajos relacionados con la predictibilidad de series


de tiempo, no se observa un gran inters en medir y entender la predictibilidad [82], a pesar
de la enorme cantidad de trabajos relacionados con el desarrollo de tcnicas de prediccin de
series de tiempo [17, 21, 22, 23, 24, 25, 26]. El concepto de predictibilidad de series de tiempo
(predictability, forecastibility o accuracy en la literatura de habla inglesa [82, 83, 84, 85]) que se
estudia en los trabajos reportados se define como las varianzas relativas del error de prediccin
y de las observaciones o tambin como el valor de la informacin condicional en la reduccin
del valor esperado de perdida de una prediccin [86], en otras palabras la predictibilidad es el
error que la prediccin de una serie de tiempo tiene debido al modelo de prediccin [87, 88]. En
las reas de Estadstica y Econometra es donde se han desarrollado mltiples trabajos sobre
la predictibilidad, entendida como el error de prediccin, para evaluar modelos de prediccin
financieros: Stock Returns, Stock Prices, International Equity Returns, etc. [89, 90, 91, 92, 93,
94, 95, 96, 97, 98, 99]. Prcticamente, todo trabajo que involucra el desarrollo y evaluacin de
tcnicas para la prediccin o modelado de una serie de tiempo toma en cuenta el error de la
prediccin y en consecuencia la predictibilidad as definida.
A pesar de encontrarse un acuerdo en cuanto a la idea de predictibilidad por parte de los
trabajos sobre esta temtica, no existe una definicin operacional estndar y hay diferentes
propuestas de medidas de predictibilidad, por ejemplo la bsqueda de correlaciones cannicas
entre valores pasados y futuros de una serie de tiempo [100, 101], la comparacin de la varianza
de innovacin y la varianza incondicional de series estacionarias [102], otros como Granger
y Newbold (1986) proponen una medida de predictibilidad basada en la covarianza de series
estacionarias bajo la perdida del error cuadrtico, esta medida es de la forma

G=

var(
yt+j,t )
var(yt+j )

(3.1)

donde yt+j,t es la prediccin optima (i.e. media condicional) para el tiempo t +j realizada al
tiempo t y yt+j es el valor original para el tiempo t + j [103]. Diebold y Killian (1998) proponen
la siguiente definicin de predictibilidad basada en el cociente de los errores de prediccin para
una prediccin a corto plazo (numerador) y una de largo plazo (denominador), de tal forma

31

que permite determinar la predictibilidad basada en los horizontes de prediccin

P (s, k) = 1

E(L(t+s|t ))
E(L(t+k|t ))

(3.2)

donde t+s|t es el error para la prediccin en el sperodo de tiempo adelante, hecho al


tiempo t (indicando s una prediccin de corto plazo), L() es la funcin de perdida, entonces


E L t+s|t es la prdida esperada de una prediccin de corto plazo, y respectivamente

E(L(t+k|t )) es la prdida esperada de una prediccin de largo plazo, tal que k s y k esta
fija cuando s varia dentro de algn rango. La definicin para ser operativa requiere la seleccin
de una funcin de prdida particular y de un modelo de prediccin particular, por ejemplo se
puede seleccionar como funcin de prdida el error medio cuadrado (MSE ) y como modelo el
auto regresivo AR(p) [82], esta definicin es operacionalmente similar a la medida estadstica U
propuesta por Theil (1966) [104]. Otros ejemplos de mtricas de predictibilidad en el rea de
Econometra son las desarrolladas por Kaboudan (1998) y una variante desarrollada por Duan
y Povinelli (2001) las cuales se basan en definir la predictibilidad de series de tiempo a partir
de la capacidad de un algoritmo de Programacin Gentica de generar un modelo de la serie,
entonces se dice que la serie es GP-predecible [105, 106, 107, 108, 109], la mtrica de Kaboudan
llamada mtrica mide la probabilidad de que una serie de tiempo sea GP-predecible, se basa
en comparar dos salidas: el mejor modelo generado de un conjunto simple de datos antes de ser
alterado mediante la mezcla de los datos en forma aleatoria (boostrap), con respecto al mejor
modelo generado con el conjunto de datos alterado [107, 108, 109]. Especficamente, las variaciones no explicadas, las cuales son medidas mediante la suma del error cuadrado (SSE ) antes
y despus de la modificacin de las series {Yt }, t = 1, 2, ...., N, son comparadas. La variacin
no explicada en {Yt } antes de la mezcla es
T
X
(Yt Yt )2
SSE =

(3.3)

t=1

donde Yt es la prediccin de Yt . El mezclado incrementa la variacin no explicada en {Yt }


a un mximo, este mximo es

32

SSES =

T
X
(St St )2

(3.4)

t=1

donde {St } es la mezcla de {Yt }. Finalmente la medida de predictibilidad se define como:


=1

SSE
SSES

(3.5)

Una medida ms de predictibilidad reportada en la literatura, es la propuesta por Galbraith


(2003) denominada contenido de prediccin, la cual se define como la reduccin en el error medio
cuadrado (MSE ), disponible de usar un modelo de prediccin dado, en vez de la prediccin
debida a la media incondicional [110]. La medida de predictibilidad al tiempo s se describe por
la funcin de contenido

C(s) = 1

M SEyb (s)
M SEy(s)

s = 1, .....S

(3.6)

donde MSEyb(s) es el error medio cuadrado esperado del modelo para la prediccin al tiempo

s, y MSEy(s) es el error medio cuadrado correspondiente a la media incondicional considerada


como una prediccin al tiempo s.

Adems de calcular la predictibilidad, en la literatura se discute como mejorar la estimacin


de la predictibilidad en series de tipo econmico al considerar diferentes factores que influyen
en la toma de decisiones de los inversionistas [111, 112]. Tambin se desarrollan trabajos
para la identificacin de regiones de predictibilidad a escala local dentro de las series de tiempo
utilizando mtricas como la Entropa de Informacin de Shannon [113, 114, 115], o el anlisis de
gramticas para la identificacin de la dinmica de generacin de reglas de produccin [116, 117].
Las medidas de predictibilidad desarrolladas en Econometra y Estadstica consideran a la
predictibilidad como dependiente del modelo de prediccin y no atribuible a las caractersticas
propias de las series de tiempo.
Existe otra rea de investigacin donde se desarrollan trabajos sobre la predictibilidad de
series de tiempo, dicha rea es el estudio de Sistemas Dinmicos No Lineales, la idea detrs del
concepto de predictibilidad tiene dos vertientes en esta rea, la primera es similar a la manejada
en las reas de Econometra y Estadstica: el error de la prediccin, sin embargo la forma en que

33

se mide es diferente, para cuantificarlo ahora se considera el horizonte de prediccin es decir la


expansin del error de prediccin conforme avanza el tiempo, esta expansin se determina usan
do el Exponente de Lyapunov de una serie de tiempo [3, 84, 118, 119, 120, 121, 122, 123, 124],
su rea de mayor aplicacin corresponde a las series que presentan comportamiento catico, el
cual causa que pequeas perturbaciones en las condiciones iniciales del sistema generen grandes
cambios en los estados siguientes del sistema, es decir, an cuando la serie es determinista (i. e.
su dinmica es predecible) su naturaleza catica limita la capacidad de los modelos de prediccin
para predecir con un error pequeo, ms all del horizonte de prediccin definido con el Exponente de Lyapunov. A diferencia de los trabajos desarrollados en Econometra y Estadstica,
los trabajos en el rea de Sistema Dinmicos No Lineales, consideran a la predictibilidad como
dependiente tanto de la serie de tiempo como del modelo de prediccin [84, 124]. La predictibilidad es adems tratada como una medida que junto con otras mtricas forma parte de un amplio
conjunto de parmetros para caracterizar a las series de tiempo entendidas como observaciones
de la dinmica de fenmenos fsicos [6, 7, 113, 125], esta caracterizacin busca contribuir a una
mejor comprensin de los llamados sistemas complejos [57, 126], una temtica que no se aborda
en este trabajo. La segunda forma de entender a la predictibilidad es a travs de diferentes
definiciones derivadas de la Teora de Informacin: Entropa de Shannon , Entropa Condicional,
Informacin Mutua y Funcionales de Informacin [7, 87, 88, 113, 114, 115, 127, 128, 129, 130].
Para finalizar, en ninguna de las tres reas: Econometra, Estadstica y Sistemas Dinmicos
No Lineales; donde se estudia la predictibilidad de series de tiempo, se encuentran trabajos que
usen para dicho estudio conjuntos de series de tiempo de diferente origen y en consecuencia predictibilidad [9, 10, 117, 131, 132], y que adems exploten un conjunto de diferentes parmetros
que caracterizan a las series de tiempo para cuantificar dicha predictibilidad [9, 10], lo que si
va en el espritu de la presente tesis y de diversos trabajos desarrollados en nuestro grupo.

3.3

Discusin

En la seccin anterior se present el avance y las tendencias en el estudio de la predictibilidad


en series de tiempo (time series predictability). A partir de la informacin recabada se llega a
las siguientes conclusiones:

34

La predictibilidad de series de tiempo es un tipo de mtrica o medida particular dentro


del conjunto de mtricas usadas para caracterizar un sistema o fenmeno fsico, dichos
sistemas son denominados por muchos autores como sistemas complejos.
Se han propuesto diferentes mtricas de predictibilidad basadas en los errores de prediccin
de las series de tiempo, el exponente de Lyapunov y algunas definiciones de entropa
de informacin. Tambin se han propuesto mtricas ms generales usadas para la eva
luacin de la complejidad de una seal (no necesariamente en el rea de prediccin de
series de tiempo) que expresan la dinmica de un fenmeno, estas mtricas se basan en
algn parmetro individual de la seal: exponente de Lyapunov, diferentes definiciones
de entropas de Informacin y medidas de complejidad de tipo algortmico como la de
Kolmogorov.
En las reas de Econometra y Estadstica el concepto de predictibilidad de series de
tiempo se entiende como: la medida del error probable de prediccin por parte de un
modelo. Es una medida de confianza en el error de prediccin, permite estimar la exactitud
(accuracy) de la prediccin por parte de un modelo, por consiguiente es dependiente del
modelo evaluado.
En el rea de Sistemas Dinmicos No Lineales, la predictibilidad se entiende como una medida del horizonte de prediccin por medio de la estimacin del coeficiente de Lyapunov, y
entonces depende de la serie de tiempo (sensibilidad a las condiciones iniciales del sistema).
Tambin, se estudia el efecto en la predictibilidad debido a las limitaciones del modelo
de prediccin. El concepto de predictibilidad es similar al manejado en Econometra y
Estadstica, que la predictibilidad es el error de prediccin que se espera obtener, pero en
lugar de estimar el error promedio, se busca estimar la expansin del error de prediccin
o incertidumbre (uncertainty) conforme avanza la prediccin en el tiempo, en este caso la
predictibilidad puede depender tanto de la serie de tiempo como de las limitaciones del
modelo o de ambos.
De los puntos anteriores se concluye que la predictibilidad se entiende como el error
probable resultado de la prediccin de una serie de tiempo por parte de un modelo. La
predictibilidad, unos autores la manejan dependiente del modelo de prediccin, otros
35

como una propiedad intrnseca de la serie de tiempo medida por medio de un parmetro
y algunos ms como dependiente tanto de la serie como del modelo de prediccin.
Al evaluar las mtricas no hay trabajos que utilicen conjuntos de series de tiempo de
diferente origen en dicha evaluacin, ni comparaciones con otras mtricas.
Los principales objetivos de los trabajos que se han desarrollado sobre predictibilidad
son: cuantificar el error de prediccin o incertidumbre debida al modelo de prediccin e
identificar las zonas de alta predictibilidad dentro de una serie de tiempo.
No hay en el estudio de las series de tiempo un marco conceptual terico unificado,
bsicamente el problema de la prediccin de series de tiempo ha sido resuelto a partir
de un conjunto de avances en diferentes reas como son: la Estadstica, la Econometra,
el Anlisis de Fourier, la Teora de Sistemas Dinmicos No Lineales, etc.; donde estas
reas son usadas para la formalizacin matemtica y el desarrollo de tcnicas de anlisis,
modelado y prediccin de las series de tiempo. Tambin la prediccin de series de tiempo
se ha beneficiado de la Computacin tanto para la implementacin de las tcnicas y
algoritmos desarrollados en las otras reas, como para la aplicacin y el desarrollo de
nuevas soluciones de anlisis y prediccin de las series.
Finalmente, los resultados de la revisin del estado del arte sobre la predictibilidad de series
de tiempo, dan soporte a la investigacin desarrollada en este trabajo de tesis en la cual:
Se han construido y evaluado una serie de mtricas de predictibilidad que: dependen
de las series de tiempo, las mtricas consideran un conjunto de diferentes parmetros
dinmicos de las series para calcular la predictibilidad, las mtricas se pueden calcular en
forma experimental.
Las mtricas se evaluaron utilizando un conjunto amplio de series de tiempo de diferente
origen y adems se compararon con mtricas adicionales.
Se estudiaron diferentes aspectos del comportamiento de la predictibilidad como son: la
relacin entre la predictibilidad y el comportamiento dinmico de las series de tiempo, la
relacin entre la predictibilidad y la estructura de las series de tiempo, la relacin entre la
36

predictibilidad y la prediccin con diferentes modelos y la relacin entre la predictibilidad


y la modelacin con diferentes modelos.

37

Captulo 4

Tcnicas para el Anlisis de Series


de Tiempo
4.1

Introduccin

El anlisis de series de tiempo permite obtener informacin sobre el comportamiento de los


datos que conforman a una serie. La informacin es utilizada para caracterizar, clasificar o
extraer reglas, y predecir o construir modelos sobre la serie de tiempo. En el presente captulo
se describen las bases de las diferentes tcnicas de anlisis de series de tiempo utilizadas en este
trabajo, as como la descripcin de los parmetros (de tipo escalar ) calculados con estas tcnicas
y que caracterizan a las series de tiempo, a partir de este conjunto de parmetros posteriormente
sern seleccionados aquellos que sean ms tiles en la caracterizacin de la predictibilidad de
las series de tiempo. La seccin 4.2 describe los parmetros de origen Estadstico, la seccin 4.3
el Anlisis de Fourier, la seccin 4.4 el Anlisis Espectral Singular, la seccin 4.5 los parmetros
basados en la Teora de Sistemas Dinmicos No Lineales, la seccin 4.6 los parmetros cuyo
origen proviene de Teora de la Informacin, finalmente la seccin 4.7 presenta los parmetros
basados en Teora de la Computacin.

38

4.2

Estadsticas

Los mtodos de anlisis de series de tiempo basados en estadstica clsica y moderna han sido
ampliamente utilizados en especial para el estudio de series de tiempo de tipo econmico y
social.

4.2.1

Anlisis Estadstico Clsico

A partir del anlisis estadstico clsico se obtienen un conjunto de parmetros que caracterizan
la distribucin estadstica de un conjunto de datos, en particular estos pueden pertenecer a una
serie de tiempo, a continuacin se describen los parmetros estadsticos que fueron evaluados
con el objetivo de determinar su utilidad en la caracterizacin de la predictibilidad de series de
tiempo:
1 Valor promedio. Conocido tambin como media aritmtica o media, se define como la
suma del conjunto N de datos de la muestra dividida entre el valor N [133]. Su expresin
matemtica es:

hxi =

N
1 X
x1 + x2 + x3 + .... + xN
=
xk
N
N

(4.1)

k=1

2 Valor mximo. Es el dato con el valor ms grande en la muestra de datos [133].


3 Valor mnimo. Es el dato con el valor ms pequeo en la muestra de datos [133].
4 Valor medio. Tambin llamado Mediana, se define como el valor del dato central (si el
nmero de datos N es impar) o la media aritmtica (promedio) de los dos datos centrales
(si el nmero de datos N es par) [133].
5 Moda (mxima probabilidad). Es una medida de posicin para la muestra de datos, se
define como el dato (o los datos) que tienen la mxima frecuencia (es decir la mxima
ocurrencia de los mismos) [133].
6 Rango de datos. Es la diferencia entre el menor valor y el mayor valor de la muestra de
datos [134].

39

7 Desviacin promedio.

Es una medida de precisin (o imprecisin) tambin llamada

desviacin media. Es el valor promedio de los valores absolutos de las desviaciones de la


media [134]. Su expresin matemtica es:

Desviaci
onP romedio =

N
X
k=1

|xk hxi|
N

(4.2)

8 Desviacin Estndar. Es una medida de la dispersin alrededor de la media. En una


distribucin normal el 68% de los casos caen dentro de una desviacin estndar de la
media y el 95% de los casos caen dentro de dos desviaciones estndar [135]. Su expresin
matemtica es:

p
E [(x E(x))2 ]

(4.3)

donde E(x) es el valor esperado de una variable definido como:

E(x) =

xk pk

(4.4)

donde pk es la probabilidad de la variable xk . Al cuadrado de la desviacin estndard se


le conoce como Varianza.
9 Correlacin de Pearson (Auto correlacin). La correlacin mide como las variables o un
rango de rdenes estn relacionados, en particular el coeficiente de Pearson es una medida
de asociacin lineal [135].
10 Skewness. Mide el grado de asimetra de una distribucin de datos respecto a su valor central. La distribucin normal es simtrica y su Skewness es cero, una distribucin de datos
con un valor positivo de Skewness tiene una cola larga a la derecha. Una distribucin de
datos con un valor negativo de Skewness tiene una cola larga a la izquierda. Un Skewness
con valor mayor a 1 generalmente indica una distribucin que difiere significativamente
de la distribucin normal [134].

40

11 Kurtosis. Es una medida sobre la extensin de un conjunto de datos que se agrupan


alrededor de un valor central. Para una distribucin normal, el valor de la kurtosis es
cero. Una kurtosis positiva indica que los datos se agrupan ms y la distribucin tiene
colas ms largas que las correspondientes a una distribucin normal, una kurtosis negativa
indica que los datos se agrupan menos y la distribucin posee colas ms cortas que una
distribucin normal [134].
12 Cuartil inferior. Es el dato cuyo valor marca la divisin del grupo de datos ordenados que
corresponde al 25% de todos los datos de la muestra [134].
13 Cuartil superior. Es el dato cuyo valor marca la divisin del grupo de datos ordenados
que corresponde al 75% de todos los datos de la muestra [134].
14 Resolucin. Es el promedio de la diferencia entre los valores de datos consecutivos de la
muestra.
15 Tiempo de Correlacin. Es el intervalo de tiempo correspondiente a la correlacin entre
una variable y otra variable o consigo misma (auto correlacin). Por ejemplo, el tiempo
de auto correlacin se obtiene de graficar la funcin de correlacin de una misma variable
para tiempos diferentes x(t) y x(t ) variando , el tiempo de autocorrelacin es donde el
valor de corresponde a la funcin de correlacin cuando decae a 1/e de su valor original.

4.2.2

Anlisis Estadstico Moderno

Anlisis R / S (Exponente de Hurst)


H. E. Hurst, hidrlogo britnico, publico en 1951 un trabajo titulado The Long-Term Storage
Capacity of Reservoirs. Este trabajo trata sobre el diseo de modelos de reservorios, pero Hurst
extendi su trabajo a muchos sistemas naturales y desarroll una nueva metodologa estadstica
para distinguir sistemas aleatorios y no aleatorios, su mtodo se llama rango reescalado o
anlisis R / S [136].
Hurst encontr que a diferencia de la hiptesis asumida por la mayora de los hidrlogos de
su tiempo en la cual para calcular la capacidad de almacenamiento de agua de reservorios se
estimaba el flujo de agua entrante como un proceso aleatorio, el flujo de agua en el ro Nilo posee
41

un patrn de comportamiento el cual no es aleatorio. Hurst conoca el trabajo de Einstein sobre


el movimiento browniano el cual nos dice que la distancia que cubre una partcula aleatoria se
incrementa como la raz cuadrada del tiempo:
1

R=T2

(4.5)

donde R = a la distancia cubierta y T = al ndice del tiempo. Esta ecuacin se le conoce


como la regla de T a la un medio, y es usada comnmente en estadstica.
Ahora si se tiene una serie de tiempo {x(t)} que representa n valores consecutivos. En el
caso que desarroll Hurst, la serie corresponda a las descargas anuales del ro Nilo. Para el
caso de mercados financieros, puede ser los cambios diarios en el precio del ndice de acciones.
El valor medio, x de la serie de tiempo se define como:

x=

(x(1) + ... + x(n))


n

(4.6)

La desviacin estndar, sn se estima como:

12

sn = n

v
u n
uX
t (x(t) x)2

(4.7)

t=1

El rango reescalado se calcula mediante la normalizacin de los datos sustrayendo la media


muestreada:

Z(t) = (x(t) x) con t = 1, ....n

(4.8)

La serie resultante posee una media de cero. Ahora se crea una serie acumulativa X con
valores de la forma:

X1 = (Z1 + Zr ) r = 2, ..., n

(4.9)

Ntese que por definicin, el ltimo valor de X (que es Xn ) siempre ser cero ya que Z
tiene una media de cero. El rango ajustado, Rn , es el mximo menos el valor mnimo de Xr :

42

Rn = max(Y1 , ..., Yn ) min(Y1 , ...., Yn )

(4.10)

El subndice n para Rn ahora ndica que ste es el rango ajustado para x1 , ...., xn . Dado
que X ha sido ajustado para tener media cero, el valor mximo de X siempre es mayor o igual
a cero, y el mnimo siempre ser menor o igual a cero. Luego, el rango ajustado Rn es siempre
no negativo.
El rango ajustado Rn es la distancia que el sistema viaja para el ndice de tiempo n. Si
se hace n = T , se puede aplicar la ecuacin 4.5, considerando que la serie de tiempo x es
independiente para valores crecientes de n. Sin embargo, la ecuacin 4.5, se aplica slo a series
de tiempo que poseen las caractersticas de movimiento Browniano: media cero y varianza igual
a uno. Para extender este concepto a otros tipos de series, es necesario generalizar la ecuacin
4.5 para tomar en cuenta sistemas que no son independientes. Hurst encontr que la forma ms
general de la ecuacin es:

(R/S)n = c nH

(4.11)

El subndice n de (R/S)n se refiere al valor R/S para x1 , ..., xn ; con c = constante.


El valor R/S se conoce como el rango reescalado ya que posee media cero y se expresa en
trminos de la desviacin local estndar S. En general el valor R/S escala conforme aumenta
el incremento de tiempo n como una ley de potencia con un valor H, el cual corresponde al
exponente de Hurst. El exponente de Hurst se encuentra graficando al log(R/S) vs. log(n)
y resolviendo la pendiente por medio de una regresin de mnimos cuadrados, en resumen
resolviendo la ecuacin:

log(R/S)n = log(c) + H log(n)

(4.12)

Este exponente permite determinar si el comportamiento representado por la serie de tiempo


presenta correlaciones de largo alcance (es decir memoria y persistencia de largo alcance de
su comportamiento). En el caso de que la serie de tiempo posea un comportamiento con
persistencia de tendencia positiva entonces el exponente de Hurst es mayor a 0.5, si no hay
comportamiento predecible el exponente es igual a cero, por ltimo si hay un comportamiento
43

con persistencia de tendencia negativa entonces el exponente es mayor que cero y menor a 0.5.

4.3

Anlisis de Fourier

El anlisis de Fourier como se mencion en el captulo 3 fue la primera metodologa utilizada


en el anlisis de series de tiempo. An cuando la fuerza del mismo radica en el estudio del
comportamiento de seales de tipo peridico, es interesante el explorar la capacidad de algunos
de los parmetros derivados de este anlisis para evaluar su utilidad en la caracterizacin de
series que poseen comportamientos no peridicos. El anlisis de Fourier trata con el estudio de
las series de tiempo en el dominio de las frecuencias, basados en la idea de que sobre un intervalo
finito, cualquier funcin analtica puede ser aproximada con el grado de exactitud deseado, por
medio de una suma pesada de funciones seno o coseno de frecuencias crecientes armnicamente.
Del conjunto de mtodos del anlisis de Fourier se seleccion la bsqueda de frecuencias
dominantes, ya que proporciona a partir del anlisis del espectro de potencia, no slo informacin de tipo grfico sobre el espectro de las frecuencias de la serie de tiempo sino adems, un
parmetro que corresponde a la frecuencia mxima (que llamamos frecuencia dominante), la
cul es una medida escalar til junto con otros parmetros para la bsqueda de un conjunto
o conjuntos de parmetros que permitan caracterizar la predictibilidad en las series de tiempo
[73].

4.3.1

Frecuencia Dominante

La frecuencia dominante se obtiene a partir del clculo del espectro de potencias ya sea por
medio de la transformada rpida de Fourier o el mtodo de mxima entropa, permite determinar
si existe alguna frecuencia caracterstica de la seal, las series de carcter aleatorio poseen
espectros de potencia amplios sin ninguna frecuencia dominante, lo mismo se aplica en cierto
grado para las series caticas. En el caso de las series peridicas y cuasi peridicas stas poseen
espectros con picos bien definidos representativos de sus frecuencias caractersticas.

44

4.4

Anlisis Espectral Singular (SSA)

El Anlisis Espectral Singular (SSA) es una tcnica para el anlisis de series de tiempo que
incorpora elementos del anlisis clsico de series de tiempo (i.e. Anlisis de Fourier, Anlisis
Estadstico) as como elementos modernos (i.e. Teora de Sistemas Dinmicos). Esta tcnica
permite la identificacin y extraccin de componentes oscilatorias de una serie de tiempo lo que
es de utilidad para el estudio de su estructura. La descomposicin de la serie de tiempo consiste
en componentes aditivas que se interpretan como: componentes de tendencias (trends) es decir
partes suaves y de variacin lenta de la serie, componentes oscilatorias (quizs con diferentes
amplitudes) y componentes de ruido (pero no en el sentido estocstico ya que slo se trata con
una trayectoria simple de la serie y no una muestra de trayectorias). El origen de la tcnica se
asocia a la publicacin de una serie de artculos por Broomhead y King (1986) y Broomhead et.
al. (1987) [137]. La tcnica SSA es utilizada en el anlisis de series climticas, metereolgicas
y geofsicas. En particular, en el estudio sobre la predictibilidad de las series de tiempo, es de
inters explorar la tcnica SSA en combinacin con el anlisis de componentes principales (que
se describe en la subseccin 4.4.1), con el objetivo de identificar si existen relaciones entre la
estructura de las componentes de las series de tiempo y la predictibilidad. La versin bsica de
SSA consiste de 4 pasos que se describen a continuacin.
Primer paso (etapa de descomposicin), sea X = (x(0), x(1), ..., x(N 1)) una serie de
tiempo de longitud N, y L sea un entero, el cual se le llama longitud de ventana. Sea K =
N L+1 y se definen los vectores de retardo (embebido) Xj = (xj1 , ..., xj+L2 )T , j = 1, 2, ...., K
y la matriz de trayectoria
X = (xi+j2 )L,K
i,j=1 = [X1 , ..., XK ]

(4.13)

La matriz X es una matriz de Hankel, lo que significa que todos los elementos a lo largo
de la diagonal i + j = constante, son iguales. La construccin de la matriz de trayectoria es el
primer paso del algoritmo de SSA.
El segundo paso (etapa de descomposicin), es la descomposicin de valor singular (SVD)
de la matriz X, la cual se logra por medio de los eigenvalores y eigenvectores de la matriz
S = XXT de tamao L L. Esto proporciona una coleccin de L valores singulares, los cuales
45

son las races cuadradas de los eigenvalores de la matriz S, y los correspondientes vectores
singulares izquierdo y derecho. Los vectores singulares izquierdo de X son los eingenvectores
ortonormales de S llamados tambin funciones empricas ortogonales, los vectores singulares
derecho son los eingenvectores de la matriz XT X. Se obtiene entonces una representacin de
X como una suma de rango uno de matrices biortogonales Xi con i = 1, ..., d, donde d L es
el nmero de valores singulares de X diferente de cero.
Como el tercer paso (etapa de reconstruccin), se separa el conjunto de ndices I = {1, ..., d}
en varios grupos I1 , ..., Im y se suman las matrices Xi dentro de cada grupo. El resultado de
este paso es la representacin:

X=

m
X

XIk , donde XIk =

Xi .

(4.14)

iIk

k=1

El cuarto paso ( etapa de reconstruccin), consiste en promediar sobre las diagonales i +


j = constante, de las matrices XIk . Esto proporciona la descomposicin SSA, esto es, la
descomposicin de la serie original X en una suma de series:

xn =

m
X
k=1

x(k)
n con n = 0, ..., N 1,

(4.15)

(k)

donde para cada k la serie xn es el resultado del promediado sobre las diagonales de la
matriz XIk .

4.4.1

Anlisis de Componentes Principales

Relacionado con la descomposicin de la serie de tiempo por parte de la tcnica SSA, se encuentra el anlisis de componentes principales (PCA), una vez que la serie a sido separada
en las diferentes series componentes se les aplica el PCA como una herramienta de anlisis
complementaria, a continuacin se presenta la descripcin de dicho anlisis. El anlisis de
componentes principales, consiste en la bsqueda de las componentes linealmente independien
tes que proyectan a un conjunto de datos multivariado (i. e. multidimensional) en diferentes
direcciones en un espacio de dos dimensiones (aunque no est limitado a este nmero de dimensiones), estas componentes deben cumplir las siguientes condiciones: las combinaciones lineales
de las componentes proporcionan la mxima varianza de la muestra de datos, las combinaciones
46

lineales deben estar no correlacionadas entre s. En resumen el objetivo del anlisis de componentes principales es la reduccin de la dimensionalidad del conjunto de datos para facilitar su
interpretacin [72].
Para calcular las componentes principales se procede de la siguiente forma, sea X una matriz
de datos n p en la cual las filas representan casos (cada fila es un vector de datos x(i)) y
las columnas representan las variables. Estrictamente la i esima fila de esta matriz es la
transpuesta xT del i esimo vector de datos x(i), dado que la convencin que se toma es
considerar vectores de datos como vectores columnas p 1 en lugar de vectores filas 1 p.
Adems se asume que X es centrada a la media, de forma que el valor de cada variable es
relativo a la media muestreada para esa variable (i. e. la media estimada ha sido sustrada
para cada columna).
Sea a el vector columna p 1 de los pesos de proyeccin (no conocidos hasta ahora) que
resultan en la mayor varianza cuando los datos X son proyectados a lo largo de a. La proyeccin
p
X
T
aj xj . Ntese, que
de cualquier vector de datos particular x es la combinacin lineal a x =
j=1

se puede expresar a los valores proyectados sobre a de todos los otros vectores de datos en X

como Xa (n p por p 1 obtenindose un vector columna de valores proyectados n 1). La


varianza a lo largo de a se define como

2a = (Xa)T (Xa) = aT XT Xa = aT V a

(4.16)

donde V = XT X es la matriz p p de covarianza de los datos (dado que X tiene media

cero). La varianza de los datos proyectados 2a (escalar a maximizar) se puede expresar como
una funcin de a y de la matriz de covarianza de los datos V.
Para maximizar 2a es necesario aplicar una restriccin de normalizacin sobre los vectores
a la cual es: aT a = 1.
Entonces el problema de optimizacin se rescribe como la maximizacin de la cantidad

u = aT Va (aT a 1)
donde es un multiplicar de Lagrange. Diferenciando con respecto a a se tiene

47

(4.17)

u
= 2Va 2a = 0
a

(4.18)

que se reduce a la forma familiar de eigenvalores

(V I) a = 0

(4.19)

Entonces el primer componente principal a es el eigenvector asociado con el eigenvalor ms


grande de la matriz de covarianza V. La segunda componente principal (la direccin ortogonal
a la primera componente que tiene la varianza proyectada ms grande) es el eigenvector corres
pondiente al segundo eigenvalor ms grande de V, y as sucesivamente (el eigenvector para el
k esimo eigenvalor ms grande corresponde a la k esima direccin componente principal).
Una propiedad bsica de este esquema de proyeccin es que si los datos estn proyectados en
k
X
j , donde
los primeros k eigenvectores, la varianza de los datos proyectados se expresa como
j=1

j es el j esimo eigenvalor.

Una caracterstica que se observa es que para conjuntos de datos de alta dimensionalidad, en
los cuales las variables estn frecuentemente bien correlacionadas, es comn encontrar que para
un nmero relativamente pequeo de componentes principales (por decir 5 a 10) se captura el
90% o ms de la varianza en los datos.

4.5

Teora de Sistemas Dinmicos No Lineales

A diferencia de los mtodos lineales (basados en teora estadstica, anlisis de Fourier) los cuales
interpretan las estructuras regulares en los datos como correlaciones lineales, es decir que la
dinmica del sistema se basa en lo siguiente: ante pequeas perturbaciones la respuesta del
sistema es pequea, y que el comportamiento irregular (diferente a oscilaciones peridicas o
a un crecimiento exponencial) del sistema se atribuye a una perturbacin externa de carcter aleatorio; las tcnicas de anlisis no lineal (Teora de Sistemas Dinmicos No Lineales o
Teora de Caos) toman en consideracin que sistemas no lineales caticos pueden producir comportamiento irregular de los datos a partir de un sistema de ecuaciones deterministas. Este
comportamiento irregular es interpretado como ruido por los mtodos de anlisis lineal. Las

48

tcnicas de anlisis no lineal se pueden agrupar en las siguientes categoras: Reconstruccin del
Espacio Fase, Dimensiones, Exponentes de Lyapunov, Entropas, de Datos Sustitutos (Surrogate Data) y Reduccin del Ruido [3, 138, 139].

4.5.1

Exponentes

Exponente de Lyapunov
Los exponentes de Lyapunov son medidas de la deformacin en el espacio fase representada por
los movimientos relativos de trayectorias cercanas de un atractor (donde la serie de tiempo es
una proyeccin en 1-D de la dinmica del mismo), miden la evolucin de trayectorias vecinas
en el espacio fase. En otras palabras miden la inestabilidad de la dinmica del sistema debido
a cambios en sus condiciones iniciales. El nmero de exponentes corresponde al nmero de
dimensiones del atractor. El exponente principal de Lyapunov, que corresponde al exponente
de mayor magnitud se considera una medida promedio de la sensibilidad del sistema a cambios
en las condiciones iniciales y por ende a las desviaciones de las trayectorias del atractor, es una
medida de la predictibilidad del sistema [138]. El clculo de este exponente se basa en construir
una vecindad en el espacio fase de tipo esferoidal que posee un conjunto de ejes principales
pi . Esta vecindad contiene a un conjunto de puntos de diferentes trayectorias del atractor
del sistema, la vecindad se mueve siguiendo la evolucin de las trayectorias, para seguir esta
evolucin la vecindad sufre deformaciones las cuales producen cambios en las magnitudes de
los ejes que la definen, los exponentes de Lyapunov se determinan por el ritmo de cambio de
la magnitud de los ejes principales de la vecindad, se les llama exponentes porque el ritmo
de cambio sigue un comportamiento de tipo exponencial. Su expresin matemtica es de la
siguiente forma:

bti (t) =

pi (t)
pi (0)

(4.20)

donde b es una constante arbitraria pero determinada. Tomando logaritmos se obtiene:


pi (t)
1
i (t) = Logb
t
pi (0)

(4.21)

El valor lmite de esta expresin cuando t crece es el exponente de Lyapunov correspondiente


49

al i esimo eje.

4.5.2

Dimensiones

Dimensiones de tipo exponente


Una dimensin exponente frecuentemente permanece constante sobre un rango de escalas de
tamaos, lo cual la hace una medida cuantitativa invariante. Este tipo de medida proporciona
informacin sobre que tan complejo es un sistema. Es una medida cuantitativa de evaluar
o comparar la complejidad geomtrica de objetos o sistemas de diferente tamao, forma, y
estructura. Hay muchos tipos de dimensiones expresadas como un exponente de escalamiento.
No existe un consenso sobre cuales de estas dimensiones son las mas tiles para el estudio de
las series de tiempo [139].
Dimensin de Correlacin En 1983 Grassberger y Procaccia, introdujeron una dimensin
basada en el comportamiento de la suma o integral de correlacin. Esta dimensin se le llama
Dimensin de Correlacin y es ampliamente usada en la caracterizacin de atractores caticos.
Para definirla se toma una trayectoria (de un atractor) que evolucione por un largo tiempo, y se
toman los valores de N puntos de la trayectoria. Luego para cada punto i sobre la trayectoria,
se busca el nmero de puntos de trayectoria dentro de una distancia R del punto i (excluido
el mismo), a este nmero lo llamamos Ni (R). Luego se define pi (R) como el nmero relativo
de puntos dentro de la distancia R al punto i: pi (R) =

Ni
(N 1)

(se divide por N 1, pues es el

nmero de puntos que como mximo se encuentran en la vecindad quitando a i). Finalmente
se calcula la llamada suma de correlacin

C(R) =

N
1 X
pi (R)
N

(4.22)

i=1

Esta definicin cumple que C(R) = 1 si todos los puntos caen dentro de la distancia R
respecto de cada uno de ellos. Si R es menor que la distancia ms pequea entre puntos de la
trayectoria, entonces pi = 0 para todo i y C(R) = 0.
Aplicando la funcin de paso Heaviside:

50

(x) = 0 si x < 0

(4.23)

(x) = 1 si x 0
se reescribe al nmero relativo pi (R) como
N
X
1
(R |xi xj |)
pi (R) =
N 1

(4.24)

j=1,j6=i

entonces la suma de correlacin toma la forma

C(R) =

N
N
X
X
1
(R |xi xj |)
N(N 1)

(4.25)

i=1 j=1,j6=i

Para asegurar que se caracteriza al atractor entero se toma N , la dimensin de


correlacin se define entonces como el nmero que satisface

C(R) = lim kRDc

(4.26)

log C(R)
R0 log R

(4.27)

R0

o tomando logaritmos

Dc = lim

La dimensin de correlacin cuantifica la correlacin espacial local entre puntos de la trayectoria del atractor en el espacio fase [140].
Dimensin de Capacidad Para estimar la dimensin de objetos irregulares, por ejemplo
fractales, es posible acercarse a la medida exacta de los mismos utilizando mtricas que escalan
con el comportamiento de estos objetos, para indicar esta posibilidad es que se utilizan relaciones
de la forma

Dcap = lim

log N
log(1/)

(4.28)

donde N es el nmero de subsecciones en las que se particiona la longitud del sistema y


es la regla con la que se mide a dicha longitud. A esta dimensin se le denomina la capacidad
[141], tambin se le llama la dimensin de capacidad o la capacidad lmite. Tcnicamente, la
51

capacidad se define en el rango de longitudes extremadamente pequeas , especficamente en


el lmite 0.
La dimensin de capacidad mide el grado de auto-similitud del sistema (comportamiento
invariante ante cambios de escala espacial), permite cuantificar el grado de heterogeneidad de
la seal a diferentes escalas [139].
Dimensin Fractal No existe un consenso en la literatura sobre una sola dimensin fractal,
sino mas bien que el conjunto de dimensiones de la forma de exponente forman una familia
de dimensiones. Para la caracterizacin de las series de tiempo, en este trabajo se utiliz la
siguiente definicin de dimensin fractal denominada en la literatura como D2
log N
R0 log R

D2 = lim

(4.29)

donde la dimensin fractal mide el nmero de estados N del sistema presentes en un volumen
de radio R [139, 140].
Dimensin Embebida
Aunque la dimensin embebida no corresponde a la familia de dimensiones de tipo exponencial como las definidas en los prrafos anteriores, se sita de igual forma en la categora ms
general de dimensin. La dimensin embebida, corresponde a la dimensin necesaria para la
reconstruccin en el espacio fase del atractor, que forman las trayectorias de los estados de la
dinmica del sistema. Dicha dimensin se obtiene a partir de una serie de tiempo del sistema,
mediante la aplicacin de las ideas establecidas por el teorema de Takens. El valor de la dimensin embebida corresponde de igual forma con el nmero de grados de libertad del sistema
dinmico [138].

4.5.3

Anlisis de Mapas de Recurrencia (VRA)

Los mapas de recurrencia fueron descritos por primera vez por J. P. Eckmann, S. O. Kamphorst
y D. Ruelle en Recurrence plots of dynamical systems en 1987 [8, 142]. Este anlisis cua
litativo (va la visualizacin del mapa) y cuantitativo (va el clculo de parmetros derivados
del mapa) permite la deteccin de patrones ocultos y cambios estructurales de los datos que
52

conforman una serie de tiempo, as como la identificacin de similitudes entre diferentes series
de tiempo bajo estudio, ms adelante en el captulo 10, se explota la informacin visual de
los mapas de recurrencia para el anlisis de la relacin entre estructura y predictibilidad de
las series de tiempo. La idea bsica que sustenta a los mapas de recurrencia es que una serie
de tiempo es el producto de un proceso dinmico donde interaccionan las variables relevantes
del mismo en el tiempo. Y que es posible recuperar la informacin sobre este proceso multiva
riado a partir de la serie de tiempo de una variable medida experimentalmente [63]. En el caso
del anlisis VRA, una serie de tiempo se expande a un espacio multidimensional, en la cual la
dinmica del sistema tiene lugar. Para ello se aplica el embebido de coordenadas de retardo,
con el cual se reproduce el espacio fase del sistema dinmico bajo estudio. Para realizar la
expansin de la seal al espacio fase M-dimensional, cada observacin de la seal original X(t)
se sustituye con un vector

y(1) = {x(i), x(i d), x(i 2d), ...x(i (m 1)d}

(4.30)

donde i corresponde al ndice del tiempo, m es la dimensin embebida y d es el tiempo de


retardo.
Como resultado se obtiene una serie formada por vectores:

Y = {y(1), y(2), y(3), ..., y(N (m 1)d)}

(4.31)

donde N es la longitud de la series original.


La idea de esta reconstruccin es el capturar los estados del sistema original en cada instante
de tiempo. Cada estado S(t) a un tiempo t es aproximado por un vector de coordenadas de
retardo como el de la ecuacin 4.30.
Una vez reconstruida la dinmica del sistema, un mapa de recurrencia permite mostrar
que vectores en el espacio fase reconstruido estn ms cercanos o lejanos entre s. En forma
especfica, se calcula la distancia Euclidiana entre todos los pares de vectores y se codifican
como colores. Esencialmente el mapa de recurrencia es una matriz de cdigos de colores, donde
cada entrada (i, j) corresponde a la distancia entre los vectores y(i) e y(j). Esta distancia se
asocia con un cdigo de colores predefinido para su despliegue grfico en la posicin asociada

53

Figura 4-1: Mapa de recurrencia de la serie de tiempo Sine


de carcter temporal (i, j). Los colores calientes (correspondientes al amarillo, rojo, y naranja
o tonos de gris claro) indican distancias pequeas entre los vectores, mientras que los colores
fros (azul o negro) indican distancias grandes entre los vectores. Esta codificacin permite la
visualizacin y estudio del movimiento de las trayectorias que forman los estados del sistema
en el espacio fase, para inferir algunas de las caractersticas dinmicas que generan a la serie de
tiempo original. Un mapa de recurrencia puede interpretarse como una representacin grfica
de una integral de correlacin. La diferencia importante (y su ventaja) es que a diferencia de las
integrales de correlacin, los mapas preservan la dependencia temporal en las series de tiempo,
adems de la dependencia espacial.
A continuacin, se presentan tres ejemplos de la forma en que los mapas de recurrencia
proporcionan informacin visual para la deteccin de patrones, en la Figura 4-1, se presenta el
mapa de recurrencia de la serie peridica Sine, la cual es una seal que presenta una estructura
definida en el mapa mostrando su carcter peridico.
En la Figura 4-2, se muestra el mapa de recurrencia de la serie de tiempo Rossler que
presenta una dinmica catica, la estructura del mapa de recurrencia es definida mostrando el
carcter determinista de la seal.
La Figura 4-3, muestra el mapa de recurrencia para la serie de tiempo White Noise, esta

54

Figura 4-2: Mapa de recurrencia de la serie de tiempo Rossler


seal es aleatoria, la distribucin de tonos de gris es uniforme en el mapa no observndose una
estructura definida.
A partir de un mapa de recurrencia es posible calcular algunos parmetros para la caracterizacin de una serie de tiempo, los parmetros (utilizados en este trabajo) se describen a
continuacin.
Entropa Espacio-Temporal
La entropa espacio-temporal, cuantifica lo estructurado del mapa de recurrencia en los dominios espacial y temporal. Esencialmente, compara la distribucin global de colores sobre
el mapa completo con respecto a la distribucin de colores sobre cada diagonal del mapa. A
mayor diferencia entre las distribuciones global y sobre las diagonales individuales, mayor es
la estructura del mapa. Fsicamente, esta cantidad compara la distribucin de distancias entre todos los pares de vectores en el espacio fase reconstruido con las distancias entre las dife
rentes orbitas que evolucionan en el tiempo. El resultado es normalizado y se presenta como
un porcentaje de mxima entropa (aleatoriedad). Una entropa del 100% significa ausencia de
cualquier estructura, mientras que una entropa de 0% implica una estructura perfecta.

55

Figura 4-3: Mapa de recurrencia de la serie de tiempo White Noise


Recurrencia
A partir del mapa de recurrencia se puede realizar el anlisis de cuantificacin de recurrencia o
RQA [143, 144], el cual permite medir el porcentaje de recurrencia (periodicidad y estructura)
en el mapa (y en consecuencia en la serie de tiempo original), que a su vez es indicativo
de patrones repetitivos en la serie de tiempo, para calcular este porcentaje se toma el rea
triangular superior de la matriz de recurrencia, excluyendo las entradas que corresponden a
distancias de separacin de valor cero a lo largo de la diagonal central (i = j). El mapa es
simtrico a travs de esta diagonal (distancia[i, j] = distancia[j, i]). A continuacin, se calcula
el nmero total de puntos recurrentes en esta rea (#RECURS) finalmente el porcentaje de
recurrencia se obtiene con la expresin,

%Recurrencia =

#RECURS
rea Triangular

(4.32)

Determinismo
Este parmetro se obtiene tambin a partir del anlisis de cuantificacin de recurrencia, permite
medir el porcentaje de determinismo en el sistema, se calcula con la siguiente frmula,

56

%Determinismo =

#P RecDiag
#RECURS

(4.33)

donde #P RecDiag corresponde al nmero de puntos recurrentes que forman lneas diagonales hacia arriba en el mapa de recurrencia, y el denominador corresponde a la misma definicin
usada en el clculo de la recurrencia. En el caso de que el #RECURS = 0, se asigna el valor
de -1 al determinismo.

4.6
4.6.1

Teora de la Informacin
Entropas

Entropa de Informacin (Shannon)


Desde un punto de vista operacional, la informacin ocurre como un mensaje o medida con una
distribucin de probabilidad a priori {pi } sobre su forma o estructura. Se define entonces el
contenido de informacin o entropa de Shannon de una distribucin {pi } como
H

pi log2 pi

(4.34)

En el contexto de sistemas dinmicos, pi es la probabilidad de observar al sistema en el


estado i. Si la medida es a priori cierta, luego H = 0; entonces no se aprende nada al observar
al sistema. Por otra parte, si una medida tiene a priori la misma probabilidad de caer donde
sea, por decir el intervalo [0, 1] y el intervalo es dividido en n partes medibles iguales, luego la
probabilidad pi = n1 , y el contenido de informacin de una medicin es

H=

X1
log2 n = log2 n
n

(4.35)

Dado que se asume una distribucin de probabilidades uniforme, la ecuacin 4.35 es una
frontera superior para la entropa. Conforme n , la resolucin crece, y el contenido de
informacin de una medida se incrementa, pero slo hasta el nivel definido por la exactitud de
la medicin. En resumen, la entropa de Shannon es una medida de la cantidad de informacin
que se obtiene al observar un sistema y tomar una medida para especificar su estado [138, 145].

57

Informacin Mutua Promedio


Dos sistemas que no tienen relacin mutua no poseen informacin uno del otro. En forma
recproca, si poseen alguna conexin, cada uno posee informacin sobre el otro. Por ejemplo,
una medicin de x ayuda a estimar y (o reduce la incertidumbre sobre y). Para determinar la
cantidad por la cual una medida de x reduce la incertidumbre sobre el valor y, se debe tomar
en cuenta lo siguiente, en primer lugar y por si misma tiene una incertidumbre que se mide
como la auto entropa Hy , en segundo lugar, hay una incertidumbre de y dada por una medida
de x, medida por la entropa condicional Hypx . La entropa condicional Hypx es un nmero que
representa una cantidad de informacin sobre y. En particular, la incertidumbre bsica Hy
es disminuida por una cantidad igual a Hypx . Lo anterior, significa que el decremento en la
incertidumbre es Hy Hypx . La incertidumbre reducida se le conoce como informacin mutua,
Iy;x = Hy Hypx

(4.36)

la expresin detallada es

Iy;x =

Ns
Ns X
X

P (xi , yi ) log2

i=1 j=1

P (xi , yj )
P (xi )P (yj )

(4.37)

donde Ns corresponde al nmero de probabilidades diferentes a cero, P (xi , yi ) es la probabilidad de ocurrencia de xi dado yj , P (xi ) y P (yj ) son las probabilidades para xi e yj .
En el caso particular de las series de tiempo, la informacin mutua mide el promedio de
informacin que poseen en comn una medicin en el instante t1 respecto a una medicin en el
instante t2 [138, 139].

4.7
4.7.1

Teora de la Computacin
Complejidad Relativa LZ

Es una medida de la complejidad algortmica que mide el nmero de nuevas subcadenas descubiertas conforme una secuencia evoluciona de izquierda a derecha. Cada nueva subcadena
incrementa en 1 la complejidad. Esta medida esencialmente toma en cuenta las repeticiones de
patrones a todos los niveles estructurales, capturando no slo la complejidad de la dinmica de
58

la cadena sino tambin su complejidad jerrquica [126, 146]. El clculo de este parmetro se
describe a continuacin, la fuente de la secuencia S = s1 s2 s3 .... es revisada y rescrita como una
concatenacin w1 w2 w3 ... de palabras wk seleccionadas de tal forma que w1 = s1 y wk+1 es la
palabra ms corta que no ha aparecido previamente. Por ejemplo, la cadena 0011101001011011
es transformada como 0.01.1.10.100.101.1011. Una vez que una nueva palabra ha sido identificada, la seal es nuevamente inspeccionada, con la adicin de un smbolo ms, si el bloque
actual sta ya presente en la lista. De esta forma, cada palabra wk+1 es la extensin de alguna
palabra wj en la lista, donde 0 j k y, por convencin, w0 es la palabra vaca . Dado
que wk+1 = wj s, con s el smbolo de entrada actual, wk+1 se codifica como el par (j, s). La
especificacin del entero j requiere a lo mas un nmero logb Nw (N) del alfabeto de smbolos,
donde Nw (N) N es el nmero total de palabras cdigo y N es la longitud de la secuencia de
entrada. De aqu, la longitud total L(N) de la secuencia codificada crece como

L(N) Nw (N)(logb Nw (N) + 1)

(4.38)

para N creciente. Mientras N sea pequea, L(N) puede exceder a N (como en el ejemplo
de arriba). Cuando N 1, sin embargo, las palabras wk se vuelven tan largas que ellas son
ms eficientemente identificadas por medio de sus nmero de orden j (la posicin del prefijo) en
la lista y por el sufijo s ms que por una descripcin directa. El nmero Nw (N) de palabras en
una revisin diferente (i.e., consistente de palabras diferentes) de una secuencia S = s1 s2 ...sN
satisface

Nw (N) c

N
lnb N

(4.39)

para N , con c 1. Finalmente, la complejidad Lempel-Ziv CLZ , queda definida como


L(N)
N N

CLZ = lim sup

4.7.2

(4.40)

Anlisis de Gramticas (Reglas de Produccin)

El anlisis de gramticas tiene su base en la dinmica simblica, es til en la identificacin de


patrones dentro de una serie de tiempo, los cuales se expresan como un conjunto de reglas que se

59

denomina reglas de produccin de una gramtica para la serie de tiempo [116, 117]. El nmero
de reglas de produccin para una serie de tiempo es una medida de complejidad (de origen
computacional), en la cual a mayor nmero de reglas de produccin necesarias para generar la
gramtica de la serie corresponde con una mayor dificultad de prediccin o tambin un menor
predictibilidad de la serie de tiempo [10]. Partiendo de una gramtica libre de contexto que se
define como la tupla G = (V, T, P, S) donde:
V = conjunto finito de variables.
T = conjunto finito de terminales.
P = conjunto finito de producciones de la forma A donde A es una variable y es
una cadena de smbolos tomados de (V T ) .

S = variable inicial.
se construye la gramtica para la serie de tiempo. El conjunto de los smbolos terminales
representan la diferencia entre valores contiguos de la serie, de esta forma para el mismo comportamiento de la serie en diferentes secciones de la misma, dicho comportamiento queda codificado
con un solo smbolo de la gramtica. Esta variable a su vez, puede formar parte de la definicin
de otra variable y as recursivamente.
El algoritmo para obtener la gramtica consiste de las siguientes etapas:
Se cuantifican los valores de la serie de tiempo en valores discretos de 0 a 100.
Se codifica la serie discretizada mediante la tcnica de Modulacin por Codificacin de
Pulsos Diferencial (DPCM) [147]. De manera que la serie ahora est representada por las
diferencia de los valores contiguos de la misma.
Se genera la gramtica de la seal codificada, mediante el algoritmo de Sequitur [148].
Una vez generada la gramtica se obtiene el nmero total de reglas de produccin (RP),
parmetro que se aplica en este trabajo para la caracterizacin de la predictibilidad en las series
de tiempo.

60

Captulo 5

Tcnicas de Prediccin y de
Modelado de Series de Tiempo
5.1

Introduccin

Al estudiar un sistema en general se busca desarrollar un modelo mediante un sistema de


ecuaciones que expliquen su dinmica y que adems permitan predecirla. El conocimiento
previo que tenemos del sistema lo obtenemos a partir de observaciones experimentales, estos
modelos son llamados fenomenolgicos, en algunos casos como en mecnica clsica es posible
derivar dichos modelos a partir de primeros principios, pero an estos deben ser consistentes con
las observaciones experimentales. Para desarrollar un modelo de esta naturaleza, se requiere
tener suficiente informacin sobre las interacciones y relaciones entre las variables del sistema.
Sin embargo, no siempre se tiene toda la informacin necesaria para inferir las relaciones y
variables relevantes del sistema que nos permitan construir un modelo que reproduzca en forma
aproximada su dinmica. En estos casos, en los cuales se tiene una secuencia de observaciones
(Serie de Tiempo) de una o de unas cuantas variables, pero que adems el comportamiento de
dichas variables no permite inferir relaciones causales directas, es necesario recurrir a construir
los modelos en base al comportamiento estadstico observado en los datos de la serie. Los
modelos as construidos no poseen en general una relacin directa con la dinmica del sistema
[3]. Sin embargo, permiten modelar el comportamiento de la variable observada y en algunos
casos es posible predecir el comportamiento futuro de la variable con cierto grado de error. El
61

desarrollo de tcnicas de prediccin en el sentido estricto de la palabra ha sido limitado, la gran


mayora de las tcnicas reportadas en la literatura se relacionan con el modelado de series de
tiempo, sin pasar a la etapa de prediccin [10]. La prediccin de una serie de tiempo requiere
de la construccin de un modelo ad hoc para dicha serie cuando esto sea posible y debido a
esto, no es posible generalizar la capacidad de prediccin de un modelo para que se adapte
a series con comportamientos muy dismiles. El estudio de diferentes tipos de modelos que
tengan la capacidad ya sea solo de modelar o de modelar y predecir, puede ayudar a un mejor
entendimiento de las relaciones entre los modelos y su adaptabilidad para modelar y / o predecir
a diferentes series de tiempo (i.e. series con diferente predictibilidad), a esta adaptabilidad de los
modelos la llamaremos capacidad de prediccin (o de modelado). A continuacin se presentan
las bases y algoritmos de las diferentes tcnicas de prediccin y de modelado, evaluadas en
la presente tesis. Las tcnicas tienen como base de sus modelos a la Inteligencia Artificial,
Estadstica y Teora de Sistemas Dinmicos No Lineales.

5.2
5.2.1

Tcnicas de Prediccin
Tcnicas Estadsticas

ARIMA
Box y Jenkins desarrollaron su modelo ARMA (ver una descripcin ms detallada en la seccin
5.3), el cual consiste en la unin de dos modelos primitivos, el primero de ellos es el Auto Regresivo (AR), en estadstica se tiene la tcnica de regresin que consiste en que una variable puede
ser modelada o predicha utilizando una combinacin lineal de una o ms variables distintas. En
el caso de la auto regresin la variable es modelada mediante la combinacin lineal de los valores
previos de ella misma. Un modelo auto regresivo asume que el valor actual de la serie es igual
al promedio pesado de un nmero finito de valores previos, ms una constante de oset, ms
un trmino de ruido aleatorio, estos trminos aleatorios se les llama shocks. El segundo modelo
primitivo que juega un papel importante en la aproximacin de Box-Jenkins es el promedio
mvil (Moving Average, MA). Este modelo nos dice que el valor actual de una serie de tiempo
es igual a la suma pesada de un nmero finito de shocks previos, ms una constante de oset y
el shock actual [80]. Box y Jenkins encontraron que era posible diferenciar en forma implcita
62

a la serie de tiempo, de tal forma que se lograr la condicin estacionaria que es necesaria
para el uso adecuado del modelo ARMA, luego aplicar dicho modelo y posteriormente integrar
el resultado para regresar al dominio original, a este proceso se le denomina ARIMA. La notacin para un modelo ARIMA es una extensin de la correspondiente a un modelo ARMA:
ARIMA(p, d, q), donde d es el nmero de operaciones de diferenciacin que tienen lugar antes
de aplicar el modelo ARMA y tambin es el nmero de integraciones necesarias para regresar
al dominio original de la serie de tiempo. El nmero de trminos del modelo AR se define como
p y el nmero de trminos del modelo MA como q [16, 73].

5.2.2

Tcnicas de Inteligencia Artificial

Red Neuronal con Filtros FIR (FIRNet)


La red FIRNet posee una arquitectura de red neuronal multicapa hacia adelante (feedforward)
en la cual cada peso sinptico est formado por un filtro lineal FIR (Respuesta de Impulso
Finito) [149]. FIR implica que para una excitacin de una entrada de duracin finita, la salida
del filtro tambin es de duracin finita. Para este filtro, la salida y(k) corresponde a una suma
pesada de los valores pasados retardados x(k n) de la entrada:
y(k) =

T
X

n=0

w(n)x(k n)

(5.1)

Ntese que la ecuacin anterior corresponde a una componente de promedio mvil de un


modelo de promedio mvil auto regresivo (ARMA). El filtro FIR es uno de los primeros elementos adaptables que se estudio en la literatura. El algoritmo de aprendizaje es una modificacin
del algoritmo de retro propagacin (backpropagation), la diferencia consiste en las relaciones
temporales implcitas y las operaciones de filtrado, por ello se le denomina retro propagacin
temporal.
Ahora se describe la aplicacin de esta arquitectura para la prediccin de series de tiempo,
se desea modelar una serie y(k) para cada paso de tiempo la entrada a la red FIR es el valor
conocido y(k 1), y la salida es yb(k) = Nq [y(k 1)] es la estimacin de valor original de la
serie. Luego el modelo es de la forma:

63

y(k) = Nq [y(k 1)] + e(k)

(5.2)

La red FIR Nq corresponde a una red restringida que acta sobre una ventana finita de la
entrada, entonces la expresin anterior se rescribe como:

y(k) = Nc [y(k 1), y(k 2), ..., y(k T )] + e(k)

(5.3)

que enfatiza la auto regresin no lineal.


Durante el entrenamiento, el error cuadrado e(k)2 = (y(k) yb(k))2 se minimiza utilizando

la retro propagacin temporal para adaptar la red (y(k) acta como la respuesta deseada).

Ntese que se realiza una adaptacin de lazo abierto; ambas la entrada y la respuesta deseada
son proporcionadas por la serie de entrenamiento conocida. La salida actual de la red no es
retro alimentada como entrada durante el entrenamiento (adaptacin de ecuacin de error). La
expectativa del error cuadrado a minimizar es de la forma:

E e2 (k) = E [y(k) yb(k)]2 = E y(k) Nc y1T (k)

(5.4)

donde y1T (k) = [y(k 1), y(k 2), .., y(k T )] especfica el regresor.

Una vez que la red es entrenada, la prediccin iterativa de largo plazo se logra tomando la
estimacin yb(k) y alimentando esta de regreso a la entrada de la red (lazo cerrado):
y (k 1)]
yb(k) = Nq [b

(5.5)

Red Neuronal Probabilstica (con funcin Gaussiana PNNGauss y con funcin


recproca PNNReciprocal)
La primera red de este tipo fue descrita por Meisel (1972) y el primer algoritmo operacional fue
propuesto por Specht (1990), esta red tiene sus bases formales en la teora de la probabilidad,
la red PNN es bsicamente un clasificador, fue diseada originalmente como un algoritmo de
clasificacin que se entrena con miembros de una o ms clases, para posteriormente asignar
nuevos elementos a las clases conocidas, sin embargo tambin puede realizar tareas de regresin [16, 150]. El modelo estadstico de esta red se basa en la estadstica de Bayes, lo cual
64

requiere conocer la funcin de densidad de probabilidad, para inferirla a partir de los datos
de entrenamiento se aplica el mtodo de estimacin de la densidad de Parzen, el cual estima
la funcin de densidad univariada a partir de una muestra aleatoria, el estimador converge en
forma asinttica a la densidad verdadera conforme la muestra de datos se incrementa. Este
mtodo utiliza una funcin de peso W (d) llamada kernel o funcin potencial, la cual tiene su
valor ms grande en d = 0, este valor decrece rpidamente conforme el valor absoluto de d
se incrementa. Estas funciones de peso estn centradas en cada dato de entrenamiento, y el
valor de cada funcin de la muestra de datos est determinado por su distancia d respecto del
dato muestra. Luego la funcin de densidad de probabilidades es una suma escalada para todos
los datos muestra. Matemticamente la funcin de densidad para una muestra de n datos se
expresa como
n

g(x) =

x xi
1 X
W(
)
n

(5.6)

i=1

El parmetro de escalamiento define el ancho de la curva de campana que rodea a cada


dato de la muestra. La funcin de peso W ms usada es la funcin Gaussiana, que corresponde
al modelo PNNGauss evaluado en este trabajo, ntese que esto no tiene nada que ver con condiciones de normalidad, es solo una cuestin de conveniencia, esta funcin es bien comportada y
fcil de calcular. Con la funcin Gaussiana, la funcin de densidad toma la forma
x2
1
e( 22 )
g(x) =
2

(5.7)

Otra funcin de peso que se utiliz en este trabajo fue la correspondiente a la funcin
recproca

W (d) =

1
1 + d2

(5.8)

con esta funcin se construy el modelo de prediccin denominado PNNReciprocal.


Finalmente la arquitectura de la red, consiste de una capa de entrada, una capa de patrones,
la capa de suma de las funciones de densidad de probabilidad y la capa de salida.

65

Red Neuronal Multicapa hacia Adelante (MLFFN)


Este modelo neuronal llamado Perceptrn, fue introducido por Rosenblatt a finales de los aos
cincuenta [151]. La estructura de este modelo se inspira en las primeras etapas del procesamiento
de los sistemas sensoriales de los animales (por ejemplo, la visin), en los cuales la informacin
va atravesando sucesivas capas de neuronas, que realizan un procesamiento progresivamente
de ms alto nivel. Es un modelo unidireccional, compuesto en su forma bsica (perceptrn
simple) por dos capas de neuronas, una sensorial o de entradas, y la otra de salida [151, 152].
La operacin de una red de este tipo de modelo, con n neuronas de entrada y m de salida, se
puede expresar como

yi (t) = f(

n
X
j=1

wij xj i ), i, 1 i m

(5.9)

Las neuronas de entrada no realizan ningn cmputo, nicamente envan la informacin


(en principio se considera como seales discretas {0, 1}) a las neuronas de salida. La funcin
de activacin de las neuronas de la capa de salida puede ser de tipo escaln, o como en el
modelo evaluado en este trabajo sigmoidal binaria. Si se aaden capas intermedias (ocultas) a
un perceptrn simple, se obtiene un perceptrn multicapa (Multi-Layer FeedForward Network).
En particular el modelo de prediccin evaluado, consiste de un perceptrn simple (cero capas
ocultas), con las salidas de tipo lineal y el mtodo de aprendizaje es de regresin con refinamiento
con gradiente conjugado. El error a minimizar fue el valor medio absoluto de los errores de
prediccin [16].
Mquina de Vectores de Soporte (MySVM Multipunto con kernel radial y dot)
Las SVM son sistemas de aprendizaje introducidos por Vapnik [153], que utilizan un espacio de
hiptesis de funciones lineales en un amplio espacio de caractersticas, las cuales son entrenadas
con un algoritmo de optimizacin que implementa una tendencia de aprendizaje estadstico
[154]. Dicha teora de aprendizaje trata el problema de encontrar una funcin de una clase de
funciones (f ) del tal forma que se minimice el riesgo esperado R [f ],
R [f] =

ZZ

L(y, f(x))dP (y|x)dP (x)

66

(5.10)

respecto a una funcin de prdida L cuando la distribucin de probabilidad de los ejemplos


P (x) y sus clasificaciones P (y|x) no son conocidos, y tienen que ser estimados de un nmero
finito de ejemplos (xi , yi )i I. El algoritmo de las SVM resuelve ste problema minimizando
el riesgo regularizado Rreg [f]:
Rreg [f] = Remp [f] + kwk2

(5.11)

el cual es la suma ponderada del riesgo emprico Remp [f] con respecto a los datos (xi , yi )i =
1, 2, .., n y a un trmino de complejidad kwk2 . En su formulacin bsica, la SVM encuentra una
funcin de decisin f(x) = sign(x + b) que minimiza el error de prediccin en el conjunto de
entrenamiento y procura el mejor desempeo en la generalizacin.
Una de las principales caractersticas de las SVM es el uso de funciones de kernel para
extender la clase de funciones de decisin al caso no lineal [154]. Esto se hace mapeando los
datos desde el espacio de entrada X a un amplio espacio de caractersticas mediante una
funcin , y resolviendo el problema de aprendizaje lineal en .

:X

(5.12)

La funcin real no necesita ser conocida, es suficiente tener una funcin de kernel k que
calcule el producto interno en el espacio de caractersticas.

k(x, y) = (x) (y)

(5.13)

El kernel lineal o dot k(x, y) = x y es la funcin de kernel ms simple. La funcin de


decisin toma la forma f(x) = x + b. Cuando se usa este kernel en el anlisis de series de
tiempo, el modelo resultante es un modelo auto regresivo de orden p (AR(p)).
La funciones de kernel con base radial (FBR) toman la forma k (x, y) = exp( kx yk2 ),
siendo una constante de proporcionalidad cuyo rango de valores tiles debe ser estimado para
cada aplicacin en particular. Para las series de tiempo, se ha mostrado que la informacin
dentro de una ventana de una serie puede ser obtenida de otras ventanas que son similares en
trminos de la distancia euclidiana entre ellas, lo que hace til al kernel con base radial para la
prediccin [20].
67

Las SVM pueden ser aplicadas a resolver el problema de prediccin de series de tiempo
mediante la siguiente representacin, si tenemos una serie de tiempo ST = {x1 , x2 , ..., xN }
podemos separarla en ventanas w = (xi , ..., xi+p1 ) de tamao p. Entonces hay que encontrar
una funcin f : Rp R, tal que f (xi , ..., xi+p1 ) = xi+p para cada i {0, N p} [20]. La
tcnica de SVM evaluada en este trabajo se llama MySVM [19], y fue modificada para utilizar
una representacin de ventana deslizante en el conjunto de entrenamiento del algoritmo SVM
y realizar predicciones de mltiples puntos [20]. Se construyeron dos modelos uno que utiliza
el kernel de tipo radial y otro con el kernel de tipo lineal.

5.2.3

Tcnicas de Teora de Sistemas Dinmicos No Lineales

Modelo Lineal Local en el Espacio Fase (Nstep)


Este modelo de prediccin consiste en asumir que es posible ajustar un modelo lineal de carcter
local para cada punto del sistema en el espacio fase [3], para de esta forma resolver la siguiente
ecuacin:

sn+1 = f(sn )

(5.14)

donde f(sn ) es una funcin suave no conocida que depende del punto sn , realizando la
aproximacin local para f (sn ) mediante una expansin de Taylor es posible encontrar la solucin
a la expresin anterior. La condicin que se pide es la minimizacin de la varianza del conjunto
de puntos:

2 =

sj Un

(sj+1 an sj bn )2

(5.15)

con respecto a los coeficientes an y bn , donde Un es el  vecindario de sn , excluyendo al


mismo. Entonces la prediccin es:

sd
n+1 = an sn + bn

(5.16)

El problema de minimizacin se resuelve mediante un sistema de ecuaciones lineales acopladas.

68

Modelo de Funciones Polinomiales en el Espacio Fase (Polynomp)


En este modelo se considera la construccin de un modelo de carcter global que ajuste los
puntos del sistema mapeados en el espacio fase. La expresin a resolver es:

2 =

X
(sn+1 fp (sn ))2

(5.17)

donde fp es una funcin no lineal en forma cerrada con p parmetros, con respecto a los
cuales la expresin anterior debe ser minimizada. Es posible utilizar polinomios (como en esta
tcnica), funciones de base radial, redes neuronales, polinomios ortogonales, etc.. Los resultados
dependen de que el anzatz (aproximacin o estimacin) seleccionado fp sea adecuado para
modelar la funcin no lineal desconocida y de que tan deterministas son los datos a modelar
[3].
K-Vecinos Cercanos (K-Nearest-Neighbours)
La idea principal detrs de este mtodo es el predecir el valor objetivo de una nueva observacin a partir de observaciones conocidas realizadas en el pasado (base de casos). La nueva
observacin es comparada con todos los elementos de la base de casos. Las k observaciones
pasadas ms similares son luego seleccionadas como referencias para el nuevo candidato. La
medida de similitud se define frecuentemente como la distancia entre las nuevas y las viejas
observaciones. Los valores objetivo de las k referencias son combinadas por ejemplo, con un
promedio simple, para obtener el valor objetivo de la nueva observacin. El mtodo de k vecinos
cercanos imita la habilidad humana conocida como reaccin a una nueva situacin con la ayuda
de la experiencia pasada. El mtodo de k vecinos cercanos pertenece a la clase de algoritmos de
aprendizaje basados en instancias en el campo de aprendizaje de mquina (Machine Learning),
ya que emplea instancias en lugar de modelos. Este mtodo pertenece a la clase de mtodos
no parmetricos. No son necesarias suposiciones sobre la distribucin de los datos analizados
[155]. En el caso de la prediccin de series de tiempo, la aplicacin de este mtodo consiste en
la reconstruccin del atractor en el espacio fase, para posteriormente identificar los k vecinos
cercanos que corresponden a estados similares del sistema y que pertenecen a trayectorias cercanas a la trayectoria donde se predice el estado siguiente no conocido [3, 156], la Figura 5-1

69

Estado a predecir

Trayectorias
vecinas

K vecinos
cercanos

Figura 5-1: Prediccin con el mtodo de K vecinos cercanos


ilustra la explicacin anterior. Una vez identificados los k vecinos cercanos se calcula el estado
a predecir mediante un promedio simple o una variante de este como puede ser un promedio
pesado, donde se asigna mayor peso a las muestras ms recientes.

5.3

Tcnicas de Modelado

5.3.1

Tcnicas Estadsticas

ARMA
George Box y Gwilym Jenkins en 1976 propusieron que muchas series podran ser explicadas
mediante un modelo relativamente simple, este modelo est basado en dos modelos primitivos
[80]. El primero de ellos es el Auto Regresivo (AR), en estadstica se tiene la tcnica de regresin
que consiste en que una variable puede ser modelada o predicha utilizando una combinacin
lineal de una o ms variables distintas. En el caso de la auto regresin la variable es modelada
mediante la combinacin lineal de los valores previos de ella misma. Un modelo auto regresivo
asume que el valor actual de la serie es igual al promedio pesado de un nmero finito de
valores previos, ms una constante de oset, ms un trmino de ruido aleatorio. Estos trminos
70

aleatorios se les llama shocks, por definicin estos trminos son independientes entre s y con
respecto a la serie de tiempo, adems estn idnticamente distribuidos y se asume poseen media
cero y una varianza finita, estrictamente deberan seguir una distribucin normal. El modelo
primitivo de AR se expresa como:

zt = 0 + 1 zt1 + 2 zt2 + ... + at

(5.18)

La correlacin entre los parmetros es alta lo que produce inestabilidades en su clculo


cuando se buscan muchos de ellos, el oset es 0 y no es la media de la serie, el trmino shock
es at .
El segundo modelo primitivo que juega un papel importante en la aproximacin de BoxJenkins es el promedio mvil (Moving Average, MA). Este modelo nos dice que el valor actual
de una serie de tiempo es igual a la suma pesada (con pesos 1 , 2 ,...) de un nmero finito de
shocks previos (at1 , at2 ,...), ms una constante de oset 0 y el shock actual at . Lo anterior
se expresa con la siguiente ecuacin,

zt = 0 + 1 at1 + 2 at2 + .... + at

(5.19)

El nombre de promedio mvil no es precisamente el mejor. Desde el punto de vista estadstico la expresin anterior implica que los pesos son positivos y su suma igual a la unidad, pero
no es necesario que se cumpla estrictamente lo anterior. En este caso la constante de oset
si corresponde a la media de la serie de tiempo, esto debido a que por definicin los trminos
shock poseen media cero.
En apariencia ambos modelos parecen ser muy similares pero no son idnticos, de hecho se
complementan. Muchos procesos fsicos se describen mejor con modelos cuyos trminos a pesar
de ser simples en forma, se extienden hacia atrs en el tiempo considerablemente, lo cual como
se mencion anteriormente dificulta el clculo de los parmetros del modelo cuando estos son
demasiados. Aqu es donde una propiedad importante de los modelos AR y MA es de utilidad,
se puede mostrar que un modelo finito de un tipo es matemticamente equivalente a un modelo
infinito de otro tipo. Por ejemplo, la siguiente expresin muestra la equivalencia de un trmino
simple de un modelo AR y un modelo MA con nmero de trminos infinito,

71

zt = zt1 + at = at + at1 + 2 at2 + 3 at3 + ....

(5.20)

No es necesario limitar el modelo de eleccin a un AR o MA puros. Se pueden combinar


ambos dando lugar al modelo ARMA:

zt = 0 + 1 zt1 + 2 zt2 + .... + 1 at1 + 2 at2 + .. + at

(5.21)

Este modelo sigue siendo popular ya que funciona bien para una gran cantidad de problemas
reales. En la literatura se acostumbra definir al nmero de trminos del modelo AR como p
y al nmero de trminos del modelo MA como q, entonces se dice que se tiene un modelo
ARMA(p, q) [16, 73].

5.3.2

Tcnicas de Inteligencia Artificial

Red Neuronal hacia Adelante con aprendizaje de retro propagacin (FFNBP)


Este modelo de red neuronal es similar al utilizado por la tcnica MLFFN descrita en la
subseccin 5.2.2, la diferencia principal consiste en que la red neuronal en vez de predecir,
ahora solo modela las series de tiempo, en particular la red neuronal evaluada consisti de una
capa de entrada, una capa oculta y una de salida [157]. El algoritmo de entrenamiento utilizado
es de retro propagacin (backpropagation) [151]. El cul busca minimizar el error cuadrtico
medio

E(wji , j , wkj , k ) =

1 XX
2

X
0
0
t f
wkj y k
j

(5.22)

mediante el descenso por gradiente, con un gradiente respecto a los pesos de la capa de
salida y otro respecto de los de la capa oculta
0

wkj =

E
0
wkj

E
wji = w
ji

Las expresiones de actualizacin de los pesos son de la forma

72

(5.23)

0
h
i
0
0
0
f ( k )
k yj , con k = tk f ( k )
0
k

!
X
X 0 0
f (
j)
wji =
j xi , con j =
k wkj

0

wkj =

(5.24)

En estas expresiones est implcito el concepto de propagacin hacia atrs de los errores
0

que da nombre al algoritmo, obsrvese como se propaga hacia atrs la seal de error k para
calcular la seal de error j .
Red Neuronal de Funciones Radiales con aprendizaje de retro propagacin (RBFNBP)
Este modelo es una red unidireccional para aproximacin funcional que puede incorporar aprendizaje supervisado y no supervisado. La arquitectura de una red de funciones de base radial
(RBF) cuenta con tres capas de neuronas: de entrada, oculta y de salida. Las neuronas de
entrada, simplemente envan la informacin del exterior hacia las neuronas de la capa oculta.
Las neuronas de la capa de salida son lineales, esencialmente calculan la suma ponderada de
las salidas que proporciona la capa oculta. La diferencia fundamental entre la arquitectura de
este modelo y el de un perceptrn multicapa, se centra en la operacin de las neuronas ocultas.
stas, en vez de computar la suma ponderada de las entradas y aplicarle una funcin de tipo
sigmoideo, operan en base a la distancia que separa el vector de entradas respecto del vector
sinptico que cada una almacena (denominado centroide), cantidad a la que aplican una funcin radial con forma Gaussiana. Es decir, as como en un perceptrn multicapa las neuronas
ocultas poseen una respuesta de rango infinito (cualquier vector de entrada, con independencia
del lugar del espacio de entrada de donde proceda puede causar que la neurona se active), en
la red RBF las neuronas son de respuesta localizada, pues slo responden con una intensidad
apreciable cuando el vector de entradas presentado y el centroide de la neurona pertenecen a
una zona prxima en el espacio de entradas. Sea xi las entradas de la red, yj las salidas de
la capa oculta, y zk las salidas de la capa final (y globales de la red). Cada neurona j de la
capa oculta almacena un vector cji , el centroide; a cada una de estas neuronas se le calcula la
distancia euclidiana rj que separa el vector de entradas xi de su centroide

73

rj2 = kx cj k2 =

X
(xi cji )2

(5.25)

La salida de la neurona yj se clcula a partir de una funcin de activacin denominada


funcin radial (r). Una de las ms tpicas es la funcin Gaussiana

(r) = er

2 /2 2

(5.26)

El trmino funcin de base radial procede precisamente de la simetra radial de estas funciones (el nodo da una salida idntica para aquellos patrones que distan lo mismo del centroide).
La salida de la neurona oculta j es

rj2 /22j

yj = e

=e

X
i

(xi cji )2 /22j

(5.27)

As, si el vector de entradas coincide con el centroide de la neurona j (x = cj ), sta responde


con mxima salida (la unidad). Es decir, cuando el vector de entradas se sita en una regin
prxima al centroide de una neurona, sta se activa, indicando que reconoce el patrn de
entrada; si el patrn de entrada es muy diferente del centroide, la respuesta tiende a cero.
Las salidas de las neuronas ocultas son a su vez las entradas de las neuronas de salida, las
cuales calculan su respuesta zk de la forma

zk =

wkj yj + k =

wkj (rj ) + k

(5.28)

siendo wkj el peso que conecta la neurona oculta j con la salida k, y k un parmetro
adicional de la neurona k, que por similitud con el perceptrn llamaremos umbrales (bias).
Esta expresin es similar a la correspondiente al perceptrn con una capa oculta y neuronas
de salida lineales. El aprendizaje de la red se realiza en dos partes, primero se entrena a
las neuronas ocultas Gaussianas, para ello se determinan los centroides cji por medio de el
algoritmo k-medias, luego se procede al clculo de los parmetros de escala j de cada neurona,
para lo cual suele hacerse uso de criterios heursticos. La segunda parte del entrenamiento
corresponde a las neuronas de salida donde se calculan los pesos wkj y los umbrales k , en este
caso se utiliz el algoritmo de retro propagacin (backpropagation) descrito anteriormente para
74

la tcnica FFNBP [151, 152, 157].


Red Neuro-Difusa (ANFIS)
ANFIS (Adaptive-Network-based Fuzzy Inference System) es un sistema de inferencia difusa
implementado en el marco de redes adaptables. Mediante el uso de un procedimiento de aprendizaje hbrido, ANFIS puede construir mapeos de entrada-salida basados en conocimiento humano (en la forma de reglas difusas si-entonces) o como en el caso de modelado de series de
tiempo basados en pares de datos de entrada-salida asignados [158, 159].
Las reglas difusas si-entonces estn caracterizadas por funciones de membresa, en este caso
particular del tipo campana Gaussiana. Estas reglas son empleadas para capturar los modos
de razonamiento imprecisos que juegan un rol esencial en la habilidad humana para tomar
decisiones en un ambiente de incertidumbre e imprecisin. El modelo utilizado en la red ANFIS
es el de Takagi y Sugano, donde los conjuntos difusos slo estn presentes en la parte de la
premisa, la parte correspondiente a la consecuencia es descrita por una ecuacin no difusa.
La arquitectura de la red adaptable es el superconjunto al que pertenecen las redes neuronales hacia adelante con aprendizaje supervisado. En el caso particular de ANFIS, la arquitectura corresponde a una red hacia adelante multicapa con el aprendizaje en dos partes: primero
con estimacin de mnimos cuadrados en el paso hacia adelante (feedforward ) y en la segunda
parte con gradiente descendente en el paso hacia atrs (backpropagation). La arquitectura de
la red implementa al sistema difuso de la siguiente forma, durante el proceso de entrenamiento
se parte de unas funciones de membresa iniciales, en el paso hacia adelante la estimacin de
mnimos cuadrados calcula los parmetros de la parte de consecuencia del enunciado difuso,
luego en el paso hacia atrs los errores se propagan y los parmetros de la parte de premisa del
enunciado son actualizados por el algoritmo de gradiente descendente. Finalmente se obtienen
las funciones de membresa ajustadas para el conjunto de datos a modelar durante la etapa de
prueba.
Red Neuronal Polinomial (RNAP)
RNAP es un modelo hbrido de red neuronal que define una funcin de transicin en trminos
de un sistema no lineal de ecuaciones polinomiales, el cual es optimizado en la fase de entre75

namiento por medio de una implementacin de Algoritmo Gentico con el fin de obtener la
mejor arquitectura de la red.
El modelo RNAP se define matemticamente como:

ybk = [(x1,k , x2,k , ..., xni ,k , x1,k1 , x2,k1 , ...., xni ,knl , yk1 , yk2 , .., ykn2 )]max
min

(5.29)

donde ybk R, es la salida de la red, (x, y) R es una funcin no lineal, xi X, son las

entradas, i = 1, ...., n; ni es el nmero de entradas, yk,j Y son los valores anteriores de la


salida j = 1, ..., n2 ; nl es el nmero de retardos de la entrada, n2 es el nmero de retardos de la
salida y X, Y , son conjuntos compactos de R.
La funcin no lineal (z) est dada por:

[(z)]max
min

max

(z) max

(z), min < (z) < max

,
(z) min
min

(5.30)

donde max y min son los lmites mximos y mnimos respectivamente.


Para simplificar la notacin se rescribe la ecuacin 5.30 con el siguiente cambio de variable:

z = {z1 , z2 , ..., znv }

(5.31)

Donde nv es el nmero total de elementos de la descripcin z, es decir, el nmero total de


entradas, valores anteriores y valores de salida.
Dado el cambio de variable, la funcin (zk ) p conforma una familia de polinomios que
pueden ser representados como:

(z) : (z) = a0 (z1 , z2 , ..., zn ) + a1 (z1 , z2 , ..., zn )+


v
v
p = (z1 , z2 , ..., zn ) =

... + a (z , z , ..., z )
p

(5.32)

nv

donde los trminos ai (z1 , z2 , ..., zi ) son polinomios homogneos de grado total i, para i =
0, .., p.
76

Para describir el proceso de aprendizaje de la red RNAP se definen los siguientes trminos:
Error de aproximacin de RNAP

k=1

k=1

1X
1X
(yk (zk ))2 =
(yk ybk )2 , y n = (y1 , y2 , ..., yn )
errn (y , (z)) =
n
n
n

(5.33)

Donde (zk ) p y n es el nmero de puntos.


Error ptimo:

opterrn (yn , (z)) = min {errn (y n , (z))} = errn (y n , n (z))

(5.34)

donde n (z) p es la estimacin ptima de y n .


La RNAP (z) p aprende uniformemente la salida deseada con la precisin si
errn (y n , (z)) errn (y n , n (z))

(5.35)

con 0.
Una vez definidos estos conceptos el problema de aprendizaje de RNAP consiste en encontrar
la estructura de p (z) que verifica la desigualdad descrita por 5.35.
El problema de aprendizaje de RNAP para una arquitectura especfica puede ser representado como un problema de optimizacin con los siguientes pasos:

min
Wb

min {errn (y , (z))|Wb }


n

W R

(5.36)

donde errn (yn , (z))|Wb es el error definido en 5.33 para un valor determinado del vector
binario Wb .
El objetivo del algoritmo gentico es encontrar el valor de Wb para el cual el vector de pesos
W hace que se cumpla 5.35. Este arreglo puede ser obtenido utilizando el mtodo de mnimos
cuadrados y queda expresado como:

77

WWb = arg min {errn (y n , (z)|Wb }


n
X
yk (Mb (zk ))|Wb
WWb = N

(5.37)

k=1

donde:
Mb (zk ) = M WBT
n
!1
X
N =
Mb (zk )T

(5.38)

k=1

Los pasos que sigue el Algoritmo Gentico para obtener la estructura ptima de RNAP se
pueden resumir de la siguiente manera:
1 Se obtiene la poblacin inicial de forma aleatoria.
2 Se selecciona al mejor conjunto de individuos de la poblacin inicial utilizando como
funcin objetivo el error de aproximacin de RNAP definido en 5.33.
3 Se obtiene una nueva poblacin Ag utilizando los operadores de recombinacin y mutacin
propios de Algoritmo Gentico.
4 Se reevala la funcin objetivo utilizando el error de aproximacin de RNAP.
5 Se regresa al paso 3 hasta que se alcance el mximo nmero de generaciones o hasta
que alguno de los individuos extrados del proceso de seleccin satisfaga la desigualdad
descrita en 5.35.
Dado que RNAP asigna dinmicamente el nmero de neuronas y de generaciones necesarias
en el entrenamiento, los nicos parmetros manipulables exteriormente son:
Pot, representa la mxima potencia a alcanzar en la aproximacin polinomial.
Eta, representa la dispersin del ruido presente en los datos de entrada.
Phiest, define la estructura de la matriz de aprendizaje.
Esta tcnica como se ver posteriormente posee una excelente capacidad para modelar a
series de tiempo de diferentes caractersticas [160, 161, 162].

78

5.3.3

Tcnicas de Teora de Sistemas Dinmicos No Lineales

Predict
Esta tcnica de modelado se basa en la idea de aproximacin con modelos locales mencionada
en la descripcin de la tcnica de prediccin Nstep de la seccin 5.2, en este caso se realiza una
aproximacin local manteniendo el orden cero de la misma, esto es, se aproxima la dinmica
localmente por una constante [3]. En el espacio fase reconstruido, todos los vecinos del punto
sn dentro de una vecindad Un son buscados, para entonces calcular el siguiente punto usando
la expresin,

s[
n+k =

1 X
sj+k
|Un |

(5.39)

sj Un

Polynom
Esta tcnica de modelado se basa en el mismo algoritmo de la tcnica de prediccin Polynomp
descrita en la seccin 5.2, la funcin fp para construir el modelo corresponde a un polinomio,
los parmetros p del polinomio ocurren en forma lineal en la funcin f y pueden ser encontrados
con lgebra lineal y la solucin es nica. Esta ventaja se pierde si la funcin a construir posee
parmetros que ocurren en forma no lineal [3].
rbf
En esta tcnica, se aplica nuevamente el algoritmo de construccin de modelos globales descrito
para la tcnica Polynomp, pero ahora la funcin fp corresponde a funciones de base radial [3].
Se define una funcin escalar (r) que tiene solo argumentos positivos r. Adicionalmente, se
seleccionan k centros yi en el atractor. Incluyendo la funcin constante como la funcin base
de orden cero, se obtiene

fp (x) = 0 +

k
X
i=1

i (kx yi k)

(5.40)

Funciones base tpicas son las de forma de campana, con un mximo a r = 0 y un decaimiento rpido hacia cero conforme r crece. Pero tambin es posible usar funciones crecientes

79

o incluso singulares. La funcin fp es modelada ajustando los coeficientes i de las funciones .


La determinacin de los coeficientes i es un problema lineal (se puede resolver con mnimos
cuadrados).
Sugimay
Es una tcnica de modelado que se basa en la bsqueda del valor a modelar a partir de vecinos cercanos, primeramente se selecciona la dimensin embebida m de la serie de tiempo y
se reconstruyen los puntos de la serie de tiempo en el espacio fase, para ello se utilizan las
coordenadas con retrazo para representar las secuencias de datos en dicho espacio de dimensin

m : xt , xt , xt2 , ..., xt(m1) . La modelacin llamada predictee se encuentra en el espacio


de dimensin m, para construirla es necesario localizar los puntos cercanos en este espacio fase,

para ello se selecciona un vecindario mnimo definido tal que el predictee est contenido dentro
del simplex ms pequeo (con dimetro mnimo) formado por los m + 1 vecinos cercanos. La
modelacin se obtiene proyectando el dominio del simplex en su rango, esto es mediante el
seguimiento de donde los puntos del simplex terminan a p pasos de tiempo. Para obtener el
valor modelado se calcula donde el predictee original se ha movido dentro del rango del simplex,
dando un peso exponencial a sus distancias originales respecto de los vecinos relevantes. Este
mtodo es no parmetrico por lo que no utiliza informacin a priori sobre el modelo usado para
generar la serie de tiempo, solamente la informacin de los datos de la serie [163].

80

Captulo 6

Tcnicas para el Anlisis de


Conjuntos de Datos Multivariados
6.1

Introduccin

El amplio conjunto de datos experimentales generados en esta tesis, requiri del uso de tcnicas de anlisis de estadstica multivariada y reconocimiento de patrones, que ayudasen en
la extraccin, reconocimiento y clasificacin de los patrones ocultos en los datos, mediante
la reduccin de las dimensiones de los conjuntos multidimensionales de datos experimentales
[72, 164]; para la bsqueda de las posibles relaciones entre caractersticas de las series de tiempo,
su predictibilidad y los modelos de prediccin. Para estudiar los diferentes conjuntos de datos,
se seleccionaron tres tcnicas: Mapas Auto Organizados (GHSOM), Anlisis con Escalamiento
Multidimensional (MDS) y Anlisis de Correlacin Bivariada. Los Mapas Auto Organizados
permiten estudiar el agrupamiento de los datos en base a una mtrica de similitud que adems
es de carcter jerrquico, por su parte el Anlisis con Escalamiento Multidimensional permite
observar como se agrupan los datos usando una mtrica de tipo Euclidiano. El Anlisis de
Correlacin Bivaria da, permite estudiar la correlacin que existe entre diferentes variables
experimentales y de esta forma inferir posibles relaciones de dependencia entre ellas. La informacin generada con las tcnicas se complemento entre s, y permiti extraer conocimiento
sobre la predictibilidad de las series de tiempo y sus relaciones. En el presente captulo se
describen a detalle las tcnicas mencionadas, la seccin 6.2 describe la tcnica de Mapas Auto
81

Organizados y su derivacin los Mapas Auto Organizados Jerrquicos. La seccin 6.3, describe
la tcnica de Anlisis con Escalamiento Multidimensional. Finalmente, la seccin 6.4 describe
el Anlisis de Correlacin Bivariada.

6.2
6.2.1

Mapas Auto Organizados (SOM y GHSOM)


SOM

Un Mapa Auto Organizado (SOM ) es una red neuronal de alimentacin hacia adelante (feedforward) que utiliza un algoritmo de entrenamiento no supervisado, y mediante un proceso
llamado auto organizacin, configura las unidades de salida en una representacin topolgica
de los datos originales. SOM pertenece a una clase general de mtodos de redes neuronales, las
cuales son tcnicas de regresin no lineal que pueden ser entrenadas para aprender o encontrar
relaciones entre las salidas y entradas u organizar los datos de tal forma que es posible identificar patrones o estructuras existentes entre los datos. SOM reduce datos multidimensionales a
un mapa de menor dimensin o malla de neuronas.
El algoritmo SOM se basa en el aprendizaje competitivo no supervisado. Este algoritmo
proporciona una mapeo que preserva la topologa del espacio de mayor dimensin en el espacio
de unidades del mapa (neuronas). Las unidades de mapa generalmente forman una malla de
dos dimensiones, entonces el mapeo corresponde de una alta dimensionalidad a un plano.
La propiedad de preservacin de la topologa significa que un Mapa Auto Organizado agrupa
vectores de datos de entrada similares en neuronas: es decir puntos que estn cerca uno del
otro en el espacio de entrada son mapeados a unidades de mapa cercanas en el Mapa Auto
Organizado. SOM puede ser de utilidad como una herramienta de agrupamiento (clustering)
as como para visualizar datos de alta dimensionalidad.
El proceso de crear un Mapa Auto Organizado requiere de dos capas de unidades de procesamiento: la primera es la capa de entrada que contiene unidades de procesamiento para cada
elemento en el vector de entrada, la segunda es una capa de salida o malla de unidades de
procesamiento que estn conectadas en forma total con las unidades de la capa de entrada.
El nmero de unidades de procesamiento en la capa de salida se define en base a la forma y
tamao inicial del mapa que se desea construir. A diferencia de otras redes neuronales no hay

82

capas ocultas o unidades de procesamiento ocultas.


Cuando un patrn de entrada se presenta a la red, las unidades en la capa de salida compiten
entre s por el derecho de ser declaradas ganadoras. El ganador ser la unidad de salida cuyos
pesos de la conexin de entrada sean los mas cercanos al patrn de entrada en trminos de una
distancia Euclidiana. Entonces la entrada se presenta y cada unidad de salida compite para
ajustarse al patrn de entrada. La salida que es mas cercana al patrn de entrada es declarada
ganadora. Los pesos de conexin de la unidad ganadora son ajustados, es decir, movidos en la
direccin del patrn de entrada por un factor determinado por la razn de aprendizaje. Esta es
la naturaleza bsica de las redes neuronales competitivas. La Figura 6-1 muestra un esquema
de la arquitectura de un Mapa Auto Organizado.
Las salidas compiten para
ser ganadoras

Ganador

Entradas

Vecindario

Figura 6-1: Esquema de una red neuronal SOM


SOM crea un mapeo topolgico mediante el ajuste no solamente de los pesos ganadores,
sino tambin el de los pesos de las unidades de salida adyacentes que pertenecen a la vecindad
cercana del ganador. Entonces no solo el ganador es ajustado sino que todo el vecindario de
unidades de salida es movido para ajustarse al patrn de entrada. Cuando se parte de valores
aleatorios para los pesos, las unidades de salida lentamente se alinean de tal forma que cuando
un patrn de entrada es presentado, una vecindad de unidades responde al patrn de entrada.
83

Conforme el entrenamiento progresa, el tamao del vecindario alrededor de la unidad ganadora


decrece. Inicialmente, grandes nmeros de unidades de salida sern actualizadas, pero conforme
el entrenamiento avanza cada vez un menor nmero de unidades son actualizadas hasta que
finalmente solo la unidad ganadora se ajusta. De forma similar, la razn de aprendizaje decrece
conforme el entrenamiento progresa, y en algunas aplicaciones, la razn de aprendizaje decaer
con la distancia de las unidades de salida respecto de las unidades ganadoras.
El resultado son pesos entre los vectores de entrada y las neuronas de salida que representan
un prototipo del patrn de entrada para el subconjunto de entradas que caen en un agrupamiento
particular (cluster ). El proceso de tomar un conjunto de datos de alta dimensionalidad y
reducirlos a un conjunto de clusters se llama segmentacin. El espacio de entrada de alta
dimensionalidad se reduce a un mapa de dos dimensiones. Si el ndice de la salida ganadora
es usada, ste esencialmente particiona los patrones de entrada en un conjunto de categoras o
clusters.
Un Mapa Auto Organizado tiene la capacidad de generalizar. Esto implica que la red puede
reconocer o caracterizar entradas que nunca haba encontrado antes. Una nueva entrada es
asimilada con la unidad de mapa que la mapea a ella. Incluso, vectores con datos perdidos
pueden ser utilizados y el mapa es capaz de predecir o completar los valores perdidos en base
al mapa de entrenamiento [165, 166].

6.2.2

GHSOM

En la seccin anterior se explicaron los fundamentos de los Mapas Auto Organizados (SOM), los
cuales permiten visualizar datos de alta dimensionalidad en un espacio de dos dimensiones, de
tal forma, que la similitud entre los datos de entrada es preservada. Sin embargo, estos mapas
poseen dos limitantes la primera consiste en la necesidad de conocer a priori la arquitectura
de la red en trminos del nmero y arreglo de los elementos neuronales de procesamiento, la
segunda es que no permiten la visualizacin de las posibles relaciones jerrquicas entre los datos
agrupados por sus similitud [167]. Lo anterior motiva, el uso de los Mapas Auto Organizados
Jerrquicos (Growing Hierarchical Self-Organizing Maps, GHSOM ) para estudiar las relaciones
de agrupamiento y jerarquas de los diferentes conjuntos de datos generados en esta tesis.
La base de los mapas GHSOM, es utilizar una estructura de jerarquas de mltiples capas

84

Unidad error
Unidad error

Unidades
insertadas

Vecino ms disimil
Vecino ms disimil

Figura 6-2: Insercin de unidades en un Mapa Auto Organizado Jerrquico


donde cada capa consiste de un nmero independiente de Mapas Auto Organizados (SOM).
SOM se utiliza en la primera capa de la jerarqua, pero adems para cada unidad del mapa
de esta capa un nuevo mapa SOM se aade formando una segunda capa de la jerarqua. Este
principio se repite con una tercera capa, etc. El mapa GHSOM utiliza una arquitectura de
red que se incrementa, el tamao de la red se define durante el proceso de entrenamiento no
supervisado. El proceso inicia con una capa virtual 0, la cual consiste de una sola unidad. El
vector de pesos de esta unidad se inicializa con el promedio de los datos de entrada. El proceso
de entrenamiento empieza con un pequeo mapa, por ejemplo, de tamao 2 2 unidades en la
capa 1, que se auto organiza de acuerdo al algoritmo de entrenamiento de SOM descrito en la
seccin anterior. La diferencia con SOM, consiste en que despus de iteraciones se localiza
a la mayor diferencia dentro del mapa entre un vector de pesos y el conjunto de vectores de
entrada que representa, a este vector de pesos se le llama unidad de error. Entre la unidad de
error y sus vecinos ms dismiles en trminos del espacio de entrada, se agrega una columna o
fila de nuevas unidades. Los vectores de peso de estas nuevas entradas se inicializan como el
promedio de sus vecinos. La Figura 6-2, muestra un ejemplo del proceso de ajuste del mapa
GHSOM.
La segunda caracterstica del mapa consiste en la construccin de jerarquas, a partir del
mapa SOM original, este se expande a otra capa, en caso de que exista un mapeo de datos de
85

Capa 0

Capa 1

Capa 2

Capa 3

Figura 6-3: Arquitectura de un Mapa Auto Organizado Jerrquico


entrada dismiles sobre una unidad del mapa SOM original. Estas unidades se identifican por
un error, llamado de cuantizacin, que es mayor a un umbral dado. En la nueva capa, los datos
de entrada dismiles se organizan en un nuevo mapa SOM, que se ajusta nuevamente y puede
dar lugar o no a nuevas capas, dependiendo del error de cuantizacin. La profundidad de la
jerarqua refleja la no uniformidad que se puede esperar en conjuntos de datos del mundo real
[167, 168]. La Figura 6-3, muestra la arquitectura de un mapa GHSOM.

6.3

Anlisis con Escalamiento Multidimensional (MDS)

El Escalamiento Multidimensional (MDS ) es un mtodo que representa medidas de similitud o


no similitud entre pares de objetos como distancias entre puntos de un espacio multidimensional
a uno de menor dimensin (2-dimensional o 3-dimensional) [169]. Los datos, por ejemplo,
pueden ser correlaciones entre pruebas de inteligencia, y la representacin MDS es un plano
que muestra las pruebas como puntos que estn cercanos entre s mientras mas positivamente
correlacionados estn las pruebas. La representacin grfica de las correlaciones permite al
experto observar y explorar la estructura de los datos, en busca de regularidades ocultas cuando
nicamente se analizan arreglos de valores numricos [170]. En la Figura 6-4 se muestra un
ejemplo de un anlisis MDS, el cual corresponde a la agrupacin de un conjunto de pases

86

en funcin de tres caractersticas: su nivel de desarrollo en ciencia y tecnologa, su nivel de


desarrollo econmico y su pertenencia o no a la OCDE (organizacin que agrupa a las llamadas
economas ms desarrolladas, a la cual pertenece Mxico). Obsrvese que el anlisis MDS
permite no solo agrupar y clasificar, sino adems, identificar dimensiones relevantes para el
conjunto de objetos bajo estudio.
El mtodo MDS tiene su origen en la psicofsica, en la cual se desarrollan modelos que
relacionan estmulos con propiedades fsicas bien conocidas y sus representaciones perceptuales
y cognitivas. Para la psicofsica la nocin de escalamiento multidimensional tiene un significado
directo en el sentido de que se estudia, cmo dimensiones fsicas conocidas son representadas
psicolgicamente. Su uso se extiende a diferentes ramas de las ciencias sociales (sociologa,
ciencias polticas, etc.).
Los cuatro propsitos del anlisis MDS son:
Un mtodo para representar similitud o no similitud entre datos mediante distancias en
un espacio de baja dimensionalidad, para hacer accesible la exploracin de los datos en
busca de estructuras ocultas en las representaciones de arreglos datos.
Permite la prueba de como un criterio del experto humano para distinguir entre diferentes
objetos de inters se refleja en una correspondencia de diferencias empricas de estos
objetos.
Aproximacin analtica de datos que permite el descubrimiento de dimensiones que repre
sentan juicios de similitud o no similitud.
Modelo psicolgico que explica juicios de no similitud en trminos de una regla que mimetiza un tipo particular de funcin de distancia.
Es importante notar que aunque casi siempre el mtodo MDS hace uso de una geometra
euclidiana para el clculo de las distancias de similitud, no es exclusivo de dicha geometra.
La construccin del modelo que utiliza el mtodo MDS, se describir con fines ilustrativos
utilizando como datos de ejemplo al conjunto de parmetros calculados para las series de tiempo
[132]. De modo general, se puede decir que el MDS toma como informacin de entrada una
matriz de proximidades, Mnn , donde n es el nmero de series de tiempo. Cada elemento
87

Figura 6-4: Grfica de MDS para un conjunto de pases agrupados por su desarrollo tecnolgico
y econmico

88
-3

Dimensin 2
-2.0

-1.5

-1.0

-.5

0.0

koreanor

.5

1.0

1.5

2.0

-2

pakistan

china

india

mexico

turquia

-1

argentin
cuba
sudafric
ucrania

brasil

rusia

Dimensin 1

grecia

irlanda
portugal

espaa
polonia
repcheca
eslovaqu

hungria

israel

taiwan

francia

uk

islandia

noruega

finland
suiza
suecia

luxembur

koreasur
newzelan
austria
aust
singapur

belgica

alemania

japon
usa

Riqueza Econmica

Desarrollo Ciencia Tecnologa

italia
dinamarc
holanda canada

Modelo de Distancias Euclideano

Anlisis MDS

ij de representa la proximidad entre los parmetros para las series de tiempo STi y STj
donde ij = (ci cj )2 , siendo ck un parmetro de la serie de tiempo k esima. La matriz de
proximidades es entonces de la forma:

11

12

21 22

= .
.

.
.

n1 n2

....
....
....
....
....

1n

2n

(6.1)

nn

El algoritmo inicia con una matriz aleatoria X Mnm , donde n, al igual que antes, es el
nmero de series de tiempo, y m es el nmero de dimensiones. En este ejemplo se considera
m = 2. Cada valor xij representa la coordenada de la STi en la dimensin j. As, la matriz X
toma la forma

x11

x12

x21 x22

X= .
.

.
.

xn1 xn2

....
....
....
....
....

x1m

x2m

xnm

(6.2)

A partir de esta matriz X se puede calcular la distancia existente entre dos series de tiempo
cualesquiera i y j, simplemente aplicando la frmula general de la distancia de Minkowski:
"m
#1
p
X
p
(xit xjt )
dij =

(6.3)

t=1

donde p puede ser un valor entre 1 e , en este caso se toma p = 2. A partir de estas
distancias se puede obtener una matriz de distancias que se denomina D Mnn ,

89

d11

d12

....

d21 d22

D= .
.

.
.

dn1 dn2

....
....
....
....

d1n

d2n

dnn

(6.4)

La solucin proporcionada por el MDS debe ser tal que haya la mxima correspondencia
entre la matriz de proximidades inicial y la matriz de distancias obtenidas D, lo cul se logra
modificando la matriz X de forma iterativa de la forma
BX
2n

(6.5)

2ij
si i = j
ij

(6.6)

X=
en donde B tiene como elementos:

bij =

bii =

X X 2 ik
dik

si i = j

bij = 0 si dij = 0

(6.7)

(6.8)

Existen dos modelos bsicos de MDS que son: el modelo de escalamiento mtrico y el modelo
de escalamiento no mtrico. En el primero de ellos se considera que los datos estn medidos en
escala de razn o en escala de intervalo y en el segundo que los datos estn medidos en escala
ordinal. Para el caso de las series de tiempo se aplica el modelo de escalamiento no mtrico, ya
que es ste el que permite formar clases o agrupaciones, a diferencia del escalamiento mtrico
que arroja informacin de tipo cuantitativo [132]. El modelo de escalamiento no mtrico no
presupone una relacin lineal entre las proximidades y las distancias, sino que establece una
relacin montona creciente entre ambas, es decir, si ij < kl dij dkl . Para conocer la
precisin del modelo se construye una medida de precisin, se sabe que las distancias son una
funcin de las similitudes, es decir,

90

f : ij (x) dij (x)

(6.9)

de esta forma se tiene que dij = f( ij ). Esto no deja ningn margen de error. Sin embargo,
en las proximidades empricas es difcil que se tenga la igualdad, por lo que generalmente se
tiene que dij f( ij ) con f( ij ) = a + bij donde a y b son constantes a determinar. A las
transformaciones de las proximidades por f se les llama disparidades. Ahora se puede definir
el error cuadrtico como

e2ij = (f( ij ) dij )2

(6.10)

Y la medida de precisin del modelo denominada S-Stress se define entonces como


v
2
uX
u
f( ij )2 d2ij
u
u i,j
X
S Stress = u
u
t
(d2ij )2

(6.11)

i,j

Finalmente el proceso completo de MDS consiste de los siguientes pasos [132]:


1 Obtencin de una matriz X Mnm de coordenadas aleatorias, que corresponde a las
distancias entre las series de tiempo.
2 Comparacin de las proximidades de con las distancias en X, para obtener las disparidades.
3 Clculo del S-Stress.
4 Modificacin de la matriz X con la ecuacin 6.5, con el objetivo de minimizar el S-Stress.
5 Regresar al paso 2 hasta que el S-Stress alcance el valor deseado.

6.4

Anlisis de Correlacin Bivariada

Cuando medimos objetos sobre dos variables que representan propiedades o parmetros de los
mismos, no solo es de inters el medir la tendencia central y la variacin de dichas variables,
91

sino tambin su asociacin, si la hay, entre las dos variables. La asociacin entre dos variables
puede a su vez ser de dos tipos: correlacional y experimental. En relaciones experimentales, el
experimentador controla los valores de una de las variables asignndolos en forma aleatoria y
observa los cambios provocados en la otra variable que se mide. En relaciones correlacinales,
no se tiene control sobre los valores de las variables de los objetos bajo estudio. nicamente se
observa como las dos variables covarian en su ambiente natural. Estas son variables aleatorias
en las cuales cualquier objeto tiene una probabilidad de poseer un valor dado de estas variables
que no estn bajo control del experimentador. La distincin bsica entre las dos relaciones yace
en si el experimentador asigna valores a la variable de los objetos en una forma aleatoria sin bias
o si la asignacin es histrica por naturaleza por medios desconocidos. Finalmente llegamos a
la definicin de anlisis de correlacin , el estudio de las relaciones que existen entre variables
aleatorias, incluyendo la identificacin y sntesis de tales relaciones. En estudios experimentales
controlados, interpretaciones causales pueden ser hechas sobre las relaciones observadas. Por
otra parte, en investigaciones correlacinales no existen interpretaciones causales que pueden
ser hechas con seguridad.
Ya sea que las relaciones sean correlacinales o experimentales, se pueden etiquetar con
varias expresiones que identifican la forma del patrn de las asociaciones existentes entre los
valores de las variables involucradas. Por ejemplo, puede darse el caso que ambas variables
posean valores con tendencia creciente o tendencia decreciente en dicho caso se dice que estn
relacionadas en forma positiva o directa. Pero tambin puede darse que cuando los valores de
una variable crecen los de la otra decrecen, en cuyo caso existe una relacin negativa o inversa.
Tambin puede darse el caso que en un rango de valores las variables presenten una relacin
directa y en otro rango de valores presenten una relacin inversa, a este tipo de relaciones se les
denomina no montonas. Adems las relaciones pueden ser de tipo lineal o no lineal, tambin
puede ocurrir que las relaciones sean cclicas. Por ltimo cuando se encuentra que no existe
una asociacin sistemtica entre los valores de dos variables se dice que las variables no estn
relacionadas, son no correlacionadas, son ortogonales o independientes entre s [171].
Existen diferentes mtodos de correlacin bivariada, en todos ellos se busca calcular un
coeficiente de correlacin que cuantifique la relacin entre dos variables (su grado de asociacin),
este coeficiente de correlacin se identifica por la letra r. Su expresin ms conocida esta dada

92

por

r=

n
X
(xi x)(yi y)
i=1

nsx sy

(6.12)

donde (xi x) es la desviacin del valor individual de un objeto sobre la variable x con
respecto de la media de dicha variable, (yi y) es la desviacin del valor de un objeto sobre la
variable y con respecto de la media de dicha variable, sx y sy son las desviaciones estndar de
las variables x e y, por ltimo n es el nmero de pares de observaciones. El rango de valores de
correlacin se encuentra entre -1 y 1, el signo del coeficiente indica la tendencia de la relacin
(directa o inversa), y su magnitud indica la fuerza de la misma, por ejemplo valores cercanos a
uno corresponden a una asociacin fuerte entre las variables.
Entre los coeficientes ms utilizados se encuentra el coeficiente de correlacin de Pearson
que mide asociaciones de tipo lineal entre dos variables. A pesar de la limitante del coeficiente
de ser una medida de asociacin lineal, el anlisis de correlacin es de mucha utilidad para
explorar las relaciones entre los diferentes parmetros de las series de tiempo, la predictibilidad
de las mismas y los modelos de prediccin.

93

Parte II

Predictibilidad de Series de Tiempo

94

Captulo 7

Clculo de Parmetros de las Series


de Tiempo
7.1

Introduccin

En este captulo, se describe al conjunto de series de tiempo utilizadas en los experimentos


desarrollados a lo largo de esta tesis, as como al conjunto de datos experimentales obtenidos
a partir del clculo de los parmetros de las series de tiempo. En la seccin 7.2 se presenta
la descripcin del conjunto experimental de series de tiempo utilizado en este trabajo, la
seccin 7.3 presenta una sinopsis de los diferentes parmetros seleccionados para caracterizar
a las series de tiempo, la seccin 7.4 presenta una breve descripcin de los conjuntos de datos
experimentales derivados del clculo de los parmetros para cada serie de tiempo, por ltimo
la seccin 7.5 presenta la discusin sobre este captulo.

7.2

Descripcin del Conjunto Experimental de Series de Tiempo

Para realizar el anlisis de series de tiempo se seleccionaron un conjunto de 29 series, el criterio


de seleccin fue el siguiente: que fueran una muestra representativa de las series de tiempo utilizadas en el anlisis y evaluacin de tcnicas de prediccin que se han reportado en la literatura
especializada [10], y que fueran representativas de una clasificacin bsica de referencia, en este
caso, en base a su comportamiento dinmico (peridico, cuasi peridico, catico, complejo y
95

estocstico), esta forma de clasificar a las series de tiempo fue un primer intento de entender
la predictibilidad de las mismas, usando como base la idea de que el comportamiento dinmico
observado indicaba mayor predictibilidad en el caso de las series peridicas y en un conjunto
discreto de clases de comportamiento dinmico, una menor predictibilidad correspondera a las
series con comportamiento estocstico o aleatorio, dicha clasificacin fue propuesta originalmente en forma independiente por Figueroa-Nazuno et. al. y Sprott en diversas publicaciones
[8, 131, 172, 173].
Este conjunto de series de tiempo por sus caractersticas dinmicas son series con estructuras muy variadas desde las ms simples como las de tipo peridico hasta series complejas
como las correspondientes a fenmenos naturales tales como un sismo, las series son utilizadas
ampliamente en los trabajos reportados en la literatura especializada, por lo que son una muestra representativa del estudio experimental sobre la prediccin de series de tiempo, las series
seleccionadas a diferencia de las series de los sistemas comnmente analizados en aplicaciones
como demografa, econometra, comercio, etc., son series que llevan a las tcnicas de prediccin
al limite de sus capacidades de modelado. A continuacin se describe a cada una de las series
de tiempo estudiadas en esta tesis.
1 Sine. Serie peridica generada para 10 ciclos generada por la funcin
f (x) = Seno(x)

(7.1)

2 Vanderpol. Serie peridica generada por una ecuacin diferencial, que es modelo del paso
de la carga electrica (denotada por y) a travs de un circuito oscilador de un tubo de
vaco (triodo) [59]. Su ecuacin es:
dy
d2 y
+ (y 2 ) + 2 y = 0
dt2
dt

(7.2)

3 Qperiodic2. Serie cuasi peridica obtenida de la medicin de una variable de velocidad


(cm/s) en un experimento anular para reproducir un Flujo de Couette (Reologa), las
mediciones se obtuvieron con un muestreo cada 0.1 segundos. Nota, las condiciones
experimentales no se proporcionan en la literatura.
96

4 Qperiodic3. Serie cuasi peridica obtenida de la medicin de una variable de velocidad


(cm/s) en un experimento anular para reproducir un Flujo de Couette (Reologa), las
mediciones se obtuvieron con un muestreo cada 0.4 segundos. Nota, las condiciones
experimentales no se proporcionan en la literatura.
5 Mackey-Glass. Serie catica generada por una ecuacin diferencial de retardo temporal:
modelo de formacin de clulas sanguneas blancas (linfocitos) [156, 174]. La ecuacin es
de la forma:

ax(t )
dx
= bx(t) +
dt
1 + [x(t )]10

(7.3)

donde a = 0.2, b = 0.1 y = 3000.


6 Logistic. Serie catica generada por un mapa: este mapa se puede pensar como un
modelo ecolgico de las variaciones anuales de poblaciones de insectos [59]. Su expresin
matemtica es:

xn+1 = rxn (1 xn )

(7.4)

donde n = ao, x = Nmero de insectos que nacen, r = Nmero de huevos puestos por
cada insecto en promedio que eclosionan al ao n+1.
7 Lorenz. Serie catica generada por un sistema de ecuaciones diferenciales: modelo de
conveccin de fluidos (conveccin de Rayleigh-Benard) la cual se presenta en la atmsfera
terrestre [59, 140, 175]. El sistema de ecuaciones es de la forma:

dX
dt
dY
dt

= e
X +
eY

= XZ + reX Y
dZ
dt

(7.5)

= XY ebZ

donde
e = 10, re = 28 y e
b = 8/3 son parmetros adimensionales, X es proporcional a la

velocidad del flujo de fluido circulatorio, Y caracteriza la diferencia de temperatura entre

97

regiones de fluido ascendentes y descendentes y Z caracteriza la distorsin del perfil de


temperatura vertical con respecto de su variacin de equilibrio.
8 Rossler. Serie catica generada por un sistema de ecuaciones diferenciales: modelo simplificado de Lorenz [156, 176]. El sistema de ecuaciones tiene la forma:

x = (y + z)

(7.6)

y = x + 0.2y

z = 0.4 + xz 5.7z
9 Ikeda. Serie catica generada a partir de un mapa construido en el plano complejo:
modelo de la dinmica de pulsos de luz que viajan a travs de un medio no lineal [59]. La
expresin matemtica es de la forma:

z(n + 1) = a + R exp(i(

p
))
(1 + |z 2 (n)|)

(7.7)

donde z(n) representa al pulso que viaja a travs de dicho medio. Los parmetros tienen
los valores a = 1, R = 0.9, = 0.4 y p = 6.
10 Henon. Serie catica generada a partir de un mapa: modelo simplificado del mapa de
Poincar para el modelo de Lorenz [59, 177]. La expresin matemtica es de la forma:

a = 1.4;
b = 0.3;
x(n + 1) = 1 a x2 (n) + y(n);

(7.8)

y(n + 1) = b x(n);
11 Cantor. Serie catica generada por el conjunto de Cantor (teora de conjuntos), el cual
es un conjunto cerrado que consiste enteramente de puntos de frontera cada uno de los
cuales es un punto lmite de dicho conjunto [59].
12 Tent. Serie catica generada por un mapa de tipo lineal por partes [59]. Su expresin
matemtica es de la forma:

98

xn+1

= 1 2 xn

1
2

(7.9)

13 A1 (Concurso Santa Fe). Serie compleja obtenida a partir de mediciones experimentales


de la intensidad de un lser NH3 Infrarrojo Lejano, las caractersticas del lser son las
siguientes: lser de onda continua en el infrarrojo lejano, longitud de onda de 81.5 micras,
el lser es bombeado opticamente por un lser de N2O [14].
14 D1 (Concurso Santa Fe). Serie compleja generada por un modelo de la dinmica de una
partcula amortiguada en un potencial de interaccin [14]. El potencial de Interaccin es
de la forma:

V = a4 (x21 + x22 + x23 + x24 )2 a2 (x21 x22 ) 2 a1 x1

(7.10)

La fuerza se expresa como:

F = A Sen( t)

(7.11)

en la direccin x3 , y la disipacin es igual a:


Disipaci
on = V elocidad. El valor de a1 tiene un pequeo desplazamiento producido
por la integracin de una variable aleatoria Gaussiana. El observable que se obtiene es:
q
(x1 0.3)2 + (x2 0.3)2 + x23 + x24

(7.12)

15 Laser (Concurso Santa Fe). Serie compleja obtenida a partir de mediciones experimentales de la intensidad de pulsos de lser NH3 Infrarrojo Lejano, condiciones de la frecuencia: frecuencia serie Laser 3 frecuencia serie A1 [14].
16 Dow Jones. Serie compleja obtenida a partir del ndice Industrial Dow Jones del NYSE
(New York Stock Exchange), la serie corresponde al promedio semanal de los precios al
cierre de operaciones para el periodo del 01/07/1900 al 03/08/1996.

99

17 Kobe. Serie compleja obtenida a partir de un acelerograma del sismo de Kobe del 16
de enero de 1995. La serie corresponde a la aceleracin vertical, las mediciones fueron
realizadas en Hobart, Australia por la Universidad de Tasmania, a partir de las 20:56:51
(GMT) durante 51 minutos a intervalos de 1 segundo.
18 EEG. Serie compleja obtenida a partir de un electroencefalograma humano [3].
19 ASCIITXT. Serie compleja generada a partir de cdigo de texto ASCII.
20 El nio. Serie compleja obtenida a partir de la medicin experimental de la dinmica de
una variable del fenmeno climtico el nio.
21 HIV DNA. Serie compleja obtenida a partir del cdigo del DNA del Virus de Inmunodeficiencia Humana HIV (1 = A, 2 = C, 3 = G, 4 = T ).
22 Human DNA. Serie compleja obtenida a partir del cdigo del DNA Humano.
23 Lovaina (Concurso Universidad de Lovaina). Serie compleja generada a partir del modelo
generalizado del circuito de Chua [27]. La expresin matemtica es de la forma:

x1 = [x2 h(x1 )]

x2 = x1 x2 + x3

(7.13)

x3 = x2
donde

h(x1 ) = m5 x1 +

1X
(mi1 mi ) (|x1 + ci | |x1 ci |)
2

(7.14)

i=1

y los valores de los parmetros son: = 9, = 14.286 y de los vectores:


m = [0.9/7, 3/7, 3.5/7, 2.7/7, 4/7, 2.4/7] y c = [1, 2.15, 3.6, 6.2, 9].
24 Plasma. Serie compleja obtenida a partir de la medicin de una variable de un experimento
con plasma.
25 Primos. Serie compleja generada a partir de un conjunto de nmeros primos.

100

26 SP500. Serie compleja obtenida a partir del ndice Financiero de Standard & Pool para
las 500 empresas mas importantes de la bolsa de valores de Nueva York.
27 Star. Serie compleja obtenida a partir de la medicin de la intensidad luminosa de una
estrella variable.
28 Brownian Motion. Serie estocstica generada a partir del modelado del movimiento browniano (proceso de ruido blanco integrado).
29 White Noise. Serie estocstica generada a partir del modelado de proceso de ruido blanco
(ruido aleatorio uniforme).
A continuacin en las Figuras 7-1 a 7-15, se presentan las grficas de cada una de las series
de tiempo, los datos usados para graficar a cada serie de tiempo corresponden a los primeros
1000 datos, para tener una mejor visualizacin en las grficas presentadas de la dinmica de
las series, los datos fueron muestreados con una razn de 1/5, la razn de muestreo conserva la
informacin relevante de la estructura de las series de tiempo al graficar un total de 200 datos
[178].
La Figura 7-16, muestra la tabla con el tipo de comportamiento dinmico de cada serie y
si sta es medida experimentalmente (serie natural) o generada artificialmente (serie sinttica).
El conjunto de series seleccionado presenta los diferentes tipos de dinmicas correspondientes
a la clasificacin de Figueroa-Nazuno et. al. [8, 131, 172].

7.3

Parmetros de las Series de Tiempo

Para la caracterizacin de las series de tiempo se seleccionaron un conjunto de tcnicas de


anlisis (descritas en el captulo 4), las cuales permiten el clculo de diferentes parmetros de
las mismas. A su vez del universo de parmetros se eligieron a aquellos que representan una
caracterstica particular de forma nica, es decir que en el conjunto de caractersticas de una
serie de tiempo no se tenga redundancia en cuanto a la informacin que se proporciona sobre
la misma, es decir los parmetros deben ser ortogonales entre s, la condicin de ortogonalidad
se determina en base a un anlisis de correlacin de los parmetros dicho anlisis se presenta
posteriormente en el captulo 9.
101

1.0

0.5

x(n)

0.0

-0.5

-1.0

200

400

600

800

1000

Serie de Tiempo Sine


2

x(n)

-1

-2

200

400

600

800

Serie de Tiempo Vanderpol


Figura 7-1:

102

1000

4.6
4.4
4.2
4.0

x (n)

3.8
3.6
3.4
3.2
3.0
2.8
2.6
200

400

600

800

1000

Serie de Tiempo Qperiodic2


4.4
4.2
4.0

x (n)

3.8
3.6
3.4
3.2
3.0
2.8
200

400

600

800

Serie de Tiempo Qperiodic3


Figura 7-2:

103

1000

1.4
1.2

x(n)

1.0
0.8
0.6
0.4
0.2
0.0
200

400

600

800

1000

Serie de Tiempo Mackey-Glass


1.0

x(n)

0.8

0.6

0.4

0.2

0.0
200

400

600

800

Serie de Tiempo Logistic


Figura 7-3:

104

1000

20
15
10
5

x(n)

0
-5
-10
-15
-20
200

400

600

800

1000

Serie de Tiempo Lorenz


15

10

x(n)

-5

-10
200

400

600

800

Serie de Tiempo Rossler


Figura 7-4:

105

1000

1.5

1.0

x(n)

0.5

0.0

-0.5

200

400

600

800

1000

Serie de Tiempo Ikeda


2.0
1.5
1.0

x(n)

0.5
0.0
-0.5
-1.0
-1.5
-2.0
200

400

600

800

Serie de Tiempo Henon


Figura 7-5:

106

1000

1.0

0.8

x (n)

0.6

0.4

0.2

0.0
200

400

600

800

1000

Serie de Tiempo Cantor


0.7

x (n)

0.6

0.5

0.4

0.3

200

400

600

800

Serie de Tiempo Tent


Figura 7-6:

107

1000

3.0

2.5

x(n)

2.0

1.5

1.0

0.5

0.0
200

400

600

800

1000

Serie de Tiempo A1
1.2
1.0

x(n)

0.8
0.6
0.4
0.2
0.0
200

400

600

800

Serie de Tiempo D1
Figura 7-7:

108

1000

2.5

2.0

x(n)

1.5

1.0

0.5

0.0
200

400

600

800

1000

Serie de Tiempo Laser


0.12

0.10

x (n)

0.08

0.06

0.04

0.02
200

400

600

800

Serie de Tiempo Dow Jones


Figura 7-8:

109

1000

1.5

1.0

x (n)

0.5

0.0

-0.5

-1.0
200

400

600

800

1000

Serie de Tiempo Kobe


1.0
0.8
0.6
0.4

x (n)

0.2
0.0
-0.2
-0.4
-0.6
-0.8
200

400

600

800

Serie de Tiempo EEG


Figura 7-9:

110

1000

1.2

1.0

x(n)

0.8

0.6

0.4

0.2
200

400

600

800

1000

Serie de Tiempo ASCIITXT


3.0

2.8

x(n)

2.6

2.4

2.2

2.0

1.8
200

400

600

800

Serie de Tiempo El nio


Figura 7-10:

111

1000

4.0
3.5

x (n)

3.0
2.5
2.0
1.5
1.0
200

400

600

800

1000

Serie de Tiempo HIV DNA


1.0

0.8

x (n)

0.6

0.4

0.2

0.0
200

400

600

800

Serie de Tiempo Human DNA


Figura 7-11:

112

1000

0.4
0.2

x (n)

0.0

-0.2

-0.4

-0.6

-0.8
200

400

600

800

1000

Serie de Tiempo Lovaina


2.0
1.5
1.0

x (n)

0.5
0.0
-0.5
-1.0
-1.5
-2.0
200

400

600

800

Serie de Tiempo Plasma


Figura 7-12:

113

1000

3.0
2.5

x (n)

2.0
1.5
1.0
0.5
0.0
200

400

600

800

1000

Serie de Tiempo Primos


4
3

x (n)

2
1
0
-1
-2
200

400

600

800

Serie de Tiempo SP500


Figura 7-13:

114

1000

0.3
0.2
0.1

x (n)

0.0
-0.1
-0.2
-0.3
-0.4
200

400

600

800

1000

Serie de Tiempo Star


6

x (n)

-2

-4
200

400

600

800

1000

Serie de Tiempo Brownian Motion


Figura 7-14:

115

1.0

0.8

x (n)

0.6

0.4

0.2

0.0
200

400

600

800

1000

Serie de Tiempo White Noise


Figura 7-15:
Las diferentes formas de analizar una serie de tiempo proporcionan una gran cantidad de
informacin expresada en forma de valores escalares que representan un parmetro calculado
a partir de los datos de la serie de tiempo (por ejemplo, el exponente de Lyapunov) o tambin en forma de grficas que visualizan el comportamiento de la serie de tiempo bajo una
transformacin dada (por ejemplo, el espectro de potencia). Ya que entre los objetivos de este
trabajo est el desarrollo de mtricas que cuantifiquen la predictibilidad, as como, el estudio de
las relaciones entre parmetros de las series, su predictibilidad y los modelos de prediccin; el
requisito de que un valor escalar exprese una caracterstica de la serie fue otro criterio, adems
de la ortogonalidad, para seleccionar a los parmetros evaluados en el presente trabajo.
Las Figuras 7-17, 7-18 y 7-19, presentan tablas con una sinopsis de las caractersticas de los
parmetros calculados: su base terica, su clasificacin por tipo, su alcance, que informacin
proporciona, el espacio donde se calcula, la representacin de la serie sobre la que opera, el tipo
de transformacin que realiza sobre los datos y si es un indicador de predictibilidad.

116

Serie de Tiempo

Comportamiento
Dinmico

Tipo de Origen

Sine
Vanderpol

Peridico
Peridico

Artificial
Artificial

Qperiodic2

Cuasiperidico

Natural

Qperiodic3

Cuasiperidico

Natural

Mackey-Glass

Catico

Artificial

Logistic
Lorenz
Rossler
Ikeda
Henon
Cantor
Tent
A1
D1
Laser
Dow Jones
Kobe
EEG
ASCIITXT
El nio
HIV DNA
Human DNA
Lovaina
Plasma
Primos
SP500
Star

Catico
Catico
Catico
Catico
Catico
Catico
Catico
Complejo
Complejo
Complejo
Complejo
Complejo
Complejo
Complejo
Complejo
Complejo
Complejo
Complejo
Complejo
Complejo
Complejo
Complejo

Artificial
Artificial
Artificial
Artificial
Artificial
Artificial
Artificial
Natural
Artificial
Natural
Natural
Natural
Natural
Artificial
Natural
Natural
Natural
Artificial
Natural
Artificial
Natural
Natural

Brownian Motion

Estocstico

Artificial

White Noise

Estocstico

Artificial

Figura 7-16: Tabla de dinmica y origen de las series de tiempo

117

Parmetros Base Terica

Tipo de
Parmetro

Alcance de
Parmetro

Tipo de
Informacin
que
proporciona
Rango de
valores que
toma la serie
de tiempo

Rango de
Datos

Estadstica
Clsica

Estadstico

Global

Resolucin

Estadstica
Clsica

Estadstico

Global

Desviacin
Promedio

Estadstica
Clsica

Estadstico

Global

Desviacin
Standard

Estadstica
Clsica

Estadstico

Global

Skewness

Estadstica
Clsica

Estadstico

Global

Kurtosis

Estadstica
Clsica

Estadstico

Global

Moda

Estadstica
Clsica

Estadstico

Global

Correlacin
de Pearson

Estadstica
Clsica

Estadstico

Global

Tiempo de
Correlacin

Estadstica
Clsica

Estadstico

Global

Granularidad
de la serie de
tiempo
Medida de
dispersin de
la
distribucin
de datos de
la serie
Medida de
dispersin de
la
distribucin
de datos de
la serie
Grado de
asimetra de
la
distribucin
de datos de
la serie
Medida de
dispersin de
la
distribucin
de datos de
la serie
Valor ms
frecuente de
la
distribucin
de valores
Grado de
correlacin
entre dos
valores de la
serie
Intervalo
mximo de
correlacin
entre dos
valores en la
serie

Indican
Representaci
Predictibilida
Transformaci
n de la
d:1. No
n de la
Serie de
Indican
Informacin
Tiempo
Predictibilida
d: 0

Espacio en
donde se
calcula

Espacio
Euclideano

Serie de
Tiempo

Sin cambio

Espacio
Euclideano

Serie de
Tiempo

Sin cambio

Espacio
Euclideano

Serie de
Tiempo

Sin cambio

Espacio
Euclideano

Serie de
Tiempo

Sin cambio

Espacio
Euclideano

Serie de
Tiempo

Sin cambio

Espacio
Euclideano

Serie de
Tiempo

Sin cambio

Espacio
Euclideano

Serie de
Tiempo

Sin cambio

Espacio
Euclideano

Serie de
Tiempo

Sin cambio

Espacio
Euclideano

Serie de
Tiempo

Sin cambio

Figura 7-17: Tabla de caractersticas de los parmetros de las series de tiempo

118

Parmetros Base Terica

Tipo de
Parmetro

Alcance de
Parmetro

Valor
Promedio

Estadstica
Clsica

Estadstico

Global

Valor Medio
(Mediana)

Estadstica
Clsica

Estadstico

Global

Valor Mnimo

Estadstica
Clsica

Estadstico

Global

Valor
Mximo

Estadstica
Clsica

Cuartil
Mnimo

Estadstica
Clsica

Estadstico

Global

Cuartil
Mximo

Estadstica
Clsica

Estadstico

Global

Exponente
de Hurst

Estadstica
Moderna

Estadstico

Global

Estadstico

Anlisis de
Componente
Componente Espacial/Te
s Principales
s
mporal
(5 primeras)
Estructurado

Global

Global

Tipo de
Informacin
que
proporciona

Espacio en
donde se
calcula

Valor
promedio de
Espacio
la
distribucin Euclideano
de valores de
la serie
Valor medio
de la
Espacio
distribucin
Euclideano
de valores de
la serie
Mnimo valor
encontrado
Espacio
en la
Euclideano
distribucin
de datos

Indican
Predictibilida
Representaci
Transformaci
d:1. No
n de la
n de la
Indican
Serie de
Informacin
Predictibilida
Tiempo
d: 0

Serie de
Tiempo

Sin cambio

Serie de
Tiempo

Sin cambio

Serie de
Tiempo

Sin cambio

Serie de
Tiempo

Sin cambio

Serie de
Tiempo

Sin cambio

Serie de
Tiempo

Sin cambio

Serie de
Tiempo

Sin cambio

Informacin
contenida en
cada
Componente Separacin
Espacio
subserie
s de Serie de
de la
componente Euclideano
Tiempo
Informacin
sobre la serie
de tiempo
original

Mximo valor
encontrado
Espacio
en la
Euclideano
distribucin
de datos
Valor que
indica el 25%
Espacio
de datos de
Euclideano
la
distribucin
Valor que
indica el 75%
Espacio
de datos de
Euclideano
la
distribucin
Correlacin
de largo
Espacio
alcance
Euclideano
(memoria)

Figura 7-18: Tabla de caractersticas de los parmetros de las series de tiempo

119

Parmetros Base Terica

Exponente
de Lyapunov
Dimensin
de
Correlacin
Dimensin
de
Capacidad

Teora de
Sistemas
Dinmicos
No Lineales
Teora de
Sistemas
Dinmicos
No Lineales
Teora de
Sistemas
Dinmicos
No Lineales

Dimensin
Fractal

Teora de
Sistemas
Dinmicos
No Lineales

Dimensin
Embebida

Teora de
Sistemas
Dinmicos
No Lineales

Teora de
Sistemas
Dinmicos
No Lineales
Teora de
%
Sistemas
Recurrencia Dinmicos
No Lineales
Teora de
%
Sistemas
Determinism
Dinmicos
o
No Lineales
%Entropa
Espacio
Temporal

Entropa de
Shannon

Informacin
Mutua
Promedio

Indican
Representaci
Predictibilida
Transformaci
n de la
d:1. No
n de la
Serie de
Indican
Informacin
Tiempo
Predictibilida
d: 0

Tipo de
Parmetro

Alcance de
Parmetro

Tipo de
Informacin
que
proporciona

Topolgico

Global

Horizonte de
Prediccin

Espacio
Fase

Atractor

Multiplicacin
de la
Informacin

Topolgico

Local

Correlacin
espacial local

Espacio
Fase

Atractor

Multiplicacin
de la
Informacin

Espacial

Local

Grado de
autosimilitud
del sistema

Espacio
Fase

Atractor

Multiplicacin
de la
Informacin

Global

Dimensin
promedio en
una vecindad
de tamao
epsilon sobre
el atractor

Espacio
Fase

Atractor

Multiplicacin
de la
Informacin

Global

Estimado del
nmero
grados de
libertad del
sistema

Espacio
Fase

Atractor

Multiplicacin
de la
Informacin

Grado de no
correlacin
espacial

Espacio
Euclideano

Mapa de
Recurrencia

Multiplicacin
de la
Informacin

Periodicidad
Espacial/Te
Global/Local y estructuras
mporal
definidas

Espacio
Euclideano

Mapa de
Recurrencia

Multiplicacin
de la
Informacin

Espacio
Euclideano

Mapa de
Recurrencia

Multiplicacin
de la
Informacin

Espacio
Euclideano

Mapa de
Recurrencia

Multiplicacin
de la
Informacin

Informacin
mutua
contenida en
una variable
Espacio
para dos
Euclideano
instantes de
tiempo
diferentes

Mapa de
Recurrencia

Multiplicacin
de la
Informacin

Espacial

Topolgico

Espacial/Te
Global/Local
mporal

Determinism
Espacial/Te
o en base a
Global/Local
mporal
patrn de
recurrencia
Cantidad de
Informacin
que puede
Teora de
Probabilistico Global/Local ser extrada
Informacin
al medir el
estado del
sistema

Teora de
Probabilistico
Informacin

Global

Espacio en
donde se
calcula

Serie de
Estructuras y
tiempo
Reduccin
Complejidad Teora de Computacion
jerarqua de
Espacio
Global/Local
Codificada
de la
LZ Relativa Computacin
al
cadenas de Discretizado
Simblicame Informacin
datos
nte

Nmero de
reglas
Serie de
gramticales
tiempo
Reduccin
Reglas de
Teora de
para modelar
Espacio
Computacional Global/Local
Codificada
de la
Produccin Computacin
la serie
Discretizado
Simblicame Informacin
(complejidad
nte
computacion
al)

Figura 7-19: Tabla de las caractersticas de los parmetros de las series de tiempo
120

7.4

Datos Experimentales

Para calcular los diferentes parmetros el conjunto de series de tiempo fue estandarizado en el
nmero de datos para cada una de ellas, se consider a los primeros 1000 datos, ya que algunos
de los parmetros pueden tener la caracterstica de ser extensivos, es decir, ser dependientes de
la cantidad de datos de las series de tiempo. Las tablas de datos generadas corresponden al
clculo de las siguientes clases de parmetros:
Parmetros estadsticos que proporcionan informacin sobre la distribucin estadstica de
los datos de cada serie de tiempo, este tipo de informacin adems es til en la construccin de modelos de prediccin de series de tiempo [11, 179], los parmetros son: Rango
de Datos, Resolucin, Desviacin Promedio, Desviacin Estandar, Skewness, Kurtosis,
Moda, Auto correlacin, Tiempo de Correlacin, Valor Promedio, Valor Medio, Valor
Mnimo, Valor Mximo, Cuartil Mnimo y Cuartil Mximo.
El parmetro de estadstica moderna exponente de Hurst, descrito en el captulo 4, que
permite cuantificar la persistencia y memoria en el comportamiento de una serie.
El parmetro de frecuencia dominante que permite determinar si hay una frecuencia
caracterstica de la serie de tiempo.
El parmetro de porcentaje de varianza en las componentes principales, obtenido del
anlisis de componentes principales (PCA) para las componentes de las series de tiempo.
Estas componentes son el producto de descomponer las series con el anlisis espectral
singular (SSA). El porcentaje de varianza se calcul para cada una de las primeras 5
componentes de las series de tiempo. Este parmetro se interpreta como la cantidad
de informacin sobre la serie de tiempo que cada componente posee, producto de la
descomposicin de la seal. Ms adelante, en el captulo 10, se presenta un anlisis sobre
la relacin entre predictibilidad de una serie y la informacin de sus componentes, como
parte del estudio correspondiente a la relacin entre parmetros de tipo estructural y la
predictibilidad de las series de tiempo.
El conjunto de parmetros no lineales basados en la teora de sistemas dinmicos, los
cuales son indispensables en la caracterizacin de la dinmica de las series de tiempo,
121

estos parmetros son: Exponente de Lyapunov, Dimensin de Correlacin, Dimensin


de Capacidad, Dimensin Fractal, Dimensin Embebida, Entropa Espacio Temporal,
Recurrencia y Determinismo.
El conjunto de parmetros basados en la teora de informacin: Entropa de Informacin
(Shannon) e Informacin Mutua Promedio.
Finalmente, el conjunto de parmetros basados en la teora de la computacin: Complejidad Relativa LZ (Lempel-Ziv) y Nmero de Reglas de Produccin.

7.5

Discusin

En este captulo se ha presentado el conjunto experimental de series de tiempo, as como una


breve descripcin del amplio conjunto de datos experimentales generados con las diferentes
tcnicas de anlisis de series de tiempo (presentadas en el captulo 4), estos datos son utilizados
posteriormente en el desarrollo de mtricas de predictibilidad de series de tiempo. El conjunto
experimental de series de tiempo cubre un espectro de comportamientos dinmicos diversos,
adems de ser utilizadas ampliamente en la literatura para el estudio de la prediccin y el
modelado en series de tiempo. En el siguiente captulo, este conjunto de series ser utilizado
en la evaluacin de diferentes tcnicas de prediccin y modelado.

122

Captulo 8

Evaluacin de Tcnicas de
Prediccin y de Modelado de Series
de Tiempo
8.1

Introduccin

En este captulo se presentan los resultados de un estudio sobre la capacidad de un conjunto de


tcnicas de prediccin y un conjunto de tcnicas de modelado, de predecir y modelar respectivamente a las series de tiempo. Las tcnicas seleccionadas descritas en el captulo 5, pertenecen
a diversos orgenes: Estadstica, Inteligencia Artificial y Sistemas Dinmicos No Lineales. Los
resultados de la evaluacin de estas tcnicas sern de utilidad en la construccin de un coeficiente de capacidad de prediccin (o modelado) que se presenta posteriormente en el captulo 9.
Para desarrollar este estudio comparativo, se diseo una metodologa experimental que permite
estandarizar la evaluacin de las tcnicas y el anlisis de los resultados obtenidos.
En la seccin 8.2 se presenta el mtodo experimental utilizado para la evaluacin de las
tcnicas de prediccin y de modelado, la seccin 8.3 presenta los resultados de dicha evaluacin,
finalmente la seccin 8.4 presenta la discusin de este captulo.

123

8.2

Mtodo Experimental

El desarrollo de los experimentos para evaluar el xito o fracaso en la prediccin o modelado


de una serie de tiempo por parte de una tcnica dada, est sujeto a una serie de restricciones
metodolgicas [10], que son justificadas a continuacin:
Se asume que la serie de tiempo posee un comportamiento estacionario en el conjunto de
datos utilizados para la prediccin (o modelado), lo anterior implica que es posible tomar
cualquier subconjunto de datos para evaluar a la tcnica en cuestin.
El nmero mximo de experimentos por cada serie y tcnica evaluada est acotado. Lo
anterior implica que no se realiza un anlisis fino parmetrico de cada tcnica, en particular para las tcnicas de red neuronal las cuales poseen varios parmetros sujetos a
optimizacin. La justificacin que hay detrs de no realizar un conjunto de experimentos
ms detallado son los teoremas de No Free Lunch para bsqueda y para optimizacin, los
cules establecen que todo algoritmo para bsqueda o para optimizacin tiene la misma
eficiencia cuando se promedia sobre todas las posibles optimizaciones o bsquedas rea
lizadas. Es decir, si el algoritmo A es mejor que el algoritmo B en una clase de problemas, entonces existen otra clase de problemas en los que el algoritmo B es mejor que el
algoritmo A (en el captulo 13 de apndices se comenta con mayor extensin sobre dichos
teoremas). En resumen, no existe un algoritmo para bsqueda o para optimizacin de
soluciones que sea universal [55, 56].
La identificacin de una serie predicha de forma exitosa depende de dos criterios: el
comparar la serie original y la predicha, y el error obtenido. El xito o fracaso de una
prediccin es una apreciacin sujeta al criterio del experto u observador pero restringido
por la siguiente regla: si la serie predicha sigue la tendencia (trend) de la serie original,
as como su amplitud, an cuando no exista una mejor prediccin a una menor escala
(mayor detalle), se considera que la prediccin es buena y se anota como xito.
Para realizar los experimentos de evaluacin de la capacidad de prediccin y la capacidad de
modelado de las diferentes tcnicas, se seleccionaron dos conjuntos de tcnicas para prediccin
y modelado respectivamente bajo el criterio de tomar en cuenta modelos de diversos orgenes
124

(Estadstica, Inteligencia Artificial y Sistemas Dinmicos No Lineales). Las tcnicas ya fueron


descritas en el captulo 5. Las Figuras 8-1 y 8-2, muestran respectivamente las tablas para
ambos conjuntos de tcnicas as como un resumen de sus caractersticas.
La metodologa experimental consisti en la evaluacin de cada tcnica con el conjunto de
29 series de tiempo previamente seleccionadas (ver captulo 7), el nmero de experimentos de
cada tcnica para cada serie de tiempo fue variable, de 1 hasta 10 experimentos como mximo
dependiendo de las caractersticas de cada tcnica, por ejemplo en el caso de la prediccin o el
modelado con tcnicas de redes neuronales, se explor el posible espacio de soluciones en forma
limitada dado que explorarlo en forma exhaustiva requiere de una cantidad de experimentos
extensa (el nmero de posibilidades es combinatorial en base al nmero de parmetros que
pueden ser modificados). A pesar de las limitaciones impuestas en el nmero de experimentos
para intentar predecir o modelar una serie, el total de experimentos realizados fue del orden de
2000. Cada experimento consisti en separar a la serie de tiempo elegida, en un conjunto de
datos de entrenamiento (de 1 a N datos), donde el nmero de datos de entrenamiento N fue
en la mayora de los experimentos de 900 o 1900 datos dependiendo de la serie de tiempo; y un
conjunto de 50 datos de prueba (de N + 1 a N + 50), usados posteriormente para evaluar los
resultados de prediccin o modelado de la tcnica seleccionada.
La comparacin entre los datos originales de prueba y los predichos se hizo aplicando los
siguientes criterios:
Graficando la serie original y la predicha, para evaluar si la serie predicha reproduce la
morfologa de la serie original (prediccin o modelado exitoso).
Si el primer criterio es validado, se evalan el Error Medio Raz Cuadrada (RMSE ), el
Error Bias (BE ) y el Error Promedio Local (MAE ).
En la literatura hay reportadas un gran nmero de frmulas para cuantificar el error en la
prediccin o modelado de series de tiempo, se reportan desde las mas tradicionales como: el
Error Medio Raz Cuadrada (RMSE ), el Error Bias (BE ), hasta medidas de error especializadas
definidas en funcin del tipo de tcnica utilizada para predecir o modelar series de tiempo, como
puede ser el caso de una arquitectura particular de red neuronal. A continuacin se presentan
las definiciones de los diferentes errores utilizados en este trabajo:
125

Tcnica de
Prediccin

Fundamenta
cin Terica
Inteligencia
Red
Artificial
FIRNet
Neuronal con
(Aprendizaje
Filtros FIR
de Mquina)
Red
Neuronal
Inteligencia
Probabilistica
Artificial
PNNGauss con funcin
(Aprendizaje
de
de Mquina)
aprendizaje
gaussiana
Red
Neuronal
Inteligencia
Probabilistica
Artificial
PNNRecipro
con funcin
(Aprendizaje
cal
de
de Mquina)
aprendizaje
reciproca

MLFFN

Descripcin

Red
Neuronal
Multicapa
Inteligencia
hacia delante
Artificial
(Perceptron
(Aprendizaje
Multicapa
de Mquina)
caso basico
sin capa
oculta)

Maquina de
Vectores de
Soporte
MySVM
(Kernel de
Multipunto (
Funciones:
kernel dot)
de tipo
producto
punto)
Maquina de
Vectores de
Soporte
MySVM
(Kernel de
Multipunto (
kernel radial) Funciones:
de base
radial)
Modelo de
funciones
Polynomp polinomiales
en el espacio
fase

Nstep

Inteligencia
Artificial
(Aprendizaje
de Mquina)

Inteligencia
Artificial
(Aprendizaje
de Mquina)

Teoria de
Sistemas
Dinamicos
No Lineales

Modelo de
Teoria de
aproximacin
Sistemas
por funciones
Dinamicos
locales en el
No Lineales
espacio fase

Modelo de
Teoria de
aproximacin
Sistemas
por promedio
Dinamicos
K-Nearestde vecinos
No Lineales y
Neighbours
cercanos en
Aprendizaje
el espacio
de Mquina
fase

ARIMA

Modelo de
Auto
Regresion y
Promedio
Movil
Integrado

Estadstica

Figura 8-1: Tabla de tcnicas de prediccin


126

Tcnica de
Modelado

Descripcin

Fundamenta
cin Terica

FFNBP

Red
Neuronal
Inteligencia
hacia
Artificial
adelante con
(Aprendizaje
retropropaga
de Mquina)
cion
(perceptron)

RBFNBP

Red
Neuronal con
Inteligencia
Funciones de
Artificial
Base Radial
(Aprendizaje
con
de Mquina)
retropropaga
cion

ANFIS

RNAP

Predict

Polynom

rbf

Sugimay

ARMA

Red
Neuronal y
Lgica
Difusa
(hbrido)
Red
Neuronal
Artificial
Polinomial y
Algoritmo
Genetico
(hbrido)

Inteligencia
Artificial
(Aprendizaje
de Mquina)

Inteligencia
Artificial
(Aprendizaje
de Mquina)

Modelo de
aproximacin
Teoria de
por funciones
Sistemas
locales en el
Dinamicos
espacio fase:
No Lineales
funcin
constante
Modelo de
Teoria de
funciones
Sistemas
polinomiales
Dinamicos
en el espacio
No Lineales
fase
Modelo de
Teoria de
funciones de
Sistemas
base radial
Dinamicos
en el espacio
No Lineales
fase
Modelo de
aproximacin
por promedio Teoria de
Sistemas
pesado de
Dinamicos
vecinos
cercanos en No Lineales
el espacio
fase
Modelo de
Auto
Regresion y
Promedio
Movil

Estadistica

Figura 8-2: Tabla de tcnicas de modelado


127

RMSE : El Error Medio Raz Cuadrada, representa la medida tpica de error de prediccin,
su expresin matemtica es la siguiente:
"

N
1 X p
2
RM SE =
(xi xoi )
N
i=1

# 12

(8.1)

donde N es el nmero de datos predichos, xpi corresponde al i esimo dato predicho y xoi
corresponde al i esimo dato original. Un valor cercano a cero indica una buena prediccin, el
trmino de la diferencia al cuadrado le da mayor peso a las grandes discrepancias entre valores
originales y los predichos. Es una medida de error global pues realiza un promedio sobre el
conjunto de datos predichos [11, 12].
BE : El Error Bias, es una medida de la tendencia a subpredecir o sobrepredecir un
conjunto de datos, su expresin matemtica es la siguiente:

BE =

N
1 X p
(xi xoi )
N

(8.2)

i=1

donde N es el nmero de datos predichos, xpi corresponde al i esimo dato predicho y xoi
corresponde al i esimo dato original. Es muy til para identificar cuando un modelo (por
ejemplo, aquel generado a partir del entrenamiento de una red neuronal) se ha sub o sobreentrenado, ambos casos no son adecuados para lograr una prediccin o modelado ptimo. Un Error
Bias positivo indica una tendencia a sobremodelar y un Error Bias negativo a submodelar a
la serie de tiempo. Como el anterior, es una medida de error global pues realiza un promedio
sobre el conjunto de datos predichos [11, 12].
LRSE : El Error Local, calcula el error para cada punto predicho de una serie de tiempo
ST , su expresin es:

LRSE = |xpi xoi |

(8.3)

MAE : El Error Local Promedio, promedia el error local de cada punto predicho para una
serie de tiempo ST , su expresin matemtica es:
128

MAE =

N
1 X p
|xi xoi |
N

(8.4)

i=1

donde N es el nmero de datos predichos, xpi corresponde al i esimo dato predicho y xoi
corresponde al i esimo dato original [11, 12].

hRMSEj ik : Este es un promedio de los promedios del error RMSE para el conjunto de

tcnicas (ya sea de prediccin o de modelado), donde el error RMSEj (ver ecuacin 8.1)

corresponde a la j esima serie de tiempo que fue predicha (o fue modelada) con xito
por la k esima tcnica. Para su clculo se obtiene primero el promedio del error RMSE
para todos los L casos exitosos de una tcnica, a este promedio lo identificamos como el
promedio RMSE de la tcnica k esima:
L

1X
RMSEj
hRMSEj ik =
L

(8.5)

j=1

el segundo paso consiste en el clculo del promedio para el conjunto de promedios RMSE
obtenidos a partir de las M tcnicas evaluadas:
M

1 X
hRM SEj ik
hRMSEj ik =
M

(8.6)

k=1

hBEj ik : Este es el promedio de los promedios del error BE para el conjunto de tcnicas,

y la construccin de su definicin tiene la misma estructura del promedio de promedios

del error RMSE, as que slo se presenta la expresin final:


M

1 X
hBEj ik
hBEj ik =
M

(8.7)

k=1

hMAEj ik : De la misma forma se define el promedio de los promedios del error MAE
para el conjunto de tcnicas, su expresin es:

1 X
hMAEik
hMAEj ik =
M
k=1

129

(8.8)

8.3

Resultados Experimentales

A continuacin se presentan los resultados de la evaluacin de las tcnicas de prediccin y de


modelado.

8.3.1

Tcnicas de Prediccin

Las siguientes figuras presentan grficas que son una muestra de los diferentes experimentos
de prediccin realizados con xito. La Figura 8-3, ejemplifica la prediccin ideal es decir,
con un mnimo error y un excelente seguimiento de la dinmica de la serie. La Figura 84, corresponde al caso en cual las caractersticas de la serie (en este caso la dinmica catica)
impiden una prediccin mas all de un nmero pequeo de valores futuros. El siguiente ejemplo,
que corresponde a la Figura 8-5, presenta el caso de la prediccin en la cual la tendencia y
frecuencia de la dinmica se reproducen, sin embargo, las variaciones de la amplitud no logran
ser predichas. Por ltimo, la Figura 8-6 muestra el caso en el cul se sigue la tendencia de la
serie aunque presentando un error no despreciable.
Original
Prediccin

1.6
1.4
1.2

x (n)

1.0
0.8
0.6
0.4
0.2
0.0
4010

4020

4030

4040

4050

Figura 8-3: Serie Laser predicha con tcnica Nstep


La Figura 8-7, presenta la tabla Matriz de Prediccin de las series de tiempo con las dife
rentes tcnicas evaluadas. En esta matriz se codifica con los valores de: 1 = P redicci
on, 0 =
130

Original
Prediccin

2.0
1.5
1.0

x (n)

0.5
0.0
-0.5
-1.0
-1.5
-2.0
1910
10

1920
20

1930
30

1940
40

1950
50

Figura 8-4: Serie Henon predicha con tcnica K Vecinos Cercanos

Original
0.75

Prediccin

0.70
0.7
0.65
0.60
0.6

x (n)

0.55
0.50
0.5
0.45
0.40
0.4
0.35
0.30
0.3
0.25
1910
10

1920
20

1930
30

1940
40

1950
50

Figura 8-5: Serie Tent predicha con tcnica Polynomp

131

Original
0.65

Prediccin

0.6
0.60
0.55
0.5
0.50

x (n)

0.45
0.4
0.40
0.35
0.3
0.30
0.25
0.2
0.20
0.15
0.1
0.10
0.05
0.0
0.00
-0.05
1910

1920

1930

1940

1950

Figura 8-6: Serie Dow Jones predicha con tcnica PNNReciprocal


NoP redicci
on, los resultados de la totalidad de los experimentos realizados para evaluar al
conjunto de tcnicas. Se observa que las tcnicas con ms resultados exitosos de prediccin
corresponden a K-Vecinos-Cercanos (con 17 xitos) y Nstep (con 16 xitos), basadas en Teora
de Sistemas Dinmicos No Lineales; le siguen en nmero de xitos las tcnicas MySVM Multipunto con el kernel radial (con 13 xitos) y PNNGauss (con 12 xitos) cuya base proviene de
Inteligencia Artificial. El resto de las tcnicas (FIRNet, PNNReciprocal, MLFFN, Polynomp y
ARIMA) que corresponden a las tres familias de modelos presentados en este trabajo, no presentan entre s una gran diferencia en la capacidad de prediccin siendo su media de 9 xitos,
por ltimo la tcnica MySVM Multipunto con el kernel dot presenta la ms baja capacidad de
prediccin (solo 3 xitos), lo que indica que dicho kernel no es el ptimo para el proceso de
aprendizaje de la tarea de prediccin de series de tiempo.
La evaluacin del error de prediccin genero tres Matrices de Error de Prediccin, las cuales
no solo permiten el anlisis de la propagacin del error de la prediccin para cada una de las
tcnicas, sino tambin utilizar esta informacin como se muestra en el siguiente captulo, para
construir una mtrica para cuantificar la capacidad de prediccin de las tcnicas.
Para analizar de forma global las matrices de error, las Figuras 8-8, 8-9 y 8-10, presentan
grficas de superficie de los errores de prediccin (RMSE, BE y MAE) para el conjunto de tc132

Figure 8-7: Matriz de prediccin de series de tiempo


133

Sine
Vanderpol
Qperiodic2
Qperiodic3
MackeyGlass
Logistic
Lorenz
Rossler
Ikeda
Henon
Cantor
Tent
A1
D1
Laser
Dow Jones
Kobe
EEG
ASCIITXT
El nio
HIV DNA
Human DNA
Lovaina
Plasma
Primos
SP500
Star
Brownian
Motion
White Noise
Total de
Series
Predichas
por cada
Tcnica

Serie de
Tiempo

0
0
0
1
0
1
0
1
1
0
1
1
0
0
0
1
0
1
0
0
0
0
0
0
0

12

1
0
1
0
0
1
0
0
1
0
1
0
0
0
0
0
0
1
0
0
0
0
0
0
0

FIRNet

1
1
1
1

PNNGauss

1
1
0
1

PNNReciprocal
9

0
1
1
0
0
0
1
1
0
1
1
0
0
0
0
0
0
0
0
0
0
0

1
1
0
1

MLFFN
10

0
1
1
0
0
0
1
1
0
0
0
0
0
0
1
0
1
0
0
0
0
0

1
1
1
1

MySVM Multipunto
(kernel dot)

0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0

1
1
0
1

MySVM Multipunto
(kernel radial)
13

1
1
1
0
0
0
1
1
0
1
0
1
0
0
0
0
0
1
0
0
0
0

1
1
1
1

11

1
1
0
0
1
0
1
1
0
1
0
1
0
0
0
0
0
0
1
0
0
0

1
0
0
1

Polynomp

Teoria de Sistemas Dinamicos No Lineales

16

1
1
1
0
1
0
1
1
0
1
1
0
0
0
1
0
1
1
1
0
0
0

1
1
0
1

Nstep

Tcnica de Prediccin

17

1
0
1
1
1
0
1
1
0
1
1
1
1
0
0
0
1
1
0
0
0
0

1
1
1
1

K-NearestNeighbours

Inteligencia Artificial
Estadstica

0
0
0
0
0
0
1
0
0
1
1
0
1
0
0
0
1
0
0
0
0
1

1
0
0
0

ARIMA

4
6
6
1
5
0
8
8
0
8
5
3
2
0
3
0
6
3
2
0
0
1

10
8
4
9

Total de
Tcnicas que
Predicen a
cada Serie
de Tiempo

nicas evaluadas. Al construir estas grficas se quera no solo que mostrarn el comportamiento
del error de prediccin sino tambin, que fuese posible una comparacin en magnitud del e
rror, ello no es posible sin una normalizacin previa a su evaluacin de las diferentes series de
tiempo, para que las magnitudes resultantes de los errores sean del mismo orden. Las series

normalizadas para que la magnitud de sus datos estuviese en el rango 102 , 101 como el resto

del conjunto de series fueron: A1, Laser, Dow Jones, Kobe, ASCIITXT, El nio, Human DNA
y Primos. Es importante aclarar tambin, que todos los casos graficados que poseen un valor
cero en los errores, corresponden a los fracasos en la prediccin de las series correspondientes.
La grfica de la Figura 8-8 sobre el error RMSE, muestra que salvo dos casos extremos,

el error RMSE es pequeo para la mayora de las tcnicas de prediccin, el promedio de este

error para todas las tcnicas de prediccin es de hRMSEj ik = 0.1717. Los casos de error con

valor mximo corresponden a las tcnicas MLFFN y MySVM Multipunto con el kernel radial,
estos valores mximos indican el castigo a discrepancias grandes entre los datos predichos y los

originales para estas series de tiempo en particular. La serie de tiempo cuya prediccin gener
un mayor error con cada tcnica que la predijo fue Henon. Los datos obtenidos sobre el error
RMSE como una medida de tipo global (i. e. promedio sobre el conjunto de datos predichos
para cada serie), nos indican, no solo que en general el RMSE presenta un valor pequeo (i. e.
hay buenas predicciones) para las diferentes tcnicas, sino tambin que este comportamiento es
independiente del nmero de series predichas por cada tcnica.
La grfica de la Figura 8-9, muestra el comportamiento del error BE, nuevamente los casos
extremos corresponden a las tcnicas mencionadas en el anlisis del error RMSE, se observa que
el ajuste de los modelos de prediccin a las series de tiempo es cercano al ptimo, ya que el BE
es cercano a cero en la mayora de los casos. En promedio el error BE para todas las tcnicas

de prediccin es de hBEj ik = 0.0097, lo que indica que es cercano al ptimo aunque hubo
una ligera tendencia al subaprendizaje por parte de la mayora de las tcnicas. Por ltimo, el

comportamiento del error es independiente del nmero de series predichas por cada tcnica.
La grfica de la Figura 8-10, muestra el comportamiento del error MAE, con excepcin
de los casos extremos mencionados anteriormente, el error MAE que cuantifica el error local
promedio de una prediccin, se observa es pequeo para el conjunto de tcnicas de prediccin,

en promedio el error MAE es de hM AEj ik = 0.1317. Este valor promedio es indicador de


134

Figura 8-8: Grfica de superficie del error RMSE para la prediccin de series de tiempo

135

RMSE 4

1 2
3 4
5 6
7 8
9 10
11 12
13 14
15 16
17 18
19 20
21 22
Serie de Tiempo
23 24
25 26
27 28
29

RMSE Tcnicas de Prediccin

C1

C4

C7
Predictor

C10

0-1

1-2

2-3

3-4

4-5

5-6

6-7

7-8

Figura 8-9: Grfica de superficie del error BE para la prediccin de series de tiempo

136

BE

1 2
3 4
5 6
7 8
9 10
11 12
13 14
15 16
17 18
19 20
21 22
Serie de Tiempo
23 24
25 26
27 28
29

C10

1.5-2

-5.5

-5

-4.5

C1

C4

C7
Predictor

-5.5--5

-5--4.5

-4.5--4

-4--3.5

-3.5--3

-3--2.5

-2.5--2

-3.5

-4

-2--1.5

-1.5--1

-1--0.5

-0.5-0

0-0.5

0.5-1

-3

-2.5

-2

-1.5

-1

-0.5

1-1.5

2-2.5

1.5

0.5

2.5-3

3-3.5

3.5-4

4-4.5

4.5-5

5-5.5

2.5

3.5

4.5

5.5

BE Tcnicas de Prediccin

que el error local generado por las predicciones no crece en forma apreciable para el intervalo
de prediccin de N = 50 unidades. Igual que para los otros dos errores se observa, que su
comportamiento es independiente del nmero de series predichas por cada tcnica.

8.3.2

Tcnicas de Modelado

Las siguientes Figuras presentan grficas que son una muestra de diferentes experimentos de
modelado realizados con xito. La Figura 8-11, muestra el ejemplo de una modelacin con un
ajuste a la serie original muy cercano al ptimo. La Figura 8-12, presenta un modelo en el cul
para los primeros puntos de la serie se logra reproducir la dinmica de la misma, pero debido
a su dinmica catica, posteriormente el modelo no logra ajustarse a la serie en forma ptima.
La Figura 8-13, muestra un modelo que aunque no puede realizar un ajuste fino a la dinmica
de la serie, es capaz de modelar la tendencia dominante de la serie de tiempo. Por ltimo, la
Figura 8-14 muestra el caso en el cual el modelo reproduce la tendencia de la serie pero falla
en ajustarse a la amplitud de la misma.
La Figura 8-15, presenta la tabla Matriz de Modelado de las series de tiempo con las dife
rentes tcnicas evaluadas. En esta matriz, como en la correspondiente a tcnicas de prediccin,
se codifica con los valores de: 1 = Modelado, 0 = NoModelado, los resultados de la totalidad
de los experimentos realizados para evaluar al conjunto de tcnicas. La primera caracterstica
sobre las tcnicas de modelado es que el nmero de xitos de varias de ellas, sobrepasa al nmero
de xitos del mejor predictor, lo que indica la diferencia en la dificultad de resolver un problema
de prediccin y uno de modelado. Por ejemplo, dos series que no fueron predichas con xito son
D1 y Brownian Motion, las cuales lograron ser modeladas por varias de las tcnicas; tambin
algunas series predichas por solo una tcnica de prediccin como son las series Ikeda y Star,
lograron ser modeladas por un mayor nmero de tcnicas.
Se observa que no hay una tcnica de modelado que presente una superioridad clara con
respecto a las dems para modelar a las series de tiempo, las dos tcnicas con mayores xitos son
RNAP (23 xitos) y Sugimay (22 xitos), seguidas por las tcnicas ANFIS (20 xitos) y ARMA
(19 xitos). Las tcnicas RNAP y ANFIS estn construidas en base a algoritmos hbridos
y su origen es la Inteligencia Artificial, la tcnica Sugimay se basa en la Teora de Sistemas
Dinmicos No Lineales y la Tcnica ARMA se basa en Estadstica. Tambin se observa que las

137

Figura 8-10: Grfica de superficie del error MAE para la prediccin de series de tiempo

138

M
A
E

1 2
3 4
5 6
7 8
9 10
11 12
13 14
15 16
17 18
19 20
21 22
Serie de Tiem
po
23 24
25 26
27 28
29

M
AETcnicasdeP
rediccin

C1

C
4

C7
Predictor

C10

0-1

1-2

2-3

3-4

4-5

5-6

6-7

Original
Modelado
2

x (n)

-1

-2
910
10

920
20

930
30

940
40

950
50

Figura 8-11: Serie Vanderpol modelada con tcnica ANFIS

Original
Modelado
1.0

0.8

x (n)

0.6

0.4

0.2

0.0
910

920

930

940

950

Figura 8-12: Serie Logistic modelada con tcnica Polynom

139

Original
Modelado
0.6
0.4

x (n)

0.2
0.0
-0.2
-0.4
10

20

30

40

50

Figura 8-13: Serie EEG modelada con tcnica RNAP

Original
2.0

Modelado

1.8
1.6
1.4
1.2

x (n)

1.0
0.8
0.6
0.4
0.2
0.0
10

20

30

40

50

Figura 8-14: Serie A1 modelada con tcnica FFNBP

140

tcnicas cuyo origen es la Teora de Sistemas Dinmicos No Lineales son las de menor capacidad
de modelado de las series de tiempo: Predict, Polynom y rbf. En general, las tcnicas basadas
en Inteligencia Artificial poseen una capacidad de modelado superior, siendo las que aplican
mtodos hbridos las mejores de todas.
La evaluacin del error de modelado genero tres Matrices de Error de Modelado, las cuales
no solo permiten el anlisis de la propagacin del error del modelado para cada una de las
tcnicas, sino tambin utilizar esta informacin para construir una mtrica para cuantificar la
capacidad de modelado de las mismas.
Nuevamente se presentan las grficas de superficie para las matrices de errores RMSE, BE
y MAE correspondientes al modelado de las series de tiempo. La Figura 8-16, muestra que
el comportamiento del error RMSE presenta en general valores pequeos (i.e. hay buenos

modelos), siendo el valor promedio para el conjunto de tcnicas de hRMSEj ik = 0.1743. La


excepcin es la tcnica Sugimay, la cual presenta varios casos extremos de errores mayores a

uno, la tcnica a pesar de tener capacidad de modelar gran nmero de series de tiempo, presenta
un rendimiento deficiente para el aprendizaje de la dinmica de las series de tiempo, lo que se
refleja en el ajuste de los modelos a las series, esto corrobora lo observado en la tabla de la
Figura 8-15, que muestra el bajo rendimiento de las tcnicas derivadas de Teora de Sistemas
Dinmicos No Lineales para modelar series de tiempo. Si se excluye la tcnica Sugimay para

el clculo del promedio del error RMSE, se obtiene hRMSEj ik = 0.0830 que es un valor ms

representativo del comportamiento del error RMSE para las tcnicas de modelado. En forma
similar al caso de las tcnicas de prediccin, el comportamiento del error es independiente de
la capacidad de cada tcnica para modelar a las series de tiempo.
La Figura 8-17, muestra el comportamiento del error BE para el caso de modelado de series
de tiempo, los casos extremos corresponden a la tcnica Sugimay que muestra el subaprendizaje
de la tcnica, lo cual deteriora su capacidad de modelar a las series de tiempo de forma adecuada.
Para el resto de las tcnicas se observa que el error BE es cercano a cero, lo cul indica un ajuste
ptimo de los modelos a las series de tiempo, el promedio del error BE para todo el conjunto de

tcnicas es hBEj ik = 0.0567, que muestra que hubo una ligera tendencia al subaprendizaje

por parte de la mayora de los modelos, sin embargo la magnitud de este promedio es dominada
por la tcnica Sugimay, por lo cual no se considera un valor confiable, si se excluye a dicha

141

Figure 8-15: Matriz de modelado de series de tiempo

142

Sine
Vanderpol
Qperiodic2
Qperiodic3
MackeyGlass
Logistic
Lorenz
Rossler
Ikeda
Henon
Cantor
Tent
A1
D1
Laser
Dow Jones
Kobe
EEG
ASCIITXT
El nio
HIV DNA
Human DNA
Lovaina
Plasma
Primos
SP500
Star
Brownian
Motion
White Noise
Total de
Series
Modeladas
por cada
Tcnica

Serie de
Tiempo

1
1
1
1
0
1
0
0
1
1
0
0
0
0
0
0
0
0
1
0
0
0
1
1
0

14

1
1
1
1
0
1
0
0
1
1
0
1
0
1
0
0
0
0
1
0
0
0
1
1
0

16

FFNBP

1
1
1
1

RBFNBP

1
1
1
1

ANFIS
20

1
1
1
1
0
0
1
1
1
1
1
1
0
0
1
0
1
1
0
0
0
1

1
1
1
1

Hibridos

RNAP
23

1
1
1
1
1
0
1
1
1
1
1
1
1
0
1
0
1
1
1
0
0
1

1
1
1
1

Predict
9

0
1
1
0
0
0
0
1
0
1
1
0
0
0
0
0
1
0
0
0
0
0

1
1
0
0

Polynom
5

1
0
0
0
0
0
1
0
0
1
0
0
0
0
0
0
0
0
0
0
0
0

1
1
0
0

0
0
0
0
0
0
1
0
0
1
0
0
0
0
0
0
0
0
0
0
0
0

1
1
1
0

rbf

Tcnica de modelado
Teoria de Sistemas Dinmicos No Lineales

22

1
1
1
0
1
0
1
1
1
1
1
1
1
0
1
0
1
1
1
0
0
1

1
1
1
1

Sugimay

Inteligencia Artificial

19

0
1
1
0
0
0
1
1
0
1
1
1
1
0
1
0
1
1
1
0
0
1

1
1
1
1

6
7
7
2
4
0
6
7
5
7
6
4
4
0
4
0
5
6
3
0
0
6

9
9
7
6

Total de
Estadstica Tcnicas que
Modelan a
cada Serie
de Tiempo

ARMA

Figura 8-16: Grfica de superficie del error RMSE para el modelado de series de tiempo

143

RMSE

1 2
3 4
5 6
7 8
9 10
11 12
13 14
15 16
17 18
19 20
21 22
23 24
25 26
SeriedeTiem
po
27 28
29

RMSE Tcnicas de Modelado

C1

C4

C7

Modelo

0-1

1-2

2-3

3-4

4-5

5-6

tcnica se obtiene un valor promedio de hBEj ik = 0.0015. En forma similar al caso de las

tcnicas de prediccin, el comportamiento del error es independiente de la capacidad de cada


tcnica para modelar a las series de tiempo.
La Figura 8-18, muestra el comportamiento del error MAE para el caso de modelado de series
de tiempo, los casos extremos que corresponden a la tcnica Sugimay, muestran que el error local
crece en forma considerable para esta tcnica de modelado. Nuevamente considerando al total de
tcnicas para calcular el promedio del error MAE, la contribucin de la tcnica Sugimay domina

siendo su resultado hMAEj ik = 0.1497. En general, para el resto de las tcnicas el error

MAE es pequeo, excluyendo a la tcnica Sugimay, se tiene un promedio hMAEj ik = 0.0664,

lo cual indica que el error local de los modelos no crece en forma apreciable para un intervalo
de modelado de N = 50 unidades. Finalmente, como en el caso de las tcnicas de prediccin,
el comportamiento del error se observa es independiente de la capacidad de cada tcnica para
modelar a las series de tiempo.

8.4

Discusin

En este captulo se present una metodologa para la evaluacin y comparacin de dos conjuntos
de tcnicas que representan respectivamente, diferentes modelos para la prediccin y para el
modelado de series de tiempo. Esta metodologa genera un conjunto de matrices de datos que
junto con los matrices correspondientes a la caracterizacin de las series de tiempo (ver captulo
7), proporcionan informacin til para el desarrollo de mtricas de capacidad de prediccin (o
modelado) y para el estudio de la predictibilidad de las series de tiempo.
Para el caso de las tcnicas de prediccin (predictores), se encuentra que las mejores tcnicas
corresponden a aquellas cuyo origen es la Teora de Sistemas Dinmicas No Lineales y que se
basan en la construccin de modelos locales en el espacio fase. La magnitud del error de
prediccin RMSE es pequeo y cercano a cero, como una medida de carcter global, muestra
que los modelos de prediccin son buenos. Por su parte el error BE, muestra que los modelos
se ajustan casi en forma ptima a la dinmica de las series, y en promedio hay una tendencia
de las tcnicas al subaprendizaje. Por ltimo, el error MAE como medida del comportamiento
del error local de prediccin, muestra que este no crece en forma apreciable para el conjunto

144

Figura 8-17: Grfica de superficie del error BE para el modelado de series de tiempo

145

BE

-4

-3.5

-3

-2.5

-2

-1.5

-1

-0.5

0.5

1 2
3 4
5 6
7 8
9 10
11 12
13 14
15 16
17 18
19 20
21 22
23 24
25 26
Serie de Tiempo
27 28
29

BE Tcnicas de Modelado

C1

C4

C7

Modelo

-4--3.5

-3.5--3

-3--2.5

-2.5--2

-2--1.5

-1.5--1

-1--0.5

-0.5-0

0-0.5

Figura 8-18: Grfica de superficie del error MAE para el modelado de series de tiempo

146

MAE

0.5

1.5

2.5

3.5

4.5

1 2
3 4
5 6
7 8
9 10
11 12
13 14
15 16
17 18
19 20
21 22
23 24
25 26
Serie de Tiempo
27 28
29

MAETcnicas de Modelado

C1

C4

C7

Modelo

0-0.5

0.5-1

1-1.5

1.5-2

2-2.5

2.5-3

3-3.5

3.5-4

4-4.5

4.5-5

de datos predichos. En general, el comportamiento de los tres errores es independiente de la


capacidad de las tcnicas para predecir (i.e. del nmero de series predichas por cada una de
ellas).
Con respecto a las tcnicas de modelado, se verifica en forma emprica que la prediccin
y el modelado poseen diferente dificultad, ya que an cuando las tcnicas de prediccin o de
modelado buscan la construccin de un modelo que reproduzca la dinmica de un sistema, en la
prediccin se genera un error que no es posible compensar como en el caso del modelado durante
el proceso de entrenamiento, es decir, la diferencia en los procesos de expansin de los errores
de prediccin y de modelado marcan la diferencia entre la capacidad de predecir y modelar a
las series de tiempo. Como se mencion en la seccin 2.6, las diferentes fuentes de error son
limitantes para la prediccin de las series de tiempo reduciendo la extensin del horizonte de
prediccin a cero en el caso de los fracasos en la prediccin.
Dentro del conjunto de tcnicas de modelado no se observa una tcnica que posea una
superioridad clara para el modelado de series de tiempo. Del subconjunto de tcnicas con
mejores resultados, la mayora tienen como origen a la Inteligencia Artificial, y dentro de este
subconjunto aquellas que poseen algoritmos de naturaleza hbrida son las mejores. Las tcnicas
cuyo origen se basa en la Teora de Sistemas Dinmicos No Lineales, en general presentan una
capacidad de modelado deficiente en todos los casos. En cuanto a los errores de modelado, estos
presentan comportamientos similares a los observados para las tcnicas de prediccin. El error
RMSE es pequeo y cercano a cero, lo que indica la generacin de buenos modelos por parte de
las tcnicas, el error BE muestra que los modelos se ajustan casi en forma ptima a la dinmica
de las series, y en promedio hay una tendencia de las tcnicas al subaprendizaje, por ltimo el
error MAE como medida del comportamiento del error local de modelado, muestra que este no
crece en forma apreciable para el conjunto de datos modelados. En este caso nuevamente, el
comportamiento de los tres errores se observa es independiente de la capacidad de las tcnicas
para modelar (i.e. del nmero de series modeladas por cada una de ellas).
Por ltimo, los experimentos realizados en este captulo muestran que tanto para la prediccin como en el modelado de series de tiempo, no hay modelos que sean universales, es decir
capaces de predecir o modelar a todo el conjunto de series de tiempo (una verificacin expe
rimental independiente a la desarrollada en la presente tesis se presenta en el captulo 13 de

147

apndices). Sin embargo, si es posible el construir tcnicas de prediccin o de modelado con la


capacidad de adaptarse a una amplia gama de dinmicas de las series de tiempo.

148

Captulo 9

Mtricas de la Predictibilidad de
Series de Tiempo y Coeficientes de
Capacidad para Prediccin y
Modelado
9.1

Introduccin

Existen pocos trabajos en los cuales se realice un anlisis para caracterizar la predictibilidad
(o equivalentemente la dificultad de prediccin) de una serie de tiempo. En el captulo 3, se
present un panorama del estado del arte en el estudio de la predictibilidad de series de tiempo.
Se encontr que entre los trabajos reportados, varios de ellos utilizan al exponente de Lyapunov
como el parmetro que ms se identifica con la predictibilidad de series de tiempo [3, 84, 118,
119, 120, 121, 122, 123, 124]. Sin embargo, el considerar un solo parmetro para medir la
predictibilidad como el exponente de Lyapunov o la Entropa de Informacin de Shannon, no
proporciona informacin suficiente sobre la dinmica de las series de tiempo para determinar
adecuadamente la predictibilidad.
En este captulo se desarrollan una serie de mtricas para medir la dificultad de prediccin
de las series de tiempo y en consecuencia su predictibilidad, en base a un conjunto finito de

149

parmetros ortogonales que caracterizan a las series de tiempo. Dichos parmetros tienen
diferentes bases tericas: Estadstica, Anlisis de Fourier, Anlisis SSA, Teora de Sistemas
de Dinmicos No Lineales y Anlisis de Gramticas. La seccin 9.2, presenta el desarrollo de
diferentes mtricas de predictibilidad de series de tiempo. En la seccin 9.3, se presenta un
anlisis comparativo entre las diferentes mtricas desarrolladas. En la seccin 9.4, se presenta
el desarrollo de coeficientes de capacidad de prediccin y de modelado para la evaluacin en
forma cuantitativa de las tcnicas (i. e. los modelos) para predecir o modelar series de tiempo.
Finalmente, en la seccin 9.5 se discuten los resultados presentados a lo largo del captulo.

9.2
9.2.1

Mtricas de la Predictibilidad de Series de Tiempo


Ortogonalidad de los Parmetros

Para el desarrollo de una mtrica de predictibilidad de las series de tiempo, primero es necesario
identificar a aquellos parmetros que en base a su definicin, se sabe que proporcionan informacin relevante sobre las caractersticas de la dinmica de la serie de tiempo. El segundo paso,
es verificar si los parmetros seleccionados son ortogonales entre s, como se mencion en la
seccin 7.3, la ortogonalidad asegura que cada uno de los parmetros proporcionan informacin
diferente (i.e. complementaria) sobre las series de tiempo. Mediante un anlisis de correlacin
bivariada es posible identificar el grado de ortogonalidad (i.e. independencia) de los parmetros.
En el captulo 7, se describieron las tablas de datos correspondientes a los diferentes anlisis
realizados al conjunto de series de tiempo bajo estudio. Las tablas de datos que corresponden
a parmetros estadsticos caracterizan la distribucin estadstica de los datos de las serie de
tiempo. Analizando las definiciones de estos parmetros, se encuentra que los parmetros son
de tipo esttico, es decir, no proporcionan informacin sobre la dinmica de la serie de tiempo y
en consecuencia no son tiles para cuantificar la predictibilidad de una serie de tiempo, aunque
son tiles en la construccin de modelos de prediccin de origen estadstico (ver tablas en las
Figuras 7-17 y 7-18).
Para complementar lo anterior, las Figuras 9-1 y 9-2 presentan tablas del anlisis de co
rrelacin bivariada de los parmetros estadsticos con respecto al nmero de predicciones exitosas (NumPred) para cada serie de tiempo y tambin con respecto al nmero de modelaciones

150

exitosas (NumMod) (ver tablas en las Figuras 8-7 y 8-15).


Se observa que los parmetros estadsticos (con excepcin del parmetro de auto correlacin)
no poseen una correlacin fuerte con relacin al nmero de xitos de prediccin y modelado
para cada serie de tiempo. Por lo anterior, con la excepcin del parmetro de auto correlacin,
los parmetros de tipo estadstico no son indicadores adecuados para la caracterizacin de la
predictibilidad en series de tiempo.
Del conjunto de parmetros estadsticos nicamente la correlacin de Pearson (auto corre
lacin) es el que posee mayor correlacin con respecto a la prediccin y modelado de las series
de tiempo, adems de que proporciona informacin sobre la dinmica de las mismas, ya que
permite cuantificar el grado de auto correlacin entre valores a diferentes instantes de tiempo
dentro de una serie, por lo anterior, este parmetro fue seleccionado para formar parte de una
de las tres mtricas desarrolladas en este trabajo.
En relacin con el anlisis de Fourier, se seleccion al parmetro de frecuencia dominante,
ya que como se mencion en la seccin 4.3, es un valor escalar til en la diferenciacin entre
seales peridicas y no peridicas.
Con respecto a la matriz correspondiente a los datos del porcentaje de varianza en las componentes resultantes del anlisis PCA, como se mencion en la seccin 4.4, por ser parmetros
escalares que caracterizan la estructura de la serie de tiempo, se decidi no emplearlo en la
construccin de las mtricas de predictibilidad, sino en la bsqueda de relaciones entre la predictibilidad de las series y sus caractersticas estructurales.
Finalmente, todos los parmetros derivados de la Teora de Sistemas Dinmicos No Li
neales, Teora de Informacin y Teora de la Computacin son empleados en la construccin de
las mtricas de predictibilidad, pues todos ellos cuantifican caractersticas relacionadas con la
dinmica de la serie de tiempo (ver tabla en la Figura 7-19).
Una vez seleccionados los parmetros para el desarrollo de las mtricas. Se realiz el anlisis de correlacin bivariada para de esta forma, determinar el grado de ortogonalidad de los
parmetros y decidir si el conjunto de parmetros se complementan entre s, o existe redundancia en la informacin proporcionada por algunos de ellos. La Figura 9-3, presenta la tabla
del conjunto de parmetros seleccionados y la abreviatura con la que se identifican en la tabla
de anlisis de correlacin bivariada.

151

Correlacin Bivariada
Parmetros
Estadsticos

Total de Tcnicas que


Predicen a cada Serie
de Tiempo (NumPred)

Rango de Datos

0.117

Resolucin
Desviacin
Promedio
Desviacin
Estandar
Skewness
Kurtosis

-0.09
0.163
0.162
0.068
-0.11

Moda (Mxima
Probabilidad)

-0.003

Correlacin de
Pearson
(Autocorrelacin)

0.281

Tiempo de
Correlacin

0.078

Valor Promedio

0.123

Valor Medio

0.094

Valor Mnimo

-0.095

Valor Mximo

0.133

Cuartil Mnimo

0.014

Cuartil Mximo

0.186

Figura 9-1: Tabla de correlacin bivariada de los parmetros estadsticos respecto a la prediccin
de series de tiempo

152

Correlacin Bivariada
Parmetros
Estadsticos

Total de Tcnicas que


Modelan a cada Serie
de Tiempo (NumMod)

Rango de Datos

0.204

Resolucin
Desviacin
Promedio
Desviacin
Estandar
Skewness
Kurtosis

-0.164
0.268
0.259
0.034
-0.164

Moda (Mxima
Probabilidad)

0.027

Correlacin de
Pearson
(Autocorrelacin)

0.583

Tiempo de
Correlacin

0.16

Valor Promedio

0.098

Valor Medio

0.074

Valor Mnimo

-0.199

Valor Mximo

0.19

Cuartil Mnimo

-0.078

Cuartil Mximo

0.234

Figura 9-2: Tabla de correlacin bivariada de los parmetros estadsticos respecto al modelado
de series de tiempo

153

Parmetro
de Serie de Abreviatura
Tiempo
Correlacin
de Pearson
ACO
(Autocorrelac
in)
Exponente
EH
de Hurst
Frecuencia
FD
Dominante
Exponente
EL
de Lyapunov
Dimensin
de
DCO
Correlacin
Dimensin
de
DCA
Capacidad
Dimension
DF
Fractal
Dimensin
DE
Embebida
Entropa
Espacio
EET
Temporal
(%)
Recurrencia
REC
(%)
Determinism
DET
o (%)
Entropa de
Informacin
ES
(Shannon)
Informacin
Mutua
IMP
Promedio
Complejidad
CRLZ
Relativa LZ
Nmero de
Reglas de
RP
Produccin

Figura 9-3: Tabla de parmetros seleccionados para el clculo de mtricas de predictibilidad

154

La Figura 9-4, muestra la tabla de los resultados del anlisis de correlacin para el conjunto
de parmetros seleccionados para caracterizar la predictibilidad de las series de tiempo.

Parmetros
ACO
EH
FD
EL
DCO
DCA
DF
DE
EET
REC
DET
ES
IMP
CRLZ
RP

ACO
1
0.728
-0.471
-0.161
-0.205
0.148
-0.085
0.324
-0.533
0.244
0.718
0.548
0.299
-0.577
0.245

Correlacin de Pearson entre los Parmetros de las Series de Tiempo


EH FD EL DCO DCA DF DE EET REC DET
1
-0.566
-0.243
-0.299
-0.05
-0.123
0.057
-0.517
0.297
0.645
0.496
0.416
-0.632
-0.103

1
-0.01
0.107
0.337
-0.041
-0.443
0.268
-0.143
-0.237
-0.011
-0.243
0.175
-0.008

1
-0.306
-0.174
-0.127
-0.03
0.458
-0.241
-0.529
-0.338
-0.264
0.506
0.426

1
0.098
-0.115
0.173
0.059
-0.211
-0.145
-0.182
-0.301
0.306
-0.154

1
0.172
0.016
-0.011
-0.062
0.299
0.328
0.051
-0.227
0.091

1
0.065
0.117
-0.078
-0.176
-0.152
0.068
-0.013
0.145

1
-0.08
0.282
0.216
0.181
0.173
0.046
0.235

1
-0.189
-0.695
-0.414
-0.536
0.718
0.45

1
0.381
0.485
0.441
-0.17
0.01

ES

IMP CRLZ RP

1
0.718 1
0.527 0.358 1
-0.834 -0.6 -0.586 1
-0.184 -0.14 -0.055 0.335 1

Figura 9-4: Tabla de correlacin bivariada del conjunto de parmetros de las mtricas de predictibilidad
Entre los parmetros se observa que algunos presentan una fuerte correlacin por ejemplo,
el Determinismo y la Complejidad Relativa LZ que poseen una correlacin inversa entre s, o
el Exponente de Hurst y la Auto Correlacin que poseen una correlacin directa entre s. En
el caso de los parmetros cuya correlacin es dbil, esto es indicativo de su mayor ortogona
lidad con respecto a los dems parmetros. En general, ninguno de los parmetros posee una
correlacin (o dependencia) significativa con todo el conjunto de parmetros. Cada uno proporciona informacin diferente sobre la dinmica de las series de tiempo, por lo cul, se considera
importante el combinarlos para cuantificar la predictibilidad de las series de tiempo.
Una vez definido el conjunto de parmetros para caracterizar la predictibilidad de series de
tiempo, a continuacin se describe el desarrollo de las mtricas de predictibilidad propuestas
en este trabajo.

155

9.2.2

Mtrica Coeficiente de Complejidad de Prediccin (CCOP)

La mtrica Coeficiente de Complejidad de Prediccin (CCOP) se desarroll a partir de una


escala de valores discretos que mapea a los valores reales de un conjunto de parmetros caractersticos de las series de tiempo, los parmetros seleccionados que proporcionan la informacin
sobre las series de tiempo son los siguientes: Frecuencia Dominante (FD), Exponente de Hurst
(EH ), Exponente de Lyapunov (EL), Dimensin de Correlacin (DCO), Dimensin de Capacidad (DCA), Entropa Espacio Temporal (EET ), Porcentaje de Recurrencia (REC ), Porcentaje
de Determinismo (DET ), Entropa de Informacin de Shannon (ES ) y Nmero de Reglas de
Produccin (RP) [10].
Para construir la escala de valores discretos se procede de la siguiente forma:
Se identifica el valor mximo y mnimo de cada parmetro calculado para el conjunto de
series de tiempo.
Se calcula el rango de valores contenidos entre estos dos valores extremos y se divide dicho
rango en tres subintervalos iguales.
El valor discreto asignado a cada uno de los subintervalos se define bajo el siguiente
criterio, si el valor del parmetro corresponde al subintervalo que indica mayor complejidad
de prediccin su valor es 3, si corresponde al subintervalo intermedio se le asigna el
valor 2 y si corresponde al subintervalo de menor complejidad de prediccin su valor
es 1; adicionalmente se asigna el valor 0 cuando el parmetro posee valores que no son
indicadores de la complejidad de prediccin (esto en el caso particular del Exponente
de Hurst). En la Figura 9-5, se presenta la tabla con las escalas de valores discretos
correspondientes a cada parmetro, construidas a partir del conjunto de series de tiempo
analizadas en este trabajo.
Finalmente el Coeficiente de Complejidad de Prediccin para la serie de tiempo i esima
se define como:

CCOP (STi ) = F Di + EHi + ELi + DCOi + DCAi + EETi + RECi + DETi + ESi + RPi (9.1)
156

Figura 9-5: Tabla de escalas de los parmetros de la mtrica CCOP

157

La Figura 9-6, muestra la tabla para los valores discretizados de los parmetros calculados
y el correspondiente CCOP para el conjunto de series de tiempo.
Este coeficiente, como primera propuesta de una mtrica de predictibilidad, permiti verificar en forma experimental la idea de utilizar un conjunto de parmetros de diversos orgenes
para cuantificar la predictibilidad de series de tiempo. Sin embargo, posee dos desventajas:
La discretizacin de los parmetros genera perdida de informacin en relacin con las
series.
Los intervalos de discretizacin de los parmetros dependen del conjunto de series de
tiempo, si este conjunto crece o disminuye, los intervalos deben de ser recalculados y
los valores del CCOP para cada serie ajustarse, lo cul hace que el coeficiente no sea
invariante.

9.2.3

Mtrica de Predictibilidad con 9 Parmetros (CDP1)

En la seccin anterior, se ha desarrollado una primera mtrica que unifica y expresa cuantitativamente por medio de un coeficiente, a un conjunto de parmetros que caracterizan a las series
de tiempo y que permiten cuantificar la dificultad de prediccin de las mismas. Sin embargo,
este coeficiente posee dos desventajas: perdida de informacin y que no es invariante. Para
resolver estas desventajas se diseo una nueva mtrica que se denomina Coeficiente de Dificultad de Prediccin 1 (CDP1 ), para construir esta mtrica se parte de un conjunto de nueve
parmetros ortogonales, adems de los siguientes criterios:
El conjunto de parmetros ortogonales una vez definido es cerrado, es decir, no puede
aumentar o disminuir.
No se discretiza a los parmetros, con lo cul no se pierde informacin sobre las series de
tiempo y se logra que el coeficiente sea invariante.
Cada parmetro posee el mismo peso en la construccin del coeficiente.
Hay dos tipos de relaciones en los parmetros: Una relacin directa, es decir a mayor
valor de un parmetro es mayor la dificultad de prediccin de la serie de tiempo; o a

158

Figure 9-6: Tabla de resultados de la mtrica CCOP

159

Qperiodic3

0
1

0
0
0
0
0
0

Rossler

Ikeda

Henon

Cantor

Tent

A1

0
0
1
1

0
0
0
0
0

DowJones

Kobe

EEG

ASCIITXT

El nio

0
0
0

Primos

SP500

WhiteNoise

Motion
0

Plasma

Star

Lovaina

0
0

HIVDNA

HumanDNA

0
0

D1

Laser

0
0

Lorenz

Brownian

Exponente

Dominante deLyapunov

Frecuencia

Logistic

Glass

Qperiodic2

Mackey-

0
1

Sine

de Hurst

Tiempo

Vanderpol

Exponente

Seriede

(Shannon)

Temporal

Capacidad

Correlacin

Recurrencia Determinismo Informacin

Espacio

de

de

Entropade

Entropa

Dimensin

Dimensin

Produccin

Reglas de

Nmero de

21

16

18

18

20

18

16

13

18

20

20

19

15

11

16

19

17

15

20

19

18

14

13

18

17

14

13

12

12

(CCOP)

de Prediccin

Complejidad

Coeficiente de

menor valor de un parmetro es menor la dificultad de prediccin de la serie de tiempo.


Una relacin inversa, es decir a mayor valor de un parmetro es menor la dificultad de
prediccin de la serie de tiempo; o a menor valor de un parmetro es mayor la dificultad
de prediccin de la serie de tiempo.
Los parmetros seleccionados que cuantifican las diferentes caractersticas de las series de
tiempo y su origen, se muestran en la tabla 9.2.

(9.2)
Parmetro

Origen

Exponente de Lyapunov

No Lineal

Exponente de Hurst

Estadstica

Dimensin de Capacidad

No Lineal

Dimensin de Correlacin

No Lineal

Entropa Espacio Temporal

No Lineal

Entropa de Shannon

Informacional

Porcentaje de Determinismo

No Lineal

Porcentaje de Recurrencia

No Lineal

Reglas de Produccin

Computacional

El conjunto de parmetros seleccionados para la construccin de la mtrica poseen diferentes


unidades de medida, en la tabla 9.3 se muestran los parmetros y sus respectivas unidades de
medida.

160

(9.3)
Parmetro

Abreviatura

Unidades

Exponente de Lyapunov

EL

Exponente de Hurst

EH

[bit]
[tiempo]
[desplazamiento]
[tiempo]

Dimensin de Capacidad

DCA

[adimensional]

Dimensin de Correlacin

DCO

[adimensional]

Entropa Espacio Temporal

EET

[adimensional]

Entropa de Shannon

ES

[bit]

Porcentaje de Determinismo

DET

[adimensional]

Porcentaje de Recurrencia

REC

[adimensional]

Reglas de Produccin

RP

[reglas]

A continuacin se presenta el desarrollo de la forma funcional de la mtrica de dificultad de


prediccin:
Anlisis dimensional: para que los parmetros no posean unidades de medida particulares,
se multiplicaron aquellos que las poseen por el inverso de sus unidades de medida (ver
tabla 9.4).

(9.4)
Parmetro

Unidad Adimensionada

Exponente de Lyapunov

[bit] [tiempo]
[tiempo] [bit]

Entropa de Shannon

1
[bit] [bit]

Exponente de Hurst

[tiempo]
[desplazamiento]
[tiempo]
[desplazamiento]

Reglas de Produccin

1
[reglas] [reglas]

Forma funcional del coeficiente de dificultad de prediccin: el coeficiente es un cociente


en el cual el numerador corresponde a la suma de los parmetros que indican la dificultad
para predecir la serie de tiempo (relacin directa), dichos parmetros son: Exponente de
Lyapunov, Dimensin de Capacidad, Dimensin de Correlacin, Entropa Espacio Temporal y Reglas de Produccin. A su vez, el denominador esta formado por la suma de los
161

parmetros que indican la facilidad para predecir la serie de tiempo (relacin inversa),
dichas propiedades son: Exponente de Hurst, Entropa de Shannon, Porcentaje de Determinismo y Porcentaje de Recurrencia. La tabla 9.5 muestra la tendencia de los parmetros
respecto de la dificultad de prediccin.

(9.5)
Parmetro

Abreviatura

Tendencia

Exponente de Lyapunov

EL

Directa

Exponente de Hurst

EH

Inversa

Dimensin de Capacidad

DCA

Directa

Dimensin de Correlacin

DCO

Directa

Entropa Espacio Temporal

EET

Directa

Entropa de Shannon

ES

Inversa

Porcentaje de Determinismo

DET

Inversa

Porcentaje de Recurrencia

REC

Inversa

Reglas de Produccin

RP

Directa

Los valores de los parmetros son tomados en su forma original con la excepcin del
parmetro exponente de Hurst, el cual por presentar tanto valores positivos como negativos
o cero, para considerarlo en la mtrica se transformo mediante la siguiente expresin:

EH = |EH 0.5|

(9.6)

El cociente que se obtiene con los parmetros de las series de tiempo es de la forma:
EL + DCA + DCO + EET + RP
EH + ES + DET + REC

(9.7)

Experimentalmente se observ que los valores de dicho cociente corresponde a reales po


sitivos sin embargo el rango de los mismos es amplio de valores cercanos a cero a valores del
orden 102 . Para realizar una comparacin adecuada de dicho cociente para las diferentes series
de tiempo se aplico el logaritmo base 10 y a este se le sumo 1, de tal forma que todos los valores
fuesen positivos, de esta forma la expresin final del Coeficiente de Dificultad de Prediccin 1
162

(CDP1 ) es:

CDP1 = Log10

EL + DCA + DCO + EET + RP


EH + ES + DET + REC

+1

(9.8)

Finalmente la mtrica de predictibilidad de la serie de tiempo es el inverso del coeficiente


de dificultad de prediccin:

P redictibilidad =

1
CDP1

(9.9)

La Figura 9-7, muestra la tabla de resultados de la mtrica desarrollada para el conjunto


experimental de series de tiempo.

9.2.4

Mtrica de Predictibilidad con 14 Parmetros (CDP2)

La mtrica anterior consista de 9 parmetros de las series de tiempo, los cuales fueron seleccionados por caracterizar diferentes aspectos de la dificultad de prediccin (y por ende de la
predictibilidad) de una serie de tiempo, sin embargo, queda la pregunta de si estos parmetros
son suficientes para cuantificar la predictibilidad de una serie de tiempo, por ello, se desarrollo
una segunda mtrica la cual en su forma funcional es idntica a la anterior pero a la cual se
le incorporaron parmetros adicionales de las series de tiempo que tambin son indicadores de
la dificultad de prediccin, estos parmetros son: la Dimensin Embebida (DE ), la Dimensin Fractal (DF ), la Informacin Mutua Promedio (IMP), la Auto Correlacin (ACO) y la
Complejidad Relativa LZ (CRLZ ). La tabla 9.10 muestra el origen de estos parmetros,

(9.10)
Parmetro

Origen

Dimensin Embebida

No Lineal

Dimensin Fractal

No Lineal

Informacin Mutua Promedio

Informacional

Autocorrelacin

Estadstica

Complejidad Relativa LZ

Computacional

La tabla 9.11, muestra los parmetros y sus respectivas unidades de medida,

163

Serie de
Tiempo

Sine
Vanderpol
Qperiodic2
Qperiodic3
MackeyGlass
Logistic
Lorenz
Rossler
Ikeda
Henon
Cantor
Tent
A1
D1
Laser
Dow Jones
Kobe
EEG
ASCIITXT
El nio
HIV DNA
Human DNA
Lovaina
Plasma
Primos
SP500
Star
Brownian
Motion
White Noise

Coeficiente de
Dificultad de
Predictibilidad
Prediccin con 9
(1/CDP1)
parmetros (CDP1)
0.512997545
0.604397824
0.799020327
1.131340574

1.949327066
1.654539378
1.251532615
0.88390713

1.522174611

0.656954855

2.148616946
0.974519472
0.888900691
3.076784726
2.068058885
2.782220495
1.276447623
1.122688313
1.32138263
1.136091261
0.529138344
1.180443197
2.722554831
1.989644041
1.502251915
0.658902795
0.611454124
1.223627448
2.489831953
2.133683262
1.789566214
1.679878416

0.465415672
1.026146762
1.124985063
0.325014614
0.483545225
0.359425143
0.783424233
0.890719168
0.756783067
0.880210978
1.889864932
0.847139449
0.367302061
0.502602465
0.665667316
1.517674546
1.63544567
0.81724221
0.401633531
0.468673124
0.558794635
0.595281177

1.042379904

0.95934313

3.497587263

0.28591138

Figura 9-7: Tabla de resultados sobre la predictibilidad en series de tiempo con la mtrica CDP1

164

(9.11)
Parmetro

Abreviatura

Unidades

Dimensin Embebida

DE

[adimensional]

Dimensin Fractal

DF

[nmero de estados]
[volmen]

Informacin Mutua Promedio

IMP

[bit]

Autocorrelacin

ACO

[adimensional]

Complejidad Relativa LZ

CRLZ

[nmero de subcadenas]

Para eliminar las dimensiones y que las unidades sean adimensionales se realizo como en el
caso de la mtrica CDP1 , un anlisis dimensional (ver tabla 9.12).

(9.12)
Parmetro

Unidad Adimensionada

Dimensin Fractal

[volmen]
[nmero de estados]
[volmen]
[nmero de estados]

Informacin Mutua Promedio

1
[bit] [bit]

Complejidad Relativa LZ

[nmero de subcadenas] [nmero de 1subcadenas]

La tabla 9.13, muestra la tendencia del conjunto de parmetros adicionales, respecto de la


dificultad de prediccin.

(9.13)
Propiedad

Abreviatura

Tendencia

Dimensin Embebida

DE

Directa

Dimensin Fractal

DF

Directa

Informacin Mutua Promedio

IMP

Inversa

Autocorrelacin

ACO

Inversa

Complejidad Relativa LZ

CRLZ

Directa

La expresin final del Coeficiente de Dificultad de Prediccin 2 (CDP2 ) ahora con 14


parmetros es:
165

CDP2 = Log10

EL + DCA + DCO + EET + RP + DE + DF + CRLZ


EH + ES + DET + REC + IMP + ACO

+1

(9.14)

y la correspondiente expresin para la mtrica de predictibilidad es nuevamente de la forma:

P redictibilidad =

1
CDP2

(9.15)

La Figura 9-8, muestra la tabla de resultados de la mtrica desarrollada para el conjunto


experimental de series de tiempo.

9.3

Comparacin de las Mtricas de Predictibilidad

En esta seccin se presentan los resultados de comparar las tres mtricas desarrolladas con
la mtrica denominada ndice de Dificultad de Modelado (IDM) [162], y con un conjunto de
parmetros (Exponente de Lyapunov, Entropa de Informacin de Shannon, Coeficiente de
Complejidad Relativa LZ y Nmero de Reglas de Produccin) representativos de caractersticas
con diferentes orgenes (No Lineal, Informacional y Computacional) sobre la series de tiempo. El
Exponente de Lyapunov es ampliamente usado como una medida de predictibilidad de las series
de tiempo [3, 84, 118, 119, 120, 121, 122, 123, 124]. Por su parte, la Entropa de Informacin
de Shannon es usada para determinar la cantidad de informacin en un mensaje (o seal) en
telecomunicaciones [138, 145]. En cuanto al Coeficiente de Complejidad Relativa LZ, es una
medida de complejidad algortmica de una cadena de datos [126, 146]. Por ltimo, el Nmero
de Reglas de Produccin es una medida de complejidad computacional que ha sido utilizada en
la determinacin de la predictibilidad de las series de tiempo [9, 10]. El conjunto de parmetros
ha sido descrito con detalle en el captulo 4, a continuacin se describe la mtrica ndice de
Dificultad de Modelado.

9.3.1

ndice de Dificultad de Modelado (IDM)

Para la construccin de esta mtrica se utilizaron tres parmetros de las series de tiempo:
Exponente de Lyapunov (EL) cuyo origen es la Teora de Sistemas Dinmicos No Lineales,

166

Serie de
Tiempo
Sine
Vanderpol
Qperiodic2
Qperiodic3
MackeyGlass
Logistic
Lorenz
Rossler
Ikeda
Henon
Cantor
Tent
A1
D1
Laser
Dow Jones
Kobe
EEG
ASCIITXT
El nio
HIV DNA
Human DNA
Lovaina
Plasma
Primos
SP500
Star
Brownian
Motion
White Noise

Coeficiente de
Dificultad de
Prediccin con 14
parmetros (CDP2)

Predictibilidad
(1/CDP2)

0.536188191
0.604585119
0.789694626
1.125352046

1.86501683
1.654026816
1.266312277
0.888610816

1.502452625

0.665578391

1.87158717
0.941044521
0.852835387
2.273844247
1.662901586
2.658143428
1.175060008
1.125337164
1.29667964
1.163525516
0.558037204
1.193006503
2.242075478
1.939832694
1.460186187
0.809846705
0.638748604
1.195510181
2.314944118
2.04697427
1.769062943
1.550244553

0.534305864
1.062648979
1.172559224
0.43978386
0.601358498
0.376202424
0.851020368
0.888622568
0.77120051
0.859456872
1.791995215
0.838218398
0.446015315
0.515508375
0.684844172
1.234801592
1.565561151
0.836462973
0.43197587
0.488525926
0.565271012
0.645059515

0.966610896

1.034542446

3.055508184

0.327277801

Figura 9-8: Tabla de resultados sobre la predictibilidad en series de tiempo con la mtrica CDP2

167

Entropa de Informacin de Shannon (ES ) basada en la Teora de Informacin y Nmero de


Reglas de Produccin (RP) cuyo origen es la Teora de Computacin. A partir de estos tres
parmetros se construyeron las siguientes definiciones:
El ndice de Exponente de Lyapunov de una serie de tiempo,

IEL =

ELi
ELmax

(9.16)

donde ELi es el Exponente de Lyapunov de la serie analizada y ELmax es el mximo


Exponente de Lyapunov registrado dentro del conjunto de series de tiempo analizado.
El ndice de Entropa de Shannon de una serie de tiempo es:

IES =

ESmin + 1
ESi + 1

(9.17)

donde ESi es la Entropa de Shannon de la serie analizada y ESmin es la mnima Entropa


de Shannon registrada en el conjunto de series de tiempo analizado.
El ndice de Reglas de Produccin de una serie de tiempo,

IRP =

RPi
RPmax

(9.18)

donde RPi es el nmero de Reglas de Produccin de la serie analizada y RPmax es el mximo


nmero de Reglas de Produccin registrado dentro del conjunto de series de tiempo analizado.
Finalmente el ndice de Dificultad de Modelado de una serie de tiempo que pertenece a un
conjunto de series analizadas esta dado por la expresin:

IDM = IEL + IES + IRP

(9.19)

La Figura 9-9, muestra la tabla de los valores calculados del IDM para las series de tiempo
analizadas en esta tesis.

168

Serie de
Tiempo

ndice de Dificultad
de Modelado (IDM)

Sine
Vanderpol
Qperiodic2
Qperiodic3
MackeyGlass
Logistic
Lorenz
Rossler
Ikeda
Henon
Cantor
Tent
A1
D1
Laser
Dow Jones
Kobe
EEG
ASCIITXT
El nio
HIV DNA
Human DNA
Lovaina
Plasma
Primos
SP500
Star
Brownian
Motion
White Noise

0.599
0.8
1.176
1.256
1.945
1.768
0.969
1.263
2.033
2.139
2.791
0.453
1.031
1.775
1.145
0.873
1.271
2.11
1.673
1.538
0.603
0.737
1.184
1.849
1.396
1.803
1.806
1.558
2.082

Figura 9-9: Tabla de resultados de la mtrica IDM

169

9.3.2

Comportamiento de las Mtricas

La Figura 9-10, presenta la tabla de resultados de las mtricas desarrolladas en este trabajo,
la mtrica IDM y el conjunto de parmetros seleccionados, adems de dos variables corres
pondientes a: el nmero de predicciones para cada serie de tiempo (NumPred) y el nmero
de modelaciones para cada serie de tiempo (NumMod). Estas dos variables se consideran la
referencia contra la que se comparan las mtricas y los parmetros evaluados.
A partir de la tabla que se muestra en la Figura 9-10, se observa que el comportamiento de
las mtricas y parmetros para medir la predictibilidad de las series de tiempo, es de carcter
no lineal respecto del nmero de xitos para prediccin y modelado de cada serie de tiempo
[10]. Para ilustrar lo anterior, se presenta a continuacin en la Figura 9-11, la grfica de la
predictibilidad correspondiente a la mtrica CDP2 versus el nmero de predicciones exitosas
para cada serie de tiempo (NumPred). Adems de la no linealidad observada es importante
notar la dispersin de los puntos en la grfica en especial en el caso de cero predicciones, en el
cual se observa una acumulacin de series con predictibilidad alta pero que no fueron predichas
exitosamente, a priori lo nico que se puede decir es que no se tuvo xito en la bsqueda del
modelo capaz de predecir la serie de tiempo, pero dicho modelo existe aunque no fue localizado,
hay que recordar que los teoremas de No Free Lunch imponen lmites sobre la habilidad para la
bsqueda de la solucin ptima de un problema [55, 56], y la grfica muestra de forma indirecta
esta limitacin. Se espera que al continuar desarrollando en el futuro ms estudios sistemticos
con nuevos modelos de prediccin y series de tiempo, el comportamiento de la mtrica de
predictibilidad se defina mejor al ajustarse la distribucin de resultados conforme crezca la
coleccin de datos experimentales.
Las mtricas de predictibilidad tambin muestran que el tipo de comportamiento dinmico
de las series establecido con la siguiente clasificacin: peridico o regular, cuasi peridico,
catico, complejo y aleatorio o estocstico; no esta relacionado de forma directa (o lineal )
con la predictibilidad de las series de tiempo. Por ejemplo, una serie de tiempo que tenga un
comportamiento de tipo catico o complejo puede tener una predictibilidad alta (por ejemplo:
Rossler o Dow Jones) comparable con la de series cuyo comportamiento sea ms simple como
las de tipo peridico (series Sine y Vanderpol), como se observa en la tabla de la Figura 9-12.
La Figura 9-13, muestra en orden ascendente los valores normalizados (con valor mximo
170

Figure 9-10: Tabla comparativa de las diferentes mtricas de predictibilidad de series de tiempo

171

Sine
Vanderpol
Qperiodic2
Qperiodic3
MackeyGlass
Logistic
Lorenz
Rossler
Ikeda
Henon
Cantor
Tent
A1
D1
Laser
Dow Jones
Kobe
EEG
ASCIITXT
El nio
HIV DNA
Human DNA
Lovaina
Plasma
Primos
SP500
Star
Brownian
Motion
White Noise

Serie de
Tiempo

2.14861695
0.97451947
0.88890069
3.07678473
2.06805889
2.7822205
1.27644762
1.12268831
1.32138263
1.13609126
0.52913834
1.1804432
2.72255483
1.98964404
1.50225192
0.6589028
0.61145412
1.22362745
2.48983195
2.13368326
1.78956621
1.67987842
1.0423799

3.49758726 3.05550818

18
13
14
18
19
20
15
17
19
16
11
15
19
20
20
18
13
16
18
20
18
18
16
21

0.9666109

1.87158717
0.94104452
0.85283539
2.27384425
1.66290159
2.65814343
1.17506001
1.12533716
1.29667964
1.16352552
0.5580372
1.1930065
2.24207548
1.93983269
1.46018619
0.80984671
0.6387486
1.19551018
2.31494412
2.04697427
1.76906294
1.55024455

1.52217461 1.50245263

2.082

1.558

1.768
0.969
1.263
2.033
2.139
2.791
0.453
1.031
1.775
1.145
0.873
1.271
2.11
1.673
1.538
0.603
0.737
1.184
1.849
1.396
1.803
1.806

1.945

1.606

2.043

0.76
0.601
1.049
1.452
2.301
5.728
0.477
0.2234006
1.288
0.949
0.144
1.102
1.199
2.709
2.322
0
0.322
1.0693
3.383
0.594
3.569
3.289

1.481

0.4783576

2.74038235

1.066339

0.1694183

0.03522222 0.7175364
4.78931065 0.1793841
2.45897942 0.1694183
0
0.787297
0.0204499
0.6378102
0
1.056373
3.401
0.03986314
7.02
0.2890078
0.8521749
0.229213
2.93549693 0.3786998
6.43519134 0.1993157
3.74401017
0.787297
0
0.7773312
2.107
1.036442
3.526
0.2092815
1
0.8072285
7.28
0.04982892
5.574
0.3089393
2.866
0.9766468
1.295
0.9766468
2.585
1.036442
3.102
0.5879813

0.15914973

73

85

61
63
72
71
69
72
13
79
92
66
65
79
82
80
83
9
51
77
91
78
82
90

75

4
6
6
1
5
0
8
8
0
8
5
3
2
0
3
0
6
3
2
0
0
1

6
7
7
2
4
0
6
7
5
7
6
4
4
0
4
0
5
6
3
0
0
6

Coeficiente
Total de
Total de
de Dificultad
Nmero de Tcnicas que Tcnicas que
ndice de
Entropa de
Complejidad
Exponente
de
Predicen a
Modelan a
Informacin
Reglas de
Dificultad de
de Lyapunov
Relativa LZ
Prediccin
Produccin cada Serie cada Serie
de Shannon
Modelado
(CRLZ)
(EL)
con 14
(RP)
de Tiempo de Tiempo
(IDM)
(ES)
parmetros
(NumPred) (NumMod)
(CDP2)
0.53618819
0.599
0.517
3.7118
0.05979471
27
10
9
0.60458512
0.8
1.864
4.981
0.07972627
28
8
9
0.78969463
1.176
0.925
2.445885
0.1494868
66
4
7
1.12535205
1.256
1.383
4.232
0.4384945
75
9
6

17

Coeficiente
Coeficiente
de Dificultad
de
de
Complejidad
Prediccin
de
con 9
Prediccin
parmetros
(CCOP)
(CDP1)
12
0.51299755
12
0.60439782
13
0.79902033
14
1.13134057

Serie de Tiempo
2.0
1.8
1.6

Predictibilidad (1/CDP2)

Sine

Dow Jones

Vanderpol

Human DNA

1.4

Qperiodic2

1.2

Rossler
Lorenz
Qperiodic3
Kobe Lovaina
A1
Laser Tent
El nio
Star
Mackey-Glass
Henon
Plasma
Logistic
EEG
Ikeda

1.0
0.8
0.6
0.4
0.2
0

10

Nmero de Predicciones por Serie (NumPred)


Con NumPred=0 en orden ascendente de Predictibilidad: White Noise
Cantor
Primos
ASCIITXT
SP500
D1
Brownian Motion
HIV DNA

Figura 9-11: Grfica del comportamiento de la mtrica de predictibilidad CDP2

172

Coeficiente
de
Serie de
Comportamie Complejidad Predictibilida Predictibilida
Tiempo
nto Dinmico
de
d (1/CDP1)
d (1/CDP2)
Prediccin
(CCOP)
Sine
peridica
12
1.94932707 1.86501683
Vanderpol
periodica
12
1.65453938 1.65402682
cuasi
Qperiodic2
13
1.25153262 1.26631228
peridica
cuasi
Qperiodic3
14
0.88390713 0.88861082
peridica
Mackeycatica
17
0.65695486 0.66557839
Glass
Logistic
catica
18
0.46541567 0.53430586
Lorenz
catica
13
1.02614676 1.06264898
Rossler
catica
14
1.12498506 1.17255922
Ikeda
catica
18
0.32501461 0.43978386
Henon
catica
19
0.48354523 0.6013585
Cantor
caotica
20
0.35942514 0.37620242
Tent
caotica
15
0.78342423 0.85102037
A1
compleja
17
0.89071917 0.88862257
D1
compleja
19
0.75678307 0.77120051
Laser
compleja
16
0.88021098 0.85945687
Dow Jones
compleja
11
1.88986493 1.79199522
Kobe
compleja
15
0.84713945 0.8382184
EEG
compleja
19
0.36730206 0.44601532
ASCIITXT
compleja
20
0.50260247 0.51550838
El nio
compleja
20
0.66566732 0.68484417
HIV DNA
compleja
18
1.51767455 1.23480159
Human DNA
compleja
13
1.63544567 1.56556115
Lovaina
compleja
16
0.81724221 0.83646297
Plasma
compleja
18
0.40163353 0.43197587
Primos
compleja
20
0.46867312 0.48852593
SP500
compleja
18
0.55879464 0.56527101
Star
compleja
18
0.59528118 0.64505952
Brownian
estocstica
16
0.95934313 1.03454245
Motion
White Noise estocstica
21
0.28591138 0.3272778

Figura 9-12: Tabla de mtricas de predictibilidad y el comportamiento dinmico de las series


de tiempo

173

Exponente de Lyapunov
1.2

EL

0.8

0.6

0.4

0.2

Cantor

SP500

Plasma

Star

ASCIITXT

Henon

El nio

Vanderpol

Brownian Motion

White Noise

Ikeda

Mackey-Glass

D1

Qperiodic3

EEG

Kobe

Lovaina

Laser

Rossler

Logistic

Qperiodic2

Lorenz

Sine

Primos

Tent

A1

Human DNA

Dow Jones

HIV DNA

Series de Tiempo

Figura 9-13: Parmetro exponente de lyapunov normalizado y ordenado en forma ascendente


para el conjunto de series de tiempo
uno) del parmetro Exponente de Lyapunov (EL) correspondientes al conjunto de las series
de tiempo. Se puede observar en la grfica que si consideramos a las series de tiempo Sine
cuyo comportamiento dinmico es peridico y White Noise que presenta un comportamiento
aleatorio, como las series representativas de los comportamientos extremos (de menor a mayor
complejidad en el comportamiento dinmico), la informacin proporcionada por este parmetro
(horizonte de prediccin, ver tabla en la Figura 7-19) no es suficiente para definir con claridad
una correspondencia entre el comportamiento dinmico y la predictibilidad de las series de
tiempo.
La Figura 9-14, muestra otro ejemplo del ordenamiento de las series de tiempo ahora en base
al parmetro Complejidad Relativa LZ (CRLZ ), este parmetro que proporciona informacin
sobre la estructura y jerarqua de cadenas de datos (ver tabla en la Figura 7-19), al considerar
las series de tiempo Sine y White Noise como series de referencia, observamos que presenta una
mejor correspondencia en relacin con el comportamiento dinmico y la predictibilidad de las
series de tiempo, sin embargo se observan zonas donde se presentan saltos en la magnitud de
los valores del parmetro, es decir no hay un crecimiento suave de los valores del parmetro

174

Complejidad Relativa de Lempel-Ziv


1.2

CRLZ

0.8

0.6

0.4

0.2

Cantor

White Noise

SP500

Primos

ASCIITXT

Plasma

Kobe

HIV DNA

EEG

Ikeda

Logistic

Star

Henon

Mackey-Glass

Laser

Qperiodic3

Lovaina

A1

D1

El nio

Dow Jones

Lorenz

Rossler

Brownian Motion

Qperiodic2

Sine

Vanderpol

Human DNA

Tent

Series de Tiempo

Figura 9-14: Parmetro complejidad relativa lz normalizado y ordenado en forma ascendente


para el conjunto de series de tiempo
correspondientes al conjunto de series de tiempo.
En la Figura 9-15, se muestran en orden ascendente los valores normalizados (con valor
mximo uno) de la mtrica de predictibilidad CDP2 en su representacin como coeficiente de
dificultad de prediccin, se observa que la relacin entre el comportamiento dinmico de las series
de tiempo y esta mtrica aunque es no lineal (como se explic en un prrafo anterior), permite
obtener una mejor correspondencia entre el comportamiento dinmico y la predictibilidad de
las series de tiempo. Las series de tiempo Sine (menor valor del coeficiente de dificultad de
prediccin) y White Noise (mayor valor del coeficiente de dificultad de prediccin) se asocian
con los valores extremos de la predictibilidad y el crecimiento de los valores de la mtrica
presenta un comportamiento ms suave, sin los saltos en la magnitud de los valores como
ocurre para el parmetro Complejidad Relativa LZ. La Figura 9-16 muestra otra representacin
en la forma de un eje vertical, del mismo ordenamiento en orden ascendente de los valores
normalizados del coeficiente de dificultad de prediccin. Al usar un conjunto de parmetros
que caracterizan con diferentes facetas la dinmica de las series de tiempo obtenemos mayor
informacin para calcular la predictibilidad de las series de tiempo, a diferencia de utilizar
como medida de predictibilidad un solo parmetro (por ejemplo: Exponente de Lyapunov o
175

Mtrica de Predictibilidad CDP2


1.2

CDP2

0.8

0.6

0.4

0.2

Cantor

White Noise

Plasma

EEG

Ikeda

Primos

Logistic

ASCIITXT

Henon

SP500

Star

El nio

Mackey-Glass

D1

Lovaina

Tent

Kobe

A1

Laser

Qperiodic3

Lorenz

Brownian Motion

Rossler

HIV DNA

Qperiodic2

Vanderpol

Human DNA

Dow Jones

Sine

Series de Tiempo

Figura 9-15: Mtrica de predictibilidad CDP2 normalizada y ordenada en forma ascendente


para el conjunto de series de tiempo
Complejidad Relativa LZ) que proporciona informacin parcial sobre la dinmica de las series
de tiempo y en consecuencia sobre la predictibilidad de las mismas. En el captulo 13 de
apndices se presentan una serie de grficas, que ilustran como el conjunto de parmetros de
las series de tiempo caracteriza en forma particular la dinmica para cada una de ellas.

9.3.3

Anlisis de Correlacin de las Mtricas

La Figura 9-17, presenta la tabla del anlisis de correlacin correspondiente al conjunto de datos
sobre las diferentes mtricas (ver tabla en la Figura 9-10).
A partir del anlisis de correlacin se observa que de las mtricas desarrolladas las que
poseen una correlacin significativa con las variables de referencia NumPred y NumMod, corres
pondientes al nmero de predicciones y modelaciones exitosas para cada serie, son la mtrica
CCOP y la mtrica CDP2 . Con relacin a los parmetros individuales, se observa que el
parmetro con la mejor correlacin con respecto a las variables de referencia es la Complejidad
Relativa LZ (CRLZ ), su correlacin es adems la mejor de todo el conjunto evaluado. Por
ltimo, la mejor correlacin entre este parmetro y el resto del conjunto evaluado corresponde
a la mtrica CDP2 . Es importante hacer notar que an cuando la mejor correlacin con respecto
176

White Noise
Cantor
1.0

Plasma
Ikeda
EEG
Primos
ASCIITXT
Logistic
SP500
Henon

CDP2

0.8

0.6

Star
Mackey-Glass
El nio
D1
Lovaina
Kobe
A1
Tent
Qperiodic3
Laser
Brownian Motion

0.4

0.2

Lorenz

0.0

Rossler
HIV DNA
Qperiodic2

Human DNA
Vanderpol
Dow Jones
Sine

Figura 9-16: Mtrica de predictibilidad CDP2 normalizada y ordenada en forma ascendente


para el conjunto de series de tiempo

Mtricas
CCOP
CDP1
CDP2
IDM
EL
ES
CRLZ
RP
NUM PRED
NUM MOD
Nmero de
Parmetros
de Mtrica

CCOP
1
0.783
0.826
0.724
0.473
-0.672
0.734
0.435
-0.708
-0.728

CDP1 CDP2

IDM

1
0.984
0.821
0.502
-0.683
0.774
0.425
-0.563
-0.644

1
0.826
0.56
-0.667
0.825
0.45
-0.601
-0.7

1
0.726
-0.695
0.662
0.664
-0.603
-0.483

10

14

EL

ES

1
-0.338 1
0.506 -0.6
0.426 -0.14
-0.456 0.534
-0.406 0.481
1

CRLZ

RP NUM PRED NUM MOD

1
0.335
1
-0.674 -0.445
-0.851 -0.185
1

1
0.758

Figura 9-17: Tabla de correlacin de las mtricas de predictibilidad


177

a las variables de referencia corresponde a el parmetro Complejidad Relativa LZ, la diferencia


con la correlacin de la mtrica CDP2 es mnima, por otra parte, la mtrica CDP2 utiliza para
medir la predictibilidad un conjunto de parmetros que como se vio anteriormente caracterizan
en forma global a las series de tiempo, lo cual proporciona una mayor informacin sobre las
mismas y una mejor correspondencia entre el comportamiento dinmico y la predictibilidad de
las series, a diferencia de un solo parmetro que nicamente proporciona informacin sobre
una caracterstica particular de las series de tiempo lo que es insuficiente para determinar la
predictibilidad.

9.4

Coeficientes de Capacidad de Prediccin y de Modelado

De forma anloga al desarrollo de una mtrica para medir la dificultad de prediccin de la


serie de tiempo en base a los parmetros que la caracterizan, se desarrollo una mtrica para
medir la capacidad de prediccin (o de modelado) de las tcnicas evaluadas, y que adems
posibilite la comparacin y clasificacin de los diferentes modelos de prediccin y modelado.
En la literatura especializada no se encuentran reportadas mtricas similares para caracterizar
a los modelos, an cuando hay gran cantidad de trabajos donde se comparan diferentes modelos
de prediccin [29, 30, 31, 32, 33, 34, 35, 36, 37, 38, 39, 40, 41, 42], la mtrica que se presenta
en este trabajo es producto de la evolucin de una primera versin que fue desarrollada por
Bautista-Thompson y Figueroa-Nazuno en conjunto con la mtrica de predictibilidad CCOP
[9, 10]. Para la descripcin de esta mtrica se toma como ejemplo la correspondiente a las
tcnicas de prediccin o predictores (sin embargo todo el desarrollo es idntico para las tcnicas
de modelado). La mtrica se expresa mediante un coeficiente que se denomina Coeficiente de
Capacidad de Prediccin (CCAP) o de Modelado (CCAM ) segn sea el caso.
La mtrica tiene las siguientes caractersticas:
1 No es invariante, ya que al aumentar el nmero de casos exitosos de prediccin de cada
tcnica el coeficiente correspondiente se ajusta.
2 Es dependiente del conjunto de series de tiempo que se analiza.
La mtrica se construye a partir de los siguientes parmetros:
178

El promedio del error raz media cuadrada (PRMSE ) para el conjunto de series predichas
por cada predictor. Para poder realizar una comparacin equitativa de este parmetro
para cada predictor se asigno el valor de 1 para cada una de las series no predichas por el
predictor. La expresin correspondiente para este parmetro es:

P RM SE =

P
N
P
X
1
1 X
RM SEi +
(1)j
P i=1
N P j=1

(9.20)

donde P corresponde al nmero de series predichas y N P corresponde al nmero de series


no predichas por el predictor. Este promedio proporciona informacin de tipo global sobre el
comportamiento del error de la prediccin en el rango de la misma, que en todos los casos es
de 50 datos.
El promedio del promedio del error local de prediccin (PMAE ) para el conjunto de series
predichas por el predictor. Nuevamente para realizar una comparacin equitativa de este
parmetro se asigno el valor de 1 para cada una de las series no predichas por el predictor.
La expresin correspondiente para este parmetro es:

P MAE =

P
N
P
X
1
1 X
MAEi +
(1)j
P
N P
i=1

(9.21)

j=1

donde P corresponde al nmero de series predichas y N P corresponde al nmero de series


no predichas por el predictor. Este promedio condensa la informacin sobre la expansin del
error local de las predicciones.
La eficiencia de prediccin (EP) se define como el cociente del nmero de series predichas
entre el nmero total de series evaluadas para cada predictor:

EP =

P
N

(9.22)

donde P corresponde al nmero de series predichas y N corresponde al nmero total de series


evaluadas con los predictores. Este parmetro mide la eficiencia para predecir con relacin al
conjunto de series de tiempo evaluadas.
179

La suma de los coeficientes de dificultad de prediccin para las series predichas por el
predictor:

SCDP2 =

P
X

CDP2 (i)

(9.23)

i=1

en este caso se seleccion la mtrica CDP2 la cual contiene la mayor cantidad de informacin
sobre las series de tiempo, ya que utiliza a 14 parmetros para cuantificar la dificultad de
prediccin o equivalentemente la predictibilidad de las mismas, adicionalmente, a partir del
anlisis de las mtricas de predictibilidad (ver la seccin 9.3) resulto ser la mejor mtrica
para cuantificar est caracterstica de las series de tiempo junto con el parmetro CRLZ. El
parmetro SCDP2 proporciona informacin sobre el nivel de dificultad de las predicciones
exitosas realizadas por cada predictor.
Finalmente la expresin matemtica para el coeficiente de capacidad de prediccin es:

CCAP =

SCDP2 EP
P RMSE + P M AE

(9.24)

donde el numerador premia al modelo de prediccin mediante el producto de la eficiencia


de prediccin y la suma de los coeficientes de dificultad de prediccin, y el denominador castiga
al modelo mediante la suma de los errores de la prediccin.
La Figura 9-18, presenta la tabla de resultados del clculo para el coeficiente de capacidad de
prediccin y la Figura 9-19, la tabla de resultados correspondientes al coeficiente de capacidad
de modelado.
Los coeficientes poseen un comportamiento de tipo no lineal, lo cul es debido a su diseo,
sin embargo de esta forma se expresa mejor la capacidad de las tcnicas para predecir o modelar
a las series, por ejemplo, en el caso de la tcnica de modelado Sugimay (ver tabla en la Figura 919) se observa que a pesar de ser una de las tcnicas que ms series logra modelar, su coeficiente
CCAM es menor al de otras tcnicas que modelaron menor nmero de series, como la tcnica
FFNBP, lo anterior se debe a que el error resultante de las modelaciones con la tcnica Sugimay
penaliza su capacidad de modelado considerablemente.

180

Tcnica de
Prediccin
FIRNet
PNNGauss
PNNRecipro
cal
MLFFN
MySVM
Multipunto
(kernel dot)
MySVM
Multipunto
(kernel
radial)
Polynomp
Nstep
K-NearestNeighbours
ARIMA

Coeficiente de
Capacidad de
Prediccin
(CCAP)

Nmero de
Series
Predichas

1.920439941
3.648760065

9
12

1.521040683

1.490337069

10

0.125357341

3.414282627

13

3.895233526
8.339671318

11
16

10.94043514

17

1.214445183

Figura 9-18: Tabla de resultados del CCAP

Coeficiente
de
Nmero de
Tcnica de
Capacidad
Series
Modelado
de Modelado Modeladas
(CCAM)
FFNBP
RBFNBP
ANFIS
RNAP
Predict
Polynom
RBF
Sugimay
ARMA

9.44867589
6.2110583
19.3456088
44.2074516
1.50673888
0.53189946
0.71278845
9.1881005
16.6776503

16
14
20
23
9
5
6
22
19

Figura 9-19: Tabla de resultados del CCAM

181

9.5

Discusin

En este captulo se ha presentado el desarrollo y evaluacin de tres mtricas que miden la


predictibilidad (o equivalentemente la dificultad de prediccin) de series de tiempo. El comportamiento de este conjunto de mtricas es de carcter no lineal, reflejo del tipo de relaciones
implcitas existentes entre los parmetros que caracterizan a las series de tiempo y la predicti
bilidad de las mismas.
Al utilizar en la construccin de las mtricas de predictibilidad un conjunto de parme
tros que caracterizan diferentes aspectos de la dinmica de las series de tiempo, fue posible
introducir informacin global sobre las series de tiempo, a diferencia de mtricas que utilizan
un solo parmetro (por ejemplo, el Exponente de Lyapunov) y que en consecuencia miden la
predictibilidad utilizando informacin parcial sobre las series de tiempo.
Las mtricas de predictibilidad tambin muestran que el tipo de comportamiento dinmico
de las series: peridico o regular, cuasi peridico, catico, complejo y aleatorio o estocstico; no
esta relacionado de forma directa (o lineal) con la predictibilidad de las series de tiempo.
Del conjunto de mtricas desarrolladas la denominada Coeficiente de Dificultad de Prediccin 2 (CDP2 ) presenta la mejor correlacin con respecto a las variables de referencia, as
como tambin, con respecto al parmetro Complejidad Relativa LZ (CRLZ ) que presento una
correlacin ligeramente mayor con respecto de las variables de referencia, para todo el conjunto
de mtricas evaluadas.
Tambin se presento el desarrollo de un coeficiente de prediccin (o modelado), que permite
en forma cuantitativa evaluar la capacidad de los modelos para predecir y modelar a las series de
tiempo. Los coeficientes de capacidad de prediccin (o modelado) presentan un comportamiento
no lineal, reflejo no solo de la estructura del coeficiente sino tambin, del tipo de relaciones
implcitas entre las caractersticas de las series y los modelos para prediccin y modelado.

182

Captulo 10

Relaciones de la Predictibilidad de
Series de Tiempo
10.1

Introduccin

En el captulo anterior se desarrollaron y evaluaron diferentes mtricas de la predictibilidad


de series de tiempo, as como mtricas sobre la capacidad de los modelos para la prediccin
y el modelado de series de tiempo. En este captulo, a la informacin generada sobre la predictibilidad de las series de tiempo y sobre los modelos de prediccin y modelado; se le aplican
diferentes tcnicas de anlisis multivariado y reconocimiento de patrones (mapas autoorganizados jerrquicos, escalamiento multidimensional y correlacin bivariada) para estudiar: las
relaciones que la predictibilidad presenta y las relaciones entre los parmetros de las series de
tiempo y los modelos de prediccin. La seccin 10.2, presenta la identificacin de jerarquas de
las series de tiempo, en base al anlisis con mapas auto organizados jerrquicos (GHSOM) del
conjunto de parmetros dinmicos utilizados para evaluar la predictibilidad. La seccin 10.3,
presenta el estudio de la relacin entre el conjunto de parmetros dinmicos de las series de
tiempo y diferentes representaciones de la estructura de las mismas. La seccin 10.4, presenta
el estudio de la relacin entre las caractersticas de la arquitectura de los modelos y su capacidad de prediccin o de modelado. La seccin 10.5, presenta los resultados del estudio de las
relaciones entre los parmetros de series de tiempo y los modelos de prediccin y de modelado,
mediante el uso de mapas auto organizados jerrquicos y el anlisis de correlacin bivariada.
183

Finalmente, la seccin 10.6 presenta la discusin de los resultados de este captulo.

10.2

Agrupamiento de Series de Tiempo en base a Parmetros


de Predictibilidad

En la Figura 10-1, el mapa GHSOM muestra la jerarqua de las series de tiempo en base al
conjunto de parmetros formado por: Auto Correlacin (ACO), Exponente de Hurst (EH ),
Frecuencia Dominante (FD), Exponente de Lyapunov (EL), Dimensin de Correlacin (DCO),
Dimensin de Capacidad (DCA), Dimensin Fractal (DF ), Dimensin Embebida (DE ), Entropa Espacio Temporal (EET ), Porcentaje de Recurrencia (REC ), Porcentaje de Determi
nismo (DET ), Entropa de Informacin de Shannon (ES ), Informacin Mutua Promedio (IMP),
Complejidad Relativa LZ (CRLZ ) y el Nmero de Reglas de Produccin (RP). Este conjunto
de parmetros dinmicos fueron utilizados para la construccin de las diferentes propuestas de
mtricas de predictibilidad presentadas en el captulo anterior.
Para entender mejor el mapa GHSOM anterior, la Figura 10-2, muestra el rbol de jerarquas
correspondiente a dicho mapa . Se observa que el conjunto de series de tiempo se desglosa en
cinco niveles, a partir del nivel dos se forman cuatro grupos o familias de series de tiempo
las cuales a su vez se subdividen hasta alcanzar en tres casos el nivel cuatro de profundidad.
En el grupo uno, se encuentran las series HIV DNA y Tent, en el grupo dos se agrupan las
series: Sine, Vanderpol, Dow Jones, Human DNA, Brownian Motion, Qperiodic2, Rossler y
Qperiodic3; en el grupo tres las series D1, El nio, Mackey-Glass, Lorenz, Lovaina, A1, Laser
y Kobe; finalmente en el grupo cuatro se tiene a las series Henon, Ikeda, Star, Primos, Plasma,
SP500, ASCIITXT, Logistic, EEG, Cantor y White Noise. Las series agrupadas muestran la
jerarqua de similitud entre las series dentro de cada grupo o cluster, al agruparse nuevamente
y formar niveles de mayor profundidad dentro del rbol. A cada serie se le agreg el valor de
la predictibilidad (1/CDP2 ), los grupos uno y dos corresponden a las series con predictibilidad
alta, el grupo tres a las series con predictibilidad media y por ltimo el grupo cuatro corresponde
a las series con predictibilidad baja.

184

sine
hivdna

dowjones
vanderpol

humandna
tent

qperiodic3

d1

henon
star

cantor
white
noise

lorenz

El nio

ikeda

logistic

qperiodic2
brownian
motion rossler

mackey-glass

eeg

primos

lovaina

plasma

a1

kobe
asciitxt

laser

sp500

Figura 10-1: Mapa Auto Organizado Jerrquico para las series de tiempo

185

Nivel 0

Nivel 1

Nivel 2

Nivel 3

Nivel 4

hivdna (1.23)
tent (0.85)
sine (1.86)
vanderpol (1.65)
dow jones (1.79)
humandna (1.56)
brownian motion (1.03)
qperiodic2 (1.26)
rossler (1.17)
qperiodic3 (0.88)
d1 (0.77)
el nio (0.68)
mackey-glass (0.66)
lorenz (1.06)
lovaina (0.83)
a1 (0.88)
laser (0.85)
kobe (0.83)
henon (0.60)
ikeda (0.43)
star (0.64)
primos (0.48)
plasma (0.43)
sp500 (0.56)
asciitxt (0.51)
logistic (0.53)
eeg (0.44)
cantor (0.37)
white noise (0.32)

Figura 10-2: rbol de jerarquas del agrupamiento de las series de tiempo con el Mapa Auto
Organizado

186

10.3

Relacin Predictibilidad-Estructura de Series de Tiempo

El anlisis con escalamiento multidimensional (MDS) se utiliz para estudiar la agrupacin


de las series de tiempo en base a los 15 parmetros que caracterizan a cada una de ellas.
La agrupacin de las series no necesariamente coincide con la encontrada con el mapa auto
organizado jerrquico, ya que en este caso no se obtienen agrupaciones (clusters) con una
jerarqua de similitud. Sin embargo, si se compara el rbol de jerarquas (ver la Figura 10-2) con
los resultados del escalamiento multidimensional se observa que ambos presentan agrupamientos
similares de las series de tiempo, lo cual corrobora por dos mtodos diferentes de agrupamiento
que los grupos de series de tiempo se agrupan por su predictibilidad. La Figura 10-3 muestra los
agrupamientos obtenidos, se identificaron 5 agrupamientos de series de tiempo. Si se considera
el valor de la predictibilidad de las series de tiempo (etiquetas en parntesis) se observa que
la dimensin correspondiente al eje horizontal corresponde a la predictibilidad de las series de
tiempo, aunque no es estrictamente paralela a dicho eje.
Al mapa anterior se le agregaron las grficas de las series de tiempo (ver la Figura 10-4),
esto con el objetivo de visualizar la estructura de las series, para buscar si existe una relacin
entre dicha estructura y la agrupacin de las series en base a sus parmetros dinmicos, con los
cuales se calcula la predictibilidad. Intuitivamente, se espera que exista dicha relacin, ya que
varios de los parmetros calculados se basan en explotar la topologa del atractor reconstruido
para una serie de tiempo y de esta forma poder caracterizarla, a grosso modo se observa que los
grupos (clusters) de series de tiempo, poseen cierta similitud en su estructura, sin embargo no es
del todo claro con esta forma de representacin de las series. Con el objetivo de identificar con
mayor claridad la posible relacin entre la estructura de las series de tiempo y sus agrupamientos
en base a sus parmetros dinmicos, se utilizaron los mapas de recurrencia (ver la subseccin
4.5.3) los cuales son otra representacin de la estructura de las series de tiempo que permite
obtener patrones caractersticos mucho ms definidos y fciles de estudiar.
La Figura 10-5, muestra los mapas de recurrencia correspondientes a las series de tiempo,
a continuacin se describen los resultados producto de las observaciones experimentales sobre
dichos mapas, para identificar los patrones bsicos se compararon los mapas de recurrencia de
cada agrupamiento de series de tiempo a diferentes niveles de acercamiento (zoom), un ejemplo
de la identificacin de los patrones se ilustra en la Figura 10-6, una vez identificados los patrones
187

Figura 10-3: Mapa de escalamiento multidimensional de las series de tiempo

188

1.0

1.5

-2.0

-1.5

-1.0

-.5

0.0

.5

-2

(0.53)

kobe

Agrupamiento 2

(0.83)

(0.43)

-1

henon (0.60)
ikeda

Anlisis MDS

(0.85)

tent

Dimensin 1

(1.23)

hivdna

(0.88)

qp3

(0.85)

lovaina (0.83)
laser

d1 (0.77)

rossler

(1.65)

(1.56)

humandna

qp2

(1.26)

(1.79)

dowjones

Agrupamiento 4

Agrupamiento 5

(1.17)

vandpol

sine

(1.03)

brownian

(1.86)

(1.06)
(0.88)

a1

lorenz

Agrupamiento 3

Modelo de Distancias Euclidiano

sp500
elnio
plasma (0.56)
star
(0.68)
asciitxt (0.51)
(0.64)
(0.43) primos (0.48)
eeg (0.44)
mg
cantor
whiten
(0.32)
(0.37)
(0.66)
logistic

Agrupamiento 1

Dimensin 2

Figura 10-4: Mapa de escalamiento multidimensional con las grficas de las series de tiempo

Dimensin 2
-2.0

-1.5

-1.0

-.5

0.0

.5

-2

x(t)
0

-1

200

-2.0

-1.5

-1.0

-0.5

0.0

0.5

1.0

1.5

2.0

400

2 00

600

4 00

800

0.0

0.2

0.4

0.6

0.8

1.0

2 00

1000

80 0

400

200

1 000

0 .2

0 .4

0 .6

0 .8

1 .0

1 .2

600

400

200

800

600

400

1 000

800

whiten

6 00

cantor

0.0

0.2

0.4

0.6

0.8

1.0

x(t)

plasma

x(t)

x(t)

-2

x(t)

sp500

10 00

0.0

0.5

1.0

1.5

2.0

2.5

3.0

600

x(t)

800

0.0

0.2

0.4

0.6

0.8

1.0

-0.8

-0.6

-0.4

-0.2

0.0

0.2

0.4

0.6

0.8

1.0

200

100 0

400

600

600

800

800

1000

1000

- 0.5

0.0

0.5

1.0

1.5

2 00

200

60 0

400

80 0

600

100 0

800

-0.5

-2.0

-1.5

-1.0

-1

ikeda

4 00

0.0

0.5

1.0

1.5

2.0

1000

2 00

400

eeg

asciitxt
primos

logistic

200

400

x(t )
0.0

0.5

2 00

400

600

80 0

1000

800

1 000

200

400

600

henon

600

-0.4

-0.3

-0.2

-0.1

0.0

0.1

0.2

0.3

star
800

1000

1.8

2.0

2.2

2.4

2.6

2.8

3.0

0.3

0.4

0.5

0.6

0.7

200

600

200

2 00

4 00

400

1000

600

600

800

1 000

mg

800

tent

0.0

0.2

0.4

0.6

0.8

1.0

1.2

1.4

400

elnio

800

1000

Agrupamiento 2

x(t)

x(t)
x(t)

-1.0

x(t)

1.0

x(t)

-0.5

x(t)

x(t)

Agrupamiento 1

0.0

0.2

0.4

0.6

0.8

1.0

1.2

-0.8

-0.6

-0.4

-0.2

0.0

0.2

0.4

200

400

6 00

600

800

2 .8

3 .0

3 .2

3 .4

3 .6

3 .8

4 .0

4 .2

4 .4

800

1 000

20 0

0.0

0.5

1.0

1.5

2.0

2.5

200

4.0

1.0

1.5

2.0

2.5

3.0

3.5

400

600

600

800

400

1000

600

200

4 00

6 00

8 00

hivdna

400

qp3

1000

200

-20

-15

-10

-5

10

15

20

lovaina

0.0

0.5

1.0

1.5

2.0

2.5

3.0

a1

x(t)

Dimensin 1

200

400

d1

x(t)

x(t)
x(t)

kobe

1000

400

600

800

1 000

1000

laser

800

200

-4

-2

800

lorenz

x(t)

1.0

200

-2

-1

-1.0

-0.5

0.0

0.5

1.0

400

200

200

600

800

600

600

800

800

1 000

-10

1000

-5

10

15

40 0

600

sine

20 0

800

rossler

vandpol

400

40 0

1000

brownian

1000

10 00

x(t)
0. 02

0. 04

0. 06

0. 08

0. 10

0. 12

4.6

0.0

0.2

0.4

0.6

0.8

1.0

400

200

600

400

800

600

1000

800

1000

humandna

200

qp2

Agrupamiento 5

2.6

2.8

3.0

3.2

3.4

3.6

3.8

4.0

4.2

4.4

200

400

600

800

1000

dowjones

Agrupamiento 4

Agrupamiento 3

x(t)

1.5

x(t)

1.5

x(t)

Modelo de Distancias Euclidiano

x(t)

x(t)

Anlisis MDS

x(t)

x(t)

189

x(t)

x(t)

base de cada agrupamiento, se compararon estos patrones entre todos los grupos de series de
tiempo para comprobar que efectivamente fuesen diferentes entre s.
En las Figuras 10-7, 10-8, 10-9, 10-10, 10-11, 10-12 y 10-13; se muestran los patrones de
mapas de recurrencia que se identificaron como bsicos dentro de las series de tiempo, cada
patrn tiene asociado un agrupamiento de series de tiempo las cuales se observa poseen una
predictibilidad similar. Existen varias formas en que se relacionan las series agrupadas con los
patrones encontrados, se puede presentar el caso en que las series de un mismo grupo poseen un
patrn nico como en los patrones P2 y P5 (Figuras 10-8 y 10-10), se puede presentar ms de un
patrn bsico para un grupo de series como en los patrones P1a y P1b (Figura 10-7), se puede
presentar que dentro de un grupo de series un subconjunto de ellas tenga ms de un patrn
bsico como ocurre con los patrones P3a y P3b (Figuras 10-8 y 10-9), y se puede presentar
que un agrupamiento de series posea una predictibilidad similar pero con diferentes patrones
bsicos para las series del grupo como en los patrones P4a y P4b (Figuras 10-9 y 10-10), las
relaciones anteriores entre predictibilidad y estructura se resumen en la tabla 10.1, donde la
primera columna corresponde a los agrupamientos de las series de tiempo (ver Figura 10-5).
Agrupamiento

Relaciones de Predictibilidad-Estructura

Series tienen una mezcla de dos patrones bsicos

2y5

Series tienen solamente un patrn bsico

Series tienen uno o ms patrones bsicos

Series con diferentes patrones bsicos

(10.1)

En la bsqueda de otras formas de representacin de las series de tiempo que puedan


correlacionarse con la predictibilidad y ser de utilidad en la clasificacin de las series de tiempo,
se analizaron los resultados de aplicar el anlisis espectral singular (SSA), el cual descompone
a la serie de tiempo en un conjunto de series cuya combinacin lineal genera la serie original.
Estas componentes representan diferentes dinmicas dentro de la serie de tiempo (tendencias,
oscilatorias y ruido), a las componentes se les aplico el anlisis de componentes principales
(PCA) para obtener el comportamiento estadstico de los datos que las forman.
Para estudiar la informacin del anlisis PCA de una forma visual, se aplic el anlisis con
escalamiento multidimensional (MDS). La Figura 10-14 muestra el mapa MDS, a cada serie

190

Figura 10-5: Mapa de escalamiento multidimensional con los mapas de recurrencia de las series
de tiempo

191

Dimensin 2
-2.0

-1.5

-1.0

-.5

0.0

-2

-1

star

henon

logistic

ikeda

kobe

tent

mg

elnio

Agrupamiento 2

eeg

primos

asciitxt

whiten

cantor

sp500

Agrupamiento 1

plasma

.5

1.0

1.5

hivdna

qp3

vandpol

sine

qp2

humandna

Agrupamiento 5

rossler

dowjones

Agrupamiento 4

Agrupamiento 3

brownian

lorenz

lovaina laser

Dimensin 1

d1

a1

Modelo de Distancias Euclidiano

Anlisis MDS

3.0

Patrn P3a.
Series de Tiempo: A1,
Lovaina y Laser

2.5
2.0

x(t)

1.5

1.0

0.5

0.0
200

400

600

800

1000

Serie de Tiempo A1

Mapa de Recurrencia, zoom de 200%

0.4
0.2

x(t)

0.0

-0.2

-0.4

-0.6

-0.8
200

400

600

800

1000

Serie de Tiempo Lovaina

Mapa de Recurrencia

Figura 10-6: Ejemplo de la identificacin de patrones bsicos

192

P1b

P1a

Figura 10-7: Patrones bsicos de mapas de recurrencia

193

P3a
Figura 10-8: Patrones bsicos de mapas de recurrencia
194

P4a

P3b

Figura 10-9: Patrones bsicos de mapas de recurrencia


195

P4b
Figura 10-10: Patrones bsicos de mapas de recurrencia
196

Figura 10-11: Patrones bsicos de mapas de recurrencia


197

Figura 10-12: Patrones bsicos de mapas de recurrencia


198

Figura 10-13: Patrones bsicos de mapas de recurrencia

199

se le asign posteriormente su predictibilidad correspondiente (valores entre parntesis). Se


identifican tres grandes agrupaciones las cuales corresponden a las series de tiempo con valores
de predictibilidad alta, media y baja. El mapa es de dos dimensiones, donde la dimensin
correspondiente al eje horizontal se asocia con la predictibilidad de las series de tiempo. Este
resultado corrobora los resultados encontrados con el estudio de los mapas de recurrencia,
que las caractersticas sobre la estructura de las series de tiempo estn relacionadas con la
predictibilidad de las mismas.

10.4

Relacin entre las Caractersticas de los Modelos con su


Capacidad de Prediccin o de Modelado

Los modelos de prediccin se caracterizaron en base a su origen, arquitectura, alcance, espacio


donde acta sobre la serie, equivalencia con otro modelo, mtodo de aprendizaje, su dependencia
de parmetros, el nmero de series predichas y su capacidad de prediccin. En la Figura 1015, se presenta la tabla con la informacin sobre los modelos de prediccin, esta tabla combina
informacin obtenida de la evaluacin de las tcnicas de prediccin (ver captulo 8) e informacin
derivada de la descripcin de los modelos (ver captulo 5). A partir del anlisis de esta tabla se
derivan las siguientes afirmaciones: La capacidad de prediccin ms alta corresponde a modelos
cuyo alcance es local y que actan en el espacio fase. Los modelos que son de alcance global y
que actan en diversos espacios no logran alcanzar la capacidad de prediccin de los modelos
locales.
En relacin con los modelos para el modelado de series de tiempo, la Figura 10-16 muestra la
tabla correspondiente a estos modelos, y que fue construida en forma similar a la correspondiente
a los modelos de prediccin, se observa que en este caso los modelos con alcance global que actan
en el espacio real son sumamente eficientes en modelar las series de tiempo, y por otra parte, los
modelos que actan en el espacio fase poseen una menor capacidad de modelado. Para ambos
tipos de modelos (prediccin y modelado), las dos caractersticas que diferencian a los modelos
con mayor capacidad para predecir o modelar del resto de modelos evaluados son: el alcance
del modelo y el espacio donde opera el modelo.

200

Figura 10-14: Mapa de escalamiento multidimensional del anlisis PCA de las series de tiempo

201

Dimensin 2
-.6

-.4

-.2

-.0

.2

.4

.6

.8

-2

-1

Predictibilidad Baja

ikeda (0.43)
asciitxt (0.51)
primos (0.48)

(0.88)

(0.83)

kobe

(0.44)

a1

(0.85)

laser

(0.88)

(0.66)

hivdna (1.23) logistic (0.53)


plasma (0.43)
sp500 (0.56)
cantor (0.37)
henon (0.60)
whiten (0.32)

eeg

mg

qp3

(1.17)

Dimensin 1

d1 (0.77)

lovaina (0.83)

rossler

(1.65)

star (0.64)

vandpol

(1.06)

tent (0.85)

(0.68)

(1.03)

(1.79)

hdna (1.56)
brownian dowjones
elnio

(1.26) qp2
(1.86) sine

lorenz

Predictibilidad Alta

Predictibilidad Media

Modelo de Distancias Euclidiano

Anlisis MDS

Figure 10-15: Tabla de caractersticas de modelos de prediccin

202

Red Neuronal.

Red Neuronal.

Busqueda de una funcin de decisin


que minimice el riesgo esperado.

Modelo que ajusta un polinomio a los


puntos del sistema.

Modelo lineal, aproximacion local con


expansin de Taylor.

PNNReciproca Inteligencia
l
Artificial

Inteligencia
Artificial

Inteligencia
Artificial

Inteligencia
Artificial
Teoria de
Sistemas
Dinamicos
No Lineales
Teoria de
Sistemas
Dinamicos
No Lineales

MLFFN

MySVM
Multipunto
(kernel dot)

MySVM
Multipunto
(kernel radial)

Polynomp

Nstep

ARIMA

K-NearestNeighbours

Red Neuronal.

Inteligencia
Artificial

PNNGauss

Teoria de
Sistemas
Dinamicos
No Lineales

Calculo del siguiente estado con el


promedio simple o pesado de los k
estados vecinos de trayectorias
pasadas.
Combinacin de Modelo Autoregresivo
y Modelo de Promedio Movil para
Estadstica obtener un modelo de combinaciones
lineales de valores previos y
aleatorios.

Busqueda de una funcin de decisin


que minimice el riesgo esperado.

Red Neuronal.

Arquitectura del Modelo

Inteligencia
Artificial

Origen de
Tcnica

FIRNet

Tcnica de
Prediccin

Global

Local

Local

Global

Global

Global

Global

Global

Global

Global

Alcance de
modelo

AR

Calculo de los coeficientes del


polinomio en base a minimizar la
varianza del conjunto de puntos.

Mtodo de optimizacin de tipo


estadstico, minimizando una
funcin de riesgo.

Parmetrico

Parmetrico

Parmetrico

Espacio de
Derivadas

ARMA

Bsqueda de los pesos de las


combinaciones lineales
minimizando la varianza.

Promedio de
Espacio
estados del
Fase
Bsqueda de k-vecinos cercanos.
sistema
Reconstrudo
similares

Parmetrico

No
Parmetrico

Calculo de los coeficientes de


Espacio
Ajuste de ecuaciones lineales locales en base
Fase
Parmetrico
una Funcin a minimizar la varianza del conjunto
Reconstrudo
de puntos.

Espacio
Ajuste de
Fase
una Funcin
Reconstrudo

Espacio de
Estadstico
caracterstica
FDP
s

Mtodo de optimizacin de tipo


estadstico, minimizando una
funcin de riesgo.

17

16

11

13

10

Regresin con refinamiento con


gradiente conjugado minimizando el Parmetrico
error cuadrtico.

12

Mtodo de Parzen aproximacin


asinttica de la FDP.

Estadstico
FDP

Parmetrico

Parmetrico

Dependencia Nmero de
de
Series
parmetros
Predichas

Parmetrico

Mtodo de Parzen aproximacin


asinttica de la FDP.

Retropropagacin temporal
minimizando error cuadrtico.

Mtodo de Aprendizaje

Estadstico
FDP

MA

Espacio de
Estadstico
caracterstica
FDP
s

Espacio Real

Espacio Real

Espacio Real

Espacio Real

Espacio
Equivalencia
donde actua

1.214445183

10.94043514

8.339671318

3.895233526

3.414282627

0.125357341

1.490337069

1.521040683

3.648760065

1.920439941

Coeficiente de
Capacidad de
Prediccin
(CCAP)

Figure 10-16: Tabla de caractersticas de modelos para modelado

203
Sim ple

Teoria de
Sistem as
Dinm icos
No Lineales

Estadstica

Sugim ay

AR MA

Sim ple

Sim ple

Teoria de
Sistem as
Dinm icos
No Lineales
G lobal

Local

G lobal

M odelo que ajusta una funcin


de base radial.

B usqueda de los vecinos


cercanos, proyecta el dom inio
del vecindario (sim plex) en su
rango. Prom edio pesado con
pesos de tipo exponencial.
C om binacin de M odelo
Autoregresivo y M odelo de
Prom edio Movil para obtener
un M odelo de com binaciones
lineales de valores previos y
aleatorios.

G lobal

M odelo que ajusta un


polinom io.

G lobal

Sim ple

rbf

Polynom

Red Neuronal.

G lobal

Local

RNAP

Red Neuronal.

G lobal

G lobal

Alcance de
m odelo

M odelo lineal, aproxim acion


local con el orden cero (funcin
constante).

H brido

Inteligencia
Artificial

ANFIS

Red Neuronal.

Red Neuronal.

A rquitectura del M odelo

Sim ple

H brido

Inteligencia
Artificial

Teoria de
Sistem as
Dinm icos
No Lineales
Teoria de
Sistem as
Dinm icos
No Lineales

Sim ple

Inteligencia
Artificial

RB FNBP

P redict

Sim ple

M odelo
sim ple o
hbrido

Inteligencia
Artificial

O rigen de
Tcnica

FFNBP

Tcnica de
M odelado

N m ero de
Series
M odeladas

Espacio Real

ARM A

Prom edio
Espacio
Pesado de
elem entos con
Fase
Reconstrudo pesos de tipo
exponencial

Busqueda de los pesos de las


com binaciones lineales
m inim izando la varianza (error
cuadratico).

Parm etrico

No
Parm etrico

Parm etrico

S e determ ina los coeficientes


con m todo de m nim os
cuadrados, m inim izando la
varianza.

Busca vecinos cercanos.

Parm etrico

Se determ inan los coeficientes


con m todo de algebra lineal,
m inim izando la varianza.

Espacio
Ajuste de una
Fase
Funcin
Reconstrudo
Espacio
Ajuste de una
Fase
Funcin
Reconstrudo

No
Parm etrico

No busca m inim izar error, sin


aprendizaje.

19

22

23

O ptim izacin por m edio de un


algoritm o gentico para obtener
Ajuste de una la m ejor arquitectura de la red
Espacio Real
Parm etrico
funcin
(m inim izando la funcin de error
para obtener el vector de pesos
ptim o).
Espacio
Ajuste de una
Fase
Funcin
Reconstrudo

20

RBFN

Parm etrico

Espacio Real

Aprendizaje con gradiente


descendente para construir los
parm etros de prem isa y con
estim acion de m inim os
cuadrados para construir los
parm etros de consecuencia.

14

D ependencia
de
parm etros

Aprendizaje en dos etapas:


determ inacin de centroides y
Ajuste de una
parm etros de capa oculta,
Espacio Real
Parm etrico
funcin
determ inacin de pesos y
um brales en capa de salida con
retropropagacin.

Aprendizaje con
retropropagacin, m inim izando
el error cuadratico.

M todo de Aprendizaje

16

AR

Equivalencia

Parm etrico

Espacio Real

Espacio
donde actua

16.67765029

9.188100504

0.712788452

0.531899455

1.506738879

44.20745158

19.34560877

6.211058301

9.448675887

Coeficiente de
Capacidad de
M odelado
(CCAM )

10.5

Relacin Parmetros de Predictibilidad-Modelos de Prediccin y Modelado

En esta seccin se investiga la relacin de los modelos de prediccin y modelado con los diferentes
parmetros dinmicos que caracterizan la predictibilidad de las series de tiempo, para realizar
el estudio anterior se utiliza la correlacin bivariada y los mapas auto organizados jerrquicos
(GHSOM). El conjunto de parmetros consiste de 12 elementos que miden caractersticas de la
dinmica de la serie de tiempo y con los cuales se construyeron anteriormente las mtricas de
predictibilidad, la Figura 10-17 muestra la tabla con los parmetros y el tipo de informacin
que proporcionan sobre las series de tiempo.
Para estudiar la sensibilidad de los modelos con relacin a los parmetros que caracterizan
a las series de tiempo, se construyo una tabla de correlacin bivariada. Para obtener los coeficientes de correlacin para cada modelo se construyo una tabla de datos como la que se muestra
en la Figura 10-18, donde las primeras doce columnas corresponden a parmetros de las series
de tiempo y la columna nmero trece corresponde a cada tcnica o modelo a analizar, en caso de
que el modelo no hubiera predicho una serie se asignaba el valor 0 y en caso de una prediccin
exitosa el valor 1. Con tablas como la mostrada se realizo el clculo de la correlacin bivariada
para obtener los coeficientes de Pearson correspondientes a cada modelo de prediccin.
En la Figura 10-19, se presenta la tabla de correlacin bivariada entre los modelos de prediccin y los parmetros dinmicos usados para caracterizar la predictibilidad de las series de
tiempo. Debido a la gran cantidad de informacin presente en la tabla, se normalizaron los
resultados de la correlacin de la siguiente forma, para cada parmetro dinmico se identifico
el mayor valor (en valor absoluto) de correlacin encontrado y con dicho valor se normalizaron
todos los valores de correlacin encontrados para dicho parmetro. Una vez normalizada la
tabla de correlacin se construyo una tabla simblica para discretizar los resultados de forma
que sea ms fcil el anlisis de los resultados de la correlacin. La tabla 10.2, muestra la escala
de valores para la discretizacin.

204

Parmetros

Alcance de
Parmetro

Tipo de Informacin que


proporciona

Exponente de
Lyapunov

Global

Horizonte de Prediccin

Dimensin de
Correlacin

Local

Correlacin espacial local

Dimensin de
Capacidad

Local

Grado de autosimilitud del


sistema

Dimensin
Fractal

Global

Dimensin promedio en una


vecindad de tamao epsilon
sobre el atractor

Dimensin
Embebida

Global

Estimado del nmero grados


de libertad del sistema

%Entropa
Espacio
Temporal

Global/Local

Grado de no correlacin
espacial

% Recurrencia Global/Local

Periodicidad y estructuras
definidas

%
Global/Local
Determinismo

Determinismo en base a
patrn de recurrencia

Entropa de
Shannon

Cantidad de Informacin que


Global/Local puede ser extrada al medir
el estado del sistema

Informacin
Mutua
Promedio

Informacin mutua
contenida en una variable
para dos instantes de tiempo
diferentes

Global

Complejidad LZ
Global/Local
Relativa

Reglas de
Produccin

Estructuras y jerarqua de
cadenas de datos

Nmero de reglas
gramticales para modelar la
Global/Local
serie (complejidad
computacional)

Figura 10-17: Tabla de caractersticas de parmetros dinmicos de las series de tiempo


205

Figure 10-18: Ejemplo de conjunto de parmetros para series de tiempo predichas por la tcnica
K-Nearest-Neighbours
206

0.517
1.864
0.925
1.383
1.481
0.76
0.601
1.049
1.452
2.301
5.728
0.477
0.2234006
1.288
0.949
0.144
1.102
1.199
2.709
2.322
0
0.322
1.0693
3.383
0.594
3.569
3.289
2.043
1.606

Tabla para calcular la correlacin de Pearson entre los parmetros de las series de tiempo y la tcnica de prediccin K-Nearest-Neighbours.
Entropa
Nmero de
Dimensin
Entropa de Informacin
Dimension
Dimensin
Espacio
Recurrencia Determinism
Complejidad
Mutua
Reglas de
de
Informacin
Fractal
Embebida
Temporal
(%)
o (%)
Relativa LZ
Capacidad
(Shannon)
Promedio
Produccin
(%)
0.228
0.246
0.85
2
0
19.556
62.19
3.7118
3
0.05979471
27
0.984
0.989
1.14
2
0
7.826
66.355
4.981
7
0.07972627
28
0.923
0.679
1.1
9
0
8.148374
97.760539
2.445885
18
0.1494868
66
0.96
0.605
2.76
5
0
16.133
36.733
4.232
6
0.4384945
75
1.025
0.983
2.25
7
50
0.51034759 37.5178503 0.15914973
4
0.4783576
75
0.93
0.941
1.28
2
78
8.61304444 0.85112222 0.03522222
9
0.7175364
61
1.025
0.965
1.44
5
57
32.8839734 92.0699379 4.78931065
17
0.1793841
63
1.026
0.994
1.82
2
0
6.38852058 88.0434671 2.45897942
13
0.1694183
72
1.019
0.983
4.14
5
53
0.54849383
0
0
6
0.787297
71
0.991
0.997
1.67
2
51
9.43468507 0.63758282 0.0204499
17
0.6378102
69
0.658
0.661
0
5
84
2.193
0
0
1
1.056373
72
1.029
0.971
3.95
1
53
3.079
29.009
3.401
12
0.03986314
13
2.5
2.644
1.7
4
51
7.812
86.786
7.02
3
0.2890078
79
2.053
0.986
1.05
7
39
3.30067901 60.2251502 0.8521749
7
0.229213
92
2.096
0.961
1.94
9
47
10.716364 71.4658139 2.93549693
2
0.3786998
66
1.035
0.887
2.31
12
2
98.8534487 98.8812005 6.43519134
26
0.1993157
65
1.053
0.904
1.8
6
78
57.046522 44.3674678 3.74401017
2
0.787297
79
1.876
0.89
3.83
6
73
2.7157191
0
0
6
0.7773312
82
2.011
0.485
0.88
7
82
13.144
1.226
2.107
3
1.036442
80
1.637
0.971
2.59
9
65
0.32
44.212
3.526
8
0.2092815
83
5.017
0.953
0
8
0
0.004
31.331
1
4
0.8072285
9
1.037
0.983
0.55
12
0
24.915
98.244
7.28
20
0.04982892
51
1.027
0.958
2.39
5
47
0.547
69.791
5.574
9
0.3089393
77
0.967
0.821
0.52
10
81
1.683
0.748
2.866
3
0.9766468
91
3.55
0.044
0.79
3
80
9.705
0.412
1.295
3
0.9766468
78
1.026
0.859
0.6
3
87
20.868
4.383
2.585
2
1.036442
82
1.144
0.963
3.39
7
53
16.438
11.137
3.102
13
0.5879813
90
1.103
0.971
2.78
5
0
11.7750441 66.2786765 2.74038235
23
0.1694183
85
2.086
0.983
6.09
10
79
0
0
0
1
1.066339
73

Dimensin
Exponente
de
de Lyapunov
Correlacin

1
1
1
1
1
1
0
1
1
1
0
1
1
0
1
1
1
1
0
0
0
1
1
0
0
0
0
0
0

Prediccin
Exito =1,
Fracaso = 0

Figure 10-19: Tabla de correlacin entre los parmetros dinmicos y los modelos de prediccin

207

Produccin

Reglas de

Nmero de

Relativa LZ

Promedio
Complejidad

Mutua

Informacin

(Shannon)

-0.255

-0.413

0.022

0.362

Informacin

Entropa de

0.37

0.027

-0.333

-0.116

-0.162

0.226

-0.174

-0.247

FIRNet

Determinismo
(%)

(%)

Recurrencia

Temporal (%)

Entropa
Espacio

Embebida

Dimensin

Fractal

Dimension

Dimensin de
Capacidad

Correlacin

Dimensin de

Lyapunov

Exponente de

Series de
Tiempo

Parmetros de

-0.373

-0.666

0.327

0.506

0.549

0.174

-0.574

-0.031

-0.032

0.184

-0.22

-0.331

PNNGauss

PNNReciprocal
-0.411

-0.572

0.13

0.529

0.533

0.3

-0.44

-0.262

0.036

0.206

-0.171

-0.394

MLFFN
-0.394

-0.695

0.225

0.553

0.576

-0.033

-0.492

-0.181

-0.068

0.178

-0.243

-0.328

MySVM
Multipunto
(kernel dot)

-0.38

-0.3

-0.158

0.247

0.129

0.015

-0.468

-0.318

-0.083

-0.248

-0.263

-0.075

MySVM
Multipunto
(kernel radial)
-0.306

-0.49

-0.062

0.318

0.469

0.007

-0.252

-0.39

-0.026

0.183

-0.298

-0.418

-0.143

-0.117

-0.165

0.093

0.014

0.062

0.125

-0.267

-0.049

0.19

-0.237

-0.209

Polynomp

Teoria de Sistemas Dinamicos No

-0.268

-0.564

0.222

0.502

0.424

0.108

-0.279

-0.109

-0.077

0.245

-0.346

-0.314

Nstep

Tcnica de Prediccin

-0.292

-0.446

0.178

0.257

0.358

0.179

-0.376

-0.198

0.148

0.211

-0.365

-0.495

K-NearestNeighbours

Inteligencia Artificial

Tabla de la correlacin de Pearson entre los parmetros de las series y las tcnicas de prediccin
Estadstica

-0.291

-0.33

0.258

0.288

0.181

0.325

-0.208

0.21

0.201

-0.089

-0.146

-0.247

ARIMA

Tipo de Correlacin

Rango de la Correlacin

MUY ALTA

0.81 a 1.0

ALTA

0.61 a 0.809

MEDIA

0.41 a 0.609

BAJA

0.21 a 0.409

MUY BAJA

0.0 a 0.209

(10.2)

A partir de la normalizacin de los datos de la tabla de correlacin y de su posterior discretizacin, se obtuvo la tabla que se muestra en la Figura 10-20. Los parmetros de mayor
inters son aquellos que muestran correlaciones altas y muy altas para la mayora de los mo
delos de prediccin, para analizarlos con mayor facilidad, se construyo una tabla con solamente
dichos parmetros la cual se muestra en la Figura 10-21.
La tabla en la Figura 10-21, muestra los parmetros que ms influyen en los modelos al
predecir a una serie de tiempo, estos parmetros miden a su vez caractersticas de la dinmica
de las series de tiempo que el modelo trata de reproducir durante el proceso de prediccin. Los
parmetros son: Exponente de Lyapunov, Dimensin de Correlacin, Dimensin de Capacidad,
Entropa Espacio-Temporal, Determinismo, Entropa de Informacin de Shannon, Complejidad
Relativa LZ y Nmero de Reglas de Produccin.
Con respecto a los modelos para modelado, se realizo el mismo anlisis de correlacin, la
Figura 10-22 muestra la tabla de correlacin correspondiente a estos modelos.
Nuevamente, se discretizo la tabla de correlacin para analizar la informacin de la misma,
la Figura 10-23 muestra la tabla de correlacin con los datos discretizados.
Para el caso de las tcnicas de modelado (ver la tabla en la Figura 10-24), los parmetros
para los cuales los modelos presentan una mayor correlacin son: Exponente de Lyapunov, Dimensin de Correlacin, Dimensin de Capacidad, Entropa Espacio-Temporal, Determinismo,
Informacin Mutua Promedio y Complejidad Relativa LZ, y tanto en el caso de la prediccin
como de el modelado, cada modelo responde en forma particular a los diferentes parmetros y no
se observa un patrn de respuesta comn, lo cual indica que cada modelo se adapta a la dinmica
de las series de tiempo de forma diferente durante el proceso de aprendizaje o entrenamiento.
Para estudiar la forma en que se agrupan y la jerarqua de las agrupaciones de los modelos

208

Figure 10-20: Tabla discretizada de la correlacin entre los parmetros dinmicos y los modelos
de prediccin

209

Produccin

Reglasde

Nmerode

RelativaLZ

Complejidad

MutuaPromedio

Informacin

(Shannon)

Informacin

Entropade

(%)

Determinismo

Recurrencia(%)

Temporal (%)

Espacio

Entropa

Embebida

Dimensin

Fractal

Dimension

Capacidad

Dimensinde

Correlacin

Dimensinde

Lyapunov

Exponentede

Tiempo

Seriesde

Parmetrosde

FIRNet
ALTA

MEDIA

MUYBAJA

ALTA

ALTA

MUYBAJA

MEDIA

BAJA

ALTA

MUYALTA

MEDIA

MEDIA

PNNGauss
MUYALTA

MUYALTA

MUYALTA

MUYALTA

MUYALTA

MEDIA

MUYALTA

MUYBAJA

MUYBAJA

ALTA

MEDIA

ALTA

PNNReciprocal
MUYALTA

MUYALTA

BAJA

MUYALTA

MUYALTA

MUYALTA

ALTA

ALTA

MUYBAJA

MUYALTA

MEDIA

ALTA

MLFFN
MUYALTA

MUYALTA

ALTA

MUYALTA

MUYALTA

MUYBAJA

MUYALTA

MEDIA

BAJA

ALTA

ALTA

ALTA

MySVM
Multipunto
(kernel dot)

MUYALTA

MEDIA

MEDIA

MEDIA

BAJA

MUYBAJA

MUYALTA

MUYALTA

MEDIA

MUYALTA

ALTA

MUYBAJA

MySVM
Multipunto
(kernel radial)
ALTA

ALTA

MUYBAJA

MEDIA

MUYALTA

MUYBAJA

MEDIA

MUYALTA

MUYBAJA

ALTA

MUYALTA

MUYALTA

BAJA

MUYBAJA

MEDIA

MUYBAJA

MUYBAJA

MUYBAJA

BAJA

ALTA

BAJA

ALTA

ALTA

MEDIA

Polynomp

TeoriadeSistemasDinamicos NoLineales

ALTA

MUYALTA

ALTA

MUYALTA

ALTA

BAJA

MEDIA

BAJA

BAJA

MUYALTA

MUYALTA

ALTA

Nstep

TcnicadePrediccin

ALTA

ALTA

MEDIA

MEDIA

ALTA

MEDIA

ALTA

MEDIA

ALTA

MUYALTA

MUYALTA

MUYALTA

K-NearestNeighbours

InteligenciaArtificial

TabladelacorrelacindePearsonentrelos parmetros delasseries ylas tcnicas deprediccin


Estadstica

ALTA

MEDIA

ALTA

MEDIA

BAJA

MUYALTA

BAJA

MEDIA

MUYALTA

BAJA

BAJA

MEDIA

ARIMA

Figure 10-21: Tabla con los parmetros dinmicos cuya correlacin es alta o muy alta respecto
de los modelos de prediccin
210

Produccin

Reglasde

Nmerode

RelativaLZ

Complejidad

(Shannon)

Informacin

Entropade

(%)

Determinismo

Temporal (%)

Espacio

Entropa

Capacidad

Dimensinde

Correlacin

Dimensinde

Lyapunov

Exponentede

Tiempo

Seriesde

Parmetrosde

FIRNet
ALTA

ALTA

ALTA

MUYALTA

MUYALTA

MUYALTA

MUYALTA

MUYALTA

MUYALTA

ALTA

ALTA

PNNGauss

PNNReciprocal
MUYALTA

MUYALTA

MUYALTA

MUYALTA

ALTA

MUYALTA

ALTA

MLFFN
MUYALTA

MUYALTA

MUYALTA

MUYALTA

MUYALTA

ALTA

ALTA

ALTA

MySVM
Multipunto
(kernel dot)

MUYALTA

MUYALTA

MUYALTA

ALTA

MySVM
Multipunto
(kernel radial)
ALTA

ALTA

MUYALTA

ALTA

MUYALTA

MUYALTA

ALTA

ALTA

Polynomp

TeoriadeSistemasDinamicosNoLineales

ALTA

MUYALTA

MUYALTA

ALTA

MUYALTA

MUYALTA

ALTA

Nstep

TcnicadePrediccin

ALTA

ALTA

ALTA

ALTA

MUYALTA

MUYALTA

MUYALTA

K-NearestNeighbours

InteligenciaArtificial

SubconjuntodelatabladelacorrelacindePearsonentrelosparmetrosdelasseriesylastcnicasdeprediccin
Estadstica

ALTA

ARIMA

Figure 10-22: Tabla de correlacin entre los parmetros dinmicos y los modelos para modelado

211

Exponente de
Lyapunov
Dimensin de
Correlacin
Dimensin de
Capacidad
Dimension
Fractal
Dimensin
Embebida
Entropa
Espacio
Temporal (%)
Recurrencia
(%)
Determinismo
(%)
Entropa de
Informacin
(Shannon)
Informacin
Mutua
Promedio
Complejidad
Relativa LZ
Nmero de
Reglas de
Produccin

Parmetros de
Series de
Tiempo

-0.143
0.375
0.122

0.292
-0.504
0.05

0.408
0.154

0.442
-0.514
0.09

-0.408

-0.267

0.114

-0.062

0.055

-0.421

0.212

0.207

-0.453

-0.321

-0.322

FFNBP

-0.145

RBFNBP

-0.242

Anfis
-0.103

-0.802

0.398

0.507

0.688

0.234

-0.5

-0.03

0.157

0.272

-0.409

-0.44

RNAP
0.041

-0.706

0.459

0.37

0.497

0.152

-0.383

-0.023

0.196

0.308

-0.513

-0.345

Predict

-0.244

-0.627

0.399

0.611

0.737

0.365

-0.562

0.006

-0.149

0.276

-0.159

-0.363

Polynom

-0.603

-0.323

-0.129

0.059

0.058

-0.084

-0.126

-0.397

-0.029

-0.096

-0.192

-0.226

-0.512

-0.444

-0.065

0.048

0.273

-0.136

-0.308

-0.144

-0.017

-0.129

-0.219

-0.203

rbf

Sugimay
0.025

-0.732

0.464

0.452

0.562

0.197

-0.384

0.001

0.055

0.276

-0.449

-0.321

Tabla de la correlacin de Pearson entre los parmetros de las series y las tcnicas de modelado
Tcnica de modelado
Inteligencia Artificial
Teoria de Sistemas Dinmicos No Lineales
Hbridos

Estadstica

-0.045

-0.673

0.341

0.652

0.632

0.248

-0.423

0.157

0.142

0.211

-0.375

-0.275

ARMA

Figure 10-23: Tabla discretizada de la correlacin entre los parmetros dinmicos y los modelos
para modelado
212

Produccin

Reglas de

Nmerode

RelativaLZ

Complejidad

Promedio

Mutua

Informacin

(Shannon)

Informacin

Entropade

(%)

Determinismo

(%)

Recurrencia

Temporal (%)

Espacio

Entropa

Embebida

Dimensin

Fractal

Dimension

Capacidad

Dimensin de

Correlacin

Dimensin de

Lyapunov

Exponentede

Tiempo

Series de

FFNBP
MUYBAJA

ALTA

MUYALTA

BAJA

MEDIA

BAJA

ALTA

ALTA

BAJA

ALTA

ALTA

MEDIA

RBFNBP

MUYBAJA

ALTA

ALTA

MUYBAJA

MEDIA

BAJA

ALTA

MUYALTA

BAJA

ALTA

ALTA

BAJA

Anfis
MUYBAJA

MUYALTA

MUYALTA

ALTA

MUYALTA

ALTA

MUYALTA

MUYBAJA

ALTA

MUYALTA

ALTA

MUYALTA

ALTA

MUYBAJA

MUYALTA

MUYALTA

MEDIA

ALTA

MEDIA

ALTA

MUYBAJA

MUYALTA

MUYALTA

MUYALTA

Hbridos

BAJA

ALTA

MUYALTA

MUYALTA

MUYALTA

MUYALTA

MUYALTA

MUYBAJA

ALTA

MUYALTA

BAJA

MUYALTA

BAJA

BAJA

MUYBAJA

MUYBAJA

BAJA

BAJA

MUYALTA

MUYBAJA

BAJA

BAJA

MEDIA

Polynom

MUYALTA

MEDIA

MUYBAJA

MUYBAJA

BAJA

BAJA

MEDIA

BAJA

MUYBAJA

MEDIA

MEDIA

MEDIA

ALTA

Sugimay
MUYBAJA

MUYALTA

MUYALTA

ALTA

ALTA

MEDIA

ALTA

MUYBAJA

BAJA

MUYALTA

MUYALTA

TeoriadeSistemas Dinmicos NoLineales

MUYALTA

Predict

Tcnica de modelado

rbf

Parmetros de

Inteligencia Artificial

RNAP

Tablade lacorrelacindePearsonentrelos parmetros delas series ylas tcnicas demodelado


Estadstica

MUYBAJA

MUYALTA

ALTA

MUYALTA

MUYALTA

ALTA

ALTA

BAJA

ALTA

ALTA

ALTA

ALTA

ARMA

Figure 10-24: Tabla con los parmetros dinmicos cuya correlacin es alta o muy alta respecto
de los modelos para modelado

213

RelativaLZ

Complejidad

Promedio

Mutua

Informacin

(%)

Determinismo

Temporal (%)

Espacio

Entropa

Capacidad

Dimensinde

Correlacin

Dimensinde

Lyapunov

Exponentede

Tiempo

Seriesde

FFNBP
ALTA

MUYALTA

ALTA

ALTA

ALTA

RBFNBP

ALTA

ALTA

ALTA

ALTA

ALTA

Anfis
MUYALTA

MUYALTA

MUYALTA

MUYALTA

MUYALTA

ALTA

MUYALTA

ALTA

MUYALTA

MUYALTA

ALTA

ALTA

MUYALTA

MUYALTA

Hbridos

ALTA

MUYALTA

MUYALTA

MUYALTA

MUYALTA

Polynom

ALTA

Sugimay
MUYALTA

MUYALTA

ALTA

ALTA

MUYALTA

MUYALTA

TeoriadeSistemasDinmicosNoLineales

MUYALTA

Predict

Tcnicademodelado

rbf

Parmetrosde

InteligenciaArtificial

RNAP

SubconjuntodelatabladelacorrelacindePearsonentrelosparmetrosdelasseriesylastcnicasdemodelado

Estadstica

MUYALTA

ALTA

MUYALTA

ALTA

ALTA

ALTA

ALTA

ARMA

de prediccin en base a su correlacin con los parmetros dinmicos se construyo un mapa


GHSOM. Para construirlo se utiliz una tabla de datos como la que se muestra en la Figura
10-25. En la tabla, las filas corresponden a los modelos de prediccin y las columnas a los
parmetros de las series de tiempo, en las celdas se colocan los coeficientes de correlacin de
los parmetros para cada modelo de prediccin.
La Figura 10-26, muestra el mapa GHSOM de los modelos de prediccin, nuevamente este
mapa se desglosa en la forma de un rbol de jerarquas como se muestra en la Figura 10-27.
Se formaron cuatro niveles de jerarqua, con seis grupos de modelos, donde los modelos se
agrupan por la similitud de sus correlaciones con los diferentes parmetros dinmicos, que caracterizan la predictibilidad de las series de tiempo. Se observa que en el agrupamiento de modelos
se presentaron los siguientes casos: modelos del mismo origen pertenecen a un mismo grupo
como PNNReciprocal, PNNGauss y MLFFN cuyo origen es Inteligencia Artificial; modelos de
origen diferente pertenecen a un mismo grupo como en el caso de MySVMdot (Inteligencia
Artificial) con Polynomp (Teora de Sistemas Dinmicos No Lineales) y Nstep (Teora de Sistemas Dinmicos No Lineales) con PNNReciprocal, PNNGauss y MLFFN; modelos que son el
nico elemento de un grupo como en el caso de MySVMradial (Inteligencia Artificial), KNN
(Inteligencia Artificial), ARIMA (Estadstica) y FIRNet (Inteligencia Artificial). Se observa
adems que la capacidad de prediccin de los modelos (valores entre parntesis) es independien
te de la forma que se correlacionan con el conjunto de diferentes parmetros dinmicos.
Para el conjunto de tcnicas de modelado, se hizo el mismo anlisis con el mapa GHSOM,
la Figura 10-28, muestra el mapa correspondiente a las tcnicas de modelado. El rbol de
jerarquas correspondiente se presenta en la Figura 10-29.
El rbol posee cuatro niveles, pero a diferencia del caso de los modelos de prediccin, en el
nivel de mayor profundidad se encuentra el modelo (RNAP) con mayor capacidad para modelar a
las series de tiempo. En el nivel dos se encuentran tres grupos de modelos, dos de ellos agrupan
modelos que adems son similares en el origen de su arquitectura, un grupo corresponde a
Inteligencia Artificial (RBFNBP y FFNBP) y el otro grupo corresponde a modelos de Teora
de Sistemas Dinmicos No Lineales (Polynom y RBF); el tercer grupo de modelos en el nivel
dos, se subdivide a su vez en dos grupos, donde uno de ellos forma el nivel tres del rbol
de jerarquas. Los agrupamientos muestran (como tambin se observ para los modelos de

214

Figure 10-25: Tabla de datos para construir mapa GHSOM de modelos en funcin de su correlacin con los parmetros de las series de tiempo

215

-0.394
-0.328

PNNReciprocal
MLFFN

Multipunto

ARIMA

Neighbours
-0.247

-0.495

-0.314

K-Nearest-

-0.209

Nstep

-0.418

Polynomp

(kernel radial)

Multipunto

MySVM

(kernel dot)

-0.075

-0.331

PNNGauss

MySVM

-0.247

FIRNet

deLyapunov

Exponente
Capacidad

Correlacin

-0.146

-0.365

-0.346

-0.237

-0.298

-0.263

-0.243

-0.171

-0.22

-0.089

0.211

0.245

0.19

0.183

-0.248

0.178

0.206

0.184

0.226

de

de

-0.174

Dimensin

Dimensin

0.201

0.148

-0.077

-0.049

-0.026

-0.083

-0.068

0.036

-0.032

-0.162

Fractal

Dimension

0.21

-0.198

-0.109

-0.267

-0.39

-0.318

-0.181

-0.262

-0.031

-0.116

Embebida

Dimensin

-0.208

-0.376

-0.279

0.125

-0.252

-0.468

-0.492

-0.44

-0.574

-0.333

(%)

Temporal

Espacio

Entropa

0.325

0.179

0.108

0.062

0.007

0.015

-0.033

0.3

0.174

0.027

(%)

0.181

0.358

0.424

0.014

0.469

0.129

0.576

0.533

0.549

0.37

(%)

Recurrencia Determinismo

0.288

0.257

0.502

0.093

0.318

0.247

0.553

0.529

0.506

0.362

(Shannon)

0.258

0.178

0.222

-0.165

-0.062

-0.158

0.225

0.13

0.327

0.022

Promedio

Mutua

Entropade Informacin
Informacin

-0.33

-0.446

-0.564

-0.117

-0.49

-0.3

-0.695

-0.572

-0.666

-0.413

RelativaLZ

Complejidad

-0.291

-0.292

-0.268

-0.143

-0.306

-0.38

-0.394

-0.411

-0.373

-0.255

Produccin

Reglasde

Nmerode

PNNRec

Nstep
MySVMrad

MLFFN

FIRNet

PNNGauss

KNN

MySVMdot

ARIMA

Polynomp

Figura 10-26: Mapa Auto Organizado Jerrquico para los modelos de prediccin

216

Nivel 0

Nivel 1

Nivel 2

Nivel 3

MySVMrad (3.41)

PNNReciprocal (1.52)
Nstep (8.33)

PNNGauss (3.64)
MLFFN (1.49)

KNN (10.94)

ARIMA (1.21)

MySVMdot (0.12)
Polynomp (3.89)

FIRNet (1.92)

Figura 10-27: rbol de jerarquas del agrupamiento de los modelos de prediccin con el Mapa
Auto Organizado

217

RBFNBP

Polynom

FFNBP

RBF

Sugimay
ARMA
RNAP

ANFIS

Predict

Figura 10-28: Mapa Auto Organizado Jerrquico de los modelos para modelado

218

prediccin) que se puede dar el caso de que modelos de mismo origen presenten una respuesta
similar de su correlacin con los parmetros dinmicos de las series como ocurre en los grupos
del nivel dos; pero tambin es posible, que ocurra el caso de que modelos de diferente origen
presenten respuesta similar de su correlacin con los parmetros dinmicos de las series, como
el caso de los grupos del nivel tres donde el modelo RNAP (Inteligencia Artificial) y el modelo
Sugimay (Teora de Sistemas Dinmicos No Lineales) pertenecen al mismo grupo, y lo mismo
ocurre para los modelos ANFIS (Inteligencia Artificial), Predict (Teora de Sistemas Dinmicos
No Lineales) y ARMA (Estadstica). Por ltimo, a diferencia de los modelos de prediccin,
se observa que la capacidad de modelado (valores entre parntesis) presenta una relacin con
la forma en que se agrupan los modelos de acuerdo a su correlacin con los parmetros de las
series de tiempo.

10.6

Discusin

La agrupacin de las series de tiempo por sus parmetros dinmicos, permiti identificar en
forma experimental que hay tres grandes grupos de series con diferente predictibilidad, etiquetada como baja, media y alta predictibilidad ; y dentro de esas agrupaciones una jerarqua de
similitud de las series. Esto muestra, la riqueza del comportamiento de la predictibilidad de series de tiempo que es consecuencia de las diferentes dinmicas de los fenmenos que las series
representan.
El haber cuantificado la predictibilidad de las series de tiempo hizo posible encontrar en
forma experimental la existencia de una relacin entre la estructura de una serie de tiempo y
su predictibilidad. Esta relacin se manifiesta con diferentes formas de representacin de las
series como son el mapa de recurrencia (VRA) y las componentes de una serie producto del
anlisis espectral singular (SSA). En particular con los mapas de recurrencia se observ que
existen patrones de estructura bsicos presentes en series de tiempo de diferente origen (natural
o artificial). Estos patrones bsicos representan dinmicas comunes para diferentes sistemas
(fsicos, matemticos, fisiolgicos, econmicos, etc.). La relacin predictibilidad-estructura se
manifiesta por el agrupamiento de series de tiempo con predictibilidad similar y donde se observ
que sus mapas de recurrencia presentaban uno o ms patrones comunes o bsicos.

219

Nivel 0

Nivel 1

Nivel 2

Nivel 3

RBFNBP (6.21)

FFNBP (9.44)

Polynom (0.53)

RBF (0.71)

Sugimay (9.18)
RNAP (44.20)

ARMA (16.67)
Predict (1.50)

ANFIS (19.34)

Figura 10-29: rbol de jerarquas del agrupamiento para los modelos de modelado con el Mapa
Auto Organizado

220

Al analizar las caractersticas de la arquitectura de los modelos y relacionarlo con su capacidad de prediccin y de modelado se encontraron los siguientes resultados:
la capacidad de prediccin ms alta corresponde a modelos cuyo alcance es local y que
actan en el espacio fase, los modelos de prediccin de alcance global y que actan en
diferentes espacios son menos eficientes en la prediccin de series de tiempo.
la capacidad de modelado ms alta corresponde a modelos cuyo alcance es global y que
actan en el espacio real, los modelos que actan en el espacio fase son menos eficientes
en el modelado de series de tiempo.
El estudio de la relacin entre los parmetros que caracterizan la predictibilidad y los mo
delos de prediccin y de modelado por medio de los anlisis de correlacin, arrojo los siguientes
resultados: no se observa un patrn o patrones de respuesta comunes de los modelos con res
pecto a los parmetros, cada modelo responde en forma particular a los diferentes parmetros,
lo que indica que cada modelo se adapta a la dinmica de las series de tiempo de forma dife
rente, lo cual intuitivamente es de esperarse dadas las diferentes arquitecturas de los modelos.
Aun cuando cada modelo responde en forma particular a los diferentes parmetros, se encontr
que los parmetros que presentan una mayor correlacin con la mayora de los modelos en
el caso de la prediccin son: Exponente de Lyapunov, Dimensin de Correlacin, Dimensin
de Capacidad, Entropa Espacio-Temporal, Determinismo, Entropa de Informacin de Sha
nnon, Complejidad Relativa LZ y Nmero de Reglas de Produccin. Y en el caso del modelado
son: Exponente de Lyapunov, Dimensin de Correlacin, Dimensin de Capacidad, Entropa
Espacio-Temporal, Determinismo, Informacin Mutua Promedio y Complejidad Relativa LZ.
Al analizar con los mapas GHSOM, la forma en que los modelos de prediccin y de modelado
se agrupan en funcin de su correlacin con los diferentes parmetros, se encontraron dos
clases de agrupamientos: modelos del mismo origen (por ejemplo, Inteligencia Artificial) que
responden globalmente de la misma forma a los parmetros de las series de tiempo, y modelos de
origen diferente que responden globalmente de la misma forma a los parmetros de las series de
tiempo. La jerarqua de los agrupamientos de modelos para el caso de la prediccin muestra que
no existe una relacin entre la forma en que los modelos se correlacionan con los parmetros y
su capacidad de prediccin. En el caso del modelado, se encontr que existe una relacin entre
221

la capacidad de modelado y la agrupacin de los modelos en jerarquas de similitud en funcin


de su respuesta a los parmetros de las series de tiempo.

222

Parte III

Combinacin de Predictores

223

Captulo 11

Combinacin de Predictores:
Mejorando la Prediccin de las
Series de Tiempo
11.1

Introduccin

En esta tesis se han desarrollado estudios sobre la predictibilidad de las series de tiempo y
su relacin con las caractersticas dinmicas y estructurales de las mismas, tambin sobre la
capacidad de prediccin (o modelado) de diferentes modelos y su relacin con las caractersticas
de las series de tiempo. Los resultados experimentales del presente trabajo muestran que cada
modelo de prediccin presenta una respuesta diferente a los parmetros que caracterizan a una
serie de tiempo, y en consecuencia no hay un modelo que sea capaz de adaptarse a todo el
universo de dinmicas que las series de tiempo pueden presentar, esto confirma que ante la
falta de modelos universales, una de las mejores estrategias para predecir una serie de tiempo
y a su vez mejorar el horizonte de la prediccin es mediante la combinacin de modelos de
prediccin (o combinacin de predictores).
Como se mencion en la seccin 2.6, al predecir o modelar una serie de tiempo existe un
error que es el resultado de los siguientes factores:
Las limitaciones inherentes a la simplificacin de la dinmica del sistema por el modelo
224

de prediccin.
Las propiedades del sistema como por ejemplo el caos, que provoca una desviacin de
tipo exponencial de la trayectoria del sistema para cambios pequeos en las condiciones
iniciales del mismo.
El ruido presente en la serie de tiempo de origen natural, debido al proceso de medicin
experimental de la misma.
Este error lo podemos expresar formalmente como:

Eprediccion = Emod elado + Eintrn sec o + Emedicion

(11.1)

El error de prediccin corresponde a la clase de error sistemtico [65], el cual no es posible


de eliminar o disminuir en forma directa durante el proceso de prediccin o de modelado. Sin
embargo, es posible disminuir dicho error al post procesar los datos predichos mediante la
combinacin de los resultados de un conjunto de tcnicas de prediccin (predictores) o en el
caso de modelar series de tiempo mediante la combinacin de tcnicas de modelado. Al mejorar
el resultado de la prediccin combinando predictores es posible a su vez mejorar el horizonte
de prediccin de la serie de tiempo.
En este captulo se describe el desarrollo y evaluacin de dos tcnicas de combinacin de predictores. En la seccin 11.2, se presenta una descripcin de las tcnicas clsicas de combinacin
de predictores. La seccin 11.3, describe la primera tcnica de combinacin de predictores desarrollada en esta tesis denominada: GABoost. Esta tcnica hace uso de las ideas de aprendizaje
mediante el algoritmo Boosting (voto pesado) y de bsqueda con Algoritmo Gentico de dichos
pesos. La seccin 11.4, presenta la segunda tcnica desarrollada denominada: CombFEC, la
cual utiliza una funcin de error y correlacin para obtener los pesos de la combinacin de
predictores. Finalmente, la seccin 11.5 presenta la discusin del presente captulo.

11.2

Tcnicas Clsicas de Combinacin de Predictores

Es posible mejorar el resultado de la prediccin de una serie de tiempo, mediante la aplicacin


de operaciones estadsticas simples como por ejemplo, el promedio simple y el promedio pesado.
225

Gran cantidad de mtodos de combinacin se han propuesto a partir del anlisis estadstico, se
dividen en dos grupos, los mtodos de varianza-covarianza y los mtodos de regresin [11, 12].
A continuacin se describen ambos grupos de combinacin estadstica de modelos de prediccin.
Los mtodos de varianza-covarianza se construyen de la siguiente forma, supongamos que
se tienen dos predicciones sin bias, para las cuales se forma la siguiente prediccin compuesta:

c
a
b
= yt+h,t
+ (1 )yt+h,t
yt+h,t

(11.2)

Debido a que la suma de los pesos es igual a la unidad, las predicciones compuestas no
tendrn bias. Adems, el error de la prediccin combinada satisface la misma relacin que las
predicciones combinadas,

ect+h,t = eat+h,t + (1 )ebt+h,t

(11.3)

2c = 2 2aa + (1 )2 2bb + 2(1 )2ab

(11.4)

con una varianza

donde 2aa y 2bb son las varianzas del error de prediccin y 2ab es la covarianza. Minimizando
la varianza del error de la combinacin de modelos con respecto a , se obtiene el peso de
combinacin optimo,

2bb 2ab
2bb + 2aa 22ab

(11.5)

La varianza del error de prediccin asociado con la prediccin producto de la combinacin


optima, es menor o igual que la menor varianza de 2aa y 2bb . En la practica, los pesos son
desconocidos, as que son estimadas de la siguiente forma,

b2ij

T
1X i
=
et+h,t ejt+h,t
T
i=1

as el peso de combinacin estimado es,

226

(11.6)


b =

b2ab

b2bb

b2bb +
b2aa 2b
2ab

(11.7)

El otro grupo de mtodos se basan en combinar las predicciones mediante la regresin, de


hecho este tipo de mtodos son un caso particular de los mtodos de varianza-covarianza, ya
que los pesos ptimos se pueden interpretar como los coeficientes de una proyeccin lineal de
yt+h sobre la prediccin, sujeta a dos restricciones: la suma de pesos es igual a la unidad y la
intercepcin es excluida.
La expresin general de los mtodos de regresin para combinacin de predictores es la
siguiente,
p1
p2
pn
+ 2 yt+h,t
+ ... + n yt+h,t
+ t+h,t
yt+h = 0 + 1 yt+h,t

(11.8)

Hay muchas variaciones y extensiones del mismo por ejemplo: combinacin de pesos que
varan con el tiempo, regresiones combinadas dinmicamente, reduccin de pesos de combinacin a la igualdad (es decir promedio aritmtico de predicciones), y regresiones de combinaciones no lineales [11, 12].

11.3

GABoost: Bsqueda de Pesos con Algoritmo Gentico


Cannico para Minimizacin del Error de Prediccin RMSE

11.3.1

El Algoritmo Boosting

En el rea de Aprendizaje de Mquinas (Machine Learning), se han desarrollado tcnicas para


incrementar la habilidad de aprendizaje durante el entrenamiento de las redes neuronales utilizadas en tareas de clasificacin y regresin. Estas tcnicas reducen el error de prediccin de la
red, por medio de la siguiente idea: crear muchas versiones del mismo predictor y combinarlas
para mejorar el proceso de aprendizaje de los predictores (por ejemplo, redes neuronales) [180].
El conjunto de predictores se obtiene alterando el conjunto de aprendizaje y usando esta
nueva versin para crear al predictor. Existen varios algoritmos para construir conjuntos de
predictores, tales como bagging, boosting, arcing, alteracin de la estructura interna y la introduccin de aleatoriedad en la salida. En particular en este trabajo, se ha utilizado el algoritmo
227

boosting como una analoga para el desarrollo de mtodos de reduccin del error de prediccin,
a continuacin se describen a detalle dicho algoritmo.
Boosting es un mtodo general para mejorar la precisin de cualquier algoritmo de aprendizaje. El objetivo del algoritmo boosting es impulsar (boost) la precisin del proceso de aprendizaje de predictores, su fundamento terico proviene del modelo de aprendizaje PAC (Probably
Approximately Correct Model) donde la hiptesis del algoritmo de aprendizaje debe ser correcta
en forma aproximada (poseer bajo error) con una alta probabilidad, este modelo es debido a
Valiant [181]. Kearns y Valiant, fueron los primeros en proponer la pregunta de si un algoritmo
de aprendizaje dbil (i.e. de bajo rendimiento) cuyo rendimiento es ligeramente mejor que una
adivinanza aleatoria dentro del modelo PAC puede ser impulsado a una precisin arbitraria co
rrespondiente a un algoritmo de aprendizaje fuerte (i.e. de alto rendimiento) [182]. Schapire fue
el primero en desarrollar un algoritmo boosting en 1989 [183]. Posteriormente Freud desarrollo
una versin ms eficiente. En 1995 Freud y Schapire introdujeron el algoritmo AdaBoost [182],
el cual resolvi muchas de las dificultades practicas de los primeros algoritmos de boosting.
A continuacin se describe el algoritmo para mostrar cual es la forma en que opera. El
algoritmo AdaBoost toma como entrada un conjunto de entrenamiento (x1 , y1 ), ...., (xm , ym )
donde cada xi pertenece a algn dominio o espacio de instancias X, y cada etiqueta yi est
dentro de algn conjunto de etiquetas Y . Se asume en esta descripcin en la cual Y = {1, +1}.
AdaBoost llama a un algoritmo de aprendizaje dbil o base (por ejemplo, una red neuronal
para tareas de clasificacin como en este caso, aunque tambin es posible que el algoritmo de
aprendizaje realice tareas de regresin) en forma repetida en una serie de iteraciones t = 1, ...., T .
Una de las principales ideas del algoritmo es mantener una distribucin o conjunto de pesos
sobre el conjunto de entrenamiento. El peso de esta distribucin en el ejemplo de entrenamiento
i en la iteracin t se denota como Dt (i). Inicialmente, todos los pesos son iguales, pero en cada
iteracin, los pesos de los ejemplos clasificados de forma incorrecta se incrementan de tal forma
que el predictor dbil (weak learner ) es forzado a enfocarse en los ejemplos difciles del conjunto
de entrenamiento.
Esta distribucin de pesos es de la forma

Dt+1 (i) =

Dt (i) exp(t yi ht (xi ))


Zt
228

(11.9)

donde Zt es un factor de normalizacin (seleccionado de tal forma que Dt+1 sea una distribucin).
El algoritmo de aprendizaje tiene que encontrar una hiptesis dbil ht : X {1, +1}

apropiada para la distribucin Dt . La bondad de una hiptesis dbil se mide por su error
t = Pr [ht (xi ) 6= yi ] =
iDt

Dt (i)

(11.10)

i:ht (xi )6=yi

El error es medido con respecto a la distribucin Dt sobre la cual el algoritmo de aprendizaje


es entrenado.
En la practica, el algoritmo de aprendizaje debera ser capaz de utilizar los pesos Dt en
los ejemplos de entrenamiento. En forma alternativa, cuando no es posible lo anterior, un
subconjunto de los ejemplos de entrenamiento puede ser muestreado de acuerdo a Dt , y estos
ejemplos (no pesados) muestreados pueden ser usados para entrenar al algoritmo.
Una vez que la hiptesis dbil ht ha sido obtenida, AdaBoost selecciona un parmetro t .
De forma intuitiva, t mide la importancia que se asigna a ht , y cumple con lo siguiente
t 0 si t

1
2

(11.11)

y t crece conforme t decrece.


La distribucin Dt es luego actualizada de tal forma que los pesos de los ejemplos mal
clasificados por ht se incrementa, y a la vez se decrementa el peso de los ejemplos clasificados
correctamente. De esta forma, el peso tiende a concentrarse en los ejemplos difciles.
La hiptesis final H es un voto de mayora pesado de las T hiptesis dbiles donde t es el
peso asignado a ht .
T
X
H(x) = sign(
t ht (x))

(11.12)

t=1

11.3.2

Descripcin del Algoritmo de la Tcnica GABoost

Esta tcnica se desarrollo a partir de la idea de boosting utilizada en aprendizaje de mquina


(e.g. redes neuronales), en la cual se asigna el mayor peso al peor predictor (learner) para
reforzar su aprendizaje en la siguiente iteracin de la etapa de entrenamiento y donde estos
229

pesos se obtienen a partir de la construccin de una funcin de distribucin de pesos. Como


una analoga ahora asignamos el mayor peso al mejor predictor de una serie de tiempo, de tal
forma que construimos un predictor de voto pesado, el cual se expresa como la suma pesada de
M predictores:

P (xi )combinacion =

M
X

Wj P j (xi )

(11.13)

j=1

La bsqueda de los pesos ptimos Wj se realiza a diferencia de la tcnica boosting, que


requiere la construccin explicita de una funcin de distribucin de pesos, utilizando un algoritmo gentico cannico que construye esta distribucin de forma implcita [184, 185, 186], el
criterio de bsqueda de los pesos ptimos se basa en la funcin objetivo de minimizacin del
error medio raz cuadrada (RMSE),
"

N
2
1 X combinacion
xi
xoriginal
RMSE =
i
N
i=1

# 12

(11.14)

Cada individuo de la poblacin esta formado por un conjunto de pesos {Wj } expresados
como nmeros reales, de la siguiente forma:

P opmember [k] = W1 W2 .....WM

(11.15)

la funcin de ajuste (fitness function) penaliza a los individuos con mayores errores RMSE
de la forma:

fitness = 1

RMSE (k)
Max {RMSE (k)}Q
k=1

(11.16)

El algoritmo de la tcnica GABoost para combinacin de predictores, se muestra en la


Figura 11-1.

11.3.3

Tcnicas y Series para la Evaluacin de GABoost

Las series de tiempo utilizadas para evaluar la tcnica de combinacin GABoost fueron seleccionadas considerando que el nmero de tcnicas de prediccin capaces de predecir su compor230

Etapa de Entrenamiento
Bsqueda de pesos para la reduccin del error de prediccin.

P1Entrenamie nto , P2Entrenamie nto ,....., PMEntrenamie nto Conjuntos de datos


predichos correspondientes al mismo intervalo de prediccin,
obtenidos a partir de M modelos de prediccin.
continue
Bsqueda de pesos con Algoritmo Gentico:
W1, W2,., WM
Salida de la Combinacin de Predictores:
M

Pcombinaci n ( xi ) = W j PjEntrenamie nto ( xi )


j =1

Evaluacin de la salida:

1
RMSE =
N

(x

combinaci n
i

original 2
i

i =1

if ( RMSE < RMSE mejorpredi ctor o nmero de iteraciones =


MaxNumIterations) then
end program
else
continue
end program
Etapa de Prueba
Uso del conjunto de pesos para la reduccin del error de prediccin
en el conjunto de prueba.

P1Pr ueba , P2Pr ueba ,...., PMPr ueba Conjuntos de datos predichos
correspondientes al mismo intervalo de prediccin, obtenidos a
partir de M modelos de prediccin.
M

Pcombinaci n ( xi ) = W j PjPr ueba ( xi )


Figura 11-1: Algoritmo GABoost
231

tamiento fuera al menos de dos. Para la seleccin de las tcnicas y de las series, se utiliz la
matriz de prediccin de las series de tiempo que se present en el captulo 8. El conjunto de
tcnicas de prediccin (predictores) y sus caractersticas generales se presenta en la tabla de la
Figura 11-2.

Figura 11-2: Predictores de series de tiempo


El conjunto de series de tiempo utilizadas para la evaluacin de la tcnica GABoost se
presenta en la tabla de la Figura 11-3.

Serie de
Tiempo
Qperiodic3
MackeyGlass
Rossler
A1
Dow Jones

Comportamiento
Predictibilidad
Dinmico
Cuasiperidica

0.888610816

Catica

0.665578391

Catica
Compleja
Compleja

1.172559224
0.888622568
1.791995215

Figura 11-3: Series de Tiempo

11.3.4

Resultados Experimentales

A continuacin se presentan los resultados experimentales de la evaluacin de la tcnica de


combinacin de predictores GABoost, los datos utilizados para cada serie de tiempo se presentan
232

en la tabla de la Figura 11-4. Solo en el caso de la serie Mackey-Glass se utilizaron nicamente


50 datos predichos para la construccin del conjunto de entrenamiento (bsqueda de pesos) y
del conjunto de prueba para la combinacin de los predictores. El uso de solo 50 datos para
construir los conjuntos de datos, es por el comportamiento catico de esta serie que expande
el error de prediccin de tal forma que la combinacin de los predictores, no logra mejorar el
resultado de la mejor prediccin individual o de promedio simple.

Serie de
Tiempo

Datos de
entrenamient
o para
prediccin

Qperiodic3

1900

MackeyGlass

1900

Rossler

4000

A1

1800

Dow Jones

3000

Datos
predichos

100 (1901 a
2000)
50 (1901 a
1950)
100 (4001 a
4100)
100 (1801 a
1900)
100 (3001 a
3100)

Datos de
Datos de
prueba para
entrenamient
la
o para
combinacin
busqueda de
de los
pesos
predictores
50 (1901 a
50 (1951 a
1950)
2000)
25 (1901 a
25 (1926 a
1925)
1950)
50 (4001 a
50 (4050 a
4050)
4100)
50 (1801 a
50 (1851 a
1850)
1900)
50 (3001 a
50 (3051 a
3050)
3100)

Figura 11-4: Conjuntos de datos para la evaluacin de GABoost


En la bsqueda de una combinacin de predictores ptima un criterio experimental es el
grado de correlacin de los predictores, a menor correlacin entre predictores (i.e. mayor ortogonalidad entre sus predicciones) la informacin que cada uno aporta para la combinacin de
predictores es menos redundante logrando que la prediccin resultante posea un menor error de
prediccin. En la Figura 11-5 se muestra la tabla de los resultados del anlisis de correlacin.
Se observa que en el caso de las series de tiempo Rossler, Mackey-Glass y A1, el grado de
correlacin entre los predictores es alto, en el caso de la serie Qperiodic3 la correlacin entre
los predictores es alta en unos casos y en otros es baja lo cual indica que la combinacin de los
predictores puede ser til para mejorar la prediccin de la serie. Por ltimo en el caso de la
serie Dow Jones, la correlacin entre los dos predictores a combinar es de magnitud media pero
con una relacin de tipo inverso.
Una vez obtenidos los datos de la prediccin e identificados los predictores para cada serie
233

Figura 11-5: Correlacin de los predictores


de tiempo, se realizaron los experimentos para la bsqueda de los pesos ptimos que minimicen
el RMSE de la combinacin de predictores, tal que sea menor o igual al RMSE de la mejor
prediccin individual de la serie de tiempo. La Figura 11-6, presenta la tabla de los parmetros
experimentales con los cuales se obtuvieron los pesos ptimos para cada caso.

Figura 11-6: Parmetros de los experimentos para la bsqueda de los p esos ptimos
En las Figuras 11-7, 11-8 y 11-9; se muestran las grficas en las cuales se compara la serie
original, la prediccin GABoost y la prediccin con el mejor predictor individual, los casos
234

presentados corresponden a las series Mackey-Glass, A1 y Dow Jones. En el caso de la serie


Mackey-Glass se observa que debido al comportamiento catico de esta serie, la propagacin del
error genera una prediccin combinada que solamente mejora la prediccin para los primeros 12
valores de la serie. Con relacin a la serie A1, se observa que la combinacin de los predictores
mejora ligeramente la prediccin de la amplitud de la serie de tiempo, reduciendo un error de
prediccin que ya era pequeo debido a las predicciones individuales como la realizada por la
tcnica Nstep. Por ltimo, en el caso de la serie Dow Jones se observa una mejora considerable
en la prediccin de la magnitud de los valores de la serie predicha.

Mackey-Glass

Firnet

1,4

Original

1,2

x (n)

1,0

GABoost

0,8
0,6
0,4
0,2
0,0
0

10

15

20

25

Figura 11-7: Comparacin de predicciones de GABoost y mejor predictor individual para la


serie Mackey-Glass
Para verificar la eficiencia de la tcnica para reducir el error RMSE se compararon los
errores de los predictores individuales con el correspondiente a GABoost, las Figuras 11-10,
11-11, 11-12, 11-13 y 11-14; muestran las comparaciones para las diferentes series de tiempo.
El porcentaje que se muestra en cada figura, corresponde a la reduccin del error RMSE de
la combinacin con respecto al error RMSE del mejor predictor individual. Se observa que en
todos los casos se logro reducir el error RMSE con relacin al resultado del mejor predictor
individual para cada serie de tiempo.
El Error Bias (BE) que permite cuantificar si el modelo de prediccin se ajusta a la dinmica

235

A1

Nstep

1,8
1,6

GABoost

1,4

x (n)

1,2
1,0
0,8
0,6

Original

0,4
0,2
0,0
0

10

20

30

40

50

Figura 11-8: Comparacin de predicciones de GABoost y mejor predictor individual para la


serie A1

Dow Jones
Original

0,68
0,66
0,65
0,64
0,62

x (n)

0,60
0,58
0,56
0,55
0,54

GABoost

PNNGauss

0,52
0,50
0,48
0,46
0

10

20

30

40

50

Figura 11-9: Comparacin de predicciones de GABoost y mejor predictor individual para la


serie Dow Jones

236

RMSE para serie de tiempo Qperiodic3

5.0891%

0,5
0,4

RMSE

0,3
0,2
0,1
0
PNNGauss

MLFFN

Polynomp

Nstep

GABoost

Predictores

Figura 11-10: Comparacin del error RMSE para la serie Qperiodic3


RMSE para serie de tiempo Mackey-Glass

24.1256%

0,2

RMSE

0,15
0,1
0,05
0
GABoost

Nstep

Firnet

Predictores

Figura 11-11: Comparacin del error RMSE para la serie Mackey-Glass

RMSE para serie de tiempo Rossler

40.0643%

RMSE

3
2
1
0
PNNGauss

MLFFN

Nstep

GABoost

Predictores

Figura 11-12: Comparacin del error RMSE para la serie Rossler


237

RMSE para serie de tiempo A1

53.5234%

0.25

RMSE

0.2
0.15
0.1
0.05
0
PNNGauss

Polynomp

Nstep

GABoost

Predictores

Figura 11-13: Comparacin del error RMSE para la serie A1

72.4717%

RMSE para serie de tiempo Dow Jones


0,16
0,14
0,12

RMSE

0,1
0,08
0,06
0,04
0,02
0

PNNGauss

Nstep

GABoost

Predictores

Figura 11-14: Comparacin del error RMSE para la serie Dow Jones

238

de la serie de tiempo, se comparo en forma similar que en el caso del error RMSE, las Figuras
11-15, 11-16, 11-17, 11-18 y 11-19 muestran los resultados de este anlisis. Se observa que con
excepcin de las series Mackey-Glass y A1, el error BE de la combinacin de predictores fue
menor que el correspondiente a los predictores individuales, lo que indica que la combinacin
de modelos se adapta mejor a la dinmica de las series de tiempo predichas.
BE para serie de tiempo Qperiodic3
0,08
0,06
0,04

BE

0,02
Nstep

0
-0,02

PNNGauss

MLFFN

GABoost

Polynomp

-0,04
-0,06
-0,08
-0,1
-0,12
Predictores

Figura 11-15: Comparacin del error BE para la serie Qp eriodic3

BE para serie de tiempo Mackey-Glass


0,02

BE

0,01
0

Firnet

GABoost
Nstep

-0,01
-0,02
-0,03
-0,04
-0,05

Predictores

Figura 11-16: Comparacin del error BE para la serie Mackey-Glass


Para estudiar el comportamiento del Error Local (LRSE) se grfico para cada serie de tiempo
239

BE para serie de tiempo Rossler


0,1
0
-0,1

PNNGauss

MLFFN
Nstep

GABoost

BE

-0,2
-0,3
-0,4
-0,5
-0,6
-0,7
-0,8
Predictores
Figura 11-17: Comparacin del error BE para la serie Rossler

BE para serie de tiempo A1


0.04
0.03

BE

0.02
0.01
0

PNNGauss

Polynomp
Nstep

-0.01

GABoost

-0.02
-0.03
Predictores

Figura 11-18: Comparacin del error BE para la serie A1

240

BE

BE para serie de tiempo Dow Jones


0
-0,02
-0,04
-0,06
-0,08
-0,1
-0,12
-0,14
-0,16

Nstep

PNNGauss

GABoost

Predictores

Figura 11-19: Comparacin del error BE para la serie Dow Jones


el LRSE de los predictores individuales y se comparo con el correspondiente a la prediccin
con GABoost. Las Figuras 11-20, 11-21, 11-22, 11-23 y 11-24; presentan los resultados del
comportamiento del error local de la prediccin, en todos los casos se observa que el error local
de la combinacin de predictores (lnea continua en las figuras) se mantiene en el lmite inferior
respecto a los errores locales de los predictores individuales. Esto muestra que la propagacin
del error disminuye gracias a la combinacin de los predictores.
Finalmente se hizo la comparacin del error RMSE para GABoost con respecto al error
correspondiente de la combinacin de los predictores con el promedio simple, el cual es uno de
los mejores mtodos para mejorar la prediccin de series de tiempo y es usado como referencia
en la evaluacin de tcnicas de combinacin de predictores. Las Figuras 11-25, 11-26, 11-27,
11-28 y 11-29; muestran los resultados de esta comparacin. Se observa que con excepcin de
la serie catica Mackey-Glass, el error RMSE fue menor para la prediccin utilizando la tcnica
GABoost que la prediccin producto del promedio simple, los porcentajes de cambio del error
RMSE de GABoost respecto del error RMSE del promedio simple se muestran en cada figura.

241

LRSE de A
C
B
D
GABoost
0.9
0.8
0.7
0.6

LRSE

0.5
0.4
0.3
0.2
0.1
0.0
-0.1
0

10

20

30

40

50

Figura 11-20: Comparacin del error local de prediccin para la serie Qperiodic3 de los predictores individuales y la combinacin con GABoost

242

LRSE de
A
B GABoost
0.55
0.50
0.5
0.45
0.4
0.40
0.35

LRSE

0.30
0.3
0.25
0.2
0.20
0.15
0.10
0.1
0.05
0.00
0.0
-0.05
0

10

15

20

25

Figura 11-21: Comparacin del error local de prediccin para la serie Mackey-Glass de los
predictores individuales y la combinacin con GABoost

243

LRSE de GABoost
C
B
5.5
5.0
5
4.5
4.0
4
3.5

LRSE

3.0
3
2.5
2.0
2
1.5
1.0
1
0.5
0.0
0
-0.5
0

10

20

30

40

50

Figura 11-22: Comparacin del error local de prediccin para la serie Rossler de los predictores
individuales y la combinacin con GABoost

244

LRSE de GABoost
0.65
0.6
0.60
0.55
0.5
0.50
0.45
0.4
0.40

LRSE

0.35
0.30
0.3
0.25
0.20
0.2
0.15
0.10
0.1
0.05
0.00
0.0
-0.05
0

10

20

30

40

50

Figura 11-23: Comparacin del error local de prediccin para la serie A1 de los predictores
individuales y la combinacin con GABoost

245

LRSE de GABoost
0.22
0.20
0.18
0.16
0.15
0.14

LRSE

0.12
0.10
0.08
0.06
0.05
0.04
0.02
0.00
0

10

20

30

40

50

Figura 11-24: Comparacin del error local de prediccin para la serie Dow Jones de los predictores individuales y la combinacin con GABoost

RMSE

RMSE de GABoost y Promedio Simple para la serie Qperiodic3


0,24
0,23
0,22
0,21
0,2
0,19
0,18
0,17
GABoost

Promedio Simple
Predictores

15.3985%

Figura 11-25: Comparacin del error RMSE de la combinacin de predictores con GABoost y
promedio simple para la serie de tiempo Qperiodic3

246

RMSE de GABoost y Promedio Simple para la serie Mackey-Glass


0,12
RMSE

0,1
0,08
0,06
0,04
0,02
0
GABoost

Promedio Simple
Predictores

-35.5835%

Figura 11-26: Comparacin del error RMSE de la combinacin de predictores con GABoost y
promedio simple para la serie de tiempo Mackey-Glass

69.6900%
RMSE de GABoost y Promedio Simple para la serie Rossler
RMSE

1,5
1
0,5
0
Promedio Simple

GABoost
Predictores

Figura 11-27: Comparacin del error RMSE de la combinacin de predictores con GABoost y
promedio simple para la serie de tiempo Rossler

247

RMSE de GABoost y Promedio Simple para la serie A1

RMSE

0,08
0,06
0,04
0,02
0
GABoost

Promedio Simple
Predictores

22.1449%

Figura 11-28: Comparacin del error RMSE de la combinacin de predictores con GABoost y
promedio simple para la serie de tiempo A1

RMSE de GABoost y Promedio Simple para la serie Dow Jones

RMSE

72.5337%

0,2
0,15
0,1
0,05
0
GABoost

Promedio Simple
Predictores

Figura 11-29: Comparacin del error RMSE de la combinacin de predictores con GABoost y
promedio simple para la serie de tiempo Dow Jones

248

11.4

CombFEC: Combinacin de Predictores con una Funcin


de Pesos de Error y Correlacin

11.4.1

La Funcin de Pesos de Error y Correlacin

La segunda tcnica denominada CombFEC se basa en explotar la informacin proporcionada


por los diferentes errores de prediccin y por el grado de correlacin entre cada predictor y
los datos de la serie original. La funcin de pesos se basa en modificar la funcin SOFTMAX
[187, 188, 189],

cj (x) =

exp(zj (x))
M
X

(11.17)

exp(zk (x))

k=1

la cual es utilizada en el entrenamiento de redes neuronales, ya que permite construir pesos


que cumplan las condiciones:

0 cj (x) 1 y

M
X

cj (x) = 1

(11.18)

j=1

La modificacin consiste en la construccin de un exponente que permita introducir la


informacin sobre los errores de la prediccin de una serie de tiempo para cada modelo de
prediccin utilizado y la informacin sobre el grado de correlacin de un modelo con relacin
a la serie de tiempo predicha. Los errores de prediccin (definidos con anterioridad, ver la
seccin 8.2) aportan informacin sobre la expansin del error local de prediccin por medio del
error MAE, el rendimiento global del modelo al predecir por medio del error RMSE y el nivel
de sub o sobreaprendizaje del modelo sobre la dinmica de la serie de tiempo por medio del
error BE. Por su parte, el grado de correlacin del modelo respecto de la serie de tiempo se
mide con el coeficiente de correlacin de Pearson (definido con anterioridad, ver la seccin 6.4)
que se identifica como COPS o correlacin de predictor-serie. Esta correlacin se obtiene en
la etapa de entrenamiento, a partir de un conjunto de datos predichos por un modelo (modelo
de la serie) y del conjunto correspondiente de datos originales. Con estos cuatro elementos se
construye la Funcin de Error y Correlacin (FEC ) de cada modelo de prediccin:

249

f ecj = (1 MAEj ) + (1 |BEj |) + (1 RMSEj ) + COP Sj

(11.19)

de esta forma la funcin de pesos para cada modelo de prediccin es:

Wj =

exp(fecj )
M
X

(11.20)

exp(feck )

k=1

11.4.2

Descripcin del Algoritmo de la Tcnica CombFEC

Con la funcin anterior, se calculan los pesos correspondientes para la combinacin de los
predictores (o modelos de prediccin) de la serie de tiempo a la que se le desea mejorar el
resultado de su prediccin, en la Figura 11-30 se muestra la descripcin del algoritmo completo
de la tcnica CombFEC.

11.4.3

Resultados Experimentales

La evaluacin de la tcnica CombFEC se realiz con el mismo conjunto experimental de series


de tiempo y de tcnicas de prediccin utilizados en la evaluacin de la tcnica GABoost (ver
las Figuras 11-2, 11-3, 11-4, y 11-5) de esta forma es posible comparar ambas tcnicas, los
resultados de dicha comparacin se presentan ms adelante en la seccin 11.5 correspondiente
a la discusin de los resultados del presente captulo.
En las Figuras 11-31, 11-32 y 11-33; se muestran las grficas en las cuales se compara la
serie original, la prediccin CombFEC y la prediccin con el mejor predictor individual, los
casos presentados corresponden a las series Mackey-Glass, A1 y Dow Jones.
Para verificar la eficiencia de la tcnica para reducir el error RMSE se compararon los
errores de los predictores individuales con el correspondiente a CombFEC, las Figuras 11-34,
11-35, 11-36, 11-37 y 11-38; muestran las comparaciones para las diferentes series de tiempo.
El porcentaje que se muestra en cada figura, corresponde a la reduccin o aumento del error
RMSE de la combinacin con respecto al error RMSE del mejor predictor individual. En el
caso de las series Mackey-Glass, Rossler y A1 se logro mejorar el resultado de la prediccin con
respecto al resultado de la mejor prediccin individual, en los otros dos casos: Qperiodic3 y

250

Etapa de Entrenamiento
Bsqueda de pesos para la reduccin del error de prediccin.
P1Entrenamiento , P2Entrenamiento ,..., PMEntrenamiento

Wj =

e
M

fec j

feck

k =1

fec j
fec j = (1 MAE j ) + (1 ABS ( BE j )) + (1 RMSE j ) + COPS j

P1Pr ueba , P2Pr ueba ,..., PMPr ueba

Pcombinacin ( xi ) = W j PjPr ueba ( xi )


j

Figura 11-30: Algoritmo CombFEC

251

Firnet

Mackey-Glass

1.4

Original

1.2
1.0

CombFEC

x (n)

0.8
0.6
0.4
0.2
0.0
5

10

15

20

25

Figura 11-31: Comparacin de predicciones de CombFEC y mejor predictor individual para la


serie Mackey-Glass

A1

1.8

Nstep

1.6

Original

1.4
1.2

CombFEC

x (n)

1.0
0.8
0.6
0.4
0.2
0.0
10

20

30

40

50

Figura 11-32: Comparacin de predicciones de CombFEC y mejor predictor individual para la


serie A1

252

Dow Jones

0.68
0.66
0.65
0.64

Original

0.62

x (n)

0.60
0.58
0.56
0.55
0.54

CombFEC

0.52
0.50

PNNGauss

0.48
0.46
10

20

30

40

50

Figura 11-33: Comparacin de predicciones de CombFEC y mejor predictor individual para la


serie Dow Jones
Dow Jones se observa un pequeo aumento del error de la prediccin resultado de combinar los
predictores.
El Error Bias (BE) que permite cuantificar si el modelo de prediccin se ajusta a la dinmica
de la serie de tiempo durante el aprendizaje, se comparo en forma similar que en el caso del
error RMSE, las Figuras 11-39, 11-40, 11-41, 11-42 y 11-43; muestran los resultados de este
anlisis. Con excepcin de los casos para las series Mackey-Glass y Dow Jones, en el resto de
las series evaluadas se logra reducir el error BE, lo que indica que el modelo resultante de la
combinacin de los predictores se adapta mejor a la dinmica de la serie de tiempo.
Para estudiar el comportamiento del Error Local (LRSE) se grfico para cada serie de tiempo
el LRSE de los predictores individuales y se comparo con el correspondiente a la prediccin
con CombFEC. Las Figuras 11-44, 11-45, 11-46, 11-47 y 11-48; presentan los resultados del
comportamiento del error local de la prediccin. Se observa, que con excepcin de la serie de
tiempo Dow Jones, para el resto de las series de tiempo el error local de la combinacin de
predictores (lnea continua en las figuras), se mantiene en el lmite inferior con relacin a los
errores locales correspondientes a los predictores individuales. La combinacin de predictores
permite entonces que la expansin del error sea minimizada.
Finalmente se hizo la comparacin del error RMSE para CombFEC con respecto al error

253

RMSE para serie de tiempo Qperiodic3


0.5
0.45
0.4

RMSE

0.35

-4.7111%

0.3
0.25
0.2
0.15
0.1
0.05
0

PNNGauss

MLFFN

Polynomp

Nstep

CombFEC

Predictores

Figura 11-34: Comparacin del error RMSE para la serie Qperiodic3

RMSE para serie de tiempo Mackey-Glass


0.2
0.18
0.16

42.7714%

RMSE

0.14
0.12
0.1
0.08
0.06
0.04
0.02
0

FIRNet

Nstep

CombFEC

Predictores

Figura 11-35: Comparacin del error RMSE para la serie Mackey-Glass

254

RMSE para serie de tiempo Rossler


3
2.5

RMSE

2
1.5

13.1969%

1
0.5
0

PNNGauss

MLFFN

Nstep

CombFEC

Predictores

Figura 11-36: Comparacin del error RMSE para la serie Rossler

RMSE para serie de tiempo A1


0.25

RMSE

0.2
0.15

45.1009%

0.1
0.05
0

PNNGauss

Polynomp

Nstep

CombFEC

Predictores

Figura 11-37: Comparacin del error RMSE para la serie A1

255

RMSE para la serie de tiempo Dow Jones


0.1475

RMSE

0.147

-0.2466%

0.1465
0.146
0.1455
0.145

PNNGauss

Nstep

CombFEC

Predictores

Figura 11-38: Comparacin del error RMSE para la serie Dow Jones

BE para serie de tiempo Qperiodic3


0.08
0.06
0.04
0.02

BE

0
-0.02

PNNGauss

MLFFN

Polynomp

Nstep

CombFEC

-0.04
-0.06
-0.08
-0.1
-0.12

Predictores

Figura 11-39: Comparacin del error BE para la serie Qp eriodic3

256

BE para serie de tiempo Mackey-Glass


0.02
0.01

BE

0
-0.01

FIRNet

Nstep

CombFEC

-0.02
-0.03
-0.04
-0.05

Predictores

Figura 11-40: Comparacin del error BE para la serie Mackey-Glass

BE para serie de tiempo Rossler


0.1
0
-0.1

PNNGauss

MLFFN

Nstep

CombFEC

BE

-0.2
-0.3
-0.4
-0.5
-0.6
-0.7
-0.8

Predictores

Figura 11-41: Comparacin del error BE para la serie Rossler

257

BE para serie de tiempo A1


0.04
0.03

BE

0.02
0.01
0

PNNGauss

-0.01

Polynomp

Nstep

CombFEC

-0.02
-0.03

Predictores

Figura 11-42: Comparacin del error BE para la serie A1

BE para serie de tiempo Dow Jones


-0.143679
-0.14368

PNNGauss

Nstep

CombFEC

-0.143681

BE

-0.143682
-0.143683
-0.143684
-0.143685
-0.143686
-0.143687

Predictores

Figura 11-43: Comparacin del error BE para la serie Dow Jones

258

LRSE de CombFEC
0.9
0.8
0.7
0.6

LRSE

0.5
0.4
0.3
0.2
0.1
0.0
10

20

30

40

50

Figura 11-44: Comparacin del error local de prediccin para la serie Qperiodic3 de los predictores individuales y la combinacin con CombFEC

259

LRSE de CombFEC
0.55
0.5
0.50
0.45
0.4
0.40
0.35

LRSE

0.3
0.30
0.25
0.2
0.20
0.15
0.1
0.10
0.05
0.00
0.0
-0.05
5

10

15

20

25

n
Figura 11-45: Comparacin del error local de prediccin para la serie Mackey-Glass de los
predictores individuales y la combinacin con CombFEC

260

LRSE de CombFEC

5.5
5.05
4.5
4.04
3.5

LRSE

3.03
2.5
2.02
1.5
1.01
0.5
0.00
-0.5
10

20

30

40

50

Figura 11-46: Comparacin del error local de prediccin para la serie Rossler de los predictores
individuales y la combinacin con CombFEC

261

LRSE de CombFEC
0.65
0.60
0.6
0.55
0.50
0.5
0.45

LRSE

0.40
0.4
0.35
0.30
0.3
0.25
0.2
0.20
0.15
0.10
0.1
0.05
0.00
0.0
-0.05
10

20

30

40

50

Figura 11-47: Comparacin del error local de prediccin para la serie A1 de los predictores
individuales y la combinacin con CombFEC

262

LRSE de CombFEC
0.22
0.20
0.18

LRSE

0.16
0.14
0.12
0.10
0.08
10

20

30

40

50

Figura 11-48: Comparacin del error local de prediccin para la serie Dow Jones de los predictores individuales y la combinacin con CombFEC

263

RMSE de CombFEC y Promedio Simple para la serie Qperiodic3


0.23

RMSE

0.225
0.22

6.6623%

0.215
0.21
0.205

CombFEC

Promedio Simple
Predictores

Figura 11-49: Comparacin del error RMSE de la combinacin de predictores con CombFEC y
promedio simple para la serie de tiempo Qperiodic3
correspondiente de la combinacin de los predictores con el promedio simple, el cual es uno de
los mejores mtodos para mejorar la prediccin de series de tiempo y es usado como referencia
en la evaluacin de tcnicas de combinacin de predictores. Las Figuras 11-49, 11-50, 11-51,
11-52 y 11-53; muestran los resultados de esta comparacin. Para las series Qperiodic3, Rossler
y A1 se observa que el error RMSE es menor que en el caso de la combinacin de predictores
usando un promedio simple, en el caso de la serie Mackey-Glass se observa un error RMSE un
poco mayor que el correspondiente al promedio simple, por ltimo en el caso de la serie Dow
Jones el error RMSE es ligeramente mayor al correspondiente a la combinacin de predictores
con promedio simple. Los porcentajes de cambio del error RMSE de CombFEC respecto del
error RMSE del promedio simple se muestran en cada figura.

11.5

Discusin

En este captulo se present la descripcin de dos tcnicas de combinacin de predictores denominadas GABoost y CombFEC. La primera tcnica, tiene como base la construccin de una
combinacin de modelos de prediccin a partir de votos pesados, en analoga con el algoritmo de
aprendizaje Boosting. Pero a diferencia del algoritmo Boosting, que requiere de la construccin
264

RMSE de CombFEC y Promedio Simple para la serie MackeyGlass


0.081

-2.2643%

0.0805

RMSE

0.08
0.0795
0.079
0.0785
0.078

CombFEC

Promedio Simple
Predictores

Figura 11-50: Comparacin del error RMSE de la combinacin de predictores con CombFEC y
promedio simple para la serie de tiempo Mackey-Glass

RMSE de CombFEC y Promedio Simple para la serie Rossler


1.2
1

RMSE

0.8
0.6

56.1029%

0.4
0.2
0

CombFEC

Promedio Simple
Predictores

Figura 11-51: Comparacin del error RMSE de la combinacin de predictores con CombFEC y
promedio simple para la serie de tiempo Rossler

265

RMSE de CombFEC y Promedio Simple para la serie A1


0.068
0.067
0.066

RMSE

0.065
0.064

8.0346%

0.063
0.062
0.061
0.06
0.059

CombFEC

Promedio Simple
Predictores

Figura 11-52: Comparacin del error RMSE de la combinacin de predictores con CombFEC y
promedio simple para la serie de tiempo A1

RMSE de CombFEC y Promedio Simple para la serie Dow Jones


0.14606
0.146055

-0.0203%

0.14605

RMSE

0.146045
0.14604
0.146035
0.14603
0.146025
0.14602
0.146015
0.14601
0.146005

CombFEC

Promedio Simple
Predictores

Figura 11-53: Comparacin del error RMSE de la combinacin de predictores con CombFEC y
promedio simple para la serie de tiempo Dow Jones

266

Figura 11-54: Tabla comparativa de las tcnicas de combinacin de predictores


en forma explicita de la funcin de distribucin de pesos, en el algoritmo desarrollado se hace
uso de la bsqueda con algoritmo gentico cannico de los pesos ptimos de la combinacin.
La segunda tcnica, hace uso de la funcin SOFTMAX modificada usando una funcin de error
y correlacin (FEC ) para encontrar los pesos para combinar a los predictores o modelos de
prediccin. La funcin FEC, introduce informacin sobre el rendimiento de los predictores individuales a travs de tres coeficientes de error y un coeficiente de correlacin. Ambas tcnicas
se evaluaron con un conjunto de series de tiempo de diferente predictibilidad y comportamiento
dinmico.
Los resultados muestran que la tcnica GABoost es capaz de mejorar la prediccin de
las series de tiempo, reduciendo el error RMSE de la prediccin con respecto a los mejores
predictores individuales para cada serie evaluada y tambin con respecto a la combinacin
de predictores usando el promedio simple (ver tabla en la Figura 11-54). La combinacin
de modelos de prediccin con GABoost permite adems disminuir el error bias (BE), lo cul
muestra que el modelo resultante se adapta mejor a la dinmica de la serie de tiempo predicha.
Con respecto a la tcnica CombFEC aunque logra reducir el error de prediccin en comparacin con el mejor predictor individual y con la combinacin de predictores con el promedio
simple, su eficiencia no es tan buena como en el caso de GABoost (ver tabla en la Figura 11-54),
sin embargo debe tomarse en cuenta que la influencia que el mtodo usado para combinar los

267

predictores (i. e. la forma de obtener los pesos ptimos de la combinacin) tiene sobre la reduccin del error de prediccin no se ha estudiado en la literatura, por lo que no es claro como
afecta la forma en que se combinan los modelos en el resultado final, esto sin duda es materia
de investigaciones futuras.

268

Parte IV

Conclusiones

269

Captulo 12

Conclusiones y Lneas de Trabajo


Futuro
12.1

Conclusiones

En este trabajo de tesis se ha desarrollado un estudio experimental sobre la predictibilidad de


series de tiempo, para llevarlo a cabo fue necesario como primer paso, la identificacin de un
conjunto de parmetros que proporcionen informacin sobre la dinmica y estructura de las
series de tiempo. La identificacin de estos parmetros se hizo sobre la base de una evaluacin
sistemtica de los mismos para un conjunto de series de tiempo de orgenes diversos, y que
son utilizadas en forma estndar en la literatura para el estudio del problema de prediccin.
El segundo paso, fue el desarrollo de una mtrica para medir y posteriormente analizar la
predictibilidad de las series. Se propusieron varias mtricas y a partir de la evaluacin y comparacin de las mismas, se encontr que la mtrica denominada CDP2 es la ms eficiente para
medir la predictibilidad, ya que present la correlacin ms alta entre las mtricas desarrolladas
en este trabajo con respecto a las variables de referencia (nmero de predicciones para cada
serie de tiempo, NumPred y nmero de modelaciones para cada serie de tiempo, NumMod).
En la construccin de esta mtrica, se usaron un conjunto de parmetros dinmicos ortogonales
que son ampliamente utilizados en la caracterizacin de las series de tiempo.
Para validar las mtricas fue necesario desarrollar un conjunto de experimentos para evaluar
la prediccin y el modelado de series de tiempo utilizando un conjunto de tcnicas basadas en
270

diferentes modelos de prediccin y de modelado. Para la evaluacin de las tcnicas se desarroll


una metodologa experimental para medir el xito de cada tcnica ya sea para predecir o modelar
las series de tiempo.
En la Figura 12-1 se presenta un diagrama que sintetiza las metodologas experimentales
desarrolladas en la presente tesis:
1 Medicin y caracterizacin de la predictibilidad de las series de tiempo.
2 Evaluacin de tcnicas para prediccin o modelado.
Las metodologas han sido descritas en detalle a lo largo de los diferentes captulos de la
presente tesis y en el captulo 13 de apndices se incluye una gua que describe los pasos de
cada metodologa.
En relacin con los resultados experimentales se encontr que:
1 Para el caso de la prediccin, los modelos de alcance local y que operan en el espacio fase
poseen una mayor capacidad de prediccin, estos modelos tienen como origen a la Teora
de Sistemas Dinmicos No Lineales.
2 En el caso del modelado los modelos de alcance global y que operan en el espacio real,
presentan la mayor capacidad para el modelado de series de tiempo, el origen de estos modelos es diverso: modelos hbridos de Inteligencia Artificial, Teora de Sistemas
Dinmicos No Lineales y Estadstica.
En cuanto a los errores de prediccin y de modelado de las series de tiempo, el comportamiento general de los errores es independiente de la capacidad de cada modelo para la prediccin y el modelado, es decir, el que un modelo sea capaz de predecir o modelar un nmero alto
de series de tiempo no implica, que los errores de la prediccin o el modelado sean menores a
otros modelos con menor capacidad.
A partir de las matrices de datos correspondientes a la evaluacin de las tcnicas de prediccin y modelado y de la mtrica CDP2 de las series de tiempo, se desarroll una mtrica de
capacidad de prediccin (CCAP) y de modelado (CCAM ) con la que fue posible medir y eva
luar la habilidad de los modelos para la prediccin y modelado tomando en cuenta factores
271

Series de Tiempo

Preprocesamiento de
las Series de Tiempo
para el Clculo de los
Parmetros

Clculo de
Parmetros de Series
de Tiempo

Clculo de la
Predictibilidad de
Series de Tiempo

Preprocesamiento de
las Series de Tiempo
para la Evaluacin de
las Tcnicas

Repositorio de
Informacin sobre las
Series de Tiempo

Anlisis de la
Predictibilidad con
Tcnicas
Multivariadas

Clculo de la
Capacidad de
Prediccin (o de
Modelado) de las
Tcnicas

Repositorio de
Informacin sobre las
Tcnicas Evaluadas

Clculo de los Errores


de Prediccin

Series Predichas

Tcnicas de
Prediccin (o
Modelado)

Evaluacin de las
Tcnicas con el
Conjunto de Series de
Tiempo

Identificacin de
las Series
Predichas por
cada Tcnica

Series no Predichas

Figura 12-1: Diagrama de las metodologas experimentales desarrolladas para el estudio sobre
la predictibilidad de series de tiempo
272

como la expansin del error de cada modelo, la dificultad de prediccin de las series de tiempo
y la eficiencia de los modelos para prediccin y modelado de conjuntos de series de tiempo.
La medicin de la predictibilidad de series de tiempo gener diversos resultados producto
de su anlisis experimental. La predictibilidad es no lineal con respecto al comportamiento
dinmico de las series de tiempo: peridico, cuasi peridico, catico, complejo y estocstico. La
predictibilidad de una serie es independiente del xito de un modelo o modelos para predecir o
modelar dicha serie, el modelo ad hoc para una serie de tiempo puede existir sin embargo no hay
la seguridad de poder encontrarlo en el espacio de soluciones, lo que esta mtrica proporciona
es un valor que permite comparar la predictibilidad entre series de tiempo de orgenes diversos.
Al utilizar diferentes tcnicas de anlisis multivariado se encontr que: Las series de tiempo
se agrupan en tres grandes conjuntos de acuerdo a la magnitud de su predictibilidad (baja,
media y alta) y dentro de esos conjuntos existe una jerarqua de similitud entre las series de
tiempo.
La predictibilidad presenta una relacin con la estructura de las series de tiempo, esta
relacin se observ utilizando diferentes formas de representacin de las series de tiempo, en
particular el mapa de recurrencia (VRA) hizo posible observar e identificar patrones de estructura bsicos relacionados con diferentes conjuntos de series de tiempo, las series en dichos
conjuntos, se agruparon en base a la similitud de sus parmetros dinmicos con los que se calcula su predictibilidad. Dado que el mapa de recurrencia muestra la relacin espacial-temporal
entre los valores de una serie de tiempo, el mapa muestra en forma visual la dinmica de la
estructura de la serie. Entonces, los patrones identificados corresponden a dinmicas bsicas
las cuales estn presentes en series de tiempo de diferente origen.
Al estudiar la relacin entre los modelos de prediccin y de modelado con respecto a los
parmetros dinmicos con los que obtiene la predictibilidad, no se encontr un patrn o patrones
comunes de respuesta de los modelos con respecto a los parmetros, cada modelo responde en
forma particular a los diferentes parmetros, lo que indica que se adaptan a la dinmica de las
series de tiempo de forma diferente, lo cual es de esperarse dada la arquitectura particular de
cada modelo. Al considerar la forma en que responden globalmente al conjunto de parmetros
se encontr que en el caso de la prediccin cada modelo responde en forma diferente, pero en
el caso del modelado, los modelos con mayor capacidad de modelar series de tiempo presentan

273

una respuesta global similar a los parmetros de las series de tiempo.


Por ltimo, dado que no existen modelos de prediccin capaces de adaptarse a toda la riqueza
de dinmicas presentes en las series de tiempo (modelos universales), como lo corroboran los
resultados experimentales del presente trabajo, para mejorar la prediccin de las series de
tiempo se desarrollaron y evaluaron con xito, dos tcnicas de combinacin de modelos de
prediccin: GABoost y CombFEC, los cuales aplican ideas sobre el aprendizaje usadas en el
rea de Aprendizaje de Mquina, para la optimizacin de la combinacin de los modelos de
prediccin.
Para finalizar, se espera que el conjunto de resultados obtenidos en esta tesis, contribuya
a la formacin de una base de conocimiento experimental que ayude a una mejor comprensin
del problema de la prediccin de series de tiempo.

12.2

Lneas de Trabajo Futuro

A continuacin se presentan un conjunto de posibles lneas de trabajo futuro derivadas de esta


tesis. Estas lneas de trabajo futuro se presentan ordenadas, de tal forma que cada una de ellas
apoya a la siguiente para su desarrollo con xito.
Automatizar las metodologas experimentales utilizadas en este trabajo de tesis para
mejorar la eficacia en el clculo de la predictibilidad de series de tiempo.
Ampliar la base de conocimiento sobre las series de tiempo. Con el anlisis de series
de tiempo adicionales y el incremento de la base de datos disponibles, se pueden utilizar
otras tcnicas de extraccin de conocimiento para obtener nueva informacin experimental
sobre la predictibilidad.
Mejorar la mtrica de predictibilidad, investigar el uso de nuevos parmetros que ca
racterizan a las series de tiempo y mejorar la eficiencia de la mtrica para cuantificar la
predictibilidad de las series de tiempo explorando nuevas formas funcionales de la misma.
Ampliar la clasificacin de estructuras de mapas de recurrencia mediante el anlisis de una
mayor cantidad de series de tiempo y profundizar en el estudio de la relacin estructurapredictibilidad de series de tiempo.
274

Estudiar otras formas de representacin de series de tiempo por ejemplo: la descomposicin emprica de modos [190, 191], y su posible utilidad en la caracterizacin de la
predictibilidad de series de tiempo.
Ampliar el conjunto de tcnicas de prediccin evaluadas para extender el alcance del
estudio sobre los modelos de prediccin y su relacin con los parmetros que caracterizan
a las series de tiempo.
Estudiar el proceso de la combinacin de diferentes modelos de prediccin para tratar de
deducir reglas empricas para la combinacin de los mismos.

275

Captulo 13

Apndices
13.1

Trabajos Derivados de la Tesis (Artculos, Ponencias, Posters,


Seminarios)

13.1.1

Listado de Artculos, Ponencias y Posters

1 Ttulo: Reduccin de Ruido y Clculo de la Dimensin de Informacin en Series de


Tiempo.
Autores: E. Bautista-Thompson, A. Snchez-Fernndez, E. Gutirrez-Arias y
J. Figueroa-Nazuno.
Presentado en: XLIV Congreso Nacional de Fsica, Morelia, Michoacn, del 15 al 19 de
Octubre del 2001.
Resumen publicado en: Memorias del XLIV Congreso Nacional de Fsica, N. R. Silva
Gonzlez (Editor), Sociedad Mexicana de Fsica, 2001.
Resumen: El anlisis de datos experimentales requiere, en la mayora de los casos, consi
derar la influencia del ruido sobre la capacidad para analizar la informacin generada por
el sistema. En particular, en la estimacin de la dimensin de informacin de un sistema
no lineal, es necesario aplicar a la serie de tiempo bajo estudio tcnicas de filtrado para
disminuir el ruido contenido en los datos. En este trabajo, se presentan los resultados
de la aplicacin a diferentes series de tiempo de un filtro no lineal para la reduccin de

276

ruido basado en proyecciones locales, as como el clculo de la dimensin de informacin


utilizando el algoritmo de masa fija.
2 Ttulo: Descubrimiento y Extraccin de Subestructuras de Bases de Datos.
Autores: E. Gutirrez-Arias, E. Bautista-Thompson y J. Figueroa-Nazuno.
Presentado en: Tercer Congreso Estudiantil de Computacin CORE 02, Mxico, D. F.
del 13 al 14 de Marzo del 2002.
Artculo publicado en: Memorias del Tercer Congreso Estudiantil de Computacin CORE
02 (formato electrnico), Centro de Investigacin en Computacin IPN, 2002.
Resumen: Existen varios mtodos para la extraccin de relaciones de informacin no conocidas en Bases de Datos. A estos mtodos en general se les llama minado de datos (DATA
MINING). Este trabajo evala un mtodo capaz de descubrir subestructuras repetidas
en una base de datos, mejorando la habilidad para interpretar y comprimir los datos. La
idea del sistema SUBDUE es encontrar estructuras interesantes y repetitivas en Bases de
Datos, a partir de su representacin en forma de grafos etiquetados, usando el principio
de descripcin mnima. Esto es identificar subestructuras capaces de comprimir informacin por abstraccin de eventos y tambin identificar conceptualmente subestructuras de
inters que incrementen las posibles interpretaciones de los datos y tener la posibilidad
de crear modelos. La subestructura obtenida por SUBDUE representa nuevas estructuras
encontradas en las Bases de Datos y reduce la complejidad de las bases de datos por la
abstraccin de eventos de las subestructuras. En este trabajo, se presentan resultados de
la evaluacin de la capacidad de simplificacin de conocimiento de las bases de datos por
el algoritmo de SUBDUE, utilizando bases obtenidas en Internet y otras disponibles en
nuestro laboratorio.
3 Ttulo: Anlisis de Parmetros que Caracterizan la Dificultad de Prediccin en Series de
Tiempo.
Autores: E. Bautista-Thompson y J. Figueroa-Nazuno.
Presentado en: XLV Congreso Nacional de Fsica, Len, Guanajuato, del 28 de Octubre
al 1 de Noviembre del 2002.
277

Resumen publicado en: Memorias del XLV Congreso Nacional de Fsica, N. R. Silva
Gonzlez (Editor), Sociedad Mexicana de Fsica, 2002.
Resumen: Se presentan los resultados del anlisis de la relacin entre los parmetros que
caracterizan a las series de tiempo y la dificultad de diferentes tcnicas para la prediccin o
modelado de las mismas. Se identifican parmetros que en conjunto estn correlacionados
con la dificultad de las tcnicas para predecir o modelar a las series. El anlisis hace uso
de tcnicas de inteligencia artificial (Machine Learning) para la identificacin de dichas
correlaciones.
4 Ttulo: Matriz de Conocimiento sobre la Complejidad de Prediccin en Series de Tiempo.
Autores: E. Bautista-Thompson y J. Figueroa-Nazuno.
Presentado en: VII Congreso Iberoamericano en Reconocimiento de Patrones, Mxico, D.
F. del 19 al 22 de Noviembre del 2002.
Artculo publicado en: Reconocimiento de Patrones Avances y Perspectivas, J. L. Daz de
Len Santiago y C. Yez Mrquez (Editores), Centro de Investigacin en Computacin
IPN, 2002.
Resumen: Se presentan los resultados de la evaluacin de la capacidad de diferentes tcnicas para la prediccin y modelado de series de tiempo. Utilizando mapas autoorganizados
(SOM), se identificaron relaciones entre la capacidad de prediccin de las tcnicas y la
complejidad de las series de tiempo. Se construyeron clases de complejidad de las series
y clases de capacidad de prediccin de las tcnicas.
5 Ttulo: Anlisis de Patrones aplicado a Problemas de Teora de Nmeros: El Problema
de Collatz.
Autores: E. Bautista-Thompson, A. Villanueva-Becerril y J. Figueroa-Nazuno.
Presentado en: VII Congreso Iberoamericano en Reconocimiento de Patrones, Mxico, D.
F. del 19 al 22 de Noviembre del 2002.
Artculo publicado en: Reconocimiento de Patrones Avances y Perspectivas, J. L. Daz de
Len Santiago y C. Yez Mrquez (Editores), Centro de Investigacin en Computacin
IPN, 2002.
278

Resumen: El problema de teora de nmeros planteado por L. Collatz en 1937 genera


series numricas (Series de Hailstone) que presentan comportamiento complejo difcil de
caracterizar en forma analtica. Se presentan los resultados de aplicar tcnicas para el
Anlisis de Sistemas Dinmicos No Lineales, a series obtenidas a partir de nmeros enteros
aleatorios entre 1 1050 y 1 10150 , con el objetivo de identificar patrones caractersticos
en dichas series.
6 Ttulo: Evaluacin de Red Neuronal Artificial Polinomial (RNAP) para el Modelado de
Series de Tiempo.
Autores: E. Guzmn-Ramrez, E. Bautista-Thompson y J. Figueroa-Nazuno.
Presentado en: Cuarto Congreso Nacional de Computacin CORE 2003, Mxico, D. F.
del 6 al 7 de Mayo del 2003.
Artculo publicado en: Avances en la Ciencia de la Computacin en Mxico Vol. 2, A.
Gelbukh y M. Hernndez Cruz (Editores), Centro de Investigacin en Computacin IPN,
2003.
Resumen: Se presenta la evaluacin de RNAP (Red Neuronal Artificial Polinomial) para
el modelado de un conjunto de treinta series de tiempo de diferente origen. En la literatura
existen pocos trabajos reportados sobre el desempeo de tcnicas de modelado para un
conjunto amplio de series de tiempo, as como la comparacin de diferentes tcnicas de
modelado. El objetivo de este trabajo es cuantificar el desempeo de RNAP para series
con diferente ndice de Dificultad de Modelado construido a partir de tres propiedades
caractersticas: Reglas de Produccin, Exponente de Lyapunov y Entropa de Shannon.
Se comparan los resultados obtenidos con aquellos reportados en la literatura para otras
tcnicas de modelado de series de tiempo, mostrndose que la capacidad de modelado de
los algoritmos hbridos tales como RNAP es comparable con la de las mejores tcnicas
reportadas.
7 Ttulo: Caracterizacin de Series de Tiempo con Escalamiento Multidimensional.
Autores: V. Rivera-Mancera, E. Bautista-Thompson y J. Figueroa-Nazuno.
Presentado en: Cuarto Congreso Nacional de Computacin CORE 2003, Mxico, D. F.
279

del 6 al 7 de Mayo del 2003.


Artculo publicado en: Avances en la Ciencia de la Computacin en Mxico Vol. 2, A.
Gelbukh y M. Hernndez Cruz (Editores), Centro de Investigacin en Computacin IPN,
2003.
Resumen: Dentro de las tcnicas de anlisis multivariadas podemos citar el Escalamiento
Multidimensional (Multidimensional Scaling MDS). El MDS es una tcnica de interdependencia que trata de representar en un espacio geomtrico de pocas dimensiones, las
proximidades existentes entre un conjunto de objetos en base a mtricas de similitud. El
problema de identificar series de tiempo con propiedades similares que son indicativas
de su dificultad de prediccin, motivo en el presente trabajo, el aplicar la tcnica MDS
para identificar agrupaciones de series con relaciones similares en sus propiedades. Para
ello se caracterizan un conjunto de 30 series de tiempo de diferentes orgenes (natural y
artificial), a las cuales se les calcul un conjunto de propiedades representativas de origen
computacional, topolgico, estadstico, espacial, y temporal.
8 Ttulo: Boosting Technique with Evolutionary Search of Weights for the Improvement of
the Output in Time Series Prediction.
Autores: E. Bautista-Thompson y J. Figueroa-Nazuno.
Presentado en: 23rd International Symposium on Forecasting, Mrida, Yucatn, del 15 al
18 de Junio del 2003.
Resumen publicado en: Forecasting in Business, Finance and Economics in the Electronic
Era: Abstracts Book, INEGI, 2003.
Resumen: The Prediction of Time Series has limits imposed by the properties of the Series
(e. g. degree of chaos) and by the model characteristics of the Prediction Techniques.
Each Prediction Technique is able to deal with a specific set of Time Series for which the
Prediction Error is small, but for Time Series outside this specific set the Prediction Technique could generate predicted outputs with considerable error. In Time Series Prediction
in order to improve the predicted output several methodologies has been developed that
combines a group of predictors of the same nature, for example, the simple average of
Statistical Models. In a similar way in Machine Learning, Boosting Algorithms (Weighted
280

Predictor Vote) have been applied to increase the learning capability of Neural Networks
for Classification and Regression Tasks. In this work, an evolutionary approach (Genetic
Algorithm) has been developed in order to search for the weighted coecients of a combination of non linear predictors (Neural Network and Non Linear Dynamics Techniques)
that minimizes the Prediction Error (RMSE) of predicted outputs. This variant of a
boosting algorithm is evaluated for a set of Time Series from dierent origins (Economy,
Physics and Mathematics).
9 Ttulo: Prediccin de Mltiples Puntos de Series de Tiempo Utilizando Support Vector
Machines.
Autores: E. Guzmn-Ramrez, E. Bautista-Thompson y J. Figueroa-Nazuno.
Presentado en: XII Congreso Internacional de Computacin CIC 2003, Mxico, D. F. del
13 al 17 de Octubre del 2003.
Artculo Publicado en: Avances en Ciencias de la Computacin Vol. 3, J. L. Daz de Len
Santiago, G. Gonzlez Santos y J. Figueroa Nazuno (Editores), Centro de Investigacin
en Computacin IPN, 2003.
Resumen: Se presenta la evaluacin de la prediccin de mltiples puntos de series de
tiempo, mediante un corrimiento de ventana para Support Vector Machines (SVM) con
dos funciones de kernel distintas (lineal y con base radial). Para la evaluacin se utiliz un
conjunto de treinta series de diferente origen y comportamiento dinmico. Se encuentra
que la SVM posee una buena capacidad para ajustarse a las diferentes dinmicas de las
series de tiempo y presenta un buen desempeo para la prediccin de los primeros puntos
de las series utilizando la funcin de kernel radial, a pesar del proceso de expansin del
error de prediccin.
10 Ttulo: Anlisis de la Tolerancia al Ruido en el Modelado de Series de Tiempo con la Red
Neuronal RNAP.
Autores: H. Jimnez-Hernndez, E. Bautista-Thompson y J. Figueroa-Nazuno.
Presentado en: XLVI Congreso Nacional de Fsica, Mrida, Yucatn, del 27 al 31 de
Octubre del 2003.
281

Resumen Publicado en: Memorias del XLVI Congreso Nacional de Fsica, M. L. Marquina
Fbrega (Editor), Sociedad Mexicana de Fsica, 2003.
Resumen: Las Series de Tiempo son un conjunto de valores que caracterizan a un fenmeno. La discretizacin es el resultado de la medicin experimental (en el caso de fenmenos naturales) o de la generacin numrica (en el caso de un modelo analtico) de los
datos que la conforman. Es comn que se presente ruido en las mediciones experimentales
afectando de forma directa la posibilidad de modelado de las series de tiempo. El ruido
que presentan no necesariamente esta distribuido de una manera uniforme. Una manera
de disminuir el efecto del ruido es utilizar mtodos de filtrado, este proceso puede generar
perdida de informacin relevante sobre la serie de tiempo a costa de disminuir el ruido
presente en la misma. En este trabajo se presentan los resultados de la influencia de
distintos tipos de ruido y del proceso de filtrado de los mismos en modelos de series de
tiempo generadas a partir de redes neuronales con la arquitectura RNAP.
11 Ttulo: Descomposicin Emprica de Modos para el Anlisis de Series de Tiempo.
Autores: H. Jimnez-Hernndez, E. Bautista-Thompson y J. Figueroa-Nazuno.
Presentado en: Decimocuarta Reunin de Otoo de Comunicaciones, Computacin, Electrnica y Exposicin Industrial, IEEE ROC&C 2003, Acapulco, Guerrero, del 26 al 30 de
Noviembre del 2003.
Artculo Publicado en: Memorias de la Decimocuarta Reunin de Otoo de Comunicaciones, Computacin, Electrnica y Exposicin Industrial, IEEE ROC&C 2003 (formato
electrnico), IEEE Seccin Mxico, 2003.
Resumen: El anlisis de descomposicin emprica de modos es una nueva tcnica desa
rrollada por Norden E. Huang et. al., para el estudio de seales no lineales y no estacionarias. El uso del concepto de modos, es la principal diferencia con relacin a las
tcnicas derivadas del anlisis de Fourier, las cuales caracterizan de forma global a las
seales y adems requieren que estas cumplan con ser lineales y estacionarias. La capacidad de la tcnica para descomponer seales complejas en un conjunto finito de funciones
intrnsecas de modos, permite la identificacin de frecuencias instantneas a diferentes
escalas de tiempo dentro de la seal. Posibilitando no solo una caracterizacin global,
282

sino tambin local de las seales. El conjunto de funciones intrnsecas sirve adems para
estudiar las estructuras embebidas (o modos de oscilacin) dentro de la seal original, las
cuales se relacionan con la dinmica del fenmeno que la seal representa. En este trabajo, se presenta la aplicacin de esta tcnica a diferentes seales (series de tiempo) corres
pondientes a diversos fenmenos experimentales y numricos. El objetivo es mostrar la
utilidad de la tcnica para la descomposicin de una seal en sus modos de oscilacin. El
anlisis de este conjunto de modos permite el estudio de las diferentes dinmicas presentes
en el fenmeno representado por la seal original.
12 Ttulo: Prediccin de Mltiples Puntos de Series de Tiempo Utilizando Support Vector
Machines.
Autores: E. Bautista-Thompson, E. Guzmn-Ramrez y J. Figueroa-Nazuno.
Artculo Publicado en: Revista Computacin y Sistemas, enero-marzo 2004, volumen 7,
nmero 3, pginas 148-155.
Resumen: Se presenta la evaluacin de la prediccin de mltiples puntos de series de
tiempo, mediante un corrimiento de ventana para Support Vector Machines (SVM) con
dos funciones de kernel distintas (lineal y con base radial). Para la evaluacin se utiliz un
conjunto de treinta series de diferente origen y comportamiento dinmico. Se encuentra
que la SVM posee una buena capacidad para ajustarse a las diferentes dinmicas de las
series de tiempo y presenta un buen desempeo para la prediccin de los primeros puntos
de las series utilizando la funcin de kernel radial, a pesar del proceso de expansin del
error de prediccin.
13 Ttulo: Optimization of Time Series Forecasting by Combination of Models with Evolutionary Heuristic and Error-Correlation Parameters.
Autores: E. Bautista-Thompson y J. Figueroa-Nazuno.
Presentado en: Encuentro Internacional de Ciencias de la Computacin, ENC 2004, Co
lima, Colima, del 20 al 24 de Septiembre del 2004.
Artculo Publicado en: Proceedings of the Fifth Mexican International Conference on
Computer Science 2004, ENC 2004, R. Baeza-Yates, J. L. Marroquin y E. Chvez (Edi283

tores), IEEE Computer Society Press, 2004.


Resumen: Two algorithms for the optimization of time series forecasting by combination
of models are proposed and evaluated. The first named GABoost, exploits the heuristic
of genetic algorithm in order to search the optimal weights for the mixing of forecasting
models. The second named CombFEC, extracts information provided by the forecast
errors (RMSE, BE and MAE) of each model to be combined, and the correlation between
each model and the forecasted time series, in order to build an Error-Correlation Function
(FEC) used to calculate the weights with a SOFTMAX function. The results show that
both algorithms are able to improve the forecasting of dierent time series, reducing the
forecast error (RMSE) and increasing the modeling capability expressed by a reduction
of the Bias Error (BE).
14 Ttulo: Classification of Time Series Based on Their Inner Structures.
Autores: H. Sols-Estrella, E. Bautista-Thompson y J. Figueroa-Nazuno.
Presentado en: XIII Congreso Internacional de Computacin CIC 2004, Mxico, D. F.
del 13 al 15 de Octubre del 2004.
Artculo Publicado en: Advances in: Artificial Intelligence, Computing Science and Computer Engineering, Research on Computing Science Vol. 10, J. Figueroa-Nazuno, A.
Gelbukh-Khan, C. Yez-Mrquez y O. Camacho-Nieto (Editores), Centro de Investigacin en Computacin IPN, 2004.
Resumen: There are techniques such as the Singular-Spectrum Analysis (SSA) which
jointly with Principal Component Analysis (PCA), help us to analyze the underlying
structures of a time series and condense them for their study. Using such information with
the Multidimensional Scaling (MDS), we can find a representation that allows locating
hidden regularities and thus classify the analyzed data. In this paper we present the study
of time series of diverse nature using the three abovementioned techniques and show how
they group in a bidimensional plane according to similar patterns within their components
disregarding the dynamics of the series.
15 Ttulo: Identification of Structure-Predictability Relations in Time Series with Pattern
Recognition Techniques.
284

Autores: E. Bautista-Thompson y J. Figueroa-Nazuno.


Presentado en: XIII Congreso Internacional de Computacin CIC 2004, Mxico, D. F.
del 13 al 15 de Octubre del 2004.
Artculo Publicado en: Advances in: Artificial Intelligence, Computing Science and Computer Engineering, Research on Computing Science Vol. 10, J. Figueroa-Nazuno, A.
Gelbukh-Khan, C. Yez-Mrquez y O. Camacho-Nieto (Editores), Centro de Investigacin en Computacin IPN, 2004.
Resumen: The predictability deals with the diculty that can be assigned to a time series
in order to be forecasted by a model. In this work, the identification of relations between
predictability and time series structure is done by means of two pattern recognition techniques: Multidimensional Scaling and Recurrence Plots. The first technique allows the
clustering of the time series by their predictability degree that is associated with a set of
time series parameters, the second technique allows the visualization of the spatial and
temporal dynamics hidden in the structure of the time series. The results shows that the
predictability is related with the structural features of the time series through a set of
basic structural patterns, these patterns show dierent kinds of associations with groups
of time series that possess a similar predictability.
16 Ttulo: Relacin entre las Estructuras Subyacentes y el Comportamiento Dinmico de las
Series de Tiempo.
Autores: H. Sols-Estrella, E. Bautista-Thompson y J. Figueroa-Nazuno.
Presentado en: XLVII Congreso Nacional de Fsica, Hermosillo, Sonora, del 25 al 29 de
Octubre del 2004.
Resumen Publicado en: Memorias del XLVII Congreso Nacional de Fsica, M. L. Marquina Fbrega (Editor), Sociedad Mexicana de Fsica, 2004.
Resumen: Existen tcnicas como el anlisis espectral singular (SSA) que junto con el
anlisis de componentes principales (PCA) permiten la extraccin y anlisis de estructuras
independientes de una serie de tiempo; y mediante el uso del escalamiento multidimensional (MDS), que facilita la visualizacin de relaciones entre pares de objetos se pueden

285

interpretar las relaciones entre las estructuras subyacentes. En este trabajo, se presentan resultados numricos utilizando las tcnicas anteriores, que muestran cmo series de
tiempo de diversos fenmenos, se agrupan en base a la similitud de sus estructuras bsicas, observndose una relacin que es no lineal entre el agrupamiento y el comportamiento
dinmico de las series de tiempo.
Las Figuras 13-1 y 13-2, presentan un cronograma de los trabajos desarrollados a la fecha
y la temtica de cada uno de ellos.

13.1.2

Seminarios por Invitacin

Ttulo: Modelado de Oleaje y Computacin Social.


Presentada en: Laboratorio de Computacin Paralela y Distribuida CIC-IPN a profesores
de la Universidad Nacional de Ingeniera de Nicaragua, Mxico D. F., 15 de Noviembre del
2002.
Ttulo: Matriz de Conocimiento para Prediccin de Series de Tiempo.
Presentada en: Centro de Investigaciones en Fijacin de Nitrgeno UNAM durante el se
minario conjunto entre el CIC-IPN y el CIFN-UNAM. Cuernavaca, Morelos, 11 de Febrero del
2003.
Ttulo: El Problema de la Predictibilidad en las Series de Tiempo.
Presentada en: Centro de Investigacin en Computacin IPN en el seminario de investigacin
del ciclo de conferencias: Estudiantes de Doctorado. Mxico D. F., 3 de Octubre del 2003.

13.2

Gua sobre las Metodologas Experimentales para la Ca


racterizacin de las Series de Tiempo y de las Tcnicas de
Prediccin y Modelado

En el presente apndice se presenta una descripcin paso a paso de las metodologas usadas para
caracterizar las series de tiempo y las tcnicas de prediccin y modelado. Como un ejemplo se
286

2001B

Estudio sobre el
filtrado no lineal en
series de tiempo con
presencia de ruido.

2002A

Evaluacin de
tcnicas de extraccin
de patrones.

2002B

Construccin de clases e
identificacin de
relaciones entre los
parmetros de las series
de tiempo y su
predictibilidad usando
Mapas Autoorganizados.

2002B

2002B

2003A

2003A

2003A

Desarrollo de Mtrica de
Complejidad de Prediccin de
Series y Coeficiente de
Capacidad de Prediccin y
Modelado de Tcnicas.
Aplicacin de mtodos de
anlisis de series de
tiempo a otros tipos de
secuencias de datos para
la identificacin de
patrones de
comportamiento.
Evaluacin de tcnica de
modelado y desarrollo de
una mtrica de modelado
de series de tiempo.

Uso de tcnicas de anlisis


multivariado para estudiar la
similitud entre series de tiempo
en base a los parmetros que
las caracterizan.
Desarrollo de tcnica de
combinacin de predictores en
base a una analoga de
boosting y el uso de algoritmo
gentico para la mejora de la
prediccin en series de
tiempo.

Reduccin de Ruido
y Clculo de la
Dimensin de
Informacin en
Series de Tiempo
Descubrimiento y
Extraccin de
Subestructuras de Bases
de Datos

Anlisis de
Parmetros que
Caracterizan la
Dificultad de
Prediccin en
Series de Tiempo

Matriz de
Conocimiento sobre la
Complejidad de
Prediccin en Series
de Tiempo.

Anlisis de Patrones
aplicado a Problemas
de Teora de Nmeros:
El Problema de Collatz

Evaluacin de Red
Neuronal Artificial
Polinomial (RNAP) para el
Modelado de Series de
Tiempo
Caracterizacin de
Series de Tiempo
con Escalamiento
Multidimensional

Boosting Technique with


Evolutionary Search of
Weights for the
Improvement of the
Output in Time Series
Prediction

Figura 13-1: Cronograma de la publicacin de resultados derivados de la tesis doctoral


287

Continuacin

2003B

Modificacin y evaluacin de
tcnica de prediccin
basada en SVM para
realizar predicciones de
mltiples puntos en series
de tiempo.

Prediccin de
Mltiples Puntos
de Series de
Tiempo Utilizando
Support Vector
Machines

2003B

Estudio de la tolerancia
al ruido en modelos de
series de tiempo.

Anlisis de la
Tolerancia al Ruido en
el Modelado de Series
de Tiempo con la Red
Neuronal RNAP

2003B

Estudio de diferentes formas


de representacin de las
series de tiempo.

Descomposicin
Emprica de Modos
para el Anlisis de
Series de Tiempo

2004B

Desarrollo de tcnica de
combinacin de predictores
usando informacin sobre la
correlacin de los predictores con
las series de tiempo y los
diferentes errores de prediccin,
evaluacin y comparacin en
conjunto con la tcnica GABoost.

Optimization of Time
Series Forecasting by
Combination of Models
with Evolutionary
Heuristic and Error
Correlation Parameters

2004B

Estudio de la forma en que se


agrupan las series de tiempo
en base a la informacin
obtenida de la descomposicin
de las mismas en sus
estructuras internas.

Classification of Time
Series Based on Their
Inner Structures

2004B

Estudio de las relaciones entre


la predictibilidad de las series
de tiempo y las estructuras
generadas por el
comportamiento dinmico de
las mismas.

Identification of
Structure-Predictability
Relations with Pattern
Recognition
Techniques

2004B

Estudio de la forma en que se


agrupan las series de tiempo
en base a sus estructuras
internas y su relacin con la
dinmica observable de las
series de tiempo.

Relacin entre las


Estructuras
Subyacentes y el
Comportamiento
Dinmico de las Series
de Tiempo

Figura 13-2: Cronograma de la publicacin de resultados derivados de la tesis doctoral

288

desarrolla la caracterizacin de la predictibilidad para dos series de tiempo, que no pertenecen


al conjunto original de series de tiempo estudiado en la presente tesis, para ilustrar el proceso
de agregar nueva informacin a la base de conocimiento sobre la predictibilidad de series de
tiempo.

13.2.1

Caracterizacin de la Predictibilidad de Series de Tiempo

Los pasos para la caracterizacin de la predictibilidad de las series de tiempo son los siguientes:
1 Seleccionar las series de tiempo que se desean estudiar.
2 Estandarizar el nmero de datos que posee cada serie de tiempo por medio de su preprocesamiento, para obtener un conjunto de series con la misma cantidad de datos.
3 Calcular los siguientes parmetros para cada una de las series de tiempo: Exponente
de Lyapunov, Dimensin de Correlacin, Dimensin de Capacidad, Dimensin Fractal,
Dimensin Embebida, Entropa Espacio Temporal, Recurrencia, Determinismo, Entropa
de Informacin de Shannon, Informacin Mutua Promedio, Complejidad Relativa LempelZiv, Nmero de Reglas de Produccin, Exponente de Hurst y Auto correlacin.
4 Aplicar la mtrica de Coeficiente de Dificultad de Prediccin: CDP2 para calcular la
predictibilidad de las series de tiempo bajo estudio, donde la expresin de la mtrica
como se describi en la seccin 9.2 es:
CDP2 = Log10

EL + DCA + DCO + EET + RP + DE + DF + CRLZ


EH + ES + DET + REC + IMP + ACO

+ 1 (13.1)

El valor de la predictibilidad se calcula a partir del inverso de la expresin anterior:


P redictibilidad =

1
CDP2

(13.2)

5 Una vez que se ha calculado la predictibilidad se pueden aplicar diferentes tcnicas de


anlisis multivariado tanto las utilizadas en la presente tesis como otras ms para: comparar, discriminar, clasificar, jerarquizar, etc.; los datos obtenidos y realizar un anlisis
sobre la predictibilidad para el conjunto de series bajo estudio.
289

Series de Tiempo

Clculo de
Parmetros de Series
de Tiempo

Preprocesamiento de
las Series de Tiempo

Clculo de la
Predictibilidad de
Series de Tiempo

Repositorio de
Informacin sobre las
Series de Tiempo

Anlisis de la
Predictibilidad con
Tcnicas
Multivariadas

Figura 13-3: Diagrama de la metodologa para caracterizar la predictibilidad de series de tiempo


La Figura 13-3, presenta un diagrama de la metodologa para la caracterizacin de la predictibilidad de las series de tiempo.
Como un ejemplo de la aplicacin de la metodologa, se calculo la predictibilidad de dos
series de tiempo adicionales que no pertenecen al conjunto de series usadas en la presente tesis:
Doublesine y SPECTA. La serie Doublesine que corresponde a una funcin de tipo seno modificada presenta un comportamiento dinmico de tipo peridico, mientras que la serie SPECTA
que es el resultado de la codificacin con nmeros enteros del 1 al 20 de una cadena de aminocidos (un valor entero por cada aminocido diferente) de la protena alpha-spectrin, presenta
un comportamiento dinmico de tipo complejo. Las Figuras 13-4 y 13-5 muestran las grficas
de dichas series de tiempo.
El conjunto de parmetros dinmicos correspondientes a las dos series de tiempo se muestra en la tabla de la Figura 13-6, los parmetros calculados se incluyeron en un anlisis con
escalamiento multidimensional (MDS) para identificar a que agrupamiento corresponden cada
una de las dos series en relacin con los agrupamientos de series previamente identificados (ver
seccin 10.3).
290

2.0
1.5
1.0

x (n)

0.5
0.0
-0.5
-1.0
-1.5
-2.0
0

200

400

600

800

1000

Figura 13-4: Serie de Tiempo DoubleSine

20

x (n)

15

10

0
0

200

400

600

800

Figura 13-5: Serie de Tiempo SPECTA

291

1000

Serie de Tiempo

Doublesine

SPECTA

Comportamiento
Dinmico

peridica

compleja

Correlacin de
Pearson
(Autocorrelacin)

0.9739691

0.04924266

0.6143159

0.009643

0.015625

0.03125

1.027

0.839

Dimensin de
Correlacin

0.871

3.506

Dimensin de
Capacidad

0.604

2.619

Dimension Fractal

0.84

0.8

Dimensin
Embebida

Entropa Espacio
Temporal (%)

80

Recurrencia (%)

9.911

3.452

Determinismo (%)

47.743

Entropa de
Informacin
(Shannon)

1.653

Informacin Mutua
Promedio

0.1295552

1.056373

18

79

Exponente de
Hurst
Frecuencia
Dominante
Exponente de
Lyapunov

Complejidad
Relativa LZ
Nmero de
Reglas de
Produccin

Figura 13-6: Tabla de los parmetros dinmicos de las series de tiempo

292

La Figura 13-7 presenta el mapa de escalamiento multidimensional construido, se observa


que la serie Doublesine corresponde al agrupamiento 5 de series de tiempo el valor de su predictibilidad es 1.54 y el patrn bsico de mapa de recurrencia asociado con este agrupamiento
es el P5, la Figura 13-8 muestra el patrn bsico P5 y el mapa de recurrencia correspondiente
a la serie Doublesine. Con respecto a la serie SPECTA el valor de su predictibilidad es 0.40,
dicha serie corresponde al agrupamiento 1 cuyas series de tiempo poseen los patrones bsicos
P1a y P1b, la Figura 13-9 muestra los patrones P1a y P1b as como el mapa de recurrencia de
la serie SPECTA.

13.2.2

Evaluacin de la Capacidad de Tcnicas para la Prediccin o el Mo


delado

La evaluacin de una tcnica de prediccin o modelado, consta de los siguientes pasos:


1 Se selecciona un conjunto de series de tiempo como conjunto de evaluacin.
2 Se preprocesa a las series de tiempo normalizando los datos de cada una de ellas a la
misma escala, por ejemplo que el valor mximo de los datos este en la escala de 101 .
3 Se define el nmero de datos usados para entrenamiento, por ejemplo los primeros 900
datos de cada serie de tiempo, y el nmero de datos ha predecir (conjunto de datos de
prueba), por ejemplo los siguientes 50 datos para cada serie de tiempo.
4 Se define un nmero mximo de experimentos para intentar la prediccin de cada serie
por parte de las tcnicas evaluadas.
5 Se seleccionan los tipos de errores a ser usados en la evaluacin del conjunto de tcnicas
de prediccin, en el presente trabajo las medidas de error fueron: RMSE, BE, MAE. Y
para el caso de la evaluacin global de dichos errores para cada tcnica de prediccin se

usaron los siguientes promedios sobre las medidas anteriores: hRMSEj ik , hBEj ik ,

hMAEj ik .

6 El procedimiento para asignar un xito o un fracaso en la prediccin de una serie de


tiempo es el siguiente: se grafican los datos del conjunto de prueba de la serie original

293

Figura 13-7: Mapa de escalamiento multidimensional de las series de tiempo

294

1.0

1.5

-2.0

-1.5

-1.0

-.5

0.0

.5

-2

ikeda

(0.83)

kobe

elnio

Agrupamiento 2

-1

(0.43)

Anlisis MDS

(0.85)

tent

(1.23)

hivdna

(0.88)

qp3

(0.85)

(1.03)

brownian

vandpol

(1.56)

humandna

Agrupamiento 5

(1.17)

(1.79)

dowjones

Agrupamiento 4
rossler qp2 (1.26)

(1.65)
(1.54)
dsine

(1.86) sine

(1.06)

lorenz

lovaina (0.83)
laser

(0.77)

Dimensin 1

d1

(0.88)

a1

Agrupamiento 3

Modelo de Distancias Euclidiano

star
(0.56)
(0.68)
(0.43) asciitxt (0.51)
(0.64)
(0.40)
primos (0.48)
mg
specta
eeg (0.44)
cantor whiten (0.32)
(0.66)
(0.37)
logistic (0.53)
henon (0.60)

plasma

sp500

Agrupamiento 1

Dimensin 2

Figura 13-8: Comparacin del mapa de recurrencia de la serie Doublesine con el patrn bsico
asociado

Figura 13-9: Comparacin del mapa de recurrencia de la serie SPECTA con los patrones bsicos
asociados

295

y del resultado de la prediccin, se comparan ambas grficas para evaluar si los datos
predichos reproducen los originales sujetos a la siguiente regla: si la serie predicha sigue
la tendencia (trend) de la serie original, as como su amplitud, an cuando a una escala de
mayor resolucin no exista una mejor prediccin, se considera que la prediccin es buena.
7 Ahora se procede a la evaluacin de cada tcnica de prediccin usando el conjunto de
series de tiempo.
8 Una vez identificadas las predicciones exitosas para cada tcnica, se calculan los errores
de la prediccin mencionados en el paso 5.
9 Como complemento se calcula la predictibilidad de cada una de las series de tiempo usadas
en la evaluacin de las tcnicas de prediccin
10 Para finalmente determinar la capacidad de prediccin de cada tcnica usando la expresin
(ver la seccin 9.4 para una descripcin ms detallada de sus trminos):
CCAP =

SCDP2 EP
P RMSE + P MAE

(13.3)

La Figura 13-10, presenta un diagrama de la metodologa para la evaluacin de la capacidad


de las tcnicas para la prediccin o el modelado.

13.3

Anlisis de Gramticas (Pendiente de la Curva como una


Medida de Predictibilidad)

Otra forma de evaluar la predictibilidad de las series de tiempo es utilizando la pendiente de


la curva correspondiente a la evolucin de las reglas de produccin que expresan en forma
simblica a una serie de tiempo, como informacin suplementaria se presenta en este apndice
resultados del calculo de esta forma de medir la predictibilidad. Esta mtodo es reportado por
R. Menchaca-Mndez et. al. [116, 117], la Figura 13-11 muestra ejemplos de las curvas de
evolucin de las reglas de produccin correspondientes a cinco series de tiempo estudiadas en
la presente tesis.

296

Series de
Tiempo

Preprocesamiento de
las Series de Tiempo

Tcnicas de
Prediccin (o
Modelado)

Evaluacin de
las Tcnicas
con el Conjunto
de Series de
Tiempo

Identificacin de
las Series
Predichas por
cada Tcnica

Series Predichas

Clculo de los
Errores de
Prediccin

Series no Predichas

Repositorio de
Informacin
sobre las
Tcnicas
Evaluadas

Clculo de la
Predictibilidad
de Series de
Tiempo

Clculo de la
Capacidad de
Prediccin (o
de Modelado)
de las Tcnicas

Figura 13-10: Diagrama de la metodologa para calcular la capacidad de tcnicas para la prediccin o el modelado

297

Nmero de Producciones

90
85
80
75
70
65
60
55
50
45
40
35
30
25
20
15
10
5
0
-5
-10

El nio
Qperiodic3
White Noise
Lorenz

Sine

200

400

600

800

1000

Tiempo

Figura 13-11: Ejemplos de las curvas de evolucin de las reglas de produccin para las series de
tiempo

298

Nmero de Producciones

Sine
Ajuste lineal de la curva

90
85
80
75
70
65
60
55
50
45
40
35
30
25
20
15
10
5
0
-5
-10
0

200

400

600

800

1000

Tiempo

Figura 13-12: Ejemplo del clculo de la regresin lineal sobre la curva para la serie de tiempo
Sine
La Figura 13-12, muestra un ejemplo del clculo mediante regresin lineal de la pendiente
de la curva para la serie de tiempo Sine y la Figura 13-13 muestra el conjunto de parmetros
calculados (A ordenada al origen y B pendiente de la curva).
En la Figura 13-14, se presenta la tabla con los valores de la pendiente de la curva para cada
serie de tiempo usada en la tesis, junto con los datos de las variables de control: nmero de
predicciones para cada serie de tiempo (NumPred) y nmero de modelaciones para cada serie
de tiempo (NumMod).
La correlacin de la pendiente de la curva respecto a las variables de control Numpred y
NumMod se presenta en la tabla de la Figura 13-15, su correlacin con respecto a la prediccin
de las series de tiempo representada por la variable NumPred es menor a la correspondiente
a la mtrica CDP2 desarrollada en la presente tesis, lo que nuevamente corrobora que utilizar
un solo parmetro para caracterizar la predictibilidad de las series de tiempo, aunque puede ser
til en caracterizar una faceta de la predictibilidad de las series de tiempo (en este caso de tipo

299

Figura 13-13: Resultado del clculo con regresin lineal para la serie de tiempo Sine
complejidad computacional mediante el anlisis gramticas), no proporciona la informacin
suficiente para cuantificarla en forma completa.

13.4

Visualizando los Parmetros Dinmicos de las Series de


Tiempo

La importancia de multiplicar la informacin sobre la dinmica de las series de tiempo, al


utilizar un conjunto de parmetros que caracterizan a las series de tiempo desde diferentes
puntos de vista, se puede visualizar mediante grficas de tipo radial, en las cuales cada uno
de los parmetros corresponde a un radio de la grfica. Para que el comportamiento de los
parmetros reflejara la misma tendencia: una mayor magnitud del parmetro corresponde a
una mayor contribucin a la predictibilidad de las series de tiempo, en el caso de los parmetros
cuyo comportamiento indica una menor predictibilidad a una mayor magnitud como son: el
Exponente de Lyapunov, la Dimensin de Correlacin, la Dimensin de Capacidad, la Dimensin Fractal, la Dimensin Embebida, la Entropa Espacio Temporal, la Complejidad Relativa
LZ y el Nmero de Reglas de Produccin; se utilizo su valor inverso para construir las grficas.
Adems, todos los parmetros fueron normalizados para que su valor mximo sea uno. Cada
grfica que corresponde a una serie de tiempo presenta los catorce parmetros utilizados en el
clculo de la mtrica de predictibilidad CDP2 , los valores de los parmetros estn conectados
300

Serie de
Tiempo
Sine
Vanderpol
Qperiodic2
Qperiodic3
MackeyGlass
Logistic
Lorenz
Rossler
Ikeda
Henon
Cantor
Tent
A1
D1
Laser
Dow Jones
Kobe
EEG
ASCIITXT
El nio
HIV DNA
Human DNA
Lovaina
Plasma
Primos
SP500
Star
Brownian
Motion
White Noise

Nmero de
Pendiente de Nmero de
la Curva de Predicciones Modelaciones
por Serie
por Serie
Reglas de
(NumMod)
Produccin (NumPred)
0.01405
0.01983
0.05915
0.07047

10
8
4
9

9
9
7
6

0.07186

0.05245
0.05752
0.06375
0.06334
0.06486
0.07048
0.00577
0.07931
0.0871
0.05892
0.05899
0.07552
0.07241
0.07423
0.07525
0.00399
0.03991
0.07015
0.08136
0.06748
0.07669
0.08624

4
6
6
1
5
0
8
8
0
8
5
3
2
0
3
0
6
3
2
0
0
1

6
7
7
2
4
0
6
7
5
7
6
4
4
0
4
0
5
6
3
0
0
6

0.07738

0.06791

Figura 13-14: Tabla de valores de la pendiente de la curva para el conjunto de series de tiempo

301

Correlacin
Nmero de
Nmero de
Predicciones Modelaciones
por Series
por Serie
(NumPred)
(NumMod)
Pendiente de
la Curva de
Reglas de
Produccin

-0.445

-0.197

Figura 13-15: Tabla de la correlacin entre la pendiente de la curva y las variables de control
NumPred y NumMod
entre s por lneas lo cul forma una figura geomtrica caracterstica. La Figura 13-16, muestra
la codificacin usada en las grficas radiales para identificar a cada uno de los parmetros, las
Figuras 13-17 a 13-21, presentan las grficas correspondientes al conjunto de series de tiempo.
La grfica de tipo radial proporciona una visualizacin de las diferentes facetas de la
dinmica de las series de tiempo, y muestra como cada parmetro proporciona diferente informacin sobre la misma, se observa que el peso de la informacin proporcionada por cada
parmetro es diferente para cada serie de tiempo, y cada serie adems posee una figura geo
mtrica caracterstica sobre su dinmica, las series de tiempo cuya predictibilidad es mayor
presentan una figura geomtrica ms abierta, mientras que las series de tiempo con una predictibilidad baja presentan una figura geomtrica ms cerrada (por ejemplo, EEG, Ikeda, SP500,
Cantor, ASCIITXT, Plasma, Primos y White Noise), las grficas ilustran la naturaleza multidimensional de la predictibilidad de las series de tiempo, y la riqueza de informacin que puede
ser extrada de una serie de tiempo.

13.5

Sobre la No Universalidad de los Modelos de Prediccin

La presente tesis corrobora en base a los resultados experimentales encontrados la afirmacin


sobre la no universalidad de los modelos de prediccin, es decir no hay tcnica de prediccin
capaz de predecir todo el continuo de comportamientos dinmicos representados por diferentes
series de tiempo. En forma independiente O. Herrera-Alcntara et. al. [192, 193], reportan la

302

Parmetro

Nmero asociado

Correlacin de Pearson

Exponente de Hurst

Exponente de Lyapunov

Dimensin de Correlacin

Dimensin de Capacidad

Dimension Fractal

Dimensin Embebida

Entropa Espacio Temporal (%)

Recurrencia (%)

Determinismo (%)

10

Entropa de Informacin (Shannon)

11

Informacin Mutua Promedio

12

Complejidad Relativa LZ

13

Nmero de Reglas de Produccin

14

Figura 13-16: Tabla de simbologa de los parmetros en las grficas radiales


confirmacin de esta afirmacin por lo que se presenta en este apndice informacin sobre dicho
estudio, se realizaron una serie de 1045 experimentos en los cuales se investigo en base a un
anlisis detallado de los parmetros de cada tcnica de prediccin, la habilidad de un conjunto
de tcnicas (diferentes a las evaluadas en la presente tesis) para predecir al mismo conjunto
de series de tiempo estudiado en el presente trabajo. La Figura 13-22, muestra la informacin
sobre los modelos de prediccin evaluados en dicho estudio (los modelos estn etiquetados para
su fcil identificacin). Cada letra corresponde a un modelo de prediccin combinado con
variaciones de funciones y / o distancias, utilizando en el caso de la tcnica con modelos de
funciones de base radial (Radial Basis), diferentes funciones base (Multicuadrticas, Lineales,
Cbicas, Splines y Gaussianas) combinadas con diferentes medidas de distancia (Euclidiana,
Bloque Manhattan, Norma Mxima, etc.), las otras tcnicas evaluadas fueron Vecinos Cercanos
(Nearest Neighbor), Constante Localmente (Locally Constant) y Lineal Localmente (Locally
Linear).
La Figura 13-23, presenta las series de tiempo y los modelos que las predijeron, los modelos

303

Sine

Vanderpol

1
14

0.9

14

0.8

0.7

13

0.6

0.7

13

0.5

0.4

0.4
0.3

12

0.2

0.1

11

5
10

5
10

6
9

0.2

0.1

11

0.6

0.5
0.3

12

0.9

0.8

6
9

7
8

Qperiodic3

Qperiodic2

1
14

14

0.9
0.7

13

0.6
0.5

0.5

0.4

0.4
0.3

12

0.7

13

0.6

1
0.9
0.8

0.8

12

0.2

0.3

0.2
0.1

0.1

11

11

5
10

10

6
9

5
6
7

7
8

Mackey-Glass

Logistic

1
14

0.9

1
2

0.8

14

0.7

13

0.8

0.6
0.5

12

1
0.9
0.7

13

0.4

0.5

0.3

0.4

0.2

0.3

12

0.1

0.6

0.2
0.1

11

5
10

11

6
9

5
10

6
9

7
8

Figura 13-17: Grficas radiales de los parmetros de las series de tiempo: Sine, Vanderpol,
Qperiodic2, Qperiodic3, Mackey-Glass y Logistic

304

Rossler

Lorenz

1
14

14

0.9
0.7

0.5

0.4

0.4
0.3

12

0.2

0.1

5
10

11

6
9

0.2

0.1

11

0.6

0.5
0.3

12

0.7

13

0.6

0.8

0.8

13

1
0.9

5
10

6
9

Ikeda

Henon

1
14

1
2

0.9

14

0.8

0.6

0.7

13

0.5

0.5
0.4

0.3

0.2

0.3

12

0.1

0.1
0

11

5
10

11

6
9

5
10

6
9

Cantor

Tent
1

1
1

14

0.9
0.7

0.7

13

0.6

0.5

0.4

0.4
0.3

12

0.2

0.1

11

5
10

5
10

6
9

0.2

0.1

11

0.6

0.5
0.3

12

1
0.9
0.8

0.8

13

0.2

14

0.6

0.4

12

0.8

0.7

13

1
0.9

6
9

7
8

Figura 13-18: Grficas radiales de los parmetros de las series de tiempo: Lorenz, Rossler,
Ikeda, Henon, Cantor y Tent

305

A1

D1

14

0.9

14

0.8

0.6

0.7

13

0.5

0.4

0.4

0.2

0.3

12

0.1

0.1
0

11

5
10

11

6
9

5
10

6
9
8

Laser

Dow Jones

1
14

0.9
0.7

0.5
0.4

0.4
0.3

0.3

12

0.2

0.1
0

11

11

5
10
9

5
10

6
9

7
8

Kobe

EEG
1

1
1

14

0.9
0.7

0.7

13

0.6

1
0.9
0.8

0.8

0.6
0.5

0.5

0.4

0.4
0.3

12

0.2

0.1

13

0.6

0.5

14

0.7

13

0.6

1
0.9
0.8

0.8

12

1
13

0.2

14

0.6

0.5
0.3

12

0.8

0.7

13

1
0.9

12

0.2

0.3

0.2
0.1

0.1

11

11

5
10

10

6
9

5
6
9

7
8

Figura 13-19: Grficas radiales de los parmetros de las series de tiempo: A1, D1, Laser, Dow
Jones, Kobe y EEG

306

El nio

ASCIITXT

1
14

14

0.9

0.8

0.8
0.7

13
12

0.7

13

0.6

0.5

0.4

0.4

0.3

0.3

12

0.2

0.1

11

5
10

6
9

0.2

0.1

11

0.6

0.5

10

0.9

6
9

7
8

Human DNA

HIV DNA

1
14

14

0.9

13

0.5

0.4

0.4
0.3

12

0.2

0.1

11

5
10

5
10

6
9

6
9

Lovaina

Plasma

1
14

1
2

0.9

14

0.8

0.6

0.7

13

0.5

0.4

0.4

0.2

0.3

12

0.1

0.6

0.5
0.3

12

1
0.9
0.8

0.7

13

0.2

0.1

11

0.6

0.5
0.3

12

0.7

13

0.6

0.8

0.8
0.7

1
0.9

0.2
0.1

11

5
10

11

6
9

5
10

6
9

7
8

Figura 13-20: Grficas radiales de los parmetros de las series de tiempo: ASCIITXT, El nio,
HIV DNA, Human DNA, Lovaina y Plasma

307

SP500

Primos

1
14

14

0.9
0.8

13

0.6

0.5
0.4

0.4
0.3

0.3

12

0.2

0.1

11

5
10

10

6
9

Star

Brownian Motion

0.9

1
14

0.8

0.5

0.7

13

0.6

1
0.9
0.8

0.7

0.6
0.5

0.4

0.4

0.3

12

1
13

0.2

0.1

11

14

0.6

0.5

12

0.8
0.7

0.7

13

0.9

0.3

12

0.2

0.2
0.1

0.1

11

11

5
10

10

6
9

5
6
9

7
8

7
8

White Noise
1
14

0.9
0.8
0.7

13

0.6
0.5
0.4
0.3

12

0.2
0.1
0

11

5
10

6
9

7
8

Figura 13-21: Grficas radiales de los parmetros de las series de tiempo: Primos, SP500, Star,
Brownian Motion, White Noise

308

Combinaciones de Modelos de Prediccin


Radial Basis
Multiquadric
Euclidean A

Linear
Euclidean F

Cubic

Thin Plate Spline


Euclidean P

Euclidean U

Manhattan Block B Manhattan Block G Manhattan Block L

Manhattan Block Q

Manhattan Block V

Max Norm C

Max Norm H

Max Norm M

Max Norm R

Max Norm W

By Cosine D

By Cosine I

By Cosine N

By Cosine S

By Cosine X

By Correlation E

By Correlation J

By Correlation O

By Correlation T

By Correlation Y

Nearest Neighbor
Euclidean

Euclidean K

Gaussian

Locally Constant
Euclidean

EE

Locally Linear
Euclidean JJ

Manhattan Block AA

Manhattan Block FF

Manhattan Block KK

Max Norm BB

Max Norm GG

Max Norm LL

By Cosine CC

By Cosine HH

By Cosine MM

By Correlation DD

By Correlation II

By Correlation NN

Figura 13-22: Modelos de prediccin evaluados en el estudio experimental de O. HerreraAlcntara et. al.
estn codificados por etiquetas (letras maysculas) obsrvese que nuevamente se verifica la
afirmacin de que no hay modelos capaces de predecir todas las series de tiempo.

13.6

Comentario sobre los Teoremas No Free Lunch

Los teoremas de No Free Lunch (NFL) imponen lmites al rendimiento de los algoritmos para
bsqueda y optimizacin. Si un algoritmo es eficiente para una clase particular de problemas
entonces su rendimiento para las clases de problemas restantes ser pobre. Los teoremas se
aplican tanto a algoritmos deterministas como a algoritmos estocsticos y fueron construidos
en forma general sin particularizar en algn algoritmo especifico, aunque fueron publicados
originalmente en revistas del rea de computacin evolutiva [55, 56], eso no limita su uso
a problemticas similares de otras reas. En el caso del problema de prediccin de series
de tiempo, por ejemplo, la bsqueda de los parmetros ptimos para modelar y predecir la
dinmica de una serie de tiempo por parte de una red neuronal, cae dentro de la problemtica
planteada por dichos teoremas. Y en general el problema de prediccin de series de tiempo puede
verse como un problema de optimizacin multiobjetivo, en el cul se buscan los parmetros
309

Resultados de la Evaluacin de los Modelos de Prediccin

min(En)
0.000000

#Serie-Serie
26 - Sine

Tipo
artificial

0.000000

29 -Vanderpol

artificial

0.000469
0.002099
0.003361
0.038376
0.166785
0.233121
0.258252
0.455643
0.617193
0.684171
0.833612
0.864338
0.890679

17 - Lorenz
24 - Rossler
22 - Qperiodic2
19 Mackey-Glass
28 - Tent
23 - Qperiodic3
1- A1
15 - Laser
18 - Lovaina
6 - Dow Jones
5 - D1
20 - Plasma
14 - Kobe

artificial
artificial
natural
artificial
artificial
natural
natural
natural
artificial
natural
artificial
natural
natural

Experimento
H,P,Q,R,Z,AA,BB,CC, EE
FF, GG, HH, JJ, KK, LL
MM, I, JJ, KK, LL, MM
H,P,Q,R,Z,AA,BB,CC,
EE,FF,GG,HH,JJ,KK,LL
MM,I,JJ,KK,LL,MM
KK
A
LL
U
HH
G
A
V
M
AA
BB
F
II

Figura 13-23: Resultados de la evaluacin de los modelos de prediccin en el estudio realizado


por O. Herrera-Alcntara et. al.
adecuados para modelar y poder predecir la dinmica de una serie de tiempo, por ello los
resultados obtenidos en la presente tesis y en trabajos independientes como el comentado en la
seccin 13.5, al observar en forma experimental que no hay tcnicas de prediccin universales,
manifiestan las limitaciones enunciadas por dichos teoremas. C. Coello-Coello comenta que: es
muy interesante saber que en una problemtica diferente a la de algoritmos evolutivos como es
la prediccin de series de tiempo se presenta una fenomenologa similar a la enunciada por los
teoremas NFL, y sin duda sera interesante ver como formalizar y encontrar una conexin o
una reduccin a las condiciones enunciadas por los teoremas NFL, pues sera de gran apoyo
para la comunidad que trabaja en prediccin de series de tiempo tener teoremas lmite de este
tipo [194].

310

Bibliografa
[1] P. E. Rapp, T. I. Schmah y A. I. Mees, "Models of Knowing and the Investigation of
Dynamical Systems", Physica D, vol. 132, 1999, pg. 133-149.
[2] C. K. R. T. Jones, "Whiter Applied Nonlinear Dynamics?", Mathematics Unlimited-2001
and Beyond, B. Engquist y W. Schmid (Editores), Springer-Verlag, Berlin, 2001, pg.
631-645.
[3] H. Kantz y T. Schreiber, Nonlinear Time Series Analysis, Cambridge University Press,
Cambridge, 2000.
[4] A. Espinosa-Romero, E. Vargas-Medina y J. Figueroa-Nazuno, "Anlisis de Seales Ape
ridicas por Mtodos Gramaticales y Caticos ", Memorias del Congreso Internacional
de Ingeniera Elctrica, Electrnica y Computacin MEXICON-94, UDLA, Puebla, 1994.
[5] J. Figueroa Nazuno, E. Vargas Medina, W. W. Mayol Cuevas y A. Espinosa Romero, "The
Analysis and Representation of Complex Aperiodic and Chaotic Signals with Ultrametri
city Techniques", Proceedings of Third SIAM Conference on Applications of Dinamical
Systems, SIAM Society for Industrial and Applied Mathematics, Philadelphia, 1995.
[6] J. Kurths, U. Schwarz, A. Witt, R. Th. Krampe y M. Abel, "Measures of Complexity in
Signal Analysis" Proceedings of the Third Technical Conference on Nonlinear Dynamics
(Chaos) and Full Spectrum Processing, Naval Undersea Warfare Center, Mystic, 1995.
[7] M. Palus, "Coarse-Grained Entropy Rates for Characterization of Complex Time Series",
Physica D, vol. 93, 1996, pg. 64-77.

311

[8] A. Espinosa-Contreras y J. Figueroa-Nazuno, "Anlisis del Comportamiento de la Prdida de Paquetes en la Red Internet con Tcnicas de la Dinmica No-Lineal", Memorias
del Congreso Internacional de Computacin CIC 2000, Centro de Investigacin en Computacin IPN, Mxico D. F., 2000, pg. 529-535.
[9] E. Bautista-Thompson y J. Figueroa-Nazuno, "Anlisis de Parmetros que Caracterizan
la Dificultad de Prediccin en Series de Tiempo", Memorias del XLV Congreso Nacional
de Fsica, Sociedad Mxicana de Fsica, Len, 2002, pg. 59.
[10] E. Bautista-Thompson y J. Figueroa-Nazuno, "Matriz de Conocimiento sobre la Complejidad de Prediccin en Series de Tiempo", Reconocimiento de Patrones Avances y
Perspectivas, Research on Computing Science Vol. 1, J. L. Daz de Len-Santiago y C.
Ynez-Mrquez (Editores), VII Congreso Iberoamericano en Reconocimiento de Patrones,
Centro de Investigacin en Computacin IPN, Mxico D. F., 2002, pg. 337-348.
[11] F. X. Dielbold, Elements of Forecasting, South-Western Thomson Learning, Cincinnati,
2001.
[12] S. A. DeLurgio, Forecasting Principles and Applications, McGraw-Hill, Boston, 1998.
[13] M. Casdagli y S. Eubank (Editores), Nonlinear Modeling and Forecasting, SFI Studies in
the Sciences of Complexity, Adisson-Wesley Longman, Reading, 1992.
[14] A. Weigend y N. Gershenfeld (Editores), Time Series Prediction. Forecasting the Future
and Understanding the Past, SFI Studies in the Sciences of Complexity, Proc. Vol. XVII,
Addison-Wesley, Reading, 1994.
[15] D. P. Mandic y J. A. Chambers, Recurrent Neural Networks for Prediction Learning
Algorithms, Architecture and Stability, John Wiley & Sons, New York, 2001.
[16] T. Masters, Neural Novel & Hybrid Algorithms for Time Series Prediction, John Wiley
& Sons, New York, 1995.
[17] E. A. Wan, Finite Impulse Response Neural Networks with Applications in Time Series
Prediction, Ph. D. Thesis, Department of Electrical Engineering, Stanford University,
1993.
312

[18] C. Snchez-Rodriguez, FIRNet con Adaptacin de Ventana Temporal para la Prediccin


de Series de Tiempo, Tesis de Maestra en Ciencias de la Computacin (en proceso),
Centro de Investigacin en Computacin, Instituto Politcnico Nacional, Mxico D. F.,
2004.
[19] T. K. Mller, A. Samola, G. Rtsh, B. Schlkopf, J. Kohlmorgen y V. Vapnik, "Predicting
Time Series with Support Vector Machines", Lecture Notes in Computer Science 1327
Proceedings of ICANN97, Springer-Verlag, Berln, 1997, pg. 999-1004.
[20] E. Guzmn-Ramrez, E. Bautista-Thompson y J. Figueroa-Nazuno, "Prediccin de Mltiples Puntos de Series de Tiempo Utilizando Support Vector Machines", Memorias del
Congreso Internacional de Computacin CIC 2003, J. L. Daz de Len-Santiago, G.
Gonzlez-Santos y J. Figueroa-Nazuno (Editores), Centro de Investigacin en Computacin IPN, Mxico D. F., 2003, pg. 136-140.
[21] A. N. Edmonds, Time Series Prediction using Supervised Learning and Tools from Chaos
Theory, Ph. D. Thesis, School of Science and Computing, University of Luton, 1996.
[22] D. Kustrin, Forecasting Financial Time Series with Correlation Memories for Tactical
Asset Allocation, Ph. D. Thesis, Department of Computer Science, University of York,
1998.
[23] J. Lpez Herrera, Time Series Prediction Using Inductive Reasoning Techniques, Ph.
D. Thesis, Instituto de Organizacin y Control de Sistemas Industriales, Universidad
Politcnica de Catalua, 1999.
[24] J. MacNames, Innovations in Local Modeling for Time Series Prediction, Ph. D. Thesis,
Department of Electrical Engineering, Stanford University, 1999.
[25] A. Foka, Time Series Prediction using Evolving Polynomial Neural Networks, M. Sc.
Thesis, Department of Electrical Engineering and Electronics, University of Manchester
Institute of Science and Technology, 1999.

313

[26] B. Schoner, Probabilistic Characterization and Synthesis of Complex Driven Systems, Ph.
D. Thesis, Program in Media, Arts and Sciences, School of Architecture and Planning,
MIT, 2000.
[27] J. A. K. Suykens y J. Vandewalle (Editores), Nonlinear Modeling Advanced Black-Box
Techniques, Kluwer Academic Press, Amsterdam, 1998.
[28] S. Makridakis y M. Hibon, "The M3-Competition: Results, Conclusions and Implications", International Journal of Forecasting, vol. 16, nm. 4, 2000, pg. 451-476.
[29] P. Newbold y C. W. J. Granger, "Experience with Forecasting Univariate Time-Series
and the Combination of Forecasts (with Discussion)", J. Roy. Statist. Soc. A, vol. 137,
1974, pg. 131-165.
[30] D. J. Reid, "A Review of Short-Term Projection Techniques", Practical Aspects of Forecasting, Editor H. A. Gordon, Op. Res. Soc., London, 1975, pg. 8-25.
[31] S. Makridakis, A. Anderson, R. Carbone, R. Fildes, M. Hibon, R. Lewandowski, J. Newton, E. Parzen y R. Winkler, "The Accuracy of Extrapolation (Time Series) Methods:
Results of a Forecasting Competition", Journal of Forecasting, vol. 1, 1982, pg. 111-153.
[32] S. Makridakis, A. Anderson, R. Carbone, R. Fildes, M. Hibon, R. Lewandowski, J. Newton, E. Parzen y R. Winkler, The Forecasting Accuracy of Major Time Series Methods,
John Wiley & Sons, New York, 1984.
[33] D. H. R. Price y J. A. Sharp, "A Comparison of the Performance of Dierent Univariate Forecasting Methods in a Model of Capacity Acquisition in UK Electricity Supply",
International Journal of Forecasting, vol. 2, nm. 3, 1986, pg. 333-348.
[34] M. Casdagli, "Nonlinear Prediction of Chaotic Time Series", Physica D, vol. 35, 1989,
pp. 212-233.
[35] A. Garca-Ferrer, J. Del Hoyo y A. S. Martn-Arroyo, " On Univariate Forecasting Comparisons: The Case of the Spanish Automobile Industry", Journal of Forecasting, vol. 16,
nm. 1, 1997, pg. 1-17.

314

[36] M. Guo y Y. K. Tseng, "A Comparison Between Linear and Nonlinear Forecasts for
Nonlinear AR Models", Journal of Forecasting, vol. 16, nm. 7, 1997, pg. 491-508.
[37] M. Adya y F. Collopy, "How Eective are Neural Networks at Forecasting and Prediction?
A Review and Evaluation", Journal of Forecasting, vol. 17, nm. 5-6, 1998, pg. 481-495.
[38] S. Moshiri y N. Cameron, "Neural Networks Versus Econometric Models in Forecasting
Inflation", Journal of Forecasting, vol. 19, nm. 3, 2000, pg. 201-217.
[39] S. Gokcan, "Forecasting Volatility of Emerging Stock Markets: Linear Versus Non-Linear
GARCH Models", Journal of Forecasting, vol. 19, nm. 6, 2000, pg. 499-504.
[40] G. A. Darbellay y M. Slama, "Forecasting the Short-Term Demand for Electricity, Do
Neural Networks Stand a Better Chance?", International Journal of Forecasting, vol. 16,
nm. 1, 2000, pg. 71-83.
[41] N. Meade, "A Comparison of the Accuracy of Short Term Foreign Exchange Forecasting
Methods", International Journal of Forecasting, vol. 18, nm. 1, 2002, pg. 67-83.
[42] L. R. Weatherford y S. E. Kimes, "A Comparison of Forecasting Methods for Hotel
Revenue Management", International Journal of Forecasting, vol. 19, nm. 3, 2003, pg.
401-415.
[43] P. Newbold, J. K. Zumwalt y S. Kannan, "Combining Forecasts to Improve Earnings
Per Share Prediction. An Examination of Electric Utilities", International Journal of
Forecasting , vol. 3, nm. 2, 1987, pg. 229-238.
[44] D. K. Fan, K-N. Lau y P-L. Leung, "Combining Ordinal Forecasts with an Application
in a Financial Market", Journal of Forecasting, vol. 15, nm. 1, 1996, pg. 37-48.
[45] R. G. Donaldson y M. Kamstra, "Forecast Combining with Neural Networks", Journal
of Forecasting, vol. 15, nm. 1, 1996, pg. 49-61.
[46] C. T. West, "System-Based Weights Versus Series-Specific Weights in the Combination
of Forecasts", Journal of Forecasting, vol. 15, nm. 5, 1996, pg. 369-383.

315

[47] S. I. Gunter y C. Aksu, "The Usefulness of Heuristic N(E)RLS Algorithms for Combining
Forecasts", Journal of Forecasting, vol. 16, nm. 6, 1997, pg. 439-462.
[48] A. Fiordaliso,"A Nonlinear Forecasts Combination Method Based on Takagi-Sugeno
Fuzzy Systems", International Journal of Forecasting, vol. 14, nm. 3, 1998, pg. 367-379.
[49] L. M. de Menezes y D. W. Bunn, "The Persistence of Specification Problems in the
Distribution of Combined Forecasts Errors", International Journal of Forecasting , vol.
14, nm. 3, 1998, pg. 415-426.
[50] I. Fischer y N. Harvey, "Combining Forecasts: What Information Do Judges Need to
Outperform the Simple Average?", International Journal of Forecasting, vol. 15, nm. 3,
1999, pg. 227-246.
[51] J. V. Hansen, Combining Predictors Meta Machine Learning Methods and Bias-Variance
& Ambiguity Decompositions, Ph. D. Thesis, Department of Computer Science, University
of Aarhus, 2000.
[52] N. R. Swanson y T. Zeng, "Choosing Among Competing Econometric Forecasts:
Regression-Based Forecast Combination Using Model Selection", Journal of Forecasting,
vol. 20, nm. 6, 2001, pg. 425-440.
[53] J. Shadbolt y J. G. Taylor (Editores), Neural Networks and the Financial Markets. Predicting, Combining and Portfolio Optimisation, Springer-Verlag, London, 2002.
[54] N. Terui y H. K. van Dijk, "Combined Forecasts from Linear and Nonlinear Time Series
Models", International Journal of Forecasting, vol. 18, nm. 3, 2002, pg. 421-438.
[55] D. H. Wolpert y W. G. Macready, "No Free Lunch Theorems for Search", Santa Fe
Technical Report Number SFI-TR-95-02-010, Santa Fe Institute, Santa Fe, 1995.
[56] D. H. Wolpert y W. G. Macready, "No Free Lunch Theorems for Optimization", IEEE
Transactions on Evolutionary Computation, vol. 1, nm. 1, 1997, pg. 67-82.
[57] Y. Bar-Yam, Dynamics of Complex Systems, Perseus Books, Reading, 1997.
[58] S. Wolfram, Cellular Automata and Complexity, Westview Press, Reading, 1994.
316

[59] Edward Ott, Chaos in Dynamical Systems, Cambridge University Press, Cambridge, 2000.
[60] C. A. Pickover, Computers, Pattern, Chaos, and Beauty, Dover Publications, Mineola,
2001.
[61] E. Bautista-Thompson, A. Villanueva-Becerril y J. Figueroa-Nazuno,"Anlisis de Patrones Aplicado a Problemas de Teora de Nmeros: El Problema de Collatz", Reconocimiento de Patrones Avances y Perspectivas, Research on Computing Science Vol.
1, J. L. Daz de Len-Santiago y C. Ynez-Mrquez (Editores), VII Congreso Iberoame
ricano en Reconocimiento de Patrones, Centro de Investigacin en Computacin IPN,
Mxico D. F., 2002, pg. 349-358.
[62] H. Whitney, "Dierentiable Manifolds", Annals of Mathematics, vol. 37, nm. 03, 1934,
pg. 645-680.
[63] F. Takens, "Detecting Strange Attractors in Turbulence", Lecture Notes in Mathematics,
vol. 898, 1981, pg. 366-381.
[64] J. M. Medina-Apodaca, Herramienta para la Extraccin de Redes Bayesianas Predictivas
a partir de Bases de Datos Temporales, Tesis de Maestra en Ciencias de la Computacin,
Centro de Investigacin en Computacin, Instituto Politcnico Nacional, Mxico D. F.,
2005.
[65] D. C. Baird, Experimentacin: Una Introduccin a la Teora de Mediciones y al Diseo
de Experimentos, Prentice-Hall Hispanoamericana, Mxico, 1991.
[66] E. Bautista-Thompson, A. Snchez-Fernndez y J. Figueroa-Nazuno, "Reduccin de
Ruido y Clculo de la Dimensin de Informacin en Series de Tiempo", Memorias del
XLIV Congreso Nacional de Fsica, Sociedad Mexicana de Fsica, Morelia, 2001, pg. 99.
[67] H. Jimnez-Hernndez, E. Bautista-Thompson y J. Figueroa-Nazuno, "Anlisis de la
Tolerancia al Ruido en el Modelado de Series de Tiempo con la Red Neuronal RNAP",
Memorias del XLVI Congreso Nacional de Fsica, Sociedad Mexicana de Fsica, Mrida,
2003, pg. 173.

317

[68] R. Rosen, Fundamentals of Measurement and Representation of Natural Systems, Elsevier


North-Holland, New York, 1978.
[69] D. H. Krantz, R. D. Luce, P. Suppes y A. Tversky, Foundations of Measurement, Vol. I,
Academic Press, New York, 1971.
[70] P. Suppes, D. H. Krantz, R. D. Luce y A. Tversky, Foundations of Measurement, Vol. II,
Academic Press, San Diego, 1990.
[71] R. D. Luce, D. H. Krantz, P. Suppes y A. Tversky, Foundations of Measurement, Vol.
III, Academic Press, San Diego, 1990.
[72] D. Hand, H. Mannila y P. Smyth, Principles of Data Mining, MIT Press, Cambridge,
2001.
[73] D. S. G. Pollock, A Handbook of Time Series Analysis, Signal Processing, and Dynamics,
Academic Press, San Diego, 1999.
[74] G. U. Yule, "On a Method of Investigating Periodicities in Disturbed Series with Special
Reference to Wolfers Sunspot Numbers", Philos. Trans. Roy. Soc. Series A, vol. 226,
1927, pg. 267-298.
[75] E. Slutsky, "The Summation of Random Causes as the Source of Cyclical Processes",
Econometrica, vol. 5, 1937, pg. 105-146.
[76] A. N. Kolmogorov, "Interpolation and Extrapolation", Bulletin de lacademie des sciences
de U.S.S.R., Serv. Math, vol. 5, 1941, pg. 3-14.
[77] N. Wiener, "Generalised Harmonic Analysis", Acta Mathematica, vol. 35, 1930, pg. 117258.
[78] N. Wiener, Extrapolation, Interpolation and Smoothing of Stationary Time Series, MIT
Press, Cambridge, 1950.
[79] J. W. Cooley y J. W. Tukey, "An Algorithm for the Machine Calculation of Complex
Fourier Series", Mathematics of Computation, vol. 19, 1965, pg. 297-301.

318

[80] G. Box y G. Jenkins, Time-series Analysis, Forecasting and Control, Prentice Hall, Englewood Clis, 1976.
[81] P. Holmes, "Poincar, Celestial Mechanics, Dynamical-Systems Theory and Chaos",
Physics Reports, vol. 193, pg. 137-163, 1990.
[82] F. X. Diebold y L. Kilian, "Measuring Predictability: Theory and Macroeconomic Applications", Working Papers Series Number 97-23, Federal Reserve Bank of Philadelphia,
Philadelphia, 1997.
[83] C. Brooks, "Linear and Non-Linear (Non-)Forecastability of High-Frequency Exchange
Rates", Journal of Forecasting, vol. 16, nm. 2, 1997, pg. 125-145.
[84] L. A. Smith, "Disentangling Uncertainty and Error: On the Predictability of Nonlinear
Systems", Nonlinear Dynamics and Statistics, A. Mees (Editor), Birkhuser, Boston,
2000.
[85] D. Avramov, "Stock-Return Predictability and Model Uncertainty", Rodney L. White
Center for Financial Research Working Papers Number 12-00, The Wharton School University of Pennsylvania, Philadelphia, 2000.
[86] M. Brisson, B. Campbell y J. W. Galbraith, "Forecasting Some Low-Predictability Time
Series Using Diusion Indices", CIRANO Working Papers Number 2001 s-46, CIRANO:
Centre for Interuniversity Research and Analysis on Organizations, Quebec, 2001.
[87] U. Feldmann y J. Bhattacharya, "Mixed Predictability as an Asymmetrical Measure of
Interdependence in Multivariate Time Series", 6th Experimental Chaos Conference, M.
Spano (Editor), American Institute of Physics, USA, 2002.
[88] U. Feldmann y J. Bhattacharya, "Predictability Improvement as an Asymmetrical Measure of Interdependence in Bivariate Time Series", Int. J. Bifurcation and Chaos, vol. 14,
nm. 2, 2004.
[89] W. Ferson y C. Harvey, "The Risk and Predictability of International Equity Returns",
Review of Financial Studies, vol. 6, 1993, pg. 527-566.

319

[90] W. Ferson y R. Korajczyk, "Do Arbitrage Pricing Models Explain the Predictability of
Asset Returns?, Journal of Business, vol. 68, 1995, pg. 309-349.
[91] M. Pesaran y A. Timmermann, "Predictability of Stock Returns: Robustness and Economic Significance", Journal of Finance, vol. 50, 1995, pg. 1201-1228.
[92] S. Kandel y R. Stambaugh, "On the Predictability of Stock Returns: An Asset Allocation
Perspective", Journal of Finance, vol. 51, 1996, pg. 385-424.
[93] A. Lo y A. MacKinlay, "Maximizing Predictability in the Stock and Bond Markets",
Macroeconomic Dynamics, vol. 1, 1997, pg. 102-134.
[94] M. Cooper, D. H. Downs y G. A. Patterson, "Asymmetric Information and the Predictability of Real State Returns", The Journal of Real Estate Finance and Economics,
vol. 20, nm. 2, 2000.
[95] M. Pritamani y V. Singal, "Return Predictability Following Large Price Changes and
Informational Releases", Journal of Banking and Finance, vol. 25, 2001, pg. 631-656.
[96] H. Gulen, "Learning About Out-of-Sample Predictability and Its Impact on Real-Time
Investments Decisions", Working Papers Series, Department of Finance, Pamplin College
of Business Virginia Tech, Virginia, 2001.
[97] A. Ang y G. Bekaert, "Stock Return Predictability: Is it There?, NBER Working Papers
Series Number 8207, National Bureau of Economic Research, Inc., Cambridge, 2001.
[98] M. J. Cooper, W. E. Jackson III y G. A. Patterson, "Evidence of Predictability in the
Cross-Section of Bank Stock Returns", Journal of Banking and Finance, vol. 27, 2003,
pg. 817-850.
[99] V. R. Eleswarapu y M. R. Reinganum, "The Predictability of Aggregate Stock Market
Returns: Evidence Based on Glamour Stocks", The Journal of Business, vol. 77, nm. 2,
2004.
[100] N. P. Jewell y P. Bloomfield, "Canonical Correlations of Past and Future for Time Series:
Definitions and Theory", Annals of Statistics, vol. 11, 1983, pg. 837-847.
320

[101] N. P. Jewell, P. Bloomfield y F. C. Bartmann, "Canonical Correlations of Past and Future


for Time Series: Bounds and Computation", Annals of Statistics, vol. 11, 1983, pg. 848855.
[102] E. J. Hannan y D. S. Poskitt, "Unit Canonical Correlations Between Future and Past",
Annals of Statistics, vol. 16, 1988, pg. 7894-7900.
[103] C. W. J. Granger y P. Newbold, Forecasting Economic Time Series, Academic Press,
Orlando, 1986.
[104] H. Theil, Applied Economic Forecasting, North-Holland, Amsterdam, 1966.
[105] M. A. Kaboudan, "A GP Approach to Distinguish Chaotic from Noisy Signals", Genetic
Programming 1998: Proceedings of the Third Annual Conference, Morgan Kaumann,
San Francisco, 1998, pg. 187-192.
[106] M. A. Kaboudan, "A Measure of Time Series Predictability Using Genetic Programming
Applied to Stock Returns", Journal of Forecasting, vol. 18, nm. 5, 1999, pg. 345-357.
[107] M. Duan y R. J. Povinelli, "Estimating Time Series Predictability Using Genetic Programming", Proceedings of Artificial Neural Networks in Engineering, Artificial Neural
Networks in Engineering, 2001, pg. 215-220.
[108] M. Duan y R. J. Povinelli, "Estimating Stock Price Predictability Using Genetic Programming", Proceedings of the Genetic and Evolutionary Computation Conference GECCO
2001, 2001, pg. 174.
[109] M. Duan, Time Series Predictability, M. S. Thesis, Marquette University, Milwaukee,
2002.
[110] J. W. Galbraith, "Content Horizons for Univariate Time-Series Forecasts", International
Journal of Forecasting, vol. 19, nm. 1, 2003, pg. 43-55.
[111] M. J. Cooper y H. Gulen, "Is Time Series Based Predictability Evident in Real-Time?",
Working Papers Series, Department of Finance, Pamplin College of Business Virginia
Tech, Virginia, 2002.
321

[112] K. J. M. Cremers, "Stock Return Predictability: A Bayesian Model Selection Perspective", Review of Financial Studies, vol. 15, nm. 4, 2002, pg. 1223-1249.
[113] W. Ebeling, L. Molgedey, J. Kurths y U. Schwarz, "Entropy, Complexity, Predictability
and Data Analysis of Time Series and Letter Sequences", Theory of Disaster, A. Bundle
y H. J. Schellnhuber (Editores), Springer-Verlag, Berlin, 2000.
[114] L. Molgedey y W. Ebeling, "Intraday Patterns and Local Predictability of High Frequency
Financial Time Series", Physica A: Statistical Mechanics and Its Applications, vol. 287,
nm. 3-4, 2000, pg. 420-428.
[115] L. Molgedey y W. Ebeling, "Local Order, Entropy and Predictability of Financial Time
Series", Eur. Phys. J. B, vol. 15, 2000, pg. 733-737.
[116] R. Menchaca-Mndez, C. Snchez-Rodriguez., A. Espinosa-Contreras y J. FigueroaNazuno, "Modelado y Caracterizacin de Series de Tiempo por Medio de Anlisis Gramatical", Memorias del XLIII Congreso Nacional de Fsica, Sociedad Mexicana de Fsica,
Puebla, 2000.
[117] R. Menchaca-Mndez, C. Snchez-Rodrguez y J. Figueroa-Nazuno, "Prediccin de Series
de Tiempo Mediante Anlisis Gramatical", Memorias del XLIV Congreso Nacional de
Fsica, Sociedad Mexicana de Fsica, Morelia, 2001, pg. 134.
[118] J. C. Sprott, Strange Attractors: Creating Patterns in Chaos, Hungry Minds Inc.,1993.
[119] G. J. Deboeck, Trading on the Edge. Neural, Genetic, and Fuzzy Systems for Chaotic
Financial Markets, John Wiley & Sons, New York, 1994.
[120] L. W. Salvino, R. Cawley, C. Grebogi y J. Yorke, "Predictability in Time Series", Physics
Letters A, vol. 209, 1995, pg. 327-332.
[121] L. A. Smith, "The Maintenance of Uncertainty", Proc. International School of Physics
Enrico Fermi" Course CXXXIII, Societa Italiana di Fisica, Bologna, 1997, pg. 177-246.
[122] P. E. McSharry, Innovations in Consistent Nonlinear Deterministic Prediction, Ph. D.
Thesis, St. Catherines College, University of Oxford, 1999.
322

[123] L. A. Smith, C. Ziehmann y K. Fraedrich, "Uncertainty Dynamics and Predictability in


Chaotic Systems", Quart. J. Royal Meteorological Soc., vol. 125, 1999, pg. 2855-2886.
[124] C. Ziehmann, L. A. Smith y J. Kurths, "Localized Lyapunov Exponents and the Prediction of Predictability", Phys. Lett. A, vol. 271, 2000, pg. 237-251.
[125] J. J. Zebrowski, W. Poplawska, R. Baranowski y T. Buchner, "Measuring the Complexity
of Non-Stationary Time Series Nonlinear Interpretations of Selected Physiological Processes", Acta Physica Polonica B, vol. 30, nm. 8, 1999, pg. 2547-2570.
[126] R. Badii and A. Politi, Complexity: Hierarchical structures and scaling in physics, Cambridge University Press, Cambridge, 1999.
[127] W. H. Zurek (Editor), Complexity, Entropy and the Physics of Information, SFI Studies
in the Sciences of Complexity, Adisson-Wesley Longman, Reading, 1990.
[128] M. Palus, L. Pecen y D. Pivka, "Estimating Predictability: Redundancy and Surrogate
Data Method", Neural Network World, vol. 5, nm. 4, 1995, pg. 537-552.
[129] I. M. Nemenman, Information Theory and Learning: A physical Approach, Ph. D. Thesis,
Department of Physics, Princeton University, 2000.
[130] W. Bialek, I. Nemenman y N. Tishby, "Predictability, Complexity and Learning", Neural
Computation, vol. 13, 2001, pg. 2409-2463.
[131] E. Acevedo-Mosqueda, C. Len-Vega y J. Figueroa-Nazuno, "Medicin de Complejidad de
Series de Tiempo", Memorias del XLIV Congreso Nacional de Fsica, Sociedad Mexicana
de Fsica, Morelia, 2001, pg. 99.
[132] V. Rivera-Mancera, E. Bautista-Thompson y J. Figueroa-Nazuno, "Caracterizacin de
Series de Tiempo con Escalamiento Multidimensional", Avances en la ciencia de la computacin en Mxico, Research on Computing Science Vol. 2, Alexander Gelbukh y Macario
Hernndez-Cruz (Editores), Cuarto Congreso Nacional de Computacin CORE 2003,
Centro de Investigacin en Computacin IPN, Mxico, 2003, pg. 171-180.
[133] R. Torres Len, Introduccin a la Probabilidad y a la Estadstica, Ediciones de la Universidad Autonoma de Yucatn, Mrida, 1985.
323

[134] J. Mandel, The Statistical Analysis of Experimental Data, Dover Publications Inc., New
York, 1964.
[135] W. Mendenhall, R. L. Scheaer y D. D. Wackerly, Estadstica Matemtica con Aplicaciones, Grupo Editorial Iberoamrica, Mxico D. F., 1986.
[136] E. E. Peters, Fractal Market Analysis: Applying Chaos Theory to Investment and Economics, John Wiley & Sons, New York, 1994.
[137] N. Golyandina, V. Nekrutkin y A. Zhigljavsky, Analysis of Time Series Structure SSA
and Related Techniques, Chapman & Hall / CRC, Boca Ratn, 2001.
[138] R. M. A. Urbach, Footprints of Chaos in the Markets, Financial Times-Prentice Hall,
London, 2000.
[139] G. P. Williams, Chaos Theory Tamed, Joseph Henry Press, Washington, 1997.
[140] R. C. Hilborn, Chaos and Nonlinear Dynamics, Oxford University Press, Oxford, 2000.
[141] J. D. Farmer, E. Ott y J. A. Yorke, "The Dimension of Chaotic Attractors", Physica D,
vol. 7, 1983, pg. 153-180.
[142] J. P. Eckmann, S. O. Kamphorst y D. Ruelle, "Recurrence Plots of Dynamical Systems",
Europhys. Lett., vol. 4, nm. 9, 1987, pg. 973-977.
[143] J. P. Zbilut y C. L. Webber, "Embeddings and Delays as Derived from Quantification of
Recurrence Plots", Physics Letters A, vol. 171, 1992, pg. 199-203.
[144] J. Gao y H. Cai, "On the Structures and Quantification of Recurrence Plots", Physics
Letters A, vol. 270, 2000, pg. 75-87.
[145] J. R. Pierce, An Introduction to Information Theory: Symbols, Signals and Noise, Dover
Publications, New York, 1980.
[146] A. Lempel y J. Ziv, "On the Complexity of Finite Sequences", IEEE Transactions on
Information Theory, vol. 22, nm. 1, 1976.

324

[147] W. Stallings, Data and Computer Communications, Maxwell Macmillan International,


New York, 1991.
[148] C. G. Nevill-Manning y I. H. Witten, "Identifying Hierarchical Structure in Sequences:
A Linear-Time Algorithm", Journal of Artificial Intelligence Research, vol. 7, 1997, pg.
67-82.
[149] E. A. Wan, "Time Series Prediction by Using a Connectionist Network with Internal Delay
Lines", Time Series Prediction. Forecasting the Future and Understanding the Past, A.
Weigend y N. Gershenfeld (Editores), SFI Studies in the Sciences of Complexity, AddisonWesley, Reading, 1994.
[150] T. Masters, Advanced Algorithms for Neural Networks. A C++ Sourcebook, John Wiley
& Sons, New York, 1995.
[151] B. Martn del Bro y A. Sanz-Molina, Redes Neuronales y Sistemas Difusos, Alfaomega
Ra-Ma, Madrid, 2002.
[152] F. M. Ham y I. Kostanic, Principles of Neurocomputing for Science & Engineering,
McGraw-Hill, Boston, 2001.
[153] V. Vapnik, Statistical Learning Theory, John Wiley & Sons, Chichester, 1998.
[154] N. Cristianini y J. Shawe-Taylor, An Introduction to Support Vector Machines and Other
Kernel Based Methods, Cambridge University Press, Cambridge, 2000.
[155] G. Nakhaeizadeh y C. C. Taylor (Editores), Machine Learning and Statistics The Interface, John Wiley & Sons, New York, 1997.
[156] E. Ott, T. Sauer y J. A. Yorke (Editores), Coping with Chaos. Analysis of Chaotic Data
and the Exploitation of Chaotic Systems, John Wiley & Sons, New York, 1994.
[157] B. Carnahan y A. E. Smith, Users Guide to Pittnet Neural Network Educational Software,
Department of Industrial Engineering, University of Pittsburgh, Pittsburgh, 1997.
[158] J. S. R. Jang, "ANFIS: Adaptive-Network-Based Fuzzy Inference Systems", IEEE Trans.
on Systems, Man and Cybernetics, vol. 23, nm. 3, 1993, pg. 665-685.
325

[159] C. T. Lin y C. S. G. Lee, Neural Fuzzy Systems: A Neuro-Fuzzy Synergism to Intelligent


Systems, Prentice-Hall, Upper Saddle River, 1996.
[160] E. Gmez-Rmirez, Adaptacin de la Arquitectura de Redes Neuronales Artificiales y
su Aplicacin al Control Adaptable, Tesis de Doctorado, Departamento de Ingeniera
Elctrica, CINVESTAV IPN, Mxico, 1999.
[161] A. Gonzlez-Yunes, M. A. vila-Alvarez, E. Gmez-Rmirez, O. Mulet, F. Mazzanti
y X. Vilasis-Cardona, "Redes Neuronales para Identificacin y Prediccin de Series de
Tiempo", Rev. Centro Inv., vol. 4, nm. 13-14, 2000, pg. 47-65.
[162] E. Guzmn-Ramrez, E. Bautista-Thompson y J. Figueroa-Nazuno, "Evaluacin de Red
Neuronal Artificial Polinomial (RNAP) para el Modelado de Series de Tiempo", Avances
en la ciencia de la computacin en Mxico, Research on Computing Science Vol. 2,
Alexander Gelbukh y Macario Hernndez-Cruz (Editores), Cuarto Congreso Nacional
de Computacin CORE 2003, Centro de Investigacin en Computacin IPN, Mxico,
2003, pg. 181-192.
[163] G. Sugihara y R. M. May, "Non Linear Forecasting as a Way of Distinguishing Chaos
from Measurement Error in Time Series", Nature, vol. 344, 1990, pg. 734-740.
[164] E. Gutirrez-Arias, E. Bautista-Thompson y J. Figueroa-Nazuno, "Descubrimiento y Extraccin de Subestructuras de Bases de Datos", Memorias del Tercer Congreso Estudian
til de Computacin CORE 2002, Centro de Investigacin en Computacin IPN, Mxico,
2002.
[165] T. Kohonen, Self-Organizing Maps, Springer-Verlag, Berln, 2001.
[166] G. Deboeck y T. Kohonen, Visual Explorations in Finance with Self-Organizing Maps,
Springer-Verlag, Berln, 1998.
[167] M. Dittenbach, D. Merkl y A. Rauber, "The Growing Hierarchical Self-Organizing Map",
Proceedings of the International Joint Conference on Neural Networks (IJCNN 2000) Vol.
6, S. I. Amari, C. L. Giles, M. Gori y V. Piuri (Editores), IEEE Computer Society, Como,
2000, pg. 15-19.
326

[168] M. Dittenbach, D. Merkl y A. Rauber, "Using Growing Hierarchical Self-Organizing Maps


for Document Classification", Proceedings of the 8th European Symposium on Artificial
Neural Networks (ESANN 2000), D-Facto Publications, Bruges, 2000, pg. 7-12.
[169] I. Borg y P. Groenen, Modern Multidimensional Scaling, Springer-Verlag, New York, 1997.
[170] W. R. Dillon y M. Goldstein, Multivariate Analysis Methods and Applications, John Wiley
& Sons, New York, 1984.
[171] S. K. Kachigan, Multivariate Statistical Analysis A Conceptual Introduction, Radius Press,
New York, 1991.
[172] A. Espinosa-Contreras y J. Figueroa-Nazuno, "Anlisis Catico y Predictivo de la Contaminacin Ambiental en la Ciudad de Mxico", Memorias del VIII Congreso Internacional de Electrnica, Comunicaciones y Computadoras CONTELECOMP98, Puebla,
1998.
[173] J. C. Sprott, Chaos and Time-Series Analysis, Oxford University Press, New York, 2004.
[174] M. C. Mackey y L. Glass, "Oscillation and Chaos in Physiological Control Systems",
Science, vol. 197, 1977, pg. 287-289.
[175] E. N. Lorenz, "Deterministic Non Periodic Flow", J. Atmos. Sci., vol. 20, 1963, pg.
130-141.
[176] O. E. Rossler, "An Equation for Continuos Chaos", Physics Letters A, vol. 57, 1976, pg.
397-398.
[177] M. Hnon, "A Two-Dimensional Mapping with a Strange Atractor", Comm. Math. Phys.,
vol. 50, 1976, pg. 69-77.
[178] J. G. Proakis y D. G. Manolakis, Tratamiento Digital de Seales: Principios, Algoritmos
y Aplicaciones, Prentice Hall, Madrid, 2000.
[179] C. Mat y J. Arroyo, "Forecasting with Symbolic Data. Applications to Boxplots", Proceedings of the 23rd International Symposium on Forecasting ISF 2003, International
Institute of Forecasters, Mrida, 2003, pg. 87.
327

[180] A. J. C. Sharkey (Editor), Combining Artificial Neural Nets, Springer-Verlag, London,


1999.
[181] L. G. Valiant, "A Theory of the Learnable", Communications of the ACM, vol. 27, 1984,
pg. 1134-1142.
[182] R. E. Schapire, "A Brief Introduction to Boosting", Proceedings of the Sixteenth International Joint Conference on Artificial Intelligence IJCAI 99, Stockholm, 1999.
[183] R. E. Schapire, The Design and Analysis of Ecient Learning Algorithms, MIT Press,
Cambridge, 1992.
[184] M. Mitchell, An Introduction to Genetic Algorithms, MIT Press, Cambridge, 2001.
[185] Z. Michalewicz, Genetic Algorithms + Data Structures = Evolution Programs, SpringerVerlag, Berln, 1999.
[186] T. Bck, D. B. Fogel and T. Michalewicz (Editores), Evolutionary Computation 1: Basic
Algorithms and Operators, Institute of Physics Publishing, Bristol, 2000.
[187] J. S. Bridle, "Probabilistic Interpretation of Feedforward Classification Network Outputs,
with Relationships to Statistical Pattern Recognition", Neurocomputing: Algorithms, Architectures and Applications, F.Fogleman-Soulie y J.Herault (Editores), Springer-Verlag,
Berln, 1990, pg. 227-236.
[188] J. S. Bridle, "Training Stochastic Model Recognition Algorithms as Networks Can Lead
to Maximum Mutual Information Estimation of Parameters", Advances in Neural Information Processing Systems 2, D.S.Touretzky (Editor), Morgan Kaufmann, San Mateo,
1990, pg. 211-217.
[189] R. O. Duda, P. E. Hart y D. G. Stork, Pattern Classification, John Wiley & Sons, New
York, 2001.
[190] N. E. Huang, Z. Shen, S. R. Long, M. C. Wu, H. H. Shih, Q. Zheng, N.-C. Yen, C. C.
Tung y H. H. Liu, "The Empirical Mode Decomposition and the Hilbert Spectrum for
Nonlinear and Non-Stationary Time Series Analysis", Proc. R. Soc. Lond. A, vol. 454,
1998, pg. 903-995.
328

[191] H. Jimnez-Hernndez, E. Bautista-Thompson y J. Figueroa-Nazuno, "Descomposicin


Emprica de Modos para el Anlisis de Series de Tiempo", Memorias de la Decimocuarta
Reunin de Otoo de Comunicaciones, Computacin, Electrnica y Exposicin Industrial
IEEE ROC&C 2003, IEEE Society Seccin Mxico, Acapulco, 2003.
[192] O. Herrera-Alcntara, H. Jimnez-Hernndez, P. Escobedo-Gorostizaga y J. FigueroaNazuno, "Anlisis de la Predictibilidad de Series de Tiempo Usando Mapas Recurrentes",
Memorias del XLVII Congreso Nacional de Fsica, Sociedad Mexicana de Fsica, Hermosillo, 2004, pg. 164.
[193] O. Herrera-Alcntara, P. Escobedo-Gorostizaga, H. Jimnez-Hernndez y J. FigueroaNazuno, "Anlisis de la Predictibilidad de Series de Tiempo Usando la Matriz de Recu
rrencia y Espacio de Fase", Memorias de la Decimoquinta Reunin de Otoo de Comunicaciones, Computacin, Electrnica y Exposicin Industrial IEEE ROC&C 2004, IEEE
Society Seccin Mxico, Acapulco, 2004.
[194] C. A. Coello-Coello, (Comunicacin Privada), 2004.

329

Você também pode gostar