Você está na página 1de 98

Universidad Central “Marta Abreu” de Las Villas

Facultad de Ingeniería Eléctrica


Departamento de Electroenergética

TRABAJO DE DIPLOMA

Predicción de la Demanda Eléctrica empleando


Redes Neuronales Artificiales

Autor: Yunier García López

Tutores: Ing. Yordemys Santana Guerra

Msc. Alberto Limonte Ruiz

Santa Clara

2009

“Año del 50 Aniversario de la Revolución Cubana”


Universidad Central “Marta Abreu” de Las Villas
Facultad de Ingeniería Eléctrica
Departamento de Electroenergética

TRABAJO DE DIPLOMA
Predicción de la Demanda Eléctrica empleando
Redes Neuronales Artificiales
Autor: Yunier García López
ygarcia@uclv.edu.cu

Tutores: Ing. Yordemys Santana Guerra


Profesor Instructor, Departamento de Electroenergética,
Facultad de Ingeniería Eléctrica, yordemys@uclv.edu.cu

Msc. Alberto Limonte Ruiz

Profesor, Departamento de Electroenergética, Facultad de


Ingeniería Eléctrica, limonte@uclv.edu.cu

Consultante: Dr. Boris Luis Martínez Jiménez


Jefe de Departamento, Departamento de Automática,
Facultad de Ingeniería Eléctrica, boris@uclv.edu.cu

Santa Clara–2009

“Año del 50 Aniversario de la Revolución Cubana”


Hago constar que el presente trabajo de diploma fue realizado en la Universidad Central
“Marta Abreu” de Las Villas como parte de la culminación de estudios de la especialidad
de Ingeniería en Electroenergética, autorizando a que el mismo sea utilizado por la
Institución, para los fines que estime conveniente, tanto de forma parcial como total y que
además no podrá ser presentado en eventos, ni publicados sin autorización de la
Universidad.

Firma del Autor

Los abajo firmantes certificamos que el presente trabajo ha sido realizado según acuerdo de
la dirección de nuestro centro y el mismo cumple con los requisitos que debe tener un
trabajo de esta envergadura referido a la temática señalada.

Firma del Autor Firma del Jefe de Departamento


donde se defiende el trabajo

Firma del Responsable de


Información Científico-Técnica
i

cxÇátÅ|xÇàÉ
i

ÂcÄtÇ|y|vtÜ xá wxv|w|Ü ÑÉÜ twxÄtÇàtwÉ ÄÉ Öâx wxux {tvxÜáx? xá wxv|Ü? âÇ ÑÄtÇ xá âÇ


vâÜáÉ wx tvv|™Ç ÑÜÉçxvàtwÉÊ

iÉÇ axâÅtÇÇ
ii

Wxw|vtàÉÜ|t
ii

T Å| ÅtwÜx? t Öâ|xÇ wxwÉ àÉwÉ ÄÉ Öâx {x ÄÉzÜtwÉ ç ÄÉ Öâx áÉçA

T Å| ÇÉä|t? ÑÉÜ áâ Ñtv|xÇv|t? vÉÅÑt©•t ç wxw|vtv|™Ç wâÜtÇàx xáàt ÄtÜzt }ÉÜÇtwtA


iii

TzÜtwxv|Å|xÇàÉá
iii

T \ÇzA lÉÜwxÅçá ftÇàtÇt ZâxÜÜt ç `ávA TÄuxÜàÉ _|ÅÉÇàx eâ|é? ÑÉÜ


áâ vÉÄtuÉÜtv|™Ç? Ñtv|xÇv|t ç tÑÉçÉA

T WÜA UÉÜ|á _â|á `tÜà•Çxé ]|Å°Çxé? ÑÉÜ áâ vÉÄtuÉÜtv|™Ç? Ät vâtÄ yâx


wxv|á|ät ÑtÜt Ät vâÄÅ|Çtv|™Ç wx xáàx àÜtut}ÉA

T WÜA ]âtÇ i|Üz|Ä|É _™Ñxé ctÄtv|É? ÑÉÜ áâ tÑÉçÉ ç ÑÜxÉvâÑtv|™Ç wâÜtÇàx


xáàÉá t©Éá wx Å| ä|wtA

T WÜtA XÄát láÉÜt VÉÇàÜxÜtá W•té? ÑÉÜ xáàtÜ á|xÅÑÜx tÄ àtÇàÉ? vÉÅÉ âÇt
ÅtwÜx? wx àÉwtá Å|á }ÉÜÇtwtáA

T Å|á ÑÜÉyxáÉÜxá ç vÉÅÑt©xÜÉá wx xáàâw|É? ÑÉÜ {tuxÜ vÉÇàÜ|uâ|wÉ t Å| yÉÜÅtv|™Ç


vÉÅÉ áxÜ {âÅtÇÉ ç vÉÅÉ ÑÜÉyxá|ÉÇtÄA

T Å|á ytÅ|Ä|tÜxá? tÅ|zÉá ç àÉwtá tÖâxÄÄtá ÑxÜáÉÇtá Öâx {tÇ {xv{É ÑÉá|uÄx Ät
ÜxtÄ|étv|™Ç wx xáàx áâx©ÉA
iv

gtÜxt g°vÇ|vt
iv

1. Recopilación y análisis crítico de la bibliografía existente sobre el pronóstico de la


demanda eléctrica y las redes neuronales.

2. Estudio de las herramientas sobre redes neuronales disponibles en el MatLab.

3. Selección del tipo de red a emplear, entrenamiento y validación de la misma con


datos de un circuito real.

4. Escritura del trabajo.

Firma del Autor Firma del Tutor


v

exáâÅxÇ
v

Dado que la energía eléctrica no se puede almacenar y que los grupos generadores precisan
de tiempo de arranque, que puede ser de muchas horas, es necesario contar con una
previsión de demanda, lo más ajustada posible a la que vaya a ser la realidad, para preparar,
programar y disponer la generación necesaria. Además, tanto los equipos generadores como
las redes de transporte y distribución precisan de mantenimiento, por lo que es preciso
conocer la evolución futura de la demanda para programar el mantenimiento, de forma que
siempre haya generación y elementos de transporte disponibles para ofrecer el servicio.

La demanda eléctrica es el mejor indicador de la carga de trabajo a la que se está


sometiendo un sistema eléctrico y es por ello que este trabajo tiene como objetivo principal
estudiar y proponer una metodología basada en mediciones y la aplicación de Redes
Neuronales Artificiales (RNA) para la predicción de la demanda de circuitos eléctricos en
general.

La teoría de RNA, presenta grandes ventajas con respecto a otros modelos típicos de
solución de problemas de Ingeniería, una de ellas es su inspiración en modelos biológicos
del funcionamiento del cerebro, lo que facilita su estudio debido a las analogías que pueden
introducirse para su análisis.

La precisión de la predicción, a pesar de no haber incluido otras variables que influyen en


el consumo energético como son la nubosidad y la consideración de los días de la semana,
es considerable, llegando a encontrarse la medida del máximo error en un valor aceptable.
˝Çw|vx
vi

PENSAMIENTO ..................................................................................................................... i

DEDICATORIA.....................................................................................................................ii

AGRADECIMIENTOS.........................................................................................................iii

TAREA TÉCNICA................................................................................................................ iv

RESUMEN ............................................................................................................................. v

INTRODUCCIÓN.................................................................................................................. 1

Organización del Informe................................................................................................... 2

CAPÍTULO 1. PREDICCIÓN DE LA DEMANDA ELÉCTRICA ...................................... 3

1.1 Introducción............................................................................................................ 3

1.2 Importancia de la Predicción .................................................................................. 3

1.3 Evolución Histórica ................................................................................................ 8

1.4 Factores que Influyen en la Predicción................................................................... 9

1.5 Modelación de la Predicción ................................................................................ 11

1.5.1 Corto Plazo ................................................................................................... 12

1.5.2 Medio Plazo.................................................................................................. 12

1.5.3 Largo Plazo................................................................................................... 13

1.6 Métodos de Predicción ......................................................................................... 13

1.6.1 Tendencia Histórica...................................................................................... 15

1.6.2 Series Cronológicas ...................................................................................... 15

1.6.3 Usuario Final ................................................................................................ 17

1.6.4 Econométricos .............................................................................................. 18

1.6.5 Híbridos ........................................................................................................ 19

1.7 Evaluación de la Predicción ................................................................................. 20


vii

CAPÍTULO 2. RED NEURONAL ARTIFICIAL ............................................................... 21

2.1 Introducción.......................................................................................................... 21

2.2 Características Principales de una Neurona Biológica ......................................... 23

2.3 Características Principales de una Red Neuronal Artificial ................................. 25

2.4 Justificación del Tipo de Red ............................................................................... 27

2.4.1 Antecedentes................................................................................................. 28

2.4.2 Funcionamiento de la Red ............................................................................ 29

2.4.3 Funciones de Transferencia .......................................................................... 31

2.4.4 Arquitectura de la Red.................................................................................. 32

2.4.5 Regla de Aprendizaje.................................................................................... 34

CAPÍTULO 3. ENTRENAMIENTO Y VALIDACIÓN ..................................................... 41

3.1 Selección del Conjunto de Entrenamiento............................................................ 41

3.2 Entrenamiento del Modelo ................................................................................... 44

3.3 Validación del Modelo ......................................................................................... 49

3.4 Conclusiones del Capítulo .................................................................................... 53

CONCLUSIONES................................................................................................................ 55

RECOMENDACIONES ...................................................................................................... 56

REFERENCIAS BIBLIOGRÁFICAS ................................................................................. 57

ANEXOS .............................................................................................................................. 59

Anexo I Demanda Eléctrica del Lazo Santa Clara-Camajuaní................................... 59

Anexo II Red Backpropagation ................................................................................... 73


1

\ÇàÜÉwâvv|™Ç
INTRODUCCIÓN
1

En la actualidad, cuando alguien actúa sobre uno de los interruptores de la casa o del
trabajo, no pasa por su mente la posibilidad de que al tiempo que enciende o apaga una
lámpara, indirectamente, está emitiendo una orden a varias centrales eléctricas, que están
obligadas a incrementar o a reducir su generación para atender las necesidades del cliente.
La consecuencia inmediata es que la generación producida, por el conjunto de generadores
del sistema, debe ajustarse al consumo de energía demandada en cada uno de estos
instantes, lo cual no es un asunto baladí.

Dado que la energía eléctrica no se puede almacenar y que los grupos generadores precisan
de tiempo de arranque, que puede ser de muchas horas, es necesario contar con una
previsión de demanda, lo más ajustada posible a la que deba ser la realidad, para preparar,
programar y disponer la generación necesaria. Además, tanto los equipos generadores como
las redes de transporte y distribución precisan de mantenimiento, por lo que es necesario
conocer la evolución futura de la demanda para programar el mantenimiento, de forma que
siempre haya generación y elementos de transporte disponibles para ofrecer el servicio.

Las RNA son aplicables en aquellos problemas en los que las leyes que rigen la naturaleza
son desconocidas o son de difícil implementación en los sistemas secuenciales y
constituyen una herramienta de computación fácilmente aplicable, incluso como caja negra.
El modelo de programación basado en RNA ha experimentado un fuerte crecimiento en los
últimos años y las áreas de conocimiento en las que se están aplicando son muy diversas,
incluyendo disciplinas tan diversas como son la industria, la medicina y las finanzas.

La demanda eléctrica es el mejor indicador de la carga de trabajo a la que se está


sometiendo un sistema eléctrico y es por ello que este trabajo tiene como objetivo principal
estudiar y proponer una metodología basada en mediciones y la aplicación de RNA para la
predicción de la demanda de circuitos eléctricos en general. Finalmente, es necesario prever
la evolución creciente de la demanda de energía a lo largo de los años, para ajustar las
inversiones en nuevo equipo generador y de transporte y continuar garantizando la
cobertura del servicio.

La importancia de la predicción no se queda en un mero dato indicativo, sino que es un


claro reflejo de la actividad económica y del bienestar de un país, en definitiva, se tratará de
hacer compatible la calidad del servicio y una mejor asignación de los recursos, pues sólo
INTRODUCCIÓN
2

con esta filosofía se podrán sentar las bases para un crecimiento económico estable y
sostenido.

Organización del Informe

La primera sección o capítulo uno, es dedicado a la historia del arte de la predicción de la


demanda eléctrica. Aquí se describe la importancia y los factores que influyen en la
predicción, así como la evolución histórica y la evaluación de esta. Se muestran otros
aspectos, no menos importantes, como son la modelación y los métodos de predicción.

En el siguiente capítulo se encontrará un bosquejo general sobre el desarrollo de la teoría de


las RNA desde su nacimiento hasta los últimos aportes que se han hecho; se encontrará
también un resumen acerca del funcionamiento del cerebro en general y de cómo ocurre el
proceso neuronal y la analogía que llevó a la transición del modelo biológico al modelo
artificial. Para terminar se encontrará también la explicación que llevó a la selección del
tipo de red; allí se profundiza en los aspectos fundamentales, antecedentes, funcionamiento
de la red, funciones de transferencia utilizadas, arquitectura de la red y el desarrollo
matemático de la regla de aprendizaje.

El capítulo tres es la recopilación de todos los conocimientos adquiridos desde el capítulo


uno y ratificados en el capítulo dos, que permiten ilustrar ampliamente el comportamiento
de la red neuronal escogida. En esencia se muestra la selección del conjunto de
entrenamiento, así como el entrenamiento y la validación del modelo.
3

VtÑ•àâÄÉ D
CAPÍTULO 1. PREDICCIÓN DE LA DEMANDA ELÉCTRICA
3

PREDICCIÓN DE LA DEMANDA ELÉCTRICA

1.1 Introducción

A mediados de la década de 1970 el pronóstico de la demanda de energía eléctrica había


recibido escasa atención de la opinión pública, ya que el entorno económico anterior a la
primera crisis del petróleo se podía considerar relativamente estable. El bajo precio de los
combustibles utilizados en la generación de la energía eléctrica era bastante predecible, las
tasas de interés eran moderadas y no existían demasiados problemas para que los mercados
de capitales proporcionasen los fondos necesarios para la expansión del sector eléctrico.
Razones por las cuales se consideraba un proceso relativamente simple y constituía un
reflejo directo de los requerimientos instantáneos de potencia por parte de los consumidores
sobre la base de los datos históricos.

Es así que, bajo este contexto y considerando los dramáticos cambios estructurales que se
están presentando en los mercados eléctricos con la introducción de la competencia donde
entran en juego intereses económicos, se hace importante que el pronóstico de la demanda
eléctrica minimice todas las incertidumbres, por lo que los operadores del sistema deben
trabajar con el mayor nivel de eficiencia posible.

1.2 Importancia de la Predicción

Ante todo se cree conveniente hacer un breve comentario sobre la utilización de varios
términos. La planificación se refiere a las acciones llevadas a cabo para realizar planes y
proyectos de diferente índole. El proceso de planeación sigue un conjunto de pasos que se
establecen inicialmente, y quienes realizan la planificación hacen uso de las diferentes
expresiones y herramientas con que cuenta la planeación. La planificación ejecuta los
CAPÍTULO 1. PREDICCIÓN DE LA DEMANDA ELÉCTRICA
4

planes desde su concepción y, si es el caso, se encarga de la operación en los diferentes


niveles y amplitudes de la planeación. La planificación de trabajos realiza acciones
basándose en la planeación de cada uno de los proyectos y de manera inicial concibe el plan
para que posteriormente sea llevado a cabo. La planificación es la parte que opera la
ejecución directa de los planes, que serán realizados y vigilados de acuerdo al
planteamiento señalado durante el proceso de planeación [1].

En sentido estricto, la verdadera predicción sería la realizada a partir de la última


observación histórica. Sin embargo, puesto que suele ser muy útil comprobar cómo se
habría comportado un modelo dentro del período histórico si se hubiera utilizado para
pronosticar observaciones históricas ya conocidas con certeza, es frecuente emplear
también el término predicción para lo que, en realidad, podría ser considerado como
bondad de ajuste a valores históricos, siendo numerosas las publicaciones que utilizan
indistintamente el término predicción, tanto para el ajuste de los períodos históricos como
para el cálculo correspondiente a períodos futuros [2].

La demanda de potencia y el consumo de energía eléctrica son funciones no lineales en el


tiempo las cuales presentan distintos valores en los diferentes puntos geográficos de la red.
Esto se debe a la naturaleza de los usuarios, a la intensidad y modos de uso de la energía
[3]. Una curva característica de la variación de la demanda se muestra en la figura 1.2.1

Figura 1.2.1 Curva típica de demanda diaria


CAPÍTULO 1. PREDICCIÓN DE LA DEMANDA ELÉCTRICA
5

Si se divide el año en intervalos infinitesimales se puede asegurar que, a lo largo y ancho de


todo el sistema, en cada uno de esos intervalos se oprime el botón del mecanismo de un
gran número de interruptores, que son accionados por los clientes a su libre albedrío para
hacer uso, o dejar de utilizar, la energía eléctrica. La suma de todas y cada una de las
potencias consumidas en el mismo instante es lo que se denomina demanda eléctrica. Así se
puede hablar de demanda instantánea, como la potencia eléctrica consumida en todo el
sistema en un instante concreto, o de demanda horaria, que es la energía absorbida en el
sistema durante una hora. Y también de energía diaria, que es el consumo de energía
eléctrica a lo largo de un día en un sistema eléctrico [4].

Un sistema de energía eléctrica debe abastecer de energía a todos los puntos de carga con
una buena calidad del servicio. Por lo tanto un sistema eléctrico confiable, el cual asegura
buena calidad, debe contar con las siguientes características:

• Entregar energía en forma continua a todos los puntos de carga.

• Los límites de la frecuencia y la tensión deben estar dentro de valores tolerables.

• Operar, en la medida de lo posible, con costos mínimos y con un mínimo de


alteraciones ambientales o ecológicas.

Estas características pueden adquirirse por medio de una planeación exhaustiva del sistema,
que permita conocer no solo su estado actual, sino también las medidas que deben
adoptarse para condiciones futuras.

Una de las herramientas útiles en el planeamiento de un sistema eléctrico es la predicción


de la demanda (carga) eléctrica, la cual permite conocer de antemano la necesidad de
expansión del sistema, la finalidad de la predicción siempre será el mejoramiento del
servicio, convirtiéndose en uno de los primeros pasos en cualquier proceso de planeamiento
de un sistema eléctrico.

La importancia de la predicción de la demanda de energía eléctrica surge, de forma obvia,


de la incertidumbre asociada a una magnitud que se refiere al futuro. La mencionada
predicción puede ayudar a determinar si, previsiblemente, se va a producir una carencia de
capacidad generadora (en consecuencia pudiera ser conveniente la construcción de nuevas
centrales de energía o simplemente impulsar la adopción de medidas de conservación de la
CAPÍTULO 1. PREDICCIÓN DE LA DEMANDA ELÉCTRICA
6

energía) o, por el contrario, en el futuro existirá un exceso de capacidad (pudiera aconsejar


la no utilización de parte del parque generador ya existente).

Al hablar de predicción de carga, resulta útil aclarar que como carga se asume todo equipo
que demanda energía del sistema de energía eléctrica, tales como lámparas,
electrodomésticos, motores eléctricos, hornos eléctricos, etc. De esta manera se tienen
varios tipos de carga:

• Motores en general

• Equipos de calentamiento

• Equipos electrónicos

• Equipo de iluminación

Estas cargas presentan características muy diferentes con relación al tamaño, simetría ( 1φ o
3φ ), constancia de la carga y el período de funcionamiento. Desde el punto de vista del
sistema de energía eléctrica, las cargas pueden ser separadas en tres grupos funcionales:

• Carga comercial

• Carga industrial

• Carga residencial

La predicción de consumo de carga refleja las necesidades futuras de una población; esta
predicción debe ser lo más ajustada a la realidad, ya que unos valores inferiores a los reales
causarán deficiencias en la prestación del servicio en el futuro y un pronóstico de
necesidades superior al real, motiva la inversión prematura en instalaciones que no tendrán
un aprovechamiento inmediato [5].

La proyección del suministro de energía se hace con base en el consumo, aplicando


porcentajes de pérdidas que pueden obtenerse de un análisis de los registros históricos
(normalmente se presentan en forma estadística), o por similitud con otros sistemas. En
general las pérdidas tienden a disminuir a causa de las mejoras progresivas, que se
introducen en los sistemas de transmisión, subtransmisión y distribución. En forma similar
CAPÍTULO 1. PREDICCIÓN DE LA DEMANDA ELÉCTRICA
7

al consumo de energía, la proyección de la demanda pico se obtiene sumando las demandas


máximas coincidentes en hora pico [6].

Según Kher, Sioshansi y Sorooshian (1987), “La industria energética es un sector de capital
intensivo con inversiones a muy largo plazo”. Puesto que se necesita al menos una década
para planificar y construir una nueva planta generadora, una predicción correcta de la
demanda de energía eléctrica es un requisito imprescindible para lograr las metas previstas
de calidad y fiabilidad del servicio, ya que la creciente dependencia de la electricidad
aumenta los inconvenientes causados a los consumidores si se producen deficiencias en el
suministro de energía eléctrica. Baum (1998) comenta que, “Los estudios de perspectiva
coinciden en que la electricidad es uno de los sectores que mantendrá en el futuro una de
las tasas de crecimiento más altas”.

La predicción de la demanda es una actividad esencial de los suministradores de energía


eléctrica. Sin una adecuada representación de las necesidades futuras de generación
eléctrica los problemas de exceso de capacidad, o por el contrario de capacidad
insuficiente, pueden tener costos sorprendentemente altos. De acuerdo con W. Labys
(1999), “Si las predicciones resultan ser demasiado bajas pueden tener lugar carencias de
energía cuyos costos habitualmente son mucho mayores que el valor de energía no
suministrada. Por el contrario, si las previsiones resultan demasiado altas, los costos de
oportunidad pueden ser muy elevados al tener comprometidos, de forma improductiva,
cuantiosos fondos económicos durante largos períodos de tiempo”.

Es difícil que ambas desviaciones, por exceso o por defecto, no acaben repercutiendo sobre
el usuario final. A ese respecto, cabe mencionar que, pese a la creciente preocupación
medioambiental, algunos países industrializados han vuelto a considerar la opción nuclear.

Según Walter Labys (1999), “Existen al menos tres motivos para modelar la demanda de
energía. En primer lugar, el suministro razonablemente fiable de energía es vital para el
funcionamiento de la economía moderna. En segundo lugar, la aplicación de los sistemas
de suministro de energía requiere de muchos años. En tercer lugar, las inversiones
necesarias en tales sistemas son altamente intensivas en capital representando, en algunos
países, una considerable proporción de su producto interno bruto”.
CAPÍTULO 1. PREDICCIÓN DE LA DEMANDA ELÉCTRICA
8

Por otra parte, los índices habituales de fiabilidad eléctrica miden la probabilidad de que se
pueda prestar el servicio requerido y, por tanto, los programas de planificación del sector
eléctrico se basan, fundamentalmente, en las predicciones que se realicen sobre las puntas
(picos) de potencia y energía demandada y, de acuerdo con ellas, se pueden adoptar las
eventuales decisiones de incrementar la capacidad generadora instalada. Es obvio que,
cuanto más acertadas sean tales predicciones, menores serán los riesgos de incurrir en
inversiones innecesarias y causar insatisfacción a los usuarios [7].

1.3 Evolución Histórica

En el entorno estable de las décadas 1950 y 1960 las técnicas de predicción simples, tales
como la mera extrapolación de la tendencia, eran suficientes para proyectar los futuros
picos de carga o la energía consumida. Estas técnicas tan simples proporcionaban, en las
décadas mencionadas, una respuesta adecuada debido, entre otras razones, a la considerable
estabilidad de los precios en general (en particular de los combustibles empleados en la
generación eléctrica), al relativamente bajo costo del capital, a las economías de escala que
parecían sugerir plantas generadoras cada vez mayores, en un contexto en el que parecía
normal que la demanda de energía eléctrica creciera anualmente alrededor de un 7%, y una
tendencia demográfica bastante predecible en muchas zonas geográficas. Entre los técnicos
de planificación de las compañías eléctricas estaba muy extendida la idea, no sólo de que la
demanda aproximadamente se duplicara cada diez años, sino también la de que, hasta cierto
punto, el sector era prácticamente ajeno a la ley de la oferta y la demanda. Una
consecuencia de todo lo anterior es que, en las décadas mencionadas, no hubiese necesidad
de dedicar gran atención a analizar los factores subyacentes en la demanda de la energía
eléctrica [8].

A partir de 1970 se produjo un creciente interés en la modelación econométrica de la


demanda eléctrica, debido entre otras razones, a la primera crisis del petróleo en 1973 y a la
consiguiente severa recesión económica mundial del bienio de 1974-1975, que en algunos
países, por diversas razones, se prolongó bastante más tiempo. Esta disminución en las
tasas de crecimiento económico indujo políticas de conservación energética y
modificaciones en el uso final de la energía eléctrica. La gran volatilidad de los precios de
la energía en los años posteriores a 1973 resultó tan inesperada como la repentina
CAPÍTULO 1. PREDICCIÓN DE LA DEMANDA ELÉCTRICA
9

elasticidad de la demanda de los usuarios a los crecientes precios de la energía eléctrica.


Los técnicos de planificación eléctrica tuvieron que plantearse varias alternativas, entre las
que se encontraban continuar o no, como hasta entonces, con las plantas convencionales de
fuel oil, incrementar la producción de las plantas nucleares o dedicar mayores cantidades de
dinero a la investigación sobre las energías renovables. La mayoría de los estudios de esta
época se encuentran citados en los trabajos exhaustivos de Taylor (1975), Taylor (1976) y
Einkorn (1980) [8].

La década de 1990 trajo la ola de la desregulación que, teóricamente, rompería el casi


monopolio que, había supuesto la industria de la energía eléctrica durante décadas en la
mayoría de los países. La idea básica pasó a ser que la electricidad, en el futuro, sería
tratada como cualquier otra mercancía, en la que el comprador se abastecería del proveedor
que mejor precio ofertase [8].

En este nuevo escenario de creciente incertidumbre, las compañías eléctricas tendrían cada
vez mayor dificultad para seguir sobrecargando a sus clientes (abonados) con los costos
derivados de decisiones sobre inversiones inapropiadas como consecuencia de predicciones
erróneas de la demanda eléctrica.

1.4 Factores que Influyen en la Predicción

Como se ha comentado anteriormente, el propio precio relativo de la electricidad puede ser


un factor importante en la cantidad de energía consumida por las clases de clientes
anteriormente mencionados. La influencia de otros factores puede ya no ser tan clara. Así,
por ejemplo, el precio de los productos sustitutivos (petróleo, gas natural, carbón, etc.)
también se suele considerar un factor relevante en la cantidad de energía eléctrica
consumida.

Otros factores de considerable importancia en la demanda de energía eléctrica también


pueden depender del sector considerado. Así, en el sector comercial son factores relevantes
la magnitud del espacio ocupado por las oficinas, el nivel de empleo en el sector servicios,
el número de potenciales clientes en la proximidad del establecimiento comercial, el
tamaño de la población escolar, los niveles de consumo de los ciudadanos, etc. En el sector
industrial se suelen considerar factores influyentes en la demanda de energía eléctrica, el
CAPÍTULO 1. PREDICCIÓN DE LA DEMANDA ELÉCTRICA
10

nivel de producción industrial, el nivel de empleo en este sector, la productividad de los


distintos establecimientos industriales, la normativa medio ambiental, etc.

En el sector residencial se pueden considerar factores relevantes el número de


consumidores, el precio de los electrodomésticos, el nivel de penetración en el mercado del
aire acondicionado, el número de personas por vivienda y los grados diarios de calefacción
o de refrigeración. Según Bartels y Fiebig (1996), “El sector residencial es habitualmente
uno de los que principalmente contribuye a las puntas de demanda del sistema de
generación eléctrica”.

También puede variar la demanda residencial de electricidad según la hora del día, ya que
se suele consumir más electricidad durante las primeras horas del día antes de producirse la
incorporación a la jornada laboral, declinando posteriormente el consumo eléctrico
doméstico durante el desarrollo de la misma y volviendo a aumentar dicho consumo cuando
tiene lugar el regreso al hogar al finalizar la jornada laboral [9] y según el día de la semana
considerado, ya que la demanda suele ser mayor durante los días laborables que durante los
fines de semana o los días festivos, por ejemplo: Navidad, año nuevo, carnavales, etc.[10].

Por otra parte, la creciente desregulación del sector eléctrico en la mayoría de los países
industrializados añade un elemento adicional de incertidumbre, ya que las tradicionales
fronteras entre las compañías eléctricas cada día estarán menos claramente delimitadas y
será el mercado el que determine el precio de la electricidad, con la consiguiente influencia
de dicho precio en el consumo. Obviamente la desregulación aumenta la necesidad de una
correcta predicción de la demanda de energía eléctrica para las respectivas empresas
suministradoras [9].

La consideración de otros factores se ha visto condicionada por la escasa información


disponible para la resolución del problema, siendo necesaria la consideración únicamente
de los factores más importantes [11]. Aquí se englobarían variables como la humedad
relativa, la nubosidad, la probabilidad de lluvia, la pluviosidad, la temperatura, etc., sin
embargo, algunas de ellas son típicamente aleatorias y otras aparecen interrelacionadas
[12].

En verano, para un rango de temperaturas dado, la humedad relativa es muy significativa al


influir en la utilización de equipos de climatización. La nubosidad y la probabilidad de
CAPÍTULO 1. PREDICCIÓN DE LA DEMANDA ELÉCTRICA
11

lluvia pueden ser indirectamente reflejadas con la humedad relativa. El brillo del sol es un
índice que mide el grado de nubosidad que afecta directamente el consumo de energía
eléctrica [10]. La precipitación es otro parámetro importante que afecta la carga del
sistema, reflejada discretamente sobre las cargas destinadas a la climatización y al
alumbrado.

La variable temperatura en este caso tiene efectos contradictorios sobre la demanda total
del sistema de potencia en función de las características de cada región, por ejemplo, un
grado de nubosidad bajo en la región montañosa puede ser asociado con intensos vientos
que bajan la temperatura e incrementan la demanda de energía eléctrica del sistema,
mientras que en la región del litoral o costa, la misma razón de nubosidad, puede estar
asociada a un día templado lo que disminuirá la demanda eléctrica [13]. Es la variable
atmosférica más importante ya que el cambio de la carga ocurre con grandes variaciones de
temperatura [10].

Muchos son los factores que afectan la demanda de energía eléctrica, siendo el usuario final
el factor más relevante, además de otro tipo de eventualidades que generalmente se conocen
como no controlables. Por este motivo es importante realizar un análisis exhaustivo de las
diversas variables exógenas (independientes) que pueden incidir positiva o negativamente
en el perfil de la demanda.

No es fácil dar reglas generales de la época del año en la que se alcanza el máximo de
potencia demandada o la máxima energía consumida. Entre los factores que dificultan esta
generalización figuran las condiciones climáticas, socioeconómicas, políticas de demora de
la facturación respecto al consumo, etc. Ni siquiera el comportamiento observado en el
pasado por las mencionadas magnitudes garantiza la continuidad de sus características en el
futuro.

1.5 Modelación de la Predicción

Al construir un modelo para la demanda de electricidad deben considerarse las cuestiones a


las que tales modelos han de responder. En este contexto, el horizonte temporal de la
predicción está relacionado con los problemas a los que se enfrenta una compañía eléctrica.
CAPÍTULO 1. PREDICCIÓN DE LA DEMANDA ELÉCTRICA
12

Básicamente se pueden considerar tres horizontes temporales para la predicción de la


demanda de energía eléctrica.

1.5.1 Corto Plazo

Período que a veces se suele subdividir en muy corto plazo y en corto plazo propiamente
dicho. Se suele considerar que el primero de tales períodos abarca los próximos 30 minutos
en tiempo real a partir del momento en que se efectúa la predicción de la demanda. El
principal objetivo a cubrir en este periodo de tiempo es la distribución, de la forma más
económica posible, de los diversos recursos de generación disponibles. Realmente se trata
de realizar el seguimiento de la carga y de la predicción inmediata de esta basándose en los
datos de la demanda durante las pasadas 24 horas [8].

El corto plazo propiamente dicho se extiende desde una hora hasta una semana en el futuro
y, en este período, debe procurarse principalmente el mantenimiento previamente
establecido y de la operación diaria del equipo generador, la coordinación hidrotérmica, la
asignación de unidades generadoras y la gestión de la carga. Los datos en los que se basa la
predicción en este período son la carga diaria y la información de la temperatura en la
misma época de los años recientes del pasado. La predicción de la punta de potencia diaria
suele tener lugar también para la próxima semana. En este horizonte temporal de corto
plazo es importante una predicción lo más exacta posible de la demanda, para determinar
qué generadores deberían ser puestos en funcionamiento y cuales deberían permanecer en
reserva [8].

1.5.2 Medio Plazo

Se suele entender el período de predicción que se extiende en el futuro desde un mes hasta
un año a partir del momento en que se efectúa el pronóstico. Esta predicción es necesaria,
generalmente, para establecer el calendario de mantenimiento de las plantas generadoras y
del sistema de transmisión. Los datos básicos para realizar esta predicción son los datos
mensuales de puntas de carga a lo largo de varios años así como la energía demandada y la
temperatura registrada en ellos así como algunos indicadores socioeconómicos. La energía
demandada mensualmente se predice en el horizonte temporal de un año, en este período se
presenta una estructura de la demanda cualitativa y cuantitativa potencialmente cambiante,
CAPÍTULO 1. PREDICCIÓN DE LA DEMANDA ELÉCTRICA
13

la que se ha de satisfacer con una capacidad generadora que es esencialmente fija o


determinada [8].

1.5.3 Largo Plazo

Se suele denominar largo plazo al período de predicción que abarca desde uno a diez años
en el futuro. Puesto que el tiempo necesario para planificar, construir, probar y poner en
funcionamiento una nueva capacidad generadora, que puede oscilar entre tres y diez años.
Un modelo econométrico puede resultar muy adecuado en este horizonte temporal de largo
plazo y, cuanto más exactas sean sus predicciones mayor es la probabilidad de satisfacer las
puntas de demanda y mejorar el factor de carga1 . Esta predicción de largo plazo se necesita,
generalmente, para la planificación del sistema generador y del sistema de transmisión o
transporte, ya que una modelación y predicción adecuadas a largo plazo de la demanda
puede anticipar la capacidad de generación óptima y la combinación o mezcla de potencia
generadora más conveniente con que debe contar, posiblemente mediante nuevas
adquisiciones, el parque generador. Los datos para la elaboración de la demanda a largo
plazo suelen ser, además de los mencionados anteriormente, con periodicidad anual, el
precio de la electricidad, el de los productos sustitutivos y la evolución demográfica, así
como la de los indicadores económicos más relevantes [8].

1.6 Métodos de Predicción

Una primera clasificación de los métodos de predicción es la que los divide en cualitativos
y cuantitativos. Básicamente los métodos cualitativos son aquellos en los que el pasado no
proporciona una información relevante sobre la variable que se pretende investigar, por lo
que no son los métodos, sino la opinión de los expertos que tengan buenos conocimientos
acerca de dicha variable y del contexto en que se pretenda estudiar. Dentro de los métodos
cualitativos más relevantes figuran, de menor a mayor exigencia de formalismo
matemático, los denominados Brainstorming (intenta aflorar nuevas ideas en un grupo de

1
Por factor de carga -durante un período determinado- se define la razón de la potencia media demandada a la
potencia máxima durante dicho período.
CAPÍTULO 1. PREDICCIÓN DE LA DEMANDA ELÉCTRICA
14

expertos), Delphi (utilización sistemática de juicios de opinión hasta llegar a un acuerdo) y


Cross-Impact (evaluación de la función de distribución de diversos escenarios futuros). En
cambio, en los métodos cuantitativos, un objetivo primordial consiste en extraer toda la
información posible contenida en los datos históricos [8].

Se puede distinguir entre la predicción ex-post y la predicción ex-ante. Aunque no existe


uniformidad en la utilización de estos términos se puede decir que, en sentido estricto, la
primera es aquella predicción que se realiza para un período de datos reales que ya se
conocen, es decir, las observaciones en las variables endógenas (dependientes) y en las
variables exógenas del período pronosticado ya se conocen con certeza en el período que se
realiza el pronóstico. Por el contrario, una predicción ex-ante se refiere a un período
respecto al cual no se dispone de datos reales, es decir, el período en cuyo pronóstico se
está interesado pertenece al futuro [2].

También se puede distinguir entre una predicción condicional y otra incondicional. En esta
última se conocen con certeza las variables exógenas del modelo, mientras que en un
pronóstico condicional el valor de al menos una de las variables exógenas no se conoce, por
lo que hay que utilizar predicciones de las variables que sean desconocidas para realizar el
pronóstico de la variable endógena [2].

La tipología de las predicciones puede ser considerada desde otro punto de vista,
distinguiéndose entre la predicción dinámica, estática y estructural. En la primera de ellas
se obtienen los pronósticos que se calculan a partir de la primera observación del período
de predicción utilizando valores previamente pronosticados para la variable endógena. En
la predicción estática las predicciones se calculan secuencialmente a partir de las
observaciones anteriores, pero utilizando exclusivamente valores realmente observados, por
los que sólo si se dispone de tales observaciones se puede efectuar la predicción estática
[2].

Los métodos de predicción de la demanda de energía eléctrica han evolucionado


considerablemente desde la década de 1970 hasta la actualidad. En general el horizonte
temporal ha sido uno de los factores primordiales que han tenido en cuenta las
metodologías utilizadas [14].
CAPÍTULO 1. PREDICCIÓN DE LA DEMANDA ELÉCTRICA
15

1.6.1 Tendencia Histórica

Estos métodos eran casi los únicos utilizados, con carácter general, antes de la década de
1970, debido a las tendencias estables de la demanda en dicha época, pero actualmente su
utilización prácticamente ha quedado reducida a muy corto plazo. En esta técnica se obtiene
el ajuste de la tendencia general histórica en kWh facturados o en los kW de las puntas de
potencia [14].

Los métodos de tendencia histórica, en general, usan los datos anteriores de demanda de
cada microárea 2 para extrapolar su carga futura. Sin embargo a medida que el tamaño de
las microáreas disminuye, el proceso de desarrollo se cumple de una manera rápida [1].

Algunas de las técnicas utilizadas en estos métodos recurren a una transformación previa de
los datos de carga, a fin de que el ajuste explique con mayor facilidad la tendencia del
consumo. Otras técnicas de esta metodología suponen una tasa de crecimiento constante de
la demanda, mientras que otras se basan en una curva de saturación que tiene un período
inicial de crecimiento lento, seguido de un período intermedio de crecimiento rápido, al que
sigue un período final en el que declina la tasa de crecimiento alcanzando la energía
demandada su nivel de saturación.

Entre las principales ventajas de estos métodos se pueden citar su economía y rapidez, el no
necesitar un gran apoyo técnico y su mínima exigencia en cuanto a los datos requeridos. En
cuanto a sus desventajas puede decirse que estos métodos no son sensibles a los cambios
estructurales y que no disponen de una traza histórica para interpretar las causas de los
errores pasados de predicción a fin de corregir el modelo en caso de ser necesario [14]. Los
métodos de tendencia histórica presentan problemas clásicos como sobrextrapolación, esto
es, predecir mayor carga de la que puede existir en términos reales en una microárea [1].

1.6.2 Series Cronológicas

Los métodos de series cronológicas efectúan la predicción de la demanda de energía


eléctrica analizando la trayectoria de los datos históricos y proyectándola en el futuro. En

2
Por microárea se define la mínima unidad espacial de carga a la cual se le asigna la demanda eléctrica con
un mínimo de tiempo de tres años.
CAPÍTULO 1. PREDICCIÓN DE LA DEMANDA ELÉCTRICA
16

particular los métodos de Box-Jenkins suelen resultar adecuados cuando existe una fuerte
autocorrelación entre los datos de la serie analizada. Los modelos de series cronológicas se
basan implícitamente, al menos, en la suposición que los valores futuros de la variable de
interés son una función de sus propios valores pasados o históricos [14].

Entre los métodos univariantes se pueden distinguir, en principio, los métodos de


descomposición, de aislado exponencial y los modelos Autorregresivos Integrados de
Medidas Móviles (ARIMA). En los métodos de descomposición o de componentes no
observables, que aún continúan usándose en la actualidad, se suelen distinguir la tendencia
global o variaciones a largo plazo, mayor de un año, no estrictamente periódicas, el factor
cíclico o estacional de carácter periódico y el movimiento irregular no sujeto a ninguna
periodicidad y que no debe confundirse con la componente aleatoria de carácter no
previsible. Los métodos de alisado exponencial proporcionan una tendencia de carácter
local que se actualiza en cada punto de la serie en función de las observaciones más
recientes. Las técnicas ARIMA tienen como objetivo primordial identificar el modelo
generador de los datos, para posteriormente estimarlo y verificarlo [15].

Si el valor de la demanda actual puede expresarse sólo como combinación lineal de un


número determinado de datos pasados, estamos ante un proceso Autorregresivo (AR). En
cambio, si expresamos la demanda presente sólo como combinación lineal de los errores
pasados de predicción, el proceso se denomina de Medias Móviles (MA). Cuando para
expresar la demanda actual necesitamos las dos combinaciones lineales mencionadas, en
todos los casos anteriores es necesario identificar el orden de los polinomios de retardo,
estimar los parámetros del modelo identificado y proceder a la validación de este último.
Cuando los datos de la serie evidencian un comportamiento no estacionario es necesario
diferenciar los datos hasta que se logre la estacionalidad del proceso, debiendo identificar
también el orden de las diferencias aplicadas. Ello da lugar a los denominados modelos
ARIMA.

Se puede decir que entre las principales ventajas de la utilización del análisis de series
temporales se encuentran su bajo costo, su moderado error en el corto plazo y que sólo
utiliza datos históricos de la serie que se trata de predecir, pudiendo citarse entre sus
inconvenientes que, al suponer permanente la caracterización de la trayectoria de los datos
CAPÍTULO 1. PREDICCIÓN DE LA DEMANDA ELÉCTRICA
17

históricos, se está postulando implícitamente que las condiciones socioeconómicas del


pasado serán invariables en el futuro [14].

1.6.3 Usuario Final

En la literatura especializada no hay unanimidad en considerar a los métodos de usuario


final como cualitativamente distintos de los métodos de saturación de aparatos
(generalmente electrodomésticos), ya que la metodología en ambos casos consiste en hallar
la energía eléctrica consumida por un determinado tipo de aparato como el resultado de
multiplicar el número de usuarios del mismo y sus tasas de utilización por el consumo
energético de dicho aparato, agregando a continuación tales productos sobre los diferentes
tipos de aparatos electrodomésticos que se desee incluir por considerarlos relevantes desde
el punto de vista de la energía consumida.

Otras ligeras variaciones de estos modelos, bien sea limitarse a considerar los nuevos
usuarios de determinado aparato a fin de estimar sólo el incremento de la demanda debido a
este último o bien sea considerar el nivel de saturación 3 en una determinada población del
aparato eléctrico en cuestión, no modifican básicamente el enfoque de lo que
fundamentalmente se trata de estimar.

Estos modelos son aplicables, en principio, a la estimación de la demanda de energía


eléctrica en los sectores residencial, comercial, industrial y servicios. No obstante, a veces,
cuando se trata de estimar la demanda de energía eléctrica sólo en el sector residencial se
tiende más a utilizar la expresión de estimación por saturación de aparatos. En cambio,
cuando se trata de una estimación en los demás sectores mencionados se acostumbra a
emplear preferentemente la terminología de estimación por el método de usuario final [14].

Aunque estos modelos parecen inicialmente atractivos porque potencialmente ofrecen


información útil para políticas de planificación, sin embargo, sus limitaciones son obvias.
Así, por ejemplo, es difícil incorporar a estos modelos el tipo de día (laborable, festivo o fin
de semana) de que se trate. Además, si se pretende incluir a todos los aparatos eléctricos los

3
Por saturación o penetración de un aparato se define el porcentaje -estable- de hogares que lo poseen
después de que hayan transcurrido varios años desde la introducción en el mercado del mismo.
CAPÍTULO 1. PREDICCIÓN DE LA DEMANDA ELÉCTRICA
18

modelos pueden resultar muy complejos y difíciles de analizar, sobre todo en los sectores
industrial y comercial los cuales presentan menos homogeneidad que la que se observa en
el sector residencial. Por otra parte, en aquellos casos en que se han realizado experimentos
de seguimiento en panel de consumidores, los costos de medición y obtención de datos han
sido muy elevados [14].

También hay que tener en cuenta que si lo que se pretende es la predicción de la demanda a
largo plazo las expresiones de la demanda para cada aparato sólo tendrán sentido si los
datos correspondientes se han obtenido sobre períodos largos de tiempo, en los que han
podido tener lugar considerables fluctuaciones, no sólo en el desarrollo tecnológico de los
aparatos, sino también en otras variables entre las que se encuentran las socioeconómicas.

1.6.4 Econométricos

Los métodos econométricos se basan en ecuaciones estimadas que relacionan la demanda


de electricidad con factores externos. Generalmente se considera que algunos de los
modelos de este tipo pueden ser los más complejos de todos los utilizados para la
predicción de la demanda de la energía eléctrica.

En estos modelos la demanda futura se determina considerando la influencia que en esta


última tienen algunas variables exógenas, cuyos valores históricos son un requisito
imprescindible para la utilización de estos modelos. Entre las mencionadas variables
exógenas que suelen ser objeto de consideración en estos modelos se encuentran el número
de clientes, la renta de los mismos, el precio de la electricidad y de los productos
sustitutivos, el nivel de actividad económica, las variables climáticas, el nivel de
equipamiento de los hogares, etc. [14].

Dentro del análisis causal son de frecuente utilización los modelos econométricos, entre los
que se encuentran los modelos de regresión dinámica que abordan los problemas
específicos que se plantean al trabajar con series temporales. Los métodos causales
suponen, como su nombre lo indica, que existe una relación causal entre la variable
exógenas y la variable endógena aunque, tal vez, hablar de una relación causal sea
demasiado concreto para describir el grado de asociación existente entre la variable
exógenas y la variable endógena [15].
CAPÍTULO 1. PREDICCIÓN DE LA DEMANDA ELÉCTRICA
19

Pese a ser los modelos econométricos herramientas predictivas muy potentes, sin embargo
algunas de sus limitaciones son obvias, no siendo la menor de ellas que se pronostica el
futuro basándose en relaciones entre las variables que tuvieron lugar en el pasado. Otra
limitación radica en la inconsistencia de la relación entre las variables, ya que dicha
relación puede ser causal o simplemente casual. Tampoco se puede despreciar la influencia
en el consumo de energía eléctrica de variables de nueva aparición o emergentes, que en el
pasado no existían o no habían sido suficientemente identificadas, quedando englobadas
como una perturbación aleatoria.

Con frecuencia este método se aplica en modalidad uniecuacional, y en particular en la


forma de un modelo de regresión lineal. El análisis de regresión consiste en formular y
contrastar un modelo que estudie el impacto de las variables exógenas sobre la variable
endógena y proporciona una medida de la significación de los coeficientes de las variables
y de la fiabilidad de la predicción. Los límites de confianza de los valores de la predicción
proporcionan una indicación del riesgo asociado a la misma.

Entre las ventajas de los modelos econométricos se encuentran las que pueden medir el
efecto de las causas subyacentes de la tendencia y de la incertidumbre de la predicción y
que los modelos pueden ser reestimados. Entre sus desventajas pueden citarse las que
requieren considerable destreza en la utilización de los métodos econométricos y la que su
costo puede ser relativamente elevado [14].

1.6.5 Híbridos

Cada uno de los métodos anteriores pueden tener una aplicación adecuada en un
determinado contexto. Así, por ejemplo, cuando se dispone de datos históricos que abarcan
un período de quince o más años, los modelos econométricos de regresión pueden ser los
más convenientes. En cambio si se dispone de datos de saturación de aparatos o de usuario
final, estos serían los métodos apropiados. En algunos casos se recurre a modelos híbridos o
mixtos.

En la práctica, existen numerosas situaciones en las que no existe un método mejor de


efectuar la predicción de la demanda eléctrica por lo que, a veces, se recurre a elaborar una
combinación de predicciones realizadas por diferentes métodos, pretendiéndose con ello
CAPÍTULO 1. PREDICCIÓN DE LA DEMANDA ELÉCTRICA
20

obtener una predicción más robusta que las proporcionadas por cada método individual de
pronóstico.

Entre las ventajas de los modelos híbridos se pueden considerar las que utilizan lo mejor de
los tipos econométricos y de usuario final. Entre sus desventajas pueden citarse la gran
cantidad de datos que necesitan, lo que redunda en su alto costo [14].

1.7 Evaluación de la Predicción

En general la expresión evaluación de una predicción o de un pronóstico en un determinado


período, se utiliza para medir el grado de bondad de la predicción realizada sobre la
variable de interés en comparación con el valor realmente observado para tal variable en
dicho período. Es frecuente hablar de la exactitud de una predicción como sinónimo de
evaluación de la misma. Cuando una predicción muestra menor error predictivo que otra se
acostumbra a decir que es más exacta, permitiéndose esta licencia en el empleo del término
exactitud en el contexto de la predicción [16].

Es conveniente tener en cuenta que, en cualquier modelo, su eventual buen grado de ajuste
respecto a períodos históricos no garantiza su buena capacidad predictiva respecto al futuro.
Para obtener la predicción puntual de la variable endógena en un período futuro se debe
conocer el valor de las variables exógenas en dicho período. Para evaluar, además, la
capacidad predictiva del modelo se ha de conocer también el valor observado de la variable
endógena en tal período.

Una hipótesis en cualquier método de predicción es que el valor observado de la variable de


interés se obtiene como la suma de un patrón o modelo y de un término aleatorio, lo que
equivale a admitir que, aún cuando se logre identificar el modelo adecuado o trayectoria
subyacente de los datos, es habitual que exista cierta desviación entre el valor predicho y el
valor observado por la variable considerada. El objetivo de un método de previsión debe ser
minimizar tal desviación.

La cuestión de cual es la mejor forma de medir la exactitud de una predicción ha sido


ampliamente debatida en la literatura especializada. Puesto que el medio más objetivo de
evaluar una predicción es medir el valor realmente observado de la variable de interés en el
período pronosticado.
21

VtÑ•àâÄÉ E
CAPÍTULO 2. RED NEURONAL ARTIFICIAL
21

RED NEURONAL ARTIFICIAL

2.1 Introducción

Resulta irónico pensar que máquinas de cómputo, capaces de realizar 100 millones de
operaciones en coma flotante por segundo, no sean capaces de entender el significado de
las formas visuales o de distinguir entre distintas clases de objetos. Los sistemas de
computación secuencial son exitosos en la resolución de problemas matemáticos o
científicos, en la creación, manipulación y mantenimiento de bases de datos, en
comunicaciones electrónicas, en el procesamiento de textos, gráficos y auto edición, incluso
en funciones de control de electrodomésticos, haciéndolos más eficientes y fáciles de usar,
pero definitivamente tienen una gran incapacidad para interpretar el mundo.

Esta dificultad de los sistemas de computo que trabajan bajo la filosofía de los sistemas
secuenciales, desarrollados por Von Neumann, ha hecho que un gran número de
investigadores centre su atención en el desarrollo de nuevos sistemas de tratamiento de la
información, que permitan solucionar problemas cotidianos, tal como lo hace el cerebro
humano; este órgano biológico cuenta con varias características deseables para cualquier
sistema de procesamiento digital, tales como:

1. Es robusto y tolerante a fallas, diariamente mueren neuronas sin afectar su


desempeño.

2. Es flexible, se ajusta a nuevos ambientes por aprendizaje y no hay que programarlo.

3. Puede manejar información difusa, con ruido o inconsistente.

4. Es altamente paralelo.

5. Es pequeño, compacto y consume poca energía.


CAPÍTULO 2. RED NEURONAL ARTIFICIAL
22

El cerebro humano constituye una computadora muy notable, es capaz de interpretar


información imprecisa suministrada por los sentidos a un ritmo increíblemente veloz. Logra
discernir un susurro en una sala ruidosa, un rostro en un callejón mal iluminado y leer entre
líneas un discurso; lo más impresionante de todo es que el cerebro aprende, sin
instrucciones explícitas de ninguna clase, a crear las representaciones internas que hacen
posibles estas habilidades.

Basados en la eficiencia de los procesos llevados a cabo por el cerebro, e inspirados en su


funcionamiento, varios investigadores han desarrollado desde hace más de 30 años la teoría
de las RNA, las cuales emulan las Redes Neuronales Biológicas (RNB), y que se han
utilizado para aprender estrategias de solución basadas en ejemplos de comportamiento
típico de patrones; estos sistemas no requieren que la tarea a ejecutar se programe, ellos
generalizan y aprenden de la experiencia.

La teoría de las RNA ha brindado una alternativa a la computación clásica, para aquellos
problemas, en los cuales los métodos tradicionales no han entregado resultados muy
convincentes, o poco convenientes. Las aplicaciones más exitosas de las RNA son:

1. Procesamiento de imágenes y voz.

2. Reconocimiento de patrones.

3. Planeamiento.

4. Interfaces adaptativos para sistemas Hombre-Máquina.

5. Predicción.

6. Control y optimización.

7. Filtrado de señales.

Los sistemas de computo tradicional procesan la información en forma secuencial; un


computador serial consta, por lo general, de un solo procesador que puede manipular
instrucciones y datos que se localizan en la memoria, el procesador lee, y ejecuta una a una
las instrucciones en la memoria; este sistema serial es secuencial, todo sucede en una sola
secuencia determinística de operaciones. Las RNA no ejecutan instrucciones, responden en
paralelo a las entradas que se les presenta. El resultado no se almacena en una posición de
CAPÍTULO 2. RED NEURONAL ARTIFICIAL
23

memoria, este es el estado de la red para el cual se logra equilibrio. El conocimiento de una
red neuronal no se almacena en instrucciones, el poder de la red está en su topología y en
los valores de las conexiones (pesos) entre neuronas.

Las RNA son una teoría que aún esta en proceso de desarrollo, su verdadera potencialidad
no se ha alcanzado todavía. Aunque los investigadores han desarrollado potentes algoritmos
de aprendizaje de gran valor práctico, las representaciones y procedimientos de que se sirve
el cerebro, son aún desconocidas. Tarde o temprano los estudios computacionales del
aprendizaje con RNA acabarán por converger a los métodos descubiertos por evolución,
cuando eso suceda, muchos datos empíricos concernientes al cerebro comenzarán
súbitamente a adquirir sentido y se tornarán factibles muchas aplicaciones desconocidas de
las RNB.

2.2 Características Principales de una Neurona Biológica

El cerebro consta de un gran número (aproximadamente 1011) de elementos altamente


interconectados (aproximadamente 104 conexiones por elemento), llamados neuronas.
Estas neuronas tienen tres componentes principales, las dendritas, el cuerpo de la célula o
soma, y el axón. Las dendritas, son el árbol receptor de la red, son como fibras nerviosas
que cargan de señales eléctricas el cuerpo de la célula. El cuerpo de la célula realiza la
suma de esas señales de entrada. El axón es una fibra larga que lleva la señal desde el
cuerpo de la célula hacia otras neuronas.[17].

El punto de contacto entre un axón de una célula y una dendrita de otra célula es llamado
sinapsis, la longitud de la sinapsis es determinada por la complejidad del proceso químico
que estabiliza la función de la red neuronal. Las sinapsis se clasifican según su posición en
la superficie de la neurona receptora en tres tipos: axo-somática, axo-dendrítica, axo-
axónica. Los fenómenos que ocurren en la sinapsis son de naturaleza química, pero tienen
efectos eléctricos laterales que se pueden medir [17]. Un esquema simplificado de la
interconexión de dos neuronas biológicas se observa en la figura 2.2.1
CAPÍTULO 2. RED NEURONAL ARTIFICIAL
24

Figura 2.2.1 Neuronas biológicas

Algunas de las estructuras neuronales son determinadas en el nacimiento, otra parte es


desarrollada a través del aprendizaje, proceso en que nuevas conexiones neuronales son
realizadas y otras se pierden por completo. El desarrollo neurológico se hace crítico durante
los primeros años de vida, por ejemplo está demostrado que si a un cachorro de gato, se le
impide usar uno de sus ojos durante un periodo corto de tiempo, él nunca desarrollará una
visión normal en ese ojo.

Las estructuras neuronales continúan cambiando durante toda la vida, estos cambios
consisten en el refuerzo o debilitamiento de las uniones sinápticas; por ejemplo se cree que
nuevas memorias son formadas por la modificación de esta intensidad entre sinapsis, así el
proceso de recordar el rostro de un nuevo amigo, consiste en alterar varias sinapsis.

Las RNA no alcanzan la complejidad del cerebro, sin embargo hay dos aspectos similares
entre RNB y RNA, primero los bloques de construcción de ambas redes son sencillos
elementos computacionales (aunque las RNA son mucho más simples que las biológicas)
altamente interconectados; segundo, las conexiones entre neuronas determinan la función
de la red.
CAPÍTULO 2. RED NEURONAL ARTIFICIAL
25

2.3 Características Principales de una Red Neuronal Artificial

El modelo de una neurona artificial es una imitación del proceso de una neurona biológica,
puede también asemejarse a un sumador hecho con un amplificador operacional tal como se
muestra y se describe en la figura 2.3.1 y la expresión (2.3.1), respectivamente [18].

Figura 2.3.1 Neurona artificial


n
R
V0 = −∑ Vi (2.3.1)
i =1 Ri
Existen varias formas de nombrar una neurona artificial, es conocida como nodo,
neuronodo, celda, unidad o Elemento de Procesamiento (PE); En la figura 2.3.2 se muestra
un PE en forma general y su similitud con una neurona biológica.

Figura 2.3.2 De la neurona biológica a la neurona artificial

De la observación detallada del proceso biológico se han hallado los siguientes análogos
con el sistema artificial.
CAPÍTULO 2. RED NEURONAL ARTIFICIAL
26

Donde:

X i : Señales que provienen de otras neuronas y que son capturadas por las dendritas.

Wi : Pesos que representan la intensidad de la sinapsis que conecta dos neuronas; tanto

X i como Wi son valores reales.

θ : Función umbral que la neurona debe sobrepasar para activarse; este proceso ocurre
biológicamente en el cuerpo de la célula.

Las señales de entrada a una neurona artificial X 1 , X 2 , K , X n son variables continuas en

lugar de pulsos discretos, como se presentan en una neurona biológica. Cada señal de
entrada pasa a través de una ganancia o peso, llamado peso sináptico o fortaleza de la
conexión cuya función es análoga a la de la función sináptica de la neurona biológica. Los
pesos pueden ser positivos (excitatorios), o negativos (inhibitorios), el nodo sumatorio
acumula todas las señales de entradas multiplicadas por los pesos o ponderadas y las pasa a
la salida a través de una función umbral o función de transferencia. La entrada neta a cada
unidad puede escribirse de la siguiente manera:
n → →
netai = ∑ Wi X i = X W (2.3.2)
i =1

Una idea clara de este proceso se muestra en la figura 2.3.3, donde puede observarse el
recorrido de un conjunto de señales que entran a la red.

Figura 2.3.3 Proceso de una red neuronal


CAPÍTULO 2. RED NEURONAL ARTIFICIAL
27

Una vez que se ha calculado la activación del nodo, el valor de salida equivale a:

xi = f i (netai ) (2.3.3)

Donde:

f i : Función de activación para esa unidad, que corresponde a la función escogida para

transformar la entrada netai en el valor de salida xi y que depende de las características

específicas de cada red.

2.4 Justificación del Tipo de Red

Existen muchos tipos de RNA, cada una con sus propias características; la red que mejor se
ajusta a una determinada aplicación, depende de varios factores, tales como: el tipo de
problema en si mismo, tipos de variables disponibles, cantidad y calidad de los datos,
algoritmo de cálculo, etc.

Una manera fácil para escoger el tipo de red que debe implementarse, es analizar si el
problema al que se está enfrentado cuenta con un conjunto de salida conocido, esta
condición restringe las opciones a dos categorías, las redes con aprendizaje supervisado
dentro de las cuales se destacan: el Perceptrón, Adaline, Backpropagation,
Counterpropagation (CPN), Boltzmann Machine y Cauchy Machine, y la siguiente
categoría conformada por las redes de aprendizaje no supervisado donde pueden contarse:
las memorias asociativas, red de Hopfield, redes de aprendizaje competitivo como: el
Learning Vector Quantization (LVQ) y las Self Organizating Maps (SOM), red de
Grossberg Adaptive Resonance Theory (ART) y la Fuzzy Associative Memory (FAM) que
es una combinación entre aprendizaje asociativo y lógica difusa [19].

La red neuronal más frecuentemente utilizada y que mejor se ajusta al objetivo planteado es
un Perceptrón Multicapa (Multiple Layer Perceptron “MLP”) con alimentación hacia
delante (Feedforward) utilizando un entrenamiento supervisado por medio del algoritmo de
retropropagación del error (Backpropagation).
CAPÍTULO 2. RED NEURONAL ARTIFICIAL
28

2.4.1 Antecedentes

La regla de aprendizaje del Perceptrón de Rosenblatt y el algoritmo LMS de Widrow y


Hoff fueron diseñados para entrenar redes de una sola capa. Estas redes tienen la desventaja
que solo pueden resolver problemas linealmente separables, fue esto lo que llevó al
surgimiento de las redes multicapa para sobrepasar esta dificultad en las redes hasta
entonces conocidas [20].

El primer algoritmo de entrenamiento para redes multicapa fue desarrollado por Paul
Werbos en 1974, este se desarrolló en un contexto general, para cualquier tipo de redes,
siendo las RNA una aplicación especial, razón por la cual el algoritmo no fue aceptado
dentro de la comunidad de desarrolladores de RNA. Fue solo hasta mediados de los años 80
cuando el algoritmo Backpropagation o algoritmo de propagación inversa fue redescubierto
al mismo tiempo por varios investigadores, David Rumelhart, Geoffrey Hinton y Ronal
Williams, David Parker y Yann Le Cun. El algoritmo se popularizó cuando fue incluido en
el libro “Parallel Distributed Processing Group” por los sicólogos David Rumelhart y James
Mc Clelland. La publicación de este libro trajo consigo un auge en las investigaciones con
RNA, siendo la Backpropagation una de las redes más ampliamente empleadas, aún en
nuestros días [21].

Uno de los grandes avances logrados con la Backpropagation es que esta red aprovecha la
naturaleza paralela de las RNB para reducir el tiempo requerido por un procesador
secuencial para determinar la correspondencia entre unos patrones dados. Además el
tiempo de desarrollo de cualquier sistema que se esté tratando de analizar se puede reducir
como consecuencia de que la red puede aprender el algoritmo correcto sin que alguien
tenga que deducir por anticipado el algoritmo en cuestión.

La mayoría de los sistemas actuales de cómputo se han diseñado para llevar a cabo
funciones matemáticas y lógicas a una velocidad que resulta asombrosamente alta para el
ser humano. Sin embargo la destreza matemática no es lo que se necesita para solucionar
problemas de reconocimiento de patrones en entornos ruidosos, característica que incluso
dentro de un espacio de entrada relativamente pequeño, puede llegar a consumir mucho
tiempo. El problema es la naturaleza secuencial del propio computador; el ciclo tomar-
ejecutar de la naturaleza Von Neumann solo permite que la máquina realice una operación
CAPÍTULO 2. RED NEURONAL ARTIFICIAL
29

a la vez. En la mayoría de los casos, el tiempo que necesita la máquina para llevar a cabo
cada instrucción es tan breve (típicamente una millonésima de segundo) que el tiempo
necesario para un programa, así sea muy grande, es insignificante para los usuarios. Sin
embargo, para aquellas aplicaciones que deban explorar un gran espacio de entrada o que
intentan correlacionar todas las permutaciones posibles de un conjunto de patrones muy
complejo, el tiempo de computación necesario se hace bastante grande.

Lo que se necesita es un nuevo sistema de procesamiento que sea capaz de examinar todos
los patrones en paralelo. Idealmente ese sistema no tendría que ser programado
explícitamente, lo que haría es adaptarse a sí mismo para aprender la relación entre un
conjunto de patrones dado como ejemplo y ser capaz de aplicar la misma relación a nuevos
patrones de entrada. Este sistema debe estar en capacidad de concentrarse en las
características de una entrada arbitraria que se asemeje a otros patrones vistos previamente,
sin que ninguna señal de ruido lo afecte. Este sistema fue el gran aporte de la red de
propagación inversa, Backpropagation.

2.4.2 Funcionamiento de la Red

Este algoritmo se denomina Backpropagation o de propagación inversa debido a que el


error se propaga de manera inversa al funcionamiento normal de la red, de esta forma, el
algoritmo encuentra el error en el proceso de aprendizaje desde las capas más internas hasta
llegar a la entrada; con base en el cálculo de este error se actualizan los pesos y ganancias
de cada capa.

La Backpropagation es un tipo de red de aprendizaje supervisado, que emplea un ciclo


propagación-adaptación de dos fases. Una vez que se ha aplicado un patrón a la entrada de
la red como estímulo, este se propaga desde la primera capa a través de las capas superiores
de la red, hasta generar una salida. La señal de salida se compara con la salida deseada y se
calcula una señal de error para cada una de las salidas [21].

Las salidas de error se propagan hacia atrás, partiendo de la capa de salida, hacia todas las
neuronas de la capa oculta que contribuyen directamente a la salida. Sin embargo las
neuronas de la capa oculta solo reciben una fracción de la señal total del error, basándose
aproximadamente en la contribución relativa que haya aportado cada neurona a la salida
original. Este proceso se repite, capa por capa, hasta que todas las neuronas de la red hayan
CAPÍTULO 2. RED NEURONAL ARTIFICIAL
30

recibido una señal de error que describa su contribución relativa al error total. Basándose en
la señal de error percibida, se actualizan los pasos de conexión de cada neurona, para hacer
que la red converja hacia un estado que permita clasificar correctamente todos los patrones
de entrenamiento [21].

La importancia de este proceso consiste en que, a medida que se entrena la red, las
neuronas de las capas intermedias se organizan a sí mismas de tal modo que las distintas
neuronas aprenden a reconocer distintas características del espacio total de entrada.
Después del entrenamiento, cuando se les presente un patrón arbitrario de entrada que
contenga ruido o que esté incompleto, las neuronas de la capa oculta de la red responderán
con una salida activa si la nueva entrada contiene un patrón que se asemeje a aquella
característica que las neuronas individuales hayan aprendido a reconocer durante su
entrenamiento. Y a la inversa, las unidades de las capas ocultas tienen una tendencia a
inhibir su salida si el patrón de entrada no contiene la característica para reconocer, para la
cual han sido entrenadas.

Varias investigaciones han demostrado que, durante el proceso de entrenamiento, la red


Backpropagation tiende a desarrollar relaciones internas entre neuronas con el fin de
organizar los datos de entrenamiento en clases. Esta tendencia se puede extrapolar, para
llegar a la hipótesis consistente en que todas las unidades de la capa oculta de una
Backpropagation son asociadas de alguna manera a características específicas del patrón de
entrada como consecuencia del entrenamiento. La asociación puede no resultar evidente
para el observador humano, lo importante es que la red ha encontrado una representación
interna que le permite generar las salidas deseadas cuando se le dan las entradas, en el
proceso de entrenamiento. Esta misma representación interna se puede aplicar a entradas
que la red no haya visto antes, y la red clasificará estas entradas según las características
que compartan con los ejemplos de entrenamiento [21].

Una de las mayores ventajas de las redes multicapa, y en especial de la red


Backpropagation, es que pueden aproximar cualquier función si se escoge una adecuada
configuración para la red y un adecuado número de neuronas en la capa oculta, escogencia
que depende de la experiencia del desarrollador de la red. La red Backpropagation es un
CAPÍTULO 2. RED NEURONAL ARTIFICIAL
31

excelente aproximador de funciones, aunque es imposible determinar una configuración


exacta de la red para cada aplicación [5].

2.4.3 Funciones de Transferencia

Las entradas a la red serán ahora presentadas en el vector p , que para el caso de una sola
neurona contiene solo un elemento, w sigue representando los pesos y la nueva entrada b
es una ganancia que refuerza la salida del sumador n , la cual es la salida neta de la red; la
salida total está determinada por la función de transferencia, que es escogida dependiendo
de las especificaciones del problema que la neurona tenga que resolver; aunque las RNA se
inspiren en modelos biológicos no existe ninguna limitación para realizar modificaciones
en las funciones de salida, es por ello que pueden encontrarse modelos artificiales que nada
tienen que ver con las características del sistema biológico [18]. Las funciones de
transferencia utilizadas en este tipo de red deben ser continuas para que su derivada exista
en todo el [21]. Un modelo que facilita la comprensión de una neurona, puede visualizarse
en la figura 2.4.1

Figura 2.4.1 Neurona de una sola entrada

• Hiperbólica Sigmoidal: Esta función, mostrada en la figura 2.4.2, toma los valores
de entrada, los cuales pueden oscilar entre más y menos infinito, y restringe la salida
a valores [− 1, 1] , de acuerdo a la expresión (2.4.1)

en − e−n
a= (2.4.1)
e n + e −n
CAPÍTULO 2. RED NEURONAL ARTIFICIAL
32

Figura 2.4.2 Función de transferencia hiperbólica sigmoidal

• Lineal: La salida de una función de transferencia lineal es igual a su entrada. En la


gráfica del lado derecho de la figura 2.4.3, puede verse la característica de la salida
a de la red, comparada con la entrada p , más un valor de ganancia b .

a=n (2.4.2)

Figura 2.4.3 Función de transferencia lineal

2.4.4 Arquitectura de la Red

La arquitectura de una red neuronal es muy importante para las capacidades de


convergencia y generalización, escogerla en forma adecuada, ni tan grande ni tan pequeña,
es de vital importancia para el éxito de una aplicación. Muchas de las arquitecturas o
topologías de un MLP se encuentran organizadas en capas [22]. Una capa es una colección
CAPÍTULO 2. RED NEURONAL ARTIFICIAL
33

de neuronas, de acuerdo a la ubicación de la capa en la RNA esta recibe diferentes nombres


como se observa en la figura 2.4.4

Figura 2.4.4 Disposición de una red sencilla

Investigaciones prácticas han demostrado que al solucionarse un problema de clasificación


de patrones por medio de una red Perceptrón multicapa, no se necesita incorporar más de
tres capas (dos capas ocultas y la capa de salida) a la red para que ésta solucione
correctamente el problema, pues una red de estas características está en capacidad de
generar regiones de decisión arbitrariamente complejas; aunque en ciertos problemas se
puede simplificar el aprendizaje aumentando capas ocultas, la tendencia es aumentar la
extensión de la función de activación, en lugar de la complejidad de la red [19].

Una capa es una colección de neuronas; de acuerdo con la ubicación de la capa en la RNA
esta recibe diferentes nombres:

• Capa de Entrada: Recibe las señales de la entrada de la red, algunos autores no


consideran el vector de entrada como una capa pues allí no se lleva a cabo ningún
proceso [18].

La elección de los patrones de entrada debe realizarse dependiendo de las


necesidades explícitas que se tengan en el momento de hacer la predicción de carga,
de la forma en que vaya a procesarse la información de salida de la red y de la
cantidad y calidad de la información disponible.
CAPÍTULO 2. RED NEURONAL ARTIFICIAL
34

Las condiciones de entrada a la red pueden ser tan complejas como se quiera, es
decir, la entrada puede convertirse fácilmente en un vector de cuatro componentes
que incluya además del día y la hora el mes y el año para los cuales se requiere
predecir el valor de demanda; existen también otras opciones como convertir la
entrada en un vector de tres componentes donde se incluya hora, día y tipo de carga
para el cual se desea prever el consumo [5].

• Capas Ocultas: Estas capas son aquellas que no tienen contacto con el medio
exterior, sus elementos pueden tener diferentes conexiones y son estas las que
determinan las diferentes topologías de la red [18].

El número de neuronas para las capas ocultas pude ser determinado mediante la
aplicación de una serie de fórmulas heurísticas o alternativamente mediante un
proceso de ensayo y error. Este debe ser escogido adecuadamente, ya que tiene gran
influencia sobre el desempeño de la red. El escoger un número muy elevado de
neuronas hace que la red destine mucho tiempo para entrenar y sea poco
especializada, perdiendo capacidad de generalización. Por otro lado, si el número de
neuronas es demasiado pequeño la red no será capaz de aprender el comportamiento
de la serie [22].

La determinación de este parámetro está íntimamente relacionada con el número de


entradas de la red y el número de patrones de entrenamiento. Se han desarrollado
algunos trabajos en los cuales se utiliza desde 5 hasta 6, 8, 10 y 12 neuronas,
concluyendo que se obtienen mejores desempeños con 8 [23] y 10 [24] neuronas en
la capa escondida [22].

• Capa de Salida: Recibe la información de la capa oculta y transmite la respuesta al


medio externo [18].

2.4.5 Regla de Aprendizaje

Después de haber escogido el tipo de red con que se solucionará un problema, no hay
ningún criterio establecido para decidir la arquitectura final de la red, la elección del
número de capas que la componen y el número de neuronas de cada una de ellas es fijado
CAPÍTULO 2. RED NEURONAL ARTIFICIAL
35

por la experiencia del diseñador, y muchas veces es realizado por un método de ensayo y
error.

Los mecanismos de aprendizaje de RNA trabajan en general realizando una búsqueda de


los pesos adecuados para una estructura dada, es decir, el número de unidades y el patrón
de conexiones en la red son fijos [25]. Existen métodos que permiten la búsqueda de los
pesos y la selección de la estructura, pero en general son métodos que trabajan entrenando
redes de arquitectura fija, y luego realizando agregado de nuevas unidades o eliminación de
unidades superfluas.

El proceso de realizar la búsqueda de una estructura adecuada y además el conjunto de


pesos al mismo tiempo, se plantea como un problema extremadamente más difícil dado que
el espacio de búsqueda es no estándar. Los algoritmos evolucionarios se plantean entonces
como una muy buena posibilidad de solución en este contexto, dadas sus características
[26].

La deducción matemática de este procedimiento se generalizará para redes que tengan más
de una capa oculta. A la red se le presenta un vector de entrada pi cuyas componentes

corresponden a las variables de entrada, como se describe y se muestra en la expresión


(2.4.3)

⎡ p1 ⎤
⎢p ⎥
⎢ 2⎥
⎢ M ⎥
P=⎢ ⎥ (2.4.3)
⎢ pi ⎥
⎢ M ⎥
⎢ ⎥
⎢⎣ p q ⎥⎦
El vector de entrada se propaga a través de las conexiones existentes produciendo una
entrada neta n en cada una las neuronas de la capa siguiente, la entrada neta a la neurona j
de la capa siguiente debido a la presencia del patrón de entrenamiento en la entrada esta
dada por la expresión (2.4.4). Nótese que la entrada neta es el valor justo antes de pasar por
la función de transferencia.
CAPÍTULO 2. RED NEURONAL ARTIFICIAL
36

q
n oj = ∑ W jio pi + b oj (2.4.4)
i =1

Donde:

W jio : Peso que une la componente i de la entrada con la neurona j de la capa oculta

pi : Componente i del vector p que contiene el patrón de entrenamiento de q

componentes

b oj : Ganancia de la neurona j de la capa oculta

( ): Este superíndice representa la capa a la que pertenece cada parámetro, es este caso la
o

capa oculta

Cada una de las neuronas de la capa oculta tiene como salida a oj que está dada por la

expresión (2.4.5)

⎛ q ⎞
a oj = f o ⎜⎜ ∑ W jio pi + b oj ⎟⎟ (2.4.5)
⎝ i =1 ⎠
Donde:

f o : Función de transferencia de las neuronas de la capa oculta

Las salidas a oj de las neuronas de la capa oculta (de l componentes) son las entradas a los

pesos de conexión de la capa de salida, a ko ⇒ n ks . Este comportamiento esta descrito por la


expresión (2.4.6)
m
n ks = ∑ Wkjs a oj + bks (2.4.6)
j =1

Donde:

Wkjs : Peso que une la neurona j de la capa oculta con la neurona k de la capa de salida, la

cual cuenta con s neuronas

a oj : Salida de la neurona j de la capa oculta, la cual cuenta con m neuronas


CAPÍTULO 2. RED NEURONAL ARTIFICIAL
37

bks : Ganancia de la neurona k de la capa de salida

n ks : Entrada neta a la neurona k de la capa de salida

La red produce una salida final descrita por la expresión (2.4.7)

a ks = f s
(n )
s
k (2.4.7)
Donde:

f s : Función de transferencia de las neuronas de la capa de salida

Reemplazando la expresión (2.4.6) en la (2.4.7) se obtiene la salida de la red en función de


la entrada neta y de los pesos de conexión con la última capa oculta

⎛ m ⎞
aks = f s ⎜⎜ ∑ Wkjs a oj + bks ⎟⎟ (2.4.8)
⎝ j =1 ⎠
La salida de la red de cada neurona aks se compara con la salida deseada t k para calcular el
error en cada unidad de salida descrito en la expresión (2.4.9)

δ k = (tk − aks ) (2.4.9)

El error debido a cada patrón p propagado está dado por la expresión (2.4.10)

2
1 s
ep = ∑ (δ k )
2
(2.4.10)
2 k =1
Donde:

ep 2 : Error medio cuadrático para cada patrón de entrada p

δ : Error en la neurona k de la capa de salida con l neuronas

El proceso se repite para el número total de patrones de entrenamiento r , para un proceso


de aprendizaje exitoso el objetivo del algoritmo es actualizar todos los pesos y ganancias de
la red minimizando el error medio cuadrático total descrito en la expresión (2.4.11)
r
e 2 = ∑ ep 2 (2.4.11)
p =1
CAPÍTULO 2. RED NEURONAL ARTIFICIAL
38

Donde:

e 2 : Error total en el proceso de aprendizaje en una iteración luego de haber presentado a la


red todos los patrones de entrenamiento

El error que genera una red neuronal en función de sus pesos, es un espacio de n
dimensiones, donde n es el número de pesos. Al evaluar el gradiente del error en un punto
de esa superficie se obtiene la dirección en la cual la función del error tiene un mayor
crecimiento; como el objetivo del proceso de aprendizaje es minimizar el error, debe
tomarse la dirección negativa del gradiente para obtener el mayor decremento del error,
condición requerida para realizar la actualización de la matriz de pesos en el algoritmo
Backpropagation [21].

Algo importante que debe tenerse en cuenta es la posibilidad de convergencia hacia alguno
de los mínimos locales que pueden existir en la superficie del error del espacio de pesos
como se observa en la figura 2.4.5

Figura 2.4.5 Superficie típica de error

El desarrollo matemático que utiliza el algoritmo Backpropagation, no asegura en ningún


momento que el mínimo que se encuentre sea global, una vez la red se asiente en un
mínimo, sea local o global, cesa el aprendizaje aunque el error siga siendo alto. En todo
caso si la solución es admisible desde el punto de vista del error, no importa si el mínimo es
local o global o si se ha detenido en algún momento previo a alcanzar un verdadero
mínimo.
CAPÍTULO 2. RED NEURONAL ARTIFICIAL
39

Las redes tipo Backpropagation utilizan principalmente dos funciones de transferencia en la


primera capa: logsig , cuando el rango de la función es siempre positivo y tansig , como en
este caso, cuando se le permite a la función oscilar entre valores positivos y negativos
limitados en el intervalo [− 1, 1] . La salida de la segunda capa está determinada siempre
por la función de transferencia purelin , la cual reproduce exactamente el valor resultante
después de la sumatoria.

Es importante destacar, que no es estrictamente necesario el conocimiento de la función a


aproximar, basta con conocer la respuesta a una entrada dada, o un registro estadístico de
salidas para modelar el comportamiento del sistema, limitando el problema a la realización
de pruebas a una caja negra.

El algoritmo Backpropagation es fácil de implementar, y tiene la flexibilidad de adaptarse


para aproximar cualquier función, siendo una de las redes multicapa más potentes; esta
característica ha convertido a esta red en una de las más ampliamente utilizadas y ha
llevado al desarrollo de nuevas técnicas que permitan su mejoramiento. Dentro de estas
técnicas se encuentran dos métodos heurísticos y dos métodos basados en algoritmos de
optimización numérica.

Dentro de los métodos heurísticos se encuentra el algoritmo de Levenberg – Marquardt que


es una modificación del método de Newton, el que fue diseñado para minimizar funciones
que sean la suma de los cuadrados de otras funciones no lineales, es por ello que tiene un
excelente desempeño en el entrenamiento de redes neuronales donde el rendimiento de la
red esté determinado por el error medio cuadrático. Este algoritmo converge en menos
iteraciones que cualquier otro método, por supuesto requiere mucha más computación por
iteración, debido a que implica el cálculo de matrices inversas. A pesar de su gran esfuerzo
computacional sigue siendo el algoritmo de entrenamiento más rápido para redes
neuronales cuando se trabaja con un moderado número de parámetros en la red, si el
número de parámetros es muy grande utilizarlo resulta poco práctico [21]. El
comportamiento de este algoritmo se visualiza en la figura 2.4.6
CAPÍTULO 2. RED NEURONAL ARTIFICIAL
40

Figura 2.4.6 Trayectoria del algoritmo Levenberg-Marquardt.


41

VtÑ•àâÄÉ F
CAPÍTULO 3. ENTRENAMIENTO Y VALIDACIÓN
41

ENTRENAMIENTO Y VALIDACIÓN

3.1 Selección del Conjunto de Entrenamiento

La elección de la mayoría de los parámetros que intervienen en la definición y ajuste de la


red MLP bajo estudio se ha llevado a cabo partiendo de lo que se denomina experimento
piloto, es decir, la orientación esta fundamentada en el conocimiento del experimentador.
Se elige un conjunto de parámetros de partida y con ellos se crea y evalúa la habilidad de
aprendizaje del tipo de modelo construido. Repitiendo este procedimiento para otros
valores de los parámetros se puede acotar un valor óptimo que será utilizado en los
experimentos posteriores. Es interesante aclarar que en la medida que se incrementen los
datos del conjunto de entrenamiento la predicción alcanza mayor exactitud y que esta
búsqueda no es exhaustiva y, por tanto, es posible que otra elección de valores para los
parámetros pudiera producir mejores resultados.

Para implementar el modelo neuronal se tomaron los datos de consumo del interruptor de
un circuito de 33 kV, mostrado en el anexo I correspondiente al lazo Santa Clara –
Camajuaní, utilizándose valores de carga de las 24 horas de una base de datos cuya
información histórica se registra desde el 1 de enero hasta el 31 de diciembre de 2008. El
comportamiento de estos usuarios se visualiza en la figura 3.1.1, donde puede notarse que
las tendencias pueden llegar a causar congestión en la central en caso de no preverse con
anticipación.
CAPÍTULO 3. ENTRENAMIENTO Y VALIDACIÓN
42

Figura 3.1.1 Curvas diarias de carga

Estos valores fueron normalizados porque de esa forma se obtuvo una mejor generalización
de la red en el proceso de aprendizaje. El proceso de normalización consiste en dividir cada
uno de los valores de la demanda por el valor de la demanda máximo, de tal forma que el
mayor valor de entrada a la red será uno. Los resultados mostrados posteriormente en este
trabajo se encuentran normalizados sobre la base de la demanda máxima, tal como lo
describe la expresión (2.3.1)

Valor de l a Demanda
Demanda No rmalizada = (2.3.1)
Demanda Má xima
Los valores de entrada a la red se agruparon en el vector de cuatro entradas, las cuales
describen el mes, el día, la hora y la demanda en el instante anterior al que se desea saber el
valor de consumo, para lo cual se realizó un promedio semanal por meses mostrado en la
figura 3.1.2. Se ha tomado el mes enero como 1 y en orden consecutivo hasta el mes
diciembre como 12, se asumió el día lunes como 1 y en orden consecutivo hasta el día
domingo como 7, se asumió la una de la mañana como la hora 1 y en orden consecutivo
hasta la hora doce de la noche como 24. Para que se obtengan resultados aceptables en esta
CAPÍTULO 3. ENTRENAMIENTO Y VALIDACIÓN
43

aplicación, teniendo en cuenta el error de generalización, se necesitan al menos cuatro


patrones de entrenamiento por cada peso de la red.

Figura 3.1.2 Promedio semanal por meses

La determinación del número óptimo de neuronas de la capa oculta se ha llevado a cabo


mediante un proceso de ensayo y error en el que se juega con el número de neuronas y el
máximo error admisible. En todo caso, el objetivo será dotar a la red de un número
adecuado de neuronas en la capa oculta para que sea capaz de aprender las características
de las posibles relaciones existentes entre los datos de la muestra. Luego de efectuar varias
pruebas se observó un mejor desempeño de la red MLP con 12 neuronas en la primera capa
oculta y 8 en la segunda capa oculta.

El número de neuronas para la capa de salida se seleccionó de acuerdo al horizonte de


predicción. Se efectuaron varias pruebas de comparación y, según resultados analizados, se
obtuvo mejores resultados con una neurona en la capa de salida.

El proceso de aprendizaje no es fijo para ninguna red neuronal, el éxito consiste en probar
con diferentes configuraciones hasta obtener la respuesta deseada; para esta aplicación se
escogió una red 4 : 12 : 8 : 1 , es decir, que para un vector de entrada de cuatro dimensiones y
CAPÍTULO 3. ENTRENAMIENTO Y VALIDACIÓN
44

esperando una sola salida de red, se tienen 12 neuronas en la primera capa oculta y 8
neuronas en la segunda capa oculta. Cualquier cambio que se realice en los patrones de
entrenamiento exige una codificación diferente del vector de entrada y a su vez cambia las
condiciones generales de la red, pero el proceso de entrenamiento sigue siendo igual.

En esta aplicación se utilizó la configuración de la figura 3.1.3, de acuerdo a la convención


del anexo I, porque el objetivo es mostrar el funcionamiento general de una red
Backpropagation, mostrando las bondades de este tipo de red para aproximar funciones y su
gran capacidad para predecir comportamientos futuros de patrones nunca antes presentados
en la etapa de aprendizaje.

Figura 3.1.3 Red Backpropagation para predicción del consumo de carga

3.2 Entrenamiento del Modelo

Las corridas se realizaron empleando un Software confeccionado sobre MatLab a partir del
empleo de sus herramientas para el trabajo con las RNA. La red es creada mediante el
comando newff para creación de redes Backpropagation. Una explicación del significado
de los siguientes comandos puede encontrarse en el anexo II [27].
CAPÍTULO 3. ENTRENAMIENTO Y VALIDACIÓN
45

net = newff ([1 12;1 7;1 24;0 1], [12, 8, 1], {'tansig', 'tansig', 'purelin' },'trainlm' ) ;

La red se entrenó solo con 1991 de los valores de entrada, esto representa un 98.8 %, de los
2015 que conforman todo el set de entrenamiento. Estos valores fueron presentados de
forma aleatoria, de manera que no esquematice comportamientos sino que sea capaz de
diferenciarlos. Los restantes valores se tomaron como prueba del rendimiento de la red o
validación del modelo. Es necesario aclarar que, dentro del conjunto de datos para el
entrenamiento, solo un 70 % de los datos hubiese sido suficiente.

Los valores de iniciación de la matriz de pesos se generaron aleatoriamente y, después de


varias pruebas, los parámetros mediante los cuales se alcanzó el rendimiento óptimo de la
red se fijaron en los siguientes valores:

net.trainParam.epochs = 500 ;

net.trainParam.goal = 1e − 5 ;

net.trainParam.lr = 0.075 ;

net.trainParam.mem_reduc = 1 ;

net.trainParam.min_grad = 1e − 12 ;

net.trainParam.show = 10 ;

Las predicciones fueron generadas para un período de 24 horas, las cuales no representan
una característica típica de consumo diario, sino el resultado de la predicción aleatoria en
cada punto de cualquier mes, día u hora, lo que muestra una validación general de lo que
podría conformar un conjunto de datos anual.

La convergencia se logró en todos los casos para una cantidad de corridas que oscila entre 5
y 10. El tiempo del entrenamiento se encuentra alrededor de 10 minutos.

Luego de 70 iteraciones el error cayó por debajo de 2 × 10−3 , el desempeño del error medio
cuadrático puede observarse en la figura 3.2.1
CAPÍTULO 3. ENTRENAMIENTO Y VALIDACIÓN
46

Figura 3.2.1 Iteraciones vs. error en una predicción de consumo de carga

Los parámetros que definen los pesos para cada una de las capas de la red entrenada se
presentan en la tabla 3.2.1, mostrando por las columnas las entradas a cada capa y por las
filas cada una de las neuronas que la componen.

Tabla 3.2.1 Resultados de los pesos obtenidos con la red entrenada

W1=net.IW{1,1}
1 2 3 4
N1 -0.0511 0.0025 -0.0601 -2.9586
N2 -0.0004 -0.0019 0.1257 -1.7328
N3 0.2447 -0.0036 -0.1552 -3.4324
N4 1.7186 0.1907 -0.3352 -3.4799
N5 0.0762 0.0514 -0.7763 11.2109
N6 0.0062 0.0012 0.3733 1.2379
N7 -0.2511 0.0048 -0.0096 -1.3445
N8 0.2654 -0.0120 -0.0426 -0.3238
N9 -0.0201 -0.0151 0.4812 1.4717
N10 -0.0014 0.0010 -0.1323 0.2690
N11 0.0042 0.0123 -0.4890 1.9043
N12 -1.7590 -0.1519 0.8674 2.9530
CAPÍTULO 3. ENTRENAMIENTO Y VALIDACIÓN
47

Tabla 3.2.1 Continuación

W2=net.LW{2,1}
1 2 3 4 5 6
N1 -6.9155 7.8634 1.6779 -0.0933 -1.3493 6.116
N2 -0.6461 4.185 -0.7133 -0.0671 0.1802 1.7352
N3 -3.8668 -26.3418 6.1262 -0.1602 2.8873 -4.4884
N4 7.5866 -5.0431 2.4609 0.2931 -1.7038 -1.2798
N5 -0.3003 4.1035 -0.5498 -0.056 0.0851 1.5043
N6 1.5105 8.4485 -4.4696 0.344 -0.4875 7.4599
N7 13.8262 -1.2127 15.0625 -0.1425 13.2399 15.0768
N8 -3.8447 11.8385 -0.4712 -0.2472 0.2655 5.8395

W2=net.LW{2,1}
7 8 9 10 11 12
N1 2.5249 -1.1145 -6.5936 12.8574 -6.1818 -0.566
N2 -0.9006 -0.3639 -1.9936 6.762 -1.0082 0.3182
N3 9.3216 10.2767 -6.1087 -30.6213 -2.3125 1.5473
N4 3.0168 2.6536 11.648 -12.4201 10.0164 -0.119
N5 -0.6471 -0.1533 -1.5407 6.1234 -0.6872 0.2942
N6 -4.893 -1.789 -4.3335 19.7642 -1.4707 2.8447
N7 2.7473 3.3179 1.1072 -8.4182 -15.1473 0.3859
N8 -0.8075 -0.714 -4.071 15.3487 7.0114 -0.0177

W3=net.LW{3,1}
1 2 3 4 5 6 7 8
N1 -0.1029 -0.2205 1.1001 0.2796 0.2537 -1.0455 -0.0863 1.0944

Los parámetros que definen las ganancias para cada una de las capas de la red entrenada se
presentan en la tabla 3.2.2, mostrando por las columnas la ganancia de cada capa y por las
filas cada una de las neuronas que la componen.
CAPÍTULO 3. ENTRENAMIENTO Y VALIDACIÓN
48

Tabla 3.2.2 Resultados de las ganancias obtenidas con la red entrenada

b1=net.b{1} b2=net.b{2} b3=net.b{3}


N1 1.3318 -0.3374 0.5009
N2 -1.0655 -0.345
N3 0.1476 13.3519
N4 -9.6389 4.5972
N5 0.8859 -0.211
N6 -6.109 2.0739
N7 2.5117 8.1314
N8 -0.824 11.4073
N9 -3.3484
N10 1.8991
N11 2.4495
N12 -4.9732

Los resultados mostrados en la figura 3.2.2 se lograron con una cantidad de patrones de
entrenamiento superior a 13 veces los pesos de la red.

Figura 3.2.2 Entrenamiento del modelo


CAPÍTULO 3. ENTRENAMIENTO Y VALIDACIÓN
49

3.3 Validación del Modelo

En la tabla 3.2.3 se muestran los valores de la simulación de la red; los valores de a1


corresponden a los valores entregados por la red, los valores de t1 corresponden a los
valores esperados y e expresa el error en cada punto.

Tabla 3.2.3 Valores y errores de la simulación

a1 t1 e (%)
1 0.5866 0.5389 4.77
2 0.7816 0.8269 4.53
3 0.4118 0.421 0.92
4 0.4066 0.4052 0.14
5 0.4077 0.4093 0.17
6 0.4446 0.429 1.55
7 0.4421 0.456 1.39
8 0.5328 0.5585 2.57
9 0.6229 0.6383 1.54
10 0.5089 0.5378 2.89
11 0.4395 0.4495 1
12 0.3844 0.3925 0.81
13 0.2852 0.2889 0.36
14 0.6595 0.6425 1.7
15 0.5292 0.5466 1.74
16 0.7713 0.8083 3.7
17 0.3342 0.3472 1.3
18 0.4959 0.4883 0.76
19 0.5899 0.5764 1.35
20 0.8958 0.8808 1.5
21 0.5402 0.5751 3.49
22 0.4751 0.4922 1.72
23 0.4742 0.478 0.38
24 0.3786 0.3627 1.59

Los datos que evaluaron el desempeño de la red y con los que se calculó el error en la
simulación son representados en la tabla 3.2.4
CAPÍTULO 3. ENTRENAMIENTO Y VALIDACIÓN
50

Tabla 3.2.4 Errores mínimo y máximo de la simulación

emin (%) 0.14


emax (%) 4.77

En la figura 3.2.3 puede observarse el trabajo final de la red y la excelente labor de


aproximación que realiza. Ilustrar el resultado para todos los patrones de prueba resulta un
poco extenso, por lo tanto se escogieron los patrones más representativos, donde puede
verse que sin ningún problema la red ha aproximado patrones que no se le habían
presentado durante el entrenamiento, garantizando el éxito de la red para realizar
predicciones de consumo de carga.

Figura 3.2.3 Validación del modelo

El horizonte temporal de la predicción trae consigo que los errores sean ligeramente
mayores, esto es dedido a que se necesita efectuar una predicción que se encuentra más
alejada en el tiempo. En un mismo horizonte temporal puede aparecer un ligero crecimiento
del error, debido a que la demanda anterior tomada corresponde a varios instantes
anteriores, la misma cantidad de puntos que se desean pronosticar, provocando un
CAPÍTULO 3. ENTRENAMIENTO Y VALIDACIÓN
51

aprendizaje de valores que están muy alejados de la demanda instantánea real, dichas
diferencias son mostradas en la tabla 3.2.5

Tabla 3.2.5 Errores de la simulación para los modelos de 1h, 24 h y 168 h de pronóstoico

e1 h (%) e24 h (%) e168 h (%)


1 4.77 2.92 3.4
2 4.53 1.36 0.56
3 0.92 1.85 2.25
4 0.14 3.83 3.45
5 0.17 0.99 1.31
6 1.55 4.42 1.85
7 1.39 1.59 1.21
8 2.57 0.64 4
9 1.54 4.75 2.88
10 2.89 1.78 0.68
11 1 0.78 2.24
12 0.81 3.01 6.43
13 0.36 5.03 1.21
14 1.7 5.92 1.22
15 1.74 1.81 3.78
16 3.7 3.98 3.19
17 1.3 0.43 1.91
18 0.76 0.83 1.08
19 1.35 0.89 3.18
20 1.5 2.12 0.96
21 3.49 0.34 1.69
22 1.72 0.44 3.24
23 0.38 1.51 2
24 1.59 7.45 7.74

1 h 24 h 168 h
emin (%) 0.14 0.34 0.56
emax (%) 4.77 7.45 7.74

En las figuras 3.2.4 y 3.2.5 se muestra la validación para los modelos de 24 h y 168 h de
pronóstoico, respectivamente.
CAPÍTULO 3. ENTRENAMIENTO Y VALIDACIÓN
52

Figura 3.2.4 Validación del modelo para 24 h

Figura 3.2.5 Validación del modelo para 168 h


CAPÍTULO 3. ENTRENAMIENTO Y VALIDACIÓN
53

3.4 Conclusiones del Capítulo

Después de probar los algoritmos traingd , traingda , se comprobó que el algoritmo


trainlm , correspondiente al método de Levenberg Marquardt garantiza una alta velocidad
de aprendizaje y una excelente generalización de los patrones de entrenamiento que no se le
habían presentado inicialmente, y por eso se escogió para completar el proceso de
entrenamiento.

De los datos entregados en la validación el valor del error es muy aceptable teniendo en
cuenta el comportamiento de los datos de entrada, como se observa en la figura 3.1.1, pues
aunque se conserva la forma de onda, indicando que el comportamiento es similar todos los
días de la semana, los valores de la demanda pico son muy diferentes cada día.

El proceso de entrenamiento, involucró experimentar con muchos tipos de RNA tratando de


encontrar no solo una configuración óptima, si no también un algoritmo que además de
rapidez garantizara estabilidad en el resultado final. La red escogida en la figura 3.1.2 es
bastante robusta e involucra un gran número de parámetros, sin embargo alcanzó
convergencia en menos tiempo que otras redes escogidas en las cuales se trabajó con una
sola capa oculta compuesta por un gran número de neuronas. De esta forma se confirma
que no existe un procedimiento establecido para determinar el modelo de red que debe
emplearse en cada aplicación y que sólo con la práctica puede determinarse cual es la
configuración de red que garantiza mejores resultados. Esta aparente dificultad de las RNA
puede aprovecharse para resaltar una de sus grandes ventajas, la adaptabilidad de esta teoría
a diferentes lenguajes de programación, de tal forma que con unos pocos comandos los
parámetros de la red pueden ser transformados sin mayor problema, adoptando una
configuración totalmente diferente.

Redes con el tipo de estructura, como la utilizada en esta aplicación, pueden emplearse para
predecir la necesidad de una reconfiguración del sistema en un día y una hora específica. Es
posible también que los resultados de una red como esta, se utilicen para adoptar estrategias
de restauración del servicio en diferentes horas y diferentes días, pues al conocer los
valores de demanda es fácil determinar comportamientos críticos y dar prioridad en el
restablecimiento, dejando por fuera a la menor cantidad de usuarios posible.
CAPÍTULO 3. ENTRENAMIENTO Y VALIDACIÓN
54

Las diferentes aplicaciones para las que sea necesario implementar una predicción de
consumo de carga, pueden derivarse fácilmente de esta adaptando el código fuente a los
patrones con los que se desea realizar la predicción, así como se mencionó anteriormente,
lo único necesario es variar la estructura del vector de entrada p adecuándolo a la cantidad
de entradas que se vayan a ingresar (año, mes, día, hora, tipo de carga, etc.) a la red y
también establecer con claridad que tipo de información de salida se espera dependiendo
del propósito de la predicción.
55

VÉÇvÄâá|ÉÇxá
CONCLUSIONES
55

Las estructuras de las redes se han definido por medio de notación sencilla y comprensible,
cada nuevo desarrollo permite cierta flexibilidad en cuanto a la forma final de la red y esto
garantiza su fácil adaptación a aplicaciones particulares.

Por otro lado, la predicción de consumo de carga permitió ver toda la versatilidad de una
red Backpropagation multicapa y de su algoritmo de aprendizaje, brindando las
herramientas necesarias para determinar la necesidad de una reconfiguración en el sistema
y los criterios que deben tenerse en cuenta para llevar a cabo un restablecimiento del
servicio.

Los resultados demuestran la eficacia de la aplicación de un modelo basado en las RNA al


pronóstico de la demanda eléctrica. Tal como lo muestran las gráficas comparativas los
resultados obtenidos mediante la validación son muy similares a los esperados.

La precisión de la predicción, a pesar de no haber incluido otras variables que influyen en


el consumo energético como son la nubosidad y la consideración de los días de la semana,
es considerable, llegando a encontrarse la medida del máximo error en un valor aceptable.

La teoría de RNA, presenta grandes ventajas con respecto a otros modelos típicos de
solución de problemas de Ingeniería, una de ellas es su inspiración en modelos biológicos
del funcionamiento del cerebro lo que facilita su estudio debido a las analogías que pueden
introducirse para su análisis, además de su gran capacidad para aprender de la experiencia,
generalizar de casos anteriores a nuevos casos y abstraer características esenciales a partir
de entradas que representan información irrelevante.
56

exvÉÅxÇwtv|ÉÇxá
RECOMENDACIONES
56

En términos generales las RNA son una teoría relativamente nueva y como tal presentan
aún algunas limitaciones, pero su facilidad de implementación y la calidad en la
información que entregan como respuesta son la motivación suficiente para que su estudio
y desarrollo continúen.

Complementar los convenios MES-MINBAS mediante el estudio y aplicación de proyectos


como este.
57

exyxÜxÇv|tá
U|uÄ|ÉzÜöy|vtá
REFERENCIAS BIBLIOGRÁFICAS
57

1. ZAMORA, A., Pronósticos de la Demanda Eléctrica de Corto


Plazo mediante Redes Neuronales
Demanda Eléctrica en Sistemas
Artificiales. 2003: p. 2.
Eléctricos de Potencia. 2008.
11. MONTEQUÍN, T.R., et al.,
2. MOYA, E.G., La Demanda
Predicción de Carga Eléctrica
Residencial de Energía Eléctrica
aplicando Tecnología de Redes
en la C.A.A.: Un Análisis
Cuantitativo. 2003. p. 53-55. Neuronales y Ajustes
Multidimensionales Adaptativos,
3. ORBEA, L.d.P.H., Pronóstico de Universidad de Oviedo: Oviedo.
la Demanda de Muy Corto Plazo p. 2-6.
utilizando Inteligencia Artificial.
12. GONZÁLEZ, C.M., Predicción
2007. p. 3.
de la Demanda Eléctrica Horaria
4. MORENO, J., Control de la mediante Redes Neuronales
Demanda de Energía Eléctrica. Artificiales, in Departamento de
Física y Sociedad, 2006: p. 20-23. Economía Cuantitativa. 2004,
5. BUITRAGO, M.I.A. and C.A.Z. Universidad de Oviedo: Oviedo.
MUÑÓZ, Tutorial sobre Redes p. 10-11.
Neuronales Aplicadas en 13. POVEDA, B.L.L., Estimación de
Ingeniería Eléctrica y su la Demanda Eléctrica a Corto
Implementación en un Sitio Web, Plazo del Sistema Nacional
in Facultad de Ingeniería Interconectado mediante los
Eléctrica. 2000, Universidad Métodos de Series Temporales y
Tecnológica de Pereira: Pereira, Redes Neuronales, in Ingeniería
Colombia. p. 242-255. Matemática. 2004, Escuela de
6. MURILLÓ, J.J., Sistemas de Ciencias: Quito, Ecuador. p. 3-5.
Distribución de Energía Eléctrica. 14. MOYA, E.G., La Demanda
1997: Pereira, Colombia. Residencial de Energía Eléctrica
7. MOYA, E.G., La Demanda en la C.A.A.: Un Análisis
Residencial de Energía Eléctrica Cuantitativo. 2003. p. 36-42.
en la C.A.A.: Un Análisis 15. MOYA, E.G., La Demanda
Cuantitativo. 2003. p. 22-24. Residencial de Energía Eléctrica
8. MOYA, E.G., La Demanda en la C.A.A.: Un Análisis
Residencial de Energía Eléctrica Cuantitativo. 2003. p. 51-52.
en la C.A.A.: Un Análisis 16. MOYA, E.G., La Demanda
Cuantitativo. 2003. p. 27-35. Residencial de Energía Eléctrica
9. MOYA, E.G., La Demanda en la C.A.A.: Un Análisis
Residencial de Energía Eléctrica Cuantitativo. 2003. p. 56-61.
en la C.A.A.: Un Análisis 17. BUITRAGO, M.I.A. and C.A.Z.
Cuantitativo. 2003. p. 24-26. MUÑÓZ, Tutorial sobre Redes
10. DELMAR, J.G. and A.C. Neuronales Aplicadas en
MILANÉS, Predicción de la Ingeniería Eléctrica y su
Implementación en un Sitio Web,
REFERENCIAS BIBLIOGRÁFICAS
58

in Facultad de Ingeniería sistemas neurofuzzy na previsão


Eléctrica. 2000, Universidad de carga eléctrica em curto prazo,
Tecnológica de Pereira: Pereira, in Departamento de Engenharia
Colombia. p. 8-15. Elétrica. 1999, Pontificia
Universidade Católica do Rio do
18. BUITRAGO, M.I.A. and C.A.Z.
MUÑÓZ, Tutorial sobre Redes Janeiro: Rio do Janeiro.
Neuronales Aplicadas en 24. ZUBEN, F.J.V. and L.N.d.
Ingeniería Eléctrica y su CASTRO, Optimised Training
Implementación en un Sitio Web, Techniques for feedforward
in Facultad de Ingeniería Neural Networks, in Department
Eléctrica. 2000, Universidad of Computer Engineering and
Tecnológica de Pereira: Pereira, Industrial Automation DAC. 1998,
Colombia. p. 16-32. State University of Campinas
Unicamp: Brasil.
19. BUITRAGO, M.I.A. and C.A.Z.
MUÑÓZ, Tutorial sobre Redes 25. FIESLER, E., Handbook of
Neuronales Aplicadas en Neural Computation. Oxford
Ingeniería Eléctrica y su University Press and Institute of
Implementación en un Sitio Web, Physics Publishers, 1995.
in Facultad de Ingeniería 26. ALFONSO, M., et al.,
Eléctrica. 2000, Universidad
Entrenamiento de Redes
Tecnológica de Pereira: Pereira,
Neuronales, Universidad Nacional
Colombia. p. 319-325. de San Luis: San Luis, Argentina.
20. BRÍO, B.M.d. and A.S. MOLINA, p. 1-2.
Redes Neuronales y Sistemas 27. MATLAB7.0, Help Neural
Difusos. Network.
21. BUITRAGO, M.I.A. and C.A.Z.
MUÑÓZ, Tutorial sobre Redes
Neuronales Aplicadas en
Ingeniería Eléctrica y su
Implementación en un Sitio Web,
in Facultad de Ingeniería
Eléctrica. 2000, Universidad
Tecnológica de Pereira: Pereira,
Colombia. p. 81-119.
22. POVEDA, B.L.L., Estimación de
la Demanda Eléctrica a Corto
Plazo del Sistema Nacional
Interconectado mediante los
Métodos de Series Temporales y
Redes Neuronales, in Ingeniería
Matemática. 2004, Escuela de
Ciencias: Quito, Ecuador. p. 6-10.
23. NETO, L.S.R., Redes neurais
artificiais. Lógica nebulosa e
59

TÇxåÉá
ANEXOS
59

Anexo I
00:00 Demanda Eléctrica del Lazo Santa Clara-Camajuaní

01:00

02:00

03:00

04:00

05:00

06:00

07:00

08:00

09:00

10:00

11:00

12:00

13:00

14:00

15:00

16:00

17:00

18:00

19:00

20:00

21:00

22:00

23:00
FECHA

01/01/08 6.3 5.7 5.4 5.3 5.6 6.5 7 8.8 9.7 10 10.5 11.5 9.6 8.6 8.5 9.9 12.7 14.7 12.7 9.9 8.4 7.6 6.8 6.1
02/01/08 5.5 5.2 5 5 5.3 6.2 7.6 8 10.5 11 12.4 13.8 10 9.4 9.7 11.6 13.5 15.6 13 8.8 6.7 5.9 5 4.5
03/01/08 4 3.9 3.9 4.2 5.5 6.7 8.9 8.8 10 11 12.6 13 10.9 9.1 9.5 8.6 15.5 18.2 14.2 10.4 7.8 7 5.1 4.5
04/01/08 4 3.8 3.7 3.6 4.7 6.4 9.2 9.8 10.2 11.2 12.2 12.5 11.6 9.4 9.8 11.7 15.1 17.9 15.8 11 8.4 7 6 5.1
05/01/08 4.7 4.6 4.4 4.6 0 0 0 9.7 10.6 11.2 12.5 13.8 11.6 8.9 9.2 11.4 14.1 17.1 15.2 10.1 9.1 7.3 6 5.5
06/01/08 4.9 4.6 4.2 4 4 5.6 8.1 9.9 10.8 10.8 11.7 12.7 11.2 10.7 10.7 11.9 15.2 16.5 11.2 10.2 7.8 7.2 5.9 5.1
07/01/08 4.7 4 4 4.3 5.7 7.9 10.3 8.9 9.3 9 11.6 10.6 8.8 8.3 8.4 10.7 13.9 19 17.3 12.2 9.9 8.5 6.5 5.5
08/01/08 4.8 4.5 4.3 4 5 8.5 10.6 9.2 9.7 10.2 11.6 12.2 10.2 8.5 9.4 10.7 17 18.9 17.4 12.5 9.5 8 6.2 5.8
09/01/08 5 4.8 4.8 4.9 6 7.5 10.2 9.4 9.4 9.6 10.8 12.1 10.2 8.7 9.1 10.6 14 17.7 16.5 12.2 9.9 8.9 6.3 5.6
10/01/08 5.3 5.1 4.6 4.4 5.5 9.2 10.4 9 9 9.6 10.8 11.4 9.9 8.7 9.1 10.6 15.3 18.4 16.5 12.4 10.1 8.6 6.4 6.1
11/01/08 5.5 5 5 5 6.2 7.6 10.3 9.8 9.9 10 12.1 12.2 10.2 9 9.4 10.9 14.1 17.6 18 12.7 9.8 8.4 6.6 6
12/01/08 5.5 5.2 5 5 5.6 7.1 9.3 10.5 10.7 10.8 12.2 13.3 9.9 9.3 9.4 10.5 13.9 17.7 16.9 12.2 9.6 8.3 6.8 6.2
13/01/08 5.6 5.6 5.5 5.4 5.7 6.2 9.6 11.2 11 11 12.3 13.4 11.6 9.4 10.1 11.4 14.2 16.8 15.9 11.7 9.9 7.8 6.6 6.1
14/01/08 5.6 5.3 5.3 5.3 5.5 9.4 10.8 9.4 9.6 11.2 11.2 10.9 10.9 9.9 9.4 10.6 14.3 17 17.6 11.6 10.6 9.6 6.5 6.1
15/01/08 6 5.7 5.5 5.5 6.9 9 9.6 9.7 10 10.4 12 12.6 10.5 9.2 9.7 11.2 14.1 18.2 17.6 12.3 10.2 8.6 6.9 6
16/01/08 5.5 5.3 5.2 5.2 6.5 8.4 10.9 10.1 10.3 10.7 12.3 12.2 9.8 9 8.9 11.1 14.9 17.9 17.1 12.3 9.7 8.4 6.9 6
17/01/08 5.5 5.4 5.3 5.3 6 7.9 11.2 10 5.6 8.1 9 9.4 7.2 7 6.5 7 10.4 14.7 14.2 12.2 11.4 9.1 7.5 6.3
18/01/08 5.6 5.6 5.3 5.4 6 8.1 11.3 10.2 11.7 12.2 13.9 14.7 11.8 10.5 10.8 12.5 13.8 17.3 17.6 12.9 10.3 7.9 7.1 6
19/01/08 5.8 5.4 5.3 5.3 5.9 7.1 10.1 10.7 10.2 10 12.8 13.6 9.8 8.2 8.4 10 12.8 16.9 17 12.6 10.1 9.1 7.4 6.7
20/01/08 6 5.7 5.5 5.3 5.6 6.8 9.4 10.4 10.7 11 12.6 12.9 11.1 11.1 11.1 11.1 14.6 15.7 14.2 11.3 9.3 7.8 6 6.2
21/01/08 6.6 5.5 5.5 5 6.7 8.1 9.9 9.4 10.1 11.3 12.9 12.8 10.3 9 9.4 10.5 13.8 15.6 13.8 13 9.8 8.3 6.5 5.1
22/01/08 5.1 5 5 5.1 6.1 8.2 10.4 10.4 9.7 10.4 11.7 12.4 10.6 9.1 9.5 11.5 14.9 16.7 16.3 11.3 9.4 8.8 6.1 6.1
23/01/08 5.7 5.5 5 5 6.9 8.6 10.4 9.3 9.1 10.2 11.4 12.1 10.3 9.2 9.5 10.5 13.5 16.7 17.6 12.9 9.8 8.9 7.2 6.3
24/01/08 5.9 5.5 5.2 5.1 6.2 8.3 10.9 9.1 9.6 10.1 11.9 12.9 9.4 8.7 9.9 10.5 13.5 17.4 17.7 13 10.4 9 6.6 6.5
25/01/08 6.2 5.8 5.5 5.7 6.5 7.6 8.2 8.8 9.9 10.9 11.8 12.1 10 8.7 9.3 10.7 13.8 16.5 17.4 12.9 9.5 8.3 7.1 6.3
ANEXOS
60

00:00

01:00

02:00

03:00

04:00

05:00

06:00

07:00

08:00

09:00

10:00

11:00

12:00

13:00

14:00

15:00

16:00

17:00

18:00

19:00

20:00

21:00

22:00

23:00
FECHA

26/01/08 6 5.6 5.2 5.2 6.5 8.2 9.9 10.1 11.1 11.7 12.6 12.6 10.3 9.2 10 12.1 12.2 17.4 16.4 12.5 9.9 8.5 6.2 6.1
27/01/08 5.7 5.3 4.7 4.7 5.7 6.7 10 11.2 10.7 11.1 12.6 14 11.4 9.3 9.8 11.5 14.1 17.1 15.9 11.1 9.5 7.9 6.6 5.7
28/01/08 5.4 5.1 4.7 4.5 5.5 9.2 10.3 9.1 9.2 9.8 10.4 12 10 8.5 8.3 11.1 15.6 18.6 16.5 12.2 9.2 7.6 6.3 5
29/01/08 4.8 4.6 4.5 4.5 5.5 6.7 10.8 9.4 9.4 8.9 11 12.2 9.4 7.9 9.5 10.4 13.6 17.7 17.2 11.2 9.3 7.8 5.8 5.2
30/01/08 5 4.5 4.2 4 6 8.8 10.8 10.1 9.3 8.2 9.9 10.9 10.5 8.8 9.8 10.1 13.2 17.1 17.3 12.5 9.9 8.5 6.5 5.6
31/01/08 4 3.4 2.4 2.4 3.4 4.2 6.5 5.2 5.2 5.4 6.5 6.8 5.7 5.2 5.2 6 7.6 16.8 14.7 11.1 10.1 8.4 6.5 5.5
01/02/08 5.1 4.4 4.2 4 5.2 8.3 10.4 9.5 8.3 8.9 9.5 10.2 8.3 8.2 8.7 10.9 13.1 17.6 17.4 11.4 9.8 8.4 6.4 5.6
02/02/08 5.3 5 4.9 4.8 5.4 6 10.1 10.6 10 10.5 12.8 13.7 10.4 9.4 10.4 11.2 13.4 15.8 16 10.9 9.1 8.3 7.6 6.3
03/02/08 5.8 5.5 5 5 5.5 6.3 8.6 10.5 11.1 11.6 12.8 14.1 11.9 10 10.2 11.4 14.6 16.3 15.7 11.1 9.3 7.9 6.5 5.5
04/02/08 5 5.2 5.1 4.9 5.4 7.5 10.7 9.4 10.1 8.5 9.8 10.9 6.9 7.8 9.4 10.7 13.5 16.7 16.8 12.7 10.4 9 6.5 6.1
05/02/08 5.3 5 4.9 4.9 6 8.3 10.9 9.6 9.9 9.2 12.8 12.4 11 9.8 10 9.4 12 17.4 12.9 10.2 8.9 8.1 7.5 6.3
06/02/08 5.5 5.2 5.3 5.4 6.2 7 7.8 9.2 8.9 10.1 11.2 12 10.2 9.6 9.9 11 14.6 18.8 17.7 13.6 11.2 9.3 6.4 5.4
07/02/08 5.2 5 5 4.7 5.3 7.2 8.5 6.9 7.9 6 7 7.3 6.1 5.4 5.2 6.2 7.8 9.6 9.9 12.6 10.6 9.3 7.6 6.4
08/02/08 6.1 5.8 5.5 5.6 5.8 8.1 11.5 10.8 10.6 11.3 13.1 12.9 10.4 9.4 9.7 10.7 13.8 17.4 17.8 12.6 10.2 9.4 7.8 6.8
09/02/08 6.4 6 5.7 5.6 6.3 8.1 10.3 10.3 10.4 11.3 12 12.7 10.4 8.3 8 10.5 13.1 16.3 16.1 12.1 9.6 7.9 7 5.9
10/02/08 5.3 5 4.8 4.7 5.3 6 8.8 10.4 10.2 10.6 12.7 13 10 8.6 9.7 11.6 14.2 16.8 15.5 11.8 9.7 8.3 7 6.3
11/02/08 6 5.5 5 5 6.5 8.8 10.3 11 10.3 10.6 12.7 12.9 10 9 10 11 14.5 15.5 17 11.4 9.5 8.1 5.5 5.5
12/02/08 5 4.7 4.7 5.2 6.7 9.3 11.3 9.7 9.3 10.3 11.6 12.5 10.9 9 9.6 10.6 13.2 16.2 17.5 13.2 10.8 9.1 7.5 6.9
13/02/08 6.3 5.5 5.2 4.9 6.5 8.4 9.8 9.4 9.3 9.6 10.9 11.8 9.6 8.5 8.6 10.5 12.4 16.7 16 13.1 11 9 7.5 6.3
14/02/08 6.2 6.2 5.1 5.6 6.4 8.5 11.2 9.9 10.5 11.1 12.4 12.5 11.1 9.6 10.2 11.8 14 17.4 16.8 12.4 9.8 9.2 8 6.7
15/02/08 6.2 6 5.7 5.7 6.8 9.2 10.5 10.1 8.5 10.9 11.9 12.1 10.9 8.9 9.8 10.6 13.1 17.1 17.8 14.3 10.7 9.3 8 6.9
16/02/08 6.2 6 5.9 5.7 6.9 7.4 10.4 11.4 11.8 12.2 13.3 13.3 9.7 8.6 9 10 12.4 15.6 16.8 13.2 10.5 8.7 7.2 6.7
17/02/08 6.3 5.9 5.7 5.7 6 6.4 9.8 11.4 11.3 11.8 13.6 13.9 11.5 9.8 10.4 11.8 15.2 16.6 16.2 12.4 9.8 8.5 8 7
18/02/08 6.7 5.6 5.6 5.7 5.8 8.6 10.9 9.4 9.1 10.1 12 11.3 10.5 8.7 10.3 11 14.4 14.7 15.8 12.4 10.4 9.8 7.5 6.9
19/02/08 6.5 6 5.5 5 6.8 9.1 11 9.5 9.7 10.5 12.5 13 11 10 9.5 9.8 12.7 17.2 17 13.1 11.1 9.3 8.4 7.4
20/02/08 6.3 5.5 5.5 5.5 6.7 8.8 11.9 9.3 10.6 10.1 12.7 11.9 10.4 8.6 9.2 10.9 13.6 16 17.8 13 10.6 9.8 7.8 7
21/02/08 6.6 6.7 6.4 6 6.7 7.1 10.8 9.8 10.2 11.2 6.9 6.4 6 6.2 3.8 4.1 5.5 18 18.2 12.6 11 9.2 7.5 6.7
22/02/08 6.3 6.3 6 6 6.8 8.7 10.8 9.8 10.2 11.4 12.8 12.6 10 9.4 9.8 10.3 12.6 16.6 18.1 14.1 11.3 9.4 9 7.2
ANEXOS
61

00:00

01:00

02:00

03:00

04:00

05:00

06:00

07:00

08:00

09:00

10:00

11:00

12:00

13:00

14:00

15:00

16:00

17:00

18:00

19:00

20:00

21:00

22:00

23:00
FECHA

23/02/08 6.3 6 6 5.8 6.5 8.4 10.8 9.8 10.6 10.8 12.1 13.6 10 9 10.8 11 15.8 16.9 17 13.3 9.9 8.6 6.5 6.1
24/02/08 5.5 5 5 5 5.7 6.7 9.5 10.6 11 11.4 12.6 14.1 10.6 9.4 9.3 11 13.3 15.8 15 11.7 9.5 8.7 7.5 6.1
25/02/08 5.7 5.5 5.4 5.2 6.7 9.9 10.3 9.8 9.8 10.6 12.3 11.7 11 9.5 9.6 10.7 13.6 15.8 18.3 13.4 10.9 8.8 7.6 6.9
26/02/08 6.5 6.3 6.7 6.7 6.5 9.2 10.9 9.9 10.3 11.1 12.5 12.1 9.9 10.3 10.1 11.4 13.2 17 17.9 14.5 11.1 9.8 8.2 6.7
27/02/08 6.2 6 5.5 5.5 6.8 8.9 10.2 9.5 9 8.9 13 12.7 9.9 9.7 7.8 9.7 13.9 19.5 18.5 12.3 9.4 8.6 5.5 5.4
28/02/08 5.4 5 4.7 4.7 5.9 9.5 11.5 9.9 10.1 4 4.2 4.6 3.9 3.1 3.5 10 13.8 16.9 16.8 11.8 9.5 7.7 5.9 5.4
29/02/08 5 4.8 4.5 4.3 5.4 7.7 9.9 9.4 9.4 10.5 11.8 11.7 10.6 8.7 9.4 11.2 12.7 16.9 16.6 13.3 9.5 9 6.8 6.2
01/03/08 6.3 4.3 5 5.2 5.3 5.9 8.6 10.4 11 11.6 12.6 13.7 10.9 9.5 10.1 11.1 12.4 15.8 16.1 12.3 9.6 8.1 6.5 5.7
02/03/08 5.2 4.6 4.5 4.4 5.9 6.2 9.1 10.6 10.9 11.3 13.4 13.6 10 9.4 9.7 12.4 16 17.7 15.6 11.4 8.7 7.5 6.2 5.8
03/03/08 5 4.7 4.5 4.5 5.7 8 9.9 9.9 10.4 10.9 12 12.6 10.1 8.9 9.8 11.2 14 16 17 12.5 11.2 9.6 8 6
04/03/08 6.5 6.2 5.4 5.5 6.1 7.7 10.9 10.2 10.3 11.5 12.3 12.4 10.2 9.6 10.8 11.3 14 17 18.1 13.7 10.3 8.9 7 6.8
05/03/08 6 5.5 5.5 5.5 6.7 9 10.3 9.9 10.4 11.1 12.8 12.9 10.4 10 9.7 10.5 12.7 16.1 16 12.4 10.5 8.4 7.3 6.7
06/03/08 5.5 5.2 5.2 6.5 6.3 8.4 10.8 11 9.5 11.3 13.4 13.4 10.4 9.4 10.6 11.7 14.8 17.7 18.1 13 11.1 10.1 8 7.3
07/03/08 6.5 5.7 5.5 5.8 7.2 10 11.2 10.3 11.3 11.8 12.9 12.9 10.7 9.8 10 11.1 13 15.6 18.3 14.5 10.9 9.7 8.6 7.7
08/03/08 6.9 6.5 6.2 6 7.1 7.8 10.1 10.9 10.9 11.1 12.3 12.9 10.8 9.6 8.4 9.5 13.1 15.8 15.6 10.4 9.2 8.5 7 5.9
09/03/08 5.6 5.5 5.1 4.9 5.2 5.5 9.3 10.8 11.1 11.7 12.2 12.4 11.6 9.7 10.1 12.5 15.6 16.3 15.1 11.2 9.5 7.7 6.3 6
10/03/08 5.8 5.5 5.5 5.7 6 8.9 9.9 9.7 10.5 11 12.6 12.2 9.6 8.6 9.2 10.8 13.1 16.2 17 13.2 10.5 9.5 7.3 6
11/03/08 5.7 5 4.9 4.9 6.2 9.7 11.1 9.5 10.1 11 12.3 12.2 11 9.5 9.7 10.3 12.6 16.1 18.2 14 11.3 9.5 7.8 7.2
12/03/08 6 5.7 5.2 5 5.8 8.4 10.4 9.2 10.3 10.8 12.1 12.7 10.4 9.5 10 10.6 13.1 17 17.2 13 10.1 9.3 8.3 7.1
13/03/08 6.4 5.7 5.7 5.3 6.3 8.1 8.5 9.2 8.9 9.2 9.4 10 8.4 7.2 8.8 10.9 14 17.1 17.1 13.4 10.8 9 7.3 6.9
14/03/08 6.5 6 6 6.2 7.5 9.8 11.3 10.1 10.1 11.3 13 13.4 10.3 8.9 9 9.8 13.3 14.8 18.1 13.3 9.8 9.1 6.9 6
15/03/08 5.5 5.2 5 5 5.1 6.3 11 10.4 10.5 12.4 12.9 12.7 9.8 9.6 9.8 11.2 12.7 14.8 17.2 12.3 9.1 7.7 8.3 7.1
16/03/08 7.1 6.8 5.2 5 5.4 6.9 7.6 10.1 10 10.2 11.7 13.1 11.5 11.7 10.7 10.4 12.2 13.9 15 14.5 10 8.9 8.3 7.1
17/03/08 6.5 6 5.7 5.7 7.2 9.1 10.5 10 10.8 11.4 12.9 13.5 11.1 10 10.2 11.7 13.2 16 16.3 16.7 11.7 10.8 9.3 6.8
18/03/08 6.5 6 5.6 5.5 6.8 8.9 11.5 11 10.3 10.4 11.4 12.4 8.8 8.8 8.8 10 12.7 15.7 17 14 11.7 9.3 9.3 6.8
19/03/08 6.5 5.7 5.7 5.7 6.7 8.7 10 9.6 9.6 10 11.7 11.6 9.6 8.2 8.4 11.3 12.1 15.4 16.1 15.9 11.8 9.8 7.4 7
20/03/08 6.5 6 5.8 5.7 6.5 8.3 10.8 9.6 10.1 10.3 12.2 13.3 9.3 10 10.4 10.8 13.3 16.4 0 0 1.7 1.3 0.9 0.8
21/03/08 6.1 6 5.9 5.8 6.3 7.6 8.3 9.7 9.5 11.1 12.1 12.4 10.4 9.6 10.4 10.8 12.4 15.3 16.1 15.7 11.8 9.5 7.8 6.9
ANEXOS
62

00:00

01:00

02:00

03:00

04:00

05:00

06:00

07:00

08:00

09:00

10:00

11:00

12:00

13:00

14:00

15:00

16:00

17:00

18:00

19:00

20:00

21:00

22:00

23:00
FECHA

22/03/08 6.1 6 5.8 6 6 7.3 9 8.9 10.7 11.3 11.5 13.6 12 9.7 9.5 9.6 11.5 14.6 15.4 13.8 10.5 8.9 7.8 6.9
23/03/08 6 5.5 5 5 5.7 6.6 8 9.6 10.8 10.8 12 13 11.6 8.8 9 9.9 13.1 15.5 14.7 13.3 10.5 8.7 8.2 6.7
24/03/08 6.3 5.7 5.5 5.4 6.5 8.9 11.3 9.6 10.5 11.1 12.5 12.6 10.3 9.5 9.8 10.9 14.4 17 17.7 14.7 10.2 9.2 6.8 5.9
25/03/08 5.5 5.2 5 5.2 6.2 8 10.3 8.8 9.6 9.6 11.9 12 9.7 8.7 9.9 10.7 12.9 17 17.5 15.3 11.5 9.1 6.7 5.7
26/03/08 5.4 5.4 5.4 5.4 5.4 7.6 10.7 9.7 10.7 10.2 11.8 12.7 10.6 9.7 8.9 9 13.9 17.6 17.5 15.3 11.2 8 6.7 6
27/03/08 5.7 5.4 5.4 5.4 5.4 8.9 10.4 8.7 9.2 8.8 10.4 11.4 10.9 8.8 8.1 9.6 12.7 16.1 16.8 15 11.1 8.8 7.7 6
28/03/08 5.6 4.9 5.3 5.3 6.1 8.1 10.2 9.1 9.6 9 12 13 11 9.6 9.1 10.4 12 14.9 16.5 16.2 11.2 9.3 7.7 6.3
29/03/08 4.9 5 5.1 5 5.3 6.2 8.8 10.4 10.2 11.5 12.8 14.3 11.1 9.8 8.9 10 12.6 14.5 16.3 14.6 10.7 8.2 7.7 6.4
30/03/08 5.7 5.3 5 5 5.2 6 7.1 8 9.9 10 11 12 11.9 10.5 10.5 10.9 13.6 15.2 15.9 13.2 10.1 8 7.7 6.4
31/03/08 6 5.7 5.7 5.7 6.9 8.3 10.4 9.4 9.5 10 12.1 12.2 10.5 9.2 9.9 8.6 10 14.7 16.9 16.4 11.8 9.9 8.2 6.9
01/04/08 6 5.6 5.5 5.5 6.5 8.1 10.3 9.1 9.6 11.2 12.2 13.1 10.9 10.3 10.5 10.8 13.6 17.4 17.7 14.8 10.8 8.5 7.7 7.5
02/04/08 6.8 6.6 6.2 6 7 8.2 11.1 9.6 10.1 11 12.1 13.1 10.8 9.5 8.9 10.9 12.2 14.6 17.5 15.3 12.1 8.9 7.8 6.6
03/04/08 5.8 5.6 5.6 5.1 5.6 7.3 10.3 10.5 10.8 10.3 12.8 12.4 9.7 9.5 9.7 10.5 13.8 17.1 17.3 15.6 11.2 9.6 7.6 6.6
04/04/08 6 5.7 5 5 6.7 8 10.4 9.4 9.9 9.8 11.4 12.9 11 9.6 9.6 10.8 12.9 15 18 15.9 12 10.6 8.6 7.3
05/04/08 6.5 6 5.7 5.5 5.8 7.7 10.4 10.8 11.2 11.2 12.8 13.8 12.1 10.3 10.5 11.4 12.9 15.1 15.9 15 12.2 9.8 7.8 7
06/04/08 6.7 6.5 6 5.7 6.2 6.8 9.3 11 11.1 11.5 13.4 14.1 11.6 10 10.5 11.6 13.5 15.3 14.9 13.8 11.8 10 8.7 7.9
07/04/08 7.1 6.7 6.6 6.6 7 9 11 9.9 10.5 11.3 11.3 12.6 11 10.2 10.3 11.2 13.2 16.4 17.7 14.3 11.1 9.7 8.2 7.9
08/04/08 6 5.7 5.7 5.7 7.2 9.3 8.8 9.5 8.9 9.7 8.3 11.2 9.9 8.3 9.4 9.6 11.2 15.7 16.8 16.4 11.3 10 8 7.2
09/04/08 6.4 6 5.7 5.5 6.2 8.4 11 9.4 9.7 10.5 12.4 12.8 11.6 9.6 9.9 11 12.5 15.1 16.7 15.7 12.1 10.4 8.9 7.6
10/04/08 6.8 6.5 6.2 6.1 6.3 7.8 10.8 9.5 10.2 11.3 10.5 12.6 10.7 7.9 9.8 9.4 12.8 15.3 17 16 12.6 10.5 8.7 7.9
11/04/08 7.2 6.7 6.5 6.5 6.6 8.7 11 9.4 8.8 9.3 10.6 10.9 8.7 8.1 8.4 10.9 12 14.8 16.4 15.7 12.6 10.2 8.8 7.8
12/04/08 6.9 6.5 6.2 6 6.6 7.7 8.4 10.5 11 11.2 12.3 13.8 11.7 9.7 10.2 10.4 12.2 14.6 16.1 15.4 12 10.2 9.2 8
13/04/08 7.1 6.3 6.6 6.5 6.7 7.7 8.2 10.6 10.4 11 11.4 14.1 13 9.9 10.2 12.4 14.2 16 15.8 13 12 8.2 8.2 7.3
14/04/08 6.7 5.7 5.7 5.9 7 9.2 11 9.3 9.7 10.7 12.1 12.5 10.2 9.3 8.5 9.9 11.6 14.7 16.7 15.5 12.3 11.6 7.2 7
15/04/08 6.5 6.2 6 6 7.8 9.2 10.5 9.2 9.2 8.8 10.5 11.4 8.8 7.8 7.7 9.3 11.7 16.3 17 14.7 10.3 9.3 7.2 7
16/04/08 6.7 6 5.6 5.6 7.2 8.4 10.6 8.8 9 9.9 11.5 12.5 10.5 8.6 8.8 10.3 12.5 15.7 16.9 15.4 11.6 9.1 6.9 6.1
17/04/08 5.8 5.6 5.6 5.7 6.7 8.1 10.7 9.2 8.9 9.7 10.2 12.4 10.6 9 8.6 10.4 12.1 15.4 17.4 16.1 11.9 9.6 6.7 6.3
18/04/08 5.9 5.5 5.3 5.7 6.5 8.4 10.8 9.6 9.9 10.3 11.5 12.5 10.6 9.1 9.4 10.5 12.4 16.3 17.2 15.8 12 9.8 7.7 4.2
ANEXOS
63

00:00

01:00

02:00

03:00

04:00

05:00

06:00

07:00

08:00

09:00

10:00

11:00

12:00

13:00

14:00

15:00

16:00

17:00

18:00

19:00

20:00

21:00

22:00

23:00
FECHA

19/04/08 4.2 4 3.8 3.5 3.5 4.2 5.2 6.2 6.7 5.6 7.2 7.2 6.2 6.7 6.2 6 7.4 8.9 9 15.5 11.1 9.7 7.5 4.7
20/04/08 4.3 4 4 4 5.3 7 9 10.4 10.7 10.8 12.6 13.8 12 9.8 9.7 10.9 13 14.4 14.2 13.1 10.4 7.8 7.1 6
21/04/08 5.8 4.4 4.1 4 5.2 7.4 9.2 7.9 8.3 9 11 11.3 9 8.5 8.8 7.9 12.3 15 15.9 15.3 11.1 9.4 7.4 6.3
22/04/08 5.8 5.4 5.3 5.2 6 7.4 9 8.2 8.9 9.7 10.8 11.9 9.5 8.7 9 9.5 11.6 14.4 15.7 14.7 11.1 9.5 7.6 6.7
23/04/08 6.2 5.8 5.7 5.7 6.5 8 9.4 10.4 9.1 9.5 12.3 11 9.5 9.1 8.5 9.9 11.5 15.5 17.3 15.2 11.6 10.2 7.8 7.4
24/04/08 6.7 5.7 5.7 5.7 6.7 7.9 10 8.6 7.4 7.5 9.3 10.4 8.2 6.8 8.2 8.3 9 13.7 17.1 15.8 12.8 9.3 8.2 6.9
25/04/08 6.5 6.2 6 6 6.7 8.8 10.3 10.3 10.8 11.2 11.4 13 11.3 9.7 8.5 10.3 10.3 10.1 16.4 15.5 11 9.3 7.9 7
26/04/08 6.7 6.8 6.7 6.2 5.4 6.3 9.7 10.6 10.7 11.5 13 13.4 11.2 9.4 9.1 9.7 11.7 15 15.6 14.4 11.7 8.7 8.3 7.5
27/04/08 7 6.5 5.5 5.4 6.5 7.3 10 10.4 10.1 10.3 13.1 13.5 10.8 9.2 10 11.3 14.3 14.3 15.4 13.6 11 9.8 7.9 7.1
28/04/08 6.6 5.9 5.2 5.3 7.7 10.4 10.9 9.5 10.2 10.6 12.6 12.8 11 10 10.2 10.9 11.4 16.3 16.9 15.4 11.4 10 8.5 7.2
29/04/08 6.7 6.5 6 6 6.6 7.7 11 9.9 10.6 11.6 12.8 13.4 11.3 10.2 10.3 11.1 12.5 16.8 16.9 14.6 10.9 10 7.4 6.8
30/04/08 6.6 6 5.1 5 6 7.6 8.6 9.9 10.4 11.3 12.1 13.1 11.4 10.2 10.1 11 12.8 15.3 15.6 15 11.5 9.2 7.6 6.3
01/05/08 6.5 6.3 6 6 7.1 8.5 8.9 9.3 9.8 9.6 11.6 12.4 10 8.1 9.3 9.4 12.4 14.7 14.9 12.9 10.6 9.6 7.1 6.1
02/05/08 5.7 5.5 5 5 6.9 8.8 10.1 9.7 10 10.6 11.3 12.2 10.4 9 8.5 10.1 11.4 14.2 17 14.5 11.7 9.9 7.6 6.2
03/05/08 5.8 5.5 5.2 5.4 6 7.6 10.1 10.5 10.5 11 13.1 13.4 11 9.9 9.6 9.7 11.2 13.8 15.7 13 10.6 9.4 7.6 6.6
04/05/08 6.7 6.7 6.6 5.6 5.4 6.5 7.7 9.6 11.3 11.3 12.9 14.1 11.7 10 10 10.4 12.4 14.2 14.8 11.7 11.4 9.9 8.8 7.7
05/05/08 7.1 6.8 6.5 6.2 7 8.6 10 8.6 10 10.5 10.9 13.7 11.2 10.2 10.6 11.4 13 14 15.6 15.5 11.3 9.5 8.3 7.7
06/05/08 6.5 5.7 5.5 5.5 6.7 8.9 10.4 9.7 9.8 10.5 12.5 12.5 10.9 9 10.6 11.1 12.4 14.5 16.7 14.7 12.2 9.8 8.6 7.1
07/05/08 6.7 6.2 6 5.8 6.7 8.2 10.5 9.7 9.6 10.9 13.5 12.9 11.3 10.6 10.6 11.3 12.7 15.2 15.7 14 11.7 9.7 7.8 6.9
08/05/08 6.7 5.6 5.8 5.8 6.8 8.2 9.5 10.2 8.9 11.2 12.6 13.6 12.1 10.6 10.4 11 11.3 15.8 16 12.9 10.4 8.1 7.6 6.6
09/05/08 4.9 6 5.8 5.9 6.2 7.7 9.5 9.2 10.5 11.2 12.6 13.3 11.3 10.4 9.5 11.1 12.5 10.8 13.6 11.9 9.6 8.5 6.1 6.4
10/05/08 5.8 5.5 5.1 5 5.8 7.7 9.8 10.7 10.5 8.8 12.2 13.6 10.8 9.8 9.3 10.5 12.4 13.5 14.5 13.8 10.8 8.8 7 6.9
11/05/08 5.7 5 4.7 4.7 5.3 6.9 8.5 10.3 10.3 10.4 11.6 12.9 11 10.3 10.3 11.9 12.5 14.1 13.5 12.4 11.4 10.2 9.4 8.3
12/05/08 7.7 7.5 7.3 7.2 7.6 8.9 11.4 9.7 10.4 10.9 13.1 13.6 11.6 10 10.2 10.5 11.2 13 14.7 14 11.6 10.9 9.3 8.2
13/05/08 8 7.6 7.4 7 8.5 9.9 10.3 9.5 9.9 11.1 12 12.5 10.5 9.7 10.4 9.9 10 14.8 15.8 13 11.6 9.7 8.6 7.7
14/05/08 6.7 5.3 4.9 4.9 6.7 8.5 11.2 8.9 9.5 11.9 12.6 12.6 11 10.4 10.4 11.4 12.1 14.4 15.1 14.6 11.6 10.2 8 7.8
15/05/08 7.8 7.2 6.9 6.5 6.6 8.3 10.9 8.5 9.5 9.3 10.3 11.6 10.2 9.1 9.1 10.1 12 14.7 15.6 14.4 12 9.8 7.2 7.2
16/05/08 6.9 6.6 6.5 6.7 7.2 7.4 7.9 8.5 9.1 10.8 11 12.4 11.4 10.2 9.2 9.9 11.1 13.5 15.8 14.6 11.5 10.2 8.5 7.8
ANEXOS
64

00:00

01:00

02:00

03:00

04:00

05:00

06:00

07:00

08:00

09:00

10:00

11:00

12:00

13:00

14:00

15:00

16:00

17:00

18:00

19:00

20:00

21:00

22:00

23:00
FECHA

17/05/08 7.7 7 6.3 6.3 6.8 8.2 9 10.2 9.7 10.1 11.8 13.4 10 9.3 9.3 10.7 12 14.2 15 14.3 11.5 9.6 7.9 7.7
18/05/08 6.2 5.5 5 5 6.2 8.3 10.7 11.1 11.5 11.6 13 14.4 11.8 10.3 10.9 10.2 12.5 14.3 14.5 13.7 11 9.9 9 7.8
19/05/08 7.5 7 6.5 6 6.6 7.9 10.3 8.4 9.4 10.6 11.9 12.7 11.7 10.7 10.4 10.2 11.9 15.4 15.2 14.1 11.1 10.5 9 7.9
20/05/08 7.2 7.5 7.6 6.7 6.6 8.6 9.9 9.7 10.1 10.4 12.3 12.1 10.3 9.8 9.7 10.6 11.6 13.8 14.7 14.4 11.9 11.3 9.7 9.9
21/05/08 8.2 8 7.5 7.2 7.6 8.7 10.5 9.6 9.6 9.8 11.8 12.6 10.2 8.9 9.6 10.6 11.9 14.1 16 14.4 12.1 10.7 10.1 8.7
22/05/08 8.4 8 7.6 7.2 8.3 9.2 10.7 9.2 10.1 10.8 11.8 12.3 10 9.5 9.9 10.1 6.7 9.1 10 14.3 13.7 10.3 9.4 8.4
23/05/08 8.1 8.1 7.7 7.7 9.4 10.4 11.5 11.2 11.3 11.3 13.1 13.8 11.1 9.6 9.9 10.8 13.9 16.7 13 14.1 11.8 10.3 9.3 8.6
24/05/08 8.2 8.1 8.1 7.9 7.3 7.1 10 10 10.3 10.8 11.8 13.1 11.2 8.2 8.6 8.3 11.2 12.9 16.1 13.7 11.2 9.5 8.6 7.9
25/05/08 7.8 7.6 7.5 7.5 7.5 7.7 10 8 10 10.7 12.6 13 12 9.2 9 10.5 13 13.5 13.7 12 10.6 9.8 6.5 6.5
26/05/08 6.5 6.5 6.6 5.7 6 8 10.3 9.1 9.4 10.9 12.6 12.7 11.8 10.9 10.7 11.2 12.7 15.5 16.4 11.4 12.1 10.7 9.2 8.2
27/05/08 7 6.7 6.5 6.4 7 9 10.9 10.4 11 11.6 13 12.4 11.7 10.5 10.3 10.8 10.3 10.8 15.6 12.6 10.4 8.9 7.8 7
28/05/08 6.4 6 5.7 5.4 6.3 8.1 10.8 8.9 10.8 9.7 11.7 11.5 9.7 10.4 10.3 11.2 13.3 16.2 15.1 13.9 11.8 10.5 8.7 7.7
29/05/08 6.7 6 5.7 5.7 6.3 9.1 10.5 9.6 10.7 11.1 12.6 13.2 11.9 10.6 9.8 10.1 13 14.9 15.9 14.5 12.5 11.2 9.7 4.7
30/05/08 4.4 4.3 4 3.9 3.9 5 6.4 5.4 6 6.1 6.8 0 6.7 5.7 5.9 6.4 5.5 6.2 7.1 5.9 4.9 4.1 3.4 2.9
31/05/08 2.6 2.3 5.4 5 7 7.5 9.2 9.3 10.9 4 4.5 5.3 6.8 5.7 5.6 6.1 6.8 8.5 8.6 8.6 6.9 6 5.4 2.5
01/06/08 2.8 2.7 2.7 3.7 3.2 3.1 5 5.8 6.2 6.2 6.8 7.7 6.4 5.6 5.7 6.7 8.4 9.8 9 7.5 6.7 5.7 5.1 7
02/06/08 7 6.9 6.9 6.8 7.2 9.1 11 9.7 10.5 10.9 11.9 11.6 11 10 10.3 10.9 15.2 14.4 16.3 12.6 10.8 9.6 7.1 6.9
03/06/08 7.5 6.5 6 6 7.9 8.7 10.8 9.4 3.5 3.8 4.3 4.6 4.1 6.1 5.8 6.5 9.4 15.5 15.6 14.3 12.1 10.2 8.4 8.1
04/06/08 7.4 6.5 6.2 6 6.8 9.1 9.8 9.5 10.2 10.2 12.3 12.7 10.9 9.9 9.8 10.2 11.5 14.2 10.8 14.4 12.4 10.6 9.3 8.1
05/06/08 7.8 6.7 6.8 7 7.5 9.6 11.1 9.7 10.3 11 12 12.1 11 9.9 9.8 10.5 12.8 12.6 10.9 11.8 12.1 10.4 8.4 8.1
06/06/08 7.5 7 7.1 7.4 7.5 10.3 10.7 9.6 10.5 11.2 12.7 13 10.9 9.4 9.7 10.9 13.3 14.6 15.3 14.2 11.7 10.4 8.9 8.3
07/06/08 8 7.2 6.9 6.9 7.7 8 10.1 10.7 10.9 11.3 12.5 13.7 11.4 9.2 9.4 10.3 12.1 14 14.8 14.4 11.6 10 8.9 7.9
08/06/08 7 6.5 6.2 6.2 6.5 7.4 9.4 10.1 10.2 10.9 12.5 13.4 11.2 9.4 9.4 7.2 0 0 0 0 0 1.4 5 7.2
09/06/08 6.6 6.6 6.4 6.9 7.3 8.8 10.5 9.3 9.7 10.1 12 12.6 11.1 9.8 10.4 11.2 12.5 15.5 16 13.4 11 9.8 8.3 7.8
10/06/08 7.5 7 6.9 6.3 7 9.5 9.3 9.5 10 11 12.5 12.7 10.9 9.9 10.2 11.8 14.7 16.6 16.5 13.4 10.1 9.9 8.9 8
11/06/08 7.5 7.2 6.7 6.7 7.7 9.7 10.7 9.6 9.8 10.9 12.2 13.2 11.2 9.9 10.1 11 12.6 15.8 15.4 14 12 11 9.5 8.4
12/06/08 7.7 7.3 6.9 6.7 7.5 9.6 10.6 9.8 10.4 11 12.3 12.7 11 9.8 10 10.8 12.1 14.5 15.6 14.5 12.3 10.8 9.4 8.5
13/06/08 7.7 7.5 7.5 7.4 7.5 9.5 10.9 9.3 10.1 10.9 12.6 13.2 10.8 9.9 9.9 10.4 11.9 14.7 15.5 14.5 13.8 10.9 10 8.7
ANEXOS
65

00:00

01:00

02:00

03:00

04:00

05:00

06:00

07:00

08:00

09:00

10:00

11:00

12:00

13:00

14:00

15:00

16:00

17:00

18:00

19:00

20:00

21:00

22:00

23:00
FECHA

14/06/08 8.2 7.6 7.5 7.5 7.7 8.1 9.1 9.2 9.2 9.7 8.7 9 10 8.1 9.1 10.5 11.2 14.2 14.5 13 11 10.5 9.3 8.3
15/06/08 7.8 6.7 6.6 6.6 7.5 8.2 9.9 10.8 10.4 11 12.4 13.1 11.9 10.7 10.1 11.1 11.9 15 13.9 12.1 11 10.2 9.1 8.3
16/06/08 7.6 7.2 6.8 6.8 7.5 9.1 11 9.9 9.9 11.7 12.7 13.2 10 9.8 10 11.7 12.9 16.2 16 13.7 11.6 11.4 9 8
17/06/08 7.7 7 6.7 6.7 7.7 9.1 11 10.3 10.4 11.3 12.6 12 11.1 9.8 10 10.5 12.9 14.8 15.7 13.6 12.1 11 9.1 8.2
18/06/08 7.6 7.2 7 7.1 8.5 9.8 11.2 10.3 10.9 11.6 13.2 13.6 11.6 10.2 10.7 11.1 12.1 15 15.6 14 10.8 11.2 9.7 8.2
19/06/08 7.5 7.3 7.1 7.1 7.4 8.5 11.4 10.5 10.9 11.6 12.9 13.3 11.5 10.1 10 9.2 11.8 15.5 16.1 13.5 11 10.1 9.2 8.2
20/06/08 7.7 7.4 7.2 7 7.8 9.3 11.2 9.7 10.3 11.5 12.7 13.3 11.7 10.5 9.7 9.9 11.7 14.7 14.7 14.1 11.1 11.4 9.3 8.6
21/06/08 7.6 7.5 7.4 7.3 7.6 8.6 8.6 10.2 11.2 11.7 13.2 13.8 12 10.2 10.2 10.4 12.5 14.3 15.3 13.9 12 10.4 9.5 8.8
22/06/08 8.2 7.8 7.5 7.5 7.6 7.4 9.8 9.8 10.9 11.2 13 14 11 10.1 9.6 11 12.9 14.5 15.3 11.8 11.2 10.8 9 8.5
23/06/08 7.3 6.7 6 6 7.3 9.7 11 10.1 10.9 11.6 12.8 13.3 11.8 10.7 10.5 11.1 12.4 14.9 15.6 8.5 12.8 11.6 9.7 8.6
24/06/08 7.9 7.3 6.8 6.5 7.4 9.8 11.5 10.2 11 12 13.1 13.7 11.6 10.8 10.5 10.9 11.9 15.2 15.9 14.6 12.1 11.3 10.3 9
25/06/08 8.4 8.2 7.9 7.3 7.3 9.9 11.2 11 11.5 12.3 13.6 13.9 11.4 10.4 10.9 11.7 13.1 15.2 13.1 14.1 12.3 11.6 9.7 8.8
26/06/08 8.6 8.2 8 8 8.4 10.3 11.5 10.9 11.2 11.7 13.3 13.8 12.1 10.8 10.9 11.4 12.2 15.2 15.9 14.2 12.6 10.8 10 9
27/06/08 8.5 8.4 8.3 7.9 8.1 9.7 11.3 10.6 11.4 11.9 13.2 14 12.4 10.8 9.7 11.2 12.4 14.7 16 14.5 12.8 10.7 9.8 9.1
28/06/08 8.5 7.9 7.7 7.5 8 8.9 11 11 11.1 11.8 13.1 14.1 11.7 10.4 10.4 10.6 12.6 14.7 15.8 14.3 12 11 9.4 7.7
29/06/08 8 7.8 7.6 7.4 7.8 8.4 9.3 10.6 10.8 11 13.7 13.9 11.9 10.6 10.7 11.5 12.9 14.5 8.3 13.1 11.6 10.8 9.6 8.8
30/06/08 8.2 8 7.8 7.6 8.5 10.6 11.1 10.2 11.4 11.9 13.3 14.3 11.9 10.7 10.7 11.1 12.6 14.7 15.9 14.8 12.9 11.5 10.2 8.8
01/07/08 8.3 8.2 7.8 7.7 8.2 10.1 10.7 10.3 10.8 11.8 13 14 12.1 11 10.8 5.4 7.1 17.2 16.6 13.9 8.9 8.8 7.8 7.9
02/07/08 7.3 7 7.1 6.8 7.5 9 10.3 10.2 11.3 11 13.3 14.1 11.3 10.6 10.6 11.2 13.2 16 15.6 13.4 11.4 10.7 10 9.1
03/07/08 7.9 7.5 7.3 7.2 7.6 8.9 10.4 10.8 11.5 11.6 13.1 13.6 11.8 10.4 10.5 10.9 11.3 13.7 15.1 14.1 12 11.1 10.1 8.7
04/07/08 8 7.5 7.5 8 9.6 9.6 9.5 9.5 11.2 10.9 12.2 13.1 10.8 10 9.9 10.1 11.8 15.6 16.3 13.2 11.5 10.4 9.7 9
05/07/08 8.1 7.7 7.5 7.5 7.5 8.4 10.3 11.1 11.5 11.7 13.4 13.5 11.4 9.2 9.4 10.3 12.3 15.4 15.3 10.8 8.8 9.5 8.7 6.9
06/07/08 6.5 6.4 6.2 6 6.4 7 8.7 9.2 10 10.3 11.8 12.6 12 10.5 10.6 11.4 13.9 15.3 13.5 11.2 10.6 9.4 8.7 7.8
07/07/08 7.4 7 6.8 6.8 7.7 8.3 9.9 10 10.8 11.7 12.7 13.7 11.8 10.6 10.8 11.3 8.8 14.4 14.1 12.9 11.4 10.5 9.2 7.9
08/07/08 7.6 7 6.8 6.6 7.3 9 9.8 10.6 11.3 10.9 12.5 11.7 0 10.8 11.2 11.5 12.9 14.4 15.9 14.6 12.6 11.1 10 8.5
09/07/08 7 6.7 6.5 6.5 7.7 9.7 10.5 10.6 11.5 11.8 13.2 13.6 11.8 9 10.9 11.1 12 14.6 15.7 14.3 12.8 11.7 9.8 8.8
10/07/08 8.3 7.8 7.7 7.5 8.1 9.7 10.6 10.7 11.2 11.8 13.1 13.9 11.9 10.8 10.7 10.7 12.6 14.6 15.5 13.9 12 10.5 8.9 8.5
11/07/08 7.8 7.4 7.4 7.4 7.7 8.9 10.2 10.4 9 9.6 11.1 11.3 10.2 9 9.1 11.7 12.6 14.4 15.9 14.7 12.8 11.5 10.2 9.4
ANEXOS
66

00:00

01:00

02:00

03:00

04:00

05:00

06:00

07:00

08:00

09:00

10:00

11:00

12:00

13:00

14:00

15:00

16:00

17:00

18:00

19:00

20:00

21:00

22:00

23:00
FECHA

12/07/08 8.6 8.2 7.8 7.6 8.1 9.1 11.1 11.1 12 12.4 13.1 14.4 12.3 10.6 10.4 11 12 15 15.7 15 8.6 9.2 8.3 7.7
13/07/08 7.2 7 6.9 5.5 5.5 5.6 6.7 5.5 8.2 10.7 11.5 14.4 12.2 10.5 10.5 10.8 13.8 14.1 15.2 11.8 9.3 8.3 7.7 7.7
14/07/08 7.2 6.8 6.8 6.5 6.8 8.3 10.2 10.2 10.7 8.5 9.5 10.3 9.6 8.4 8.7 9.3 12.4 14.8 11.5 10 10.7 9.3 7.5 8
15/07/08 7.3 7 6.9 7 7.6 8.3 10 9.8 10.9 11 12.8 13.1 13.6 12.2 11.9 12.7 14.3 17 17.8 16 18 12.4 10.8 10.4
16/07/08 8.6 7.4 7 7.5 8.1 8.1 10.6 10.7 11.1 12.2 14.1 14.1 11.5 10.7 10.7 11.3 13.5 14.5 15.3 13.5 11.5 10.9 9.7 8.7
17/07/08 7.9 6.5 6 6 8.3 9.3 10.7 10.9 11 12 13.1 13.6 12.1 10.6 10.4 8.7 11.6 14.5 14.7 13 11.9 10 9.7 8.7
18/07/08 8.1 8.1 7.1 7.1 7.6 8.9 10.9 10.6 11.2 11.7 13.2 14.4 12.4 11.2 10.8 11 12.1 14.4 15.7 14.4 12.6 11.4 10.4 9.2
19/07/08 8.2 7.7 7.5 7.3 7.8 8.3 10.3 10.5 10.9 11.3 11.2 13.3 11.3 9.5 8.2 10.3 11.2 14.6 15.2 12.4 10.3 9.7 9.1 8
20/07/08 7.4 7.4 6.8 7 7.2 7.8 9.7 10.6 10.8 11.8 12.7 13 11 10.9 10 10.3 11.8 14.5 14.2 12.5 11.5 10.1 9 8
21/07/08 7.7 7 6.7 6.7 7.7 8.3 10.2 10.2 11.1 11.5 12.7 13.5 11.9 10.6 10.5 11 11.8 14.1 15.1 13.6 12 10.2 8.7 8.7
22/07/08 8 8 8 7.8 7.9 8.7 10 10.7 11.3 11.7 13.1 13.8 11.8 10.7 10.6 10.8 12.4 14.6 15 13.9 11.8 10.5 9.8 9
23/07/08 8.1 7.3 7.9 7.6 8 9.1 10.8 10.7 11.1 11.4 12.7 13.2 11.4 10.6 10.3 10.5 11.6 13.9 15.2 10 0 9.8 9.6 9.8
24/07/08 8.2 8.2 8.1 8.1 9.2 10.2 10.7 10.9 11.1 11.4 12.7 13.4 11.6 11 10.3 10.3 11.9 14.6 15.4 13.1 11.2 10.1 9.3 8.6
25/07/08 8 7.9 7.7 7.4 7.4 8.4 10.1 10.7 11.4 12 13.6 14.3 12 10.4 10.1 10.6 11.9 14.1 14.5 13.1 11.2 10.2 8.7 7.4
26/07/08 8.3 7.9 7.7 7.5 7.7 8.1 9.6 10.8 11.4 9.9 12.1 12.1 12.3 10.6 10.2 10.6 12.3 14.2 14.3 11.8 11.1 10 8.5 7.9
27/07/08 7.6 7.4 7.2 7.2 7.4 7.8 8.8 10.3 10.8 11.2 12.5 13.1 11.1 10.1 7 10 13 10.3 13.8 10 7.8 9.1 8.4 7.4
28/07/08 7 6.9 7.2 7.2 8.3 9.1 9.1 9 10.1 10.8 12.2 13.4 12.4 7.8 7.1 10.8 13 14.7 14.7 13.4 11.4 9.8 8.8 7.9
29/07/08 7.5 7.2 6.7 6.7 7.2 8.3 9.6 9.9 9.6 10 12 12.8 10.7 9 9.4 10.2 11.8 14.4 13.2 9.7 10.2 10.1 9.1 8.3
30/07/08 7.7 7.4 7 6.8 7.4 8.5 6.9 9.8 10.4 7.9 12.6 13.4 11.6 10 9.8 9.2 11.5 13.4 14.8 13 12 11 9.9 9.1
31/07/08 8.2 7.9 7.8 7.7 7.8 9 10.4 10.2 10.6 9.4 10.6 12.8 11.7 10.1 10.1 10.3 11.7 13.5 14.6 13.6 12 10 9.3 8.7
01/08/08 8.5 7.5 7.8 7.7 8 9.1 10 10.1 10.7 11.3 13.5 14.5 12.1 10.5 10.5 10.7 10.7 14.8 16.3 11.1 8 8.1 8.1 7.4
02/08/08 7.2 7.1 7 6.9 6.9 8.1 9.5 10.8 10.9 11.6 13.2 14.3 12 10.4 10 11.2 14 13.8 14.6 12.6 9.9 10 8.6 7.9
03/08/08 7.5 7.1 7 0 0 0 0 0 0 0 0 0.7 11.2 9 9.4 9.4 12.6 14.1 13.5 10.9 9.4 8.7 8 7.3
04/08/08 6.4 6 5.8 5.9 6.3 7 9 9 9.4 9.9 11.3 12.2 10.7 9.4 9.4 10.9 13.5 15.7 15.1 13.5 11.1 10 7.8 7.4
05/08/08 7 6.8 6.7 6.7 9 9.3 10 10.1 10.4 11 12.3 13.6 11.6 9.9 9.9 10.1 13.5 13.7 15.4 13.8 11.5 10.3 9 8.4
06/08/08 8 7.7 7.6 7.5 8.3 9 10.6 10.6 10.8 11.3 12.4 13.5 11.2 10 9.7 9.9 11.5 13.9 15 13.7 12.2 10.6 9.7 8.6
07/08/08 8.2 7.8 7.5 7.5 8 8.3 10.4 10.8 10.8 10.6 12.3 12.8 10.4 9.4 9.3 9.8 11.8 15 14.6 13 11.7 10.8 9.3 8.3
08/08/08 7.8 7.6 7.3 7.1 7.6 8.8 10.3 10.7 10.6 11.4 12.8 13.3 11.3 9.9 9.8 10 12 13.8 14.3 13.3 11.6 10.4 9.2 8.7
ANEXOS
67

00:00

01:00

02:00

03:00

04:00

05:00

06:00

07:00

08:00

09:00

10:00

11:00

12:00

13:00

14:00

15:00

16:00

17:00

18:00

19:00

20:00

21:00

22:00

23:00
FECHA

09/08/08 8.1 7.4 7.4 7.4 7.4 8.5 9.8 10.6 11 11.7 13.4 13.7 10.7 10 10 10.7 13.1 14.4 15.4 9.3 8 8.8 7.9 7.5
10/08/08 6.5 6 5.7 5.7 6.7 7.6 9.2 10.4 10.5 11.2 12.5 12.9 11.3 9.7 9.9 10.5 0 8.2 7.4 7.1 7.4 6.8 6.1 5.9
11/08/08 5.2 5 4.8 4.5 5.1 6.8 7.7 7.7 8.1 8.3 8.2 8.8 7.8 6.6 6.5 6 8.1 10.3 10 9.5 9.5 9.2 8.4 7.8
12/08/08 7.2 7 6.8 6.8 7.3 7.9 9.5 9.6 9.8 10 11.6 12.5 10.9 9.4 9.5 9.7 10.8 13 15 12.7 10.6 9.6 8.4 9.1
13/08/08 8 7.9 7.9 7.7 7.8 8.7 10.2 11.7 10.6 11.1 12 11.6 10.8 9.9 9.9 10.4 10.6 13.8 14.7 14 11.6 10.7 10.1 9.2
14/08/08 8.7 8.1 7.7 7.7 8.3 8.9 10.4 10.6 10.8 11.6 12.9 13.4 11.6 10.2 9.6 10.7 11.8 13.9 15 13.9 11.9 11.2 10.5 9.4
15/08/08 8.6 8 7.8 7.7 8.1 8.8 10.2 10.5 10.9 11 13.4 14.1 11.8 10.4 10.5 10.7 12.1 14.4 14.4 13.9 12.3 11.1 10.6 9.5
16/08/08 8.8 8.6 8.4 8 8 8.8 10.1 10.9 11.1 11.8 12 13.8 11.8 10.2 10.1 10.1 6.2 14 14.9 13.2 11.2 9.8 9.1 8.2
17/08/08 7.4 7.4 6.7 7 7 7.6 8.8 9.2 11.3 12.1 13.9 13.1 11.1 10.9 10.3 10.5 14.1 15.5 14.4 11.2 9.6 6.6 7 7
18/08/08 6.1 5.5 5.4 5.3 5.3 6.4 8.2 9.3 0 11 10.4 13 11.1 9 9.3 10.3 13.4 15.2 15.5 12.4 10.3 9 8.2 7.3
19/08/08 7 6.4 6.2 6.2 6.7 7.7 8.4 9.6 10.8 11.4 12.4 12.9 11.3 6.1 8.7 9.5 10.7 13.9 14.8 13.9 11.7 10.6 9.6 8.7
20/08/08 7.9 7.5 7.3 7.2 7.4 8.4 10.4 10.5 10.5 10.9 12.3 13.1 11.3 10 9.7 10.3 12.1 14.3 14.7 13.7 11.6 10.8 9 8.6
21/08/08 7.9 7.8 7.5 7.5 8.6 9.4 10.3 10.4 10.8 9.3 10.2 13.6 10.2 9.8 10.1 10.8 11.7 13.9 15.2 14.4 11.6 10.3 9.3 8.2
22/08/08 7.7 7.5 7 7 7.5 8.8 10.2 9.8 10.3 11.1 12.7 13.6 11.5 10.3 10.4 10.4 12 15 15.9 13.7 11.6 10.7 9.4 7.6
23/08/08 7.8 7.5 7.5 7.2 7.5 8.4 10 10.4 10.8 11 11.2 11.7 12 10.2 10 10.6 12.2 14.5 14.7 13.4 11.3 10 9.2 8.5
24/08/08 7.7 7.5 7.4 7.4 7.4 7.6 9.2 10.1 10.7 11.1 12.1 13.4 11.9 10.1 10 10.9 12.3 14.1 14.2 12.3 11.3 9.4 8.6 8.1
25/08/08 7.7 7.7 7.7 7.7 7.6 9.2 9.2 9.8 10 10.5 11.7 13.1 11 10.1 10.2 11.1 13.1 16.2 15.7 13.5 11.2 10.1 9.2 8.5
26/08/08 8 7.5 7.4 7.2 7.2 8.8 8.8 7.7 10.4 10.2 11.6 13.4 11.7 10.4 10.2 10.5 11.5 14.1 15.6 14.7 12 10.8 10.1 9.1
27/08/08 8.4 7.7 7.5 7.4 8 9 10.9 10.7 11 11.5 12.7 13.5 11.9 10.5 10.5 10.7 11.9 14.2 15.3 13.1 11.1 11.2 9.7 8.4
28/08/08 8.3 8.2 7.9 7.9 8.3 9.1 10.7 10.8 11.2 11.8 12.6 12.9 11 10.3 10.3 10.6 11.6 14.2 15.4 13.9 11.3 10.3 9.4 8.6
29/08/08 8.4 8 7.4 7.2 8 9.4 9.9 9.9 10.7 11.9 13 14 13.5 10.8 9.9 9.8 12.4 14.8 14.2 11.7 10.8 9.8 9.2 7.9
30/08/08 7.1 7 7 7 7.1 8.2 9 10.8 11.9 13.8 15.6 15.7 11 9.9 9.7 11.6 14 15.8 15 13.2 10.8 8.9 7.8 7.4
31/08/08 6.1 6.1 6 6 6.4 6.9 9.5 10.7 11.5 11.4 13.3 14.1 13.1 9.6 10.6 12.1 14.9 15.7 14.5 13.1 11.3 10 9.4 8.4
01/09/08 7.2 7 6.8 6.8 6.7 8.9 10.7 9.8 9.5 11.1 13.3 14.1 12.7 11 0 10.2 11.5 13.5 14.7 14.1 12.2 11 7.6 7
02/09/08 8 7.6 7.7 7.7 7.9 10.7 11.6 10.5 11 11.5 12.1 12 11 10.7 10.8 11.5 12.1 15 15.5 15 11.6 10.1 7.7 7.7
03/09/08 6.7 6.5 6 6 7.7 10.2 11.2 10.8 11.1 11.7 13.1 14 11.9 10.3 8.6 11.1 12.8 14.7 15.6 15.5 12.1 10.9 9.6 8.6
04/09/08 7.7 7.4 7.1 7 8.1 9.5 11.2 9.9 11.1 11.6 13.1 13.2 11.6 10.3 10.2 10.6 12.1 14.6 15.9 15 12.5 11.2 9.4 8.6
05/09/08 7.7 7.4 7.2 7.2 7.7 9.3 11 10 10.8 11.4 12.8 12.9 11.3 9.9 10.1 10.5 11.8 14.2 15.8 15.2 12.4 10.9 9.4 9
ANEXOS
68

00:00

01:00

02:00

03:00

04:00

05:00

06:00

07:00

08:00

09:00

10:00

11:00

12:00

13:00

14:00

15:00

16:00

17:00

18:00

19:00

20:00

21:00

22:00

23:00
FECHA

06/09/08 7.6 8.1 7.8 7.8 8.2 9.8 10.1 11.5 12.1 12.3 13.1 14.1 13.1 10.9 7.4 12 14.2 16.2 14.7 13.2 11.3 10.2 8.5 8.3
07/09/08 7.8 7.6 7.4 7.3 7.6 8.1 9.8 11.4 11.9 12.1 13.7 14.6 13.4 11.6 11.5 12 13.3 15.1 15.6 14.8 12 10.3 9.3 8.5
08/09/08 7.7 7.4 7 7 7 7.6 10.1 8 8.6 8.6 5.6 3.1 0 1.3 0 0 0 0 0 0 0 0 0 0
09/09/08 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
10/09/08 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
11/09/08 5.7 2.3 2.4 5.7 5.7 5.7 8.1 5.6 3.4 4.3 6.7 5.3 6.3 9.2 9.4 9.6 11.5 12 12 9.5 5.9 4.8 3.8 6.2
12/09/08 5.2 10.4 6.2 6 6.4 7.1 7.3 7.4 7.4 7.8 9.2 11.3 9.1 8 7.3 8.2 9.9 10.9 12.6 12.9 12.5 11.3 9.9 8.9
13/09/08 8.9 8 7.8 7.6 7.6 8.6 10.1 11.1 11.1 11.7 12.9 12.8 11.7 10 9.6 10.9 10.4 15.4 16 14.1 12 10.2 10 9.1
14/09/08 8.2 7.8 7.4 7.2 7.4 7.9 9.9 10.9 11.4 15.3 17.8 14.1 12.5 10.5 10.6 11.1 12.8 13.6 15.2 14.4 12.7 11.6 10.1 9.1
15/09/08 8.4 8.4 8.2 8.2 8.8 10.9 12.5 11 11.1 11.5 13.2 14.4 12.6 11.4 11.4 11.7 13.2 16 18.4 16.4 13.6 12.3 10.1 9.7
16/09/08 8.9 8.4 8 8 9.1 11.3 13 11.1 11.1 12.1 12 15.2 12.1 9.6 9.2 9.5 12.1 13.2 15.5 14.4 13.2 10.9 8.7 8.5
17/09/08 7.9 7.7 7.7 7.7 8.9 10.4 11.5 10.8 11.3 10.5 12.8 13.3 11.4 10.8 10.5 10.7 12 14.9 14.8 13.3 11.3 10.5 8.9 8.4
18/09/08 8 7.6 7.5 7.5 8.9 10.6 10.5 10 10.5 11 11.1 12.1 11.7 8.1 9 10 13.2 15.2 14.9 14.2 10.5 11 9.5 8
19/09/08 7.7 7.5 7.5 7.4 8.7 10.8 11.8 10.3 10.6 11.4 12.7 13.1 11.3 10.3 10.5 11.6 12.5 17.4 16.4 13.4 11.8 10.1 8.6 8
20/09/08 7 6.6 6.4 6.3 6.7 7.6 9.3 10.4 10.2 10.7 12.6 14.2 12.7 16.3 15.2 16.9 19.8 14.9 15.8 13.9 11.5 10.4 9.3 8.4
21/09/08 7.6 7.6 7.1 7.1 7.1 7.4 9.3 11.1 10.6 11.4 12.4 13.9 12.1 10 10 10.8 14 15.5 14.4 13.3 11.3 10 8.5 8.1
22/09/08 7.8 7.6 7.4 7.4 7.6 10 10.9 9.7 10 10.7 12.9 13.6 11.6 10.3 10.4 11.4 13.5 15.6 16.7 14.5 11.7 10.7 9 8
23/09/08 7.5 7 6.7 6.7 7.9 9.8 10.1 9.6 9.8 10.4 12.5 13.5 11.8 10.7 10.2 11.2 12.6 15 16.7 15.4 11.2 10.1 9.4 8.3
24/09/08 8 7.5 7.3 7 7.9 10.2 11.5 10.2 10.5 11.7 13.1 13.5 11.6 10.6 10.3 11.1 12.6 15.5 16.6 14.6 11.7 10.6 9.2 8.2
25/09/08 8.1 7.6 7.3 7.3 7.9 10.1 11.3 9.9 10.2 11.1 12.6 12.7 11.5 10.5 10.5 11 12.8 16 16.8 14.2 16.4 16.8 9.4 7.9
26/09/08 7.5 7.4 7.4 7.5 8.2 8.1 10.9 10.5 10.9 11.6 13.2 13.7 12.1 10.7 10.5 11.2 12.2 15.3 18.2 13.7 11 10.4 9 7.9
27/09/08 7.6 7.5 7 6.9 7 8.1 10.3 11.2 11 11.8 13.5 14.3 12.4 10.6 10.3 11.3 13 15.5 16 14 11.4 10.2 8.8 8
28/09/08 7.4 7 6.5 6.5 6.8 7.3 11.2 11.5 9.2 11.5 12.7 13.7 11.8 10.8 11.8 13.4 13.4 10.5 8.4 7.1 6.1 5.4 5.2 4.5
29/09/08 4.2 4.3 4 4 5.7 7.1 7.4 6.7 7.8 4.6 7.6 8.1 7.3 6.7 8.4 8.9 10.4 13 13.4 11.9 10 10.8 7.2 5.6
30/09/08 6.4 6 5.8 5.8 6.6 7.9 8.1 8.1 7.9 10.4 12.7 12.4 11.7 10.4 10.8 11.7 13.3 15.6 16.2 14.5 11.5 10 8 8.1
01/10/08 6.7 5.3 4.7 4.7 6.7 10.2 11.5 10 10.9 10.9 12.6 13.8 11.6 10.3 10.2 7.4 8.8 16.8 16.4 13.9 11.4 9.9 8.1 7.3
02/10/08 6.8 6.4 5.7 5.6 6.2 9.3 11.1 10 10.9 11.6 12.5 12.2 11.4 10.2 10.7 11.6 12.4 15.7 17.5 13.2 11.5 10 8.2 7.3
03/10/08 7.2 6.5 6.8 2.9 4.8 8.6 10.7 10 10.7 11.7 12.9 13.5 11.2 10.3 10.4 10.8 13.2 16 16.6 14.7 11.6 8.8 8.6 7.7
ANEXOS
69

00:00

01:00

02:00

03:00

04:00

05:00

06:00

07:00

08:00

09:00

10:00

11:00

12:00

13:00

14:00

15:00

16:00

17:00

18:00

19:00

20:00

21:00

22:00

23:00
FECHA

04/10/08 7.1 7 6.8 6.6 7 8.6 8.5 8.8 8.5 11.9 12.8 13.8 12.8 11.8 10.1 11 14.3 16.6 16 13.9 11.9 9.6 8.9 7.7
05/10/08 7 6.5 6 6 6.7 7.2 8.8 10.4 10.6 11.7 13.9 14.5 12.6 10.5 11.2 12.3 15.2 16.2 15.7 13.3 11 10.1 8.5 7.2
06/10/08 7.2 6.7 6.5 6.5 7.7 9.6 11.2 10 10.5 11.4 12.4 13.3 11.3 9.9 10.1 10.6 12.4 15.5 17.2 14.8 11.8 10.6 8.9 8.2
07/10/08 8 7.8 7.5 7.5 7.4 9.8 11 9.8 10.5 10.8 12.1 14.1 11.7 10.7 10.6 11.3 13.6 16.9 16.8 14 11.2 10.5 9.5 8.2
08/10/08 8 7.6 7.4 7.5 8.6 10.1 9 10.2 10.1 10.8 12.1 12.6 11.6 9.8 8.8 10.3 11.8 13.3 17.6 15.2 11.9 10.8 9.8 8.3
09/10/08 7.7 7 6.7 6.7 7.7 7.9 8.9 8.1 6.8 4.1 6.8 10.6 9.8 8.8 9.1 9.7 14.9 10.9 10.7 7.5 7.7 9.8 8.9 5.6
10/10/08 6.6 6.2 6 5.9 6.7 8.3 9.9 11.6 11.8 6.4 7.1 8 5.3 3.2 6.5 12.1 14.7 15.7 15.6 13.4 10.6 9.6 8.3 7.6
11/10/08 7.2 6.7 6.7 6.7 6.7 7.8 9.3 10.4 10.5 11.2 11.3 13 11 9.5 10 10.4 12.8 15.8 15.4 12.1 10.2 9.3 8.9 8.1
12/10/08 7.8 7.4 7.4 7.2 7.2 7.9 9.9 11.2 11.2 11.8 13.9 14.6 12.1 10.5 11.3 9.4 14.6 16 15.6 7.5 11.1 11 7.7 7.8
13/10/08 7.5 7 6.8 6.8 7.7 9.5 11.1 10.1 10.7 11 12.5 13.7 11.3 10.6 10.4 11.6 13.9 16.6 17.6 14.4 11.6 10.4 9 8.1
14/10/08 7.5 7 6.7 6.5 7.2 9.7 8.5 8.3 10.6 11.4 12.5 12.6 10.2 9.2 9.1 10 11.9 15.8 16.5 13.6 10.9 9.9 8.2 7.2
15/10/08 6.3 6.1 6.3 6.1 7.2 8.3 10.4 9 9.2 10.1 11.7 12.6 10.1 9 9.3 10.3 13.5 16.2 0 4.2 0 0 3.6 5.5
16/10/08 6.2 6 7 7 6.1 7.4 7.8 7.1 7.3 7.3 8.9 9.5 9.1 7.8 8.2 8.8 10.5 13.3 13.8 11.1 9.1 8.4 7 6
17/10/08 5.7 5.5 5.1 5.1 5.5 7 10.4 10 11.1 10.2 12 12.5 10.5 9.4 8.8 9.2 11 17 17.9 15.2 11.8 10.2 8.7 7.7
18/10/08 7.1 6.5 6.2 6 6.5 7.7 9.5 10.8 12.9 13.3 12.6 14.7 15.3 10.3 9.8 11.2 13 15.5 16.8 14 11.4 9.9 8.6 7.8
19/10/08 7.4 6.9 6.9 6.7 6.9 7.3 9.1 11.1 10.8 11.9 13.2 15 11.7 10.6 10.8 12 14.6 16.6 15.9 12.8 11 9.8 8 7.3
20/10/08 6.9 8 6.8 6.6 7.2 9.8 9.9 9.9 10.4 11 12.9 13 11.2 10.2 9 9.3 14.5 17 17.3 13.5 11.5 10.1 8.1 7.7
21/10/08 6.7 6 6 6 7.7 9.6 10.4 9.8 10.2 0 1.2 1.2 4.8 10.4 10.1 11.6 14.3 17.8 17.3 13.6 10.2 9.5 8.3 6.7
22/10/08 7 6.5 6 6 7.5 9.5 11.5 9.5 10.7 4.1 6.3 6.4 6.8 6.4 5.8 6.2 13.8 18 17.4 14.5 11.7 10.1 8.7 7.8
23/10/08 7.4 7.2 6.9 5 7 8.9 11 9.2 11.1 10.6 12.4 13.9 11.5 10.3 10.9 12.1 13.8 17.3 17.7 14.7 12 10.6 8.4 7.4
24/10/08 7.3 7 6.5 6.4 7.2 9.9 10.6 10.3 10.6 9.7 13.3 14 11.6 10.6 10.9 11.3 15.5 16.9 17.8 14.6 12.1 10.9 9 8
25/10/08 7.7 6.8 6.3 6.3 7.7 9.7 10.2 11.3 11.6 12 13.9 14.6 12.7 10.4 10.5 11.2 13.1 15.6 17.4 14.2 11.9 10.5 9.2 8.5
26/10/08 7.7 7.3 7 6.5 7.4 8.9 11.6 11.6 12.3 13.1 14.6 14.1 11.4 10.8 11.6 13.7 16.2 18.4 14.2 11.8 10.7 9.8 8.5 7.6
27/10/08 7.6 7.6 7.6 7.6 8.2 11 11.5 10.3 11.3 12.3 13.6 13.7 11.8 9.4 10.8 13.4 17.1 18.5 14.6 12.3 9.9 8.5 6.2 7.2
28/10/08 6.4 6.1 5.8 5.5 6.3 9.1 9.2 9.1 9.5 10.5 11.7 11.4 10.1 9.1 10.2 12.5 15.8 18.5 14.5 11.9 9.1 8.1 6 5.5
29/10/08 5 4.7 4.7 4.7 6.7 9.5 10.6 9.9 10.4 9.6 12.3 12.5 10.1 9 10 11.9 13.3 18.8 14.7 10.2 9.7 8.1 6.7 6.1
30/10/08 5.8 5.3 5 5 6.2 9.2 6.6 9.7 10.7 11.4 11 11.1 9.1 9.5 10.1 12.2 15.5 18.6 16.6 11.5 9.6 8.3 8.2 6.2
31/10/08 6 5.9 5.7 5.8 6.8 9.7 11.4 10.2 10.6 10.6 12.3 12.7 9.8 9.3 10.2 12.6 15.3 18.6 16 11.7 9 7.8 6.9 6.2
ANEXOS
70

00:00

01:00

02:00

03:00

04:00

05:00

06:00

07:00

08:00

09:00

10:00

11:00

12:00

13:00

14:00

15:00

16:00

17:00

18:00

19:00

20:00

21:00

22:00

23:00
FECHA

01/11/08 6 5.5 5.5 5.8 7.2 8.9 10.5 10.6 10.9 11.8 13.3 14 11.2 9.2 9.4 11.9 15.2 19.7 15.2 11.4 9.6 8.4 7.1 6.2
02/11/08 5.5 4.9 4.5 4.5 5.3 6.7 9.8 10.6 11.2 11.9 13.8 13.8 10.8 9.6 11 12.8 16.8 17.9 14 11 9.1 7.9 6.7 6.4
03/11/08 6 5.4 5 5 6.2 9.4 10.6 9.5 10.4 11.8 13.3 13.4 10.9 9.8 10.8 12.2 15.6 18.3 15.4 12.1 10.4 9.2 7.2 6
04/11/08 6.9 6.8 6.5 6.6 7.4 9.6 10.5 10.4 10.6 11.7 13.1 12.8 10.6 9.7 10 11.6 15.4 17.6 15.4 11.7 9.8 8.9 7.1 6.7
05/11/08 6.5 6 6 6.5 7.3 9.4 10.8 10.1 10.8 11.6 13.9 13 9.9 9.8 11.9 12.2 16.2 18.9 12.8 13.2 10.9 8.9 7.9 6.9
06/11/08 6 5.7 5.7 5.7 6.9 9.8 11.3 10.2 11 11.9 13.1 13.5 11.1 9.8 10.9 12.9 15.9 19.8 14.2 12.4 10.5 9.5 8 6.8
07/11/08 6.3 5.9 5.7 5.7 6.9 9.7 11.4 11.7 12.2 12.5 14.3 14.2 11.8 10.5 10.9 12.5 15.5 19.2 17 12.2 10.5 9.2 7.8 7.1
08/11/08 6.8 6.4 6.4 6.5 7 8.3 11.4 11.8 12.1 13.1 13.2 13.2 11.2 11.2 10.1 13 16.1 18.8 13.4 10.7 8.9 7.7 7.1 6.6
09/11/08 6.1 5.1 5.8 6.3 6.5 7.1 10 11.6 12 13 14.8 14.9 13.9 9.9 12.3 15.7 16.6 16.9 13.5 9.8 8.8 7.9 6.9 6.4
10/11/08 5.7 5 5 5 7.7 9.1 10.5 9.6 10.4 11.4 10.3 12.6 10.1 9 9.1 10.6 15.2 18.5 16.3 12.6 10.4 9.2 7.3 6.8
11/11/08 6.2 6.1 5.9 5.8 7 9.3 14.2 10.4 11 11.6 13.1 13.1 11 9.7 10.2 12.2 15.7 18.1 16.6 12.9 10.4 9.3 7.6 6.8
12/11/08 6.7 6.1 6.1 6.1 6.6 9.1 11.5 9.8 10.9 11.8 13.1 13.3 11.5 9.5 10.8 12 14.6 18.1 17.3 12.9 10.9 9.7 8 7.2
13/11/08 6.9 6.7 6.5 6.7 6.7 9.5 11 9.8 9.8 11 13 13.5 10.5 9.7 10.6 11.8 15 18.1 17.2 12.7 10.8 9.8 8.8 7.5
14/11/08 6 6 6 7.2 8 11 12.2 10.9 10.7 11.5 13.2 12.7 11.1 10.1 10.7 12 15.1 18.6 16.7 12.2 10.6 9.6 7.4 7.2
15/11/08 6.6 6 5.7 5.7 6.1 8.2 11 11 11 11.4 13.5 14.5 11.7 9 9.1 7.5 15.3 18.2 15.9 11.9 10.6 9.5 8.6 7.4
16/11/08 7.3 6.9 6.5 6.5 6.5 7.6 10.5 11.1 11.2 12.1 14.1 14.5 12.3 10.5 11.7 14.3 16.9 17.8 13.9 10.7 8.6 7.3 6.2 5.7
17/11/08 5.6 5.3 5.1 5.2 6 8.6 10.9 9.7 10.7 11.7 11.7 12.5 12.3 9.7 10.2 12 17 19 15.9 11.6 10.6 7.9 6.6 6
18/11/08 5.7 5.5 5 5 6.8 9 11.4 9.9 10 10.3 12.5 12.5 10.2 8.8 9.7 11.2 15 19.7 16.7 11.9 10 8.1 6.2 5.4
19/11/08 5 4.8 4.7 4.8 5.7 8.2 11.1 9.6 10.2 10.8 12.2 12.8 10.8 9.4 10.1 12.7 16.1 19.3 15.7 11.2 9.7 7.6 6 5.2
20/11/08 4.9 4.7 4.7 5 5.1 8 11.4 10.4 10.7 11.5 13 13 10 9.2 9.8 10.9 13.8 17.7 15.4 11.1 8.9 7.6 5.7 5.5
21/11/08 5.1 5 5 5 6.3 8.6 8.2 9.2 9.2 10.5 11.1 12.1 9.4 9.2 10 11 16 20 15.9 10.8 8.9 7.1 6.4 5.4
22/11/08 5 4.7 4.5 4.5 5.7 7.6 10.3 10.5 10.5 11.4 13.4 14 11.8 9.6 10.6 12.9 16.4 19.1 14.8 11.1 9.2 7.7 6.3 5.6
23/11/08 5 4.6 4.3 4.1 5 6.8 9.5 11 11.9 12.2 14 14.8 12.9 10.5 11 14 16.4 17.7 13.2 10.3 8.9 7.7 5.8 5.2
24/11/08 5.2 5 4.9 4.9 5.8 9.7 11.3 9.3 10 10.3 11.5 12.5 10.2 8.8 8.9 10 14 16.9 16.7 12.4 9.7 7.9 6.3 5.7
25/11/08 5.5 5 4.8 4.9 6 9 11.5 9.5 9.9 10.5 12.8 12.8 10.8 9.5 10.5 12.4 15.6 17.9 17 11.8 9.8 8 6.4 5.4
26/11/08 5 4.7 4.7 4.7 6.2 8.6 11.3 9.8 10 11.1 12.5 13.1 10.8 9.3 10.1 12.1 15.6 18.8 16.6 12.3 9.6 8 6.1 5.6
27/11/08 5.3 5.1 5.1 5.1 5.8 8.9 12.2 10.2 10.5 11.1 13 13.2 11.3 10 10.6 12.2 15.5 18.9 16.8 12.3 9.7 7.8 5.9 5.3
28/11/08 5.2 5 4.8 4.8 5.8 8.3 12.1 10.4 9.4 10.8 11 11.5 9.5 8.4 9.2 10.4 14.5 17 18 12.3 9.1 7.6 7.7 5.7
ANEXOS
71

00:00

01:00

02:00

03:00

04:00

05:00

06:00

07:00

08:00

09:00

10:00

11:00

12:00

13:00

14:00

15:00

16:00

17:00

18:00

19:00

20:00

21:00

22:00

23:00
FECHA

29/11/08 5.3 5 4.6 5.6 5.7 8.2 10.8 11.3 11 11.3 13.3 14.1 11.5 11.3 12.3 12.8 17.2 19 16.4 12.3 10 8.3 6.9 5.9
30/11/08 5.5 4.7 4.5 4.5 5.3 7.5 9.8 10.9 11.5 12.8 14.8 15.4 12.8 10.7 11.3 13.4 16.7 18.5 14.8 11.4 9.4 6.6 6.8 6.2
01/12/08 5.7 5.5 5.5 5 6.5 9.2 11.3 9.7 10.5 11.8 13.4 13.8 11.4 9.2 10.5 12.6 16.5 18.5 15.8 11.9 9.8 8.3 8.3 6.6
02/12/08 5.9 5.8 5.7 5.6 6.4 8.5 11.3 10.5 10.6 11.2 13 13.6 11 9.7 10.4 13 16.5 18.8 16.8 12.3 9.8 8.4 8.2 6.1
03/12/08 5.8 5.5 5.1 5.1 6.4 9.5 11.7 9.4 9 10 11 12.1 10.9 9.5 9.4 12.1 16.5 17.5 15.7 11.5 9.5 7.7 7.1 5.8
04/12/08 4.7 4.3 4.2 4.5 6.7 8.9 11.7 9.9 10.8 11.1 12.2 12.4 10.4 9.3 10.6 11.3 16.1 19.8 17 11.3 10.4 8.9 6.8 6
05/12/08 5.7 5.3 5 5 6.7 9.1 5.7 5.6 6.2 6.6 7.3 7.8 6.7 5.7 5.9 6.7 8.4 18.7 16.9 12.3 10 8.7 7.1 6.2
06/12/08 6.2 5.9 5.4 5.4 5.4 7.7 10.5 11 10.4 10.4 10.9 11.5 11 9.2 10.7 12.3 15.4 18.2 15.8 12.8 10.5 8.8 6.8 6.1
07/12/08 5.5 5 4.8 4.8 5.6 6.8 9.7 11.5 12 12.1 14.1 15.4 12.4 10.5 10.7 13.9 16.8 14.8 15.1 11.3 9.3 7.9 6.6 5.5
08/12/08 5.4 5.1 5 5.1 5.6 8.8 11.6 9.7 9.5 10 11.7 12.1 10.4 9.4 10 11.8 15.7 20.5 16.8 12.4 10.2 8.2 6.7 5.9
09/12/08 5.6 5.2 5 5.1 6.2 9.4 12.2 10.4 10.4 11 9.9 9.7 6.8 8.2 9.9 10.1 14.3 20.1 17.4 13.1 10.8 8.9 7.5 6.5
10/12/08 6.4 5.9 5.9 5.8 6.7 8.2 12.3 10.3 10.9 11.3 12.8 13.5 11.3 10.1 10.9 11.8 15.6 20 16.8 13.7 10.4 9.5 7.8 7
11/12/08 6.6 6.2 6 6 7.2 10.9 11.8 10.5 10.8 11.7 12.9 13.5 11.2 10.5 9.8 11.3 16.1 19.7 17.2 13 11 9.4 7.9 6.8
12/12/08 6.8 6.3 6.1 6.1 6.8 9.8 11.7 10.5 10.6 11.2 12.8 13.1 11.2 9 10.2 12.2 15.4 19.8 18.2 12.6 10.3 8.6 7.1 6.4
13/12/08 5.7 5.5 5.3 5 5.5 7.6 10.7 11.4 11.1 11.6 13.1 14.2 11.1 10.2 10.9 13.3 16.5 17.8 14.6 11.5 8.9 7.4 6.3 5.6
14/12/08 5.2 5 4.8 4.8 5.4 6.5 9.9 11.6 11.5 11.9 14 15.5 12.8 10.5 10.6 13 16 18.4 15.1 11.6 9.8 7.5 7.4 6.2
15/12/08 6 5.6 5.5 5.5 6.4 9.1 11.3 10.2 10.4 11.1 12.3 13.2 10.9 9.8 10.2 12.3 15.3 19.7 17.6 12.9 10.4 8.5 7.2 6.5
16/12/08 6 5.9 5.7 5.9 6.6 9.3 11.9 10.3 10.8 11.5 12.7 13.1 11.1 10.2 10.2 12.2 14.9 18.4 18 13 10.7 8.5 7.5 6.1
17/12/08 5.8 5.3 5.2 5.3 6 8.7 11.8 10.3 6.2 5.6 5 5.1 4.6 4.3 5.5 6.3 9.2 19.3 18.4 12.8 10.6 8.6 6.4 6.3
18/12/08 6.1 5.4 5.3 5.3 6.5 9.5 11.9 10.9 11.4 11.8 13.5 13.1 11.2 9.7 10.6 12.1 16.1 20 18 13.3 11.1 9.1 6.9 6.3
19/12/08 6 5.8 5.7 6.1 6.3 9.3 11.7 10.5 11 11.3 11.7 13.4 11 9.7 10.4 12.3 13.9 19.3 17.7 13.8 10.8 8.7 6.9 5.9
20/12/08 5.5 5 4.7 4.7 5.7 8 9.5 10.5 10.7 11.5 11.9 12.4 9.9 9.7 9.7 11.5 15.1 19.7 17 11.5 9 7.6 6.3 5.4
21/12/08 4.6 4.4 4.1 4.1 4.5 5.9 8.6 11 11.4 12.1 13.6 14.7 11.2 9.8 10.2 12.2 14.9 17.7 15.5 11.1 8.8 7.3 6.2 5.4
22/12/08 5 4.5 4.5 4.7 5.2 8.7 10.2 9.8 9.5 9.8 11.4 12.2 10.3 8.8 9.9 11.9 14.9 19.1 17.2 12.1 9.8 8.5 5.9 2.4
23/12/08 2.1 2.1 2.1 2.1 2.1 3.4 4.4 4.4 4.7 4.9 5.7 5.7 4.9 3.9 10.3 11.8 15.1 19.3 17.7 13.4 10.3 8.9 7.9 5.8
24/12/08 5.2 5 4.7 4.7 6.7 8.7 10.8 10.6 10.5 9.7 11.3 12.4 10.8 9.2 10.5 12.2 14.5 18 16.2 12.1 9.3 7.8 6.8 6.2
25/12/08 5.6 5.2 5 4.7 5.3 8.5 9 11 11.4 11.7 14.2 14.8 11.3 10 10.6 12.2 15.5 16.8 15.5 11.6 9.5 8.4 6.4 6.6
26/12/08 5.6 5.5 5 5 5.9 8.1 10.4 10.8 10.9 11.2 12.7 13.9 11.4 10.1 10.2 11.6 14.7 17.7 16.4 12.1 9.6 7.4 6.1 5.8
ANEXOS
72

00:00

01:00

02:00

03:00

04:00

05:00

06:00

07:00

08:00

09:00

10:00

11:00

12:00

13:00

14:00

15:00

16:00

17:00

18:00

19:00

20:00

21:00

22:00

23:00
FECHA

27/12/08 5 5.7 5.5 6.2 6.2 7.6 9.8 10.9 10.1 11.7 14 14.5 11 10 10.7 10 15.8 18.4 0 0 10.5 8.5 7.7 6
28/12/08 5.7 5.5 5.2 5.2 5.7 6.7 9.3 10.3 10.7 11.4 12.7 13.6 12.8 10.4 10 12.3 16.1 17.7 14.4 10.6 8.5 7.4 6.5 5
29/12/08 5.6 5.4 5.2 5.2 6 7.5 9.8 10.2 10.6 11.3 12.6 12.9 11.2 9.2 9.6 11.1 14.7 18.7 17.3 12.3 9.8 8.3 7 6.1
30/12/08 5.8 5.2 5.1 5.4 5.6 7.3 9.5 10.3 10.7 10.5 12.4 13 8.5 7.6 10 10 13.8 17.4 16.2 12.3 10.4 8 6 4.7
31/12/08 4.5 4.2 4 4 4.6 6.3 9.3 11.5 11 11.1 13.1 14.1 12.2 10.6 10.6 11.7 13.2 13.9 10.4 8.7 8.4 7.6 7.1 6
ANEXOS
73

Anexo II Red Backpropagation

La red neuronal Backpropagation presenta una gran variedad de opciones de configuración,


dependiendo de la necesidad de aprendizaje y de la aplicación que se esté desarrollando.

net = newff (PR, [S1 S2KSn ], {TF1 TF2 KTFn}, BTF, BLF, PF)

newff : Crea una red tipo Backpropagation, requiere que le sean especificados los
siguientes parámetros

• PR : R × 2 Matriz de valores máximos y mínimos de cada uno de las R neuronas


de entrada

• Si : Número de neuronas para cada una de las capas

• TFi : Función de transferencia a utilizar en cada una de las capas (por defecto utiliza
'tansig' )

• BTF : Algoritmo de entrenamiento a utilizar (por defecto utiliza 'trainlm' )

• BLF : Función de actualización de los pesos (por defecto utiliza 'learngdm' )

• PF : Función para evaluar el desempeño de la red (por defecto utiliza ' mse' )

trainlm : Algoritmo que actualiza los pesos y las ganancias de acuerdo a la optimización de
Levenberg-Marquardt. Es el algoritmo más rápido para redes Backpropagation y tiene la
desventaja de requerir de un set de entrenamiento lo más estándar posible, pues de otra
forma solo aproximará correctamente valores que se encuentren dentro de los patrones de
aprendizaje. Si el set de entrenamiento es muy extenso, se recomienda reducir el Jacobiano.
La sintaxis de este algoritmo es la siguiente:

• net.trainParam.epochs : Máximo número de iteraciones del entrenamiento

• net.trainParam.goal : Error deseado

• net.trainParam.lr : Rata de aprendizaje

• net.trainParam.mem_reduc : Factor de fraccionamiento de Jacobiano para ahorrar


memoria
ANEXOS
74
• net.trainParam.min_grad : Mínimo rendimiento del gradiente

• net.trainParam.show : Intervalo de visualización de los resultados

Você também pode gostar