Escolar Documentos
Profissional Documentos
Cultura Documentos
5.1. Introduccion
En este ejercicio vamos a intentar obtener una representacion simplicada
en dos dimensiones de un conjunto de datos multidimensional. En realidad,
la reduccion de dimensiones va a ser pequena (de cuatro a dos) puesto que
partimos de un problema sencillo, pero el metodo seguido es valido en general
para cualquier dimensionalidad de partida.
Hemos de recordar aqu que la construccion de un mapa bidimensional au-
toorganizado se realiza comparando los vectores de atributos de cada instancia
con los vectores de pesos de las neuronas que componen el mapa y modican-
do el vector de pesos de la neurona mas proxima al vector de entrada y los
de sus vecinas de forma que se aproximen aun mas a dicho vector de entrada.
Toda esta denicion (redundante para mayor claridad) indica que los conceptos
de proximidad y distancia son centrales en el algoritmo de construccion. En
primer lugar se selecciona la neurona mas proxima para actualizar sus pesos.
La neurona mas proxima es aquella cuyo vector de pesos se encuentra a menor
distancia del vector de entrada. Como se mide esa distancia? Tradicionalmente
se ha empleado la distancia eucldea: dados dos vectores de n componentes cada
uno x y y , la distancia eucldea entre ellos esta denida como
(y1 x1 )2 + (y2 x2 )2 + ... + (yn xn )2 (5.1)
33
34CAPITULO 5. REDES NEURONALES II: MAPAS AUTOORGANIZADOS
5.2. Objetivos
Este apartado pretende ensenar al alumno mediante un ejemplo real el mane-
jo de aplicaciones para la generacion de mapas autoorganizados y la importancia
del conocimiento previo de los datos para el diseno de un preprocesado adecua-
do. Para ello, se le pedira que repita la construccion de un mapa autoorganizado
a partir de datos cada vez mejor procesados y que compare los mapas obtenidos
a partir de las diferentes etapas del preprocesado.
5.3. Material
1. El simulador neuronal SOM PAK
5.4. Actividades
1. Construir el mapa autoorganizado de los datos originales (chero sdss.dat).
Para ello,
5.5. Conclusiones
Los mapas autoorganizados son herramientas utiles para el analisis de los
datos de alta dimensionalidad. Aunque en este ejemplo partimos de datos de
baja dimensionalidad (cuatro atributos cuando hemos preprocesado adecuada-
mente la base de datos inicial), en general se pueden conseguir disminuciones
mas signicativas si los datos se encuentran realmente agrupados. Sin embargo,
hemos visto que para que los mapas sean realmente informativos debemos elim-
inar variables que no sean relevantes porque pueden sesgar completamente el
mapa obtenido. En nuestro ejemplo, la ascension recta y la declinacion podran
hacer que apareciesen como diferentes objetos similares solo por encontrarse en
lugares diferentes del cielo.
Pero la leccion mas importante que se ha de aprender de esta practica es
que los atributos deben estar debidamente normalizados. La aproximacion mas
aconsejable sera estandarizar cada atributo por separado (con el ltro we-
ka.lters.unsupervised.attribute.Standardize, por ejemplo) y luego normalizar
el vector de atributos de cada instancia para que tenga longitud 1. De lo con-
trario, las distancias y proximidades que calcula el algoritmo pueden estar ses-
gadas hacia los atributos con valores de mayor valor absoluto. Sin embargo,
este procedimiento general puede dar problemas si los datos de partida con-
tienen marginales (datos que se desvan mucho de una distribucion normal o
gaussiana).