Escolar Documentos
Profissional Documentos
Cultura Documentos
Antecedentes
Los trabajos de Von der Malsburg (1973) trazan la autoorganizacion de las clulas nerviosas. En 1975, Fukushima propuso el cognitron que es una red competitiva multicapa y autoorganizada. Willshaw y von der Malsburg (1976) trabajaron sobre la formacin de las conexiones neuronales mediante Autoorganizacin. Grossberg (1972, 1976) sobre la clasificacin adaptativa de patrones.
Aprendizaje supervisado
Se le suministra a la red un conjunto de datos de entrada y la respuesta esperada. Se comparan los datos obtenidos por el sistema con los datos de entrada aportados, con la respuesta esperada y se modifican los pesos en funcin del error obtenido. El conjunto de datos utilizados en el proceso de aprendizaje se denomina conjunto de entrenamiento (training set). Si los vectores de entrada utilizados no contienen la informacin idnea la red puede llegar a no aprender.
Mecanismos de aprendizaje
Qu es el aprendizaje no supervisado ?
Aprender sin ninguna seal de cmo se est realizando el aprendizaje (sin refuerzo ni conocimiento del error). Slo se aplica a la red neuronal los datos de entrada, sin indicarle la salida esperada. La red neuronal es capaz de reconocer algn tipo de estructura en el conjunto de datos de entrada (normalmente redundancia de datos) y de esta forma se produce auto-aprendizaje. Durante el proceso de aprendizaje la red autoorganizada debe descubrir por s misma rasgos comunes, regularidades, correlaciones o categoras en los datos de entrada, incorporarlos a su estructura interna de conexiones. La red neuronal recibe los estmulos de entrada y de acuerdo a esos estmulos modificar sus pesos sinpticos. La red aprender una representacin auto-organizada de los ejemplos de entrada.
Cartas topolgicas
La inspiracin biolgica
La inspiracin biolgica
La inspiracin biolgica
Cartas retinotpicas
La inspiracin biolgica
Cartas retinotpicas
La inspiracin biolgica
Informaciones Multidimensionales
La inspiracin biolgica
Sinestesia
La inspiracin biolgica
Proceso biolgico
Si algunas regiones del espacio de entrada son mas usadas que otras y reciben una rica variedad de estmulos estas se mapearan mejor. (ej. Las manos de un pianista o un cirujano)
La inspiracin biolgica
Autoorganizacin
Cada nodo de la red tiene conexiones exicitatorias laterales con su vecinos mas prximos pero conexiones laterales inhibitorias con sus vecinos mas distantes.
En el mapa topogrfico cortical estas regiones crecern , mientras que las regiones que no son usadas se harn mas pequeas.
La inspiracin biolgica
El sombrero mejicano
+
Respuesta Positiva (Excitacin)
La inspiracin biolgica
El sombrero mejicano
La inspiracin biolgica
Red de Neuronas
Mapas Autoorganizados
La inspiracin biolgica
Bioinspirado
Estmulos del espacio Proceso de aprendizaje Al final del aprendizaje neuronas con de entrada por competicin caractersticas similares se ubican cerca unas de otras.
Ejemplo: Cluster
La competicin entre neuronas har que una sola de ellas ( algunas en ciertos casos) sean las que aprendan. De esta forma lograremos que cada unidad aprenda informacin diferente, es decir se especialice.
Mapas autoorganizados
Red SOFM
Capa de entrada. Capa de Competitiva. Conexin entre cada entrada con todas las neuronas.
Por lo tanto :
Esquemas de aprendizaje
El valor de se decrementa en una cantidad constante . Hasta que la red se estabiliza, con se puede determinar el numero de ciclos de aprendizaje.
El valor de se decrementa siguiendo un esquema logaritmico. En las primeas iteraciones es elevado y hasta alcanza valores muy pequeos. Se da mas importancia a las primeras iteraciones.
Funcionamiento de la red
Seleccionar un patrn de entrada. Calcular la distancia de dicho patrn a cada una de las clulas del mapa de Kohonen. Etiquetar como ganadora aquella clula cuya distancia sea menor.
Arquitectura SOM
n
Capa de entrada Una por cada variable de entrada
n m
Mapas autoorganizados
Mapas autoorganizados
Capa de entrada
Tabla con ejemplos Estmulos del espacio de entrada. Una neurona por cada dimensin, en este ejemplo 3.
Capa de entrada
Cada neurona de la capa de entrada esta conectada a todas las neuronas de la capa de salida.
Capa de entrada
18.91 22.13 27.40
Cada ejemplo es presentado a las neuronas de la capa de salida. As se buscan las neuronas mas parecidas al vector de entrada mediante un proceso de competicin. Finalmente se crean grupos con caractersticas similares.
2 1 0 Hexagonal
Algoritmo de aprendizaje
2 1 0
2 1 0
R x y
Concepto de peso
Capa de Entrada
Dos Dimensiones (x,y) Capa de Salida
w w2 w w1 w w w1 w2 w
w1 w2 w3 w1 w2
Dos Dimensiones
w3
Dos Dimensiones
n Dimensiones (x,y,z, , n)
w1 w2 w3 wn
Dos Dimensiones
t=0
R x y
t=0
0.2 0.3
R x y
0.6 0.7
0.2 0.7
0.9 0.4
0.6 0.7
0.5 0.3
0.2 0.3
0.4 0.7
0.9 0.2
0.1 0.3
0.8 0.3
0.5 0.8
0.3 0.3
t=0
0.2 0.6 0.6 0.6 0.7 0.4 0.5 0.5 0.5 0.6 0.6 0.3
0.2 0.7
0.7 0.8
0.7 0.8
0.8 0.6
0.6 0.7
0.2 0.3
0.2 0.7
0.2 0.3
0.9 0.3
0.9 0.7
0.2 0.3
0.7 0.8
0.2 0.3
0.4 0.8
0.9 0.3
0.5 0.7
0.7 0.3
0.6 0.1
t=0
0.6 0.7
0.2 0.7
0.9 0.4
0.6 0.7
0.5 0.3
0.2 0.3
0.4 0.7
0.9 0.2
0.1 0.3
0.8 0.3
0.5 0.8
0.3 0.3
0.2 0.6
0.6 0.6
0.7 0.4
0.5 0.5
0.5 0.6
0.6 0.3
0.2 0.7
0.7 0.8
0.7 0.8
0.8 0.6
0.6 0.7
0.2 0.3
R x y
0.2 0.7
0.2 0.3
0.9 0.3
0.9 0.7
0.2 0.3
0.7 0.8
0.2 0.3
0.4 0.8
0.9 0.3
0.5 0.7
0.7 0.3
0.6 0.1
0.6 0.7
0.2 0.7
0.9 0.4
0.6 0.7
0.5 0.3
0.2 0.3
0.4 0.7
0.9 0.2
0.1 0.3
0.8 0.3
0.5 0.8
0.3 0.3
0.2 0.6
0.6 0.6
0.7 0.4
0.5 0.5
0.5 0.6
0.6 0.3
0.2 0.7
0.7 0.8
0.7 0.8
0.8 0.6
0.6 0.7
0.2 0.3
R x y
0.2 0.7
0.2 0.3
0.9 0.3
0.9 0.7
0.2 0.3
0.7 0.8
0.2 0.3
0.4 0.8
0.9 0.3
0.5 0.7
0.7 0.3
0.6 0.1
0.6 0.7
0.2 0.7
0.9 0.4
0.6 0.7
0.5 0.3
0.2 0.3
0.4 0.7
0.9 0.2
0.1 0.3
0.8 0.3
0.5 0.8
0.3 0.3
w2
0.2 0.6
0.6 0.6
0.7 0.4
0.5 0.5
0.5 0.6
0.6 0.3
0.2 0.7
0.7 0.8
0.7 0.8
0.8 0.6
0.6 0.7
0.2 0.3
R x y
w1
0.2 0.7
0.2 0.3
0.9 0.3
0.9 0.7
0.2 0.3
0.7 0.8
0.2 0.3
0.4 0.8
0.9 0.3
0.5 0.7
0.7 0.3
0.6 0.1
0.6 0.7
0.2 0.7
0.9 0.4
0.6 0.7
0.5 0.3
0.2 0.3
0.4 0.7
0.9 0.2
0.1 0.3
0.8 0.3
0.5 0.8
0.3 0.3
w2
0.2 0.6
0.6 0.6
0.7 0.4
0.5 0.5
0.5 0.6
0.6 0.3
0.2 0.7
0.7 0.8
0.7 0.8
0.8 0.6
0.6 0.7
0.2 0.3
R x y
w1
0.2 0.7
0.2 0.3
0.9 0.3
0.9 0.7
0.2 0.3
0.7 0.8
0.2 0.3
0.4 0.8
0.9 0.3
0.5 0.7
0.7 0.3
0.6 0.1
0.6 0.7
0.2 0.7
0.9 0.4
0.6 0.7
0.5 0.3
0.2 0.3
0.4 0.7
0.9 0.2
0.1 0.3
0.8 0.3
0.5 0.8
0.3 0.3
0.2 0.6
0.6 0.6
0.7 0.4
0.5 0.5
0.5 0.6
0.6 0.3
0.2 0.7
0.7 0.8
0.7 0.8
0.8 0.6
0.6 0.7
0.2 0.3
R x y
0.2 0.7
0.2 0.3
0.9 0.3
0.9 0.7
0.2 0.3
0.7 0.8
0.2 0.3
0.4 0.8
0.9 0.3
0.5 0.7
0.7 0.3
0.6 0.1
0.6 0.7
0.2 0.7
0.9 0.4
0.6 0.7
0.5 0.3
0.2 0.3
0.4 0.7
0.9 0.2
0.1 0.3
0.8 0.3
0.5 0.8
0.3 0.3
0.2 0.6
0.6 0.6
0.7 0.4
0.5 0.5
0.5 0.6
0.6 0.3
0.2 0.7
0.7 0.8
0.7 0.8
0.8 0.6
0.6 0.7
0.2 0.3
R x y
0.2 0.7
0.2 0.3
0.9 0.3
0.9 0.7
0.2 0.3
0.7 0.8
0.2 0.3
0.4 0.8
0.9 0.3
0.5 0.7
0.7 0.3
0.6 0.1
0.6 0.7
0.2 0.7
0.9 0.4
0.6 0.7
0.5 0.3
0.2 0.3
0.4 0.7
0.9 0.2
0.1 0.3
0.8 0.3
0.5 0.8
0.3 0.3
0.2 0.6
0.6 0.6
0.7 0.4
0.5 0.5
0.5 0.6
0.6 0.3
0.2 0.7
0.7 0.8
0.7 0.8
0.8 0.6
0.6 0.7
0.2 0.3
R x y
0.2 0.7
0.2 0.3
0.9 0.3
0.9 0.7
0.2 0.3
0.7 0.8
Repetir
Reducir la vecindad de las neuronas y repetir 2 a 4 veces para todos los puntos por un cierto numero de iteraciones
0.2 0.3
0.4 0.8
0.9 0.3
0.5 0.7
0.7 0.3
0.6 0.1
0.6 0.7
0.2 0.7
0.9 0.4
0.6 0.7
0.5 0.3
0.2 0.3
0.4 0.7
0.9 0.2
0.1 0.3
0.8 0.3
0.5 0.8
0.3 0.3
0.2 0.6
0.6 0.6
0.7 0.4
0.5 0.5
0.5 0.6
0.6 0.3
0.2 0.7
0.7 0.8
0.7 0.8
0.8 0.6
0.6 0.7
0.2 0.3
R x y
0.2 0.7
0.2 0.3
0.9 0.3
0.9 0.7
0.2 0.3
0.7 0.8
R x y
Aplicacin: distribucin
Una demostracin del funcionamiento de esta red lo ofrecen los mapas topolgicos bidimensionales de Kohonen.
de
Kohonen
para