Escolar Documentos
Profissional Documentos
Cultura Documentos
Inteligencia Artificial
Grupo 8
Ingenieria de sistemas
ORIGEN
En 1982 John Hopfield con la publicacin del artculo Hopfield
Model o Crossbar Associative Network, junto con la invencin del
algoritmo Backpropagation se consigui devolver el inters y la
confianza en el fascinante campo de la computacin neuronal tras
dos dcadas de casi absoluta inactividad y desinters.
ARQUITECTURA
La red de Hopfield es una de las
redes unicapas ms importantes y ha
influido en el desarrollo de multitud
de redes posteriores.
Es una red autoasociativa no lineal.
MEMORIA ASOCIATIVA
La memoria humana funciona
de una manera asociativa. A
partir de una porcin de
informacin es capaz de
obtener la informacin
completa. Por ejemplo,
escuchando los primeros
acordes de una cancin el
cerebro es capaz de
reproducir toda una
experiencia completa,
incluyendo escenas, ruidos y
olores.
DINMICA DE LA RED DE
HOPFIELD
Ejecutar un patrn en la red de Hopfield consiste en enviar un
patrn en la red y actualizar las neuronas repetidamente hasta que
se estabilicen los estados de las neuronas a un patrn memorizado.
Con pasos sera as.
1 Se establece el patrn de entrada en la capa de entrada.
2. Se actualizan las neuronas de la capa de procesamiento.
3. Si han cambiado el estado de la red o hemos realizado ya el
nmero mximo de iteraciones paramos.
4. Si no, volvemos al paso 2.
FUNCIONAMIENTO
Se trata de una red autoasociativa. Por tanto, informaciones
diferentes (patrones) pueden ser almacenadas en la red, como si de
una memoria se tratase, durante la etapa de aprendizaje.
Posteriormente, cuando se presenta una entrada a la red, esta
evoluciona hasta generar una salida que coincidir con la que
corresponde a esa entrada, o bien la ms parecida si la entrada est
distorsionada o incompleta.
LIMITACIONES
Existen varios problemas asociados a la red Hopfield. Los dos ms importantes se
refieren a la cantidad limitada de datos que se pueden almacenar y la necesidad
de que estos datos sean ortogonales entre s.
1. Nmero limitado de entradas en la etapa de aprendizaje:
Si se almacenan demasiadas informaciones, durante su funcionamiento la red
puede converger a valores de salida diferentes de los aprendidos, con lo que la
tarea de asociacin entre la informacin presentada y alguna de las almacenadas
se realiza incorrectamente.
Si se permite la posibilidad de un mnimo error en la recuperacin de las
informaciones almacenadas, suficientemente pequeo para poder identificar
dicha informacin, el nmero de informaciones almacenadas puede ascender por
debajo de un 13,8 % del nmero de neuronas de la red.
LIMITACIONES
2. Ortogonalidad de las informaciones aprendidas
Si las informaciones almacenadas no son suficientemente diferentes entre s
(no son ortogonales) puede ocurrir que ante una entrada la red no haga una
asociacin correcta y genere una salida errnea, tal vez la salida corresponda a
otra entrada aprendida que fuese muy parecida.
Lo que se debe conseguir es que las informaciones que se dan a la red durante
la etapa de aprendizaje sean ortogonales, lo cual ocurre si se cumple que cada
par de patrones de entrada difieren en, al menos N/2 componentes, siendo N
el nmero total de componentes por patrn.
Esta condicin de ortogonalidad que establece que dados dos patrones de
entrada deben diferir en al menos la mitad de sus componentes (distacia
Hamming), puede ser relajada, estableciendo una distancia mnima del 30%
para que se garantice todava un funcionamiento aceptable.
APLICACIONES
En cuanto a las aplicaciones ms conocidas de este modelo
destacan las relacionadas con el reconocimiento de
imgenes y de voz, el control de motores y sobre todo la
resolucin de problemas de optimizacin. En este ltimo
mbito se ha aplicado para la resolucin de ecuaciones y del
problema del viajante de comercio, manipulacin de grafos,
procesado de seales (conversores analgico-digitales) y de
imgenes, etc.
EJEMPLO
El entrenamiento va a consistir en el aprendizaje de dos informaciones (patrones)
de cuatro pixeles cada una. Los pixeles se representan mediante el valor -1 si es
blanco y 1 si es negro. Por tanto, las informaciones de entrada de la red van a ser
dos vectores (M=2) de 4 elementos (N=4) conteniendo los valores de los pixeles.
La red tendra 4 neuronas para que cada una reciba el valor de un pixel.
ETAPA DE APRENDIZAJE
El aprendizaje de estas dos informaciones consiste en la obtencin de los pesos de la red
(matriz W).
Para la entrada E1, la salida W1 es:
ETAPA DE FUNCIONAMIENTO
1
S = [1 1 -1 -1]
Al repetirse la salida, la red se ha estabilizado, generando el
patrn ms parecido al que se ha presentado como entrada
NETGRAFIA
http://www.ciberesquina.una.edu.ve:8080/2014_2/350_E.pdf
http://es.slideshare.net/mentelibre/redes-neuronales-de-hopfield
http://es.slideshare.net/priscill1/aplicacin-de-las-redes-hopfield-al-problema-deasignacin
http://thales.cica.es/rd/Recursos/rd98/TecInfo/07/tecinfo-07.html
http://www.hugo-inc.com/RNA/Unidad%205/5.2.2.html