Escolar Documentos
Profissional Documentos
Cultura Documentos
2003
1 Introduccin
Existe en el hombre un deseo profundo de poder reproducir la habilidad cognoscitiva por medios artificiales. La fascinacin que la inteligencia como materia de estudio ha suscitado al gnero humano, puede verse reflejada en la aparicin de una rama ntegra del estudio cientfico llamada "Inteligencia Artificial" a secas o tambin estudio de la inteligencia. Una de las mltiples ramas por las cuales se ha desarrollado la investigacin es el desarrollo de las llamadas "redes neuronales". Una red neuronal es el intento de poder realizar una simulacin computacional del comportamiento de partes del cerebro humano mediante la rplica en pequea escala de los patrones que ste desempea para la formacin de resultados a partir de los sucesos percibidos. Concretamente, se trata de poder analizar y reproducir el mecanismo de aprendizaje y reconocimiento de sucesos que poseen los animales ms evolucionados. Una de las preguntas ms interesantes que se plantean al hablar de este tema es la habilidad del cerebro para poder reconocer patrones. Se denomina reconocimiento de patrones a la capacidad de poder interpretar por ejemplo una imagen compleja (una foto, lo que ve el ojo) y actuar en consecuencia.
1.1 Definicin
Las redes neuronales son dispositivos diseados para imitacin de los sistemas nerviosos de los animales. Consisten en una interconexin reticular de unidades, frecuentemente llamadas neuronas artificiales, o simplemente neuronas, cuyo funcionamiento se inspira en el de las neuronas naturales.
Pgina 2 de 17
2 El Modelo Biolgico
Antes de describir el modelo biolgico conviene indicar que en el estado actual de la fisiologa del sistema nervioso los conocimientos acerca del funcionamiento del cerebro todava son muy limitados. El cerebro es el rgano en el que se alojan las habilidades cognoscitivas de los seres humanos. Puede decirse que el cerebro es un elemento de procesamiento de la informacin extremadamente complejo, cuyo modo de funcionamiento es eminentemente paralelo y cuyo comportamiento no puede describirse por medio de modelos sencillos como son los lineales. Fue el cientfico espaol Ramn y Cajal (premio Nobel en 1911) quien a finales del siglo XIX desarroll y present la nocin de neurona como elemento estructural constitutivo del cerebro. En la figura 1.1 se puede ver un esquema simplificado de la morfologa de una neurona tpica. Algunos elementos a destacar de su estructura histolgica son: Las dendritas, que son la va de entrada de las seales que se combinan en el cuerpo de la neurona. De alguna manera la neurona elabora una seal de salida a partir de ellas. El axn, que es el camino de salida de la seal generada por la neurona. Las sinapsis, que son las unidades funcionales y estructurales elementales que median entre las interacciones de las neuronas. En las terminaciones de las sinapsis se encuentran unas vesculas que contienen unas sustancias qumicas llamadas neurotransmisores, que ayudan a la propagacin de las seales electroqumicas de una neurona a otra.
En trminos generales las dendritas y el cuerpo celular reciben seales de entrada; el cuerpo celular las combina e integra y emite seales de salida. El axn transmite dichas seales a los terminales axnicos, que distribuyen informacin a un nuevo conjunto de neuronas, se calcula que en el cerebro humano existen del orden de 1015 conexiones. Las seales que se utilizan son de dos tipos: elctrica y qumica. La seal generada por la neurona se transportada a lo largo del axn mediante un impulso elctrico, mientras que la seal que se transmite entre los terminales axnicos de una neurona y las dendritas de la otra es de origen qumico. Para establecer una similitud directa entre la actividad sinptica y la analoga con las redes neuronales artificiales podemos considerar: Las seales que llegan a la sinapsis son las entradas a la neurona; estas son ponderadas (atenuadas o simplificadas) a travs de un parmetro, denominado peso asociado a la sinapsis correspondiente. Estas seales de entrada pueden excitar a la neurona (sinapsis con peso positivo) o inhibirla (peso negativo). El efecto es la suma de las entradas ponderadas. Si la suma es igual o mayor que el umbral de la neurona, entonces la neurona se activa (da salida). Esta es una situacin de todo o nada; cada neurona se activa o no se activa. La facilidad de transmisin de seales se altera mediante la actividad del sistema nervioso. Las sinapsis son susceptibles a la fatiga, deficiencia de oxgeno y la presencia de anestsicos, entre otro. Esta habilidad de ajustar seales es un mecanismo de aprendizaje. Es importante notar que aunque el tiempo de conmutacin de la neurona ( unos pocos milisegundos) es casi un milln de veces menor que en los actuales
Pgina 3 de 17
elementos de las computadoras, ellas tienen una conectividad miles de veces superior que las actuales supercomputadoras.
2.1 Plasticidad
El concepto de plasticidad est relacionado con la capacidad del cerebro frente a la adaptacin de acuerdo a los estmulos exteriores. En un cerebro adulto la plasticidad se puede llevar a cabo por dos procedimientos: creacin de nuevas conexiones sinpticas entre las neuronas y la modificacin de las ya existentes. La plasticidad parece la clave esencial en el funcionamiento de las neuronas como elemento de proceso de la informacin, dicho elemento se modeliza e intenta imitar en las Redes Neuronales Artificiales.
Pgina 4 de 17
Una neurona es un elemento de procesamiento de la informacin que juega un papel fundamental en la red neuronal. En la figura 3.2 se puede observar un modelo de neurona con sus tres elementos fundamentales: 1. Un conjunto de sinapsis o conexiones, cada una de ellas caracterizada por su fuerza o peso. As, una seal de entrada x j tras pasar la conexin, se habr convertido en una seal x j wk j , donde wk j es el peso o fuerza de la conexin con la entrada j-sima de la neurona k. De acuerdo con el signo del peso w k j se tienen conexiones excitadoras cuando es positivo, y conexiones inhibidoras cuando es negativo. 2. Un sumador , que produce la suma ponderada de las entradas de acuerdo a los correspondientes pesos de las conexiones. 3. Una funcin de activacin o transferencia, que tiene como misin limitar la amplitud de la salida generada por la neurona. Tambin es habitual la inclusin en el modelo de un umbral o polarizacin representado por k, cuya misin es controlar el nivel a partir del cual la neurona produce su salida. Este trmino k es aadido a la suma ponderada, que posteriormente es transformada por la funcin de activacin k( ). Resumiendo:
Esta, es una representacin del comportamiento de la neurona. La funcin de activacin k( ) determina el nivel de activacin de la neurona en trminos de la actividad existente en sus entradas. Hay una infinidad de funciones para ser utilizadas como funcin de activacin en el modelo propuesto, pero se pueden distinguir cuatro grandes clases: 1. Tipo escaln o umbral: En un principio se pens que las neuronas usaban una funcin de umbral, es decir, que permanecan inactivas y se activaban slo si la estimulacin total superaba cierto valor lmite; esto se puede modelar con una funcin escaln: la ms tpica es el escaln unitario: la funcin devuelve 0 por debajo del valor crtico (umbral) y 1 por encima. Despus se comprob que las neuronas emitan impulsos de actividad elctrica con una frecuencia variable, dependiendo de la intensidad de la estimulacin recibida, y que tenan cierta actividad hasta en reposo, con estimulacin nula. Estos
Pgina 5 de 17
descubrimientos llevaron al uso de funciones no lineales con esas caractersticas, como la funcin sigmoidal, con un perfil parecido al escaln de una funcin de umbral, pero continua. 2. Sigmoidal: Es probablemente la funcin de activacin ms empleada en la actualidad. Se trata de una funcin continua no lineal. La funcin sigmoidal posee un rango comprendido entre 0 y 1. Esto, aplicado a las unidades de proceso de una red neuronal artificial significa que, sea cual sea la entrada, la salida estar comprendida entre 0 y 1. La salida de una unidad vale 0.5 cuando la entrada es nula, esto significa que la unidad tiene cierta actividad an en ausencia de estimulacin. Al aumentar la estimulacin la unidad aumenta su activacin, y la disminuye si la estimulacin es inhibitoria, de forma parecida a como se comportan las neuronas reales. Presenta las siguientes caractersticas deseables: a. Acomodacin de seales muy intensas sin producir saturacin. b. Admite seales dbiles sin excesiva atenuacin La principal limitacin de esta funcin es que no sirve para expresar polaridades, da siempre valores positivos. Una funcin alternativa con cualidades parecidas pero con un rango entre -1 y 1 es la funcin tangente hiperblica. 3. Gaussiana: La salida de la neurona se calcula a partir de una funcin de activacin llamada funcin radial. La ms empleada es la funcin gaussiana: (r) = e-r2/22 El parmetro (de escala) mide la anchura de la gaussiana y equivale al radio de influencia de la neurona en el espacio de entradas: cuanto mayor sea mayor es el radio de influencia. La eleccin de la funcin de activacin depende fuertemente del algoritmo de aprendizaje que se vaya a utilizar.
3.3 Arquitectura
Se utiliza una matriz W con todos los pesos, Si wji es positivo indica que la relacin entre las neuronas es excitadora, es decir, siempre que la neurona i est activada, la neurona j recibir una seal que tender a activarla. Si wji es negativo, la sinapsis ser inhibidora. En este caso si i est activada, enviar una seal que desactivar a j. Finalmente si wji es 0 se supone que no hay conexin entre ambas. Una red neuronal se determina por el tipo de neuronas y la matriz de pesos . El comportamiento de la red depende en gran medida del comportamiento de la matriz de pesos. Normalmente los elementos de proceso se organizan como una secuencia de capas con un determinado patrn de interconexin entre los diferentes elementos de proceso que las forman, y con un patrn de conexin entre los elementos de proceso de las distintas capas. Uno de los rasgos que puede ayudar a definir una capa es el hecho de que todos los elementos de proceso que la forman usan la misma funcin de transferencia. En muchas de las arquitecturas de redes neuronales se puede hacer la siguiente distincin entre las capas: 1. Capa de entrada. Es la capa que recibe los estmulos del entorno. No suele tener asociado un mecanismo de aprendizaje, es decir, sus pesos se mantienen constantes, y su misin simplemente es la de distribuir dicha entrada al resto de los elementos de proceso que constituyen la red.
Pgina 6 de 17
2. Capa de salida : Es la capa sobre la que se forman las salidas de la red, actuando como interfaz o buffer de salida, almacenando la respuesta de la red para que pueda ser leda. 3. Capas ocultas: Son las dems capas que no son ni de entrada ni de salida. Principales encargadas de extraer, procesar y memorizar la informacin Entre dos capas de neuronas existe una red de pesos de conexin, que puede ser de los siguientes tipos: Hacia delante, hacia atrs, lateral y de retardo, tal como puede verse en la siguiente figura:
Lateral
N inputs
Una de las propiedades fundamentales de las redes neuronales es la capacidad de adaptarse al entorno, aprendiendo a proporcionar la respuesta adecuada ante los estmulos que reciba de este entorno. Este aprendizaje se plasma en la modificacin de los pesos de las conexiones entre los distintos elementos que forman la red. Existen muchos tipos de aprendizaje dependiendo del modo en que es realizado el ajuste de los pesos. En un principio, los pesos pueden ser considerados parmetros libres, aunque es posible, si se conoce informacin acerca de la naturaleza del problema que se va a tratar, fijar restricciones a los valores iniciales del los pesos, o a los valores que puedan tomar a lo largo del proceso de aprendizaje. Un conjunto de reglas bien definidas que describen el mtodo de adaptacin o modificacin de los pesos de acuerdo con el entorno en el que se encuentra sumergida la red recibe el nombre de regla de aprendizaje, y su trascripcin en forma de procedimiento se denomina algoritmo de aprendizaje. Existe una relacin muy fuerte entre la arquitectura de una red neuronal artificial y el o los algoritmos de aprendizaje que puede usar, de tal modo que diferentes arquitecturas de redes neuronales requieren diferentes algoritmos de aprendizaje.
3.4 Caractersticas
Existen cuatro aspectos que caracterizan una red neuronal: su topologa, el mecanismo de aprendizaje, tipo de asociacin realizada entre la informacin de entrada y salida, y la forma de representacin de estas informaciones.
3.4.1 Topologa
Consiste en la organizacin y disposicin de las neuronas en la red formando capas o agrupaciones de neuronas. Los parmetros fundamentales de la red son: nmero de capas, nmero de neuronas por capa, grado de conectividad y tipo de conexin entre neuronas.
Pgina 7 de 17
Al hacer una clasificacin topolgica de las RNAs se suelen distinguir: 1. Redes monocapa: se establecen conexiones laterales entre las neuronas que pertenecen a la nica capa que constituye la red. Ejemplos de redes de este tipo son la redes Hopfield y la rede Brain-State-In-A-Box. Las redes monocapa se utilizan tpicamente en tareas relacionadas con lo que se conoce como autoasociacin; por ejemplo, para regenerar informaciones de entrada que se presenta como incompleta o distorsionada. 1. Hopfield: redes de adaptacin probabilstica, recurrentes, funcionalmente entraran en la categora de las memorias autoasociativas. 2. Brain-State-In-A-Box: Pertenece a la categora de las redes competitivas o mapas de autoorganizacin, es decir, aprendizaje no supervisado. Clasifican los patrones de entrada en grupos de caractersticas similares. 2. Redes multicapa: disponen las neuronas agrupadas en varios niveles. Dado que este tipo de redes disponen de varias capas, las conexiones entre neuronas pueden ser del tipo feedforward (conexin hacia adelante) o del tipo feedback (conexin hacia atrs). 1. FeedForward: se interconectan varias unidades de procesamiento en capas, las neuronas de cada capa no se interconectan entre s. Sin embargo, cada neurona de una capa proporciona una entrada a cada una de las neuronas de la siguiente capa. Resuelve fundamentalmente problemas de reconocimiento de patrones. 2. Feedback: conexin hacia atrs. Se utiliza por ejemplo en procesos de reconocimiento de formas visuales.
asociativas de pesos fijos es que sus pesos son preestablecidos y precalculados. 3. Por refuerzo (supervisado). El instructor o maestro exterior slo indica cuando la salida es correcta o no, pero no indica en cuanto se diferencia de la salida buscada. Si se compara este paradigma con el supervisado, se observa que si bien el supervisado proporciona una informacin relativa a la direccin en la que se deben realizar los cambios en el sistema (ajuste de los pesos), en el caso de un aprendizaje por refuerzo no se tiene informacin acerca de la direccin del cambio, lo cual hace que su mbito de aplicacin sea mucho ms reducido comparado con el modo supervisado, aunque presenta inters en la comunidad cientfica dedicada al estudio de las mquinas capaces de aprender. 4. Aprendizaje hbrido: Se trata de una combinacin del aprendizaje supervisado y del no supervisado. Parte de los pesos se ajustan por medio de un esquema de aprendizaje supervisado, y el resto se obtienen por medio de un aprendizaje no supervisado. Formas de llevar a cabo el aprendizaje: Paradigma Forma de Aprendizaje Aprendizaje por correccin de error: Consiste en ajustar los pesos en funcin de la diferencia entre los valores deseados y los obtenidos en la salida de la red; es decir, en funcin del error. Aprendizaje por refuerzo: La funcin del supervisor se reduce a indicar mediante una seal de refuerzo si la salida obtenida en la red se ajusta a la deseada (xito=+1 o fracaso=-1), y en funcin de ello se ajustan los pesos basndose en un mecanismo de probabilidades. Aprendizaje estocstico: Este tipo de aprendizaje consiste bsicamente en realizar cambios aleatorios en los valores de los pesos de las conexiones de la red y evaluar su efecto a partir del objetivo deseado y de distribuciones de probabilidad. Aprendizaje Hebbiano: Consiste bsicamente en el ajuste de los pesos de las conexiones de acuerdo con la correlacin, as si las dos unidades son activas (positivas), se produce un reforzamiento de la conexin. Por el contrario cuando un es activa y la otra pasiva (negativa), se produce un debilitamiento de la conexin. Aprendizaje competitivo y cooperativo: Las neuronas compiten (y cooperan) unas con otras con el fin de llevar a cabo una tarea dada. Con este tipo de aprendizaje se pretende que cuando se presente a la red cierta informacin de entrada, solo una de las neuronas de salida se active (alcance su valor de respuesta mximo). Por tanto las neuronas compiten por activarse, quedando finalmente una, o una por grupo, como neurona vencedora.
Supervisado
No Supervisado
que se refiere al caso en el que la red aprende parejas de datos [(A 1, B1), (A2, B2) (An, Bn)], de tal forma que cuando se presente cierta informacin de entrada A i, deber responder generando la correspondiente salida B i. La segunda se conoce como autoasociacin, donde la red aprende ciertas informaciones A 1, A2An, de tal forma que cuando se le presenta una informacin de entrada realizar una autocorrelacin, respondiendo con uno de los datos almacenados, el ms parecido al de la entrada. Una red heteroasociativa podra considerarse aquella que computa cierta funcin, que en la mayora de los casos no podr expresarse analticamente, entre un conjunto de entradas y un conjunto de salidas, correspondiendo a cada posible entrada una determinada salida. Existen redes heteroasociativas con conexiones feedforward, feedforward/feedback y redes con conexiones laterales. Tambin existen redes heteroasociativas multidimensionales y su aprendizaje puede ser supervisado o no supervisado. Por otra parte, una red autoasociativa es una red cuya principal misin es reconstruir una determinada informacin de entrada que se presenta incompleta o distorsionada (le asocia el dato almacenado ms parecido). Pueden implementarse con una sola capa, existen conexiones laterales o tambin autorrecurrentes, habitualmente son de aprendizaje no supervisado.
3.5 Implementacin
En la bsqueda de sistemas inteligentes en general, se ha llegado a un importante desarrollo del software, dentro de esta lnea se encuentran algunos de los neurocomputadores ms conocidos. Un neurocomputador es bsicamente un conjunto de procesadores conectados con cierta regularidad que operan concurrentemente. En la actualidad ya existen un serie de neurocomputadores
Pgina 10 de 17
comerciales destinados a la realizacin de redes neuronales. Por otro lado la realizacin de RNA puede llevarse a cabo por medio de uno o varios circuitos integrados especficos, para as poder obtener una estructura que se comporte lo ms similar posible a como lo hara una red neuronal. Otra tecnologa que podra ser apropiada en la implementacin de las redes neuronales es la tecnologa electroptica, con la ventaja de utilizar la luz como medio de transporte de la informacin, permitiendo la transmisin, masiva de datos.
3.5.4 Aplicaciones
A continuacin Neuronales: se enumera algunas de las aplicaciones de Redes
1. Empresa: a. Reconocimiento de caracteres escritos. b. Identificacin de candidatos para posiciones especficas. c. Optimizacin de plazas y horarios en lneas de vuelo. d. Explotacin de bases de datos. e. Evaluacin de probabilidad de formaciones geolgicas y petrolferas. f. Sntesis de voz desde texto. 2. Medio Ambiente 3. Analizar tendencias y patrones. 4. Previsin del tiempo. 5. Finanzas a. Previsin de la evolucin de los precios. b. Valoracin del riesgo de los crditos. c. Identificacin de falsificaciones. d. Interpretacin de firmas. 6. Manufacturacin a. Robots automatizados y sistemas de control (visin artificial y sensores de presin, temperatura, gas, etc.) b. Control de produccin en lneas de proceso. c. Inspeccin de calidad. d. Filtrado de seales. 7. Militares a. Clasificacin de las seales de radar. b. Creacin de armas inteligentes. c. Optimizacin del uso de recursos escasos.
3.6 Ventajas
Debido a su constitucin y a sus fundamentos, las RNA presentan un gran nmero de caractersticas semejantes a las del cerebro. Por ejemplo, son capaces de aprender de la experiencia, de generalizar casos anteriores, nuevos casos, de abstraer caractersticas esenciales a partir de entradas que representan informacin irrelevante, etc. Esto hace que ofrezcan numerosas ventajas y que este tipo de tecnologa se est aplicando en mltiples reas. Estas ventajas incluyen: Aprendizaje Adaptativo: Es una de las caractersticas ms atractivas de las redes neuronales, es la capacidad de aprender a realizar tareas basadas en un entrenamiento o una experiencia inicial. En el proceso de aprendizaje, los enlaces ponderados de las neuronas se ajustan de manera que se obtengan unos resultados especficos. Una RNA no necesita un algoritmo para resolver un problema, ya que ella puede generar su propia distribucin de los pesos de los enlaces mediante el aprendizaje. Tambin existen redes que continan aprendiendo a lo largo de su vida, despus de completar el perodo inicial de entrenamiento. La funcin del diseador es nicamente la obtencin de la arquitectura apropiada. No es problema del diseador el cmo la red aprender a discriminar; sin embargo, si es necesario que desarrolle un buen algoritmo de aprendizaje que proporcione la capacidad de discriminar de la red mediante un entrenamiento con patrones. Autoorganizacin: Las redes neuronales usan su capacidad de aprendizaje adaptativo para organizar la informacin que reciben durante el aprendizaje y/o la operacin. Una RNA puede crear su propia organizacin o representacin de la informacin que recibe mediante una
Pgina 12 de 17
etapa de aprendizaje. Esta autoorganizacin provoca la facultad de las redes neuronales de responder apropiadamente cuando se les presentan datos o situaciones a los que no haban sido expuestas anteriormente. Tolerancia a Fallos: Comparados con los sistemas computacionales tradicionales, los cuales pierden su funcionalidad en cuanto sufren un pequeo error de memoria, en las redes neuronales, si se produce un fallo en un pequeo nmero de neuronas, aunque el comportamiento del sistema se ve influenciado, sin embargo no sufre una cada repentina. Hay dos aspectos distintos respecto a la tolerancia a fallos: 1. Las redes pueden aprender a reconocer patrones con ruido, distorsionados, o incompleta. 2. Pueden seguir realizando su funcin (con cierta degradacin) aunque se destruya parte de la red. La razn por la que las redes neuronales son tolerantes a fallos es que tienen su informacin distribuida en las conexiones entre neuronas, existiendo cierto grado de redundancia en ese tipo de almacenamiento, a diferencia de la mayora de los ordenadores algortmicos y sistemas de recuperacin de datos que almacenan cada pieza de informacin en un estado nico, localizado y direccionable. Operacin en Tiempo Real: Los computadores neuronales pueden ser realizados en paralelo, y se disean y fabrican mquinas con hardware especial para obtener esta capacidad. Fcil insercin dentro de la tecnologa existente: Debido a que una red puede ser rpidamente entrenada, comprobada, verificada y trasladada a una implementacin hardware de bajo costo, es fcil insertar RNA para aplicaciones especficas dentro de sistemas existentes (chips, por ejemplo). De esta manera, las redes neuronales se pueden utilizar para mejorar sistemas de forma incremental, y cada paso puede ser evaluado antes de acometer un desarrollo ms amplio.
4 El Perceptrn
A continuacin daremos un ejemplo sencillo de una red neuronal artificial, el Perceptrn.
X0
-W0
X1
W1 W2 3 X3
X2
Capa Entrada
Capa Salida
4.1 Estructura
Un Perceptrn simple consta de dos niveles o capas. El primer nivel est compuesto por dos unidades de entrada. El segundo por una unidad de salida. Las
Pgina 13 de 17
conexiones entre las dos neuronas de entrada y la neurona de salida presentan pesos sinpticos ajustables mediante el entrenamiento. Y a su vez, el valor umbral (U) de la neurona 3 puede ser ajustado como un peso sinptico ms, al considerar U = -W0 asociado a una neurona bias (siempre activa: X0 = 1). Y la condicin de activacin de la neurona 3 sera: X0W0 + X1W1 + X2W2 > 0 <-> Activacin Adems, en este modelo, cada neurona de una capa "transmite" su estado de activacin (0 o 1) a la siguiente capa de neuronas, y despus deja de estar activa. Ahora, entrenaremos la red de manera que la neurona 3 se active slo si las neuronas 1 y 2 estn activas, y permanezca inactiva en caso contrario. Hay as cuatro posibles casos: X1 Caso Caso Caso Caso 1 2 3 4 0 0 1 1 X2 0 1 0 1 Salida (X3) 0 0 0 1
Para entrenar esta red, usaremos una regla de aprendizaje derivada del mtodo de aprendizaje Hebbiano. Esta regla consiste en: 1. Si la salida generada por la neurona 3 (para los valores de las otras dos neuronas) es la correcta, no se realizan ajustes de los pesos sinpticos. 2. Si la salida es 1 pero debera ser 0, se reducen slo los pesos de las conexiones activas segn una constante C. 3. Si la salida es 0 pero debera ser 1, entonces se aumentan slo los pesos de las conexiones activas segn la misma constante C. As, en cada ciclo de entrenamiento: Se presenta un dato de entrada (formado por los valores de las neuronas 1 y 2) del conjunto de datos de entrenamiento. La red, a partir del dato de entrada generar un dato de salida. Se aplica la regla anterior, que mide la eficiencia de la red y acta en consecuencia. Se realizan diferentes ciclos de entrenamiento con los valores de entrenamiento hasta que la red responda correctamente a todos los datos de entrada (en todos los casos de entrenamiento) o hasta que la red ya no pueda aprender ms. De esta forma, si partimos de unos pesos sinpticos iguales a 0 (W 1 = W2 = W0 = 0) y de una constante de refuerzo igual a 1 (C = 1): Introducimos el dato de entrada del caso 1: (X1, X2) = (0, 0). Puesto que todos los pesos valen 0: X0W0 + X1W1 + X2W2 = 0 <-> Inactivacin As el valor de salida de la neurona 3 es 0, y como el valor de la neurona 3 tenia que ser 0 (segn el caso 1 de entrenamiento), no se realizan ajustes de los pesos. Introducimos el dato de entrada del caso 4: (X1, X2) = (1, 1). Puesto que todos los pesos valen 0: X0W0 + X1W1 + X2W2 = 0 <-> Inactivacin Pero, como el valor de salida de la neurona 3 es 0, y tenia que ser 1 (segn el caso 4 de entrenamiento), los pesos de las conexiones activas se aumentan en un valor de C. o W1 = W 1 + C = 0 + 1 = 1 o W2 = W 2 + C = 0 + 1 = 1
Pgina 14 de 17
o W0 = W 0 + C = 0 + 1 = 1 Y se continuara de esta manera hasta terminar el entrenamiento, en cuyo caso obtendramos los siguientes pesos sinpticos ajustados: Peso Sinptico W1 W2 W0 Entonces: Regla de Activacin X 0 * W0 + X 1 * W1 + X 2 * 1 1 1 1 * * * * (-2) (-2) (-2) (-2) + + + + 0 0 1 1 * * * * 1 1 1 1 + + + + 0 1 0 1 * * * * W2 2 2 2 2 > = = = = 0 -2 0 -1 1 0 0 0 1 Salida X3 Valor 1 2 -2
X1 X2 X0 W1 W2 W0 0 0 1 1 0 1 0 1 1 1 1 1 1 1 1 1 2 2 2 2 -2 -2 -2 -2
Pgina 15 de 17
5 Bibliografa
Juan Antonio Prez Ortiz Julio de 2002 - Tesis Doctoral: Modelos Predictivos Basados en Redes Neuronales Recurrentes de Tiempo Discreto Universidad de Alicante Carlos Enrique Vivaracho Pascual y Quiliano Isaac Moro Sanchoi Abrill 2001 Redes Neuronales Artificiales
http://www.e-torredebabel.com/Psicologia/Conexionismo/ConexionismoBibliografia.htm
.shtml
ml
Pgina 16 de 17
6 ndice
1 Introduccin................................................................................................................................ 2 1.1 Definicin..............................................................................................................................2 1.2 Resea Histrica................................................................................................................. 2 2 El Modelo Biolgico....................................................................................................................3 2.1 Plasticidad.............................................................................................................................4 3 Red Neuronal Artificial...............................................................................................................4 3.1 Componentes........................................................................................................................4 3.1.1 Unidad de Proceso..........................................................................................................4 3.1.2 Estado de Activacin......................................................................................................4 3.1.3 Regla de Aprendizaje......................................................................................................4 3.2 Modelo de Neurona..............................................................................................................5 3.3 Arquitectura.........................................................................................................................6 3.4 Caractersticas......................................................................................................................7 3.4.1 Topologa........................................................................................................................7 3.4.2 Algoritmos de aprendizaje..............................................................................................8 3.4.3 Tipo de Asociacin entre las Entradas y Salidas............................................................9 3.4.4 Operaciones de capa..................................................................................................... 10 3.4.5 Tipo de Operacin........................................................................................................ 10 3.5 Implementacin..................................................................................................................10 3.5.1 Realizacin de Redes Neuronales.................................................................................11 3.5.2 Implementacin microelectrnica.................................................................................11 3.5.3 Herramientas software de desarrollo............................................................................ 11 3.5.4 Aplicaciones..................................................................................................................12 3.6 Ventajas.............................................................................................................................. 12 4 El Perceptrn.............................................................................................................................13 4.1 Estructura...........................................................................................................................13 5 Bibliografa................................................................................................................................16 6 ndice..........................................................................................................................................17
Pgina 17 de 17