Escolar Documentos
Profissional Documentos
Cultura Documentos
CICLO : V
INTEGRANTES : CODIGO
Chimbote peru
2012
UNIVERSIDAD NACIONAL DEL SANTA
Antecedentes
Perceptron fue creada por Rosenblatt en 1958 y su xito incial se debi a que era capaz de
aprender y reconocer patrones sencillos. Con el desarrollo del perceptrn, surge el rea de las
Redes Neuronales Artificiales dentro de la Inteligencia Artificial.
Definicion
Las dendritas operan como sensores que recogen informacin de la regin donde se hallan
y la derivan hacia el cuerpo de la neurona que reacciona mediante una sinapsis que enva
una respuesta hacia el cerebro, esto en el caso de los seres vivos.
Una neurona sola y aislada carece de razn de ser. Su labor especializada se torna valiosa
en la medida en que se asocia a otras neuronas, formando una red. Normalmente, el axn
de una neurona entrega su informacin como "seal de entrada" a una dendrita de otra
neurona y as sucesivamente. El perceptrn que capta la seal en adelante se entiende
formando una red de neuronas, sean stas biolgicas o de sustrato semiconductor
(compuertas lgicas).
Funcionamiento
Los pesos pueden ser positivos (excitacin) o negativos (inhibicin). Los pesos junto con
las funciones f(z) dictan la operacin de la red neuronal. Normalmente las funciones no se
modifican de tal forma que el estado de la red neuronal depende del valor de los factores
de peso (sinpsis) que se aplica a los estmulos de la neurona.
Limitantes
El perceptrn es capaz tan slo de resolver funciones definidas por un hiperplano (objeto
de dimensin N-1 contenida en un espacio de dimensin N). que corte un espacio de
dimensin N. Un ejemplo de una funcin que no puede ser resuelta es el operador lgico
XOR.
Entrenamiento
dW = LR ( T - Y ) X
Perceptrn simple
La siguiente imagen ilustra la arquitectura del perceptrn para patrones con slo dos
caractersticas:
Explicacin
Como se puede apreciar, el perceptrn est formado por dos capas, una de
entrada con un nmero de nodos determinado y una de salida con un slo nodo el
cul se encuentra conectado a cada uno de los nodos de la capa de entrada
mediante una conexin que est valuada con un peso (w1, w2 y w3).
Existe un nodo extra llamado bias el cul no tiene contacto con el exterior y su
valor siempre es 1. Cabe hacer la aclaracin que algunos autores no toman en
cuenta la capa de entrada debido a que en sta no se lleva cabo ningn
procesamiento de la informacin, simplemente sirve como enlace con el exterior
de la red neuronal y su nica tarea es recibir los valores de entrada del exterior y
pasrselos al nodo de la capa de salida. Para estos autores el perceptrn consta de
una capa. Para este artculo, el perceptrn consta de dos capas: una de entrada y
una de salida.
El perceptrn es una red supervisada. Esto quiere decir que debe ser entrenada con
un conjunto de patrones previamente clasificados de manera que, si los clasifica
incorrectamente, se pueda corregir el error mediante una regla de aprendizaje. En
general, para entrenar la red, necesitaremos un conjunto de patrones previamente
clasificados llamado muestra de entrenamiento y un conjunto de patrones llamado
muestra de control con el que se probar el poder de generalizacin de nuestra red.
Figura 3
Este net es la suma de las multiplicaciones del valor de salida de los nodos de
entrada por su correspondiente peso. Por ejemplo, si tuvieramos un patrn de dos
caractersticas ms el valor de salida del bias que es 1: p1 = [2,3,1] y tuvieramos un
vector de pesos w=[0.2,0.3,0.4], el net sera
net = (2*0.2)+(3*0.3)+(1*0.4)
net = 1.7
Una vez calculado el net, se tiene pasar a una funcin de decisin que indica si el
valor se le asigna a una clase o a otra:
Figura 4
Como se puede ver aqu, si el valor del net es mayor que cero, entonces se le asigna
al patrn la clase 1 y si es menor o igual que cero se le asigna la clase 0.
UNIVERSIDAD NACIONAL DEL SANTA
Dnde:
es un escalar llamado razn de aprendizaje, el cual es un valor positivo entre cero y uno
y se fija de antemano por uno.
t(n) es la salida esperada, o sea, si el patrn fue clasificado previamente como de la clase 0,
t(n) sera 0.
d(n) es la salida dada por la Red, o sea, el 0 o 1 con el que clasific al patrn.
z(n) es el vector del patrn aumentado, es decir, el vector del patrn con el elemento 1 del
bias.
Pues bien, lo que dice esta frmula, es que el nuevo vector de pesos que se usar para el
siguiente patrn se obtiene restando la salida deseada menos la salida real (obtencin del
error, o sea, qu tanto se equivoc la red) y el resultado, multiplicarlo por la razn de
aprendizaje.
Una vez obtenido este escalar, hay que multplicar el vector del patrn aumentado por l y
despus sumarle el vector de pesos actual. En realida no est complicado, ms adelante
haremos una pequea prctica para ilustrar cmo realizar estas operaciones.
UNIVERSIDAD NACIONAL DEL SANTA
se puede ver al perceptrn como una funcin discriminante lineal para crear una
frontera de decisin.
Si tenemos un patrn de dos caractersticas, lo podemos graficar en un plano con dos ejes
para tener una representacin visual de la distribucin de los patrones.
El perceptrn, para la clasificacin de patrones de este tipo (dos caractersticas), tendra dos
nodos ms el bias en la capa de entrada por lo que tendramos un vector de pesos de tres
elementos, por ejemplo:
w = [w1,w2,w3]
Estos pesos pueden verse como los coeficientes en una ecuacin de la recta. Recordemos
que la ecuacin de la recta est dada por:
Ax + By + C = 0
Figura 6
Figura 3
NOTA:
Lo que se hace con el entrenamiento, es tratar de encontrar los coeficientes (los pesos)
que hagan que la recta, plano o hiperplano se ajuste para dividir correctamente el
espacio de observacin.
Ejemplo prctico
Figura 7
UNIVERSIDAD NACIONAL DEL SANTA
Figura 8
Figura 9
Calculamos el net
Figura 4
Corregimos los pesos usando la regla de aprendizaje (Figura 5), lo haremos en esta ocasin
peso por peso, en las siguientes simplificaremos y haremos los clculos directamente
usando los vectores.
Figura 5
UNIVERSIDAD NACIONAL DEL SANTA
Consultando la funcin de decisin tenemos que la red clasifica a esta clase como 0 siendo
que es 1 por lo que corregimos sus pesos (Recuerde que lo que se encuentra dentro de []
son elementos de un vector):
Con los nuevos pesos, evaluamos el siguiente patrn que sera el P3.
Usando la funcin de decisin vemos que se clasific el patrn como 1 siendo que es 0 por
lo que ajustamos los pesos:
Podemos ver que la funcin de decisin lo calsifica correctamente como 1 por lo que no
hacemos nada.
En este punto comienza la segunda iteracin, recordemos que termina cuando pasa una
iteracin sin errores o bien se alcanza un nmero lmite de iteraciones mximas.
Presentamos el primer patrn P1:
Perceptrn multicapa
Introduccin
Por ltimo, esta arquitectura emplea el algirmo de Backpropagation. Consiste en ajustar los
pesos de la red para minimizar el error global, con el objetivo de que la salida de la red sea
lo ms prxima posible a la salida deseada. Este algoritmo es uno de los puntos
caractersticos del perceptrn multicapa.
Conclusiones