Você está na página 1de 2

Neurona biolgica

Neurona artificial

Gracias al descubrimiento de Santiago


Ramn y Cajal en 1988 de la neurona, este
ha permitido que en base a sus estudios los
srs. Warren, Pitts, Rosenblatt entre otros
ayan podido crear una RNA. Gracias a esto
hoy existen modelos de neuronas artificiales.
Con los estudios de Ramn y Cajal se
determino que una neurona contiene tres
componentes principales, el soma o cuerpo
de la neurona, las dendritas y el axn.

Dada la complejidad de una neurona


biolgica, para las RNA se han creado
modelos simplificados que permiten imitar
modestamente a una neurona biolgica. En
el modelo artificial se incluyen seales
(entradas reales) provenientes de otras
neuronas, la intensidad de la sinapsis
(reales) y una funcin (sigmoidal, S.
hiperbolca, limitador fuerte symtrico,
lineal etc) que define el umbral. Las seales
son variables continuas en lugar de pulsos
discretos como en las neuronas biolgicas.
Cada seal de entrada es potencializada o
atenuada por el peso sinptico o intensidad
de conexin cuya funcin es anloga a la
funcin de las sinapsis de la neurona
biolgica. Los pesos pueden ser positivos
(excitatorios), o negativos (inhibitorios), el
nodo sumatorio acumula las seales
ponderadas y las pasa a la salida a travs de
una funcin umbral (tambin conocida como
funcin de activacin o transferencia)[1].

Tipos de Sipansis:
-Sinapsis Excitatorias
-Sinapsis Inhibidoras

Figura 1: Estructura de Neurona biolgica

El soma de una neurona constituye el


procesador de la neurona, las dendritas son
el rbol receptor de la red de seales
electricas que cargan el soma. Este se
encarga de sumar las seales de entrada y el
axn es la salida de la informacin. Las
conexiones de las neuronas 104 se hace
entre el punto de contacto del axn de una
clula entre una dendrita de otra clula. El
contacto es llamado sinapsis. Se estima que
existen 1011 elementos interconectados
unidireccionalmente. El contacto de las
neuronas no es fsico, existen 2mm de
separacin y la transmisin de la
informacin se hace va impulsos elctricos
en el interior de la neurona y a otras se hace
de forma qumica gracias a unas sustancias
qumicas llamadas neurotransmisores.

ORIGENES DE LA
COMPUTACIN
NEURONAL
Autor:

Figura 2: Neurona biolgica (izq) vs Artificial (der)


Representar una RNA con
varios parmetros no es
suficiente en la figura 2. Un
modelo apropiada es la
figura 3.

Figura 3: Notacin abreviada de una RNA

Fuentes Bibliogrficas

[1]. Aprendizaje no supervisado y el algoritmo wake-sleep en RNA. Universidad


Tecnolgica de la Mixteca. http://jupiter.utm.mx/~tesis_dig/11612.pdf [Consulta:
2 de diciembre de 2016]. [2]. Introduccin a las Redes Neuronales. Universidad
Tecnolgica Nacional de Argentina. http://www.dariolara.com/tda/tds/RNA.pdf
[Consulta: 2 de diciembre de 2016]. *El AUTOR DEL TRIPTICO RECOMIENDA
PROFUNDIZAR EL TEMA LEYENDO LAS FUENTES BIBLIOGRAFICAS PARA DAR
CONTINUIDAD AL TEMA. SALUDOS CORDIALES.

Freddy D. Alcarazo Ibez


www.alcarazolabs.blogspot.pe
La mitad est hecha cuando el comienzo
se ha hecho.
Horacio
Pimentel - Per
Diciembre de 2016

Introduccin
Es claro que una computadora tiene la
capacidad
de
procesar
y
calcular
informacin a velocidades superiores al ser
humano. Por que no hacerlas para que
reconozcan sonidos, imgenes, que distingan
las formas de objetos?. Actualmente todo
esto es posible, la computadora ya no es solo
para calcular ms rpido o para guardar
informacin en bases de datos. La
computacin clsica a evolucionado, todos
estos cambios han permitido la creacin de
redes neuronales artificiales (RNA) procesar
imgenes, voz, reconocer patrones, predecir,
clasificar, diagnosticar enfermedades. Las
RNA son una rama de estudio de la
Inteligencia Artificial (IA). Actualmente y
desde los inicios de la computacin se
vienen realizando clculos y ofreciendo
resultados deterministicos. Una RNA tiene
la capacidad de obtener un resultado para
lograr un equilibrio, este le permite a una
neurona reforzar su conocimiento. En efecto,
el poder de una RNA esta en su estructura o
topologa y gracias las distintas salidas
valores obtenidos le permite modificar los
pesos de las neuronas que componen la red.
Vemos entonces que gracias a esto se ha
pasado de hacer un clculo a fortalecer un
conjunto de neuronas artificiales y con esto
poder realizar las capacidades ya
mencionadas. Entre las ventajas de las RNA
estn
el
aprendizaje
adaptativo,
autoorganizacin, generalizacin, tolerancia
a fallos, operacin en tiempo real y fcil
insercin
dentro
de
la
tecnologa
existente[2]. Videos (http://goo.gl/WV0quR).

Antecedentes
histricos
En 1936, el cientfico Alan Turing empez a
estudiar el cerebro como una forma de ver el
mundo de la computacin. En 1943 fueron
creadas las bases de la computacin
neuronal por Warren McCulloch neurlogo
y Walter Pitts un matemtico. Modelaron
la primera red neuronal simple que
funcionaba con circuitos elctricos. Consista
en sumar
las seales y estas eran
multiplicadas por los pesos escogidos de
forma aleatoria. La entrada es comparada
por un patrn preestablecido para
determinar la salida de la red neuronal. Si en
la comparacin, la suma de las entradas
multiplicadas por los pesos es >= que el
patrn preestablecido la salida de la red es
uno (1), en caso contrario la salida es cero
(0). De esta manera surgi la primera RNA.
Posteriormente otros estudios como en
1949 de Donald Hebb, en su libro "the
organizational behavior". En dicho libro se
publico su famosa regla que lleva su nombre,
la regla indica que "Si un elemento de
procesado simple recibe una entrada de otro
elemento de procesado y ambos estn
activos, el peso correspondiente a su
conexin debera reforzarse (aumentar)".
Las caractersticas de la regla poseen
Asociatividad y Autoorganizacin. De modo
que la regla de Hebb trata de asociar
patrones de salida a patrones de entrada y la
estructura se organiza a si misma. El
siguiente dato es de 1956, por entonces se
organiz en Dartmouth(EE.UU) la primera
conferencia sobre Inteligencia Artificial (IA).

En 1957, Frank Rosenblatt desarroll el


Perceptron. La capacidad de esta RNA era
de generalizar. Rosenblatt crea que la
conectividad existente en las redes
biolgicas tiene un elevado porcentaje de
aleatoriedad, por lo que se opona al anlisis
de McCulloch y Pitts en el cual se empleaba
lgica simblica para analizar estructuras
bastante idealizadas. El modelo es muy
usado hoy en da para reconocer patrones.
Sin embargo, presenta limitaciones, no
puede resolver una funcin OR exclusiva ya
que no se trata de una clase linealmente
separable como lo comprueban Minsky y
Papert en "Perceptrons: An introduction to
Computational Geometry" de 1969. En 1959,
Bernard Widrow y Marcial Hoff publican la
teora sobre adaptacin neuronal y unos
modelos inspirados en esa teora, el Adaline
(Adaptative Linear Neuron) primera red
neuronal aplicada a un problema real (filtros
adaptativos para eliminar ecos en las lneas
telefnicas) y el Madaline (Multiple Adaline).
Kunihiko Fukushima desarroll en 1980 el
Neocognitrn, un modelo de RNA para el
reconocimiento de patrones visuales. En
1982 John Hopfield present su trabajo
(basado en la fsica estadstica), el cual
describe con claridad y rigor matemtico
una red la cual lleva su nombre. Esta es una
variacin del Asociador Lineal, pero adems,
mostr cmo tales redes pueden trabajar y
qu pueden hacer. El otro trabajo pertenece
a Teuvo Kohonen, con un modelo con
capacidad
de
formar
mapas
de
caractersticas de manera similar a como
ocurre en el cerebro, el modelo tena dos
variantes denominadas LVQ y SOM"[2].

Você também pode gostar