Você está na página 1de 7

LAS NEURONAS

Las neuronas son elctricamente activas e interactan entre ellas median


te un flujo de corrientes elctricas locales. Estas corrientes se deben a
diferencias de potencial entre las membranas celulares de las neuronas.
Un impulso nervioso es un cambio de voltaje que ocurre en una zona
localizada de la membrana celular. El impulso se transmite a travs del
axn hasta llegar a la sinapsis, produciendo la liberacin de una
sustancia qumica denominada neurotransmisor que se esparce por el fluido
existente en el espacio sinptico. Cuando este fluido alcanza el otro
extremo transmite la seal a la dendrita. Los impulsos recibidos desde la
sinapsis se suman o restan a la magnitud de las variaciones del potencial
de la membrana. Si las contribuciones totales alcanzan un valor
determinado (alrededor de 10 milivoltios) se disparan uno o ms impulsos
que se propagarn a lo largo del axn.
El efecto de los neurotransmisores sobre la neurona receptora puede ser
excitatorio o inhibitorio, y es variable (la intensidad del efecto
depende de numerosos factores que no sera oportuno describir aqu), de
manera que podemos hablar de la fuerza o efectividad de una sinpsis. Las
seales excitatorias e inhibitorias recibidas por una neurona se
combinan, y en funcin de la estimulacin total recibida, la neurona toma
un cierto nivel de activacin, que se traduce en la generacin de breves
impulsos nerviosos con una determinada frecuencia de disparo, y su
propagacin a lo largo del axn hacia las neuronas con las cuales
sinapta. De esta manera la informacin se transmite de unas neuronas a
otras y va siendo procesada a travs de las conexiones sinpticas y las
propias neuronas. El aprendizaje de las redes neuronales se produce
mediante la variacin de la efectividad de las sinpsis, de esta manera
cambia la influencia que unas neuronas ejercen sobre otras, de aqu se
deduce que la arquitectura, el tipo y la efectividad de las conexiones en
un momento dado, representan en cierto modo la memoria o estado de
conocimiento de la red.






Estructura de una red
Existe una gran variedad de tipos de estructura de red, cada una de las
cuales muestran distintas caractersticas de cmputo. La principal
diferencia est entre las redes de alimentacin progresiva (feed-forward)
o en cascada y las redes recurrentes (feed-back), que hasta ahora son las
que presentan mejor exactitud y robustez (definida como la capacidad de
una red para generalizar). En las redes en cascada la informacin fluye
unidireccionalmente de una capa a otra (desde la capa de entrada a las
capas ocultas y de stas a la capa de salida), y adems, no se admiten
conexiones intra-capa y no hay ciclos. En una red recurrente, las
conexiones pueden formar topologas arbitrarias.
La in formacin puede volver a lugares por los que ya haba pasado,
formando bucles, y se admiten las conexiones intra-capa (laterales),
incluso de una unidad consigo misma. Por lo general las redes estn
configuradas en capas o niveles (una capa se define como un conjunto de
neuronas conectadas en paralelo o nodos). En la red de pre alimentacin
de capas, cada una de las unidades est conectada solamente a las
unidades del nivel siguiente; no existen conexiones entre las unidades
que estn en el mismo nivel, conexiones con niveles anteriores, ni
conexiones que salten de nivel. Las redes neuronales artificiales (RNA)
pueden ser muy exactas, incrementando el nmero de capas ocultas y el
nmero de nodos en esas capas, pero las variaciones que se presentarn en
los datos subsecuentes (los datos a clasificar) pueden producir gran
desviacin de la salida deseada; hay entonces, un compromiso entre el
nmero de capas y neuronas con el grado de exactitud obtenible con los
datos de entrenamiento. La mayor justificacin del uso de las RNA es su
habilidad para ver y apren der relaciones en conjuntos de datos
complejos que no pueden ser fcilmente percibidos por humanos. Una red
neuronal artificial realiza su funcin como un resultado del
entrenamiento el cual es un proceso repetitivo, presentando un conjunto
de datos (patrones) de entrenamiento a la red y ajustando los pesos hasta
que cada conjunto de datos de entrada produce la salida deseada, de
acuerdo a una regla de aprendizaje. Por lo tanto, al proceso de ajuste de
los pesos hasta alcanzar un nivel de exactitud especfica se le conoce
como entrenamiento. Se realiza despus del entrenamiento una fase de
prueba a la red, en la cual patrones de prueba des conocidos se presentan
para es tablecer qu tanto ha aprendido.
Cuando la informacin o datos numricos que se estn usando en el proceso
de entrenamiento son muy disparejos, en cuanto a magnitud se refiere, es
necesario usar algn tipo de acondicionamiento de dicha informacin
para de esta manera evitar ciertas influencias que pudieran conducirnos
a errores involuntarios al usar la red entrenada. Dos son los tipos de
operaciones que se usan: normalizacin y la competicin

DEFINICION DE RED NEURONAL

Una RNA puede definirse como un sistema de procesamiento de informacin
compuesto por un gran nmero de elementos de procesamiento (neuronas),
profusamente conectados entre s a travs de canales de comunicacin
(Reguero, 1995). Estas conexiones establecen una estructura jerrquica y
permiten la interaccin con los objetos del mundo real tratando de emular
al sistema nervioso biolgico. A diferencia de la computacin
tradicional, basada en algoritmos predecibles, la computacin neuronal
permite desarrollar sistemas que resuelvan problemas complejos cuya
formalizacin matemtica es sumamente difcil. Esto se logra gracias a
los principios de funcionamiento de las RNA, de los cuales citamos a
continuacin los cinco ms importantes (Hilera, 1995):
-Aprendizaje adaptativo: esta es quizs la caracterstica ms importante
de las RNA, ya que pueden comportarse en funcin de un entrenamiento con
una serie de ejemplos ilustrativos. De esta forma, no es necesario
elaborar un modelo a priori, ni establecer funciones probabilsticas. Una
RNA es adaptativa porque puede modificarse constantemente con el fin de
adaptarse a nuevas condiciones de trabajo.
- Autoorganizacin: mientras que el aprendizaje es un proceso donde se
modifica la informacin interna de la RNA, la autoorganizacin consiste
en la modificacin de toda la red completa con el fin de llevar a cabo
un objetivo especfico. Autoorganziacin significa generalizacin, de
esta forma una red puede responder a datos o situaciones que no ha
experimentado antes, pero que puede inferir en base a su entrenamiento.
Esta caracterstica es muy til sobre todo cuando la informacin de
entrada es poco clara o se encuentra incompleta.
- Tolerancia a fallos: en la computacin tradicional la perdida de un
fragmento pequeo de informacin puede acarrear comnmente la
inutilizacin del sistema. Las RNA poseen una alta capacidad de
tolerancia a fallos. La tolerancia a fallos se entiende aqu en dos
sentidos: primero, las redes pueden reconocer patrones de informacin con
ruido, distorsin o incompletos (tolerancia de fallos respecto de los
datos); y segundo, pueden seguir trabajando (con cierta degradacin)
aunque se destruya parte de la red (tolerancia a fallos respecto de la
estructura). La explicacin de este fenmeno se encuentra en que,
mientras la computacin tradicional almacena la informacin en espacios
nicos, localizados y direccionables, las redes neuronales lo hacen de
forma distribuida y con un alto grado de redundancia.
- Operacin en tiempo real: de todos los mtodos existentes, la RNA son
las ms indicadas para el reconocimeinto de patrones en tiempo real,
debido a que trabajan en paralelo actualizando todas sus instancias
simultneamente. Es importante destacar que esta caracterstica solo se
aprecia cuando se implementan redes con hardware especialmente diseado
para el procesamiento en paralelo.
- Fcil insercin en la tecnologa existente: es relativamente sencillo
obtener chips especializados para redes neuronales que mejoran su
capacidad en ciertas tareas. Ello facilita la integracin modular en los
sistemas existentes.

Las neuronas artificiales se modelan mediante unidades de proceso
(neuronas). Cada unidad de proceso se compone de una red de conexiones de
entrada, una funcin dered (de propagacin), encargada de computar la
entrada total combinada de todas las conexiones, un ncleo central de
proceso, encargado de aplicar la funcin de activacin, y la salida, por
donde se transmite el valor de activacin a otras unidades.
La funcin de redes tpicamente una sumatoria ponderada, mientras que la
funcin de activacin suele ser alguna funcin de umbral, como por
ejemplo la funcin sigmoide.
Funcin de propagacin o de red: Calcula el valor de base o entrada total
a la unidad, generalmente como simple suma ponderada de todas las
entradas recibidas, es decir, de las entradas multiplicadas por el peso o
valor de las conexiones. Equivale a la combinacin de las seales
excitatorias e inhibitorias de las neuronas biolgicas.
Funcin de activacin: Es quizs la caracterstica principal o
definitoria de las neuronas, la que mejor define el comportamiento de la
misma. Se usan diferentes tipos de funciones, desde simples funciones
simples de umbral a funciones no lineales. Se encarga de calcular el
nivel o estado de activacin de la neurona en funcin de la entrada
total.
Conexiones ponderadas: hacen el papel de las conexiones sinpticas, el
peso de la conexin equivale a la fuerza o efectividad de la sinpsis.
Las existencia de conexiones determina si es posible que una unidad
influya sobre otra, el valor de los pesos y el signo de los mismos
definen el tipo (excitatorio/inhibitorio) y la intensidad de la
influencia.
Salida: calcula la salida de la neurona en funcin de la activacin de la
misma, aunque normalmente no se aplica ms que la funcin identidad, y se
toma como salida el valor de activacin. El valor de salida cumplira la
funcin de la tasa de disparo en las neuronas biolgicas.



Redes neuronales artificiales
Elementos de una RNA
Las RNA son modelos de procesamiento de informacin basados en el
funcionamiento del cerebro humano. Estn formadas por una gran cantidad
de unidades o elementos de procesamiento llamados neuronas, las cuales
podemos dividir en tres grupos diferentes: 1) aquellas que reciben la
informacin del exterior, tambin denominadas como neuronas de entradas;
2) aquellas que transmiten informacin al exterior, denominadas neuronas
de salida, y por ltimo aquellas que no tienen ningn contacto con el
exterior y solamente intercambian informacin con otras neuronas de la
red, a estas se las llama neuronas ocultas. En cualquier tipo de RNA las
neuronas se encuentran fuertemente interconectadas entre s,
organizndose por capas y formando diferentes topologas.
Existen diferentes topologas para resolver diferentes tipos de
problemas.

Estructura de una RNA
Ya hemos visto como esta compuesto un elemento de procesamiento o neurona
(microestructura). Conectando varias neuronas de un determinado modo
conseguimos una red (mesoestructura). Existen infinitas variaciones
de topologas, pero podemos clasificarlas segn cuatro criterios: 1)
nmero de niveles o capas, 2) nmero de neuronas por nivel, y 3) formas
de conexin.
In
Nivel de entrada
Niveles ocultos
Nivel de salida
Estructura de una RNA multicapa (Hilera, 1995)
En cuanto a la cantidad de capas, podemos decir que una red puede estar
formada por un mnimo de una capa y un mximo de n capas. Cuando existe
una sola capa, esta oficia tanto de entrada como de salida. En el
caso de una red de dos capas, la primera ser de entrada y la segunda de
salida. Para el caso de redes con ms de tres capas, la primera ser de
entrada, la ltima de salida y las restantes sern las capas ocultas que
mencionbamos ms arriba. El nmero de neuronas por nivel puede variar
desde 1 hasta n, y depende de la topologa de cada modelo en particular.

El modelo de Kohonen
Antes de entrar de lleno a las aplicaciones de las RNA en el campo de la
Documentacin nos detendremos brevemente para analizar uno de los modelos
del cuadro anterior ms utilizados en recuperacin de la informacin,
se trata del desarrollado porTeuvo Kohonen. A principio de los aos 80,
Kohonen demostr que una informacin de entrada por s sola, suponiendo
una estructura propia y una descripcin funcional del comportamiento
de la red, era suficiente para forzar la formacin de mapas topolgicos
(Kohonen, 1982). Estos mapas presentan la caracterstica de organizar la
informacin de entrada clasificndola automticamente.
Este modelo presenta dos variantes: 1) la denominada Cuantificacin por
Vector de Aprendizaje {Learning Vector Quantization) o LVQ, y 2) la
llamada Mapa de Preservacin Topolgica {Topology-Preserving Map) o
TPM.
A esta ltima tambin se la conoce comnmente como Mapa auto-
organizativo (Self-Organizing Map) o SOM.
La diferencia entre ambos modelos radica en que mientras la LVQ trabaja
con salidas en una sola dimensin, la salida en el SOM es bidimensional.
Esta ltima es la que se encuentra ms extendida.
El principio de funcionamiento de este modelo es sencillo, se trata de
establecer una correspondencia entre la informacin de entrada y un
espacio de salida de dos dimensiones, o mapa topolgico. De esta manera,
los datos de entrada con caractersticas comunes activarn zonas prximas
del mapa. Es muy comn representar este modelo de red con sus neuronas de
salida dispuestas de manera bidimensional. Cuando se ingresa un dato a la
red esta reacciona de forma tal que solo una neurona de la capa de
salida resulta activada. A esta neurona se la denomina vencedora (winner-
take-all unit) y determina un punto en el mapa bidimensional. Lo que
realmente esta haciendo la red es clasificar la informacin de entrada,
ya que la neurona ganadora representa la clase a la que pertenece la
entrada, adems de que ante entradas similares se activar siempre la
misma neurona. Por tanto, la red es sumamente indicada para establecer
relaciones, desconocidas previamente, entre un conjunto determinado de
datos.
Modelo SOM con sus neuronas de salida formando el mapa. El mtodo de
aprendizaje del modelo SOM se denomina competitivo y es del tipo no
supervisado y off-line, por lo que se contar con una etapa previa de
entrenamiento y una posterior de operacin. El modelo de Kohonen es una
de las RNA ms tiles que se han desarrollado, aunque posee dos
limitaciones: 1) el proceso de aprendizaje suele ser largo y arduo, y 2)
para aprender nuevos datos es necesario repetir el proceso de aprendizaje
por completo. No obstante, la versatilidad de este tipo de red es muy
amplia, lo que le permite clasificar todo tipo de informacin, desde la
literaria (Honkela, 1995) hasta la econmica (Kaski, 1995).
distintas aplicaciones de este modelo.







BIBLIOGRAFIA

es.wikipedia.org/wiki/Red_neuronal_artificial
--
www.cic.umich.mx/documento/ciencia_nicolaita/2003/.../CN-35-15.PDF

Você também pode gostar