Las neuronas son elctricamente activas e interactan entre ellas median
te un flujo de corrientes elctricas locales. Estas corrientes se deben a diferencias de potencial entre las membranas celulares de las neuronas. Un impulso nervioso es un cambio de voltaje que ocurre en una zona localizada de la membrana celular. El impulso se transmite a travs del axn hasta llegar a la sinapsis, produciendo la liberacin de una sustancia qumica denominada neurotransmisor que se esparce por el fluido existente en el espacio sinptico. Cuando este fluido alcanza el otro extremo transmite la seal a la dendrita. Los impulsos recibidos desde la sinapsis se suman o restan a la magnitud de las variaciones del potencial de la membrana. Si las contribuciones totales alcanzan un valor determinado (alrededor de 10 milivoltios) se disparan uno o ms impulsos que se propagarn a lo largo del axn. El efecto de los neurotransmisores sobre la neurona receptora puede ser excitatorio o inhibitorio, y es variable (la intensidad del efecto depende de numerosos factores que no sera oportuno describir aqu), de manera que podemos hablar de la fuerza o efectividad de una sinpsis. Las seales excitatorias e inhibitorias recibidas por una neurona se combinan, y en funcin de la estimulacin total recibida, la neurona toma un cierto nivel de activacin, que se traduce en la generacin de breves impulsos nerviosos con una determinada frecuencia de disparo, y su propagacin a lo largo del axn hacia las neuronas con las cuales sinapta. De esta manera la informacin se transmite de unas neuronas a otras y va siendo procesada a travs de las conexiones sinpticas y las propias neuronas. El aprendizaje de las redes neuronales se produce mediante la variacin de la efectividad de las sinpsis, de esta manera cambia la influencia que unas neuronas ejercen sobre otras, de aqu se deduce que la arquitectura, el tipo y la efectividad de las conexiones en un momento dado, representan en cierto modo la memoria o estado de conocimiento de la red.
Estructura de una red Existe una gran variedad de tipos de estructura de red, cada una de las cuales muestran distintas caractersticas de cmputo. La principal diferencia est entre las redes de alimentacin progresiva (feed-forward) o en cascada y las redes recurrentes (feed-back), que hasta ahora son las que presentan mejor exactitud y robustez (definida como la capacidad de una red para generalizar). En las redes en cascada la informacin fluye unidireccionalmente de una capa a otra (desde la capa de entrada a las capas ocultas y de stas a la capa de salida), y adems, no se admiten conexiones intra-capa y no hay ciclos. En una red recurrente, las conexiones pueden formar topologas arbitrarias. La in formacin puede volver a lugares por los que ya haba pasado, formando bucles, y se admiten las conexiones intra-capa (laterales), incluso de una unidad consigo misma. Por lo general las redes estn configuradas en capas o niveles (una capa se define como un conjunto de neuronas conectadas en paralelo o nodos). En la red de pre alimentacin de capas, cada una de las unidades est conectada solamente a las unidades del nivel siguiente; no existen conexiones entre las unidades que estn en el mismo nivel, conexiones con niveles anteriores, ni conexiones que salten de nivel. Las redes neuronales artificiales (RNA) pueden ser muy exactas, incrementando el nmero de capas ocultas y el nmero de nodos en esas capas, pero las variaciones que se presentarn en los datos subsecuentes (los datos a clasificar) pueden producir gran desviacin de la salida deseada; hay entonces, un compromiso entre el nmero de capas y neuronas con el grado de exactitud obtenible con los datos de entrenamiento. La mayor justificacin del uso de las RNA es su habilidad para ver y apren der relaciones en conjuntos de datos complejos que no pueden ser fcilmente percibidos por humanos. Una red neuronal artificial realiza su funcin como un resultado del entrenamiento el cual es un proceso repetitivo, presentando un conjunto de datos (patrones) de entrenamiento a la red y ajustando los pesos hasta que cada conjunto de datos de entrada produce la salida deseada, de acuerdo a una regla de aprendizaje. Por lo tanto, al proceso de ajuste de los pesos hasta alcanzar un nivel de exactitud especfica se le conoce como entrenamiento. Se realiza despus del entrenamiento una fase de prueba a la red, en la cual patrones de prueba des conocidos se presentan para es tablecer qu tanto ha aprendido. Cuando la informacin o datos numricos que se estn usando en el proceso de entrenamiento son muy disparejos, en cuanto a magnitud se refiere, es necesario usar algn tipo de acondicionamiento de dicha informacin para de esta manera evitar ciertas influencias que pudieran conducirnos a errores involuntarios al usar la red entrenada. Dos son los tipos de operaciones que se usan: normalizacin y la competicin
DEFINICION DE RED NEURONAL
Una RNA puede definirse como un sistema de procesamiento de informacin compuesto por un gran nmero de elementos de procesamiento (neuronas), profusamente conectados entre s a travs de canales de comunicacin (Reguero, 1995). Estas conexiones establecen una estructura jerrquica y permiten la interaccin con los objetos del mundo real tratando de emular al sistema nervioso biolgico. A diferencia de la computacin tradicional, basada en algoritmos predecibles, la computacin neuronal permite desarrollar sistemas que resuelvan problemas complejos cuya formalizacin matemtica es sumamente difcil. Esto se logra gracias a los principios de funcionamiento de las RNA, de los cuales citamos a continuacin los cinco ms importantes (Hilera, 1995): -Aprendizaje adaptativo: esta es quizs la caracterstica ms importante de las RNA, ya que pueden comportarse en funcin de un entrenamiento con una serie de ejemplos ilustrativos. De esta forma, no es necesario elaborar un modelo a priori, ni establecer funciones probabilsticas. Una RNA es adaptativa porque puede modificarse constantemente con el fin de adaptarse a nuevas condiciones de trabajo. - Autoorganizacin: mientras que el aprendizaje es un proceso donde se modifica la informacin interna de la RNA, la autoorganizacin consiste en la modificacin de toda la red completa con el fin de llevar a cabo un objetivo especfico. Autoorganziacin significa generalizacin, de esta forma una red puede responder a datos o situaciones que no ha experimentado antes, pero que puede inferir en base a su entrenamiento. Esta caracterstica es muy til sobre todo cuando la informacin de entrada es poco clara o se encuentra incompleta. - Tolerancia a fallos: en la computacin tradicional la perdida de un fragmento pequeo de informacin puede acarrear comnmente la inutilizacin del sistema. Las RNA poseen una alta capacidad de tolerancia a fallos. La tolerancia a fallos se entiende aqu en dos sentidos: primero, las redes pueden reconocer patrones de informacin con ruido, distorsin o incompletos (tolerancia de fallos respecto de los datos); y segundo, pueden seguir trabajando (con cierta degradacin) aunque se destruya parte de la red (tolerancia a fallos respecto de la estructura). La explicacin de este fenmeno se encuentra en que, mientras la computacin tradicional almacena la informacin en espacios nicos, localizados y direccionables, las redes neuronales lo hacen de forma distribuida y con un alto grado de redundancia. - Operacin en tiempo real: de todos los mtodos existentes, la RNA son las ms indicadas para el reconocimeinto de patrones en tiempo real, debido a que trabajan en paralelo actualizando todas sus instancias simultneamente. Es importante destacar que esta caracterstica solo se aprecia cuando se implementan redes con hardware especialmente diseado para el procesamiento en paralelo. - Fcil insercin en la tecnologa existente: es relativamente sencillo obtener chips especializados para redes neuronales que mejoran su capacidad en ciertas tareas. Ello facilita la integracin modular en los sistemas existentes.
Las neuronas artificiales se modelan mediante unidades de proceso (neuronas). Cada unidad de proceso se compone de una red de conexiones de entrada, una funcin dered (de propagacin), encargada de computar la entrada total combinada de todas las conexiones, un ncleo central de proceso, encargado de aplicar la funcin de activacin, y la salida, por donde se transmite el valor de activacin a otras unidades. La funcin de redes tpicamente una sumatoria ponderada, mientras que la funcin de activacin suele ser alguna funcin de umbral, como por ejemplo la funcin sigmoide. Funcin de propagacin o de red: Calcula el valor de base o entrada total a la unidad, generalmente como simple suma ponderada de todas las entradas recibidas, es decir, de las entradas multiplicadas por el peso o valor de las conexiones. Equivale a la combinacin de las seales excitatorias e inhibitorias de las neuronas biolgicas. Funcin de activacin: Es quizs la caracterstica principal o definitoria de las neuronas, la que mejor define el comportamiento de la misma. Se usan diferentes tipos de funciones, desde simples funciones simples de umbral a funciones no lineales. Se encarga de calcular el nivel o estado de activacin de la neurona en funcin de la entrada total. Conexiones ponderadas: hacen el papel de las conexiones sinpticas, el peso de la conexin equivale a la fuerza o efectividad de la sinpsis. Las existencia de conexiones determina si es posible que una unidad influya sobre otra, el valor de los pesos y el signo de los mismos definen el tipo (excitatorio/inhibitorio) y la intensidad de la influencia. Salida: calcula la salida de la neurona en funcin de la activacin de la misma, aunque normalmente no se aplica ms que la funcin identidad, y se toma como salida el valor de activacin. El valor de salida cumplira la funcin de la tasa de disparo en las neuronas biolgicas.
Redes neuronales artificiales Elementos de una RNA Las RNA son modelos de procesamiento de informacin basados en el funcionamiento del cerebro humano. Estn formadas por una gran cantidad de unidades o elementos de procesamiento llamados neuronas, las cuales podemos dividir en tres grupos diferentes: 1) aquellas que reciben la informacin del exterior, tambin denominadas como neuronas de entradas; 2) aquellas que transmiten informacin al exterior, denominadas neuronas de salida, y por ltimo aquellas que no tienen ningn contacto con el exterior y solamente intercambian informacin con otras neuronas de la red, a estas se las llama neuronas ocultas. En cualquier tipo de RNA las neuronas se encuentran fuertemente interconectadas entre s, organizndose por capas y formando diferentes topologas. Existen diferentes topologas para resolver diferentes tipos de problemas.
Estructura de una RNA Ya hemos visto como esta compuesto un elemento de procesamiento o neurona (microestructura). Conectando varias neuronas de un determinado modo conseguimos una red (mesoestructura). Existen infinitas variaciones de topologas, pero podemos clasificarlas segn cuatro criterios: 1) nmero de niveles o capas, 2) nmero de neuronas por nivel, y 3) formas de conexin. In Nivel de entrada Niveles ocultos Nivel de salida Estructura de una RNA multicapa (Hilera, 1995) En cuanto a la cantidad de capas, podemos decir que una red puede estar formada por un mnimo de una capa y un mximo de n capas. Cuando existe una sola capa, esta oficia tanto de entrada como de salida. En el caso de una red de dos capas, la primera ser de entrada y la segunda de salida. Para el caso de redes con ms de tres capas, la primera ser de entrada, la ltima de salida y las restantes sern las capas ocultas que mencionbamos ms arriba. El nmero de neuronas por nivel puede variar desde 1 hasta n, y depende de la topologa de cada modelo en particular.
El modelo de Kohonen Antes de entrar de lleno a las aplicaciones de las RNA en el campo de la Documentacin nos detendremos brevemente para analizar uno de los modelos del cuadro anterior ms utilizados en recuperacin de la informacin, se trata del desarrollado porTeuvo Kohonen. A principio de los aos 80, Kohonen demostr que una informacin de entrada por s sola, suponiendo una estructura propia y una descripcin funcional del comportamiento de la red, era suficiente para forzar la formacin de mapas topolgicos (Kohonen, 1982). Estos mapas presentan la caracterstica de organizar la informacin de entrada clasificndola automticamente. Este modelo presenta dos variantes: 1) la denominada Cuantificacin por Vector de Aprendizaje {Learning Vector Quantization) o LVQ, y 2) la llamada Mapa de Preservacin Topolgica {Topology-Preserving Map) o TPM. A esta ltima tambin se la conoce comnmente como Mapa auto- organizativo (Self-Organizing Map) o SOM. La diferencia entre ambos modelos radica en que mientras la LVQ trabaja con salidas en una sola dimensin, la salida en el SOM es bidimensional. Esta ltima es la que se encuentra ms extendida. El principio de funcionamiento de este modelo es sencillo, se trata de establecer una correspondencia entre la informacin de entrada y un espacio de salida de dos dimensiones, o mapa topolgico. De esta manera, los datos de entrada con caractersticas comunes activarn zonas prximas del mapa. Es muy comn representar este modelo de red con sus neuronas de salida dispuestas de manera bidimensional. Cuando se ingresa un dato a la red esta reacciona de forma tal que solo una neurona de la capa de salida resulta activada. A esta neurona se la denomina vencedora (winner- take-all unit) y determina un punto en el mapa bidimensional. Lo que realmente esta haciendo la red es clasificar la informacin de entrada, ya que la neurona ganadora representa la clase a la que pertenece la entrada, adems de que ante entradas similares se activar siempre la misma neurona. Por tanto, la red es sumamente indicada para establecer relaciones, desconocidas previamente, entre un conjunto determinado de datos. Modelo SOM con sus neuronas de salida formando el mapa. El mtodo de aprendizaje del modelo SOM se denomina competitivo y es del tipo no supervisado y off-line, por lo que se contar con una etapa previa de entrenamiento y una posterior de operacin. El modelo de Kohonen es una de las RNA ms tiles que se han desarrollado, aunque posee dos limitaciones: 1) el proceso de aprendizaje suele ser largo y arduo, y 2) para aprender nuevos datos es necesario repetir el proceso de aprendizaje por completo. No obstante, la versatilidad de este tipo de red es muy amplia, lo que le permite clasificar todo tipo de informacin, desde la literaria (Honkela, 1995) hasta la econmica (Kaski, 1995). distintas aplicaciones de este modelo.