Você está na página 1de 7

DESDE EL ICBME - Instituto de Ciencias Básicas y Medicina Experimental

Modelizando el cerebro: Redes Neuronales Artificiales


Victoria Weisz, Erika Martínez y Pablo Argibay

REPRODUCIR LA INTELIGENCIA tigación orientados a explicar cómo podían llevarse a cabo


Una de las fantasías del hombre, desde tiempos remo- los procesos inteligentes, pero incorporando un aspecto
tos, ha sido lograr que las máquinas pudieran realizar importante que hasta el momento no había sido encara-
tareas que requieren de ese atributo humano denomina- do: la rigurosidad lógico-matemática, herramienta nece-
do "inteligencia". Para tal tarea, se han intentado dos saria al momento de profundizar en el complejo sistema
aproximaciones: que se intentaba imitar. Estas líneas son denominadas In-
1. Definir, entender y tratar de reproducir procesos inte- teligencia Artificial (AI, por su sigla en inglés) y Redes
ligentes o racionales. Tarea originariamente limitada a Neuronales Artificiales (ANN, por su sigla en inglés) y,
la lógica y, actualmente, a diversas disciplinas que se si bien comparten el objetivo último, difieren como vi-
ocupan de la argumentación en general y de la inteli- mos en sus conceptos y también en sus formas. La pri-
gencia artificial en particular. mera busca reproducir las habilidades cognitivas median-
2. Entender y tratar de reproducir o modelizar la activi- te la utilización de reglas, concibiendo a la mente como
dad cerebral. Tarea ésta relacionada en la actualidad un procesador de símbolos. La segunda intenta hacerlo a
con las denominadas neurociencias computacionales. partir de la simulación de la interacción entre las neuronas,
El segundo enfoque es el que nos interesa describir aquí. es decir, modelizando el cerebro propiamente dicho. El
Pero para ello haremos una breve referencia al desenvol- paradigma de inteligencia de la primera es la resolución
vimiento de estos dos acercamientos. de problemas, y el de la segunda, el aprendizaje. Si bien
Según las aproximaciones expuestas, hacia los años 50 ambas líneas resultaron prolíferas en sus inicios, hacia
comienzan a perfilarse dos grandes programas de inves- fines de los años 60 las investigaciones con ANN resul-

Figura 1. Proceso en paralelo: Es un proceso que se lleva a cabo a partir de muchos elementos procesadores
que trabajan simultáneamente y en forma independiente. El trabajo final resulta, por lo tanto, de las diversas
subtareas realizadas en cada uno de estos elementos.

Planteo del problema

Procesador Procesador Procesador


1 2 N

Resultado Final

Recibido: 23 nov. 2005 Aceptado: 7 dic. 2005

Instituto de Ciencias Básicas y Medicina Experimental, Hospital Italiano de Buenos Aires.


Correspondencia: victoria.weisz@hospitalitaliano.org.ar

URL:http://revista.hospitalitaliano.org.ar
Weisz V. y col. Modelizando el cerebro: redes neuronales y artificiales 131

taron francamente frenadas (a excepción de unos pocos EL CONCEPTO DE ANN


grupos que siguieron trabajando en el tema), a raíz de la Las redes neuronales artificiales aparecen en un intento
publicación de un libro de Marvin Minsky y Seymour de explicar de qué forma el cerebro, a partir de opera-
Papert (Perceptrons). Ambos del Instituto Tecnológico ciones simples entre sus elementos constitutivos (las
de Massachussets (MIT) y pertenecientes a la AI. En el neuronas) podría dar lugar a propiedades emergentes
libro se presentaba un detalle exhaustivo de las limita- (ver recuadro), tales como el aprendizaje y la memoria.
ciones del Perceptrón, la primera red neuronal artificial Para eso emplea operaciones matemáticas sencillas que
desarrollada por Frank Rosenblatt en 1957 y que por en- gobiernan el estado de sus elementos (neuronas, nodos)
tonces resultaba muy prometedora. Esto generó que mu- y su funcionamiento global cuando se hallan agrupadas
chas de las investigaciones se volcaran a la AI. Recién en red. Estas operaciones no son arbitrarias, sino que
hacia 1980 resurge el interés por las Redes Neuronales intentan modelizar lo que se conoce acerca del funcio-
(muchos le reconocen este mérito a John Hopfield, a partir namiento de las redes neuronales reales y el procesa-
de un modelo que presenta con su nombre). El resurgi- miento de la información en el cerebro, en forma sim-
miento se debió también en parte al advenimiento de plificada. Los principios en los que se basan estos mo-
procesadores más potentes (necesarios, ya que se requiere delos son los siguientes:
el proceso en paralelo de un gran número de elementos) • Los procesos cognitivos involucran operaciones neuro-
(fig. 1). Por otra parte, si bien la AI permitió resolver nales en paralelo.
problemas complejos, no ha podido recrear habilidades • Cada neurona dentro de una red funciona como esta-
cognitivas sencillas, como el manejo de la imprecisión. ción de paso integrando y procesando las señales que
La imprecisión es un factor importante en los procesos le llegan.
cognitivos humanos, ya que nos permite generar una res- • El resultado de las operaciones computacionales bási-
puesta ante estímulos que no estén absolutamente claros cas en el cerebro consiste en la sumatoria de señales que
o completos, como entender el significado de una ora- pasan de una neurona a la subsiguiente o subsiguientes
ción aunque no hayamos escuchado bien una palabra, o en la red neuronal.
reconocer una cara familiar aunque la veamos borrosa. • La información, ya sea de una señal entrante o que re-
presente la memoria de la red de eventos pasados, se
LOS MODELOS CEREBRALES encuentra distribuida a lo largo de las neuronas y sus
La modelización que nos ocupa aquí pretende enten- conexiones.
der y modelizar cómo procesa el cerebro la informa- • El aprendizaje cambia las fuerzas de las conexiones en-
ción que le llega y establece las pautas a seguir para tre neuronas y por lo tanto la influencia que tienen una
resolver diversos problemas. Su antecedente moderno neurona en particular sobre otra.
es el trabajo pionero de McCulloch y Pitts, con la pre-
sentación de su neurona formal (fig. 2). En relación a
los modelos del cerebro en general, estos responden a Propiedad emergente
Es una propiedad de un sistema que no puede ser predicha
dos direcciones opuestas: a partir de las propiedades de sus componentes. Surge
1. Modelos de abordaje top-down: enfocados a lo obser- sólo a partir de la interacción de sus elementos constituti-
vable desde afuera, tomando el cerebro como una caja vos, presentando un comportamiento más complejo que
éstos. Como tales, las propiedades emergentes son difíci-
negra (midiendo, por ej., respuestas comportamentales les de predecir, así como el número crítico de elementos
ante determinados estímulos) para luego, a partir de necesarios para que se presenten. En nuestro medio quien
ahí, poder plantear hipótesis acerca de los principios más ha sostenido la doctrina emergentista en relación al
sistema nervioso es Mario Bunge. Para éste, las propieda-
subyacentes en niveles de sistema inferiores y con el des mentales de un sistema nervioso central no las poseen
objetivo último de llegar a la explicación de dichos sus componentes celulares sino que son propiedades
principios a nivel celular. sistémicas, no resultantes de suma de partes de la emer-
gencia a lo largo de procesos evolutivos complejos.
2. Modelos de abordaje bottom-up: centralizados en los
procesos que ocurren dentro de la célula y en su inte-
racción con las demás, como base sustentadora de los
sucesos observados desde arriba. ELEMENTOS DE LAS ANN
Los nuevos enfoques tienden a acortar las distancias entre Contribuciones importantes en el área de las ANN a partir
estos extremos integrando cada vez más los aportes de cada del modelo de neurona de Mc Culloch y Pitts fueron las
uno. Dentro de este grupo encontramos a las ya mencio- de Donald Hebb (fig. 3), previo a los primeros modelos de
nadas ANN. redes. Sus aportes darán lugar a la regla de aprendizaje
132 Rev. Hosp. Ital. B.Aires Vol. 25 Nº 3/4, diciembre 2005

El modelo de neurona
Warren Mc Culloch, un neurofisiólogo y Walter Pitts, un matemático, ambos pertenecientes al movimiento cibernético que
intentaba teorizar sobre la autonomía de los sistemas vivos o artificiales, presentan en 1943 el primer modelo de lo que
constituye una parte fundamental del trabajo con ANN: la descripción matemática de cómo opera una neurona. El modelo, que
ellos denominaron neurona formal, plantea básicamente lo siguiente: cada neurona se encuentra unida a otras a través de
conexiones y tiene dos estados posibles: activo (1) e inactivo (0). El estado activo se produce cuando la neurona alcanza un
determinado nivel o grado de activación, generado a partir de las conexiones que posee (que tienen la propiedad de ser
excitatorias o inhibitorias), y que dependerá del estado de las neuronas que se conectan a ella. El esquema sería el siguiente:

Dendrita

Sinapsis
Oi= f (Σj Wij Oj)

Wij
Σ
Axón
Axón

Oj
Neurona

Figura 2. Modelo de neurona. Al igual que en una neurona biológica, se establecen sinapsis entre
dendritas de una neurona y el axón de otra. En una neurona artificial a la información (entradas)
que viene de otras neuronas se les asigna un peso (wij), es decir, un factor de importancia. Con
estas entradas y los pesos sinápticos, se lleva a cabo una operación que consiste en sumar las
entradas (S), teniendo en cuenta la importancia de cada una (el peso sináptico asociado a cada
entrada). El valor que se obtiene se filtra y así se tiene la salida (Oi) de la neurona.
Este modelo, si bien ha sido seguido por numerosas variantes, sigue siendo ampliamente utilizado
en la actualidad.

denominada Regla de Hebb. La regla de aprendizaje será nientes del exterior (representando de esta manera al sis-
la que regirá el cambio en los valores de los llamados pe- tema sensorial), una capa de salida, que será la que pre-
sos de las conexiones (que reflejan la eficacia sináptica de sente las respuestas del sistema (representando por ejem-
las mismas). Se dice que la red neuronal va aprendiendo plo al sistema motor cuando la respuesta sea de este tipo)
de la experiencia, modificando sus pesos (mediante esta y un tercer grupo de capas, que pueden ser más de una,
regla que no es más que una fórmula matemática) a medi- que representan el conjunto de neuronas que se encuen-
da que va adquiriendo información del mundo exterior. tran interpuestas entre las capas de entrada y salida. Es-
Los elementos necesarios al momento de definir una red tas últimas se denominan capas intermedias u ocultas,
neuronal artificial son: son internas a la red, y no tienen contacto directo con el
1. El modelo de neurona. entorno exterior (fig. 4). En estos modelos, los nodos pue-
2. La regla de aprendizaje. den representar neuronas individuales o grupos de neu-
3. La configuración o arquitectura de la red. ronas (representando por ejemplo, estructuras cerebrales
Se denomina arquitectura a la manera en que se dispo- independientes como núcleos).
nen los nodos o neuronas (número, patrón de conectivi-
dad, número de capas1). Una disposición típica consiste
en agrupar a las neuronas en capas de tres categorías: 1. Conjunto de neuronas cuyas entradas provienen de la misma
una capa de entrada, que recibirá los estímulos prove- fuente y cuyas salidas se dirigen al mismo destino.
Weisz V. y col. Modelizando el cerebro: redes neuronales y artificiales 133

Figura 3. La regla de Hebb


Donald Hebb fue un importante psicólogo y catedrático de la Universidad de Mc Gill en Montreal, Canadá. En 1949 presenta su
libro más influyente, The Organization of Behavior, donde establece una conexión entre cerebro y conducta. Su idea sobre
reforzamiento sináptico dará lugar a la regla de aprendizaje que lleva su nombre, que plantea lo siguiente: si una neurona participa
reiteradamente en la activación de otra con la cual se encuentra conectada (es decir, si se encuentran activadas al mismo tiempo),
entonces la fuerza de la conexión que las une (es decir, la habilidad que poseerá la primer neurona para activar a la segunda) se
verá incrementada.

1 1

4 4
2 2

3 3

a. Los nodos 1 y 4 se activan b. La conexión entre ellos se refuerza

Figura 4. Disposición en capas


1 2 3

Entradas Salida

1. Capa de entrada
2. Capa oculta
3. Capa de salida

CARACTERÍSTICAS GENERALES tidas por los sistemas computacionales no-biológicos.


Y APLICACIONES DE LAS ANN Estos últimos no suelen ser inmunes al daño o a entradas
Una de las razones por las cuales la teoría de ANN resul- que no sean exactas y son en general direccionables por
ta tan atractiva, es que estos modelos, independientemente posiciones específicas de memoria (por ejemplo, el dis-
de la performance que puedan lograr a la hora de repro- co rígido de la computadora).
ducir una tarea, poseen ciertas características generales El fuerte de las redes neuronales artificiales radica en el
que encontramos en los procesos cognitivos humanos. reconocimiento y clasificación de patrones2, por lo cual
Por ejemplo, el sistema puede seguir funcionando a pe- admiten un gran número de aplicaciones en campos tan
sar de sufrir algún tipo de daño menor en su estructura, diversos como la industria, las finanzas, y la medicina (para
mantiene una buena performance cuando se le presentan
entradas distorsionadas o imprecisas, y permite acceder
al conjunto de datos almacenados por contenido, es de- 2. Estructura de datos de rasgos distintivos. Por ejemplo, cada
cir, utilizando una parte de la información que se quiere una de las cartas pertenecientes a un mazo con sus característi-
recuperar. Estas propiedades surgen debido a que la mis- cas (número, color, símbolo) que se presentan a una red para que
ma se encuentra distribuida a lo largo de los pesos de las las separe por palos. Dentro de un sistema, una característica
conexiones de la red, presentando, al igual que el cere- que se repite en forma regular. Ejemplo, en un dado convencio-
bro, una gran redundancia, y en general no son compar- nal, el uno siempre está en la cara opuesta del seis.
134 Rev. Hosp. Ital. B.Aires Vol. 25 Nº 3/4, diciembre 2005

análisis, predicción y diagnóstico) entre muchos otros. Pero lados con el tema introducido: el primero relacionado con
quizás los aportes más interesantes hayan sido aquellos la evolución, y el segundo con el envejecimiento de ANN.
orientados al estudio de las funciones cognitivas. Aquí
encontramos, por ejemplo, desde modelos de lectura en LA HIDRA: EL PROTOTIPO DE LA RED
voz alta, modelos capaces de conjugar verbos, modelos NEURONAL BIOLÓGICA
que indagan sobre los mecanismos del aprendizaje y la La idea principal del primero de los proyectos, es modeli-
memoria y sobre los mecanismos de la percepción, hasta zar el comportamiento de un organismo simple utilizando
el desarrollo de otros que simulan daño cerebral, como los como herramienta redes neuronales artificiales, con el ob-
modelos de dislexia, afasias y acalculias entre otros. jetivo final de hacer evolucionar esta red. El modelo que
Desde nuestro Departamento de Biología Teórica en el estamos desarrollando intenta imitar el comportamiento de
ICBME (Instituto de Ciencias Básicas y Medicina Expe- la hidra, un cnidario (como las aguas vivas o medusas), que
rimental del Hospital Italiano de Buenos Aires), nos en- habita en aguas dulces, considerado el primer organismo en
contramos abocados al desarrollo de dos proyectos vincu- la escala evolutiva que presenta sistema nervioso (uno de

Figura 5. RNA para locomoción en hidra (RNA, red neuronal artificial).

Iteración Nº 1 Iteración Nº 100 Iteración Nº 1880


Luz -0, -0,47 Luz Luz
15 -0, -0,55 -2, 1,08
74 42
0,5 2,6
3 5 2,6
Oxígeno -0,29 -0,
15 Oxígeno -0,82 -4, Oxígeno -2,44
6
-7,
0,0 26 00
4 0,1 0,4
9 4
6
Predador -0,9 53 -5,2
8 8
0,19 0, Predador 00 Predador -7,6 80
1,02 2, 0,95 2,
3
41

0,8
80

9 6
4, 0 4,0
0,

2
3,

5,
Presa Presa Presa
0,58 2,87 2,52

La RNA tiene cuatro neuronas de entrada, cada una representando un estímulo (luz, oxígeno, predador y presa) ante el que la
hidra debe responder desplazándose, una capa oculta con dos neuronas, que es la mínima estructura con la que la red apren-
dió esta función y una neurona a la salida que puede tomar dos valores posibles: activo (la hidra se desplaza), inactivo (la
hidra permanece inmóvil). El tipo de aprendizaje que se utilizó para esta red fue de tipo hebbiano, es decir, se planteó una
estructura fija para la red y durante el aprendizaje fueron variando los valores de los pesos de conexión entre neuronas, que
presentan la fuerza sináptica de unión (pesos positivos: sinapsis excitatoria, pesos negativos: sinapsis inhibitoria). Se pueden
ver en esta gráfica tres estadios del aprendizaje de la red en relación con el error cuadrático medio de la misma. Puede verse
cómo van cambiando los valores de los pesos desde la iteración Nº 1, de donde son elegidos al azar los patrones Entrada-
Salida Deseada (por ejemplo, Entrada=Presencia de predador, Salida Deseada= Desplazamiento) y mediante una regla de
aprendizaje se van ajustando los valores de los pesos. Esto se repite hasta que la red aprende, es decir, hasta que la red
responde de la forma deseada a todos los patrones de entrada (cabe aclarar que en algunos casos esto no se consigue y
entonces se entrena la red hasta conseguir un mínimo error). Cuando apliquemos evolución, el aprendizaje también involucra
modificaciones en la estructura de la red.
Weisz V. y col. Modelizando el cerebro: redes neuronales y artificiales 135

los motivos que nos llevó a elegir a este organismo para de un predador, la falta de oxígeno y la presencia de una
modelizar). La primera etapa es el desarrollo de la red neu- fuente de luz. También sabemos que este desplazamiento
ronal artificial, con el objetivo de obtener un organismo ar- queda inhibido por la presencia de una presa. Entonces,
tificial análogo al organismo biológico en cuanto al com- nuestro objetivo es desarrollar una red neuronal artificial
portamiento, es decir, no un desarrollo del sistema nervioso que aprenda a responder ante estos estímulos de la misma
de la hidra, sino una imitación de su comportamiento utili- manera que lo hace la hidra (fig. 5). Una vez que finalice-
zando para esto las ANN. Por ejemplo, sabemos que la hidra mos con nuestra "hidra artificial" procederemos a la evolu-
es un organismo sedentario, pero que ante ciertos estímulos ción de la misma mediante la aplicación de operadores ge-
reacciona desplazándose. Estos estímulos son la presencia néticos como cruza y mutación. Estos operadores se basan

Figura 6. Simulación red hipocampal (segmento implementado)

1. Formación de memoria en hipocampo


a. Conjunción de eventos en Corteza Entorrinal1.
b. Pasaje de información a Giro Dentado2.
c. Almacenamiento de patrón en CA32.



2. Recuperación a partir de fragmento
a. Presentación de fragmento en Corteza Entorrinal.
b. Pasaje de información a Giro Dentado.
c. Pasaje a CA3.
d. Iteración en CA3 hasta completar patrón original.


CE
CE: Corteza entorrinal
600 neuronas GD: Giro dentado
a

GD b
1.000 neuronas

CA3 c d
1.000 neuronas

HIPOCAMPO

1. Estructura adyacente al hipocampo.


2. Región del hipocampo.
136 Rev. Hosp. Ital. B.Aires Vol. 25 Nº 3/4, diciembre 2005

en la teoría de selección natural de Darwin. Lo que se espe- nes adyacentes. Sin ser el lugar de almacenamiento a lar-
ra conseguir de esta evolución son nuevas redes neuronales go plazo, el hipocampo sería el encargado de codificar
artificiales que superen a la original, es decir, cuyo compor- en un solo patrón informaciones sensoriales, así como
tamiento sea superior al comportamiento de la red de la que de tiempo y espacio. La conjunción con información
se partió. Y por qué no, encontrarnos con que alguna de emocional regularía su pasaje a otras regiones cerebrales
estas redes se comporta de forma comparable a algún orga- para su establecimiento como memorias definitivas.
nismo real más evolucionado. El modelo plantea entonces cómo un conjunto de eventos
independientes que hacen a un hecho en particular (con in-
ENVEJECIMIENTO Y REDES DEGENERADAS formación de quiénes, dónde, cuándo) pueden conformar
El segundo proyecto intenta indagar acerca del deterioro una única memoria a medida que va pasando por las distin-
que se produce en las redes neuronales reales debido al tas regiones del hipocampo, y cómo ésta puede luego
envejecimiento, a partir de un modelo de ANN que reali- reestablecerse a partir de algunos de los eventos individua-
ce alguna función cognitiva determinada y cuya perfor- les (por ejemplo, recordar dónde a partir de quiénes y cuán-
mance se vea afectada a lo largo de este proceso. La fun- do) (fig. 6).
ción normal que se intenta modelizar, como primera ins- La segunda fase del trabajo intentará investigar qué cam-
tancia del trabajo, es la formación de un tipo particular bios en la red pueden llevar a que ésta comience a presen-
de memoria, denominada episódica, que requiere de la tar un deterioro en su función semejante al proceso cono-
asociación arbitraria de un conjunto de eventos que des- cido como envejecimiento, permitiéndonos explorar los
cribe un episodio pasado. Esta memoria es la que, por lo efectos de posibles estrategias de abordaje que difícilmente
tanto, va procesando la información de los sucesos dia- podrían llevarse a cabo en sistemas reales.
rios. La función mencionada sería llevada a cabo por el Como vimos, éste representa un campo muy prometedor
hipocampo (una estructura del cerebro que se encuentra y fascinante, y esperemos que permita encontrar nuevas
en el lóbulo temporal y que ha sido ampliamente estu- explicaciones para los desconocidos procesos de la mente
diada y modelizada por más de dos décadas) y sus regio- y la naturaleza.

BIBLIOGRAFÍA

- Bullinaria JA. Modelling the acquisition of modelos y aplicaciones. Addison-Wesley Smelser NJ, Baltes PB, (eds.). En: International
reading skills. En: Sorace A, Heycock C, Iberoamericana, 1995. Encyclopedia of the Social and Behavioral
Shillcock R, (eds.). Proceedings of the GALA - Hinton GE, Plaut DC, Shallice T. Simulating Sciences. Oxford: Pergamon Press, 2001. p.
’97 Conference on Language Acquisition. brain damage. Scientific Am 1993; 269: 76-82. 2114-20.
Edinburgh: HCRC, 1997. p. 316-21. - McLeod P, Plunkett K, Rolls E. Introduction - Rolls E, Treves A. Neural networks and brain
- Haykin S. Neural networks: a comprehensive to connectionist modelling of cognitive function. Oxford: Oxford University Press,
foundation. Englewood Cliffs, N.J.: Prentice- processes. Oxford: Oxford University Press, 1999.
Hall, 1985. 1998. - Westermann G. Constructivist neural network
- Hilera González J, Martínez Hernando V. - Plaut DC. Models of normal cognitive models of cognitive development. [PhD Thesis].
Redes neuronales artificiales: fundamentos, functions and neuropsychological deficits. In: The University of Edinburgh, 2000.

Você também pode gostar