Escolar Documentos
Profissional Documentos
Cultura Documentos
1
1
.
Vapnik (1982) muestra cmo, de acuerdo a los teoremas clsicos de
la teora de probabilidad, el riesgo emprico puede ser minimizado con
respecto a los parmetros libres del aprendiz cuando el tamao de la
muestra de ejemplos de entrenamiento (y por lo tanto el tiempo de
cmputo para ste) tiende a ser infinitamente grande. Podemos ofrecerle
al estudiante la esperanza de aprender a resolver todas las ecuaciones
diferenciales del mundo, si puede vivir lo suficiente para ello. La media
emprica de la funcin de prdida converge entonces a su valor
esperado, y que est definido analticamente a travs de la funcin
terica de riesgo:
R
emp
(W) R(W) cuando t y/o N
Donde t indica el tiempo de entrenamiento
En general, el principio de minimizacin de riesgo emprico afirma
que si la funcin emprica de riesgo se aproxima a la funcin de riesgo
terico, con un error infinitesimal de precisin s, entonces la
probabilidad de que el mximo valor que puede resultar de la diferencia
absoluta entre los vectores d e y sea mayor al error de precisin,
Convergencia y estabilidad de las funciones de aprendizaje
28
converge a cero cuando el tamao de la muestra o el tiempo de
entrenamiento tienden a infinito. A esta hiptesis se la conoce con el
nombre de hiptesis de onvergencia uniformey es utilizada por Vapnik
y Chervonenkis en su teora del aprendizaje para establecer los lmites
tericos de la tasa con la cual el factor de error converge a cero
(Vapnik, 1982):
P( L d y [ ; )] ) > s 0 cuando t y/o N
La teora no insiste en que el aprendizaje deba ser perfecto (Russell
y Norvig, 1995), se considera aceptable una hiptesis que tenga cierto
grado de certeza predictiva. Bajo esta condicin, dentro del espacio de
hiptesis posibles H, una hiptesis cualquiera es aproximadamente
correcta si la probabilidad del error de prediccin o su aproximacin
emprica es menor o igual a la constante infinitesimal s:
P[R
emp
(W)] s
La probabilidad de que una hiptesis completamente errnea (el
peor caso) sea consistente con los primeros m ejemplos puede ser
calculada teniendo en cuenta que la probabilidad de error de la hiptesis
debe ser mayor a la constante infinitesimal s, por lo tanto, la
probabilidad de que concuerde con cualquiera de los ejemplos de la
muestra es menor o igual a la unidad menos la constante:
P[h] (1 s)
Si consideramos los primeros mejemplos, o ejercicios que tom el
estudiante de matemticas, la probabilidad de que la hiptesis errnea, y
por lo tanto la hiptesis que no le sirve para aprobar el examen,
concuerde con todos ellos satisface la desigualdad:
FABIO E. MARTINEZ C.
29
P[h] (1 s)
m
La teora computacional del aprendizaje, a pesar de ser un activo
campo de investigacin que est an en sus primeras etapas de
desarrollo, ha generado una nueva forma de abordar los problemas
implicados en los procesos de aprendizaje. Su elegancia y soporte
estadstico nos proporciona bases conceptuales para formular modelos
que exploran analticamente los lmites de la generalizacin y la
prediccin en el aprendizaje. Los supuestos sobre los que se fundamenta
la teora nos obliga a cuestionar los criterios empleados para
seleccionar los ejemplos de entrenamiento, y a evaluar sus
consecuencias sobre la magnitud de los errores de generalizacin
obtenidos a largo plazo, por ejemplo: El conocimiento del estudiante
adecuado y suficiente para resolver problemas ms avanzados de clculo
vectorial?
En los prrafos subsiguientes mostrar la pertinencia que tiene esta
teora para analizar los mecanismos de aprendizaje formulados por el
paradima conexionista, y cmo el concepto de convergencia uniforme
proporciona un marco terico adecuado para estudiar desde un punto de
vista neurocomputacional la propiedad de estabilidad ligada a las reglas
o funciones de aprendizaje conexionistas.
Convergencia y estabilidad de las funciones de aprendizaje
30
NEURODI NAMI CA Y CONEXI ONI SMO
Nunca he visto con mis propios ojos, humildes escrutadores del tiempo, la
actividad celular del caracol marino hermissenda crassicornis en curso. Y menos
an, su crecimiento a partir de minsculas partculas de ADN. Tan slo puedo
imaginarme un concierto de tejidos musicales. Por director, el tiempo, y por
intrpretes los millares de enjambres celulares que pueden componer el plido
reflejo del pensamiento humano
La neurodinmica es la ciencia que explora el intenso drama que
experimentan las clulas de tejido vivo que conocemos como neuronas,
por ejemplo, durante la activacin de un movimiento muscular. Junto
con el estudio de los cambios que ocurren en el tejido nervioso, los
investigadores de esta rama de las neurociencias buscan adquirir
herramientas analticas que les permitan evaluar el grado de orden que
existe en las organizaciones neuronales, y extractar las propiedades del
funcionamiento estable caracterstico de los patrones de actividad
neuronal.
El estudio cuantitativo del sistema nervioso tiene una tradicin
relativamente reciente en la historia de las neurociencias (Hodkin y
Huxley, 1952; Holden y Winlow, 1983; Rashevsky, 1938). Por ejemplo,
los estudios de Helmhotz sobre la velocidad de conduccin y de
FABIO E. MARTINEZ C.
31
transmisin nerviosa, fueron iniciados hacia comienzos de la segunda
dcada del siglo XIX. Tambin en esta tradicin, Hodgkin y Huxley,
dieron a conocer sus investigaciones sobre la conduccin de potenciales
en la membrana neuronal. Con este fundamento la investigacin en
neurodinmica utiliza el potencial de la matemtica diferencial para
modelar la naturaleza dinmica del funcionamiento del sistema nervioso.
Para estudiar la evolucin temporal de la actividad cerebral, se disean
modelos computacionales que representan el comportamiento de la
actividad neuronal en forma de soluciones a ecuaciones abstraen
propiedades y funciones imputadas a las clulas nerviosas.
Una Neurona tpica tiene tres componentes principales: (i)
dendritasque debido a su rea de extensin espacial y a su gran nmero
de ramificaciones se sabe que en una clula de Purkinje promedio, se
encuentran cerca de 10.000 sinpsis son los principales rganos
receptores de los impulsos bioelctricos que viajan procedentes de otras
clulas nerviosas, (ii) un cuerpo celular o soma, que tambin recibe
impulsos de otras neuronas, pero su funcin principal es procesar las
caractersticas espaciales y temporales de los patrones de potencial
elctrico que afectan a la membrana celular. En una regin lmitrofe de
ella se ubica (iii) el axn. Gracias a los estudios neurobiolgicos del
procesamiento en membrana se sabe que la intensidad del potencial en el
soma tiene un efecto no lineal y probabilstico sobre la excitacin
elctrica de la regin de membrana en la parte inicial del cono axnico.
Este efecto es conocido en la literatura como el principio de disparo del
"todo o nada" (Bridgeman, 1988; Guyton, 1994), el cual dictamina que
el disparo es ocasionado tan slo cuando el potencial de membrana se
Convergencia y estabilidad de las funciones de aprendizaje
32
aproxima a un determinado valor probabilstico de umbral. El potencial
se propaga por toda la membrana del axn a una velocidad de casi 100
metros por segundo en las neuronas ms rpidas del sistema nervioso (el
sistema senso-motriz). El impulso elctrico es enviado hacia las
terminaciones axnicas en donde se ocasiona el proceso de transduccin
electrico-qumica que esparce en el lquido extracelular molculas
neurotransmisoras, y que en comunin con otros impulsos se funde en
una seal espacio-temporal que se moviliza por el Sistema Nervioso
como un murmullo de voces.
Cuando McCulloch y Pitts se enfrentaron a la tarea de elaborar su
anlisis lgico-computacional del procesamiento nervioso, averiguaron
que una neurona interconectada con otras, al igual que una Mquina de
Turing, poda computar cualquier funcin booleana. Dicho en otros
trminos, el tejido nervioso tiene una habilidad natural para aproximar
funciones matemticas. En el anlisis cuantitativo que llevaron a cabo
estos autores, un patrn de impulsos provenientes de las neuronas
presinpticas, es considerado como un vector x cuyos elementos son
datos de entrada que ingresan a las dendritas de la neurona (seales
aferentes). Los potenciales de accin (las seales eferentes) son, a su
vez, considerados como un vector y de variables de salida.
Al igual que un estudiante resuelve una ecuaciones diferenciales
aplicando ciertos procedimientos o reglas de transformacin, el
procesamiento que se lleva a cabo en la membrana de una neurona vara
en funcin del tiempo siguiendo leyes de organizacin que parecen ser
intrnsecas al funcionamiento a nivel celular del sistema nervioso. Los
FABIO E. MARTINEZ C.
33
receptculos de la informacin neuronal las dendrtas y el soma,
reducen a una sla seal todos los impulsos que reciben. Es por eso que
bajo un tratamiento matemtico el procesamiento de la membrana se
considera como una funcin que integra los datos aferentes, y la
transduccin electrobioqumica que acontece en las sinapsis se concibe
como una variable w que asigna una importancia relativa a cada una de
los impulsos posinpticos.
En el ejemplo gua presentado en el captulo anterior, el
conocimiento actual (al menos durante el examen) del estudiante fue
representado como un estado definido por unos parmetros libres w. Sin
embargo, no he especificado an cmo caracterizar este estado, es decir,
cmo est representado su conocimiento de lgebra, geometra y
clculo. Lo he considerado de manera muy general desde el marco de
referencia de la Mquina de Turing, como el estado de un mecanismo
abstracto (Ej.: el de una calculadora). El Sistema Nervioso nos ofrece
una respuesta ms concreta: el conocimiento est almacenado en los
tejidos neuronales. El Sistema Nervioso del estudiante puede ser tratado
entonces como un sistema de procesamiento masivamente paralelo (un
modelo PPD) que tiene la propiedad de representar el conocimiento a
travs de la actividad neuronal.
Un tejido no hace honor a su definicin si no existen puntos de
interconexin, en este caso las sinapsis. Estas son las variables que
indican el grado de intensidad o fortaleza de la conexin (w) que existe
entre una neurona presinptica cualquiera y las posinpticas de las
cuales recibe seales electroqumicas (los potenciales de accin). El
concepto de conexin es un constructo hipottico de gran importancia
Convergencia y estabilidad de las funciones de aprendizaje
34
para el Conexionismo de ah justamente el nombre de este
paradigma, y en especial para las teoras de plasticidad y aprendizaje
basadas en l, puesto que permite asignar una importancia diferencial a
cada una de las seales aferentes x. Al conjunto de valores de conexin
sinptica, que representan el estado de un sistema conexionista, se le
denomina matrizde conexiones o matriz de configuracin sinptica (W).
Interpretndola geomtricamente, cada una de las conexiones es
representada como una dimensin, un eje de coordenada en un espacio
vectorial multidimensional. Por ejemplo, si consideramos una neurona
con tan slo tres sinapsis una rareza neuroanatmica, obtendriamos
un espacio vectorial de tres dimensiones. En este cubo abstracto,
cualquier matriz de conexin sinptica corresponde a algn punto del
volumen. Cuando por alguna razn las conexiones sinpticas sufren un
proceso de cambio (sea el debilitamiento o la intensificacin de la
sinapsis), se produce un desplazamiento o cambio de posicin en el cubo
desde un punto del volumen hacia otro.
De esta manera podemos representar la evolucin en el tiempo de
un estado conexionista mediante la trayectoria descrita entre los puntos
inicial y final del desplazamiento, en un espacio W abstracto y
multidimensional que llamar espacio de fases. En el Sistema Nervioso,
la trayectoria de un estado en el espacio de fases, es decir el cambio de
configuracin en la matriz de conexiones de ste, puede deberse a varias
razones: una lanza que atraviesa el lbulo prefrontal del cerebro, la
extirpacin o implantacin quirrgica de tejido, procesos de desarrollo
embrionario, degeneracin neuronal o plasticidad sinptica. Los tres
FABIO E. MARTINEZ C.
35
ltimos factores de cambio tericamente podran ser descritos
matemticamente a travs de funciones de transformacin que permitan
calcular el desplazamiento en el espacio de fases a lo largo del tiempo.
Desde la perspectiva conexionista, la funcin de plasticidad es
considerada como una regla que gobierna los cambios que ocurren en
las conexiones del sistema y, por ende, los cambios de posicin en el
espacio de fases. Matemticamente, estos cambios se representan como
la diferencia entre los puntos final (la configuracin actual) e inicial (la
del instante anterior):
W = W
estado final
W
estado inicial
Cuando ponemos estas consideraciones en funcin del tiempo, la
regla de cambio del aprendizaje se transforma en una funcin dinmica
de estado, es decir, en una funcin que permite calcular para cada
instante de tiempo, y punto a punto, la trayectoria (u rbita) de
desplazamiento de la matriz W:
W (t) = W(t)
estado final
W(t-1)
estado inicial
Utilizando el teorema fundamental del clculo, un estudiante de
matemticas no encontrara dificil hallar el sistema de ecuaciones
diferenciales parciales que describen de manera continua (en el tiempo),
la velocidad o razn de cambio de W en el espacio de fases:
Lim
W t
t
W t
t
t
=
0
( ) ( )
Reglas de plasticidad sinptica
El postulado que Hebb formul en 1949 nos ofrece un mecanismo
biolgicamente plausible para la funcin dinmica conexionista, un
Convergencia y estabilidad de las funciones de aprendizaje
36
mecanismo que transforma un estado inicial en un estado final y que se
asocia a fenmenos de aprendizaje y memoria:
"Cuando el axn de una clula A est lo suficientemente cerca como
para excitar una clula B, y repetida o persistentemente contribuye a
producir su disparo, algn proceso metablico o de crecimiento toma
lugar en una o ambas clulas de tal forma que la eficiencia de A como
una de las clulas que pueden activar a B, es incrementada." (Donald
Hebb, 1949, pg. 56)
Aparte de su importancia desde el punto de vista neurobiolgico,
esta hiptesis ha recibido una gran acogida en el paradigma
conexionista debido a que explica los fenmenos de plasticidad neuronal
de una manera computacionalmente viable. Por ejemplo, esta
posibilidad de reducir a los principios de procesamiento de informacin
la regla hebbiana, ha permitido desarrollar experimentos de simulacin,
tales como los realizados por Alkon y cols (1990), para someter a prueba
teoras neurocomputacionales sobre el condicionamiento de movimientos
reflejos en el sistema nervioso del caracol marino Aplysia, y sobre los
procesos de almacenamiento y memoria relacionados con el hipocampo
(Kandel y Hawkins, 1993).
Los ncleos neuronales del hipocampo, una estructura del lbulo
temporal, y una formacin relacionada, la amgdala, son considerados
como zonas corticales de procesamiento temporal (consolidacin de
memoria transitoria) esenciales para el aprendizaje a largo plazo. En el
ao de 1973, los investigadores Timothy Bliss y Terje Lomo
comprobaron que una serie breve y de alta frecuencia de potenciales de
accin en las vas neuronales interiores del hipocampo intensifica la
fuerza sinptica en dicha va a travs de un proceso celular conocido
como Potenciacin a Largo Plazo (PLP). Las pruebas de laboratorio
FABIO E. MARTINEZ C.
37
mostraron que la actividad correlacionada de las neuronas
presinpticas y de la membrana posinptica es una condicin suficiente
para que ocurra un proceso de PLP. Desde un punto de vista
conexionista la regla de aprendizaje propuesta por Hebb, aplicada
localmente a cada una de las sinapsis, vara en funcin de las seales
aferentes (A) y de las eferentes (B):
w (t) = f(A, B)
La regla hebbiana de aprendizaje presentada de esta manera ha
permitido derivar otros mecanismos de auto-organizacin observados en
otras partes del tejido nervioso, tales como el sistema visual (Grossberg,
1976; Anderson, 1983; Linsker, 1986; 1988). Sin embargo, una
particularidad de esta expresin es que no contempla explcitamente una
variable para representar la seal de error tal como es formulada desde
el punto de vista computacional del aprendizaje. Esto significa que un
sistema que haga uso del principio hebbiano de aprendizaje para ajustar
su desempeo, no recibe retroalimentacin que lo gue globalmente
hacia un objetivo (de ah que sea un modelo neurodinmico de auto-
organizacin basada en interacciones locales) y por ende dejan de ser
aplicables los principios postulados por la teora Vapnik-Chervonenkis-
Valiant.
Luego de publicado el libro de Hebb, Frank Rossenblatt (1958), en
su artculo The perceptron: A probabilistic model for information
storage and organization in the brain proporcion al conexionismo una
funcin de aprendizaje vasada en un principio de correccin del error.
La regla de aprendizaje del perceptrn, es en trminos generales una
Convergencia y estabilidad de las funciones de aprendizaje
38
funcin que depende de un error de desempeo que se obtiene a partir de
la comparacin de la actividad actual (y) con un objetivo o meta de
desempeo ptimo (d). La funcin de aprendizaje en su modalidad ms
simple, es representada analticamente en los siguientes trminos:
w (t) = f( L d y [ ; )] )
w (t)= f( d F x W ( , ) )
El perceptrn de Rossenblatt ha sido fuente de inspiracin para
los desarrollos tericos que se formularan luego que Marr y Albus
dieron a conocer sus modelos de aprendizaje en la corteza del cerebelo
(Marr, 1969; Blomfield y Marr, 1970; 1971; Dufoss, 1997; Houk,
Buckingham y Barto, 1997). El cerebelo es un soberbio aprendiz!. Las
teoras neurobiolgicas que intentan arrancarle a la naturaleza el
secreto funcional de este subsistema del Sistema Nervioso Central
(SNC), han barajado, a partir del trabajo de estos dos autores y de
aquellos que les sucedieron (Ito, 1970; Gilbert, 1975; Houk y Barto,
1992; Kawato y Gomi, 1992; Flamet y Ebner, 1997; Gielen, 1997) una
hiptesis que interpreta al cerebelo como un mecanismo de deteccin y
correccin de errores en el desempeo motor, y que durante las
secuencias de entrenamiento caractersticas de los problemas de
aprendizaje contribuye al orden del sistema sensorio-motriz. La
argumentacin de estas teoras de retroalimentacin del error se
sostiene en hallazgos anatmicos y funcionales que designan a una
estructura del bulbo raqudeo, la oliva inferior, como una fuente de
retroalimentacin de seales de error (principalmente de ndole somato-
sensorial) hacia la corteza cerebelar. A sta ltima confluye una va
FABIO E. MARTINEZ C.
39
aferente conformada por haces de fibras nerviosas (fibras trepadoras)
que crean sinapsis con una de las clulas ms estudiadas del sistema
nervioso, la clula de Purkinje. Una de las particularidades de este tipo
de neuronas es que junto con sus otras fibras aferentes, las fibras
paralelas, crea una geometra modular similar a una densa y altamente
organizada red de cableado.
Adems de esa propiedad arquitectnica, el cerebelo atrae la
atencin porque su actividad eferente es esencialmente inhibitoria, lo
cual hace que la corteza cerebelar sea, en trminos generales, un
subsistema de retroalimentacin negativa para otras estructuras del
Sistema Nervioso Central que tambin intervienen en el procesamiento
del control motor, principalmente reas de corteza frontal, sistema
vestibular, ganglios basales, y mdula espi nal (Guyton, 1994). El
circuito de la corteza cerebelar, por intermedio de las clulas de
Purkinje, contribuye a apaciguar la natural impulsividad de la actividad
motora, inhibiendo los ncleos neuronales sepultados en las zonas ms
internas del cerebelo y cuyos axones envan potenciales de accin que
viajan hacia sitios especficos del sistema vestibular, la formacin
reticular, el tlamo, la mdula espinal, y que finalmente, en las neuronas
de las regiones ms prximas a los tejidos estriado y liso, regularn las
secuencias de descarga bioelctrica que producen las contracciones
musculares que dan vida y movimiento a los organismos animales.
La retroalimentacin del error por vas aferentes de la oliva
inferior observada en la corteza cerebelar, y su efecto subsecuente sobre
las neuronas de Purkinje, ha concentrado los estudios experimentales de
los neurofisilogos sobre las reglas de aprendizaje y los mecanismos
Convergencia y estabilidad de las funciones de aprendizaje
40
celulares implicados en la generacin de patrones dinmicos de
actividad sensorio-motriz (Houk y Barto, 1992; Houk y cols., 1997;
Kawato y Gomi, 1992). Por la misma poca en que se comenzaban a
conocer las capacidades de desarrollo adaptativo de la PLP en el
hipocampo, los estudios de Marr (1969), Ito (1970) y Albus (1971)
buscaban un proceso similar en la plasticidad sinptica del cortex
cerebelar. Segn cuenta la historia (Houk y cols., 1997), Albus postul
una regla de aprendizaje verificada experimentalmente por Ito en aos
posteriores (Thompson, 1997), en la cual la intensidad de la conexin
sinptica decrece debido a la presencia en sincrona de la activacin de
la clula de Purkinje y la despolarizacin causada por las dos seales
aferentes provenientes de las fibras trepadoras, y de las fibras musgosas,
otra va aferente que, discurriendo por una capa intermedia de
interneuronas denominadas clulas granulares, origina las seales
procesadas por la capa molecular de la corteza cerebelar, nivel que
esencialmente est conformado por fibras paralelas. A este proceso de
debilitamiento sinptico debido a actividad conjunta pre y posinptica,
en analoga con la PLP, se le denomina depresin a largo plazo (DLP) y
ha dado lugar a la formulacin de una regla de aprendizaje de tres
factores (Houk y Barto, 1992): la sinapsis entre la terminacin axnica
de las fibras paralelas y alguna espina dendrtica de la clula de
Purkinje inicia un proceso de DLP si hay actividad presinptica de la
espina, junto con actividad posinptica ocasionada por la descarga de
otras fibras paralelas y de las fibras trepadoras (la seal de
entrenamiento proveniente de la oliva inferior). La regla de aprendizaje
FABIO E. MARTINEZ C.
41
de tres factores puede expresarse de manera similar a la regla
hebbiana salvo por el uso del concepto retroalimentacin del error:
w (t) = f(A, B, L d y [ ; )] )
Los mecanismos celulares de la PLP en el cerebelo fueron
propuestos por los investigadores James Houk, neurofisiolgo de la
Universidad Mdica Noroeste en Chicago, y Andrew Barto, del
Departamento de Ciencia Computacional de la Universidad de
Massachusetts. La hiptesis que elaboraron estos autores plantea que
un proceso PLP en una espina dendrtica es el resultado de la
presentacin simultnea de una descarga presinptica de las fibras
trepadoras en la clula de Purkinje, la ausencia de actividad
presinptica en la espina en cuestin, y la actividad posinptica
ocasionada por la despolarizacin en otras espinas. La regla de
aprendizaje para la induccin de PLP sera la siguiente:
W (t) = f(B, L d y [ ; )] )
Funcin generalizada de aprendizaje
La seal de retroalimentacin del error encontrada en los hallazgos
neurobiolgicos de procesamiento cerebelar y a la cual tambin la teora
Vapnik-Chervonenkis-Valiant se refiere, adopta en el Paradigma el
nombre genrico de seal de aprendizaje. Es considerada como una
cantidad (r) de informacin acerca del desempeo o adecuacin que
tiene la configuracin W de un tejido neuronal con relacin a las
condiciones ptimas exigidas para cumplir con los objetivos del
aprendizaje. Esto significa que la seal de aprendizaje, es un indicador
de error en la medida en que establece la diferencia entre el patrn de
Convergencia y estabilidad de las funciones de aprendizaje
42
impulsos generado por la actividad neuronal, y un patrn ideal de
desempeo ptimo. En un experimento tpico de aprendizaje
sensoriomotriz, por ejemplo, se pide a un individuo que siga con el dedo
ndice el cursor de una pantalla de computador; la retroalimentacin
visual le permite al individuo establecer el error de posicin de su dedo
con respecto al cursor, y con base en esta informacin su sistema
nervioso ajusta el comando neuromotor que produce el movimiento del
dedo hacia su objetivo. El error en la trayectoria del dedo con respecto a
la del cursor activa una seal que puede ser expresada matemticamente
como una funcin de prdida, tal como fue descrita en prrafos
anteriores: L d y [ ; )] .
Sobre estos argumentos, es posible establecer una regla general
para el aprendizaje que describe la trayectoria que sigue cada uno de los
valores de conexin sinptica durante un procedimiento de aprendizaje
cualquiera. Una ecuacin generalizada del aprendizaje puede
expresarse de la siguiente forma (Lin & Lee, 1996):
w (t) = r x
o tambin,
W t
t
( )
= r x
Donde x es la informacin de entrada o los datos de aferencia que
son recibidos a travs de la sinpsis en cuestin; el smbolo griego
representa un parmetro denominado constante de aprendizaje. En el
modelo conexionista este parmetro corresponde a un valor constante,
real y arbitrario de proporcionalidad que se introduce por conveniencia.
Las teoras clsicas de aprendizaje, como por ejemplo la teora de
FABIO E. MARTINEZ C.
43
condicionamiento clsico de Rescorla y Wagner (1972), incorporan
una nocin similar para identificar caractersticas perceptuales e
individuales que afectan el aprendizaje, y especialmente el tiempo
necesario de entrenamiento (Haykin, 1999; Lee, 1991; Lin y Lee, 1996;
Pearce, 1994). En un sentido similar, la constante de aprendizaje del
modelo puede verse como un factor que afecta o controla la velocidad, o
tasa de cambio de W.
Mediante una sencilla sustitucin puede mostrarse que la funcin
generalizada del modelo Lin-Lee permite representar la regla hebbiana
de aprendizaje y las reglas propuestas para explicar los mecanismos de
PLP y DLP:
r = B y x = A (regla hebbiana)
r = L d y [ ; )] B y x = A (regla de DLP)
r = L d y [ ; )] y x = A (regla de PLP)
La plasticidad sinptica asociada a los procesos neurobiolgicos de
aprendizaje, puede ser definida matemticamente en trminos de una
funcin dinmica de estado. Si consideramos a la seal de aprendizaje r
como una funcin cualquiera, tal que r = f[ x, W(t), d], entonces la
ecuacin dinmica de estado es expresada de la siguiente manera:
w t
t
( )
= f[ x, W(t), d]x
La estructura del tejido nervioso de la corteza cerebelar y de la
Oliva tiene una caracterstica que debera contemplar una ecuacin
dinmica del aprendizaje: con el tiempo tiende a cero. Las teoras
computacionales de aprendizaje cerebelar planteadas por Houk y cols.
Convergencia y estabilidad de las funciones de aprendizaje
44
(1997), han sido sometidas a prueba emprica desde dos perspectivas
diferentes: experimentos de simulacin computacional, y tcnicas de
visualizacin neurocerebral, tales como la tomografa por emisin de
positrones (TEP) y la imagen de resonancia magntica funcional (IRMf)
(Thach, 1997). Flament y Ebner (1997), por ejemplo, reportan haber
realizado un estudio de IRMf en el cual se peda a los sujetos humanos
seguir con un dispositivo de joystic el cursor que apareca en una
pantalla de computador. En este caso, la dificultad de la tarea (una
compleja transformacin sensorio-motriz de posicin cursor/joystic) fue
observada en tres condiciones: (i) cuando la relacin del movimiento
cursor/joystic era directa, (ii) cuando se inverta especularmente la
relacin (inversin bidimensional de las direcciones horizontal y
vertical), y (iii) una relacin que oscilaba aleatoriamente entre cuatro
alternativas diferentes. Los resultados mostraron una mayor actividad
cerebelar en los primeros ensayos de las dos primeras condiciones, y
tambin durante gran parte de la prueba bajo condiciones aleatorias.
Parece existir una correlacin negativa entre el ndice de desempeo y la
actividad cerebelar. Entre ms alta era sta, ms bajo aquel, y por lo
tanto, mayor cantidad de errores de movimiento se presentaban. Cuando
la ejecucin mejoraba con el tiempo, la actividad cerebelar decreca
hasta alcanzar bajos niveles.
Los hallazgos obtenidos con tomografa por emisin de positrones
(Flament y Ebner, 1997; Sultan y cols., 1997; Thach, 1997), apoyan la
hiptesis que concibe al cerebelo, y particularmente al rea cortical de
ste, como un sistema que tiene la funcin de actuar como un sistema de
FABIO E. MARTINEZ C.
45
aprendizaje que tiene por objeto: (a) tomar la informacin computada
por la oliva inferior la seal del error detectado somato-
sensorialmente en la ejecucin del movimiento, y (b) aplicar una funcin
de aprendizaje, por ejemplo la DLP o la PLP. En estos procesos
neurobiolgicos de aprendizaje, se observa que un decremento gradual
de la actividad en el tejido cortical del cerebelo, correlaciona con la
ejecucin correcta de los patrones de movimiento muscular (Houk y
cols., 1997a).
La funcin conexionista de plasticidad sinptica conduce al sistema
a un estado estable, es decir, un estado o configuracin (W) que se
mantiene en el tiempo y que es resistente a las perturbaciones
ocasionadas por ejemplo por el aprendizaje de nuevas tareas. La
estabilidad es una propiedad que tiene una profunda relacin con el
espacio de fases, y especialmente con las regiones de ste hacia donde
convergen los estados del sistema definidos por la W. Estos son los
estados de equilibrio hacia donde tienden las trayectorias de la funcin
dinmica conexionista w (t). En el captulo siguiente se expondrn los
aspectos centrales de la teora de sistemas dinmicos no lineales que
permiten evaluar los estados de equilibrio estables que puede tener esta
funcin.
Convergencia y estabilidad de las funciones de aprendizaje
46
APRENDI ZAJ E, PLASTI CI DAD Y ESTABI LI DAD
Al filo del tiempo... la funcin converge a nada!
El vuelo de una mariposa es un arquetipo de armona y belleza. Es
un smbolo del magnfico ingenio de la naturaleza y adems, de la
fatdica fragilidad de los seres. El vuelo de los colibres llega a
sorprender tambin, por el lmpido y gracil andar de su vuelo. Esttico,
como detenido en el tiempo por manos invisibles, parece inconcebible
verlo arrostrando las violentas perturbaciones que en ocasiones suelen
azotar el aire. Volar requiere alas, y por eso la humanidad, resignada a
volar por s misma tan slo en sueos, ha diseado aviones y
helicpteros. En aparatos como estos, la estabilidad del vuelo es vital,
para los pasajeros, para los tripulantes, y tambin para el buen nombre
de la aerolnea!. Un error, un solo descuido puede costar muchas vidas.
Una vez ms, aprender a volar, a posarse en la Luna (o en Marte quiz),
es fruto del conocimiento adquirido durante siglos mediante la
observacin de los pjaros y los insectos, y lo que escribi Aristteles
(384-322 A.C.) sobre estos ltimos puede haber sido tan importante para
la comprensin humana de la variabilidad del comportamiento animal,
como fueron los anlisis que Leonardo da Vinci hizo acerca de la
estabilidad de mquinas voladoras, para el diseo del avin supersnico
Concorde.
FABIO E. MARTINEZ C.
47
Los estados de equilibrio de un sistema dinmico pueden tratarse
en dos categoras: estables e inestables. La estabilidad es la propiedad
por la cual las trayectorias del sistema, an bajo condiciones de
perturbacin o ruido en las condiciones iniciales, permanecen acotadas
por el radio de atraccin del estado de equilibrio. Un atractor
gravitatorio es uno de los mejores ejemplos en fsica para describir estos
conceptos. Imagine un cometa de 1200.000 kilmetros de dimetro
acercndose a usted a varios miles de kilmetros por hora. Una pizca de
perturbacin en el campo gravitatorio del Sistema Solar que expulsara
de su rbita esa masa de hielo le dara alguna nfima esperanza de salir
vivo. Nadie quisiera estar en el radio de atraccin de un cometa.
Supongamos que realmente no slo se acerca, usted es el punto central
de esa regin. Si se requiere una perturbacin relativamente grande
la explosin de una supernova para sacar al cuerpo de su rbita,
significa que el cometa posee un estado de equilibrio estable. Si una
parte infinitesimal de ruido (el aleteo de una mariposa) lo saca de su
rbita, el comportamiento del sistema es catico y por lo tanto puede ser
muy plausible salir con vida de la historia. El cometa Holmes,
observado en 1892 es uno de esos ejemplos de partculas con estados
atractores con equilibrio estable.
El trmino atractor es un concepto central en el anlisis de la teora
de los sistemas dinmicos (brevemente, teora dinmica). En ella los
atractores son puntos o regiones del espacio de fases hacia los cuales
convergen las trayectorias del sistema bajo diferentes condiciones
iniciales. En un espacio de tres dimensiones la neurona anmala
mencionada en el captulo anterior los puntos atractores ms extremos
Convergencia y estabilidad de las funciones de aprendizaje
48
son ocho (las esquinas del cubo), pero en un espacio de fases
hiperdimensional de conexiones, tal como el cerebro, la interpretacin
de los atractores se hace menos evidente. Los atractores son tendencias
o patrones regulares de comportamiento de un sistema dinmico y se
producen como resultado de la interaccin entre las variables estado (w)
y la dimensin tiempo. Cada regla o ecuacin de aprendizaje, es una
funcin dinmica que debe garantizar que con el tiempo el sistema
conexionista llegar a converger en un estado estable de equilibrio
global. Esto es as porque el grado de variabilidad (o plasticidad) de las
conexiones sinpticas (w) decrece a medida que transcurre el tiempo.
Las funciones o reglas de aprendizaje actan como funciones de
estabilidad puesto que, bajo los supuestos planteados por la teora
computacional de Vapnik-Chervonenkis-Valiant, garantizan que despus
del entrenamiento, la matriz de configuracin sinptica del sistema
conexionista en cuestin es consistente con todos los ejemplos de prueba,
y no requiere modificaciones adicionales durante la fase de
generalizacin.
Para estudiar analticamente la estabilidad de un estado de
equilibrio se hace uso de las nociones de estabilidad uniforme y de
convergencia. La estabilidad uniforme se presenta cuando una
trayectoria debe mantenerse en las inmediaciones del estado de
equilibrio, si el estado inicial es cercano a ste. Se dice que una
trayectoria convergehacia un estado de equilibrio cuando la trayectoria
de un estado inicial se aproxima a un estado de equilibrio a medida que
el tiempo tiende a infinito. Un estado de equilibrio es asintticamente
FABIO E. MARTINEZ C.
49
estable si cumple con las dos propiedades anteriores, y tiene
estabilidad asinttica global si todas las trayectorias del sistema
convergen a un nico estado de equilibrio en la medida en que el tiempo
se aproxima al infinito.
Funciones de convergencia del tipo Lyapunov
Para evaluar las propiedades de estabilidad de un sistema dinmico
no lineal por ejemplo, el sistema nervioso los matemticos hacen uso
de los procedimientos introducidos por Lyapunov en la primera parte del
siglo XX, y que en conjunto reciben el nombre de mtodo directo de
Lyapunov (Devany, 1989; Haykin, 1999; Rovithakis, 1999; Spong,
1996). El postulado fundamental de Lyapunov supone un sistema
autnomo, es decir, un sistema cuyo comportamiento es especificado por
una regla de transformacin que no depende explcitamente del tiempo
la funcin dinmica de estado W(t) es un ejemplo de esta clase de
sistemas y que es expresada matemticamente a travs de un conjunto
de ecuaciones diferenciales que describen la trayectoria de estado.
El teorema de Lyapunov asegura la estabilidad asinttica de esta
clase de sistemas si se encuentra por lo menos una funcin dinmica de
estado, positiva, continua y que decrezca con el tiempo. Analticamente
se evala este ltimo requerimiento calculando la derivada de la funcin.
El estado de equilibrio es estable y puede presentarse en forma de ciclos
lmite (movimientos peridicos de las trayectorias) y oscilaciones cuando
la derivada es menor o igual a cero:
W t
t
( )
0
Convergencia y estabilidad de las funciones de aprendizaje
50
Cuando es estrictamente negativa el sistema es asintticamente
estable. Una funcin que satisfaga estas condiciones es denominada
funcin de Lyapunov y es suficiente encontrar alguna para garantizar
que el sistema es asintticamente estable. El hecho de no encontrar una
funcin de este tipo, no nos puede arrastrar a la conclusin de que el
sistema no posee estados estables de equilibrio, es decir, que la
existencia de una funcin de Lyapunov es condicin suficiente pero no
necesaria para asegurar la estabilidad global de un sistema dinmico no
lineal.
Evaluar las condiciones de equilibrio y estabilidad de la actividad
neuronal, es un desafo que ha dado como fruto buena parte de los
trabajos ms importantes en redes neuronales artificiales. Autores como
el nobel de fsica, John Hopfield, y los neurocientficos Michel Cohen y
Stephen Grossberg, han presentado a luz pblica estudios sobre la
estabilidad de redes neuronales que se apoyan en la teora dinmica
(Hopfield, 1982; 1984a; 1984b; Cohen y Grossberg, 1983; Cohen,
1992a; 1992b; Grossberg, 1990). Hopfield, se acerc al estudio de las
propiedades estables de una clase de sistemas neurocomputacionales
estocsticos y asincrnicos denominados memorias auto-asociativas
(Anderson, 1968; 1983; Lin y Lee, 1996). Por la misma lnea, Cohen y
Grossberg establecen criterios analticos para demostrar la estabilidad
de otra clase de sistemas conexionistas, aquellos que estn basados en el
principio de inhibicin lateral. Tanto estos modelos, como las memorias
auto-asociativas de Hopfield son casos especiales de modelos de auto-
organizacin fundamentados en el postulado hebbiano de aprendizaje.
FABIO E. MARTINEZ C.
51
Ambas aproximaciones hacen uso de una analoga con el
concepto fsico de energa para explicar los procesos de estabilizacin y
convergencia de la actividad neuronal hacia estados atractores.
Preguntarle a un fsico qu es la energa es quiz una de las mejores
formas de sumirlo en profundas reflexiones existenciales. En este
contexto, la energa es concebida como una funcin que define una
medida matemtica abstracta de la capacidad para ejercer trabajo
(Feynman, Leighton y Sands, 1964); esta nocin, junto con el tiempo y
la materia, son componentes esenciales del universo fsico. Es tambin
un concepto muy estrechamente relacionado con el trmino entropa:
la medida de la energa disponible en un sistema termodinmico
cerrado, o tambin, una medida del grado de desorden o incertidumbre
que tiene la informacin.
La segunda ley de la termodinmica postula que un sistema
cerrado, es decir, un sistema que no intercambio energa con una fuente
externa, con el tiempo converge a un estado de equilibrio global de
mxima entropa. Por ejemplo, en un cuarto cerrado el humo (o los
tomos que lo componen) de un cigarrillo encendido tiende a ocupar
todo el espacio, siendo la ocupacin total del volumen, el estado de
mxima entropa de este sistema. La hiptesis segn la cual los estados
de equilibrio termodinmico tienen propiedades de estabilidad global
permite comprender por qu la nocin de energa es aplicada al estudio
de los atractores de la actividad dinmica de los sistemas conexionistas.
El espacio de fases de una funcin de energa E(t) representa en
cada punto del volumen la cantidad de energa que posee el sistema en
un instante particular t. Tericamente se establece que la actividad de
Convergencia y estabilidad de las funciones de aprendizaje
52
un sistema es estable cuando los valores de energa (determinados por
E(t)) tienden a caer convergen en estados atractores que minimizan
la energa. Cuando mediante la aplicacin del mtodo directo de
Lyapunov se puede calcular que existe un valle o cuenca (radio) de
atraccin cuya profundidad es mayor que la de los dems, se concluye
que el sistema posee un estado global de equilibrio (estabilidad global
asinttica) y por lo tanto, que la funcin E(t) es una funcin del tipo
Lyapunov:
E t
t
cuando t
( )
0
En un artculo ya clsico, Cohen y Grossberg (1983) formularon un
teorema que impone lmites tericos a la convergencia global de los
atractores que poseen los sistemas basados en principios de auto-
organizados neuronal. Con este teorema se puede garantizar la
existencia de, por lo menos, una funcin E(t), continua y derivable, cuyas
trayectorias tienden a estados globales de equilibrio si el sistema en
cuestin tiene una matriz de conexiones (W) simtrica:
W
(A)(B)
= W
(B)(A)
La simetra representa un mecanismo hipottico de
retroalimentacin por medio del cual, la accin de las clulas
postsinpticas afecta en direccin retrgrada la actividad presinptica.
Las restricciones dinmicas que impone una matriz de este tipo
conllevan a la formacin de estados de equilibrio en la actividad del
sistema, y por ende a la formacin de patrones globales de actividad,
FABIO E. MARTINEZ C.
53
fenmeno caracterstico de los modelos de auto-organizacin basados
en la regla hebbiana de aprendizaje.
Al igual que las funciones de energa postuladas por el teorema de
Cohen-Grossberg, una funcin de aprendizaje conexionista (W),
tambin tiene estados de equilibrio globalmente estables. La Teora
Vapnik-Chervonenkis-Valiant, mediante su concepto de Convergencia
Uniforme, muestra que tericamente la hiptesis de estabilidad de las
funciones conexionistas de aprendizaje por retroalimentacin del error
garantiza la convergencia a cero.
W t
t
cuando t
( )
0
Desde la perspectiva computacional, los experimentos de
simulacin realizados con la regla de aprendizaje del perceptrn de
Rossenblatt (1958) y la regla de aprendizaje por retropropagacin del
error de Werbos (1974) se caracterizan porque a medida que progresa el
entrenamiento, el valor de la funcin de error converge progresivamente
hasta cero:
d w t
d t
cuando t
( )
0
Frank Rosenblatt (1958) present una demostracin analtica,
conocida como el teorema de convergencia del perceptrn, el cual
asegura que la funcin de aprendizaje del perceptrn converge a cero a
medida que transcurre el entrenamiento:
d w t
d t
d y x t cuando t
( )
( ) ( ) = 0
Convergencia y estabilidad de las funciones de aprendizaje
54
Por su parte, la regla de retropropagacin garantiza que mediante
la iteracin de la funcin de aprendizaje, y suponiendo que el nmero de
actualizaciones tiende a infinito, la configuracin de las conexi ones
sinpticas del sistema puede conducir al mnimo error cuadrtico de una
funcin de error (Hernndez y Nio, 1996). En la demostracin
matemtica de Werbos (1974) y de Rumelhart y col. (Rumelhart y col.,
1986) la derivada de la funcin de error con respecto a los parmetros
libres del sistema (ej: su matriz de conectividad sinptica W) logra
minimizar la funcin de aprendizaje:
d w t
d t
t
w t
cuando t
( ) ( )
( )
=
0
Donde E(t) representa cualquier funcin de prdida L d y [ ; )] .
En este caso, al igual que en los anteriores, la funcin de
aprendizaje es decreciente. Sin embargo, su implementacin algortmica
contiene ciertos requerimientos de aleatoriedad que afectan la propiedad
de convergencia de la regla, haciendo que exista una probabilidad de
que el sistema quede atrapado en estados atractores inestables, o en
otros trminos, situaciones en las que las trayectorias del sistema no
convergen uniformemente.
Se puede as concluir que las funciones conexionistas de
aprendizaje tienden a estados de equilibrio que, a la luz del mtodo
directo de Lyapunov para evaluar la estabilidad en un sistema dinmico,
convergen uniformente hacia estados atractores estables. En las reglas,
o funciones de aprendizaje discutidas, la configuracin de las conexiones
sinpticas debe conducir a un punto atractor, un estado de equilibrio
FABIO E. MARTINEZ C.
55
global que tiene asntota en cero (ej.: ausencia total de actividad
sinptica).
Los hallazgos experimentales de Flament y Ebner (1997)
corroboran la propiedad de estabilidad de las reglas de aprendizaje
implicadas en el desarrollo y la plasticidad sinptica de la corteza
cerebelar. Segn estos autores, existe una correlacin negativa entre la
actividad cerebelar y el Aprendizaje: cuando la ejecucin mejora con el
tiempo, es decir, cuando los errores de movimiento caen en un valor
mnimo, la actividad de la corteza cerebelar decrece hasta sus niveles de
base (previos al entrenamiento). Tal como puede apreciarse en una tarea
sencilla de aprendizaje manual, es la repeticin constante, la prctica, la
que permite a los diversas sistemas neuronales involucrados en el
control de secuencias de movimientos, establecer los patrones
caractersticos de actividad que controlan cada contraccin muscular.
En otras palabras, a partir de la repeticin del movimiento se establece
una estructura funcional motora, una configuracin neuronal de tejido.
Las conexiones en la corteza del cerebelo y en los ncleos neuronales
asociados a ste se organizan siguiendo un mecanismo metablico (las
reglas de aprendizaje DLP y/o PLP), el cual, aplicado reiterativamente,
hace que el sistema completo de control neuromotor llegue a estados de
equilibrio estables, que perduran en tanto se practique regularmente una
secuencia de movimiento en particular (Ej.: una figura de papel o las
sonatas para piano de Beethoven).
Desde una perspectiva conexionista, la solucin a un problema
motor de aprendizaje, puede ser considerada en trminos del grado de
estabilidad de las conexiones en la corteza cerebelar. Cuando todos los
Convergencia y estabilidad de las funciones de aprendizaje
56
pasos necesarios para llevar a trmino un modelo de origami se llevan a
cabo sin errores y de manera casi automtica, es entonces cuando se
puede asegurar la estabilidad de la actividad neuronal del cerebelo y de
otras regiones relacionadas con el aprendizaje de secuencias de
coordinacin sensorio-motora. A partir de ese momento, las sinapsis
detienen (o minimizan) su transformacin en tanto no se vuelva a
entrenar otra figura, hecho que ocasiona una perturbacin que activa
nuevamente los mecanismo de reorganizacin neuronal.
Hallar que un proceso de plasticidad (o variabilidad sinptica) en
la configuracin neuronal tiene tendencia a minimizarse o aproximarse a
un nivel de actividad cero en el espacio de fases, es un indicio de que la
funcin que determina la reorganizacin de las conexiones ha de ser una
funcin de energa (o funcin del tipo Lyapunov). Las funciones
conexionistas de Aprendizaje estipulan que el tejido nervioso tiende a
caer en un estado de mnima energa, un estado de entropa en el que las
posibilidades de cambio y desarrollo neuronal, son cada vez ms
restringidas. En otras palabras, a costa de la perfeccin del equilibrio y
del deseo de no errar (el anhelo de todo aquel para quien aprender es
una fuente de perfeccionamiento), la plasticidad sinptica llega a
congelarse en el tiempo, como los anillos de humo se difunden y
terminan en el aire inmovil de los templos cognitivos.
Errare humanum est...
FABIO E. MARTINEZ C.
57
DISCUSION Y APORTES A LA CIENCIA COGNITIVA
"La vida me ha confiado su secreto: yo soy me ha dicho
aquello que debe siempre superarse a s mismo"
F. Nietzsche, en As Hablaba Zaratustra
En los captulos precedentes he intentado establecer los principios
de retroalimentacin y estabilidad que gobiernan la actividad sinptica
segn el modelo neurodinmico del conexionismo para interpretar una
funcin hipottica que representa el proceso de adaptacin y desarrollo
de las conexiones sinpticas durante un procedimiento computacional de
aprendizaje. La estabilidad dinmica de estas funciones fue discutida
desde el punto de vista de la Teora Dinmica y la Teora Computacional
del Aprendizaje de Vapnik-Chervonenkis-Valiant. Adems, he
presentado varias perspectivas que soportan los argumentos tericos de
convergencia y estabilidad asociados a la plasticidad sinptica. En
suma, he llevado a cabo un anlisis terico del aprendizaje con las
herramientas que me puede brindar el paradigma conexionista. En este
ensayo final quiero hacer una reflexin acerca de las implicaciones que
tiene el anlisis anterior para la formulacin de modelos cognitivos
neurodinmicos, y en general, para la comprensin computacional de los
fenmenos de plasticidad y auto-organizacin cerebral
Comenzar con la pregunta cmo analizar la estabilidad del
pensamiento humano y de los modelos conexionistas de adquisicin de
conocimiento, si estn sujetos a procesos de desarrollo ontogentico? En
Convergencia y estabilidad de las funciones de aprendizaje
58
una aproximacin reciente, Thelen y Smith (1994) han comenzado a
explorar la Teora Dinmica para aplicarla a los modelos de cognicin y
desarrollo ontogentico. Las autoras se apoyan en esta teora similar
en trminos formales a los modelos PPD del Conexionismo (Edelman,
1987) para establecer las bases conceptuales de un modelo dinmico
del desarrollo ontogentico, y en particular, de los fenmenos de
categorizacin perceptual y aquellos otros involucrados en la
generacin de habilidades motoras en los infantes humanos (Thelen y
Fisher, 1982; Thelen, 1984; Thelen, Kelso y Fogel, 1987; Butterworth,
1994).
Un argumento propuesto por Thelen y Smith (1994), y coherente
con los planteamientos que he elaborado hasta ahora, establece que el
aprendizaje y el desarrollo ontogentico de los individuos son dos
procesos relacionados y diferenciables segn la escala de tiempo que se
desee observar. En efecto, asumiendo que ambos son procesos que
conllevan a cambios en la organizacin de un sistema dinmico
(fenmenos de plasticidad), el aprendizaje representa una forma de
adquisicin de patrones de comportamiento estable en una escala de
tiempo real, por ejemplo, los segundos durante los cuales se lleva a cabo
una accin inmediata o una secuencia de movimientos particular (como
mover la mano hacia una pantalla de computador o plegar el ala de una
mariposa de papel). Este tipo de comportamiento es "estable y
predecible en alguna de sus caractersticas, pero variable, flexible y
adaptativo en cada ocasin" (Thelen y Smith, 1994, pg. 73).
FABIO E. MARTINEZ C.
59
El desarrollo cognitivo, por otra parte, puede ser representado
en una escala de tiempo ontogentica, que abarca semanas, meses y aos
(especialmente los primeros), de la historia de vida de un individuo. El
aprendi zaje (sea el resultado de procedimientos de repeticin,
reforzamiento, observacin, instruccin, o el que fuere) implica el
ensamblaje de cada accin inmediata con otras, lo cual en el trmino de
das, meses y aos se transforma en parte de la historia de experiencias
del individuo. Semejante nivel de amalgama temporal hace que "la lnea
entre el aprendizaje y el desarrollo sea particularmente difusa" (Thelen y
Smith, 1994, pg. 74).
Sin embargo, puedo argir adicionalmente que los estados de
equilibrio estable del desarrollo ontogentico difieren en complejidad a
los establecidos mediante el aprendizaje. Por ejemplo, siguiendo la
distincin que existe entre las caractersticas mtricas y estructurales del
movimiento (Swinnen, Walter y Dounskaia, 1997), el aprendizaje
paramtrico, es decir, el ajuste por ensayo y error de caractersticas
tales como la frecuencia, la duracin y la amplitud de una clase de
movimiento, tiene un orden de complejidad inferior al aprendizaje de
nuevas formas de movimiento o topologas adquiridas durante el curso
de la vida ontogentica de un organismo. En tanto el primer tipo de
aprendizaje (ampliamente explicado por las investigaciones del
funcionamiento cerebelar) tiene estados atractores que tienden a
minimizar con el tiempo la cantidad de error en la ejecucin de una
accin especfica, es decir, tienen convergencia asinttica, la estabilidad
de los estados de equilibrio que caracterizan el desarrollo ontogentico
deben ser, por naturaleza, dinmicamente ms complejos, por varias
Convergencia y estabilidad de las funciones de aprendizaje
60
razones, de las cuales puedo citar por lo menos dos. En primer lugar,
debe considerarse que los criterios de error de las nuevas formas de
organizacin que surgen a lo largo del desarrollo, o el desempeo
ptimo de una funcin en un estado dado, son sumamente difciles de
determinar, o acaso quin puede decir qu es perfecto en el gatear de
un nio?
Por otra parte, los cambios hipotticos que se producen en la
organizacin del comportamiento (cambios en el espacio de fases) deben
responder por la variedad de estados estables en un individuo. Por
ejemplo, deben dar cuenta de las diferentes etapas que caracterizan la
vida de una persona, desde que se arrastra por el suelo (en su primeros
meses de existencia humana) hasta sus formas ms sofisticadas de
movimiento tales como bailar ballet, gatear, caminar, resolver
rompecabezas, estudiar lgebra lineal, correr los cien metros planos o
saltar en paracadas. La naturaleza discontinua de algunos de estos
cambios (lo que en otros trminos se conoce como saltos cualitativos en
el desarrollo) implica que las transformaciones de la cognicin no han
de ser necesariamente suaves ni progresivamente incrementales (o
decrementales como en el caso de la funcin de error del aprendizaje),
sino que durante el desarrollo se observa la aparicin, desaparicin o
regresin sbita de ciertas formas de comportamiento que en su
momento fueron estados atractores estables (Thelen y Smith, 1994). Este
tipo de reorganizacin puede observarse en las diferentes etapas que
constituyen el desarrollo cognitivo, como por ejemplo el origen
ontogentico de la actividad sensorio-motriz humana, as como tambin
FABIO E. MARTINEZ C.
61
de las transiciones en la locomocin que permiten tanto el gateo como
los estilizados movimientos que se ejecutan en el ballet clsico.
Desde la teora de los sistemas dinmicos, la idea anterior implica
que, durante el desarrollo, adems de puntos atractores, se pueden
presentar tambin cambios de fase hacia estados atractores de ciclo
lmite, es decir trayectorias que describen un movimiento cclico en el
espacio de fases. Para dar una idea de lo que sto significa, imagnese
el lector situaciones en las cuales la mayora de los humanos
presentamos fases de transicin peridicas en nuestro comportamiento.
Por ejemplo, el movimiento de las piernas en una caminata campestre o
el rudo pataleo que caracteriza la vida cotidiana de un infante de seis
meses de edad. Estos son comportamientos con atractores cclicos y
perodicos.
Tales cambios en el espacio de fases se corresponden con estadios
en el desarrollo y otros fenmenos de transicin que tienen lugar cuando
el sistema se mueve de un tipo de organizacin a otro (Buttervoth, 1994;
Thelen y Smith, 1994). En un rden de complejidad superior, la Teora
Dinmica contempla el desarrollo de atractores caticos, aquellos en los
que cambios relativamente pequeos en las condiciones iniciales afectan
radicalmente el comportamiento global del sistema (recuerdese por
ejemplo el radio de atraccin del cometa Holmes). Sin embargo, no es
mi intencin profundizar en esta monografa sobre el tipo de
consecuencias que trae consigo el anlisis de estabilidad de los
atractores caticos sobre la propuesta de plasticidad neurodinmica del
desarrollo ontogentico.
Convergencia y estabilidad de las funciones de aprendizaje
62
Si la aproximacin neurodinmica del aprendizaje permite analizar
tericamente las transformaciones que ocurren durante la plasticidad
del sistema nervioso, debera en principio ser posible igualmente
construir una funcin neurodinmica generalizada del desarrollo
cognoscitivo. Estudiar la estabilidad de las variaciones de la matriz de
conexiones sinpticas de esta funcin permitira a la investigacin
neurocientfica encontrar los patrones de equilibrio que gobi ernan la
actividad cerebral a lo largo del desarrollo de un individuo, patrones
que desde una teora neurodinmica son la base fundamental para la
emergencia de cualquier funcin cognoscitiva. La tarea no es por cierto
insignificante; una funcin dinmica del desarrollo ontogentico,
matemticamente expresada, debe estar en capacidad de explicar, en
palabras de Butterwoth, "por qu ciertas formas de organizacin son
ms estables que otras; cmo puede el crecimiento gradual de un sistema
resultar en una reorganizacin sbita y radical en tanto se alcanza un
nuevo equilibrio; cmo formas complejas pueden ser derivadas de sus
precursoras, y por qu el control del comportamiento reside en la
interrelacin entre subsistemas constituyentes" (Butterwoth, 1994, pg.
172).
Aportes a la Psicologa
Los prejuicios que nos formamos del mundo tienden a crear
barreras para el pensamiento, de tal manera que an sin proponrnoslo,
logran encauzar el tipo de lecturas que hacemos de la realidad y de los
textos que constituyen el material de trabajo para nuestros sentidos. El
FABIO E. MARTINEZ C.
63
conocimiento objetivo y neutral no es ms que un anhelo, una quimera
cientfica que en la prctica escapa a nuestras posibilidades en tanto
nuestro propio razonamiento se halla sesgado por ideas preconcebidas
acerca de lo que debe y no debe ser, en tanto estamos obligados a
interpretar la realidad y a elaborar juicios sobre los hechos que la
constituyen. La lectura que hice del aprendizaje no est exenta de esta
clase de prejuicios, as como tampoco est libre de ellos la
interpretacin que pueda hacer el lector de las ideas expresadas en los
prrafos que componen mi monografa.
Ciertamente, existen en psicologa otras perspectivas tericas de los
fenmenos de aprendizaje que provienen principalmente del Anlisis
Experimental del Comportamiento. La aproximacin que se ha llevado a
cabo en este campo, al igual que las elaboraciones de la teora
computacional y de la teora neurodinmica del aprendizaje, enfatizan
los aspectos cuantitativos del mismo, es decir, intentan establecer formas
objetivas de medicin psicomtrica que puedan dar cuenta de los datos
recogidos en la investigacin experimental, especialmente en el estudio
de los organismos biolgicos. Este paradigma otorga prelacin al
anlisis de los mecanismos de control que puede ejercer el medio
ambiente sobre el comportamiento del organismo, relegando el
funcionamiento propio de ste a un segundo plano, a un papel pasivo
(receptor de estmulos) frente a las condiciones operadas por el
ambiente.
Por otra parte, el Paradigma Conexionista, estrechamente
vinculado a la tradicin funcionalista de la Psicologa Cognitiva y a las
teoras de procesamiento de la informacin de la inteligencia artificial,
Convergencia y estabilidad de las funciones de aprendizaje
64
destaca el papel activo del organismo al preguntarse por la forma en que
ste computa y transforma la informacin teniendo en cuenta las
consecuencias de sus acciones en el medio ambiente. Sin embargo, a
pesar de que el nfasis en la relacin organismo-ambiente cambia de un
paradigma a otro, cabe decir que los principios del Paradigma
Conexionista no rivalizan necesariamente con los modelos clsicos de
condicionamiento (pavloviano y operante). Kehoe (1989) por ejemplo,
seala la semejanza formal que existe entre el modelo de Rescorla-
Wagner (1972) y las reglas de aprendizaje utilizadas para entrenar los
sistemas neurocomputacionales de procesamiento de informacin
basados en la regla del Perceptrn de Rosenblatt (1958). Una
distincin conceptual importante entre los dos modelos radica en que,
mientras las reglas de aprendizaje conexionistas son aplicados
localmente a cada una de las unidades funcionales (las conexiones
sinpticas), la ecuacin de Rescorla-Wagner es adecuada para explicar
el comportamiento como una variable global de la interaccin observada
entre el organismo y el ambiente durante los procedimientos de
condicionamiento pavloviano. Otros autores (Barto y Sutton, 1981;
Barto, Sutton y Anderson, 1983; Sutton, 1984; Barto, 1985) han
presentado resultados de simulacin computacional que recrean con
cierto xito los efectos caractersticos de los modelos de
condicionamiento citados.
Por ejemplo, el trabajo de Barto y Sutton se ha concentrado en el
diseo de sistemas de control adaptativo cuyo funcionamiento es muy
similar al estudiado en el rea de condicionamiento operante. En estos
FABIO E. MARTINEZ C.
65
sistemas el comportamiento de la mquina tambin est regulado por
sus consecuencias en el medio en donde acta. De hecho, el anlisis de
las consecuencias del reforzamiento en el aprendizaje de mquina ha
generado un rea de trabajo que tiene como objetivo desarrollar
dispositivos adaptativos de control automtico (robots) que puedan
emular la forma en que un organismo biolgico interacta con su
entorno y encuentra las condiciones que regulan su propio
comportamiento. El aprendizaje por reforzamiento es hoy en da un
activo campo de investigacin en inteligencia artificial y aprendizaje de
mquina, y sus planteamientos proporcionan modelos analticos que
contribuyen a abrir problemas y debates en torno a los componentes
fundamentales del condicionamiento operante.
El Anlisis Experimental del Comportamiento puede hallar que un
organismo biolgico es sensible al refuerzo, pero disear un organismo
artificial que efectivamente sea sensible al refuerzo requiere una labor
ms profunda de abstraccin, as como tambin, exige una
profundizacin en el anlisis de las variables necesariamente implicadas
en estas formas de aprendizaje. En tanto la investigacin neurodinmica
contribuye a ampliar el campo explicativo del Conexionismo en el rea
de la psicologa experimental, pueden considerrseles, o bien como una
fuente de herramientas heursticas, o como una alternativa terica y
experimental en s misma. Aquello que dictaminan los modelos
realmente tiene lugar en la realidad de lo que es modelado? Si
decidimos que los modelos conexionistas son simplemente
aproximaciones tiles para sugerir propuestas metodolgicas en el
anlisis del comportamiento, seguirn teniendo un valor puramente
Convergencia y estabilidad de las funciones de aprendizaje
66
heurstico; pero si suponemos que los principios conexionistas pueden
decir algo ms acerca del objeto de estudio modelado (ej.: los
fenmenos cognoscitivos) entonces se convierten en modelos
conceptuales vlidos que guan nuevos horizontes de trabajo terico.
Evidentemente, comparto sta ltima aproximacin.
Con respecto al nivel de abstraccin que he utilizado, me parece
importante observar que la formalizacin analtico-matemtica ha sido
usualmente utilizada en teoras cientficas altamente desarrolladas tales
como la fsica cuntica, la biologa y las ciencias de la computacin,
como una necesidad para representar el nivel de complejidad
involucrado en sus respectivas reas de estudio. En documentos previos
a esta elaboracin final, haba sacrificado la instanciacin sobre casos
particulares en favor de la generalidad de explicacin del problema.
Esta carencia de referentes empricamente verificables (o vlidamente
falseables si se quiere), haba limitado la comprensin de su
conveniencia y contribucin a la psicologa.
Despus de ensayo y error, llegu a comprender que posiblemente
haba construido una nube terica altamente susceptible de desaparecer
en la lluvia de ideas que se arremolinan caticamente en mi cerebro
cada vez que pensaba en la argumentacin de mi tesis. Puesto que no
deseo semejante tragedia, he de establecer hiptesis de trabajo que
puedan verificar empricamente la propuesta de anlisis del Aprendizaje
que he expuesto. Debido a que se trata de un campo ms amplio, que
afecta tanto a las descripciones de comportamiento de los organismos
naturales como a los diseos de seres artificialmente creados (sea en
FABIO E. MARTINEZ C.
67
circuitos integrados y digitales, o en procedimientos de simulacin
neurocomputacional), es evidente que las hiptesis formuladas deben ser
consistentes con los datos empricos encontrados en todas estas fuentes.
He mostrado cmo la aplicacin de los principios de convergencia
y estabilidad asinttica a las funciones conexionistas, y su formulacin
como funciones del tipo Lyapunov, me ha permitido concluir que el
aprendizaje implica una disminucin progresiva de la plasticidad
sinptica y que es tambin una funcin de energa. A partir de este
razonamiento y de otros planteamientos del Paradigma Conexionista
expuestos a lo largo de esta monografa, me es posible derivar algunas
conjeturas que pueden ser susceptibles de falseabilidad terica y
verificacin emprica.
Corroboracin de los datos hallados en los paradigmas
tradicionales de aprendizaje. La aplicacin masivamente paralela de
las funciones dinmicas de aprendizaje conexionista debe estar en
capacidad de simular los datos observados en otros procedimientos de
aprendizaje tales como el condicionamiento pavloviano y operante. Si el
modelo recurre tan slo a los principios de anlisis del Conexionismo y
explica estadsticamente la mayor parte de la varianza de los resultados
empricos, la teora se hace ms robusta. Los trabajos de Barto, Kehoe y
Sutton, realizados en este sentido, apoyan esta conjetura, no obstante, es
claro que hace falta investigacin adicional en el asunto.
Modelos computacionales de procesamiento cerebral. El anlisis
celular y biomolecular de las reglas de aprendizaje que intervienen en la
plasticidad sinptica asociada a problemas de aprendizaje motor ha
puesto interesantes restricciones a los modelos de procesamiento de
Convergencia y estabilidad de las funciones de aprendizaje
68
informacin que se han elaborado del cortex cerebelar (Marr, 1969;
Albus, 1975; Houk y Barto, 1992; Houk y cols., 1997; Houk y Alford,
1997; Houk y Barto, 1997; Kawato y Gomi, 1992). La abstraccin
conexionista de las reglas de plasticidad y aprendizaje motor tales
como la presentada en prrafos anteriores abre un campo de trabajo
en la investigacin neurocientfica, puesto que a travs de metodologas
de simulacin por computador se someten a prueba los modelos del
funcionamiento cerebral. Los frutos de esta labor sern recogidos
cuando se tenga un plano o mapa conexionista del sistema nervioso y
del cerebro, es decir, una descripcin detallada de las diferentes redes
que componen su tejido y de la forma en que interactan para formar
patrones globalmente estables de actividad neuronal.
Otras funciones neurodinmicas de estabilidad. Tericamente la
utilizacin de funciones de estabilidad provenientes de campos como la
teora de control y el paradigma matemtico de la complejidad, al ser
utilizadas como funciones dinmicas de aprendizaje en sistemas
conexionistas, y con la condicin de que incorporen alguna forma de
medida del error, deben llevar al sistema a un estado de estabilidad
neurofuncional, es decir, a un estado atractor estable para la matriz de
conexiones sinpticas. La hiptesis de estabilidad asinttica global del
aprendizaje es violada si el sistema en cuestin desarrolla mltiples
estados atractores asintticamente estables. Esta multidimensionalidad
de los atractores en el espacio de fases se opone a uno de los supuestos
bsicos de la teora de Valiant (1984): el principio de minimizacin del
riesgo emprico, el cual asegura que el sistema encuentra una y slo una
FABIO E. MARTINEZ C.
69
hiptesis que minimiza los errores del aprendizaje, es decir que existe
tan solo un punto atractor en el espacio de fases. La misma suposicin,
sin embargo tal como fue discutido en prrafos anteriores no es
necesariamente aplicable cuando el proceso cognitivo estudiado es el
desarrollo ontogentico, en donde pueden coexistir otros estados
atractores (e.: cclicos o cuasi-caticos).
Automatizacin del aprendizaje (ciencia ficcin). La estimulacin
magntica transcraneal es usada artificialmente para detener comandos
de movimiento que afectan regiones parciales del sistema
neuromuscular. A travs de este procedimiento se consigue reducir la
excitabilidad cortical durante cinco u ocho segundos (Houk y Barto,
1997). Si un neurocientfico desea producir un estado cerebral
especfico, posee los recursos y la tecnologa, y adems conoce el mapa
detallado del cerebro y los cambios en el tejido neuronal que conducen a
organizaciones estables, debera ser capaz de inducir el mismo estado en
un sistema multidimensional semejante. Esta idea se apoya fuertemente
en la hiptesis de identidad psiconeuronal, de la cual Mario Bunge
(1985) ha sido firme representante. Al igual que la nocin de
correspondencia entre los parmetros libres y las hiptesis (W H)
formulada por las teoras computacionales del aprendizaje, el principio
de identidad psiconeural de Bunge establece una correspondencia mutua
entre los procesos cognitivos y los procesos de reorganizacin neuronal,
en tanto stos son equivalentes a los primeros. La capacidad de inducir
estados semejantes de manera rpida y automtica es anloga a la
capacidad de escritura que poseen los mecanismos computacionales de
hoy en da (los PC por ejemplo). Si esto fuera posible el problema de
Convergencia y estabilidad de las funciones de aprendizaje
70
hacer comprender lo que pienso sobre las funciones conexionistas del
aprendizaje habra sido ms sencillo de resolver puesto que simplemente
me habra bastado inducir (escribir) mi estado de conocimiento en el
cerebro del lector, evitndole de esa manera la labor de lectura de este
escrito. Por el momento es una fantasa que tan slo se ha explotado en
la literatura y cinematografa de ciencia ficcin.
Aplicacin a formas complejas de aprendizaje y desarrollo. Estos
mismos principios conexionistas de computacin neuronal y aprendizaje
sinptico deben poder ser aplicados a fenmenos cognitivos ms
complejos tales como la formacin de categoras perceptuales, la
generacin del lenguaje y el desarrollo del control sensorio-motriz, el
razonamiento y las emociones. Si bien por el momento no abundan los
tratados en la materia, trabajos de ciencia cognitiva computacional tales
como los de Anderson (1983), Rumelhart y McClelland (1986), Quinlan
(1991), Grossberg (1993), Thelen y Smith (1994) y Picard (1997),
proveen a la psicologa cognitiva con un cmulo de herramientas
conceptuales que permiten explorar la suficiencia explicativa de estos
modelos.
Finalmente, considero que de alguna manera este documento
aporta elementos de anlisis para presentar una teora de naturaleza
cuntica en Psicologa. Ante la cuestin de cmo penetrar los secretos y
misterios de la magia cuntica, y cmo desentraar de ellos
interrogantes empricos, la teora neurocognitiva del conexionismo ha
postulado un constructo hipottico de naturaleza cuntica, denominado
Psicn (Quinlan, 1991). Este concepto atmico define una unidad
FABIO E. MARTINEZ C.
71
terica de la cognicin en trminos de la actividad transitoria y
cooperativa de uno o varios sistemas neuronales, es decir, ncleos
viajeros de propagacin de la actividad neuronal (Bunge, 1985). Un
fenmeno perceptual, un flujo de pensamiento, o una transformacin
sensorio-motriz por ejemplo, seran en este sentido una agregacin de
estas unidades, una estructura anloga a un molcula fsica pero
constituida por tomos denominados psicones. Las interpretaciones
neurocognitivas que se fundamentan en el nuevo conexionismo, como
por ejemplo la de Paul Churchland (1996), describen la unidad de la
cognicin de manera similar pero recurriendo a conceptos de la Teora
Dinmica. La actividad cognoscitiva es representada de esta manera
como la transformacin dinmica de patrones de activacin a partir de
su paso por una vasta matriz de conexiones sinpticas.
El cerebro y en general, todo organismo biolgico equipado con
sistema nervioso funciona como un mecanismo cuntico que tiene la
capacidad de inteligir su entorno y extractar conocimiento de l. Llevar
el orden cuntico al funcionamiento cognitivo es un prposito ambicioso,
sin embargo, ya la funcin de Schrdinger ha sido propuesta como una
funcin neurodinmica de la actividad nerviosa (Dawes, 1992). Sin ir
ms lejos, la aplicacin de los principios cunticos en neurocomputacin
ha dado como resultado productos comerciales que ya en la culminacin
del siglo XX comenzaron a tener espacio en los medios de comunicacin
masiva (ver por ejemplo: http://www.andcorporation.com).
Con todo lo anterior, creo que es posible vislumbrar el salto terico
que representan los nuevos desarrollos experimentales de la ciencia
neurodinmica con respecto a las teoras clsicas de cognicin y
Convergencia y estabilidad de las funciones de aprendizaje
72
aprendizaje. Cmo llegar la Psicologa del futuro a beneficiarse de
estas nuevas conceptualizaciones y metodologas? Esta es una pregunta
que no puedo responder con mi estado actual de conocimientos, pero
conservo una vaga esperanza de que sera una cuestin que habr de ser
abordada en lo sucesivo por la psicologa acadmica.
Por el momento, la perspectiva terica que he revisado del
aprendizaje, en la cual se considera como un proceso dinmico de
estabilizacin en las organizaciones neuronales, no es ms que un
esfuerzo tentativo para modelar la naturaleza cambiante del cerebro,
fuente primaria del pensamiento y de la transformacin del conocimiento
humano. Desde una perspectiva puramente formal, conceptualizar as
este problema puede abrirle al estudio neurodinmico de la cognicin,
un mundo de herramientas analticas tiles para profundizar en la
bsqueda de una partcula cuntica, emprendida en gran medida
gracias a la obra de Donald Olding Hebb (1949) y hecha
computacionalmente viable por el nuevo PARADIGMA CONEXIONISTA
de la inteligencia artificial.
FABIO E. MARTINEZ C.
73
Eplogo
Hasta aqu he pretendido elaborar un documento acerca de uno de
mis ms grandes pasatiempos, aprender. Me queda tan slo una vaga
esperanza de haber sido coherente, claro y expositivo, sin sacrificar por
ello el nivel de profundidad requerido. Puedo sentirme orgulloso y
alagado si el lector dispone ahora de mayores elementos para entender
los conceptos fundamentales de la Teora Neurodinmica y
Computacional expuesta con el fin de estudiar el aprendizaje, y a la vez,
ha clarificado por lo menos en parte algunas de las dudas e
interrogantes que han guiado la formulacin de esta monografa. No me
resta ms que expresar mis agradecimientos a todos aquellos seres que,
quiz sin siquiera proponrselo, han participado de una u otra forma en
mi formacin, y que durante el transcurso de mi vida han construido los
recuerdos que tengo del pasado, la pesadilla que ahora soy, y los sueos
que tejern mi futuro.
"...Despus viene el perfeccionamiento. La mano sensible de un maestro en el
arte del origami, ya no solamente repite lo aprendido, ahora comienza a imaginar
nuevas dimensiones conceptuales, ahora verdaderamente empieza el arte de
creacin humana!. Un maestro debe iniciar una labor de bsqueda por los
desafiantes universos de perfeccin que puede tener cada figura, debe aprender a
moldear y esculpir el papel con suma destreza hasta que se produzca ese hlito de
vida, en virtud del cual, el simple material se transforma en magia, en delicado
placer que escapa al anlisis escrupuloso de la forma
Convergencia y estabilidad de las funciones de aprendizaje
74
Anexo: frmulas y ecuaciones
1. Valor estadstico esperado de la funcin de prdida:
R W L d F x W dP x d ( ) [ ; ( , )] ( | ) =
2. Funcin de riesgo emprico:
R W
N
L d F x W
emp i
i
N
( ) [ ; ( , )] =
=
1
1
.
3. Funcin cuadrtica de prdida:
L d F X W d F x W [ ; ( , )] ( , ) =
2
4. Funcin dinmica generalizada de aprendizaje:
w (t) = r x
Lim
W t
t
W t
t
t
=
0
( ) ( )
= r x
donde r = f[ x, W(t), d]
5. Convergencia de las funciones neurocomputacionales de aprendizaje:
(a) regla del perceptrn:
w t
t
d y x t cuando t
( )
( ) ( ) = 0
(b) regla de retropropagacin (delta generalizada)
w t
t
t
w t
cuando t
( ) ( )
( )
=
0
donde ( ) t es una funcin cualquiera de error o prdida derivable en el
espacio W.
FABIO E. MARTINEZ C.
75
REFERENCI AS BI BLI OGRAFI CAS
Akin, E. (1993). The General Topology of Dynamical Systems. New York, American
Mathematical Study.
Albus, J. S. (1971). A Theory of Cerebellar Function. Mathematical Bioscience; 10,
25-61.
Alkon, D. L., Blackwell, G. S., Barbour, A. K., Rigler, A. K. Y Vogl, T. P. (1990).
Pattern-Recognition by an Artificial Network Derived from Biologic
Neuronal Systems. Biological Cybernetics; 62, 363-376.
Amari, S. (1990). Mathematical Foundations of Neurocomputing. Proceedings of the
IEEE; 78, 1443-1463.
Amari, S., Yoshida, K. y Kanatani, K. L. (1977). A Mathematical Foundation for
Statistical Neurodynamics. SIAM Journal on Applied Mathematics; 33, 95-
126.
Anderson, J. A. (1968). A Memory Storage Model Utilizing Spatial Correlation
Functions. Kybernetics; 5, 113-119.
Anderson, J. A. (1983). Cognitive and Psychological Computation with Neural
Models. IEEE Transactions on Systems, Man and Cybernetics; 13, 5, 799-
815.
Baker, G. L. y Gollub, J. P. (1990). Chaotic dynamics. Cambridge University Press.
Baldi, P. F. (1998). Bioinformatics: the Machine Learning Approach. Cambridge,
MIT Press.
Baquero, H., Lpez, W., Prez, A. M. y Rozo, J. A. (1995). Impacto de los modelos de
Redes Neuronales en las ciencias del comportamiento. I Congreso Nacional
de Neurocomputacin. Santaf de Bogot, Universidad nacional de
Colombia.
Baram, Y. (1989). Associative Memory in Fractal Neural Networks. IEEE
Transactions on Systems, Man and Cybernetics; 19, 5, 1133-1141.
Barto, A. G. (1985). Learning by Statistical Cooperation of Self-interested Neuron-
like Computing Elements. Human Neurobiology. 4, 229-256.
Convergencia y estabilidad de las funciones de aprendizaje
76
Barto, A. G. y Sutton, R. S. (1981). Landmark Learning: An Ilustration of Associative
Search. Biological Cybernetics. 42, 1-8.
Barto, A. G., Sutton, R. S. y Anderson, C. W. (1983). Neuronlike Edaptive Elements
that Can Solve Difficult Learning Control Problems. IEEE Transactions on
Systems, Man and Cybernetics. SMC-13, 834-846.
Barto, A. G. (1992). Reinforcement Learning and Adaptive Critic Methods. En D.A.
White y D. A. Sofge (Eds.) Handbook of Intelligent Control (pp. 469-491).
New York, Van Nostrand-Reinhold.
Bechtel, W. (1996). Connectionism and the Philosophy of Mind: An Overview. En W.
G. Lycan (Ed.) Mind and Cognition: A Reader (pp. 252-273). Oxford,
Blackwell Publishers.
Blomfield, S. y Marr, D. (1970). How the Cerebellum May Be Used. Nature; 227,
1224-1228.
Bockenholt, ULF, Rendel, L. y White III, C. C. (1990). Representation and Use of
Knowledge for Decision Making in Human, Mechanized, and Ideal Agents.
IEEE Transactions on Systems, Man and Cybernetics; 20, 2, 293-309.
Bridgeman, B. (1988). Biologa del Comportamiento y de la Mente. Buenos Aires,
Alianza Editorial.
Bunge, M. (1985). Mente y Cerebro: un problema epistemolgico. Madrid, Alianza
Editorial.
Butterworth, G. (1994). Dynamic Approaches to Infant Perception and Action: Old
and New Theories About the Origins of Knowledge. En E. Thelen y L. Smith
(Eds). Cambridge, Massachusetts, MIT Press.
Churchland, P. M. (1992). Materia y Conciencia: Introduccin Contempornea a la
filosofa de la mente. Barcelona, Gedisa Editorial.
Churchland, P.S. y Sejnowski, T,J. (1990). Neurophilosophy and Connectionism. En
W. G. Lycan (Ed.) Mind and Cognition: A Reader (pp. 224-252). Oxford,
Blackwell Publishers.
FABIO E. MARTINEZ C.
77
Churchland, P. (1996). Learning and Conceptual Change: The View from the
Neurons. En A. Clark y P.J.R. Millican (Eds.) Connectionism, Concepts and
Folk Psychology: The Legacy of Alan Turing, vol. 2 (pp. 7-43). Oxford,
Clarendon Press
Cohen, M. A. y Grossberg, S. (1983). Absolute Stability of Global Pattern formation
and Parallel Memory Storage by Competitive Neural Networks. IEEE
Transactions on Systems, Man and Cybernetics; 13, 5, 815-826.
Cohen, M. A. (1992a). The Synthesis of Arbitrary Stable Dynamics in Nonlinear
Neural Networks. II. Feedback and Universality. Intenational Joint
Conference on Neural Networks; 1, 141-146.
Cohen, M. A. (1992b). The Construction of Arbitrary Stable Dynamics in Nonlinear
Neural Networks. Neural Networks; 5, 83-103.
Compiani, M. (1996). Remarks on the Paradigms of Connectionism. En A. Clark y
P.J.R. Millican (Eds.) Connectionism, Concepts and Folk Psychology: The
Legacy of Alan Turing, vol. 2 (pp. 45-66). Oxford, Clarendon Press.
Cordo, P. J., Bell, C. C. y Hamad, S. (1997). Motor Learning and Synaptic Plasticity
in the Cerebellum. Cambridge, Cambridge University Press.
Crutchfield, J. P., Farmer, J. D., Packard, N. H. y Shaw, R. S. (1994). Caos. En A.
Fernndez-Raada (Ed.) Libros de Investigacin y Ciencia: Orden y Caos
(pp. 78-90). Barcelona, Prensa Cientfica.
Dawes, R. L. (1992). Quantum Neurodynamics: Neural Stochastic Filtering with the
Schroedinger equation. International Joint Conference on Neural Networks;
1, 133-140.
Devany, R. L. (1989). An Introduction to Chaotic Dynamical Systems. New York,
Addison Wesley Publishing Company.
Dufoss, M. (1997). How can the Cerebellum Match "Error Signal" and "Error
Correction"?. En P, J. Cordo, C. C. Bell y S. Harnad (Eds.) Motor Learning
and Plasticity in the Cerebellum (pp. 106-106). Cambridge, Cambridge
University Press.
Convergencia y estabilidad de las funciones de aprendizaje
78
Eckhorn, R., Reitboeck, H. J., Arndt, M. y Dicke, P. W. (1990). Feature Linking Via
Synchronization Amopng Distributed Assemblies: Simulation of results from
cat cortex. Neural Computing; 2, 293-307.
Eckhorn, R., Frien, A. y Bauer, R. (1994). Oscillation Frequiencies (40-90 Hz) in
monkey visual cortex depend on stimulus size and velocity. European
Journal of Neuroscience; 7, 90-94.
Eckhorn, R. (1999). Neural Mechanisms of Scene Segmentation: Recordings from the
Visual Cortex Suggest Basic Circuits for Linking Field Models. IEEE
Transactions on Neural Networks; 10, 3, 464-479.
Edelman, G. M. (1987). Neural Darwinism: The Theory of Neuronal Group
Selection. New York, Basic Books.
Fernndez-Raada, A. (1990). Libros de Investigacin y Ciencia: Orden y Caos.
Barcelona, Prensa Cientfica.
Feynman, R., Leighton, R. y Sands, M. (1964). The Feynman Lectures on Physics;
vol. 1. Massachusetts, Addison-Wesley Publishing.
Flament, D. y Ebner, T. J. (1997). The Cerebellum as Comparator: Increases in
Cerebellar Activity During Motor Learning May Reflect its Role as Part of
an Error Detection/correction Mechanism. En C.C. Bell, P.J. Cordo, y S.
Harnad (Eds.) Motor Learning and Synaptic Plasticity in the Cerebellum
(pp. 111-112). Cambridge, Cambridge University Press.
Freeman, W. J. (1996). Fisiologa de la Percepcin. En Scientific American (Eds.)
Libros de Investigacin y Ciencia: Mente y Cerebro. Barcelona, Prensa
Cientfica.
Gardner, H. (1987). La Nueva Ciencia de la Mente: Historia de la Revolucin
Cognitiva. Buenos Aires, Editorial Paidos.
Gielen, C. (1997). Cerebellum Does More Than Recalibration of Movements After
Perturbations. En C.C. Bell, P.J. Cordo, y S. Harnad (Eds.) Motor Learning
and Synaptic Plasticity in the Cerebellum (pp. 112-113). Cambridge,
Cambridge University Press.
FABIO E. MARTINEZ C.
79
Gilbert, P. F. C. (1975). How the Cerebellum Could Memorize Movements.
Nature; 254, 688-689.
Grossberg, S. (1969). On Learning and Energy-Entropy dependency in Recurrent and
Nonrecurrent Signed Networks. Journal of Statistical Physics; 1, 319-350.
Grossberg, S. (1971). Embedding Fields: Underlaying Philosophy, Mathematics, and
A lications to Psychology and Anatomy. Journal of Cybernetics; 1, 28-50.
Grossberg, S. (1976). On the Development of Feature Detectors in the Visual Cortex
with Applications to Learning and Reaction-difusion Systems. Biological
Cybernetics; 21, 145-159.
Grossberg, S. (1988). Nonlinear Neural Networks: Principles, Mechanisms, and
Architectures. Neural Networks; 1, 17-61.
Grossberg, S. (1990). Content-Addresable Memory Storage by Neural Networks: A
General Model and Global Liapunov Method. En E. L. Schwartz (Ed.)
Computational Neuroscience (56-65). Cambridge, MIT Press.
Guyton, A. C. (1994). Anatoma y Fisiologa del Sistema Nervioso: Neurociencia
Bsica. Madrid, Editorial Mdica Panamericana.
Hampson, S. E. y Volper, D. (1990). Representing and Learning Boolean Functions
of Multivalued Features. IEEE Transactions on Systems, Man and
Cybernetics; 20, 1, 67-80.
Haussler, D., Kearns, M., O er, M. y Schapire, R. (1992). Estimating Average-case
Learning Curves Using Basian, statistical physics and VC Dimension
Methods. Advances In Neural Information Processing Systems; 4, 855-862.
Haykin, S. (1994; 1999). Neural Networks: A Comprehensive Foundation. New
Jersey, Prentice Hall.
Hebb, D. O. (1949). The Organization of Behavior: A Neuropsychological Theory.
New York, Wiley.
Hernndez, G. J. y Nio, L. F. (1996). Sistemas Complejos Adaptativos. En
Memorias del Primer Congreso Colombiano de Neurocomputacin. Santaf
de Bogot, Universidad Nacional de Colombia.
Convergencia y estabilidad de las funciones de aprendizaje
80
Hirsch, M. W. (1989). Convergent Activation Dynamics in Continuous time networks.
Neural Networks; 2, 331-349.
Hinton, G. E. (1996). Redes Neuronales que Aprenden de la Experiencia. En
Scientific American (Ed.) Libros de Investigacin y Ciencia: Mente y
Cerebro (pp. 91-98). Barcelona, Prensa Cientfica.
Holden, A. V. y Winlow, W. (1983). Neuronal Activity as the Behavior of a
Differential System. IEEE Transactions on Systems, Man and Cybernetics;
13, 5, 711-719.
Hodgkin, A. L. y Huxley, A. F. (1952). A Quantitative Description of Membrane
Current and its A lication to Conduction and Excitation in Nerve. Journal of
Physiology; 117, 500-544.
Hopfield, J. J. (1982). Neural Networks and Physical Systems with Emergent
Collective Computational Abilities. Proceedings of the National Academy of
Sciences of the U.S.A; 79, 2554-2558.
Hopfield, J. J. (1984a). Neurons with Graded Response Have Collective
Computational Properties Like Those of Two State Neurons. Proceedings of
the National Academy of Sciences of the U.S.A.; 81, 3088-3092.
Hopfield, J. J. (1984b). Collective Processing and Neural States. En C. Nicollini
(Ed.) Modeling and Analysis in Biomedicine (pp. 370-389). Singapore:
World Scientific.
Houk, J. C. y Barto, A. G. (1992). Distributed Sensorimotor Learning. En G. E.
Stelmach y J. Requin (Eds.) Tutorials in Motor Behavior. Elsevier.
Houk, J. C. y Alford, S. (1997). Computational Singnificance of the Cellular
Mechanisms for Synaptic Plasticity in Purkinje Cells. En C.C. Bell, P.J.
Cordo, y S. Harnad (Eds.) Motor Learning and Synaptic Plasticity in the
Cerebellum (pp. 121-124). Cambridge, Cambridge University Press.
Houk, J. C. y Barto, A. G. (1997). More Models of the Cerebellum. En C.C. Bell, P.J.
Cordo, y S. Harnad (Eds) Motor Learning and Synaptic Plasticity in the
Cerebellum (pp. 156-160). Cambridge, Cambridge University Press.
FABIO E. MARTINEZ C.
81
Houk, J. C., Buckingham, J. T. y Barto, A. G. (1997). Models of the Cerebellum
and Motor Learning. En C.C. Bell, P.J. Cordo, y S. Harnad (Eds) Motor
Learning and Synaptic Plasticity in the Cerebellum (pp. 30-45). Cambridge,
Cambridge University Press.
INFOPEDIA (1995). InfoPedia: the Ultimate Multimedia Reference Tool. Retail
Edition v 1.1. Future Vision Multimedia
Ito, M. (1970). Neurophysiological Aspects of the Cerebellar Motor Control System.
International Journal of Neurology; 7, 162-176.
Johnson, J. L. y Padgett, M. L. (1999). Pulse Coupled Neural Networks Models and
Applications. IEEE Transactions on Neural Networks; 10, 3, 480-498.
Kandel, E. R. y Hawkins, R. D. (1993). Bases biolgicas del Aprendizaje y de la
Individualidad. En Scientific American (Ed.) Libros de Investigacin y
Ciencia: Mente y Cerebro (pp. 54-65). Buenos Aires, Editorial Paidos.
Kawato, M. y Gomi, H. (1992). A Computational Model of Four Regions of the
Cerebellum Based on Feedback-error Learning. Biological Cybernetics; 68,
95-103.
Kehoe, E. J. (1989). Connectionist Models of Conditioning: A Tutorial. Journal of
the Experimental Analysis of Behavior. 52,427-440.
Kohonen, T. K. (1989). Self-Organization and Associative Memory. New York,
Springler-Verlag.
Kolen, J. F. y Goel, J. F. (1991). Learning in Parallel Distributed Processing
Networks: Computational Complexity and Information Content. IEEE
Transactions on Systems, Man and Cybernetics; 21, 2, 359-367.
Lee, C. C. (1991). Modeling the Behavioral Substrates of Associative Learning and
Memory: Adaptive Neural Models. IEEE Transactions on Systems, Man and
Cybernetics; 21, 3, 510-520.
Lin, C.T. y Lee, C.S. (1996). Neural Fuzzy Systems: A Neuro-Fuzzy Synergism to
Intelligent Systems. New Jersey, Prentice Hall.
Convergencia y estabilidad de las funciones de aprendizaje
82
Linsker, R. (1986). From Basic Network Principles to Neural Architecture.
Proceedings of the National Academy of Sciences of the USA; 83, 7508-
7512.
Linsker, R. (1988). Self-Organization in a Perceptual Network. Computer; 21, 105-
117.
Llinas, R. y Churchland, P. (1996). The Mind Brain Continuum: Sensory Process.
MIT Press.
Lopez, W., Ramrez, F., Reyes, F. y Quionez, R. (1995). Comportamiento Adaptativo
y Redes Neuronales: Reforzamiento y Percepcin Temporal. I Congreso
Nacional de Neurocomputacin. Santaf de Bogot, Universidad Nacional
de Colombia.
Marr, D. (1969). A Theory of Cerebellar Cortex. Journal of Physiology; 202, 437-
470.
McCulloch, W. S. y Pitts, W. (1943). A Logical Calculus of the Ideas Immanent in
Nervous Activity. Bulletin of Mathematical Biophysics; 5, 115-133.
Minsky, M. L. y Papert, S. A. (1969). Perceptrons. Cambridge, MA: MIT Press.
Mukhopadhyay, S y Thathachar, M. A. L. (Associative Learning of Boolean
Functions. IEEE Transactions on Systems, Man and Cybernetics; 19, 5,
1008-015.
Narendra, K. S. y Annaswamy, A. M. (1989). Stable Adaptive Systems. Englewood
Cliffs. New Jersey, Prentice Hall.
Natarajan, B. K. (1991). Machine Learning: A Theoretical Approach. San Mateo,
CA: Morgan Kaufmann.
Nieto, M. (1990). Plasticidad Sinptica. En M. Nieto (Ed.) Libros de Investigacin y
Ciencia: Funcin Cerebral (pp. 37-47). Barcelona, Prensa Cientfica.
Norman, D. A. (1987). Perspectivas de la Ciencia Cognitiva. Buenos Aires, Ediciones
Paidos.
Oguztoreli, M. N. (1991). An Analysis of a Neural Network with a Fixed Memory
Span. IEEE Transactions on Systems, Man and Cybernetics; 21, 3, 683-690.
FABIO E. MARTINEZ C.
83
Opper, M. y Haussler, D. (1995). General Bounds for Predictive Errors in
Supervised Learning. Manuscrito.
Pearce, J. M. (1994). Similarity and Discrimination: A Selective Review and a
Connectionist Model. Psychological Review; 101, 4, 587-607.
Penrose, R. (1989). Emperor's New Mind: Concerning Computers, Minds, and the
Laws of Physics. New York, Oxford University Press.
Peretto, P. (1984). Collective Properties of Neural Networks: A Statistical Physics
Approach. Biological Cybernetics; 50, 51-62.
Prez, A. y Rozo, J. (1999). Neurociencias y Neurocomputacin: Estrategias para
Entender el Comportamiento. Ciencia Psicolgica; 6, 102-109.
Picard, R. W. (1997). Affective Computing. Cambridge, MIT Press.
Pineda, F. J. (1988). Dynamics and Architecture in Neural Computation. Journal of
Complexity; 4, 216-245.
Quinlan, P. (1991). Connectionism and Psychology: A Psychological Perspective on
New Connectionism Research. The University of Chicago Press.
Rangwala, S. S. y Dornfeld, D. A. (1989). Learning and Optimization of Machining
Operations Using Computing Abilities of Neural Networks. IEEE
Transactions on Systems, Man and Cybernetics; 19, 2, 299-314.
Rashevsky, N. (1938). Mathematical Biophysics. Chicago, University of Chicago
Press.
Rescorla, R. A. y Wagner, A. R. (1972). A Theory of Pavlovian Conditioning:
Variations in the Effectiveness of Reinforcement and Nonreinforcement. En
A. H. Black y W. E. Prokasky (Eds.) Classical Conditioning II: Current
Research and Theory (pp. 64-99). New York, Appleton-Century-Crofts.
Rochester, N., Holland, J.H., Habit, L.H. y Duda, W.L. (1956). Test on a cell
assembly theory of the action of the brain, using a large digital computer.
IRE Transactions on Information Theory; 2, 80-93.
Rosenblatt, F. (1958). The Perceptron: A Probabilistic Model for Information
Storage and Organization in the Brain. Psychological Review; 65, 386-408.
Convergencia y estabilidad de las funciones de aprendizaje
84
Rovithakis, G. A. (1999). Robust Neural Adaptive Stabilization of Unknown Systems
with Measurement Noise. IEEE Transactions on Systems, Man and
Cybernetics; 29, 3, 453-459.
Rozo, J. (1995). Dystal: Una Red Neuronal Biolgica. Boletin Internacional de la
Asociacin Latinoamericana para el Anlisis y Modificacin de la Conducta
(ALAMOC); 19, 2-6.
Rumelhart, D. E., Hinton, G. E. y Williams, R. J. (1986). Learning Representations by
Back-propagating error. Nature; 323, 533-536.
Rumelhart, D. E. y McClelland, eds. (1986). Parallel Distributed Processing:
Explorations in the Microstructure of Cognition; vols. 1 y 2. Cambridge,
MA: MIT Press.
Russell, S. J. y Norvig, P. (1995). Artificial Intelligence: A Modern Approach. Jew
Jersey, Prentice Hall.
Sannomiya, N. y Mayuda, K. (1984). A Mathematical Model of fish Behavior in a
Water Tank. IEEE Transactions on Systems, Man and Cybernetics; 14, 1,
157-162.
Shannon, C. E. (1948). A Mathematical Theory of Communication. Urbana,
University of Illinois Press.
Spong, M. W. (1996). Motion Control of Robot Manipulators. En W. S. Levine (Ed.)
The Control Handbook (pp. 1339-1368). IEEE Press.
Stewart, I. (1991). Juega Dios a los Dados? La Nueva Matemtica del Caos.
Barcelona, Editorial Grijalbo, Mondadori.
Sultan, F., Heck, D. y Bekkering, H. (1997). How to Link the Specificity of Cerebellar
Anatomy to Motor Learning?. En C.C. Bell, P.J. Cordo, y S. Harnad (Eds.)
Motor Learning and Synaptic Plasticity in the Cerebellum (pp. 138-138).
Cambridge, Cambridge University Press.
Sutton, R. S. (1984). Temporal Credit Assignment in Reinforcement Learning.
Amherst, University of Massachusetts.
FABIO E. MARTINEZ C.
85
Sutton, R. S., Barto, A. G. y Williams, R. J. (1991). Reinforcement Learning is
Direct Adaptive Optimal Control. Proceedings of the American Control
Conference; Boston, MA, 2143-2146.
Swinnen, S. P., Walter, C. B. y Dounskaia, N. (1997). We Know a Lot About the
Cerebellum, But Do We Know What Motor Learning Is?. En C.C. Bell, P.J.
Cordo, y S. Harnad (Eds.) Motor Learning and Synaptic Plasticity in the
Cerebellum (pp. 138-139). Cambridge, Cambridge University Press.
Takahashi, H. y Gu, H. (1998). A Tight Bound on Concept Learning. IEEE
Transactions on Neural Networks; 9, 6, 1191-1202.
Thach, W. T. (1997). On the Specific Role of the Cerebellum in Motor Learning and
Cognition: Clues From PET Activation and Lesion Studies in Man. En C.C.
Bell, P.J. Cordo, y S. Harnad (Eds.) Motor Learning and Synaptic Plasticity
in the Cerebellum (pp.73-95). Cambridge, Cambridge University Press.
Thelen, E. (1984). Learning to Walk: Ecological Demands and Phylogenetic
Constraints. En L. P. Lipsitt y C. Rovee-Coller (Eds.) Advances in Infancy
Research, vol. 3 (pp. 213-257). Ablex, Norwood-New Jersey.
Thelen, E. y Fisher, D. M. (1982). Newborn Stepping: An Explanation for a
"Disappearing Reflex". Developmental Psychology; 18, 760-775.
Thelen, E., Kelso, J. A. y Fogel, A. (1987). Self Organizing Systems and Infant Motor
Development. Developmental Review; 7, 39-65.
Thelen, E y Smith, L. B. (1994). A Dynamic Systems Approach to the Development of
Cognition and Action. Cambridge, Massachusetts, MIT Press.
Thompson, R. F. (1997). Motor Learning and Synaptic Plasticity in the Cerebellum.
En C.C. Bell, P.J. Cordo, y S. Harnad (Eds.) Motor Learning and Synaptic
Plasticity in the Cerebellum (pp. 139-140). Cambridge, Cambridge
University Press.
Turing, A. M. (1936). On Computable Numbers, with an application to the
Entscheidungs problem. Proceedings of the London Mathematical Society;
42, 230-265
Convergencia y estabilidad de las funciones de aprendizaje
86
Valiant, L. (1984). A Theory of the Learnable. Comunications of the Association for
Computing Machinery; 27, 1134-1142.
Vapnik, V. N. y Chervonenkis, A. Y. (1971). On the uniform convergence of relative
frequencies of events to their probabilities. Theory of Probability and Its
Applications; 16, 264-280.
Vapnik, V. N. (1982). Estimation of Dependences Based on Empirical Data. New
York, Springer-Verlag.
Varberg, D. y Purcell, E. (1997). Calculus. New Jersey, Prentice Hall.
Wei, G.Q. y Hirtzinger, G. (1999). Multisensory Visual Servoing by a Neural
Network. IEEE Transactions on Systems, Man and Cybernetics; Parte B:
Cybernetics; 29, 2, 276-280
Werbos, P. J. (1974). Beyond Regression: New Tools for Prediction and Analysis in
the Behavioral Sciences. Ph.D. Thesis, Harvard University, Cambridge, MA.
Wiener, N. (1948). Cybernetics: Or, Control and Communication in the Animal and
the Machine. New York, Wiley.
Yager, R. R. (1990). A Model of Participatory Learning. IEEE Transactions on
Systems, Man and Cybernetics; 20, 5, 1229-1234.
Zalzala, A.M. y Morris, A.S. (1996). Neural Networks for Robotic Control: Theory
and Applications. London, Ellis Horwood
Zeller, M., Sharma, R. y Schulten, K. (1997). Motion Planning of a Pneumatic Robot
Using a Neural Network. IEEEJournal of Control Systems; 6, 89-98.
faviolin@yahoo.com
Copyright 2000