Você está na página 1de 4

Teora hebbiana

La teora Hebbiana describe un mecanismo bsico de


(o se agrandan si ya existen) en contacto con
plasticidad sinptica en el que el valor de una conexin
el soma de la segunda clula. (Hebb, 1949, p.
sinptica se incrementa si las neuronas de ambos lados
63)
de dicha sinapsis se activan repetidas veces de forma simultnea. Introducida por Donald Hebb, en 1949, es tambin llamada regla de Hebb, postulado de aprendizaje Gordon Allport ha propuesto nuevas ideas sobre la teora
de Hebb o Teora de la Asamblea Celular, y arma lo de la Asamblea clular y su papel en la formacin de los
siguiente:
engramas, en el sentido del concepto de auto-asociacin,
que se describe como sigue:
Supongamos que la persistencia de una actividad repetitiva (o seal) tiende a inducir cambios celulares duraderos que promueven su esSi las entradas a un sistema producen el mistabilidad. ... Cuando el axn de una clula A
mo patrn de actividad repetidamente, el conest lo sucientemente cerca como para excitar
junto de elementos activos que constituyen ese
a una clula B y repetidamente toma parte en
modelo llegarn a tener una interasociacin
la activacin, ocurren procesos de crecimiento
ms fuerte. Es decir, cada elemento tender a
o cambios metablicos en una o ambas clulas
activar a otros elementos y (con pesos negade manera que tanto la eciencia de la clula A,
tivos) a inactivar a los elementos que no forcomo la capacidad de excitacin de la clula B
men parte del patrn. En otras palabras, el
son aumentadas.
patrn en su conjunto se convertir en 'autoasociado'. Se puede decir que un aprendizaLa teora se resume a menudo como: "las clulas que se
je (auto-asociado) es un patrn de engrama.
disparan juntas, permanecern conectadas", aunque esto
(Hebb, 1949, p. 44)
es una simplicacin del sistema nervioso no debe tomarse literalmente, as como no representa con exactitud la
declaracin original de Hebb sobre cambios de la fuerza
de conectividad en las clulas. La teora es comnmente
evocada para explicar algunos tipos de aprendizajes asociativos en los que la activacin simultnea de las clulas
conduce a un pronunciado aumento de la fuerza sinptica.
Este aprendizaje se conoce como aprendizaje de Hebb.

La teora hebbiana ha sido la base principal de la visin


convencional de que los engramas son redes neuronales
cuando se analizan desde un nivel holstico.
Los trabajos de laboratorio de Eric Kandel han aportado
pruebas de la participacin de mecanismos de aprendizaje
hebbiano en las sinapsis del gasterpodo marino Aplysia
californica

Los Engramas de Hebb y la teora de la Asamblea celular

Los experimentos sobre los mecanismos hebbianos de


modicacin en las sinapsis del sistema nervioso central
de vertebrados son mucho ms difciles de controlar que
La teora de Hebb se encarga de cmo se conectan las los experimentos con las sinapsis del relativamente simneuronas formando engramas. Las teoras de Hebb sobre ple sistema nervioso perifrico estudiadas en invertebrala forma y la funcin de la asamblea celular se pueden dos marinos. Gran parte del trabajo sobre cambios sinpticos de larga duracin en neuronas de vertebrados (como
entender de la siguiente manera:
la potenciacin a largo plazo) implican el uso de estimulacin experimental no siolgica de clulas cerebrales.
La idea es antigua, que dos clulas o sistemas
Sin embargo, algunos de los mecanismos siolgicamende clulas que estn continuamente activas al
te relevantes de modicacin sinaptica que se han estumismo tiempo, tendern a convertirse en 'asodiado en cerebros de vertebrados parecen ser ejemplos de
ciadas, de manera que la actividad de una faprocesos hebbianos. Una estudio resultado de estos expecilitar la de la otra. (Hebb, 1949, p. 70)
rimentos indica que los cambios a largo plazo en la fuerza
Cuando una clula ayuda en repetidas ocasiode las sinapsis pueden ser inducidos por actividad sinpnes a que otra se dispare, en el axn de la pritica siolgicamente relevante que trabaja tanto a travs
mera clula se desarrollan botones sinpticos
de mecanismos hebbianos como no hebbianos.
1

Principios

VASE TAMBIN

muchos otros fenmenos de aprendizaje es el modelo matemtico de Harry Klopf. El modelo de Klopf reproduce
Desde el punto de vista de las neuronas articiales y redes gran cantidad de fenmenos biolgicos, y tambin es fcil
neuronales articiales, el principio de Hebb se puede des- de aplicar.
cribir como un mtodo de determinar la forma de modicar los pesos entre modelos de neuronas. El peso entre
dos neuronas se incrementa si las dos neuronas se activan 3 Generalizacin y estabilidad
simultneamente y se reduce si se activan por separado.
Los nodos que tienden a ser positivos o negativos al mismo tiempo tienen fuertes pesos positivos, mientras que La regla de Hebb se generaliza frecuentemente como:
aquellos que tienden a ser contrarios tienen fuertes pesos
negativos.
Este original principio es quizs la forma ms simple de wi = xi y
seleccin de pesos. Si bien esto signica que puede ser
relativamente fcil de codicar en un programa inform- o el cambio en el peso wi de la sinapsis nmero i es igual
tico y se utilize para actualizar los pesos correspondientes a la tasa de aprendizaje por la entrada nmero i xi por
de una red de neuronas, tambin limita el nmero de apli- la respuesta postsinptica y . A menudo se cita el caso de
caciones de aprendizaje hebbiano. Hoy en da, el trmino una neurona lineal,
aprendizaje hebbiano por lo general se reere a algn tipo de abstraccin matemtica del principio original pro
puesto por Hebb. En este sentido, el aprendizaje hebbiano y =
wj xj
implica que los pesos sean ajustados de manera que caj
da uno de ellos represente la mejor relacin posible entre
los nodos. Como tal, muchos mtodos de aprendizaje de la simplicacin de la seccin anterior tiene en cuenta
la naturaleza pueden ser consideradas como hebbianos.
que tanto la tasa de aprendizaje como los pesos de entraLa siguiente es una formulacin matemtica del apren- da sean 1. Esta versin de la regla es claramente inestable,
dizaje hebbiano: (ntese que muchas otras descripciones como en cualquier red con una seal dominante los pesos
aumentarn o disminuirn exponencialmente. Sin embarson posibles)
go, se puede ver que para cualquier modelo de neurona,
la regla de Hebb es inestable. Por lo que los modelos de
redes de neuronas suelen emplear otras teoras de aprenwij = xi xj
dizaje, tales como la teora BCM, la regla de Oja,[1] o el
donde wij es el peso de la conexin de la neurona j a la algoritmo hebbiano generalizado.
neurona i y xi el valor de entrada para la neurona i . Hay
que tener en cuenta que este es el modelo de aprendizaje
(pesos actualizados despus de cada ejemplo de entrenamiento). En una Red de Hopeld las conexiones wij se 4 Vase tambin
ponen a cero si i = j (no se permiten conexiones reexivas). Con neuronas binarias (valores de activacin de
Teora BCM
0 1) las conexiones se establecen a 1 si las neuronas
conectadas tienen el mismo patrn de activacin.
Deteccin de coincidencias en Neurobiologa
Otra formulacin matemtica es:
1 k k
xi xj
n
p

wij =

k=1

donde wij es el peso de la conexin de la neurona j a


la neurona i , n es la dimensin del vector de entrada,
p el nmero de patrones de aprendizaje, y xki la entrada
nmero k para la neurona i . Es un aprendizaje por pocas
(los pesos se actualizan despus de que todos los ejemplos
de formacin se han presentado). De nuevo en las redes
Hopeld las conexiones wij se ponen a cero si i = j
(conexiones no reexivas).
Una variacin del aprendizaje hebbiano que toma en
cuenta fenmenos como el bloqueo de los nervios y de

Potenciacin a largo plazo


Memoria
Metaplasticidad
Redes Neuronales
Estimulacin tetnica
Leabra
Redes de Hopeld
Principio de Dale

Referencias

[1] Shouval, Harel (3 de enero de 2005). The Physics of the


Brain. The Synaptic basis for Learning and Memory: A
theoretical approach (en ingls). The University of Texas
Health Science Center at Houston. Archivado desde el original el 02 de diciembre de 2015. Consultado el 14 de noviembre de 2007.

Lecturas adicionales
Hebb, D.O. (1985). Debate, ed. La organizacin de
la conducta. Madrid.
Hebb, D.O. (1949). Wiley, ed. The Organization of
Behavior (en ingls). New York.
Hebb, D.O. (1961). Distinctive features of learning
in the higher animal. En J. F. Delafresnaye. Brain
Mechanisms and Learning (en ingls). London: Oxford University Press.
Hebb, D.O.; y Peneld, W. (1940). Human behaviour after extensive bilateral removal from the
frontal lobes. Archives of Neurology and Psychiatry
(en ingls) 44: 421436.
Allport, D.A. (1985). Distributed memory, modular systems and dysphasia. En Newman, S.K. and
Epstein, R. Current Perspectives in Dysphasia (en
ingls). Edinburgh: Churchill Livingstone. ISBN 0443-03039-1.
Bishop, C.M. (1995). Neural Networks for Pattern
Recognition (en ingls). Oxford: Oxford University
Press. ISBN 0-19-853849-9.
Flrez Lpez, Raquel; Fernndez Fernndez, J. Miguel (2008). Netbiblo, ed. Las redes neuronales articiales. ISBN 978-84-9745-246-5.
Paulsen, O.; Sejnowski, T. J. (2000). Natural patterns of activity and long-term synaptic plasticity.
Current opinion in neurobiology (en ingls) 10 (2):
172179. doi:10.1016/S0959-4388(00)00076-3. PMID
10753798.

Enlaces externos
Regla de Hebb
El legado de Hebb para la psicologa cientca
Descripcin general (en ingls)
Tutorial de aprendizaje hebbiano (en ingls) (Part 1:
Novelty Filtering, Part 2: PCA)

8 ORIGEN DEL TEXTO Y LAS IMGENES, COLABORADORES Y LICENCIAS

Origen del texto y las imgenes, colaboradores y licencias

8.1

Texto

Teora hebbiana Fuente: https://es.wikipedia.org/wiki/Teor%C3%ADa_hebbiana?oldid=87715812 Colaboradores: Superzerocool, Muro


Bot, Kikobot, Farisori, Leonpolanco, LucienBOT, Andreasmperu, Luckas-bot, Finderlog, FrescoBot, Enrique Cordero, AriasFco, Edslov,
EmausBot, ZroBot, Elvisor, Addbot, BenjaBot y Annimos: 2

8.2

Imgenes

8.3

Licencia del contenido

Creative Commons Attribution-Share Alike 3.0

Você também pode gostar