Escolar Documentos
Profissional Documentos
Cultura Documentos
Índice
[ocultar]
1Principios básicos
o 1.1Propagación de activación
o 1.2Redes neuronales artificiales
o 1.3Realismo biológico
o 1.4Aprendizaje
2Historia
o 2.1Procesamiento distribuido en paralelo
o 2.2Primeros trabajos
o 2.3Conexionismo aparte de PDP
3Debate conexionismo vs. Inteligencia artificial convencional
4Véase también
5Referencias
6Bibliografía
7Enlaces externos
Principios básicos[editar]
El principio central del conexionismo es que los fenómenos mentales pueden ser descritos por
redes de unidades sencillas y frecuentemente iguales que se interconectan. La forma de las
conexiones y de las unidades varía de un modelo a otro. Por ejemplo, las unidades de la red
podrían representar neuronas y las conexiones podrían representar sinapsis. Otro modelo
podría hacer cada unidad de la red una palabra, y cada conexión una indicación de similitud
semántica.
Propagación de activación[editar]
En la mayoría de los modelos conexionistas las redes cambian con el tiempo. Un aspecto
estrechamente relacionado y muy común de los modelos conexionistas es la activación. En
cualquier momento, una unidad de la red se activa mediante un valor numérico que pretende
representar algún aspecto de la unidad. Por ejemplo, si las unidades del modelo son
neuronas, la activación puede representar a la probabilidad de que la neurona genere un pico
en su potencial de acción. Si se trata de un modelo de propagación de activación, entonces
con el tiempo la activación de una unidad se extenderá a todas las demás unidades
conectadas a ella. La propagación de activación es siempre una característica de los modelos
de redes neuronales, y es muy común en los modelos conexionistas utilizados en psicología
cognitiva.
Redes neuronales artificiales[editar]
Artículo principal: Red neuronal artificial
Las redes neuronales son los modelos conexionistas más utilizados hoy en día. Muchas
investigaciones en las que se utilizan redes neuronales son denominadas con el nombre más
genérico de "conexionistas". Aunque hay gran variedad de modelos de redes neuronales, casi
siempre siguen dos principios básicos relativos a la mente:
1. Cualquier estado mental puede ser descrito como un vector (N)-dimensional de los
valores numéricos de activación en las unidades neurales de una red.
2. La memoria se crea cuando se modifican los valores que representan la fuerza de las
conexiones entre las unidades neurales. La fuerza de las conexiones, o "pesos", son
generalmente representados como una matriz de (N × N) dimensiones.
La mayoría de los distintos modelos de redes neuronales aparecen por:
Historia[editar]
Las bases de las ideas conexionistas se pueden remontar a finales del siglo XIX,
cuando Santiago Ramón y Cajal estableció las bases para los estudios de redes neuronales,
cuando describió la estructura de las neuronas y su forma de interconexión.3 Más tarde, en
1949, Donald Hebb propuso su postulado de aprendizaje según el cual la conexión entre dos
neuronas se hará más fuerte si se disparan al mismo tiempo. Pero no fue hasta la década de
1980 cuando el conexionismo se convirtió en un punto de vista popular entre los científicos.
Procesamiento distribuido en paralelo[editar]
El enfoque conexionista que prevalece hoy en día fue originalmente conocido como
procesamiento distribuido en paralelo (PDP). Era un enfoque de red neuronal que destacó el
carácter paralelo del procesamiento neuronal, y la naturaleza distribuida de las
representaciones neuronales. Dicho enfoque proporciona a los investigadores un marco
matemático general en el que operar. Dicho marco implica ocho aspectos principales:
La información procedente del mundo que nos rodea es conducida hacia el cerebro
a través de un complicado sistema sensorial consistente en receptores de diversas
clases que actúan como transductores; estos transforman los estímulos físicos y
químicos del ambiente en impulsos nerviosos que el cerebro puede interpretar y
darles un significado. Existe una gran variedad de cerebros en el reino animal, pero
como además el sistema sensorial es muy distinto entre las diferentes especies, la
interpretación, necesariamente, no puede ser la misma; es decir, la interpretación
del mundo externo es característica de cada especie.
Máquinas ‘pensantes’
A lo largo de los años hemos inventado máquinas cuyas capacidades parecían estar
limitadas porque pensábamos que algunas facultades eran exclusivas del ser
humano, como por ejemplo, jugar al ajedrez al nivel de un gran maestro. Esto tiene
relación con uno de los temas recurrentes desde los tiempos de René Descartes
(1596-1650), el de las maquinas pensantes. ¿Podría formular una máquina el célebre
principio de Descartes cogito ergo sum (pienso luego existo)? Alan Turing (1912-
1954), considerado uno de los padres de la ciencia de la computación y precursor de
la informática moderna, comienza su clásico artículo Computing Machinery and
Intelligence (Turing, 1950) con el siguiente planteamiento: “Propongo considerar la
siguiente cuestión: ¿pueden pensar las máquinas?”. Al final de su ensayo afirma: “Es
de suponer que con el tiempo las máquinas podrán competir con los seres humanos
en todos los campos puramente intelectuales. ¿Pero por dónde empezar? Incluso
esto es una decisión difícil. Muchas personas creen que lo mejor sería comenzar con
una actividad muy abstracta, como el juego de ajedrez.” Cuarenta y seis años
después, la sugerencia planteada por Turing se hizo realidad, y el superordenador
Deep Blue de IBM y el campeón del mundo de ajedrez Gary Kasparov disputaron dos
torneos de ajedrez de 6 partidas cada uno.
El primer torneo se jugó en 1996 y Kasparov ganó 3 partidas, empató 2 y perdió una.
Al año siguiente, después de que los programadores introdujesen mejoras en el
superordenador, se celebró el segundo torneo y Deep Blue ganó 2 partidas, empató
3 y perdió una. Esta victoria de la máquina sobre el ser humano supuso un antes y
un después que levantó un gran revuelo en todos los ámbitos académicos: ¿Es Deep
Blue una máquina pensante? ¿Significa esta victoria el comienzo de la superioridad
de las máquinas y la pérdida del control sobre las máquinas que construimos? ¿Por
qué la idea de la inteligencia artificial provoca una reacción emocional negativa en
muchos filósofos y neurocientíficos? ¿Dónde está la frontera que delimita el terreno
humano y el de la máquina?
Esto nos lleva a la cuestión de hasta qué punto es necesario conocer el más mínimo
detalle de la estructura del cerebro para descifrar su funcionamiento. Quizás la
contestación más satisfactoria es que depende de la complejidad de la tarea y de la
respuesta. Así, la acción de caminar no requiere una corteza cerebral motora, ya que
la mayoría de los seres que caminan no tienen corteza cerebral, como por ejemplo
las hormigas, pero caminar jugando al futbol sí requiere un cerebro humano. En
otras palabras, podemos simular y entender cómo nos movemos con tanta exactitud
como para construir un robot que nos imite, pero realizar las múltiples tareas
complejas típicas del ser humano requiere otro nivel o niveles de conocimiento. En
mi opinión, Deep Blue, Spaun y otros modelos son útiles para estudiar ciertos
aspectos del funcionamiento del cerebro, pero hasta que no conozcamos
completamente el contenido de estas cajas negras y pasemos de la ‘arquitectura
cerebral negra’ a una ‘arquitectura cerebral detallada’, en donde además de conocer
todos los elementos que componen el cerebro y el mapa de conexiones sinápticas o
sinaptoma podamos distinguir la redundancia de los elementos constituyentes, no
podremos entender completamente el funcionamiento de cerebro.
Los orígenes del proyecto Blue Brain se remontan al año 2005, cuando L’École
Polytechnique Fédérale de Lausanne (Suiza) y la compañía IBM anunciaron
conjuntamente el ambicioso proyecto de crear un modelo funcional del cerebro
utilizando el superordenador Blue Gene, de IBM.
Es importante destacar que este proyecto, dirigido por Henry Markram, tiene por
objetivo la ingeniería inversa del cerebro, a fin de explorar su funcionamiento y servir
de herramienta para futuras investigaciones en neurociencia y biomedicina. El
proyecto no pretende fabricar un cerebro artificial, sino una representación del
sistema biológico cerebral, que nada tiene que ver con la creación de inteligencia
consciente. A finales de 2006, el proyecto Blue Brain había creado un modelo de la
unidad funcional básica del cerebro, la columna cortical (Markram, 2006). Sin
embargo, las metas propuestas por el proyecto, que se marca un plazo de 10 años,
imponían su conversión en una iniciativa internacional. En este contexto surge en
enero de 2009 el proyecto Cajal Blue Brain, donde se materializa la participación
española en el proyecto, dirigido por el autor de este artículo en el Laboratorio Cajal
de Circuitos Corticales (laboratorio conjunto Universidad Politécnica de
Madrid/Consejo Superior de Investigaciones Científicas, localizado en el Centro de
Tecnología Biomédica de dicha universidad).
Los beneficios para la sociedad derivados de HBP serán enormes. Incluso antes de
que el proyecto logre sus objetivos finales, los modelos del cerebro de HBP
revolucionarán la tecnología de la información, haciendo posible el diseño de
ordenadores, robots, sensores y otros dispositivos mucho más eficaces, más
inteligentes y de mayor eficiencia energética que los actuales. Aunque el cerebro
consume aproximadamente el 20% de la energía de nuestro cuerpo, su eficiencia
energética es extraordinaria, ya que gasta más o menos la misma energía que una
bombilla de bajo consumo de 20 W (unas 17 kilocalorías/hora), mientras que, por
ejemplo, el superordenador Magerit cuya capacidad es equivalente a unos 4.000
ordenadores de sobremesa normales, es de 154 KW (unas 132.446 kilocalorías/
hora). Los modelos del cerebro nos ayudarán a entender las causas de las
enfermedades del cerebro en su diagnóstico temprano, cuando todavía se puede
tratar. Será más fácil el desarrollo de nuevas curas para las enfermedades del
cerebro, reduciendo nuestra dependencia de los ensayos con animales. Dichos
modelos nos ayudarán a comprender cómo envejece el cerebro, cómo ralentizar estos
cambios y cómo mejorar nuestras capacidades cognitivas y también para alcanzar el
máximo de la potencialidad del cerebro de las generaciones futuras. En resumen, los
grandes proyectos que ya están en marcha, como el Blue Brain y el liderado por Allen
Institute y los que están a punto de comenzar como HBP y Brain Activity Map
(Kandel et al., 2013) son ejemplos de cómo las nuevas tecnologías y las estrategias
interdisciplinares están dando lugar a avances tecnológicos espectaculares y que sin
duda se acelerarán de forma notable con el inicio de las nuevas grandes iniciativas.
No cabe duda de que gracias a este nuevo impulso de la neurociencia a escala
mundial será posible comprender mejor cómo funciona el cerebro normal y cómo se
altera ante diversas enfermedades, con el fin de poder modelar nuevas terapias para
el tratamiento de dichas dolencias.
La información procedente del mundo que nos rodea es conducida hacia el cerebro
a través de un complicado sistema sensorial consistente en receptores de diversas
clases que actúan como transductores; estos transforman los estímulos físicos y
químicos del ambiente en impulsos nerviosos que el cerebro puede interpretar y
darles un significado. Existe una gran variedad de cerebros en el reino animal, pero
como además el sistema sensorial es muy distinto entre las diferentes especies, la
interpretación, necesariamente, no puede ser la misma; es decir, la interpretación
del mundo externo es característica de cada especie.
Es decir, la actividad de la corteza cerebral está relacionada con las capacidades que
diferencian al ser humano de otros mamíferos, como por ejemplo, el lenguaje, la
imaginación y la capacidad de abstracción, permitiéndonos realizar tareas tan
extraordinarias y sumamente complicadas y humanas como escribir una poesía o
inventar el avión. Sin embargo, el principal obstáculo para estudiar el cerebro es la
extrema complejidad de los circuitos neuronales A modo de ejemplo en relación con
esta complejidad, se ha calculado que 1 mm3 de corteza cerebral humana contiene
en torno a 27.000 neuronas y 1.000 millones de conexiones sinápticas (Alonso-
Nanclares et al., 2008). En general, la corteza cerebral contiene un conjunto similar
de elementos al de cualquier otra región del sistema nervioso central.
Máquinas ‘pensantes’
A lo largo de los años hemos inventado máquinas cuyas capacidades parecían estar
limitadas porque pensábamos que algunas facultades eran exclusivas del ser
humano, como por ejemplo, jugar al ajedrez al nivel de un gran maestro. Esto tiene
relación con uno de los temas recurrentes desde los tiempos de René Descartes
(1596-1650), el de las maquinas pensantes. ¿Podría formular una máquina el célebre
principio de Descartes cogito ergo sum (pienso luego existo)? Alan Turing (1912-
1954), considerado uno de los padres de la ciencia de la computación y precursor de
la informática moderna, comienza su clásico artículo Computing Machinery and
Intelligence (Turing, 1950) con el siguiente planteamiento: “Propongo considerar la
siguiente cuestión: ¿pueden pensar las máquinas?”. Al final de su ensayo afirma: “Es
de suponer que con el tiempo las máquinas podrán competir con los seres humanos
en todos los campos puramente intelectuales. ¿Pero por dónde empezar? Incluso
esto es una decisión difícil. Muchas personas creen que lo mejor sería comenzar con
una actividad muy abstracta, como el juego de ajedrez.” Cuarenta y seis años
después, la sugerencia planteada por Turing se hizo realidad, y el superordenador
Deep Blue de IBM y el campeón del mundo de ajedrez Gary Kasparov disputaron dos
torneos de ajedrez de 6 partidas cada uno.
El primer torneo se jugó en 1996 y Kasparov ganó 3 partidas, empató 2 y perdió una.
Al año siguiente, después de que los programadores introdujesen mejoras en el
superordenador, se celebró el segundo torneo y Deep Blue ganó 2 partidas, empató
3 y perdió una. Esta victoria de la máquina sobre el ser humano supuso un antes y
un después que levantó un gran revuelo en todos los ámbitos académicos: ¿Es Deep
Blue una máquina pensante? ¿Significa esta victoria el comienzo de la superioridad
de las máquinas y la pérdida del control sobre las máquinas que construimos? ¿Por
qué la idea de la inteligencia artificial provoca una reacción emocional negativa en
muchos filósofos y neurocientíficos? ¿Dónde está la frontera que delimita el terreno
humano y el de la máquina?
Esto nos lleva a la cuestión de hasta qué punto es necesario conocer el más mínimo
detalle de la estructura del cerebro para descifrar su funcionamiento. Quizás la
contestación más satisfactoria es que depende de la complejidad de la tarea y de la
respuesta. Así, la acción de caminar no requiere una corteza cerebral motora, ya que
la mayoría de los seres que caminan no tienen corteza cerebral, como por ejemplo
las hormigas, pero caminar jugando al futbol sí requiere un cerebro humano. En
otras palabras, podemos simular y entender cómo nos movemos con tanta exactitud
como para construir un robot que nos imite, pero realizar las múltiples tareas
complejas típicas del ser humano requiere otro nivel o niveles de conocimiento. En
mi opinión, Deep Blue, Spaun y otros modelos son útiles para estudiar ciertos
aspectos del funcionamiento del cerebro, pero hasta que no conozcamos
completamente el contenido de estas cajas negras y pasemos de la ‘arquitectura
cerebral negra’ a una ‘arquitectura cerebral detallada’, en donde además de conocer
todos los elementos que componen el cerebro y el mapa de conexiones sinápticas o
sinaptoma podamos distinguir la redundancia de los elementos constituyentes, no
podremos entender completamente el funcionamiento de cerebro.
Los orígenes del proyecto Blue Brain se remontan al año 2005, cuando L’École
Polytechnique Fédérale de Lausanne (Suiza) y la compañía IBM anunciaron
conjuntamente el ambicioso proyecto de crear un modelo funcional del cerebro
utilizando el superordenador Blue Gene, de IBM.
Es importante destacar que este proyecto, dirigido por Henry Markram, tiene por
objetivo la ingeniería inversa del cerebro, a fin de explorar su funcionamiento y servir
de herramienta para futuras investigaciones en neurociencia y biomedicina. El
proyecto no pretende fabricar un cerebro artificial, sino una representación del
sistema biológico cerebral, que nada tiene que ver con la creación de inteligencia
consciente. A finales de 2006, el proyecto Blue Brain había creado un modelo de la
unidad funcional básica del cerebro, la columna cortical (Markram, 2006). Sin
embargo, las metas propuestas por el proyecto, que se marca un plazo de 10 años,
imponían su conversión en una iniciativa internacional. En este contexto surge en
enero de 2009 el proyecto Cajal Blue Brain, donde se materializa la participación
española en el proyecto, dirigido por el autor de este artículo en el Laboratorio Cajal
de Circuitos Corticales (laboratorio conjunto Universidad Politécnica de
Madrid/Consejo Superior de Investigaciones Científicas, localizado en el Centro de
Tecnología Biomédica de dicha universidad).
Los beneficios para la sociedad derivados de HBP serán enormes. Incluso antes de
que el proyecto logre sus objetivos finales, los modelos del cerebro de HBP
revolucionarán la tecnología de la información, haciendo posible el diseño de
ordenadores, robots, sensores y otros dispositivos mucho más eficaces, más
inteligentes y de mayor eficiencia energética que los actuales. Aunque el cerebro
consume aproximadamente el 20% de la energía de nuestro cuerpo, su eficiencia
energética es extraordinaria, ya que gasta más o menos la misma energía que una
bombilla de bajo consumo de 20 W (unas 17 kilocalorías/hora), mientras que, por
ejemplo, el superordenador Magerit cuya capacidad es equivalente a unos 4.000
ordenadores de sobremesa normales, es de 154 KW (unas 132.446 kilocalorías/
hora). Los modelos del cerebro nos ayudarán a entender las causas de las
enfermedades del cerebro en su diagnóstico temprano, cuando todavía se puede
tratar. Será más fácil el desarrollo de nuevas curas para las enfermedades del
cerebro, reduciendo nuestra dependencia de los ensayos con animales. Dichos
modelos nos ayudarán a comprender cómo envejece el cerebro, cómo ralentizar estos
cambios y cómo mejorar nuestras capacidades cognitivas y también para alcanzar el
máximo de la potencialidad del cerebro de las generaciones futuras. En resumen, los
grandes proyectos que ya están en marcha, como el Blue Brain y el liderado por Allen
Institute y los que están a punto de comenzar como HBP y Brain Activity Map
(Kandel et al., 2013) son ejemplos de cómo las nuevas tecnologías y las estrategias
interdisciplinares están dando lugar a avances tecnológicos espectaculares y que sin
duda se acelerarán de forma notable con el inicio de las nuevas grandes iniciativas.
No cabe duda de que gracias a este nuevo impulso de la neurociencia a escala
mundial será posible comprender mejor cómo funciona el cerebro normal y cómo se
altera ante diversas enfermedades, con el fin de poder modelar nuevas terapias para
el tratamiento de dichas dolencias.
La información procedente del mundo que nos rodea es conducida hacia el cerebro
a través de un complicado sistema sensorial consistente en receptores de diversas
clases que actúan como transductores; estos transforman los estímulos físicos y
químicos del ambiente en impulsos nerviosos que el cerebro puede interpretar y
darles un significado. Existe una gran variedad de cerebros en el reino animal, pero
como además el sistema sensorial es muy distinto entre las diferentes especies, la
interpretación, necesariamente, no puede ser la misma; es decir, la interpretación
del mundo externo es característica de cada especie.
Es decir, la actividad de la corteza cerebral está relacionada con las capacidades que
diferencian al ser humano de otros mamíferos, como por ejemplo, el lenguaje, la
imaginación y la capacidad de abstracción, permitiéndonos realizar tareas tan
extraordinarias y sumamente complicadas y humanas como escribir una poesía o
inventar el avión. Sin embargo, el principal obstáculo para estudiar el cerebro es la
extrema complejidad de los circuitos neuronales A modo de ejemplo en relación con
esta complejidad, se ha calculado que 1 mm3 de corteza cerebral humana contiene
en torno a 27.000 neuronas y 1.000 millones de conexiones sinápticas (Alonso-
Nanclares et al., 2008). En general, la corteza cerebral contiene un conjunto similar
de elementos al de cualquier otra región del sistema nervioso central.
Máquinas ‘pensantes’
A lo largo de los años hemos inventado máquinas cuyas capacidades parecían estar
limitadas porque pensábamos que algunas facultades eran exclusivas del ser
humano, como por ejemplo, jugar al ajedrez al nivel de un gran maestro. Esto tiene
relación con uno de los temas recurrentes desde los tiempos de René Descartes
(1596-1650), el de las maquinas pensantes. ¿Podría formular una máquina el célebre
principio de Descartes cogito ergo sum (pienso luego existo)? Alan Turing (1912-
1954), considerado uno de los padres de la ciencia de la computación y precursor de
la informática moderna, comienza su clásico artículo Computing Machinery and
Intelligence (Turing, 1950) con el siguiente planteamiento: “Propongo considerar la
siguiente cuestión: ¿pueden pensar las máquinas?”. Al final de su ensayo afirma: “Es
de suponer que con el tiempo las máquinas podrán competir con los seres humanos
en todos los campos puramente intelectuales. ¿Pero por dónde empezar? Incluso
esto es una decisión difícil. Muchas personas creen que lo mejor sería comenzar con
una actividad muy abstracta, como el juego de ajedrez.” Cuarenta y seis años
después, la sugerencia planteada por Turing se hizo realidad, y el superordenador
Deep Blue de IBM y el campeón del mundo de ajedrez Gary Kasparov disputaron dos
torneos de ajedrez de 6 partidas cada uno.
El primer torneo se jugó en 1996 y Kasparov ganó 3 partidas, empató 2 y perdió una.
Al año siguiente, después de que los programadores introdujesen mejoras en el
superordenador, se celebró el segundo torneo y Deep Blue ganó 2 partidas, empató
3 y perdió una. Esta victoria de la máquina sobre el ser humano supuso un antes y
un después que levantó un gran revuelo en todos los ámbitos académicos: ¿Es Deep
Blue una máquina pensante? ¿Significa esta victoria el comienzo de la superioridad
de las máquinas y la pérdida del control sobre las máquinas que construimos? ¿Por
qué la idea de la inteligencia artificial provoca una reacción emocional negativa en
muchos filósofos y neurocientíficos? ¿Dónde está la frontera que delimita el terreno
humano y el de la máquina?
Esto nos lleva a la cuestión de hasta qué punto es necesario conocer el más mínimo
detalle de la estructura del cerebro para descifrar su funcionamiento. Quizás la
contestación más satisfactoria es que depende de la complejidad de la tarea y de la
respuesta. Así, la acción de caminar no requiere una corteza cerebral motora, ya que
la mayoría de los seres que caminan no tienen corteza cerebral, como por ejemplo
las hormigas, pero caminar jugando al futbol sí requiere un cerebro humano. En
otras palabras, podemos simular y entender cómo nos movemos con tanta exactitud
como para construir un robot que nos imite, pero realizar las múltiples tareas
complejas típicas del ser humano requiere otro nivel o niveles de conocimiento. En
mi opinión, Deep Blue, Spaun y otros modelos son útiles para estudiar ciertos
aspectos del funcionamiento del cerebro, pero hasta que no conozcamos
completamente el contenido de estas cajas negras y pasemos de la ‘arquitectura
cerebral negra’ a una ‘arquitectura cerebral detallada’, en donde además de conocer
todos los elementos que componen el cerebro y el mapa de conexiones sinápticas o
sinaptoma podamos distinguir la redundancia de los elementos constituyentes, no
podremos entender completamente el funcionamiento de cerebro.
Los orígenes del proyecto Blue Brain se remontan al año 2005, cuando L’École
Polytechnique Fédérale de Lausanne (Suiza) y la compañía IBM anunciaron
conjuntamente el ambicioso proyecto de crear un modelo funcional del cerebro
utilizando el superordenador Blue Gene, de IBM.
Es importante destacar que este proyecto, dirigido por Henry Markram, tiene por
objetivo la ingeniería inversa del cerebro, a fin de explorar su funcionamiento y servir
de herramienta para futuras investigaciones en neurociencia y biomedicina. El
proyecto no pretende fabricar un cerebro artificial, sino una representación del
sistema biológico cerebral, que nada tiene que ver con la creación de inteligencia
consciente. A finales de 2006, el proyecto Blue Brain había creado un modelo de la
unidad funcional básica del cerebro, la columna cortical (Markram, 2006). Sin
embargo, las metas propuestas por el proyecto, que se marca un plazo de 10 años,
imponían su conversión en una iniciativa internacional. En este contexto surge en
enero de 2009 el proyecto Cajal Blue Brain, donde se materializa la participación
española en el proyecto, dirigido por el autor de este artículo en el Laboratorio Cajal
de Circuitos Corticales (laboratorio conjunto Universidad Politécnica de
Madrid/Consejo Superior de Investigaciones Científicas, localizado en el Centro de
Tecnología Biomédica de dicha universidad).
Los beneficios para la sociedad derivados de HBP serán enormes. Incluso antes de
que el proyecto logre sus objetivos finales, los modelos del cerebro de HBP
revolucionarán la tecnología de la información, haciendo posible el diseño de
ordenadores, robots, sensores y otros dispositivos mucho más eficaces, más
inteligentes y de mayor eficiencia energética que los actuales. Aunque el cerebro
consume aproximadamente el 20% de la energía de nuestro cuerpo, su eficiencia
energética es extraordinaria, ya que gasta más o menos la misma energía que una
bombilla de bajo consumo de 20 W (unas 17 kilocalorías/hora), mientras que, por
ejemplo, el superordenador Magerit cuya capacidad es equivalente a unos 4.000
ordenadores de sobremesa normales, es de 154 KW (unas 132.446 kilocalorías/
hora). Los modelos del cerebro nos ayudarán a entender las causas de las
enfermedades del cerebro en su diagnóstico temprano, cuando todavía se puede
tratar. Será más fácil el desarrollo de nuevas curas para las enfermedades del
cerebro, reduciendo nuestra dependencia de los ensayos con animales. Dichos
modelos nos ayudarán a comprender cómo envejece el cerebro, cómo ralentizar estos
cambios y cómo mejorar nuestras capacidades cognitivas y también para alcanzar el
máximo de la potencialidad del cerebro de las generaciones futuras. En resumen, los
grandes proyectos que ya están en marcha, como el Blue Brain y el liderado por Allen
Institute y los que están a punto de comenzar como HBP y Brain Activity Map
(Kandel et al., 2013) son ejemplos de cómo las nuevas tecnologías y las estrategias
interdisciplinares están dando lugar a avances tecnológicos espectaculares y que sin
duda se acelerarán de forma notable con el inicio de las nuevas grandes iniciativas.
No cabe duda de que gracias a este nuevo impulso de la neurociencia a escala
mundial será posible comprender mejor cómo funciona el cerebro normal y cómo se
altera ante diversas enfermedades, con el fin de poder modelar nuevas terapias para
el tratamiento de dichas dolencias.