En una [simulación neuronal](http://p9.hostingprod.com/@modha.org/blog/2012/11/1014.html) sin precedentes, **[IBM](http://alt1040.com/tag/ibm)** ha logrado simular **500 mil millones de neuronas y 100 billones de sinapsis**. Para ello ha utilizado Sequoia, el segundo superordenador más grande del mundo con millón y medio de núcleos. Esto es una proeza computacional, pero tiene poco que ver con la neurociencia. Veamos por qué.

Neuronas

El departamento de *Cognitive Computing* de IBM en Almaden dirigido por **Dharmendra S. Modha** lleva unos años realizando asombrosas simulaciones en el contexto del proyecto DARPA SyNAPSE. Como parte de este proyecto, anunció la simulación **a la escala** del córtex de un ratón, luego de una rata y más tarde de un [gato](http://alt1040.com/2011/10/ibm-logra-simular-el-45-del-cerebro-humano).

El objetivo de este programa es crear un [chip neurosináptico](http://alt1040.com/?s=ibm+cerebro) que supone una ruptura con la arquitectura tradicional de los ordenadores. Esta arquitectura es la llamada **Von Neumann** que usan la totalidad de los ordenadores en la actualidad, incluidos móviles y tarjetas. En la arquitectura Von Neumann la memoria está separada del procesador, el hardware del software y los programas están separados de los datos. Ha sido muy exitosa mientras se cumplía la miniaturización de componentes expresada en la **ley de Moore**: cada dos años se duplica el número de transistores en un espacio dado. El problema es que estamos llegando a los límites del átomo y que la ley **dejará de cumplirse**.

Chip Neurosinaptico

El chip neurosináptico es una **ruptura total** con la arquitectura Von Neumann. Se basa en el diseño de las neuronas en las que **no hay distinción entre hw y sw, programas y datos, memoria y procesador**. El chip consiste en una matriz de neuronas y entre sus cruces se realizan las sinapsis. De este modo, cada sinapsis del chip es hw y sw, proceso y memoria, programa y datos. Dado que todo está distribuido, no es necesaria un miniaturización tan extrema y sobre todo, un reloj tan rápido. Frente a los actuales gigahercios de frecuencia, **las neuronas se disparan a un hercio**, y en el caso del chip a 8 hercios. Además, los procesadores son *clock driven*, es decir, actúan bajo la batuta del reloj mientras que las neuronas son *event driven*, actúan solo si hay actividad que realizar.

Uno de los objetivos es reducir el consumo eléctrico. Un cerebro consume lo que una bombilla pequeña, 20 vatios. Un superordenador consume cientos de megavatios. El nuevo chip tiene un consumo muy reducido. Estos chips están construidos con tecnología de silicio clásica CMOS.

La arquitectura de muchos chips neurosinápticos unidos se ha llamado **TrueNorth**. Ya existe en desarrollo un chip de 256 neuronas, 1024 axones, y 256×1024 sinapsis.

El chip sin embargo no está en producción masiva. Para seguir trabajando en paralelo al desarrollo, se ha realizado la prueba actual. Para ello se ha usado un **simulador** llamado Compass. **Compass** traduce el comportamiento de un chip neurosináptico (no Von Neumann) a un ordenador clásico (Von Neumann). Usando Compass se ha simulado ([pdf](http://www.modha.org/blog/SC12/SC2012_Compass.pdf)) el comportamiento de 2.000.000.000 chips. Esto supone 500 mil millones de neuronas y 100 billones de sinapsis, cifras por completo astronómicas. El resultado de la simulación se ha ejecutado 1.542 veces más lento que en tiempo real.

Conexiones Macaco con Chip

Para realizar la simulación se ha usado el segundo superordenador más grande del mundo, [Sequoia](http://alt1040.com/2012/06/ibm-supercomputacion-sequoia) un Blue Gene/Q de 96 armarios con **1 millón y medio de núcleos** y 1,5 petabytes de memoria. Uno de los objetivos de la simulación es ver el escalado. Un problema habitual es que que cuando añadimos más cores, el sistema no funciona proporcionalmente más rápido. En el extremo, añadir más cores no aumenta el rendimiento: **el sistema escala mal**. Imagina un camarero atendiendo detrás de la barra. Si hay un segundo camarero, irán más rápido, pero no el doble. Si sigues añadiendo camareros, llegará un momento en que no aumente la eficiencia, incluso se verá reducida. El sistema escala mal. Pues bien, en la simulación realizada el escalado ha sido casi perfecto lo que es muy satisfactorio computacionalmente.

¿Qué tiene esto que ver con la neurociencia y el cerebro? Bien poco. La [simulación](http://alt1040.com/2012/10/la-enorme-importancia-de-simular-un-diminuto-gusano) no imita ningún comportamiento animal ni cognitivo ni humano. Para simular el comportamiento del cerebro, necesitamos saber cómo funciona y eso está lejos de lograrse. Para cuando llegue ese conocimiento debemos tener preparados ordenadores que sean capaces de simularlo y en este contexto se enmarca la presente investigación. Aunque no solo; la idea de diseñar estos nuevos chips es ponerlos en producción en aplicaciones comerciales tradicionales dando una gran potencia con un bajo consumo. **La simulación del cerebro deberá esperar aún alguna década.**

También en Hipertextual:

La actualidad tecnológica y científica en 2 minutos

Recibe todas las mañanas en tu email nuestra newsletter. Una guía para entender en dos minutos las claves de lo realmente importante en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

Participa en la conversación

24 Comentarios

Participa en la conversación, deja tu comentario

  1. Me ha gustado mucho el articulo. Ya veremos como evoluciona el proyecto, que esperemos sea de manera positiva. Por lo que hace al autor del artículo, lea Millenium, le gustara; es una buena obra.

  2. Hola antonio yo no soy tu fan jejeje ,por otro lado yo creo que la solución a la I.A. esta en el software ya que actualmente tenemos Thread o paralelismo que pueden simular una neurona

  3. La arquitectura Von Neumann se caracteriza precisamente por tratar a los programas como datos y almacenarlos igualmente en memoria.

    1. Sí, max. Es correcto lo que dices. No quería ser demasiado prolijo.
      En general la arquitectura Von Neumann es la que he explicado arriba.
      Siendo más preciso, en efecto, la aportación específica de Von Neumann fue permitir escribir los programas en memoria. Antes había que recablear los ordenadores para que ejecutaran distintos programas. A partir de Von Neumann los ordenadores fueron mucho más ágiles y despegó la computación.

  4. En qué momento «surge» la conciencia en sí? Creo que es la pregunta más intrigante de la vida. En algún punto entre tantas conexiones se puede dar con una verdadera Inteligencia Artificial.

  5. Magistral artículo. Interesante observar como somos capaces de igualar la potencia bruta del cerebro… pero todavía estamos muy verdes en cuanto a software.

  6. Muy buen articulo felicidades; espero vivir lo suficiente para ver y disfrutar las maravillas que vendran en el futuro, como dice el dicho: «La realidad es mucho mas fantastica que la ficcion»…

  7. Muy buen reportaje. Me encanta lo que escribes y cómo escribes, Antonio. En general, tratas temas muy interesantes y poco hablados.

  8. Todavía no se puede simular una lombríz, que pena que falte tanto. ¿No se podría desarrollar un sistema escalable Von Neumann en el que no se necesiten los dátos de la config neuronal del animal?

    1. La configuración neuronal del animal ES lo que se pretende simular, piensa que hardware y software están totalmente unidos en un cerebro, así que o simulas los dos juntos, o te dedicas a otra cosa.

  9. Lástima no es algo que pase hoy ni creo que en 10 años. Creo que antes de todo eso tendremos una «era del nanotubo de carbono», lo que permitirá fabricar los esqueletos, musculos de los robots.

      1. 10,2 Pulgadas Flytouch 7 allwinner A10 Android 4.0.3 GPS Tablet PC! Se trata de un Tablet PC excelente! Accesorios Antena GPS, Manual de usuario, Oreja Teléfono, Cargador Estándar! Sonido tridimensional! HD video! Navegar gran experiencia! http://s6x.it/xcp1