domingo, 8 de septiembre de 2013

IBM simula 500 mil millones de neuronas y 100 billones de sinapsis




BM ha anunciado recientemente un avance en el campo de la informática cognitiva, que en realidad podría generar sistemas que pueden aprender por sí mismos.


IBM ha estado experimentando con nuevos diseños de chip desde hace bastante tiempo y parece que la empresa podría traer algo similar a lo que hizo hace 30 años.



Para aquellos que necesiten un recordatorio, el gigante de la informática fue el primero en crear un ordenador personal, el PC de IBM, que celebró su trigésimo aniversario la semana pasada.

Lamentablemente, IBM tiene la opinión de que todos los ordenadores están en un continuo declive, aunque su avance más reciente podría marcar un nuevo comienzo para la industria informática.

Básicamente, el fabricante ha dado un paso adelante en su investigación de chips cognitivos capaces de emular la percepción, la acción y la cognición del cerebro humano.

Para llegar al nivel actual, la empresa ha combinado la nanociencia con la neurociencia, así como con la supercomputación.

El comportamiento de los impulsos de las neuronas y las sinapsis en los sistemas biológicos ya han sido recreados por estos primeros chips neurosinápticos de computación.

Estos chips no tienen elementos biológicos, pero los circuitos de silicio digital se inspiran en la neurobiología. Este “centro neurosináptico” tiene memoria integrada (sinapsis replicadas), computación (neuronas replicadas) y comunicación (axones replicados).

Con todo, IBM pretende permitir la creación de sistemas que puedan crear hipótesis, hacer correlaciones y recordar los resultados, que efectivamente aprenden de la experiencia.

“Esta es una iniciativa muy importante para ir más allá del paradigma de von Neumann que ha estado gobernando la arquitectura informática durante más de medio siglo. Las futuras aplicaciones informáticas exigirán cada vez más funcionalidad que no es entregada eficientemente por la arquitectura tradicional”, dijo Dharmendra Modha, el líder del proyecto de investigación de IBM.

“Estos chips son un paso importante en la evolución de las computadoras, desde las calculadoras hasta los sistemas de aprendizaje, lo que indica el comienzo de una nueva generación de máquinas”, concluyó Modha.


MAS DETALLES:


En una simulación neuronal sin precedentes, IBM ha logrado simular 500 mil millones de neuronas y 100 billones de sinapsis. Para ello ha utilizado Sequoia, el segundo superordenador más grande del mundo con millón y medio de núcleos. Esto es una proeza computacional, pero tiene poco que ver con la neurociencia. Veamos por qué.



El departamento de Cognitive Computing de IBM en Almaden dirigido por Dharmendra S. Modha lleva unos años realizando asombrosas simulaciones en el contexto del proyecto DARPA SyNAPSE. Como parte de este proyecto, anunció la simulación a la escala del córtex de un ratón, luego de una rata y más tarde de un gato.

El objetivo de este programa es crear un chip neurosináptico que supone una ruptura con la arquitectura tradicional de los ordenadores. Esta arquitectura es la llamada Von Neumann que usan la totalidad de los ordenadores en la actualidad, incluidos móviles y tarjetas. En la arquitectura Von Neumann la memoria está separada del procesador, el hardware del software y los programas están separados de los datos. Ha sido muy exitosa mientras se cumplía la miniaturización de componentes expresada en la ley de Moore: cada dos años se duplica el número de transistores en un espacio dado. El problema es que estamos llegando a los límites del átomo y que la ley dejará de cumplirse.

El chip neurosináptico es una ruptura total con la arquitectura Von Neumann. Se basa en el diseño de las neuronas en las queno hay distinción entre hw y sw, programas y datos, memoria y procesador. El chip consiste en una matriz de neuronas y entre sus cruces se realizan las sinapsis. De este modo, cada sinapsis del chip es hw y sw, proceso y memoria, programa y datos. Dado que todo está distribuido, no es necesaria un miniaturización tan extrema y sobre todo, un reloj tan rápido. Frente a los actuales gigahercios de frecuencia, las neuronas se disparan a un hercio, y en el caso del chip a 8 hercios. Además, los procesadores son clock driven, es decir, actúan bajo la batuta del reloj mientras que las neuronas sonevent driven, actúan solo si hay actividad que realizar.

Uno de los objetivos es reducir el consumo eléctrico. Un cerebro consume lo que una bombilla pequeña, 20 vatios. Un superordenador consume cientos de megavatios. El nuevo chip tiene un consumo muy reducido. Estos chips están construidos con tecnología de silicio clásica CMOS.

La arquitectura de muchos chips neurosinápticos unidos se ha llamado TrueNorth. Ya existe en desarrollo un chip de 256 neuronas, 1024 axones, y 256×1024 sinapsis.

El chip sin embargo no está en producción masiva. Para seguir trabajando en paralelo al desarrollo, se ha realizado la prueba actual. Para ello se ha usado un simulador llamado Compass. Compass traduce el comportamiento de un chip neurosináptico (no Von Neumann) a un ordenador clásico (Von Neumann). Usando Compass se ha simulado (pdf) el comportamiento de 2.000.000.000 chips. Esto supone 500 mil millones de neuronas y 100 billones de sinapsis, cifras por completo astronómicas. El resultado de la simulación se ha ejecutado 1.542 veces más lento que en tiempo real.



Para realizar la simulación se ha usado el segundo superordenador más grande del mundo, Sequoia un Blue Gene/Q de 96 armarios con 1 millón y medio de núcleos y 1,5 petabytes de memoria. Uno de los objetivos de la simulación es ver el escalado. Un problema habitual es que que cuando añadimos más cores, el sistema no funciona proporcionalmente más rápido. En el extremo, añadir más cores no aumenta el rendimiento: el sistema escala mal. Imagina un camarero atendiendo detrás de la barra. Si hay un segundo camarero, irán más rápido, pero no el doble. Si sigues añadiendo camareros, llegará un momento en que no aumente la eficiencia, incluso se verá reducida. El sistema escala mal. Pues bien, en la simulación realizada el escalado ha sido casi perfecto lo que es muy satisfactorio computacionalmente.

¿Qué tiene esto que ver con la neurociencia y el cerebro? Bien poco. La simulación no imita ningún comportamiento animal ni cognitivo ni humano. Para simular el comportamiento del cerebro, necesitamos saber cómo funciona y eso está lejos de lograrse. Para cuando llegue ese conocimiento debemos tener preparados ordenadores que sean capaces de simularlo y en este contexto se enmarca la presente investigación. Aunque no solo; la idea de diseñar estos nuevos chips es ponerlos en producción en aplicaciones comerciales tradicionales dando una gran potencia con un bajo consumo. La simulación del cerebro deberá esperar aún alguna década.


No hay comentarios:

Publicar un comentario

Related Posts Plugin for WordPress, Blogger...