Nunca pensé que leería esto, pero sí, para 2012, y sólo durante 2012, España tendrá el honor de tener en su territorio el ordenador más potente del mundo. La razón no es otra que la estrategia de la Asociación para la Computación Avanzada en Europa(PRACE), una comisión de la Unión Europea, para quitarle terreno a EEUU en este campo, donde prácticamente desde siempre han mantenido el liderazgo.

La idea es que cada año y para ahorrar costes todos los países miembros pagan parte del dinero del superordenador que va a otro país. Así, Alemania será este año la que se ponga a la cabeza, que de hecho ya ha adquirido el suyo, en 2011 Francia, en 2012 España y posteriormente Italia.

Se instalará en el Barcelona Supercomuting Center y le costará 60 millones de euros al estado español. Servirá para realizar todo tipo de cálculos en todas las materias y aunque sea muy caro, también supone en cierto sentido una inversión a largo plazo por la cantidad de investigaciones científicas que se centrarán en Barcelona durante todo 2012 mientras ostente el récord de tener el superordenador más potente del mundo y posiblemente el único en el que determinados cálculos complejísimos puedan llevarse a cabo.

Foto: Wikipedia

Participa en la conversación

42 Comentarios

Deja tu comentario

  1. Lo que creo que seria interesante y es el movimiento lógico, es que cuando cada país de la UE tenga su súper ordenador, se interconecten en grid como decían arriba, y asi tener la Union europea de súper ordenadores. Creo que van por ahí los tiros

  2. La cantidad de porno que se podría descargar!!!!

    Y ver los youtube en HD en alta sin esperar…

    Yo quiero una así pero mi sala es muy chica XD

    1. Podrías descargar la misma cantidad de porno y tendrías que esperar lo mismo para ver los vídeos de YouTube.

      Lo que si podrías hacer es, después de esperar el rato necesario, ver 300 vídeos en HD en paralelo sin que se inmutara.

  3. Lo unico que espero es que se limite el numero minimo de nodos utilizado para cada simulacion cientifica… por lo que he visto la mayor parte de las veces la gente larga el mismo programa en 1000 nodos con diferentes parametros para hacer un estudio parametrico de algo. Esto es un desperdicio total de recursos ya que gran parte del costo de estos equipos es en hardware de red (infiniband, etc) con el objetivo de acelerar la comunicacion entre los nodos para simulaciones en PARALELO.

    1. En el BSC hay gente MUY competente trabajando que saben un huevo, por favor no hables sin tener ni idea.

      Por cierto, si alguna simulación hace falta correrla con diferentes parámetros, pues se hace, pero eso no quiere decir que se hagan a la vez en diferentes nodos, también se pueden ejecutar una a una usando todos los nodos.

      Me gustaría que explicases a que te refieres con «desperdicio total de recursos» y en que basas tus afirmaciones (dices que lo has «visto», ¿donde?)

      Gracias

      1. Doraemon, Lo he visto en Teragrid miles de veces, y en otros clusters en Estados Unidos. Se puede observar gente corriendo 500 copias del mismo programa, y me ha tocado tener que esperar mas de un mes para que haya lugar en el cluster para correr mis simulaciones con 2000 procesadores o mas. Us una pena y como dije, un desperdicio total de recursos.

    2. Sigues sin convencerme. No pongo en duda que eso pase en Teragrid y «otros clusters em EEUU», pero estamos hablando del MareNostrum así que dame datos del MareNostrum.

      En cuanto a correr 500 copias del mismo programa tampoco termino de ver el problema. El hecho de tener una red brutal es necesario cuando tienes aplicaciones en las que el particionado de datos tiene dependencias entre nodos. Y aún en aplicaciones con alta dependencia de datos entre nodos la mayor parte del tiempo la red va a estar cruzada de brazos. Esto es así aunque estés utilizando todos y cada uno de los nodos a la vez. ¿Quiere decir esto que se están desperdiciando recursos por tener una red ‘brutal’ y que la mayor parte del tiempo esté parada? Pues evidentemente no, la capacidad de la red se diseña para poder dar servicio a los picos de comunicación, como por ejemplo cuando en una simulación para una iteración se necesitan los datos que han calculado los ‘vecinos’ en la iteración anterior, y en ese momento todos los nodos están mandando sus datos a otros nodos y recibiendo datos de otros, entonces es cuando se produce un uso masivo de la red y hay que ser capaz de dar servicio a esas comunicaciones.

      Y por poner un ejemplo, tenemos una aplicación que paraleliza muy bien y los datos se pueden particionar de forma que no necesites comunicación entre nodos más que al acabar de correrla para hacer un ‘gather’ de los datos calculados por todos los nodos ¿También es un desperdicio de recursos porque hemos sido lo suficientemente hábiles para minimizar las comunicaciones? Te recuerdo que las comunicaciones por red son las que añaden mayor latencia en la ejecución, y que cuanto más minimices la dependencia entre datos -y por tanto las comunicaciones- mayor será el speedup al paralelizar tu aplicación.

      Además hay aplicaciones que a partir de cierto número de nodos el speedup apenas crece, por lo que puede tener sentido hacer varias simulaciones a la vez de forma que logremos que todas tengan un speedup razonable y en conjunto consigamos mayor performance al correr por ejemplo 20 simulaciones a la vez en lugar de sólo 1. Por el contrario hay aplicaciones que si las paralelizamos en un número grande de nodos conseguimos un speedup superlineal al conseguir que los datos nos entren en la cache, de forma que ni siquiera tengamos que ir a memoria principal a buscarlos. Y fíjate, que por el hecho de que no tengas que ir a memoria a buscar un dato por tenerlo en cache te puede permitir un mayor speedup (incluso superlineal), así que imagínate si consigues evitar las comunicaciones por red -las cuales tienen una latencia varios órdenes de magnitud superior a un acceso a memoria como ya sabrás-

      Por estas razones habría que analizar una a una cada aplicación para ver cual es el caso, no se puede generalizar tan a la ligera y hacer afirmaciones tan rotundas.

      En resumen, un mayor uso de la red no implica mayor performance, sino que normalmente es al revés.

      1. Doraemon, Hay aplicaciones que inherentemente necesitan comunicacion, ya que ese gathering de datos no es simplemente al final. Por ejemplo, en simulaciones de elementos finitos con dinamica explicita, luego de cada paso de integracion se deben recolectar las fuerzas nodales para los nodos compartidos entre procesadores. Ese proceso se repite necesariamente cientos de miles de veces hasta que la simulacion esta terminada. Asi que creo que si se va a construir una maquina para la cual el costo del hardware de red sea de un 20 o 30 por ciento del costo total, mejor que la misma sea utilizada para aplicaciones que si o si necesitan de esa performance. Seguramente para el tipo de calculo que usted describe, en los cuales solo hace falta hacer un gather de datos al final, con una red ethernet estandard alcanza y sobra, y de paso nos ahorramos unos cuantos euros.

    3. Estoy totalmente de acuerdo con eso, efectivamente aplicaciones que no necesiten tal infraestructura de comunicación no deberían usar estos supercomputadores, un grid podría valer perfectamente, como por ejemplo el mentado Teragrid.

      El MareNostrum no es tan fácil que te dejen usarlo, tienes que presentar un proyecto que luego será evaluado por un comité que decide de entre todas las solicitudes a cuáles les dan el tiempo de cálculo disponible, y créeme que no son pocas las solicitudes y es difícil decidir a quién se le da y a quién no. Por supuesto en estas evaluaciones se tienen en cuenta muchos factores, como por ejemplo los requerimientos de comunicación de los que estamos hablando.

      Por lo tanto, no tengo ningún indicio de que el Marenostrum se esté infrautilizando. Y por otro lado un grid como Teragrid es la plataforma ideal para el tipo de simulaciones de las que usted se queja.

      Si ambos sabemos que tipo de aplicaciones son las que deben utilizar estas máquinas, cuanto mejor no lo sabrá la gente del BSC…

      En definitiva, no termino de comprender el problema.

      1. El Teragrid funciona de la misma manera, ya que hay que obtener una aprobacion para poder utilizar los recursos que posee (es un proyecto de la National Science Foundation). Tampoco es cierto que teragrid es la plataforma ideal para la aplicaciones de las cuales me quejo. Uno de los clusters de teragrid que he usado (el que mas he usado en el pasado) tiene coneccion tipo infiniband optimizada para comunicacion ultra-rapida entre nodos. Es decir, es mas bien para el timpo de simulacion que yo uso, que requieren aproximadamente 2000 cores para obtener resultados en un tiempo razonable. No obstante, si te fijas en el queue del mismo (http://abemon.ncsa.uiuc.edu/jobs.php) inmediatamente puedes ver la cantidad increible de procesos que usan menos de 16 nodos. Por otro lado, quisiera que quede claro nunca dije que el marenostrum sea infrautilizado. Si lees mi primer post lo que dije es que espero que no ocurra con esta nueva maquina lo que pasa en EEUU, en donde estas super-computadoras generalmente ternminan siendo infrautilizadas (creo que tambien quedo clara la razon por la cual lo he dicho) Espero que ahora se entienda mas claramente mi punto de vista.

    1. lo de que será el millor del mon tindran que provaro cuan toque i… que estiga en catalunya no us fa millors, mes que res per que el preu, el paguem tots els espanyols, no sols vosaltres.

      Joder que asco, tener que hablar en catalan o valenciano en una pagina internacional.

      Bueno, lo dicho anteriormente y para personas normales y no tarados que prefieren hablar en su dialecto para que les respondan cuatro mataos:

      Lo de que será el mejor del mundo habrá que demostrarlo cuando toque y, que este en cataluña no os hace mejores, mas que nada porque el precio, lo pagamos todos los españoles, no solo vosotros.

      P.D.(Soy valenciano y si hace falta lo hablo y hasta lo escribo de ser muy necesario, pero fuera de la comunidad valenciana y de cataluña, esos dialectos no valen para una mierda, asi que a ver si os entra en la cabeza a los pro-catalan).

      1. Toda la razón, yo estoy leyendo aquí una página en Español, que puede ser leída por los 300000000 hispanohablantes que somos, y va y me topo con una comentario en catalán escrito por un tío que conoce (O debería conocer) el Español. Manda huevos.

      2. Y si la página es internacional… porque no hablas en inglés? O quizá internacional significa que se admiten todas las lenguas y culturas? P.D.: Nadie te obliga a hablar en ningún idioma en particular, así que no digas que «tienes que hacerlo»

      3. @Jordi OMG Tu no sabes que entre Latinoamérica y España hay muchos países de habla hispana? Esta página no se lee en EEUU, pero no por ello deja de ser internacional, y si la página está en castellano que menos que comentar en ese idioma, especialmente si se supone que lo dominas a la perfección, que es algo que los catalanes defienden orgullosos sobre su inmersión lingüística.

    1. jajaja :D qué bueno! cierto, y como a algún becario despistado le de por bajarse algo de la mula a chorrocientos teraflops va la Sinde y lo clausura :D

  4. El ordenador estará en Barcelona, junto al MareNostrum. Mi pregunta es, el MareNostrum no llegó a ser en ningún momento el ordenador más potente? O en su momento ya existía alguno más potente?

    1. Cuando apareció se colocó como el quinto más potente, y creo recordar que el primero de Europa, pero el primero a nivel mundial no. Me has hecho dudar :) he tenido que ir a mirarlo, buen detalle!

  5. No se que costes van a ahorrar, si cada año quieren comprar uno, al final van a tener que pagar lo mismo.. aunque eso si, separado en «comodos» pagos anuales..

    1. Cierto , pero imagina dentro de 5 años esos superordenadores conectados en una grid al estilo LHC ….. Scainet¿?¿?