Los procesadores basados en silicio habituales cuentan con un tamaño limitado, que condiciona tanto el consumo energético como su rendimiento. A mayor tamaño encontramos también nucleos más potentes en su interior o un mayor número de núcleos. Así, con los diseños más recientes podemos encontrar CPUs de hasta 64 núcleos en los Ryzen Threadripper de AMD, o GPUs con miles de núcleos más pequeños y con tareas altamente paralelizables.
Por ejemplo, la gráfica más potente de Nvidia actualmente, la Titan RTX, cuenta con 4.608 núcleos CUDA en su interior y su GPU como tal, el chip, tiene una superficie de 750 mm². Nada que ver con el último chip presentado en durante el ciclo de conferencias Hot Chips 2019, que pulveriza cualquier marca existente.
https://hipertextual.com/analisis/nvidia-geforce-rtx-2080-super
Cerebras WSE y sus 400.000 núcleos
Ha sido Cerebras, un nuevo jugador en la intersección entre la computación y la inteligencia artigicial, quien ha presentado un nuevo chip hasta 56 veces más grande que cualquiera de los diseños habituales. Las cifras de este procesador son descomunales a la par que inusuales para cualquier tipo de sistemas:
- Cuenta con 400.000 núcleos optimizados para tareas de machine learning, concretamente deep learning. Nada menos que 78 veces más que el procesador con más núcleos hasta la fecha.
-
En total, cuenta con 1,2 billones de transistores: 1.200.000 millones.
-
Tiene una superficie de 46.225 mm², esto es, unas dimensiones comparables a las de un folio.
- Por esto mismo, es necesaria una oblea de silicio completa para su fabricación.
Cuenta con 18 GB de memoria SRAM en el propio chip.
Su tasa de transferencia es de 100 Pb/s, o lo que es lo mismo: 100 millones de gigabits por segundo.
Es el resultado del trabajo de 173 ingenieros, tras recibir 112 millones de dólares en inversión.
"¿Para qué tanto?", puedes preguntarte. Lo cierto es que la inteligencia artificial, o más específicamente los modelos de deep learning son cada vez más relevantes y cuentan con multitud de aplicaciones en una infinidad de campos, desde la medicina a la predicción de patrones en la conducción, uso del móvil o procesado de imágenes.
Con este chip, será necesaria una menor cantidad de hardware específico, que hasta ahora estaba basado en aceleradores gráficos. Por ejemplo, Nvidia cuenta con sus Tesla V100 para servidores y equipos de alto rendimiento, pero se basan en la utilización de un gran número de estos dispositivos en paralelo.
La intención de Cerebras es que este nuevo chip proporcione un mayor rendimiento que los sistemas actuales y que consiga entrenar redes neuronales más complejas y potentes de una forma más eficiente.