OpenAI, la creadora de ChatGPT, está evaluando la posibilidad de fabricar sus propios chips de inteligencia artificial. Aunque todavía no hay nada en concreto, la startup ha llegado incluso a evaluar una posible compra que le ayude a resolver la escasez de estos costosos dispositivos, informó Reuters.

OpenAI viene discutiendo el tema, al menos, desde el año pasado. Según personas familiarizadas con las conversaciones, entre las opciones ha considerado construir su propio chip y reforzar su alianza con fabricantes como Nvidia. También ha pensado en diversificar sus proveedores más allá de Nvidia.

Y es que el tema del chip para la inteligencia artificial ha sido un dolor de cabeza para los desarrolladores. Y la gloria para Nvidia, líder del mercado con un 95 % de dominio. La empresa ha fabricado durante años unidades de procesamiento gráfico (GPU) que, en principio, estaban destinadas a la ejecución de videojuegos. Ahora, estos mismos chips se usan para poner en marcha los poderosos algoritmos detrás de la tecnología de moda.

Los caballos de batalla de NVIDIA son el A100 y el H100, que pueden llegar a costar unos $10.000 dólares. Elon Musk, líder de X (Twitter) y ahora también con su propia compañía de inteligencia artificial, llegó a decir que asegurar estas GPU era «más difícil que conseguir drogas».

El propio Sam Altman, director de OpenAI, se ha quejado públicamente de la escasez. Ha reconocido que muchos de sus planes a corto plazo se han retrasado por este problema. «Quién recibirá cuántos H100 y cuándo es el principal chisme del valle», publicó Andrej Karpathy, también de OpenAI, en su perfil en X en agosto pasado.

Crear ChatGPT resultó tan costoso que OpenAI registró pérdidas por unos 540 millones de dólares en 2022. Desde entonces, mantenerlo operativo podría costar al menos 700 mil dólares por día, según cálculos de SemiAnalysis.

Altman CEO OpenAI

Los chips y el problema de los costos de OpenAI

OpenAI ha desarrollado sus sistemas de inteligencia artificial en una supercomputadora masiva construida por Microsoft, un aliado clave desde 2019. Microsoft utiliza en esta solución al menos 10.000 GPU de Nvidia. Y la escasez y los costos de estos chips también han movilizado a esta gigante tecnológica a buscar alternativas.

Desde abril se conoce el plan de Microsoft para desarrollar sus propios chips. En el proyecto está involucrada AMD. También se ha propuesto producir modelos de lenguajes grandes que sean más baratos y más pequeños que los de OpenAI. Incluso, si no funcionan tan bien, con tal de bajar el costo.

Todos andan en las mismas. Intel anunció en mayo que desarrollaría sus propios chips, los Falcon Shores, para potenciar aplicaciones de inteligencia artificial. Estarían disponibles en 2025. Meta también lo ha intentado, pero con varios tropiezos. Según un informe de Reuters, la compañía liderada por Mark Zuckerberg ha tenido que desechar chips personalizados desarrollados internamente por falta de potencia.

Por eso, aunque sería una movida clave, la intención de OpenAI de hacerse con su propio chip personalizado es un camino complicado. Podría implicar miles de millones de dólares al año. Y, dentro de todas las opciones, la compra de una empresa de chips es una de las alternativas más viables.

De hecho, de acuerdo con Reuters, OpenAI llegó incluso a avanzar en la debida diligencia con la opción de adquisición que estudió en los últimos meses. El nombre de la empresa no ha trascendido por ahora. Amazon es una de las que avanzó por esta vía, con la compra de Annapurna Labs en 2015.

Recibe cada mañana nuestra newsletter. Una guía para entender lo que importa en relación con la tecnología, la ciencia y la cultura digital.

Procesando...
¡Listo! Ya estás suscrito

También en Hipertextual: