La multimillonaria inversión de Microsoft en OpenAI no se limitaría a sacar provecho de GPT-4 y ChatGPT, sino también a acelerar el desarrollo de nuevo hardware específicamente diseñado para trabajar con la inteligencia artificial. Así, según The Information, los de Redmond estarían trabajando en sus propios chips de IA con el fin de proveerlos a la startup liderada por Sam Altman.
El citado informe menciona que el desarrollo de los componentes en cuestión no sería nuevo. El proyecto se remontaría, al menos, hasta 2019. No obstante, se habría acelerado en los últimos meses debido a la explosión en popularidad de ChatGPT y a la implementación de características derivadas de GPT-4 en productos de Microsoft como Bing, Outlook y Office, entre otros.
Los chips de IA desarrollados por Microsoft ya se estarían probando internamente. Tarea que no solo realizarían empleados de la compañía, sino también de OpenAI. Aún no se conocen detalles de sus especificaciones, debido a que las partes han estado trabajando en secreto. Sin embargo, la intención tras esta iniciativa apuntaría a reducir costes.
Hoy en día, NVIDIA es uno de los principales proveedores de hardware de OpenAI para el entrenamiento de modelos de lenguaje y el desarrollo de sus herramientas basadas en inteligencia artificial. Plataformas como ChatGPT requieren de un poder de cómputo infernal que solo es posible de obtener con decenas de miles de GPU especialmente desarrolladas para la tarea, como las A100 y H100.
De hecho, NVIDIA ya ofrece soluciones preparadas específicamente para trabajar con inteligencia artificial. Tales son los casos de servidores como el DGX H100, o plataformas de infraestructura todavía más impactantes, como las DGX SuperPOD. Pero, ciertamente, todo ese poder tiene un coste elevadísimo. Además, la demanda de chips de IA nunca fue tan alta como ahora. De modo que Microsoft pretendería empujar el desarrollo de su propio hardware para recortar gastos y reducir la dependencia de proveedores externos.
OpenAI podría usar chips de Microsoft para potenciar GPT-4 y ChatGPT
Si bien Microsoft estaría acelerando el desarrollo de sus propios chips de IA para ChatGPT y GPT-4, su implementación no sería inmediata. La intención sería comenzar a desplegarlos masivamente, tanto dentro de la firma de Redmond como en OpenAI, a partir de 2024. Incluso se menciona la existencia de una hoja de ruta que da a entender que este sería el primer paso de un plan más ambicioso. De concretarse, podría abarcar el lanzamiento de múltiples generaciones de los componentes.
Vale aclarar, de todos modos, que el desarrollo de chips de IA propios no implicaría que Microsoft pretenda eliminar a NVIDIA como proveedor de OpenAI. Si bien el furor por ChatGPT y GPT-4 hace que el desarrollo de los componentes esté más enfocado en su implementación en soluciones de inteligencia artificial, su uso podría ser más amplio.
Azure también podría verse beneficiada por los chips desarrollados en Redmond. De hecho, esto es algo que se rumorea desde comienzos de 2022, cuando Microsoft le "robó" un ingeniero clave en esa área a Apple. Hablamos de Mike Filippo, quien durante su estancia en Cupertino se desempeñó como arquitecto de chips de Apple Silicon.
Será interesante ver cómo evoluciona esta historia. Todo indica que el all-in de Microsoft en OpenAI va mucho más allá de lo que hoy pueden ofrecer ChatGPT y GPT-4. Si los de Satya Nadella han decidido pisar el acelerador en el desarrollo de su propio hardware dedicado es porque, a futuro, saben que la startup de Sam Altman se trae algo grande entre manos.