Microsoft ha presentado un nuevo chip de IA que podría convertirse en una alternativa a NVIDIA y Google. Conocido como Maia 200, este acelerador llega como reemplazo al Maia 100 de 2023 y promete una mejora de rendimiento de hasta el 30% en tareas de inferencia. Al igual que su antecesor, este chip está pensado para integrarse en los centros de datos para competir con otros gigantes tecnológicos.

En términos de hardware, el Maia 200 cuenta con más de 100.000 millones de transistores capaces de ejecutar cualquier modelo de IA. El chip ha sido fabricado por TSMC utilizando su proceso de 3 nanómetros, lo que garantiza mayor eficiencia en el consumo energético.

De acuerdo con una publicación en su web, Maia 200 está diseñado para ejecutar los modelos de IA más recientes, como GPT-5. El chip es capaz de ofrecer un rendimiento de más de 10 petaFLOPS en FP4 y más de 5 petaFLOPS en FP8. Sumado a los núcleos tensoriales, el SoC cuenta con memoria HBM3e de 216 GB con ancho de banda de 7 TB/s, así como 272 MB de SRAM integrada en el chip.

Microsoft Maia 200

Esta ventaja en desempeño no es menor. Según Microsoft, Maia supera hasta en tres veces el rendimiento FP4 de Trainium de 3.ª generación de Amazon, mientras que en rendimiento FP8 deja por atrás al TPU de séptima generación de Google.

"Maia 200 es también el sistema de inferencia más eficiente que Microsoft ha desplegado jamás, con un rendimiento por dólar un 30 % mejor que el hardware de última generación de nuestra flota actual", dijo Scott Guthrie, vicepresidente ejecutivo de Nube e IA de Microsoft. "Puede ejecutar sin esfuerzo los modelos más grandes de la actualidad, con mucho margen para modelos aún más grandes en el futuro".

Benchmarks del chip Microsoft Maia 200 frente a AWS TRainium3 y Google TPU v7

El nuevo chip de IA de Microsoft impulsará a GPT-5.2 de OpenAI

Según Microsoft, la división de Superinteligencia liderada por Mustafa Suleyman será la primera en utilizar el Maia 200 para generar datos sintéticos y mejorar el aprendizaje por refuerzo. La compañía también utilizará estos chips para alojar a GPT-5.2 y otros modelos en la infraestructura de Microsoft Foundry y Copilot. El plan inicial contempla dos centros de datos en Estados Unidos, con miras a ampliarse a más regiones en un futuro.

A diferencia del Trainium 100, Microsoft abrirá el acceso a terceros más allá de OpenAI. En sus primeras etapas, el equipo de Superinteligencia y las aplicaciones de Microsoft tendrán prioridad. Posteriormente, se ofrecerá a través de un modelo como servicio para que cualquiera pueda contratarlo, similar a lo que ya hacen Google y Amazon con sus TPU y Trainium.

Microsoft Maia 200

En términos prácticos, el nuevo chip de Microsoft está optimizado para generar tokens de manera más veloz y eficiente. Esto se traduciría en respuestas más rápidas de ChatGPT, o una subida en la cantidad de usuarios que pueden acceder de forma simultánea. Aunque estos chips están diseñados para los centros de datos, los usuarios de ChatGPT, Copilot y otros servicios de Azure AI se beneficiarían directamente.

El lanzamiento de Maia 200 se da tras meses de ajustes debido a cambios de último momento solicitados por OpenAI. Un reporte de junio de 2026 mencionó que Microsoft tuvo que retrasar su chip por culpa de errores en las simulaciones de sus socios. Esto generó un conflicto interno, puesto que la carga de trabajo se incrementó y una quinta parte del equipo de desarrollo renunció.

Vale la pena mencionar que el Maia 200 ofrece un rendimiento muy por debajo de Blackwell. A la fecha, el chip de NVIDIA es el más usado por todos los modelos de IA del mercado.