La firma de Redmond quiere recortar terreno a Nvidia y competir en las grandes ligas
Microsoft presentó el chip Maia 200, su nueva vía para acelerar la IA en Azure y potenciar servicios como Copilot. Con este movimiento, la compañía deja patente que busca competir contra Amazon y Google en hardware propio, ya que Maia 200 llega fabricado en 3 nm y supera los 100.000 millones de transistores. Además, también revela un salto gigantesco respecto a las prestaciones del Maia 100 que mostró en 2023.
Microsoft quiere competir contra los gigantes
Lo más llamativo no es el anuncio en sí, sino el tono: Microsoft compara su chip con Trainium y TPU al mismo tiempo que presume de más rendimiento en tareas típicas de IA. De esta forma, la compañía habla claro y no utiliza rodeos ni eufemismos, ya que asegura que su sistema para ejecutar modelos con Maia 200 ofrece una mejora cercana al 30% por euro invertido. De esta forma, revela que su intención principal es abaratar costes en una época marcada por millones de consultas.
Dejando a un lado los detalles técnicos y los nombres imposibles que nos marean a todos, la idea de Maia 200 es tan simple como efectiva: mucha memoria rápida cerca del chip para que los modelos no esperen. Por ello, contará con 216 GB HBM3e y SRAM integrada, dos aspectos que potenciarán el conjunto de la firma de Redmond.
Aquí, el formato también importa. Maia 200 se montará en racks con bandejas que alojan cuatro chips, dado que está pensado para desplegarse como piezas de LEGO dentro de centros de datos. Según reveló la marca, los primeros en utilizarlos serán equipos internos y la región Azure US Central. Tras eso, llegará a más zonas e intentará demostrar que Microsoft es capaz de competir en las grandes ligas.
Según las declaraciones de miembros de la compañía, Maia 200 está optimizado para modelos grandes y apunta a dar soporte a GPT-5.2 en sus servicios, un guiño directo a la alianza que mantiene Microsoft con OpenAI. Para atraer desarrolladores, anunciaron la existencia de un SDK de acceso temprano orientado a universidades y proyectos de código abierto. Con este plan, buscan crear comunidad y herramientas alrededor del chip, pero muchos se preguntan lo mismo: ¿logrará reducir la dependencia de Nvidia o será un complemento?
Imagen principal de Microsoft
En 3DJuegos | La nueva función estrella de Google Gemini es una IA que te enseña todo lo que necesitas saber
Ver todos los comentarios en https://www.3djuegos.com
VER 2 Comentarios