- El superchip de 1700W de Meta ofrece 30 PFLOP y 512 GB de memoria HBM
- MTIA 450 y 500 priorizan la inferencia sobre las cargas de trabajo previas al entrenamiento
- Las generaciones futuras de MTIA admitirán la inferencia GenAI y la clasificación de cargas de trabajo.
Meta está mejorando su infraestructura de IA con una cartera de chips MTIA personalizados diseñados específicamente para cargas de trabajo de inferencia en sus aplicaciones.
La empresa está desarrollando un superchip de 1700 W con capacidad para 30 PFLOP y 512 GB de HBM, integrado en la misma infraestructura MTIA para manejar tareas de inferencia a escala.
Curiosamente, está logrando esta hazaña sin ninguno de sus amigos – no NVIDIA, AMD, Informacióno BRAZO.
El artículo continúa a continuación.
De acuerdo a metaCientos de miles de chips MTIA ya están implementados en producción, respaldando calificaciones, recomendaciones y cargas de trabajo de publicación de anuncios.
Estos chips son parte de un sistema de pila completa optimizado para los requisitos específicos de Meta, logrando una mayor eficiencia computacional que el hardware de uso general para las cargas de trabajo previstas.
A diferencia de otros hiperescaladores como Google,AWS, microsofty BasuraMeta está siguiendo una estrategia de silicio totalmente personalizada.
Este diseño prioriza la eficiencia sobre el uso de propósito general, lo que permite que la inferencia se ejecute de manera más rentable que en las GPU o CPU convencionales.
Mantiene la compatibilidad con software estándar de la industria como PyTorch, vLLM y Triton.
La hoja de ruta MTIA de Meta prevé cuatro nuevas generaciones de chips durante los próximos dos años, incluido el MTIA 300, actualmente en producción para calificación y recomendaciones.
Las generaciones futuras (MTIA 400, 450 y 500) ampliarán el soporte para cargas de trabajo de inferencia GenAI, con diseños capaces de adaptarse a la infraestructura de rack existente.
Meta enfatiza el desarrollo rápido e iterativo, lanzando nuevos chips aproximadamente cada seis meses a través de diseños modulares y reutilizables.
El diseño modular permite colocar nuevos chips en sistemas de bastidor existentes, lo que reduce la fricción de implementación y acelera el tiempo de producción.
El enfoque permite a la empresa adoptar técnicas de inteligencia artificial emergentes y mejoras de hardware más rápidamente que sus competidores, que normalmente tienen un ciclo de uno a dos años por generación.
A diferencia de la mayoría de los chips de IA convencionales que priorizan el entrenamiento previo de GenAI a gran escala y luego se adaptan para la inferencia, los MTIA 450 y 500 de Meta se centran primero en las cargas de trabajo de inferencia.
Los chips también pueden respaldar otras tareas, incluida la capacitación en clasificación y recomendación o capacitación GenAI, pero su diseño los mantiene en sintonía con el crecimiento previsto en la demanda de inferencia.
El diseño a nivel de sistema de Meta se alinea con los estándares de Open Compute Project, lo que permite una implementación sin fricciones en centros de datos manteniendo al mismo tiempo una alta eficiencia computacional.
La empresa reconoce que ningún chip puede manejar todo el espectro de sus cargas de trabajo de IA.
Es por eso que está implementando múltiples generaciones de MTIA junto con silicio complementario de otros proveedores.
La estrategia apunta a equilibrar la flexibilidad y el desempeño y al mismo tiempo acelerar la innovación hacia la superinteligencia personal.
Siga TechRadar en Google News y agréganos como fuente preferida para recibir noticias, análisis y opiniones de expertos en tus feeds. ¡Asegúrese de hacer clic en el botón Seguir!
Y por supuesto que tú también puedes Siga TechRadar en TikTok para noticias, reseñas, unboxings en formato de video y reciba actualizaciones periódicas de nuestra parte en WhatsApp también.

















