Con el brazo de capital de riesgo de Intel respaldando la nueva ronda de financiación de 350 millones de dólares de SambaNova Systems, la startup de chips de IA planea aprovechar los “canales empresariales, de nube y de socios globales” de Intel para impulsar las ventas de ofertas conjuntas para la “inferencia de IA a escala de nube”.
Intel planea aprovechar sus “canales empresariales, de nube y de socios” para una nueva “colaboración estratégica de varios años” con la startup de chips de IA SambaNova Systems después de que las conversaciones de adquisición entre las dos compañías terminaron recientemente.
SambaNova anunció la asociación el martes junto con una ronda de financiación Serie E de 350 millones de dólares que, según dijo, recibió una “fuerte participación” de Intel Capital y la presentación de su chip SN50 AI de próxima generación, que, según dijo, podría superar a los productos de la competencia. La ronda de financiación estuvo liderada por las firmas de capital privado Vista Equity Partners y Cambium Capital.
[Related: Exclusive: Intel Taps Ex-Arm, HPE Exec For Data Center Systems Post Amid AI Reorg]
Al llamar al SN50 “el chip más eficiente para la IA agente”, la startup con sede en San José, California, dijo que el chip, cuyo lanzamiento está previsto para finales de este año, es hasta cinco veces más rápido que los chips rivales y puede ejecutar cargas de trabajo de IA agente a costos tres veces más bajos que las GPU.
“La inteligencia artificial ya no es una competencia para construir el modelo más grande”, dijo en un comunicado Rodrigo Liang, cofundador y director ejecutivo de SambaNova. “Con SN50 y nuestra profunda colaboración con Intel, la verdadera carrera es quién puede iluminar centros de datos completos con agentes de IA que respondan instantáneamente, nunca se detengan y lo hagan a un costo que transformará la IA de un experimento al motor más rentable de la nube”.
Intel: la conectividad SambaNova completa la estrategia de IA
SambaNova hizo los anuncios de financiación y asociación después de que Bloomberg informara el mes pasado que las conversaciones para que Intel adquiriera la startup se habían estancado. Radiodifusión reportado por primera vez Sobre las conversaciones de adquisición entre las dos empresas el pasado mes de octubre.
Un portavoz de la startup dijo que el acuerdo de adquisición “no se está discutiendo en este momento”. Un portavoz de Intel se negó a comentar sobre el asunto.
El representante de Intel dijo que la asociación estratégica de la compañía con SambaNova tiene como objetivo complementar su estrategia de infraestructura de IA, que se extiende desde CPU Xeon hasta GPU. El año pasado, el gigante de los semiconductores se comprometió a crear una hoja de ruta de GPU para centros de datos con un calendario de lanzamiento anual antes de contratar a un nuevo ejecutivo. Arquitecto jefe de GPU En enero.
“Los clientes quieren más opciones y formas más eficientes de escalar la IA”, dijo en un comunicado Kevork Kechichian, presidente del Grupo de Centros de Datos de Intel. “Al combinar el liderazgo de Intel en informática, redes y memoria con los sistemas de IA de pila completa y la plataforma de inferencia en la nube de SambaNova, ofrecemos una opción atractiva para las organizaciones que buscan alternativas de GPU para implementar IA avanzada a escala”.
El director ejecutivo de Intel, Lip-Bu Tan, ha sido presidente de la junta directiva de SambaNova desde su fundación en 2017, según su perfil de LinkedIn. Las empresas de inversión Celesta Capital y Walden International se encuentran entre los inversores desde hace mucho tiempo. Si bien un portavoz de SambaNova se negó a decir si las empresas participaron en la ronda de financiación Serie E o si poseen acciones de la startup, el representante las describió como “inversores de larga data”.
Se espera que SambaNova aproveche los canales de ventas de Intel
SambaNova dijo que la ronda de financiación ayudará a aumentar la producción y distribución del SN50, junto con su nueva asociación con Intel para ofrecer “inferencia de IA a escala de la nube”, lo que llama una oportunidad de mercado multimillonaria.
La colaboración de varios años entre SambaNova e Intel se centrará en ofrecer “soluciones de inferencia de IA rentables y de alto rendimiento para empresas nativas de IA, proveedores de modelos, corporaciones y agencias gubernamentales de todo el mundo”.
Esto implicará la expansión de la plataforma de nube de IA integrada verticalmente de SambaNova utilizando las CPU Xeon de Intel, y estará “respaldada por arquitecturas de referencia, planes de implementación y asociaciones con integradores de sistemas y proveedores de software”, dijo.
La startup dijo que la combinación de sus sistemas con CPU, aceleradores y tecnologías de redes de Intel impulsará “inferencias escalables y listas para producción para razonamiento, generación de código, aplicaciones multimodales y flujos de trabajo mediados”.
Las dos empresas planean participar en actividades conjuntas de ventas y marketing para estas ofertas; Se espera que Intel aproveche sus “canales globales empresariales, de nube y de socios para acelerar la adopción en todo el ecosistema de IA”.
SN50: SoftBank se convierte en su primer cliente; Detalles del primer chip
SambaNova dijo que su primer cliente SN50 es el gigante inversor japonés SoftBank Group, que planea integrar el chip en centros de datos de inteligencia artificial de próxima generación en Japón.
SoftBank, además de poseer grandes participaciones en Intel y su rival Arm el año pasado Arm adquiere Ampere Computing, que diseña CPU compatibles y el inicio de chips de IA Graphcore año anterior como parte de un nuevo impulso a la infraestructura de IA.
SambaNova dijo que el SN50 utiliza la arquitectura de Unidad de datos reconfigurable (RDU) para permitir una “latencia ultrabaja” para una “capacidad de respuesta en tiempo real” en aplicaciones como asistentes de voz y “potenciar miles de sesiones de IA simultáneas con un alto rendimiento constante”.
La startup ha dicho anteriormente que una de las fortalezas de la arquitectura RDU es su capacidad para combinar múltiples procesos en una sola llamada al kernel, eliminando la sobrecarga asociada con la invocación de múltiples llamadas al kernel y, como resultado, acelerando el rendimiento.
También se afirmó que SN50 permite una “mayor utilización del hardware” para reducir el costo de generar tokens y aumentar el retorno de la inversión para la inferencia de IA.
Además, SambaNova dijo que el SN50 utiliza tres niveles de memoria (SRAM, HBM y DDR) para ofrecer una “capacidad de modelo innovadora” que permite ejecutar modelos con más de 10 billones de parámetros y más de 10 millones de longitudes de contexto. Según la startup, esta arquitectura de memoria de tres capas está optimizada con la “memoria multimodelo integrada y el almacenamiento en caché mediado” del chip para reducir los costos de infraestructura para implementaciones de IA a escala empresarial.
Si bien la startup no ofreció más detalles sobre la arquitectura de memoria de tres capas del SN50, sí explicó cómo se usó cada capa de memoria para el chip SN40L de la generación anterior: DDR proporciona la capacidad de albergar cientos de modelos y la posibilidad de intercambiarlos rápidamente en un solo zócalo, HBM “mantiene el modelo actualmente en ejecución y almacena en caché los demás”, y la SRAM distribuida “permite una alta densidad operativa a través de la fusión espacial de núcleos y el paralelismo a nivel de banco”.
Un portavoz de SambaNova dijo que sus afirmaciones competitivas de rendimiento y costo total de propiedad se “basan en una comparación interna del SN50 con sistemas GPU de generación actual ampliamente implementados que ejecutan modelos de lenguaje grandes”.
El representante agregó que aunque el reclamo de aumento de rendimiento se basó en “aumentos de rendimiento de extremo a extremo en cargas de trabajo de inferencia sensibles a la latencia”, el reclamo de costos más bajos se basó en “modelado a nivel de sistema en implementaciones de producción representativas que combinan hardware, energía, refrigeración, redes y uso continuo”.














