Nvidia anunció el lunes nuevos modelos de infraestructura y IA mientras trabaja para construir la tecnología base para la IA física, incluidos robots y vehículos autónomos que puedan percibir e interactuar con el mundo real.

El gigante de los semiconductores anunció el Almayoyo-R1, un modelo de lenguaje de visión de razonamiento abierto para la investigación de conducción autónoma en la conferencia NeurIPS AI en San Diego, California. La compañía afirma que este es el primer modelo de acción de lenguaje de visión centrado en la conducción autónoma. Los modelos de lenguaje visual pueden procesar texto e imágenes juntos, permitiendo a los vehículos “ver” su entorno y tomar decisiones basadas en lo que perciben.

Este nuevo modelo está basado en Nvidia Modelo Cosmos-Razónun modelo de razonamiento que piensa en las decisiones antes de responder. Nvidia lanzó inicialmente la familia de modelos Cosmos en enero de 2025. Adicional modelos fueron lanzados en agosto.

Tecnología como la Alpamayo-R1 es fundamental para las empresas que buscan alcanzar el nivel 4 de conducción autónoma, lo que significa autonomía total en un área definida y en circunstancias específicas, dijo Nvidia en un comunicado. publicación de blog.

Nvidia espera que este tipo de modelo de razonamiento dé a los vehículos autónomos el “sentido común” para abordar mejor las decisiones de conducción matizadas como lo hacen los humanos.

Este nuevo modelo está disponible en GitHub y Hugging Face.

Junto con el nuevo modelo de visión, Nvidia también ha subido nuevas guías paso a paso, recursos de inferencia y flujos de trabajo posteriores al entrenamiento en GitHub, denominados colectivamente Cosmos Cookbook, para ayudar a los desarrolladores a utilizar y entrenar mejor los modelos Cosmos para sus casos de uso específicos. La guía cubre la curación de datos, la generación de datos sintéticos y la evaluación de modelos.

Evento tecnológico

san francisco
|
13-15 de octubre de 2026

Estos anuncios se producen cuando la compañía avanza a toda máquina hacia la IA física como un nuevo camino a seguir para sus GPU de IA avanzadas.

El cofundador y director ejecutivo de Nvidia, Jensen Huang, ha dicho repetidamente que el la próxima ola de IA es la IA física. Bill Dally, científico jefe de Nvidia, se hizo eco de este sentimiento en una conversación con TechCrunch durante el verano, enfatizando la IA física en la robótica.

“Creo que con el tiempo los robots serán un actor importante en el mundo y básicamente queremos crear los cerebros de todos los robots”, dijo Dally en ese momento. “Para hacer esto, necesitamos comenzar a desarrollar las tecnologías clave”.

Vea las últimas revelaciones sobre todo, desde la inteligencia artificial de las agencias y la infraestructura de la nube hasta la seguridad y más en el evento emblemático de Amazon Web Services en Las Vegas. Este vídeo se presenta en asociación con AWS.

Fuente