A finales del año pasado, Google se llevó brevemente la corona del modelo de IA más potente del mundo con el lanzamiento de Géminis 3 Pro – solo para ser superado en unas semanas por el lanzamiento de nuevos modelos de OpenAI y Anthropic, algo común en la ferozmente competitiva carrera de la IA.

Ahora Google ha vuelto para recuperar el trono con una Versión actualizada de este modelo estrella: Gemini 3.1 Proposicionado como una base más inteligente para tareas donde una respuesta simple es insuficiente: apuntando a flujos de trabajo de ciencia, investigación e ingeniería que requieren una planificación y síntesis profundas.

Ya, evaluaciones realizadas por una empresa externa Análisis artificial muestran que Gemini 3.1 Pro de Google ha saltado al frente del grupo y es una vez más el modelo de IA más potente y de alto rendimiento del mundo.

Un gran salto en el razonamiento central

El avance más significativo de Gemini 3.1 Pro radica en su desempeño en rigurosos puntos de referencia lógicos. En particular, el modelo logró una puntuación verificada del 77,1 % en ARC-AGI-2.

Este punto de referencia en particular está diseñado para evaluar la capacidad de un modelo para resolver patrones lógicos completamente nuevos que no encontró durante el entrenamiento.

Este resultado representa más del doble del rendimiento de razonamiento del modelo anterior Gemini 3 Pro.

Más allá de la lógica abstracta, las pruebas internas indican que 3.1 Pro es altamente competitivo en dominios especializados:

  • Conocimiento científico: Obtuvo una puntuación del 94,3 % en GPQA Diamond.

  • Codificación: Logró un Elo de 2887 en LiveCodeBench Pro y obtuvo una puntuación del 80,6 % en SWE-Bench Verified.

  • Comprensión multimodal: Logró el 92,6% en MMMLU.

Estos avances técnicos no son sólo incrementales; representan un refinamiento en la forma en que el modelo maneja tokens “pensantes” y tareas de largo plazo, proporcionando una base más confiable para los desarrolladores que crean agentes autónomos.

Codificación de vibración mejorada y síntesis 3D.

Google está demostrando la utilidad del modelo a través de la “inteligencia aplicada”, cambiando el enfoque de las interfaces de chat a los resultados funcionales.

Una de las características más destacadas es la capacidad de la plantilla para generar SVG animados “codificados por vibración” directamente a partir de indicaciones de texto. Debido a que están basados ​​en código en lugar de píxeles, siguen siendo escalables y mantienen tamaños de archivo pequeños en comparación con el vídeo tradicional, ofreciendo imágenes mucho más detalladas, presentables y profesionales para sitios web, presentaciones y otras aplicaciones comerciales.

Otras aplicaciones destacadas incluyen:

  • Síntesis de sistemas complejos: El modelo configuró con éxito un flujo de telemetría público para construir un tablero aeroespacial en vivo que visualiza la órbita de la Estación Espacial Internacional.

  • Diseño interactivo: En una demostración, 3.1 Pro codificó un complejo murmullo de estornino en 3D que los usuarios pueden manipular mediante el seguimiento manual, acompañado de una partitura de audio generativa.

  • Codificación creativa: La modelo tradujo los temas atmosféricos de la película de Emily Brontë. Cumbres borrascosas en un diseño web moderno y funcional, que demuestra la capacidad de razonar a través del tono y el estilo en lugar de simplemente texto literal.

Impacto empresarial y reacciones de la comunidad

Los socios empresariales ya han comenzado a integrar la versión preliminar de 3.1 Pro, informando mejoras notables en confiabilidad y eficiencia.

Vladislav Tankov, director de IA de JetBrains, observó una mejora de calidad del 15 % con respecto a las versiones anteriores y afirmó que el modelo es “más fuerte, más rápido… y más eficiente, y requiere menos tokens de salida”. Otras reacciones de la industria incluyen:

  • Bloques de datos: El director de tecnología, Hanlin Tang, informó que el modelo logró los “mejores resultados de su clase” en OfficeQA, un punto de referencia para el razonamiento basado en datos tabulares y no estructurados.

  • Rueda: El cofundador Andrew Carr destacó la “comprensión sustancialmente mejorada de las transformaciones 3D” del modelo, y señaló que resolvió errores de orden de rotación de larga data en los procesos de animación 3D.

  • Horizontes de Hostinger: El jefe de producto, Dainius Kavoliunas, señaló que el modelo comprende la “ambiente” detrás de un mensaje, traduciendo la intención en un código con un estilo preciso para los no desarrolladores.

Precios, licencias y disponibilidad

Para los desarrolladores, el aspecto más llamativo de la versión 3.1 Pro es la “relación dólar-dólar”. Cuando se lanzó Gemini 3 Pro, se posicionó en el rango de precio medio-alto con $2,00 por millón de tokens de entrada para indicaciones estándar. Gemini 3.1 Pro mantiene exactamente esta estructura de precios, ofreciendo de manera efectiva una mejora masiva del rendimiento sin costo adicional para los usuarios de API.

  • Precio de entrada: 2,00 dólares estadounidenses por millón de tokens para solicitudes de hasta 200 mil; $4.00 por 1 millón de tokens para solicitudes de más de 200K.

  • Precio de salida: US$ 12,00 por millón de tokens para solicitudes de hasta 200 mil; $18.00 por 1 millón de tokens para solicitudes de más de 200k.

  • Caché de contexto: Se factura entre $0,20 y $0,40 por 1 millón de tokens, dependiendo del tamaño del mensaje, más una tarifa de almacenamiento de $4,50 por 1 millón de tokens por hora.

  • Relleno de búsqueda: 5.000 solicitudes al mes son gratuitas, seguidas de un cargo de 14 dólares por cada 1.000 consultas de búsqueda.

Para los consumidores, el modelo se está implementando en la aplicación Gemini y NotebookLM con límites más altos para los suscriptores de Google AI Pro y Ultra.

Implicaciones de licencia

Como modelo propietario ofrecido a través de Estudio Vértice en Nube de Google y el API de Géminis3.1 Pro sigue un modelo de negocio estándar SaaS (software como servicio) en lugar de una licencia de código abierto.

Para los usuarios empresariales, esto proporciona un “razonamiento razonado” dentro del perímetro de seguridad de Vertex AI, lo que permite a las empresas operar con confianza con sus propios datos.

El estado “Vista previa” permite a Google perfeccionar la seguridad y el rendimiento del modelo antes de su disponibilidad general, una práctica común en la implementación de IA de alto riesgo.

Al duplicar el razonamiento básico y los puntos de referencia especializados como ARC-AGI-2, Google está indicando que la siguiente fase de la carrera de la IA la ganarán modelos que puedan pensar en un problema, no solo predecir la siguiente palabra.

Fuente