Técnica

Todo lo que aprendimos de Google I/O 2025: AI, AI y más AI

Desde la apertura de videos de introducción influenciados por la IA establecido en “You Get What You Da” de los nuevos radicales hasta el firma del CEO Sundar Pichai, Google I/O 2025 estaba lleno de noticias y actualizaciones para el gigante tecnológico y sus productos. Y cuando decimos empacados, lo decimos, ya que la E/S de Google de este año registró casi Dos horas.

Durante ese tiempo, Google compartió algunas grandes victorias para sus productos de IA, como Gemini que superan varias categorías en el Tabla de clasificación de Lmarena. Otro ejemplo del que Google parecía realmente orgulloso fue el hecho de que Gemini completó Pokémon Blue hace unas semanas.

Pero, sabemos para qué estás realmente aquí: actualizaciones de productos y nuevos anuncios de productos.

Además de unos pocos momentos repletos, Google pasó la mayor parte de esos 117 minutos hablando de lo que saldrá a continuación. Google E/S mezcla anuncios de productos orientados al consumidor con más orientados a los desarrolladores, desde las últimas actualizaciones de Gmail hasta el poderoso chip de Google, Ironwood, que llega a los clientes de Google Cloud a finales de este año.

Vamos a desglosar las actualizaciones y anuncios de productos que necesita saber del evento completo de dos horas, para que pueda alejarse con todas las conclusiones sin pasar el mismo tiempo que se necesita para ver una película importante para aprender sobre ellos.

Sin embargo, antes de sumergirnos, estas son las noticias más impactantes de Google E/S: el precio de suscripción que Google tiene para su plan Google AI Ultra. Si bien Google proporciona una suscripción base a $ 19.99 por mes, el Ultra Plan llega a la friolera de $ 249.99 por mes para su conjunto completo de productos con los límites de tarifa más altos disponibles.

Modo AI de Google Search AI

Google escondió lo que será fácilmente su característica más visible demasiado atrás en el evento, pero la superficialmente lo superficialmente lo superaremos hasta la cima.

En Google I/O, Google anunció que la nueva función del modo AI para la búsqueda de Google se lanzará hoy a todos en los Estados Unidos. Básicamente, permitirá a los usuarios usar la función de búsqueda de Google, pero con consultas más largas y complejas. Usando una “técnica de ventilador de consulta”, el modo AI podrá dividir una búsqueda en múltiples partes para procesar cada parte de la consulta, luego atraer toda la información para presentar al usuario. Google dice que el modo AI “verifica su trabajo” también, pero no está claro en este momento exactamente lo que eso significa.

Google anuncia el modo AI en la búsqueda de Google
Crédito: Google

El modo AI está disponible ahora. Más adelante en el verano, Google lanzará un contexto personal en modo AI, lo que hará sugerencias basadas en las búsquedas pasadas de un usuario y otra información contextual sobre el usuario de otros productos de Google como Gmail.

Además, otras características nuevas pronto llegarán al modo AI, como la búsqueda profunda, que puede sumergirse más profundamente en consultas buscando a través de múltiples sitios web y funciones de visualización de datos, que pueden tomar los resultados de búsqueda y presentarlas en un gráfico visual cuando corresponda.

Según Google, sus vistas generales de IA en búsqueda son vistas por 1.500 millones de usuarios cada mes, por lo que el modo AI claramente tiene la mayor base de usuarios potencial de todos los anuncios de Google hoy.

Compras de IA

De todos los anuncios en el evento, estas características de compras de IA parecían provocar la mayor reacción de los asistentes en vivo de Google I/O.

Conectado al modo AI, Google mostró su gráfico de compras, que incluye más de 50 mil millones de productos a nivel mundial. Los usuarios pueden describir el tipo de producto que están buscando, digamos un tipo específico de sofá, y Google presentará opciones que coincidan con esa descripción.

Compras de Google AI

Compras de Google AI
Crédito: Google

Google también tuvo una presentación significativa que mostraba a su presentador subir una foto de sí mismos para que la IA pudiera crear una imagen de lo que se vería en un vestido. Esta función de prueba virtual estará disponible en Google Labs, y es la versión IRL de Cher’s Despistado armario.

Luego, el presentador pudo usar un agente de compras de IA para vigilar la disponibilidad del artículo y rastrear su precio. Cuando cayó el precio, el usuario recibió una notificación del cambio de precios.

Google dijo que los usuarios podrán probar diferentes looks a través de AI en Google Labs a partir de hoy.

Android XR

Los tan esperados planes de vidrio AR/VR posteriores a Google de Google finalmente se presentaron en Google I/O. La compañía también presentó una serie de productos portátiles utilizando su sistema operativo AR/VR, Android XR.

Una parte importante del anuncio de Android XR es que Google parece comprender los diferentes casos de uso para un auricular inmersivo y un par de gafas inteligentes y han construido Android XR para acomodar eso.

Mientras que Samsung ha brindado previamente su Proyecto Moohan Auriculares XR, Google I/O marcó la primera vez que Google reveló el producto, que se está construyendo en asociación con el gigante móvil y el fabricante de chips Qualcomm. Google compartió que el auricular del Proyecto Moohan debería estar disponible a finales de este año.

Velocidad de luz mashable

Proyecto Moohan

Proyecto Moohan
Crédito: Google

Además de los auriculares XR, Google anunció anteojos con Android XR, glases inteligentes que incorporan una cámara, altavoces y una pantalla en lente que se conectan con el teléfono inteligente de un usuario. A diferencia de Google Glass, estas gafas inteligentes incorporarán más de moda gracias a las asociaciones con gentiles monstruos y Warby Parker.

Google compartió que los desarrolladores podrán comenzar a desarrollar para anteojos a partir del próximo año, por lo que es probable que una fecha de lanzamiento para las Gablas inteligentes siga después de eso.

Géminis

Fácilmente la estrella de Google I/O 2025 fue el modelo de IA de la compañía, Gemini. Google anunció una nueva actualización Géminis 2.5 Proque dice que es su modelo más poderoso hasta ahora. La compañía mostró que Gemini 2.5 Pro estaba acostumbrado para convertir los bocetos en aplicaciones completas en una demostración. Junto con eso, Google introdujo Géminis 2.5 Flashque es una versión más asequible del poderoso modelo Pro. Este último se lanzará a principios de junio con el primero saliendo poco después. Google también reveló Gemini 2.5 Pro Deep Pensar Para matemáticas y codificación compleja, que solo estarán disponibles para “probadores de confianza” al principio.

Hablando de codificación, Google compartió su agente de codificación asíncrono Julesque actualmente se encuentra en beta pública. Los desarrolladores podrán utilizar Jules para abordar las tareas de base de código y modificar archivos.

Agente de codificación de Jules

Agente de codificación de Jules
Crédito: Google

Los desarrolladores también tendrán acceso a un nuevo modelo nativo de texto de texto a voz que puede replicar la misma voz en diferentes idiomas.

La aplicación Gemini pronto verá un nuevo modo de agente, que trae a los usuarios un agente de IA que pueda investigar y completar tareas basadas en las indicaciones de un usuario.

Gemini también estará profundamente integrado en productos de Google como el espacio de trabajo con Respuestas inteligentes personalizadas. Gemini usará contexto personal a través de documentos, correos electrónicos y más de las aplicaciones de Google de un usuario para que coincida con su tono, voz y estilo para generar respuestas automáticas. Los usuarios del espacio de trabajo encontrarán la función disponible en Gmail este verano.

Otras características anunciadas para Géminis incluyen Investigación profundaque permite a los usuarios subir sus propios archivos para guiar al agente de IA al hacer preguntas, y Géminis en Chromeun asistente de IA que responde consultas utilizando el contexto en la página web en el que se encuentra un usuario. La última característica se lanzará esta semana para los suscriptores de Géminis en los EE. UU.

Google tiene la intención de llevar a Gemini a todos sus dispositivos, incluidos relojes inteligentes, autos inteligentes y televisores inteligentes.

Actualizaciones generativas de IA

Las capacidades de asistente de IA de Gemini y las actualizaciones del modelo de idioma fueron solo una pequeña pieza del rompecabezas de IA más amplio de Google. La compañía tuvo una serie de anuncios generativos de IA también para hacer.

Google anunciado Imagen 4su último modelo de generación de imágenes. Según Google, Imagen 4 proporciona detalles más ricos y mejores imágenes. Además, Imagen 4 es aparentemente mucho mejor para generar texto y tipografía en sus gráficos. Esta es un área en la que los modelos de IA son notoriamente malos, por lo que Imagen 4 parece ser un gran paso adelante.

Herramienta de video de flujo ai

Herramienta de video de flujo ai
Crédito: Google

Un nuevo modelo de generación de videos, Veo 3también se dio a conocer con una herramienta de generación de videos llamado Fluir. Google afirma que VEO 3 tiene una mayor comprensión de la física al generar escenas y también puede crear efectos de sonido, ruido de fondo y diálogo.

Tanto Veo 3 como Flow están disponibles hoy junto con un nuevo modelo de música generativa llamada Lyria 2.

Google I/O también vio el debut de Lienzo de geminique Google describe como una plataforma de co-creación.

Project Starline, también conocido como Google Beam

Otro gran anuncio de Google I/O: Project Starline ya no existe.

El proyecto de comunicación inmersiva de Google ahora se conocerá como Google Beam, una plataforma de comunicación AI-First.

Como parte de Google Beam, Google anunció las traducciones de Google Meet, que básicamente proporciona la traducción del habla en tiempo real durante las reuniones en la plataforma. AI podrá igualar la voz y el tono de un altavoz, por lo que parece que la traducción proviene directamente de ellos. Las traducciones de Google Meet están disponibles en inglés y español a partir de hoy con más idioma en el camino en las próximas semanas.

Traducciones de Google Meet

Traducciones de Google Meet
Crédito: Google

Google también tuvo otro proyecto de trabajo en progreso para burlarse de Google Beam: una plataforma de conferencia tridimensional que utiliza múltiples cámaras para capturar a un usuario desde diferentes ángulos para representar al individuo en una pantalla de campo de luz 3-D.

Proyecto Astra

Si bien Project Starline puede haber sufrido un cambio de nombre, parece que Project Astra todavía lo está pateando en Google, al menos por ahora.

Project Astra es el asistente de IA universal del mundo real de Google y Google tuvo mucho que anunciar como parte de él.

Géminis en vivo es una nueva característica de asistente de IA que puede interactuar con el entorno de un usuario a través de la cámara y la entrada de audio de su dispositivo móvil. Los usuarios pueden hacer preguntas en vivo de Gemini sobre lo que están capturando en cámara y el asistente de IA podrá responder consultas basadas en esas imágenes. Según Google, Gemini Live se lanzará hoy a los usuarios de Gemini.

Géminis en vivo

Géminis en vivo
Crédito: Google

Parece que Google tiene planes de implementar las capacidades de IA Live de Project Astra en el modo AI de Google Search como una mejora de la búsqueda visual de Google Lens.

Google también destacó algunas de sus esperanzas para Gemini Live, como poder ayudar como una herramienta de accesibilidad para aquellos con discapacidades.

Proyecto Marinero

Otro de los proyectos de IA de Google es un agente de IA que puede interactuar con la web para completar tareas para el usuario conocido como Project Mariner.

Si bien Project Mariner se anunció previamente a fines del año pasado, Google tenía algunas actualizaciones, como una función de tareas múltiples que permitiría a un agente de inteligencia artificial trabajar en hasta 10 tareas diferentes simultáneamente. Otra nueva característica es Teach and Repeat, que proporcionaría al agente de IA la capacidad de aprender de tareas completadas previamente para completar otras similares sin la necesidad de la misma dirección detallada en el futuro.

Google anunció planes para llevar estas capacidades de AI de agente a Chrome, la búsqueda de Google a través del modo AI y la aplicación Gemini.

Fuente

Related Articles

Back to top button