Apple Intelligence: todo lo que necesita saber sobre el modelo y los servicios de AI de Apple

Si recientemente ha actualizado a un modelo de iPhone más nuevo, probablemente haya notado que Apple Intelligence se está presentando en algunas de sus aplicaciones más utilizadas, como mensajes, correo y notas. Apple Intelligence (sí, también abreviado a IA) apareció en el ecosistema de Apple en octubre de 2024, y está aquí para permanecer mientras Apple compite con Google, OpenAi, Anthrope y otros para construir las mejores herramientas de IA.
¿Qué es Apple Intelligence?
Los ejecutivos de marketing de Cupertino han marcado la inteligencia de Apple: “AI para el resto de nosotros”. La plataforma está diseñada para aprovechar las cosas que la IA generativa ya hace bien, como el texto y la generación de imágenes, para mejorar las características existentes. Como otras plataformas, incluidas las Chatgpt y Google GéminisApple Intelligence fue entrenada en grandes modelos de información. Estos sistemas utilizan el aprendizaje profundo para formar conexiones, ya sea texto, imágenes, video o música.
La oferta de texto, impulsada por LLM, se presenta como herramientas de escritura. La función está disponible en varias aplicaciones de Apple, incluidos correo, mensajes, páginas y notificaciones. Se puede utilizar para proporcionar resúmenes de texto largo, revisar e incluso escribir mensajes para usted, utilizando contenido y indicaciones de tono.
La generación de imágenes también se ha integrado, de manera similar, aunque un poco menos sin problemas. Los usuarios pueden incitar a Apple Intelligence a Generar emojis personalizados (genmojis) En un estilo de Apple House. Image Playground, mientras tanto, es un aplicación de generación de imágenes independiente que utiliza indicaciones para crear contenido visual que se puede usar en mensajes, con la historia magistral o compartida a través de las redes sociales.
Apple Intelligence también marca un tan esperado Levantamiento de la cara para Siri. El asistente inteligente llegó temprano al juego, pero en su mayoría ha sido descuidado durante los últimos años. Siri está integrado mucho más profundamente en los sistemas operativos de Apple; Por ejemplo, en lugar del ícono familiar, los usuarios verán una luz brillante alrededor del borde de la pantalla de su iPhone cuando haga lo suyo.
Más importante aún, El nuevo Siri funciona en las aplicaciones. Eso significa, por ejemplo, que puede pedirle a Siri que edite una foto y luego la inserte directamente en un mensaje de texto. Es una experiencia sin fricción que el asistente había faltado anteriormente. La conciencia en la pantalla significa que Siri usa el contexto del contenido con el que está actualmente comprometido para proporcionar una respuesta apropiada.
Antes de WWDC 2025muchos esperaban que Apple nos presentara una versión aún más mejorada de Siri, pero vamos a tener que Espera un poco más.
Evento de TechCrunch
San Francisco
|
27-29 de octubre de 2025
“Como hemos compartido, continuamos nuestro trabajo para entregar las características que hacen que Siri sea aún más personal”, dijo Apple Svp of Software Engineering Craig Federighi en WWDC 2025. “Este trabajo necesitaba más tiempo para llegar a nuestro bar de alta calidad, y esperamos compartir más al respecto en el próximo año”.
Se supone que esta versión aún más personalizada de Siri de Siri es capaz de comprender el “contexto personal”, como sus relaciones, rutina de comunicaciones y más. Pero según un informe de Bloomberg, la versión en desarrollo de este nuevo Siri es Demasiado error para enviarde ahí su retraso.
En WWDC 2025, Apple también dio a conocer una nueva función de IA llamada Inteligencia visuallo que te ayuda a hacer una búsqueda de imágenes de cosas que ve mientras navegas. Apple también dio a conocer un Traducción en vivo característica que puede traducir conversaciones en tiempo real en las aplicaciones de mensajes, Facetime y Phone.
Se espera que la inteligencia visual y la traducción en vivo estén disponibles más adelante en 2025, Cuando iOS 26 se lanza al público.
¿Cuándo se dio a conocer Apple Intelligence?
Después de meses de especulación, Inteligencia de Apple tomó el centro del escenario en WWDC 2024. La plataforma se anunció a raíz de un torrente de noticias generativas de inteligencia artificial de compañías como Google y la IA abierta, causando preocupación de que el famoso gigante tecnológico de labios apretados se haya perdido el bote en la última locura tecnológica.
Sin embargo, al contrario de tales especulaciones, Apple tenía un equipo, trabajando en lo que resultó ser un enfoque muy de Apple para la inteligencia artificial. Todavía había pizzazz en medio de las demostraciones, a Apple siempre le encanta hacer un espectáculo, pero Apple Intelligence es, en última instancia, una versión muy pragmática de la categoría.
Apple Intelligence no es una característica independiente. Más bien, se trata de integrarse en las ofertas existentes. Si bien es un ejercicio de marca en un sentido muy real, la tecnología impulsada por el modelo de lenguaje grande (LLM) funcionará detrás de escena. En lo que respecta al consumidor, la tecnología se presentará principalmente en forma de nuevas características para las aplicaciones existentes.
Aprendimos más Durante el evento del iPhone 16 de Apple en septiembre de 2024. Durante el evento, Apple promocionó una serie de características que se impulsan la IA que llegan a sus dispositivos, desde Traducción en la serie Apple Watch 10, búsqueda visual en iPhonesy Varios ajustes a las capacidades de Siri. La primera ola de inteligencia de Apple está llegando a finales de octubre, Como parte de iOS 18.1, iPados 18.1 y MacOS Sequoia 15.1.
Las características lanzadas primero en inglés de EE. UU. Más tarde, Apple agregó localizaciones inglesas australianas, canadienses, de Nueva Zelanda, Sudáfrica y del Reino Unido. Apoyo a chino, inglés (India), inglés (Singapur), francés, alemán, italiano, japonés, coreano, portugués, español y vietnamita llegará en 2025.
¿Quién recibe inteligencia de Apple?

La primera ola de Inteligencia de Apple llegó en octubre de 2024 a través de iOS 18.1, iPados 18., y las actualizaciones de MacOS Sequoia 15.1. Estas actualizaciones incluyeron herramientas de escritura integradas, limpieza de imágenes, resúmenes de artículos y una entrada de mecanografía para el Experiencia rediseñada de Siri. Una segunda ola de características estuvo disponible como parte de iOS 18.2, iPados 18.2 y macOS Sequoia 15.2. Esa lista incluye, GenmojiPlayground de imagen, inteligencia visual, varita de imagen e integración de chatgpt.
Estas ofertas son de uso gratuito, siempre que tenga Una de las siguientes piezas de hardware:
- Todos los modelos de iPhone 16
- iPhone 15 Pro Max (A17 Pro)
- iPhone 15 Pro (A17 Pro)
- iPad Pro (M1 y más tarde)
- Aire del iPad (M1 y más tarde)
- iPad mini (A17 o posterior)
- MacBook Air (M1 y más tarde)
- MacBook Pro (M1 y más tarde)
- iMac (M1 y más tarde)
- Mac Mini (M1 y más tarde)
- Mac Studio (M1 Max y más tarde)
- Mac Pro (M2 Ultra)
En particular, solo las versiones Pro del iPhone 15 están obteniendo acceso, debido a las deficiencias en el chipset del modelo estándar. Presumiblemente, sin embargo, toda la línea del iPhone 16 podrá ejecutar Apple Intelligence cuando llegue.
¿Cómo funciona la IA de Apple sin conexión a Internet?

Cuando le pregunta a GPT o Gemini, su consulta se envía a servidores externos para generar una respuesta, lo que requiere una conexión a Internet. Pero Apple ha tomado un modelo pequeñoenfoque a medida para el entrenamiento.
El mayor beneficio de este enfoque es que muchas de estas tareas se vuelven mucho menos intensivas en recursos y se pueden realizar en el dispositivo. Esto se debe a que, en lugar de confiar en el tipo de enfoque de fregadero de la cocina que alimenta plataformas como GPT y Gemini, la compañía ha compilado conjuntos de datos internos para tareas específicas como, por ejemplo, componer un correo electrónico.
Sin embargo, eso no se aplica a todo. Las consultas más complejas utilizarán la nueva oferta de cómputo de la nube privada. La compañía ahora opera servidores remotos que se ejecutan en Apple Silicon, lo que afirma que le permite ofrecer el mismo nivel de privacidad que sus dispositivos de consumo. Si se realiza una acción localmente o a través de la nube será invisible para el usuario, a menos que su dispositivo esté fuera de línea, momento en el cual las consultas remotas arrojarán un error.
Inteligencia de Apple con aplicaciones de terceros

Se hizo mucho ruido sobre la asociación pendiente de Apple con Operai antes del lanzamiento de Apple Intelligence. En última instancia, sin embargo, resultó que el acuerdo era menos sobre impulsar la inteligencia de Apple y más de ofrecer una plataforma alternativa para esas cosas para las que realmente no está construido. Es un reconocimiento tácito de que construir un sistema de modelos pequeños tiene sus limitaciones.
La inteligencia de Apple es gratuita. Entonces también es el acceso a chatgpt. Sin embargo, aquellos con cuentas pagas para este último tendrán acceso a características premium que los usuarios gratuitos no lo hacen, incluidas consultas ilimitadas.
La integración de ChatGPT, que debuta en iOS 18.2, iPados 18.2 y MacOS Sequoia 15.2, tiene dos roles principales: complementar la base de conocimiento de Siri y agregar a las opciones de herramientas de escritura existentes.
Con el servicio habilitado, ciertas preguntas le pedirán al nuevo SIRI que le pida al usuario que apruebe su acceso CHATGPT. Las recetas y la planificación de viajes son ejemplos de preguntas que pueden surgir la opción. Los usuarios también pueden pedirle directamente a Siri que “solicite a ChatGPT”.
Compose es la otra característica principal de ChatGPT disponible a través de Apple Intelligence. Los usuarios pueden acceder a él en cualquier aplicación que admita la nueva función de escritura Herramientas. Compose agrega la capacidad de escribir contenido en función de un mensaje. Eso une herramientas de escritura existentes como estilo y resumen.
Sabemos con certeza que Apple planea asociarse con servicios de IA generativos adicionales. La compañía casi dijo que Google Gemini es el siguiente en esa lista.
¿Pueden los desarrolladores basarse en los modelos de IA de Apple?
En WWDC 2025Apple anunció lo que llama el Marco de modelos de baseque permitirá a los desarrolladores aprovechar sus modelos de IA mientras están fuera de línea.
Esto hace que sea más posible que los desarrolladores generen características de IA en sus aplicaciones de terceros que aprovechan los sistemas existentes de Apple.
“Por ejemplo, si se está preparando para un examen, una aplicación como Kahoot puede crear un cuestionario personalizado de sus notas para que el estudio sea más atractivo”, dijo Federighi en WWDC. “Y debido a que sucede usando modelos en el dispositivo, esto sucede sin los costos de la API de la nube […] No podríamos estar más entusiasmados con cómo los desarrolladores pueden construir sobre la inteligencia de Apple para brindarle nuevas experiencias inteligentes, disponibles cuando está fuera de línea y que protegen su privacidad “.
¿Cuándo obtiene Siri su próxima revisión?
Se espera que Apple presente una experiencia Siri nueva y mejorada en 2026, que ya es un poco tarde en comparación con los competidores. Puede ser un golpe para Apple, pero para acelerar el desarrollo, pueden no tener más remedio que asociarse con una compañía externa para alimentar el nuevo Siri. Apple ha sido rumorado estar en conversaciones avanzadas con Googlesu principal competidor de hardware de teléfonos inteligentes.