- Apple y Google sellan un acuerdo para que Gemini impulse la nueva Siri y los modelos Apple Intelligence.
- La primera oleada de funciones llegará con iOS 26.4 y una Siri más útil dentro de las apps.
- Con iOS 27, Siri se convertirá en un chatbot integrado (proyecto Campos) en iPhone, iPad y Mac.
- Gemini se ejecutará en la nube de Google, con dudas sobre privacidad y uso de datos, y una compatibilidad limitada a iPhones con 8 GB de RAM.

Æble se prepara para una de las mayores transformaciones de su ecosistema en años. Tras múltiples retrasos y promesas incumplidas, la compañía ya tiene fecha y hoja de ruta para presentar la nueva Siri basada en modelos de inteligencia artificial generativa, con Google como socio clave a través de Gemini.
Esta renovación no se limita a un cambio de voz o a unos cuantos comandos extra: supone que el asistente de Apple pase de ser un sistema de órdenes limitado a un chatbot conversacional integrado en iOS, iPadOS y macOS, capaz de leer lo que hay en pantalla, encadenar tareas entre apps y apoyarse en la nube de Google para las funciones más complejas.
Un acuerdo histórico: Gemini como motor de la nueva Siri

Hace apenas unos días se confirmó que Apple y Google han firmado un acuerdo plurianual de colaboración en IA. En la práctica, esto significa que la próxima generación de modelos básicos de Apple —sus llamados Foundation Models— se construirá sobre variantes personalizadas de Gemini y se ejecutará en gran parte sobre la infraestructura en la nube de Google.
Según la información filtrada, Apple pagará una suma anual muy elevada por el uso de estos modelos avanzados, con variantes de hasta 1,2 billones de parámetros para las tareas más exigentes, como resúmenes largos, planificación compleja o generación de contenido. Los modelos propios y más ligeros de Apple seguirán ejecutándose en el dispositivo para órdenes rápidas y funciones sensibles a la latencia.
Este movimiento supone una ruptura con el discurso de los últimos años, en el que Apple había defendido a capa y espada que toda la inteligencia clave de Siri y Apple Intelligence se desarrollaría en casa. Ahora, la compañía reconoce de facto que necesita el músculo de Google para no quedarse descolgada frente a Gemini, ChatGPT y otros grandes modelos del mercado.
Privacidad y servidores: la gran contradicción de Apple
Uno de los puntos más delicados del nuevo enfoque es la gestión de los datos. Apple lleva años construyendo su imagen alrededor de la idea de que la información del usuario se queda en el iPhone o, como mucho, en sus propios servidores bajo estrictos controles criptográficos. Con la nueva Siri, esa promesa se complica.
Para poder ejecutar los modelos de Gemini de última generación, Apple no dispondría de la capacidad suficiente en su nube privada, por lo que una parte del procesamiento deberá realizarse en la infraestructura de Google, los mismos servidores que ya emplea la compañía para sus propios servicios. Eso implica que muchas de las consultas avanzadas a la nueva Siri viajarán a la nube de Google antes de volver al dispositivo con una respuesta.
Apple insiste en que seguirá utilizando una arquitectura de tipo Privat cloud-beregning, con cifrado extremo a extremo, verificación de software y eliminación de los datos tras cada petición. Sin embargo, diversas fuentes señalan que el cambio de estrategia choca frontalmente con el mensaje lanzado en la WWDC 2024, donde la compañía llegó a presentar como poco seguras las soluciones que dependían de nubes de terceros.
El giro no es menor: la nueva Siri más potente dependerá de servidores externos y de la tecnología de una empresa con la que Apple ha competido históricamente en casi todos los frentes. Para una parte de los usuarios —sobre todo en Europa, muy sensibilizada con la privacidad— será un punto a seguir de cerca cuando el servicio esté plenamente operativo.
iOS 26.4: la primera oleada de la nueva Siri

La renovación de Siri llegará por fases. La primera gran actualización será iOS 26.4, cuya beta se espera para febrero y cuyo despliegue generalizado se situaría entre finales de marzo y comienzos de abril de 2026. Esta versión marcará el estreno público de las funciones iniciales de la nueva Siri impulsada por Apple Intelligence y Gemini.
Apple ya presentó una versión preliminar de esta Siri “mejorada” hace más de un año, pero la pospuso alegando que no alcanzaba sus estándares de calidad. Ahora, tras la crisis interna que supuso aquel retraso, la compañía promete que por fin veremos un asistente capaz de profundizar mucho más en el sistema: leer el calendario, entender la ubicación de una cita y cruzarla con el tráfico en Maps, por ejemplo, para indicarnos a qué hora conviene salir de casa.
En el día a día, esta primera oleada se notará en varios frentes: acciones más complejas dentro de las apps, mayor comprensión del contexto personal y capacidad para analizar en cierta medida lo que ocurre en la pantalla. La idea es que Siri deje de ser un “botón torpe” al que recurrimos solo para poner alarmas o enviar mensajes rápidos.
Los rumores apuntan a que Apple lanzará estas novedades también en España y el resto de Europa dentro de la misma ventana temporal, algo especialmente relevante tras la llegada inicial de Apple Intelligence a nuestro mercado hace casi un año. Aun así, el alcance exacto de estas funciones puede ir variando según la regulación y los acuerdos locales.
Compatibilidad: qué iPhone podrán usar la nueva Siri
Uno de los grandes interrogantes es qué dispositivos podrán aprovechar realmente estas mejoras. Apple Intelligence nació con una restricción clara: solo funciona en equipos con al menos 8 GB de RAM, ya que buena parte de los modelos de IA se ejecutan directamente en el dispositivo.
La integración de Gemini no cambiará, en principio, esta realidad. Todo apunta a que la nueva Siri basada en Gemini seguirá siendo exclusiva de los iPhone compatibles con Apple Intelligence, es decir, perfiles como iPhone 15 Pro, iPhone 16, iPhone 17 o la futura gama iPhone Air. Muchos modelos anteriores, aun pudiendo instalar iOS 26, quedarían fuera de las funciones estrella del asistente.
Los usuarios con iPhones sin Apple Intelligence podrán seguir utilizando la versión clásica de Siri, con algún retoque menor, pero sin acceso al chatbot avanzado ni a las capacidades de análisis profundo de pantalla y contexto. En la práctica, se mantendrá la misma división de gama que ya conocemos, pese a que existan alternativas como Gemini o ChatGPT que sí se ejecutan en modelos más antiguos mediante apps.
Esta decisión no está exenta de polémica, sobre todo en mercados europeos donde la renovación de terminal suele espaciarse más y donde las normativas digitales ya han obligado a Apple a flexibilizar parte de su ecosistema. Por ahora, sin embargo, la compañía parece decidida a mantener la IA de nueva generación como un elemento diferencial de los iPhone más recientes.
De asistente a chatbot: el proyecto Campos en iOS 27

La verdadera revolución llegará unos meses más tarde, con iOS 27. Varios informes —incluidos los de Mark Gurman y otros medios especializados— describen un proyecto interno con nombre en clave «Campos», cuyo objetivo es transformar por completo la interfaz y el comportamiento de Siri.
En este nuevo modelo, Siri dejará de ser un sistema de órdenes rígidas para convertirse en un chatbot integrado en el sistema operativo. El usuario seguirá invocando el asistente con “Siri” o manteniendo pulsado el botón lateral, pero detrás aparecerá un motor de lenguaje capaz de mantener conversaciones largas, entender matices y recordar el contexto dentro de una misma sesión.
Campos estará embebido en iOS 27, iPadOS 27 y macOS 27, con una primera presentación prevista para la WWDC de junio y un despliegue más amplio en otoño, coincidiendo con el lanzamiento de la nueva generación de iPhone. Algunas funciones podrían llegar antes en una actualización intermedia de iOS 26, a modo de prueba con una parte de la base de usuarios.
El salto de modelo implica que Siri pasará de ejecutar órdenes del tipo “pon una alarma” o “abre la app X” a convertirse en un verdadero interlocutor capaz de organizar tareas complejas. Un ejemplo ilustra bien el cambio de enfoque: se podrá pedir algo como “prepárame un viaje a Valencia este fin de semana, con hotel cancelable y las reuniones añadidas al calendario”, y que el sistema descomponga esa petición en múltiples pasos, apps y comprobaciones.
Un asistente que ve la pantalla y encadena apps
Una de las capacidades clave del nuevo Siri será su habilidad para “ver” lo que ocurre en la pantalla y combinar esa información con la conversación. Esto permitirá, por ejemplo, que el asistente lea un PDF que tengamos abierto, resuma una página web o extraiga datos concretos de una hoja de cálculo sin necesidad de copiar y pegar.
Además de la voz, el usuario podrá interactuar por texto como si estuviese en un chat. Apple ya había dado los primeros pasos con la opción de escribir a Siri, pero Campos llevará esa experiencia al centro del sistema. Esta vía será especialmente útil en contextos laborales o educativos, donde hablar en voz alta no siempre es práctico.
En segundo plano, la combinación de voz, texto y contexto visual permitirá encadenar varias aplicaciones en un mismo flujo. Siri podrá, por ejemplo, leer un documento en Archivos, extraer fechas y crear eventos en Calendario, generar un resumen en Notas y preparar después un borrador de correo en Mail para enviarlo a un grupo de contactos.
Apple prevé abrir una API para desarrolladores que permitiría a apps de terceros integrarse con este asistente conversacional. Así, una aplicación de música podría dejar que Siri recomiende nuevas canciones, una de fotografías aprovechar la IA para búsquedas complejas o una herramienta de programación como Xcode ofrecer asistencia avanzada al escribir código.
Gemini y los nuevos Foundation Models de Apple

Detrás de esta transformación se encuentra una evolución de los modelos de Apple Intelligence. La compañía trabaja con distintas generaciones de Apple Foundation Models que, aunque se presentan como tecnología propia, están estrechamente ligados a los modelos Gemini de Google en sus versiones más recientes.
Para la fase de iOS 26.4, Apple utilizaría modelos equivalentes a lo que denomina internamente Foundation Models versión 10, capaces de manejar acciones dentro de apps, comprender el contexto personal o leer parcialmente la pantalla. De cara a iOS 27 y al despliegue completo de Campos, la empresa ya prueba una variante superior, Foundation Models versión 11, descrita como competitiva frente a Tvillingerne 3 en tareas de planificación, razonamiento y creación de contenido.
La estrategia pasa por combinar modelos locales y en la nube. Para acciones sencillas o muy sensibles, como pequeños ajustes del sistema, se recurrirá a modelos que se ejecutan directamente en el dispositivo. Para peticiones más pesadas —grandes resúmenes, análisis extensos de documentos, búsquedas complejas— el sistema escalará de forma transparente a la nube de Google, siempre bajo la narrativa de Apple de que todo se hace de forma cifrada y sin almacenar datos.
Este enfoque híbrido es, en la práctica, el reconocimiento de que Apple no puede igualar por sí sola la escala de entrenamiento y la capacidad de cómputo de gigantes como Google o OpenAI en el corto plazo. Pero al mismo tiempo permite a la compañía mantener cierto control sobre la experiencia y seguir defendiendo su enfoque particular de privacidad y seguridad.
Privacidad, memoria y límites deliberados
Más allá de la infraestructura, Apple es muy consciente de que su reputación se juega buena parte de su credibilidad en el terreno de la privatliv. Desde que presentó Apple Intelligence, la compañía ha insistido en que su arquitectura está diseñada para minimizar el riesgo de fugas y de creación de perfiles demasiado detallados de los usuarios.
En el caso de la nueva Siri, diversas fuentes apuntan a que Apple limitará deliberadamente la “memoria” del asistente. A diferencia de otros chatbots que guardan años de historial y aprenden de cada conversación, Campos recordará menos de lo que técnicamente podría, restringiendo cuánto tiempo y qué tipo de interacciones se almacenan, incluso de forma temporal.
Se trata de un equilibrio delicado: demasiada memoria puede generar inquietud entre usuarios y reguladores, especialmente en Europa, mientras que muy poca reduce la utilidad de la herramienta. Apple intentará encontrar un punto intermedio que permita, por ejemplo, retomar temas dentro de una misma sesión o recordar preferencias básicas, sin convertir al asistente en un archivo viviente de toda nuestra actividad.
Al mismo tiempo, Google ha tenido que salir al paso para asegurar que no accederá a los datos personales de los usuarios de iPhone en el marco de este acuerdo. Es una promesa que tanto la Comisión Europea como las autoridades de protección de datos nacionales seguirán con atención cuando la nueva Siri empiece a manejar correos, fotos, documentos y conversaciones de decenas de millones de personas.
WWDC 2026 y las fechas clave del despliegue

La hoja de ruta de Apple para esta transición tiene varias paradas importantes. Después de la presentación inicial de la nueva Siri basada en Gemini prevista para finales de febrero de 2026 —probablemente en un evento reducido o briefing con prensa—, la siguiente gran cita será la Conferencia Mundial de Desarrolladores (WWDC).
Las filtraciones señalan que la WWDC de 2026, previsiblemente a partir del Mandag den 8. juni, será el escenario donde Apple muestre por primera vez el chatbot integrado de Campos y el resto de novedades profundas de Apple Intelligence fruto del acuerdo con Google. Aunque la compañía no suela mencionar directamente a sus socios en estos eventos, el papel de Gemini quedará implícito en muchas de las demostraciones.
Tras la keynote, las primeras betas de iOS 27, iPadOS 27 y macOS 27 llegarán a desarrolladores y usuarios inscritos en los programas de prueba, lo que permitirá ir desgranando el comportamiento real de la nueva Siri en un contexto más amplio. El lanzamiento definitivo se espera para otoño, junto a los nuevos iPhone y, previsiblemente, con restricciones por regiones y tipos de dispositivo en las funciones que dependan más de la nube.
Este calendario coloca a 2026 como el año de la reinvención de Siri, no tanto por la madurez de Apple Intelligence como proyecto propio, sino por el impulso que supone integrar de forma estructural los modelos de Google en el corazón del ecosistema.
La nueva Siri como pieza clave del negocio de Apple
Más allá del atractivo tecnológico, el cambio de Siri tiene una lectura estratégica. La apuesta por un asistente “tipo ChatGPT” es a la vez una maniobra defensiva y ofensiva dentro del negocio de Apple. Defensiva, porque la percepción de atraso en IA ya había empezado a lastrar las expectativas de crecimiento del iPhone, especialmente frente a los buques insignia de Android centrados en funciones inteligentes.
Ofensiva, porque si Apple consigue que Siri se convierta en un ayudante realmente útil y presente en todo el sistema, puede incrementar de forma significativa el uso de sus servicios de pago: desde iCloud y Apple Music hasta Apple TV+ o Apple Arcade. Cada vez que el asistente recomiende, organice o automatice algo, tendrá ocasión de empujar al usuario a profundizar en el ecosistema.
Se estima que la base instalada de dispositivos activos de Apple ya supera los 2.350 millones en todo el mundo, con decenas de millones de usuarios habituales de Siri solo en Estados Unidos y Europa. En ese contexto, cualquier mejora perceptible en el asistente se traduce en más tiempo de uso y mayor dependencia de la plataforma, algo crucial en un mercado de smartphones cada vez más maduro.
La gran incógnita para Cupertino es si, una vez desplegada la nueva Siri, el usuario sentirá un salto claro respecto al pasado o tendrá la sensación de que “no ha cambiado tanto”. Tras años de promesas y retrasos, el listón de expectativas es muy alto y una mejora tibia podría reforzar la idea de que la vanguardia de la IA se juega fuera del iPhone.
Más allá del móvil: el pin de IA y otros dispositivos con Siri renovada
En paralelo al rediseño de Siri en software, Apple estaría trabajando en nuevos dispositivos centrados en la inteligencia artificial que aprovecharían este asistente reforzado. Uno de los proyectos que más ruido ha generado es un pequeño gadget con forma de pin, de tamaño similar a un AirTag, pensado para llevar siempre encima.
Según filtraciones de medios como The Information, este dispositivo tendría un diseño circular, delgado y plano, con chasis de aluminio, elementos de vidrio, dos cámaras frontales (una estándar y otra gran angular), tres micrófonos, altavoz, un único botón físico y carga inalámbrica. Su propósito sería servir como interfaz de voz permanente con la nueva Siri basada en Gemini.
La propuesta recuerda a intentos recientes como el Humane AI Pin o el Rabbit R1: un accesorio sin pantalla tradicional, que se engancha a la ropa y que responde a comandos de voz, graba escenas cortas o toma notas apoyándose en la IA. La diferencia, en el caso de Apple, sería la integración profunda con iPhone, iCloud y el resto del ecosistema, algo que podría marcar la diferencia si el producto llega al mercado.
Las fechas manejadas sitúan este pin de IA en una posible ventana de lanzamiento en 2027, aunque las fuentes advierten de que el proyecto se encuentra en fases tempranas y no se descarta que se retrase o incluso se cancele si no cumple las expectativas internas. En cualquier caso, el simple hecho de que exista refuerza la idea de que Apple ve en la IA no solo una función de software sino un motor para nuevas categorías de hardware, incluidas las rumoreadas gafas inteligentes estilo Ray-Ban Meta.
Este enfoque de “nueva interfaz” encaja con la carrera global por definir cómo interactuaremos con la tecnología en la próxima década: voz frente a pantalla, móvil frente a wearables. Google sustituye su antiguo Assistant por Gemini en Android, OpenAI y Jony Ive desarrollan su propio gadget de IA, y los primeros pins comerciales han fracasado en ventas pero han abierto un camino que muchos quieren explorar.
Todo este movimiento alrededor de la nueva Siri —desde el acuerdo con Google hasta el proyecto Campos y los posibles dispositivos de IA— deja claro que Apple ha decidido abandonar la prudencia extrema con la que afrontó la primera ola de la IA generativa. El asistente que durante años se quedó atrás frente a Alexa y Google Assistant se apoya ahora en Gemini para intentar ponerse a la altura y, si la estrategia cuaja, convertir esa desventaja inicial en una nueva etapa de liderazgo apoyada en la integración de hardware, software y servicios. El éxito o el fracaso de esta apuesta marcará en buena medida cómo será usar un iPhone, un iPad o un Mac en Europa y el resto del mundo durante los próximos años.
Jeg er en teknologientusiast, der har vendt sine "nørde" interesser til et erhverv. Jeg har brugt mere end 10 år af mit liv på at bruge avanceret teknologi og pille ved alle slags programmer af ren nysgerrighed. Nu har jeg specialiseret mig i computerteknologi og videospil. Dette skyldes, at jeg i mere end 5 år har skrevet til forskellige hjemmesider om teknologi og videospil, og lavet artikler, der søger at give dig den information, du har brug for, på et sprog, der er forståeligt for alle.
Har du spørgsmål, så spænder min viden fra alt relateret til Windows styresystemet samt Android til mobiltelefoner. Og mit engagement er over for dig, jeg er altid villig til at bruge et par minutter og hjælpe dig med at løse eventuelle spørgsmål, du måtte have i denne internetverden.
